TyfloPrzegląd Odcinek nr 318

Pobierz napisy w formacie SRT
Pobierz napisy w formacie VTT
Fundacja Instytut Rozwoju Regionalnego prezentuje
Tyflo Podcast
W tym tygodniu w Tyflo Przeglądzie
Wikitrips, przewodnik po okolicy w formie apki na iPhona
Nowa wersja mobilnej aplikacji Polskiego Radia jest niedostępna dla iOS
Nowości w dodatkach do NVDA
NVIDIA 2026.1 już w wersji beta.
Blind Cube, aplikacja iOS dla miłośników kostki Rubika.
Apple przyspiesza syntezę mowy bez utraty jej jakości.
Wszystko to, a pewnie jeszcze więcej już za chwilę. Zaczynamy!
Tyfl Przegląd jest audycją prowadzoną na żywo, więc serdecznie zachęcamy Państwa do współtworzenia go razem z nami.
Oczekujemy na wiadomości głosowe na Whatsappie oraz połączenia telefoniczne pod numerem 663-883-600, powtarzam 663-883-600 oraz zapraszamy Państwa do wyrażania komentarzy w formie tekstowej poprzez formularz na stronie kontakt.tyfropodcast.net.
Odczytujemy również Państwa wypowiedzi zamieszczone pod transmisjami na Facebooku i YouTubie.
Staramy się też zaglądać na nasz tyflopodcastowy serwer Discorda.
Na naszym zegarku 20 i 15 minut, no to wyrobiliśmy się w akademickim kwadransie
i jak słyszeliście w naszych dzisiejszych informacjach w skrócie,
wszystkie znaki na niebie i na ziemi wskazują, że długo to my tu dziś nie zabawimy.
No ale wszystko może się zdarzyć, może być naprawdę jeszcze różnie, jeżeli chodzi o ten nasz…
Już nieraz udowodniliście nam, jak bardzo byliśmy w błędzie w tej chwili.
Dokładnie, dokładnie. Więc to wszystko jeszcze może być bardzo płynne.
W każdym razie na pewno zaczynamy 318. wydanie Teflo Przeglądu.
Jak słyszycie, dziś taki skromny skład, ale dostarczymy Wam trochę informacji i rozgrywki.
Spełniamy w ogóle dzisiaj marzenie chyba jednego z naszych słuchaczy,
który zgłosił, że chętnie by w duetach nas posłuchał.
No tak, to Sylwester zdaje się tak proponował.
No to dzisiaj jak na Olimpiadzie, będą duble.
Tak jest, dokładnie.
Witamy Was bardzo serdecznie.
Michał Dziwisz,
Paweł Masarczyk, jesteśmy z Wami.
Jesteście z nami też i Wy,
bo dzwonicie już do nas intensywnie
na naszą linię. No to może odbierzmy
ten pierwszy telefon. Kogo witamy
po drugiej stronie?
Kogoś z bardzo głośną klawiaturą.
Właśnie. Słyszalną.
Halo? Halo?
Słychać?
Tak, tylko że ja słyszę Picioku tylko Ciebie.
Nie słyszę niczego i reszty. Coś…
O, to już będziesz słyszał. Już będziesz słyszał.
O! Dzień dobry. Przepraszam bardzo.
Nie wiem czy… Jak mówiłeś coś, Michale, to musisz powtórzyć, bo kompletnie…
Że odbieramy telefon.
Tak. Dobrze, to się cieszę, że już nie jestem słyszalny.
Zmierzam z dwoma wiadomościami dzisiaj.
Oczywiście Aksel z tej strony.
Po pierwsze, udało mi się przeportować, myślę, całkiem sukcesywnie
Axel Ponga na iOS-a, w sensie te zmiany, które prowadziłem,
o których opowiadałem w zeszłym tygodniu na Windowsa.
I jest już to nawet w publicznym TestFlight’cie.
I dodał, tak jak wspominałem w zeszłym tygodniu,
Dodałem właśnie, dodaliśmy z Krystianem central server,
tak że można już spokojnie grać sobie na iPhone’ach też.
I zrobiłem nawet taką ciekawą rzecz, że jeśli
ktoś z iPhone’a utworzy pokój, to obok niego pojawia się plakietka,
czy jest osobą niewidomą, czy jest osobą widzącą.
Bo, jak pewnie wiecie,
akcent ponga na iOSie również mogą grać osoby widzące.
Gdyż udało mi się zaimplementować tam grafikę.
Więc, żeby była jasność, to osoby widzące właśnie…
Dlatego na iPhone’ach, jak ktoś tworzy grę,
to się pojawia przy tej osobie, przy nazwie pokoju,
pojawia się plakietka.
Na przykład, załóżmy, midzi, ty robisz z iOS-a pokój i wtedy pokaże się, jak wejdziemy w listę pokoi.
Midzi iOS niewidomy.
Dobrze, a ja mam takie pytanie. Czy to dzieje się automatycznie, czy my musimy wybrać, czy jesteśmy widzący, czy niewidomy?
Nie, to się dzieje automatycznie.
Powiem szczerze, moim zdaniem jest…
Ja bym się bardzo poważnie zastanowił nad tym,
czy robisz to w ten sposób.
Z jednego prostego powodu udostępniasz tak naprawdę publicznie dane wrażliwo użytkowniku.
Bo niepełnosprawność i rodzaj niepełnosprawności jest daną wrażliwą.
Z tym trzeba bardzo ostrożnie.
W sensie nawet już jak nie przekonuje Cię samo to, że to jest informacja wrażliwa,
to wytłumaczę to może trochę też inaczej.
Nie każdy może sobie życzyć, żeby z automatu taka informacja docierała.
Ja wiem, po co to jest ważne, bo grając przeciwko osobie widzącej
możemy nie mieć równych szans.
Dokładnie, i żeby ktoś wiedział o tym.
Okej, ale…
Ale to nie powinno być z automatu.
Dokładnie.
Jakby autentycznie, autentycznie może być to opcja w profilu.
Tak, że widzący niewidomy nie chce podawać to i…
ale nie powinno to być wyciągane od użytkownika z automatu,
bo możesz mieć zwyczajnie za takie rzeczy w pewnym momencie,
na przykład w trakcie review, kłopoty.
Albo później.
Tak, dokładnie.
No dobra, no to…
Nie zawsze jest to też prawdą, bo są osoby widzące,
Tak, tak, tak, dokładnie. Ale takich rzeczy generalnie nie robimy z automatu.
Dlatego, bo musiały wprowadzić jakiś system, coś, żeby wykrywało, czy ktoś jest
powiedzmy potencjalnie niewidomy bądź widomy, dlatego że mamy rankingi.
Mamy trzy kategorie rankingów, bo właśnie to też nie wspomniałem w zeszłym tygodniu,
bo to w sumie powstało jakoś niedawno temu. Mamy kategorie niewidomi,
Mamy kategorię mieszaną, czyli jeżeli niewidomy gra z osobą widzącą, to wtedy wpada do kategorii mieszanej.
I również jakby osoby widzące chciały pograć sobie, powalczyć ze sobą.
Żeby to wszystko było sprawiedliwie i uczciwie.
I to głównie chodzi o…
To moje pytanie jest jeszcze takie, bo tu bym się ewentualnie nad tym zastanowił.
Czy tam w tej grze, czy w Axel Pongu wpisujemy swoje niki?
Więc jesteśmy… OK, to jeszcze jest to jakoś może do obrony, ale…
Tak, możemy sobie wpisać cokolwiek tak naprawdę.
Jasne, jasne.
Jedynie mail musi się zgadzać, nie może być fałszywy, bo nie dostaniemy w tym momencie kodu weryfikacyjnego.
Jasne, natomiast jest to moim zdaniem tak czy inaczej takie automatyczne zbieranie informacji użytkowników, moim zdaniem jest red flagiem.
Ja to zabrę w polityce prywatności.
Ja to zaktualizuję oczywiście.
No i spróbujemy. Jak odrzucą, to wtedy poprawię to.
Jeżeli nie odrzucą, to fajnie, bo w publicznej becie,
w publicznym test flightie, review przeszło.
W każdym razie, to jest rzecz jedna, jak rozumiem.
Tak, to jest rzecz jedna. A druga rzecz, uwaga, uwaga.
Mamy światełko w tunelu, zielone, pojawiło się nam, dla iOS-owców,
jeżeli chodzi o polskiego, i nie tylko polskiego, RH Voice’a.
Gdyż i ponieważ pojawiło się publiczne repozytorium na GitHubie
RH Voice’a iOS-owego. Co prawda, moim zdaniem, po prostu dziurawe,
Jak szwajcarski ser.
Jak ja po prostu to repozytorium otworzyłem u siebie w Xcode,
to ja się po prostu zacząłem za głowę złapać i zacząłem sobie włosy z głowy wyrywać.
Po prostu to, co tam było, to była tragedia.
Tego się w ogóle podpisać nie dało w żaden sposób.
Później, pod głębszej analizie, na początku samemu,
okazało się, że ktoś tam wymusił,
w ogóle nie wiadomo po co i na co,
Miecku zrobił dwa tryby, jakby dwie kategorie chyba. Zrobił kategorię, zdaje się, debat i release i przy próbie podpisu swoim własnym teamem, tak zwanym, okazało się, że jest, po pierwsze, właśnie jest konflikt, bo ktoś…
Miecku, ale ja myślę, że to, o czym opowiadasz, to nie jest tak naprawdę informacją.
Dobrze, dobrze.
Będziemy mówić o etapach.
Dobrze.
Mamy, jest.
Udało mi się przede wszystkim wyeliminować…
Udało mi się wyeliminować buczenie takiej artefakty.
To Pisiok i Ty, Michale chyba wiecie o co chodzi, bo testowaliście.
Udało mi się to wyeliminować.
Co prawda, teraz zapotkałem trochę inny głos,
Ale zaraz… Właściwie specjalnie dzwonię z innego numeru telefonu,
żeby spróbować pokazać, jak to brzmi w tej chwili.
Wezmę sobie mojego iPhone’a.
I to jest oczywiście mój iPhone.
I nie wiem, czy to będzie słychać, ale to może przyciszę.
Jaka jest responsywność?
To znaczy, no słuchaj, że to działa szybko. Przez telefon to słuchać raczej słabo, ale słychać, że responsywność jest dość dobra. To prawda.
Tak, responsywność jest naprawdę moim zdaniem rewelacyjna. Oryginalnie takiej responsywności nie było.
I teraz w zasadzie został…
Aha, dodałem coś, co ma SBIC.
Suwak do regulacji pauz.
Można to zminimalizować wręcz do zera nawet.
Więc on będzie pytał
prawie z takim ciągiem.
Ja mam w tej chwili ustawione to na połowę.
I po słowie beta jest przecinek.
I w tej chwili tak to czyta.
Ja spróbuję może zaprezentować, pokazać jakiś tekst.
Ja dobrze słyszę, że ten resampling, który mi pokazywałeś, zniknął?
Czy on jeszcze jest?
Tak, zniknął. Oczywiście, że zniknął.
Nie ma już. Właśnie, bo widzisz…
Właśnie, bo Piotr jeszcze był na etapie i słyszał, że miałem taki…
Jak zrobiłem responsywność, pojawił się taki bardzo chamski resampling
Pyrczał ten głos po prostu.
Co?
Pyrczał ten głos po prostu. Takie się przebijały artefakty w czasie jak on mówił…
Ale tak, że strzału nie ma.
To jest kolejny właśnie etap, który udało mi się naprawić.
Czyta ładnie.
No i…
No dobrze, to teraz moje pytanie jest takie, w jaki sposób można się zapisać na testy tej syntezy?
Bo myślę, że część osób będzie zainteresowana.
W jaki sposób?
Chyba myślę tak jak do Accessible Grama.
Myślę, że tutaj nawet ty, Michale, mógłbyś spokojnie przyjmować ludzi też do testów i ty, Picioku, też,
bo macie u mnie na koncie tak zwanego app-menadżera.
Osoby, które już są w Accessible Gramie czy w Accel Pongu, no to po prostu mogą się ogłosić, bo to po prostu jest kwestia zahaczenia haczyka.
Tak, tak, tak.
Tak, dokładnie, bo to jest kwestia zahaczenia haczyka przy tych osobach i wysłanie zaproszenia do testplata.
Ja na razie tej wersji jeszcze nigdzie nie udostępniłem nawet do wewnętrznych właśnie testów,
bo chcę, próbuję jeszcze zwalczyć ten problem.
Bo teraz jest taki problem, że on urywa mi Y i jakby na końcu urywa,
jak coś kończy się na Y i jak coś kończy się na I.
On gdzieś coś tam, ten kodeks zaczął mi kombinować gdzieś tam z fejdami,
nie wiem po co, na co i dlaczego.
Coś tam z systemem audio kombinował i chyba przekombinował.
I teraz próbuję ten efekt odwrócić.
Bo jest np. zamiast szybkość mówienia…
Szybkość mówienia. Takie bardzo…
Szybkość mówienia. Szybkość. Szybkość. Szybkość.
Szybkość mówienia. Szybkość. Szybkość. Szybkość. Szybkość.
Szybkość mówienia. Szybkość. Szybkość. Szybkość.
Może ja to zwolnię trochę?
Szybkość wyrazy.
Szybkość wyrazu.
Znaczy, wiesz co, ja myślę, że przez telefon to to będzie bardzo słabosłyszalne.
No starałem się jak najlepiej, bo przyłożyłem wam telefon dosłownie przyłożony do drugiego.
Ale dobra, w każdym razie, jest RH Voice i jeżeli ktoś ma ochotę, to się może do Ciebie zgłosić,
to jeszcze podaj może jakiś namiar na Ciebie. Przypomnij.
Najlepiej na Telegrama w sumie, bo maile to tak…
A jak ktoś nie ma Telegrama?
A jak ktoś nie ma telegrama, no to chyba ten mail zostaje mietmałpawiolinist.pl
Mietmałpawiolinist przez V, tak?
Przez V, tak, wiolinist.pl
I będą później, jeżeli już to będzie działać, to będą dodawane jeszcze inne języki, bo wtedy jest…
W tej chwili jest angielski, maceroński, luksemburski i polski.
To prześle je na i polski, bo wiadomo, polskiego nie było.
Teraz już jest. No i jeszcze mają tam być dodawane inne języki.
Chomacki, coś tam. Jak już uda się to ustabilizować, to mój minister będzie
dodał następne języki.
Dobrze, no to w takim razie bardzo dzięki za te informacje.
I myślę, że no tu rzeczywiście będzie zainteresowanie.
Będzie zainteresowanie RH Voice’em, bo ta synteza wzbudziła zainteresowanie wśród użytkowników NVDA, no to i pewnie wśród użytkowników iOS’a także.
Ja tylko jedną uwagę chciałbym zgłosić, żeby może troszkę ostudzić zapały na ten moment.
Sposób w jaki te testy są aktualnie organizowane, czyli przez App Store Connect, oznacza, że w całym App Store Connect, który Mietek tutaj ma, Axel,
Może być maksymalnie 100 osób. Tych osób jest już aktualnie dość dużo z uwagi na zainteresowanie nie tylko w Polsce akcesji do gramy.
Nie, Piotr. Nie, nie, nie. Stop, stop, stop. Tu cię muszę przystopować.
Jeżeli ja stworzę grupę, to znowu robi się to od zera. Każda grupa może mieć do 100 osób wewnętrznie.
Okej, czyli do App Store Connecta swojego, tak? Do profilu, w którym administruje się aplikacjami, ty możesz zaprosić nieograniczoną ilość osób?
Tak.
Ok, w porządku, przepraszam, nie wiedziałem.
Przekonamy się.
Mówię przekonamy się pewnie o tym.
Ale jakby, Accessible Gram, a tu RH Voice, to są dwie różne aplikacje.
Więc ja już stworzyłem zresztą grupę, gdzie chociażby wy jesteście z wami w tej grupie.
Tam chyba też się nazywa Wewnętrznie, zdaje się.
No i ona tak samo jest do 100 osób, ta jedna grupa, nie?
Okej, no to w porządku, to w takim razie mi się to…
Jeśli mogę was prosić o pomoc…
Właśnie, to tak naprawdę ludzie mogą też się, myślę, zgłaszać do was.
Wiesz co, ja myślę, że najlepiej niech zgłaszają się do ciebie, dlatego że jakby rozłożenie gdzieś tam powiedzmy tej odpowiedzialności na ileś osób, to potem zwykle kończy się tak, że żadna osoba tego tematu nie ogarnie.
Tak, więc ja myślę, że niech zgłaszają się do ciebie. Skoro ty jesteś autorem, to po prostu czyń honory.
Dobrze, postaram się. Tylko od razu mówię, wolałbym, w sensie łatwiej byłoby, żeby Polacy jakby bardziej jakby…
Ja bym chciał, mogę Polaków obsługiwać spokojnie.
Ja myślę, że polską syntezą będą Polacy zainteresowani.
Albo osoby mówiące po polsku jakkolwiek, tak.
No tak. No, także myślę, że no jest właśnie, będzie dobrze.
No i trzymajcie kciuki, żebym się udało naprawić te drobne błędy, bo naprawdę to w tym stanie już da się naprawdę tego używać, jak widzieliście.
No i chyba nie ma co więcej mówić, tak mi się wydaje.
Okej, no to w takim razie dziękujemy Ci serdecznie za telefon, trzymamy kciuki za rozwój RH Voice’a i cóż, i do usłyszenia.
Do usłyszenia.
Dobrze, widzę, że jednak chcecie, żeby ta audycja dziś była dłuższa,
bo dzwonicie do nas, ale teraz pozwólcie, że my trochę pogadamy do Was,
zanim odbierzemy kolejny telefon.
Pawle, to co tam u nas? A na dobry początek, co u Ciebie?
Co u mnie?
Jechałem Uberem w ostatnią sobotę i przetestowałem tą nową funkcję,
o której mówił Maciek, czyli określiłem się jako osoba niewidoma
no i byłem ciekaw zobaczyć, co się wydarzy.
Co się wydarzyło? Kierowca podjechał, wysiadł i pomógł.
Faktem było to, że to było już późno w nocy na uliczce,
gdzie nie było szans, żeby coś akurat o tej porze przejechało.
Więc nie miał dużego problemu, żeby nas ani znaleźć,
znaczy mnie konkretnie, został ze mną kolega,
ani żeby mnie obsłużyć, że tak powiem, pomóc mi wsiąść.
Zapytałem go w sumie, czy dostał tą informację,
że jestem osobą niewidomą i czy np. taka informacja zawiera
jakąś wyzmiankę, że mogę potrzebować pomocy
Chociażby w znalezieniu samochodu czy wejściu do środka.
Ponadto jest tylko informacja, że jestem osobą niewidomą.
Ponadto kierowca w ogóle tą informację zignorował.
Mówi, że on dopiero zobaczył, że mu to wyskoczyło,
jak ja już wsiadłem.
Więc może być też tak, że kierowcy tych różnych komunikatów
nie widzą na czas, bo nie patrzą na telefon, tylko na drogę.
Ewentualnie na nawigację.
I ja zakładam po prostu, że jeżeli kierowca podjechałby
i by nas nie znalazł,
to na ten telefon by spojrzał chociażby celem skontaktowania się z nami
i by tę informację zobaczył, raczej by nie przeoczył.
Muszę jeszcze kilka testów zrobić i ten wariant przerobić kilkakrotnie.
Natomiast boję się trochę też tego, że będzie sytuacja podobna jak z Boltem,
gdzie było szkolenia a propos tego, jakie emoji są stosowane
i co oznaczają a propos różnych niepełnosprawności.
No i kierowcy po prostu te szkoleniowe powiadomienia ignorowali.
Ale może nie, może Uber trochę bardziej się nam narzuca tym, że to są takie banery.
Natomiast śmieszny komunikat. Ponoć on występuje. Dla mnie on był nowy.
Nawigacja instruowała mojego kierowcę, jak ma jechać.
No i już pod koniec drogi mówi tam, za 50 metrów skręć w, tutaj nazwę mojej ulicy,
skręć i wysadź Pawła.
No, także tego typu informacje też się pojawiają.
Bardzo to było zabawne, usłyszeć o tej drugiej nad ranem.
Więc to jeśli chodzi o takie rzeczy jeszcze z zaległej audycji.
Z technologicznych nowinek, na które czekam, czekam na Zuma H2 Essentials,
którego sobie zamówiłem i lada dzień.
I to rzeczywiście dzień powinien tu być.
Obiecano mi, że będzie dziś lub jutro,
no więc zakładam, że jutro, skoro go jeszcze dziś nie mam.
No więc miejmy nadzieję, że się z tym wyrobią
Najdalej w czwartek, bo nie ukrywam, mam nadzieję,
no może na pewno nie na przyszły tydzień, ale może na za dwa,
jak się uda, jak się podarzy,
mieć dla Was troszkę ciekawych wywiadów.
To się jeszcze zobaczy.
Natomiast z takich moich osobistych gdzieś, powiedzmy, osiągnięć,
udzieliłem dwa tygodnie temu wywiadu dla takiego niemieckiego,
niemieckojęzycznego podcastu Working Draft,
który jest podcastem na temat front-endu szeroko pojętego,
czyli projektowanie interfejsów webowych, stron internetowych i tak dalej,
aplikacji. Głównie o web chodzi, o strony.
No i historia jest dość krótka. Po prostu kiedyś słuchałem jednego z ich odcinków,
który dotyczył atrybutów ARIA. Miałem w tym temacie coś do powiedzenia,
więc napisałem maila z komentarzem, tak jak wy czasem piszecie do nas.
I w wyniku tego zostałem zaproszony jeszcze z grupką innych osób,
oraz z grupką osób, które były obecne przy tamtym pierwszym odcinku.
A żeby się odnieść do tych naszych komentarzy i sobie pogadać
szerzej jeszcze raz o Ari i różnych jej atrybutach,
no powiem Wam szczerze, że tak jak nie mam problemu mówić do Was
i czuję się bardzo swobodnie przed mikrofonem,
tak w tym podcastzie zakładam, że chociażby już na samym początku
dźwiękowiec miał dużo roboty, bo już wyłożyłem się
na przedstawieniu się, przedstawieniu swojej osoby z uwagi na to,
że po prostu jakoś się zestresowałem i w ogóle tak trochę mi o tyle to nie poszło,
że ja myśląc o tym, sugerując się koleżankom, która wcześniej się przedstawiała,
myślałem, że nie wolno tam podawać nas w firm, dla których pracujemy,
bo jakieś tam zasady reklamowania i tak dalej, więc się nie pochwaliłem,
gdzie pracuję, no i tak trochę. Nie jestem do końca zadowolony
Po drugie, z czego ten stres wynika?
No wiadomo, trzeci język i temat dość techniczny.
Niby pracuję w języku niemieckim, piszę raporty,
mówię o dostępności cały czas,
ale jednak występ publiczny to występ publiczny.
Druga rzecz, jednym z gości był pan,
który jest ekspertem w W3C,
czyli w tej organizacji, która tworzy te standardy,
tworzy WCAG, tworzy ARIE.
No i kurcze, było to dość oneśmielające uczucie.
Ja tam o czymś opowiadam, a pan mówi, no tak naprawdę to nie do końca
coś tam tego, tego, tego i tłumaczy po prostu jako ekspert,
jak to jest skonstruowane. No niemniej jednak doświadczenie ciekawe,
bo też mogę się podzielić troszeczkę swoim doświadczeniem,
jak ja odbieram te różne atrybuty jako użytkownik czytnika ekranu,
jak je interpretuję, skąd wiem na przykład, że taki,
a nie inny atrybut występuje, mając już to doświadczenie,
Porozmawialiśmy też o takim zjawisku jak np. CSS Speech,
co jest w ogóle ciekawym zjawiskiem, bo to nie jest standard.
To jest sugestia standardu. To tam jedna osoba, chyba też niewidoma,
jest proponentką tego rozwiązania i wpadła ona na pomysł,
że skoro osoby widzące mają CSS, a CSS na stronach internetowych
jest tą technologią, która w dużej mierze zajmuje się tym,
jak treści są prezentowane, czyli jak to wygląda, jak duża jest czcionka,
całe formatowanie, gdzie na ekranie są poumieszczane elementy,
jak są udekorowane jakimiś tam atrybutami czcionek albo ikonkami jakimiś innymi.
Także dużo takich graficznych rzeczy. No i ta osoba wpadła na pomysł,
że przecież osoby niewidome no mogłyby też chcieć mieć takie coś w formie dźwięków.
No więc jej propozycja jest taka, żeby stworzyć odpowiednik CSS-a,
Dzięki któremu twórcy stron internetowych mogliby integrować dźwięki
do jakby tego strumienia, który czyta nam czytnik ekranu.
Czyli dla widzących nic się nie zmienia, a dla nas mogłyby być
dźwięki jakieś dodatkowe, na różne dodatkowe rzeczy.
Mogłyby być jakieś modyfikacje syntezymowe, że mówiłaby szybciej,
wyżej, głośniej i tak dalej, innym głosem, innym językiem.
że inaczej by wymawiała jakieś słowa.
No i założenie było takie, że wykorzystywaliby to twórcy stron,
a nawet jakieś firmy całe, żeby stworzyć swoją unikatową markę
w formie dźwiękowej dla użytkowników niewidomych.
Ja jestem bardzo dużym optymistą, z bardzo dużą wiarą w ludzi,
aczkolwiek wiele sytuacji już mi pokazało, że warto jednak
te oczekiwania obniżyć, ale mimo wszystko,
że im się takie rzeczy chce robić i tak dalej,
ale no tutaj jednak stawiam granicę i stwierdzam,
że skoro już ze zwykłym WCAG
i ze zwykłym udostępnianiem stron się nie wyrabia,
no to gdzie jeszcze jakaś warstwa dźwiękowa
i jakieś bawienie się syntezą mowy,
gdzie ludzie widzący, którzy doprojektują strony,
no ledwo mają pojęcie, jak testować czytnikiem ekranu
to, co już jest testowalne, czyli nagłówki,
czyli podpisy przycisków, teksty alternatywne itd.
Pomijając już to, że nawet jeżeli są robione takie próby,
żeby to zrobić dobrze, to bardzo często wychodzi inaczej.
I potem audytorzy i testerzy dostępności męczą się z tym,
żeby to odkręcić i zgłosić, że to nie działa i dlaczego to nie działa.
Co by się stało, jakież pandemonium by się rozpętało,
gdyby twórcy stron mieli jeszcze wolność
Modyfikowania mojej syntezy mowy, która zaczęłaby nagle mówić z dziesięcioma wysokościami.
I już wystarczy, że miewamy nadmiar ARRI, która na przykład jakieś live regiony i inne tego typu rzeczy są używane w nieodpowiedni sposób
i potrafi na przykład samo z siebie zacząć coś gadać, czego wcale nie chcemy, tak?
No, to już są rzeczy, które znamy.
Nie wiem, czy jest nam potrzebna kolejna technologia, która jeszcze robiłaby dodatkowy chaos.
Zgadzam się i oczywiście fajnie, że jest personalizacja, tylko tej personalizacji raczej warto by zostawić po stronie użytkowników,
czyli niech NVDA ma opcję do personalizowania na różne rzeczy, wysokości mowy, na jakieś atrybuty czcionek itd.
Niech to robi JOS, VoiceOver.
Tak, no JOS ma takie rzeczy już od dawna. W przypadku NVDA to chyba nikomu nie zależało na razie, żeby to wdrożyć.
Nie w planach, tylko jakby Envy Access przyklepnęło, tylko musi się znaleźć ktoś, kto…
Kto to zrobi, tak, bo to gdzieś tam jest na jakimś dalszym priorytecie i jakoś mnie to wcale nie dziwi,
bo to nie jest rzecz, którą… Ja na przykład nie miałbym chyba cierpliwości do konfiguracji tego,
ale oczywiście rozumiem, że ktoś ma i że ktoś mógłby chcieć.
To jest o tyle przydatne na przykład te schematy, jak jesteś powiedzmy lektorem, który koryguje tekst.
No to tam, umówmy się szczerze, inaczej chyba się nie da,
plus może programistą i chciałbyś sobie kod,
jakoś różne części kodu…
No tak, tak, jest to, jest to jakaś ta moca.
Natomiast, żeby było śmieszniej, ten CSS speech,
który kiedyś się to nazywało Aural, Aural CSS czy Aural Speech,
już teraz ukojałem, ta pierwsza nazwa,
okazuje się, że jest jedno środowisko, które implementuje
wczesną wersję tej nieugruntowanej jeszcze specyfikacji,
Jest to eMaxPeak. I gdyby ktoś chciał, używając tej dokumentacji,
która jest, zaprogramować jakąś stronę, to eMaxPeak i przeglądarka tamże jak najbardziej
sobie poradzi. Także to nie jest tak, że nie było precedensu. Ale już wychodząc
z tematu CSS Speech’a i tak dalej, muszę przyznać, że była to też przygoda bardzo
edukacyjna, bo w ogóle dzięki temu się zainteresowałem repozytoriami W3C,
czyli World Wide Web Consortium. I teraz sobie śledzę dyskusję na temat tego,
jak te standardy WCAG powstają. No bo można słyszeć, że one są.
Niektórzy z nas się nimi zajmują zawodowo. Jedni lubią, inni nienawidzą,
jedni kwestionują, drudzy uważają, że w sumie nie ma nic lepszego.
Inni mówią, że w sumie spoko, jak na razie. No ale ciekawy jest proces
powstawania tego. I muszę przyznać, że bardzo było pouczające przede wszystkim
Na czym się aktualnie na przykład pracuje w tych grupach roboczych?
No jedną z tych rzeczy jest na pewno Aria Notify, czyli coś, co ma zastąpić
Aria Live. Dla nas, dla użytkowników, nie zmieni się z pozoru wiele.
Dla programistów po prostu będzie łatwiej dużo takie automatyczne zapowiedzi,
czegokolwiek na stronach, zaimplementować.
I będzie to dużo mniej obarczone jakimiś niepożądanymi efektami bocznymi.
Natomiast coś, co może być fajne i nas na przykład dotyczy,
że zauważymy różnicę.
To są tak zwane aria actions, czyli do elementu interaktywnego,
czyli jak na przykład jesteśmy na gmailu i przemieszczamy się
strzałkami od maila do maila, albo jesteśmy w whatsapp webie
i chodzimy strzałkami od wiadomości do wiadomości.
Będzie można przypisać tak zwane akcje, czyli działania,
skąd już to znamy, prawda?
Czyli przypuszczam, że pewne przyciski typu, nie wiem,
bierzmy tego whatsappa jako przykład. Odpowiedz, podaj dalej,
transkrybuj wiadomość, kopiuj, zgłoś i tak dalej.
No i już w gestii trochę przeglądarek, trochę twórców, może screenreaderów
lub innych technologii wspierających, będzie zaimplementowanie tego tak,
żebyśmy mieli do tego łatwy dostęp. I to, co ja sobie mogę wyobrazić,
na przykład to, że jeżeli Apple w to pójdzie, czy Google,
no to będziemy mieli czynności na pokrętle, na elementach stron internetowych.
Co się głównie przyda, powtarzam, w aplikacjach webowych,
nie na jakiejś pierwszej, lepszej, prostej stronie, bo po co,
ale w jakichś takich skomplikowanych aplikacjach typu, tak jak mówię,
Whatsapp Web, właśnie Gmail, Discord, o Discordzie jeszcze dzisiaj powiemy,
Slack i tak dalej, gdzie rzeczywiście jest to jak strona internetowa,
ale większość czasu spędzamy i tak w trybie formularza
i naciskamy strzałki i tap, ewentualnie F6,
no to tam może się to okazać przydatne.
Ciekawe, jak to na platformach desktopowych będzie zrobione.
Zakładam, że w przeglądarce może będzie coś zintegrowane w menu kontekstowym.
Ale nie wiem, może będzie jakieś menu w NVDA,
albo może będzie coś na tym pierścieniu takim,
na którym teraz jest syntezamowy.
Będą na pewno jeszcze dyskusje o tym, jak to zaimplementować.
Więc bardzo ciekawe tematy, może ciekawe dla mnie,
może ktoś z was czuje się jakoś zainspirowany tymi dyskusjami.
No, to jest w dużym skrócie to, co słychać u mnie.
U mnie cały czas zabawa z kodeksem, z modelami językowymi, głównie właśnie z czatem GPT, z GPT 5.2.
Swoją drogą ukazał się nowy model, 5.3 kodeks i ponoć ten model, ludzie nawet na reddicie kodeksa sobie całkiem chwalą.
Ja jeszcze nie zaryzykowałem przełączenia się na niego. Jeszcze może chwilę poczekam i poczytam, i się porozglądam.
Zdania na ten temat na razie są takie dość mocno podzielone, jeżeli chodzi o to czy to jest lepsze czy to jest gorsze.
OpenAI samo sobie zapracowało tak trochę na to, że te modele z dopiskiem kodeks nie mają najlepszej prasy
i że jednak nie są na tyle efektywne, na ile byśmy sobie mogli tego życzyć.
Właśnie mnie jednak ponoć, ponoć tu, jeżeli chodzi o kodeks GPT-5-3, to jest jakieś światełko w tunelu, że są ludzie, u których to się sprawdza naprawdę całkiem dobrze.
Natomiast jeżeli chodzi o to, czym ja się ostatnio zajmowałem, no to stwierdziłem, że pora na zbudowanie jakiegoś takiego nieco większego środowiska.
Co to będzie, to na razie pozwólcie, że zachowam dla siebie.
I to jest drugie zdanie, jakie to dokładnie będzie narzędzie, ale będzie to już, no myślę, że dość zaawansowany system, który na razie testuję i widzę, że ma się całkiem dobrze, natomiast tu bardziej chodziło mi już o zbudowanie czegoś takiego w oparciu o jakąś taką, no dość zaawansowaną architekturę, czyli nie jakaś pojedyncza aplikacja, ale kilka różnego rodzaju modułów, które rozmawiają ze sobą,
Tu skupiłem się też na zabezpieczeniu tego wszystkiego, na odpowiednich audytach bezpieczeństwa, na separacji różnych danych i byłem bardzo ciekaw, w jaki sposób sobie kodeks to ogarnie, tego typu instalacje i muszę powiedzieć, że zrobił to zaskakująco dobrze i nie muszę zresztą też polegać na nim samym,
Bo oczywiście, gdyby model językowy powiedział mi, że zrobił dobrze, to mógłbym mieć pewne wątpliwości,
ale tu w grę wchodzą też zewnętrzne narzędzia, których jest naprawdę całkiem sporo i którymi można po prostu ten kod audytować na bieżąco.
I jeżeli cokolwiek wyjdzie, że jest jakiekolwiek naruszenie, to dostaniemy o tym od razu powiadomienie, dostaniemy odpowiedni alarm.
No i w takiej sytuacji będziemy mogli natychmiast po prostu zareagować i odpowiednią poprawkę wdrożyć.
Zresztą jak czytam te raporty, które generuje kodeks, na przykład na podstawie analizy kodu,
na podstawie tego, co on sam zrobił i jakie ewentualnie jeszcze tu widzi zagrożenia, które potem poprawia,
to muszę powiedzieć, że są to takie rzeczy, na które przynajmniej część z nich, ja na przykład,
Nie jestem ekspertem od bezpieczeństwa i przypuszczam, że na przykład gdybyśmy mieli tu człowieka z niebezpiecznika czy zaufanej trzeciej strony, chociaż i w tej branży zdarzają się różne dziwne sytuacje, no ale gdybyśmy rzeczywiście mieli kogoś, kto zajmuje się bezpieczeństwem zawodowo, lata, to na pewno miałby jeszcze co nieco do powiedzenia na ten temat, ale wygląda to wszystko tak na pierwszy rzut oka i na drugi nawet też bardzo obiecująco i bardzo
Bardzo ciekawie, w jaką stronę to zmierza, więc ja teraz zajmuję się już budowaniem
takich nieco większych systemów, nie małych aplikacji, nie pojedynczego jakiegoś tam
narzędzia robiącego jedną rzecz, a raczej czegoś, czegoś większego, no co podejrzewam,
że za czas jakiś ujrzy światło dzienne i będzie to myślę z korzyścią dla nas
wszystkich, bo, no bo tak, tak wydaje mi się, że właśnie skoro mamy dostęp do tych
To po prostu fajnie jest robić to po to, żeby ten nasz świat był lepszy, fajniejszy i żeby po prostu robić dobre, fajne rzeczy, skoro możemy i skoro ogranicza nas tak naprawdę tylko nasza pomysłowość.
A pracując z tym kodeksem coraz więcej, to po prostu mam takie wrażenie, że naprawdę już teraz coraz bardziej ograniczeniem jest tylko nasza fantazja i to, co my będziemy chcieli zrealizować,
bo coraz więcej rzeczy po prostu zaczyna działać, coraz więcej rzeczy po prostu zaczyna wychodzić
i to naprawdę bardzo ciekawe czasy, co zresztą pokazuje też to, o czym mówimy w Tyflo Przeglądach,
ile różnych rzeczy powstaje z użyciem właśnie modeli językowych.
A teraz odbierzmy telefon. Kto jest z nami po drugiej stronie?
Cześć Piotrek, z tej strony.
Cześć Piotrze, witamy, słuchamy.
Słuchajcie, witam was serdecznie. W sumie miałem dwie rzeczy, ale trzecia się pojawiła przypadkiem
Nie wiem, jak to się dzieje, ale prawdopodobnie WhatsApp na komputerze aktualizuje mi się samoistnie, bo widzę, że zmienia się jego wygląd.
Jeśli ktoś korzysta, to ostatnio się tak zmienił, że na przykład patrząc sobie na liście ostatnich połączeń, można niechcący strzałkę w prawo dać i już się dzwoni.
Takie ostrzeżenie.
To niedobrze, to niedobrze.
Ale to jeszcze jest fajnie, bo jakby dzwoniłem najpierw do was z telefonu,
ale była jeszcze inna rozmowa, więc bardzo dobrze, że ślad mi pozostał w historii.
Dlaczego? Ponieważ jak chciałem najpierw zadzwonić z komputera,
to było tylko połączenie wideo przycisk, który zresztą nic nie robił.
To już kolejne niedobrze, że tak powiem.
Więc nie wiem, jaka to jest wersja, bo kiedyś Whatsapp był fajniejszy,
No tak, to teraz jest ta webowa wersja, niestety.
Tak, tak. I ta webowa w trybie formularzy po prostu nagle patrzę…
Kiedyś już mi tak parę razy zadzwoniło tam nigdzie, nie chciałem,
chciałem tylko sprawdzić, bo tam nawet mówi,
zobacz w prawo lub w lewo, żeby tam menu kontekstował.
No i w prawo, no i sygnał połączenia.
Także przestrzegam.
A dwie rzeczy takie inne w ogóle.
Pierwsze to takie może pytanie, może wiecie,
Bo ostatnio widzę, że w Tyflo Przeglądach, co prawda nie tak jeden po drugim,
ale była mowa o gamingowych słuchawkach.
Nawet Paweł chyba opisywał Arctisy piątki, tak?
Tak, one są bardzo popularne ostatnio. Dużo ludzi je sobie kupuje.
Tak, ja sobie też kupiłem ostatnio.
Aha, to ja zauważyłem, że są jeszcze siódemki, teraz nawet Gen 2.
I siódemki mają już tą fajną rzecz, że można jakby równolegle
korzystać z Bluetooth i PC.
I mi się pojawiło w głowie takie pytanie…
Pytania, tudzież zastanawiam się, nawet trochę poszperałem w internecie
i na Redditzie znalazłem, że ktoś też o tym pomyślał,
znaczy nawet powiedział, o działanie mikrofonu w dwóch.
Jeżeli np. rozmawiamy przez telefon, to ktoś pisał,
że właśnie wtedy na komputerze ten mikrofon nie działa.
I czy wy macie jakieś… bo jeszcze były te…
Turtle Beach, tak? To chyba Piotr o nich mówił.
Czy macie jakąś wiedzę, czy to jest np. błąd ustawień, czy po prostu sprzętowo musi tak wyglądać?
Wiesz, akurat wydaje mi się, że jak to mówią ładnie po polsku, it’s not a bug, it’s a feature.
Bo jestem sobie w stanie wyobrazić sytuację, że rozmawiasz z kimś np. przez telefon
i jesteś połączony właśnie telefonicznie, no to może niekoniecznie chciałbyś,
Będąc na komunikatorze, na przykład, jakimś na komputerze, żeby też Cię słyszano tam.
To jest jedno, a druga rzecz, zakładam, że po prostu jeżeli w grę wchodzi bluetooth,
to przełącza się też profil z A2DP na handsfree i wtedy mikrofon jest wykradany na wyłączność.
No tak, tak mi też pomyślałem o tym. Natomiast tak się zastanawiałem, że nie wiem,
Może to jakoś rozwiązali tak, że klikasz, nie wiem, PC, wyciszasz tu…
Tylko że ten mikrofon niestety działa na zasadzie włącz-wyłącz,
bo tam jest przycisk stanowy.
To nie jest kliknięcie, tylko on jest wyciskany i wciskany.
Więc czyli po prostu prawdopodobnie jest to tak rozwiązane,
że po prostu albo jedno, albo drugie.
Aczkolwiek szkoda, bo można by było na przykład przełączać się,
na przykład tutaj coś mówić do, nie wiem, teamu,
A tutaj za chwilę na telefon albo coś sprawdzić, na przykład, nie wiem, na dwa fronty, nie?
Ja liczyłem na to w moich actice i osiągnąłem rozłączenie rozmowy telefonicznej, więc chyba nie.
Tak, tylko że u Ciebie równolegle nie da się.
No wiem, ale myślałem, że mogę przełączać, wiesz, że w zasadzie rozmowa pozostanie na zawieszeniu,
a ja będę mógł wracać sobie, nie? Gdzieś tam ten…
No to tutaj nie trzeba przełączać, podejrzewam. Znaczy, może się da przełączać,
bo tutaj działa to tak, że to działa równolegle, ewentualnie pewnie można rozłączyć bluetooth.
Przynajmniej z tego, z recenzji tak to wygląda.
No nic, no to pewnie tak to wygląda.
Natomiast druga rzecz to taka, bo dość bardzo intensywnie śledzę
newslettery Gleidensowe, a wiem, że już jakiś czas temu o tym było.
I chciałem tylko powiedzieć, bo nie wiem, czy patrzyłem na Tyflop przeglądy,
ale się dawno nie pojawił Gleidens, więc podejrzewam, że przychodzę
z jakimiś nowymi wiadomościami.
A to chętnie się czegoś dowie.
Jeżeli były, to powiedzcie, że były.
Bo tak, Gleidens jakoś tak jesienią w ogóle miał takie mega, mega tam chodzenie z tym Gleidensem
wśród tych, co w ogóle pierwsi zamówili tego Gleida, czyli pionierami tak zwanymi.
I tam oni doszli w ogóle do wniosku, że najpierw jeszcze Amos Miller, czyli ten założyciel,
jak się idzie tą drogą, to skręca się tak jakby trochę tym uchwytem
i on w pewnym momencie stwierdził, że on się tam gubi, że już nie wie,
że lekko skręci i on sam zaczyna tam skręcać, niby reagując na nasze ruchy.
Więc filozofia tak jakby zmieniła się, czyli podjęcie skrętu,
takiego faktycznie, że my chcemy skręcić, wybrać skręt w tamtą czy w inną stronę,
Ma się odbywać przyciskami.
Tam są lewy i prawy przycisk.
I przycisk na środku, który ma…
Na przykład jak się zaciągną hamulce,
bo glide prowadzi nas w taki sposób,
że jak jest jakaś przeszkoda,
której nie da się ominąć,
albo przejście, to on hamuje.
Nie możemy się ruszyć.
I to my musimy zadecydować,
OK, piszczy zielone,
to klikamy, że możemy iść, że chcemy iść.
I wtedy pchamy go do przodu.
Więc to się zmieniło i teraz w najnowszym oprogramowaniu
oni bardziej skupili się właśnie na przejściach i na tym,
żeby on, bo on początkowo to jeździł, zresztą nawet chyba
Rafał Harłamowicz mówił, takim trochę zygzakiem,
bardzo dostosowywał tę trasę. Teraz ma się to odbywać tak,
że on ma bardzo mocno trzymać się jakiejś prostej linii.
Czy to jest krawężnik, czy to jest, nie wiem, linia chodnika,
bo ma dwie kamery teraz już też. Nie wiem, na jakim etapie
Tutaj mieliście informację, bo była kiedyś ta jedna kamera,
teraz są kamery dwie, czyli tak jakby oczy po lewej i po prawej stronie.
No i on ma się właśnie bardziej trzymać tej prostej linii.
Nawet gdy coś omija i to bardziej omija, to po ominięciu kogoś czy czegoś
ma dalej wracać na tą jakby prostą ścieżkę, prostą linię.
I jeśli chodzi o harmonogram, no to w tym roku chcą już tym pierwszym użytkownikom
dać takie jakby praktycznie gotowe produkty.
Jeżeli coś wyjdzie jeszcze gdzieś tam, że coś nie tak, no to będą to poprawiać, no i zajmować się produkcją.
Z tym, że no mówię, w Europie to jeszcze na razie nie.
No właśnie, to jest niestety problem. To jest niestety problem dla nas, że trzeba poczekać.
Ja myślę, że oni też muszą to wdrożyć, bo oni, jak będą to wdrażać w Wielkiej Brytanii, to podejrzewam, że zrobią coś podobnego jak w Ameryce.
Czyli pojadą tam z tymi glide’ami i będą po prostu zbierać takie informacje
o różnych możliwych sytuacjach. To jest dość fajne,
bo te glidy jakby się aktualizują to wszystko, te dane.
I ma to sens moim zdaniem, natomiast może trwać to troszkę.
Aczkolwiek ja bardzo liczę na to urządzenie, bo…
No to naprawdę brzmi obiecująco.
Tak, i fajnie to wygląda. I zresztą na moją prośbę też kiedyś
do nich pisałem, żeby nagrywali filmiki z audio.
Bo oni kiedyś robili taki filmik, że tam niby ulica, coś,
było słychać tylko mówiące te komunikaty,
ale nie było takiej faktycznej, wiecie,
że ktoś z tym idzie, ten Amos, czy tam ktoś inny z zespołu.
A faktycznie jest kilka takich już filmików,
gdzie słychać nawet takie silniczki,
co trochę brzmi faktycznie jak jakaś taka rumba czy coś,
tylko nie rumba, która odkurza, tylko która robi takie, wiecie,
takie jak skręca kółkami na przykład, nie?
Takie slajdy, takie piszczenie, oni chyba to nawet teraz jeszcze wyciśnili ten napęd w najnowszej tam wersji,
bo cały czas jakby ulepszają, mają ileś tych prototypów najnowszych, już jest tam dopracowane,
że ma właśnie te dwie kamery, ma te kółka, też, o właśnie, jeszcze to powiem na koniec,
Testowali go w różnych takich rzeczach typu, nie wiem, po schodach go tak targali, żeby on spadał, na przykład jechał i czy się coś tam rozwali.
Wkładali go do jakichś tam bardzo minusowych temperatur, żeby to faktycznie działało w różnych warunkach. Zresztą jak sobie pomyślę, jakie teraz morozy były w Polsce, to…
No właśnie, ciekawe jak by sobie poradził.
No inna sprawa, że w śniegu, to na razie chyba nie.
Ale w Stanach mają Alaskę, to tam mogą sprawdzać.
Może mogą sprawdzać. No to tyle, co wiem.
A jakbyście coś wiedzieli, może jak Piotr się pojawi w przyszłym tygodniu,
to może coś będzie mógł o tych Turtle Beachach.
Może one mają jednak inaczej, bo one miały jakieś…
Aha, one miały dwa dongle, z tego co pamiętam i bluetooth.
Tylko, że te dongle chyba też działały, przełączanie się było.
Nawet to jest dość logiczne.
W każdym razie, to zostawiam pytanie, jakby ktoś miał jakiś, czy zesłuchacz, czy wśród Was, jakieś informacje na ten temat, to będę tam śledził komentarze i nagrania później też.
Pozdrawiam wszystkich.
Dzięki Piotrze za rozmowę.
Trzymajcie się.
Trzymaj się, do usłyszenia, pa.
To teraz w takim razie, skoro daliśmy wam dojść do głosu, to poczytajmy może o czym do nas piszecie, bo piszecie do nas też w różnych sprawach.
I mamy na przykład od Sylwestra taką wiadomość.
Mam problem z linijką w formie Bluetooth, komputer nie widzi protokołu Bluetooth dla monitora Focus 40, tylko muszę używać z kabla USB przewodowo.
Czy Microsoft wyciął?
No, raczej nie wyciął. To jest może kwestia bluetootha
albo odpowiednich jeszcze sterowników, które trzeba
doinstalować. Może tu jest jakaś kwestia
tego. I jeszcze
Sylwester pyta, czy jutro Maciek Walczak będzie mówił
o podpisie elektronicznym czy kwalifikowanym.
Sylwestrze, o wszystkich postaramy się jutro poopowiadać,
jak to w ogóle teraz wygląda i co i jak można.
Adam do nas pisze.
Temat smartfona Unihertz Titan 2. Specyfikacja, funkcje, klawiatura, obsługa języka polskiego.
Proszę przygotować te informacje na przyszły tydzień.
Adamie, równie dobrze. Nie musisz czekać tygodnia. Możesz spróbować użyć wyszukiwarki.
I myślę, że szybciej znajdziesz te informacje niż będziesz czekał na tyfloprzegląd.
Również cię pozdrawiamy.
Kod do nas pisze.
Z WCAG i w całym accessibility na stronach jest jeden podstawowy problem.
Ludzie nie wiedzą do końca często jak to ma działać i wygląda to różnie.
Jak strona mówi za mało, to źle, jak za dużo, to też nie.
Dobrze, ktoś by zrobił ten nowy CSS dla niewidomych i używanie internetu stałoby się nie do zniesienia.
Tak obstawiam.
Widzący mają często podejście na zasadzie oni słuchają dźwięku,
To dajmy go dużo, skoro już możemy i może się z tego zrobić masakra.
No, to jest jakieś niebezpieczeństwo, natomiast ja raczej myślę, że mało kto po prostu by tego używał.
To jest prawda. Aczkolwiek jest taka pokusa, żeby wszędzie wciskać mowę,
znaczy w ogóle jakieś dodatkowe udogodnienia. Ja na przykład się już spotkałem, że ktoś postanowił
podpisać link, albo to był area label, albo to był ukryty span po prostu,
który był wizualnie ukryty, a programatycznie dalej został.
Po prostu element taki, kawałek tekstu, który wycięto z ekranu,
ale został jakby programowo, więc go czytniki czytają.
Link z adresem e-mail, oczywiście zawierał ten adres e-mail,
ale był dodatkowo podpisany adres e-mail, mimo że w tekście dla widzących
Tak też było napisane, że tu będzie adres e-mail i to samo było z numerem telefonu.
Także takie dodatkowe podpisy, które ktoś chyba myślał, że pomogą w jakiś sposób,
że się więcej jakby da kontekstu, no ale tego kontekstu w pewnym momencie stało się
już aż za dużo, więc trzeba uważać, trzeba… Warto się dowiadywać.
Przede wszystkim warto testować z użytkownikami i pytać ich o opinię.
Tak, to prawda. I to jest klucz, jeżeli chodzi o dostępność.
To my sobie jeszcze za momencik porozmawiamy.
Ale na razie porozmawiajmy o aplikacji, którą Ty, Pawle, znalazłeś.
Wikitrips? Wikitrips Wiki?
Wiki, myślę.
Nie wiem, może Wikipedia, tak się chyba mówi przez W.
Tak.
Przez W, no to ja tak bardziej spolszczam, ale…
No to Wiki.
Wikitrips.
No więc to jest aplikacja, która nowa dla mnie nie jest.
Ja już o niej słyszałem dawno temu i ją zainstalowałem,
ale nie mówiłem o niej z jednego prostego powodu.
Aplikacja nie mówiła do tej pory po polsku.
Teraz zaczęła. Wyszła dzisiaj jej wersja 2.0,
która obsługuje chyba 19 czy ileś tam języków i naturalne głosy.
No, głosy są naturalne, o tym zaraz powiem.
Nie wiem, czy one są z czata GPT, ale bardzo zangielszczają.
Natomiast czym aplikacja Wikitrips jest?
Wiki to się kojarzy z Wikipedią,
trips to są wycieczki po angielsku.
No więc aplikacja pozwala nam na wycieczki
palcem po Wikipedii, a może nawet nie palcem,
bo aplikacja działa tak, że kiedy my poruszamy się
gdzieś albo po prostu gdzieś jesteśmy,
to włącza nam się z automatu artykuł
o najbliższym miejscu w Wikipedii.
W sensie tak, że jakby jest artykuł o danym miejscu w Wikipedii
i jest on odtwarzany.
I jest to ciekawe, bo…
co prawda aplikacja sama sobie wybiera te miejsca z naszej okolicy
i tam chyba co 15 czy co 30 sekund zmienia się ten artykuł
i jest pokazywany na nowe miejsce,
więc mamy taką playlistę jakby różnych miejsc dookoła.
Natomiast to się też zmienia, jeżeli podróżujemy,
na przykład jedziemy sobie pociągiem albo jedziemy jakimś autobusem, autem,
no to zmieniamy swoje położenie i w tym momencie, jak przejedziemy gdzieś
kawałek dalej, no to już zbliżamy się do innych miejsc.
No i aplikacja o tym wie, wychwytuje to i nam czyta znowu o jakimś innym miejscu.
Ja dzisiaj na przykład jechałem tramwajem do pracy i przejeżdżałem,
to znaczy nawet nie wiem, czy obok, ale gdzieś w okolicy,
jakkolwiek zdefiniowany jest tam promień w aplikacji tego,
Trafiłem na Muzeum Techniki Wiedeńskie.
No i rzeczywiście takie jest. Ono jest gdzieś tu względnie niedaleko mnie.
Że mieszkam niedaleko Pałacu Szynbrun.
O samym Szynbrun co prawda nie posłuchałem,
ale odpalił mi się artykuł o Muzeum Pojazdów Cesarskich.
Nie miałem pojęcia, że taki muzeum jest.
Znaczy, jest to logiczne, że powinno takie być itd.,
ale nie wiedziałem, że jest w tej części, że jest tak blisko.
No i ponoć tam można sobie popodziwiać różne…
wszystkie środki transportu, jakie były stosowane w czasach cesarskich
na dworzach Habsburgów. Także myślę, że bardzo fajna aplikacja.
Warto ją sobie czasem włączyć, znaczy ściągnąć i włączyć.
Ona jest darmowa, tam jakieś pewne rzeczy można też sobie wykupić.
Natomiast fajne jest właśnie to, że gdziekolwiek byśmy nie byli,
nawet za granicą jest bardzo dużo artykułów Wikipedii Polskiej,
Zwłaszcza na temat tych bardziej znanych zabytków.
Oczywiście, że jak jesteśmy w Wielkiej Brytanii
i włączymy wikipedię angielską, to będzie zatrzęsienie.
A po polsku troszkę jednak mniej.
Niemniej jednak polska wikipedia ma dość dużo ciekawych artykułów
o zabytkach również w innych krajach.
Tak że warto, myślę, aplikację mieć.
A kto wie, może nawet w waszej okolicy się okaże,
że znajdzie się coś, o czym nie mieliście pojęcia
…albo nie wiedzieliście aż tyle, ile możecie sobie z takiego artykułu wyczytać.
Także jakbyście szukali jakiejś ciekawej, intelektualnej rozrywki,
to aplikację Wikitrips mogę z pełnym sercem polecić.
A teraz zaglądamy do kolejnej porcji waszych wiadomości, tym razem z YouTube’a.
Tu do nas pisze Oskar.
Cześć! Jakiś czas temu pojawił się nowy BeatStar.
Poprawił problem ze ściąganiem paczek.
Teraz informacje generuje dynamicznie.
Albo można zmienić na kopiowanie do schowka.
Jeszcze jedna wiadomość od Oskara.
Wspomniał też, że przepisuje Rhythm Rage.
Liczę na to, że pojawi się szybko, ale nie radzę się nastawiać.
No to zobaczymy. Czas pokaże i ciekawe, kiedy będzie można o tym coś nowego powiedzieć.
A teraz odbieramy kolejny telefon. Ktoś z nami po drugiej stronie?
Halo, halo, cześć. Adrian z tej strony.
Cześć Adrianie, słuchamy.
Trochę z innej beczki.
Prowadzę transmisję gdzieś tam na żywo i nie ma znaczenia tutaj aplikacja.
Działa to u mnie wszystko w oparciu o MacBook, iPhone i iRig.
iRig2 pewnie kojarzycie, podłączam to przez USB-C przy pomocy takiej jednej przejściówki,
gdzie nie zniekształca dźwięku wchodzącego do iPhona.
Wiele takich przejściów wektornie z CETY robi.
I co ja chcę osiągnąć?
W Macbooku mam zrobione wirtualne kable,
połączone dwie pary słuchawek i wyjście razem,
żeby do iPhona ten dźwięk z Macbooka był.
Jest tam odtwarzana wtedy z Maca na przykład muzyka,
jest mój głos, mikrofon jest podłączony do Macbooka przez USB-C
i nagłaśniam sobie to przy pomocy garą i odsłuchu.
Wszystko jest spoko, pasuje mi to, ale czasami chciałbym podłączyć do tego całego stachu telefon.
Żeby ktoś mógł zadzwonić, żeby pokazać, że voice over działa, jak to w ogóle funkcjonuje.
Nie chciałbym tego przybliżać do mikrofonu, pokazywać tego w ten sposób.
I czy kojarzycie jakieś urządzenia, do którego mógłbym wpiąć, nie wiem, Maca, wpiąć iPhona
i nadal tak to wszystko wysyłać?
Myślałem kiedyś o Roadcasterze Pro. Nie wiem, czy on jest dostępny. Może mać jakieś inne rozwiązanie. Cena nie gra roli.
Wocaster na pewno jest rozwiązaniem dostępnym i za pomocą Wocastera możesz sobie podpiąć iPhone’a po Bluetooth’ie.
I możesz sobie podpiąć iPhone’a, nawet jeżeli miałbyś kabelek odpowiedni, taki czteropolowy na obu końcówkach.
Tak, dokładnie. I miał odpowiednią tam przejściówkę, to mógłbyś sobie to też podpiąć przewodowo i wtedy nie miałbyś opóźnień.
Więc ja bym próbował coś z tego typu interfejsem. Ja na przykład odbieranie połączeń mam rozwiązane w ten sposób, że mam takie urządzenie, które się nazywa Blue Driver.
To jest sprzęt, który z jednej strony ma wyjście mikrofonowe, wyjście XLR, które podłączam sobie po prostu do miksera, a z drugiej strony ma wejście taki zwykły, mały jack i to z kolei jest podłączone do wyjścia miksera.
Do wyjścia z jednej z grup i na tej grupie robię sobie podmiks.
W ten sposób, żebyś ty nie miał zwrotki.
Kiedy my sobie teraz rozmawiamy, to żebyś nie słyszał sam z siebie.
Właśnie, ale ty masz mikser i ja mikser liczną nie chciałem,
ale właśnie tego typu urządzenie, jak mówisz, vocaster,
co się przedstało…
Tak, vocaster. Wydaje mi się, że to urządzenie powinno spełnić Twoje oczekiwania.
Ja taki sprzęt mam. Na Macu jest tam chyba trochę więcej zabawy z konfiguracją tego i z ustawianiem tych odpowiednich par.
Tak naprawdę, wiesz, chciałbym po prostu wpiąć Maca, tak jak tutaj mam, tutaj mi wychodzi akurat wyjściem jack do iRiga, jeden kabel, więc tutaj mógłbym to zastąpić i wpiąć go do vocastera, żeby mi to po prostu Mac przekazywał dźwięk mikrofonu.
No tam nie muszę wpinać, bo mam go, mówię, tak jak zrobione w Macu przez GarageBand,
więc to mi pasuje, no bo nie będę teraz go wymieniał, bo on ma tylko port USB-C.
No i po prostu chciałbym tak naprawdę na tym już wejściu iPhone’a R, którego mam,
wpiąć sobie Tervocaster, żeby on mi wszystkie dźwięki dawał i jeszcze dodać do tego kolejnego
iPhone’a, na który by ludzie mogli gdzieś z nią się kontaktować, czy Pixela, czy cokolwiek.
No, wydaje mi się, że właśnie takim urządzeniem tego typu…
Poczytaj sobie jeszcze o tym i przeanalizuj sobie, czy to dokładnie będzie taka konfiguracja,
jaka spełnia twoje oczekiwania. Ja robiłem kilka transmisji na żywo gdzieś tam z wyjazdów,
korzystając właśnie z Vocastera. Powiem tak, ja jestem człowiekiem wygodnym,
ja sobie cenię możliwość takiej dosyć sprawnej realizacji i dla mnie to urządzenie
Nie jest na tyle elastyczne, żebym ja chciał z tego korzystać na co dzień. Bardziej używam tego jako takiego rozwiązania awaryjnego, jeżeli już faktycznie nie mam niczego innego.
Ja mam zdanie się tego Vocastera, to jest Vocaster Pro.
Vocaster Pro?
Tak, tak, tak.
To mówię, u mnie wszystko działa, po prostu jest świetnie, ale…
No tylko chciałbyś telefon podpiąć.
Tak, bo wiesz, ja mógłbym teraz zrobić tak, żeby z drugiego iPhona połączenie na przykład szły na Maca i odbierać je na Macu.
No, ale z kolei nie chcę wpinąć drugiego iPhone’a z innym numerem do tego samego iCloud’a,
więc no tutaj to by mi pasowało. Zresztą nie tylko iPhone, ale i Pixel czy Samsung,
bo te telefony posiadam i to by było najlepsze rozwiązanie po prostu do tego typu.
No jasne. Dobra, sprawdzę sobie to.
Jako że wspomniałeś, Adrianie, o Roadcasterze.
Może to byłoby za dużo na to, co potrzebujesz, ale wspomnę o tym urządzeniu,
bo może kiedyś się przyda do jakichś nagrań w trasie.
Całkiem dostępny jest, nie testowałem,
ale firma się dostępnością chwali.
Więc Zoom PodTrak P4.
I to jest też takie przenośne studio,
tam jest wiele wejść, zarówno XLR-owych,
jak i właśnie jack.
Chyba można się też bluetoothem tam wpiąć.
Także Roadcaster to jest taki właśnie przenośny studio,
że można wiele wejść sobie na jednym urządzeniu skomponować
i na jakąś kartę SD na przykład nagrać,
ale pewnie też do komputera podpiąć
i tam te różne wejścia sobie zaoferować, także z wejściem…
Powiedz mi jeszcze, przepraszam Cię Michał, ten vocaster przez bluetooth,
ja jestem w stanie w ogóle go ogarnąć, nie widząc?
No, oni się chwalili, że oprogramowanie mają dostępne i pod Windowsem mają dostępne.
Natomiast, jeżeli chodzi o Maca, to tu powiem szczerze, nie mam jakiegoś dużego doświadczenia.
Ja próbowałem coś tam robić na Macu przez chwilę.
I teraz nie powiem Ci dokładnie, czy tam nie miałem przypadkiem jakichś problemów, ale chyba to się dało zrobić.
Chyba byłbym w stanie, tylko wiesz, ja jakby jestem użytkownikiem Windowsa.
Nie, ja Maca i to zaawansowanym użytkownikiem Maca, więc…
No to myślę, że powinieneś sobie poradzić.
Jeżeli po prostu okno jest niedostępne, to w ogóle nic nie zrobimy.
Wiesz co, to nie jest kwestia okna, bo zdaje się, że na Macu to tam chyba nawet nie ma żadnego takiego
Z tego sterownika zewnętrznego, żadnego oprogramowania do tego, tam po prostu chyba wszystko będziesz w stanie sobie ogarnąć w tym konfiguratorze.
Będziesz miał tam chyba po prostu osobne wejścia i wyjścia i jak sobie to skonfigurujesz, to tak to będzie działało.
Ewentualnie jakieś tam urządzenia zespolone, czy za pomocą audio hijacka albo czegoś.
Nie powiem Ci dokładnie, jak powinieneś to zrobić, bo mówię, za mało tego używałem.
Do czegoś mi kiedyś było potrzebne na Macu, jakoś ogarnąłem, ale pamiętam, że z czymś tam były problemy.
Ale to musiałbyś po prostu wytestować.
Fajnie, że potwierdziłeś, o podobnych urządzeniach rozmawiamy i tutaj Paweł chyba, tak?
Paweł też mówi o tym Roadcasterze.
Tak, tak.
Więc Roadcaster akurat używał mój kumpel, ale no to jest urządzenie taki kombajn,
Więc no nie chciałbym tego kupować ze względu tylko dla tej potrzeby, no bo tak jak to mówię, wszystko ogarnąłem, wiecie, w inny sposób, bez żadnego miksera i to jest świetna jakość dźwięku i w ogóle iRig też się sprawdza i to po prostu funkcjonuje.
No dobra panowie, ja już nie zabieram wam czasu, dzięki bardzo za pomoc i zabieram się do researchu.
Dzięki również za telefon, pozdrawiamy cię serdecznie, do usłyszenia.
No dobrze, zajrzyjmy teraz jeszcze na szybko do Waszych wypowiedzi.
Czy coś tu jeszcze mamy?
A, Sylwester do nas pisze a propos jeszcze tego Bluetootha.
Ja mam sterownik z płyty Focusa, dodatkowo sterownik Realtek Bluetooth z Windows Update
i sterownik Asusa oryginalny. Prawdopodobnie Windows nie ma sterownika dla monitorów Focus.
Być może, ale ja bym jeszcze na Twoim miejscu, Sylwestrze,
Tak tylko podpowiadam, może pomoże, a może i nie.
Natomiast teraz przechodzimy do kolejnego tematu.
To jest mój temat. Polskie radio.
Polskie radio ma różne rzeczy, w tym mobilną aplikację.
I ostatnimi czasy ukazała się jej nowa wersja.
No i cóż, przykre to, że nadawca publiczny, który jest finansowany z naszych środków, czy z abonamentu, czy w ogóle jakkolwiek,
no tak bardzo lekceważy sobie dostępność. To znaczy dostępność aplikacji Polskiego Radia od dawna nie była jakaś wzorcowa.
Tam można się było czepiać o wiele, wiele rzeczy.
Natomiast w najnowszej aktualizacji aplikacji Polskiego Radia,
co sprawdziłem, nie da się na iOS-ie zrobić kompletnie nic.
Po prostu wchodzimy, aplikacja jest pusta.
Mamy pusty ekran.
Gdzieś tu na grupie androidowej,
Dostępny Android, to Rafał Kiwak zdaje się sygnalizował, że jeżeli włączymy rozpoznawanie ekranu, to coś tam zrobić się da, no ale to chyba nie o to chodzi.
Właśnie, a propos Androida, to ponoć jest lepiej, da się obsłużyć te aplikacje. Nie weryfikowałem tego, bo nie mam telefonu z Androidem, natomiast takie są sygnały.
Natomiast uważam, że mamy te wszystkie deklaracje dostępności, ustawy o zapewnieniu produktów i usług.
Podmioty publiczne są zobligowane do tego, żeby tworzyć rozwiązania dostępne.
I ja się naprawdę… ja to mówię już po raz któryś, po raz enty.
Ale powtórzę to jeszcze raz. Co jest z tymi nadawcami publicznymi u nas w Polsce?
Zarówno z telewizją, jak i z radiem.
I to naprawdę bez względu na to, kto jest u steru tych właśnie podmiotów,
że dostępność, przynajmniej jeżeli chodzi o dostępność cyfrową,
jest nam tak bardzo lekceważona.
Aplikacja TVPVOD. No jakoś obsłużyć się da, ale jak odpalam Netflixa,
to nie jest jakość, to jest po prostu jakość.
Odpalam teraz aplikację publicznego radia.
Aplikację Polskie Radio.
Na iOS-ie nie jestem w stanie zrobić zupełnie nic.
Jest to, uważam, naprawdę rzecz absolutnie skandaliczna.
To, co się dzieje i to, w jaki sposób publiczny nadawca
zwyczajnie traktuje dostępność.
Bo w dzisiejszych czasach, kiedy…
Jak zresztą słyszycie, niejednokrotnie dzwonią do nas słuchacze, którzy nie mają jakiejkolwiek wiedzy o programowaniu,
są w stanie stworzyć aplikacje, które nie są pozbawione błędów, ale które osoba niewidoma jest w stanie obsłużyć.
Mamy różnego rodzaju narzędzia,
które tak naprawdę są w stanie zadbać
o testowanie dostępności.
To nie jest tak, że teraz żeby
dostępność danego produktu się wydarzyła,
to trzeba już od razu zatrudniać sztab testerów.
Oni się oczywiście przydadzą,
ale do tego, żeby zweryfikować, że jest problem z dostępnością danej aplikacji,
to nie jest nam potrzebne to, żeby przeklikał się przez to użytkownik z voice-overem,
tylko nam są potrzebne po prostu odpowiednie procedury i odpowiednie testy.
Bo takie rzeczy, to da się jakby wyłapać na etapie budowy danej aplikacji.
I ja myślę, że naprawdę jest to, jest to po prostu rzecz absolutnie skandaliczna i mam nadzieję, że ktoś tematem w końcu się po prostu zajmie i tu chyba trzeba po prostu oficjalnie, zwyczajnie pisać, pisać skargi do PFRON-u chociażby, jako instytucji, która zajmuje się między innymi właśnie tą kwestią dostępności produktów i usług, no bo
Aplikacja Polskiego Radia jest usługą, która powinna być dostępna.
To, co mnie zawsze technicznie fascynuje, w aplikacjach, które doprowadzono do tego stanu,
że wręcz nie da się zrobić niczego, tak, w sensie nie ma ani jednej kontrolki…
Jak to ktoś zrobił, nie?
Tak, w sensie przede wszystkim, jaki framework został użyty do tego,
żeby taką aplikację stworzyć i w jaki sposób.
Bo naprawdę na tym etapie…
Ja wiem, że są błędy. Mogą być niezatekietowane przyciski.
Może być, kurczę, nie wiem, jakieś tam kilka przycisków
złączonych w jeden tak, że jest to jeden obszar
i nie da się w niego kliknąć.
Może być mnóstwo różnych rzeczy.
Jakaś nielogiczna kolejność nawigacji po tych elementach.
Ale żeby zrobić appkę, w której nie da się zrobić absolutnie nic…
I że to nie wychodzi. I to wiesz, Paweł, że nie wychodzi.
Automatyczny tekst tego nie wyłapia.
Tak, że to nie wychodzi na etapie testów.
To po prostu, jeżeli w dzisiejszy…
To nie jest tak, i teraz żebyśmy mieli
jasność, i to
nie jest dziś tak, a przynajmniej
nie powinno być, bo jeżeli ktoś to tak robi,
to znaczy, że po prostu…
że wie mniej ode mnie,
który z programowaniem
nie ma do czynienia jakoś
bardzo dużo, a ja już to wiem,
że jeżeli wytwarzamy
jakiekolwiek oprogramowanie, to
Mamy coś takiego jak CI, czyli tak zwane
continue integration, czyli po prostu, że
to wytwarzanie oprogramowania,
wytwarzanie kolejnego, kolejnej wersji,
to jest jakiś taki cały proces,
w którym powinniśmy ten kod, który wygenerowaliśmy,
przetestować, czy wszystko działa,
czy to jest wszystko zrobione tak, jak to
zrobione być powinno, jak zakłada scenariusz użytkowania.
No to dlaczego nie jest testowana również dostępność?
To się da zrobić.
To się da zrobić.
Ja miałem na myśli też to,
że po prostu istnieją nawet
w procesie gdzieś tam
tworzenia w danym frameworku po prostu
automatyczne narzędzia dane nam przez
ten framework do wyłapania
najprostszych z najprostszych rzeczy.
I pytanie tutaj brzmi po prostu,
jak bardzo egzotyczny musi to być framework
albo jak użyty,
że to nie wyszło. Może ktoś nie skorzystał z tych konkretnych narzędzi.
Całkiem możliwe, ale to tylko świadczy o tym, że po prostu ktoś nie wie
i nie zna technologii, w której tworzy kod.
A jeżeli wybrał technologię, która na przykład…
bo podejrzewam, że tak może też być.
I mnie wcale na przykład nie zdziwi to, że dana technologia
To jest jakaś taka baza, to chyba React jest takim dość częstym, przynajmniej kiedyś był, pamiętam, wyborem,
w którym się tworzyło jedną bazę kodu i wypuszczało z tego dwie aplikacje, albo tam jeszcze stronę na przykład przy okazji, aplikacje w formie webowej.
Tam pamiętam, że z dostępnością było różnie, no ale to jeżeli wybieramy jakąś technologię, to fajnie by było wiedzieć, jakie to będzie miało implikacje.
Ale teraz, no to już po prostu mamy totalny regres, więc ja nie zakładam też złej woli.
Ja nie wierzę i nie chcę po prostu w to wierzyć, że ktoś intencjonalnie wyłączył dostępność.
No nie, w to nie uwierzę, ale po prostu, że ktoś nie zna się na swojej robocie
dostatecznie dobrze, w to już jestem w stanie uwierzyć.
I takie to smutne refleksje. Także słuchajcie, jeżeli
zaktualizowaliście aplikację Polskiego Radia,
no to…
to macie problem,
bo nie skorzystacie z niej na iOS-ie.
I to jest bardzo przykre.
No, więc jeżeli jakkolwiek was to dotyka,
to po prostu zgłaszajcie, zgłaszajcie
te informacje, sugestie
…do zarówno nadawcy i naprawdę myślę, że tym spokojnie można zainteresować
chociażby właśnie PFRONT. Może oni będą w stanie jakoś wpłynąć bardziej też
na polskie radio, a i telewizję polską też by się przydało zmobilizować,
bo to, że audiodeskrypcje fajnie oznaczają w swoich programach,
to świetnie, wszystko dobrze, ale aplikację mobilną to oni by mogli poprawić,
Bo tam też jest, co poprawisz. No ale wiadomo, to nie jest aż taki dramat, jak w przypadku aplikacji teraz Polskiego Radia na iOS.
Dobrze, no to Pawle, to teraz o czymś, co działa w odróżnieniu od apki Polskiego Radia. NVIDIA i dodatki. Co nowego?
Trochę się tych dodatków pojawiło w tym tygodniu. I to takich właśnie, bardzo nawet bym powiedział, ciekawych i potrzebnych gdzieś dodatków,
które mogą nam dość życie ułatwić.
Po pierwsze, Andre nie próżnuje i nie próżnuje też jego gdzieś tam kodeks,
bo po kompozytorku, który cały czas się swoją drogą jakoś tam rozwija,
powstał Sound Wave Recorder,
czyli dodatek, który ma za zadanie nagrywać syntezę z NVDA.
Czyli jednak się da.
Tak. Nie wiem w tym momencie, bo jeszcze nie miałem okazji testować,
na ile można tą operację przyblokować gdzieś tam NVIDIA.
Ale rozumiem, że on nagrywa to, co aktualnie synteza mówi.
Także to nie jest też tak, że on…
Nie wiem, wpisujemy mu tekst i on go generuje,
ale po prostu możemy nagrać to, co synteza aktualnie gdzieś tam czyta.
Fajna sprawa, może się przydać,
zwłaszcza jak jest to rzeczywiście konkretny output z NVIDIA,
a nie że zgrywane jest wszystko z karty dźwiękowej
Przy okazji inne.
Także na plus oczywiście możemy ponagrywać sobie jakiś tekst,
na przykład syntezą, której nie ma na SAPI,
więc jej nie potępniemy do żadnej balabolki i tak dalej.
To jest jedno.
Drugi dodatek, to a propos tego, bo Piotr się do nas odzywał,
jest to Whatsapp NG, czyli dodatek, który ulepsza nam dostępność
tego webowego nowego Whatsappa.
Można by powiedzieć, że kolejny, można by powiedzieć, że po co mnożyć byty.
Ja osobiście myślę, że fajnie, bo do tej pory mieliśmy dodatek, który poprawia
kilka rzeczy, typu tam automatyczny tryb formularzy i tak dalej.
Mamy skrypty do userscripty, czyli tamper monkey czy grease monkey
czy tego typu dodatków, czyli w przeglądarce musielibyśmy sobie
coś tam podmieniać i jeszcze korzystać ze strony.
No a tutaj ktoś się znalazł, kto stworzył rzeczywiście dodatek do tej konkretnej aplikacji.
No i co my mamy? Mamy znane już skróty, czyli alt-1, listę czatów, alt-2,
lista wiadomości, alt-e, pole edycji.
Alt-d nawet, to jest pole edycji.
Enter odtwarza wiadomości głosowe.
Shift-Enter otwiera kontekstowe meniny wiadomości.
kopię do schowka, wiadomość, Control R,
naciska na przeczytaj więcej i czyta nam całą wiadomość.
Możemy przełączać wyświetlanie numerów telefonów
lub ich ukrywanie na liście wiadomości, na liście czatów
i oczywiście automatyczne włączanie trybu formularza
czy też trybu focusa. No i to jest tyle.
obiecuje to, że wygląda jak coś, co mogłoby się dalej gdzieś tam rozwijać.
Trzecia rzecz to jest Markdown już Navigator.
Fajna wtyczka, bo to jest wtyczka, która pozwala nam na nawigację
po treściach markdownowych w dowolnym polu.
Czyli mamy pole edycji, piszemy w nim sobie markdownem,
Naciskamy NVDA Alt Spacia i w tym momencie włącza nam się tryb przeglądania markdownu,
czyli działa to tak jak w internecie i możemy się przemieszczać do konkretnych elementów
tego naszego markdownowego, tej naszej składni.
Czyli powiedzmy napisaliśmy tam krzyżyk Spacia Test, to jest nagłówek poziomu pierwszego,
no to jedynką możemy przejść albo literą H do następnego nagłówka.
Możemy tak chodzić po listach, po blokach kodu, po, zdaje się, cytatach, po linkach,
po polach wyboru, no bo przecież możemy też robić listy z polami wyboru w Markdownie,
no i wiele tego typu, po treści pogrubionej, pochylonej i tak dalej.
NVIDIA i Altspacia, no i znowu nam się to wtedy wyłącza i możemy pisać normalnie
w polu edycji. Fajna sprawa, zwłaszcza w edytorach, które nie oferują nam od razu
tak zwanego wysiwyk, albo w edytorach, które w ogóle tego nie oferują
i zamierzamy potem ten plik wyeksportować czymś innym.
I co poza tym?
Poza tym mamy też Custom Labels, czyli wtyczkę pozwalającą nam
na coś, co NVIDIA już od dawna miałoby mieć, a nie ma,
czyli etykietowanie niezetykietowanych elementów.
Zaraz zresztą przeczytam.
Tak, to jest NVIDIA 2021 lub nowszy jest wymagany.
I jest to dodatek, który pozwala na dodawanie własnych etykiet
do niezetykietowanych kontrolek oraz na edycję istniejących kontrolek.
No i to jest tutaj gdzieś po prostu dla aplikacji, które tego nie mają.
Możemy przypisywać, możemy edytować.
Ale właśnie dla aplikacji, a czy dla stron? Bo chyba dla stron nie.
Nie, nie, nie. Tu się troszkę rozpędziłem istotnie. No nie, nie, nie.
Tu tutaj niestety nie. Możemy też usuwać etykietki.
Można nimi zarządzać w ustawieniach i są one zapisywane per aplikacja
i można je eksportować i importować.
Wspierane są takie kontrolki jak przyciski,
przyciski menu, przyciski przełączniki,
pola wyboru, przyciski opcji,
pola rozwijane, pola kombi,
suwaki, zakładki, elementy menu,
pola edycji i tyle.
No i mamy tu różne też skróty klawiszowe.
Ja bym tą wtyczką się polecał chociażby dlatego zainteresować,
że jeżeli dobrze pamiętam kontekst,
To jest otwarte zgłoszenie na GitHubie NVDA, w którym poproszono o to,
żeby to była funkcja wbudowana w czytnik. I NV Access stwierdziło, że w sumie OK,
że w sumie oni się zgadzają, ale chcieliby najpierw zobaczyć tzw. proof of concept,
czyli taki prototyp w formie dodatku dla NVDA. Więc wszelkie uwagi,
które będą kierowane pod adresem tego dodatku, mogą z czasem być jakimś
kamieniem węgielnym pod opcję, która zostanie wprowadzona oficjalnie
jako funkcja samego NVDA.
No także tą wtyczką bym radził się zainteresować w sposób szczególny.
Poza tym mamy nowe dzieło Oriola Gomeza, czyli Gem NVDA.
Jest to kolejny dodatek do obsługi Geminia z poziomu NVDA.
Można tutaj korzystać z takich modeli jak Gemini 3, Gemini 2.5,
Flash, Pro i tak dalej, do analizy obrazu, analizy wideo, do czatowania i tak dalej.
Co my tu mamy? Mamy AI Chat, czyli możemy z NVIDII po prostu sobie gadać z terminajem.
Mamy opisywanie całego ekranu, mamy opisywanie konkretnego obiektu,
możemy nagrać sobie jakby videocasta, czyli wideo naszego ekranu,
Jak coś się na tym ekranie dzieje i niechaj Geminaj nam to opisze.
Możemy dołączać obrazy z plików.
Jest historia rozmów i można wybrać sobie z wielu modeli.
No i można też wiele rzeczy konfigurować, tą tak zwaną temperaturę,
ile tokenów ma być zużytych,
streaming, czy ma być wspierany i tak dalej.
No i ostatni dodatek to dodatek Atlas T,
Czyli dodatek, który usprawnia pracę z Atlas T, który jest oprogramowaniem do analizy statystycznej, do statystyki, do różnego rodzaju operacji właśnie na tym polu.
No także mam nadzieję, że któryś z tych dodatków Wam się przyda. No i dajcie znać, z czego tam najczęściej korzystacie.
To przechodzimy teraz dalej, ale zanim kolejne nasze tematy, to teraz tematy Wasze, bo w naszym wirtualnym studium Marcel się pojawił.
Dobry wieczór.
Dobry wieczór. Z czym do nas przybywasz?
A ja przybywam do was, słuchajcie, z tematem, o którym zostało wspomniane w cyfro przeglądzie.
Natomiast zostało wspomniane bardziej na zasadzie wzmianki, ponieważ sam autor jakby do was napisał bodajże dwa albo trzy tygodnie temu.
A mowa tutaj o LTE-nie, a konkretniej LTE-nie mobilnym, ponieważ aplikacja coraz bardziej się rozwija,
coraz bardziej pokazuje swoje możliwości działania, można powiedzieć.
I jeśli ktoś stwierdził, że Elten umiera, okej.
Natomiast aplikacja mobilna świadczy o tym, że projekt cały czas jest rozwijany.
I tak samo jeśli ktoś testował tą aplikację na…
bo ja bym mówił w tym momencie o Androidzie, no iOSem nie dysponuje.
Natomiast jeśli ktoś testował Eltengera,
Właśnie wspomniana aplikacja.
Jakiś czas temu miała trochę błędów,
miała trochę niedoróbek, natomiast w obecnym momencie
projekt, mam wrażenie, zmierza coraz bardziej
ku dobrej stabilności, ku fajności.
Jest to również wątek o Eltengerze
na samym forum klient mobilny w grupie
rozwój Eltena. Tam można zgłaszać swoje
różne uwagi i te uwagi są faktycznie brane pod uwagę.
Dużo rzeczy zostało poprawionych właśnie dzięki temu,
Dzięki temu, że użytkownicy pozgłaszali, jak na Androidzie pewne rzeczy działają inaczej niż na iOSie
i jak można by to ufajnić, żeby to było kompatybilne z widokami większości klientów,
większości aplikacji mobilnych na ten system.
I przychodzę do Was, żeby zrobić taką krótką prezentację, pokazać, że to działa i pokazać, jak to działa.
Bo myślę, że może być to ciekawe dla tych, którzy byli kiedyś na LTN-ie bądź którzy nie byli nigdy na LTN-ie,
bo w zasadzie nie używają na daily komputera i potrzebują
reakcji aplikacji mobilnej.
I dla tych, którzy chcieliby na tego LTE-na wrócić
i sobie potestować, bo w końcu można zdalnie,
zdalnie to złe słowo, ale można w końcu
korzystać z aplikacji w dowolnym miejscu na Ziemi.
Więc ja już tu sobie wszystko podłączyłem,
zwolniłem syntezę, zaraz pójdzie dźwięk do Was,
tylko muszę sobie, już się ustawię po prostu na
Aplikacji, co by tu nie latać po aplikacjach.
Okej, teraz powinno być u Was.
I jest.
Mamy aplikację Eltenger. Klikam na niej dwuklikiem standardowym.
I otwiera nam się w domyśle Messages, czyli zakładka z wiadomościami,
które możemy sobie do różnych ludzi pisać, nagrywać
To jest jakby pierwsza zakładka z trzech.
Najpierw może pokażę same zakładki.
Z jakiegoś powodu słuchasz tylko w jednym kanale?
Właśnie widzę. Moje kable po prostu chyba mają dość.
Zawsze jak człowiek myśli, że wszystko będzie działać, to coś się zepsuje.
Próbuję temu zaradzić. Dobrze. W takim razie sekunda. Spróbuję wpiąć kabel ponownie. Teraz może będzie…
O! Teraz załapało. Coś po prostu się tu zepsuło. Mówię, technologia mnie nie lubi.
Drugą zakładką jest forum, a trzecia zakładka nazywa się… bez sensu. More.
Tak naprawdę jest to zakładka, w której możemy zmienić ustawienia aplikacji,
Których jest na obecny moment niewiele, natomiast jednak coś tam jest.
I nie tylko ustawienia, bo tam mam również dostęp do kontaktów.
Więc wejdę sobie w More na początek.
To jest mój nick na ltenie i to jest bardzo mylące,
bo kiedy mamy ten przycisk, domyślamy się, że raczej będzie opcja
pokaż mój profil albo coś zmień. Kiedy w niego klikniemy?
Aplikacja pyta, czy chcemy się wylogować.
To zamiast mojego nicku powinno się nazywać po prostu logout, ale to jest jeszcze do poprawki.
To już raczej chyba też zgłaszałem, ale nie pamiętam. Jeżeli nie, to to zrobię.
Następna funkcja… kontakt. I wejdę sobie w to, żeby pokazać, jak działa pisanie wiadomości do ludzi.
I napiszę do ciebie, Michale, po prostu.
To ja już sobie też odpalę tu ltena.
Po wejściu w Twój nickname dostajemy następujące okienko.
Nick, wpisane imię i nazwisko, jeśli ktoś wypełnił.
Wiek, jeśli ktoś wypełnił.
Płeć.
Tu nie ma nic, nie wiem dlaczego, może to jest status.
I opcja Show Messages.
Po kliknięciu w nią wyświetlają nam się wiadomości.
Zależnie jak mamy w ustawieniach ustawione albo tematy,
albo pokazywanie wszystkich wiadomości bez tematów.
Jak kto woli, tak jest wygodnie.
Tak sobie może to ustawić.
Dla jednych tematy będą fajne, dla drugich tematy to już jest
epoka emailowa i trochę to niepotrzebne.
Ja mam akurat tematy wyłączone.
Żeby tu nie pokazywać różnych wiadomości z przeszłości,
cofam się od przejść wyżej w lewo.
Tu mamy pole do wpisywania.
Tu mamy opcję nagrywania.
A tutaj mamy opcję dodawania załączników, która działa poprawnie.
Ale ja zamiast pisać, po prostu nagram wiadomość,
bo to jest też ciekawa rzecz i o tym za chwilę wspomnę.
Telefon mi właśnie zawibrował, teraz właśnie nagrywa się wiadomość.
Kiedy puszczę palec, to przestanie się nagrywać.
Kiedy go przeciągnę do góry, będzie nagrywać się w trybie ciągłym.
Puściłem… i wiadomość się wysłała.
I teraz…
Mamy taki komunikat. Ona się automatycznie nie odtwarza,
ale jak na nią sobie klikniemy…
Oj.
Kiedy go przeciągnę do góry, będzie nagrywać się w trybie ciągłym.
Jaka jakość jest? Każdy widzi.
No niestety strasznie mocno wybija się tutaj niski bitrate w kodeku.
No i jednak ta nagrywarka nie jest jeszcze super.
Co ciekawe, w poprzednich wersjach…
Bo była wersja, która na moim telefonie nagrywała normalnie w stereo.
I to szło ładnie.
Natomiast później pojawiła się wersja, która powodowała to, że nagrywało się w mono.
W najnowszej wersji dodano wybór mikrofonu,
Wybór profili dźwiękowych, o tym również za sekundę.
I tam możemy sobie wybrać różności i możemy zmusić, żeby Eltenger nagrywał w stereo.
Tylko jak to brzmi, sami w obecnym momencie widzicie.
Natomiast, co do profili. Wejdę sobie jeszcze raz w More.
Nie wiem, dlaczego czasachładka jest…
Aha, to jest zbugowane, to będzie trzeba zgłosić.
Jeszcze raz do góry.
Jeszcze raz.
I tu mamy przycisk settings. I co my tu mamy?
Recording profile. Ja mam zaznaczone unprocessed. Default profile…
I u Ciebie to spowodowało na przykład to, że ta wiadomość jest bardzo, bardzo cichutka.
To akurat nie spowodowało, że wiadomość jest cicha. U mnie telefon po prostu na wszystkich trybach powoduje to, że wiadomość jest bardzo cicha.
Nie wiem z jakiego powodu, ale po prostu, no, takie wysterowanie producenta
i dużo ludzi ma z tym problem obecnie na Eltengerze, więc może coś będzie z tym robione.
Natomiast, jeżeli wejdziemy w profiles, mamy wszystkie dostępne profile telefonu.
Default, czyli domyślny, czyli będzie nagrywał w 99,9% na wszystkich Androidach w mono.
Mic.
Voice call, czyli będzie używał tego mikrofonu dolnego do rozmów telefonicznych.
Camcorder może używać dwóch mikrofonów, ale nie musi.
To jest tryb mikrofonu podczas nagrywania wideo.
To szczerze mówiąc nie mam pojęcia, co to jest.
W sensie, jak się zachowuje. Nie testowałem tych profili.
Unprocessed, czyli ten, który wybrałem.
Już widzę błąd, że nie jest zaznaczone, że ten jest właśnie obecnie wybrany.
No i on powoduje, że dostaje audio takie, jakie faktycznie w telefonie jest.
No i jeszcze Voice Performance. To jest akurat profil w moim Asusie,
który powoduje to, że dostajemy kompresję, głośniejszy dźwięk, jakieś tam EQ
na tym mikrofonie od producenta. Ja sobie dam cancel, nie chcę tego zmieniać.
Następnie mamy zakładkę Messages, znaczy nagłówek Messages w ustawieniach.
Czyli pokazuj wiadomości bezpośrednio, bez tematów. Czyli wyłączamy sobie
Tryb mailowy. Wszystkie wiadomości lecą, jak trzeba.

No, generalnie…
Muszę sobie to jeszcze raz…

Stresuj długie wiadomości, nie pokazuj całości, żeby przyspieszyć działanie.
Ale o tym nic nie powiem, bo tego fizycznie nie miałem jeszcze powodu testować,
ponieważ aplikacja na moim telefonie radzi sobie całkiem nieźle.
I teraz przechodzimy do drugiej zakładki, którą jest forum.
I tu już mamy trochę ciekawostek.
Loading, ładowało się, załadowało się.
I teraz tak, ja sobie zerknę, co ja tu sobie pospisywałem,
żeby czegoś nie zapomnieć albo nie przekrocić.
Okej, okej, okej.
Więc tak, Filter Groups na początku było w poprzednich wersjach
polem edycji, co było przez różnych ludzi dziwnie interpretowane.
W sensie mogłoby zostać.
Nie było do końca wiadomo, co to jest. Ja w pierwszej chwili, jak to zobaczyłem, to mówię,
ale co, ja mam tu wpisywać nazwę grupy? Czy to mi wyświetli grupy?
Wyświetlało grupy, teraz robi dokładnie to samo, kiedy sobie w to klikniemy.
Pokazuj grupy. Moje grupy, czyli te grupy, w których jestem.
Grupy rekomendowane. Wszystkie grupy.
Ja mam zaznaczone chyba wszystkie, w których jestem po prostu.
I teraz kilka słów o sortowaniu, ponieważ na kliencie PC można sobie sortować grupy.
Znaczy one są domyślnie sortowane po dacie najnowszego postu w danej grupie.
W sensie, jeżeli mamy kilka grup, to ta, w której jest najnowszy post opublikowany
najbliżej czasu, w którym to przeglądamy, jest na samej górze.
Od najnowszego do najstarszego się sortują.
Po wejściu do grupy na kliencie PC mamy listę forów i wygląda to tak, jak ułożył sobie tą listę administrator.
Stworzyliśmy konkretne fora, poukładaliśmy je ładnie i ona się tak wyświetla.
Natomiast na kliencie mobilnym, co może być dla niektórych wadą, dla niektórych zaletą,
bo przyspiesza przeglądanie tego, co jest faktycznie nowe,
grupy są sortowane tak samo jak na komputerze,
Fora są sortowane tak samo jak grupy na komputerze i na telefonie,
czyli od najnowszego postu do najstarszego wątku można powiedzieć.
Ja nawet to zaprezentuję.
Mamy przycisk do śledzonych wątków.
Kultura i sztuka, 347 wątków, ponad 14 tysięcy postów, jeden nieprzekrzytany.
Pójdę sobie jednak w prawo.
I sobie wejdę w rozwój Eltena.
10 forum, dużo wątków i dużo tematów. Nie jestem w stanie wspamiętać tych wszystkich cyferek.
Od razu nam mówi, że to jest forum tekstowe. I tu mamy właśnie to, co mówiłem.
Na samej górze w kliencie PC na forach zobaczymy w tej grupie zupełnie inne forum.
Tam bodajże po prostu elten link, czyli to takie główne, generalne.
Pod nim będą te inne, a tutaj sortuje się po najnowszym poście.
Forum głosowe od razu jest mówione, że jest to audio, czyli forum głosowe faktycznie.
Wejdziemy sobie tutaj, żeby pokazać odtwarzacz, bo to jest, myślę, ciekawe.
Przejdź wyżej, forum głosowy, przycisknęw, testy Eltengera, czyli spamisgreat, forum…
Przejdź wyżej, przycisnęw, podalizować.
Mój wątek pod taką wywrotową nazwą, gdzie ludzie mogą sobie testować Eltengera na różnych urządzeniach.
Longs, puszki na audio, akurat na josie, na fch, w SAP-ie też nie trzeba wcale trzymać palca.
I to jest ciekawostka, to zostało dodane całkiem niedawno, tego nie było w poprzednich wersjach.
W momencie, kiedy mamy wykupione premium i premium pozwala nam, już nie pamiętam, który pakiet,
Któryś konkretny pozwala nam na czytanie transkrypcji postów głosowych.
To na liście. Nie dość, że zobaczymy na telefonie informację, że to jest post audio,
to jeszcze zobaczymy jego transkrypcję.
Jeśli chcę to stworzyć, klikam dwukrotnie.
No i ojejście, na Whatsappie też nie trzeba wcale trzymać palca.
Bo właśnie, to jest to, o czym zapomniałem powiedzieć w kwestii nagrywania.
W poprzednich wersjach było tak, klikało się, zaczynało się nagrywać,
żeby wysłać trzeba było kliknąć send.
Teraz mamy, tak jak na wszelkich komunikatorach typu Telegram,
Możemy albo trzymać palcem nagrywając, albo przeciągnąć w górę i wtedy nagrywa się ciągle.
Ale co ja mogę zrobić z tym postem? Przytrzymuję sobie, dwuklik z przytrzymaniem.
To pokazuje nam odtwarzać audio.
Możemy wyświetlić profil autora postu.
Możemy polubić post i to jest w zasadzie wszystko.
Jeśli kliknę like…
Od razu nas też informuje o tym, ile jest polubień.
Jeszcze nie wyświetla, kto konkretnie polubił ten post,
co jest widoczne na zwykłym ltenie, ale myślę, że pewnie też to będzie dodane.
No i teraz przytrzymam sobie tu, jeszcze raz,
Show Audio Player.
Mamy słowak do przewijania.
Mamy Play, który jest…
No ale dobra, spróbujmy użyć paska przewijania.
No naprawdę, bardzo ładna muzyczka.
No i to w zasadzie byłoby wszystko, co można powiedzieć
na obecny moment o Eltengerze.
Bety są otwarte, każdy może dołączyć.
W jaki sposób dołączyć jest opisane na forum Eltena,
właśnie w przypiętym wątku.
Bo właśnie tego też nie pokazałem.
Wątki, jeżeli są przypięte przed nazwą wątku
Jest symbol Pineski, więc na przykład przeczyta nam Talkback, bądź dowolny tam screenreader na Androidzie przynajmniej.
Pineska, nazwa wątku, czyli na przykład Pineska testy Eltengera.
Żeby dołączyć do testów, wystarczy mieć konto Google.
Testy odbywają się na platformie Firebase app, która działa tak, że pobieramy sobie plik APK na Androida.
Jest to platforma od Google’a, z tego co udało mi się wywnioskować.
Nie wczytywałem się, ale tak mi się wydaje.
Od razu też dostaniemy powiadomienie mailowe, jeżeli wyjdzie nowa wersja.
Jeżeli powiadomienia mailowe są dla nas archaiczne,
spokojnie można zainstalować aplikację Firebase App na telefon
i tam będą te powiadomienia przychodziły.
Jeżeli już pobierzemy pierwszy raz APK,
to oczywiście musimy zezwolić na instalację aplikacji z nieznanych źródeł.
Na różnych androidach robi się to różnie, więc o tym nie będę wspominał,
ale często wystarczy po prostu w momencie, kiedy przy próbie uruchomienia takiej apki w APK
pojawi nam się komunikat, że nie masz włączonej opcji zezwalania na instalację zjednolonej źródeł.
Obok pojawia się przycisk Zmień to w ustawieniach.
Mówię potocznie, bo nie pamiętam, jak on dokładnie brzmi.
Klikamy sobie go i zaznaczamy opcję, że z tego źródła zawsze można uruchamiać pobrane pliki APK
I będzie to nam działać.
I w zasadzie to chyba wszystko, co mogę powiedzieć.
Miałem sporo ciekawych dyskusji kiedyś się toczyło na Eltenie, teraz trochę jest tego mniej, no ale może uda się znowu to miejsce ożywić.
A teraz odbieramy kolejny telefon. Kogo witamy?
Witam bardzo serdecznie.
Cześć Patryku.
No to ja powinienem się również zaprezentować, znaczy powiedzieć o swoich poczynaniach.
W moim modzie to Diablo, który to wczoraj dostał dość znaczącą wersję,
bo dostał wersję 1.3 już w tym momencie.
Obecnie już mogę powiedzieć, że to już 12 wersji mojego moda.
A mówię o tym, ponieważ jest to aktualizacja bardzo znacząca,
bo po pierwsze przebudowałem od zeszłego tygodnia system trackingu,
czyli system śledzenia obiektów w grze,
bo przedtem rbiło się to tak, że pod skrótami klawiszowymi
Mieliśmy listę wszystkich kategorii,
znaczy wszystkiego, czyli lista potworów,
lista empetców, lista obiektów
i jeden klawisz.
Wiecie, o co chodzi, że każda litera,
na przykład litera E to była lista wyjść,
tam inna litera to była lista czegoś,
A teraz w najnowszej wersji ujednoliciłem to tak naprawdę do klawiszy
PageUp, PageDown, Ctrl, PageUp, Ctrl, PageDown, Home i Shift i Home tak naprawdę,
że teraz klawisze Home i End do nas przenoszą po poszczególnych elementach na liście.
Control Home i Control Page Up, Page Down to są kategorie,
czyli kategorie obiekt, kategorie potwory, wyjścia z drzwi itd.
Home pozwala nam na ręczną nawigację do danego elementu,
czyli podaje nam kierunki, w których powinniśmy się przemieszczać.
Natomiast wciśnięcie z Shift Home sprawi,
że postać będzie automatycznie chodziła do rzeczy,
którą sobie zaznaczymy.
Jest to przy… auto-nawigację dodałem niedawno,
ponieważ jest to przydatne, jeżeli robimy loch,
który w zasadzie już pozabijaliśmy wszystko,
a chcemy wszystko wyzbierać.
No to, żeby nie iść długo i ręcznie cały czas nie sprawdzać, gdzie trzeba iść,
to dodałem to, albo nawigacja.
Także to taka rzecz znacząca.
Kolejną rzecz, którą dodałem wczoraj, to jest to, że gra nam podaje,
znaczy mod podaje w zasadzie nam, z jakimi potworami walczymy,
czy to są demony, czy to są nieumarli, czy to są zwierzęta.
A ma to znaczenie tak naprawdę dlatego, że w Diablo I, przynajmniej,
nie wiem jak jest w dwójce i w pozostałych, w czwórce nie ma to znaczenia,
ale myślę, że w jednce i dwójce ma to znaczenie.
Bo jeżeli walczymy np. z potworami typu nieumalgi,
no to np. pewne bronie, np. miecza zadają o 50%,
mają 50% premii np. dla przeciwnicy typu nieumarli,
ale np. zadają mniej obrażeń dla przeciwników typu zwierzęta albo demony.
I dlatego teraz już przy nazwie potwora, którym walczymy,
będziemy mieć również informację, jaki to jest typ.
Czy to jest demon, czy to jest nieumarły, czy to jest zwierzę.
Żeby właśnie ewentualnie sobie popróbować jaka broń na jaki typ potwora zadaję jej.
Czyli po prostu czy bijemy bardziej, czy bijemy wtedy jakby dłużej.
Jeszcze nie dodałem tego, żeby mówiło jakie obrażenia zadajemy.
Myślę, że zrobię to.
No i dodałem również to, że teraz gra oznajmia jakiego typu jest
To jest ekwipunek, znaczy przedmiot, czy jest to przedmiot magiczny, czy przedmiot unikatowy,
co również ma znaczenie.
Jak również gra przy broniach podaje, czy broń jest dwuręczna, czy broń jest szybka
i czy broń jest wolna, i dzięki współpracy z brazylijskim człowiekiem,
który podpisuje się jako AzuraYoga.
Podobno można już uruchomić mojego moda,
ponieważ on bazuje na Devolution, czyli na silniku,
na którym Diablo jeden można uruchomić chyba na wszystkim,
wyłączając oprócz chyba pralki automatycznej,
a tam się na pralkach nie da,
ale na Androidzie już można
Podobno uruchomić to z moim modem i podobno coś to gada i podobno
jest synteza i można jakoś grać podobno z tym, nie wiem.
Ja nie mam Androida, więc nie potwierdzę.
Natomiast no, gdyby ktoś chciał więcej się dowiedzieć o moim modzie,
to zapraszam na forum Audio Games Net
w wątku New Releases Room, jak również na Eltenie,
gdzie opisuję wszystkie zmiany, ale na githubie, gdyby ktoś sobie chciał pograć w stare, dobre, klasyczne Diablo,
no to może podam link do mojego githuba. Jest to tak github.com, tak jak się pisze,
ukośnik mojsior, ukośnik diablo, myślnik access przez dwa s.
github.com slash mojsior slash diablo, myślnik access.
I tam jest obecna wersja 1.3, jest instrukcja po angielsku,
W jaki sposób zainstalować moda, co trzeba mieć.
No i co?
I można grać.
I można grać. Ja już, ja Michale z tobą nie planowałem, nie mówiłem jeszcze na ten temat,
ale chcę pokazać tego moda w Tyflopodcastie i myślę, że jakaś audycja będzie…
Bardzo serdecznie zapraszam, bo myślę, że warto.
Natomiast chciałem jeszcze troszeczkę wyręczyć tutaj Piotrka, jeśli oczywiście mogę,
bo też wiem, że macie jeszcze sporo tematów, więc będę się streszczać.
Nie będę mówić o wszystkim, ale po prostu rok 2026 się jeszcze nie zaczął dobrze,
a już tu znowu kolejne mody przyszły. I ja na pewno powiem o modach dwóch,
Bo mówię, nie chcę tu wyręczać Piotrka, ale to są mody, które po prostu sprawiły, że ja stwierdziłem, że ja nie wiem jak się nazywam, bo to są mody do…
No pierwszy mod jest do bardzo klasycznej gry, tak jak moje, że tak powiem. Mój mod do Diablo zrobił wielkie boom.
Tak tutaj wyszedł słuchajcie mod do Heroes 3.
Heroes 3 Might and Magic.
Gra, która była… to znaczy, ja nie grałem w to.
Ja tylko wiem, że jest.
A skoczyłeś, nie?
Gra, która wypełniała większość mojego dzieciństwa.
Mojego nie akurat, ale…
Tak, obok Worms of World Party mam…
To chyba jest druga gra, w którą najczęściej pogrywaliśmy
z moim bratem i z moim kuzynostwem.
No to będziesz miał okazję sobie zagrać, bo coś kombinuję,
Okej, no więc widocznie czytasz mojego Mastodona.
Nie, po prostu z nami wiem, że grałeś.
Tak, więc Heroes’y, trójka, to jest dla tych, którzy nie znają,
strategia, w której troszkę jak… znaczy no nie w Hearthstone’ie mamy karty
i w Hearthstone’ie po prostu jak jest nasza tura, to rzucamy jakąś tam kartą
i tą kartą może być, nie wiem, jakiś tam cios albo możemy wystawić
Nasz heros, czyli nasz bohater, to jest też taki kontener, że tak powiem,
który składa się z wielu stronników. Możemy tam mieć różne postaci,
jakieś tam chowańce, to było tłumaczenie chyba na imps, z angielskiego.
Tak, bo w Diablo też są chowańce, demony.
Tak, i tam różne inne postaci i tymi postaciami się atakowało,
Przeciwnika, przy czym to nie działa tak jak Halfstone,
że po prostu zbieramy gdzieś te postaci,
tylko my musimy trochę jak w Sąd RTS-ie,
wybudować sobie za pomocą tych zasobów, które mamy,
a one się odnawiają chyba co tydzień
i takim dniem granicznym jest poniedziałek,
na który wszyscy czekają, bo wtedy się odnawiają zasoby
i można wtedy na nowo coś tam produkować.
To produkowanie oczywiście tych naszych stronników
również trwa, to rekrutowanie ich itd., więc…
Na przykład jakiś tam ratusz, czy tam tarta, gdzie drewno musimy mieć,
żeby im budować jakieś budowle, które oni potem…
Ja szczerze mówiąc, ja nie wiem, jak w to grać jeszcze.
Zacząłem eksplorować mapę i doszedłem do podziemi i stwierdziłem,
kurczę, o co chodzi.
Ja też nie pomogę, bo ja teraz nie bardzo wiem.
Można było różne zamki budować, że można było mieć więcej niż jeden
chyba zamek i trzeba było tego zamku też potem bronić tym herosem.
My najczęściej graliśmy w to tak, że po prostu przy jednym komputerze
siedziało nas kilku i każdemu jak się tylko zmieniała tura,
no to podejmował swój ruch i kolejna osoba i kolejna osoba.
Wiem, że ta gra, mimo że jest już prastara, to dalej się cieszy
bardzo dużą popularnością. Oczywiście tych gier było więcej z tej serii.
Ja się tam pięciu doliczyłem, ale może było i więcej.
My wiemy, że piątkę kiedyś nawet chyba legalnie mieliśmy.
To Might and Magic to chyba było przez Ubisoft zrobione jakoś,
bo oni nawet chcieli, żeby to się tak nazywało.
Nieczyliwe. To jest jakieś niemieckie studio. Już teraz nie pamiętam jego nazwy, ale…
Wiem, że Hiroshi do dziś się cieszą bardzo dużą estymą jako gra i dalej powstają mody.
Jest dużo modów nawet. Jest do władcy chrześcijański Ałkiszaka. Widziałem nawet Lord of the Rings.
No i da się grać przez internet również, więc gra dalej żyje.
To chyba ten mod, o którym mówisz, jest na bazie tego open source’owego chyba silnika,
który pozwala na dość mocne modyfikowanie tej gry, także no…
Ten nasz mod dostępnościowy też chyba korzysta z tego, bo ten człowiek…
Tak, tak, tak, ja o tym mówię.
Który to zrobił, on właśnie z tego korzysta, a ten…
Więc jak to się rozkręci, bo ciekawostka. Jeszcze parę lat temu mój kuzyn z bratem
Myśmy się cały czas umawiali na pojedynki w Heroesów, mimo że już mieszkają w dwóch osobnych miastach.
Także liczę na to, że jeżeli to się rozkręci, to mam nadzieję, że się w to jakoś włączę.
Myślę, że już nawet możesz się włączyć, bo już ludzie w to grają.
Nie wiem czy jakaś grupa na Discordzie nawet nie powstała.
Ale to jeszcze nie jest koniec.
To jest jeszcze jedna rzecz, o której chciałem powiedzieć.
Też gra bardzo popularna.
Against the Storm.
I to w ogóle jest…
To jest w ogóle też gra, która…
W ogóle Heroes są po polsku.
Tam w ogóle zgłaszałem do tego pana,
który odpowiada za tego moda.
Tam były problemy z kodowaniem.
Już chyba są poprawione, nie testowałem.
najnowszej wersji. Natomiast Heroes’ów, a propos nich, na Google polecam kupić.
GOG.com. Ja bodajże chyba kupiłem za 15 złotych.
Kurczę, teraz nie pamiętam, czy ja kupowałem na Google, czy nie tam.
Ale wiem, że to jest dość stara gra i dość tanio to kupimy.
Natomiast chciałem powiedzieć jeszcze o A Games The Storm.
To w ogóle jest też gra, która jest citybuilderem, czyli budujemy osady poniekąd.
Jest to troszkę gra taka roguelike, czyli umieramy, ale jak umrzemy,
to dostajemy jakieś dodatkowe rzeczy, które nam rozgrywkę ulepszą.
O co nam chodzi? Jesteśmy sobie takim człowiekiem, który ma za zadanie rozbudowę osad,
ale jest królowa, która nam rozkazuje i którą musimy zadowolić i sprawić, żeby ona była szczęśliwa.
Ta królowa nam daje różne zdania typu, nie wiem,
wybuduj obóz drwali, za chwilę do tych naszych osad się wprowadzają mieszkańcy.
Musimy tych mieszkańców zadowalać.
Problemem jest natomiast to, że w tej grze dzieją się niebezpieczne warunki pogodowe.
Od burzy. Która to burza sprawia, że te wszystkie zasoby nam zmiata z ekranu i musimy oczywiście przeciwstawiać się tym warunkom pogody.
Generalnie gra dzieli się na lata. I każdy rok jest podzielony na kilka R.
Mamy erę mżawki, w której zbieramy te wszystkie zasoby, wszystko tam robimy.
Jest właśnie era burz, która sprawia, że dzieci są zsyłane na nasze katastrofy,
Jakieś deszcze, w ogóle meteorytyczne, w ogóle cała gra to jest jakiś taki system fantastyczny,
bo są ludzie kontra jakieś inne rasy, które na przykład te rasy z nami są w tej osadzie
i jedne rasy mają bonus do czegoś, na przykład bonus do…
Bobry na przykład mamy, ludzie z bobrami, bobry mają na przykład bonus do drewna,
że wydobycie drewna jest szybsze.
No i oczywiście oprócz mrzawki mam jeszcze tam sezon zbiorów.
No i musimy ileś tam lat po prostu te nasze osady budować.
Dbać o to, żeby królowa była zadowolona.
Oczywiście jeżeli my będziemy się ociągać z tymi wioskami i z tym wszystkim,
no to poziom zniesierpliwienia naszej królowej będzie rosnąć.
A im wyższy będzie ten poziom zniecierpliwienia, to tym gorzej dla nas.
I jak ten poziom zniecierpliwienia tam osiągnie jakiś wysoki bardzo poziom,
no to oczywiście giniemy.
To jak zginiemy, no to zaczynamy oczywiście od nowa,
ale z jakimiś tam ulepszeniami, że nam się wszystko szybciej buduje.
No i jest gra po polsku, w pełni jest język polski, oczywiście mod jest po angielsku,
więc pewne rozkazy, pewne słowa są czytane na przykład w dość dziwny sposób,
typu Build 2 Obóz Drwali i na przykład In Obóz Drwali z Build 10 Wod.
Czyli to wiadomo, że chodzi o drewno, ale generalnie grać można, jest samouczek.
Heroesy swoją drogą też są po polsku.
Także o tych dwóch rzeczach chciałem powiedzieć.
Dwóch grach, które myślę, że zrobiły mi, że tak powiem, tydzień.
Natomiast teraz jeszcze chciałem Was, moi drodzy, zapytać o kilka rzeczy.
Po pierwsze chciałem się zapytać…
Ty, Michale, mówiłeś o kodeksie, a w zasadzie o tym, że jest nowy model.
No, ja nie wiem…
Zgadza się.
Nie, tylko, że ja aktualizuję kodeksa i sprawdziłem przed chwileczką i w modelach mam tylko wersję modeli 5.1 i 5.2, nie mam 5.3.
To jest bardzo ciekawa sprawa. Ja zaraz spróbuję sprawdzić u siebie.
Już sobie odpalam. Model…
5.1, 5.2…
A to jest bardzo ciekawe.
To jest kodeks kodeks, 5.1 kodeks max, to nie.
I 5.1 kodeks mini.
Wiesz, że faktycznie u mnie też tego nie ma?
Bardzo to ciekawe, czyżby…
Być może. Ja nawet szczerze mówiąc nie zainteresowałem się tym jakoś bardzo,
Bo czytałem bardzo sprzeczne opinie na reddicie i ze względu na to po prostu…
Może nie działa z kontami współdzielonymi, tylko właśnie z…
Wiesz co, tylko ja nie mam tylko współdzielonych.
Może problem wynika z tego, że ja mam tego load balancera przed kodeksem postawionego.
No w każdym razie na razie jakby widzisz.
Wiem, że jest, ale na razie nie zainteresował mnie aż tak bardzo.
Ale potwierdzam, nie widzę tego też.
Natomiast à propos jeszcze poprawek, zapomniałem powiedzieć.
WP Pilot poprawiło się. Ostatnio zgłaszałem w WP Pilocie,
że nie jest czytane, na jakim kanale jesteśmy,
tylko jest czytane, co leci w danej telewizji.
No to teraz zostało to poprawione.
Jest czytane, że to jest np. TVP1 i jest napisane,
i on czyta nam, co jest na danym programie.
Problem tylko polega na tym, że jeżeli mamy wersję darmową,
WP pilota i będziemy sobie chodzić po wszystkich kanałach,
to nie usłyszymy, że kanał jest premium.
I w efekcie, jeżeli klikniemy sobie w taki kanał,
a nie mamy konta premium,
no to w tym momencie możemy sobie klikać i w zasadzie nic nam się nie stanie,
nie wyskoczy żaden komunikat, że nie mamy premium.
Po prostu nie będziemy wiedzieć, że to jest premium.
Także to taka nieścisłość.
Ale znając WP, to prędzej czy później to poprawią.
Natomiast ja mam pytanko a propos NVDA.
Ponieważ NVDA nie jest czytnikiem ekranu, z którego korzystam na co dzień,
bo korzystam z czytnika ZDSR,
ale ostatnio miewam czasem potrzebę, żeby w NVDA,
no bo do kodeksa jednak używam NVDA,
no bo ZDSR niestety tam z konsolą
Nie do końca sobie dobrze radzi. Nawet z Putin.
Natomiast czasami z NVIDIA mam potrzebę, żeby przejrzeć jakąś stronę.
I krew mnie zalewa, bo nie wiem, co się dzieje.
Myślałem, że to robiły dodatki,
ale nawet jak włączam NVIDIA z tym trybem z włączonymi dodatkami,
mam taki problem, że jestem na jakiejś stronie,
wszystko jedno jakiej,
i na przykład kliknę sobie w jakiś… otworzę sobie jakiś link.
Przeglądarka Google Chrome, najnowsze NVIDIA i stabilne,
otwieram sobie jakiś link. I co się w tym momencie dzieje?
Po wciśnięciu Entera chcę sobie szybko strzałkami nawikować.
Jest cisza, znaczy w sensie chodzę sobie strzałkami,
nie dzieje się nic. Chodzę sobie tabem,
nie dzieje się nic. Minimalizuję okno przeglądarki,
Przechodzę do okna przeglądarki. Nie dzieje się nic.
Chcę zamknąć przeglądarkę Aldef 4. Zrobić. Nie mogę jej zamknąć.
Ale jak poczekam jakieś 2-3 minuty…
Dobra, może przesadzam. Nie no.
Dobra, no poczekam 1,5 minuty.
To się nagle wszystko odwiesza.
I nagle już mogę korzystać ze strony. Już normalnie mogę chodzić po stronie.
To jest bardzo dziwne zachowanie. Tak zdecydowanie nie powinno się dziać.
Czy masz NVIDIA jakoś na świeżo instalowany, czy to jest instalacja, do której ty wróciłeś po jakimś czasie?
To jest instalacja, którą ja już zrobiłem chyba dwa lata temu. Stawiałem system jakoś w grudniu.
A może spróbuj odinstalować, poczyścić te profile i zainstalować to NVIDIA na świeżo.
Ewentualnie jeszcze, czy tu jest jeszcze cały czas ta opcja…
Tak, uruchom w narzędziach.
Uruchom narzędzie naprawy błędów rejestracji COM.
Może to coś pomoże, ale…
No jest to dziwne.
Powiem tak, gdybym ja tak miał, to nie używałbym NVDA.
Ale co ciekawe, na przykład korzystam z innych aplikacji, które korzystam z Chromium, na przykład z Whatsappa, który jest na Chromium, czy z Discorda, to tych problemów nie ma. To się dzieje tylko w przeglądarce Google Chrome.
A jak sobie zainstalujesz inną przeglądarkę opartą na Chromium pokryjąc np. jakiegoś Brave’a?
Wiesz co, ja myślałem o Edge’u jeszcze.
No to spróbuj Edge’a. Też fakt.
Natomiast faktycznie jeszcze spróbuję, bo może to jest kwestia też SAPI, syntezy.
Ale używasz czego?
Spica.
Ale na SAPI i 5.
Nazwij pięć.
Ja właśnie często robię taką po prostu jazdę, że jak NVIDIA mnie po prostu wkurzy i stwierdza, że po prostu tutaj nie mogę po stronie chodzić, a nie chce mi się czekać.
Przełączam się na ZDSR-a i od razu jest okej. Także to nie jest kwestia mojej przeglądarki. Ale nie.
Ciekawe czy na Firefoxie się tak będzie działo, no ja nie mam Firefoxa akurat, bo we flicy korzystacie z Chrome’a, tak?
No tak, można wytworzyć pytanie, bo tu jeszcze coś mi przerwało chyba niestety jak mówiliście.
To znaczy chodziło o problemy Patryka z NVDA i z Chrome’em i tu pyta czy na przykład na Firefoxie tobie dobrze NVDA działa.
Dobrze, na obu przeglądarkach. Ja częściej z Firefoxa istotnie korzystam, ale nie zauważyłem ostatnio, że miałem jakieś konkretne problemy w żadnych z przeglądarek, których używam.
A może to też jest, słuchajcie, bo ja mam jakieś dodatki, które są jakby niekompatybilne z NVIDIA. Czy to nie jest tak, że jeżeli nawet włączę tego NVIDIA z włączonymi dodatkami, to jednak może jakiś dodatek, może się coś ładować?
Nie sądzę.
Nie, jak masz wyłączone dodatki NVDA, to nie.
Możesz jedynie co spróbować, to narzędzie naprawiania COM rejestru.
Narzędzie naprawiania rejestru, to COM.
To co jest w narzędziach NVDA.
Takie narządko, można je uruchomić.
To jest właśnie to, co ja też sugerowałem.
Jasne. No dobrze.
To już słuchajcie, nie zabieram wam czas.
Będę dalej słuchać, bo
Bardzo jestem ciekawy, co tam o Discordzie chcecie powiedzieć.
A propos Discorda, to ja się zastanawiam w ogóle, kto tam siedzi z Polski,
bo czasami jak ja przeglądam changelogi i chociażby Discorda aktualizacji na Discordzie,
a w iOS-ie czy Discord-a na Windows-ie
i czasem widzę, jak z humorem są przetłumaczone pewne rzeczy,
to aż mi się chce śpiać czasami,
bo ktoś naprawdę ma tam bardzo dobre poczucie humoru.
To samo się dzieje przy Signal-u, lista zmian Signal-a w App Store.
Jak tam są poprzetłumaczone niektóre rzeczy,
Zastanawiam się, czy to nie robi to sama ekipa.
Albo komunikaty na Discordzie.
Że to jakaś zewnętrzna agencja.
Jak przychodzi użytkownik na przykład na Discorda i jest komunikat.
Mam nadzieję, że przyniosłeś dobrą pizzę, żeby się zabawić, czy coś takiego.
Śmieszne to jest.
Dlatego się zastanawiam, czy jest jakiś polski oddział Discorda, gdzieś po prostu czyta.
Nic mi na ten temat nie wiadomo, jak to wygląda.
Ale wesoło.
No, wesoło, wesoło. Ok. Dzięki za telefon, dzięki za informację o modzie Diablo, powodzenia w jego rozwoju, no i cóż.
A dziękuję bardzo.
I jesteśmy w kontakcie a propos audycji.
Na Diablo się nie skończy.
Jasne. Super. Trzymaj się, pozdrawiamy do usłyszenia.
Dobrze, to teraz po tej dłuższej przerwie, a miał być dziś krótko, to może wróćmy do tematów związanych z NVDA, bo mamy wersję już tegoroczną 2026.
Jeden, ale nie, to nie jest jeszcze wersja stabilna, to na razie jest wersja beta.
Tak, zgadza się i no taką największą nowością tak naprawdę jest migracja tego wszystkiego na 64 bity.
Na tą właśnie architekturę procesorową.
Długo, długo już na to czekaliśmy.
No i nareszcie NVDA się przeniosło.
Nareszcie, bo dzięki temu się odblokuje dostęp do różnych nowych możliwości.
No trochę jest to zmora, bo po pierwsze długo ten proces trwał.
Dużo może być w tym błędów.
No i jest to obciążone różnymi problemami.
Na przykład trzeba było przeportować poniekąd,
czy stworzyć jakąś warstwę kompatybilności.
Dla 32-bitowych syntezatorów i sterowników do monitorów brailowskich.
No więc trochę się w tej kwestii podziało.
Drugą taką nowością jest wbudowane wsparcie dla matematyki,
bo teraz mamy MathCata, czyli tak naprawdę to aktualnie rozwijane narzędzie
do dostępnej prezentacji treści w MathML-u,
czyli w takim już ustandaryzowanym formacie
prezentacji treści matematycznej w internecie.
Jest to narzędzie wbudowane w NVDA.
No więc ja tutaj troszkę poczytam, co tam nowego w tej wersji jest.
No i co my na przykład tu mamy.
Oczywiście kompatybilność z dodatkami jest tutaj zniszczona,
więc trzeba znowu teraz je odbudować niestety.
To jeszcze nie są te wersje, w których będziemy mieli względnie jakieś uładzone API,
które zapobieże temu, że trzeba będzie te dodatki co sezon, co roku gdzieś tam przepisywać.
Niektóre z nich pewnie od zera, niektóre minimalnie.
Ostatnią wersją też, jaka jest teraz kompatybilna, jest Windows 10,
więc wsparcie dla Windowsa 8.1 zostało już porzucone.
Windows nie jest już wspierany i Windows 10 na platformach ARM
również też nie jest wspierany.
I MavPlayer też już nie jest wspierany.
Co jest nowego? Jakie mamy nowe funkcje?
W sklepie z dodatkami pojawił się komunikat w szczegółach o dodatku,
jaki wynik ten dodatek otrzymał w VirusTotalScanie,
czyli ten taki open source’owy skaner wirusów,
w którym można podpiąć, nawet jako API, no to tutaj autorzy też podpięli.
I można teraz sobie w szczegółach podejrzeć.
Jest też przycisk, który przeniesie nas na stronę VirusTotal,
gdzie będzie można się zapoznać już z całościowym takim raportem.
To chyba skanuje wieloma różnymi antywirusami i wykazuje,
czy któryś z nich coś tam znalazł podejrzanego w takim dodatku.
W dodaną nową działanie można teraz podglądać zmiany w ostatniej wersji dodatku.
Także będzie można szybko podejrzeć sobie changelog z poziomu sklepu z dodatkami.
Też fajna sprawa.
Można też teraz wybrać, jakie dodatki mają zostać skopiowane, kiedy kopiujemy nasz profil na ekrany bezpiecznego logowania.
Logowanie w systemie, UAC, czyli różnego rodzaju prośby o wykazanie uprawnienia administratora,
na przykład jak coś instalujemy, to to były takie bardziej wrażliwe ekrany.
One miały swoją własną konfigurację NVIDIA.
Z reguły, jak kopiowaliśmy profil, to kopiowane były również nasze dodatki.
Wszystkie. Nie zawsze jest to dobrym pomysłem,
jako że dodatki mają dość dużą władzę i sprawczość,
No więc dodano opcję wyboru świadomego, co my na tym ekranie chcemy mieć.
Wprowadzono wbudowane wsparcie dla treści matematycznych właśnie za pomocą MavCata.
NVIDIA przez to, że zmigrowany został na 64-bitową infrastrukturę,
wspiera też teraz 64-bitowe głosy z API 5.
Więc wiem, że były trochę takich głosów, które były tylko w takiej formie.
No więc był problem z tym, żeby się z nimi jakoś porozumieć.
W liście elementów Worda dodano wsparcie dla przypisów końcowych i przypisów dolnych.
I też dodano nieprzypisane domyślnie skróty, które pozwalają na przeskoczenie
do najbliższego odwołania, i poprzedniego, i następnego w Wordzie.
W trybie przeglądania liczba elementów na liście jest podawana w brajlu.
No też super, czyli jak będzie lista ileś elementów, no to w brajlu też będzie to podane.
Kiedy czytamy tekst, to błędy w pisowni oraz błędy gramatyczne
Nie mogą być raportowane dźwiękiem, a nie mową.
Można sobie to wybrać, czyli rzeczywiście,
zamiast mówić tam błąd, ortografii, błąd, błąd, błąd przy każdym słowie,
to będzie po prostu ten odgłos taki,
który znamy już, jak napiszemy coś z błędem,
taki rrrrt, ten dźwięk będzie odtwarzany.
Błędy gramatyczne oraz błędy w pisowni
będą teraz również zgłaszane na monitorach brajlowskich.
Dodano możliwość, znaczy informowanie o tym,
Jeżeli na liście wielokrotnego wyboru można wybrać wiele elementów.
Wcześniej listy wielokrotnego wyboru w różnych aplikacjach windowsowych
nie były zgłaszane. Teraz będą.
To jest opcja, którą można sobie włączać lub wyłączać w ustawieniach
prezentacji obiektów. Visual Studio Code.
Standardowe polecenie czytania paska statusu.
Teraz go tam również przeczyta.
Jest możliwe automatyczne odczytywanie wyniku po tym, jak zostanie rozpoznany
na nowo coś o CRM w NVDA, czyli NVDA-R.
Na to w tym okienku, jeżeli będziemy odświeżanie mamy włączone,
to będzie opcja automatycznego odczytywania nowego wyniku rozpoznania.
Też mamy usprawnienia wydajności na procesorach ARM64, np. na Qualcommach.
Dodano też nieprzypisane polecenie domyślnie do odtwarzania dźwiękiem współrzędnych,
gdzie znajduje się aktualnie myszka, jeżeli mamy zgłaszanie koordynatów myszki.
Mamy też zmiany. I tu np. nie mamy porzuconej wsparcie dla Windowsa 8.1.
oraz Windowsów 32-bitowych.
Aktualizacje komponentów, oczywiście Liblui zaktualizowany do 3.36.
Tu na przykład mamy dodaną japońską Rokuten Kaji tablicę
oraz macedoński bez skrótów oraz trzeciego stopnia skróty dla angielskiego.
Są też poprawki dla tablic słowackiej, norweskiej, węgierskiej, portugalskiej ośmiopunktowej
i międzynarodowej, greckiej, biblijnego, hebrajskiego oraz UIB, czyli ujednoliczony brail angielski.
Zaktualizowano BRL API dla BRLTTY, także Unicode CLTDR i ESPEAK też jest zaktualizowany.
Dodano też opcję w menu ONVDA kopiowania aktualnej wersji screenreadera do schowka.
Jeżeli będziemy wchodzić na jakiś bezpieczny pulpit, czyli właśnie jakieś logowanie, jakieś prawa administratora, to zainstalowana wersja NVDA tymczasowo wyłączy swojego brailla tak, żeby wersja z ekranu logowania mogła na tego brailla się dostać i żeby działały tam monitory braillowskie.
Jeżeli będziemy kontrolować inny komputer przez zdalny dostęp, czyli przez remauta,
z podłączonym monitorem braillowskim, to wiadomości wyświetlane na naszym komputerze
będą mimo wszystko dalej wyświetlane na monitorze.
Skrócono długość piknięć podczas wcięcia, bo wcięcia są oznajmiane piknięciem w NVDA
ale były trochę zbyt długie, więc je skrócono.
W trybie przeglądania w przeglądarkach
NVDA nie traktuje już elementów o zerowej wysokości
bądź szerokości jako niewidzialnych.
To jest fajna sprawa, bo wiele takich elementów
na stronach było. Robiono to po to właśnie,
żeby nie były one widoczne na ekranie,
ale mimo to programatycznie dostępne.
No i teraz będzie je widać.
Ponoć był z tym duży problem, na wielu stronach były one używane
i nie było do nich po prostu dostępnych.
Tak.
Stan kurtyny nie zależy już od profilu, który aktualnie jest ustawiony w LVD.
Kiedyś tak było, teraz już nie jest.
I to było bardzo irytujące, powiem szczerze, z tymi właśnie profilami.
Ja sam tego doświadczyłem. Kiedyś miałem właśnie skonfigurowaną kurtynę,
miałem osobny profil dla innej aplikacji i zastanawiałem się,
o co chodzi? Czemu to mi się to zmienia?
Dokładnie. Także zostało to naprawione.
Dodano też nową kategorię prywatność i bezpieczeństwo.
W ustawieniach NVDA aktualnie są tam ustawienia właśnie kurtyny,
Które wcześniej były w ustawieniach widoczności oraz różne ustawienia dotyczące logowania, zbierania logów, metryki, telemetrii itd.
Jeżeli kopiujemy ustawienia podczas logowania lub na ekranach bezpieczeństwa, LVDA już nie ostrzega o kopiowaniu dodatków,
dodatków, no bo teraz mamy osobne ostrzeżenia, jako że możemy wybrać
sobie dodatki. I też domyślnie nie są kopiowane żadne dodatki,
więc trzeba sobie samemu wybrać takie, jakie chcemy uwzględnić.
Audio ducking, czyli wyciszanie dźwięku systemu na rzecz syntezy,
już nie działa na SAPI-4 oraz na 32-bitowych wersjach SAPI-4 i SAPI-5.
Interfejs NVIDIA jest przetłumaczony na język khmerski.
Tu jest napisane kambodżański, ale ja rozumiem, że w Kambodży mówi się po khmersku,
chyba że coś mylę, to ktoś mnie pewnie poprawi, bo wiem, że mamy takich słuchaczy,
którzy będą w stanie to wyjaśnić. No i mamy też poprawki.
Jeśli chodzi o remote’a, poprawiono na przykład powiadomienia,
kiedy nie uda się podłączyć jako maszyna kontrolowana.
No i NVDA też nie otworzy tam kilku okienek, jeżeli szybko się wywoła akcję połącz.
Poprawiono też to, że pewne znaki były przetwarzane i pokazywane,
które nie powinny być w dokumentach PDF z MathML.
Poprawiono oznajmianie łączonych diakrytyków, kiedy włączona jest normalizacja Unicode.
Poprawiono błędy, gdy czasem NVIDIA nie było w stanie wykazać nazwy programu lub jego wersji.
To jest taki skrót chyba. NVIDIA Insert.
Znaczy to w logach się często pokazuje przede wszystkim.
To był dodatek, ale tak to się gdzieś tam w logach pokazuje.
Czasami to nie działało.
Jeżeli podajemy położenie kursora w notatniku
oraz w innych klasycznych polach edycji Win32.
Teraz pozycja tekstu bardziej się zgadza z rzeczywistością.
NVDA nie ma już problemu z czytaniem treści kontrolek typu WXWeb,
czyli po prostu widok strony internetowej wrzucony do widżetu WX,
czyli do pytonowskich widżetów graficznych.
Jeżeli mamy włączoną aktualizację automatyczną dodatków w tle,
można teraz te dodatki tak naprawdę aktualizować bez problemu.
Był z tym wcześniej jakiś problem.
Próba instalacji dodatku, który wymaga nowszej wersji NVDA
za pomocą eksploratora plików, czyli jeżeli klikamy na plik
Już nie kończy się błędem, który nic nie pokazywał.
Naprawiono przypadki, kiedy wyjście brajla, kiedy pokazywanie brajla na monitorze
wyrzucało błędy. Komunikaty o tym, ile zostało jeszcze baterii,
już nie mówią, że jest 0 godzin lub 0 minut, podają po prostu te jednostki,
No i używają liczby pojedynczej i mnogiej, tak tam, gdzie trzeba.
Jeżeli syntezator ma jakiś język, z którego może skorzystać,
jeżeli nie wspiera konkretnego dialektu, to już nie ma informacji,
że język jest niewspierany. Na przykład zwłaszcza na stronach internetowych,
gdzie podawane były informacje, czy tam dany język jest wspierany, czy nie.
Pewne ustawienia nie będą zapisywane na dysku, jeżeli uruchamialiśmy NVDA
Przypuszczam, że z tej wersji pendrive’owej.
W klasycznym outlooku były pokazywane dodatkowe informacje na monitorze brailowskim.
Kiedy nawigowaliśmy po liście wiadomości, NVIDIA wykrywa i zapobiega powtarzającym się pętlom crasha,
co spowoduje to, że jeżeli coś NVIDIA się nie uda przy starcie, to nie będzie się sam zapętlał i zawieszał.
Jeżeli będziemy przesuwać się z monitorem brailowskim do następnej linii w LibreOffice Writerze,
a mamy kursor na początku linii, będzie dobrze działać nawigacja do końca dokumentu,
jeżeli byliśmy na ostatniej linii. Jeżeli używamy podświetlenia, czyli tego,
gdzie widzące osoby widzą po prostu, gdzie przemieszczamy się aktualnie naszym NVDA,
Jeżeli używamy tego w przeglądarce, to to podświetlenie będzie też działać
na różne okienka, które wyświetlimy na tej naszej przeglądarce,
czyli na przykład na okienko OCRa, Windows NVIDIA R z NVIDIA.
Jeżeli używamy operatorów matematycznych w skrótach klawiszowych
w opcji zdarzenia wejścia i mamy włączonego NumLocka,
No to będą poprawnie pokazywane te skróty.
Jeżeli mamy na stronie internetowej źle zakodowane linki,
a korzystamy z przeglądarek na bazie Chromium,
czyli np. Chroma albo Edge’a,
no to teraz dostęp do takiej strony będzie nadal możliwy.
NVDA nie odtwarza już dźwięku błędu gramatycznego bądź ortograficznego.
Jeżeli mamy ustawiony tryb mowy na żądanie lub jest on wyłączony.
No i to jest tyle. Pokaźna lista zmian, bo wersja też duża.
Ale wiemy już, że to nie wszystko, bo NVDA już powoli szykuje 2026.2,
więc jak tylko wyjdzie 1, to kolejne ciekawe zmiany nam nadejdą.
A teraz odbieramy kolejny telefon. Kogo witamy tym razem?
O, się chyba ktoś…
O, dobrze, dobrze, już. Odbieramy. Ktoś z nami tym razem.
Halo?
Halo?
O, słyszymy się?
Słyszymy się.
Ja dosłownie na chwileczkę, tak jak tutaj Ci prywatnie, Michale, pisałem.
Małe sprostowanie do Patryka. Ja nie powiedziałem, że mam ten model dostępny,
Tylko usłyszałem, że po prostu jest model 5.3,
ale ja nie sprawdzałem u siebie, czy ten model mam w kodeksie,
tylko po prostu prywatnie tutaj z Patrykiem rozmawiałem,
że słyszałem, że jest model 5.3 i tyle.
Więc takie małe sprostowanie tutaj chciałbym powiedzieć,
że ja nie powiedziałem, że ja mam ten model,
tylko że po prostu usłyszałem, że jest.
A druga ważna rzecz, co do tych testów R-Voice’a,
muszę ogłosić bardzo ważne ostrzeżenie,
że może na niektórych telefonach, zwłaszcza tych starszych,
na przykład typu iPhone SE trójki, nie działać w ogóle,
po prostu mogą te głosy się z jakiegoś powodu nie pojawić.
Niestety takim bolesnym przykładem stał się Kazek.
I ja nie mam pojęcia, dlaczego u niego tych głosów w ogóle nie widać.
Próbowaliśmy restartować iPhona, VoiceOvera, no dosłownie chyba wszystko,
co się dało. Kilkakrotnie przeinstalowaliśmy tą ostatnią betę,
którą dałem do wewnętrznego test flighta i nic to nie dało.
Nawet po zainstalowaniu jakby… i to już się objawia tym,
Nawet po zainstalowaniu danego głosu
nie chce się odtwarzać jego próbka w aplikacji,
tylko się robi jakieś takie dziwne trzeszczenie,
nie wiadomo w ogóle co.
Bo np. u mnie po zainstalowaniu danego głosu,
jak dam play, to ta próbka się ładnie odtwarza
i jest normalnie słyszalna.
Bo jeżeli jakiegoś głosu nie mamy w tej chwili
zainstalowanego na tą chwilę,
To dana próbka się nie odtwarza.
Zbigniew Twierdzi, że to jest wina formatu OGG.
Ja to oczywiście będę spróbował naprawić,
żeby te podglądy głosów, które nie mamy zainstalowane,
żeby one się odtwarzały,
ale jakby muszę tu wszystkich ostrzec,
którzy będą chcieli wziąć udział w testach,
że może komuś to po prostu nie działać
i na razie nie mam bladego pojęcia,
Pytanie moje jest inne.
Czy jeżeli taki głos nam nie zadziała, jeżeli my go przestawimy i on przestanie działać,
to czy VoiceOver jest na tyle inteligentny, żeby zrobić jakiś fallback na swoje te natywne głosy?
Żebyśmy nie zostali z telefonem, który nam się ucegli.
Ale jakby u Kaska jest ten problem, że ten głos w ogóle nie pojawia się na liście głosów tam w mowie.
To znaczy, to moim zdaniem jedynym sposobem na zrobienie tego w taki sposób, jak to powinno być, to po prostu musisz wprowadzić logowanie.
I tylko w ten sposób będziesz w stanie wyłapać…
No tylko jak ja mogę to debugować, jeżeli ja…
No musisz, no powtarzam, musisz wprowadzić logowanie, mechanizm logowania.
I teraz użytkownik, który ma problem z daną funkcją, czyli de facto z całym RH Voice’em, no to po prostu odpala taką aplikację, zbiera logi, wysyła ci i teraz kodeks sobie przeanalizuje te logi i być może wykryje coś, co…
Zastanawiam się tylko, jak wprowadzić te logowania, jakbyś mógł, Michale, podpowiedzieć, bo ja, tak jak ci mówiłem, nie potrafię niestety korzystać z tych, wyciągać tych logów z Connecta.
No po prostu każ mu wprowadzić logowanie, opisz sytuację, opisz problem jaki jest.
W sensie tak jak to zrobiłem w tym Accessible Gramie, takie logowanie.
Tak, takie logowanie. Takie logowanie po prostu jest potrzebne.
Ewentualnie jeszcze każ mu zbierać metryki systemowe.
Być może to też do czegoś doprowadzi i pomoże.
Ja na przykład teraz robiąc ten refaktor Accessible Grama,
No to zbieram sobie metryki systemowe. One są akurat o tyle niewdzięczne i długotrwałe, że one tam się odkładają w iOS-ie co 24 godziny i jest to trochę irytujące, że to po prostu trzeba czekać.
Czyli powiedzieliśmy, że ma zbierać metryki.
Tak i logowanie też, logowanie samej aplikacji, bo nie wiadomo tak naprawdę, gdzie to się wywraca. No trzeba to złapać.
Zawsze jest tak, że jeżeli mamy jakiś problem, trzeba logować, trzeba szukać. Tak to nie jest po prostu.
Także apeluję i od razu ostrzegam wszystkich chętnych testerów, żebyście od razu mi nie przychodzili, nie płakali, że wam to nie działa.
Tak, wiem, że może być taki problem. Na razie jedyną osobą jest Kazek. Nie wiem, kto się jeszcze trafi.
No bo tak, u was widzę, że działa. U moich znajomych też działa.
No i niestety na razie Kazak jest jedyną, chyba przynajmniej znaną ofiarą,
u którego nie działa. W ogóle, totalnie jest brak jakiejkolwiek w ogóle czegokolwiek.
No to po prostu logowanie w tym momencie twoim przyjacielem i trzeba to wyłapać.
Tak, ja spróbuję jutro wydać wersję do test flighta wewnętrznego,
już z poprawionymi tymi rzeczami, to co dzisiaj pokazywałem tu wcześniej.
Bo jeszcze chcę uporać się z tymi fonemami,
żeby to naprawić, żeby wam już wypuścić coś w miarę sensownego
i będzie się dało używać. I spróbuję wtedy to logowanie wprowadzić.
Także ja tylko to chciałem powiedzieć, bo zapomniałem
…po prostu powiedzieć o tym, a to jest bardzo ważne ostrzeżenie,
że może coś takiego się wydarzyć i że jakby od razu proszę
nie lamentować i nie płakać, że oj, bo mi nie działa.
Tak, wiem, że może to nie działać, zdaję sobie z tego sprawę
i będę spróbował to naprawić właśnie z tym logowaniem,
bo jakby połączę to logowanie wtedy i postaram się pozbierać logi.
Chyba, że właśnie tutaj może ktoś mógłby właśnie, no nie wiem,
myślałem o Arku Świętnickim, bo on tam kiedyś coś kombinował,
Staje się z PIKa przeportowywać, czy coś tam.
Albo jakby się udało z tym całym Becką Gozaliświlem jakoś skontaktować,
bo on podobno umie też takie rzeczy.
No ale to wiesz, to nikt myślę, że ci nie broni też się próbować kontaktować po prostu z tymi…
Bo jeżeli ja z Kodeksem nie dam rady tego wyłapać, no to nie wiem co dalej.
No na razie to spróbuj w ogóle zacząć to logować
Przepraszam, że tak się dobijałem na tarczywie, ale no chciałem te ostrzeżenie powiedzieć, że jest łatwiej mówić niż pisać, dlatego tak się co chwilkę, ja to was słuchałem i się dobijałem po prostu i przy okazji chciałem sprostowanie o tym kodeksie powiedzieć, że o tym modelu, że ja nie sprawdzałem, czy mam ten model 5.3. Także przepraszam.
Ja też nie sprawdzałem i jak widać nie mam.
Dzięki w takim razie za telefon i do usłyszenia. Powodzenia w rozwijaniu
RH Voice’a w takim razie. A teraz będziemy sobie układać kostkę Rubika.
Tylko czy jest Paweł?
Tak, jest Paweł jak najbardziej.
Natomiast to jest aplikacja, która powstała chyba nawet dzisiaj,
Bo na AppleVisie pojawiła się informacja, że właśnie ktoś,
kto układa sobie taką kostkę, a wiem, że wśród osób niewidomych
jest to dość popularne hobby, które zyskuje, mam wrażenie,
ostatnio jakoś też coraz większą popularność, był taki człowiek,
który po prostu zmęczył się już tym, że wszystkie do tej pory
dostępne rozwiązania, które w jakiś sposób mogłyby
zwłaszcza na początku pomóc w rozwiązywaniu tej zagadki,
Są niedostępne, są bardzo graficzne, są bardzo wizualne.
No i sprawia to, że po prostu to nie działa.
Więc ja tu przeczytam może opis tej aplikacji.
No i tak…
Cześć. Ostatnio zacząłem układać kostkę Rubika
i jest to fajne zajęcie, ale zauważyłem,
że wiele narzędzi, które wspierają nas w tym hobby,
nie jest dostępne z czytnikami ekranu.
Głównie mówię o rozwiązywaczach tzw. kostki Rubika.
Na wielu stronach, które pozwalają na wprowadzenie stanu kostki,
czyli to są różne takie chyba wzory.
Jakby każde ułożenie każdego z elementów kostki
da się jakoś tam mierzalnie określić.
No i jeżeli wpiszemy to gdzieś na jakiejś stronie,
no to jest w stanie nam taka strona zasugerować,
jak tą kostkę ułożyć poprawnie
z tego miejsca, w którym jesteśmy.
Proces jest bardzo wizualny, a przyciski są niezetiketowane.
Zamiast szukać bez końca aplikacji,
która może albo być może będzie spełniała moje potrzeby,
a może nie, postanowiłem stworzyć moją własną.
Przedstawiam. Blind Cube.
Oto, w jakich sytuacjach aplikacja może pomóc.
Można dodać swoją własną kostkę.
Można dodawać kostki, definiując każdy z sześciu fizycznych elementów.
Rozwiązywanie kostki. Wybierz kostkę i wprowadź jej stan.
Po wprowadzeniu stanu i wypełnieniu wszystkich elementów we wszystkich sześciu powierzchniach,
Naciśnij rozwiąż i otrzymasz instrukcję krok po kroku,
jak tą kostkę ułożyć.
Rozkładacz kostki. Wybierz kostkę i uzyskaj kostkę nieułożoną.
Możesz też uzyskać krok po kroku instrukcję,
jak dotrzeć do konkretnego stanu nieułożenia kostki.
Timer. To podstawowy minutnik, który pozwoli Ci zmierzyć czas rozwiązywania kostki.
Nie jest jakiś bardzo rozbudowany. Można zobaczyć, jak kostka wygląda po każdym kroku,
krok po kroku. To nie ma znaczenia, czy rozwiązujesz, czy próbujesz ją pomieszać.
Pozwala Ci to upewnić się, że uzyskałeś dokładnie ten ruch, którego się spodziewałeś, a nie jakiś inny.
No więc tutaj jest ta aplikacja. Ona jest dostępna w App Store.
No i zobaczymy. No i miejmy nadzieję, że jeżeli ktoś tutaj z Was układa kostkę, no to aplikacja się Wam przyda.
No, to jest bardzo rzeczywiście ciekawy temat.
Można będzie spróbować powalczyć.
To w takim razie przechodzimy dalej, przechodzimy do kolejnych tematów,
których tu jeszcze kilka mamy, ale to już będą technikalia.
Jeszcze nie? Jeszcze jeden jest.
Tutaj możesz odświeżyć stronę. Temat bardzo ważny z Continentu.
Właśnie, właśnie odświeżyłem i widzę.
O Wordzie będzie. I to znane nazwisko przy tym Wordzie się pojawi, jeżeli chodzi o osobę, która to ogłosiła.
Bo ja też widziałem tę informację. Bardziej logiczna nawigacja klawiaturą w Wordzie.
Tak, i Douglas Jeffrey, zdaje się tak pan się nazywa, czyli pan od Window Ice’a, który no, nowością nie jest, że dla Microsoftu zaczął pracować,
Ale chyba po raz pierwszy, a może ja przynajmniej po raz pierwszy,
widzę jego nazwisko przy jakimś konkretnym rozszerzeniu
czy przy jakiejś konkretnej zmianie. A zmiana jest istotna,
no bo rozwiązuje problem, który…
Ja pamiętam, że problemem jeszcze był w czasach,
kiedy ja, Warda, uczyłem się na profilu technik-biuralista
w szkole przy ulicy Dnieckiej w Krakowie.
I tu ani nauczyciele nie wiedzieli za bardzo, jak pomóc
i my nie wiedzieliśmy za bardzo, jak sobie pomóc.
JOS ma na to jakieś obejście, nie każdy używa JOS-a.
Window Eyes pewnie też ma na to jakieś obejście, cóż, już nie istnieje.
No, a tutaj powstało nareszcie rozwiązanie ze strony Microsoftu.
O jakim problemie mowa? Mowa o problemie, który polegał na tym,
że kiedy się chodziło z trzałkami po dokumencie w Wordzie,
to nawigacja następowała tak, jakby to robiła osoba widząca,
czyli szła sobie linijkę w dół, linijkę w dół, linijkę w dół.
O ile tekst był w miarę prosty, to nie było problemu.
Czytaliśmy sobie tekst i po prostu sobie szliśmy.
Jeżeli tekst był złożony z dwóch części,
i tu mam na myśli, na przykład, był ułożony w kolumnach,
albo był zrobiony na zasadzie książki,
czyli że mamy lewą stronę i prawą stronę,
po prostu jest coś po lewej stronie ekranu i po prawej stronie,
jest ten tekst przedzielony na dwie strony,
albo jeżeli nawigujemy po tabeli,
No to się nagle okazywało, że nawigowaliśmy tylko po tej lewej stronie.
Żeby przejść na tą prawą, to trzeba było wiedzieć, że ta prawa strona w ogóle jest
i delikatnie zacząć chodzić strzałką w prawo, najlepiej po słowach albo po znakach
i nagle się wskoczyło na tą prawą stronę i można było tą prawą stronę czytać.
No niewygodne było to strasznie. Ja jeszcze jak się uczyłem niedawno
z Deakin University jakichś podstawowych zasad tworzenia dostępnych dokumentów,
To się odżegnywano, na czym świat stoi, od stosowania układu kolumnowego w dokumentach i właśnie tych dwóch stron.
Tabele też działały tak, że chciało się nawigować tak jak w internecie, że od kolumny do kolumny, tak żeby było wszystko po kolei.
No ale nie, bo nawigujemy przecież tak jak widzący, czyli idziemy sobie strzałką w dół, wpadamy do drugiej linii tabeli, do drugiego wiersza po prostu.
Teoretycznie w tym trybie przeglądania to można sobie z tym radzić, ale jak ktoś chce to wyedytować taką tabelę, to już jest większy problem.
Dokładnie. Tam jeszcze problemy się pojawiały, jak mieliśmy wstawiony obraz i wokół tego obrazu też był jakiś tam tekst.
To też była czytana tylko lewa strona tego tekstu. No więc nareszcie Microsoft po rozum do głowy poszedł i wprowadzono w najnowszych wersjach Worda
Opcja, która nazywa się…
Kolejność odczytu według…
kolejności tekstu w dokumencie. Jakoś tak.
I po jej włączeniu strzałkami będziemy nawigować
nie po liniach, a wedle tego, jak tekst
jest ułożony logicznie w dokumencie.
Czyli jeżeli będziemy mieli go w wielu kolumnach,
to najpierw czytamy to, co jest po lewej stronie,
a potem wpadamy automatycznie na stronę prawą.
No i super. Opcja z tego, co wiemy, będzie domyślnie wyłączona,
no bo to nie jest coś, co uszczęśliwiłoby pewnie wiele osób widzących.
No, ale… i to też tutaj widzę pewną lukę tej opcji, że po prostu,
no nie wszyscy będą wiedzieli, że ta opcja jest.
Nie wszyscy ją będą mieli włączoną.
Dużo roboty dla instruktorów, szkoleniowców, nauczycieli,
żeby pamiętać, żeby tą opcję włączyć,
a i tak pewnie wszyscy jej włączonej mieć nie będą.
No więc pewnie dalej warto będzie instruować osoby tworzące dokumenty w Wordzie, że jeżeli to ma być dostępne, no to raczej nie w dwóch kolumnach.
Także szkoda, ale troszkę też rozumiem, dlaczego tak jest. Natomiast no, miło się słyszy, że Microsoft rozwiązał problem, który ja jeszcze miałem w szkole.
I pozostaje mieć nadzieję, że tych problemów, jeżeli jeszcze jakieś się pojawiają i będą pojawiać, to że Microsoft po prostu będzie rozwiązywał więcej.
Bo to rzeczywiście kłopot i przy takiej edycji nieco bardziej złożonych dokumentów to naprawdę ciężko zapanować nad tym chaosem, który tam mamy.
I kolejny telefon też mamy. Kto jest z nami po drugiej stronie?
Dobry wieczór, cześć czołem, ponownie się tu wziąłem,
tym razem z telefonu, choć mogłem mówić do mikrofonu,
ale zapomniałem to, co powiedzieć chciałem, więc
numer wybrałem, mimo że się już wypowiadałem, więc to ja
dwa razy dzwoniłem, podwójnie się rozłączyłem, bo mi się
telefon zawiesił, choć nie miał powodu, więc przejdę już
do wywodu.
Chciałem cię odnieść na początku do Hirosusz, o których
tutaj mówił Patryk Mosiewicz.
Z tego, co tak opisywaliście o tym tworzeniu różnych jednostek,
o budowaniu garaży, gdzieś tam tworzeniu konkretnych sprzymierzeńców,
czy garaże ratusza miałem na myśli, Tartaku,
to mi to bardzo przypomina Sander Tiesa, tak swoją drogą, z opisów przynajmniej.
Jestem ciekaw, czy to ma coś wspólnego, w sensie, czy to jest podobne,
bo Paweł grał, więc takie pytanie z czystej ciekawości.
To znaczy, na pewno Santa Ruta jest na dużo, dużo, dużo, dużo, dużo prostszą mechanikę gry.
Bo mamy tam bardzo ograniczone jednostki, jakie są dostępne i po prostu wybieramy sobie jakieś tam…
Tworzymy jakichś tam wojowników, tu jakichś żołnierzy, tutaj coś tam ten…
No pewne mechanizmy są, natomiast tutaj mamy dużo bardziej rozbudowane to, co my mamy w tej grze robić,
bo my po prostu mamy też jakiś zamek do wybudowania, musimy go bronić.
Te walki też się nie odbywają tak, bo RTS to jest skrót od Real Time Strategy,
czyli z jednej strony planujemy strategicznie, ale z drugiej strony możemy wysyłać
w tym samym czasie na siebie te jednostki i one się tam piorą.
Natomiast Heroes jest grą typowo turową, więc my możemy podjąć ruch
tylko wtedy, kiedy jest nasza kolej. No i oczywiście jest to dużo bardziej
gdzieś rozbudowane, dużo więcej typów tych różnych postaci,
No bo tak patrząc, grałem trochę w Hearthstone’a, natomiast Hearthstone…
Nie został u mnie na długo jakoś, w sensie pograłem, pobawiłem się, fajnie było,
ale to mi się bardziej chciało, to niekoniecznie, natomiast dostęp do RPS-a
lubię wracać, więc to faktycznie może być fajne.
Natomiast mam tu jeszcze, sobie odnotowałem oczywiście jeszcze
trzy rzeczy, o których chciałem wspomnieć, a po prostu tak jak mówiłem
w swoim beznadziejnym wierszyku na początku, zapomniałem o tym.
Pierwsze, od czego zacznę, to Polsat, który zrobił coś bardzo dziwnego
na przestrzeni ostatnich dwóch tygodni i tygodnia.
Słuchajcie, parę dni temu napisał do mnie widzący znajomy,
bo tak zapisaliśmy o różnościach, i pisze do mnie w pewnym momencie
słuchaj, Polsat chyba ktoś zhakował. Ktoś chyba zhakował kanał YouTube Polsatu.
Mówię, dlaczego? No, wszystko wygląda normalnie.
Co się okazało? Na kanale YouTube Polsatu pojawiły się odcinki Świata Według Kiepskich.
Nie wszystkie, ale kilka istotnie, więc obstawiam, że coś testują.
Tym bardziej, jak wspomnę o tym, co tak naprawdę mnie rozwaliło mentalnie
i zaskoczyło w dziwnie pozytywnym sensie.
Odcinki Świata Według Kiepskich, normalnie spoko, tylko po wejściu
Jest już taki odcinek na YouTubie, dostajemy normalnie odcinek w stereo, tak jak być powinno, ale w prawym kanale, nie wiadomo skąd, nie wiadomo czemu, pojawia się audiodeskrypcja.
Autentycznie jest to ta deskrypcja, która jest serwowana normalnie na kanałach Polsatu.
Polsat wrzucił odcinki Świata według Kiewskich z audiodeskrypcją w prawym kanale.
To po prostu zrobiło weekend, można powiedzieć.
I tu mam taki pomysł, skąd się wzięło to, że w prawym kanale.
Generalnie Polsat mógł to sobie jakoś tam przemyśleć,
że kiedyś przynajmniej, nie wiem jak teraz,
bo w sumie mam jeden głośnik używany od lat,
który tam kanały sobie zbija do dwóch naraz.
Natomiast kiedyś było często tak na satelitach,
że w jednym kanale było coś,
w drugim kanale było zupełnie co innego,
bądź inna ścieżka tej samej telewizji.
Może Polsat wpadł na pomysł, że w sumie damy tę deskrypcję w prawy kanał,
żeby ci, którzy jej nie chcą, wezmą sobie lewy, albo domyślnie głośnik im otworzy tylko jeden.
Będzie fajnie. Ale mnie to po prostu bardzo mocno zaskoczyło,
więc jak ktoś chciałby sobie pooglądać legalnie Świat według Kiewskich z audiodeskrypcją,
niekoniecznie z telewizora i niekoniecznie wszystkie odcinki, tylko tę parę,
którą Polsat wrzucił, no to na oficjalnym kanale Polsatu, podpisanym po prostu Polsat,
Są.
Ciekawe, co oni tam robią.
Tak. Kolejna rzecz, o której powiedział mi Paweł właśnie.
Jakiś tydzień, dwa tygodnie temu i chyba o tym nie było w radio…
Boże, w cyfrowym podcastzie.
O przeglądzie. Natomiast myślę, że dla osób, które gdzieś tam
robią różne streamy radiowe albo mają faktycznie jakąś
lokalną stację internetową, warto wspomnieć, że jeśli
chcielibyście dodać własne radio bądź cudze radio,
Jakiekolwiek tak naprawdę. Do bazy radiobrauzera, która jest wykorzystywana w tysiącach, myślę, aplikacji, bo ja dodałem tam parę rzeczy, do których ja mam dostęp jako zarządzający nawet.
I widzę, że faktycznie różne IP-ki, różne aplikacje mobilne, o których nawet bym nie myślał, że biorą z bazy radiobrauzera, się łączą.
Nawet FUBAR się, co ciekawe, integruje z bazą radiobrauzera.
No to Radio Browser przez parę ładnych miesięcy miał piękne dodawanie nowych stacji radiowych.
Teraz to ponownie otwarli.
Tak, to Paweł wspominał…
Właśnie ja czytałem wiadomość od Pawła na końcu zeszłej audycji.
I faktycznie to działa.
Ale dobrze, że o tym przypominasz, bo to faktycznie jest ważne, żeby można było sobie nowe stacje dodawać.
I trzecia, ostatnia rzecz, o której chciałem wspomnieć.
pod mojego brandu, można powiedzieć, TDPrograms.
Dziś została wydana nowa aplikacja pod nazwą Gogo no Shippo.
Nie wiem, jak to się ładnie mówi po japońsku,
ale generalnie o co chodzi.
Na pewno wielu z was, bądź nie wielu z was,
ale na pewno ktoś kojarzy taki enkoder plików mp3,
jak Gogo no Koda.
To jest program z 2004 roku, jest ostatnia wersja.
Ale wyróżnia się tym, że jest o wiele szybszy niż Lame.
On bazuje na Lame’ie, co prawda w przestarzałej nieco wersji, bo 3.88.
Natomiast jeśli ktoś chce robić masową konwersję w szybkim tempie
i nie zależy mu na super jakości, to jest to, myślę, dobre rozwiązanie.
Zresztą została jakby idea mojego programu, o którym zaraz szczerzej powiem.
Wzięła się stąd, że po prostu znajomy powiedział, że ma problem,
Ponieważ używał innej aplikacji, która robiła z GUI,
czyli jakby interfejs graficzny do GoGonoKody,
bo GoGonoKoda jest programem typowo konsolowym,
powiedział, że ma problem taki, że niestety
ten jego interfejs graficzny, który używa,
ma problem z polskimi znakami i w momencie,
kiedy pojawi się w folderze duży plik z polskimi znakami,
niestety GoGonoKoda przestanie konwertować,
program przestanie działać, na tym sobie wszystko stanie.
No i o co chodzi? Napisałem sobie mały…
nie wiem jak to na polski powiedzieć,
może podpowiedzia, bo nie pamiętam po prostu, jak to ładnie…
Interfejs graficzny. To słowo mi właśnie przed momentem uciekło.
Napisałem mój sobie przy okazji, bo w sumie w program fajny
może się kiedyś przydać, mały interfejs graficzny,
który umożliwia nam robienie z gogo, czyli tym oryginalnym programem w CMD,
dużo fajnych rzeczy.
Tyle wszystkim samo gogo ma opcję, aby konwertować tylko pliki.
Nie może konwertować całego folderu w domyśle.
Więc mój skrypt działa na tej zasadzie,
że wybiera się odpowiedni folder, który chcemy przekonwertować.
Google oczywiście wspiera tylko pliki WAVE.
Wolę to zaznaczyć na początku, żeby się później nikt nie zmartwił,
że flacze to nie obsługuje i w ogóle różnych dziwnych formatów.
To już nie moja wina, to już jest typowo problem po stronie Google,
które ma takie, a nie inne założenie.
W każdym razie wybieramy sobie folder,
z którego chcemy skonwertować WAVE na format MP3.
W aplikacji mamy również po wybraniu folderu opcję ustawienia bitrate
z predefiniowanych ustawień.
128, 160, 192 to są bitrate’y używające joint stereo.
256, 320 to jest bitrate używający stereo.
Oraz mamy też opcję define,
zdefiniowania bitrate’u samodzielnie w polu do command,
bo do gogonocode’a możemy podawać również bardzo dużo różnych command.
które nie są w tym programie ustawione.
To ma być takie proste GUI dla prostego człowieka,
który chce sobie z tego skorzystać łatwo i szybko,
skonwertować cały folder plików WAV do mp3.
No i ten mój program ma również opcję wyboru jakości.
Od Q0 do Q9, tak mówiąc technicznie.
Domyślnie jest wybrane Q0, czyli jakość najlepsza.
Przez to wersja jest trochę wolniejsza.
Możemy to zmienić. Mamy ładną listę rozwijaną.
Obok mamy pole edycji,
w którym możemy wprowadzić dodatkowe komendy do GOGO.
Zarówno te, które są nieuzwzględnione w samym programie,
jak i bitrate możemy zdefiniować, jeśli ktoś chciałby inne ustawienia.
Bo po co robić milion opcji na liście rozwijanej.
Takich dla zaawansowanych i zaawansowanych.
I tak może sobie tę komendę wprowadzić ręcznie.
Obok, jeżeli nie wiedzielibyśmy, jakie komendy wspiera ten enkoder i co możemy tam wybrać,
wróć przycisk show gogocommand na polski i pokaż wszystkie dostępne komendy.
Gogo, on zwraca wszystko to, co zwraca sama aplikacja.
Słyszałem opinię, że jest tych komend więcej, tylko nie ma ich jakby wyszczególnionych w samej konsolowej apce.
W sensie nie są opisane.
Jeszcze tego nie testowałem, natomiast jeśli tak jest,
to będzie trzeba coś tu podziałać więcej,
żeby się wszystkie wyświetlały faktycznie.
Jest jeszcze opcja usuwania plików oryginalnych po skonwertowaniu.
Od razu zaznaczam, aplikacja jest na tyle mądra,
że jeżeli czegoś nam Google nie skonwertuje z jakiegoś powodu,
z tych 10 plików, które damy, nie skonwertuje nam jednego,
to ten jeden zostanie też w oryginalnej formie, nie zostanie usunięty.
Usunie się tylko to, co faktycznie zostało skonwertowane.
Po kliknięciu przycisku do konwersji, Start Conversion, rozpocznij konwersję,
aplikacja poinformuje nas dźwiękiem, że zaczęła konwertowanie,
a następnie poinformuje nas dźwiękiem i okienkiem, że skończyła.
I w okienku o zakończonej konwersji mamy od razu informację,
ile plików i z jakiego folderu zostało skonwertowane.
W następnej wersji, bo obecnie jest to wersja 02, którą wydałem dziś,
Staram się dodać opcję, aby on pamiętał wybrane wcześniej przez nas parametry,
żeby za każdym uruchomieniem nie trzeba było ich ustawiać.
Oraz pamiętał folder, z którego konwertowaliśmy,
bo to się może przydać faktycznie do masowej jakiejś pracy.
Na przykład audiobooki.
To mi dzisiaj znajomy napisał, że audiobooki były robione gogo bardzo często.
Konwertowane masowo i wgrywane na płyty oryginalnie przez dystrybutorów,
bo sobie patrzył w programie MediaInfo na informacje o kodeku.
Więc taki fajny, mały skrypcik napisany w starym VBS-ie pod Windowsa.
Zadziałał nam na wszystkim. Skoro program jest z 2004 roku,
to już na dowolnym Windowsie chciałem, żeby dało się odpalić nakładkę.
Wybrałem właśnie VBS.
Konkretniej HTA, HTML-owy design.
Elektrona internetowa. Jakby ktoś myślał, że webowe interfejsy programów nie istniały przed elektronem, to się mylił, bo istniało, jak widać.
No i to w zasadzie tyle, co chciałem powiedzieć o programie.
To moje pytanie, skąd go można pobrać?
TDPrograms, T-D-P-R-O-G-R-A-M-S, kropka O-V-H.
TDPrograms, tak?
D jak Tadeusz, D jak Dariusz, Programz, kropka OVH.
I tam jest zakładka Programz i tam są programy przeróżne, różne,
wpisane na przestrzeni ostatnich 8-9 lat, różnych dziwnych rzeczy,
więc jak ktoś nie był, to autoreklama.
Sortowane są od najnowszego do najstarszego pod kątem tego,
kiedy została wydana ostatnia aktualizacja.
Więc Gogo Noscippo zostanie wyświetlone wam na początku listy.
I rozwiązuje ono też problem, jakby podkreślę to,
że w zasadzie sama idea stworzenia takiego programu
wzięła się stąd, że chciałem mojemu znajomemu ułatwić życie
i rozwiązać problem, żeby się nie wywalał na polskich znakach.
Mój frontend działa w ten sposób,
że tak przekazuję wszystkie komendy i wszystko,
Polskie znaki normalnie są odczytywane, normalnie te pliki są polskimi znakami zakodowane, nie ma żadnych krzaków.
Nie wiem jak na przykład z cyrylicą czy innymi językami, po prostu nie testowałem tego na tym etapie, ale myślę, że też powinienem sobie jakoś poradzić.
Tak czy tak, wszystko powinno działać prawnie.
Super, bardzo ciekawe narzędzie. Dzięki za informację o nim. Myślę, że niejedna osoba skorzysta.
Do usłyszenia.
Do usłyszenia, pozdrawiamy.
No dobrze, to teraz Pawle, skoro Tyflo Aktualności za nami, to teraz będą Technikalia i mam nadzieję, że już tu niczego nie pominąłem.
Chociaż ten pierwszy news, który tu masz, to ja bym powiedział, że on jest tak trochę na pograniczy Tyflo i Technikaliów, bo dotyczy Apple i syntezy mowy.
To prawda, ale jako że źródłem jest iMagazine tutaj,
to stwierdziłem, że na tyle się rozniósł gdzieś,
nie tylko w naszym środowisku, i może to dotyczyć tak wielu rzeczy,
bo tutaj głównym punktem zaczepienia jest Siri, że no po prostu uznałem,
że chyba warto jednak to zakwalifikować do technikaliów.
No więc czytam.
Apple wraz z naukowcami z Uniwersytetu w Tel Awiwie opracowało metodę,
która przyspiesza generowanie mowy przez AI nawet o czterdzieści procent
bez utraty zrozumiałości i naturalności dźwięku.
Rozwiązanie nazwane Principled Coarse Grained Acceptance
polega na grupowaniu podobnie brzmiących tokenów audio
zamiast rygorystycznego sprawdzania każdego pojedynczego dźwięku.
W praktyce model może zaakceptować wystarczająco podobny dźwięk,
co eliminuje wąskie gardła, typowe dla autoregresyjnych systemów text-to-speech.
Ten system wykorzystuje dwa modele.
Mniejszy, który szybko proponuje dźwięki,
oraz większy, który weryfikuje je na poziomie podobieństwa akustycznego.
Efekt, wyraźnie szybsza synteza mowy, niski współczynnik błędów,
zachowana barwa głosu i wysoka naturalność.
4,95 tysięcznych.
Co istotne, technologia działa bez ponownego trenowania modeli
i wymaga minimalnych zasobów pamięci,
dzięki czemu nadaje się także do urządzeń mobilnych.
Nie bez znaczenia, w tym przypadku może być także
ostatnie rekordowe przejęcie przez Apple firmy QAI.
I tu mamy wyklejony news z tamtych czasów,
kiedy to zostało opublikowane.
No i to tyle, więc bardzo krótka notka.
Natomiast wiem, że tutaj bardzo się skupiają na Siri, na AI,
że tu nie chodzi tylko i wyłącznie o prędkość głosu,
na zasadzie przyspieszenia go do zawrotnej prędkości,
ale też o to, jak szybko głos odpowiada na nasze zapytania.
że responsywność tego głosu miałaby się zwiększyć.
Ta wzmianka, że jest to zoptymalizowane tak, że mogłoby działać dobrze na urządzeniach mobilnych,
sugeruje, że to mogłoby się też nadawać, jakby sam mechanizm,
bo to nie jest tak, że jakiś nowy głos został stworzony,
tylko po prostu nowy mechanizm przyspieszania głosu.
No i tu pytanie, na przykład, na ile można by to zastosować na głosach,
które są już dostępne w Voice Overze, na głosach do czytników ekranu.
Bo te głosy to jeszcze nie są głosy neuronowe.
To jest jakaś starsza technika.
Więc pytanie, czy da się je w ogóle, ten model zastosować.
Tak, to jest prawda. Bo ja się też zastanawiałem, na ile można,
bo jeżeli to jest model opracowany i o tym jest napisana jakaś praca,
To pytanie, czy jakby charakterystyka tego modelu również jest publicznie dostępna
i to by oznaczało, że na przykład można ją przeszczepić do jakichś innych syntez,
do innych projektów.
Być może, jeżeli nie wykupiło na to jakiegoś patentu,
co oni lubią jednak robić.
Tak.
No ale cóż, może, może za jakiś czas zobaczymy jakieś nowe głosy,
które będą po prostu działać zdecydowanie bardziej responsywnie.
A teraz kolejny telefon. Kto jest z nami?
Cześć Rafale, słuchamy.
Tak, mam takie pytanie. Tą nową legitymację, tą naszą od orzeczenia pewność pewności,
bo to chyba jest biało-niebieska zdaje się, ona tam ma kod QR, ale o co chodzi?
Czy można dodać dołoleta?
Dołoleta nie.
Dołoleta nie.
Ona jest w M-Obywatelu.
Tylko tam?
Ale tam słyszałem, bo tam coś wspominaliście w tym…
Właśnie w tych nowościach, tym…
rok na 2025, że właśnie kolej nie chce tam…
No są z tym różne, są z tym różne historie, też nie wszyscy mogą sobie w ogóle te legitymacje z poziomu
M-Obywatela dodać, bo tam są jakieś rozjazdy w tych rejestrach, więc to ogólnie, no to działa bardzo różnie.
Ale nie da się dodać do Walleta. Do M-Obywatela tylko możesz, jak masz szczęście i masz tę nową legitymację.
To wtedy tak.
A wtedy M-Obywatelu dodam, to jak to działa?
Jak każdy inny dokument w M-Obywatelu.
Dokładnie działa tak samo. Możesz to wyświetlić, możesz pokazać.
No bo ja tam z czegoś nie korzystałem, nie wiem.
Więc sobie tak stąd pytam.
A z tą ładowarką coś świadomości?
Nic się nie zmieniło niestety.
To szkoda.
No to nic, to wszystkie pytania jakie mam.
Tu niewiele do powiedzenia jest. No, Signal ma rozmowy grupowe, audio i wideo.
No i ostatnio zwiększono tym rozmową limit do 75 osób naraz.
To jest informacja, która początkowo pojawiła się w opisie aplikacji na Microsoft Store,
czyli w wersji Windowsowej, więc było dość duże zdziwienie.
Ona też pojawiła się tylko w wersji angielskiej, więc ewidentnie nie trafiła ta informacja jeszcze do tłumaczy.
Natomiast aktualnie już na stronie oficjalnej Signala zostało to potwierdzone.
Nie patrzyłem jeszcze, czy jest to dostępne na przykład u mnie w Signalu.
Natomiast wygląda na to, że powiększyli, także mamy kolejne narzędzie,
które pozwala na rozmowę w dość dużym gronie.
I bardzo dobrze, od przybytku wszak głowa nie boli.
Wiadomości tekstowe do nas też piszecie, więc teraz pozwolę się na nich skupić.
Widzicie, mamy dwie wiadomości. Pierwsza wiadomość to jest od słuchacza, aczkolwiek obawiam się, że nie będziemy w stanie odpowiedzieć na to pytanie, bo ono jest adresowane bezpośrednio do Piotra.
No ale przeczytajmy. Hej, mam pytanko takie… mam pytanko takie… i gdzieś mi to tu uciekło z jakiegoś powodu. O, i już mam.
Hej, mam pytanko takie malutkie do Piotra. Jak na Maku przywrócić ustawienia fabryczne dla przeglądarki Safari?
Tak by była po otwarciu jak uruchamiana pierwszy raz. Nie wiem jak to zrobić, a mam problem, który myślę, że właściwie ten problem może naprawić.
No ja Maka nie używam, więc tu nie pomogę, ale nie czekając na Piotra, to jest naprawdę takie pytanie, które wydaje mi się, że spokojnie jakiś
Czat GPT mógłby Ci pomóc rozwiązać, bo nie wydaje się jakoś bardzo skomplikowany, ja po prostu nie pamiętam.
I teraz kolejny temat, to jest wiadomość od Łukasza.
Cześć, witajcie. Planuję się wybrać na niewidzialną wystawę, więc mam pytanie.
Czy dałoby się zorganizować wycieczkę VIP i pogadać jak niewidomy chłop z niewidomym chłopem?
Jak to powstało od kuchni? O wszystkich technikaliach tam zastosowanych.
Zobaczyć centrum dowodzenia, z którego włączane są dźwięki i zapachy,
jakich narzędzi użyto do budowy i czy niewidomi brali czynny udział w budowie i aranżacji wystawy.
Pytań zapewne będzie sporo, a przede wszystkim, czy strona do zamawiania biletów jest dostępna.
A czy ktoś z was był na niewidzialnej wystawie? Jeśli tak, to proponuję, żeby się podzielił wrażeniami.
Z wielką przyjemnością posłucham, pozdrawiam.
Ja myślę Łukaszu, że w tej sprawie to trzeba by po prostu kontaktować się bezpośrednio z Małgorzatą Szumowską. Ona zawiaduje niewidzialną wystawą.
Jeżeli masz tu na myśli konkretną właśnie tę pierwszą niewidzialną wystawę, która się rzeczywiście tak nazywa, bo potem tych wystaw i tego typu miejsc to zaczęło powstawać więcej,
ale oryginalna, w Polsce przynajmniej, to była właśnie ta niewidzialna wystawa w Warszawie.
Więc ja myślę, że właśnie z Małgosią trzeba się po prostu skontaktować, dogadać
i pewnie wiele rzeczy da się zrobić.
Ani ja, ani Paweł nie zawiadujemy niewidzialną wystawą,
więc to nie jest, myślę, pytanie do nas, co się da, a czego się nie da.
Ja byłem na niewidzialnej wystawie, tej warszawskiej, jak i w Niewidzialnym Domu we Wrocławiu.
I to jest ciekawe doświadczenie do przeżycia, jak się przyjdzie z kimś widzącym.
Bo zagubienie tych ludzi w takiej kompletnej ciemności jest po prostu bezcenne.
Jakby poziom paniki, który wtedy narasta.
Ja byłem w Katowicach właśnie, w tym ważnym miejscu.
W ważnym miejscu.
Akurat z moją Moniką tam byliśmy i to też rzeczywiście…
Ja nie miałem tam problemów. W jej przypadku było trochę inaczej.
Ja byłem z rodzicami właśnie w niewidzialnym domu i byłem zaskoczony,
Ludzi gubi, nie? Bo coś, co jest dla mnie naturalne.
Na przykład było tak, że była taka wnęka, jakby łazienka,
była wcięciem w pokoju i przedzielona była ścianą od salonu.
I to, co moją mamę gdzieś tam zagubiło, to było właśnie to,
że jest niby ten sam poziom, niby się też skręca w lewo coś tam,
ale jest ta ściana i gdzie jest ta łazienka, a gdzie jest ten salon?
I jakby to są takie wyzwania, z którymi ja się mierzę na co dzień.
Wyzwania. No po prostu muszę się nauczyć układu od domu.
Dla mnie to jest normalka.
No tak.
A oni byli bardzo, bardzo zakupieni.
No dla nas czy to jest ciekawe?
No na pewno warto sobie zobaczyć trochę tych eksponatów.
Myślę, że trochę rzeczy…
Przede wszystkim właśnie jak to wszystko jest zaaranżowane,
jak to jest zrobione.
To jest ciekawe, bo sama wystawa jako taka
to nas raczej nie jest w stanie niczym zaskoczyć.
No bo czym?
Aczkolwiek ta, bo też zdecydowaliśmy się na kolację w ciemności i tu muszę powiedzieć, że, bo tam była też taka opcja, że trzeba było spróbować zgadnąć, cóż to za potrawy dostaliśmy, to oboje nie byliśmy w stanie ustrzelić ani jednego dania, no bo to trzeba przyznać, że te dania nie były takie bardzo proste, takie zwykłe, to nie były jakieś tam, powiedzmy, pierogi schabowe i pomidorówka, to zdecydowanie więcej tam różnych rzeczy.
Także tak, jeżeli o niewidzialną wystawę chodzi.
A teraz kolejny temat. Z Signala, czyli otwartego bardzo komunikatora, przechodzimy sobie do Discorda, który się tak trochę zamyka.
Tak, to jest prawda. Znaczy, zamyka się. Już czytam, o co chodzi. Zanim zaczniemy rozmowę, to przeczytajmy sobie, co o ten temat ma do powiedzenia.
Dyskord wprowadza rygorystyczne zmiany.
Od marca dostęp do treści dla dorosłych będzie wymagał skanu twarzy bądź dowodu.
Inaczej konto trafi do trybu dla nastolatków.
Od marca Discord wdraża globalnie system,
który domyślnie ograniczy konta niezweryfikowanych użytkowników do trybu dla nastolatków.
Pełny dostęp do treści dla dorosłych będzie wymagał teraz skanu twarzy
lub przesłania dowodu tożsamości.
Coraz częściej giganci technologiczni odchodzą od archaicznego modelu,
w którym wystarczyło wpisać zmyśloną datę urodzenia, by oszukać system.
Legislatorzy na całym świecie naciskają na platformy,
by te brały odpowiedzialność za to, kto ogląda ich treści.
A to wymusza wprowadzenie bardziej inwazyjnych metod sprawdzania tożsamości.
Fizyczne potwierdzenie pełnoletniości stanie się nowym standardem,
do którego musimy przywyknąć.
Nie chodzi już tylko o kliknięcie deklaracji wieku,
I tu jest post na Twitterze, i na iksie.
Wszystkie konta zostaną globalnie przestawione na tryb domyślny dla nastolatków.
Jeśli użytkownik nie potwierdzi fizycznie, że jest dorosły,
system automatycznie nałoży na niego szereg ograniczeń,
niezależnie od tego, jak długo korzysta z serwisu i co deklarował przy rejestracji.
Aby zdjąć blokady, trzeba będzie przejść proces weryfikacji wieku.
Discord oferuje dwie ścieżki. Przesłanie zdjęcia rządowego dokumentu o tożsamości
albo skorzystania z szacowania wieku na podstawie wideo selfie.
W tym drugim przypadku sztuczna inteligencja analizuje rysy twarzy,
żeby udowodnić, czy dana osoba jest pełnoletnia.
Firma zapewnia, że wideo jest przetwarzane lokalnie na urządzeniu użytkownika.
Co tracą niezweryfikowani użytkownicy?
Brak weryfikacji oznacza odcięcie od serwerów i kanałów
oznaczonych jako T dla dorosłych.
TNSFW, czyli not suitable for work, niestosowne do miejsca pracy.
Nawet jeśli należysz do takiej społeczności od lat,
zobaczysz czarny ekran zamiast treści.
Zablokowana zostanie też możliwość przemawiania na kanałach typu stage
oraz opcja wyłączenia filtrów cenzurujących graficzne materiały.
System ma być bezwzględny dla niezweryfikowanych kont.
Zmiany dotkną również bezpośredniej komunikacji.
Niezweryfikowani użytkownicy otrzymają ostrzeżenia przy zaproszeniach do znajomych od nieznajomych osób.
Co więcej, wiadomości prywatne od osób spoza listy kontaktów będą automatycznie filtrowane do oddzielnej skrzynki,
co ma utrudnić kontakt potencjalnym z wyrodnialcą, z nastolatkami.
Obawy o prywatność i wycieki danych.
Przedstawiciele Discorda zapewniają, a co mają robić, że prywatność pozostaje priorytetem.
Firma twierdzi, że nie przechowuje danych biometrycznych ani informacji z dowodów
osobistych. Mają one być usuwane natychmiast po zakończeniu procesu weryfikacji.
Nowy system opiera się na szacowaniu wieku, a nie na trwałym rozpoznawaniu twarzy i
łączeniu jej z konkretnym nazwiskiem w bazie danych.
Te zapewnienia mogą jednak nie wystarczyć sceptykom, zwłaszcza w oświetlenie dawnych
wpadek. W październiku jeden z zewnętrznych partnerów Discorda padł ofiarą ataku
Wyniku którego wyciekły dane weryfikacyjne, w tym zdjęcia dokumentów tożsamości użytkowników.
Choć Discord zmienił dostawcę usług, zaufanie do przekazywania takich danych firmie zostało mocno nadszarpnięte.
Ruch ten wpisuje się w szerszy trend wymuszony przez przepisy dotyczące bezpieczeństwa sieci w sieci.
Podobnie jak ma to miejsce na Robloxie czy Instagramie.
Choć Discord twierdzi, że większość użytkowników nie odczuje zmian,
Porzadko zagląda do sekcji dla dorosłych.
Dla wielu jest to sygnał, że era swobodnego internetu powoli odbiega końca,
a anonimowość staje się towarem deficytowym.
No, tutaj już dalej leci treść jeszcze, ale nie jest już związana z Discordem.
No… tak, jest to rzeczywiście problem, zwłaszcza jak chodzi tu o kwestię prywatności i bezpieczeństwa.
Ja miałem już, szczerze powiedziawszy, bardzo duże obiekcje.
Kiedy Revolut trafiał na rynek, on jeszcze nie był wtedy pełnoprawnym bankiem,
był sobie po prostu startupem, który na bazie, mam wrażenie, jakiś luk prawnych
jeszcze wtedy, albo bardziej na zasadzie właśnie, jak coś nie jest zabronione,
to jest dozwolone, oferował usługi bankowe. I oni już wtedy wymagali zarówno dowodu,
jak i selfie. I tutaj autentycznie, nie znając jeszcze tej firmy
i nie mając do niej zaufania, miałem potężne obawy,
Czy w ogóle im przesyłać jakiekolwiek moje dane wrażliwe?
Właśnie dowód, zdjęcie i tak dalej.
Czy zdjęcie to jest jeszcze pół biedy, wziąwszy pod uwagę,
ile tak naprawdę i tak gdzieś tam sami publikujemy różnych treści,
chociażby w mediach społecznościowych.
Ale dowód, no to jest bardzo duży red flag.
Tak naprawdę, zresztą nie powinny w ogóle firmy zbierać takich rzeczy, jakoś ich tam gromadzić, tak w zasadzie.
Ja się naprawdę zastanawiam, tu oczywiście też eksperci od bezpieczeństwa mają różne zdanie na ten temat, ale moim zdaniem
jednak zdecydowanie lepszą opcją byłoby identyfikowanie się w tego typu serwisach poprzez jakieś takie bramki,
które weryfikują nas na podstawie rządowego systemu.
Na przykład właśnie tak jak u nas M.O. Bywatel. Logujemy się i ten serwis
dostaje tylko informacje pełnoletni, niepełnoletni.
I to jest tyle, co on otrzymuje.
Żeby po prostu nie było sytuacji takiej, że nasze dane
i to rzeczywiście taki dowód tożsamości.
No to jest bardzo wrażliwa, uważam. I że one gdzieś tam latają po serwerach.
No, tu będzie kwestia selfie, tak? Że można będzie się zweryfikować za pomocą selfie.
Wszystko fajnie. Pytanie, jak to będzie dostępne dla nas.
To jest prawda. Ja też czytałem gdzieś, i tutaj Spider’s Web tego nie ujmuje,
że ponoć, zwłaszcza dla użytkowników, którzy już korzystają trochę z Discorda,
bo tu przedstawiono taki dramatyczny scenariusz, że bezlitośnie i bez wyjątku
Ma ponuć też latać jakiś AI, który będzie analizował nasze zachowanie.
Pytanie, co to znaczy nasze zachowanie?
Będzie skanował moje wiadomości, czy co on będzie robił?
I na tej podstawie będzie jakoś też w stanie stwierdzić,
czy mamy do czynienia z osobą pełnoletnią, czy nie.
Natomiast ja już widziałem, przynajmniej na Mastodonie,
ale Mastodon jest miejscem w kwestii technologii dość specyficznym
I tam każdy powód, żeby sięgnąć po alternatywy open source jest dobry.
Już rozpoczęło się szukanie jakichś alternatyw tak naprawdę,
tylko że problem polega na tym, że jest ciężko, bo…
albo mamy Matrixa, który jest mega niestabilny,
już pomijając jego dostępność, ale nawet widzący,
i to entuzjaści open source narzekają na to,
że Matrix się nie udał za bardzo jako taka realna alternatywa.
No, oczywiście jest sentyment powrotu do Irca.
Ja, szczerze mówiąc, nie jestem tak do końca przeciwny.
No, ja też.
Tak. No, parę sugestii padło, że hej, może Team Talk.
W sensie, to głównie niewidomi, ale kurczę, wśród takich właśnie ludzi,
którzy szukają jakichś właśnie otwartych, bardziej alternatyw,
czy rzeczy, gdzie można jakiś swój serwer postawić,
ten Team Talk do pogadania zwłaszcza, bo też były osoby,
które mówiły, że im najbardziej zależy na czymś,
gdzie można prosto sobie z ludźmi pogadać.
To jest coś właśnie jak TeamSpeak i no to TeamTalk by się naprawdę sprawdził.
To też prawda. Okej, to w takim razie teraz kolejny telefon odbieramy. Kto jest z nami po drugiej stronie?
No witam, Bartek po tej stronie się kłania. Dzisiaj Was te telefony chyba normalnie zaleją.
A no to Bartku i tydzień temu tak było. Dzwonijcie do nas, chcecie z nami gadać, to dobrze.
Mimo tego, że w tym tygodniu informacji nie jest aż tyle, to może i do północy i dociągniecie, albo i znowu tak jak w zeszłym tygodniu do wpływu drugie, bo ja siedziałem z wami do końca.
Okej, z czym do was dzwonię? Pierwsze pytanie to a propos Pontus Media Downloader, bo tutaj mam w planach pobrać z YouTube’a kilka plików.
No i dobra, mówiąc wprost chciałbym sobie z nich stworzyć dzwonki na iPhone, ale już tak powiem, do czego mi to, że tak powiem, będzie służyć.
ale ta wersja, którą mam aktualnie zainstalowaną,
nie wiem, czy Wam wspominałem, czy nie,
a po prostu ten komputer mam po znajomym
i tam, jeżeli chodzi o kwestie oprogramowania,
to nic nie zmieniałem.
I kiedy podjąłem próbę pobrania jakiegoś pliku z YouTube’a,
oczywiście adres URL został skopiowany,
wklejony format, w którym miałoby się to pobrać, został wybrany.
I kiedy kliknąłem Download, to niby pojawił się komunikat,
Mówiąc po polsku, że się pobrało, ale nawet nie było tego paska postępu, bo jeżeli dobrze pamiętam, jak kiedyś korzystałem, to nawet podczas pobierania pierwszy pasek postępu był, kiedy pobierał z YouTube, a drugi pasek postępu, już po ukończeniu tego pierwszego, to był wtedy, kiedy zapisywał na dysk.
No i nie pobrało, bo kiedy zajrzałem do tej lokalizacji, która domyślnie jest ustawiona, czyli dokumenty Pontes Media Downloader, okazało się, że ten folder jest pusty.
Tak jak mi kiedyś też już zalecaliście, sprawdziłem, czy są jakieś dostępne aktualizacje tej aplikacji, ale pokazał mi przycisk OK i chyba, że nie ma żadnych dostępnych aktualizacji, bo tak to by były dostępne do pobrania.
I ewentualnie moje pytanie teraz brzmi, jeżeli ewentualna reinstalacja, bo ja spróbuję ze swojej instalacji, którą posiadam, gdzieś tam w zasobach swoich.
Jeżeli to nie przyniesie skutków, czy macie jakąś alternatywę dla mnie ewentualnie?
Co tam teraz działa? Ja szczerze powiedziawszy, to ja pobieram sobie konsolowym id.dlp, że tak powiem.
Jest taka nowa strona, o której nie wspomniałem jeszcze ani ja, ani inny.
Kiedyś chyba coś mówiliście o YouTubie, że coś tam powstało, tylko teraz właśnie, gdzie tego szukać?
Tak, jest dużo dodatków do NVIDIA, to na pewno, ale ja też polecam, jest taka strona yt.mad-gamer.com.
I to jest w miarę prosta strona, bo tam się wkleja, podobnie jak ta, którą ja kiedyś podawałem.
Wkleja się link, naciska się pobierz i on ściąga mp3 z tego, co pamiętam.
To jest pokazany taki pasek podstępu.
A pamiętasz, Pawle, w jakiej to jest… jaki bitrate?
Nie, tego nie pamiętam. Trzeba by zobaczyć.
Ale już, poczekaj, zobaczę.
Ewentualnie możesz jeszcze raz adres powtórzyć.
yt.madgamer.com
Czyli pozwolisz, że jeszcze raz powtórzę.
yt.mad.gamer.com
Myślnik Gamer.
A, Myślnik Gamer, przepraszam.
Czyli między mad a gamer mamy myślnik.
Tak.
To zaraz jak skończymy, albo jak skończycie po prostu audycję,
miejmy nadzieję, że już długo to nie będzie, żebyście też odpoczęli,
to spróbuję to od razu przetestować.
Nawet może wyciępyć, bo tutaj, jak mówiłem, chcę spróbować…
No, ja się też tak pomyślałem, że do dzwonków…
Spróbować właśnie z tymi dzwonkami ewentualnie, bo na infolinii UAPLA otrzyma informację, że też można spróbować dodawać dzwonki za pomocą GarageBanda, więc chcę też tą metodę przetestować.
Nie wiem, próbowaliście już w ogóle?
To znaczy, a masz iOS-a 26?
Ja mam aktualną, 26.2.1.
To nie musisz już GarageBanda, jest opcja dodawania dzwonków bezpośrednio w arkuszu udostępniania.
Ale to niezależnie jaki format? Nie, bo to musi być przecież…
Czyli nawet jeżeli będę miał MP3, powiedzmy tam 128 KBS…
Z tego co kojarzę, tak. To znaczy ja tą opcję nawet widzę na linkach.
Jak dodam sobie to do plików przez urządzenia Apple i to wtedy, jak wejdę na iPhone’ie w pliki
I wtedy w ten plik i udostępni to tam będzie taka opcja, tak? Wtedy?
Tak.
Okej. Ale rozumiem, że ta karencja, jakby to nazwać, 30 sekund cały czas obowiązuje.
Tak, tak. Więc najlepiej sobie to jakoś tam przytnij.
Okej. No to już akurat mamy, że tak powiem, opatrzone, wiemy, tutaj powiem po cichu,
Gold Wave’em to sobie zrobimy, że tak powiem, więc…
No, przykład.
Nie będzie tutaj żadnego problemu. Okej. Jeszcze kolejne takie pytanie z zeszłego tygodnia,
Udzieliliście mi tylko odpowiedzi na pierwsze pytanie a propos tych e-doręczeń, o których pisałem w zeszłym tygodniu. Dzięki jeszcze raz, bo sobie już tą skrzynkę założyłem. Rzeczywiście bez żadnych problemów to przeszło.
A jeszcze właśnie a propos tych listew, o których pisałem. Czy mieliście, w ogóle spotkaliście się, że w listwach już były USB-C? Bo USB-A to owszem.
No ja nie szukałem, więc nie wiem, ale przypuszczam, że tak, że są takie listy.
Bo właśnie już tak zamiaruję, bo tutaj moja kostka chyba w połowie uległa uszkodzeniu,
a kiedy robię przez przejściówkę USB-A, USB-C to mi pokazuje, że jest wolna ładowarka,
więc zamiast może inwestować w nową kostkę, bo wiemy, że coraz więcej urządzeń niestety to USB…
no niestety, no posiada to USB-C, mówiąc wprost.
Okej, trzecia sprawa, z którą tu dzwonię do Was.
Czy wy już może w zeszłym roku, dwa lata temu, rozliczaliście się może podczas rozliczania z PIT-em jakieś wyroby medyczne, jeżeli chodzi o faktury?
Czy to jest dla nas dostępne?
Ja nie. Tego akurat nie mówię.
No ja też nie.
Czyli po piętnastym ewentualnie będę musiał podjąć tę próbę i ewentualnie jakieś, że tak powiem, będą jakieś efekty.
Czy pozytywny, czy negatywny, to też dam Wam znać.
Ok, i jeszcze takie małe pytanko na sam koniec, jeżeli mówimy o temacie pytań.
Czy u Was w Messengerze, bynajmniej ja zauważyłem ostatnio taki problem,
kiedy zaczynam nową konwersację, kiedy już napiszę wiadomość
i gestem w prawo chcę przedostać się do przycisku wyślij wiadomość,
to on nagle, czyli fokus wraca mi do pola edycyjnego?
Kiedy ja ostatnio na Messengerze do kogoś pisałem tekstowo?
Tylko właśnie to zauważyłem, że ma to miejsce tylko wtedy, kiedy rozpoczynam nową konwersację.
A to wiesz co, tak, coś takiego chyba było, ale nie wiem.
I bardzo ciężką eksploracją mnie bynajmniej się udało, ale ciężko jest dotrzeć do tego przycisku wyślij wiadomość.
OK, i tutaj jeszcze tak troszeczkę w pozytywnym nastroju chciałbym swoją obecność zakończyć u Was na antenie.
Wydaje mi się, że warto o tej dostępności bardzo głośno mówić, bo tutaj mówiłeś, Michale, o braku dostępności w aplikacji polskiego radia.
Ja wam mogę też tutaj powiedzieć, że taką samą sytuację miałem w aplikacji Radia Eski.
To mogę już powiedzieć wprost chyba nazwę.
Gdyż też właśnie jak poruszaliśmy się flikami lewo-prawo, to nie można było dotrzeć do tych podstawowych playerów.
Czyli jak mieliśmy ustawioną stację na dane miasto, to tak naprawdę ciężko było się dostać do tego playera.
Nie za eksploracją jako tako się udało, ale napisałem do jednego z prezenterów z problemem
i powiem wam, że w następnej aktualizacji problem został naprawiony, a dla ciekawostki
w opisie było dodane, że poprawki dla działania VoiceOver.
Więc wydaje mi się, że warto. Warto się odzywać, bo jeżeli my będziemy siedzieć cicho,
to tak naprawdę nic się nie zmieni.
No wiesz, w przypadku radia SK to jest jeszcze kwestia taka, że to jest nadawca prywatny.
Oni najwyżej stracą po prostu jakiegoś tam słuchacza, tak? To jeszcze jest…
Tylko wydaje mi się, że też trzeba wiedzieć do kogo uderzyć, tak mi się wydaje.
Tylko w przypadku nadawcy publicznego to jest moim zdaniem zupełnie inna sytuacja i zupełnie inna historia.
To też racja, tylko tak mówiłeś o PFRON-ie. Czy PFRON podejdzie do tego poważnie?
Tak, bo PFRON jest jedną z instytucji, do której można zgłaszać brak dostępności
jakichś produktów czy usług.
A ktoś z was by się tego podjął, że tak zapytam?
Ja myślę, że tak. To znaczy, ja powiem inaczej.
To nie jest kwestia, żeby zgłaszała to jedna konkretna osoba, tak?
I żebyśmy teraz mieli delegata, który będzie zgłaszał.
Nie, nie, nie.
Ja myślę, że to im więcej osób to zgłosi, to tym większe efektywność.
No to tym bardziej powinniśmy o tym mówić głośno, bo to nie tylko tutaj leży, że tak powiem, kwestia dostępności, bo przestrzeń publiczna niestety leży w tej sprawie.
No, dostępność jedno ma imię i na niejednej płaszczyźnie objawia się także jej brak.
A jak dzisiaj na infolinii PKO usłyszałem od konsultantki, że jestem pierwszą jej osobą, która jest niewidoma, no to troszeczkę też śmiać się może jej troszeczkę.
Pytanie od jakiego czasu ona pracuje, Bartku, to też jest…
Głos miała dość młody, ale może miała też jakąś styczność z osobami niewidomymi, ale nie w tym fachu, ale tego to już nie wiemy.
Może.
No dobrze, bo jeszcze chciałem tutaj was może o kwestię WhatsAppa zapytać,
ale to chyba też do Apple’a bym musiał uderzyć, bo zauważyliście pewnie,
że w iCloud’zie też mamy przełącznik WhatsAppa i ja przez to rozumiem,
że tutaj możemy zapisywać całą naszą historię konwersacji, prawda?
Tylko pytanie, jak ją zsynchronizować, bo w iCloud’zie widziałem
tylko właśnie sam przełącznik WhatsAppa.
Nie jak w przypadku chociażby wiadomości,
że możemy je zsynchronizować.
Bo w zeszłym tygodniu, tak jak
mówiłem Wam, miałem problem z iPhone’em
i znowu
zalecono mi…
To znaczy, wiesz co, mi się wydaje,
jak przywracałem iPhone’a
już niejednokrotnie z backup’u,
to wiadomości z WhatsAppa
za mną szły.
Tylko, że z backup’u.
A backup był robiony pewnie na świeżo.
A tobie chodzi o synchronizację na dwóch urządzeniach, tak?
No tak, bo ja noszę na tej szesnastce, którą na co dzień używam, i na trzynastce mam nieaktywnego i mam wiadomości sprzed roku jeszcze.
Oj to Bartku, nie wiem, ja po prostu zwykle miałem jeden telefon i tu mi ciężko cokolwiek powiedzieć.
To akurat do nich uderzę. I jeszcze na sam koniec takie małe pytanko mi się przypomniało.
Pamiętacie, którego września była inauguracja iPhone’a 17?
Nie pamiętam.
Już, bo tylko pokrótce wam powiem, żeby wam też czasu nie zabierać na antenie, o co mi chodzi.
Chodzi mi konkretnie o aplikację iPlus i zaufane urządzenia.
Właśnie jak w zeszłym tygodniu już konfigurowałem wszystkie aplikacje,
między innymi właśnie iPlusa, i wszedłem w urządzenia zaufane
i powiem wam ciekawostkę, że wyświetlił mi iPhona 17,
którego nawet ja nigdy w ręku nie miałem.
A kiedy wszedłem w to urządzenie i zauważyłem, kiedy widnieje data
ostatniej rejestracji, to aż się za głowę złapałem,
bo to było 13 września. A wydaje mi się, że…
Przecież jeszcze wtedy nawet dwudziestka szóstka nie miała swojej premiery.
I teraz się właśnie zastanawiam, skąd to urządzenie się tam wziął.
Oczywiście do Plusa zaraz zadzwoniłem, złożyłem reklamację, czekam na odzew.
Ale sam fakt, skąd to urządzenie tam się mogło wziąć?
Pierwszy raz powiem wam wprost, że spotykam się z takim przypadkiem.
Okej, no to na tą chwilę wtedy będzie wszyściutko.
I dzięki serdeczne tutaj jeszcze raz za wskazówki.
Zaraz sprawdzę jeszcze raz wtedy tą stronę i już wam nie przeszkadzam.
Dzięki serdecznie, trzymajcie się, do usłyszenia również.
Trzymaj się, pozdrawiamy cię serdecznie.
Dobrze, no to w takim razie, Pawle, zbliżamy się do szczęśliwego końca
naszej dzisiejszej audycji i na koniec to masz dla nas taką informację,
która myślę, że może się przydać niejednej osobie, która na przykład
lubi tworzyć dokumenty w Markdownie, bo za pomocą tego formatu
Można w bardzo prosty sposób dokumenty tworzyć, no tylko jak potem trzeba to wysłać komuś to jest gorzej, bo ludzie to zazwyczaj wolą albo jakiegoś PDF-a, albo jakiegoś Word-a, no i są narzędzia do konwersji tego, jednym z nich jest Pandock, tylko ten Pandock to ma taki problem, że to jest narzędzie konsolowe, czyli tam trzeba pisać różne parametry, albo i czasem nie trzeba.
No, teraz już nie, bo omalniałem w każdej sytuacji,
ponieważ sami twórcy Pandoka stworzyli aplikację webową
dostępną pod adresem pandoc.org ukośnik app.
No i to jest po prostu interfejs webowy do konwersji różnych dokumentów
no właśnie biblioteką Pandoc. Można wybrać tam plik,
można też tam wkleić tekst, można wybrać z jakiego formatu,
a formatów jest dużo, od takich typowo formatów jakby plików, dokumentów,
czyli mamy doki, mamy html, pdf-y, ipub-y, txt, markdown-y,
po konkretne rodzaje tak naprawdę składni, czyli możemy na przykład mathml-a wklejać,
czy w ogóle nie, matematykę, różnych typów, jakieś możemy z musa,
Czyli domyślam się, że MuseScore i tak dalej. Chyba chodzi o zapisy nutowe.
Przeróżne rzeczy. No Brailla tam nie ma jeszcze żadnego.
W sumie ciekawe, czy mógłby PanDoc dodać wsparcie też dla Brailla,
na przykład dla jakichś tam winbraillów, albo plików BRF,
albo tych eBRF-ów i tak dalej. To byłoby ciekawy feature request.
I…
No, muszę przyznać, że jestem pod wrażeniem,
Można mu skonfigurować, czym ten dokument ma być na koniec.
Można mu skonfigurować, czy mu poprzesuwać nagłówki,
czy ma powstać spis treści z nagłówków, czy coś tam.
No i potem można sobie taki plik pobrać.
To, co mnie nastraja pozytywnie też,
to jest to, że tam PDF-y są generowane przez taką bibliotekę,
która się nazywa typist, przypuszczam, że to jest jakiś skrót.
I coś tam kiedyś czytałem, że właśnie w Typechcie niedawno wszedł eksport PDF-ów zgodnych ze standardem PDF-UA,
czyli z tymi standardami, które gwarantują dostępność.
Co by oznaczało, że można wczytać tam cokolwiek, może być to markdown, może być to jakiś word
i z tego się wygeneruje dostępny PDF za darmo.
Nie wiem, jak daleko to może pójść.
Przypuszczam, że no, formularze to się nie obronią,
ale jakaś struktura, jakieś nagłówki, tabele, obrazy z opisami alternatywnymi i tak dalej,
to miałyby nawet jakąś szansę bytu.
Formularze, jeżeli TypeSt ma możliwość ich tylko generowania w odpowiednio dostępny sposób,
to też są możliwe do zrobienia.
Ja robiłem eksperymenty i mam nadzieję, że kiedyś te eksperymenty ujrzą światłodzienne,
bo na razie to jeszcze nie jest gotowe i to jeszcze nie jest takie w pełni fajne.
Tu potrzebuję konsultacji z mądrzejszymi od siebie w materii PDF-ów,
ale mam już taki na dysku prototyp narzędzia, które z wejścia markdownowego,
z odpowiednimi rozszerzeniami oczywiście, które tam jeszcze sobie dopisałem,
takie customowe, więc to jest taki markdown Frankenstein,
i który jest w stanie generować dostępne formularze w PDF-ie.
Także, no, da się. Da się, tylko kwestia po prostu tego, żeby to odpowiednio zakodować.
No więc, jeżeli szukacie czegoś do konwersji dokumentu z jednego formatu na drugi,
to myślę, że Pandoka można spokojnie polecić.
No i tak, już powolutku będziemy kończyć nasz dzisiejszy Tyflo-przegląd,
Ale jeszcze rzutem na taśmę odbieramy ostatni telefon. Kto jest z nami?
Z tej strony Patryk.
Cześć Patryku.
No bo ja tutaj właśnie chciałem też troszkę się odnieść do tego o czym mówiłeś Michale.
No.
Właśnie tej dostępności polskiego radia.
Słucham.
Bo ja sobie to poinstalowałem, bo korzystam z obu systemów.
Mamy iPhone’a i Androida, więc faktycznie na Androidzie da się jako tako z tego korzystać.
W sensie, że możemy sobie tam różne podcasty odtwarzać, możemy sobie radia słuchać i tutaj nie ma problemu.
Większy problem jest jakby, jeżeli chcemy sobie wyszukać, chcemy kliknąć w ikonkę wyszukiwania,
No to nie mamy takich możliwości. No na iPhonie jest to kompletnie nieosiągalne, kompletnie jest to… ta aplikacja niedostępna jest po prostu dramat.
I ja też jestem w zdaniach, że jak to jest, że publiczny zadawca w ogóle dopuszcza do czegoś takiego. Oni powinni być przykładem.
Tak.
Dla innych firm. Oni powinni być po prostu przykładem w tym momencie.
Tak. I ja naprawdę rozumiem też tę kwestię, że jest powiedzmy jakaś technologia, która została kiedyś wybrana.
Jest wdrożona aplikacja, no, która ma problemy z dostępnością, ale kurcze, no, to nie jest w tę stronę.
Nie, to jest spina. To nie jest w tę stronę, bo to powinno być tak, że jeżeli rzeczywiście…
Przede wszystkim to ta dostępność powinna być badana na etapie wytwarzania tej aplikacji.
Nawet niechby to były jakieś testy automatyczne, nawet niechby to było w jakiś sposób tego typu robione.
Już nie mówię o zatrudnianiu testerów, którzy by tam przekligiwali się przez te aplikacje.
Natomiast jeżeli mamy postęp właśnie w tę stronę, czyli w stronę regresu,
jest to ewidentne zaniedbanie kogoś, kto wytwarzał te aplikacje.
Ja powiem inaczej. Oni mają zasoby. Płacimy podatki.
Oni mają największe zasoby na to, żeby nawet wynająć, zatrudnić tych testerów,
Żeby to po prostu działało perfekcyjnie. To powinno być naprawdę w dobie tych telefonów, tego wszystkiego, gdzie to naprawdę ma duże moce obliczeniowe, to to powinno chodzić na wszystkim.
Ale wiesz Patryku, ja teraz na przykład tworząc, jakoś tam bawiąc się w tworzenie aplikacji na iOS-a, fakt, że to ja tworzę aplikacje w sposób natywny, czyli jak iOS to Swift.
I powiem Ci, że, no, chat GPT, kodeks, no, sztuczna inteligencja, tak?
Programiści narzekają na tę sztuczną inteligencję, że to…
Ja myślę, że część to narzeka z jakichś tam obaw i z jakiegoś strachu,
ale skoro maszyna jest w stanie wygenerować aplikację,
która od strzała jest dostępna,
a przynajmniej naprawdę ma bardzo mało problemów z dostępnością,
a odpowiednio prowadzona i odpowiednio testowana jest w stanie wygenerować aplikację,
której nie ma, w której nie ma się do czego przyczepić, jeżeli chodzi o kwestię
przynajmniej dostępności z voice-overa, bo na tym testuję.
Prawdopodobnie, gdyby na przykład zgłosiła się do mnie osoba z jakąś tam inną niepełnosprawnością,
coś by była w stanie jeszcze dodatkowo powiedzieć, bo może czegoś nie dopatrzyłem.
No to byłyby tak czy inaczej niuanse, a nie, że odpalam aplikację i nie ma nic.
I tak samo, bo też tutaj rozmawialiśmy o tym, żebym właśnie zaprezentował ten telewizor Samsung, którego mam.
Tak, tak.
No i teraz, no ja mam troszeczkę taki… no bo nie chciałbym, żeby to wybrzmiało krytycznie, bo nie wiem czy to powinno być krytycznie dla Samsunga, ale widzę, że nie.
Dla deweloperów, bo aplikacja TVP VOD, gdzie oni się chwalą tą całą audiodeskrypcją, tym wszystkim, że to jest, no super.
Tylko, że ona jest kompletnie niedostępna. Kompletnie na tym telewizorze. Kompletnie. To jest dramat.
Ale na urządzeniach mobilnych to ta aplikacja, no z niej się jakoś da korzystać.
Tam na stronie zostały zrobione jakieś poprawki.
Piotr jakiś czas temu wspominał, że te poprawki są i że to działa lepiej.
Ale aplikacje mobilne, no mi się z nich nie korzysta jakoś przyjemnie.
No tak, i to jest dramat. Ja nie wiem, co tam się podziało.
Czy w ogóle ktoś zapomniał o tej dostępności, bo to tak wygląda.
Ja uważam, że ktoś tutaj umyślnie poczynił jakieś oszczędności
i po prostu zapomnieli o tej dostępności.
Bo ja pamiętam swego czasu, że jeszcze na Google TV ta aplikacja właśnie TVP VOD
była dużo bardziej dostępna niż teraz.
Mam też Chromecasta 4 z Google TV i tam niewiele lepiej ta dostępność wygląda, jeśli chodzi o TVP VOD.
To jest dramat.
Ja powiem tak, TVP VOD na iOS-ie w moim odczuciu nigdy nie była aplikacją dostępną.
Z nią były zawsze problemy, raz większe, raz mniejsze, ale ta aplikacja po prostu zawsze była zła.
No to jest po prostu dramat. I fajnie, że mówisz gdzie to zgłaszać, bo ja nawet nie wiedziałem, że to można do profilu zgłaszać.
Tak, można to zgłaszać na pewno. Ja mam szczerą nadzieję, że ktoś za to się zabierze, bo to jest bardzo duży problem.
Bo teraz tak. Chciałbym np. zgłosić problem z dostępnością np. Polsat, BoxGo, dajmy na to, na Samsungu, na Smart TV.
No ale teraz co? No oni nie mają przykładu publicznego nadawcy, żeby tak samo go zastosować.
Mówi się o tych aktach dostępności, o tym wszystkim, no i co to zmienia? Ja mam wrażenie, że jest gorzej. Naprawdę.
Ja się w tym wszystkim obawiam jedynie tego, co dzieje się gdzieś tam w Stanach Zjednoczonych czasem, czyli tzw. accessibility trolling.
I to jest też rzecz, która potrafi być bardzo niewdzięczna, że np. znajdują się jakieś kancelarie prawne,
które mają jakąś tam powiedzmy pod sobą, czy współpracują z jakąś firmą,
która to bada dostępność i na przykład łowią takie ofiary, które są bardzo łatwe.
Na przykład jakieś niewielkie sklepy, jakieś niewielkie firmy, które po prostu jak widzą, że jest na przykład,
że straszą ich jakimiś tam pozwami za brak dostępności, to niejednokrotnie są w stanie po prostu pójść na ugodę,
bo tak naprawdę bardzo często nie chodzi o zapewnienie dostępności, tylko chodzi po prostu o wyciągnięcie pieniędzy.
Ja się obawiam jedynie czegoś takiego, bo tak naprawdę to się powinno zacząć od największych.
Od tych, których rzeczywiście jest stać, żeby zatrudnić ludzi, którzy przeczesaliby te wszystkie narzędzia, aplikacje, to wszystko i żeby to po prostu stało się bardziej dostępne.
Znaczy, mi się wydaje, że, no nie wiem, ja bym to zrobił w ten sposób, jeżeli jakaś aplikacja jest niedostępna na danej platformie, wylatuje i po dwóch, trzech dniach nagle by się dostępność zrobiła. Tylko oczywiście wszystkie te firmy…
Tylko nikomu na tym aż tak bardzo nie będzie zależyć.
Nie zależy, ja wiem, ja wiem, że tak to działa, nie? Ale tak to powinno wyglądać po mojemu.
Poza tym tak zupełnie serio, to co zrobić na przykład z częścią gier?
Ja wiem, że teraz jest coraz więcej modów dostępnościowych i to idzie w bardzo dobrą stronę,
ale ja się zastanawiam bardzo, co należałoby zrobić z częścią gier,
których udostępnienie wymagałoby naprawdę bardzo dużych nakładów.
No tak, tak. Ale tutaj mówimy o prostych aplikacjach, które służą…
Przykładowo, nie mam teraz anteny naziemnej, chcę sobie oglądać TVP VOD na telewizorze.
No aplikacja jest niedostępna, no przecież jest tam audiodeskrypcja, powiedzą, wszystko jest tak.
Pytanie, czy w ogóle w TVP VOD to w ogóle jest audiodeskrypcja?
Chyba jest, chyba jest.
A, no to tyle dobrego, bo ja akurat nawet tego nie testowałem.
Bo np. audiodeskrypcja, jeśli chodzi o telewizję naziemną, działa, jest fajnie dostępna, ale to mi daje system Samsunga.
Czyli twórcy, deweloperzy Samsunga napisali to oprogramowanie i ono mi to daje, że telewizja naziemna jest już dobrze dostępna, to wszystko tam można w łatwy sposób włączyć, wyłączyć.
No tak, bo tego opaku po prostu wysyła dodatkową ścieżkę.
Oczywiście. I tutaj jest to bardzo fajnie zrobione. No zresztą pokażemy ten telewizor.
Muszę się do tego zebrać, tylko jakoś, no mówię, biję się z myślami przez te aplikacje, bo też nie mówię, nie chciałbym, żeby to było tak krytyczne, ale niestety chyba troszkę będzie krytyczny materiał na temat tego Samsunga, no bo ja wiem, że Samsungowi się oberwie, ale no też powinni się jakby do tego przyczyniać, żeby ta dostępność była lepsza, jeśli chodzi o zewnętrzne aplikacje.
Pytanie, kto te aplikacje stworzył?
No głównie chodzi o nasze tutaj polskie aplikacje.
No tak, ale Patryku, czy to jest wina Samsunga? Bo ja się zastanawiam. Moim zdaniem to nie jest tak, że aplikacje pisze Samsung, aplikacje piszą twórcy.
Oni mają jakiś tam swój sklep, to chyba tak działa w przypadku Samsunga.
Tak, tak, tak. Oni mają swój sklep, ale tam też jest problem ze zgłaszaniem takich rzeczy i mogliby też udostępnić narzędzie, które by ułatwiało zgłaszanie takich rzeczy.
A to by się przydało, to zawsze, tak, tak.
I bardziej mi też o to chodzi. I ja tam mówię, o ich też stać, to jest ogromna firma technologiczna, mogliby też troszeczkę jakby wymuszać niektóre rzeczy.
No ja mam nadzieję, że coś się zmieni.
I to podejście będzie jakby lepsze do tego.
Bo ja mam wrażenie, że to co najmniej stanęło w miejscu, albo nawet się to cofa w rozwoju. Naprawdę.
No, żeby wszyscy byli tacy jak Netflix, naprawdę. Chociaż Netflix też mam wrażenie, że ostatnio troszeczkę przysiadł, ale jeszcze nadal trzyma poziomy.
Znaczy, działa, jeśli chodzi o Samsunga…
Wiesz co, ale ja mam na myśli treści, które są, bo na przykład nawet ostatni…
To już kwestia tam, wiadomo, kto co woli.
Nie, to nie o to chodzi. To nie o to chodzi, kto co woli, tylko chodzi mi na przykład o to,
że ostatni, chociażby pierwszy z brzegu przykład,
Good Doctor, ten serial, który miał wszystkie sezony,
no fakt, że bez audiodeskrypcji, to akurat tak,
ale wszystkie sezony miał z lektorem.
Najnowszy sezon jest bez lektora.
Jest z napisami.
I też dobrze, że w ogóle byłem w stanie sobie to z tymi napisami oglądać,
bo dzięki temu, że w iOSie mogę sobie włączyć odczytywanie napisów przez voice-overa,
co po prostu działa, to byłem w stanie, bo angielskiego nie znam na tyle aż tak dobrze,
żeby oglądać sobie oryginalną ścieżkę, po prostu.
To jeszcze taką ciekawostkę jeszcze opowiem tak na koniec,
no bo mam właśnie ten telewizor z Dolby Atmos i w ogóle, no super.
Fajnie, pięknie. Ale żeby te Dolby Atmos zadziałały tak jak powinno,
No to musimy mieć Netflixa, czy tam Disneya, czy Apple TV w najwyższej wersji.
Mało tego, musimy wybrać oryginalną ścieżkę, co równa się z tym, że jest to niestety język angielski.
No tak, bo prawdopodobnie ta cała reszta jest kompresowana bardziej.
Tak, tak, tak. I wtedy jest to… Zazwyczaj jest to wtedy stereo i tyle.
I te możliwości, które dają nam te telewizory, czy tam podłączymy jakieś kino domowe zaawansowane, czy coś, to nie ma sensu po prostu.
Nie ma to sensu.
No tutaj jeszcze tak się pochwalę, bo zakupiłem właśnie taki głośnik Samsung Music Frame.
To też chyba pokażemy, bo jest to bardzo też ciekawe.
Jest to taka ramka na zdjęcia z wbudowanym głośnikiem.
Mamy tam wszystkie te Wi-Fi, Airplay, Chromecasty.
Łączy to się też bezprzewodowo z telewizorem, więc też taka ciekawa rzecz do pokazania.
Tym bardziej, że nie kosztowało to dużo i myślę, że w tej cenie tam sześciuset paru złotych jest to chyba jedyny głośnik, który daje nam w ogóle możliwości sieciowe, że możemy sobie coś tam przez Airplaya puścić, czy Comcasta, czy cokolwiek. I jeszcze łączy się z telewizorem.
Więc jak ja się z tym zapoznam, to też warto pokazać.
Dlatego tak się jeszcze zwlekam z tym podcastem na temat telewizora,
bo chcę to wszystko mieć, połączyć i przetestować, żeby tutaj…
Także tyle z mojej strony.
Dzięki za telefon.
Dzięki również.
Dobrej nocy. Cześć.
I to tyle, jeżeli chodzi o nasz dzisiejszy Tyflo Przegląd 318.
Wszystkie informacje mamy. Wy dopisaliście. Wydawało się, że audycja będzie krótka. A tu patrz, Pawle. Po północy.
No, dobry dzień.
Witamy środę.
Tak, tak jest.
Tak jest. Witamy środę i żegnamy się z Wami. Kolejny Tyflo Przegląd już za tydzień, a na dziś dziękuję Wam za uwagę.
Paweł Masarczyk i Michał Dziwisz.
Do usłyszenia.
Był to Tyflo Podcast.
Pierwszy polski podcast dla niewidomych i słabowidzących.
Program współfinansowany ze środków Państwowego Funduszu Rehabilitacji Osób Niepełnosprawnych.

Wszystkie nagrania publikowane w serwisie tyflopodcast.net są dostępne na licencji CreativeCommons - Uznanie autorstwa 3.0 Polska.
Oznacza to, iż nagrania te można publikować bądź rozpowszechniać w całości lub we fragmentach na dowolnym nośniku oraz tworzyć na jego podstawie utwory Zależne, pod jedynym warunkiem podania autora oraz wyraźnego oznaczenia sposobu i zakresu modyfikacji.