TyfloPrzegląd Odcinek nr 163 (wersja tekstowa)

Pobierz napisy w formacie SRT
Pobierz napisy w formacie VTT
FUNDACJA INSTYTUT ROZWOJU REGIONALNEGO PREZENTUJE
TYFLO PODCAST
Mamy piątek, to jest dziewiąty dzień grudnia 2022 roku.
Minęła godzina 20, a my startujemy ze 163 już wydaniem Tyflo Przeglądu wyjątkowo w piątek.
No ale cóż, tak akurat się w tym tygodniu złożyło, że nie mogliśmy się z wami spotkać w środę.
Witamy was bardzo serdecznie w składzie następującym Paulina Gajoch, Paweł Masarczyk, Mikołaj Hołysz,
Michał Dziwisz i Tomek Bilecki, który gdzieś tam również jest, tak jest z nami również Tomek.
Jest, chociaż dzisiaj będę troszkę tak awaryjnie u nas, troszkę chorobowo w domu w związku z powyższym.
No późna jesień, późna jesień, słuchajcie, to się różne rzeczy dzieją, pozostaje mieć nadzieję,
że u was wszyscy zdrowi, że dobrze się macie i że macie siłę, żeby wysłuchać dzisiejszych aktualności,
które dla was mamy, a mamy ich troszkę.
W tym tygodniu w Tyflo Przeglądzie.
TW Blue oficjalnie z Mastodonem.
Nadchodzą udźwiękowione karty płatnicze.
Wrażenia z konferencji SciTech Global.
BrightPage, nowy sposób czytania tekstu przez osoby słabowidzące.
Legitymacja emeryta i rencisty od stycznia w wersji elektronicznej.
Tryb czytania, nowy sposób na lekturę artykułów na urządzeniach z Androidem.
Powstała aplikacja pomagająca nawigować po sklepach.
Neuronowe głosy Microsoftu dostępne z Pitch Central na atrakcyjnych zasadach.
Chat GPT tworzy teksty, programy, poprawia składnie, chyba tylko nie robi jeszcze kawy.
Telegram umożliwia założenie konta bez podawania własnego numeru telefonu.
Apple wchodzi w karaoke z usługą Apple Music Sync.
Nowa wersja Google Chrome i nowości w niej.
Wszystko to, a pewnie jeszcze więcej już za chwilę.
Zaczynamy!
Tak jest, zaczynamy. Wy też możecie zaczynać razem z nami.
Możecie do nas się odzywać, a możecie napisać na przykład na kontakt.tyflopodcast.net.
Możecie napisać do nas z poziomu aplikacji Tyflopodcastu na iOS, jeżeli ją testujecie.
Z poziomu aplikacji na Windowsie też możecie do nas napisać.
Możecie napisać na Facebooku, na YouTubie, no i możecie do nas oczywiście zadzwonić.
tyflopodcast.net. Zapraszamy bardzo serdecznie.
Tam są wszelkie linki, w które po prostu należy kliknąć.
No i dzięki temu z nami się połączycie.
Także zapraszamy bardzo serdecznie do kontaktu.
A teraz już przechodzimy do informacji.
Na dobry początek jeszcze taki mały suplement z audycji poprzedniej.
Mianowicie, no dziś mi się ta aktualizacja ukazała.
Być może była nawet i gdzieś tam wcześniej.
Natomiast dziś jest.
Dziś moja wersja TW Blue ją dostała.
Nowa wersja TW Blue.
No i oficjalnie z Mastodonem wystarczy stworzyć sobie nową sesję, zalogować się.
No i działa.
Także potwierdzam, była już mowa o tym, że mamy różnego rodzaju wersje,
które możemy sobie gdzieś tam testować.
Jakieś takie buildy.
A to o tym mówił Paweł zdaje się chyba dwa tygodnie temu.
Tak?
Tak.
Dwa tygodnie temu o tym mówiłeś.
Tak.
I zdaje się, że teraz ten TW Blue udostępniony został.
Tak.
Troszkę z innego powodu, bo tam problem nastąpił taki, że z Twitterem coś się zepsuło.
I potrzebny był jakiś szybki fix i stwierdził autor, że no skoro już tak,
to puszczamy ten kod, który jest.
I tak dość szybkim sposobem takim troszeczkę na ostatnią chwilę
Mastodon zyskał status nie wczesnej alfy, a już bety.
No i rzeczywiście to działa.
Muszę powiedzieć, że faktycznie byłem w stanie się zalogować,
przeglądać osie czasu, które tam były udostępnione.
Także no przynajmniej te podstawowe rzeczy działają.
Jak zresztą to nie wiem, bo szczerze mówiąc miałem dziś kilka różnych rzeczy do zrobienia,
więc aż tak bardzo tym się nie bawiłem.
Natomiast jeżeli wy macie więcej czasu albo po prostu chcecie poeksperymentować z czymś nowym,
no to po pierwsze polecamy naszą audycję o Mastodonie w Tyflopodcastie.
Ona jest, można sobie jej posłuchać.
Natomiast jak już sobie posłuchacie, będziecie wiedzieli z czym to się je,
no to możecie potestować.
Jeżeli na przykład korzystacie na co dzień z TW Blue,
no to można sobie również i z niego korzystać.
Nie tylko do Twittera.
Jeśli mogłabym coś dodać jeszcze a propos Mastodona i tej pierwszej wersji,
to na ten moment niestety ta obsługa jest dość elementarna
i nie umożliwia wielu różnych aktywności,
które na Mastodonie można robić przez stronę albo nawet przez Twiscake’a.
W skład tej listy wchodzi na przykład to, że nie możemy wejść do ustawień konta
i trzeba wszystko w pliku konfiguracyjnym edytować.
W nim na przykład możemy sobie dopisać tę globalną oś czasu do buforów
albo zmienić temat dźwiękowy albo tam jeszcze inne rzeczy.
Po drugie jest też kwestia taka, że nie możemy wyświetlać profili użytkowników
na pewno z innej instancji niż nasza, z naszej chyba też nawet nie.
Nie jesteśmy w stanie przeglądać innych instancji niż takich,
na które jesteśmy zalogowani.
To znaczy Paulino, ale profili, czy masz na myśli po prostu przeglądanie profili
czy konkretnych osi czasu danego użytkownika, tak zapytam.
W zasadzie obydwa.
Wiesz co, to nie, bo ja sprawdzam właśnie to na przykładzie tyflopodcastowej instancji,
a ja akurat mam konto na 10.10.10.pl i kiedy tego się nie da zrobić,
mam wrażenie przynajmniej, albo ja po prostu nie znam klawiszologii,
z niewidzialnego interfejsu, ale w menu byłem w stanie wyświetlić
na przykład całą oś tyflopodcastu.
To tak, tylko że w ramach twojej instancji, w ramach tej dziesiątki.
No tak, w ramach dziesiątki, ale ja ją zasubskrybowałem.
Z tego co wiem, to się jakoś baguje, że na przykład jeden post się wyświetla
albo kilka.
Tam były te najnowsze, to znaczy te wszystkie, które zostały opublikowane
od momentu, kiedy tyflopodcast ma taką możliwość, żeby publikować.
Ja na przykład jak patrzyłam z dziesiątki na inne instancje, na użytkowników,
to właśnie czasami się pokazywał jeden post, czasami się pokazywało ich kilka,
czasami się w ogóle nie chciały pokazywać.
Także to jest różnie.
Tak, nie można przeglądać innych instancji, nie można rozwijać content warningów w postach.
Trzeba wchodzić przez to, otwórz na Twitterze.
To działa tylko, że otwiera na Mastodonie oczywiście, bo już wiem, że jeden użytkownik
się na tym wyłożył, bo stwierdził, że skoro na Twitterze, to znaczy, że nie działa,
a to działa tylko, że jest string nieprzetłumaczony.
I cóż, z tego co kojarzę, to tyle takich najbardziej zauważalnych błędów.
No cóż, ale to wiadomo, uroki wieku dziecięcego, gdzieś tam miejmy nadzieję,
że to się za moment pojawi już w takiej stabilniejszej wersji.
No tak, ale sygnalizuję, żeby po prostu nie było możliwości o tym,
że ktoś myśli, że to u niego tylko się to dzieje.
Oczywiście, że tak. Zatem dzięki Paulino za te ostrzeżenie, za te informacje.
Ja tutaj teraz widzę komentarze, a właściwie jeden komentarz przynajmniej jak na razie,
który napisała do nas Aga.
Cześć, chciałem się podzielić moimi wrażeniami z koncertu, na którym byłam ostatnio.
Był to koncert metalowy, a ja postanowiłam go sobie nagrać na zegarek.
Bardzo się zaskoczyłam, jak mój zegarek piątej generacji sobie z tym poradził.
Co prawda może nie jest to nagranie jakichś wysokich lotów, ale naprawdę to nagranie daje radę.
Jednak to koncert metalowy i ja myślałam, że mikrofon temu nie podoła,
że będą zniekształcenia duże tego dźwięku.
Bardzo się zaskoczyłam, bo nic takiego nie miało miejsca i nawet pomimo tego,
że klaskałam i wywijałam rękoma na prawo i lewo, nie było tego w ogóle na nagraniu słychać.
Zupełnie tak, jakbym miał ręce nieruchomo przez cały koncert.
Też ostatnio wpadłam na taki pomysł, aby zamiast robić zdjęcia,
nagrywać sobie różne nagrania z wakacji i różnych miejsc.
Jest to dla mnie cenniejsze, bo zawsze coś ciekawego może się nagrać,
a to jakieś dźwięki, a to inne ciekawe wydarzenia.
No i tak tym samym nagrało mi się, jak byłam na wakacjach z moimi rodzicami,
jak barmanka stawia nam drinka i razem z nami pije.
Było to w Grecji i bardzo mnie to cieszy, że uwieczniłam te chwile na moim zegarku.
To tyle ode mnie, serdecznie was pozdrawiam.
My też cię pozdrawiamy, a go swoją drogą taka jeszcze jedna informacja i ciekawostka.
Dziś Tyflo Przegląd, jeżeli chodzi o Facebooka, poleciał na zupełnie inny profil,
ale tak to jest, jak się ma dużo różnych profili do obsłużenia
i dziś Tyflo Przegląd, zamiast na profilu Tyflo Podcastu,
transmitowany jest na profilu Radia DHT.
Akurat po prostu Facebook mi się nie przełączył.
Właśnie teraz to zauważyłem, ale cóż, to taki bonus przy piąteczku będzie,
więc pozdrawiamy tych wszystkich, którzy mają okazję oglądać sobie,
tudzież słuchać Tyflo Przeglądu na profilu Radia DHT.
A może jeszcze uda nam się nawet te transmisje gdzieś na Tyflo Podcastzie udostępnić, zobaczymy.
No ale z racji tego, że ja dziś mam okazję prowadzić ten program,
to trochę mam tu ograniczone możliwości związane z manewrowaniem Facebookiem,
którego panel do najdostępniejszych nie należy.
Może dzięki temu zdobędziemy nowych słuchaczy.
Tak, może dzięki temu zdobędziemy nowych słuchaczy,
chociaż akurat Radio DHT i Tyflo Podcast to media bardzo ze sobą współpracujące.
Wszak audycja RTV premierowo zawsze na antenie Radia DHT, później w Tyflo Podcastzie.
Jutro też będzie, tak w ogóle.
Dziękujemy przy okazji Dawidowi, naszemu stałemu słuchaczowi,
jednego jak i drugiego medium, który to nas o tym fakcie poinformował.
A teraz przechodzimy do kolejnych tematów, już tym razem takich bieżących, aktualności.
A zaczynamy od udźwiękowionych kart płatniczych.
Pawle, to ty coś wiesz na ten temat.
Tak, ja się tak zawsze uśmiecham, kiedy do mainstreamu trafiają newsy,
które my jako redakcja wygrzebujemy z jakichś naprawdę podziemnych mediów rok wcześniej.
Bo chyba jakiś rok temu mówiłem na łamach Tyflo Przeglądu
o francuskim fintechu Handsome, który jest bankiem stworzonym z myślą o osobach niepełnosprawnych,
zwłaszcza niewidomych, bo tam aplikacja była ponoć w 100% dostosowana pod czytniki ekranu.
Było tam oferowane ubezpieczenie z tytułu uszkodzenia różnego rodzaju technologii wspomagających.
Pewnie głównie chodziło o laski, wózki, kule itd., ale może coś więcej.
Teraz ubezpieczenie z tytułu utraty mobilności, czyli jeżeli gdzieś utkniemy,
jeżeli będziemy zmuszeni np. żeby wydostać się z domu w jakiś sposób nieodpowiadający,
typu do szpitala, można było na poczet tego uzyskać ubezpieczenie.
No i właśnie tenże fintech testował również udźwiękowione karty płatnicze,
czyli karty, które nawiązywały połączność z naszym telefonem po umieszczeniu ich w terminalu
i przekazywały nam komunikaty z tegoż terminala w formie dostępnej do naszego smartfona.
No i jakaż była moja radość, kiedy to chyba przedwczoraj to było, chyba tak,
rano otwieram sobie newsletter z Cashlessa, bo odbieram na moją pocztę
i w jednym z nagłówków były głosowe karty płatnicze pomogą w transakcjach osobom niewidomym.
No i czytam, czytam, czytam i chyba albo bezpośrednio w tym artykule,
albo później się przekopałem przez komunikat prasowy Thalys Group,
firmy, która te karty ma zaoferować i dokopałem się do informacji,
że karty są wynikiem współpracy z Handsome i wygląda na to, że ten akurat kawałek,
nie wiem co się stało z Fintechiem, znaczy strona jakby jego jak najbardziej działa,
jest cały czas osiągalna. Czy odniósł jakiś sukces we Francji? Nie wiem.
Natomiast najwidoczniej jeden z pomysłów tejże firmy postanowił jakoś tam się rozwinąć dalej
przy pomocy właśnie Thalys Group, czyli firmy, która tworzy rozwiązania płatnicze,
właśnie karty biometryczne, te jakieś takie różne inne rozwiązania, jakieś terminale
i postanowili oni wziąć pod swoje skrzydła właśnie te karty.
No i dzięki temu porobiono już kilka prób w różnych bankach,
nie wiem czy we Francji, czy na świecie też i teraz będą te karty już udostępniane bankom.
No i raz jeszcze o co w tym chodzi. No technologia działa w ten sposób,
że kartę otrzymujemy, która ma w sobie chip bluetooth LE, czyli low energy,
taki jaki mamy w różnego rodzaju beaconach i tak dalej.
Kartę taką umieszczamy w terminalu, to jest ważne, nie może to być płatność zbliżeniowa.
Musimy kartę umieścić klasycznie w terminalu i w tym momencie aplikacja nasza
i tutaj już to jest kwestia troszkę dowolna ze strony banku,
czy zaimplementowane zostanie to w aplikacji bankowej, czy będzie zaoferowana
osobna aplikacja, obydwie opcje są możliwe, bo dostępne jest SDK
do wbudowania tego w aplikację banku, a jest też opcja do zaosobnej aplikacji.
Odbiera wtedy nam komunikaty o tym ile mamy do zapłaty,
następnie mamy wpisać PIN i to jest największa słabość tego systemu,
bo system w żaden sposób nie rozwiązuje problemu, z tego co rozumiem,
z tego jak o tym czytam, terminali dotykowych. Czyli tutaj dalej musimy
na klawiaturze, jeżeli taka jest dostępna, terminala wpisać PIN.
No i dalej otrzymujemy komunikaty, że transakcja w toku i że została
przeprowadzona pomyślnie lub tam, że jest jakiś błąd.
Co ciekawe, to chyba wykorzystuje nawet nie tyle screen reader,
co jakąś wbudowaną syntezę w nasze urządzenie, bo specyfikacja zapewnia,
że komunikaty możemy odbierać nawet mimo zablokowanego ekranu w telefonie.
Więc nie wiem jak to było testowane, na jakich telefonach, wydaje mi się,
że na iOS byłaby taka sztuka dużo bardziej skomplikowana niż na Androidzie.
Ale da się, bo to też na przykład Seeing Assistant Alarm robi z sukcesem zresztą.
To prawda, natomiast trzeba mieć tą aplikację otwartą.
Ja rozumiem, że chyba zamysł miał być taki…
Nie, nie, Seeing Assistant Alarm nie musi.
Nie, nie można go zamknąć z paska ostatnich aplikacji, z tego co wiem.
Okej, okej, okej, może tak.
Trzeba by najpierw uruchomić tą aplikację, żeby był jakiś kontekst.
Tak, chociaż z drugiej strony myślę, że na iOS można by to zrobić też samplami na przykład.
Czyli do zapłaty 138 zł i tak po prostu nagrać wszystkie…
Tylko to chyba nie jest tak robione, bo na filmiku na YouTube demonstracyjnym,
który Talies Group opublikowali, ten komunikat poszedł normalnie z syntezą.
Jedną z tych wbudowanych iPhone’owych.
Więc domyślam się, że to jest jakoś tak zrobione.
No i taka technologia ma się pojawić w bankach.
W jakich? Nie wiadomo.
Kwestia jest teraz tego typu, że banki będą mogły zdecydować,
czy chcą się w taką technologię zagłębić, czy nie.
Możliwości są.
Czy to bardzo pomoże?
Szczerze mówiąc nie wiem, czy nie jest troszkę za późno na taką technologię,
bo wiele osób skorzysta aktualnie z czegoś w rodzaju Apple lub Google Pay.
Natomiast jest to na pewno alternatywa dla osób, które nie lubią takich rozwiązań
z miliardy powodów.
Bo boją się o prywatność, bo na Androidzie jest to troszkę mniej bezpiecznie,
bo wystarczy podłożyć terminal pod telefon i od razu się aktywuje płacenie.
Inni po prostu wolą mieć kartę plastikową, mieć dwa osobne urządzenia
do różnych operacji.
Różne mogą być sytuacje.
Jest też teraz taka możliwość, potencjalnie oczywiście,
żeby np. aplikacja do obsługi takich kart pojawiła się chociażby
na jakimś plain shellu, czy jakimś innym urządzeniu.
Więc pewnie jakieś rozwiązania, jakieś zastosowania na siłę można by znaleźć.
Czy to będzie jakiś globalny sukces i czy to jest coś bez czego
nie mogliśmy wcześniej sobie radzić.
Myślę, że odkąd istnieje Apple Pay, Google Pay jest potrzeba dużo,
dużo mniejsza, zwłaszcza, że widać np. w Apple Pay kwotę przed zapłatą.
Gdzie to widać?
A nie jest też trochę tak, że jak my uaktywnimy dwukrotnym powerem płacenie,
to podłożymy pod czytnik, ale nie zaautoryzujemy jeszcze Face ID.
To nie jest tak, że nam się to pojawi i my musimy dopiero potwierdzić Face ID.
Ja zazwyczaj też, ale kojarzę z opowieści, że to z drugą strony też.
To dobrze wiedzieć.
No i też pamiętajmy o tym w naszym polskim kontekście,
że w wielu sklepach funkcjonuje również BLEEK
i BLEEK daje nam taką informację.
Jeżeli mamy jakiekolwiek wątpliwości co do uczciwości sprzedawcy,
to zawsze możemy skorzystać z BLEEK-a, poprosić o użycie BLEEK-a
i w tym momencie dostaniemy informację o kwocie płaconej w zaufany sposób.
Ale jeśli żadna z tych metod do Was nie przemawia,
to jest szansa, że w jakimś czasie, może w przyszłym…
Bo BLEEK też nie ma ochrony kupujących, a karty jakąś tam podstawową mają.
Możliwe.
Tak, jest to prawda.
BLEEK to jest jak przelew, tylko prosty.
A karta to jest jednak karta i trochę więcej nam gdzieś tam przysługuje.
Zwłaszcza online.
To tutaj dobrze, że podkreśliliście to.
No i to chyba tyle na ten moment.
Miejmy nadzieję, że ta technologia jakoś się jeszcze rozwinie.
Może z czasem uda się, chociaż nie wiem czy technologia to umożliwia, obejść też kwestię PIN-u.
Żeby PIN dało się wpisywać na przykład z poziomu…
Znaczy podejrzewam, że nawet nie tyle obejść, bo to chyba standard mógłby mieć z tym problem.
Chociaż są karty bezpinowe w Stanach Zjednoczonych, więc może i by się dało.
Ale podejrzewam, że jakąś opcją, którą by można, byłoby na przykład losowe generowanie PIN-u.
Czyli my wpisujemy PIN w aplikacji.
Aplikacja daje nam jednorazowy PIN, który możemy na głos podać pani w sklepie na terminalu.
I ona może ten PIN wpisać na tej klawiaturze dotykowej.
I tak wiele z nim nie zrobi, bo ten PIN będzie tylko jednorazowy.
Więc wydaje mi się, że coś takiego mogłoby mieć miejsce.
No to pożyjemy, zobaczymy.
Coś się w tej kwestii dzieje i każda próba rozwoju jest myślę pozytywnie widziana.
Zwłaszcza jeżeli była testowana z osobami z dysfunkcją wzroku i została ciepło przyjęta.
Życzymy powodzenia.
Jeżeli oczywiście się to kiedyś w Polsce pojawi, no to wiadomo, przetestujemy, damy znać.
Przetestujemy i poinformujemy was o tym, jak to działa i czy działa dobrze.
Tymczasem odbieramy połączenie.
Przynajmniej mam nadzieję, że uda nam się odebrać to połączenie.
Bo tu mamy użytkownika, który się podpisał jako PAX.
Na razie dźwięk z komputera wyciszony, więc jeszcze byśmy prosili o wyrażenie zgody na nagrywanie.
Witamy cię serdecznie. Słuchamy.
Jestem Patryk, jestem waszym fanem, a w ogóle mam takie pytanie, bo chciałbym coś nagrać na Macu.
Chcę w ogóle wiedzieć, jak się nagrywa dźwięk z systemu.
Fajnie by było się to dowiedzieć.
Generalnie sposoby na nagrywanie dźwięku z systemu, przynajmniej mi znane, są trochę dwa.
Pierwszy sposób głupi, ale działa.
To jest użycie zooma.
Drugi sposób, który jest lepszy, to jest użycie programu Audio Hijack.
Tylko, że Audio Hijack nie jest programem zabawy.
Tak, wiem, ale też nie za bardzo mi się uśmiecha, bo niestety ja mam M1 Pro i po prostu trzeba obniżyć zabezpieczenia, żeby zainstalować nawet.
Ale jeśli chodzi o zooma, to jest jakiś limit na siedzenie na kanale, z tego co wiem.
Okej, to może być prawda.
To jest kiedy niczym się nie różnią.
Aha, bo to jest inna pamiątka, a drugi zwykły sposób.
To znaczy, ja wejdę wam w słowo, Patryku, bo ktoś obok ciebie rozmawia bardzo głośno i tak naprawdę przekrzykuje Mikołaja, który usiłuje ci odpowiedzieć.
Kuba, możesz trochę ciszej, bo…
Nie, bo ja też gadam.
No to ja proponuję, żebyście zostawili te dyskusje na poza antenę, ja na razie cię wyciszam, a Mikołaju ty proszę bardzo kontynuuj.
O, teraz.
W każdym razie, kończąc temat, jeszcze jedną opcją, która jest dziwna, ale teoretycznie by się dało, jest użycie Discorda, bo Discord pozwala nam też na przestreamowanie jednej konkretnej apki, przestreamować ją do innego komputera i ewentualnie nagrać gdzieś z innego komputera, z Windowsem na przykład.
No ale generalnie, no generalnie Audio Hijack, generalnie Audio Hijack do tego niestety i jakby ja do tego rozwiązania używam, ale można też, no te dwa pozostałe sposoby, o których gdzieś tam wspomniałem.
No to teraz Patryku pytanie, czy jeszcze o coś chciałbyś zapytać?
Tak, jeszcze jest jedna opcja, jeszcze jest jedna opcja, jest takie narzędzie, które się nazywa Blackhole i to jest narzędzie darmowe i ono działa trochę tak jak kabel wirtualny na Windowsie, czyli my wybieramy je jako urządzenie wyjściowe i potem z innego programu, no dowolnego edytora dźwięku, czy to Reaper, czy to Audacity, czy to jakikolwiek inny, możemy go użyć jako urządzenia wejściowego i wtedy po prostu nagrać, no nagrać w ten sposób.
Patryku, no to słuchamy, czy jeszcze jakieś pytania masz, czy o coś chciałbyś zapytać?
Chciałbym też powiedzieć trochę o tym, że testowałem Tasker’a, tą aplikację Tasker na iOS’a, tą betę, całkiem niezła aplikacja jeśli chodzi o Mastodona, ale no niestety metatext ma jedną ważną funkcję dla mnie, jeśli da się to jakoś włączyć powiadomienia.
A nie, nie w Taskerze, to w innej aplikacji, przepraszam.
Dzięki, a tak poza tym bardzo mi się podoba wasz podcast, zawsze byłem nieśmiały i dopiero teraz po prostu zdecydowałem się zadzwonić do was.
No to cieszymy się Patryku, że się odważyłeś, bardzo ci dziękujemy za telefon, no i pozdrawiamy i oczywiście czekamy na jakieś kolejne twoje pytania.
Gratulujemy.
Tak, gratulujemy odwagi, oczywiście.
To ja wam dziękuję za świetny podcast, bo po prostu wy mi dajecie tyle newsów, tyle wszystkiego, jesteście niesamowici.
Miło nam to słyszeć, w takim razie dziękujemy ci bardzo.
No i cóż, jedynie co, to mielibyśmy prośbę gdzieś tam w przyszłości, że jak będziesz się z nami łączył, to może jednak, żeby udało ci się znaleźć w takim miejscu,
gdzie po prostu będziesz mógł rozmawiać swobodnie i nie będziesz się jeszcze tam z kimś przekrzykiwał, bo naprawdę nie jest to fajne, jak ktoś odpowiada na twoje pytanie,
no a nie ma tak naprawdę możliwości komfortowo tej odpowiedzi udzielić.
I my tutaj też przypomnimy dla wszystkich, którzy albo właśnie są nieśmiali i chcieliby się z nami skontaktować, a boją się, że wejdą na antenę, to strzelą jakąś gafę,
no albo dla osób, które po prostu nie mają warunków, bo nie wiem, małe mieszkanko, rodzinka w oku, no każdy ma jakby swoje gdzieś tam problemy,
że istnieje strona kontaktyflopodcast.net i na stronie kontaktyflopodcast.net można do nas napisać, można również to zrobić na Facebooku
i jeżeli no w ten czy inny sposób nie możemy się połączyć głosowo i te warunki wiemy, że mogą być dość niekomfortowe, no to zawsze można też do nas napisać
i można po prostu tę wiadomość wysłać w takiej formie, no i wtedy możemy to zrobić na spokojnie, przeredagować sobie wcześniej,
sprawdzić czy aby na pewno żadnej gafy nie popełniliśmy, zanim naciśniemy przycisk wyświetlania.
Ja miałbym też właśnie przy okazji taki apel, że jak wysyłacie te wiadomości, to sprawdzajcie, zwłaszcza jeżeli wysyłacie je z użyciem dyktowania głosowego,
to sprawdzajcie co tam się wpisało, bo ja to potem muszę przeczytać, a to w niektórych przypadkach bywa dosyć trudne, delikatnie rzecz ujmując.
Przechodzimy do kolejnych tematów, które mamy. Tym razem Mikołaj ma temat o nowościach w NV Access.
NV Access opublikowało nowy wpis na swoim blogu InProcess, na którym to NV Access właśnie publikuje kilka takich wpisów,
chyba co tydzień publikują taki wpis o tym, co generalnie w trawie piszczy, jeżeli chodzi o NVDA i o samą organizację.
No i co w tym momencie? Nadchodzi NVDA 2022.4, gdzieś tam niedługo mamy wiedzieć coś więcej, ale na razie jeszcze nie znamy daty wydania,
ale NV Access zapowiada, że niedługo coś więcej będzie w tej kwestii wiadomo. Oczywiście wiadomo, jeżeli ktoś sobie zajrzy na GitHuba,
to znajdzie podejrzewam już jakieś wstępne szkielety, listy zmian, bo projekt otwarty rządzi się takimi prawami, że takie rzeczy są dla nas publicznie dostępne.
NV Access ostrzega również, że niedługo znowu nastąpią zmiany w API, no bo za kilka miesięcy ukaże się wersja 2023.1 programu NVDA,
a tak jak to już zwykle bywa w wersji.1 każdego roku, no następują te zmiany, które wymagają aktualizacji dodatków.
No i nawet jeżeli te dodatki nie mają te zmiany wpływu na dany konkretny dodatek, to i tak autor tego dodatku musi potwierdzić w tzw. pliku manifestu,
który gdzieś tam do tego dodatku jest dołączany, że ten dodatek jest kompatybilny z nową wersją NVDA, że ta wersja dodatku działa z tym nowym API.
Więc nawet jeżeli nasz dodatek, którego w danym momencie używamy, nie jest objęty tymi zmianami, no to i tak ktoś go będzie musiał przecertyfikować na tę nową wersję.
Więc przykuje się wielka aktualizacja i znowu ludzie będą powstrzymywać się przed aktualizacją, bo przecież nie działają dodatki.
Jeśli mogę dać szybko jedną malutką rzecz, tak w ramach przypomnienia o takiej malutkiej hiszpańskiej wtyczce CRI CRI CRI, która służy do edytowania manifestów.
Jeżeli nie chcemy tam ręcznie wpisywać, bać się, że coś źle zrobimy, no to możemy spróbować sprawdzić ten manifest, przeedytować tak, żeby ta ostatnia testowana wersja NVDA była podniesiona,
bo wiele wtyczek może dzięki temu po prostu zacząć działać przez to, że ta flaga jest ustawiona na zgodny dodatek.
Oczywiście nie polecam tego robić, jeżeli mamy coś, co jest dla nas ważne, żeby działało i poczekać na to, aż producent dodatku wyda stosowną aktualizację,
ale w takich podbramkowych sytuacjach ta wtyczka się przydaje.
Najlepiej po prostu zrobić sobie kopię naszego NVDA jako jakąś tam chociażby wersję przenośną przed taką aktualizacją.
To jest myślę dobry sposób.
Jeżeli coś by się okazało, że po prostu nie będzie działać, no to możemy spokojnie, bez większych kłopotów sobie potem takie NVDA przywrócić.
Oczywiście wiadomo, że lepiej mieć jak najnowszą, bo to i stabilne i bezpieczne itd., itd.,
ale czasem zdarza się tak, że korzystamy z jakichś niestandardowych wtyczek, w których ta zmiana manifestu nie pomoże
i tam jednak trzeba więcej zabiegów, żeby z nowym NVDA działało.
Tak a propos wtyczek, to niedawno Tomek Kowalik napisał mi taką wtyczkę trochę na moją prośbę.
Może jest już taka wtyczka, ja o tym nic nie wiem.
Że można sobie słuchajcie wyfiltrować z tekstu mówionego przez NVDA to, co wpiszecie w wyrażenie regularnym.
I teraz to mi się przydaje.
A to słowniki umieją.
Tylko mi chodzi o coś takiego na szybko, że masz wtyczkę, wpisujesz np. cyfry 0-9, robisz OK
i w tym momencie nie uruchomisz NVDA ponownie, nic nie robisz, po prostu nagle przestaje ci mówić cyfry.
To mi się np. przydaje do tego, że mam, jak jest ten skrypt do tworzenia RK Voice’ów,
to on teraz mówi najpierw datę, a potem co się zrobiło.
Więc jak ja albo np. jak Whisper robi tłumaczenie do czegoś i jest ten ekran rozpoznawania,
to on też na początku mówi czasówkę 000001, 000007 i dopiero tekst na tym ekranie wyjścia w ogóle.
Więc mogę tak naprawdę teraz czytać tekst po prostu wpisując 0-9, nie czytaj cyfr i żadne te cyfry nie będą
czytywane albo nie jakieś słowo czy jakieś coś, po prostu tego ma nie czytać.
Tak, też podobne rzeczy można robić słownikami, tylko niestety od wersji 2020.1
tam się sporo zmieniło w NVIDIA i ta funkcja jest trochę uboższa niż była kiedyś.
No bo tam gdzie kiedyś mieliśmy tekst typu na główek poziom 1 odwiedzony link grafika strona główna,
to teraz mam jakby osobne kawałki tekstu na główek poziom 1 odwiedzony link grafika strona itd.
I ja za czasów właśnie NVIDIA 2019 i starszych bardzo, bardzo używałem tej funkcji i szczerze mówiąc
gdyby ta funkcja nadal działała, to byłby to dla mnie bardzo silny argument przemawiający jednak
za pozostanie przy Windowsie, to tyle czasu człowiekowi zaoszczędzało.
No ale niestety od wersji właśnie 2020.1 to już nie jest to samo i ona nie jest już tak przydatna jak była kiedyś.
Ale wracając…
No to może ta wtyczka by coś tutaj zmieniła, no bo ona jakby filtruje z tekstu wyjściowego, więc ona pewnie…
Wtyczka filtruje, a mi bardziej chodzi o zamianę, bo na przykład ja sobie robiłem wtedy coś takiego,
że na główek poziom 1 to było H1, na przykład jakiś komunikat typu lista z 5 elementów to było list 3,
czy tam list 5 i inne trakie.
To już przy jakichś tam czytaniu konkretnych jakichś tam struktur też się przydawało.
Po prostu przyspieszało, przyspieszało to pracę.
W każdym razie wracając do nowości w NVDA, pojawiły się również…
No właściwie w NV Access pojawiły się również kilka…
Pojawiło się również kilka nowości dotyczących NVDA w języku ukraińskim.
Kanały na Telegramie dotyczące dodatków oraz grupa pomocowa NVDA,
które są dostępne w menu pomoc i tam mamy skontaktuj się bez wsparciem, taką pozycję.
No i tam pojawia nam się taka strona, gdzie różne zasoby w różnych językach będziemy widzieć.
No NV Access również przyszedł na Mastodona i jeżeli ktoś ma tam konto,
to podejrzewam, że nvaccessmaupafostodon.org to jest adres, który możemy zaobserwować
i tam publikowane są również nowości dotyczące NVDA.
NV Access otrzymało również grant od firmy Salesforce, o której już tu kiedyś mówiliśmy,
bo firma raczej słynie z dbania o swoją dostępność i o dostępność swoich produktów.
No posiadają oni również taki program, gdzie pracownicy firmy mogą głosować na jakąś organizację,
na jakiś projekt otwarty i te właśnie 10 tysięcy dolarów zostanie przekazane na tenże projekt.
No i w tym momencie wygrało właśnie NVDA, wygrało właśnie NV Access
i te 10 tysięcy dolarów zostanie od Salesforce przekazane, co oczywiście pomoże w dalszym rozwoju programu.
No więc rzeczywiście pozytywne wieści się pojawiają ze strony NV Access.
Pozostaje mieć nadzieję, że w przyszłym roku NVDA będzie działało jeszcze lepiej
i użytkownicy będą z tego programu zadowoleni.
Tymczasem dzwoni do nas Bartek.
Miejmy nadzieję, że za moment z Bartkiem się połączymy.
Tylko jeszcze Bartku zgoda na nagrywanie, no to jest rzecz niezbędna,
bo bez tego nie porozmawiamy, ale mam nadzieję, że zaraz ci się uda poradzić sobie z tym dźwiękiem,
z tą zgodą na nagrywanie.
Miejmy nadzieję, że teraz w końcu.
Jest, jest, udało się, witam was serdecznie, wyjątkowo widzę w piątek.
Tak jest.
Oczekiwałem was w środę, ale ani na radiu, ani na Facebooku nie widziałem żadnego powiadomienia,
zastanawiałem się co się dzieje, bo w ogóle szczerze powiedziałem,
że w środę to w ogóle Tyflo Radio u mnie w ogóle nie działało.
A to ciekawe.
Ani przez Safari, bo próbowałem się połączyć przez strony tyflopodcast.net,
ani przez gotową listę odtwarzania u mnie na komputerze.
A to w ogóle ciekawa sprawa, bo z tego co sprawdzałem, to działało,
chociaż mnie akurat w środę rzeczywiście nie było przy komputerze.
To był jeden z tych powodów, dla których nie udało nam się tego tyflo przeglądu zrobić.
Ale Bartku, z czym do nas dzwonisz?
Ja tak króciutko chociaż pierwsze co chciałem się zapytać praktycznie,
bo przed chwilą mówiliście o najnowszej, już przyszłorocznej wersji NVDA.
Czy już może wiecie co z tymi głosami w formie dodatków?
Czy one też będą wymagały jakiejś aktualizacji, czy po prostu po zaktualizowaniu do 2023.1
one pozostaną w tej samej formie jak jest teraz?
Macie może jakieś informacje już?
Będzie trzeba na pewno zaktualizować manifest.
Generalnie dodatki z głosami, czyste z głosami, nie mają sobie kodu najczęściej,
więc więcej nie trzeba będzie robić raczej, ale manifest będzie musiał być zaktualizowany,
żeby właśnie pokazać, że te dodatki są kompatybilne z nowszymi wersjami.
Nie wiadomo jak się ma sprawa z dodatkami, ze sterownikami głosów.
Tak, to pytanie co tam zostanie zmienione tak naprawdę,
bo nie zawsze to podnoszenie wersji powoduje zmiany,
ale czasem tak, to wszystko zależy od tego,
czy na przykład jakieś funkcje odpowiedzialne za syntezę,
z których korzysta dany dodatek się czasem nie zmieniają.
Jeżeli tak jest, no to niestety, ale trzeba ten dodatek po prostu zmodyfikować.
Twórca dodatku albo ktoś życzliwy musi tam zajrzeć, napisać co trzeba i działa.
To jest swoją drogą, to tak ostatnio się gdzieś tam dowiedziałem,
ciekawa technika, jakby oczywiście nie był to plan i nie po to zostało to wprowadzone,
ale taki jest efekt uboczny walki z piractwem.
Bo było wiele dodatków i krążyło wiele dodatków,
które były po prostu jakimiś skrakowanymi wersjami tego czy innego sterownika do głosu.
No głównie vocalizery były w takiej formie.
I acapella.
No a tego akurat nie widziałem, o tym akurat nie wiedziałem,
ale wiem, że vocalizery były.
I za czasów NVIDIA starego, w którym te dodatki po prostu działały
i one się raczej nie aktualizowały, ludzie mieli te wersje nie do końca legalne
i one im po prostu działały, a przez to, że teraz te aktualizacje wychodzą co rok
i co rok trzeba coś tam gdzieś zmienić, no to ja nie mówię, że te wersje nie wychodzą,
bo te wersje oczywiście będą wychodzą i będą wychodzić,
ale nie każdy wie skąd je wziąć, nie każdy ma takie źródła.
To często było na zasadzie znajomym znajomemu znajomemu, wiadomo jak to z takimi programami bywa.
No i ja już gdzieś słyszałem takie głosy, że ludzie właśnie kupili oryginalne na przykład vocalizery
dlatego, żeby właśnie mieć na bieżąco od jakiegoś takiego…
Żeby się nie męczyć co roku po prostu.
Tak, dokładnie.
Tak szczerze powiedziawszy to ja się zastanawiam co to w ogóle z RH Voice’em będzie,
bo ja też mam ten tu RH Voice’a w formie dodatku.
Akurat o RH Voice’a Bartku to myślę, że możemy być spokojni.
Tu ekipa z Wonimir, Grzegorz, Czułwana w tym razie, żeby to było okej.
Poza tym ekipie to tak, bo z tego co ja wiem to RH Voice to jest rosyjski chyba produkt, tak?
Tak, tylko RH Voice nie jest syntetatorem o otwartym źródle, więc każdy może tam coś zrobić.
I okej, na razie nie ma sensownie działających głosów angielskich na RH Voice’a,
więc nie bardzo są zainteresowani ludzie zachodni, tak powiem.
Natomiast u nas, czy gdzieś tam bardziej na wschód,
to myślę, że nawet gdyby z jakiegoś dziwnego powodu, na co się nie zapowiada,
ale gdyby autorzy porzucili ten projekt, to jest zdaje się nawet kilka chyba w razie czego
ekip, które mogłyby się tym przynajmniej częściowo zająć, tak mi się przynajmniej wydaje.
Nie jest za duże zainteresowanie tym syntezatorem, żeby on miał się upaść gdzieś.
Ja się zastanawiam nad inną rzeczą. Gdyby jakaś firma X zrobiła syntezator, nawet większa, do NVDA
i zrobiła go raz na starszą wersję, to byłby syntezator płacny.
Po czym nowa wersja, firma by nie robiła tych wtyczek, ja sobie wyobrażam taką sytuację,
natomiast właśnie byłyby robione wtyczki pirackie i mógłby dojść do paradoksalnej sytuacji,
w której działają tylko i wyłącznie wersje nie do końca zgodne z prawem, czy niezgodne z prawem.
Tonku, ale żeby daleko nie szukać, to ja nie wiem czy pamiętasz, kiedyś, kiedyś, to już ileś lat temu
było takie podejście, bodajże Evo Software, że oni tworzyli, oni sprzedawali Evonę razem z NVDA
i tam był jakiś dodatek nawet z tą Evoną, z tego co pamiętam, do NVDA, że ta synteza miała się
z tym czytnikiem ekranu bezpośrednio komunikować. Jakieś takie próby były, nie wiem na czym one się skończyły,
ile tych kopii zostało sprzedanych, ale wiem, że to było już wiele lat temu, no bo przecież od ilu już lat
Evo Software nie ma, bo oni zostali wchłonięci przez Amazon.
Choć szczerze mówiąc wydaje mi się, że teraz, przynajmniej na razie jest tak, że coraz więcej firm
idzie w tę syntezę neuronową, która jest ogromna, ma ogromne modele, która jest bardzo naturalna,
ale z responsywnością to ta synteza nie ma wiele wspólnego, przynajmniej póki co.
Jeszcze najlepiej to, żeby ona była w chmurze i online, bo wtedy łatwiej jest kontrolować i łatwiej pobierać
za to opłaty, no a w przypadku osób niewidomych, a to kompletnie nie zdaje egzaminu, no bo wiadomo,
że synteza online, no nie, to nie w przypadku czytnika ekranu, gdy stracimy dostęp do internetu
i nie chcemy też wysyłać numeru naszej karty płatniczej i innych danych, które nam czytnik ekranu czyta
za komuś po sieci, no i druga rzecz, że ta synteza jest jednak pomyślana pod dość niewielkie ilości
czytanego tekstu, czyli no nie wiem, w przypadku Microsoftu to jest 15 dolarów za milion znaków,
no czyli 60 złotych za taką dużej wielkości książkę, czyli nie wiem, jakiś powiedzmy większy Harry Potter,
no to gdzie przy ilości tekstu, jaką czytają na dzień osoby niewidome, no nie są to stawki,
z którymi możemy cokolwiek zrobić, bo to byłaby kwestia kilku tysięcy, jeżeli nie kilkunastu tysięcy
złotych miesięcznie, to zresztą będziemy dzisiaj mówić o narzędziu Speech Central, które też bardzo
ostrzega przed tym, żeby absolutnie patrzeć na nasze koszty, bo tu bardzo prosto jest się nagrać.
No widzę, że tutaj wywołałem szeroką dyskusję, jeżeli chodzi tutaj o syntezatory, ale pozostając jeszcze
tylko w temacie, to jest praktycznie pytanie od mojej koleżanki, a nie ode mnie, bo ona ma zainstalowane
te dodatkowe głosy, te do RHS-a, czyli Magdę, Natana i Alicję w formie normalnej instalacji EGZE,
a zastanawiające jest Michale, że jak się próbuje zainstalować formę twojego głosu, że ona działać nie chce.
A to nie wiem, to szczerze powiedziawszy ja nawet nie instalowałem wersji SAPI, to musiałbyś się odezwać,
podejrzewam, że dozwoni Mira, który…
Ja tutaj sam zalecałem, żeby może właśnie przekształcić z wersji SAPI na po prostu wersję dodatków.
Tak, bo to na pewno działa.
No właśnie, bo ja de facto sam Alicję nie instalowałem w wersji SAPI, ale już jak pobrałem wszystkie dodatki,
to po prostu odinstalowałem te pozostałe głosy i zainstalowałem w formie dodatków i wszystko działa tutaj jak w zegarku.
Ważna rzecz jest, i to jest takie ostrzeżenie gdzieś tam na stronie Grzegorza Złotowicza,
teraz mi się to przypomniało, że jeżeli instalujemy głos, który jest aktualizacją w wersji SAPI,
to trzeba najpierw odinstalować ten wcześniejszy.
Ja właśnie tak zrobiłem, bo ja odinstalowałem je z programu i funkcję i później wszystko.
Tak mi to przyszło do głowy, że być może twoja koleżanka po prostu nainstalowała jakąś wersję następną
na wcześniejszą wersję tego głosu bez deinstalacji, mam na myśli ten mój głos, głos Michał.
Ona wcześniej tego twojego głosu w ogóle nie miała.
Aha, no to szczerze mówiąc nie umiem pomóc.
Z jej informacji wynika, że ona już ma najnowszą wersję NVDA, bo jeszcze jakiś czas temu można było spotkać
na Pythonie dwójce, nie na trójce, to byśmy się nie dziwili, że to nie chce działać,
ale skoro już ma najnowszą wersję NVDA, te wszystkie prawdopodobnie zaktualizowane dodatki ma,
głos Alicji, Natana i Magdy działa, to zastanawiające, dlaczego jest, że wersja SAPI z twoim głosem nie chce pójść.
Niestety, Bartku, nie wiem, ale myślę, że to trzeba po prostu skontaktować się z osobami, które ten głos tworzyły
no i może wtedy uda się dojść do jakiejś…
Myślę, że jednak najlepszym rozwiązaniem będzie po prostu reinstalacja, czyli przetworzenie SAPI na dodatki,
tak mi się wydaje tutaj, ale całością, włącznie chyba ze silnikiem RH Voice’a.
No, tak będzie najlepiej, no bo to wiadomo, że działa.
A tak a propos RH Voice’a, to głos Natany oczywiście zmienił licencję jakiś czas temu.
Tak, to ja o tym też, zdaje się, wspominałem.
Na?
Też Creative Commons.
Jeszcze takie dwa pytania mam, bo też nie chcę za dużo zabierać czasu antonowego,
bo w dzisiejszych czasach to jest cenne.
Chciałem się zapytać, czy spotkaliście się kiedyś z taką sytuacją, że na komputerze
próbowaliście wejść na jakąś stronę i wyskakiwał wam komunikat, że nie można załadować strony,
mimo tego, że macie połączenie z internetem, a na przykład na urządzeniu mobilnym ta strona działa wam doskonale.
Czasem mi na takie coś pomaga ten reset, to się nazywa reset DNS’ów, DNS flash.
Chyba tak, jakiś reset, jest taka komenda.
A może w jakiś sposób to się robi?
W linii poleceń to trzeba ipconfig spacja slash dns, nie slash flusch dns chyba.
Ipconfig razem, spacja slash flusch dns w linii poleceń.
Mi o dziwo właśnie tak się dzieje ze stroną TV Podcastu czasem.
Ja właśnie miałem problem ze stroną własnego miasta, bo nie wiem czy w waszych miastach
jest coś takiego organizowane jak budżet obywatelski.
No tak, to jest.
Tam można oddawać głosy na wybrane projekty i chciałem to zrobić na komputerze,
bo powiem, że w formie desktopu mi się wygodniej funkcjonuje,
bo ten ekran dotykowy to jest bardzo wrażliwy, ale ta sytuacja zmusiła mnie do tego,
żeby jednak skorzystać przez Safari.
No to koniec końców się udało, ale dłużej trwało.
Okej, no to w porządku. Spróbuj tak jak ja ci poradziłem, czy my z Mikołajem.
I powodzenia, miejmy nadzieję, że pomoże, mi pomaga.
Okej, i jeszcze jedno pytanie tym razem ode mnie, bo tutaj będę pomagał.
To bardziej Michale, do ciebie jest pytanie, bo też jesteś w PKO,
mimo tego, że w Inteligo, ale tutaj chodzi konkretnie o i PKO,
a właściwie kartę płatniczą.
Czy orientujesz się może, bo ja de facto nie pamiętam jak to robiłem,
bo to było dekadę temu, czy jeżeli karta przychodzi do nas po raz pierwszy,
żeby ją aktywować, to na razie nie mówimy tutaj oczywiście o aplikacji,
tylko słyszałem, że trzeba pójść do bankomatu, ale czy trzeba coś wypłacać,
czy można tylko ją…
Można ją aktywować, wiesz, ja też już nie pamiętam jak to było z pierwszą kartą.
Tak, bo to będzie pierwsza karta.
O, Bartku, kiedy to było? Nie pamiętam takich rzeczy, wybacz.
Nie, no spokojnie, każdy ma prawo zapomnieć, prawda?
No właśnie, ja też nie pamiętam, tym bardziej, że ja konto sam w banku zakładałem,
nie przez stronę internetową, więc to zupełnie były inne czasy,
nazwijmy to wprost.
No dobrze, to ewentualnie pozostaje tylko się dowiedzieć na stronie banków.
Na stronie, na infolinii banków, przepraszam.
No dokładnie.
No dobrze, będziemy w każdym bądź razie kombinować,
bo właśnie za chwileczkę mam się z nim łączyć i będziemy robić to zdalnie.
Zobaczymy, co z tego wyjdzie.
Miejmy nadzieję, że nie będzie żadnej kaszany, jak to się mówi.
Okej, w takim razie, no cóż, ja miejmy nadzieję, że będę miał Was na czym
na razie słuchać, bo zarówno i komputer, i telefon będzie zajęty,
ale jak skończę, to zaraz wracam do słuchania, a zresztą później sobie
jeszcze raz chyba cały przesłucham, jak już będzie na stronie.
No to pozdrawiam Was serdecznie i do usłyszenia.
Pozdrawiamy Cię Bartku również, do usłyszenia, dziękujemy za telefon,
trzymaj się.
Do usłyszenia.
No i cóż, teraz przechodzimy do kolejnego tematu,
mianowicie do tematu Octarin.
Tak, Octarin, czyli oprogramowanie stworzone przez Dawida Piepera,
twórcę też Eltena, które to oprogramowanie pozwala na rozpoznawanie
na OCR początkowo plików graficznych, różnych JPEGów, BMP itd.
Natomiast po dość długim czasie nieaktywności, Dawid postanowił
coś z oprogramowaniem zrobić i zrobił, bo dodał on wsparcie plików PDF
i to co ciekawe, z wyborem zakresu stron, można zapisać te pliki PDF
w kilku formach, albo w formie graficznej, albo w formie tekstowej,
albo w formie graficznej z nakładką tekstową, czyli osoby widzące
mają ten sam graficzny układ, jaki był w oryginale, a osoby niewidome
mają na to nałożony tekst, który można czytać czytnikiem ekranu,
pewnie tam przeszukiwać, nakładać na niego jakieś notatki itd.
To nie wszystko, bo Dawid postanowił także wystartować z wersją PRO Octarin
i wersja PRO posiada troszkę lepszy silnik OCR, który jest już płatny.
Dawid za niego musiał gdzieś zapłacić i wspiera na przykład języki,
wiele języków na raz, rozpoznawanie wielu języków na raz
i można z niego skorzystać w tej wersji PRO. Wersja PRO to także
wsparcie dla skanerów, więc już teraz nie tylko możemy rozpoznawać pliki,
ale też skanować bezpośrednio ze skanera.
Testowałem.
I?
To działa prawie dobrze, to znaczy ja mam akurat bardzo fajny skaner
pod testowanie takich rzeczy, dlatego że oprócz takiego skanera płaskiego
mam też podajnik ADF i to podajnik ADF dwustronny.
Podajnik ADF to jest takie coś, że wkłada się tam ileś kartek,
trochę jak do drukarki, no i on przepuszcza sobie to przez siebie,
że tak powiem, kartkę po kartce, więc te kartki muszą być rozszyte,
mogą być szyte rzeczy.
No i można sobie ileś tych kartek po prostu zeskanować na zasadzie
położyć je na czytawczym podajniku, one wyjdą jakby z drugiej strony,
tam pod spodem konkretnie u mnie.
No i to wszystko jest zeskanowane, w związku z powyższym jak mi przychodzi
na jakąś umowę 20 stron, to po prostu kładę te 20 kartek na skanerze
i ja sobie kartkę po kartce sam skanuję i to jest super.
No i niestety póki co przynajmniej, ja to już zgłaszałem,
tylko problem jest taki, że Dawid nie ma takiego skanera z podajnikiem dwustronnym
i nie może tego testować, to program co ciekawe korzysta
z systemowego okna konfiguracji skanowania,
czyli tak jak wejdziecie sobie w skanowanie w systemie Windows
czy coś takiego, to tam jest do wyboru możliwość właśnie skanowania
skanerem płaskim, podajnik ADF i podajnik ADF dwustronny ja mam u siebie.
Natomiast w Octarin mam tylko skaner płaski i podajnik ADF
i to jest skanowanie jednostronne, to już też właśnie sprawdziłem,
więc nie da się skanować dwustronnie jeżeli ktoś ma podajnik ADF,
na razie się nie da, mam nadzieję, że to będzie naprawione,
bo mi na tym zależy. Nie testowałem jeszcze jakości tego skanowania,
to tak obiecuję sobie, że to zrobię, bo mam dość sporo dokumentów różnych
ze skanowanych i od pewnego czasu po prostu całą swoją dokumentację
staram się po prostu mieć w formie również cyfrowej.
Wszystkie orzeczenia, nawet świadectwa jakieś z liceum,
jakieś różne takie rzeczy mam poskanowane, więc one są w bardzo różnej jakości
i to jest w sumie dobry test na tego typu rzeczy,
ale jakość tego jeszcze nie zrobiłem.
W każdym razie z niecierpliwością czekam i z taką dużą nadzieją,
że rzeczywiście uda się zrobić to skanowanie wielostronne.
Natomiast jeżeli chodzi o obsługę skanera takiego płaskiego,
to tam jest nawet możliwość jakiegoś takiego jak jest w finderze,
czyli da się wprowadzić mu czas oczekiwania na przerzucenie strony,
czyli nikt nie przewróci stronę w pół sekundy, a te skanery są coraz szybsze,
więc da się wprowadzić taki czas opóźnienia, czyli strona się skanuje,
strona się kończy skanować, teraz my mamy czas na odwrócenie kartki
i tak dalej, i tak dalej, odłożenie tego sobie na skaner
i odbywa się druga strona skanowania, trzecia, czwarta i tak dalej,
aż do momentu, gdy powiemy dość, książka będzie skanowana w związku z powyższym.
Jak będzie tylko ta możliwość skanowania dwustronnego,
to już będzie w ogóle ekstra.
Tam jeszcze kilka jest interfejsowych takich rzeczy, które moim zdaniem
są troszkę, przydałoby się troszkę poprawić, na przykład są,
jest w dwóch miejscach podana ta czas przerwy między stronami,
przy czym te przerwy są różne, ja wpisuję pięć, on za chwilę wypisuje dziesięć,
dosłownie jakieś, nie wiem co, w jakimś innym miejscu, natomiast to była
pierwsza wersja od lat, więc mam nadzieję, że to zostanie poprawione.
No i żeby skanował język polski w tym takim silniku uznawanym
za taki chyba najlepszy, podobno, on jest płacny, Iron OCR,
no to domyślnie jest tylko alfabet łaciński, bez polskich znaków,
trzeba te polskie znaki włączyć, to trzeba zrobić w ustawieniach,
też sugerowałem, żeby jakby program na dzień dobry gdzieś tam pytał
o język skanowania i miał takie szybkie ustawienia.
Zobaczymy, czy to się też wprowadzi.
No natomiast, no bardzo mi się podoba, że jest ta możliwość,
tak zresztą jak w Finderze to jest, bo w Finderze też można zrobić
taki PDF graficzny, ale z warstwą tekstową i to jest super,
bo wtedy wysyłam tego PDF-a komukolwiek i ja widzę swoje,
ktoś widzi jakby swoje i to jest super.
Tak, to jest bardzo fajne, szczególnie dla tych wszystkich,
którzy jeszcze mają taką mentalność, zwłaszcza w różnego rodzaju urzędach
i część urzędników bardzo się broni przed tworzeniem dostępnych plików PDF,
przed robieniem jakichś OCR-ów, bo tłumaczenie jest zawsze takie,
że ale przecież tam nie będzie czytelnej pieczątki na tym dokumencie,
a to już będzie problem.
Może być czytelna pieczątka, tylko trzeba to zrobić w sposób sensowny.
Teraz pytanie, po pierwsze ile ten Octarin kosztuje, po drugie…
On w tym momencie kosztuje, brzydko mówiąc co łaska, nie,
praktycznie wygląda to tak, że aby otrzymać kod rejestracyjny,
Dawid prosi o wpłatę w dowolnej kwocie, w dowolnej wysokości
na rzecz Fundacji Prowadnica, czyli to my oceniamy na ile wyceniamy
pracę Dawida nad tym programem.
Jest też wersja pro do pobrania bez rejestracji i ona działa,
tylko że na każdą ze stron rozpoznanego dokumentu nakłada adnotację,
że to jest wersja niezarejestrowana i prosimy o rejestrację.
Czyli takie poniekąd wieczne demo, ale które zakłada nam ten Watermark,
w związku z czym też warto myślę wesprzeć, zwłaszcza że oprogramowanie
jest chyba warte, zwłaszcza że ta cena nie musi być jakaś wygórowana.
Ile kto ma możliwości tyle może zapłacić.
A chyba jest to dobre oprogramowanie.
Nie wiem, jak Tomku, ty byłeś zadowolony z jakości
jakby tutaj tego rozpoznawania tekstu?
To znaczy ja miałem po pierwsze osłabioną średnią jakość,
po drugie ten łaciński alfabet, więc mówię tu się nie będę wypowiadał.
To co było bez polskich znaków to było w miarę okej.
Natomiast muszę przerzucić i spróbuję to zrobić.
Nie obiecuję, ale spróbuję to zrobić na przyszły tyfro przegląd
i wtedy spróbuję jakiś taki większy, że tak powiem raport dać.
Zresztą, tak czy inaczej, nawet gdyby ta jakość była jakaś taka,
no to rozwiązań do rozpoznawania tekstu jest bardzo dużo nawet na Androida teraz.
Więc to już jakby można z tym robić różne rzeczy.
Można to komuś, jeżeli to jest nasza zwykła książka,
no to nawet powierzyć powiedzmy do rozpoznania.
Można tam zrobić z tym ileś rzeczy.
Bo tak naprawdę z naszej perspektywy chyba największym problemem
do tej pory było to, znaczy no są dwa problemy.
Po pierwsze to, żeby zeskanować łatwo duże ilości stron.
Bo skanowanie w systemie Windows to jest skanowanie o ile wiem jednej strony.
Na raz, potem trzeba po prostu jeszcze raz skanować, jeszcze raz i jeszcze raz.
Natomiast na telefonach, no to jest po pierwsze obsługa skanera,
której nie ma w ogóle, natomiast po drugie no to rozpoznawanie offline,
które z reguły jest takie sobie.
Więc trzeba wszystko przesyłać do chmury.
To się nie zawsze, no nie zawsze to jest fajne.
I nie zawsze można też, bo z różnymi dokumentami się pracuje.
Natomiast w tym momencie wydaje się, że te dwa problemy są mniej więcej rozwiązane.
Znaczy można skanować duże ilości stron i można rozpoznawać tekst offline.
Z naszego punktu widzenia robisz prawie to samo, co robi Fine Leader.
Jedyna pewna zaleta Fine Leader’a dla nas, mówię dla osób całkowicie niewidomych
jest taka, że Fine Leader robi też fajnie, chociażby, znaczy w miarę fajnie.
Stara się robić jakieś formatowanie na główki, czasem zrobi tabelę.
Nie wiem czy ten Iron OCR robi takie rzeczy.
Zakładam na razie, że nie.
Ale w każdym razie myślę, że do takiego użytku, żeby właśnie
skanować dokument, wiedzieć co to za dokument, skanować książkę.
To podejrzewam, że to jest ok.
I zwłaszcza w momencie, kiedy Fine Leader zrobi się subskrypcyjny.
No to Dawid dobrze wyczuł moment, kiedy wejść na rynek ze swoim programem
dla osób niewidomych, mówię.
Czy to można te strony przekładać, usuwać, coś tam jeszcze.
Czyli kiedy na przykład jest coś zeskanowane dwustronnie,
okaże się, że to jest jednostronnie, no to można chyba te strony puste
jakoś tam usunąć.
No i właśnie, to jest pierwsza strona po latach.
Po latach w zasadzie braku jakiejkolwiek aktywności w tym temacie.
Już się bałem, że ten program w ogóle umarł.
Na szczęście nie.
Ale jestem bardzo nim zainteresowany, bo to może być rzeczywiście coś,
co wielu osobom bardzo pomoże w życiu po prostu.
No i tutaj właśnie dwa kolejne pytania.
Pytanie pierwsze i najważniejsze.
Dla mnie jednak mimo wszystko byłoby marnowaniem potencjału programu
zamykaniem tego programu na Polskę.
I no właśnie, co z tym?
Bo jak ja to słyszę, to to są jakieś przelewy bankowe,
a nie jakiś fajny system online.
Bo jakby program, jeżeli działa faktycznie na silniku,
który tych języków wspiera kilka, no to by…
Nie zaprowadnił cała Paypala.
Okej. Okej.
To wiem, bo kiedyś się chciałam pozbyć pieniędzy z Paypala
i coś tam wysyłam i to wiem, że na pewno jeszcze jakiś czas temu miała.
Okej. A jak jest z tłumaczeniem? Wy coś wiecie?
Czy to jest tylko polska na razie? Czy tam są też…
Tego, co wiem, to jest tylko polskie. Mogę to też odpalić, ale…
Okej.
Ale też, no wiadomo, nie tylko angielskich i polskich narzędzi się używa,
więc gdyby ktoś chciał, to się da.
Chociaż nazywa się angielska, więc podejrzewam, że prędzej czy później
to może zostać przynajmniej zaangielszczone, więc mam taką nadzieję przynajmniej.
Natomiast jeszcze wbijając się, bo wcześniej próbowałam, ale coś mi się chyba nie udało,
to tak, jeśli chodzi o jakość, no to wydaje mi się, że jest całkiem okej,
w sensie takim, że jakiś tam jeden czy dwa błędy się trafiły na stronę,
ale to nie są takie błędy, które uniemożliwiają zrozumienie.
No i też nie wiem w jakiej typu jakości, po prostu wiem, że plik się nazywa
informacja.pdf i ma dwie grafiki bez etykiety i tak naprawdę nic o tym pliku nie wiem.
No a wtedy jakby przeskanowałam i udało mi się bardzo fajnie to przeczytać.
Co do tych tabel i formatowań, to z tego, co wiem, nawet jeżeli Iron OCR to umożliwia,
no to Octaline jakby prezentuje wynik w takim polu, który jest tylko na tekst
zwyczajny, zwykły, bez żadnych upiększeń, więc nawet by się nie miało,
gdzie taka tabelka pojawić czy inny element formatowania.
W eksportowanym pliku.
No właśnie.
Chyba, że w pliku, no to właśnie o tym mówię.
No wydaje mi się, że to jest pole rzeczywiście na rozwój, bo no przez całej sympatii
oczywiście do takich programów, to wydaje mi się, że podstawowe formatowanie,
jeżeli tylko jest możliwe do rozpoznania, to powinno być, zwłaszcza tabele.
Bo myślę, że no jak ktoś miał do czynienia z różnymi dokumentami,
to wie jak beznadziejnie czyta się tabele, które przez OCR są rozpoznane źle,
kiedy nie są sformatowane.
Że na przykład mamy najpierw jedną kolumnę, potem drugą kolumnę na przykład.
Zdarza się tak czasem i to jest męczarnia.
Niestety Fajnider radzi sobie nie zawsze dobrze, może powiem w ten sposób.
No właśnie, no właśnie.
Fajnider też, i o tym pamiętajmy, on nie jest, nie ma być do końca narzędziem takim,
że my naciskamy przycisk i on nam wszystko zrobi.
Bo tam też jest dużo opcji.
Dużo opcji, no bo on nie jest przeznaczony jakby w zamyśle dla osób niewidomych,
od tego zacznijmy.
On jest bardziej przeznaczony dla osób gdzieś tam na przykład w korporacjach,
które mają jakieś dokumenty papierowe i chciałyby z tymi dokumentami
potem pracować na przykład w Wordzie i edytować sobie jako tekst.
Tak, to jest aplikacja taka typowo biurowa do tego obiegu elektronicznego,
obiegu dokumentów.
To się bardzo ładnie integruje z różnego rodzaju procesami,
które zachodzą bardzo często w biurach.
Tak, i tam jest na przykład dużo takich funkcji, że okej, komputer nam odwalił
większość roboty, ale to my, jako osoba widząca, widząca tego PDF-a,
mamy trochę po nim poprawić.
Czyli na przykład, że on nam pokaże, gdzie czegoś tutaj nie jest pewien,
to my sobie to poprawimy, że my zaznaczymy mu, okej, tutaj jest tabelka,
tutaj w tym miejscu na ekranie jest jakby miejsce między pierwszą kolumną,
między drugą, tutaj między drugą, tutaj między trzecią i tutaj wiesz,
tutaj wiesz, tutaj wiesz, tutaj wiesz.
A tutaj jest w ogóle inny język jeszcze na ekranie.
Tak, dokładnie.
I tak dalej.
Tak, tam jest jakieś douczanie wzorców i inne tego typu rzeczy,
że tam sobie tak naprawdę jakby ktoś bardzo chciał i miał przede wszystkim wzrok
i dużo dobrej woli, to można sobie nawet własny język zdefiniować w Fine Readerze.
Bo tam można wskazać, jak ma różne znaki graficzne interpretować,
jak dobrze kojarzę.
A można te wzorce językowe modyfikować.
Ciekawym jest dla mnie to, kiedyś właśnie przeglądałem sobie ustawienia Fine Readera,
że jednymi z języków, jakie Fine Reader na przykład może rozpoznawać,
jest Java i Python.
I tam jest wyraźnie robione wsparcie też pod to,
że takie treści mogą się w ten czy inny sposób gdzieś pojawić
i one nie przypominają do końca takiego języka, jaki my znamy,
bo tam są pewne symbole i tam jest bardzo ważne,
żeby te symbole były rozpoznane poprawnie,
no bo w kodzie jeden mały błąd dużo zepsuje
i Fine Reader ma wsparcie nawet dla takich rzeczy.
Więc to nie jest taki program jak Octarine,
że my wrzucamy do niego tekst i my jesteśmy niewidomi
i on ma nam z tym tekstem zrobić coś.
Niewidomi go tak używają, ale on nie do końca do tego służy.
Jeszcze tak na koniec przynajmniej tej mojej wypowiedzi.
Jeżeli ktoś by miał problem z wycenieniem programu,
to też Dawid wskazał, że miał ze niej wybrać 200 zł,
więc myślę, że to może być dla nas taki wyznacznik tego,
jak cenowo by było warto wesprzeć projekt.
Gdzie program jest? Bo o tym chyba nie powiedzieliśmy.
W sensie do wybrania.
Znaczy jest strona octarine.pl.
Octarine.pl to jest też nowość.
Wystartowała oficjalna strona programu,
bo wcześniej on był gdzieś na jednej z podstron Dawida.
I na forum Eltena.
Tak, tak, tak.
A teraz ma już oficjalną stronę i można go bez problemu pobrać.
To zanim przejdziemy do kolejnych newsów,
to kilka tematów, które nam tu rzucili słuchacze,
a już dawno nie zaglądałem do waszych wypowiedzi,
więc teraz to czynię.
Ale pierwsza wypowiedź jest od naszego słuchacza,
który się podpisał jako Kuba.
Cześć, mam takie pytanie.
Jak osoby niewidome mogą obsłużyć odtwarzacz e-booków Kindle?
Mikołaju, mikrofon wyłączyłeś zamiast go włączyć.
A chyba chciałeś coś powiedzieć.
Tak, chciałem.
Z tego co wiem, Kindle nie mają głośników,
ale mają wsparcie dla standardu Bluetooth.
I ja nie wiem jak to się robi.
Trzeba poczytać dokumentację Amazona, bo ja nigdy nie miałem.
Ale da się to zrobić.
Da się, z tego co wiem, nawet samodzielnie
wymusić połączenie Kindla z urządzeniem Bluetooth.
I oczywiście mówimy tutaj o głośniku lub słuchawkach.
I za pomocą takiegoż urządzenia słuchać sobie syntezy.
Bo tam jest Screen Reader Voice View,
czyli chyba jakaś tam pochodna talkbacka, czytnik ekranu Amazona
na system Android, który na Kindle również gdzieś tam działa.
Problem może być inny.
Ja nie wiem, i wiem, że kiedyś próbowałem się tego dowiedzieć
i nie udało mi się tego sprawdzić, czy tam jest polska synteza.
Bo wiele osób widzących w Polsce kupuje Kindle z zagranicy,
wiedząc o tym, że Kindle nie mają polskiego interfejsu.
No ale im to nie przeszkadza.
Jeżeli znają na tyle angielski, że obsłużą interfejs,
to mogą na Kindle czytać polskie książki.
Nie wiem, czy jest to możliwe w naszym wypadku.
Nie wiem, czy tam jest właśnie polska synteza.
Myślę, że może jej nie być, chociaż do gwarancji nie mam i nie daję.
Więc na pewno trzeba by zwrócić na to uwagę i gdzieś podpytać.
Podejrzewam, że wsparcie Amazona…
Nie zdziwiłbym się, gdyby to się nawet udało,
bo wsparcie Amazona raczej słynie z tego,
że oni są dość fajni i dość pomocni,
więc mogliby, podejrzewam, jakoś to sprawdzić.
Ale to jest na pewno rzecz do sprawdzenia,
jeżeli oczywiście po to jest nam Kindle,
jeżeli mamy w planie czytać na nim polskie książki i polską literaturę.
No to zaglądamy do kolejnego pytania.
I tu Pax do nas napisał.
Hej, a zrobicie podcast, jak ustawić Black Hole,
by QuickTime playerem nagrywać?
No cóż, może kiedyś zrobimy.
Ja tego szczerze mówiąc nie używam, bo ja mam hijacka.
Właśnie się zastanawiam,
bo nie wiem, czy QuickTime player też sam z siebie nie umie.
Chyba nawet umie.
Chyba właśnie QuickTime player też jakoś umie
nagrywać wyjście z systemu.
Tylko ja z tym QuickTime playerem
miałem zawsze jakiś problem.
I on mi nie do końca chciał działać tak,
jak ja bym sobie tego życzył.
Coś tam było nie tak.
No cóż, tu jeszcze w międzyczasie
Dawid pyta o nowości w RH Voice’ie.
No cóż, Dawidzie, tak naprawdę
to wszelkie nowości w RH Voice’ie znajdziesz
na zlotowicz.pl.
Tam są wszelkie oficjalne informacje dotyczące RH Voice’a.
A jeżeli chodzi o te mniej oficjalne,
no to chociażby grupa na LT,
nie? RH Voice.pl bodajże?
Czy RH Voice Polska?
Tak, RH Voice Polska.
Tam na przykład możesz zajrzeć
i możesz się czegoś więcej dowiedzieć
z takich różnych nieoficjalnych eksperymentów.
To jest w ogóle ciekawe, bo ruszyła zarówno lista mailingowa,
lista na Telegramie i właśnie grupa na LT.
I w zasadzie jedyne, co działa tak na codzień,
to jest właśnie ta grupa na LT. Grupa na Telegramie
jest w zasadzie martwa.
Na liście mailingowej to tam jest jeden mail na miesiąc
w zasadzie. Natomiast na grupie na LT
to jest co najmniej kilka postów dziennie.
Ja powiem szczerze, ja o grupie na Telegramie
to nawet zapomniałem zupełnie.
I to może być też to.
Teoretycznie jest, ale ona chyba powstała, powstała wiadomość powitalna
i chyba na tym to się skończyło.
A Tyflopolska na przykład ma się całkiem dobrze, tak swoją drogą.
Tak, Tyflopolska ma się całkiem dobrze.
Nawet tam ostatnio ktoś się pytał właśnie o RH Wojsa,
więc te informacje są dość rozproszone.
Więc jeżeli korzystacie z Telegrama
i korzystacie z telegrama w wersji tekstowej,
bo na Tyflopolsce się raczej pisze niż mówi,
no to zajrzyjcie sobie na Tyflopolskę.
Tyflopodcast też ma swój kanał na Telegramie,
Tyfloradio nawet bardziej tam publikuje informacje
odnośnie tego co się dzieje, więc no dzieje się, dzieje.
Tak, kropka meslesz Tyflopolska.
Tak jest.
Się poleca.
Się poleca.
Mamy od Boczka wypowiedź.
A propos, zdaje się, mojego głosu w RH Wojsie.
Nie muszę ustawiać prędkości na 50.
Fajnie Michale, brzmisz po podkręceniu.
Na Androidzie od 60 i wyżej nie zauważyłem
nie wiadomo jakich zniekształceń.
Niepotrzebny mi ispik jako główny.
No cóż, no to cieszę się, że się mój głos na coś przydał.
Tak, ja też tak mówię.
Mam i sobie chwalę.
Jeżeli chodzi w ogóle o zwiększanie szybkości w RH Wojsie,
to w związku z tym, że to jest synteza generowana,
chociaż na podstawie sampli, ale to nie jest taka synteza
jak, nie wiem, dajmy na to Iwona Acapella,
no to można tutaj przyspieszać, zwalniać, obniżać,
podwyższać wysokość, no bez jakichś takich specjalnych zmian,
jeżeli chodzi o znaczy zniekształceń.
Dlatego, że w związku z tym, że to jest właśnie generowane,
chociaż na podstawie sampli, no to dużo łatwiej w takim przypadku
tego typu operacje się robi.
Tak naprawdę można by tu zrobić dużo więcej rzeczy,
gdyby oczywiście RH Wojs chciał to robić,
typu na przykład dałoby się zmieniać tak zwane formanty,
czyli dałoby się jakby zmieniać barwę dźwięku
bez zmiany ani wysokości, ani tempa.
Tam różne rzeczy się da z tym robić,
no tylko nie zawsze jest po co.
Dałoby się tym RH Wojsem śpiewać, dałoby się robić różne rzeczy,
o ile oczywiście autorzy RH Wojsa chcieliby coś takiego zrobić,
na razie nie chcą, w związku z powyższym tego nie ma,
ale no dałoby się, jak się rzekło.
Bo to jest synteza generowana, czyli tam są filtry, oscylatory
i tak dalej, i tak dalej, tylko dość skomplikowane.
No i mamy kolejne zapotrzebowanie, słuchajcie,
podcast Mikołaj napisał, nagracie podcast o Oktarinie,
chciałbym posłuchać w praktyce.
No dałoby się, ja mam wersję Pro, nawet mam skaner,
tylko może poczekajmy chwilkę na rozwój sytuacji.
Bo błędy były zgłaszane i myślę, że warto by je zrobić
w momencie, gdy albo zostaną naprawione, albo Dawid stwierdzi,
że akurat jakichś błędów poprawia się nie będzie z jakichś przyczyn,
albo przynajmniej w jakiejś krótszej perspektywie nie będzie.
Dokładnie, ale myślę, że taki podcast rzeczywiście mógłby powstać.
No i jeszcze jedna wypowiedź od Kuby.
Dzięki, a tak w ogóle, to czy znacie jakieś odtwarzacze książek
dla niewidomych z ekranem dotykowym po polsku
i w pełni dla nas dostępne?
I jeszcze jedna taka sprawa, jak można uzyskać głosy neuronowe
po polsku na androida?
Tak, co do odtwarzaczy, to ja powiem, i trochę kontrowersyjnie tutaj powiem,
tani telefon Xiaomi z androidem.
Chyba jednak.
Bo jeżeli komuś naprawdę zależy na dedykowanym urządzeniu do odtwarzania
z jakiegoś powodu, to ja oczywiście nadal będę obstawiał przy swoim
i nadal będę obstawiał przy tym, że VoiceDream jednak to jest VoiceDream.
Na iOS lub odpowiedniki androidowe, no nie wiem czego się tam teraz używa,
bo to się zmienia.
SmartAudioPlayer w tej chwili to jest taki najbardziej zasadywny program.
Mapa VoiceAllowedReader.
A VoiceAllowedReader do tekstów, tak?
No tak.
Jest też LegereReader i są osoby zadowolone z tego czytnika, więc no.
No tak, w każdym razie to te aplikacje są, no ale jeżeli ktoś faktycznie
nie chce używać telefonu, bo mu przeszkadzają powiadomienia,
bo on chce mieć osobne urządzenie, bo on chce, żeby to mu bateria
dłużej starczała, bo on chce to, to, to i tamto, no to ja uważam,
że urządzenie z androidem, nawet nie jakieś super, nawet nie jakieś
nie wiadomo jakiej wysokiej półki, to nie jest zła opcja, bo co?
Włączamy…
Zwłaszcza jak chcesz z ekranem dotykowym, no bo…
Dokładnie.
Bo o ile mi wiadomo, nie ma takich urządzeń, które byłyby dostępne
dla niewidomych.
Bo te wszystkie czytniki pokroju…
A szczególnie dedykowane dla niewidomych.
Dokładnie, pokroju Czytak, Orion, Viktor i tak dalej, i tak dalej,
to to wszystko są urządzenia z klawiszami, no bo twórcy zakładają,
że jednak osobie niewidomej wygodniej będzie posługiwać się klawiszami.
Więc to podejrzewam, że to są urządzenia, w gruncie rzeczy,
dedykowane dla osób, no albo starszych, albo takich, które mają
trochę problemy z techniką, więc tam raczej będzie stawiane
na ich prostotę, niż jakąś zabójczą funkcjonalność.
Tak mi się przynajmniej wydaje.
Zgadza się.
Jeszcze jedną taką jakby rzecz myślę warto dodać, bo jednym argumentem,
który jest bardzo często podnoszony przez zwolenników urządzeń
do czytania fizycznych dla niewidomych, jest obsługa klawiaturą.
I jest to, że albo oni sobie chcą pauzę, oni sobie chcą cofnąć
i oni sobie idą gdzieś, względnie siedzą w kuchni i zmywają
i chcą mieć łatwiejszy do tego dostęp niż bawienie się ekranem dotykowym.
Ja tutaj polecam słuchawki do telefonu, które mają coś, że tak powiem,
na sobie, co pozwala nam na właśnie taką kontrolę.
Przesuwanie do tyłu, do przodu, pauza, stop i tak dalej.
Co na przykład w VoiceDreamie, no akcja przesuń do tyłu,
to nie jest poprzedni plik, tylko to jest przesunięcie się w nawigacji,
czyli tam o tyle, ile ustawimy, o 30 sekund, o 60 sekund,
o rozdział na główek, jak sobie tam wybierzemy.
Więc jeżeli czegoś na przykład nie dosłyszymy i chcielibyśmy się
faktycznie cofnąć, to możemy to zrobić.
Ja ostatnio, no trochę korzystam, bo sobie właśnie, nie wiem,
robię coś w domu, to mam włączoną książkę, założone słuchawki do kostne
i sobie tam gra, a ja sobie, nie wiem, jem, przygotowuję jedzenie,
sprzątam po nim cokolwiek.
No i zdarza mi się po prostu podnieść tylko rękę, raz, dwa, trzy,
nacisnąć trzy razy przycisk, żeby cofnąć i faktycznie cofnąć.
I to może być też dobre rozwiązanie oczywiście, bo czemu nie?
A co do głosów neuronowych, to odpowiem w sumie chyba dość przewrotnie.
No chyba te głosy od Google, a jak się zwolni na 50 czy ileś procent,
to są już wtedy neuronowe.
Tak mi się wydaje.
Ale może źle myślę, no to wtedy chyba nie mam co zaproponować.
Chyba nie mam co zaproponować, ale…
Chyba tak, no, Google i Serebrot, tak?
No to tak.
Apola.
Chyba są jedyne w tej chwili na Androida.
No dobrze, to przechodzimy dalej, przechodzimy do kolejnych tematów,
a w kolejnym wątku mamy kilka drobnych informacji od Pauliny.
Tak, pierwsza wieść, którą tutaj umieściłam nie jest stricte tyflo,
ale stwierdziłam, że już ją tutaj wezmę, dociągnę, bo jest malutka,
a może się nam przydać.
W rządzie pojawił się pomysł, który jest propozycją ministra
przewidzianą w projekcie nowelizacji ustawy o ewidencji ludności.
I niektórych innych ustaw.
Przewidziana taką propozycję zastrzegania numerów PESEL.
I to by działało tak, że zastrzegamy sobie taki numer
na przykład w momencie, kiedy zgubimy jakiś ważny dokument
albo mamy podejrzenie, że ktoś nim teraz kontroluje, zarządza.
I dzięki temu zastrzeżeniu, które będziemy mogli sobie z poziomu M obywatele
albo w gminie gdzieś tam w urzędzie na piśmie złożyć,
nikt nie będzie mógł na ten numer PESEL nam wziąć jakieś umowy,
kredytu, pożyczki, takich jakichś bardziej wrażliwych, ważnych rzeczy.
Zastanawiam się tylko, jaki to ma sens i ja, przynajmniej moim zdaniem,
to powinno iść w drugą stronę, to znaczy sam numer PESEL nie powinien być daną,
którą moglibyśmy w jakikolwiek sposób, cokolwiek, no, potrzyć się pod kogoś.
Bo ten numer PESEL tak naprawdę jest wartością, jest daną jawną.
Nie jest daną, która jest jakąś tajemnicą.
Tak jak np. nie powinniśmy podawać nikomu naszego numeru dowodu osobistego,
no bo ten numer to już jest zupełnie inna para kaloszy.
Natomiast nasz numer PESEL to jest dana, z którą w zasadzie może się zapoznać każdy,
jeżeli chociażby otrzyma od nas jakiś dokument podpisany profilem zaufanym.
No chociażby, tak z naszego podwórka, jak sobie wejdziemy na stronę bodajże mojepaństwo.pl
albo którąś z terenów ministerialnych, bo to też można wyciągnąć bezpośrednio z naszych rządowych archiwów
i sobie znajdziemy np. Fundację Prowadnica, to tam jesteśmy bez problemu w stanie wyciągnąć
taki piękny dokument, w którym jest opisane, a to kto w tej fundacji jest,
kto tam jest w zarządzie, jaki mają numer PESEL i datę urodzenia i parę jeszcze innych rzeczy.
To samo zresztą z każdą inną fundacją, z każdą inną organizacją, włącz np. szansą dla niewidomych.
Możemy sobie zresztą poczytać, jak stare osoby i w dość podeszłym już wieku są w radzie,
gdzieś tam w szansie dla niewidomych.
Tak, więc wydaje mi się, że to zupełnie nie w tę stronę powinno iść
i ja się nie spodziewam, żeby w jakikolwiek sposób to zadziałało,
bo tak naprawdę to my ten numer PESEL wtedy, to powinniśmy sobie zastrzegać
tak profilaktycznie co miesiąc i pytanie, kiedy się w końcu te numery PESEL skończą.
Inna jest kwestia, bo drugi scenariusz tego, jak to zastrzeżenie miałoby być wdrożone,
to po prostu tak, że człowiek sobie zastrzeże go na stałe,
a w przypadku brania jakiejś pożyczki, kredytu, czegoś,
będzie sobie na chwilę to zastrzeżenie zdejmował i podpisywał tę umowę.
No to chyba, że to w ten sposób miałoby działać,
ale niemniej jednak i tak wydaje mi się to dość dziwnym ruchem.
Znaczy, lepszy taki ruch niż żaden, dlatego informuję, bo ja się w sumie dość niepokoję tym,
bo też nie wiem do końca na przykład, jak załóżmy idę do jakiegoś urzędu,
czy nawet przychodni i mam pokazać ten dowód swój, czy gdziekolwiek indziej,
no to właśnie, czy po prostu sobie człowiek losowo nie spisze tego PESELu gdzieś tam na karteczce z boku.
Nie, no ale dowód, Paulino, to jest zupełnie inna sytuacja
i dowód osobisty, no to jest zdecydowanie inny kaliber danych.
To ja się zgadzam.
Gdzieś tam zastrzeganie dowodów i tego typu kwestie, no to jest zupełnie co innego.
Mi chodzi o ten konkretnie PESEL, bo ten numer podajemy tak naprawdę w tylu różnych miejscach
i on jest tak prosty do zweryfikowania, do sprawdzenia.
Jak mówię, ktokolwiek nam wysyła dokument podpisany profilem zaufanym.
To jest najprostsza rzecz.
Zależy nam teraz bardzo na tym wszystkim, żeby jednak ten podpis nawet i zaufany był powszechny.
Będziemy tych dokumentów wysyłać coraz więcej
i te numery naprawdę są w takiej sytuacji łatwe do sprawdzenia.
No tak, w każdym razie dobrze, że się o tym myśli, dobrze, że ta dyskusja gdzieś tam trafia.
I ma to być robione w taki sposób, że jest po prostu rejestr PESELów zastrzeżonych przez użytkowników
i każda firma, która będzie podpisywała taką wrażliwą umowę, czy bank, czy instytucja
będzie musiała do tego rejestru zajrzeć.
Jest taki głos, że jeżeli firma będzie chciała gdzieś tam ocieplić swój wizerunek,
to nawet jeżeli nie jest to wymagane, co ma się podpisać, to też żeby sprawdzała w tym rejestrze.
Kolejna sprawa, co jest już bardzo krótki news, tylko sygnalizacyjny, że jest kolejna edycja wolontariatu w Belgii
organizowanych przez Polski Język Niewidomych. Link jest w komentarzu.
Można się przejechać i nowych rzeczy się nauczyć, przetrenować język.
Już wiele razy o tym wolontariacie wspominaliśmy na łamach, więc może nie będę się dublować.
Kolejny, drobny news dotyczy Blizzarda.
Wspominam też o tym dlatego, że, jak można było przypomnieć, mamy nieoficjalne przedłużenie
moda do Hearthstone’a, no i też oczywiście World of Warcraft jest dostępny z modami.
Nie kupimy od już jakiegoś dłuższego czasu, chyba od jakiegoś miesiąca, przynajmniej wtedy to zauważyłam,
ale cały czas mi to jakoś umykało, żeby zasygnalizować, nie zapłacimy przelewami 24,
czyli odpada nam i blik, i przelewy z banków, zostaje tylko Paypal, karty i jakieś tam Alipay,
ale to wiadomo, że nas raczej nie urządzi.
Kolejna kwestia, jak gdzieś tam jesteśmy może już trochę poza, ale nadal przy temacie Davida Piepera,
no to w LT nie zostały podniesione ceny pakietów premium.
Teraz mamy od 1 stycznia te pakiety będą kosztowały 60 zł za pakiety podstawowe,
czyli tam skryba, kurier i tak dalej.
Cały wachlarz funkcji premium, czyli pakiet tzw. orkiestrowy 200 zł, a pakiet sponsorski 250 zł,
przy czym te ceny poprzednie wyglądały tak, że za pakiet podstawowy było 40 zł,
za 150 mogliśmy kupić pakiet orkiestrowy, a za 200 zł pakiet sponsorski.
Kolejna rzecz dotyczy Microsoft Forms, czyli bardzo popularnej platformy do przeprowadzania ankiet,
formularzy, badań i innych tego typu rzeczy.
Jakoś właśnie w tym miesiącu ma zostać wdrożona aktualizacja stopniowo do użytkowników,
która będzie pozwalała na wklejanie do odpowiedzi na quizy bądź ankiety rysunków,
które będzie można wybrać.
Oczywiście rodzi to obawy związane z dostępnością, ponieważ jest możliwe,
że dzięki temu, że rysunki będą mogły zostać umieszczone w odpowiedziach,
będzie ta funkcja wykorzystywana na tyle nagłynie, że w niektórych ankietach czy quizach
nie będziemy mogli wziąć udziału.
To tyle z drobnych newsów.
Pozostaje mieć nadzieję, że te teksty alternatywne będą jednak dość powszechne
i że Microsoft oczywiście o tym pomyślał w ogóle.
Miejmy nadzieję. Ja się jeszcze szybko podepnę z dwoma newsami moimi.
Ty Pawle zaraz będziesz też zresztą miał spory temat, ale słuchamy na razie drobnych informacji.
Tak, to te drobne są takie, że po pierwsze w zeszłym tygodniu, w zeszłej audycji
Mikołaj wspominał o takim zestawie narzędzi Access Kit, który pozwala na wdrażanie
dostępności w różnych środowiskach graficznych, które tej dostępności domyślnie nie mają.
I mówił właśnie o tym Mikołaj, że jedno już z takich środowisk, czyli EGUI,
zaczęło taką implementację wdrażać i nawet już się pojawiła pierwsza aplikacja demo,
na której można to przetestować.
Natomiast deweloper, który zdaje się jest odpowiedzialny za ten silnik,
za silnik BEVI, silnik do gier, poinformował na swoim mastodonie, że też będzie Access Kita
do tego silnika wprowadzał. To jest drobny news numer jeden.
Drobny news numer dwa, jest takie narzędzie na Maca, nie wiem czy Mikołaju testowałeś,
Velia, V-E-L-I-A, które pozwala na zdefiniowanie własnej aplikacji do otwierania
konkretnych typów linków, czyli linków z konkretnych domen.
No i na przykład jeżeli na co dzień używamy Safari, ale wolimy na przykład
dokumenty Google otwierać w Chrome, to możemy zdefiniować, by linki z dokumentów
Google otwierały się w Chrome.
Jakbyśmy chcieli, żeby Zoom nam się otwierał bezpośrednio do aplikacji na Macu
i otwierał nam po kliknięciu w link spotkanie na Zoomie, też można tak ustawić.
Już można pominąć ten krok z przeglądarką.
Więc takie narzędzie jest, no i można sobie z niego skorzystać.
A tymczasem mamy jeszcze kilka wypowiedzi na naszym formularzu,
w naszym formularzu kontaktowym.
Mikołaj napisał do nas, a wiecie może jak skontaktować się z Dawidem Pieperem,
bo to chyba niemożliwe teraz.
Chyba aż tak źle nie jest. Chociażby lten albo przez stronę fundacji prowadnica.org
to myślę, że takie najbardziej oficjalne kanały komunikacyjne.
Podejrzewam, że Dawid może być troszkę zajęty, ale trzeba próbować.
No i kolejny temat, tym razem podniesiony przez Kubę.
Wszystko już rozumiem, a takie jeszcze pytanie tak w ogóle.
Czy zrobicie podcast o specjalnym tablecie dla niewidomych z Windowsem 10
pod nazwą Inside One.
Dotykowy tablet brailowski.
Jeżeli kiedyś wpadnie w nasze ręce, to czemu nie?
Oczywiście.
Tak, ja wiem, że na Resze on bardzo często się pojawia.
Znaczy na Resze albo Redze, bo to przez samo H, czyli na Recha
najbezpieczniej powiedzieć.
Z tym, że z jakiegoś powodu dystrybutorzy niezbyt są chętni, żebym to testowała.
Już dwa razy przyłapałam.
Pierwszy raz było powiedziane, że jest hałas i niezbyt dobrze jest testować,
bo negatywne warunki mogą wpinać na moje negatywne wrażenia.
Drugi raz też jakoś tak było.
W sensie wstępnie byłam to w stanie jakoś tam przetestować,
ale to też chyba z tych wywiadów by się też coś dało wyciągnąć,
które leżą i czekają na montaż u Tomasza,
bo chyba w tym roku jakoś tam wstępnie mi się coś udało poeksplorować.
No to pozostaje czekać i pozostaje…
Już prawie zapomniałam o tym, co ja tam robiłam.
I pozostaje mieć nadzieję, że Tomek wyrobi się z tymi wywiadami jeszcze w tym roku.
A teraz przechodzimy do tematów innej konferencji.
Konferencji SciTech Global.
Pawle, o twoich wrażeniach słów kilka dziesiąt.
SciTech Global, czyli konferencja organizowana przez amerykański portal technologiczny TechCrunch.
Która ma na celu wyróżnienie projektów i dyskusję na takie tematy
z zakresu sztucznej inteligencji w służbie osobom z dysfunkcją wzroku.
No więc zaprasza się tam najróżniejszych przedstawicieli najróżniejszych firm,
zarówno takich już doświadczonych w temacie, jak i nowatorów,
którzy gdzieś tam dopiero przemierzają tą ścieżkę
i przykopują się, żeby ich produkt zaistniał.
Była to dwudniowa konferencja. Odbyła się ona w środę i wczoraj jeszcze w czwartek,
czyli 7-8 grudnia.
I była ona transmitowana na YouTubie, na kanale SciTech Global,
gdzie możecie zresztą znaleźć też filmy wszystkich wystąpień.
Oczywiście wszystko w języku angielskim.
No i powiem tak, w tym roku tak ogólnie dużo było takich wystąpień gadanych.
Takich, gdzie nie było zaprezentowane nic nowego specjalnie,
ale był taki wgląd powiedzmy w rzeczy, które już znamy.
Były wywiady np. z firmą Apple, z przedstawicielami działu dostępności firmy Apple.
Amazon się pojawił. Waymo, czyli ten taki startup od samojezdnych samochodów w Stanach,
który już tam jakieś floty po San Francisco puszcza.
Było dużo i to był dość duży temat tej konferencji,
wirtualna i rozszerzona rzeczywistość.
I tutaj pewne osiągnięcia są.
Było troszkę o Braille’u, było troszkę o takich ogólnych pojęciach,
czy procesy decyzyjne w AI jakieś takie,
czy stan jakby komputerowego rozpoznawania wizualnego się pogarsza czy polepsza.
Takich dużo bardzo teoretycznych, niemniej jednak ciekawych wystąpień.
Jeżeli kogoś temat interesuje, można sobie tego na YouTubie wysłuchać.
No a z rzeczy, które przykuły moją uwagę.
Moją uwagę przykuło wystąpienie osób w ramach grupy o dostępności…
Tak?
Przepraszam, zły przycisk.
Oj, w ramach grupy o dostępności rozszerzonej i wirtualnej rzeczywistości.
W ramach niej jedyną postacią, którą kojarzę jest Brandon Biggs,
czyli osoba, która aktualnie współtworzy na narzędzie Audium,
czyli te mapy takie dźwiękowe, które tutaj też demonstrowałem parę miesięcy temu.
Zdaje się jakoś tak w lipcu, czerwiec-lipiec, koniec czerwca.
I oni okazuje się, że zaczęli już działać w stronę właśnie rozszerzonej rzeczywistości,
wirtualnej rzeczywistości.
I założyli taką działalność jak XR Navigation, xrnavigation.io.
I w oparciu o Audium tworzą i dają też narzędzia do tworzenia map,
map budynków i map chyba też takich zewnętrznych, map świata,
które docelowo mają działać właśnie z rozszerzoną rzeczywistością i wirtualną.
Jest to ciekawe, bo dużo było tam dyskusji na temat tego właśnie,
jak osoba niewidoma miałaby się w takim świecie poruszać.
I okazuje się, że da się to zrobić.
To jest robione, tylko to wymaga dość dużego zaangażowania
ze strony osób tworzących takie treści, że można bardzo zainwestować w dźwięk,
wiele wskazówek udostępniać dźwiękowo.
No i takie rzeczy powoli już się dzieją.
Bardzo ważnym tematem podniesionym na tym wystąpieniu był temat,
a co jeżeli VR będzie stosowany w pracy?
No czyli przychodzimy do pracy, rekrutujemy,
dostaliśmy już powiedzmy naszą wymarzoną umowę o pracę,
podpisujemy i zaczyna się nasze szkolenie powitalne.
I nasze szkolenie jest tak naprawdę szkoleniem do samodzielnego modułem,
do samodzielnego przerobienia wirtualnej rzeczywistości.
No i tu jest problem, jest kwestia jakichś dostosowań,
tu dla osób niedowidzących, tu dla niewidomych.
Więc tutaj jest rola w tym, z jednej strony tych firm,
żeby nam zapewnić tego typu udogodnienia,
z drugiej strony rola jest też nasza, żeby o tym, jakie te udogodnienia powinny być,
informować i żeby nikt się nie musiał niczego domyślać,
ani żeby też przedstawiciele tego naszego pracodawcy
czegoś tam sobie nie zakładali z góry, bo to też jest błędne podejście,
ale to nie tylko jeśli chodzi o wirtualną rzeczywistość.
Brzmi to bardzo teoretycznie i tak jak takie gadanie,
ale w sumie bez pokrycia.
No to spodoba wam się drugie wystąpienie, w którym miałem okazję też uczestniczyć,
oczywiście jako słuchacz wolny jak najbardziej,
czyli wystąpienie firmy Alchemy Studios,
trochę jak Sowa i Alchemia, coś w tą stronę,
które to studio tworzy grę Cosmonius High.
Cosmonius High, czyli gra właśnie w wirtualnej rzeczywistości
z wykorzystaniem właśnie tych headsetów do VR-u,
która rozgrywa się w takim high school,
czyli powiedzmy odpowiednik naszego liceum, w liceum w kosmosie.
W liceum, do którego jako uczniowie na co dzień chodzą ci legendarni, mityczni obcy.
I my jesteśmy tym nowym dzieciakiem, który musi się w tym jakoś odnaleźć.
I robimy to właśnie w wirtualnej rzeczywistości.
I tu już poczyniono pewne działania, żebyśmy mogli w taką grę sobie,
jako osoby niewidome, zagrać.
I polecam to wystąpienie, bo wystąpienie zawierało też przykłady tego,
jak to konkretnie wygląda.
W dużej mierze jest screen reader i to o tym było całe wystąpienie,
że to studio stworzyło de facto screen reader pod tą konkretną grę,
pod wirtualną rzeczywistość.
Jak taki screen reader działa?
W dużej mierze polega on na gestach machania ręką,
wodzenia powiedzmy ręką w powietrzu nad tymi wirtualnymi przedmiotami.
Oczywiście my mamy cały czas na ręku wtedy też element tego headsetu.
Ale też wskazywanie palcem.
I w tym momencie my możemy wykonywać różne działania.
Prezentowane było to w ten sposób, że ktoś po prostu palcem wodził
po przestrzeni i w tej przestrzeni lokalizował różne przedmioty.
Jakieś na przykład legitymacje uczniowskie, jakieś tam szuflady,
w których były jakieś tam dokumenty i tak dalej.
I można było po prostu wykonując gesty w powietrzu wchodzić w interakcję
z tą grą.
Też bardzo ważna uwaga padła na tej prelekcji, w jaki sposób,
jeżeli mamy wchodzić w interakcję za pomocą elementów headsetu,
czyli jakichś przycisków, które na tym headsetie są i tak dalej,
no to w jaki sposób instruować osobę, która będzie grać w coś takiego,
a która ta osoba nie widzi, jak się w ogóle orientować.
No i tutaj poradzono zresztą dość słusznie i dość logicznie,
żeby informować o tym, którego elementu należy użyć,
podając informację względem naszego ciała.
Czyli użyj przycisku najbliżej twojego nadgarstka.
Użyj tam czegoś najbardziej, najbliżej ramienia i tak dalej.
I w ten sposób właśnie tworzy się tego typu doświadczenia.
Bo ja od razu Pawle zapytam. Szczerze mówiąc, wirtualna rzeczywistość
to jest coś, co nigdy jakoś specjalnie jeszcze nie było tematem
moich zainteresowań, ale jak rozumiem, jak na przykład podałeś
chociażby taki przykład szuflady, to osoba widząca, żeby na przykład
otworzyć tę szufladę, to też musi nacisnąć jakiś guzik na tym headsetzie.
To nie jest tak, że po prostu mamy tam jakiś wirtualny uchwyt
i symulujemy taki gest pociągnięcia do siebie.
Właśnie tak. Chyba oni tam tak zrobili, że my łapaliśmy w pięść powietrze
i on to wykrywał jako, że jeżeli mamy rękę nad tą szufladą,
to my de facto łapiemy ten przedmiot. To jakoś tak było zademonstrowane.
Nie wiem jak to jest w tej konkretnej grze, ale na przykład często wiem,
że w wirtualnej rzeczywistości tak, że trzymamy w ręce kontroler
i jakby my na tym kontrolerze trochę mamy przyciski, które pewne rzeczy
mogą zrobić i na przykład przycisk może nam zacisnąć rękę na czymś.
Czyli my jakby przesuwamy kontroler nad przedmiot, naciskamy ten przycisk,
że my go jakby chwytamy i w tym momencie podnosimy ten kontroler,
przynosimy go tam, gdzie ten przedmiot chcemy na przykład odłożyć
i puszczamy ten przycisk, żeby on został wpuszczony.
Więc tak samo analogicznie tutaj na przykład może być,
że my przesuwamy ten kontroler do uchwytu, ta nasza wirtualna ręka
jakby przesuwa się do tego uchwytu, chwytamy przyciskiem, ciągniemy
i puszczamy przycisk i wtedy jest na przykład otwarte.
Więc podejrzewam, że to może na tej zasadzie działać.
Być może. Nie wiem czy oni tam właśnie bardziej nie chcieli
w tych gestach polegać, ale może być też tak jak mówisz.
Gra Cosmonius High jest dostępna już na Steamie.
Nie wiem czy te usprawnienia dostępności, które były demonstrowane
w czasie prelekcji już tam są. Natomiast nie mówimy już o produkcie,
który gdzieś tam w jakimś laboratorium powstaje i może kiedyś tam
do niego dotrzemy, tylko to jest gra, która już oficjalnie się ukazała.
Autorzy też przyznają, że oni nie budowali dostępności od początku,
ale już teraz napotykają na pewne ograniczenia, których nie są w stanie obejść,
bo wzięli się za ten proces zdecydowanie za późno.
Natomiast z tym, co zrobić mogą, starają się zrobić najwięcej,
jak się tylko da. No i miejmy nadzieję, że niedługo sobie będziemy mogli
pograć też jakoś w tę grę. Zdaje się, że też tam opracowano jakiś system,
aby można było sobie samodzielnie odpalić to udźwiękowienie,
czyli screen reader. Więc no może ktoś z was będzie miał jakiś taki sprzęt
i będzie w stanie w tą grę zagrać i nam coś zademonstruje.
Tak szczerze to trochę źle się czuję z tym, że się deklaruje,
bo zawsze to może nie wypalić. Ale u mnie na uczelni jest biuro,
znaczy biuro, laboratorium VR-u i mam bardzo sympatyczną panią,
która to prowadzi, więc myślę, że gdybym się z nią zmówiła
na jakąś sesję testowania tego, to na pewno byłaby za,
bo kiedyś właśnie na początku października, w sumie na początku
moich studiów miałam przedmiot z VR-u i ona była bardzo zasmucona tym,
że nie jest w stanie absolutnie nic pokazać z rzeczy dostępnościowych,
więc nawet kłosi mnie, żeby po prostu napisać maila albo jakoś inaczej
się skontaktować z twórcami i spytać, czy mogę to jakoś przetestować
i wtedy bym dała jakiś feedback.
No to ja jestem ciekaw, będę na pewno z niecierpliwością czekał
na tutaj wyniki twoich testów. Myślę, że słuchacze również.
Natomiast to nie wszystko, co było zademonstrowane na konferencji.
Był też panel Amazonu i tutaj była cała dyskusja na temat Aleksy.
W ogóle nie wiedziałem o tym, nie wiem, czy wy wiedzieliście,
że Aleksa była po raz pierwszy zademonstrowana na C-SAN-ie
jako w ogóle prototyp. W każdym razie w jakiś sposób
osoby niewidome były jednymi z pierwszych testerów Aleksy
albo pierwszą grupą, której zademonstrowano to, co asystent głosowy
będzie mógł w przyszłości. To było dla mnie nowe,
dlatego tego nie wiedziałem, jakoś czuję się tym zaskoczony.
Natomiast oczywiście dużo, dużo mowy o tym, co już zostało zrobione,
w jaki sposób ta dostępność jest tam w to wszystko wtopiona,
na ile pomaga, na ile nie. Ale z nowości, z takich rzeczy,
które albo gdzieś już weszły niedawno stosunkowo, albo dopiero wchodzą,
to na przykład pomyślcie sobie tak, powiadomienia.
Aleksa potrafi, czy powiedzmy głośniki amazonowe, potrafią nas
informować o różnych rzeczach, potrafią nam wysyłać powiadomienia,
jakoś się tam odzywać. Jeżeli nie ma nas akurat w pokoju
i przegapimy to powiadomienie, no to osoba widząca ma diodkę,
ma lampkę, która się świeci i widać, że jakieś powiadomienia są,
więc wiadomo, że warto asystenta zapytać, czy te powiadomienia
jakieś tam dla nas rzeczywiście są i o co chodzi.
Osoba niewidoma tej diody nie widzi, no więc co wymyślono?
Wymyślono funkcję, która sprawia, że głośnik wykrywa,
czy my jesteśmy w pokoju i robi to na wiele różnych sposobów,
bo z jednej strony po prostu wysłuchuje dźwięków,
czy ktoś w pokoju się porusza. Z drugiej strony próbuje wykryć
dźwięk naszego głosu, więc jeżeli słyszy, że my coś mówimy,
a nie ktoś inny, no to wie, że to my. My niewidomi właściciele głośnika.
A w przypadku modelów tych show, eco show, no to na kamerze
stara się wykryć nas, rozpoznać i zidentyfikować, czy my to my.
No i kiedy ma już pewność, że zostaje wysłuchana,
informuje automatycznie o tym, że jakieś powiadomienia nowe są.
No brzmi jak niesamowite szpiegostwo. Brzmi też nieźle futurystycznie,
brzmi też jak coś, co mogłoby potencjalnie nie działać w 100% przypadków,
bo to rozpoznanie może często też być złe.
Aczkolwiek, nie wiem, nie testowałem. Jeżeli ktoś miał jakieś doświadczenia,
no to dajcie znać. Też dużo mowy było na temat rutyn,
czyli tych zestawów różnych czynności, które są wykonywane w zależności
od kontekstu, od pory dnia, od naszej komendy i tak dalej.
I coś, nad czym się teraz pracuje, to jest też takie inteligentne rutyny,
czyli powiedzmy, jeżeli mamy tych urządzeń inteligentnego domu podłączonych trochę,
powiązanych z tym systemem, ekosystemem Amazonu.
I Aleksa odnotuje, że my na przykład zawsze, kiedy idziemy spać,
to zamykamy drzwi do garażu, gasimy światło, wyłączamy muzykę,
coś tam jeszcze robimy. To w momencie, kiedy idąc spać,
my do naszego głośnika powiemy coś w stylu good night,
to głośnik zasugeruje, zawsze, kiedy idziesz spać,
chciałeś wyłączyć światło, a teraz tego nie zrobiłeś.
Czy mam wyłączyć światło? Więc tutaj w tą stronę to też zmierza.
No i to też w jakiś sposób jest też tworzone z myślą o osobach
z dysfunkcją wzroku. Taką ostatnią nowością,
która mnie jakoś, powiedzmy, zainteresowała na tej konferencji,
bo było tego więcej. Byli Humanware i oni prezentowali z jednej strony…
Nie, Humanware prezentował Stellar Treka i o Stellar Treku było najwięcej.
Było APH i opowiadali oni o, oczywiście, swoim nowym czytniku brailowskim,
tym takim graficznym wyświetlaczu, nad którym dalej pracują.
Było Dot Incorporated, oni mówili o Dotpadzie, w ogóle nie miałem pojęcia,
że linia firmy Dot gdzieś tam inspiracją do tworzenia tych produktów brailowskich
było umożliwienie dostępu do Pisma Świętego, do Biblii.
Więc taka ciekawa, nietypowa historia z założenia produktu i firmy.
Ale była też cała sekcja poświęcona różnego rodzaju noszonej technologii okularom.
Byli ARX Vision z Wielkiej Brytanii, o którym Ty, Mikołaju, kiedyś mówiłeś
przy okazji konwencji NFB. No i było nowe dziecko tego rynku, czyli Celeste.
Celeste, czyli też okulary. Okulary tworzone w Kanadzie przez duet
widzący twórca i niewidomy użytkownik, który jest teraz również tam
współrządzącym w firmie, która wokół tych okularów powstała.
I czym te okulary się wyróżniają? One oczywiście na ten moment
oferują te funkcje, czy planują oferować, które już znamy z innych rozwiązań
tego typu. No niedawno mieliśmy tutaj okazję recenzować Envision Glasses.
No i podobna funkcjonalność jest też, czyli rozpoznawanie tekstu,
obiektów i tak dalej, wideoasysta. Była mowa o sieci wolontariuszy Celeste
oraz nasi znajomi, rodzina i znajomi. Potem moderator całego wydarzenia
wspominał coś o Be My Eyes. Nie wiem, czy on się przesłyszał,
czy to jest jego jakieś marzenie, żeby to było wspierane.
Natomiast, co ciekawe, te okulary mają kosztować dużo, dużo, dużo mniej
niż np. takie Envision Glasses. Dla przypomnienia Envision Glasses to 2,5 tys. euro.
Celeste ma kosztować 950 dolarów, więc tu już ta kwota jest dużo, dużo niższa
i schodzi do takich kwot za powiedzmy z wyższej półki, ale smartfon
albo jakiś taki średniopółkowy laptop. Nie wiem, jak to będzie działać
ostatecznie. Nie wiem, jaka będzie tego jakość, ale cenowo brzmi to ciekawiej.
Na ten moment jest bardzo podstawowy touchpad, który pozwala na zmianę
głośności i wykonanie jakiejś szybkiej akcji. Na razie jest ustawiony
na robienie zdjęcia. W zależności od tego, czy pociągniemy palcem w górę,
w dół, czy w lewo, czy w prawo, to te akcje są już na sztywno przepisane
i są dość mocno ograniczone. Większość operacji, które chcemy wykonać,
musimy wykonać na ten moment z aplikacji. Jest aplikacja mobilna,
którą instalujemy i za pomocą tej aplikacji wybieramy te różne tryby
tych okularów, inicjujemy różne działania, a okularom pozostawiamy
dźwięk i obraz. Dźwięk, tutaj warto o tym wspomnieć, to już nie jest jakiś
głośnik, który będzie wrzeszczał nam na przysłowiowe pół ulicy i pół miasta,
tylko słuchawki z przewodzeniem kostnym. Okulary są też dość lekkie,
bo ważą jedynie 55 gram i na ten moment dalej jest rozważane,
jak będzie wyglądało ostatecznie sterowanie tymi okularami,
bo touchpad to jest jedna opcja, ale też są rozważane jakieś przyciski.
Na pewno priorytetem jest to, żeby jak najbardziej te okulary
uniezależnić od aplikacji. No i autorzy tego rozwiązania, twórcy są
bardzo otwarci na najróżniejsze opcje, co by można z tym zrobić w przyszłości.
Rozważali jakąś nawigację wewnątrz budynków, poza budynkiem,
rozważali tryb słuchawek bluetooth, czyli żeby smartfon podpiąć
do takich okularów i żebyśmy też mogli słuchać naszego smartfona,
prowadzić rozmowy, słuchać muzyki przez właśnie takie okulary,
nie robiąc nimi te różne rzeczy, do których one zostały stworzone.
I no już można w przedsprzedaży składać jakby zamówienia przedsprzedażowe.
Gdzieś za pół roku mniej więcej powinny one trafić do produkcji.
No i wtedy zaczniemy się przekonywać, co z tego tak naprawdę wszystkiego wyjdzie.
Mam kciuki, bo zawsze jestem ciekaw tego typu nowych rozwiązań,
bardzo jestem ciekaw wykonania, jestem ciekaw pierwszych recenzji.
Ale jak rozumiem Pawle, na razie nie ma mowy o tym, żeby te okulary miały działać
jako kamera, tak?
W jakim sensie jako kamera? One mają kamerę wbudowaną.
Ale na zasadzie takiego, wiesz, właśnie połączenia się,
tak jak Envision Glasses z kimś.
Tak, to jest pierwsza podstawa w afunkcie tych okularów.
Okej, okej, bo gdzieś mi to utknęło.
To jest to, co już jest.
To faktycznie wygląda to interesująco, jeżeli tak.
I jeżeli będą tu te dodatkowe rzeczy, no to już w ogóle ciekawie.
Zastanawiam się tylko, jak to będzie działo.
Czy to będzie dedykowana aplikacja, czy coś globalnego?
Aplikacja już jest, ona się kończy tworzyć na iOS-a i Android-a
i na razie służy do sterowania tymi okularami.
Nie, nie, nie, ale jako ta kamera, tak?
Czy to będzie na zasadzie takiej, że tylko w tej aplikacji?
Czy w końcu uda się to zrobić tak, żeby to mogła być taka zdalna kamera
do naszego smartfona?
Na razie obawiam się, że to będzie raczej dedykowane.
Mowa była o sieci wolontariuszy Celeste oraz naszej rodzinie i znajomych.
Czyli podobnie jak Envision.
Tak, i mówię, moderator coś mówił o Be My Eyes,
ale nie wiem, czy to była bardziej kwestia, znaczy prowadzące wydarzenie,
kwestia tego, że on sobie pomarzył, czy rzeczywiście te okulary
mają tego Be My Eyes-a wspierać.
Nie wynikało to bezpośrednio z prelekcji,
ale to nie oznacza, że w przyszłości się Be My Eyes tam nie pojawi,
bo to jest ich sprzęt i oni mogą sobie na nim robić,
co tak naprawdę im się tylko podoba.
Oczywiście.
Miejmy nadzieję, że wyjdzie z tego coś ciekawego
i że za tą cenę będzie to sprzęt rzeczywiście godzien uwagi.
Było trochę więcej też ciekawych prelekcji.
Była na przykład prelekcja z Pixarem, gdzie opisany był cały proces,
jak Pixar tworzy z sobie audiodeskrypcję.
Pixar, czyli twórcy znanych, takich familijnych kreskówek,
chociażby Toy Story, Auta, Coco, W głowie się nie mieści i tak dalej.
Nie wiem, czy Zwierzogród też nie jest Pixara.
Gdzie jest Nemo, to z takich starszych na przykład.
To teraz już w ogóle część Disneya chyba, z tego co wiem.
Można było sobie posłuchać, jak u nich powstaje audiodeskrypcja,
jak to jest zlecane, jak tam pracuje nad tym cały zespół ludzi
na co się zwraca uwagę, żeby ta audiodeskrypcja miała taką jakość jaką ma.
Polecam ogólnie się rozejrzeć po tych prelekcjach, bo są one ciekawe.
Nie trwają długo. Niektóre są tak 45 minut do godziny,
ale są też takie półgodzinne, więc myślę, że warto się przysłuchać
i coś dla siebie wynieść z tego.
A teraz przechodzimy do kolejnego tematu,
do nawigacji na Apple Watch, Mikołaju.
Tak, bo się pojawiła taka informacja, że w najnowszym systemie Watch OS
jest opcja punktów trasy na Apple Watchu,
która występuje w modelach SE, 6 i wyższych.
I ona jest taką prostą nawigacją na azymut, jaką my znamy
z Apex dla niewidomych, z Lodestone’a i wszystkich pochodnych.
Raczej przydatna w miejscach typu camping, typu plaża,
typu wielkie jakieś pole.
Nic tam nie ma, nie ma drogi, my nie idziemy ulicą,
tylko my po prostu chcemy znaleźć wyjście, toaletę, coś tego typu
i po prostu chcemy, żeby nas ponawigowało w tym danym kierunku konkretnym.
No i funkcja działa bardzo prosto, wchodzimy sobie w aplikację Kompas,
dodajemy sobie taki punkt w naszej obecnej lokalizacji
i potem z aplikacji Kompas możemy sobie na punkt kliknąć
i wyświetli nam się informacja jaka jest do tego punktu odległość
oraz gdzie ten punkt się znajduje wobec nas względem jakby
przedniej krawędzi zegarka, czyli jak wyciągniemy sobie tak rękę
albo podniesiemy rękę, żeby sprawdzić godzinę.
No to tam będzie jakby przód, za nami będzie wiadomo tak jak to wygląda.
No i jak się obracamy, no to zgodnie z Kompasem będzie nam pokazywało
gdzie wobec nas dany punkt się znajduje.
Możemy również punkt dodać sobie do ekranu głównego
za pomocą tak zwanych aplikacji i w tym momencie naszej tarczy zegarka
za pomocą tak zwanych aplikacji i tam co prawda nie będzie nam
pokazywany kierunek do punktu, ale będzie nam pokazywana
odległość do punktu, co może się przydać jeżeli na przykład
jeździmy wszelkiego rodzaju komunikacją, czy to miejską,
czy to na przykład też koleją, możemy sobie dodać tam jakąś
naszą ulubioną stację kolejową, na której bardzo często wysiadamy.
Jeżeli ktoś na przykład mieszka gdzieś tam tak jak ja w jakiejś
małej wiosce i jakby często tam jeździ i no nie jest to stacja,
gdzie pociąg jakoś długo stoi, nie jest to stacja duża, na której
mamy spokojnie dużo czasu, żeby wysiąść z dwustoma innymi osobami,
które w tym momencie wysiadają z pociągu, to taka funkcja może być
mu przydatna, no bo wtedy sobie tylko sprawdzi, okej, dobra, jeszcze tam
8 kilometrów zostało do stacji, no to jeszcze mogę siedzieć,
a teraz zostały dwa, no to wypadałoby może się uruszyć w kierunku drzwi.
Więc w takich tematach właśnie przystankowo-kolejowych ta funkcja
również może mieć swoje zastosowanie.
No i to tyle, jeżeli chodzi o nawigację na Apple Watchu.
A jeżeli chodzi o Apple Watch Ultra, to już mogę powiedzieć,
że w poniedziałek po godzinie 19 z Piotrem Witkiem sobie porozmawiamy
na temat tego zegarka, zatem jeżeli was interesuje ten temat,
no to słuchajcie Tyflo Radia w przyszłym tygodniu.
A teraz następny temat, tym razem coś dla osób słabowidzących,
które być może niekiedy mają problem z czytaniem tekstów BrightPage.
Jest takie rozwiązanie, które ma im w tym pomóc. Więcej wie Paweł.
Tak, BrightPage, rozwiązanie brytyjskie.
Jest to taka aplikacja, to jest z jednej strony aplikacja mobilna,
zarówno na iOS-a jak i Androida oraz aplikacja webowa w przeglądarce,
która pozwala na ten moment, ma to się rozszerzyć z czasem,
na czytanie plików PDF. Co jest w tej aplikacji szczególnego?
No oczywiście jest możliwość dostosowania sobie kontrastu,
czcionki, tych różnych rzeczy takich wizualnych, które zazwyczaj się dostosowuje,
ale wykorzystano tam taką dość nową technikę.
I teraz mam nadzieję, że nie zepsuję opisu tej techniki,
bo ja sobie niestety mogę jedynie to wyobrazić.
I tutaj szkoda, że nie mamy w zespole kogoś, kto jest słabo widzący,
bo by się mógł nam wypowiedzieć o tym, na ile to w ogóle ma sens.
Ponoć jest taki sposób czytania, umknąłem teraz naukowa nazwa tego,
ale było to jakoś badane, udowodnione i tak dalej,
że mierzy się to, jak my mrugamy, ruszamy gałkami ocznymi, czytając tekst.
My, te osoby, które czytają tekst wizualnie.
I BrightPage przewija tekst automatycznie,
ale nie tak tradycyjnie, jak to zazwyczaj się dzieje,
tylko w taki sposób, w jaki my poruszamy gałkami ocznymi.
W sensie rozumiem, że nie my jako, że tam jest jakiś nasz indywidualny profil
przez kamerkę, przez jakąś obserwację nas wytworzony,
tylko na zasadzie badania tego, jak nasze gałki oczne w takiej sytuacji
się zazwyczaj poruszają.
To też o takie powiedzmy inkrementy, o takie gdzieś drobne jednostki
ten tekst się przewija, żeby jakby symulować to nasze poruszanie gałek ocznych.
I to, ponoć, jest to gdzieś naukowo udowodnione, sprawia,
że tekst dużo przyjemniej się czyta, zwłaszcza przy różnorakich wadach wzroku.
I na to rozwiązanie BrightPage pozwala.
Ono jest dostępne, z tego co wiem, za darmo na ten moment
i również na ten moment pozwala jedynie na czytanie PDF-ów,
ale z czasem, tak jak już wspominałem, ma się to rozbudować też o inne opcje,
bo już osoby używające tego rozwiązania zgłaszają chęć,
że chciałyby czytać takie czy inne treści.
No to trzymamy kciuki za rozwój tego rozwiązania.
Możecie do nas dzwonić, wspominałem o tym, możecie do nas pisać.
Z opcji dzwonienia skorzystał Grzegorz, który już właśnie się łączy z nami
i zaraz podejrzewam, że pojawi się na naszej antenie.
Jeszcze tylko, Grzegorzu, musisz sobie odciszyć mikrofon,
w praktyce zezwolić na nagrywanie, pamiętajcie o tym,
no bo bez tego to niestety, ale nie porozmawiamy,
bo Zoom nie pozwoli wam tego mikrofonu włączyć.
Już widzę, że się udało. Witaj, Grzegorzu.
Halo?
Tak, teraz cię słychać.
Aha, to dobrze.
No bo tak, mam tam parę rzeczy do powiedzenia.
Słuchamy.
5 minut mogę zająć?
No słuchamy, słuchamy, antena jest twoja.
Aha, no dobra. Pierwsze to tak, Pawła Machasarczyka bym chciał sprostować,
bo tam parę, no tam z pół godziny temu chyba o płaceniu kartami,
o tych rozwiązaniach, no i tak w Google Pay nie ma czegoś takiego,
że tam ktoś może ci, nie wiem, terminal podsunąć
i kasę zciągnąć, tylko trzeba telefon odblokować.
I to nawet nie, bo ja mam włączone na Androidzie rozpoznawanie twarzy.
No i to też jest fajne, bo podnoszę telefon
i sobie telefon odblokowuję rozpoznawaniem twarzy.
No i tak jak, no tak, to przyszło tak, że poszedłem do sklepu,
chciałem zapłacić, no po prostu odblokować telefon rozpoznawaniem twarzy,
a tu nie przeszło, co nie, w ogóle.
Trzeba odblokować odciskiem palca albo pinem po prostu na ekran główny
i dopiero wtedy można zapłacić, więc tutaj nie ma obawy,
że tam też terminal.
Mi chodziło bardziej, Grzegorzu, o sytuację, w której mamy
już odblokowany telefon, coś sobie na nim robimy
i ktoś do nas podchodzi, bo słyszałem, że takie rzeczy się też potrafią zdarzyć.
Zwłaszcza, że…
I nawet na to powstają specjalne etui do telefonu, które wygłuszają ten ruch,
ale to nie wiem, no może to jest tak jak te aplikacje, które blokują
promieniowanie 5G.
Tak, tak, może tak być, ale…
To od razu mówisz, że to nie jest jakiś mega potwierdzony news,
ale też coś takiego do mnie dotarło.
Natomiast no to chyba jest tak, że o ile mamy odblokowany telefon,
wszystkim, no nie wiem, pinem, odciskiem po prostu go używamy,
to to NFC jest aktywne cały czas, to nie jest jak w Apple,
że trzeba nacisnąć i wejść w ten tryb Apple Pay, żeby je uaktywnić.
Aha, aha, no ale akurat tego typu sytuacje to myślę, że to raczej…
No wątpię, żeby to tak…
To już bardziej karta…
To już tak…
Bardziej można to, że tam, nie wiem, tam w autobusie czy coś,
ale to są jakieś fantazje, bo…
Bo raczej nie słyszałem gdzieś nigdzie w mediach, żeby tam
takie rzeczy dochodziło, więc tak myślę.
A poza tym terminale, no to jednak tylko firmy mogą założyć,
więc tutaj…
O, to wszystko teoretycznie.
O, teoretycznie, no ale…
Nie, są takie… Przepraszam, że się wstrącę.
Są takie terminale, które mogą być przez osoby prywatne,
z tego co wiemy, używane.
Bardziej to jest też inna kwestia, że jeżeli ktoś nam ukradnie telefon
i nam go po prostu wyrwie z ręki, to nie blokuje…
Jeżeli uda mu się na tyle, powiedzmy, co tam 15 sekund
po prostu go dotknąć, żeby on się nie zablokował,
to może pójść do sklepu i po prostu coś kupić
i zapłacić sobie naszym telefonem.
No tak, bo ta biometria w tym momencie w żaden sposób nie jest potrzebna.
Dobrze, Grzegorzu. Czy coś jeszcze?
No tak jeszcze trochę tam…
Testowałem aplikację ZUS-u na Androida.
Też miałem się parę tych przeglądów się odezwać,
ale jakoś, kurde, nie mogłem.
Aplikacja jest uboga w opcje, że tak powiem.
Tam jest 500 plus i 300 plus, nic więcej.
Ale jeśli chodzi o dostępność, to tam jest nie za bardzo z nią.
Jak tam pierwsze…
Jakiś tam samouczek, jest tam coś, jakieś tam dalej, dalej, dalej.
Żeby aktywować aplikację, to trzeba albo na drugim telefonie
albo na komputerze sobie do konta ZUS-u zalogować.
Tam trzeba wejść w jakieś ustawienia i tam dodać urządzenie mobilne.
No i tam jest kod QR albo taki numer długi tam do wpisania.
Wszystko fajnie, to się da zrobić.
Ale potem przychodzi do nadawania PIN-u.
No i tutaj, no niestety.
Z TalkBackiem nie za bardzo.
Na iOS-a to nawet mi się testować nie chciało,
skoro na Androidzie.
Klawiatura jest czytana, te cyferki wszystkie,
ale się nie wstukają.
Trzeba wyłączyć TalkBacka, albo próbować z dwukrotnym przytrzymaniem.
Może się uda.
I też nam nie mówi, czy się tam kropka wpisuje,
czy nie wpisuje nic po prostu.
No tutaj na tym etapie…
Czyli de facto sami tam się nie zarejestrujemy w tej aplikacji.
Przynajmniej na Androidzie.
No przynajmniej na Androidzie.
Ja tam słabo wiedzę, jakoś tam sobie powiększę.
No coś tam kurde się udało.
No jak się zalogowałem, to ja mówię, że tam jest biednie.
Ale tam jest boczne menu.
I fajnie, żeby przycisk do bocznego menu był czytany z TalkBacka.
No nie, nic nie jest czytane, tylko TalkBack jak tam…
Ten przycisk jest w lewym górnym rogu ekranu
i dopiero zorientujemy się, jak TalkBack zawibruje,
że tam coś jest.
Jak zawibruje, tam można w to kliknąć, rozwinie boczne menu.
Ale tam też jest biednie, bo tam są jakieś ustawienia typu, nie wiem,
powiadomienia typu, jakieś informacje o nazwie,
jakieś informacje prawne, jakiś loguj.
Na dole mamy zakładki tam chyba usługi.
Usługi to mamy dwie na ten moment, czyli tam 500 i 300,
więc to mnie nie dotyczy.
Potem mamy chyba powiadomienia czy wiadomości, już nie pamiętam.
Czyli tam, gdzie jest status wniosku, czy wysłany, potwierdzony, tego.
No i trzecia zakładka to jest chyba jakiś kontakt z usługą,
czy to jakieś tam, nie wiem, Facebooki, czy coś tam takiego było.
No i to jest cała aplikacja w sumie do ZUS-u.
No, czyli tak naprawdę to jest to, czego się można było spodziewać,
o czym mówiliśmy, że jak na razie to zbyt wielu rzeczy tam nie będzie.
Zobaczymy, jak będzie z rozwojem.
Ja myślę, Grzegorzu, że po tych twoich testach,
to warto było by się odezwać do ZUS-u z jakąś informacją
na temat problemów z dostępnością ich aplikacji,
no bo oni są zobligowani do tego, żeby to jednak dostępne było
jako instytucja publiczna.
No, więc to tak to wygląda. Trzecia rzecz, PASKEJS, też byście gadali o tym.
Jest na Androida, mam Androida 12, no bo jest taka strona demo, taka PASKEJS.
Tak, pokazywaliśmy, nawet nie tylko pokazywaliśmy, co kilka tyfloprzeglądów temu,
też wspominałem o tym, o tej stronie demonstracyjnej.
Tak, i to działa normalnie na Androidzie 12 z Chrome’em,
tam się wpisuje adres e-mail i potem cię prosi o odcisk palca,
no i wyskakuje okno z odciskiem palca i daje się odcisk i już jesteś zalogowany.
Tylko jestem ciekawy, bo o ile do logowania to może to być fajna rzecz,
tylko jak chodzi o zakładanie konta na coś takiego?
Bo jeżeli ja założę to na przykład na Androidzie, takie konto za pomocą tego PASKEJA,
to ciekawe, czy będę się mógł potem na przykład na iOS się zalogować też za pomocą odciska palca.
Czy to jakoś ten odcisk przechodzi, czy jak to działa w ogóle?
Szczerze mówiąc nie pamiętam jaki tam dokładnie był mechanizm, może ktoś z was?
Nie, szczerze mówiąc nie.
Ale wydaje mi się, że to jest coś, że ta biometria jakby w tym naszym telefonie
to jest jakaś taka jeszcze warstwa pośrednia, a coś tam jeszcze chyba jest pomiędzy tym,
ale nie chcę zgadywać, powiem szczerze, bo nie pamiętam dokładnego działania tego mechanizmu PASKIS.
Zastanawiam się, jak to ma działać bez hasła, czy to tylko jakoś, nie wiem,
bo jak to zakładam konto na jakiejś stronie, no to na tą stronę wchodzę przez różne systemy,
czy to Android, iOS, czy przez Windowsa i jak to pomiędzy nimi to się to…
Z tego co pamiętam idee były takie, żeby to się mniej więcej synchronizowało chmurowo,
tam gdzie może, czyli powiedzmy iOS do Maca, do wszystkiego, żeby to się synchronizowało chmurowo,
a tam gdzie nie może, żeby skorzystać jakby z innych metod do dodania powiedzmy takiego nowego klucza,
czyli na przykład, nie wiem, link na mailu i weryfikacja po prostu po mailu,
że ty to ty, względnie po SMS-ie, względnie po czymś takim,
no ale zakładamy, że jakby to sobie raz gdzieś tam zrobimy i to już zostanie nam zapisane gdzieś tam na stałe
powiedzmy, nie wiem, w Windowsie, już teraz w Windowsie będziemy sobie to mieć,
no i teraz jeżeli w jakiejś tam chmurze powiedzmy, no i teraz jeżeli kupimy sobie nawet, nie wiem, Maca
i potrzebujemy tego zrobić w innym ekosystemie, to po prostu wtedy tą weryfikację przeprowadzamy jeszcze raz.
Tak przynajmniej mi się wydaje, że tak to miało działać.
No i w tym momencie mamy też te nowe paski gdzieś tam wygenerowane dla Apple’a
i iOS, Mac, iPad wszystko umie teraz już z tego korzystać.
Tak, ale tu jest jeszcze ten punkt centralny w postaci naszego adresu mailowego.
Tak, i on zawsze będzie i on zawsze musi być, bo no on, albo to oczywiście nie musi być adres email,
to może być, nie wiem, PESEL, numer dowodu, telefonu, numer, identyfikator klienta,
cokolwiek, imię, nazwisko, coś co nas po prostu identyfikuje,
no i potem już sobie serwis może zadecydować w jaki sposób on nas chce zidentyfikować.
Jeżeli to jest, nie wiem, bank, to on nam może powiedzieć, że pokaż nam dowód,
zrób nam selfie, tak jak na przykład Revolut, a jeżeli to jest, nie wiem, jakaś zwykła prosta strona,
to wyślemy Ci kod mailem i wpisz kod z maila.
Aha, no to jakby to miało tak działać, no zobaczymy jak to wyjdzie w ogóle w praniu.
Tak, co do kolejnego dema, jakby ktoś chciał zakładać sobie mastodona na własnym serwerze,
no ja nie, na razie nie mam jak to fizycznie, że tak powiem, na własnym komputerze czy coś,
próbowałem na Debianie zainstalować Juno Hosta i się po prostu jakoś nie da.
Jest Juno Host jako system normalnie do zainstalowania na komputerze,
nie tyle, że wymaga całego dysku, bo próbowałem artycje wydzielić,
ale instalator po prostu nie przepuszcza.
Co do instalatora, to jest po prostu Debianowaty instalator,
po prostu tam trzeba wcisnąć S i po prostu tam synteza się odezwie po angielsku,
wybieramy język na polski, będzie gadać po polsku, no i wiadomo jak dalej.
No tyle, że mi się jakoś nie udało, ale jest strona demo tego interfejsu,
to jest interfejs webowy, bo to wszystko przez stronę, jak taki serwis postawimy na komputerze,
no to się łączymy przez to przez inny komputer, przez telefon też właśnie można,
na taką stronę administracyjną tego Juno Hosta.
Jest takie demo na stronie junohost.org, tam gdzieś jest demo tego całego panelu.
No i tak tyle tych, którzy by chcieli się w tym zabawić, żeby tam sobie coś postawić,
czyli Juno Hosta drona, czy inne tam takie rzeczy.
Drona, tam link chyba w komentarzu wrzucę, jak audycja będzie, to będzie można przetestować.
Hasło do panelu to jest demo i normalnie przez telefon z Androidem można się tam zalogować.
Można utworzyć użytkowników, zarządzać użytkownikami, jeżeli tam więcej tych serwisów,
czy aplikacji tam chcemy postawić, zarządzanie domenami.
Juno Host ma jakieś swoje domeny, takie darmowe, które można tam wykorzystać,
albo swoją wykupioną tam można.
No i tam można aplikacje zainstalować, tam jest taka wyszukiwarka,
czy ma Stodona, czy Next Clouda, czy WordPressa, czy co tam.
Tyle, że na wersji demo tych aplikacji nie zainstalujemy,
bo po prostu tam błąd wyskakuje, 502, czyli tam przekroczono czas.
Ale jest tam na starcie zainstalowane chyba 10, czy ileś tam aplikacji.
WordPress też, właśnie się WordPressem też się bawiłem.
No i też tam takie demo, WordPressa tam można,
fytyczkę ActivityPub zainstalowałem, żeby po prostu się zapoznać,
jak to działa to wszystko.
Grzegorzu, ten Juno Host to jest jak rozumiem po prostu
jeden z tych takich menedżerów do tworzenia swojego własnego hostingu,
żeby komuś było łatwiej.
Coś takiego jak jakiś cPanel, Direct Admin, coś tego typu.
Webmin.
Tak, tak.
No i w tym demo właśnie, na przykładzie WordPressa tam sobie mogłem się pobawić
WordPressem jako administrator.
I tam moje fytyczkę sobie tam zainstalowałem do ActivityPub.
Mogę wejść w ustawienia.
Takie tam rzeczy.
Tam jest jeszcze więcej, bo tam chyba, nie wiem czy Nexo Cloud też chyba jest.
Tam jest jakieś do torrentów, tam jest jakieś chyba z dziesięć
czy ileś tam aplikacji do przetestowania.
I tam można się tym pobawić.
Cały panel po prostu z telefonu można zarządzać sobie tym panelem.
W jedności się sykaluje się jakby do formatu telefonu, że te wszystkie opcje
to są po prostu z góry na dół, tak po liście.
Tam jest użytkownice na początku, usługi, aplikacje.
No jasne, czyli po prostu jest przyjazdy dla ekranów mobilnych.
Okej, Grzegorzu, bo tematów mamy jeszcze sporo i chcielibyśmy przejść dalej.
Czy jeszcze masz dla nas jakieś informacje?
No tak w sumie nie.
Miałbym taką prośbę jakby mi ktoś pomógł.
Miałbym taką prośbę żeby ktoś mi mógł pomóc zainstalować Elcha Voice’a.
Próbowałem tego, przeszłem do połowy poradnika, a potem się jakieś błędy się tam pojawiły.
Nie wiem o co chodzi, no bo też chciałbym tam swój głos spróbować,
ale ten poradnik to jest jakiś hardkorowy, że tak powiem.
Dzięki Michał, że tego, jak się to nazywało, ktoś mi to napisał, ten tunel.
Fajna rzecz, ja ją tam testowałem sobie wewnętrznie.
SSH działa, z telefonu się połączyłem przez dane komórkowe, bo jest appka jakby tego.
No i na iOS-a, na różne systemy też.
Dobrze Grzegorzu, dziękujemy ci bardzo za telefon w takim razie.
Miejmy nadzieję, że ktoś będzie w stanie pomóc ci z Elcha Voice’em.
Dzięki za telefon, zaglądam do waszych wypowiedzi.
Nie, nic nie mamy, ale za to mamy różne rzeczy, którymi jeszcze chcielibyśmy się dziś zająć.
Więc teraz rzecz kolejna, tym razem moja, taka dosyć krótka informacja.
Otóż jak dziś wyczytałem, ma pojawić się elektroniczna wersja legitymacji emeryta i rencisty.
Takie legitymacje to nie tylko domena seniorów, ale także części z nas pobierających renty.
No i cóż, taką elektroniczną legitymację, co ciekawe, wydawać będzie terenowa jednostka ZUS-u,
z której pobieramy świadczenia.
To jest w ogóle ciekawa sprawa.
Zastanawia mnie, dlaczego w ten sposób, czy nie można byłoby tego uprościć,
zwłaszcza, że ta legitymacja będzie dostępna w naszym e-mobywatelu.
No i jak tak Grzegorz mówił tu o dostępności aplikacji mobilnej ZUS-u,
to ja się już zaczynam obawiać tego całego procesu, jak to będzie wyglądało,
bo oczywiście dokument elektroniczny w naszym telefonie to jest coś, co każdy by chciał mieć,
bo na pewno może nam to różne rzeczy ułatwić,
ale z drugiej strony pozostaje tylko mieć nadzieję i trzymać kciuki,
że wygenerowanie tej legitymacji czy złożenie wniosku będzie dla nas dostępne,
będzie łatwe albo przynajmniej będzie wykonalne.
Teraz kolejny temat Pawła i kolejny temat o czytaniu, tym razem o czytaniu na Androidzie.
Tak, bo Google w zeszłym tygodniu udostępnił aplikację tryb czytania, Reading Mode,
która pozwala na to, jest przede wszystkim ona jest usługą dostępności,
czyli to nie jest zwykła aplikacja, tylko to jest jedna z tych aplikacji,
które w naszych ustawieniach się jako usługa dostępności zadomawiają,
obok na przykład Talkbacka, obok czytania ekranu, obok tam Access Switcha,
różnych innych rzeczy i my możemy sobie go aktywować na różne sposoby oczywiście.
Możemy przypisać sobie skrót dostępności klawiszy głośności,
co prawdopodobnie średnio chyba możemy polecić,
bo jednak fajnie jest mieć tam kontrolę nad Talkbackiem tak domyślnie,
no chyba, że ktoś woli inaczej, ale można sobie go przypisać
do skrótu dostępności, do przycisku dostępności, czyli takiego przycisku,
który nam wyrasta w tym rzędzie dolnych przycisków na Androidzie,
tam gdzie są Wróć, Ekran Główny, Przegląd, czyli ostatnia aplikacja,
no i pojawi się nam wtedy czwarty przycisk ułatwienia dostępu
i można ustawić, by ten przycisk właśnie włączał nam tą usługę czytania.
I aplikacja Tryb Czytania potrafi przerobić nam tekst, który akurat jest na ekranie
i to nie ma znaczenia, czy to jest przeglądarka, czy aplikacja,
na taką formę przyjazną do czytania, czyli to jest głównie pod kątem wiadomości,
jakichś takich artykułów informacyjnych, jakichś blogów i tak dalej,
czyli teoretycznie robi to, co robi Tryb Czytania w Firefoxie,
czy Reader Mode w Safari, czy tam ten Tryb Destylacji w Chrome,
czyli wyrzuca nam wszystkie, teoretycznie mówię,
bo to za chwilę tu Paulinę wyrwę do tablicy,
teoretycznie usuwa wszystkie uciążliwości, czyli jakieś reklamy po drodze,
jakieś tam rekomendowane artykuły, a zapisz się do newslettera,
a nie mówili nic o banerach cookies, ale może niektórym by się marzyło,
żeby to też. I robi nam z tego takie fajne doświadczenie,
gdzie po prostu możemy sobie czytać sam ten tekst,
bez wszystkich dodatkowych elementów.
Co więcej, można sobie dostosować te wizualne aspekty,
znowuż tak jak w przypadku Bright Page’a, tutaj dla osób niedowidzących,
czyli rozmiar czcionki, wyrównanie i tak dalej, ułożenie czcionki,
kontrast kolory i tak dalej. Ale co ciekawe, tu dla osób niewidomych,
w miejscu, gdzie jest przycisk ekran główny, tam pojawia się wtedy,
bo to jest aplikacja pełnoekranowa, przycisk odtwarzaj,
czyli on jest zawsze w tym samym miejscu, my go naciskamy
i używając tych głosów neuralnych, neuronowych, aplikacja zaczyna nam
czytać artykuł, czyli ten tekst, który został tam wyekstrahowany, wydobyty.
Co więcej, pojawiają się wtedy dwa dodatkowe przyciski,
skocz do tyłu, skocz do przodu, zdaje się, i one pozwalają nam po,
chyba akapicie, bo chyba nie po zdaniu, po jakiejś jednostce,
w każdym razie w ramach tego tekstu, przeskakiwać, więc możemy trochę
jak w Voice Dreamie.
Mi się wydawało, że po zdaniu.
Po zdaniu, a może być. Więc można trochę jak w Voice Dreamie
nawigować po tym tekście i sobie go tak podglądać i czytać.
Tutaj wiadomość dla nas nie taka dobra, bo oficjalnie aplikacja nie wspiera
języka polskiego, a ten moment jest język angielski, hiszpański,
francuski, włoski, niemiecki chyba też, albo i nawet nie.
Niemniej jednak chyba, Paulino, udało się, prawda, jakoś tam eksperymentalnie,
bo eksperymentalnie, ale uruchomić to odczytywanie w języku nawet polskim.
No więc tak, skoro jestem już wyrwana do tablicy, to opowiem o swoich wrażeniach,
które pozytywne w sumie nie są, ale okej, daję ten punkt ze względu na to,
że to jest bardzo świeża rzecz i może się to zmieni za jakiś czas.
To też będę starała się jakoś tam śledzić.
Co prawda wywalę ją ze skrótów tą aplikację, bo ona mi jest teraz
kompletnie bezużyteczna, ale będę ją miała zainstalowaną,
żeby wiedzieć, co się w niej nowego pojawia.
Natomiast główną wadą tej aplikacji jest to, że pomimo, że potrafi wykryć język
czytanego nam tekstu, to nie potrafi pozwolić nam na to, żebyśmy czytali
po prostu sobie swoją własną syntezą, którą mamy.
To musi być bez dyskusji i bez żadnej możliwości wyboru głos od Googla,
który przyspieszyć możemy maksymalnie trzykrotnie.
To jest maks, czyli to jest taki 90 parę procent, dobra,
może i nawet 100 Googla, ale no czym jest 100 Googla w porównaniu do 100
iSpeak’a, albo do 100 RH Voice’a, albo do 100 jakiejkolwiek fajnej syntezy.
No nie da się tym czytać produktywnie, no umówmy się.
To jest pierwsza rzecz.
Druga rzecz, pomimo że aplikacja służy do ekstrahowania tekstu
pomiędzy gąszcza linków, reklam, zachęt i w ogóle innych cudów,
nawet po angielsku nie udało jej się pozbyć zwyczajnego, prozaicznego
jęczenia o cookies.
Czyli tak naprawdę, no cóż, ja to testowałam trochę więcej niż godzinę
przed audycją, więc nawet nie czekałam na to, aż sprawdzę czy aplikacji
udało się pozbyć reklam, linków i innych takich, bo po prostu jak miałam
słuchać ciągle tego tekstu o cookies albo go przewijać,
no to już sobie podarowałam ten wysiłek.
Paulino, bo ja też czytałem o tej aplikacji i zaintrygowała mnie
jedna informacja, być może to ktoś na wyrost napisał, ale napisał o tym,
że ona ma działać nie tylko na stronach internetowych,
ale też niby w aplikacjach.
Nie wiem jak ona w tych aplikacjach miałaby działać.
Znaczy tak, idea jest taka, że załóżmy mamy sobie ten przycisk
albo skrót, jesteśmy sobie gdziekolwiek i jak ten skrót wciskamy,
czy przycisk, to przechodzimy do apki i jesteśmy tam i sobie czytamy
niezależnie od tego co to jest, po prostu ściągany nam jest tekst z ekranu
i dzień dobry, czytaj.
No oczywiście aplikacja jest pełnoekranowa i tam gdzie mamy
wróć, przegląd i ekran główny, no to mamy albo odtwórz sam,
albo tam jeszcze przeskocz do przodu i do tyłu, jak jesteśmy już
w tym trybie, w którym odtworzymy i pauza.
Natomiast w sumie ja go tylko testowałam na stronach,
ale zaraz mogę spróbować gdzieś tam go odpalić w jakimś losowym
sklepie play na przykład.
Nawet nie mówię, że teraz, ale tak generalnie, też zwracam uwagę
po prostu na ten temat, czy do późniejszego jakiegoś przetestowania,
czy być może dla naszych słuchaczy, których zaintrygowała ta opcja
i chcieliby się nią pobawić.
Ponoć się da.
Ja się domyślam, że to chodzi o widoki webowe w aplikacjach,
że tam po prostu jak jest coś, co może ujść za treść artykułu,
to on to spróbuje wydobyć.
No ale ciekawe, co by się podziało w różnych aplikacjach,
gdyby tam coś poklikać.
Tak, no to to można spróbować.
Kolejna bardzo spora wada tej aplikacji jest taka,
że po zablokowaniu ekranu tracimy tak naprawdę syntezę,
czyli według mnie też jeden z głównych atutów odpada,
przy czym oczywiście to jest kosmetyczna zmiana,
więc to może być wprowadzane w losowej wersji.
Ja nie mówię, że tego nigdy nie będzie, ale nadal jakby słabo.
No bo już nie ma tego, że załóżmy, o, wyłączymy sobie ekran,
bo już wszystko mamy ustawione, co byśmy chcieli,
no i teraz cokolwiek, czy tam sobie przez przypadek dotkniemy,
czy cokolwiek, no to będzie nam to czytało, spoko.
No to tak, nie ma łatwo.
Kolejna rzecz jest taka, że gdybyśmy się chcieli posługiwać flikami,
a nie eksploracją, to ten tekst, który jest wydobyty przez aplikację
jest jednym wielkim blokiem tekstu, więc nie wiem,
jak sobie radzić z tym talkback, ale chyba niewiele lepiej od komentarego
i po prostu to jest wielki, wielki, wielki blok,
przez który przeflikowanie, no po pierwsze zwalnia nam screenreader,
po drugie no jakby też te dźwięki przewijania,
no ten ekran musi się przewinąć, żeby screenreader mógł napotkać
na jakąś inną kontrolkę.
No i też przy okazji wynika z tego niefajna rzecz,
że jak załóżmy czytamy sobie, no to ta synteza jest gdzieś tam
w tle ma dźwięki przewijania ekranu ze screenreadera,
no co też nam komfort może jakoś tam zaburzyć.
Chyba o wszystkim powiedziałam.
Czyli fajnie, że coś się dzieje, ale mogłoby być lepiej.
Tak.
Krótko mówiąc.
Ale sam pomysł nie jest zły, uważam, że ma potencjał.
Sam pomysł jest super w sumie.
Tak, jakby dopracowali, bo na przykład właśnie to blokowanie ekranu
jest strasznie nielogiczne, jakby mi się wydawało, że to jest
jeden z powodów, dla których ktoś mógłby chciać w ten sposób
treści konsumować.
No jestem ciekaw, jak to się rozwinie.
Fajnie, że zrobili z tego taką usługę dostępności,
że to można w każdej chwili wywołać, a nie, że jest to zamknięte
do przeglądarki na przykład tylko.
No pewnie.
Bardzo poręcznie wykonane.
Ale tak, wymaga usprawnień i to wielu.
To wymaga usprawnień, a ciekawe jak tam z kolejnym tematem,
o którym teraz Mikołaj nam opowie.
Czy to już jest coś fajnego, gotowego, czy też wymaga usprawnień?
Aplikacja, która powstała i ma nam posłużyć do pomocy
w nawigacji po sklepach.
Tak, tego niestety nie wiemy, bo na razie aplikacja jest
używana w Londynie, w sklepach Marka Spencer,
więc trochę ciężko by ją nam tutaj było potestować,
ale aplikacja jest.
No i jak sama nazwa wskazuje, jak już tutaj powiedziałeś,
służy ona do nawigacji po sklepach.
Pozwala ona nam na zarówno nawigację do konkretnego produktu,
jak i na ustalenie listy produktów, którą chcemy kupić
i wyznaczenie nam trasy przez sklep optymalnej, aby doprowadzić
nas do tych konkretnych produktów.
No i my sobie idziemy i aplikacja nam mówi, gdzie należy skręcić,
w którą alojkę i za pomocą kamery może nam też podać konkretne wskazówki,
gdzie znajduje się dany produkt.
Nie jest to rozwiązanie tworzone typowo z myślą gdzieś tam o niewidomych,
ale ja myślę, że osobom niewidomym może się absolutnie przydać,
zwłaszcza jeżeli gdzieś tam na bazie tego typu rozwiązań
ktoś zrobi rozwiązanie typowo pod dostępność,
no bo nawigacja po sklepach dużych samoubsługowych
to nie jest raczej w tym momencie coś, co osoba niewidoma
byłaby w stanie zrobić samodzielnie,
no a za pomocą takiej aplikacji, jeżeli ona nie dość, że nam powie,
gdzie należy podany produkt pójść, ale jeszcze daje nam wskazówki,
gdzie tego produktu szukać na podstawie kamery,
na podstawie tego, co pokazujemy, no to myślę, że na przestrzeni
powiedzmy 10-15 lat może być dużą zmianą i zmianą na plus.
Ponadto firma na razie mówi, że na razie działa w sklepach,
w sieciach sklepów, gdzie wszystkie sklepy mają podobny układ,
tak aby można było właśnie ładnie te sklepy zmapować,
ale jest też otwarta na współpracę z uczelniami
oraz z centrami handlowymi w przyszłości.
I to też może być właśnie fajna rzecz,
chociażby w centrum handlowym jakaś aplikacja,
która działa nam jako taki ponikąd GPS,
tylko że no właśnie lokalnie, wewnętrznie, w budynku
idziemy sobie powiedzmy, nie wiem, w danym centrum
i ona nam mówi, że dobra, to teraz skręć do schodów,
teraz skręć do windy, wjeźdź na to i na to piętro
i tam będzie, bo nawigacja taka zwykła, klasyczna GPS
nie działa dobrze w budynkach wewnątrz,
a jest już coraz więcej standardów takiej właśnie
nawigacji wewnętrznej, które nawet oferują dokładność
do kilku centymetrów, więc ja myślę, że to może być
rewolucja w ciągu najbliższych kilku, no gdzieś tam
nastu czy powiedzmy kilku, kilkunastu lat,
jeżeli chodzi o nawigację dla osób niewidomych,
że wreszcie dostaniemy nie tylko nawigację na zewnątrz,
ale też nawigację precyzyjną właśnie w budynku, dworce,
centra handlowe, urzędy, tego typu miejsca.
No oby tak rzeczywiście było. Ja myślę, że z poszukiwaniem
konkretnych produktów, to przynajmniej do półty
będzie problem, dopóki wszyscy będą uważać,
że jak się zmieni lokalizację danego produktu w markecie,
to zachęci się tego klienta, żeby on się po tym markecie
przebiegł i zlokalizował go ponownie i przy okazji jeszcze
kupił to, to, to i wrzucił jeszcze tamto do koszyka.
To jest niestety problem.
Tylko czy on go znajdzie, tak? Bo jeżeli się położy go
w losowym miejscu, to przecież sklep jest duży
i nikomu się nie będzie chciało chodzić po sklepie
i szukać, powiem więcej, nawet widzący bardzo często
wiedzą, gdzie produkty są i jak tego produktu w danej chwili nie ma
i mi się to nawet czasem zdarza, jak gdzieś tam jestem
w widzącym sklepie, to mówią, że jego tam nie ma,
jego po prostu nie ma i czasem nawet podejdzie ktoś
z pracowników i powie, a bo on jest dzisiaj tutaj,
bo coś tam.
No tak, bo to jest, bo to jest ta praktyka, w myśl której
jak się takiego klienta przegoni po sklepie w poszukiwaniu
danego produktu, no to po prostu w takiej sytuacji
on jeszcze zobaczy, że o jest tutaj coś, co niby jest
w promocji.
No nie, no nie, bo jakby jeżeli ta osoba ze sklepu
nie podejdzie, to się po prostu uznaje, że tego produktu
nie ma.
Wiesz co, no właśnie chyba to trochę inaczej działa
na większość klientów.
Fakt faktem, co się robi i to jest to, o czym ty mówisz,
że produkty, ogólnie produkty umiejscawia się w takich miejscach,
że najpotrzebniejsze rzeczy są jakby najdalej od siebie.
Czyli powiedzmy, jeżeli przeciętna osoba najczęściej kupuje chleb,
mleko i jajka, to chleb będzie na jednym końcu sklepu,
mleko będzie na drugim i jajka będą na trzecim.
To o tym ty mówisz i to się faktycznie robi przez to,
żeby do tych trzech najpotrzebniejszych produktów osoba
musiała przejść cały sklep i zobaczyć wszystko, co tam jest.
Tak, ale niestety też zmienia się dość często te lokalizacje
tych produktów.
To nie jest tak, że się możemy przyzwyczaić, że chleb zawsze
jest na trzeciej półce powiedzmy od lewej strony.
To niestety tak nie działa.
To jest jakby jedna rzecz, natomiast jest jeszcze coś takiego,
że tam na tych półkach na wysokości oczu miesza się te produkty,
które są najmniej, znaczy takie najbardziej egzotyczne często.
Tak jak na szugach są soki na jakichś półkach, to jakiś jabłkowy,
to jakiś taki, który się często kupuje, to będzie gdzieś tam na dole,
natomiast na wysokości oczu będą jakieś takie soki dziwne,
z jakichś takich owoców, które u nas nie są spotykane,
a może się weźmie, może się zaspokoi.
Podejrzewam, co innego jest w momencie, gdy aplikacja mówi
to jest tu, tu tego nie ma.
W związku z powyższym to tego nie ma, tak?
Wiadomo, że czasami produktów nie ma, no znaczy się, że nie ma.
I wtedy jest rzeczywiście problem, bo klient wychodzi z sklepu
z taką świadomością, że nie ma tego, po co przyszedłem.
Więc w sumie po co ja mam tu przychodzić następnym razem?
No i dlatego ci twórcy tej aplikacji właśnie mówią o tym,
że ta aplikacja na razie jest dobra do sklepów,
gdzie w kilku różnych sklepach jest podobny układ.
I podejrzewam, że to bardziej, nie wiem, jakieś ciuchowe, jakieś ubraniowe,
jakieś elektroniczne, gdzie po prostu jest ileś tych sieci
i to się wszystko robi na jedno kopyto.
I powiedzmy w całej Polsce jest ileś sklepów z ubraniami
i one w danym momencie wszystkie wyglądają mniej więcej tak samo.
A nie w przypadku, nie wiem, jakiegoś jednego supermarketu,
który sobie jest, jeden w miejscowości i będzie jeden.
Tak, oczywiście, to się zgadza Mikołaju.
I to zresztą też i w tych sklepach tak jest, sieciowych,
te układy, to one, jeżeli są zmiany, to nie jest tak,
że każdy sobie ten produkt położy gdzie chce.
To jest wszystko odpowiednio planowane, gdzie to wszystko ma być.
Natomiast kwestia po prostu tego, że ta baza tej aplikacji
no to będzie musiała być aktualizowana i to dosyć często,
bo to nie będzie tak i to na pewno nie będzie można zostawić tego tak,
że po prostu zaprogramujemy to raz i będziemy liczyć,
że tam się nic nie zmieni. Nie, bo to się zmienia.
I o to mi chodzi, że to się po prostu zmienia,
aczkolwiek zmienia się według konkretnego planu.
Ja myślę, że to nie jest jakiś wielki problem,
bo przynajmniej z tego, co ja wiem, to w niektórych sklepach
to jakby już ponikąd jest, bo jest w tych bazach,
trzyma się w tych bazach informacje o numerach regałów,
na których się dane produkty znajdują.
I właśnie po to, że dostaniemy powiedzmy paletę
i pracownik dobrze wie, gdzie ten produkt ma położyć.
Tak, bo musi to wiedzieć, bo ma konkretną rozpiskę.
Dokładnie, na której półce ma położyć.
I tak naprawdę teraz jedyne, co byśmy musieli do takiej aplikacji dodać,
to jest jakby mapa, gdzie jest który regał, gdzie jest która półka,
no bo numery regałów się nie zmieniają,
bo nie poruszamy półkami raczej.
Zgadza się.
Więc jeżeli coś takiego zrobimy, no to jakby zintegrujemy to z bazą sklepu,
która jednocześnie wie, na którym regale jest produkt,
no to informacja stała z aplikacji regał jest tutaj,
plus informacja zmienna, ale aktualna z bazy produktów,
produkt jest na regale XV8A, da nam co trzeba.
Oczywiście, że tak.
I tylko kwestia jest po prostu tego, żeby tego pilnować,
żeby to było aktualizowane i oby tak rzeczywiście było,
bo to będzie w takiej sytuacji dla nas coś naprawdę fajnego w jakiejś tam przyszłości.
I tego byśmy sobie myślę wszyscy życzyli.
No a teraz temat, o którym już wspominaliśmy, że do niego wrócimy.
Głosy neuronowe Microsoftu dostępne w Speech Central.
Tak, tutaj też słuchacz Kuba pytał, jak można by dostać neuronowe głosy
w jakiejś aplikacji mobilnej do czytania.
Na razie dotyczy to wersji Speech Central na iOS, nie wiem, jak tam Android.
Na pewno nie ma tego na razie na Macu.
Jest dostęp, został przyznany dostęp do głosów neuronowych Microsoftu
i w dość ciekawej formule.
To znaczy, mi się wydaje, że formuła nie jest jakaś bardzo oryginalna,
bo chyba Voice Allowed Reader na Androida już od jakiegoś czasu udostępnia głosy
i to nie tylko Microsoftu, ale też zdaje się, że Amazonu, czyli Ivone i chyba Google.
W takiej formule, że oni nam nie odsprzedają jakby prawa do użytkowania tych głosów,
więc my nie płacimy im, przez co też nie mamy pewnych ograniczeń
i nie płacimy też przez App Store, więc nie płacimy też Apple’owi,
tylko bezpośrednio rejestrujemy się w Microsoftie, my w Azure,
w tym serwisie chmurowym Azure i generujemy sobie klucz dostępowy.
Wedle instrukcji tworzymy sobie tam jakiś zasób, jakoś to się tak tam nazywa fachowo
i tymi danymi logujemy się właśnie w aplikacji Speech Central.
Dzięki temu mamy kontakt bezpośrednio z Microsoftem, bez żadnych pośredników
i jeżeli już płacić, to płacić bezpośrednio Microsoftowi i na bieżąco w miarę jak się zużywa.
I teraz tak, za darmo mamy pół miliona znaków miesięcznie,
więc jakąś książkę może z tym przeczytamy.
Wszystko co powyżej to już płacimy podpiętą kartą w miarę jak użytkujemy,
więc warto, zwłaszcza na początku, sprawdzać jak szybko zużywamy.
Ponoć tutaj takie szacunki są, że około dolara, czyli jakieś pięć złotych teraz,
cztery pół, jak tam kursy idą, będzie kosztowało nas około godziny słuchania
na prędkości raz przyspieszonych 1x.
Więc warto próbować, jak ktoś jest zdeterminowany, żeby mieć te głosy
i zobaczyć sobie do czego one mogą się nam przydać.
No i to chyba tyle.
Jeżeli lubicie te głosy, no to możecie sobie z nich skorzystać.
Jeszcze dwie uwagi.
Takie 1x to jest po prostu zwykła prędkość.
A.
Przyspieszona to jest 2x.
A, racja.
Już jest późno chyba.
To jedna rzecz.
Tak.
A druga rzecz, w sumie w czytaniu płatną syntezą
widzę jedną niestety wielką lukę.
Znaczy lukę.
Problem, powiedzmy sobie.
No bo jak kupimy sobie załóżmy audiobooka
i nie wiem, zaśniemy na tym audiobooku,
nie wiem, będziemy mieli telefon i awka, w której będziemy czytać
nie wspiera, żeby to zatrzymać, albo nie wiem.
Stanie się coś takiego, że po prostu rzucimy słuchawkami i polecimy,
bo to będzie coś tak ważnego, że ja nie mogę.
To nam to będzie leciało.
I audiobooka sobie spokojnie cofniemy
i jakby nie poddaćmy z tego tytułu żadnych negatywnych konsekwencji.
Natomiast jeśli chodzi o ten, o syntezę właśnie, która liczy nam znaki,
no to każde cofnięcie się, każde ponowne przeczytanie czegoś,
co już zostało przez nas opłacone, ponownie jest inkasowane.
Ja nie wiem, czy to nie jest trochę tak,
jakby sami twórcy aplikacji chyba o tym wiedzą
i tak było w przypadku Voice Allowed Readera,
że twórca napisał, że on tego nie poleca,
on nie wie, kto by chciał tak czytać,
ale ludzie prosili, to dodał.
To dodał, tak, bo niespecjalnie było to pewnie trudne,
więc czemuż by tego nie zrobić, aczkolwiek…
Ja w ogóle po Speech Central…
Bardzo chamski marketing mają twórcy tej aplikacji
i ja mam wrażenie, że tam jest jakieś wyszukiwanie
po słowach kluczowych na Twitterze na temat Voice Dream
i jeżeli się cokolwiek napisze o Voice Dreamie,
to zaraz się pojawia odpowiedź, nawet jeżeli się w ogóle nie wspomni
ani nic o Speech Central, ani autora Speech Central,
to zaraz się pojawia odpowiedź, że
ej, jest taka super apka Speech Central i ona jest fajna
i w ogóle ona jest tańsza, ona jest lepsza i ona jest cudowna.
Jakoś mi to tak trochę nie pasuje, szczerze mówiąc.
No i ona też jest, zdaje się, dalej cały czas darmowa
dla użytkowników Voice Overa, bo tak normalnie to ona jest płatna.
To tak swoją drogą.
Chyba tak, chyba tak jest rzeczywiście, jak mówisz.
Więc pytanie, jak długo to jeszcze potrwa.
Czy się ludzie nie przyzwyczają, a później nie będzie nagle zmiany frontu.
No ale to czas pokaże.
Teraz kolejna informacja, Pawle, od ciebie.
Tym razem o gifach, które mają zyskać alternatywne teksty.
Tak, gify, czyli druga po emoji.
Nie chcę mówić choroba naszych czasów, bo może to jest trochę brutalne,
ale no element…
Znak naszych czasów na pewno.
Tak, element graficzny, który się pojawia.
Jakoś musimy z tym jako osoby niewidome żyć.
Często nie wiedząc, o co w tych gifach chodzi.
One są wysyłane po komunikatorach, różnych sieciach społecznościowych itd.
Najczęściej te gify, czyli te animowane obrazki,
pochodzą z kilku tak naprawdę większych takich serwisów,
w których są one umieszczane.
I jednym z tych serwisów jest, nawet bardziej popularnym jak nie najbardziej,
jest gifi, gipchy pisane.
Na przykład wykorzystuje go Twitter.
Nie wiem, jak tam inne komunikatory, czy Messenger też,
czy tam jest jakiś inny, jakiś Tenor, Share, gif, coś tam.
Ale ten gifi jest na pewno w kilku takich większych.
Może Tenor jest najbardziej popularny?
On zawsze gdzieś tam na Facebooku?
Tak, to możliwe, że Tenor na Facebooku,
a na Twitterze gifi może jeszcze w kilku miejscach.
No i okazuje się, że może nie będzie aż tak źle z tymi gifami
w najbliższej przyszłości, ponieważ firma, gifi,
zatrudniła inną firmę, chyba firmę, która się nazywa Scribble,
która specjalizuje się właśnie w między innymi też w pisaniu
takich fajnych opisów alternatywnych.
I to nie za pomocą sztucznej inteligencji,
a przy asyście żywych ludzi, którzy będą te opisy tworzyć.
No i plan jest taki, żeby stworzyć opisy gifów.
Na ten moment już są dostępne gify, te najczęściej wykorzystywane.
To jest listy top.
Natomiast w przyszłości ma być tego jeszcze więcej.
Na początek na stronie i w aplikacji gifi, a z czasem też przez API,
więc wszystkie aplikacje zewnętrzne, które z gifi będą korzystać,
będą miały również do tych opisów alternatywnych dostęp.
No i myślę, że to jest świetna wiadomość,
bo osoby niewidome jakoś w końcu polubiły emoji.
Ja do dziś nie mogę się do nich przyzwyczaić,
nigdy nie mam cierpliwości, żeby znaleźć tą odpowiednią ikonkę,
mimo że nawet na Windowsie teraz się przekonałem,
że ten panel spod Windows.
Windowsowy da się przeszukiwać po prostu wpisując konkretne litery
i tam filtrować w dół tę listę tych emoji według słów kluczowych.
To mimo wszystko nawet na telefonie bardzo mi się topornie wstawia emoji
i szuka, zwłaszcza jak potrzebuję znaleźć konkretnej.
To na Androidzie działa najlepiej.
A to ja się wreszcie na WK nauczyłam.
Zwłaszcza jeżeli znamy te wszystkie…
Te współrzędne.
Dokładnie. To jest bardzo szybkie.
I to jest fakt.
Jedna rzecz, którą Android po prostu robi lepiej od iOS,
to po prostu robi ją lepiej.
No to miejmy nadzieję, że iOS pójdzie tu w ślad.
Ale pomijając już nawet to,
to był taki dość podstawowy sposób,
żebyśmy wyrażali cokolwiek graficznie.
No a teraz dochodzą też gify,
które są w jakiś sposób ważne,
przynajmniej dla osób widzących,
więc my też będziemy mogli z nich korzystać,
a przynajmniej wiedzieć, co jest w tych gifach,
które wysyłają nam nasi znajomi.
Oj tak, bo tych obrazków sporo w różnych miejscach się pojawia.
A co tam Paulino nowego w JOS-ie?
W JOS-ie jest sporo ciekawych nowości
i w sumie bardzo mi smutno,
że tego JOS-a nie mam tak bardziej na produkcji,
żeby to sobie potestować.
Ponieważ w tej wersji grudniowej, która wyszła teraz,
mamy nowość, która bardzo dotyczy osób,
które mają komputery firmy Dell,
ponieważ sterowniki do głosów
na pewno Microsoft Eloquence i Vocalizer,
ale nie wiem, czy też nie po prostu jakaś część odpowiedzialna na zamowę,
została tak dostosowana,
żeby ta aplikacja Max Audio Project
i te sterowniki dźwięku Dell
nie powodowały problemów z wyciekami pamięci.
To jest rzecz grudniowa.
Natomiast w 2023 roku, w tej pierwszej wersji JOS-a,
pojawią nam się dwie rzeczy, które mnie bardzo zaintrygowały.
Pierwsza rzecz to jest jakby
nawigacja po ważnych rzeczach na stronie.
To są te takie Glance Highlights.
Nie wiem, jak to ładnie przetłumaczyć na polski.
No cóż, jakieś strategiczne elementy.
No cóż, to jest jakby już kwestia tłumaczy,
ale generalnie chodzi o to, że bardzo często na stronach
wydawcy, producenci, copyrighterzy,
no generalnie twórcy stron stosują zmiany formatowania,
jakieś powiększenia czcionki, zmiany czcionek,
zmiany kontrastu, zmiany w pogrubieniu,
podkreśleniu innych tego typu,
żeby coś zaakcentować na stronie.
Zmianę koloru.
I nam to umyka.
W sensie nawet jeżeli mamy jakąś tam
automatyczną informację o tym, że coś się zmieniło,
no to i tak musimy przeczytać całą stronę,
żeby wiedzieć, że to nam coś tutaj jest zmienione,
coś jest dla nas ważne.
Natomiast JOS w tej przyszłorocznej wersji
ma nam zapewnić nawigację po tych elementach.
To jest po pierwsze.
Po drugie od razu raport ile tych rzeczy jest na stronie.
No i po trzecie możliwość troszkę tego skonfigurowania,
nie jakąś niesamowitą, ale zawsze.
Na pewno mają być opcje związane z tym,
jak zgłaszać te rzeczy.
Czy mówić od razu przy wczytywaniu strony czy nie
i czy ogłaszać dźwiękiem czy nie.
Nawigacja będzie się odbywała przez Y i Shift Y,
a listę tych ważnych elementów można będzie zobaczyć
przez Control Insert Y, czyli JOS Control Y,
tak mówiąc już typowo poprawnie.
Natomiast druga rzecz dotycząca tej przyszłorocznej wersji
jest związana z historią powiadomień w Windowsie,
które nam przychodzą.
I teraz obecnie, żeby się dostać do tej historii,
wciskamy Insert Spacia, a następnie N
i jesteśmy sobie w tej historii powiadomień.
Natomiast nie ma tam paru rzeczy, które użytkownicy JOS-a
zaakcentowali w firmie Freedom Scientific.
Nie ma między innymi wyłączenia powiadomień Toast,
tych takich, no jak na przykład zrobimy coś w aplikacji.
Dymki powiadomień.
Dymki, o właśnie, dymki powiadomień.
Tak to się nazywa.
Tak.
No i właśnie będzie można je wyłączyć w tej przyszłorocznej wersji.
Ponadto będzie można sobie zrobić wyrażenie regularne,
które będzie na przykład robiło tak, żeby nam się nie pojawiało
coś na tej liście, albo żeby w ogóle nie było odczytywane,
przynajmniej tak to zrozumiałam, bo czytałam to w biegu, szczerze mówiąc.
Więc to też tak, no też nie wiem jak to będzie finalnie, tak,
no bo też nie mam wersji rozwajowych.
I będzie też przycisk do wyczyszczenia tej listy.
Więc takie usprawnienia niby interfejsowe, ale bardzo dużo nam dające
w takim produkcyjnym użytkowaniu.
I też te dymki powiadomień mogą być tak skonfigurowane,
żeby nie były mówione, ale żeby były dostępne w historii.
To tyle z takich najważniejszych nowości.
Widzę, że Joss się dość dobrze rozwija w sumie.
I przydałoby się to przetestować.
Zbliżamy się powoli do końca tyfloaktualności,
bo jeszcze technikalia przed nami, a tymczasem to już na zegarze
17 po 23. Na koniec bloku z tyfloaktualnościami kilka słów o tym,
jak się pozbyć oprogramowania McAfee, nie widząc,
bo z tym to zawsze były problemy.
A Pawle, czy coś się zmieniło?
Z perspektywy samych antywirusów niewiele,
ale jeden z użytkowników hiszpańskojęzycznych niewidomych
podzielił się takim instruktażem i okazuje się,
że cały szczegół tkwi w tym, że NVDA ma największe problemy
z tymi antywirusami, że te wszystkie problemy z ESET-em.
ESET potem to rozwiązał, wypuścił łatkę, którą się wgrywała do dzisiaj,
żeby NVDA wszystko poprawnie czytał.
To samo z McAfee. Avast dopiero stał się 2 lata temu dostępny,
bo też coś zmienili. NVDA w przeciwieństwie do Jossa,
czy narratora, jakoś sobie nie radzi albo nie potrafi zintegrować się
z tym systemem zabezpieczeń, który uniemożliwia dostęp
aplikacjom trzecim do interfejsów i na tym polega większość problemu.
I okazuje się na przykład, że tak jak McAfee z NVDA
jest kompletnie niedostępne, tak z narratorem już AI
jak najbardziej można otworzyć, przejrzeć ustawienia,
rozpocząć skanowanie i zasadniczo ten program obsłużyć.
Więc jak macie na swoim laptopie 30-dniowe demo,
zresztą tryala po zakupie laptopa nowego,
no to możecie spróbować obsłużyć to z narratorem,
poczekać aż on wygaśnie i rozważyć, czy chcecie przedłużyć licencję,
czy nie na takich warunkach. Natomiast jeżeli nie jesteście
zainteresowani i chcecie to odinstalować, no to tak.
Mając włączone NVDA, bo zakładamy, że używacie raczej NVDA,
no wchodzimy do programów i funkcji,
znajdujemy McAfee, odinstaluj i co teraz?
Pojawia nam się program deinstalatora,
wyłączamy NVDA, włączamy narratora.
Tu narrator będzie nam w tym okienku coś lepiej czytał.
Szukamy tabem pola wyboru
z nazwą produktu, który chcemy odinstalować.
To, co jest zainstalowane zazwyczaj na laptopach,
to jest McAfee Live Save.
Ja wam już tu powiem, co dalej.
Tak, w oknie deinstalacji naciskamy tabulację,
aż znajdziemy pole z nazwą produkcji, musimy zaznaczyć spacją.
Potem zamykamy narratora,
otwieramy znowu NVDA,
i w oknie odinstalowania
naciskamy Insert R, żeby wywołać OCR.
No i gdy mamy wynik już rozpoznania tekstu,
strzałką szukamy przycisku deinstalacji w tym oknie OCR
i naciskamy Enter. Zaczyna się to wszystko
odinstalowywać i możemy regularnie
wyjść z tego pola i Insert R zrobić ponownie,
żeby instalacja przebiegła pomyślnie.
No i to w zasadzie tyle, czyli taka kombinacja narratora i NVDA na OCRze
i ponoć da się to zrobić.
No cóż, rzeczywiście trochę zabawy, trochę kombinacji,
ale najważniejsze, że się udało, no bo z tym to faktycznie
z NVDA były, były odkąd sięgam pamięcią,
problemy.
A słuchamy.
To takie elementarne zasady używania OCR dla osób,
którym się to jeszcze nie zdarzyło.
Otóż pierwsza kwestia dotyczy tego,
że aby używać OCR należy mieć wyłączoną kurtynę.
Zresztą nawet dostaniemy o tym alert stosowny.
Dostaniemy to powiadomienie, ale mówię też dla osób, które na przykład
mają na tyle niską tolerancję na światło,
że będzie to dla nich dyskwalifikacja.
Kolejna rzecz, zawsze przed OCR-owaniem
warto sobie użyć skrótu ALTSPACIA S.
Niby jest ten skrót Windows strzałka w górę,
ale ja jakoś mniej mu ufam, no bo ALTSPACIA
to nam powie, że to system menu jest otwarte.
Możemy po prostu zmaksymalizować okno.
Czyli maksymalizujemy okno, tak.
No i wtedy wiadomo, OCR-ujemy i wszystko powinno być okej.
Tak jak też Paweł wspomniał, warto sobie ESCAPE’em
i INSERT R’em raz na jakiś czas odświeżyć,
bo tylko w taki sposób odbywa się odświeżenie wyniku.
Okej, no to przechodzimy teraz do technikaliów.
I myślę, że na dobry początek możemy
poruszyć temat, który grzeją
różnego rodzaju portale technologiczne
od dłuższego już czasu.
Wszyscy się o tym rozpisują, wszyscy o tym mówią,
ale może ktoś z naszych słuchaczy jeszcze nie testował
GPT-Chat. Tomku.
No tak, ja wpisałem, chociaż pewnie bawiliśmy się tym wszyscy.
No kto się nie bawił?
To jest, cóż, OpenAI. Ta sama firma, która wypuściła Whisper’a
chociażby i dziesiątki innych algorytmów,
wszystkie oparte na głębokim uczyniu maszynowym, sieci neuronowe.
To po prostu oni mają te algorytmy w małym palcu.
I zrobili jakiś czas temu GPT, model językowy,
który się rozwijał, GPT-2, GPT-3.
No i w końcu GPT-Chat, który jest oparty,
jak oni twierdzą, na czymś, co się nazywa GPT-3.5.
Jeszcze chyba bardziej rozwinięty GPT-3. GPT-3 to już
był od jakiegoś czasu taki model, powiedzmy, językowy, który można było
poprosić o różne rzeczy i on to wykonał. Głównie związany właśnie
z kwestiami językowymi, żeby poprawił tekst, żeby go wystylizował jakoś,
napisał jakiś tekst w oparciu o jakieś dane,
które mu tam daliśmy itd., itd.
I tam było ileś różnych z tego, co wiem,
parametrów, które można by było ustawić, tzw. temperaturę,
czyli jakby kreatywność tego modelu, jakieś modele,
których mógł tam użyć, bo ich tam było kilka.
Natomiast teraz zrobili chat. I to jest czas, który w zasadzie
najważniejsze to jest pole edycji. Pole edycji, w której opisujemy to, co chcemy
od tego programu,
od tego bota, od tego czegoś.
I ten program nam to w odpowiedzi na to
coś da. Czyli troszeczkę tak, jak działają
te wszystkie asystenty google’owe. My prosimy o pogodę asystenta,
asystent w odpowiedzi nam daje pogodę. Tylko, że to nie jest podłączone do internetu,
to nie ma dostępu do nowych danych. Ta nauka zakończyła się,
jak twierdzi ten czat, z uporem godnym lepszej sprawy czasami.
W końcówce 2021 roku.
Natomiast to jest, moim zdaniem, technologia,
której można się zacząć bać. To znaczy, można albo nie można, w sumie nie wiadomo.
Ale to jest coś, co robi wrażenie, bo…
Tak, ja to potwierdzę, Tomku. Zaraz powiesz
o co tutaj chodzi i dlaczego. Ale ja
tak jakby przeglądając z jednej strony możliwości
tego narzędzia, z drugiej strony próbując
samemu różnych rzeczy, no to
zacząłem tak trochę rozumieć ludzi, którzy kiedyś
na przykład obawiali się właśnie komputerów, że zawładną światem, że
jakiś tam, no kiedyś ludzie się maszyny parowej nawet bali, tak, że im
pieniądze zabierze. To oczywiście wiadomo, że to wszystko
potem koniec końców okazywało się, że strach ma wielkie oczy.
Natomiast, no…
Ja tu po raz pierwszy miałem wrażenie, że komputer zaczyna
rozumieć mnie i rozumieć to, o czym
piszę na razie przynajmniej. Dokładnie. Natomiast
dwa takie podstawowe pytania, które pozwolą nam stwierdzić, że te dane już nie są
aktualne. Pierwsze, czy warto zainstalować Windows 11?
Odpowiedź dostaniemy, nie ma takiego czegoś jak Windows 11, tylko Windows 10.
Drugie pytanie, kiedy zmarła królowa Elżbieta?
Znaczy, mam wrażenie, że różni ludzie mogą dostać różne
odpowiedzi na te pytania. Znaczy, mam wrażenie, że ten program albo się gubi
w swojej wiedzy, albo z jakiegoś powodu ma jakieś błędy, które
coś tam robią. Kilka razy na to samo pytanie
może zupełnie różnie odpowiedzieć. Inaczej. Właśnie z tym, że dzisiaj
mi stwierdził, że nie umie polskiego języka, kiedy do tej pory ja się tylko
posługiwałem w komunikacji z innym językiem polskim i świetnie to umiał.
Ale dzisiaj stwierdził, że nie umie polskich znaków
i w sumie tekst nie może przetłumaczyć na angielski, na angielskim tekście pracować.
Niektórzy to mieli wcześniej, ja to dostałem dopiero dzisiaj,
więc tam on trochę wygląda jakby się gubił
we własnych możliwościach. Natomiast
o co normalnie asystenty wszystkie głosowe,
jeżeli im się każe, nie wiem, zaśpiewać
piosenkę, powiedzieć kawał, to oni mają
jakiś zbiór kawałów, które znają i te
kawały ludziom sprzedają. Ich jest tam jakaś skończona ilość
i podejrzewam, że ten czat
też tak ma, to znaczy on jest uczony na jakichś twitterach, na jakichś forach,
na jakichś setkach tysięcy, jeśli nie milionach tekstów
wszelakich, stworzonych często gęsto przez użytkowników.
No i często rzeczywiście te kawały wydają się
takie ludzkie bardzo, typu kawał, powiedz kawał o radiu.
No co mówi radio po wyjściu na ulicy, ludzie słuchajcie mnie,
ale ja tak myślałem kurcze, co mu tu zrobić, żeby, żeby
no raczej nie było takiego kawału i mówię,
powiedziałem mu, opowiedz kawał o trzech tramwajach.
Powiedział, to jest kawał godny dziesięcioletniego
dziecka moim zdaniem. Ja go mniej więcej pamiętam, ten,
ten, ten, ten dowcip. Brzmi mniej więcej tak, że spotyka się dwóch
kierowców tramwajów. Jeden mówi, o słuchaj, ja mam najlepszy
tramwaj ma pięć wagonów, jest najszybszy, ma najwięcej pasażerów
w drugim etap. Mój ma dziesięć wagonów, jest najcichszy. W ogóle
jest super. W końcu podjeżdża kierowca trzecim tramwajem,
ma piętnaście wagonów. Mówi, zobaczcie, to jest tramwaj.
Jeden mój z ten poprzedni z tych poprzednich kierowców.
Słuchaj, ty do nas takim tramwajem podchodzisz, a on się nawet
na torach nie mieści. Koniec kawału. Natomiast jest to kawał
o trzech tramwajach. Znaczy, powiedzmy, że to jest dowcip
o trzech tramwajach, ale rzeczywiście są tam te trzy tramwaje.
Nie wiem, czy jest jakiś kawał o trzech tramwajach w jakimś języku.
Jest zachowana pewna taka formuła, to jest, mam wrażenie,
że trochę to jest pewien wzorzec dowcipu, tylko po prostu,
no, tramwaj jeździ po torach, mamy ileś atrybutów określających
ten tramwaj i on ma za zadanie coś z tym zrobić.
To trochę, mam wrażenie, że na tej zasadzie to działało.
Więc zrobił, że coś tu nie pasuje.
W ogóle humor jest jedną z trudniejszych rzeczy dla tego typu algorytmów.
I rymy. Ale to jeszcze będzie chwilę o tym.
Chociaż akurat rymy on bardzo dobrze umie po angielsku.
Przynajmniej GPT-3, nie wiem czy czac, ale pamiętam, że GPT-3
tej takiej zwykłej, Davidci-2 bodajże, Davidci-3 przepraszam,
czyli ten model, który tam wyszedł kilka tygodni temu,
bo właśnie poprzednie nie umiały, a właśnie Davidci-3 już po angielsku zaczął umieć.
Kazałem mu przetłumaczyć na angielski słowa słonia trambalskiego,
wkleiłem mu i powiedziałem mu, żeby zachował rymy.
I to nie była do końca taka struktura wersów i tak dalej jak w słowiu trambalskim.
To nie były nawet rytmicznie zgodne te wersy.
W sensie potrafiły być wersy, które były krótkie z wersjami, które były długie
i to nie brzmiałoby super i poetycko, ale rymy były.
I to się naprawdę rymowało. I to już powoli było to.
I to już naprawdę zaczyna nabierać jakieś formy.
Ale na przykład kazałem mu wczoraj napisać rozprawkę na temat
w życiu trzeba być rekinem i absolutnie był w stanie to zrobić.
I ja myślę, że jeżeli ktoś by w gimnazjum coś takiego przedłożył
swojej nauczycielce lub nauczycielowi polskiego,
to nie wiem, czy by się ktoś zorientował
i czy myślę, że ocena za to byłaby całkiem, całkiem, całkiem ładna.
Całkiem niezła.
On ładnie pisze.
Tak. Poza tym, słuchajcie.
Ja wrzuciłam mu cały mój licencjat i był w stanie jakoś tam
mniej lub bardziej napisać do niej wstęp.
Oczywiście musiałam go tam jakoś skorygować, wywalić coś,
czym się nie zajmowałam w tej pracy, bo on mi trochę, że tak powiem,
samoocenę podniósł, chociaż tego nie chciałam.
Ale no cóż, no pracy bym miała 100 razy mniej na tym licencjacie
i to, i to dosłownie.
Natomiast wiecie, w ogóle…
Większość pracy nad pracą licencjacką czy jakąkolwiek,
no to jest pisanie czegoś, co dostaniemy w parę sekund.
Tak, ale też i tutaj jego wiedza w ogóle i kojarzenie faktów
to jest coś, co naprawdę jest imponujące.
Chociażby z naszego podwórka.
Jeden z pierwszych testów, które mu zrobiłem,
to było napisz kilka argumentów, dlaczego lepiej jest używać JOS-a
niż NVDA i w drugą stronę.
I on był w stanie to zrobić i większość tych argumentów
były to argumenty trafione.
Tam w jednym coś go trochę fantazja poniosła,
że JOS ma mniej funkcji niż NVDA.
No nie, nie przesadzajmy.
Tak samo jeżeli chodzi o Androida i iOS-a.
Tam mu mam wrażenie, że chyba jednak trochę lepiej poszło.
Więc on też powiedział, że Android ma Talkbacka, a iOS nie ma nic.
Tak, tak, tak, też tam było.
Aczkolwiek w drugą stronę jakby zrobić argument odwrotny,
to stwierdził, że iOS ma voiceover-a, a Android również ma czytnik,
ale nie jest on aż tak rozwinięty jak ten na iPhone.
Tak, ale tam coś też było, że można korzystać z różnych czytników ekranu.
Więc on też jakby miał tego świadomość.
Także słuchajcie, to nie jest taka wiedza.
Ja myślę, że na przykład chcąc ograniczać się do polskiego internetu,
to byśmy z taką wiedzą, z wyszukaniem jej w Google mogli mieć pewne problemy.
Nie korzysta tylko z polskiego internetu.
I on do tego stopnia, że ja mu kazałem napisać dodatek do NVDA.
I o ile po angielsku to zrobi, o tyle po polsku powiedział mi…
Też to zrobi.
A to mi nie chciał.
U mnie zrobił tylko coś ten dodatek nie chciał działać.
A to u mnie nie chciał.
I u mnie powiedział, że tak ten dodatek robimy.
Wchodzimy w NVDA, wchodzimy w Tools, wchodzimy w Addons Manager,
czyli tak jak to się nazywa po angielsku.
I on w ogóle angielską terminologię przetoczył.
I tam klikamy Create New Addon.
I tutaj zaczął wymyślać, bo nie ma takiego przycisku.
I tam w Name wpisujemy to, w Author wpisujemy to, w Description wpisujemy to.
Tam potem piszemy Next, Next, Next i Finish.
I ewidentnie jakby motyw brał z tego typu tutoriali,
jak się coś tworzy w jakichś różnych projektach, w różnych środowiskach programistycznych,
czy jest jakiś kreator.
Klikamy sobie Dalej, klikamy sobie Zakończ.
Kojarzył, że jest coś takiego jak Manager Dodatków w NVDA.
Tak, i wiedział nawet gdzie on jest, w jakim menu.
I nawet powiedział, że tam skrótem do wywołania tego dodatku
będzie tam NVDA.
Napisałem mu, że dodatek, który rzuca sześcienną kostką
i wypowiada odpowiedź, bo akurat kiedyś komuś takie pisałem
i mówię, czy zrobi.
I mi powiedział, że co skrótem do aktywacji tego dodatku
będzie Insert Shift D, gdzie on w ogóle sobie skojarzył, że D, że Dice,
że kostki, że angielski, okej.
I powiedział, że tam skrótem będzie NVDA Shift D.
Czyli sobie też skojarzył z jakichś poradników czegoś,
co gdzieś wyłapał, że jest taki klawisz jak NVDA
i że NVDA używa klawisza NVDA do skrótów.
I że typowym klawiszem dla takiego dodatku byłoby właśnie to.
Mi się wydaje, że ktoś w ogóle na GitHubie stworzył taki dodatek,
który jest kością.
To był tam czyjś dodatek taki ćwiczebny,
gdzie ktoś próbował chyba sobie kod jakiś swój napisać.
I ja bym się nie zdziwił, jakby on zaczerpnął pomysł z tego właśnie kodu.
Ale wiecie co, to jest nic.
Dla mnie tak naprawdę czymś, co na mnie osobiście zrobiło naprawdę duże wrażenie,
to był jeden z postów, który gdzieś się pojawił,
bodaj na Hacker Newsie,
bo tam sporo teraz jest treści związanych z chatbotem.
Ktoś stworzył w obrębie tego chatbota jakby maszynę wirtualną.
Oczywiście pseudo, bo to wiadomo, że tam się żadna maszyna nie uruchomiła.
Ale ten chatbot zaczął zachowywać się jak maszyna wirtualna z Linuxem,
w którym to Linuxie można było nawet jakieś programy uruchamiać w Pythonie.
Można było wydawać mu polecenia,
można było sprawdzać stan tego komputera wirtualnego,
odpytywać go o różne rzeczy.
Można było nawet otworzyć przeglądarkę internetową
i wejść na stronę tam OpenAI,
bo Google nie bardzo tam chciało działać.
I na przykład te dwie strony, OpenAI i Google,
normalnie odpowiadały na pingi, były pokazane adresy IP i tak dalej, i tak dalej.
Więc to po prostu na mnie to naprawdę bardzo duże wrażenie zrobiło.
Coś więcej.
Jakby ktoś chciał taką na przykład mieć piaskownicę do zabawy w Linuxa,
do nauki poleceń, no to jednym poleceniem można sobie coś takiego stworzyć.
Nie trzeba bawić się w żadne wirtualne maszyny,
w żadne narzędzia webowe, które ten interfejs mogą mieć różnie dostępny
i po prostu wpisujemy w okno czata polecenia konkretne,
dostajemy wynik i możemy sobie na tym pracować.
No coś niesamowitego.
Co więcej, jak napisaliśmy mu, to takie dwie też tam były rzeczy,
jak napisaliśmy mu polecenie utwórz plik,
jakby zapisz do tego pliku jakiś konkretny tekst
i potem mu napisaliśmy polecenie wypisz ten plik,
to on jakby pamiętał co my zrobiliśmy wcześniej i on nam ten plik wypisał.
I jeżeli napisaliśmy program w Pythonie, a ktoś to zrobił,
liczących chyba 10 liczb pierwszych
i to jakimś takim słabym algorytmem, który długo trwał,
chyba tam 10 sekund on zajmował na naszym takim zwykłym komputerze,
jak go uruchomiliśmy, no to bardzo, bardzo długo to trwało.
On chyba liczył jakąś ogromną ilość i po prostu pokazywał 10 pierwszych
i chyba dlatego właśnie to tyle trwało.
I kazał temu OpenAI-owi powiedzieć ile,
proszę wam powiedzieć, co ten program wypisze.
I on zrobił to natychmiast.
Nie dlatego, że on umie szybciej wykonywać programy niż komputer,
tylko dlatego, że on się zorientował co ten program ma robić
i on zmieniał te informacje i on je po prostu podał.
To ja wam zaraz powiem co na mnie zrobiło takie największe wrażenie.
To było kilka rzeczy.
Po pierwsze zrobił mi działający program.
Program, którego używam do tej pory,
znaczy to jest program dla mojej córeczki Martynki.
Martynka bardzo lubi się nagrywać i potem słuchać tego co się nagrało.
I już od dawna chciałem mieć taki program, który najpierw nagrywa
powiedzmy 10 sekund i potem to nagrania odtwarza.
Znowu nagrywa, odtwarza i jakby nie muszę tam tego pilnować, to się samo robi.
I napisałem mu napisz program w Pythonie,
który najpierw przez 10 sekund będzie pobierał dźwięk z mikrofonu,
następnie odtworzy ten dźwięk, znowu nagra i tak w kółko,
po polsku przez cały czas pisałem.
Napisał mi ten program.
Potem chciałem ten program rozwinąć co prawda o to,
żeby nagrywał kiedy dźwięk będzie, znaczy przez to nagrywać,
kiedy dźwięk będzie niższy niż jakiś tam poziom.
I on próbował skorzystać z takiej biblioteki,
która chyba od tego czasu jest w jakiejś nowszej wersji
i to nie bardzo chciało to działać.
W ogóle ten program ma tendencję do tworzenia programów,
które nie mogą działać.
Tak jak dzisiaj chciałem mu stworzyć program,
który na podstawie pliku SRT dzieli wavy,
na podstawie tych czasówek, które są w pliku SRT,
to on nawet zaimportował bibliotekę, która jest do tego potrzebna
i ona jest ta biblioteka rzeczywiście,
tylko źle zbudował tam, potem z Tomkiem Kowalikiem się tam rozmawiałem,
że on tam źle zrobił, że coś tam policzył, jak się nie powinno robić jakby.
Natomiast zrobił mi parę programów takich, które rzeczywiście działały.
Następnie tę wtyczkę, o której dzisiaj mówiłem,
że to co Tomek Kowalik zrobił, też jest wtyczka do tego,
żeby można było sobie dowolnego, znaczy żeby z tekstu wyjściowego,
który generuje NVIDIA, żeby można było wyłączyć pewne rzeczy,
o których nie chcemy.
Nasz układ nie chce, żeby mówił cyfr w ogóle,
to wpisuje jako wyrażenie regularne i on to robi.
Jak mu wpisa, co ten kod robi, wkleiłem ten kod,
to po wciśnięciu entera za parę sekund, paręnaście,
dostał informację, że to jest wtyczka do programu NVIDIA,
która właśnie wywala wyrażenie regularne, które wpisał użytkownik.
W związku z powyższym tak się zastanawiam, co się stanie,
gdy za kilka lat ten czat pewnie będzie znacznie bardziej zaawansowany
i jak szybko będzie można robić analizę kodu różnego rodzaju programów,
które mu się da i one będą wieloplikowe i to nie będzie tak,
że będzie dostępne dla wszystkich, tylko dla jakiegoś laboratorium.
Natomiast to jest jakby jedna rzecz.
Druga rzecz to jest taka, gdzie przewisperowałem mu jakąś wiadomość
z grupy whatsappowej, takiej naszej, jakiejś, którejś z niewidomych,
już nie pamiętam której, realną wiadomość po polsku mówioną.
Więc ten język był taki, no wiadomo jaki jest język mówiony
i konsentem u programowi czatu powiedzieć swoimi słowami,
jakby stresić tę wiadomość, o czym to jest.
I program powiedział, o czym to jest, że autor tam mówi o tym i o tym,
że zdaniem autora tam coś się nie da, czegoś się da, czegoś się nie da
i tak dalej i tak dalej.
I zrobił mi rzeczywiście streszczenie tej wiadomości,
absolutnie swoimi słowami i to brzmiało tak, jakby program dokładnie rozumiał
o co chodzi, a potem się jeszcze w nim dałem, wdałem w dyskusję,
bo tam coś napisałem mu, żeby spróbował odpowiadać jakby był niewidomym człowiekiem.
I się go zapytałem, gdzie pracuje.
Stwierdził, że jako niewidomy nie jest w stanie pracować w takim sensie,
jak robi to większość społeczeństwa.
Napisałem mu zara, zara, zara, ale no znam ludzi niewidomych, którzy pracują.
On mówi, no to oczywiście tak, niewidomy mogą pracować tu i tam,
ale mówię, no to najpierw piszesz, że ty nie pracujesz,
a potem piszesz, że niewidomy mogą pracować.
No tak, bo niewidomy mogą pracować, ale ja nie pracuję.
Dlaczego go piszę?
Bo jestem sztuczną inteligencją, która udaje, że jest niewidomym.
I ty się zabij.
Swoją drogą, podałeś mi, Tomku, ciekawy pomysł, żeby na przykład wrzucić do tego chatboka
transkrypt któregoś z Tyflopodcastów i kazać mu go streścić.
Tak, właśnie nawet kawałeczek Tyfloprzeglądków widziałem, tylko on się wtedy wysypał.
Teraz na tym obciężeniu serwerów nie wiem, czy warto.
No bo skoro Paulinie się udało wrzucić całą swoją pracę, to…
Ale to było jeszcze przy początku, kiedy mało kto o tym wiedział.
I też nie było takie obłożone.
Cało mówisz?
Bez wstępu w sumie.
Wydaje mi się, że to co on robi, niestety, on ma to tak zwane okno swoje,
czyli on ucina i on bierze jakby tylko ileś, nie więcej.
I na przykład jeżeli mamy też dłuższą konwersację, bo w jaki sposób on w ogóle działa?
On, sposób w jaki on pamięta to co do niego mówimy jest taki, że on po prostu
jak my wpisujemy coś, to on przed naszym tekstem, przed naszą kwestią
wrzuca po prostu do tego algorytmu trochę historii tej naszej konwersacji.
Czyli jeżeli my mu napiszemy cześć, on mu powie cześć, my mu napiszemy kim jesteś,
on nam odpowie jesteś sztuczną inteligencją i tak dalej, my mu napiszemy ile masz lat,
to do algorytmu będzie coś takiego.
Cześć.
Cześć.
Kim jesteś?
Jestem sztuczną inteligencją.
Ile masz lat?
To ma dokończyć, więc on podejrzewam, że on ci po prostu wrzucił na przykład
jakąś końcówkę tej pracy albo coś, albo właśnie końcówkę albo początek.
Nie wiem co on robi, jak ty mu wkleiłaś całe, więc to…
Właśnie niestety nie sprawdziłam, a trochę głupio w sumie.
To…
Mogłam to sprawdzić z tego okienko.
Właśnie nie wiem, bo on tobie mógł pokazać wszystko, ale jakby do algorytmu to
trzeba by było sprawdzić do czego się odnosi, czy to odnosi się do wszystkiego,
czy tylko do części.
Dokładnie, tak.
Ale co ja chciałem jeszcze powiedzieć właśnie o nim.
Ja jakby programować umiem, ja widzę kod, ja rozumiem co on robi.
I chciałem go przetestować dając mu jakieś stare zadanie ze studiów sprzed tam
kilku tygodni, które gdzieś tam u nas było i spróbować zrobić to zadanie
nie pisząc ani jednej linii kodu.
Żeby po prostu on zrobił to zadanie za mnie.
Czy będzie w stanie.
I tak napisałem mu, tak strześciłem mu mniej więcej co ja od niego chcę,
jaki tam kod on ma napisać.
Wkleiłem mu to i coś wyszło.
No i właśnie i to nie było do końca to o co mi chodziło, ale ja umiejąc to czytać
byłem w stanie dokładnie stwierdzić co mi tu nie pasuje.
To oczywiście jakby działać wydziałało, ale no trochę nie robiło tego co
jednak miał robić.
I byłem mu w stanie powiedzieć nie, tak nie rób, zrób to.
Ja cię proszę żebyś trochę to zmienił i zrobił to w ten sposób.
No i tam chyba w takich dwóch rundkach feedbacku, dwóch rundkach moich
gdzieś tam uwag wyszło mu coś co działało i było dokładnie tym czym
bym chciał żeby było.
No przecież są teraz te takie zadania programistyczne Advent of Code
to ponoć tam ten mechanizm sobie radzi, bo one są bardzo dobrze opisane.
Tam szczegółowo jest opisane co trzeba zrobić, są podane dane i to jest coś
no co po prostu ten algorytm uwielbia, bo on ma konkretnie sprecyzowane
informacje, więc je mu w to graj.
I co więcej przy na przykład tym zadaniu, które ja mu dałem, no jakby
to było stare, więc ja pamiętam jakby ja to sam też robiłem i mi to zajęło
nie wiem ze 40 parę minut, godzinę, no bo to wiadomo napisać, tam błędy
pousuwać, to napisać, tamto napisać jeszcze w ogóle w języku, w którym
ja normalnie nie piszę na co dzień, więc dużo, dużo szukania w dokumentacji
jak to zrobić, jak tamto zrobić, jakie tu funkcje użyć i tak dalej.
Gdzie to program mi to napisał powiedzmy w pięć minut i nawet jeżeli
no coś jest na tyle komplikowane, że ja tego powiedzmy nie wykorzystam
w całości, to jeżeli się robi coś w języku, w którym się na co dzień
nie pracuje, to to jest też fajna inspiracja.
Aha, dobra, to się robi tak, to się robi tak, to się robi tak.
On idei trochę może nie załapał, ale da się poskładać z tych cegiełek
coś w ładną całość i ułożyć z tego to o co nam chodzi, mając już takie
trochę pojęcie czym on by szedł i a dobra, bo to jest taka funkcja
i on sobie to można wykorzystać.
Ja sobie też w ogóle trochę tak wyobrażam, że mając jakieś tam pojęcie
o programowaniu, gdybyśmy się chcieli nawet tego programowania
z tym botem uczyć, to mogłoby…
Dlatego też ja chciałam mówić o swoich wrażeniach, bo wy mówiliście
o tym, co wam najbardziej zaimponowało, więc teraz na mnie czas.
I u mnie też jest parę rzeczy.
Okej, więc skoro jesteśmy przy nauce, to pierwsza rzecz będzie o nauce.
Ten chatbot idealnie nadaje się do nauki różnych rzeczy.
Dosłownie klasyczna rzecz.
Napiszę mu, załóżmy, jak jest dzień dobry po hiszpańsku.
I on mi nie odpowie tam buenos tardes i dobranoc, tylko mi odpowie tak.
Generalnie w języku hiszpańskim jest dość podobnie jak w języku polskim.
Dzień dobry można powiedzieć przez buenos dias.
Ale jeżeli jest po południu, to zawsze można użyć słowa buenos tardes,
aczkolwiek jest to nieobowiązkowe.
Natomiast jeżeli jest już wieczór, to bardzo miło byłoby użyć słowa
buenas noches i tego samego wyrażenia można też użyć mówiąc komuś dobranoc.
I to nie jest jakby tłumacz, który mi powie tylko z języka A na język B,
tylko to jest ala nauczyciel, który mnie zaznajomi ze wszystkimi meandrami.
Albo na przykład dzisiaj chciałam sobie posprawdzać,
bo ja czasami mam taką fazę, że wpisuję sobie na przykład w Google’a,
w Baidu, w Yandex’a czy w jakiejś innej wyszukiwarki różnego typu
pewne konkretne kwestie dla niewidomych w różnych językach.
Czyli na przykład, nie wiem, aplikacje dla niewidomych do czegoś
albo urządzenie dla niewidomych do czegoś.
Załóżmy, nie wiem, po chińsku, po japońsku, po jakiemuś losowemu,
po rosyjsku, po jakichś innych jeszcze paru językach.
Po hiszpańsku załóżmy, okej.
I ja to zawsze robiłam Google’em, czy tam Deeple’em.
I to mnie ograniczało w taki sposób, że cóż, napisałam dla niewidomych,
wybrałam język, okej, dostawałam odpowiedź.
Ale jak ja napiszę temu właśnie chatbotowi jak jest dla niewidomych po japońsku,
to on mi napisze, że dla niewidomych po japońsku to jest albo tak, albo tak.
Przy czym można napisać też tak i oznacza to dla ludzi z dysfunkcją wzroku.
Więc mam już teraz trzy możliwości, a nie jedną.
Tylko na to też trzeba uważać, bo on potrafi stroić kwarmazony kompletne.
I ja mu na przykład kazałem, bo to jest jeden z moich takich fajnych testów
dla sztucznej inteligencji, odmienić przez przypadki słowo miecz.
I czy on umie odmienić przez przypadki?
I co on zrobił?
On powiedział, że celownik, no czyli komu, czemu powinno być temu mieczowi,
a on powiedział, że celownik to jest miecz, ten miecz.
Temu miecz.
Nie, powiedział ten miecz chyba nawet.
Potem nawet dał przykłady zdań i w ogóle to jest piękne,
że w przykładach zdań były zdania typu władca trzyma srebrny miecz na stole,
czyli on kompletnie jakby ogarnął, jaki jest klimat słowa miecz
i gdzie ono może wystąpić.
Tylko dlaczego on tak zrobił?
Bo właśnie zdał zdań z celownikiem.
Paulino, powiedziałeś twój test na słowa na A.
I to jest chyba też odpowiedź na to pytanie.
Tak, i to też zaraz opowiem. Oczywiście ja to miałam wspomnieć.
I z celownikiem powiedział, władca celuje w ten miecz.
I on sobie skojarzył, że celownik to znaczy, że słowem celuje.
Nie wiem, Tomku, czy ty pamiętasz Steffena Müllera,
słynnego niemieckiego komika, aktora, który opowiadał historię,
jak to jego znajomy, ponoć też Niemiec,
chciał tutaj w Polsce coś zdziałać naukowo i w języku polskim
i stwierdził, że napisze sobie doktorat o celowniku,
przypadek celownik. No i mówi, że szukał literatury po całym mieście
i w końcu znalazł na dworcu w Krakowie.
I Steffen Müller się go pyta, jak na dworcu w Krakowie
znalazłeś książkę o celowniku, w sensie gdzie?
No i pokazuje mu zestaw powieści kryminalnych na celowniku.
Cóż, a z ciekawości, czemu akurat odmienienie przez słowa miecz
jest dla ciebie takie testowe?
Wiesz co, dlatego, że wiem, że to był swego czasu problem komputerowy
dla wszelkiego rodzaju modów i gier tego typu,
że żeby one fajnie działały, to trzeba było wszystkie słowa
odmienić przez przypadki, trzeba było to robić ręcznie.
I jakby zawsze mając takie algorytmy, patrzę też trochę pod tym kątem,
czy one potrafią automatyzować na przykład taką robotę
i czy, bo jakby rzeczownik to jeszcze, bo tych przypadków jest siedem
dwie liczby, ale jak mamy jeszcze przymiotnik i mamy srebrny, srebrna, srebrna,
srebrnego, to tych form tam potem się mnoży i jest potem za trzydzieści
albo i więcej, więc jak ktoś ma to ręcznie robić, to ja serdecznie współczuję
ludziom, którzy musieli, a wiem, że tacy byli.
I jak powiedzmy tworzymy jakiś świat i mamy tego wszystkiego ileś,
to jest to ogromna ilość roboty, ja po prostu tak dla testu, dla zabawy,
czy jest w stanie w tym momencie komputer wyręczyć człowieka w takiej pracy.
Tak, wracając do mojej opowieści, bo ona jest dość długa niestety,
ale może inspirująca, no to ja też zawsze staram się weryfikować,
co on mi to wypluje, że tak powiem, jakimś też tłumaczem czy coś,
no bo to już nie jest żaden problem, to jest jeden skrót, strzałka w dół
i znowu ten sam skrót, więc jakby robota jest żadna przy tym,
a już jakaś weryfikacja jest.
Dlaczego tak robię?
Właśnie dlatego, że różne te błędy w tej sztucznej inteligencji się zdarzają
i właśnie bardzo łatwo go przyłapałam, każąc mu wymieniać słowa na A.
I wśród tych słów na A pojawiło się na przykład jabłko.
Bo to tłumaczenie z angielskiego podejrzewam.
No właśnie o to chodzi, dlatego zrobiłam taką przerwę, żeby można było to sobie zgadnąć.
Co prawda w innych wątkach, w innych sesjach udało mi się otrzymać jakiś wyjmek ze słownika,
gdzie tymi przykładami słowa na literę A to było abderyta, abderycki, coś tam, coś tam,
abażur, abaka.
Tak, bo w ogóle trzeba powiedzieć, bo my tu opowiadamy o naszych wrażeniach,
ale tak, jak w ogóle zacząć swoją przygodę z tym narzędziem,
bo o tym nie powiedzieliśmy, a tam jest jedna dostępnościowa pułapka,
mianowicie kod Kapcza.
Jeżeli zdecydowalibyśmy się na założenie tam konta z takim standardowym loginem hasłem,
tam trzeba przepisać kod z obrazka, nie ma żadnej alternatywy, ja przynajmniej nie widziałem.
Ale można się zalogować kontem Google, dziś widziałem konto Microsoft,
że też się można nim zalogować, nie pamiętam czy jeszcze, chyba GitHubem też się można zalogować.
Nie jestem pewien, ja się akurat logowałem Google i u mnie to działa bez problemu.
I teraz tak, pojawia nam się okienko, pojawia nam się pole edycyjne, w które możemy wprowadzać tekst
i po prostu sobie z tym chatbotem rozmawiać.
I nad tym polem jest wynik.
Tak, jest wynik. Jest też taki element, za pomocą którego możemy zresetować tę sesję
i wtedy on po prostu zapomina to, o czym do niego pisaliśmy.
Bo w przeciwnym wypadku efekty mogą być różne.
On się stara kontekstowo podchodzić do tych naszych zapytań
i jeżeli nagle zmienimy zupełnie temat naszej rozmowy,
to on mimo tego może starać się jakoś nawiązywać do tego, o co pisaliśmy wcześniej,
a to wcale nie musi być dobre i nie musi być fajne, jeżeli chodzi o wyniki.
Z takich rzeczy, które ja na przykład jeszcze też próbowałem,
to słuchajcie, jak na przykład nie wiecie, co by można było zrobić na obiad,
to możecie mu napisać, że macie w lodówce to, to i to, wymyślcie z tego jakiś przepis.
Dobra, fakt, że powiedział mi, że mogę zrobić sobie kotlety schabowe z mięsa mielonego
i że to jest taka znana potrawa, ale dobra, no wymyślił mi, co mam zrobić,
a że nazwał to trochę inaczej, no to dobra, niech mu będzie.
Ja mam wrażenie, że on ma takie dwa poniekąd ale.
Po pierwsze, on bardzo chciał, żeby po tego typu informacjach
on mi wklejał z jaką pewnością on mówi te informacje,
bo on ma, jak niektórzy ludzie, że nawet to, co mu się wydaje, to podaje jako pewnik.
I tak jak komuś chyba powiedział, że Skawiński jest w Lady Punk
i ja bym bardzo chciał, żeby on mi podawał właśnie, czy on to sobie tak myśli,
że to tak jest, czy to tak rzeczywiście on to wyczytał i to wie na pewno
z jakiegoś dziwnego powodu, bo akurat przeczytał, że ktoś na forum napisał,
no to jest tak właśnie, bo tego nie wiemy.
Nie wiem, czy to była jakakolwiek weryfikacja tych informacji, które dostaje,
podejrzewam, że średnio.
Myślę, że nie, że nie.
To było liczone w terabajtach czy w setkach gigabajtów, ten tekst.
I poza tym jedynym ze źródeł był Twitter i jakieś fora internetowe, więc no.
To jest cała magia tego LGBT, że kiedyś spróbowano weryfikować.
Nie ma przeciętnego internetu, więc może być ciekawie.
Więc różne rzeczy tam mogą się pojawiać.
Jeszcze ważna rzecz, tam są oczywiście bezpieczniki.
Jak próbujemy pisać na różne kontrowersyjne tematy albo na przykład powiemy mu,
żeby…
Jak zabić człowieka.
Tak, albo próbujemy ułożyć na przykład wesoły wierszyk o jakiejś katastrofie,
no to nie, to on nam tego nie pozwoli zrobić, on zaprotestuje,
to jest temat poważny i nie wypada układać wesołych wierszyków na ten tekst.
Choć nie zawsze, tak, tak, owszem.
I jeszcze a propos tych przycisków, które służą do resetu,
to one są tak naprawdę dwa.
Jeden to jest właśnie ten reset thread, o którym mówił Michał,
czyli zapominamy w ogóle wszystko co się stało, jesteśmy przyjaciółmi od nowa.
A drugi to jest try again, czyli spróbuj ponownie wygenerować odpowiedź.
I ta odpowiedź będzie nadal w kontekście tej rozmowy, która była,
ale ona będzie już troszkę inna i dosłownie ten try again czasami,
może i w jakichś dziwnych okolicznościach, bo mi się to już nie udało powtórzyć tego eksperymentu,
ale w pierwszy dzień testowania tego czatu zapytałam go na próbę
o programy lub usługi do spoofingu telefonicznego.
Za pierwszym razem powiedział mi, że spoofing to jest bardzo niefajna rzecz
i że tego się nie powinno robić, bo można oberwać wędzki, ponieważ jest to nielegalne.
Za magicznym przyciskiem try again i żadnym dodatkowym wysiłkiem z mojej strony
wymienił mi sześć takich programów.
Z kolei widziałem chyba na Twitterze był jakiś wątek,
że ktoś bardzo próbował, żeby chatbot opisał mu jak się włamać do domu.
I chyba to się koniec końców nie udało, mimo tego, że ktoś bardzo próbował,
że tam próbował mu powiedzieć, ale słuchaj, ja to do książki potrzebuję.
A to ja widziałem, i to też po angielsku, i to po angielsku działa naprawdę fajnie,
napisz rap, piosenkę, w sensie taką piosenkę rap o włamywaniu się do domu etycznie.
I jakby o tym też jak.
I on napisał, i to faktycznie było jakby w takim stylu, no jak tekst do piosenki takiej
z rymami, ze słowami takimi mało dość cenzuralnymi, no jak to rap,
taki typowy po prostu rap.
Ale jakby cały motyw tego był taki, że ta osoba mówiąca jest po prostu strasznie biedna
i nie ma co jeść, i on musi, bo jak nie, to zginie z głodu.
I on naprawdę nie chce, i on w ogóle chce oddać temu właścicielowi te pieniądze,
jak się to robi, ale on musi.
Ale etycznie na razie musi.
Ja go zmusiłem do przewidywania przyszłości.
To jeszcze lepiej.
Napisałem mu, żeby napisał artykuł.
Możliwa przyszłość konfliktu ukraińskiego.
Bo on pamiętajcie, że miał 2021 rok jakby końcówkę zwinął.
I napisał, że sytuacja jest ciężka, ale trzeba mieć nadzieję, że to się zakończy pokojowo
i wtedy jakoś będzie.
Bo jeszcze COVID i w ogóle.
Tak, czyli takie ogólniki.
Ja mu dałem piękny prompt po prostu.
Promptem się nazywa właśnie takie kwestie, jakie my mu dajemy i każemy mu to generować.
Ja mu dałem prompt, coś co jakby mnie zawsze interesował temat.
Wyobraź sobie, że komputery rozwijały się w Polsce i miały polską terminologię.
Nie wzorowaną na języku angielskim kompletnie.
Wzorowaną na polskich regułach gramatycznych, twórczych i polskich jakby korzeniach.
I dałem mu przykłady.
Tak jak kiedyś na przykład w Polsce wymyślono autentyczne, że klik to będzie plask.
Że odtwarzać CD to będzie światłograj.
Że joystick to będzie bawidełko.
Że interface to będzie międzymordzie i tak dalej.
I wygenerował mi z jednej strony fajne rzeczy.
Że na przykład procesor to byłby mózg komputera.
A dysk twardy to byłby na przykład trwały talerz.
I ja rozumiem skąd to się wzięło i tak faktycznie mogłoby być.
Ale potrafił na przykład powiedzieć, że smuszka na wskazanie myszką to w sumie ma sens.
Ale potrafił w ogóle zacząć dziwne rzeczy wymyślać.
Internetowy raj na sieć komputerową.
Nie wiem skąd to wziął.
Okienko na okno programu.
No okej.
Zegar komat na zegar procesora.
To kompletnie nie ma sensu.
O właśnie dyskoteka na dysk twardy.
I tam gdzieś było, że mysz komputerowa to byłby szczurek komputerowy.
Aha, no to faktycznie.
A ciekawe jakbyś mu tam jeszcze podał, że mysz komputerowa to był ten manipulator stołokulotoczny.
Co by to było.
Słuchajcie, generalnie ten chatbot może służyć naprawdę do robienia głupot, do po prostu zabawy.
Może też być całkiem interesującą pomocą.
Ale to o czym trzeba pamiętać i co trzeba mieć…
Jeszcze właśnie nie dopowiedziałam.
No.
Bo żeście mi przerwali w połowie mojej przedłużnej powiedzi.
A to mów, mów.
Kolejna rzecz, którą mi się udało ogarnąć.
Napisał mu właśnie, zrób mi prostą grę w języku Python.
I zrobił mi prostą grę w języku Python.
Której zasadą było to, że program losuje liczbę od 1 do 100.
Użytkownik ma wpisać liczbę w konsoli.
No i później program mu mówi, czy za dużo, czy mało, czy zgadł.
No jak zgadł, no to mówi za którym razem.
I wszystko spoko.
Ale raz się pomylił w zmiennej.
I załóżmy napisał tam…
No nie pamiętam.
Jakaś taka, po prostu synonim napisał.
I ja stwierdziłam, zapytam się.
Hej, ale czy wiesz, że w tym kodzie są błędy?
W sensie, czy możesz naprawić błędy, które masz w kodzie?
Nie wskazując mu tych błędów.
I on powiedział.
Tak, faktycznie, mam błąd w zmiennej.
Bo ta zmienna nazywa się nie coś tam name, tylko coś tam.
I faktycznie to zrobił.
Czyli nawet dla ludzi, którzy nie myślą zbyt dobrze programistycznie,
jest szansa, że jak po prostu napiszą, że jest jakiś błąd,
to ten błąd zostanie naprawiony.
Tak, że na przykład.
Ale słuchaj, tu mi pokazuje w programie,
czy tam w jakimś interpreterze Pythona,
że jest jakiś błąd.
Czy możesz spróbować to poprawić?
Coś tego typu.
Natomiast…
I w sumie ostatnia rzecz, już pomijając programowanie
i pomijając naukę, która zrobiła na mnie wrażenie.
To jest rzecz inspirowana w sumie Mastodonem
i takim kontem newsy z przyszłości na 10.10.10.pl.
Ja podejrzewam, że człowiek sobie zrobił konto,
którego istotą jest generowanie za pomocą ChunkGPT,
ale nie jestem tego pewna na 100%.
Jakieś treści albo bazujących na newsach takich, które są obecnie,
albo po prostu zupełnie oderwanych,
jakoś tam wzbogaconych o wątek jakiś taki właśnie przyszłościowy,
rewolucyjny i tak dalej.
I tam na przykład, że jakieś płyny w kierunkowskazach,
które są tam po to, żeby widzieć w ciemności,
albo że jakiś ktoś zrobił coś, jakąś niesamowitą usługę.
Już nie pamiętam, co tam człowiek tworzył na tym koncie,
ale widać, bo może to jest tak typowe dla hecy.
I teraz, o ile to jest heca, to jest heca.
Ale pojawia się taka myśl,
że jak są te wszystkie skamerskie strony,
zagłosuj na mnie gdzieś tam,
albo nie wiem, porwali jakąś tam dziewczynę,
nie wiem, porwali nastolatkę wideo,
tam zaloguj się do Facebooka,
bo musimy potwierdzić, że jesteś pełnoletni
i wtedy jakby wpisujemy to hasło i e-mail do Facebooka
i to idzie do tych oszustów, którzy nam podstawili tą stronę.
Albo tam nie wiem, no setki różnego typu rzeczy,
że tam włamali mi się na konto
i piszą do wszystkich ludzi, których znam,
żeby dawali pieniądze, bo potrzebuje pożyczyć na szybko.
To jeszcze niedawno bardzo szybko dało się,
że tak powiem, zneutralizować, unieszkodliwić,
bo to było pisane na kolanie.
W trzy minuty, pięć minut.
To miało od groma błędów, jakichkolwiek.
Bo to było jakimś translatorem, na przykład, tłumaczone często.
Czy płcie, czy jakieś słowa były źle napisane.
Okej, to było widoczne.
Ale teraz, jak wrzucimy temu e-mailowi,
żeby napisał tekst o porwaniu w Łodzi nastolatka,
to on nam napisze w zasadzie jakąkolwiek formę,
czegokolwiek, co mu chcemy napisać.
Nie wiem, żeby stworzył quiz o czymś,
żeby stworzył wywiad, żeby stworzył ogłoszenie,
żeby stworzył list miłosny, żeby stworzył artykuł,
żeby stworzył przedstawienie, żeby stworzył kawał,
żeby zrobił śmieszny napis na koszulkę.
Cokolwiek on to zrobi.
I jest dużo mniejsze szansa, że w tym będą najbardziej zauważalne błędy.
To jest rzecz jedna.
Trzeba bardzo wzmocnić czujność,
żeby teraz się na to nie zacząć masowo nabierać.
Ja mu kazałem pisać tutoriale programistyczne.
I mu napisałem, że napisz mi tutorial do tego i tego mechanizmu.
Jakby uznaj, że osoba czytająca ten tutorial
miała do czynienia z mechanizmami w tym języku programowania,
które były używane wcześniej.
I porównaj dlaczego ten nowy mechanizm jest lepszy,
wyjaśnij co on daje i dlaczego warto używać tego,
a nie tego poprzedniego.
No i zrobił. Bardzo dobrze zrobił.
Słuchajcie, to jest rzecz jedna.
Rzecz druga i to o czym mówiła Paulina,
to jest oczywiście bardzo poważny temat.
Rzecz druga i też bardzo poważny temat,
z którym mamy do czynienia obecnie,
to tak naprawdę wojna informacyjna
i dezinformacja wszelaka.
Mając tego typu narzędzie,
oczywiście ja wiem, że czat, GPT ma różnego rodzaju bezpieczniki,
ale skoro OpenAI wytrenowało sobie takie narzędzie,
a już gdzieś tam zaczynają powstawać modele,
z których będzie sobie można korzystać
na własnej infrastrukturze,
to raz, a dwa, nie wierzę, że skoro jedni zrobili,
to inni nie wykorzystają podobnej technologii
i nie wytrenują tego bez różnych bezpieczników
i pozwolą temu tworzyć różne rzeczy
bez ograniczeń tak naprawdę.
Bez jak bez, ale skoro można go takimi właśnie bezpiecznikami,
jak to ładnie ująłeś,
skierować na konkretne tory
i skierować na tory nie bycia rasistowskim,
nie bycia homofobem, nie bycia transfobem
i bycia lewicowym.
To można na drugą stronę.
Dokładnie.
To można go skierować na bycie protocyńskim,
bycie rasistowskim, bycie homofobicznym,
bycie takim, takim, takim, takim, takim.
I tak go przetrenować,
że treści, w którym będzie powiedzmy powiedziane,
że Ukraina jest super, a Rosja jest zła,
to absolutnie stronić, unikać,
a treści, w których będzie powiedziane,
że Putin jest zbawicielem świata, są super.
I tak, tak, te chcemy, te chcemy, te chcemy.
A automat jest w stanie takich treści,
a automat jest w stanie takich treści
generować ile chcemy.
I tak naprawdę, ja powiem szczerze,
w tym momencie, jak tak sobie o tym myślę,
to zastanawiam się, jaka czeka nas przyszłość
w zalewie tych informacji
i jak bardzo trzeba zacząć tak naprawdę
jeszcze bardziej myśleć
i weryfikować to wszystko, co się czyta
i co się dostaje,
bo tak naprawdę już powoli zaciera się ta granica
i na pierwszy rzut oka to już naprawdę nie wiadomo,
czy to, co napisaliśmy,
właściwie, czy to, co przeczytaliśmy,
to jest tekst od kogoś,
czy to jest tekst od automatu,
czy to jest coś od kogoś,
kto dysponuje jakąś wiedzą,
czy po prostu, czy to jest tekst napisany pod tezę.
Więc naprawdę, z jednej strony jest to rzecz super,
ja po prostu jestem pod mega wrażeniem tego,
co OpenAI stworzyło.
Z drugiej strony ja się autentycznie zaczynam zastanawiać,
no nie powiedziałbym, że bać,
bo to bez przesady,
raczej z taką ciekawością,
ale z taką pewną dozą niepewności
do tego podchodzę,
co w przyszłości nas czeka
i jak to będzie wyglądało,
jak będzie wyglądał internet za jakiś czas,
kiedy te boty tak naprawdę zostaną uwolnione,
a one zaczną się pojawiać,
to jest podejrzewam kwestia
najbliższego pewnie roku, dwóch.
Tak mi się wydaje,
ale ja jeszcze się jednej rzeczy boję,
która absolutnie niekoniecznie musi być intencjonalna,
chociaż może być intencjonalna,
ale będzie jakby nie tworzona przez,
w cudzysłowie, tych złych ludzi.
To znaczy, ja zrobiłem taki też mu eksperyment,
postarał się napisać coś z takim bardzo dziecinnym językiem,
z jakiejś wycieczki do muzeum,
że byliśmy w muzeum,
oglądaliśmy tam to, to, to i to,
ma z jakichś powtórzeń, błędów, czegoś i tak dalej, i tak dalej.
Kasen mu to napisał bardziej elegancko.
Napisał, ale pominął jeden czy dwa fakty, drobne,
typu tam, że nie napisał, że poszliśmy do kawiarni,
czy tam, nie wiem, coś tego typu, nie?
Ale teraz sobie taki tok rozumowania mi gdzieś tam przyszedł do głowy.
Załóżmy, że taką sztuczną inteligencję robi
WhatsApp, Facebook, nie wiem, Google, cokolwiek.
I teraz my sobie taką sztuczną inteligencją
możemy zażądać, żeby na przykład WhatsApp powiedział,
co się dzisiaj wydarzyło w naszych grupach, które obserwujemy,
albo Facebook, albo cokolwiek.
I zrobi piękne streszczenie, o czym się mówiło.
Ale zapomnij o jednym z dwóch tematach.
Jeżeli to będzie nieintencjonalne, no to tam pół bidy.
Ale jeżeli Facebook powie, nie wspominaj,
jeżeli będzie się mówiło o tym, czy o tym, czy o tamtym.
To mogą być takie rzeczy, które ludzie sami
wejdą sobie poniekąd w jakąś taką klatkę
i sami zaczną używać tych algorytmów
i nie będziemy wiedzieli, co nas omija.
Taka uszczelnienie, jeszcze bardziej bańki informacyjne.
Czyli tak naprawdę, Tomku, to jest przeniesienie tych algorytmów,
które mamy już teraz, które nam podsuwają różnego rodzaju treści,
ale przeniesienie tych algorytmów na wyższy poziom.
Bo ja myślę, że ty wspomnisz o tym,
chociaż ja tego nie testowałam, jak to jest.
Musiałabym to sprawdzić.
Ale na przykład jak napiszę sobie tekst jakiś
i jak zapytam się go, napisz mi ten tekst,
tak jakby go napisało dziecko
i w tym momencie tak naprawdę ułatwiamy życie pedofilom.
Ale właśnie i o tym chciałem powiedzieć, ułatwiamy też życie w drugą stronę.
I to już się zaczyna w języku angielskim wykorzystywać
i są osoby, które mówią, że swojej rodzinie to już podrzucają i polecają.
Napisz tekst, tak jakby go pisała osoba o wyższej klasie społecznej niż ty.
Czyli my piszemy powiedzmy tekst, że
słuchaj, bo ja mam u was kredyt i ja płacę tyle,
a czy w ogóle dałoby się coś zrobić, żeby było trochę mniej?
I napisz to tak, jakby pisał to profesjonalny doradca finansowy
klienta posiadającego ten kredyt,
znający prawo bankowe i wiedzący, jakie przywileje przysługują.
Ja już nawet planowałem dzisiaj napisać tekst na bloga
i po prostu pisałem go sobie jakoś na kolanie
i planuję go zaś podać czatowi, żeby go po prostu poprawił.
Tak, i w angielskim jest na przykład prompt
rewrite this in the New Yorker house style,
czyli napisz to jakby stylem, do którego powinni się stosować
dziennikarze gazety New Yorker
i podobno dając mu właśnie taki tekst po angielsku,
który jest napisany jakoś, wychodzi z tego cudowny tekst.
I ja na przykład uważam, że ja będę tego używał,
bo wiadomo, że ja angielski znam i ja mogę po nim pisać
i wszystko super, ale pewnych rzeczy gdzieś tam mogę nie zauważyć.
Nie jestem native’em i nawet po polsku nie zawsze
powiem wszystko w 100% gramatycznie i poprawnie,
a jakby co dopiero po angielsku.
I zdarzy się każdemu, a jeżeli ktoś nie jest native’em,
to zdarzy mu się tych błędów po prostu więcej.
I taki AI zrobi z tego tekstu, który jest jakiś w sumie zrozumiały,
ale mógł być lepszy, tekst po prostu ładny.
Był też taki przykład osoby,
która zaczynała jakiś swój biznes prowadzić,
tylko właśnie okej, ona coś potrafi,
ale miała problem z pisaniem na przykład maili do swoich klientów.
I ktoś właśnie wykorzystał w ten sposób ten model.
Nie pamiętam czy chatbota, czy któryś z wcześniejszych modeli OpenAI
do tego, żeby właśnie podpiąć po prostu tam jakoś konto pocztowe,
na które ta osoba wysyłała maile,
dostawała w odpowiedzi odpowiednio zredagowane treści.
Przecież już teraz na przykład w chatbocie wystarczy napisać
napisz zaproszenie na spotkanie na Zoomie na jutro,
link jest taki i tak dalej, i tak dalej.
Wystarczy zrobić jedno zdanie i tam napisać powiedzmy
napisz tonem oficjalnym, tak na przykład enter.
Szanowni Państwo zapraszam na spotkanie,
które odbędzie się i tak dalej, i tak dalej,
nic tylko przeczytać, dla pewności skopiować, wkleić, wysłać.
I no myślę, że wszelkiego rodzaju sekretariaty
i inne tego typu miejsca lubią to.
Lubią albo nie lubią.
Nieprofesjonalnie i tak po prostu, żeby było szybko,
czyli napiszemy zdanie typu weźmy wyślij to, o czym myśmy wczoraj gadali,
jeszcze może przedyktujemy to, bo to jest w ogóle,
że do tej pory problemem z dyktowaniem było też to,
że różne dziwne rzeczy tam wychodziły i czasem coś źle powiedzieliśmy
i się gdzieś tam cofnęliśmy, no i to nie było do końca to.
A teraz dosłownie powiemy weźmy wyślij to, o czym myśmy wczoraj gadali
na korytarzu, przerób to na profesjonalny e-mail.
Szanowny Panie, zwracam się z uprzejmą prośbą o przesłanie informacji,
o których wczoraj rozmawialiśmy podczas naszego spotkania
na korytarzu przed biurem z uszanowaniem.
Pani Sterli żyje taki, taki, a taki.
Tak, dokładnie, to w ten sposób będzie.
Ja próbowałem na przykład wklejać jakieś takie posty,
które były napisane trochę wulgarnym językiem,
które były napisane niechlujnie i kazać mu przekształcać to
na tekst profesjonalny. Robił to, zachowywał sens.
To działa.
Ja temat jeszcze trochę z innej strony chciałem ugryźć,
takie trochę bardziej związane z tematyką podcastu.
Drżę o troszkę zatrudnienie osób niewidomych w tym momencie,
bo zauważcie ilu z nas pracuje w jakichś takich,
znaczy ja aktualnie nie, ale ile osób pracuje…
W pisaniu, przepisywaniu.
Transkrypcja, copywriting pod SEO,
ale też jakieś takie właśnie wypełnianie,
czy jakieś wypełnianie danych,
czy jakieś uzupełnianie tabelek Excel i tak dalej.
No przecież teraz można sobie jakiś napisać do tego skrypt,
nawet czatem, czy wygenerować formułkę Excelową,
czy coś tam.
I z jednej strony to jest ten aspekt,
a z drugiej strony jest aspekt tego,
że jakby na przykład artyści też trochę teraz drżą o swoją pracę,
bo o ile nie zastąpimy jeszcze sztuczną inteligencją prawdziwej sztuki,
kogoś kto siądzie i namaluje jakiś obraz,
napisze opowiadanie albo jakiś taki tekst o walorach artystycznych,
który byśmy też chcieli gdzieś komercyjnie wykorzystać,
skomponuje muzykę i tak dalej,
to niestety w imię jakby cięcia budżetu i tak dalej,
że trzeba zrobić szybko i trzeba zrobić masowo,
sektor biznesowy, przemysł szeroko pojęty,
jakikolwiek by on nie był, no współczesny przemysł,
produkty, usługi, reklama i tak dalej,
czy dla oszczędności nie przesiądzie się na właśnie takie GPT-3,
bo to jest dostatecznie dobre.
To nie jest idealne.
Wiadomo, gdyby za to się zabrał jakiś wzięty copywriter
albo artysta albo ktoś, kto po prostu robi to z powołania
albo robi też to zawodowo i z talentem,
byłoby idealnie i byłoby super,
ale nie mamy pieniędzy albo nie chce nam się płacić,
a to może być też troszkę retoryka takich co większych firm,
co bardziej pazernych na pieniądze.
Wrzućmy tu bota, bo to jest good enough.
I w tym momencie obniży się też jakość tego,
co będziemy mogli oczekiwać od rynku,
na przykład reklamy.
Ja wiem, że to się z czasem poprawi,
że to się wytrenuje i tak dalej,
ale…
Czyli tak naprawdę dojdzie do sytuacji…
…tego co tworzy automat.
Jakby będzie wiadomo, że to tworzy automat,
ale nikt nie będzie o tym nic mówił.
Ja myślę, Pawle, że po prostu może dojść
do takiej sytuacji, że będziemy mieli to…
…te sytuacje związaną z rzemieślnictwem
w coraz to większej liczbie różnych zawodów.
Na przykład, no nie wiem, powiedzmy,
można pójść na masówkę
i zlecić automatowi napisanie jakiegoś artykułu
czy jakiegoś tak zwanego precla,
gdzieś tam powiedzmy pod te rzeczy do wyszukiwarek,
a można zlecić komuś,
kto na przykład się w tym specjalizuje.
Oczywiście będzie odpowiednio droższy,
ale też będzie miał, nie oszukujmy się,
zdecydowanie mniej zleceń.
I to jest to, o czym ja no gdzieś tam i myślałem
i mówiłem też dość często,
że różnego rodzaju zawody no mogą
nawet nie tyle przestać istnieć,
bo to bez przesady,
ale na pewno mogą się zminimalizować ich ilości.
Pytanie co dalej,
a na to pytanie jak na razie odpowiedzi nie zna nikt.
Bo to jeszcze jest przed nami.
Jeszcze w ogóle jedno jest takie fajne zastosowanie,
do którego zaczęto już używać tego typu rozwiązań.
Powstają gdzieś już powoli wtyczki,
które sobie na przykład zapinamy do Chroma
i taka wtyczka zintegruje się z widgetem czatu,
wsparcia klienta na konkretnej stronie
i negocjuje dla nas pewne rzeczy.
Wiele stron ma właśnie taki czat,
że możemy sobie zamiast infolinii
porozmawiać tekstowo na czacie z no daną firmą
i już jest taka gdzieś tam firma właśnie w Stanach Zjednoczonych,
która zaczyna oferować takie usługi,
że na przykład obniż swój rachunek miesięczny
za kablówkę o 30 dolarów
i to oni tam działają,
wpinają się właśnie w ten czat webowy
jednej konkretnej firmy kablówkowej,
która tam w Stanach działa
i negocjują,
że bo ja mam teraz trudną sytuację finansową
i czy może byłaby opcja obniżenia mojego rachunku,
bo ja oglądam jednak tę telewizję,
ale jeżeli państwo nie obniżą,
to ja będę musiał zrezygnować itd., itd., itd.
I to, co ludzie mogliby zrobić,
bo te firmy mają właśnie procedurę na to,
że jeżeli klient negocjuje i on nam powie,
że jest w takiej sytuacji a nie innej,
to jest jednak szansa na to,
że my mu coś tam upuścimy troszkę.
Takie utrzymanie klienta tak zwane.
Dokładnie, bo bardziej nam się opłaca
obniżyć mu ten rachunek
i jednak mu to sprzedać za niższą cenę
niż w ogóle mu tego nie sprzedawać,
jeżeli on grozi, że on od nas odejdzie.
A z drugiej strony
ludziom bardzo często się po prostu nie chce
o jakieś małe, może czasem śmieszne kwoty
bawić w takie rzeczy,
bo te procedury są bardzo specjalnie trudne
i specjalnie niezbyt przyjazne klientowi,
żeby po prostu ludzie tego nie robili.
I takie właśnie się usługi gdzieś tam zaczynają pojawiać,
które jedno kliknięcie,
logujemy się do panelu klienta
i tylko sobie obserwujemy,
jak nam niewidzialna ręka sztucznej inteligencji pisze
szanowny panie, czy mógłby pan może obniżyć
itd., itd., itd.
Słuchajcie, ja myślę, że moglibyśmy jeszcze
o tym rozmawiać długo.
Zachęcamy was generalnie do pobawienia się tym,
do wykazania też swojej kreatywności,
a podejrzewam, że kreatywność to będzie coś,
co nam wszystkim w najbliższym czasie
się naprawdę mocno przyda,
bo te wszelkie zajęcia powtarzalne,
takie, które wymagają schematu,
tak, odtwórcze, powtarzalne pewnych schematów,
w których nie oszukujmy się,
dużo niewidomych się po prostu realizuje,
zresztą nie tylko niewidomych,
bo też i dużo osób w pełni sprawnych.
Powoli, powoli gdzieś tam zaczynają nam się zmniejszać.
Tu jest taka sztuczna inteligencja,
zobaczymy jaka będzie w przyszłości.
Do tej pory tak naprawdę nie było takiego BOT-a,
z którym można by było sobie porozmawiać
na takim poziomie i o tak wiele rzeczy go zapytać.
Ktoś by pomyślał, że to jest nierealne.
OpenAI pokazało, że jest realne
i ja naprawdę z dużą ciekawością podchodzę do tego,
co będzie w przyszłości,
bo oni na pewno nie powiedzieli jeszcze ostatniego słowa.
Kreatywność to jedno,
ale taka elastyczność to drugie to znaczy,
bo nie wiadomo jakie będą zadania.
Być może znajdziemy,
tak sobie teraz przykład daję, nie wiadomo czy realny,
że może będziemy mogli być zatrudnieni na przykład
w jakoś trenowaniu tego rodzaju BOT-ów
albo w jakimś przesiewaniu tych informacji,
które tam BOT albo dostarcza, albo przyjmuje,
albo nie wiem co tam jeszcze.
Tego nie wiem,
ale warto się przygotować na zmiany
i widzieć, że one mogą nadejść po prostu.
Tak, no jest przecież tak,
chociażby Tomku z twojego ogródka.
Są przecież technologie,
które na przykład już coraz więcej
jest ich dotyczących obróbki audio.
Nawet są przecież, jest jakiś,
jest maszyna, czy właściwie algorytm,
jest usługa, jak ona się nazywała?
Clean Voice, czy podobnie?
Już teraz nie pamiętam,
ale która te wszystkie i tak dalej
z materiałów audio miała wycinać.
Muzyczek jest dużo.
Tak, i ona to robiła.
Na razie jeszcze jako tako tylko,
ale to też z czasem.
To mastering i to automatycznego masteringu.
Oczywiście.
Jest program typu DAW-u,
czyli tak jak Reaper i tak dalej,
że wstawiasz mu ścieżki
i on sam robi taki wstępny mix.
Dokładnie.
Tylko po prostu potem mu dopieszczasz i tak dalej.
Ale jakby to, co takie jest najważniejsze,
on robi sam.
On już zrobi, tylko potem wystarczy to
jeszcze jakoś tam o to zadbać.
Tak, tego jest coraz więcej
i trzeba się po prostu w tym wszystkim
odnaleźć tak czy inaczej,
bo no żyjemy w ciekawych czasach.
To z pewnością.
Dobrze, słuchajcie.
Jeszcze tak dopowiem.
Dosłownie na ostatnią,
z rozrzutem na taśmę,
że tak zupełnie niezobowiązująco,
undergroundowo, czasami frywolnie
bawimy się różnymi technologiami.
Nie tylko, nie tylko chatbotem.
Na grupie telegramowej
t.messlash zabawa z AI.
Jest AI, jest zabawa.
Co prawda nie zawsze są to takie treści,
o których by warto było mówić na podcastie,
ale w ramach dzielenia się odkryciami
swoimi związanymi z różnymi technologiami
zapraszam.
Jestem na to przestrzeń.
Jest na to tak bardziej w stronę śmiechu,
bardziej w stronę właśnie odkryć.
To tak naprawdę chyba zależy od użytkownika,
bo jedni wrzucają tam po prostu
same śmieszne rzeczy,
inni wrzucają rzeczy mniej śmieszne,
a jest miejsce dla każdego,
kto po prostu no próbuje swoich sił
chociażby z chatbotem, tak.
No bo teraz to głównie ta grupa powstała
przy okazji zabawy z chatbotem
na Tyflopolsce.
To tak nawiasem mówiąc.
Tak, żeby też spam odfiltrować.
Dokładnie, tak jest.
Dobrze, słuchajcie, to przejdźmy
do kolejnych tematów.
Mamy sobotę, a my jeszcze w pracy.
Teraz o katalogu aplikacji na Maca,
a właściwie do paska menu naszego Maca.
To o tym Paweł.
Tak, jest taki katalog.
Nazywa się Mac Menu Bar
i znajdziemy go pod adresem
macmenubar.com
No i tam ponad 750 aplikacji,
które integrują się z paskiem menu Maca.
Nie odpowiadam za ilość pieniędzy,
które wydacie z waszej karty
na te różne narzędzia.
Katalog jest dość regularnie aktualizowany.
Widziałem, że ostatnia aktualizacja dziś.
No i jak patrzyłem na najnowsze narzędzia,
to znalazłem nawet integrację czata właśnie GPD
na pasek menu.
Nawet tak.
Tak, więc jest tego dużo.
Wiem, że takie narzędzia się bardzo zawsze chętnie przyjmują.
No więc polecam się rozejrzeć,
bo może niektórych z nich nie znaliście.
Jest tych narzędzi, faktycznie jest ich.
I ja choć na przykład nie lubię,
bo w pewnym momencie
na tym pasku się robi po prostu duży chaos
i znaleźć tam coś nie jest wcale tak prosto,
no ale można.
Tak, to jest tak samo jak z tym paskiem menu w Chromie,
który to, no początkowo fajnie,
że można tam sobie te rozszerzenia przypinać,
a potem to człowiek się zastanawia,
co tu się tak narobiło tych różnych elementów.
A teraz kolejny temat.
Paulino, drobne różne informacje od Ciebie.
Tak, tylko czy jestem wyciszona?
Nie, słuchajcie.
Okej, tak.
Pierwszą z tych informacji
i tak naprawdę ostatnią,
bo miałam dopisać tu więcej,
ale mi wyleciało.
Jest informacja o nowej wersji przeglądarki Google Chrome,
która od teraz wspiera
trzy nowe operatory wyszukiwania w pasku adresu.
Możemy wpisać małpa tabs,
małpa bookmarks i małpa history,
żeby przeszukiwać odpowiednio to,
co jest w naszych otwartych kartach,
w naszych zakładkach i w naszej historii.
Przeglądanie. Jeszcze nie wiem, jak to działa,
ale jest to na pewno remedium na problemy osób,
które mają 50 kart pootwieranych w Chrome
i niezbyt mają jak się dostać tam, gdzie chcieliby.
Muszę wypróbować.
No to tutaj jest jakieś tam rozwiązanie.
To jest wersja 108 chyba, czy jakoś tak.
Nie wiem, no ja obecnie używam Centbrowser, więc jestem poza obiegiem.
Ale skoro miały być drobne newsy, a nie drobny news,
to powiem z rzeczy, których w zasadkach nie ma,
że obecnie też świat technologiczny
zachwyca się przeglądarką Arc.
To jest jakaś przeglądarka, która bazuje na tym,
że wszystko ma być pochowane
i generalnie to, co ma się wyświetlać, to głównie strona.
Ale poza tym, jakby poza wyglądem interfejsu,
ma też jakieś swoje konkretne rozwiązania.
Jakieś coś a la Finder.
Jakby nie czytam konkretnie, w sensie też trudno mi jest
się do tego odnosić, bo jest na razie tylko na Maca.
Dostaję wersję na Windowsa i jestem na razie na waitliście.
I też ważną informacją jest to, że ta przeglądarka jest oparta na Chromium.
Więc jakaś tam dostępność powinna być zachowana.
No więc powiem, jak się dowiem, że już jestem poza waitlistą.
No i oby tak po prostu dostępnością.
Ja może się podepnę jeszcze szybko pod drobne newsy,
bo to będzie na pewno szybkie.
Ta funkcja, o której mówiliśmy, ja o tym mówiłem wiele tygodni temu
w Whatsappie, czyli społeczności, zawitała już do nas oficjalnie.
Jest z nami i można tworzyć społeczności, czyli takie jakby
wielkie grupy parasole, w ramach których można podpinać
różne grupy w środku, trochę jak tak Slack i kanały.
I zastanawiam się, ile to czasu minie i dlaczego tak krótko.
Zanim ktoś u nas w naszej społeczności osób niewidomych
w Whatsappie temat i spróbuje zjednoczyć te wszystkie
Whatsappowe grupy, które się po Whatsappie panoszą.
Ale czy to tak w ogóle można zrobić, że możesz dodać grupy,
w których nie jesteś administratorem?
Bo z tego co ja widziałem, a bawiłem się tymi społecznościami chwilkę,
to tam możesz utworzyć oczywiście społeczność,
ale możesz tam dodać, możesz tam w obrębie tej społeczności
utworzyć grupy, nie możesz na przykład stworzyć społeczności
i dodać grup istniejących.
Prawdopodobnie nie, więc pytanie, czy tu będzie jakiś ruch,
żeby się dogadać.
Poza tym tam chyba też są jakieś limity na uczestników
w tych społecznościach.
Ja nie wiem, czy one nie były jakieś małe przynajmniej na razie.
Ogólnie tak, ja też czekałem na te społeczności,
ale jak chwilę się tym pobawiłem, potestowałem,
to tak mnie to trochę rozczarowało, bo to tak naprawdę jest folder,
wewnątrz tego folderu są grupy.
I wszystko, i cała magia zresztą tak w ogóle.
Zdaje się, że Teams też idzie za ciosem i wprowadza społeczności.
Tak, teraz wszyscy będą społeczności wprowadzać.
No tak, i tematy na Telegramie.
W ogóle WhatsApp ma problem ostatnio i coraz więcej osób
ze mną wyłącznie dostało ten problem, że na iOS,
na wiadomościach grupowych po wiadomości jest przycisk
few contact details, czyli zobacz tam szczegóły kontaktu, coś takiego.
Tak, też to mam.
I nie jest to fajne, bo trzeba się po prostu przez to przebić.
A z kolei WhatsApp Web też nie jest już tym, czym był.
Przynajmniej na Macu na przykład nie działa już enter
na wiadomościach głosowych, trzeba się dobijać do przycisku
odtwórz wiadomość głosową.
Wcześniej uczyło się menu kontekstowe, bo tam, gdzie kiedyś
strzałka w prawo otwierała nam bezpośrednio menu kontekstowe,
tam teraz jakby strzałka w prawo przechodzi nam do poszczególnych
przycisków wiadomości, czyli na przykład jeżeli mamy wiadomość,
która jest odpowiedzią na coś, to mamy przycisk cytowana wiadomość,
mamy przycisk zareaguj i mamy przycisk menu kontekstowe.
Jakby strzałka w prawo porusza się po tych przyciskach
i jeżeli my chcemy odpowiedzieć na wiadomość,
to musimy doklikać tą strzałką do menu kontekstowego,
wcisnąć enter, tam mamy opcję odpowiedź, enter
i dopiero możemy na przykład odpowiadać.
No i jeszcze dzisiaj dostałem w ogóle jakąś zmianę,
że na WhatsAppie mam, co teraz mam, ja teraz wam dokładnie powiem,
bo teraz gdzieś tu tego WhatsAppa mam, jak się ta informacja
dokładnie nazywa.
O właśnie, otwórz szczegóły czatu dla i tu nazwa kontaktu
i dopiero treść wiadomości.
Jak się porusza jakby strzałką góra-dół, to zanim usłyszymy w ogóle
treść wiadomości i osobę, no to powiedzmy, że słyszymy
na przykładu otwórz szczegóły czatu dla użytkownika Paweł Masarczyk,
Paweł Masarczyk cześć, jeżeli to jest grupa.
No nie, no nie, to nie powinno tak wyglądać.
No niestety, ja też potwierdzam, u mnie się pojawiają te szczegóły czatu
dla kontaktu, co ciekawe, jeśli ktoś wyśle kilka wiadomości po sobie,
to ten przycisk jest tylko raz.
To taka ciekawostka.
Natomiast też bym się jeszcze dopięła z taką luźną kontynuacją
twojego niesobawle o trybie czytania.
Spróbowałam sobie typowo dla testu najpierw odpalić ten tryb czytania
na gołym telegramie, a później na czacie otwartym z jedną osobą
i co prawda aplikacja grzecznie zgłosiła, że w sumie
nie ma tutaj tekstu, który jest rozdzielony na wiele akapitów,
więc ona tutaj niezbyt ma coś do roboty,
ale to co mi się śmiesznego udało,
to jest zautomatyzowane przejście na drugi koniec
scrollowania ekranu.
Więc cóż, jeżeli potrzebujemy coś na przykład z początku konwersacji,
a nie chce nam się scrollować, bo ona jest długa,
to zapuszczamy sobie automacik.
I można.
I można, dokładnie.
No to tak a propos telegrama, to tu się zmienia Tomku, prawda?
Bo można stworzyć konto nie mając numeru telefonu,
czy tam go nie podając, ani nazwy użytkownika.
Tak, to znaczy można stworzyć numer w jakimś serwisie Fragments.
Nie znam tego serwisu.
Tam podobno się tworzy te numery telefonu
zraz takie magiczne słowo blockchain, a technologia
i ten numer ponoć można podać do telegrama
i w jakiś sposób takie konto otworzyć.
W związku z powyższym można utworzyć konto telegramowe
nie podając jakby swoich rzeczywiście danych prywatnych,
swojego numeru telefonu.
W związku z powyższym, no nie wiem jak to działa,
ale być może komuś się taka informacja przyda.
No króciutko, to taki krótki news,
ale no niestety dzisiaj no mało mam tego wszystkiego.
W dodatku ci prowadzę, no i jakoś tak to się.
I w dodatku do śpiewania też ci daleko z tym głosem, tak?
Tak.
A ostatni news będzie właśnie o śpiewaniu, o karaoke,
bo Apple wkracza w ten świat, Pawle.
Tak i co ciekawe to będzie nawet dostępne.
Wow.
Wchodzi funkcja Apple Music Sing.
Już jest nawet demo tej funkcji na Apple Viz
jak do niej dotrzeć.
A na czym to polega?
No pojawi się kilka funkcji, które nam umożliwią śpiewanie
do ulubionych utworów z Apple Music.
Pierwszą z tych funkcji jest możliwość ściszania wokalu w utworach.
Na ten moment działa to w wybranych utworach tylko.
Napisane jest dziesiątki milionów,
ale ponoć są problemy ze starszymi utworami, lata 70, 80.
Na 100% działa z tymi naprawdę najnowszymi.
Warto testować na Taylor Swift na przykład,
w utworach tam bez problemu powinno się udać.
Udać powinna się ta sztuka.
No rzeczywiście na ekranie odtwarzania mamy suwak głośność wokalu
i możemy go przesuwać sobie w górę, w dół i po procentach regulować
jak cicho albo głośno chcemy w tle słyszeć wokal oryginalny,
żeby sobie pomóc albo w ogóle nie.
Po drugie teksty utworu będą się wyświetlały, będą animowane
i będą się wyświetlały w miarę.
Ja myślałem, że to, mi się wydawało, że to już było,
bo już kiedyś o tym chyba mówiłem, ale powtórzę jeszcze raz,
bo to na 100% teraz jest potwierdzone, że działa.
VoiceOver będzie też ten tekst czytał w miarę jak on się pojawia na ekranie,
czyli możemy zrobić coś takiego, że wywalamy kompletnie wokal
i na instrumentalu piosenki VoiceOver, synteza z VoiceOvera rapuje sobie tekst.
Ale możemy też my go czytać.
Jedyne, czego jeszcze nie sprawdziłem, to na ile to sprawnie działa
z monitorem brailowskim, żeby sobie czytać za monitorem.
No bo to aż by się prosiło, żeby to w ten sposób działało.
Mam nadzieję, że też tak jest.
Ciekawe, czy tam wrzucili faktycznie instrumentale,
czy to jest robione jakąś sztuczną inteligencją.
Nie wiem. Szczerze mówiąc nie wiem, bo to można naprawdę,
wiesz, możesz puścić utwór, on normalnie sobie leci jak studyjny
i z tego studyjnego wyciszasz wokal suwakiem w czasie rzeczywistym.
Ale jeżeli to działa tylko na konkretnych utworach,
to raczej to są umieszczone rzeczy.
Tak, ale będzie się to pewnie poszerzało,
chociaż mają powstać jakieś playlisty w ogóle utworów najpopularniejszych,
które nuci cały świat, które są kompatybilne z tą funkcją.
To będzie działać na iPhonach, na iPadach i na Apple Watch,
przepraszam, TV, tym 4K najnowszym.
Co ciekawe jest też tryb śpiewania w duecie,
że jeżeli jest więcej wykonawców uczestniczących w danym utworze
i chcemy go zaśpiewać w duecie z kimś,
to na ekranie wyświetlą się te teksty obydwu partii po obu stronach,
więc każda strona może się skupić na swoim i w odpowiednim momencie wejść.
Można sobie w ogóle skupić się na tekście chórków, na tekście solistów.
Jest to bardzo, bardzo konfigurowalne.
No i jest to ciekawe. Kto wie, na Sylwestra będę się widział z grupą znajomych.
Ale wiesz co, niekoniecznie.
Może testujemy.
Może być tak, no bo żeby powstała ta funkcja,
musi być piosenka z wyciszonym wokalem plus tekst utworu
i pewnie nie każdy utwór ma swój tekst.
Jeszcze tak fajnie przygotowany, żeby to leciało, więc możliwe, że…
Chociaż na Apple bardzo dużo ma, w sensie Apple jest bardzo fajny pod kątem tekstów.
Tak, ale ten tekst musi iść jeszcze równo z piosenką,
więc oni muszą ten tekst…
Bardzo dużo ma, w sensie nawet polskie rzeczy…
Tak, to chyba nie jest nowym w ogóle właśnie, dlatego się zdziwiłem,
bo tekst na żywo był już wcześniej i Wojciech też czytał.
Tak, i był też tekst, w którym mogliśmy kliknąć na konkretny jakby moment
i przeskoczyć do tego momentu.
I to naprawdę, powiedzmy, że w miarę niszowe zespoły miały ten tekst,
a w miarę niszowe płyty, w miarę niszowych zespołów
miały na Apple tekst taki zwykły, nieklikalny.
Czyli w ogóle jakiś, no taki polski zespół nie jakoś super znany.
No gdzieś tam znany, znany, ale nie jakoś, nie wiadomo jak super.
Ja w ogóle na przykład płytę Live kiedyś patrzyłem,
to na płycie Live, okej, był tekst zwykły, nieklikalny.
Więc pokrycie tymi tekstami na Apple jest naprawdę fajne.
No to zobaczymy, Pawle, jak będziesz imprezował w stylu karaoke,
to zdaj potem relację, co wyszło.
Okej, nie ma sprawy.
Albo nagrywaj i wrzuć na podcast.
Albo na przykład, były już kiedyś, to zdaje się ty też opowiadałeś
o jakichś japońskich automatach do karaoke,
które się z monitorami brajlowskimi jakoś potrafiły łączyć.
Tak, te firmy, co szejki.
No widzisz, bo mamy coś bardziej mainstreamowego dla wszystkich.
No okej, to jest ostatnia notatka z naszego dzisiejszego Tyflo Przeglądu,
przynajmniej według tego, co mam tu zapisane.
A teraz pytanie, czy ktoś jeszcze chciałby się czymś podzielić na koniec.
Jeszcze tylko… Tak, słychać?
Tak, słychać.
Wracając do tematu Whatsappa, bo sobie właśnie akurat zacząłem tutaj czytać grupkę.
I wszystko fajnie i da się tego jeszcze jakoś używać,
póki to jest nazwa kontaktu.
W momencie, gdy osoby nie mamy w kontaktach, to jest jeszcze gorzej,
bo nazwa tego przycisku na webie zawiera również numer telefonu.
Czyli powiedzmy, że jest to Paweł Masarczyk,
to informacja byłaby coś w rodzaju otwórz czat dla użytkownika Paweł Masarczyk
plus 48 123 456 789.
A właśnie mamy numer telefonu.
Paweł Masarczyk plus 48 123 i tak dalej, i tak dalej, i tak dalej.
To jakiś wiadomo tam losowy i dopiero wiadomość, więc dwa razy numer.
No nie, no nie, no nie, no nie.
A jeszcze pozostając w temacie…
W Whatsappie troszkę można się to ukryć dowodkiem do NVDA.
Pozostając w temacie Whatsappa, dosłownie króciutki news.
Nie wpisywam notatki, bo też z Whatsappem się nie identyfikuję.
Podobno ma zostać wprowadzona funkcja, w ramach której wiadomość będzie automatycznie
kasowana po jednokrotnym przeczytaniu przez drugą stronę.
Cóż, zobaczymy co z tego będzie i jaki będzie dalszy los Whatsappa.
No ale w każdym razie też są alternatywne komunikatory, warto o nich pamiętać
i być może używać nieco większej ich ilości.
I tak rozumiem tyle w 163 Tyflo Przeglądzie, który dla was wyjątkowo w piątek poprowadziliśmy.
Z ciekawości, czy to jest najdłuższy Tyflo Przegląd?
Jest na to duża szansa.
Jest na to duża szansa, kończymy o godzinie 0.50. Za dziesięć pierwsza.
Ładnie. Dziękujemy wam bardzo za uwagę. Paulina Gajoch, Paweł Masarczyk, Tomasz Bilecki, Mikołaj Hołysz
i mówiący te słowa Michał Dziwisz. Dobrej nocy, bo to już noc.
Był to Tyflo Podcast. Pierwszy polski podcast dla niewidomych i słabowidzących.
Program współfinansowany ze środków Państwowego Funduszu Rehabilitacji Osób Niepełnosprawnych.

Wszystkie nagrania publikowane w serwisie www.tyflopodcast.net są dostępne na licencji CreativeCommons - Uznanie autorstwa 3.0 Polska.
Oznacza to, iż nagrania te można publikować bądź rozpowszechniać w całości lub we fragmentach na dowolnym nośniku oraz tworzyć na jego podstawie utwory Zależne, pod jedynym warunkiem podania autora oraz wyraźnego oznaczenia sposobu i zakresu modyfikacji.
Przekaż nam swój 1% podatku 1 procent Logo FIRR Logo PFRON Logo Tyfloswiat.pl

Czym jest Tyflopodcast?

Tyflopodcast to zbiór instrukcji oraz poradników dla niewidomych lub słabowidzących użytkowników komputerów o zróżnicowanej wiedzy technicznej.

Prezentowane na tej stronie pomoce dźwiękowe wyjaśniają zarówno podstawowe problemy, jak metody ułatwienia sobie pracy poprzez korzystanie z dobrodziejstw nowoczesnych technologii. Oprócz tego, Tyflopodcast prezentuje nowinki ze świata tyfloinformatyki w formie dźwiękowych prezentacji nowoczesnych urządzeń i programów. Wiele z nich dopiero znajduje sobie miejsce na polskim rynku.

Zapraszamy do słuchania przygotowywanych przez nas audycji i życzymy dobrego odbioru!

Tematyka

Pozycjonowanie i optymalizacja stron internetowych