TyfloPrzegląd Odcinek nr 168 (wersja tekstowa)
Pobierz napisy w formacie SRT
Pobierz napisy w formacie VTT
Fundacja Instytut Rozwoju Regionalnego prezentuje Tyflo Podcast.
Dzień dobry. O, teraz mnie słychać. Dzisiaj 168. audycja Tyflo Przeglądu. Skład skromniutki, trzy osoby.
Michał Dziwisz, Paweł Masarczyk i ja, czyli Tomek Bilecki.
Dobry wieczór, witajcie.
No i co, dzisiaj mimo wszystka informacji troszeczkę dla Was przygotowaliśmy.
A co przygotowaliśmy, o tym za chwilę, jak zwykle zresztą, Michał.
W tym tygodniu w Tyflo Przeglądzie.
Doświadczenia z zamawiania biletów w nowej aplikacji PKP oraz ze społeczności na Whatsappie.
Artykuły z Tyflowiki oficjalnie w nowym miejscu.
OpenAI ma zamiar wprowadzić płatną wersję ChatGPT.
Zakończyło się wsparcie BrailleSense U2 QWERTY.
SensePlayer OCR, nowy odtwarzacz książek od Hims na bazie Androida.
Tytanowa laska na każde warunki.
Rękawiczka do nauki Brailla.
Dodatki zwiększające dostępność Thunderbirda.
Co nowego w TalkBacku 13.1?
Powstaje aplikacja pomagająca w nakładaniu makijażu.
MediaHotKeys, rozszerzenie dodające skróty klawiszowe z YouTube’a na dowolnej stronie internetowej.
Pojawił się kolejny program poprawiający dostępność niektórych instrumentów wirtualnych.
Niewidomi i słabowidzący po raz pierwszy zagrają na Australian Open.
Nowości od Apple.
Niektóre usługi sztucznej inteligencji od Amazona dostępne po polsku.
DeepLWrite, narzędzie do poprawiania naszych obcojęzycznych tekstów.
Twitter odcina dostęp znanym klientom zewnętrznym.
Wszystko to, a pewnie jeszcze więcej już za chwilę.
Zaczynamy!
A zaczynamy oczywiście jak zwykle od informacji, że możecie się z nami kontaktować na Facebooku, na YouTubie chyba też jesteśmy.
Tak jest, jesteśmy, jesteśmy. Możecie pisać na czacie, zapraszamy.
W aplikacji Dawida Piepera, no i oczywiście na stronie kontakt.tyflpodcast.net.
Jest jeszcze aplikacja mobilna, co prawda w TestFlight, ale można, są użytkownicy, którzy testują i też tam można na iOSa sobie ją pobrać, no i potestować.
Tak jest.
I pisać do nas.
Tak jest. No to w takim razie przechodzimy już do informacji, które przygotowaliśmy. Jeszcze takie informacje, które gdzieś tam zahaczają o to, co się działo w poprzedniej audycji.
Doświadczenia z zamawianiem biletów w nowej aplikacji PKP oraz, no, Paweł tutaj przygotował jakiś, nie wiem, zbiór informacji. Co to jest?
Bardziej taką opowieść, bo nareszcie udało mi się. Miałem to robić tydzień wcześniej, a jednak sytuacja nie pozwoliła.
No a teraz mogłem już spróbować, jak to jest, zamówić bilety kolejowe nową aplikacją PKP Intercity na system iOS.
No i co mogę powiedzieć? Mogło być gorzej, ale mogło być zawsze lepiej.
Dlaczego mogłoby być gorzej? Bo aplikacja zasadniczo jest dostępna. Wszystko, co należy w niej zrobić, zrobić się da.
Czyli zarówno wybór, oczywiście miast, wiadomo, startowego, docelowego, daty wyjazdu, godziny, po której chcemy wyjechać, liczby miejsc i też zniżek.
Takich kombinowanych zniżek, bo ja zamawiałem dla trzech osób, gdzie byłem ja, osoba niewidoma, była osoba będąca moim przewodnikiem i była jeszcze osoba trzecia na normalnym bilecie.
Przeszedłem przez wybór połączeń, przez zakładanie konta i jego aktywację, aż do opłaty za bilety i później prezentację, oczywiście i pobranie biletu.
Wszystko jest dostępne. Powiem więcej, trochę takich bardzo inteligentnych funkcji weszło, bo po pierwsze można sobie zapisać te konfiguracje,
które się już kiedyś wyszukało jako profil i się do nich w przyszłości odwołać, czyli jeżeli jeżdżę takim składem, jakim jechałem ostatnio tych trzech osób częściej,
no to mogę sobie go zapisać i tak samo moje dane są zapamiętane, oczywiście imię, nazwisko i tak dalej.
Co więcej, to jest taki oczywiście bajer, ale zaraz po zakupie biletu pokazywana jest mi pogoda, zarówno w miejscu, z którego wyruszam, jak i w miejscu, do którego jadę.
Więc tak mniej więcej wiadomo przynajmniej poglądowo, czego się atmosferycznie również spodziewać.
No co ciekawe, na samym ekranie już biletu, kiedy bilet mamy, mamy przycisk rozjaśnij ekran i to jest bardzo fajne, bo zazwyczaj ja ten ekran,
z wiadomych przyczyn pewnie tak i większość z nas, mam troszeczkę przyciemniony, żeby baterii mniej czerpało,
no a jak wiadomo jest to problematyczne, kiedy mamy sprawdzany bilet i nie widać za dobrze tego ekranu, więc można wtedy jednym przyciskiem ten ekran maksymalnie rozjaśnić.
Wszystko ma swoje nagłówki, więc na każdą sekcję aplikacji można wejść nagłówkiem, nawigując gestami, jeżeli ktoś sobie przypisał,
no albo w ramach pokrętła na iOS przynajmniej i to wszystko działa.
Czemu mogłoby być lepiej? No jak zwykle, diabeł tkwi w szczegółach i te szczegóły to przede wszystkim jest dostępność.
Kursor skacze jak małpa na gumie, że się tak wyrażę, czyli ja nawigując gestami lewo-prawo usiłuję dotrzeć zwłaszcza do jakichś dalej położonych kontrolek,
czyli powiedzmy jakaś finalizacja transakcji, jakieś tam powiedzmy jeszcze czy chcę fakturę czy nie chcę.
Przy rejestracji konta to było bardzo uciążliwe, bo ja już prawie byłem przy przycisku zarejestruj, a on gdzieś tym kursorem wracał mi na górę
i znowu cała zabawa od nowa, a oczywiście eksploracja wiele nie daje, bo eksploracja ekranu jest tutaj zepsuta
i co ciekawe, co rzadko się chyba zdarza w aplikacjach iOS-owych, to co jesteśmy w stanie znaleźć i po czym jesteśmy w stanie nawigować gestami
nie jest tym, co możemy znaleźć eksploracją, więc na przykład gesty przesuwania trzema palcami w górę, w dół, przewijania ekranu nie działają.
Więc gdybym chciał szybko dostać się do końca tego ekranu, to nie ma takiej możliwości.
Te kontrolki, które są na końcu, również nie są u dołu ekranu. One się jakoś dziwnie przewijają i renderują, więc nie jest to wygodne, co by nie mówić.
Ponadto nagłówki, dobrze, że są, ale są na absolutnie wszystko, czyli po prostu nawet jeżeli mamy przycisk jakiś tam w dolną taką listwę, przycisk anuluj OK,
to tutaj na to też jest nagłówek nawigacja i pod nagłówkiem nawigacja na niektórych ekranach mamy tylko przycisk tam anuluj albo dalej.
I moim zdaniem do czegoś takiego właśnie powstały w Apple’u grupy kontrolek, czyli to, co się robi w tej nawigacji grupowej, te kontenery czy obszary,
żeby takich rzeczy nie robić pod nagłówkami, tylko robić je w ramach, jeżeli naprawdę chce to pogrupować, no to kontenerów i wtedy kontenery jak najbardziej OK.
A nagłówki no to w ramach na przykład kontenera, gdzie ustalamy jakieś tam parametry podróży.
No parę kontrolek, które mogłyby trochę inaczej gdzieś tam wyglądać.
Oczywiście regulacja godziny odjazdu bądź przyjazdu odbywa się w odstępach 30-minutowych, czyli mogę sobie wybrać, że po 17 lub po 17.30,
nie mogę tego jakoś bardziej spersonalizować, ale to jest pewnie problem, który dotyka gdzieś tam wszystkich, nie jest aż tak uciążliwy.
Cóż tam jeszcze takiego zwróciło moją uwagę? No na pewno to, że obiecali Apple Pay, Apple Pay nie ma, można płacić za to blikiem.
No i to już jak najbardziej.
I chyba mamy problemy z połączeniem z Pawłem. Miejmy nadzieję, że za moment wróci i że za chwileczkę będziemy mogli kontynuować.
Halo, halo.
O, jesteś Pawle, jesteś, więc możesz kontynuować.
Na czym się urwało? Na bliku, tak?
Na bliku.
Tak, że okienko z kodem do wpisania kodu blik również podlega tej zasadzie, wszystko mi ucieka spod kursora.
Więc jakby tutaj ten problem też wystąpił i to było chyba największym moim powodem do frustracji, bo jak wiadomo kod blik wygasa po jakimś czasie.
Jak nie zdążymy, to mamy problem, trzeba generować wszystko od nowa, ale na szczęście się udało.
O, jedna fajna rzecz, którą też się da zrobić, można zakupić bilet na podróż powrotną, czyli nawet jeżeli ja już bilet kupiłem w jedną stronę,
mogę go odtworzyć z historii przejazdów i w ramach opcji biletu, tam jest opcja jakaś tam jeszcze przed podróżą zwróć bilet, coś tam edytuj, już nie pamiętam
i zakup bilet na podróż powrotną. Fajna funkcja, bo od razu odwraca mi miasto początkowe i końcowe.
Datę i godzinę trzeba sobie oczywiście wybrać, bo to już jest inny dzień.
Natomiast jedna rzecz dziwna, którą ta funkcja robi, dodaje jedną osobę dorosłą ekstra na bilecie normalnym.
Domyślam się, że jest tu pewna niekonsekwencja, czyli on traktuje to z jednej strony jak podróż już odbytą i proponuje mi te same osoby,
ale z drugiej strony jako podróż nową, a jak podróż nowa, to domyślnie podróżuje jedna osoba na bilecie normalnym.
Więc tutaj coś się PKP miesza i dostajemy tego typu wynik. Ale funkcja jest, więc fajnie, że w tą stronę myślą,
bo zawsze jest jeszcze jakiś obszar do poprawy, więc miejmy nadzieję, że i to gdzieś poprawią.
No i przy otwarciu aplikacji zaraz na ekranie głównym też widać naszą najbliższą podróż,
więc dość szybko możemy się dostać do naszego biletu bez przechodzenia po jakichś zakładkach czy innych historiach.
Z tego co wiem na Androidzie sytuacja jest dość podobna.
Wiem, że tam ktoś miał jakieś problemy ze stwierdzeniem ulg, ale chyba to był jednostkowy przypadek i nie wynikał z braku dostępności aplikacji.
Więc może ktoś na Androidzie potwierdzi, no mi zakup ostatecznie się udał,
aczkolwiek aplikacja podsumowując nie posiada wszystkiego, co obiecuję, że posiada i ma jeszcze pewne problemy, zwłaszcza ze skaczącym kursorem.
Mimo to polecam, nie wiem czy bardziej niż Coleo, jeszcze muszę w Coleo kupić bilety i domyślam się,
że Coleo na ten moment dalej jest bardziej zoptymalizowane, prostsze i szybsze.
No ale jak na pierwszą wersję, jak na to, że to jest aplikacja PKP, to nie jest źle i naprawdę da się na tym spokojnie pracować
i wygląda to tak jakby ktoś z tą dostępnością się spotkał.
Nie dopracował szczegółów, ale się spotkał.
No a druga rzecz to społeczności na Whatsappie.
No tu nie ma co wiele opowiadać, zostałem dodany do społeczności.
Wyglądało to chyba tak, że ktoś stworzył najpierw społeczność, w ramach tej społeczności konkretne grupy
i ja zostałem zaproszony do grupy ogłoszeniowej.
To jest akurat społeczność pewnego radia internetowego, którego słucham
i w grupie ogłoszeniowej przylatują różne wiadomości od osób prowadzących tę audycję,
w których dowiaduje się kto w dniu dzisiejszym będzie o danej godzinie grał,
tam osoby prowadzące się reklamują ze swoimi audycjami
i ja zostałem zaproszony do właśnie tej grupy.
I tak, że zostałem zaproszony do grupy, no to z automatu też do społeczności.
Wygląda to tak, że na zakładce społeczności jest ta jedna społeczność
i po wejściu w nią jest opcja, żeby przejrzeć jej wszystkich uczestników.
Są grupy, w których jestem ja i są też grupy inne, grupy zewnętrzne,
do których mogę ewentualnie dołączyć, mam je też wylistowane i mogę po prostu wejść i dołączyć.
Mimo to, że dołączam do grup w ramach społeczności i to jest osobna zakładka,
no to nadal te grupy, z których otrzymuję wiadomości,
wyświetlają mi się na zakładce czaty, pośród wszystkich innych czatów i konwersacji,
co trochę szkoda.
Więc też ja tak dosyć czekałem nawet na te społeczności Whatsappowe,
ale jak to zobaczyłem, to powiem szczerze, no ja się trochę rozczarowałem,
bo dla mnie te społeczności na Whatsappie to jest tak naprawdę taki folder na grupy,
po prostu. Folder, w obrębie którego możesz mieć kilka grup.
To znaczy tak, przy czym nie musisz o tych wszystkich grupach ty jako uczestnik wiedzieć.
Możesz sobie wybrać, do których dołączasz, a do których nie.
I to jest praktyczne, bo to jest pod kątem różnych społeczności,
czy na przykład masz szkołę, masz firmę, masz jakąkolwiek społeczność,
nie wiem, lokalną, wirtualną, czy na przykład tak jak tutaj w moim przypadku,
radio internetowe i jest jedna grupka z ogłoszeniami o audycjach,
jest jedna grupa, gdzie można pisać do aktualnie osoby prowadzącej audycję,
żeby coś tam, nie wiem, zagrała nam jakaś utwóra,
bo coś tam przekazała na antenie innym.
No i jest grupa taki off topic.
No i do tego typu rzeczy fajnie jest to zorganizowane.
Niemniej jednak te czaty są i tak wywalane na zakładkę czaty
i tam nam mimo wszystko śmiecą, więc to jest troszeczkę niedopracowane,
no ale poza wszystkim…
I te społeczności mają chyba też jakieś wcale nie tak duże limity.
Oczywiście do jakichś niewielkich grup to się spokojnie nadaje,
ale one tam jakieś bardzo duże nie są.
To tam 100 osób? Jakoś tak?
Aż tak mało? Ojej.
Tak mi się coś wydawało.
To muszę zobaczyć, no bo standardowe grupy mają trochę więcej.
Myślę, że trzeba by się było upewnić.
A mi się wydawało, że chyba tysiąc.
Tysiąc dwadzieścia cztery, nie?
No to już wyglądałoby lepiej.
Być może w jakiejś pierwszej fazie to było tak mocno ograniczone,
ale jakoś właśnie też pamiętam, że jak to zobaczyłem,
to się trochę zdziwiłem. Czemu to aż tak?
No to ja jeszcze zobaczę i ewentualnie poprawimy gdzieś w komentarzu.
Natomiast skoro już o WhatsAppie mówimy i przy WhatsAppie jesteśmy,
dwie rzeczy, które zaobserwowałem ostatnio w WhatsAppie na iPhone,
nie tylko ja zaobserwowałem, czyli od teraz jeżeli jesteśmy
w jakimś czacie grupowym i nagrywa wiadomość osoba,
której nie mamy w kontaktach, no to teraz oprócz domniemanej nazwy,
czyli tak naprawdę nazwy, którą osoba sobie wpisała w profilu,
mamy wyrecytowany cały numer telefonu.
Denerwuje to niesamowicie, zwłaszcza na grupach,
gdzie tych osób, których nie mamy w kontaktach jest trochę.
Przedtem było, że tam, nie wiem, może Paweł Masarczyk,
więc jest może Paweł Masarczyk i jeszcze do tego cały mój numer,
w związku z czym drażni to niemożebnie.
A druga rzecz, którą zauważyłem ja i nie wiem, czy to tylko ja,
sytuacja na przykład taka, nagrywam wiadomość głosową
i blokuję przycisk nagrywania. Mówię, mówię, mówię,
dzwoni do mnie telefon, ja odbieram rozmowę,
wiadomość oczywiście, nagrywanie wiadomości się tam pauzuje,
więc mogę to zapauzować ręcznie, ja odbieram rozmowę,
kończę rozmawiać i nie widzę opcji ani żeby wznowić nagranie,
ani żeby wysłać wiadomość, ani żeby cokolwiek anulować.
Te przyciski, które zazwyczaj tam były, znikają.
Więc już mi się niestety zdarzyło, że nagrywałem wiadomość
i to nie krótką, ktoś przerwał mi dzwoniąc do mnie,
ja skończyłem rozmowę i niestety musiałem zamknąć WhatsAppa z paska,
włączyć go ponownie i zacząć całe nagrywanie od nowa.
Nie wiem czy wy też, czy wy, no pewnie tu Michał tylko mógłby coś potwierdzić,
bo Tomek ma Androida, ale no jeśli nie, to może ktoś usłyszy.
Dawno nie miałem takiej sytuacji, jak jeszcze właśnie była taka przypadłość,
że ktoś do mnie dzwonił, kiedy nagrywałem wiadomość na WhatsAppie,
to to jeszcze działało, ale to było już dość dawno temu,
więc wiele się mogło zmienić.
Okej, no to miejmy nadzieję, że zmieniło się na lepsze.
No i to tyle, jeśli chodzi o moje doświadczenia z PKP i z WhatsAppem.
To teraz druga informacja.
Wspominaliśmy, chyba ja wspominałem jakiś czas temu,
że artykuły z Tyflowiki muszą znaleźć sobie, że się tak wyrażę,
nowy dom, nowe miejsce, w którym one tam będą mogły być i znalazły.
Można znaleźć artykuły z Tyflowiki, zresztą tam jest też informacja,
że jakby rozwój jest tego wszystkiego możliwy w momencie.
Natomiast link jeszcze mogę podać tyfloakademia.com
slash centrum informacji dla niewidomych,
przy czym centrum informacji dla niewidomych między tymi słowami są minusy,
czyli tyfloakademia.com slash centrum minus informacji minus dla minus niewidomych.
I tam są te artykuły z Tyflowiki.
Prawie wszystkie, tam jeszcze kilku nie ma, ale to się zmieni.
I tu jeszcze jest taki dopisek,
chyba któryś z Was dopisał, że powstała jeszcze lista
dostępnych aplikacji na różnych platformach
i tu mamy z kolei link też w labiryncie.org
slash katalog minus dostępnych minus aplikacji.
Oczywiście dostępnych.
Jeśli tak, to tych aplikacji jest już trochę i one są na różne platformy.
Jest Windows, jest Android, jest iOS.
Ja może przeczytam to, co wysłał mi prezes fundacji,
czyli Mariusz Miszuda, nasz słuchacz.
No i czego się tutaj dowiadujemy?
Już jest. Właśnie wystartował pierwszy w Polsce katalog
dostępnych aplikacji dla osób z dysfunkcją wzroku.
Wszystko w jednym miejscu.
Łącznie ponad 120 aplikacji na system Windows, Android i iOS.
Wystarczy tylko odwiedzić stronę.
To jest ta strona, którą podał Tomek.
No tak. Skąd pojawił się pomysł na stworzenie takiego katalogu z aplikacjami?
Prezes stowarzyszenia w labiryncie, Mariusz Miszuda,
na co dzień prowadzi szkolenia z nowoczesnych technologii
i do tej pory brakowało mu takiej platformy z aplikacjami.
Miejsca, które mógłby polecić swoim kursantom podczas zajęć.
Jeżeli według ciebie nie ma jakiejś aplikacji w mniejszym katalogu
lub byłaby ci pomocna, chciałbyś, abyś w nim pojawiła,
to napisz do nas na adres biuromałpawlabyrincie.org.
No i tu mogę powiedzieć, że ja byłem na tej stronie
i tych aplikacji troszkę jest.
Większość takich znanych, myślę, że ci, którzy nas słuchają częściej
i orientują się w technologiach, będą je już znać,
ale jest też kilka zaskoczeń, na przykład kilka aplikacji
dla osób szukających wydarzeń kultury w swoim mieście.
Nie znałem tych aplikacji wcześniej, nie wiedziałem, że są dostępne.
No i oczywiście, to o czym mówiłem, myślę, że warto zgłaszać się
do biura fundacji i sugerować swoje aplikacje,
no bo może powstanie taki polski Apple Vis, kto wie.
A to dobre by było i tym bardziej, że nie tylko dotyczące Apple,
ale też i Windowsa i innych różnych rzeczy też tam mogłyby się pojawiać.
Ja mam w ogóle wrażenie, że ostatnio Windows, aplikacje na Windowsa
to tak trochę, jeżeli chodzi o dostępność, to ciężko znaleźć jakieś miejsce,
gdzie ktokolwiek by o tym pisał.
Kiedyś jeszcze były różne strony z takimi informacjami,
co do czego można użyć, jeżeli potrzebujesz na przykład jakiegoś programu,
no nie wiem, do wypalania płyt, jeżeli potrzebujesz jakiegoś odtwarzacza
albo innych takich rzeczy, a ostatnimi czasy tego jest niestety mniej.
Jest ostatnia taka strona, ten loveware, loveware.com Michaela Love’a
i tam trochę jest tych aplikacji, no ale wiadomo, im więcej tym lepiej
no i co jakiś czas fajnie, żeby ktoś się tym opiekował,
bo były już jakieś white sticky, były jakieś tam blind, pewnie coś tam program.
Dużo było tych stron kiedyś, na pewno dużo więcej niż teraz.
Teraz jest chociażby ta angielska, no i teraz strona Stowarzyszenia w Labiryncie.
Zatem życzymy powodzenia w rozwijaniu tego katalogu,
a tymczasem odbieramy telefon, bo połączył się z nami Michał,
który może ma dla nas jakieś ciekawe informacje.
Dobry wieczór, Michale.
O, na razie mamy.
Michał chyba zniknął nam.
Halo, halo, witam serdecznie wszystkich w studio i wszystkich słuchaczy.
Witaj, z czym do nas przybywasz?
A przybywam ze zgłoszeniem jednej sprawy, mianowicie
ostatnio ściągnąć na iPhona tą aplikację teraz, żeby wypowiedzieć dobrze nazwę,
Echowiz.
Quiz, tak?
Tak, Echowiz Quiz, dokładnie.
I otóż, co się stało? Nie wiem, Michale, czy podobny problem,
albo Ty, Pawle, bo Wy korzystacie też z iPhone’ów,
a mianowicie chodzi o to, że jak pobierze się aplikację,
da się odtwórz dźwięk, to nagle wyskakuje opcja
wybierz prawidłową odpowiednią, jak nie ma, tak nie ma.
Michale, Ty masz, zdaje się, jakiś problem z internetem,
bo niestety nam się troszeczkę rwiesz.
O, o, a teraz? Teraz by było lepiej?
Zobaczymy. Powiem szczerze, ja jeszcze nie miałem okazji
pobawić się tym quizem. Może Ty, Pawle?
Oj, wyciszyłeś się teraz.
Również nie, również niestety nie.
Jedyne, co widziałem, to że ktoś z naszych słuchaczy
w komentarzach się bawił, więc może słuchacze
odpowiedzą Ci, Michale, na pytanie.
O, to by było miło powiedzieć szczerze, a druga sprawa
jest następująca, mianowicie chciałbym się podzielić
wrażeniami z używania funkcji dyktowanie w Windows 11.
Mianowicie, jak odpalamy sobie dany plik Wordowski,
to wciskamy skrót Windows Hub i zaczynamy dyktować do mikrofonu.
Powiem szczerze, przetwarza to bardzo ładnie i płynnie
przede wszystkim.
Że można spokojnie jakiś tekst, który mamy do napisania,
dzięki tej funkcji poczynić bez najmniejszego problemu.
A sprawdzałeś to na jakichś takich dłuższych tekstach, czy nie?
Tak, tak, jak najbardziej.
Próbowałem zabrać się za pisanie pracy na studium
bez żadnego problemu. Czasami trzeba wyłączyć raz po raz,
tutaj uczulam, żeby nie było aż tak dużej partii, bo czasami
musimy sobie to w jakiś sposób popoprawiać.
Ale to są bardzo znikome poprawki, powiedzieć szczerze.
Rozumiem. No cóż, to w takim razie dobrze o tym wiedzieć.
Fajnie, że to w ten sposób działa. No i dzięki za informację.
Bardzo proszę. A jeszcze jedna wiadomość, jakby to kogoś interesowało,
to przekażę, że gry takiego Iginthis Studio, bodajże tak się to wymawia,
są wszystkie, prawie oprócz jednej, dostępne w App Store, na Steamie
i na itch.io, czyli www.iginthisgames.com
Możesz jeszcze raz powtórzyć adres, bo znowu jakiś problem z internetem
i chyba początek gdzieś tam ucięło.
www.iginthisgames.com
Jeszcze może Michale krótko, co to są za gry?
Nawet nie, że każdą opisywać, ale to jakiś rodzaj, strategie?
Tak, to są gry strategiczne, polegające na budowaniu imperium
No to rzeczywiście może być interesujące.
I to jest, tak jak jest taka gra Cesarstwo Świat 2027,
to tak jest ta gra, to tak jest te gry, które oni wypuścili,
na przykład European Empire, czyli wtedy zajmujemy się, że tak powiem,
opanowaniem całej Europy, wszystkich krajów europejskich.
Wszystkie gry są dostępne.
Tak, z wyjątkiem jednej.
Z wyjątkiem jednej, bo ona jest na Androida, więc sobie chociaż byśmy bardzo chcieli.
Okej, jasne.
Okej, dobrze Michale, to dziękujemy Ci w takim razie za telefon.
Pozdrawiamy i do usłyszenia.
Jeżeli Wy macie ochotę do nas się dodzwonić, to zapraszamy bardzo serdecznie
na naszą stronę tyflopodcast.net ukośnik zoom, no i oczywiście Facebook, YouTube i kontakt tyflopodcast.net.
Z tej ostatniej metody, czyli naszego panelu kontaktowego, skorzystała słuchaczka Gosia
i napisała do nas tak.
Dobry wieczór, mam pytanie, mam problem z programem Microsoft Office Excel 2013.
Podczas edycji komórki brak informacji ze strony programu NVDA o edytowaniu komórki
oraz brak możliwości poruszania się kursorem po znakach w komórce,
mimo tego, że kursor fizycznie przemieszcza się po edycji komórki.
Pozdrawiam.
Gosiu, takie problemy ja pamiętam, że też kiedyś miałem.
I ja na Twoim miejscu spróbowałbym przede wszystkim zmaksymalizować okno Excela.
Bo to czasem pomagało, czasem pomagał restart NVDA,
a inna rzecz, że Office 2013 jest już dość starym pakietem, niestety.
I obawiam się, że po prostu, no, NVDA, o ile wspiera ten pakiet, tak, bo dlaczegożby nie,
to może pewnych rzeczy już tam nie utrzymywać, no, może nie być to testowane na bieżąco
i chcąc poprawić pewne rozwiązania, aby wspierać nowsze wersje pakietu Office,
mogło się stać tak, że coś tam zostało popsute.
Na przykład, no, mogłabyś to sprawdzić ewentualnie jeszcze z poprzednią wersją NVDA,
bo może akurat tu coś się zadziało.
To są takie moje myśli na gorąco, bo sam już Office’a 2013 dawno, dawno nie używam,
więc nie jestem w stanie tego zweryfikować ani sprawdzić.
Być może ktoś z naszych słuchaczy będzie w stanie jeszcze coś podpowiedzieć.
To w takim razie kolejny news. Znowu news z poprzednich audycji.
Martynka. Chat GPT. Mówiliśmy o nim też kilkukrotnie w Tyfloprzeglącie.
Być może doczekamy się płatnej wersji, mam nadzieję, że lepszej od tej, która jest za darmo.
To znaczy pozbawionej części błędów, która ma ta wersja darmowa.
Ja podejrzewam, Tomku, że prędzej czy później ta wersja darmowa zostanie albo całkowicie wyłączona,
albo zostanie ona bardzo, bardzo okrojona, dlatego że jak ludzie rzucili się na ten chat GPT,
to po prostu jakieś koszmarne moce obliczeniowe zaczęły być używane.
Nie jest to wszystko tanie i podejrzewam, że będą chcieli na siebie tak czy inaczej przede wszystkim zarobić,
żeby chociaż po prostu nie dopłacać do tego całego interesu.
Ale do rzeczy. Mianowicie pojawiła się ankieta, pojawił się formularz Google’a,
za pomocą którego można się zapisać na taką listę oczekujących, jeżeli chodzi o chat GPT w wersji płatnej,
czyli ten chat GPT Pro albo chat GPT Pro, jak by ktoś wolał.
I cóż, jesteśmy tam proszeni przede wszystkim o podanie naszego adresu mailowego,
tego samego, którym do tej pory się logujemy do konta,
czyli albo bezpośrednio, bo tam możemy się bezpośrednio zalogować,
albo podać np. naszego gmaila czy adres stowarzyszony z naszym kontem,
bodajże Microsoft czy GitHub.
Natomiast oprócz tego jesteśmy proszeni o wycenienie dostępu w kilku przedziałach.
To znaczy oczywiście wszystko to w dolarach podajemy,
ale jesteśmy proszeni o podanie kilku kwot.
Na przykład takiej, za którą już zdecydowanie, jeżeli kosztowałby tyle dostęp do czatu GPT,
nie bylibyśmy skłonni za ten dostęp zapłacić.
Jesteśmy też proszeni o podanie kwoty, która byłaby dla nas zbyt wysoka,
ale gdyby jednak ona była, to rozważylibyśmy ten dostęp,
takiej kwoty, która byłaby dla nas okej,
ale co ciekawe jesteśmy też proszeni o podanie kwoty,
po uiszczeniu której uważalibyśmy, że ten czat GPT jest za tani,
że jak tyle się za niego płaci, to pewnie coś tam jest okrojone
i prawdopodobnie nie spełnia to swoich funkcji.
Więc jest tych kilka pól do wypełnienia.
Tam się wpisuje po prostu cyfry bądź liczby.
Raczej przypuszczam, że będziemy wpisywać cyfry niż liczby,
chociaż kto wie, natomiast ja to wypełniłem,
wypełniłem to już jakiś tydzień temu.
Na razie żadnego dostępu nie dostałem,
nie otrzymałem żadnej informacji względem tego,
kiedy ten dostęp miałby być przyznany,
więc po prostu na razie trzeba czekać.
Więc tyle.
Tak i rzeczywiście musieliście słuchacze drodzy jeszcze poczekać na mnie,
ale problemy już zostały po mojej stronie usunięte,
a teraz już newsy, które w tym tygodniu się pojawią po raz pierwszy
i na początek taki pakiet newsów od Pawła, czyli nowości technologiczne.
Tak, jest tego kilka i rzeczywiście trochę jeszcze echa
targów CES w Las Vegas, CES w zasadzie,
a trochę tak chyba mamy przedsmak już CSUNa,
który mamy nadzieję, że w marcu odpali bez większych przeszkód
i też pokaże nam, czego w tym roku w kwestii technologii wspomagających
możemy się spodziewać.
No ale na ten moment mamy kilka rzeczy,
które pewnie będą jakimiś headlinerami na CSUNie,
takimi głównymi punktami programu,
może nie, zobaczymy, przekonamy się, na pewno bez echa nie zostaną.
Po pierwsze taka bardziej techniczna notka,
zakończyło się wsparcie urządzenia Brailsense U2 QWERTY,
więc jeżeli ktoś używa, ja nawet nie jestem do końca pewien,
czy ten model był jakoś w Polsce popularny albo w ogóle dostępny,
bo jakoś tak nie przewinęło mi się, żebym znał kogoś, kto go posiada,
natomiast jeśli posiadaliście taki model, jeszcze posiadacie,
on już nie jest produkowany, ale było jeszcze oferowane
dla niego wsparcie techniczne, no to już nie jest,
więc lepiej pewnie, znaczy jak jeszcze wam działa,
no to miłego użytkowania, natomiast gdyby coś była potrzeba,
to już nie można na firmy HIMS liczyć.
Za to można na nich liczyć w kwestii nowego urządzenia,
które pewnie na CSUNie się pojawi.
Ono już w grudniu było dostępne chyba w sprzed sprzedaży,
a teraz powinno do sprzedaży jakoś ruszać,
więc na ten człowiek do ceny jeszcze nie dotarłem,
a jest to odtwarzacz multimedialny SensePlayer OCR.
Domyślam się, że to taki następca Buxensa, który też był HIMS-owy.
I czym jest SensePlayer?
SensePlayer jest takim małym, kieszonkowym urządzeniem,
mniejszym od smartfona, z klawiaturą alfanumeryczną,
z 13-pikselowym aparatem,
z parą głośników stereo o mocy 1,5 watta.
I mikrofonów stereo, też tutaj mówi producent.
I co można za pomocą tego urządzenia robić?
Ono też jest oparte na Androidzie,
aczkolwiek nie wynika jakoś z opisu produktu,
żeby ten Android był otwarty na przykład na aplikacje gdzieś tam zewnętrzne.
Więc domyślam się, że chodzi tylko o to,
że na tym systemie bazuje całe to urządzenie,
ale dla nas nic z tego nie wynika.
No i co my możemy?
Możemy oczywiście słuchać książek w różnych formatach,
i audio, i daisy, i tekstowe, no i oczywiście dokumentów.
Możemy też dokumenty skanować za pomocą właśnie tego wbudowanego aparatu
i dołączonego oprogramowania OCR.
Możemy słuchać radia, zarówno FM, jak i internetowego, podcastów.
Mamy możliwość podłączenia do bibliotek dla osób niewidomych.
Mamy kalkulatory, stopery, minutniki, tego typu rzeczy wymienione.
No i mamy tryb Smart Connect.
Aha, no oczywiście dyktafon, w którym można nagrywać tymi mikrofonami stereo,
ponoć.
I mamy tryb Smart Connect, w którym to trybie Smart Connect
możemy podłączyć tego SensePlayera,
zarówno jako klawiaturę do pisania na i do nawigacji po naszym smartfonie,
czy to iOS-owym, czy Android-owym,
jak i podłączyć sobie dźwięk ze smartfona,
tak aby był transmitowany przez głośniki SensePlayera.
Więc wygląda na to, że szykuje się urządzenie,
które samo z siebie coś nam oferuje,
jakieś takie właśnie podstawowe funkcje odtwarzania,
ale też może być czymś, czym jest teraz Rivo Keyboard,
czyli takim pilotem plus głośnikiem,
takim sterowaniem naszym smartfonem.
Może to być ciekawe.
Oczywiście wszystko zależy od ceny,
wszystko zależy od wykonania, od szczegółów,
od tego, na ile to doświadczenie nawigacji zostało zoptymalizowane
pod kątem nawigacji po tych systemach.
Czy podobnie jak w Rivo mamy jakiś zestaw skrótów klawiszowych,
kombinacji klawiszy, których możemy używać,
żeby osiągnąć to, co chcemy,
czy czegoś producenci nie dopatrzyli.
Myślę, że przekonamy się, gdy urządzenie już trafi
definitywnie na rynek i w ręce pierwszych właścicieli.
Wtedy nie omieszkamy poinformować o tym,
co ono tak naprawdę potrafi.
Ze świata czytników i notatników,
chociaż tu jeszcze troszeczkę do terenów pokrewnych,
do urządzeń elektronicznych wrócimy,
przenosimy się do czegoś, co zupełnie technologiczne nie jest,
ale jednocześnie jest bardzo przydatne,
czyli laska all-terrain cane,
laska na każdy teren, na każdą powierzchnię, na każde warunki,
laska wykonana z tytanu.
Jest to laska, która jest stworzona przez firmę Aware Wolf Gear.
Jest to firma, która tworzy taki sprzęt,
głównie do tej pory to były różne elementy ubioru
i dużo takich t-shirtów
dedykowanych osobom z dysfunkcją wzroku,
które lubią takie dość aktywne i to bardzo aktywne życie,
czyli wspinaczkę górską, wspinaczkę po skałach,
chodzenie po trudnym terenie, jakieś wydmy, piaski, plaże,
to wszystko oczywiście dzieje się w Stanach,
natomiast kto by zabronił nam tego użyć też w naszych warunkach,
zwłaszcza, że produkty tej firmy oczywiście po zapłaceniu sobie samodzielnie
za przesyłkę ze Stanów może troszkę kosztować,
łącznie z pewnie niestety odsleniem.
Produkty te można zamówić międzynarodowo.
I te koszulki zazwyczaj były takie właśnie motywacyjne,
widziałem to tam takie wzory, że jakieś dwie góry łączące się ze sobą
i napis BLIND, jakieś takie podkreślające to, że osoby niewidome
również zdobywają właśnie takie ekstremalne tereny.
No i laska Outer Rain Cane jest najnowszym dzieckiem właśnie
A Werewolf Gear i można ją tam zakupić,
czy tam jest, nie, ona jeszcze chyba nie jest dostępna,
ona ma niedługo być i ceny też nie znamy.
Jest to laska tytanowa, jest to laska, która ma być na tyle wytrzymała,
że możemy się na niej nawet oprzeć schodząc z góry
lub kiedy się potkniemy i chcemy złapać równowagę
i się oprzeć o laskę, ponoć ma nam to ona umożliwić.
Jakieś właśnie wbijanie się w taki trudny teren,
gdzie będziemy musieli rzeczywiście trochę jak takim, nie wiem,
czekanem czy toporkiem troszeczkę rozbijać teren.
Przynajmniej tak to opowiada producent, że końcówki tej laski
są specjalnie robione pod właśnie tego typu warunki
i w tym momencie ponoć też jest zgłoszony na nie patent.
Długość takiej laski waha się w zależności od tego,
jak się rozłoży jej rączkę, bo rączka jest rozciągana,
zdaje się, że odkręca się ją i można ją wtedy sobie wybrać jej więcej,
od 130 do 155 centymetrów, więc naprawdę można sobie to rozciągnąć,
aczkolwiek obawiam się, że to może już być dla niektórych za mało,
za dużo, te 130, no ale taka laska jest i być może dla właśnie osób,
które żyją takim aktywnym życiem albo po prostu mieszkają w takim miejscu,
że prawdopodobnie bez takiej laski ani rusz będzie to…
Albo po prostu tak sobie myślę, że jeżeli chcemy mieć laskę,
która wytrzyma nam długo, bo te laski, które są obecnie,
to nawet i przy jakimś niewielkim, niespecjalnym ich użytkowaniu,
to potrafią się dość szybko zużywać, no bo to wiadomo,
że tu ktoś nam na taką laskę stanie, tu w coś ją uderzymy,
ona się też po prostu siłą rzeczy ściera, a tak to podejrzewam,
że płacąc troszkę więcej albo może i dużo więcej, nie wiem,
jak powiedziałeś Pawle, nie znamy ceny, ale zainwestujemy w coś,
co ma szansę być po prostu trwałe, no tytan to raczej nie jest coś,
co łatwo da się uszkodzić.
Myślę, że to będzie produkt gdzieś pokrewny do tych lasek niemieckich
Comde Derenda, które ostatnio gdzieś święcą triumfy.
One są z aluminium lotniczego i istotnie założyciel firmy
Werewolf Gear, pochodzi też z tej branży, on gdzieś tam w lotnictwie
się zajmował jakimiś konstrukcjami, no i to go zainspirowało
do stworzenia z podobnych materiałów laski dla osób niewidomych.
Jeśli mowa już o nawigacji, to na CES-ie, na CES Las Vegas,
japońska firma Luvik zaprezentowała swoje dzieło,
czyli nawigację zakładaną na szyję. I tu podziękowania dla naszego
słuchacza Grzegorza za udostępnienie tej informacji.
Urządzenie zakładane na szyję, które za pomocą motorków wibracyjnych
zdaje się czterech, informuje nas wibracją, a za pomocą przewodzenia
kostnego, głosem, dźwiękiem, komunikatami głosowymi,
w którą stronę mamy iść. Komunikaty na ten moment w języku
japońskim i angielskim. Większość filmików jest niestety po japońsku.
Pan, który udzielał jedynego wywiadu w języku angielskim,
jaki udało mi się znaleźć, również mówił po angielsku
na tyle z silnym akcentem, że ciężko było mi go zrozumieć
w każdej sytuacji. On chyba też nie do końca rozumiał pytań.
Natomiast takie ciekawe urządzenie. Ponoć nie jest ono dedykowane
w ogóle. Osoby niewidome nie są tam jakkolwiek wspomniane,
ale brzmi jak urządzenie, które osobom niewidomym też by mogło pomóc.
Parujemy takie urządzenie z telefonem, wyznaczamy trasę.
Podobna zasada działania jak pass field space, o którym już nieraz mówiłem.
Na sam koniec dzieło z Indii, które również na CES-ie zostało zaprezentowane
i nawiązali twórcy tego rozwiązania kontakt też ze Stanami,
czyli rękawiczka do nauki Braille’a, która za pomocą kamery
rzucając odpowiedni cień przy odpowiednim oświetleniu jest w stanie
odróżnić konkretny znak Braille’a, na którym osoba ucząca się tego pisma
kładzie właśnie rękę i za pomocą sztucznej inteligencji jest to przetwarzane
na Braille’a, którego można potem przypisać do odpowiedniej litery
w tablicy braillowskiej i syntezą mowy jest odczytywana nazwa tej litery,
którą akurat czytasz, znaku, który dana osoba aktualnie ma pod palcem.
To takie urządzenie, które ma pomóc w nauce alfabetu Braille’a
i tu już cenę znamy, bo cena ma osiągnąć około 300 dolarów.
No i to tyle, jeśli chodzi o nowości w technologiach wspomagających.
Troszeczkę tego jest. Ile z tego rzeczywiście wejdzie na rynek?
W jakich cenach? Myślę, że pokażę w najbliższym miesiącu.
Może też troszeczkę konferencja CSUN w Kalifornii,
kiedy się odbędzie, gdzieś tam potrzebnie początkiem marca.
To ja jeszcze dodam taką jedną rzecz, której nie ma w notatkach,
a myślę, że o niej warto powiedzieć.
Dziś jeszcze przed audycją, kiedy rozmawialiśmy na ten temat z Tomkiem,
trochę byłem zajęty i po prostu sobie tego nie wpisałem,
ale i właściwie powinniśmy o tym powiedzieć w tym bloku dotyczący tematów,
które już były kiedyś poruszane, no ale trudno.
Vocaster. Urządzenie, o którym wspominaliśmy, o którym Jonathan Mosen
zrobił bardzo fajny podcast i nie tylko on zresztą,
bo sporo osób o tym urządzeniu mówiło, Vocaster One, Vocaster Two.
Tak się akurat złożyło, że ja się temu urządzeniu ostatnio dość bacznie przyjrzałem
i powiem szczerze, albo ja nie zauważyłem tego, albo w tych recenzjach,
które przeglądałem, nie było o tym mowy, bo dla twórców nie było to istotne
i to mnie trochę dziwi, bo z perspektywy niewidomego to jest moim zdaniem
bardzo ważna rzecz, ale może tylko dla mnie.
Mianowicie w specyfikacji Vocastera mamy taką informację, że tam są,
oni to nazywają Two Loopback Faders, czyli dwa suwaki,
za pomocą których możemy wypuścić dźwięk z naszego komputera,
na przykład pod jeden ten suwaczek podpiąć sobie jakąś aplikację do odgrywania dźwięków,
pod drugi chociażby komunikator internetowy i można sobie to wszystko
za pomocą tych suwaczków regulować.
I ja słysząc taki opis byłem święcie przekonany, że są to fizyczne suwaki.
Otóż nie. Te suwaki są suwakami programowymi i można je regulować,
można nimi sterować tylko w tej aplikacji Vocaster Hub.
Nie ma na Vocasterze, na urządzeniu, ani w wersji 1, ani w wersji 2,
żadnych suwaczków, które można sobie przesuwać i którymi można regulować
ten poziom dźwięku. A to jest naprawdę szkoda, bo gdyby jeszcze to dodano
do tego Vocastera byłaby to bardzo fajna karta, bardzo fajny interfejs
do realizowania takich no, powiedzmy może nie jakichś bardzo zaawansowanych audycji,
ale ja sobie jestem już w stanie wyobrazić, że na tych dwóch torach stereofonicznych,
które mam pod palcami, jestem w stanie jakoś zmieścić pewne rzeczy
i w miarę komfortowo coś realizować. No, mając to tylko i wyłącznie programowo
pod kontrolą, no nie mam tej wygody niestety. Więc to tak.
Myślę, że może warto poczekać na rozwój wydarzeń, bo Focusrite jest bardzo otwarty
na różne sugestie i oni starają się tę dostępność ulepszać i wydaje mi się,
że mogliby na przykład dodać jakieś globalne skróty klawiszowe.
Wiesz co, globalne skróty klawiszowe, no byłaby to jakaś opcja.
Natomiast powiem szczerze tak z mojego punktu widzenia, jeżeli miałaby to być
taka dynamiczna audycja, to ja jednak wolałbym to mieć wszystko wiesz,
w zasięgu ręki i jakoś fajnie tak operować. Natomiast ja na to zwracam uwagę,
bo mi po prostu od razu się to tak skojarzyło, że to pewnie będzie
na tym urządzeniu. No bo taka była moja pierwsza myśl. Niestety nie ma.
Oczywiście to warto też powiedzieć, że Vocaster Hub coraz lepszą dostępność ma
i już tam jest naprawdę lepiej. Jeszcze są te skrypty, jeżeli ktoś z Jossa
korzysta, to te skrypty Briana Hudgena, więc tam to już w ogóle jest sporo poprawek.
Ale uczulam po prostu, gdyby ktoś też pomyślał sobie tak jak ja.
No to dobrze wiedzieć, bo byłem też ciekaw tego urządzenia.
Dobrze, że mamy jakieś też o nim opinie już rzeczywiście z pierwszej ręki.
No to w takim razie chyba kolejny news i znowu od Pawła.
Oczywiście Paweł będzie miał tych newsów dość dużo.
Thunderbird. Dość chyba jeszcze dużo osób używa tego programu.
No i powstają skrypty do NVDA, które poprawiają dostępność tego oprogramowania.
Tak, nie tylko do NVDA, bo dodatki, które dziś chciałem omówić są dwa.
Jest dodatek Thunderbird Plus do NVDA i dodatek Chichi do samego Thunderbirda.
I tu warto to rozdzielić. Natomiast Thunderbird Plus nie jest to pierwszy
dodatek do NVDA, który poprawia dostępność tegoż klienta pocztowego.
Jest oczywiście nadal dostępny i rozwijany dodatek Javiego Dominguesa
z hiszpańskiej społeczności. Tutaj mamy znowu dodatek Thunderbird Plus
autorstwa wielu osób z francuskiej społeczności, programistów.
Jest Pierre-Louis Arnaud, jest Daniel Poirot, jest też ktoś, kto podpisuje się
jako Janik tych ojców. Tego dodatku było wielu.
Ostatecznie on już od jakiegoś czasu się rozwija w języku francuskim.
Natomiast teraz ujrzał światło dzienne po angielsku.
No i co my tutaj takiego mamy?
Mamy skrót klawiszowy do uruchamiania Thunderbirda.
Można go oczywiście skonfigurować w opcjach NVDA i pewnie warto,
bo niektóre z tych skrótów tutaj są ewidentnie robione pod klawiatury
francuskie, a jak wiadomo te układy klawiatury są troszeczkę inne.
Jest to klawiatura AZERTY, nie CUVERTY i też pewne znaki specjalne
są pod innymi klawiszami.
Natomiast tutaj mamy taką możliwość, żeby to uruchomić.
Co my poza tym mamy?
Mamy ALT, CTRL-ALT i akcent, czyli chyba tylda powinien uruchomić Thunderbirda.
Mamy tutaj ustawnioną nawigację, także TAB i ESCAPE nawigują nam
pomiędzy otwartymi panelami różnymi. Normalnie robilibyśmy to F6 i SHIFT-F6.
Tu zostało to zmienione, żeby nam ułatwić nawigację, jeżeli mamy po prostu
te klawisze pod ręką i po nich chodzić.
Mamy nawigację po drzewie, mamy dużo skrótów klawiszowych do nawigacji
między folderami, żeby przejść od razu do następnego folderu
z nieprzeczytanymi wiadomościami, ale jeżeli jesteśmy na liście wiadomości,
możemy też chodzić po nieprzeczytanych wiadomościach, możemy nawigować
też po literach w drzewie folderów, możemy szybko podejrzeć wiadomość,
możemy nacisnąć jeden skrót klawiszowy i ta wiadomość zostanie nam odczytana
z wycięciem wszystkich cytatów i wszystkiego, co jest pod spodem.
Możemy też przeglądać w trybie, gdzie cytaty są ułożone chronologicznie
od najstarszego do najnowszego, żeby przejrzeć cały wątek.
Możemy szybko nawigować po oczywiście kolumnach, odczytywać na zawołanie
nadawcę, odbiorcę lub nadawców-odbiorców, może ich być przecież więcej,
datę, jakieś tam jeszcze stany, możemy odczytywać nagłówki
w noczotwartej wiadomości, możemy przeskakiwać szybko do załączników.
Są tam usprawnienia pod kątem pisania wiadomości, jak szybko przejść
z tych pól od, do, kopia, możemy nawigować też, co aktualnie nie działa
w NVDA najnowszym, chyba nad tym pracują, możemy też przejść do trybu
takiego tradycyjnej nawigacji, jak po stronie internetowej,
tryb przeglądania i nawigować po wyrazach błędnie napisanych
W i Shift W. Są usprawnienia też w oknie sprawdzania pisowni,
gdzie np. Enter służy nam za zamień, Shift Enter zamieni wszystko,
Ctrl Enter ignoruj, Shift Enter ignoruj wszystko, Alt Enter dodaj do słownika
i tak dalej. Mamy posprzątane kwestie, jeżeli jest to lista dyskusyjna,
może nam wyciąć nazwę listy, np. mamy, nie wiem, Tyflos chyba tak nie robi,
ale są takie listy, które w temacie wiadomości zawsze muszą zawierać
nazwę tej listy w nawiasach, może to zostać wycięte.
Może zostać wycięte, jeżeli jest nie wiadomo ile instancji re lub odp
na odpowiedź zostanie to poskracane, tak że usłyszymy tylko trzy re,
np. że trzy razy. Pewne znaki mogą być pousuwane z nazw użytkowników,
żeby to trochę nam niełatwiej czytało udźwiękowienie.
Są przecinki wstawione między nazwami kolumn, żeby można było łatwiej,
z większymi przerwami, słuchać w bardziej poukładany sposób,
słuchać tego z czytnikiem. Mamy okienko do zamiany kolumn
i można zamieniać sobie w jakiej kolejności występują kolumny,
czy tam od, temat, data i tak dalej na liście wiadomości.
Możemy powyłączać te wszystkie przerywa, przeszkadzajki typu alert,
ta wiadomość to spam, alert potwierdź przeczytanie wiadomości.
Możemy też sprawić, że kiedy natrafimy na wiadomość, która jest prawdopodobnie spamem,
to usłyszymy dźwięki zamiast tego komunikatu. Są też skróty klawiszowe,
żeby te wiadomości oznaczyć jako spam, nie jako spam, zarchiwizować itd.
Jest opcja smart reply, czyli inteligentna odpowiedź.
Nie zapominamy naciskać Ctrl-R, Ctrl-Shift-R.
To Ctrl-R zostało tak zmapowane, że chyba jedno naciśnięcie to jest odpowiedź
na listę, czy na odpowiedź wszystkim. Dwa razy to jest odpowiedź tylko
tej osobie prywatnie. Jest kilka wariantów tego, co z tym Ctrl-R można by zrobić.
Dużo jest jeszcze tak naprawdę tych usprawnień.
Wszystkich teraz nie wspamiętam. Myślę, że warto zapoznać się z dokumentacją
i dobrze ją przeczytać. Jest to na swój sposób wyzwanie, bo niestety
dokumentacja została przetłumaczona na język angielski tłumaczem Google,
więc są momentami takie sytuacje, gdzie nie do końca wiadomo, o co chodzi,
trzeba się skupić. Mimo to myślę, że warto się dodatkiem zainteresować,
ale też dokumentacją warto, bo na swój sposób ona zmienia sposób,
jak przejdziemy po wiadomościach i po folderach i po całym tym interfejsie,
więc żebyśmy się potem nie zdziwili, że coś nie działa w taki sposób,
w jaki jesteśmy przyzwyczajeni. No a co robi w międzyczasie Chichi?
Chichi łączy troszeczkę funkcji kilku. Jest to dodatek do Thunderbirda,
trzeba go zainstalować ręcznie, czyli pobrać ten plik xpi,
to jest rozszerzenie, i zaimportować go ręcznie przez menu dodatków.
I on zastępuje nam kilka dodatków. Możemy na przykład ustawić,
w którym folderze nam się Thunderbird otworzy. Możemy tu dać nawigację
też literami po folderach. Możemy ustawić, żeby kursor po otwarciu
Thunderbirda ustawiał nam się na liście wiadomości. Jeśli tak,
to na której? Na ostatniej wiadomości, czy na pierwszej nieczytanej?
Można też skakać po nieczytanych wiadomościach, niezależnie od tego,
w którym folderze. Jeżeli skończą się w odebranych, to przerzuci nas
do następnego folderu, gdzie są jakieś nieczytane wiadomości,
więc w ten sposób możemy, jak burza, iść przez te nasze wszystkie wiadomości.
Możemy tu przeczytać wiadomość lub kanał RSS takim szybkim podglądem,
czyli naciskamy spację i jest nam czytana wiadomość.
Możemy naciskając spację dwa razy szybko wyświetlić listę linków
zawartych wiadomości, żeby do nich szybko przejść lub otworzyć link
do artykułu, jeśli to RSS. Możemy nawigować po folderach.
Możemy przejść po Alt F1, wyświetlić listę folderów, które zawierają
nieczytane wiadomości. Alt F2 lista skrzynek odbiorczych dla różnych kont.
Alt F3 lista kolumn i można je tutaj też przeorganizować.
Można też, to w sumie chyba tyle. No więc jak widać w niektórych momentach
te funkcje Thunderbirda Plus i funkcje Chichi nakładają się na siebie,
ale to nie problem, bo w opcjach Thunderbirda Plus można te rzeczy,
które są też dostępne przez Chichi, powyłączać, żeby nie wchodziły
sobie w drogę. A jeżeli ktoś nie chce instalować dodatku typowo dla NVIDIA,
ale woli pewne rzeczy mieć na poziomie Thunderbirda, no to może
zainstalować samo Chichi i w ten sposób sobie tego klienta spersonalizować.
Myślę, że warto się tym zainteresować, bo tych zmian i tych ułatwień,
ulepszeń jest dość dużo. Jedyne, czego ja żałuję, no szkoda, że nie poszli
albo jeszcze się nie zaczęli interesować, może to jest coś, co warto zgłosić,
ulepszeniem dostępności kalendarza, bo tam byłoby co robić i można by
trochę fajnych skrótów klawiszowych wprowadzić, trochę zmian w zachowaniu
domyślnym Thunderbirda, ale to już jest kwestia do poruszenia
z twórcami tych rozwiązań.
Całkiem być może, że jak zasugerujesz albo ty, albo ktoś zainteresowany
kalendarzem, no to faktycznie się to zmieni. Ja mam takie wrażenie,
że no niestety, ale osoby, które pracują z kalendarzem, a nie widzą
i jakoś cierpią z powodu takiej jego średniej wygody użytkowania,
no to jest bardzo, bardzo niewielka ich liczba, dlatego, że jeżeli ktoś
korzysta z kalendarza, to prędzej robi to w Outlooku, no bo zazwyczaj to jest
gdzieś tam powiedzmy w jakiejś firmie.
No to prawda, to jest, tak, no a potem się trafi, nie wiem, jakieś jedno
czy dwa miejsca, gdzie używają Thunderbirda.
To jest jakiś taki mniejszy projekt oczywiście i potem zaczynają się kłopoty.
Tak, schody, dokładnie, no plus oczywiście warto mieć dla siebie też
jakiś tam termin.
Oczywiście.
Wszystko uporządkowane i podkontrolowane.
Pewnie, że tak.
No dobrze, to co, to zmieniamy, słucham?
A, zmieniamy chyba temat i tym razem Talkback, bo Talkback 13.1 właśnie
mi już się myli, czy on już jest od jakiegoś czasu, czy to dopiero teraz
będzie 13.1, ale wiadomo co się stanie w nim.
Tak, jest nowy i ma dużo takich rzeczy, o które już dawno prosiliśmy,
które już dawno były w iPhonie.
Ja już się tu rozejrzę, bo tutaj będę się posiłkował wpisem
Devina Pratera, czyli takiego instruktora korzystania z technologii
asystujących w Stanach Zjednoczonych.
Stworzył on taki post na swoim blogu zatytułowany
Google Full Speed Ahead.
No i o czym pisze Devin?
Po pierwsze narzekano na to, że przecież Google wprowadza tutaj
Androidy z G13, wsparcie natywne dla Brailla, tyle monitorów wspieranych,
tyle różnych konfiguracji.
Google współtworzyło ten standard HID braillowski do uniwersalnego
podłączania monitorów, a nie oferują go w Talkbacku.
Poniekąd zostało to naprawione.
Nie jest to jeszcze dostępne przez Bluetooth, ale już przez USB-C
i można na USB-C kompatybilne monitory do Talkbacka podłączać.
Po drugie, w szczegółowości Talkbackowej doszło nawigowanie
po błędnie napisanych wyrazach i tutaj możemy nawigować.
Piszemy sobie w polu edycyjnym tekst i w tym momencie co się dzieje?
Możemy najechać sobie na szczegółowość źle napisane czy tam błędnie
napisane wyrazy, trochę jak w pokrętle iPhone’owym.
Wybieramy sobie słowo, po czym zjeżdżamy na działania i na działaniach,
o czym powiem zaraz, wybieramy sobie alternatywę, na którą chcemy
to słowo poprawić.
I dlaczego mówię o działaniach? Bo działania, czyli to co my znamy
jako czynności na pokrętle w iOS-ie, a w Androidzie to istniało,
ale było tylko dostępne w menu kontekstowym.
Chyba, że ktoś sobie przyporządkował do tego gest.
Ale to i tak było menu kontekstowe, to i tak było menu, w sensie
wyświetlało się menu. No to od teraz jest to po prostu jedna ze szczegółowości.
W końcu chciałoby się powiedzieć.
Tak, nareszcie. Co ciekawe, kiedy proponowałem tą zmianę jakieś 10 lat temu,
to zostałem na liście Ice Free zakrzyczany, że jak chcę mieć iOS-a,
to mam sobie kupić iOS-a. I że oni nie widzą jaki jest problem z tym,
że przecież jest menu kontekstowe, a jak mi się menu kontekstowe nie podoba,
to wtedy jeszcze były te menu koliste, takie wiecie, że się eksplorowało
ekran w ramach takiego kółka i wybierało się w taki sposób opcje.
I że przecież to jest tak samo szybkie. I o co mi chodzi?
No po czym, jak widać, te 10 lat mija i osoba aktualnie odpowiedzialna
za dostępność, czyli Nimer Jaber, również widzi, tutaj domyślam się,
sugestie użytkowników i nareszcie zostało to wprowadzone.
Może też dzięki temu więcej deweloperów zdecyduje się na implementowanie działań
w aplikacjach, bo na przykład Facebook odmówił implementacji.
Oni stwierdzili, że to nie ma sensu, skoro tak naprawdę równie dobrze
mogą zrobić zwykły przycisk, który jest widoczny tylko dla TokBeka
i pod tym przyciskiem obok każdego postu te działania będą aktywowane.
No więc teraz myślę, że nareszcie ten argument odpada.
Może deweloperzy wezmą się do roboty i to API będzie dużo bardziej wykorzystywane.
Nowe opcje brajla i języki. No nareszcie już nie ma takiego trzymania,
chronienia tej klawiatury brajlowskiej, tego wprowadzania brajlowskiego
na ekranie dotykowym dla wybranych języków.
Dla nas to nie jest żaden problem, bo my polski od ostatniej wersji mamy.
Natomiast mimo wszystko ja się cieszę, bo mamy nareszcie tych języków więcej.
Wielu z nas mówi w wielu językach. Poza tym nie tylko na Polsce świat się kończy
i w innych krajach myślę, że też nareszcie osoby niewidome będą mogły
bez jakichś dodatkowych aplikacji w takim podstawowym zakresie móc pisać.
Można dodawać języki do klawiatury brajlowskiej i je usuwać, to wiadomo.
I można też co jeszcze robić. W zaawansowanych ustawieniach brajla
można odwrócić kolejność działania przycisków przewijania, czyli przycisk
przewijający linijkę brajlowską do góry będzie przewijał w dół,
a przycisk przewijający w dół będzie przewijał w górę.
Może ktoś tak lubi. I można też aktywować wyświetlanie brajla na ekranie
na cele debugowania i pokazywania osobom widzącym jak ten brajl wygląda.
Nie ma UEB dla angielskiego, jest tylko brajl komputerowy, ośmiopunktowy
i ten taki amerykański i brytyjski. No więc tutaj osoby anglojęzyczne
mogą być troszeczkę rozsierdzone. Mimo to myślę, że dalej działa.
Ponoć działa troszkę szybciej, zwłaszcza przy pisaniu, ale tak ogólnie
ponoć też zdaje się być dużo szybsze to doświadczenie. Ciężko mi powiedzieć.
Jeżeli stestowaliście, to dajcie znać czy rzeczywiście.
No i ponoć też doszedł nowy tryb pisania i to chyba działa na ten moment
tylko na klawiaturze Gboard, czyli pisanie tak zwane, to się już na iOSie
też nazywa split tap, czyli jednym palcem szukamy litery na klawiaturze,
a drugim palcem, gdy już tą literę żądano znajdziemy, stukamy,
żeby tą literę wbić. No i możemy jednym palcem się przesuwać,
a drugim po prostu te litery wbijać. Niektórzy tak lubią pisać,
więc teraz taka opcja pisania również jest.
Zmian jakiś pomniejszych może być pewnie gdzieś też więcej,
natomiast o tylu ja w tym momencie wiem.
Jeżeli coś jeszcze odkryliście nowego w TalkBacku 13.1,
no to dajcie znać, dajcie też znać jak Wam się podoba ta nowa aktualizacja,
czy korzystacie z którejś z tych nowych funkcji, no i ogólnie jak się Wam
z tym czytnikiem ekranu pracuje po aktualizacji.
A tymczasem pojawiło się pytanie autorstwa Roberta, które brzmi tak.
Cześć. W których odtwarzaczach na Windowsa działa obecnie tagowanie plików
i płyt CD na podstawie jakiejś bazy online?
Kiedyś umiał to Winamp z bazy Gracenote, ale ona jest już niedostępna
i w najnowszej wersji chyba całkiem te funkcje usunięto.
Oprócz Winampa używam VLC, nie sprawdzałem Fubara ani innych odtwarzaczy.
A wydaje mi się, że Fubara warto by było sprawdzić,
bo co prawda ja tego nie sprawdzałem,
ale w wyszukiwarce wpisałem odpowiednią frazę i wychodzi mi na to,
że są do Fubara wtyczki, które obsługują Gracenote i DiscoGS.
Więc może coś tam by się udało.
Tak, jakieś FreeDB coś tam też jest, nawet natywnie.
No i ogólnie tagowanie jest.
Nawet nie wiem, czy gdzieś nie było MusicBrainz, ale to może mi się mylić.
Więc warto myślę scestować Fubara.
Tak, MusicBrainz, MusicBrainz, jest dokładnie.
Jest MusicBrainz i jest DiscoGS, tak.
To się zgadza.
To próbujcie Fubara.
No i kolejny, może nie news, seria newsów od Pawła.
Drobne newsy.
Tak, drobne newsy.
No i co tu mamy.
Powstaje aplikacja, jest taka firma Estée Lauder,
firma, która jest w sektorze takim właśnie kosmetycznym, beauty itd.,
produktów upiększających i z ich inicjatywy powstaje pierwsza aplikacja
napędzana sztuczną inteligencją, która pomoże osobom niewidomym
nałożyć makijaż.
No i dowiemy się na przykład, czy cienie leżą prawidłowo,
czy gdzieś nie przesadziliśmy, czy coś tam można by poprawić
i co konkretnie poprawić.
Zdaje się, że używany jest normalnie voice over,
czyli nie ma jakiejś wbudowanej syntezy.
Można przeskanować jakby twarz, otrzymamy jakiś tam raport,
można nanieść poprawki, dokonać ponownego skanowania,
otrzymać kolejny raport, aż zdaniem aplikacji wszystko będzie OK.
Mimo że stworzyła to ta konkretna firma, to nie znaczy,
że będzie to działało tylko z produktami tej firmy.
Powinno to działać uniwersalnie, aczkolwiek plany są też takie,
żeby taką aplikację stworzyły też inne firmy i dołożyły tam
jakieś swoje opcje specyficzne dla produktów danej firmy, danej marki.
Nie chodzi tu bynajmniej o reklamy, a o po prostu jakieś może bardziej
dokręcenie jeszcze tego mechanizmu albo jakieś takie porady
dotyczące konkretnie tych produktów.
Testowane to było na różnych rodzajach też skóry
przez osoby o różnej etniczności, no bo warto podkreślić,
że osoby czarnoskóre trochę inaczej się malują niż osoby o takiej
urodzie białej, urodzie europejskiej.
No i na razie aplikacja dostępna jest jedynie w Wielkiej Brytanii.
Jest oczywiście plan, żeby uruchomić i na iPhona,
jest oczywiście plan, żeby uruchomić i na Androida, i na inne kraje.
Na razie mówi się o Ameryce Północnej, więc ewidentnie gdzieś ten obszar
anglojęzyczny ma prowadzenie, natomiast może z czasem też zobaczymy
to i na polskim rynku, może nawet przetłumaczone, kto wie.
Jest to w każdym razie ciekawe. Ciekaw jestem na ile rzeczywiście
pomocne jest takie rozwiązanie, bo ze sztuczną inteligencją
to różnie bywa.
Kończy się niestety rozwój klienta webowego Mastodona Pinafore,
który demonstrowaliśmy w ramach naszej audycji mastodonowej.
Autor stwierdził, że już nie jest w stanie go dalej rozwijać.
Co to dla nas oznacza? W dużej części kończy się kolejny klient
taki ciekawy, który był bardzo dostępny, dużo bardziej niż
oficjalny interfejs Mastodona.
Natomiast jedna z osób, które dokładały też swoją cegiełkę do tego,
by ten klient był dostępny, postanowiła utrzymywać dalej fork,
czyli jakby kopię tego projektu, swoją wersję, w której będzie się
skupiać głównie na rozwoju dostępności. Na razie jeszcze nie mam
adresu tego forka, żeby móc z niego korzystać, natomiast to fajnie,
że ktoś o nas pomyślał i będzie chciał pod naszym kontem gdzieś
tego klienta rozwijać. Mam nadzieję, że ten rozwój gdzieś dalej potoczy,
że ktoś mu podejmie wyzwanie i zajmie się naprawdę już całościowym
rozwojem projektów. Projektu, bo Pinafore to jeden projekt.
Po trzecie, MediaHotKey. Jest to rozszerzenie do Chroma,
które pozwala nam na używanie tych właśnie skrótów klawiszowych,
które znamy z YouTube, czyli K, play, pauza, JL, przewijanie o 10 sekund,
strzałki lewo, prawo o 5 sekund, mniejsze, znak mniejszości,
znak większości, spowalnianie lub przyspieszanie odtwarzania,
klawisze 1 do 9, skakanie o 10% w danym materiale, F, pełny ekran,
M, wyciszanie. Na dowolnym elemencie typu media, czyli wszystko,
co w HTML5 jest natywnie zakodowane jako media, na dowolnej stronie internetowej,
czyli jeżeli mamy tam aplikację, odtwarzacz i jest jakieś audio lub wideo,
no to prawdopodobnie możemy tymi skrótami ten materiał obsługiwać.
Ctrl-M to skrót klawiszowy, którym włączamy lub wyłączamy
te skróty klawiszowe z dodatku, no i dodatek można zainstalować
ze sklepu Chrome Web Store i go używać. Poprawiła się dostępność
dwóch aplikacji. Po pierwsze V-Radio. Nie wiem do końca, co się poprawiło.
Zdaje się, że chodzi o to, że teraz będzie odczytywany przy stacjach
zaimportowanych przez nas z plików bitrate i no to bitrate i różnej jakości
i kodek chyba, tak, bitrate i kodek danej stacji. Chyba o to chodzi,
bo nie zauważyłem jakiejś poprawy. Jest jeszcze kilka niezetikietowanych
przycisków. Natomiast poprawki są, tak zgłaszają francuscy użytkownicy,
w aplikacji My Canal, czyli Canal Plus na nasze urządzenia mobilne.
Ponoć od teraz jest łatwiejszy dostęp do odtwarzacza, że już bez problemu
można i przewijać materiał i przełączać język. Możliwe, że wcześniej
ten odtwarzacz był ukryty i jakoś się domyślnie ukrywał, a teraz te kontrolki
się gdzieś tam pokazują i można z nich spokojnie korzystać.
Ponoć jeżeli mimo aktualizacji, która z tego co widziałem w Polsce
się już ukazała, ale lista zmian o tych poprawkach nic nie wspomina.
Jeżeli mimo aktualizacji nie widać, żeby coś było lepiej, ponoć pomaga
przeinstalowanie aplikacji, choć ryzykujemy wtedy rozsypaniem totalnym
naszego zarówno profilu jak i naszego konta. Trzeba będzie konto od nowa
logować, jak i profili oglądania, jeżeli mamy takie pokonfigurowane.
No i na koniec taka bardziej ciekawostka niż cokolwiek innego.
Jeżeli używacie zegara Google, a ten moment zdaje się, że na pikselu
lub jeżeli wgraliście sobie jakoś innym sposobem rejestrator dźwięku z piksela,
to w waszej aplikacji zegar pojawi się możliwość nagrywania własnych
dźwięków alarmu mikrofonem. Nie wiem komu by się to mogło przydać,
ale taka możliwość jest, więc o niej informuję.
I to wszystko jeśli chodzi o drobne newsy.
Ale to nie wszystko jeżeli chodzi o newsy w ogóle, ale tym razem już newsy
ode mnie dotyczący, jak to u mnie często bywa, dźwięku.
Bo pojawił się kolejny program, skrypt, jak to nazwać, poprawiający
dostępność niektórych instrumentów wirtualnych.
Konkretnie chodzi tutaj o syntezator Serum, potem Icarus od Tone 2 pewnie.
Tone 2 się pisze. I tu jest napisane, że wersja 1X, czyli pewnie wszystkie
wersje do 1 tam ileś. Native Instruments Kontakt 6 i Kontakt 7,
który jest napisany, że dostępny tylko częściowo.
Znaczy generalnie te samplery Kontakt są dostępne częściowo,
ale Kontakt 7 jest dostępny mniej, dlatego że tam jest dużo więcej problemów.
Tam ten interfejs podobno jest, on się potrafi skalować w zależności
od monitora, czegoś jeszcze i ponoć on jest bardzo trudny do zrobienia.
Znaczy do udostępnienia, bo to i tak polega często na klikaniu
w odpowiednie miejsce ekranu, tylko problem polega na tym,
jak wybrać to odpowiednie miejsce ekranu i w przypadku Kontaktu 7
nie jest wcale to takie łatwe.
No i to jest program napisany w AutoHotKey, w związku z powyższym
on jest niezależny od Sklindera, JAWS, Window Eyes,
znaczy Window Eyes to nie wiem, czy to obsługuje, bo to działa z tym
Speech Output, to się chyba tak nazywa ta biblioteka.
No to Window Eyes zdaje się to obsługiwał kiedyś,
no tylko, że Window Eyes to już dziś raczej nikt go nie używa.
Tak, ale Narrator chyba nawet obsługuje JAWS, NVDA,
SAPI 5 jeżeli nie ma nic, więc to jest takie dość mocno uniwersalne.
Tam jest chyba skrót CTRL-ALT-V i to chyba trzeba wciskać CTRL-ALT,
a nie prawy ALT, więc CTRL-ALT lewy, CTRL i lewy ALT-V,
znaczy CTRL wszystko jedno, ale lewy ALT-V.
Tam się otwiera takie menu, w którym można sobie wybierać opcje
dostępne w poszczególnym syntezatorze, no i jest jeszcze taka uwaga,
że jeżeli się to uruchamia w Reaperze, to trzeba wtyczkę uruchomić
jako, znaczy w osobnym oknie, a nie w oknie no takim,
no w okienku jakby wbudowanym w Reapera, czyli trzeba we wtyczce
wejść w menu kontekstowe, run as, rozwinąć i dedicated process
albo separated process i wtedy wtyczka otwiera się w osobnym oknie
i ma też osobny proces założony w menedżerze zadań
i trzeba to tak robić.
To zresztą jest opisane w archiwum, jeżeli pobierzecie sobie program
ze strony, jest link w komentarzu do audycji i porałem sobie to,
przetestowałem, jakoś to działa, więc miejmy nadzieję,
że innym osobom też będzie to działało, jest napisane,
zdaje się, że on nawet działa w tych rozdzielczościach od 1200 na 800
czy 1360 na tam druga jakaś wartość, nie pamiętam, taka klasyczna.
W każdym razie nie trzeba mieć rozdzielczości full HD i to jest
o tyle fajne, że nie każdy laptop, znaczy laptop w pewnej większości
to ma, ale podejrzewam, że jak ktoś ma jakiś starszy komputer
z jakimś monitorem starszym, to może być tutaj, ja kiedyś miałem
taki monitor do komputera podłączony, który miał właśnie tysiąc,
na pewno to nie było takie full HD w całości, więc żeby obsługiwać
te instrumenty czy tam te skrypty, które wymagały full HD,
musiałem ten monitor odłączać, uruchomić podobny komputer,
przedstawić rozdzielczość, jak podłączałem ten monitor,
to ona znowu się zmieniała, bo on sobie ją automatycznie
przestawiał, więc to były takie różne ciekawe rzeczy.
W każdym razie zdaje się, że te skrypty nieco mają większą tolerancję
na rozdzielczości, nie wiem jak tam wygląda kwestia
maksymalnej rozdzielczości, mam nadzieję, że będzie to działać
również u innych, nie tylko u mnie.
A teraz coś dla fanów sportu i to takiego dosyć nietypowego
sportu jak dla niewidomych, bo niewidomy ponoć zagrają
po raz pierwszy na Australian Open.
Czyli tenis ziemny.
I to jest ciekawe, bo tenis kojarzy mi się, jeśli chodzi o osoby niewidome,
to ze stołowym, wiadomo, showdown.
A okazuje się, że da się też grać w tenisa ziemnego poniekąd,
nazywa się to soundball i po raz pierwszy będzie
elementem Australian Open i jest to ciekawe.
Nie znałem tego sportu, teraz sobie o nim tutaj czytam.
Mamy taką piankową piłkę, którą ponoć bardzo słychać,
jak ona po tym korcie sobie lata. Te korty oczywiście są dużo mniejsze.
Jeżeli grają osoby całkowicie niewidome, to też granice
różnych obszarów takich małych kortów są zaznaczone
w sposób tak jak najbardziej wyczuwalny.
I naszym zadaniem jest wysłyszeć, jak ta piankowa piłeczka sobie leci
i ją odbić. Ponoć w przypadku osób niewidomych całkowicie
dozwolone są trzy odbicia piłki na naszej stronie.
Jeżeli piłka, zdaje się, gdzieś tam leci w naszą stronę
i ona się nam poodbija trochę, to u nas dozwolone są trzy odbicia.
Osoby słabo widzące jedno odbicie lub dwa, w zależności od
niepełnosprawności wzroku, klasyfikacji tejże niepełnosprawności.
Nie wiem w sumie, czemu akurat osoby niewidome, bo tak to wynika
z artykułu, noszą opaski na oczy lub gogle.
Wydawałoby mi się, że osoby widzące. Aha, możliwe, że osoby widzące
grając z całkowicie niewidomymi, bo jest to możliwe, żeby grać też
z widzącymi. No i raczej gra się w środku niż na zewnątrz,
bo taka piłeczka jest dość łatwo, dość łatwo na nią wpływa właśnie.
Wpływają warunki atmosferyczne, tu jakiś wiatr, jakiś deszcz itd.,
powiew wiatru, więc żeby jej nie zwiało, no to lepiej grać
na kortach zamkniętych. Smutna rzecz w tym wszystkim jest taka,
że te piłeczki nie wytrzymują długo, bo po dwóch grach one są
praktycznie nie do użytku. I to jest też powód, dla którego ten sport
nie jest zbyt popularny, bo koszt produkcji i dystrybucji tych piłeczek
jest dość duży z uwagi na to, że co chwilę trzeba je wymieniać.
Ale mimo to Australian Open wita osoby, teraz kilka osób się zmierzy
w tego typu pierwszych zawodach i nie jest to pierwsze podejście
do kwestii osób niepełnosprawnych, bo już wcześniej był w czasie
Australian Open przeprowadzany mecz tenisa na wózku.
Teraz też ma być tenis dla osób niepełnosprawnych intelektualnie
i w przyszłości chyba za rok też ma być właśnie taki miks,
że dla osób niepełnosprawnych intelektualnie i niewidomych,
albo widzących, jeżeli dobrze tutaj czytam artykuł.
No a jeśli chodzi jeszcze o ten rok, to zdaje się, że również ta część
zawodów, czyli właśnie te zawody osób z dysfunkcją wzroku,
będą transmitowane w tym systemie Action Audio, czyli ten system
taki znany, z którego Australian Open słynie, w którym specjalny
program komputerowy transmituje trajektorie, jakby upadanie
piłeczki tenisowej w formie dźwięku przestrzennego, dźwięku stereo.
Na streamie, tak aby osoba niewidoma miała to wyobrażenie,
jak ta piłeczka sobie lata. No to co, kiedy pierwsza reprezentacja
Polaków albo kiedy pierwsi reprezentanci lub reprezentantki Polski
w Australian Open z naszego środowiska? Ja jestem ciekaw i będę kibicował.
Dokładnie. Przechodzimy do technikaliów i pierwszy news znowu od Pawła,
czyli nowości od Apple’a.
Tak, przede wszystkim myślę, że taką nowością od Apple jest to,
mówiliśmy o tym tydzień temu, że Apple się zasadza na jakieś okulary,
jakieś AR, VR. Już wiemy o tym trochę więcej. Dużo dość newsów było
tydzień temu i to było też dzięki Bloombergowi, no a teraz dzięki
Bloombergowi wiemy inną znowu rzecz, że okularów VR, znaczy okularów
rozszerzonej rzeczywistości, takich, które będziemy prawdopodobnie
ze sobą gdzieś tam nosić po ulicy i coś nimi rozpoznawać,
w najbliższym czasie nie będzie, bo Apple na ten moment wszystkie
siły przerobowe koncentruje na headsecie do AR i VR, czyli bardziej
wirtualna rzeczywistość, bardziej rozszerzona rzeczywistość,
ale raczej w grach, w takim świecie wirtualnym. Tutaj celem Apple
jest na ten moment stworzenie konkurencji dla meta i ich metaversum.
No i to na ten moment jest priorytetem, a nie okulary, które mogłyby
zastąpić gdzieś tam Envision Glasses. Jest to dość dynamiczny
rozwój sytuacji. Co chwilę dowiadujemy się czegoś nowego.
No i teraz wygląda na to, że na razie ten headset to jest to,
co powinno wyjść w tym roku. Natomiast za rok to, co mogłoby
ewentualnie wyjść, to troszkę tańsza i okrojona wersja tego zestawu
do mieszanej rzeczywistości. Więc jeżeli czekaliście na to,
że okulary od Apple, które pomogą nam jakoś czytać tekst,
nawigować, rozpoznawać obiekty i tak dalej, nadejdą, no to na ten moment
będziemy musieli znowu kilka lat pewnie poczekać, przynajmniej tak według
raportu Bloomberga. Natomiast rzeczy, które jednak wyszły i się ukazały,
no to mamy od wczoraj nowe maki w nowych konfiguracjach z M2
i czego się tu dowiadujemy. To będzie pierwsza premiera Apple w 2023.
Jeśli potwierdzą się nieoficjalne doniesienia o planach zaprezentowania
nowych wersji MacBooków i Mac Mini. Czego możemy się spodziewać?
To czy w międzyczasie już to są oficjalne informacje?
Tak, zobaczymy nowe wersje MacBooków i Maca Mini.
Najważniejsze zmiany będą dotyczyć wydajności, czyli 14- i 16-calowe maki
otrzymają M2 i M2 Max. No nie będzie żadnych zmian w designie i ma być też
M2 w MacBooku 13-calowym, MacBooku Pro z touchbarem i w MacBooku Air
i MacBook Mini też mają mieć M2.
No i te modele się już pojawiły, to już wiemy i mamy te nowe komputery, one są.
No i też dwa lata po tym jak Apple porzuciło gdzieś tam HomePoda,
wraca HomePod. HomePod taki sam design, jedyne co to ma ulepszony dźwięk
i to chyba tyle. Więc jeszcze tam jakaś aktualizacja oprogramowania się ukaże,
która w HomePodach odblokuje rozpoznawanie dźwięku i pewne do tej pory
zablokowane czujniki, więc myślę, że może być tutaj ciekawie jeśli chodzi o Apple.
O, już chyba jestem. I pora teraz znowu na mój news. Amazon uruchomił dwie usługi
w Polsce, które do tej pory w języku polskim nie występowały.
Chodzi o Amazon, żebym teraz nie przekręcił, Lex i Amazon Polly.
Flex to jest coś, ale nie wiem czy chat GPT, to na pewno jest wcześniejsze rozwiązanie,
więc podejrzewam, że nie aż tak inteligentne jak chat GPT, tu bardziej chodzi pewnie
coś troszeczkę jak asystent Google i podobne rozwiązania, czyli taki system
zadawania pytań i potem odpowiedzi na te pytania.
Czyli chodzi o generalnie tworzenie botów, które w jakiś sposób będą
interaktować, jak to się czasami mówi, z użytkownikiem.
I druga rzecz to jest Amazon Polly, czyli TTS od Amazonu, czyli syntezator mowy
od Amazonu, który potrafi emocje i różne takie rzeczy.
Jest pierwszy głos polski, nazywa się Ola. Amazon twierdzi, że może to czytać
różne rzeczy, w zależności od kontekstu potrafi zmieniać właśnie jakieś emocje,
sposób czytania, styl itd.
Słyszałeś głos?
Właśnie nie, próbowałem się na szybko zarejestrować Amazonie, ale nie zdążyłem
jeszcze, żeby to sprawdzić. Na YouTubie patrzyłem, ale tam są same
angielskie, bo to jest bardzo nowa nowość, że się tak dziwnie wyrażę, więc nie wiem
jeszcze jak to brzmi. No i są jakieś nadzieje, że być może to są jakieś
przymiarki do uruchomienia w końcu Aleksy po polsku, bo skoro jest już
neuronowy syntezator polski, jest już system do tworzenia polskich botów,
no to być może asystent Amazona też za jakiś czas się pojawi, no bo skoro już
są te rzeczy, no to jest taki fundament, na którym Aleksa jest.
Jestem bardzo ciekaw, jak ta Ola przypomina i czy w ogóle przypomina
któryś z głosów Iwony.
No właśnie, bo poli, jakby samo poli takie podstawowe było już dostępne,
były polskie głosy Iwony dostępne w Amazon Cloud, jakby można było ich użyć.
O, no to ciekawe, no bo oni piszą, że to jest nowe, to znaczy, że to jest
pierwszy głos neuronowy.
Ale o to stoję, jestem w stanie uwierzyć.
Tak, bo to były klasyczne, takie jak my znamy.
A no właśnie, więc w takim razie nie wiem, czy to będzie oparte na tych
samych próbkach, w sumie ciekaw jestem, na ile Ivo podzieliło się również
źródłowymi próbkami z Amazonem, czy tylko jakby samym syntezatorem.
Ciekawe, ciekawe.
Aczkolwiek wydaje mi się, że jak oni coś tworzyli przecież na Stany,
to były głosy ich i podejrzewam, że…
Bo często te głosy neuronowe wymagają dość dużej ilości tych próbek
i mnie się wcale nie zdziwię, jak to mogą być próbki mimo wszystko
osobnego lektora, który dużo więcej tych próbek tam ponagrywał.
Zaczynam się powoli, powolutku dowiadywać, ile taki porządny
syntezator neuronowy powinien tych próbek mieć.
I na przykład czytałem sobie niedawno o tym, że ta technologia Tacotron
Google’a, czyli jeżeli jeszcze ktoś ze słuchaczy pamięta jakiegoś Gothic Bota
czy inne takie, żeby stworzyć tak zwany model bazowy, czyli taki pierwszy model
w danym języku, na którym potem będą się inne modele opierały,
to fajnie by było, żeby tych godzin było z 15, albo 20, albo więcej.
I na takiej dość dobrej karcie graficznej, taki trening, mówią, że to
może trwać na przykład dwa tygodnie albo miesiąc.
Przy czym to jest też taka wersja, podejrzewam, lekko zubożona, bo te
syntezatory brzmiały dość mocno sztucznie, natomiast to, co przedstawia nam
Google w swoim asystencie, no to ten głos jest naprawdę dobrej jakości,
więc podejrzewam, że tamten trening może trwać jeszcze dłużej.
Może nie to, że dłużej, ale może zajmować jeszcze więcej zasobów.
Czy więcej czasu, tego nie wiemy, bo te technologie, podejrzewam, są dość
mocno strzeżone, niemniej nie zdziwię się, jak tu potrzeba dość dużo tych danych,
więc nie wiem, czy oryginalnych próbek z Iwony byłoby na tyle, żeby to ogarnąć.
Nie zdziwię się, jak nie, bo tam kiedyś chyba czytałem, że tam była jakaś
godzina czy dwie godziny do Iwony wykorzystane.
Być może się mylę, ale to są tego rzędu, z tego co wiem, ilości tych próbek,
więc być może, nie wiem, zobaczymy, ale jeżeli nawet, to podejrzewam,
że ten syntezator będzie dużo lepszej jakości, zwłaszcza, że mają być
odwzorowane emocje, więc w przypadku syntezor od Iwony tych emocji nie było
i on był czytany bardzo tak neutralnie, więc tam by musieli chyba dość mocno
zakombinować, żeby te emocje się pojawiły, choć oczywiście teraz
w przypadku syntezy neuronowej to nigdy nie mów nigdy, bo można naprawdę
różne rzeczy robić, zresztą pokazywałem swego czasu tutaj nawet na tyfroprzeglądzie,
jak można było podmielić sobie głos na głos kogoś innego w pewnym sensie.
No i tyle, jeżeli chodzi o te usługi Amazona, a teraz z nią znowu od Pawła,
bo słuchawki Galaxy Buds Pro, Pro 2 dokładnie, pozwolą na nagrywanie
binauralne, póki co na wybranych smartfonach.
Tak, tak, docelowo ma to być rzeczywiście na większej ich ilości,
na pewno na tych, które wspierają UI samsungowe One UI 5.1 i wyżej
i też, które mają ten konkretny jakiś profil Bluetooth LE i kodek wspierany.
Natomiast na razie została ta możliwość otwarta po aktualizacji oprogramowania
w Galaxy Buds Pro 2 na Samsungu Z Fold 4 i Samsungu Galaxy Z Flip 4.
No więc wątpię, żeby ktokolwiek z nas taki telefon posiadał,
aczkolwiek są osoby niewidome, które sobie takie telefony sprawiają,
tak ogólnie. Natomiast na tych telefonach i to na razie tylko chyba w aplikacji
aparatu i bardzo jest to szeroko reklamowane jako coś, co uzupełnia nam
dźwięk w filmach, ale istotnie mikrofony są wykorzystywane i można nagrywać
w ten sposób dźwięk próbek. Jak na ten moment brak, jak się pokażą,
pewnie damy znać.
A teraz taki news, który wpisał Michał, aczkolwiek mi też podejrzał Michał,
że ty dostałeś maila od Dipla.
Nie, nie dostałem maila od Dipla, widziałem gdzieś w mediach społecznościowych,
że Tomasz Zieliński, czyli niejaki informatyk zakładowy, który właśnie
w DiPel pracuje, on dość mocno promował to rozwiązanie, mianowicie DiPel Ride,
zachęcał, żeby przetestować i ja powiem szczerze, ja się cieszę,
że takie narzędzie powstaje, bo okej, już teraz mamy tę sztuczną inteligencję
taką fajną, że można tam napisać coś po polsku i to będzie od razu
w języku angielskim bez wysiłku, ale ja powiem szczerze, mimo wszystko
dla jakiegoś takiego trochę własnego treningu, żeby już kompletnie
nie zapomnieć tego angielskiego, to ja wolę jednak mimo wszystko
pisać tekst własnoręcznie. On jest oczywiście zapewne nie wolny
od błędów, ale po to jest właśnie DiPel Ride, bo działa to w ten sposób,
że wklejamy nasz tekst w języku obcym dla nas, na razie tam jest wspierany
na pewno angielski, brytyjski, amerykański, niemiecki i chyba tyle.
Natomiast wklejamy ten tekst i otrzymujemy w polu poniżej tekst poprawiony,
który możemy gdzieś tam sobie wkleić do maila czy na komunikator,
gdziekolwiek byśmy chcieli go wysłać. Z opisu ponoć ten DiPel potrafi więcej,
ten DiPel Ride. Ja się nim chwilę bawiłem i powiem szczerze, być może za krótko,
bo nie udało mi się dotrzeć do tych elementów, o których czytałem.
To znaczy, że tam na przykład kliknij na słowo, otrzymasz sugestie różne
albo że można tam zmieniać sobie ten kontekst, stopień formalności.
Do tego jakoś dotrzeć mi się nie udało i mam wrażenie, że z dostępnością tego
może być problem, chociaż być może ktoś się bawił więcej ode mnie
i miał lepsze wyniki. Nie wiem, Tomku, czy ty coś testowałeś bardziej?
Nie, ja nie testowałem.
Więc na pewno w podstawowej wersji to działa, wklejamy po prostu w jedno pole tekst,
w drugim polu dostajemy tekst poprawiony. Ja polecam, będę używał.
To jest taka alternatywa do Grammarly, zdaje się, tak?
Dostępna bardziej, bo Grammarly chyba w podobny sposób działa,
że poprawia nasz angielski na bardziej angielski.
Tylko, że dostępnością to to nigdy nie grzeszyło.
No, przynajmniej jeżeli chcesz uzyskać po prostu ten tekst, to bez problemu.
No i to jest świetna wiadomość.
Tak jest. Zostały jeszcze dwa wniosek od Pawła.
Pierwszy niezbyt pewnie wesoły, chociaż nie wiem w sumie ilu z nas korzysta
z naszego z twitterifika. W każdym razie Twitter powoli zaczyna walkę
z nieoficjalnymi aplikacjami, choć póki co tymi dużymi nieoficjalnymi aplikacjami.
Tak. Na razie aplikacje, które oberwały i to było bardzo, w bardzo takiej
brutalnej atmosferze się to odbyło, bo bez jakiejkolwiek zapowiedzi,
bez jakichś komunikatów, z kompletną ciszą przez zasadniczo cały weekend,
od piątku wieczora naszego czasu, użytkownicy tweetbota, twitterifik
i echofona przestali mieć dostęp do api Twittera.
Twórcy nie wiedzieli co się dzieje.
Twitter milczał, próbowali coś tam uratować, tweetbot przez chwilę wrzucił
jakąś aktualizację z jakimiś starymi kluczami, ale po chwili już te klucze
zostały też zbanowane. No i gdzieś po weekendzie okazało się,
że Twitter się do tego, gdzieś tam zarząd Twittera się odniósł
i że jak najbardziej to była zmiana celowa.
Bez kontekstu, nie ma dalej żadnej informacji czy to będzie dotyczyło
większej ilości klientów, czy to będzie oznaczało wyłączenie całego api.
No nie wiadomo, te trzy klienty na razie oberwały.
Podejrzenia są takie, że chodzi o to, że te klienty są największe
i tak naprawdę w największym stopniu odbierają udział w tym twitterowym torcie
aplikacji oficjalnej. No i o ile tweetbota i echofona to osoby niewidome
jakoś tam specjalnie często nie używały, no to twitteryfika już jak najbardziej
i no to jest tak naprawdę koniec i to już jest potwierdzone przez autora.
Autor napisał post na swoim blogu, gdzie no nie bawi się już w język
dyplomatyczny i parlamentarny, żeby opisać to jak się poczuł,
kiedy bez ostrzeżenia i bez jakiegoś wytłumaczenia jego aplikacja
została po prostu odcięta. A jest to jedna ze starszych aplikacji,
jeden ze starszych klientów twittera, takich które poniekąd wyznaczał standardy
i w czasach, kiedy twitter był jeszcze taką ledwo rozwijającą się platformą,
to twitteryfik był inspiracją wielu funkcji, które później pojawiły się
rzeczywiście w samej platformie. I był to taki jeszcze czas, kiedy no twitter
gdzieś się liczył z tymi użytkownikami, z deweloperami zewnętrznymi i tak dalej.
Natomiast no zostali pożegnani dość ozięble. No ale wiemy też, że sam twórca
twitteryfika na laurach nie spocznie, bo planuje, no napisał właśnie,
że to co go najbardziej kręciło w tworzeniu twitteryfika to było to
odkrywanie takiego niezbadanego terenu, jakieś ustalanie nowych protokołów,
że w sumie w takim ledwo co wykształconym serwisie tworzyło się jakieś nowe funkcje,
jakieś nowe standardy i on by chciał coś takiego teraz dokonać na skalę
całego Fediversum, więc prawdopodobnie szykuje się nam jakiś taki
uniwersalny mega klient różnych rodzajów tych sfederowanych sieci,
tego Fediversum czy ActivityPub. Brzmi to na duży rozmach.
Jestem bardzo ciekaw co z tego wyjdzie. Na pewno będziemy mogli liczyć na to,
że aplikacja będzie dostępna, bo na to ze strony IconFactory
można zawsze było liczyć, więc no nie sądzę, żeby było i w tym przypadku inaczej.
No i ja czekam z zapartym tchem, natomiast pytanie co będzie dalej, tak?
Jeśli chodzi o Twittera, czy to na razie tak tylko ci co bardziej gdzieś tam
się wychylali, oberwali jakimiś sankcjami, czy to zmierza w stronę
totalnego zamknięcia całego API, no bo wtedy pamiętajcie, że polecam
wszystkie klienty, z których korzystamy my jako osoby niewidome, czyli TWBlue,
czyli Twizzcake, Chicken Nugget, The Cube, jeśli ktoś jeszcze używa,
jeśli w ogóle się jeszcze da, tam OpenTwin jak ktoś używał, czy Quinter,
inne takie różne. To wszystko nie będzie miało możliwości, żeby się komunikować.
Ja widziałem już jakieś raporty, że Spring też przestał działać,
ale nie potwierdzam. Nie potwierdzam u mnie Spring nadal bez zarzutu.
No i smutne to, no ale cóż poradzić.
Niemniej jednak, jeżeli korzystaliście, czy korzystacie z Twittera,
to tak pomału chyba faktycznie czas myśleć o przesiadce w jakieś inne miejsce,
bo i fajnie się do tego przygotować, bo no powiem szczerze, jeżeli ktoś
korzystał z Twitterifica i to był jego główny klient, to z dnia na dzień
tak naprawdę został pozbawiony dostępu do być może używanego przez siebie
aktywnie medium społecznościowego.
Tak, owszem, owszem.
To bez jakiejś informacji takiej, że okej, to będzie, że macie powiedzmy
miesiąc albo ileś tam czasu. Nie, to była decyzja z dnia na dzień,
wyłączenie wtyczki i koniec.
Łącznie z tym, że sami twórcy nie wiedzieli co powiedzieć klientom,
że na przykład trzy dni temu kupili program i apka przestała działać.
Niektórzy mieli powłączane jakieś subskrypcje i te subskrypcje tam
w kwestii jednego dnia czy dwóch miały się odnowić i oni nie wiedzieli,
czy wywalić apkę z App Store’a, czy zawiesić te subskrypcje,
czy co z nimi zrobić, czy to wróci, nie wróci, jaki jest stan rzeczy.
Tak się nie robi.
Dokładnie, to już szopi dłużej z polskich wychodziło.
To prawda.
No zobaczymy. Nie wiem, czy wiecie coś na temat tej ustawy,
o której chyba Mikołaj kiedyś mówił, że w Stanach ma być jakaś ustawa,
która wymusza trochę na twórcach tych wielkich serwerów,
żeby to było troszeczkę bardziej otwarte.
A to w Europie mamy nasz cyfrowy akt, który ma komunikatory w ten sposób
ze sobą pogodzić. No zobaczymy.
Zobaczymy.
No i został twój ostatni news odnośnie Netflixa,
jeżeli ktoś ogląda i ma współdzielone konto.
Tak, bo pojawiają się już powoli bliższe informacje,
bo Netflix tak krąży wokół tego tematu, bo to jest taka trochę szara strefa,
że ludzie dzielili te konta, że ktoś podał login e-maila i hasło w rodzinie komuś,
a ta rodzina to niekoniecznie mieszkała w tym samym domu.
No i to teoretycznie nie jest zgodne z regulaminem Netflixa,
ale Netflix na to jakoś przymykał oko albo tego nie badał.
Dopóki się nie okazało, że serwis zaczyna notować straty,
bo na ten pomysł wpadło wiele osób.
W Brazylii zrobiono jakiś w ogóle eksperyment bliższy ku temu
i się okazało, że niektórzy to nawet nie wiedzieli,
kto konkretnie z tych kont korzysta, bo gdzieś tam on podał tylko koledze,
a że kolega podał pięciu następnym, no to on już nie wiedział
i nagle pół kraju korzystało z kilku kont, a mało co.
I Netflix się postanowił za to ono wziąć, bo na czymś zarabiać trzeba.
No i do Polski również ten mechanizm zmierza.
W ogóle to dziękujemy naszemu słuchaczowi Dawidowi
za podesłanie tej informacji.
I no co, jeżeli na jedno konto będą się logowały jednocześnie
dwie osoby z tego samego domu, to samo IP, te same identyfikatory,
czy powiedzmy powiązane identyfikatory urządzeń,
które zazwyczaj się logowały, no to nie ma powodów do zmartwień,
nie ma powodów do podejrzeń, to jest OK.
Jeżeli mieszkamy w tym samym domu, nie ma problemu.
Jeżeli odnotowane będzie, że się logujemy z innych IP na to samo konto,
to już Netflix zaczyna być gdzieś tam podejrzliwy
i może nam wysłać linka do weryfikacji.
Trzeba będzie podać jakiś tam kod dostępu.
Nie wiem, czy ten kod się wyświetli na urządzeniu w tym, powiedzmy,
domu naszym, u tej osoby, która jest właścicielem konta,
na tym pierwszym urządzeniu, czy na tym urządzeniu,
który jest na typowym IP.
No i trzeba będzie go przepisać, no to możliwe, że nam ten kod ktoś poda.
OK. No i to jest jeszcze w porządku, bo możemy podróżować na przykład
i zazwyczaj korzystamy z domu, ale akurat jesteśmy w podróży
i gdzieś tam coś sobie oglądamy.
No ale jeżeli, tu się domyślam, że to już będzie jakieś badanie
przez dłuższy okres czasu, jeżeli już zostanie wykryte,
że no definitywnie od dłuższego czasu my korzystamy z jednego konta
w różnych miejscach, no to tu już się Netflix zainteresuje
i na właściciela takiego konta nałoży dopłatę w wysokości,
no na razie jest kilka dolarów, nie ma przeliczanego tego na złoty,
no ale to mogłoby być myślę dodatkowych ze 20 może nawet złoty albo więcej,
więc jakby drugi raz ten abonament, taka tego typu kara
w wysokości drugiego abonamentu, no więc nie są to już małe pieniądze,
no więc może skończą się te czasy, że będziemy sobie te konta
udostępniać bez jakichś ograniczeń.
No Netflix chce przykręcić śrubę, aczkolwiek z drugiej strony
dużo się o tym mówiło, mówili już o tym, że chcieli tą śrubę przykręcać
potem znowu nie chcieli, no teraz wygląda na to, że chyba będą
rzeczywiście coś z tym robić.
Tak, bo te mechanizmy, które mają na celu weryfikację użytkowników
to tak naprawdę mogą spowodować też dość dużo złego
i wdrożenie takiego mechanizmu bez jakiejś gruntownej weryfikacji
może spowodować, że Netflix tak naprawdę mógłby dużo więcej stracić
niż zyskać tak wizerunkowo, chociażby te kwestie adresów IP.
Są osoby, które gdzieś korzystają z jakichś VPN-ów, są osoby,
które korzystają z różnych sieci, te IP bywają też zmienne.
Ale nawet powiedzmy, że ktoś siedzi w domu, nie ma nawet
stacjonarnego routera, po prostu są dwie osoby, które korzystają
z internetu mobilnego i już mają różne IP.
Dokładnie, na przykład. Każdy w swoim telefonie ma pakiet danych
i są w różnych sieciach, są w tym samym gospodarstwie domowym.
Tam też nie będzie sprawdzana jakaś geolokalizacja?
Pewnie będzie, tylko te geolokalizacje dotyczące adresów IP okej.
Niektórzy operatorzy mają to dobrze zrobione, zwłaszcza ci mali,
którzy są gdzieś tam, te wszystkie informacje w bazach danych
są prawidłowo powpisywane, ale taki Orange czy inni więksi operatorzy
to bardzo często wygląda to tak, że jest IP powiedzmy z Krakowa,
a użytkownik jest na przykład z Gdańska.
To będzie badane po telefonie, po lokalizacji telefonu,
a to już aplikacja może zrobić dużo dokładniej.
No to też prawda, tylko nie każdy musi udostępniać aplikacji
na dostęp do lokalizacji.
Pytanie czy nie będzie musiał.
No właśnie.
No i tu może być to problematyczne, zobaczymy.
Więc dlatego mówię o tych kwestiach wizerunkowych,
bo to łatwo jest coś włączyć, tak samo na przykładzie Twittera
widzimy, że łatwo jest coś wyłączyć, ale jaki to ma wpływ
na odbiór danej usługi, no różnie bywa.
A propos włączania, bo tak mi się przypomniało,
że nawet miałem to wpisać tutaj w newsy,
czy patrzyliście ostatnio film Kuby Krawitera
z autonomicznych samochodów?
Nie.
Bo teraz chyba jest w Stanach i w Phoenix chyba,
nie pamiętam gdzie, w jakiejś jednej czy dwóch dzielnicach
jeżdżą autonomiczne taksówki, które są można wezwać.
W Waymo, tak.
Nawet mieliśmy o tym komentarz teraz od naszego słuchacza, Michała.
I ja o tym jakiś czas temu mówiłem.
Waymo pracuje nad dostępnością dla niewidomych,
mają kilka funkcji, żeby niewidomym się łatwiej było.
To jest polski filmik, jak właśnie jest to zamawiane,
jak tym się jedzie i jak to wygląda.
Ja sobie to obejrzałem.
Póki co nic nie było wspomniane tam o dostępności,
ale to akurat żadne dziwio, bo tam w zasadzie
nigdy nic nie jest wspominane o dostępności.
W każdym razie na tym kanale, w każdym razie
wygląda to tak, że zamawia się rzeczywiście
przez apkę taksówkę.
Ta taksówka przyjeżdża.
Na dachu można sobie wyświetlić w jakiś sposób,
co ma tam być napisane.
Wsiada się do tej taksówki i tam jest jakaś kamera
czy kilka nawet, które obserwują na przykład,
czy się ma zapięte pasy,
tam może się dodzwonić jakiś asystent,
żywy człowiek, z którym można porozmawiać,
który nam zaraz mówi właśnie, że są źle zapięte pasy
czy tam coś takiego się dzieje.
I to jest normalnie żywy człowiek, z którym można
porozmawiać.
Oprócz tego tam chyba w aplikacji można sobie
wybrać muzykę, klimatyzację.
Może nie muzykę, ale można sobie
przez Bluetooth przetransmitować do samochodu
swoją muzykę, można tam jakąś klimatyzację
wybrać coś tam jeszcze.
No i jest cały komentarz, jak się tym jechało
i jak to działa.
Także…
No, to ciekawe.
To jest, z tego co wiem, nawet tam pracuje człowiek niewidomy,
który się tymi sprawami zajmuje.
No proszę, no to może kiedyś to do nas też dotrze
i ciekaw jestem, jak to będzie u nas wyglądało.
Ale to podejrzewam jeszcze trochę,
bo to jest na razie gdzieś tam
na bardzo ograniczonym terenie
i podejrzewam, to muszą być jakieś kwestie prawne tu
i w ogóle różne inne.
Zwłaszcza, że tam też na kanale gość mówi,
że ponoć amerykański ruch
jest ponoć łatwiejszy w ogóle
do ogarnięcia przez sztuczną inteligencję
i przepisy prawa drogowego.
A i tak są jakieś problemy,
bo już też widziałem komentarz kogoś,
że tu na Mastodonie, że…
Chociaż nie wiem, czy to jest,
bo to też na razie jedno źródło,
więc nie wiem, z czego to wynika,
że jest jakaś taka koncepcja,
że piesi powinni też nosić ze sobą jakieś urządzenia,
żeby auta wykrywały ich obecność,
ale nie wiem, na ile to jest.
Tam w czasie tego filmiku było jakaś ponoć sytuacja,
że ktoś tam wszedł przed maskę
i ten samochód dokładnie zahamował,
więc jakby zauważył,
że ktoś wszedł i zahamował.
Także tak.
To jest filmik z dwóch przejazdów,
więc też trudno tutaj jakieś wiążące wnioski wyciągać.
No ale jest ktoś, kto się faktycznie
jakby na polskim YouTubie,
jest ktoś, kto się tym przejechał.
I ma jakieś doświadczenia i przeżył.
Tak, i przeżył.
Jak widać.
Także można sobie to zobaczyć.
I nie wiem, czy coś jeszcze?
I pytania, czy coś jeszcze?
Z mojej strony już nic.
Okej.
No to w takim razie kończymy dzisiejszy tyfroprzegląd.
Trzyosobowy tyfroprzegląd.
Michał Dziwisz, Paweł Masaczyk i ja, czyli Tomek Bilecki.
No i nie pozostaje mi nic innego,
jak się z Państwem pożegnać co najmniejszym czynnie
i powiedzieć, że do usłyszenia w kolejnym tyfropodcastie.
Za tydzień.
Tyfroprzegląd.
Tak jest. Do usłyszenia.
Był to Tyflopodcast.
Pierwszy polski podcast dla niewidomych i słabowidzących.
Program współfinansowany ze środków
Państwowego Funduszu Rehabilitacji Osób Niepełnosprawnych.