TyfloPrzegląd Odcinek nr 192 (wersja tekstowa)
Pobierz napisy w formacie SRT
Pobierz napisy w formacie VTT
FUNDACJA INSTYTUT ROZWOJU REGIONALNEGO PREZENTUJE
TYFLO PODCAST
No to myślę, że możemy już zaczynać. 12 dzień lipca 2023 roku, to jest środa.
To mamy w kalendarzu, a na antenie Tyflo Radia kolejne już 192 wydanie Tyflo Przeglądu.
I znowu w takim wakacyjnym składzie się spotykamy, w składzie troszkę urlopowym, bo nie wszyscy tu jesteśmy.
Dziś Paweł Masarczyk i Piotr Machacz po drugiej stronie. Witajcie.
Cześć, dobry wieczór.
Tak, dziś będziemy w składzie takim dosyć skromnym, natomiast informacji to my troszkę mamy.
No właściwie tu Paweł i Piotr przede wszystkim je mają. Ja będę starał się, żeby ta cała nasza audycja jakoś się kleiła,
ale właśnie zanim przejdziemy już do konkretów, to najpierw posłuchajcie o czym my właściwie dziś będziemy Wam opowiadać.
W tym tygodniu w Tyflo Przeglądzie.
Pierwsze wrażenia z aplikacji Threads.
Dotknij rzeźby w parku w Królikarni.
Teatr Itan zaprasza na spektakle.
Wolontariat w Belgii.
Udogodnienia dla osób z niepełnosprawnościami na letnich festiwalach muzycznych.
Whatsapp pozwoli zalogować się na komputerze bez skanowania kodu QR.
Aktualizacja Wojzwista dodaje nowe ustawienia.
Nowa wersja Mona for Mastodon.
Diablo 4 stanie się bardziej przyjazny niewidomym?
Zadania powracają do ustawek w Hearthstone.
Poprawki dostępności w Fantastical.
Dostępność mObywatela na iOS może się pogorszyć.
Poprawki dostępności w Reaperze 6.81.
Wielka Brytania pozbywa się kas biletowych.
Whatsapp na Windows nie chce odtwarzać dźwięku?
Jest na to sposób.
Nowości w aplikacjach Apple.
Wrażenia niewidomego użytkownika Asus RockAllyte.
Wszystko to, a pewnie jeszcze więcej już za chwilę.
Zaczynamy!
W Tyflu Przeglądzie jesteśmy zawsze otwarci na Państwa pytania, uwagi oraz newsy.
Zapraszamy na stronę kontakt.tyflopodcast.net,
gdzie można uzyskać szczegóły na temat połączenia na Zoomie
oraz napisać do nas wiadomość.
Można to zrobić także z poziomu transmisji na Facebooku, YouTubie
oraz aplikacji na iPhona od Arkadiusza Świętnickiego
i na Windowsa od Dawida Piepera.
Czuwamy także na tyflopodcastowym serwerze Discorda.
Zapraszamy więc do kontaktu.
I jak sami słyszycie, tych dróg kontaktu do nas jest całkiem sporo,
więc każdy myślę, że znajdzie coś dla siebie.
Zapraszamy Was serdecznie, żebyście odnosili się do tego,
o czym my tu będziemy opowiadać.
Jeżeli macie jakieś swoje przemyślenia na ten temat,
to jak najbardziej. Ta audycja jest także po to, żeby się takimi przemyśleniami dzielić.
Jeżeli macie jakąś ciekawą informację, o której my nie mówimy,
bo zwyczajnie jej nie znaleźliśmy,
to też dorzućcie ją do tego naszego zestawu newsów
z pożytkiem dla nas wszystkich.
A teraz przechodzimy już do treści dzisiejszego 192. tyfloprzeglądu.
Na dobry początek zajmiemy się aplikacją Threads,
która to, no co prawda w Polsce nie jest jeszcze dostępna
i generalnie w państwach należących do Unii Europejskiej
dostępna nie jest ze względu narodu.
Tam mnóstwo obiekcji, jeżeli chodzi o kwestie prywatnościowe,
więc meta nawet nie próbuje z nią startować,
żeby nie narazić się na jakieś pozwy i na problemy prawne.
Natomiast ta aplikacja tak generalnie to ruszyła.
Ruszyła w Stanach Zjednoczonych, ruszyła zdaje się też na Wyspach Brytyjskich,
no bo tam można, no i są już pierwsze efekty,
jeżeli chodzi o testy tej aplikacji, o testy dostępnościowe.
Nie tylko, bo aplikacja faktycznie ruszyła 6 lipca,
mówiliśmy o niej chyba właśnie po północy,
więc w momencie kiedy ona pomału zaczynała startować
i wyniki ma, trzeba przyznać, imponujące,
bo w 24 godziny zgarnęła 30 milionów wyżytkowników po tygodniu,
już ma ich ponad 100, nie wiem ile jest teraz,
ale ta liczba jak na razie cały czas rośnie.
No też firma zadbała o to, jak mówiłem wtedy,
ale co się jeszcze bardziej teraz potwierdziło,
żeby na platformie już było dużo celebrytów,
żeby ludzie mieli kogo obserwować,
tutaj są takie osoby jak na przykład Gordon Ramsay,
czy Jennifer Lopez, też jesteś znani blogerzy,
no trochę tych osób jest, blogerów, influencerów,
ale też jeszcze nie wszystkich.
Natomiast sam ten fakt, że można się do tej aplikacji
vlogować z poziomu Instagrama i automatycznie też widzimy
wszystkich naszych znajomych z tej platformy,
no to spowodował, że aplikacja cieszy się dużą popularnością.
No czym jest Fred z Pogródcem?
To jest po prostu klon Twittera od Mety,
czyli firmy odpowiedzialnej za właśnie Facebooka,
za Instagrama, no i też ostatnio za Whatsappa m.in.,
to jest takich najbardziej popularnych usług.
No ale właśnie, trwają testy i mimo to,
że aplikacja stała się bardzo popularna,
to ma całkiem sporo wad.
Zacznijmy od tych bardziej ogólnych,
a potem przejdziemy do dostępności,
która tutaj też niestety nie jest najlepiej.
Jeśli chodzi ogólnie o platformę,
no to poza tym, że zbiera o nas bardzo dużo danych,
jak zresztą inne aplikacje Mety,
o którym już mówiliśmy wcześniej,
przez to poniekąd m.in. właśnie nie wystartowała w Europie,
tam też są kwestie mieszania danych prawdopodobnie,
bo ostatnio Meta miała kłopoty przez to,
że łączyli dane profilowe dla reklamodawców
właśnie z Instagrama, z Facebooka i z Whatsappa
i już zastanawiają się, jak to wszystko porozłączać,
ale taki sposób, żeby jeszcze z tego threadsa dało się korzystać,
no bo na razie threads jest taką częścią Instagrama
do tego stopnia, i to jest taka pierwsza wada,
którą ludzie wytykają, że nie możemy skasować
swojego profilu na threads,
bez skasowania naszego Instagrama.
Więc jeśli ogólnie nam się threads nie podoba,
ale chcielibyśmy na Instagramie pozostać,
no to na razie nie ma jak tego zrobić,
no i odwrotnie też z tego co wiem,
nie da się założyć po prostu konta na threads,
bez założenia sobie profilu na Instagramie.
Więc to jest pierwszy problem.
Drugi problem jest taki, to też jest dosyć istotna kwestia,
że jak wiele dzisiaj współczesnych platform,
zwłaszcza takich dużych firm, threads jest oparty na algorytmach
i po otworzeniu aplikacji domyślnie będziemy widzieli
widok postów z osobami, które obserwujemy,
ale też w dużej części osoby, jak to ładnie ujęła firma,
które są popularne, bo mogą być warte zaobserwowania,
o których może nie wiemy.
No i z tego co słyszę, i to wiele osób mówi,
nie tylko takich zwykłych użytkowników,
ale nawet właśnie takich influencerów,
no to na początku dużo, dużo więcej właśnie widzimy postów sugerowanych
i to ludzi bardzo denerwuje,
że mamy możliwość takiej zwykłej osi czasu,
która będzie wyświetlała nam tylko posty od osób,
które sami obserwujemy.
No i tutaj szef aplikacji threads obiecuje,
że to ma być zadane, na co Mark Zuckerberg też zareagował łapką w górę.
Więc można założyć, że prędzej czy później ta opcja się pojawi.
Tak samo jak opcja edytowania postów,
bo tego też na razie nie ma
i opcję ich tłumaczenia, tego też nie ma.
No i nie ma jeszcze jednej opcji,
która nam by się bardzo przydała
i tutaj fajnie przejdziemy sobie do kwestii dostępności,
bo jak najbardziej, jak na wielu platformach,
możemy też do tych postów załączać filmy lub zdjęcia,
ale mimo to, że mamy rok 2023
i na Instagramie i Facebooku możemy dodawać do zdjęć tekst alternatywny,
no to na threadzie na razie tej możliwości z niewiadomych przyczyn nie ma.
To też jest obiecane, że prędzej czy później zostanie to dane,
natomiast na razie teraz opisów alternatywnych nie ma,
przynajmniej takich wpisywanych przez nas,
bo takie generowane przez sztuczną inteligencję,
Facebooka czy Mety właściwie są, podobno.
Osobiście tego nie miałem jak przetestować,
no bo aplikacji nie ma w Polsce.
Natomiast wydaje mi się, że taka opcja bardzo by się przydała.
Tak samo też nie ma opcji dodawania napisów do filmów,
więc tutaj nie tylko osoby niewidome mają poważne problemy.
A to jest tak naprawdę tylko wierzchołek góry lodowej problemów
w dostępności z tą aplikacją,
bo sama aplikacja też ma kilka problemów z dostępnością,
jeśli chodzi o jej interfejs.
No tutaj mówiliśmy właśnie o obrazkach i o filmach,
do których nie da się dodać napisów.
Nie ma wersji desktopowej,
więc jeśli ktoś tutaj polega na jakichś wtyczkach
czy po prostu woli przeglądać takie strony na komputerze,
niestety na razie ta aplikacja jest głównie dostępna
tylko na iOSie i na Androidzie.
I dla osób słabowidzących problem jest też taki,
że aplikacja źle działa z funkcjami w systemach operacyjnych,
które dostosowują tekst,
czyli rozmiary czcionek, wysoki kontrast itd.
Strony mogą się z tym czy aplikację integrować,
tutaj z tym sygnalizują ludzie, są problemy.
Tak samo jak niestety są dosyć duże problemy
z działaniem tej aplikacji z czytnikami ekranu.
Na iOSie taki podstawowy problem jest taki,
że generalnie te główne osie czasu są dostępne,
ale niestety elementy, każdy post jest rozbity na wiele elementów,
więc możemy sobie wspominać jak to było kiedyś,
zanim czynności doszły do systemu,
no bo obok każdego postu będziemy widzieli przyciski,
żeby na niego odpowiedzieć, polubić, podać dalej itd.
To jest jeden problem, a drugi problem jest taki,
że na zakładce wyszukiwania, bo oczywiście tam mamy też funkcję wyszukiwania,
VoiceOver nam po prostu wyników wyszukiwania nie czyta.
Na Androidzie nie jest lepiej,
bo tam nie mam bardziej konkretnych szczegółów,
natomiast z tego co przynajmniej jedna osoba napisała,
aplikacja działa bardzo źle z TalkBackiem,
z Gessuo jest ponoć trochę lepiej,
ale przypuszczam, że tutaj mogą być podobne problemy.
Pewnie też elementy na tej osi czasów są jakoś bardziej rozbite.
Nie wiem czy TalkBack chyba tutaj w ogóle nie czyta tych osi czasów.
Mniej więcej widać, że aplikacja niestety była,
no z jednej strony niby szuczne opisy zdjęć są,
z drugiej strony tutaj chyba jakoś słabo było niestety testowane.
Miejmy nadzieję, że jak aplikacja wystartuje u nas w Europie,
no to niektóre z tych błędów już będą w jakiś sposób rozwiązane.
Ja tu jeszcze może dodam, bo taka też wynikła sprawa,
gdzieś już w ten pierwszy dzień czy drugi po odpaleniu threads przez metę.
Podobno, teraz widziałem, czytałem te posty na LinkedIn,
aktywistka na rzecz dostępności, ekspertka dostępnościowa Kelsey Lindell.
Ona ma taką swoją firmę chyba, która zajmuje się takim doradztwem,
konsultingiem dla marek przeróżnych w zakresie tworzenia dostępnej tożsamości
gdzieś tam w mediach społecznościowych.
Misfit Media to się nazywa?
Tak.
I ona napisała na LinkedIn właśnie, że to jest niedopuszczalne,
że taka firma wielka jak Meta, która taki rozmach planuje przy tego typu aplikacji,
udostępnia ją i ona jest od razu niedostępna.
Takie podstawy z podstaw nie są załatwione.
Nie wymienia tam konkretów, ale właśnie tutaj, gdy Piotrze wymieniłeś,
w czym rzecz i pewnie jest tego więcej, jak rozciągniemy sprawę
na więcej niepełnosprawności niż tylko wzroku.
No i ponoć ten post został gdzieś tam bardzo głośno przyjęty,
stał się tak zwanym wiralem.
Był wiele razy udostępniany.
Meta była też firmą oznaczoną w tym poście.
I podobno na drugi dzień po opublikowaniu postu przez Kelsey
jej prywatne oraz zawodowe konta na Instagramie zostały zbanowane.
Oficjalny powód jaki został podany przez Meta, czy tam przez Instagrama,
to że pani ponoć używała botów, żeby sobie podbić śledzących.
Ona twierdzi, że tego nie robiła i też, że docierają do niej głosy,
że komentarze, które gdzieś tam krytykują Meta za brak dostępności,
są usuwane.
Więc jeżeli to się jeszcze jakoś tam potwierdzi większą ilością raportów,
to mega niefajnie, bo to jest rok 2023.
Tak jak Piotrze wspomniałeś, i zwłaszcza taka wielka firma,
jedna z większych i bogatszych na świecie, która już tę dostępność robiła wcześniej
i mają niewidomego programistę w zespole gdzieś.
Facebooka oczywiście, ja rozumiem, Meta, wielka korporacja,
wszystko jest rozczłonkowane.
Ale z jednej strony właśnie tutaj stworzyli miejsce pracy,
tutaj tą dostępność podrasowali, pojawiają się na konferencjach
i prezentują jakieś swoje też odkrycia w dziedzinie dostępności.
A tutaj jakby się jeszcze to potwierdziło, że rzeczywiście tak jest robione,
no to jest naprawdę PR-owo blamasz.
Jakby tak to inaczej nazwać.
Jest ciężko, naprawdę.
Ja osobiście też tutaj już eksplodowałem przed wejściem na antenę,
bo to już jest trzecia społecznościówka, za którą zabiera się Meta.
Pewnie trzecia z takich większych, bo oni mają różne też jak Google,
poboczne projekty, które lubią nie wypalić
i potem lądują na jakimś cmentarzysku historii,
bo mają Facebooka i mają Instagrama.
Czasu im to trochę zajęło, żeby i Facebook, i Instagram
doszły do tego poziomu dostępności, na którym są teraz.
Ale to dlaczego oni nie wzięli, zwłaszcza że Twitter
też w ogniu krytyki stanął po zapanowaniu Elona Muska,
z uwagi na dostępność, o tym było we wszystkich artykułach,
w The Verge, w Mashable, we wszystkich poczytnych magazynach internetowych
amerykańskich odnośnie technologii.
Dlaczego oni nic się z tego nie nauczyli, aktualnie teraz to samo przeżywa Reddit
i tam już w ogóle jeszcze bardziej osoby z dysfunkcjami,
znaczy z niepełnosprawnościami, a zwłaszcza z dysfunkcją wzroku
są wymienione jako główni poszkodowani całej operacji.
A Fred, który próbuje się jakoś tutaj zakolegować z Mastodonem
czy ogólnie z Fediversum, gdzie jest jakby epicentrum tych wszystkich dyskusji,
bierze i wypuszcza taki bubel.
Jakby mieliście już wypracowane metodologie, to co jest do zrobienia,
to nie są jakieś himalaje, ja później będę opowiadał historię,
bo też jest to tutaj w naszych notatkach, co zrobił i jak się musiał namęczyć
GitHub, żeby troszkę usprawnić edytor kodu.
I naprawdę, ja programistą nie jestem, więc może za chwileczkę się odezwie
ktoś kto stwierdzi, że w tym konkretnym kontekście to było jakoś tam trudne,
ale z uwagi na to, że Facebook już to opanował i opisy alternatywne zdjęć
i grupowanie elementów i czynności, Instagram z pewnym opóźnieniem
też dogonił i ma. Dlaczego? Dlaczego uruchamiając trzecią społecznościówkę,
która nie robi nic ponad to, tak naprawdę jak chodzi o technologię,
co już robił Facebook czy Instagram, nie zrobiono takich podstaw.
I to mówię jeszcze w kraju takim jak Stany, gdzie jest ADA,
gdzie jest ustawodawstwo, gdzie na 100% ktoś do takiej dużej firmy podskoczy,
bo nawet jak nie w dobrej wierze, to żeby po prostu coś sobie uszknąć
na wygranym odszkodowaniu za sprawę. Dlaczego tego nie zrobiono?
Dlaczego? Zwłaszcza, że to chyba z rok czy ileś trwało.
Planowanie w ogóle tej aplikacji, to ona nie powstała z dnia na dzień.
No a tymczasem interfejs jest tak rozczłonkowany, z tego co dzisiaj
słyszałem w DoubleTap, że tam absolutnie każda rzecz jest osobnym elementem,
avatar, imię i nazwisko osoby, która wrzuca post, czy tam nazwa wyświetlana,
treść, zdjęcia wszystkie, które jak nie mają opisu alternatywnego,
to są jakimś mambo-dżambo różnych literek i cyfr losowych.
Przycisk tam nie wiem, polub, podaj dalej, jakkolwiek to się nazywa w threads.
Coś tam jeszcze. Więc każdy post to jest tam spokojnie z 6, 7 albo więcej elementów.
Naprawdę Meta, błagam, przechodziliśmy już przez to. Dlaczego?
Dobrze, to już chyba tyle, bo my tutaj krzyczeniem niczego nie zmienimy.
Nikt z Meta prawdopodobnie, nawet po polsku, nie będzie tego słuchał.
Mi tylko chodzi o to, że dalej jesteśmy w czasach, gdzie po prostu
nawet w firmach, które już mają z tym doświadczenie, nie jest to coś,
o czym się myśli w procesie produkcji.
No niestety dostępność, mam wrażenie, że to jest coś, co jest wdrażane
nawet i w tych dużych firmach, jak zresztą widać i w takich korporacjach,
jeżeli ktoś tam zauważy, że okej, no w sumie fajnie by było to zrobić,
ale nie ma takiego jakiegoś, mam wrażenie, odgórnego nacisku na to,
że okej, dobra, słuchajcie, robimy tutaj coś, to od razu zadbajmy o accessibility,
żeby nie trzeba było potem tego sztukować i nie trzeba było robić tego
na samym końcu, kiedy już mamy jakieś rzeczy po prostu rozgrzebane.
Z drugiej strony, jak to zrobią, to znowu będzie ładny komunikat prasowy,
który pójdzie po wszystkich mediach.
Ależ oczywiście.
No i wyjdą na tych bohaterów dnia, którzy ten dzień uratowali.
Następny gad, to będzie być może właśnie…
A no właśnie.
No.
No właśnie od Meta.
No właśnie od Meta.
To może być wasza reklama.
Tak. No cóż, to jeżeli chodzi o Threads, to tyle.
Na razie sobie tego nie potestujemy.
To znaczy inaczej.
Jeżeli ktoś na przykład znajdzie jakieś tam konto jakiegoś użytkownika
w tym serwisie, bo już ludzie linkują do swoich profili w Threadsach,
no to można sobie tam wejść i można sobie to czytać, co tam jest opublikowane,
co tam jest wrzucone.
Natomiast no to tyle.
Jakakolwiek próba interakcji z tym, no to, że przepraszamy,
Threads nie jest jeszcze dostępne w twoim kraju i do widzenia.
Także możecie się jakoś tam, powiedzmy, troszeczkę zapoznać z tym,
zapoznać się ze stroną internetową.
A kiedy dotrą nad Wisłę i do pozostałych państw członkowskich Unii,
czas pokaże.
No właśnie nad Wisłę teraz się przenosimy, bo kilka informacji
z Polskiego Związku Niewidomych pochodzących pan dla nas, Paweł.
Tak. I tu zaczynamy jak zwykle od miasta stołecznego Warszawy,
a potem będzie Kraków, więc no ta Wisła, to nie tylko tak symbolicznie,
ale geograficznie jak najbardziej.
No i cóż, tutaj na przykład możemy sobie dotknąć rzeźby
w Parku w Królikarni i tu zaprasza nas Muzeum Narodowe.
I czytam komunikat, co następuje.
Muzeum Narodowe w Warszawie zaprasza osoby niewidome i słabowidzące
do Parku Rzeźby w Królikarni na oprowadzaniu z audiodeskrypcją.
Spotkanie odbędzie się w sobotę, 15 lipca, no czyli już teraz,
więc szybko łapcie się, jak jeszcze macie okazję.
O godzinie 11 i mamy tu opis wydarzenia.
Odetchnijmy sztuką na świeżym powietrzu.
Spacerując alejkami Parku Rzeźby porozmawiamy o wybitnych artystach
plastykach, takich jak Xawery Dunikowski, Maria Papa-Rostkowska
czy Alina Ślesińska. Poznamy ich zróżnicowaną twórczość,
popiersia sławnych Polek i Polaków, rzeźby przedstawiające zwierzęta
i formy abstrakcyjne. Zastanowimy się także, jaką rolę pełni
rzeźba w przestrzeni publicznej. Zasady uczestnictwa.
Wstęp bezpłatny od wtorku, 11 lipca, pod adresem e-mailowym.
I tutaj będę dyktował adres. edukacjamaupamnw.art.pl
edukacjamaupamnw.art.pl
I telefonicznie pod numerem, to też dwa razy przeczytam.
22 629 50 60. Raz jeszcze.
22 629 50 60.
Osoby, które potrzebują pomocy w dotarciu do Parku Rzeźby
w Królikarni, ulica Puławska 113a, proszone są o taką informację
podczas zapisów. Zbiórka przy bramie wejściowej do Parku Rzeźby
tam właśnie jest. W przypadku złej pogody wydarzenie nie odbędzie się.
No to miejmy nadzieję, że pogoda będzie dobra, bo dziś różnie bywa,
przynajmniej tu u nas na Śląsku. Także życzymy Wam powodzenia,
aby się udało. O ewentualnym odwołaniu spotkania organizatorzy
poinformują osoby zapisane. I tu mamy też na stronie Królikarni
jest opis dotarcia. Aha, ze względu na remont torowiska tramwaje
nie jeżdżą ulicą Puławską. No i to jest wszystko, co tu wiemy
na temat tego wydarzenia. Ale to nie koniec, bo też na sztukę teatralną,
na zestaw spektakli, na ofertę zaprasza nas Teatr Itan z Krakowa.
To jest teatr, w którym grają osoby niewidome. To jest chyba też
teatr odpowiedzialny za serial Pasjonaci, prawda Michałek?
Zgadza się.
Tak, więc oni mają też inne spektakle. I informację mamy taką.
Teatr Itan, w którym występują osoby niewidome zaprasza od lipca do grudnia
bieżącego roku na swoje spektakle do Krikoteki w Krakowie.
Repertuar będzie różnorodny. Przygotowano zarówno spektakle dla dzieci,
jak i dorosłych. Alicja w Krainie Czarów, czy Wesele po krakowsku.
Każdy może wybrać coś dla siebie. Artur Dziurman i grupa Scena Moliere
prowadzą jedyny w Polsce profesjonalny teatr niewidomych.
W tym czasie udało im się stworzyć sześć multimedialnych spektakli
z powodzeniem granych w całej Polsce. Zaangażowanych w ich produkcję
było ponad sto niewidomych i słabowidzących artystów.
Jak twierdzą twórcy teatru, osoby z dysfunkcją narządu wzroku
chcą, mogą i potrafią wyrażać się za pomocą sztuki aktorskiej.
A bariera niepełnosprawności nie przeszkadza im w uprawianiu zawodu aktora
tak bardzo, jak mogłoby się to wydawać. W prezentowanych spektaklach są elementy
nagrań filmowych. To, czego niewidzący nie są w stanie wyrazić ciałem,
wyrażany jest filmem. Dzięki temu zabiegowi spektakle teatru Itan
tworzą złożoną całość, w której każdą scenę filmową uzasadnia teatralna.
Spektakle prezentowane w Krikotece będą zrealizowane w ramach
pilotażowego programu Wsparcia Małopolska. Kultura wrażliwa.
Widzowie będą mogli obejrzeć takie przedstawienia jak Koziołek Matołek,
Alicja w Krainie Czarów, Brat Naszego Boga, Wesele po krakowsku.
Harmonogram wydarzeń oraz bilety dostępne są w kasie Krikoteki
oraz na stronie bilety.krikoteka.pl.
Jeszcze tylko sprawdzę. Tak, bilety.krikoteka.streetcoteca to się pisze.
Tak i cena biletów to 10 zł. W przypadku rezerwacji większej puli biletów
możliwa jest negocjacja ceny. Teatr Krikoteka, ulica Nadwiślańska 2,
Kraków. No i to tyle jeśli chodzi o wydarzenia kultury takie lokalne
i dedykowane nam. Ale to nie koniec tego o czym informuje nas w tym tygodniu
Polski Związek Niewidomych, bo powraca wolontariat w Belgii.
Ja na wolontariacie byłem co prawda europejskim w Innsbrucku w Austrii,
ale doświadczenie mogę tylko i wyłącznie polecić. Choć wówczas w pandemii
nie było to doświadczenie proste, ale to już miejmy nadzieję w jakimś stopniu
przynajmniej obostrzeń i takiego relaksu społecznego gdzieś tam za nami,
więc już wiele więcej byłoby możliwe, więc ja myślę, że warto się zainteresować.
A tutaj co pisze na ten temat Polski Związek Niewidomych.
Masz od 18 do 30 lat. Jesteś osobą niewidomą lub słabowidzącą?
Zapraszamy do udziału w projekcie wolontariatu w Belgii w miejscowości Liege.
Osoby zainteresowane powinny mieć co najmniej podstawową znajomość języka francuskiego,
poziom A2 oraz dużą motywację do nauczenia się tego języka na poziomie zaawansowanym.
Projekt rozpocznie się we wrześniu, październiku w Belgii.
Wolontariusz może pracować maksymalnie 9 miesięcy.
Długość pobytu w Liege będzie ustalona indywidualnie z każdą osobą
po jej zakwalifikowaniu się do przedsięwzięcia.
Miejsca, w których można odbyć wolontariat.
Biuro organizacji VIEWS.
VIEWS International to jest organizacja, która współtworzyła na przykład
międzynarodowy konkurs piosenki osób niewidomych i LSC,
z którego my mieliśmy przyjemność prowadzić retransmisję z tłumaczeniem.
To też oni organizują tandemy językowe.
Jeżeli się zapisywaliście kiedyś, to oni to też robią.
No i wiele różnych aktywności, o których kiedyś jeszcze usłyszymy na pewno.
Szkoła dla dzieci z niepełnosprawnością narządu wzroku z dodatkowymi dysfunkcjami
i organizacja koordynacją socjokulturalny do samochodów.
Inicjatywa jest realizowana w ramach Europejskiego Korpusu Społecznego.
Partnerem Polskiego Związku Niewidomych w tej inicjatywie jest organizacja VIEWS,
z którą Związek wielokrotnie efektywnie współpracował.
Osoby spełniające kryteria zachęcamy do zainteresowania się ofertą.
Wszyscy uczestnicy, którzy wzięli udział w projektach wolontariatu za granicą,
wynieśli z nich ogromne korzyści, procentujące zarówno w życiu zawodowym, jak i osobistym.
Szczegółowe informacje na temat wyjazdu można uzyskać dzwoniąc pod numer telefonu.
Tu znów wkładam go dwa razy.
22 887 62 70.
Podaję jeszcze raz.
22 887 62 70.
Lub pisząc na adres e-mail
alemanczykmałpa.pzn.org.pl
Dodatkowe informacje.
Zakwaterowanie, wyżywienie i koszty przejazdu.
Osoba uczestnicząca w projekcie będzie zakwaterowana razem z innymi wolontariuszami
w wynajętym mieszkaniu, ale dostanie własny pokój.
Mieszkanie znajduje się około 20 minut, idąc pieszo, od miejsca pracy.
Z kolei do centrum miasta idzie się około 25 minut.
Uczestnik będzie otrzymywał miesięczne kieszonkowe oraz środki pokrywające koszty wyżywienia i przejazdów.
Koszty podróży do lierz oraz ubezpieczenia zdrowotnego.
Również pokrywają organizatorzy.
Szkolenie podczas projektu.
Podczas dwóch pierwszych tygodni od momentu przyjazdu do Belgii wolontariusze nie pracują.
Mają w tym czasie zapewnione zajęcia z orientacji przestrzennej.
Uczą się jak trafiać do pracy, sklepu i innych ważnych miejsc, do których będą się udawać podczas wolontariatu.
Uczestników czekają także lekcje czynności życia codziennego.
Uczą się jak przygotowywać posiłki, samodzielnie robić zakupy, prać, dbać o swoje rzeczy i czystość oraz porządek w mieszkaniu.
Uczą się zasad pierwszej pomocy.
Ponadto przez pierwsze dwa tygodnie wolontariusze mają zapewnioną intensywną naukę języka francuskiego.
Zaplanowana nauka ma na celu zapewnienie wolontariuszowi jak najszybsze osiągnięcie autonomii w poruszaniu się, komunikowaniu oraz wykonywaniu codziennych czynności podczas całego projektu.
Uczestnicy otrzymają potrzebne wsparcie od organizacji koordynującej VIEWS International.
No i to w sumie tyle.
Jeżeli nie macie jeszcze planów na najbliższe miesiące, to może ten wolontariat być opcją dla Was.
No a na koniec dla tych, którzy coś chcieliby szybciej przedsięwziąć, aczkolwiek tak naprawdę większość z tych imprez się już odbyła, więc to bardziej już uwaga też na przyszły rok,
ale można sobie o tym też podyskutować, bo takie wydarzenia są co roku, czyli letnie festiwale muzyczne.
No i tutaj mamy wymienione festiwale takie największe muzyczne, które odbywają się w Polsce i jak one są dostępne dla osób z różnymi niepełnosprawnościami.
Ty Michale, zdaje się, byłeś kiedyś na którymś, prawda? Na Openerze, zdaje się, czy na Orange’u?
Na Openerze.
Na Openerze. No to tam ponoć zaraz będę zresztą czytał.
Jest jakaś dostępność zapewniona, bankomaty są ponoć mówiące na terenie obiektu.
Zaraz będę czytał inne pomoce w docarciu.
Nie ma sprawy o dyskrypcji jak na Orange Warsaw Festival, ale coś tu się dzieje.
No także zobaczmy.
Z roku na rok polskie festiwale muzyczne wprowadzają coraz więcej rozwiązań, które umożliwiają uczestnictwo w wydarzeniach osobom z niepełnosprawnościami.
Sprawdziliśmy jak to wygląda w tym roku.
Pod lupę wzięliśmy trzy największe i najbardziej popularne wydarzenia muzyczne w Polsce.
Na festiwalach, których organizatorzy zadbali o komfort ze szczególnymi potrzebami, mają one szansę posłuchać na żywo wybitnych wykonawców muzycznych,
zdarzyć nowe znajomości i powrócić z bagażem pełnych nowych doświadczeń.
Niezwykle istotne jest, aby coraz więcej organizatorów wydarzeń kulturalnych dbało o ten aspekt.
Orange Warsaw Festival, 2 do 4 czerwca, to już było grubo ponad miesiąc temu.
Orange Warsaw Festival odbywa się w Warszawie.
Jest jednym z najbardziej dostępnych festiwali muzycznych dla osób z niepełnosprawnościami w Polsce.
Organizatorzy wprowadzili dużo rozwiązań, które pozwalają osobom z różnymi dysfunkcjami łatwo poruszać się po terenie i korzystać z atrakcji.
Bilet kategorii N umożliwia wejście na teren festiwalu z osobą wspierającą.
W punkcie obsługi priorytetowej, tuż przed bramkami, można bez kolejki wymienić bilet na opaskę oraz dostać wszelkie informacje o dostępności wydarzenia.
Możliwe jest również otrzymanie fachowej pomocy i asysty jednego z wolontariuszy.
Osoby z niepełnosprawnościami mogą uzyskać transport lokalny, czyli od bram toru wyścigów konnych na służewcu do punktu obsługi priorytetowej przy wejściu na teren festiwalu.
Zadbano także o utwardzoną powierzchnię, która ułatwia poruszanie się po terenie.
Ponadto wszystkie koncety na Orange Warsaw Festival są wyposażone w audiodeskrypcję na żywo, którą zapewnia Fundacja Katarynka.
Co ważne, strona internetowa festiwalu ma specjalną zakładkę Dostępny Orange Warsaw Festival.
Najdują się tam m.in. podstawowe informacje o wydarzeniu w podstaci audioulotek oraz tekstów łatwych do czytania i zrozumienia.
A ci, którzy mają pytania lub wątpliwości, mogą skontaktować się bezpośrednio z Fundacją Polska Bez Barier, która koordynuje dostępność festiwalu mailowo lub telefonicznie.
Ta impreza już za nami, ale warto zaplanować uczestnictwo na kolejny rok.
I tutaj jest strona bezpośrednio przeznaczona dla osób z niepełnosprawnościami.
Open Air Festival. 28 czerwca do 1 lipca. To już też za nami.
Organizatorzy Open Air Festival również przygotowali sporo udogodnień dla osób z niepełnosprawnościami.
Mogły one liczyć m.in. na wózki inwalidzkie dostępne dla osób, które mają problemy z samodzielnym poruszaniem się.
Asystę wolontariuszy. Możliwość wejścia na teren festiwalu z psami przewodnikami.
Specjalne miejsca parkingowe. Bankomaty, w których transakcje potwierdzane są systemem dźwiękowym.
Mają też wejście na słuchawki, co jest szczególnie ważne dla osób z niepełnosprawnością narządu wzroku.
Utwardzony teren i specjalne ścieżki ułatwiające poruszanie się osobom na wózkach.
Punkty obsługi priorytetowej. Platformy na podwyższeniach przy scenach i rampy.
Na stronie internetowej festiwalu znajduje się specjalna zakładka osoby z niepełnosprawnościami, gdzie można dokładnie sprawdzić wszystkie udogodnienia.
Co roku bilety na Open Air Festival rozchodzą się jak świeże bułeczki. Lepiej planować uczestnictwo z dużym wyprzedzeniem.
I również podana jest strona. I na sam koniec Paul and Rock Festival, dawniej Woodstock Festival.
To jest 3 do 5 sierpnia. Organizatorzy tego festiwalu piszą na stronie internetowej, że wydarzenie jest skierowane także do osób z niepełnosprawnościami.
Lecz z podanych informacji wynika, że tych udogodnień nie ma zbyt wiele.
O komfort i bezpieczeństwo uczestników wydarzenia trwa m.in. grupa pokojowy patrol. Grupa wolontariuszy w charakterystycznych czerwonych koszulkach.
Na terenie imprezy znajduje się specjalnie przystosowany dla wózków kontener na Family Camp.
Punkty medyczne i gastronomiczne oraz toalety mają dostosowany dostęp dla osób z niepełnosprawnościami.
Powstanie także specjalna rampa z widokiem na dużą scenę.
Jednocześnie jednak organizatorzy zaznaczają, że teren na którym odbywają się koncerty jest trudny, a momentami nawet bardzo trudny.
Zalecają przybycie z osobą towarzyszącą, która pomoże w różnych sytuacjach.
Plusem na stronie jest specjalna zakładka porady dla osób z niepełnosprawnościami, gdzie organizatorzy radzą jak przygotować się na festiwal,
jak zachować się w czasie problemów, gdzie zgłosić się po pomoc itp.
Mamy nadzieję, że udogodnienia na festiwalach w Polsce dla osób z niepełnosprawnościami będą nadal rozbudowywane i uzupełniane o nowe rozwiązania.
Liczymy także na otwartość w kwestiach dostępności organizatorów innych imprez kulturalnych.
Niech lato będzie wspaniałe dla wszystkich, no i tego my też życzymy.
A wy też dajcie znać, czy byliście na jakichś festiwalach, czy macie z nimi pozytywne, a może i inne doświadczenia z ich dostępnością,
z tym jak zostaliście tam przyjęci, potraktowani, czy byliście sami, czy korzystaliście z pomocy wolontariuszy, czy może ze znajomymi, z rodziną.
Podzielcie się, bo muzyki fajnie jest słuchać, ale zwłaszcza na żywo.
Zanim przejdziemy do kolejnego tematu, to wiadomość od naszego słuchacza Grzegorza dotycząca sztucznej inteligencji tym razem,
bo oto w becie pojawił się konkurent czata GPT, czyli Cloud.
To jest już w wersji drugiej ten bot, rozwijany przez firmę Antropic.
Jest to firma, która skupia m.in. byłych pracowników OpenAI, więc jest szansa, że tu rzeczywiście coś ciekawego z tego wyjdzie.
Takim mocnym punktem, mocną stroną Clouda jest możliwość błyskawicznej analizy długich tekstów,
bo potrafi analizować prompty nawet liczące bodajże 75 tys. słów, co wyczytałem gdzieś tam w informacji, którą tu Grzegorz podrzucił,
więc no faktycznie jest nieźle. Problem tylko taki, że tego Clouda na razie nie bardzo możemy testować poza Wielką Brytanią i Stanami Zjednoczonymi,
no ale oczywiście jest od czegoś jest VPN i Grzegorz napisał do nas tak.
Tutaj jest link bezpośredni do tego czatu, no to za momencik podam przynajmniej początek tego odnośnika, a dalej to sobie myślę jakoś poradzicie.
Na początku tak mi się wydaje, trzeba się zalogować z VPN, logowanie Google też działa, a potem można wyłączyć VPN i korzystać z polskiego IP.
I tutaj mamy ten adres cloud.ai, to jest początek i tam na stronie myślę, że znajdziecie już odpowiedni link, za pomocą którego się zalogujecie,
jeżeli będziecie mieli ochotę z tego skorzystać. Pytanie do Grzegorza, czy testował, bo to mnie zawsze interesuje, czy już miałeś okazję tym się pobawić,
czy możesz to jakoś porównać do czata GPT, co próbowałeś robić, jeżeli chodzi o to narzędzie, no i jak z jego dostępnością, bo to też może być różnie.
Swoją drogą, nie wiem, czy zauważyliście, ale ostatnio troszeczkę dostępność czata GPT na stronie internetowej OpenAI się pogorszyła.
Nie wiem, czy to jest niedawna rzecz, czy już jakoś dużo wcześniej, bo ostatnio, powiem szczerze, rzadko korzystałem, ale przycisk do wysyłania nie działa,
to znaczy Enter nie działa właściwie, tam poniżej pola do wpisywania wiadomości jest taki niezetykietowany przycisk i trzeba go wcisnąć i wtedy oczywiście nasze zapytanie
do czata GPT jest wysyłane i możemy bez problemu z tego korzystać, ale trzeba wiedzieć, bo jeżeli jesteśmy przyzwyczajeni, że Enter zadziała,
no to możemy się zdziwić i pomyśleć, że na przykład jest jakaś awaria, bo po wciśnięciu klawisza Enter, no po prostu nie dzieje się nic.
Cały czas jest to pole tekstowe, w którym jest wprowadzona nasza wiadomość i ta wiadomość tam zostaje, więc na to warto też zwrócić uwagę i o tym pamiętać.
Przynajmniej na Chrome się tak dzieje, bo akurat na tej przeglądarce sprawdzałem ostatnio to rozwiązanie.
A teraz przechodzimy do kolejnych tematów, tym razem będzie to garść różnych drobnych informacji, które przygotował Piotr.
Dokładnie, więc tutaj jak zwykle będzie dużo takich krótkich informacji o nowościach w aplikacjach, ale też w grach, ale zaczniemy od aplikacji,
konkretnie zaczniemy od Whatsappa, który w przeciwieństwie do Threads doczekuje się fajnych, można powiedzieć poprawek dostępności poniekąd,
bo jak wiecie, żeby zalogować się do wersji komputerowej Whatsappa, czy to w przeglądarce, czy w aplikacji na Windowsie, czy na Macu,
do tej pory musieliśmy to robić poprzez skanowanie kodu QR, co czasami było niemożliwe, jeśli akurat korzystamy z komputera bez ekranu, co niektórzy robią,
ale też nawet jeśli mamy ekran, to nie dla wszystkich to jest łatwe. No i na szczęście Whatsapp wprowadził funkcję, która nam w tym pomoże,
bo będziemy mogli się zalogować do usługi używając naszego numeru telefonu. Jak to wygląda?
Na razie to jest dostępne tylko w tej wersji Whatsapp Web, ale tutaj już firma zapowiedziała, że aplikacje na komputer,
zarówno na Windowsa i na Maca oraz na telefony, bo też będziemy mogli w ten sposób zalogować się na jedno konto na kilku telefonach jednocześnie do czterech urządzeń.
Możemy to zrobić. Wchodzimy sobie tutaj w przypadku strony web, no to wchodzimy sobie na web.whatsapp.com.
Jeśli jeszcze się nie zalogowaliśmy, no to obok tego kodu QR, który tam się domyślnie wyświetli, znajdziemy przycisk zaloguj się używając numeru telefonu.
Wtedy wpisujemy nasz numer telefonu, a później strona zapyta nas o kod. Jak ten kod uzyskujemy?
Bierzemy nasz telefon i wchodzimy sobie w ustawienia Whatsapp w to samo miejsce, gdzie tradycyjnie byśmy skanowali ten kod.
Wchodzimy w dodawanie nowego urządzenia i tam też znajdziemy nowy przycisk, który pozwoli nam ten kod wpisać.
Zanim to zrobimy będziemy musieli się zautoryzować albo Touch czy Face ID czy kodem PIN zależnie jak mamy telefon skonfigurowany.
Później wpisujemy ten kod i wtedy na telefonie wyświetli nam się skąd ta osoba się loguje.
Tutaj możemy zweryfikować czy nie podajemy kodu jakiemuś oszustowi. Oczywiście najlepiej jeśli ten kod podajemy po prostu sobie.
Zobaczymy nazwę komputera, przeglądarkę czy jakaś aplikacja i jej lokalizację i możemy tutaj na to zezwolić.
Jeśli klikniemy w zezwól to musimy jeszcze raz się zautoryzować, ale później od tego momentu już się zalogujemy i nie będzie już trzeba tego kodu skanować.
Myślę, że to jest akurat bardzo fajna zmiana. Wiele osób to ucieszy.
Swoją drogą ciekawe kiedy to przyjdzie na aplikację, bo nawet dziś widziałem, że jest jakaś wersja Whatsappa, z dziś jakaś aktualizacja na Windowsa, więc może już niedługo.
Może, nie próbowałem się wylogowywać.
Ja też nie próbowałem z jednego prostego powodu, nie mam do komputera stacjonarnego na którym mam Whatsappa podpiętego monitora, więc trochę byłoby to utrudnione.
Natomiast tak już w ogóle informacja dla naszych słuchaczy, którzy być może jeszcze nie korzystają z Whatsappa na komputerze,
że sobie we wtorek po godzinie 19 z Wojciechem Dulskim porozmawiamy i porównamy wersję Whatsappa i ich dostępność na Macu i na Windowsie,
więc jeżeli jesteście ciekawi, bo Whatsapp wam się kojarzy tylko z aplikacjami mobilnymi i nie testowaliście, nie próbowaliście tego jeszcze na komputerze,
a warto, a warto, to z pewnością warto, żebyście też posłuchali tej naszej audycji.
No właśnie, zwłaszcza jeśli będziemy mogli się tak tym kodem zalogować i jeśli dostanę informację, że to już jest dostępne w tych wersjach desktopowych,
to oczywiście dam wam znać.
Przechodzimy dalej, to jest kolejna aplikacja, o której już mówiliśmy w zeszłym tygodniu, aplikacja VoiceVista
i w zeszłym tygodniu mówiłem, że w tej aplikacji brakuje jeszcze niektórych ustawień, na przykład nie da się zmienić głosu lub ustawić jego prędkości,
no ta informacja jest już nieaktualna, bo pojawiła się nowa wersja VoiceVista, to jest wersja 1.0.2.
No i w changelogu po prostu mamy jedno zdanie, możliwość konfigurowania ustawień.
No i tych ustawień jest całkiem sporo, bo oprócz ustawienia głosu i prędkości i głośności tego głosu, możemy też sobie zmienić dźwięk z markerów, które dodajemy,
a także ustawić, jakie rzeczy mają nam być czytane podczas, kiedy poruszamy się po naszej trasie.
Czy ma nam mówić aplikacja tylko o skrzyżowaniach, czy ma też mówić o innych punktach, które nas mogą interesować, czy też właśnie inne różne miejsca, jakieś restauracje, sklepy, tam można sobie to wszystko dostosować.
Kolejna aplikacja, która została zaktualizowana to lubiany klient do Mastodona, Mona na iPhone i na Macu, to jest wersja 5.5.
Taka największa zmiana, no bardziej dla osób widzących jest taka, że w końcu aplikacja obsługuje dodawanie emojis Mastodona, bo każdy serwer może mieć własne takie emotki, naklejki animowane,
no i tutaj długo ta aplikacja akurat ich nie wspierała, ona je wyświetlała, ale nie mogliśmy ich w łatwy sposób dodawać.
Teraz już się to zmieniło, ale co się nam może przydać?
No po pierwsze dodano nowe czynności, które możemy sobie skonfigurować na postach.
Obserwuj autora i wyświetl czynności użytkownika.
Niektóre osoby narzekały na to, że nie dało się łatwo właśnie kogoś zaobserwować z poziomu postu, bo są osoby, które się do tego przyzwyczaiły np. z aplikacji typu Twiscay czy TableBloody.
To są skróty klawiszowe, no i tutaj autor Monę zrobił dla nich ukłon i jest to teraz dostępne z poziomu czynności, jeśli ktoś lubi w ten sposób obserwować osoby.
Wyszukiwanie zostało zaoptymalizowane.
Na przykład gdybyśmy wpisali samo słowo Apple, a nie byłoby wyników żadnych, no to aplikacja automatycznie wyszuka nam to słowo jeszcze raz, ale jako hashtag.
No bo Mastodon często, niektóre instancje mogą mieć wyszukiwanie pełnego tekstu, ale bardzo często jest to wyłączone i generalnie Mastodonie szukamy tylko po hashtagach,
ale jeśli ktoś tego nie wie, to teraz aplikacja troszeczkę nam w tym pomoże, żebyśmy jakieś wyniki dostali.
Pojawiło się również nowe ustawienie w sekcji zaawansowanych, które będzie nam przypominać, jeśli dodamy do postu zdjęcie czy jakieś inne multimedia, ale nie damy mu opisu.
To jest też bardzo fajna rzecz. Dla nas sporo aplikacji coś takiego oferuje i tutaj można zasugerować osobom widzącym, żeby sobie to włączyły albo nawet zresztą osobom niewidomym,
bo tak samo jak osoby widzące powinny dodawać opisy do zdjęć, no to my jeśli wrzucamy jakieś materiały audio, a wiem, że sporo osób tak robi, no to też warto jakiś krótki opis do tego audio też dodać.
Jak najbardziej aplikacja na to też pozwala.
Możemy sobie ustawić prywatność postu, jeśli używamy funkcji cytatu.
Możemy sobie zobaczyć opis serwera, jeśli przeglądamy serwer na zakładce społeczności.
Są też poprawki błędów, automatyczne poprawianie błędów z powiadomieniami.
Czasami po aktualizacji aplikacji albo systemu te powiadomienia się psuły, no i tutaj aplikacja powinna sobie lepiej z tym radzić.
Są to takie mniejsze poprawki błędów, więc fajnie, że aplikacja cały czas się rozwija, no i cały czas gdzieś jak widać dostępność jest priorytetem.
A propos dostępności priorytetów, na Twitterze pojawił się bardzo ciekawy post od pana Drewa Macriorego, który jest jednym z głównych ludzi odpowiedzialnych za dostępność w filmie Blizzard.
I ten post mówi tak.
Zajmuję się nadchodzącymi funkcjami dostępności w Diablo 4.
Przyjaciele dostępności, jakie waszym zdaniem są najważniejsze rzeczy związane z asystą nawigacji dla osób niewidomych, nad którymi powinienem się zastanowić?
No wiecie, tak bez powodu. I tutaj buźka.
Ten post został podany do forum Audio Games, ale nie tylko, bo też trafił do Mastodona i w inne rzeczy.
Tutaj tacy najbardziej znani influencerzy, niewidomi ze świata gier też ten post nagłośnili.
No i dużo osób na niego zareagowało, faktycznie całkiem sporo sugestii się pojawiło.
No bo tak jak wspominałem, gra Diablo 4 generalnie jest dostępna, ale właśnie jeśli chodzi o nawigację po tym świecie, a ten świat w tej grze jest naprawdę ogromny.
Jest trudna, bo nie mamy jakichś sygnałów dźwiękowych albo jakiejś automatycznej nawigacji tak jak to jest na przykład w Last of Us czy w 1428.
No ale że gra będzie jeszcze przez parę dobrych lat się rozwijać, bo tak samo jak Hearthstone czy wiele innych dzisiaj gier, zresztą ona będzie się rozwijała takimi sezonami.
Więc takie coroczne albo nawet częstsze paczki aktualizacji do tej gry będą się pojawiać.
No i tak przepuszczałem, że dzięki temu jakieś jeszcze dodatkowe funkcje dostępności mogą się pokazać.
I ten post też świadczy, że jest to bardzo prawdopodobne, więc wcale bym się nie zdziwił.
Nie wiem czy już w tym nadchodzącym sezonie, nie wiem kiedy on się pojawi, czy za rok, czy szybciej, ale jak nie w tym to może w następnym.
Jakieś ulepszenia jeśli chodzi o grywalność tej gry dla takich właśnie osób całkiem niewidomych zobaczymy.
Warto temat obserwować.
Jeśli coś w tym temacie się jeszcze pojawi to oczywiście damo znać.
Zresztą tam chyba wtedy się tą grą zainteresuje.
I zostajemy w klimacie gier Blizzarda, bo tak jak jakiś czas temu też wspominałem, że do ustawek wrócą zadania.
No i te zadania wróciły.
W komentarzu znajdziecie link do ogłoszenia o tych zadaniach po polsku, w którym znajdziecie więcej szczegółowych informacji, bo tego jest całkiem sporo.
Dużo z tych zadań i nagród, które były pierwszy raz w ustawkach po zadania już rok czy dwa lata temu były, ale później zostały usunięte.
Na rzecz innych rzeczy to tam jakieś różne rzeczy w tych ustawkach się często zmieniają.
No to teraz w tej przywróconej formule pojawiło się kilkanaście właściwie nowych rzeczy, 13 nowych zadań i ponad 30 nowych nagród.
Więc nie będę może ich wymieniał. Nie, czy nowe zadania czy 13 nowych nagród i 30 powracających, więc trochę by zajęło tego przeczytanie.
Ale jeśli ktoś gra, to możecie się po prostu z tą listą zapoznać.
No i zadania już można grać od wczoraj.
Mod Hearthstone Access już też został zaktualizowany.
I poprawił taki błąd, który był od początku dodania tych zadań do ustawek do momentu, kiedy GuideDev zarzucił pracę nad tym modem i myśleliśmy, że to jest koniec Hearthstone Accessa.
A mianowicie, kiedy ekran wyboru zadania się wyświetlał w czwartej turze, to gra się zawieszała na minutę.
No zajęło co nowym autorom tego moda kilka godzin na poprawienie i już się właśnie pojawiła nowa poprawiona wersja, która po prostu nie będzie się zawieszała.
I tak jak pozostali gracze, od razu będziemy mieli wyświetloną listę zadań do wyboru i będziemy mogli, tak jak inni, od razu sobie podjąć decyzję.
To wszystko ode mnie, ale jeszcze Paweł ma kilka drobnych wiadomości.
Tak, zgadza się i zaczynamy od aplikacji na iOS, której dostępność się poprawiła w kilku obszarach.
Jest nią Fantastical, czyli całkiem dobry zamiennik kalendarza systemowego, aczkolwiek żeby wiele w nim zrobić, trzeba odblokować sobie subskrypcją roczną pewne funkcje.
Natomiast cały czas coś dochodzi nowego do tego kalendarza i dość często wymieniane są poprawki dostępności w tejże aplikacji.
Więc jeżeli ktoś z kalendarza korzysta dużo, często i potrzebuje takich rozbudowanych funkcji, to może się okazać, że Fantastical to dobry wybór.
I co się zmieniło w tej wersji? Dodano możliwość planowania rozmów na Skype za pomocą Fantastical,
bo Fantastical ma taką funkcję, że możemy sobie planować rozmowy na różnych platformach konferencyjnych, komunikatorach i to tam od razu jest zsynchronizowane.
Teraz w pełni z VoiceOverem dostępny jest widok roku, czyli możemy cały rok poglądowo sobie przejrzeć i ten widok jest już dostępny.
Live Activities, czyli te aktywności na żywo, czyli to co widać albo na widgetach, na ekranie blokady, albo na wyspie w iPhonie 14 Pro Max.
Są teraz aktualizowane też, poszerzone opowiadomienia push, więc są dużo bardziej interaktywne.
Otwarcie wydarzeń może być teraz zaplanowane maksymalnie na 180 dni w przód, czyli chyba pół roku, jak dobrze liczę, mniej więcej.
Widok kwartalny podaje teraz przegląd dni, kiedy włączony jest VoiceOver, czyli pewnie będziemy mogli podejrzeć w które dni coś mamy zaplanowane,
jeżeli dobrze rozumiem.
Jeżeli VoiceOver jest włączony, no to żeby nawigacja nam trochę lepiej się, żeby nam się lepiej nawigowało po aplikacji,
przeniesie nam, jeżeli klikniemy na przejść do dnia lub przejść do daty, no to zostanie przeniesiony nam fokus na tę datę.
Wcześniej widocznie to aż tak ładnie nie działało, że od razu byliśmy przenoszeni do tego dnia, który wybraliśmy, no a teraz tak już będzie robione i super.
Aha, poprawione działanie aplikacji, kiedy filtrowane są wydarzenia za pomocą skrótów.
Tak, we wszystkich widokach, dnia, tygodnia, miesiącu, kwartał, usprawniono wsparcie zwiększonego kontrastu.
Interesujące kalendarze, tu nie wiem czym one są, bo aż tak głęboko nie używałem aplikacji, ale są dostępne z VoiceOverem.
Poprawiona łączność z niektórymi instancjami Microsoft Office 365, Microsoft 365 przepraszam, to już nie Office, na przykład rząd Stanów Zjednoczonych,
oni też używają Office 365, no to dobrze, fajnie wiedzieć.
Co tu jeszcze mamy, przy otwieraniu parsera, czyli jakby tego przetwarzania języka naturalnego, gdzie wpisujemy, bo Fantastical pamiętajmy też obsługuje w języku oczywiście angielskim wpisywanie wydarzeń w formie takiej naturalnej,
czyli dnia takiego, a takiego, o takiej, o takiej, odbędzie się spotkanie takie, takie z tymi, a tymi ludźmi i on to zinterpretuje, żeby wszystko we właściwych polach odpalić,
no to tu poprawione jest, że po jego otwarciu pierwsza litera jest wielką literą.
Tu naprawiono błąd, gdzie dla niektórych użytkowników Microsoft 365 się nie synchronizował jak należy za każdym razem.
Tutaj też jakieś poprawki przy strefach czasowych, przy jakichś tam zezwoleniach w kalendarzu Google.
Jeszcze patrzę, nie pokazywały się tytuły wydarzeń rocznic i urodzin na watchu, na zegarku.
Zoom się nie synchronizował, chodzi pewnie o Zuma jako platformę do spotkań.
Tak jeszcze patrzę, czy coś tu jeszcze do voiceoverowego się pojawiło.
To nie, a nie, no i tyle. Trochę jakiś jeszcze popraweczek takich drobniejszych, więc to był Fantastical.
Jak widać pracują cały czas nad dostępnością, więc zawsze warto, warto sobie ich sprawdzić.
I co my tu jeszcze mamy?
Także Speech Logger, czyli wtyczka dla NVIDIA, o której mówiłem już jakiś czas temu.
Pokazywałem wam jak zrobić sobie taki system, w którym to co mowa nam w NVIDIA na komputerze mówi,
było zapisywane do pliku tekstowego i jak ten plik potem jednym gestem za pomocą skrótów w iOS sobie otworzyć na iPhonie
i mieć w ten sposób podgląd, co tam na naszym komputerze się dzieje, kiedy nas przy nim nie ma.
No to ta wtyczka, która była wykorzystywana w tym moim poradniku została zaktualizowana
i od teraz potrafi logować do pliku to, co jest czytane w ramach sekwencji czytaj wszystko.
Seeing AI okazuje się i tutaj też za chwileczkę będziemy mieli kącik newsów AI, ale dla niewidomych.
Seeing AI pracuje nad integracją GPT-4 do aplikacji. Skąd to wiemy?
Ano pojawił się artykuł w ramach serwisu Wired, który opisuje właśnie jak to różne rozwiązania
dla osób z dysfunkcją wzroku wspomagane przez AI właśnie są pomocne.
I tutaj troszkę mam wrażenie, że autorzy popłynęli, pomylili kilka pojęć, przeskakują od Be My Eyes’a do Seeing AI
i tak w sumie nie wiadomo, czy im się te aplikacje aby nie mylą.
I później się pojawiło określenie Seeing AI jako oko EEE Applications, więc tak mam wrażenie,
że trochę tak autorzy bardzo tutaj posiekali ten temat, chociaż cytują ludzi raczej o dobrej reputacji
ze środowiska Pratik Patel na przykład, Jella Robles, więc osoby, które gdzieś tam są w środowisku znane,
no i okazuje się, i to jest jedno zdanie wzmianki tak naprawdę, że nie wiem, czy to oni zapytali,
czy to gdzieś indziej zostało wychwycone, ale przedstawicielka Microsoftu przyznała,
że tak Seeing AI pracuje nad wdrożeniem GPT-4. No więc zobaczymy, czym to się skończy i kiedy.
Dla osób grających w MystWorld, a trochę was jest, bo dzwonicie i pytacie o MystWorld
i piszecie też i pytacie o MystWorld, powstało wiki z poradnikami dla graczy,
takie kompendium wiedzy, w którym założył je Thomas Keci, który jest też dość znaną postacią,
jeżeli śledzicie media społecznościowe i czytacie właśnie posty z tej amerykańskiej strony
społeczności osób niewidomych. I jest to wiki, czyli każdy może założyć tam konto
i tworzyć swoje własne poradniki. Ja się nie znam na grze, ale widziałem tam,
że już są jakieś przewodniki po założeniu konta, jak zacząć i jakieś tam określone przewodniki
po pewnych mapach, po zwierzętach, po tworzeniu przedmiotów i tak dalej.
Więc jeżeli gracie, to pod adresem mwgame.wiki znajdziecie i możecie też współtworzyć.
Oczywiście w języku angielskim, chociaż jest to wiki, więc dość łatwo byłoby tam
dodać jakiś mechanizm wielojęzyczności. Mogłyby zacząć powstawać polskie artykuły.
Czemu nie? Samo wiki już się renderuje po polsku. Jakby linki te takie stałe,
przejść do nawigacji i tak dalej są po polsku, bo to jest na jakimś pewnie otwartym silniku do wiki,
który ma już tłumaczenie zaimplementowane. Więc może można by do autora się zwrócić.
Jeżeli macie ochotę takie poradniki pisać, no to czemu nie? Na pewno się przydadzą,
zwłaszcza, że gra, zdaje się, że nie ma oficjalnej dokumentacji po angielsku
i dlatego też to wiki powstało, więc im bardziej sobie można w takich przedsięwzięciach
pomóc, tym lepiej. I tutaj coś też, znowu wracamy do AI, o czym ty, Piotrze,
też troszkę czytałeś i z tego samego zresztą chyba źródła, co ja.
Tak, tak, no później, tak.
Tak, bo wiemy już, tak jak mówiłem tydzień temu, odbyła się konwencja NFB
i co my się na tej konferencji dowiedzieliśmy? No wielu różnych rzeczy,
ale też czegoś o Be My Eyes i ich wirtualnym wolontariuszu.
Było wystąpienie, opowiedzieli troszeczkę o tym tam z zarządu firmy, jakie są plany,
jak to aktualnie wygląda i czego się dowiedzieliśmy?
Be My Eyes, więc już nie nazywa się to wirtualny wolontariusz.
Virtual Volunteer to nazwa, która została porzucona, teraz jest nowa nazwa
i uwaga, szykujcie te wszystkie rymy, rapy, bity Be My AI.
Można o tym jakąś piosenkę pewnie też ułożyć, także Be My AI, już wkrótce ajajaj.
I no tak zostało to przedstawione, więc jest powiedziane, że jakoś w tym roku
zostanie to zaprezentowane, ale nie podano konkretnej daty.
Dalej, bo to już ja słyszałem teraz fragment, wypowiedź przedstawiciela Be My Eyes
w Double Tap, w podcaście. No dalej próbują, żeby to był koniec września,
początek października, ale nie wiedzą czy im to się uda, są w stałym kontakcie
z Open AI, chcą to jak najbardziej dopracować i no nie chcą się z tym też
spieszyć i niczego robić na hura, bo wiedzą jakie jest oczekiwanie
i jak bardzo społeczność na to czeka.
I tak, te osoby, które już są w becie, czyli do tej pory byli to podcasterzy
gdzieś ze środowiska osób z dysfunkcją wzroku. Nie, my tam nie jesteśmy,
jakby ktoś pytał. Mają tę grupę na Slacku, gdzie dyskutują sobie na temat
tej aplikacji, na różne tematy z tym związane i testują i wymieniają się opiniami.
Ponoć przeprowadzanych jest co najmniej 100 testów dziennie.
Też Be My Eyes testuje nowe funkcje i to już jest nowość, bo tego wcześniej
nie było i Be My Eyes w ogóle nie dodawał przez te 10 czy ileś lat,
które on sobie był, on nie dodawał żadnych nowych funkcji.
Ta aplikacja się w ogóle praktycznie nie rozbudowywała, oprócz tam zakładki
społeczność, gdzie można było sobie posłuchać różnych wypowiedzi
użytkowników, jakichś podcastów, które autorzy sobie tworzyli,
no i całego tego social mediowego dżemu. Natomiast teraz dochodzi
nowa funkcja, funkcja grup i to będzie za darmo. W grupie można przypisać
to chyba, z tego co pisze Brian Hartgen, 20 osób z naszego prywatnego koła,
które będą naszczymi, jakby osobistymi, takimi wolontariuszami,
którzy się zdeklarowali, że chcą pomagać nam. I będzie można
dodawać tam prawdopodobnie członków rodziny, znajomych i prawdopodobnie,
to jest wszystko prawdopodobnie, bo te prezentacje są dość krótkie
i tak wymieniają te funkcje dość zdawkowo. Będzie po prostu gdzieś wyżej
na liście priorytetów taka osoba z takiego prywatnego koła,
naszego kręgu zaufania, wywoływana jako potencjalny wolontariusz,
kiedy my poprosimy o pomoc. I też od trzech lat rozwijana jest
nowa aplikacja, która bazuje na sztucznej inteligencji.
I to jest aplikacja, brzmi to dość przerażająco i szczerze mówiąc
sam nie wiem, jak się z tym czuć, ale aplikacja, w której umieszczamy
tyle, ile się da naszych myśli i wspomnień. I chodzi o to, żeby aplikacja
miała o nas jak najwięcej informacji. Prezenter, prelegent, który
przedstawiał tę funkcję mówił o tym w taki sposób, że to jest takie
tworzenie AI-owego, takiego sztuczno inteligentnego klona nas samych.
I potem można rozmawiać sobie z takim klonem, żeby można było rozmawiać
z nami i zadawać nam pytania o to, co my sądzimy na dany temat.
No nie wiem, ja bym wolał pogadać sobie bezpośrednio z kimś,
a nie z klonem AI. No chyba, że bym chciał zapytać o coś dyskretnego
typu, nie wiem, ulubiony prezent, ale nie powierzałbym tego typu rzeczy AI.
Ale jest dalej wyjaśnienie. Ponoć to jest dla osób, które tracą wzrok
albo wzrok utraciły, żeby zakodować jak najwięcej z tego czasu,
kiedy jeszcze ten wzrok mieliśmy. Tak to interpretuje Brian Hartgen,
ale sam nie jest przekonany, że tak powiem o tym, jakby to miało działać,
czy my mielibyśmy sami ze sobą rozmawiać i jakby interpretować rzeczy
z perspektywy tej osoby, którą byliśmy zanim straciliśmy wzrok.
Nie wiem, chyba musimy dostać więcej szczegółów, żeby zrozumieć
dlaczego to może nam być potrzebne, ale nad czymś takim pracuje Be My Eyes.
Także poszli w AI grubo. Nie wiem, czy ty Piotrze, masz jakoś więcej informacji
jeszcze, czy coś dodatkowe, jakieś wrażenia, coś czytałeś, Mastodon?
Nie, tylko to samo, co ty, bo ta wiadomość też właśnie przeszła
w moją oś czasu. Tutaj generalnie też te osoby, z którymi rozmawiałem
też wolą tą starą nazwę Virtual Volunteer. Jakoś to Be My AI się nie przyjęło.
Ja tutaj się śmiałem, że może Open AI poprosiło, żeby coś takiego bardziej
może lepszą reklamę zrobić.
Nie, to głupie wytłumaczenie. Jest to bardzo logiczne.
Nie wiem. Mniej więcej tyle wiemy. Na razie.
Tak. Co tam jeszcze? Niedługo, jeżeli język angielski nie jest dla was obcym,
a źródeł informacji o dostępnych technologiach nie jest wam dość,
no to już niedługo, bo jesienią rusza nowa audycja Access Tech Live,
która będzie audycją godzinną na żywo, prowadzoną przez Double Tap TV,
czyli przy AMI Network, przy tej sieci radiowo-telewizyjnej kanadyjskiej
poświęconej właśnie osobom z dysfunkcją wzroku, której częścią jest też
podcast Double Tap i ona będzie raz w tygodniu przez godzinę na żywo.
Będzie można się gdzieś tam zapoznać z tym, co goście mają do powiedzenia
w formacie takim na żywo. Nie wiem, czy będzie możliwość
jakiegoś tam wdzwaniania się bądź pisania, natomiast na pewno gdzieś tam
jest to kolejne źródło jakichś ciekawych perspektyw, jak chodzi o technologię.
Ja będę pewnie się temu jakoś przyglądał. Kto wie, może z tego też wyciągniemy
jakieś ciekawe materiały na tyflo przegląd.
Voice Dream Reader. Jeżeli używacie Voice Dream Readera i mieliście ostatnio
taki problem, że coś wam się ten Voice Dream Reader zacina, że klikacie play,
zwłaszcza na głosach zakupionych, czyli jakby na głosach acapelli w naszym przypadku.
Na acapelli Annie albo jakiejś innej acapelli. Tutaj przykład był podany
Neo Speech’a James. Jeżeli może używacie dla języka angielskiego syntez
albo dla innych języków i wam się to zdarzyło, no to może potwierdzicie.
I nagle tak czytanie trwa, trwa i nagle przerywa. Klikacie znowu play,
troszkę idzie, znowu przerywa. I może po kilku kliknięciach w końcu zaskakuje
i idzie dalej jak należy. Ja widziałem, że ten problem się gdzieś po Mastodonie
przewijał i mimo licznych wydań podpisanych jako poprawki i usprawnienia aplikacji
błąd nie znika. No tutaj David Goldfield podzielił się swoją teorią,
co może być nie tak. On mówi, że ten błąd u niego występuje zwłaszcza kiedy aplikacja
jest świeżo po aktualizacji, jest pierwszy raz uruchomiona albo jeżeli on
w czasie odtwarzania przesunie sobie na przycisku play pokrętło gdzieś tam palcem
na pokrętle czynność w górę, tam wtedy coś zaczyna się zacinać i nie chce działać
jak należy. Jego teoria jest taka i to mu gdzieś potwierdziło się po jego testach,
że problem leży w synchronizacji z iCloudem, że jeżeli aplikacja próbuje
zsynchronizować tutaj z iCloudem jakoś swoje zasoby, to znaczy tę pozycję
czytania prawdopodobnie też, no to tutaj coś się zacina i wysypuje.
Jego rada jest taka, żeby po wejściu w ten czytnik zanim naciśniemy play
odczekać parę sekund albo jeżeli jesteśmy niecierpliwi albo to nie zdaje rezultatu
wyłączyć funkcję synchronizacji z iCloud na ten moment. On powiedział,
że będzie pisał w tej sprawie do Applause Group, czyli obecnych właścicieli
Voice Dream Readera i można mieć nadzieję, że wkrótce będzie to naprawione.
No i ostatnia już wiadomość, dobra wiadomość na wakacje, bo ruszają
letnie wyprzedaże przeróżnych produktów. Pneuma Solutions, czyli
Remote Incident Manager, o którym tu wspominamy i różne inne ich produkty
Scribe, 4Meetings, Scribe po prostu. Wszystko to doczekało się obniżki
każdego z pakietów, każdego oferowanego produktu o 25%.
Natomiast SuperSense, czyli kolejna taka aplikacja służąca do wszystkiego,
czyli rozpoznawania tekstów, opisywania scen, rozpoznawania kolorów,
wykrywania przeszkód i tak dalej. No i również ma swoją obniżkę ceny letnią.
Wersja na stałe Lifetime obniżona jest o 50%, a subskrypcja roczna o 40%
na najbliższy rok. No i to nie wszystko, jeśli chodzi o SuperSense’a,
bo oni też podzielili się tu swoimi planami na najbliższy czas,
bo oczywiście nie byliby sobą, gdyby w tej przestrzeni również
nie weszli w AI. I mamy tu pięć funkcji, które jest zaplanowane
na najbliższe miesiące. I po pierwsze mamy tutaj możliwość odpytywania
na okoliczność tekstu, który zeskanowaliśmy, aplikacji za pomocą
asystentów głosowych, czyli będzie pewnie opcja wydania jakiejś komendy,
czy to będzie używane rozpoznawanie mowy z iPhona, czy jakieś zewnętrzne,
czy Whisper. Tego nie wiemy, bo nie wiemy, z czym to będzie zintegrowane,
ale będzie można odpytywać aplikację, a podobnie jak Ask & Vision,
na temat pewnych informacji, które są zawarte w tekście,
będzie można po prostu pytać o różne szczegóły tekstu.
Druga funkcja to inteligentna interpretacja tekstu, czyli SuperSense
będzie nam ze złożonych dokumentów wyciągał najważniejsze informacje
i prezentował je gdzieś tam w takim miejscu dobrze naświetlonym,
żebyśmy mogli sobie je łatwo przeczytać i wiedzieć to, co jest najważniejsze,
żeby w dokumencie wiedzieć. Po trzecie wspiera nas będzie aplikacja
w edytowaniu tekstu. Powinniśmy dzięki temu uniknąć błędów w skanowaniu,
bo zeskanowany tekst będzie dość łatwo edytować, manipulować nim,
zamieniać go gdzieś tam linijkami i tak dalej, więc ja tu myślę,
że będzie jakaś opcja edycji plus, nie wiem, czy jakieś pola wyboru,
coś jak w Jeszło, jakiś taki tryb edycji, gdzie będzie można, nie wiem,
jako pola wyboru zaznaczać jakieś konkretne akapity, słowa, znaki, nie wiem.
Natomiast jakaś forma edycji tekstu ma się pojawić tego,
który nam wyszedł ze skanu? No tak rzeczywiście żaden do tej pory
aplikacja chyba nie oferowała z tych dostępnych.
Rozbudowane opisywanie obrazów, no czyli Supersense będzie nam generował
szczegółowe opisy ze znaczeniem, co to oznacza, co jest na obrazie,
jaki jest kontekst, jakie tło i tak dalej. No więc znów jakieś prawdopodobnie
tutaj GPT w grze i tłumaczenia w czasie rzeczywistym,
czyli będzie możliwość tłumaczenia w czasie rzeczywistym
i teraz nie wiem czego, czy tych tekstów…
Oj, i wygląda na to, że gdzieś straciliśmy kontakt z Pawłem,
bo ty Piotrze, jak rozumiem, jesteś.
Jestem, jestem. Może przy okazji szybko wrzucę jedną rzecz,
która gdzieś się zagubiłam w notatkach. Jeszcze taki jeden drobny news ode mnie,
ale taki dosłownie drobny. Apple dzisiaj wypuściło pierwsze publiczne bety
swoich systemów, bo one były dostępne już wcześniej jako bety deweloperskie,
ale teraz jeśli ktoś by chciał coś minimalnie bardziej stabilnego,
to generalnie wygląda tak, że te bety deweloperskie wychodzą najpierw
i te bety publiczne na początku wychodzą po tygodniu, później po jednym dniu,
więc jeśli jakieś bardzo krytyczne błędy są znajdowane, to one mogą
w tych publicznych betach się nie pojawić. Może nie chcemy zakładać
tego konta deweloperskiego, na które jednak się okazuje,
nie musimy płacić, ale jeśli wolimy skorzystać właśnie z tych bet publicznych,
to możemy sobie wejść na beta.apple.com i tam możemy swoje urządzenia
dołączyć do tego programu. Co jest nowego w tych betach?
Generalnie to jest ta sama wersja, która pojawiła się jako beta 3 w zeszłym tygodniu.
Tam jakaś minimalna aktualizacja się pojawiła, ale tam nic takiego
się nie zmieniło, a jeśli chodzi o jakieś bardziej konkretne szczegóły,
to przez ostatnie tyflo przeglądy nie tylko, bo mieliśmy oczywiście
osobny podcast o nowościach w systemach Apple, który Arek zrobił ze mną,
no to odsyłamy was do tych podcastów. Generalnie to jest ta sama wersja,
która pojawiła się w zeszłym tygodniu jako deweloperska beta 3.
A tymczasem w oczekiwaniu na powrót Pawła, bo rzeczywiście chyba
Paweł ma jakieś problemy z internetem, odbierzmy połączenie od naszego
słuchacza, od słuchacza Patryka, z którym już teraz się łączymy.
No i mam nadzieję, że tu nie będzie żadnych technicznych problemów.
Jeszcze tylko czekamy, żeby Patryk podłączył sobie dźwięk,
co może chwilę rzeczywiście potrwać, no bo gdzieś tam musiał sobie
poczekać Patryk na odebranie połączenia.
O, i Paweł w międzyczasie do nas wrócił, aczkolwiek nie wiem,
czy jest z nami, bo na razie widzę, że jest jako użytkownik,
ale czy Pawle nas słyszysz? No to jest pytanie.
Tymczasem Patryku, to poprosimy o wyrażenie zgody na nagrywanie,
odciszenie mikrofonu i antena jest twoja.
Ale też widzę, że jeszcze musimy chwilę poczekać.
O, ciekawe rzeczy nam się tu dzieją.
I Paweł nam zniknął.
Tak, zgadza się. No, Paweł się pojawia i znika.
Patryku, czekamy też na ciebie.
Jeszcze w międzyczasie zajrzę może, czy jakieś tu wypowiedzi
od naszych słuchaczy są?
Jestem, halo?
O, jesteś, jesteś.
Ja też jestem, coś tu internet nam…
Nie jest moim sprzymierzeńcem, burza, burza.
Burza, no niestety.
Patryku, z czym do nas dzwonisz?
No to tak, dzwonię, nie wiem czy tutaj, bo już tutaj słyszałem,
że o grach myśleliście, mówili o Diablo 4 i o Hearthstone,
a ja chciałem przyjść do was z nowościami z Chin.
Znowu, które się pojawiły.
No to słuchamy.
Otóż dwa dni temu na łamach forum Audiogames.net
pojawiła się kolejna chińska gra stworzona na silniku Iceberg,
tak jak poprzednia, tutaj o poprzedniej grze mówił Piotrek Machacz,
a mianowicie jest to gra My Happy Life.
Jest to według autora symulacja życia w chińskim mieście,
gdzie jesteśmy jakimś pracownikiem, na przykład jak się sobie tam wybieramy,
elektrykiem, jest tam kilka zawodów do wyboru.
Ja tylko mówię co wiem, nie testowałem tej gry,
ponieważ jestem na wakacjach na chwilę obecną,
więc tutaj akurat mówię co wiem.
Oprócz misji mamy jakieś prowadzenie samochodów,
możemy autem prowadzić, możemy kupować samochód,
możemy wykonywać jakieś tam misje, jakieś tam zadania.
Nie wiem tak naprawdę kim my jesteśmy docelowo w tej grze.
To by się tutaj Arek Świednicki musiałby powiedzieć,
który jest ze specjalistą na ten temat.
Natomiast gra, jak to zwykle bywa w chińskich grach,
wymagany jest local emulator, żeby móc w ogóle w to grać.
No i jest to gra, która jest w fazie rozwoju,
jest dźwięk binauralny, z tego co słyszałem w jakiejś tam prezentacji.
Jest grą darmową, jest grą single player.
No i na razie nie grałem, więc powiem tylko tyle,
tyle mogę na ten temat powiedzieć na temat tejże gry.
To jakby tyle ode mnie, jeżeli chodzi o tą tematykę.
Teraz chciałem troszeczkę powiedzieć o Twitterze.
W zasadzie dwie rzeczy.
Pierwsza rzecz to jest Spring i pytanie a propos Springa,
ponieważ tutaj dzieje się rzecz dziwna.
Ponieważ Spring najwidoczniej wyleciał z App Store,
ponieważ gdy próbujemy udostępnić tą, że aplikacje,
pojawia się komunikat, że to aplikacja nie jest dostępna w moim kraju.
Co ciekawe beta Springa, której nie bardzo też nie da się udostępnić
już z aplikacji linka, działa u mnie na tyle,
że jeszcze sprawdzałem 15 minut temu i Tweety nadal są odświeżane,
ponieważ autor ostatnio stwierdził, wydając betę,
że dodał jakąś nową metodę logowania na Twitterze.
Z tym, że właśnie pytanie, czy ma ktoś z Was linka
do test flighta takiego publicznego,
nie tego, który jest gdzieś tam ze Springa trzeba wygrzebać,
bo ja chciałem komuś dać tam aplikację,
a tej aplikacji nie da się zainstalować z App Store.
Jakie macie na ten pomysł, żeby ten ktoś mógł to spróbować?
Jakie macie rady na to?
No ja się obawiam, że jeżeli tego w App Store nie ma, to…
Ale jest na test flightie.
Jest na test flightie.
A możesz wysłać zaproszenie?
Może po prostu skopiować?
Właśnie test flight nie umożliwia żadnego kopiowania, wysyłania zaproszeń.
Jeżeli ja nie jestem deweloperem, no to ja jakby nie jestem w stanie
z test flighta wysłać żadnego zaproszenia, ani dać linka.
A, bo nie masz linka do tego.
No to ja szczerze mówiąc nie mam pomysła.
Ja dostałem się do bety przez aplikację Spring,
tą taką oficjalną, bo oni mieli kiedyś taką dziwną politykę,
że żeby beta w ogóle z Springa mogła działać,
musi być zainstalowany stabilny w Spring i musi być test flight zainstalowany.
I co ciekawe, jak odinstalujemy aplikację Spring oficjalną z iPhona,
a będziemy mieć zainstalowaną betę, to beta nam się nie włączy,
bo nie będzie Springa oficjalnego.
Nie wiem jak to jest zrobione, ale tak samo z Moną chyba też jest, zdaje się.
No to jest pierwsza rzecz.
Druga rzecz, która jest smutna, jeżeli chodzi o Twittera,
to chciałem powiedzieć, że się popsuła dostępność aplikacji oficjalnej Twittera,
ponieważ teraz jeżeli na przykład chcemy zareagować z jakąś akcją na Twitterze,
chcemy zretweetować jakiś tweet poprzez czynności na pokrętle,
wówczas po wykonaniu tej akcji kursor nam skacze na samą górę osi czasu,
nie zostaje na twicie, tak jak to było miejsce przedtem.
Ponadto jest jeszcze kolejna rzecz, która się popsuła.
Kiedy chcemy wejść na przykład w linka z jakimś konkretnym profilem
i chcemy zobaczyć tweety tego kogoś nawet, niezależnie czy go śledzimy czy nie,
my tych tweetów nie widzimy.
Mimo, że te tweety widać na ekranie, to voiceover z jakiegoś powodu
u mnie nie jest w stanie nic kompletnie przeczytać.
Także zaczyna się, moi drodzy, psuć z Twitterem bardzo nieładnie.
Czego mogliśmy się spodziewać?
Zważywszy na to, że nikt już się tam dostępnością oficjalnie nie opiekuje.
Aczkolwiek mówiliście chyba tydzień temu, że NFB, organizacja,
chce wymusić na Twitterze.
Tak, ale to na razie jest jedna organizacja.
Oni jakąś tam moc przebojową, powiedzmy w Stanach mają jakąś moc przebicia.
Dość dużo chyba znaczą w tych jako taka organizacja konsumencka.
Natomiast pytanie, czy się uda, czy Elon Musk posłucha,
czy będzie musiał posłuchać, czy się jakoś wywinie.
Szczerze wątpię, bo też jak to wszystko się działo, pamiętam,
że tematy właśnie aplikacji związanych z dostępnością na Twitterach
też się gdzieś w tych mediach pojawiały.
Natomiast chyba nie tak głośno jak w przypadku Reddita,
ale tutaj reakcja była od goła zupełnie inna.
Można do tego, że po prostu akurat w Reddita chyba aż tylu zwolnień nie było,
ale no nie wiem.
I jeszcze jedna smutna informacja, też związana z grami.
Pewnie znacie i pamiętacie taką grę strategiczną Lords and Knights.
I to w zasadzie chciałem powiedzieć o firmie, która te gry robi.
Ponieważ ostatnie gry, czyli Medieval Kingdom i taki symulator
milionerów, to są gry, które są totalnie, ale to totalnie niedostępne dla nas.
I powiem szczerze, że ja próbowałem napisać do tych deweloperów właśnie o to,
żeby ta dostępność była, bo Lords and Knights jakby jest dostępne nadal,
natomiast podobno z wersją na Androida jest bardzo źle.
Natomiast no niestety te gry nowe już niestety dostępne nie są
i chyba deweloperzy, nie wiem czy tam się zmienili czy coś,
ale chyba nikt z nich nie jest zainteresowany tą dostępnością.
Także bardzo smutna informacja, bo zawsze mi się wydawało, że tam w Lords and Knights,
w smarcie dla Voice over jest, no pięknie jest zrobione.
Są podpowiedzi i w ogóle, więc myślałem, że twórcom zależy,
ale widać chyba nie.
To jest Unity z ciekawości zauważyłeś?
Tam jest jakiś dotyk bezpośredni też?
Nie, nie, tak to wygląda na to, że to jest Unity, ponieważ po wyłączeniu interakcji
jest tryb interakcji, więc wygląda na to, że to jest Unity.
Tylko problem chyba polega na tym, że większość deweloperów chyba nawet nie wie o tej wtyczce,
bo w Quizvani pamiętam jak pisałem do teamu dostępnościowego,
to miałem pytanie, że oni nic nie wiedzą na temat tej biblioteki.
Tak, no to jest bardzo słabo.
Zostałem poproszony o podlinkowanie.
Tak, to jest bardzo słabo reklamowane, no to generalnie jak ktoś tego nie szuka,
to ciężko to było znaleźć, więc mam nadzieję, że faktycznie to kiedyś się zmieni.
Faktycznie Unity nad czymś pracuje, no były takie informacje,
ale czy coś z tego będzie, no to będziemy pewnie też jeszcze musieli poczekać.
To samo jest z firmą Those Brothers, którzy robili, jak to się…
Star Traders, nie wiem czy pamiętasz taką strategię o statkach.
No i pamiętam, że tam była nowa część, która ostatecznie tam był jakiś Kickstarter,
gdzie była dostępność obiecana, ostatecznie wiem, że osobom niewidomym
były pieniądze zwracane, bo stwierdzili, że nie da zmarł do tego zrobić.
No i deweloperzy powiedzieli, no że dostępności nie będzie, ponieważ nowy silnik.
I też się zastanawiam, czy to nie jest Unity, żeby nie napisać do deweloperów.
Ja będę oczywiście próbował to robić, bo Star Traders to jest coś, co kochałem.
Więc po prostu będę się starał z deweloperami jakoś dyskutować,
że jeżeli jest to Unity, to im też również powiem o tej bibliotece.
Nie wiem co z biblioteką Apple’a.
Wy nie wiecie jaki jest w ogóle status tej biblioteki?
Czy ktoś ją już kiedykolwiek użył, jakiś deweloper?
Czy ta biblioteka jest publiczna?
Publiczna jest, ale wiesz co?
Wiem, że autorzy gry Sonar Islands to testowali,
ale oni jakoś nie byli tym zachwyceni.
Ale to tak naprawdę jedyna informacja, jaką o niej słyszałem, więc…
Czyli nie wiadomo w sumie czemu, tak?
A propos Sonar Islands, to jest jakiś summer event, tak?
Żeby się ktoś tym interesował.
Ja się nie interesuję tą grą zupełnie, ale ktoś to jest jakiś tam…
Ale spróbuję uderzyć do twórców, bo właśnie na Lords & Knights
instalując tą grę dzisiaj, popatrzyłem się na ich inne gry
i zmartwiłem się, że są niezastępne.
Będę o to walczyć, żeby były.
Cokolwiek by to nie było.
No dobrze, to tyle.
To ja was chciałem bardzo serdecznie pozdrowić ze słonecznej Szczawy.
Życzymy ci miłych wakacji.
Pozdrowienia dla wszystkich tam zebranych.
Dzięki Patryku, pozdrawiamy cię serdecznie również.
A teraz przechodzimy do kolejnych tematów,
które mamy na naszej liście do zrobienia i do omówienia.
Teraz przechodzimy do informacji smutnej,
którą to dziś na grupie dostępne Apple opublikował Maciej Walczak,
którego doskonale myślę, że kojarzycie z Tyflo Podcastów.
Czasem Maciek dzwonił do Tyflo Przeglądu,
no ale dziś z różnych przyczyn nie może się podzielić z nami
tą informacją osobiście, więc ja pozwolę sobie przeczytać to,
co napisał na grupie.
Witam Was kochani.
Pragnę Was przestrzec przed instalacją aplikacji mObywatel w wersji 2.0,
która oficjalnie ukaże się jutro bądź pojutrze,
to jest 13 lub 14 lipca.
Skąd to wiem?
Portal cashless.pl swego czasu, bodaj w miniony piątek,
doniósł o wydaniu aplikacji w wersji testowej.
Ja pozwoliłem sobie ją przetestować i oto co stwierdzam.
Znaczący regres w zakresie dostępności.
Niestety zdublowane ikony dla voiceover,
w tym jedne nazwy po polsku, inne zaś po angielsku.
Brak wszelakich dźwięków przeładowywania treści,
zmiany ekranu, kiedy aktywujemy daną sekcję w aplikacji.
Kiedy wchodzimy w dany moduł, dany dokument bądź usługę,
stary ekran jakby zostaje, natomiast na dole jakby pojawia się nowy
z nowymi treściami.
Jak wspomniałem wcześniej, pojawieniu się nowych treści
nie otowarzyszy żaden dźwięk, a kursor voiceover
często nie przeskakuje do nowych treści.
Często aby się dowiedzieć o pojawieniu się nowych elementów,
należy użyć eksploracji ekranowej.
Gest eksploracji, gest potarcia służący do wycofywania się
z danego ekranu również nie działa.
Wszystko co powyższe przekazałem twórcom aplikacji.
Jednak nie wiem na ile przyniesie to pozytywny skutek,
gdyż mail kontaktowy prawdopodobnie okazał się nieprawidłowy
z uwagi na wiadomość zwrotną o niedostarczeniu mojej wiadomości
z uwagi na błędnego adresata.
Wysłałem tę samą wiadomość w ramach opinii w aplikacji TestFlight,
jednak nie jestem pewien co zostanie w ogóle z tym zrobione.
Procedura wzięcia udziału w samych testach również okazała się
być mało dostępna.
Otóż wyglądało to tak, że po wejściu na stronę
info.mobywatel.gov.pl
zamiast normalnych linków do wersji testowych
zamieszczone zostały pliki pdf z instrukcjami
jak należy wziąć udział w testach.
Aby to zrobić należało albo zeskanować kod QR
w którym zaszyty był link do aplikacji
albo też kliknąć w link, który nijak dla voiceovera
nie był rozpoznawalny jako hiperłącze.
Także drodzy, widać jak państwo polskie stosuje się do przepisów
mających nam zapewnić dostępność cyfrową.
Kolejny raz to niestety widać.
Na sam koniec pozwolę sobie jeszcze podać maila kontaktowego
służącego niby do kontaktu w sprawie tej wersji testowej.
Ciekaw jestem czy i wam będzie wasze wiadomości odrzucało.
No i tu jeszcze link od Macieja, który podał
mobywatel-pomoc-nask.pl
mobywatel-pomoc-nask.pl
Ja powiem szczerze, skuszony recenzją Macieja
zainstalowałem sobie mobywatela i powiem szczerze
z mojej perspektywy, ale tylko z mojej perspektywy
ta aplikacja jest do obsłużenia.
Ta aplikacja da się obsłużyć.
Nie jest to tak wygodne jak było to w poprzedniej aplikacji,
w poprzedniej wersji m-obywatela.
Tu już zgadza się, to wszystko co mówi Maciej jest prawdą.
Ja tam jakoś specjalnie nie musiałem korzystać z eksploracji.
To jest jedyna rzecz.
Natomiast te zdublowane opisy, jakieś opisy polskie,
opisy angielskie, pomieszane ze sobą,
to, że gdzieś tam nam się w międzyczasie coś potrafi otworzyć,
jakby pod spodem, to to jest wszystko prawda.
To się zgadza. I absolutnie tak aplikacja rządowa,
aplikacja, która powinna być zaprojektowana
z myślą o dostępności, nie powinna wyglądać.
To jest racja. I ja się z tym zgadzam.
Być może, jeżeli musiałbym z tej aplikacji skorzystać w praktyce,
ja ją sobie zostawię, powiem szczerze.
Będę obserwował ten rozwój, jak to wszystko będzie wyglądało.
Ja sobie po prostu, no być może jeżeli za kilka dni przyjdzie ta już oficjalna wersja
Zapstora, to też będzie aktualizacja i zobaczymy jak to wtedy będzie wyglądało.
Może tam jeszcze na ostatni moment wrzucą jakieś poprawki dostępności,
na co jednak średnio liczę. Natomiast jeżeli ktoś obawia się,
jeżeli ktoś jest niezbyt zaawansowanym użytkownikiem iOS-a,
to naprawdę chyba na chwilę obecną nie ma sensu aktualizować tej aplikacji,
bo po prostu nie zyskujecie nic.
Mają być tam jakieś pewne rzeczy, jakieś płatności w urzędach.
To jeszcze nie działa, bo oficjalnej wersji nie ma.
Kilka jeszcze innych dodatkowych rzeczy, dodatkowych funkcji.
Natomiast dostępność tej aplikacji, przynajmniej na iOS-ie,
jestem bardzo ciekaw jak to wygląda na Androidzie,
może ktoś zadzwoni i się podzieli wrażeniami.
Dostępność na iOS-ie jest słaba. Tak to nie powinno być.
I po prostu widać, że nad dostępnością tej aplikacji nikt nie siedział
i nikt tego nie konsultował, a jeżeli siedział i konsultował,
to zespół programistów najzwyczajniej w świecie zignorował te sugestie
związane z dostępnością.
Przynajmniej na chwilę obecną tak to niestety wygląda.
Smutne, ale prawdziwe, więc uważajcie na mObywatela.
Jeżeli ktoś nie boi się konieczności korzystania z różnych trików na iOS-ie,
jeżeli nie jest dla niego problematyczne, że coś jest po polsku,
coś jest po angielsku, te komunikaty się mieszają,
czasem trzeba gdzieś czegoś poszukać w interfejsie,
to spokojnie, to może aktualizować.
Natomiast ja tu się z Maciejem rzeczywiście zgodzę.
Nie warto. Na razie po prostu nie warto.
A teraz przechodzimy do kolejnych tematów.
Gdyby twórcy mObywatela działali jak twórcy Reapera, to by było dobrze,
bo np. najnowsza wersja Reapera przynosi poprawki w dostępności,
chociaż fakt faktem potrzebujemy zewnętrznego narzędzia,
żeby efektywnie korzystać z Reapera w postaci osary.
No ale sami twórcy też robią co mogą, żeby to korzystanie z Reapera
dla nas było jak najprzyjemniejsze.
O nowościach dostępnościowych teraz Piotr.
Dokładnie i to w ogóle te nowości, o których powiem,
to ponoć zostały dodane nadprogramowo.
Tam był jakiś plan rozwojowy tej aplikacji,
ale tutaj pan Justin Frankl, który jest główną osobą zajmującą się rozwojem Reapera,
poświęcił nam trochę czasu i kilka istotnych poprawek wprowadził.
A jakie to są poprawki? Mamy kilka takich rzeczy.
Po pierwsze poprawiono opis przycisku pozwalającego nam
ustawić domyślne ustawienia nagrywania dla nowych ścieżek.
Chodzi o to, że jak mamy jakiś interfejs audio,
który ma tam kilka kanałów wejścia i wyjścia,
możemy sobie ustawić jakie kanały domyślnie mają być zaznaczone dla nowej ścieżki.
I ten przycisk wcześniej był tak zetiketowany,
że tą etykietą po prostu był akurat wybrany kanał,
co dla nowych użytkowników było czasami trudne do zrozumienia.
Często to po prostu pisało wejście 1, wejście 2
i ktoś po prostu mógł nie zrozumieć o co tu chodzi.
A teraz po prostu ten przycisk będzie się nazywał
po prostu ustaw domyślne ustawienia nagrywania.
Więc będzie łatwiej go znaleźć.
Następna nowość jest jeszcze większa i to może naprawdę cieszyć.
Dodano opcję w ustawieniach wideo, żeby program wykorzystywał
zwykłe pole edycji dla wtyczki procesora wideo.
O co tu chodzi?
W Reaperze możemy wykonywać jakąś prostą edycję i obróbkę materiałów wideo.
Możemy sobie pliki wideo do tej aplikacji załadować
no i jakieś proste efekty na to wideo nałożyć.
I do tego właśnie służy wtyczka wideoprocesor.
Pewnie zauważyliście jak dodajecie sobie jakieś efekty do ścieżki
ona zawsze się wyświetla na samej górze listy.
No i ona właśnie służy do robienia różnych rzeczy z tym materiałem wideo.
Może nam jakiś tekst na niego narysować.
Może nam jakieś animacje, jakieś efekty zrobić, zmiany kolorów.
Tam różne rzeczy są.
To generalnie wygląda tak, że po oddaniu tej ścieżki
mamy listę presetów.
To są właśnie tutaj różne efekty.
Tam między innymi właśnie jest ta opcja, żeby dodać jakiś tekst.
To najczęściej osoby niewidome wykorzystują.
Lub żeby dodać jakieś animacje, aby łagodnie ten materiał ściemniać,
żeby jakieś przejścia zrobić i tak dalej.
I po wybraniu takiego presetu
jest tam też wyświetlane pole edycji z kodem źródłowym.
Bo ta wtyczka działa po prostu na takich krótkich skryptach,
które są pod nią wpisane.
I często w tych skryptach są jakieś miejsca,
w których my możemy sobie jakieś parametry wpisywać.
Na przykład jeśli chodzi o dodawanie tekstu do wideo,
no to właśnie tam jest na samej górze tego skryptu zmienna,
którą tam możemy sobie tekst, który chcemy, żeby się wyświetlił wpisać.
Problem jest taki, że pole do wpisywania tego kodu źródłowego
było dla nas kompletnie niedostępne.
Więc jeśli chcieliśmy to zrobić, no to trzeba było po prostu dojść do tego pola,
co nie było takie trudne, bo czytniki ekranu na Windowsie go w ogóle nie widziały,
więc tam po prostu trzeba było troszeczkę na ślepo tabem dojść w odpowiednie miejsce
i wtedy zrobić zaznacz wszystko, kopiuj.
Na Macu z tym było jeszcze trudniej, bo tam tabem się tam nie dało dotrzeć,
a voiceover tego w ogóle nie widział,
więc trzeba było się OCR-em ewentualnie posilić.
No a teraz po tej nowszej aktualizacji, jeśli zaznaczymy sobie to pole wyboru,
no to to pole zmieni się w zwykłe pole edycji.
Dla nas to znaczy bardzo dużo, no bo po prostu czy to jest voiceover,
czy jakiś czytnik na Windowsie nie będzie miał żadnego problemu,
żeby ten kod przeczytać.
On wtedy straci niektóre funkcje, które osoby widzące wykorzystują,
tam jakieś podświetlanie, nazw funkcji i tak dalej.
No ale my tych rzeczy nie potrzebujemy, a dzięki temu w końcu mamy do tego pola dostęp
i to jest bardzo ważne i fajnie, że tutaj firma nam pomogła.
Jeszcze jedna rzecz, która pojawiła się odnośnie właśnie tego procesora wideo,
poprawiono nawigację po presetach z klawiatury.
No bo właśnie tam jest lista rozwijana z tymi presetami,
która nie zawsze chciała działać tak jak powinna.
Tam tutaj trzeba było nacisnąć Alt i strzałkę w dół i wtedy się dało po tych presetach przemieszczać,
ale takie zwykłe naciskanie strzałek po prostu nie działało.
Teraz to wszystko zostało naprawione i spokojnie możemy do tej listy rozwijanej dotrzeć sobie tabem
i strzałkami góra-dół nie musimy nic otwierać,
sobie interesujący nas preset wybrać, no i później przejść z tego pola z kodem
i jeśli ewentualnie jakieś informacje chcemy uzupełnić, no to bez problemu je teraz uzupełnimy.
W okienku akcji możemy teraz usunąć skrót klawiszowy naciskając na nim klawisz Delete.
O co chodzi? No w Reaperze możemy przypisywać sobie skróty do każdej akcji w programie,
a tych akcji są tysiące i większość z nich nie ma dowiem się przypisanych skrótów.
Wcześniej było tak, że kiedy wybraliśmy jakąś akcję i przenieśliśmy się na listę skrótów,
mogliśmy nacisnąć Enter, żeby szybko przejść do okienka dodawania nowego skrótu,
ale nie mogliśmy w równie szybki sposób takiego skrótu usunąć.
Natomiast przycisk Delete dało się do niego bez problemu dojść tabem i go nacisnąć,
ale chciałoby się to zrobić jeszcze szybciej, no jeśli Enter działa,
no to czemu by nie dało się po prostu nacisnąć klawisz Delete.
No i od tej wersji 6.81 już też to możemy zrobić.
I tutaj była poprawka w API związana z poprawieniem jak niektóre wartości numeryczne
są przesyłane do aplikacji.
To dla nas ma o tyle znaczenie, że kiedy w okienku…
Przepraszam, kiedy w oknie parametrów osary przełączaliśmy np. parametr Bypass
na jakiejś wtyczce, które pozwala nam tymczasowo jakąś wtyczkę wyłączyć,
czasami musieliśmy nacisnąć czałkę w górę lub w dół kilka razy,
żeby ta zmiana nam zaczęła działać, bo tam ta wartość generalnie powinna mieć wartość
albo 0 lub 1, ale czasami tam jakieś inne wartości wewnętrznie się pojawiały,
przez co osara nieprawidłowo zmieniała te wartości,
ale w najnowszej wersji to też zostało poprawione i teraz wystarczy,
powinno tylko raz nacisnąć czałkę w górę lub w dół na tym parametrze Bypass
i on powinien nam zadziałać i bez problemu się zmienić.
I to w tej wersji wszystko, ale przypuszczam, że jeszcze całkiem sporo poprawek
dostępności w Reaperze jeszcze zobaczymy.
No to czekamy, oby były to poprawki pozytywne, dające kolejne obszary dostępności.
Dla użytkowników czytników ekranu, czy to na Windowsie, czy to na Macu,
bo na Macu też Reaper, przypomnijmy, działa, tam jest osara i też można sobie z tego korzystać.
Teraz, no cóż, chyba mniej pozytywna informacja z Wielkiej Brytanii do nas dociera.
To Paweł taką wiadomość znalazł, że w Wielkiej Brytanii chcą pozbyć się kas biletowych.
No i co to oznacza dla niewidomych?
Tak, chcą pozbyć się kas biletowych na mniejszych stacjach, na mniejszych dworcach.
Z tego samego powodu, z którego Szwecja pozbywa się zapowiedzi na mniejszych stacjach kolejowych.
Czyli, no skoro ludzie kupują teraz bilety głównie przez aplikacje mobilne i terminale samoobsługowe,
to po co nam kasy biletowe?
No i nagle okazuje się, że dla osób niewidomych jednak te kasy biletowe miały spore znaczenie.
I to z miliona powodów. Z jednej strony zawsze można było w takiej kasie biletowej…
Okej, wróćmy. Nie każdy jest biegły w używaniu nowoczesnych technologii.
I o tym trzeba zawsze pamiętać, że to, że my jesteśmy w stanie zrobić praktycznie wszystko aplikacjami
i słuchaczki, słuchacze naszego podcastu to są ludzie najczęściej oblatani w aplikacjach,
którzy wiedzą, którą aplikacją zrobić co, a jak jest niedostępna to gdzie wejść, żeby to wszystko zadziałało.
No, zwłaszcza osoby starsze, tracące wzrok w starszym wieku, osoby, które dopiero co straciły wzrok i się jeszcze przestawiają.
Milion jest takich przypadków, gdzie ktoś po prostu z tego smartfona, czy ze strony internetowej, no nie będzie w stanie skorzystać.
Wystarczy, że używa jakiegoś dedykowanego rozwiązania, a pamiętajmy, że dostępność teoretycznie np. Intercity jakąś tam dostępność ma przy zamawianiu biletów.
Ale szczerze mówiąc, odkąd ja korzystam z Coleo, no to nie przyszło mi już dawno do głowy, żeby zamawiać te bilety przez stronę Intercity.
A teraz wyobraźmy sobie, że dla kogoś to jest jedyne rozwiązanie i korzysta np. z telefonu, który nie ma aplikacji, typu jakiś Blind Shell na przykład.
No powiedzmy tak, też jest to opcja. No powiedzmy, że tu jeszcze też się zastanawiam na ile powiedzmy infolinie są jakimś rozwiązaniem.
Także dzwonimy na infolinie, no w Austrii zaproponowano mi na infolinie, mogę panu ten bilet zamówić, proszę podać mi numer karty kredytowej i kod CVV przez telefon.
To tak po amerykańsku.
Bardzo, bardzo. W Polsce chyba aż takich praktyk nie ma, chociaż nie wiem, nie próbowałem.
Natomiast właśnie, no teraz to jest jeden powód. I w Szwecji to samo, nie każdy korzysta, no i w Polsce też, z telefonów, nie każdy korzysta z technologii.
Niektórzy wolą po prostu podejść do okienka i poprosić, klasycznie. To samo też w bankach, no ile osób tak naprawdę jeszcze nie wypłaca gotówki z bankomatów, tylko woli podejść do okienka i poprosić.
I to w przypadku osób niewidomych też gdzieś było dość popularne rozwiązanie.
Natomiast druga rzecz to jest to, że w przypadku takich okienek z klasy biletowej podobno dużo prościej było pewne rzeczy załatwić, typu jakoś spontanicznie przebukować podróż, że nie wiem, nie chcę jechać teraz, tylko tam za godzinę, za dwie.
Czy może mi pani zmienić rezerwację, albo pan. Albo czy może mi pani, pan sprawdzić, czy jest jeszcze przestrzeń w pociągu, jest miejsce, żebym ja wszedł z psem przewodnikiem.
I tak dalej, że pewne kwestie było dużo łatwiej załatwić niektórym osobom, gdzieś tam z człowiekiem.
Ponoć przy niepełnosprawnościach też ruchowych różne kwestie związane, czy z jakąś konkretną zniżką, czy z rampami, chyba chodziło o konkretną jakąś tam zniżkę.
W ogóle nie dało się tego załatwić przez internet, bo system nie miał wprowadzonej opcji.
No ale też przy takich małych zwłaszcza stacjach, tego typu osoby, personel właśnie kas biletowych, to była jednocześnie asysta.
I zawsze było wiadomo, gdzie można taką osobę znaleźć, czyli przyjeżdżam w Anglii gdzieś tam na taką stację i się przesiadam na przykład na takiej małej stacji.
I teraz jak jest kasa biletowa, to mniej więcej wiadomo, albo można po odgłosach gdzieś ten, albo jak ktoś nam opisze,
zawsze w jednym konkretnym charakterystycznym miejscu jest ta kasa biletowa i można tą osobę znaleźć.
Natomiast teraz to nie jest tak, że tych osób nie będzie, tylko nie będzie ich w tym samym jednym miejscu.
One będą gdzieś sobie biegać po tym, po dworcu, one będą w różnych miejscach doglądać tam, czy wszystko okej.
Bardziej będą pełnić rolę takich strażników poniekąd, osób doglądających porządku.
No i dla osoby z niepełnosprawnością dużo trudniej taką osobę jest znaleźć.
Kwestie właśnie jakiejś asysty, tam gdzie nawet nie ma tych oznaczeń, linii prowadzących itd.
Kwestia gdzieś zabezpieczenia w nocy takich dworców, gdzie no ponoć zdarza się,
że panowie o niekoniecznie dobrych zamiarach zadzierżują, albo próbują desperacko zadzierżgnąć znajomości z paniami.
I nie każda czuje się z tym komfortowo, co jest normalne i zrozumiałe.
I zazwyczaj taki personel gdzieś tam albo można było się zwrócić, albo po prostu dbał o to, żeby te osoby takich akcji nie odwalały.
Natomiast no właśnie różne takie sytuacje, gdzie ta pomoc człowieka jednak była potrzebna
i zawsze ta pracownica bądź pracownik kas biletowych zapewniali to, że ta osoba tam była.
No teraz to już nie będzie zagwarantowane.
No i tutaj organizacje czy Guide Dogs for the Blind, czy nawet przedstawicielka brytyjskiej odnogi NFB się wypowiedziały.
I nie tylko oni, bo nie tylko osoby z niepełnosprawnościami, ale ogólnie też są protesty z uwagi na to,
że ludzie stracą pracę też i tu nie ma się co czarować.
I mówi się będą zorganizowane strajki kolejowe 20, 22 i 29 lipca.
Także jeżeli mieszkacie w Anglii, w Wielkiej Brytanii to no spodziewajcie się i szykujcie,
że mogą być po raz kolejny zresztą już w tym roku problemy z koleją w Wielkiej Brytanii.
No i miejmy nadzieję, że niewidomi i inne osoby z niepełnosprawnościami swoje wywalczą
i nie pozostaną bez opieki i bez asysty na tych małych dworcach.
Przed momentem przeczytałem wiadomość od Maćka, którą dziś opublikował na grupie Dostępne Apple
a propos mObywatela, ale Maciej teraz jest z nami, więc być może coś jeszcze doda do tego
albo będzie chciał poruszyć jakiś inny temat.
Witamy cię Maćku, poprosimy o włączenie mikrofonu i antena twoja.
Oczywiście. No tylko jeszcze tutaj trzeba się uporać z tym zoomem,
z wyrażeniem zgody na nagrywanie, ale mam nadzieję, że…
Halo?
O, jesteś, witaj.
A, bo przedtem się, że tak powiem zgoda pojawiła, ja potulnie zgody udzieliłem,
teraz znowu trzeba było… No dobra, znaczy ja generalnie dzięki Michale za podzielenie się
tą informacją zrobiłeś niezawodnie, akurat wyobraź sobie, w tamtym momencie się dołączyłem
na chwilę, żeby tak posłuchać, w sumie ja dzisiaj tak z doskoku dosłownie,
zresztą informacji, znaczy typu przeglądów mam niestety sporo do ponadrabiania
i tak dalej, więc też dzielnie nadrabiam, ale co do tego maila w ogóle kontaktowego,
tak, ten mobywatel-myślnik-pomoc-małpa-nask.pl to jest ten oficjalny,
a gdyby ktoś chciał sobie tam przetestować, to znaczy napisać na tego ich stricte testowego
jeszcze do tej wersji testowej aplikacji, to to niby jest mobywatel-myślnik-testy-małpa-cyfra.gov.pl
no tak, tylko pytanie tak jak mówię, czy on jest prawdziwy, bo akurat jak na tego maila pisałem
to, że tak powiem mnie odrzucało, znaczy prawda, że nie dostarczono.
Mail wracał po prostu.
Mail wracał, tak, tak, tak, więc ja nie wiem tak naprawdę co tam się, że tak powiem zadziało,
czy rzeczywiście tylko tak pro forma gdzieś tam tego maila zamieścili, żeby niby coś było,
a tak naprawdę nie ma nic, nie wiem, dlatego przez test flighta napisałem,
żeby jednak coś tam do nich dotarło, tak jak mówiłem, ale no powiem tak,
jak ja mam, że tak powiem gdzieś tam na nowo się aplikacji powiedzmy uczyć,
jeszcze jakby to było dostępne w sumie, znaczy takie komfortowe w użyciu może tak,
no to jeszcze powiedzmy pół bity, ale jak ja mam, bym miał coś szybko w tej aplikacji zrobić,
powiedzmy tak jak zwykle gdzieś tam to robię i miałbym się nią posłużyć,
no to teraz byłby problem, zwłaszcza inaczej.
To, że te usługi, których jeszcze jakby nie ma oficjalnie, no to, że one nie są dostępne,
no to ja jestem się w stanie z tym zgodzić, to zrozumieć, prawda,
ale żebym ja se nie mógł wyświetlić moich danych osobistych typu dowodu
i nie ten m-profil, który to tam ma być, który to nie będzie tym samym dowodem osobistym,
ale swojego dowodu osobistego nie mogę wyświetlić, to jest raz, a dwa,
innych dokumentów w ogóle, bo mi wywala komunikat, żebym zaktualizował dokumenty,
po czym jak chcę to zrobić, to w ogóle przejść nie chcę.
A to nie, to ja nie miałem takich problemów.
Rzeczywiście na samym początku pojawił się komunikat o tym, że twój dokument jest nieważny.
Zdziwiłem się, bo jest, no ale kazałem mu zaktualizować, zaktualizował
i rzeczywiście mi się wyświetlają te dokumenty.
Akurat mam ten m-dowód i legitymację emeryta i rencisty.
Te dwa dokumenty mam wyrzucone chyba na ekran główny,
chociaż tak naprawdę nie wiem, gdzie je mam, bo tam jest jakiś komunikat,
że jeżeli chcesz wrzucić tam jeszcze jakieś dodatkowe dokumenty,
to możesz je edytować i coś tam robić, ale to wszystko jest takie rzeczywiście…
Bo niby jest ta sekcja dokumentów, tylko to jest takie pomieszanie z dokumentami.
Nie, dokładnie ja właśnie o tym mówię Maćku, że ja się co do zasady to z Tobą zgadzam,
że ta aplikacja nie jest wzorem dostępności i tak to nie powinno działać.
Poprzednia wersja m-obywatela była lepsza, natomiast…
Na szczęście jeszcze jest i nie będę tego aktualizować, bo to naprawdę tak jak mówiłeś, nie warto.
Natomiast żeby to było tak kompletnie nieużywalne, to no tu bym się nie zgodził.
Tu bym się nie zgodził, bo jestem w stanie i to nawet być może kwestia telefonu innego
i tego, że się to u Ciebie gorzej zachowuje, tu absolutnie nie przeczę.
Chyba, że to w ogóle z wina trzeciej deweloperskiej siedemnastki, no ja nie wiem, być może też coś tam…
A, bo Ty się skusiłeś jednak.
A skusiłem się, bo byłem ostatnio na wyjeździe, kusiciel jeden mnie podpuścił,
ja tam wysyłam dzielnie różne rzeczy.
Okej, bo ja cały czas jestem na szesnastce i tu powiem szczerze, no jakoś to działa.
Jest gorzej, ale nie ma jeszcze jakiejś takiej totalnej tragedii.
Ale w sumie dobrze, że zwróciłeś na to uwagę, bo jeszcze jeżeli ktoś na przykład ma tego m-obywatela
zainstalowanego i chciałby to sprawdzić, to jest ostatni dzwonek tak naprawdę,
żeby sobie to zainstalować z test flighta, zobaczyć i zadecydować.
Okej, ja jestem w stanie z tego korzystać, dobra, no są problemy, ale dam radę.
Albo w drugą stronę nie, to mnie przerasta, ja nie chcę, no na razie się wstrzymuję i tyle.
Bo to jest aplikacja ważna dla naszego takiego codziennego życia i może być ona w różnych sytuacjach przydatna.
Zdecydowanie, no zwłaszcza jeśli ona nam teraz będzie ponoć dawała te różne możliwości,
będzie naszym takim swego rodzaju asystentem i tak dalej, no to właśnie fajnie, żebyśmy mieli wszyscy do tego równy dostęp.
Zgadza się.
Z tej racji nawet, że wcześniej tak naprawdę wszelkie wersje beta, które były dostępne,
to albo to był dostęp limitowany, albo wybiórczo też generalnie jakoś traktowali te zgłoszenia
i nie wszyscy się mogli dostać, no to sobie myślę, no dobra, no teraz skoro ten dostęp jest publiczny,
zobaczę sobie, przetestuję, no i cóż, no najwyżej nie stracę, znaczy nie no, w głupi sposób akurat straciłem
legitymację studencką, teraz trzeba się będzie jeszcze raz postarać w sekretariacie o nowy wniosek tej M-legitymacji,
no a tak naprawdę tylko tyle, bo ja tą aplikację musiałem wyinstalować, bo ta wersja się podmieniła,
żeby zainstalować jeszcze tą starą, no i przynajmniej sobie wyrobiłem zdanie na ten temat, prawda.
Wiem, że na razie tego nie będę aktualizować, tylko z wypiekami, że tak powiem, będę śledził,
co inni będą mieli akurat z tej kwestii do powiedzenia, no bo ona jest dla mnie, coś tam się da,
ale ja nie lubię, że tak powiem, jak coś tam się da, tylko jak to działa i mnie od razu, no może się nie będę wyrażał,
co mnie, ale no w każdym bądź razie to jest zdecydowanie w tym momencie aplikacja nie dla mnie.
Ja powiem szczerze, ja też i od razu przyznam uczciwie, nie testowałem tego jakoś bardzo długo,
przeklikałem przez tę aplikację zaledwie, powiem szczerze, ja tam nie widziałem rzeczy, której ja bym nie był w stanie zrobić,
tak, że na przykład chcę coś zrobić i nie mogę, ale no to wszystko jest jakoś, to wszystko wymaga jednak bycia w miarę biegłym,
mam wrażenie.
Może gdyby nie to, może gdyby nie to, że mi non stop wywalało błędy o tym, że dokumenty tam nie mogą być zaktualizowane,
że tam jakieś dziwne kody było mi tam, potrzebowało chyba tam zatem potwierdzić jeszcze tym profilem zaufanym, czy tam czymś,
no nie chciało mi to działać, a jeszcze czarę goryczy w ogóle przelało to, jak tam się chyba zdaje,
bodaj się chciałem na tego, na konto pacjenta zalogować, bo coś tam chciałem sprawdzić, no i też mam to ustawione,
że profil zaufany wysyła M obywatelowi push, żeby w ten sposób potwierdzać, no i jeszcze jak to się nie udało, jak to powiadomienia się nie pojawiło,
coś tego.
Bo nie wiem, czy to nie ty mówisz, czy gdzieś ja o tym nie słyszałem, czy ty nie masz włączonego w iOSie przekazywania prywatnego?
Wiesz co, ja to testowałem i z, i bez tego.
Aha, bo to jest w ogóle, ja nie wiem od kogo to słyszałem i czy gdzieś to czytałem, czy przypadkiem ty kiedyś w Tyflo Przeglądzie dzwoniąc nie wspominałeś o tym,
być może też ktoś inny, natomiast ja akurat się o tym przekonałem ponownie autoryzując sobie aplikację moje IKP, jeżeli macie włączone przekazywanie prywatne,
to będziecie mieć problem, bo po prostu.
Co ciekawe, z tym akurat ja problemu nie mam, ja miałem problem, w ogóle aplikacja z VPNem się bardzo nie lubi, natomiast jeśli chodzi o przekazywanie prywatne stricte,
to mi się akurat z mojego IKP dobrze korzysta pod warunkiem, że nie mam włączonego VPNa żadnego, poza tym przekazywanie.
Nie, właśnie być może teraz jakbym sobie włączył to przekazywanie prywatne, to już by było okej, natomiast kiedy musimy się zalogować, to ewidentnie to było problemem.
Ojej, to ja akurat nie miałem problemu, ja akurat z czym jak z czym, mimo że wesoło i w Montereju i w Venturze już chyba nie, ale w Montereju czy w IOSie 15 była wesoła informacja,
że to przekazywanie prywatne jest w wersji beta, no ja z tym problemu nie miałem, teraz komunikat już zniknął, więc pewnie to już nie jest beta,
w każdym razie przekazywanie prywatne tam gdzie ma zazwyczaj działać i nie powodować konfliktów, to tego nie robi raczej, więc to akurat…
A ja akurat ze swoich doświadczeń uczulam, szczególnie jakieś aplikacje rządowe, bankowe, że tu mogą się pojawić problemy.
To też może być ewentualnie tak, no to, że ja akurat u mnie problem nie występuje, to nie znaczy, że u innych nie wystąpi, dlatego też fajnie, że o tym powiedziałeś, że to też może być jakiś problem.
No i tak.
No i tak.
No i tak.
Czekamy, czekamy co tam zrobią z tym mObywatelem, miejmy nadzieję, że się polepszy.
Zdecydowanie, no na pewno warto do nich pisać, do nich naciskać, zwłaszcza jak to jest, no ta pierwsza wersja.
Żałuję tego, że nikt tego de facto z nami nie konsultuje nijak, prawda, niby są…
Jeszcze to najgorsze, że oni tak naprawdę wydali jakąkolwiek betę, jak to tak de facto już jest wersja RC tak naprawdę gotowa do wydania, na tydzień przed.
Co oni sobie w ogóle myśleli, nie?
Że wszyscy będą ich teraz głaskać po główce, że super aplikacja zrobiona, no na krytykę się jakoś nie otworzyli, no i teraz mamy taki stan rzeczy, jaki mamy, niestety.
Zgadza się, zgadza się, no niestety.
To dzięki za udział, że tak powiem, ja od dawna mnie tu nie było jako tako, wreszcie miałem sposobność, z czego się bardzo cieszę.
No i cóż, pozdrawiam wszystkich bardzo serdecznie i mam nadzieję do nie aż tak odległego razu jak.
Trzymaj się Maćku, dzięki za telefon, pozdrawiamy cię, do usłyszenia.
Cześć, cześć.
A teraz kolejna informacja, informacja tym razem ode mnie.
Jeżeli ktoś ma problem z Whatsappem, bo teraz znowu będziemy do Whatsappa właśnie wracać.
Jeżeli ktoś ma problem z Whatsappem, bo nie chce mu odtwarzać wiadomości na Windowsie.
No to ja też miałem z tym problem i już go nie mam.
Otóż w ustawieniach zaawansowanych naszej karty dźwiękowej, to znaczy tam panel sterowania, dźwięk, wybieramy sobie odtwarzanie
i w danym urządzeniu, na którym działa Whatsapp, wybieramy właściwości, następnie zakładka zaawansowane, wyłączamy ulepszenia audio.
I to pomaga, co prawda problem od czasu do czasu nadal występuje, żeby było ciekawiej, ale już tym razem pomaga po prostu zrestartowanie Whatsappa.
Zamknięcie i uruchomienie ponowne.
Wcześniej absolutnie to w ogóle nie pomagało i mogłem sobie odtwarzać, próbować odtwarzać, no w żaden sposób nie chciało to działać.
Po wyłączeniu ulepszeń audio, no Whatsapp zaczął odtwarzać wiadomości, co się rzeczywiście czasami przydaje i fajnie, że to działa,
bo wcześniej jedyną metodą, z której mogłem skorzystać, to było po prostu zapisanie takiej wiadomości dźwiękowej na dysku i odtworzenie jej na przykład w VLC albo w fubarze.
Także jeżeli też mieliście ten problem, no to spróbujcie tego, spróbujcie wyłączyć ulepszenia audio i oby się ten problem rozwiązał.
A teraz kolejny temat, było mniej pozytywnie o iOSie, to teraz będzie chyba bardziej pozytywnie o iOSie, a konkretnie o nowych ciekawych aplikacjach na ten system.
Zgadza się, bo w tym tygodniu tutaj wybitnie obrodziło, bo mamy aplikacje różne nowe i to takie, które okazało się nagle, że są dostępne.
Dwie takie, które odkryliśmy tutaj jako społeczność, przy jednej miałem przyjemność zgłaszać błędy i te błędy, znaczy błędy, propozycje dotyczące dostępności zostały wysłuchane,
no a drugą odkrył też nasz słuchacz Mieczysław, który szukał takiej aplikacji i nam ją właśnie udostępnił. Okazało się, że trafił na dostępną.
Ja już też jestem w kontakcie z autorem i bardzo sympatycznym człowiekiem się on zdaje, więc no już opowiadam w czym rzecz.
Pierwsza aplikacja to Octal for Hacker News. Hacker News to jest takie, jedno z naszych ulubionych chyba tu w Tyflo Przeglądzie źródeł informacji poza Tyflo.
Zwłaszcza w technikaliach, tak.
Zwłaszcza w technikaliach, zwłaszcza jak tu Paulina czasem przyjdzie z jakimiś newsami stamtąd, Ty Michale zresztą też, ja też.
Oj tak, tak, tak.
Jak na Twitterze, teraz na Mastodonie.
Hacker News na Mastodonie to u mnie po prostu jest to odrębna zakładka.
I słusznie, i słusznie, bo dużo tam ciekawych rzeczy. A czym Hacker News jest?
Jest to taki serwis, którego zasada, my już tu kiedyś opowiadaliśmy, ale warto przypomnieć.
Oczywiście w języku angielskim, gdzie wrzucamy link.
Podstawą dyskusji jest link.
Można oczywiście otworzyć też taki klasyczny wątek, gdzie o coś zapytamy albo coś przedstawimy, ale raczej większością są linki.
I potem wokół tego linku toczy się dyskusja.
Na Hacker Newsie jest ale jedna zasada.
My tam nie wrzucamy, nie wiem, ulubionych piosenek albo jakichś filmików o kotach, które są fajne i fajnie je oglądać,
ale to bardziej w klasycznych mediach społecznościowych.
A tutaj wrzucamy teksty, o których można sobie jakoś pogadać.
Czyli jakieś takie teksty typu naukowe, kulturowe, jakieś techniczne rzeczy, czyli będzie tam dużo.
Nauki plus nauki popularnej, programowania, różnych technologicznych rzeczy z różnych stron,
czyli no teraz wiadomo AI, wcześniej troszeczkę bardziej tam Bitcoin i różnego rodzaju alternatywne cyfrowe waluty, blockchain.
Ale też na przykład ludzie przedstawiają swoje projekty, które tworzą, różnego rodzaju na GitHubie czy w innych miejscach.
Jakieś wpisy ze swoich blogów na jakiś temat.
Ale po takich dużych tematów i to naprawdę nie jest tylko technologia, ale też właśnie biologia, jakaś chemia, psychologia,
ekonomia, polityka światowa, geopolityka, właśnie coś tam.
Wszystko możliwe, na co można sobie podyskutować.
Po takie naprawdę drobne rzeczy typu używałem telefonu z rozwalonym ekranem przez tydzień.
Jak to zrobiłem?
I jest blog jakiegoś pana ze Słowacji, który rozpił sobie ekran, ekran nie działał i jak on sobie radził,
opisuje prawda krok po kroku, jak za pomocą komend w ADB dzwonił do znajomych na przykład.
Albo na przykład kiedyś był bardzo fajny post o tym, jak pana zwolniono ze Spotify,
bo się tam pokłócił z jakimś menedżerem i miał bana na kolejne w ogóle zatrudnienie w Spotify kiedykolwiek,
bo ktoś taką decyzję podjął.
Tam naprawdę można znaleźć przeróżne, oczywiście jak znamy angielski,
albo jesteśmy gotowi tłumaczyć rzeczy tłumaczem, naprawdę przeciekawe historie.
Nie wszystko jest jakieś nie wiadomo jak skomplikowane i przeintelektualizowane.
Dla mnie naprawdę jest tam dużo no ciekawych rzeczy.
Czasami ktoś pisze o starych grach.
Kiedyś trafiłem na bardzo fajny odcinek podcastu, który ktoś podlinkował,
o tym jak teraz się wydobywa gry z japońskich starych telefonów.
Tim Toka kiedyś tam wrzucił nasz Mikołaj Hołysz z redakcji,
jak była pandemia i ludzie szukali różnych rozwiązań do komunikacji audio wysokiej jakości,
o małych opóźnieniach i była cała dyskusja o Tim Toku na Hacker Newsie.
No naprawdę różne ciekawe rzeczy można tam znaleźć.
No i to jest dość otwarta strona.
Tam już powstawały do Hacker Newsa czytniki, nie wiem, RSS,
czytniki w formie jakiegoś tam terminala coś tam,
aplikacje nowoczesne, aplikacje w stylu retro.
No i ja stwierdziłem tak gdzieś z rok temu, że poszukam sobie klienta Hacker Newsa na iOS,
bo skoro Reddit tak fajnie wtedy jeszcze działał,
no to można by może do Hacker Newsa też coś znaleźć,
zwłaszcza, że tam są właśnie ciekawe treści.
Można sobie je wrzucać, można komentować,
można sobie o nich podyskutować, można coś ciekawego odkryć.
No i znalazłem kilka klientów, testowałem różne
i ostatecznie najbardziej spodobał mi się właśnie Oktal.
I wypełniłem tam na GitHubie, bo to wszystko było open source,
więc zgłosiłem na GitHubie Oktala moje propozycje,
co tam powinno się zmienić odnośnie dostępności, żeby to fajnie wyglądało.
No i tak długo, długo, długo, bo chyba z dziewięć miesięcy
nie było żadnej reakcji na to moje zgłoszenie.
I nagle teraz jakoś w zeszłym tygodniu, w ciągu trzech dni
autor się uaktywnił, odczytał moje zgłoszenie
i zaimplementował absolutnie wszystko, o co go poprosiłem.
Więc aktualnie mamy aplikację, która w wersji darmowej
pozwala nam na czytanie i komentowanie historii.
W wersji płatnej aktywuje się nam pisanie naszych własnych postów
i jakieś tam ewentualnie w ustawieniach zmiany,
nie wiem czy tam te motywy, ciemny, jasny, jakaś personalizacja gestów,
które dla nas i tak na ten moment nie działają i różne inne funkcje.
Ale choćby dlatego, żeby autora za to, co w zeszłym tygodniu zrobił,
podczas gdy inni więksi i bogatsi tego nie robią,
warto mu zapłacić te 30 zł, zwłaszcza, że to jest 30 zł płacone jednorazowo.
I ja myślę, że takie osoby warto wspierać, jak Pan Dangu.
No i mamy teraz aplikację, w której
jeden post jest jednym fliknięciem.
Mamy na pokrętle czynności, które pozwalają nam otworzyć sekcję komentarzy,
otworzyć link. Jeżeli jesteśmy zalogowani, to także dać łapkę w górę, upvote.
No i dokonać domyślnej interakcji, czyli znowu, albo otworzyć komentarze,
albo otworzyć link, który jest podlinkowany do artykułu YouTube’a itd.
W zależności od tego, co w ustawieniach wybraliśmy jako akcję domyślną
na dwukrotne stuknięcie w konkretny post.
Kiedy otworzymy sobie komentarze, mamy…
Oczywiście wszystko jest zbite w jeden element, mamy odczytane,
kto wysłał co, jaki jest tytuł danego posta, tego oryginalnego,
kiedy, w sensie ile temu, ileś tam dni temu,
ile łapek w górę, ile komentarzy.
I teraz w ostatniej wersji autor dodał, bo na początku tego nie było,
z jakiej domeny pochodzi dany wpis.
Więc się przekonamy szybko, czy to jest jakiś, no nie wiem,
wiadomości z The Guardian, albo z Yahoo News, albo CNN,
czy to jest jakiś tam prywatny blog jakiejś osoby,
czy to jest projekt na GitHubie, no czy co to w ogóle jest.
Zwłaszcza, że tam chyba też są jakieś filtry, możemy sobie dodać
pewne domeny do czarnej listy, że nie chcemy widzieć stamtąd postów itd.,
więc przeszukiwanie całego Hacker News’a również tam jest,
więc bardzo fajna rozbudowana aplikacja.
Możemy dodawać sobie artykuły do ulubionych.
Jest bardzo fajnie.
Jak wejdziemy w komentarze, no to komentarze również,
podobnie jak na Reddicie, jak na Facebooku, na Mastodonie w sumie też,
są hierarchicznie pogrupowane,
czyli zaczynamy od jakiegoś naszego komentarza
i na ten nasz komentarz może ktoś odpowiedzieć
i to otwiera kolejną gałąź, jakby poziom drugiej dyskusji,
czyli możemy dyskutować sobie dalej wchodząc w ten poziom, wchodząc, wchodząc,
ale w każdym momencie dyskusja może się odgałęzić
i odbić w inną stronę.
I w tym momencie mamy np. dwa komentarze na poziomie drugim,
no ale na tym poziomie drugim rozwinął się nam poziom trzeci
i w ramach tego tych komentarzy jest 15,
bo się otwarła taka ciekawa dyskusja, że warto odpowiadać.
No i tutaj był największy chyba problem, jak to ogarnąć,
zawsze to jest największy problem.
I w tym momencie możemy za pomocą,
tego też w pierwszej wersji dostępnej nie było,
teraz w zeszłym tygodniu to doszło,
możemy za pomocą czynności na pokrętle te komentarze zwijać i rozwijać
na konkretnym poziomie i nawigować również jeden komentarz,
to jest jedno fliknięcie.
No i też w menu mamy opcję przeglądania
konkretnego wątku dyskusji w osobnym jakby widoku,
z którego możemy potem sobie gestem potarcia dwoma palcami wrócić.
Więc dla każdego coś się znajdzie,
jakiś sposób przeglądania tych komentarzy,
no i można jak najbardziej prowadzić z nimi interakcję.
Jak widać autor teraz jest gdzieś tam na fali
i aplikację rozwija,
więc póki to się dzieje,
warto zgłaszać sugestie, zanim znowu uda się na sen zimowy
i na te sugestie reagował tak szybko nie będzie.
Druga aplikacja to Pidgin,
i nie mylić z pidginem,
to nie pidgin, tylko pigeon,
jak gołąb po angielsku
i jako gołąb pocztowy nasz posłaniec,
a jak od gołębia już przejdziemy do telegramu,
no to klient telegrama na Apple Watcha.
Jest to klient dostępny,
klient, w którym autor chyba świadomie tą dostępność planował,
bo z tego co nawet z autorem pisałem,
to jego niewidomy znajomy konsultował aplikację
przez cały proces tworzenia.
No i rzeczywiście mamy objaśnienia w hintach,
w podpowiedziach, co każdy przycisk robi,
mamy czynności na pokrętle,
wszystko jest ładnie odczytywane, zaetykietowane.
Aplikacja wymaga do tego,
żeby przejrzeć więcej niż zdaje się 20 czatów
i żeby wysyłać wiadomości, w tym wiadomości głosowe,
wymaga subskrypcji i ta subskrypcja kosztuje zdaje się
10 złotych na miesiąc lub 70 na rok, więc tu
no sami musicie rozważyć, jak często używacie telegrama
i czy to jest koszt, który jesteście skłonni ponieść.
A czy autor planuje, czy wiesz może,
czy ma gdzieś w planach też wersję na iOS?
Pytałem i autor,
bo wyłuszczyłem na czym polega problem, że osoby niewidome
nie są w stanie na iOS korzystać z telegrama,
jak jest, czyli telegram raz na rok się obudzi,
rzuci jakieś trzy zmiany i to jest wszystko, a te poważne problemy
dalej są nierozwiązane i autor na razie taką nicią popłynął,
że no on w sumie nie wie, czy może,
bo okazuje się, że deweloperzy takich zewnętrznych aplikacji
do telegrama mogą sobie wyrobić tylko
jeden klucz, taki API, który mogą udostępniać
swojej aplikacji. No myśleliśmy, że
na konto jakieś deweloperskie, okazuje się, że na numer telefonu,
czyli wystarczyłoby, że autor by wyposażył się w drugą kartę SIM
i już może sobie wygenerować nowy klucz i tworzyć dalej.
I stwierdził, że on zajrzy
najpierw do kodu aplikacji tej oryginalnej telegrama
i zobaczy, na ile trudne jest naprawienie tego, co tam jest popsute
i z tego, co pamiętam, ta struktura tego kodu była
bardzo nieprzejrzysta, więc niczego nie gwarantuje.
No i też to w takim właśnie głościu powiedział, że
kiedyś, ja zaznaczyłem mu, że
bardzo by tym otworzył wielu ludziom
możliwości, bo aplikacja po prostu jest
na moje, do produktywnych działań.
Dzisiaj mieliśmy o tym dyskusję na Eltenie.
Nieużywalna tak naprawdę.
Ja jeszcze dodam więcej. To, że poprawki
przez niego nawet zostaną naniesione, to warto, żebyś też
może Pawle gdzieś tam w dyskusji o tym wspomniał,
bo zdaje się już z Telegramem była swego czasu
taka sytuacja, że ktoś tam
poprawki dostępności zrobił, tylko co z tego,
jak Telegram, ludzie z Telegrama
to najzwyczajniej w świecie zakomentowali
te poprawki w kodzie.
Tak, tak, natomiast wiesz, ja myślę, że jako, że
dyskutowaliśmy o nowym kluczu API i tak dalej, to ja rozumiem,
żeby na to uwaga był brany fork.
Więc tutaj autor pewnie, może by bazując na kodzie oryginalnym
Telegrama, ale robiłby poprawki dostępności
jak w swój projekt. No, to by było rzeczywiście, myślę,
że coś fajnego i co mogłoby, szczególnie,
że Telegram ma, zdaje się, jakąś taką po prostu też bibliotekę,
która pozwala na to,
bo są klienty na iOS-a
telegramowe zewnętrzne, no tylko co z tego, jak one działają
podobnie jak… No to też są forki jakieś.
Dokładnie, dokładnie. Jest
Bright Guide, ale tak jakby go nie było, bo tam
wiadomości tekstowe można tylko, nawet jakby ktoś chciał
kupić te opcje wiadomości głosowych, to się nie da,
bo się pojawia błąd.
O, to szkoda. No, właśnie ten Pidgin bazuje
na bibliotece TD, chyba Gram.
To taka oficjalna, niby deweloperska.
Ja nie wiem, czy to nie jest ta sama, której używa Twiscake.
I nie wiem, czy z tego też powodu tam nie ma jakiegoś problemu
z wsparciem dla rozmów głosowych i wideo, bo rozmów głosowych
na watchowym tym Pidginie nie ma na ten moment.
Można pisać, czy to klawiaturą
na tych watchach siódemkach i wyższych, czy dyktowaniem.
Można nagrywać głosowe
i ich słuchać. Można organizować sobie
czaty w foldery.
No, różne rzeczy można robić. Ustawień jest tam ponoć też dość dużo.
Natomiast rozmów głosowych i wideo nie ma.
No i tak jak mówiłem,
jest tam, obowiązuje subskrypcja roczna.
No, ale jeżeli ktoś bardzo potrzebuje
na watchu mieć telegrama,
aha, jeszcze jedna uwaga.
No i tutaj WhatsApp się próbuje wykaraskać z tego problemu telegram.
Okazuje się, że oferuje tę funkcję i niektóre aplikacje
tylko tak to wspierają.
Żeby autoryzować Pidgina należy zeskanować kod QS zegarka.
Żeby to zrobić, bo to nie dla wszystkich może być jasne,
wchodzimy w ustawienia telegrama, wybieramy sekcję urządzenia
i tam przycisk połącz komputer.
I wtedy pokazuje nam się taki widok,
w którym już telegram, właśnie jego dostępność wysiada.
Czyli jest przycisk wróć i jest element, który nie mówi nam nic.
Prawdopodobnie jest to wizjer aparatu i należy wtedy
telefon nakierować na zegarek.
Ja wiem, że z tym już są problemy.
Podobno pomaga robienie tego w ciemnym pomieszczeniu.
Takim, gdzie światło nie dociera, bo wtedy chyba sam świecący
ekran zegarka wystarczy, żeby jakoś celniej nakierować.
Możliwe, że światło gdzieś tam dzienne, słoneczne
rozmywa to jakoś na tym ekranie.
Natomiast wiem, że z tym problemy są.
Nie wszyscy sobie z tym jakoś radzą, więc próbujcie do skutku.
No a my będziemy dyskutować dalej z autorem,
No właśnie dwa dni po tej naszej dyskusji na temat tego,
że ten kod jest trudny i że może kiedyś napisał, że sprawdzał
i jest w stanie na innym numerze wygenerować sobie nowy klucz API,
więc ja na zachętę wrzuciłem pidżna na AppleVis
i napisałem mu o tym.
No i czekamy, czy autor coś odpowie i czy zareaguje.
Ale też o ile fajnie jest wyrażać, myślę, wsparcie,
poparcie dla projektu i autora gdzieś motywować,
to też nie ma się co na nim uwieszać, bo jest to
niezależny tak zwany Indie, który robi to wszystko
prawdopodobnie w jakimś swoim czasie wolnym
i jak zrobi, to zrobi.
Takiego obowiązku bynajmniej nie ma, ale skoro już zaczął
i skoro już gdzieś temat nie jest mu obcy,
no to może kiedyś uda mu się to dociągnąć.
Fajnie by było. My będziemy oczywiście trzymać rękę na pulsie.
No i aplikacja trzecia, czyli aplikacja namaka Rename
do masowej zmiany nazw plików
z przeróżnymi opcjami,
z przeróżnymi profilami używania,
z możliwością tak naprawdę podglądu tego,
co nam wyjdzie zanim jeszcze te nazwy oficjalnie zmienimy,
a nawet jak ją zmienimy, to do zamknięcia programu
możemy jeszcze przywrócić to, co było przedtem.
Różne wsparcie dla różnych zestawów znaków,
różne profile używania, można sobie to przełączać, zmieniać.
Poczytajcie sobie na Apple Vis
albo na oficjalnej stronie w App Store.
Aplikacja ponoć w pełni dostępna.
A również link będzie w komentarzu.
A tymczasem ponownie jest z nami Maciek,
więc zobaczymy, może jeszcze jakieś
nowe wieści ma dla nas.
Maćku, jesteś?
Włącz mikrofon i już możemy się komunikować.
O, chyba się udało.
O, ale teraz już chyba jestem.
Dobra, bo tak coś mam problem z tym zoomem.
Dawno nie używany, więc tak.
Ja mam w sumie szybkie pytanie bardziej do Piotrka,
bo ty jakkolwiek z WatchOS-em masz cokolwiek wspólnego?
Tak.
Bo mam pytanie, wiesz, jeśli chodzi o wysyłanie
plików diagnostycznych do Apple,
jeśli chodzi o WatchOS-a.
Orientujesz się, czy jeszcze w WatchOS-ie dziewiątce
z poziomu Watcha to można było w ogóle jakkolwiek zrobić?
Wiesz co?
Bo ja teraz się porządnie zaskoczyłem,
jak tam dzisiaj oczywiście w najmniej spodziewanym momencie,
a to jest urok testowania bet deweloperskich,
w każdym bądź razie zegarek nagle przestał wesoło do mnie mówić.
Znaczy dźwięki voice-overa były jak najbardziej,
przestał mówić.
No i przycisnąłem te klawisze obok się,
koronkę i boczny, tylko że jakby taka wibracja
i nagle iPhone mi wywalił, że
diagnostic files are in flight.
No i tak się tym zdziwiłem,
bo kiedyś szukałem informacji jak z Watcha jeszcze,
powiedzmy, żeby na Watchu wygenerować,
żeby to nie apka Feedback Assistant
generowała tylko, żeby to z Watcha zrobić.
Za chwilę tego znaleźć nie mogłem,
a tutaj dzisiaj ot tak.
Czy musiało coś być niedawno dodane do tego?
Chyba się też kiedyś coś takiego zdarzyło.
Nigdy nie miałem sytuacji, żeby mieć potrzebę,
żeby ręcznie te diagnostyki wygenerować,
ale kiedyś też taką informację dostałem,
więc bardzo możliwe, że to jest teraz oficjalnie wspierane.
To być może świeża sprawa, nie?
Nawet szukałem jak to na iPhone fajnie,
prosto zrobić, na Macu w sumie też.
Na Watchu tego nie było.
Teraz generalnie można i fajnie.
Coś chciałeś?
Chciałbym tylko powiedzieć, że jeśli ktoś korzysta z tych wersji beta
i zgłaszamy jakieś problemy,
tak jak już sam powiedziałeś w aplikacji Feedback,
jeśli zaczniemy pisać nowy feedback i wybierzemy,
czy on Watch OS-a, to aplikacja zacznie automatycznie…
Generalnie zbiera te dane z używania.
Co ciekawe, to też działa w inne strony,
tak na przykład jest identycznie,
jeśli na Macu zaczniemy sobie pisać nowy feedback na iPhona,
to aplikacja jest na tyle mądra, że znajdzie nasz telefon
i przez Wi-Fi sobie te diagnostyki ściągnie.
Więc jeśli ktoś nie chce pisać na klawiaturze od telefonu
albo nawet z klawiaturą Bluetooth podłączoną,
które są bardzo małe, krótkie,
no to spokojnie można sobie na komputerze
te feedbacki związane z iOS-em też pisać
i ta diagnostyka też będzie do nich załączona.
Też to miejsce ekranu Brajla.
Wiesz co, kiedyś beta próbowałem to ogarnąć w ten sposób,
żeby sobie to na Macu zrobić
i się okazało, że normalnie wysłałem feedback,
kulturalnie podziękował.
I tam żadne pliki mi się w ogóle nie załączyły.
Więc ja nie wiem w sumie o co chodzi.
Tego kiedyś nie było.
Nie wiem ile wersji tam było dodane, ale teraz już tak na pewno jest.
Aha, bo widzisz, ja to jakoś chyba w tamtym roku
gdzieś tam robiłem, bo wiesz, znalazł mi normalnie ten telefon
po Wi-Fi, niby było, że wiesz,
że on będzie gromadził te pliki,
no a się finalnie okazało, że tych plików nie było.
Dobrze, że mówisz, że teraz też tak można, że one już są na pewno,
być może przetestuję.
U mnie były, mniej więcej.
Bo teraz, no to wiesz, korzystam i jak już wreszcie mi uniwersalny schowek
zaczął działać i już się nie zanosi, żeby przestał działać,
no to teraz rzeczywiście robię tak, że piszę sobie jakiś tekst,
edicję w czymś tam, a potem dopiero tam kopiuję
i też to zdaję egzamin.
Że to po prostu zdaję egzamin.
Wiesz, co? Chciałeś?
Nie, nie, dokończę.
Ale generalnie nawet nieraz, nie wiem, czy w Apple Accessibility,
jak się pisze maile do nich, to proszą o pliki diagnostyczne
choćby nawet czy na wsparciu Apple’a czy tak dalej
i nie każdy, że tak powiem, do końca jest w stanie
jakoś tam zajarzyć, jak te pliki sobie wygenerować,
no to może powiem tylko tyle,
że na iPhone’ie rzeczywiście, zwłaszcza jak to się już
ujednoliciło, język polski trudny być,
no to tak, no to sobie właśnie trzeba wcisnąć
oba przyciski głośności plus włącznik
i tak sobie to trzymać dopóki wibracji nie poczujemy
i wtedy mamy tą pewność, że się nam
te pliki zaczną generować.
To dla tych w sumie, którzy gdzieś tam nie do końca by wiedzieli,
jak to ogarnąć.
No i potem ustawienia prywatność i tam dane diagnostyczne
jakoś tak to się tam nazywa czy analiz
i tam gdzieś wśród 40 plików sysdiagnose
podkreślnik coś tam, coś tam, coś tam,
taki plik możemy znaleźć w zasadzie archiwum chyba całe
udostępnić i potem to gdzieś przesłać dalej.
To taki, powiedz mi, protip dla tych,
którzy gdzieś tam nie do końca by to.
No na Macu jest sprawa w sumie prostsza, tam wciskamy wszystkie
trzy obok spacji, nie wiem czy FN, nie FN chyba nie,
Command, Control, Option, Shift, kropka
i tam też trzymamy przez parę sekund.
No i on tam nam pod, aż czekamy, czekamy aż się, jak nie mamy wersji testowych,
no bo jak mamy wersje testowe, to od razu powiadomień nam wyskoczy,
czy chcemy wysłać feedback, a jak nie, no to czekamy,
aż się folder TMP otworzy i tam będą,
tam będzie też cały plik diagnostyczny,
możemy sobie to przekopiować ewentualnie na jakieś biurko czy coś,
żeby to wysłać gdzie trzeba. To tak tylko zahaczając,
jak już mówimy, jak już zadałem pytania.
No a na Watchu, tak jak mówiłem, wcisnąć oba te
przyciski fizyczne, które są, też tak powiedzmy
do tej pierwszej wibracji puścić i no i też się tam
to wszystko powinno ogarnąć.
Jakby ktoś kiedyś coś potrzebował, prawda, no to.
No i super.
A propos jeszcze uniwersalnych schopków i takich rzeczy,
to tak trochę zmianę tematu, ale też wracając
do aplikacji Broadcast, to ja
przedwczoraj odkryłem, że bardzo fajnie też wspiera ten
mechanizm hand-off. Dla tych, którzy nie wiedzą o co chodzi,
to jest system, który pozwala aplikacjom na iPhonie,
ale też stronom internetowym, co ciekawe, bo np. aplikacja Twitch
też bez problemu potrafi wysłać dane do
przeglądarki Safari, czy tam innej w systemie.
Pozwala nam po prostu
przenieść to, co robimy, na inne urządzenie. I jak to wyglądało w praktyce?
Wracałem do domu i słuchałem
akurat w aplikacji Broadcast radia z Wimbledonu.
Wróciłem do domu, otworzyłem Maca i sobie
command tabem zacząłem rozglądać się po
przełączaniu aplikacji. Tam wtedy się wyświetla taka etykieta
hand-off. I jak puściłem command…
Tak, dokładnie. Tam już tak to się wyświetla.
Tak, hand-off badge, to jest właśnie taka
ikona hand-off.
Wyjdziemy, puścimy klawisz command, no to ładnie nam się
na Macu mi wtedy otworzyła
aplikacja Broadcast i automatycznie ta stacja, której słuchałem
na iPhonie, otworzyła się na Macu. Już wtedy ładnie mi zaczęło na głośnikach
lecieć. Mógłem wtedy iPhone zamknąć i już sobie
słuchałem tego na komputerze.
Więc taki kolejny plus dla tej aplikacji.
Tak, to jest w ogóle bezcenne. Zwłaszcza ja mam wrażenie, że oni to w Venturze
wreszcie naprawili, bo tam ja miałem przez te lata
3 chyba czy 4 problemy z tym uniwersalnym schowkiem
i tym hand-offem jako takim przekazywaniem.
Od Ventury wreszcie się uspokoiło
zarówno na moim… A wróć, przepraszam. Nie.
Od na Montereju chyba nawet naprawili. Wydaje mi się, że na moim starym
Macu to już normalnie zaczęło w pewnym momencie działać
pod wersji Montereya, no i teraz na nowym
Macbooku też. Więc w sumie fajnie wiedzieć. No i tych aplikacji
też chyba się zaczyna pojawiać gdzieś tam coraz więcej.
Myślę, że one rzeczywiście wspierają to przekazywanie
treści w obrębie jakby
na kolejne urządzenia, więc no.
No, że to działa fajnie. I komu działa też fajnie.
I oby jak największej ilości
użytkowników działa. Dokładnie, dokładnie.
Bo to chyba się też zaczęło od tego. Ja tam jeszcze ludzi też gdzieś tam
podpuszczałem. Ja sam męczyłem o to apla i innych gdzieś tam.
No i w końcu chyba udało im się ten problem wyizolować, dlaczego im to nie działało.
Prawda? No, także.
Dobra, no to dzięki. Dzięki za telefon.
Pozdrawiamy. A jakby coś jeszcze
przyszło Ci do głowy, no to my tu jeszcze chwilę posiedzimy.
Może nie tak jakoś bardzo długo, ale jeszcze
kilka tematów mamy do poruszenia. I jasne, feedback i idę.
A, chociaż jeszcze jedno pytanie do Ciebie, Piotrek, a propos
bety właśnie. Zauważyłeś taką
prawidłową, nieprawidłową. Dlaczego prawidłową?
No bo to jest beta, więc się ma prawo wszystko dziać, ale
że pliki PDF się w ogóle dla voiceovera nie są widoczne?
Nijak? Wy na iOSie?
Wiesz co, nie próbowałem plików PDF na iOSie otworzyć. Akurat na Macu
to się ucieszyłem, bo tam akurat zaczęły lepiej działać.
I o tym wspominałem. Czy
ostatnio jakieś pliki PDF otwierałem na iPhone’ie? Nie, nie kojarzę.
Ja zawał serca dostałem, jak miałem bilet okazać się
w tym pociągu, wiesz. I jeszcze
w domu miałem szesnastkę
u kumpla pewnego, zaktualizowałem do siedemnastki
i jak chcę otworzyć Ci bilet, to ups, w ogóle nic nie…
Jakby nie screenshot i live text, to bym, że tak powiem, myślał, że
coś się w ogóle wysypało. I to jest plik, który normalnie jest
czytany, tak? To nie był jakiś PDF pobrazkowy.
Tak, tak, tak. Więc to ewidentnie błąd
jakiegoś tego typu i no, ile czego właśnie zgłaszać?
No, bo jest ewidentnie problem. Ja też coś później przetestuję,
ale jeśli też zobaczę to u siebie, to też zgłoszę.
Aha, dobra. No, to fajnie. To cześć.
Trzymaj się Maćku, dobrej nocy. Pozdrawiamy.
Pozdrawiamy, a ja widzę, że w poczekalni
mamy jeszcze jednego słuchacza,
mianowicie Bartosza, więc za momencik
jeszcze wpuścimy go na antenę,
idąc już tak za ciosem, bo…
No, jeszcze mamy, tak jak wspomniałem, kilka rzeczy,
więc teraz taka nieco dłuższa przerwa
na wasze wypowiedzi. Przypominam, że one nie muszą
być tylko głosowe, mogą być też pisemne.
Dziś akurat cisza w naszych
drogach kontaktu typu YouTube,
Facebook i kontakt.tyflopodcast.net.
No, ale za to jak słychać dzwonicie, a Bartek jest już z nami.
Witaj. Słuchamy. No, witam serdecznie.
Ja do was dzwonię problemem praktycznie.
Ostatnio zauważyłem u siebie
na iPhonie, że mam problem z wykonywaniem gestów.
I to nie chodzi o moje gesty manualne,
tylko chodzi o wykrywanie testów przez iPhona.
Że po prostu on mi tych gestów nie łapie.
I to praktycznie można powiedzieć tych
nawet podstawowych.
Nawet jeżeli chodzi o eksplorację po ekranie zauważyłem,
że mam z tym problem, gdyż
wczoraj chociażby jak wyświetliła mi się
klawiatura numeryczna i
aktualnie fokus, czyli mój palec znajdował się na cyfrze
8 i chciałem zrobić w górę, żeby przejść
na piątkę albo i wyżej,
to była po prostu cisza.
Czy też, no, tych przykładów mógłbym tutaj cytować
dość dużo, chociażby odbieranie połączeń,
dwa razy dwa palce, nie łapie mi takich
gestów, a nawet zdarza się,
że dwa razy dwa palce odbiera jako dwa razy trzy palce
i wyłącza mi samą mowę voiceovera.
Czy wy może też, nie wiem, ostatnimi czasy mieliście
taki problem? Ja nie. Ja też.
Ja również nie.
Bo właśnie się zastanawiam, czy to nie jest kwestia techniczna.
Wariantów jest kilka, najmniej prawdopodobny, ale
warto sprawdzić, bo już ktoś się kiedyś do mnie zwrócił z problemem,
że od rana zepsuł się telefon i nie działa.
Okazało się, że włączyło się rozpoznawanie ekranu.
Pytanie, czy to nie to na pokrętle przez przypadek.
Nie, ja nie mam na pokrętle ustawionego
tego rozpoznawania ekranu.
A masz szkło ochronne na ekranie? Nie.
Nie masz, dobrze.
Restart oczywiście próbowałeś, nie pomaga.
Pawle, to już dokładnie chyba 22 czerwca,
jak dobrze pamiętam, bo dzisiaj dzwoniłem do Apple
w tej sprawie, oni to weryfikowali, wtedy do nich dzwoniłem.
Wtedy zalecili mi zresetowanie
tych ustawień, czyli głośniej, ciszej i power.
Na jakiś czas to pomogło,
ale wczoraj nawet miałem taką sytuację,
że po zablokowaniu iPhona, przypomnę, że to jest tylko
trzynastka, w ogóle nie mogłem go odblokować
przez chwilę.
To dziwne rzeczy dziś się dzieją, powiem szczerze.
Bo nawet możecie mi wierzyć
lub nie, tak ujmę to już żartobliwie,
że nie mogłem przejść do zasobnika aplikacji.
A czy osoba widząca
może normalnie używać tego telefonu?
U mnie niestety nikt nie używa
iPhona i że tak powiem nikt się raczej tego nie podejmie.
Nie ma na kim tego wypróbować.
Okej, rozumiem.
No bo to byłby też jakiś taki miernik, żeby sprawdzić, czy z ekranem coś nie jest
efektywne. A ja bym proponował, Bartku,
tak jeszcze, żeby wykluczyć inne rzeczy,
żebyś sobie odpalił ćwiczenie VoiceOver
i tam potestował różne gesty, żeby zweryfikować,
czy na jakiejś takiej, wiesz, w takim jakimś bezpiecznym miejscu,
czy on zawsze chwyta te gesty,
czy też i tam jest problem.
I na to jest też chyba gest dwa razy cztery palce, tak?
Tak, to jest pomóc VoiceOver.
Tak. I wtedy można próbować te gesty i jak on rozpoznaje
to, co ty robisz?
Tylko zastanawiam się, że jeżeli problem by leżał
w konkretnym miejscu, to chyba właśnie
w jednym miejscu by ten problem się zdarzał, a tutaj jakby na całym
ekranie go można odebrać.
To znaczy, wiesz, zawsze można spróbować
zrestartować w ogóle ten telefon raz jeszcze.
Próbowałem. Próbowałeś, tak?
Oczywiście.
Powiem tobie, Michale, tak, chwytałem się wszelkie gesty i ratunku.
Ale powiedz mi, czy to znowu pomogło na jakiś czas, czy nie?
Na chwilę tylko tak naprawdę.
Ta chwila to było tak bardziej pięć minut,
godzina, czy parę dni?
Powiedzmy parę dni, zmieśćmy się w tym terminie.
To ciekawa jest sprawa, powiem szczerze.
Powiem wam tak, co mi dzisiaj zalecono, bo dzwoniłem ponownie
na infolinię, bo wczoraj próbowałem się dodzwonić, ale niestety
już było za późno, bo byli zamknięci, więc
zalecono mi wyczyszczenie iPhona za pomocą iTunesa
przez komputer, czyli całkowicie jakby wyczyszczenie systemowych
plików iOS-a.
No, odpukać udało mi się załatwić sprzęt
wastępczy i po tym, żeby
postawić konto Apple ID, ale zupełnie czyste,
bez przywracania z backupu, tylko jakby
postawić konto na nowo, czyli
po prostu tylko Apple ID, hasło
i żeby było tak, jakby był iPhone wyjęty z pudełka.
No i tak naprawdę
prawdopodobnie zajmę się tym dopiero w sobotę,
ale zobaczę, czy to pomoże.
Powiem szczerze, Bartku, ja bym spróbował
ewentualnie, zanim podejmiesz
takie drastyczne kroki, bo ja się domyślam, że to
trochę zejdzie ci odzyskiwanie tego wszystkiego.
Ja bym spróbował samego takiego resetu i przywrócenia,
jeżeli już chcesz pójść tą drogą.
To niekoniecznie, wiesz, rezygnować z tego backupu,
tylko jakby zresetować rzeczywiście
telefon, ale odtworzyć go mimo wszystko z tego backupu.
Tutaj na infolinii
powiedzieli mi, że
przywrócenie z backupu też może
mieć w sobie same ustawienia Washobera, więc
dlatego zalecali, żeby było na czysto. Ale ja bym mimo wszystko
jednak spróbował najpierw odzyskać backup.
Jak powiedziałem, ja będę miał telefon, że tak powiem, zastępczy
i na drugim telefonie właśnie tym zastępczym
oczywiście muszę mieć jakiś sprzęt do użytkowania,
więc na tym zastępczym będę
przywracał z backupu, nie że z iPhona na iPhono,
tylko tak jak napomniałem, z backupu i zobaczę, jak tam się będzie zachowywał.
Bo jeżeli rzeczywiście
tam wszystko będzie w porządku, tylko
obawiam się, czy wersja
iOS-a może mieć znaczenie, bo to jest niestety iPhone SE,
czyli już niewspierany.
Oj, zdaje się, że tak.
Zdaje się, że tu może mieć to znaczenie.
Bartku, ja bym mimo wszystko
na dobry początek, jeżeli już, to ja bym
spróbował, bo to nie powinno też
zająć Ci z drugiej strony jakoś bardzo dużo czasu.
Nie, no tutaj pani Poliniwski powiedzieli, że samo
przywracanie do czystki przez komputer zajmie
mniej więcej pół godziny, no wiadomo, zależy od połączenia internetowego.
Tak, ale zresetować ten telefon i mimo wszystko przywrócić
z tego backupu i zobaczyć, co się będzie działo.
Potem oczywiście, jeżeli i to nie pomoże,
no to wiadomo, trzeba
będzie spróbować tego, co tam potrwa,
no jeszcze ewentualnie spróbować na czysto
rzeczywiście poużywać tego telefonu.
Już pominąć ten backup, ale ja bym mimo wszystko tak pochopnie
z tego backupu nie rezygnował, bo to jest
uciążliwe tak na dłuższą metę. Ja powiem szczerze,
ja przez ileś telefonów przechodziłem, przez różne
telefony przechodziłem i
różne rzeczy też mi się gdzieś tam po drodze działy,
no ja mam backup tak naprawdę, ja nie stawiałem
nigdy systemu na czysto. Jak zacząłem w 2010
roku, to od tamtego czasu
to po prostu za mną ten backup idzie
i trochę bym się zirytował, gdybym musiał.
Ja tak samo, jeżeli właśnie chodzi o aplikację,
bo to jest już mój trzeci iPhone,
więc pierwszy, który miałem, czyli ósemkę, to wiadomo,
że konto trzeba było postawić na nowo. De facto w drugim
iPhonie zmieniłem konto Apple ID,
bo zmieniłem domenę z WP na iCloud,
więc to wiadomo, że wiązało się praktycznie z
całkowitą czystką. Zdawałem sobie
oczywiście z tego stuprocentową sprawę,
no ale na tym koncie Apple ID
to jest już mój drugi iPhone, no i że tak powiem,
nie chciałbym już przywracać na czysto.
Aczkolwiek powiem szczerze, Bartku, niepokoi mnie to,
że te problemy się pojawiają po kilku dniach.
Znaczy się, one losowo się pojawiają, raz są, raz ich nie ma.
Nie wiem od czego to zanima.
Jeszcze zapytam o rzecz oczywistą, ale mimo wszystko. A system jak?
Aktualny? Najnowsza wersja 16.5.1?
A, nie wiem czy wiecie, ale dwa dni temu
właśnie jak dzwoniłem do Apple, wieczorem pojawiła się
de facto malutka aktualizacja.
I ona zniknęła.
Zniknęła i dosłownie teraz się znów pojawiła, bo tam był błąd.
A nie wiem jak będzie w moim przypadku,
bo ja zauważyłem,
zainstalowałem i patrzyłem nawet dzisiaj
i było 16.1.
A, tak? Dobrze pamiętam?
Wersja 16.5.1.
U mnie jest 16.5.1, przepraszam.
I u mnie było, że system iOS jest aktualny.
Czyli jakby on tą moją aktualizację zapamiętał.
Zresztą ja trzymam się zasady,
jeżeli pojawi się jakaś nowa wersja iOSa,
no to ja od razu aktualizuję.
Nie czekam, nie zwlekam, tylko po prostu od razu instaluję.
To znaczy teraz, ale teraz zainstaluj sobie jeszcze raz,
właśnie sprawdziłem.
Tak, bo tam był jakiś problem głównie dotyczący Safari.
Z przeglądarką, tak.
Zresztą tutaj jak rozmawiałem z konsultantem app,
to zresztą mówili, że nawet dostali jakieś informacje,
że są problemy z voice-overem.
Nie chcieli dokładnie powiedzieć jakie,
ale podobno nad tym pracują.
No jedyne co zauważyłem, jeżeli chodzi o taki, wydaje mi się,
to że, no bynajmniej dość często to się pojawia,
że po rozłączeniu rozmowy telefonicznej,
czy to na jakimś z komunikatorów,
po prostu ten voice-over nam ginie, sama mowa.
I trzeba jeszcze raz wyłączyć i włączyć voice-over.
Wydaje mi się, że to jest podstawowy problem,
jeżeli chodzi o samego voice-overa.
Ale to już chyba jest nawet od…
Tak, to się czasem zdarza, ja jakoś specjalnie tego nie zauważam,
trzynastkę iPhona,
ale czasem rzeczywiście on tam potrafi jakoś zamilknąć,
trzeba po prostu zrobić restart.
No Bartku, tak jak mówię, ja proponuję zacząć
od przywrócenia, od zresetowania telefonu,
przywrócenia backupu, to też czasem potrafi pomóc,
ponoć w różnych sytuacjach, a potem, no cóż,
jakieś dalsze kroki, rzeczywiście stawianie tego telefonu
na ciasto i dalej.
To jest losowe, więc przywrócimy go,
powiedzmy, do czystki.
Prawda, będziemy używać tego zastępczego.
Ale w jaki sposób zauważyć,
że te problemy się pojawiły,
to by trzeba było…
Nie, no po prostu, Bartku, trzeba z tego telefonu normalnie korzystać.
No wiem, wiem, tylko to jest kwestia…
Ale słuchaj, to nie jest jakaś sytuacja, wiesz,
do backupu, to nie jest jakaś operacja,
na którą ty musisz poświęcić nie wiadomo jak dużo czasu.
No nie, to ja już robię mnie jednokrotnie,
tak że dla mnie to nie jest obcy temat.
Więc spokojnie, to bez jakichś większych problemów,
bo ty w ogóle planujesz robić backup iTunesa
czy przywracać sobie to przez iCloud?
Nie, no przez iCloud.
Okej, no to tym bardziej nie powinno być, myślę,
jakichś problemów, bo ten backup iTunesa chyba więcej danych gromadzi,
tak naprawdę, a z iClouda jak sobie…
No właśnie tutaj na infolinii Apple’a powiedzieli,
że lepiej, żeby go wyczyścić całkowicie,
jak byłby z pudełka wyjęty,
to można go chociażby przywrócić właśnie z backupu,
ale za pomocą iTunesa.
To znaczy, wiesz co, ja bym, powiem szczerze,
mimo wszystko sobie w tym iTunesie backup zrobił,
bo czemu nie, ale wyczyścić go
i z iClouda pociągnąć ten backup, który jest.
Ja bym spróbował w ten sposób, mimo wszystko.
I poobserwował, co się będzie działo.
No dobrze, no zobaczymy, co, że tak powiem, przyniesie rezultat
tych operacji. To w tej chwili będzie
dość czasochłonne, bo człowiek musi na to znaleźć czas,
ale no zobaczymy, bo jednak przyznacie,
że to jest troszeczkę jednak uciążliwe, prawda,
że ktoś do was dzwoni i chcecie użyć gestu dwa razy, dwa palce,
a tu nic.
Ale no oczywiście, że tak. To w ogóle działa nie do tyku.
Ja się w ogóle zastanawiam, skąd to się mogło wziąć.
Jak naprawdę.
Masz na ekranie jakąś folię ochronną?
Nie, ja mam czysty ekran, Piotrze.
A może warto by było,
ja nie chcę tu krakać jakoś specjalnie,
bo może to po prostu uszkodził się w jakiś sposób dotyk.
No to jest najczarniejszy scenariusz,
ale nie taki, którego nie można pominąć.
I w sumie ja na twoim miejscu, Bartku,
to jednak bym się zaopatrzył tak przyszłościowo,
jeżeli już rozwiążesz problem,
zaopatrzył się w jakieś szkło.
No tak naprawdę to mnie chroni
etui zamykane. Wydaje mi się, że to powinno być
dość dobre zabezpieczenie.
Ale jak ci wypadło?
Teoretycznie tak, ale czasem może się…
Może być etui otwarte, teraz on akurat upadnie na ekran.
Ja bym jednak skorzystał z tego szkła.
Chociażby do tej pory,
jak tak patrzę, to on mnie na ekran nie upadł.
Wiesz, i oby tak było,
i oby to był problem softwareowy.
Oby to był problem softwareowy,
ja jednak mimo wszystko bym radził się zaopatrzyć w jakieś szkło.
Najlepiej to szkło hybrydowe,
czyli to takie połączone z folią.
To moim zdaniem to jest chyba najlepsza opcja.
A czy orientujesz się, Michale,
czy to w iDreamie by zrobili na gwarancję?
Nie mam pojęcia.
OK. No dobrze.
W takim razie dziękuję wam tutaj za opinię
i za porady dla mnie.
W przyszłym tygodniu, jeżeli się wyrobię z tematem,
to wam tylko już napiszę, żeby tutaj wam głowy nie zawracać.
Daj znać, bo ciekawe, jakie były te efekty.
Z tego, co tak wnioskuję, to pierwszy raz spotkaliście się z takim tematem.
No tak, ja nie spotkałem się z tym, żeby te gesty aż tak bardzo szwankowały.
No wiadomo, czasem coś tam może nie załapać,
jakiegoś palca nie wykryje albo coś.
Tak, bo coś się zdarza.
Ale nie tak, jak to opisujesz.
Palca nie wykryje, a tutaj wykrywa wirtualny palec praktycznie
od czasu do czasu, jak już powiedziałem.
Jak używam wskazującego i środkowego
do dwa razy dwa palce, żeby odebrać, włączyć dektowanie,
a on mi nagle mowa wyłączona.
No właśnie.
Jest to dziwne, Bartku.
Ja myślę, że więcej nic nie wyczarujemy,
nie wymyślimy. Po prostu trzeba zacząć działać
i zobaczymy, co przyniesie efekt.
Dobrze. Powodzenia.
W takim razie jeszcze raz dziękuję. Dzięki serdeczne.
Dziękuję jeszcze raz tutaj za poradę.
Przechodzę dalej, żeby słuchać was już na telefonie.
Dziękuję bardzo. Dzięki serdeczne.
Pozdrawiam do usłyszenia.
Swoją drogą, a propos iOS-owych tematów, wyszła ponoć pierwsza publiczna beta
iOS-a 17 i tam innych systemów.
A to tak, to z kolei Piotro.
Akurat jak radziłaś sobie z internetem.
Jasne. W ogóle przy tym urwaniu z internetem
to dużo mi urwało?
Nie, akurat to skończyłem mówić i mieliśmy telefony i już byłeś z nami.
Nie, chodzi o to, co ja mówiłem.
To już dosłownie na końcówce tego seansa.
Super, dobrze.
Okej, to teraz ostatni temat
z tyflowieści.
To temat Piotra.
Zdaje się mówiliśmy o tym minikomputerze od
Asusa swego czasu, a teraz
Piotrze, ty jakieś masz informacje, jak to
z perspektywy niewidomego użytkownika.
Dokładnie, dlatego chciałem do tematu wrócić, bo
Tomek wspominał o tym urządzeniu, mówił
co to jest za urządzenie. Ja tylko przypomnę jeszcze
mówimy tutaj o urządzeniu Asus ROG Ally
czy Ally, chyba Ally raczej.
To jest urządzenie, to jest klon
Steam Deck’a od Asusa. Czym jest Steam Deck?
No to jest taka nowa, można powiedzieć
taka nowa seria urządzeń, że się chyba mówi
Handheld PC, tak to się określa. To są
małe tablety, można to tak nazwać.
Takie 6 czy 7 calowe to urządzenie. Chyba akurat ma 7 calowy ekran,
które jest, jak słyszycie,
bardzo małe, 7 cali, ale ma bardzo
mocny procesor, na tyle mocny, żeby
w dobrej jakości grać na nim
w współczesne gry. Steam Deck to jest Linux, tam
z dostępnością są dość duże problemy.
Można na tym zainstalować Windowsa, ale wtedy też mimo wszystko
mamy rzeczy, z którymi musimy
sobie poradzić.
Natomiast urządzenie Asusa ma na pokładzie
Windowsa 11, no i przy okazji jest
mocniejsze od Steam Deck’a, no ale też oczywiście troszeczkę droższe, ale sam właśnie
fakt, że jest na nim Windows, a nie Linux
może osoby niewidome zachęcać, no bo to urządzenie
posiada właśnie ten ekran dotykowy, no ale
poza tym mamy jeszcze kilka fizycznych przycisków,
konkretnie tutaj mamy taki typowy joystick,
plus kilka jeszcze dodatkowych programowanych przycisków
do makro, które możemy sobie
dowolnie do różnych aplikacji przypisywać, no ale też
używając tego joysticka chodzić po
systemie. Te urządzenia też często mają
dodatkowe oprogramowanie, które pozwala nam otwierać
aplikację, taki własny launcher, ale też
dostosowywać parametry tego urządzenia, bo możemy sobie
na bieżąco ustawić jak szybko ma działać
procesor, a co za tym idzie, no jak
długo nam będzie działała bateria i takie rzeczy
byłoby dobrze,
jeśli czytnik ekranu by te aplikacje obsłużyły,
bo one często właśnie pozwalają nam te rzeczy ustawić, co po pierwsze,
a po drugie dostosować
właśnie co te przyciski na joysticku robią, no bo
jakaś gra wspiera joysticki, no to super, ale wiele
gier, no na przykład dużo gier audio, którymi my
byśmy byli zainteresowani, nie zawsze mają wsparcie
dla joysticków. Na szczęście
osoby niewidome właśnie to urządzenie
zaczęły kupować i na przykład zrobił to
użytkownik Chris Shaw na forum
Audio Games i co nam powiedział? Powiedział,
że to jest taki krótki opis,
co zauważył, co takie najważniejsze informacje mówi, że
jeszcze jakaś dłuższa recenzja może się
pojawić niebawem,
ale co już nam może powiedzieć?
Najważniejsza kwestia jest taka, że
to oprogramowanie właśnie do dostosowywania parametrów
urządzenia jest bardzo fajnie
dostępne, a w domyślnej konfiguracji w trybie
desktop przyciski na gamepadzie są właśnie
zainteresowane do ściałek, do taba, do
spacji entera, do escape’a, więc bez problemu możemy
sobie po tym systemie chodzić, no i oczywiście
przez to, że to jest Windows i możemy na tym sobie
akurat tutaj ta osoba korzysta z NVidia i głównie też
obsługiwać je przez ekran dotykowy i tutaj też
nie ma największych problemów, więc możemy
sobie w połączeniu z tym joystickiem i z tym ekranem
dotykowym po interfejsie
chodzić, no i właśnie mamy też te przyciski makro,
które też możemy sobie przypisać w różnych aplikacjach.
Przy okazji tutaj też kilka gier
testował, z takich rzeczy, które mogą nas
ciekawić. The Last of Us działa
bez żadnych problemów w jakości low,
czyli tej jakości najniższej w 60 klatkach, czyli
mamy praktycznie pełną prędkość tutaj. Urzędkownik
nie napisał, czy ma tą wersję podstawową, czy wersję
stream tego urządzenia. Tu są dwie wersje, jedna ma
sześciordzeniowy procesor, a druga ma ośmiordzeniowy i też
tam karty graficzne się różnią, ale generalnie obie są bardzo
mocne, bo tutaj mamy 16 GB RAMu,
dysk 512 SSD i taktowanie w tej wersji
podstawowej to jest do 4,9 GHz,
więc to są naprawdę całkiem mocne
procesory Ryzen od AMD.
Więc The Last of Us działa, Brock działa, Mortal Kombat działa,
są starsze gry, więc tutaj też lub gry, które
po prostu nie wymagają tyle zasobów, więc tutaj nie ma
problemów, więc też takie jakieś inne aplikacje,
które by nas mogły interesować, nie wiem, na przykład Reaper, jakby
ktoś chciał zajmować się obróbką audio, więc tutaj też raczej
nie powinno
być problemu. Jest natomiast
jeden problem taki istotny.
Sekcja tej aplikacji, w której możemy tworzyć własne profile
tego joysticka i przepisywać własne klawisze
jest trudna do obsłużenia, tam są jakieś
niezadekietowane przyciski,
tutaj mówi
autor, że to powoduje, że ten proces jest trudny,
ale chyba niej niemożliwy, więc jak ktoś chce, to da się
to zrobić. Też są zależne aplikacje, którymi można się
ewentualnie posilić, Joy2Key na przykład, jeśli ktoś chciałby
sobie takie własne skróty przepisać
w grach, czy nawet właśnie w aplikacjach, nie wiem, w przeglądarce
jakieś dodatkowe skróty sobie porobić do nawigacji po nagłówkach
na przykład, takie rzeczy, które
często byśmy chcieli zrobić.
A druga rzecz jest taka, że kiedy
uruchamiamy to urządzenie po raz pierwszy,
no to z poziomu samego urządzenia nie mamy
jak włączyć sobie narratora, no bo jak pamiętacie, to się robi
naciskając Ctrl, Windows, Enter, no ale na tym urządzeniu
klawiatury nie ma. Więc tutaj
albo możemy poprosić osobę widzącą, albo w prostszy sposób,
bo mamy na tym urządzeniu port USB-C,
po prostu podłączamy sobie na ten czas klawiaturę i wtedy
normalnie możemy sobie tym skrótem narratora włączyć,
zalogować się do tego urządzenia naszego konta Microsoft
do Wi-Fi i tak dalej, ściągnąć sobie NVDA,
pogonfigurować wszystko i wtedy tą klawiaturę rozłączyć.
Więc to jest coś, o czym warto
wiedzieć, jeśli chcecie sobie to urządzenie kupić,
no ale to też nie ma jakiegoś problemu, żeby
sobie z tym uporać.
No fajnie, że to urządzenie jest dostępne. Zobaczymy, czy
Asus może poprawić dostępność tej
ich aplikacji, ale nawet jeśli nie, no to fajnie, że
w domyślnych ustawieniach to urządzenie działa
tak fajnie, bo myślę, że ten procesor jest na tyle
mocny, że same czytniki ekranu powinny działać
bardzo żywawo, no a że
bez problemu zagramy te wszystkie gry.
Dla widzących, które nas mogą interesować, no to każda gra audio
też powinna bez problemu zadziałać, no a
pewnie nie tylko, bo jakieś inne aplikacje użytkowe też
raczej bez problemu na tym powinna zadziałać, a
to urządzenie jest o tyle ciekawe, że jest
naprawdę malutkie.
Jeżeli o takie komputery przenośne chodzi, no to
inni w to wchodzą, inni z tego wychodzą. Zdaje się ty, Piotrze,
ostatnio gdzieś udostępniałeś informację, że Intel się
z Nuków wycofuje, prawda? Tak, no to Nuki
to zupełnie inna klasa urządzeń, to są takie właśnie
minikomputery stacjonarne, no to są bardzo
takie właśnie malutkie, nie wiem jakie one były wielkości
takiego, nie wiem, otwarza, czy DVD, takie naprawdę małe skryneczki, które sobie nam
stały. Jeszcze mniejsze. Jeszcze mniejsze? Tak, tak.
No to właśnie, tak, one miały właśnie też takie
najczęściej laptopowe procesory, ale to mogliśmy sobie…
Intel Nuk to był w wielkości Walkmana mniej więcej.
Tak, o, to nie wiedziałem, że to aż takie małe było.
No to faktycznie, no właśnie mniej więcej
niestety po 10 latach postanowili, że już im się nie opłaca rozwijać
tej części konsumenckiej, tam skupili się bardziej
na jakichś rozwiązaniach chmurowych, biznesowych,
no i te Nuki po prostu już
niestety nie będą sprzedawane.
No i tak zgrabnie przechodzimy sobie do technikaliów.
Tu w technikaliach dwa tematy Pawła.
Na dobry początek coś
dla tych, którzy posiadają
słuchawki od Sennheisera,
ambiose smart headset,
te z mikrofonami binauralnymi
i chcieliby je podłączyć do czegoś innego
niż iPhone. Chyba się da.
Tak, jeden z moich znajomych
odkrył niedawno przez filmiki na YouTubie
magiczny adapter, który działa, bo ponoć adaptery jakieś istnieją
różne z Lightning na USB A i C.
Natomiast
żaden z nich nie działał albo były one tak rzadkie, że ciężko było przetestować.
No a tu się okazuje, że jest sobie adapter firmy
Ugreen, który kosztuje około 130 zł
i ja go widzę, że on jest na Amazonie
i ten link do Amazonu będzie podany,
chociaż na oficjalnej stronie producenta, oczywiście europejskiej w języku angielskim,
gdzie płaci się w euro, jest napisane, że nie ma go w magazynie.
Więc szczerze mówiąc jestem troszeczkę zagubiony.
No ale
można go chyba na Amazonie dostać,
więc spróbujcie. Znajomemu się parę dni temu udało.
Nagrywał mi się. Wszystko zdaje się działać
tak jak działało, czyli jest dźwięk, oczywiście
cichy jak to na ambyosach domyślnie,
ale wszystkie przełączniki do trybu przezroczystego,
czyli przepuszczenie dźwięku otoczenia do różnych poziomów nagrywania,
do głośności samego odsłuchu i tak dalej.
No wszystko działa.
Więc nic tylko brać i używać.
Z kolei jest też drugi adapter
firmy Anker, który był
w 2019, w roku 2019
wypuszczony na rynek
i co? I chyba go już, znaczy nie ma go na pewno
w magazynie nawet na Amazonie.
A czy wróci i czy jeszcze jest produkowany, wspierany
i sprzedawany? Tego nie wiem.
Natomiast te dwa adaptery powinny działać
jeżeli chcecie podłączyć właśnie
smart headset, ambyos smart headset Sennheisera
do Waszych sprzętów androidowych, a może nawet do Windowsów.
No to możecie tego spróbować. Co prawda
napisane jest przy tym Ugreenie, że to jest
USB na lightning adapter,
ale ponoć na zdjęciach to widać, że to jest lightning na USB.
Także spokojnie można ten kupować i
ten, który podlinkowałem i powinien on
działać.
I ostatni temat, Pawle, również należący do Ciebie
i poniekąd łączący się z tematem
poprzednim, bo teraz będziesz
opowiadał o
projektach, które zainteresują tych wszystkich
co to lubią sobie posłuchać różnych dźwięków
z terenu. Tak, różnych nagrań
binauralnych, stereo,
głównie takich, nie tylko i nie zawsze, ale głównie,
ale to co wszystkie te nagrania łączy to, że są one
z terenu i projekty są dwa.
I to jest chyba moje największe odkrycie tego tygodnia,
bo teraz tak, jest lipiec, są wakacje
no i to jest taki okres urlopowo-wakacyjno-podróżniczy,
ale my sobie tutaj zdajemy sprawę też z tego,
że nie każdy może sobie gdzieś wyjechać
chociażby blisko i to otoczenie i ten klimat zmienić.
I tutaj pewnym półśrodkiem na to
mogą być właśnie nagrania
różnych miejsc na świecie właśnie wykonane techniką binauralną
czy chociażby w stereo, które pozwolą nam
wyobrazić sobie jakby to było być w jakimś innym,
w jakimś innym miejscu.
Pierwszy projekt to jest coś, co nazywa się
LocuStream. Jest to część projektu
LocuSonus, który jest, został założony
przez jeden z uniwersytetów
takich sztuki, konserwatoriów,
ciężko mi powiedzieć, w Prowancji, we Francji.
I wiele rzeczy się w tym
dzieje, natomiast taką najważniejszą,
kluczową aktywnością w tym jest tak zwany
sound map, czyli mapa dźwięku
i jak to działa. Chodzi o to, że
istnieje sobie sieć otwartych, tak zwanych otwartych
mikrofonów. To są mniej więcej tylko radiowe
strumienie, streamy, takie zwykłe na ice casie,
jak radia internetowe, które
chłopbyści z całego świata w różnych miejscach
na świecie uruchamiają i dzięki temu
my możemy w czasie rzeczywistym na żywo
słuchać, co się dzieje gdzieś tam na świecie. Cały czas po prostu
leci nam dźwięk z tego miejsca, gdzie te osoby,
te streamy uruchomiły.
To są najczęściej różne rezerwaty przyrody,
jakieś lasy, jakieś parki,
jakieś tam ujścia rzek.
Natomiast nie tylko i taka miejska
dżungla również nas tam uraczy.
Są tam co najmniej trzy streamy aktywne
z Londynu, w tym jeden właśnie prowadzony przez
Andrego Louisa, znanego już tutaj,
niewidomego muzyka z Londynu, który no nie jedne
fajne rzeczy zrobił. Drugi gdzieś tam
chyba w północnej Karolinie, czy gdzieś
jest odpalony przez chyba Patricka Perdue, z tego co pamiętam,
więc też kolejna znana postać.
No a tak to okazuje się, że nie tylko niewidomi są entuzjastami
tego typu działań, bo no po całym świecie
znajdziemy ludzi, którzy są skłonni
coś takiego zrobić. No i posłuchamy sobie czego?
No na przykład jakiejś farmy ze Stanów Zjednoczonych.
Posłuchamy sobie najstarszego miejskiego
parku w Czechach, czyli Lużanki w Brnie.
Posłuchamy sobie jakiegoś lasu w Turyngii w Niemczech.
Jest sobie pan, który
regularnie ma odpalony stream jednej z ulic
z Brukseli. Ja tam nawet w niedzielę rano sobie nasłuchiwałem
i było słychać jak tam komuś klucz
francuski upadł. Tam jakieś chyba roboty
nawet w niedzielę pracują,
konserwatorzy.
Z takiej miejscowości Morcel, to jest też
niedaleko Antwerpii. Tam też jest odpalony
strumień i sobie ktoś transmituje ponoć.
Te strumienie są bardzo często też podpisane
i można posłuchać jak ktoś bardzo się w to angażuje.
Czego najczęściej doświadczymy? No więc tam doświadczymy
na przykład dzieci, które się bawią.
Jakieś odgłosy samochodów przejeżdżających, coś tam.
W sobotę wieczorem gra lokalna drużyna futbolowa, więc
usłyszymy krzyki ze stadionu.
No i przeróżne tak naprawdę rzeczy.
Są też strumienie odpalane czasowo,
więc warto się rozglądać po tej liście.
No bo właśnie, tradycyjnie to jest mapa,
ale dla osób niewidomych i nie tylko
jest też opcja listy. Link się nazywa po prostu list po wejściu
w link podany w komentarzu
locusonus.org.soundmap
jedno słowo. Tam będzie link list,
po którego naciśnięcie pokaże się nam taki nagłówek.
No to tam chwilę musimy poczekać. Pod nagłówkiem będzie klikalny
element x, to jest element do zamykania
tejże listy, a pod spodem już po jakimś czasie
nam się odpali lista. No zazwyczaj to jest tak
circa 40 elementów, tak?
37, 38, tak to oscyluje, zależy ile tam akurat
streamów odpadło albo jest.
Można powiedzieć spokojnie, że około 35 jest takich pewnych punktów,
a tam zawsze się pojawia jakiś taki
strumień, który się odpali na chwilę.
Klikamy w element, rozwinie nam się nagłówek i tam właśnie są
lokalizacja, więc mamy współrzędne geograficzne
i kraj. Mamy
lokalną datę i godzinę. Mamy tam potem listę
i tam jest link do streamu. Trzeba go skopiować i wkleić do dowolnego
odtwarzacza radia internetowego. Może być nasza przeglądarka,
może być jakikolwiek program, w którym odtwarzacie radio
z linków. Wszystko może być.
Można też tam podejrzeć,
kto, jeżeli jest to wpisane, kto jest autorem
i administratorem takiego streama,
jaka jest dokładna lokalizacja wpisana przez
administratorów, no i jakiś krótki opis, czego się spodziewać,
kto to organizuje, czemu i tak dalej.
Czasem są odpalane takie strumienie okolicznościowe.
Ja na przykład wczoraj przez jakąś, jakieś pół godziny
nasłuchiwałem tego, co się dzieje w jakiejś malutkiej wsi
w Wenii, która sobie liczy 68 osób po prostu,
które tam mieszkają. No i było czasem słychać jakieś
głosy z oddali, że jakiś samochód podjechał,
że tam ktoś jakimś wiadrem metalowym stłukał.
No jeżeli lubicie aplikacje typu Aura
i różne podkłady dźwiękowe pod to,
co robicie, no to polecam się
wsłuchać, bo można sobie zrobić
taki w czasie rzeczywistym, nienagrany gdzieś tam specjalnie
pod jakiś program komputerowy, bo i ptaków nie zabraknie
i to jakichś takich bardzo egzotycznych gatunków,
jak jakąś Japonię sobie na przykład otworzycie,
albo Stany Zjednoczone, ale właśnie też jakąś
płynącą rzeczkę, jakieś odgłosy miasta,
no tylko, że po prostu w czasie rzeczywistym i na żywo
i to się dzieje naprawdę, a nie jest sfabrykowane.
Co ciekawe, też możecie
sami brać udział, jeżeli jesteście na tyle odważni
i macie takie miejsce, gdzie
no uważacie, że to jakieś ciekawe tło można by transmitować.
Wiadomo, nie chodzi o to, żeby transmitować ludzi, co mówią
i zrobić sobie Big Bradera nagle, ale jeżeli macie
ku temu warunki, nie wiem, macie jakąś spokojną okolicę,
gdzie możecie jakieś takie, to żeby chodzi o odgłosy, tak,
nie chodzi o, tak jak mówię, jakieś szpiegowanie i to, żebyśmy
słyszeli, o czym ludzie rozmawiają,
chociaż tego czasem się nie uniknie, że ktoś sobie przejdzie obok i coś będzie mówić.
Natomiast ogólnie takie dźwięki otoczenia chcielibyście
przetransmitować, no to tutaj
inicjatywa nam pomaga i wychodzi nam naprzeciw, bo
oprócz tego, że oczywiście jest już prekonfigurowany cały
zestaw, jak to zrobić na przykład na Raspberry Pi,
to są też dedykowane ku temu aplikacje
zarówno na iOS-a, jak i na Androida.
Locus Cast chyba się nazywa ta aplikacja.
Dobrze pamiętam, Michale, bo ty ją chyba nawet zainstalowałeś, a zresztą też.
Zgadza się, tak, Locus Cast.
Locus Cast i to jest aplikacja bardzo prosta w obsłudze,
bo najpierw zakładamy konto na stronie właśnie tej,
którą podałem, locusonus.org ukośnik soundmap,
jest tam link admin i tam zakładamy sobie konto, gdzie też
konfigurujemy sobie nasz stream,
podpisujemy go, wypełniamy te wszystkie pola
i następnie na to konto logujemy się
w aplikacji Locus Cast.
To konto jest ręcznie aktywowane.
To nie jest tak, że z automatu możemy się tam zalogować,
trzeba odczekać, ale to trwa krótko,
kilkanaście, kilkadziesiąt minut
i już.
No tak, chodzi też o to, żeby ludzie nie bawili się tym w takim sensie,
żeby transmitować sobie, nie wiem, jak robią challenge’e
czy tam co mówią ich rodzice,
tylko żeby ładnie też pewnie opisać. Nie wiem, czy ty, Michale, musiałaś coś opisywać?
Nie, nie uzupełniałem, po prostu
założyłem sobie to konto i tyle.
Chciałem po prostu zobaczyć, jak to będzie działać, a może do czegoś
kiedyś się przyda. Dokładnie, zwłaszcza, że
właśnie tu jest wybór na przykład, czy chcemy transmitować
w stereo czy w mono, więc jeżeli posiadacie
na przykład właśnie Beosmart headset, to jest idealny sposób,
żeby taki headset wykorzystać, bo możecie chociażby na chwilę,
to nie musi trwać 24 godziny na dobę, aczkolwiek widziałem
już streama, który bazuje na iPhone’ie z odpalonym EasyCast’em.
Więc no, co kto lubi za sprzęt.
Ale chociażby na chwilę, na niechęć godzinkę możecie się otworzyć
i coś potransmitować, jakiś, nie wiem,
szum morza, gdziekolwiek jesteście i ludzie chętnie tego posłuchają.
Zwłaszcza, że inicjatywa oferuje nam
swój własny serwer Icecast. Oczywiście, jeżeli macie gdzieś swój
własny postawiony, nie wiem, Icecast, Shoutcast i chcecie go
udostępnić na rzecz tego projektu, nie ma problemu.
Ale jeżeli nie macie, to również nie ma problemu
i tutaj odpalony będzie dla nas specjalnie mountpoint,
czyli punkt zaczepienia na Icecast’cie,
na serwerze oferowanym przez Locus Cast.
I tutaj też ważna, myślę, uwaga,
bo na iOS’ie, gdybyśmy chcieli przez Safari
tą mapę, soundmap pod tym adresem przejrzeć,
który podałem, który będzie w komentarzu,
no to nam to za wiele nie da, bo ten link list,
przynajmniej ja się do niego z Safari na iOS’ie nie dokopałem.
Więc może być ciężko przeglądać te strumienie.
Natomiast pewną rzecz, jaką można zrobić,
to jest pewne obejście, bo oczywiście wiele strumieni,
nawet niewiele, bo to mniejszość jest,
ale kilka takich jest, które są na jakimś własnym serwerze
i tych w ten sposób nie znajdziemy,
ale większość jest na tym właśnie dedykowanym serwerze
Locus Cast’a i je można przeglądać właśnie
przez ich link Ice Cast’owy.
I wtedy w przeglądarkę wpisujemy
locus.creacast.com 2.9443.
I na tym porcie jest postawiony Ice Cast.
Tam, jeżeli my dostaniemy streama,
zresztą zauważycie, że większość z tych streamów tam,
znaczy to każdy z tych streamów tam jest mountpointem
i po prostu do tego portu potem po slashu się dodaje tam coś tam,
coś tam, .mp3 albo og.
I wtedy, kiedy nie wpiszemy nic po slashu, to po prostu otworzy się nam
interfejs webowy Ice Cast’a i tam będą podlinkowane
wszystkie na tym serwerze trzymane tak zwane właśnie
mountpointy, czyli właśnie te streamy.
I wtedy wystarczy, że w któryś klikniemy, no i już jeżeli jest to takie typowe .mp3,
to Safari sobie bez problemu z tym poradzi.
Og.g jest chyba trochę większym problemem,
natomiast .mp3 sobie poradzi i odtworzy nam go w Safari.
I oni właśnie akurat przede wszystkim nadają w og.g
z tego co widzę.
Tak? O, ja widziałem dużo w .mp3, ale to jest różnego rodzaju.
Czyli trzeba się jakimiś VLC’erzy.
Tak, przekopiować po prostu link, nawet pewnie jakiś broadcast sobie da radę.
Natomiast co ciekawe og.g, właśnie przez og.g
za pomocą og.g
jakby formatu og.g
nadajemy z poziomu iPhona.
Tak, tak, no to jest Safari.
Safari ma problemy.
Tak, tak, więc przekopiujcie wtedy ten link do dowolnego
odtwarzacza radia, który wspiera linki i będzie okej.
No, więc to są streamy.
Więc jeżeli chcecie sobie we własnym zaciszu domowym stworzyć np.
klimat Tokio
albo
jakiejś tam, nie wiem, parku narodowego gdzieś w Kalifornii.
Nie, to jest w Kalifornii?
W Korei Południowej, nic bardziej, nic prostszego.
Wchodzicie właśnie na Locute Stream
i tam możecie sobie
odsłuchiwać takie miejsca.
Ale to nie wszystko, bo jest też drugi projekt.
Projekt również dość stary, bo on już 10 lat ma na pewno jak nie więcej.
Projekt Radio Apori.
I tu jest zasada podobna,
tylko, że nie mamy streamów na żywo, a wrzucane są
tak jak na FreeSound’a albo na SoundCloud’a,
nagrania terenowe, tzw. Field Recordings.
I tutaj administrator całego przedsięwzięcia jest dość restrykcyjny
jak chodzi o to, co przyjmuje,
bo my możemy wrzucić dowolne nagrania, ale one są też ręcznie akceptowane.
Tam są konkretne wytyczne.
One muszą być wysokiej jakości.
Najlepiej stereo, nie, tylko stereo albo binauralne.
Nie ma opcji, że jakieś mono robione jakoś telefonem.
Chociaż musiałbym autora zapytać, co z telefonami teraz,
bo mam wrażenie, że te wytyczne były pisane właśnie te ileś lat temu,
naście, kiedy telefony jeszcze brzmiały jak brzmiały.
No a teraz telefony to już są przecież bardzo potężne
rejestratory terenowe również,
więc myślę, że warto tutaj zwrócić uwagę.
Ale okej, nagrywajmy najlepiej jak potrafimy,
czyli też macie jakieś Ambeo albo jakiś profesjonalny rejestrator.
Nagraliście coś, co trwa minimalnie minutę,
to można to tam wrzucić, nanieść na mapę,
bo bardzo ważne jest to, żeby to było oznaczone datą,
kiedy zostało to zrobione nagranie i miejscem, gdzie zostało zrobione.
I tutaj właśnie kwestia jest taka, że ta strona,
z nią się da pracować, ale ona dostępną nie jest.
Tam bardzo ważna jest ta mapa.
Ja za chwilkę opowiem, jak można przeglądać te nagrania
pod kątem konkretnego miejsca.
Natomiast nie próbowałem jeszcze wrzucać i tutaj zastanawiam się,
czy na przykład ten widok mapy nam w tym nie przeszkodzi,
żeby coś samodzielnie zamieścić. Może być z tym problem.
I tu będę z autorem rozmawiał.
Zobaczymy, na ile on będzie chętny, żeby zmiany wprowadzać.
Natomiast nagranie zostaje wrzucone.
No i jest częścią bazy.
I co my teraz możemy robić?
To po pierwsze możemy te nagrania przeglądać według mnie
i możemy sobie w ogóle przeglądać playlistę wszystkiego,
czyli ostatnich 24 godzin, tygodnia, miesiąca.
Chyba tyle.
I wtedy możemy po prostu chronologicznie te nagrania sobie podglądać.
Możemy przeszukiwać tę bazę pod kątem konkretnych miejsc
lub tytułów nagrań i to rzeczywiście nawet działa.
Tylko jest tam przycisk search.
W ogóle zapomnijmy o tym, że tam będą jakieś fajne nagłówki,
jakieś fajne podmarkowane rzeczy.
Nie, nie, nie. Tu jest kupa przycisków i trzeba się w tym jakoś odnaleźć.
Jest przycisk search.
Po naciśnięciu search nie dzieje się nic enterem,
więc albo klikamy myszką czy nawigacją obiektową z NVIDIA,
czy kursorem JOS z JOS-em, czy wyłączamy style w przeglądarce
i wtedy się odblokowują przyciski places i recordings.
I po naciśnięciu na przykład places, ja próbowałem places,
pojawia się pole edycji, wtedy możemy już style spokojnie włączyć
i wpisujemy przykładowo tam Kraków, Poland.
Albo wystarczy sam Kraków i po strzałką w dół już te podpowiedzi działają normalnie.
Enterem znowu nic się nie dzieje.
Wyłączamy tryb formularzy, naciskamy search recordings in this location
i znowu szukamy pod literą B przyciskami,
bo nagrania jako wyniki wyszukiwania
również nam się nie pokażą pod żadnym nagłówkiem
i znajdziemy w końcu te nagrania konkretne z danego miasta
i po ich naciśnięciu otwierzy się taki modal
okno, w którym możemy o tym nagraniu coś,
ono się oczywiście zacznie odtwarzać, możemy tam sobie coś podejrzeć,
poczytać o tym nagraniu, w jakich okolicznościach zostało zrobione,
przez kogo i tak dalej.
Jeżeli autor na to zezwala, a w większości widzę, że zezwalają,
można to nagranie pobrać, jest też napisane na jakiej licencji jest ono udostępnione
i zazwyczaj jest to jakieś CC, bo autor bardzo przy tym obstaje,
żeby to były nagrania dostępne w domenie publicznej.
Więc będzie można je wykorzystać, być może z jakimiś tam konkretnymi obostrzeniami,
ale będzie można.
No i w zasadzie tyle.
Taka jeszcze jedna wada, jaką zauważyłem,
jeżeli ponowimy wyszukiwanie i wyszukamy jakieś inne miasto,
to te stare nagrania nam się nie wyczyszczą
i będą nad tymi nowymi dalej wisieć.
Natomiast można w ten sposób przeglądać bazę,
ale coś, co mnie absolutnie urzekło,
to jest to, że z tych wszystkich nagrań, które tam zostały wrzucone,
powstało radio.
I radio, które można znaleźć w dowolnej aplikacji obsługującej radio browzera,
bo ono jest w katalogu radio browzera,
więc czy to będzie Twizzcake,
czy to będzie Radio Shure z wgraną nową bazą,
czy to będzie Broadcast, czy to będzie jakaś Triody,
czy jeszcze inne, chyba Ether też korzysta z radio browzera.
Radio Droid na Androida.
Mnóstwo jest tych aplikacji.
To tam znajdziemy to radio.
Nazywa się po prostu Radio ApoRe, czyli Radio ApoReE,
przez dwa E na końcu.
Możecie sobie dodać do ulubionych, puścić
i tam będziecie słyszeć wszystkie nagrania z tej bazy w pętli
i one najczęściej jeszcze tam, gdzie jest zazwyczaj now playing,
czyli informacja o aktualnie granym utworze,
to najczęściej jest jeszcze opisane to nagranie
i to dość dobrze z reguły, czyli kto je wykonał,
imię, nazwisko, z jakiej lokalizacji ono pochodzi,
czasami jest tylko miasto i kraj,
a czasami jest dokładny adres
i jakiś opis taki krótki typu tam,
no odgłosy lasu albo tam koncert,
nie wiem, wołanie muezzina,
takie żebyśmy wiedzieli, znali kontekst,
co w tym nagraniu miało zostać ujęte.
Bardzo fajna jest to podróż, naprawdę polecam Wam posłuchać
i też można sobie zrobić taki klimat zwiedzania świata.
Ja już tam słyszałem, mam wrażenie,
no absolutnie wszystko,
czyli występ jakiegoś męskiego chóru,
jakiś padający deszcz,
tylko, że gdzieś w Słowenii.
Tutaj Michale, ukłon w Twoją stronę.
Tutaj chyba w pętli z dziesięć razy leciało
takie krótkie nagranie z dworca w Iławie.
O proszę.
Nawet zastanawiam się, czy Ty go nie wywołałeś,
bo tam użytkownicy w jakiś sposób mogą wpływać na to,
co akurat w radio leci i radio jakoś tam reaguje
na to, co się dzieje, na to, że podłącza się nowa osoba,
która słucha, na to, że ktoś wrzucił nowe nagranie do bazy,
na to, że ktoś tam postanowił odtworzyć jakieś nagranie
i nie wiem jeszcze, jak dokładnie się to robi
i jak z tym radiem wchodzić w interakcję.
Ponoć można nawet tam jakieś wiadomości pisać,
nie wiem, czy też nagrywać, ale też widziałem,
że jest jakaś aplikacja, która nie wiem, czy ona jeszcze jest dostępna
i czy w ogóle jest dostępna z voice-overem,
bo tam jeszcze jest jakiś projekt poboczny,
który skupia się na jakichś takich jakby oprowadzaniach,
spacerach w AR, w rozszerzonej rzeczywistości
i szczerze mówiąc ciężko mi powiedzieć,
natomiast jakiś model interakcji z tym całym systemem istnieje
no i bardzo często pojawi się nam taki komunikat
otoczony taką specyficzną muzyczką, dość spokojną
i wtedy chyba Fred, czy któryś z tych bardziej robotycznych głosów makowych
przeczyta nam, że znaleziono użytkownika w lokalizacji Gdańsk-Polska,
odtwarzam nagranie w pobliżu jakieś tam, jakieś losowe z danego obszaru.
No i w tym momencie na przykład przypuśćmy,
że odtwarzane było bardzo długie nagranie prac remontowych
na autostradzie w Berlinie, bo było dzisiaj takie nagranie
i w tym momencie to nagranie wcina nam się w środek tego berlińskiego
no i zaczyna nam teraz się odgrywać jakiś tam meczet w Pakistanie.
Przypuśćmy, że ten meczet w Pakistanie jest dość krótki,
on się skończy i wraca nam ten Berlin, ale jeżeli ten meczet w Pakistanie
byłby zakłócony przez drugie nagranie wywołane jakąś tam interakcją użytkownika,
no to już nie wróci nam do meczetu w Pakistanie, tylko wróci nam znowu
do tego Berlina, czyli do tego, co poleciało jakby naturalnie z samej playlisty
no i będzie to nagranie kontynuowane tam, gdzie zostało przerwane.
Naprawdę można fantastyczne rzeczy usłyszeć.
To jest historia dźwiękowa naszej cywilizacji.
Nie boję się tego powiedzieć, bo i jakieś protesty polityczne już słyszałem
i jakiś strumyk płynący i jakiś, co ja tam jeszcze, jakiś piec konkretny,
który tam gdzieś płonął sobie w Turcji, został rozpalony.
No naprawdę można tak fajnie dźwiękowo świat pozwiedzać,
właśnie większość tych nagrań jest albo stereo, albo binauralna,
więc nic tylko słuchawki wkładać i rozkoszować się pejzażami dźwiękowymi,
które tam są. No miejmy nadzieję, że my będziemy mogli też,
to trzeba jeszcze sprawdzić, wrzucać też swoje nagrania,
bo wielu z nas takie nagrania czyni, robimy to świetnie, lubimy to robić,
więc taka platforma jest po prostu dla nas jak znalazł, tak samo zresztą
Więc jeżeli nie macie jak w te wakacje gdzieś wyjechać,
to zróbcie sobie chociażby taką podróż w domu.
Ja myślę, że to będzie bardzo fajna, bardzo fajna namiastka.
Jak usłyszycie coś ciekawego, to też się podzielcie z nami
w komentarzach albo gdzieś.
Jak najbardziej, więc zachęcamy do takich eksploracji,
też zachęcamy do tego, żeby poszukać na przykład w archiwach
Tyflo Podcastu, takich różnych kompilacji, które tu Tomek Bilecki
nam przygotowywał i myślę, że jeszcze nie jedną w przyszłości przygotuje,
ale to za czas jakiś, a tymczasem właśnie a propos tego czasu
dotarliśmy do końca naszego dzisiejszego spotkania,
tak przynajmniej mi się wydaje, no chyba, że jeszcze ktoś z was
coś odnalazł w międzyczasie.
Ja jeszcze jedną rzecz, ty Piotrze też?
Tak, ale ja dosłownie szybko, bo też a propos Huckard Newsa,
rozmawialiśmy o tym, ja sobie przejrzałem, co tam się pojawiło
no i na przykład wpadła wiadomość, że pojawiła się w wersjach 4.1
programu MuseCore, tam jest sporo nowości, ale jedną z nich jest to,
o czym nie pamiętam, kto z nas mówił.
No właśnie, więc to szła obsługa Braila,
więc możemy sobie nasz utwór w Brailu czytać,
tam jest problem na Macu ponoć, tam się to nie wyświetla
na monitorze brailowskim na Macu prawidłowo,
ale generalnie to zarówno osoby widzące tego Braila,
a my też go możemy sobie przeczytać, no i to już jest oficjalnie dostępne
w stabilnej wersji.
Super, no to muzykujący się ucieszą.
No a ja na koniec, otwarliśmy narzekaniami na meta
i na ludzi, którzy o dostępność się nie starają,
to zamknijmy tymi, którzy naprawdę sobie trud zadali
i oni mieli naprawdę niełatwe zadanie, czyli GitHub.
GitHub, który postanowił się wziąć za kilka obszarów swojego serwisu,
które w kwestii dostępności mogłyby pewnie otrzymać
troszeczkę tutaj jakiejś dbałości i zainteresowania.
No i wzięto się za przede wszystkim interfejs wyszukiwania,
czyli to, co mamy pod github.com ukośnik search
oraz drzewo plików i folderów, jeżeli mamy repozytorium,
no i edytor kodu.
No i w ogóle fajne jest to podejście, o jakim oni piszą,
w jaki oni sposób do tego się zabierają.
Oni sobie chyba ze swoich jakichś tam pracowników
wyeliminowali jakiś zewnętrzny zespół odpowiedzialny
tylko i wyłącznie za audyty, bo chyba nie współpracowali
z żadną zewnętrzną firmą.
I potem jak wszystko zostało zaprojektowane,
to oni im przeaudytowali GitHuba pod kątem właśnie dostępności.
Potem były też konsultacje z designerami
i pokazywane były im tutaj właśnie projekty,
znaczy konspekty w Figmie.
Tak naprawdę takie jeszcze pierwsze w ogóle szkice.
I to chyba było też testowane ze strzytnikami ekranu,
bo teraz w Figmie można strzytnikiem ekranu podejrzeć sobie taki szkic,
nawet jeżeli nie jest jeszcze on podłączony z konkretnym kodem.
No i na sam koniec też oferowali ten dział dostępności
czy inżynierowie odpowiedzialni za dostępność
dawali do dyspozycji chyba raz w tygodniu godziny dyżurne,
kiedy po prostu inżynierowie, informatycy, programiści
zaangażowani w tworzenie tych nowych funkcji,
w kodowanie tego jak to ma działać,
mogli po prostu przyjść, wpaść na taki dyżur
i się poradzić z zespołu dostępnościowego,
jak konkretną rzecz zaprojektować.
No i co im wyszło?
Przemodelowane wyszukiwanie, w którym aktualnie dostępne są
na przykład to, co nie było wcześniej dostępne,
czyli filtry.
Filtry, czyli kiedy już wyszukamy sobie, nie wiem, NVDA,
no to tam pytanie, czego my chcemy szukać.
Czy repozytoriów, czy fragmentów kodu,
w których jest wspomniane ciąg znaków NVDA,
czy zgłoszeń błędów, czy tak zwanych pull requestów,
czyli modyfikacji kodu z propozycją,
żeby je złączyć z głównym repozytorium,
kiedy osoba trzecia tam ingeruje.
Bardzo zaawansowane są te filtry, one tam idą dalej,
są jakieś przyciski, rozwijalne linki.
Ja się tym troszkę bawiłem, no po kliknięciu w taki link
odczytywany jest w ogóle jakiś kompletnie losowy link,
nie wiem czemu, ale kursor przenosi się na nagłówek
z wynikami wyszukiwania.
Skoro już przy wynikach wyszukiwania jesteśmy,
no to w jakiś sposób oni też chcieli, żeby po wpisaniu, tak,
wchodzę na github.com.search, wpisuję właśnie NVDA, Enter.
Co teraz ma się dziać?
No fajnie by było przeczytać, ile wyników,
ile znaleziono wyników.
No nie jest to takie proste, bo tam problem był taki,
że komu, jakby to zrobić, tak?
No najprościej komunikaty ARIA Live, ARIA Live,
żeby obszar od razu był odczytany.
No ale stwierdzili, że ARIA Live to oni już mają,
że jest już odczytywane, jak się załaduje,
jakby tytuł tego, tej strony, która się załadowała.
No a nie ma na ten moment jeszcze takich technik wymyślonych,
żeby można było kilka komunikatów ARIA Live skolejkować,
żeby jeden był odtworzony gdzieś tam po drugim.
Więc one by się nawzajem wygryzały,
albo by to jakiś błąd wywołało, albo po prostu użytkownik
by nie dostał na czas tej informacji, której potrzebuje.
No więc umówiono się tak, że na ten moment
będzie odczytywany wynik wyszukiwania,
podświetlony będzie po prostu ten nagłówek
i zostanie to automatycznie odczytane.
Natomiast wszystkie inne jakieś kontekstowe informacje,
jakieś tam pop-upy, które mogłyby wyskoczyć, coś tam jeszcze,
to już użytkownicy sobie będą musieli znaleźć sami.
Też przemodelowano trochę jak działa przycisk sortowania,
bo jest przycisk sort, to jest przycisk, który można rozwinąć
i pokazuje się wtedy lista różnych tam kryteriów,
wedle których możemy chcieć sortować te nasze wyniki.
No i przedtem co się działo?
Klikamy na link, strona się przeładowuje, bo tak jest zaprojektowana,
bo to nie jest tak po prostu, że rozwijamy, wybieramy opcje
i się tam od razu coś zmienia, tylko przeładowywana jest cała strona.
No i wtedy lądowaliśmy na jakimś tam nagłówku
i nie wiadomo było o co chodzi.
A teraz zaprojektowano tak, że udało się im zrobić tak,
że kursor wraca na ten przycisk sortowania,
więc jesteśmy w tym miejscu, z którego wyszliśmy.
No i super.
No i ostatnia rzecz.
Aha, zaprojektowali też w ogóle na nowo widok drzewa.
Jeszcze go nie widziałem.
Nie wiem, czy Ty Piotrze albo Michale widzieliście,
jak to drzewo teraz wygląda przeprojektowane?
Nie, szczerze mówiąc nie miałem ostatnio podstawy.
Ja też nie, to chyba w emerytorze kodu,
może tam gdzieś, ja wiem, że coś nie spotkałem.
Dokładnie, bo zaprojektowane zostało w ogóle od zera
i oni opublikowali tą kontrolkę samą, ten kod kontrolki drzewa
jako komponent open source.
Więc jeżeli ktoś na przyszłość będzie w swoim projekcie
potrzebował fajnego widoku drzewa, to można skorzystać na przykład
z tego komponentu GitHuba.
I ponoć go zaprojektowano tak, że na przykład,
jak zaczniemy wpisywać z klawiatury jakieś litery pierwsze
tam konkretnego elementu, to zostanie on znaleziony
i też takie relacje między tymi gdzieś głęboko zagnieżdżonymi elementami
zostały dość ładnie tam nakreślone.
Cała struktura i to oznaczanie znaczników HTML
zostało też przerobione.
No więc też jest to już zrobione.
No i na koniec edytor kodu, który naprawdę tutaj jest mistrzostwo.
Ja po prostu polecam sobie poczytać,
bo ostatnio GitHub wprowadzał kilka różnych takich funkcji,
które sprawiły, że ten edytor dostępny do końca nie był.
On w ogóle był kod, na GitHubie był pokazywany jako tabela,
żeby było śmiesznie i każda linia to była osobna kolumna tabeli.
Znaczy linia tabeli, a tam kolumną był, jedną kolumną był numer linii,
a drugą był ten kod w tej danej linii.
To bardzo lubiło MVDA zawiesić, zwłaszcza jak to był jakiś duży plik.
Kilka tysięcy linijek to się lubiło zawiesić niestety.
I dlatego jak ktoś chciał mieć czysty, przejrzysty kod,
to wchodził w tą wersję surową RAW, no tylko jej nie dało się edytować.
To było takie tylko do odczytu.
Można było sobie zapisać Control S jako tam jakiś plik, nie wiem,
bat, py, inne. To fajnie, ale żeby edytować,
no to już trzeba było chyba sobie repozytorium sklonować lokalnie
i w jakimś ulubionym edytorze pracować.
No a teraz to przemodelowano i w ogóle problem był z tym przemodelowaniem,
bo przez to, że oni wprowadzili jakieś podświetlanie składni,
jakieś tam symbole, że my możemy konkretny symbol symbolizujący daną funkcję
sobie przejrzeć pod kątem jakichś odniesień do wcześniejszych wystąpień w kodzie
i tak dalej, no to się okazało, że trzeba zrobić edytor,
który jest jakby wirtualizowany, czyli on nie jest jakby polem edycji,
tylko jest takim wirtualizowanym na ekranie, wirtualizowaną przestrzenią,
której osoba widząca może przemieszczać kursor i tam klawiaturą rzeczy wpisywać
i tak dalej, bo standardowe pole edycji to już było za mało,
żeby tam wyrobić czy nawet jakieś bardziej rozbudowane.
No i jak coś takiego uczynić dostępnym?
Kombinowali, kombinowali, aż wymyślili.
Tak naprawdę u podstawy tego edytora jest pole tekstowe, text area,
podobne do tego edytora VS Code’owego, czyli Monaco,
który jak najbardziej dostępny jest, oferuje różne skróty klawiszowe i tak dalej.
My pokazywaliśmy na przykład w audycji o Markdownie jak wygląda tego typu edytor,
chociażby na Markdown Together i on jest widoczny tylko dla screen readerów.
I na ten edytor taki goły nałożona jest ta wirtualna warstwa dla osób widzących,
która synchronizuje się z tą pod spodem, która jest dla niewidomych.
I dlatego trzeba było zrobić też dwa kursory, bo osoby niewidome się przemieszczają
tradycyjnym kursorem z trzałkami.
Dla osób widzących trzeba było zrobić fałszywy, taki fejkowy, udawany kursor wizualny,
który synchronizuje się z tym, który jest tam pod spodem.
No więc tam się potem porobiły problemy.
Na razie na przykład Firefox, Firefox pozwala ogólnie na to,
żeby personalizować jakoś tam atrybuty tekstu, rozmiar tekstu,
jakieś tam kolory, czcionki i tak dalej.
No, tu się coś wywaliło na razie. Oni to oczywiście naprawiają.
Tak samo nie działa zawijanie wierszy.
Ale i tak już jest dobrze, bo dzięki temu podejściu, które zrobili,
nie nadpisuje się działanie skrótu Ctrl F, bo tam Ctrl F coś innego robił,
czy jakoś nie chciał działać i nie działało przeszukiwanie,
to przeglądarkowe takie, które jest dostępne.
No teraz to naprawili, że to działa.
No więc jak widać naprawdę trzeba robić obejścia na obejściach, na obejściach,
żeby takie skomplikowane kontrolki gdzieś dostosować.
I to są już takie potężne, rozbudowane aplikacje, tak samo jak dokumenty Google.
Cały pakiet biurowy w ogóle Google w przeglądarce,
gdzie naprawdę chyba też trzeba było się wykazać, żeby to działało.
No ale Fredz ma problemy z tym, żeby pokrupować elementy,
dać czynności i dać opisy alternatywne, więc hej.
Ale to jest właśnie przykład, no bo przypomnijmy,
GitHub to jest obecnie własnością Microsoftu.
Ja nie wierzę, żeby GitHub miał jakiś dedykowany team
od dostępności, ale podejrzewam, że osoby odpowiedzialne
za rozwój tego całego projektu, jakim jest GitHub,
no po prostu miały świadomość tej potrzeby dostępności
i wiedziały w Microsoftzie do kogo się odezwać,
kogo zapytać, kogo gdzieś tam poprosić o pomoc, o jakieś wsparcie,
bo Microsoft za obecnego prezesa to rzeczywiście na tę dostępność
stawia dość mocno i tam zespołów dostępnościowych,
to z tego co kojarzę, to w Microsoftzie jest nawet kilka.
Są ludzie od dostępności takich rzeczy, takich typowych dla użytkownika,
ale też na przykład ku radości administratorów też w końcu
te rzeczy klasy Enterprise są też zadbane, jeżeli chodzi o dostępność.
Więc tam rzeczywiście się dzieje i są ludzie, którzy za to odpowiadają,
są ludzie, do których się można zwrócić i poprosić o pomoc
i ta pomoc, no jak widać, została udzielona.
Dokładnie i tutaj tak samo działa zresztą ten edytor w YesCode,
bo tam też jest właśnie tak samo zrobione, żeby on działał responsywnie.
Tam jak ładujemy jakiś plik, który powiedzmy ma kilka megabajtów,
takie zwykłe pole, bo to jest też aplikacja na elektronię webowa,
żeby to działało szybko, to też tam właśnie jest jakąś tam własnością,
po prostu jest grafika rysowana, żeby to było szybkie,
no ale jak to zrobili, tak samo to Monaco właśnie działa.
Tam jest to pole edycji wirtualne, które na czecinie ekranu potrafi,
że z tego co pamiętam wyświetla tylko 25 linijek na raz,
dzięki czemu możemy spokojnie nawigować.
My generalnie tego nie czujemy, że tam tak naprawdę się dzieje,
że na szczytnie ekranu wyjdzie tylko te 20 linijek wokół naszego kursora,
no ale jednocześnie możemy spokojnie z pierwszej linijki
do linijki kilkuset tysięcznej przeskoczyć i to po prostu działa.
Ale to też pewnie dużo, dużo pracy zajęło, żeby to wszystko zrobić,
zoptymalizować tak, żeby to tak działało do tego stopnia,
że dzisiaj to jest bardzo lubiana aplikacja i używana przez wielu,
wielu programistów w zawodzie swoim.
A czasami nie tylko programistów, jak się okazuje,
bo to jest po prostu dostępny edytor, rzeczywiście o bardzo dużych możliwościach,
ale jak ktoś poświęci podejrzewam trochę czasu na skonfigurowanie,
na przystosowanie go do swoich potrzeb, to może mieć rzeczywiście pociechę
nawet w pisaniu takich tradycyjnych tekstów.
Tak, no to jest jedyny edytor, który też na przykład daje nam dźwięki
na takie rzeczy, które normalnie dla osób widzących są widoczne tylko jako ikonki,
tak, no właśnie jakieś błędy, takie rzeczy, które są podświetlone,
tak jak ty mówiłeś Pawle, że ten edytor na GitHubie podświetla niektóre rzeczy.
No tam dźwięków jeszcze nie ma, ale kto wie, czy kiedyś się nie pojawią,
no ale właśnie w samym VS Code’zie na takie rzeczy dźwięki są,
więc jeśli mamy na jakiejś linice jakiś błąd, o tym było zresztą
w cyfrowym przeglądzie, czy jakaś linika jest wyjęta,
bo kod też można sobie zawijać jak drzewko, no to też na to są dźwięki,
więc tutaj też fajna sprawa.
Także brawa dla Microsoftu, a dla Mety, no poprawcie się, poprawcie się.
Tak, macie zadanie domowe.
Tak jest. Ostatnie jeszcze pytanie od naszego słuchacza Matiego.
Witajcie, mam pytanie, orientujecie się, czy jest jakaś aplikacja na iPhona
do oglądania telewizji na żywo, w której da się włączyć audiodeskrypcję?
No, jest to MeeGoGo, które niby ma ustawienia audio,
ale nie wiem, czy komuś z was udało się do tych ustawień audio wejść.
Tam jest przycisk ścieżka audio, w którym jest zaznaczona opcja u mnie auto,
ale ja w żaden sposób nie mogłem w niego stuknąć, ani rozpoznawaniem ekranu,
ani trzymając palec i przesuwając go na wszystkie strony.
Nie wiem, czy akurat tam w tym momencie, kiedy ja to robiłem,
nie było ścieżki alternatywne, ale to chyba i tak się do mnie nie powinno wyświetlić,
bo ja to chyba w programie pierwszym albo drugim robiłem, więc nie wiem.
Kiedyś próbowaliśmy z tym MeeGoGo i właśnie nie działało.
Wwpilot nie ma w ogóle ustawień audio.
Kanal Plus chyba, no ale to jest usługa płatna.
Ale to jest chyba jedyna rzecz, która mi przychodzi do głowy,
gdzie to się chyba dałoby zrobić.
Tak, i tam teraz od niedawna też są te wszystkie podstawowe kanały dostępne,
które są normalnie w telewizji naziemnej, ale też nawet za to trzeba zapłacić.
Zgadza się. No, tak że Mati, wiele nie pomogliśmy,
ale mamy nadzieję, że to będzie dla ciebie jakąś inspiracją
w poszukiwaniu jakiejś aplikacji, o której być może nie wiemy,
a być może właśnie ty się z nami w następnym 193. Tyfloprzeglądzie podzielisz,
bo 192. Tyfloprzegląd, to proszę państwa, przechodzi już powoli do historii.
A zatem dziękujemy za dziś, dziękujemy za to, że byliście z nami,
za wszelkie wasze komentarze, te tekstowe, jak i głosowe.
No i cóż, do usłyszenia za tydzień, a na dziś dobrej nocy mówią wszystkim
i życzą mówiący te słowa Michał Dziwisz oraz Paweł Masarczyk i Piotr Machacz.
Do usłyszenia.
Był to Tyflopodcast. Pierwszy polski podcast dla niewidomych i słabowidzących.
Program współfinansowany ze środków Państwowego Funduszu Rehabilitacji Osób Niepełnosprawnych.