TyfloPrzegląd Odcinek nr 185
Dodany 30 maja 2023
5 komentarzy
W najnowszym TyfloPrzeglądzie m. in: Demonstracja aplikacji Vizlens, dzięki której możemy obsłużyć nieudźwiękowione ekrany dotykowe, krótka relacja z wystawy technologicznej towarzyszącej tegorocznej konferencji Reha, a oprócz tego tradycyjnie mnóstwo informacji o nowościach, zmianach i wszystkim, co istotne dla niewidomych zainteresowanych nowoczesnymi technologiami.
Zapoznaj się z tekstową wersją odcinka
Pliki do pobrania :
Pobierz plik z audycją: TyfloPrzegląd Odcinek nr 185
Ten podcast był pobierany 2370 razy
Komentarze
A oto odnośniki uzupełniające audycję:
– Vizlens – rozpoznaj przyciski na urządzeniu z ekranem dotykowym: https://vizlens.org/
– Twórcy aplikacji Wetransfer na iOs obiecują dostępność i czekają na sugestie: https://www.applevis.com/forum/ios-ipados/accessibility-support-feedback-large-file-transfer-app-wetransfer
– Short Circuit – dostępny klient Chat GPT na iOS: https://apps.apple.com/pl/app/short-circuit-ai-assistant/id1638522784
– Race Control – nowa aplikacja na iOS dla fanów Formuły 1: https://9to5mac.com/2023/05/22/race-control-for-ios-f1-app/
– Aktualizacja gry Change Reaction na Maca już dostępna: https://apps.apple.com/us/app/changereaction/id578086731?mt=12
– Miejsca w necie, w których można opisać zdjęcie lub film przy użyciu sztucznej inteligencji:1: https://llava.hliu.cc/
2: Filmy: https://www.ival-mbzuai.com/video-chatgpt
– Figma wprowadza dostępność w narzędziu Figjam: https://www.figma.com/blog/announcing-figjam-screen-reader-support/
– Adobe wprowadza sztuczną inteligencję do poprawy dostępności plików PDF: https://blog.adobe.com/en/publish/2023/05/17/making-pdfs-accessible-to-all
– Apple Tap to Pay – najbardziej dostępny terminal płatniczy na rynku: https://www.podbean.com/media/share/pb-jingw-140e688?utm_campaign=admin_episode&utm_medium=dlink&utm_source=episode_share
– Discovery I HBO w stanach łączą się w jeden serwis. Jak z jego dostępnością: https://variety.com/2023/digital/news/max-launch-whats-new-app-features-hbo-max-discovery-1235621417/
– Drobne usprawnienia i nowy błąd w systemach Apple: https://www.applevis.com/blog/apple-releases-macos-ventura-134-watchos-95-tvos-165
https://www.applevis.com/blog/apple-releases-ios-165-ipados-165-bringing-sports-tab-news-app-pride-celebration-wallpaper
– Zuzanka dostępna na Androida: https://play.google.com/store/apps/details?id=com.zuzanka
– Czytnik pieniędzy od studentów Politechniki Gdańskiej: https://mojaszuflada.pl/czytnik-polskich-banknotow-na-androida/
– Landrop – kolejne rozwiązanie do przesyłania plików między komputerem, a smartfonem: https://github.com/rpTools-org/landropPlus
– Ostrzeżenie dla użytkowników Goldwave: https://dragonscave.space/@simon/110414129196768266
– III Przegląd Piosenki Osób Niewidomych w Opolu: https://pzn.org.pl/spiewasz-zglos-sie-do-przegladu-piosenki/
– „Widzimy dotykiem i Zapachem”: projekt Wielkopolskiego Okręgu PZN: https://pzn.org.pl/okreg-wielkopolski-pzn-widzimy-dotykiem-i-zapachem/
– „Dostrzegamy! Badamy. W kobiecym interesie”: https://pzn.org.pl/dostrzegamy-badamy-w-kobiecym-interesie/
– Dzień otwarty w centrum dla niewidomych i słabowidzących na Tynieckiej: https://www.facebook.com/tynieckanaszesprawy/
– RIM z nowym abonamentem dla użytkowników prywatnych: https://pneumasolutions.com/celebrating-global-accessibility-awareness-day-affordable-cross-platform-remote-assistance-for-everyone/
– Nowości dostępnościowe od Google: https://blog.google/outreach-initiatives/accessibility/global-accessibility-awareness-day-google-product-update/
– Sposoby radzenia sobie z problemami Jieshuo i dyktowania głosowego: https://www.portal-pelion.cz/jieshuo-public-beta-20230506-nova-testovaci-verze-cili-na-opravu-kritickych-chyb/
– Netflix kończy z współdzieleniem kont: https://www.wirtualnemedia.pl/artykul/netflix-koniec-wspoldzielenie-kont-w-polsce-ile-kosztuje-oplata-w-polsce-za-udostepnianie-konta
– Recenzja Zooma m2: https://pnc.st/s/the-blind-podmaker/7f844299/jonathan-and-richard-mosen-unbox-and-demonstrate-the-zoom-m2-mictrak-from-a-blindness-perspective
– 40gb dźwięków do pobrania za darmo: https://sonniss.com/game-audio-gdc-2023
– WhatsApp pozwoli na edycje wiadomości: https://www.tabletowo.pl/whatsapp-edytowanie-wiadomosci-po-wyslaniu/
– Sztuczna inteligencja Zawita do Windowsa 11 oraz inne nowości z konferencji Microsoft Build:
https://blogs.windows.com/windowsdeveloper/?p=56688
https://www.theverge.com/2023/5/23/23733306/microsoft-ai-365-copilot-edge-build
https://www.windowscentral.com/software-apps/windows-11/windows-11-is-finally-getting-a-cloud-powered-backup-and-restore-feature
Znaczniki czasu:
Intro 00:00:00
Doświadczenia z polskimi głosami Acapela My Own Voice 00:03:18
Vizlens – rozpoznawanie ekranów dotykowych urządzeń AGD 00:06:03
Problemy z ramówką i nowości w aplikacjach 00:24:51
Serwisy do przetwarzania zdjęć i video za pomocą GPT 00:42:24
Dostępność Figjama 00:52:40
Spekulacje o dostępności Mortal Kombat 12 i wynik rozpoznawania video GPT 01:06:22
Adobe stworzy dostępne dokumenty PDF za pomocą AI 01:16:55
Apple Tap to Pay – najbardziej dostępny terminal płatniczy na rynku 01:20:04
Dostępność nowego serwisu streamingowego od HBO i Discovery 01:27:40
Wrażenia z Reha for The Blind 2023 01:33:06
Ostrzeżenie dla użytkowników Goldwave 02:14:35
Nowości Polskiego Związku Niewidomych 02:17:24
Tłumaczenie konferencji Reha for the Blind i zewnętrzne karty dźwiękowe 02:26:31
Dzień Otwarty w Centrum Kształcenia w Krakowie 02:36:19
Nowa opcja abonamentu Remote Incident Manager 02:38:49
Nowości od Google na Dzień Świadomości o Dostępności 02:42:19
|Sposób na dyktowanie w GBoard z Commentary 02:50:57
Netflix zabiera się za współdzielenie kont 02:52:44
Nowe miasta w Time4Bus i Zoom M2 02:56:34
Whatsapp wprowadza edycję wiadomości 03:12:03
Nowości w nadchodzących wersjach Windows 11 03:14:35
Jest już oficjalna aplikacja chat gpt od open ai na ios, na androida ma być wkrótce
https://apps.apple.com/pl/app/chatgpt/id6448311069?l=pl
Co do sterowania systemem za pomocą chat gpt to też jest takie rozwiązanie terminalowe na linuxa napisane w pythonie, nazywa się shel gpt
https://youtu.be/KYZa6OaLmes
na upartego pewnie i na windowsie by zadziałało.
No ciekawe czasy nadchodzą.
Na moim telefonie aplikacja Vizlens nie działa. To znaczy ona działa do momentu zrobienia przeze mnie zdjęcia interfejsu, a gdy tylko chce wejść w tryb interakcji, to nie mogę kliknąć w ogóle w ten przycisk a raczej w tą zakładkę. Od razu wyrzuca mnie do głównego ekranu aplikacji. Myślałam, że to jest spowodowane tym, że mam za stary telefon już na takie rzeczy. Okazuje się jednak, że nie tylko ja mam takie problemy na mojej ósemeczce jeszcze. Nowsze telefony takie jak np. iPhony 13 pro też potrafią mieć ten sam problem. Co ciekawe, bo nie każdy iPhone 13 pro ma ten sam problem co mój telefon. Ciekawa jestem czy z ósemkami jest podobnie, czy każda ósemka ma ten sam problem.
Aplikacja ma potencjał ale jak narazie z tego co widzę i już też ludziska opisywali to na grupce, za dużo zachodu z tym celowaniem w ekran i tak dalej. Więcej się człowiek nad tym napoci niż jest to warte. No ale dobrze że w ogóle komuś się chce takie programiki tworzyć. Może jakoś tą aplikacje dopracują, no sama nie wiem. W każdym razie ciekawe czasy nadchodzą, to na pewno.
Witam, jako osoba ociemniała pamiętam jeszcze jak wyglądają obrazy na zdjęciach i video dlatego to co opisuje Pan Tomasz z rozpoznawaniem obrazów jest jak najbardziej poprawne. Algorytm wydaje się, że działał jak najbardziej prawidłowo i dokładnie starał się opisać to co widać. Napisy, które starał się wydobyć Pan Tomasz mogły być jedynymi widzialnymi na tym video i najprawdopodobniej był to napis wars na boku wagonu. Jednak AI potraktowało go jako prawdopodobną nazwę miasta Warsaw do której jedzie ten pociąg. Ewentualnie gdzieś tam na dworcu była nazwa w stylu Warszawa zachodnia, centralna, wschodnia itp, ale drugi człon był czymś przysłonięty i bezduszna maszyna zinterpretowała to jak mogła, a nie tak jak człowiek na żywo który zmienił by pozycję, albo choćby obrócił głowę i zobaczył kawałek drugiego słowa po którym by się domyślił reszty. A ten człowiek ubrany w koszulę z krawatem mimo wszystko mógł być w kurtce zimowej, lub jesiennej. To jest ta bariera, że niewidomi od urodzenia niestety nie zrozumieją co to znaczy obraz i jak to wszystko widać, a nie da się tego porównać do czegokolwiek żeby jakoś opisać. Algorytmy pewnie są trenowane przez widzących i weryfikowane tak samo przez widzących, dlatego mniej więcej rozpoznają to co widzące osoby. Dobrym przykładem jest audiodeskrybcja filmowa w której musi być opisane nie dokładnie to co widać, ale jakby pewien kontekst obrazowy nawiązujący do tego co się dzieje a nie konkretne szczegóły opisujące to co widać. Algorytm opisujący obrazy i video trochę lawiruje pomiędzy widocznym kontekstem tego co może się dziać a opisem widocznych szczegółów, bardziej z przechyleniem w stronę tych szczegółów bez kontekstu. Dlatego opisywał zadowolonego psa w ten sposób, że właściciel dba o niego. Potrafił podać jego kolor, także rasę, a po ułożeniu ciała rozpoznał, że pies się bawi zamiast na przykład spać. Jako ociemniały też częściowo nie będę potrafił zrozumieć takich ludzi którzy nic nie widzieli od urodzenia, ponieważ u mnie ciągle działa wyobraźnia pamięciowa i mimo wszystko to co słyszę w głowie jest przetwarzane do jakiegoś obrazu. Pewnie nie jest już ten obraz zgodny z rzeczywistością, ale np kiedy ktoś powie że są chmury to ja w głowię dostaję obraz jakiejś chmury taki jak go pamiętam a on zdecydowanie nie jest obrazem tej chmury którą akurat widać na niebie. W pełni niewidomy człowiek od urodzenia nie potrafi sobie wyobrazić jak wygląda chmura choć by mu to tłumaczono na różne sposoby i tu jest właśnie zderzenie dwóch światów nie do przeskoczenia. Dlatego jeśli ktoś opisuje mi coś czego w dzieciństwie nie widziałem to dochodzi do wielu nieporozumień i mój mózg na siłę wyobraża to coś dopasowując do pamiętanych obrazów, a okazuje się że struktura opisywanego przedmiotu jest i tak zupełnie inna i bardziej skomplikowana niż mi się wyobraziła. Dobrym na to przykładem jest zorza polarna, ponieważ bez problemu kiedy słyszę chmura, błyskawica gwiazda, księżyc itp no to mam ich obraz w wyobraźni nawet jeśli jest inny niż aktualnie zawieszona chmura na niebie, lub przelatująca błyskawica natomiast gdy słyszę zorza polarna i żebym nie wiem ile tego opisów słyszał to i tak nie zrozumiem jak to wygląda ponieważ żadne porównania do czegokolwiek nie są adekwatne. Żeby taki algorytm był w 100% użyteczny dla niewidomych to najpierw musiał by zostać wytrenowany przez specjalistów od audiodeskrybcji, którzy rozumieją jak należy opisywać obraz dla niewidomego człowieka. I dokładniej wiedzą co niewidomy powinien uzyskać z takiego opisu obrazu, lub video a czego nie będzie w stanie zrozumieć. Jednym słowem rozpoznawanie obrazów będzie dobre i pewnie coraz lepsze jednak mimo tego idealnie nigdy nie będzie, ale użytkowo i roboczo to wystarczające jest już teraz. Pozdrawiam