Apple Vision Pro
Dodany 31 października 2025
4 komentarze
Dorota Bilecka i Arkadiusz Świętnicki przedstawiają wygląd, możliwości oraz poziom dostępności urządzenia Apple Vision Pro. W audycji koncentrują się na działaniu czytnika ekranu VoiceOver w środowisku rozszerzonej rzeczywistości, omawiają nawigację gestami, interakcję z elementami interfejsu oraz potencjał tego urządzenia w kontekście użytkowników z dysfunkcją wzroku.
Audycja dostępna jest również w wygenerowanej automatycznie wersji tekstowej
Pliki do pobrania :
Pobierz plik z audycją: Apple Vision Pro
Ten podcast był pobierany 427 razy
Komentarze
Arek użył chyba najważniejszego argumentu za – kamery obecne na wysokości oczu. W ten sposób czytanie tekstu w przestrzeni czy wykrywanie obiektów działa znacznie bardziej intuicyjnie, niż ma to miejsce wykorzystując telefon. Ale interfejs to muszą jednak poprawić – nie wyobrażam sobie szukać jakiegoś zgubionego okienka po całej przestrzeni mojego salonu. Oczywiście dla osób widzących wygląda to fantastycznie (notatki na drapaku dla kota a Youtube na nocnej szafce), ale w przypadku braku wzroku byłoby to jednak frustrujące. Musieliby zrobić coś w stylu „Focus Mode”, tak żeby móc jednocześnie otworzyć konkretną ilość aplikacji. Np możemy dwie, a gdy odpalimy trzecią, najstarsza całkowicie wylatuje z przestrzeni.
A ja chciałbym, aby VoiceOver w iPhonie, iPad i w Macu, za pomocą kamery danego urządzenia, potrafił odbierać gesty, jak VO w Vision. Jakiś statyw lub uchwyt na smartfon, a jeśli trzeba by, to AirPods w uszy, iPhone na szelki na klatkę piersiową lub brzuch i można by działać. W Watch już można trochę podziałać gestami, więc może czas na resztę urządzeń i to tych z kamerą.
Ale przecież to już tak działa. Masz np uniesienie brwi, zmarszczenie nosa i ileś innych gestów twarzą, które odpowiadają za konkretne czynności w iPhone. Jest też sterowanie głową, od dziesięciu lat chyba.
Nie, po pierwsze, miałem na myśli gesty palcami, po drugie, gesty typowo związane z VO, także z możliwością modyfikowania akcji, jak przy dotyku, klawiaturze i brajlu, a po trzecie, ten brajl, czyli ewentualnie pisanie po stole itp. O tym co piszesz, to oczywiście wiem, ale nie o to mnie chodziło. Po takim dodaniu rozpoznawania gestów w VO, można byłoby powiedzieć, że z perspektywy całkowitego braku wzroku, to właściwie na iPhone z AirPods mamy odbiór lub doznania jak na Vision z dokładnością do tego, że kamera jest w innym miejscu naszego ciała i jest może trochę bardziej ograniczona, co do głębi, ale całkowicie niewidomemu i tak bez różnicy, a soczewki, ekrany, czy jak tam to się nazywa i tak niewidzącemu są niepotrzebne. Zresztą, nie upieram się, że kamera iPhone jest tak samo dobrze zoptymalizowana do rejestracji otoczenia, jak w Vision, ale takie gesty palcami w powietrzu fajnie byłoby mieć w VO na iPhone, iPad i Mac, a jeszcze lepiej na następnik ATV lub HomePod z kamerą. Co do samych gestów głową lub mimiką, to nie czuję się w tym mocny, zwłaszcza w celu sterowania urządzeniem – palcami jest OK, wiem po Watch, ale tak, pamiętałem o tej możliwości z głową i mimiką, pisząc poprzedni komentarz.