Apple Vision Pro (wersja tekstowa)

Pobierz napisy w formacie SRT
Pobierz napisy w formacie VTT
Fundacja Instytut Rozwoju Regionalnego prezentuje Tyflo Podcast.
I rozpoczynamy kolejny tydzień z audycjami na żywo na antenie Tyflo Radia.
20 dzień października, to poniedziałek, to w kalendarzu.
20, no już prawie 10 na zegarze.
Tak jak mówiłem jeszcze przed rozpoczęciem tej naszej audycji,
to troszeczkę nam się zeszło z przygotowaniem tego wszystkiego.
…żeby wam dziś zaprezentować urządzenie, które, no cóż, myślę, że z tej perspektywy prezentowane gdziekolwiek może nie tyle, że nie było, ale bywało rzadko i podejrzewam, że jeszcze rzadko prezentowane będzie Apple Vision Pro.
To jest sprzęt, który dziś zaprezentują na antenie Tyflo Radia Dorota Bilecka i Arkadiusz Świętnicki. Witajcie.
Dzień dobry. Dobry wieczór właściwie.
No to słuchajcie, na dobry początek.
Żeby tradycji stało się zadość, jesteśmy na żywo.
663-883-600.
Whatsapp, Facetime, Facebook, Youtube.
Wszelkiego rodzaju łącza kontaktowe i nabiary na nas są takie jak zwykle,
więc zapraszamy was bardzo serdecznie do tego, żeby się z nami tu łączyć.
jeżeli będziecie mieć jakieś pytania,
więc zapraszamy bardzo serdecznie.
Natomiast teraz już przechodząc do merytum
sprawy i do tej naszej dzisiejszej audycji.
Może na dobry początek, co to właściwie jest to Apple Vision Pro?
Apple Vision Pro to jest tak zwany headset.
I teraz czym jest headset?
Można powiedzieć, że to są takie okulary, powiedzmy,
które zakładamy na siebie, na głowę.
Jest to urządzenie tak zwanej rozszerzonej rzeczywistości.
Po angielsku to się nazywa Augmented Reality Headset.
No i kiedy mamy coś takiego na głowie, to mamy tak zwaną rozszerzoną rzeczywistość.
Działa to na zasadzie takiej, że mamy w tym urządzeniu bardzo wiele kamer,
które obserwują to, co dzieje się w naszym otoczeniu.
I w środku tego urządzenia, jakby po naszej stronie, też są kamery,
które obserwują na przykład ruch naszych oczu, naszych rąk itd.
I dzięki temu możemy tym urządzeniem sterować.
Powoduje to, że mamy sprzęt, który
pozwala nam
bardzo głęboko się w tym wirtualnym świecie zanurzyć,
ale ten sprzęt pozwala też na to,
Żeby bardzo wiele informacji, że tak powiem,
bardzo wiele nietypowych, że tak powiem, rzeczy wykonywać
na różne nietypowe sposoby, bo pracujemy z tym urządzeniem też
w bardzo odmienny sposób od tego, do czego prawdopodobnie wszyscy
jesteśmy przyzwyczajeni, czyli nie sterujemy tym urządzeniem
za pomocą, nie wiem, przycisków ekranu dotykowego,
Klawiatury tylko za pomocą rąk, za pomocą gestów wykonywanych rękoma obiema.
W powietrzu, jak rozumiem.
W powietrzu, tak, o czym też będziemy rozmawiać.
No, może się to wydać dosyć abstrakcyjny opis.
Ja też niestety nie wiem…
O wyglądzie tego to potem Dorota będzie trochę więcej mówić.
Natomiast jest to naprawdę bardzo ciekawe, bardzo abstrakcyjne doświadczenie.
Ja miałem okazję testować Vision Pro jeszcze dużo, dużo, dużo zanim sam stałem się właścicielem jego.
W tamtym roku na Pragma Conference, o czym też chyba coś tam wspominałem kiedyś.
I wtedy było to dla mnie naprawdę takie kosmiczne doświadczenie, a teraz jak sam posiadał to urządzenie, no to tak samo jest to niezwykle, myślę, ciekawa rzecz i o zastosowaniach sobie jeszcze pomówimy.
Zanim przejdziemy do szczegółów i do opisu tego urządzenia, to chciałem zapytać o tę rozszerzoną rzeczywistość.
No bo zawsze, kiedy mówimy o czymś takim, to jednak nam się to kojarzy przede wszystkim z tymi bodźcami wizualnymi.
Czyli, że ktoś zakłada takie jakieś powiedzmy gogle na głowę, ma tam jakieś kamery przed sobą, czy nawet ekrany właściwie,
Właściwie nie tyle kamery, co ekrany. Ma przed sobą jakieś ekrany, które bezpośrednio rzucają mu na oczy obraz i może się poczuć, że znajduje się wewnątrz czegoś.
I teraz moje pytanie jest takie, co czuje osoba niewidoma, kiedy założy taki zestaw od Apple, który, no to już możemy zdradzić, ma zaimplementowaną dostępność, jak pozostałe produkty firmy z nadgryzionym jabłkiem w logo?
Ja powiem ze swojej perspektywy osoby, która ma jednak duże poczucie światła.
Dla mnie jest to ciekawe uczucie, naprawdę czuję się jakbym był w jakimś trochę innym miejscu,
też za sprawą tego, że Apple Vision Pro zbiera pogłos z naszego otoczenia
i jak odtwarza do nas dźwięk, to symuluje ten pogłos.
Czyli jak jesteśmy w małym pomieszczeniu, to mamy w tej symulacji dźwięk przestrzenny
Z takiego małego pomieszczenia. Jak jesteśmy w dużym pomieszczeniu, to mamy dźwięk z dużego pomieszczenia.
Też ważną rolę odgrywa to, że voiceover na Vision Pro jest zaimplementowany w taki sposób,
że mowa dochodzi z tego miejsca, gdzie faktycznie jest dany obiekt.
O tym jeszcze będziemy mówić. To przewodnictwo kostne zastosowane w tych głośnikach
Apple Vision Pro jest naprawdę bardzo dobrej jakości, przez co te symulacje są bardzo realistyczne.
Jest coś takiego, co się nazywa otoczenia.
Dorota, może ty więcej na ten temat powiesz.
Możemy sobie wybrać takie miejsca, do których się możemy przenieść.
Wiem, że tobie się to bardzo podobało.
No tak, jest parę tych otoczeń.
Na przykład Jowisz.
Dla widzących jest to wizualnie super.
Trochę ich przenosi w taki kosmiczny świat.
No, mi bardziej jakieś tam się spodobały, nie wiem, oceaniczne,
czy tam jakieś było też takie wiosna, spring, coś tam.
Tak, było Springfield, coś takiego tam, jakieś wiosenne,
jakiś wodospad był.
Strumień, o, strumień chyba był.
Mnie się najbardziej podobało zimowe otoczenie.
Zimowe, tak.
Bo zimowe otoczenie ma coś takiego zaimplementowane,
że jak siedzisz na przykład obok szafki, powiedzmy, to słyszysz jak śnieg pada na tą szafkę, czy na jakiś inny obiekt.
I on sobie wylicza, czy ten obiekt może być miękki, czy twardy i na przykład na łóżko, jak ten śnieg pada, to jest inny dźwięk niż jak pada na szafkę.
Niestety tego nie ma jak pokazać, bo…
No tak, musielibyśmy mieć jakieś mikrofony binauralne i w ten sposób to nagrywać, a to pewnie też nie odzwierciedliłoby tego,
Jakie są wrażenia użytkownika, który jest w centrum tego wszystkiego?
Ale naprawdę jest to kosmiczne.
Ja np. trochę mogę też zdradzić, bo po co ja kupiłem Apple Vision Pro?
Ano po to, że będzie Luma Toolbox na Vision Pro.
Zresztą już częściowo jest, ale jeszcze długa droga przed nim.
No bo co dają nam takie gogle?
Dają nam to, że mamy widok z oczu.
Aluoma Toolbox na przykład posiada funkcję rozpoznawania sygnalizacji świetlnej
czy OCR-a.
No to taki widok z oczu jest jak najbardziej fajny.
Zresztą mamy też dużo innych czujników.
Mamy żyroskop, mamy czujnik lidar.
Mamy bardzo dużo.
To urządzenie jest naszpikowane różnego rodzaju czujnikami, kamerami
i mikrofonami też.
Tak, łącznie 16.
No to naprawdę całkiem sporo. Ale to, skoro to jest właśnie urządzenie rozszerzonej rzeczywistości, no to jednak też musi zbierać z różnych kątów naszego otoczenia
i z różnych perspektyw te informacje wizualne, żeby to jakoś przenosić. Czyli, jak rozumiem, użytkownik niewidomy też jakieś tam wrażenia będzie mieć po założeniu tego.
Przede wszystkim dźwiękowe, no bo jakież by inne.
Można się nieźle bawić. Tak mi się wydaje.
Więc no, my też możemy mieć wrażenia różnego rodzaju.
Możliwości na pewno są. Jeżeli chodzi o dostępność, to dziś na pewno pokażecie też dostępność Vision Pro, jak ona wygląda.
Chociaż na razie to chyba jest jednak sporo jeszcze błędów tam, prawda?
Takie TLDR duże. Zresztą ogólnie systemy z rodziny 26 są dość pobugowane, ale ogólnie tak.
Warto pamiętać, że Vision Pro są jedynymi na świecie dostępnymi goglami VR.
Więc czy kupimy sobie Oculusa, czy jakiegoś PlayStation VR, czy cokolwiek innego, to nie
będzie to po prostu dla nas w żaden sposób dostępne.
Ale są problemy, na które te problemy dzisiaj na pewno się napatoczymy.
Przy opisywaniu tego urządzenia. Są bugi, zgłaszam je do Apple regularnie, mam nadzieję, że coś z tego wyjdzie.
Trochę rzeczy się tam poprawiło.
To jest tak, że mało osób jednak z VoiceOver’a korzysta.
No też, bardzo mało osób korzysta z VoiceOver’a.
Niedawno wyszła nowa wersja Vision Pro w ogóle, kilka dni temu, Vision Pro M5.
Jest trochę tajsza, tam o 8% chyba, więc dalej niewiele.
Skoro już mówimy o cenie, to jaka jest mniej więcej cena takiego urządzenia?
To jest, tego się nie da kupić w Polsce, więc to się da kupić np.
w Stanach Zjednoczonych za 3499 dolarów, czyli na nasze to będzie
około 13 tysięcy.
Tak, ale pamięć jaka to jest?
No, ja mówię o podstawowej wersji 256GB.
No tak, a potem, jak rozumiem, są jeszcze kolejne wersje, które mają więcej pamięci, tak?
Tak, tak. Najwyższa, największa jest terabajtowa… nie, dwuterabajtowa jest największa.
No i na pewno cena też idzie w górę.
Mamy pierwszy telefon, więc odbierzmy. Patryk jest z nami. Dobry wieczór.
Dobry wieczór.
Witamy i słuchamy.
Moje pytanie, no bo ja już jak usłyszałem tą cenę to się trochę przeraziłem.
Ja nie wiem czy Macbooki nie są czasami tańsze od tego.
Na pewno są, to znaczy, no, możesz sobie kupić MacBooka, który będzie kosztował tyle, co Apple Vision Pro, ale to już naprawdę będzie full wypas.
No dlatego fajnie by było, gdyby Apple jednak wprowadziło Vision, tylko jakąś z inną nazwą i które by było nieco tajsze i miało może mniej tego wszystkiego, czego by osoba niewidoma nie użyła.
Coś tam mają robić takiego podobno. Są jakieś plotki, że ma być.
No bo powiedzmy sobie, że taka osoba niewidoma nie z wszystkiego skorzysta, nie?
Tak naprawdę tych funkcji projestr wykorzystywanych przez nas tak strzelamy.
To znaczy Patryku, ale to umówmy się od razu i powiedzmy sobie to wprost, ta audycja raczej nie ma na celu
zachęcenia kogokolwiek do zakupu tego sprzętu. Bardziej pokazanie tego, że w ogóle takie możliwości
Tak, to jest bardziej demonstracja.
Wiem, ale ja mówię jeszcze o kwestii ceny.
No tak, aczkolwiek no…
Natomiast moje pytanie jest takie, ponieważ sporo się słyszy też na temat gier, które wykorzystujemy jakoś w wirtualną rzeczywistość. Czy my jesteśmy w stanie sobie w coś pograć z tym?
Tak jest…
Jezu, jak to się…
Jest… Jak to się nazywa?
Jest jakiś taki
RPG, taki tabletopowy, że wiesz, że rzucasz kostką i tam się losują różne zdarzenia.
I ja tak jak go testowałem przez chwilę, to on jest dostępny.
Jest też taka gra, która się nazywa The Day, The Story of a Missing Soldier.
I to jest takie coś jak Serce Zimy, tylko że w 3D.
I ta gra mogłaby być dostępna, ale nie jest, w sensie trzeba się męczyć z OCR-em i tak poza tym jest dużo różnych gier na Vision Pro, ale szczerze powiedziawszy nie miałem czasu testować ich.
Ja bym chciał Black Boxa zobaczyć na Vision Pro, oj.
No, jest Black Box na Vision Pro i w sumie nie wiem dlaczego go nie zainstalowałem.
No to…
Ale jest to myśl. Niestety człowiek zajęty ostatnio i…
Ale no, Black Box na Vision Pro, te wyzwania mogą tam nieźle wykorzystywać te czujniki.
Natomiast testowałem Vision Pro w takiej innej trochę kwestii, też częściowo związanej z gamingiem.
Rzutowałem sobie Vision Pro jako ekran Maca wykorzystywałem i próbowałem sobie w coś tam grać.
No i do tego się to spisuje bardzo fajnie, bo możesz niektóre kontrolki klawiatury zastępować ruchami rąk.
Na przykład, nie wiem, powiedzmy, możesz mapować różne ruchy rąk pod różne przyciski pada, więc…
Ja widzę jeszcze jeden potencjał tego. Gry rytmiczne.
No, ale właśnie o to chodzi, że to jest urządzenie, które ma ogromny potencjał,
ale deweloperzy jeszcze nie mają chyba pomysłu, jak wykorzystać go.
I to jest wszystko dalej takie… to jest dalej swego rodzaju nowość.
No tak jak, nie wiem, wchodził Internet w latach 90-tych, wchodziły komputery w latach 80-tych.
Też ludzie nie do końca wiedzieli, co z tym robić.
Wiesz, Arek, nawet, żeby daleko nie szukać, jak wchodziły telefony z ekranem dotykowym.
To tak też w kontekście naszym, w kontekście osób niewidomych.
Też mało kto sobie wtedy wyobrażał, jak osoba niewidoma
będzie w stanie korzystać z urządzenia, które ma tylko ekran dotykowy.
No tak.
I przyszedł Steve Jobs i powiedział, patrzcie, tak się to robi.
A zresztą to najpopularniejszy cytat z Microsoftu, że iPhone’a nikt nie kupi,
bo na ekranie dotykowym ciężko się pisze maile, nie?
Serio, nie sprzyjałem tego.
Tak, tak, to jest bardzo taki znany cytat.
Nawet jak się ludzie śmieją z upadku Windowsa Mobile, to też, Michał, dobrze mówisz, bo na Virgin Pro też się ciężko pisze maile, tak bym powiedział, ale nie ma się co, myślę, zrażać.
A tymczasem produkty Microsoftowe czasami łapie się na tym, że niekiedy działają lepiej na iPhonie niż na Windowsie i na produktach konkurencyjnych.
Ale słuchajcie, wróćmy do Apple’a.
Dobrze, to już z mojej strony tyle.
Okej, to dzięki w takim razie za telefon.
Jak coś jeszcze w trakcie ci przyjdzie do głowy, jakieś pytania, to pisz lub dzwoń.
Do usłyszenia, pozdrawiamy cię serdecznie.
A teraz myślę, że już możemy powoli przechodzić do konkretów, do omówienia tego,
może na dobry początek, co my tam właściwie mamy w pudełku.
Pudełko się wyciąga właśnie w tym momencie chyba?
Jest, tu leży sobie.
I tak.
Oczywiście są same okulary.
Jest bateria, która…
Od niej odchodzi kabel i ją się tym kablem podpina.
Nie może być sytuacji takiej, że okulary będą bez baterii,
bo nie będą działać po prostu.
Tak.
Ją się podpina jakby do okularów i ona ma port USB-C.
Można sobie ją tam ładować.
Podobno widzący to tak potrafią
cały dzień pracy w biurze siedzieć z tym, pracować jakoś tam na tym i…
Bateria siedzi pod gniazdkiem, nie?
I ta bateria jest pod gniazdkiem cały czas.
I co jeszcze?
Tutaj przy tej baterii myślę, że się trochę zatrzymajmy, bo ogólnie ta bateria
to jest pierwsza taka moja, jak ja zobaczyłem pierwszy raz to tak bliżej
To jest straszna wada tego urządzenia, bo…
No właśnie, miałem o to zapytać, czy to nie jest uciążliwe, bo to przecież…
Załóżmy, że ktoś chciałby z tym gdzieś na przykład chodzić, tak?
No to na kieszeni ładujesz baterię i tyle.
Na kieszeni można dokupić taki pokrowiec…
Tak, pokrowiec taki na baterię.
I one chyba są różne, no.
Nam się udało dostać jakiś taki najprostszy…
taki plastikowy z zaczepem takim do szlówki, czy do spodni, czy jak tam…
Na szyi można nosić.
Mówią damski, bo to bardziej niby, że kobiety sobie mogą to dokupić.
A jakiej wielkości jest ta bateria?
Jezus, no ja bym powiedziała, że powerbanka takiego…
Trochę większa, może od dziesiątki.
No taki typowy powerbank.
Dwudziestka, to nie jest takie pomiędzy.
Nie jest jakaś… ja myślałam, że jest większa, no nie jest jakaś tam wielka.
To bateria ma inny problem, Michale. Wiesz co, ten kabel jest u niej na stałe przytwierdzony, więc jeżeli np. złamie Ci się kabel, co się zdarza, no to jesteś w…
Tak, ale z drugiej strony…
To masz problem.
To masz problem.
W porównaniu do ceny okularów, to nie jest jakaś, powiedzmy, droga, nie?
No, bateria to jest koszt około 800 zł, chyba.
600 zł.
600 zł.
Jak patrzyliśmy.
No to nawet sobie można jeszcze rozważyć ewentualnie do kupienia jakiegoś zapasu.
Jak już tyle się wydało.
To se kupię jeszcze 10 baterii.
No, może już bez przesady, ale tak z jedną jeszcze dodatkową, to czemu nie?
I co jeszcze jest w zestawie? Jest ładowarka i kabel USB-C, taki jak do iPhona.
Ładowarka jest trochę jak do Maca, tych mniejszych MacBooków.
Jak do MacBooka Air.
O, właśnie, coś takiego.
Co tam jeszcze jest? Patrzę.
Aha, na tych okularach jest… jakby one są zabezpieczone, no takim, ja wiem, pokrowiec to nazwać, czy taka zaślepka, no ona jest taka porządna.
Taka zaślepa.
No takie konkretne.
To jest zrobione z materiału.
Żeby właśnie się to szkło nie rysowało.
Ścierka jest do dokupienia, nie ma jej w zestawie. I co jeszcze było do dokupienia?
Soczewki.
A, soczewki też sobie można do… Znaczy tak, one ogólnie są, jakieś soczewki w zestawie.
No ale na przykład jak z tych okularów wykorzystało ileś tam osób i ktoś by sobie chciał dopasować swoje soczewki,
no to jakby można je wymieniać, no to wtedy już trzeba się na rozmowę z Apple’em umawiać.
Tak, bo oni wtedy robią jakieś skany twarzy. Chociaż co ciekawe, to jest informacja ze wczoraj Apple uruchomiła nową usługę,
Gdzie możemy sobie iPhone’em, czujnikiem głębi takim do Face ID, zrobić sami skan twarzy i wtedy system nam podpowiada, jakie soczewki dla nas byłyby dobre.
Jest jeszcze tu jakaś opaseczka. Ona chyba może jakby dociskać jeszcze, bo te okulary, zaraz o tym więcej powiem, ale tak na szybko, to one jakby mają z tyłu taką rozciągliwą opaskę.
Ale jak komuś…
Je się oczywiście tam reguluje też.
Takie jest pokrętło do regulacji tego na głowie,
żeby to się działo porządnie.
Tak jak w kasku od roweru na przykład.
I jest taka opaska.
Ją się reguluje na rzep.
I ona jakby może dociskać też te…
No, dociskać te okulary tak, żeby z tej głowy nie spadły.
Więc to jest taki, powiedzmy, dodatek.
No i co? Pokrowiec też został dokupiony do baterii.
No oczywiście papiery są.
I chyba tyle w opakowaniu.
Już więcej tu nie widzę.
To w takim razie może…
Jeszcze mamy dodatkową taką… jak to nazwać to?
To jest taka opaska na oczy.
Jeżeli na przykład nosimy okulary
i potrzebujemy mieć więcej miejsca między soczewkami a oczami
To możemy to przypiąć na magnez chyba do okularów.
Się przypina na magnez, żeby też jakby dookoła czoła i tutaj przy nosie i tak dalej tu dookoła, żeby też to komfortowo się nosiło.
Czyli z Apple Vision Pro można korzystać w okularach czy nie?
Tak, można.
Można. Ok. To w takim razie może teraz kilka słów na temat samych tych okularów.
To najważniejszy element tego zestawu, Przaka.
Mam je teraz w rękach. Z tyłu jest opaska taka…
no, dość rozciągliwa, ale też widzę, tu jest jakiś opór.
Nie da się jej tak super, hiper, na maxa rozciągnąć,
ale dość dużo się rozciąga, żeby to jednak na głowę założyć.
Po prawej stronie, idąc jakby…
Nad prawym uchem, może tak, z tyłu, jest pokrętło, którym się te okulary zaciska na głowę.
Czyli ta opaska i okulary, one jakby się zbierają do środka, tak żeby to z tej głowy nie spadło.
Czyli po prostu dopasowujemy je do rozmiaru głowy.
Tak. No i później już jakby się zaczynają…
Tu jest jeszcze taki… jak to nazwać to?
No właśnie, chyba tu będzie to kostne…
Tak, tu jest ten głośnik, te głośniki.
I później już się zaczynają okularia.
Ja mam na razie przysłonięte jakby tym…
Ja to nazywam pokrowiec, no ale powiedzmy taka zaślepka.
No i mamy już te szkła, tak?
No i tam już pod tym są właśnie szkła, jakby cały taki ekran.
Warto powiedzieć, że tego nie dotykamy, bo to jest bardzo czułe, jeśli chodzi o zabrudzenie.
A jak go dotkniemy, trzeba to tą ściereczką, która notabene kosztuje około 100 zł, przetrzeć.
I co? Po lewej stronie, tak jak idzie opaska z tyłu, tak z tyłu nad lewym uchem,
Jest z kolei wejście na baterię.
Podłączenie tej baterii to jest ciekawe.
Podłączenie tej baterii wygląda tak, że jakby na końcu kabla jest taka okrągła…
Ciężko powiedzieć…
Taki bolec, no.
Takie…
Chociaż bolec też nie do końca.
Trochę to wygląda jakby się śrubę wkręcało.
Ten kabel musi być w górę jakby…
odchodzić w górę jakby od tej obudowy i przekręcam to jakby w prawo,
czyli kabel się, żeby to się podłączyło, kabel się znajduje jakby z tyłu głowy,
o tak można powiedzieć. No i wtedy to jest podłączone. No i oczywiście znowu za tym
Gniazdem baterii jest też ten…
Błośnik.
Tak.
W środku jest właśnie ta magnetyczna taka…
Te soczewki?
Nie, to oddzielenie, jakby ta poduszeczka taka.
A, ta poduszka taka, no.
No i później w środku już są soczewki, które też można wyjąć.
Próbowałam się kiedyś w to bawić, ale…
Jak ja taka strachliwa raczej nie jestem, to potem już się trochę zaczęłam bać, żeby czegoś tu źle nie zrobić.
No i… jeśli chodzi o okulary…
Jeszcze przyciski, myślę, żeby omówić.
No właśnie, o to miałem zapytać. Czy coś my tu mamy?
O, właśnie, przez to, że zamknięte to było, to nie do…
No ja to znajmę jednak.
Więc tak…
Już ubierz sobie, bo chyba już…
Po prawej stronie jest koronka.
Ogólnie, tak, po prawej stronie jest koronka, po lewej stronie jest przycisk boczny.
U góry jest jakby wentylacja.
No a…
Tak, bo to ma wentylację i tak fajnie oczy chłodzi.
A po bokach są właśnie mikrofony jakieś tu widzę, oczujniki, kamery, nie wiem co nawet,
Część widać, część jest pewnie gdzieś tam zabudowana, więc nawet nie wiem.
I co jeszcze tu mam ciekawego? No już nic nie mam.
Mam jeden wielki ekran, że tak powiem, który właśnie dobrze jest,
jak się nie używa, to jednak zakrywać tym…
No tak, żeby się nie porysowało albo coś.
No tak, to trzeba pilnować, żeby się nie porysowało.
W sensie od razu to się też nie porysuje, no ale wiadomo, jakby się…
Ja to się boję o to, strasznie.
No i co? No i chyba można pomału przechodzić do podłączania do kodka, może…
Do podłączania do baterii, jak rozumiem, tak?
Tak, tak.
To ty sobie tam przygotowuj się, a ja opowiem.
Bo w sumie jest to bardzo ważna rzecz, dobrze, że Michał przypomniał,
bo Michał ma moje notatki, to może to monitorować.
Pierwsze uruchomienie Vision Pro, warto pamiętać o tym, jakbyście to kupili, to zanim uruchomicie pierwszy raz urządzenie, to musicie w iPhonie wyłączyć taką opcję, która się nazywa automatycznie uruchamiaj wejście ekranu Braila po wejściu do pola edycji.
To jest w ustawieniach Braila i to trzeba wyłączyć,
dlatego że w Vision OS jest paskudny bug, który powoduje,
że klawiatura brailowska, która była obecna w starym Vision OS,
w nowym Vision OS jej nie ma, ale ustawienie zostało.
Więc VoiceOver uruchamia klawiaturę brailowską,
która tak naprawdę nie istnieje w ogóle,
przez co nie możemy nic wprowadzać tekstu,
Musi nam osoba widząca pomóc, a to też się baguje, bo wtedy nie da się voice-overa wyłączyć i jest ogólnie straszny, straszny problem duży z tym.
Ale jak w ogóle wygląda ta pierwsza konfiguracja? Co, czego od nas to urządzenie chce i jak wygląda włączenie dostępności?
Zakładamy w urządzenie.
Ono się włącza jakiś tam czas. Jak mamy poczucie światła, to widzimy to.
I słyszymy taki dźwięk, taką muzyczkę powiedzmy.
I nam miła pani mówi, żeby trzykrotnie nacisnąć koronkę w celu włączenia voiceovera.
No i my to czynimy. Naciskamy trzy razy koronkę, włącza się nam voiceover.
I wtedy mamy coś takiego jak…
To się akurat tutaj pokazać.
Bo tu chodzi o to, że te soczewki mają możliwość poruszania się.
Tam jest silniczek.
I ten silniczek może te soczewki poszerzać lub zwężać.
I my jak przytrzymamy tę koronkę, to musimy mieć otwarte oczy wtedy.
I wówczas system dopasowuje rozmiar tych soczewek
…do rozmiaru naszych oczu. Oczywiście w jakichś tam normach.
Jak ktoś jest bardzo poza normą, no to system sobie nie poradzi.
Musimy wtedy ręcznie to robić.
A czy ma to dla nas jakiekolwiek znaczenie, bo tu…
No ma, bo wiesz co, bo to cię uciska, jak jest za ciasno.
Wiesz co, tak, ale chodzi mi o to, czy praktyczne ma dla nas to jakieś znaczenie,
no bo przecież niektórzy użytkownicy niewidomi fizycznie, oczu są pozbawieni.
I teraz co w takim przypadku?
Wtedy trzeba wybrać odpowiednią opcję. Jest odpowiednia opcja.
I can’t use my eyes for input.
I ta opcja niesie ze sobą też inne implikacje, o których później poopowiadamy.
I wtedy nie musimy tego robić.
Potem ustawiamy, konfigurujemy nasze ręce.
Urządzenie każe nam wyciągnąć ręce, rozłożyć je przed sobą i tak je wywrócić na lewą stronę.
Przekręcić w prawo, w lewo.
Potem mamy konfigurację tzw. persony, czyli naszego avatara powiedzmy.
To działa w taki sposób, że ten system nam mówi, żeby się uśmiechnąć,
żeby podnieść oczy do góry, podnieść oczy na dół,
zmarszczyć brwi, zmarszczyć czoło itd.
Potem urządzenie łączy się z iPhone’em,
pobiera z niego informacje o Apple ID,
co jest bardzo wygodne, bo gdybym miał tam się logować, to bym się chyba zachlastał.
w tym czasie, no bo wtedy jeszcze kompletnie byłem zielony w tym temacie, nie wiedziałem jak w ogóle pisać tekst i tak dalej.
No i tyle. I potem lądujemy już na ekranie głównym.
A czy na przykład te oczy w górę, oczy w dół, da się to w jakiś sposób pominąć?
Bo w takiej sytuacji, no to też na przykład ja mimo tego, że mam oczy,
Ale jakby na przykład coś mi kazało na przykład spojrzeć w górę, spojrzeć w dół, to szczerze powiedziawszy ja bym nie wiedział kompletnie jak mam to zrobić.
Wszystko się da pomijać tam. Wszystko się da tam pomijać. Jedyne czego się nie da pomijać to konfiguracji rąk. No bo czymś musisz starować.
No tak, no ale to i słusznie, natomiast to też warto wiedzieć, że w tym przypadku to jednak rzeczywiście ręce będą niezbędne.
Jak rozumiem, nie wspiera Vision Pro na razie, na przykład jakichś przełączników, żeby można było sterować, to nie wiem, głową.
Wspiera, ale jest takie drobne niedociągnięcie, że głową można sterować, ale jest takie niedociągnięcie, że i tak te ręce musimy ustawić.
Więc jeżeli byśmy… a w sumie to jest dobry… ja sobie też to, wiesz co, zapiszę, żeby Ablowi to zgłosić.
No tak, bo jeżeli ktoś ma na przykład niesprawne ręce i na przykład tylko głowę może poruszać, no to co wtedy?
No tak, to prawda. A jest normalnie w ustawieniach switch control, więc można, można.
Dorota wspomniałaś o kodzie kreskowym, to o co chodzi?
Kodzie QR. Pomyliłam się. On na początku gdzieś tam prosi o zeskanowanie kodu z iPhone’a i właśnie to pokazuje, jak to urządzenie to szybko i właściwie nie wiadomo kiedy.
I co daje nam widok z oczu? Ja po prostu podniosłem iPhone’a do poziomu okularów i on od razu to zczytał w trybie natychmiastowym. Tak, to prawda. Zapomniałem o tym.
A to była pierwsza taka rzecz, taki efekt wow, takiego praktycznego wow, że coś mi jest w stanie tak szybko rozpoznać kod QR.
Czy w trakcie tej konfiguracji, tej pierwszej konfiguracji, my jesteśmy jakoś prowadzeni, jeżeli chodzi o chociaż podstawowe gesty dotyczące voice-overa?
No bo tak, mam sprzęt, nowy. Załóżmy, że dopiero go kupiłem, niewiele wiem na jego temat, wiem tylko, że jest fajny, że ma dostępność i że ma działać.
I teraz, jak ja w ogóle, nie widząc, mam z tego na samym początku korzystać?
VoiceOver ma sam ołczyk wbudowany, który nas tam prowadzi. O podstawowych gestach też sobie opowiemy.
No, generalnie gesty… Trochę jak ktoś Wiedźmina czytał, to jakbyśmy znaki wiedźmińskie robili.
Tam znaki się palcami robiło. Pozdrawiam wszystkich fanów Wiedźmina.
A dla tych, którzy Wiedźmina nie czytali, to polecam.
Ale teraz, na przykład, chcemy przejść do następnego elementu, to robimy taki gest, że
złączamy ze sobą palec wskazujący i kciuk prawej ręki.
Chcemy przejść do poprzedniego elementu. Złączamy ze sobą środkowy palec i palec wskazujący prawej ręki.
Na odwrót.
Kciuk i środkowy.
Dobrze.
Czyli kciuk jest jakby tym elementem wspólnym i teraz w lewo to kciuk wskazujący, w prawo kciuk środkowy.
Tak, jak chcemy aktywować, to kciuk wskazujący lewej ręki.
Jak chcemy, nie wiem, są też tak zwane modyfikatory, czyli chcemy przejść
pokrętłem, no to trzymamy kciuk wskazujący lewej ręki, kciuk wskazujący, kciuk
środkowy prawej ręki.
Chcemy wejść w tryb sterowanie głową, jak ja to mówię,
to naciskamy, trzymamy prawej ręki kciuki wskazującej i wtedy mamy takie dźwięki,
możemy głową wskazywać elementy, które chcemy klikać.
I kciuk wskazujący lewej ręki zatwierdzać.
Czyli ta nasza głowa zachowuje się jak taka
duży cudzysłów koronka, tak?
Bardziej jak myszka wiesz, jak myszka w komputerze.
Ja na przykład bardzo lubię sterować głową, korzystam z tego.
Na przykład jak jakieś sms-y czy tam czy maile to.
Na przykład kod wpisać.
Albo kod wpisać właśnie na klawiaturze to też.
Jednak szybciej, aczkolwiek no ostatnio mi to coś…
I warto pamiętać o tym, że jak chcecie sobie ograniczyć frustrację, to siądźcie przy jakimś… żebyście patrzyli na ścianę na przykład.
Albo na… w sensie… wiesz o co mi chodzi. Żeby być zwróconym w stronę ściany.
Do jakiejś konkretnej powierzchni.
Powierzchni, tak. Bo my na przykład mamy taką szafkę, ale ta szafka jest trochę wyżej ponad moimi oczami.
I przez to on się na przykład czasami baguje.
Zresztą, no na przykład Dorotek będzie pokazywać to na stojąco, bo to jest taka kolejna rzecz, którą na pewno usłyszycie.
To urządzenie jest bardzo czułe.
Jeżeli na przykład korzystamy z Vision Pro i chcemy skorzystać z klawiatury takiej o fizycznej, to musimy stać i na stojąco korzystać z klawiatury, bo on to zobaczy i zacznie wykrywać gesty.
Widziałem na YouTubie przed audycją jakiś filmik o tym, jak temu zaradzić, ale nie zdążyłem go obejrzeć, niestety, przed audycją. A szkoda.
W ogóle nawet jest tak, że jak, powiedzmy, ja steruję rękoma…
Tak, a ja na przykład coś robię telefonem…
Albo ktokolwiek przejdzie koło mnie, no to po prostu apokalipsa, bo ktoś mi tak poklika.
A to jest akurat duży błąd, uważam, bo on powinien jednak rozróżniać gesty twoje jako użytkowniczki, a nie interpretować wszystkie gesty, które znajdą się w polu widzenia jego kamery.
To znaczy, to jest śmieszne. Ja ci powiem jeszcze jedną ciekawą rzecz, bo na przykład jak staniesz po żołniersku na baczność, to on wtedy… ja mogę centralnie przed twarzą Dorocie machać, on nic nie wykryje.
Ale w momencie, kiedy ona ma ręce jakby w trybie roboczym, no to wtedy się to dzieje.
On jakby się uaktywnia i on wtedy…
No tak, bo on wtedy po prostu zaczyna to interpretować jako te wszystkie gesty.
Tak.
No i to jest spore niedociągnięcie.
To też będę z Apple’em walczył o tym, bo wiem, że osoby widzące mają ten problem,
ale nie na taką skalę jak my, voice’owe.
Tak, ale jeżeli mało osób jako voice’owara korzysta, no to oni jakby nie mieli…
Ale akurat, wiesz co, Apple może różne rzeczy poprawiać, aczkolwiek…
To znaczy, wiecie, ja sobie jestem w stanie wyobrazić sytuację, w której spełnia się sen Apple
i wszyscy tego używają. I to zaczyna być dużym problemem.
Bo teraz, powiedzmy, każdy jest w posiadaniu tego urządzenia, nosi je, korzysta z niego,
No więc siłą rzeczy jesteśmy bardzo często w zasięgu nie tylko swoich gestów.
I zaczyna być problem.
Tak, ale ja o tym chciałem powiedzieć na końcu audycji.
Ale skoro już weszliśmy, to teraz o tym powiem.
Ja, Vision Pro, traktuję jako DevKit.
Czyli ja jako developer mam urządzenie.
Inwestuję w przyszłość swojej aplikacji.
Ale umówmy się, teraz mało kto będzie z niej korzystał.
To jest po prostu DevKit jeszcze, nie?
To jest jakaś tam, powiedzmy, technologia, która być może kiedyś się przyjmie to, że Meta czy Microsoft wycofują się z tych okularów, czy Sody zresztą nawet też, wycofują się z tych okularów wirtualnej rzeczywistości,
bo się okazuje, że po prostu dla ludzi jest to mało wygodne i to tylko naprawdę maniacy gier różnego rodzaju się chcą w to bawić.
A teraz Samsung wchodzi, Samsung wchodzi, Samsung wchodzi.
No nie.
Tak, ale na takiej zasadzie jak AirPods Pro na przykład?
Ale widzisz, to był bardzo niszowy sprzęt.
To był mega niszowy sprzęt?
Widziałam u kogoś.
To był mega niszowy sprzęt i kto by takie słuchawki chciał, albo się będą gubić itd.
AirPodsy weszły, pyk, po kilku latach każda firma, każda firma ma swoje słuchawki.
Ten wygląd szczególnie właśnie i to takie etui i to wszystko to się rzeczywiście upowszechniło.
Czas na uruchomienie tego urządzenia. Ty Doroto już masz je na sobie.
Mam je na sobie i teraz będę podłączać baterię.
I tak jak mówiłam, ustawiam kabel.
O, on już mi się jakby…
Jeszcze nie jest to włączone.
Aha.
Jest to, no ja wiem, pod kątem może 45 stopni do tyłu jakby tej opaski.
No i przekręcam go w prawo.
O, i teraz czekam.
O, ruszyło.
Pojawił się taki dźwięk.
Tak.
Lubię.
I ten dźwięk jest na ekranie blokady cały czas jakby.
A to teraz go nawet nie słychać.
A to spróbuję sobie usiąść.
Czekaj, może podstawię pod ciebie mikrofon.
A może jeszcze się nic nie dzieje, więc ja sobie mogę kombinować.
O, coś jakby słychać.
Tak.
Teraz jest ten komunikat. Aligning your view.
Chcę sobie… o, soczewki. Właśnie sobie zmniejszam soczewki.
O, teraz już mi nos ściska, więc ja rozszerzę.
To się trzyma albo koronkę, żeby zwężać, a przycisk boczny, żeby rozszerzać.
Czyli to jest taka kalibracja, tak?
Tak. Poprzez to, że Dorota nie ma swoich oczy jakby skonfigurowanych pod to, to on nie pamięta tego.
To każdym razem…
Oj, oj.
Co się dzieje?
A gada, bo ja chcę sobie…
Dobra, zaczynamy.
Dwa razy koronka.
I teraz czekam.
O, i teraz mamy komunikat, żeby Vision Pro do góry troszkę na głowie poprawić.
No i teraz mamy już wprowadzenie kodu.
I teraz idę palcem…
Kciukiem środkowym jakby idę do tyłu.
A kciukiem wskazującym idę do przodu i lewą ręką kciukiem wskazującym klikam.
Okej, idę dalej.
Teraz się cofnął.
I teraz na przykład działa fajnie, nie wykrywa mnie.
No, teraz działa super.
E, nie.
Okej.
Dobra.
Udało się odblokować, jesteśmy na ekranie głównym.
Dobra. I teraz…
A może mi się uda to otoczenie pokazać?
Właśnie, może.
Skoro tak siedzę, tylko zobaczę, on mi pewnie każe głowę do góry.
A jakby mikrofon trochę… O, już teraz właśnie zaczyna.
No, teraz, że twój osobisty wzrok, twój oso…
Tak, on chce, żeby te oczy rozpoznać, a moich oczu…
Spersonalizowane ustawienia będą niedostępne.
O, i teraz weszłam w Environments i teraz będzie, na przykład…
Nie, Jupiter, nic ciekawego, pozdro, że się świecił.
Tej ośrode… otoczenie są opisane bardzo ładnie.
Na przykład… które było takie fajne… to?
Ta dolina?
No. O Jezu, jak ona się świeci.
Ale ona któraś była z ptaszkami i ten spring…
Z mojej perspektywy to tu mamy taki szum jakiś.
Tak.
Domyślam się, że ty to słyszysz tak stereo w przestrzeni.
Wiesz co, ten spring… spróbuj go poszukać.
Teraz trzeba wyjść z tego home’em.
Home’em, wychodzę.
Dobra.
I się zmienia też pogłos.
A ten harlakal jest też fajny.
Ale to też będzie inny szum dla słuchaczy, bo to jest jakiś fiatr, coś takiego.
To nie wentylatory.
I teraz na przykład, jak… musiałbyś mikrofon bardziej, może…
Jak ja coś krzyknę…
To tego nie usłyszymy niestety.
Nie usłyszycie.
Ale właśnie, bo te otoczenie mają też te odbicia, czyli jak Dorota coś głośniej powie, to ona siebie słyszy.
Jakby echo jest, no.
To znaczy, z mojej perspektywy, to ten szum jest bardzo podobny do tego, co było na początku.
Nie, jest trochę inny.
No, no wie co słyszę, więc…
Ja wiem, ja wiem.
Domyślam się, że u Ciebie to brzmi zupełnie inaczej.
Gdzie to było?
To.
A teraz się faktycznie coś zmieniło.
Pada deszcz?
Tak.
Ja się trochę przysunę.
O!
Gdzieś były ptaszki, ich nie ma.
Nie mogę sobie teraz przypomnieć, gdzie to było.
Ale w każdym razie wiadomo mniej więcej o co chodzi, nie?
Tak, no to są takie…
Nadał, no.
Ale przed grubsze krople uderzają o szafkę, a te cieńsze…
Chwila, bo mi weszło w aplikację, Aja.
O, dobra.
O, jezioro?
Niecoś.
A to jest jakieś podwodne, to też będzie tylko szumiało.
Tak, nie mogę tego z ptaszkami znaleźć, fajne było.
No, ale w każdym razie wiadomo chyba o co chodzi mniej więcej.
Tak, ja myślę, że możemy przejść dalej i pokazać po prostu jak to w praktyce działa.
Teraz muszę to…
O!
Zaćwierkało raz.
Zaćwierkało i poszło.
Dobra, nieważne.
Tylko teraz muszę jakoś to wyłączyć.
Korunkę przekręć. O!
Korunką regulujemy imersję, czyli czy chcemy być w tym otoczeniu wirtualnym, czy w tym…
O, teraz volume ci powiedziało, to możesz głośność podbić chyba.
Chyba nie.
Nie.
Bo ty jakoś ustawiłaś głowę.
Oła, dobra.
No to teraz będzie głośno.
Dobra.
Oj, teraz bardzo ładnie to słychać.
To teraz, Dorotcie, się gotuje mózg, podejrzewam.
Nie jest źle właśnie przez to.
Warto powiedzieć o tym, że ekran podzielony na trzy zakładki.
Mamy zakładkę Apps, czyli aplikacja.
Mamy zakładkę People, czyli Facetime od razu.
I mamy zakładkę Environments, czyli to otoczenie.
I co ciekawe, na przykład jak jesteśmy na ekranie głównym
i ktoś do nas podejdzie, to na przykład powie
One Person Detected albo One Child Detected,
czyli wykryto osobę na przykład.
Co ciekawe…
Tylko ja nie…
Ja właśnie nie chcę…
Dobra, wyjdź, wyjdź.
Nie, nie, nie.
To właśnie jest ten problem.
Ja tu próbuję się poruszać trochę i…
Oho.
Dobra, dobra, wylazłam gdzieś w jakieś dziwne rzeczy.
Jezu.
Koronka.
Próbuję.
Dobra.
Już teraz się prawie nie ruszam.
Ja myślę, że po prostu mogłabyś pokazać, jakie są sposoby używania tego.
No bo już wiemy o gestach. Znamy gesty, przynajmniej te podstawowe z użyciem dwóch dłoni.
Prawa ręka to poruszanie się, lewa to aktywacja.
I co mamy jeszcze?
Wszedzenie głowy.
Teraz jak się obraca głowę, kręci.
Tak minimalne ruchy w sumie robię.
I ten dźwięk oznacza, że weszliśmy na obszar jakiegoś okna.
Bo jak mamy wiele okien, o tym ja będę później mówił,
Ja cały czas głową jakby nie robię jakichś bugów, jakichś dużych ruchów.
To jak rozumiem nie są dźwięki generowane przez Vision Pro.
Pieska tak bardzo interesuje audycję. Postanowił zasnąć.
Dobra, coś weszłam. Właśnie, to się będzie zdarzało.
O Boże. Dobra.
Notatki.
Więcej aplikacji mamy.
I w tej zakładce więcej aplikacji się skrywają aplikacje, które…
Bo w Vision Pro oczywiście możemy uruchamiać swoje aplikacje na nim,
w sensie, które są pisane pod niego.
Ale możemy też uruchamiać aplikacje z iPada, iPhona
i niektóre aplikacje z macOSa.
I w tej zakładce More Apps są te aplikacje z Maca.
Jeżeli chodzi o to śledzenie głową, to okej, to zademonstrowałaś jak to działa.
Natomiast jak to w ogóle się aktywuje?
Przytrzymuję, jakby łączę kciuk z wskazującym palcem prawej ręki i trzymam.
Tak trzymam te palce złączone.
Wtedy usłyszę dźwięk taki…
Ooo…
I wtedy już wiadomo, że mogę ruszać głową.
I trzymam cały czas te palce.
I jeżeli…
Jeżeli rozłączysz te palce, to ten tryb
przestaje być aktywowany, tak?
Tak, dyskursor zostaje.
I ja tu w notatkach też mam taką informację,
że ten tryb trzeba sobie jeszcze
włączyć w ustawieniach dostępności, tak?
Tak, bo kolejne niedociągnięcie
jest takie, że domyślnie
to jest tryb śledzenia oczu,
Trzeba wejść w Settings, Accessibility, Pointer Control i tam jest Pointer Control Type i to musimy zmienić z Eyes na Head.
Tak się to zmienia.
Dobra, spróbujmy lidera uruchomić, ale ja z tym pokrętłem to się…
No, pokrętło…
O, dobrze.
Pokrętło robimy tak, że jak chcemy zmienić tryb pokrętła, to trzymamy lewym…
O, o, o. I teraz…
Przetwórniczer włącz dla bezpieczeństwa. Będzie, myślę, spoko.
Czekaj, bo teraz już mi się…
I to się buguje, bo angielski zentylator mówi o ludziach, na przykład. Mamy?
I jak klikniesz po prostu…
Teraz już nie mogę iść dalej.
O, to pokradło jest zbugowane niestety mocno.
Tu się szybkość mowy teraz reguluje z jakiegoś powodu.
No to właśnie takie będą atrakcje.
Dobra.
I znowu muszę zrobić…
To jest tekst.
I teraz jak to zrobić?
Klikasz po prostu tutaj, byś aktywowała coś.
A nie?
No właśnie.
A dlaczego nie?
Nie wyszło.
No, no niestety.
No właśnie, takie są jeszcze niespodzianki.
No…
Nie.
Szczerze powiedziawszy, to tak z tego jak ty to Dorota prezentujesz, to wydaje się to dosyć trudne w obsłudze.
O, udało mi się.
Takie mało, przynajmniej dla nas, być może dla osoby widzącej jest to łatwe, ale dla mnie to nie wygląda wcale tak prosto.
I teraz on coś próbuje czytać, angielską syntezą.
Tak, ale myślę, co mu tu dać do… Zapomniałam o tym, szczerze mówiąc.
O, na przykład.
Twojego iPhone’a. Albo nie.
Co to?
On coś powiedział, ale…
Już nie chce czytać.
Już raz powiedział, to już co będzie gadał.
Nie, no tu ma… Co do czytania tu ma?
O, i się coś… może światła nie ma.
Może tak być.
On powinien…
On się w ogóle zawiesił.
A to do wielu nowości.
Nie, bo to tak działa, że teraz gesty nie działają.
Jesteś w tym trybie rozpoznawania, musisz wyjść…
Pokaż na przykład meble, bo to na 100% działa.
To testowałem miliard razy.
I teraz się tak spokojowo zmieniła synteza na Eloquence’a.
No właśnie.
Nie, to jest bardzo proste w obsłudze, tylko nas ogranicza kabel.
Tu są sceny…
No i nie chce mi dalej iść.
No i musisz znowu wrócić na Life Recognition i…
Jezu, gdzie to jest?
O Matko Boska, teraz to już by tak przyspieszyłam.
O kurde.
O i to na przykład, to pokrętło zmiany prędkości działa kompletnie bez zarzutu. Nie ma z nim żadnych problemów.
Tu ludzie na przykład.
Co to jest?
No to po prostu jest chyba błąd, bo on próbował przenieść ten schemat z iPhone’a.
Kurde.
O, meble. I aktywuj.
I znowu nie aktywowało? Jakoś to inaczej aktywowałaś?
Tak samo, tylko właśnie on się tak potrafi przyciąć.
O, i mówię ci o door.
A tu… mi nie powie.
Zobacz, ja się na te drzwi uparł.
Czekaj, muszę stać.
O, czekaj, bo słuchawka.
Wiem.
No i takie są właśnie atrakcje z nim.
To proponuję, żebyśmy odebrali teraz telefon. Grzegorz jest z nami, witaj.
Cześć wam. Cześć. Dzień dobry.
No właśnie, gratuluję, Szkodniuszu, z zakupu w ogóle, tego Apple Vision Pro, bo chyba jesteś, pierwszą i jedyną osobą, tak w ogóle, która ma coś takiego w tej Polsce na własność, co nie?
No ma to swoje wady, jak widać.
No właśnie, tak jak słyszę po sterowaniu, to tak trochę… no ciężko, ciężko.
Jedyny problem jest z tym live recognition, bo tak to pokrętło działa bez zarzutu kompletnie.
Ale no, różnie, różnie bywa.
No dobra, to teraz będę miał kilka pytań, bo właśnie, no skoro tego tak jakoś używasz już tak dłużej chyba…
Tam jeszcze mam do Doroty pytanie, czy ona jest osobą widzącą, słabowidzącą, czy jak to jest?
Do ciebie pytanie jest. Czy widzisz, czy nie widzisz?
Ja troszkę światła tylko widzę. Nie słyszałam do końca, bo mi tu gadało.
Aha, czyli no właśnie, nie jesteś w stanie tam rozpoznać jak na przykład osób, czy coś tak, mniej więcej.
Dobra, pierwsze pytanie, czy to jest po polsku? Bo słyszę, że chyba nie ma…
Zośka mówi, ale w języku angielskim.
Interfejs jest po angielsku.
Aha, i nie da się tam gdzieś w ustawieniach…
To tak, kurde, trochę słabo.
Tak, drugie właśnie, no bo tu osoba słabo widząca by się…
No w sumie niewiadoma to może i też, bo tak bym wiedział tego zastosowania.
Nie wiem, czy wychodziliście z tym na dwór jakoś,
bo mogłoby się to przydać we nawigacji.
Tak, bo VoiceVista się da zainstalować i to działa.
No, tylko trzeba pamiętać o tym, że jak się idzie z białą laską,
na przykład, no to trzeba uważać, żeby przez przypadek mu nie wytrygerować
gestów, no nie? Żeby sobie na przykład trasy przez przypadek nie wyłączyć.
Aha, aha. No bo tak jest, no bo nie wiem czy w mapach ap, no czy w ogóle są na tym Vision Pro.
No powiem, że Google ma aplikację, no to znaczy nie wiem jak to działa, ale tam w mapach Google jest jakaś niby mieszana rzeczywistość,
Myślisz niby, że można kamerom na coś wskazać i się jakoś dodatkowo orientować?
W Mawachapla też to jest, na iPhone’ie nawet. W niektórych miastach, na przykład w Mediolanie to jest.
Ale to tak sobie działa, w sensie może czasem pomóc, ale nie jest to jakieś wybitne.
Aha, aha.
No to tak.
Trzecia kwestia, tylko że jak tu nie ma osób widzących,
to właśnie to się nie dowiem.
Ale chodzi mi o to, że na przykład można byłoby sobie ustawić,
bo jak widzimy w tych ekranach to, co widzą te kamery,
Tu możesz przybliżać. Jest lupa.
Jest tam wysoki kontrast, jest coś dla daltonistów, jest dużo różnych opcji w tej lupie.
Ja podeślę pod audycją, sobie tylko zapiszę szybko na telefonie, mam nadzieję, że nie zrobię tutaj kipiszu z tych okularów.
Spróbuję zapisać na telefonie, żeby pod audycją wysłać linka do artykułu od Apple, gdzie wszystkie te funkcje dla słabowidzących są napisane.
Aha, no to spoko. Dobrze, że nawet też o tym pomyśleli, co nie?
Więc tutaj, no choć ze względu na cenę, to i tak pewnie mało kto to kupi.
Nawet dofinansowanie nie wiem, czy by pomogło.
Nie wiem, czy by dali.
To znaczy, ja akurat myślę, że jeżeli ktoś by to jakoś uzasadnił, że jest mu to potrzebne,
a myślę, że w rywuzorum nie byłoby wielkiego problemu z uzasadnieniem tego sprzętu.
A ja teraz widzę z okularów Doroty coś, bo ja mam bardzo duże poczucie światła.
Chyba mi włączyłaś strumienie widoku i ja jakby gdybym widział, to bym widział to, co ty widzisz w ekranach u siebie.
A jakim to cudem?
Nie wiem, możliwe, że ja tego nie wyłączyłem, jak testowałem.
Natomiast kwestia jest taka, że to trzeba i tak o tym pamiętać, że tu trzeba by było dołożyć, no, podejrzewam, że około 5 tysięcy i tak wkładu własnego, no bo skoro to kosztuje powiedzmy te 14 tysięcy, już tak zaokrąglając, w najsłabszej konfiguracji, no to z 10 tysięcy i tak trzeba by było tysiąc dołożyć, no i resztę własnego.
Wypstrykujemy się w tym momencie z całej kwoty na sprzęt podstawowy.
Jakby ktoś bardzo chciał, to się da, ale nie sądzę.
Chyba, że jeszcze można liczyć na 3 części i jeszcze w Totkawie grać.
To jest inna bajka.
Ja jeszcze będę robił podcasty, będę ludzi kłócił o różnych aplikacjach.
Jest na przykład aplikacja do nauki gry na gitarze.
Także ja jeszcze będę was kusił.
Będę się dłużej bawił.
Kiedy my to kupiliśmy? W tamtym miesiącu?
Jakoś niedawno.
To krótko.
Kolejna sprawa.
Bo jak to ma jakieś kamery i lidar
i jakieś różne czujniki w ogóle.
Może mogłoby to też wykrywać przeszkody, dziury w chodnikach.
No właśnie to jest…
To jest jeszcze do przetestowania podejrzewam.
Aczkolwiek najpierw trzeba się wyzbyć przeszkody w postaci gestów reaktywnych, że tak powiem.
Ja eksperymentuję z tym, bo ja nie wiem czy ty Grzegorzu wiesz, ja tworzę taką aplikację z kolegą, która się nazywa Luomo Toolbox.
Tak, tak, tak.
I właśnie w tym toolboxie myślę o wprowadzeniu takich ułatwień,
właśnie na przykład jakiegoś wykrywania przeszkód, czegoś takiego.
Bo Vision Pro ma bardzo duże potężne funkcje co do tego.
Ono na przykład potrafi wykrywać…
Mam tu taką szafkę…
i on jest w stanie wykryć tą szafkę,
jest w stanie wykryć jej mniej więcej twardość.
To urządzenie jest w stanie to zrobić.
I teraz pytanie, jak ja to wykorzystam jako programista?
Jestem chodnik ciemny do tego. I po prostu w dziurę wpadłem w sobie.
Wiecie co, tylko trochę ostudzę wasz entuzjazm, dlatego że wszystko ładnie, pięknie.
Ale pytanie, ile osób odważy się, nawet jeżeli będą takie możliwości, już tak naprawdę realnie patrząc,
ile osób odważy się z takim sprzętem po prostu wyjść.
I tu Arek nie bez kozery powiedział, że traktuje to jako prototyp.
No bo to rzeczywiście, to jest coś, co być może w przyszłości rzeczywiście będzie miało szansę zaistnieć,
natomiast w tym momencie, nawet z niesamowitymi możliwościami, no co, tak jak ty Grzegorzu powiedziałeś przed momentem,
wpadłeś w jakąś tam dziurę. Załóżmy, że wpadasz w taką dziurę, przewracasz się i uszkadzasz sobie sprzęt za 14 tysięcy.
To jest prawda. Właśnie to o to chodzi, że z programistycznego punktu widzenia to tu są bardzo duże możliwości, ale taka zwykła, wiecie, no rzeczywistość.
To jest delikatne jednak. No.
Nie wiem, walnie się w słup, no i się porysuje i teraz już ono jakby nie, nawet się nic nie uszkodzi jako, nie wiem.
Ale nie będzie to już tak widziało. Ale to już nie będzie widziało tak jak ma widzieć.
Właśnie o to chodzi, żeby to wykryło.
Ale na przykład bardziej realne zastosowanie, które też będę chciał eksplorować,
to jak można np. uczyć niewidomych geometrii czy trygometryi.
Robimy ze ściany nieskończenie wielką tablicę dotykową dla niewidomego.
Niewidomy dotyka i mówi np. linia.
Idzie sobie w prawo i…
Przecięcie.
I mam nieskończenie wielką, tak naprawdę, tablicę dotykową. Bardziej realne zastosowanie do niej.
To prawda. To już tak.
No i jeszcze kolejna, ostatnia rzecz to jest kwestia rozrywki. Bo też tam lubimy sobie pograć, no to…
Tam chyba jakieś gry dla niewidomych, to chyba co najmniej jedna.
Jest coś dla niewidomych. Słyszałem, o tym jest jakiś labirynt, czy coś takiego, ale nie instalowałem tego ostatnio. Bardzo mało gram w gry niestety. A szkoda, bo jest jakiś labirynt, jest coś Escape from… coś tam. I jest to podobno jakaś gra w 3D w HD. Boże, jakby Papa Sangra na to przeportowali, to by się grało.
Papa Sangry to najpierw by musiało wrócić, bo przecież ono zniknęło z App Store’a.
No tak, ale wiesz, jakby zrobili jakiś remake na to i potwory by ci wyskakiwały na ścian.
To by było super.
Ja to bym sobie widział, tak sobie marzę, że bym chciał być trenerem Pokemonów.
Dużo jest rzeczy, tylko trzeba trochę też przefiltrować tego App Store’a itd.
Będę też pokazywał, jeśli tu będzie tylko możliwość, to będę pokazywał różne aplikacje
i jeszcze w trakcie tej audycji pokaże taką aplikację Tubular Pro.
To jest klient dla YouTube’a, dla Apple Vision Pro i pokaże co on potrafi.
Także porozumieć to zachęcimy też na pewno.
YouTube ma filmy 360, więc też można…
No w tym na moim…
Zresztą też jest Apple TV, nie?
Tak, tak.
Ale to… w Apple TV nie wiem czy są filmy 360 nawet.
Jest ta Formuła 1 i są jakieś filmy dokumentalne też, dla Vision Pro specjalnie robione.
Aha, to też spoko. Ale mówię, te Pokemony to kurde, zamiast tak grać na jakimś komputerze, to w takim wirtualnym świecie i jakieś walki.
No, to tak.
Apple nawet eksperymentowało z tym.
Jest jakaś The Dinosaur Family.
To jest taka aplikacja, że chodzisz sobie
i za tobą dinozaur chodzi, nie?
Było to prezentowane, to ludzie się bali tego.
Jak ja byłem w tamtym roku w Bologni na konferencji
i była prezentacja tego,
to ludzie faktycznie się nabierali na to poniekąd.
W sensie, no…
Wiecie, o co mi chodzi?
Że było to bardzo imersywne.
Więc no, możliwości są ogromne tego urządzenia, tak?
Tylko pytanie, czy my to wykorzystamy jako programiści, jako użytkownicy, jako kupujący, jako niewidomi, bo na przykład urządzenie potrafi wykryć, potrafi odbić dźwięk od dowolnej powierzchni.
Co możemy zrobić? Białą laskę w audio na przykład.
Aha, czyli to jest jako…
Możemy to zrobić jako programiści.
Takie wzmocnienie ekolokacji poniekąd.
Tak, tak. Właśnie o to chodzi. Od dowolnej powierzchni.
Czyli coś takiego jak graficzny raytracing.
Dokładnie. No, no, no. Dokładnie na tej samej zasadzie.
Jak po prostu to bardziej raycast.
Raytracing działa na zasadzie raycastu.
Raycast po prostu to jest promień, który rzucamy od punktu A
i który uderza o punkt B.
I wtedy jest raycast intersection.
Technikalia, ale możemy to zrobić jako programiści, o to mi chodzi, że…
Ja sobie piszę różne rzeczy na Vision Pro, teraz mam niestety trochę mniej czasu niż bym chciał,
ale mam bardzo dużo prototypów porobionych w Xcode, różnych,
jedne ciekawsze, drugie mniej ciekawe i naprawdę możliwości tego urządzenia są ogromne.
Jest aplikacja, że możesz sobie grać w ping-ponga, masz paletkę tenisową,
ręka robi ci za paletkę, odbijasz piłkę.
Nie. Ktoś może powiedzieć, że to jest głupota, no bo jak w życiu codziennym pomoże Ci to, że możesz grać w piłkę, ale jeżeli masz takie możliwości, to możesz to też przekuć w coś produktywnego, w coś…
Na przykład Vision Pro są wykorzystywane przez chirurgów bardzo często. Ktoś się o tym słyszy, mówi i tak dalej.
No tak, w jakichś inżynierniach, w jakiejś tam…
I możesz wykonywać gesty, mimo tego, że nie na tobie są.
Rozpoznamy nią filmik jakiś.
To Grzegorzu, to może tak, czy masz jeszcze jakieś pytania?
Nie, to będzie wszystko.
Okej, to dzięki za telefon w takim razie. Pozdrawiamy.
Cześć.
No niestety, aż tak dobrze nie ma.
Tak się nie powinno używać.
A ja przynajmniej mi ręce odpoczną trochę.
Zmienię język Luomo na…
O, ja teraz steruję. Dorota to dalej ma na głowie i ja steruję.
A nie, ale…
O, na przykład najnowsze firmy.
Bo właśnie Lumina Vision Pro ma taką funkcję,
Przez to, że to jest system iOS-opodobny, że tak powiem, i ma pewne ograniczenia,
no to ogłosiliśmy to tak, że można po prostu najnowszy film z biblioteki rozpoznać od razu.
Oj, tu muszę niestety sobie inaczej poradzić, bo…
No niestety. To przejdź na sam koniec tej…
O, no i rozwaliło się.
No wiesz co, może pokażemy ustawienia najpierw.
No właśnie, bo…
Pobawiliśmy się.
Tak.
Dobra.
O, mamy ustawienia.
I ustawienia mamy jak na iPadzie, czyli mamy podzielone na dwie kolumny.
W lewej kolumnie mamy właśnie ustawienie Apple ID, rodziny,
Tryb samolotowy, bluetooth, ogólne aplikacje, otoczenia np.
dostępność, wygląd, Apple Intelligence, centrum sterowania, koronka.
Tu właśnie możemy ustawić w tych ustawieniach koronki, czy chcemy,
Chciałbym, żeby koronka zmieniała nam imersję, czyli to otoczenie, czy głośność domyślnie.
Bo tak to trzeba się trochę jednak kombinować, trzeba popatrzeć, trzeba znaleźć głową na przykład ikonkę głośności i wtedy kręcić, albo ikonkę otoczenia.
Więc na przykład jeżeli nie korzystamy, jeżeli nie jesteście jak ja i jesteście poważnymi ludźmi i nie korzystacie z tych otoczeń, tylko z głośności, no to można tu wejść. Może wejdziemy tu, nie?
O, i teraz Dorota słyszy po prawej stronie voiceovera.
I domyślnie, co regulujemy? Default focus?
I w prawo możesz iść dalej?
W sensie do przodu?
O, imersja?
Albo głośność. Jak zaznaczysz głośność?
A no, na co?
I teraz przekręć koronką.
I na maksa, dawaj.
Nieee.
O, i teraz regulujemy głośność, a nie otoczenie.
Ale te głośniki, jeżeli to jest 59%, no fakt, fakt, ten mikrofon jest dość mocno ustawiony,
ale to urządzenie potrafi z siebie dźwięku wydawać.
O, i to jest…
Powyżej 100%?
Ale chyba Cię boisz, nie?
Nie.
Nie? To mnie bolało.
Nie, bo to… właśnie to urządzenie jest jakby tak skonstruowane, że jakby…
Jezu, jak… wiem o co mi chodzi i nie umiem wytłumaczyć.
O matko, ale to…
Ała, a dobra, bo ja widziałam ciebie i się zastanawiam co mi się odbija.
Dobra.
Podejrzewam, że do mnie się jakieś okna przykleiło. Mogła się przykleić.
Bardzo możliwe.
No ja myślę, że wszystkich ustawień nie ma sensu pokazywać, ale to dotyczące voice-overa to jak najbardziej.
I znowu po prawej stronie.
I mamy voice-over.
Jeszcze może pokażemy szybko to pointer control, tam gdzie się ustawia głowę.
O, tu mamy zoom, to o co Grzegorz pytał.
Ruch.
Odczytuj, czytaj i mów.
Czytaj i mów, tak.
Audiodeskrypcja.
Tutaj wprowadzanie oczami, możemy wybrać, czy na przykład ktoś może mieć jedno oko dysfunkcyjne, a drugie zdrowe.
No nie, jakby miał jedno dysfunkcyjne i dwa zdrowe, to by źle było.
Ej, tu jest motoryka.
O, interakcja.
Kontrola przełącznikami, to co Michał pytał.
Kontrola głosem.
Koronka.
Kurczę, może to się Interaction nazywa w nowej wersji.
Spróbuj w to Interaction wejść w lewo.
O, jak widzicie, te gesty działają dobrze.
100% wejścia trafia do urządzenia.

To nie to…
No i tu jakbyśmy mieli…
O, akcje dźwiękowe, to też jest ciekawe.
Bo akcje dźwiękowe to jest ten przed.

I tak dalej.
Tak możemy też sterować Vision Pro.
O, przeszło ci do notatek. No to spróbuj znaleźć.
Bo właśnie jak przekręcimy głowę, to zmieniamy okno. Możemy tak pracować z wieloma oknami.
No i tu są widżety gdzieś w twoją stronę.
O, tu możesz se do mnie chyba dzwonić?
Tak.
Ej.
Ten łomo…
Na górze?
Łomo pewnie na suficie się…
Chyba tak, na suficie się…
Niestety Luoma się tak baguje, że się przykleja na sufit. Nie wiem, z czego ten błąd wynika, już tak mnie to frapuje, że nie wiem. Ale Luoma zawsze na sufit ląduje.
Dobra. Nie, nie. Jeszcze raz muszę tu wejść. Jeszcze raz accessibility. Albo się zacięło.
Jak jest na tak wysokiej głośności, to się psuje trochę ten system wykrywania pogłosu i on tak trzeszczy delikatnie.
Ja trochę ściszę. No, przed chwilą właśnie było to słychać.
Dobra, wystarczy.
Ale już jest selected. No, niepotrzebnie.
O, i mamy voiceover’a.
O, i tu mamy, że lewy pinch, czyli szczypnięcie,
uszczypnięcie lewym wskazującym aktywację,
uszczypnięcie prawym przejście w prawo.
Dowiedz się więcej.
Samouczyk voiceover.
Nauka voiceover, czyli mamy ten tryb pomocy.
Szybkość mowy.
80%.
Dostosowuje prędkość głosu.
Tu mamy mowa.
Braille.
Rozpoznawanie voice-over. O właśnie.
Na przykład rozpoznawanie obrazów.
To rozpoznawanie na żywo chyba też tu się ustawia.
A czy ten Braille to jednak jakkolwiek działa?
W sensie monitory brailowskie.
A, bo wprowadzanie brailem, jak rozumiem, nie działa.
Ale mam wiadomość z Apple’a, że ma wrócić w Vision OS 26.2,
czyli prawdopodobnie gdzieś na początku grudnia
mamy już testować nowe wprowadzanie braila na Vision OS.
No to w sumie aż się prosi, żeby to wprowadzić.
Bo w starej wersji to działało tak, że się pisało na stole, albo na kolanach.
No, a tu się nie da po prostu…
Ale to by miało sens!
O, o, o, o, czkaczkę, czkaczkę.
Szczegółowość!
O, audio. Ciema, czy jest coś w audio ciekawego?
Proszę bardzo.
Dźwięki Voice Over oczywiście.
Pełnoprawny Voice Over!
Audio docking też mamy.
O Boże!
Piękne je dociągnięcie.
To jest tak bardzo przeportowany voiceover z iPhone’a,
że oni nawet send to HDMI.
Czekajcie, bo się tu coś po…
Chodzi o to, że tu nie ma złącza,
…do którego możemy podłączyć jakieś urządzenie HDMI.
No co prawda.
A i tak ta opcja tu jest.
Okej.
I tu zawsze używać dźwięków Siri, to też jest w iPhonie ta opcja.
Oj, to jest to close.
To są te opcje okna. Możemy np. udostępnić, Dorota Bosze, udostępnić to okno.
I to udostępnienie okna działa w taki sposób, że ja patrząc się na przykład na szafkę, widziałbym to okno.
Vision Pro może robić za projektor. Po prostu.
O, tak to myślę. Za nie projektor, tylko zarzutnik.
To jest bardzo ciekawa funkcja.
No tylko szkoda, że my z niej za bardzo nie skorzystamy.
Ale ktoś widzący, kto na przykład jest obok nas, to już jak najbardziej.
No właśnie o to chodzi. Można tak z kimś filmy oglądać.
Okej, teraz muszę się stąd jakoś…
Wyjdź.
Ale to rozpoznawanie gestów działa szokująco dobrze.
W sensie te gesty, które Dorota wprowadza, wchodzą.
Tylko wchodzą jeszcze dodatkowe, moje.
Teraz już mi nie chce tak fajnie działać.
Nie, bo te ustawienia gdzieś są.
Było. Accessibility.
Wiem, ja się tak zachwyciłam, że mi to działa, że…
Można też tym śledzeniem głową chodzić między kolumnami.
Zgubiłam to teraz.
A tu, dobra.
Nie, nie, wcześniej, zanim voiceover to wyszliśmy.
Ale też myślę, żebyśmy skończyli voiceovera i potem tam wrócili.
Bo już teraz to… patrzyliśmy w audio, tak z ciekawości, przykładowa sekcja.
Myślę, żebyśmy do poleceń sobie poszli voiceovera, żeby zobaczyć jakie są gesty.
Nie, nie, dalej, dalej.
O, i tu na przykład wszystkie polecenia, ale to nie akurat. Dalej.
O, tutaj przełącz ręczność gestów, czyli że zamień prawą rękę z lewą.
Okej.
Ja to przez przypadek kiedyś włączyłem i po prostu…
O!
No to są te gesty?
No, przeszło nam.
Nie, nie, bo tu w notatkach jesteś, musisz szukać ustawień.
Wyszłam z tego.
No niestety właśnie z tymi oknami jest tak…
Zaraz powrócę.
To urządzenie potrzebuje sporo takiej fizycznej przestrzeni, żeby te okna miały się gdzie rozłożyć i tak dalej.
To też jest taka kwestia.
O, tu było accessibility.
Zaraz to gotuję.
Dobra.
A, proszę było.
Nie, dalej, dalej. Command.
Odtacz jeszcze. I dalej.
O, uszczypnięcia prawej ręki. Wskazujący.
Środkowy.
Serdeczny.
Podwójne przyczepnięcie.
Tutaj środkowy, podwójny.
Serdeczny, podwójny.
Długie.
To jest ten tryb eksploracji.
O! Nie wiedziałem tego.
Środkowy plus kciuk. Jak długo przytrzymasz, to zwróć.
Ale której ręki?
Prawej.
Aha.
Ciekawe.
OK.
Serdeczny jest nieprzypisany.
Długie.
Podwójne.
Długie.
Środkowe.
Podwójne.
Długie.
O, i to też jest ważne, bo jak to zrobimy, to…
To jest pass-through gesture, czyli jakbyśmy przekazywali gest do systemu, czyli np. możemy wykonać takie machnięcie ręką w tył, żeby zamknąć jakieś okno albo coś, to po prostu jest tak jak mamy, nie wiem, przepuść następny klawisz w NVDA, to na takiej zasadzie.
Bo mi znowu weszło…
No to szukaj okna po prostu.
Albo wejdź w tryb głowy i zamknij te notatki po prostu.
Przy okazji zamkniemy.
No nisko, niżej, niżej.
A no możesz w prawo iść po prostu i znajdziesz ten up placement bar.
Idź po prostu w voice over.
Dalej, dalej.
Mon gdzieś rzucił te notatki prawdopodobnie na podłogę.
Teraz też.
Wszystkie moje notatki.
Ale nie widzę, żeby zamknąć.
Nie ma na samym dole?
Nie.
Jezus, nie ma.
No niestety to się baguje. I czasami np. się tak baguje, że możesz też stworzyć koronkę przytrzymać.
Bo czasami się tak baguje, że np. okno pójdzie gdzieś na ziemię. Osoba widząca sobie bez problemu z tym poradzi.
A my mamy problem.
O, jest.
No i znowu przeskoczyło.
O, jest.
No i wróciło.
A gdzie to ustawienia są?
Gdzieś tu na górze? Nie.
O, tu.
Ale nie, bo musisz w trybie tym eksploracji głową.
Nie, musisz w tryb eksploracji głową wejść.
No i właśnie tak to się robi.
Czasami kilka minut po prostu człowiek walczy z tym.
O, jesteś w ustawieniach już.
Dobra.
I nam weszło w klawiaturę.
O, ja Cię kręcę. No i właśnie, o, takie są atrakcje.
No dobra, ale mniej więcej, bo wiadomo, o co w tych ustawieniach chodzi.
No wiadomo.
Ustawienia są takie dość podobne, jak we wszystkich systemach Apple.
Po prostu w jednych mamy więcej opcji, w innych mamy mniej.
Tu mamy rzeczywiście ewidentnie te gesty, które się pojawiają.
Mamy szczegółowość, mamy zarządzanie słownikiem, mamy różne, przeróżne inne rzeczy.
Były ustawienia, były możliwości voice-overa, były gesty, to teraz będą aplikacje.
O, dobra, już. Dobra, no to pokażemy sobie parę aplikacji.
Pokażemy sobie jakieś natywne, typowe One Vision Pro.
Pokażę też, jak działa…
Tu coś się mi dzieje. Mi to nie działa dokładnie jak Dorocie.
Jakieś aplikacje, które są na przykład przeportowane, albo takie, które są z iPada.
Ruszasz mi.
I zaczniemy sobie od aplikacji, która jest typowa One Vision Pro,
czyli od aplikacji Tubular Pro,
Czyli od klienta YouTube’a.
Wejdę sobie tutaj do aplikacji.
Jest tubular.
O, teraz już się pokuszę.
Mam po prostu YouTube’a.
Tu są kategorie, tak?
Tak, wejdziemy sobie na przykład w Music, bo to nie chodzi o to, żeby coś konkretnego.
Mamy tu wyszukiwarkę, wiadomo.
O mandu.
Coś takiego klikam sobie.
I już utknąłem w koszulkę.
Milka, delikatność ci smakuje lepiej po sąsiedzku.
Ale w każdym razie gra sobie muzyka.
Teraz już nie słychać nic.
Tak.
No ja wiem, bo próbuję poskromić.
A w jaki sposób ten tzw. magic tap tu działa? Jest jakiś gest?
Jest, ale go nie pamiętam, więc przez centrum sterowania.
A jak do centrum sterowania jeszcze pójdzie?
To zaraz powiem.
O, jesteśmy już. Po prostu chcemy mieć w razie czego nad tym kontrolę.
O, mogę sobie to puścić i ten dźwięk jest przyklejony jakby do szafki.
Jak się obracam…
A to on idzie w prawo, no.
To on?
No, idzie w prawo, bo on jest przyklejony do szafki.
No tak, bo szafka jakby się… tak.
Więc to jest akurat bardzo fajnie.
Mogę też zmienić położenie tego.
W tym celu muszę sobie w pokrętle, na przykład, znaleźć chyba narzędzia formularzy.
I dalej, dalej iść.
Aż wreszcie się dostanę.
O, ten przejazd jest źle odznaczony, bo jest jako action menu, menu pop-up.
Ale teraz jak zrobię tryb śledzenia głową i będę się obracał,
Wy tego nie będziecie słyszeć.
Ale jakby mi grała ta muzyka, to mógłbym ją przyklejać po prostu
do innych elementów otoczenia. Więc jest to szalenie fajne, myślę.
Jak na przykład chcemy sobie, nie wiem, sami film obejrzeć,
No to mamy tak naprawdę kino w domu, nie?
Ale co nam tak naprawdę daje to przyklejanie tego dźwięku do konkretnego elementu?
To daje nam to, że wtedy po prostu słyszymy to z jakiejś strony konkretnej?
Tak, z jakiejś konkretnej strony, z jakiejś odległości.
No to na przykład proste zastosowanie.
Ktoś na przykład lepiej słyszy na jedno ucho niż na drugie.
Tak, i możemy sobie po prostu taki jakby, no, tu duży cudzysłów, balans, bo nie do końca o balans chodzi, tak naprawdę to może być nie tylko lewo-prawo, ale też na przykład jakoś za nami, tak? Przed nami bardziej?
Tak, i bardzo fajnie działa ten dźwięk 3D.
O, tu mamy ustawienia tej aplikacji.
Możemy dostosować sobie ten pasek narzędzi.
O, polubione filmy. No mamy tu przeróżne. O, YouTube TV. Otwórzmy nam oknie.
I tu sobie wszystkie, wszystkie ustawienia, jakby te zakładki możemy sobie wybierać.
Tak.
No…
Ten Apsta mi tu wadzi, go ubije.
I teraz pokażę coś z rodzimego podwórka, może. Czyli aplikację Palsatu.
Ok
Tutaj jest
Czekamy aż się uruchomi
Jest.
Czy to, że to tak wolno działa, to oznacza to, że po prostu ta aplikacja nie jest zoptymalizowana na Apple Vision?
Ta aplikacja jest niezoptymalizowana na cokolwiek. Ona na wszystkim wolno działa.
Okej.
I chyba właśnie gdzieś tam uciekła.
Tak.
O, jest, jest. Nie, była, ale…
Uciekła.
Ja miałam tak z ustawieniami, były i nie mogłam ich…
Nie, ten polsat jest, jest, jest, tylko…
ten tubular dużo miejsca zajmuje.
Zaraz znajdę…
możliwość go zamknięcia.
O, można też w taki sposób chodzić, pstrykając palcami.
Nie wiem, czy to zamierzone, czy po prostu on to tak wykrywa, ale działa.
Jakby komuś było tak wygodniej niż palce łączyć.
O, jest. Są profile.
Też chyba muszę uważać na ten, na licencję, nie?
Wiesz co, jak jakiś tam fragment, to nie będzie…
Ja nie robię tego specjalnie, że coś dłużej puszczę, ale spróbujemy.
Na przykład, nie wiem, kanały wyjdziemy, o.
Dawaj jakiegoś nasiona, ale jak znajdziesz.
O, na przykład TV4, powiedzmy?
Nie wiem, co ty tam robisz.
A, bo tam teraz jest…
No, to to jest grząski grunt, to nie.
Masz rację.
Dobra, jakąś jedynkę pierwszą z brzegu.
Dobra, dawaj gdzieś TVN tam, czy coś tam.
O, no szedł to. Tam na pewno nie będzie nic wulgarnego.
No, zresztą nawet i jeszcze przed dwudziestą drugą to powinno i tak być ocenzurowane.
Już właśnie jest dwudziestą druga, ale…
A no właśnie, równo.
I mamy to.
I teraz mogę sobie prawą rękę wyciągnąć do przodu i przesuwać ją w prawo.
I wtedy przesuwam głośnik z serialem.
No faktycznie poszło.
Jest to niesamowicie dobra jakość.
Jeszcze raz mogę spróbować to odsunąć.
Z mojej perspektywy nie dzieje się z tym w zasadzie nic.
Już mi się znudzi, to mogę po prostu to zamknąć.
I działa.
No okej, aplikacje jak widać są, działają.
Czy to jest tak, skoro mowa o tych aplikacjach, że tu będzie nam działała
każda np. aplikacja z iPhona, czy musi być specjalnie napisana na Vision Pro?
Jak to jest?
Większość aplikacji z tych, co testowałem, działają.
Tak to powiem. Nie wiem, czy absolutnie każda.
No bo ciężko, żebym mógł przetestować wszystkie.
Ale na przykład spróbujemy rozpoznać ten filmik,
który Dorota nagrała przed audycją.
Uda się teraz.
I czekamy.
Jeszcze nie.
Nie, bo od klawiatura wyszło.
Trzeba mu zadać pytanie.
A właśnie, jak wygląda pisanie na klawiaturze?
Po prostu kierujemy głową.
Albo palcami po kolei.
Albo palcami po kolei idziemy.
Ale polecam głową, bo tak to się zaflaszczemy.
O, tu jest… zepsułem. Przed chwilą tak sobie skasowałem tę wiadomość.
Mam edyktowanie, ale niestety działa tylko po angielsku, ale może pokażę?
I tak to ja rozumiem. Takie tempo wpisywania.
Zajął mi się śmietnik z tymi oknami i nie mogę sobie z nimi już poradzić.
Tak naprawdę teraz to zauważyłem,
że to urządzenie naprawdę potrzebuje bardzo dużo miejsca w przestrzeni fizycznej
do tego, żeby ono funkcjonować tak, jak powinno.
Aplikacja do pianina jakaś na Vision Pro. Instalujemy ją.
Jak już mi tak wyskakuje ten App Store na siłę…
Zobaczymy jak się gra na pianinie. Czy to będzie dostępne.
I czy będzie dostępne, właśnie, bo to…
Klikamy. Klasycznie dla Apple’a dwa razy przycisk boczny.
System weryfikuje moje gałki oczne.
Chyba mu się nie udało niestety.
Nie? A może? Nie było tego dźwięku, tego Apple Pay’a.
Nie jest?
Nie, no pobiera, pobiera.



Bardzo dużo tych…
I klawiatury. I Apstara.




Brakuje mi bardzo jakiegoś gestu do jakby zamknięcia wszystkiego.
A czy tu nie ma jakiegoś upswitchera takiego?
Nie ma, nie ma. Nie, nie, nie. Tu masz wszystko w przestrzeni.
No dobrze, ale to nie da się jakoś… czyli żeby zamknąć okno, to musisz je najpierw zlokalizować.
Tak.
I dopiero wtedy jest to możliwe.
Tak, generalnie tak.
Nie wiem, kto wymyślił to tak, że ta kontrolka do zamknięcia okna jest na dole, a nie u góry.
Na szczęście nie.
Aha, to tyle dobrego.
Bo, no to, wiesz, być może np. dla osoby widzącej, która nie ogarnia tego tak punktowo jak my,
to to jest fajne, bo ma wszystko w zasięgu wzroku.
To jest taka typowa wielozadaniowość.
Ale dla nas, ze względu na to, że ten voiceover działa jak działa,
te okna nakładają się czasem na siebie, chcesz zrobić coś, dzieje się coś innego,
To po prostu, no, delikatnie mówiąc, jest to irytujące.
No, wiesz co, to też jest ten problem, tak jak ja ci tłumaczę, że my mamy, w sensie, no teraz to urządzenie ma dość mało miejsca dla siebie, że tak powiem.
Nie no, tak, to…
Okna da się lokalizować w miarę, a tak to one są, robią się bardzo małe.
Ale ta aplikacja się nam pobrała już.
No to sprawdźmy.
To jest.
Coś gra.
To chyba skip to jest to, co warto kliknąć.
Ale bardzo ładnie było to zrobione w 3D.
A dlaczego mikrofon?
Nie wiem.
A ręce?
Będziesz musiał pośpiewać.
A co?
Okej, czyli to będzie…
A i ręce rozpoznaje, czy dobrze gram, tak?
No i jakie była page loaded?
A, on teraz…
On teraz…
Pojawiło mi się okno.
Takie malutkie.
W którym jest napisane pewnie, że aplikacja chce dostępu.
Można zaraz to okno zlokalizować.
No z tym to jest akurat mega problem.
A wiecie co? Czy naprawdę nie ma w voiceoverze gestów żadnych
przejdź do poprzedniego, do następnego okna?
Teoretycznie jest gest następne okno, ale on…
Zaraz Ci zademonstruję jak działa.
Tak. I wójtower się crashuje.
Czyli nie działa.
I teraz to już tak mi się wszystko…
…pobagowało.
O, kurtynę mogę sobie włączyć, gdybym chciał. Nie wiem dlaczego w ogóle, skąd się wzięło to okno z ustawieniami.
No, bo wcześniej było.
Tak jest.
Ale to są takie jakieś szybkie ustawienia.
A tu już się wszystko położyło.
Może wykonałeś po prostu jakiś dodatkowy gest.
Okulary muszą iść spać.
Arku, to w takim razie pytanie do ciebie, do Doroty, zresztą też, czy tutaj coś jeszcze tak faktycznie pokażemy, czy jakieś podsumowanie po prostu, skoro nam to…
Nie wydaje mi się, że będziemy podsumowali. Skoro nam to działa, jak działa.
Fizycznie mało miejsca mamy. Ja odłączyłam teraz i urządzenie się wyłączyło.
Poproszę cię, jak możesz to schować jakoś.
Oddaję. I teraz tak.
Generalnie mogę powiedzieć z perspektywy…
Moment, tylko potrzebuję dosłownie chwili, żeby przełożyć słuchawki.
Za kabel.
To ja w międzyczasie zerknę, czy do nas coś piszecie.
Bo może jakieś komentarze są.
Dobra.
Jak obcuję z tym na co dzień…
O jednej rzeczy zapomniałem, ale w sumie i tak by się to nie udało, bo i tak byście nie słyszeli tego.
Co?
Ale o tym opowiem za chwilę.
O czym?
O streamowaniu na Maca.
Jak obcuję z tym na co dzień, to mogę powiedzieć, że to co teraz zademonstrowaliśmy, to nie jest stan faktyczny.
My teraz musimy z Dorotą siedzieć bardzo blisko siebie, żeby nas zbierał mikrofon,
ale jeżeli np. macie przestrzeń, żeby sobie wstać, żeby to urządzenie miało np. gdzie rozłożyć się okna,
że one nie mają po kilka centymetrów, a np. jedno okno jest na jednej ścianie, drugie jest na drugiej,
to naprawdę nawet ta wielozadaniowość bardzo fajnie działa.
Dobrze, ale w takim razie, to do jakiego typu zastosowania to jest?
No bo mówisz, że musisz mieć sporo miejsca i czyli, jak rozumiem, to nie jest sprzęt, który…
Dajmy na to, chcesz sobie pracować za pomocą tego urządzenia i teraz, nie wiem, siadasz sobie przy biurku,
robisz coś, masz te okulary na głowie i chcesz wykonywać za ich pomocą jakieś dodatkowe rzeczy.
To będzie problem tak czy inaczej, bo będziesz miał po prostu mało miejsca, bo i tak musisz wstać
i musisz mieć jeszcze dodatkowo sporo miejsca na ścianach albo na innych meblach, żeby się rozłożyły okna.
To jest kwestia… Myślę, że to jest kwestia skali. To znaczy, jeżeli na przykład…
Ja na przykład tutaj teraz, czy Dorota, my mieliśmy bardzo mało miejsca.
Tutaj cały czas albo coś stoi, albo ten…
Natomiast jest tu inny problem, że po prostu jak korzystam z klawiatury komputera,
to to urządzenie będzie wykrywało cały czas moje gesty.
Póki Apple tego nie poprawi, to nie widzę niestety możliwości,
jak można by z tym pracować.
A na przykład myślę, że dzięki tym…
umówmy się wspaniałym głośnikom, jakie w tym są,
dzięki temu systemowi binauralnemu i tak dalej,
…to mogłoby zastąpić mi przynajmniej słuchawki, które niszczą mi słuch.
No bo… wcale te głośniki ja miałam na 100% i mi to nie przeszkadzało.
Naprawdę? To może…
W sensie oczywiście, gdyby to było, nie wiem, 5 godzin, no to trochę już dość.
Bo te głośniki, to jeszcze tak dopytam, te głośniki znajdują się w którym dokładnie miejscu?
Na skroniach.
Na skroniach.
Na skroniach, tak.
Okej.
To jest typowy kostniak.
Tak jak, nie wiem, są słuchawki kostne, no to to jest jakby trochę większe.
To znaczy, no właśnie, bo słuchawki z przewodnictwem kostnym to bardziej tu dotykają…
Tak nad uchem, nie?
Tak, tak, dokładnie. Niżej, niżej. Nie na skroniach, tylko niżej.
A, tu.
Tu, no w sumie tak. No to dotyka raczej skroni bardziej.
Natomiast, no uważam, że to urządzenie jest bardzo fajne.
No i jakby się mnie ktoś zapytał, czy żałuję? Absolutnie nie.
No nie, bo na razie też je poznajemy.
My też się uczymy tego.
Ma to możliwości wkurzać wkurzać niektórymi rzeczami, ale warto.
Czyli tak na ten moment to to jest urządzenie bardziej do rozrywki niż do pracy.
No tak, w sensie na przykład ja na tym pracuję.
No tak, bo tworzysz aplikację. Ale dajmy na to, ktoś sobie, powiedzmy, chce kupić takie Apple Vision Pro.
No i do jakiegoś konkretnego zastosowania. To teraz moje pytanie, do jakiego?
Raczej osoby niewidome. Jeszcze nie. W sensie to ma bardzo duży potencjał.
Na przykład jesteś masażystą, potrzebujesz mieć urządzenie do uruchamiania minutników na przykład.
No to wiadomo, że nie będziesz korzystać z głośników, z okularów takich.
Ale czy na przykład, nie wiem, uczysz się czegoś, tak jak gry na pianinie na przykład,
to tej aplikacji, nie? I aplikacja Ci może podpowiadać do takich edukacyjnych rzeczy, jak najbardziej.
I jeśli chodzi o takie rzeczy, na przykład dla mnie, jako dla programisty,
bardzo mi się podoba ten system wielozadaniowości.
Jak testowałem to rzucanie na Maca, to na przykład miałem Xcode’a na szafce,
tam Safari miałem gdzieś na ścianie i ten voiceover na Macu też się wtedy tak zachowuje,
…co jest bardzo fajne dla mnie, no ale co z tego jak np. pisałem coś w Xcode’cie i ten mi wykrywał…
I przechwytywał gesty.
No tak, z pisaniem jest ciężko.
Z pisaniem czy właśnie…
Więc jeszcze nie, ale wiesz, pierwsze osoby niewidome, które miały iPhone’a też na pewno nie były z niego tak zadowolone jak my dzisiaj.
Nie no, oczywiście, że tak.
Oczywiście, że tak, że to jest jakaś długa droga i tak jak mówię…
Więc musi być.
To naprawdę pokaże nam ileś najbliższych lat, czy to jest właściwie dobra ścieżka, bo tak jak mówię, te kwestie związane z wirtualną rzeczywistością, z tymi wszelkiego rodzaju goglami, no ileś firm poległo na tym, Apple próbuje i czy im się to uda, to się okaże. Z naszej perspektywy dobrze, że tu jest zaszyta dostępność.
No tak, i widać, że, wiesz, no musi być ktoś taki jak Dorota, czy ktoś taki jak ja, kto się na to powścieka, kto…
Oczywiście, że tak.
Wiesz, ile ja…
Protestuję, no bo tak to…
Na przykład jak ja się logowałem do Apple ID, to co ja tu robiłem, to kląłem na to i nie będę kłamał.
A jeszcze jedno, nie? Właśnie aproba była i…
A propos Apple ID, to też jest zabawa, bo nie działa polskie Apple ID, trzeba robić Apple ID w Stanach i potem…
Albo w Stanach, albo niemieckie, no tam gdzie jest…
Ale w Stanach najlepiej, bo masz 100% wszystkiego.
No tak.
Wszystko będzie działało, nie?
Ale potem, jak już zrobisz sobie tę Apple ID w Stanach, to nie możesz zapłacić normalną kartą kredytową,
tylko musisz sam sobie kupić gift carda.
Ale to jest akurat spoko, to już jest dość proste.
To nie…
Ale nie no, potem ze strony musisz jakoś to…
Ale ze strony musisz kupić tą kartę podarunkową,
ze strony Apple’a, potem ta karta przychodzi ci na maila, musisz ją wkleić.
Jezu…
No jest zabawa, jest.
Była z tym zabawa.
Była tu telenovela, się w tym domu działa, jak ja to robiłem.
Ale się udało i naprawdę jestem bardzo, bardzo się cieszę, że mogę to urządzenie mieć, że mogę je przetestować.
I mogę wam powiedzieć, że na pewno ono jeszcze wróci na Tyfla Podcast, bo będzie dużo aplikacji, które będę chciał omówić.
No i to na pewno warto będzie pokazywać, bo to jest coś nowego, coś czego…
Umówmy się, co niewiele osób w ogóle będzie w stanie pokazać, zademonstrować.
Przynajmniej na razie. Kto wie, może ktoś na przykład poczuje się zachęcony tą audycją.
A tu uśmiech do Patryka, bo po audycji będę próbował Black Boxa zainstalować.
A, okej.
Bo na iPhone’ie to gości bardzo… Nie wiem czy ty, Michale, wiesz o co chodzi w Black Boxie.
To jest taka gra, która wykorzystuje różne czujniki twojego urządzenia do robienia takich puzli.
Czyli masz na przykład jakieś puzzle, gdzie nie wiem, musisz wejść bardzo wysoko gdzieś,
albo gdzie musisz jakoś obracać telefonem, albo różne inne rzeczy robić.
No to ciekawe, co tam pan Ryan McLeod wymyślił.
Próbowałam w samolocie to zaliczyć i tak mi w końcu się udało, ale…
No, także Black Box będzie testowany.
No co jeszcze mogę powiedzieć?
No fajny kawałek, fajny kawałek technologii.
To jeszcze takie moje pytanie, czy np.
Na przykład po iluś godzinach pracy z tym sprzętem, no wiadomo, tam około dwóch i pół godziny pracy na baterii, ale zawsze się można uwiązać do kabla, to można dłużej, czy odczuwaliście zmęczenie jakieś?
Ja tak. Ja się trochę przyzwyczaiłem teraz, ale ja na początku to już po piętnastu minutach było mi niedobrze.
Ale właśnie to takie zmęczenie z powodu ciężaru, czy z powodu tych bodźców?
Bodźców. Dla mnie bodźców. Mi ciężar nie przeszkadza.
Mi trochę ciężaru. Bodźców może trochę mniej, aczkolwiek no…
Jestem duży chłop, ale przebodźcowany trochę szybko.
Jak długo muszę mieć ręce w określonej pozycji, no to też jest ciężko.
Bo właśnie, bo to ułożenie rąk, żeby wykonywać te gesty, to musi być jakieś konkretne.
Musimy mieć ręce przed sobą, czy na przykład możemy…
Przed sobą.
Przed sobą, jakby dłońmi do siebie, do twarzy jakby.
I tylko w tej pozycji rozpoznaje gesty.
Tak, i to jest kwestia voice-overa, bo sam Vision Pro dla osób widzących rozpoznaje ręce jak chcesz.
To jest kwestia voice-overa. To nie jest jakaś ichrętna limitacja sprzętu na przykład.
Tylko to jest limit voice-overa.
Ja tu zerkam na wasze wypowiedzi. Tu Sylwester do nas się odezwał.
Sylwester stwierdził, że on to by sobie nie kupił, Apple Vision Pro.
I ja myślę, Sylwestrze, że nie jesteś jedyny, że to wiele osób by tak stwierdziło.
I myślę, że to jest rzeczywiście urządzenie, które trzeba wiedzieć po co się kupuje.
Ja szczerze mówiąc, jeżeli nie tworzyłbym aplikacji, a że nie tworzę aplikacji na ten sprzęt, to do tej pory nie wiedziałbym po co.
Nie wiem, ty Arku na przykład, gdybyś nie pisał aplikacji, to wiedziałbyś po co ci to? Już miałbyś tak na teraz jakieś konkretne zastosowanie dla tego?
Nie. Na teraz? Wiesz co jeszcze? Bo są takie osoby niewidome, które na przykład bardzo lubią kręcić filmy i nagrywać wszystko ze swojego życia.
Ja nie jestem jedną z tych osób, więc gdybym sam nie wiedział, co to urządzenie potrafi od strony programistycznej i co mogę sam stworzyć, albo np. komu mogę sprzedać jakiś koncept i kto potem mądrzejszy ode mnie to napisze, to nie.
Ale do kręcenia filmów to możesz sobie kupić za ułamek ceny kamerkę GoPro, o których zresztą była audycja.
To Dominik robił, nie?
Możesz sobie kupić okulary chociażby od Ray-Bana, też za ułamek ceny, które mają naprawdę bardzo fajny dźwięk, jeżeli chodzi o to.
A dźwięk to dołączymy do komentarza swoją drogą.
Tak, tak, tak.
Nie, no ogólnie to wiesz co, nie. Ogólnie nie. Gdyby nie to, że wiem, co to urządzenie technicznie potrafi, co mogę sam tym zrobić za pomocą Lumoma Toolboxa na przykład, to nie na bardzo.
To pozostaje mieć nadzieję w takim razie, że będzie coraz więcej aplikacji, które uczynią ten sprzęt po prostu dla nas użytecznym.
Bo że dostępny on jest, to już widać. Pokazaliście to w dzisiejszej audycji. Jest voiceover, jest dostępność. Można, da się.
A teraz po prostu trzeba znaleźć uzasadnienie do wydania 14 tysięcy.
No, no, dokładnie.
A bez aplikacji to tego uzasadnienia po prostu nie będzie.
No to jakikolwiek urządzenie.
Dlaczego na przykład Harmony OS u nas jest niepopularny,
mimo że to jest podobno dobry system.
Ja akurat, mimo że lubię chińskie produkty,
to tego akurat nie kupuję.
Natomiast dlaczego to się nie przyjęło u nas?
No bo aplikacji nie ma.
Tak samo jest z tym.
Dokładnie. Więc tu czas pokaże, co będzie z tym dalej.
Dziś na temat tego urządzenia sporo opowiedzieli Dorota Bilecka, Arkadiusz Świętnicki. Dziękuję wam bardzo.
Dzięki.
I do usłyszenia.

Wszystkie nagrania publikowane w serwisie www.tyflopodcast.net są dostępne na licencji CreativeCommons - Uznanie autorstwa 3.0 Polska.
Oznacza to, iż nagrania te można publikować bądź rozpowszechniać w całości lub we fragmentach na dowolnym nośniku oraz tworzyć na jego podstawie utwory Zależne, pod jedynym warunkiem podania autora oraz wyraźnego oznaczenia sposobu i zakresu modyfikacji.
Przekaż nam swoje 1,5% podatku 1,5 procent Logo FIRR Logo PFRON Logo Tyfloswiat.pl

Czym jest Tyflopodcast?

TyfloPodcast to zbiór instrukcji oraz poradników dla niewidomych lub słabowidzących użytkowników komputerów o zróżnicowanej wiedzy technicznej.

Prezentowane na tej stronie pomoce dźwiękowe wyjaśniają zarówno podstawowe problemy, jak i przedstawiają metody ułatwienia sobie pracy poprzez korzystanie z dobrodziejstw nowoczesnych technologii. Oprócz tego, Tyflopodcast prezentuje nowinki ze świata tyfloinformatyki w formie dźwiękowych prezentacji nowoczesnych urządzeń i programów. Wiele z nich dopiero znajduje sobie miejsce na polskim rynku.

Zapraszamy do słuchania przygotowywanych przez nas audycji i życzymy dobrego odbioru!

Tematyka

Pozycjonowanie i optymalizacja stron internetowych