Envision Glasses, Audycja Uzupełniająca (wersja tekstowa)
Pobierz napisy w formacie SRT
Pobierz napisy w formacie VTT
Fundacja Instytut Rozwoju Regionalnego prezentuje Tyflo Podcast.
W kalendarzu piątek, 18-ty dzień listopada 2022 roku, 19-ta minęła, rozpoczynamy kolejne spotkanie w Tyflo Radio.
Michał Dziwisz przy mikrofonie, przy drugim mikrofonie, Paweł Masarczyk. Dobry wieczór, Paweł.
Witajcie, dobry wieczór.
Tak, dziś będziemy zajmować się urządzeniem, którym już kiedyś się zajmowaliśmy. Konkretnie czynił to Robert Hecyk.
Pozdrawiamy Roberta i dziękujemy za audycję o Envision Glasses i to my wcale nie będziemy się nim zajmować dlatego,
że Robert o czymś nie powiedział albo o czymś zapomniał, tylko po prostu stało się tak, że udało nam się pozyskać to urządzenie ponownie.
Ono troszeczkę się rozwinęło, dostało parę aktualizacji oprogramowania i co kilka osób testujących taki sprzęt to jednak zupełnie inne spojrzenie,
dlatego postanowiliśmy przyjrzeć się okularom od Envision, szczególnie, że jest to sprzęt dość drogi.
Ponownie, żebyście mogli zyskać jeszcze szerszy ogląd na tę sprawę.
Tak jak najbardziej, tutaj podziękowania z całego serca dla pana Michała Kijewskiego firmy Lumen,
bo dzięki właśnie tej osobie i tej firmie mamy to urządzenie do testów.
I tak jak ty Michale mówiłeś, ja się postaram nie duplikować tego co już mówił Robert, więc może sobie podarujemy opisywanie jak wygląda pudełko
i jak wyglądają same okulary, bo to naprawdę znajdziecie w audycji Roberta, do której, tak jak i Michał, zachęcam z całego serca do wysłuchania.
I jeszcze taka jedna uwaga, jeżeli po tej audycji spodobają wam się okulary Envision Glasses i chcielibyście je kupić,
to fakt, że dostarcza nam je Lumen, to jeszcze nie oznacza, że one są w sprzedaży w tej firmie.
Nie można ich jeszcze kupić, Lumen się na razie zastanawia po prostu, czy te okulary wprowadzić do swojej oferty,
czy są one tego warte, więc jeszcze spokojnie, to jeszcze nie jest do kupienia.
Być może niedługo będzie, może ktoś się poczuje zachęcony i pojawią się jakieś większe naciski.
Na pewno, jeżeli spodoba wam się ten sprzęt z samej prezentacji, a może mieliście już doświadczenia z tym urządzeniem w jakiś sposób,
to warto firmie Lumen o tym powiedzieć i dać znać, że bylibyście zainteresowanymi klientami.
Oczywiście, że tak. Jesteśmy na żywo, to też warto przypomnieć i dodać. Możecie do nas dzwonić, możecie do nas też pisać.
Jeżeli chodzi o dzwonienie tyflopodcast.net ukośnijcZoom, tam się z nami połączycie, jest kilka metod, znajdziecie wszystko na stronie.
Wystarczy przeczytać, zastosować się i wdzwonić tutaj do nas na antenę Tyfloradia, a jeżeli wolicie komentować z pozycji piszącego,
to są aż trzy miejsca. Jest kontakt.tyflopodcast.net, jest Facebook i jest YouTube. Transmitujemy równolegle właśnie na tych dwóch platformach społecznościowych.
W końcu nam się ta sztuka udała od jakiegoś czasu i możecie nas tam słuchać, możecie komentować to, co będziemy tutaj dziś prezentować,
konkretnie co Paweł będzie pokazywał. No to Pawle, skoro nie chcemy dublować audycji poprzedniej, to co pokażemy?
Ja myślę, że się skupię na kilku aspektach, które z jednej strony nie mogły się pojawić w poprzedniej audycji,
bo na przykład pewnych funkcji jeszcze wtedy w okularach po prostu nie było, a z drugiej strony podzielę się kilkoma takimi obserwacjami,
które poczyniłem testując to urządzenie, takimi bardziej dogłębnymi, bardziej technicznymi, które przemawiałem w moim odczuciu na korzyść lub też nie tego urządzenia.
I myślę, że warto zacząć od tego, co od… bo to prawie rok temu była audycja nagrywana poprzednia o Envision Glasses.
Tak jest.
I myślę, że warto zwrócić uwagę na kilka rzeczy, które w międzyczasie się w kwestii tego urządzenia zmieniły. Przede wszystkim zmieniła się cena.
I tak jak można by się spodziewać, że inflacja i problemy rynku pracy i problemy z dostawą półprzewodników mogłyby tutaj wpłynąć negatywnie na to i ta cena podskoczy do góry,
to nie, firma Envision postanowiła tę cenę obniżyć. Stwierdzili oni, że są w stanie na tyle zoptymalizować swoje procesy produkcyjne, dostawcze i rozwojowe,
co brzmi jak bardzo duża tajemnica marketingowa, co tam się wydarzyło. Więc tak do końca my nie wiemy.
Ale można wnosić, że na przykład widać to po aplikacji Envision, która stała się darmowa i przykładowo odpadł tryb rozpoznawania online.
I to jej nie wyszło na plus.
Być może pewne zasoby, które były włożone w to, żeby to obsługiwać z aplikacji, poszły w te okulary. Ciężko powiedzieć.
Natomiast aktualna cena to 2500 euro, więc można sobie to przeliczyć na polskie złote plus jeszcze pewnie marże, gdyby dystrybutor w Polsce się zdecydował.
Kwestie opłaty dla kogoś, kto przetłumaczy, interfejs, dokumentację, wsparcie techniczne, kilka takich rzeczy.
No więc kilkanaście tysięcy nadal zostaje. Czy taka cena, jaką zadeklarował Robert wtedy, czyli koło 17, to nie wiem.
Myślę, że troszkę spadnie. Natomiast nie ma co być prorokiem. Cena oficjalna od producenta to 2500 euro.
Teraz tak, kilka nowych rzeczy doszło do tych okularów od czasów, kiedy Robert spotkał się tu z Wami rok temu.
Oczywiście takim największym i najbardziej medialnym przedsięwzięciem jest współpraca twórców okularów firmy Envision z usługą Aira,
która niestety w Polsce nam się na niewiele przyda.
Jest to usługa asysty zdalnej wideo, czyli coś jak ten MyEyes czy też ta funkcja pomocnika, która w okularach już jest.
Tylko w wykonaniu odpowiednio do tego celu przeszkolonych operatorek i operatorów, którzy mają zapłacone za to, to jest ich praca,
że oni siedzą i czekają na zgłoszenia od zainteresowanych osób. Ta usługa jest dostępna tylko w języku angielskim
i również odpowiednio w krajach, w którym tym językiem się mówi.
No właśnie. Czy Ty się, Pawle, orientujesz jak wygląda to w Polsce? Czy my już możemy się tam zarejestrować z polskiego numeru?
Czy to dalej jest tak, że trzeba kombinować z jakimiś zagranicznymi numerami, z tego typu rzeczami po to, żeby Aira przyjęła nasze pieniądze łaskawie?
No więc niestety z tego, co się ostatni raz orientowałem, nadal jest tak jak mówisz, czyli numer telefonu z kraju, w którym chcemy się zarejestrować.
I tu myślę warto podkreślić, kraj też decyduje o walucie, w jakiej będziecie płacić, więc gdybyście chcieli na przykład w euro,
bo to jest gdzieś tam nam najbliższa waluta, to Irlandia tylko i wyłącznie. I Irlandzki numer i prawdopodobnie Irlandzki VPN.
Jeżeli zarejestrujecie się na amerykańskie dane, czyli jakiś amerykański numer, amerykański VPN, no to będziecie odpowiednio płacić w dolarach.
Wielka Brytania w funtach. No nie sądzę, żeby ktokolwiek eksperymentował z Australią i Nową Zelandią, ale no kto wie, kto wie.
Wtedy odpowiednio nowozelandzkie i australijskie dolary.
Dolar australijski chyba jest trochę tańszy niż ten amerykański. Tak mi się coś kojarzy przynajmniej, bo pamiętam, że wspierałem NVDA właśnie tam w dolarach australijskich.
I to jakoś taniej wychodziło. Aż zaraz sprawdzę.
No dobrze, to możesz sprawdzić, a ja w międzyczasie opowiem o innych rzeczach, które zostały wprowadzone. Drugą taką opcją, która w ciągu ostatniego roku się pojawiła i również na ten moment działa jedynie w języku angielskim, są polecenia głosowe.
Czyli naciskając przycisk i przytrzymując na ramce, tam gdzie się ramka zdejmuje z panelu, my wywołujemy mechanizm rozpoznawania mowy i możemy w tym momencie prostą komendą wywołać jedną z dostępnych funkcji okularów.
A to rozpoznawanie tekstu natychmiast, a to skanowanie, rozpoznawanie pieniędzy. No wszystko, co okulary Envision nam oferują.
I ta opcja działa, nawet ją mogę zademonstrować później, ale również tylko w języku angielskim na ten moment.
To ja tylko powiem, sprawdziłem, dolar australijski to jest leciutko ponad trzy złote, także jest taniejszy.
Pytanie jak te ceny są też dostosowane.
Dokładnie, oczywiście.
No i ostatnie rzeczy, które powiedzmy doszły, to jest rozpoznawanie kolumn w tekście. Chyba tego nie było rok temu.
I coś, czego na pewno nie było, to są inteligentne wskazówki przy skanowaniu.
Czyli w tym momencie, chyba jak Robert pokazywał urządzenie, to czy tekst znajduje się w obiektywie, czy nie, można było określić jedynie po częstotliwości tych odgłosów takiego klikania, jeżeli aparat znalazł się nad kartką papieru.
I to było dość nieprecyzyjne, wiele osób tak uważa.
Natomiast teraz doszły takie już bardziej zrozumiałe wskazówki w rodzaju, i to widać, że dostosowane pod kątem tego, że te okulary należy nosić na głowie,
bo wskazówki przykładowe, co będę też zresztą demonstrował, to na przykład przesuń dokument w górę lub głowę w dół.
I rzeczywiście muszę przyznać, że mając tą kamerkę na głowie, te okulary na głowie, dużo łatwiej się operuje tą kamerą niż jak się trzyma telefon w drżącej ręce,
albo nawet jak się ma szelki, które można odgiąć i w ogóle nimi manipulować na różne strony.
Mimo wszystko ta kamera na głowie to jest bardzo duża zaleta.
Ale czy rzeczywiście ma to przełożenie na jakość rozpoznawanego tekstu? Czy to jest rzeczywiście tak dobre, jeżeli chodzi o czytanie?
Bo zdaje się, że Robert jak to pokazywał, to tam oszałamiających wyników nie było.
Ja to zademonstruję. Mam wrażenie, że jak chodzi o jakość rozpoznanego tekstu, udało mi się osiągnąć trochę coś lepszego niż to, co słyszałem w podcaście.
Natomiast jest parę rzeczy, które warto wziąć pod uwagę. Po pierwsze na stole, na którym pracujemy powinno być możliwie czysto.
Czyli nie mówię tu o jakimś zabrudzeniu, czy powiedzmy bałagan. Bałagan to trochę się w to wpisuje.
Chodzi o to, żeby tej kamerki nic nie rozpraszało oprócz naszego tekstu, który chcemy skanować.
Czyli to już jest ważne na stole. To się nie nadaje do tego, żeby w powietrzu książkę sobie rozłożyć, albo na kolanach gdzieś tam, czy jakkolwiek. To musi być jednak jakiś stół.
Mi tak jest najwygodniej i tak dla mnie jest intuicyjnie i logicznie.
Bo jedna z instrukcji mówi wyciągnij książkę tak, aby była na odległość ramienia od prawej strony okularów, bo tam jest ta kamera.
Czyli tak jakby sugerowane było to, że mam ją trzymać w ręku, ale większość moich eksperymentów była na stole.
Więc jednak jest ta powierzchnia płaska i tutaj mamy nasz tekst.
Oczywiście, tak jak mówiłem, jeżeli macie jakieś laptopy, jakikolwiek inny tekst, jest duże prawdopodobieństwo, że zostanie odczytane wszystko po bokach.
Czyli klawisze z klawiatury komputera, etykietka z soczku, jakieś przeróżne inne rzeczy.
Ja niestety takich warunków tutaj dzisiaj nie przygotowałem z tej przyczyny, że chciałem wam jak najwięcej różnych kontekstów pokazać, w jakich te okulary mogą się sprawdzić.
Mam tutaj dużo przedmiotów na stole. Postaram się na czas demonstracji każdego z nich tak poprzescuwać całą resztę, żeby nie było takiego ryzyka, że coś nam się tu odskanuje, co nie powinno.
To jest jedna rzecz. Druga rzecz, i to jest moim zdaniem podstawowa pięta achillesowa tego całego sprzętu, to jest brak wbudowanego w te okulary oświetlenia.
Jakiejkolwiek lampy błyskowej, flesza, latarki, czegoś, co by doświetlało tę kamerę.
O ile pracujemy w ciągu dnia, nie ma problemu. O ile mamy w domu sensowne oświetlenie.
Ja teraz się specjalnie przeniosłem do takiego pokoju na czas trwania tej audycji, żeby to oświetlenie było jak najlepsze.
I ono świeci tak w miarę punktowo na ten stół. Może mogłoby być troszkę jaśniejsze, ale jest ok, daje radę.
Natomiast wiem, że w pokoju, w którym zazwyczaj operuję i w którym testuję te rzeczy, to oświetlenie jest na tyle ciemne, że są już problemy.
Ale to jest spory błąd i spore niedociągnięcie twórców, spore niedopatrzenie.
Pytanie, jak bardzo oni w ogóle mogli ingerować w ten hardware, tak się zastanawiam.
Bo to jest, jak dobrze pamiętam, na bazie okularów Google’a.
Google Glass 2, dokładnie. I ja rozmawiałem z przedstawicielem handlowym Envision i on opowiedział mi, że właśnie to jest problemem.
Że to jest ograniczenie ze strony sprzętu i oni na ten moment nie są w stanie niczego zrobić.
Bo ok, jeżeli jesteśmy w domu, no to mniej więcej wiemy jakie mamy to oświetlenie albo możemy się dowiedzieć.
Ale ja mam wrażenie, że jednak te okulary są przeznaczone do czegoś troszkę innego, do pracy w terenie, do tego, żeby gdzieś z nimi pójść.
I teraz idziemy sobie, no nie wiem, chociażby pierwszy przykład z brzegu, jakaś biblioteka czy czytelnia.
Tam nigdy do końca nie wiemy z jakim światłem mamy do czynienia, z jakim doświetleniem.
A jeżeli nie mamy poczucia światła, a powiedzmy sobie szczerze część niewidomych tego poczucia światła nie ma, no to zaczyna być tu problem.
Istotnie. I to rzeczywiście jest problem. I ja próbowałem ze wszystkich sił jakoś temu zapobiec i jakoś się wspomóc dodatkowymi środkami.
Próbowana była latarka czołówka, próbowana była taka lampka do czytania na biurko. Okazało się, że moja jest za niska i jakoś się nie łapie.
Nie jestem w stanie tak fajnie książki podłożyć, żeby to jeszcze oświetlało tą kamerę i się fajnie rozpoznało.
Więc tu jest bardzo duży problem, więc życzę wam naprawdę solidnego światła. Oczywiście na zewnątrz też jest to problem.
Próbowałem już jakieś skanowanie robić. Teraz się bardzo szybko robi ciemno, więc na zewnątrz już może to być problematyczne.
No i trzecia zasada, znaczy zasada jak zasada, pewien mankament tego urządzenia.
Tekst rozpoznaje się czysto, czyli słowa, które słyszymy są rzeczywiście słowami. To nie jest już jakieś domyślanie się, zgadywanie, jakieś krzaki.
To jest całkiem fajne, natomiast im bardziej tekst jest upstrzony jakimś nietypowym formatowaniem, czyli nagłówki z rozdziałami pod rozdziałami,
jakieś przypisy, jakieś takie rzeczy, które wyróżniają się na tle całej reszty tekstu, powodują, że ten mechanizm potrafi się tak zagubić,
że w przypadkowym momencie wytnie linijkę tekstu i przerzuci ją na koniec, czyli przeczyta nam, obserwowałem ze sobą widzącą, jak ta trajektoria przebiega.
Bardzo często jest taki schemat, że powiedzmy mamy książkę i książka ma stronę lewą i stronę prawą. To jest spięte o prawą, no jak to książka.
I ja próbuję skanować dwie strony naraz. Co się dzieje? Włączone oczywiście jest wykrywanie układu, więc on teoretycznie powinien sobie poradzić z czymś takim,
jak koncept lewej i prawej strony, ewentualnie jakieś kolumny tekstu, gdyby były i tak dalej. I on przeczyta połowę lewej strony, czy tam jakiś fragment,
przeskoczy na prawą, tą prawą przeczyta, czy to połowy, czy to trzech czwartych, ciężko powiedzieć, po czym wróci z powrotem na lewą, doczyta do końca,
a jeszcze po drodze pominie linijkę albo dwie i wszystko, co się nie zmieściło do tej pory, ląduje na końcu tam, gdzie jest, znaczy jest numer strony u dołu tych stron,
numer strony tam autor tytułu książki, czyli stopka tradycyjna i to, co się nie zmieściło, zostało ucięte wcześniej, ląduje na końcu.
I próbowałem wyłączać ten tryb rozpoznania układu, bo on ponoć jest tam lepszy na przykład do gazet, czy to jakiś czasopism, a ja czytałem taką typową książkę,
tam sobie tekst płynie, płynie, płynie, jakiś taki tekst o zabarwieniu lekko powiedzmy naukowym. I no niestety, jakkolwiek bym się nie starał, jest z tym problem.
To jest coś, co ja próbuję aktualnie wyjaśnić z producentem, no i mam nadzieję, że zanim okulary będę musiał zwrócić, to jakąś odpowiedź otrzymam i okaże się, co robiłem źle,
bo ja się domyślam, że to jest coś, co ja robię źle, a nie wada tych okularów, aczkolwiek nie wiadomo. Może być też tak, że no ten system sobie z czymś nie radzi,
z językiem polskim, z jakimś krojem czcionki, z czymkolwiek tak naprawdę, no i mamy tak, jak mamy.
No właśnie, a jak on sobie w ogóle z naszym językiem radzi?
Całkiem dobrze, to znaczy język polski jest wspierany. On jakieś problemy miewa w tym trybie rozpoznawania tekstu natychmiast w wersji jego offline,
czyli tej takiej, która nie wymaga internetu i która reaguje trochę szybciej, ale też czyta trochę więcej, co nie zawsze jest dobrą strategią,
bo to czytanie jest tak naprawdę czytaniem czegokolwiek i czytaniem jednej rzeczy na pięć różnych sposobów. Ja będę później zresztą demonstrował takie krótkie nagranie,
kiedy sobie chodziłem po prostu po Biedronce z tymi okularami włączonymi właśnie w trybie rozpoznawania tekstu natychmiast offline
i on sczytywał mi różne rzeczy, które kamerą widzieliśmy z półek, czy to były jakieś informacje o promocjach, czy jakieś teraz reklamowe rzeczy z Biedronki,
dbaj o środowisko z Biedronką, zamknij lodówkę po wyjęciu produktu, tego typu komunikaty, plus jakieś tam reklamy, promocje, super cena, dowiedziałem się ile kosztuje półlitrowe piwo,
lech na przykład i tego typu różne komunikaty. Swoją drogą to jest ponad świetne ćwiczenie, żeby się przekonać jak wiele elementów takich wizualnych,
napisów i innych rzeczy atakuje osoby widzące na co dzień.
To prawda, bo my sobie z tego nie zdajemy sprawy.
Tak, ale chodząc po jakimkolwiek sklepie, galerii handlowej, czy jakiejkolwiek firmie uderza na osoby widzące, po oczach od razu jakieś kolorowe litery, kup to, kup tamto,
najlepsza cena na coś tam, promocja jakaś i to o czym się mówi, że te reklamy potrafią sugerować i tak dalej i że to jest takie mocne przebodźcowanie
i to na co może wiele osób się uskarża, tych informacji jest za dużo i tych komunikatów jest za dużo,
to nie jest bez kozery, my po prostu nie mamy jak o tym się troszkę przekonać, jakie to jest potężne zjawisko.
Natomiast tam właśnie te litery polskie potrafią być zniekształcone, jakieś urwane. Natomiast w skanowaniu tekstu jest ok, zasadniczo jest ok.
Problem zaczyna się na przykład w momencie, kiedy dzielony jest wyraz na dwie linijki i on kiedy przenosi wyraz do nowej wersji papierowej,
to to przeniesienie również zaznacza w OCR-ze, w związku z czym słychać ewidentnie synteza czyta, że wyraz jest rozdzielony na dwie części.
I nie wiem czy to jest winą tego, czy po prostu Google TTS już jest tak upstrzony różnymi regułkami językowymi,
że nie potrafi czytać normalnych polskich słów, ale przysięgam, ja to będę zresztą potem pokazywał,
że słowo pieprz zostało mi już przeczytane przez okular jako pajprz. Słowo jakieś tam z końcówką vanę, nie wiem, coś tam zostało wypracowane, wypracowałem.
I nie wiem, podejrzewam, że to mogło być rozdzielone słowo myślnikiem, znakiem przeniesienia do nowej linii,
co OCR odczytał po prostu jako słowo rozdzielone myślnikiem i tak je przeczytał. Natomiast, no nie sądzę, bo pieprz jest słowem jednosylabowym,
natomiast takie rzeczy się zdarzają i to jest coś na co, to jest niby drobnostka i myślę, że większość osób, które nas słuchają dłużej
już się do takich dziwactw syntezymowych przyzwyczaiły, ale obawiam się, że jeżeli osoba mniej techniczna kupuje taki sprzęt
za tak duże pieniądze, no to nie spodziewa się, że w tak dziwny sposób będą czytane pewne rzeczy.
No i też jeżeli ktoś nie zna języka angielskiego, a sporo tych fonetycznych modyfikacji syntezy Google bierze się
bezpośrednio właśnie z języka angielskiego, tak jak chociażby powiedziałeś o Wayne, które piszemy vanę, tak?
I teraz jeżeli ktoś, kto angielskiego nie zna i kto nie wie, co w ogóle, z czego to może wynikać, no to będzie mieć naprawdę spory problem
ze zrozumieniem tego, o co tu właściwie chodzi i jakie to było słowo. To jest zupełnie coś takiego, jak ja pamiętam,
to już o tym mówiłem w tyflo-przeglądzie swego czasu, w tym specjalnym wydaniu, jak dobrze pamiętam, że ja miałem
w Windowsie, pierwszym komputerze z Windowsem Hala, który mówił interpunkcję jakąś hiszpańską czy w innym języku.
I teraz masz powiedzmy słowo, mówi ci coś takiego, sedospunto kontrarazgo dokumenty kontrarazgo coś tam.
I teraz bądź mądry, o co mu właściwie chodzi, co on ci chce przekazać przez to. Ja później oczywiście zrozumiałem,
że to jest ścieżka dostępu cw.backslash dokumenty backslash coś tam, ale na początku naprawdę można się zdziwić.
To prawda. No i tłumaczenie tego interfejsu, które no wiadomo na ten moment jest maszynowe nadal, domyślam się,
że to by uległo zmianie w sytuacji, kiedy ktoś w Polsce zająłby się dystrybucją tego sprzętu.
Oj tak, ja dziś miałem okazję oglądać interfejs tej aplikacji i samouczek aplikacji, która z Envision Glasses współpracuje,
to tam widać, że to wszystko tłumaczył automat i to bardzo wyraźnie widać.
Dokładnie, ale to jest powiedzmy coś, co zostanie wyeliminowane, co by zostało, jeżeli urządzenie byłoby dystrybuowane w Polsce,
bo to już byłaby rola dystrybutora, żeby o to zadbać, żeby to urządzenie było w pełni spolszczone tak, jak to powinno być.
No więc co? Nie wiem, może przejdziemy już do jakichś konkretów, do prezentacji.
Oczywiście.
Ja muszę tu zaznaczyć z góry jedną techniczną niedogodność, którą wykryliśmy z Michałem na krótko przed audycją.
Otóż mój plan na tą audycję był taki, że przyniosę tu mój głośnik Bluetooth, sparuję te okulary z głośnikiem
i te okulary będą do was mówić przez głośnik.
No i życie postanowiło te plany pokrzyżować, a raczej albo moja niewiedza, jak z tego urządzenia korzystać,
albo brak intuicyjności interfejsu, albo po prostu coś w moim egzemplarzu jest nie tak,
bo próbowałem sparować te okulary z moim głośnikiem i na darmo, nic z tego nie wyszło.
Natomiast spróbuję wam na te momenty, kiedy po prostu będę wam pokazywał interfejs,
będę przykładał wam te okulary dość blisko mojego mikrofonu, bo mikrofon oczywiście jest headsetowy,
czyli wyłapuje głównie to, co leci bezpośrednio w niego, czyli mój głos, ale już syntezę,
która gdzieś z drugiej strony tam się odzywa, to nie do końca, ale przystawię ten głośnik tak,
żeby to było tu bezproblemowe.
A w chwilach, kiedy będę ubierał te okulary na siebie w celu na przykład skanowania tekstu,
no to już wtedy przez chwilę nie będziemy się słyszeć, bo ja zdajemy słuchawki i po prostu
ten mikrofon postaram się przełożyć bliżej głośnika, no a potem sobie skomentujemy to,
co, że tak powiem, usłyszeliśmy.
I teraz tak, już usłyszeliśmy, że urządzenie się z nami przywitało,
może nie aż tak głośno, jak bym chciał.
Ono dość wolno startuje w ogóle, zacznijmy od tego.
Instrukcja użytkownika mówi jasno o tym, żeby przycisk włączania
przytrzymać przez 6 sekund i urządzenie wystartuje.
Pierwsza podstawowa wada urządzenia, które jest dedykowane osobom niewidomym
i które ma być proste w obsłudze.
Te okulary się w ogóle z nami nijak nie witają, czyli my przytrzymaliśmy ten przycisk,
oczywiście nie ma żadnego dźwięku, ani komunikatu, że to się ładuje,
czy to jest w trakcie ładowania systemu, albo że się już załadowało.
Więc my musimy troszeczkę, na chybił trafił, manipulować touchpadem,
żeby się przekonać, czy to urządzenie rzeczywiście już z nami współpracuje.
Co ciekawe, przy wyłączaniu urządzenia trzeba też być bardzo uważnym,
ja spróbuję potem tą sytuację zasymulować,
chyba, że to był jednorazowy jakiś przypadek.
Okazuje się, że to, że my przytrzymaliśmy przycisk i usłyszeliśmy już melodyjkę,
to nie znaczy, że nam wolno ten przycisk już puścić,
bo to urządzenie potrafi się, proszę Państwa, wyłączyć do połowy.
Oznacza to w praktyce to, że melodyjka zagrała,
ale ekran urządzenia dalej jest widoczny.
I tam jest jakiś taki jakby standby, coś tam jest widoczne.
Pytanie, czy to jest kwestia tego, że ten przycisk najpierw wyładowuje
całą tą aplikację Envision, bo pamiętajmy, że to jest aplikacja uruchomiona
na okularach, które z reguły służą do czego innego.
Google Glass to były okulary, które miały różne aplikacje
i odpalać i różne zastosowania mieć, więc to jest prawdopodobnie tak zrobione,
że po prostu na zwykłym Google Glass automatycznie odpala się
ten cały applet Envision.
Więc bardzo możliwe, że to jest tak, że Envision się wyładowała,
a Glassy jeszcze funkcjonują, nie wiem, możliwe, że tak jest.
Natomiast to, co zaobserwowałem, jeżeli przytrzymam przycisk
troszkę za krótko, ta melodyjka przeleci, ekranik dalej widać.
Jeżeli go ponownie przytrzymam, on dokańcza melodyjkę i ekran
dopiero wtedy gaśnie.
Więc ja spróbuję to potem pokazać, natomiast jest to bardzo dziwny flow
i przebieg w ogóle sekwencji wyłączania urządzenia.
Z takim się jeszcze nie spotkałem.
Pytanie, czemu to w ogóle ma służyć takie zachowanie tego urządzenia?
Ciężko mi powiedzieć.
Moje podejrzenie jest takie, że to jest znowu ograniczenie
wynikające z tego, jak skonstruowany jest Google Glass
i być może najpierw zamyka się program, a potem zamyka się cały system.
I możliwe, że ja tym krótkim przytrzymaniem wyładowałem program,
ale nie do końca.
To jest trochę tak, jak Windows czasem nam wyrzuca jakieś błędy,
że chcemy zamknąć system, a jakiś proces tam jeszcze wisi
w menedżerze i nie chce się zamknąć sam z siebie,
tylko wyrzuca nam błędy i prosi o jakąś manualną tam interwencję.
To ja bym obstawiał, że o to chodzi.
No więc dobrze, mamy włączone urządzenie.
I teraz jak na złość, ono mówi do nas.
Mam nadzieję, że jest ostatecznie głośno.
No słychać, słychać.
No i to jest całe menu.
On tam jeszcze wcześniej ma, na przykład ma taki element
gdzie możemy stupnąć dwa razy.
Tyle informacji nam podał.
Ciekawostka, specjalnie na potrzeby audycji
naładowałem te okulary do pełna.
Przynajmniej tak mi się wydaje.
Z poziomu tam jakieś 80 paru procent.
Ja ich nie ruszałem, ja naprawdę nie użyłem żadnej z ich funkcji.
Możliwe, że one się właśnie tu włączyły, nie wyłączyły do końca,
były w trybie uśpienia, już jest 94%.
Ta bateria tutaj jest naprawdę słaba
i nie wiem czy to jest kwestia tej jednostki
czy jakiegoś mojego zaniedbania
albo jakiejś opcji, którą mam ekstra włączoną.
Natomiast to, co czytałem na przykład w testach czeskich tego urządzenia,
bateria starcza na cały dzień standby, trybu czuwania
albo na 5 do 6 godzin aktywnego użytkowania w życiu.
On w życiu tyle nie wytrzyma, przynajmniej ten egzemplarz, który mam ja.
Powerbank przy tym urządzeniu to jest obowiązek.
OK, no to co możemy zrobić?
Ja tu mam kilka rzeczy, które możemy sobie przeczytać.
Mam tu pudełko, chyba rurek czekoladowych,
ale to się zaraz przekonamy.
Mam tu również płytę CD,
a także butelkę wody mineralnej
oraz otwartą książkę na stronie jakiej bądź.
I też gdzieś dalej poprawię, ale nie chcę na ten moment,
o tu jest, dotykam kawałek papieru,
wniosek o wydanie karty parkingowej.
No więc dobrze, ja teraz spróbuję założyć te okulary,
spróbuję wejść w ten tryb rozpoznawania w czasie rzeczywistym
no i zobaczmy, czy będę w stanie rozpoznać przykładowo
tą butelkę wody, którą mam przed sobą.
Co to za woda?
Czy czegoś więcej się o niej dowiemy.
Ja w tym momencie ściągam słuchawki, więc Michale, nie będziemy się słyszeć.
Ubieram okulary.
O, mam je już na sobie.
Tutaj przełożę,
przestawię tą wodę troszeczkę bliżej siebie.
Spróbujemy tak, dobrze, najwyżej się odsuniemy troszkę,
bo tutaj miejsca to niestety za wiele sobie nie zostawiłem.
No i próbujemy.
No i co mi opowie, co mi opowie system?
Jak widzicie, klawiatura została zeskanowana.
To przed czym was, przed czym was przestrzegałem.
Chowajcie różne przeszkadzajki.
Przesunąłem klawiaturę.
Zobaczmy, co teraz.
Coś tu nie chce.
Nie ma mi za wiele do powiedzenia, ten mechanizm.
Ja w tym momencie spróbuję go przełączyć w tryb offline.
Czyta, chociaż poczekajmy jeszcze.
To nie za fajnie, to nie za dużo się dowiedzieliśmy.
Zobaczmy, czy uda nam się przestawić na tryb offline.
O, udało się.
Kolejna ciekawa cecha tego urządzenia.
Ten touchpad ma bardzo długie wskazówki, to jest jedna rzecz.
A druga rzecz, że ten touchpad jest bardzo wrażliwy na gesty,
w związku z czym on nie radzi sobie często, nie chwyta tych gestów, które ja wykonuję.
O, magnesia.
Domyślam się, że magnesia, ale zobaczmy jeszcze.
To jest ciekawe.
Tutaj cały czas granit jakiś.
Próbujemy.
W tyle jesteśmy w stanie się dowiedzieć o temat wody.
Na temat wody wiemy tyle.
Podziękujemy w wodzie w tym momencie.
I teraz weźmiemy ciastka.
I ciastka będą tak.
Aha, no czyli już dowiedzieliśmy się czegoś.
Fakt po niemiecku, ale wiemy, że są to Waffeletten.
Wiemy, że jest to produkt firmy Balzen.
Są to wafle.
Po niemiecku tu nam przeczytało też, jeżeli dobrze zrozumiałem, że są z topioną czekoladą.
No i dowiedzieliśmy się czegoś konkretnego.
To już było coś i to już była jakaś informacja.
Natomiast z tą wodą nie poradził sobie w zasadzie w ogóle.
W ogóle.
Możliwe, że znowu kwestia.
Mówię oświetlenia.
Ja mogłem spróbować z tą wodą np. wstać.
I trochę się zbliżyć do światła.
I zobaczyć co on mi powie.
No i co mi powiesz.
Legenda Białych Braci coś tam słyszę.
Ledwo, ledwo.
Zdaje się, że to były książki po przeciwnej stronie na szafce.
Jest. Magnesja.
Chyba niż więcej z tej wody mam wrażenie, że nie uda nam się.
Chociaż może.
Niega.
Niegazowana pewnie.
Ten tryptak został też przemyślany pod kątem właśnie prostego czytania takiego, żeby się zorientować co tam jest.
Więc ona jest niestety.
Mineralizowana.
Woda mineralna niegazowana.
Częściowo odgazowana.
No.
To już czegoś się dowiedzieliśmy.
Wy tego może nie słyszeliście.
Tak dobrze, ale tu ewidentnie było powiedziane.
Przepraszam, bo tu mam dużo rzeczy na stole.
Że jest to woda niegazowana, naturalna, mineralna, właśnie magnezja.
No więc okej.
Powiedzmy, że sobie poradził, tylko trzeba było rzeczywiście zbliżyć się do tego światła.
No i ostatnia rzecz, którą spróbuję w tym trybie tekstu natychmiastowego.
Wyjąłem płytę CD.
I spróbuję tą płytę Wam opisać.
Co to za płyta?
Ja nawet sam nie wiem, co wyciągnąłem do końca.
No więc na tą płytę pięknie pada światło, to jestem w stanie zobaczyć.
No więc ściągam słuchawki, próbujemy.
Tu jak słyszycie zobaczył niestety z boku mój wniosek o wydaniu karty parkingowej,
o której za chwilę będziemy się zajmować w trybie skanowania.
Natomiast spróbujmy jeszcze raz tę płytę trochę pod innym kątem.
OK to nam wiele nie mówi.
Zróbmy jeszcze test przy świetle, podnieśmy troszeczkę.
O tu zaczęło nam czytać, to są chyba jakieś Biesiady, bo wcześniej coś czytało.
Biesiady bez granic, chyba taki jest utwór, znaczy taki jest tytuł tej płyty.
I tu widać jakieś Pije Kuba do Jakuba i tak dalej, więc chyba to jest ta płyta.
To jeśli chodzi o rozpoznawanie tekstu.
To coś tam nam się udało.
Dużą rolę odgrywa światło na pewno, czyli jak wiecie jak, to trzeba tak stanąć,
żeby światło padało na przedmiot, który skanujecie i wtedy na pewno nie zawadzi.
Natomiast ja myślę, że to najlepiej wyjdzie w nagraniu, które przygotowałem.
Jak ten tryb powinien działać, bo tam już było troszeczkę lepiej.
Więc ja może teraz to nagranie gdzieś tam puszczę.
Przy okazji głos, który będziecie słyszeć w tle, który czasem mi tam odpowiada na różne moje zapytania.
To jest moja mama, która zgodziła się, żeby tu być, więc pozdrawiamy mamę.
Już tylko przełączę.
Wybierz rozpoczęto udostępnianie dźwięku z komputera.
I słychać jak rozumiem syntezę.
Słychać syntezę, tak jest.
No to spróbujmy.
Znowu nie gwarantuję, że ta głośność tych okularów będzie porażająca,
ale spróbujmy. Ja tam dużo z tych tekstów komentuję.
A tam, gdzie nie komentuję, to mogę skomentować na żywo.
Więc spróbujmy.
Uwaga, start.
Może tak być, Michale?
Czy proponowałbyś jakoś głośniej, wyraźniej?
Jest ok.
Co prawda mono, nie wiem jak ty to nagrywałeś, dźwięk jest mono akurat.
No iPhone’em, więc…
Aha, no ale ok.
On tak będzie po prostu.
Ok, ok.
Tak.
Gusto bello.
I to jest chyba jakieś masło, jeżeli się nie mylę,
bo tam za chwilę coś będzie dalej, że ber, chyba po francusku jak masło.
Więc chyba coś takiego.
Dbaj o środowisko, tak przeliterowane dziwnie, ale jest takie coś.
Ja w ogóle mam wrażenie, Pawle, że on tu bardzo często literuje.
Tak.
Bardzo często.
Ale być może to też dlatego, że te litery, które są na tych sklepowych półkach,
może one są jakieś duże, może one są rozstrzelone
i on tego nie traktuje jako pojedyncze wyrazy.
Tak może być, a może to jest też jakość tego mechanizmu offline,
że on tak po prostu bardziej składa te słowa, niż je rzeczywiście czyta.
Też możliwe.
Możliwe.
No to zobaczmy.
Swoją drogą, szybkie pytanie.
Ta muzyka, która w tle leci, to nie będzie dla nas żaden problem?
Myślę, że nie.
Okej, w porządku.
Zobaczmy, co jeszcze się dowiemy o promocjach w Biedronce.
Dbaj o środowisko razem z Biedronką.
Tu już słyszymy Tyskie.
I to, co jest ciekawe, a za chwileczkę poleci taki fragment
o właśnie tam temat jakiegoś piwa.
I co się okazało, jak zapytałem mojej mamy, skąd on rozpoznał ten fragment,
no to się okazało, że z puszki.
Puszka stała na półce i on po prostu z tej puszki ściągnął napis i mi go przeczytał.
No a puszka duża, jak wiemy, nie jest, więc szacunek, że tak wyłowił ładnie.
Jedną puszkę z wielu, ale no właśnie.
No to zobaczmy, co tam jeszcze dla nas się szykuje.
Tym Bark? Tyskie? Hotex?
To są tylko piwa czy sałatisze?
Tu akurat masz sok jak słowy.
12 kub, 12 topak?
W Supercenie?
Tak, tu się czyta Supercena, taka tabliczka z ofertami.
Właśnie, czyli taką dużo większą powierzchnię przeczytało,
taką tabliczkę z promocjami, z reklamami, tak jak moja mama tu.
Skomentowała.
Taka był ten fragment z puszki, te Tyskie, Pilsner, pół litra,
zapłać mniej, coś tam, to chyba było wszystko z puszki.
No niesamowite.
Zamknij lodówkę po wybraniu produktu, czyli taki napis duży,
który jest zawsze na drzwiach lodówek w Biedronce.
Będzie czytany na wiele różnych sposobów.
To jest właśnie to, o czym wspominałem, czyli rozpoznawanie jest super,
no fajnie, że działa offline, tylko przez to, że on tyle nam opowiada
i próbuje na tyle różnych sposobów zinterpretować jedną rzecz,
którą widzi, to nie nadąża za tym, że ja się już przesuwam.
I w tym momencie kamerą patrzy na coś innego.
I ja muszę dwukrotnym stuknięciem w panel kontrolny zresetować
jakby to rozpoznawanie i zapuścić je od nowa.
I wtedy on już czyta to, co jest aktualnie w kamerze,
no ale niestety realia są takie, że trzeba to robić co chwilę,
jeżeli chcemy być na bieżąco z tym, na co aktualnie patrzymy.
Przepraszam, Filadelfia, Światowit, to jest też Serek chyba, to są tu?
Jak widać tak urywa bardzo tam te słowa,
ale jesteśmy ewidentnie na jakimś nabiale czy gdzieś.
Muszę wrócić.
Poczekaj, wrócę, poczekaj.
Podgniebne?
Pięćdziesiąt procent taniej. Biedronka.
Złote Haribo, zresztą złote czytał w sposób taki zniekształcony.
Haribo.
I to jest wszystko, co przygotowałem.
Tam oczywiście było jeszcze więcej, chyba z 13 minut materiałów w sumie,
natomiast myślę, że to daje mniej więcej taki pogląd.
Daje pogląd, tak, to jest dobra próbka możliwości Envision Glasses tak w boju.
Zwłaszcza, że tam były różne rodzaje powierzchni i różne rodzaje opakowań,
bo tam mieliśmy pudełka, puszki, no takie foliowe powiedzmy,
takie jak to nazwać, w co jest pakowane Haribo, takie miękkie.
Takie torebki, tak?
Torebki, jakieś tam lodówki, jakieś szyldy z reklamami.
No i pytanie jedno i zasadnicze, jak to wszystko w ogóle było doświetlone?
Myślę, że dość dobrze, bo Biedronka jest raczej sklepem takim rozświetlonym,
tych świateł jest tam pełno, one są bardzo jasne.
No i te lodówki na pewno też, w lodówce jest też światło i to cały czas widać przezroczyście przez szybę,
więc myślę, że to na pewno pomogło temu, żeby to działało jak powinno.
No dobrze, to skoro uporaliśmy się z trybem rozpoznawania natychmiastowego,
to spróbujmy coś poskanować.
I ja zacznę znowu od tej płyty, którą mi tu tak nie do końca wyszło,
bo mam doświadczenie, gdyby nam nie wyszło ze skanowaniem również z przyczyn najróżniejszych…
Może tylko Pawle wyłączy udostępnianie od siebie, żeby nam tu dźwięki nie szły.
Słuszna uwaga, dziękuję bardzo. I co ja mogę powiedzieć?
Jeżeli tylko skanowanie nam nie wyjdzie tutaj z jakichś przyczyn,
to na szczęście mam w aplikacji Envision, bo okulary pozwalają na eksport tego co zeskanowaliśmy
do aplikacji na telefon.
Mam na szczęście parę takich tekstów, żeby nie było samodzielnie przeze mnie,
ale właśnie w idealnych warunkach, czyli przy fajnym oświetleniu i tak dalej.
W dużym skrócie o literaturze już mówiłem, jaki tam jest problem.
Skanowałem też jakiś wniosek, formularz, chyba o legitymację wtedy.
I płytę właśnie CD, inną niż ta co dziś, ale jakąś płytę.
No i przy tej płycie było wiadomo, o co chodzi.
Wiedziałem dokładnie, jaka to jest składanka, jakie wydawnictwo, gdzie to wydawnictwo ma siedzibę.
Lista piosenek, lista utworów również była rozpoznana.
Aczkolwiek przy liście utworów on już miał problem.
Przez chwilę sobie radził dobrze, zwłaszcza, że to było jakieś takie dwupłytowe wydanie
i tam było CD1, CD2, ale potem zaczęły się już mieszać numery utworów z tytułami
i potem była cała linijka numerów, 6, 7, 8, 9, 10.
Potem jakieś tytuły i wykonawcy nie przypiął, nie przyłatał.
Potem znowu wróciły jakieś numerki i tytuły, ale już nikt nie był w stanie dojść do tego,
czy to się zgadza z rzeczywistością, czy on po prostu tak to rozpoznał.
Ale wiedziałem, na pewno na początku się to jakkolwiek zgadzało, bo pamiętam tą płytę
i wiem, że tam te utwory się rozpoznały.
Rozumiem, że mamy telefon?
Tak, jest z nami użytkownik, użytkownik Zoom, więc zaraz użytkownika Zoom wpuścimy,
tylko żeby użytkownik Zoom się jeszcze z nami tu połączył i włączył sobie dźwięk.
To jeszcze tylko zatwierdzić.
To znaczy na razie to w ogóle podłączyć się do audio, bo tutaj jest problem.
Jak rozumiem, żadnych pisemnych komentarzy na ten moment nie ma?
Jak na razie nie. Jak na razie nic nie mamy.
No więc poczekajmy, aż użytkownik Zoom sobie poradzi.
Tak, a my możemy w międzyczasie myślę skanować, tak? Płytę?
Tak jest.
Chcemy się przekonać jakie są biesiady bez granic? Dobrze.
Spróbujmy.
To się przekonajmy.
Spróbuję zrobić tak, żeby tu fajnie padało światło na tą płytę.
Może rzeczywiście do tego wstanę.
Położę ją sobie na dłoni i spróbujemy.
Ja chwycę teraz słuchawki.
Teraz tekst kontekstu.
Przesuń dokument w górę lub głowę w dół.
O, szybko poszło.
Teraz będzie trwało rozpoznawanie i za chwilę zamelduje się czytnik.
C-I-S pasja i poczuciem celu. Nagłówek. Biesiada. Granic.
Nik V-U-J-I-C-I-C. W jego życia Eduardo porstrucznego macarzyk wgryźć się w niego,
co powoduje, że ją pogna uganiatem sika ury.
Ojej.
Mimo wszystko, jakkolwiek byśmy się starali, on dalej widzi.
Ja stałem w tym momencie, stoję stąd
i on widzi dalej jakieś książki na moim stole.
No dobrze, to skoro tak się bawimy…
Już, już, już.
Ten touchpad nie chce reagować.
No więc dobrze.
Stoimy i próba ponowna.
Skanowanie grupowska. Textu.
Przuń dokument w lewo.
Przuń dokument w lewo.
W ogóle dość ciekawy komunikat.
Przuń dokument w lewo.
Tak, już sobie poradziłem. Został przesunięty w lewo.
Tak, ale zamiast przesuń.
Ok, a studzienka. Pekuba do Jakuba.
We mchusteczkę haftowaną M.E.L. ożegnaj.
Tyle zobaczyliśmy na razie.
On tu przeczytał mi parę jakichś utworów z tej płyty.
Więc to tak wygląda na ten moment.
Może jeszcze jedna próba z tego miejsca.
Przesuń dokument w górę lub głowę w dół.
Przesuń dokument w prawo.
Przuń dokument w lewo.
Przuń dokument w lewo.
No i zobaczmy.
I za trzecim podejście mam wrażenie, że najlepiej mu to wyszło.
A w międzyczasie nam się słuchacz połączył. Kogo witamy?
Dzień dobry. Dzień dobry. Sławek Pies mówi z tej strony.
Słychać mnie dobrze?
Słychać cię dobrze.
Przepraszam, że tu anonimowo, ale w dalszym ciągu nie mam pojęcia.
No słuchamy cię Sławko.
O tej aplikacji, dlatego tam jest jako użytkownik Zoom.
Nie słuchałem od samego początku.
Dlatego mam pytanie do Pawła.
Te okulary, one już są na rynku?
Polskim, nie światowym tak jak najbardziej.
Pewnie od komentarzy też użytkowników i przyjęcia tego produktu,
chociażby przez tę audycję, może będzie zależało,
bo to Lumen nam to wypożyczył, firma Lumen,
czy te okulary zostaną wprowadzone do oferty.
Rozumiem, że na świecie normalnie są?
Jest, jak najbardziej. To jest już od dwóch lat chyba, czy nawet więcej, trzech.
Sprzedawany produkt firmy holenderskiej Envision.
A one są w jaki sposób dofinansowane przez tamtejsze instytucje państwowe w tamtych krajach?
To wszystko zależy jaki kraj, bo każdy kraj ma swój system.
Nie do końca wiem jak funkcjonuje Holandia, wiem jak funkcjonują Niemcy.
Niemcy mają coś takiego, że osoba niewidoma jest ubezpieczona zdrowotnie
i w ramach ubezpieczenia zdrowotnego niemieckiego możesz oczywiście w określonych
jakichś ramach, kwotach, limitach rocznych itd. wnioskować o sprzęt, którego ci potrzeba
i jest katalog zatwierdzonych pomocy rehabilitacyjnych odgórnie
i z tego możesz brać to, co ci potrzeba.
I tam wspominałeś, jaki to był koszt? 2,5 tysiąca euro, tak?
2,5 tysiąca euro, tak.
To jest za okulary plus aplikacja, to wszystko razem, tak?
Aplikacja już jest darmowa od lipca, natomiast aplikacja w momencie,
kiedy była jeszcze płatna, jak najbardziej była pokryta w ramach tego
i jeżeli sparwałeś okulary z telefonem, to licencja była ci automatycznie przyznawana dożywocnie.
Wiecie co, mnie osobiście to przeraża, że to jest zabawka tak naprawdę,
to jest gadżet, za który niewidomy płaci 2,5 tysiąca euro.
Tutaj byliśmy świadkami, jak ten gadżet, ta zabawka, bo to jest zabawka,
nie jest w stanie sobie poradzić praktycznie z niczym.
I teraz właściwie do czego my to mamy używać?
Ani w sklepie, ani w domu, ani już nie mówię o pracy,
bo to w ogóle jest nieprzydatne do niczego.
A przecież rozumiem, że jest taki zamysł, żeby na przykład,
powiedzmy dostajemy jakąś korespondencję, nie wiemy jakie dokumenty leżą na stole,
albo gdzieś idziemy do urzędu, chcemy sobie coś szybko przeczytać,
no nie ma żadnych szans, czyta jakiś głupot.
Zwłaszcza szybko, zwłaszcza szybko, bo w końcu jak sobie,
bo za którymś tam razem, za którymś podejściem, to się oczywiście uda,
przynajmniej na tyle, żeby się zorientować, co to jest, ale ile czasu…
Tak, ale zobaczmy tutaj, jak dużo czasu Paweł spędził na tym,
żeby cokolwiek w ogóle z tego przeczytać.
Tak naprawdę to już dawno wykonałby telefon do, nie wiem, Be My Eyes,
albo do jakiegoś swojego przyjaciela, czy znajomego,
przez WhatsAppa i Messengera.
Ja tak robię na co dzień, jeśli nie wiem na przykład,
co powiedzmy jest w kuchni, jakaś przyprawa, które chce się zorientować szybko,
żeby coś znaleźć, to po prostu wykonuję połączenie wideo.
No i mam po prostu odpowiedź błyskawiczną,
tak samo nawet przeczytanie jakiegoś tekstu.
To jest niesamowite, jakim nieprawdopodobnym narzędziem jest wzrok,
po prostu wstryk masz i jest.
Ja nie wiem, dlaczego po prostu taki bubel wypuszczają,
2,5 tysiąca euro to kosztuje, a jeszcze najgorsze,
że te instytucje państwowe w innych krajach na to się w ogóle zgadzają
i podatnicy muszą ułożyć pieniądze na to,
żeby ten biedny niewidomy dostał zabaweczkę, bo to jest zabaweczka.
Wiosławku, jeszcze jedną, o jednej rzeczy,
tylko poczekaj, jeszcze tylko powiem jedną rzecz,
bo będziemy tu pokazywać jedną funkcję,
w której te okulary rzeczywiście mogą okazać się całkiem przydatnym narzędziem,
chociaż też mam wrażenie, że można by to było zrobić prościej,
mianowicie jest jeszcze możliwość korzystania z tych okularów
jako właśnie kamery i możesz za pomocą tych okularów
połączyć się do kogoś i dzięki nim właśnie skanować sobie powiedzmy
to, co jest przed tobą i dostawać natychmiast informację zwrotną,
czyli to, co ty robisz, natomiast bez trzymania telefonu w ręku,
tylko po prostu zdecydowanie wygodniejszej pozycji,
czyli z perspektywy twojej głowy.
Ok, ok, natomiast zwróć uwagę, że okulary z różnego rodzaju kamerami
już są i nie za takie pieniądze.
Możesz je podpiąć do jakiegokolwiek telefonu na iOS czy na Androidzie.
Jedno pytanie, czy próbowałeś?
Łączysz się z kimś widzącym i po prostu to on cię kieruje, on ci powie.
Sławku, powtarzam, jedno pytanie, czy próbowałeś,
bo to, że tego typu kamery są, to się wszystko zgadza,
natomiast problemem z nimi, z tego przynajmniej co ja wiem
i dlatego pytam, czy masz doświadczenie praktyczne.
Jeżeli chodzi o, już cię odpowiadam, jeżeli chodzi o okulary nie mam,
natomiast jak najbardziej mam doświadczenie, jeśli chodzi o kamery
wbudowane po prostu w telefon, czy to w iPhone, czy telefon na Androidzie.
To właśnie już mówię o tym, o co chodzi z tymi kamerami,
na przykład z GoPro, bo są takie, oczywiście, tu się z tobą zgadzam,
takie kamery, które nosisz na głowie i możesz z tej perspektywy
coś tam, powiedzmy, filmować.
I tak, filmować się da, problemem z tego, co wiem,
ale może ktoś mądrzejszy tu powie coś więcej, na przykład w komentarzu,
problemem jest właśnie wykorzystanie tych kamer do połączenia się z kimś.
Wykorzystaniem ich jako urządzenia, z którego pobierasz obraz.
Ja powiem nawet więcej, a obawiam się, że tu iPhone ma dużo większy problem
niż Android, bo co prawda jest jakiś tam Apple Connector Kit,
Camera Connector Kit, tylko z tego, co wiem, też proszę tu o poprawienie,
jak ktoś ma aktualniejsze informacje, nie da się tego wykorzystać,
na przykład w komunikatorach internetowych.
Bo ja się tym kiedyś też właśnie interesowałem,
bo też mi się to wydawało takie proste, że a, to sobie kupię kamerkę GoPro
i będę w stanie na przykład nosząc ją na głowie połączyć się z kimś
i poprosić na przykład o jakąś pomoc.
No okazuje się, że jak tak o tym sobie trochę poczytałem,
to to nie jest wszystko takie proste.
A jeżeli chodzi o jakieś okulary, bo mam się mylić,
ale na przykład jakieś goglowskie, tak?
No właśnie te okulary, właśnie tu masz do czynienia z Google Glass.
Google Glass, aha, czyli to jest Google Glass plus Envision, tak?
Plus oprogramowanie Envision, tak.
Aha, że oprogramowanie jest, dobrze.
No w każdym razie, no nie wiem, no jestem naprawdę tym rozczarowany,
słuchajcie, bo takie różne próby to już były 15 lat temu,
no i on tam cytał x, y, z, kropka, gwiazdka, gwiazdka, procenty, procenty.
A 20 lat temu to jak się wrzuciło dokument do przeciętnego,
przeciętnego, podkreślam, skanera, to były lepsze rezultaty,
a tutaj to tak, no musimy sobie zdawać sprawę, czy jest światło, czy nie ma,
jakie to jest światło, jakie natężenie i tak dalej.
No sorry, no ktoś po prostu najwyraźniej na etapie projektowania tego
zbyt mało się konsultował z osobami całkowicie niewidomymi,
no bo jak to inaczej rozumieć?
No przecież te wysiłki Pawła, robił co mógł, ale w ogóle…
A ja ci powiem inną rzecz Sławku.
Ja zaczynam coraz bardziej podejrzewać, że nie chcę mówić we wszystkich,
ale za siebie mogę, nie umiem, bo mnie nigdy tego nie uczono,
jak jako, że ja jestem osobą no prawie całkowicie niewidomą,
trochę widziałem jak byłem mały, ale jak kierować oczy w taki sposób,
czy z takich okularów, czy telefonem,
bo telefonem jest dokładnie ten sam problem niestety,
że ja też kieruję aparat telefonu na jakiś list i to już wiele razy próbowałem
i miałem też podobnie mizerne momentami efekty,
natomiast jak słyszę prezentacje zagraniczne tego typu produktów,
to działa tamto o wiele lepiej,
a ja też nie jestem zwolennikiem takich wiesz teorii,
że ktoś ich kupił, że to jest wszystko pod publiczkę, pod reklamę.
Nie sądzę, bo to wiele osób z wielu różnych tych
historii jest wiele naprawdę takich historii sukcesu z tymi urządzeniami,
więc ja zawsze sobie daję taki margines błędu,
że problem leży po mojej stronie,
że jeszcze nie uzyskałem odpowiedniego szkolenia,
że nie umiem tą głową na tyle operować.
Na pewno w trybie tym asysty,
który będziemy pokazywać od strony dźwiękowej,
bo ciężko żeby wizualnej,
bardzo dużo pomaga to, że te okulary siedzą na głowie
i to już z osobą widzącą analizowałem.
Dużo intuicyjniej jest mi wykonać taki ruch, jaki osoba widząca ode mnie oczekuje,
czyli popatrz na to, przekręć trochę w prawo, trochę w lewo.
Ja jestem w stanie bardzo granularne i bardzo minimalne ruchy głową wykonywać
i przez to, że te okulary siedzą ja naprawdę mam wrażenie,
że to idzie bardzo intuicyjnie.
Ale to sam program rozumiem powinien tutaj nad tym czuwać.
Przecież to jest dla niewidomych.
Skąd my na litość boską mamy wiedzieć gdzie…
W trybie asysty z osobą widzącą,
czyli jak ja dzwonię na wideo do osoby widzącej z tych okularów,
bo taka opcja też jest, to już wtedy osoba widząca mnie prowadzi,
co chcę widzieć w tej kamerze.
Tak, to w tym trybie rozumiem, ale teraz to, co właśnie demonstrowałeś,
czyli próba czytania tego, co się znajduje w książce, czy na płycie,
bądź na tej wodzie, to program sam powinien nam mówić, co mamy zrobić,
że on mnie widzi i trzeba…
I to robi w trybie skanowania tekstu, co też chyba słyszałeś łącząc się z nami,
bo był komunikat przesuń dokument w górę lub głowę w dół.
Ja wykonywałem przesuń dokument w lewo, przesuń dokument w prawo.
Ja wykonywałem bardzo delikatne ruchy głową, nie jakieś zwariowane
i on praktycznie po jednej takiej wskazówce był w stanie pstryknąć zdjęcie.
Ja powoli zaczynam podejrzewać.
Oczywiście to może być teoria niczym nie poparta,
że ta płyta, przynajmniej po jednej stronie, ma wypisane naprawdę cztery piosenki.
Aha.
Może tak być.
Nie wiem, słuchajcie, ja czekam naprawdę na jakieś porządne oprogramowanie,
porządne urządzenie tak, żeby rzeczywiście osoba, która jest czy tłumaczem,
czy prawnikiem, czy ma po prostu taką pracę, gdzie musi jednak się zapoznawać
z różnymi dokumentami, żeby rzeczywiście mogła z tego śmiało korzystać.
Pod tym względem mam wrażenie, że lepiej sobie radzi prezentowany,
też swego czasu, przez Roberta Hedzyga, Orkam.
Nie wiem, czy słuchałeś audycji na jego temat.
Ale tam efekty były znacznie lepsze.
Tak. I też słyszę takie opinie od osób niewidomych, które z tego korzystają.
Ja też będę później prezentował, bo wiesz, Sławku, teraz może być wiele czynników,
typu oświetlenie, typu to, że ja coś źle się ustawiłem,
że mam dużo rzeczy na stole. Ja jeszcze będę pokazywał coś,
co zrobiłem w warunkach naprawdę idealnych, czyli oprócz książki,
zero przeszkadzajek na stole, bardzo ostre światło, takie punktowe.
I naprawdę ten tekst wyszedł fajnie. Bez pomocy osoby widzącej,
to ci mogę powiedzieć, zrobiłem kilka skanów właśnie płyty,
jakiegoś wniosku, jakiejś książki. I ja spróbuję to potem też z telefonu pokazać,
bo wyeksportowałem taki tekst i to rzeczywiście zadziałało.
A jeszcze jedną rzecz zapytam, a jak np. poszedłbyś do jakiejś biblioteki,
bądź jakiejś kancelarii np. prawnej i chciałbyś się zapoznać z jakąś książką
czy to dokumentami, to jak wtedy takie urządzenie się spisuje?
Czy się w ogóle nie spisuje, czy coś tylko przeczyta, czy przeczyta 80%,
czy powiedzmy ona ma jakieś właśnie dodatkowe wymagania,
jeśli chodzi o doświetlenie i tak dalej. Jak tutaj to?
Żeby można powiedzmy, no idziesz sobie gdzieś do jakiejś biblioteki na uniwersytecie.
Tak i chcesz czytać tym. Więc tak jak mówiłem na początku,
naprawdę trzeba postarać się o to, żeby to oświetlenie było dobre.
Czy naturalne przez okno, czy jak już jest ciemniej to lampa,
bo niestety te okulary nie mają wbudowanych żadnej lampy błyskowej
i to jest ograniczenie, producent mi mówił Google Glass,
że Google Glass nie miało, więc to też nie może mieć.
Pomagają pewnie jakieś lampki do czytania, tylko też na odpowiedniej wysokości,
bo ja mam taką troszkę niską i mam wrażenie, że po prostu cała kamera nie łapała pod radar
tego światła lampy i książki w takiej odległości, żeby móc to zeskanować.
Ale znowu w innym miejscu, tam gdzie będę pokazywał, gdzie robiłem te teksty,
które dobrze wyszły, to były już tak dość wyżej umiejscowione dwie lampki
do czytania, wmontowane w biurko na stałe. I tam poszło to całkiem fajnie.
Mam wrażenie, że musi chyba się po prostu wziąć za coś takiego gigant typu Apple czy Google
i wtedy może coś się z tego wyjdzie.
Na okulary Apple’a czekamy już od dłuższego czasu i ja też w tym biorę wielkie nadzieje.
A te okulary, no to pamiętaj, że to są właśnie okulary Google’a,
co prawda programowane przez firmę zewnętrzną, ale ja uważam, że na etapie inżynierskim,
już na etapie samego projektu urządzenia, to, że tam nie dodano żadnej lampki,
żadnego flasha, to to jest bardzo poważny błąd konstrukcyjny,
że najzwyczajniej w świecie ktoś tego po prostu nie przewidział w projekcie,
że ktoś mógłby chcieć stosować te okulary właśnie do tego.
Ja powiem nawet więcej. O flashu bardzo często się zapomina ogólnie w zastosowaniach wideo,
bo żaden ze znanych mi komunikatorów internetowych, ani Messenger, ani WhatsApp,
ani Telegram Signal, ani chyba nawet Be My Eyes nie wpadł na to,
żeby załączyć lampę błyskową w czasie rozmowy wideo, a to się naprawdę czasem przydaje.
Oczywiście, że tak.
Tak, poprosić osobę widzącą o pomoc w czymkolwiek w ciemności jest niewykonalne,
chyba że jakąś lampką czołówką się doświetlisz.
Tak jest. Dobrze, dziękuję w takim razie. Nie wiem jak to się rozłącza na tej stronie?
To jest takie pytanie głupie.
Jak na stronie, to zamknij zakładkę najlepiej, bo to jest zuma z przeglądarki, tak?
Tak, w zoomie tutaj na iPhone’ie.
A na iPhone’ie?
A może Michał mnie rozłączy.
Dokładnie, to ja cię za moment przeniosę do naszego…
Dziękuję, dziękuję wam.
Proszę bardzo zostań z nami, do usłyszenia.
Do usłyszenia, trzymaj się, pozdrawiamy.
Komentarze jak na razie, jak rozumiemy, nie ma.
Jak na razie nie ma, za moment jeszcze tam dokładnie wszędzie pozaglądam,
bo teraz trzy źródła do opanowania, ale za chwileczkę to…
Nie jest łatwo, ale…
Ale fajnie, że są i że się z nami kontaktujecie.
Jeżeli chcecie tak jak Sławek tu do nas się odezwać,
to zapraszamy też głosowo, tyflopodcast.net, ukośnik Zoom.
Ja tutaj przearanżuję troszeczkę to, co leży na moim biurku.
Wezmę sobie właśnie taką kartkę papieru, jaka jest.
O, widzę tutaj, widzę, że światło powinno dość ładnie na nią padać.
I spróbujmy w tym momencie zeskanować.
To jest taki dokument, z tego co wiem, to jest wniosek o kartę parkingową.
No i zobaczmy, dostaniemy taki dokument i bardzo chcemy się z nim zapoznać.
Czekam słuchawki, próbujemy.
Czytnik, wypełnia organ, numer wniosku, data wpływu wniosku.
Wniosek o wydanie karty parkingowej, wniosek obowiązuje do upływu 90-tego dnia od dnia odwołania stanu zagrożenia epidemicznego lub stanu epidemii wywołanego wirusem SARS-CoV-2.
Pierwsze, nazwa organu przewodniczący miejskiego zespołu do spraw orzekania o niepełnosprawności w Gliwicach.
Drugie, imię, nagłówek.
Czwarty, numer PSL. Szósty, adres e-mail o ile posiada.
Adres do korespondencji.
Usmy, miejscowość.
Jedenasty, ulica, WYPLN i A wnioskodawca.
Pierwsze, część A kwadrat, dane wnioskodawcy.
Trzeci, nazwisko.
Piąty, numer i data wydania orzeczenia potwierdzającego niepełnosprawność 7.
Numer telefonu o ile posiada.
Dziewiąte, kod pocztowy.
Trzynasty, imię.
Piętnasty, numer PSL.
Szesnaste, adres e-mail o ile posiada.
Adres do korespondencji.
Usmy, miejscowość.
Nagłówek.
Ulica, dane osoby SKL, ADA, JOTA, CEJ, wniosek.
Dwunasty, numer domu w numer lokalu.
Czternasty, nazwisko.
Dziesiąty, poczta.
Siedemnasty, numer telefonu o ile posiada.
Dziewiętnasty, kod pocztowy.
Dwudziesty, numer domu w numer lokalu.
KUMENTY dołączone do wniosku.
Fotografia o wymiarach 35 milimetrów na 45 milimetrów.
Padece ZENIA.
Patrzam wrze.
Dwudziesty czwarty, dowód uiszczenia opłaty za wydanie karty parkingowej i oplaty ewidencyjnej.
Dwudziesty, poczta.
No i tu naprawdę zeskanował to ładnie.
Ja podejrzewam, że dlatego te punkty były tak trochę nie po kolei,
bo jest to pewnie jakaś tabelka i on sobie z tym nie bardzo poradził.
Tylko no właśnie, mam włączony tryb wykrywania układu,
więc teoretycznie on powinien sobie z tym poradzić.
Chyba, że źle rozumiem tryb wykrywania układu, ale powiedzmy, że nie.
Więc tu się umówmy, że to też w jakiś sposób, ale tak, racja.
No i to jest mniej więcej to, o czym mówiłem przed chwilą,
czyli taki tekst pisany, on sobie bardzo fajnie rozpoznaje.
Ja jeszcze spróbuję na koniec może książkę.
O, tu mamy książkę.
Książka też z tego, co widzę, ładnie się naświetliła.
No i po raz ostatni, zanim przestaniemy tu kombinować i eksperymentować w kółko,
ja ściągam słuchawki i skanujemy książkę.
Co ciekawe w ogóle, tak słyszeliście,
bez jakiejkolwiek wskazówki na pierwszej próbie od razu strzelił zdjęcie.
Więc nie wiem, jak mi się to udało tak dobrze ustawić,
ale no, czemu mam się z tego nie cieszyć?
No więc zobaczmy.
Skan tekstu.
Przesuń dokument w górę lub głowę w dół.
Odsuń dokument od siebie.
Odsuń dokument od siebie.
Odsuń dokument od siebie.
Odsuń dokument od siebie.
Przesuń dokument w górę lub głowę w dół.
Przesuń dokument w górę lub głowę w dół.
Odsuń dokument od siebie.
Przesuń dokument w górę lub głowę w dół.
Przuń dopnie udało nam się przechwycić twojego dokumentu.
Upewnij się, że nie blokujesz żadnych rogów
i trzymasz dokument na odległość ramienia od prawego oka.
Aby przećwiczyć przechwytywanie dokumentu,
otwórz ćwiczenia na prowadzanie ustawienia dokumentów w kategorii Pomoc.
Wykonaj dwukrotne dotknięcie jednym palcem,
aby ręcznie przechwycić dokument.
Odsuń dokument od siebie.
Przesuń dokument w górę lub głowę w dół.
Przesuń dokument w prawo.
Przesuń dokument w górę lub głowę w dół.
Przuń dokument w lewo.
Przuń dokument w lewo.
Przuń dokument w lewo.
Odsuń dokument od siebie.
Przuń dokument w lewo.
Przesuń dokument w prawo.
Odsuń dokument od siebie.
Przesuń dokument w prawo.
Przesuń dokument w prawo.
Przuń dokument w lewo.
Przesuń dokument w prawo.
Przuń dokument w lewo.
Przesuń dokument w lewo, przesuń dokument w prawo.
Przesuń dokument w lewo, przesuń dokument w prawo, przesuń dokument w górę lub głowę w dół.
Przuń dokument w lewo, przuń dokument w lewo.
Przuń dokument w lewo, przuń dokument w lewo.
Przesuń dokument w lewo, przesuń dokument w górę lub głowę w dół.
Przesuń dokument w lewo, przesuń dokument w lewo.
Przesuń dokument w lewo, przesuń dokument w lewo.
No i poczytnik.
Kłamstwa, które wypowie.
Leśny. Nagłówek.
CO. Wiadającą się karierę aktorską zwolnił cały zespół asystentów i przez następne cztery lata odrzucał rolek, które mu proponowano.
Nie zależało mu już na statusie celebryty. Zamiast tego jego pasją poprzysiągł sobie, że już nigdy więcej nie będzie używał swoich stało się poznawanie Boga, kochanie Go i służenie Mu.
No tak. Więc tutaj jak widać ten układ się trochę pomieszał i trochę długo trwało właśnie zanim on pozwolił mi, znaczy zrobił to zdjęcie samodzielnie.
Ja powiem szczerze bym się chyba już poddał.
Ale to jest niestety to z czym ja też bardzo często miewam problem w przypadku w zasadzie każdej tej aplikacji, która wykonuje skan po udzieleniu mi wskazówek.
Dlatego ja zazwyczaj jeżeli chcę coś przeczytać to korzystam z tych trybów szybkiego rozpoznawania tekstu, z tych instant.
Ja telefonem chyba nigdy nie udało mi się zrobić takiego zdjęcia, żeby on nie miał do mnie jakiegoś ale i żeby te wszystkie krawędzie były widoczne.
Także to jest mam wrażenie, że taki nieco większy problem. No nie wiem jak w przypadku tych okularów to by wyglądało, bo nie miałem okazji ich testować. Natomiast widzę, że Krzysztof do nas napisał i pozwolę sobie przeczytać jego komentarze.
Witajcie, bardzo ciekawa audycja. Niestety od początku jej nie przesłuchałem, ponieważ nie dostałem powiadomienia z Facebooka. Jeszcze jeden komentarz od Krzysztofa. Wniosek, trzeba się uśmiechnąć do firmy Lumen, żeby te okulary puścili na polski rynek.
No właśnie to jest pytanie, czy to jest sprzęt na tyle dobry, żeby faktycznie go wypuszczać. To nad tym się można zastanawiać i odpowiedź myślę, że każdy będzie sobie w stanie wyrobić po wysłuchaniu tej audycji.
Ponieważ zachęcamy, żeby ewentualnie jeszcze sięgnąć po audycję, którą stworzył Robert, a właściwie którą stworzył Robert, bo to była jedna audycja, jak dobrze pamiętam.
Tak, dobrze. To może ja jeszcze w takim razie pokażę te teksty, które mi wyszły w takim układzie, że po prostu one wyszły dobrze.
Okej.
Ja tu spróbuję?
Dobrze, to ja wyciszę Twój mikrofon, Pawle, żebyś mógł sobie spokojnie wpisać kod do odblokowania telefonu, więc na spokojnie i za chwileczkę Cię odciszę. O, może już teraz.
Nie, jeszcze nie.
Jeszcze nie? To okej, to wpisuj. To wpisuj, a ja przypomnę w międzyczasie środki kontaktu z nami.
kontakt.tyflopodcast.net, tu piszecie, tyflopodcast.net, tu dzwonicie, no i Facebook oraz YouTube, tu również piszecie, tu możecie do nas wpisywać komentarze, pod transmisjami na żywo, bo zarówno w jednym, jak i w drugim miejscu na żywo nadajemy.
Co prawda mi tam w międzyczasie program do transmisji wskazał informację, że był jakiś chwilowy problem z jedną z transmisji, ale mam nadzieję, że wszystko działa, bo już więcej uwag nie zgłosił.
No to jak tam Pawle?
Już chyba jestem gotów.
Okej.
Zobaczmy, czy prędkość głośność odpowiada.
Czytania fotki.
Czytania fotki.
Czytania fotki.
Czytania fotki.
Czytania fotki.
Czytania fotki.
Czytania fotki.
Czytania fotki.
Czytania fotki.
Czytania fotki.
Czytania fotki.
Czytania fotki.
Czytania fotki.
I tu są różne rzeczy, które zeskanowałem tymi okularami.
No więc przyjrzyjmy się, co tam ciekawego wygrzebałem.
To są, tak jak mówię, robiłem samodzielnie te skany.
Raz to było po prostu światło zewnętrzne zza okna, a drugi raz miałem bardzo dobre oświetlenie w pomieszczeniu i też czysty stolik.
Nic tam nie leżało oprócz tego, co miało być skanowane.
No więc zobaczmy.
…
To ja tak usłuchiwałem.
…
O, tu przeskoczyło na inną stronę chyba albo linijkę.
…
No i tam dalej jeszcze ta strona leci.
Ja jeszcze zobaczę, czy on na koniec nie wypluł nam jakichś linijek.
…
O, tu jakieś słowa, jak widać, się poodrywały.
Natomiast to jest pierwszy przykład i to było rzeczywiście robione przy tym oświetleniu takim fajnym, bez przeszkadzajek na stole.
…
A to jakaś składanka chyba.
Tak, Radio Z, Przeboje Wielkie Tylko na Święta i tam było napisane, że Magic Records. Może ktoś pamięta jeszcze takie składanki i te utwory?
…
O, tu się idealnie rozsypały cyferki.
…
Ja się uśmiecham słuchając tych tytułów.
Tak jest.
…
…
O, tutaj się dwie linijki w jedną zrobiły.
…
No i to jest tyle tutaj.
I adres się urwał.
Tak, i zobaczmy, co jeszcze mamy.
…
…
Tu widać, że trochę się polskie znaki posypały.
…
No i to mniej więcej tak sobie płynie.
Nie wiem, czy tu jeszcze coś.
Myślę, że mniej więcej wiemy, na co stać te okulary, jeżeli faktycznie mają warunki dobre, jeżeli to jest w dobrym świetle, jeżeli nic nam tam nie przeszkadza.
No, tylko właśnie to jest pytanie, jak często my takie warunki mamy i czy to jest urządzenie, aby do tego.
Bo jeżeli ja jestem w domu i jeżeli wiem, że będę potrzebował skanować różne rzeczy, to ja sobie mogę kupić skaner za ułamek ceny tego sprzętu.
To prawda.
No, to założenie pewnie było takie, że jakaś identyfikacja szybsza tego, no i właśnie jakieś użycie w podróży pewnie, no przy czym właśnie kwestia tego światła.
Kwestia tego światła, a też jeszcze tak pamiętajmy, że z tym użyciem w podróży.
To to też wcale nie wygląda tak bardzo obiecująco intuicyjnie, bo prądu to trochę zużywa.
Jak wspomniałeś, że powerbank to jest rzecz, w którą warto się zaopatrzyć, bo dość szybko ta bateria spada.
Z ciekawości ile teraz masz na przykład?
A zobaczmy.
Zobaczmy właśnie.
Obudźmy go.
Nie o to chodziło.
30% baterii straciliśmy na naszych eksperymentach.
No nie, to jest słabiutko.
I też to łączenie z internetem wcale nie jest jakieś bardzo komfortowe, bo trzeba pamiętać o tym, że te okulary nie mają żadnego modułu eSIM, nie mają żadnego slotu na zwykłą kartę SIM.
Tu musimy robić zawsze hotspota z naszego telefonu.
Tak, albo się wyposażyć w router przenośny.
Więc to kolejne urządzenie, które byśmy ewentualnie musieli ze sobą zabrać.
I ładować.
I ładować, a owszem i ładować.
No to jest prawda, że tak to niestety wygląda.
Też sam proces łączenia z Wi-Fi nie jest jakiś bardzo komfortowy, bo albo robimy to z poziomu aplikacji Envision AI i wchodzimy tam w okulary i parujemy i następuje połączenie i tą sieć Wi-Fi i hasło wprowadzamy w aplikacji.
Albo skanujemy kod QR, który możemy wygenerować na stronie dedykowanej temu, stworzonej przez twórców okularów i aplikacji i skanujemy ten kod kamerą okularów z naszego laptopa, smartfona.
No i o ile z reguły to jakoś działa, to ja już znalazłem się w sytuacji, gdzie to działać nie chciało.
Co więcej, próbując się połączyć z hotspotem na iPhone’ie, iPhone ma tak, że jak się chce wpuścić nowe urządzenie po hotspocie, to trzeba być w ustawieniach iPhone’a.
I jeżeli chcemy wykonać chociaż jedną z tych dwóch metod połączenia, to musimy wyjść z tych ustawień iPhone’a.
Z kodem QR to się jeszcze jakoś udało, z aplikacją Envision nie chciało.
Więc tutaj też kolejny minus dla tego rozwiązania.
Ja wiem, że tego się nie dało zrobić za bardzo inaczej, bo nie ma klawiatury na tych okularach, ewentualnie można by zrobić po orionowemu, czyli wgrywać te hasła w pliku txt.
Jakiś plik tekstowy, tak?
Tak, no ale jest jak jest i nie jest idealnie, to prawda.
No dobrze, to co jeszcze potrafią te okulary?
Okulary potrafią rozpoznawać osoby, jeżeli tylko zaprogramujemy im twarze, czyli porobimy najpierw zdjęcia twarzy osób, które chcemy, żeby były rozpoznawane,
a potem możemy chodzić i okulary dadzą nam znać, jeżeli tylko rozpoznają taką osobę.
Zawsze się zastanawiałem, czy ktokolwiek korzysta z tej funkcji?
Chyba tylko do rozpoznawania banknotów, jak nie było rozpoznawania banknotów, bo to nie tylko Envision ma taką funkcję.
Szczególnie, że to nie jest tak, że my sobie robimy jedną fotkę kogoś i sprawa załatwiona.
Tam to wymaga iluś zdjęć, prawda?
Dokładnie, z różnych perspektyw twarzy, z różnych stron, więc tutaj też nie sądzę.
Jest wykrywanie przedmiotów, czyli jakichś takich powszechnego użytku, jakichś ławek, kanap, komputerów, nie wiem, krzeseł, stołów, lamp itd.
No to działa całkiem ok, w sensie jak okulary wykryją taki przedmiot, to wydając sobie dźwięk można ręką sięgnąć po to.
Tylko też trzeba uważać, jak się tą głową kręci, żeby to pole sobie odpowiednio zawęzić.
Jest rozpoznawanie kolorów, światła, w sensie natężenia światła, czy światło jest zapalone, czy nie.
Jest rozpoznawanie pieniędzy, coś, co chyba nie zostało powiedziane, bo pamiętam z audycji z Robertem, że była mowa o tym,
no chyba cashleader szybciej działa, czy szybciej sobie radzi, to jest cashleader. Tak, jest cashleader wgrany na te okulary i jest rozpoznawanie,
no również mi się wydaje, że na telefonie jakoś szybciej sobie z tym radziłem, no ale jest.
Jest identyfikat, opisywanie scen, które jest szczerze mówiąc trochę takim gadżetem, chociaż nie testowałem tego na dworcu na przykład kolejowym,
żeby sprawdzić, z której strony są schody, a z której strony się ciągnie peron do końca i jest szczere pole.
Więc może w takiej sytuacji to by się tam przydało, żeby jakoś określić, że tu są drzwi, a tu ich nie ma.
Natomiast opisywanie scen jest opisywaniem scen.
No i są te funkcje asysty zdalnej, na ten moment Envision Ally, czyli to, co będziemy pewnie za chwilkę pokazywać.
I Aira, z którą nie mamy za wiele szans, chyba że ktoś bardzo, bardzo jest zdeterminowany i chce z tego skorzystać.
No dobrze, to może przejdźmy właśnie do tej asysty zdalnej. Wydaje mi się, że to jest chyba najsensowniejsze wykorzystanie tych okularów.
Aczkolwiek też warto by się pochylić, może zanim przejdziemy do pokazania jak to działa, przynajmniej od tej strony dźwiękowej,
bo tak jak wspomniałeś, nie pokażemy tu jakości obrazu, no bo też komu mielibyśmy tę jakość pokazywać, skoro nasi słuchacze z reguły nie widzą.
Natomiast chciałbym zapytać o rzecz inną, czy te okulary to jest taki sprzęt, którego nie bałbyś się w ogóle zabrać gdzieś ze sobą w podróż,
gdzie to wiadomo, no im bardziej pancerny sprzęt, tym lepiej.
Na pewno trzeba być bardzo, ale to bardzo ostrożnym.
Te okulary na szczęście mają bardzo ładne etui, do którego można je schować w momencie, kiedy ich nie używamy.
Natomiast kiedy je mamy wyciągnięte, warto uważać, bo ta konstrukcja jest dość delikatna i ona już na pierwszy mój dotyk wyglądała tak,
jakby nie było trudno, żeby ją zniszczyć.
Ja już słyszałem historię kogoś, komu to spadło ze stołu i co prawda się nie rozbiło na szczęście,
ale się rozczepiły te dwa elementy, czyli ta elektronika z tą ramką, która pozwala nam umieścić te okulary na głowie.
Więc warto uważać, bo ja jestem sobie w stanie bardzo łatwo wyobrazić, że osoba niewidoma, która przecież nie ma w 100% przypadków kontroli nad tym,
że coś gdzieś zostawiła, co gdzieś położyła, może postawić na tym coś, może sobie na tym usiąść nawet, może się o to oprzeć, cokolwiek może się stać.
Albo po prostu no chociażby zrzucić to ze stołu. Ileż to razy zdarza się, że coś leży mi na biurku,
chce po coś sięgnąć, zahaczę o to łokciem, no i niestety spada.
I no tak chociażby marnie skończyły moje pierwsze aftershocksy jeszcze, te blues two, które mi posłużyły naprawdę dość krótko,
a później zamieniły się w taką gustowną grzechotkę, bo po prostu po upadku z niewielkiej wysokości, no z wysokości biurka,
ale na podłogę wykonaną z paneli, no coś tam się chyba w środku poodklejało i te głośniczki zaczęły grzechotać i jakość dźwięku była fatalna.
Więc no niestety takie rzeczy się zdarzają i to też trzeba mieć na uwadze.
A jeszcze trzeba mieć na uwadze to, że okej w naszym domu, to my jeszcze mniej więcej wiemy gdzie co mamy, czego możemy się spodziewać,
a jak jesteśmy w nieznanej okolicy, to ja sobie jestem w stanie łatwo wyobrazić sytuację taką, że nawet idziemy sobie gdzieś z białą laską,
ale jest jakaś przeszkoda na wysokości naszej twarzy, okulary też są na wysokości naszej twarzy i przy bliskim kontakcie z przeszkodą, no nieszczęście gotowe.
No nie zaprzeczę, nie wygląda ta konstrukcja na taką, która mogłaby przetrwać jakieś ciężkie warunki.
No i dobrze, to co? Spróbujemy się dodać jako pomocnicy.
Tak jest, ja się już zarejestrowałem w tej aplikacji Envision Ally.
A ja jestem również zarejestrowany i będę musiał Ciebie dodać jako mojego pomocnika.
Ok, to ja sobie teraz włączę już telefon, odblokuję go sobie.
Okulary, zobaczmy czy się połączyły.
Tak.
Preferencje funk, to chyba tu.
Tak, pomocnik Envision.
Adres e-mail, na jakim Michal Małpadziwisz.net?
Nie ma sprawy.
No i zobaczmy.
A on nawet chyba nie wymaga żadnej autoryzacji po Twojej stronie.
Jak instalujesz taką aplikację to prawdopodobnie z takim przeznaczeniem, że będziesz komuś pomagał.
Mogą Cię też dodawać obcy ludzie jak znajdą Twój adres.
Cóż, na to poradzimy.
Dobrze, no to w takim razie ja przechodzę do okularów.
To ja może pokażę jeszcze jak w ogóle ta aplikacja wygląda, żeby nasi słuchacze mogli się zapoznać z jej interfejsem.
Ja też dam Ci odsłuch, żebyś mógł słyszeć to co tu się dzieje.
Ta aplikacja ma trzy zakładki.
Ja oczywiście nie będę się już w niej rejestrował, ponownie bo to zrobiłem.
Rejestrujemy się za pomocą albo konta Google, albo za pomocą Apple ID, albo za pomocą po prostu adresu mailowego i hasła.
I teraz mamy trzy zakładki.
Zakładkę panel, envizjonerzy i ustawienia.
No to zobaczmy po kolei te zakładki.
Mamy zakładkę panel.
I od góry idąc.
Trochę mnie to niepokoi, że tu mam informację, że nie mam dodanych żadnych envizjoners, ale ok.
Być może to jakoś w drugą stronę działa, że z poziomu tej aplikacji mogę ja kogoś dodać, posiadając też te okulary może.
Tak to działa.
Tu mamy jeszcze porady i triki.
Ok, to jest w panelu.
Envizjonerzy to jest zakładka numer 2.
No i właśnie.
To jest to, że ta aplikacja jest stworzona z myślą o osobach widzących.
Ewidentnie.
I tu już stwierdzono chyba, że tak w zasadzie to się niespecjalnie trzeba przejmować dostępnością.
Nie zaetykietowany przycisk.
No właśnie i to jest w zasadzie to samo co tam.
Tylko skondensowane do samego procesu dodania.
I zobaczmy sobie jeszcze trzecią zakładkę.
A jeszcze zdjęcie mogę sobie tu dodać.
Ustawienia.
O, ustawienia. Zobaczmy co mamy w ustawieniach.
Dłuszcze, że powiedziawszy nawet nie byłem.
Tu nic nie mamy.
Dobrze, bardzo skromna ta aplikacja.
Wsparcie, prywatność, wersja i przycisk do wylogowania się.
No dobrze i to jest wszystko, Pawle, po mojej stronie.
No dobrze, teraz mój ruch.
Tak.
No więc ja obudzę te okulary.
Połączenia.
Zadzwoń do pomocnika.
Ładuje mi się lista osób.
I Michał Dziwisz.
I stukam dwukrotnie.
Włączenie Michał Dziwisz.
Halo?
Czy to już?
Może jeszcze potrzebujesz…
Nie, to już.
…wgody na mikrofon, bo ja Cię nie słyszę.
Tak, bo ja mówiłem, że Ty mnie nie będziesz słyszał, bo ja jestem w stanie tylko w jedną stronę niestety ten…
Dalej się łączy.
Dźwięk przekazać.
A ja Cię słyszę.
Ty mnie słyszysz.
No dobrze. Ja mam dalej sygnał łączenia z jakichś przyczyn.
Ale dobra.
Ja go też słyszę. Wyciszyłem Cię na Zoomie tutaj, żeby nie było jakiegoś takiego podwójnego tego dźwięku.
O! I rozłączyło się.
Na razie przynajmniej.
Próbujmy jeszcze raz.
Dobrze.
O!
I już jesteś. Słyszę Cię.
No dobrze.
A ja Ciebie nie.
Natomiast to, co mogę powiedzieć, jak słychać to z okularów, na pewno warto założyć słuchawki, bo jest bardzo agresywna redukcja szumów.
Tak, to potwierdzam.
Ja słyszę Ciebie dosyć…
Ten dźwięk teoretycznie mógłby mieć trochę więcej góry, ale tu jest ewidentnie jakiś filtr, który zwalcza tę górę, jak tylko może.
Tak. I jakikolwiek głośniejszy dźwięk w otoczeniu osoby, która nam pomaga, niweluje wszystko, włącznie z jej mową.
Ja teraz zobaczę, co w ogóle widać na ekranie tej aplikacji.
Dobrze.
Troszkę…
O, ale… A, bo to się orientacja zmieniła tutaj.
Przycisk. Obrazek.
End. Mute.
Drewno. Drukarka. Książka.
Płuka na książki.
Aha.
I…
Połączyło nas.
I rozłączyło, no…
To akurat nie działało tak źle, jak próbowałem, to mogę potwierdzić. Byłem w stanie przeprowadzić kilku minutowe połączenie.
Być może dlatego, że tu jesteśmy połączeni przez Bluetooth, że ja do naszego studyjnego miksera mam podpięte urządzenie bezprzewodowo, bo nie mogłem inaczej podłączyć iPhone’a.
Ale nie wydaje mi się, żeby to było winą.
Bo przecież dużo osób ma słuchawki Bluetooth.
Możemy ewentualnie, Pawle, spróbować. Ja rozłączę z naszego BlueDrivera.
Tak.
I… Tylko gdzie ja tu mam Bluetooth?
Bluetooth.
Dobrze. Rozłączamy Bluetootha, wyłączamy Bluetootha.
Mhm.
I spróbuj do mnie teraz, może zadzwonić. Ja po prostu, no trudno.
Już i tak Państwo usłyszeliście, jak to brzmi bezpośrednio, to teraz będziecie słyszeć to z mikrofonu mojego tutaj w studiu.
Bo sprawdzimy, czy to aby to nie jest problemem.
Dobrze, ja tu spróbuję…
O!
O!
No halo.
No halo. Teraz wyciszam znowu Zooma, żeby nie było tego podwójnego…
Dobrze, ale też ja Ciebie nie słyszę.
Aha!
Więc, nie wiem, Ty chyba tam musisz gdzieś, ale nie wiem.
No właśnie, zezwoliłem!
Przycisk, przycisk, N, drewno, drewno, N, przycisk, obrazek.
Sęk w tym, że zezwoliłem.
Może jakiś miód tam jest od zmutowania?
Tu był jeden przycisk.
O, zakończyłeś.
Tu był jeden przycisk niepodpisany.
No to właśnie go użyłem.
To zadzwoń, Pawle, jeszcze raz, sprawdzimy, do czego jest ten drugi.
Dobrze.
Okej, jesteśmy.
Okej, dobrze, jesteśmy, więc znowu wyciszamy tu.
Przycisk, przycisk, obrazek, obrazek.
I teraz ten przycisk.
Czy Ty mnie słyszysz teraz?
Nie.
To przykre, bo ja już więcej nie mam czym…
Przycisk, N, unmute.
Ale teraz teoretycznie jest unmute.
Bo tam było rzeczywiście mute.
No tylko, że to się teraz nic nie zmieniło.
Chociaż, poczekaj.
A okej, bo tu są dwa przyciski,
które nie są podpisane,
ale są podpisane obok.
A teraz, jak kliknąłem w ten jeden przycisk,
to nie mogę wejść już do żadnego przycisku.
Czyli się schowało i zrobił się pełny ekran pewnie.
Zapewne tak.
O, i rozłączyło nas znowu.
No cóż, to akurat ta funkcja działała lepiej,
to muszę przyznać i działała całkiem fajnie.
Niemniej jednak niepokoi mnie to, jak to się zachowuje.
Bo jeżeli chodzi o przyznanie uprawnień,
to było na samym początku w ogóle.
Na samym początku, tak, on mnie prosił.
On mnie prosił o uprawnienia do powiadomień
i on mnie też prosił o uprawnienia do kamery i mikrofonu.
Czytam do samego mikrofonu.
Swoją drogą jeszcze, Pawle, może spróbujmy,
bo to może być jeszcze coś.
Może ja teraz mam zablokowany w ogóle totalnie ekran.
Zobaczmy, jak to się zachowa.
Ja nie będę w tej aplikacji, sprawdźmy.
Czy tu będzie w ogóle jakiś dzwonek czy co?
To moment, bo…
O, i teraz dostałem…
Powiadomienie.
Tak, dostałem powiadomień, ale dlaczego…
Słuchajcie, to jest…
Cisnął mi się na usta coraz bardziej nieparlamentarne słowa
dotyczące tego, kto wykonał tę aplikację.
Czy on sypuje ci powiadomieniami w tym momencie,
tak jak była rozmowa telefoniczna?
To się nie zachowuje, Pawle, jak rozmowa telefoniczna.
Ale z taką częstotliwością.
No, na pewno nie przegapisz, to jest pewne.
Tak, tylko dlaczego to w ten sposób?
I okej, odblokowałem.
Czy może teraz?
Tak, teraz jak najbardziej.
I teraz ja cię słyszę przesterowanego,
słyszę cię głośno i słyszę cię z większą górą.
No dobrze, ja przystawię teraz mikrofon do okularów
i niech teraz cię ludzie słyszą.
Dobrze, to ja teraz coś mówię.
Zobaczymy, jak by…
A, bo muszę tu odblokować, okej.
Dobrze, to teraz wyłączę ten mikrofon.
Teraz zbliżę telefon do ust,
żeby było mnie przynajmniej jakoś tam słychać.
No i brzmi to tak.
O, dokładnie.
Po twojej stronie pewnie też jakoś tak.
Tak, po mojej stronie.
Opóźnienia są stosunkowo małe.
To muszę powiedzieć, że jeżeli chodzi o to, co mamy na Zoomie
i to, co mamy tutaj,
to te opóźnienia są mniej więcej zbliżone.
Więc są małe.
Nie wiem, czy ty podobnie to odbierasz.
Nie mam słowa na sobie, ale mogę włączyć.
No to spróbujmy to porównać jakoś.
Dokładnie słyszycie w tym samym czasie i tu i tam.
Tak, więc te opóźnienia są małe.
Co trzeba przyznać, że jak na aplikację,
która też przesyła obraz,
nie wygląda źle.
Okej.
To dobrze.
Co do obrazu mogę tylko powiedzieć, że ktoś to porównywał z aparatami iPhone’a
i no nie umywa się.
Jednak te okulary nie mają takiej kamerki.
Ten obraz jest dużo bardziej ziarnisty.
Ale mimo wszystko już robiłem przez to różne rzeczy.
Nawet przy dobrym oświetleniu może mnie osoba widząca czytać książkę.
Okej.
Próbowaliśmy, działa.
Natomiast dźwięk z tego jest moim zdaniem straszny.
Taki bardzo…
To jest i tak źle, i tak niedobrze.
Tu nie ma żadnego złotego środka w tym dźwięku,
bo najpierw był taki przytłumiony dość mocno,
a teraz tu jest zastosowana jakaś bardzo masakryczna kompresja,
która strasznie wyciąga pogłos pomieszczenia.
Więc ja wolę się nie zastanawiać, co by było w sytuacji,
w której byśmy mieli jakiś hałas jeszcze gdzieś.
Tak. I to jest to, o czym mówiłem.
Czyli ta bardzo agresywna bramka szumów, która wytnie wszystko.
Tak. Więc może oszczędźmy już słuchaczom.
Teraz pytanie, czy ja się mogę z tego rozłączyć?
A ty możesz.
Ale poczekaj, ja spróbuję.
Poczekaj. Dwa palce zadziałają?
Zadziałały. Zadziałały. Dobrze.
Wracam do Zuma.
Spodziewałem się czegoś jednak trochę lepszego,
ale to chyba i tak najlepiej działająca funkcja.
Z tych wszystkich mam wrażenie jednak.
Lepiej niż Orkam? Bo ja z Orkamem nie mam…
To znaczy, ale Orkam nie ma takich możliwości.
No tak, to prawda.
Ja mówię o możliwościach, które dają nam okulary Envision.
Tak, jest to jedyny produkt tego typu.
Chociaż nie, jest jeszcze ten ARX Vision,
ten brytyjski produkt, który istotnie podłącza się do smartfona
z Androidem na ten moment.
I on też tam różne rzeczy oferuje,
tylko że wtedy sercem tego wszystkiego jest smartfon.
Że to nie jest samo w sobie glassem,
tylko to jest jakoś tam powiązane ze smartfonem,
na razie androidowym, są plany na iPhone’a.
No ciekawe.
To może by było jakimś rozwiązaniem,
bo na chwilę obecną to na pewno tego można by było używać,
tylko trzeba pamiętać o tym wykonaniu,
które też pozostawia trochę do życzenia.
Jak najbardziej.
No wiem, nie zrobiliśmy tu najlepszej reklamy temu produktowi,
ale no pokazaliśmy.
Chcieliśmy pokazać.
Nie, mi nie chodziło też o to, żeby tu coś udawać,
tylko liczyłem też na to osobiście, że to troszkę lepiej wypadnie,
bo w tych testach, które robiłem przed audycją,
słyszeliśmy, że było chociaż trochę lepiej.
Przynajmniej ten tekst, który się skanowało,
miał więcej sensu i dało się tam coś rozeznać.
Zawsze audycja na żywo ma to do siebie,
że tu jednak nie da się zrobić drugiego wrażenia,
dobrego wrażenia jeszcze raz.
Po prostu co poszło, to poszło.
I też trzeba się po prostu liczyć z tym,
że będąc jeszcze na przykład gdzieś w nieznanym otoczeniu,
w sytuacji stresowej,
to też będziemy mieć takie nie do końca komfortowe warunki,
jak siedząc w domu w fotelu
i mogąc sobie korzystać z tych okularów tak bardzo na spokojnie,
ale też i nie one do tego są.
Dokładnie, więc tutaj nie wyszło to najlepiej,
co by nie mówić z tym produktem.
Zgadza się.
Pawle, to chyba tak naprawdę wszystko,
co chcieliśmy pokazać.
Chyba tak, bo polecenia głosowe to nie ma co pokazywać.
Są, działają, po angielsku po angielsku,
ale działają. Tu dużo ważniejsze były te funkcje inne,
które pokazywaliśmy.
No to teraz kilka słów podsumowania by się przydało.
Czy warto, tak? To jest to pytanie.
Tak.
No za te pieniądze spodziewałoby się więcej.
To znaczy, nie wiem, raz jeszcze,
nie wiem ile z tego leży po stronie mojej,
jako użytkownika, który nie ma wprawy w fotografowaniu
i patrzeniu i tak dalej.
Może to by wymagało jakiegoś szkolenia,
bo skoro gdzie indziej zachwalają,
no to może coś w tym jest.
Ale z drugiej strony, pomijając nawet już kwestię umiejętności
korzystania z tego sprzętu,
jest w nim dość dużo takich bardzo istotnych niedoróbek
i z dziedziny UX, i z dziedziny wyposażenia tych okularów.
Więc pytanie teraz, na ile producent jest w stanie się ugiąć,
żeby te rzeczy dobudować?
Bo jeśli jest w stanie i wysłucha tych uwag różnych,
no wiem, że lampa błyskowa to jest temat zapalny,
bo oni twierdzą, że się nie da.
Ja uważam, że to jest coś, bez czego się nie da.
No to, ale po takie rzeczy właśnie,
jak to, o co mówiłem o wyłączaniu, włączaniu,
tu jakieś kwestie tego tekstu, który gdzieś ucieka
i jakieś tworzy problemy.
Ja jestem jeszcze umówiony na, no to jestem w procesie,
o, zgłaszania pewnych rzeczy do wsparcia technicznego,
więc może jeszcze coś się okaże, na co ja nie wpadłem
i będę mógł się tym podzielić w komentarzach, to nie jest wykluczone.
Natomiast na ten moment jest dużo takich rzeczy,
które warto byłoby nad nimi popracować.
Zwłaszcza, że mówię, naszym użytkownikiem takim docelowym,
którego sobie wyobrażamy jako osobę, która sięgnie po takie okulary,
jest osoba mało techniczna,
osoba, która zaufa dystrybutorowi, że kupuje za ciężkie pieniądze
dopracowany produkt.
Przypomnijmy, jaka cena?
2500 euro, czyli kilkanaście tysięcy złotych.
Czyli kilkanaście tysięcy złotych.
Tego na pewno w takiej cenie nie dałoby się kupić
obecnie z aktywnego samorządu, nie dopłacając.
No bo to nie jest sprzęt brajlowski, to jest sprzęt
z kategorii elektronicznego, więc maksymalne dofinansowanie
to jest 9 tysięcy, 1000 wkładu własnego, czyli dyszka,
no to nam się i tak to nie spina, nie zepnie.
Nie, nie ma opcji.
No, w związku z czym ma to wiele minusów,
więc na ten moment nie wiem, czy to, no werdykt nie jest raczej pozytywny.
Dokładnie.
Miało to parę momentów w czasie moich testów,
takich raczej fajnych, ale ogólnikowo gdybym miał to kupić,
chyba nie ten czas.
Ja też przychylam się do tej opinii.
Cóż mogę jeszcze powiedzieć, cała nadzieja też w tym,
że Google nie zaprzestanie projektowania swoich okularów.
Chociaż o jakichś nowych edycjach to chyba się nie słyszy.
I ja też kojarzę, że oni zarzucili w ogóle te urządzenia,
że tam to się albo nie rozwija,
albo, co mi się wydaje podejrzane, bo przecież producent by wtedy też nie miał na czym bazować Envision,
nie produkuje się ich już.
Na pewno wiem, że któreś te były, to Explorer Edition czy coś takiego,
zostało to porzucone i chyba na ten moment te Google Glassy jakoś się nie przyjęły na rynku,
w związku z czym też nie słyszysz o tym, żeby było coś nowego.
Czy ty pamiętasz w ogóle z jakim zamysłem Google te okulary wypuszczał?
Dla kogo to miało być?
Wizje były przeróżne.
Ja myślę, że tu już sięgalibyśmy do lat 90.
albo i nawet wcześniej literatury science fiction i idei takiej,
że każdy z nas będzie miał przed swoimi oczami mikromonitor,
na którym będą się wyświetlały różne rzeczy.
To miało w jakiś sposób wspomagać nas informacją, której nie wiemy z głowy,
ale możemy ją szybko sprawdzić gdzieś tam na okularach i na tym ekraniku,
który ponoć widać, jak się założy na głowę okulary, to ten ekranik widać pod prawym okiem.
A nawet nie wiem, czy tam nie było jakiejś opcji, że po zainstalowaniu szkieł
ten obraz był odbijany, żeby go było lepiej widać.
Można było mieć dostęp do różnej informacji w internecie.
Już nie wchodziły kwestie rozszerzonej rzeczywistości.
Więc tak trochę produktywność, trochę zabawa.
Też taka w ogóle moja refleksja, ile w cenie Envision Glasses
płacimy za rzeczy, których tak naprawdę nie wykorzystujemy.
Bo pamiętajmy, że to są okulary zbudowane na sprzęcie zewnętrznym,
który był produkowany właśnie z myślą, no jednak o czymś nieco innym.
O innym zastosowaniu. I tak jak mówisz, jakiś ekranik, wyświetlanie tekstu,
inne rzeczy tego typu, my z tego nie korzystamy, a zaprojektowanie tego
i wdrożenie, wmontowanie kosztuje.
Tak naprawdę u nas i w naszym przypadku to wystarczyłaby kamera,
wystarczyłby mikrofon, głośniczek, wszystko zabudowane oczywiście w taki korpus okularu
i tyle. I oczywiście odpowiednie oprogramowanie, jakaś tam łączność jeszcze do tego.
Być może zaprojektowanie takiego urządzenia od podstaw, to byłoby i tak jeszcze droższe,
więc dlatego producent zdecydował się na skorzystanie z gotowca,
no ale jednak taka myśl mi gdzieś tam po głowie też krąży,
jak dużo płacimy za coś, co nam jest niepotrzebne.
To prawda, ale te same myśli możemy mieć odnośnie iPhone’a,
bo nagle się okazuje, że to już ten argument był bardzo często podnoszony,
płacimy my w Polsce taką samą cenę jak Amerykanie, a nie mamy dostępu do Siri,
do Apple News, nie mamy spersonalizowanych jakichś tam treści tych muzycznych,
nie mamy dostępu na ten moment do SOS-a, do wielu takich usług, które tam działają
i to jest też na pewno część składowa tej ceny, a my tego nie mamy,
a płacimy taką samą cenę za to urządzenie.
Zgadza się, tylko jednak w przypadku iPhone’a mówimy o mniejszych kwotach.
Jak najbardziej, zgadzam się.
Wiem o czym mówisz, natomiast są to zdecydowanie mniejsze kwoty i to mniej boli.
A tu jednak wziąwszy pod uwagę, że to urządzenie raczej nie udałoby się
dofinansować go w całości, czy tam w tych 90%,
no to jednak zmuszałoby do wyłożenia sporej sumy pieniędzy,
a tu już wiadomo, że się złotówkę z każdej strony ogląda,
zwłaszcza w obecnych infelacyjnych czasach.
Dlatego też ja uważam, że mam wrażenie, że to troszkę wyróżnia tyflop podcasty
na tle różnych innych podcastów innojęzycznych, że my prowadzimy takie analizy
bardzo dogłębne, że ktoś w podcaście, ja nie mówię, że w każdym,
ale zasadniczo jest taki standard, że pokażmy, co to urządzenie potrafi,
żeby taki przeciętny użytkownik niewidomy, który będzie sobie kupował
potem z jakiegoś dofinansowania, sprzęt uznał, podoba mi się, nie podoba mi się,
fajna funkcja, nie fajna. Widzisz, a czy my teraz siedzimy?
Jakość dźwięku w rozmowach, jakieś niedoróbki UX takie bardzo szczegółowe.
To, że tutaj z tym skanowaniem coś nie działa i to wynika z czegoś tam innego,
światło, nieświatło. Ja w niewielu chyba mediach poświęconych osobom niewidomym
widzę aż tak dokładne i to nie jest bynajmniej teraz jakaś próba,
żebym pochwalić samego siebie i moją pracę, ale przez to, że my tutaj bardzo patrzymy
na te kwestie finansowe, że tak naprawdę zakup takiego sprzętu to sądniczę,
to analiz, co mi się bardziej opłaca, co będzie dobre, żeby mi nie wcisnęli
czegoś, co jest niefunkcjonalne.
Tak no, bo to dofinansowanie mamy raz na kilka lat i jeżeli wybierzemy źle,
to zostaniemy ze sprzętem, który tak naprawdę nam nie posłuży.
Tak i dlatego myślę, że polski klient jest bardziej takim wybrednym klientem,
który będzie zwracał już uwagę na takie bardzo drobne detale, bo wiadomo,
że te pieniądze dużo trudniej przychodzą.
Tak jest, ale to przy tej okazji dziękujemy tym wszystkim dystrybutorom,
którzy nam różne sprzęty wiedząc jacy jesteśmy udostępniają do testów,
też jest pewna odwaga, na pewno zyskują tym audycję na temat danego produktu
i zyskują tym jakiś rozgłos, ale też dobrze wiedzą, że się będziemy czepiać.
Jeżeli byście chcieli, żebyśmy coś jeszcze rozebrali na części pierwsze,
to zapraszamy, bo lubimy.
Tak jest, tak jest, bardzo chętnie się zajmiemy.
Oczywiście, jeżeli tylko będziemy w stanie dane urządzenie pozyskać,
to też nie jest tak, że każdy jesteśmy w stanie pozyskać.
To była odezwa do dystrybutorów z mojej strony.
Tak, tak, tak.
Więc jeżeli nam coś przyślecie, to będziemy chętnie to testować.
Oczywiście, bo słuchacze mają zawsze całą listę urządzeń,
które by chcieli, żebyśmy wzięli na warsztat, natomiast no prawda,
smutna jest taka, że 90% tego sprzętu, który my testujemy,
albo nawet i pewnie dziewięćdziesiąt parę, jakby to tak policzył,
no to jest sprzęt, który my po prostu mamy i którego jesteśmy w posiadaniu.
Tak.
Z ciekawości, jeżeli ta kwota nie rozbija banku,
to te wszystkie jakieś radia, telefony, wieże i inne artykuły gospodarstwa domowego,
to z pieniędzy własnych po prostu redakcji, bo ludzie są ciekawi.
Jeżeli to jest gdzieś w zasięgu finansowym, to czemu by o tym nie opowiedzieć?
I tu też taki apel do wszystkich tych, którzy są w posiadaniu
jakiegoś ciekawego sprzętu, jeżeli coś macie, piszcie, kontaktujcie się,
michal.dziwiszmałpafir.org.pl, f-i-r-r.org.pl, zapraszam, bo to nie jest tak,
że tu kilka osób ma monopol na tworzenie audycji,
po prostu kilka osób pojawia się dość często dlatego,
że ma sporo do powiedzenia, sporo różnych tematów do poruszenia,
ale tu jest miejsce praktycznie rzecz biorąc dla każdego,
kto chciałby o czymś ciekawym opowiedzieć, pokazać coś interesującego,
także to taka odezwa na koniec do wszystkich tych, którzy nas słuchają
i którzy wytrwali do końca tej naszej dzisiejszej audycji.
Envision Glasses prezentowaliśmy po raz drugi, taki trochę suplement
do tego, co pokazywał swego czasu Robert Hecyk.
Dziękuję Ci, Pawle, za dzisiejszą audycję.
Ja również dziękuję Tobie i raz jeszcze mam nadzieję,
że problemy dzisiejsze wynikały z tego, że to ja nie umiem obsługiwać urządzenia,
a nie, że urządzenie jest bezużyteczne, aczkolwiek, tak jak widzieliście,
nad czym jest pracować ze strony producenta.
Owszem. Dziękujemy bardzo, do usłyszenia.
Ja również dziękuję za uwagę, Michał Dziwisz,
kłaniam się do następnego spotkania na antenie Tyfloradia.
Był to Tyflo Podcast. Pierwszy polski podcast dla niewidomych i słabowidzących.
Program współfinansowany ze środków Państwowego Funduszu Rehabilitacji Osób Niepełnosprawnych.