Ray-Ban Meta Smart Glasses (wersja tekstowa)

Pobierz napisy w formacie SRT
Pobierz napisy w formacie VTT
Fundacja Instytut Rozwoju Regionalnego prezentuje
Tyflo Podcast
Jest to pierwsza próbka. Nagrywam ją w holu budynku.
Ten hol jest duży, ma otwarte schody na kolejną kondygnację.
Mamy tu dość sporo różnych drzwi, ale też mamy znotniki udźwiękawiające.
Zaraz jeden z nich sobie wywołam.
Zaczynam się przemieszczać, nie wiem czy będzie słychać moje kroki.
Nie tłupia jakoś szczególnie.
Dobrze, wybierzmy sobie teraz jakiś znacznik.
Tak i znacznik był po mojej lewej.
Tutaj mamy specjalnie inny dźwięk ustawiony.
Przechodzę dalej.
I gdzie zawędrował mój dzisiejszy gość?
O tym przekonacie się już niebawem, bo to pierwsza
z kilku próbek z urządzenia, które
będziemy dziś demonstrować na antenie Tyflo Radia.
Dziś, czyli 19 sierpnia
2024 roku
w poniedziałek startujemy
z pierwszym w tym tygodniu wydaniem Tyflo Podcastu na żywo.
Michał Dziwisz, witam bardzo serdecznie i zapraszam, bo dziś temat, który myślę, że nie jedną osobę zaciekawi,
bo już sprzęt w postaci okularów dla niewidomych, no to jest z nami od jakiegoś czasu.
Działa on różnie, natomiast no, dziś będziemy mówić o urządzeniu z tak zwanego rynku ogólnego,
które to też może się przydać osobom niewidomym i które to urządzenie jest również okularami.
A dziś będziemy mówić o sprzęcie od firm Meta i Ray-Ban, które połączyły siły,
żeby stworzyć inteligentne okulary.
Meta Ray-Ban Smart Glasses.
To sprzęt, o którym dziś będzie audycja na antenie Tyflo Radia,
później do odsłuchania w Tyflo Podcaście.
Moim gościem jest dziś Marek Tankielun.
Cześć Marku.
Cześć Michale, dobry wieczór naszym słuchaczom.
Dawno się nie słyszeliśmy, ale jak do naszego wirtualnego studia zawitałeś,
no to już rzeczywiście z bardzo interesującym sprzętem.
Ja, zanim się tu rozgadamy na dobre i zanim zaczniemy opowiadać,
właściwie ja będę pytał, ty będziesz odpowiadał na różne pytania
dotyczące tego sprzętu, to przypomnę, że my jesteśmy na żywo,
Więc jeżeli macie ochotę do nas zadzwonić, to śmiało, 663-883-600, jest do waszej dyspozycji również Whatsapp, jest Youtube, jest Facebook, za chwileczkę będzie też nasz panel kontaktowy pod adresem panel.kontakt.tyflopodcast.net, za dużo tych dróg kontaktu chyba czasem, kontakt.tyflopodcast.net, tam będziecie mogli już za momencik również pisać, bo na razie jest jeszcze nieaktywny, ale to dosłownie kwestia chwili.
No dobrze, a teraz już zaczynając powoli naszą dzisiejszą audycję, może na dobry początek takim słowem wstępu.
Co to właściwie są te okulary Meta Ray-Ban Smart Glasses?
Co one umożliwiają, dla kogo one są przeznaczone, gdybyś tak mógł ogólnie nakreślić charakterystykę tego sprzętu?
Dobrze, więc akurat nasze okulary Ray-Bana powstały w współpracy z Metą. To tak naprawdę są okulary z linii Ray-Banowej, zwyczajne okulary, do których wsadzono elektronikę i stały się inteligentne.
No i one, tak jak już tu Michale powiedziałaś, są z ogólnego rynku, bo docelowo te okulary powstały dla osób, które zajmują się mediami społecznościowymi,
są instagramerami, lubią porobić relacje na Facebooku, ale też są wprost uzależnione od cykania zdjęć i wideo,
a z drugiej strony chciałyby mieć takiego podręcznego asystenta na własnym nosie,
to znaczy, żeby nie dotykając telefonu móc zarządzać tymi różnymi nagraniami, transmisjami,
pytać coś o asystenta.
No i w takich okularach mamy oczywiście, to już na pewno można się łatwo domyślić, kamerę,
no ale też są głośniki, jest to po to, żebyśmy mogli sobie słuchać muzyki,
nawiązywać połączenia telefoniczne, no i też odsłuchiwać w formie głosowej
wszelkie notyfikacje i wiadomości, które do nas przychodzą.
Więc można powiedzieć, że dostajemy takiego inteligentnego asystenta,
który jest ubieralny.
No i te okulary,
właśnie trzymam je w dłoni,
wyglądem na pierwszy rzut oka
nie różnią się od takich zwykłych
Ray-Banów, Wayfair czy Skylinerów
czy Headlinerów.
Jeżeli się przypatrzymy detalom,
one są troszeczkę grubsze,
natomiast wyglądają jak normalne okulary.
No i z bliska widzimy, że mają na przodzie, na górze,
po lewej i prawej stronie takie małe dwa kółeczka.
Po lewej to jest kamera, po prawej to jest tak naprawdę
taka zaślepka i tam jest światełko, o którym też jeszcze zdążymy
powiedzieć dzisiaj, po co to w ogóle jest.
Więc to tak w bardzo telegraficznym skrócie.
Brzmi to wszystko bardzo interesująco i na pewno już nie jedna z osób, które nas słuchają w tym momencie,
ma pomysł, żeby jakoś ten sprzęt wykorzystać, bo na razie mówimy o tym dosyć pozytywnie.
To teraz myślę, że czas na pierwszą negatywną informację i pierwszą taką dosyć smutną.
Mianowicie, że te okulary oficjalnie nie są dostępne w Polsce.
Dokładnie, te okulary nie są oficjalnie dostępne w Polsce.
Zresztą jak wejdziemy sobie na stronę metakom, czyli jednej z możliwości zakupu sklepu,
możemy sobie spróbować dodać do koszyka, która jest wersji nowej i dowiemy się,
że w Twoim regionie te okulary nie są dostępne, ten produkt, bo oficjalnie one są w sklepie meta czy też u certyfikowanych sprzedawców mety w takich państwach jak Wielka Brytania,
Natomiast oczywiście Stany Zjednoczone, Włochy, Francja, najbliżej nas to są Niemcy.
Trochę szersza możliwość zakupu jest w sklepach Rejbena, czyli drugiego z twórców.
I tutaj mówimy o sklepach stacjonarnych i partnerskich punktach.
Troszeczkę jest więcej tych sklepów, ale nadal nie jest to Polska.
No i tutaj musimy sobie spróbować jakoś poradzić.
No i to nie zawsze jest proste dla każdego, no bo możemy udać się np. do Niemiec i kupić sobie, cena okularów zaczyna się od 350 euro
w jakimś sklepie partnerskim Mety albo nawet w sklepie stacjonarnym Ribena.
Możemy poprosić kogoś o zakup lub próbować, przy czym ja tego nie testowałem,
z takim sklepem dogadać się z prośbą o wysyłkę.
Z tego, co jeszcze widziałem, jak wpiszemy w Google, to gdzieś tam pojawiają się oferty, powiedzmy, z osób, które sprowadzają to,
czy zajmują się ściąganiem tej elektroniki gdzieś tam na Allegro, na Olixie i wtedy możemy te okulary mieć w granicach 1500 zł,
złoty, troszkę też wzwyż, w zależności od tego, jaki model sobie wybierzemy, bo mamy sobie właśnie taki podstawowy, czyli model Wayfair,
który jest kojarzący się z takimi dość solidnymi, przeciwsłonecznymi okularami.
Jeżeli sobie teraz próbujecie właśnie wyobrazić, to są takie klasyczne.
Mamy potem Skylinera, który jest bardziej taki fantazyjny i tam też są ciekawsze szkła.
No i headliner, no to takie już jeszcze bardziej nowoczesne.
No i ta cena zależy od tego, jaki model wybieramy, jaki kolor oprawek, no i jaki rodzaj szkieł.
No bo, co jest ważne, w tych okularach można też zastosować szkła korekcyjne.
No i można to zrobić już nawet po sprowadzeniu sobie uzwyczajnego optyka u nas w Polsce.
No to z tych negatywnych pierwszych wiadomości tak to wygląda, co do możliwości zakupu.
No niestety nie jest to tak, że idziemy sobie do sklepu z X czy Y z elektroniką w Polsce i to mamy.
No i też tu ewentualne problemy różnego rodzaju, gdyby z tymi okularami nam się coś stało, to zaczyna też pojawiać się problem, no oczywiście wiadomo, nie zakładamy, że one nam się zepsują drugiego dnia, kiedy zaczniemy ich używać, no ale może się coś stać, no to wtedy nikt w Polsce nam też nie uzna tej gwarancji, tylko trzeba będzie je odsyłać, a to wiąże się z kosztami dodatkowymi.
No dokładnie, dlatego jeżeli się gdzieś tam pojawiały oferty, czy też pojawiają, to widziałem, że one są około 2 600-3 tys. przez sklepy z elektroniką funkcjonujące tu w Polsce.
No bo takie sklepy biorą na siebie właśnie to, że jeżeli coś będzie nie tak, to będą musiały wysłać, zająć się obsługą całą gwarancyjną.
Ja zaryzykowałem, poprosiłem kogoś o zakup, no i szczęście moje, jeszcze działają.
I obydziałały jak najdłużej. Czyli opłaca się mieć po prostu znajomych albo u naszych zachodnich sąsiadów w Niemczech, albo np. w Wielkiej Brytanii, bo też te okulary tam są do kupienia.
Swoją drogą, to jest w ogóle bardzo ciekawe, że w Niemczech bez problemu możemy je dostać.
Na wyspach, no wiadomo, wyspy brytyjskie nie są już w Unii Europejskiej, więc tam też inne kwestie dotyczące tej prywatności.
Bo też myślę, że to jest dosyć istotna sprawa, o której warto powiedzieć.
I to też z takich rzeczy przykrych i nieprzykrych, bo na to jest oczywiście obejście.
jednym z elementów tych okularów jest sztuczna inteligencja,
którą możemy pytać o różne rzeczy i ona nam będzie odpowiadać
w języku, jak rozumiem, niepolskim.
Dobra, więc tak, rzeczywiście możemy sobie głosowo rozmawiać z okularami,
no ale to nic takiego w obecnych czasach ciekawego,
kiedy powiemy play music czy call to bla, bla, bla tam, tak?
ale jest możliwość wykorzystywania sztucznej inteligencji i na chwilę obecną jest to dostępne podczas rejestracji się w Stanach Zjednoczonych i w Wielkiej Brytanii.
Jeżeli jesteśmy sobie i zakładamy konto Meta, które zresztą można założyć bardzo szybko, jeżeli się posiada Facebooka na terenie Unii Europejskiej,
to jedna z zakładek w aplikacji MetaView, która jest potrzebna do obsługi okularów, nie uświadczymy.
bo mamy takie zakładki jak Home, Galerii i właśnie Meta AI i Settings.
No i ta przedostatnia nam wtedy wypada i tego nie ma, tak?
Ale da się to obejść.
No da się to obejść.
Ja zastosowałem VPN-a i to było potrzebne tylko i wyłącznie w momencie,
Kiedy wyciągnąłem okulary z pudełka, było pierwsze uruchomienie,
miałem już założone nawet kontometa,
więc tylko gdzieś tam okulary musiały się połączyć z odpowiednimi serwerami,
zarejestrować się, no i później tak naprawdę już od razu wyłączyłem VPN-a i już.
I poszło. I jak rozumiem jakieś darmowe nawet VPN-y też nam pozwalają na coś takiego, bo wiem, że niektórzy operatorzy dość zabezpieczają się przed takimi chociażby darmówkami, żeby tam ktoś nie wchodził.
Tak, tak, tak. To był darmowy VPN. Bez problemu wystarczyło, że wybrałem pierwszy lepszy darmowy serwer na terenie właśnie USA.
I poszło.
Skoro już mówimy o pierwszej konfiguracji, to może mógłbyś powiedzieć kilka słów, jak się w ogóle do tego zabrać.
Przychodzą do nas te okulary i co my tam dalej musimy zrobić, żeby w ogóle móc z nich skorzystać?
Dobrze, to ja może powiem tak, jak to wygląda.
Przychodzi do nas pudełko i w pudełku mamy sobie futerą, za momencik o niej więcej powiem,
jakieś tam papierki, szmatkę do okularów i to wszystko.
No i właśnie, a gdzie kabel i końcówka? No nie ma.
Idziemy w ekologię i tego nie ma, więc to nie jest jakiś błąd. Tak ma być.
Futerał na okulary wygląda jak zwyczajny futerał na okulary. Z tyłu jest twardy i on jest skórzany.
Z przodu jest miękki i mamy sobie takie otwarcie magnetyczne i w środku, jeżeli mamy przodem do nas, to są okulary.
I teraz tak, co jest ważne? Z tyłu na futerale mamy na jego dole wyczuwalny, dość delikatnie mały, okrągły guzik,
który jest dla nas dość ważny, ale to za chwilkę, no i pod nim mamy wtyk USB-C.
Dlaczego? Dlatego, że nasz futerał jest od razu powerbankiem, który po naładowaniu,
to się ładuje około 3,5 godzinki, pozwala na naładowanie naszych okularów około 7-8 razy.
Przynajmniej tak wynika to z mojego doświadczenia.
No i dobrze, wróćmy do tego przycisku.
Wyciągnęliśmy z pudełeczka nasz futerał i teraz tak, nie wyciągamy okularów.
Musimy po pierwsze zainstalować sobie na telefonie aplikację MetaView.
Ona jest zarówno na iOS-a jak i na Androida.
Tutaj się przyznam, że na Androidzie jak to wygląda z dostępnością nie sprawdzałem.
Wszystko co konfigurowałem było na iOSie, na iPhonie i w momencie kiedy odpalimy aplikację musimy po pierwsze założyć sobie konto.
Zakładamy konto META. Możemy to zrobić za pomocą maila lub zarejestrować i utworzyć konto udzielając mnóstwa zgód na przetwarzanie danych za pomocą naszego konta na Facebooku.
W momencie kiedy założymy konto i zalogujemy się, mamy alert z możliwością dodania urządzenia.
Na czym to polega? Na futerale naciskamy przez 5 sekund właśnie ten guzik.
Nie wyciągamy okularów.
To aplikacja wymaga też zgodne bluetooth.
Wyszukiwane są okulary. My potwierdzamy, że to na pewno te, a nie inne.
No i dochodzi do całego procesu parowania. Przechodzimy przez pewien samouczek,
podczas którego udzielamy zgód na zarządzanie naszymi próbkami głosu,
przetwarzanie tych danych, które są wideo. No i w którymś momencie jesteśmy
proszę o ubranie okularów.
One się łączą z nami i w ten sposób wygląda ta konfiguracja.
No i po tym sparowaniu, mówiłem, że nie wyciągamy,
natomiast otwieramy ten futerał, a potem wyciągamy okulary.
I w tym momencie mamy już możliwość dostępu do tego, co skonfigurowaliśmy w tym samouczku naszym.
Oprócz tego, że dajemy dostęp do rolki, możemy pewne kroki zrealizować albo pominąć.
zrealizować możemy np. połączenie z aplikacją WhatsApp albo Messenger, Instagram, Facebook, a wszystko to po to, żeby móc bardzo łatwo, no wchodzi w interakcję, tak?
Nie jest to wymagane, można w ogóle wszystko pominąć, no ale wtedy tracimy większość funkcjonalności w okularach, które nas interesują.
No właśnie, mamy już okulary połączone z naszym smartfonem, no więc teraz pytanie, co my właściwie możemy za ich pomocą robić?
To możemy za ich pomocą nie robić wszystkiego tego, co nam się kojarzy z Siri.
Nie mamy dostępu do naszych wszystkich aplikacji na telefonie, czyli do jakiegoś kalendarza, budzika.
Tak to nie działa, bo poruszamy się w pewnym ekosystemie i to daje nam możliwość przede wszystkim poruszania się i korzystania z tych mediów społecznościowych i z tych aplikacji.
No i na razie sobie może tak powiedzmy o tym, co możemy.
Po pierwsze, jako osoby niewidome, mamy funkcję słuchawek.
Słuchawek hybrydowy, bo mamy te głośniki, no a jeżeli to nam drży wszystko,
no to od razu mamy też pewną rodzaju przewodnictwo kostne.
Skoro o tym mówisz, to od razu zapytam, jak wygląda z wyciekaniem tego dźwięku na zewnątrz?
Jakbyś to porównał do jakichś słuchawek z przewodnictwem kostnym,
bo pewnie testowałeś kiedyś jakieś aftershoksy.
Tak, tak, tak, testowałem. Znacznie bardziej to wszystko wycieka.
Natomiast ten dźwięk, który dostajemy później, który słuchamy,
ma więcej basu, jest bardziej intensywny, czyli coś za coś.
bo jednak połączenie tego, że ten dźwięk się rozchodzi z tych głośników dookoła naszej głowy,
a częściowo trafia poprzez drżenia kości do ucha środkowego,
daje pełniejsze odczucie.
Niestety, jeżeli słuchamy sobie książki i jesteśmy sobie w autobusie i jest szum
i dajemy trochę głośniej, to ktoś może to słyszeć.
Tak samo jakaś głośniejsza rozmowa.
No właśnie, książka to jeszcze pół biedy, ale jakieś wiadomości na przykład na Whatsappie albo inne tego typu rzeczy, no to już…
No wszystko zależy od jakby środowiska, natomiast nie polecałbym do takich rzeczy.
no raczej, żeby tutaj się posiłkować jakąś słuchawką, nie wiem, AirPodsem.
Mhm. Bo właśnie, jak to jest? Mamy te okulary połączone z naszym smartfonem,
to co, to one nam się domyślnie stają zawsze zestawem słuchawkowym?
Czy my musimy coś zrobić, żeby tak się zadziało?
Żeby tak się zadziało, musimy je nasadzić na swój nos.
Okej, czyli one domyślnie, kiedy mamy je na sobie, to są naszym zestawem słuchawkowym?
Tak, tak, tak, są domyślnie naszym i musimy zmienić źródło dźwięku albo po prostu mieć tam bluetooth wyłączony.
Tak to one od razu się robią naszym zestawem słuchawkowym.
Czasem to potrafi się gdzieś tam wykrzaczyć, w szczególności po jakimś połączeniu na przykład na Whatsappie czy gdzieś tam.
No to wtedy trzeba ściągnąć te okulary, zamknąć te ramionka, skrzydełka, no i nasadzić na nos.
I wtedy dochodzi do re-połączenia i jest już wszystko dobrze.
Okej, a na przykład jeżeli mamy te okulary na sobie i użyjemy jeszcze jakiejś dodatkowej słuchawki, tak jak mówisz, właśnie AirPods, to co ma priorytet? To co połączone zostało wcześniej, czy na przykład AirPods zawsze nam przechwyci ten sygnał?
Nie testowałem, tak szczerze powiem, więc nie chcę skłamać.
Jasne.
Ale mogę sprawdzić i w komentarzu napisać.
No, bo to rzeczywiście może być czasem przydatne, żeby wiedzieć czego możemy się spodziewać w takich sytuacjach.
Czyli zestaw słuchawkowy. Możemy słuchać, możemy też dzwonić, możemy też rozmawiać. Jaka z tego jest jakość?
Jakość jest bardzo dobra. I dlaczego też ja kupiłem te okulary?
bo w kwietniu tego roku pojawiła się możliwość też dzwonienia przez te okulary
na WhatsAppie i na Messengerze w postaci wideorozmów,
czyli bezpośredniego dzwonienia w połączeniu z telefonem,
No ale tutaj dzwonimy przez WhatsApp’a lub Messenger’a
z wykorzystaniem kamerki i mikrofonów.
No i jakie są tego zalety?
Po pierwsze, mamy tu 12-megapikselowy aparat szerokokątny,
5 mikrofonów, no i co najważniejsze,
mamy gimbala, którym jest nasza głowa.
Mamy bardzo dobrą stabilizację i bardzo dobrą jakość tego obrazu
w związku z tym, że mamy ten punkt rejestrowania obrazu tak wysoko
i jest on praktycznie tak, jakby to widziała dana osoba.
I to mnie przekonało do zakupu i przetestowania tego,
czy będzie można realizować dobrej jakości połączenia
z obrazem i dźwiękiem tak, żeby móc na przykład poprosić kogoś o zdalną asystę w przemieszczaniu się,
w pójściu do miejsca, gdzie jeszcze nie byłem, do przychodni czy też do sklepu.
No i jak wyszły testy?
Jest audycja, więc jest chyba o czym opowiadać. Testy były prowadzone na łączności LT i 5G,
więc jak to by się poza jakimś obszarem miejskim sprawdzało, to nie powiem,
bo jeszcze tym się nie bawiłem. Natomiast testy w czasie rzeczywistym pokazywały to, że są plusy i minusy pewne.
Daje to radę. Trzeba co prawda wypracować sobie system tego, żeby nie poruszać zbyt nagle głową w prawo, w lewo
i rzeczywiście patrzeć tak, jak się idzie i żeby też druga osoba, która pomaga, powiedziała 20 stopni w lewo,
tak, trochę, no to trochę takie nawigowanie, tak, kimś na odległość.
No i o czym tu trzeba wspomnieć? Po pierwsze słonko. Słonko i w momencie, kiedy mamy duże naświetlenie,
tracą się detale, ja miałem taką sytuację, że właśnie musiałem przeczekać jeden cykl świetlny,
bo osoba, która mi asystowała zdalnie przez Whatsappa nie była w stanie określić,
czy mamy to zielone, czy czerwone, no samochody nie jechały.
No ale też dla testów zostałem przez ten cykl.
Druga sprawa jest taka, że tutaj nie mamy też, mamy kamerę i mamy światełko,
ale światełko jest tylko i wyłącznie po to, żeby informować osoby, które są w naszym otoczeniu,
że coś jest zrejestrowane, nie jest to jakaś lampa czy też dodatkowe doświatlenie,
więc w nieodpowiednich warunkach, kiedy mamy ciemno, z tej transmisji może być ciężko wyciągnąć detale.
Czyli w nocy na przykład albo przy jakiejś bardzo złej pogodzie może być kłopot.
Tak, więc duże nasłonecznienie zamazuje nam detale, natomiast noc z jednej strony to jest ta transmisja, a z drugiej strony robienie samych zdjęć.
Tutaj trzeba sobie zdawać z tego sprawę, że też producent poszedł na pewien kompromis, bo naprawdę te okulary i z wyglądu, i z wagi to one są jak zwykłe praktycznie.
Tak, więc każdy dodatkowy element to więcej elektroniki, która wyciągnie więcej prądu i zwiększałaby te okulary.
Skoro już właśnie mówimy o poborze prądu, o poborze mocy, no to nie od rzeczy będzie też wspomnieć na ile czasu nam takie okulary, kiedy one są naładowane, wystarczają.
Wspomniałeś o tym, że kiedy włożysz je do etui, to kiedy to etui jest naładowane, to ile tam razy można je naładować?
No producent to w godzinach daje, ile można później, no ale powiedzmy z mojego doświadczenia to jest około tak siedmiu razy.
A jedno naładowanie takich okularów na ile czasu wystarcza?
No i teraz pytasz o to, co mówi producent. Producent mówi cztery godziny.
Pytam ciebie. Pytam ciebie jako użytkownika.
Jako użytkownika, słuchaj, to jeżeli skorzystam z takiej asysty powiedzmy z kimś, dwadzieścia kilka minut, potem poklikam trochę zdjęć, no bo klikam, mogę, to klikam, tak, no to jestem w stanie w ciągu nawet półtorej godzinki, tak, to rozładować przy takim dość intensywnym.
Przy czym tutaj trzeba z tej kamery, z tego skomunikowania się korzystać.
Godzinka, półtorej to jest max.
Okej, a w takim razie ile potem trzeba odczekać, żeby te akulary się naładowały ponownie i były gotowe do użycia?
Tak, trzeba było 50%, to około 20 minut.
Tutaj mamy ładowanie indukcyjne, to jak już wspomniałem USB-C jest w futerale,
natomiast same okulary ładują się już po włożeniu do futerału w ten sposób,
że mamy sobie takie dwie kuleczki, jak je włożymy, to tam gdzie mamy nosek
Te kuleczki dotykają właśnie, tam są pewnie styki w tym nosku.
No i się to nam ładuje.
Więc to mamy takie indukcyjne ładowanie,
więc też to jest takie fajne,
że nie ma jakiejś wejść do dziwnych kabelków.
Dzięki temu też te okulary mają chyba,
czy bym nie skłamał, momencik,
tak IPX4 normę.
No nie jest to wodoodporność, jest to spryskiwanie, czyli deszcz, no i z drugiej strony pod, tak, no niestety, ale to teraz w lecie widzimy, tak, jak nam się poci głowa przy trzydziestu kilku stopniach, kapie nam pod.
No i to prawda.
Więc to jest ważne.
Ale to nie są okulary dla pływaków.
Tak, nie są to okulary dla pływaków i dla osób, które lubią po prostu dać nurka.
Tak jest. No dobrze, to już wiemy, na co się tu możemy nastawić.
Mamy zestaw słuchawkowy, mamy kamerę do wideokonferencji.
Coś jeszcze nam pozwalają te okulary robić?
Te okulary pozwalają nam rejestrować wszystko, co się da.
Możemy robić z nimi zdjęcia i nakręcać wideo.
Ta próbka, która dzisiaj była, to był filmik wideo.
Możemy domyślnie nakręcać minutowe,
chociaż też czytałem, że można gdzieś tam zmienić na dłuższe,
Dłuższe ponoć to wideo, ale to nie jest tak, że mamy nieograniczony ten czas.
Jest pamięć 32 giga w tych okularach i możemy sobie przechowywać w tych okularach,
ale też możemy automatycznie synchronizować.
No trochę szkoda, że nie da się nagrywać tyle, ile fabryka dała,
że gdybyśmy chcieli sobie włączyć takie nagrywanie i rejestrować coś dłużej, to nie jest to aż tak do końca możliwe.
No i jest to możliwe poprzez robienie transmisji.
No tak, no ale transmisja… Okej, ale w sumie transmisję można tylko dla siebie ustawić, zdaje się, na Facebooku,
więc no powiedzmy, że tylko wtedy to już tak czy inaczej trafia na serwery mety, czy tego chcemy, czy nie.
No bo to o to chodzi.
No tak.
O to chodzi, naprawdę mnóstwo zezwoleń dajemy, rozmawialiśmy przed audycją, ta cena jest dyskusyjna, czy to wysoka, czy niska,
natomiast nie oszukujmy się za to, jak to jest miniaturyzowane, jak to wygląda, płacimy z jednej strony pieniążkami, ale z drugiej strony naszymi danymi.
To się też zgadza, coś za coś, chociaż tak jak ja poza anteną też Ci wspominałem, w sumie dobrze, że jakieś kolejne firmy też zauważają osoby niewidome jako taką potencjalną grupę docelową, okej, wiadomo, że też będziemy płacić naszymi danymi, ale chociażby to, że dostaliśmy na przykład jako pierwsi w przypadku OpenAI dostęp do rozpoznawania obrazu, a następnie do opisywania tego, wiadomo, że to oczywiście to co niewidomi sobie poklikali te zdjęcia
i porobili różne opisy, że to potem będzie wykorzystywane biznesowo, no ale cóż, tak to już jest niestety.
Można żałować, że ktoś nie chce zrobić tego pro bono, no ale cóż, ta cała infrastruktura też musi na siebie jakoś tam zarabiać.
Czyli mamy filmy, mamy zdjęcia, do jakiejś demonstracji praktycznej, no to przejdziemy pewnie za moment
i pokażesz nam, co tu można, jak to wszystko wygląda,
ale czy jeszcze na coś te okulary pozwalają dodatkowo?
No to to momencie, to jeszcze tak może powiem,
że te okulary pozwalają na filmy, zdjęcia, muzykę.
To sobie na razie to omówmy.
I tym wszystkim możemy zarządzać z jednej strony
za pomocą poleceń głosowych,
a z drugiej strony, w ogóle jak to wygląda,
pomożemy też za pomocą różnego rodzaju gestów.
Ponieważ na lewym ramieniu tych okularów nic nie ma,
z zewnętrznej strony, wewnątrz jest przesuwak,
który może je włączać, wyłączać.
Ja tak się przez chwilę też zastanawiałem,
po co to jest, jak one się wyłączają i włączają,
przecież po włożeniu do futerału, a potem pomyślałem sobie,
kurcz, ale jak mam je na nosie i nie chcę korzystać z nich, żebym nie był w stand-by’u,
to wystarczy to przesunąć i już, nie?
I już, dokładnie.
Dokładnie, ale teraz przejdźmy na prawą stronę,
bo tu, na prawym ramieniu, jak mamy sobie szkła
i idziemy troszeczkę w stronę tego nausznika,
No tak centymetr. Mamy wystający podłużny przycisk i on służy do.
Po pierwsze, jak go wciśniemy jeden raz, robimy zdjęcie.
Jak wciśniemy dłużej, robimy film.
Ale jeżeli jesteśmy podczas połączenia na Messengerze albo na Whatsappie,
dwa razy szybko go wciśniemy,
nasz obraz oraz dźwięk przełącza się na okulary.
I to jest właśnie to super.
A po boku tego ramienia, od zewnętrznej oczywiście strony,
mamy dotykowy touchpad, który pozwala na różnego rodzaju gesty.
Tutaj nie będę się jakoś rozwoził szczególnie,
ale to wiadomo, jedno tapnięcie to włączamy muzykę
albo odbieramy połączenie, gest w stronę szkieł to jest głośniej, gest w stronę nałuszników to jest ciszej.
Możemy też w aplikacji sobie to jakby konfigurować.
No dobra, to w uzupełnieniu jeszcze do tych zdjęć i wideo i muzyki, że nie tylko możemy sobie to zarządzać za pomocą głosu.
Na co jeszcze te okulary nam pozwalają?
Jeżeli zrobimy sobie tego VPN, to możemy zacząć z tymi okularami rozmawiać tak jak z modelem,
takim sztucznej inteligencji.
Jak z czatem GPT na przykład.
Tak, jest to tak naprawdę lama od mety, więc to nie jest takie hiper super.
po polsku potrafi coś powiedzieć, tylko, że z syntezą angielską.
Po angielsku rozmawiamy, natomiast możemy zapytać o różnego rodzaju rzeczy.
No i właśnie łącznie z tym, że możemy zapytać, co widać na zdjęciu zrobionym przez nas.
Bo do tej pory omówiliśmy to, że możemy się połączyć z kimś,
Ktoś może nam pomóc w danej sytuacji, w sklepie, w przejściu do nowego miejsca, w przychodni itd.
No a tutaj jeszcze te okulary, to jest kwestia też taka, że modele sztucznej inteligencji są niedeterministyczne,
czyli mogą odpowiedzieć za każdym razem coś innego i trochę halucynują, więc nie należy w to wierzyć w 100%,
ale daje to jakiś pogląd, na przykład i możemy zapytać, jaki kolor ma nasza koszulka, czy to ubranie, czy jest zapalone światło, jak są daleko drzwi i tak dalej.
Spróbujemy też o tym coś tam dzisiaj jeszcze powiedzieć, jak nam starczy czas.
Tak jest. No, myślę, że czasu nam starczy, bo mamy go tyle, ile chcemy tak naprawdę.
Mamy pytanie od naszego słuchacza Dawida i Dawid pyta, czy te okulary mają czytnik ekranu, tak jak np. telewizory albo smartfony?
Nie, te okulary nie mają czytnika ekranu w klasycznym tego słowa o znaczeniu,
dlatego, że my tutaj rozmawiamy z okularami, czyli raczej zarządzamy wszystkim za pomocą rozmowy z okularami
lub zarządzamy za pomocą aplikacji na naszym telefonie.
Więc jesteśmy dokładnie w takiej samej sytuacji jak osoby widzące,
czyli po prostu wykonujemy jakieś gesty i jest jakaś reakcja
albo po prostu okulary odpowiadają nam na nasze pytania.
Natomiast nie ma czegoś takiego, żeby te okulary wyświetlały na soczewkach
jakieś teksty, jakieś komunikaty,
cokolwiek tego typu, to się nie dzieje, prawda?
Tak, no i jeżeli na przykład teraz sobie
tapnę, że chcę zrobić głośniej,
nie wiem, czy to jest słychać.
Jest, to mamy takie klikanie.
Tak, i osoba widząca i osoba
niewidoma, taka jak ja, będzie
zawsze miała taką dźwiękową
odpowiedź, nie?
To może spróbujmy je o coś zapytać.
Dobra.
Hej, Meta.
What is the time?
It’s 7.43 p.m.
Czekaj, sprawdzę.
Tak, 19.43.
Dobry początek.
Dobry początek, ale nie zapeszajmy, bo
różnie bywa z tymi technicznymi
Tutaj nie będę akurat pytał o jakieś tam rzeczy, które pytamy.
Zawsze modeli sztucznej inteligencji, nie będziemy robić testów.
Chociaż o jedną rzecz bym mógł zapytać.
Hej Meta, czy możesz dać mi instrukcję na to, jak zrobić kawę z mlekiem?
Aby zrobić kawę z mlekiem, wypij kawałek kawy, ognij mleko w sosowaniu lub mikrowizorze,
i wypij do miękkości, następnie połącz dwie.
Hej Meta, co jest najstarszym budynkiem w Polsce?
To najstarsze budynek w Polsce to kościół St. Andrzeja w Krakowie, który odbył się w XI wieku.
Co to jest najdłuższy rzeka w Polsce?
Najdłuższy rzeka w Polsce to Wisła, która rozprzestrzenia około 1047 kilometrów od Silesii do Baltyki.
To angielska synteza.
Dokładnie.
No może spróbujmy wykorzystać
ten model do tego, do czego
pewnie większość niewidomych
przypuszczam łącznie z Tobą
chce go używać
zazwyczaj, czyli do opisywania
przestrzeni.
Okej, no i teraz tak, to już
może jeszcze taki
wstęp malutki.
Mówiłem hejmeta.
No to jest…
było plum, to tak jak mówimy,
I’m ready to help. What can I assist you with?
No.
No właśnie. Mówimy, hej Siri, mówimy o Google,
to tu mówimy właśnie to, hej i wiadomo co,
no a potem wydajemy polecenia.
Aha.
19.46.
Okej, wszystko na raz.
Wszystko na raz.
Dobra, ale sytuacja opanowana.
I teraz tak, czy jest jakiś gotowy przepis?
Nie. Na to jak należy konwersacje prowadzić, to raczej trzeba próbować
i to zaskakuje każdego dnia.
No ale spróbujmy sobie pokazać, ja mam te okulary teraz ubrane i na razie zróbmy mu prosty test taki, że będę miał sobie pewne pudełko i zapytamy, nie na razie co tam na nim jest, tylko zapytamy o kolor.
Hej Meta, what color is it?
I’m happy to help, but I need more context to answer your question about the color.
I właśnie zrobiłem błąd z tego wszystkiego,
bo najpierw używamy magicznego słowa look and
i potem pytamy, look and, żeby on nam zrobił zdjęcie.
Daj jeszcze raz taki mały fall start, dobra.
Hej Meta, look and what color is it?
The Lipton yellow label box is primarily yellow.
Dokładnie.
Czyli w większości żółty.
Tak, w większości żółty, takie małe pudełeczko.
No dobrze, a zapytamy jeszcze po prostu o moje biurko.
Tylko muszę wstać i się pochylić.
Wszystko naraz, łącznie z Uberem.
Ale dowiedzieliśmy się, że biurko ma właśnie taki kolor.
ale pewnie nasi słuchacze są zainteresowani,
czy możemy usłyszeć jakiś opis.
Dokładnie.
Tak jak mówiłem, to wszystko dzieje się nam w języku angielskim.
Zarówno pytanie jak i odpowiedzi.
Więc odsunąłem się od biurka, no i po prostu zapytałem go o to, co jest przede mną.
No to…
No to…
No to rzeczywiście jakaś taka zgrubna informacja,
jak jeszcze o tym rozmawiamy.
Tak, to wygląda.
Tak, to wygląda.
No to rzeczywiście jakaś taka zgrubna informacja,
jak jeszcze można dopytać, co tam mamy.
Tak z ciekawości, jakie są Twoje doświadczenia, jeżeli chodzi o skuteczność tych opisów?
Wiesz co, skuteczność w tym wszystkim nie chodzi o to, żeby uzyskiwać od niego odpowiedzi
takie jak w czacie GPT, żeby to było bardzo szczegółowe, długie, kwieciste.
Należy pytać o konkret. Im konkretniej ja pytam,
tym więcej jest, przepraszam bardzo, ale to coś mi się przywiesiło,
takiego feedbacku. No niestety, jeżeli nie wiem, o co konkretnie chcę zapytać, to się nie dowiem, tak?
Jeżeli nie zapytam o to, czy światło jest zapalone, czy zgaszone, to on sam z siebie bardzo często nie opowie o tym, tak?
Jeżeli ty mu powiesz po prostu look and describe what’s around me, to on będzie zawsze jakoś tak bardzo ogólnie.
i potem ewentualnie, jak z tego opisu wywnioskujesz, o co chciałbyś dodatkowo zapytać,
no to jest szansa, że można to doprecyzować.
Tak, no tego trzeba się nauczyć, ale to też ma plusy i minusy,
bo jeżeli coś robimy tak dość dynamicznie,
no to nie mamy czasu na to, żeby słuchać opisu, który ma tysiąc znaków, nie?
No dokładnie, dokładnie.
Raczej, jeżeli na przykład jesteśmy gdzieś w przestrzeni,
no to potrzebujemy takich komunikatów dość krótkich, żeby po prostu wiedzieć, co się dzieje.
Znaczy w ogóle ten model, na przykład z twojego doświadczenia, bo tak jak mówiłeś, no jeżeli chodzi o rozglądanie się gdzieś tam,
to się fajnie sprawdza jako narzędzie do zadzwonienia do kogoś i do pomocy.
przy czym tu przypomnijmy tylko Whatsapp i Messenger, tu nie działa na przykład Be My Eyes,
to nie wykorzystamy tego jako narzędzia do… ani Be My AI, ani też jako narzędzia do dzwonienia do widzących wolontariuszy.
Mamy do dyspozycji tylko aplikację Mety, ale czy ten model Mety na przykład, czy zdarza ci się używać go gdzieś tam w przestrzeni publicznej, żeby po prostu uzyskiwać opisy?
Na tyle bym mu nie zaufał, natomiast jest taka jedna sytuacja, w momencie kiedy idziemy sobie i mamy tabliczki przy różnego rodzaju pomieszczeniach, drzwiach.
Jesteśmy w jakiejś instytucji, gdzieś tam, no i chcemy dowiedzieć się, to wtedy rzeczywiście to się sprawdza,
bo możemy sobie zrobić zdjęcie przed drzwiami, zapytać, describe this i słyszymy, że to jest na przykład room 005 i co tam jest.
A zdarza mu się przekręcać numery, na przykład?
Jeden raz, który, a to tak wyszło, no to było zamiast zero to oł.
Tak, ale tak to raczej nie.
Rozumiem. Te okulary wymagają połączenia z internetem.
I teraz pytanie, w jaki sposób my im dostarczamy to połączenie.
Czy to jest Bluetooth, czy to jest konieczność zestawiania jakiegoś hotspota z naszym telefonem, żeby to działało, czy po prostu mamy je połączone, parujemy z telefonem i to wystarczy?
Więc tak, okulary mają oprócz Bluetooth mają jeszcze Wi-Fi i to wygląda w ten sposób, że okulary w tej głównej komunikacji to jest Bluetooth i to wszystko leci do telefonu.
Natomiast są takie zastosowania, jak przekazywanie wideo czy też synchronizacja,
no to wtedy one uruchamiają Wi-Fi i się tak komunikują z naszym telefonem,
ale to jest dla nas przezroczyste.
No i też mają możliwość podłączenia się do znanych Wi-Fi, ale to tylko i wyłącznie,
żeby automatycznie się synchronizować z chmurą i ściągać aktualizacje.
Często wychodzą te aktualizacje? Coś o tym wiemy? Czy to tak raczej po cichu się wszystko dzieje?
No jeżeli wszystkie ptaszki zaznaczymy, że trzeba automatycznie, to się będzie robiło automatycznie,
Nie będziemy wiedzieć, ale z tego co czytałem po różnych forach, mamy teraz wersję siódmą oprogramowania i to jest cyklicznie, jest to rozwijane, natomiast to raczej są większe paczki, nie, że mamy cichaczem tam co noc.
Ok, to ja teraz myślę, że zrobimy sobie chwilę przerwy na kolejne dwie próbki i za moment jeszcze wrócimy do tematu okularów, a ja przypominam, że jesteśmy na żywo, więc jeżeli macie ochotę o coś jeszcze nas zapytać, tak jak zrobił to chociażby przed momentem Dawid, no to zapraszamy bardzo serdecznie do kontaktu.
Jestem w miejscu, gdzie mamy sobie zlew, czajniczek, więc mogę sobie spróbować zrobić herbatę, posłodzimy ją słodzikiem.
Szukam sobie, po lewej gdzieś powinien być czajnik, o jest.
Wygląda na to, że trzeba dolać wody.
Przechodzę do kranu.
No, tyle chyba na moją herbatę wystarczy.
Kroczek w lewo, stawiam sobie tak, zamykam czajniczek, w międzyczasie poszukam, o włączyłem, włączyłem, o jest pod ręką mój słodzik, po prawej, po lewej, woda nam się gotuje, ja przechodzę, będę szukał herbaty, puszka z kawą, znajduję się teraz na dworze.
Po lewej mojej stronie gdzieś znajduje się ulica, dość ruchliwa, z tramwajami.
Teraz obrócę się w prawo i sobie spróbuję wejść do pomieszczenia.
Czy dobrze trafiłem do laboratorium?
Chyba tak.
Jak było pytanie do mnie, to tak.
No i słuchajcie jak się przemieszczam. Teraz jestem w innym już pomieszczeniu.
Będę sobie też jeszcze szukał czegoś na półeczce tutaj. Otworzę szafkę.
No właśnie i to była konsekwencja tego, że te okulary domyślnie potrafią nagrywać do minuty.
Czy ty Marku masz jakąś informację, że one już dalej nie nagrywają?
Czy jest to jakiś dźwięk, nie wiem, wibracja, cokolwiek innego?
Tak, jest to takie plumknięcie, tak?
Jeżeli ja im mówię start czy stop recording, to jest to plumknięcie,
no jeżeli to jest to domyślne już wytracenie czasu, no to to samo plumknięcie jest.
Mam taką informację, więc no, w momencie, kiedy usłyszałem, że jest plum, to już nic nie mówiłem, co tam będę szukał w tej szafce, tak.
No tak, ale dobrze, że taka informacja jest, no bo w przeciwnym razie to nikt nie ma, a przynajmniej niewiele osób ma stoper w głowie, żeby tak sobie odliczać.
Dobra, mam minutę, to jeszcze coś tu pogadam.
Natomiast, no, dźwięk z tych okularów jest naprawdę całkiem ładny, przynajmniej jeżeli chodzi o nasze otoczenie,
bo tak naprawdę, ale to jak zwykle w technice binauralnej, najgorzej słychać nas.
Bo, no, u ciebie tej góry nie było zbyt dużo, ten dźwięk był taki przytłumiony, no ale to dlatego, że byłeś w centrum tych mikrofonów,
które są umieszczone w tych okularach, ale dźwięk, na przykład tę panią, która tam się odzywała,
no to było słychać bardzo ładnie, bardzo wyraźnie i z konkretnej strony, gdzie ona się znajdowała.
A była też ta osoba, która mi tam odpowiedziała, była dość daleko w momencie, kiedy ja przechodziłam, tak?
Zgadza się, więc ten dźwięk, jeżeli ktoś na przykład chciałby rejestrować coś po prostu za pomocą tych mikrofonów, no to może liczyć naprawdę na fajne efekty.
No i właśnie, czy my możemy te okulary wykorzystać jako mikrofony zewnętrzne i użyć ich do nagrywania na przykład w jakiejś aplikacji na iPhone’ie?
Możemy użyć jako zestawu słuchawkowego, więc jeżeli mamy podłączone słuchawki, to możemy zrobić sobie co chcemy.
Ale ten dźwięk jest, jak rozumiem, no gorszej jakości, to nie jest takie ładne jak tutaj.
Nie, nie jest to takiej dobrej jakości.
I wchodzą tutaj na pewno jakieś algorytmy, które przygotowują,
bo nie nagrywamy tutaj dźwięku, a nagrywamy wideo.
To wszystko, co kompresuje i przygotowuje,
no i nie jest to tylko i wyłącznie przechwycenie dźwięku.
Tylko nie oszukujmy się, ten kodeks i to wszystko jest już przygotowywane w okularach.
tak? Więc dlatego synchronizujemy już gotowy plik wideo, nie?
No jasne. I pliki o rozszerzeniu mp4, taka minuta nagrania,
no to ma tam sto kilkadziesiąt megabajtów,
jak oglądałem te próbki, które mi wysłałeś, więc…
No tak, tak, tak, no trochę waży.
No ale to ze względu też na tą rozdzielczość, którą mamy,
czy może niektórym wydawać się, że to jest tylko 12 megapikseli,
natomiast tu nie chodzi o ten wyścig, czy to jest 12 czy 50, to jest trochę głębsze zagadnienie, natomiast te 12 megapikseli i tą szerokokątność daje nam dość dużą rozdzielczość, no i to się nakłada na też rozmiar tych plików.
A czy mógłbyś pokazać przynajmniej tak pokrótce, na co pozwala ta aplikacja Metaview, co my tam mamy?
To jeżeli tak się nam uda, to zobaczymy zaraz.
Dobrze, to ja w międzyczasie jeszcze, no skoro będziesz tam sobie odblokowywał, to ja w międzyczasie jeszcze zajrzę do naszych źródeł kontaktu, czy macie jakieś pytania, czy też nie.
Właśnie tak przeglądam sobie YouTube’a, Facebook’a, ale tu na razie jest cisza, a na naszym panelu kontaktowym też na razie nie dzieje się nic, a dzwonić też nikt nie dzwoni.
No więc okej. Jak tam, masz już aplikację?
Tak, tak, tak. Mam już na pasku.
Metawiew, aktywne. Jest Metawiew.
Tak.
Dobra, odpalamy Metawiew.
Pierwsze co słyszymy to naładowanie okularów, możemy też pytać ile mają procent z powerbankiem, tu się dowiadujemy właśnie w aplikacji.
I tak jak wspomniałem, na dole mamy cztery tapsy, czyli takie zakładki, jeżeli nie włączymy sobie tego jajek, to będziemy mieli trzy.
No i mamy pierwszą.
Foto 14 Augusta.
Foto.
Foto.
14.
Foto.
Foto.
Video.
17.
Secund.
Connected.
Glasses.
Connected.
Notific.
Foto.
Video.
14.
Video.
Foto.
Foto.
Foto.
Foto.
Foto.
Foto.
Foto.
Foto.
Foto.
Foto 14 Augusta.
Foto.
Cze-
Foto.
Foto.
13.
A dobra już wiem.
My tak, my tak, my tak jest.
Pogoda.
Czyżby tak się zdarzało od czasu do czasu?
Tak, od czasu do czasu tak się dzieje, w szczególności jak się znajdziemy w galerii.
Chyba już mamy.
Mamy, mamy. Pierwszą rzeczą, którą mamy w zakładkach jest home.
Gallery, Meta.ai, Settings i teraz tak, jesteśmy pierwszy w Home i teraz co tu mamy.
Tu są różnego rodzaju powiadomienia najpierw dotyczące różnego rodzaju zdarzeń z okularami.
No i właśnie, znaleziono cztery media, iż można je zaimportować. To właśnie jest to, co mam ustawione, żeby nie było automatycznej synchronizacji z moją rolką, no bo cykam trochę tych zdjęć, pytam o różne rzeczy i żeby po prostu to nie mieszało się z moimi zdjęciami, które mam na iPhonie.
Czy te zdjęcia, to od razu zapytam, czyli czy to znaczy, że jeżeli ty na przykład w jakiejś takiej sesji z tym modelem Meta AI powiesz look and tell me coś tam, coś tam, to czy to znaczy, że to zdjęcie też się zapisze w pamięci tych okularów?
A to szkoda, że to w sumie nie jest takie tymczasowe, że nie da się tego tak ustawić, żeby konwersacje z tym modelem jednak mimo wszystko nie zapisywały się gdzieś w pamięci.
To teraz, czy one się zapisują, to już znaczy, no można też to wyłączyć, same konwersacje, ale zdjęcia są. Dobra, co mamy dalej?
No i właśnie jest Learn&Explore i to jest bardzo fajne, ponieważ dzięki temu nawet jeżeli ktoś ma jakieś trudności z połączeniem z aplikacją taką jak Instagram, Messenger czy Facebook, no to tu mamy samouczek, to wszystko robimy w tej aplikacji, to przełącza do tej zewnętrznej aplikacji jest testowane,
Więc osoba nawet o przeciętnych umiejętnościach w grzebaniu, w takich rzeczach sobie da radę.
Czyli wszelkie jakieś rzeczy związane z informacjami, z czym możemy połączyć, co możemy zrobić na tych okularach.
No i tu są przykładowe polecenia, które możemy wydać.
No to home.
Galerii.
No i to zawsze jest na górze.
Bez względu na zakład.
Tak, tak, tak dokładnie.
No i tu mamy te wideo, fotki i tak dalej.
Wideo możemy tutaj od razu też odtworzyć i zobaczyć sobie co jest.
Dzięki temu możemy szybciutko sobie też zarządzać tym, czy chcemy to, czy do
śmietnika i tak dalej.
Jak sobie wejdziesz w to zdjęcie, to dzieje się coś takiego.
No właśnie, coś takiego się dzieje, ale można podwójnym takim gestem, przeszurowanie
zwiędła palcami, no zamknąć to zdjęcie i wtedy się robi porządek, tak?
Ale czy na przykład jest jakaś opcja, żeby to zdjęcie, które już tutaj mamy i które widzimy na ekranie, jeżeli widzimy, ale czy od razu można sobie tu je gdzieś wyeksportować,
chociażby, żeby nam opisał to jakoś bardziej szczegółowo, no nie wiem, BIMA.ai albo jakiś inny czat GPT?
Tak, żeby wyeksportować, no, nie próbowałem, tak powiem.
Okej.
No i mamy zakładkę media, tak?
I tutaj mamy wszelkie konwersacje, które przeprowadziliśmy.
O, przypomina nam to coś.
No tak.
Tak, no i tutaj.
I tu jest zdjęcie, jest zdjęcie, które zrobiłeś.
No i to jest ta konwersacja, którą prowadziliśmy.
Możemy to wyeksportować, możemy sobie sprawdzić o czym rozmawialiśmy.
No i ostatnia, no to jest setting zakładka, ale tutaj już szczegółowo nie będziemy jej omawiać,
bo tutaj bardzo dużo mamy tych ustawień.
Ja tylko pozwolę sobie powiedzieć w ten sposób, że w tej zakładce ustawiamy język, w którym się
mamy komunikować, aktualizacja oprogramowania i mnóstwo, mnóstwo jeszcze innych rzeczy.
Ale coś tam jest rzeczywiście takiego ciekawego, co dla nas jest istotne?
Nie.
Ok.
Oprócz jednej rzeczy, która może być, no to jest ustawienia gestów, touchpada,
gdzie możemy sobie właśnie zrobić to, żeby nie wołać na przykład hejmeta,
tylko żeby sobie na tym touchpadzie dwukrotnie kliknąć i żeby to nam na przykład odpowiadało.
No bo to jest też takie wywołujące zawsze tego asystenta, bo już czasem jak powiemy hejmeta, to nie reaguje. Może przez otoczenie, może nie wychwyci, tak?
Tu aplikacja widzę, że jest w języku angielskim. Jak rozumiem, to tak celowo nie ma języka polskiego?
Nie ma języka polskiego.
Mhm, okej, no czyli tak naprawdę to powolutku zbliżamy się do końca, do takiego podsumowania tej naszej dzisiejszej audycji,
ale ja bym jeszcze, myślę, że możemy zrobić sobie jeden test, jeżeli masz gdzieś tam zainstalowanego na tym telefonie chociażby Messengera,
możemy spróbować się połączyć i zademonstrować jak to brzmi w trakcie rozmowy.
No obrazu oczywiście nie pokażemy, ale…
Możemy. Tylko co muszę zrobić?
No, to znaczy ja się spróbuję połączyć z tobą za pomocą Messengera, tylko sam muszę go odnaleźć u siebie
i za moment będziemy sprawdzać, bo będę oczywiście musiał tutaj trochę na naszym mikserze pozmieniać ustawień, ale…
No, a jeszcze, jeszcze dysponuję Whatsappem jak coś.
Okej, to ja już szukam sobie tutaj ciebie, o dobra, mam, mam.
I możemy spróbować rozmowę, na rozmowę głosową też to zadziała?
Tak, tak, tak.
Okej, to dzwonimy na rozmowę głosową.
No dobrze, przejadę brałem.
Halo?
Ok, to teraz tak. Ja sobie tu muszę to wyciszyć. Żebyś ty nie miał zwrotki to zrobimy też tak.
I momencik. Jeszcze sobie wyłączę mowę na voiceoverze.
I proszę bardzo, już chyba się słyszymy.
No chyba się słyszymy, tak.
To jak rozumiem jesteś w tym momencie z okularów.
Tak, jestem z okularów. Pozwoliłem sobie nawet odejść od biurka, żeby jakiegoś nie było pogłosu z słuchawek tam.
Więc w ten sposób słychać nie jest włączone jakiekolwiek wideo, ale mogę teraz spróbować i pokazać Wam właśnie jak to szybko możemy zrealizować.
czyli idziemy, rozmawiamy sobie z kimś, tak,
nagle potrzebujemy pomocy.
No i już.
I już. I w tym momencie
podejrzewam, że coś się tutaj zadziało,
to znaczy ja chyba nawet mam jakieś
dodatkowe połączenie,
bo telefon mi wibruje, ale nie wiem nawet,
co się dzieje za bardzo, bo mam…
Tak, on poprosił…
Aha?
Tak, on poprosił po prostu,
żeby nawiązać połączenie wideo.
A, w ten sposób, czyli po prostu
gdybyś ty zadzwonił do mnie, to trzeba by było się z tego rozłączyć i połączyć na zasadzie wideo.
A szkoda, że on sobie nie był w stanie tego włączyć.
Znaczy, ty musisz wyrazić zgodę na przełączenie, no tylko tak to wygląda.
Jasne, no ale dźwięk z tego naprawdę jest ładny, to faktycznie.
Oczywiście wiadomo jest ta jakość bluetootha, która też być może ze względu na to,
że my jesteśmy teraz połączeni właśnie po bluetoothie i z jednej i z drugiej strony,
to jeszcze gdzieś coś tu może następować pewna degradacja.
Natomiast jesteś słyszalny rzeczywiście fajnie wyraźnie.
Moje pytanie jest takie,
jak te mikrofony sprawdzają się w warunkach
jakiejś takiej komunikacji miejskiej, jakiegoś hałasu.
Miałeś okazję to testować?
No tak. Właśnie dlatego tych okularów,
gdybym miał możliwość ich oddania, bym nie oddał.
bo naprawdę w ruchliwym miejscu, gdzieś tam przechodząc przez kilka przejść lapieszczych dookoła tramwaje, samochody,
byłem w stanie po prostu tak mówić i dopytywać je.
Mogę już iść, w którą stronę mam skręcić.
I ta osoba, która mi asystowała, nie musiała do mnie krzyczeć, więc ja do niej, więc było spoko.
No właśnie, bo to też o to mi chodzi, czy w dwie strony to działa i jak widać tak.
Tak, no właśnie to jest za coś, tak, że w ruchliwym miejscu, nie wiem, na przewodnictwie kostnym nie zawsze słyszałem, a tu, że mam przewodnictwo kostne plus te głośniki, no to ja dobrze słyszę, no a dzięki mikrofonom tamta osoba po drugiej stronie też mnie dobrze słyszy.
No to prawda, no jak to jest ile? 5 mikrofonów to faktycznie.
No pewnie nie wszystkie są wykorzystywane do…
No tak, zwłaszcza teraz, bo być może albo one się jakoś tam monofonizują i dźwięk z tego jest zbierany,
jeszcze jakoś korygowany pewnie, żeby ten algorytm odszumiający miał łatwiej.
To całkiem możliwe, że to też w ten sposób działa.
No dokładnie.
Ale dźwięk jest naprawdę bardzo ładny, bardzo fajnie to słychać.
No dobrze, to może jeszcze na momencik przejdziemy do naszego standardowego odsłuchu.
więc tutaj się z tego rozłączymy i damy szansę, żeby ktoś jeszcze do nas mógł dosłownie ostatnim rzutem zadzwonić.
O, Marek do nas wraca.
Marek do nas wraca, że ma słuchawki z mikrofonem, to trochę to wracanie jest hałaśliwe, ale już…
Tak, jest hałaśliwe jeszcze, żeby nie spadły okulary na ziemię i ich nie zdepnąć.
No tak, to szkoda by było.
No i teraz tak, jeszcze co do opóźnień voice-overa, no to mniej więcej one są tak jak na AirPodsie, nie?
O, no to ja zawsze słyszałem dobre opinie, jeżeli chodzi o opóźnienie AirPodsów, że ono jest dosyć nieznaczne, więc może faktycznie tutaj działać to całkiem fajnie.
Chociaż ja akurat, jak nie jestem zdecydowanie tolerancyjny wobec opóźnień na komputerze, to nawet na jakichś słuchawkach z przewodnictwem kostnym jestem w stanie to zdzierżyć na telefonie.
Problem wiesz co, jest przy wpisywaniu czegokolwiek.
To tutaj można byłoby się przyczepić, natomiast w pozostałych sytuacjach można być tolerancyjnym.
Dokładnie. No dobrze Marku, to powolutku zmierzając do brzegu, dobijając do brzegu, jakbyś miał tak podsumować, jeżeli chodzi o zalety i wady tego sprzętu. Co dla ciebie jest taką największą zaletą i największą wadą?
To jeszcze zapytajmy o jedną rzecz.
Okej.
No dobra, tylko czy będzie słychać odpowiedź. Zobaczmy, momencik.
Hey Meta, look and describe this.
Give me more details.
Read me.
Tak to wygląda. Mam jeszcze coś tutaj i to może być ciekawe.
Dobra, a teraz sobie jeszcze mam jakąś książeczkę.
Nie zrozumiał po polsku.
Nie zrozumiał, to też jest ważne do demonstracji.
Otworzyłem sobie na wylosowanej stronie
Cześć Meta, popatrz i czytaj mnie.
indywiduals with visual or hearing impairments.
No i właśnie, on dokładnie to, co jest na tej stronie przeczytał,
tylko cały patent jest na tym, że w tej książeczce,
to jest taki podręcznik dla naszej kadry akademickiej na Politechnice Wrocławskiej,
jest ten tekst w języku polskim.
Ale słowaczenie całkiem zacne.
Tak, więc musiał zrobić zdjęcie, model to rozpoznał, no i właśnie w związku z tym, że wspiera język angielski, to przeczytał. Tylko, że przetłumaczył.
Czyli tak naprawdę to wystarczyłoby tam pewnie dodać polską syntezę, przestawić jeden przełącznik i on by bez problemu był sobie w stanie poradzić z tym w języku polskim. To raczej jakieś ograniczenie software’u.
Określenie, tym bardziej, że jeżeli się dłużej go pomęczy, to on zaczyna wtedy to czytać po polsku, tylko że z syntezą angielską, ale ma to potencjał.
Więc też przechodząc tak do podsumowania, to jest to rozwiązanie na chwilę obecną nie dla każdego,
dlatego kupując trzeba pomyśleć nad tym, czego się oczekuje. Ma to potencjał w przyszłości.
Więc teraz jeżeli ja widzę jak szybko się różne rzeczy zmieniają w tym firmware, że w oprogramowaniu w tych okularach np. twierdzę, że nie warto byłoby robić jakiś tutorial w tym momencie, choćby w języku polskim, bo on by bardzo szybko się zaktualizował.
Zobaczymy jak to będzie dalej się rozwijało. Z tego co wyczytałem ma to wchodzić na nowe rynki i mecie bardzo zależy, żeby te okulary były jak najszerzej dostępne.
Miejmy nadzieję, że nowe jakieś prawo unijne, które troszeczkę ureguluje wykorzystanie tych wszystkich naszych danych, a nie oszukujmy się okulary zbierają wszystkie nasze dane.
No bo i to jest wymiana tekstowych, głosowych rozmów, wizerunków naszego otoczenia, wideozdjęć, no wszystko tak naprawdę w połączeniu z danymi.
Zastanawia mnie, wiesz, to, że Niemcy mają to już u siebie na rynku, a Niemcy, jak dobrze pamiętam…
Ale nie ma AI dostępnych.
A, nie ma EI, okej. Natomiast jednak te okulary tam są, a oni o tę prywatność zawsze dość mocno dbali, wiadomo, z EI to sobie trzeba poradzić, ale szkoda, że nie ma tego w takiej oficjalnej polskiej dystrybucji, bo to jest jednak jakiś kłopot i pod względem takim serwisowania, a też nie każdy będzie chciał się bawić w zakupy gdzieś tam za granicą, nie każdy też ma kogoś, kogo może poprosić.
Być może jakiś sprzedawca, to jest odpowiedni narzut, czy też ktoś w aktywnym samorządzie, no i znowu też to będzie jakiś narzut.
Mógłby coś takiego sprowadzić na chwilę obecną.
Jeżeli ktoś oczekuje okularów, które pozwoliłyby mu relacjonować jego życie,
bo mamy też blogerów, youtuberów i różnych takich z dysfunkcją wzroku,
to jak najbardziej plus możliwość no cóż, tej asysty,
którą w pewnym sensie zademonstrowaliśmy przez Messengera.
A powiedz mi, jak z jakością tych robionych zdjęć, to znaczy bardziej chodzi mi o to, no bo 8 megapikseli czy 12, 12 megapikseli, o których wspominałeś, to już jest jednak troszkę,
natomiast bardziej mi chodzi o to, czy ten gimbal w postaci naszej głowy jest w stanie nam zapewnić to, że nie widząc, jesteśmy w stanie zrobić to może wiadomo, nieartystyczne zdjęcie,
Ale tak jakoś powiedzmy, jeżeli wiemy co chcemy sfotografować, to czy nam się to zazwyczaj uda z jakichś takich Twoich doświadczeń, czy niekoniecznie?
Tak, uda się i jest jeszcze to, że jeżeli porównywałem z telefonem, to zawsze jakoś ta ręka zadrży i nie jest tak to do końca dobrze, jak powinno być.
Ja robiłem jakichś takich testów i porównywałem z czatem GPT, no właśnie, no bo możemy sobie wysyłać takie zdjęcie na przykład na Whatsappie, jak mamy bota zrobionego.
No i tutaj wychodziło mi, że zdjęcie było mniej rozmazane i było z lepszej perspektywy, jeżeli tak można powiedzieć, z okularów.
Mamy pytanie kolejne, M tym razem do nas pisze, czy okulary chronią przed słońcem przy okazji?
Tak, w standardzie możemy sobie kupić okulary z odpowiednimi filtrami, też są np. z filtrem UV i mamy sobie i kolor zielony fotochromów,
Ale tak jak mówiłem, możemy zamontować sobie szkła, to chyba ekonomicznie nawet wychodzi najkorzystniej, po prostu je sobie sprowadzamy i u optyka sobie montujemy takie jakie chcemy szkła, łącznie z korekcyjnymi.
Jeżeli ktoś ma taką potrzebę.
No to rzeczywiście jest to sprzęt całkiem ciekawy, trzeba za niego trochę zapłacić, za granicą no równowartość jakiegoś tam powiedzmy 1400 złotych, w górę raczej niż w dół,
chociaż gdzieś widziałem na przykład taką cenę 1350 złotych na googlu, jak wpiszemy to na samej górze mamy takie propozycje z jakichś tam różnych sklepów,
No i jeden z tych wyników to było właśnie 1350 czy 1320 nawet.
No ale pytanie ile byśmy tak naprawdę zapłacili decydując się na taki zakup później
i finalizując go, bo mogłoby się okazać, że na przykład wysyłka do Polski to jeszcze
będzie nas kosztować tyle i tyle, no więc to na tych tysiąc, trzystu, kilkudziesięciu złotych się nie skończy.
Jest to jakby na chwilę obecną urządzenie, które daje z takimi ograniczeniami, jakie są takie, nie inne możliwości.
W razie pytań zapraszam do kontaktu, komentarzy.
Tak jest, komentarze pod audycją, kiedy ona ukaże się u nas na stronie.
zapraszamy do zadawania pytań, a za dzisiejsze pytania też bardzo serdecznie dziękujemy.
Na koniec jeszcze dwie próbki na naszej antenie się pojawią, to już tak zupełnie na pożegnanie.
Przypominam, że dziś mówiliśmy o inteligentnych okularach Ray-Ban Meta, czy Meta nawet właściwie,
smart glasses, tak to mówiąc dokładnie. Te okulary dziś prezentował na naszej antenie Marek Tankielun.
Dziękuję ci, Marku, bardzo za udział w audycji.
Dziękuję również.
I ja także dziękuję za uwagę.
Michał Dziwisz, kłaniam się do następnego spotkania w Tyflo Radiu,
ale wy jeszcze nie odchodźcie od radioodbiorników przez najbliższe,
no, dwie minuty, może niecałe,
bo jeszcze mamy dla was dwie próbki.
Siedzę przy piórku, po lewej stronie mam kubek z herbatą.
Właśnie się napiłem, odstawię kubek.
Przed sobą mam klawiaturę.
Jestem na stronie Tyflopodcastu, jesteśmy na dworze, po prawej stronie powinno być słuchać ulicę, teraz właśnie po prawej stuknąłem laską, przede mną powinno być wejście do budynku D21 Politechniki Wrocławskiej, spróbujemy znaleźć to wejście, bo właśnie odezwał się nam znacznik dźwiękowy i idę po dźwięku, prawda?
Wstukam laską, mam drzwi, po prawej jest klamka, wchodzę, kolejne drzwi, dobrze, szukam ścieżek naprowadzającej, cześć, dzień dobry, strefa bramek, dobra, idziemy dalej ścieżką naprowadzającą.
Był to Tyflo Podcast. Pierwszy polski podcast dla niewidomych i słabowidzących.
Program współfinansowany ze środków Państwowego Funduszu Rehabilitacji Osób Niepełnosprawnych.

Wszystkie nagrania publikowane w serwisie www.tyflopodcast.net są dostępne na licencji CreativeCommons - Uznanie autorstwa 3.0 Polska.
Oznacza to, iż nagrania te można publikować bądź rozpowszechniać w całości lub we fragmentach na dowolnym nośniku oraz tworzyć na jego podstawie utwory Zależne, pod jedynym warunkiem podania autora oraz wyraźnego oznaczenia sposobu i zakresu modyfikacji.
Przekaż nam swoje 1,5% podatku 1,5 procent Logo FIRR Logo PFRON Logo Tyfloswiat.pl

Czym jest Tyflopodcast?

Tyflopodcast to zbiór instrukcji oraz poradników dla niewidomych lub słabowidzących użytkowników komputerów o zróżnicowanej wiedzy technicznej.

Prezentowane na tej stronie pomoce dźwiękowe wyjaśniają zarówno podstawowe problemy, jak metody ułatwienia sobie pracy poprzez korzystanie z dobrodziejstw nowoczesnych technologii. Oprócz tego, Tyflopodcast prezentuje nowinki ze świata tyfloinformatyki w formie dźwiękowych prezentacji nowoczesnych urządzeń i programów. Wiele z nich dopiero znajduje sobie miejsce na polskim rynku.

Zapraszamy do słuchania przygotowywanych przez nas audycji i życzymy dobrego odbioru!

Tematyka

Pozycjonowanie i optymalizacja stron internetowych