TyfloPrzegląd Odcinek nr 170 (wersja tekstowa)
Pobierz napisy w formacie SRT
Pobierz napisy w formacie VTT
Fundacja Instytut Rozwoju Regionalnego prezentuje Tyflo Podcast.
W kalendarzu środa to jest pierwszy dzień lutego 2023 roku,
a my rozpoczynamy tak dziś wyjątkowo, nawet punktualnie,
kolejne wydanie Tyfla Przeglądu to jest wydanie numer sto siedemdziesiąt.
Jeszcze trzydzieści odcinków i będzie dwieście.
To już naprawdę nieźle.
No naprawdę. Trzeba znowu myśleć o jakimś specialu,
bo to już za rogiem. Co my zrobimy na ten dwusetny odcinek?
To się okaże. Jeżeli macie dla nas jakieś propozycje, to śmiało.
Witamy Was bardzo serdecznie przy mikrofonach Michał Dziwisz i Paweł Masarczyk.
Dziś w takim skromnym składzie, co nie oznacza,
że nie mamy dla Was garści informacji, a i owszem mamy.
Mamy dla Was trochę różnych ciekawych wiadomości
dotyczących przede wszystkim technologii i osób niewidomych.
A jakie to wiadomości? No to teraz taki skrót jak to zawsze na początek.
W tym tygodniu w Tyflo Przeglądzie
wiemy więcej o Victor Reader Stream trzeciej generacji.
Wiemy także więcej o Remote Incident Manager na Maca.
Eleven Labs już nie za darmo.
Zespół Antona czym jest?
Jak ułatwić sobie korzystanie z serwisów wideo?
Były już inteligentne laski. Czas na inteligentną walizkę.
Envision Glasses od teraz w trzech wersjach cenowych.
Jabłuszkowy Świat, nowy blok poświęcony dostępności Apple.
Jak uzyskać eSIM bez eSIM?
Google pracuje nad własnym odpowiednikiem AirTagów.
CNKI wprowadza nawigację wewnątrz budynków.
Wszystko to, a pewnie jeszcze więcej, już za chwilę. Zaczynamy!
A Wy możecie zacząć rzecz jasna razem z nami dzwoniąc do nas
na tyflopodcast.net ukośnik Zoom, bądź też pisząc w kilka miejsc
w komentarzach na Facebooku, w komentarzach na YouTubie i na kontakt.tyflopodcast.net
oraz oczywiście poprzez nasze aplikacje mobilne
zarówno na iOSa, jak i na Windowsa.
Zapraszamy Was bardzo serdecznie do tego. Dziś podejrzewam, że jak do nas nie będziecie dzwonić,
to szybko się uwiniemy z tymi informacjami, więc mamy nadzieję,
że będziecie do nas dzwonić i że porozmawiamy też o jakichś ciekawych rzeczach.
Ale oczywiście, jeżeli zależy Wam na tym, żeby ten Tyfloprzegląd taki po prostu
był dziś wydaniem ekspresowym, to nie musicie.
Ale my lubimy z Wami rozmawiać.
Jak najbardziej, oczywiście. Zapraszamy.
Zapraszamy, zachęcamy do tego, żeby do nas pisać, żeby do nas dzwonić.
A teraz już nie przedłużając, zaczynamy.
Zaczynamy od garści informacji będących uzupełnieniem tego,
o czym mówiliśmy już wcześniej. Na dobry początek kilka informacji
na temat najnowszego Victor Readera, Victor Streama.
Pawle, Ty coś wiesz więcej.
Tak, już wiemy więcej. Wiemy za sprawą podcastu Jonathana Mousena,
Mousen at Large, bo po przerwie miesięcznej Jonathan Mousen wrócił do studia,
więc jest już na co czekać każdego tygodnia.
I od razu wziął się za temat, który jest gorący jak świeże bułeczki z piekarni,
czyli właśnie trzecia generacja Victor Reader Streama.
I chyba właśnie u Jonathana po raz pierwszy przedstawiciele firmy Humanware
pokazali nam, czego możemy się tak naprawdę w pełni spodziewać,
jeśli chodzi o to urządzenie.
Ja słuchałem tego podcastu i słuchałem też wypowiedzi właśnie panów,
którzy pracują nad tym urządzeniem.
Natomiast posłużę się tutaj taką ściągawką, którą przygotował dla nas Piotr Machacz,
który również podcastu słuchał.
Dziękuję tu bardzo za podsumowanie tematu.
No i czego dowiadujemy się o urządzeniu.
Ma ono identyczne wymiary jak poprzednia generacja,
ale przyciski są większe i gumowe.
Ponoć głośnik ma być lepszy i głośniejszy.
USB-C zamiast micro USB, to o tym chyba mówiliśmy tydzień temu,
że tak miało być.
Lepsza bateria do 16 godzin pracy.
Jeżeli macie jakieś informacje, ile było we starszej wersji,
to dajcie znać, bo ja teraz też nie pamiętam.
Wspiera system plików exFAT, więc na papierze karty do 1 TB.
Ale co ciekawe zostali przy dużych kartach SD,
tylko te duże, ale do 1 TB.
No ciekawe.
16 GB wbudowanej pamięci i to jest chyba nowość,
bo wcześniej streamy nie miały wbudowanej pamięci.
Zdaje się, że wszystko odbywało się na karcie.
W oparciu o kartę, tak, też mi się tak kojarzy.
No to teraz mamy pamięć wbudowaną.
Nie jest ona duża, ale jest.
Bluetooth do łączenia się ze słuchawkami i głośnikami.
No to o tym też już wiedzieliśmy tydzień temu.
Może teraz nagrywać do flag.
I było pytanie właśnie, czy oni zamierzają coś poprawiać
w kwestii jakości nagrywania,
bo można nagrywać na streamie z zewnętrznych też mikrofonów.
Dalej zresztą, o czym zaraz powiem, jest osobny jack na słuchawki
i osobny na mikrofon.
To dalej przetrwało.
No ale pytanie padło, czy można coś zrobić,
żeby on jakoś lepiej nagrywał, żeby ta jakość była lepsza,
że może jakieś stereo.
Bardzo się wymigali tak gładko panowie od odpowiedzi,
bo zaczęli coś mówić o tym, że na razie to tak za bardzo
temu nagrywaniu nie poświęcali uwagi,
ale postarają się wprowadzić jakieś funkcje
pomagające w organizacji tych nagrań.
Czyli no, widać, że chyba nie mierzą bardzo
w jakieś audiofilskie tutaj obszary.
A tego flaka dodali to po prostu tak, bo mogli,
bo jakieś pewnie oprogramowanie,
którego używają jakieś biblioteki,
których gdzieś tam korzystają,
zwyczajnie na to pozwalały.
Prawdopodobnie.
Chociaż, kto wie, może była tym też jakaś intencja,
może jakieś nagrywanie muzyki.
Nie wiem, czy ma sens nagrywanie muzyki,
na przykład z radia we flaku.
Choćby internetowego to nie ma sensu,
bo tam są jednak dość stratne kodek.
Rzadko które radio internetowe nadaje beztratnie.
No tak, to prawda.
Aczkolwiek są takie.
No w każdym razie.
Można teraz pobierać dowolnie drugi głos syntezy mowy.
Fajna sprawa, bo z tego, co mówili poprzednio,
żeby wgrać inny głos syntezy,
trzeba było pobierać pakiety.
Nie dość, że pobierać gotowe pakiety ze strony Humanweara.
I tu te pakiety były dość ograniczone,
bo możemy mieć tylko dwie syntezy
naraz na jednym streamie.
No więc, Humanware przygotowywał pakiety dwujęzyczne.
Angielski i hiszpański, angielski i francuski i tak dalej.
No i tych pakietów była ograniczona ilość.
Więc jeżeli była to dość popularna kombinacja języków,
to mieliśmy szczęście i mogliśmy sobie taki pakiet zaaplikować.
I jeżeli ta kombinacja popularna nie była,
no to stwarzało to dość problematyczną sytuację.
To jest pierwsza kwestia.
No a druga kwestia, że trzeba było wgrywać poniekąd
jakby nowe oprogramowanie.
Czyli podłączamy streama pod komputer kablem,
on musi być wyłączony,
ale wgrywania, no nie jest to zbyt wygodne.
Można oczywiście to usprawiedliwić,
że niecodziennie zmienia się języki.
Natomiast teraz można pobierać z poziomu samego urządzenia
już dowolny syntezator, jaki tylko nam się podoba.
Więc ten problem został zażegnany
i też kombinacje mogą być w tym momencie dowolne.
Od teraz są też czytane pliki PDF.
Potem urządzenie dalej posiada osobne wejścia na słuchawki i mikrofon,
to o czym mówiłem.
Na starcie będzie jeszcze kilka rzeczy, które nie będą wspierane.
No i właśnie tutaj coś, co nas w Polsce bezpośrednio nie dotyczy,
czyli na przykład to, że nie działa Audible Amazona,
serwis audiobooków,
ponieważ SDK, który jest używany, czy też API,
nie jestem pewien, który tam jest używany,
Audible Sync do integracji tychże urządzeń na przykład
posiada jakąś wadę, która nie pozwala na logowanie nowych kont.
Obiecali poprawki już parę miesięcy temu,
na razie nic z tego nie wyszło.
Jest petycja, którą ludzie wysyłają do Amazonu
i zobaczymy, co z tego wyjdzie.
Natomiast tak jak mówiłem,
u nas Audible w języku polskim materiałów nie oferuje,
więc prawdopodobnie większość z nas z tego i tak korzystać nie będzie.
No i co mogę jeszcze powiedzieć?
Było pytanie o radio,
bo radio w streamach internetowe korzysta z biblioteki,
znaczy z katalogu U-Tunes.
Może kojarzycie, że kiedyś była taka dostępna, dość i popularna aplikacja
do słuchania radia na iPhony,
OU-Tunes, czyli OOTunes.
No i ta aplikacja posiadała swój katalog,
tam chyba jeden człowiek tym zarządza.
Ponoć kontakt z nim jest dobry, natomiast ostatnio ten katalog cierpi
na dużą ilość już nieaktualnych linków do streamów.
No i padło też pytanie ze strony Jonathan,
czy coś będzie z tym robione.
Oni stwierdzili, że na ten moment nie mają żadnych wieści,
ale w okolicach kwietnia ma się pojawić nowa funkcja,
która ucieszy zarówno osoby korzystające często z radia internetowego,
jak i z podcastów, więc ciekawe, cóż to będzie.
Ja obstawiam nagrywanie.
Są ludzie, którzy obstawiają właśnie nowy katalog.
Nie wiem, zobaczymy.
Padło też pytanie o rozdziały w podcastach,
no bo na przykład Mozenet Large,
czy chociażby na sztywno przegląd są podzielone na rozdziały
i dużo osób z tego korzysta.
Stwierdzili, że to jest też kolejna rzecz,
która bardzo często się gdzieś pojawia w prośbach
i na pewno to rozważą.
Na razie tego nie ma, ale być może nad tym popracują.
Też bardzo, bardzo próbowali się wywinąć od odpowiedzi tutaj,
jakoś bardzo ogólnikowo zaczęli płynąć po temacie podcastów i tak dalej,
że chcą, aby to doświadczenie było jak najbardziej optymalne i tak dalej,
no ale na razie tej opcji nie ma.
Myślę, że też warto przy tej okazji zacytować komentarz naszego słuchacza Pawła,
który napisał rzecz następującą.
Witam. Szkoda tylko, że humanware zdecydował,
iż tak trywialna sprawa, jak wymiana baterii,
musi być dokonywana przez producenta.
Będzie to na pewno mocno drogie.
No to nawet o tym nie wiedziałem tutaj Pawle, dzięki za podpowiedź.
Paweł pisze dalej.
Trochę im zajęło, żeby wyjść z urządzeniem,
które nie wydaje się aż tak bogate w nowoczesną funkcjonalność,
a cena na rynku północnoamerykańskim przewidywana w USA
to 550 dolarów amerykańskich.
No nie mało. Pozdrawiam.
Zobaczymy, czy urządzenie będzie sprzedawane w Polsce.
Zważywszy na to, że poprzednie edycje były,
można podejrzewać, że nie będzie tym razem inaczej.
Chociaż trochę czasu minęło, bo chyba z 10 lat,
więc może już też trendy na rynku się zmieniły,
może sprzedaż tych poprzednich modeli nie była taka,
ale zobaczymy też w jakiej cenie zostanie to urządzenie zaoferowane.
No a konkurencja się buduje i jest,
bo jest gdzieś tam ten nowy Orion jakiś się pojawia,
jest Sense Player, jest, prawda, tutaj,
Victor Reader Stream III edycji.
No więc ta przestrzeń w tym roku zaczyna się dość gęsto zapełniać
i zobaczymy, które rozwiązanie, jeżeli jakiekolwiek,
a może w ogóle już jesteśmy na etapie,
że w zasadzie to smartfon nam wystarczy.
No i czas pokaże, które rozwiązanie tak ostatecznie się przyjmie.
Z jednej strony tak, można powiedzieć,
że już smartfon nam teoretycznie powinien wystarczyć,
ale nadal i to jest dla mnie, powiem szczerze,
zawsze pewnym takim trochę zaskoczeniem,
bo ja jednak nie korzystam z żadnego tego typu urządzenia
i nigdy nie korzystałem i powiem więcej,
nie miałem nigdy takiej nawet chęci, żeby sobie kupić coś tego typu,
ale nadal cały czas spotykam się z takimi opiniami,
że no to się może przydać, to jest fajne,
to w sumie fajnie jest mieć właśnie takie urządzenie,
dzięki któremu za pomocą klawiszy można szybko dojść do pewnych rzeczy,
OK i sądzę, że jest jednak jeszcze cały czas jakaś grupa docelowa,
która z jakiegoś tego typu urządzenia zechce korzystać.
Pytanie, czy ten tort jest sens dzielić aż na tyle kawałków,
żeby było miejsce jeszcze dla czegoś nowego?
Ja myślę, że to jest też kwestia trochę lojalności,
przywiązania do pewnej marki.
W stanach zjednoczonych Victor Reader Stream to jest urządzenie dość popularne
i z tego, co opowiadali przedstawiciele firmy,
jeden z panów, który aktualnie jest, nie wiem teraz czy właścicielem produktu,
czy tam inżynierem głównym, kiedyś pracował w wsparciu technicznym humanware’a
i padać dzwonili do niego ludzie, którzy mieli po kilka nawet takich streamów,
rekordzista miał siedem.
Wow!
Więc hallelujah, niech żyje wsparcie w Stanach Zjednoczonych.
Niech żyją wierni klienci.
Wierni klienci.
No w krajach niemieckojęzycznych dalej ten milestone się gdzieś trzyma,
to ja o moim doświadczeniu w Austrii opowiadałem,
jak tam bardzo, bardzo mocno jest forsowany nadal milestone.
U nas staje się, że Orion ostatnio jest takim głównym urządzeniem, które się przyjmuje.
O Chim się dawno nie słyszeliśmy, ale swego czasu, kiedy BookSense był nowym urządzeniem,
to miał też swoje małe grono zwolenników w Polsce.
Więc zobaczymy, kto wie.
Myślę, że tutaj jest kwestia tego typu, które urządzenie tak naprawdę też działa
i dorasta do tych czasów i co ono oferuje, czy więcej obiecuje na papierze,
czy rzeczywiście jest w stanie dotrzymać kroku za tą technologią, która się rozwija.
No ja tutaj patrzę teraz z pewnym zaciekawieniem na SensePlayera,
który zdaje się oferować najbardziej takie nowoczesne funkcje,
bo i aparat z OCR-em, i sterowanie smartfonem, i baza na Androidzie.
No ale na przykład miałem okazję wysłuchać ostatnio demo
w ramach podcastu z Davidem Woodbridgem w Vision Australia.
No i okazuje się, że to urządzenie tak zawsze jest tego demka, który ja słyszałem.
No trochę jest wolne w reakcji, to znaczy naciskamy przycisk
i słychać taką ewidentne opóźnienie, kiedy jest odpowiedź ze strony urządzenia,
czyli między naciśnięciem na strzałkę, a tym jak urządzenie kliknie i powie,
na jakiej opcji menu jesteśmy, jest takie odczuwalne opóźnienie.
No nie jest może duże, znaczy duże dla, oczywiście duże,
ale to nie jest jakieś tam kilka sekund, bo bez przesady,
ale słychać to, że to nie jest tak, że od razu naciskamy i ta odpowiedź jest.
Więc tu się zastanawiam, na ile użytkownicy, tacy już bardziej wytrawni,
będą w stanie się z tym pogodzić.
Też nie wiedziałem o tym, a okazuje się, że do takiego senseplayera
można podłączać mikrofony na USB-C.
No więc jednak w jakąś niszę chyba chcą tu wycelować
i chociażby tymi nagraniami coś chcą zwyciężyć właśnie tym sterowaniem telefonu.
No zobaczymy, bo aktywny samorząd już blisko.
Czas wyboru nadchodzi.
Tak jest, czas wyboru nadchodzi
i pamiętajcie, wybierzcie mądrze i zgodnie z waszymi potrzebami,
bo to jest najważniejsze.
Bo to wy będziecie tego używać, a nie firma, od której kupujecie,
a nie my, którzy wam o tym opowiadamy,
więc warto posłuchać różnych demo.
Jeżeli będzie opcja, żebyśmy my takie demo zaoferowali,
no to fajnie będzie.
To z chęcią to zrobimy.
Tak, oczywiście.
No ale ostatecznie decyzja jest wasza
i też waszych wrażeń i przemyśleń.
Jesteśmy ciekawi, więc piszcie, dzwońcie.
Jeżeli macie jakieś oczekiwania względem tych urządzeń
albo po prostu ich nie trawicie i uważacie, że nie są potrzebne,
to też jest jakaś opinia i możecie się nią podzielić.
Oczywiście, że tak.
Grunt to merytoryczna dyskusja i słuchanie się nawzajem
gdzieś tam w tych wszystkich argumentacjach.
Ale oczywiście ostateczna decyzja należy do każdego z was.
A teraz zaglądamy na nasz profil na Facebooku.
To napisał do nas Gracjan.
Nie wiem, czy było już o tym wspominane,
ale w najnowszych betach Fubara 2000 X64
nie są dostępne chociażby pola wyboru w interfejsie użytkownika,
nie jest ogłaszany stan zaznaczenia,
w ogóle czytnik ekranu pomija,
że jest coś takiego jak pole edycji
testowane z NVDA, narratorem i ZDSR.
Problem zgłoszony do autora, na razie cisza,
ale póki co ja jako jedyny na forum Fubara
przynajmniej zgłosiłem ten problem.
Może jak więcej osób się dołączy, to autor coś zrobi.
Pozdrawiam.
A dobrze, że to piszesz, dobrze, że to zgłaszasz,
bo Fubar, jak wiemy, jest lubiany przez
sporą rzeszę niewidomych użytkowników
i widzących zresztą też, jeżeli jeszcze słuchają muzyki na komputerze,
bo to dobry odtwarzacz jest
i ma szereg różnego rodzaju fajnych wtyczek,
dzięki którym można sobie różnych rzeczy słuchać
i bardzo przykro byłoby, gdyby kolejne jego wersje
były dla nas niedostępne,
albo przynajmniej gorzej dostępne.
To faktycznie warto sobie to potestować i zgłaszać autorowi,
żeby trzymał rękę na pulsie
i żeby tej dostępności nam nie popsuł.
Dzięki gracjanie za te informacje,
teraz przenosimy się do Remote Incident Manager,
czyli do tego, o czym Ty, Pawle, wspominałeś tydzień temu,
że tworzy się wersja tego narzędzia również dla Maca.
I ja sobie poczytałem trochę o tym
i potwierdziło się to, na co ja tak po cichu liczyłem,
ale Ty nie byłeś mi w stanie tego potwierdzić,
a ja też tak sobie tylko myślałem, że fajnie by było,
zajrzałem do opisu tego dodatku
i słuchajcie, to brzmi naprawdę dobrze,
bo wygląda na to, że będzie można sterować
zarówno Maciem z Windowsa,
jak i Windowsem z Maca.
I Maciem z Maca oczywiście też.
Więc w końcu pojawiło się, a właściwie pojawi się,
bo to cały czas jest jeszcze, no nie ma tego dodatku publicznie dostępnego,
ani w żadnych wersjach beta, można się zapisać do testów,
ale pojawi się w końcu narzędzie,
no takie wieloplatformowe, przynajmniej dwóch.
I będzie ono w jedną i w drugą stronę kompatybilne.
Ktoś mógłby zapytać,
tylko czemu nie 10 lat temu na przykład?
No ale cóż, no.
Ja się zastanawiam nad jedną rzeczą,
jak ta dostępność będzie zorganizowana,
to znaczy ta transmisja tego, co my słyszymy,
co dzieje się na przykład na Windowsie, przekazana na Maca i w drugą stronę.
Też się zastanawiam.
Ja się obawiam, że się niestety tutaj ograniczą Państwo
do przekazywania dźwięku.
To byłoby trochę mało optymalne,
bo w tym momencie dużo bardziej obciążone jest ukończe
i te opóźnienia zawsze po prostu jakieś będą.
No dokładnie, przede wszystkim właśnie te opóźnienia.
Przede wszystkim te opóźnienia i to już da się odczuć te prace.
Tak. I ja się boję, że to jest maks,
co oni będą w stanie zrobić, no chyba, że jakoś,
będzie przekazywane wszystko na voice-overa,
bo, no nie wiem, może tak się da.
No teraz Apple zliberalizowało trochę te kwestie tych syntez,
więc może teraz będzie można stworzyć syntezator,
który czyta.
Tak, tak.
Pytanie, czy w drugą stronę tak się będzie dało,
żeby voice-overa, tekst przez voice-overa czytany puścić na Windows.
Czy Apple pozwoli oficjalnie, a domyślam się,
że taką drogę będą chcieli obrać Państwo z Nima Solutions
na oprogramowanie, które przechwytuje voice-overa,
tekst i wysyła gdzieś w sieć.
No, no ciekawe. W każdym razie, skoro to obiecują,
to znaczy, że mają jakiś koncept, ale no właśnie,
raz już mieliśmy okazję zobaczyć to rozwiązanie na Windowsa
i okazało się, że no nie zachwycało.
Teraz robią nam tu dość duże nadzieję,
że będzie to takie, jak to się ładnie mówi, cross-platformowe,
natomiast żeby też się właśnie nie okazało,
że to wszystko jest no tak zrobione,
że nie można powiedzieć, że nas gdzieś tam oszukali,
no ale że jednak to sobie człowiek trochę inaczej wyobrażał.
Ale bądźmy dobrej myśli.
W międzyczasie patrzę tak na GitHuba i widzę,
że powstaje powolutku, bo jeszcze nie ma lidmi,
nie ma jeszcze wydania, ale już jest dość taka mięsista,
powiedziałbym, baza kodowa
z ręki Leonardo de Ruitera z Holandii,
który nie wiem, czy dalej jest, ale był przynajmniej jakiś czas temu,
długi, związany z firmą Babbage w Holandii,
powstaje dodatek do NVDA,
do zdalnego sterowania drugą maszyną
za pomocą Remote Desktop Protocol.
I widzę, że pojawia się coraz więcej kodu,
już widziałem jakieś sterowniki Braille’owskie, sterowniki syntezymowe,
Global Plugins, więc już jakby kod można sobie tam powoli zacząć podglądać,
ale jeszcze nie mamy żadnego readme, jak tego używać
i zastanawiam się, czy to jest jakiś wywłaszczony fragment tego rozwiązania korporacyjnego Unicorn,
który oni kiedyś sprzedawali czy może dalej nawet sprzedają,
który stanie się w jakiś sposób darmowy.
No i jak to będzie działało, czy będzie trzeba mieć po obydwu stronach NVDA,
tylko po prostu zamiast używania serwerów,
tam NVDA Remote, użyjemy Microsoftu,
czy jakimś cudem będziemy mogli przechwytywać zdarzenia z drugiej strony,
nie wiem, ale codziennie coś się w tej bazie kodowej dzieje
i nie ma takiego dnia aktualnie już teraz, żeby tam jakiś nowy kod nie wpadał,
więc ja czekam.
To ja też czekam, to ja też czekam, tylko tak znowu,
naprawdę ja to już kilka razy mówiłem w tych przeglądach
i przy różnych innych okazjach, ja wiem, że ja się powtarzam,
ja wiem, że może dla mnie to jest też szczególnie istotne,
że jednak przez ileś lat przepracowałem gdzieś tam pomagając,
jeżeli chodzi o takie różne rzeczy związane z IT,
ale to jest naprawdę aż takie trochę przykre,
jak mimo wszystko w przypadku osób niewidomych mało dzieje się,
jeżeli chodzi o to sterowanie, o tę pracę zdalną,
o to świadczenie takiej zdalnej pomocy,
gdzie tak naprawdę my w wielu przypadkach moglibyśmy to robić
i ogranicza nas tak naprawdę brak jakiejś uniwersalnej technologii,
którą osoby widzące mają już od wielu, wielu lat.
Takim sztandarowym przykładem jest oczywiście TeamViewer,
ale nie tylko, bo są też i darmowe rozwiązania,
wdrażane także korporacyjnie, są oczywiście rozwiązania płatne,
TeamViewer, jakiś Anydesk i inne, do wyboru do kolorów,
tak, Citrix oczywiście, jest tego do wyboru do koloru.
W przypadku osób niewidomych tak naprawdę teoretycznie te programy odczytu ekranu,
jak Jossi Windowise, miały to wsparcie, ale tylko właśnie RDP.
Przez wiele lat oprócz Joss Thandemu nie było niczego,
a ten Joss Thandem działał, powiedzmy sobie szczerze, bardzo kulawo
i miał bardzo dużo różnych zależności.
Potem pojawił się ten Remote Incident Manager, Remote Access Manager,
ale to tylko w zasadzie w Stanach było dostępne.
No, NVIDIA Remote, to był, pamiętasz, który to, Pawle, rok 2014?
Tak, jakoś to musiało być tak, 2014 albo nawet 2015,
bo wiem, że był taki okres, kiedy były zbierane pieniądze na kampanię,
na jakiś tam startup, żeby oni mogli z tym w ogóle wyruszyć
i potem była dostępna przez jakiś czas wersja tylko dla tych backerów,
dla osób, które zapłaciły, dla patronów.
Dokładnie.
A potem zostało to opublikowane jakby oficjalnie.
No i to musiało być tak, jakoś wtedy to musiało być tak.
Tak, to było coś dla 2014-2015, to zobacz,
od jak dawna już wtedy osoby widzące miały tego typu narzędzia
i dostępne ze wszechstw.
Tak, znaczy można było próbować jakimś tym viewerem przez dźwięk, tak?
Oczywiście.
I ludzie to robili, bo to nie że ten, ja ostatnio w ogóle
za sprawą jednego z naszych młodszych słuchaczy, Miłosza,
zostałem, zostano mi przypomniane, że tak powiem,
jeden z naszych pierwszych podcastów o Windows Live Messengerze
i ja pamiętam, że my tam próbowaliśmy jakieś uskuteczniać,
bo tam była opcja zdalnego sterowania
i opcja zdalnej pomocy, tylko bez dźwięku,
więc tam był tylko obraz i my to jakoś oszukiwaliśmy tak,
że sobie puszczaliśmy po rozmowie głosowej
stereomiksy w ogóle z komputera.
No i na szczęście już takich rzeczy robić nie trzeba,
ale kiedyś to była, to była realia
i to była jedyna forma, jak można było komuś pomóc.
A nie każdy wiał stereomiksa, a nie każdy wiedział jak go użyć.
A ja jeszcze przypomnę o jednej rzeczy,
o której być może nasi młodsi słuchacze nie wiedzą
albo ci, którzy tak technicznie nie do końca pamiętają takie rzeczy,
że te przekazywanie dźwięku TeamViewer,
za pomocą TeamViewera, to tak naprawdę dopiero
zaczęło mieć sens bodaj od Windowsa Visty,
bo wtedy pojawiło się coś takiego,
czy to od Windowsa 7, nie, to chyba już od Visty,
bo Vista był wcześniej niż siódemka.
A przecież jeszcze trochę Windowsów innych było też wcześniej,
ale zdaje się, że to właśnie w Wiście pojawiło się to całe Wasapi,
ten system dźwięku Microsoftu,
który zaczął umożliwiać takie rzeczy.
Wcześniej, żeby przekazać ten dźwięk,
to tam się trzeba było rzeczywiście bawić w jakieś stereomiksy,
inne tego typu rzeczy, a tak jak wspomniałeś,
nie każdy to miał, nie dało się przesłać tego odtwarzanego dźwięku.
Teraz bez problemu można to zrobić, możesz sobie wybrać urządzenie,
z którego chcesz pobierać odtwarzany dźwięk
i możesz go sobie wysłać, i możesz ten dźwięk sobie wysłać,
ale kiedyś tak to nie działało niestety,
więc my też mieliśmy tu dość duży problem,
bo chcesz komuś pomóc, a zanim mu pomożesz,
to najpierw musisz mu wytłumaczyć, jak on ma ci dźwięk przerzucić,
żebyś ty go słyszał.
Teraz mamy taką sytuację z urządzeniami mobilnymi,
nie ma dostępnego rozwiązania, to znaczy
głowacy i korwus coś tam próbują z Androidem,
ale tak poza tym nie ma na ten moment
dostępnego systemu transmisji dźwięku
albo jakiegokolwiek transmisji screen readera,
żeby można było pomóc komuś na smartfonie.
Także tak sobie trochę tu narzekamy, ale jest na co narzekać moim zdaniem,
bo w tej branży i w tej gałęzi
jak dla nas stosunkowo mało się dzieje
na tyle, ile moim zdaniem dziać się powinno,
a powinno się tu dziać znacznie więcej.
No ale dobrze, że jakieś jaskółki się pojawiają,
zobaczymy, cóż tam to narzędzie
Remote Incident Manager
nam zaoferuje i jak to wszystko będzie działać.
Teraz jeszcze z rzeczy zaległych
i takich, o których mówiliśmy, do których wracamy.
Eleven Labs już nie za darmo.
Było, ale się skończyło.
I żeby było ciekawiej, to nie jest nawet kwestia
jakiejś chciwości firmy i tego, że się połasili na pieniądze,
bo odkryli, że ludziom się podoba,
tylko to ludzie ludziom zgotowali ten los.
Cóż się stało? Otóż, jak można było się spodziewać,
bo no, któż by się tego nie spodziewał,
my prezentowaliśmy to rozwiązanie,
znaczy konkretnie Tomek przez dość długi czas,
około gdzieś chyba godzinę, miał taki wywód
tydzień temu, gdzie pokazywał, jakie różne głosy
może generować. Głos był Pauliny,
głos był właśnie tam przykładowy Polski z Wiedźmina,
jakieś jeszcze parę głosów,
swój własny głos. No i Tomek robił to wszystko
w dobrej wierze i w dobrym celu, dobrze się przy tym
bawiąc i wy też się świetnie bawiliście, patrząc
po komentarzach. Natomiast byli też ludzie,
którzy, i to można było rzeczywiście bardzo łatwo przewidzieć,
nie wykorzystywali tego w dobrych celach
i w ciągu weekendu gdzieś zaczęły się
rozprzestrzeniać nagrania
znanych postaci. Emma Watson,
aktorka grająca na przykład Hermione Granger
w Harrym Potterze, albo Joe Rogan, jeden z najbardziej
popularnych podcast’erów.
Jeszcze parę osób, które czytały swoimi oczywiście
głosami stworzonymi za pomocą platformy
Eleven Labs, treści, z którymi
w życiu by się te osoby raczej, na tyle na ile my
je znamy z przekazów medialnych, nie utożsamiały,
czyli mowa nienawiści, czyli
fake newsy, czyli teorie spiskowe,
memy też, no to memy to powiedzmy memy,
fajnie, ale różne takie rzeczy,
które mogłyby zniszczyć czyjąś reputację,
bardzo łatwo, no i firma się zorientowała
do czego ta ich platforma może posłużyć
i wprowadziła pewne ograniczenia, na przykład
to, że można dostać
bana, jak zostanie zgłoszone konto,
że produkuje różne takie treści,
jakieś narzędzia wykrywające, że dany dźwięk powstał
za pomocą Eleven Labs, żeby nagrania można było zweryfikować,
które gdzieś potem w internecie krążą, no i coś,
co najbardziej uderzy tutaj w nas wszystkich,
jeżeli osoby korzystające z kont darmowych nie mogą
już tworzyć
głosów własnych z próbek.
No więc jeżeli chcieliście się pobawić tym, czym bawił się tydzień temu Tomek
tutaj na podcaście, to no trzeba będzie ponieść już opłaty,
są też różne pomysły, jak można by
jeszcze uszczelnić ten system, czy by nie wprowadzić jakiejś
weryfikacji, dowodów osobistych, kart kredytowych
i tak dalej, no bo
powoli zaczyna się to wszystko wymykać
spod kontroli i o ile jeszcze
ktoś może, no chcieliście się dobrze zabawić
i zrobić jakiś głupi żart, no to niektóre żarty
już mogą pójść za daleko, no i może to
nawet zniszczyć komuś karierę, a może nawet życie,
albo wprowadzić jakąś panikę,
no bo testy różne też, takie kontrolowane testy
w dobrej wierze, żeby zobaczyć na ile system jest
zdolny do pewnych rzeczy, a na ile ma jakieś bezpieczniki
wbudowane, już zostały poczynione
przez dziennikarzy z portali technologicznych
i też powstawały jakieś ciekawe przekazy
medialne głosem Joe Bidena
i tam jakieś różne inne
rzeczy, więc no takich
bezpieczników nie było, no i żeby
troszkę zabić problem w zarodku, firma
posunęła się do takich kroków.
Czyli tak naprawdę doświadczyliśmy tego, czego doświadczać będziemy
za kilka lat na masową skalę,
bo to się nie ma co oszukiwać,
to co teraz zrobiło Eleven Labs to jest
tylko odłożenie, odroczenie tego problemu,
który za jakiś czas wyjdzie
i ten problem
niekoniecznie wyjdzie właśnie ze stajni Eleven Labs,
którzy po prostu są pierwsi, bo oni
stworzyli takie narzędzie, które jest proste
i które umożliwia zrobienie
czegoś takiego, umożliwia sklonowanie dowolnego głosu
takiej postaci realnie brzmiącej,
ale skoro ktoś jeden już to zrobił,
to naśladowców będzie wielu, tym bardziej
że jest to coś, co
budzi zainteresowanie.
Któżby nie chciał mieć możliwości
udawania dowolnego głosu
i mówienia tym głosem
czegokolwiek bądź. Wielu jest takich zapewne.
I to po prostu ok,
teraz udało się jak na razie ten problem
załagodzić, te sytuacje załagodzić,
ale to jest tylko kwestia taka na przeczekanie.
Bo póki co to były osoby, które po prostu
może złośliwie, może mniej, ale osoby prywatne
gdzieś z internetu, które postanowiły
się pobawić. A co jeśli zainteresują się tym
rządy państw?
Rządy państw albo jakieś na przykład
różne partie polityczne,
różni spin doktorzy, tacy, którzy
po prostu będą celowo chcieli komuś zaszkodzić,
zniszczyć czyjąś reputację.
No to myślę, że wtedy
nie będzie to już robione
na silniku Eleven Labs, tylko za jakiś czas
po prostu gdzieś tam powstaną takie systemy,
do których my niekoniecznie będziemy mogli mieć dostęp
przynajmniej tak od razu, ale po prostu ktoś będzie,
jeżeli komuś będzie zależało na stworzeniu
takich głosowych fałszywek, wystarczy, że
zaopatrzy się w odpowiednią technologię,
nową infrastrukturę, co często nie będzie
problemem, no bo problemy mogą stanowić tylko
finanse, a jeżeli komuś będzie naprawdę mocno zależało
na tym, żeby komuś zaszkodzić, to będzie na to go stać.
Więc to po prostu jest
kolejna rzecz po
różnych filmach z żółtymi napisami
na YouTubie,
na którą warto być
wyczulonym i jak kiedyś
było nie wiesz we wszystko, co czytasz,
to teraz nie wiesz we wszystko,
co słyszysz i w każdego,
kogo słyszysz i niekoniecznie zakładaj, że ten głos,
który słyszysz, to jest tak naprawdę faktycznie
jego głos. Chociaż podejrzewam, że
za jakiś czas, bo teraz już pojawiają się narzędzia,
dzięki którym można na przykład
wykryć, czy dany tekst został stworzony
przez sztuczną inteligencję, już są różne takie,
to teraz będzie można pewnie
za jakiś czas sprawdzić, czy dany głos
to jest fałszywka czy nie.
No i będzie pewnie to go nie trwa, taka mykotka i myszkę,
bo znowu powstanie narzędzie, to powstanie obejście tego narzędzia
i żeby je wykiwać
i potem znowu powstanie jeszcze lepsze narzędzie.
Zatunkiem tutaj pewnie byłoby jakieś umówienie się
albo prawne obwarowanie tego typu inicjatyw, żeby
w ramach nawet jakiegoś poczucia etyki i moralności
w jakiś sposób kodować
w jakichś metadanych, czy w czymś,
że taki głos, czy to nagranie
pochodzi z tego, czy innego narzędzia.
No ale czy wszyscy będą się stosować, można pomarzyć.
Z pewnością nie, to tak samo jak
jest z bronią.
Teoretycznie u nas trzeba mieć pozwolenie na broń,
ale osoby, które chcą
jej użyć w jakichś niestnych celach, to jest akurat
najmniejszy z ich problemów
i najmniejsze czym się gdzieś tam przejmują.
Niestety tak to będzie wyglądało
i na to po prostu trzeba być wyczulonym.
Pocieszające jest to w tym wszystkim,
że my mamy trochę większe predyspozycje
do odróżniania takich fałszywek,
bo my jednak z tą syntezą mowy mamy
do czynienia częściej niż
statystyczny użytkownik internetu.
To też, ale też my zwracamy uwagę na dużo.
Różne są osoby, oczywiście są ludzie, którzy słyszą lepiej, słyszą gorzej,
ale my jesteśmy też przyzwyczajeni do wysłukiwania
różnych charakterystyk. Oczywiście zależy od tego,
czy nawet narzędzia powstaną.
Ten Wiedźmin, którego słuchaliśmy ostatnio,
ten głos czytający Wiedźmina,
to ja już bym miał na przykład poważne wątpliwości,
czy to jest synteza, czy to jest człowiek.
Żeby dobrze znać ten system i wiedzieć, gdzie on się wysypuje.
Dokładnie.
Może kiedyś będziemy od tego ekspertami.
Pozytywna prognoza na przyszłość.
Kto wie, kto wie. Czas pokaże.
A tymczasem przechodzimy do
kolejnego tematu.
Teraz już przechodzimy do informacji
bieżących, a na dobry początek garść
drobnych różnych informacji, które przygotował
no, któż by zgadł, Paweł oczywiście.
No nie ma Mikołaja, więc jakby to nie ma…
Dokładnie. Tak jest.
Więc jakie mamy nowe wieści? Wieści mamy następujące.
Ponoć w anglojęzycznych
na razie krajach, czyli potwierdzenie jest ze Stanów,
potwierdzenie jest, bo to Blind Shell USA pierwsze podało
ten komunikat i też już słyszałem o Australii.
W Polsce ponoć jeszcze nie kontaktowałem się
z Darkiem i jeszcze tego nie było
przynajmniej początkiem tygodnia.
Na Blind Shellu pojawiła się aplikacja Zoom.
No i byłaby to super wieść, bo nareszcie
użytkownicy tego sprzętu
mogliby bezpośrednio, bez potrzeby korzystania z numerów telefonu
dzwonić do nas na audycję, więc jeżeli
coś się zmieniło w tej kwestii i słuchacie nas
z Blind Shella albo z innego urządzenia, a posiadacie Blind Shella,
to możecie zadzwonić, bo jestem ciekaw, ja osobiście
Michał pewnie też, jak to brzmi. Ja bardzo. Czy tam się
oryginalny dźwięk da włączyć? To jest podstawowe moje pytanie.
Z tego, co David Woodbridge opowiadał w swoim
potekaście w Vision Australia,
ta aplikacja jest ponoć bardzo podobna do tej aplikacji,
którą my znamy ze smartfonów, czy iOS-owych, czy Android-owych,
ale też jest bardzo prosta, więc nie wiem, czy tu jest po prostu
jakaś adaptacja tej oryginalnej aplikacji,
czy też powstała jakaś wersja specjalna,
w co byłoby mi trochę ciężko uwierzyć, wymagałoby to chyba
jakiegoś naprawdę mocnego partnerstwa
Blind Shellem a Zoomem? To znaczy Zoom chyba
ma możliwość udostępnienia jakiegoś takiego swojego
silnika,
bo przecież te urządzenia różne
mają możliwość łączenia się z Zoomem,
sprzętowe, są jakieś sprzętowe
urządzenia, które wspierają, ale bardziej właśnie
te Zoom Rooms, to się wtedy nazywa,
tego trochę jest, a same spotkania
jako takie, no to jest ciekawa sprawa.
Tak, więc jeżeli
używa się Blind Shella i pojawił się u was Zoom, to podzielcie się wrażeniami,
a jeśli nie, to będziemy musieli widocznie jeszcze trochę poczekać.
No z tego co mówił David, on
co prawda tych aplikacji poinstalował dużo na tym Blind Shellu,
ale Zoom wymagał na tyle miejsca,
że trzeba było usunąć z 10 aplikacji.
Więc aplikacja jest chyba jedną z tych większych, tak by się wydawało.
No więc prawdopodobnie niestety
będzie to jakaś adaptacja, mówię niestety, bo te aplikacje
tych dużych firm są dość duże już teraz też,
duża firma to i duża aplikacja na smartfonie,
Facebook, no i
pewnie jest to jakaś adaptacja aplikacji Zoom na Androida
tylko w wersji na Blind Shella, tak żeby się dało nawigować klawiaturą,
no ale to dobrze, bo na Zoomie się odbywa wiele spotkań,
więc tutaj użytkownicy Blind Shella poszkodowani już nie będą.
Po drugie,
One Password,
aplikacja dość znana jako manager haseł,
płatny z dużą ilością funkcji,
w wersji na iOSa ma zapowiedzianą
w najbliższym czasie dużą aktualizację
z wieloma zmianami, w tym też poprawa dostępności.
No i super, bo tu zdaje się, że były ostatnio
jakieś narzekania na to,
że w tej wersji chyba ósmej się dość mocno pogorszyła
ta dostępność, więc dobrze, że tutaj firma
takie rzeczy zapowiada.
Po trzecie, Google zaczyna wydawać kwartalny newsletter
na temat dostępności, więc jeżeli byście chcieli być na bieżąco
z tym, co w dostępności w Google się dzieje,
jeżeli chcielibyście wiedzieć jakie webinaria są oferowane,
jakieś warsztaty, nowości w produktach,
dobre praktyki, to możecie taki newsletter subskrybować,
link, żeby się do niego zapisać,
będzie podany w komentarzu.
Po czwarte, jest problem z Thunderbirdem
i to już od jakiegoś czasu jest zgłaszane,
że nie da się logować na konta nowe.
Ja słyszałem o tym w kontekście Microsoft 365,
natomiast ponoć z Gmailem jest podobnie,
jeżeli chcemy zalogować nowe konto.
W teraz tych nowych wersjach Thunderbirda, które wychodzą,
chyba już od jakiegoś czasu się to dzieje też
i dopiero teraz Roberto, nasz słuchacz, przywołał moją uwagę do tego problemu,
to zamiast otwierać, tak jak to kiedyś było,
przeglądarkę, żeby się zalogować na takie konto Google
i udzielić zgody Thunderbirdowi na dostęp,
no to teraz wyświetla się taka przeglądarka
wewnątrz Thunderbirda
i niestety widok ten jest niedostępny,
słyszymy, nieznane, nieznane, nieznane.
To ona była już jakiś czas temu,
ja ją kojarzę, ale ona była właśnie dostępna.
A widzisz, a teraz coś się zastało,
że ona ponoć dostępna nie jest, chyba że to przypadek jednostkowy,
ale zdaje się, że nie, bo Robert też komuś pomagał.
Ja się zdziwiłem kiedyś, bo ja tak,
ja Thunderbirda generalnie nie korzystam,
ale kiedyś gdzieś tam przy jakiejś okazji się bawiłem
i no ustawiałem sobie go,
tak przeróżne opcje tam włączałem i się zdziwiłem
o co chodzi, czemu na przykład dostęp do konta Google
nie chce być mi przyznany,
to taka ciekawostka na marginesie,
jak wyłączymy sobie w Thunderbirdzie obsługę plików cookie,
to takie rzeczy się dzieją, także jakbyście chcieli
tak bardzo prywatnościowo sobie to wszystko poustawiać,
to nie przesadzajcie z tymi ciasteczkami,
bo wtedy się okaże, że się na konto Google
nie możecie zalogować.
No i jest opcja, żeby to obejść,
oczywiście można klikać OCR,
no nie jest to wygodne i nie jest to idealne,
wszystkie dane są wpisywane po prostu bez jakiejkolwiek kontroli
nad tym co wpisujemy,
no ale komuś ponoć się udało tak zalogować,
legendy głoszą, więc no,
warto zgłaszać gdzieś też na forum Thunderbirda,
że problem istnieje.
Wyszła nowa wersja Dolphin Guide Connect,
program, który ułatwia korzystanie z komputera,
on z tego co pamiętam też jest w wersji polskiej jakoś dostępny,
chyba, jeśli się nie mylę,
aczkolwiek patrzę tu na listę języków wspieranych
i nie wydaje się, żeby był,
ale mimo to myślę, że można tutaj zgłosić,
że jest nowość, jaką jest nowy czytnik PDFów,
opcja tworzenia grup mailowych,
czyli grup, aby wysyłać maile do wielu osób naraz
i czytnik RSSów,
no i też w wersji premium, we wszystkich językach,
w których jest to wspierane teraz,
jest dyktowanie głosowe
i można pisać też maile i wyszukiwać w Google
za pomocą głosu, więc jeżeli gdzieś tam
ktoś korzysta z Guide Connecta, to jest.
No i trochę takich smutnych wieści,
bo niestety ostatnim czasie zmarło dość wiele osób
i w Polsce i za granicą, które w jakiś sposób
dla środowiska osób niewidomych były ważne.
No jeżeli chodzi o Polskę,
to na pewno zmarł Jarosław Gniatkowski.
Ja nie znałem nigdy tego pana.
Jedynie co kojarzę goło, to są bardzo, bardzo początki
mojej bytności na Tyflosie
i jeżeli dobrze kojarzę, Michale popraw mnie, jeśli się mylę,
to właśnie z inicjatywy Jarosława Gniatkowskiego
były nakładki wyborcze konsultowane,
te, który z tymi dzisiaj się posługujemy.
Jeżeli coś pokręciłem, to przepraszam.
Jak dobrze pamiętam, to tak, to znaczy
on i Jacek Zadrożny, oni intensywnie tam działali.
Jeżeli chodzi o Jarka,
no to my mieliśmy okazję się usłyszeć.
Jeżeli chcecie sobie przypomnieć głos
Jarka Gniatkowskiego, to posłuchajcie sobie
materiału o niewidzialnej wystawie.
Tam pojawia się właśnie Małgosia Szumowska
i jest też Jarek, który opowiada,
więc jeżeli chcecie usłyszeć Jarka Gniatkowskiego,
to właśnie tam.
Tak, też taki trochę mój osobisty smutny news,
bo zmarł pan niegdyś europoseł,
a teraz senator Marek Plura.
Gdyby nie on, to nie miałbym możliwości
po raz pierwszy zakosztować, czym jest
Parlament Europejski, chociaż przez miesiąc w Brukseli,
więc dziękujemy panom za wszystko
i do widzenia.
Tak naprawdę straszna szkoda.
Natomiast jeśli chodzi o zagranicę, to też zmarł
John Boyer, czyli twórca oryginalny
programu LiBlui, z którego teraz
korzysta większość screen readerów, żeby oferować tablice Brajlowskie.
On też się bardzo przysłużył gdzieś w adaptacji
literatury i materiałów w naukach ścisłych.
Matematyka, gdzieś tam informatyka,
chemia, fizyka bardzo też pomógł społeczności
osób głucho niewidomych, anglojęzycznej.
No więc takie smutne wieści też
czasem przekazujemy.
Tak, coraz więcej różnych nazwisk.
To jest zawsze takie przykre, szczególnie
jak się pojawiają takie nazwiska, chociażby właśnie
jak w przypadku Jarka Gniatkowskiego,
to jest osoba, z którą gdzieś tam
jednak te nasze drogi się przetarły, tak?
Skrzyżowały, gdzie
słyszysz, że ze świata znika ktoś,
kogo w takim czy innym stopniu znasz,
to tym bardziej. Albo kogo praca wpływa na to,
co masz, bo to jest też, przypomina nam to myślę,
że to, co my dziś mamy, to my tego nie dostaliśmy
za pstryknięciem palca i to nam też nie spadło z nieba,
nie wzięło się znikąd i to ważne, żeby podkreślić,
że bardzo często nie wzięło się to z dobrej woli
osób pełnosprawnych, które wpadły na pomysł,
że może nam jakoś życie ułatwić,
tylko z naszej własnej determinacji
i z naszej własnej pracy, gdzie wołaliśmy,
krzyczeliśmy czasem, czy inni krzyczeli,
bo to mówimy teraz o osobach, które gdzieś tam
przeminęły.
Natomiast
my do dziś tego korzystamy i to jest taka fajna przypominajka,
że coś, co jest nam raz dane, nie jest nam dane na zawsze,
więc nawet jeżeli coś mamy i wydaje się, że to jest
i będzie i to już jest taki nasz przywilej, to
nigdy nie wiadomo, kto kiedyś po to wyciągnie ręce
i może to będziemy my następni w kolejce,
żeby krzyczeć i tego bronić.
Zgadza się. A teraz przechodzimy do kolejnej informacji,
na którą natrafiłem zupełnie przypadkiem,
aczkolwiek nie jest to żadna techniczna ciekawostka,
bardziej ciekawostka medyczna.
Czy Ty, Pawle, kiedyś słyszałeś o czymś takim, co się nazywa zespół Antona?
Nie, znaczy dopóki nie zacząłeś się chyba ty
tematem interesować albo gdzieś indziej mi to mignęło,
to nie, nie słyszałem o tym.
Opowiedz, co to jest, bo ja chyba słyszałem
o zjawisku w pewien sposób odwrotnym, odwróconym,
czyli o osobach transprawnych, ale to za chwileczkę,
bardziej społeczne chyba zjawisko, na ile niszowe,
ciężko powiedzieć, ale motyw się przewinął.
Tak, ja osobiście nie znam nikogo, kto by
był dotknięty tą przypadłością
właśnie zespołem Antona, natomiast
jest to zjawisko dosyć ciekawe.
To jest jedna, jak podeje Wikipedia,
z tak zwanych anosognozji,
a anosognozja jest to brak świadomości własnej choroby.
I rzeczywiście ten zespół
polega na tym, że po prostu
my tak naprawdę, czy osoby, które
na to cierpią, nie zdają sobie sprawę,
że są niewidomi, czyli po prostu
nie dopuszczają do siebie tej myśli,
myślą cały czas, że są
w pełni sprawne, że posługują się wzrokiem,
że to, że nie widzą, to ma
jakąś zupełnie inną przyczynę, na przykład
wyczytałem gdzieś tam w jakiejś literaturze, że
jedna z osób właśnie
cierpiąca na zespół Antona
to myślała, że jest w jakimś bunkrze,
że jest w jakimś bunkrze, że jest tam ciemno
i że dlatego po prostu nie jest w stanie nic zobaczyć, ale że przecież
oczy ma w pełni sprawne i wszystko jest okej
i rzeczywiście oczy w tym
miejscu są w pełni sprawne. To jest akurat racja.
Pierwsze wzmianki na temat
zespół Antona pojawiły się pod koniec
XIX wieku, a
co właściwie sprawia, że coś takiego dzieje się
z naszym organizmem? Winne jest
zazwyczaj uszkodzenie kory wzrokowej
i to w różnych przypadkach
się to dzieje, nie mam na tyle tutaj
jakiegoś podbudowania
medycznego, żeby powiedzieć Wam w jakich
przypadkach ma miejsce uszkodzenie takiej kory,
natomiast w przypadku,
gdy ta kora zostaje uszkodzona, a nerwy wzrokowe
i same oczy funkcjonują prawidłowo.
To właśnie wtedy mamy z czymś takim
do czynienia. A dlaczego
zespół Antona? Otóż pierwszy raz o tej
chorobie napisał austriacki lekarz
Gabriel Anton w
1899 roku
i właśnie na cześć jego nazwiska
zostało to uhonorowane właśnie taką,
a nie inną nazwą. Jest to, podejrzewam, że
dosyć rzadka sytuacja i podejrzewam
przede wszystkim też, że dotyka to osób ociemniałych.
Raczej nie sądzę, żeby… Właśnie się zastanawiałem,
bo to jest bardziej, jak rozumiem, przypadłość medyczna,
nie psychologiczna, czy tam psychiczna, tak?
Tak, chociaż ten pan, który jest,
który określił właśnie ten zespół,
on był psychiatrą, ale też miał coś wspólnego z neurologią.
Okej, czyli jakby tam rzeczywiście coś,
to nie jest tylko kwestia postrzegania.
Nie, to nie jest kwestia postrzegania, to nie jest kwestia postrzegania,
że po prostu my tak bardzo to wypieramy.
To jest wątne uszkodzenie w naszym mózgu,
tylko właśnie tego obszaru odpowiedzialnego
za przetwarzanie tych bodźców wzrokowych,
gdzie oczy nasze funkcjonują prawidłowo,
nie mamy problemu z tym, żeby
odpowiednio nimi czy poruszać,
czy po prostu wykorzystywać je tak,
jak działo się to do tej pory. Nerwy wzrokowe
też przewodzą te impulsy,
które odbijają się od ściany, bo ta kora wzrokowa
po prostu jest niesprawda.
No to znowu trans sprawność trochę w drugą stronę działa,
przy czym mówię, gdzieś mi kiedyś mignął artykuł, więc nie mam pojęcia,
czy rzeczywiście jest to jakaś niepołeczność,
jest to jakaś grupa społeczna,
które identyfikują się
osobami pełnosprawnymi, identyfikują się jako niepełnosprawni,
mają takie poczucie,
że nie powinien któryś z narządów
w nie działać.
Pawle, mamy zdaje się jakiś problem z łączem chwilowy,
więc miejmy nadzieję…
Czy teraz się słyszymy?
No właśnie, przez chwilę się nie słyszeliśmy,
mieliśmy jakiś mały problem z internetem,
więc gdybyś mógł powtórzyć jeszcze raz.
Chodzi o to, że gdzieś znowu temat, który mi się przywinął
z internet, więc pytanie, na ile to jest miejska legenda,
a na ile grupa społeczna, która istnieje
i w jaki sposób funkcjonuje, czyli osoby,
rozumiem, że to jest kwestia
społeczna, identyfikują i żyją w przekonaniu,
może dochodzą do jakichś czynników psychofizycznych,
w przekonaniu, że któryś z narządów jej ciała
nie powinien funkcjonować, czyli jest osobą pełnosprawną
fizycznie, ale czuje, że powinna być niepełnosprawna.
A to też jest dosyć ciekawe.
I z czego to wynika?
I to jest ciekawe, nie znam takich osób
osobiście ani nie słyszałem, nawet nie wiem, żebym czytał jakąś
literaturę przez nich tworzoną, czy jakieś blogi,
czy słyszał o jakiejś ich reprezentacji.
Jedynie mi to mignęło jako ciekawostka już dawno, dawno temu,
więc może się okazać, że to miejska legenda,
ale może znacie, może wiecie, to możecie się podzielić.
Zaglądamy do
wypowiedzi waszych
i tymczasem mamy na naszym panelu kontaktowym
informacje od Roberta.
Cześć, nie zauważyłem,
czy wspominaliście, jak można na razie
przejść przez tę przeglądarkę w Thunderbirdzie.
Jeśli zmaksymalizujemy okno,
NVIDIA OCR wszystko nam
odczyta, wtedy klikamy
lewym przyciskiem myszki w pole hasła,
wpisujemy i naciskamy enter.
Chyba, że pojawi się kolejne okno z pytaniem,
czy chcemy zostać zalogowani, to wtedy znowu maksymalizujemy,
rozpoznajemy i myszką klikamy
tak. Ja bym pewnie nie zwrócił na to uwagi w takim
stopniu, ale nie wiedziałem o tym maksymalizowaniu
okna, a bez tego OCR nie rozpozna
nic. Jeżeli chodzi w ogóle
o OCR, to ja też
zwróciłbym uwagę
na inny jeszcze aspekt,
ale to no szczególnie ja
dosyć to odczuwam, niekiedy boleśnie
ze względu na mój system pracy.
Mianowicie pamiętajcie, że jeżeli korzystacie z
OCR, to oprócz tego, że sobie to okno gdzieś tam
maksymalizujecie, to dobrze jest
nie mieć otwartych zbyt wielu innych okien,
bo nawet przynajmniej tak z moich obserwacji wynika.
Nawet jeżeli to okno jest zmaksymalizowane, to czasem
bywa tak, że jakaś inna
aplikacja swoim oknem
nam to maksymalizowane okno mimo wszystko
przesłania i wtedy NVIDIA OCR
czy jakikolwiek inny OCR nie chce z tym
za bardzo współpracować, no szczególnie jak mamy
jakiegoś tam przykład Winampa otwartego,
czy jakieś inne
aplikacje, które mają
na przykład jakiś różnych kilka okienek.
Z tym się już parę razy spotkałem, dlatego też zwracam na to
uwagę, że lepiej jeżeli korzystamy z OCR i zależy
nam na miarodajnych wynikach i na tym, żeby się
nie denerwować, to żeby po prostu sobie pozostałe aplikacje
wtedy pozamykać, mieć w miarę czysto
na pasku zadań i wtedy efekty będą
z pewnością lepsze.
A teraz przechodzimy do kolejnych
tematów, mianowicie
będzie o serwisach wideo
i o tym jak sobie ułatwić z nich korzystanie. O tym teraz Paweł.
Tak i w kilku aspektach
będziemy sobie ułatwiać to życie, bo zarówno jako
konsumenci tych treści, osoby, które oglądają
bardziej transmisje, filmiki, filmy,
też seriale, ale z drugiej strony jako osoby,
które chcą takie treści tworzyć, bo okazuje się, że
da się to zrobić, nie jest to proste.
Ty Michale, chyba coś o tym wiesz, bo OBSa
Open Broadcasting Studio sobie ustawiałeś pod kątem tego, żebyśmy mogli
być dla was tutaj na Facebooku, na YouTubie.
Tak jest, aczkolwiek grafik sam
nie robiłem tu podziękowania dla Patryka Deringa
i jego ekipy, bo to dzięki nim
mamy te grafiki. Jakbym je sam robił,
to pewnie byłyby znacznie gorsze.
Ja też bym się takiego zadania pewnie nie podjął
i tak też radzi Ross Minor,
czyli autor poradnika,
bo mamy poradnik dla początkujących
streamerów niewidomych na Twitchu.
Co z poradnika wynika? Jest to możliwe. Osoby niewidome
streamują na Twitchu różne rzeczy
i to ja mogę potwierdzić, bo wiem o niektórych
z was, ale nie tylko, za granicą też dużo osób
streamuje gry, niektórzy streamują muzykę,
DJ-kę na przykład, albo po prostu granie sobie
na jakichś instrumentach.
Streamować można najróżniejsze rzeczy,
więc jeżeli chcielibyście się dzielić ze światem
co robicie i co uważacie, że warto prezentować na żywo,
no to da się, jest to możliwe.
Czy jest to proste? No nie.
Cokolwiek profesjonalnego, za co się bierzemy,
zawsze jest to obwarowane jakimiś specjalnymi
uwarunkowaniami dostępności
i jej braku i tymże z natury
wiele rzeczy jest po prostu wizualnych.
Ale możemy sobie poradzić.
Przecież od tego, że Open Broadcasting Studio
jest programem dostępnym, ta dostępność z tego co ja rozumiem
się z wersji na wersję też jakoś poprawia,
pewne sugestie są brane pod uwagę,
kiedyś nawet jakiś dodatek do NVIDIA gdzieś krążył do obsługi OBS-a
no i ogólnie da się go ustawić.
Największym problemem są te sceny,
czyli jakby całość graficzny,
graficzny wygląd tego jak wyglądamy w sieci.
No bo na takiej scenie możemy ustawić
statyczny obraz,
możemy pokazać nasz ekran z komputera,
co ma jakiś sens jak na przykład gramy w gry
albo demonstrujemy jakieś aplikacje.
Możemy pokazać naszą własną twarz,
co jest nawet spodziewane w wielu sytuacjach.
Możemy na to też nałożyć jakieś efekty,
jakieś green screeny, jakieś powiedzmy maski,
jeżeli chcemy pokazywać swojej twarzy,
wiele osób występuje pod maską, pod jakimś awatarem.
Jakieś obramowanie ładne,
na tym obramowaniu mogą się wyświetlać najróżniejsze rzeczy,
jakieś komentarze, donaty, kto nam wpłacił ile na te nasze streamy,
jakieś inne dodatkowe informacje
i to wszystko można sobie zaprojektować.
Natomiast to jest ta część, w której będziemy potrzebowali
najbardziej pomocy osoby widzącej,
żeby taka osoba widząca będzie w stanie tak ostatecznie
ocenić ten całokształt tego,
jak takie obramowanie wygląda.
Tak, bo ta scena może składać się z kilku elementów.
Do tej sceny dodajemy sobie różne źródła,
czyli tam możemy dodać właśnie tak, jak u nas na przykład jest.
U nas jest to po prostu tak zwany pokaz slajdów,
czyli mamy sobie graficzki, które sobie chodzą w pętli
i to jest tak naprawdę tyle.
I do tej sceny można by oczywiście dodać jeszcze jakiś na przykład
podgląd ekranu, jakieś komentarze,
inne rzeczy tego typu, natomiast
to już jeżeli chcielibyśmy to jakoś odpowiednio zaprojektować,
żeby to było odpowiednio rozłożone,
no to trzeba by było poprosić o pomoc kogoś,
kto by nam to ogarnął.
Natomiast kiedy już to mamy jakoś opanowane,
no to w zależności od tego, co chcemy robić,
możemy w zasadzie ruszać. Tam oczywiście jest kwestia podpięcia źródeł,
czy to będzie Twitch, czy to będzie wiadomo
Facebook, YouTube.
Platform jest teraz mnóstwo, na których można
transmitować, więc…
Aczkolwiek to już nie jest problemem.
To już nie jest problemem, przynajmniej nie jest wielkim problemem,
bo te wszystkie interfejsy, to też trzeba wiedzieć,
jak tam co działa w różnych
serwisach streamingowych, różnie to się uruchamia.
Na przykład na YouTubie,
kiedy rozpoczynamy nadawanie, to nadajemy
od razu, na Facebooku
trzeba tam jeszcze kliknąć, guziczek odpowiedni,
żebyśmy nadawać. Zaczęli, mimo tego, że jesteśmy podłączeni,
więc no to już trzeba po prostu poznać
troszeczkę ten nasz serwis,
na który nadajemy. I jeszcze jedna
rzecz, a propos OBSa.
OBS nie pozwala
jednocześnie nadawać na więcej
niż jeden serwis.
Więc jeżeli na przykład my nadajemy
w tym momencie na YouTube’a
i na Facebooka, to ja mam uruchomione
dwa OBSy. Dwa OBSy
z uruchomionymi równolegle profilami,
ale kiedy ja uruchamiam tego drugiego OBSa,
dostaję ostrzeżenie, OBS już jest uruchomiony,
czy ty na pewno wiesz, co robisz i czy chcesz uruchomić drugi raz
tego OBSa. No wiem, co robię, chcę uruchomić,
ale wtedy muszę pamiętać, żeby przełączyć tam sobie w tym drugim OBSie
ten profil i żeby to dopiero wszystko zaczęło
działać, więc no to też
nie jest bez znaczenia dla naszego komputera, który
musi być dosyć wydajny.
No ja ostatnio byłem
w mieszkaniu osoby, którą znam,
osoby niewidomej, która streamuje na Twitchu
i pokazywał
mi on właśnie, jak ma skonstruowany ten swój
warsztat pracy i to jest na pewno
dużo roboty i tam na pewno ktoś też pomagał widzący, bo to jest
tak pieczołowicie przygotowane, gdzie ustawiona jest
kamera, jak on ma w tą kamerę gdzieś tam patrzeć, że za sobą
ma rozwijany z góry gdzieś tam green screen, żeby
nie było widać całego pokoju i co ma za sobą, tylko
w zasadzie no jego i na tym green screenie, czyli
taki zielony ekran, jakby taki kawałek.
Taka płachta, trochę tak jakby na projektorze, jak ekran
dla projektora, jeżeli kiedyś coś puszczaliście z projektora,
na którym może być coś narysowane, jakieś kwiatowe wzory,
jakieś, on się nazywa green screen, no bo zielony kolor
w jakiś sposób tam eliminuje
czy wpływa na to, że po prostu tamto tło
jakoś się bardziej zlewa.
Musiałby wyjaśnić ktoś, kto rzeczywiście z tym dość dużo działa.
Natomiast to nie musi być nudny zielony czy tam jakikolwiek
kolor, tam mogą być różne
jakieś wzorki, żeby ludzie mogli popatrzeć na coś, może być
falujące morze na przykład albo inne jakieś tam wzory.
Oczywiście tyle rzeczy, ile poustawianych, no bo każdy ma jakiś swój
styl pracy. Jak ktoś będzie grał w gry,
no to pewnie różne tam pomapowane rzeczy
na klawiaturze gamingowej pewnie najlepiej
czy na padzie. Jak ktoś DJ-uje,
no to tyle rzeczy, ile można na kontrolerach gdzieś tam pomapowane.
Bardzo, bardzo skomplikowany setup,
no ale oczywiście pokój
mocno, mocno zaciemniony
i gdzieś tam podświetlany to jest chyba jakimiś, nie wiem czy zewnętrznymi lampami,
teraz w tym momencie naprawdę nie pamiętam.
Jest to dużo pracy,
na pewno jeżeli ktoś chce to robić profesjonalnie, na takim poziomie,
żeby z tego żyć, żeby po prostu się z tego utrzymywać.
Ale jest to możliwe i
jak najbardziej wykonalne.
O czym jeszcze warto pamiętać? No jakoś trzeba byłoby
oprócz tego, że dostarczamy jakieś fajne treści
i ludzie to lubią, wchodzić z tymi ludźmi w interakcje.
No i w to zlicza się też
czytanie czata.
No i jak tego czata można czytać?
No zasadniczo można normalnie na stronie
i są wtyczki, które nam to ułatwiają,
bo okazuje się, że na przykład taki Twitch,
jak teraz widzę YouTube Chat również,
pozwala na to, żeby ludzie dodawali sobie jakieś swoje emoji,
jakieś rangi, że ktoś jest tam jakimś super donatorem,
ktoś jest jakimś tam moderatorem, a ktoś jest tam stałym naszym widzem,
tu jakieś emoji z kotkiem, tu coś, jakieś tam plakietki,
jakieś rangi, to wszystko jest czytane
i to nas tak bardzo spowalnia, jak my pracujemy z syntezą,
że no niestety trzeba się tego pozbyć,
żeby płynnie tego czata czytać.
No i jest do tego dodatek
dla przeglądarek, który pozwala te rzeczy wyciąć,
ale są też różne inne rozwiązania.
Może jak oglądacie troszkę częściej
różnego rodzaju streamy,
to zauważyliście, że bardzo często twórczynie
czy twórcy stosują coś takiego,
że oni sobie tworzą, coś tam mówią,
coś tam prowadzą ten swój stream,
a my w tle słyszymy nagle jakieś dźwięki
i Iwona albo Microsoft Paulina czyta tam
ha, ha, ha, fajny stream, dzięki, pięć złotych.
No i okazuje się, że do tego są całe programy,
które pozwalają na obsługę tego wszystkiego,
zarówno na te efekty dźwiękowe,
jak i na czytanie właśnie różnych komunikatów
z syntezą mowy.
No i takim programem jest Streamlabs, który jakoś dostępny jest,
ale ponoć gorzej od drugiego rozwiązania,
o którym powiem zaraz, natomiast łatwiejszy jest w konfiguracji,
bo tam już pewne rzeczy są tak wstępnie zrobione
i są przygotowane na pewne trochę takie oczywiste
i bardzo przewidywalne wydarzenia,
natomiast taką swego rodzaju Mirandą tego typu rozwiązań
jest rozwiązanie Firebot.
I to jest rozwiązanie, które właśnie
jest bardziej dostępne, ponoć,
natomiast wymaga tego, żeby ustawić je kompletnie od zera,
trochę jak Mirandę, czyli pokojarzyć różne wydarzenia
z różnymi dźwiękami i z różnymi komunikatami
syntezy mowy i to, jaka to synteza mowy ma być,
czy SAPI, czy jakaś online, jak mamy klucz API
do jakiegoś Microsoftu, czy Amazonu, czy innej syntezy w chmurze,
bo takie chyba też są.
No i w ten sposób możemy,
no nie dość, że sami mieć kontrolę nad tym, co się dzieje,
to jeszcze możemy transmitować to na żywo,
żeby właśnie było to częścią, bo niektórzy tego używają,
było to częścią naszego kontentu, tego, co tworzymy.
Jest też rozwiązanie Nightbot,
które pozwala na moderację, bo oczywiście moderować
jakoś tymi naszymi dyskusjami też powinniśmy,
bo naiwnym jest zakładanie, że wszyscy,
zwłaszcza jeżeli zyskaliśmy już jakąś popularność,
że wszyscy nasi widzowie będą się zachowywać
zgodnie z zasadami kultury osobistej
i ogólnie przyjętymi społecznymi, więc czasem warto zainterweniować.
No i do tego jest rozwiązanie Nightbot,
które pozwala gdzieś tam, wpina się jako bot do naszego,
zwłaszcza Twitcha i pozwala nam tam sterować tym, co się dzieje.
No i do tych różnych rozwiązań,
zwłaszcza do Firebota jest zaproponowana już konkretna konfiguracja,
żeby różne wydarzenia były czytane
i tą konfigurację można pobrać.
Link do artykułu Rosa Minora
będzie podany oczywiście w komentarzach.
No ale są też inne rozwiązania, które mogą się nam przydać,
no albo jeżeli rzeczywiście zarządzamy jakimś czatem i tworzymy treści,
albo jeżeli też te treści oglądamy i sami w takim czacie uczestniczymy.
Bardzo fajny programik się objawił, produkcji brazylijskiej,
programik o nazwie Vtube.
I programik ten jest otwarty, jest na GitHubie,
można go za darmo sobie tam pobrać
i on pozwala nam na śledzenie czata
w dowolnym streamie Twitchowym lub YouTubowym
za pomocą ukrytego interfejsu,
czyli my wrzucamy link do streama
i odpala nam się w tym momencie czat.
Mamy albo takie tradycyjne playlisty,
na które możemy po tych wiadomościach gdzieś tam przeskakiwać,
możemy je sobie zapisać wszystkie do pliku na później,
możemy sobie dodać też taki stream do ulubionych,
żeby móc go w przyszłości łatwiej wywołać,
albo możemy tą aplikację zminimalizować
i śledzić tego czata za pomocą skrótów klawiszowych
i tak Shift-Alt góra-dół pozwala nam się przemieszczać między wiadomościami,
Shift-Alt lewo-prawo między różnymi transmisjami.
No i oczywiście możemy sobie wybrać,
czy chcemy, jakie wydarzenia mają być podawane,
czy jeżeli ktoś wrzuci wpłatę, jeżeli wpłaci coś na streama,
czy jeżeli napisze wiadomość, tak po prostu,
czy jeżeli odezwie się moderator, czy jeżeli odezwie się sam streamujący.
Różne opcje konfiguracji tam są,
zarówno do dźwięków, jak i do automatycznie odczytywanych zdarzeń.
Aplikacja nie jest w pełni przetłumaczona,
ona tam po części jeszcze jest tam po portugalsku,
mi się odpaliła w ogóle domyślnie po hiszpańsku,
natomiast w większości znakomite jest już po angielsku.
No i myślę, że jeżeli często oglądacie jakieś transmisje na żywo,
czy na YouTubie, czy na Twitchu,
a to nie muszą być jakieś bardzo rozrywkowe rzeczy,
bo mogą to być zwykłe na przykład webinaria,
to myślę, że warto się w taką aplikację wyposażyć,
możecie nawet przetestować na naszej transmisji,
bo przecież czat na naszej transmisji YouTubowej jak najbardziej działa.
Jest dostępny, co prawda bardziej piszecie na Facebooku,
zauważyłem, ale możecie pisać też na YouTubie.
Ja co prawda przeglądam to na razie w ten sposób,
że mam po prostu otwarte karty w przeglądarce,
ale powiedzmy sobie szczerze,
natężenie ruchu waszych komentarzy nie jest jakieś bardzo duże.
Tak, a więc może dzięki aplikacji Vtube
przekonacie się do komentowania też na YouTubie, kto wie.
Natomiast jeśli już mowa o YouTubie i o innych serwisach wideo,
to warto też wspomnieć o dodatku ciekawym do NVDA, który się ukazał,
czyli Subtitle Reader,
dodatek, który pozwala na czytanie napisów
teoretycznie na dowolnej stronie internetowej.
Wspomniane oczywiście mowa o napisach zamkniętych,
closed caption, czyli te, które się włącza przyciskiem,
włącz, wyłącz napisy, no i one są wtedy programatycznie
też zadeklarowane w kodzie,
więc nie są wtopione w obraz filmu na sztywno.
No i wygląda na to, że w dużej części serwisów to działa.
Te, o które są wymienione w dodatku,
tak z nazwy to YouTube, Netflix, Disney+,
ja też widziałem, że jakieś KKTV, możliwe, że to jest coś chińskiego,
bo autor jest chyba z Chin,
Wikimedia, chyba Commons też,
widziałem, że jest jakiś parser osobny do tego,
ale zdaje się, że też współpracuje to z natywnymi odtwarzaczami HTML5,
bo mi udało się wczoraj z dodatku skorzystać na Vimeo na przykład.
Jak oglądałem film, włączyłem sobie napisy,
no i mogłem te napisy śledzić za pomocą dodatku.
One się objawiają albo syntezą,
po prostu synteza w NVIDIA na mnie przeczyta,
albo też w Braillu na monitorze, jeżeli mamy monitor braillowski.
Ważne jest to, aby kursor znalazł się w obszarze odtwarzacza,
czyli tam, gdzie mamy te przyciski, jakieś tam pauza, wycisz, przewijanie i tak dalej.
Ważne, żeby napisy były wiadomo włączone, żeby się pokazywały
i też możemy dodatek włączać, wyłączać insert Y,
ale domyślnie jest on włączony
i w tym momencie powinny nam te napisy być automatycznie odczytywane.
Przydatna sprawa, zwłaszcza jeżeli oglądamy film w języku obcym
i chcemy śledzić napisy, bo pamiętajcie, że taką wtyczkę
można też połączyć z wtyczką translatora
i sprawdzić, żeby te napisy były tłumaczone w locie na język polski
na przykład.
A to już jest naprawdę coś.
Tak, to jest jak najbardziej coś.
No więc mogę mieć nadzieję, że te parę trików
albo Was zachęciło może do tworzenia czegoś w internecie,
albo do ułatwienia sobie życia przy konsumpcji takich treści wideo.
Tak jest. A jeżeli chcecie potestować na czymś znanym,
no to możecie chociażby na naszych materiałach na YouTubie,
bo u nas się od pewnego czasu już napisy też pojawiają,
generowane automatycznie dzięki Whisperowi.
Także jest, jest i działa.
A teraz przenosimy się do Japonii.
W Japonii mają różne ciekawe wynalazki.
Między innymi pani Chieko Asakawa.
Mam nadzieję, że dobrze wymówiłem imię i nazwisko tej pani
przez CH się pisze, więc zakładam, że to będzie w ten sposób.
Ona straciła wzrok w wieku 14 lat,
ale cóż, nie poddała się.
Skończyła studia i to studia jak najbardziej technologiczne,
bo ona pracuje w IBMie.
I właśnie w japońskim oddziale IBMa
od 2017 roku pracowała nad dosyć interesującą technologią,
chociaż opakowaną z pozoru zupełnie dziwne urządzenie.
Bo wyobraźcie sobie, no mieliśmy już inteligentne laski
i cały czas się jakieś pojawiają.
Mowa jest o różnych urządzeniach tego typu,
które nas mają prowadzić.
Gdzieś tam kiedyś była mowa o jakimś robotycznym psie-przewodniku,
ale jeszcze o inteligentnej walizce, która ma nas prowadzić,
to nie słyszałem.
Ja nie wiem, czy o tym kiedyś nie mówiliśmy,
ale ja już skądś ten motyw z walizką kojarzę.
Ale ciekaw jestem, jakie są postępy w projekcie,
bo no, miejmy nadzieję, że on się uda skomersjalizować.
Ja słyszałem chyba o walizce, to my nie mówiliśmy,
a przynajmniej nie jakoś niedawno,
bo mówiliśmy o jakimś jeżdżącym takim rzeczywiście,
ale robotycznym psie-przewodniku.
To było jakoś tak określone.
A tu jest po prostu mowa o takiej zwykłej walizce na kółkach,
napakowanej sensorami.
Tam jest LIDAR między innymi.
Opisane jest to tak w materiale źródłowym,
do którego link będzie rzecz jasna również w komentarzu,
że jest tam użyta technologia,
która jest wykorzystywana w autonomicznych samochodach.
No więc podejrzewam, że pełno różnych czujników.
I tak z opisu to powiem szczerze,
że mnie tak do końca ten opis nie przekonuje,
bo przede wszystkim mowa jest o tym,
że ta walizka może nam się przydawać w konkretnych miejscach.
Na przykład w takich miejscach, gdzie jest dużo ludzi.
Czyli na przykład tam bardzo mocno skupiano się na lotniskach.
Że taka walizka może nam się na lotnisku na przykład przydać.
Raz, że jest ona napakowana tą technologią
i będzie nas w stanie prowadzić.
Dwa, że będziemy ją mogli zabrać jako bagaż podręczny do samolotu.
Niech tam sobie lecąc.
Tylko zastanawiam się co potem.
Wyjdziemy z tego lotniska i jak ona będzie się dalej zachowywała.
Walizka teoretycznie potrafi współpracować także z telefonem.
Jest do niej jakaś odpowiednio stworzona aplikacja,
za pomocą której można także jakoś tą walizką sterować.
Walizka oprócz tych czujników, o których mówiłem,
wyposażona jest w silnik, który napędza kółka.
Bo ta walizka sama się porusza.
To nie jest tak, że my nią pchamy,
a ona nas po prostu jakoś tam informuje o różnych obiektach przed nami.
Tylko, że ona nam trochę toruje drogę.
My po prostu trzymamy się tej walizki i podążamy za nią
w nadziei, że nic nie uderzymy i że nic nie stanie na naszej drodze.
Tak właśnie to działa.
W planach jest rozwój tego projektu
no i też jakaś jego komercjalizacja,
bo to na razie z tego co wiem to jakiś po prostu taki projekt badawczy,
prototyp został zaprezentowany.
Pytanie, co dalej będzie z tą walizką.
A, i jeszcze jedna ważna rzecz.
Ona mimo tego, że jest taka nowoczesna, taka fajna,
to swojej podstawowej roli nie może już spełniać.
Bo została wypakowana po brzegi technologią,
bo tam i baterie przecież, i silnik, i te wszystkie czujniki, GPSy, Lidary,
jakieś tam inne czujniki zbliżeniowe,
no to już wiesz, to już tam nic nie włożysz więcej.
Czyli się już nie otwiera.
Nie, nie otwiera się, nie otwiera się.
Chociaż wiesz, to może jakąś tam ewentualnie, żeby baterie wymienić
czy coś, albo jakoś tak zajrzeć.
Serwisowo się otwiera, śrubokrętem.
Śrubokrętem, ale to nie jest taka zwykła walizka,
już tam się po prostu nic nie zmieści.
I powiem szczerze, dobrze, że jako bagaż podręczny
można by taką walizkę brać,
bo powiem tak,
no jak widziałem ostatnio, co się stało z naszą walizką
po locie samolotem i po wylądowaniu,
to trochę bym się bał, bo podejrzewam, że tanie to nie jest.
No a historie też nierzadko się zdarzają,
że pomijając już walizki, czy takie prawdziwe, czy elektroniczne,
no to pomoce typu wózki inwalidzkie
już ginęły w trasie, albo docierały zniszczone.
To nie jest taki rzadki przypadek.
Dokładnie.
On nas w trakcie startu, to się otworzył ponoć luk bagażowy
i trochę tam różnych rzeczy wypadło, więc
siłą rzeczy, gdyby taka walizka znalazła się właśnie w takim luku,
to już wiele by z niej nie zostało.
Więc dobrze, że można ją traktować jako bagaż podręczny.
To prawda.
No i ceny…
Na pewno jest też stylowym akcesorium.
No to z pewnością, to z pewnością.
Może i z logo IBM nawet w przyszłości.
Czas pokaże, jak to będzie.
Technologia ciekawa.
Już mam wrażenie, że ostatnio mówi się o bardzo wielu takich prototypach.
Też ostatnio coś było o jakiejś inteligentnej lasce, którą testowano w sklepach.
Tak, też to widziałem.
Ja czekam na coś innego,
coś, co się chyba dużo bardziej przebija, bo już jakieś nagrody otrzymało
i już wiele wywiadów było.
I znowu chyba to wróciło, bo to się na CES objawiło, ale rok temu.
Czyli biped, czyli taki sprzęt, który kładziemy sobie na ramiona
i on ma wbudowane różne kamery, całą technologię oczywiście z samochodów samojezdnych
i on wykrywa przeszkody i nas prowadzi.
Tym kamerami wykrywa różne przeszkody na różnych wysokościach
i to różne dźwięki na różne typy tych przeszkód
i na różne wysokości i odległość.
Rząd tam jakimś dźwiękiem chyba szybszym czy wyższym informuje, że się zbliżamy do przeszkody.
Ponoć ciekawe.
Rozmawiałem ostatnio z kimś, kto to widział nawet na jakiejś prezentacji,
oczywiście niestety wewnątrz budynku.
No brzmi to ciekawie, zobaczymy, co z tego wyjdzie.
Na razie wiadomo tylko, że niestety, jak wiele rzeczy elektronicznych,
warto przy tym uważać, jak jest deszcz.
Może jakaś mała mżawka temu nie zaszkodzi, ale jakaś większa ulewa już,
już i owszem.
Albo jakiś śnieżek.
Albo śnieżek, no.
To też można się liczyć z różnego rodzaju tego typu anomaliami pogodowymi,
więc no niestety.
Jeszcze do kompletu to powinien być jakiś stylowy pokrowiec na to,
tylko pytanie, czy nie osłabiłoby to dokładności tych czujników?
Właśnie tak by chyba niestety było, trochę jak z wiłokiem.
No właśnie.
No, że już czujniki to wtedy tak nie bardzo.
No ale cóż, pozostaje mieć nadzieję, że i na to kiedyś znajdzie się jakaś rada.
A teraz przechodzimy do kolejnych informacji.
Tym razem do Envision Glasses.
Ty, Pawle, przygotowałeś informacje na ten temat.
Przyznam się, że ja też trochę czytałem i takie mam mieszane uczucia.
Ja też. Ja mam wrażenie, że to…
Jeżeli po naszej audycji o Envision Glasses nie jesteście przekonani do tego produktu…
To teraz będziecie jeszcze mniej.
To będziecie jeszcze mniej przekonani.
Aczkolwiek pozornie firma to usprawiedliwia tym, żeby urządzenie było bardziej przystępne.
A w czym rzecz?
No, Envision Glasses były zawsze dostępne po jednej cenie.
Ta cena z tej wyższej, której kiedyś była,
się obniżyła jakoś w okolicach lipca zeszłego roku do 2500 euro.
No to nas teraz firma postanowiła zrobić coś takiego,
że będzie oferowała ten sam sprzęt w trzech edycjach.
Czym się to wszystko różni?
O programowaniem.
Trzy edycje przedstawiają się w sposób następujący.
Teraz będzie edycja Reading.
Envision Glasses Reading.
1800 dolarów taka cena.
1800 wcześniej było…
Zobaczymy, jak to będzie w euro.
Czyli jakieś 700 powiedzmy dolarów taniej niż ta wersja standardowa.
I to jest wersja, w której mamy okulary, te, które normalnie mamy,
ale dostępne są tylko funkcje czytania.
Czyli rozpoznaj tekst, skanuj tekst.
I skanowanie tekstu to masowe.
I wielu stron naraz.
I to jest jedyne, co będzie.
Cała reszta, czyli dzwonienie do znajomych,
dzwonienie do Aery tam, gdzie jest to dostępne,
rozpoznawanie osób, przedmiotów, szukanie kolorów,
rozpoznawanie pieniędzy.
Nie będzie zablokowane, nie będzie dla nas dostępne.
Co więcej, aktualizacje takie istotne, czyli aktualizacje konkretnych funkcji,
jakieś nowe funkcje, zmiany w działaniu tych funkcji, które już są,
będą dostępne tylko przez rok.
A potem już tylko takie niezbędne aktualizacje,
czyli pewne jakieś poprawki stabilności, poprawki bezpieczeństwa i tak dalej.
No i dostajemy do tego, dobrze czytam, albo żadnej oprawki,
albo oprawek żadnych, albo oprawki tytanowe, takie lekkie.
Zaraz to sprawdzę.
Zdaje się, że to są te podstawowe oprawki.
Tak, tytanowe, lekkie oprawki.
Chyba w tej najdroższej opcji możesz sobie oprawki wybrać.
Potem mamy edycję Home, która ma już wszystko odblokowane,
takie funkcje i ona kosztuje tyle samo, ile ta wersja podstawowa,
czyli 2500 dolarów.
Tak, dokładnie i tam jest wszystko odblokowane,
ale również aktualizacje, te takie nowe funkcje i nowe rozwiązania
tylko przez rok, a cała reszta to już tylko te aktualizacje,
powiedzmy, jakieś dodatkowe.
Tam takie bezpieczeństwo i stabilność.
I również jedno rok gwarancji, no i również te tytanowe, lekkie oprawki.
Natomiast wersja Professional, ona kosztuje już 3500 dolarów chyba.
Tak, i tu mamy już wszystkie opcje odblokowane,
aktualizacje wieczyste i dwa lata gwarancji
i do wyboru jest już chyba więcej rodzajów oprawek,
mamy trzy do wyboru i priorytetowe wsparcie klienta.
I co ciekawe, wymyślono to po to, tak przynajmniej twierdzi producent,
żeby oferując te tańsze opcje zwiększyć prawdopodobieństwo,
że w różnych krajach te okulary wpadną pod jakiś program dofinansowań,
czyli jeżeli jest jakaś kwota, na przykład w Polsce takie 2500 euro,
czyli powiedzmy 11, 12, 13 tysięcy złotych,
okazałoby się za dużo na dofinansowanie takich okularów,
ale tam nie wiem, 10 byłoby jeszcze okej,
to spuszczamy ceny i to by pasowało, a potem możemy już sobie za własne pieniądze,
a może za dofinansowanie jakieś tam po roku na przykład, czy po jakimś czasie.
Dofinansowanie powiedzmy serwisowe, tak?
Tak, zrobić upgrade do tej wersji pełnej odblokowanej
i to kosztuje 700 dolarów, czyli de facto wyrównujemy,
czyli po prostu płacimy za część okularów w ramach dofinansowania,
a resztę, czyli tą resztę ceny, która nam sprawia, że mamy tą wersję standardową,
możemy już sobie dopłacić potem, czyli takie trochę na raty, tak?
Tak.
W pewnym sensie.
No i jest możliwe takie przechodzenie między edycjami.
Nie sądzę, żeby to się przyjęło.
Widziałem, że dużo cieplej się to przyjęło właśnie w Stanach.
Dużo bardziej na pewno byli ludzie zadowoleni z tego niż z Aira,
bo Aira nie potrafiła jakoś zakomunikować tych podwyżek cen.
Wiadomo, że będą one wyższe.
Było zapowiadane, kiedy zostanie to opublikowane.
Potem tak zagmatwali, że nikt nie wiedział w końcu ile płaci i od kiedy.
No a tutaj od początku jest sytuacja jasna i to można na pewno powiedzieć, super.
Aira miała kilka różnych swoich PR-owych, niekoniecznie udanych zagrywek.
Przecież te okulary, tak?
Aira glasses, które były koniem pociągowym tak naprawdę tej usługi,
a potem tak naprawdę z miesiąca na miesiąc przestały działać.
No to myślę, że nie jedna osoba wtedy delikatnie mówiąc się zdenerwowała.
Zdenerwowała, tak.
No też tu w przypadku Envision dużo osób się zdenerwowało,
bo kupiły one aplikację, ona nagle się stała darmowa.
Odpadły z niej funkcje, które sprawiały, że była dość wyjątkowa,
czyli to dokładne rozpoznawanie tekstów.
Oj tak, oj tak.
I teraz nawet te osoby, które kupiły tę licencję wieczystą,
czy po promocji, czy bez, no nic im do dziś nie zaoferowano.
Natomiast…
Może byśmy dostali jakąś zniżkę na okulary, wiesz?
Może, ale ta zniżka byłaby na tyle mała,
że nikomu się to nie opłacało.
Oczywiście.
A tak, mamy te okulary.
No i mamy, tak się przedstawia sytuacja.
Ale te okulary nie są jednak warte swojej ceny.
Jednak nie.
Nie, nie, nie.
I zobaczymy, w których krajach i gdzie
to rzeczywiście komuś coś ułatwi.
Natomiast tak się przedstawia sprawa z Envision Glasses.
Tak jest.
A teraz informacja z naszej polskiej blogosfery,
bo to światło dzienne, już jakiś czas temu ujrzał nowy blog
poświęcony dostępności Apple.
Mamy moją szufladę, Piotra Witka, od lat wielu.
A teraz Agata Juraszek.
Aktywna chociażby na grupie Dostępne Apple.
Bardzo mocno aktywna.
Pisząca różne też ciekawe porady
dotyczące tego, jak sobie z AI urządzeniami radzić
w różnych sytuacjach.
Postanowiła to wszystko spisać w jabłuszkowym świecie.
jabłuszkowyświatbezpolskichznaków.wordpress.com
Tam na razie jest kilka artykułów, ale takich myślę, że dosyć interesujących.
Na przykład dotyczących kwestii Facebookowych,
różnych problemów związanych z Facebookiem
i chociażby kwestii związanej z tym, że tam karty na dole
nam potrafią się zmieniać z wersji na wersję
i co jakiś czas pojawiają nam się tam zupełnie inne karty.
I na przykład, powiem szczerze,
że o tym, że można sobie tam dopinać różne rzeczy,
które chcemy, żeby się pojawiały w miejscu tych kart, to nie wiedziałem.
To ja się chociażby z tego dowiedziałem,
że możemy sobie tam zastępować to, co mamy,
a jeżeli czegoś tam nie chcemy, no to możemy sobie zmienić ten skrót
w ustawieniach Facebooka.
Szczerze powiedziawszy, nie testowałem tego jeszcze,
natomiast fajnie to wiedzieć, że jest w ogóle taka możliwość,
jest taka opcja, że Facebook na to pozwala.
I jeszcze o kilku rzeczach można się dowiedzieć z jabłuszkowego świata,
także nowy blog.
Warto, jeżeli korzystacie na przykład z jakiegoś czytnika RSS,
zasubskrybować, bo może jakieś interesujące kolejne treści
będą tam się pojawiały.
Także to jeżeli chodzi o blogosferę,
a teraz jeżeli chodzi też o iOSa w sumie,
czyli zostajemy w jabłuszkowym świecie.
Jak najbardziej.
Tak, bo będzie o Sync AI i o nowej funkcji,
która pojawiła się w tej aplikacji.
Tak, i tą funkcję chyba Michale ty też testowałeś.
Testowałem.
Czyli nawigacja wewnątrz budynków.
Możecie sobie zastanawiać, jak to działa.
Już spieszę z wyjaśnieniami.
Otóż stajemy sobie na początku jakiejś trasy.
Wymyślamy, że chcemy na przykład pokazać komuś,
albo sobie zapisać, jak trafić powiedzmy w jakiejś hali targowej,
czy na przykład w jakimś hotelu z recepcji do naszego pokoju.
No i teraz jak to wygląda.
Stajemy sobie w tej przykładowej recepcji.
Przełączamy Sync AI na kanał świat.
Wybieramy w tym kanale świat przycisk nawigacja wewnątrz.
Nawigacja w budynku, czy nawigacja wewnątrz.
To jest taki jedyny przycisk, jaki tam jest w sumie.
O takiej nazwie.
No i możemy zaczynać robić trasę.
Jak to robimy?
Na początku kręcimy naszym telefonem.
Obracamy się dookoła, przechylamy telefon delikatnie do przodu, do tyłu.
Nie trzeba tego robić nerwowo, nie trzeba nic robić.
Nie trzeba żadnych nawet ósemek specjalnie robić, czy tym telefonem, ani kółek.
Wystarczy go tak odchylać tył, przód, tył, przód i się powoli obracać.
I będziemy dostawać oczywiście komunikat, ile procent tej operacji jest już ukończone.
Oraz jeżeli będziemy robić to za szybko.
Tak, to też.
Zasugerowane jest nam, abyśmy wyobrazili sobie, że siedzimy wewnątrz kuli szklanej
i z pozycji tej kuli chcemy wszystko dookoła sfotografować.
Więc na taką modłę się też obracamy.
No i w tym momencie, kiedy jest już skończone to dzieło
i telefon już aparatem zarejestrował nasze otoczenie,
to przyjdzie czas, żeby nazwać punkt początkowy.
No my go nazywamy, na przykład właśnie recepcja
i możemy zacząć iść.
No i po prostu sobie idziemy trzymając oczywiście cały czas telefon w ręku, pionowo,
tak, żeby aparat tylni patrzył przed siebie.
I za każdym razem, kiedy zakręcimy, usłyszymy dźwięk takiego jakby upadającego ping-ponga,
takie ping, ping, ping, to oznacza, że opuściliśmy gdzieś tam w tej trasie punkt.
I tą taką trasę tworzymy sobie z tych punktów,
nie robimy nic, po prostu skręcamy cały czas, idziemy tą trasą
i gdy dojdziemy już do końca, naciskamy na przycisk zakończ
i podpisujemy ostatni punkt tej trasy.
No i w tym momencie możemy taką trasę przejść.
Jak ją przechodzimy? Najlepiej w słuchawkach.
W zasadzie to tylko w słuchawkach.
Rekomendowane są co prawda ponoć AirPodsy różnych modeli,
im nowsze, tym lepsze, ale nie jest to wymagane.
Ja to testowałem nawet w moim headsetcie MPL, który mam teraz na sobie
i to również działało.
Ja wiem, może w AirPodsach byłoby lepiej, ale nie mam AirPodsów,
więc działam z tym, z czym mam.
I zaczynamy nawigację po tej trasie znowu w tym punkcie początkowym,
w którym będziemy, czyli w tej recepcji i w tym momencie zaczynamy słyszeć dźwięk.
Ten dźwięk dochodzi z tego kierunku, w którym my się mamy udać,
więc my możemy się na niego ustawić i na niego ruszać.
Jeżeli będzie z lewej, usłyszymy w lewym kanale, jeżeli z prawej,
usłyszymy w prawym, jeżeli przed siebie, no i tak dalej.
I ten dźwięk oczywiście, im bliżej niego będziemy,
będzie też trochę głośniejszy, tak mi się wydaje, mam wrażenie, że tak ma jest.
I gdy już zaliczymy kolejny zakręt, to usłyszymy taki dźwięk,
że zaliczyliśmy po prostu zakręt.
No i aż dojdziemy do końca trasy i usłyszymy taką ostateczną melodyjkę,
że trasa się zakończyła.
Warto takie trasy robić, ja to testowałem, działało to różnie,
ale mam wrażenie, że wynika to trochę z tego nieszczęsnego mojego oświetlenia,
bo udało mi się już tą aplikacją dotrzeć na miejsce tam, gdzie powinienem,
ale udało mi się też tak zarejestrować trasę,
że on na przykład koniec trasy uznał za punkt po przeciwnej stronie miejsca,
w którym ja się powinienem znaleźć, więc no nie do końca dokładnie,
blisko celu, ale nie dokładnie.
Problem generalnie jest, jeżeli jest słabe oświetlenie, to już zauważyłem,
bo wczoraj robiłem testy jakąś wieczorową porą,
kiedy, Pawle, pojawiła się od Ciebie informacja na temat tego,
że się bawiłeś i no cóż, akurat wtedy nie zapalałem światła,
no to wtedy kompletnie to nie działa,
więc musi być albo zapalone światło, albo no po prostu musi być jakieś oświetlenie,
czyli chociażby światło słoneczne.
No a co w przypadku jakiejś nocnej przechadzki?
No ta aplikacja wtedy, obawiam się, że nie zda egzaminu, to jest rzecz pierwsza.
Rzecz druga, nie testowałem tego, ale to aż się prosi to pytanie,
czy jeżeli zarejestruję trasę od do, to czy jeżeli uruchomię tę trasę
i będę w punkcie docelowym, to ja za pomocą tej trasy mogę też przejść w drugą stronę?
Obawiam się, że nie, bo on pierwszy krok, jaki podejmuje,
kiedy tylko my próbujemy tą trasą przejść,
to jest wyszukiwanie i tutaj nazwa naszego punktu startowego i to autentycznie działa.
On się nie zastartuje, jeżeli w aparacie obraz mu się nie zgadza.
I on wtedy nas prosi, żebyśmy tak jakby też omietli tym telefonem wokół siebie,
bo on się po prostu będzie teraz sprawdzał, czy mu się to, co zarejestrowaliśmy,
zgadza z tym, co widzi oko kamery.
I dostajemy taką informację, jest dźwięk i wtedy on nas zaczyna naprowadzać.
I nawet robi to dobrze, tylko ja mam jedną uwagę,
mianowicie taką, że jeżeli kupiliście jakieś, dajmy na to,
szelki na smartfona, o których kiedyś Tomek robił audycję,
to to może być dobry czas, żeby ich użyć.
Dlatego, że odnoszę wrażenie, że ten moment, gdzie ten punkt jest rejestrowany
i później, jeżeli nasza trasa jest porównywana z tym punktem,
to telefon powinien być w miarę tej samej pozycji.
Jeżeli trzymamy telefon w dłoni, no to wiadomo, że trzymamy go różnie.
Raz bliżej siebie, raz trochę dalej, ja na przykład gdzieś tak miałem,
że szedłem dokładnie tą samą trasą, ale telefon trzymałem trochę inaczej
przy pierwszym przejściu, kiedy ta trasa się rejestrowała
i przy drugim, kiedy już chciałem tę trasę sobie zweryfikować.
Obrałem sobie ambitną trasę z salonu do kociego drapaka zlokalizowanego w sypialni.
Muszę powiedzieć, że trasę udało się przejść,
natomiast idąc po linii prostej, to musiałem trochę tym telefonem się namachać,
żeby wycentrować ten dźwięk w słuchawkach.
To sobie koniec końców udawało, ale to może nas trochę mylić,
że zaraz, ale przecież on mi pokazuje ten dźwięk,
że ja powinienem skręcić, a przecież idę prosto jeszcze.
Tak, na pewno ten paseczek, gdzie my się łapiemy w ten punkt jest dość wąski.
Tak.
Więc to też zależy od tego, bo my możemy być ustawieni na przykład dobrze,
ale telefonem gdzieś przekręciliśmy w prawo i kierunek jest nadawany przez to,
gdzie mamy wycelowaną kamerę telefonu.
Więc tutaj trzeba mieć to na uwadze.
Ja na przykład pierwszą trasę kompletnie skopałem,
bo szedłem z dołu do góry w ogóle po domu i miałem włączone światło oczywiście,
ale prawdopodobnie było to zbyt ciemno,
bo nawet w momencie, kiedy wszedłem na schody, wyskoczył komunikat,
że nawigacja nie jest w tym momencie możliwa, bo światło nie jest wystarczające.
Ja doszedłem na górę, tam było już lepsze oświetlenie i nawigacja została wznowiona,
ale przy zapisywaniu trasy otrzymałem komunikat, że trasa będzie zawierać luki.
No i rzeczywiście był problem z doprowadzeniem mnie tak jak należy.
Z tymi schodami.
Tak. Natomiast potem już robiłem z punktu A do B na jednym poziomie
no i tam już było lepiej, aczkolwiek tak jak mówię,
on któregoś tam zakrętu na przykład nie wykrył, tego ostatniego,
więc on był happy, że ja jestem z drugiej strony w ogóle gdzieś tego punktu,
po przeciwnej stronie drzwi do pomieszczenia, w którym chciałem się znaleźć
i tam on mi zaliczył, że jest okej.
Potem zrobiłem jeszcze raz, no i już było dobrze.
Tak, już mnie doprowadził jak trzeba z punktu A do B.
No mnie na przykład doprowadził do wejścia do sypialni,
ale już na przykład do drapaka nie.
Zarejestrował?
Tak.
Przy drapaku?
Zarejestrował, teoretycznie zarejestrował.
Coś tam też marudził na samym początku, że tutaj, że coś zgubił
i że kazał mi wykonać jakiś ruch telefonem,
ale nie pojawił się komunikat, że trasa może zawierać błędy czy luki
i teoretycznie pojawił się ten dźwięk, że on sobie ten punkt zapisał.
No i akurat tego ostatniego nie zapisał,
albo po prostu nie był w stanie go zlokalizować,
więc stwierdził, że jak ja już do sypialni wszedłem, to ja już jestem na miejscu,
a tak naprawdę powinienem jeszcze skręcić w prawo i dać parę kroków.
No nie mniej jednak funkcja wygląda na to, że działa.
Można też takie trasy stworzone w Seeing AI udostępniać innym,
co może się okazać przydatne, jeżeli na przykład chcemy
zorganizować dostępne wydarzenia i chcemy po prostu osoby niewidome
wyposażyć w możliwość nawigowania po jakimś budynku.
Możemy zrobić takie trasy w miejscach, w których my jesteśmy częściej,
dla osób, które mogą przyjechać, a teraz myślę tu pod kątem jakiejś tyflowiki.
Można by spokojnie takie pliki z trasami gdzieś tam potworzyć i powrzucać
i potem druga osoba może sobie je importować.
A to jest jako plik?
Nie próbowałem jeszcze,
ale było zapowiedziane, że można udostępniać airdropem
lub chyba innymi tam metodami, więc to pewnie się zapisze
w formie jakiegoś pliku, ale muszę to jeszcze sprawdzić.
Zobaczmy w sumie, bo mam telefon pod ręką,
to się za chwilkę przekonamy.
Ja też, o czym za chwilkę opowiem, skorzystałem z aplikacji Clue
i stwierdziłem, że porównam sobie aplikację, którą kiedyś prezentował
też na swoim blogu moja szuflada Piotr Witek, ale o tym za chwileczkę.
Ja tutaj wejdę do kanału świat
i zobaczymy,
nawigacja wewnętrzna, tak się nazywa ta opcja
i zobaczymy, co tu będzie.
Udostępnij, no i co się stanie?
.
.
.
.
.
.
No i zobaczmy, co się stanie.
.
.
.
To chyba nawet nie ma jakiegoś rozszerzenia specjalnie, natomiast
ma 616 bajtów taki plik,
więc ciekaw jestem, jakie tam muszą być dane zakodowane,
bo to nie jest duży plik wcale, a zakodowana jest w nim cała trasa.
Natomiast tak, porównywałem to z aplikacją Clue.
Clue jest aplikacją, która wyszła jakieś 4-5 lat temu.
Bardzo podobny zamysł, bo też aparatem omiatamy
nasze otoczenie i na podstawie tego, co widzi kamera,
tworzone są te ślady, po których idziemy.
Natomiast tu jest kilka podstawowych różnic. Po pierwsze możemy tworzyć trasy jednorazowego użytku,
czyli chcemy sobie sami po prostu przejść gdzieś i potem móc wrócić
z powrotem tam, skąd wyszliśmy, więc zrobimy trasę taką ad hoc,
żeby przeanalizować, jak wrócić potem gdzieś.
No ale oczywiście możemy też tworzyć takie trasy, które sobie zapiszemy na później.
I te trasy można odtwarzać albo od A do B, albo od B do A.
Różni się też feedback, który otrzymujemy, informacja zwrotna,
bo dźwięk oczywiście jest też, ale on nie jest przestrzenny.
Naszym celem jest tak ukierunkować telefon, żeby cały czas słyszeć dźwięk perkusji
i wyczuwać haptykę, bo haptyka jest też wykorzystywana.
No i otrzymujemy też komunikaty od aplikacji, czyli lekko w prawo, na wprost,
lekko w lewo i tak dalej.
Więc po tym też można jak najbardziej sobie poradzić.
Aplikacja też pozwala na zostawianie notatek głosowych
w dowolnym miejscu na trasie, jeżeli na przykład chcemy
jakieś konkretne punkty sobie pooznaczać. Więc możemy dużo bardziej
granularnie do tego podejść, możemy w ogóle sobie coś ponotować apropo tej trasy, którą idziemy.
No i trochę inaczej wygląda proces tworzenia tego punktu startowego i końcowego.
Bo my w tym momencie…
Słyszymy się?
Tak, jak najbardziej.
Jak najbardziej, bo tu jakieś komunikaty mi wyskoczyły.
My też słyszymy te nagrania wtedy, kiedy się pojawiamy.
No i też jest możliwość ustawiania skrótów Siri dla tych tras.
No i jakaś jeszcze ważna… Aha, że właśnie w inny sposób
te punkty się dodaje. W taki sposób, że przynajmniej tak głosi instrukcja.
Przykładamy telefon górnym bokiem
do ściany czy do jakiejś, nie wiem, do futryny, do jakiejś powierzchni,
w której znajduje się ten nasz punkt.
I on wtedy jakby omiata podłogę ekranem do góry, czyli aparatem na podłogę jakby.
I on wtedy w jakiś sposób analizuje to nasze podłoże
i tworzy z tego punkt startowy. Czyli troszkę inaczej niż
w Microsoftie, gdzie kręcimy tym telefonem dookoła.
Ja mam wrażenie, że tam po prostu on sobie
zdecydowanie mniej punktów bierze pod uwagę, tworząc ten punkt startowy.
Bo tutaj w tej opcji Microsoftu
mamy jakby taki obraz
399 stopni. W sensie widzimy,
ta kamera widzi wszystko, tworzy sobie jakiś taki zaawansowany obraz z tego
i na tej podstawie to potem rozpoznaje. A tutaj, jeżeli mamy tylko
podłoże, po którym idziemy, czyli
jakaś tam, no nie wiem, powierzchnia typu płytki, beton,
panele albo droga,
no to jest to zdecydowanie mniej zmiennych. I pytanie,
czy nie jest to też większe ryzyko
popełnienia jakiegoś błędu?
Możliwe. W każdym razie różne filozofie, różne aplikacje.
Jest ciężko znaleźć, bo aplikacja się nie pokazuje,
kiedy jej szukamy w AppStore, natomiast jeżeli mamy do niej link, czyli na przykład
na blogu Moja szuflada u Piotra Witka jest on umieszczony,
to tam można wtedy aplikację pozyskać oczywiście
jeszcze za darmo. Też myślę, że warto będzie go dodać i u nas w komentarzu.
Tak, no to zostanie dodane.
No i najważniejsze, że Microsoft
nie porzucił kompletnie pomysłów z Sunscape’a i w jakiś sposób ta technologia
do czegoś się przydaje. Zobaczymy, czy to jest ich ostatnie słowo
w tej dziedzinie, czy coś jeszcze się wydarzy. Funkcja nie wymaga Lidara,
więc to jest też in plus jak najbardziej. Nie jest ograniczona do jednego kraju,
więc też in plus. No i zobaczymy,
jako że Microsoft się już tym zajął i jest to taka nowa funkcja,
czy może zaczniemy tworzyć jakąś bazę
takich trac do nawigacji na przykład po dworcach,
takie opisy tworców są na tyflowiki, to może by
trzeba zacząć tworzyć tego typu trasy. Ale nie wiem, czy Pawle
zwróciłeś uwagę na to, jak bardzo
ta funkcja Synki
jest obwarowana różnymi takimi disclaimerami prawnymi.
Ileś razy jesteśmy ostrzegani,
że to jest funkcja eksperymentalna, że
trzeba na to uważać, że trzeba zachować
szczególną ostrożność. Tam kilka razy ten komunikat się pojawi,
zanim my w ogóle to wszystko możemy uaktywnić
i z tego korzystać. Przynajmniej za pierwszym razem.
Warto z rozwagą podchodzić do tego rozwiązania. Oczywiście. Myślę, że można się już zacząć
powoli bawić w różnych warunkach, w różnych miejscach.
No i ja jestem osobiście ciekaw, bo doświadczenia moje wczoraj
były takie, powiedziałbym, mieszane, ale ostatecznie mogę chyba stwierdzić, że
nie jest to zabawka, to jakoś działa, tylko trzeba temu stworzyć warunki
do pracy. Odpowiednie warunki i tu trzeba by się było po prostu zastanowić,
jak to robić optymalnie, te trasy. Ja mam wrażenie, że
okej, ten punkt startowy, no to
trzeba ten telefon trzymać w ręku, natomiast później
to fajnie by było go sobie rzeczywiście gdzieś zaczepić.
Szkoda, że nie można go do kieszeni włożyć, no ale to
niestety. No bawiam się, że tutaj kamera musi być na
wierzchu. A swoją drogą jeszcze taka ciekawostka, a propos
C&Ki, to ostatnio na AppleVis ukazał
się wątek dotyczący tego, jak
kreatywnie, co niektórzy potrafią wykorzystywać, funkcje
tej aplikacji. Mam to na myśli czujnik światła.
Nie wiem, czy widziałeś. Ktoś stwierdził, że w sumie
to można potraktować jako instrument muzyczny,
bo kiedy w różny sposób przysłaniamy
palcem to oko kamery, on wydaje z siebie różne dźwięki.
A że instrumentów nigdy dość,
no to ktoś się bawi w ten sposób. Ale to można jakoś w taki sposób
kontrolowany, żeby grać konkretne melodie? Wiesz co,
ja jestem za mało muzykalny, a mówiąc wprost
słoń mi na ucho nadepnął. Myślałem, że był opisany przykład.
Nie, nie, nie. Ktoś po prostu rzucił taką myśl, ale ta myśl w mojej głowie
też już jakiś czas temu powstała, natomiast
nie miałem na tyle cierpliwości ani też kreatywności, żeby
bawić się z tym i grać konkretne melodie. Na pewno przy odpowiedniej
wprawie można by było
próbować, bo to zależy jak bardzo przysłonimy ten
obiektyw i jak bardzo
dostaniemy tam zaciemniony ten obraz. No ale
też pamiętajmy, że wpływ na te nasze poczynania
będą miały warunki, w jakich my będziemy z tego trybu
korzystać. Inne efekty będziemy osiągać w dzień, inne efekty
będziemy osiągać w nocy. Wtedy to możemy
w ogóle na przykład wyższych dźwięków nie uzyskiwać.
To taki bardzo kapryśny instrument, no niemniej jednak jako
jakaś tam przeszkadzajka, jeżeli ktoś chce się pobawić.
Może powstanie kolejna księżycowa sonata. Kto wie, kto wie.
Będzie można ją grać tylko przy świetle księżyca.
Dokładnie. Albo w południe.
I tak to skończyliśmy
tyflo aktualności, ale nie kończymy jeszcze tyflo przeglądu,
bo teraz przechodzimy do technikaliów. Tu, Pawle, masz dwa
ciekawe tematy. Na dobry
początek zajmiemy się kartami eSIM, które
można uzyskać nie posiadając eSIMa?
Nie posiadając telefonu, który wspiera eSIM.
Czyli mając tradycyjny, jakiś nawet starszy smartfon Androidowy
lub nawet starszego iPhone’a, możemy sobie
taką przyjemność zafundować. A jak to działa? No właśnie.
Jest to usługa, którą oferuje jeden z niemieckich operatorów.
Dziwne, że niemiecki, bo ceny są podane
w dolarach. Natomiast jest to po prostu
karta SIM, którą my kupujemy.
Teraz nie wiem, czy miesięcznie, czy jednorazowo
usługę. Obawiam się, że to może być miesięcznie, ale byłoby to
drogo bardzo jak miesięcznie. I za pomocą aplikacji
wgrywamy sobie eSIMy różne.
I możemy oczywiście wtedy włożyć tę kartę do telefonu
i korzystać z tych usług. Czyli taki adapter w formie karty SIM
do usług eSIM. Fajna sprawa.
Jeśli ktoś nie posiada, to czemu nie?
Ja postaram się przeczytać, co o tym pisze
komórko mania na temat tej usługi.
Niemiecki dostawca usług telekomunikacyjnych
Telco Village wystartował z projektem eSIM Me,
który dodaje funkcjonalność eSIM do telefonów domyślnie nie wspierających tej technologii.
Technologia eSIM sprawia, że rejestracja planu taryfowego może być
wykonywana zdalnie przez zeskanowanie kodu QR bez konieczności
obecności w siedzibie operatora telekomunikacyjnego.
Można też zmienić operatora, kiedy tylko się chce, bez potrzeby
przekładania małego kawałka plastiku. Właściciele smartfonów, które nie są
fabrycznie wyposażone w takie rozwiązanie, mogą teraz skorzystać z eSIM Me,
czyli fizycznej karty SIM opartej na technologii eSIM.
Dzięki eSIM Me użytkownik może korzystać z zaledw eSIM, nawet jeśli
jego telefon nie jest fabrycznie wyposażony w taką cyfrową kartę.
Zasadniczo jest ona instalowana w tradycyjnym gnieździe karty SIM,
ale za pomocą specjalnej aplikacji można ją skonfigurować jak zintegrowaną kartę eSIM.
Jest to dobre rozwiązanie między innymi dla tych, którzy
często zmieniają plany taryfowe lub podróżują do innych krajów.
Get a SIM for your smartphone, to jest tutaj filmik, który tłumaczy.
Usługę eSIM Me można skonfigurować
na urządzeniach z systemem Android w systemie w wersji
najniżej 9.0,
co najmniej w wersji 9.0, ponieważ
system operacyjny firmy Google umożliwia uruchamianie aplikacji,
które mogą zainstalować z własnego menedżera SIM. Niektóre telefony
ze starszymi wersjami systemu Android również mogą działać, ale nie jest to
gwarantowane przez producenta. W zależności od pożądanej elastyczności
usług klienci ponoszą różne opłaty. Dostępne są plany.
Single obsługuje do 5 profili na jednym urządzeniu
29 dolarów 95 centów, czyli zaczynamy
tak nie najtaniej. Multi
obsługuje do 10 profili na urządzeniach jednej marki 49.95.
Omni obsługuje do 15 profili na każdym Androidzie
69.95 i Dual obsługuje
do 30 profili na każdym Androidzie 129.95.
Usługa SME jest kompatybilna z dowolnymi numerami z dowolnego kraju
i dla dowolnego operatora oferującego funkcję SME. Jednocześnie
takie karty są wysyłane pod adresy na całym świecie. Zgodnie
ze stroną internetową producenta dostawa jest realizowana
w ciągu maksymalnie jednego tygodnia. No i to wszystko co na temat tej usługi wiadomo.
Czyli to tylko na Androidach będzie działało, na starszych iOSach?
No niestety wygląda na to, że tak na Androidach, bo tam można zainstalować aplikację,
która jest menedżerem SIM. Ale pytanie czy nie dałoby
się tego zrobić tak, że na przykład mamy tam powiedzmy na nie wiem dwa telefony
i na jednym to sobie konfigurujemy,
wgrywamy ten plan,
a potem wyjmujemy tę kartę i przekładamy do innego.
No może tak, tylko nie jest to aż tak wygodne, bo nie możemy
zarządzać wolno tymi profilami,
gdybyśmy mieli ich dużo. Zwłaszcza żeby się tam przełączać,
bo tu przede wszystkim mam wrażenie, że właśnie o to przełączanie się chodzi.
Tak, to jest bardzo możliwe.
Ja też gdzieś ostatnio czytałem, że Google w ogóle planuje
jakieś takie rozwiązanie, które polega na tym, żeby
dowolną kartę fizyczną SIM przekonwertować na eSIM
i to ma być po stronie już Google i naszego smartfona i Androida,
a nie po stronie operatora. No może być to
ciekawe, zobaczymy co z tego wyjdzie,
ale jak widać te eSIMy się coraz częściej pojawiają i różne to rodzi
możliwości aplikowania tej technologii. To jest ciekawe.
Przykładem jest chociażby to e-ralo, którego ty używałeś w Turcji.
Tak jest, bardzo fajna usługa. Dokładnie i nawet nie musiałeś
żadnej karty zamawiać, nic nie musiało pocztą przychodzić, a miałeś
fajny internet. Dokładnie, jak kończyła mi się
paczka danych, bo trochę mnie zaskoczyło to, że mi się nagle
iOS zaczął gdzieś tam synchronizować.
Tak, mimo tego, że mu to wyłączyłem teoretycznie, ale zaczął
wrzucać zdjęcia do chmury z jakiegoś powodu.
Ojej. No, tyle dobrego, że
nie miałem włączonego roamingu wtedy, bo to…
No, bo wtedy to bym popłynął, a tak to tylko
musiałem sobie doładować jeszcze raz te karty, ale rzeczywiście
to e-ralo naprawdę bardzo fajnie się sprawdzało i te tureckie telecomy
całkiem przyzwoitą jakość internetu miały.
A, a propos Google’a, bo tak zacząłeś mówić o Google’u,
to teraz jeszcze będzie o Google’u, który szykuje konkurencję dla AirTaga.
Tak, i zdradził to jeden z polskich likerów technologicznych.
Miejmy nadzieję, że jego wycieki się sprawdzą.
No, co tu dużo mówić. Tak naprawdę jest to klon AirTaga.
Będzie miał głośniczek do wydawania dźwięku, gdybyśmy chcieli
znaleźć nasz przedmiot zagubiony gdzieś tam w najbliższym otoczeniu.
Będzie się parował technologią fast pairing, czyli
taka technologia Google do parowania różnych urządzeń, chyba tych Bluetooth Low Energy, jeżeli dobrze kojarzę.
Będzie się łączył z różnymi urządzeniami właśnie Androidowymi
i będzie w ten sposób nawiązywał kontakt, czyli nawet jeśli zgubimy przedmiot.
Ta sama historia, którą znamy z AirTagów na iOSie.
Zobaczymy, kiedy to wejdzie. Ja jestem tylko ciekaw, czy Google
dołoży takich starań jak Apple do dostępności tego rozwiązania,
no bo pamiętajmy, że okej, w porządku, iPhone ma do tego odpowiednie osprzętowanie,
ma ten chip U1 i tak dalej, no ale tak naprawdę
my jesteśmy w stanie z AirTagami określić lokalizację tego urządzenia
z precyzją do metrów. To prawda.
A tutaj Google może tej przewagi dla nas nie mieć, no ale zawsze są to jakieś znaczniki
no i może być też nadzieja, że one będą tańsze niż te Apple’owe.
Oby tak rzeczywiście było. Zaglądam do Waszych
wypowiedzi. Tu jeszcze o, właśnie na YouTubie się pojawiła
wypowiedź od użytkownika, który się podpisał jako
strykacz pralkowy 21. O. Wasza fantazja
w dobieraniu nicków nie przestanie mnie zadziwiać.
Ciekawe, kiedy będzie kolejna aktualizacja Envision.
Ostatnia aktualizacja była 23 grudnia.
Kiedy będzie, to kiedy będzie. Ja
mam nadzieję, że przyniesie coś ciekawego. Tak, to
oby, bo zapowiadane było, że to nie jest koniec aplikacji. Tak.
Ale co będzie w praktyce, zobaczymy.
Ja jako ktoś, kto kupił jednak te
aplikacje, dobra, w ramach promocji, ale ta
promocja to też tam nie kosztowała 5 złotych. To prawda, tak.
Tam chyba ze 180 wtedy, ta wieczysta
licencja, a tak normalnie to około 1000 kosztowało.
Czy tam 7 stówek. No to ja się
czuję trochę oszukany, przynajmniej na razie. Zrozumiałe.
No dobrze, mamy jeszcze jakieś komentarze?
Nie, więcej komentarzy nie mamy. Informacji, jak rozumiem, też
więcej nie mamy. To znaczy, że 170 wydanie Tyflon
Przeglądu na antenie Tyflon Radia przechodzi już powoli do historii.
Zapraszamy Was za tydzień. Dziękujemy za to, że byliście z nami.
Dziękujemy, że nas słuchaliście, że komentowaliście.
Dziś nie dzwoniliście wprawdzie, no ale ok, rozumiem
nadrobicie za tydzień. Na dziś dziękujemy Wam bardzo za uwagę.
Michał Dziwisz, Paweł Masarczyk. Dzięki Pawle. Do usłyszenia.
Kolejny Tyflo Przegląd w kolejną środę. Już miejmy nadzieję, że
tym razem w większym składzie.