Rok 2024 W TyfloInformatyce (wersja tekstowa)
Pobierz napisy w formacie SRT
Pobierz napisy w formacie VTT
Fundacja Instytut Rozwoju Regionalnego prezentuje
Tyflo Podcast.
Dzień dobry, dzień dobry. Dzisiaj można powiedzieć
bonusowa audycja Tyflo Przeglądu, czyli audycja
o tym, co się wydarzyło nie przez ostatni tydzień,
tylko przez ostatni rok, 2024.
Czyli takie, taka audycja, gdyby ktoś nie chciał
słuchać wszystkich Tyflo Przeglądów z roku, to tutaj
mamy takie, które według nas są
najważniejszymi informacjami z tamtego roku,
najciekawszymi. Paweł Masarczyk,
Michał Dziwisz, Piotrek Machacz
i Patryk Faliszewski, tutaj to też taki
bonusowy, można powiedzieć,
dzisiaj redaktor Tyflo Przeglądu.
I ja, czyli Tomek Bilecki. Może w takim razie zacznijmy od
czegoś, co u nas w Polsce, co prawda
rzadko jest wykorzystywane, czyli
okulary Ray-Ban Meta,
od Meta.
No nie wiem, czy Piotrze, Ty tutaj mógłbyś,
czy Piotrek, czy Paweł, czy ktoś by chciał się o tym powiedzieć,
bo tak jak mówię, u nas to tak nie bardzo
te okulary, ale zwłaszcza w tym anglosaskim święcie,
to one chyba sporo tu zamieszania zrobiły.
Tak, zrobiły zamieszania. W ogóle przed tą audycją zastanawiałem się,
kiedy one się pojawiły. Byłem pewien, że to był rok 2024.
Okazuje się, że nie, to był
październik 2023 rok, natomiast mam wrażenie, że one dopiero
parę miesięcy później zaczęły
zyskiwać na popularności właśnie
głównie w tych krajach anglojęzycznych. Jest to spowodowane tym
po części, że po prostu tamte okulary są sprzedawane
najbardziej i też tym, że tam mają
najwięcej funkcji, bo niektóre funkcje są
nierozstępne, no chyba, że zabawimy się VPN-em.
Ale może od początku, co
to są za okulary? No to są po prostu
okulary Ray-Ban. Mamy kilka, udali do wyboru
generalnie. One wszystkie wyglądają atrakcyjnie.
Nie są jakoś drogie, jeśli chodzi
o kategorię sprzętu,
można powiedzieć, np. w porównaniu do okularów Envision,
no to tutaj mamy koszt, nie pamiętam teraz, koło 300
w wieku 10 dolarów. Jakoś tak,
no to nie jest taki koszt jak okulary Envision.
I najprościej, no to są okulary, które
mają dwa głośniki, to jest takie
pseudo-przewodzenie kostne chyba,
i działają z naszym telefonem jako słuchawki
Bluetooth, możemy przez nie rozmawiać, słyszymy wszystko, co się na telefonie
dzieje, ale mają też kamerkę,
mają i mają też swoją dedykowaną aplikację.
Łączą się z naszym telefonem po Wi-Fi
i dzięki temu możemy sobie rozmawiać
ze sztuczną inteligencją. Ze sztuczną inteligencją
od mety, która
zaczyna stopniowo pozwalać na coraz więcej.
I do czego osoby niewidome te okulary wykorzystują
najczęściej. Po pierwsze, można
na nich nagrywać wideo. To wideo
może być maksymalnie do trzech mil, więc to nagrywanie trzeba powtarzać,
natomiast za motorze to nagrywanie możemy uruchomić
jednym poleceniem głosowym lub przyciskiem jest fajne. Ponadto
okulary są wyposażone w, można to nazwać
praktycznie mikrofonami binauralnymi. Przez to, jak one leżą
na naszej głowie, gdzie te mikrofony są położone
to te nagrania wychodzą naprawdę mi dobrze.
Te nagrania można też łatwo wysyłać
na przykład po Whatsappie,
po Messengerze, no generalnie są to usługi meta głównie,
ale też można je po prostu sobie później
z telefonu ściągnąć i zrobić z tymi nagraniami
co chcemy.
Piotrze, wetnę Ci się na sekundkę, ale to jest
taki, wiesz, disclaimer, tak uwaga zawsze do
jak słyszę o takich produktach. A jak sprawa wygląda
z tym samym audio w normalnych aplikacjach
na połączonym telefonie?
No niestety są to po prostu słuchawki bluetooth,
więc jakość bluetooth ma. Tak, ja się tego
domyślałem, natomiast fajnie, żeby to po prostu do słuchaczy też
na tym etapie od razu wybrzmiało.
Tak, więc niestety, nie wiem, na TimToka na tym nie wyjdziemy.
Nie ma też wsparcia
dla deweloperów, żeby pisać własne aplikacje,
więc niestety na przykład takiego, no bo właśnie to też taki
disclaimer w sumie, to są pliki wideo, przypominam, więc jeśli
chcemy z nich wydobyć dźwięk, no to musimy to sobie na komputerze
albo na telefonie jakąś aplikacją tu zrobić. Są do tego aplikacje,
no ale to jest dodatkowy krok, no i przez co też te
materiały są większe. Teraz nie wiem jaki
dokładnie rozmiar mają te pliki domyślnie, no nie są tam jakieś
ustawienia jakości, ale to na pewno będzie rozmiar
kilkanaście razy większy niż
samo audio, czy kilka razy, także o tym też warto pamiętać.
No to jest jedna rzecz, a druga rzecz to
są funkcje AI i na co
te okulary nam pozwalają? No możemy prosić je,
żeby nam różne rzeczy opisywały. Czasem opisują
to lepiej, czasem gorzej. Generalnie opinia jest taka,
że ten model mety nie jest tak dobry w opisywaniu
jak modele konkurencyjne, ale jednak wielu
ludziom to mimo wszystko pomaga. No na przykład
nie wiem, w sklepie są często wykorzystywane.
Gdzieś w drodze proszą
ludzie o opisywanie jakichś znaków, budynków, tego typu
rzeczy. No generalnie znów tutaj
przez to, że te okulary leżą na nosie,
widzą to z takiej perspektywy jak nasze,
jak my, można powiedzieć, no to wystarczy
popatrzeć, obrócić się w stronę rzeczy, która nas
interesuje i znów jednym poleceniem, tak hej meta, opisz, co widzisz
na przykład, możemy jakiś opis
dostać. No i czasem po prostu
też te okulary zaczęły dostawać więcej funkcji.
Jakieś tłumaczenie, natomiast tłumaczenie, które wspiera kilka
języków. Taka bardziej funkcja, która
może się przydać nam, to integracja
z Be My Eyes, natomiast jest to na razie integracja
wyłącznie z tą funkcją połączenia
z wolontariuszem, więc jeśli ktoś by chciał skorzystać
z jakiegoś innego AI do opisów,
no to tego nie ma. Niemniej jednak…
Przynajmniej w taki prosty sposób, bo oczywiście jeżeli ktoś na przykład ma
zbudowanego jakiegoś bota na aplikacjach
mety, z którymi to się te okulary integrują,
czyli Messenger albo Whatsapp, to jakaś tam
droga jest, żeby do takiego bota na przykład wysłać
zdjęcia. No ale umówmy się, to już jest wyższa sztuka i to
jest konieczność umiejętności
jakichś związanych z programowaniem. Natomiast
jeszcze taką jedną funkcją, która myślę, że jest
dość mocno wykorzystywana przez osoby niewidome
w przypadku tych okularów jest chociażby po prostu to, że tak jak Piotrze
wspomniałeś, Be My Eyes to jest jedna aplikacja
za pomocą której możemy się łączyć z
wolontariuszami i prosić te osoby o pomoc.
Natomiast jest jeszcze możliwość zadzwonienia na
Messengerze i na Whatsappie, czyli na aplikacjach
należących do mety, do kogokolwiek
z naszych znajomych i włączenia
tych okularów jako kamery. A to już też
daje naprawdę spore możliwości.
A to prawda, o tym faktycznie zapomniałem, a to jest jedna z ciekawszych
funkcji tych okularów. Właśnie możemy też po prostu do kogoś
zadzwonić i poprosić na przykład
o pomoc. A także faktycznie te
okulary atmosferę podbijają. Coraz więcej ludzi
w mediach społecznościowych pisze, że takie okulary posiada.
Wymieniają się z postrzeżeniami np. w podcastach różnych.
Więc ta technologia się na pewno
rozprzestrzenia. Jak ona działa w Polsce?
Jest o tym podcast nawet u nas, także możecie posłuchać.
Generalnie po pierwsze musimy sobie to VPN-em konfigurować,
jeśli chcemy mieć dostęp do tej funkcji AI.
A po drugie to AI nie działa
najlepiej z językiem polskim. Lubi sobie wszystko tłumaczyć,
nawet jeśli mamy jakiś tekst np. na opakowaniu,
który jest po polsku, czy np. na książce.
No to owszem, on go przeczyta, właściwie przez
przeczyta tutaj rozumiem, streści i przetłumaczy na angielski.
Także bezpośredni transkrypt
to to nie jest, a to może mieć swoje konsekwencje,
jeśli chodzi o AI.
Konkurencyjne modele też to robią, przynajmniej jako pierwszy rzut.
Przy pierwszym zdjęciu, przy pierwszym
oglądaniu tej treści. Jak mu się powie,
że oczekuje pełnej tej, no to on już wtedy
albo się zacznie mówić, że jest za długi, albo wtedy
przejdzie do ataku. No niekoniecznie,
bo np. w przypadku czata GPT
czy w przypadku Be My Eyes
po prostu, jeżeli mamy polskie
zdjęcie z polskim tekstem, to absolutnie on już teraz sobie nie
tłumaczy. Natomiast rzeczywiście tu Patryku masz rację pod tym względem,
że to wewnętrznie jest najprawdopodobniej wszystko obsługiwane
w języku angielskim, natomiast… Nie, właśnie wewnętrznie powiem Ci, jest
bardzo dużo natywnego języka. Właśnie mi chodzi
bardziej o sytuację, kiedy… że on mimo wszystko streszcza.
Ostatnio miałem sytuację z dokumentami
w języku niemieckim i
pierwszy rzut, ten pierwszy…
same angielskie słowa mi się cisną.
Ten… ta pierwsza jakby…
ten pierwszy skan na kartkę,
no to co? To
Be My Eyes po prostu powiedział, że jest to dokument w języku niemieckim
mówiący o tym, że… i pięknie przetłumaczył
jakby streścił po Ejajowemu
czy tam było napisane. Okej, okej, bo być może
wiesz, ja na przykład jeżeli mam język polski ustawiony
i w języku polskim prowadzę tę konwersację i tłumaczę
sobie, a właściwie nie tłumaczę, tylko po prostu rozpoznaję
sobie jakieś rzeczy w języku polskim, no to absolutnie
nie ma po angielsku. To zależy od długości. Wiesz, jakbyś mu dał pismo urzędowe,
to on Ci powie, że to jest pismo urzędowe mówiące o tym, że
i też będzie streszczał. Natomiast też warto od razu przy tej
okazji powiedzieć i przypomnieć tak naprawdę
naszym słuchaczom, że okej,
wiemy doskonale, że Wy korzystacie, no
my też zresztą niejednokrotnie
z takich narzędzi AI jako
OCR-a, ale trzeba mieć
na względzie to, że to nie jest OCR, tam nie ma
mechanizmu rozpoznawania
znaków tak do końca, tylko tam może
mogą się wdać te tak zwane halucynacje
i może Was to oszukać w jakichś szczegółach na przykład.
To się może zdarzyć. Oczywiście.
W szczególności gdy kartka jest źle zeskanowana.
Gdy ona jest zeskanowana w jakiś bardzo charakterystyczny sposób
i nam powie, że tekst jest rozmyty
i nie mogę, powie tylko część szczegółów.
Ale na przykład niestety
momentami idzie w zaparte. W szczególności kiedy to są dane unikalne
na przykład celowo, doskonale jakby spodziewając się
konsekwencji. Wziąłem kiedyś wypisany ręcznik
kwitek z poczty z adresem, numerem przesyłki
i tak dalej, tak i wiedzą Państwo jak to
poczta wydaje po skończonej
wizycie w kolejce.
No i tutaj już popłynął i treść tego
gdzie to się na przykład wysłane zostało
się zgadzała, dokąd też numer
jedna cyfra została pomylona.
Dla aplikacji przesyłkowych to naprawdę dużo.
Ale imię, nazwisko i mój adres nadawcy został
po prostu totalnie zmyślony. Wzięty z innego
podobnego zdjęcia, na którym gdzieś tam wiadomo.
Na czym polegają halucynacje nie musimy Państwu gdzieś tam tłumaczyć.
I to może zawieść.
To może wyprowadzić koncertowo w pole.
Ja tak w ogóle przypomnę, a właściwie
może powiem, bo jeszcze chyba nawet o tym nie wspomnieliśmy
w naszej dzisiejszej audycji, że my jesteśmy oczywiście na żywo.
Więc jeżeli macie ochotę się z nami kontaktować to można.
I to można na kilka sposobów nawet.
663883600 to jest nasz numer telefonu.
Jest kontakt.tyflopodcast.net, jest YouTube, jest Facebook,
jest Whatsapp. Tam możecie wysyłać nam
swoje wiadomości. Mamy też kilka
materiałów nagranych od
naszych słuchaczy, od osób, które
interesują się nowoczesnymi
technologiami i ten rok
miniony 2024 technologicznie
zechciały dla nas podsumować i do tych nagrań
na pewno będziemy w trakcie dzisiejszej audycji sięgać.
To prawda, ale jeszcze zanim
sięgniemy do materiałów, może jeszcze powiedzmy sobie
o np. Mobile MPK,
która to do tej pory była aplikacja
na Androida, ale właśnie w tamtym,
czyli w 2024 roku pojawiała się również
na system iOS. No i bardzo
dobrze się pojawiła na system iOS, bo to jest taka aplikacja
rozkład jazdy w starym stylu,
to znaczy to jest coś,
gdzie mamy rozkład
z dowolnego przystanku, rozkład
dowolnej linii i jakąś tam wyszukiwarkę
i to są takie główne funkcje.
To nie jest aplikacja, która tak jak wiele
podobnych polega na tym, żeby
podać miejsce docelowe,
miejsce startowe i aplikacja sama
nam powie jak tam dojechać, tylko
sami sobie możemy to wszystko posprawdzać.
No i tak jak
na Androidzie z dostępnością tej aplikacji
nie ma w zasadzie żadnych problemów, no to na iOSie jest
troszkę problemów z tą aplikacją, przynajmniej
według tego, co widziałem.
Jest kilka takich rzeczy,
które są czytane, a nie muszą być,
nie pamiętam czy jakaś strzałka, coś,
nie zawsze da się jakby wejść w szczegóły
chyba połączenia, nie wiem czy ktoś z Was korzysta z niej jakoś częściej.
Ja parę razy ją odpaliłem szczerze mówiąc
no i też pamiętam, bo byłem przy tym kiedy Wojtek Dulski
prezentował te aplikacje w Tyfloradiu.
No i muszę powiedzieć, że jakoś nie poczułem się
bardzo zachęcony do tego, żeby ją zgłębiać.
Inna rzecz, że mojego miasta rodzinnego
jak zresztą i wiele innych aplikacji to ona po prostu nie obsługuje.
Tak i to jest jakieś rozczarowanie.
To znaczy brak
miasta to jedno, ale no właśnie to, że
nie chodzi to tak jak chodzi na Androidzie.
Że jednak na iOSie
no są z nią problemy i to jakoś tak
nie bardzo. Pobrałem, ucieszyłem się, że jest.
Zainstalowałem nawet
i próbowałem dojechać w konkretne miejsce.
Tak efekt osiągnąłem.
Po chwili wróciłem do Time for Buzz.
Jak można to dobrze, ale nie zawsze się da.
Ale co by nie mówić, a w naszych grupach społecznościowych
spowodowało to niemałe zamieszanie i widać, że trochę
zadowolonych użytkowników jest, no zwłaszcza
w miastach właśnie, gdzie Time for Buzz nie działa.
No bo umówmy się, niestety
oprócz Time for Buzz, nie wiem jaki jest alternatywny
na iOS. No jest jeszcze Movid.
Ty uprzesz to? Movid, tak.
No ale Movid to ma chyba jeszcze mniej miast
niż Time for Buzz. Chyba. Nie, no właśnie więcej.
Więcej.
Przy czym są miasta, w których nie ma Time for Buzz,
znaczy nie ma Movid, a ma je bodaj Time for Buzz.
Bo tam chodzi o to, że państwo z Time for Buzz
wdrażają ten swój system i to jakby w gratisie wtedy
poniekąd jako część tego jest bycie
w aplikacji Time for Buzz i jakieś jedno bądź dwa
miasta znalazłem, które w Movid
nie działały, a w Time for Buzz tak.
To znaczy, to też jest tak, że to Time for Buzz
przynajmniej z tego, co Roman Roczeń
u nas opowiadał w Tyflo
Radiu, to działa na jakimś otwartym systemie,
że jest w stanie sobie ta aplikacja zaciągać
informacje w jakiś taki
ustrukturyzowany i otwarty sposób, natomiast
to jest ponoć problem
z tym, że no właśnie
różnego rodzaju zarządy tych transportów miejskich
mają już jakieś pewne
zaszłości związane ze starszymi systemami czy z jakimiś
innymi systemami i niekoniecznie chcą się otwierać na to
co gdzieś tam jest, ale no właśnie
pytanie, jak to rzeczywiście działa w praktyce.
Tak, natomiast Movid…
Ja bym tak zupełnie nie skreślał, bo Movid ma kilka rzeczy,
które Time for Buzz albo ma od niedawna, albo
ma nadal dosyć pokrętnie i nieintuicyjnie.
Tam już dokładnie nie będę teraz Państwa
czarował co, po co i dlaczego, bo
zwyczajnie mogę wprowadzić tylko więcej zamętu,
ale chodziło o coś, o jakieś
ustawienie różnych rzeczy w kółko. Na zasadzie
ja sobie jestem w stanie chyba prawie w nieskończoność w Movid
na przykład wejść w linię,
która jedzie do punktu X
przez przystanek Z, ale ja nie chcę,
więc wchodzę w przystanek Z, patrzę jakie są
z tej Z-tki linie i coś tam dalej
i tak mogę sobie długo, długo, długo w drzewko
dalej wchodzić, a w Time for Buzzie z tego co pamiętam to ma
jakiś tam swój limit, że w pewnym momencie
już czegoś więcej nie zrobię.
Właśnie w Mobile MPK na Androida
też tak jest jak mówisz, można sobie chodzić, po tym i chodzić
i chodzić. Tak, w zależności, linia 5 jadąca
przez Jana Pawła II, wchodzę w Jana Pawła II,
co z niego jedzie, a tak w ogóle to może obejrzę sobie
cały zespół przystankowy, a w przeciwną stronę
z Jana Pawła II jedzie w ogóle tramwaj,
dobrze to gdzie jedzie ta linia tramwajowa, to jeszcze
kierunek tego tramwaju, to no za pętlicie
idzie i za… Tak, no i w
Mobile MPK tych miast to jest chyba 60 w tej chwili,
więc dużo. Więc mimo wszystko,
jeżeli ktoś jeszcze nie wie, że Mobile MPK na iOS jest,
tak, jest, to jest
i chyba nawet polecamy, przynajmniej sprawdzić.
Może inaczej, czasami nie bardzo
jest inna możliwość, nie mniej
na pewno lepiej to działa na Androidzie.
No i miło, ja szczerze mówiąc
miałem nadzieję, że to się w ciągu miesiąca,
może dwóch, upodobni do tego sposobu
działania na Androidzie, no ale niestety się
nie upodobniło, no i czekamy.
Ale zdaje się, że jakieś pojedyncze kwestie
dostępnościowe przez autorów podejmowane są, prawda?
Bo tam chyba w jednej z pierwszych aktualizacji
apelowaliście o jakąś konkretną zmianę i to ma przeszłość.
No coś jest, natomiast…
Tak, to powoli coś tam zaczęło się pojawiać, natomiast
no też inna rzecz, że tych aktualizacji mobile MPK nie ma
jakoś dużo, ja nie pamiętam,
a może nie zauważyłem, żeby ostatnimi czasy
jakieś kolejne się pojawiały.
W międzyczasie komentarze do nas przyszły, więc może
przeczytam te komentarze, które wysłaliście
do nas na naszym panelu kontaktowym.
Tu Nudo do nas napisał, czyli Arek Świętnicki,
którego zresztą też dziś jeszcze usłyszycie
na naszej antenie za czas jakiś.
Po pierwsze, parę dni temu w aplikacji
MetaView dostałem info, że meta.ai
dostępne jest już we Włoszech.
Faktycznie działa już bez VPN.
Po drugie, w ramach eksperymentu pracuję nad integracją
RayBanów z Luomo Toolboxem. Potraktujcie to jako ciekawostkę,
bo nie jest to zbyt praktyczne.
Kolejny komentarz pochodzi od Natalii.
Witajcie, miło dzisiaj tutaj z Wami być i Was móc posłuchać
miłej audycji. Życzę, uważam, że takie podsumowujące
audycje są bardzo ciekawe.
A to się cieszymy. I jeszcze jedna
wiadomość pochodzi od Arka.
Mobile MPK nigdy nie lubiłem i nigdy
nie brakowało mi go na iOS. Zobaczyłem,
odinstalowałem i wróciłem do map Apple.
Time for Buzz pozostaje mi do zadań specjalnych.
To skoro już mamy
wiadomość od Arka, to może posłuchajmy co Arek nam
nagrał, jaką wiadomość.
Dobry wieczór, witam bardzo serdecznie. Przed mikrofonem
Arkadiusz Świętnicki i dzisiaj opiszemy sobie troszkę
co się zmieniło w roku 2024
w naszej ukochanej tyfloinformatyce,
którą wszyscy tutaj obecni prawdopodobnie
w jakimś stopniu się interesują i pasjonują,
więc zapraszam na tę krótką prezentację.
Ten rok moim zdaniem przynajmniej należał
oczywiście do AI i do firmy Apple.
Od Apple’a sobie może zaczniemy, gdyż w tym roku
w systemie iOS 18, iPadOS 18,
a także macOS 15 z Equoia zostało wprowadzonych
wiele interesujących zmian, które sprawią, że
z naszych komputerów i telefonów z logiem nadgryzionego
jabłka będzie nam się korzystało dużo lepiej i przyjemniej.
Dla mnie jedną z najważniejszych zmian wprowadzonych
w tym roku w systemy Hubble jest możliwość
automatycznego uruchamiania klawiatury brailowskiej
po wejściu w pole edycji. Jak już mówiłem podczas naszej audycji,
która opisywała bety tych systemów, moim zdaniem jest to
jedna z najważniejszych nowości w ogóle.
Użytkownicy języków takich jak uzbecki czy urugwajski
mogą też czuć się szczęśliwi, ponieważ
dla ich języków zostały dodane w tegorocznych wersjach
systemu iOS nowe głosy. Niestety Siri nadal
nie doczekała się polskiego języka, ale wiemy już,
że na wiosnę tego roku w Unii Europejskiej
ma zostać wprowadzone Apple Intelligence i podobno
ma działać również w języku polskim, co może
pozwalać nam sądzić, że niedługo również
doczekamy się polskiej Siri. Następną firmą,
która zasługuje na ogromne moim zdaniem pochwały,
gdyż jest to firma, która jako jedna z niewielu zrobiła aż tyle
dla niewidomych w tak krótkim czasie, jest to firma
Vivo. Wprowadzili oni swój model AI,
który pozwala między innymi na rozpoznawanie obrazów,
dźwięków i różnych innych rzeczy. Można też
oczywiście z tym modelem rozmawiać. Vivo wprowadziło
również swoje głosy, które są w języku angielskim
i chińskim dostępne, ale najciekawsze jest to,
że twórcy screenreaderów otrzymują dostęp
do najbardziej zaawansowanych narzędzi AI firmy Vivo
zupełnie za darmo, czyli np. Zadesser,
Baoyueting czy Luoma Toolbox,
który nie jest screenreaderem, ale jest programem asystującym, mogą korzystać
z tych dobrej jakości narzędzi całkowicie za darmo.
Skoro o chińskich screenreaderach już mowa,
to te również doczekały się wielu ciekawych aktualizacji.
Oczywiście, jak prawdopodobnie większość rzeczy w tym roku,
dwa znaki AI mogą to wszystko podsumować,
ale ja troszkę bardziej się nad tym rozwinę.
Po pierwsze Zadesser, ten screenreader
doczekał się w pełni internetowej autoryzacji.
Oznacza to, że wersja zarówno z donglem
jak i ta internetowa jest teraz równoznaczna funkcjonalnością.
Zostały wprowadzone liczne poprawki
w obsłudze pakietu Office, a także
została wprowadzona możliwość podkręcania prędkości,
wysokości, głośności dowolnego,
dostępnego dla Zadesser syntezatora.
Co więcej, otrzymaliśmy również narzędzie służące do konfertowania
mowy na tekst, które również jest w stanie korzystać
z dowolnego, dostępnego dla programu Zadesser
syntezatora mowy. Oczywiście zmian jest
zupełnie więcej. W tym celu odsyłam Was
do audycji poświęconej Zadesserowi,
którą nagrałem w 2024 roku.
Całkiem niedawno, bo dosłownie kilka dni temu, Zadesser otrzymał
nową aktualizację, która korzysta z modelu Vivo
i pozwala nam rozmawiać z modelem na temat
na przykład screenów naszego okna, czy innych obrazów,
jakie dodaliśmy z dysku. Aby otrzymać
dostęp do tej funkcji, naciskamy Insert Control 1
i mamy wówczas dostęp do tej funkcji.
W Chinach to się działo też w innym, konkurencyjnym dla Zadesser
programie Baoyi Yueting, który otrzymał również
wsparcie AI, trochę bardziej rozbudowane niż to
w Zadesserze, gdyż Baoyi na przykład pozwala nam
poprosić model o zrobienie czegoś na naszym komputerze,
model zwraca odpowiednie informacje do programu,
a potem program wykonuje te czynności. Warto pamiętać,
że oczywiście nie można na tym polegać w 100%,
ani nie można temu ufać w 100%, gdyż może się to dla nas
bardzo źle skończyć. Ale uważam, że jest to dosyć ciekawa
metoda na wykorzystanie sztucznej inteligencji.
JOS również doczekał się swojego AI, które chyba
w JOS-ie sprowadza się do tego, że po prostu możemy pytać
o to, jak różne programy obsługiwać z JOS-em.
Też ciekawe zastosowanie, po prostu załadowali chyba
każdą dostępną wiedzę, tam jakieś MSDN-y, MDN-y itd.
do modelu i model jest w stanie nam odpowiadać
na pytania związane z obsługą screenreadera.
Też dość, myślę, ciekawe.
Z innych rzeczy, może trochę mniej przyjemnych, firma Sonos,
producent bardzo popularnych wśród osób niewidomych głośników,
wprowadził nową aplikację. Aplikacja ta
spotkała się z bardzo złym odbiorem, nie tylko ze strony
użytkowników niewidomych, ale i też tych widzących.
Aplikacja jest mało przejrzysta, mało intuicyjna i co najważniejsze
dla tematu dzisiejszej audycji, bardzo mało dostępna.
Zaraz po jej premierze pojawiło się wiele skarg
na to, jak ona działa i się zachowuje. Firma Sonos
próbowała coś z tym zrobić, teraz jest trochę lepiej, możemy już
np. zaznaczać głośniki, zmieniać ich ustawienia itd.,
ale nadal tej aplikacji brakuje bardzo dużo
pod względem dostępności i prostoty użytkowania do jej
pierwowzoru. Inną aplikacją, która bardzo się popsuła w 2024
roku, jest program CleanMyMac X.
Aplikacja, o której kiedyś opowiadałem, służąca do
czyszczenia i utrzymywania naszego Maca w dobrej kondycji,
w dobrym stanie, otrzymała aktualizację do wersji 5.0,
która to wersja 5.0 skopała zarówno
dostępność, jak i funkcjonalność, usuwając m.in.
bardzo przydatne narzędzie Plikoskop, które pozwalało
nam patrzeć rozmiary plików od największego
do najmniejszego. Mówię o tym dlatego, że wiem, że
aplikacja CleanMyMac X była bardzo popularnym
wśród użytkowników niewidomym narzędziem.
Z informacji około macowych, to w roku 2024
aplikacja BBEdit, czyli jeden z najbardziej
znanych i lubianych przez programistów i power userów
edytorów tekstu, otrzymała wsparcie VoiceOver.
Czy jest to wsparcie idealne? Nie. Czy jest to wsparcie
zadowalające? Jak najbardziej tak. Z BBEdita można
teraz w pełni korzystać po niewidomemu, co mnie bardzo cieszy,
bo od samego początku mojej przygody z macOS-em chciałem
z tego programu korzystać. Aplikacja Luomo Toolbox
również nie próżnowała. My również nie próżnowaliśmy.
Wprowadziliśmy w tym roku wiele zmian, m.in.
na ostatnią chwilę, już powiedzmy, że w roku 2025
to zostało wprowadzone, ale w 2024
trwały prace, zostały przetłumaczone wszystkie
możliwe komunikaty serwerowe. Żeby powiedzieć to
bardziej dokładnie, to serwer został niemalże od zera
przepisany, więc jeżeli występują jakieś problemy z Luomo Toolboxem
to prosiłbym o informację.
Kolejną rzeczą, o której chciałem powiedzieć jest to, że
aplikacja Obsidian, czyli taki dość rozbudowany edytor tekstu
z możliwością tworzenia połączeń między notatkami,
jakichś grafów itd., itd. również otrzymał
dostępność w bardzo podstawowym na razie stopniu,
ale już jesteśmy w stanie pisać i czytać notatki.
Hej, no od czegoś trzeba zacząć. To by było na tyle ode mnie.
Życzę wam wszystkim dobrego wieczoru i dobrego
roku 2025.
Dzięki za fajne podsumowanie.
To a propos produktów, które właśnie otrzymały dostępność
w tamtym 2024 roku, no to Ableton
to jest teraz coś dla muzyków.
Dwa produkty. Ableton Live, który już od dawien dawna
na rynku jest, ale no właśnie dopiero w tamtym roku
otrzymał dostępność. No i Ableton Move.
To jest zupełnie nowy produkt, tak zwany groovebox,
czyli takie urządzenie, które
wygląda jak takie prostokątne
pudełeczko, zdaje się. Dużo z takich
grooveboxów na rynku i
te groovebox od
Abletona, Ableton Move dotrzymał
trochę taką nietypową dostępność,
ale jednak dostępność.
Zdaje się Piotrze,
że to jakoś działa tak, że trzeba połączyć
smartfona przez Wi-Fi z tym urządzeniem,
zalogować się na stronę internetową,
taką generowaną przez to urządzenie i ta strona
przez pewnie znaczniki ARIA czy coś tego typu
generuje po prostu komunikaty,
które nasz sklinder zainstalowany w telefonie
czy w komputerze wypowiada.
Czyli nasz telefon zmienia się w sprzętowy syntezator mowy.
W pewnym sensie można tak to nazwać.
W roku 2024. Ale to działa.
Ciekawe rozwiązanie. No ważne, że działa.
A ty Tomaszu testowałeś live’a?
Pełnego? Nie, nie testowałem jeszcze live’a.
Muszę w końcu to zrobić, bo w końcu mam czas na
takie porządne testy. Więc pewnie właśnie będę testował
i mam nadzieję, że jakaś audycja też się z tego
w Tyflo Podcastzie pojawi.
Ja się chwilę tym bawiłem, natomiast z perspektywy kogoś, kto raczej
jeżeli chodzi o dźwięk, to przede wszystkim
dokonuje jakichś edycji i takich rzeczy
tego typu, a nie zajmuje się jakimś komponowaniem
muzyki, to muszę powiedzieć, że live
totalnie nie przypadł mi do gustu. Ta filozofia pracy,
ten układ, który tam się pojawia
jest dla mnie zupełnie dziwny, o ile na przykład
z Reaper’em nie miałem żadnego
albo prawie żadnego problemu, kiedy
przerzucałem się na niego z Gold Wave’a i dla mnie ta filozofia
tych wielu ścieżek nie była absolutnie niczym strasznym
to po prostu wymagało jakiegoś tam pewnego
pojęcia, o co w tym wszystkim chodzi, tak
Ableton zupełnie jakoś nie
trafił w mój gust, ale oczywiście to są
takie typowo subiektywne wrażenia.
No bo live jest jednak programem,
który jakby
stworzony jest do tworzenia muzyki, muzyki
elektronicznej, muzyki najczęściej
z patternów i to jest zupełnie inny rodzaj pracy niż
to, co ty robisz, czyli edycja dźwięku,
montowanie, jakieś składanie
tekstu i czy tam mowy i muzyki
i do tego rzeczywiście Reaper jest
dużo bardziej, mam wrażenie, adekwatny, bo
po prostu Reaper, no to jest taki klasyczny program
wielościeszkowy do edycji audio
no i muzyki też, ale jakby
głównym chyba zadaniem Reaper’a
jest mix jakichś materiałów
plus oczywiście tworzenie muzyki, no bo trudno, żeby
nie, natomiast Ableton ma dużo
większy tutaj nacisk na tworzenie muzyki
to muzyki elektronicznej, która rządzi się trochę swoimi prawami
i…
Tak, nawet w tych aplikacjach to nawet Ableton ma
chyba taki dosyć unikalny interfejs, którego na przykład nawet nie ma
Logic albo FL Studio chyba, mianowicie tutaj mówię
o tym, że mamy w Abletonie
dwa widoki, mamy dla tych, którzy
nigdy nie interesowali się tą aplikacją, mamy
widok aranżacji i ten widok wygląda
bardzo podobnie jak jakiś Reaper czy Logic w takim sensie, że po prostu mamy
oś czasu, nasze ścieżki
układamy sobie w pionie
i po prostu możemy sobie foldery tworzyć i po prostu jak coś nagrywamy
na tym oś czasu, to ona się po prostu nagrywa, to się wtedy zapisuje
jako tak zwane klipy w Abletonie. To działa bardzo podobnie
jak Reaper pod tym względem, natomiast faktycznie Reaper jest
dużo lepszy do obróbki dźwięku. Natomiast mamy też
tak zwany widok sesji, w którym
ścieżki mamy ułożone w poziomie, a nie w pionie,
natomiast w pionie mamy
sloty na zapętlone klipy,
których możemy nagrywać tyle, ile chcemy i albo możemy je
na żywo sobie uruchamiać podczas
np. jakiegoś setu albo tak, no gramy na żywo, stąd zresztą nazwa
Ableton Live, ale też możemy w ten sposób
sobie np. otworzymy jakiś utwór, możemy
poeksperymentować właśnie w tym widoku sesji,
no bo wtedy tak jakby nie mamy takiej typowej osi czasu, więc
to nam jest zapętlone w nieskończoność, my sobie możemy dogrywać różne
melodie, różne paterny
perkusyjne, po prostu próbować różnych rzeczy, no i kiedy nam się
coś spodoba, no to możemy po prostu przekleić tego
widoku aranżacji, albo nawet nagrywać
na żywo to, co my robimy
z tego widoku sesji, włączając, wyłączając
poszczególne klipy, i to nam się po prostu nagra z tego
widoku aranżacji i w ten sposób z tym
pracować. Co jeszcze odróżnia Abletona
od Reapera? No np. to coś pokazuje to,
o czym mówił Tomek, bo to jest to, że Reaper tak naprawdę
nie przychodzi do nas praktycznie z niczym… dobra, przychodzi do nas
z dużą ilością naprawdę fajnych efektów, jakichś
korektorów, kompresorów, tego typu rzeczy.
Ale jeśli chodzi o budowane dźwięki, no to mamy
syntezator, i to taki naprawdę prosty
syntezator, który nie ma praktycznie
nic, i…
jest sampler, który jest bardzo prosty, tak?
I to tak naprawdę wszystko. Natomiast w Abletonie
Abletona w ogóle mamy trzy edycje, zależnie od tego
ile chcemy pieniędzy wydać, ale w każdej
z tych edycji generalnie dostajemy już jakieś dźwięki.
Czy to właśnie tak zwane
sample i loopy, czyli już zapętlone jakieś gotowe
fragmenty różnych instrumentów, które możemy
wykorzystać, ale też dostajemy faktycznie takie typowe
instrumenty. No i Ableton ma trochę tych budowanych syntezatorów,
zarówno jakichś zasamplowanych instrumentów,
które możemy wykorzystać, ale też syntezatorów
analogowych, syntezatorów FM,
jakichś syntezatorów, które mają
udawać instrumenty,
jakieś, nie wiem, skrzypce,
jakieś metalowe instrumenty, tego typu rzeczy.
Tych wtyczek jest sporo. Oczywiście też możemy
pracować z wtyczkami
firm trzecich, także tutaj też ta
różnica jest widoczna. Ja akurat Abletona
miałem okazję testować, zanim
ta wersja ukazała się publicznie i
co mogę powiedzieć, jako wieloletni
użytkownik Reapera, zarówno jeden, jak i drugi program ma
swoje miejsce. Ableton do
takiego tworzenia muzyki, to nawet mi przypał do gustu
bardziej niż Reaper, mam wrażenie, więc mi akurat ten
w ten sposób pracy przypasował do muzyki.
Do obróbki dźwięku to nie, to Reaper
jest zdecydowanie lepszy. Natomiast
jeśli chodzi o całą dostępność, biorąc pod uwagę,
że poprzednia wersja Live’a, czyli to była wersja 11, teraz mamy
dwunastą, była nierozstępna całkiem,
no to co mamy teraz, jak na wersję, no teraz to powiedzmy
to będzie 1.1, bo teraz mamy wersję 12.5
bodajże. No to tak była druga,
mniejsza aktualizacja, która się pojawiła.
No to jest naprawdę dużo i ewidentnie ktoś,
kto nad tą dostępność, tam po prostu
faktycznie od początku były zaangażowane osoby
niewidome. Ja nie byłem od początku zaangażowany, ale wiem, że tam byli ludzie, którzy
są kompozytorami, są dźwiękowcami,
więc też brzydkownicy m.in. Reapera
i tego typu programów. No i przede wszystkim też
Ableton zatrudnił osobę, która zajmuje się
dostępnością jako taką. To nie jest, że dobra, zróbmy
coś przy okazji, tylko jest dedykowana osoba, która
faktycznie nad tym siedzi, prawdopodobnie zbiera
tę informację zwrotną od użytkowników,
koordynuje te testy dostępności
i rzeczywiście są tego efekty.
Tak, mamy komunikaty podawane po czytni ekranu,
doszło wiele skrótów klawiszowych
specjalnie dla nas. Mamy dużo opcji
dostępności, nawet co ma być czytane, co nie.
Trochę tego jest. Są też
braki. Takim największym brakiem
nie wszystkie wtyki budowane
są dostępne. Powiedzmy tak 90% jest dostępne, więc
mogłoby być dużo gorzej. W tej wersji,
którą mamy, też nie jest dostępna
automatyka. Znaczy na początku nie była,
teraz ona jest ukryta za flagą, którą trzeba sobie ręcznie włączyć, bo tam
jeszcze są jakieś problemy ze stabilnością. No i właśnie a propos stabilności
też z tym mogłoby być lepiej
zarówno na Windowsie
jak i na Macu. No i to prawda.
Ja mam wrażenie, a przynajmniej miałem wrażenie
testując Abletona jeszcze w tej wersji pierwszej,
która się pojawiła z zaimplementowaną dostępnością,
że on tylko czeka, żeby się wywrócić.
I rzeczywiście wywrócił się po jakimś czasie
mojej pracy z nim, więc
podejrzewam, że teraz jest już lepiej, natomiast tak trochę
obawiałbym się tam
zwłaszcza na przykład występować z tą aplikacją
jako osoba niewidoma na żywo.
Na pewno mamy jakieś kontrole i sobie te sample
przypisaliśmy do przycisków.
Ona się lubi wysypać, głównie zauważyłem podczas nawigacji.
Ale jeśli coś tworzymy, to Control S
czy Command S. Zadam pytanie, Piotrze.
Testowałeś go może w wersji DJ-skiej
nazwijmy to z kontrolerem, ale nie klawiaturą sterującą,
a właśnie w wersji symulowanego
występu live z utworami, z przejściami,
czyli przede wszystkim zajmuje się… Nie posiadam kontrolera sprzętowego,
więc się nie wypowiem niestety. A, jasne, jasne, jasne.
Także tutaj była głównie klawiatura, tam trochę kontrolera MIDI
w moim przypadku. Natomiast właśnie
coś, co nie było dostępne wcale, a teraz jest
powiedzmy dostępne w 85-90%
jest naprawdę nieźle,
także jeśli ktoś czekał, no to można
już testować. Warto sobie przejrzeć dokumentację,
zwłaszcza sekcje o dostępności, sekcje o skrótach
klawiszowych, a właśnie też mam
taki plan, żeby jakąś audycję, przynajmniej
która pokaże, co ten program potrafi,
bo taki samouczek, który omówi wszystkie
aspekty tej aplikacji, to pewnie byłoby zrobić ciężko.
Na pewno coś na ten rok mam w planach, żeby
coś takiego też zrobić. Na Facebooku napisał do nas Grzegorz
ten Arek to chyba Eleven, a nie.
No, nagrał się nam Arek. Nie, bo brzmiało tak
bardzo fajnie poedytowane takie i
głos Arka też był pozbawiony tła w ogóle, nie?
Takiego aż… mi też się to skojarzyło z jakimś efektem
AI, ale wierzę, że to powstało w naturalnych warunkach.
Ja o tym po prostu wiem. Jeszcze AI tak dobrze nie działa.
Tak, tak.
Dobrze, przechodzimy do
następnego newsa. W końcu
aplikacje po latach, naprawdę latach
zaczynają korzystać z czegoś, co nazywa się działania
w TokBeku, a to chyba, tak mi się
wydaje, chociaż być może tam jest jeszcze coś, o czym nie wiem,
bo TokBek w wersji 15 w końcu
te działania zaczął
mieć w takiej formie, w jakiej chciałoby się
mieć je od zawsze. Czym są działania?
To jest w zasadzie to samo, co czynności voice-overa,
te czynności na pokrętle, czyli
jestem na, nie wiem, telefonie, przechodzę sobie
po jakichś numerach telefonu i mam pan
połącz, usuń, czy nie pamiętam, jak to tam wygląda.
No i w końcu część aplikacji na
Androida zaczyna korzystać z tego samego mechanizmu,
bo w końcu ten mechanizm działa, bo
wcześniej te działania w TokBeku były, tyle że, żeby się
do nich dostać, trzeba było zrobić menu,
to takie lka góra prawo
i tam znaleźć działania,
w nie kliknąć i dopiero mieliśmy listę działań
dla danego tam czegoś.
Można było sobie zrobić skrót
osobny do działań, żeby się pojawiła lista tych działań.
Niemniej, tak czy inaczej,
to dużo wygodniej działało,
znaczy działało, dużo wygodniej, żeby były jednak
czynności voice over, bo po prostu
wystarczy przesunąć palec w górę lub w dół.
No i w końcu w TokBeku też to zaczyna działać
w zasadzie tak samo, czyli przesunąłem
palec w górę lub w dół. No i
rzeczywiście to jest,
to jest, to już kilka aplikacji
ma TimeForBuzz YouTube.
Co ciekawe,
co ciekawe, launcher nowa
te działania ma zaimplementowane od
na pewno kilku lat. Na pewno wtedy,
kiedy jeszcze były te działania w tej takiej bardzo niewygodnej
formie, to
to już w nowej, czy w nowie w zasadzie
działało. No i teraz te aplikacje
zaczynają mieć te działania. WhatsApp chociażby
też te działania zaczyna mieć, więc
jeżeli ktoś, jeżeli
chciałby,
no może inaczej, jeżeli komuś przeszkadzało
to, że na Androidzie nie ma tych działań, no to
to już zaczyna być. No i miejmy nadzieję, że tych aplikacji,
które z tego mechanizmu korzystają, będzie
coraz więcej, bo widać, że
właśnie od momentu, kiedy pojawił się ten nowy
TalkBack, te działania są wspierane przez różne aplikacje,
więc zastanawiam się, czy tam nie ma jakiegoś
jakiegoś update’u
dokumentacji, czy czegoś,
żeby o tych działaniach można się było dowiadywać łatwiej.
No, ale
rzeczywiście zaczyna się to tak dość dynamicznie rozwijać.
Zobaczymy, co będzie dalej, czy to tylko
rzeczywiście te kilka aplikacji te działania
zdobyły i to tyle.
To może tak być, że
będzie to jak z Mobile MPK, które
mieliśmy duże nadzieję, że na iOS-a to będzie
dobrze działało, tymczasem jakoś nie bardzo.
No, ale zobaczymy.
Ja się cieszę z tego, że przede wszystkim Google zaczął się przyznawać
do tego, że taką funkcję ma, no w ten sposób,
że zaczęli implementować to we własnych aplikacjach, bo
sytuacja była do tego stopnia tragiczna, że
działania były w iOS-owych wersjach
google’owskich aplikacji, w sensie czynności na pokrętle,
w mapach,
czy w wiadomościach też na YouTubie oczywiście,
ale nie w androidowych. I o tym był cały w ogóle artykuł
na Accessible Android, co myślę, że już jest…
obrazuje, jak bardzo zła była sytuacja, jak bardzo
Google po macoszemu traktował api,
które de facto sam wprowadził, natomiast
fajnie, że się reflektują, że zaczynają nad tym działać,
bo też fakt, że one były
dostępne w menu, no nie zachęcał jakoś specjalnie
do tego, żeby je implementować, tak jak mówiłeś, do tego stopnia,
że lata temu Facebook napisał
o tym, jak jeszcze prowadzili jakąśkolwiek działalność
socialmediową a propos dostępności
i raportowali i meldowali, jakby dokumentowali swoją działalność
i pisali dość dokładnie o tym, co robili,
to oni napisali wprost, że im się nie opłaca tego implementować,
bo dużo lepiej
wyjdą na tym, jak zrobią po prostu przycisk więcej akcji,
będzie to lepiej odkrywalne przez użytkowników, więcej osób się dowie
o tym, że to po prostu jest. No a teraz mamy…
Tak, bo prawie nikt o tym nie wiedział. Tak. A teraz mamy…
Znaczy była niby jakaś chyba wiadomość, że dostępne działania,
ale jak tam wejść? To już chyba nie bardzo.
Było przede wszystkim
z punktu widzenia polskiego języka oczywiście
bardzo nielogiczne, mianowicie ta
wiadomość brzmiała chyba z tego, co pamiętam,
dostępne jest działanie działania. Tak, tak.
O, to widzicie, używałem wtedy Androida.
Musiało mi to umknąć.
No więc właśnie, ale tutaj
już jest zwrot jakby
kursu i to dobrze, bo
to jest bardzo genialne działanie, które też upraszcza interfejs
i można wyeliminować więcej niepotrzebnych przycisków.
Mniej jest rzeczy do nawigowania. Ja mogę tylko ze swojej strony
powiedzieć, że odkąd zajmuję się
zawodowo powiedzmy gdzieś, znaczy powiedzmy no po prostu
dostępnością cyfrową, to w aplikacjach, które audytuję
zawsze zahaczam jako z mojej strony
jako audytora wymaganie, żeby te działania były.
Na Androidzie też. No to teraz
już rzeczywiście te działania zaczynają
działać. Też z aplikacji google’owych
na przykład dysk te działania zaczął wspierać
od chyba niedawna. Skoro
Pawle przywołałeś temat Facebooka, to jeszcze
jedna rzecz mi się przypomniała a propos
właśnie ich różnych
działań, mianowicie to, że
przecież to pod koniec zeszłego roku
pożegnaliśmy się w końcu i chyba już ostatecznie
już chyba u nikogo to nie działa. Strona mobilna
mbasicfacebook.com
Są miejskie legendy, że jeszcze komuś działa.
Jak komuś jeszcze działa, to dajcie
znać. Będziemy się cieszyć waszym szczęściem.
Tak skoro rozmawiamy o rzeczach, które tak zniknęły, bo to nawet było w audycji
w technikaliach, ale skoro już jesteśmy przygłaszeni, to można o tym
wspomnieć. Dużo filmik, ja tu napisałem, zrobiło
porządki. To nie jest jedyna rzecz, która
zniknęła w tym roku, jeśli chodzi o takie uproszczone interfejsy.
Kolejną ofiarą takich działań jest na przykład
prosty interfejs HTML na Gmailu,
którego też już nie ma, więc jeśli ktoś się nie polubił
z tym współczesnym
interfejsem Gmaila, który generalnie powiem tak,
ja nie mam nic do niego, on jest, no wiadomo, bardziej ociężały, bo tam jest
dużo javascriptu i tak dalej. Jak się nauczymy
jego skrótów, to da się z niego korzystać, no ale te skróty są
bardzo niestandardowe i tam trzeba się naprawdę tego
systemu nauczyć, żeby jakkolwiek z niego
korzystać. No ewentualnie możemy skorzystać z jakiejś
zewnętrznej aplikacji do poczty. Mam nadzieję, że tą aplikacją
nie była aplikacja poczta w systemie Windows 10,
bo to też zniknęło.
A wiemy, że zniknie Outlook Classic?
Tak, w cudzysłowie nowego Outlooka,
który jest po prostu Outlookiem webowym.
Na szczęście Thunderbird wyrównuje jakoś.
Tak, jest Thunderbird i on ma się dobrze, on akurat też miał
dużą przebudowę, nie wiem, czy to było w tym roku,
w 2023 roku. W zeszłym, w zeszłym, ale już chyba się prostuje to.
Tak, ale… Tak, tam są jeszcze jakieś problemy pod tytułem
kiedy ktoś pisze treść wiadomości,
to czasem pod strzałkami
nie jest ta treść odczytywana. To ostatnio nawet
dostałem taką informację i pytanie
co robić, ponoć restart NVIDIA i pomaga w takiej sytuacji.
Jest to znany błąd i myślą nad tym chyba już
dwa zespoły i Mozilla i NVIDIA. Ale wiecie co, to taka moja refleksja
jest, że kiedy tak obserwowałem
to jak to wygląda z pocztą i z dostępem
do poczty elektronicznej dla niewidomych w tym roku.
Minionym roku właściwie,
w 2024, czyli de facto do takiej jednej
z podstawowych usług internetowych,
wokół której się jeszcze
kręciło
sporo różnego rodzaju usług i to dla takich osób
niewidomych, które absolutnie nie chciały się bawić w jakieś tam
nowości, media społecznościowe,
no bo tu mamy przecież no chociażby działającą
od wielu lat listę dyskusyjną Tyflos,
na zagranicznych różnych,
w zagranicznych miejscach to zdecydowanie jeszcze więcej
tych różnych list dyskusyjnych, no poczta internetowa,
poczta elektroniczna, konto mailowe, każdy ma.
A tu się okazuje, że obsługa tego
konta pocztowego jak kiedyś była naprawdę bardzo prosta
to przez takie ruchy
twórców aplikacji pocztowych, czy to właśnie
Mozilla, czy to Microsoft
to zaczyna być nie lada wyzwaniem i zaczyna być
coraz bardziej problematyczna, jeżeli ktoś
chce oczywiście z tej poczty korzystać efektywnie, bo oczywiście
wiadomo, no strona internetowa, czy
nawet ten outlook nowoczesny, webowy
no da się z tym pracować, to nie jest tak, że się
kompletnie nic nie da zrobić, ale no
jeżeli ktoś na przykład w swojej pracy
musi czytać wiele maili, to zaczyna
mieć coraz większy problem.
Ja myślę, że tu w ogóle można wypoczynić taką refleksję, w którą
postaram się nie iść za głęboko, bo to moglibyśmy godzinami
mielić temat, ale podsumowania roku to jest chyba fajna okazja, żeby
taką refleksję poczynić. Ten świat
technologii jest bardzo płynny.
I o ile te 10 czy 15 lat temu,
kiedy Tyflopodcast zaczynał działalność, dużo więcej rzeczy
dało się mniej więcej przewidzieć, że skoro takie
są dziś, to prawdopodobnie nie zmienią się
znacząco w ciągu, nie wiem, roku.
Tak teraz weszło wiele zmian, które może
ktoś ich spodziewał, ktoś, kto jest takim wprawnym analitykiem
i wie, jak ten świat jest skonstruowany, ja się do takich osób nie zaliczam.
Ja bardzo nie lubię robić przypowiedni na przyszłość na przykład.
Natomiast jedną z takich
wpraw, które jakoś tak ostatnio bardzo mi się wyrywają
w mózg, to jest to, że
nic nie jest dane na wieczność. I to, że mamy
do czegoś dostęp dziś, nawet jeśli wydaje to się niezniszczalne,
to nie oznacza, że za chwilę
to nie zniknie, bo nie zostanie zmodyfikowane tak,
żeby… że ten dostęp zostanie nam utrudniony
gdzieś tam. I tak się robi krok w przód, krok w tył.
Przyznaj się, że chciałeś powiedzieć, albo nie zostanie subskrypcyjne.
Też, też, to jest jeden przykład,
ale tu na przykład w przypadku maila,
kiedyś to było takie oczywiste, że kurczę, jest dostawca
maila. Jeżeli dostarcza maila, mam do niego dostęp
przez te protokoły, takie jak pop czy imap,
dowolnym klientem, takim jak Thunderbird, który ma w miarę
prosty interfejs, czy tam Outlook Express jeszcze kiedyś,
który, czym on jest? Programem,
który odpalam, wprowadzam dane konta, działa.
I jeżeli… no i działać
będzie, bo zawsze będzie ten program się uruchamiał,
zawsze będzie wspierał te protokoły, moje
konto pocztowe zawsze po tym protokole będzie dostępne i tak dalej.
A tu nagle Google już lata temu wdrożyło ten mechanizm
OAuth i Outlook Express już w tym momencie
przestał działać. Tak, ale też wiesz, nawet gdyby
Google coś tam popsuł, to zawsze mogę się przesiąść do innego
operatora, czy tam dostawcę poczty. I nagle się okazuje,
że internet się bardzo mocno zcentralizował,
że mamy nawet w tej otwartej powiedzmy
przestrzeni kilku dostawców poszczególnych
usług, którzy zdominowali rynek i mogą teraz dyktować swoje
zasady. No i z tego wynika szereg różnych rzeczy,
między innymi też to, że
ten protokół został zamknięty, ten program przestał
działać, nie jest już tak łatwo stworzyć
własny serwer, własnego dostawcę, własnego klienta
i to się wszystko bardzo pokomplikowało. I z aplikacjami
to samo, tak. Było kiedyś za darmo, pomyślało się
kupiłem raz, zapłaciłem, będzie na zawsze. Nie, bo nagle
tutaj twórca, co jest z punktu widzenia
biznesowego gdzieś tam zrozumiałe, ale z punktu widzenia użytkownika
wpędza to w poczucie pewnej
niestabilności i niepokoju, zwłaszcza jeśli chodzi o naszą grupę,
gdzie finanse to bardzo, bardzo, bardzo, bardzo
ważki temat. A okazuje się
nagle, że nie, że to, że to masz, to nie do końca
znaczy, że będziesz miał, bo no wejdzie subskrypcja
na przykład. Albo odetnął API.
Albo aplikacja straci gdzieś tam
w różnych okolicznościach, tak, swój zespół
dostępności i przestaną się tym interesować. Albo
nie wiem, zamienią nam Touch ID na Face ID
i niektórzy się przyzwyczają, niektórzy do dziś się nie przyzwyczaili.
No samo to nawet, że telefony dotykowe
zastąpiły telefony przyciskowe. No nadal mamy grupę
użytkowników, którzy tej zmiany, jakkolwiek większość
ją zaakceptowała, nie polubili. I to…
teraz te zmiany dzieją się dużo szybciej,
na dużo większą skalę. No nie ukrywajmy, że polityka też
gra tu swoją rolę. I teraz jesteśmy
świadkami takich zmian, gdzie
no, ja już nie mówię o SkyRocku,
ale w perspektywie kilku miesięcy, no nie wiadomo,
czegoś używam dziś, za chwilę mogę nie móc tego
używać. I dlatego kurcze, tak ważne jest informować się
nawzajem o tym, jakie są możliwości, jakie są alternatywy
i na czas reagować, żeby ludzie nie pozostali
nagle bez dostępu do czegoś kluczowego.
Ale też trzeba mieć głowę
elastyczną do tego, żeby te wszystkie zmiany ogarniać.
I jak ktoś się nie interesuje technologią, mnie zazdroszczę.
Nie zazdroszczę tego chaosu, w którym musicie się
odnaleźć. My próbujemy wam jakoś w nim pomóc, ale
nie jest łatwo, uwierzcie, nam też.
Pewne rzeczy znajdować, wyjaśniać i tak dalej.
Staramy się, jak możemy, ale…
To jest wszystko też bardzo płynne, niestety.
Tak, to jest to. To jest czasem wyszukiwanie półśrodków, tak.
Pamiętam, jak była sytuacja z klientami pocztowymi.
Thunderbird na chwilę przestał być używalny dla osoby, która nie lubi
naciskać dwadzieścia razy tab albo wyłączać miliona opcji nie wiadomo gdzie.
Szukamy alternatyw, znajdujemy jakieś
podziemne, niszowe klienty mailowe, które mają prawie wszystko,
nie mają wątkowania, do którego się przyzwyczailiście i dobrze.
I to zawsze jest jakiś potem
kompromis i to jest fajne, ale…
To wam zadziała, ale…
No jest to takie trochę lawirowanie. Trochę mi się przypominają właśnie te czasy
początków Tyflo Podcastu, kiedy każdy jeden
hak był dobry, o ile działał. I czy trzeba było
podmieniać pliki, żeby coś działało, czy zamienić coś tam
gdzieś tam. O ile dało się coś zrobić, to my to
robiliśmy i staraliśmy się pokazać. Ale też z drugiej strony
absolutnie rozumiem i nie obwiniam ludzi, którym po prostu
nie chce się tego robić, bo technologia ma działać dla was, a nie wy dla technologii.
No i a propos takiego
właśnie starych,
no oczywiście nie starych, ale takich właśnie rzeczy dla ludzi, którzy
nie bardzo są za pan mrod z nowymi technologiami,
przynajmniej w jakimś aspekcie, no to wyszedł
nowy Blind Shell Classic 3.
Nie wiem, czy Paweł mógłby o tym powiedzieć, czy kto, bo
już nie pamiętam, kto to mówił. Ja mógłbym, bo widziałem z was wszystkich
ten telefon. Też widziałem.
O, okej, racja.
Też widziałem, miałem się okazję jakieś dobre 40 minut
pobawić. Niestety nie pokonfigurować go pod siebie,
nie posymulować zbyt dużo faktycznego używania.
Nie wpiąłem sobie tam też SIM-ki oczywiście, niestety,
żeby poczytać różne rzeczy, ale
no taki ogólny
taki jakby
poczucie, jak to funkcjonuje,
jak to tam działa, to tak, to mogłem sobie też
popatrzeć. Więc
twoje spostrzeżenia, Pawle. Co ty?
Bierzesz do ręki i?
Jest ciekawie. To znaczy
na pewno byłbym zainteresowany przetestowaniem
tego urządzenia w takim trybie tydzień, dwa, żeby coś więcej
powiedzieć. Nawigacja po prostych aplikacjach
androidowych, no tutaj moim przykładem był akurat
Team Talk, nic nowego nie powiem. Jak słuchaliście audycji o InSpo,
to wiecie.
No przebiegała poprawnie, co by nie mówić. Tylko Team Talk jest
modelową, książkową, prostą aplikacją
zbudowaną na najprostszych natywnych kontrolkach.
Tam nawet widok się specjalnie nie przewija, bo
nie ma się co przewijać. Przewija, jak jesteś na serwerze,
wiesz, i jest na przykład dużo ludzi, to się przewija. Tak, tak, to wiem,
ale powiedzmy, to jest taka jedna kontrolka, która jest,
nie ma tam, nie wiem, miliona widgetów, każdy po swojemu coś tam działa,
jakieś karuzele i coś tam,
nie były to Google Mapy na przykład.
Reagowało to, jak reagowało,
czyli, no, responsywność, myślę,
iPhona jest większa, czy nawet Androida, nawet chyba z TokBekiem.
No,
w asystentach głosowych, tutaj Lunach i innych się nie wypowiem,
bo ja nadal, znaczy nie,
przepraszam, są osoby, którym na pewno tego typu pomoc się
przyda. Wydanie jakiejś głosowej
komendy jest dużo szybsze niż
nawigacja do miliona opcji.
Natomiast dalej postrzegam gdzieś to w kategoriach
trochę gadżetu, zwłaszcza, że z naszych testów
właśnie z moim towarzyszem tamtego doświadczenia,
no, wynikało, że
nie radzi sobie nawet z wszystkimi zapytaniami odnośnie funkcji własnych,
do których jest ponoć wyszkolony.
A poza tym dość szybko gubi kontekst.
Nie porozmawiasz sobie z tym jakoś dłużej w jakimś wątku.
Tak. Na pewno dużym zaskoczeniem dla mnie były,
znaczy zaskoczeniem, z jednej strony te urządzenia
są budowane na jakichś dostępnych na rynku chipsetach, więc
producent tu za bardzo chyba nie ma ingerencji,
ale mimo wszystko miłym zaskoczeniem
na pewno były mikrofony stereofoniczne,
które, no, wiemy
z nagrania jakie były, czyli odszumione jak tylko się da,
ale było stereo, więc okej.
No i tandem,
pytanie znowu, jak ten tandem jest rozwiązany,
jak tam ten… Teraz do mnie docierają informacje,
że Telegram znika z Blind Shella, bo już producent
nie radzi sobie z utrzymywaniem
tej bazy kodowej. Chyba w stu procentach chcą
stwierdzić, że tandem to jest ich komunikator docelowy.
Chyba, że komuś chce się bawić z Whatsappem
takim, jaki on przyjdzie po ściągnięciu z Google Play,
no to okej, czy z jakimkolwiek innym komunikatorem.
No to może i z Telegramem też.
No tak, okej, na Androidzie on jest lepiej.
Natomiast myślę, że niebo, a ziemia…
No ale tandem jest przecież bardzo zamknięty
aplikacją, mimo wszystko.
Owszem, założenie jest takie, że jak masz znajomych
z Blind Shellem, to w duchu Solidarności ściągniesz sobie
tą apkę. Tandem jest zamknięty do tego stopnia,
że ty nie bardzo możesz
jako użytkownik nieblindshellowy
nawiązać kontakt z kimś blindshellowym.
To od użytkownika blindshellowego musi wyjść inicjatywa,
że on chce z tobą nawiązać kontakt,
że chcecie do tych kontaktów dodać. Bo ja sobie
zainstalowałem, pamiętam w trakcie naszej audycji
Pawle o inspo, aplikację.
No i tak sobie pomyślałem, dobra,
ty byś ją miał zainstalowaną na swoim telefonie,
ja bym też ją miał, to może byśmy się mogli jakoś dodać.
A figa, bo tu się okazuje, że to jeden
z użytkowników musi mieć Blind Shella, żeby to zadziałało.
Tak, co więcej, w instrukcji
dowolnej tu
bynajmniej nie czynię zarzutu wobec kogokolwiek spolszczającego,
a przypomnijmy,
w Polsce robi to Lumen i Michał Kijewski.
Generalnie po prostu jakby sami
twórcy Blind Shella i całej tej otoczki
nie mówią wiele choćby, żeby sobie
coś własnego napisać do tego tandema. Jaki to jest protokół,
co tam jest pod maską, gdzie to tak naprawdę idzie.
Tak, ja wiem, użytkownik Blind Shella jest jedną z ostatnich grup docelowych,
którą to obchodzi. Nie no, ale absolutnie takich informacji
nie powinno być w instrukcji obsługi dla użytkownika,
to co najwyżej powinien być jakiś protokół, jakaś dokumentacja
gdzieś dla kogoś, kto by chciał się w to wdrożyć,
ale nie w instrukcji.
Wiesz co, to był mój skrót myślowy. Mi chodzi o…
Dobrze, to w takim razie jestem takim entuzjastą programistą
i muszę tego szukać na stronie czyjej?
No, Blind Shella.
Dostawcy obudowy, dostawcy oprogramowania Blind Shella.
No raczej ja bym szukał tam.
Ja, jeśli chodzi o Blind Shella, to mam
inną kwestię, którą trochę
szkoda, że producent nie zdawał się, no pewnie tutaj
może kwestie finansowe, dostępne części spowodowały,
natomiast to urządzenie
cały czas działa na chipsecie,
który, czyli po prostu płycie głównej
na procesorze zwłaszcza, który w tym momencie
ma już 8 lat i to już wtedy nie była wysoka
półka. I zaczynamy,
poprzedni Blind Shell Classic 2 też na tym chipsecie korzystał,
natomiast po prostu mamy tutaj trochę więcej RAMu
i przez to m.in. też mamy taką sytuację,
że maksymalnym Androidem, jaki może być tutaj
zainstalowany jest Android 10. Na razie jeszcze zostaje łatki
bezpieczeństwa, ale pytanie
na ile? No i pytanie, czy
kiedyś nawet zmiany w samym Androidzie nie spowodują, że ten
telefon po prostu zacznie zwalniać? Już mamy informacje, nie wiem, czy coś
w tej sprawie się zmieniło, że
dla użytkowników Blind Shell Classica 2,
w którym niby po prostu nic się nie miało
zmieniać, to urządzenie po prostu miało nadal działać, po
najnowszych aktualizacjach ten system po prostu zaczął
przycinać się. A powiedz mi,
trójka na pewno wiesz, że te dane techniczne, taktowanie
itd. ma to samo? To znaczy
tam troszeczkę jest lepiej chyba pod względem pamięci
operacyjnej, tak? Tak, mamy więcej RAMu. Pamięci jest na pewno.
A taktowanie samego procka?
Bo to już się nie orientuje, powiem szczerze.
To znaczy, powiem Ci tak, na stronie producenta
chyba tej informacji nie ma, na stronie Lumenu jest
i w przypadku obu modeli ten procesor jest podany taki sam.
Ta trójka to chodziła tak dosyć świeżo, jak ja ją
miałem w ręku. Z uwzględnieniem
tego disclaimer’a, tej gwiazdeczki, o której
powiedział Paweł, że iPhone 4S był
chyba trochę szybszy od tego, ale…
Myślę, że mamy kwestię tego, jaka tam jest synteza stosowana.
Też dużo osób prosi, żeby zainstalować coś innego, dać ludziom
możliwość zainstalowania AirHead Voice’a i Spica i myślę, że to też byłaby fajna
zmiana, nawet dla dwójki. To pewnie też by trochę
telefonów się zmieniło. Oczywiście, że byłaby fajna. Sam Google TTS przecież bierze
sporo zasobów takich tu i teraz, czasu rzeczywistego,
żeby on w ogóle dobrze to zagadał, bo przecież nie bierze
z internetu.
Co zwróciło moją uwagę dla odmiany? To Luna,
tak, to jest asystent, który
zadziwił mnie i rozczarował dosłownie 10 sekund później.
Zadziwił, wiadomo, model AI, tak wysłaliśmy
kwerendę, AI odpowiedział w AI-owym stylu, mniej więcej
tej odpowiedzi oczekiwałem nawet. Zapytałem go
oczywiście jakąś prostą sztuczkę, czyli dokładnie takiej,
jak się nie pyta AI o długość, wiadomo,
długość ogona kota, czy co tam było, tak,
wiedzę oczywistą dla AI.
Potem zapytałem go już o dużo ważniejsze rzeczy,
na przykład o chyba stan
albo kondycję baterii w tym urządzeniu i to już było oczywiście
dla odmiany niemal pewna śmierć i
Luna po prostu odpowiedziała, że nie wie i istotnie
nie kontynuowała wątku.
Natomiast jak
otrzymywałem jakieś takie też informacje od
Michała Kasperczaka, który też testował
Blind Shell’a trójkę, to tam w pewnych
momentach okazywało się, że ten
telefon potrafi troszeczkę
za pomocą tego AI jakieś pewne szczątkowe
informacje wyciągać z siebie, że to działało
trochę tak na zasadzie, jakby on tam próbował, jakby coś
było, jakby ktoś przewidział, że okej, może
pójdziemy tą drogą, natomiast to zdecydowanie nie jest
coś, co już w tym momencie
nadawałoby się do jakiegoś sensownego użytku, bo po prostu
większość tam nie działała, a jakaś
jedna na dziesięć rzeczy może zadziałała ewentualnie.
Tak, natomiast co jeszcze zwróciło moją uwagę
w kwestii takiej, no nie wiem, niepraktyczności, bo to
niepraktyczności. Nie tak sobie to wyobrażałem, w szczególności
próbując się postawić na miejscu osoby
docelowego klienta Blind Shell’a. No to nie wiem, czy zwróciłeś na to
Pawle uwagę, to są aplikacje typu pistolet, ja je roboczo nazwałem.
Rozumiem, o co Ci chodzi, chyba
na tyle na ja się znamy. Włączasz i od razu coś zaczyna robić, tak?
Włączam i robi tylko to.
Wchodzę po menu, opcje, ustawienia,
coś tam, coś tam. Gdzie jestem?
No to mam wrażenie, że to się odpali jakiś mini load stonic.
Zielona słuchawka. Ulica Jana Pawła II
57, 11, 111,
takie pompowo wielkie. Koniec działania aplikacji.
Tak, to jest bardziej skrót niż aplikacja.
Tak. I analogicznie, tak się ucieszyłem.
Dobrze, seniorzy, dobrze, nie najlepszy aparat.
Dobrze, odbicia, refleksy i tak dalej. Tester kolorów.
Zielony.
I tyle.
Czyli nie było ciągłej informacji, tylko po prostu raz.
Tak, to jest aplikacja pistolet, jak ja to się śmieję. Naciskam zieloną słuchawkę,
czarno-biały. Tyle.
No uproszczenie do minimum. Zero ustawień, zero personalizacji.
Nie, to nawet nie to. Wiesz, liczyłem po prostu,
że odpalę i mówię. To nie jest jakby taka krytyka
w dosłownym tego słowa znaczeniu.
Po prostu liczyłem, że mogę chcieć na przykład
fizycznie zobaczyć tę bluzkę. Tak, że mogę chcieć fizycznie
próbować ją gdzieś tam odnaleźć.
Choćby na etapie Lazariota, choćby z taką ideą.
Może nie najszczęśliwszą, ale zawsze jakąś
i nawet się zadoi całkiem sensownie.
No nie. Naciskam zieloną słuchawkę.
O, tak, wiem gdzie jestem. Tyle.
No i też warto pamiętać przy okazji Blind Shella, że tu mamy jednak
cenę jak praktycznie za iPhona,
podzespoły zdecydowanie nie za iPhona.
I ja doskonale sobie zdaję sprawę z tego, że
grupie docelowej w większości przypadków
to absolutnie nie jest
jakoś dla tej grupy nie jest istotne.
Bo ja podejrzewam, ja jednak
mam takie wrażenie, że
i chciałbym się nie mylić w tym momencie, że żeby kupić
na przykład Blind Shella to trzeba mieć konkretny powód.
Natomiast jest to jednak
mimo wszystko trochę przykre i ja tu w tym momencie
daleki jestem od twierdzenia, że no
tak, to ci twórcy Blind Shella to chcą na tych niewidomych
zarobić. Nie, nie o to mi chodzi. To jest po prostu
przykre, że tworząc telefon wyspecjalizowany
to trzeba sięgać naprawdę po tak niskiej jakości
komponenty, po tak stare komponenty,
że no, żeby to się wszystko biznesowo spinało
to nie można stworzyć urządzenia, które
będzie przystawało do dzisiejszych czasów, jeżeli
chodzi o technologię.
Tak, bo tej intuicyjności, ja faktycznie
ja też jestem raczej z…
prywatnie mówię tak, po godzinach nie na potrzeby audycji
i tak dalej. Ja jestem raczej z…
co się będziesz męczył, kup sobie iPhone’a
lub Androida, jeżeli ci z nim lepiej dotykowego.
Ale ja faktycznie jakby doceniam
to po latach, to mi zajęło kilka lat względem
tak radykalnych poglądów, jakie wymieniłem chwilę temu.
Zajęło mi kilka lat zrozumienie, że
przyjdzie człowiek, przyjdzie potencjalny klient
i on będzie w stanie tego
kimkolwiek by nie był, tego sprzedawcę, że mu zaproponował i że w ogóle
rozważył, że ja mogę być docelowym klientem Blanchella
on będzie jeszcze po rękach całował, krótko mówiąc
bo to mu mimo wszystko da to okno na świat.
I o tych ludziach też musimy, niestety lub wstety
chcemy czy nie chcemy pamiętać. I dobrze, że są takie urządzenia.
Oczywiście, że tak. Naprawdę czasem
tak mnie smuci taka bezrefleksyjność
tych komentarzy na wszelkiego rodzaju
forach dyskusyjnych, eee ten Blanchell to
jakieś tam, czy Blanchell jest tu przykładem
ale jakakolwiek taka wyspecjalizowana
technologia, że to jest skok na kasę.
Słuchajcie, każdy chce
i potrzebuje zarobić. Jeżeli tworzymy jakiekolwiek rozwiązania
technologiczne, jeżeli nie jest to dofinansowane
z grantów, no to trzeba
po prostu się liczyć z tym, żeby
to się jakoś dalej spinało
to musi producent na tym zarobić
bo producent ponosi koszty i
oczywiście, że o to przede wszystkim chodzi
żeby był ten zysk, natomiast ja
jak najbardziej jestem skłonny uwierzyć, że wielu
twórcom tego typu technologii, jednak
przyświeca taka idea, że chcą osobom
w tym przypadku z niepełnosprawnością wzroku
jakoś to życie ułatwić. No tylko potem…
Tym bardziej, że ten
interfejs taki główny, taki
ten home w cudzysłowie jego, to naprawdę łezka w oku
wow, to jest tak fajnie, bezpiecznie
Tak, to jest zrobione bardzo sensownie i generalnie
tutaj te funkcje, które zostały tworzone
były za sugestią użytkowników, tak?
Dlaczego np. zostały dodane te zewnętrzne aplikacje?
No np. dlatego, że ludzie prosili, że potrzebują dostępu do banków
Ja się trochę obawiam, jak to będzie z tym dostępem do banków
No tak. Też się boję
Też się boję, zważywszy, że
ja byłem na etapie dostępności tylko
Aurora, nie wiem jak tam jest z Google Play’em teraz ostatecznie
czy coś się zmieniło w tej kwestii
więc tak, ja też bym się zastanawiał jak tam
z dostępem do banków, natomiast…
Chyba sam producent ma troszkę wątpliwości, bo gdzieś tam
jakiś wywiad mi się udało ostatnio wysłuchać
wywiadu czeskiego
i tam producent, z tego co pamiętam też
dość sceptycznie się odnosi do tego, czy właśnie aplikacje bankowe
to tam ruszą, czy nie
No jakieś tam testy, eksperymenty prowadzone mają być
A nawet wiecie, nawet jeżeli ruszą teraz
słuchajcie, nawet jeżeli ruszą teraz, to za jakiś czas one i tak
przestaną działać
Także akurat aplikacje bankowe muszą być pod specjalnym nadzorem
i twórcy takich aplikacji
to bacznie weryfikują
to na jakim systemie dana aplikacja działa, żeby tam
aby za wiele różnych dziur nie było
łatwych do wykrycia, no bo jeżeli coś takiego
się stanie, jeżeli potem użytkownik będzie domagał się
zwrotu pieniędzy, to dla nich to są naprawdę duże
koszty, jakieś koszty procesów sądowych i tak dalej
i tak dalej, także akurat ta grupa aplikacji to jest
aplikacja, to jest grupa bardzo szczególna
Słuchajcie, mamy komentarze od Nuna
napisał do nas dwie wiadomości
Jestem, jestem, nagranie to po prostu troszeczkę pracy
w Reaperze i Logiku, nie używam Elevena
bo biednym je nie stać, XD
i jeszcze, i jeszcze jedna
wiadomość, od strony programistycznej
działania to jest dramat, Android sam nie wie
jak chce te klasy nazywać i jak chce żebyśmy je
implementowali, natywny dla Androida
Jetpack Compose ma chyba kilka
metod robiących to samo, jedne to
oznaczone jako przestarzałe, inne nie i nie wiadomo
czego używać, oni niech zajmą się robieniem
dostępności w Android Studio albo
dobrego toolingu do Visual Studio Code
bo tak strasznie zamknięty Apple ma lepszy
language server dla Swifta
niż Android dla swojej przemianowanej
na kotli na Javy, dramat
tak skomentował Arek. No to szkoda rzeczywiście
bo jednak dobra dokumentacja dla programistów
to jednak bardzo ważna rzecz.
I nadal się potwierdza to co kiedyś chciałem nawet zlecić
bo sam na tyle nie czuję tęgi i głowy do
programowania, chciałem uzyskać
jakąś totalną pierdołę, taką może nie żeby tam od razu
GPT i żebym po nim poprawiał aplikację
trochę większą na potrzeby tutaj lokalne
do kontroli jednego z urządzeń sprzętowych i po prostu
to samo. Android wydawał się
bardzo dobrą opcją, a okazało się, że jakieś w ogóle
klasy na pierwszy rzut oka są
ostatecznie trzeba było czytać kod, bo dokumentacja
mówiła jedno, a kod samego frameworku mówił
zupełnie co innego i
po prostu już tu nie będę wnikał w szczegóły
bo to nawet nie o to chodzi, ale ostatecznie po prostu
porzuciliśmy tę opcję
padło na kilka sprzętowych takich kontrolerów
na RS-232, stare, poczciwe i tyle
z Androida, w kwestii pisania
czegoś zupełnie od zera dla urządzenia, do komunikacji
więc dosyć wąska specjalizacja.
No to w takim razie co? Eleven Labs Reader
bo tak już
jakoś zahaczyliśmy ten temat
przez chwilkę pojawił się Eleven Labs Reader
czyli czytnik książek, który
korzysta z
głosów Eleven Labs
no i zastanowiliśmy się
jakiś czas, czy ten czytnik będzie
pobierał, a jeżeli tak, to ile tych tak zwanych
kredytów, które są w Eleven Labs
za czytanie i okazuje się, że
nie pobiera kredytów, natomiast te głosy
są chyba robione, takie mam wrażenie, nie wiem
jak wy często korzystacie, bo ja przyznam, że nie jest
zbyt często, ja to raczej traktuję jako
taką ciekawostkę mimo wszystko
ale to są głosy
nieco pogorszone i mam wrażenie jakości
to jest taki troszeczkę chyba słabszy model
żeby po prostu on pewnie nie zajmował
jakoś dużo. To się chyba nazywa Turbo, tak?
V2 czy tam V3 Turbo chyba bodajże to się nazywa.
Nie, czy to nie jest jeszcze jakiś, ale być może
to jest to, nie wiem, być może.
W każdym razie, no na pewno te głosy są
lepsze z jednej strony, dużo lepsze
od jakiegokolwiek innego syntezatora, to znaczy
lepsze może, to złe określenie, są bardziej naturalne.
Czy one są lepsze?
To ciężko powiedzieć, dlatego że
im bardziej naturalny głos
tym człowiek bardziej zaczyna mu wierzyć w kwestach
interpretacji, a Eleven Labs tego
robić nie umie, to znaczy nie rozumie
o czym czyta.
I na przykład takie zdanie
nie rozumie o czym czyta, tak?
Jakby domyś… no łatwo jest
wymyślić, że
nie rozumie, to jest najważniejsze słowo
i Eleven Labs mogłoby to przeczytać
nie rozumie o czym czyta i nagle
trochę się nam zaburza cały
sens jakby zdania w pewnym sensie i to
bardzo łatwo przynajmniej mnie
wyprowadza z jakiegoś takiego
no
przeszkadza mi to dość mocno.
Tak, z takiego rytmu.
Ja szczerze mówiąc zainstalowałem sobie tego
Eleven Labs Readera i
użyłem go kilka razy
i tak naprawdę nie wracałem już do niego
więcej. Ta dostępność tego
interfejsu nie jest taka jakiej bym sobie
życzył, ona jest taka… tam się oczywiście
wszystko da zrobić, to nie jest tak, że się nie da.
Tylko jakoś po prostu ten interfejs nie
przypadł mi do gustu i ja naprawdę
jedną z ostatnich rzeczy jaką
jakoś tam na jaki mi zależy to jest
wyraźność i naturalność głosu. Ja cały czas
używam Apollo, więc naprawdę nie ma to dla mnie
znaczenia i jakoś nie
widzę w tej aplikacji takiego wielkiego wow.
Oczywiście jeżeli ktoś
lubi, a podejrzewam, że sporo osób
znajdzie w tej aplikacji naprawdę fajne narzędzie do
czytania książek, to jak najbardziej jest to
in plus i na pewno
części osób po prostu
milej się będzie czytać te książki. Natomiast tutaj
mam takie wrażenie, że
w przyszłości jak najbardziej mogą się
sprawdzić te słowa, które wypowiedział
Paweł, nic co dane raz nie jest dane na zawsze
i o ile na razie jeszcze ta aplikacja
jest jak najbardziej darmowa i
pewnie jeszcze przez jakiś czas będzie. Ona miała być przez kilka pierwszych
miesięcy, przynajmniej takie były pierwotne
założenia Eleven Labs. Natomiast
ja podejrzewam, że prędzej czy później
okaże się, że jednak trzeba będzie za to
płacić.
Tak, ja
jeśli chodzi o moje używanie tej aplikacji, to też
korzystam z niej. Ja ogólnie też
mniej czytam e-booków na
iPhonie. Jak już coś, to bardziej audiobooki, a też
jeśli coś czytam, to jakieś artykuły, które po prostu szybciej
mi się czyta voice-overem. Natomiast też można
tej aplikacji czytać z strony internetowej, on wtedy sobie nawet wydobywa
treść artykułów i
odbiór jest fajny. Nawet ta dostępność się zaczęła
ostatnio poprawiać. Są już te rzeczy, które na przykład…
Taki fajny mój przykład, to był przycisk
play-pauza, którego
od etykieta to było paused, czyli jest
pauza włączona, ale to po prostu była etykieta, to nie był przycisk.
To już zostało naprawione. Suwak
stał się regulacją, którą możemy coś przestawiać,
więc coś tam w dostępności też na szczęście robią.
Natomiast, co mnie też tej aplikacji
denerwuje, algorytm,
którego używają do przyspieszania tego
bo to tam po prostu się jakiś plik mp3 pobiera, jest
tragiczny, myślę, że mogę tego słowa użyć, po prostu
ta aplikacja bardzo źle przyspiesza. Ja tu nie mówię o jakimś
przyspieszaniu, nie wiem, 3-4 razy, bo to trochę wydaje mi się
bez sensu do takich naturalnych głosów, ale nawet, nie wiem, do półtora
razy szybciej, gdzie na przykład, nie wiem, w aplikacji
YouTube’a, w Overcastie, w Castro, w czymkolwiek innym
to brzmi dobrze, to w Eleven Labsie
to po prostu brzmi bardzo źle.
A same głosy też lubią
w polowie zdania zmieniać
język taką, i to też
wiadomo, zależy jakie materiały czytamy,
ale, no, jeśli czytamy jakiś tekst
mało… A poprawili już w końcu
przez chwileczkę, ja się dosłownie też, nie wiem,
dwa dni tym pobawiłem, ten model z jakiegoś powodu
jeszcze miał cały czas stary, dobry… Było to DLA
mnie zaskoczeniem. A no właśnie!
Tak, to chyba już dawno, bo to było chyba
w V1
czy którymś… Nie, nie, ja mówię o Eleven Labs
Reader aplikacji. Aha, okej. Któryś z głosów
pod jakimś konkretnym…
w jakiejś konkretnej kombinacji czynników
niestety czytał mi o biednych ludziach
w Afrajce i tego, i właśnie
DLA mnie. No właśnie tak.
No to, że zapewne nie korzystałem, będę musiał sprawdzić
jeszcze raz, natomiast takie rzeczy też się czasami zdarzają
i na to też trzeba zwrócić
uwagę, nawet jeśli w sytuacji, kiedy, nie wiem,
czytacie książki, gdzie mamy jakieś obce nazwiska,
imiona, to może spowodować, że
ta syntaza będzie robić dziwne rzeczy. No nie wiem, jednak
głosy są faktycznie ładne. Jeśli ktoś
płaci za subskrypcję Eleven Labs i nawet sobie jakieś głosy
klonował, to też w tej aplikacji z tych głosów można
korzystać, więc to też może być jakiś argument
dla… I wtedy nie bierze tych kredytów, tak jak rozmawialiście?
Nie. O właśnie. Nie bierze, nie bierze. I to jest coś ciekawe
także, to też może być argument, który
może dla niektórych trzeba mówić
za tą aplikacją. To prawda. Ja jej nie testowałem
aplikacji, ale zdarzyło mi się wysłuchać
różnych demonstracji i ona się pojawiła
w bardzo ciekawym czasie też i o tym też będziemy pewnie za jakąś
chwilkę mówić. Nie wiem, czy już od razu, czy za jakiś czas, ale
no, Voicedream, tak? Który bardzo, bardzo, bardzo
dużo namieszał, próbując gdzieś tam żonglować tymi
swoimi pomysłami na właśnie subskrypcję, a propos rzeczy, które nie są dane
na zawsze. I szukało się
jakichś alternatyw, to znowu była kolejna aplikacja, dla której
szukaliśmy alternatyw w tym roku.
I byłem ciekaw właśnie, czy Eleven Labs Leader
mógłby nawet w jakimś prostym zakresie, nawet tymi domyślnymi głosami
zastąpić takiego Voicedream Readera, jako że
jest darmową aplikacją. No i okazuje się, że
jemu brak jednak jeszcze wielu tych takich zaawansowanych
funkcji, które Voicedream ma. Czyli właśnie ta kwestia interfejsu.
Interfejs to jest jedno, ale też nawigacja po książce,
że nie ma tak zaawansowanej nawigacji, nawet chyba nie ma rozdziałów, prawda?
Rozdziały są, ale to jest tak naprawdę wszystko.
I dodam jeszcze jedną rzecz. Nie wiem, czy to już też naprawili,
ale to jest też istotna kwestia. To chyba było na liście rzeczy do zrobienia.
Ta aplikacja może nam
książki wyłącznie strumieniować i nie możemy
po prostu ich pobierać.
Ponadto, gdybyśmy aplikację zamknęli
na przykład z ekranu przełączenia programu,
to to, co się nam zbuforowało do tyłu zostanie usunięte.
Czyli powiedzmy przesłuchaliśmy 10 minut materiału,
zamykamy aplikację, wracamy do niej, zaczynamy
słuchać o tych 10 minut i stwierdzimy, że ja bym chciał
sobie cofnąć. No nie cofnie się.
Bo to się skasowało.
To rzeczywiście szkoda.
Mamy komentarze, komentarze od Arka,
który nam dziś jeszcze tę audycję naprawdę
intensywnie uzupełnia swoimi przemyśleniami. Ale to bardzo dobrze.
Najpierw będzie o Blind Shellu.
Michale nie chce rozpętać kolejnej burzy, ale Blind Shell 3
to telefon dla absolutnie nikogo.
I jest krokiem w tył w porównaniu do Blind Shella 2.
Wydanie BS3 na tak starym chipsecie
było jedną z najgorszych decyzji biznesowych.
Gorszą była chyba tylko jego wprowadzenie na rynek.
Oni nie potrafią nawet zweryfikować, czy aplikacje bankowe działają,
co oznacza, że nie uzyskali oficjalnej certyfikacji od Google.
A to sugeruje, że nawet nie próbowali.
Nawet tak nisko budżetowy telefon,
jak Ule Phone
ma certyfikację od Google,
podobnie jak…
To też takie małe z niewielkimi wyświetlaczami
z tego co pamiętam telefony.
Podobnie jak Blackview za 199 zł.
O ile Blind Shell 2 miał jakąś grupę docelową,
bo był skierowany do osób starszych
i z problemami motorycznymi,
o tyle wycofanie Telegrama zamyka tych ludzi na cokolwiek.
Lepiej kupić sobie na aukcji Nokia E51
baterie do niej
i będziemy mieli porównywalne możliwości,
a nawet więcej za mniej.
A najlepiej kupić iPhone’a
i do niego klawiaturę Kliks.
To znaczy, żebyśmy mieli jasność.
Ja też zastanawiam się dla kogo jest Blind Shell 3.
To prawda, bo grupę docelową
takiego docelowego użytkownika dwójki
ja byłem sobie w stanie wyobrazić.
Jeżeli chodzi o trójkę, to ja nie wiem.
To ja nie wiem co twórcy chcieli osiągnąć
robiąc ten model i wprowadzając te aplikacje.
A ja chyba wiem.
Ja wam powiem co chcieli osiągnąć.
I to nie będzie wyzłośliwianie się czy coś takiego.
Jest taka grupa ludzi trochę niepewna.
Taka, która już bardzo dobrze się czuje z tym…
Już dostała odpowiedzi od sprzedawcy Blind Shell’a,
więc poczuła się w niebie, że ma
ten telefon z klawiaturką i dotykowy
i może mieć dotykowy jak się kiedyś odważę.
Ale przede wszystkim, że z klawiaturką
bezpieczny i że to nie jest iPhone i że w sumie ma LTE
czyli ma nowe technologie i tak dalej.
Tu za chwilę do tego jeszcze wrócę.
A z drugiej strony to są ludzie, którzy
ten telefon jest super i on mi w ogóle życie uratował.
Gdyby się jeszcze dało i tu pada nazwa aplikacji.
To jest grupa docelowa.
Użytkowników trójki.
Tylko czy ona jest duża? Bo ja mam wrażenie, że nie.
Ale mogę się myć.
Nie, to jest naturalny upgrade dla wszystkich tych, którzy mieli jedynkę i dwójkę.
Pamiętaj, że w dwójce było sporo defektów.
Dwójka by, podejrzewam, wystarczyła zupełnie.
Natomiast tam z tego co ja dla odmiany wywiedziałem się w międzyczasie
sporo dwójek trafiało na serwis ze względu nie na
chipset, nie na RAM, nie na jakieś tego typu rzeczy
a ze względu na wykonanie. Na przykład, nie wiem, tam jakieś
konkretne komponenty padały.
No to pytanie jak będzie w trójce, ale to się pewnie okaże z czasem.
Ponoć lepiej.
Ale to wiesz, czas pokaże.
Jeżeli tam się wiele nie zmieniło pod maską, to ciekawe
jak istotnie…
Nie, właśnie pod maską to się troszeczkę zmieniło. Obudowa została
zewnętrzna. Pod maską skoro dokładali
ten RAM, skoro tam kombinowali, to właśnie chyba z tego
co, może inaczej, z informacji, które mam wynika,
że przy okazji kilka takich projektowych rzeczy
połatali. No to by tak było.
Odnosząc się, Arku, do Nokii, tak nawet bym
się zgodził, ale niestety 3G wyłączą
i internet na 2G po HSP, bez HSP, a po EDGE’u
dosyć skutecznie zablokuje
takie rozwiązanie. Nawet do zwykłego radia internetowego.
To będzie problem. I kolejne
wypowiedzi Arka. Ja z Eleven Reader mam tak jak Michał.
Bawiłem się u kolegi i częściowo zapomniałem, że to istnieje.
Wolę czytać syntezą, a gwoździem do trumny
jest brak klienta na komputer.
Kolejna wypowiedź od Arka. Przepraszam was za spam,
ale mam kolejną sprawę.
Jeśli aplikacja, która jest płatna, staje się
darmowa lub jeśli aplikacja ma być płatna,
a jednak nie jest, to oznacza, że po prostu nie ma na nią
zainteresowania. GitHub ze swoim copilotem,
którego żaden normalny programista nie chce używać,
osiągnął już taki poziom desperacji, że
włącza go domyślnie i to za darmo. Przypominają mi się
piękne czasy, gdy Babylon, Avast,
Real Player i McAfee były wciskane
na siłę. Z tym McAfee to mam wrażenie, że jeszcze od czasu do czasu
pojawia. Jest oczywiście.
Jeszcze nie stracili nadziei, że ktoś będzie tego chciał.
To nawet nie jest tylko za darmo, to znaczy to pewnie będzie
bardziej temat na przyszły tyflo przegląd, ale że informacja mi
przeszła przez social media dzisiaj.
Microsoft to samo zrobi z Office’em,
to znaczy z pakietem Microsoft 365. Nikt do ciebie nie przyzwyczaja się
do tej nowej nazwy, który teraz nam w gratisie
będzie dociskał Co-Pilota, ale nie za darmo,
tylko za kilka dolarów, czyli kilka dziesięć złotych
ten abonament nam wzrośnie.
I będzie można z tego zrezygnować grzebiąc
gdzieś tam w sekcji anuluj abonament, tam gdzieś możemy
dostać się do abonamentów w wersji Classic, ale on będzie
dostępny nam tylko na rok. Tak przy okazji.
No cóż, no to
rzeczywiście robi się ciekawie. To skoro już
mamy wypowiedzi
od słuchaczy, to może Piotrek
jeszcze, Witek zdaje się, nam nagrał
wiadomość, w której też opowiada o swoich
chyba spostrzeżeniach.
Według mnie miniony rok 2024
był dość spokojnym
rokiem, jeśli chodzi o kwestie zmian w obszarze
technologii asystujących i dostępności dla
osób szczególnie z dysfunkcjami wzroku.
I tak naprawdę widzę tutaj dwa takie
technologie, które rozwinęły się
w sposób szczególny.
Jedna z nich to rozpoznawanie tekstu, czyli
klasyczne OCR. Wcześniej głównie to były
aplikacje typu
FineReader, a w minionym roku ogromną popularnością
cieszyły się różnego rodzaju wtyczki
dodawane do czytników ekranu
albo nawet natywne funkcje
czytników ekranu, czy systemowe funkcje,
które umożliwiały nam rozpoznawanie tekstu,
czy to na obrazach statycznych, takich
na zasadzie zdjęć gdzieś tam z rolki aparatu,
czy obrazach gdzieś tam w internecie
napotykanych, czy po prostu dokumentów
różnych elektronicznych. To jakby
jeden obszar. No i drugi,
który tutaj pewnie nie będzie zaskoczeniem, ale
AI, sztuczna inteligencja, tak naprawdę
w moim odczuciu, w trzech obszarach
zrobiła ogromny, przeogromny postęp.
Pierwszy z nich to pismo
odręczne, że w tym momencie
sztuczna inteligencja jest w stanie rozpoznać takie
odręczne pismo. To jest dla mnie coś niebywałego.
Kolejna rzecz to analiza
ruchomego obrazu. I w takim wymiarze
jak robi to PeakyBot, że tworzy nam
jak to kiedyś u nas nazywano tyflofilmy,
czyli opisuje słownie to co się dzieje
na ekranie w danym nagraniu
i w taki sposób jak robi to
Seeing AI, czyli taka
pseudo audio-deskrypcja nakładana na
odtwarzany film. Jest to niebywała
sprawa. Myślę, że w bieżącym roku ta technologia zostanie
udoskonalona i stanie się
bardziej powszechna. No i trzeci
element jeśli chodzi o sztuczną inteligencję to oczywiście
głosy. Możliwość generowania
tworzenia najróżniejszych głosów to
z jednej strony, a z drugiej strony możliwość ich
wykorzystania na razie do czytania audiobooków
z e-booków, czyli mamy
coś fenomenalnego, że możemy wybrać sobie
głos, który nam się podoba, albo stworzyć sobie
taki głos i za jego pomocą czytać
e-booki w o wiele lepszej jakości niż
niejeden lektor czyta. Więc to są
takie rzeczy, które mnie
najbardziej zafrapowały. Wydaje mi się, że w tym roku
pojawi się możliwość dodawania takich głosów
wygenerowanych do różnego rodzaju
urządzeń typu właśnie
czytniki ekranu, ale też
wydaje mi się, że rok 25 będzie głosem
nowych asystentów. Asystentów osobistych,
które korzystać będą też
z nowych funkcji i możliwości asystentów
głosowych. Tak jak teraz chociażby
robi chatbot GPT, gdy sięga do
wiadomości z internetu i służy nam
podpowiedziami, np. podając informacje,
co możemy zobaczyć w telewizji, co aktualnie jest odtwarzane.
Czego sobie i Wam życzę.
Jeżeli chodzi o Wasze wypowiedzi,
o to, co piszecie do nas, to jeszcze
też do tego tu zajrzyjmy.
Muszę sobie też to
otworzyć. A, jeszcze Arek np. sugerował,
że przydałby się jakiś chat
pomiędzy słuchaczami
Tyflo Podcastu. No jest teoretycznie Discord,
więc można by było z niego
korzystać, natomiast z tym Discordem z
dostępnością Discorda niby jest całkiem
nieźle, ale jakoś przynajmniej część osób
nie bardzo może się do niego przekonać.
I uczciwie mówiąc łącznie ze mną,
Tak, łącznie ze mną. Jakoś niby tam wszystko działa,
niby tam się da, ale z jakiegoś powodu
no jakoś nie bardzo mogę się
tutaj do tego
narzędzia przekonać, żeby używać na dłuższą metę.
Tak. Nie ma Tomasza,
więc wrócę na sekundkę do
Apple’a i się mogę w tym momencie troszeczkę wbić
niekulturalnie. Nie wiem, co Ty na to Piotrze?
Co Ty o tym sądzisz? Jesteś z tym
systemem prawie tak jak ja od…
No ja jestem w tym roku bardzo ostrożnie, bo od bety 3.
18.0 i nie żałuję.
Uważam w ogóle, a propos przełomu
i a propos tego co mówił Arek, to tym razem ja się
troszeczkę odniosę, że jako posiada
trzynastki, no nie korzystam sobie zbytnio
z Apple Intelligence, przynajmniej na razie.
I to się nie zanosi na razie na zmianę
aparatu. Natomiast
dwie sprawy. Jedna niepokojąca, ale to też było
do przewidzenia, że ten rok
przyniósł nam całkiem sporo funkcji gwiazdka,
przy czym treść gwiazdki, ale nie w Europie.
Tak.
Szkoda. Szkoda i ja tutaj się jak najbardziej mogę
odnieść. Tak w skrócie jeśli chodzi o iOS’a, to
dużo rzeczy całkiem spoko, aczkolwiek
ja akurat z wyjścia Brailla mimo wszystko korzystam mało,
wiem jestem… Nie, ja chciałem o zupełnie innej
funkcji, ale na razie odnieśmy się do tego Europy.
Okej, Europa. No Apple Intelligence to jedno,
mi brakuje dwóch innych rzeczy,
które były obiecywane. Jedna z nich
to jest iPhone Mirroring na Macu, czyli po prostu
to, że możemy sobie z poziomu Maca uruchomić dowolną aplikację
na naszym iPhone’ie i po prostu z niej korzystać. Wiem,
to na początku nie było dostępne, ale to się w międzyczasie
zmieniło. Co ciekawe w ogóle to zostało zrobione
w mało oczywisty sposób, bo ktoś by się
spodziewał, dobra jak oni to zrobią, bo tak obraz
jest streamowany jakoś, no to pewnie będziemy słyszeli
voice-overa z iPhone’a, tak? I będziemy klawiszami
po prostu sterować jak wirtualną maszynę. No nie!
Okazuje się, że zrobili to tak, że nasz voice-over na Macu
po prostu te kontrolki widzi. Więc informacje
o tych kontrolkach są jakoś do tego Maca przesyłane
i tak to działa, więc to już udostępnione zostało.
Nie wszystkie aplikacje, niestety, które są
w App Store’ze na iPhone’a, na Macu uruchomimy. Dowodowe, że my mogą się
z tego wypisać i wiele takich aplikacji, które
bardzo bym chciał w ten sposób sobie uruchomić, zostało tak wypisane.
Nie wiem, na przykład Facebook. Czasami fajniej byłoby coś
szybko z klawiatury napisać z takim bardziej wygodnym interfejsem.
A na takie rzeczy to pozwala. No właśnie, niestety
nie w Europie. Mam nadzieję, że przy okazji tego
Apple Nutrition, które ma się w kwietniu, w maju pojawić
ta nowość też się pojawi. A druga
nowość, o której chciałbym wspomnieć, to nagrywanie rozmów.
Nie wiem, czy tego chciałeś. No właśnie.
To też było zapowiadane.
I najciekawsze, że tak obserwując voice-overa, to
że ta funkcja gdzieś jest, tylko ona jest po prostu celowo
wyłączona.
Nie no, tak. Mamy kolegę z Wielkiej Brytanii, który
już nią się po prostu może cieszyć i nawet
testowaliśmy równe ciekawostki.
Co prawda, raczej z użyciem Facetime’a niż
telefonu, ale to po prostu działa.
Głos języka głównego
mówi o tym, że rozmowa jest nagrywana zanim w ogóle my odbierzemy
telefon, no plus mamy te pipczki sygnalizacyjne.
Że się nagrywa.
Więc tu jest zachowana
przejrzystość.
Nie wszystkim się to może podobać. Mi się to akurat podoba, bo
nie mam powodu, żeby nie mówić o tym, że
na przykład daną rozmowę nagrywam i tyle.
Natomiast…
No żałuję, że nie ma tego w Polsce.
Była jedna jedyna beta, w której to po prostu działało.
Po czym nam to zabrano, po czym…
Po czym, po czym, po czym. Teraz już został tylko przycisk
nagrywania rozmowy, rozmowy na wyłączone chyba, czy jakoś tak.
Bo to jak najważniej jest w interfejsie, jest w protokole,
tylko jest niewidoczne.
Pozostaje mieć nadzieję, że to się w końcu pojawi.
Dokładnie, może też przy okazji…
Chyba czwórka, wiesz? Osiemnaście beta cztery bodaj.
A czy też, nie wiem, czy nie miałem po prostu delikatnie farta.
Ja już kilka razy napotkałem na…
To, że w przeszłości miałem przez dłużej niż coś tam
ustawiony język na US English spowodowało, że dostałem w becie
coś, co wyście chyba mówili albo z kimś rozmawiałem prywatnie
i mówił, że jest, ale on tego nie może włączyć.
Ja go po prostu miałem na przykład. A beta czy dwie później
już istotnie znikało i zrównywaliśmy się wszyscy.
Tu mamy jeszcze taki komentarz od Oskara.
Jeszcze wracając do Blind Shella.
Widzicie, taki gorący temat ten Blind Shell.
Gorący kartofel.
Tak, ale to tak zawsze jest, słuchajcie, że jak się pojawia
właśnie dyskusja o Blind Shellu, to dość głośno o tym jest,
no bo to jest rzeczywiście urządzenie dosyć ciekawe, które
naprawdę może mieć swój potencjał, a jak to potem w praktyce
wychodzi, no to wygląda to różnie.
Oskar zadał takie pytanie, czy na przykład…
Co sądzimy o Blind Shellu jako telefonie służbowym?
Ja powiem szczerze, ja sobie tego nie wyobrażam.
Oczywiście to wszystko jest wiadome, opatrzone takim komentarzem,
no ale…
Zależy od zawodu.
Zależy od zawodu, oczywiście, bo na przykład jeżeli ktoś ma
potrzebę wykonywania wielu połączeń, na przykład jest czy to
telemarketerem, czy po prostu człowiekiem od przeprowadzania
jakichś ankiet, tego typu rzeczy i nie dzwoni z dedykowanej
aplikacji na komputerze, a dzwoni po prostu z telefonu,
to wydaje mi się, że rzeczywiście miałoby to ręce i nogi.
Ale na przykład w moim przypadku ja sobie absolutnie nie wyobrażam
Blind Shella jako telefonu służbowego.
Jak ja tam obsłużę Teamsy?
Z trzeciej strony zadam podobnie retoryczne pytanie, Michale.
A gdy się coś jednakowo stanie?
Jak ja odtworzę backup na inny telefon?
A, właśnie.
No, także to są takie dylematy.
Ja bym bardzo ostrożnie podchodził do tego zagadnienia
jako nawet taki telefon służbowy do dzwonienia, do wykonywania
po prostu wielu połączeń.
Okej, może mieć to sens, natomiast pamiętajmy, że w pracy
robi się różne rzeczy i ja na przykład sobie nie wyobrażam pracy.
Ja absolutnie bym się nie ucieszył, gdyby mi pracodawca chciał ułatwić życie.
Biorę to w duży cudzysłów i dał Blind Shella,
bo z tego telefonu będzie mi łatwiej korzystać.
Nie, to mi będzie łatwiej korzystać z iPhona.
Szczególnie, że łapie się na tym, że na przykład zadania,
które często wykonuję w ramach swoich obowiązków w tym momencie na przykład,
po prostu wręcz są stworzone do trybu poleceń Brailla.
I to są często zabawy na zasadzie wklejenia czegoś z jednej aplikacji,
zrozumienie tego, przeczytanie tego, zapoznanie się z tym,
wklejenie być może argumentów tych konkretnych elementów,
na przykład słuchych danych z odczytanego tekstu do zupełnie innej aplikacji,
posłanie tego dalej gdzieś i tak dalej, i tak dalej.
Czyli takie coś, co kiedyś stwierdzałem, że łajezu, to jest niewygodne.
A teraz po prostu iPhone, trochę wejścia ekranu Brailla,
trochę cztery palce w prawo, w lewo, względnie App Switcher,
ale to już w ostateczności i po prostu jedziemy.
Nie wyobrażam sobie tego na Blind Shellu.
Ja już wróciłem. Niestety przez chwilę mnie nie mogło być tutaj na audycji
i przepraszam też, że nie uprzędziłem, ale nie dałem rady.
Przechodzimy do nowego tematu w takim razie.
Wiesz co? Nie dokończyliśmy starego.
A mówiliśmy Piotrze o, zanim był Blind Shell jako telefon służbowy,
mówiliśmy Piotrze o Europie, bo ty jeszcze coś chciałeś dodać,
a ja cię tu nagrywałem.
Nie, tylko chciałem ogólnie powiedzieć, jeśli chodzi o inne funkcje,
które gdzieś do tego iOS-a trafiły, no ja akurat jestem w tej grupie osób,
które mniej z tego Brailla korzystają, natomiast wiem, że dla tych,
którzy korzystają z tego dużo, to to jest rewolucja.
To jest jedna chyba z bardziej rewolucyjnych aktualizacji.
Chyba tak zresztą zakończyłem swój artykuł w tym fleświecie.
Poczytuję to też jako rewolucję jak najbardziej.
I myślę, że z tym się zgodzę.
Co mnie ucieszyło? Zmiany w złagodzeniu dźwięku.
Już tam można sobie ustawić, żeby to nie złagodzało tak mocno.
Żeby jeszcze dodali krzywą ataku i powrotu, to już być mógł.
A też o to poprosiłem swoją drogą. Mam nadzieję, że to dadzą,
bo też by się przydała.
Z czego ja korzystam najbardziej? To właśnie z tego,
że na Macu w końcu można sobie więcej skrótów dostosować
i na przykład je przypisać do klawisza voice-overa,
co bardzo mnie cieszy.
Mogłem sobie trochę te polecenia z klawiszy trochę odciążyć
i więcej rzeczy przerzucić na capstocka tak typowo.
Tak. To ja dodam od siebie funkcję dosyć nieoczywistą,
bo o jej fajności albo ja przeceniam jej fajność,
tej funkcji, albo o jej fajności powiedziano mało w tyflo przeglądzie.
Uczciwie uruchamiam Envision w zasadzie w tym momencie z przyzwyczajenia.
Bo tekst na żywo w voice-overze, ten Envision voice-overowy,
mimo tego, że ma tylko dataset angielski i najbliższy naszemu
i oczywiście, że dużo częściej niż Envision zamiast płyty
zrobi ptytę i takie różne, ale on po prostu działa.
A w Envision czasami się nie mogę go doprosić,
żeby mniej więcej płynnie czytał tekst.
Więc po prostu gest, wyciągam telefon, nawet nie muszę zbytnio tego telefonu
od Face ID, po prostu skrót, po prostu ta gestura i czytam, co jest przede mną.
No to właśnie, takich drobnych rzeczy jest dużo też.
Jedna rzecz, która mi się teraz przypomina, a tak teraz pomyślałem,
co jeszcze z tym telefonem robię?
A no właśnie, w końcu sobie wywaliłem latarkę z ekranu blokady
i dałem sobie inne rzeczy i faktycznie z tych rzeczy, które sobie dodałem
to korzysta.
Tak, zmieniłem stan baterii, nie mam latarki i cieszę się z tego niezmiernie.
Ten taki widżet duży, stan baterii. Dużo bardziej mi się przydaje do tej latarki.
Dobrze, to…
Chyba teraz, chyba teraz moja kolej do Waszu.
To w takim razie przejdźmy do Coleo.
Tutaj taka niby drobna nowość, bo chodzi o wybór dostępny
i w końcu wybór miejsca ze schematu,
ale myślę, że dla wielu osób to może być dość jednak istotna kwestia,
że mogę wybrać sobie miejsce w pociągu, na którym chciałbym usiąść.
Tak, i czy ja w ogóle może połączę to od razu z innym mniejszym tematem,
który też zacząłem, czyli takie drobniejsze zmiany w aplikacjach,
których używamy, a które ułatwiają życie.
I też sobie uświadomiłem, że to właśnie w minionym roku, w 2024,
weszły oznaczenia dla kierowców Bolta, że jesteśmy osobami niewidomymi,
czyli to słynne oko i piesek.
To, o co nas czasem pytacie w audycjach.
No nie wiem, wiem, że to tak nie do końca jeszcze się rozpromowało,
że nie wszyscy kierowcy czytają te memo, które tam gdzieś przychodzi.
Natomiast próbujecie już tego używać i fajnie, może świadomość się rozszerzy.
Z takich drobnostek jeszcze to, istotnie, Blik wszedł do sklepu Play.
Nie wiem, czy wiele osób to ucieszy, ale jest.
Natomiast tak, Coleo pozwala na sprawdzenie sobie,
jak wygląda dostępność konkretnych miejsc w wagonach.
No i można sobie tam to wybrać ze schematu.
Rzeczywiście jest informacja o numerze miejsca,
jest informacja o tym, czy to jest chyba…
Czemu dedykowane jest to miejsce.
Na przykład miejsce dla przewodnika, osoby niepełnosprawnej,
miejsce dla tam wózka, miejsce jakieś tam jeszcze.
Teraz nie pamiętam, chyba nie ma korytarza lub okna, prawda?
Już nie czyta tego jeszcze chyba.
Ale właśnie można sobie zobaczyć, które miejsca są wolne
i sobie wybrać ze schematu.
O tyle się cieszę z tej zmiany też ja,
oprócz tego, że oczywiście jest możliwość takiego wyboru,
że niewiele aplikacji, kolei różnych nawet państw,
tak jak to obserwuję, wprowadziła w ogóle coś takiego.
To jest na swój sposób ewenement na skalę gdzieś europejską.
Nie mówię, że nikt tego nie robi,
ale jest to dosyć mało powszechne.
I do tego stopnia, że pamiętam kiedyś dyskusję
na jednej z naszych grup, gdzie dwie osoby się kłóciły o to,
czy to w ogóle powinno być zrobione,
bo to jest taka trochę dostępność na siłę,
jakieś wymyślanie schematów, skoro można te miejsca wpisać,
a w ogóle czy to się technicznie da.
I z drugiej strony były jakieś przykłady,
że dałoby się mapy udostępnić,
czy stworzenie mapy dostępnej jest możliwe.
I tak ta dyskusja odbiła w stronę,
czy w ogóle dostępność ma sens,
czy to jest troszkę na wyrost,
takie teraz udostępnianie wszystkiego na siłę,
bo prawo tak każe.
I strasznie dużo poleciało tam argumentów w ogóle
o przedmiotowości tych różnych działań na rzecz dostępności,
a wystarczyło zrobić to, co zrobiło Coleo.
Okej, to nie jest powiedzmy universal design,
projektowanie uniwersalne,
bo musi być specjalny tryb
i trzeba go specjalnie włączyć
i musi wykryć voice overa itd.
Ale ważne, że się da.
Ale jest.
Ale ktoś zrobił koncepcyjnie coś, co działa.
I będzie to pewnie jeszcze rozbudowywane.
No także myślę, że to jest krok w dobrą stronę,
zwłaszcza, że nadchodzi europejska ustawa o dostępności.
Natomiast jeszcze co do tej argumentacji o tych schematach,
że można sobie wpisać numery miejsc.
Oczywiście wszystko można,
tylko jeszcze trzeba wiedzieć,
w jaki sposób są numerowane miejsca w wagonach, w pociągach.
A to wcale nie jest takie oczywiste.
Tak, i to jest też trochę potem problematyczne,
kiedy na przykład, nie synchronizując tego ze sobą,
w różnym czasie kupujemy bilety z drugą osobą
i chcemy koniecznie jakoś tam koło tej osoby siedzieć
albo w miarę możliwości w pobliżu,
chociażby w tym samym wagonie.
I oczywiście można zaryzykować i wpisać miejsce obok miejsca numer,
tylko bardzo rzadko, wydaje mi się, dostaniemy tam jakiś bilet,
bo pewnie już będzie zajęte,
przynajmniej przez jakąś część podróży.
A tak możemy przynajmniej oszacować,
czy w tym samym wagonie, w miarę blisko tej osoby,
gdzieś miejsce jest, żeby sobie usiąść,
no chociażby, żeby to wejście, wyjście do wagonu sobie ogarnąć
albo ewentualnie z kimś się zamienić, dogadać
i po prostu po ludzku sobie tak zaaranżować,
żeby te miejsca były fajnie.
No jak się wpisuje numery z rączki,
to nie jest to łatwe zadanie.
I mamy kolejne wypowiedzi od Arka.
A też jeszcze tu kontynuacja wątku blankshellowego.
Jeżeli aplikacje bankowe nie działają,
to taki świadomy użytkownik,
tutaj jest hmm, świadomy użytkownik napisane,
może sobie również zablokować
Messengera, Whatsappa czy Facebooka.
Aplikacje te często ufają bazom zaufanych urządzeń
i oprogramowania do nich.
Jeżeli takie urządzenie nie jest na magicznej białej liście,
to konto może zostać zablokowane.
I tu się rzeczywiście coś może być na rzeczy,
jestem w stanie zgodzić, bo pamiętacie,
jakie historie były z Mirandą?
To oczywiście wiadomo, nie aplikacja mobilna,
ale aplikacja, która gdzieś tam jednak korzystała
z różnych metod podłączenia się do Facebooka.
I były takie sytuacje, że te konta były dość często blokowane.
No tu podejrzewam, że tu jest jednak
aplikacja oficjalna Messenger chyba,
ale też wiadomo, mogą być różne sytuacje.
Te narzędzia detekcji różnych nietypowych zachowań
to potrafią naprawdę czasami zaskakiwać.
Kolejną głupotą było dodawanie pamięci RAM.
Ilość pamięci operacyjnej przy tak wolnym i starym chipsecie
nic nie zmienia, ponieważ wąskie gardło leży gdzie indziej.
Gdyby twórcy poświęcili trochę czasu
i wynajęli analityka do sprawdzenia danych diagnostycznych wysyłanych przez użytkowników
zobaczyliby, że 85% z nich nie wykorzystuje nawet połowy dostępnej pamięci RAM.
Ten Windowsowy Copilot, a ten GitHubowy to chyba jednak coś innego?
Tak, to są zdaje się inne rzeczy,
bo Copilot w Windowsie ma nam pomagać w codziennej pracy,
a Copilot w GitHubie to jednak jest bardziej dedykowany programistom,
natomiast gdzieś tam pod spodem to i tak jest GPT, i tak jest GPT.
Tak, ja tutaj mówiłem też o Copilocie po prostu w Office, czyli w Wordzie, w Excelu,
bo tam oczywiście też Copilot jest.
I kolejna wiadomość od Arka.
Zapomniałem dodać, że Luomo Toolbox wspiera od jakiegoś czasu opisywanie filmów.
Można dodać film z ekranu udostępniania, rolki aparatu czy linka.
Na razie wspieramy filmiki do 40 sekund.
Pojawi się opcja eksportu opisu do SRT, żeby robić sobie takie audiodeskrybowane filmy.
Programistycznie działa to w pięknie prosty sposób.
iPhone tworzy parcel JSON i w nim są informacje o kontrolkach.
Punkt w formacie XY etykieta i tyle.
Ale to do czego tu się odnosiłeś?
Ja myślę, że tutaj jest odpowiedź jak działa ten Screen Mirroring na Macu.
Jak VoiceOver wie o kontrolkach.
A, w ten sposób. OK. I jeszcze jedna wiadomość.
Znowu wracamy do Blind Shella.
Co sądzę o Blind Shellu jako telefonie służbowym?
Nieważne gdzie pracujesz, to nie.
Nie uruchomisz Slacka, nie uruchomisz Jiry, nie uruchomisz Worda, czegokolwiek.
Ale Arku, nie wszędzie jest to potrzebne.
Ale czasem masz potrzebę po prostu wykonywania dużej ilości połączeń.
I akurat w tym jednym konkretnym przypadku, ja tu jednak będę się upierał, że to może być przydatne.
Ale oczywiście, tak jak Patryk powiedział, kwestia backupu i przywracania potem tego.
No bo jak sobie zbudujemy jakąś dużą książkę kontaktów na przykład, no to pytanie…
Chociaż same kontakty to tam się chyba dają.
VCF je rozbiera, więc to by się dało zrobić.
To by się dało. Więc do takiego konkretnego zastosowania.
Ale no to właśnie, to trzeba wiedzieć po prostu do czego nam jest potrzebne konkretne narzędzie.
Tak globalnie to ja się oczywiście zgadzam, że w wielu przypadkach może być to nie najlepsze rozwiązanie.
I jeszcze a propos iOS-a, to Arek do nas pisze.
Dla mnie najlepszą funkcją iOS 18, nie związaną z dostępnością, jest modyfikacja skrótów ekranu blokady.
Mam Luomo po lewej stronie, dyktafon po prawej, a Luomo to jedyna aplikacja z jakiej korzystam do ocerowania.
I kolejna wiadomość.
Tak już sobie wyobrażam granie miejscami w statki.
Wpisuję numer miejsca, powiedzmy 16.
Kurde nie ma. Dobra, próbuję 17. Nie ma. Wpisuję 20.
Jesteś blisko, ale jeszcze to nie to. Próbuj dalej.
Nie pomyślałem. Gram miejscami w pociągu w statki.
Cóż.
I jeszcze jedna wypowiedź, która do nas doszła w międzyczasie.
Aplikacja oficjalna, ale user agent już może być innym.
Mi kiedyś kuku zablokowali, bo uruchamiałem je w emulatorze.
No też prawda.
I to wszystkie wiadomości.
Dobrze, to przechodzimy już do kolejnego tematu.
Zmiany na lepsze.
W dostępny do szkolnictwa wyższego, tutaj Paweł to wpisał, zdaje się.
Tak, zgadza się, zgadza się.
No i tak wspominam, nie wiem, czy Wojtek nas tutaj słucha,
bo myślę, że zmiany to są takie, które my z Wojtkiem okomentowaliśmy,
ale studiujących albo studiujących kierunki filologiczne
może wśród nas jeszcze trochę jest, wśród słuchaczy.
I tu takie dwie zmiany, które ja wynotowałem,
aczkolwiek takich drobniejszych jakichś innowacyjek mogło być trochę tutaj więcej.
A mianowicie pierwsze, tak bardziej globalnie,
zaczęła się tworzyć gdzieś tam dostępność Zotero,
czyli bardzo potężnego narzędzia do zarządzania bibliografią.
Narzędzia, nie wiem, czy w którym bezpośrednio można,
ale może można zacząć, tworzyć artykuły naukowe po prostu.
I to jest narzędzie używane przez wiele osób
i bardzo może to sprawę ułatwić.
Dużo skrótów klawiszowych, dużo opcji wstawiania w różnych formatach,
całe zarządzanie, jakaś sieć powiązań między jakimś jednym artykułem,
który sobie analizujemy, a drugim.
No potężny menedżer i to myślę może w jakiś sposób zrewolucjonizować to,
jak będziemy teraz pisać pracę różnego rodzaju czy artykuły.
Może nie tylko w kontekście akademickim, ale głównie.
A druga rzecz to jest coś, co się dalej rozwija,
bo jeszcze jakby owoców tego nie widzimy,
ale no wiem, że sytuacja jest rozwojowa
i coś, na co czekaliśmy latami.
Patryku, myślę, że tutaj się zgodzisz.
Trados ma się stać dostępny.
I to jest coś, na co czekaliśmy.
Czekam, czekam.
Tak, tak, bo jest to standard.
Jak chodzi o tłumaczenia, Trados, przepraszam, bo to trzeba zrobić krok w tył,
chyba najpopularniejszy program do wspieranych komputerowo-tłumaczeń pisemnych.
Z języka na język.
I każda agencja tłumaczeniowa praktycznie teraz wymaga Tradosa,
z tego co wiem, na tyle na ile słyszałem o tym, jak rynek działa,
albo bardzo wiele tych agencji przynajmniej spodziewa się,
że my tego Tradosa umiemy obsłużyć,
że z jego plikami i do glosariuszy, i do baz słów,
i do gotowych tłumaczeń i tak dalej, pamięci tłumaczeniowych,
jesteśmy w stanie pracować.
No i ten Trados jest takim właśnie w wielu miejscach stosowanym programem.
Przez długi, długi czas był niedostępny.
Ciężko było nam podjąć przez to pracę w agencjach tłumaczeniowych,
a ciężko było nam brać udział w różnego rodzaju kursach
i zajęciach na studiach, jeżeli chodzi o tłumaczenia pisemne.
No teraz nareszcie ma to ruszyć.
I… no nie jest to temat, mówię, który jakoś w zeszłym roku się zamknął
i coś już zobaczyliśmy jako efekt końcowy,
ale zostało… kotwica została zarzucona,
no i czekamy, czy ten statek tą kotwicę odwiesi
i wypłynie, i dopłynie do jakiegoś następnego celu,
którym będzie już jakaś pokazowa wersja programu,
o której będzie można coś więcej powiedzieć,
oprócz tego, że jest w planach.
Ale jeżeli to ruszy i dobrze, że to ruszy,
no to odblokuje się nam kolejny gdzieś tam zawód.
To nie jest też tak, że bez tego Tradosa nic się nie dało robić,
bo było oczywiście fluency i te pliki tych pamięci i tak dalej
są gdzieś tam uniwersalne, między sobą kompatybilne,
więc to nie była sytuacja bez wyjścia,
ale no ten rynek tych programów, właśnie tych narzędzi CAD tak zwanych,
no nie był dla nas zbyt łaskawy do tej pory
i dalej nie jest kolorowo, ale jeżeli ruszy Trados,
który był, mimo tego, że inne programy są dostępne
i spełniają to zadanie, był gdzieś tam wymaganiem,
więc miejmy nadzieję, że trochę zmieni to,
jak będzie dla nas wyglądała sytuacja na rynku pracy właśnie w tłumaczeniach.
Kolejna rzecz, którą mamy wpisaną,
to jest coś, co chyba już troszeczkę ruszyliśmy,
chociaż nie pamiętam, czyli BeMyEyes na Windows,
w zasadzie BeMyAI na Windows,
no czyli po prostu możemy dać albo obraz ze schowka,
albo zawartość ekranu jednym skrótem do tłumaczenia,
znaczy do rozpoznawania przez BeMyAI,
czyli GPT obudowany jakimś ich promptem,
no i to działa, można zmieniać skróty,
bo przez chwilkę był problem taki,
że któryś ze skrótów nam chyba kolidował
z jednym z polskich znaków diakrytycznych
i teraz da się te skróty od pewnego czasu już zmieniać.
No i dobrze, że jest coś takiego,
bo rzeczywiście gdzieś tam może się niejednokrotnie przydać coś takiego.
Ja bym powiedział, że mi nawet częściej przydaje się
rozpoznawanie różnego rodzaju obrazków w formie plików
właśnie z poziomu komputera niż z poziomu urządzenia mobilnego.
Tak, bo okej, na telefonie zazwyczaj obsługuję tego typu narzędzia w ten sposób,
że robię zdjęcie tu i teraz i w tym momencie chcę,
żeby on mi powiedział, co na tym obrazku się znajduje,
który zrobiłem właśnie teraz.
Zdjęcie jakiegoś konkretnego produktu, jakiejś konkretnej sceny.
Natomiast komputer ze swej natury to służy albo do przeglądania różnych rzeczy
zdecydowanie częściej, czy to internetu, czy jakichś różnych mediów społecznościowych także,
ale też na dysku może mieścić różnego rodzaju zdjęcia,
różnego rodzaju pliki graficzne, które mogą się okazać fajne,
gdyby zostały rozpoznane.
Więc ja na przykład zdecydowanie częściej korzystam z tego w ten sposób,
że po prostu z eksploratora wrzucam jakieś tam obrazki i każę mu rozpoznawać
i to jest właśnie też taka rzecz, o której warto wiedzieć,
jeżeli ktoś jeszcze nie korzystał z Be My Eyes pod Windowsem,
że tu w tej aplikacji mamy, jak na razie przynajmniej,
możliwość korzystania tylko ze sztucznej inteligencji.
I nie jesteśmy w stanie połączyć się z widzącym wolontariuszem,
żeby nam w jakiejś sytuacji pomógł.
A wydaje mi się, że to też naprawdę można by było sporo zdziałać.
To prawda.
Tak, w ogóle Be My Eyes dostało te grupy, zdaje się, już na telefonach, tak?
Tak, że można swoich znajomych podrzucać i jakby połączyć ich w grupę,
dzięki czemu będziemy się łączyć tylko z osobami zaufanymi.
Tak.
My też, skoro rozmawiamy o Be My Eyes i tych nowościach,
w ogóle w tym roku Be My Eyes, chyba nawet teraz właśnie,
świętuje dziesiąte urodziny, ale nie wiedziałem,
że ta aplikacja już tyle z nami jest, szczerze mówiąc.
Ja też nie wiedziałem.
Ale no to już teraz wiecie, jak i ja.
Natomiast co tam jeszcze się zmieniło, oczywiście też doszły…
bo Be My Eyes od jakiegoś czasu oferuje taką funkcję,
która pozwala firmom oferować kontakt z ich pracownikami
właśnie w sprawach dostępności.
Tam był np. Microsoft, to było Sony, coś jeszcze, jeszcze jakieś firmy.
Na pewno więcej za granicą niż u nas.
Na pewno Microsoft i Sony to dwie, które im przyszły do głowy.
Natomiast oprócz tego, że mamy ten kontakt z pracownikami,
to teraz też takie firmy mogą mieć w usłudze własne boty.
Z którymi też możemy rozmawiać i one też jakąś wiedzę
bardziej spersonalizowaną pod nasze potrzeby posiadają.
Także możemy np. takiego bota Microsoftu pytać o jakieś kwestie
związane z Windowsem czy z aplikacjami Microsoftu
i on nam będzie w stanie coś podpowiedzieć.
I kolejny temat, który mamy tutaj w notatkach,
dotyczy takiego czegoś, co się zastanawiałem,
czy tutaj dawać czy nie, bo będzie jeszcze audycja na temat gier,
ale zdecydowałem, że może wpiszę, nie wiem, może mimo wszystko
przyda się to do czegoś, NVGT, czyli nowy silnik do tworzenia gier audio.
I w sumie nie tylko gier.
Nie tylko gier, to jest środowisko, powiedzmy, programistyczne,
nastawione na gry, nie mniej może komuś się przyda.
Tak, to jest, nawet bym powiedział, że to jest nowy, stary silnik
i już tłumaczę o co mi chodzi, jeśli słuchaliście tylu przeglądów, to wiecie dlaczego.
To jest na pewno aplikacja, która trochę dała zastrzyk takiej energii, mam wrażenie,
w społeczności programistów gier audio, bo mieliśmy taki silnik jak BGT.
Ten silnik był na rynku od ponad kilkanaście lat.
Był to silnik, w którym powstało bardzo, bardzo, bardzo dużo gier audio,
co na przykład przychodzi do głowy, Crazy Party, Manamony,
gry od Blast Bay Studios, co tam jeszcze.
Do tych gier było dużo, gry Oriola Gomeza,
to przynajmniej na Windowsa, a nie na iPhona.
Tych gier przez lata powstało masa, jakieś gry strzelanki, Survive the Wild,
to też wątek w ogóle, który się z tym, o czym zaraz powiem, łączy.
Natomiast ten silnik miał swoje ograniczenia,
ale też po prostu autor tego silnika postanowił zarzucić jego rozwój.
I z czasem ten silnik powodował coraz większe problemy,
antywirusy zaczynały go wykrywać jako wirusa, mimo to, że wirusem nie był,
co powodowało, że ktoś pobierał sobie nową grę i po prostu ta gra się nie chciała rozpakować nawet,
bo Defender ją łapał w locie na przykład.
Ale ludzie mimo wszystko z tego korzystali z tego, że przez lata powstało wiele funkcji, bibliotek,
które ułatwiają różne rzeczy w tworzeniu gier.
Więc to było bardzo popularne narzędzie.
Ludzie próbowali też pisać gry w innych silnikach, w innych językach programowania,
co się zresztą dzieje.
Natomiast BGT miał ogromną fanę, ogromną bazę fanów swoich.
I jedną z tych osób jest taka osoba jak Sam Toopy, autor gry Survive the Wild,
który jest też bardzo zdolnym programistą i na swoje potrzeby napisał nowy silnik,
który używa tego samego języka programowania, co BGT.
BGT sam w sobie jest językiem, ale pod maską używa takiego języka,
jakby ktoś był ciekawy, on się nazywa Angelscript
i on daje tą całą składnię, którą wykorzystujemy do programowania.
No, że na potrzeby właśnie swojej gry stworzył nowy silnik.
Gra Survive the Wild swoją drogą też już przestała być rozwijana,
no bo po prostu przez te kilkanaście lat istnienia
tam po prostu się ogromny bałagan w chodzie stworzył.
Natomiast jednym z efektów obocznych tego, że ta gra powstała
i on chciał ją cały czas rozwijać jest właśnie silnik NVGT,
który jest w dużej części kompatybilny z BGT,
więc jeśli ktoś znał BGT, to może tutaj programować bardzo łatwo,
ale ma kilka istotnych poprawek.
Po pierwsze, jest to nie tylko silnik darmowy, to jest jeszcze otwartość źródłowa,
więc każdy może z niego korzystać.
Jest dostępny w tym momencie na cztery platformy,
czyli to jest Windowsa jak BGT, ale jest to też Mac, jest to też Linux
i nawet jest to też Android, wiem, że iOS też jest w planach,
więc tutaj nawet możemy pisać gry na smartfony.
No i wspiera po prostu więcej możliwości, np. dźwięk binauralny,
jakiś pogłos, jakieś efekty audio, bo BGT jako silnik do tworzenia gier audio
jakoś dużo efektów nie miał właśnie, co ciekawe.
A tutaj już ta biblioteka audio jest dużo bardziej rozbudowana.
No i dlatego po prostu ten silnik stał się tak popularny tak szybko.
I już zaczynamy od… nie pamiętam kiedy publiczna beta się pojawiła,
to chyba była jakaś jesień 2024 roku.
I od tego czasu mamy już naprawdę spory wysyp gier, które w tym silniku powstały
albo zostały odświeżone dzięki temu silnikowi.
I tego pewnie będzie powstawało coraz więcej.
Nawet jak tutaj rozmawiał Tomek z Michałem, nie tylko o grę,
bo np. dzięki temu, że mamy w tym silniku dźwięk binauralny,
to powstała np. taka fajna aplikacja do radia.
Jak ona się nazywała?
Coś kojarzy?
Stations.
Stations, dziękuję.
Która nam pozwala właśnie sobie umieścić żyle, nazwijmy to, radioodbiorników ile chcemy,
które każdy z nich może nam odgrywać dowolny strumień.
No niestety nie strumienie HLS, tutaj mamy ograniczenia chyba tej biblioteki audio.
Ale możemy sobie kilka takich radioodbiorników postawić, włączyć jakiś pogłos,
żeby to brzmiało tak, jakby to było w naszym pokoju.
Albo łatwo między nimi się przełączać, albo po prostu mieć kilka odpalonych naraz,
żeby kilka transmisji sportowych śledzić naraz np., jakby ktoś chciał.
Także nie tylko to gier to narzędzie może być wykorzystane.
A tak jeszcze zamykając temat gier, to tak jak mówił Tomek tutaj,
to już myślę, że możemy zapowiedzieć.
W piątek za tydzień będzie dedykowana audycja grom,
więc może nie będę tutaj się wypowiadał jakoś bardzo dużo,
ale gdybym miał podzielić się jakimiś refleksjami, co się działo na rynku gier tak ogólnie,
no na pewno jedną z bardziej… w ogóle mieliśmy kilka takich przykrych wiadomości w tym roku.
Między innymi właśnie Survive the Wild zniknęło z rynku po 10 latach.
Po 25 albo 26 latach z rynku zwinęła się również firma PCS Games,
więc to też firma, która była na rynku dosyć długo i po prostu już nie istnieje.
No i też niestety mieliśmy śmierć Brandona Cole’a, który jest chyba najbardziej…
który był, przepraszam nawet, najbardziej aktywnym konsultantem dostępności gier.
I dzięki niemu mamy dostępność w takich grach jak SRE The Last of Us, jak Forza Motorsport,
jak Mortal Kombat, to też tam to była praca grupowa.
As Dusk Falls w wielu grach pomagał w dostępności wielu gier.
Bardzo też udzielał się społeczności Hearthstone’a, dzięki czemu Blizzard nawiązuje cały czas kontakt
z autorami moda Hearthstone Access, więc bardzo udzielał się społeczności
i dzięki niemu mamy taką świadomość o dostępności dla osób niewidomych w świecie gier, jaką mamy.
Także straciliśmy naprawdę legendę. Miejmy nadzieję, że to, co on osiągnął,
będzie gdzieś kontynuowane w najbliższych latach przez inne osoby.
Na pewno ludzie są aktywni, piszą do różnych producentów z różnymi efektami.
Tutaj też właśnie, jeśli chodzi o takie ogólne podsumowanie, no to mieliśmy kilka gier,
które otrzymały, na przykład, reskrypcje, które nie muszą zawsze być dla nas dostępne.
Tutaj, na przykład, taka gra jak Star Wars Outlaws, czyli gra w uniwersum Gwiezdnych Wojen.
Audiodeskrypcję ma, ale dostępna dla nas nie jest.
Spider-Man 2, teoretycznie dostępny dla nas też nie jest, aczkolwiek okazuje się, że można go przejść.
Tutaj też właśnie gra, która audiodeskrypcję dostała.
Było mniej właśnie takich gier, jak się ładnie mówi, AAA, czyli takich dużych firm.
W 2023 roku to właśnie była Forza, był Mortal Kombat.
W tym roku zeszłym takich rzeczy nie mieliśmy.
Natomiast właśnie pojawiło się bardzo dużo nowych gier audio, zarówno z zachodnich i wschodnich.
W Chinach też dużo gier powstało ostatnio.
Pojawiło się też bardzo dużo gier od niezależnych twórców, głównie gier mobilnych,
ale nie tylko.
Dużo karcianek nowych, dużo roguelike’ów.
Doncaster na przykład tutaj się rzuca, który zresztą wygrał nagrodę Gry Roku w portalu Apple Feeds,
za co deweloperzy bardzo byli wdzięczni.
I jeszcze coś chciałem powiedzieć.
No i oczywiście cały czas rozwijane są kolejne mody dostępnościowe.
Tutaj chyba takim największym jest mod do Ballatro, ale też na przykład Arek pracuje nad modem do Gothica,
który też miał swoją pierwszą publiczną wersję.
Bo to był ma… cały czas te mody też się rozwijają.
A o więcej szczegółów, no to zapraszam Was na przyszły piątek za tydzień,
kiedy o nowościach Wrak będziemy mówić więcej.
Piszecie do nas, konkretnie przed momentem napisał do nas Krzysztof.
I już sobie do tej wiadomości przechodzę.
Witam. Dodam parę słów od siebie.
Odnośnie tego co mi się podobało w 2024 roku.
Po pierwsze pojawienie się nowych rejestratorów Zoom z przewodnikiem głosowym.
Po drugie Be My Eyes na Windows.
I po trzecie funkcję Gemini w Talkbacku.
I teraz za pomocą jednego gestu w Androidzie mamy dostęp do opisu danego obiektu lub obrazka.
Bardzo przydatne na przykład przy oglądaniu gazetek reklamowych w sklepach lub aplikacjach,
gdzie są nieopisane obiekty.
Nie wiem czy komunikaty o nadjeżdżających autobusach Time For Bus weszły w zeszłym roku,
ale to także była dla mnie opcja w zeszłym roku.
Pozdrawiam.
Tak. O Zoomach jeszcze będziemy mówić. Chwilkę.
Ale zanim o tym, to o konferencjach.
Bo w tamtym roku w Teflo Przeglądzie, no głównie Paweł, zrelacjonował tej konferencji aż cztery jak się okazuje.
Tak, to jest troszkę taki mój osobisty kamień milowy.
No bo po raz pierwszy tak naprawdę udało mi się w jakikolwiek sposób,
czy będąc na żywo, czy korzystając już z nagrań robionych przez inne ekipy,
zrelacjonować de facto właśnie cztery konferencje poświęcone technologiom asystującym.
Był to Zero Project w Wiedniu, na którym byłem osobiście i już mogę zdradzić, że będę też w tym roku,
jeżeli nic nie stanie na przeszkodzie oczywiście, bo rejestrację już mam.
Było to Site City, na którym być nie mogłem, ale mam…
No i jest podcast Siteviews, gdzie jego prezenter bardzo rzetelnie relacjonuje praktycznie wszystko, co tam się pojawia,
jeżeli tylko jest coś ciekawego, o czym można powiedzieć, jeżeli tylko są jakieś nowości,
a nie takie same produkty, co rok wcześniej.
Po raz pierwszy też Siteworld, czyli konferencja w Tokio.
No i byłem na Inspo w Pradze.
Ciekawe doświadczenie mieć tak dokładny dostęp, zwłaszcza jak chodzi o te konferencje nagrywane,
znaczy te konferencje na żywo oczywiście też były niesamowitym przeżyciem.
W ogóle latanie z różnego rodzaju mikrofonami, bo jak Zoom się rozładował, to i iPhone dał radę.
Zbieranie tych nagrań, ale też gotowość tych moich gości,
żeby nie tylko udzielić mi szczegółowych odpowiedzi, bo to gdzieś tam dla nich też jest jakaś reklama
i w ogóle poświęcili mi ten czas, też jest to super,
ale że też właśnie w niektórych przypadkach nie mieli problemu, żeby gdzieś mnie podprowadzić,
żeby w jakiś sposób mi też ułatwić to moje zadanie, coś tam ewentualnie sprawdzić na moim rejestratorze.
Także naprawdę fajnie się czułem i jak widać da się takie wydarzenia ogarnąć.
To jest też takie moje osobiste zadowolenie z zeszłego roku.
Natomiast z tych konferencji nagrywanych też niesamowite, że jest tyle materiału,
tak rzetelnie zrobionego, tak fajnie podanego, że nawet ten japoński udało się maszynowo przetłumaczyć.
Także oby było jak najwięcej tego typu wydarzeń.
Moje plany są takie, żeby tam gdzie się da w tym roku również być.
Czy tych wydarzeń będzie suma sumarum więcej niż w zeszłym roku? Nie wiem.
Natomiast tak podsumowując trochę ciekawych rzeczy się pojawiło.
Na Zero Project mieliśmy okazję przekonać się o trzech startupach, które próbują podbić nasze portfele i nasz rynek też.
I nasze skrzynki z narzędziami, których mamy już coraz więcej, czy w formie fizycznego sprzętu, czy oprogramowania.
To był Kinoa, czyli rękawiczka, która pozwala nam palcami wystukiwać litery brailowskie i też wibracjami odbierać takie litery.
Był to Lumen, który był kaskiem na głowę, pozwalającym nam na nawigację dużo płynniejszą.
I też pokazywałem produkty Trestle Labs, o ile pamiętam dobrze z Indy, czyli aplikacja Kibo i parę innych sprzętów, które też tam prezentowali.
Zobaczymy co w tym roku, a Side City to również była scena dla zarówno już firm, które są weteranami, zwłaszcza na rynku niemieckim, ale też międzynarodowym.
Słyszeliśmy o dostępnym Radiu Dab, które nawet wspierało język naszych południowych sąsiadów, język czeski.
Do dzisiaj nie wiemy, nie dotarłem do informacji na ile to radio jest w sprzedaży. Bardzo ciężko znaleźć gdziekolwiek jakieś ślady jego egzystencji, więc nie wiem co tam producent zamierza.
No ale też pojawiło się dużo młodziutkich startupów, które, no niektóre już się pojawiają nawet w ofercie polskich dystrybutorów, tak jak na przykład firma ze Szwecji, X-Band, która oferuje opaskę wibrującą nam różne dane z telefonu, jakieś powiadomienia, godzinę i tak dalej.
Różnego rodzaju nawigacje i to też z rynków azjatyckich, gdzieś tam z Korei Południowej, nowe jakieś rozbudowane kwestie w monitorach brailowskich, także tych wywiadów było mnóstwo.
Polecam sobie przejrzeć tetyflop przeglądy, gdzie wspominałem o Sight City. Podobnie Sight World, to również były godziny nagrań w języku japońskim, które udało się przełożyć właśnie Whisperem i tłumaczem nawet chyba Google na język polski na tyle, że byłem w stanie Wam przekazać troszeczkę co i w Japonii ciekawego się dzieje.
Mieliśmy monitory brailowskie, które można łączyć w jeden jakby monitor, mieliśmy dalej buty do nawigacji, mieliśmy system, który pozwala nam nauczyć się odgłosów samochodów elektrycznych, je też wykrywać, różnego rodzaju rozwiązania oparte o kamerę, które pozwalają nam też wykrywać przeszkody, aplikacje nawigacyjne, no przeróżne rzeczy.
No i inspo, na którym Blind Shell był królem imprezy, że się tak wyrażę, i parę innych pomniejszych czeskich i słowackich rozwiązań, które może kiedyś do nas dotrą, a może nie. No o tym myślę, że się przekonamy w tym i w najbliższych latach, ale kurczę, czystą przyjemnością było robić dla Was te materiały i mam nadzieję, że będzie mi jeszcze dane ciekawe rzeczy z różnych zakątków świata Wam dowieźć.
Jak tak sobie konferencję wspominamy, to też myślę, że warto wspomnieć audycję, która jest w naszym archiwum, jeżeli Was interesuje. To konferencja Pragma, o której Arek Świętnicki opowiadał, bo to też takie w ogóle ciekawe doświadczenie.
Po raz pierwszy, które się u nas pojawiło, osoby niewidomej z uczestnictwa w takiej konferencji programistycznej, gdzie rzeczywiście sporo się dzieje i gdzie trzeba, kolokwialnie mówiąc, naprawdę dużo ogarniać w jednym czasie i szybko przyswajać sporą dawkę różnego rodzaju informacji, które do nas docierają, więc jeżeli jesteście tego ciekawi, to też warto sobie zajrzeć do archiwum.
Tak jest. To Zoomy. Niedawno też słuchacz mówił, że jedną z fajniejszych rzeczy w tamtym roku były nowe rejestratory Zooma. My też to wpisaliśmy, no i pora.
Zooma, najpierw H1E, tudzież Essential, no i potem pojawiło się kilka nowych z tej serii, więc widać, że pomysł chyba się udał, a w każdym razie wszystkie rejestratory, które wyszły w tym roku, udźwiękowienie dostały.
Jakie to są rejestratory? Mamy H1E, który ma po prostu dwa mikrofony, mamy H1XLR, który mikrofonów nie ma, ale za to ma wejście na mikrofony pojemnościowe XLR, na gniazdach XLR, stąd nazwa.
Niedawno pojawił się H2E, tam jest system trzech albo czterech mikrofonów w takiej dość nietypowej konfiguracji, dziewięć trybów nagrywania, różne tam są historie, no to jest oczywiście następca modelu H2N.
Jest jeszcze H4E, który ma parę mikrofonów, tak samo jak w H1E, tyle że oprócz tego ma dwa gniazda XLR. No i jest H6E, który ma parę mikrofonów i dodatkowo cztery wejścia XLR, które albo już się da, albo niedługo się będzie dało.
Parę mikrofonów zamienić na inny mikrofon, jakiś tam shotgun, czyli taki bardziej kierunkowy mikrofon, ewentualnie na dodatkową parę gniazd XLR, czyli będzie w sumie tych gniazd sześć.
I chyba tyle, jeżeli chodzi o portfolio udźwiękowionych rejestratorów. Te rejestratory również nagrywają w formacie trzydziestodwubitowym, zmiennoprzecinkowym i to jest coś takiego, co może sprawić jakąś trudność, bo takie nagrania z reguły warto, zwłaszcza zanim się je przekonwertuje do jakichś formatów typu MP3.
No to warto je jakoś do tego dostosować. No i różnie to wychodzi. Ja tak się zbieram do jakiejś audycji o tym i zbieram i zebrać się nie mogę, ale może w końcu będę miał jakąś motywację, żeby to zrobić, bo takie przygotowanie tych nagrań to z jednej strony nie jest specjalnie trudne,
ale no jednak wymaga, wymaga często jakiejś zmiany głośności, bo te nagrania mogą być albo za ciche, albo za głośne i gdy je słuchamy sobie tych nagrań po prostu, nie wiem, jakimś fubarem czy w foldce, mediaplayerem, tak po prostu na Windowsie, to może nie być żadnego problemu, a gdy je skonwertujemy do MP3 na grę, mogą zacząć pojawiać się jakieś dziwne dźwięki przesterowania i trzeba to jakoś zrobić.
Więc warto gdzieś tam z tematem się zapoznać.
A te oryginalne nagrania to są pliki dość dużych rozmiarów.
Tak, to są naprawdę dużych rozmiarów pliki. Godzina stereofonicznego pliku 48KHZ, czyli takiej standardowej jakości, to jest prawie półtora giga, więc jest co mieć na dysku, że tak powiem.
I tyle, jeżeli chodzi o te rejestratory, no bo myślę, że tu nie ma co się jakoś zagłębiać w więcej szczegółów, no mają dźwiękowienie, ona jakoś działa i tych rejestratów się robi.
No ja mam nadzieję tylko, że tych rejestratorów będzie coraz więcej w ofercie, z udźwiękowieniem zobaczymy, zwłaszcza tych bardziej profesjonalnych, no ale to czas pokaże.
Są dwie audycje w Tyflopodcastie, jedna na żywo, druga jako taka uzupełniająca na temat Zooma H1E, jak dobrze pamiętam.
Tak, tak.
I kolejny temat, to są duże zmiany w VLCR, czyli narzędziu na Maca, które pomaga w przypadku problemów dostępnościowych w różnego rodzaju aplikacjach.
I z tego co patrzę, no to w 2024 roku trochę zmian się pojawiło, począwszy od tego, że wyszła wersja 2.0 w ogóle.
Tak, to w ogóle też było ciekawe, bo to zacznijmy od tego, że ta aplikacja to w ogóle miała takie trzy fazy rozwoju.
W swojej pierwszej wersji to był zestaw skryptów, to narzędzia Keyboard Maestro, które trzeba było sobie kupić, jakby ktoś chciał z tego korzystać.
I to wtedy był chyba jedyny sposób na taki OCR, jaki znamy na przykład z NBA, gdzie możemy sobie po prostu poprosić na szczytnik ekranu, żeby nam wykonał OCR na całym ekranie albo na jego części, żeby później sobie na przykład w coś kliknąć, co jest w inny sposób niedostępne.
Więc to były te skrypty, one sobie jakiś czas były, ludzie to używali głównie chyba do pracy z mało dostępnymi instalatorami, do jakichś wtyczek audio, tego typu rzeczy.
Po jakimś czasie ta aplikacja została przepisana jako aplikacja natywna na Maca, wykorzystująca systemowy silnik OCR, który chociaż języka polskiego nie wspiera, to naprawdę działa dobrze.
I po prostu… z polskim znaczy to działa, tylko nie będziemy polskich znaków widzieć, tak że można mimo wszystko też sobie jakieś polskie teksty rozpoznawać, jakby ktoś potrzebował.
Natomiast głównym zadaniem tego narzędzia jest właśnie klikanie w niedostępne rzeczy i po prostu rozpoznawanie zawartości ekranu w niedostępnych aplikacjach.
I to aplikacja robiła fenomenalnie szybko, no i po prostu ona sobie była.
Ta wersja pojawiła się w roku 2021, po czym przez trzy lata nie działo się nic.
I w styczniu zeszłego roku zaczęły pojawiać się pierwsze wersje beta, wersji 2.0, która w końcu pojawiła się w maju, w międzyczasie pojawiły się kolejne aktualizacje.
I w tej aplikacji doszło dużo naprawdę fajnych rzeczy. Jakie rzeczy nam doszły?
No oczywiście doszło AI, więc możemy tą aplikację wykorzystywać analogicznie do Seeing AI na Windowsie, więc możemy sobie po prostu pytać o zawartość ekranu.
Możemy dowolne pytania wpisywać, możemy sobie ten tzw. prompt dostosować i po prostu aplikacja prześle nam zdjęcie i je nam opisze.
Możemy zresztą też tak jak z Be My Eyes sobie rozpoznawać dowolne pliki z Findera, po prostu je wysyłać do VLCera.
Jeżeli ktoś chce korzystać z tego w ten sposób, to można.
Co jeszcze możemy? No oprócz pracy z GPT, gdzie musimy wprowadzić własne klucze API i doładować sobie konto, to nie jest jakaś droga sprawa, natomiast trzeba to zrobić,
to VLCR też jest w stanie pracować z modelami lokalnymi.
Takie modele są dwa. Jest model Lava, który już jest dostępny od jakiegoś czasu.
On jest w miarę mały, dzięki temu działa dosyć szybko, tak jak na procesorze M1 on chyba jakoś po 20-30 sekundach zdjęcia rozpoznaje,
więc nie tak szybko jak GPT, ale też nie jakoś bardzo wolno. Kiedyś zdaniem pojawiło się GPT-4, o to też jakoś tak działało.
Natomiast on słabo sobie z tym radzi, też nie wspiera języka polskiego, więc ja bym go nie polecał.
Natomiast niedawno też pojawił się nowy model, model Lama 3.2 Vision.
I ten model też nie jest jakoś bardzo duży, spokojnie go załadujemy do komputera, który ma 16 GB RAMu.
I on już sobie radzi nawet fajnie, nawet już potrafi te opisy generować po polsku, tylko trochę niegramatycznie.
Po polsku już nam opis przedstawi.
Wiadomo, to i tak nie będzie jakoś GPT, ale jakby ktoś chciał sobie takie zdjęcia przetwarzać lokalnie, nie chce jakichś zdjęć wysyłać do chmury, to może być ciekawe rozwiązanie.
Natomiast ten model już działa trochę wolniej. Na M1 no to jedno zdjęcie rozpoznaje się minuta 50 sekund.
Także to raczej bym polecał na trochę nowszym sprzęcie, jeśli ktoś chce się tym modelem bawić.
Natomiast to jest jedna rzecz, która doszła do VOCR-a. Co do niego doszło jeszcze?
Doszło np. rozpoznawanie w czasie rzeczywistym, a to się np. nam może przydać w sytuacji, kiedy mamy jakiś np. film na YouTubie, w którym mamy napisy,
ale te napisy nie są napisami, które możemy sobie z otwarzacza YouTube wybrać, a są po prostu częścią obrazu w tym filmie.
No i chcielibyśmy sobie te napisy przeczytać, zresztą nie tylko na YouTubie.
Czyli te tzw. otwarte napisy.
Otwarte napisy, dziękuję.
I właśnie w takich sytuacjach możemy sobie uruchomić rozpoznawanie w czasie rzeczywistym i wtedy VOCR nam będzie robił zdjęcie około co sekundę chyba domyślnie.
I jeśli coś się zmieni na ekranie, no to ta zmiana zostanie nam odczyta na NVIDIA i też takie rzeczy potrafi, czy ZDSR, no i VOCR też w tym się sprawdza świetnie.
Także doszło to.
Doszedł tryb eksploracji oparty o GPT, który mi jakoś nie chciał działać dobrze.
To był taki eksperyment, zresztą sam autor aplikacji mówił, że to był eksperyment, który miał generalnie czytać zawartość ekranu jak czytnik ekranu,
ale przez to, że GPT nie potrafi dokładnie podawać współrzędnych przycisków na przykład, no to działa to średnio.
Natomiast też doszedł tryb wykrywania obiektów na ekranie i to działa po prostu trochę tak, jak ktoś pamięta, jak pierwsze czytniki ekranu Windowsa
mogliśmy sobie skonfigurować tak, żeby nam czytały wszystkie grafiki, nawet te niezatykietowane.
I to się czasami mogło przydać, na przykład wiedzieliśmy, że obok jakiegoś elementu tekstowego mamy dwa przyciski, które mają jakieś ikonki
i takim tradycyjnym OCR-em takich przycisków nie dało się znaleźć, a tutaj na przykład w OCR-ie, jeśli to sobie włączymy, to będziemy mieli to takie obiekty,
jaką to po prostu nazywa, rozpoznane i w ten sposób możemy na nie najechać myszką i w nie kliknąć.
To ma swoje zastosowania. Jeszcze pojawiło się na przykład rozpoznawanie z kamery, co możemy wykorzystać,
to po prostu robiąc jakieś zdjęcia, pokazując coś przed kamerkę Maca, ale nie tylko, no bo równie dobrze możemy zrobić to samo, o czym mówiliśmy w zeszłym…
w tym tygodniu, przepraszam, w TVPrzegodzie i na przykład wykorzystać to z kartą przechwytującą obraz z jakiegoś zewnętrznego urządzenia.
I tak OCR wykorzystać do opisów lub właśnie na przykład wykonywania OCR-u w czasie rzeczywistym z zewnętrznego jakiegoś ekranu komputera na przykład.
I doszło do wyszukiwania, więc też jeśli OCR sobie wykonamy, no to możemy po prostu po zawartości ekranu sobie różnych rzeczy szukać.
Także aktualizacja jak najbardziej duża, aplikacja zupełnie darmowa i wydaje mi się, że to jest narzędzie, które każdy kto ma Maca powinien mieć, bo ono bardzo często się w różnych sytuacjach naprawdę może przydać.
Tak, kolejna kwestia, tu sobie sprawdzam. Nie pamiętam czy już o tym nie mówiliśmy przy okazji, no właśnie w czytniku ekranu, w czytnikach ekranu?
Nie, tego jeszcze tak całościowo tutaj nie przedstawiliśmy.
No dobra, to nie wiem czy Paweł czy Piotrek, bo tutaj jest pisane, że Paweł, ale w sumie…
Możemy z Patrykiem podzielić, bo Patryk chyba bardziej jest po tej stronie JOS-owej, ja bardziej po NVIDIA.
To nie wiem Patryku, czy chciałbyś zacząć od JOS-a?
No to Patryk mówił, że tam coś z nim…
A, okej, dobrze, to ja mogę zacząć od NVIDIA.
Ale na JOS-a może jeszcze przyjdzie pora.
No więc NVIDIA w tym roku się nam rozwinął. Te zmiany z jednej strony może jakieś spektakularne nie są, ja już widziałem dość dużo,
może nie dość dużo, ale jakieś posty takie idące w stronę tego, że żadna innowacja się w tym czytniku nie dzieje.
Przypuszczam, że tu może chodzić o to, że nie weszło jeszcze żadne AI, tak oficjalnie jedynie co to przez dodatki.
Natomiast z mojego punktu widzenia ja się zawsze cieszę, kiedy czytnik ekranu również usprawnia swoje podstawy,
czyli to jak obsługuje internet, jak obsługuje różne inne programy.
No i co w NVIDIA się takiego działo?
No NVIDIA zostawiliśmy chyba rok temu na takim etapie, gdzie mieliśmy dopiero co otwarty sklep z dodatkami.
I ten sklep się też trochę rozwinął.
Tam się rozegrały różne sprawy związane z wykonywaniem masowych działań na dodatkach,
że można ich więcej naraz zaznaczyć i wykonywać działania.
Doszła opcja automatycznych aktualizacji.
To jest dość ważne, bo kolejna wtyczka, której nie potrzebujemy to jest addon updater.
I teraz NVIDIA będzie samo z siebie pokazywało informację o tym, że przynajmniej te dodatki, które są pobrane ze sklepu
mają jakąś nową wersję, którą można zaktualizować.
Z takich funkcji, które JAWS już miał i wiele osób staje się jakoś tego potrzebować i to lubić,
to jest podział dźwięku na lewy i prawy kanał.
Czyli możemy NVIDIA przesunąć do lewego kanału, a dźwięk do prawego.
I w ten sposób funkcjonować.
Ponuć to pomaga się wielu osobom bardziej skupić na jakimś spotkaniu czy webinarze.
Mamy tryb natywnego zaznaczenia w Firefoxie.
To jest o tyle fajne, że nareszcie możemy zaznaczać w przeglądarce tekst z formatowaniem.
To jest o tyle istotne, że jak czasami chcemy wykopiować jakąś tabelę,
chcemy wykopiować jakiś tekst razem z linkami, wiele można i nagłówkami itd.
Do powiedzmy Worda albo do jakiegoś edytora, gdzieś tam piszemy bloga czy coś.
To możemy już to zrobić. To jest jeden przykład zastosowania.
Drugi przykład zastosowania, z którego ja często korzystam w pracy.
Kiedy bym chciał zbadać kod źródłowy jakiejś strony, to zaznaczam fragment, który mnie interesuje.
I w menu kontekstowym mam opcję kod fragmentu czy tam kod źródłowy zaznaczenia.
I wtedy pokazuje mi się wycinek tego kodu, który dotyczy tylko i wyłącznie tego elementu,
który sobie zaznaczyłem w pracy, przy audytowaniu dostępności. Bardzo użyteczne narzędzie.
Poza tym zaczyna się przygoda NVDA z monitorami wieloliniowymi.
One co prawda były wykrywane do tej pory, niektóre z nich przynajmniej i można było je połączyć.
Natomiast po raz pierwszy zaczynają wykorzystywać więcej linii.
Kontekst może się łamać i być prezentowany w wielu tak naprawdę liniach.
I wiem, że to nie koniec, że ten rozwój będzie sobie dalej trwał i kolejne jakieś tam będą usprawnienia dodawane.
Z tego co kojarzę, też weszła opcja generowania ciszy.
W przypadku kiedy nasza karta dźwiękowa usypia, kiedy jest cisza, tak po prostu sama z siebie.
Więc trzeba podawać jej cichy plik WAV, żeby była cały czas utrzymywana po prostu przy życiu.
Bo inaczej po jakimś czasie, kiedy nas przy komputerze nie ma, po kilku minutach czy coś, na początku nam nie mówi czytnik ekranu.
Dopiero jak karta się tam gdzieś obudzi, to zacznie nam mówić.
Do tego kiedyś była wtyczka potrzebna, dodatek teraz już nie jest.
Także kolejna funkcja została gdzieś tam zintegrowana.
Też doszła opcja normalizacji znaków Unicode, co jest czasami o tyle przydatne, że pewnie kojarzycie, że w mediach społecznościowych bardzo popularne jest wstawianie takich przerobionych trochę liter,
które wyglądają jak prawdziwe litery, tylko są trochę bardziej ozdobne, a w rzeczywistości są znaczkami pochodzącymi gdzieś tam z matematyki.
Są one czytane jako jakiś znak litera ileś tam ileś, albo znak zapytania, albo jakoś inaczej, więc nie wiemy o co chodzi.
Teraz ta opcja, kiedy jest włączona sprawia, że te znaki powinny być czytane jako normalne litery.
No i też rzutem na taśmę okazało się, że dzięki tej zmianie można obsługiwać równania matematyczne w edytorze równań w Wordzie, więc to też myślę, że zmiana, którą powitamy z radością.
Zwłaszcza jeżeli ktoś potrzebuje pracy z treścią matematyczną.
No i to w dużym skrócie chyba są te najważniejsze zmiany, które mamy.
Tam jeszcze oczywiście wsparcie różnych monitorów brajlowskich, takie aktualizacje powiedzmy ISP-ików, libluisów i takie standardowe gdzieś tam rzeczy.
No ale tak wygląda rozwój NVDA.
No tak, jeszcze doszło o możliwość przypisania skrótów klawiszowych na dość dużą porcję elementów na stronach internetowych, więc ta nawigacja po internecie znów stanie się troszeczkę łatwiejsza.
Myślę, że zmiany są dość ciekawe, a myślę, że już warto się nastawiać i czekać, co przyniesą wersje w tym roku.
Ja odkąd śledzę GitHuba NVDA to się tak, że tak powiem, okazuje, że bardzo ciekawy jest ten proces jak te różne funkcje powstają,
że tam się angażuje społeczność, że tam bardzo często jest długi proces recenzowania tych nowych funkcji,
a czasem nad jedną poprawką jakąś tam siedzi się tydzień albo dwa, bo tu coś w kodzie nie pasuje, a w ogóle to przegadajmy, czy w ogóle tego chcemy,
a czy dla którejś grupy użytkowników to nie będzie problemem, a wszystkie za i przeciw, więc tak naprawdę NVDA to jest fajny poligon,
żeby sobie przejrzeć tak naprawdę jak wygląda rozwój projektu od środka, jakiegokolwiek.
Przypuszczam, że w takiej typowej korporacji, która sobie rozwija jakiś produkt, ten proces nie jest aż tak szeroki, bo nie uczestniczy w nim tak naprawdę cały świat,
tylko jakaś wybrana grupa zatrudnionych testerów, ale mimo wszystko…
Bo tam do dyskusji może się włączyć tak naprawdę każdy, oczywiście nie każdego kod jest ostatecznie zatwierdzany,
bo to też musi spełniać pewne normy i być ten kod odpowiedniej jakości, to jest wszystko też weryfikowane.
Natomiast co do zasady, jeżeli chodzi o taką dyskusję, rozmowę, jakieś tam wnioski, refleksje, no to może każdy uczestniczyć.
Oczywiście, no wiadomo, w języku angielskim.
Tak i to są naprawdę ciekawe dyskusje, które zmiany przechodzą i dlaczego, które nie przechodzą i dlaczego, jaka wokół tego jest dyskusja.
No już przytaczałem przykład z SAPI 4, gdzie dla mnie SAPI 4, wycofanie SAPI 4 to jest kwestia tego, że zniknie syntok, trzeba będzie się przestawić, no okej, opcji jest mnóstwo.
No ale tak jak wspominałem, nagle się odezwała społeczność właśnie z Chin, że tak naprawdę najbardziej takim przez nich preferowanym głosem jest właśnie głos na SAPI 4
i odcięcie tego dla nich byłoby dużo większym problemem niż jakiś tam syntok dla mnie.
I to jest właśnie bardzo ciekawe, często nie wszystko rozumiem, o czym tam się mówi, ale no gdzieś tam warto sobie poczytać i zapoznać się,
dlaczego pewnych rzeczy jeszcze nie ma, a na przykład, które rzeczy są otwarte do zrobienia i jeżeli umiecie programować, to możecie zacząć po prostu tworzyć te rzeczy, których nie ma.
To jest, na swój sposób bardzo miło się to obserwuje.
No a z takich jeszcze osobistych moich kamieni milowych na ten rok, jeżeli już mówimy o screenreaderach, to się pochwalę, bo chyba w Tyfto Przeglądach jeszcze o tym nie mówiłem,
że certyfikowałem się jako ekspert zarówno w NVDA, jak i w JOS-ie i zachęcam, bo okej, tam finansowo jest to gdzieś tam obarczone, więc warto sobie rozważyć,
czy jakoś to będzie Wam w najbliższym czasie do czegoś potrzebne, ale samo przygotowanie i samo podejście do testów jest jak najbardziej opcją darmową,
więc możecie sprawdzić swoją wiedzę z zakresu tych czytników, no a na koniec rozważyć, czy chcecie zainwestować w to, żeby na przykład być wymienionym na stronie któregoś z tych czytników jako właśnie osoba certyfikowana.
Ja akurat certyfikowałem się rok wcześniej, jak dobrze pamiętam, przed Tobą Pawle i muszę powiedzieć, że jak wspominam certyfikację z JOS-a, bo akurat tam za ten certyfikat nie zapłaciłem,
tylko przeszedłem sobie, no już kiedyś, kiedyś ten test i porównuję go do certyfikatu z NVDA, to muszę powiedzieć, że certyfikat, nie wiem, czy miałeś takie same wrażenie, że certyfikat z NVDA był zdecydowanie trudniejszy niż z JOS-a.
Kurczę, to zależy, bo ja istotnie przestudiowałem pomoc w NVDA, żeby ten certyfikat zdać, możliwe, że tak podszedłem do tego bardzo sumiennie.
Istotnie z samej pomocy wyczytałem kilka rzeczy, które mi jakoś nie podpadły, jak uczyłem się tak na zasadzie learning by doing, uczę się robiąc, no w działaniu po prostu.
I parę rzeczy mnie zaskoczyło, takich z samego podręcznika użytkownika, ale JOS ma dużo bardziej wnikliwe pytania o rzeczy, które de facto nie dotyczą JOS-a.
Na przykład, jak brzmi numer telefonu do wsparcia technicznego Wispero?
Na zasadzie, ja to mogę znaleźć, ja nie muszę tego przecież pamiętać, ale okej, może ekspert powinien mieć takie rzeczy w głowie.
W które dni i do jakich godzinach otwarte jest wsparcie techniczne?
Okej, no można, można. Więc nie wiem, no NVDA bardziej był taki pragmatyczny w tym i skupiali się rzeczywiście na funkcjach.
Natomiast te pytania to też właśnie, no tak jak mówisz, one nie były takie bardzo oczywiste, to nawet nie wystarczy używać NVDA i trzeba jednak trochę gdzieś tam sobie poczytać.
Prawda jest taka, że używając NVDA i nie używasz NVDA i o co mi chodzi?
Kto z nas na przykład regularnie i tak jako codzienne narzędzie do codziennego użytku korzysta z gestów dotykowych?
No właśnie.
Myślę, że mało kto, pewnie są takie osoby, ale nie jest to zdecydowanie większość, a pytania o gesty są.
A tam trzeba rzeczywiście dość dużo tych prawidłowych odpowiedzi udzielić, żeby przejść ten egzemplarz.
Prawda. Chyba z 80%. Ale już teraz od stycznia ruszyły nowe certyfikacje. Od 2022 roku zaktualizowano materiał certyfikacyjny i teraz już,
biorąc pod uwagę zmiany, które zaszły w ciągu ostatnich trzech lat, jest już certyfikat 2025.
I teraz sobie zdać świeżynkę, jakbyście chcieli.
I teraz Jones. Więc Patryku, czy Ty jesteś zdaniem?
Jestem. Jestem oczywiście.
Dosłuchany?
Tak. Przegląd rzeczy z DOS-a będzie bardzo subiektywny, dlatego że od powiedzenia Wam, że to jest i że jest super i jest fajne,
w przypadku Freedom Scientific, WISPero, jakich zwał, takich zwał, są strony i changelogi.
Natomiast mogę powiedzieć, podobnie troszeczkę jak Paweł, o takich krokach milowych, co mi się realnie z nowych funkcji DOS-a przydaje.
A nowych funkcji DOS-a, to trzeba wiedzieć, że to są późne aktualizacje DOS-a w wersji z numerkiem 2023, cały rok 2024.
I w międzyczasie pod koniec 2024 już tak naprawdę dostaliśmy wersję DOS-a sygnowaną numerkiem 2025.
Więc te niektóre rzeczy też się tam w to wliczą, o czym zaraz opowiem.
Więc tak od środka zacznę, czyli 2024, wersja teoretycznie dedykowana na ten rok, wita nas dosyć upierdliwą opcją,
mianowicie asystentem głosowym, takim na zasadzie, hej, wyłącz mi, nie wiem, Wi-Fi w Windowsie.
I jest to, powiem szczerze, opcja, której właśnie tak dla odmiany nie studiowałem, nie potrzebowałem, wyłączyłem w jednej z pierwszych kolejności.
Może kiedyś dam temu szansę, i tak nie ma języka polskiego, z tego co wiem, bo trochę nie ma go jak być.
Więc dopóki tam się to nie zostanie w pełni zintegrowane i nie będzie jakichś rewolucyjnych opcji, no to się tym zajmował zbytnio nie będę.
Opcja ciekawa, dosyć inwazyjna, bo instaluję driver będącym pośrednikiem między mną a kamerą, to jest opcja Face in View.
Akurat teraz mówię do Was choćby z laptopa, więc kamerka jest przede mną i mógłbym sobie w tym momencie włączyć magiczny skrót klawiszowy,
on mi ingeruje co prawda w ten obraz tam, to przefiltrowuje przez siebie, ale jest mi w stanie krótkimi zdawkowymi komunikatami opowiedzieć,
czy ta twarz jest mniej więcej w osi, bliżej którego rogu ekranu i takie tam innymi słowy, jeżeli naprawdę pracuję zgodnie z dzisiejszymi wyobrażeniami pracy,
w szczególności zdalnej, no to niestety magiczne słowo, przepraszam, ale mam cola, nabiera nowego znaczenia w przypadku osób niewidomych,
bo jest to kol wideo i możemy sobie spokojnie tu przynajmniej brać pod uwagę te wskazówki JOS-a, czy ta kamerka, czy ta nasza,
z przepraszeniem facjata jest w środku tak jak trzeba, czy jest widoczna dla ludzi tak jak trzeba.
Rzecz super power, z której korzystam mocno w JOS-ie w wersjach tych 2024+, to oczywiście słowo klucz AI.
No czymże by był JOS bez AI? No jest AI, jest Picture Smart, czyli taki następna generacja OCR-a, która do tej pory mówiła o tym,
że drzewo, kwiaty, tam tak najlepiej opisujące to zdjęcie, drzewo, kwiaty, ludzie szczęśliwi, plaża.
No od tego roku weszła na kolejny poziom i ma po prostu kloda w ogóle i to widać w jakby zwięzłości tych opisów,
że klod to jest jeszcze kolejna jakby iteracja względem GPT i to naprawdę jest inna jakość,
ale że kloda nie można pytać o różne rzeczy, jest mniej taki interaktywny w tych wersjach, które w sobie zawierają produkty freedomu,
no to o to samo zdjęcie pytanie jest równolegle w chmurze GPT i z tym ostatnim już można rozmawiać nawet po polsku.
Co więcej, w ostatnich aktualizacjach 2024 i w 2005 można już mieć język wybrać, w jakim chcemy rozmawiać z tym AI.
Na początku był to zawsze angielski i jednym z moich pytań było pierwszych, czy możemy po polsku i on sobie wtedy ładnie po polsku do mnie mówił
i tak jak Michał mówił w przypadku Be My AI to też jest GPT, więc on nie tłumaczył, on jakby na nowo reinterpretował po polsku ten obrazek.
Obrazkiem może być dana kontrolka odfiltrowana z kursorów JOS-a, może być okno, może być obraz z kamery faktycznie i może być plik.
Nie pamiętam jakie tam rozmiary i te wytyczne, ale używam tego jakby w takim codziennym… używam i zapominam trochę.
W zasadzie to w moim wraszczacie gdzieś tam jest.
Co jeszcze? Opcja brajlowska.
Opcja brajlowska też wymieniona szumnie w co nowego w changelogu JOS-a swego czasu okolice maja, czerwca, czyli podzielony widok brajla.
Aktualnie mam dostęp do linijki 8-10 znakowej i na tym wielkim pasku komórek brajlowskich to już jednak jest ważna rzecz, że mogę sobie ten brajl podzielić na przykład na dwa w ogóle segmenty.
Na pierwszy z tym co jest pod moim realnym alt tabem i na przykład prawą część jako, nie wiem, dokument office czy dokument Excel, arkusz Excel nad którym po prostu siedzę.
Wtedy na przykład mogę sobie wziąć kursor routing na stronie internetowej, kursor routingiem jednym, kliknąć w pierwszą cyfrę numeru, docisnąć brajlowski shift, kliknąć w ostatnią cyfrę numeru.
Zaznaczam wszystko to co jest między tymi kursor routingami, czyli numer telefonu, naciskam tylko przełącznik, kolejny przycisk na linijce, a następnie kontrol V i właśnie wkleiłem to do komórki w Excelu.
Bez alt tabowania, bez szukania tego Excela i takie to są możliwości i tego naprawdę się trzymam i lubię.
Podzielony brajl jest w JOS-ie funkcją, która gdzieś tam zrewolucjonizowała w tym 2024 roku moje korzystanie z komputera.
Co jeszcze zrewolucjonizowało moje korzystanie z komputera w 2024 i z JOS-a?
Ano to, że ten JOS po prostu przyspieszył i o ile same syntezy mowy, szczególnie w standardzie SAPI 5, to zawsze będzie kulał nogi tego programu, bo to już jest bagaż technologiczny i dług technologiczny od wielu lat i one naprawdę nie działają zbyt sprawnie same z siebie.
O tyle program jako program w końcu odrabia lekcje i po prostu znowu to jest używalne i to jest fajnie używalne.
Także takie rzeczy. Co jeszcze z kroków milowych? Z kroków milowych jeszcze na przykład u mnie myślę, że ciekawą opcją, z której ja osobiście korzystam mało, ale testy wypadły lepiej niż zadowalająco, to zwrócenie uwagi JOS-owi na, oni to ładnie po angielsku nazywają smart glance, czyli takie punkty zainteresowania, punkty uwagi,
ale to są punkty uwagi mojej. Na nie mogą się oczywiście składać punkty orientacyjne, landmarki zaznaczone Arnią, ale to mogą być też na przykład jakieś pola wyszukiwania, jakieś elementy, które częściowo sobie samemu zdefiniuję.
Jeżeli ileś takich wystąpi na stronie, to ja sobie po prostu mogę jednym skrótem do tego, co tam JOS uzna, że jest landmarkiem, znaczy, że jest punktem, który mnie zainteresuje, to mogę sobie do niego po prostu wynawigować i od razu od tamtego miejsca w ogóle na przykład korzystać ze strony.
Nowość, której jeszcze nie testowałem, przyznam, to trzeba zrobić jeszcze. 2024 rok koniec, czyli JOS z kodową nazwą 2025, a w nim wykrywanie języka dokumentu na bazie AI, na bazie jakichś sygnatur.
JOS idzie w modele, JOS idzie w małe jakieś modele działające lokalnie i tak oto na przykład nie tyle na rangach unicodowych, co na po prostu zbitkach, po prostu co to jest za język, będzie wykrywany język zarówno z strony, jak i dokumentu, nawet jeżeli otagowany język w atrybutach HTML mówi, że tam jest inaczej.
To AI będzie mogła skorygować ten błąd i jest to na szczęście opcja włączalna, wyłączalna, a nie jesteśmy do tego zmuszani, żeby tak było. Natomiast potestuję sobie w środowisku wielojęzycznym, czy ma to sens i jak bardzo zdaje to egzamin.
I chyba tyle z takich funkcji, z których ja osobiście w tym roku skorzystałem w JOS-ie. Celowo ograniczyłem ich ilość, bo po prostu jest tego tak dużo, że odsyłam do dokumentacji w języku angielskim dla każdego drobnego szczegółu.
Celowo ominąłem na przykład cały rozdział matematyki, ale warto wspomnieć, że ona jest. Nowe podejście do matematyki, do bibliotek, które tę matematykę w JOS-ie będą czytały. A co za tym idzie, są już całkiem sensowne podchody do zrobienia tego, żeby się w końcu matematyka w braillu również wyświetlała.
Tego długie, długie lata nie było w JOS-ie. Oczywiście gwiazdeczka matematyka jest tylko w języku angielskim. Nie mamy na razie tych objaśnień fachowych matematyki, szczególnie wyższej w języku polskim.
No niestety. Przechodzimy do kolejnej informacji, jak rozumiem. Chyba, że chciałbyś coś dodać? Ale chyba nie. Applevis. Applevis, który w tamtym roku miał sporo zamieszania. To też troszkę o tym chyba wspomnieliśmy, chociaż nie pamiętam. To się jakoś w końcu udało ogarnąć. Nie wiem, czy Piotrek, czy kto by mógł o tym?
Mogę opowiedzieć, co się z Applevisem działo. Po prostu założyciel strony poważnie zachorował. Była jakaś poważniejsza sprawa, która zagrażała życiu i poprzewracała mu życie. I to pokazało, jak bardzo Applevis polegał na tej jednej osobie.
Bo wszystkie decyzje, no to generalnie właśnie były podejmowane przez niego, przez pana Davida Goodwina. On też zajmował się całą stroną programistyczną portalów, więc jeśli jakiejś zmiany musiało być wprowadzone, to on się tym wszystkim zajmował.
No i kiedy ta sytuacja miała miejsce i on był w szpitalu, no to po prostu cała reszta administracji strony zastanawiała się, co zrobić. To była trudna sytuacja.
No finalnie na początku plan był taki, żeby po prostu stronę zamknąć. I to był moment, który spowodował poruszenie w społeczności.
Wiele ludzi składało oferty, żeby stronę przejąć. Mówiło się publicznie przynajmniej, że raczej to nie będzie miało miejsca.
No wiadomo, generalnie po prostu z perspektywy czasu możemy powiedzieć, że szukali odpowiedniej osoby, która tą stroną mogłaby się zająć.
I na szczęście dla wszystkich właśnie to miało miejsce, bo strona została przejęta przez firmę Be My Eyes, o której już dzisiaj było wiele razy, no i mówimy o nich po raz kolejny.
Co się zmieniło na stronie? To tak naprawdę nic. Został dodany link do aplikacji Be My Eyes w stopce. Są plany, żeby z czasem pojawiły się jakieś nowe funkcje AI.
Może w tym roku. Mówi się coś o tłumaczeniu. Mówi się coś o, może o trenowaniu jakiegoś bota, który mógłby odpowiedzieć komuś na jakieś pytania związane z urządzeniami Apple.
A to wcale nie jest taki głupi pomysł, no bo przecież Apple Vis ma zarówno rozbudowany katalog dostępnych aplikacji, więc moglibyśmy teoretycznie zapytać tego bota.
Na przykład szukam dostępnej aplikacji do poczty na przykład, no i ten bot mógłby coś odpowiedzieć na ten temat.
Apple Vis też posiada wiele samouczków, ja korzystam z urządzeń Apple, więc tutaj też pewnie ten bot miałby dosyć szeroką wiedzę.
Samo przyjęcie strony też po prostu dało jej taką stabilność w takim sensie, że na przykład osoby, które wcześniej pracowały nad tą stroną stricte wolontariacko,
a tak naprawdę to wszyscy, wszyscy moderatorzy na przykład strony pracowali nad nią wolontariacko, co nie było łatwe.
To moderowanie stawało się z czasem coraz trudniejsze, tam różne rzeczy się na forum ponoć działy.
No tym osobom teraz jest płacone po prostu.
Osoby, które też umieszczają jakieś artykuły, oficjalne artykuły na blogu Apple Vis też są płacone.
Także tam po prostu też to pomogło.
Są też ludzie, którzy po prostu zajmują się tym tak zwanym backendem, czyli kodem źródłowym strony, więc jeśli będzie potrzeba, żeby takie zmiany wprowadzić,
no to po prostu to nie jest już tak, że tylko jedna osoba ma nad tym wszystkim kontrolę.
A całym szefem z ramienia Be My Eyes, szefem portalu Apple Vis też została niewidoma osoba, która też po prostu z tej strony korzystała,
więc wydaje mi się, że to jest też odpowiednia osoba na odpowiednim stanowisku.
Także finalnie to się wszystko skończyło na szczęście.
Także Apple Vis jest, Apple Vis ma się dobrze i Apple Vis zresztą cały czas się rozwija.
Nawet przed tą sytuacją mieliśmy na przykład taką zmianę, jak na Apple Vis zostały otwarte fora dla innych platform.
One mają swoją sekcję na głównej stronie, ale na przykład właśnie mamy forum dla użytkowników Windowsa,
jest forum chyba coś związane z Androidem, natomiast to nie znaczy, że w katalogu aplikacji Apple Vis
też mamy aplikacje na system Windows czy na Androida, natomiast jeśli ktoś chce o tych systemach porozmawiać,
no to na Apple Vis takie miejsce też się pojawiło.
Także Apple Vis ma się dobrze i miejmy nadzieję, że tak będzie przez jeszcze długi czas.
Ale skoro o takich stronach systemowych, że je tak określę, mowa, to mam wrażenie, że w minionym roku też Accessible Android
dość mocno się rozwinął i tam się pojawiło dość dużo różnych opisów, aplikacji, różnych treści.
Oni nawet mają też aplikację swoją na Androida, jak dobrze pamiętam.
Aplikacji? Nie?
Chyba mają. Wydaje mi się, że mają.
Ale na przykład też mają, też mówiliśmy o tym w jednym z cyfroprzeglądów, że mają stronę, na której podsumowują
wszystkie aktualne bugi w czytnikach ekranu na Androida.
A tak, to też jest dosyć fajna rzecz.
Mamy tu komentarz na YouTubie od Oskara.
Mam nadzieję, że w ostatniej wersji zaczęli robić coś z obsługą interfejsów w QT6.
Tu podejrzewam, że mówisz albo o NVIDIA, albo o Joe się liczę na to w tym roku.
No oby, oby. Na pewno część aplikacji dzięki temu stanie się po prostu bardziej dostępna.
To prawda, ja sobie sprawdzam jeszcze komentarze na Whatsappie, ale Whatsapp milczy podczas tej audycji.
Tak, gdzieś cisza.
Także tutaj na inne platformy.
A propos jeszcze rozpoznawania obrazów, no to mówiliśmy, że Be My Eye ma różnego rodzaju aktualizacje,
ale też Be My Eye doczekało się swego rodzaju przynajmniej konkurencji.
No bo jest, no Sync.ai też ma swoje, jest chyba Gemini Live, PeakyBot oczywiście.
No i nie wiem czy, bo ja mało testowałem tych aplikacji, ale jak to wszystko się ma do Be My Eye?
Ktoś testował?
No też tutaj słuchacze nawet wyopowiadali się, że mamy coraz więcej tych aplikacji do opisywania materiałów.
Tu taką myślę najważniejszą różnicą jest to, że Sync.ai i PeakyBot doczekały się obsługi opisywania wideo oprócz statycznych zdjęć.
I to jest taka, to jest takim wydaje mi się największy atut tych aplikacji.
Dobrze, a zadam takie pytanie, bo tak trochę mam zawsze, się zastanawiałem nawet ostatnio samemu i nie sprawdzałem tego ostatecznie.
Ale Sync.ai przecież na pewno wspiera obrazki do danemu, a z kamery Live, tak jak Be My Eye?
Z kamery Live jeszcze nie.
No właśnie.
Tak, to musi być przesłużone.
Rozróżnijmy, bo dla mnie na przykład głównym użyje Be My Eye, użyje… to jest sprawdź to co jest Live, a nie wiesz, a nie z pliku, nie z jakichś udostępnionych, nie z galerii.
To jest jedna z możliwości. Fajnie, że jest. Ale jednak na przykład polegam na tej opcji w czasie rzeczywistym, tam gdzie ona jest.
Tak, no w tym celu mógłbyś na przykład wykorzystać Gemini Live. Gemini to jest alternatywa, to jest model Google’a, który generalnie ma być konkurencją dla GPT.
Tak, tak.
To jest pierwszy model, który publicznie udostępnił tak zwane funkcje multimodalne. Ładne słowo, to po prostu znaczy, że ten model jest w stanie płynnie rozumieć zarówno tekst, jak i grafika i dźwięki, też odpowiadać tekstem, grafikom lub dźwiękiem.
I Google jako pierwszy udostępnił taką… właściwie jest na stronie narzędzi dla deweloperów, ale każdy może się tym pobawić, po prostu zlogując się i akceptując regulamin, tym Gemini Live.
Więcej mówiliśmy o tym w tych przeglądach. To jest model, używany do tego model Flash, który ma odpowiadać najszybciej, ale też ma przestrzeń ograniczoną wiedzę.
I to czasami działa naprawdę zaskakująco dobrze, natomiast ma to na ten moment ograniczenia.
Na przykład średnio radzi sobie z językiem polskim, bo mówi to wtedy dziwnie, przynajmniej jeśli chodzi o tę stronę.
Nie jest też proaktywne. Co mam przez to na myśli? Nie możemy go na przykład poprosić w sytuacji, kiedy, nie wiem, robimy coś na komputerze, kamerze, jakiś pasek nam się napełni.
Fajnie byłoby powiedzieć, powiedz mi, kiedy to się skończy. Niestety tego nie zrobimy. To bardziej wygląda tak, że możemy mu powiedzieć.
On nawet powie, dobrze, dam ci zaraz znać. No i sobie czekamy. No i nic się nie stanie. Musimy po prostu za jakiś czas pytać.
I on wtedy faktycznie nam jakąś odpowiedź da, także to jest ograniczone. Pytanie, jak na tym tle wypadnie GPT. Na to będziemy musieli jeszcze poszekać.
To mało też zaczyna gdzieś się pojawiać. Na razie… Ale to na razie tylko w Stanach, niestety.
Na razie tylko w Stanach w aplikacji ChargeGPT. I tak ten tak zwany zaawansowany tryb głosowy dostał też wsparcie aparatu.
Natomiast z tego, co słyszałem, mam wrażenie, że to działało podobnie w takim sensie, że to też chyba nie było w stanie automatycznie odpowiadać nam,
jeśli poprosimy, żeby nam jakąś sytuację monitorował. Ale może się mylę.
Znaczy on bardziej też pobierał co jakiś czas jakiś tam ewentualnie obrazek. To nie było pobieranie cały czas strumienia wideo.
To próbkowanie, jeżeli już w ogóle, no to miało miejsce dość w powolnym tempie.
Cóż… Tak, więc tak to na razie wygląda, więc no jest szansa, że w 2025 roku coś się pojawi i być może za rok, gdy będziemy taką audycję robić,
to być może powiemy, że wow, w tym roku w końcu się stało.
W końcu się dowiemy, czy król jest w pałacu, tak? Dla tych, którzy nie pamiętają o co chodziło,
to właśnie kiedy OpenAI pokazywało ten model, który ma z nami rozmawiać i też rozpoznawać obrazy wideo,
to właśnie jedno pytanie, to było gdzieś tam pokazany pałac Buckingham i pytanie, czy król jest w pałacu.
I tam odpowiednia flaga, tak? Czy wywieszona, czy jakieś inne takie charakterystyczne symbole miały o tym świadczyć.
I dzięki temu można się było tego dowiedzieć. Chociaż tego to akurat ze zdjęcia.
Tam inny był taki ciekawszy przykład, kiedy ktoś prosił, żeby taksówkę mu zlokalizował.
To rzeczywiście robiło wrażenie. No ale tego jeszcze tak w pełni niestety nie mamy.
Także może za rok zobaczymy. Tymczasem zaczyna działać, czy w zasadzie zaczynają być wnioski o świadczenie wspierające,
a pod koniec roku zostało dopięte na ostatni guzik też świadczenie wyrównujące, to się chyba tak nazywa.
Uzupełniające.
Uzupełniające, o właśnie. Te dwa świadczenia to są oczywiście dodatkowe pieniądze dla niektórych osób z niepełnosprawnościami.
Świadczenie wspierające i tutaj też bardzo ważna rzecz.
Świadczenie wspierające, a dopełniające to są dwa zupełnie różne świadczenia i one mogą sobie być jednocześnie.
Świadczenie dopełniające wyklucza się z tym tak zwanym 500+, dla niesamodzielnych, które już było od kilku lat.
I to rzeczywiście jest zamienione jedno na drugie, znaczy no ma być zamienione, ma być zamienione w tym, czyli w 2025 roku od maja.
No ale cała legislacja odbywała się w roku 2024, też było z tym sporo zamieszania.
Mówiło się o tym jakiś czas, że renta socjalna po prostu będzie podniesiona do kwoty najniższej krajowej.
No tego się nie doczekaliśmy, doczekaliśmy się świadczenia kolejnego.
I to też nie dla wszystkich pobierających rentę socjalną, bo ZUS musi mieć informacje o tym, że no taka osoba musi mieć napisane, że ma niesamodzielność…
Niezdolność do samodzielnej egzystencji.
Egzystencji, tak. I w momencie, gdy ZUS otrzyma takie informacje, no to od miesiąca, w którym taką informację otrzymał, będzie nam takie świadczenie wysyłał.
A że to 500 plus dla osób niesamodzielnych wymaga czegoś takiego, no to przynajmniej wedle informacji, które gdzieś tam w kilku miejscach próbowano zdobyć,
no to to się wszystko potwierdza, że jeżeli ktoś ma teraz to 500 plus, to zostanie to zamienione na to świadczenie pomniejszone o te kilka 500 plus, które dostaliśmy w tym roku.
I tak tego będzie troszkę więcej, więc jakby tak to wygląda.
No a świadczenie wspierające, no to też dużo tutaj było zamieszania, dlatego że pierwsza rzecz jest taka, że każdy urzędnik może to sobie w pewnym sensie, przynajmniej jakoś tam w części
interpretować niestety po swojemu trochę, bo tam jest kilkadziesiąt punktów, które trzeba jakoś tam wypełnić.
Urzędnik też to musi potem wypełnić. No i są odpowiednie progi punktowe, które ze sposobu wypełnienia tego wszystkiego, no to skutkują większą lub mniejszą ilością pieniędzy,
które dostanę jako… no jej. No po prostu skutkują mniejszą lub większą ilością pieniędzy. No i niestety jak to urzędnicy każdemu się coś tam wydaje, to próbuje być troszeczkę jakoś tam łatane.
Coraz więcej jest jakichś dokumentów wyjaśniających to wszystko. Co to znaczy, że jest się niezdolnym do tego lub tamtego. No chyba nadal daleko temu do jakichś takich w miarę sztywnych ram.
No to ma być teoretycznie takie dostosowane pod człowieka, elastyczne. No ale jak to wiadomo, w takich przypadkach różnie to niestety bywa. Potem spotykają się takie sytuacje, w których osoby, które mają dokładnie ten sam stopień niepełnosprawności i w sumie podobnie się poruszają.
Nawet podobnie wypełniły ten papier, no to jedna dostanie trochę więcej, druga dostanie trochę mniej.
A nawet nie trochę, bo te różnice to potrafią być nawet i kilkadziesiąt punktów w zależności od tego na jaką komisję się trafi. Już gdzieś tam w internecie widzi się, że ktoś na przykład dostał, ktoś niewidomy całkowicie dostał na przykład tu 90 punktów, tam 60 kilka.
Taki największy rozrzut widziałem. Więc to rzeczywiście bardzo jest uznaniowe, mimo tego, że idea była taka, że ta skala rzeczywiście ma określać potrzeby, a mówi się też o tym, że z tą skalą będą szły nie tylko pieniądze, ale też będą szły inne rzeczy, na przykład chociażby kwestie asystentów.
I akurat tu dyskusja jest też bardzo duża na ten temat, czy to jest dobrze, czy niedobrze, że to powinno ze sobą iść. Wydaje mi się, że jeżeli to by było zrobione dobrze, to też w sumie nawet może i nie byłoby najgłupszym pomysłem, żeby jedno i drugie ze sobą było połączone, no bo jeżeli określamy potrzeby jakiejś osoby, no to rzeczywiście powinno się je określać w jakiś konkretny sposób.
Natomiast w sytuacji takiej, jeżeli będzie to bardzo uznaniowo przyznawana ta punktacja, no to można kogoś skrzywdzić podwójnie, bo może się okazać, że nie dostanie i pieniędzy, i możliwości skorzystania z asystenta.
Także no niestety troszkę to świadczenie, no zresztą w obu są różnego rodzaju problemy, bo okazuje się, że ten dodatek dopełniający z kolei, no to tutaj pokrzywdzeni są ludzie, którzy mają rentę tą tak zwaną inwalidzką, która jest rentą nabytą podczas pracy.
I może się okazać, że ktoś, kto przepracował ileś czasu, dostanie mniej pieniędzy niż ktoś, kto nie pracował w ogóle, ale akurat ma rentę socjalną, więc mu się należy, więc no jest tutaj kilka takich rzeczy, do których różni ludzie mają jakieś tutaj…
Zastrzeżenia.
Zastrzeżenia.
No i pułapka świadczeniowa nadal nie została ruszona, ten temat.
Tak jest.
Mam wrażenie, że tu niestety jest jakoś przemilczany. No miejmy nadzieję, że kiedyś nastąpią tu jakieś zmiany, bo to jest naprawdę… Nie sądzę, żeby straty akurat z tego tytułu były jakieś bardzo duże, a byłaby to naprawdę silna zachęta dla tych osób,
które mają jakieś możliwości, żeby pracować i żeby do tego wszystkiego się jakoś tam dokładać. Te pieniądze no przecież nadal by pracowały, bo i podatki i to wszystko i wracały by gdzieś tam częściowo do Skarbu Państwa, natomiast no tutaj z tą pułapką świadczeniową w dalszym ciągu nie zostało zrobione absolutnie nic.
To prawda, nie oszukujmy się, nie jest też tak strasznie dużo osób, które mają tego typu problem. No niestety, ale prawda jest taka, że o ile mi wiadomo, nie jest to duży procent ludzi, którzy na tyle mają duże zarobki, żeby ta pułapka miała miejsce.
Niemniej takie osoby są, no i myślę, że fajnie by było jakoś to rozwiązać w taki sposób, żeby rzeczywiście no praca się, mówiąc kolokwialnie, opłacała. No bo jeżeli pracuje więcej załóżmy, a dostaje tyle samo pieniędzy co wcześniej, no to trochę po co?
To się pojawia pytanie.
Po co? To wtedy trzeba pracować naprawdę dla jakiejś swojej pasji.
Tak, dla idei na przykład. Nie ukrywam, na pewno są ludzie, którzy coś takiego będą w stanie robić, ale to powiedzmy nie wszyscy.
Okej. W tamtym roku też odkryliśmy trochę różnych przydatnych informacji. Tutaj Paweł wpisał kilka Małej Pro, Speaker’s Assistant, Karol Weder, pewnie jeszcze tam kilka innych.
Zgadza się. No to jest bardziej takie podsumowanie różnych użytecznych narzędzi, które z Wami omówiliśmy w zeszłym roku. Ja skupiłem się trochę na takich kilku, które rzeczywiście pojawiły się na moim telefonie i z których rzeczywiście korzystam.
No definitywnie jest to Małej Pro, który stał się moją ulubioną nawigacją. W ogóle otwieraliśmy miniony rok z dobrymi wieściami na temat Wojzwisty, która wtedy święciła triumfy.
Gdzieś tam czaiło się polskie tłumaczenie. Natomiast zdaje się, że jakoś tak ten rozwój wyhamował w kwestii nowych funkcji, a bardziej skupiono się na tłumaczeniach.
I doszło mnóstwo tłumaczeń na naprawdę egzotyczne języki, ale robionych maszynowo. Parę jakichś modyfikacji interfejsu, ale tak zasadniczo jakichś nowych funkcji Wojzwista właśnie nie wprowadziła specjalnie.
A MyWay niby też się jakoś nie rozwija, ale to co oferuje przynajmniej dla mnie działa stabilnie. On ma swoje problemy, pewnie jeszcze temat podejmę z twórcami, natomiast no zasadniczo aplikacja spełnia to co ma spełniać.
Karot Weather, no bo lubię różne aplikacje pogodowe i szukam sobie zawsze czegoś fajnego. Weather Gods jest fajny, ma te fajne dźwięki i tak dalej, ale ten interfejs jest taki bardzo zagracony, tam jest dużo elementów, które mają być efektowne, ale nie do końca efektywne.
Tak mi się wydaje, że tam jest dużo, tu jakiś Bóg Słońca, Bóg Lodu, Bóg Deszczu. Jak ja chcę szybko rzucić okiem i sprawdzić jaka jest dzisiaj, nie wiem, temperatura będzie za parę godzin i czy będzie deszcz padał czy nie, to nie jest tak proste do tego dotrzeć.
A właśnie Karot Weather, ten interfejs jest naprawdę bajecznie prosty i to jest też gdzieś tam super.
Speakers Assistant to jest aplikacja, której chciałbym używać częściej, chciałbym używać jej więcej, ale się jeszcze jakoś nie przemogłem, czyli aplikacja, która pozwala nam na odliczenie czasu podczas prezentacji.
Podczas wystąpień publicznych, prezentacji, audycji radiowych, jeżeli jesteśmy ograniczeni czasem antenowym, też spokojnie się nada, bo możemy sobie ustawić, w której minucie naszego wystąpienia ma się pojawić albo dyskretna wibracja, albo jakiś dźwięk.
Także spokojnie możemy dać się informować, to jest super, bo dość długo szukałem takiego narzędzia, oczywiście jest minutnik i tak dalej, ale tutaj możemy to jeszcze sobie opatrzyć notatkami, możemy te notatki przełączać, możemy to sobie powiązać z przełączaniem slajdów, jeżeli mamy jakieś slajdy, to działa chyba tylko z Maciem.
Mamy też opcję lokalizowania, gdzie znajduje się publiczność za pomocą AirPodsów i dźwięku przestrzennego. No i aplikacja jest tworzona przez osobę niewidomą, dla osób niewidomych, także możemy liczyć na to, że kolejne skrojone na nasze potrzeby funkcje się pojawią.
No tych aplikacji było myślę jeszcze więcej, ale nie sposób wszystkie tu wymienić. No Pixiebota chciałem też wymienić, ale on już się pojawił w kontekście właśnie różnych narzędzi do korzystania z AI, tych rozpoznawaczy trochę też się pojawiło, takich, o których wspominaliśmy bardziej w roli jakiejś ciekawostki, czyli jakichś seeing dogs i tam jakieś jeszcze inne.
No Speech Central był bardzo mocno omawiany jako właśnie taka alternatywa do Voice Dream’a, ale chyba na ten moment na tyle się sytuacja uspokoiła, że nie mamy potrzeby się nim jakoś za bardzo ekstensywnie bawić.
No i tak się zastanawiam, nie wiem, u Was coś się pojawiło takiego w tym roku z aplikacji, co jakoś Was bardzo poruszyło?
Albo, nie wiem, zmieniło Wam życia?
Próbuję sobie przypomnieć, czy jest jakaś aplikacja, która… bo tego po prostu faktycznie tak mówisz, pojawiło się tyle, no właśnie, że próbuję skojarzyć.
Bo to nie wszystko, żeby była jasność, są aplikacje, które ukazały się w minionym roku, po prostu my w minionym roku zwróciliśmy na nie uwagę.
No z rzeczy, które na pewno wykorzystuje codziennie w pracy, no to na pewno właśnie VOC, o którym już mówiliśmy, no bo te nowe funkcje.
To może nie są stricte aplikacje, ale też dużo było dodatków do MVDA na przykład.
I tutaj też dużo było akcentów AI, oczywiście MVDA też dostał dodatki, które pozwalają nam rozpoznawać różne rzeczy.
GPT i innymi modelami, czasami bardziej precyzyjnie niż sama aplikacja Be My Eyes, która nam na przykład pozwoli zrobić zrzut ekranu, całego ekranu,
ale na przykład gdybyśmy chcieli zrobić jakąś mniejszą część, no to można się dodatkami posilić.
Powstało dużo aplikacji właśnie do komunikacji z tymi modelami.
Jest na Windowsa na przykład Basilisk LLM od tego samego człowieka, który stworzył zresztą sam dodatek do OpenAI.
Jest Volama na Windowsa i na Maca i to jest aplikacja od twórcy VLCera, która bardziej jest przygotowana pod właśnie rozmowy.
Trochę tego się pojawiło.
No a wy macie jakieś swoje własne rekomendacje, co w tym roku u was się zadziało?
Ja się na przykład tak jeszcze myślę a propos takich zawirowań do subskrypcji i niesubskrypcji, tak, bo mówiliśmy o Voicedreamie.
Overcast też miał dużą aktualizację, która nie wszystkim się spodobała.
U mnie to spowodowało, że zacząłem w końcu testować alternatywne aplikacje do podcastów i przesiadłem się na Castro,
który też swoją drogą było ryzyko, że zniknie. Na szczęście też znalazł nowych właścicieli.
I mi ten system pracy w Castro bardzo się spodobał dla tych, którzy z Castro nie korzystają.
To jest aplikacja, która pozwala nam przeglądać nasze podcasty subskrybowane trochę tak jak, nie wiem, bocztę czy subskrypcje na YouTubie, że mamy dosłownie skrzynkę odbiorczą
i po prostu możemy sobie odcinki z tej skrzynki odbiorczej przeglądać.
Czy jako wszystkie, no bo jako skrzynkę odbiorczą, możemy też filtrować po podcastach. Ja generalnie używam tego widoku wszystkich.
No i z tego poziomu możemy sobie szybko coś odtworzyć, po prostu wyrzucić z tej skrzynki odbiorczej jakiś odcinek, który nas po prostu nie interesuje.
Obserwuję trochę podcastów, które nagrywają dużo materiału codziennie i to w takich sytuacjach jest naprawdę przydatne.
A sama aplikacja też po prostu jest całkiem fajna w obsłudze, bardzo dostępna.
Też ma większość funkcji, które ma overcast, jakieś inteligentne wycinanie ciszy na przykład.
No też ten algorytm do przyspieszania jest przyzwoity, także to jedna zmiana.
W sumie tak jak teraz myślę, też w tym roku przesiadłem się na Apple Music ze Spotify’a z kilku powodów.
Ja też, ja też.
I to całkiem, całkiem też lubię tą usługę.
Na pewno są rzeczy, do których musiałem się przyzwyczaić, jednak te interfejsy są inne.
Spotify jednak troszeczkę inaczej promuje niektóre rzeczy niż Apple Music, ale w ogólnym rozrachunku mam wrażenie, że ta muzyka ma gdzieś trochę lepszą jakość.
Która usługa jest lepsza? No one są…
Obie mają swoje gdzieś rzeczy, które mogłyby być zrobione lepiej jeśli chodzi o interfejsy, zarówno na iPhone’ie, na Mac’u, czy nawet na Windows’ie, bo w tym roku też Apple Music doczekał się natywnej aplikacji na system Windows.
Ale jednak Apple Music też jest całkiem spoko, zwłaszcza jeśli już macie wiele usług Apple wykupionych.
Jak na przykład korzystacie z tej usługi Apple One, to też cenowo całkiem się opłaca.
To jeżeli o mnie chodzi, to ostatnimi czasy, to tak w zasadzie na przełomie tego bieżącego już dwudziestego piątego i poprzedniego roku, to muszę powiedzieć, że bardzo intensywnie zacząłem korzystać z czata GPT.
Oczywiście wiadomo, żadne odkrycie, bo to narzędzie już z nami jest od pewnego czasu.
Też korzystam z tej aplikacji na Windowsa, oczywiście tam trzeba było sobie zmienić ten skrót, natomiast mi ta aplikacja i w ogóle sama, cała usługa czat GPT naprawdę już w kilku przypadkach bardzo usprawniła pracę.
Ja zacząłem się bawić po prostu w pisanie z czatem GPT różnego rodzaju skryptów.
Skryptów takich małych programików, co do których ja dobrze wiem, co chcę, aby zostało zrobione, natomiast ja nie mam absolutnie na tyle wiedzy, żeby napisać taki program.
Trzeba by było przejść cały kurs programowania, uczyć się np. Pythona, działać tutaj z tym wszystkim, żeby po prostu napisać kilka programów.
Ja programistą nigdy jakoś się nie czułem, nie byłem w tym dobry albo po prostu może aż tak bardzo nie chciało mi się w to wgłębiać.
Natomiast ja zawsze miałem jakiś taki bez większego problemu ogląd na to, co chcę, żeby było robione, w jaki sposób to powinno być zrobione i czego ja właściwie się spodziewam po tym narzędziu, które miałbym stworzyć.
Z tym nie miałem nigdy problemów, natomiast samo techniczne rozpisanie tego jako kod programu to było zawsze dla mnie wyzwanie i raczej tego unikałem.
Natomiast teraz z czatem GPT to muszę powiedzieć, że ja jestem wręcz zachwycony w jaki sposób, praktycznie nie znając programowania, natomiast też wiadomo nie będąc osobą atechniczną,
bo to też nie jest tak, ale jednak mimo wszystko w jaki sposób ja jestem w stanie w kilkadziesiąt minut albo kilka godzin siedząc z tym czatem napisać sobie narzędzie, które robi jakąś określoną czynność, którą mam potrzebę, żeby wykonało.
Chociażby taki ostatni przykład, który udało mi się stworzyć to po prostu narzędzie, które wykorzystuje kilka rzeczy, bo pracuje z plikami audio, chodzi sobie po stronie jako w cudzysłowie przeglądarka i zapisuje różnego rodzaju wyniki takich operacji do arkusza w Excelu.
Czyli to jest po prostu narzędzie, które sobie otwiera stronę Tyflo Podcastu, przegląda audycje, które zostały opublikowane, zlicza wszystkie informacje na ich temat, długość trwania, czas trwania i ilość pobrań, autorów i tak dalej i tak dalej.
Zapisuje to sobie w formie jakiegoś raportu w Excelu. No, ktoś by powiedział w sumie trywialne, ale z drugiej strony to tam parę rzeczy musi się zadziać i napisanie czegoś takiego, co działa, to zajęło mi tak naprawdę kilka godzin i to jeszcze też nie jakiejś takiej ciągłej pracy.
Więc udało mi się jeszcze stworzyć kilka takich innych małych narzędzi do pomocy w moich jakichś różnych codziennych rzeczach, więc naprawdę, no, podejrzewam, że nie napisałbym za pomocą tego jakiegoś złożonego programu, ale już taka jakaś automatyzacja, skryptowanie pewnych działań i w momencie, kiedy wiemy, co robimy i co my chcemy osiągnąć, to jest.
I to mnie naprawdę cieszy, że to po prostu, że to działa. To prawda.
To co, przechodzimy chyba do technikaliów. Nie mamy tu może jakoś dużo tych newsów, no ale kilka jednak jest.
Zacznijmy od porządków, które Facebook, Google, Microsoft robią, no i usuwają klasyczne interfejsy z różnych produktów. No to już było trochę mowa o tym, że Gmail, no ale właśnie jeszcze Google, jeszcze…
No Google, w sensie to ja miałem na myśli właśnie Gmaila, to tak naprawdę mówiłem, omawialiśmy, jaki to ma na nas wpływ, no bo faktycznie zniknął ten podstawowy interfejs HTML w Gmailu, zniknęła aplikacja poczta i aplikacja kalendarz z Windowsa 10.11, jest tylko ten nowy webowy outlook.
Z Facebooka zniknęła dla większości strona w wersji mBasic, a no to strona pełna. Nie należy to najbardziej dostępne, da się z tego korzystać, ale no mogłoby być lepiej.
Na tej stronie, tej dużej są takie bardzo dziwne rzeczy, jakieś takie po prostu śmieci, które tam są dorzucane, to chyba rzeczywiście Facebook jakoś się broni przed jakimiś być może nawet botami, które mogą te treści pobierać i kamić tymi różnymi informacjami swoje modele sztucznej inteligencji,
bo ja chodząc po tej stronie czynnikiem ekranu, to co chwilę widzę jakieś linki, które po prostu mają w sobie jakąś treść, której ja totalnie nie rozumiem i nie wiem co tam jest na tej stronie.
Tak, ja widzę na linkach gdzie jest podany czas publikacji postu, jakieś losowe znaki są do nich dodawane, ale też widzę czasami coś takiego i też nie wiem skąd to się bierze. Po każdym poście jakieś 20 bloków cytatów, w których po prostu pisze Facebook. Ja nie wiem skąd to się bierze, także to dziwne rzeczy się z tym dzieją.
Jeśli chodzi o półkoryszenie interfejsu aplikacji dużych firm w sumie, jeżeli jeszcze coś możemy o tym opowiedzieć. Narzekamy ostatnio dużo na YouTube’a, ale kurczę to nie YouTube się psuje. Rozmawialiśmy o tym jak aplikacje Google’a na iOS’a mają czynności, a na Android’zie ich nie ma, to w przypadku YouTube’a mieliśmy sytuację odwrotną.
Było dużo czynności w YouTube’ie na iOS’a, na filmach, w komentarzach, na kanałach. Te czynności po prostu zniknęły i teraz te wszystkie przyciski, które kiedyś były w czynnościach po prostu mamy na ekranie.
I tak czytanie komentarzy, co kiedyś zajmowało 2-3 gesty na komentarz, no to teraz gestów chyba 7 albo 8, bo mamy przycisk lubię komentarz, mamy przycisk nie lubię komentarzu, mamy przycisk więcej czynności, mamy przycisk żeby przejść do profilu autora.
Odpowiedź chyba jeszcze jest.
Dziękuję bardzo, tak, jeszcze jest odpowiedź oczywiście.
Samo przewijanie też jakoś nie chce działać, to znaczy na YouTube’ie czasami też mamy tak, że mamy te shorty tak zwane, które przewijają się w poziomie w przeciwieństwie do całej reszty ekranu, która przewija się w pionie, więc generalnie gestem trzymałem mały palcem i chciałem ten ekran przewinąć do góry.
I to kiedyś działało, a teraz to działa tak, że na przykład jeśli na tej zakładce strony głównej widzę jakiś post, jak jakiś kanał, autor jakiegoś kanału wrzuca post, to nie wiem czemu to mi powoduje, że kursor voiceovera skacze mi na początek tej osi czasu, tak to nazwijmy, więc on klika nasi stron do góry.
Ja mam wrażenie, że na przykład jak już na zakładce subskrypcje znajdziemy się w shortach, to tych shortów jest dużo i trzeba albo jest dużo, albo w pewnym momencie nie możemy z tego wyjść, trzeba trzema palcami przesunąć i jakby wyjść z tego bloku tych shortów i nagle się pojawiają kolejne filmy, które mamy w subskrypcjach.
Tak, co tam jeszcze? Był czas, że nie dało się zmienić prędkości otwarzania, to na szczęście naprawili, no w międzyczasie też doszedł usypiaczek, ktoś ma YouTube premium i to jest akurat fajne, więc można z poziomu YouTube’a sobie ustawić, żeby się sam wyłączył po jakimś czasie, ale na przykład na stronie internetowej etykiety większości przycisków po prostu zniknęły i teraz przyciski są czytane tylko jako YT, ACTION i CON, więc no niefajne rzeczy się z tym YouTube’em dzieją. Niestety.
No także no szkoda trochę faktycznie, no te interfejsy się nieraz pogarszają, zobaczymy co będzie dalej.
A w ogóle właśnie Patryk, Patryk niestety nam odszedł, powiedział, że musi niestety się pożegnać, także tak, Patryk też się nadzywa właśnie z takiego powodu.
Apple pozwala instalować aplikacje z zewnętrznych źródeł, no i tutaj też pojawiały się jakieś sklepy z aplikacjami jeden, drugi. Ciekaw jestem, obserwujecie to w ogóle, czy coś się jakoś rozwija, czy te sklepy to były takie trochę efemerydy, które gdzieś tam sobie zniknęły.
Właśnie ja mam wrażenie, że o tym się najwięcej mówiło zanim Apple to udostępniło, a teraz nagle to, no dobra jest to, ale chyba jest na tyle zapotrzebowania, jest na tyle tam jakby formalności do dopełnienia, że chyba koniec końców mało kto z tego korzysta.
Formalności i opłaty to jedno, ale też mam wrażenie, że Apple wysłało powietrze z pokoju jednym prostym ruchem. Dlaczego ludzie tak chcieli te alternatywne sklepy? Ludzie ostrzeli zęby sobie na jedną rzecz zwłaszcza takiej miałem wrażenie. Emulacje. Bo Apple od x czasu nie pozwalało dopuszczać do App Store’a emulatorów, które na Androidzie w sklepie Play normalnie mogły być.
Ktoś chciał sobie odpalać gry na Pegasusa, na jakiegoś Gameboya, na telefonie z Androidem. Mnóstwo emulatorów jest w sklepie Play, można było to po prostu sobie zrobić, a na iPhone’ie tego nie dało się zrobić nigdy. No chyba, że to była jakaś oficjalna aplikacja producenta, który chciał jakieś swoje stare gry odświeżyć. No to tak, ale tak jak ktoś chciał sobie po prostu wrzucić emulatora do czegoś, to było niedopuszczalne, więc kiedy pojawiły się informacje o tych alternatywnych sklepach,
ich jest kilka, taki chyba największy to jest Alt Store, który w ogóle wcześniej funkcjonował jako tak sklep, którym musieliśmy sami sobie przez komputer aplikację podpisywać i ładować, to był skomplikowany proces. No on jest też dostępny jako alternatywny sklep. Na początku ten sklep był płatny, nie jakoś drogo, ale tam trzeba było jakieś chyba 10 złotych zapłacić na rok dostępu.
Ostatecznie on się stał darmowy, bo firma Epic Games, producent Fortnite’a, który dosyć głośno z App Store’a wyleciał, kiedy to Epic trochę sprowokowało Apple do wyrzucenia aplikacji, co było później podstawą do pozwu. No ten Fortnite właśnie na iPhone’y wrócił przynajmniej w Europie dzięki tym alternatywnym sklepom.
Natomiast wracając do mojego głównego punktu, zanim te wszystkie sklepy wystartowały, Apple zrobiło wszystkim niespodziankę, zmieniło regulamin i nagle okazało się, że emulatory można po prostu do App Store’a wyrzucać. I te wszystkie emulatory, które miały trafić właśnie do tych alternatywnych sklepów, tylko w Europie, po prostu wylądowały w App Store’e, ale dla wszystkich w Europie, w Stanach, gdziekolwiek.
Więc była jedna rzecz, później pojawiły się aplikacje do uruchamiania nawet wirtualnych maszyn, takich nie działających jakoś bardzo szybko, bo tam też mamy kwestie zabezpieczeń, ale jednak to się pojawiło, więc to po prostu zablokowało większość tej ekscytacji. Po prostu ludzie sobie te emulatory pościągali z App Store’a.
Natomiast jeśli chodzi o alternatywne sklepy, to tam jeszcze różne rzeczy cały czas się pojawiają. Jest np. są aplikacje do pobierania filmów z YouTube’a, jest coś do torrentów, jakby ktoś chciał. Jest menadżer schowka, który może cały czas działać w tle, więc tego typu zastosowania się pojawiają.
Natomiast faktycznie tych formalności jest dużo i to faktycznie spowolniło cały proces. Apple jeszcze zostało zobowiązane do dozwolenia na inne przeglądarki na iOS’a, bo nawet jeśli np. ściągamy sobie na iPhone’ie Chrome’a czy Firefoxa, to tak naprawdę pod maską jest cały czas Safari, ale to jak na razie też nie przyniosło żadnych skutków.
Mówiło się, że Google, że Mozilla nad czymś pracowała, natomiast żadna z tych przeglądarek jak na razie nie pojawiła się w żadnym miejscu. Czy to w App Store, czy to w jednym z tych alternatywnych sklepów. Także na ten moment tak wygląda sytuacja.
Ciekawe.
Whisper, tutaj połączę może sobie dwa niusy, bo Whisper jest już od dłuższego czasu. Whisper, przypomnę, to jest algorytm rozpoznawania mowy, który obsługuje intonację, to znaczy obsługuje interpunkcję, która jakby…
On ją sobie rozpoznaje z intonacji, z ortografii, po prostu tego, co się pisze. Jest naprawdę chyba najlepszym na chwilę obecną, zwłaszcza darmowym narzędziem, które można mieć u siebie na komputerze, lokalnie.
No i ten Whisper na początku powstał w tej implementacji od OpenEA i potem niektórzy próbowali robić różne inne wersje, które miały być szybsze. No i chyba takie mam wrażenie, poprawcie mnie jeśli się mylę,
Whisper X, tudzież Whisper X, to jest chyba najszybsza taka popularna implementacja tego Whispera i ona jest rzeczywiście szybsza. Co to znaczy szybsza? No taki standardowy Whisper u mnie na laptopie pracował w tym modelu medium, bo tego large nie udało mi się nawet załadować, bo on był po prostu za duży.
Działał mi z prędkością mniej więcej półtora raza czas rzeczywisty, to znaczy godzinny film czy tam jakaś godzinna audycja transkrybowała się w jakieś 40 minut. Natomiast w tym momencie, gdy mam Whisper X, ten sam laptop na modelu large, który mówi się, że jest z reguły dwa razy wolniejszy od tego modelu medium, który miałem wcześniej,
to po pierwsze ten model jest zmniejszony, więc on już da się załadować do tej mojej maszyny. Tam jest 8 giga tego VRAM-u, czyli video RAM-u, RAM-u karty graficznej i godzina robi mi się dwie minuty, trzy minuty na tym największym modelu, więc to są tego rzędu zmiany.
Na procesorze oczywiście robi się takim standardowym procesorze, robi to się dużo wolniej, ale tutaj no właśnie druga rzecz, którą miałem wcześniej jako osobny gdzieś tam news, ale myślę, że warto to tutaj też dodać, że programy Audacity Gold Wave umożliwiają na korzystanie Whispera właśnie wewnątrz.
Do Whispera, do Audacity zdaje się trzeba pobrać jakąś wtyczkę, natomiast Gold Wave zdaje się ma tego Whispera po prostu w środku i w momencie, gdy odpalamy tego Whispera, wybieramy model, on sobie pobiera model, który sobie wybiorę i tym modelem można rozpoznawać rzeczywiście mowę.
To się niestety nie dzieje na karcie graficznej, tylko na procesorze, więc to trwa długo, no ale jest to jakiś sposób na korzystanie z tego Whispera, gdyby ktoś chciał zrobić u siebie.
Oczywiście są też inne programy różne, które to robią, ale Gold Wave i Audacity również. No i rzeczywiście ten Whisper X jest na chwilę obecną chyba takim najpopularniejszym, szybkim, no taką wersją tego Whispera, taką implementacją.
Na bazie tego zdaje się też powstało coś takiego, co się nazywa Faster Whisper XXL i to jest też ciekawe narzędzie, bo ono ma w sobie jakby wszystko już, też jeżeli ktoś tam na przykład ma jakieś problemy z tą cudą tak zwaną, albo z konfiguracją tego, to po prostu wystarczy pobrać paczkę z GitHuba i to się wszystko, to się uruchamia na tylnie samo.
Ja ostatnio właśnie po reinstalacji systemu tu niby sobie te cude zainstalowałem, te wszystkie biblioteki, jakoś miałem problem z odpaleniem tego natywnego Whispera, no i przeglądałem GitHuba w poszukiwaniu właśnie jakichś narzędzi, które pomogą i właśnie zauważyłem tego Faster Whispera XXL, który już widzę, że tu nawet ma jakieś właśnie te biblioteki potrzebne, żeby to się wszystko uruchamiało.
Jest też plik exe, odpala się to, działa na karcie graficznej i też działa dość szybko.
I zdaje się, że w ogóle OpenAI w tamtym roku odpalił, znaczy wypuścił model Large 3 Turbo. Nie wiem czy znacie coś takiego. To ma być model zmniejszony, odrobinkę może mniej dokładny od standardowego, bo tam jest inna ta tak zwana kwantyzacja,
ale dzięki temu ma być szybszy i mniejszy i fajny, ale nie wiem.
Mac Whisper to wspiera i to akurat teraz przy okazji jak testowałem MacBooka Pro, to miałem okazję to potestować. To nawet jest na tyle małe, że to można właśnie swoją drogą jak ktoś szuka jak to na Macu zrobić.
Najbardziej chyba polecam Mac Whispera. Do tych największych modeli ta aplikacja nie jest darmowa, kosztuje 49 euro, więc trochę trzeba zapłacić.
Natomiast tam dostajemy zarówno wsparcie dla modeli uruchamianych właśnie na GPU Macowym, ale też na procesorze neuronowym.
Właśnie ten model Turbo można tak w ten sposób uruchomić i on faktycznie działa szybko.
Nie pamiętam teraz jak bardzo szybko, nie mam tutaj swoich notatek koło siebie, ale dwugodzinną audycję to z tego co pamiętam kilka minut potrafiło przestranskrybować.
Czyli też szybciutko.
Tak.
To fajnie.
Kolejne rzeczy to znowu Europa i konkurencja dla chat GBT, czyli te wszystkie Gemini i Claude są dostępne już w Europie, bo z tym były problemy jakieś prawne podobno.
Claude to jest rzeczywiście, no Gemini też zresztą to są modele konkurencyjne dla GBT i Gemini i Claude ma swój odpowiednik czata GBT i na pewno firma Antropic ma te swoje modele w jakiejś formie takiej do użycia przez zewnętrzne aplikacje,
tak jak GBT na to pozwala. Gemini zdaje się też, ale nie znam warunków jakie trzeba spełnić, bo to chyba nie jest tak jak w OpenAI, że tam każdy może założyć konto, każdy może wysłać jakieś pieniądze,
które zostaną potem jakoś będą przeliczane na te tokeny, które tam są generowane. Nie wiem, czy ktoś bawił się tym jakoś?
Chyba wszyscy tu zostają przy GBT.
Przy GBT, ale no też warto powiedzieć, że jest kilka aplikacji dla nas dedykowanych, które potrafią wykorzystywać nie tylko właśnie GBT, ale właśnie również modele od Google czy od Antropic i te modele też potrafią całkiem nieźle niektóre rzeczy robić, zwłaszcza ten Antropic tak mi się wydaje.
Tak, słyszałem, że to jest dużo lepszy model w wielu sytuacjach.
Ponoć właśnie bazując na różnego rodzaju swojej wiedzy to do tego jest fajne, żeby na przykład właśnie, że on potrafi w porównaniu do czata GBT zdecydowanie więcej tej naszej wiedzy przyjąć, przetworzyć i potem na niej bazować.
Możliwe, no to myślę, że też gdzieś tam warto o tym przypomnieć, że nie jeden czat GBT jest gdzieś tam dostępny.
Że sztuczna inteligencja to nie jest tylko OpenAI i czat GBT, to zaczyna się rozrastać.
Tak, znaczy to już się rozrosło jakiś czas temu. Co ciekawe w ogóle Antropic teraz w modelu, w tym ich team, powiedzmy czadzie, klodzie, tam jest też kilka modeli do wyboru.
Te nazwy z kolei modeli bazują na jakby gatunkach dzieł literackich. Jest Haikyuu, on jest chyba najmniejszy, potem Sonnet to jest ten średni i Opus to jest największy.
I teraz w tamtym roku, zdaje się, wyszedł Sonnet, czyli ten model średni i ten Sonnet był, zdaje się, w ogóle porównywalny z tym GPT-4 modelem.
A Opus miał chyba się pojawić w ostatnim kwartale, ale chyba, jeśli dobrze myślę, to się jeszcze nie pojawił.
No ciekawe, czy on faktycznie, ten Opus będzie jeszcze lepszy. No, może to być też ciekawe. W każdym razie, no zachęcamy do eksperymentowania na pewno, jeżeli ktoś może oczywiście i chce.
I tyle chyba mamy w notatkach. Może ktoś coś jeszcze przypomniał sobie, o czym warto powiedzieć, a jeśli nie, no to została nam jeszcze wiadomość dosyć długa od Michała Kasperczaka,
ale my już się pożegnamy i po prostu puścimy tę wiadomość już po naszym pożegnaniu. Także przypomnę tylko, że w audycji udział brali Michał Dziwisz, Piotrek Machacz, Paweł Masarczyk i przez większość czasu trwania audycji również Patryk Faliszewski.
Ja jestem Tomek Bilecki, no i do usłyszenia w przyszłym tygodniu już w standardowym Tyfro Przeglądzie, gdzie miejmy nadzieję, będziemy dysponowali większą ilością newsów, a przede wszystkim newsami, o których już wcześniej nie mówiliśmy. A teraz już zapraszam na długą wypowiedź Michała Kasperczaka.
Dobry wieczór, Michał Kasperczak. Kilka słów ode mnie o mijającym, zakończonym już w 2024 roku z perspektywy technologicznej. Ponieważ zapewne coraz mniej osób zwraca uwagę na to, co dzieje się w branży typowych urządzeń przeznaczonych dla osób niewidomych,
to ja postanowiłem jakoś śledzić tamten rynek i skupić się na tych bardzo znanych gdzieś tam klasycznych urządzeniach. Nieco może bardziej niż na dostępności, chociaż o dostępności jako takiej i uniwersalnym projektowaniu też będzie.
Zacznę może od podwórka lokalnego. Poznańska firma Harpo zaprezentowała na zeszłorocznej konferencji SiteCity, a być może wcześniej, już dokładnie nie pamiętam, nową wersję linijki BraillePen24. Odświeżyłem sobie news, który pisałem na ten temat w zeszłym roku na portalu TyFloŚwiat w czerwcu.
No i cóż, wszystko zapowiada się bardzo dobrze. Linijka 24 znakowa, bluetooth klasyczny i low energy, łączenie przewodowe i bezprzewodowe z kilkoma urządzeniami, braillowska klawiatura, komórki braillowskie z dotykowym kursor routingiem, kciukowe klawisze przewijania, bardzo lekka konstrukcja 230 gram albo jakoś tak podobnie.
Napisałem w tamtej informacji, że już za kilka tygodni mamy otrzymać urządzenie i jeszcze nie wiem kto i w jakiej formie o nim opowie, napisze, ale na pewno to się stanie. No i niestety czas mija, urządzenia jak nie było, tak nie ma.
Kontakt z firmą Harpo, choć zawsze dobry, tym razem nie jest o tyle dobry, że tej linijki nie mamy i tak do końca nie wiadomo dlaczego. Przypuszczam, że po prostu, bo też takie były sygnały gdzieś tam mniej lub bardziej pokątne, że ono zostało, być może musiało być wypuszczone, bo to w ramach jakiegoś projektu unijnego ono powstało i jest po prostu poprawiane.
Wolę nie myśleć, że było niedopracowane, ale na to trochę wychodzi. Nie dodałem jeszcze, że urządzenie kupujemy wraz z iPhone’em, bo ono generalnie jest takim trochę jak stary palmtop, ma mieć możliwość synchronizacji danych, coś tam. No nie mogliśmy na razie tego sprawdzić, także to jest taki dla mnie trochę zawód, że jest jakaś sensowna technologia, być może sensowna technologia i nie możemy się przekonać jakie ona ma wady, zalety, dla kogo jest,
komu możemy ją polecić, a dla kogo na pewno nie jest to dobry wybór. Gdy jesteśmy przy Braillu i również przy firmie Harpo, to warto wspomnieć, że Mantis, urządzenie APH, trochę właściwie technologicznie bliźniacze do Humanware’a, tylko to jest klawiaturą QWERTY, taki Brailliant z klawiaturą QWERTY, o tak można powiedzieć.
Mantis zyskał syntezę, co prawda w słuchawkach, ale jednak możemy gdzieś tam z tej syntezy skorzystać. To gdzieś może się przydać, tak samo obsługa większej ilości formatów. Mało się o tym Mantisie mówi, ja uważam, że to jest mimo wszystko bardzo dobre urządzenie, bo nie każdy chce się uczyć, nie każdy zna akordy braillowskie i być może rzeczywiście są takie osoby,
pewnie jest spora grupa takich osób, które lubią właśnie klasyczne braillowskie notatniki z klawiaturą braillowską, bo znały braillicense’a chociażby, a przedtem Braill&Speak i tak dalej. No ale to nie wszyscy, a tu mamy urządzenie braillowskie, autonomiczne, a zarazem linijkę braillowską plus pełną klawiaturę QWERTY.
Nawet jakbyśmy wykorzystywali ją tylko do brailla, a gdzieś tam wykorzystali z innej klawiatury komputerowej, bo też tak można przecież, jeżeli mamy stanowisko pracy stacjonarne, no to taki notatnik, który bierzemy, obsługujemy normalnie z czołgami, nie musimy się nic uczyć, mamy ctrl-o, ctrl-s, ctrl-n, nie wiem, escape, alt-f4, oczywiście alt-f4 to może nie, ale escape, enter, klawisze, nie muszę mówić co one robią.
To na pewno przyspiesza i ułatwia pracę. No i kolejny konkurent, tym razem firma ECE i firma HIMS, czyli Braill&Motion. Dość nagle pokazana linijka, to właściwie linijka, tutaj linijka i notatnik w jednym, to już Brailliant nam zatarł właściwie równicę, Brailliant, ten francuski, teraz zapomniałem, przepraszam.
No i teraz właśnie Braill&Motion, uwądzenie również z syntezą, co prawda z klawiaturą braillowską, ale też z głośnikami, tak jak Braillianty z systemem Android 12 z wieloma możliwościami. Zachęcamy do wysłuchania podcastu Roberta Hedzyka, a artykuł też za czas jakiś będzie opublikowany.
Myślę, że w wysokiej klasy uwądzenie i jedno z ciekawszych w tej kategorii.
Tak bym miał podsumować ten Braill, to eMotion bez wątpienia na plus, Mantis też, dalsza ewolucja software’owa Brailliantów też, a Braill Pen Harpo po prostu nie wiem. Nie chcę mówić na minus, ale nie wiem. I właściwie nie wiadomo nic.
Teraz telefony specjalistyczne. Smart Vision jakoś tam się rozwija i jak wiadomo, kto chce, to go kupi. I tak samo, kto chce, to kupi Blindshell’a. Blindshell’a, który od początku był takim produktem kontrowersyjnym, czym Blindshell jest i czym nie jest, to już było mówione wiele razy.
Dosyć nieoczekiwanie producent wypuścił trzecią wersję urządzenia z nieco większą ilością pamięci, nieco szybszą i taką działającą pod każdym względem jakoby lepiej. Ja ją testowałem i no nie jestem… testowałem kiedyś Blindshell’a 2 na początku jego rozwoju. On się, jeżeli chodzi o programowanie, bardzo rozwinął.
Ten Blindshell 3 działa owszem stabilnie, działa szybko. Jak konsultowałem to chyba z największym u nas propagatorem Blindshella, czyli Darkiem Marciniszynem, to jeżeli chodzi o oprogramowanie, to zasadniczo poza tym pykaniem, błędem jakimś systemowym dziwnym, o którym Darek opowiadał, to Blindshell 2, większość funkcji, które ma Blindshell 3 już miał.
Bo myślałem trochę, że tak nie jest, a jednak tak jest. I to niestety sprawiało, że mój taki troszkę entuzjazm i… nie troszkę, nawet dość duży entuzjazm i taka chęć w pewnym sensie obrony, dania szansy Blindshellowi opadł, bo się okazuje, że w Blindshell’u 2 większość z tych rzeczy, które są w Blindshell’u 3 już działała i działała generalnie dobrze.
Tak naprawdę producent, co też rozumiem, to wynika z ograniczeń API, z ograniczeń programowych, producent wycofał się niejako, nie mówiąc o tym tak do końca, z udźwiękawiania automatycznego, czy jakby przystosowywania aplikacji, nie tyle udźwiękowania, co przystosowywania aplikacji do tego interfejsu stricte Blindshellow’owego, gdzie nawigujemy strzałkami i klawiszami numerycznymi.
Te aplikacje nowo projektowane też mają nawigację oczywiście strzałkami i klawiszami numerycznymi, ale to jest nawigacja już taka trochę jak po interfejsie dotykowym, a nie taka po interfejsie tylko tekstowym, gdzie pierwszy element, że jedynka to jest pierwszy element menu, dwójka drugi, dziewiątka dziewiąty i właściwie jest klawisz F1, którym wszystko zatwierdzamy.
Klawiszem… znaczy nie F1, tylko ten klawisz niżej, klawisz telefonu. Analogicznie się cofamy i mamy taki interfejs typowo tekstowy. Teraz już tak nie jest. Te aplikacje wyglądają tak jak na Blindshellowu Messenger, Whatsapp i tak dalej. Nawigacja już nie jest tak efektywna i tak prosta.
Co więcej, doszedł interfejs dotykowy. No niby wszystko fajnie, że możemy obsługiwać telefon za pomocą ekranu dotykowego, czyli tak trochę jak Smart Vision chciałoby się powiedzieć, że to czego nie możemy obsłużyć klawiaturą, możemy obsłużyć za pomocą ekranu dotykowego. Tylko, że niestety to nie działa dobrze. Działa to bardzo na teraz topornie. Nie ma to nic wspólnego jakość wyświetlacza, jakość tego interfejsu obsługi.
Nie ma nic wspólnego z tym, co znamy, co kilka lat temu znaliśmy w Androidzie, a nie mówiąc o współczesnych możliwościach Talkbacka czy Androida. Możliwość instalowania aplikacji? Owszem, pewne rzeczy można, pewnych rzeczy nie można. Czytnika linii papilarnych dalej nie ma. Ten telefon, jeżeli chodzi o wygląd, jest dokładnie taki sam. Także ja po początkowym takim wow i chęci zabawy z Blindshellem, no niestety przeszło mi.
Przeszło mi, przy czym nie neguję telefonu w tym sensie, że dalej uważam, że jeżeli ktoś uważa, że to jest telefon dla niego, nie ma w ogóle o czym mówić. Niech kupuje. Jeżeli ktoś myśli czy kupić wersję droższą, czyli 3 czy tańszą 2, no jeżeli może lepiej 3.
Lepiej kupić telefon droższy, bo on będzie bardziej rozwijany niż ten telefon 2 pewnie, niż ten telefon tańszy. Ale jakby same możliwości potencjalne tych dotykowych w cudzysłowie aplikacji zupełnie do mnie nie trafiają.
Także chyba bym nie polecał wmiany Blindshella 2 na 3, jeżeli komuś ten Blindshell 2 dobrze działa. Ale to już warto samemu pytać, testować, analizować i rozważyć co zrobić lepiej. Tym bardziej, że telefon do końca nie jest tani.
Jak mówię, dobrze, że jest, pewnie komuś się przyda, ale on ma swoje ograniczenia, na pewno swoje ograniczenia w postaci kiepskiego głośnika, dość kiepskiego, no może bluetooth to jeszcze działa, ale transmisja danych po Wi-Fi, transmisja danych po sieci komórkowej jest bardzo wolna. On w ogóle ma bezustane technologie, po prostu bardzo, sprzed 7-8 lat i to niestety słychać i czuć przy pracy.
A nasze duże systemy operacyjne, Android i iOS? Właściwie nie wiem co powiedzieć, to znaczy tego jest tak dużo, że jeżeli ktoś nie jest betatesterem albo osobą, która bardzo siedzi w oprogramowaniu, tak jak u nas Piotr Machacz i Paweł Masarczyk, którzy tak nam znakomicie wszystkich newsów dostarczają i tak, nie waham się powiedzieć, znakomicie wyszukują i prowadzą ten tyflo przegląd.
Natomiast, no co mogę powiedzieć, że jak to w systemach, jak to w Apple’a, jedne rzeczy są zgłaszane i naprawiane, inne nie są naprawiane, jedne działają lepiej, inne działają gorzej. Myślę, że teraz źle naprawdę nie jest, te wersje beta szybko okazały się bardzo sensowne, bardzo używalne.
Gorzej potem było na początku, ale gdzieś, szczególnie na Macu, ale gdzieś tam, no nie wydaje mi się, żeby było bardzo w tym roku źle. Tak naprawdę jest to problem, bo systemy, mimo tego, że one są coraz bardziej dostępne, coraz bardziej takie przyjazne też użytkownikom w sumie, to funkcji jest coraz więcej.
Funkcji jest coraz więcej nawet, nie wiem, w samym brajlu, w samych gestach, w dostępności takiej szeroko pojętej, nie tylko związanej z voice-overem, że to już nie jest tak prosto, w ogóle iPhone to już nie jest taki prosty telefon, jak kiedyś się mówiło, że to trochę opcji coś tam poustawiamy sobie i właściwie będzie dobrze. To już tak jest tego naprawdę coraz więcej i nie wiem, czy to dobrze.
Pewnie dobrze, bo gdzieś tam iOS się mniej lub bardziej do tego Androida upodabnia i to pewnie dla użytkowników takich bardziej zaawansowanych dobrze, dla użytkowników mniej zaawansowanych może to stanowić jakiś tam problem. No ale dobrze, że mamy tego voice-overa od wyjęcia iPhona z tego pudełka, tak jak się mówi, iPhone do nas mówi na ogół po wyjęciu z pudełka i to ciągle jest w mocy, to ciągle jest prawda
i to ludzi przy Apple gdzieś tam m.in. to oczywiście, jak sądzę, trzyma. Ale to nie wszystko, bo coraz więcej spraw, jeżeli chodzi o Europę, ale przede wszystkim o Polskę nie jest załatwionych. Ja już pomijam europejskie regulacje i to, że chociażby Apple Intelligence czy inne rozwiązania wejdą albo nie wejdą do nas w ogóle.
To akurat, że troszkę poczekamy kilka miesięcy, ja wiem, że wszyscy byśmy chcieli testować i mieć od razu wszystko, ale to, że trochę nam zejdzie czasu, nim jakaś technologia zawita w Europie czy w Polsce, nic się nie stanie, ale żeby to technologia zawitała i tutaj jest właśnie większy problem, tak.
Wszyscy mówią, że Apple Intelligence jest na Macach, że ono wiosną będzie dostępne w Europie, zakładamy więc, że w Polsce. Potem zakładamy, że Siri w dwudziestym piątym albo dwudziestym szóstym roku zostanie przebudowane i będzie przypominała to, co oferuje czat GPT, czyli będzie oparta na modelu o wiele bardziej kontekstowym, konwersacyjnym, no wszystko dobrze, tylko nic nie wiadomo, czy to będzie w języku polskim.
A jeżeli nie będzie w języku polskim, to najprawdopodobniej, oczywiście mogę gdzieś nie mieć racji, ale wszystko wskazuje na to, że możemy się pożegnać z dużą częścią usług, magii i tego, co Apple już oferuje i będzie nam oferował, bo wszystko idzie w to Apple Intelligence, to prywatne Apple Intelligence, które naprawdę Apple będzie rozwijać.
Jeżeli to jest bardzo powiązane z Siri czy czymkolwiek innym, co się będzie jakoś tam nazywać, ale niech będzie, że to też będzie Siri i jeżeli to nie będzie miało języka polskiego, to to się nam do niczego nie przyda, bo większość z tych funkcji nie będzie w ogóle działała.
Będzie zablokowana w Polsce oczywiście i jeżeli może te funkcje zdjęć, funkcje fotograficzne będą działać, być może nam odblokują te funkcje oparte na tekście, ale to nie jest wcale powiedziane, bo może być tak, że jeżeli języka polskiego nie będzie, to po prostu nie będzie funkcji przetwarzania tekstu.
Czasem jest tak, że nawet jak tego nie będzie, to gdzieś tam samo to Apple Intelligence może nam pozwolić coś z tekstem zrobić, no ale generalnie, tak przynajmniej literalnie, to wtedy zapomnijmy o wyodrębnianiu, podsumowywaniu tekstu, o przepisywaniu tekstu, zmianie jego stylu, jego przeredagowaniu itd., itd., o jakichś normalnych zapytaniach w języku polskim, dzięki którym moglibyśmy coś zrobić w telefonie,
o jakimś lepszym dyktowaniu i tego jest coraz więcej. Za Siri idzie aplikacja Apple News, która nie wiadomo w sumie dlaczego, co by szkodziło, żeby ta usługa mogła być włączona i żeby dostawcy kontentu mogli, tak jak to jest w podcastach, oferować poprzez Apple News płatny dostęp do swoich gazet albo żeby Apple News stało się otwartym czytnikiem RSS,
ale o tym już, albo czymś podobnym do RSS-ów, trochę tak jak to aplikacja Google News oferuje, no ale to o tym, wiadomo, Apple w to nie pójdzie, Apple chce wyciągnąć jak najwięcej pieniędzy od użytkowników, więc o tym raczej nie ma mowy, no ale szkoda, że np. nie ma tego Apple News w Polsce.
To jest bardzo przyjemna aplikacja i ona mogłaby oferować polskie treści, tak? To z tego, że tak ogólnie jest, ale tych polskich treści nie ma, mogłyby być płatne jakieś XYZ, Gazeta Wyborcza, Rzeczpospolita, Polityka, nie wiem, One, Teraz, cokolwiek, wszystko. No to w sumie te główne płatne wymieniłem.
Także no mam sporo życzeń do Apple’a i to są takie życzenia bardzo ogólne, ja już nie skupiam się na kwestiach szczegółowych, bo to musiałbym czytać Change Logi i analizować to wszystko bardzo, bardzo jakoś dogłębnie. No i w Androidzie tak troszeczkę jest podobnie, tak? Mamy Google Gemini, który różnie działa, pewnie na pikselach najlepiej.
Ja nie mam niestety zdania na iOSie, nie działa to tak dobrze, a też nie aktywowałem planu płatnego, więc moje wrażenia są takie sobie, mówiąc delikatnie, raczej też one nie są jakoś miarodajne. I zobaczymy, co pokaże Samsung, tak? Samsung w zeszłym roku nas zaskoczył, troszkę prześcignął przed Geminiem, na telefonie pokazał swojego asystenta Samsung i to zakreślanie dla nas niedostępne.
No i teraz wszyscy to mają, tak? Wszystkie rozwiązania googlowskie, znaczy w sensie piksel i wszystkie rozwiązania inne chińskie, telefony typu Oppo, OnePlus i tak dalej. A tam akurat te technologie nie są za bardzo dostępne po polsku. W Samsungu ponoć jest to w ogóle rozwiązane najlepiej, bo przetwarzanie tekstu, streszczanie artykułów, co prawda tylko w przeglądarce Samsung, jakieś notatki, ich deskrybowanie działa ponoć całkiem nie najgorzej.
Choć też opinie są różne. Raz, jeżeli chodzi o dostępność tych rozwiązań, dwa, o ich funkcjonalność. Także ja, co do Androida i jego, bez wątpienia, rozwoju, wykorzystania sztucznej inteligencji, miejscami lepiej, w większym stopniu, z racji tego, że ten język polski jednak jest obsługiwany, no ale jak to funkcjonalnie jest, nie wiem, to czekam na Grzegorza albo innych użytkowników Androida,
którzy chcieliby coś więcej na ten temat powiedzieć, tak bardziej miarodajnie, bo tak jak mówię, zdania są podzielone. No i oczywiście wiadomo, Joshua dalej się rozwija, pewnie nie tak bardzo jak kiedyś, ale rozwija się. Tokbek się też rozwija. Dostał to opisywanie obrazów i szereg innych funkcji i generalnie przyspieszył.
To jest dobry znak, bo myślę, że w tym roku się z Tokbekiem stało więcej niż w zeszłym roku i to stało się na plus. Dalej pewnie goni voice overa, ale myślę, że jak już ktoś chce, to może sobie wybrać Pixela albo inny telefon z Androidem, jeżeli jeszcze używa Windowsa, to jest to jakaś tam być może kusząca opcja, choć wydaje się, że dalej tych aplikacji lepiej dostępnych i takich
efektywniej możliwych do używania, no chyba więcej jest na iOS-a, choć to też wynika z tego, kto czego potrzebuje tak naprawdę i można pewnie różnie na to patrzeć. No cóż, NVDA dobrze się rozwija, są wtyczki coraz to nowe, ten sklep z wtyczkami, już nie pamiętam, czy to było na początku zeszłego roku, czy jeszcze pod koniec 2023, ale to jest coś, co bardzo ułatwiło pracę
właściwie wszystkim, bo wcześniej trzeba było wtyczki pobierać z głównego repozytorium albo z innych, jakichś tych hiszpańskich i tak dalej, teraz mamy sklep, gdzie właściwie jest albo wszystko, albo prawie wszystko i to w wersjach beta i w wersjach normalnych są wtyczki działające, niedziałające i tak dalej i to naprawdę generalnie działa i owszem, jest tego dużo, niektóre wtyczki ciekawe, inne zupełnie, można powiedzieć, zbędne, ale z drugiej strony, no to każdy czegoś innego potrzebuje.
Tak jak to z aplikacjami, tak, kiedyś się dziwiliśmy, po co właściwie App Store i tyle aplikacji na iPhony, że to jest niewiarygodne, jak można coś takiego tworzyć, no z wtyczkami jest podobnie i to dobrze chyba.
Jos, cóż, no Jos to już chyba tylko dla takich naprawdę zaawansowanych, albo zaawansowanych użytkowników, chociaż zaawansowany to złe słowo, pytanie co to znaczy zaawansowany, w tym sensie zaawansowany, że ktoś w internecie albo w jakiejś aplikacji desktopowej rzeczywiście używa skryptów do jakiegoś konkretnego rozwiązania, które mu Jos oferuje.
No i co, Jos jest lepszy, o czym warto pamiętać, no jest lepszy i będzie lepszy w ofisie, szczególnie w ofisie po angielsku, ale w polskim ofisie to się też odczuwa, także jeżeli używamy Microsoft Outlooka, a szczególnie Worda, Excela, no to myślę, że warto, myślę, że warto.
Ja co prawda mam trochę problem, bo na SAPI 5 nie znalazłem dla siebie odpowiedniego głosu, który mi się podoba, tak się przyzwyczaiłem do tego głosu SPiKa z NVDA i do jakby mechaniki tego wbudowanego protokołu, że żadne tam SAPI do mnie nie do końca przemawiają, tak.
No gdzieś tam na horyzoncie majaczy, może nie majaczy, bo to od dawna jest dostępny szęgdu ZDSR, dobry czytnik ekranu, dobrze spolszczony przez Arka Świętnickiego i ładnie opisany ostatnio, ostatnio, już chyba w listopadzie albo na początku grudnia.
Tylko, że no to jest jednak chiński program, co za tym idzie, chociaż autor starałby się, nie wiadomo jak, on w sobie gdzieś tam zawiera mniej lub bardziej dużą, znaczy może nie dużą ilość, bo tylko w interfejsie nie, ale przy jakichś wejściach na stronę, przy jakichś autoryzacjach, przy czymś, tam są komunikaty po chińsku, nie ma ich dużo,
ale one mogą gdzieś tam zniechęcić i z tym programem czasem są jednak problemy. To jest taki program, który wydaje się, że on ma miejscami niesamowite możliwości i szczególnie właśnie w jakichś grach, w jakichś takich desktopowych aplikacjach, on może bardzo, bardzo się przydać.
W internecie nie jestem pewien, nie mam jeszcze zdania, też ma jakieś ciekawe funkcje, ale wydaje mi się, że nie jest tak stabilny, jak to ma miejsce z NVDA, szczególnie kiedy używamy przeglądarek typu Google Chrome, także warto o tym pamiętać.
Tyle chyba w wielkim skrócie. Na pewno takim wydarzeniem zeszłorocznym też to są rejestratory, o tym zapomniałem, bo nie używam, więc mało wiem, ale rejestratory Zoom E, cała seria Zoomów, które są udźwiękowione. Co prawda to nie jest wszystko takie proste, bo tak jak już wielokrotnie mówiliśmy, właściwie nie tyle mówiliśmy, co mówiliście, albo mówiło się na łamach tyflo przeglądu, trzeba normalizować nagrania, co nie musi być dla kogoś, kto się na tym po prostu nie zna proste.
Z drugiej strony można powiedzieć, że ktoś, kto kupuje Zuma, to już wie, co to wszystko znaczy i jak się będzie tak naprawdę nagrywało. Także te Zoomy to jest jakoś tam myślę, że dla zainteresowanych osób nie jest to na pewno przełom, tym bardziej, że Olympus zdaje się, albo się wycofał, albo nie oferuje już tych nowych udźwiękowionych, jakichś sensownych rejestratorów, także dobrze, że właśnie pojawiły się Zoomy i to też takie Zoomy duże, jak ktoś nagrywa po XLR, jakieś mikrofony zewnętrzne,
no to też ma w końcu udźwiękowany rejestrator, a zawsze był z tym problem. No i coraz większa liczba, w sumie lepiej lub gorzej dostępnych jednak takich urządzeń. A to słyszymy w tyflowieściach o różnych kuchenkach jakichś mikrofalowych, a to o jakichś kodach QR naklejanych ostatnio na, wypukłych na urządzenia Amazon i jakieś dostępnościowe elementy były w urządzeniach Microsoftu, a to znowu jakaś inna firma wypuściła, czasem jakiś startup,
czasem są to jakieś fajne słuchawki, tak jak szoksy, czasem jest to coś. Jest tych urządzeń i aplikacji dziwnych mniej lub bardziej tak dużo, że właściwie o wszystkim można by jakoś tam mówić, no ale jest z czego wybierać, jest z czego wybierać i to tak na rynku ogólnodostępnym i gdzieś tam na tym rynku specjalistycznym też, tak, są rozwiązania i darmowe i płatne i takie i inne
i gdzieś tam coś się tworzy ciągle, namaka ciągle, znaczy namaka może, nie, właściwie namaka, źle powiedziałem, namaka się aż tak wśród niewidomych, no dobrze, ten VOCR, nowa wersja, tak, to jakoś tam może być istotne, za to jeżeli chodzi o interfejsy wszelkie muzyczne i aplikacje do obsługi muzyki, no to jest coraz większa konkurencja, jest tego coraz więcej, coraz więcej rzeczy też jest dostępnych, o tym warto pamiętać.
No i cóż, pozostaje życzyć nam wszystkim, żeby ten rok nie był gorszy, żeby nie pojawiały się jakieś bardzo istotne wpadki, takie jak dwie zeszłoroczne, o których jeszcze nie powiedziałem, czyli VoiceDream Reader i Sonos.
Na szczęście obie kwestie zakończyły się dobrze, tak, VoiceDream miał wymusić subskrypcję, do której ja nawet bym jakoś nie miał aż tak nic przeciwko, bo aplikacji rzeczywiście używam, używam i no i ją bardzo doceniam, ale styl i koszty to wszystko nie zachęcało, no wycofali się z tego, to rzadko i aplikacja też nie zniknęła, a głosy były różne, też szumnie twórca czy twórcy
Speech Central zapowiadali nie wiadomo co i no nie wiem, ja jakoś nie potrafię tego Speech Central dobrze, efektywnie używać, może nie wiem, może to z angielskimi, z tymi głosami AI działa to jakoś lepiej, w ogóle no teraz wszystko, ja tak mało mówię o AI, bo wiem, że wy wszyscy albo prawie wszyscy o tym więcej, o wiele powiecie, nie czuję do końca tego fenomenu, chociaż zdaję sobie sprawę, że on ma ogromny potencjał.
Być może to jest też tak, że stosunkowo mało używam treści anglojęzycznych, a jednak ten AI to bardziej, szczególnie jeżeli chodzi o te głosy neuronowe, tak, no to gdzieś tam tutaj rozwój, szczególnie dla języka angielskiego, no to jest po prostu niesamowite to, co się gdzieś tam ogólnie dzieje i potencjalnie co można zrobić, tak, cały Eleven Labs i tak dalej, przetwarzanie wszelkiego rodzaju audiodeskrypcje, napisy, wideo, coś no.
Mnie to jakoś bardzo nie ekscytuje, ale nie mogę tego nie docenić. No i druga rzecz, ta wpadka Sanosa, tak, która też dobrze się skończyła, o tyle, że aplikacja z nieużywalnej stała się używalna, że aplikacji możemy używać, możemy z nią pracować.
Nie jest ona chyba, mówię chyba, bo to kwestia przyzwyczajenia bardziej niż gdzieś tam realnych możliwości. Wolałem aplikację tą taką z natywnymi kontrolkami, kartami typowymi dla iOS-a, ale aplikacja taka uniwersalna, aplikacja Sonos oparta na takiej jakby stronie internetowej na główkach, przyciskach i tak dalej, też nie jest złym rozwiązaniem.
Da się z niej jak najbardziej powystać, no ale efektywność już nie jest tak dobra, tak. Pewne problemy z połączeniami, no nie tylko to niewinomi mieli problemy z Sonosem i nie tak dawno dyrektor Sonosa zrezygnował, także to jest efekt. Miejmy nadzieję, że dalej wszystko będzie dobrze.
No słuchawki są okej. Też artykuł ostatnio w Tyflo Świecie Radek Morawski napisał, zachęcam do przeczytania. Słuchawki drogie, ale warte uwagi. No i czekamy, co będzie dalej.
Był to Tyflo Podcast. Pierwszy polski podcast dla niewidomych i słabowidzących.
Program współfinansowany ze środków Państwowego Funduszu Rehabilitacji Osób Niepełnosprawnych.