Rok 2023 W TyfloInformatyce (wersja tekstowa)

Pobierz napisy w formacie SRT
Pobierz napisy w formacie VTT
Fundacja Instytut Rozwoju Regionalnego prezentuje Tyflo Podcast.
Dzień dobry, dzień dobry. Dzisiaj w sumie nie wiem czy można to nazwać tyfloprzeglądem,
bo tyfloprzegląd jest audycją cotygodniową. Dzisiaj bonus, bo taki przegląd,
rzeczywiście trochę tyfloprzegląd, ale coroczny można powiedzieć,
czyli najważniejsze newsy, przynajmniej według nas i nie tylko,
bo tutaj też kilka, kilkanaście chyba osób nam się nagrało
z różnymi rzeczami, które te osoby też uważały za różne, ciekawe.
No i, i zaczynamy od, od dzisiaj tego przedstawienia nas.
Dzisiaj w audycji Paulina Gajoch, Michał Dziwisz,
Witajcie. Piotrek Machacz, Paweł Masarczyk i ja, czyli Tomek Bilecki, no i chyba nie mamy dzisiaj zapowiedzi takich klasycznych.
Zapowiedzi nie mamy, więc ja od razu przejdę do rzeczy, że można do nas dzwonić, bo oprócz tego, że mamy te newsy, które przygotował, a właściwie które zebrał te wypowiedzi od naszych częściowo słuchaczy,
czy częściowo osób, które gdzieś tam z zainteresowania technologią w środowisku osób niewidomych są znane.
Te wszystkie rzeczy i wypowiedzi w większości zebrał Michał Kasperczak, dzięki Michale.
Michała zresztą też dziś usłyszycie w takiej wypowiedzi na antenie Tyflo Radia.
Natomiast również oczywiście możecie się z nami kontaktować.
Te drogi i łączności tu do nas są jak zawsze do waszej dyspozycji 663-883-600, to jest nasz numer telefonu, tu też Whatsapp jest do waszej dyspozycji, Facetime, co tam wam wygodnie te komunikatory są na ten numer telefonu zapięte i możecie z nich śmiało korzystać, możecie zadzwonić albo na przykład na Whatsappie nagrać nam wiadomość głosową.
Jest kontakt.tyflopodcast.net, a właściwie za chwilę będzie, jest Facebook, jest YouTube, są nasze aplikacje na Windowsa i iOSa, tam możecie komunikować się z nami tekstowo, po prostu pisząc odpowiednie komentarze, my te komentarze też będziemy czytać.
No to zaczynamy. Zaczynamy od może takiej informacji, która pojawiła się już w miarę na początku zeszłego roku.
Z tego co pamiętam, że Soundscape od Microsoftu jest na GitHubie.
Soundscape, czyli ta aplikacja do nawigacji bazująca na dźwiękach, które dobiegają do nas z różnych stron.
Nie z tobie, normalnie. Coś mi dzisiaj komputer nie bardzo chce mnie słuchać, no ale może to się jakoś uspokoi za jakiś czas.
W każdym razie, no wtedy pamiętam, padło coś takiego, że no to pozwoli innym deweloperom na tworzenie innych, znaczy podobnych aplikacji na podstawie Soundscape’a,
No bo właśnie, Sunscape przestał być rozwijany, ale zamiast powędrować do jakiegoś archiwum i być w zasadzie projektem zapomnianym i nie używam przez nikogo, to powędrował na GitHub, czyli na takie miejsce, gdzie każdy może sobie pobrać kod tej aplikacji i coś na jej podstawie stworzyć.
I z tego, co pamiętam, powstało nawet kilka, zdaje się, aplikacji, które bazują właśnie na Soundscape’ie i chyba, nie wiem czy najpopularniejszą, ale jakąś taką najczęściej chyba przez nas wspominaną jest Voice Vista, z której chyba Paweł w ogóle korzystasz.
Paweł korzysta z apki Voice Vista jak najbardziej, natomiast były też dwie inne, czyli Soundscape od Scottish Tech Army i Soundscape Community od, no nie pamiętam już jak się nazywa to konsorcjum, ale tam jest zaangażowany Irlandzki Związek Niewidomych, czyli od niedawna Vision Ireland, już się nie nazywa to NCBI, tylko Vision Ireland i o co ciekawe, te obydwie wersje stały się dostępne w polskim App Store, więc jakbyście chcieli się poobawić, to one są.
też w Abstorze, ale Wojzwista to jest ta, która się rozwija.
Powiem więcej, Wojzwiście warto się teraz przyglądać,
bo za sprawą Przemka Rogalskiego powoli zaczyna
tam wyglądać spolszczenie jak spolszczenie,
czyli te komunikaty, no przyciski typu spać,
blisko zamiast zamknij,
gdzieś tam jakieś pasy serwisowe
i tak dalej już próbują znikać powoli
z wersji na wersję i coraz bardziej wygląda
to jak nasza polska terminologia, do której jesteśmy przyzwyczajeni.
Natomiast sama aplikacja jest ciekawa, dużo tam dochodzi, coraz to więcej nowych
rzeczy i to dzięki sugestiom użytkowników, jest cała grupa na Whatsappie, która wokół
tego projektu się zebrała, gdzieś tam zgłasza na bieżąco i ja myślę, że to ma
potencjał stać się taką konkurencją dla tego, co jest do tej pory dostępne.
Myślę, że też szczególnie istotne w takim kontekście, że oryginalna aplikacja
Soundscape, autorstwa Microsoftu, nie była dostępna dla polskich użytkowników.
Tak, to prawda. No i tutaj jakby nie wiem, czym się Microsoft zasłaniał.
My mieliśmy swoje teorie, spekulacje, że to może jakieś prawne aspekty, że to może jakieś
kwestie dostępności głosów neuronowych czy innych tam…
Chyba głównie prawne kwestie, przynajmniej z tego co pamiętam, bo Mikołaj jakiś czas temu chyba miał
okazję z nimi rozmawiać nawet na którejś z konferencji chyba NFB jak były online i tak przynajmniej
wtedy mu odpowiedzieli.
No tutaj już problemu nie ma, projekty robione przez jak najbardziej hobbystów, którym to całkiem dobrze wychodzi i można się bawić i używać przede wszystkim, bo do tego to przecież jest.
Także jak widać takie ruchy, przynajmniej z naszego punktu widzenia, czyli użytkowników, naprawdę potrafią przynieść wymierne korzyści. No i dobrze, że w tym przypadku Microsoft coś takiego zrobił.
To teraz może wypuśćmy, że tak powiem sobie, jakąś informację, którą nam tutaj przesłano.
Kto tam pierwszy jest? Michale.
To może w takim razie, skoro mówiliśmy o aplikacji do nawigacji, to może jeszcze tu pojawi się jakieś uzupełnienie,
które dla słuchaczy Teflo Radia nagrał człowiek no któremu nawigacje nie są obce, a jest to Kamil Midzio.
Witam serdecznie słuchaczy Teflo Podcastu i Teflo Przeglądu.
Kamil Midzio z tej strony.
Jako że skończył nam się rok 2023 chciałem się z wami podzielić czymś co jakoś wyjątkowo mi utkwiło w pamięci na przestrzeni tego właśnie roku.
Interesuję się głównie nawigacjami GPS i aplikacjami ułatwiającymi nam codzienne funkcjonowanie,
stąd do tych dwóch kategorii ograniczę swoje wypowiedzi.
Mimo tego, że w tym roku na miejsce Soundscape’a, tej aplikacji opierającej się w rozmieszczeniu dźwięków
w przestrzeni aplikacji nawigacyjnej, powstał program Voicedista.
Bardzo fajnie, że on się pojawił, dlatego że rynek iOS-owski
cierpi na niedobór aplikacji nawigacyjnych.
Szkoda tylko, że Voicedista, podobnie zresztą jak Soundscape,
nie potrafi wygenerować trasy zakręt po zakręcie,
a jedynie umożliwia nawigację azymutową
i orientowałem się w przestrzeni po dźwiękach porozmieszczanych dookoła.
Stąd używając Voicedizdy musimy mieć na głowie jakąś formę słuchawek.
Czy to takie, które przepuszczają dźwięki, czy słuchawki kostne z przewodnictwem kostnym.
W każdym razie jest to jakaś alternatywa dla osób,
które chcą mieć program prosty, skuteczny w miarę i informujący o tym, co mijają.
Do tego się pojeździ, co nadaje doskonale.
Drugą ciekawostką z dziedziny programów nawigacyjnych
jest aktualizacja aplikacji Siniart i StartMove z września tego roku.
Z ważnych funkcji, które warto wspomnieć,
a może nie wszyscy o nich wiedzą,
program nareszcie zawiera coś, co my z radością od ponad roku testujemy,
mianowicie opis przejść dla pieszych.
Na czym to wszystko polega?
Polega to na tym, że monitorując kategorię OSM dla pieszych,
mamy opis przejścia.
Dochodząc do przejścia, słyszymy na przykład,
czy zawiera ono sygnalizację świetlną,
czy jest przejściem bez kontroli, przejściem nieoznakowanym,
czy też ma sygnalizację dźwiękową.
Krótkie wyjaśnienie. Przejście nieoznakowane, które po prostu nie ma pasów, jest nadziko totalnie,
a przejście bez kontroli to jest takie, gdzie te pasy są namalowane, ale nie ma żadnego słupka,
nie ma żadnych świateł i tak dalej. Jeśli chodzi o podział sygnalizatorów świetlnych,
sygnalizatorów świateł, to mamy tutaj sygnalizację świetlną,
tylko taką, czyli normalne światła
bez żadnej dodatkowej akcesybility
dostępnościowej funkcjonalności.
Mamy opcję dźwięku, czyli sygnalizację świetlną
i dźwiękową oraz wibracyjną.
Przy czym pod wibracją się kleją zarówno
wibrujące elementy sygnalizatora
czy nawet obracające się śrubki,
jak w przypadku tutaj u nas w Szkocji mamy taką sytuację,
że pod sygnalizatorami są śrubki, które jak się robi się zielone światło,
to one się obracają, wtedy wiemy, kiedy można spokojnie przejść.
Sygnalizatory mogą być albo tylko świetlne, albo świetlne i dźwiękowe,
albo świetlne i wibracyjne.
Są też modele obsługujące wszystkie trzy,
który będzie i świetlny, i dźwiękowy, i wibracyjny.
Dodatkowo w trasach silnicy,
to mamy informację, przejść na światłach,
bądź przejść przez.
Przejść przez to są właśnie te przejścia nieoznaczone,
bez kontroli i tak dalej,
a przejść na światłach to są takie,
które wyposażono w sygnalizację świetlną.
Kolejną nowinką jest funkcja, na którą czekaliśmy od wieków,
od 7 lat konkretnie.
Sprawa dotyczy programu DotWalker
i funkcji potocznie zwanej wyszukiwarką wieloźródłową.
Na czym to wszystko polega?
Do tej pory, zanim się ta funkcja pojawiła,
użytkownik musiał, szukając danego punktu,
skakać po całym programie.
Bo żeby go znaleźć w miejscach Google’a musiał wejść do miejsc Google’a.
Żeby go poszukać w OSM’ie musiał wejść do map OSM.
Żeby go znaleźć, sprawdzić czy jest w Foursquare’ze musiał wejść do Foursquare’a.
Żeby go przeszukać w bazach musiałby wejść i przeszukać w konkretnej bazie.
W tym momencie wygląda to tak.
Też nie jest to szczyt naszych marzeń.
Ale no cudno. Programista twierdzi, że nie da się tego w taki sposób rozwiązać, jak byśmy chcieli.
Teraz musimy z pola kombi wyszukiwarki wybrać konkretną kategorię.
My chcieliśmy, żeby było to tak, iż użytkownik pisał sobie frazę w polu edycyjnym,
a to program podejmuje za niego decyzję, przeszukując wszystkie dostępne źródła.
Niestety, deweloper twierdzi, że dostawcy źródeł punktów
mają różne sposoby ich przeszukiwania, zwłaszcza to, co dotyczy baz.
Mają różne sposoby przeszukiwania i nie da się tego zunifikować.
Ostatnia, niestety smutna wiadomość nawigacyjna jest taka,
że z dniem 1 grudnia 2026 roku
ze sklepów z aplikacjami, zniknęła aplikacja na Wi-Fi Opta.
Program, który zwłaszcza użytkownicy iOS osoby z linii,
bo jest to aplikacja dosyć prosta, nie wymagająca zbyt zaawansowanej wiedzy,
łatwa w konfiguracji, a przy okazji na iOS robiąca to,
co nawigacja powinna robić.
Na Androidzie sytuacja wyglądała dużo gorzej,
Natomiast też szkoda, że taki produkt ze sklepów nam znika,
bo jeśli chodzi o nawigacje GPS-owskie,
naprawdę nie ma tych programów na zbyt wiele.
To jest wszystko, jeśli chodzi o rynek nawigacyjny.
Wydarzyły mi się jeszcze dwie rzeczy,
które bardzo pozytywnie mnie w tym roku zaskoczyły.
Obydwie mają związek z czymś, co ja określam ogarnianiem przestrzeni
czy lepszym funkcjonowaniem.
Pierwszą z nich była pojawiająca się w maju tego roku na Androidzie
aplikacja do czytu etykiet z datą ważności żywności Zuzanka.
To był bardzo fajny moment, bo ta zamka się okazała
dużo szybszym i wygodniejszym sposobem sprawdzania tych informacji
niż np. Lookout czy Envision Eye.
Natomiast dosyć krótko się mogliśmy nią cieszyć,
a się cieszyć możemy dalej.
Natomiast nie da się ukryć, że jest mniej funkcjonalna
niż kolejny bohater roku 2023,
czyli sztuczna inteligencja w aplikacjach Be My Eyes.
Użytkownicy iOS-a ją otrzymali nieco wcześniej.
Androidowcy mogli się nią cieszyć od końca roku,
właściwie od grudnia 2023.
Jest to naprawdę fantastyczne narzędzie
potrafiące opisać chyba wszystko, można powiedzieć.
Nie spotkałem się z sytuacją, żeby czegoś mnie nie opisało.
Banować potrafi człowieka, wrednie skomentować,
np. informując grzecznie i życzliwie,
że na ekranie komputera widać wyraźnie odciski palców,
które zaburzają prawidłowe odczytanie informacji.
Albo np. na podłodze leży coś tam, co sprawia, że pokój wygląda na nieuporządkowany.
W każdym bądź razie mamy taką sztuczną inteligencję Be My Eyes. Możemy się nią cieszyć.
I tym pozytywnym akcentem chciałbym zakończyć swoją wypowiedź. Serdecznie wszystkich pozdrawiam i do usłyszenia.
Na temat Be My Eyes powiemy sobie jeszcze na pewno w audycji, bo to jest jeden z tych tematów, które się pojawiły rzeczywiście w tamtym roku i są na tyle ważne.
I tu moim zdaniem na tyle jest dużo rzeczy, o których warto opowiedzieć przy tym programie, że na pewno będziemy o tym jakieś pięć minut mieli.
Ja jeszcze może tylko wspomnę, uzupełniając wypowiedź Kamila odnośnie Wojt Zwisty,
że generowanie tras zakręt po zakręcie jest już możliwe.
Nie jest to najprostsza czynność, bo, znaczy nie, teraz została ona uproszczona,
bo kiedyś trzeba było, żeby to było poprawnie wygenerowane, czyli że program nas
wjedzie od punktu do punktu i dla każdego z zakrętów ustanawia nową, tą tak zwaną
latarnię, ten bikon, no to trzeba było wejść w trasy, stworzyć nową trasę i wybrać
tam opcję wygeneruj trasę z algorytmu, czy tam wylicz trasę.
Teraz już jest troszkę lepiej, bo można tą opcję wywołać z poziomu punktów albo
znaczników. I tam jest w menu, jak klikniemy na konkretnym znaczniku, opcja też
generowania trasy. Natomiast jest z tym jeszcze kilka problemów.
Nie ma automatycznej kalkulacji trasy, kiedy sobie z niej złączymy.
No i też każdy z zakrętów trasy nazywa się tam, nie wiem, trasa 1, trasa 2, trasa 3,
aż do trasa 10. Zamiast nazwać to jakąś, nie wiem, skręć w prawo w ulicę taką a
którą robiła np. Todd Walker. Ja to zgłosiłem. Czy sobie autor coś z tego zrobi? Może tak. Już nie jedną sugestię wdrożył, ale na razie odkąd tą sugestię zgłosiłem, to już dwie wersje wyszły. No i nic. Także zobaczymy.
Kolejną informacją niezbyt chyba wesołą jest fakt, że Twitter, no to, że zmienił się w X, czy X w zasadzie, no to tam nie żart, gdyby nie to, że oprócz tego platforma odcięła w zasadzie w ogóle dostęp klientom zewnętrznym,
Takim jak na przykład nasze klienty, nasze klienty dla niewidomych i w ogóle no na platformie jest dużo gorzej się teraz poruszać, są różne limity powprowadzane.
Niektórzy twierdzą, że jakość merytoryczna się tam pogorszyła, nie wiem, nie ma mnie tam od dłuższego czasu, więc trudno, trudno mi to ocenić.
No ale rzeczywiście zmieniło się i to tak na minus i to tak się jakoś w kwiecień, maj to chyba wtedy jakoś to się zaczęło zmieniać tak na tak porządniej.
Jakoś od początku roku, przeglądałem sobie notatki też przed audycją, chyba w styczniu pierwsze jakieś wyłączanie się zaczęło zanim w ogóle ta nazwa się zmieniła.
To jeszcze był wtedy Twitter i jakoś chyba, tak jak mówisz, marcu albo kwietniu to już było dziś finalnie chyba wyłączone.
Być może. To się właśnie zaczynało wcześniej, najpierw te duże klienty przestały być wspierane, potem coraz mniejsze, no i w końcu rzeczywiście z pewnymi wyjątkami przez chwilę wszystko rzeczywiście zostało odcięte.
No i w tym momencie Twitter jest, czy X w zasadzie jest dostępny wyłącznie przez aplikację tej firmy.
Czyli w zasadzie sytuacja jest jak z Facebookiem.
Facebooka można przeglądać tylko przez Facebooka i tyle.
To ja mam w związku z tym takie pytanie. Czy ktoś z was na X-ie aktywnie pozostał?
Jedyne co to ostatnio resetowałam tam hasło, bo zapomniałam.
I w ogóle przyszedł mi mail z supportu Twittera i napisane w nim było, że zostało zresetowane hasło do Twittera, więc ja dalej bez skrupułów mówię, że to Twittera.
Ktoś tam nie odkurzył.
Ktoś tam nie wysprzątał dokładnie, natomiast napróbowałam tam coś z tą stroną zadziać, bo mobilnie to w ogóle jakby nie uważam, że coś bym osiągnęła,
bo no bo ja właśnie Twittera miałam typowo zrobionego pod styfę przegląd.
Ja tam miałam newsy we wszystkich językach i czytałam je tłumaczem zawsze.
No natomiast są te niby jakieś skróty J, K, ale one mi nie działają.
Muszę do tego przysiąść, bo też no chciałabym,
bo miałam bardzo fajnie zrobionego Twittera pod newsy, no ale…
Ja tutaj też myślę, że a propos niezabajających skrótów,
to też fajnie można też powiedzieć,
bo to, że wyłączyli API to nie jest jedyna rzecz, która tam się stała.
Ja przepraszam, że znów wchodzę w głos Pawłowi, bo wiem, że też chcesz coś powiedzieć o ciebie.
Ale jak Elon Musk przejął Twittera, no to tam były duże reorganizacje ludzi, którzy w tym pracują.
Dużo osób zostało zwolnione i jednym z pierwszych zespołów, który został całkowicie zwolniony,
był właśnie zespół odpowiedzialny za dostępność.
No i widać, że tam kolejne aktualizacje niestety coraz więcej psują.
Jak bardzo się nie wypowiem, bo też raczej mało co z tego korzystam.
Wiem, że ostatnio jak próbowałem tymi skrótami też nawigować, to coś mi nie…
One działały, ale chyba mi nic nie czytało, więc tam chyba też coś tam się popsuło.
No i też generalnie jak ostatnio tam zaglądałem, no to akurat moi i wszyscy obserwujący, którzy tam byli, no to już tam nie są.
No Exodus Niewidomych na Macedonii jest duży, no a co tam zostało, to jakieś same boty.
w organizacji informacyjnej.
To ja tylko jeszcze może dodam, że jeśli o mnie chodzi, to ja za pomocą klienta
Spring to jest chyba jedyny, który przeżył jakby tutaj przesiew anty-API.
Śledzę sobie jedynie moją zakładkę z newsami, gdzie w zasadzie wszystko co mi jest
potrzebne przesiedliło się na Mastodon, natomiast Europejska Unia Niewidomych dalej
twardo na Twitterze, czy tam na Eksie, więc z uwagi na nich jeszcze obserwuję gdzieś tam Twittera czy Eksa, ale tak bardziej tą jedną zakładkę.
Nie patrzyłem, co się dzieje na ośce głównej i trochę straciłem kontakt z tą rzeczywistością, a na Mastodonie czuję się świetnie.
Te treści, które mi są potrzebne najbardziej teraz też z uwagi na różne tutaj kwestie zawodowe, cała społeczność od dostępności cyfrowej, a raczej bardziej
i znaczący członkowie też siedzą sobie na Marsalonie, tak że no nie czuję, żebym,
ok, przepraszam, czuję, że straciłem dostęp do różnych takich źródeł typowo informacji,
ale też takich różnych ciekawostek, takich typowo, ja tam śledziłem takie dość
specjalistyczne, dużo portali podróżniczych śledziłem, gdzie były jakieś zabytki świata
rekomendowane i gdzieś ta próba na razie jeszcze nie, no nie udało mi się jakoś
zdyscyplinować, żeby przenieść się na jakiś sensowny czytnik RSS i
gdzieś tam konsekwentnie nadganiać wiadomości w ten sposób.
Więc jest to jeszcze gdzieś przede mną.
No, a do Reddita i tego, co dodała mi niestety strata Reddita, to
też jeszcze pewnie przejdziemy.
A no właśnie, bo nie wiem, czy możemy o tym gdzieś wspomnieć teraz w sumie,
bo to jest też bardzo podobna sytuacja.
Myślę, że to jest dobry moment.
No właśnie też…
Ale myśmy zawsze gdzieś hula.
No i właśnie o to chodzi, bo po tym jak Elon Musk odciął dostęp do API, głównie tłumacząc o tym, że jest na Twitterze za dużo spamu, no to dzięki temu gdzieś, no i pewnie naciskom inwestorów, co wcale by mnie nie zdziwiło, szef Reddita postanowił podjąć podobne kroki, chociaż na początku było mówione, że tutaj też chodziło o, może nie tyle o spam, co o trenowanie AI, bo Reddit miał też bardzo fajne, otwarte API, dzięki czemu no właśnie wiele firm, które sobie jakieś modele językowe
tworzy, czyli no właśnie takie modele używane do sztucznej inteligencji,
sobie tego reddita bardzo łatwo zasy…
właśnie sobie pobierali, żeby uczyć te modele.
No więc postanowili gdzieś to ukrócić i mówili, że ceny będą takie przyjazne
deweloperom, właśnie jak ktoś taką aplikację pisze, to będzie, to ceny będą fajne.
No okazało się, okazało się, że były bardzo
niefajne i też jakieś rozmowy zwłaszcza z deweloperami takich większych aplikacji
już nie były takie fajne. Natomiast było wiele protestów i jednym z protestów był protest społeczności niewidomych na religii,
których jest całkiem sporo, subreddit rslashblind, do którego często też piszą osoby widzące, które mają jakieś pytania dotyczące, nie wiem, osób niewidomych czy nierowidzących.
Tak jak nasze niewidomy niedowidzący będziemy razem.
Hm?
Tak jak nasze niewidomy niedowidzący będziemy razem.
No właśnie, to jest taki też odpowiednik tego na Relicie i tam dużo osób faktycznie wchodzi, ta społeczność ma chyba tam kilkadziesiąt tysięcy członków, z tego co pamiętam, czy kilka tysięcy, no mniej więcej dużo, no i też zwracali na to uwagę, że właśnie mamy kilka aplikacji dla niewidomych i co ciekawe, dla tych osób, dla tych aplikacji właściwie, Relic zrobił wyjątek pod warunkiem, że autorzy tych aplikacji nie będą na nich zarabiać, więc Dystopia na iPhone’a została, Red Reader na Androidzie został,
Luna na Windowsie, no i po czasie nawet oficjalna aplikacja, bo tutaj w
przeciwieństwie do Twittera, chociaż Reddit nigdy nie miał zespołu odpowiedzialnego
za dostępność, za co potem właśnie był krytykowany, to jakieś poprawki
dostępności obiecali i trzeba im przyznać, że oficjalna aplikacja, chociaż też jest
zapchana reklamami niestety, no to jakość dostępna też się stała, przynajmniej na
iPhone, nie wiem jak jest na Androidzie.
W sumie nie wiem, bo chyba nawet Bacon też działa na Androidzie, jak ostatnio
popatrzyłam. Ja tu jeszcze tylko dodam, że jeszcze jeden prowadzący w naszym
wirtualnym studiu się pojawił, Patryk Faliszewski jest z nami, mam nadzieję, że
już jest, bo jakieś problemy mieliśmy. Chyba jest, chyba jest, chyba jest.
Jak ty sobie Patryku radzisz teraz z Twitterem, bo przecież ty byłeś takim
aktywnym użytkownikiem, ćwierkaczem. Tak, dosyć byłem i między innymi o tym
miałem mówić, ale też kultura nie pozwala mi wam przeszkadzać w fajnej dyskusji.
Słuchajcie, niezbyt sobie radzę uczciwie z Twitterem i czuję taki nadal po tych
kilku miesiącach jednak od ostatecznego zamknięcia API
taki miks uczuć trochę po pierwsze dlatego, że
mój profil nie był stricte ani niewidomy, ani stricte branżowy.
On był troszeczkę wszystko, brzydko mówiąc, cudzamen do kupy.
Sporo dostępności, sporo informacji ze świata i teraz każdą z tych rzeczy w jakimś
w tym stopniu, niektórych nie w całości, da się odbudować.
Jedno RSS-em, drugie Facebookiem.
Sporo tam się dzieje wbrew pozorom, tylko troszkę trzeba się wiedzieć jak
zakręcić i nie jest tak może intuicyjnie, a już na pewno przyjemnie.
Szczególnie z komputera.
No polityka, w międzyczasie stało się dużo
w polityce, ale to chyba nie jest przedmiotem dzisiejszej audycji.
Też fajnie ją było mieć jakby w kupie na tym Twitterze.
No a w tym momencie sprawa jest taka, że Mastodon dla mnie, przynajmniej jakby z mojej perspektywy, z tych ludzi, którzy mnie interesują, to może, wiecie, może po audycji się umówimy na jakieś party wyszukiwawcze.
Ale ja powiem szczerze, poza ludźmi, których znam, to taki mainstreamowy content na Mastodonie, no totalnie mi nie odpowiada w dużej mierze.
On jest, jak nie z tej, to z tamtej strony skrajny i to już jednak nie.
Po prostu to nie to.
Więc jak ja sobie radzę?
Dopóki jeszcze było co czytać i ta
dostępnościowo niewidoma warstwa się nie wycofała z Twittera.
Całkiem fajnie mi się korzystało z klienta Spring, wiadomo.
On, tu mnie poprawcie, on jeszcze nadal działa, tak?
100 tysięcy lat nie odpalałem.
No właśnie, więc Spring jeszcze działa, a Spring jest całkiem dostępnym klientem, tylko
trzeba by na pewno, Twitter polega na tym, żeby robić to na telefonie i tylko na
telefonie, no niezbyt.
Na klienty dostępnościowe, takie zwykłe, czy to był Twiscake, czy to był tam
Chicken Nugget, jeszcze starczy. Chicken Nugget to w ogóle nawet jeszcze chwilę
podziało, jak ludzie z Twiscake mówili, że jest problem, ale i na niego przyszła
pokryska i już nie działa na komputerze.
Nic poza stroną.
Strona
to co było to jest, ale czy ktoś tam dba o kompatybilność nowych rzeczy, nowych
funkcji, które pan Elon jednak wprowadza w ten czy inny sposób.
Mam wrażenie, że to leci siłą rozpędu po prostu.
Jakieś skróty działają.
Też ostatnio chciałem skorzystać z nowszą wersją
JOS-a w ramach, w ramach beta testów, czyli czy aby na pewno wszystko działa, nie
działało do końca, tam są jakieś
problemy i być może one wynikają z tego, że mam JOS-a w języku angielskim US, a nie
polskim. Twitter jest niby też w angielskim US, no ale jednak ja jestem z Polski, więc
on mi może inaczej wyglądać.
No i mnóstwo takich różnych pomniejszych, więc podsumowując.
Nie, z Twitterem nie jest fajnie.
i Mastodon mi przynajmniej, w moim wypadku, tej luki nie wypełnia nawet 50%.
Mi powoli zaczyna, powiem szczerze i tu jeszcze już, bo myślę, że czas będzie przejść do jakichś kolejnych tematów.
Jeszcze tylko powiem, że od pewnego momentu zacząłem naprawdę doceniać to narzędzie, o którym mówiliśmy w poprzednim Tyflo Przeglądzie,
czyli ten RSS Parrot.
On jest naprawdę całkiem fajny
i całkiem fajnie jest nam w stanie zrobić
z naszego Mastodona
taki, no, prosty bo prosty, bo to oczywiście
wiadomo, że te wszystkie rzeczy będą
ze sobą wymieszane w głównym buforze,
ale jednak mimo wszystko silnik RSS,
dzięki któremu będziemy
na bieżąco z różnymi rzeczami,
bo ja na przykład na Windowsie
sensownego programu do
czytania RSS nie widzę.
Najbliżej temu jest WISU RSS,
ale poza tym?
Coś można z Thunderbirdem
próbować, ale to jest coś próbować,
a jeśli chodzi o
te Mastodona, to można też tworzyć,
nie wiem czy testowałeś, listy na Mastodonie.
Jeszcze tego nie
testowałem, natomiast na pewno to
będę się tym bawił. Tymczasem jeszcze
a propos Twittera, czy teraz
portalu X, mamy
jedną wypowiedź, tu mamy wypowiedź od
Michała Kasperczaka.
Michał Kasperczak, a propos
albo Twittera, albo teraz XX.
No myślę, że to był początek roku jednak, zeszłego,
ponieważ sprawdziłem, że pod koniec stycznia sobie zakładałem
konto na Mastodonie i testowałem aplikację Mona for Mastodon,
bliźnia, no bardzo podobną do aplikacji Spring, do klienta Twittera.
i potem było tak, że rzeczywiście ta aplikacja Spring nie działała przez jakiś czas,
ale potem znowu zaczęła działać i zdaje się, że teraz, o czym piszą również portale takie bardziej mainstreamowe,
Twitter, właśnie Twitter, tylko Spring, to jest jedyny klient Twittera,
jedyna aplikacja poza oryginalną, która pozwala na odczytywanie i właściwie niemalże, nie wiem czy niemalże,
ale pełną interakcję z Twitterem.
Ja używam tego Springa i powiem szczerze,
tak sobie skonfigurowałem Twittera,
porobiłem jakieś tam skróty, zakładki,
no podobnie zresztą jak w Monie Mastodon,
że właściwie Twitter działa mi tak jak powinien,
działa mi tak jak chce.
Na razie nie narzekam,
no ale zdaję sobie sprawę, że to wszystko,
no nie wiem jak to się dzieje,
na razie działa,
także użytkownicy iPhone’ów
mogą sobie w ten sposób jakoś poradzić.
Mam nadzieję, że nowym użytkownikom też to zadziała.
No, zobaczymy.
To co? To może zróbmy w ten sposób,
bo to chyba jakoś działa,
że temat od nas i temat, który gdzieś tam do nas wysłaliście.
To może teraz… No właśnie, kto teraz?
A teraz posłuchamy sobie, co do powiedzenia,
jeżeli chodzi o podsumowanie minionego roku ma Robert Hecyk.
Witajcie, tu Robert Hecyk.
Mam dokonać krótkiego podsumowania
ubiegłego roku z mojej perspektywy.
To będzie bardzo subiektywne i niedługie podsumowanie.
To, co jakoś mnie osobiście dotknęło w tym zeszłym roku,
to była konkurencja, która sama w sobie oczywiście zawsze jest fajna,
dobra, bo czym to pachnie?
No pachnie to współzawodnictwem w tworzeniu rzeczy,
które są nam potrzebne.
Tak by to przynajmniej miało wyglądać.
Ale czasami ta konkurencja przejawia się pośpiechem,
niedopracowanymi rozwiązaniami
i takim szczerze mówiąc przeganianiem się w tym,
czy uda nam się klienta złapać wcześniej czy nie.
Wcześniej w sensie niż konkurencja.
I myślę, że coś takiego mieliśmy w tym roku.
Mieliśmy, przynajmniej jeśli chodzi o urządzenia
do odbierania treści multimedialnych,
książek, podcastów, etc.,
no to mieliśmy Victora Readera Streama w wersji trzeciej
i mieliśmy Sense Player.
Obie firmy Humanware i HIMS starały się o dobry produkt naturalnie i jak wiecie z mojej analizy porównawczej,
naprawdę każde z nich miałoby czym się pochwalić zasadniczo.
Różniły się, owszem, różniły się zarówno formą, wykonaniem, jak i rodzajem przeznaczenia,
bo jak pamiętacie Sense Player jest dużo delikatniejszy i nadawał się bardziej do kieszeni marynarki.
A Victor, no to mam wrażenie, że w plecaku by się bardzo dobrze czuł.
Taki trochę podróżny, wszędzie go można ze sobą zabrać.
I wszystko byłoby fajnie, gdyby nie to, że jak zaczęło się używać tych obu urządzeń,
to w każdym z nich dał o sobie znać ten pośpiech właśnie.
No i mnóstwo błędów. Oczywiście po drodze pojawiły się aktualizacje oprogramowania. Wiem, że SensePlayer bardzo mocno poszedł naprzód. Tam różne rzeczy dodatkowo dodano, różne funkcje, później w wersji 2.0 i późniejszych.
Natomiast Wiktor, z tego co słyszę, bo już nie mam dostępu do żadnego z tych urządzeń,
Wiktor ciągle cierpi jeszcze na różne niedoróbki w oprogramowaniu.
Mam nadzieję, że to się zmieni, bo bardzo kibicuję obu tym rozwiązaniami.
Wydaje mi się, że są potrzebne i wydaje mi się też, że mają szansę znaleźć swoich użytkowników.
Zresztą, Wiktor ma swoich oddanych użytkowników i SensePlayer, myślę, również takich znajdzie, bo to nowa rzecz jest, nowy odtwarzacz.
No ale trzeba liczyć na to, że firmy zaczną się ścigać w precyzji wykonania i w staranności pisania oprogramowania, tego Wam i sobie życzę.
To jeszcze jedna rzecz, która w tym roku, choć to pewnie sięga jeszcze roku poprzedniego, ale w tym roku jakoś też wydaje mi się istotna na rynku, to jest rozwijanie produktu Optima.
Pamiętacie pewnie Optima, to jest takie urządzenie, komputer PC i monitor, czyli linijka brajdowska w jednym.
Ciekawy bardzo projekt firmy Adiego Kushnera i Orbita.
Jedni i drudzy mają pewne doświadczenia.
Orbit znany przecież ze swoich linijek i nie tylko.
No i Adi Kushner, który od bardzo młodych lat współpracował w powstaniu El Braila.
Zresztą Adi, który jest bardzo młodym człowiekiem, ma chyba 25 lat, o ile pamiętam.
Już mając lat 11, zaczynał swoją przygodę ze światem technologii asystujących,
bo lokalizował w Izraelu Scream Leader Jaws.
Więc Optima wygląda na bardzo interesujący produkt,
Jeśli ktoś rzeczywiście poszukuje urządzenia typu all-in-one, komputera PC z linijką, komputer jest framework, więc będzie można wymieniać podzespoły, można będzie wybrać też rodzaj linijki, czy to będzie typowo orbitowska, taka specyficzna, mocno odświeżająca się powolutku i z niejakim hałasem,
czy też taka typowa linijka, jaką znamy z innych urządzeń.
W każdym razie wygląda to na interesujący projekt,
bo nie tylko będzie to komputer,
ale też będzie warstwa oprogramowania
upraszczająca pracę na tym urządzeniu.
Coś w rodzaju oprogramowania, nie wiem,
K-Soft albo tego, co BrailleSense ma w sobie.
A oprócz tego będzie można pracować
na typowych aplikacjach Windowsowych.
Pewnie ja o tym mówię w kontekście roku zeszłego,
bo prace nad nim trwają,
ale to jest jeszcze ciągle pieśń przyszłości.
Niemniej jednak zwracam uwagę na to urządzenie,
bo może być bardzo interesujące
i może być w pewnym sensie game changerem
na tym naszym rynku.
Zobaczymy jak to pójdzie.
Trzymam kciuki, niech się rozwija.
Myślę, że to tyle ode mnie.
Pozdrawiam, do usłyszenia. Mówił Robert Hecyk.
Teraz w takim razie przechodzimy do kolejnego tematu.
Mogę jeszcze coś uzupełnić, bo to jest temat, który chciałem Ci poruszyć właśnie.
I to jest też ciekawe, że mamy taki trochę renesans otwarzaczy do książek,
Bo generalnie gdzieś o tego, te dwa urządzenia, mówię tutaj o SensePlayerze i o Victorze,
o tego wyszli, no faktycznie obrały te firmy trochę różne strategie, no bo
Victor gdzieś poszedł w taką natywną gdzieś integrację z usługami, no bardzo też
na rynku amerykańskim, tak, bo oni tutaj pracują nad partnerstwem z amerykańskim
Audible, czy ostatnio z TuneIn Radio, łącznie z tymi usługami premium, więc jak ktoś ma
jakieś podcasty premium, czy transmisje sportowe, które chce oglądać, no tam to
urządzenie jest bardzo popularne, no bo ludzie gdzieś
korzystali z tych wiktorów od od lat, no i faktycznie tam też nawet
w Stanach gdzieś narzekają na oprogramowanie.
Tak samo było z SensePlayerem, który poszedł w trochę inną stronę, bo
tutaj mamy Androida i tutaj ostatnio też się pojawiła funkcja instalowania
aplikacji. Jak dobrze ona działa?
No osobiście się nie wypowiem, bo tylko gdzieś znam to z opinii innych osób,
no ale jakoś to działa i w ten sposób właśnie można mieć Olipla, ale nie
tylko, bo jakieś inne też usługi łącznie z np.
muzyką serwisów streamingowych, jak ktoś to chce.
No właśnie, poszły w różne strony.
Mam wrażenie na razie, że SensePlayer dostaje tych aktualizacji więcej, no ale
zobaczymy, w jaką stronę to będzie dalej szło.
No i to jest ciekawe.
A jeśli chodzi o Optima?
No to podobnie, zwłaszcza że Framework, jeśli ktoś nie wie, to jest
no to jest po prostu modularny laptop, to jest laptop, który podobnie jak komputer
interstacjonarny, w dużej części możemy sobie ulepszać, więc to będzie urządzenie, które będzie miało naprawdę topowe procesory.
Jeśli ktoś będzie chciał sobie to skonfigurować, nie wiem, z 32 czy nawet nie wiem, czy akurat Framework ma opcję 64 giga RAM-u, no ale więcej RAM-u tego może być dużo.
Może być procesor i7 nawet, nawet te nowsze Frameworki mają też opcję AMD, jeśli ktoś woli, więc no to może być też urządzenie, które
może nam służyć lata jeśli to dobrze zostało zaprojektowane i nadążać za rozwojem technologii.
Oczywiście jeśli tak samo będzie z samym projektem Framework.
No ale też powrót notatników tak? Bo Brain Sense się rozwija w najlepsze.
Mamy właśnie to co mówiłeś czyli teraz Orbita, znaczy Optime.
Za chwilę Orbit Speak, który również powrócił jak Feniks z Popiołów, gdzieś tam się nagle zaczęło o nim znów mówić, no i jutro będziemy mówić o pewnym nowym urządzeniu, Betes Speak, które też w tym segmencie gdzieś się próbuje odnaleźć.
Więc chyba nostalgia, to jest chyba efekt nostalgii, która jest zawsze silnym afrodyzjakiem, a moda na Braille and Speaky i takie czasy, kiedy to właśnie osoby niewidome, dużo wyprzedzały osoby widzące w kwestii tego, do czego miały dostęp i do czego mogły tych sprzętów użyć, mając je po prostu w zasięgu ręki w domu.
No ja jestem ciekaw, bo mnie też takie urządzenia trochę fascynują.
Nie, że bym sam chciał takie nabyć, ale ciekaw jestem, kto będzie tego używał i do czego.
Ja osobiście nie ukrywam, że trochę się tak jak podobnie jak Robert zawiodłem tymi urządzeniami,
które w tym roku się ukazały, a miałem ogromne nadzieje, zwłaszcza względem SensePlayera,
który ma potencjał być też czymś niesamowitym, bo urządzenie, na którym mogę od rozmiarów
telefonu komórkowego, ale takiego z dawnych lat, jak rozumiem,
z mikrofonami stereo, z możliwością odpalenia dowolnej aplikacji z Androida
praktycznie i jeszcze ze sterowaniem już istniejącego smartfona, który jest
przepotężną bazą tak naprawdę różnych aplikacji, materiałów i tak dalej.
No czemu nie?
Tylko szkoda, że tam również są jakieś właśnie problemy i tak dalej, no i to co
zawsze szkoda, że to tyle pieniędzy.
Ja nie wiem, słuchajcie, zawsze mnie dziwi
i entuzjazm związany z takimi urządzeniami, czy to komputerami all-in-one typu Elbrel.
Tu jeszcze rozumiem aspekty walor edukacyjny, czy z notatnikami Bach, nawet
z Orionem i okolicami czegoś takiego, ale podkreślmy, nie mówię tego w tym momencie
jako konsultant dobrą sprzętu dla osoby, nie wiem, załóżmy mniej zrehabilitowanej
komputerowo, ja mówię to jakby typowo ze swojej momentami geekowskiej, momentami wręcz
przeciwnie, chcesz szybko, łatwo i przyjemnie perspektywy.
Zawsze się zastanawiam co,
dlaczego od tylu lat te sprzęty, ostatnim
sensownym na te realia to był powiedzmy
Brightlight M 20 i 40, dlaczego wszystko to co jest takie multimedialne,
znaczy wiem dlaczego, chyba nie ma innej opcji po prostu, ale jest tak zależne na
zarówno usługach, jak i komponentach zewnętrznych.
I potem mamy piękne sytuacje wprost z Ameryki.
Ojej, świętujmy, uaktual…
Pomyślał ktoś o nas pół roku po zmianie API,
uaktualnił nam Twittera.
Pół roku to dobrze.
Bywały dwa lata.
Nie wiem, nie rozumiem tego po prostu
i chyba nie zrozumiem.
Dlatego mi się wydaje…
Głos równowagi.
Nie, mi się wydaje Patryku, że to byłby na te czasy, tak?
Mamy rok 2024.
Fajny projekt na jakiś hackerspace, czyli zrobić takie urządzenie na dostępnych ogólnie komponentach, bo to nie jest technologicznie, nie są jakieś Himalaje, tak?
Postawić sobie Raspberry Pi, malinkę wziąć, podobnie jak zresztą BtSpeak, o którym jutro w tym przeklęcie powiemy.
Postawić na tym jakiś Linux czy jakiś Android, obydwa otwarte systemy.
Wziąć oczywiście jakieś open source’owe syntezatory mowy, RH Voice chociażby.
Dołożyć do tego klawiaturę brailowską, która jest tak naprawdę sześcioma jakimiś mechanicznymi przyciskami z aktuatorami, odpowiednimi tam motorkami, klawisze, te kapy tak zwane z góry, te naklejone klawiszki.
i powgrywać do tego nawet dostępne w połowie jakoś terminalowo,
albo tam przygotować je nawet wstępnie, trochę jak Mirandę.
Jakieś to open source’owe znane aplikacje do czegokolwiek,
to może być klient Spotify’a, to może być zwykły odtwarzacz multimediów,
to może być tak naprawdę czytnik książek, który albo sobie sami zrobimy,
albo zaadaptujemy istniejący i zostawić to wszystko na etapie wymienialnych komponentów.
No oczywiście nie sprzedamy czegoś takiego jako komercyjnego produktu,
bo po pierwsze nie zwróci się nam, po drugie złamiemy milion uwarunkowań licencji GPL przy tych różnych komponentach,
no ale tak my to można mniej więcej zrobić w dzisiejszych czasach, żeby to miało sens.
A z trzeciej strony Pawle, z trzeciej strony Pawle ta zamkniętość, ta taka stara, głupia zamkniętość, można by rzec tak niezbyt medialnie,
Ta taka zamkniętość modeli, powiedzmy, Braille’a z pika
i tych późnych lat dziewięćdziesiątych
miała jedną zaletę.
Te notatniki po prostu działały.
Bo tam był po prostu budowany system operacyjny tak naprawdę od zera.
I to chyba…
I może czasem prawą ręką przez lewe ucho.
Znamy anegdotki o jednym z polskich urządzeń skanujących,
w którym tak a nie inaczej komponenty były poskładane wewnątrz
I nie był to incydent.
Znamy też ciekawostki odnośnie
cytowania jakichś kawałków
wersetów z Biblii, czy innych takich
w firmware, że bodaj Braillens
pika, ale teraz nie dam sobie
niczego uciąć, jako komentarze do kodu.
Więc tak,
oczywiście to się zdarzało, natomiast efekt
tego ostatecznie był mimo wszystko taki,
że ja Braillens pika
jako uczeń powiedzmy, wyciągam z plecaka,
bo właśnie mi się
Dwa dni temu rozładował, odpalam i straciłem może jeden wyraz, a i to czasem nie.
Jestem nadal w edycji notatki.
No, w dzisiejszych czasach system, oprogramowanie zależne od systemu, komponenty, niekomponenty itd., itd.
To się tak mówi, ale to niestety, to piętno, tak brzydko mówiąc, odciska na funkcjonowaniu całego tego systemu.
Wiesz co, z jednej strony tak, ale z drugiej strony ja się zastanawiam, czy trochę nie zmieniły nam się definicje, bo zobacz, że na przykład teraz linijka brajlowska, fokus, no i jest notatnikiem, jedyne czego tam brakuje, to rzeczywiście syntezje, żeby to tak, żeby to był jeden, no prawie jeden do jednego, taki notatnik w starym stylu, no to brakuje rzeczywiście tylko audio, tak, gdyby tam…
Ja bym sobie spokojnie poradził bez notatnika i po co mi dopłacać 5 tysięcy złotych do tego?
Pytanie czy 5 tysięcy, no bo wiesz, jeżeli oni już mieli coś takiego i być może wystarczyło tam dokleić coś, co już jakby było,
a otrzymujemy w gruncie rzeczy sprzęt, który jest zarówno linijką, ale również urządzeniem, które bez komputera również sobie poradzi.
jeżeli chcesz właśnie wyjąć i pisać w szkole.
A pod hasłem notatnik brajlowski to rozumiemy jeszcze zupełnie inne urządzenie,
które tych aplikacji ma naprawdę dużo.
Jakby straciliśmy chyba taką jedną gałąź,
mianowicie taki zwykły, typowy brajlowski terminal,
jak były te chociażby linijki stare,
typu jakiś BrailleMate nawet albo podobne,
że się to podłączało i to potrafiło tylko to.
Tak, no i właśnie o tym mówię, że można dopłacać kilka tysięcy za nawet tak podstawowe bajerki, jak ten podręczny notatnik.
To znaczy, wiesz, pytanie, czy rzeczywiście się tyle dopłaca, to znaczy, chodzi mi o to, że mamy załóżmy te wszystkie radia, takie mini-radyjka z USB-kiem
I w związku z tym, że tam się wkłada czipy, takie jakie się wkłada, które po prostu mają funkcjonalność karty dźwiękowej, czegoś tam jeszcze, no to te radyjka mają te funkcje, no bo po prostu nawet te tanie czipy, które tam są, no po prostu to mają.
Pytanie, czy nie jest troszeczkę podobnie z rynikami brandowskimi.
Będę tym, który stoi po stronie przeciwnej i prowokuje do teorii mniej lub bardziej spiskowych.
Tomaszu, masz rację, w fabryce różnica 100-150 złotych, ale mówimy o tyflofirmach, można zarobić? Można, proste.
Znaczy wiesz, to są takie rzeczy, które są jakby niesprawdzalne, bo ty jakby, wiesz, tu można coś powiedzieć i co mi zrobisz?
Dlatego więc ja proponuję, żebyśmy przeszli dalej, bo tak naprawdę kręcimy się wokół tematu, co do którego nie jesteśmy w stanie nic więcej chyba dodać.
Nie jesteśmy w stanie nawet sprawdzić, zweryfikować informację tak po prawdzie.
To w takim razie proponuję temat, który wyszedł no w zasadzie z tego, co pamiętam niemalże, faktycznie rok temu, to był, to był, pamiętam, że to się pojawiło informacja, chyba w ogóle w trakcie trwania audycji, gdzieś tam, gdzieś tam chyba o tym przeczytałem,
że jest nowy, a nie, bo to było, nie, nie, nie, to jeszcze nie, bo to było, pamiętam, w notatkach, że jest nowy syntezator neuronowy, póki co angielski, ale że chyba będzie fajnie.
Ja gdzieś na YouTubie pamiętam, że znalazłem jak ten nowy, cudowny syntezator cytuje jakiś fragment z Wiedźmina Sapkowskiego.
Tak jest, po polsku zresztą.
Tak, po polsku, po polsku.
To dość długo czasu wysiało, potem to zniknęło, co ciekawe, z YouTube’a, więc…
Film był właśnie ustawiony jako prywatny.
Tak, więc no tu w ogóle, że o, to nie wiadomo, czy to jest prawdziwe, czy coś, bo to niektórzy aż nie wierzyli,
że to taka syntezacja może być.
Ja pamiętam, pierwsze moje zetknięcie z tym, to było jak ty właśnie, Tomku, sklonowałeś mój głos
i wysłałeś mi jakąś taką świadomość głosową, że
Probably you will be, coś tam, gasp, but this is new synthesizer
and this is probability of Polish to appear, itd.
I to było dokładnie, po prostu moim głosem powiedziane, kropka w kropkę
i to był właśnie…
Moja pierwsza styczność to był chyba Reddit, bo oni też się bardzo na Redditzie gdzieś promowali.
Też są społeczności do właśnie syntezowania sztuczną inteligencją, różnych rzeczy, ale później gdzieś na YouTubie kanały, które obserwuję zaczęły jakieś rzeczy wrzucać.
Nie wiem czy ktoś zna Angry Video Game Nerda, taki no właśnie człowiek, który gdzieś bardzo negatywne recenzje grą zostawia i tam ktoś jego sklonował i to bardzo realistycznie.
A potem za Eleven Labsa wziął się niewidomy Mastodon, czy tak powiem, czyli cała zagraniczna społeczność, no i wtedy to już naprawdę gdzieś wystrzeliło.
Tek Toka ktoś sklonował, ja też się wtedy zacząłem gdzieś tym bawić, Neila Ewersa sobie sklonowałem, mówię, a to ciekawe jak on by audiobooki czytał, bo zawsze wydawało mi się, że byłby fajnym narratorem, no i w sumie był.
Ja może sprawdzę jak on by mówił po polsku.
No wtedy jeszcze tego nie było.
No tak.
Tak. No i żeby nie było, my w Tyflo Przeglądzie również kilkukrotnie z Evenlapsa skorzystaliśmy.
Rezultaty we wrześniu były na przykład takie.
Rusza wypożyczalnia sprzętu.
Zaproszenie na relaksacyjny spacer dźwiękowy.
Spektakle z audiodeskrypcją w Teatrze Ateneum.
Festiwal kultury wrażliwej zaprasza osoby z niepełnosprawnościami.
Także, no, barwa głosu jest bardzo podobna.
Styl czytania, to można się zastanawiać,
czy bym, Michał, na pewno tak to przeczytał.
Raczej chyba to, inny pomysł miałbym na to, ale…
Nie wiem.
Chyba bardziej energicznie bym to przeczytał.
Ale no, powiedzmy, jest to, jest to jakoś tam akceptowalne, myślę.
Zresztą, no, to poszło w tyfloprzeglądzie.
Oczywiście nie, nie bez problemów tak całkowicie.
Było tam kilka takich rzeczy, które trzeba było poprawiać, na przykład ten OBJ Watcher, no i oczywiście jak to ma być przeczytane.
OBJ Watcher, dodatek dla NVD, a pozwalający na śledzenie zmian.
I tego typu różne sytuacje się zdarzały.
A to chyba był taki moment, kiedy Michał przeskoczył na czeski w którymś wydaniu, prawda?
Było, oczywiście. To właśnie bardzo często gdzieś tam, czy na końcu, czy gdzieś były.
Teraz jak nie znajdę tak, tak prosto, ale rzeczywiście, no, zdarzają się takie.
Też była taka jakaś śmieszna sytuacja, jak coś tam było, że coś tam w Apple w iPhone’ach się zacina?
jest na to sposób, coś takiego właśnie ten jubileusz zrobił.
Tak, bo ten syntezator, i to jest chyba też taki chyba pierwszy syntezator, który naprawdę to robi zazwyczaj w miarę sensownie,
to odpowiednio układa dykcje, emocje do tekstu.
Tam można sobie to też ustawić, jak bardzo my chcemy, żeby on to robił.
Znaczy, no, jak bardzo żeby to robił, ale nie, że konkretne.
Tak, no konkretnie niestety nie, my możemy tu ewentualnie gdzieś coś sugerować, ale no właśnie, generalnie to jest na autopilocie, no albo mu się uda, albo będzie tak jak opisywaliście właśnie.
Albo jak już zmniejszymy tak, że będzie na zero to stability, albo na dużo ta intonacja, no to sobie poleci po całej skali i będzie tak mówił.
Natomiast wiecie, w kontekście tak typowo dla osób niewidomych, ja zadam za moment prowokacyjne pytanie, ale zanim je zadam, to powiem, że to się Eleven Labs bardzo przebił do mainstreamu.
Nie wiem, czy pamiętacie, we wrześniu, zdaje się, w Radiu Piekary
miała być prezenterka wykreowana przez sztuczną inteligencję.
No i ta prezenterka, której tekst rzekomo pisał Chad GPT,
no to właśnie głos miała wygenerowany z użyciem Eleven Lapsa.
Natomiast ja tak bardziej w drugą stronę zapytam,
bo jakie jest wasze zdanie na ten temat, czy ta technologia nam, jako niewidomym,
coś dużego w tym roku dała, czy to jest bardziej coś, co jest faktycznie taką zabawką,
którą wielu niewidomych się bawi, bo istotnie, no, mają syntezę, której do tej pory
rzeczywiście, to jest fakt, nie mieli i z której nie mieli okazji korzystać, a jednak niewidomi
to jeżeli chodzi o syntezę, co by nie mówić, to porównania mają bardzo, bardzo dużo.
Ja mam wrażenie, że to, że ze względu na specyfikę tego, jak to działa,
to to specjalnie nam wiele nie robi, natomiast robi jedno wrażenie.
Myślę, że trochę robi. Chociażby tania audiodeskrypcja.
Właśnie to chciałem powiedzieć.
I wszystkie te rzeczy, które do tej pory wymagały lektora, bo były robione dla niewidomych głównie,
Być może jakieś zapowiedzi w komunikacji, być może coś tego typu, które do tej pory rzeczywiście wymagały zatrudnienia kogoś i cały problem polega na tym, kiedy to coś, co jest tworzone powiedzmy dla nas, dość często się zmienia.
Tak? Na przykład dodają jakieś nowe przystanki, jakieś nowe komunikaty co 2-3 tygodnie,
ale nie jest ich dużo i teoretycznie ten jeden konkretny lektor
musiałby nagrywać co 2-3 tygodnie po 2 zdania załóżmy.
W tym momencie mając Eleven Lapsa, rzeczywiście można to tworzyć
bardzo tanim kosztem w porównaniu z żywym lektorem.
Przy czym nie wiem, ile lektorów by brało tego typu zlecenia na jedno zdanie i komu by się to opłacało, bo pewnie i tak, nie wiem czy tam nie ma jakichś stałych stawek, chociaż nie znam się aż tak na tym.
No w każdym razie, no to myślę, że może być taki proces, który może być jakoś tam, jeśli nawet nie jest automatyzowany, to maksymalnie uproszczony.
No i właśnie jakaś, czy audiodeskrypcja, czy zapowiedzi, czy coś tego typu może naprawdę być bardzo dla nas przydatna.
Słusznie, Tomku zwróciliś uwagę na kwestię audiodeskrypcji i tak jak mówiłem, trochę to było takie właśnie prowokacyjne pytanie,
bo rzeczywiście, i to jest fakt, Netflix od pewnego czasu coraz bardziej zaczyna wykorzystywać Eleven Lapsa do tworzenia audiodeskrypcji.
Ja mam wrażenie, oczywiście wiadomo, że ta audiodeskrypcja trochę gdzieś tam podupada na jakości, to jest też inna rzecz, natomiast w naszym przypadku tak.
W naszym przypadku ja tu jestem zdania, że przynajmniej na chwilę obecną to rzeczywiście tu ważna jest ilość i rzeczywiście ta jakość może być gdzieś tam powiedzmy odłożona na drugi plan.
Naprawdę, teraz coraz więcej różnych produkcji Netflixa, nie tylko polskich, bo zwykle to było tak, że jak mamy polski jakiś tam film czy serial wyprodukowany przez Netflixa, to audiodeskrypcja będzie, a jeżeli nie, no to nie, a teraz to co chwilę jak coś się nie włączy, to tam czarna litera czy jakieś tam to logo takie charakterystyczne Netflixa.
I zielone.
A może i zielone. Jest to pisane i to już wiadomo, że można się spodziewać, że będzie audiodeskrypcja, no i co chwilę faktycznie Eleven Labs się odzywa.
Ale wiecie co, bo tam Netflix Netflixem, ale naprawdę czekam na coś takiego, aż ktoś, po prostu zwykły człowiek, któremu się chce, zacznie tworzyć audiodeskrypcję w formie np. napisów do filmu.
Czyli wiecie, to nie jest tak, że się łamie prawo w jakikolwiek sposób, ponieważ żeby była audiodeskrypcja, musicie mieć film w formie filmu, nie wiem, w jaki sposób na dysku, czy w jakiejś takiej formie, żeby można było do niego wyświetlić napisy.
I napisy są właśnie czytane przez jakichś tam, czy Eleven Labs, czy nawet właśnie wygenerowane w jakimś pliku, ale okej, niech będzie nawet, że przez ten Eleven Labs i to mogą być wtedy dawane napisy do jakiegokolwiek filmu, tak przez kogokolwiek, typu ktoś tworzy film swój własny i dużo łatwiej mu wtedy zrobić taką audiodeskrypcję Eleven Labsem,
niż, niż właśnie robienie tego, jak do tej pory, że trzeba było
jakiegoś lektora, jakoś to coś, coś z tym robić.
I myślę, że to, to też może być łatwiejsze, tak, że jakby nie tylko dla
dużych firm, ale dla takich niemalże zwykłych ludzi po prostu, którzy chcą
coś zrobić. Innymi słowy, słuchajcie, innymi słowy, słuchajcie,
sorry, że się wtrącę. Coś, o czym pisałem jeszcze w swoim licencjacie
się kilka lat temu jako miejmy nadzieję, że to się kiedyś stanie.
De facto właśnie się staje w tym momencie.
Myśmy mieli grupę badawczą
kilka lat przede mną na UW bodaj.
Agnieszka Szarkowska robiła właśnie badania
w odbiorze audiodeskrypcji robionej syntezą przez osoby niewidome.
Tam była użyta bodaj Iwona w najlepszym wtedy dostępnym wariancie.
W tym momencie
to już jest naprawdę kilka klas wyżej mimo wszystko.
Możemy to lubić, możemy tego nie lubić,
ale to już podnosi tę sztukę na wyższy poziom.
Byleby ten input audio deskrypcji był jeszcze fajnie zrobiony.
Ten skrypt, nie ten track.
No tak, ale to już nie zależy od syntezji.
No właśnie wiesz i to mnie martwi dla odmiany.
I to mnie dla odmiany martwi, bo już w Netflixie widziałem
coś wspomaganego tłumaczeniem maszynowym przy tej audiodeskrypcji z ADE, tej z Elevenem.
Też mam takie wrażenie, że przynajmniej w niektórych miejscach jest to tłumaczone maszynowo.
Tylko pytanie jest takie, czy bez tłumaczenia to by się w ogóle…
od dłuższego czasu, że też jeśli chodzi o
audioprzewodniki, no to już muzea zaczynają wdrażać,
no przynajmniej Muzeum Narodowe w Krakowie z moją,
za moją sugestią zaczyna wdrażać. No i też
dzięki temu jest szansa zrobić to bardziej tak,
no, update’ując te wystawy różnego typu,
jakieś opowieści tworząc, które
też nie wymagają tego, żeby ten elektrocyzm
za każdym razem jak coś rotuje,
no to przybywał i się nagrywał.
No natomiast jeszcze co do samych zastosowań
i level-upsa, jeśli chodzi o nas niewidomych,
no to wiadomo, po pierwsze
te dubbingi, które już za jakiś czas mogą wejść
bardziej w erę taką konsumencką
i mogą przełamywać bariery językowe,
bo często są napisy, ale te napisy to tak, w sumie się je czyta, ale różne są na to
sposoby na YouTube. Jedno to tak jakoś, no wiem, że są osoby, które mają z tym problemy,
no a te dubbingi pozwalają na dużo więcej myślę, w sensie na dużo wygodniejsze
odsłuchiwanie treści. No a druga sprawa, że bawię się trochę w, nie wiem, robienie
archa-voice’ów z treści wygenerowanych 11lapsem, jeżeli ktoś chce, nie wiem, mieć jakiś konkretny głos
archa-voice’owy, oczywiście ze zgodą właściciela tego głosu zrobiony 11lapsem, no to, no to też jest to dużo łatwiej osiągalne
niż kiedyś, żeby ktoś cały skrypt nagrywał, a potem…
I wtedy jest to nasza, wtedy jest to nasza po prostu synteza, której możemy użyć sobie w komputerze albo w telefonie.
Jeszcze co do tej audiodeskrypcji i co do tego co mówił Tomek, że
może ktoś do własnego filmu by dodawał po prostu napisy, które by się
odczytywały jakąś swoją syntezą, czyli 11lapsem.
No to może kiedyś nawet na YouTubie
jakiś taki będzie tałgiel, że włączę audiodeskrypcję i będzie sobie leciało.
Kto wie, już eksperymentują z krótkimi opisami dla shorts.
Na razie tylko dla wyszukiwarki, ale
przecież ten nowy Bart no to jakoś tam ma z wideo współpracować, ale to gdzieś tam
lat na później. Natomiast jeśli chodzi o audiodeskrypcję, ja tylko w sumie zgadzam się z wami.
Zwłaszcza gdzieś w Stanach, gdzie audiodeskrypcja TTSM już się wcześniej spopularyzowała głównie właśnie
głosami Amazonu i przez to została przez tamtą społeczność bardzo znienawidzona.
No to tutaj jednak ten odbiór właśnie, jeśli jest użyty lepszy głos, no to jest dużo, dużo lepszy.
Ja osobiście nawet wtedy z tym nie miałem problemu, tyle że po prostu mamy tego więcej.
też może podchodzę z tego zdania, że no tutaj w Polsce jednak tej deskrypcji wcześniej było mniej, jak tam ludzie dorastali na audiodeskrypcji gdzieś z doktorami, to bardzo się tego zdarzało.
Ja mam wrażenie, Piotrze, że my po prostu się nie nauczyliśmy jeszcze tak naprawdę wymagać, nam się aż tak za dobrze nie zrobiło.
I że my się po prostu cieszymy, że okej, jest tej audiodeskrypcji jeszcze, jeszcze więcej. My się nie przyzwyczailiśmy do tego dobrego.
No właśnie i na koniec jeszcze jedno zastosowanie, które też widzę, które nie jest też po prostu zabawką, no to jestem na jednym z serwerów na Discordzie, na którym jestem członkiem i siedzi sobie bot, który czyta komunikaty, kiedy ktoś wchodzi, wychodzi z kanału, bo tego Discord natywnie na mnie czyta, więc każdego okna, ale też jest podpięty pod czat i to ma swoje zastosowanie, bo tutaj też jakiś DTS Discord jest, ale on też nie jest jakiś bardzo
bardzo dobry, a tutaj akurat, no pewnie takie boty też ci się znajdą, ten akurat chyba nie jest publicznie dostępny, natomiast każdy może sobie ustawić własny głos z całej biblioteki Elevena, albo nawet wgrać i to działa naprawdę bardzo fajnie.
Ktoś nie może coś powiedzieć, po prostu używamy tego czatu, piszemy, a wiadomości wychodzą naprawdę w miarę po ludzku, że tak powiem.
A kto za to płaci, tak z ciekawości?
Zapłacicie się?
Wiesz co, to na takie użycie w serwerze nie wychodzi jakoś bardzo drogo, zwłaszcza jak masz jeszcze Kasi.
Z tego co wiem jest też Kasi, więc za każdym razem on mówi to samo.
Ta i ta osoba doszła do kanału, to miesięcznie wychodziło, tak na początku jak się bardziej bawiliśmy to było dużo,
ale później to już tak gdzieś kilkaset znaków, może kilku tysięcy czasami dochodziło w ciągu miesiąca.
Ja jeszcze w związku z taką technologią pokładam trochę inne nadzieje, to już trochę nawiązuje do tego o czym mówiła Paulina, czyli tłumaczenie treści. Spotify coś się zaczął tym bawić i nie wiadomo czy skończył, chyba jeszcze do Polski to nie dotarło.
Natomiast mi chodzi o tłumaczenie podcastów w czasie rzeczywistym, no bo dla mnie taką rewolucją, to jeszcze też do GPT dojdziemy, no było to, że można połączyć teraz już poniekąd, znaczy połączyć, no krok po kroku ja to robię, jakieś kompleksowe rozwiązania się jeszcze nie bawiłem, ale Whispera i Deepela, no ja w ten sposób jestem w stanie, o czym już też mówiłem wielokrotnie w cyfrowym przeglądzie, czytać treści podcastów w językach, których nie rozumiem i pozyskiwać dla was informacje,
z różnych ciekawych krajów i różnych ciekawych miejsc dzięki temu, że właśnie
mam dostęp do źródeł, do źródeł, do materiałów w tym języku, tylko że tłumaczonych
na dany, na dany język.
No i gdyby dało się to jeszcze o kilka kroków ułatwić, że rzeczywiście ja
włączam podcast po, nie wiem, węgiersku i słyszę jakoś tam przerobione,
przekombinowane, ale spolszczone głosy tych prowadzących czytające mi po polsku.
z taką jakością tłumaczenia jaka jest obecnie dostępna treść tego podcastu no to czemu nie.
Nie musiałbym się bawić już w jakieś transkrypcje rzucanie tego w DeepL tylko po
prostu bym od razu słuchał.
No i znowu chyba muszę zabrać stanowisko przeciwne.
Dla mnie to jest zawsze wręcz zubożenie to jest pozorne takie no fajnie że mamy wiedzę
tak. Dostałem pięć wietnamskich zdań które ja w końcu rozumiem że uruchomiono projekt
Nowej Laski Białej dla niewidomych.
No fajnie, ale użyta w nadmiarze i tu nic personalnego do Ciebie, Pawle, ale po prostu jeżeli taka technologia będzie dostępna, że się tak wyrażę, pod kciuk, to efekt będzie taki, że niestety w ogóle się przestaniemy tych języków uczyć.
To jest prawda, natomiast ja też wiem, że nierealne jest nauczenie się wszystkich języków tego świata.
No to już to. Gdzieś trzeba zachować ten rozsądek, natomiast po prostu trochę nie chciałbym, wiesz co, dojść do takiego Matrixa, że włączam sobie Mr. Prezydent Koko Jumbo, ustawiłem, że mój język to jest polski, uber polski i tylko polski i mi śpiewa głosem wokalistki Mr. Prezydent tłumaczony tekst po polsku.
A czemu? Fajnie by było.
Byłoby to ciekawy eksperyment, natomiast na pewno w jakiś sposób zatraciłoby to tylko oryginału.
Myślę, że dyskusja o całym GPT jeszcze nadejdzie, gdzie ja się pewnie wypowiem o tym, że dla mnie to jest w dużej części do jakichś parodii, typu zróbmy śmieszne utworek sunu AI.
Dla mnie to jest osobiście spoko zastosowanie.
A to widzisz, to tu dla odmiany chyba po prostu punkt widzenia od punktu siedzenia, bo już łapię się na tym, że jest to dla mnie zastosowanie może nie komercyjne, ale niemal codzienne.
Nie chce mi się walidować na pewno tych pięćdziesięciu linijek kodu, znam mniej więcej zarys, wolę poprawić trzy linijki kodu i jeden błąd.
Nie, no to jeśli chodzi o GPT, no to…
To może GPT zostawmy sobie na później, bo…
Tak, no to temat rzeka.
Bo będzie.
Będzie, tak, tak.
Także, no, to był Eleven Loves, tak, który ostatnio też wprowadził przecież
Speech to Speech, który, no właśnie tu nie wiem, czy będzie dla nas miało to jakieś znaczenie.
Oprócz być może, chociaż też nie jestem pewien, ale być może tego,
że rzeczywiście znam osoby niewidome, które mają dodatkowo jakieś sprzężenia i z tego co wiem, to takich osób może być coraz więcej.
Też tutaj ktoś mi mówił, że osób takich niewidomych, niewidomych jest coraz mniej i mniejszy procent w ogóle wszystkich urodzeń,
Dlatego, że kilka takich problemów, które powodowały utratę wzroku, czyli problemy chociażby w inkubatorach, zostały podobno w bardzo dużym stopniu rozwiązane.
I teraz może być sporo osób takich, które mają różnego rodzaju sprzężenia. I powiedzmy, że chcę zrobić podcast, ale zasadniczo mówię w taki sposób i średnio się mnie…
Nie to, że mnie da zrozumieć, bo da się mnie zrozumieć, ale niekoniecznie każdy musi to lubić, tak może to określę.
I załóżmy, że mógłbym sobie stworzyć model speech to speech, to znaczy nagrać taki podcast, przepuścić przez Eleven Labs przez jakiś głos, który jest po prostu miły.
I okej, to nie będzie mój głos, ale z drugiej strony, jeżeli właśnie ktoś ma głos, który jest, który może się wydawać na przykład nie bardzo zrozumiały w jakichś warunkach, nagrywa się jakimś telefonem, bo nie ma nic lepszego, to być może to też jest jakaś, to też być może jest jakiś pomysł.
zwłaszcza, że speech to speech, to jeszcze może powiem, co to w ogóle jest, to jest taka technologia, która nie polega na tym, że ja wpisuję tekst i algorytm ma wymyślić, jak ten głos wypowiedzieć, gdzie ma postawić akcenty, jaką emocję tu zastosować, tylko ja coś mówię.
Mówię to w taki sposób, jaki mi się wydaje, że jest okej i potem zmieniam barwę na barwę głosu kogoś innego.
No właśnie jakąś taką miłą załóżmy, bo i Level Labs przecież pozwala na wygenerowanie głosu takiego specjalnie dla mnie.
Można to zrobić w tym pakiecie darmowym. W związku z tym, jeżeli to ten speech to speech wyjdzie w języku polskim, będę mógł powiedzieć coś i to coś będzie powiedziane jakby dokładnie tymi samymi słowami, w tym samym tempie, z taką samą intonacją, z położeniem akcentów dokładnie w tych samych miejscach, w których ja je kładę.
Nawet to się będzie myliło w tych samych miejscach, w których ja się mylę.
Mam nadzieję przynajmniej, że nie będzie tutaj pomyłek dodatkowych.
Tego jeszcze nie wiem.
W każdym razie,
no to może być też jakiś pomysł dla ludzi, którzy właśnie mają wady wymowy.
A takich ludzi pewnie kilka, kilkoro jest i myślę, że może takich osób
przybywać właśnie z uwagi na to, że no, stety lub niestety, trudno to oceniać na razie,
będzie takich osób niewidomych, przynajmniej na razie tak to się zapowiada,
że będzie takich osób czysto niewidomych coraz mniej i coraz więcej będzie sprzężeń.
Przy czym dodać należy, że te spiczcy spicze mają zwyczaj śmiesznie reagować na jakieś inne dźwięki,
które są w otoczeniu, typu na przykład właśnie jakiś taki dźwięk klawiatury,
No to jest jakieś typy typy typy typy, no tam jakieś kawka śniadków, jakieś takie inne rzeczy, no to też potrafią wyjść.
Jakieś takie ssapanie umrzyka po prostu w ręce.
No to się zgadza nagle jest, no, to taka bardziej hipotetyczna…
Oczywiście wiadomo, że jeżeli ktoś ma takiego głos, którego, no którego niezbyt dobrze się słucha, chciałby zadbać o odbiorcę,
no to faktycznie ten spisz to spisz może przynieść dużo dobrego.
To słuchajcie, ja zaglądam teraz do komentarzy, bo mamy tu komentarz od Matta, wypowiedzi różne też jeszcze mamy do wyemitowania i pewnie zaraz do nich przejdziemy, ale tu jeszcze właśnie komentarz najpierw przeczytam, który napisał Matt.
Witam. Ostatni rok to AI. Chyba Piotrek prezentował dodatek do NVIDIA OpenAI.
Da się nim jakoś opisywać grafiki? Mi wciąż wyskakuje błąd. A może muszę coś zmienić w ustawieniach?
No cóż, czy jesteśmy w stanie jakoś tu się odnieść do tego?
Zależy jaki błąd, no.
No właśnie, zależy jaki błąd, więc tak ogólnie, jeśli chodzi, bo jak ten dodatek opisywałem, to faktycznie tam wtedy on był popsuty, teraz już popsuty nie jest, natomiast niektóre osoby mówią, że jeszcze im nie działa.
Mi już zaczął, więc tak ogólnie, co trzeba zrobić? No trzeba go zaktualizować, to po pierwsze. Po drugie, musimy chociaż raz sobie konto doładować, bo niby ten okres próbny jest, ale później też gdzieś się dowiedziałem, że ten okres próbny nie obejmuje GPT-4, czyli tego modelu, który do opisywania zdjęć jest.
potrzebne, więc no i tak musimy te 5 dolarów, tam minimalnie chyba jest kwota
plus VAT sobie wpłacić i później to wszystko powinno działać.
Gdyby ten dodatek OpenAI nie zadziałał, to jest drugi dodatek tylko do
opisywania zdjęć z TikTeka, bardzo podobna nazwa, ale to jest AI Content
Describer bodajże, chyba tak to się nazywało i ten dodatek, jeśli ten pierwszy
nie zadziałał, no to ten drugi powinien.
To w takim razie teraz może przejdźmy do kolejnej wypowiedzi i posłuchajmy co do powiedzenia ma nasz stały słuchacz, który niejednokrotnie w Tyflo Przeglądach się udziela i niejednokrotnie na antenie Tyflo Radia się pojawiał Wojciech Figiel.
Podsumowanie roku 2023 w takich kwestiach tyflo będzie bardzo trudne, ponieważ zdarzyło się bardzo, bardzo dużo rzeczy.
Z mojej perspektywy, i tu pewnie nie będę oryginalny, to te kwestie związane ze sztuczną inteligencją tak się wybijają,
w szczególności funkcja Be My AI i rozpoznawanie zdjęć.
Bardzo cieszę się, że mogłem i mogę z tego skorzystać,
ale też analizując dość szczegółowo to, w jaki sposób to się rozwija,
no to jednak widzę bardzo dużo ograniczeń tego narzędzia
i niestety te ciągłe halucynacje i po prostu okłamywanie nas
co do tego, co jest na zdjęciach, daje bardzo dużo do myślenia
i sprawia, że dla mnie osobiście to narzędzie jest bardzo ciekawe,
ale należy z niego korzystać w sposób bardzo ostrożny
i do tego bym wszystkich chyba zachęcał.
Pod koniec roku pojawił się też jeszcze jeden bardzo pozytywny element,
mianowicie chodzi o audiodeskrypcję w serwisie Netflix.
Do tej pory właściwie, gdy tylko włączaliśmy Netflixa
i chcieliśmy czegoś posłuchać, tudzież coś obejrzeć,
no to okazywało się, że ta audiodeskrypcja po prostu nie istnieje,
zwłaszcza to tak wyglądało w przypadku produkcji zagranicznych.
W przypadku produkcji polskich audiodeskrypcja była czy jest,
no ale niestety jej jakość, jeśli chodzi o taką warsztatową jakość tego,
jak skrypt został napisany, bo lektorzy to są często bardzo dobrzy,
natomiast jakość jej jest albo zła, albo wręcz tragiczna.
Natomiast teraz pojawiło się nowe zjawisko audiodeskrypcji syntezą mowy.
Ja przez dłuższy czas, nie wiem, może oni powiedzieli jakieś takie testy AB
i nie mieliśmy dostępu do tego, ale jakoś obrodziło pod koniec roku
i rzeczywiście kilka filmów czy seriali żeśmy obejrzeli
zarówno z udziałem Marka w charakterze audiodeskryptora, jak i Zofii.
To są dobre głosy, tego się dobrze słucha.
Jedyną wadą i coś, co gdybym Netflix poprawił, byłoby dobrze,
jest to, że niestety cała ścieżka jest wyciszana w momencie, kiedy jest audiodeskrypcja.
No tam oczywiście jest jakiś tam minimalny poziom dźwięku w tle,
żeby było cokolwiek słychać, ale dla mnie to jest irytujące,
że po prostu non-stop się wycisza i potem się odgłaśnie na sam koniec.
No ale nie mniej teraz z naszej perspektywy
utrzymywanie tej subskrypcji na Netflixa
w ogóle ma jakiś sens, tak?
No bo to nie jest tak, że chodzimy po tych filmach
i nagle okazuje się, że o, wreszcie coś jest,
ale w 95% przypadków niczego nie ma.
Takim rozczarowaniem na pewno, nie wiem czy rozczarowaniem, ale takim punktem, gdzie może więcej sobie obiecywałem,
było kupno tej przystawki telewizyjnej Apple’a, Apple TV.
No i Apple TV to jest rzeczywiście fajna rzecz, bo to się podłącza przez HDMI i to działa całkiem fajnie.
natomiast nie spodziewałem się tego, że po pierwsze, ten pilot będzie trudny w obsłudze,
on tam ma taki panel dotykowy i to, można to oczywiście wyłączyć,
ale wtedy jest mniej funkcjonalny ten pilot, no a po drugie, to nie spodziewałem się,
że mogą być aplikacje, które są w miarę nieźle obsługiwalne z poziomu iPhone’a czy iPad’a,
natomiast nie są w ogóle obsługiwalne po niewidomemu z poziomu Apple TV.
I taką aplikacją jest zdecydowanie UPC TV Go, która, tak jak mówię, świetnie, świetnie to może nie, ale dobrze się obsługuje w miarę z poziomu chociażby iPhona, natomiast z poziomu Apple TV jest ona po prostu kompletnie nieobsługiwalna, a szkoda, prawda, no bo to to się podłącza do telewizora jednak w sposób bardziej naturalny niż cokolwiek innego.
Także tu jest jeszcze bardzo dużo do zrobienia, myślę.
Chociaż też jest bardzo ciekawe to, że rzeczywiście te filmy na Netflixie
są bardzo dobrze zsynchronizowane.
Te audiodeskrypcje oczywiście się włącza.
Co ciekawe, ostatnio oglądaliśmy też serial przez TVP VOD.
Nie, przez właśnie UPC TV Go oglądaliśmy serial na jedynce.
No i rzeczywiście tam jest w ustawieniach, włącza automatycznie napisy,
tłumacza PJM i audiodeskrypcję, ja to sobie włączyłem, ale tak bez raczej większych
nadziei, że tutaj coś się wydarzy. Natomiast okazało się, że nie,
że rzeczywiście się wydarzyło i że ta audiodeskrypcja bez żadnych
dodatkowych wysiłków czy starań po mojej stronie zadziałała.
Taki w dalszym ciągu niedosyt, który mam po tym roku, no i też może zmiana,
to jest w zakresie urządzeń brailowskich.
No, niestety, akurat tak się złożyło,
że i moje, i Kamili urządzenia mieliśmy to samo urządzenie,
czyli Vario Ultra 20, i jeszcze z firmy Baum.
One na dwa różne sposoby się zepsuły.
To znaczy u Kamili padała po prostu bateria,
co jest, myślę, w miarę naturalne po sześciu latach
używania intensywnego.
U mnie też to nie działa niestety.
No i teraz postawię pytanie, czy to właściwie mamy naprawiać,
czy trzeba by było złożyć wniosek o dofinansowanie czegoś innego.
No, ja jestem w tej komfortowej sytuacji, że fantastyczna firma, w której pracuję,
czyli Uniwersytet Warszawski ma taki sprzęt i mogła mnie praktycznie od razu wesprzeć,
żebym mógł dalej funkcjonować, chociażby w ramach zajęć dydaktycznych.
No ale pytanie, co dalej? Chociaż też wydaje się, że właśnie to kupowanie tych notatników brailowskich przez osoby indywidualne średnio ma sens po prostu,
że to chyba powinno być jednak zorganizowane w postaci wypożyczalni. Ja nie wiem, ja nie słyszałem jeszcze do końca, co może być też kolejnym rozczarowaniem tego roku,
jak z tymi wypożyczalniami jest, czy to w ogóle można coś wypożyczyć, co tam jest z tymi takimi publicznymi,
ale to chyba byłby dobry kierunek, bo jednak te technologie się bardzo zmieniają i myślę, że dofinansowanie osobom indywidualnym
to nie jest chyba taki dobry pomysł jak po prostu wypożyczanie tego typu sprzętów.
No i może na koniec jeszcze taka dla mnie może duża transformacja to się stało w związku z tym,
że otrzymałem dostęp do nowej sali, w której wiecznie nic nie działa,
ale jeśli tam działa coś, paradoksalnie działało częściej, gdy ona była jeszcze nieukończona,
teraz działa o wiele rzadziej, no to można było bardzo dużo rzeczy zrobić.
Rzeczywiście bardzo wiele rzeczy się nauczyłem, też w pełni przeszedłem na pracę na Maku.
i oprócz edycji tekstu, to jestem z tego zadowolony, można powiedzieć.
No i niestety edycja tekstu jest ważna dla mnie w pracy, więc to jest duży minus.
Natomiast tak, co do zasady, to jestem bardzo zadowolony z pracy na Macu.
No i w szczególności doceniam te jego możliwości w zakresie różnych takich specjalistycznych zastosowań.
Kupiłem sobie tego audio hijacka i to był jeden z lepszych zakupów w ogóle.
Podobnie świetnym zakupem był McWhisper, rewelacyjne dwa narzędzia.
Zamierzałem się na Reapera, ale powiem szczerze, że nie miałem cierpliwości, żeby się tego nauczyć.
No ale takim moim jakimś sukcesem dydaktycznym, osobistym było to, że opanowałem te narzędzia
i udało mi się na wiosnę przeprowadzić kilka takich lekcji, no właśnie hybrydowych,
takich lekcji wirtualnych, hybrydowych,
które polegały na tym, że miałem otwarte trzy instancje Zooma
i jedna instancja Zooma to był floor,
a pozostałe to było tłumaczenie na język polski
i na język hiszpański, bo takie zajęcia tutaj wchodziły w grę.
No i zapraszałem gości hiszpańskojęzycznych,
którzy nie znali języka polskiego,
w związku z tym musieli się ustawić na to tłumaczenie na hiszpański,
Chyba, że ktoś zabierał głos po hiszpańsku,
wtedy oni otrzymywali automatycznie dźwięk z flora.
No i rzeczywiście moje studentki…
I student, tak? Nie, studenci. Dwóch było.
W każdej grupie było po jednym. Po jednym było.
W facecie.
Oni mogli, po prostu siedząc w sali, w kabinach, tłumaczyć,
w ogóle nie niepokojeni całą tą techniczną zagwozdką, jaką ja miałem.
No a osoby, które się temu przesłuchiwały,
to byłem ja, ale też były osoby na Zoomie, które przychodziły.
Mieliśmy też takie tyfla tematy o życiu niewidomych w Hiszpanii.
Było takie spotkanie.
Potem było jeszcze jedno spotkanie,
już teraz nie pamiętam, coś o Meksyku na pewno było.
No i po prostu przychodziły osoby,
które albo znały, albo nie język hiszpański,
ale mogły to śledzić, mogły się temu przysłuchiwać
i brać udział w takiej konferencji.
No i rzeczywiście to jest fascynujące,
że to się da zrobić.
Z kolei w tym semestrze robię wykłady.
gdzie też używam zaawansowanych, różnych technologii,
no bo z jednej strony mamy podpięcie się do mikrofonów w sali,
to też udało mi się wywalczyć, żeby to w ogóle ktoś mi powiedział,
że taka jest możliwość. Startowaliśmy od nie da się,
ale zakończyliśmy z sukcesem i to jest, no, tam jakieś przestery są,
ale to już nie czepiajmy się szczegółów, no ale to już właśnie jest wideo,
tak? No i muszę wam powiedzieć, że to jest też bardzo ciekawe, ponieważ ja podłączyłem
iPhona z kamerą przez Continuity, tę opcję na Macu, no i ja im zawsze mówię,
słuchajcie, no to wy tutaj odpowiadacie za to, żeby mnie było widać na ekranie.
Są osoby na Zoomie, proszę, jeżeli mnie nie widać, nie słychać,
to musicie mi to mówić. No i wyobraźcie sobie, że oni po prostu tego nie mówią.
I ja potem odtwarzam te filmy.
W stanie jestem jeszcze zobaczyć, jak to wygląda mniej więcej.
No i okazuje się, że po prostu często znikam z tej kamery,
bo ktoś się nie mówił.
Tak że… No, ale trudno.
Taka jest jakość, na jaką wszyscy pracujemy.
Jest to taka kolaboratywna sprawa.
Aha, no i byłbym zapomniał jeszcze o tym,
co dla mnie osobiście jest też bardzo ważne
i jest ogromnym sukcesem.
Poniekąd zaczęło się to już właściwie w ubiegłym roku, ale rozbuchaliśmy sprawę w tym roku, czyli aplikacja Zuzanka,
gdzie kończymy z sytuacją, w której mamy rozpoznawanie dat ważności, kodów kreskowych i kodów QR.
No i moja partnerka jest raczej osobą, która jest sceptyczna wobec różnych innowacji i nie jest taka chętna, żeby wszystkiego od razu próbować.
jak widzę ją, że korzysta z tego w kuchni,
no to wydaje mi się, że to nie jest zły produkt.
Tak że cieszę się, że to się udało zrobić.
Wciąż szukamy jakichś możliwości, żeby to dalej rozwijać.
Przede wszystkim chodzi oczywiście o możliwości finansowe.
No ale jesteśmy w pełni tacy zobowiązani do tego,
żeby to jakoś rozwijać i starać się o ten projekt walczyć,
bo on jest po prostu bardzo fajny.
I mnie on na pewno, czy nam, on na pewno życie bardzo ułatwia.
I mam nadzieję, że w tym roku uda się jeszcze coś nowego zrobić
od tych pomysłów na wykorzystanie sztucznej inteligencji.
No i tej iteracji sztucznej inteligencji również jest bardzo dużo.
No i tak jakoś ładnie się spięło klamrą z początkiem wiadomości.
Dzięki wielkie za ten cały rok pracy waszej.
w Tyflo-podcaście, w Tyflo-przeglądach.
No i to jest główne dla mnie źródło w ogóle wiedzy
na wiele tematów.
Chyba wszystkie, o których tutaj
mówiłem w czasie tej już przydługiej wiadomości.
Także trzymam kciuki za kolejny rok
i kolejne lata współpracy.
Współpracy, bo razem coś budujemy
i to jest bardzo takie pozytywne, myślę,
w dzisiejszych czasach, że tak jest.
Oczywiście, że tak, a kolejny Tyflo Przegląd już jutro, więc bardzo serdecznie zapraszamy i znowu będziemy budować.
A tymczasem mamy pytanie od naszej słuchaczki Bożeny, która napisała na Facebooku.
Witam, chciałabym bezpłatną aplikację do odczytywania banknotów. Pozdrawiam. No to co byście polecili?
Android czy iOS?
No właśnie. Jeśli Android, no to mi się bardzo fajnie sprawdza aplikacja
Recognize Banknot czy też rozpoznawanie banknotów.
Co prawda aplikacja jest bardzo mocno,
nie chciałabym powiedzieć prymitywna, ale taka no,
że się po prostu ją odpala i ona robi co ma robić i koniec.
Wolce są wyłącznie polskie, odczytywane jest, no w sensie
Puszczane są nagrane sample jakimś Microsoft Adamem, czy co to tam jest, są wibracje, no i w zasadzie tyle, natomiast no i oś się, no to się nie znam.
Seeing Assistant Home, chyba rozpoznaje z tego co pamiętam złotówki za darmo, także warto zobaczyć, bo aplikacja ta ma wiele różnych innych ciekawych funkcji i przydatnych, także no, warto się SAH jak najbardziej zainteresować.
No i tyle chyba jeżeli chodzi o darmowe. No właśnie, jak już tak jesteśmy przy aplikacjach, to jakie aplikacje kojarzycie z 2.23., bo mi pierwsze co przyszło do głowy i co, oprócz oczywiście tych nawigacyjnych rzeczy, o których mówiliśmy,
No to pierwsze, co mi przyszło do głowy i co zresztą zobaczyłem w notatkach, to jest Time for Buzz, czyli aplikacja, która chyba jest, chyba pierwszą aplikacją na iOS-a, która jest taka w miarę sensowna pod takim względem, że da się po prostu sprawdzić rozkład z danego przystanku, rozkład konkretnej linii i to wszystko działa.
Aha, bo do tej pory z tego, co pamiętam, no to był jakiś mówid, mówid koniecznie
chciał wiedzieć, gdzie jedziemy i jeszcze kilka innych, chociaż w sumie, w sumie to
chyba nawet nie kilka innych, mówid. I tam, aha, i tam, gdzie chyba to działo,
było coś jeszcze chyba.
Majbas.
Majbas.
Majbas, w niektórych miastach.
Ale to w niektórych miastach, bo to było chyba…
To informatycznie w niektórych miastach tylko.
Tak, tylko, że MyBus to działał w tych miastach, które miały systemy pasażerskie, chyba kolej konkretnej firmy.
Tak, były takie bardzo wyrwane, nie miały…
Oni chcieliby mieć najlepiej wszędzie, więc będą nożyli do tego, żeby mieć jak najwięcej tych miast, jakby tu nie ma takiego ograniczenia z góry narzuconego,
że jeżeli miasto ma z innej firmy zapowiedzi zrobione, no to sorry.
No i ten TimeForBus jest rzeczywiście aplikacją robioną we współpracy z osobami niewidomymi.
Mnie się szczerze mówiąc ten interfejs średnio podoba, natomiast dobrze, że w ogóle jest cokolwiek,
aczkolwiek wolę interfejs MMPK na Android, dlatego, że tam wchodzę w MMPK, mam na dzień dobry rozkład według linii,
rozkład z przystanku, ewentualnie jakieś rowery, mapy, coś tam jeszcze, zresztą to mogę w menu wyłączyć.
Ja w tym momencie mam chyba dwie czy trzy opcje w menu.
Ulubiony rozkład linii, rozkład z przystanku, wszystko.
Tak, ja to samo.
Wchodzę, rozkład według przystanku, to ma najpierw ulubione, potem najbliższe i potem całą resztę, plus wyszukiwarka.
I to jest jakby na jednym ekranie to, co w Time For Bus jest na kilku ekranach.
Jedyna waga, że nie ma powiadomień.
Tak, rozkład według linii, no to znowu, najpierw linie takie powiedzmy ulubione, czy w zasadzie ostatnio wpisywane, potem wszystkie, bez podziału co prawda na tramwajowe, autobusowe, no to może być jakiś o tyle problem, że jeżeli jadę do jakiegoś nieznanego mi miejsca, to w sumie nie wiem, czy ja patrzę tramwaje, czy autobusy, o ile nie jest to wyraźnie zaznaczone.
Natomiast, jakby pod względem wyglądu tej aplikacji, to ja bym bardzo chciał, żeby TimeForBus tak wyglądał.
Oczywiście TimeForBus ma kilka takich rzeczy, których MMPK nie ma, nie miał i nie wiem, czy będzie miał.
Bo z tego, co wiem kilka osób, to gdzieś tam sugerowało jakoś nie bardzo.
W każdym razie, no są powiadomienia o następnym przystanku.
I to już działa naprawdę fajnie, bo mogę sobie ustawić to, jak chcę, czyli mówi następny przystanek, jaki będzie następny przystanek.
Albo, że następny przystanek taki, ostatni przystanek, do którego jadę, będzie o godzinie takiej i takiej.
Na przykład w momencie, gdy nie wiem, spieszę się na pociąg i się zastanawiam, czy mam się na niego śpieszyć, czy już nie mam się na niego śpieszyć na przykład, bo są korki i przyjedzie później.
Więc to są tego typu rzeczy, które się naprawdę przydają i to rzeczywiście mi nieraz ułatwia życie.
Poza tym, gdy się jedzie do innego miasta, nie trzeba tego miasta jakby zmieniać, ponieważ aplikacja wykrywa, gdzie jesteśmy i na podstawie naszej lokalizacji ładnie sobie to miasto zmienia.
Trzeba pamiętać, że MMPK to była aplikacja, która przeniosła się z Symbiana, więc ja ją miałem w 2007, czy 2006 roku, więc aplikacja ma lat ile?
18.
Ładnych kilkanaście, bo już jest pełnoletnia, natomiast Time for Buzz chyba wyszło w tamtym roku, wcześniej to była jakaś też aplikacja, no to jest nowa aplikacja, więc to dajmy czas.
Dajmy czas i być może, być może, no to są jakieś takie choroby wieku dziecięcego, no liczę na to, że mimo wszystko trochę tak, ale zobaczymy.
W każdym razie, w każdym razie, no jest ta aplikacja, miło, że można wywieźć np. numer boczny autobusu, w MMPK tego nie ma.
Podobno trwa walka o to, żeby aplikacja jakoś tam oznajmiała przyjazdy autobusów na dany przystanek, czyli stoję na przystanku i na przykład dowiaduję się, że za chwilkę przyjedzie mój autobus,
Przy tym jakie sobie autobusy ustawię, bo jeżeli na przykład mogę jechać czterem autobusami i w sumie wszystko jedno, którym pojadę, no to mogę sobie wtedy ustawić to wszystko, znaczy będę chyba mógł, mam nadzieję, że będę mógł.
Także zobaczymy, jak to będzie wyglądało, kierunki do przystanków, w których po prostu, jeżeli telefon ustawię w kierunku, jakby przód telefonu ustawię w kierunku przystanku, to chyba mam wibrację z tego, co pamiętam, która mi mówi, że przystanek jest w tamtą stronę.
Co ty mówisz, ale da się to jakoś numerami, bo ja szczerze mówiąc, bo to im to bardzo się bało, że zniechęciłam, bo po prostu, no nie jest, jakoś nie wiem, w ogóle nie umiał mi wyliczyć i teraz kazał mi pół godziny iść z Buta, z mojej pięknej wsi, zamiast kazać mi poczekać na autobus, natomiast…
Nie, mi nie chodzi o ustawianie teraz automatyczne, tylko o kierunek do przystanku.
Ja wiem, tylko że po prostu mówię background, że się zniechęciłam, dlatego nie wiem i czy to jest tak, że nie wiem, wybieram sobie numer tam coś tam, coś tam sześć, przystanek numer sześć i on, mogę sobie tak trybem powiedzmy takiego kompasu iść w stronę tego przystanku?
Ja szczerze mówiąc, korzystałem z tego chyba raz tylko,
bo ostatnio jakoś tak się zdarzyło, że mniej podróżuję niż kiedyś,
no pewnie ze względu na, wiadomo, na warunki.
No i, no i tak jakoś się,
i z tego co pamiętam, to to jakoś działało,
natomiast nie pamiętam dokładnie jak,
nie pamiętam szczegółów, ale można sprawdzić, jak to działa.
Nie, nie, nie, czekajcie. Time-4Bus ogólnie,
bo na iPhone’ie i do tego pewnie zaraz dojdziemy,
to jest w tym momencie jedna z sensowniejszych aplikacji w ogóle tego typu
jeśli nie najsensowniejsza tam gdzie ona jest.
Mimo jej pewnych niewygodnych rzeczy to
pewne inne są po prostu mega pod ręką i to mi przynajmniej na przykład spokojnie kompensuje.
Bo owszem jest Movid
który jest komercyjny, który jest bardziej jakby znany i teoretycznie wszędzie wejdę
we wszystko, ale w praktyce czasami wygodniejszy jest ten widok Time-4 Busa
do na przykład sprawdzania sobie tych rozkładów czy coś tam.
Natomiast faktycznie Time-4 Bus źle
źle oblicza trasę.
No tam problem Comi Voyager’a to
deweloperom był obcy i mi się już też nieraz zdarzyło, że w imię
w imię tego, że w sumie musiałbyś przejść 10 metrów na inny przystanek
to on mi wolał zrobić trasę,
bo było tak,
autobus powiedzmy 17.40
na miejscu przesiadki
jestem 17.49
i następny autobus mam
o 17.50
z tego przystanku
jakiś tam, on mi nie jest zupełnie po drodze
ale dwa przystanki mógłbym nim podjechać spokojnie
tylko po to żeby mój docelowy
był na 18.06
czyli tu jest 10 minut, tu jest, nie wiem, 6 minut, to on bierze pełny czas trasy.
W rezultacie co się dzieje?
Ano wysiadam sobie się na 140 i według Time4Bus lepiej jest mi się przejść 15 minut,
odpowiednich tych dwóch przystanków, niż czekać na ten,
nieważne, że 15 minut, to jest mapowe 15 minut, czyli jeden koma tam 6 kilometra.
to ponad dwa przystanki.
Ja bym chciał ująć temat jeszcze trochę z
innej strony, że jestem pod ogromnym
wrażeniem tego ilu
mamy utalentowanych twórców aplikacji
i ile wypuściliśmy fajnych produktów
przydatnych osobom z dysfunkcją wzroku
w Polsce, bo
Time for Buzz to na razie jest kwestia
lokalna, więc jakby
w tej kategorii zostawmy oczywiście na
boku, bo samo osiągnięcie na skalę
naszą narodową jest fenomenalne i
ale rozumiem, że Time for Buzz jest w
polskiej produkcji?
Tak.
Tak, tak.
Oczywiście, bo tam nie ma żadnego kraju niż Polska.
Deweloper z Warszawy, z tego co kojarzę.
A to widzisz, prawda, to osobiście nie miałem takiej pewności właśnie.
No mówid polski nie jest, siłą rzeczy.
Nie, mówid nie, ale tutaj Roman wyszukał roczeń dewelopera, który tworzył coś tam,
tak po prostu, jakiś system, to jest ktoś, kto chyba pracował, czy w jakiś sposób się udziela
przy jakiejś firmie właśnie od tych informacji pasażerskich.
No i się udało taki deal ugadać, że ta osoba rozwija właśnie dostępność też i się tej dostępności od nas troszkę uczy.
No i może kiedyś się to rozszerzy, ale to nawet nie o to chodzi, bo aplikacja jest fenomenalna.
Natomiast Zuzanka, tu już Wojtek wspomniał, to jest też na moje wspomnienie roku 2023, chociaż ona z tego co pamiętam pierwsza jej wersja się ukazała jakoś na święta 22, tak oficjalnie.
I to, jakim echem się rozniosło poza granicy, to Wojtek najlepiej też wie.
Ja też trochę byłem przy tym obecny, bo robiłem jakiś research w podcastach,
jak tam produkt się przyjmuje.
I rzeczywiście już teraz jest to marka gdzieś tam wszystkim znana, raczej w większości
niewidomych, którzy się interesują jakąś technologią, od Apple Visa, począwszy przez
przeróżne narodowe podcasty tak naprawdę w wielu krajach Europy i świata.
Ale też Seeing Assistant, czyli cała robota jaką robi Transition, od Seeing Assistantów, Move’ów, Home’ów, przez teraz Echo Visy, przecież Echo Visy to jest chyba też ten rok jakoś, prawda?
To chyba trudno powiedzieć, bo sam projekt Echo Vis to chyba z 10 lat już ma.
To prawda, ale wypuszczenie tych aplikacji, to że one wyszły w końcu.
Tak, ta aplikacja jest chyba z 2023, to znaczy, tak jak Sync Assistant Home jest taki rzeczywiście fajny zgrabny, tak do Sync Assistant Move’a mam dość dużo, ale mimo tego, że sam używam tej aplikacji jako chyba w tej momencie podstawowej,
bo no uważam, że program, który jest dedykowany nie tylko niewidomym, którzy mają, to znaczy inaczej, no punkt wejścia, jak to się mówi do tej aplikacji, jest straszliwie wysoki i na przykład na Androida zdaje się, że do tej pory aplikacja nie ma w ogóle podręcznika.
Jeśli jest inaczej, to mnie poprawcie, ale muszę to aż sprawdzić. Ale wydaje mi się, że nie ma podręcznika do tej pory do wersji androidowej, a podręcznik jest w zasadzie konieczny, żeby na przykład zrozumieć komunikat, że jest pobranych ileś kafelków.
To są kafelki, tak? Kto jakby zna aplikację tę wie. I tam jest ileś takich różnych komunikatów, określeń, jakichś różnych rzeczy, które naprawdę dla użytkownika, który dopiero zaczyna pracę z programem, są absolutnie niezrozumiałe.
Profile, których mogło być kilka na start i które mogłyby naprawdę ułatwić pracę z programem, żeby nie od razu użytkownik rzucał się na głęboką wodę i promień alarmu, promień monitorowania, promień czegoś ustawia, bo jest to ustawione po prostu źle w większości przypadków.
To gdyby były powiedzmy 2 czy 3 profile jakieś takie domyślne, no to moim zdaniem działałoby to dużo lepiej.
No i nie wiem jak teraz, wiem, że będę to trudno powtarzał do znudzenia, jak byłem w gronie beta testerów w tej aplikacji,
to niestety prawie nikt, włącznie z beta testerami, nie zwraca kompletnie uwagi na to, żeby ta aplikacja była prosta dla początkujących użytkowników, tam wszyscy cisnęli na to, żeby dodawać kolejne funkcje, a interfejs, oj, tam zrobi się potem, jak już wszystko wprowadzimy.
No tylko do tej pory wszystko nie zostało wprowadzone, w związku z powyższym…
Trochę się dziwi, bo ludzie, w cudzysłowie, sprawni, potrzebują narzędzia, a Lodestone gasł w oczach.
No tak, tylko że aplikacja jeżeli będzie robiona dla garstki ludzi, no trudno żeby garstka ludzi, oj coś mi się dzieje dziwnego, nie wiem czemu, ale garstka ludzi nie utrzyma aplikacji, tak?
Więc tutaj aplikacja będzie, po pierwsze, musiała być dodatkowo wspierana przez państwo i w momencie, gdy państwo jej nie wspiera, a często jej nie wspiera, aplikacja stoi.
Znaczy rozwój aplikacji stoi.
Tak, to prawda. Próbowaliśmy troszkę sytuacji zaradzić tworząc podcast. Miejmy nadzieję, że chociaż trochę on pomógł. Zresztą polecamy podcast o Seeing Assistant, mówię, długa to opowieść,
ale myślę, że warto jej wysłuchać, wywiad mój rzeka poniekąd ze Sławkiem Strugarkiem z Transition Technologies.
Natomiast właśnie takie produkty jak Zuzanka czy Seeing Assistant, w ogóle rzeczy Transition są dość rozpoznawalne za granicą,
a nawet w tym tygodniu ktoś tu w Wiedniu mnie zapytał, o Seeing Assistant mówa.
Więc miło słyszeć, za każdym razem jest tak ciepło na sercu, kiedy ktoś pyta właśnie o Zuzankę, o produkty Transition,
O Eltena, o co my tu jeszcze, no o to może niewiele osób pyta, ale no Arek też Świętnicki pokazał już nie raz co potrafi jakimiś swoimi drobniejszymi narzędziami i oczywiście współpracą przy Jeszło czy przy ZDSR-ze.
Który stopniowo też się zyskuje na popularności.
Tak, to prawda.
No Mikołaj teraz tworzy swoje rzeczy na Maka, różne takie te Hammerspuny
czy z GPT czy inne. Ty Piotrze zresztą też.
Ja też sobie tworzę wtyczki DNA, w sensie na razie jedną, ale jeszcze nie wydałam.
Tak.
Jeszcze nie wydaliśmy.
Wiele jeszcze osób, które pewnie gdzieś mi umknęły.
Grzegorz Złotowicz, który robi różne fantastyczne rzeczy i to jest fajnie,
zwłaszcza jak to mówię, gdzieś potem obcy, obcy ludzie, bo my się tu znamy,
My tutaj kojarzymy te nasze produkty i czasem tak się zasiedzimy, ale jak ktoś nagle z zewnątrz zapyta, hej, a co tam w Zuzance, albo a co, jak się robi, coś tam w Seeing Assistant mówię, to kurcze, tak fajnie, fajne bardzo uczucie, fajną robotę robicie, fajnie, że jesteście z nami.
I oby tak dalej. Z takich aplikacji, które mi jeszcze pomogły, to RSScan. Ona zdaje się nie korzystać z jakiejś polskiej wyszukiwarki produktów.
Zaraz powiem o co chodzi w ogóle w tej aplikacji, bo aplikacja Rescan to jest aplikacja, która skanuje kody kreskowe i wyszukuje w jakichś bazach, co to jest za produkt i w związku z tym…
To jest Bing, Tymku, dokładnie. To jest wyszukiwarka Bing.
Aha, okej. W każdym razie z takich ciekawostek na temat tej aplikacji, tam ktoś w ogóle wgrał, dokładnie ten sam dźwięk, którym posługują się te skanery sklepowe, przynajmniej u nas.
Jak kasjer czy kasjerka nalicza sobie w kasie, to jest dokładnie ten sam dźwięk.
Kody kreskowe mają to do siebie, że trudno jest o taką pomyłkę, że powiesz, że to jest 300 gramów albo 250.
To z reguły jeden kod jest do konkretnego produktu przyporządkowany, który ma taki, a taki smak i często gdy skanuje jakieś produkty spożywcze, nie tylko spożywcze, czy kosmetyki, skanuje mi jakieś rzeczy w rodzaju jakichś dat, jakichś składników, sposobów przygotowania,
Jakiś ostrzeżeń producenta, czegoś jeszcze, ale co to jest, to ja się dowiem po czasie długim.
Natomiast jak zeskanuję kod kreskowy, to to jest kod kreskowy i po prostu to jest konkretny produkt.
Potem sobie ewentualnie całą resztę można czytać.
Wiesz co, no to zależy czy wiem, gdzie jest kod kreskowy. Jak wiem, no to nieraz dość szybko.
Jak nie wiem, no to muszę sprawdzić, gdzie ten kod kreskowy się znajduje, tak?
Natomiast jeżeli kupuję kilka rzeczy, dość często które więknie ten kod się znajduje, tylko powiedzmy, nie wiem, mam przyprawę taką, taką, taką i taką, no to wiedząc mniej więcej to, no to jestem w stanie to w miarę posegregować.
to czasami rzeczywiście szybciej jest to zrobić lookoutem, czasami nie, ale ten RSCAN przydał mi się właśnie w kilku takich sytuacjach, gdzie nie sposób było aplikacją do OCR-a,
zczytać tekstu w jakimś sensownym czasie, bo właśnie albo zczytywał mi milion różnych informacji i fakt, że nie było wśród nich tej mojej upragnionej, czyli czym to w ogóle jest, to ja się dowiadywałem po pół minuty, kiedy on skończył czytać.
A przy okazji jeszcze trzy razy zaczynał czytać od początku, bo sobie zrobił nowe zdjęcie i coś mu się tam poprawiło i wtedy zaczyna jeszcze raz, więc czasami to trwa jeszcze dłużej.
No i w momencie, gdy zrobimy zakupy dla całej rodziny, zakupy za kilkaset złotych, przychodzi nam sześć worków różnych rzeczy, to ja niekoniecznie chciałbym spędzić pół godziny na sortowaniu tych rzeczy.
Także czasami ten RSK nie jest rzeczywiście przydatny.
I się zastanawiam, czy coś jeszcze jest takich aplikacji, o których nie będziemy mówić, albo nie mówiliśmy, ale które mi się życzyliście.
Dla mnie, to ja mogę powiedzieć, dla mnie na przykład rewolucją wręcz, jeżeli chodzi o taki komfort pracy typowo administracyjnej i od czasu do czasu,
No to jest ta aplikacja ISH, która jest na iOS-a. Ja naprawdę bardzo długo szukałem.
To jest Linux, który sobie możesz odpalić z poziomu iOS-a.
To jest bodajże Alpine Linux, taki, taki malutki, taka malutka dystrybucja.
Natomiast ja wykorzystuję to narzędzie do jednej podstawowej rzeczy.
Mianowicie do tego, żeby z poziomu tego Linuxa połączyć się zdalnie z innym serwerem za pomocą SSH, czyli po prostu sterować tym serwerem zdalnie, administrować nim, wydawać jakieś tam konkretne komendy.
Ja długo, naprawdę długo szukałem jakiegoś dostępnego terminala na IOS-a i no ciężko było cokolwiek znaleźć sensownego,
a po prostu ISH działa naprawdę bardzo fajnie, obsługuje też strzałki, czyli można sobie bez problemu jakieś tam polecenie wywołać z historii,
Co już niejednokrotnie, zwłaszcza gdzieś tam w trasie, mi się przydało, bo jak nie pamiętałem czegoś, to po prostu wystarczyło się cofnąć o kilka linijek w górę i jeżeli to było jakieś polecenie, które musiałem wykonać po raz kolejny, to już wiedziałem, co tam chcę zrobić.
Ale oprócz tego też ISH, ten terminal wspiera pisanie Braille’em, więc te polecenia to naprawdę można całkiem szybko i sprawnie wydawać.
No ja tydzień temu mogłem się popisać znajomością Isha, znaczy wiesz, wiedziałem, że taka aplikacja istnieje i właśnie z dostępem SSH, bo w ramach tutaj labów Hackerspace w Wiedniu wybrałem się i sterowaliśmy jako grupa Raspberry Piem i po prostu bawiliśmy się tak trochę, żeby zobaczyć jakie to ma możliwości,
na ile jesteśmy sami w stanie obsługiwać takie początki Linuxa,
bo na razie nie wiadomo jeszcze, czy do czegoś to będzie zmierzało jako projekt,
ale na razie tak się bawimy trochę i eksperymentujemy sobie.
No i chodziło, naszym celem na to spotkanie było ustanowić połączenie po SSH z malinką
i jakieś tam komendy wydawać, więc się bawiliśmy w najlepsze,
zmuszając komputerek do wypowiadania różnych kwestii syntezami.
Nawigowanie po Emacspeak’u, co było w ogóle przekomiczne, bo przesuwając tym suwakiem od strzałek, który jest w ISH, przesuwaliśmy naprawdę strzałkami po interfejsie Emacspeak’a, więc było słychać od razu na komputerze reakcję na to i to, gdzie się aktualnie w tym Emacspeak’u znajdujemy.
Więc było to prawie jak mieć NVIDIA Remote’a tylko w trochę innym trybie.
Wiem, że na Androidzie podobną rolę pełni Thermux, który też jakoś dostępny rzekomo jest.
No ale zdecydowaliśmy się właśnie też za moją sugestią na ISH na iPhone’ie i myślę, że decyzji nie żałujemy.
I jeszcze a propos aplikacji to warto myślę wspomnieć o takich smutnych wieści, że Voice Dream Reader przyszedł na model subskrypcyjny.
I o ile ponoć osoby, której na razie tak jakoś sprawa ucichła, osoby, które miały już zakupioną pełną wersję, no nie zostaną jakoś tam dotknięte, to jeżeli ktoś nowy by chciał sobie zakupić tego VoiceDreama, no to już musi wejść w ten model subskrypcyjny.
Stało się to po przejęciu przez nowych właścicieli właśnie aplikacji od jej poprzedniego autora, od Winstona Chena, no i teraz Applause Group rozwija dalej.
Jakieś tam aktualizacje wychodzą, za wiele, a nie wiadomo co w nich wchodzi, bo cały czas jest bardzo ogólnikowy spis zmian. Natomiast taka sytuacja się wydarzyła i to strasznie szkoda.
A to ja teraz trochę będę jak słuchać jakiejś, czym teraz czytać książki na iOSie? Speech Central może?
Chyba Speech Central, teraz jest beta testowana Speech Centrala, aktualnie, no na moje to tam wiele się jakoś nie wydarzyło, autor twierdzi, że to jest rewolucyjna zmiana, tylu funkcji to jeszcze żadna aplikacja nie wprowadziła, no na moje ja nie widzę, żeby ten interfejs, jeżeli coś to się stało jeszcze bardziej dla mnie skomplikowane, muszę zajrzeć tam jeszcze.
Autor ma dość specyficzny sposób ogłaszania różnych rzeczy, więc to też trzeba brać na to poprawkę.
Marketingowa jego strategia jest, co by nie powiedzieć, no…
Ciekawe, on jako pierwszy zresztą gdzieś tą informację o tym przejęciu jakoś przekazał.
Czy o subskrypcji, bo przejęcie to chyba się dowiedzieliśmy później.
No ale jest jeszcze Easy Leader Dolfinowski.
Też niektórzy z tego korzystają.
Jeśli ktoś korzysta, korzystał właściwie z Voicedream’a do audiobooków,
no to do tego są dedykowane aplikacje, które z tym sobie radzą lepiej.
na przykład darmowy Book Player i to do audiobooków myślę, że ja bym tą aplikację polecił.
Okej, no to w takim razie skoro my się nagadaliśmy, to może któreś z wypowiedzi od słuchaczy.
Tak, to teraz będzie dla odmiany coś krótszego, bo na razie to były takie dość długie wypowiedzi,
a teraz krótko o swoim podsumowaniu 2023 roku Adrian Wyka.
Cześć drodzy słuchacze Tyflo Podcastu, Adrian Wyka z tej strony.
Dla mnie w roku 2023 chyba największym osiągnięciem i takim niesamowitym wydarzeniem było wprowadzenie sztucznej inteligencji do naszych rozwiązań technologicznych.
Każdy z Was pewnie już słyszał o Be My Eyes i AI, sztucznej inteligencji, która pozwala nam zapoznawać się z tym, co znajduje się na obrazach.
Dla mnie to było coś niesamowitego, kiedy miałem okazję zetknąć się z tym rozwiązaniem po raz pierwszy.
To było w którymś zagranicznym podcaście, gdzie były prezentowane i szczerze mówiąc nie dowierzałem, że to może działać tak świetnie.
W momencie, kiedy sam na swój telefon otrzymałem możliwość skorzystania z tej technologii, spowodowało to, że moje życie stało się łatwiejsze.
Wrzucamy jakiekolwiek zdjęcie do Be My Eyes, rozpoznajemy je, a następnie sztuczna inteligencja jest nam w stanie precyzyjnie odpowiadać na nasze pytania, możemy się dopytywać o każdy szczegół na zdjęciu, na obrazie, to jest przeskok niesamowity w technologii rozpoznawania obrazu.
Samo zainteresowanie się Be My Eyes i sztuczną inteligencją poprowadziło mnie jeszcze dalej, zainteresowaniem się w ogóle jak działa czad GPT-4, na czym to wszystko się opiera
i odkąd mam styczność z tym narzędziem, moje życie naprawdę stało się dużo łatwiejsze, także 2023 rok minął pod znakiem sztucznej inteligencji
i chyba nie przesadzę, jeżeli powiem, że to było wydarzenie, które zmieniło moje życie.
Zmieniło je dlatego, że jest to narzędzie, które usprawnia mi bardzo wiele rzeczy.
Jestem w stanie dużo szybciej różne rzeczy wykonywać, dużo sprawniej.
Nie poświęcam na nie tyle czasu, ile do tej pory to wszystko mi zajmowało przy użyciu standardowych narzędzi.
Na ten nadchodzący rok 2024 chciałbym Wam życzyć wszystkiego, wszystkiego co dobre.
Dużo dostępności w naszym życiu, dużo technologii, które jeszcze bardziej usprawnią nam nasze życia i dużo, dużo czasu na to, co naprawdę nas interesuje i to, czym chcemy się zajmować, a nie na zmaganie się z różnymi niedostępnymi rozwiązaniami, które utrudniają nam życie.
Trzymajcie się serdecznie i do usłyszenia następnym razem.
No to skoro już tak, bo to chyba w każdej wypowiedzi ten BMI-AI się gdzieś tam przewija, łącznie z GPT, ja mam w notatkach właśnie teraz BMI-AI, a dwie pozycje dalej jest GPT-4, ale to w sumie można połączyć, no bo jakby BMI-AI bazuje na tym modelu GPT-4.
No i właśnie ile osób mówi, że super, że ekstra, że to w ogóle jest wspaniałe. Tak, to jest wspaniałe, no tylko właśnie warto wiedzieć o tym, co też tutaj wspominał Wojtek Figiel, że sztuczna inteligencja, czyli w zasadzie te modele generatywne, one zasadniczo halucynują, czyli mówią nieprawdę.
Tylko mówią to w taki sposób, że wydaje się, że wszystko jest okej.
Czyli one potrafią tak ładnie nakłamać, że to kłamstwo jakby nie wydaje się w pierwszej chwili, że jest kłamstwem.
Czyli on potrafi opisać coś, co teoretycznie wygląda bardzo jak trzeba, bardzo prawdopodobnie.
One po prostu zawsze wygenerują tekst, którego zadaniem jest uszczęśliwić użytkownika, który poprosił.
Tak, bycie poprawnym, bo wiecie, GPT to jest model językowy, czyli to jest model, który ma za zadanie, jakby poprawnie, gramatycznie formułować zdania.
A to, że te zdania są prawdziwe, w jakimś sensie, to jest co w rodzaju wartości dodanej, tak naprawdę. Czyli na przykład zadaniem takiego algorytmu mogłoby być dokończenie tekstu albo na przykład poprawienie tekstu pod względem jakimś tam gramatycznym.
bo pytanie, kto jest prezydentem kraju i x, jest trochę bez sensu, bo jakby w ogóle nie o to chodzi, to jakby, no, to jest, no właśnie, to jest model językowy, a nie model, a nie model, nie wiem, wied, wied, wiedzowy?
Tak, z wiedzą, z wiedzą w przypadku GPT trzeba bardzo ostrożnie, bo po prostu on, jeżeli czegoś nie wie, to zmyśli.
I to trudno w ogóle nazwać to wiedzą. To jest, wiecie, to, to jest chyba trochę coś
podobnego, tak sobie wyobrażam, że my teoretycznie coś wiemy na temat
kolorów. Gdyby ktoś nam kazał opisać widok miasta, włączając te kolory,
pewnie byśmy to zrobili w taki sposób, że jakby pod względem takim gramatycznym,
to by się wydawało prawdopodobne, ale ile błędów rzeczowych popełnimy, to nie mam pojęcia, tak?
Bo mało kto się zastanawia, jakie kolory mają domy wokół nas, albo nie wiem, no jakieś inne rzeczy.
Jak dokładnie wyglądają dachy supermarketów na przykład, tak?
Czy coś tego typu, albo czy je w ogóle widać, z jakiej odległości, czy jakieś tego typu rzeczy, tak?
które nie przekroczą nam do głowy, żeby się pytać dość często, więc to jest chyba coś trochę tego typu.
Te wszystkie modele, one nie miały za zadanie dowiedzieć się czegokolwiek o świecie, tylko manipulować językiem.
Nie wiem, mamy jakiś tekst i model ma w oparciu o ten tekst go streścić, albo na przykład jakieś tagi przedstawić, jakie by ten tekst mógł mieć, albo tytuł, albo cokolwiek tego rodzaju.
Więc jeżeli my, i autentycznie zdarzało mi się, że skanowałem paragon z jakiegoś tam sklepu, on mówił, że to jest paragon, ale sklepu zupełnie innego.
Bo ze mu coś się pomyliło, ale to było tak fajnie zrobione, że powiedzmy, że to jest, nie wiem, paragon ze sklepu, nie wiem, Żabka, w momencie, gdy ja miałem na przykład Lidl, bo już nie pamiętam jakie to były sklepy.
I że były tu kupione kilka produktów spożywczych i te ceny były też takie dość prawdopodobne, tak, że, nie wiem, słodycze kosztowały, nie wiem, dwa, trzy złote, picie kosztowało też kilka złotych.
Więc jakby, no takie są standardowo ceny, natomiast one, to co tam było napisane, miało niewiele wspólnego z rzeczywistością.
Natomiast on nie mówił, że, znaczy nie robił błędów gramatycznych, nie robił jakiejś rozsypanki literowej, to wszystko brzmiało świetnie.
Problem polega na tym, że czasami nieprawdziwie, czasami prawdziwie, to żeby nie było.
Dalej Tomku, tobie zrobił cały Paragon i już na wstępie było coś nie tak.
Pomylił jakby sklep, w którym było zrobione.
Mi dodał pozycję na Paragonie.
No także.
Ser żółty kosztował tyle i tyle.
Było tam jakieś bagietki czy coś jeszcze kupowałem i to faktycznie było tyle i tyle.
W środku pomiędzy tym wszystkim były papierosy, Chesterfield, coś tam.
No nie słychać pogłosie, żebym.
Po czym jak gdyby nigdy nic była kolejna czwarta brakująca jakaś tam pozycja z Paragonu
na którym było pięć pozycji.
On wyczytał cztery. Problem w tym że trzy były dobre
a pomiędzy tym jak pomiędzy trzecią a czwartą się właśnie wcisnęły piękne
papierosy Testerfield jak gdyby nigdy nic.
Także no i bynajmniej nie lokujemy produktu.
Po prostu zapamiętało mi się co on dokładnie tam wcisnął.
Bo aż się zdziwiłem bo to kosztowało właśnie i widzicie i tu kolejna rzecz.
to kosztowało tyle ile ten
ile jeden z produktów które faktycznie kupiłem.
Więc nie wiem po czym on sobie skojarzył być może ta cena bo to coś było około 20
tam iluś złotych.
Nawet jest jakaś tam droższa ale jednak dość realna cena jak na papierosy i on po
prostu zwyczajnie pamiętam czy to był jakiś komplet domestosów czy coś realnie.
W każdym razie cenę zczytał.
Problem w tym że połączył to z zupełnie czymś innym i gdybym nie wiedział co
kupiłem
Albo nie najważniejsze, byłbym osobą pełnoletnią, znaczy niepełnoletnią, no powodzenia.
Także naprawdę warto uważać.
Organizowane zaufanie.
Tak, i to nie jest tak, że on w każdej wypowiedzi będzie się mylił. Nie.
On potrafi zrobić 10 wypowiedzi naprawdę dobrych, naprawdę dobrze opisać, co jest na jakimś zdjęciu
i nagle w pewnym momencie coś powiedzieć źle.
Także to naprawdę najróżniejsze tutaj są takie rzeczy, które rzeczywiście ten BMI.AI wpisuje. BMI.AI to jest tak naprawdę GPT-4, który tam jest.
Ale chyba jakoś powłączone, wytrenowane, bo on umie, to jest chyba silnik odpalony lokalnie, tam u nich u Be My Eyes’a jednak, albo coś w tym stylu, na jakichś specjalnych tych, no bo on jednak wciska nam za wszelką cenę, to jeżeli nie wiesz, nie masz pewności, zadzwoń do wolontariusza.
Ale to jest akurat żaden prompt, prompt odpowiedni napiszesz i masz.
Dokładnie.
To tak, no akurat żaden problem.
Jeżeli chodzi o trenowanie, to co najwyżej było to w drugą stronę.
Mianowicie, pamiętacie, pamiętacie TapTapSea?
To też mam wrażenie, że niewidomi byli właśnie taką grupą
karmiącą.
Tak, karmiącą.
Ale tutaj było podobnie i to też było dziś jak niemówione, tak?
Dokładnie.
No bo kiedy GPT-4 oficjalnie gdzieś tam startował, to był, no to była wiosna,
to był chycień albo maj bodajże, no to, no to właśnie było powiedziane, że
zanim to gdzieś będzie dostępne oficjalnie dla wszystkich deweloperów,
co się stało jesienią, teraz niedawno w listopadzie bodajże,
i to też miało swoje pozytywne efekty, ale myślę, że do tego za chwilkę możemy wrócić,
to było powiedziane, że pierwszą grupą, która to będzie testowała,
no to będą właśnie osoby niewidome, to właśnie było oficjalne,
oficjalnie ogłoszone partnerstwo z aplikacją Be My Eyes
i żeby nie było, to też było uruchamiane bardzo powoli.
Jeszcze a propos TapTapSee, to taka anegdotka, że właśnie jeden z moich kolegów stwierdził,
że przetestuje, czy jeżeli coś wyśle niepoprawnie etycznego do TapTapSee, to co się stanie,
no i został zbanowany.
A to tak, to akurat była dosyć częsta praktyka i wiele osób dostało bana,
bo chciało sprawdzić, czy na pewno to ostrzeżenie, które tam się pojawiało,
to czy ono jest faktyczne i będą konsekwencje, czy to tak tylko w stosunku do serwisu.
I zastanawiam się też, jak to jest z tym Be My AI-em.
Znaczy, w ogóle ja mam taką trochę etyczną kwestię, takie filozoficzne trochę infekcje.
Też mam ciekawe, czy mamy na myśli te same.
Czy jeżeli na zdjęciu jest ten, to jakaś przemoc, czy tam inne jakieś niepoprawnie etyczne treści,
niepoprawne etycznie, to jeżeli model
pominie to, odmówi opisania,
nie wiem, jeżeli ktoś nas zbanuje za to,
że to wysłaliśmy, to co, jakby,
kto jest wykluczonym z prawdy na temat
tego, co było na tym zdjęciu i co zyskuje
ta etyka? Tylko to, że wyklucza niewidomy.
I to jest złożony temat,
który gdzieś tam też jest walkowany od kiegoś czasu,
no bo przecież zresztą w cykloprzeglądach, jeśli się cofniecie, no to
relacjonowaliśmy wam to na żywo, jak to najpierw twarze gdzieś były opisywane.
Potem nie były, potem znów były. W międzyczasie w New York Times-ie bodajże
Jonathan Mosen był gdzieś, była z nim rozmowa przeprowadzona.
Jaki to ma wpływ na prawa, które mają to wszystko regulować, które tak naprawdę
dopiero się kształtują?
No bo tak samo jest z tym prawem…
Natomiast to od razu jeszcze podam wam konkretny przykład, bo też go gdzieś widziałem.
Ktoś poprosił GPT o jakieś tam opisanie jakiejś grafiki, jakiegoś obrazka
w takiej kampanii antyprzemocowej i na tym obrazku było wyraźnie widać, że jakaś pani
no po prostu jest przez jakiegoś pana rzeczywiście no traktowana w nieodpowiedni sposób,
w sposób jakiś przemocowy. Ktoś jej robi autentyczną krzywdę.
Natomiast GPT opisał to, że ten pad tej pani pomaga.
Ojej.
Po prostu.
Okej.
Natomiast właśnie jeśli chodzi też o prawne i etyczne aspekty,
no to zastanawiam się jak ten AI Act wpłynie, no bo
nie wiem, dla mnie to też jest takie trochę
odrobinę zbędne, no bo jeżeli
czat GPT
Potrzebuje treści nie po to, żeby z nich zżynać, nie po to, żeby cytować je słowo w słowo w swoich odpowiedziach,
tylko po to, żeby kształcić swoje umiejętności językowe i żeby zdobywać wiedzę,
czyli tak naprawdę wykorzystuje je tak, jak każdy człowiek, który coś czyta.
Rzecz w tym, że wiedzą dla sztucznej inteligencji jest właśnie choćby umiejętność i umiejętne wkładanie tych zrażniętych fragmentów.
Znaczy, wkładanie słów z tych zjażniętych.
Ale ludzie i to też czy są ci prawnicy jakieś publikacje, które gdzieś pozywają
OpenAI teraz, że gdzieś bez bez opłaty gdzieś sobie sczytywali ich dane.
Byli w stanie, odpowiednio pytając te modele, żeby poprosić te modele, żeby im
werbatą jakieś całe cytaty podały, tak, ale.
Tak.
To jedno, no też zobaczymy jak to będzie z tym rozpoznawaniem twarzy, czy to też
jakoś będzie, bo generalnie na początku tego to miało być zabronione całkowicie.
Później wiem, że jakieś zostały zmiany wprowadzone, jeśli chodzi o walkę z
terroryzmem, to to jest inna kwestia, inne rozpoznawanie twarzy, tak, bo tutaj
dopasujemy to do baz danych.
Nie wiem, czy tam kwestie dotyczące np.
między innymi właśnie pomocy osobom z niepełnosprawnościowymi były
uwzględnione czy nie, a to też by mnie interesowało.
Ono OpenAI obiecywało, zresztą tak jak Be My Eyes, że będą na to zwracać uwagę podczas kształtowania tych praw.
Natomiast mnie bardziej zastanawia dużo prozaiczniejsza kwestia z tych etyczno-filozoficznych odnośnie GPT, odnośnie sztucznej inteligencji, ale w tym wypadku konkretnie odnośnie asystenta Be My Eyes.
Jak się ma polityka prywatności Be My Eyes do tego co tam się dzieje?
Bo z jednej strony mówi się o tym, że pomoc niewidomym i tak dalej.
Tak, ja to też prezentowałam.
Z drugiej strony pomoc niewidomym oznacza
niestety mniej lub bardziej świadome ujawnienie różnych danych wrażliwych.
A trzeci punkt w polityce prywatności w ramach ewaluacji
zarówno modeli, czyli ta strona techniczna, jak i ewaluacji atrakcyjności usługi.
My możemy na przykład
przykład, dowolnemu podmiotowi, z którym współpracujemy, to może być reklamodawca,
to może być właściciel jeszcze lepszego modelu, to może być
Irlandzki Związek Niewidomych albo inna Unia Niewidomych Ugandy,
pokazać zdjęcia, które ludzie wysyłają do BMI-AI i żeby np.
połączyć je z rezultatem.
I tu pozostaje tylko i wyłącznie wiara w ludzki rozsądek, że ktoś ręcznie będzie
selekcjonował te zdjęcia, które pokazać, ale znowu ten ktoś, który będzie
selekcjonował, jeżeli się natknie na coś interesującego, to jest nieautoryzowane
przecież przetwarzanie i takie tam te szerokie.
Można by tutaj mieć nadzieję, że też te modele czy jakieś te skrypty, które te dane
zbierają są na tyle mądre, tak chyba było z Microsoftem przynajmniej, z Copilotem,
czyli tutaj też poniekąd zmodyfikowany GPT, że tam gdzieś było powiedziane, że jeśli
model wykryje jakieś zdjęcie, gdzie znów wracamy do kwestii wykrywania twarzy,
ale pewnie tutaj też właśnie jakieś inne tematy.
Jeśli to zostanie wykryte, no to nawet na przetworzenie gdzieś ten model może coś tam
dostanie, ale później to miało być teoretycznie zamazane, czy nawet te zdjęcia miały być w
ogóle kasowane z serwerów?
No i pytanie, czy tutaj w przypadku BMI…
A Facebook trzyma nasze dane w Europie.
Mniej więcej jeśli chodzi o rozpoznawanie jakichś takich nawet bardziej graficznych scen, no to ja myślę, że na pewno nie powinno mówić, że komuś tutaj coś pomaga, tak?
Ja rozumiem czemu gdzieś może nie chcą, żeby coś było, żeby ten model czegoś nieodpowiedniego nie powiedział.
Żeby też nie było, wiecie, w drugą stronę, że ja przypuszczam, że to zostało zrobione w ten sposób, żeby jakaś scena niekoniecznie przyjazna nie była w ten sposób opisywana, bo to też może działać w drugą stronę.
Jeżeli tu scena przemocy jest opisana jako wyciągnięcie pomocnej dłoni, no to w drugą stronę też może być, że sobie, nie wiem, powiedzmy, para jakaś tam idzie,
czy jest jakiś taki obrazek, który człowiek zinterpretuje, że tu się nic złego nie dzieje,
a sztuczna inteligencja z jakiegoś tylko jej znanego powodu odkryje, że tu się dzieje zło.
To jest jedna rzecz.
I z tego co wiem, tutaj nie ma przecież open area żadnego, żadnej weryfikacji chociażby wieku, tak?
Czyli może dziesięciolatek albo ośmiolatek wysłał zdjęcie i co w związku z tym, gdy rodzice, no ale, ale szanowny państwo od sztucznej inteligencji, co wy tutaj mojemu dziecku mówicie, tak?
No bo dobrze, tu jakby my jesteśmy niewidomi i jakby my potrzebujemy po prostu prawdy, natomiast czego innego będą wymagali, przynajmniej w dużej części, rodzice ośmioletniego dziecka, który się zaczął o tym bawić, bo jest, nie wiem, aplikacja Mój Mały Przyjaciel, czy nie wiem, ja sobie zaraz wymyślam, ale podejrzewam, że mogłoby coś takiego być,
gdzie po prostu, no ten GPT-4 jest wdrożony, czy tam cokolwiek innego i teoretycznie znowu, no prompt, promptem, a tak naprawdę wiadomo, że czasami coś wycieknie, coś wyjdzie i w momencie, gdy tego czata używa jakieś dziesiątki, czy setki milionów osób w tej chwili,
Wystarczy, że jeden coś zrobi, komu się coś nie podoba i wybuchnie aferę, jak ma odpowiednie…
Wiesz Tomku, ty mówisz o dzieciach ogólnie, no ale też trzeba wziąć pod uwagę, że są i dzieci niewidome,
które też mogą jakieś tam konkretne informacje dostawać i co w takiej sytuacji, nawet zakładając,
że byłoby to skutecznie rozdzielone promptem, no to jest dużo pytań.
Oczywiście, że jest dużo pytań, włącznie z tym, no że właśnie, no właśnie, poza tym, no niestety, też mamy w wielu krajach dość mocno rozwiniętą poprawność polityczną i to też podejrzewam.
Open AI, te wszystkie czynniki musi brać pod uwagę, chcąc działać globalnie.
Chcąc działać globalnie, w związku z tym ja naprawdę czekam z utęsknieniem, aż modele lokalne staną się na tyle dobre, żeby były przynajmniej jakoś używalne, bo wtedy jest szansa na to, że zostanie wymyślony model dla osób niewidomych, który ma po prostu mówić wszystko.
Może być model bardzo poprawny politycznie, który ma mówić wszystko to, co jest dobre, i tak dalej, i tak dalej.
Póki co te wszystkie Lamy i tak dalej to jakoś sobie tam ciągną, radzą, powiedzmy, raczej tu pogorzej niż lepiej, ale podobno coraz lepiej.
Właśnie miałem to powiedzieć, te większe Lamy działają coraz lepiej.
Tutaj autor VOCR, czyli aplikacji do OCR na Maca, która ostatnio doczekała się
wsparcia GPT i teraz właśnie też Lamy lokalnie, no to on to zaczął sobie
testować, zwłaszcza te większe wersje tej Lamy i do
właśnie czytania zawartości ekranu, takiej eksploracji, nawet próbowania
identyfikacji jakichś typów kontrolek, to nawet w niektórych aplikacjach, nie
To jeszcze jest, no na pewno jeszcze dużo pracy przed tym, ale może coś faktycznie takiego kiedyś powstanie, no po prostu może też te modele będą coraz lepsze.
No ja mam na to, ja to mam nadzieję rzeczywiście na to, bo wiecie póki co, chociaż to w sumie to też będzie na chyba kolejny jakiś, chociaż nie wiem czym mamy.
No w każdym razie, a nie, nie mam, bo wiecie, bo teraz tak naprawdę nie ma takich procesorów do domu, które miałyby się zajmować za bardzo sztuczną inteligencją, chociaż w Macach to chyba trochę inaczej wygląda.
I tu też widać np. na przykładzie Whispera widać jaka jest różnica.
Jeżeli ja to uruchamiam na komputerze PC z Windowsem to mam alternatywę taką.
Albo uruchamiam to na procesorze, trwa to strasznie długo.
Albo uruchamiam to na karcie graficznej, ale po pierwsze muszę mieć odpowiednią kartę.
Po drugie, muszę sobie doinstalować sterowniki jedne, czasem sterowniki drugie, które wymagają założenia konta developerskiego w NVIDII i sterowniki trzecie, które w sumie trochę też tego wymagają.
Do cuda muszę wiedzieć, którą wersję muszę zainstalować do swojej karty graficznej i to nie jest takie proste, żeby to zrobić.
W przypadku Maca to jest dużo prostsze, po prostu muszę zainstalować w program, który obsługuje kartę graficzną, która w Macach tak czy inaczej jest wbudowana, dokładnie taka sama, zawsze, i już, i to działa.
Ten Mac Whisper, z tego co pamiętam, to on teraz już nie pamiętam, który ma tę technologię, czy Faster, czy X, czy który tam jeszcze, ale podobno teraz ktoś mówił, że trzygodzinny czy czterogodzinny materiał na jego Macu, już nie pamiętam co to za Mac, czy z M1, M2 i z którą wersją i z jaką grafiką, czterogodzinny materiał zrobił w 18 minut.
Więc to naprawdę robi wrażenie. I to jest program, który się instaluje i działa. I nie trzeba tu instalować żadnych sterowników, także…
I ten progres to jest tak naprawdę kwestia no troszeczkę ponad roku.
Tak, dokładnie.
Przy czym to też jest, ten postęp to jest w ogóle bardzo ciekawy postęp, bo oryginalna implementacja Wismara, czyli od OpenAI, tam chyba niewiele jest ruszane, to nadal działa wolniutko.
No się pojawił ten model Larch-3, ale tutaj nie.
Model się pojawił, to znaczy oni robią jakąś tam implementację, byle działało, natomiast oni się zajmują tym, co zwykły użytkownik bardzo trudno będzie robił, czyli tworzeniem modeli, bo to rzeczywiście zajmuje masę czasu, tak?
No bo jeżeli w tej wersji V2 było 680 tysięcy godzin, czyli wiecie, przetworzyć pół miliona, ponad pół miliona godzin, jakoś to przeanalizować, co jest czym, języki, transkrypty zrobić i tak dalej,
to to są tak obłędnie duże ilości obliczeń, że to są nawet ciężko wyobrazić i ciężko sobie wyobrazić, ile by to wszystko działało na takim zwykłym domowym komputerku, żeby wytrenować taki model.
Bo to z reguły jest tak, że trenowanie takiego modelu to jest o kilka rzędów wielkości dłuższym procesem niż potem używanie tych modeli.
Także to wszystko jest naprawdę, to są gigantyczne jakieś procesy. No i rzeczywiście potem biorą to ludzie, którzy się na tym znają, na sieciach neuronowych, na obróbce sygnału, na bibliotekach, które do tego służą, no i patrzą, że aha, oni tu używają tego, ale jest coś, co jest dużo szybsze.
I przecież te kody źródłowe są najczęściej opublikowane na jakichś wolnych licencjach, czyli ktoś zupełnie za darmo usiadł, przepisał to wszystko, przeanalizował to wszystko i zrobił to tak, żeby to było szybciej.
I rzeczywiście taka najszybsza implementacja Whispera to jest kilkudziesięciokrotnie szybsza niż oryginalny Whisper.
U mnie rzeczywiście mam taką wersję właśnie Whisper X, który u mnie działa mniej więcej 20 razy szybciej niż oryginał na tym modelu Large.
Nie jestem w stanie założyć modelu Large w oryginalnej implementacji Whispera, bo mam za mało pamięci,
ale podejrzewam, żeby to działo mniej więcej jakieś 40, może 30 razy dłużej, 30 razy dłużej, na tej samej karcie graficznej, w związku z czym to są tego rzędu optymalizacje,
To jest optymalizacja kilkudziesięciokrotna po roku z kawałeczkiem obecności tego na rynku, więc to się dzieje naprawdę szybko.
Teraz Intel na targach CES, zdaje się, że pokazał nową rodzinę procesorów, teraz już nie będzie chyba i3, i5, i7, tylko jakieś tam Core, Core Plus, czy Core Ultra, już nie pamiętam.
jakie tam sobie wprowadzili na zewnictwo i tam ma być, zdaje się, jakiś koprocesor właśnie do obliczeń neuronowych i oby rzeczywiście te takie wspomagające jednostki się pojawiły,
żeby oby te wspomagające jednostki były na tyle szybkie, żeby rzeczywiście taki przeciętny Kowalski mógł zainstalować sobie program, w którym po prostu wybiera sobie plik, stwórz transkrypcję i program tworzy, bez tego, że instaluje przez jakąś konsolę, bawi się w jakieś wiersze poleceń, coś.
Generalnie Mac Whisper wygląda tak, jak to opisujesz. Wybieramy sobie ewentualnie język, jeśli nie jesteśmy pewni, wybieramy czy chcemy ten większy czy mniejszy model, kwestie pamięci i dokładności. Wybieramy plik audio i to się po prostu robi.
Tak, to ja wiem, że to tak wygląda właśnie na Macu, a na Windowsie w zasadzie wszystko, co korzysta ze sztucznej inteligencji właśnie na tak dużą skalę i co wymaga karty graficznej,
no to przede wszystkim na dzień dobry wymaga na pewno cuda, to są sterowniki, które właśnie trzeba zainstalować w zależności od tego jaką ma się kartę graficzną.
Konkretnie, więc trzeba, po pierwsze, to wiedzieć, a nie każdy to wie, po drugie, trzeba tych sterowników wyszukać w Google, bo to nie da się tak po prostu kliknąć sobie w systemie, pobierz coś, żeby mi się robiło szybciej, poza tym niektóre, a oprócz tego to wymaga np. cuDNN i cuBLASS, no to teraz trzeba to pobrać.
Żeby to pobrać, to trzeba mieć swoje konto deweloperskie.
Tak, i muszą być jeszcze odpowiednie wersje.
Instalacja któregoś z tych pakietów, to jest jakaś tam podmiana plików,
bo to nie jest instalacja.
Tak, pobiera się plik zip i po prostu oni mówią,
te pliki to wypakuj do tego folderu, a te pliki,
a inne pliki wypakuj do tego folderu.
Także, no no.
Czytam jeszcze w Readme, to jest nawet wypakuj do odpowiednich katalogów w.
Więc dobrze, że te katalogi w tym zipie
Mniej więcej mówią, gdzie to powinno się rozpakować.
Nie zapomnijcie jeszcze o tym, nie zapomnijcie jeszcze o tym, że w niektórych
to znowu ironizuje oczywiście, ale trudno tego nie robić w przypadku
uapek na Windowsie. Często jest jeszcze opcja,
przynajmniej w niektórych,
pobierz i znajdź na przykład model.
My oferujemy ci apkę.
Skąd ty weźmiesz dane wejściowe?
Nie, ale ja mówię w ogóle o tym, żeby to w ogóle działała ta aplikacja, którą pomieramy i która nawet ładnie wygląda.
No właśnie o tym mówię, ale już w tym momencie to niekiedy nawet te aplikacje, które mają cokolwiek robić, nawet nieładnie wyglądać, one po prostu…
Najpierw sobie trzeba pobrać część komponentów, tak jak wyście mówili,
ale takich komponentów, które są częścią aplikacji, a nie tylko, żeby ona zadziałała.
A w niektórych coś mi się ostatnio przewinęło, że nie dość, że właśnie trzeba było pobrać,
zainstalować faktycznie, upewnij się, że wszystko będzie działało modyfikując plik.
I tu kod przykładowy w Pythonie.
A to też podanie kodu w Pythonie jako wywołanie danego narzędzia to nie jest rzadka sytuacja i dostosuj do swoich potrzeb.
I teraz znowu, mamy GPT i dobrze, że mamy GPT, bo ja na przykład programistą nie jestem, ale autentycznie dzięki GPT ja byłem w stanie przetestować kilka już tych implementacji Whispera nie prosząc nikogo o pomoc,
Prosząc go, żeby on zrobił to, to i tam, żeby mi na końcu całego procesu wyświetlił czas trwania, żeby mi zagrał jakiś dźwięk, żebym wiedział, kiedy to się skończyło, żeby mnie zapytał, w jakim języku chcę rozpoznawać i tak dalej, i tak dalej.
Ja po prostu wpisuję mu, co ja chcę zrobić, on mi na wyjściu wypływa skrypt odpowiedni, ja nawet się nie muszę zastanawiać, co on konkretnie robi, tylko że się go wklejam i to się robi, więc to jest jakby dość fajne i też fajne są te rozmowy z czasem GPT, typu, czy ja mogę coś zrobić, żeby coś tam, on mi mówi, no tak, tylko musimy wiedzieć, w jakim sposób to się robi w tym programie, a ja mówię, no nie wiem, czy da się to sprawdzić.
Owszem, jest do tego tam biblioteka w Pythonie, wpisz to i ci zwróci wszystkie tam, wszystkie tam funkcje, czy obiekty tam, które są wywoływane przez no coś.
No okej, no zwracam. Coś rozumiem, czegoś nie rozumiem, o coś się mogę spytać tego czata i tak dalej, i tak dalej, więc bardzo dobrze, że to jest.
aczkolwiek no to mimo wszystko wymaga trochę takiego ośmielenia, bym powiedział, że w ogóle, że wiecie, że da się to zrobić, że nie wysadzę komputera w powietrze, jak ja coś tu wpiszę w tę konsolę
I że ten czat mi też, no, zaproponuje coś, co nie wysadzi mi całego domu, tak, gdzieś tam w kosmos.
Więc, no, to też mam wrażenie, że sporo osób w ogóle obawia się, że chyba ma takie wrażenie właśnie, że coś ten czat albo napisze coś, czego nie rozumieją i co mają zrobić.
No ja mówię, no to napisz mu, że nie rozumiesz i żeby ci to wyjaśnił prostszym językiem.
Zresztą jeżeli ten czat GPT zaproponuje nam napisanie jakiegoś skryptu, który może spowodować jakieś zmiany, albo może nam coś zepsuć, to on jeszcze ostrzeże, spokojnie, tam naprawdę, ja ostatnio go prosiłem, żeby napisał mi jakiś tam skrypt, który po wywołaniu jakiejś tam operacji usunie jakieś pliki, to dostałem ostrzeżenie, że uważaj, bo ten skrypt usuwa pliki.
Zrób sobie lepiej kopię tych plików.
Oczywiście, że tak.
I rzeczywiście z reguły jak coś się takiego…
Mało tego, pamiętam właśnie, że chciałem coś takiego, żeby mi skrypt wyświetlał pasek postępu.
Właśnie gdzieś tam w konsoli mówię mu, że no jest tu taka funkcja, która wyświetla pasek postępu,
tylko ona wyświetla w takiej formie.
I on powiedział coś tam, że okej, no teoretycznie możemy to zrobić, ale w związku z tym, że nie jesteś programistą, to my łatwiej coś z tym zepsujemy, niż stworzymy coś, co działa.
Także on był w stanie mi coś takiego też powiedzieć. Oczywiście ja mógłbym się z nim spierać, że dobra, ale spróbujmy najwyżej coś tam, ale jakby mi chodzi o sam fakt, że on raczej stara się nie psuć.
Oczywiście wiadomo, to zawsze może być tak, że coś zmyśli i zepsuje, nie chcąc.
To zawsze tak może być.
Tak czy inaczej, naprawdę ten czat GPT może się również przydać w takim prostym tworzeniu skryptów.
A w ogóle okazuje się, że nieraz nawet to, co mamy w Windowsie, czyli, no kiedyś Batch, teraz PowerShell, tam można sporo też osiągnąć.
To może niekoniecznie, niekoniecznie wszystko, ale na tyle dużo, że pewne rzeczy związane z, nie wiem, jakąś masową zmianą nazw plików,
Tegoś jeszcze, coś, co nieraz właśnie robi się, robi się gdzieś tam z ręki i 20 minut siedzimy, zmieniamy jakieś nazwy, bo coś tam, zamieniamy jakieś podkreślniki na minusy albo odwrotnie, to myślę, że do czegoś takiego chat GPT mógłby spokojnie napisać.
jak najbardziej, za użytkownika.
Jeśli mogę anegdotkowo troszkę, bo
dwie takie rzeczy mi teraz chodzą po głowie.
Bardzo często jak coś robię na studia
i tak wiem, że mi się to w życiu nie przyda,
bo ja tego nie chcę, nie lubię,
ale wiem, że muszę to zrobić.
I ja to rozumiem, ale po prostu mi się nie chce.
To tak biorę już tego czata,
coś tam sobie piszę i widzę,
że ten kod jest niezbyt poprawny.
Mówię, weź mi to popraw, bo ja już widzę,
że to jest niepoprawne.
No coś tam próbuje poprawiać, próbuje.
I jak mu nie wychodzi, to ja biorę cały ten
log z całej tej konwersacji i wrzucam do Barda.
I Bard bardzo często daje mi już prawidłowy wynik, no bo świeży umysł
nie jest już tak zaplątany w tym okienku kontekstowym, w którym aktualnie się zaplątał chat.
A kiedyś z kolei
stwierdziłam, że zrobię taki eksperyment, że zapytam się chata GPT czy chce, żebym
była jego pośrednikiem w rozmowie z Bardem, że ja będę przeklejać jednemu
odpowiedzi drugiego, a drugiemu odpowiedzi pierwszego.
I on powiedział, że spoko.
No i tam powysyłałam tam paręnaście tych wymian
korespondencji pomiędzy jednym a drugim.
I szczerze mówiąc Bard był trochę taki bardziej rozwlekły niż Chad, trochę mniej
konkretny, ale właśnie one sobie tak zaczęły tam rozmawiać, że ojej jak super, że nam się
udało spotkać przecież mamy teraz takie
super możliwości jesteśmy tak wyedukowane jako chatboty
to może zróbmy coś fajnego dla świata i ludzi
ale co by można było zrobić przecież tyle jest
pól do popisu i jeden wymieniał
po drugim a drugi cytował po pierwszym
a w końcu się wzięły za podręcznik do fizyki
i zaczęły wziąć swój własny podręcznik do fizyki
przyjazny dla dzieci.
Okej.
No, to takie
oczywiście
też ciekawe.
No, w każdym razie
no tak, GPT.
Co dla mnie,
może już tak na koniec, dla mnie było taką
największą chyba rewolucją, jeśli chodzi o to, to właśnie
moment, kiedy te
możliwości, zwłaszcza
związane z opisywaniem obrazów
zostały udostępnione developerom,
bo wtedy pojawiły się API, a że no to zmyśla czasami, ale mimo wszystko bardzo często też, zwłaszcza to, nie wiem, opisywanie zdjęć, nie wiem, w mediach społecznościowych na przykład to może nadać fajne efekty i kiedy te API się zaczęły pojawiać, no to oczywiście społeczność stworzyła narzędzia do tego i tak naprawdę dzisiaj na każdym systemie operacyjnym, czy to jest Windows, czy to jest Mac, czy to jest NVDA, czy jakiś inny screen reader, już coś mamy, żeby to
obsłużyć i to wtedy naprawdę dla mnie zaczęło mieć sens i ja bardzo często
sobie jednym skrótem proszę go o opis zdjęcia czy jakieś konkretne detale
dopytuję i no to wykorzystuję bardzo często i to mi się faktycznie zaczęło wtedy
przydawać, bardziej nawet niż BYAA na telefonie.
Natomiast w sumie jeszcze a propos GPT-4 to
można wspomnieć o tym Voice Conversations, które się pokazało w trakcie roku.
No, może jest to jakieś tam wygodne.
Kiedyś
spróbowałam sobie to tak zastosować, że nie wiem, coś sobie robię, coś sobie jem
na przykład i tam sobie gram w jakąś grę z tym chatem, że na przykład on mi mówi
jakieś słowo w jakimś języku i ja próbuję zgadnąć, co to znaczy to słowo.
I mam tam kilka odpowiedzi, jeżeli totalnie nie znam języka albo
albo mam sama coś wymyślić, jeżeli znam ten język, no i tak sobie coś
Działam w ten sposób, natomiast no jeżeli miałby mi to być jakoś bardziej przydatne niż do zabawy, no to nie, ale kto wie, no może komuś faktycznie się przydaje, więc no teraz już wszyscy mają za darmo od niedawna, zarówno chyba na iOS jak i na Androidzie, więc można sobie testować, no co prawda zaangielszczone są trochę te głosy, ale są miłe.
Ale tak, żeby gdzieś tam pogadać, to spokojnie.
No dobrze, to co, to może następna wypowiedź.
To może następna wypowiedź.
Tak jest, to teraz specjalista od telefonów z klawiszami,
który je testuje, eksploruje, sprawdza, co tam ciekawego
w tej gałęzi tyflorynku i oczywiście tymi odgryciami się dzieli
na antenie Tyflo Radia, w tyflopodcaście Dariusz Marciniszyn.
Rok 2023 w Tyflo Informatyce.
Czym dla mnie był?
Chciałbym podzielić się wrażeniami, które były dla mnie pozytywne,
jak i tymi, które uznaję za negatywne.
Zacznę może od telefonu Blind Shell Classic 2,
ponieważ jestem szczęśliwym posiadaczem tego telefonu.
Jako zwolennik klawiatury fizycznej też jestem tutaj usatysfakcjonowany
z działania tego Blind Shella.
I teraz, w listopadzie, z tego co pamiętam, 2023 roku została wprowadzona bardzo ciekawa funkcja w systemie BlindShell Classic 2, to jest wersja 5.17.
Zawsze podkreślałem, że przeglądarka internetowa w BlindShell jest bardzo optymalna, bardzo fajna.
Teraz wprowadzono funkcję dodawania stron nie tylko do ulubionych, czyli do zakładek, ale także do ulubionych aplikacji.
A więc jeżeli śledzę sobie na przykład Tyflo Przegląd, odcinek któryś, jest burzliwa dyskusja na temat iOS-a i chcę sobie to z telefonu bardzo szybko śledzić,
Wystarczy, że pod stronę z komentarzami
dodam do ulubionych aplikacji
trzy kliknięcia i po prostu mogę sobie tę stronę odtworzyć.
No powiem tak,
iOS, Android mi tego w życiu nie zapewni.
Można mówić, że tam na pulpit wyciągnąć,
coś tam, nie, nie. To na blind shadow jest rozwiązaniem
rewelacyjnym i tego
nie umożliwi ani iPhone, ani telefony
z Androidem. I jakby zaraz powiem troszkę o iPhone’ie, ponieważ iPhone’a też testowałem.
Testowałem iPhone’a, ponieważ kupiłem sobie taki sprzęt.
Ja go troszkę traktuję jak, powiedzmy, taki czytnik książek zaawansowany
i generalnie tyflo sprzęt do aplikacji.
I teraz bardzo pozytywnym zaskoczeniem okazała się klawiatura brajowska,
ale powiem może o czymś troszkę nieoczywistym, ponieważ w środowisku niewidomych
pokutuje taki stereotyp, że iPhone to niby fajny ale wgrywanie dzwonków do iPhone’a to jest droga przez mękę i to jest w ogóle trudne, koszmarne i tak dalej, i tak dalej.
I ku mojemu zaskoczeniu ta operacja jest bardzo prosta, bardzo przejrzysta, bardzo logiczna dla osoby, która jest naprawdę średnio zorientowana informatycznie, to znaczy umiarkowanie.
Pewne rzeczy potrafię zrobić, niektóre bardzo szybko, niektóre nie.
Ale też nie jestem osobą, która będzie szukać rozwiązań na siłę, interesować się, śledzić.
Jestem po prostu przeciętnym użytkownikiem komputera i innych rozwiązań.
I dla mnie, jako dla przeciętnego użytkownika właśnie komputera, telefonu,
dodawanie dźwięków w iPhonie jest po prostu proste.
proste, logiczne i przejrzyste. Oczywiście trzeba się tego nauczyć
i trzeba to pierwszy raz przejść,
co trochę czasu zajmuje, ale
to jest tak jak z językiem obcym. Jak już poznasz język obcy,
nawet najtrudniejszy, to już śmigasz i mówisz nim bardzo płynnie.
Więc nie ma się czego bać. Dodawanie dźwięków
w iPhonie jest czymś bardzo fajnym
i naprawdę to jest…
Ja mówię o takim właśnie dodawaniu do iTunesa.
To jest druga rzecz, która moim zdaniem jest bardzo pozytywna,
czyli to było drugie zaskoczenie na plus.
Niestety muszę też powiedzieć o dwóch zaskoczeniach negatywnych.
Program, z którego korzystałem od prawie dziesięciu lat,
Pazera Audio Extractor, to jest program do konwertowania plików muzycznych,
na przykład z formatu WAV do FLAC, albo do MP3.
Po najnowszej aktualizacji ten program po prostu koszmarnie zwolnił.
Nie wiem co się stało, ale sprawdzenie ile procent konwersji zostało wykonane,
to jest po prostu teraz droga przez bękę.
Kiedyś to działało bardzo szybko, bardzo fajnie.
Coś się stało z najnowszą wersją i po prostu muszę wrócić do wersji starszej.
Druga rzecz, która dla mnie jest negatywna w roku 2023,
Trzecim, to jest, jakby nie dyskredytuję teraz rozwiązania, ale mimo wszystko, no muszę o tym powiedzieć.
Jest to dla mnie cios poniżej pasa jako dla zwolennika klawiatury fizycznej T9 w telefonach.
To jest telefon Capsys Smart Vision 3.
Miałem ten telefon w ręce, ja powiem tak.
Wyobraźcie sobie, teraz się zwracam do zwolenników iOS, że Apple postanowił na rynek wprowadzić sprzęt, mówię o iPhonie, który umożliwia rozszerzenie pamięci o kartę microSD.
Ja wiem, że to jest absurd, ale proszę sobie to wyobrazić.
Ponadto umożliwia
transfer muzyki normalnie
po USB, transfer danych bez iTunes’a,
bo po prostu Apple stwierdził, że chce wyjść naprzeciw klientowi.
Sprzęt ma bardzo dobrą baterię, niech to będzie 6000 mAh.
Jest wielkości
powiedzmy 3,4 Nokii C5, czyli jest malutki.
Pisanie na takim malutkim telefonie za wielu jest udręką.
No, to idzie też w drugą stronę.
Pisanie na klawiaturze T9, jeżeli sprzęt jest wielki, też jest udręką.
Też jest udręką, bo często trzeba używać dwóch rąk do pisania albo do zrobienia jakiegoś skrótu.
No ludzie, ktoś po prostu nie pomyślał.
Telefon, o tym telefonie będę mówił za jakiś czas.
Telefon jest funkcjonalny, ale gabaryty tego telefonu skutecznie uprzykrzają pisanie na T9.
Więc niestety abstrahując od tego czy telefon jest dobry czy nie, o czym będę mówił za jakiś czas, ponieważ to rozwiązanie ma dużo plusów, testowałem ten sprzęt, no niestety.
Wielkość po prostu, no zabija przyjemność po prostu korzystania z tego rozwiązania.
Myślę, że to tyle. Powiedziałem o rzeczach, które mnie zaskoczyły na plus, powiedziałem o rzeczach, które mnie zaskoczyły na minus.
No, liczę na to, że jednak Pazera przyspieszy i napisze do autora programu jak najszybciej.
Pan Jacek, wel Pazera, to jest bodaj Polak, więc on albo w ogóle nie odpisuje, albo odpisuje całkiem kompetentnie na zgłoszenia,
więc faktycznie kontakt z nim to wydaje się całkiem rozsądny pomysł.
tam generalnie jest najprawdopodobniej z tego co kojarzę, bo też używam i najnowszej
Pazery i mam na podrębiu starszą audioekstraktora, tam jest rzecz odnośnie
zdarzeń pod maską tego w jaki sposób on się komunikuje zarówno z tym okienkiem
z zewnętrznej biblioteki FFMPEG, która tak naprawdę jest odpowiedzialna za konwersję
tego wszystkiego i w jakim tempie on dostaje różne komunikaty o postępie
konwersji i tak dalej, on jakby
w dużym uproszczeniu.
On bardzo często pyta bibliotekę o postęp.
Biblioteka mu nie zawsze odpowiada, a on czeka na informacje o tym postępie, więc
w rezultacie tam okienko zwalnia, w dużym skrócie.
I na przykład z DOS-em, który troszeczkę inaczej odczytuje te komunikacje tam pod
maską pomiędzy programami, nie mam tego problemu.
Przy tej samej paserze, która z NVIDIEM ma ten problem całkiem spory.
Też go odczuwam, żeby nie było.
Więc nie świadczymy tu jakiejś zaszczególnej pomocy technicznej, ale może zasugerowanie panu Jackowi, tak on był bodajże Jacek, że takie coś ma w ogóle miejsce, byłoby, nomen omen, na miejscu.
No to w takim razie przechodzimy.
Jeszcze tylko powiem, że fajnie, że Blind Trail się tak rozwija. W ogóle w tym roku do Blind Traila dużo rzeczy doszło, no bo nawigacja Lazario, Spotify, Sonos nawet, sterowanie Sonosem, no Be My AI to wiadomo, no bo Be My AI jest tam nowy WhatsApp, nowy Messenger.
No, ale trochę takich rzeczy doszło, które z jednej strony pamiętam, że na początku roku właśnie zeszłego, ubiegłego, z Darkiem robiliśmy audycję Blind Shell po roku.
No i zastanawialiśmy się, a co to będzie i było takie spekulowanie, że może Spotify, pach, jest Spotify.
No coś była mowa, że jakaś nawigacja będzie.
Pah, jest Lazario. No Sonosa to się nawet nie spodziewałem,
że to im przyjdzie do głowy.
No i wygląda na to, że sobie ten…
Tam się po prostu komuś bardzo chce to otworzyć.
Mi się szczerze mówiąc…
Ja rozumiem, że są potrzeby i są produkty
na te potrzeby skrótne, ale mi się trudno ekscytować
tym, że autor czy tam zespół autorów
sobie powybierał jakieś konkretne apki i do tych konkretnych apek mam dostęp.
Ja wiem, że to jest pisań odpowiednich
modyfikacji, no ale nie wiem, no dla przykładu, no okej, jest Uber, ale moim
typowym zwyczajem jest chociażby sprawdzenie, czy w jakimś Bolcie jest lub
w Flynn, ale nie zapłacę mniej, bo akurat będę miała zniżkę.
Albo akurat Uber sobie w tym momencie podwyższył ceny, a pozostałe dwie nie.
Więc tak trochę, w sensie, no fajnie, ale jakoś nie umiem się tym…
Ja mam wrażenie, Paulino, że po prostu, no my nie jesteśmy tu grupą docelową i…
No na pewno.
I to z tego wynika, ale…
Ale to jest też ciekawe studium tego, jak daleko można pójść na API, no bo nie wszystkie te aplikacje są, z tego co ja rozumiem,
po prostu na czysto adaptowane z standardowych odpowiedników na Androida,
tylko część jest pisana od zera na bazie otwartego API, tak?
I to jest to, o czym tu mówimy przy tym, że Twitter zamknął API, Reddit zamknął,
że do Telegrama też się da jakieś klienty robić, coś tam,
że teoretycznie jakie są granice urządzenia, które mogłyby bazować na aplikacjach,
które robi się specjalnie pod nie, mając do dyspozycji otwarte API?
To jest ciekawe studium w przypadku, jak dla mnie.
To w takim razie przechodzimy do kolejnej rzeczy, która się pojawiła w roku 2023 i to jest Piper, czyli syntezator otwarty, do którego każdy może teoretycznie stworzyć swój głos.
Czyli troszeczkę podobna sytuacja jak w Air Havocie, tyle tylko, że Piper jest dużo nowszą technologią.
Piper jest syntezatorem, który przede wszystkim ma język angielski i te najbardziej popularne,
te, które przyjęło się uważać za popularne, jakiś angielski, niemiecki, francuski, pewnie hiszpański, japoński,
No kilkanaście chyba tych języków jest i rzeczywiście sprzeciw swego czasu, nawet również w tych zagranicznych, jakiś tam, przynajmniej gdzieś tam, wydaje mi się, że właśnie też gdzieś na jakiejś Bastodona, w jakiejś społeczności autogames było takie zainteresowanie, a jak tu tworzyć głosy, a jak to potem nagrywać, a jak coś, ale jakoś to mam wrażenie, że to tak było fajnie.
to była szansa, że będzie się działo, a potem jakoś tak w sumie ktoś stworzył, ale w sumie to ileś osób nie stworzyło, ktoś podobno coś dla siebie i to jakoś tak niby coś się rozwija, ale tak nie bardzo.
Wydaje mi się, że powód jest taki, że po pierwsze trening tego czegoś to nie jest coś takiego, że mam sobie aplikację na komputerze, ale okej, podejrzewam, że to by nawet można było jakoś pewnie gdzieś tam w jakimś sensie ominąć trochę to, jak się omija trening na RHO i się na zasadzie – ej, ty to umiesz to, weź mi wytrenuj.
Natomiast chyba taką bardziej istotną sprawą jest to, choć nie wiem, że jednak responsywność tego Pipera jest raczej słaba.
No i ten Piper ma mimo wszystko sporo takich jakiś błędów.
W języku polskim to już w ogóle ma tych błędów sporo i czasami ta jego mowa jest bardzo taka niewyraźna,
Ale chyba w angielskim też nie jest jakoś tak super ekstra, to nie jest taka syntezatora.
Nie, też nie. Wszystkie głosy działające, które są gdzieś dostarczane, z tym te głosy, które społeczność wytronowała już są trochę lepsze.
Tam też przynajmniej jedna z osób, która to rozwijała, mówiła, że też generalnie technologia, na której powstał Piper nie jest najnowsza, tam powstały jakieś nowsze systemy do tworzenia neuronowych syntezatorów.
z tym nic, chyba na razie przynajmniej nie wiadomo mi, że coś było coś z tym robione.
Chociaż, co ciekawe, też znam przypadek innej osoby, która pracuje gdzieś w Anglii
z osobami starszymi i on mówił, że tam ten Piper to się nawet przyjął.
Teraz nie pamiętam czy to ogólnie do czytania wszystkiego, czy jako profil do
czytaj wszystko, tak, w Nvidia można sobie to osobno ustawić, do czytania artykułów,
Ale ktoś ponoć korzysta właśnie z tych głosów społeczności, bo tam są właśnie jakieś brytyjskie głosy.
Mhm. No w każdym razie to tak się zapowiadało, że będzie łał, a jest taki nie do końca łał. To tak się nie rozpędziło, mam wrażenie.
Tomaszu, zapowiadało się, że będzie łał, a zobaczyłem polski głos dostraczony przez producentów na stronie oficjalnej.
Nie, no oczywiście, że tak, no, ale już jakby abstrahując się od polskiego języka, no to nawet tych angielskich, to najpierw tam co chwilę jeden głos, drugi głos, trzeci głos i tyle.
I wydawało się, że tych głosów to po paru miesiącach to będzie trzydzieści albo osiemdziesiąt, a w sumie to jest chyba niewiele więcej niż tam się pojawiło na początku.
W tym miejscu pozwolę sobie na odrobinę prywaty do Michała, ale nie powiesz, jeden niemal cały wieczór z głowy mieliśmy.
Tak, to prawda, testując różne dziwne zachowania tego syntezatora na różnych, różnych tekstach, bo to naprawdę, no jest, efekty były bardzo zabawne.
Także to też nie jest tak, że wszystko co neuronowe to się na pewno sprawdzi, no bo właśnie okazuje się, że czasami no niby fajnie działa, ale no ma tak czasami nietypowe albo właśnie takie dziwne błędy, albo po prostu no nie jest to tak dobrze przemyślane i się po prostu nie sprawdza.
I właśnie ta synteza mowy, no to jakoś tak, to jest w ogóle ciekawe, że u nas ten RH Voice, no to naprawdę się sprawdził.
Nie wiem czy pamiętacie, bo to też w tamtym roku, tak, na pewno w tamtym roku, była ankieta przeprowadzana w DZDN.
jaki głos powinien czytać książki w tych książkach, jak to się nazywa, syntetyczne mp3 chyba, czyli książki, które są czytane przez syntezę i można je pobrać w formie plików mp3 czytanych przez syntezę.
No i jaki to ma czytać syntezator? Oczywiście to musiały być syntezatory, których licencja na to pozwala, no i wygrał któryś z głosów do R.H. Voice’a właśnie.
No a miał z tego co pamiętam konkurencję w postaci wokalizera zdaje się, także u nas ten R.H. Voice się naprawdę przyjął.
No i, no z tego się, myślę, tylko, tylko cieszyć.
To co, wypowiedź kolejna, czy, czy coś jeszcze? Bo tak krótki ten…
To myślę, że tak. Myślę, że możemy kolejną wypowiedź wyemitować.
Tym razem posłuchajmy człowieka, który tu kiedyś z nami ten tyfloprzegląd prowadził,
a od jakiegoś czasu zrezygnował z tego, czyli Robert Łabęcki.
Witam Państwa. Na pewno dużo ludzi już powiedziało o Be My AI, więc chciałbym się nie powtarzać, ale jednak jest to naprawdę ważne.
Wejście sztucznej inteligencji w służbę osobom niewidomym, tak to można powiedzieć. Może nie do końca po polsku, ale coś w tym stylu.
Jak to działa, tak to działa, ale jednak jakoś halucynuje, czasami troszkę wymyśla, ale daje naprawdę dokładne opisy różnych zdjęć i to naprawdę jest duży przełom, a przede wszystkim, co najważniejsze, jest za darmo.
Ci, którzy mają aplikację Be My Eyes mogą z tego skorzystać, czy to na iOS-a, czy to na Android-a.
Kolejna rzecz to zwiększenie refundacji na ciągłe systemy monitorowania glikemii dla osób chorych na cukrzycę,
właśnie między innymi dla niewidomych osób chorych na cukrzycę.
I jedynym warunkiem, żeby dostać tę refundację jest to, aby być na insulinie.
To też jest dość znaczne, ponieważ do tej pory systemy monitorowania glikemii były dostępne tylko dla dzieci i młodzieży do 26 roku życia, dostępne z refundacją oczywiście, oraz dla ludzi z pompą insulinową.
I tutaj nie wchodziło w grę, czy ktoś widzi, czy nie widzi.
Tutaj to, że tak powiem, troszeczkę inaczej potraktowano.
Właśnie w roku 2023.
Ja tylko dodam, że systemy ciągłego monitorowania glikemii
to są takie systemy, dzięki którym w czasie rzeczywistym
możemy przekazywać pomiar cukru we krwi
stężenie pomiaru cukru we krwi, dokładnie do aplikacji czy gdzieś, gdzie tam jest to nam potrzebne.
Generalnie do aplikacji wygląda to mniej więcej tak, że mamy sensor, który wchływamy w ciało
i ten sensor, załóżmy, w przypadku systemu Freestyle Libre działa 14 dni,
w przypadku innych systemów jest to inaczej
I dzięki temu możemy aplikacją i telefonem, smartfonem,
sczytywać sobie wyniki cukru we krwi.
Jak nie mamy smartfona, to trzeba dokupić specjalny transmitter
albo inne urządzenie.
Ja się nie będę dawał tutaj szczegóły.
W każdym razie jest to już możliwe.
Powiem tylko tyle, że jeden taki sensorek Freestyle Libre
kosztuje około 280 zł.
A na miesiąc potrzebne są przynajmniej dwa, jak nie więcej.
No to jeśli chodzi o to, w końcu się stało, co można powiedzieć, odejście Apple’a od Lightning’a.
Mamy USB-C, czy dobre to rozwiązanie? Ja bym nie powiedział, bo USB-C się bardziej wyrabia niż wejście Lightning,
No ale jednak się stało. Stało się to faktem, w iPhone’ach 15 mam już USB-C.
I czy więcej? No iOS 17, który no przyspieszył działanie syntezy, przynajmniej tych syntezatorów budowanych.
Tutaj jest duża poprawa responsywności, jeśli się pracuje, załóżmy, z Zosią czy z Krzysztofem, to jednak widać, nawet przy starszych modelach iPhona.
No to chyba tyle, co mogę powiedzieć odnośnie tego, na co zwróciłem uwagę w 2023 roku.
No bezpośrednio do wypowiedzi Roberta, ja akurat jeśli chodzi o wejście USB-C, no poza tym, że wiadomo, akcesoria jakieś będzie trzeba wymyjeć, czyli jak ktoś ma ambiocy, no ale przejściówki są.
Ja akurat się z tego cieszę, bo można w ten sposób więcej rzeczy sobie podłączać, a już zresztą społeczność zaczyna wykorzystywać odkarp cienkowych, jakieś dyski, ale to może być potrzebne nam monitory brajlowskie.
Tak, jeśli ktoś brajla potrzebuje, a z jakiegoś powodu bluetooth przestanie działać, co się zdarza?
No to bardzo łatwo teraz możemy sobie jakąś linijkę podłączyć.
A pewnie nie wszystkie jeszcze tak działają.
Na pewno te nowsze działające na standardzie HID, ale myślę, że z czasem gdzieś do
starszych monitorów, miejmy nadzieję, z czasem to się też będzie gdzieś dodawane, albo
producenci ich też się zdecydują na aktualizację oprogramowania, co niektórzy obiecywali.
No ale ogólnie też rok 2023 w Apple’u był taki, no można powiedzieć, dosyć ciekawy.
Nowa kategoria sprzętu została zapowiedziona, która niebawem zacznie gdzieś trafiać do ludzi za tydzień albo dwa.
Już wszystkie zagraniczne portale rozpisują się o tym jak to Vision Pro, czyli ten headset rozszerzonej rzeczywistości do ludzi zaczyna trafiać.
No pewnie jeszcze parę lat minie zanim zobaczymy do czego tak naprawdę ten sprzęt jest zdolny.
Dostępność na nim jakaś jest, żeby nie było. Od początku było mówione, że voiceover tam jest sterowany gestami rękoma głównie, ale też można sobie monitory czekawe podłączyć.
No ale co się jeszcze zmieniło? Nowe systemy jakimiś rewolucjami nie były. Chyba ci, którzy mają iPhone’y możecie się ze mną zgodzić. No chyba, że ktoś ma inne zdanie.
To znaczy kosmetyka raczej, jest to kosmetyka, znaczy trochę jakiejś funkcji wiadomo doszło, ja pamiętam, że byłem bardzo zadowolony z przebiegu tej konferencji, bo Apple obrał trochę inną taktykę, tam jeszcze chodzi o funkcję jakby, to co mi zawsze w technologii się podobało, czyli no nie, że rzucamy jakimś jednym wielkim hasłem, słowem klucz na rok, w tym roku byłaby to sztuczna inteligencja, czy tam generatywna sztuczna inteligencja, natomiast, że tam dalej jakby oni, dla nich takim wielkimi zmianami,
Są takie praktyczne funkcje, które jakby użytkownikowi dają konkretne jakieś ulepszenia
tego, co już jest, czyli telefon będzie działał lepiej, jakieś tam pisanie będzie działało
lepiej. I chyba tak samo myślę, mogę powiedzieć o Wojzowerze w tym roku, że doszło trochę
takich ulepszeń jakościowych.
Dla mnie na przykład największym jest wsparcie ścieżki, pisania, rysowania ścieżki w
języku polskim. To jest coś, co autentycznie, dzięki temu można szybciej pisać, nie widząc.
Nie tak szybko jak w Braille’u, ale jednak szybciej.
Co się w niektórych sytuacjach przydaje.
No takie głupotki małe.
Dzisiaj mi się w nocy zaktualizował iOS 17.2, bo jakoś tak jestem na bakier z tymi
update’ami. Więc zmiana dźwięku powiadomień.
Tak, w ogóle nowe dzwonki doszły i na początku to gdzieś ludziom zepsuło nastroje, no ale
później jak doszła ta możliwość zmiany, no to od razu się nastroje poprawiły chyba
wszystkim.
Ja też się z tego cieszę.
Czy na iPhonie coś takiego, no taka największa nowość to jest ta funkcja wskasz i mów, która akurat mam telefon na tyle mocny, że mogę z tego korzystać.
Natomiast w praktyce spróbowałem z tego korzystać kilka razy z mizernymi efektami, nie jestem jedyny.
Tutaj myślę, że też można fajnie przejść do tego co, bo Apple
Wiz publikował, to znaczy w zeszłym tygodniu była ankieta, ludzie mogli wyrazić swoje
zdanie na temat tego, czy te nowe funkcje im się podobają, jak ogólnie korzysta im się z
urządzeń Apple i jakie mają zdanie na temat tego, jak firma poprawia błędy, które
gdzieś w tych systemach były.
No i jeśli chodzi o tą funkcję w Skashimu, bo było tam między innymi pytanie o te nowe
funkcje w tym roku. Jedna tam, jedna osoba, może dwie napisały, że im to działało fajnie,
które zostawiły takie szczerze komentarze oprócz takiej oceny od jednego do pięciu.
Ale większość ludzi, tak jak mówiło, że nie chciało im to jakoś działać, więc no to takie
trochę było rozczarowanie.
Natomiast właśnie poza tym na iPhonie to, no faktycznie to rysowanie ścieżki to chyba
najbardziej. Z samego systemu to możliwość ustawiania wielu timerów, które się zapisują,
bo teraz mogę sobie taki, zrobiłem sobie sleep timer.
Jak ktoś nie wiedział, tam gdzie ustawiamy minutniki można sobie wyjść
wybór dźwięku i tam na dole jest opcja zatrzymaj odtwarzanie i to działa
z każdą aplikacją.
Czy to jest YouTube, czy to jest jakiś podcast, można sobie taki timer
ustawić, jak jeszcze damy mu inną nazwę, właśnie usypiacz na przykład.
No to on się nam na liście ostatnich zapisze i możemy, mimo to, że gdzieś mamy
jakieś inne minutniki, które nam dźwięk dadzą, to możemy sobie jednym
stuknięciem taki usypiacz włączyć i niezależnie od tego czego słuchamy gdzie no to on nam zadziała więc to taka gdzieś zmiana.
Dużo na Macu więcej zauważyłem na plus Safari przyspieszyło znacznie i to mi faktycznie poprawia komfort.
W ogóle VoiceOver sam przyspieszył dużo.
Jest skrót można sobie dodać w końcu do przełączania złagodzenia dźwięku.
Tego dotychczas nie było, a szkoda, więc trzeba było gdzieś po ustawieniach grzebać, a teraz można sobie to gdzieś przepisać jednym skrótem, włączać, wyłączać i to się też przydaje.
No tutaj też właśnie taka kosmetyka, no głównie gdzieś te poprawy prędkości można bardziej syntezatory dostosowywać, no tutaj bardziej Eloquence zagraniczny, tutaj faktycznie dużo opcji doszło.
Szkoda, że w Eloquence możemy sobie rozwijanie skrótów i słowniki, bo wyłączać z vocalizerami niestety tak się cały czas nie da, a szkoda.
bo myślę, że wiele osób by się z tego ucieszyło.
Dużo osób się też cieszy, że, i tutaj znów iPhone, w Braille’u na monitorach
brandowskich możemy aplikacje otwierać po prostu wpisując ich nazwy.
Ale na co? Jakiś rozczarowani jest.
Tutaj też co pisała społeczność, taki chyba główny wniosek, co wyszło z tej
ankiety Applevisa, jednak ludzie by chcieli, żeby Apple jakoś bardziej publicznie
ustosunkowało się do raportów, bo tak naprawdę cały czas nie wiemy, czy te raporty
docierają, bo niektóre błędy są faktycznie gdzieś poprawiane, no ale dużo błędów,
gdzieś jest zaniedbane, zwłaszcza…
Na przykład znikające głosy Siri.
Właśnie, dużo osób na to zwraca uwagę, tak, to jest też gdzieś jakiś wątek, który się
pojawia, masz rację.
No i też zanierbania na Macu, czy jest tak źle jak niektórzy mówią, nie wiem, natomiast faktycznie jakieś błędy na Macu, które gdzieś programista mogą dokuczać, gdzieś interpunkcja, jakieś własne sama te interpunkcje, które się nie ładują, rzeczy, które są skłaszane od kilku wersji, cały czas nie są poprawiane, no mogło być na pewno lepiej, tutaj społeczność wystawiła Apple’owi taką trójkę na szynach, jeśli chodzi o poprawę błędów, więc miejmy nadzieję, że w tym roku będzie lepiej.
No to, czy ktoś coś by jeszcze chciał zadać, czy na przykład jeszcze jakąś wypowiedź sobie odtworzymy, no to chyba.
To chyba kolejna wypowiedź kolejnego i naszego słuchacza, częstego komentatora i też człowieka, który kilka audycji również, w kilku audycjach się pojawił.
Tym razem posłuchamy Radosława Morawskiego.
Witajcie, Radek Morawski z tej strony.
Gdy Michał zapytał mnie o moje technologiczne podsumowanie minionego roku,
miałem spory dylemat, o czym powiedzieć, na czym się skupić,
gdyż był to dla mnie rok stagnacji.
I to takiej stagnacji spowodowanej nie brakiem jakichś nowych technologii premier,
a raczej taką wystarczalnością tego co już mam, satysfakcją z posiadanych urządzeń i tym że zaspokajają one moje potrzeby.
Używam komputera z 2017 roku, który w pełni mi wystarcza, być może będę myślał o jego wymianie, ale bardzo na spokojnie,
bez ciśnienia takiego jakie towarzyszyło w latach wcześniejszych, że nowsze rzeczy dawały coś więcej,
Ciągle potrzebowałem jakiegoś nowego dysku, więcej pamięci, bo coś to wnosiło w mojej pracy. Teraz już tego nie ma.
Tak samo przez kilka milionych lat to premiery sprzętów Apple wyznaczały jakieś takie trendy i sprzęty, których się pożądało, które miało się ochotę kupić.
Teraz posiadam już od trzech lat iPhone’a 12, zegarek szóstej generacji, jednego z nowszych iPadów, komputer z procesorem M1 Maca, więc jakby wszystko to jest na tyle już wystarczające, na tyle szybko działające, że w ogóle jakby nie odczułam potrzeby i premiery, które były w zeszłym roku nie wywołały we mnie większych emocji.
Kupiłem słuchawki AirPods Pro drugiej generacji, które są świetnym produktem, ale też bez emocji. Kupiłem je dlatego, że poprzednie zaczęły trzeszczeć i bateria była coraz słabsza, ale nie było już takiej ekscytacji jak gdy pojawiły się pierwsze AirPodsy, które dawały jakąś taką wolność bez tych kabli.
Także myślę, że rok mógłbym określić słowem stagnacja, jak dla mnie.
Oczywiście obserwuję cały czas to, co się dzieje wokół sztucznej inteligencji, wokół czatu GPT, głosów neuronowych i jest to na pewno fascynujące i ciekawe.
Zastanawiam się, czy będzie to dłuższy trend, czy będzie to rewolucja, czy jedynie taka chwilowa moda, jak swego czasu kryptowaluty z Bitcoinem na czele, jak technologie NFT, jak być może asystenci głosowi kilka lat temu, którzy też przestali się rozwijać,
Bo zarówno Siri, jak i Google Assistant mam wrażenie, że poprzestały na tym, co zostało zaprezentowane kilka lat temu.
Ja też się zachłysnąłem swego czasu tym smart home sterowanym głosem, kupiłem kilka rzeczy, jakiś inteligentny żarówek czujników i właściwie zaprzestałem rozwijania tego.
Gdzieś to mnie tam znudziło, nie dawało mi już jakiejś nowej wartości.
Tak więc myślę, że ze sztuczną inteligencją nie będzie podobnie, że stanie się ona taką technologią, która gdzieś jest, ale ten jej rozwój nie będzie już taki.
A być może się mylę, być może rzeczywiście ona zrewolucjonizuje jeszcze bardziej wszystko, niosąc ze sobą oczywiście zarówno rozwój jak i zagrożenia.
To co mnie cieszy obecnie w technologii to taka dostępność treści do konsumpcji, że pojawia się coraz więcej filmów z audiodeskrypcją, chociażby na Netflixie, który już nie tylko polskie produkcje, ale i zagraniczne zaczął zaopatrywać głosem syntetycznym w audiodeskrypcję,
że już jakieś telewizory, przynajmniej tej jednej marki, są wyposażone w przewodnik głosowy, że chcący grać w gry mogą już sobie wybrać jakieś gry popularne z rynku takiego otwartego jak The Last of Us na PlayStation.
że tych treści jest właśnie coraz więcej, już nie tylko książki, które były od zawsze dla nas audiobooki dostępne, ale właśnie te inne media, mnóstwo nowych podcastów w każdym zakresie tematycznym i to mnie w technologii cieszy.
I właściwie tego chyba chciałbym życzyć na ten rok, żeby tej dostępności było coraz więcej, żebyśmy nie bali się zaktualizować Messengera, że nam się rozwali dostępność i zacznie skakać po całym czacie,
albo aplikacji bankowej, która przestanie nam w ogóle działać, albo nie będziemy mogli wpisać czegoś, bo bank pod płaszczykiem bezpieczeństwa wprowadzi jakąś nową, dziwną klawiaturę.
Więc tego bym chciał, żeby takiej sytuacji nie było, a niekoniecznie może jakieś rewolucje technologiczne, żeby nadeszły.
Osobiście też nie wiążę jakiejś nadziei z okularami Apple, z tym Vision Pro, które mają się lada moment ukazać.
Myślę, że jeszcze długo czasu upłynie, zanim my z tego w jakiś tam sposób skorzystamy.
Choć na pewno rozwój tej technologii pomoże też niewidomym te wszystkie kamery analizujące przestrzeń wokół nas.
Na pewno z czasem to coś przyniesie, ale myślę, że mój entuzjazm taki technologiczny, który miałem przez ostatnie lata, bardzo się tak ustabilizował i dziś satysfakcjonuje mnie właśnie to, co mam i to, z czego korzystam.
byle działało stabilnie i tej dostępności było po prostu coraz więcej.
To ja się może a propos jednej rzeczy tak chciałbym wypowiedzieć, tutaj w tej wypowiedzi, że smart home miał być fajnie, wyszło tak sobie i sztuczna inteligencja, nie wiadomo czy to nie będzie to samo.
bo nie jestem pewien, to znaczy jestem skłonny, mam dość silne przekonanie, że nie.
Dlatego, że jeżeli mamy załóżmy inteligentną żarówkę, a kontra zwykłą żarówkę i co zyskujemy w zasadzie?
Czy to może być jakimś fundamentem dla iluś różnych działań i wydaje mi się,
że jeśli nawet, to dla bardzo małej grupy ludzi, to znaczy, że większość osób, tak czy inaczej, to światło będzie zapalać, a czy będzie to zapalać przyciskiem oddalonem o 3 metry, czy aplikacją,
tudzież pilotem, czy czymś tego typu, to to będzie tylko w konkretnych scenariuszach miało jakieś znaczenie, tak?
Idę spać, więc sobie dla wygody zgaszę, albo zapalę światło, ale nie wiem, czy to ma jakieś przełożenie na to, że zmieni mi się życie,
albo będę mógł wykonywać szereg jakichś czynności, które do tej pory nie były dla mnie dostępne.
Natomiast odnoszę wrażenie, że sztuczna inteligencja, a w każdym razie te duże modele językowe, to trochę takie jednak mogą być.
To znaczy, one mogą rzeczywiście zmienić sposób wykonywania różnych rzeczy, chociażby to, co mówiłem na temat programowania.
No 99, myślę, procent ludzi programistami nie jest, natomiast ten czat pozwala 99 procentom ludzi na stworzenie tego, czego nie byliby w stanie zrobić bez tego czata, to jest pierwsza rzecz.
Druga rzecz, to jest możliwe przynajmniej, że może być to poradzenie sobie z przeogromnym nawałem informacji, jakie dostajemy codziennie, tak?
No bo dostajemy maile, wiadomości, coś tam jeszcze, YouTube, Facebook, TikTok, Instagram i tak dalej, to jest masa wiadomości, które dostajemy i ja sobie wyobrażam coś takiego,
to nie wiem, czy to będzie możliwe, ale wydaje mi się, że istnieje jakieś prawdopodobieństwo, że coś takiego będzie jednak wykonalne, ale nie wiem.
W każdym razie ta sztuczna inteligencja może być fundamentem takiego naszego sekretarza, sekretarki, takiego czegoś, co przepuszcza informacje,
No albo te, które chcemy, albo te, które chce, żeby producent, powiedzmy, umówmy się tej sztucznej inteligencji i chciał, żeby do nas przyszły, ale powiedzmy, że my przynajmniej w jakiejś części będziemy mogli kontrolować, co do nas przychodzi i to nie będzie już coś w rodzaju, nie wiem, spis, tak jak, nie wiem, teraz mamy spis maili i sobie wybieramy po temata, czyli mamy po prostu taki spis treści.
Tylko rzeczywiście będę mógł zapytać sztucznej inteligencji, co ja dzisiaj w ogóle dostałem, na jakie tematy i odpowie.
Tak jakby powiedzmy, że na razie zakładamy, przez chwilę załóżmy taką sytuację, że rzeczywiście świat jest piękny, nikt nam nie próbuje niczego wcisnąć,
no więc w takiej sytuacji pewnie byśmy dostali jakieś, no takie rzeczy, które według tej sztucznej inteligencji byłyby dla nas rzeczywiście jak najbardziej potrzebne.
Ja mam Tomku inny przykład i to taki naprawdę z życia, który już widziałem w Microsoftzie, jak to jest rozwiązane i że było to testowane przez pewien czas.
Załóżmy, że masz w swojej poczcie jakieś maile dotyczące czegoś, co masz zrobić na kiedyś.
Mówię o poczcie służbowej.
I teraz powiedzmy, ktoś cię prosi, żebyś przygotował jakieś tam zestawienie,
czy cokolwiek innego, czy jakąś prezentację, no nieważne, ale masz to przygotować na piątek.
to ty, żeby o tym pamiętać, to musisz dodać to do kalendarza,
ustawić sobie jakieś przypomnienie, czytam jeszcze coś,
ale może być na przykład tak, że zaczynasz swój dzień w pracy, dajmy na to w czwartek,
albo nawet w piątek, ale bezpieczniej powiedzmy, że w czwartek,
i dostajesz informacje od tej sztucznej inteligencji.
Pamiętasz, że na jutro masz przygotować jakąś tam powiedzmy prezentację?
Aha, okej, no to, czyli trzeba się za to zabrać, tak, i że gdzieś tam właśnie to skanowanie tej poczty to nie tylko może być jakieś streszczenie, oczywiście to też, ale to może być takie aktywne analizowanie tych różnych informacji, które do nas spływają i na tej podstawie sugerowanie nam jakichś konkretnych działań, o których, bo ja nie zakładam, ja nawet nie zakładam, że ktoś będzie nam tę pocztę jakoś tak powiedzmy streszczał, filtrował,
ale że on będzie regularnie ją skanując, to będzie domyślał się jakiegoś kontekstu,
który nam najzwyczajniej w świecie może wypaść z głowy.
To jest jedna rzecz i ja sobie kiedyś ustawiłem taką rutynę w asystencie Google,
żeby mi jak mam budzik o jak budzę dzieci do szkoły, znaczy do przedszkola,
to żeby mi mówił jaka jest pogoda w tej chwili i czy mam jakieś przypomnienia.
no i praktycznie zawsze mam, nie masz zadania dzisiaj, no a załóżmy, że taki asystent google’owy analizowałby maile, tak, i załóżmy, że mam maile, w którym jest napisane,
słuchaj, weź mi jakieś papiery najlepiej jakoś druk, czy tam wyślij nam jakieś papiery i ja się wcale nie zdziwię, jak za jakiś czas dostałbym przypomnienie, że no trzeba papiery zrobić, tak,
Trzeba papiery zrobić, trzeba jakąś mam wizytę u lekarza, mam coś jeszcze i mam coś jeszcze.
Jeszcze lepiej, na przykład rozmawiamy sobie z kimś na Whatsappie.
Ja wiem, że w tym momencie wszystkim miłośnikom prywatności to się po prostu włos na głowie zaczyna jeżyć,
ale okej, dajmy na to, rozmawiamy sobie z kimś na Whatsappie na jakiś temat.
Na przykład w rozmowie wychodzi nam słuchaj, ale w sumie fajnie by było zrobić o tym jakąś tam audycję.
I nagle za jakiś czas, powiedzmy, na liście, którą mam ustawioną tematy do audycji, pojawia mi się jakiś wpis, że w sumie fajnie by było zrobić audycję o tym i o tym.
A teraz to ja muszę zapamiętać o czym ja tam, z kim rozmawiałem na tym Whatsappie, wymieniałem te wiadomości głosowe, dajmy na to.
muszę albo odpalić aplikację, wpisać sobie to, gdzieś tam powiedzmy ustawić może jeszcze jakiś termin,
a tak to po prostu wystarczy, że ja sobie przejrzę taką listę i będzie, i te informacje będą do mnie
najzwyczajniej w świecie spływały bez jakiejś konieczności ingerencji z mojej strony.
Podczas gry ja będę się po prostu mógł skupić na czym innym.
To się zgadza i oczywiście takich scenariuszy można mnożyć, ale chodzi mi o to,
że te modele sztucznej inteligencji to są potencjalnym takim fundamentem do ogromnej ilości różnego rodzaju, właśnie jakichś takich bardzo mocno zautomatyzowanych rzeczy,
o które nawet nie musimy dbać, bo to się będzie działo samo. A co i w jaki sposób, to się jeszcze okaże.
Natomiast jak mi się wydaje taki smart dom ma dużo mniejszy potencjał bycie takim fundamentem jakiejś technologii, która z połączeniem wielu innych rzeczy, które już w tej chwili są,
co jakoś bardzo zmienia życie. Natomiast wydaje mi się, że ta sztuczna inteligencja rozumiana jako temu chociażby modele językowe, no to myślę, że może mieć taki potencjał,
Możemy mieć takiego, tak jak do tej pory, to trochę też tak filozoficznie pojadę, mamy bardzo dużo takich automatów, które nas wyręczają w pracach fizycznych, tak, pranie, zmywanie, sprzątanie od niedawna,
Ileś tam jeszcze różnych rzeczy, które kiedyś musieliśmy to robić wszystko razem, to być może nadchodzi taki czas, kiedy nadchodzą automaty, które będą nas wyręczały w pamiętaniu o różnych rzeczach, myśleniu o tym, w jakiejś, właśnie głównie w pamiętaniu, być może w filtrowaniu tych informacji, których mamy potężne ilości.
I załóżmy, właśnie jest jakaś czy lista, czy coś, gdzie na przykład, tak jak u mnie, ja dyskutuję na kilku listach zagranicznych dotyczących dźwięku.
I ja bym chciał móc sobie zrobić taką listę rzeczy, które na przykład, żeby mi sztuczna inteligencja dodawała tam jakieś programy, syntezatory, efekty, które były testowane przez różnych ludzi.
I powiedzmy, żeby tam nie wklejał jakiejś streszczenia tych testów, plus link do oryginalnego testu.
I teraz, jeżeli ja chcę przejrzeć sobie testy z całego tygodnia, to to przeglądam, jakby nieważne, kiedy ja coś chcę zrobić, a jeżeli chcę poczytać, powiedzmy, na przykład mówię, że słuchaj, umiem robić to i to, to i to, to i to.
Jeżeli zauważysz, że ktoś ma problem z tym czymś, to mi daj powiadomienie, że ktoś ma problem z rzeczą, którą ja umiem rozwiązać i wtedy ja już nie muszę czytać wszystkiego po kolei i tak dalej, i tak dalej.
I znowu, to jest jakby coś, co sobie wymyślam. Nie wiadomo, czy to nastąpi kiedykolwiek coś takiego, ale myślę, że sztuczna inteligencja daje szansę na tego rodzaju działania.
Ale nie wiadomo, czy oczywiście to się pojawi. Zobaczymy. I jakkolwiek by to się nie rozwijało, to moim zdaniem to, co już jest, to protokół HTTP, który jest już z nami od lat wielu.
Od początku lat dziewięćdziesiątych tak naprawdę.
Tak, i on się nie musi rozwijać, żeby pojawiały się nowe produkty, które są na nim oparte. I strony jakby www, oczywiście one tam jakieś mają rozszerzenia, nierozszerzenia, ale samo to, że mamy jakby internet, czyli takie miejsce, gdzie wpisuję sobie coś do przeglądarki,
i wychodzi mi coś, co jest zaprojektowane przez kogoś, no dobra, ostatnio przez coś, ale jakaś strona, po której mogę się poruszać w taki, a taki sposób, to się zasadniczo nie zmienia tak rewolucyjnie
i te technologie, które zostały wymyślone dziesiątki lat temu, one nadal nam służą i wydaje mi się, że właśnie ta sztuczna inteligencja ma szansę osiągnąć status właśnie takiej technologii
albo chociażby status, nie wiem, wyszukiwarki, czyli znowu, wyszukiwarka to jest coś, co zapewne pod maską się zmienia, tam pewnie jakieś nowe algorytmy, nowe jakieś optymalizacje, ale my o tym nie wiemy.
Ja wpisuję w wyszukiwarkę hasło i to znajduję i trudno nam sobie wyobrazić życie bez wyszukiwarki czegoś w internecie.
Ja się wcale nie dziwię, jak właśnie sztuczna inteligencja też będzie takim czymś, co jest tak głęboko wbudowane w takie życie cyfrowe, jak właśnie chociażby wyszukiwarka, czy serwisy społecznościowe.
Całkiem możliwe, zwłaszcza, że już teraz Microsoft tego próbuje. W swojej wyszukiwarce Bing mamy moduł sztucznej inteligencji, możemy go pytać o różne rzeczy i on przecież bazuje na tym, co te crawlery Binga nam wyszukają w sieci, a potem w jakiś sposób próbuje to streszczać i próbuje nam konkretną informację podać.
To się zgadza, to jest oczywiście początek i to wszystko cierpi na różne, na różnego rodzaju przypadłości, które mam nadzieję, że przynajmniej w jakiejś części zostaną rozwiązane, natomiast to jest dopiero pierwszy rok działalności tego wszystkiego na tak szeroką skalę, bo to, że czas GPT ukazał się z modelem GPT-3, to znaczy, że wcześniej był GPT-2, a jeszcze wcześniej GPT-1.
I ten GPT-1 to już od kilku lat zdaje się jest, tam 4, 5 lat. Już nie pamiętam dokładnie ile, ale to nie jest tak, że to się pojawiło nagle.
Nie, no to wymagało jakiejś tam dłuższej pracy, żebyśmy mieli taki, a nie inny efekt. Znaczy ja myślę, że o sztucznej inteligencji to my byśmy mogli długo i bardzo długo.
A tematów jeszcze jest.
A tematów jeszcze trochę mamy, dokładnie.
Tak, i trochę nam się zrozumiało, bo tak można było fajnie sobie przejść od wypowiedzi tutaj na temat gier.
Ale jak słyszymy ejaj, to my się uruchamiamy w dyskusji.
Także ostrożnie z takimi tematami, jak się do nas dzwoni. No to w takim razie, co nowego w grach?
Będzie tak krótko, dlatego że o tym jak wyglądał rok 2023 i nawet kawałek tego roku w grach będziemy mówić szerzej w przyszłym tygodniu, to już mogę od razu was zaprosić we wtorek, będzie audycja dedykowana grach, ale tak chciałem tutaj powiedzieć o takich ogólnych trendach, bo zauważyłem coś takiego, i chyba nie tylko ja zresztą, że ostatnio jeśli chodzi o dostępność w grach,
no to mamy taką sytuację, że tak jak kiedyś mówiło się o, głównie o grach
gdzie jest stricte audio, to coraz więcej się mówi albo o grach takich zwanych
mainstreamowych, czyli takich po prostu normalnych grach tworzonych z myśl tam o
osobach widzących, które stają się dostępne albo dzięki pracy deweloperom, albo
dzięki modom tworzonym przez dostępność.
Mody to są takie modyfikacje wgrywane do gry, które po prostu no dodają
jakieś funkcje dostępności w ten czy w inny sposób.
Oczywiście jakieś audiogry były, no nie, bo już mówiliśmy o Echowisie,
które tutaj było i Quiz, i Echowis Street później.
Ja tutaj mówię, nie będę mówił jakoś bardzo dużo, ale jeśli chodzi
o takich kilka, bym powiedział kamieni milowych, no to zaczęło się od
Brocka, czyli Brock the Investigator, gra, w której gramy, no to gra, która
jest osadzona w świecie takim cyberpunk, w którym mamy elementy właśnie science fiction,
ale też świecie zamieszkanym przez zwierzęta, które po prostu gdzieś mogą rozmawiać.
I my właśnie gramy
aligatorem, który jest prywatnym detektywem.
I to jest cała fabuła. Co ciekawe, gra łączy
grę przygotową, czyli po prostu wchodzimy w interakcję z różnymi przedmiotami, żeby
rozwiązywać jakieś zakatki, z taką typową biotyką.
Możemy w każdej chwili przełączyć się na tryb
akcji tak zwanej i po prostu no jeśli gdzieś głową coś nie zadziała to możemy po prostu z pięści próbować jakąś sytuację rozwiązać po prostu.
No i to jest pierwsza taka gra, która stała się dla nas dostępna w tym, w tym stylu poniekąd, jeszcze tutaj łącząc te dwa takie gatunki.
Więc no tutaj możemy też Tomkowi Tworkowi podziękować, który nawiązał kontakt z deweloperami, no i deweloperzy byli nie tyle mili,
że postanowili podjąć się tego wezwania, no i właśnie mamy grę, która jest udźwiękowiona.
Nawet można grać po polsku, tylko wtedy musimy sobie zaopatrzyć się w jakiś dodatek do czytania schowka.
No ale mamy nawet audio-deskrypcję do poszczególnych scen, które się w tej grze dzieją,
no i po prostu mamy wszystko fajnie udźwiękowione, mamy dźwięki stereo,
mamy dodatkowo opcję do pominięcia jakiejś zagadki, jeśli coś jest dla nas za trudne.
Generalnie wszystko, niektóre z jakichś puzzla, które musimy przejść, były jakoś modyfikowane, żeby były dla nas dostępne, ale jeśli po prostu chcemy grać dalej, czymś się nie martwić, to po prostu możemy sobie coś pomylić.
No to jest gra, która jest dostępna praktycznie wszędzie, na wszystkich konsolach, na wszystkich systemach operacyjnych, komputerowych przynajmniej, no i jest taka, no właśnie tutaj taki pierwszy przykład.
Później The Last of Us, no The Last of Us poniekąd to temat sprzed czterech lat, 2020 rok, część druga dostała jako pierwsza taka duża gra dla widzących funkcję dostępności, natomiast w 2022 pod koniec pojawił się remake pierwszej części, która pojawiła się już lat kilkanaście temu, ale też już dostał funkcje dostępności, które były w tej drugiej części, plus dodatki pokroju audio deskrypcji,
ale ona w roku 2023 opuściła konsolę playstation, że ona cały czas tam jest, ale trafiła też na komputery i dzięki temu dużo więcej osób może sobie w tą grę zagrać.
To jest gra, którą gramy z perspektywy pierwszej osoby, gramy w takim świecie post apokaliptycznym, zamieszkiwanym przez, no na to nazwę zombie, producent tutaj broni się tego słowa.
No mniej więcej naszym zadaniem jest przetransportowanie małej dziewczynki, która okazuje się jest odporna na tą infekcję, która atakuje cały świat, no i próbują się dowiedzieć naukowcy czy tam ludzie, dlaczego tak jest, no i właśnie mamy takie zdanie.
Od tego się fabuła zaczyna, oczywiście sytuacja się dużo, dużo komplikuje.
Natomiast to jest gra taka bardzo rozbudowana.
Mamy całą, no właśnie tutaj fabułę, kilkanaście jak nie kilkadziescia godzin rozgrywki.
Bardzo fajnie przetłumaczona na język polski, bo tutaj mamy pełny dubbing polski.
Mamy właśnie tutaj też audiodeskrypcję.
Mamy inne funkcje asystujące, dodatkowe dźwięki.
Mamy screen reader, który nam wszystko mówi.
No i ta gra właśnie się pojawiła również na komputerze, oprócz konsoli PlayStation.
A w międzyczasie część druga też dostanie aktualizację w przyszłym tygodniu, bo ona dostała remake.
O tym będę w przyszłym tygodniu mówił, bo on już wtedy też się ukaże.
Które też tą audiodeskrypcję np.
do części drugiej, czyli tutaj sprzed czterech lat też ją dodaje.
na początku jej nie miała, ale tutaj właśnie kolejna taka duża, duża produkcja,
która taką dostępność dostała.
I na koniec zupełnie dla nas nowy gatunek, przynajmniej gdzieś znów z dziedziny
gier dla widzących, który stał się dla nas w pełni dostępny, to gry wyścigowe.
Dzięki najnowszej części serii Forza Motorsport, która to dostała dużo
funkcji dostępnościowych.
Oczywiście mamy czytnik ekranu, mamy audiodeskrypcję, no ale oczywiście
samo prowadzenie zostało dla nas udostępnione przez dodatkowe
znów dźwięki, które informują nas gdzie są granice trasy.
Dźwięk samochodu podobnie jak to w grze Top Speed przesuwa się w lewo
lub w prawo, żeby pokazać nam w którą stronę mamy skręcać.
Mamy też pilotkę, która nam mówi jak mamy jechać.
No ale to jest właściwie tyle, co ta gra ma wspólnego z grą Top Speed, bo prowadzenie takiego prawdziwego samochodu jest trudniejsze, trzeba sobie to powiedzieć.
No i tutaj możemy…
Trudniejsze to mało powiedziane.
Mało powiedziane, tak.
Wiem, że czeka cię na podcast o tej grze jeszcze.
On cię jakiś czas pokaże, jak tylko gdzieś pomyśla, jak to wytłumaczyć, bo to jest coś, czego się też uczyłem kilka tygodni.
żeby nie było jak nie dłużej. Cały czas coś nowego się dowiaduje.
No ale tutaj mamy właśnie prawdziwe samochody od takich osobów jakichś Renault,
jakichś Hondę, Honda, Civic kończąc na wyścigowych Porsche czy Ferrari.
Możemy zobaczyć jak te samochody faktycznie się w realu zachowują, jak się prowadzą.
Mamy prawdziwe tory odwzorowane, na których się na przykład zawody Formuły 1,
ale nie tylko odbywają. Możemy sobie zobaczyć jak to, jak to wszystko wygląda.
No i też możemy grać sami w trybie kariery, ale też możemy grać ze znajomymi i to też nam może godziny frajdy przynieść.
Więc to jest Forza pierwsza dla nas dostępna gra wyścigowa i myślę jeszcze na koniec taka gdzieś kolejna część jeśli chodzi o takie gry, które się pojawiały.
No to Mortal Kombat, seria bijaty, która dostępna dla nas poniekąd już była,
no ale w taki sposób, że musieliśmy nauczyć się wszystkiego na pamięć, menu i tak dalej, żeby coś w tej grze osiągnąć.
Sama oprawa dźwiękowa od początku właściwie była tak fantastyczna, że sama rozgrywka była dla nas dostępna,
no ale tutaj w najnowszej wersji producent tutaj zadbał o to, żebyśmy mieli bardzo łatwo, bo tutaj znów mamy audiodeskrypcję dla trybu fabularnego,
który w tej grze akurat wygląda jak, no jakbyśmy oglądali film tak naprawdę.
Oglądamy film, w pewnym momencie po prostu musimy jakąś walkę pokonać.
Mamy czytnik ekranu, który niestety z polskim w tym momencie radzi sobie gorzej.
No tam są z głosami, no mogłoby być lepiej, natomiast on jest i co ważniejsze
w kolejnych aktualizacjach jest jeszcze ulepszane, bo na początku nie było
wszystko czytane, a teraz już właściwie jest.
I mamy dodatkowe dźwięki, które nas informują, gdzie jesteśmy, jak daleko jest nasz przeciwnik i co on robi, czy kuca, czy skacze, a to jest też istotne, no bo po prostu wiemy, jak musimy uderzyć, czy wysoko, czy nisko.
Więc to gra, która była wcześniej dostępna, jeśli włożyliśmy trochę czasu, żeby gdzieś tego interfejsu się nauczyć, a umówmy się w tych nowych częściach, on się lubi zmieniać, bo tam czasami nowe rzeczy dochodzą, no to teraz tak naprawdę nic nie musimy, wystarczy założyć słuchawki,
No i gra nam wszystko, wytłumaczy od menu po samouczki, bo w tej grze też są bardzo rozbudowane samouczki, po listy różnych kombosów tak zwanych, które każda postać może wykonywać, więc no tutaj też fajnie, że producenci też postanowili poprosić osoby niewidome o konsultacje zresztą, bo w każdym z tych przypadków właściwie i Last of Us, i Forza, i Mortal Kombat były proszone niewidome osoby o konsultacje, jak tą dostępność zrobić i to widać,
bo we wszystkich tych przypadkach tak naprawdę to po prostu działa bardzo fajnie.
I to są takie gry duże dla widzących, które stały się dostępne.
No ale poza tym pojawiło się bardzo dużo modów dostępnościowych.
Co tutaj można wymienić?
No na przykład nierawno pojawił się mod do gry kultowej Plants vs Zombies,
czyli gra, w której musimy obronić swój ogród przed natarciem zombie,
które chcą nam po prostu wszystko w tym ogrodzie pozjalać, a jak to robimy no sadząc roślinki, które
gdzieś strzelają do tych zombie groszkiem na przykład i innymi nasionkami.
Więc ta gra też już taka jest no bardzo kultowa i ktoś pomyślał żeby zrobić do niej mod dostępnościowy.
Powstał mod do gry CrossCode, kolejnej akurat gra RPG.
Powstał mod do też takiej bardzo znanej serii Crusader Kings 3, czyli taka gra, w której jesteśmy królem i tutaj mamy prawdziwe kraje czasy średniowieczne, prawdziwe imperia, więc możemy gdzieś zobaczyć czy historia mogłaby się jakoś inaczej potoczyć albo właśnie tak jak powinna, mamy kampanie, które musimy odpowiednio przechodzić.
Oczywiście Hearthstone cały czas się gdzieś tam prężnie rozwija i ten mod dostępnościowy goni nad nim.
Pojawił się jakiś systemu mod do gry Doom, czyli takiej bardzo popularnej strzelanki i on cały czas się rozwija.
Nawet ostatnio został zauważony przez twórców gry Doom zresztą, Johna Carmacka, między innymi jednego z dwóch programistów, który na tą grą pracował i autor tego moda został pochwalony.
Więc tutaj też ta informacja gdzieś poszła w świat, no i pewnie tych modów będzie z czasem przychodzić.
Też mod dowowa się rozwija.
Hmm?
Też mod dowowa się prężnie rozwija.
No właśnie.
No właśnie, czyli tutaj World of Warcraft, kolejna bardzo kultowa, bardzo znana gra.
Tym razem multiplayer.
Co jeszcze jest? Może kiedyś mod do Gothica powstaje, wiem, że on tam się gdzieś rozwija.
Jest mod do Factorio, czyli taka gra, w której fabrykę tworzymy i musimy tą odpowiednio jakieś pasy, linie produkcyjne tworzyć.
Tych modów powstaje coraz więcej i coś czuję, że w tym roku pewnie może jakieś mody też się pojawią, ale będzie jeszcze więcej dostępnych gier masowych.
Już mamy The Last of Us i już mam też informację, że w przyszłym tygodniu kolejna gra mobilna karciana się na…
systema mobilna dostępna ukaże, więc pewnie tego będzie coraz więcej.
Wiem, że gdzieś te osoby, które są aktywne w społeczności, właśnie w tych pracach
konsultacyjnych, np. Brandon Cole, już piszą, że jakieś następne
kontrakty dostali, o których oczywiście nie mogą mówić, ale coś się dzieje,
więc pewnie najbliższe lata będą owocowały tym, że będziemy mówić coraz mniej o grach
audio, a coraz więcej o takich właśnie ogólnie grach dostępnych po prostu dla
nas. Ten poprzedni rok był, no myślę, że mogę spokojnie powiedzieć rewolucyjny,
właśnie głównie dzięki Forzie, ale nie tylko.
No i miejmy nadzieję, że kolejne lata też tak będą wyglądać.
I w sumie jeszcze nie wspomniałeś o grze audio, która też zdominowała przez pewien
czas rynek, czyli o MW.
A tak.
W sumie.
MW, czyli dla tych, którzy nie wiedzieli o MW.
Oczywiście tak. Gra chińska, RPG, MMO, no taka.
Miał być o niej podcast, finalnie nie było.
Ale tak z dłuższej perspektywy, no to znaczy już tak typowo
nie fakty tylko opinie, no to bardzo pay to win, bardzo taka
no jakby była mobilna to bym, to by się bardzo wpisywała w schemat gier mobilnych, bo
No, bardzo trudno było cokolwiek komunikować, jakieś błędy, jakieś balansowe nieprawidłowości i tak dalej.
Ale wiem, że dużo ludzi się dalej zagrywa, więc myślę, że warto wspomnieć.
Tak. Ale właśnie, gry mobilne to zdaje się nadal jest coś takiego, co…
Nie wiem, jest coś takiego mobilnego, w co można sobie…
No i Quizvanie oczywiście się z powrotem stało dostępne w tym roku.
Tak, może nie jakoś bardzo wygodne, ale da się grać.
No tak, dokładnie.
Choć z tego co wiem lepiej jest na iOS-ie, bo tam są jakby jest trochę lepsza
responsywność i jakoś lepiej to chodzi.
No tak czy inaczej, no zwłaszcza na komputerze jest to grać.
Choć właśnie rzeczywiście fajnie by było, gdyby powstały jakieś takie różne
Ja bym nawet nie potrzebował jakichś strasznie rozbudowanych, ale takich, żeby czasem zawieść czas na jakieś systemy mobilne, bo z tym jest jakiś problem, mam wrażenie.
Wiesz co? Dużo pojawiło się takich gier bardzo skomplikowanych. Dużo gier karcianych. W przyszłym tygodniu będzie kolejna.
no to na przykład gra Country Reaps, no właśnie, czy Cyber Cards, no właśnie.
No był, jest quizwanie, jest oczywiście Brave Brain od Kiki Riki Games,
ale czy to ta gra też, tutaj opinie są podzielone.
No właśnie takich prostszych gier.
Kiedyś tego było, mam wrażenie, więcej.
Teraz jakoś bardziej, no tutaj znów wracamy do tematu, że gdzieś więcej takich gier
mainstreamowych staje się gdzieś dostępne.
A takich właśnie prostszych gier ostatnio
to mniej się pojawiło.
Znaczy też
jeśli chodzi o gry mobilne no to
nie wiem, można wspomnieć audio mema od Dawida Piopera,
który raz bym zrobił, żeby stestować czy mu działa tam.
Ale jeśli ktoś chce sobie wspomnieć.
Prosta gra, prosta gra.
To się zgadza.
No i jeszcze chyba w tym roku zniknęły, chyba, że ja czegoś nie, nie wiem, nie umiem, czy coś tam, ale zniknęły te gry z Google’a. Nie wiem czy wszystkie.
Jakie?
No te takie z asystenta Google, te takie jakieś tam 180 słów, ciepło-zimno, a ciepło-zimno to ja bardzo lubiłam.
W ogóle nie przestał działać asystent.
Dużo rzeczy z asystenta znika, pewnie jutro będziemy o tym mówić więcej.
To znaczy w ogóle to już jest chyba któryś, któryś news, który mówi, że asystent Google się zwija, to też w tamten rok to taki był, różne takie oznaki, że może ten asystent jakoś tak.
No będzie przechodził w barda zaraz.
No tak się mówi, ale zobaczymy co będzie. Znając Google, ja się naprawdę po Google wszystkiego spodziewam.
Natomiast może jeszcze tak na końcu takie jakieś rzeczy, które się w tym roku zmieniły, też a propos gier, no na szczęście tutaj nic nie zniknęło, ale gra, ojej przepraszam, jakieś efekty dźwiękowe, niefajne, gra A Hero’s Call jest darmowa teraz, czyli też gra RPG, którą można pewnie grać po polsku, to jest tłumaczone po części maszynowo, po części gdzieś korygowane, ale też myślę, jeśli ktoś jeszcze nie grał w ogóle do swojego czasu, to był podcast, co było,
był wywiad z autorami tej gry to już parę lat temu, ale bardzo fajna gra, też warta polecenia.
Tak. No dobrze, to co? To następny materiał.
Następny materiał.
Następny materiał, a tym razem posłuchajmy co o roku 2023 ma nam i wam przede wszystkim do powiedzenia Krzysztof Wostal.
Dzień dobry, wieczór. Nazywam się Krzysztof Woznal.
W roku 2023 stałem się osobą całkowicie głuchoniewidomą.
Zupełnie niewidomą i zupełnie niesłyszącą.
Stało się to po 20 latach używania aparatów słuchowych.
Od 1999 roku byłem osobą głuchoniewidomą.
Jeszcze wtedy, w 1999 roku, coś widziałem.
Bardzo mi się słuch wtedy też pogorszył.
Ale od 2003 roku nosiłem aparaty słuchowe.
No i tych aparatach sobie radziłem całkiem, całkiem.
I w 2023, na początku tego roku,
Na początku lutego, w nocy z 4 na 5 lutego całkowicie straciłem słuch.
Aparaty słuchowe w niczym już nie pomagały.
I bardzo pomocne w tej sytuacji okazały się umiejętności, które nabyłem wcześniej.
Oczywiście bardzo ważni byli ludzie, którzy byli wokół mnie, którzy pomogli,
ale też bardzo ważna okazała się umiejętność obsługi różnego rodzaju urządzeń
i znajomość Braille’a.
Braille dzisiaj przez wielu jest niedoceniany, Braille przez wielu jest odrzucany
jako coś, co jest zbędne, jako coś, co można zastąpić.
Można zastąpić audio książkami, można zastąpić mówiącym komputerem i właściwie
wielu ludziom wydaje się ten brail zbędny.
Nie chciałbym w tym miejscu dowadniać, że tak nie jest, że niewidomy, który nie zna
Braille, nie umie czytać, nie umie pisać, to jest analfabetą jednak, ale chcę pokazać, że ten Braille
w takiej sytuacji, w jakiej ja się znalazłem, okazał się wybawieniem, okazał się narzędziem, dzięki
dzięki któremu miałem kontakt ze światem, dzięki któremu mogłem rozmawiać z ludźmi.
Odbyło się to tak, że na początku mój syn, który nie miał możliwości szybkich przekazywań informacji,
Nie mógł tego szybko zrobić. Jakoś w ten pierwszy dzień nie wpadliśmy na ten pomysł.
Pisał na maszynie brajlowskiej, pisał na Perkinsie, a ja to czytałem.
Mówić mogłem, więc mówiłem, natomiast nic nie słyszałem, więc on pisał brajlem, a ja to czytałem.
I w ten sposób się komunikowałem.
Ludzie dzwonili, do niego pytali się i ja wtedy tym Braille’em czytałem.
Pomógł też alfabet Lorma, który z Braille’em nie jest związany,
natomiast to kolejna metoda komunikacji, która bardzo się przydała.
W tym pierwszym, drugim dniu też, kiedy pojechałem z moją przyjaciółką do szpitala,
żeby sprawdzić, co mogło się stać.
I wtedy alfabet Lorma okazał się też bardzo ważny,
więc kolejna umiejętność, którą posiadłem wcześniej
i którą nie tylko ja znam,
którą wtedy nie tylko ja się posługiwałem,
no to pomogło.
I wracając do Braille’a,
po kilku dniach
Zacząłem używać w pełni monitora Brailowskiego wraz z iPhone’em.
Na Focusie czytałem to, co ludzie do mnie pisali na Whatsappie.
Ja mogłem nagrywać, mogłem mówić.
Też do niektórych pisałem.
No i czytałem to, co ludzie pisali.
To była bardzo szybka metoda komunikacji.
Jak gdzieś jechałem, nie mogłem oczywiście sam gdzieś jeździć,
no bo taka prosta rzecz jak przejście przez ulicę była niewykonalna samodzielnie
z powodu tego, że po prostu nie słyszałem tych samochodów, które nadjeżdżają.
Nie wiedziałem kiedy przejść.
Więc monitor brailowski nosiłem cały czas przy sobie.
Ja mam Focus’a 14 Blue, na pasku na szyi go nosiłem, czy to u lekarza, czy to w innych sytuacjach.
Właśnie czytałem Braille’em. Różnie ten Braille wyglądał, czasami z skrótami braillowskimi, czytałem, czasami nie.
ale to był bardzo dobry sposób na to, żeby się komunikować z otoczeniem.
W tym czasie czytałem różne książki, ale też czytałem grupy facebookowe.
Zdecydowałem się na wszczepienie implantu ślimakowego.
Bardzo szybko miałem kwalifikacje do tego implantu ślimakowego.
Już 26 maja miałem wszczepiony implant ślimakowy
I w szpitalu również za pomocą monitora brajlowskiego, za pomocą SMS-ów, które np. pielęgniarz wysyłał do mnie, czy lekarz wysyłał do mnie SMS-a, a ja sobie czytałem, np. na wizycie po operacji mogłem odpowiadać.
Też na sali wybudzeń po operacji moja córka była ze mną i dała mi do ręki monitor i to był taki moment, w którym poczułem, że się wybudziłem tak naprawdę.
I znowu mogłem mówić, od razu czytałem, gdy mnie się pyczano, jak się czuję i czy nie mam zawrotów głowy, jakichś takich sensacji pooperacyjnych.
I ten monitor Brailowski znowu w szpitalu też się okazał bardzo pomocny.
Brail jest, uważam, bardzo potrzebny i w tej sytuacji potwierdziło to się,
że Brail jest potrzebny, że Brail jest ważny.
On może nie ma już takiego znaczenia dla osób niewidomych,
Jak miał kiedyś, że czytaliśmy książki, bo nie było książek audio, książek mówionych, nie było takiego dostępu do tych książek.
Ale jednak w tych sytuacjach ulotnych, winda, lekarstwa, gdzieś w pociągu, gdzieś na peronie, Braille się bardzo przydaje.
Braille się właśnie przydał w tej sytuacji, w której byłem.
Zastanawiać się Państwo możecie, jak to jest, że ja teraz do Was mówię.
Powiedziałem przed chwilą, że mówić mogłem, ale też powiedziałem, że jestem osobą w tej chwili całkowicie głuchoniewidomą.
Jestem zaimplantowany i słyszę dzięki implantowi ślimakowemu.
Mam wszczepiony implant ślimakowy, mam na uchu procesor dźwięku, rehabilituję się, rehabilitacja przebiega bardzo dobrze, przebiega właściwie błyskawicznie i słucham, i znowu mogę słyszeć, i słucham muzyki, chodzę na koncerty, rozmawiam z ludźmi, chodzę samodzielnie.
No, ale podkreślić chcę to znaczenie brajla.
Nawet były takie sytuacje w tej chorobie mojej,
że zamawiałem sobie przez Allegro jakieś rzeczy
za pomocą monitora brajlowskiego i brajla
i szedłem do paczkomatu.
Mam do paczkomatu taką sytuację drogową,
że są światła udźwiękowione. Ich nie słyszałem, ale mogłem iść przejściem podziemnym,
które jest nieopodal i przechodziłem za je przejściem podziemnym do paczkomatu.
No i czytałem na monitorze brailowskim przy paczkomacie, która kolumna, który rząd,
obsługiwałem aplikacje impostu i to też był taki moment Brailowski fajny.
Dzisiaj gdy idę do paczkomatu korzystam z mowy iPhone’a, korzystam z VoiceOver’a.
W tej chwili już słucham sobie na szybkości 70%.
Wcześniej nie było to możliwe.
Po operacji mniej więcej 50% szybkości to tak rozumiałem.
W tej chwili 70%, tak jak było w aparatach słuchowych.
JOS-a na komputerze słyszałem po operacji tak z prędkością powiedzmy 60-55%.
W tej chwili 100% znowu, tak jak przed operacją ze SPIC-iem używam.
I jest to droga dla głuchoniewidomych.
Głuchoniewidomy człowiek Braila powinien znać, bo Brail może być wykorzystywany jako metoda komunikacji właśnie poprzez monitor Brailowski.
Jest też taka metoda jak Brail do dłoni, gdzie możemy użyć swoich palców jako klawisze maszyny, a ktoś pisze tak jak na maszynie Brailowskiej,
Albo można na naszych palcach stawiać dłutkiem, jak gdyby.
Oczywiście nie kłuje nas, tylko używa swojego palca.
I z dwóch palców tworzymy komórkę,
gdzie na jednym palcu mamy trzy punkty,
na drugim palcu trzy punkty.
No i w ten sposób też można używać tego brajla.
To też jest jedna z metod komunikacji osób głuchoniewidomych.
Gdybyście chcieli więcej poczytać właśnie o różnych metodach komunikacji,
w tym właśnie o tym brajlu do dłoni albo o implantach ślimakowych,
to zapraszam do serwisu gluchoniebidomi.info.
Pod takim adresem gluchoniebidomi.info jest serwis.
Bo leżałem sobie w tej chorobie i ten alfabet LORMA w tych szczególnie początkowych sytuacjach,
ale później też był bardzo pomocny i tak sobie wymyśliłem,
że jak znowu będę słyszał, to stworzę serwis poświęcony Lormowi.
Też, że udam się na jego grób, też sobie tak wymyśliłem.
Na grobie byłem 9 sierpnia w Brnie.
To 9 sierpień jest tym dniem, kiedy jest rocznica,
kolejna urodzin Hieronomusa lorma.
No i zacząłem tworzyć serwis poświęcony LORMowi,
no ale stwierdziłem, że trochę mało.
I powstał serwis Głucho-Niebidomy Info w fundacji Transgresja.
Ja go tworzę w ramach fundacji i do odwiedzenia tego serwisu również
tych, którzy są zainteresowani głuchoślepotą i różnymi aspektami tej głuchoślepoty
Różnymi aspektami radzenia sobie z głuchoślepotą
do tego serwisu bardzo serdecznie zachęcam.
Mam nadzieję, że ta moja wypowiedź
pokazała moc Braila,
pokazała moc ludzkiej pomocy,
którą dostawałem i wciąż dostaję i zawsze dostawałem.
i pokazała, że warto zdobywać wiedzę, wiedzę technologiczną, która może w wielu sytuacjach dla nas osób z dysfunkcją wzroku, dla nas głucho niewidomych być bardzo ważna.
Każda wiedza jest ważna, a ta technologiczna może wspierać nas m.in. właśnie w komunikacji z otoczeniem, z wykorzystaniem alfabetu Braille’a np.
Dziękuję serdecznie i pozdrawiam.
Dziękujemy Ci Krzysztofie za tę historię, bardzo ciekawą zresztą.
Natomiast teraz przechodzimy do kolejnego tematu. Tematu różnych interesujących komputerków.
Między innymi Rogali taki sprzęt. Ty Paulino miałaś, testowałaś, bawiłaś się tym.
No i co? I to jest dla nas jakaś rewolucja w tym sprzęcie?
Znaczy tak, mały wstępik, bo
rok alaj, rok alajem, ale generalnie mamy
od tamtego roku do czynienia z
no pojawiającymi się co irusz nowymi komputerami typu handheld
czyli takie pół komputer, pół konsola
ekranik jakieś tam 7 cali czy
coś takiego no ala telefon, tylko że
tylko że poziomo, a pod tym ekranem dotykowym oczywiście jest, wyłączę sobie tylko, przepraszam,
jest coś co wygląda jak kontroler, jak pad do gier, czyli po prostu wszelakiego typu gałki, przyciski, spustu itd.
No i mamy tam wejście jakieś tam USB-C, możemy sobie podłączyć jakąś tam klawiaturę,
myszkę czy co tam innego, oczywiście na bluetooth też jak najbardziej się da,
no władowanie, słuchawki, no i tak naprawdę cała filozofia.
No i poza Asus Roguelikem jest Lenovo Legend Go, jest Steam Deck z Linuxem
i ma być teraz jakiejś emesji podobno, ale jeszcze o tym nie doczytałam zbyt dobrze,
więc nie będę się bardziej rozwodzić na ten temat.
No, Legend Go wiem, że ma większy ekran, wiem, że ma twardy etui i w zasadzie
no więcej o nim jakoś też zbytnio nie wiem.
Tego Asusa Rock Alloy’a, no background mój był taki, że stwierdziłam, że jak
Zdam najtrudniejszy egzamin w tamtym semestrze w pierwszym terminie, to sobie go kupię.
Zdałam, kupiłam, no bo stwierdziłam, no czasami mi się zdarza gdzieś tam podróżować
i wypadałoby jakiś komputer mieć, a że to jest małe, no to wezmę sobie, kupię to,
kupię jakąś ewentualnie składaną, zwijaną, czy jeszcze jakąś inną konstrukcyjnie,
niewiele miejsca zjmującą klawiaturę
no i będę sobie z takim zestawikiem popylać
wrzucać sobie w pociągu
na kolana klawiaturę
w torbie trzymać czy tam w plecaku
tego rogalika
no i sobie będę pracować
na zamiast
jeśli chodzi o już samo
użycie sprzętu no to
no cóż
no w zasadzie go kupiłam
i tak zobaczyłam, że ten ekran dotykowy
ogólnie jego responsywność
była dość słaba.
Już nie mówiąc o tym, że
NVDA niezbyt dobrze działa z ekranami
ozdobkowymi, lepiej działa z nimi nawet narrator,
bo dużo bardziej doświadczenie jest zbliżone do
tego, co mogą nam zaoferować systemy mobilne.
Natomiast w NVDA
coś tam się chyba nawet zmieniało
jakiś czas temu w jednej z ostatnich wersji. Natomiast wtedy, kiedy ja to testowałam, czyli to był chyba jakiś lipiec, bo też egzaminy mi się przesunęły ze względu na igrzyska,
no to, no to, no to, to było tak, że jakby flik w prawo robił następny obiekt nawigatora, flik w lewo poprzedni obiekt nawigatora, no i się chodziło po systemie jak po nawigacji obiektowej,
a to nie jest zbyt wygodne, jeżeli, jeżeli nie pracujemy z programem niedostępnym,
więc no jednak to doświadczenie nie było zbyt wdzięczne,
a też nie jestem, jakby nie czuję się na tyle dobra,
żeby cokolwiek w tym zmienić tak typowo, wtyczkowo, programistycznie i tak dalej.
No więc pomysł korzystania z tego bez klawiatury i na ekranie dotykowym
Porzuciłam już chyba nawet na etapie instalacji systemu
albo i zaraz po jak właśnie odkryłam jak to z NVDA pięknie działa.
Natomiast
no zaniepokoiła mnie bateria.
Ja tak naprawdę kilka rzeczy zrobiłam na tym systemie i
i już tej baterii prawie tam nie było.
W sensie no jeżeli to by zapewniło jakieś
Jakieś trzy godziny użytkowania to to jest max, a trochę nie o to mi chodzi w komputerze podróżnym.
Ja wiem, że to jest małe i że to nie może jakoś bardziej, ale myślę, że to jest też kwestia,
że był to pierwszy handheld taki poważniejszy z Windowsem na pokładzie,
więc może później będzie trochę lepiej z tymi zasobami energetycznymi.
No ale też taka jakość trochę wykonania, ten głośnik był taki jak w takich chińskich
telefonach za 153 złotych takich po prostu.
Jakoś nie podobało mi się to brzmienie, ledwo się tam
troszkę wybiło głośność to już się to zaczęło przesterowywać, resamplować.
Nie wiem, mikrofon to tam piszczał tak, że się nie dało, w sensie trzeba było tam
Ostrzemiacz jakiś dać, bo cały czas były jakieś takie piski jak ze starego kineskopowego monitora.
A to urządzenie nie było jakieś tanie, prawda?
A nie było, nie było.
No obecnie cena rynkowa, mogę szybko sprawdzić.
ASUS ROG Family.
Cena.
Jeszcze było chyba około 4 tysięcy, no nie?
Tak.
Tak, teraz jest trochę taniej, bo teraz są wersje chyba bez jakiegoś tego amendamentu, coś, to chyba teraz można iść do 3600.
Bez tego procesora extreme, bo chyba on by go na początku był rozstępny, ten dwie…
Tak, teraz jest…
3670, chyba tak patrzę na szybko.
No nie ważne, w każdym razie też podmapowanie tych poszczególnych przycisków niezbyt mi się spodobało.
Parę się powtarzało, parę można byłoby zrobić lepiej, no myślę, że jakimś typowym szarpkisem nie udałoby się tego rozwiązać.
Może jakoś w tych aplikacjach Asusowych udałoby się coś z tym zrobić, nie wiem.
Ja też tak spanikowałam, bo kupiłam to nie przez internet, tylko w sklepie, więc stwierdziłam, że jak najszybciej to włożę do opakowania tak jak jest.
więc wszystko to ładnie pozwijam, popakuję i z samego rana jutro jadę to odesłać, znaczy zwrócić.
I się bałam, że tego zwrotu mnie nie przyjmą, ale mi przyjęli na szczęście, więc jak szybko to kupiłam, tak szybko to zwróciłam.
Ale no cóż, myślę, że już będę wiedziała mniej więcej na co pierwsze zwrócić uwagę,
tylko jak po raz kolejny mnie pokusi, żeby gdzieś tam rynek tych handheldów eksplorować.
No i myślę, że mogłoby to być ciekawe, no właśnie chociażby dla Tomka, który tam
potrzebuje sobie siąść przy reaperze i tymi gałkami, jeżeli byłby w stanie to podmapować,
no to ewentualnie coś będzie w stanie zrobić, a jeśli nie, to właśnie jakaś klawiaturka
Mini da radę.
Ogólnie przydałaby się klawiatura braillowska na ekrany dotykowe pod Windowsa.
Myślę, że to może być bardzo fajne w erze tych handheldów,
ale też nie wiem, czy ktoś byłby w stanie coś takiego zrobić.
To znaczy, podejrzewam, że ktoś byłby.
W sensie, no ktoś byłby, ale czy jest zainteresowani handheldami
u niewidomych na tyle dużo, żeby ktoś to zrobił?
Wiesz co? Myślę, że jest.
Jakieś jest. Raz, że te gry właśnie chociażby powstają, które są mainstreamowe i dostępne,
one dość często są przecież na pady, a ten komputer ma pada klasycznego.
Zapytam, to jak rozumiem, tu chodzi o to, że ten komputer jest z założenia dedykowany graczom.
Tak, to jest komputer, bo w ogóle tak, dlaczego ja w ogóle wpisałem to coś tutaj w newsa?
Nie dlatego, że ja jestem ten zainteresowany, bo do dźwięku się może udać.
Nawet nie do końca mi o to chodziło, tylko do tej pory takie komputery PC to wyglądały tak,
albo duża skrzynia, osobno klawiatura, osobno monitor, osobno wszystko,
czyli klasyczny blaszak, komputer sezonarny, albo laptop, czyli to wszystko razem zintegrowane z klawiaturą, z ekranem itd.
i tak dalej, i tak dalej, ale, no, albo ewentualnie komputerki typu tam USB stick, czyli miniaturowe komputerki bez niczego, ani klawiatury, ani monitora, niczego, które bez baterii.
Jakiś tablet konwertowalny, coś tam, w sensie laptop konwertowalny, tablet na tego typu rzeczy.
Tak, ewentualnie tablet, a teraz on dochodzi czwarty czy kolejny rodzaj komputerów, komputer zbudowany padem wielkości takiej i dostosowany do tego, żeby go wziąć w rękę, jedną rękę, powiedzmy nawet i coś tam sobie z nim robić.
I teraz kwestia jest tego typu, że po pierwsze nie wiadomo czy te komputery, oczywiście, czy ich będzie coraz więcej, no na razie kilka firm robi te takie komputery, no jest ten Asus, teraz jest Lenovo, Legion Go chyba, jest MSI, o Jezu, jak on się nazywa?
Tak, tak. I to są komputery, które są bardzo podobne pod względem właśnie wymiarów, pod względem tego, co one mają. Oczywiście specyfikacje się różnią, tak, no chociażby MSI ma procesor Intela, a nie AMD i dodatkowo MSI ma wejście na dysk SSD.
Co prawda w standardzie 30 mm długości, a nie 80, więc powiedzmy nie każdy dysk tam pasuje, ale są takie do kupienia dyski w tym standardzie, więc niekoniecznie trzeba mieć dysk 512 GB, ale jeżeli ktoś chce to można mieć, a widziałem nawet w XCOMie, dysk o takich parametrach o rozmiarze chyba 2 TB, więc w razie czego można sobie taki dysk wymienić na jakiś własny.
No i tak dalej, i tak dalej, tam różnic jest tam powiedzmy kilka, tak czy inaczej, no są to jakieś komputerki, które mają potencjalne jakieś zastosowania.
Teraz kwestia jest tego typu, co się z tym będzie działo, tak, to jest normalny Windows na pokładzie, więc tam jest właśnie NVDA.
No teraz pytanie, czy, a jeżeli tak to kiedy, ktoś zrobi na przykład klawiaturę brajowską, albo czy jest gdzieś do kupienia klawiaturka bluetooth, wygodna w rozmiarach, podobny do tej komputerka, czyli powiedzmy długość nieprzekraczająca 30 centymetrów,
Albo na przykład, czy jest klawiatura składana, którą można pisać na kolanach, albo może pojawią się futerały, jakieś takie pokrowce na te komputery z wbudowaną klawiaturą, tego nie wiem oczywiście, ale być może coś powstanie, być może powstanie jakieś programy, nie wiem jakie, dla niewidomych, nie wiem, które właśnie są przystosowane do uruchamiania na takich komputerach, do czego nie wiem, może odtwarzacze muzyki.
Czyli, że macie odtwarzacz muzyki z klawiszami sprzętowymi, który można rzeczywiście ze sobą zabrać.
Smartfon jest fajny, jest malutki, ale smartfon nie ma właśnie przycisków sprzętowych.
To ma tego pada właśnie, to ma nawet niezłe podzespoły dobrej jakości, więc tam można różne rzeczy uruchamiać.
Podobno tutaj jest wbudowany procesor jakiś Intelowy, który ma jakieś wspomaganie do sztucznej inteligencji, a nóż powstanie Whisper na to coś.
Być może będzie można w podróży na przykład gdzieś używać Whispera, no nie wiem, może powstanie jakiś program typu Asystent.
Whisper plus jakiś lokalny tłumacz, też nie wiem czy powstanie, nie wiem kiedy powstanie, jaka jest na to szansa,
ale być może coś takiego powstanie, no to jest właśnie jakiś taki komputerek, który być może się komuś przyda, być może nie.
Na ten moment mamy bardzo niewiele takich dedykowanych dla nas zwłaszcza rozwiązań do tego typu urządzeń,
no ale znowu jest jakieś urządzenie, które może być jakieś ciekawe, a może nie, tego nie wiadomo, być może to na przykład umrze jak netbooki,
które się w gruncie rzeczy nie przyjęły, choć też kilka firm tworzyło netbooki.
Choć wśród niewidomych nawet były popularne.
Tak, oczywiście i być może to również będzie po jakichś kilku wynalazkach.
Właśnie być może ktoś zrobi klawiaturę taką ekranową.
Czat GPT zawsze czeka i być może nawet on by mógł stworzyć coś takiego.
Nie wiem czy by mógł, ale może.
Jakbym miała dłużej do testów, to może bym coś spróbowała.
Pytanie wiecie, pytanie ile w ogóle jakby punktów można aktywować na tym ekranie dotykowym.
No możliwe, że to zależy od komputera, być może to zależy od komputera, ale no wiecie, to są właśnie takie rzeczy, które no być może…
Jest dużo pytań, dużo pytań.
Jest dużo pytań, tak, no i właśnie pytanie, no właśnie, no i kiedy uzyskamy na nie odpowiedzi, tego nie wiadomo.
Na razie się pojawia trzecia lub czwarta, jeżeli liczymy Steam Decka, chociaż to jest trochę osobna kwestia.
Tak, a z drugiej strony właśnie Steam Deck to wszystko za początkowo, tyle że…
Steam Deck to jest Linux, więc dla nas to jest niestety bardzo słabo dostępne, natomiast producenci zobaczyli, że Steam Deck zaczął się naprawdę dobrze sprzedawać, nie wiem czy nie w milionach, ale bardzo możliwe, no i dlatego teraz się taki wyścig zaczął.
Więc być może, być może jest, będzie to coś, no co będzie rzeczywiście jakoś dostępne, bo z tego co wiem, ASUS to naprawdę próbuje, chyba tak mi się wydaje, próbuje niezły marketing robić temu, temu Rogali, bo przecież i w ich skomie na to jest jakaś specjalna wystawa, czy była przynajmniej zrobiona, już ten, już ten Rogali był tam dostępny od ręki, można było zobaczyć, on był podłączony
w jakichś tam innych sklepach tych dużych takich AGDRTV, no to też tam chyba nieraz, więc tam chyba promocja z tego dość duża, więc oni chyba chcą się bardzo przebić do świadomości graczy, zwłaszcza, że jest coś takiego i może komuś się coś takiego przyda.
No i pytanie teraz, czy się zrobi taki samonapędzający się mechanizm.
Jest dużo gier, więc dużo ludzi to kupuje, więc dużo się tego produkuje, czy nie?
Tego nie wiem. Ale jest na to szansa.
To co? Kolejna wypowiedź.
Kolejna wypowiedź.
Wypowiedź w takim razie.
Zanim wypowiedź, to ja bym się już pożegnała, bo no cóż, rano trzeba wstać.
Audycja nie myśli się kończyć.
Jeszcze, jeszcze troszeczkę potrwa. Także dzięki Paulino.
Dzięki, najpewniej do zobaczenia już dziś, po przeglądzie wieczorem.
Także miłego prowadzenia audycji, miłego słuchania słuchaczom.
Do zobaczenia, do usłyszenia, miłej nocy.
Do zobaczenia, do usłyszenia.
A tymczasem zostawiamy Was z Kamilem Żakiem, który również nam kilka słów na temat
z 2023 roku. Opowie.
Witam wszystkich serdecznie w TV Podcaście.
Po raz pierwszy w tym roku słychać mnie na antenie i w audycji.
A zatem wszystkiego najlepszego w nowym 2024 roku.
A teraz przejdźmy do mojego podsumowania roku minionego 2023.
Na pierwszym miejscu jest wydarzenie najgorsze, czyli zmiana aplikacji
banku Santander z bardzo dobrej, świetnie dostępnej na beznadziejną
i jakoś tam dostępną. Dlaczego beznadziejną?
Dlatego, że podstawowe elementy, owszem, są dostępne i nawet statyczne,
da się do nich przyzwyczaić, nauczyć się nowej aplikacji,
przemodelować myślenie na jej temat i gdzieś tam używać, natomiast zaawansowane
elementy takie jak ponawianie przelewów, generowanie pdf-ów z wykonanych
transakcji jest już zadaniem bardziej karkołomnym, tak na Androidzie jak
w systemie iOS czy iPadOS.
Także niestety Bank Santander, mimo tego, że stronę ma nadal świetną i obsługę
infolinii i tak dalej, bankomaty, to wszystko co wypracował przez te
15 lat, przez które jestem klientem tego banku, zepsuł jedną zagrywką,
psując kanał najbardziej obecnie przecież ważny dla klientów,
czyli kanał aplikacji mobilnej służącej bankowaniu.
Także to jest rzecz pierwsza.
Druga to nowe sprzęty, które w tym roku, minionym 2023, udało mi się pozyskać.
Zacznijmy od laptopa, to jest model Lenovo Legion Pro 5 i RX8, 8 generacja tego modelu, z procesorem Intel 13 generacji, model to jest 13700HX, 8 rdzeni wysokowydajnościowych dwuwątkowych, czyli 16 wątków 8 rdzeni, plus 8 rdzeni energooszczędnych jednowątkowych o nieco niższym taktowaniu,
32 GB pamięci i RAM DDR5 o taktowaniu 5800 MHz, czyli tej podstawowej, wiadomo, DDR5 dopiero wkracza na salony mocno,
znaczy już jest od dawna, ale droższe konstrukcje mają niewiele wyższe taktowania, a bywają dużo droższe.
Grafika to jest oczywiście zintegrowana Intel UHD 770,
a dedykowana to jest karta graficzna NVIDIA RTX 4060,
8 GB pamięci RAM, mikrofony takie jak słyszycie,
bo z niego się właśnie nagrywam z tego laptopa,
Windows 11 Pro na pokładzie, 6 portów USB,
z czego dwa to są porty USB typu C,
Jeden port USB C umożliwia ładowanie notebooka, nie tylko jest możliwe ładowanie przez standardowe wejście zasilania, które oczywiście istnieje, natomiast też przez USB C nieco wolniejszymi ładowarkami też można się wspomóc, ponieważ jest to laptop gamingowy, konstrukcja dość ciężka, ale sprzęt piekielnie wydajny i taki, o jaki wreszcie mi chodziło, czyli ma właśnie tak jak opisałem dużo portów, dużo jeździ.
Kiedy, tak jak teraz nagrywam, czyli no wykonuję zadanie na nim
niewymagające wysokiej wydajności, sprzęt jest dość cichy,
właściwie jest w ogóle cichy, nie słychać prawie wiatraczków
w pośrednich laptopach, które miałem, był z tym kłopot.
Nawet w tym ostatnim MSI, który nawet przy delikatnych zadaniach
typu Word albo popieranie maili przez autorka też był mocno słyszalny
i komfortowa praca na nim nie była. Z tym Lenovo od początku
Takiego kłopotu nie mam. Z kamerki nie korzystam, więc cieszę się,
cieszę się, że mam fizyczny przełącznik ją wyłączający.
Nie używam, raczej rzadko używam kamerki, chyba, że jest po prostu
potrzebna. Także komunikacyjnie laptop dobry. Bateria, wiadomo,
w laptopach dla graczy nie jest jakimś demonem czasu pracy.
Nie o to też chodzi. Mi chodziło oczywiście o ilość gniazd wejścia,
wejścia. W ultrabookach jest ich mało, więc nie brałem pod uwagę
takiego sprzętu. Dobra, przejdźmy teraz dalej, kolejne trzy urządzenia to oczywiście
iPhone SE 2022, iPhone 15 oraz iPad mini szóstej generacji.
Mój pierwszy iPad, jaki do mnie trafił.
I tak tylko krótko porównam, bo iPhone’ach i ogólnie o iOSie czy iPad, o iOSie
mówimy dość sporo w tyfro podcaście, iPhone 15 jest delikatnie szybszy od
iPhona SE 2022 czy też tego iPada mini 6 generacji, ma procesor
jednogenerację nowszy i 2 GB pamięci RAM więcej.
iPhone 15 ma 6 GB, iPad mini 6 oraz iPhone SE 2022 mają po 4 GB RAMu
i procesor A15 Bionic.
iPhone 15 ma A16 Bionic, czyli taki sam jak w zeszłorocznym modelu 14 Pro i 14 Pro Max.
Cóż, bateria w SE 2022 nie jest jakaś wybitna,
niemniej jednak względem iPhone’a 8 czy też iPhone’a SE 2020
podczniono pewne postępy i można już z tego telefonu korzystać.
Wiadomo, że nie do zadań wymagających przez cały dzień,
ale przy takim typowym użytkowaniu typu trochę nawigacji po mieście,
trochę czytania poczty, trochę dzwonienia,
trochę gdzieś tam przeglądania społecznościówek,
plus jakieś ewentualnie trochę grania,
to telefon wytrzyma cały, powiedzmy, że prawie cały lub cały dzień.
W przypadku jeszcze mniej intensywnego użytkowania
SE 2022 wytrzymuje jeden dzień i nawet troszeczkę drugiego dnia.
więc niektórzy nazywają tą baterię, która jest zanim umieszczona
produktem bateriopodobnym.
Owszem, jeżeli ktoś wymaga, no to istotnie, nie zadowoli go ta bateria,
ale dla użytkownika, który jest świadom tego, co kupuje i dlaczego to
kupuje, telefon nie będzie jakimś wybitnie negatywnym zaskoczeniem.
Tak? Chcesz mieć użytkowniku drobniacza ID, nie chcesz Face ID, proszę
bardzo, a telefon ma dobre podzespoły, w miarę nowe i jeszcze co najmniej
3 lata będziemy aktualizacje, jak nie 4, zobaczymy czy do iOS 20 czy 21,
ale przeważnie jak Apple to tak robi jak zwykle, to myślę, że do 20 na pewno.
Dobra, jeszcze do 15 przejdźmy.
Bateria oczywiście świetna, bo ponad 3000 mAh, nawet 3000 kilkaset,
nie pamiętam teraz dokładnie ile.
Ten telefon już spokojnie wystarcza na półtora dnia pracy
lub nawet dwa, jeśli nie jest to użytkowanie intensywne.
Czasem nawet jeden dzień, jeżeli jest bardzo intensywne.
Na przykład kilkugodzinna podróż z GPS-em
albo oglądanie filmu przez kilka godzin czy też serialu itd.
Jeszcze kilka słów o iPadzie Mini.
Tak jak wspomniałem, jest to moje pierwsze urządzenie tego typu.
Rozwiązał mi on bardzo istotny problem,
a mianowicie słucham dużo książek.
Przeważnie w programie Voiced Game Leader na iPhone’ach słuchałem na 5S,
słuchałem na 8, teraz trochę na SE
i przerzucam się na iPada, ponieważ to bardzo drenuje baterie i szybko je niszczy.
To znaczy ich cykl życia mocno się skraca przy takim korzystaniu.
Plus taki, że nie trzeba korzystać z odtwarzaczy książek mówionych, dodatkowych, specjalnych,
ponieważ program ten spełnia świetnie swoje zadania, a sam iPad starcza, jego bateria mająca
ponad 5000 mAh starcza na bardzo dłużo czasu, więc oprócz tego, że książki
Tablet generalnie służy do działań w domu, czyli oglądamy z synkiem jakieś tam bajki i tak dalej.
Ja słucham swoich książek, trochę się gra.
Oczywiście działają też różne aplikacje, w większości dostępne tak samo jak na iPhonie,
dzięki czemu nie zostanę zaskoczony tym, że wychodzę z domu z telefonem,
który jest mocno rozładowany.
Także tyle ode mnie w kwestii iPada.
To dla mnie taka nowość w 2023 roku, więc chciałem o tym wspomnieć.
Kolejna rzecz, początki sztucznej inteligencji.
Nie sposób tego pominąć, to znaczy początki.
Początki masowego wykorzystania tejże generatywnej sztucznej inteligencji
przez takich zwykłych, że tak powiem, użytkowników,
jak ja czy ktoś z was, moi drodzy słuchacze,
Tak, zaczyna się od zadawania pytań różnym botom.
Będzie to pewnie ewoluować w kierunku takim,
że będziemy wydawać systemom różne bardziej złożone polecenia,
a nawet będą mogli pisać programy, różne programy.
Ludzie, którzy normalnie języka oprogramowania
raczej by nie opanowali ze względu na własne gdzieś tam
preferencje tego, co lubią robić.
Także ten rozwój tej sztucznej inteligencji to jest kolejny taki mocny akcent,
który w 2023 roku przybrał na sile i wzrasta stale jego znaczenie
w takim kontekście masowego użytkowania i ewolucji tych rozwiązań,
które już powstały oraz tych, które jeszcze powstaną.
W tym też te sprzętowe, na przykład nowe laptopy będą miały w tym roku
w 2024, nowe jednostki do przetwarzania zadań związanych z użyciem sztucznej
inteligencji, tak lokalnie, na urządzeniu lokalnym, jak i w chmurze
obliczeniowej różnych dużych firm, takich jak Microsoft, Google czy Amazon.
Dobrze, to tyle o sprzętach ode mnie, które chciałbym Państwu opisać.
Teraz krótko o systemie Windows 11.
W tej chwili używam go dopiero właśnie na tym laptopie Lenovo Legion Pro 5.
Jest to już dojrzały system w środkowej części swojego cyklu życia
już tutaj od dwóch do ośmiu lat i muszę powiedzieć, że początkowo
pewne rzeczy mi przeszkadzały, na przykład właśnie ustawienia
podzielone na dwie listy, tak, nawigacja główna i nawigacja wewnętrzna w wybranej opcji głównej.
Ponieważ pod klawiszem tabulatury nie są te listy tak wygodnie ułożone, trzeba ich szukać jednej i drugiej,
ale da się do tego przyzwyczaić.
Tak samo nie przeszkadza mi już fakt, że konto Microsoft jest w ogóle wymagane do instalacji tego systemu.
Można to obejrzeć wpisując jakieś tam komendy, ale nie próbowałem tego.
bo i tak używam konta Microsoft, tak, Ofisa 365, więc fajnie to działa, to się dobrze integruje.
Czasami może być kłopot w czasie instalacji z narratorem, który na przykład po aktualizacji,
po uruchomieniu podobnym i załadowaniu jakichś sterowników zgubi kartę dźwiękową
i wyświetla się to wszystko na ekranie, co powinno.
Na przykład szukam sieci, żeby wprowadzić hasło i tak dalej, i tak dalej, ale program nic nie czyta.
Natomiast co, któreś tam uruchomienie można to ogarnąć, to też zależy od sprzętu.
System się rozwija, cieszy mnie to, więc pewnie będzie można się spodziewać
ode mnie jakiegoś artykułu w połowie tego roku, może pod koniec,
kiedy będę w stanie więcej powiedzieć o takich różnych szczegółach,
które są istotne, typu na przykład konfiguracja, co lepiej, jak ustawić,
jak ustawić ikony, jak skonfigurować interfejs i tak dalej, powiadomienia.
O tym wszystkim pewnie będę dla Państwa pisał w tym roku.
Tyle ode mnie, dziękuję bardzo i mam nadzieję, że inni również
Państwa ciekawie poprowadzą przez to, co ciekawego było w ich roku 2023.
Dziękuję bardzo.
Przechodzimy do newsa kolejnego.
Chyba, że ktoś jeszcze coś chciałby skomentować.
Ale chyba nie, więc dźwięk to moja chyba głównie.
Chociaż nie wiem, zobaczymy.
Kategoria, bo w dźwięku troszeczkę się tutaj zadziało w 2023 roku.
Trudno tu nawet mówić o jakiejś konkretnej rewolucji.
Po prostu mam wrażenie, że kilka takich dużych firm produkujących sprzęt
zmieniła swoje nastawienia od takiego czegoś
Uuu, to niewidomi to w ogóle coś mogą do nastawienia, okej, zróbmy jakoś dostępność, może się nie przemęczając, ale okej, coś zróbmy.
No i dostępny Ableton Note, czyli taki program do tworzenia szkiców muzycznych na iOS, a teraz powoli będzie wchodziła, czy już nawet weszła, Ableton 12, pełna wersja programu do tworzenia muzyki, głównie muzyki elektronicznej,
Niektóra ta dostępność, z tego co wiem, dostała chyba już, do tego kilka kart dźwiękowych od Focusrite’a i Audient’a chyba dostały dostępne panele sterujące, czyli taki soft, w którym wybiera się, ustawia się te karty w jakiś sposób.
W różnych kartach są różne ustawienia oczywiście, w jednych kartach ustały się prawie nic, w innych prawie wszystko, no i kilka z tych kart stało się dostępnych, w tym takie urządzenia dla podcasterów, które są coraz bardziej popularne, które mają kilka, no kilka maksymalnie gniazd mikrofonowych, jakieś gniazda liniowe,
są trochę kartami, trochę mikserami, trochę takimi urządzeniami do puszczania, że tak powiem, odgrywania, odtwarzania jakichś dźwięków, które zostały tam wcześniej wgrane, czyli po prostu urządzenia, które mają obsługiwać podcast lub transmisję na żywo w taki sposób, żeby nam nie trzeba było więcej robić,
Przy czym jest to urządzenie nie dla realizatora dźwięku, tylko dla podcastera, który na dźwięku się nie zna i podcaster ma po prostu mieć urządzenie, które zrobi, żeby ten jego dźwięk był po prostu okej, zgodny z normami, żeby dało się tego wszystkiego słuchać.
Takim przykładowym urządzeniem to jest chociażby vocaster, który chyba jako pierwszy, w ogóle o nim mówiliśmy z vocaster od Focusrite, który jako pierwszy chyba miał takie dostępne sterowniki, albo przynajmniej zaczęto coś tam robić z tym urządzeniem, żeby tak się stało.
Tak, i to było promowane na stronie oficjalnie, tak się ludzie o tym dowiedzieli.
Tak, ja akurat mam to urządzenie. Kiedyś w końcu trzeba będzie zrobić na jego temat polski podcast, bo oczywiście angielskie już są dawno.
Jonathan Mosen między innymi pokazywał. Bardzo fajny sprzęt, robi co ma robić, wszystko z panelu jest dostępne, więc naprawdę tu niespecjalnie się do czego przyczepić.
Także takie urządzenia są już dostępne. Coraz więcej też wtyczek VSN ma wbudowaną dostępność. To nie znaczy, że ten procent jest duży. To są nadal trochę wyjątki od reguły, ale tych wyjątków jest coraz więcej.
Ze względu, podejrzewam, na ten interfejs JUICE, który jest dość często używany, to jest takie środowisko do tworzenia interfejsów można.
Taka biblioteka do tworzenia interfejsów właściwie w cyrkach WST.
Ta biblioteka od dłuższego czasu, od roku z kawałkiem, bo to chyba szedł 2022, tam chyba pojawiła się dostępność.
To znaczy możliwość tworzenia dostępnych interfejsów, no i kilku producentów już.
Z tego co rozumiem, to jest nawet, domyślnie stworzony w tym interfejs ma tę dostępność.
Tak mi się wydaje, choć łatwo poza tę dostępność wyjść.
No w każdym razie, no jest kilka wtyczek, które tę dostępność mimo wszystko posiada.
No i niedawno, to ty chyba Piotrek, obserwowałeś konferencję dotyczącą dostępności.
Tak, właśnie chciałem o tym wspomnieć, bo to była właśnie…
Na której też pojawiło się właśnie kilku takich dużych graczy z dziedziny dźwięku i Arturia,
nawet, nawet ten MIDI Association, czyli, czyli no to całe, całe, o Jezu słowo mi uciekło.
Towarzyszenie MIDI.
Stowarzyszenie, które zajmuje się standaryzacją midi i tam też coś myśleli,
żeby nawet dostępności wprowadzić w jakby same protokole midi.
Więc no taka konferencja, która oczywiście nie wiadomo, czy będzie miała
jakiekolwiek przełożenie na rzeczywistość.
Niemniej, ja nie pamiętam, żeby kiedykolwiek tego typu konferencja
w świecie dźwięku się odbyła.
No właśnie, bo to była w ogóle konferencja, bo w ogóle to była, konferencja nawet nie była
tyle o dostępności, to była konferencja o program, o tworzeniu wtyczek, Audio
Developer Conference, czyli tak jak Apple ma WWDC, gdzie deweloperzy przychodzą,
żeby uczyć się pisać programy, programy na Macie i iPhone’y, no to tutaj właśnie
różni programiści wtyczek audio, ale nie tylko, gdzieś sprzętu, też managerowie
przychodzą na takie różne panele dyskusyjne i właśnie między innymi był panel
dyskusyjnej, gdzie właśnie byli ci producenci, o których ty wspomniałeś, oczywiście jeszcze był Native, byli właśnie ludzie od Juice’a, był Ableton, kto tam jeszcze był, Softube, czyli też firma, która produkuje takie kontrolery, które też są dostępne.
I chyba wtyczki w Faustie też.
Też, też. Czuję się tą zmianę, ta świadomość pomału jest coraz większa.
Trudno powiedzieć, że to jest rewolucja, to jest, mam takie wrażenie, pierwszy krok
na takiej drodze, żeby rzeczywiście zaczęto mówić o dostępności
w przypadku tworzenia muzyki, obróbki dźwięku.
Taki pierwszy duży krok, który, gdzie
jakby dużo wydarzeń wydarzyło się, znaczy dużo wydarzeń,
dużo jakichś zdarzeń zaszło w miarę jednocześnie
w kwestii oczywiście, znaczy tak na przestrzeni lat.
No bo wcześniej, no to oczywiście Native Instrument coś zrobiło, jakiś tam inny deweloper, coś tam sobie udostępnił, jakoś jedną wtyczkę, coś tam jeszcze, natomiast…
W tym roku też był Machine udostępniony, no nie wiem, czy też…
Tak, w tym roku, tak, też Machine właśnie był od Native Instrumentu udostępniony, więc na przestrzeni jednego roku wydarzyło się dość dużo rzeczy dostępnościowo związanych z dźwiękiem,
gdzie rzeczywiście na przestrzeni lat wcześniejszych, to były albo jakieś sztyczki tworzone przez użytkowników, albo program, który jest przypadkiem dostępny,
ewentualnie coś, co o tym chyba też mówiliśmy w tyfro przeglądzie, co jest pisane specjalnie dla niewidomych,
między innymi również przez polskiego dewelopera, którego chyba nie będziemy wspominać, w każdym razie, no takie rzeczy się działy, natomiast rzeczywiście teraz wygląda to na takie dużo poważniejsze podejście do tematu, no i dobrze,
bo rzeczywiście jest sporo ludzi, którzy chcieliby, albo którzy już zajmują się obróbką dźwięku czy tworzeniem muzyki będąc osobami niewidomymi.
No i być może rzeczywiście ten punkt wejścia będzie w tej dziedzinie znacznie niższy.
W te zasady wpisuje się też to o czym ja chciałem powiedzieć, czyli
czyli dostępność, też znowu taka dostępność, która w pewnym sensie jest
dostępnością zamierzoną, ludzie zgłaszali i w ogóle.
I to wiele lat.
Pan stwierdził, że nie ma na to pomysłu, że
no w sumie to ja was rozumiem, ale nie mam pomysłu.
Teraz w końcu z pomocą przyszła
to technologia i to potrzeba odświeżenia interfejsu webowego.
A mianowicie mówimy o równie profesjonalnej, choć chyba jeszcze bardziej
niszowej gałęzi dźwięku, a tym bardziej gdzieś tam osób niewidomych.
Mianowicie
jeden z programowych procesorów do radia, telewizji, ale i też od pewnego czasu
wstawia całkiem spory nacisk na
radiowy streaming internetowy, mianowicie Stereotool, w końcu jest dostępny słuchajcie.
I to tak bez żadnego ale.
Są odrobne podkięcia i to jest jedyne ale, które mógłbym sobie tu wytworzyć,
że dwie czy trzy opcje chyba szybciej jest wyedytować w .ini
w pliku konfiguracyjnym komuś kto to pamięta po prostu.
Natomiast włączam.
No tak, bo muszę włączyć Web Interface choćby, niestety, o ile sama aplikacja
nie jest natywnie dostępna i nawet nie oczekuję trochę, żeby była,
bo jeżeli Pan sobie wybrał taki framework, no to…
Przepisanie do innego będzie bardzo długo trwało.
Tak, cóż ja mu będę przeszkadzał w powziętej razy decyzji.
Natomiast Web Interface jest zrobiony od podstaw,
Wykorzystuje nowe technologie, takie jak Aria.
Więc nawet atrybuty na zasadzie włączone, wyłączone, niedostępne mamy.
To się da zrobić.
Mamy dostęp do…
A! Wiem jakie jest drugie, ale faktycznie.
Chwilowo ciężko się wybiera gotowy preset, gotowe ustawienia, jeżeli takich chcemy użyć.
Fajnie jest sobie coś załadować z pliku lub
lub po prostu od wejściowego, który dostajemy, bo w takiej klasy procesorach już
się nie kręci ustawień od zera, nigdy.
Zawsze się zaczyna od jakichś wejściowych, które tam sobie chcemy zacząć.
sytuacja wygląda tak, że jedyne co by mógł zarzucić, że jest niedostępne,
nieintuicyjne i po prostu nie, no to jest wybieranie fabrycznych, gotowych presetów.
A czy pan autor jest świadomy problemu?
Także tym razem to nie jest tak, że to jest ad acta, tylko po prostu są trochę ważniejsze rzeczy
w samym kodzie i w działaniu wtyczki, a dopiero potem, dopiero potem zrobimy…
No i w końcu też chyba ma narzędzia i możliwości, żeby to poprawić, że to nie będzie już…
Nie no, nie da się, ja w sumie nie wiem jak to zrobić, tylko po prostu skoro ten interfejs webowy został zmodernizowany, to po prostu…
Tak, dlatego mówię, że sprawa nie jest odłożona od akta, sprawa to jest kwestia powiedzmy, aktualna wersja to jest tam 10.11, to może w wersji 10.2, a może w 10.4, ale się tego doczekamy, to jest na tej zasadzie.
a nie gdzieś tam na długie lata tak jak było.
No chyba, że się celowo będzie z tym ociągał.
Tak jak wiadomo, nie możemy niczego obiecać.
Natomiast jest świadomy tego nowego interfejsu, jak on działa.
Sam go pisał gdzieś tam i jego współpracownicy,
więc reaguje na zgłoszenia to na pewno.
Ale do czego zmierzam?
Zmierzam do tego, że to daje możliwość
zatrudnienia w bardzo
osobie niewidomej, w bardzo niszowej
działalności.
Więc od razu mówię.
To nie jest łatwe.
To, że procesor jest w pełni dostępny
nie zwalnia nas z myślenia,
a wręcz poniekąd troszeczkę
wyciąga nam na wierzch
bardzo dużo możliwych opcji.
Do których nie jest tak trudno się dostać.
Naciskamy jeden przycisk, a co to robi?
Wciśniemy i mamy opcje niemal akademickie.
Niestety.
Trzeba troszeczkę wiedzieć czym się rusza, żeby nie rozwalić.
Natomiast wracając do tego, no
z doświadczenia mogę powiedzieć, że wykazanie się umiejętnością obsługi
używanego przez stacje naziemne procesora, bo stereotyla już używa kilka stacji
naziemnych i nie jest to jakąś wielką tajemnicą.
Normalnie włączamy sobie zwykłe radio FM, a tam na FM-ie stereo tool.
Natomiast gdyby ktoś chciał spróbować swoich sił w tej dziedzinie,
nie zdziwcie się, jeśli dyrektor programowy stacji lub tam techniczny,
odpowiedzialny po prostu człowiek za tą zabawę,
zrobi wielkie oczy i spyta się, ale jak?
No niestety.
Bardzo niszowy skrawek, który u mnie wziął się po prostu z zamiłowania do radia
i gdzieś tam z wieloletniego hobby,
który, który nadal pozostaje takim…
No, zwykła praca niewidomego w radiu jest często wyzwaniem, a
branie się za tak zaawansowane narzędzia tym bardziej.
Więc, więc tu, żeby nie było, że nie ostrzegałem.
Natomiast technikalia macie
pod kciukiem, brzydko mówiąc.
Macie dosięgnąć swoich rąk.
I tak naprawdę każdy może się tym narzędziem pobawić za darmo,
bo ona jest do pobrania, co prawda oczywiście tam co jakiś czas będzie was informować,
że ten dźwięk jest procesowany przez Stereotool,
natomiast tak naprawdę w niczym to nie przeszkadza, żeby po prostu się tego pouczyć,
żeby pokombinować, popróbować swoich sił.
Wiadomo, stacja radiowa jakakolwiek, która będzie was ewentualnie chciała zaangażować do kręcenia,
no to licencję będzie mieć swoją, tak?
a wy po prostu macie znać program.
Tak, natomiast
jest w tym momencie po niewidomemu
możliwe, no nie mamy jak
wystrumieniować
klipu, bo i tak niewiele by to
dało poza ładną muzyczką.
Jest
w tym momencie możliwość,
bo już tego testowo
dokonałem na warunkach
bardzo laboratoryjnych, warunkach odległości
wiadomo bezpiecznych
i dozwolonych prawem, niemniej jednak
Tak, jest możliwość wypuszczenia niemal od zera poniewidomemu skonfigurowania
prawidłowego niemal. Tam na miernikach wiadomo, że zawsze coś wyjdzie i tu fajnie
poprosić o asystę osoby widzącej, no ale od czego jesteśmy zespołem?
Szczególnie mówiąc w kontekście radia.
Jesteśmy w stanie niemal od zera
ukręcić cały ładny preset, cały ładny program jakby procesujący
całe brzmienie stacji, od wstępnego stanu kontroli poziomów i od ustalenia
poziomów referencyjnych, czyli od tego co studio wypuszcza jakby w świat,
po finalny sygnał, czyli taki jaki zwykły człowiek widzi w nadajniku z RDS-em,
z prawidłowym dekodowaniem stereo i tak dalej i tak dalej.
Po prostu działa.
I został chyba jeszcze jeden taki duży,
Znaczy nie wiem czy duży w sumie, ale taki wyglądający na duży, taki zestaw pewnie informacji, bo co nowego w NVIDIA i potem może sobie przejdziemy jeszcze do, chyba przed ostatniej wypowiedzi.
Tak mi się wydaje. Tutaj Piotrek nam, tak chyba przygotowałeś Piotrek takie coś, wpisałeś tutaj do naszych notatek na koniec roku.
O co, czy to będzie taki bardzo duży, no wiadomo, NVIDIA, w ogóle wszystkie czytniki ekranu jakoś tam się rozwijały.
JAWS na przykład też w wersji 2024 dostał wykrywanie twarzy, też w sumie możemy też inne czytniki szybko zahaczyć.
Możemy sprawdzić czy nas widać w kamerze, po prostu przed jakąś wideorozmową na przykład.
na przykład możemy sobie monitor realowski podzielić na pół i np.
sobie jakiś plik czytać jednocześnie obsługując jakiś inny program.
I schodził MVDA.
No to ten rok był…
No i mamy, nie zapomnij Piotrze jeszcze, przepraszam, że ci się wtrącę.
Miałem okazję na razie bardzo skromnie to
testować i jeszcze tam jest sporo do poprawy, ale to działa.
No matematyka.
Opcje
nie tylko wbudowanego w Jossa Mavjaksa.
to już było od wersji osiemnastej bodaj albo chwilę wcześniej, ale mamy też w końcu
opcję bodaj z MatML-em jako standardem.
Mavcat chyba tak? Tak, Mavcat.
To jest ta opcja.
I to jest na razie w wersji beta, na razie w wersji bardzo insiderskiej.
W ogóle JAWS wprowadził nową metodę testowania, w końcu dając troszkę więcej
swobody ludziom, a mianowicie jeżeli jesteśmy legalnymi, licencjonowanymi
i użytkownikami JOS-a możemy sobie w tym momencie ładnie uruchomić takie funkcje,
których się można spodziewać w przyszłości, funkcje insiderskie i tam z czasem Freedom
obiecuje, że będzie tego więcej.
Z ciekawszych rzeczy w 2.24, a konkretniej w tych betach 2.24.
Znowuż rzecz bardzo amerykańska.
Nie działa mi Facebook, bo coś zmieniono.
Freedom nie musi w tym momencie wydawać kolejnej pełnej wersji 200MB pakietu instalatora,
tylko może nam, zdalnie, pomalutku, po cichutku, nawet nas nie informując,
to ta gorsza część zabawy, uaktualnić skrypty odpowiedzialne za obsługę Google Chrome
z jakimiś tam ifami, pętelkami, wyjątkami na Facebooku.
Ty się zachowuj tak.
Jeżeli Facebook to zmieni, Freedom w przeciągu kilku tygodni odpowie.
To tyle, tyle z Jossa takich ciekawych rzeczy.
Oczywiście mówimy o 2024, czyli zanim to do nas dojdzie w języku polskim,
pewnie trochę czasu minie.
Natomiast fajnie, że Joss się rozwija.
Dziękuję, że tutaj uzupełniłeś, bo no właśnie ja raczej jestem użytkownikiem
MVDA, ale jeśli właśnie chodzi o MVDA, to tutaj też generalnie się dość dużo
zmieniało i zaczęła się tak naprawdę wersja 2023.1, która chyba już się w 2023 roku pojawiła.
Też nie będę mówił wszystkim w tyflu przeglądach, wszystkich zresztą możecie sobie przeczytać też co nowego też w tyflu przeglądach omawialiśmy, ale na przykład w wersji
2023.1 pojawiła się opcja czytania adresu dowolnego łącza, co się może w wielu sytuacjach przydać.
Zdejmie jakąś wiadomość e-mail, chcemy zobaczyć, czy faktycznie przyszła od tej osoby, którą myślimy, czy faktycznie nam jakaś usługa wysłała, a nie jakiś phishing.
Albo jak jest jakiś link, chcemy wiedzieć, gdzie on kieruje, czy na pewno na stronę taką, jakiej byśmy się spodziewali, a nie na coś dziwnego.
Tak, obok są jakieś linki niezatekietowane, często po adresie można się domyślać, gdzie one prowadzą, więc to się przydaje akurat bardzo często.
Przypomnij słuchaczom skrót, Piotrze.
MVIE-K. Naciskając raz on jest czytany, a dwukrotnie to jest wyświetlany w buforze, w którym można sobie go przeczytać po znaku, skopiować i tak dalej.
Więc to tutaj taka chyba największa nowość, poprawek było też generalnie więcej, ale jeśli chodzi o takie większe zmiany, no to od wersja 2023.2 to już była taka znacząca, bo tu po wielu miesiącach, latach spekulacji, planów
Doczekaliśmy się oficjalnego sklepu z dodatkami, który nam pozwala po prostu sobie te dodatki w wygodny sposób przeglądać, instalować, aktualizować.
Na razie tylko aktualizacje nie są automatyczne, nie jesteśmy o nich informowani i musimy je robić pojedynczo, ale to już część pomału.
Będą zmiany przygotowywane, już będzie można na kilku dodatkach na raz jakieś zmiany dokonywać.
Nawet, bo można niekompatybilne dodatki sobie włączać, jeśli ktoś chce próbować, bo często to zadziałało.
Ale też, co ważne, bardzo dużo pojawiło się zmian, które generalnie to NVIDIA przyspieszyło.
I to zarówno jeśli chodzi o system dźwięku, który został przepisany, zaraz używa tak zwanego API
Wasapi, czyli takie najnowsze API dźwięku w Windowsie.
Niektórym to powoduje problemy.
Mi to działa lepiej, na przykład jeśli ktoś czasami używa starej Agaty, czyli tego sterownika Vocalizer 2, tego Automotive, no to tam z tym sterownikiem on już się nie zacina, wcześniej bardzo coś tam przerywało.
Generalnie jest bardziej responsywnie, też wpadły zmiany, które przyspieszają działanie w polach edycji.
Generalnie właśnie filtrowanie wydarzeń UEA, czyli właśnie jak aplikacje informują MVDA o jakichś zmianach na ekranie, to generalnie powinno działać bardziej responsywnie, zwłaszcza gdzieś w terminalach, wierszach poleceń to powinno działać trochę lepiej,
a to bardzo cieszę, bo MVD bardzo lubią się tam czasami zawiesić i nawet tam cały system gdzieś zabrać.
Niestety zmiana dźwięku nie spowodowała, że stare i mające sam w sobie jakby
immanentne, delikatne opóźnienie, głosy takie jak Sapi 4 lub 5, niestety no nie działają
tak fajnie jak powiedzmy w tym chińskim rzęktu.
Szkoda.
A szkoda, tak.
A ja nie wiem co oni tam zrobili, że to po prostu działa tak.
Tam oni chyba po prostu tą ciszę wycinają.
Wiesz, zanim ten, no właśnie, bo niektóre
syntezatory niestety sobie ciszę, trochę tam ciszy dodają na początku.
No i faktycznie to jeszcze mogłoby pewnie być gdzieś przyspieszone.
Natomiast i tak, ja przynajmniej, jest odczuwalne, jest odczuwalne,
zwłaszcza pewnie na słabszych komputerach, chociaż nawet takich trochę lepszych,
no to też będzie odczuwalna ta różnica.
I jeszcze sobie zajrzymy na 2023.3.
No właśnie, tutaj mieliśmy kolejne zmiany. Mogliśmy sobie głośnosobno dźwięków dostosować.
I jeszcze tutaj fajna zmiana, że OCR może automatycznie się nam odświeżać i jeśli zachodzą na ekranie jakieś zmiany, ten OCR jest aktywny, no to one będą automatycznie czytane, co się na przykład może przydać przy czytaniu napisów, na przykład w filmie na jakimś, jeśli mamy gdzieś napisy, które po prostu są częścią obrazu, a chcemy je sobie przeczytać, to możemy je przeczytać na ekranie, na ekranie, na ekranie, na ekranie, na ekranie, na ekranie, na ekranie, na ekranie, na ekranie, na ekranie, na ekranie, na ekranie, na ekranie, na ekranie, na ekranie, na ekranie, na ekranie, na ekranie, na ekranie, na ekranie, na ekranie, na ekranie, na ekran
no to możemy sobie teraz to bez, wcześniej jakieś były dodatki, które można było do tego wykorzystać,
a teraz to jest po prostu natywnie wbudowane w MVDA, kiedy naciskamy ten skrót MVDA R,
żeby ten OCR uruchomić i dopóki on jest aktywny, to po prostu to się będzie automatycznie nam czytane.
No i to chyba są takie najważniejsze zmiany.
Jeśli chcecie sobie jeszcze tam przeczytać co się pozmieniało,
Oczywiście można sobie to zrobić menu pomoc, no i oczywiście szykują się kolejne wersje, o których już mówiliśmy w Cyfroprzegodzie, one nam znów niestety zepsują dodatki, ale to się ukaże za jakiś czas.
O, chyba jestem.
Jesteś.
Dobra, to co, to teraz wypowiedź.
Tak, przedostatnia zdaje się wypowiedź na naszej liście. Kilka słów od też naszego stałego słuchacza, który regularnie udziela się w Tyflo Przeglądach, no i w Tyflo Podcastach zresztą też, od Wojciecha Dulskiego.
Kiedy myślę o ubiegłym roku, to wydaje mi się, że nie był on przełomowy, jeśli chodzi o wydarzenia technologiczne.
Natomiast parę takich ciekawych kwiatków na pewno się znajdzie.
Wydaje mi się, że na pewno to jest pojawienie się aplikacji Time for Bus,
która jest w pełni dostępna dla urzędkowników systemu iOS.
No ja z racji tego, że jestem osobą samodzielną i lubię się przemieszczać,
bardzo czekałem na aplikację, która pozwoli mi sprawdzić rozkład jazdy także na systemie iOS.
Do tej pory musiałem to robić tylko niestety na Androidzie. Na pewno również aplikacja Coleo,
To, że ona stała się bardziej dostępna dla czytników ekranów, to mnie bardzo, bardzo cieszy,
no bo dzięki temu mogę w wygodny sposób dokonywać zakupów biletów koliowych.
Także na pewno takim pozytywnym wydarzeniem było powiększenie się mojej stajni urządzeń Apple.
że gdzieś ten ekosystem powolutku się zamyka.
Dołączył do mnie komputer Mac, z czego się bardzo cieszę.
Natomiast jeżeli chodzi o takie wydarzenia negatywne,
to tutaj z pewnością, mówiłem o tym na łamach
niejako w tym flopodcastu, była moja decyzja
dotycząca podjęcia współpracy z firmą Play.
Mam tu na myśli to, że Play stał się moim dostawcą usług internetowych i telewizyjnych.
Był to tylko tydzień, ale aż tydzień.
Była to dla mnie naprawdę, no, taka myślę, sytuacja, o której długo, długo będę pamiętał.
Był to mój błąd.
ale myślę sobie, że z błędów trzeba przede wszystkim wyciągać wnioski,
czego sobie życzę oraz wszystkim słuchaczom Tyflo Podcastów
w kontekście tego właśnie roku 2024, który już trwa,
abyśmy tych błędów popełniali jak najmniej,
aby jak najwięcej było trafnych decyzji w ogóle,
a i w kwestiach technologicznych w szczególności.
I zostały nam chyba już na, no w pewnym sensie koniec, czy prawie koniec.
Na koniec jeszcze jedną wypowiedź sobie pokażemy wam.
A teraz nam zostały jeszcze kilka takich informacji, które wydają się nieco krótsze.
Bo w tamtym roku 2023 okazał się również Remote Incident Manager na system macOS i to jest o tyle ważna chyba informacja, że do tej pory nie było, o ile mi wiadomo, na Maca żadnego oprogramowania, które pozwalałoby na zdalne sterowanie tym komputerem.
A przynajmniej w taki sposób, żeby dźwięk był przesyłany, a to dla nas wydaje mi się dosyć istotna kwestia.
Tak, dosyć istotna kwestia i to rzeczywiście z tego co wiem działa i ma się nieźle.
W związku z tym rzeczywiście da się teraz za pomocą jednego oprogramowania sterować różnymi komputerami, nie tylko z Windowsem i to jest moim zdaniem jednak dość istotna kwestia.
Koniec Tim Talka Classic. Tim Talk znany, lubiany, używany przez wiele osób jako najczęściej, chociaż w sumie nie wiem czy już najczęściej, wersja Classic, taka wersja dostosowana dla czytników ekranu i tej wersji już nie ma.
Jest tylko wersja ta standardowa, oparta na nieco innym interfejsie, która trochę inaczej się zachowuje dla czynników ekranu.
No i deweloper stwierdził, że nie ma sensu rozwijać dwóch aplikacji, bo ta standardowa, która kiedyś rzeczywiście była bardzo średnio dostępna,
a teraz jest dostępna na tyle dobrze, że deweloper stwierdził, że woli się skupić na jednej aplikacji niż gdzieś tam dbać o dwie.
Także jeżeli ktoś lubił tę starą aplikację, to musi korzystać z wersji starszej.
Z takich jeszcze rzeczy, które znikną, w zasadzie znikną, nie wiem czy już zniknęły, bo podstawowych widok HTML w Gmailu znika w 2024 roku, ale informacja pojawiła się w 2023.
Google lubi różne rzeczy sobie znikać, wyłączać i m.in. jest to bardzo stary widok Gmaila, ten podstawowy widok HTML, który przez wiele osób, znaczy nie wiem czy wiele, ale no znowu właśnie, przez niektóre osoby był wykorzystywany rzeczywiście, choć na szczęście ten widok standardowy też już jest całkiem nieźle dostępny, więc da się z niego korzystać.
On chyba ma nawet więcej tych różnych dostępnościowych rzeczy zaimplementowanych niż ten stary widok.
Ten stary to nie był w ogóle rozwijany i tam jaki on był, taki on był i póki to działało, to się to trzymało.
Był prosty.
Tak, był prosty. Ten jest taki bardziej wybajerzony, ale też ma jakieś skróty klawiaturowe, coś, więc też może warto się z tym zapoznać.
Skoro już o tym mówimy, to też warto pamiętać, nie wiem czy to mamy na naszej przepastnej liście, czyli Thunderbird, który zmienił swój interfejs kompletnie, w wyniku czego wiele osób nie potrafi się zorientować, połapać i skonfigurować tego pod siebie, bo to jednak tej konfiguracji wymaga.
No i niestety powstał taki mini, mini, mini kryzys jak chodzi o to z jakiej dostępnej aplikacji do poczty na komputerze korzystać.
No to prawda. Ja na przykład chwalę Najwyższego Spaghetti i wszystkich innych tam na górze, że w porę zupełnie dla testów ogarnąłem sobie kiedyś beki, bo w tym momencie miałbym problem.
Jest jeszcze jeden problem, słuchajcie, a propos programów pocztowych, mianowicie taki, że poczta Windowsowa też przez część użytkowników lubiona, chwalona, została zastąpiona przez Outlooka webowego, przez nowego Outlooka,
który to też zresztą ma bardzo, bardzo pokaźną listę różnych partnerów reklamowych, tam to w setki idzie i zdaje się, że też na tym nawet i Windowsowym Outlooku musimy albo możemy, możemy wyrazić zgodę na przekazywanie różnych informacji tym partnerom.
Na webowym tak jest na pewno, a na Windowsowym to, szczerze mówiąc, nie pamiętam, jak tam rzecz wygląda.
Natomiast ten Outlook, tak czy inaczej, już abstrahując od kwestii prywatności, jest zwyczajnie, przynajmniej na razie, nieprzyjazny, niewygodny w użyciu i wcale się nie dziwię, że ludziom się ten nowy Outlook nie podoba.
I teraz naprawdę jest dość duży kryzys, jeżeli chodzi o programy pocztowe, jeżeli ktoś ma pakiet Office i przyzwyczajenia od lat, to jeszcze jakoś się ratuje tym takim klasycznym outlookiem.
Ale jak Microsoft i to zabierze, a pewnie w którejś tam iteracji Office’a może się tak stać i ten outlook być jakoś tam zmodernizowany.
Zresztą tak się na Macu też dzieje od jakiegoś czasu, tam jest opcja wypróbowania nowego outlooka, co na szczęście można wrócić do starego outlooka, nie ma problemu.
Natomiast no widać, że Microsoft chce tu coś pozmieniać w tych swoich klientach pocztowych, no i niestety to się wszystko tak zbiegło, bo i Thunderbird w minionym roku doznał liftingu,
niekoniecznie dla nas takiego fajnego, no i z tą pocztą Microsoftową są problemy,
więc wydawałoby się podstawowa usługa, a jest z nią kłopot.
Także, no zobaczymy, co się będzie działo w temacie programów pocztowych,
może coś ten rok przyniesie nowego, zobaczymy.
I szczerze mówiąc, nie, może, że przegapiłem,
Ale nie wiem, czy Piotrze powiedziałeś o tym, że NVIDIA ma łatwe linki do pobrania.
A nie.
A to jest fajne.
nvda.zip powoduje, że pobiera się nvda.
I nvda.zip chyba slash beta, już nie pamiętam.
To pobiera betę i tak samo z alfą, tak?
Jest slash alfa chyba, czy coś?
Nie pamiętam, pobiera alfę?
Jest jeszcze nvda.zib, kosznik xp, jeśli ktoś chce bardzo starą wersję, z tym systemem kompatybilnym.
Z Windowsem xp. Także to fajne, bo rzeczywiście chcesz pobrać nvda i wpisujesz absolutnie prościutki adres, który można zapamiętać, nvda jest pobierany.
Pamiętajmy też, że my takie rozwiązanie jako polska społeczność, znaczy wszyscy to poniekąd mieli, ale my o tym wiemy najlepiej, bo to polska społeczność zainicjowała. Mieliśmy już setup.nvda.pl.
Czy pobierz.nvda.pl?
Kilka tych aliasów było, pamiętam.
OK.
EGSA kiedyś chyba było, NVIDIA.PL, Insta NVIDIA.PL, no i to też robiło dokładnie to, czyli pobierało najnowszą wersję.
Już znam sytuacje, w których naprawdę to komuś uratowało skórę, jak trzeba było szybko coś tam awaryjnie przeinstalować.
Także o tym też warto pamiętać, tylko u nas nie było tak, że specjalnie dla pobrania programu wykupywało się domenę,
Ale no miłe, miłe, że to tak jest i wydaje mi się, że chyba żaden inny skinder nie ma czegoś takiego, że na przykład, nie wiem, Joss Downloads czy coś i to pobiera Jossa.
Jakieś demo powiedzmy, tak, no bo, no demo można, no ale nic, no tak czy inaczej w NVIDIA jest coś takiego, można to pobrać bardzo, bardzo łatwo.
Kiedyś z podobną, choć nie, troszeczkę trudniej tam było, ale z podobnego założenia wychodził ten, system access to go, no ale to było kiedyś, kiedyś, kiedyś.
Tak, no to była strona satogo.com, tam trzeba było coś wcisnąć i się uruchamiała taka aplikacja.
Kontrolka aktywistka powierała coś tam i…
Tak, tak.
Ale powiem szczerze, ja tam zadowolony z tego, to ładne było.
Nie, no tak, ja to wiele razy używałem, tak.
No proszę.
No i nieśmiertelny system access, więc on miał bodaj tektoka z tego co pamiętam, taki układ strony amerykańsko-centrycznej społeczności.
No i ostatni, chyba ostatni, ostatnia rzecz którą znalazłem, no to jest informacja, że w końcu, po latach, Android doczekał się aplikacji Think AI.
I to rzeczywiście, przecież na iOS-ie to ta aplikacja jest, nie wiem ile, 8 lat? 7? Strasznie dużo. I się mówiło już nie, no to na Android to już tworzymy, już za chwilkę będzie.
No to wyszło pod koniec 2023, kiedy już rozwiązanie alternatywne, dawno, dawno temu.
Ten sam dzień, co Big My Eyes opowiedziało, że…
A tak, tak, no to taka ciekawostka.
Jeszcze jedna dosyć ważna rzecz uciekła mi kilka tematów temu, więc trudno.
Kto dotrzymał ten się dowie, a kto nie ten odczuje na własnej skórze.
Odczuwa już.
Jak wiemy podczas całego 2023 Polska zmieniła w końcu standard nadawania
naziemnej telewizji cyfrowej na DVB-T2.
A co za tym idzie kodek na HWC, H265 to taki lepszy, efektywniejszy kodek wideo.
Dźwięk? Poniekąd to się zmienił, w zasadzie nie ma już ścieżek w MP2.
Nawet te ścieżki bazowe bez audiodeskrypcji są w EAC3.
Troszkę trudniej będzie obrabiać pliki TS, ucinać, wycinać itd.
Jeżeli ktoś nagra sobie telewizorem, dekoderem, TV-Boxem plik,
no to będzie musiał mieć pewność, że edytor do którego załadował umie też i dźwięk ogarniać,
bo Dolby Digital Plus lub też EAC-3 kodek to jest kodek w zasadzie powszechny,
ale nie mamy gwarancji, że wszystkie nam to aplikacje łykną.
W każdym razie ja zupełnie nie o tym.
Rzecz zrobiła się bardzo niepokojąca,
ponieważ docierają do mnie słuchy stąd i inąd
i nie było to jedno zgłoszenie, że teoretycznie certyfikowane
dekodaryse, top boxy, telewizory
totalnie świrują pawiana, brzydko mówiąc, na ścieżkach audiodeskrypcyjnych.
I nie dlatego słuchajcie, że
ta ścieżka jest nie wiem, niekompatybilna w egzotycznym formacie, że
że coś.
Tylko wymagania odbiorników telewizji naziemnej mówią dość wprost,
że telewizor, odbiornik, którego chcemy używać,
musi dawać możliwość osobie z dysfunkcją wzroku
włączenia audiodeskrypcji.
No, fajnie.
Rzecz w tym, że producenci mają na to kilka sposobów.
Sposób pierwszy, najprostszy, menu języków audio i można sobie wybrać.
Mamy dwa, na niektórych programach telewizyjnych trzy języki.
Polski, oryginalny, czy tam angielski, audiodeskrypcja.
Opcja druga.
Przecisk zaetykietowany na przykład AD na telewizorze jak
audiodeskrypcja na pilocie, który powinien przełączyć nas na trzecią
ścieżkę. Jako, że AC3 jako format ma różne metadane i ona jest
zaznaczona jako hearing, ukośnik tam hearing impert albo visual
czyli IMPERT można sobie zaznaczyć, która jest jakby opcja jest adekwatna do danej ścieżki.
Ale jest jeszcze trzecie ustawienie w niektórych telewizorach zauważyłem,
a mianowicie globalne ustawienie w całym telewizorze chce mieć audiodeskrypcję.
Tak lub nie.
No to chyba dobrze, że jest tyle sposobów na łączenie powiedziałoby się.
No tak, to jest dobrze,
Ale dodając do tego, że audiodeskrypcję możemy nadawać w dwóch różnych od siebie formatach, czyli albo na ścieżce lektora, znaczy na ścieżce normalnej jest nadawany film, a na ścieżce audiodeskrypcji ten sam film tylko z deskrypcją,
Albo możemy nadawać systemem, nazwijmy to dla uproszczenia brytyjskim lub też czeskim,
czyli na ścieżce filmu jest film, a na ścieżce deskrypcji oznaczonej jako deskrypcję,
ale mającej ten sam język jak ścieżka filmu, nadawany jest lektor audio-deskrypcji.
To drugie rozwiązanie jest oczywiście fajne, wiadomo, możemy sobie proporcje
dyskrypcji do filmu ustawić i takie tam różne pszmery, bajery, ale nie działa w Polsce.
Problem w tym, i tego jeszcze dokładnie nie przeanalizowałem, czy w samym strumieniu,
jakby w samej hierarchii w tym DVB-T jest aż tyle błędów, czy ktoś w telewizji był po prostu
nadgorliwy, krótko mówiąc, w programowaniu tego, firmware odbiorników, ale docierają do mnie
przypadki docierają do mnie zgłoszenia, że włączenie audiodeskrypcji globalne
oznacza, że nawet jeżeli nie chcemy i chcemy w tym momencie pooglądać
ścieżkę zero, ścieżkę bazową, zostaje nam nakładana na nią ścieżka
audiodeskrypcji.
Tak, nie trudno się wam zapewne domyślić.
Ścieżka filmu plus ścieżka filmu i deskrypcji, szczególnie że są równe opóźnienia z racji synchronizacji tej audiodeskrypcji i takie tam drobne maniery,
względnie opóźnienia wynikające z samego bitrate’u, samego przepływności danego kodeka, powoduje, że my słyszymy film, film z opóźnieniem kilkudziestu milisekund i deskrypcję jedną na raz.
No, z tego co rozumiem nie każda osoba niewidoma ma możliwość, chęć i w ogóle włączać i wyłączać, kręcić się po menu, żeby wyłączać te audiodeskrypcje.
Ale taki to jest pech związany, bo do tej pory pierwsza ścieżka, ta bez niczego, była ścieżką MP2.
Zawsze.
MP2 nie ma metadanych, że to jest ścieżka Visual Impert albo i nie.
Więc odbiornik nie domiksowywał ścieżki nawet, o której wiedział, że mam te metadane.
Natomiast w tym momencie, kiedy obie są w tym samym formacie,
odbiornik uruchamia tak naprawdę jedną procedurę dekodowania, tylko dwóch na raz.
Już patrzy na te metadane i mimo tego, że np. my chcemy jedną ścieżkę,
a globalnie zaznaczyliśmy audiodeskrypcję,
no nagle mamy dwie ścieżki naraz z różnymi opóźnieniami.
Bardzo duży dyskomfort w oglądaniu.
Nagadałem się tyle, więc teraz chcielibyście zapewne, szanowni słuchacze, rozwiązania.
Problem w tym, że ono zależy od konkretnej instrukcji, konkretnego odbiornika.
I z tym jest cały problem.
Na razie nie mam pomysłu, którą ścieżką by to procedować i komu tak naprawdę zgłosić,
Bo każdy, kto powie, że wszystko jest okej, będzie miał rację.
I ten, kto powie, że nie jest okej, też będzie…
też się nie będzie mylił.
Tylko to już niestety zależy od konkretnego telewizora,
jaką zareaguje na włączenie audiodeskrypcji w sposób ten globalny,
czyli przyciskiem AD lub z menu.
Ba, zauważyłem, że niektóre telewizory na przykład nie rozumieją języka AUX.
tam wiecie, można sobie wpisać taki kod definiujący język, tam pol, eng i tak dalej, jaki to jest język.
Audiodeskrypcja jest językiem AUX, czyli ścieżka zewnętrzna, posiłkowa, tak?
I w tym momencie niektóre telewizory na przykład pokazują tylko polski i angielski.
Realnie zrozumiałyby tę trzecią ścieżkę, nie pokazują go w menu,
bo ktoś nie zaprogramował kodu ISO-AUX, że w sumie powinien też wyświetlić tę ścieżkę,
bo przecież nie ma języka.
Także mówią, że idzie nowe, tak przyszło nowe, tak brzmi lepiej, nawet audiodeskrypcja, ale jak widzicie uważać po prostu na, uważnie próbujcie konfigurować jeżeli tylko macie możliwość dekoder i telewizory z DVB-T2, jeżeli ktoś doświadcza tego problemu.
I jeżeli niczego nie ominąłem, no to chyba wszystko, jeżeli chodzi o to, co sobie tutaj wypisaliśmy z wydarzeń, które według nas były ważne w 2023 roku.
I jeżeli się ze mną zgadzacie, no to chyba nie pozostaje mi nic innego, jak się pożegnać, powiedzieć, że zaczęliśmy w nieco innym składzie niż skończyliśmy.
Ale my jeszcze nie kończymy.
A rzeczywiście, my jeszcze nie kończymy.
My jeszcze nie kończymy, bo jeszcze mamy.
Powiem więcej, my nie skończymy przez prawie godzinę.
Okej.
Dlatego, że dosłownie kilka minut temu jeszcze do mnie dotarł jeden materiał od naszego słuchacza Maćka Walczaka,
który również chciałby się podzielić swoimi refleksjami dotyczącymi tego, co w minionym roku.
No i ten materiał ma około 40 minut.
Mamy też jeszcze Michała Kasperczaka,
który zbierał te wypowiedzi w większości,
za co mu jeszcze raz serdecznie dziękuję.
I Michał też będzie podsumowywał ten 2023 rok.
Więc słuchajcie, jeszcze audycja podsumowująca miniony rok
przez mniej więcej godzinę trwać będzie.
To w takim razie ja tylko przypomnę, że skończyliśmy audycję w składzie Piotrek Machacz, Michał Dziwisz, Paweł Masarczyk, Patryk Faliszewski i ja, czyli Tomek Bilecki. No i teraz jeszcze godzina z Michałem i Maćkiem.
Przed mikrofonem Maciek Walczak.
Ja również postanowiłem dołożyć swoją cegiełkę odnośnie podsumowania minionego roku 2023.
Dzielę swoją wypowiedź na trzy części.
Mianowicie, w pierwszej części pomówię o pozytywach, jakie mi się przytrafiły w minionym roku.
W drugiej części poruszę kwestie, co do których mam mieszane uczucia.
natomiast trzecią częścią będą negatywy.
A zatem jedziemy.
Zaczynamy od pozytywów.
Pierwszą z nich jest oczywiście sztuczna inteligencja,
no bo jakżeby inaczej.
Miniony rok upłynął właśnie pod znakiem sztucznej inteligencji.
A co mnie osobiście bardzo pomagało i pomaga nadal?
Mianowicie, po pierwsze chat GPT,
którym ja osobiście sprawdzam sobie opinie, jakie piszę do Apple, jeśli chodzi o zgłaszane błędy i sugestie.
Najpierw piszę sobie teksty, a następnie pytam czata GPT, czy aby na pewno tutaj wszystko jest dobrze, czy jest dla równie, czy jest zrozumiale itd.
Tutaj nie mogę też nie wspomnieć o tłumaczu DeepL, którym również sobie czasem pomagam, gdy czegoś nie wiem, gdy generalnie chcę jakoś coś lepiej wyrazić
I właśnie takie combo, takie połączenie dodaje mi bardzo fajnie do produktywności.
Jak również chata GPT czasem używam też do nauki języków obcych.
Jeżeli chcę coś wyrazić, chcę coś powiedzieć, nie do końca wiem jak to wyrazić,
wówczas tutaj również kłaniam się chat GPT, który mi bardzo w tym pomaga.
Oczywiście traktuję to rozwiązanie jako pewien punkt wyjścia,
od którego należałoby zacząć poszukiwania,
co też czynie, jeżeli pewne rozwiązanie podsunie mi czat.
Ja to jeszcze i tak weryfikuję w internetach,
żeby potem nie było, że popełniłem jakąś gafę.
Kolejną rzeczą jest nieocenione BeMyAI,
czyli moduł aplikacji BeMyEyes oparty na sztucznej inteligencji.
Pierwotnie to rozwiązanie miało zostać nazwane wirtualnym wolontariuszem,
jednak ostatecznie zostało nazwane BeMyAI.
Przyznam szczerze, że to rozwiązanie w stopniu, myślę, znacznym przyczyniło się do poprawienia komfortu życia
od takich prostych, codziennych czynności typu
sprawdź mi, czy dane ubranie jest zmięte, czy też nie,
sprawdź mi, jak teraz wyglądam, czy mogę się taki pokazać na mieście, czy też nie, itd.
Po rzeczy bardziej złożone, techniczne, gdzie wykonuje zrzuty ekranu różnych rzeczy i to rozwiązanie mi bardzo fajnie opisuje wszystko co na ekranie się znajduje.
Muszę również powiedzieć, że bardzo fajnie BeMyAI sprawdził mi się w kuchni.
Podczas kiedy robiłem ciasto na pizzę, zrobiłem mu pierwsze zdjęcie, no i się go zapytałem, czy to ciasto jest dobrze wyrobione.
Po czym stwierdził, że tak, wygląda na bardzo dobrze wyrobione, jest całkiem nieźle wyrośnięte.
Zrobiłem mu po pewnym czasie drugie zdjęcie i zapytałem o to jak bardzo podrostło i stwierdził, że stosunkowo to ciasto już bardzo podrosło i że rzeczywiście już wydaje się być gotowe do dalszej pracy.
Oczywiście wszystko pod kontrolą osoby widzącej, która również to potwierdziła, więc myślę, że i do takich zastosowań BeMyAI może się nadać świetnie.
Tu oczywiście też warto wspomnieć o programie Detective, o programie na macOS, który również mniej więcej robi to samo, bo jest oparty na modelu językowym GPT-4.
Tutaj jednak potrzeba klucza API OpenAI, co w BeMyAI nie jest wymagane, jednak oba te rozwiązania moim zdaniem bardzo fajnie się uzupełniają.
Jedno, czyli BeMyAI na iPhone, drugie, program Detective na Macu.
Kolejną rzeczą jest program do transkrypcji tekstu MagWhisper,
który mnie zachwycił tym, jak rozpoznaje ten tekst,
że ja mam graficzne narzędzie umożliwiające rozpoznawanie mi tekstu na Macu.
W ogóle nie muszę bawić się, nawet nie zamierzałem bawić się w rozwiązania konsolowe,
które trzeba sobie samodzielnie zbudować.
Pan Jordi Brann zbudował to rozwiązanie za mnie, mało tego.
Wcześniej program korzystając tak naprawdę z procesora,
teraz od kilku miesięcy umożliwia przetwarzanie mowy na tekst
przy pomocy karty graficznej, a dokładnie mówiąc środowiska Metal,
które to jest natywnie na Macu.
Narzędzie może nie zyskuje jakoś bardzo na dostępności,
jednak w dalszym ciągu w dużej, dużej części, w dużej mierze
jestem w stanie sobie wykonać wszystko to, czego potrzebuję, czy to z plików, czy to nagrywając aplikację, gdyż Mac Whisper również mi to umożliwia.
Nie bez znaczenia pozostaje również to, że od niedawna, jeszcze w zeszłym roku, Mac Whisper doczekał się integracji z tłumaczem DeepL właśnie.
Polega to na tym, że trzeba sobie podpiąć klucz API serwisu DeepL i można bezpośrednio w programie tłumaczyć.
Również odnośnie tłumacza DPL, zacząłem sobie od końcówki zeszłego roku, a właściwie powróciłem do tego, bo już kiedyś próbowałem to rozwiązanie, natomiast uznałem, że w tamtym czasie mi się to niezbyt przyda, natomiast teraz bardzo wykorzystuję jego potencjał, mianowicie DPL w wersji PRO, czy to do pisania opinii, zgłaszania błędów do Apple, czy sugestii, czy to tłumaczenia różnorakich dokumentów.
pomagam sobie właśnie DPL-em i uważam, że bardzo fajnie mi się to rozwiązanie sprawdza.
Kolejną rzeczą, którą bardzo doceniłem w zeszłym roku jest moduł Hammerspoon
oraz dodatki używane, aby, że tak powiem, polepszyć pracę voiceovera na Macu.
Dodatki, które sobie szczególnie upodobałem to dodatek do tłumaczenia komunikatów voiceover
w innych językach na polski, a dokładniej rzecz ujmując to, co voiceover widzi pod kursorem,
jak również dodatek KeyClicks od Piotrka Machacza,
który imituje dźwięki iPhona podczas pisania na klawiaturze Maca.
Kolejną rzeczą, która mnie bardzo zadowoliła i ucieszyła,
jest wreszcie wprowadzenie predykcji tekstu
dla języka polskiego w iOS oraz iPadOS 17,
które to zostały wprowadzone pierwotnie bodaj w iOS 15
i wreszcie doczekaliśmy się tego dla języka polskiego.
Kolejną poniekąd połączoną rzeczą to jest rozwiązanie o nazwie Rysuj ścieżkę, aby pisać,
które polega na de facto rysowaniu wyrazów od litery do litery w układzie kuwerty,
dzięki czemu powstają kolejne wyrazy.
Ja osobiście tego rozwiązania używam bardzo niezwykle rzadko,
niemniej to jest bardzo dobra alternatywa, moim zdaniem,
dla tych, którzy nie znają i nie umieją obsługiwać wejścia ekranu brailla.
Moim zdaniem to również w takim samym stopniu jak wejście ekranu Brailla zapewnia prywatność komunikacji
i nie jest to aż tak wolne jak pisanie przy pomocy klawiatury ekranowej.
Kolejnym pozytywnym rozwiązaniem, jak dla mnie, które jest dostępne na szczęście w języku polskim
to mowa na żywo w systemach Apple.
Live Speech, mowa na żywo.
rozwiązanie, które może pomóc nie jednej osobie, czy to niesłyszącej, czy to niemogącej mówić w szeroko rozumianej komunikacji, czy to internetowej, czy to stricte przez telefon.
Oczywiście w komunikacji takiej twarzą w twarz to również jest możliwe, gdyż to synteza przez głośnik telefonu odczytuje wpisane frazy, czy to wpisane w danym momencie, czy zdefiniowane wcześniej frazy jako ulubione.
Kolejną rzeczą ze środowiska Apple, która bardzo przypadła mi do gustu, to możliwość instalowania wersji testowych systemów Apple w wersji dla deweloperów w darmowym wariancie konta deweloperskiego,
gdyż wcześniej nie było to w ogóle możliwe, jeśli chodzi o darmowe konto, trzeba było sobie wykupować licencję deweloperską, która kosztowała w okolicach 400 zł rocznie,
albo też pobierać nieoficjalne profile tychże systemów,
co często ludzie czynili zwłaszcza po premierach WWDC,
czyli czerwcowych konferencjach Apple,
na których to zapowiadane były nowości nadchodzących systemów operacyjnych.
Apple jednak postanowiło ukrócić ten proceder pobierania nieoficjalnych profili,
dając tym samym użytkownikom możliwość włączania aktualizacji
do wersji beta z poziomu ustawień systemowych,
a także możliwość zapisania się do programu deweloperskiego,
aby również i dzięki niemu również z poziomu ustawień móc pobierać wersje przeznaczone dla deweloperów.
Kolejną ostatnią już myślę rzeczą ze środowiska Apple to blog iculture.nl.
Jest to holenderski blog, a w zasadzie chyba holendersko-belgijski,
gdyż często, gęsto o Belgii tam również jest wspominane,
który również dostarcza dużo różnych ciekawych newsów i inspiracji, jeśli chodzi o triki i porady, jeśli chodzi o świat Apple, o różne informacje dotyczące systemów czy urządzeń, jak i aplikacji firm trzecich, ich obsługi itd.
Bardzo sobie chwalę ten portal, ja co prawda holenderskiego języka nie znam, natomiast tutaj bardzo, bardzo mi się sprawdza tłumaczenie stron w Safari, zarówno na iPhonie jak i na Macu,
które to zostały dla polskich użytkowników wprowadzone wraz z wydaniem iOS 16.
Netflix i audiodeskrypcja.
To kolejna rzecz, która mnie w zasadzie w końcówce zeszłego roku bardzo zachwyciła,
gdyż nie ukrywam, że wcześniej oczywiście miałem konto na Netflixie,
no bo któż by nie miał, oglądałem różne rzeczy, no bo któż by nie oglądał.
Niemniej jednak wybór produkcji z audiodeskrypcją był powiedziałbym raczej dość znikomy.
Niemniej jednak postanowiłem sobie w końcówce minionego roku odnowić członkostwo, wykupić na nowo subskrypcję i jakież było moje zdziwienie, gdy się okazało, że tych produkcji jest ponad 70, które mają audiodeskrypcję w języku polskim.
Wiadomo, że jest to znikomy ułamek tego, ile tak naprawdę oferuje Netflix,
jednak znaczący postęp to już jest w stosunku choćby nawet do Amazon Prime Video,
czy Kanal Plus Online, które tak naprawdę tą dostępnością audiodeskrypcji w języku polskim
jeszcze póki co, niestety, nie grzeszą.
A Netflix, mimo że sporo tej audiodeskrypcji jest generowanych syntezą,
no to jednak ona jest i wydaje mi się, że całkiem nieźle się takowa synteza sprawdza.
Jest oczywiście Apple TV+, ale no tutaj nie oszukujmy się produkcji w języku polskim jest bardzo mało, to prawda, że jeżeli już dany język jest wspierany, dany film czy serial występuje w języku polskim, to będzie do niego audiodeskrypcja jak dla każdego, każdziuseńkiego języka jaki ten usługodawca oferuje, jednakże no tych produkcji w języku polskim dla języka polskiego jest bardzo, ale to bardzo mało, szczególnie są to produkcje animowane, skierowane do młodszych odbiorców, no tak więc poważniejszych
filmów czy seriali, to sobie po polsku nie obejrzymy.
Stąd właśnie miłe zaskoczenie, jeśli chodzi o Netflixa.
YouTube Premium to kolejna rzecz, bez której
obecnie nie wyobrażam sobie życia, a którą sobie wykupiłem
w końcu wtedy roku. Stwierdziłem, no dobra,
w końcu by trzeba było się na to zdobyć, można
po studencku, czemu nie, obniżka jest, a że
studentem jeszcze jestem, pozwoliłem sobie na ten
bądź co bądź stosunkowo w miarę drobny wydatek
i teraz naprawdę nie żałuję. Możliwość
niewyświetlania reklam, możliwość wyjścia z tej aplikacji i odtwarzania w tle, bądź też zablokowania ekranu.
Robi naprawdę dobrą robotę.
I teraz rozumiem Michała, który mówił, że lubi oglądać ponadgodzinne materiały na YouTube.
No tak, jeżeli się ma wersję premium, można wszystko.
Przechodzimy sobie teraz do aplikacji i taką jedną z pierwszych rzeczy, bardzo na plus,
która zaczęła się dziać mniej więcej od bodaj połowy roku minionego,
to wdrażanie dostępności dla aplikacji Orange Flex.
Dlatego, że wcześniej z tą aplikacją było bardzo krucho.
Niestety, jeśli chodzi o dostępność, lata próśb, nacisków, błagań i żądań
niestety nie odnosiły większego skutku.
Jednak coś się w tym zakresie zmieniło.
Developerzy tej aplikacji zmienili jednak nastawienie
i czytelność aplikacji, jej wygląd, jej dostępność dla VoiceOver,
komfort użytkowania zdecydowanie oceniam na plus.
Zaczęło się tak naprawdę od możliwości weryfikacji tożsamości przy pomocy przelewu z konta bankowego na kwotę jednego złotego, a następnie wdrożenie motywu ciemnego do aplikacji.
Gdzieś po drodze jeszcze zdaje się była poprawa kontrastu, czcionek i tak dalej, aż w końcu zabrano się za voice over.
i muszę przyznać, że teraz ta aplikacja w jakichś 90% już jest dostępna,
gdzie kiedyś może była w 5 albo w 10, więc bardzo Orange Flex na plus, wielkie brawa.
Aplikacja Lotto, która przechodziła swoje różne turbulencje w zakresie dostępności,
na szczęście już można powiedzieć, że i ona doczekała się poprawy dostępności w ponad 90%,
więc również brawa dla deweloperów tejże aplikacji.
Należy również wspomnieć, iż aplikacje można obsługiwać również z poziomu Maca z procesorem M1 lub nowszymi.
Aplikacja również i na Macu działa świetnie. Były drobne przejściowe problemy jeśli chodzi o zawieranie zakładów.
Niemniej jednak teraz znów to działa, można. W sumie jeśli ktoś chce, jeśli ktoś lubi, polecam, bo można.
Aplikacja Whatsapp dla macOS również ukazała się w zeszłym roku, jest to aplikacja zbliżona wyglądem do iPhone’a, do tego co znamy na iPhone’ie, aplikacja myślę bardzo przyjazna, bardzo dobrze zoptymalizowana, są drobne błędy dostępności zwłaszcza w zakresie nawigacji po wiadomościach wewnątrz danej konwersacji, tudzież brak dźwięku powiadomień gdy się jest stricte w samej aplikacji,
gdy ta aplikacja jest na pierwszym planie zmaksymalizowana.
Jednakże wysyłanie wiadomości, jak i ich odczytywanie,
zarówno tych tekstowych, jak i audio, jak i załączników,
jak również wykonywanie połączeń, czy to audio, czy wideo,
nie stanowi najmniejszego problemu.
Również odbieranie tychże.
Nowa aplikacja Microsoft Teams Work or School dla macOS,
która teraz rzeczywiście dostarcza powiadomień,
tak jak ma to miejsce w Windowsie,
Rzeczywiście umożliwia bycie zalogowanym na więcej niż jednym koncie i rzeczywiście działa płynniej.
To trzeba jej przyznać, również ukazała się w końcówce minionego roku.
Oceniam ją zasadniczo na plus.
Jedyny minus to jest taki, że tak jak w przypadku Windowsa zaczęło się niestety wymuszanie aktualizacji
bez możliwości kontroli tegoż procederu.
Niemniej jednak, finalnie mogę powiedzieć, że aplikację polecam.
To, co daje nadzieję na przyszłość, a co wydarzyło się w minionym roku, a co będzie miało skutki w przyszłym miesiącu, to prezentacja gogli od Apple, mianowicie Apple Vision Pro, które to zdają się być bardzo obiecujące, jeśli chodzi o nas, użytkowników niewidomych, niedowidzących, z racji na te różne czujniki, sensory kamery, skanery lidar, rozmieszczone wokół i tak dalej.
Ja myślę, że tutaj potencjał będzie duży, że ta dostępność tegoż rozwiązania również,
no bo skoro Apple produkuje rozwiązania również z myślą o osobach z różnymi potrzebami.
Funkcja Passkeys, czyli klucze dostępu, obecna w coraz większej ilości serwisów,
tych serwisów coraz bardziej przybywa, to mnie cieszy.
Ostatnimi czasy, oprócz eBaya, przybyła również do Amazonu,
gdzie również dzięki tej funkcji możemy sobie zabezpieczyć dostęp do naszego konta Amazon.
Również z tego co mi się wydaje w serwisie x dawnym twitterze istnieje taka możliwość, tego pewien nie jestem, ale wydaje mi się, że tak.
Kolejną opcją taką stricte zabezpieczającą to są jednorazowe kody generowane w przeglądarce Safari z pęku kluczy iCloud, których też bardzo sobie zacząłem używać w minionym roku.
Tam gdzie się to tylko też dało skonfigurowałem sobie to jako jedną z metod uwierzytelniania i bardzo sobie chwalę.
Również klucze U2F i wdrożenie ich w banku ING oraz planowane wdrożenie w banku PKO BP to niewątpliwe podniesienie poziomu bezpieczeństwa dla użytkownika.
Możliwość edycji wiadomości w WhatsApp i Messengerze to również funkcje, które pojawiły się w końcówce minionego roku, co również bardzo cieszy.
Można sobie tego dokonać zarówno po przytrzymaniu na danej wiadomości, czyli po dwukrotnym stuknięciu z przytrzymaniem, bądź też trzykrotnym bez przytrzymania, albo z poziomu czynności na pokrętle VoiceOver.
Tu muszę przyznać, że to punkt dla tych komunikatorów, dlatego że możliwość edycji iMessages niestety nie może odbyć się poprzez pokrętło VoiceOver i czynności, a tu w tych obu komunikatorach jak najbardziej.
Jeszcze to, co należy do pozytywów, to oprócz edycji wiadomości w Messengerze, również wsparcie dla konwersacji indywidualnych szyfrowaniem end-to-end, co ma w sposób znaczny podnieść bezpieczeństwo komunikacji na tymże komunikatorze, zarówno w aplikacjach mobilnych, jak i w serwisie www.messenger.com, jak również, myślę, w aplikacjach dla systemu Windows czy macOS.
Planowane jest również wdrożenie szyfrowania zarówno dla rozmów, jak i połączeń grupowych, gdyż dla połączeń indywidualnych, zdaje się, również to zostało wprowadzone.
Ostatnią pozytywą informacją jest dołączenie Piotrka Machacza do ekipy współprowadzących Tyflo Przegląd.
Serdecznie gratuluję i dziękuję.
Przebrnęliśmy przez pozytywy, których było bardzo dużo, a teraz przejdziemy sobie do rzeczy, co do których mam mieszane uczucia.
Pierwszą z nich jest Eleven Labs, czyli no możliwość klonowania głosu.
Tutaj mam, przyznam szczerze, pewne obawy, no dlatego, że nie wiadomo do końca jeszcze w jaką stronę to pójdzie, jak to tak naprawdę zostanie wykorzystane i tak dalej.
Swój potencjał to ma, zwłaszcza jeśli chodzi o czytanie różnych rzeczy przez, powiedzmy, znane osobistości i tak dalej,
ale może to też niestety zostać bardzo nadużywane.
Na upartego, no nawet po weryfikacji, nawet po wykupieniu płatnego konta, płatnego planu i tak dalej.
Dla złośliwego nic trudnego, więc no tutaj muszę przyznać, że troszeczkę się tego obawiam.
Chociaż z drugiej strony cieszę się, że również to ujrzało światło dzienne.
Kolejna rzecz to akt regulujący sztuczną inteligencję przez Unię Europejską również budzi moje obawy,
zwłaszcza jeśli chodzi o identyfikowanie cech osobowościowych,
zwłaszcza jeśli chodzi o rozpoznawanie twarzy i tak dalej, że tutaj, mimo że te wyjątki są, nie do końca jeszcze wiadomo jak tu będzie postrzegane Be My AI, czy nadal będzie mogło w tak fajny sposób rozpoznawać twarze, emocje i tak dalej,
gdyż, no, tego, z tego co wiem, zakazuje tenże akt, bardzo to ogranicza, stąd gdzieś tam moje obawy.
Oczywiście wszystko w słusznej i dobrej sprawie, nie mniej jednak ofiary w tym mogą być, niestety, w tym właśnie my i to zdecydowałem się umieścić właśnie w mieszanych uczuciach, dlatego że z jednej strony dobrze, bo ochrona z drugiej strony może być z tego zwyczajny problem.
Kolejną rzeczą to usługa Bing oraz aplikacja Copilot od Microsoftu.
Tak naprawdę wcześniej Bing, który miał swój czat oparty na GPT-4,
doczekał się zarówno aplikacji jak i serwisu internetowego Copilot,
zarówno aplikacja na iPhona jak i na Androida, również na Maca i iPada.
Niemniej na Macu ona jest bardzo źle póki co zoptymalizowana i dostępnością jeszcze nie grzeszy.
Dlatego właśnie mam mieszane co do niej uczucia.
Jakkolwiek na iPhonie działa całkiem sensownie, tak właśnie zarówno na Macu, jeśli chodzi o wydanie aplikacyjne jak i webowe, moim zdaniem mogłaby działać lepiej.
Aplikacja M-Obywatel oraz Uber, no swoje przeboje dostępności to te obie aplikacje miały.
Mógłbym je równie dobrze zaliczyć do pozytywów minionego roku, jednakże błędy dostępności, jakimi te aplikacje były obarczone, zwłaszcza na początku minionego roku, skłoniły mnie jednakżeby dodać te aplikacje do sekcji uczuć mieszanych, jednakże finalnie obie aplikacje się bardzo obroniły, obie dostępne zasadniczo, przy czym M-Obywatel minimalnie bardziej, bo jesteśmy w stanie zrobić zasadniczo wszystko.
W Uberze niby też, ale choćby nawet dodawanie napiwków, wpisywanie własnej kwoty, czy dodawania komentarzy pod pięciogwiazdkową oceną pozostawia wiele do życzenia.
Długo zastanawiałem się gdzie umieścić kolejną aplikację, mianowicie chodzi mi o aplikację TyfloCentrum, gdyż wiązałem z nią spore nadzieje, że aplikacja jednak będzie się dynamicznie, szybko, prężnie rozwijać.
Mimo, że jej pojawienie się dało tę nadzieję i otworzyło pewną furtkę dla użytkowników iOS i w sumie macOS też,
no to jednak jakaś taka stagnacja i powolny rozwój, a w zasadzie w ostatnich miesiącach jego brak,
niestety spowodowały, że postanowiłem aplikacji nie przekreślać, nie kierować osądu w jedną ani w drugą stronę,
dlatego też mam co do niej mieszane uczucia, stąd wylądowała właśnie w tej sekcji.
Funkcja NameDrop i ulepszony AirDrop wraz z wydaniem iOS 17 i WatchOS 10.
Tutaj mam również mieszane uczucia, gdyż na początku wydawało mi się, że opcji tej będę używać znacznie częściej.
Niemniej jednak, albo ja nie umiem do końca tego używać, albo naprawdę to tak działa,
że te iPhone’y i Watcha trzeba, zwłaszcza iPhone’y, trzeba zbliżyć bardzo precyzyjnie tymi antenami NFC,
żeby połączenie zostało zainicjowane.
i też jeżeli się chce dać udostępni, jeśli dana osoba o coś poprosi,
a jeżeli się w międzyczasie lekko, nawet delikatnie poruszy telefonem,
połączenie zostaje utracone i trzeba na nowo inicjować je poprzez zbliżenie.
Również nie pozostaje bez znaczenia fakt, iż gdy ta funkcja jest włączona,
mimo wszystko zużycie baterii pozostaje nieco większe.
Głos osobisty, personal voice w systemach Apple,
to również budzi moje mieszane uczucia,
dlatego, że dla osób zamieszkujących w Stanach Zjednoczonych,
posługujących się językiem angielskim, niewątpliwe jest to wybawienie
dla tych, którzy stoją przed faktem utraty zdolności mówienia.
Jednakże dla pozostałych użytkowników póki co nic się w tym zakresie nie zmienia
i no niestety nie wiadomo, kiedy to nastąpi.
Być może dla innych języków bardziej popularnych,
typu niemiecki, typu francuski czy hiszpański, nastąpi to szybciej.
Jednak dla języka polskiego, podejrzewam, że będziemy się musieli na to jeszcze długo naczekać.
Tak samo zresztą jak na wsparcie Siri w języku polskim, czyli być może do nigdy.
Szybka nawigacja w macOS Sonoma, tutaj dodałem to również do sekcji uczuć mieszanych,
dlatego, że niewątpliwie jest to pozytywna funkcja, zwłaszcza, że ta szybka nawigacja jednym klawiszem
działała kiedyś znacznie gorzej, gdyż tylko na stronach internetowych,
a żeby jej używać np. w dokumentach czy w innych aplikacjach zawierających choćby nawet hiperłącza
niestety trzeba było wiedzieć jak to zrobić, teraz to działa znacznie prościej
no tyle, że niestety, jeżeli się chce wpisywać tekst, powiedzmy, edytować dane pola formularzy
trzeba każdorazowo ją wyłączać, potem znowu włączać, żeby działała
jak również w innych częściach systemu macOS, od choćby nawet w ustawieniach
też trzeba bardzo pilnować, ażeby ją mieć wyłączoną, żeby nie stracić na parę dziesić sekund responsywności voice overa, który poprzez to, że cały czas przeszukuje, przestaje po prostu odpowiadać i zawiesza się całkowicie.
Wprowadzono niby funkcję zezwalającą na to, aby w polach edycyjnych zawsze można było tekst wpisywać zamiast stosować klawisze liter jako skróty do nawigacji, jednakże to pozostawia jeszcze wiele do życzenia i wymaga zdecydowanie głębszego dopracowania.
Ustawienia systemowe, kiedyś preferencje systemowe, wydaje mi się, że to zostało również wprowadzone w macOS Sonoma, a nie wcześniej.
Tutaj troszeczkę też mam mieszane uczucia, co do tego, dlatego że opcje, czy to włączania funkcji dostępności na ekranie logowania zostały przeniesione w mniej intuicyjne miejsca i trzeba po prostu o tym wiedzieć, gdzie to jest rzecz jedna.
Natomiast rzeczy związane z odblokowywaniem Maca przy pomocy zegarka Apple Watch, tudzież zatwierdzania na nim operacji różnorakich, w tym administracyjnych bądź też płatności, zostały przeniesione w zupełnie inne miejsce i to też mi się dość mocno nie podoba.
Mogły mimo wszystko zostać w tej prywatności, gdzie były wcześniej, a jednak zostały przeniesione do ustawień Touch ID.
Choć muszę przyznać, że ogólny koncept ustawień zbliżony do tych iPhone’owych czy raczej tak naprawdę iPad’owych podoba mi się, no to jednak nie mogę dać tychże ustawień do pozytywów właśnie z uwagi na wyżej wymienione zarzuty i żalę.
Analizator tekstu VoiceOver na macOS, który został wprowadzony bodaj dwa lata temu, ja jednak w zeszłym roku doceniłem jego wartość, zwłaszcza pod koniec roku wypełniając różnolakie formularze Google.
Dałbym go do pozytywów, gdyby nie to, że tak naprawdę w polach formularzy przeszukiwał dosłownie wszystko i analizował dosłownie wszystko.
Tu mam na myśli to, że niestety nie ograniczał się do treści wyłącznie jednego pola, w którym została wpisana odpowiedź na pytanie otwarte.
Tylko przeszukiwał i analizował wszystkie te pola w innych pytaniach.
No i te nieszczęsne znaki niedrukowane, które mógłby troszeczkę inaczej ogłaszać.
No i kwestia też pozostaje nie do końca przechodzenia tak naprawdę do tych sekcji, które by sobie człowiek życzył.
Ogólnie na plus jednak wymaga ta funkcja dalszego dopracowania.
A teraz przechodzimy sobie do negatywów, których jest niestety więcej od kwestii mieszanych uczuć.
Niemniej jednak trochę mniej niż pozytywów, więc w sumie już mogę teraz powiedzieć, że mimo wszystko rok oceniam bardzo na plus.
ale do brzegu do rzeczy, do negatywów.
Aplikacja Santandera, banku Santander.
Niestety, czasami lepsze bywa wrogiem dobrego,
no i w tym wypadku również tak się stało.
Aplikacja nowej generacji, która miała zapewnić niezrównane,
nieocenione wrażenia pozytywne dla użytkownika
i komfort użytkowania,
no niestety, to wszystko spełzło na niczym, moim zdaniem,
gdyż aplikacja, po pierwsze,
działa znacznie wolniej od swojej poprzedniczki,
Poza tym ta dostępność również nie jest najlepsza, a to najlepiej o Banku Bez Barier nie świadczy.
Na ten przykład próbowałem sobie od choćby założyć najpierw jedną lokatę.
To mi się jakimś cudem udało z rozpoznawaniem ekranu VoiceOver, ale po wielu bojach i trudach drugą lokatę sobie próbowałem otworzyć.
Tego już niestety dokonać nie mogłem.
Poza tym aplikacja banku, który szczyci się dostępnością bez barier, powinna wcześniej, już na etapie wersji beta, zostać przetestowana pod kątem dostępności dla użytkownika, a niestety tak się nie stało i dopiero teraz, bardzo powoli, w bardzo pieszałym tempie, zostają wprowadzane pewne poprawki dostępności, co jeszcze raz podkreślam, nie najlepiej świadczy o banku, o traktowaniu klienta, no dlatego niestety aplikację Santandera musiałem umieścić w negatywach.
Funkcja Visual Lookup w iOS 17
jest to funkcja, która umożliwia użytkownikowi
identyfikację obiektów na zdjęciach
oraz podpowiedzi generowane z wyjaśnieniami.
Cóż to jest za obiekt?
Na przykład jaka jest to rasa psa?
Jakiego posągu zdjęcie tudzież rzeźby
jest nam wyświetlane?
Czy na przykład ikonka na metce od prania?
Niemniej jednak niestety funkcja
niedostępna jest dla języka polskiego.
A dlaczego? Bo nie ma dostępnej Siri.
W językach takich jak niemiecki czy angielski funkcja jest jak najbardziej dostępna.
Sprawdzałem podczas testowania w niemieckiej wersji systemu.
Tu działa idealnie, nie mniej jednak w polskim tego jak nie było, tak nie ma.
Również funkcje wskaż i mów, jak również wykrywanie tekstu i jego odczytywanie na bieżąco w aplikacji loopa pozostawia wiele do życzenia.
gdyż tutaj również są wykorzystywane, zdaje się, słowniki Siri i synteza języków wspieranych przez Siri.
Także, zwłaszcza to wykrywanie tekstu, bo wskaż i mów jeszcze by uszło w tłumie,
niemniej jednak, no, moim zdaniem, zresztą nie tylko moim, nie działa to zgodnie z oczekiwaniami.
Było to tak hucznie ogłoszone w notce prasowej odnośnie Światowego Dnia o Dostępności w minionym roku,
niemniej jednak dużo temu brakuje do ideału.
nadal brak funkcji tekstu na żywo, czyli live text, w systemach Apple,
mimo dodania wsparcia dla tej funkcji dla języka ukraińskiego.
Dlaczego nie mogą w końcu zrobić dla języka polskiego?
To niby jakoś działa, niektóre diakrytyki są odczytywane,
no jednak umówmy się, nie wszystkie.
Chyba jeszcze długo L pozostanie T, prawda?
I spotka akcyjna, na przykład.
Albo np. TAT
Również nadal brak opcji opisywania zdjęć przez voiceover
No dobrze, mamy teraz rozwiązania bazujące na sztucznej inteligencji typu BeMyAI, czy program Detective, czy inne dodatki dla NVDA
No nie mniej jednak w innych językach, tych bardziej popularnych, to już jest dla języka polskiego nadal funkcjonalności brak
Tak samo zresztą jak niestety rozpoznawanie ekranu, które z językiem angielskim czy niemieckim działa świetnie, zostało wprowadzone bodaj w iOS 13, a do tej pory dla języka polskiego nie ujrzało ono światła dziennego.
Dobrze, że chociaż mamy inteligentne etykietowanie przycisków, kiedy takowe nie zawierają etykiet.
Chociaż tyle.
Rysuj ścieżkę aby pisać w iPadOS 17
Niestety nie wiem czy jest to kwestia konfiguracji i tego że iPad został skonfigurowany z kopii zapasowej iPhone’a czy co
Niemniej jednak na iPad’cie jednego z moich domowników to nie działa
Na iPhone’ie jak najbardziej działa, na iPad’cie to działać nie chce
Dlatego to niestety oceniam bardzo negatywnie w przypadku iPad’a, gdyż na iPhone’ie jak już wspomniałem działa to bardzo fajnie
Aplikacja Google Meet niestety okazała się kolejnym niewypałem technologii jeżeli chodzi o macOS.
Po pierwsze nie do końca chce to działać jeśli chodzi o Safari, co znaczy niby działa w zakresie czatowania, w zakresie obsługi dźwięku itd.
Niemniej jednak ma bardzo ograniczone funkcje jeśli chodzi o udostępnianie ekranu i tu niestety wymagany jest Google Chrome.
Ale aplikacja ta niestety przysparzała moim kursantom, a byłem zmuszony przez pewne okoliczności z niej jakiś czas korzystać.
No niestety przysparzała wielu problemów.
Stąd aplikacja oceniam bardzo negatywnie.
Serwis Threads, a jego dostępność, serwis mety nowy, który został wprowadzony w lipcu ubiegłego roku,
a do nas w grudniu, ocenia mnie najlepiej pod kątem dostępności, zwłaszcza aplikacji mobilnej.
jak również fakt, że, żeby publikować, należy posiadać profil na Instagramie.
A co, jeśli ktoś go nie chce zakładać?
Bez niego istnieje tylko możliwość odczytywania threadsów.
Również inne aplikacje, mety, nie popisały się w ubiegłym roku.
Facebook, czy to milczącymi postami, w których były umieszczone linki,
natomiast Messenger i to dwa razy miał błąd powodujący,
że jeśli przyszła do nas wiadomość w konwersacji zarówno indywidualnej jak i grupowej,
bądź też jeśli my wysłaliśmy daną wiadomość,
recytowane były dużo starsze wiadomości sprzed wielu tygodni.
Oba te błędy, zdaje się, wystąpiły dwukrotnie w minionym roku.
Niby pojawiały się aktualizacje, które naprawiały ów błąd, aby błąd ten powrócił
i aby znów został naprawiony po raz drugi.
Brawo meta!
Dostępność YouTube w Safari na macOS również serwis nie do końca należy do komfortowych w przeglądaniu, jeżeli wejdziesz na serwis i non-stop mówicie niezweryfikowany, niezweryfikowany, niezweryfikowany i niezweryfikowany, podczas gdy ty próbujesz przechodzić między linkami, między nagłówkami itd.
VoiceOver powtarza Ci ten komunikat non-stop do pewnego momentu,
jak również kiedy dany materiał jest sponsorowany,
zamiast do końca odczytać dany nagłówek będący tytułem firmy,
VoiceOver uparcie powtarza, zawiera płatną promocję.
Tu pewno kwestia niewłaściwej implementacji znaczników ARIA i tego typu rzeczy,
no, mogliby to poprawić zdecydowanie.
Tu również w powiązaniu z poprzednim negatywem
przychodzi odkrycie w postaci czynności voice over na macOS w połączeniu z konkretnymi stronami internetowymi, gdyż to działać niestety jak dla mnie nie chce.
Jakkolwiek z aplikacjami to działa dobrze, gdyż czynność po odpaleniu danej aplikacji jest prawidłowo wykrywana i przełączana,
nie mniej jednak jeśli chodzi o poszczególne strony internetowe, to nie działa.
Nie działa w przypadku YouTube, nie działa w przypadku serwisów prosk.pl, gdzie tam treści dynamiczne są odczytywane bardzo nachalnie, w bardzo dziwny sposób.
Próbowałem sobie skonfigurować odpowiednią czynność, jednakże to nie zadziałało.
Brak klawiatury na Apple Watchu dla języka polskiego.
Niestety, nadal tego nie mamy.
Mowa oczywiście o klawiaturze ekranowej.
Jest możliwość wpisywania, zdaje się, że ręcznego, chociaż tego pewien nie jestem.
Dyktowanie na pewno na szczęście jest.
ale przydałoby się, aby Apple natywnie zapewniło wsparcie swojej natywnej klawiatury dla naszego języka ojczystego.
Przed ostatnią kwestią jest oszustwo, moi drodzy państwo.
Jest oszustwo, jakiego dopuścił się na mnie deweloper aplikacji HakuRecorder.
Czytam RecorderHaku, już nie pamiętam jak ta aplikacja się nazywa i nie chcę tego pamiętać więcej.
O co chodzi?
Chodzi o to, że w App Store są dwie wersje aplikacji.
jedna jest niby darmowa, niby? Dlaczego?
O tym będzie zaraz.
Jest również wersja PRO,
która to była aktualizowana już spory czas temu
w przeciwieństwie do tej niby darmowej.
Jednak przy tej darmowej aplikacji
zamiast być przycisk pobierz,
tak po prostu pobierz,
widnieje na nim kwota 29,99,
co oznacza, że aplikacja jest płatna.
Myślę sobie, no dobrze,
może autor tak teraz zdecydował,
że aplikacja nie będzie już dłużej darmowa i od razu po zakupie dostanę wszelkie benefity członkostwa premium.
Jakież było moje zdziwienie, kiedy ja tą aplikację kupiłem, otworzyłem i nie dość, że miałem reklamy,
to jeszcze aplikacja prosiła mnie o dodatkową opłatę w wysokości 20 zł, jeżeli ja bym chciał pozbyć się tych natętnych reklam,
a jeżeli nie, to miałem oglądać jakieś filmiki.
Minęły trzy tygodnie, otworzyłem aplikację ponownie, dalej były reklamy, no więc się dość mocno zdenerwowałem, zgłosiłem aplikację jako oszustwo do Apple, no i zawnioskowałem o zwrot pieniędzy.
Jakież było kolejne moje zdziwienie, kiedy okazało się, że mimo iż minęły dwa tygodnie tak naprawdę przysługującymi od zakupu aplikacji, Apple zwróciło mi pełną kwotę, gdyż zaznaczyłem, że aplikacja zwyczajnie nie spełnia moich oczekiwań.
Także jeżeli byście chcieli teraz wypróbować te aplikacje, no to niestety liczcie się z tym, że może ona właśnie tak samo oszukać jak i mnie, że niby ją kupicie, a nadal będziecie mieć niestety reklamy.
Ostatnim negatywem, który mam na mojej liście, a wydaje mi się, że wydarzyło to się jakoś na początku albo bliżej początku minionego roku, to odejście Mikołaja od prowadzenia Tyfloprzeglądu, który również wnosił bardzo wiele do tych audycji, a niestety go z nami nie ma.
Zniknął w zasadzie bez zapowiedzi, czego bardzo, bardzo, ale to bardzo żałuję i nad czym ubolewam.
I to by było na tyle kochani, odnośnie mojego podsumowania minionego roku, rozgadałem się jak zwykle i co mogę powiedzieć na koniec, rok ten pomimo różnych negatywów i uczuć mieszanych, uważam za całkiem udany, no właśnie ze względu na te sztuczne inteligencje, poprawę dostępności, czy to Orange Flex czy M-Obywatela, mimo że nie miałem nadziei, że to się stanie, a jednak się stało, tak więc ten rok uważam mimo wszystko za dość udany, życzę sobie i wam wszystkim jeszcze lepszego
nowego roku pod względem każdym, ale tu w tym wypadku przede wszystkim tym
dostępnościowym, aby to wszystko, na co mieliśmy nadzieję w zeszłym roku, co się
nie spełniło pod kątem dostępności, pod kątem technologii w ogóle, w tym pod
kątem wszelkich Tyflo technologii i innych Tyflo spraw, ażeby miało szansę się
spełnić właśnie w tym roku. Pozdrawiam wszystkich bardzo serdecznie. Maciek Walczak.
Michał Kasperczak. Czas na moje mini refleksje dotyczące zeszłego roku,
jeżeli chodzi o technologie asystujące i technologie ogólnie.
Kiedy myślę o tym roku, jaki on był dla mnie,
to pierwsze, co mi się nasuwa, to Apple Mac, Parallels i Windows.
Jestem od jakiegoś czasu użytkownikiem komputera MacBook Air z procesorem M.2
i chociaż bardzo lubię firmę Apple i technologię Apple i voice-overa,
to nigdy nie byłem takim użytkownikiem, który uważałby, że jest to dla mnie rozwiązanie wystarczające.
Stąd od razu, kiedy dostałem dzięki programowi aktywny samorząd taki komputer,
właśnie Macbook, ten nowej generacji, z procesorem ARM, już a nie Intel,
to od razu wiedziałem, że będę chciał zainstalować sobie Parallels,
masz oprogramowanie do wirtualizacji.
Mimo, że jest ono niezbyt tanie,
mimo, że ma ono pewne jakieś tam mini-ograniczenia,
ale jest ono zadziwiająco wydajne.
Bo wcześniej z tymi maszynami wirtualnymi było różnie, były różne, a to problemy z instalacją, a to problemy z konfiguracją, a to problemy z dostępnością, a to Windows działał nie tak jak trzeba, jakoś tak mało wydajnie.
I pamiętam stare podcasty na temat Maców, kiedy nagrywaliśmy to m.in. z Piotrem Machaczem i Piotr wtedy mówił, że Parallels działa naprawdę dobrze.
I to było moje pierwsze takie duże zaskoczenie, że ten Parallels naprawdę działa dobrze i Parallels to taki skrót, tak, Parallels działa dobrze, a to za tym idzie Windows, na nim działa bardzo dobrze.
Oczywiście jest jakaś taka minimalna różnica pomiędzy pracą na komputerze takim normalnym z Windowsem a na wirtualnym Windowsie, ale to jest różnica minimalna, czasem o niej w ogóle zapominam, także dzięki temu Macowi ja właściwie mogę pracować na dwóch systemach bez przeszkód.
Ma to swoje oczywiście minusy, bo czasami, kiedy ktoś pracuje na Macu z voice-overem,
to odzywa się NVDA, ni z gruszki, ni z pietruszki, albo kiedy przełączam się na Windowsa na NVDA,
to muszę wyłączać najczęściej… znaczy tak, wyłączam voice-overa,
lepiej żeby te dwa czytniki ekranu nie były z sobą…
czy inaczej, lepiej żeby voice-over nie był włączony, kiedy Windows jest używany,
No chyba, żebym co chwilę tego Parallelsa zamrażał, zamykał, ale tego jakby nie robię.
A dlaczego dla mnie ten Parallels jest ważny?
Dlatego, że nie lubię edycji tekstu na Macu, uważam, że ona jest trudniejsza
i nie tak efektywna, jak to ma miejsce pod Windowsem, jak to ma miejsce w Wordzie.
I są takie sytuacje, kiedy Windows, po prostu, sprawdza mi się lepiej.
A że w większości aplikacji, nie we wszystkich, ale w większości aplikacji,
schowek wspólny działa bardzo dobrze.
Mogę różne rzeczy kupować pomiędzy Maciem a Windowsem.
mogę mieć dostęp do większości plików w taki sam sposób.
Fakt, że trzeba tu mieć jakąś tam wiedzę komputerową, troszkę sobie to poustawać,
troszkę pomyśleć, co, jak, w jaki sposób chcemy używać, na co ma wpływ,
bo jeszcze do tego dochodzą jakieś aplikacje do historii, schowka,
różne otwieranie plików w różnych formatach, np. ja mam tak zrobione,
że w Finderze na Macu sobie klikam w plik wordowski i on mi się otwiera w Wordzie
pod Windowsem, żaden problem. Także jeżeli ktoś pod tym kątem myśli,
to naprawdę można używać Windowsa na Macu i można to robić bardzo dobrze.
Także to jest moje takie odkrycie i… no tak, odkrycie roku i jakieś takie…
to sprawiło, że pracuje mi się po prostu znacznie lepiej, efektywnie.
No a z Mac jak to Mac, są tam na nim rzeczy bardzo ciekawe, bardzo dobre,
szereg oprogramowania działa bardzo sensownie.
No i tutaj wielkie podziękowania dla Arka Świętnickiego i Piotra Machacza,
a wcześniej Mikołaja Hołysza, którzy zrobili kawał dobrej roboty,
przygotowując podcasty i pisząc artykuły na temat technologii Apple
i aplikacji w kontekście niewidomych.
No, zapewniam, że, no chyba, nie wiem, czy na świecie, no,
myślę, że można powiedzieć, że na świecie nigdzie nie ma takich artykułów,
jak są w Tyfloświecie i w Tyflo i podcastów, jakie są w Tyflo podcaście
I nie chodzi o to, że one nie mają jakichś błędów, albo że, nie wiem, że one są tak dobre.
Choć są dobre, żeby nie było. Są bardzo dobre.
Ale chodzi mi o to, że merytorycznie, no, na Apple Vis nie ma opisu tylu aplikacji już w tej chwili,
ile jest u nas. I znowu tyle.
Nie chodzi mi o taki opis, o katalogu aplikacji, bo oczywiście katalog aplikacji na Apple Vis jest o wiele większy.
Ale takie porządne artykuły opisujące, omawiające instalacje,
konfiguracje i zastosowania pewnych określonych aplikacji,
no to myślę sobie, że Apple Vis jest daleko w polu,
gdzieś tam pomiędzy, niż w stosunku do tego, co my robimy.
Choć też, żeby nie było, nasi współpracownicy
Piotr, Arek się inspirują oczywiście Apple Vis
i bardzo dobrze, tak, bo to jest no ciągle jakieś tam główne,
może nie źródło, jedyne, ale istotny portal
jakoś tam w tej amerykańskiej społeczności.
Myślę, że nie tak jak kiedyś, bo mamy już teraz przecież, mieliśmy…
Znaczy jeszcze w jakimś tam stopniu jest Reddit, jeszcze jest Mastodon, był Twitter, czy jest Twitter, teraz X,
no ale gdzieś tam to Apple Vis ma znaczenie.
Także tamten mój rok to tak pierwsze zaskoczenie i takie pozytywne, no to jest Apple,
dostosowanie sobie tego komputera dla siebie, rozmaitych aplikacji, czynności aplikacji.
No i jeszcze sporo przede mną, bo koniec roku to zabawy z Audio Hijackiem, którego też zaczynam bardzo cenić
i myślę, że ten rok to będzie tak sobie troszeczkę założyłem, chociaż postanowień noworocznych zasadniczo nie robię,
ale w tym roku chciałbym trochę się nauczyć Audio Hijacka i Keyboard Maestro
i to myślę, że też może mi bardzo jakoś tam pomóc niejednokrotnie w pracy.
Takie trochę ekscytacja połączona z rozczarowaniem to są z kolei odtwarzacze książek audio dla osób niewidomych.
To są nowe urządzenia, o tym albo już mówił, albo niedługo będzie mówił Robert Hedzyk,
Victor Reader Stream i Sense Player.
Bardzo dobrze, że jest konkurencja, że te urządzenia idą do przodu,
że wszystkie już właściwie teraz mają Wi-Fi,
że wszystkie już odtwarzają DayZ Online, inne formaty,
ale właściwie każdy z urządzeń ma swoje minusy.
Victor Reader, który kiedyś mi się bardzo podobał w pierwszej wersji,
w drugiej mniej, potem o nim w ogóle jakoś tam zapomniałem,
potem sobie, jak kiedyś się pojawiła jego nowa wersja
i były o tym informacje na podcaście Jonathana Mosena,
to od razu pomyślałem, o ten Wiktor, no niby nie taka duża zmiana,
ale będzie dobrze. No i testowałem przez chwilę.
Ja wiem, że zawsze te urządzenia spłaszczone wypadają gorzej,
bo te syntezy są nieco gorsze mimo wszystko i jakieś one są takie wolniejsze
i zawsze są jakoś tam niedopracowane, co nie jest zawsze tylko winą
polskich dystrybutorów, ale też w ogóle jakichś takich problemów
z lokalizacjami, problemów z tego oprogramowania, szczególnie na początku.
No ale powiem szczerze, ten Victor Reader Stream nie spodobał mi się za bardzo.
Jakoś tak działał mimo wszystko topornie i ten cały jego interfejs.
No nie, już na dzisiejsze czasy jakoś tak niekoniecznie.
Nie będę opowiadał więcej szczegółów, bo raz, że do końca nie pamiętam,
dwa, że to nie o to chodzi, trzy, że było o tym i w artykule, i w podcastzie Roberta.
Podobnie SensPlayer, tutaj zaskoczenie, firma Chimps wypuściła urządzenie bardzo ładne, bardzo dobre, bardzo ogólnie sensowne, ale znowu, okazało się, że mające sporo gdzieś tam błędów, szczególnie na początku, myślę, że teraz jest znacznie lepiej, bo było ileś podwersji, teraz mamy wersję 2.0, a może nawet wyżej, możliwość instalowania aplikacji zewnętrznych, także mamy taki minikomputer,
Oczywiście z przymrużeniem oka, ale taki minikomputer to jest już w tej chwili sense player.
I świetne urządzenie. Chociaż drogie i nie wiem, czy aż tak potrzebne.
Z kolei testowałem jeszcze inne rzeczy, jakoś tam Orion, taki z anteną, Orion Stereon teraz się nazywa.
To w tym roku EC w końcu go jakoś tam w ofercie umieściło, czy umieści.
No niby jest na stronie i pewnie o nim będziemy jeszcze mówić, bo urządzenie jest jakoś tam ciekawe.
celowo i być może funkcjonalnie, no ale na tamten czas miałem do niego jakoś tam dwóch zastrzeżeń.
No co jeszcze, co jeszcze gdzieś tam przeszło, powiedzmy, w mojej ręce?
Na pewno ten telefon Capsy Smart Vision.
I to znowu, z jednej strony bardzo dobrze, że mimo wszystko takie urządzenie jest,
ale za duże, za drogie i chyba średni głośnik, dość kiepski mikrofon w sumie,
no to są takie rzeczy, które jakoś tam może nie dyskwalifikują, ale to urządzenie sprawiają, że gdzieś tam nie do końca.
Chociaż pracę z klawiaturą na tym Androidzie wspominam bardzo dobrze, to jednak było coś super.
Na pewno też gdzieś tam szle ze rozwój urządzeń brailowskich, tylko że tutaj żadnych zmian, tak, bo no dwa lata temu to mieliśmy taki wysyp, był Brailliant, był Mantis, w zeszłym roku już na dobre w Polsce nowy BrailleSense, no ale jak słychać, każdy z urządzeń, owszem, jak ktoś już je kupi, jego używa, to pewnie jest wierny rozwiązaniu, które sobie wymyślił i jest wierny drodze, którą obrał,
ale każdy z tych urządzeń ma, tak samo jak w przypadku odtwarzaczy,
pewne problemy, które ciągle są i w zasadzie to świadczy o tym,
że bardzo trudno rozwija się te wszystkie technologie
specjalistyczne tak naprawdę, o czym gdzieś była też,
można sobie przeczytać artykuł Rafała Charłampowicza na temat
okularów Envision, z których on akurat jest zadowolony bardzo,
ale samo uwądzanie drogie też ciągle ma jakieś tam swoje problemy, tak?
I to nie chodzi o to, że wiadomo, że technologia generalnie,
z technologią jest tak, że ona ma jakieś tam swoje kłopoty,
czasem doskwiera, ale w takich dużych firmach
pewne rzeczy są szybko, o wiele szybciej jednak poprawiane.
No, wiadomo, różnie, bo to jak firma jest za duża,
jak Apple, to czasami wiele lat możemy czekać na różne rzeczy.
Jak na przykład na syntezy zewnętrzne, które, no oczywiście nie jest to wina stricte Apple,
ale jakoś tak się porobiło, że no poza S-Pickiem, którego, no owszem, na Macu mi się bardzo podoba,
na iPhonie jakoś nie. No nie mamy innych syntez, nic dzisiaj się nie zadziało w tym roku.
Sam VoiceOver, no gdzieś tam rozwija się, no ale to dobrze i niedobrze.
na pewno ogólnie ja nie narzekam ani na iOS-a, ani na Mac-a,
no ale to więcej można by powiedzieć w jakichś tam audycjach szczegółowych,
nie będę teraz w to bardzo, bardzo wchodził.
Minus i taka rzecz bardzo zła, która się wydarzyła, o której nie tylko ja mówię,
aplikacja Santander, nowa, nowa aplikacja, która jest po prostu zła.
o ile da się jakoś tam sprawdzić saldo konta na głównym ekranie,
da się przetłuchać historię, to im głębiej, tym gorzej.
Klikanie w historii w jakiś element, otwieranie szczegółów sprawia,
że czytane jest coś innego, otwierane jest inne.
Potem, kiedy czytamy głębiej kursorem VoiceOver, okazuje się,
że to jakby się przeładowało i otwarte jest jeszcze coś innego.
albo wybieranie osoby do przelewu, o wiele trudniejsze i o wiele z historii właściwie niewykonalne.
Ileś, no po prostu ta aplikacja jest zła, ona jest mimo starań jakoś tam, no niedopracowana
i pewne rzeczy chyba już się nie odstaną, się obawiam, nie jest to, z tego się da jako wystać,
ale no to, co było kiedyś, Santander nie bez racji uważał się za najbardziej dostępny bank w Polsce pod każdym względem,
no to niestety to już jest pieśń przeszłości.
To wynika z tego, że oni globalnie wprowadzili chyba w całej Europie jakąś nową aplikację,
no i niestety chyba ta dostępność gdzieś nie była tam tak ważna.
Także nie wszystko, co z zagranicy przychodzi, jest zawsze koniecznie tak dobrze dostępne,
jakby nam się mogło wydawać.
No może w Stanach to wygląda inaczej, tu niestety, no, Santander dał plamę.
Systemy audio, dalszy rozwój głośników Sonos, to taka rzecz pozytywna.
nowe Sonosy Era 100 i bardziej takie Dolby Atmos Era 300, to na pewno gdzieś tam na plus.
Tak samo nowe sprzęty JBL, nowy głośnik JBL Charge Wi-Fi, o numerze nie pamiętam jakim,
Five chyba, pięć, to taka rzecz dosyć ciekawa, przenośna, słyszałem tylko, że całkiem przyzwoita,
To taki trochę następca JBL Portable, można by powiedzieć, chociaż z innej linii produktowej, ale wygląda, że to ciekawy głośnik, ale o nim więcej będzie niedługo w tekście, który pisze Radek Morawski, jako że on testuje.
Tutaj krótkie info, że nawiązaliśmy kontakt z dystrybutorem JBL-a i z dystrybutorem niemieckiej firmy Teufel, stąd liczymy, że jakiś tam więcej sprzęt od nich będziemy testować.
No i to chyba tyle. Potraktowałem to bardzo osobiście, to moje podsumowanie.
Jakby zwróciłem uwagę na takie rzeczy, do których miałem dostęp,
które gdzieś tam zwróciły moją uwagę. Nie skupiłem się na takiej dostępności
sensu stricto w takim rozumieniu właśnie accessibility, czyli jakiejś audiodeskrypcji,
jakiejś dostępności stron internetowych, usług.
Na pewno pozytywnie M.Obywatel.
Było dużo obaw na początku, było źle.
No, teraz można powiedzieć, że jest całkiem dobrze
albo prawie dobrze, no, w miarę dobrze.
Ale bliżej, lepiej niż gorzej, więc
należy się z tego cieszyć i tylko korzystać.
No i co? Znakomite tyflo przeglądy.
To właściwie kopalnia wiedzy i to takiej dobrze podanej, sensownej i jeżeli ktoś się interesuje, to bardzo, bardzo warto.
No ale to komu to mówię? I to chyba będzie z mojej strony wszystko.
Był to Tyflo Podcast. Pierwszy polski podcast dla niewidomych i słabowidzących.
Program współfinansowany ze środków Państwowego Funduszu Rehabilitacji Osób Niepełnosprawnych.

Wszystkie nagrania publikowane w serwisie www.tyflopodcast.net są dostępne na licencji CreativeCommons - Uznanie autorstwa 3.0 Polska.
Oznacza to, iż nagrania te można publikować bądź rozpowszechniać w całości lub we fragmentach na dowolnym nośniku oraz tworzyć na jego podstawie utwory Zależne, pod jedynym warunkiem podania autora oraz wyraźnego oznaczenia sposobu i zakresu modyfikacji.
Przekaż nam swoje 1,5% podatku 1,5 procent Logo FIRR Logo PFRON Logo Tyfloswiat.pl

Czym jest Tyflopodcast?

Tyflopodcast to zbiór instrukcji oraz poradników dla niewidomych lub słabowidzących użytkowników komputerów o zróżnicowanej wiedzy technicznej.

Prezentowane na tej stronie pomoce dźwiękowe wyjaśniają zarówno podstawowe problemy, jak metody ułatwienia sobie pracy poprzez korzystanie z dobrodziejstw nowoczesnych technologii. Oprócz tego, Tyflopodcast prezentuje nowinki ze świata tyfloinformatyki w formie dźwiękowych prezentacji nowoczesnych urządzeń i programów. Wiele z nich dopiero znajduje sobie miejsce na polskim rynku.

Zapraszamy do słuchania przygotowywanych przez nas audycji i życzymy dobrego odbioru!

Tematyka

Pozycjonowanie i optymalizacja stron internetowych