TyfloPrzegląd Odcinek nr 193 (wersja tekstowa)

Pobierz napisy w formacie SRT
Pobierz napisy w formacie VTT
Fundacja Instytut Rozwoju Regionalnego prezentuje Tyflo Podcast.
Dzień dobry, czy dobry wieczór w zasadzie. Mamy godzinę dwudziestą, nawet dwudziestą zero trzy już w tej chwili, a to oznacza, zwłaszcza, że jest środa, to oznacza, że jest też Tyflo Przegląd.
I dzisiaj Paulina Gajoch, Piotrek Machacz, Michał Dziwiszija, czyli Tomek Gwilecki.
Dzień dobry, dobry wieczór, cześć.
No i 193. audycja już w tym przeglądzie, zbliża się kolejny, powoli kolejny jubileusz.
No ale na razie 193, więc jak zwykle zaczynamy od tego, co dzisiaj będzie się w audycji działo
i jak to zwykle Michał to przedstawi, to co się będzie działo.
W tym tygodniu w Tyflo Przeglądzie.
Zmiany w interfejsie N-Vision.
Strike Guts, interaktywny musical z audiodeskrypcją.
Specjalny tablet pomoże niewidomym w paryskim Disneylandzie.
Typing Settings, nowy dodatek do NVIDIA
i pozwala spersonalizować to, co słyszysz, kiedy piszesz.
Nowy numer Tyflo Świata.
Już w średniowieczu niewidomi mieli psy-przewodniki.
Szkolenia komputerowe od stowarzyszenia w labiryncie.
Asus przejmuje produkcję komputerów NUC.
Nowa wersja VMware Fusion poprawia wsparcie dla Windowsa 11.
Ostrzeżenie dla użytkowników glukometru Freestyle Libre.
Nowa aplikacja psuje dostępność.
Poprawki dostępności w Diablo 4.
BetterTG – alternatywny klient Telegrama na iOS.
Dostępność w Slacku się poprawia.
Nowości w Time for Bus.
Jest aplikacja DeepL dla Windows. Jak z jej dostępnością?
Wrażenia Pauliny z używania Asus Rock LA.
Posterujmy Woderem.
Google Bard dostępny w Polsce.
Dlaczego pytanie czata GPT o zdjęcia nadal nie jest publicznie dostępne?
Chcesz przeczytać bloga? Przez AI możesz napotkać kapcze.
Sztuczna inteligencja od Microsoft nagrywa audiobooki dla projektu Gutenberg.
AudioWebUI – webowy interfejs do wielu modeli związanych z dźwiękiem.
Perplexity AI – połączenie GPT i wyszukiwarki.
Wszystko to, a pewnie jeszcze więcej już za chwilę.
Zaczynamy!
W Tyflu Przeglądzie jesteśmy zawsze otwarci na Państwa pytania, uwagi oraz newsy.
Zapraszamy na stronę kontakt.tyflopodcast.net,
gdzie można uzyskać szczegóły na temat połączenia na Zoomie oraz napisać do nas wiadomość.
Można to zrobić także z poziomu transmisji na Facebooku, YouTubie
oraz aplikacji na iPhona od Arkadiusza Świętnickiego i na Windowsa od Dawida Piepera.
Czuwamy także na tyflopodcastowym serwerze Discorda.
Zapraszamy więc do kontaktu.
No to zaczynamy.
Zaczynamy od newsa poniekąd z poprzedniej audycji.
Chociaż nie no, z poprzedniej audycji.
Paulina, kupiłaś ASUS ROG Ali.
Byłem nawet świadkiem Twoich zmagań z tym, że ASUS-em.
No to co z tego wyszło?
Przypomnijmy, że ROG Ali to jest taki komputer PC, który ma być czymś w rodzaju konsoli do gier i ma służyć do grania, no i w związku z tym bardzo przypomina jej z wyglądu konsolę i no w ogóle ma być konsolą tylko jakby trochę, no konsolą, ale komputerem PC.
Dokładnie, no to cóż, pozdawałam egzamin na studiach, stwierdziłam, że zrobię sobie prezent, kupię sobie ROG Alica, jak to się na niego potocznie mówi.
I w sumie założenie z jakimi ja ten komputer a pół konsolę kupiłam.
Po prostu chodziło mi o mały komputer, który będzie miał baterie
i który będzie miał jakąś metodę wprowadzenia, która nie będzie wymagała ode mnie wyciągania zewnętrznej klawiatury
i posiadania jej w każdym możliwym przypadku jego użytkowania.
No i w takim razie ten ASUS ROG ALEXIE
sprawdzał się idealnie
na papierze, bo
miał dotykowy ekran, to znaczy ma
ma też
kontrolki
nie kontrolki tylko
przyciski takie jak ma kontroler
do gier każdy czy konsola
czyli tam gałki analogowe, strzałki
tam bumpery
te przyciski boczne
no wszystko to co wyposażone jest w kontroler
ma baterie
ma jakieś tam usb-c do ładowania też
więc stwierdziłam okej, no może to być
może to być spoko
nie wiem, po to żeby sobie coś pograć, po to żeby sobie coś
zrobić na studia, żeby sobie coś po prostu
zrobić na komputerze, co też trochę trudno jest zrobić
na telefonie, ale żeby to nie był komputer, który mi zajmuje pół plecaka
jak jestem w podróży
no więc kupiłam sobie to, przypomnijmy cenę
3800 złotych
No i, no i cóż, zaczęłam się z tym jakoś tam w momencie, kiedy to, kiedy była przede mną konfiguracja Windowsa.
No i już na pierwszym etapie gdzieś tam powątpiewałam w responsywność tego rozwiązania, no ale stwierdziłam, dobra,
widocznie narrator, widocznie jakieś Microsoft Voices, dobra, niech będzie i tak.
No i przeszłam przez cały ten kreator konfiguracji pierwszej Windowsa
I super, i odpaliłam NVDA
I to był po prostu zawód jakich mało
Bo, po pierwsze, chociaż to powinno
Jakby, chociaż to nie jest nowość, bo
Wiedzą to wszyscy, którzy wcześniej się zetknęli z ekranem dotykowym
Narrator lepiej sobie radzi ze wsparciem ekranu dotykowego niż NVDA
Po drugie, NVDA lepiej sobie radzi ze wsparciem ekranu dotykowego w webie niż w interfejsie natywnym,
bo w interfejsie natywnym, czyli w aplikacjach, nie wiem, w eksploratorze plików,
we wszystkim tym, co nie jest po prostu stronami internetowymi i aplikacjami webowymi,
mamy po prostu symulację nawigacji obiektowej.
I to jest naprawdę, to jest naprawdę bardzo smutne, ponieważ nie da się na dobrą sprawę, nie ma scrollowania, nie ma flików, nie ma takich podstawowych rzeczy, które znamy z nawigacji po telefonach.
To ma narrator, co śmieszne.
Nie ma na przykład jakichś, nie wiem, dwuklików z przytrzymaniem zamiast kontekstowego, nie wiem, innych takich rzeczy, które by tam emulowały mniej więcej środowisko telefoniczne.
Swoją drogą, gdybym znała jakoś lepiej Pythona, to bym chciała taką wtyczkę napisać, gdybym jeszcze miała dostęp do ekranu dotykowego, bo to jest niesamowicie słabe, że w tym momencie jesteśmy na tak słabym poziomie rozwoju tej technologii.
Inna sprawa jest np. taka, że narrator też nie ma zrobionego tego jakoś mega super, tego wsparcia,
bo np. manipulowanie wartością suwaka odbywa się w taki sposób,
że dwukrotnie tapiąc zwiększamy wartość suwaka, a trzykrotnie zmniejszamy.
I wyobraźcie sobie, na przykład, zwiększyć wartość suwaka z 50% do 100%, no to by po prostu było…
I też by musiało być na tyle z przerwami, żeby było wiadomo dla systemu, czy ja tapnęłam 3-krotnie, czy 2-krotnie.
A jeszcze nie daj Boże, żebyśmy się pomylili, to będzie trzeba robić, jakby, cofać się i robić drugi raz to samo.
No ale no mniejsza o to, bo to jest już kwestia tylko ekranu dotykowego.
Kolejna kwestia jest właśnie z tą responsywnością, bo pomimo, że ja faktycznie miałam nvda i miałam izbig
i ta nvda chyba nawet była alfą, chociaż za to nie jestem w stanie ręki uciąć, że była już z tym wassapii
Nie, to była stabilka, to była stabilka, okej
Ale to naprawdę było mało responsywne i nie wiem czy to wynika z tego, że
Sam ten RockAlly jest słabo responsywny, czy z tego, że API, które odpowiadają za komunikację ekranu dotykowego ze screenreaderem, takie opóźnienia dają, ale na tym się pracowało mniej więcej jak na jakimś telefonie za 400 złotych, z jakiejś, nie wiem, 4 giga RAM-u i procesor jakiś losowy, jakiś tam Mediatek.
Kolejna rzecz jest taka, że głośniki i mikrofony są po prostu przesterowane.
Dźwięk jest bardzo metaliczny i bardzo niskiej jakości.
Tomecki, chyba byś potwierdził to nawet.
To po prostu jak z jakiegoś mega taniego, potrzebnego tableciku,
albo, albo nawet telefoniku, telefonika, nie wiem, no mniejsza o to, w każdym razie mikrofony to samo, mikrofony miały…
Od telefonu to ma akurat pewnie, w większości telefonów ma, przynajmniej tak było słuchać z nagrania, ma troszkę lepsze te głośniki, ale powiedzmy, no taki lepszy telefon, tylko trochę przesterowany.
Przesterowany, metaliczny dźwięk, no właśnie.
Natomiast co ciekawe jeszcze jeden
znajomy to ma i
nie skarżył się na to, że tam jest
coś nie tak. Aczkolwiek no z drugiej strony
Ale ty to słyszałeś?
Czy po prostu rozmawiałeś z nim?
Nie, nie słyszałem.
Może on ma trochę inny gust jakiś ode mnie
czy coś. Ale
właściwie to jest jeszcze nic w porównaniu do mikrofonów
bo mikrofony to tam były
po prostu
no po prostu wszystkie telefony
które widziałam miały lepsze mikrofony
włącznie z tymi tanimi.
Chyba, że jakieś 5-letnie ekipy.
To znaczy same mikrofony to jeszcze pół bidy,
tylko problem polega na tym, że to się
smaży, piszczy.
Po prostu jakieś tam zwarcie miało
zaraz być, jakby to miało zaraz
wybuchnąć. Z drugiej strony niestety
trochę laptopów ma nieraz gorsze mikrofony
i to mnie w ogóle zastanawia.
Czemu laptopy mają gorsze mikrofony od
telefonów?
I właśnie to. Bo ten cały artykuł powstał.
To brzmiało naprawdę, naprawdę, no masakrycznie.
Co tam dalej?
Testowałam benchmark 7-Zipa
i na benchmarku 7-Zipa przerywało mi audio.
I to nie jest mój odosobniony przypadek, bo na audiogamesach gdzieś tam
ktoś wspomniał już, nie pamiętam nawet gdzie i kto,
ale też, że gdzieś tam przy tych bardziej wymagających grach
A do tego przecież tak naprawdę ten sprzęt jest, też to audio się przerywa, więc to jest kolejna rzecz, która by mi tutaj blokowała trochę.
Co tam dalej?
Kolejna rzecz jest taka, że faktycznie jest tam jedno wejście USB-C i nie jest to zbyt podróżny format.
Jeżeli byśmy chcieli np. w pociągu ładować to i mieć, załóżmy, klawiaturę jakąś na USB-C, na jakiegoś dongle czy na coś,
to by trzeba było mieć jakiegoś huba czy rozgałęźnik. Na pewno tych wejść dałoby się dać więcej.
Kolejna rzecz, to jest to, co pewnie wiedzą wszyscy, którzy mają Asus’y, to to oprogramowanie nie jest zbyt przychylne niewidomym.
Tam problem jest z wpisywaniem polskich znaków.
Te panele konfiguracyjne nie są najbardziej dostępne na świecie, widziałam lepsze.
I po prostu tyle tych czynników, a na przykład mapowanie klawiszy też mogłoby być lepsze.
Bo jest na przykład domyślne mapowanie tych przycisków.
Tam jest Tab, Enter, Escape, strzałki.
Strzałki są zresztą zdublowane.
Ja rozumiem, że to chodzi o gry, ale jednak nie udało mi się tego w jakiś prosty sposób
złapować, no szybko. No nie wiem, może też nie poszukałam jakoś rzetelniej, ale, ale no
jakoś nie, udało mi się dojść z tym sprzętem do ładu. I okej, może jeżeli ktoś by to
faktycznie kupił sobie do Reapera, tak jak Tomek, to miałoby to odrobinę sensu,
zakładając, że faktycznie nie używałoby się ekranu dotykowego, który powoduje
problemy. Nie używałoby się wymagających aplikacji, które przerywają audio, nie używałoby się głośników i mikrofonów, nie używałoby się tych wszystkich rzeczy, które mi powodują problemy.
Okej, mogę to zaakceptować, że komuś się to sprawdzi i przyda, ale właśnie w tym moim zastosowaniu…
A skoro ty robiłaś testy…
Zależy jaka obróbka, no bo wiesz…
To znaczy, wiesz, ja nie mówię o przycięciu tam powiedzmy czegoś, tak,
bo to da się zrobić nawet nie za słabym sprzęciem.
Ja to trochę mówię właśnie o cięciu, bo mi nie chodzi o to,
żeby ten komputer był do, nie wiem, tworzenia muzyki z klawiaturą MIDI,
bo sama klawiatura jest średnio przenośna, powiedzmy.
Natomiast mi chodzi o coś takiego, że, no, mam nie wiem,
Tyflo Podcasta, mam jakąś książkę z pracy,
jadę sobie gdzieś, nie wiem, z dziećmi, no może z dziećmi to może nie, ale nie, podzieć się autobusem, czy tam gdzieś, albo nawet jestem przy dzieciach, gdzieś tam w pokoju, one się bawią, po prostu, nie wiem, mam być przy nich, bo coś tam, i po prostu chcę coś robić, no mając na tyle mały komputer, żebym mógł go trzymać, nie wiem, jedną ręką załóżmy, w razie czego, tak, i to mi się wydaje wtedy lepsze od laptopa, no bo po prostu
no mogę sobie zrobić, no dosłownie kilka skrótów
tam, usuń item, coś tam jeszcze
jakieś przesuwanie się po projekcie i to
już jest moim zdaniem na tyle fajne, że
no naprawdę mocno to rozważam, aczkolwiek no muszę to jeszcze zobaczyć
jest szansa, że to zobaczę
także no, no mnie to nadal
w sensie mnie to nadal ten sprzęt
interesuje, mimo tej recenzji Pauliny
ale to bardzo zależy do czego chce ktoś tego sprzętu użyć.
Tak, jak wiadomo, więc to na pewno nie jest sprzęt dla każdego.
Wiesz, ja mówiłem Tomku o tej edycji audio też w takim kontekście,
że jak czasem czegoś chcemy posłuchać, jak na przykład nam działa jakiś efekt,
ale jak rozumiem, to w twoim przypadku, kiedy będziesz miał jeszcze gdzieś tam dzieci obok,
no to nie jest do tego, tak, ale ja obserwuję, że no Reaper to wcale tak lekko nie działa,
kiedy mu się nałoży tam kilka takich dość zasobożernych efektów, to w czasie rzeczywistym…
To się można wtedy zamrożyć ze ścieżki, ale to i no…
To znaczy, wiesz co, mam wrażenie, że, no zależy oczywiście jakich efektów używasz,
ale mam wrażenie, że jak jest jedna ścieżka, to mam nadzieję, że ten procesor, który tam jest,
z tą, ten, ten zent, jak on tam się nazywa?
Z1 chyba.
Z1, coś tam, jakaś taka nazwa kosmiczna, czy taka wiecie, ultra, czy coś, nie pamiętam, w każdym razie, no mam nadzieję, że atom to jednak nie jest, że to jest troszkę szybsze.
No by tak było.
No więc mam nadzieję, że to jakoś tam zadziała, no mam nadzieję przynajmniej, no i zobaczymy, no wiadomo, to każdy ma inne…
To też jedno pytanie, może to było
oczywiste, ale wolę się zapytać, czy przełączyłaś, bo tam gdzieś w tych
ustawieniach da się jakoś plany wydajności ustawić, tak? Czy
próbowałaś tam coś konfigurować, żeby tam w traktowanie procesora zwiększyć?
Znaczy…
Jak jest konfiguracja Windowsa,
to wybrałam chyba profil gaming, a profil gaming
No to chyba tak. Robi, ale też nie dam sobie ręki uciąć.
Ja też pamiętam, że wtedy kiedy to testowałam to po prostu
trochę byłam taka zdesperowana, żeby
jak najszybciej ten sprzęt odłożyć, żeby na pewno nic nie pogubić,
żeby na pewno to dobrze zwrócić, żeby dostać pieniądze z powrotem.
Więc też, tak jak mówię, mogłam coś nierzetelnie sprawdzić,
mogłam czegoś nie dosprawdzać, bo do mnie po prostu było tych czynników
na tyle dużo, że i tak zmiana jednego raczej nie dałaby mi zbyt wiele.
No, zobaczymy, może jeszcze ktoś będzie testował
Asus Rogali, bo nie było to sprzęt dla graczy, być może są ludzie tutaj też
w społeczności niewidomych, którzy będą naszegoś chcieli na tym grać głównie, no bo też…
Znaczy też, jeśli chodzi o granie, to to jest ciekawe,
bo z jednej strony byłoby troszkę w co, no bo niby to Diablo 4, niby tam
The Last of Us, niby coś, ale tak naprawdę tego nie ma wiele i
myślałam też, żeby to zrobić po prostu tylko sprzętem do gier.
Tylko, że jest tego na ten moment za mało, żeby cokolwiek z tego było.
Żebym chciała wydawać na to takie pieniądze.
No ale oczywiście, tak jak mówię, ja podkreślam, to jest tylko moja gdzieś tam opinia subiektywna i właśnie dla osób, które raczej będą używały tych padowych przycisków na appach, które raczej nie konsumują niesamowitych ilości energii i raczej nie będą używały głośników, mikrofonów, no to to może być okej.
Bo to też, no, ma parę swoich zalet, wiadomo.
Ta przenośność głównie mnie pokusiła właśnie, żeby to kupić.
Więc, no, dalsze testy na pewno byłyby wskazane
i to nie jest wyczerpująca moja odpowiedź.
Ta moja odpowiedź nie jest wyczerpująca,
bo ja też to przez parę godzin tylko miałam w rękach,
bo właśnie bardzo mi zależało na tym,
żeby nic na pewno nie zgubić, nic nie uszkodzić i tak dalej.
Oj, Tomku, co? Masz jakiś problem z dźwiękiem?
Mam problem, a teraz zapomniałbym o dźwiękiem.
Już nie masz.
Ja się na razie żegnam, ponieważ jest sporo rzeczy do zrobienia.
Ewentualnie później jeszcze się zjawię.
Z jakimiś newsami i komentarzami.
Także do zobaczenia, do usłyszenia.
Do usłyszenia, w takim razie.
Mam nadzieję, że ten dźwięk u mnie jakiś będzie, aczkolwiek…
Teraz już jest.
Mikser ma niecały rok, a już się psuje, to tak niektóre sprzęty niestety tak mają, także filmy Beringer, żeby nie było, jakoś myślałem, że ta firma się z czasem poprawiła, o właśnie, znowu, nadal, no nic, to spróbuję coś, coś tutaj kontrolować, dobrze, to przejdźmy do kontekstu, czyli już Niosa z tej audycji
bez tutaj jakichś powrotów do poprzednich audycji, to już jest nowa nowość od Piotrka.
Tak, właściwie nawet można powiedzieć od Pawła, bo mimo to, że z nami go dzisiaj nie ma, to wrzucił nam informację o tej stronie jakieś 20 minut przed rozpoczęciem audycji, a strona dla nas może być naprawdę ciekawa.
Jak wejdziemy sobie na tą stronę, to z początku to się wydaje jak taki zwykły klon Pastebina.
Pastebin, dla tych, którzy nie wiedzą, to jest strona, która pozwala nam po prostu wklejać jakiś tekst
i później dostajemy link do niego, możemy się tym tekstem z kimś podzielić.
Ta strona pozwala nam wklejać do pola, które tam jest na tej stronie, tekst sformatowany,
więc tutaj czy to z jakiegoś edytora kodu, to jest podany akurat taki przykład,
ale też równie dobrze mu pewnie by się dało jakiś tak sformatowany z Worda
na przykład w klejki też pewnie to formatowanie by się zachowało.
No i to już pod jakimś kątem jest ciekawe,
ale na tym nie polega najfajniejsza rzecz tej strony,
bo ta strona potrafi też zrobić nam
idealną kopię dowolnej strony internetowej.
Jak to robimy?
Ściągamy sobie rozszerzenie do kontekstu, a to znajdziecie na dole strony
za tym polem edycji jest dostępne zarówno dla Chroma i dla Firefoxa no i na
dowolnej stronie możemy sobie w to rozszerzenie tutaj obok naszego paska
adresu kliknąć i wtedy dostajemy możliwość stworzenia takiego kontekstu z tej
naszej strony. Dostajemy wtedy link, ta strona nam się otwiera no i wtedy możemy
zobaczyć dlaczego to jest takie fajne, bo to rozszerzenie kopiuje nam cały układ
tej strony, łącznie z surowym HTML-em, CSS-em, czyli tymi wszystkimi
elementami, z jakich ten kod źródłowy, a przynajmniej ta część tego kodu,
która odpowiada za to, jak ta strona wygląda i jest czytana przez czytniki
ekranu, to jest wszystko skopiowane.
Więc wszystkie punkty orientacyjne, jakieś inne znaczniki aria, czy jakiś
przycisk jest podpisany, czy nie podpisany, to wszystko na tej kopii
będzie wiernie zachowane, co nam się może naprawdę przydać, jeśli chcemy zgłosić jakiś błąd dostępności,
np. chcemy komuś coś pokazać, zwłaszcza na stronach, do których musimy się zalogować, tak?
Chcemy np. zgłosić jakiś błąd ze stroną, na której składamy jakieś zamówienie albo za coś, nie wiem, płacimy,
ale do tego musimy zalogować się na nasze konto, to możemy sobie taki kontekst
stworzyć i do wsparcia technicznego danej firmy wysłać, wytłumaczyć, na czym
polega nasz problem.
Strona jeszcze ma kilka innych opcji, które są spotykane w przypadku takich właśnie
stron, które pozwalają nam jakieś dane udostępnić.
Mianowicie możemy ustalić sobie, jak długo ma ten kontekst być dostępny.
domyślnie chyba to jest jedna godzina, ale tam jest jeszcze wiele innych opcji.
Do 30 dni maksymalnie.
A, do 30 dni.
No to myślę, że tak to już spokojnie nam daje więcej czasu.
Możemy też sobie tak to ustawić, żeby ten kontekst był dostępny tylko dla osób,
które mają ten sam adres IP, co my, co się może przydać, kiedy musielibyśmy coś
udostępnić np. wewnątrz firmy, tak? Wysyłamy coś do innej osoby w naszej
mamy wszyscy ten sam adres IP i w ten sposób możemy sobie te konteksty wysyłać.
Albo sami dla siebie na przykład, bo tworzymy jakieś poprawki
i chcemy sobie zachować gdzieś tam powiedzmy kopię tego,
jak to wyglądało wcześniej i jak wygląda teraz.
No na przykład, taki pierwszy z brzegu przykład mi przyszedł do głowy.
Jeszcze jedno zastosowanie.
Załóżmy, że w domu są dwie osoby. Jedna, która ogarnia komputer,
jedna, która nie bardzo ogarnia.
Można oczywiście włączyć się
przez jakiś remote,
nie zawsze to działa, ale na przykład
gdy chciałbym to sprawdzić
na Windowsie, na Macu
albo właśnie pokazać to komuś
bez udostępnienia
z jakichś powodów mojego komputera
no to można
w ten sposób też komuś
pokazać tę stronę i ktoś może powiedzieć
słuchaj, kliknij na link
na przykład taki
No może się pobawić tą stroną i po prostu zobaczyć, albo na przykład nawet jeżeli ktoś teraz nie może, bo na przykład kogoś nie ma, no to można właśnie zrobić coś takiego, ktoś sobie na spokojnie przyjdzie, zobaczy i na przykład ktoś, kto dużo bardziej ogarnia internet niż ja na przykład, załóżmy, no to myślę, że też mogłoby być takie dosyć ciekawe rozwiązanie.
No z pewnymi ograniczeniami, bo no niestety, jeżeli będą tam na przykład jakieś linki prowadzące do dalszych kroków w tym serwisie, to oczywiście nam nie zadziałają bez logowania, ale jakiś formularz chociażby.
Ja już tam…
Tak wiesz, ale to nawet chodzi o to, że masz link, właśnie chcesz przejść do dalszego kroku, a nie wiesz jak.
To jest jedno, ale…
spowodował to, żeby ten serwis spróbował przynajmniej coś zrobić, co nie działa.
Pierwsze, co mi przychodzi na myśl w takiej sytuacji, to coś, co ma realnie szansę zadziałać
i z czym rzeczywiście ktoś nam będzie w stanie pomóc, to różnego rodzaju niedostępne formularze.
To mam wrażenie, że jest najczęstszy problem na takich właśnie stronach i w takich serwisach,
w których trzeba się gdzieś zalogować, bo potem jeszcze trzeba też coś interaktywnego zrobić
i na przykład dokonać jakiegoś chociażby zamówienia.
No i mamy ten formularz zamówienia i w takich miejscach to potrafią być takie rozwiązania,
że to się naprawdę można zastanawiać, dlaczego i co niektórych inspiruje, żeby z tego korzystać.
Jakieś listy, które się rozwijają w dziwny sposób, albo które nam przeładowują coś,
albo które po prostu nie dadzą, jakieś elementy, które nie dają się kliknąć, i tak dalej, i tak dalej.
I w takich sytuacjach, jeżeli chcemy komuś pokazać taki formularz, to myślę, że spokojnie to zda egzamin.
No i też jakieś sytuacje, kiedy może też jedna rzecz, która mi przyszła do głowy,
chcemy zgłosić jakiś błąd dostępnościowy, na przykład korzystamy wyłącznie z Windowsa z JAWS-em,
ale chcielibyśmy, żeby jeszcze nam jakiś znajomy sprawdził, czy ten błąd też na Macu,
na przykład czy na androidzie, czy na telefonie jakimś występuje, no to też
można by właśnie temu znajomemu taką stronę wysłać, a później jak już będziemy
tego maila pisać, to możemy napisać, że testowaliśmy na Windowsie, ale też na Macu
i faktycznie ten problem w obu tych przypadkach się pojawia.
Więc zastosowań dla tej strony jest całkiem sporo.
Jeszcze tylko dodam, że ta usługa jest na razie w fazie beta.
Natomiast producent obiecuje, że
takie konteksty, które mają krótsze terminy, wykaśnięcie, czyli właśnie ta godzina
pewnie 1-2 dni będą zawsze dostępne za darmo, a jak ktoś będzie chciał jakiś dłuższy okres to tam będą jakieś minimalne opłaty, 50 centów do dolara.
Myślę, że strona jest warta zobaczenia, można sobie to rozszerzenie ściągnąć i w razie jakiejś takiej sytuacji z niego skorzystać.
No to w takim razie przechodzimy do następnego newsa, czyli zmian w interfejsie, w interfejsie Envision i zdaje się, że to jest i na iOS, i na Androida, choć na Androidzie jeszcze nie sprawdzałem, no w sumie na iOS też nie sprawdzałem.
Za to ja sprawdziłem, przynajmniej na iOS-ie, zresztą dziś też do użytkowników Envision przyszedł mail od twórców,
że słuchajcie, jest nowa wersja, czym prędzej się wybierajcie do App Store’ów i ściągajcie,
no bo rzeczywiście, no Envision się dość mocno chwali tymi poprawkami.
Czy to jest rewolucja? Nie, natomiast mam wrażenie, że Envision tym ruchem upodobniło się do Seeing AI dość mocno.
Dlatego, że teraz wszystkie opcje w menu są dostępne w formie takiej listy, po której się poruszamy palcem w górę i w dół.
Przynajmniej na iOSie, no ja mówię o iOSie, bo z tego systemu korzystałem.
I tam są dostępne wszystkie pozycje, które sobie wywołamy na ten ekran tego menu i właśnie, my możemy sobie to menu dostosować do naszych potrzeb.
Jeżeli tam są jakieś opcje, których nie chcemy, to możemy je po prostu wyrzucić.
Jest jeszcze taka ostatnia pozycja, która jest z takimi jakby dodatkowymi ustawieniami, natomiast z dodatkowymi opcjami
i też tam możemy coś wrzucić, natomiast no, przede wszystkim jest najistotniejsze to, że mamy taką jedną listę,
mi się to kojarzy z takim iOS-owym wybieraczem, za pomocą którego sobie po prostu ustawiamy co tam ma być,
czy ma być ten szybki tekst, czy ten tekst taki skanowany, czy jeszcze jakieś inne rzeczy, w których Envision ma nam pomóc,
jakieś rozpoznawanie scen, kolorów i tak dalej, i tak dalej.
Natomiast, co dla użytkowników języka polskiego
może być największym kłopotem, to to, jak sobie to menu dostosować.
No i jeżeli chodzi o tę zmianę kolejności elementów,
to oczywiście ustawiamy sobie to w preferencjach Envision AI,
natomiast największym zaskoczeniem jest tłumaczenie.
I to jest ewidentnie jakieś tłumaczenie maszynowe.
i to nie wiem czy jakiegoś najlepszego translatora tego przycisku, który to pozwala na ustalanie kolejności tych elementów.
Bo oczywiście jak sobie dodamy jakiś element do menu Envision AI, to on się pojawi na końcu tego menu.
A my, dajmy na to, chcemy mieć go wyżej.
No i co trzeba zrobić? Trzeba nacisnąć z przytrzymaniem, czyli stuknąć dwukrotnie z przytrzymaniem guzik opisany jako ZAMÓW PONOWNIE.
Tak, nie przesłyszeliście się. Przy każdej pozycji menu Edvision AI jest guzik ZAMÓW PONOWNIE.
Ten guzik zamów ponownie po prostu służy do takiego przeciągania, że trzymamy go, czyli naciskamy dwukrotnie z przytrzymaniem, nie puszczamy, przesuwamy w górę bądź też w dół
i mamy informację, że taka pozycja jest w tym momencie przesunięta na przykład na pozycję drugą, trzecią i tak dalej, i tak dalej, i dzięki temu możemy sobie kontrolować jak to menu w Envision AI wygląda.
Twórcy deklarują, że teraz położyli szczególny nacisk na to, żeby aplikację dostosować do użytkowników TalkBacka i VoiceOvera.
Gdyby wcześniej to nie miało miejsca, to jest bardzo ciekawe tłumaczenie.
Natomiast na propos tłumaczeń, to ja naprawdę myślę, że można by było tu jednak też poświęcić trochę uwagi tym tłumaczeniom na inne języki albo nawet może z pomocy jakiejś wolontariuszy skorzystać, bo no ja powiem szczerze, gdybym nie włączył sobie podpowiedzi w iOS-ie, to nie wiedziałbym, co zrobić z tym przyciskiem. Tak na pierwszy rzut oka.
No bo po angielsku to jest pewnie słowo reorder, czyli to jest takie, no dosłownie można by to przetłumaczyć, zamów ponownie, ale to jest tak rzadko spotykane.
No, no, dokładnie. Podejrzewam, że właśnie tak jest jak mówisz Piotrze, ale tu, no tu się translator nie popisał.
Albo jeszcze czegoś, nie wiem czym to tłumaczyli.
W każdym razie tyle, można bezpiecznie aktualizować, myślę, że nic wam się nie powinno stać, ale rzeczywiście tu muszę pochwalić Envision, bo to, ta koncepcja tego menu jest całkiem fajna, to wygląda właśnie tak jak wspomniałem przed chwilą, podobnie jak w CGI, jest to wygodne, jest to fajne, więc myślę, że tu wstydu nie ma, no ale, no to tłumaczenie.
Właśnie w Androidzie sobie to patrzę i to już tak fajnie nie jest, to znaczy w Androidzie nie ma czegoś takiego, że jest menu, które można sobie wybierać góra-dół, chociaż może by się dało to zrobić, bo na przykład Telegram zrobił to przy pomocy suwaka, to znaczy, że wiadomość na przykład na Telegramie jest suwakiem i teraz klikając na ten suwak, odtwarzam, zatrzymuję, w dół, w górę, czyli domyślnie zmiana wartość suwaka,
no to jest przewijanie do przodu do tyłu.
Podejrzewam, że mogłoby tak Envision zrobić,
ale na Androidzie Envision wygląda mniej więcej tak.
Tylko bym musiał tutaj zrobić chyba
szybkość mowy zwolnić
na Androidzie.
Zobaczymy czy on przejdzie przez moją
pietniczarkę głosu. Tak, chyba przychodzi.
Jakoś przychodzi.
Chociaż kiepsko, ja sobie chyba
wyłączę chwilowo.
Teraz jest chyba lepiej.
więc vnvision
i tutaj normalnie, po prostu mam tryby różne do wyboru
tekst błyskawiczny, tekst dokumentu, biblioteka nvision, importuj pliki, skanuj kod kreskowy, opisz scenę, znajdowanie obiektów, znajdź ludzi, naucz twarze
zeskanuj dostępny kod QR, wykryj kolory, naucz twarze, znajdź ludzi, znajdowanie obiektów
no wybrać sobie ten tryb
więc dla mnie na androidzie akurat lepiej było tak jak było wcześniej, dlatego że on już miał wybrany tryb
znowu mi się psuje
miał domyślnie już wybrany tryb ostatni
więc mogłem włączyć nvision
i od razu kierować aparat na tekst
który chciałem zrobić, a tutaj
tak czy inaczej muszę wybrać tryb
więc mi się akurat na androidzie to nie bardzo podoba
ta zmiana która jest teraz
być może da się to jakoś ustawić, nie wiem
ale na razie, no, jest jak jest w grze.
Tak to wygląda.
Aczkolwiek, no mówię, może to się da jakoś zmienić,
musiałbym to jakoś bardziej sprawdzić.
To przechodzimy chyba do następnego newsu,
czy newsa, nie wiem, w każdym razie musical,
czy nawet interaktywny musical z audiodeskrypcją.
Tak, no taki ciekawy tytuł, a mniej więcej chodzi o nową grę,
która pojawi się na początku sierpnia. Gra nazywa się Stray Gods i jak właśnie go nazywają producenci, to jest pierwszy w swoim rodzaju role playing musical, więc napisałem właśnie interaktywny musical.
Możecie sobie zresztą na oficjalnej stronie posłuchać zwiastunu tej gry i tam możecie usłyszeć właśnie kilka przykładowych piosenek z tej gry, a naprawdę muszę powiedzieć już ją naprawdę całkiem fajnie.
znajdziecie dwa linki w komentarzu. Jeden właśnie do ogólnej strony tej gry, a drugi do artykułu, który omawia wszystkie funkcje dostępności w tej grze.
No pokrótce, o czym jest sama gra, no też nie wiemy za dużo, bo gra jeszcze się oficjalnie nie ukazała.
Natomiast gramy w dziewczynę Grace, która jest w jakimś zespole i tutaj mamy taki klimat urban fantasy, więc współczesne czasy,
ale tutaj połączenie fantastyki, konkretnie chodzi tutaj o tematy związane
ze starożytną Grecją, z mitologią grecką.
Bo tej dziewczynie Grace niestety w jej ramionach umiera ostatnia muza, która
przekazuje jej moc śpiewania, takiego naprawdę dobrego śpiewania.
Natomiast pozostały Panteon
myśli, że właśnie Grace zabiła tą muzę i ona musi udowodnić swoją niewinność.
I to jest cała fabuła gry, udowadniamy swoją niewinność poprzez głównie śpiewanie
i możemy podejmować decyzję dokładnie jaki tekst mamy w niektórych miejscach
wstawić, w ten sposób po prostu gra się generalnie toczy, ale też w międzyczasie
rozmawiamy z różnymi postaciami, żeby jakieś informacje uzyskać.
Więc na tym generalnie polega gra, jest kwestia głównie podejmowania wyborów.
Ale jak my możemy w tą grę sobie dostępnie grać?
Gra ma całkiem sporo funkcji dostępności, ma oczywiście napisy i te napisy można sobie dostosować, więc jeśli ktoś potrzebuje dużego tekstu, to spokojnie sobie można go dostosować.
Możemy też w każdej chwili sobie włączyć pauzę w grze i sobie jakiś tekst spokojnie przeczytać lub kiedy podejmujemy jakiś wybór, bo domyślnie w niektórych sytuacjach, np. podczas piosenek, mamy ograniczony czas na wybór.
Natomiast to się da wyłączyć i dobrze, że się da to wyłączyć, bo gra na pewno nie będzie miała jednej rzeczy, która nam by się mogła przydać i tutaj właśnie nieograniczony czas wyboru nam się też może przydać.
Możemy też sobie przyciski wszystkie dostosować, natomiast tych przycisków nie ma dużo, bo generalnie w grze głównie poruszamy się po menu.
Ale co mamy jeśli chodzi o dostępność dla osób niewidomych?
Po pierwsze możemy sobie dostosować ustawienia dźwięku, zarówno wokali, dźwięki tła, dźwięki menu i tutaj było powiedziane, że każde menu będzie miało unikalny dźwięk, który też nam pomoże, będziemy wiedzieć lepiej, jaki wybór akurat w menu jest zaznaczony i gra będzie posiadała, jak już było w nagłówku, audiodeskrypcję.
Audiodeskrypcja, która w niektórych momentach będzie nam rozgrywkę zatrzymywać, żeby nam podać właśnie jakieś informacje, jak jest dana postać ubrana, czy co akurat robi.
Te audiodeskrypcje są wrobione głosem angielskim, one są niestety tylko dostępne po angielsku, to jest chyba jeden z głosów Iwona, więc słychać, że to jest synteza.
Natomiast fajnie, że coś takiego w tej grze się pojawiło i to będziemy mogli sobie włączyć.
Natomiast nie ma jednej rzeczy, która myślę, że niektórych może niestety zniechęcić.
Deweloperzy potwierdzili, że przynajmniej na początku gra nie będzie miała żadnego screenreadera.
Więc owszem, mamy tą audiodeskrypcję i możemy ją sobie włączyć, ale w momentach, kiedy będziemy musieli jakieś wybory podejmować,
no to niestety gra nam ich nie przeczyta.
Przepuszczam, że będzie się dało to obejść OCR-em,
bo jak już mówiłem, będziemy głównie wybierać opcje z menu.
Jak gra się pokaże w sierpniu, to na pewno będziemy wiedzieć na 100% czy ona nie jest gry fanna.
Natomiast to jest o tyle istotna kwestia,
dlatego że to może nam pomóc zdecydować na jaką platformę tę grę kupić,
no bo gra jest dostępna właściwie na wszystkie platformy, będzie,
bo zarówno na komputery, na Xboxie, na PlayStation i na Nintendo Switch,
Natomiast myślę, że dla nas najbardziej sensowną opcją będzie właśnie wersja na komputery, no bo po prostu tam najłatwiej jest nam sobie właśnie jakiś OCR wykorzystać.
Natomiast też nie jest wykluczone, że w jakiejś późniejszej aktualizacji screen reader w tej grze się pojawi.
Mam nadzieję, że tak, bo gra naprawdę wygląda ciekawie. Bardzo unikalny koncept.
Ale myślę, że jest duże prawdopodobieństwo, że nawet bez tego będziemy mogli spokojnie sobie w tą grę zagrać.
A tymczasem zaglądam na nasz panel kontaktowy, bo tu mamy wypowiedź od naszego słuchacza Roberta.
Cześć! Mam spostrzeżenia na temat strony Flixbusa.
W maju próbowałem kupować bilety przez stronę, bo w odróżnieniu od aplikacji można zaznaczyć tam ulgi.
Niestety strona była wtedy bardzo źle dostępna, podpowiedzi w polach edycji powodowały przeskakiwanie focusa i wiele innych problemów.
Nie pomagała zmiana przeglądarki albo czytnika ekranu, ani też wyłączenie styli.
Widzę, że teraz wszystko już można zrobić, tylko czasami warto troszkę pochodzić tabem w trybie formularza,
na przykład kiedy otwieramy kalendarz, który NVIDIA oznajmia jako dialog.
Pytanie, czy Flixbus ma kilka widoków strony i coś decyduje, który się wyświetli,
czy faktycznie ktoś popracował nad dostępnością.
Na ten moment, przynajmniej u mnie z NVIDIA i Chromem, strona wygląda dobrze.
Ja przypuszczam, że albo ktoś popracował nad dostępnością, a jest też jeszcze inna możliwość,
mianowicie, że ktoś nawet niespecjalnie pracował, tylko zaktualizował komponenty,
które są odpowiedzialne za wyświetlanie pewnych rzeczy tej strony.
Bo to czasem, że czasem się coś poprawi na danej stronie internetowej,
no to deweloper wcale nie musi o tym do końca wiedzieć i mieć świadomości w tym zakresie,
bo jeżeli korzysta z gotowych klocków, a w dzisiejszych czasach to bardzo często się tak robi,
że nie piszemy kodu od zera, tylko po prostu korzystamy z jakichś gotowych bibliotek,
no to ci, którzy są odpowiedzialni za tworzenie tych bibliotek, po prostu poprawiają dostępność,
bo rzeczywiście tak się dzieje i bardzo dobrze,
bo dzięki temu czasem zupełnie nieświadomie
pewne strony zyskują dostępności.
A co się tak naprawdę stało, no to podejrzewam,
że wiedzą najlepiej twórcy tej strony.
Albo i nie.
To teraz coś dla ludzi,
którzy lubią parki rozrywki.
Bo oto w paryskim Disneylandzie
jest tablet dla niewidomych, który ma…
No to już Michał chyba wie, co ma robić.
Dokładnie. Te informacje mam ze strony fundacji Mir i oni też zresztą skopiowali ją gdzieś z zagranicznego źródła.
Szkoda, że nikt nie był tu z nas w paryskim Disneylandzie, żeby to zweryfikować.
A jest co weryfikować, bo tam o dostępność się rzeczywiście dba.
Już w ubiegłym roku Disneyland Paris wprowadził aplikację mobilną Audiospot oraz instalacje w parku,
które umożliwiły niewidomym i słabowidzącym gościom odbieranie informacji w formie opisów dźwiękowych.
A teraz resort idzie krok dalej, prezentując w obu parkach tematycznych nowatorski tablet, który się nazywa Virtuos.
No i jak czytamy w opisie, ten zaawansowany technologicznie sprzęt pozwala na korzystanie z wymiennych map 3D oraz opisowego dźwięku,
który wraz z interaktywną nawigacją pomoże gościom odnaleźć się w przestrzeni parku.
No i tu jest zastanawiające, bo oczywiście to jest taka informacja bardziej PR-owa niż opis rzeczywistych możliwości tego tabletu.
mnie interesują te mapy 3D.
Czy to znaczy, że ten ekran
jest ekranem
jakimś wypukłym, jakimś
brajlowskim, takim,
który jest w stanie coś tam nam
wyrenderować w formie takiej,
żebyśmy mogli to poczuć?
Fajnie by było,
ale aż takim optymistą
w tej kwestii bym nie był. Podejrzewam,
że tam być może są
bardziej jakieś aspekty wizualne,
być może dostosowane
do potrzeb osób słabowidzących, a dla osób niewidomych całkowicie to faktycznie są te dźwięki
i zaimplementowana wcześniej aplikacja mobilna.
Dzięki temu tabletowi niewidomi i słabowidzący goście będą mogli swobodnie poruszać się po obu parkach,
eksplorować różnorodne strefy tematyczne oraz odwiedzać niektóre z restauracji.
Aby skorzystać z usługi, goście mogą zgłosić się do biura informacji City Hall lub do Studio Services,
gdzie otrzymają tablet Virtuos na czas pobytu w parku.
Nie jest wymagana wcześniejsza rezerwacja, a korzystanie z tego nowoczesnego narzędzia jest bezpłatne.
Oprócz tabletu, Disneyland Paris oferuje szereg innych usług dla gości z różnymi niepełnosprawnościami.
Wśród nich znajdują się opisy dźwiękowe atrakcji, restauracji oraz wybranych pogazów,
tłumaczenie na francuski język migowy dla niektórych przedstawień,
specjalne przewodniki i mapy dostępności oraz karty uprzywilejowanego dostępu.
Ponadto resort umożliwia wejście przewodnikom i psom asystującym na 40 atrakcjach
i pokazach na terenie całego kurortu.
Więc rzeczywiście, no tam widać, że ktoś o tę dostępność zadbał.
Na stronie parku rozrywki jest cała strona dedykowana dostępności,
więc jeżeli wybieracie się do Francji, macie ochotę tamtejszej Disneyland zwiedzić,
a może niedawno byliście, no to dajcie znać, bo może już widzieliście ten tablet
i co on tak naprawdę może, czy to jest jakaś taka marketingowa wydmuszka,
czy rzeczywiście jakieś niesamowite technologie zostały tam użyte.
Fajnie, że to się cały czas rozwija, bo już jakiś czas w Disneylandzie w Stanach Zjednoczonych były
dostępne urządzenia dla inwidomów, które tam jakoś bezprzewodowo włączą się gdzieś z
parkiem i wiedzą, gdzie jesteśmy.
I na tej zasadzie właśnie tak jak
w Chinach czy jakichś innych miejscach dostajemy na żywo audiodeskrypcję akurat,
więc jedziemy sobie jakąś kolejką i słyszymy po prostu
co się akurat wtedy dzieje, oprócz tego, że sami czujemy tak, że gdzieś np.
lecimy, ale też widzimy jakieś animacje, które się tam w tle mogą odbywać.
Tylko ciekaw jestem, jak tam jest z tymi zwłaszcza ekstremalnymi atrakcjami, bo problemem często tych różnych parków rozrywki jest to, że wiele z tych atrakcji, zwłaszcza co powiedzmy, że bardziej ciekawych, bardziej takich ekscytujących, nie można na nie wejść będąc osobą niewidomą. Ciekaw jestem, czy tam tak też jest.
Pytanie, Tomku, czy to jest rzeczywiście domeną parków rozrywki na świecie,
czy tylko u nas w Polsce od pewnego czasu były z tym problemy?
Na pewno nie tylko u nas w Polsce.
Już słyszałem od kogoś, że tam jakiś chyba niemiecki, czy któryś park.
W Niemczech to się ten park taki robił problemy,
ale generalnie na świecie to chyba aż taki problem raczej nie jest.
Ale słyszałem właśnie, że to nie tylko w Polsce jest.
Także to chyba różnie.
Ale zobaczymy.
Teraz taki raczej krótki news
na temat SP-ka na iOS-a,
bo mnie, ja od jakiegoś miesiąca
robię sobie takie wyzwanie, żeby
no jakoś się z tym iOS-em polubić, spróbować przynajmniej.
No i pierwsze co tam zrobiłem, to przełączenie się na SP-ka,
bo akurat lubię ten syntezator,
W przeciwieństwie do Vocalizer’a.
No i ESP-Eek miał potwornie długie przerwy między zdaniami.
Co mnie denerwowało strasznie.
No i zaktualizując…
No tak, ESP-Eek’a do wersji z Test Flight’a to samo.
Natomiast w pewnym momencie, nie wiem czy to już było od początku
używania tego ESP-Eeka, czy to doszło później.
Pojawił się na samym końcu taki suwak, ja teraz nie pamiętam jak on się nazywa
Niestety mam telefon w ładowarce, więc nie jestem w stanie teraz tego tutaj powiedzieć.
Jest taki suwak, który określa jak długa ma być przerwa właśnie między zdaniami.
Jeżeli się go ustawi na zero, to tej przerwy praktycznie nie ma w ogóle.
Więc ten ESPIC naprawdę zaczyna być szybki.
Nie tylko z wypowiadaniem pojedynczych słów i nie tylko, że jest responsywny,
ale również te przerwy między zdaniami ma normalne,
o tak to może określę, z mojego punktu widzenia przynajmniej.
Jest tak jak na komputerze, więc bardzo mi się to podoba.
Także nie wiem czy to już jest w wersji ze sklepu.
Mam nadzieję, że to zostanie dość szybko wprowadzone do wersji ze sklepu z App Store’a.
a na razie chyba jest to w wersji tylko z Test Flight’a, aczkolwiek nie wiem, może ktoś to jeszcze potwierdzi.
Tak, na razie to jest tylko w wersji na Test Flight’a, natomiast autor mówi, że niedługo ta aktualizacja powinna też być wysłana do slajpu.
Tam jeszcze jakieś kwestie ze słownikami tam chyba chciał wprowadzić zanim to zrobi.
A teraz wtyczka do NVDA, dosyć ciekawie zapowiada, która ma pozwalać spersonalizować, co się słyszy, kiedy się pisze.
Dosłownie, to jest wtyczka, która nazywa się właśnie Typing Settings, więc to ustawienia pisania dosłownie.
No i pozwala nam generalnie zrobić trzy rzeczy i wszystkie dotyczą właśnie tego co słyszymy podczas gdy piszemy w jakimś polu edycji.
Po pierwsze możemy ustalić czy echo znaków lub słów ma być wyłączone tylko w polu edycji, czy wszędzie, czy ma być wyłączone.
bo domyślnie MVDA, jeśli włączymy sobie czytanie pisanych znaków lub słów,
no to on nam je będzie czytał wszędzie, więc czy naciniemy jakąś literę na pulpicie,
czy w internecie, akurat w internecie może wycisza to, ale na pulpicie nie.
No to przy użyciu tej wtyczki możemy sobie to skonfigurować tak,
żeby na przykład na MVDA czytał wpisane słowa,
tylko kiedy Focus jest w polu edycji, tak jak to na przykład działa na Macu,
bo jeśli włączymy sobie echo klawiaturę na Macu,
no to ona faktycznie działa tylko w polach edycji.
To jest pierwsza funkcja.
Druga funkcja pozwala nam zdecydować, czy zawsze mają być czytane znaki wpisywane w polach hasła.
No wiadomo, z tą funkcją trzeba uważać, bo to nie zawsze może być coś, czego chcemy.
Natomiast mogą być jakieś sytuacje, może mamy jakąś klawiaturę, której się jeszcze uczymy,
a może piszemy na ekranie dotykowym na przykład właśnie i chcielibyśmy, żeby nam NVDA mówił,
jakie znaki wpisujemy do pól hasła.
Do tego kiedyś była osobna wtyczka, ale tutaj ta funkcja też jest po prostu w tą wtyczkę
typing settings zbudowana i to sobie możemy przełączyć.
A trzecia funkcja to taka ciekawostka, ale też może mieć swoje zastosowania, bo
możemy sobie włączyć dźwięki podczas pisania.
I te dźwięki też są dostępne tylko w polach edycji i możemy sobie wybrać jeden
z kilku schematów.
wtyczka przychodzi do nas z schematem dźwięków klawiatury z iPhona, z kilku
samsungów i takich bardziej klasycznych dźwięków prawdziwej klawiatury.
Ale też możemy sobie własne schematy tworzyć.
Autor opisuje jak to się robi i tam po prostu
wklejamy odpowiednio nazywane pliki WAV i tam możemy mieć osobny dźwięk na spację,
na kasowanie i na różne litery i też możemy tych dźwięków mieć kilka i wtedy
wtyczka będzie losowo wybierała jeden z nich za każdym razem jak
naciśniemy jakiś klawisz i to ja na przykład sobie włączyłem właśnie dźwięki z
Iphona i to może mieć swoje zastosowanie, bo na przykład możemy usłyszeć, czy
niechcący na nie nacisnęły nam się dwa klawisze naraz, albo jakiś klawisz nam
coś nie zadziałał, się nie wpisał.
No i przy okazji sobie to skonfigurowałem tak, żeby mi echo słów działało tylko w
polach edycji, a wszędzie indziej jest wyłączone i no muszę powiedzieć, że to
działa całkiem fajnie.
Natomiast są dostępne dwie wersje tej wtyczki.
Oficjalna jest na githubie autora i znajdziecie link do wątków w forum na audiogamesie,
gdzie znajdziecie zarówno link do tego repozytorium, jak i bezpośredni link do paczki NVIDIA YARON,
którą możecie sobie po prostu zainstalować.
Natomiast przez to, że ta wtyczka jest na githubie, to społeczność już zaczęła ją modyfikować
Jedną z takich ciekawszych modyfikacji jest wersja, którą stworzył użytkownik Breen, którego możecie znać np. z Twiscake’a, bo też pracuje nad Twiscake’iem, ale też z kilku gier.
Stworzył swoją wersję tego dodatku, która wykorzystuje inną bibliotekę do otwarzania tych dźwięków, dzięki czemu te dźwięki są troszeczkę szybciej reagujące, ale też dodał do ustawień tego dodatku,
a te ustawienia znajdziemy oczywiście w oknie ustawień NVIDIA i on dodaje tą swoją kategorię.
Jego wersja dodała jeszcze do nich słówak głośności,
więc możemy sobie jeszcze osobno dźwięki tych wpisywanych klawiszy dostosować.
Przechodzimy do następnego newsa i tu taki mój na początek komentarz.
Aż się dziwię, że do tej pory nie był w ogóle wspominany Tyfloświat w Tyflo-przeglądzie.
Już kilkukrotnie był, kilkukrotnie był.
A może, ale tak jakoś mi się wydaje, że nie było czegoś takiego jak jest teraz.
To znaczy, co nowego w najnowszym numerze Tyfloświata?
Tak jest, to Michał Kasperczak podrzucił mi ten news, dzięki Michale, ja pozwolę sobie zacytować ten krótki wstęp, który tutaj się pojawia w Tyflo Świecie.
Do końca sierpnia można jeszcze składać wnioski w programie PFRON-u Aktywny Samorząd, a co za tym idzie, zakupić rozmaity sprzęt komputerowy na preferencyjnych warunkach.
Z tą myślą publikujemy porównanie dwóch specjalistycznych odtwarzaczy książek
Victor Reader Stream, trzy ContraSense Player.
Wskazujemy jakimi kryteriami warto się kierować,
gdy chcemy wybrać laptopa adekwatnego do potrzeb niewidomego użytkownika.
Kontynuujemy temat edukacji muzycznej oraz masażystów z niepełnosprawnością wzroku.
Zachęcam ponadto do przeczytania jeszcze innych artykułów,
jakie ukazały się ostatnio, a mogą posłużyć w lepszym doborze stosownego sprzętu komputerowego.
Ich autor, Radosław Morawski, opisuje klawiatury Logitech dla komputerów Mac
oraz multimedialny monitor Samsung i kamerę Logitech.
A w ramach wspomnień w tym roku minęła 15 rocznica powstania Tyflo Podcastu.
O czym przypomina jego podmysłodawca Michał Dziwisz mówiący zresztą te słowa.
I też artykuł jest dostępny na stronie Tyflo Świata.
Oczywiście link do najnowszego Tyflo Świata też będzie dostępny w komentarzach.
Te linki do artykułów również, więc myślę, że spokojnie będzie można sobie to wszystko poczytać.
zachęcam do lektury.
Ja osobiście nie wiedziałem,
na przykład, to jest tak,
a propos następnego newsa, wcale nie
ostatniego, że już
w średniowieczu niewidomi mieli psy
przewodniki, no ale tutaj Piotrek
znalazł taką informację, myślę, że bardzo ciekawa
informacja. I co dalej,
jeżeli się tak wyrażę?
I to nawet nie tylko w średniowieczu, bo znalazłem
bardzo ciekawy artykuł,
który jakaś osoba pracująca
bodajże w British Library, w brytyjskiej bibliotece, stworzyła o historii psów
przewodników w średniowieczu, a właściwie historii przedstawienia psów
przewodników w średniowieczu i nie tylko.
I z czego możemy się dowiedzieć z tego artykułu?
Wcześniej uważano, że pierwsze przedstawienie
psa przewodnika pojawiło się w późnym XV wieku,
Co tak naprawdę okazuje się, że wcale nie jest prawdą, bo
subprzewodników w różnych tekstach i
jakichś księgach było znacznie więcej.
I tak na przykład pierwszy, który tutaj jest podany,
to jest z manuskryptu dekretów Grzegorza IX z Francji.
I to jest
XIII wiek, więc już tutaj mamy rok do tyłu.
ale też wiele obrazów było znalezione w starych modlitewnikach.
I tutaj się już robi ciekawie, na przykład tutaj jest wczesny XIV wiek
i często namalowane psy w tych modlitewnikach to były zazwyczaj zdjęcia,
które właśnie przedstawiały psy, przewodniki oczywiście z osobą towarzyszącą.
to były niestety często osoby, które wyglądały na osoby bardzo biedne, miały jakieś postrzywane ubrania, brudne,
a te psy często w pysku trzymały miski.
I czemu trzymały te miski? No właśnie, żeby tym osobom pomóc jakieś pieniądze zebrać, niestety.
Dlatego, że psy przewodniki właśnie były często niestety kojarzone z biedotą. A dlaczego?
bo jednym z najczęstszych powodów utraty wzroku w tamtych czasach był niestety trąd.
Dzisiaj to się już nazywa chorobą Hansena, ale tutaj osoby trendowate niestety były często tak interpretowane.
Też były często interpretowane jako grzesznicy, więc dlatego często w modlitarnikach takie obrazy znajdowaliśmy.
Ale mówiłem, że średniowiecze to nie jest stale najwcześniejszy przykład obrazu Psa Przewodnika, bo najstarszy jaki znaleźliśmy jest na zachowanym ściennym malowidle z Pompeji i to jest, posłuchajcie, rok 79 naszej ery.
Więc to są jeszcze czasy starożytności i już ten przykład psów-przewodników był ludziom znany i już psy były w niektórych takich sytuacjach w ten sposób postrzegane.
A prowo postrzegania, warto się tutaj też zatrzymać i zastanowić, jak ludzie interpretowali psy-przewodniki.
Czy to był dobry pomysł? Do dziś się zastanawiamy nad tym tematem.
Niektórzy uważają, że psy-przewodniki to dobry pomysł, a inni uważają, że po prostu wystarczy laska.
Wtedy zdania też były podzielone.
I tak na przykład w 1240 roku Bartwoming Anglik napisał, że psy-przewodniki to zły pomysł, bo psy można bardzo łatwo rozkojarzyć.
No i one zamiast pomóc nam dojść tam, gdzie chcemy, to pójdą gdzieś indziej tam, gdzie one chcą.
Heinrich von Muggels znów w XIV wieku porównał władców, którzy nie wiedzą co robią do niewidomego,
będącego źle prowadzonego przez psa czy jakieś dziecko.
Ale były też osoby, które uważały inaczej i widziały coś dobrego w tym.
I tak na przykład był Nikefer Bazylakes, to był Grek.
I on na przykład zauważył, dał uznanie takim psu.
Podziwiał, że pies jest w stanie, jest tak inteligentny,
że może właśnie jakiegoś niewidomego żebraka zaprowadzić od domu do domu, żeby ten żebrak mógł po prostu, nie wiem, zapytać o chleb, o jakieś pieniądze,
a potem z powrotem odprowadzić tą osobę do miejsca, w którym zazwyczaj śpi, czego często nie zrobili inni ludzie, no bo po prostu, nie wiem, brzedili się,
ale właśnie samo fakt, że już tery ludzie widzieli, że psy są często tak inteligentne, że mogą w takich sprawach pomóc.
Więc jak widać, historia psów-przewodników jest naprawdę bardzo długa i zaczyna się już nawet nie tyle w średnim wieczu, co nawet w starożytności.
Jeśli znacie język angielski, to naprawdę zachęcam do przeczytania podlinkowanego artykułu, bo myślę, że warto trochę jeszcze dowiedzieć się historii o osobach niewidomych, o osobach niepełnosprawnych.
I teraz news dotyczący szkoleń, no bo aktywny samorząd już w trakcie, szkolenia komputerowe
i jak najbardziej teraz mogą się cieszyć nieco zwiększonym zainteresowaniem w związku z tym,
no i Stowarzyszenie w Labiryncie takowe przeprowadza.
Tak, te informacje podesłał Paweł, którego dziś z nami nie ma, ale informacje jak najbardziej podrzuca dzięki Pawle.
Stowarzyszenie W Labiryncie ogłasza nowy projekt o nazwie Nowoczesne Technologie Szansą na Niezależność skierowany do osób niewidomych i słabo widzących z całej Polski.
i stowarzyszenie zaprasza uczestników na szkolenie z obsługi komputera,
które ma na celu umożliwienie im korzystania z najnowszych technologii.
W ramach programu przewidziane są trzy edycje szkoleń,
z których to każda składa się z dwóch tygodniowych zjazdów.
Każdy cykl będzie obejmował udział dziesięciu osób z niepełnosprawnością.
Szkolenia odbędą się w Ośrodku Przygotowań Paraolimpijskich Start mieszczącym się pod adresem ul. Olimpijska 1 w Wiśle.
Zgłoszenia należy dokonać w terminie do 6 sierpnia bieżącego roku poprzez elektroniczny formularz zgłoszeniowy.
I więcej informacji jest dostępnych właśnie pod odpowiednim odnośnikiem,
który będzie udostępniony w sekcji komentarzy tyflop przeglądu najnowszego,
kiedy ta audycja ukaże się na naszej stronie.
A lista zakwalifikowanych osób zostanie zamieszczona na stronie Stowarzyszenia w Labiryncie.
Zachęcamy do udziału w projekcie.
No więc jeżeli chcecie wzbogacić swoją wiedzę informatyczną z nowoczesnych technologii,
no to myślę, że faktycznie skorzystać warto.
A teraz będą drobne newsy od Piotrka.
Kilka tych newsów się nazbierało.
Dokładnie jak zwykle znajdziemy tutaj wiadomości zarówno o oprogramowaniu,
o grach i jeszcze innych rzeczach.
I zaczynamy od sprzętu właśnie.
No bo ostatnio wspominaliśmy, że Intel zarzucił produkcję minikomputerków NUC, to były takie naprawdę małe komputery, które często miały naprawdę mocne podzespoły, no i przez to, że były takie małe, no to zużywały bardzo mało mocy.
Niestety firma przestała je produkować, natomiast okazało się, że była chętna sprzedania praw do tej marki i designów tych komputerów do innej firmy.
Konkretnie tutaj chodzi o ASUS-a, który będzie zajmował się wsparciem i produkcją NUC-ów
zawierających procesory od 10 do 13 generacji.
Oczywiście tutaj są procesory Intela, ale też nie jest wykluczone, że będą powstawały nowe modele.
A licencja do tej marki NUC też nie była sprzedana do ASUS-a ekskluzywnie, więc jest bardzo
prawdopodobne, że w przyszłości będziemy mieli jeszcze inne komputery od różnych innych firm
z tej nazwy NUC, zresztą tak jak Intel stworzył nazwę ULTRABUG, nie wiem czy wiecie, ale właśnie mówi się to określenie ULTRABUG i Intel ma konkretne specyfikacje, które takie urządzenie musi spełnić, żeby miało tą nazwę ULTRABUG i kto wie czy z NUCami nie będzie teraz podobnie.
Następnie przechodzimy, można powiedzieć, do konkurencji, bo tutaj mówimy o oprogramowaniu na Macie i tutaj najbardziej właśnie o Macie z procesorami Apple chodzi, bo pojawiła się nowa wersja podglądowa VMware Fusion, wersja 2023, którą możecie sobie za darmo ściągnąć i przetestować.
będzie link do posta na blogu VMware, gdzie znajdziecie więcej informacji i ta wersja
jest o tyle istotna, że poprawia kilka rzeczy, jeśli chodzi o wsparcie Windowsa
11, bo VMware już tego Windowsa na procesorach Apple jakiś czas wspierał.
Oczywiście tutaj mówimy o tej wersji ARM cały czas, natomiast to wsparcie było
naprawdę słabe, można powiedzieć, bo wiele rzeczy niestety nie działało.
Przyspieszenie grafiki też nie działało.
No i to narzędzie VMware Tools, które normalnie pozwala na udostępnienie katalogów, schowka i inne rzeczy, no też właściwie było nierozstępne, w sensie nierozstępne na Windowsie.
Nie dało się go na Windowsie dla ARM zainstalować, no i to powodowało dużo problemów.
Większość z tych rzeczy już została poprawiona.
Ta najnowsza wersja pozwala na przyspieszenie grafiki 3D do DirectX 11, więc tutaj większość takich w miarę nowych gier będzie się dało na tym uruchomić.
Ale też właśnie VMware Tools zostało zaktualizowane, dzięki czemu właśnie mamy udostępnianie schowka, będziemy mogli sobie foldery skonfigurować i już ten Windows będzie się nam lepiej integrował z naszym Maciem,
Podobnie jak to ma miejsce w konkurencyjnej aplikacji Parallels, z tym, że VMware często jest bardziej dostępna, więc myślę, że warto się tym tematem zainteresować, zwłaszcza, że też aplikacja dla użytku osobistego jest darmowa.
Jeszcze nie miałem okazji tego przetestować, bo akurat nie ma miejsca na dysku, żeby Windowsa sobie zainstalować, ale na pewno to niedługo zrobię.
Następnie przechodzimy do Glucometru Freestyle Libre, to jest urządzenie, które z tego co czytałem jest dostępne w Polsce, więc może jakieś osoby niewidome je mają, a może być to tyle popularne, bo wiem, że za granicą jest popularne przez to, że działa z aplikacją, która nam pomaga te odczyty przeczytać, a właściwie można powiedzieć, że pomagało, bo niestety ukazała się nowa wersja tej aplikacji, która
Jak pisze pani Leonie Watson na Macedonie, dosyć poważnie tą dostępność popsuła do tego stopnia, że sami właściwie nie jesteśmy w stanie nic zrobić.
Możemy jakoś tam dojść do przycisku skanuj i zrobić odczyt, ale później żeby ten odczyt przeczytać ponoć jest dosyć duży problem.
Więc jeśli tej aplikacji nie aktualizowaliście, to może na razie lepiej nie aktualizujcie, żeby ten sprzęt wam po prostu działał.
Miejmy nadzieję, że to się niebawem poprawi, bo to jest dosyć poważna sprawa, jeśli straciliśmy dostęp do urządzenia, które, można powiedzieć, może nam uratować życie, bo pomaga nam monitorować bardzo ważne dla naszej choroby rzeczy.
No i z smutnych i poważnych tematów przechodzimy do czegoś bardziej rozrywkowego,
bo przechodzimy do gry Diablo 4, o której niedawno też mówiłem,
że może dostanie więcej funkcji dostępności.
Pomocy w nawigacji jeszcze nie dostało, natomiast funkcje czytania ekranu w tej grze,
bo w tej grze czytnik ekranu jest dostępny, już kilka dosyć istotnych aktualizacji dostały
i w najnowszej wersji, która chyba okazała się wczoraj, dostało jeszcze więcej.
I tutaj Rosemailer na Mastodonie zwraca uwagę na rzeczy, które społeczność zauważyła,
bo w oficjalnych notkach jest napisane tylko, że było wiele poprawek do czytnika ekranu,
ale nie były podane konkretne, natomiast społeczność już jakieś informacje zapisała.
I co wiemy? Ekran wyzwań jest bardziej dostępny, mapa jest czytana lepiej.
Liczba naszych zasobów i zdrowia jest czytana kiedy się zmieni, więc jeśli na przykład zbierzemy jakieś monety, jakieś mikstury albo ktoś nas uderzy, zaatakuje, to będziemy wiedzieli ile mamy zdrowia czy pieniędzy.
Ekran kowala jest czytany prawidłowo, to jest pierwszy post. A co mamy tutaj jeszcze?
Filtry na mapie są dostępne i to nam się myślę może przydać.
Menu zmieniania przycisków jest teraz dostępne, więc możemy sobie podglądać jaki przycisk służy do czego, a też możemy sobie je pozmieniać, gdybyśmy chcieli to zrobić.
Kiedy podchodzimy do jakiegoś gracza innego, no to syntaza nie mówi nam po prostu szczałka w górę, tylko podaje jakieś liczbę zasobów tego gracza.
Pewnie jak jesteśmy w grupie z inną osobą, to widzimy ile ta osoba ma np. zdrowia i teraz nam ta synteza też to powie.
Alchemista jest dostępny, okultysta też jest dostępny, jubiler jest dostępny, więc tutaj różne osoby, które mogą nam jakieś przedmioty, czy mixtury sprzedawać, też ich interfejsy stały się bardziej dostępne.
Poprawki na liście zadań.
Plansza Paragon jest dostępna, szczerze nie wiem o co chodzi, ale jeśli ktoś gra w Diablo to mam nadzieję, że to też wam pomoże.
Screenreader będzie odczytywał stan osób w obliżu, to już poniekąd było wcześniej powiedziane.
Więcej etykietek narzędzia w całej grze jest czytane.
I to wszystko, ale jak widać tego jest całkiem sporo i fajnie, że jak widać ta dostępność się cały czas rozwija,
więc wcale się nie zdziwię, jeśli nie za jakieś kilka tygodni, a może trochę więcej, albo trochę mniej.
Jakieś jeszcze funkcje nawigacyjne do Diablo się pojawią i ta gra cały czas będzie się rozwijać
pod kątem dostępności dla osób niewidomych.
Na koniec mamy, a propos słabej i poprawiającej się dostępności, alternatywną aplikację do Telegrama na iOS.
Bo jak wiecie, niestety oficjalna aplikacja Telegrama w iPhone jest słabo dostępna i były już wcześniej jakieś aplikacje alternatywne, natomiast większość z nich to są po prostu forki oficjalnej aplikacji, które akurat niestety nic nie wnoszą pod względem dostępności.
Natomiast pojawiła się nowa aplikacja.
Aplikacja nazywa się BetterTG i jest w przeciwieństwie do oficjalnej aplikacji
napisana kompletnie natywnie używając frameworka SwiftUI.
Czyli to jest framework, który stworzyło Apple i mówiliśmy o niej kilka razy.
Na pewno Arek o nim wspominał wiele razy przy okazji rozmów, ale nie tylko.
On generalnie nawet sam z siebie generuje bardzo fajnie dostępne interfejsy,
ale też mogą deweloperzy całkiem dużo zainteresować, żeby te aplikacje były jeszcze bardziej dostępne.
No i osoba, od której tą informację dostałem, powiedziała, że ta aplikacja faktycznie jest dużo
bardziej dostępna niż aplikacja oficjalna i już pozwala na całkiem sporo, bo możemy pisać w czatach,
możemy wysyłać wiadomości głosowe, nawet możemy skorzystać z tych live activity, więc np.
Zgodnie z naklejeniem blokady możemy jakiś czas sobie obserwować, nawet jeśli telefon jest zablokowany, więc to już jest całkiem ciekawe.
Możemy odpowiadać na wiadomości, mamy kopie robocze, zdjęcia są wyświetlane, wyszukiwanie.
No i takie najbardziej potrzebne funkcje są, natomiast niestety jeszcze nie ma powiadomień, to jest jeden problem.
A drugi problem, jeszcze bardziej istotny jest to, jak my tą aplikację ściągamy, bo niestety
deweloper tej aplikacji nie ma płatnego konta deweloperskiego apu, a co za tym idzie, nie może tej aplikacji opublikować ani w App Store, ani w Test Flight.
Obiecuję, że kiedyś to zrobi.
No i teraz przez to, że ta aplikacja poszła w społeczność niewidomych, to wiem, że już jakieś próby były, żeby z tą osobą się skontaktować.
może mu jakieś dotacje wysłać, żeby taki konto założył,
bo zapotrzebowanie na dostępną aplikację do Telegrama na iOS jest.
No ale na razie, jeśli chcielibyście ją sobie przetestować,
oczywiście możecie ją skompilować ze źródeł,
ale też na sekcji Releases na GitHub’ie znajdziecie pliki IPA,
czyli takie pliki instalacyjne do aplikacji na iOS.
Natomiast one nie są podpisane i musimy je sobie załadować ręcznie
Albo używając Alstora, albo innej tego typu aplikacji.
Natomiast problem w przypadku takich rozwiązań jest taki, że jeśli nie mamy płatnego konta deweloperskiego,
no to w taki sposób zainstalowane aplikacje musimy co kilka dni sobie odświeżać.
To jest jeden problem.
Drugi problem jest taki, że też musimy sobie własny klucz API do Telegrama wygenerować.
Natomiast to można bez problemu zrobić za darmo.
Natomiast to, jak tą aplikację instalujemy, no to już jest większy problem, bo potrzebujemy do tego komputer, no i jeszcze co jakiś czas musimy tą aplikację instalować ponownie, więc, ponownie przepraszam, więc no mam nadzieję, że faktycznie tutaj ta aplikacja będzie się dalej rozwijać, no i ostatecznie gdzieś na test flight, a może nawet już w App Store wyląduje, bo myślę, że wiele osób by się z niej ucieszyło.
I teraz chyba jeszcze sprawdzę, bo coś mi przestało działać, nie, jeszcze nie mój news, na razie Michała, dostępność w Slacku się poprawia.
Zgadza się, poprawia się, natrafiłem na taki fajny zbiorczy artykuł informujący o tym, co tam w Slacku się dzieje, jeżeli chodzi o dostępność, a dzieje się naprawdę sporo.
I to nie tylko dla nas, jako dla użytkowników niewidomych, ale też z różnymi innymi niepełnosprawnościami.
Ja pozwoliłem sobie skupić się na tych rzeczach, które istotne są z naszego punktu niewidzenia najbardziej.
No i tak, mamy na przykład funkcję, która pozwala nam na odsłuchiwanie 10 ostatnich wiadomości.
To robimy za pomocą dedykowanych skrótów klawiszowych, alt cyferki albo command i options i cyferki w zależności od tego czy korzystamy z Windowsa czy też z Maca.
Cyfry od jedynki do dziewiątki to ostatnich dziewięć konkretnych wiadomości w danym czacie, natomiast zero nam odczytuje ostatnich dziesięć wiadomości po prostu jedna po drugiej.
Kolejna rzecz, myślę, że dosyć przydatna, to skrót do przeskakiwania do różnych elementów.
Taki sam zresztą jak w Discordzie.
Ctrl-K i Command-K.
To nie wiem akurat, czy na Macu jest tak, to mi Piotrze może potwierdzisz.
Ale właśnie, na Discordzie też mamy coś takiego, że naciskamy Ctrl-K i pojawia się pole edycji
i tam możemy wpisać do czego chcemy przejść.
No i szybciutko możemy wskoczyć na przykład na dany kanał, więc to samo jest w Slacku, do tego jest dedykowany skrót klawiszowy.
Kolejna rzecz to nawigacja po listach konwersacji lub po samych konwersacjach z użyciem klawiatury,
konkretnie z wykorzystaniem klawiszy PageUp, PageDown, Home i End, dzięki temu można w łatwiejszy sposób te listy przewijać.
Następna rzecz to kolejny skrót, który pozwala na szybkie przejście do pierwszej nieczytanej wiadomości w danym czacie.
To jest Ctrl-J bądź Cmd-J.
Następna rzecz to są motywy kolorystyczne, które są dostosowane do różnych wad wzroku.
Tu się szerzej nie wypowiem, były wymienione te różne wady, więc myślę, że jeżeli ktoś jest osobą słabo widzącą, to dla siebie coś tam znajdzie.
Kolejna taka dostępnościowa rzecz ułatwiająca użytkowanie Slacka, to są powiadomienia dźwiękowe o przychodzących, ale też i wychodzących wiadomościach.
A na przykład dla osób głuchych mogą być te powiadomienia, i to chyba już się systemowo raczej rozwiązuje,
zastąpione odpowiednimi sygnałami nieakustycznymi, typu jakieś takie sygnały wizualne,
albo na przykład wibracja w zależności od tego, jak to sobie ustawimy.
Akcje w mobilnych aplikacjach dla voiceovera i talkbacka, czyli no to co mamy pod gestem góra-dół, tak, zazwyczaj w voiceoverze.
W Androidzie tu zostało to opisane jako gest stuknięcia trzema palcami i wtedy możemy tam wywołać jakąś akcję.
no to jest na przykład skopiowanie wiadomości, albo odpowiedź w wątku i podobne rzeczy, czyli takie uproszczone menu kontekstowe.
Rzecz kolejna to jest nawigacja klawiaturą po różnych sekcjach Slacka i tu mamy kilka opcji.
Klawisz F6 to jest w Windowsie, Control, Command i strzałki na Macu, natomiast w przeglądarce z racji tego,
że kontrol, że klawisz F6 jest tam zarezerwowany no właśnie przez przeglądarkę do poruszania się po różnych jej elementach,
no to mamy kontrol F6 i też możemy w tej wersji webowej Slacka sobie po różnych jego elementach za pomocą klawiatury się przemieszczać.
Jest też menu kontekstowe, do którego dostajemy się za pomocą skrótu Shift M na Macu,
a standardowo na Windowsie Shift F10, no też to na Linuxie ponoć działa.
Następna rzecz to nasi współpracownicy muszą już o to zadbać,
ale narzędzie do tego mają, więc nie ma tłumaczenia, że się nie da.
Mianowicie możliwość dodania tekstu alternatywnego
do wysyłanych w czatach na Slacku zdjęć.
Kolejna rzecz to pomijanie emoticon użytych wiele razy przez czytnik ekranu, więc jeżeli np. ktoś bardzo lubi tych emoticon nadużywać i wysyła ileś tam razy jedną i tę samą emotkę,
no to po prostu Slack spowoduje, że te emotikony będą odfiltrowane i dostaniemy informacje tylko o jednej emotikonie,
no albo o tym, że po prostu jest tam na przykład 10 razy ta emotikona użyta, ale nie będzie to działało w ten sposób,
że będziemy dostawać na przykład emotikonę uśmiech, uśmiech, uśmiech i tak dalej, i tak dalej.
No bo to jest rzeczywiście mało wygodne.
Kolejny taki dostępnościowy feature to jest możliwość dostosowania tych tzw. timestampów, czyli znaczników czasu,
że mamy informację, że o której godzinie została wysłana dana wiadomość, czy na przykład nawet tam mamy datę.
No to możemy sobie wybrać gdzie my te znaczniki chcemy mieć.
Czy chcemy, żeby były odczytywane najpierw?
Nie wiem kto chce, ale jeżeli chcemy, to możemy i to jest najważniejsze, że możemy sobie to dostosować.
No to możemy wybrać, albo że chcemy, żeby te znaczniki były odczytywane przed, albo po danej wiadomości.
Więc zawsze możemy je sobie po prostu wyciszyć, jeżeli nie chcemy ich słyszeć.
Następne udogodnienie to jest możliwość automatycznego odczytywania wiadomości przez TTS na iOS i Androidzie.
Przynajmniej tak wyczytałem, chociaż tak sobie myślę, że nic nie stałoby na przeszkodzie, gdyby te TTS-y były dostępne na innych systemach operacyjnych,
czy na Macu, czy też na Windowsie, i być może to gdzieś tam nawet jest,
ale tu były wymienione przynajmniej na razie te dwa systemy mobilne.
Jeżeli chodzi o automatyczne odczytywanie wiadomości,
no, że możemy sobie to tak skonfigurować, żeby nie trzeba było używać czytnika ekranu,
tylko po prostu jeżeli jakaś wiadomość w danym czacie nam przejdzie,
no to będzie ona odczytywana automatycznie.
Jeżeli nie chcemy mieć informacji o tym, że ktoś pisze albo skończył pisać,
albo właśnie zaczął pisać, to również możemy sobie to wyłączyć,
ten tak zwany typing notification.
No i kolejny element, bo tu widać, że ludzie ze Slacka odrobili zadanie domowe
i się nauczyli, że jest coś takiego jak technologia asystująca, jak czytnik ekranu,
to postanowili nawet stworzyć odpowiednie tutoriale.
Co prawda, no tylko dla VoiceOvera i Jossa, ale zawsze to coś.
I jeżeli ktoś ma ochotę się poduczyć tego slacka, to są oczywiście w języku angielskim, ale zawsze dostępne tutoriale na stronach internetowych tego narzędzia.
I jeszcze tak na koniec, jako ciekawostka, mamy automatycznie tworzone napisy.
Jeżeli wysyłamy jakieś materiały wideo w slackowych czatach, no to taki materiał dostanie automatyczną transkrypcję, to przede wszystkim może być przydatne dla osób z problemami ze słuchem, nie wiem…
Albo językiem.
albo z językiem też na przykład.
Nie wiem jak tam z konwersacjami takimi na żywo,
czy na przykład też możemy to włączyć, tak jak w Teamsach,
czy nie, bo tu zostało przede wszystkim to wymienione
pod względem materiałów wideo.
Natomiast, no, rzeczywiście takie udogodnienie Slack również oferuje.
Powiem szczerze, przeszli długą drogę,
ale naprawdę ta droga wydaje się być bardzo interesująca.
Ktoś tam rzeczywiście o tej dostępności pomyślał.
My kiedyś, no już lata temu pokazywaliśmy Slacka,
bodajże z Pawłem, jak on wygląda.
Coś tam się zrobić dało, różnie to było z tym,
jak bardzo produktywne to mogłoby być.
Inna też rzecz, że my się tym Slackiem tak trochę bawiliśmy,
a nie używaliśmy tego na co dzień, natomiast myślę, że z takimi różnymi rzeczami
prodostępnościowymi, to spokojnie tam gdzie pracują niewidomi, to może być to nawet lepsze od teamsów.
I powiem szczerze, czuję się tak trochę zachęcony do tego, żeby do tego Slacka wrócić
i żeby się tym znowu pobawić i sprawdzić na ile może być to dla nas przyjazne.
Teraz przedostatni news w tyflowieściach z tego co widzę, przynajmniej.
Mój news, problem polega na tym, że u mnie troszkę dzieci, jedno dziecko płacze.
Zobaczymy czy będzie to słychać, natomiast musiałbym wyłączyć chyba ten mój odcinacz dźwięków,
dlatego, że w Time For Bus jest bardzo ciekawa nowość, która szczerze mówiąc działa dużo lepiej na iOS niż na Androidzie.
Pochodzi o zapowiadanie przystanków.
To znaczy teraz można zrobić tak, że można sobie wejść do aplikacji Time For Bus.
Spróbuję miło wszystko pokazać.
Mam nadzieję, że za chwilkę będzie można to w miarę pokazać.
Chyba już się u mnie w domu uspokaja, więc już mogę sobie powyłączać wszelkie ucinacze.
Zaraz sobie wejdę do Time for Buzz i myślę, że jest to dosyć ciekawe.
Przechodzę na listę najbliższych przystanków, wybieram sobie na przykład jakiś tam, który by tu wybrać, może ten, zobaczymy, może będzie w miarę tu szukał jakiś autobus, o, bardzo dobrze, L3, dobrze, i mam tutaj ten autobus, który mam za odjazd za mniej niż dwie minuty.
I wybieram sobie na przykład, o, na przykład tak.
Więc stukam dwukrotnie i przytrzymuję.
Tak, już mam informację, że L3 zbliża się do przystanku.
To jest fajna informacja, bo rzeczywiście wiem,
że ten autobus już niedługo będzie, no i też mam informację, że wyjdź.
Ciekawe jest też to, że wcale nie muszę być w tym autobusie,
żeby takie powiadomienia dostawać.
Następny przystanek, Kusocińskiego 02, za mniej niż 2 minuty.
Ostatni przystanek, Kielecka 01, za 6 minut.
Ten dźwięk, ta muzyczka, która tutaj jest, to jest muzyczka,
to nie jest mój dźwięk domyślny dla powiadomienia,
To jest dźwięk aplikacji, tej konkretnej, co też jest fajne, bo rzeczywiście ta aplikacja wyróżnia się też tym, że ma ten dźwięk.
Moim zdaniem nie za bardzo potrzebna jest informacja o tym, że przyjazd na następny przystanek jest za mniej niż dwie minuty,
bo zdecydowana większość przystanków komunikacji miejskiej, no to i tak nie trwa więcej niż dwie minuty,
Więc to jest informacja albo, że za mniej niż dwie minuty, albo za mniej niż jedną minutę w niektórych przypadkach.
Więc w sumie nie wiem, czy to jest takie potrzebne. Ja bym osobiście to najchętniej bym spowodował, żeby to nie było mówione.
Ja nie widziałem ustawień żadnych tego. To po prostu jest.
Natomiast no fajnie, że jest coś takiego. Mam teraz zablokowany ekran i mi to mówi.
i można sobie, chociaż nie pamiętam czemu, ale chyba można sobie wybierać, a może nie można wybierać głosu do tego, nie pamiętam, w każdym razie, jaki bym miał niewybrany głos voice overa, no tutaj mam wybrany, mam Zosię, voice overa mam normalnie Espik, no a teraz mam Krzysztofa, no żeby było słychać cokolwiek i jak autobus dojdzie na następny przystanek, no teraz powinien się odezwać program, że autobus zbliża się do
na następnego przystanku, co jest rzeczywiście fajne, bo autobusy czasami mówią, czasami nie mówią, a fajne to jest też dlatego, że zdarzają się takie sytuacje, że na przykład ktoś…
O właśnie.
Następny przystanek. Nowa 01 za mniej niż 3 minuty. Ostatni przystanek. Kielecka 01 za 4 minuty.
Ok, tu mam nawet za mnie jeszcze 3 minuty, to się rzadko zdarza, przynajmniej u mnie, żeby były te przystanki aż co 3 minuty, no ale taka jest informacja po każdym przystanku i jest też czas dojazdu do tego przystanku ostatniego.
Mówię, ja bym najchętniej miał coś takiego, żeby te komunikaty były jakoś personalizowalne, znaczy na przykład ja bym chciał mieć coś takiego, że mówi tylko następny przystanek bez tych czasów, bez czasu dojazdu do mojego docelowego przystanku, bo jeżeli już jadę autobusem po raz któryś, to mniej więcej wiem, ile to będzie trwało, nie muszę tego wszystkiego słuchać.
No jest jakby jedna rzecz. Druga rzecz jest taka, że…
Ymm…
Że…
Co?
No w sumie tyle.
W każdym razie fajne jest to, że nie muszę siedzieć w autobusie, żeby móc te komunikaty słyszeć.
Bo jeżeli, na przykład, ktoś do mnie zadzwoni, że słuchaj, jestem w autobusie, na pętli na przykład, czy tam na jakimś tam przystanku,
mogę sobie ustawić, żeby właśnie aplikacja mi mówiła na jakim przystanku jest ten autobus teraz i nie muszę do niego dzwonić, słuchaj gdzie teraz jesteś, tylko no w momencie gdy ten człowiek będzie na przykład dojeżdżał do tego przystanku, który jest w pobliżu mnie,
Wiem mniej więcej kiedy wyjść, żeby ten autobus tutaj u mnie był.
Także dosyć fajne.
Za chwilkę powinien się pojawić też komunikat, że na następnym przystanku powinienem wysiąść.
Tak mi się przynajmniej wydaje.
Zatem mniej niż 3 minuty od ostatniego komunikatu.
Niestety to działa dobrze na iOS.
Na Androidzie jest wysyłane po pierwsze standardowe powiadomienie.
I to nie byłoby jeszcze wielkim problemem, bo każda aplikacja w Androidzie, znaczy każdej aplikacji w Androidzie można przyporządkować standardowy, znaczy własny dźwięk powiadomienia, niezależnie od tego czy deweloper aplikacji na to pozwala czy też nie.
natomiast niestety nie wysyłana jest żadna informacja do syntezy mowy, w związku z powyższym mam tylko jakieś powiadomienie, muszę zajrzeć do powiadomień, żeby się dowiedzieć, że time for bus, następny przystanek jest tam jakiś, za tyle minut, więc w sumie to trochę bez sensu dla nas takie powiadomienia,
bo one jakby niewiele wnoszą do sprawy, zwłaszcza w zablokowanym ekranie,
no bo jak mam odblokowany ekran, no to mogę to sprawdzać równie dobrze
z ekranu aplikacji, na którym przystanku był, na którym przystanku nie było,
a Android przecież może spokojnie pokazywać, jakie, no, znaczy Android może, o.
Wysiądź na najbliższym przystanku. Dziękujemy za wspólną podróż.
Wysiądź na najbliższym przystanku.
Także tak to mniej więcej wygląda.
I mówimy o tym, że Android pozwala przecież na to, żeby aplikacje wysyłały jakieś komunikaty do Splindera, wysyłały komunikaty na syntezy mowy, więc dlaczego to zrobione, nie wiem.
być może, być może to będzie zrobione, ja na to trochę liczę, bo to jest rzeczywiście takie coś, co już sprawia, że tej aplikacji, ta aplikacja ma jakieś takie realną, ma przewagę nawet na androidzie nad MMPK, oczywiście w miejscach, gdzie to działa, w sensie time for bus, no bo tych miejsc nadal nie jest tak dużo,
Natomiast fakt, że mogę sobie dodawać jakieś przystanki i po prostu zablokowuję sobie ekran i nie myślę o tym gdzie wysiąść, nie muszę się wsłuchiwać w komunikaty o następnych przystankach, nie muszę nic, po prostu aplikacja o tym mi mówi.
Oczywiście najpierw muszę sobie ustawić przystanek, na którym chcę wysiąść.
Osobiście chciałbym mieć też taką funkcję, która by mi pozwala na to, że wybieram po prostu autobus jakiś
i on mi po prostu mówi następne przystanki.
To by mi się też czasami przydało, żebym nie musiał wybierać przystanku, na którym wysiadam,
tylko po prostu mi mówi przystanki następne i tyle.
Ale ok, dobrze, że jest już coś takiego, bo to już jest na pewno lepsze niż brak takiej opcji w ogóle, więc to jest super.
Chciałbym jeszcze jedną funkcję i spróbuję napisać do dewelopera, ciekaw jestem co odpowie i czy odpowie cokolwiek, żeby mógł wybrać przystanek, żeby program mi mówił, oznajmiał, jakie autobusy będą tutaj w kolejności przyjeżdżać.
To znaczy, że na przykład za mniej niż minutę będzie autobus taki, jeżeli będą dwa, to niech mi powie, że na przykład będzie autobus taki i taki.
Powiedzmy, że wtedy też się mogę pytać na przykład, czy za tym autobusem nie stoi jeszcze jakiś inny, bo wiem, że w najbliższym czasie mają tutaj zatrzymać się dwa albo trzy autobusy, powiedzmy.
Na jakichś przystankach w centrum Warszawy, do tych autobusów może być jeszcze więcej, więc w sumie czasami naprawdę warto o tym wiedzieć, żeby w razie czego można się było zapytać, a jeżeli na przykład jest taka informacja, że na tym przystanku będzie na przykład teraz autobus jakiś, dopiero za 5 minut będzie następny, no to raczej nawet nie muszę pytać nikogo,
bo to, co przyjedzie, to powinno być to ewentualnie tak dla porządku spytać,
ale to jakby jest zupełna insytuacja, niż w momencie, gdy wiem,
że za mniej niż minutę będą trzy autobusy i w sumie to warto się przygotować na to,
że może stanąć jeden autobus za drugim i, no, żeby, żeby gdzieś tam mieć to z tyłu głowy.
Także chciałbym mieć jeszcze taką informację, no może się uda,
bo rzeczywiście deweloperzy, czy deweloper tej aplikacji wprowadza te opcje dostępności,
także fajne to jest, fajnie to działa, no i mam nadzieję, że tego będzie coraz więcej,
no i naprawdę czekam na to aż, czekam na jakieś kolejne funkcje, bo znając życie ich pewnie jeszcze troszkę będzie,
bo ta aplikacja naprawdę widać, że się rozwija i naprawdę widać, że deweloper dość mocno myśli o nas, o osobach niewidomych, więc ciekaw jestem, co będzie dalej.
I ostatni news z Tyflowieści, aplikacja DeepL na Windows.
DeepL to jest serwis do tłumaczeń, który momentami jest rzeczywiście lepszy od Google’a, tłumaczeń google’owskich.
No i serwis DeepL ma ostatnio zrobił aplikację na system Windows, chociaż w sumie nie wiem czy ostatnio, bo mi się wydaje, że aplikacja była już wcześniej, mi się tak wydaje, że miałem wcześniej też aplikację DeepL.
Być może ja gdzieś ostatnio się o niej dowiedziałem, zdaje się na jednej z grup telegramowych, no to stwierdziłem, że skoro ktoś podrzuca ten link, no to sprawdzimy jak też z dostępnością tej aplikacji.
I powiem tak, że jak już okiełznamy kwestię związaną z akceptacją jakichś tam zgód i podobnych rzeczy,
to trzeba zrobić nawigację obiektową w przypadku NVDA, bo nie dotrzemy za pomocą taba do żadnych przycisków,
które nam pozwolą na akceptację tego, tam jesteśmy usilnie namawiani do tego, żeby sobie założyć konto i to też trzeba pominąć.
No, bo oczywiście możemy założyć, jeżeli mielibyśmy też na to ochotę, natomiast nie jest to warunek, żeby korzystać z DPL-a.
No i tam możemy tłumaczyć zarówno dokumenty, możemy tłumaczyć sobie tekst, ja testowałem to na tłumaczeniu tekstu
I działa to dobrze, oczywiście też wiadomo są tam pewne limity, tam te kilka tysięcy znaków za jednym razem możemy tylko przetłumaczyć, więcej się nie da, to jest podobnie jak w przypadku wersji webowej.
Strona jest, a właściwie aplikacja jest taką stroną, taką aplikacją elektronową, standardową,
w której to pewne elementy to zachowują się jak elementy strony internetowej,
więc ja mam takie odczucia, że ta aplikacja to jest po prostu strona zamknięta wewnątrz programu.
Natomiast korzysta się z tego całkiem wygodnie.
Jest jedna dosyć ciekawa rzecz, mianowicie jeżeli potrzebujemy przetłumaczyć coś DPL-em i chcemy zrobić to szybko, to jest na to sposób.
Otóż zaznaczamy dany tekst, który chcemy poddać tłumaczeniu i w tym momencie naciskamy dwa razy skrót CTRL-C, tak jakbyśmy po prostu chcieli coś skopiować, tylko że szybko.
I po naciśnięciu dwa razy tego skrótu, no to najzwyczajniej w świecie otwiera nam się DIPL
i z tą zawartością, którą mamy zaznaczoną, już wklejoną do odpowiedniego pola
i poniżej z treścią tego tekstu przetłumaczoną.
Więc jeżeli ktoś potrzebuje od czasu do czasu sobie coś szybko przetłumaczyć,
no to myślę, że rzeczywiście zainstalowanie tego Dipla nie jest wcale takim najgorszym pomysłem.
Aplikacja, tak jak mówię, jeżeli poradzicie sobie na tym wstępnym etapie z przejściem tych pierwszych opcji,
gdzie tam jakieś rzeczy są do zaakceptowania, jest ten ekran powitalny,
no to już później jest obsługiwalna, no nie powiedziałbym, że tak super bardzo dostępna,
natomiast no też nie ma tu nie wiedzieć jakich utrudnień.
Przy okazji jeszcze zerkam na YouTuba, bo tu Jan do nas napisał i takie pytanie zadał,
kiedy jakiś test radyjka będzie?
No tego szczerze mówiąc nie wiem, aczkolwiek wiem, że są w planach takie testy,
że będą takie testy, tu Robert Łabęcki jakiś czas temu ze mną rozmawiał o tym,
że ma to i owo do zaprezentowania, więc podejrzewam, że prędzej czy później
takie audycje na naszej antenie się pojawią,
kiedy Robert po prostu będzie gotowy na jakąś prezentację.
Przechodzimy do rubriki Tyflo… nie, Technicalia.
I pierwszy news, bardzo zresztą ciekawy moim zdaniem,
choć nie wiem, czy to ma jakieś praktyczne znaczenie,
dotyczący, dotyczy takiego syntezatora, który nazywa się Woder.
Nazywa, czy nazywał, w sumie trudno powiedzieć,
bo to był pierwszy chyba syntezator mowy,
pierwszy na pewno elektryczny w zasadzie.
Trudno nawet powiedzieć elektroniczny syntezator mowy.
Mechaniczny to chyba jeszcze nie, bo on już miał jakieś oscylatory, filtry, coś, tyle że w związku z tym, że to był syntezator z roku 1939, no to generalnie wtedy synteza, nie to, że mowy, ale zwykła, to była w mocnych powijakach komputerów, w zasadzie nie było w ogóle,
więc ten syntezator, no to trzeba było w ogóle wymyślić sposób sterowania tym syntezatorem, no i jakiś został wymyślony i jest dość trudny, bo to nie jest tak, że wpisuje sobie literki i on mówi te literki, absolutnie nie.
Na tym się bardziej gra.
Na tym się bardziej gra i jest, może nieco, że emulacja, bo chyba ona jest i tak dość okrojona na stronie internetowej, na której można sobie spróbować coś powiedzieć tym syntezatorem. Nie wiem, pokażesz? Czy ja mam pokazać?
Wiesz co, może pokaż jeżeli masz możliwość, bo ja nie bardzo miałbym teraz jak szybko przekierować tu kartę, to pokaż, to pokaż.
Jak najbardziej. Otóż wygląda to tak, jest przycisk start na stronie, oczywiście ileś innych też jest.
Może od razu podajmy adres strony, bo jest dość prosty.
grif fin przez dwa F, kropka moe, ukośnik woder przez V.
Tak.
I teraz mamy kilka, kilka skrótów.
Mam nadzieję, że teraz mnie jakoś słychać.
Słychać.
I te kilka skrótów A, E, Z, D, F powoduje zrobienie czegoś tego.
To jest A?
To było słychać? Takie dziwne coś?
Tak.
S, D, F, G, nie, G nie ma, H, J, K, L, V i spacja.
A, tu jeszcze syntezator mnie niemal nie mówi.
Syntezator to jest, znaczy spacja to jest strum.
I teraz łącząc te litery, na przykład A i J, to mamy coś w rodzaju J.
A i V to będzie może A, D i V.
F, F, F, F, F, F, F, F, F, F, F, F, F, F, F, F, F, F, F, F, F, F, F, F, F, F, F, F, F, F, F, F, F, F, F, F, F, F, F, F, F, F, F, F, F, F, F, F, F, F, F, F, F, F, F, F, F, F, F, F, F, F, F, F, F, F, F, F, F, F, F, F, F, F, F, F, F, F, F, F, F, F, F, F, F, F, F, F, F, F, F, F, F, F, F, F, F, F, F, F, F, F, F, F, F, F, F, F, F, F, F, F
Więc w zasadzie co mi nawet to wychodzi.
I to trzeba dość szybko, żeby nie był to szum, tylko właśnie takie cyknięcie.
Więc to tak, no tu jest też istotna odpowiednia synchronizacja tych wszystkich klawiszy.
Tak, niezgubienie się, przy czym to jest podejrzewam początek, dlatego że oryginalny Woder,
oprócz tego, że on umiał mówić monotonnie, tam jeszcze były jakieś
połączniki, czy jakieś suwaki, nie wiem, może nożne, może inne, które zmieniały
intonację, tak, i to pozwalało zmieniać intonację w ogóle, i byli, no, ludzie,
którzy byli tak wytrenowani w tym mówieniu tym syntezatorem, że on był w stanie
i normalnie wypowiadać całe zdania, w takim tempie dość wolnym, ale jednak.
I to trzeba było naprawdę tych przełączników tam naciskać bardzo dużo naraz,
odpowiednik, żeby się w tym nie zgubić,
nie pomylić się jeszcze w tym wszystkim,
takie powiedzmy akordy, można by to nazwać, na tych klawiszach.
No i to się okazuje, to jest naprawdę bardzo skomplikowana kwestia.
a tutaj ten emulator ma tam kilka tych przycisków, w oryginale pewnie było ich trochę więcej,
ale weź tu spróbuj, no nie wiem, coś mówić tym czymś, tak,
no bo jeżeli mamy, powiedzmy, napisane samo to, no to może AS, to może być U, tak,
No więc, no więc nie wiem, samo generować spółgłosek, tak, ła, żeby samo powiedzieć, no to trzeba zmienić szybko z u na to.
No, no to coś mniej więcej, coś tak mniej więcej.
Tam na stronie jest zagnieżdżony film, kiedy, na którym widać jak osoba, która się na to naprawdę nauczyła, dobrze z tego korzystać, demonstruje to urządzenie i składa nawet całe zdania, nawet śpiewa.
Swoją drogą najpopularniejsze to zdanie, to jest to słynne she saw me, i pytanie teraz, czy coś w ogóle jeszcze z tego więcej się zachowało, bo…
Tak, bo tam na tej stronie jest kilka takich właśnie, takich, no właśnie, jak to zdanie powiedzieć, które klamisz, żeby to she saw me, żeby to powiedzieć.
Natomiast pewnie jest więcej, tylko to jest po pierwsze dedykowane dla języka angielskiego, więc o tym trzeba pamiętać, po drugie pytanie, na ile ta emulacja jest rzeczywiście zgodna z oryginałem, bo tego też nie do końca wiadomo, znaczy ja nie wiem przynajmniej.
Natomiast też mnie interesuje taka kwestia, bo podobno ten woder był w jakiś sposób używany do nauki angielskiego przez dzieci w ośrodku dla niewidomych, to znaczy, czy to czy to nie jakiś książek i się zastanawiam, czy w związku z tym były jakieś, nie wiem, karty perforowane, które mogły tym sterować, czy co jeszcze,
czy to był jakiś sposób automatyzacji tego, żeby właśnie można było jakieś do niego automatyzację, że się tak wyrażę robić.
Pytanie, czy był to woder, czy było to coś późniejszego.
Było napisane, że woder, znaczy gdzieś w kilku publikacjach czytałem, że woder był wykorzystywany w tych szkołach dla niewidomych.
Także ciekaw jestem, czy tam rzeczywiście był jakiś system automatyzacji, no bo
pewnie to było jakoś tam możliwe, chociaż no ciekaw jestem na ile.
Także no to taka ciekawostka.
Ale interesująca zabawka, może komuś sprawi jakąś frajdę
popróbowanie wysyntezowania chociaż jakiegoś jednego zdania.
Jak się komuś uda, to prosimy podesłać jakąś MP3.
Tak, to można by w ogóle robić jakieś takie wyzwania, kto ciekawsze rzeczy na tym stworzy.
Dokładnie, niby parę takich dźwięków i szum, ale kto wie.
Może można by kiedyś stworzyć coś do języka polskiego, no zobaczymy.
Jakiś też taki…
Bo na githubie jest ten kod.
No to pewnie dałoby się to zrobić, jestem ciekaw czy jest w ogóle jakaś dokumentacja
od oryginalnego Wodera, żeby zrobić coraz bardziej taką
oryginalną bardziej, no ale to taka ciekawostka.
Były drobne newsy od Piotrka, teraz też
będą newsy, taki zestaw newsów, ale dotyczących sztucznych inteligencji, bo to
z tygodnia na tydzień to jest po prostu temat, który mu przebywa.
Temat, który wraca jak bumerang, tak.
No i to wcale nie są takie drobne newsy, bo pierwsze wydaje mi się jest taki dosyć duży, bo jak wiecie już wcześniej Google wypuściło swojego konkurenta do chata GPT, czyli Google Bard, który na początku był dostępny tylko w Stanach Zjednoczonych i tam w kilku jeszcze…
Nie, bo zostawiamy wszędzie poza Europą, chyba tak to było, no ale teraz Google ogłosiło dwie rzeczy jednocześnie.
Po pierwsze, Google Bards potrafi teraz, tak jak chat GBT, rozpoznawać zdjęcia i możemy o zdjęcia pytać.
O tym za chwilę więcej powiemy.
A po drugie, właśnie pojawił się w całej Europie łącznie z Polską.
I z tego co wiem, to chyba każdy z nas to rozwiązanie przetestował.
Wy też to możecie zrobić, wystarczy wejść sobie na stronę bard.google.com
Tam się logujemy, musimy zaakceptować regulamin, no i możemy sobie z tym czatem pisać i ładować do niego zdjęcia.
Natomiast rozpoznawanie zdjęć z tego co czytałem działa tylko po angielsku.
Jak sobie generalnie radzi BARD w języku polskim?
Wróżnie, tutaj wiem, że myślę, że też może Tomek i Michał, wiem, że Tomek też testowałeś, może też Ci wypowiesz, jakie Ty rzeczy na nim próbowałeś i co Ci wyszło, ja powiem, co mi wyszło.
Najpierw, a później jeszcze wrócimy do rozpoznawania zdjęć, natomiast jeśli chodzi o samą obsługę języka polskiego, ogólnie muszę powiedzieć, że ten interfejs jest naprawdę fajny.
Duża nam strona mówi, kiedy ten Bart pisze, czyli myśli, kiedy nam już da odpowiedź, każda odpowiedź jest pod nagłówkiem, wyświetla nam źródła swoje, przynajmniej w języku angielskim, bo tam po angielsku go o coś zapytałem przy okazji, jak przygotowałem sobie ten artykuł o psach, przewodnikach w średniowieczu i faktycznie mi odpowiedział coś sensownego, co później jeszcze sobie zweryfikowałem, a natomiast później stwierdziłem, czemu by go nie zapytać o język polski.
I kiedy zapytałem go po polsku, co to jest Tyflopodcast, no to dostałem taką odpowiedź.
Tyflopodcast to polski podcast dla osób niewidomych i nienawidzących.
Został założony w 2008 roku przez Piotra Witka i Tomasza Bilskiego.
Nie wiem, kim ten Tomasz Bilski jest.
Domyślam się, o kogo może chodzić, natomiast no tutaj sobie w stronę popłynęła.
No tutaj później jest powiedziane, że są poruszane różne tematy związane z
życiem osób niewidomych, nienawidzących, takich jak dostępność i technologii, kultura i drodzywka.
Podcasty są dostępne w formacie audio i wideo, no poniekąd, prawda, bo na YouTubie są, ale…
Na YouTubie, tak.
Tak, ale nie do końca. Zapytałem o najnowszy odcinek, po czym już znów tutaj całkowicie coś popłynął odcinek, w którym cały czas pojawił się pan Tomasz Bliski, więc no tutaj nie wyszło mu to niestety najlepiej.
W ogóle zmyślił gości, temat, wszystko zmyślił.
Tak, tak, tam kompletnie wszystko sobie pomyślał, też opowiedział, że ten odcinek był z marca 2023 roku.
No, jesteście z nami 19 lipca, więc jak widać, to najnowszy odcinek nie był i cały czas nowe odcinki się pojawiają.
To, to było takie czysto teoretyczne testy, natomiast jeszcze sobie przetestowałem rozpoznawanie obrazów i tutaj też zrobiłem to na dwóch
przykładach, co jest fajnego, do obrazu można sobie ładować do tej strony i po
prostu wtedy normalnie wybieramy plik z komputera, ale też możemy je wklejać.
Na przykład w przeglądarce sobie klikamy menu kontekstowe na jakimś zdjęciu,
klikamy opcję kopiuj obrazek i po prostu w full edycji wklejamy i strona to rozpoznaje
i możemy sobie w ten sposób jakieś zdjęcia na przykład z internetu w ten sposób
załadować. I ja na przykład właśnie tak zrobiłem.
To był mój pierwszy test, w którym załadowałem sobie jedno ze zdjęć, które były przedstawione w artykule, no właśnie znowu o tych psach-przewodnikach, bo niestety tam te zdjęcia mają teksty alternatywne, natomiast te teksty alternatywne tylko mówią źródło w tego zdjęcia, więc chciałbym coś więcej się o nich dowiedzieć.
Mówię, dobra, no to może być fajny test.
Bardzo się rozczarowałem,
bo tutaj Google bardzo
gra bezpiecznie,
można powiedzieć, bo na tych zdjęciach są
jakieś osoby. Generalnie to akurat były jakieś
obrazy malowane ręcznie.
Mimo to,
jak tylko Bart zobaczył, że na tym zdjęciu
jest jakaś osoba i tej osobie
widać twarz, no to powiedział
przepraszam, ale nic ci
nie mogę o tym zdjęciu powiedzieć, bo tam są
twarze, a ja twarzy,
jest twarzami i w żaden sposób niestety nie pracuje.
Oczywiście tam podałem mu prompt w stylu opisz to zdjęcie do osoby niewidomej.
Potem spróbowałem coś, na czym byłem pewny, że twarzy nie będzie.
Miałem zrzut ekranu z aplikacji OBS.
Co ciekawe zrzut ekranu, który miał tekst w języku polskim.
No i znów mu dałem prośbę, żeby mi to zdjęcie opisał.
I tutaj powiedział, że bardzo chętnie takie zdjęcie opisze dla osoby niewidomej.
Zdjęcie przedstawia aplikację, która prawdopodobnie służy do obróbki materiału wideo.
Na nim widać jakąś oś czasu, widać jakieś przyciski typu otwórz, zatrzymaj, jakieś nożyczki, które pewnie służą do przecinania materiału.
No nie do końca.
Mówił, że tam jest jakiś tekst, tam widział file edit view.
no tam faktycznie był pasek mniewidoczny, ale nie po angielsku, ale on chyba sobie to
albo przetłumaczył, albo uzmyślił, szczerze mówiąc, nie wiem.
No ale napisałem mu, a jeszcze na końcu napisał, mam nadzieję, że taki opis
byłby przydatny dla osoby niewidomej.
No to go zapytałem,
powiedziałem mu, że to jest zrzut ekranu z aplikacji OBS i czy widzi tam
jakiś tekst. No i owszem, powiedział, że jakiś tekst widzi.
Tu było bliżej prawdy, bo akurat tam był zrzut ekranu, gdzie było faktycznie przechwytywanie kilku rzeczy dodane na tą oś czasu.
On sobie to wszystko znów przetłumaczył na angielski, ale też tam były jakieś rzeczy, których na ekranie nie było, o których powiedział.
Były też rzeczy, o których on wcale nie wspomniał, tam na przykład na dole okna jest pasek, który pokazuje zużycie procesora, o tym w ogóle też nie wspomniał.
Więc no trochę tam niestety też było zmyślania.
Natomiast pewnie w niektórych sytuacjach to może nam dać jakieś przydatne informacje,
ale też trzeba to weryfikować też jednak z osobami widzącymi.
No i niestety może być problem ze zdjęciami, na których są jakiekolwiek osoby.
Musiałbym jeszcze potestować to więcej na zdjęciach, gdzie jest dużo osób widocznych.
Może tam szybciej by mi coś rozpoznał.
Natomiast jak widać już nawet na jakimś bardzo starym zdjęciu już miał z tym jakiś problem niestety.
Ja z kolei testowałem to, najpierw mu zrobiłem taki sam test jak chatowi Bing,
to znaczy wkleiłem mu transkrypcję podcastu na temat chyba właśnie Time for Buzz,
co była rozmowa z Romkiem Roczeniem i kazałem mu stresić ten podcast.
Powiedział on, że to jest podcast na temat Time for Bust, natomiast on zaczął pomyśleć, że to jest projekt i zaczęli pytać o,
znaczy, że w tym, mówił napisane, że to jest post na blogu, ale nieważne, że o rozwój projektu, jakieś takie zupełnie inne rzeczy, które były w oryginale
Mam wrażenie, że on wziął pierwsze ileś linijek tego, sprawdził i napisał co mu się wydaje po tych pierwszych kilku linijkach.
Że tak jakby w prompcie mu się zmieściło tylko tam kawałeczek, więc on wziął ten kawałeczek i na podstawie tego kawałeczka wymyślił, co tam mogłoby się ewentualnie dalej.
Mam takie wrażenie, że on to trochę tak robi.
Zrobiłem mu też drugi test,
spytałem jak w klawiaturach Komplete włącza się dostępność
i popełnił podobne błędy jak chat Bing.
Czyli najpierw napisał, że włącza się to z poziomu oprogramowania,
że to trzeba wejść w preferencje, dostępność, coś tam, coś tam.
A potem napisał, a ja go zapytam,
no dobra, a jak to zrobić z poziomu klawiatury tego urządzenia?
No że trzeba nacisnąć shift i jakiś zupełnie inny przycisk, na pewno nie ten, o którym chodzi w dostępności.
Bardzo podobny błąd popełnił Chaot Bing, więc mam wrażenie, że z jakiegoś powodu dość podobne te komunikaty, znaczy te błędy popełniał.
Nie sprawdziłem mu jeszcze, jakoś nie było okazji, bo ja dość dużo z czatem GPT próbuję robić jakichś bardzo prościutkich programów, najczęściej w Pythonie i to tak różnie wychodzi, ale czasami mu coś tam się udaje.
Nie sprawdzałem tego jeszcze w Bardzie, jakby to działało, zobaczymy, natomiast kazałem też Bardowi napisać, to taki mniej niepraktyczny, myślę, test, jakieś opowiadanie, i tak jak chat GPT próbuje, znaczy oba piszą opowiadania dość takie infantylne, bym powiedział, natomiast wydaje mi się, że Google Bard mniej oczywiste to pisze,
To znaczy, czat GPT ma, mam wrażenie, takie zadanie, żeby każde opowiadanie musiało się kończyć szczęśliwie, dla wszystkich, musiało się, musi promować jakieś takie myślenie o innych, nie wiem, myślenie o drugim człowieku, no jakieś takie rzeczy.
Natomiast Google Bart ma takie wrażenie, że jakkolwiek to też nie było nic jakiegoś spektakularnego, natomiast mam wrażenie, że jakoś to opowiadanie takie mniej oczywiste i takie z większym potencjałem.
Google Earth też ma coś takiego, że można, bo on ma kilka wersji odpowiedzi i można sprawdzić sobie wszystkie wersje odpowiedzi na to pytanie, znaczy wszystkie, tam kilka wersji jest chyba, pięć czy trzy, nie pamiętam, i można sobie sprawdzić te wszystkie wersje, czyli na przykład, jeżeli ma napisać opowiadanie, to można, jakby kilka tych opowiadań,
kilka tych opowiadań, sprawdzić jego,
znaczy kilka tych wersji powiedzmy opowiadania, które on tam napisał
i chyba wszystkie te, wszystko co pisze,
można właśnie sprawdzić w różne wersje jego odpowiedzi,
bo być może któraś będzie lepsza z jakiegoś powodu
i nie trzeba pisać, żeby zrobił to jeszcze raz.
Więc ja mam takie na przykład spostrzeżenia. Póki co z Barda.
Nie wiem, czy Michał coś bardziej testowałeś?
Bawiłem się tym trochę i moje takie pierwsze bardzo pobieżne testy
są dokładnie takie jak spostrzeżenia Piotra.
On zdecydowanie więcej zmyśla, zdecydowanie więcej zmyśla
ale i zresztą twoje też, że po prostu, no, ma fantazję.
Jeżeli ktoś chciałby wykorzystać barda do sprawdzania jakichś różnych faktów,
do czego zresztą nawet i GPT nie jest najlepszym pomysłem,
chyba że, no, gdzieś tam podłączony do internetu, a to też nie zawsze się sprawdza,
no to, no to nie, to tym bardziej nie.
No właśnie, więc tutaj, zwłaszcza jeśli chodzi o takie rzeczy, nawet właśnie z tymi zdjęciami trzeba z tym niestety uważać.
Tak samo zresztą myślał autor artykułu w serwisie tabletowo, gdzie też tutaj osoba przez kilka dni porównywała ze sobą i chata GPT i Barta i właśnie też to zauważyła.
Tam Barty ma jakieś mniejsze dane, na których był trenowany, no i niestety ma braki.
Ale myślę, że możemy w takim razie przejść dalej, bo jeszcze kilka informacji mamy.
No właśnie, przechodzimy do konkurencji w sumie, bo będziemy teraz o czacie GPT mówić,
a konkretnie zastanawialiście się pewnie, dlaczego cały czas ten czat GPT-4,
bo jak on się ukazał oficjalnie, mówiliśmy o tym, że on będzie w stanie rozpoznawać zdjęcia
i już jakieś testy są prowadzone w aplikacji Be My Eyes m.in.,
Np. nawet w Bingu przez jakiś czas niektóre osoby dostały do tego dostęp, niestety my jeszcze nie.
No ale dlaczego np. w API jeszcze tej funkcji nie ma?
Okazuje się, że może to być związane z rozpoznawaniem twarzy.
Mamy artykuł w gazecie New York Times, w którym co ciekawe jest np. cytowany Jonathan Mosen,
który od jakiegoś czasu Be My Eyes’a wirtualnego sobie testuje.
No i oczywiście chwalił tą usługę, jak na przykład on pomogła teraz w konferencji NFB
rozpoznać szampony i płyny w hotelu, w łazience hotelowej.
Natomiast właśnie rozmawiamy tutaj o rozpoznawaniu twarzy.
OpenAI martwi się, że to narzędzie jest zbyt potężne, jeśli o to chodzi
i boi się, że to narzędzie też tutaj może halucynować.
Więc tutaj są dwa problemy.
Po pierwsze, nie chcą, żeby to narzędzie kogoś obraziło,
źle podając płeć jakiejś osoby lub stan emocjonalny.
I tu fajny przykład Donatana Mosena,
który zauważył, jak to się wszystko dynamicznie zmienia.
Bo jakiś czas temu, jak podał mu jakieś zdjęcie jakiejś kobiety,
akurat tutaj, bo on to mu powiedziało, że to jest kobieta, która ma blond włosy i jest uśmiechnięta,
po czym jakiś czas później znów próbował coś podobne, zdjęcie rozpoznać i powiedział mu, że
niestety twarz została zakryta z powodu ukrycia prywatności, tutaj OpenAI nie chciało, żeby coś poszło nie tak.
Tak, też tutaj są kwestie oczywiście Unii Europejskiej, no bo w Unii Europejskiej właśnie takie tematy rozpoznawania twarzy, żeby jakaś nasza twarz była w jakichś bazach danych są bardziej szczerzone.
A drugi problem jest taki, żeby te narzędzia niechcący nie rozpoznały źle jakichś sławnych osób, tak, więc na przykład tutaj podajewyśmy twarz jakiegoś znanego, tutaj jest podany przykład znanego szefa jakiejś dużej firmy,
żeby ten czat GPT nie powiedział, że to jest ktoś inny, też znany, ale jakaś inna osoba.
Boją się takich błędów, nie chcą ryzykować, no i dlatego jeszcze to wszystko jest dopracowane,
szukają jakiegoś rozwiązania, które będzie działało.
Myślę, że dla nas to może być o tyle szkoda, że dla nas, myślę, takie informacje,
nawet jeśli mogłoby coś się pomylić, ale wydaje mi się, że dla nas takie informacje o wyrazie twarzy
że jakieś osoby są raczej istotne i gdyby to w ogóle nie miało nie działać albo tak jak to robi Bart w ogóle wtedy takich zdjęć w żaden sposób nie opisywać, no to myślę, że byłoby
naprawdę szkoda i tutaj jakieś rozwiązanie inne te firmy musiałyby znaleźć, natomiast nie wiem jak by to rozwiązanie miało wyglądać.
No tutaj Bart na przykład gdzieś w Google ma taką usługę, która pozwala znanym osobom wypisać się z takich baz danych.
mogą powiedzieć, że nie chcą, żeby jakakolwiek sztuczna inteligencja ich
twarz interpretowała, no i wtedy te narzędzia googlowskie wtedy jakoś będą to
honorować i jakoś tą twarz wtedy ukrywać.
A po ukrywania informacji przed sztuczną inteligencją, tutaj przechodzimy do
następnej kwestii, którą zauważa Robert Kinget, no bo ta sztuczna inteligencja
musi być na czymś trenowana.
Generalnie jest planowana na czym, na czym się da, na całym internecie można powiedzieć, ale nie wszyscy tego chcą, zresztą ostatnio też niektórzy autorzy pozwali OpenAI po jakieś ich książki, które normalnie powinno trzeba być kupić, jakoś wylądowały w danych treningowych do tych botów, bo tam mogli o jakieś konkretne kwestie z tych książek pytać.
A to też podobno nie do końca wiadomo, bo pytanie czy te książki wylądowały, bo niektórzy też mówią, że mogły być to książki, ale on też mógł sporo się dowiedzieć na temat rozmów użytkowników na forum, ze streszczeń, z recenzji, z różnych tego typu rzeczy, więc pytanie czy na pewno są te książki w danych treningowych, a po drugie jak to sprawdzić.
No i właśnie to jest to, teraz sądy nad tym się mają zastanawiać, natomiast ciężko będzie to sprawdzić, zwłaszcza, że dane na jakich stronach te boty były trenowane nie są publicznie udostępniane.
Między innymi mogą być trenowane na przykład na blogach i tutaj przechodzimy do meritum, bo niektórzy blogerzy nie chcą, żeby na ich postach sztuczna inteligencja była trenowana
i zaczęli znajdować różne sposoby, żeby ich blogi zabezpieczyć.
Między innymi zaczęli instalować na swoich blogach kapcze.
I tutaj Robert Hinczet właśnie napisał o takim przypadku,
to nawet nie był jakiś blog, który jakaś osoba postawiła,
tylko jakaś większa firma, z tego co zrozumiałem.
I nie dał rady te kapczy obejść.
Tam to właśnie była ta h-kapcza, podajże,
czyli ta z tym ciasteczkiem do dostępności,
które nie zawsze chce działać.
Zdaje się, że to jest w ogóle mechanizm Cloudflare’a, jest tryb w płatnej wersji tej usługi, który można sobie włączyć i właśnie wtedy, jeżeli wejdziemy na taką stronę, to poprosi nas o zweryfikowanie, że jesteśmy człowiekiem.
Jest taka możliwość i podejrzewam, że właśnie tam jest, jak dobrze pamiętam, wykorzystywana hackapcha, więc prawdopodobnie to właśnie Cloudflare jest tu używany.
Może też tak, ale tutaj chyba chodziło, to chyba z tego co ja zrozumiałem, to akurat chyba nie było hackapcha, którą postawił Cloudflare, natomiast mogę się mylić, no ale mniej więcej taki problem się zaczyna coraz częściej pojawiać i…
Mówię o tym dlatego, że ja już też na paru stronach się na coś takiego natknąłem.
To też na przykład na forum Audiogames jakiś czas był z tym problem, więc tak,
oczywiście to też może być, to tutaj akurat chodziło o platformę DreamWeave,
więc nie wiem czy wydaje mi się, że może oni to
postawili, natomiast tutaj takie informacje do nas
spłynęły, więc twierdziłem, że warto o tym wspomnieć.
Przechodzimy teraz do Microsoftu, który pomógł projektowi Gutenberg ze stworzeniem audiobooków używając swojej sztucznej inteligencji.
I tutaj nie chodzi tylko o syntezę, ale oczywiście ich synteza też miała w tym udział, ale też narzędzia do tzw. analizy syntaktycznej,
która pozwala tej inteligencji zinterpretować emocje w tej książce, jaka postać mówi, no i dzięki temu to czytanie miało być jakieś bardziej naturalne.
Czego możemy się dowiedzieć z notki prasowej, która się tam pojawiła, to to, że projekt Gutenberg jakiś czas temu próbował tworzyć audiobooki, ale wtedy technologia nie była na tyle dobra.
Ja, co ciekawe, przez przypadek znalazłem te pierwsze audiobooki, bo próbowałem znaleźć ten projekt. Ja go też znalazłem i znajdziecie też link do całego katalogu tych wszystkich książek.
Kiedyś to robili Eloquence’em, co ciekawe. Tam były trochę ustawienia pozmieniane,
no ale szczerze mówiąc wolałbym już słuchać tego Eloquence’a,
bo to książki, które stworzył Microsoft nie powalają, niestety.
I tutaj na przykład było podane, że
taki przykład sztandarowy, że na przykład to jest na tyle dobre, że książki
Shakespeare’a, tutaj nie było powiedziane niestety jaka,
Były nawet podzielone na role i to potrafiło właśnie to wygryć i miały być czytane różnymi głosami, więc ja sobie w tym katalogu znalazłem Macbetha i posłuchałem sobie tego Macbetha, no i po pierwsze to było czytane jednym z amerykańskich głosów, co myślę, że bardziej tutaj by odpowiadał jakiś głos brytyjski.
On brzmiał tak, jak nawet na syntezę mowy, wydaje mi się znudzony, czytał czasami liczby rzymskie jako litery, na przykład, nie wiem, scene I, natomiast scene I, myślę, że tutaj spokojnie sztuczna inteligencja mogłaby wygryźć, że tutaj nie chodzi o duże I, no ale też podziału na rolę nie było, więc no, działa to i fajnie, że takie bardziej naturalne audiobooki się pojawiły, natomiast myślę, że mogło to być zrobione lepiej, może czasami nawet
kwestie dobrania odpowiedniego głosu, który ma być czytany, czasami amerykański, czasami brytyjski.
Z tego co widziałem, to chyba generalnie jeden jakiś męski głos w większości książek czyta.
No i tak czyta trochę… taki bardzo znudzony ten głos mi się niestety wydawał.
Ale może dzięki temu więcej osób będzie mogło sobie jakieś książki z tego Gunterberga przeczytać.
Oczywiście też możemy z tej strony sobie je pobierać w różnych dostępnych formatach EPUB, nawet TXT, więc można to i w ten sposób.
Większość książek jest dostępnych po angielsku, też jest trochę książek w innych językach, natomiast nie znalazłem do nich na razie audiobooków, ale jest obiecane, że tego będzie się sukcesywnie pojawiać więcej.
i w innych językach oczywiście głosy Microsoft mają, polskie głosy też, więc może jakieś polskie audiobooki na Gutenbergu też się zaczną pojawiać.
A propos audio, dopojawiło się nowe narzędzie, Audio WebUI, możemy je sobie…
Podobno nie nowe.
Nie?
Nie, znaczy, puściłem to z ciekawości na Discorda takiego ludzi, którzy się, znaczy ludzi, no, miłośników sztucznej inteligencji audio i ktoś napisał, że testował to kilka miesięcy temu i było tam sporo błędów jakichś.
Mhm, no ja tego jeszcze nie miałem okazji przetestować.
Ale to było parę miesięcy temu, może teraz jest lepiej.
Natomiast no właśnie narzędzie cały czas się rozwija i jest to tyle ciekawe, że to jest aplikacja chyba webowa od sytuacji Elektron, która daje nam dostęp do kilku fajnych modeli związanych w jakiś sposób z dźwiękiem.
Tam mamy wszystko, od syntezy mowy, Coqui i Bark, mamy ten system RVC, który pozwala nam odgrywać głosy, ja mówię, co się nazywa speech to speech, czyli mowa na mowę, czyli no właśnie konwersja głosu, mówię głosem swoim i potem to przerabiam, żebym mówił głosem kogoś innego.
Dokładnie, dzięki temu…
Barq to jest taki syntezator mowy, który ponoć bardzo dużo zasobów bierze, ma być bardzo naturalny, to znaczy on nie ma co czytać jak książki, tylko ma to trochę czytać, jakby ktoś o tym mówił, to znaczy te wszystkie różne e, wstawia jakieś zająknięcia, jakieś takie różne rzeczy, czyli jakby to było trenowane na jakichś, może nie wiem, filmikach, może na czymś.
I to ma być takie właśnie bardzo naturalne rzeczywiście.
No właśnie i to nie wszystko, bo mamy jeszcze narzędzia, które tworzą nam muzykę, tak jak audio LDM i AudioCraft, który niedawno Paulina pokazywała.
Mamy jeszcze Whispera, więc możemy też rozpoznawanie mowy na tym przeprowadzać, więc właśnie wiele takich modeli, które w jakiś sposób są związane z dźwiękiem
w jednym narzędziu, które nam wszystko powinno teoretycznie automatycznie skonfigurować, zainstalować
w taki sposób, żebyśmy mogli sobie z tego korzystać.
Oczywiście do większości z tych narzędzi jest potrzebna dosyć mocna karta graficzna.
Można to też jakoś w Colabie postawić.
No też są na GitHubie instrukcje jak sobie to zainstalować do takiego środowiska,
dzięki czemu to by działało trochę szybciej.
Myślę, że to może być fajny sposób, żeby rozpocząć korzystanie z takich narzędzi, bo one często są dosyć skomplikowane w konfiguracji.
I został ostatni news od Michała na temat w sumie też trochę sztucznej inteligencji, czyli czegoś, co jest połączeniem czata, GPT i wyszukiwarki.
Tak, to dokładnie coś takiego jak Bing, tylko mam wrażenie, że trochę lepsze wyniki daje.
Aczkolwiek nie zawsze te wyniki są po polsku.
Pisać możemy do perplexity.ai, perplexity.ai w języku polskim, jak najbardziej.
Natomiast odpowiedzi bardzo często dostaniemy po angielsku, no chyba, że napiszemy mu wyraźnie odpowiedź po polsku.
I teraz na przykład, co ja mu tu mogę wpisać?
Spróbujmy zapytać, jakie znasz polskie audycje dla niewidomych, napisz po polsku.
Wciskam Enter.
I zobaczymy, co on nam tu odpowie.
O! Muszę się przesunąć. O! Już, już, już, już, bo ta strona jest dosyć zawiła.
Tak, wiesz co, nawet nie, tylko on dość dużo wyników tu wyrzucił.
Dobrze, że dużo wyników z drugiej strony, bo…
Tak, bo wyniki tu, wyniki są akurat mocną stroną, że on zawsze podaje linki,
ale gdzieś tu też szukam właśnie już opisu,
czy będzie Tyflo Podcast, no to nie wiem, ale zobaczymy, co on tym razem odpowie.
Bo kiedyś, jak go zapytałem, to co prawda po angielsku, ale jako pierwszy wymienił mi Tyflopodcast.
Poniżej znajduje się lista polskich audycji dla niewidomych.
No i już widzę, że tu jest gorzej, bo na przykład audycja dla niewidomych to według niego kino, pokój w Białymstoku
i to, że organizuje specjalne seanse z wykorzystaniem techniki audiodeskrypcji.
portalniepełnosprawni.pl informuje o możliwości oglądania filmów w kinie, no to też nie bardzo.
Dzięki prostemu rozwiązaniu opracowanemu w Krakowie, Widownia w Polskich Kinach, no coś on tu strasznie,
coś on tu strasznie, strasznie na audiodeskrypcję się zakręcił.
Może gdyby wpisać podcasty dla niewidomych.
Wiesz co, ale ja właśnie wpisałem audycję, ja właśnie wpisałem audycję.
Ale sprawdźmy, czy jak mu nie każe odpowiadać po polsku, to czy on lepszy wynik zwróci.
Jakie znasz polskie audycje dla niewidomych?
Bo ja mam wrażenie, że jak po polsku go pytam, ale nie każe mu odpowiadać też po polsku,
to on troszeczkę lepsze te wyniki zwraca.
No to zobaczmy teraz, co on tutaj nam odpowie.
Już sobie szukam.
O, ale teraz z kolei odpowiedział mi po polsku, nawet nie musiałem go zmuszać.
I tak, poniżej znajduje się lista polskich audycji dla niewidomych.
I tutaj pierwszy punkt.
Tyflopodcast to największy polski podcast dla osób z niepełnosprawnością wzroku.
Mówi o technologiach i innych tematach z perspektywy niewidomych.
No, czyli taka odpowiedź całkiem dobra.
Niewidomi w PolskieRadio.pl.
W tej audycji można posłuchać o codzienności niewidomych,
o ich osiągnięciach i wyzwaniach.
Ja podejrzewam, że on sobie skojarzył, że na stronie PolskieRadio.pl
jest gdzieś jakiś tak niewidomi i on pomyślał, że to jest audycja.
No i tutaj audycja z jedynki Polskiego Radia jakaś jest też dotycząca audiodeskrypcji.
Świat obrazu utkany ze słów to audycja Polskiego Związku Niewidomych,
która mówi o tym jak przedstawić świat filmu osobom niewidomym
i jak przedstawić obraz tego co widać na ekranie.
Podcasty EBU o nowoczesnych technologiach to audycja Polskiego Związku Niewidomych.
Nie no, tu już fantazjuje.
Prawie się udało.
Tak, prawie się udało, no bo to nie Polski Związek Niewidomych, tylko Europejska Unia Niewidomych.
Więc no, zdecydowanie inaczej.
Natomiast, co jest ważne, on do wszystkiego podaje linki,
więc można sobie ewentualnie zobaczyć na podstawie jakich stron on te wnioski wysnuwał.
Ja zawsze robię taki test, że pytam tych sztucznych inteligencji o siebie,
no bo kilka informacji na mój temat jest dostępnych w sieci,
natomiast nie jest ich jakoś wybitnie dużo, więc
zazwyczaj mnie mylą ze Stanisławem Dziwiszem te sztuczne inteligencje,
zwłaszcza GPT, ale tym razem, jak go zapytałem o siebie, to trochę nawet coś mnie tam skojarzył z radiem,
zdaje się podcastem też, natomiast też pomylił mnie z kimś, a właściwie połączył sobie jakby dwie osoby w jedno,
bo powiedział, że ja jestem pracownikiem jakiejś agencji interaktywnej, interesuję się ekonomią
i wrzucił jakiś zupełnie losowy blog chyba z WordPress’a albo Blogspota,
który faktycznie był jakoś powiązany z moim nazwiskiem.
Były tam jakieś publikowane ileś lat temu teksty.
To oczywiście nie był mój blog, żeby nie było wątpliwości.
Więc, no, czasem mam wrażenie, że tu są rzeczywiście odrobinkę lepsze wyniki,
w tym Perplexity.
Natomiast oczywiście no też nie należy wierzyć temu na słowo, zawsze warto sobie przejrzeć linki, które ta strona generuje.
Strona, ale też aplikacja, bo są, bo jest aplikacja na pewno na iOS-a czy na Androida, to szczerze powiedziawszy nie wiem,
ale być może też, no generalnie Perplex City jest takim startupem, który chce coś osiągnąć.
a czy osiągnie to zobaczymy.
Jest też tego wersja płatna.
Możemy wtedy korzystać z GPT-4,
bo tu zdaje się, że trójka jest dostępna w tej wersji darmowej.
Ale wersja darmowa też jest, nawet możemy bez logowania,
co myślę, że jest dosyć ciekawą rzeczą,
bo nie musimy się logować, nie musimy zakładać jakiegoś konta.
Oczywiście będziemy namówieni na to, żeby tam konto założyć,
ale jeżeli ktoś nie lubi takich rzeczy,
nie lubi gdzieś zakładać kont,
to również za darmo można się tym Perplexity pobawić
i zobaczyć jak to w ogóle działa.
Więc tyle.
Perplexity.ai
jeżeli macie ochotę sobie potestować sztuczną inteligencję,
to zapraszamy.
Tymczasem mamy jeszcze słuchacza tak zupełnie na koniec.
Mamy Bartka,
który się właśnie podłącza do naszego systemu audio.
Miejmy nadzieję, że się podłączy, no bo to już chyba rzeczywiście będzie ostatni temat rozmowa z Bartkiem w dzisiejszej audycji.
A ja jeszcze potem będę miał perplexity jedną rzecz, którą wpisałem i to jest coś ciekawe.
A to może powiedz od razu, bo Bartek się łączy z nami.
Bo zapisałem, napisałem mu nieco coś takiego, na stronie tyflopodcast.net znajdują się audycje tyfloprzegląd, w komentarzach pod nimi jest lista tematów poruszanych w odcinkach, korzystając z tego, wymień tytuły audycji, w których mowa jest o instrumentach wirtualnych, czyli wiesz, jakby chodzi o to, że tych tyfloprzeglądów jest bardzo dużo i ktoś chciałby, załóżmy, znaleźć takie audycje, w których mowa jest o czymś konkretnym.
No tak, no i ciekaw jest, no i byłem ciekaw, czy on coś znajdzie, znalazł i nawet coś, co ma sens, znaczy, nie wszystko to są audycje, to nie są wszystkie audycje, o których mowa o instrumentach wirtualnych, akurat, bo to jest akurat temat, który pamiętam, że był kilka razy, natomiast tak, wymienił tutaj tyflu przegląd 168
I rzeczywiście tu było coś na temat instrumentów, znaczy w komentarzu tu czytam, że jest, jeśli interesuje was tam zwiększenie dostępności w Thunderbirdzie, to co nowego pojawiło się w Talkbacku, dostępność kolejnych instrumentów wirtualnych, czy też to co się dzieje z częścią zewnętrznych klientów Twittera i tak dalej, czyli jest tu coś o instrumentach.
Potem nie wiem czemu dał klawiatury sterujące, odcinek o klawiaturach sterujących, no cyfroprzegląd to nie jest, więc no jeden z warunków nie został zachowany, no ale o instrumentach wirtualnych, no trochę i to jest.
Potem, odcinek 181 i tu w opisie, w tym odcinku mamy słowieści dla tych, którzy jeszcze nie kupili Voice Dream Readera,
dobre dla tych, którzy nie chcą tworzyć muzykę z użyciem Ableton Note, mamy coś dla zainteresowanych sportem, technologią, która może w nim pomóc.
Tradycyjnie też zaglądamy do nowości, na przykład podcastowych, zainteresowani, kontakt i tak dalej.
Ale w znacznikach czasu mamy katalog dostępnych instrumentów wirtualnych, więc jest.
Tak.
I odcinek nr 81, tutaj w opisie.
Swoją drogą też warto zwrócić uwagę, że on potrafi sięgać do całkiem nowych tych odcinków.
Więc to, i mam wrażenie, że tu rzeczywiście jest ta aktualizacja danych dość regularna.
Dość częsta, mhm.
Tym razem sporą część audycji poświęcamy konferencji Apple i nowościom,
jakie będziemy mogli cieszyć się już jesienią.
Oprócz tego przeglądamy nowe dodatki NVDA.
Tym razem jeden z nich jest bardzo, bardzo ciekawy.
Przeglądamy się angielskim badaniom dotyczącym echolokacji, a ich wyniki zaskakują.
Przeglądamy się także czytnikowi ekranu od Huawei, który jest delikatnie mówiąc dziwny.
Oprócz tego poruszamy oczywiście znacznie więcej tematów, które znajdziecie bez i tak dalej.
Czyli w opisie nic nie ma na ten moment instrumentów wirtualnych.
Natomiast w komentarzu w znacznikach mamy letnia promocja Native Instruments.
Czyli nie to, że… Aha, jest jeszcze informacja, w tym samym poprawia się dostępność Juice do tworzenia wirtualnych instrumentów, czyli jest, rzeczywiście jest.
I on rzeczywiście umie znaleźć to w…
I potem jeszcze jest po angielsku.
Here are the episodes, tam, Tyflo Przegląd.
A swoją drogą, ja wpisałem jeszcze teraz inny prompt.
Na stronie Tyflo Podcastu znajduje się audycja o nazwie Tyflo Przegląd.
Tak żeby sprawdzić, jaki jest jej najnowszy odcinek.
Odpowiedź. Najnowszy odcinek audycji Tyflo Przegląd ma numer 192.
No pięknie.
No to rzeczywiście bardzo, bardzo jest na czasie.
Także i rzeczywiście Bing to się przy tym sypał równo.
Natomiast ten Perplexity no to rzeczywiście ładnie, ładnie tutaj, no jakoś to działa.
Więc wydaje mi się, że to jest lepsze przynajmniej od tego czata Bing.
Dokładnie, zwłaszcza do wyszukiwania jakichś takich informacji, no bo ten bing przede wszystkim też do tego służy.
Ja mam wrażenie, że właśnie Microsoft próbuje blokować inne rzeczy, które mógłby on robić.
Bo ja kiedyś próbowałem go poprosić o coś, to on mimo wszystko próbował mi to wyszukiwać w sieci.
Nie chciał tego zrobić, tylko po prostu podrzucał linki.
Okej, ale jakby ja nie mam nic przeciwko temu, w sensie jak ma być to wyszukiwarka, to niech to będzie nawet wyszukiwarka, okej, niech blokują jakby tworzenie treści, no bo jakby ja to bardzo dobrze rozumiem, natomiast no fajnie, że to jakoś działa, bo ten bing to tak mam wrażenie, że trochę działa, trochę nie do końca i to jakoś tak, jakoś tak różnie to bywa.
Także, także tak. No i czy Bartosz się z nami połączył, bo próbuje.
Tak, przed momentem się rozłączył, teraz próbuje się połączyć, no to dajmy jeszcze chwilę.
Jeszcze w międzyczasie sobie zerknę na komentarze, czy do nas piszecie.
A, no piszecie do nas. Krzysztof na przykład do nas napisał.
A propos Time for Buzz i Androida. Trzeba w Talkback w sekcji szczegółowość włączyć opcję powiadomienia przy wyłączonym ekranie i wtedy przy wyłączonym ekranie te powiadomienia są wypowiadane.
Sprawdzałem to dzisiaj.
Także to taka jeszcze jedna rzecz.
Jeszcze raz powiem może gdzie.
W Talkback w sekcji szczegółowość
włączyć opcję powiedz powiadomienia przy wyłączonym ekranie.
No i to zdaniem Krzysztofa działa.
Bartku, jesteś, tylko radio wyłącz wycisz.
Okej, dobrze, dobrze, bo właśnie tutaj przepraszam, że kilkukrotnie się ostatnio z wami tutaj łączyłem, bo miałem małe problemy tutaj, jak zaakceptowałeś tutaj moje wejście na antenę, to mi się VoiceOver wyłączył i musiałem go zrestartować i niechcący zamiast Wi-Fi bądź sieć komórkową wcisnąłem połącz i przełączyło mi na Zooma i znowu musiałem się połączyć, ale już jestem. Najważniejsze.
No to słucham.
No tak jak Michale obiecałem w zeszłym tygodniu, tutaj Tomka nie było w zeszłym tygodniu, to przypomnę dzwonić z tym samym tematem, czyli mianowicie te gesty w iPhone’ie.
Pamiętasz pewnie, Michale, o czym mówiłem w zeszłym tygodniu?
Tak, no i jak tam?
Powiem tak, wysłuchałem najpierw ciebie.
Mhm.
I dokonałem tego wyczyszczenia iPhone’a, czyli usunięć zawartości ustawienia.
Muszę tobie powiedzieć, że zasadniczo się nic nie zmieniło, bo próbowałem go wyczyścić przez iTunes’a tyle, że był komunikat iTunes pobiera oprogramowanie, po pobraniu iPhone zostanie przywrócony do ustawień fabrycznych.
I raz pokazał mi się komunikat przycisk OK, ale nic się po tym nie stało, co się dzisiaj dowiedziałem na infolinii Apple, że prawdopodobnie mogło nawet niepoprawnie zostać pobrane to oprogramowanie i dlatego wyświetlił mi się ten komunikat, gdzie mogłem tylko przycisk OK i to jeszcze z myszki nawigacyjnej, a nie normalnie z klawiatury to przeczytać.
Ale co ciekawe, Michale, zauważyłem, to się dzieje tylko wtedy,
bynajmniej tylko wtedy zazwyczaj, kiedy on jest pod ładowaniem.
To znaczy to, że te losowe gesty, tak?
No tu się te, nieprawidłowe nawet gesty, bo tak jak w zeszłym tygodniu mówiłem,
próbowałem włączyć dyktowanie dwa razy dwa palce, on mi nagle gdzieś trzeci palec wykrywał,
albo wcale tego gestu nie łapał, czy nawet gest wstecz, czyli gest potarcia dwoma palcami nie działał, gdzie powinien działać.
A dzisiaj to nie wiem w ogóle nawet, jak odblokowywałem…
No ale dobrze Bartku, bo tak jedna rzecz, czy próbowałeś, czy w końcu udało ci się zresetować to urządzenie i przywrócić?
Znaczy się przez iClouda i owszem, bo z backupu mogłem.
I co, dało to coś?
Nie, właśnie nie.
Rozumiem.
I dlatego później zabrałem się za iTunesa.
I mówię, pierwszy raz jak
pobrałem iTunesem prawdopodobnie
to oprogramowanie, gdzie
pojawił mi się ten komunikat z przyciskiem
OK.
No a czy próbowałeś potem jeszcze raz
pobierać?
On był jak był.
Tak, i co ciekawe, on mi
pobierał ponad półtora godziny, gdzie nawet nie skończył.
a to wcześniejsze pobieranie tam może pół godziny zajęło?
Rozumiem. No ale dobrze. I co z tym iTunesem? Udało się?
No właśnie nie.
Czy też nie?
Ale jeszcze, że tak powiem, przez to długie pobieranie zrezygnowałem wtedy z tego iTunesa
i dzisiaj dzwoniąc na infolinie, że tak powiem, może to właśnie to błędne pobranie iTunesem
było spowodowane tym, że byłem podłączony do internetu mobilnego.
No być może.
I dlatego teraz w najbliższym czasie, prawdopodobnie w niedzielę, ja spróbuję podłączyć się do Wi-Fi stacjonarnego tutaj u mnie w domu i wtedy zobaczę, czy to coś pomoże.
No to cóż, no spróbuję.
Tak naprawdę chciałbym uniknąć oddania iPhone’a na gwarancję, bo niestety tutaj Michał, niestety muszę podkreślić, że miałeś jednak rację, bo w zeszłym tygodniu mówiłem, że jako iPhone’a zapasowego będę miał iPhone’a SE i de facto go miałem, ale niestety jest jeden minus.
Nie można tam przywrócić backupu z wersją iOS-a 16.5.1.c.
No tak, no bo po prostu tam na tym telefonie jest starsza wersja iOS-a.
Ostatnia, z tego co pamiętam, jest chyba 12.57 chyba, jak dobrze pamiętam.
No, niestety i to będzie problem.
I teraz właśnie się zastanawiam, bo tutaj na infolinii powiedzieli, że niby jest możliwość jakby wzięcia sprzętu zastępczego na ten czas.
Nie wiem, może ty się Michale orientujesz, jak wygląda taka procedura chociażby?
Nie orientuję się. Piotrze, może ty coś wiesz.
Od sklepu zależy. Nie, nie, niestety.
Ja bym się po prostu w sklepie ewentualnie wtedy
zapytał, jak oddajesz ten telefon na gwarancję.
No tak, to to oczywiście
generalnie samo przeniesienie danych
z jednego iPhone’a na drugie to nie jest
trudne, bo tam do telefonu dosłownie można
przyłożyć do siebie podczas
innej konfiguracji. Tak, tak Piotrze, ja tu zresztą
robiłem poprzednio, jak przenosię z SE
drugiej generacji na trzynastkę,
także dla mnie ta operacja nie jest wcale obca.
No więc to widzę, jak to by się
dało w sklepie nawet zrobić tak jak ale no mówię to byś musiał się zapytać
konkretnie jak to wygląda.
Właśnie chciałbym się dowiedzieć jak wygląda taka operacja i czy w ogóle jest
możliwe.
No ja bym tutaj faktycznie jeszcze raz spróbował to oprogramowanie z iTunesa
przywrócić jeśli faktycznie tam jest taka kwestia gdzieś coś w systemie.
Jeszcze tak się zastanawiam czy to się też dzieje jak telefon nie jest podłączony czy
tylko jak się ładuje.
Zazwyczaj właśnie zauważyłem to, kiedy on jest pod ładowaniem.
Chociaż dzisiaj właśnie próbowałem go odblokować i był ten problem z wpisaniem kodu, bo
ja próbowałem ten swój kod wklepać, a on nagle mi wyświetlił, że błędny kod, czyli w międzyczasie jakieś jeszcze cyfry musiały być wpisywane.
Bartku, a no, to w takim razie, jeżeli dzieje się to pod ładowaniem, to
To moje pytanie, czy dzieje się to podładowaniem, to jak rozumiem, do sieci, kiedy telefon jest podłączony, tak?
Tak, normalnie pod kostkę.
A próbowałeś ładować właśnie przez komputer i sprawdzić wtedy?
Znaczy się, powiem wam tak, jeżeli chodzi o komputer, to jeszcze jedna rzecz mnie zastanawia,
Dlaczego ja nie mogłem w iTunesie dodać chociażby własnego dzwonka?
Kiedyż był zrobiony w M4R i już najechałem tabulatorem na to miejsce,
w którym się ten dzwonek, ten klik po prostu wkleja.
Bartku, tego nie wiem, natomiast to, co ja bym sprawdził jeszcze,
tak dla pewności, dla świętego spokoju,
to ładowanie pod komputerem, to jest rzecz pierwsza.
Sprawdziłbym też mimo wszystko przewód ładujący.
Właśnie. Znaczy się, sam przewód jest oryginalny.
Ale może coś się z tym przewodem stało.
Ale to nie ma znaczenia, mogło się coś wewnętrznie gdzieś tam nawet uszkodzić i…
byłoby to bardzo dziwnym zbiegiem okoliczności, jakby akurat miał wpływ na dotyk.
No ale…
Nie widziałem nigdy czegoś takiego.
Chociaż dzisiaj wam powiem, przed audycją jeszcze widziałem na grupie jedna osoba też miała jakiś właśnie problem chyba z voice-overem.
Dokładnie teraz nie jestem w stanie zacytować tego.
Natomiast wiesz Bartku, te problemy z tym, że ty nie mogłeś na przykład czegoś pod iTunesem przerzucić,
że tam pojawiały się jakieś błędy, no mogą ewentualnie wskazywać na jakiś problem z przewodem.
Może jakieś zakłócenia, właśnie jakieś, no właśnie, jakieś zakłócenia, sygnały są wysyłane gdzieś do tej płyty, która odpowiada za dotyk i przez to coś tam głupiej, no.
A jeszcze ewentualnie na drugim kablu mogę spróbować.
No właśnie, no właśnie. To ja bym to sprawdził, bo to może być problemem.
Chociaż tak jak mówię, no my tu zgadujemy, tak?
No tak, mówię, możemy tylko spekulować w tej sytuacji.
Jesteśmy serwisantami Apple, więc nie mamy nawet wiedzy w zakresie tego, co na co może mieć wpływ, natomiast no, ja bym mimo wszystko spróbował, zobaczył po prostu.
De facto ostatnio miałem okazję na innym iPhone może nawet na tym oryginalnym kablu sprawdzić, ale no niestety nawet nie wpadło mi to do głowy, żeby, że tak powiem, tego dokonać w tej sytuacji.
No, ale no cóż. No dobrze, na razie wtedy jeszcze do tej niedzieli przetestuję tą opcję i wtedy zobaczę, no bo to jest naprawdę dość irytujące, powiedzmy sobie wprost.
Zresztą rozmawialiśmy o tym w zeszłym tygodniu.
No oczywiście, że tak. Natomiast, no mówię, próbuj i daj znać, bo sam jestem ciekaw, jak się ta historia zakończy.
No miejmy nadzieję, że to w najbliższych dniach się skończy, bo sam widzisz Michale ile ta sytuacja już trwa, szukamy, szukamy i na razie, że tak powiem, kręcimy się w kółko.
Zgadza się. No dobrze Bartku, czy w czymś jeszcze możemy pomóc?
No tutaj chyba właśnie już nie. Także tylko mówię, dzwoniłem w tej sprawie, żeby przekazać jakie są bynajmniej efekty na ten czas i że tak powiem będę informował was na bieżąco.
Ok, dzięki za telefon, dobrej nocy, trzymaj się.
Również, dzięki serdecznie, również, trzymajcie się, hej.
Cześć. I jeszcze na koniec jedno pytanie od naszego słuchacza Dominika.
Hej, czy dostępność w Diablo 4 działa również na PS5?
Tak. Tak, tam były jakieś problemy, ale niedawno zostały rozwiązane.
Tam jedna kwestia, to jest to poza wszystkimi grami, jest taka,
że nie jest czytana klawiatura ekranowa w czasie gry, więc warto sobie na jakiś czas wtedy, albo podłączyć na chwilę klawiaturę z komputera, bo konsola ma porty USB, albo przez Bluetooth, kiedy musimy wpisać imię dla swojej postaci, ale później wszystko jest fajnie czytane.
No i więcej pytań chyba nie ma. I więcej tematów nie ma. Chyba, że komuś coś jeszcze gdzieś tam pojawiło się w trakcie audycji, w trakcie przeglądania na przykład.
Z mojej strony wszystko.
No to w takim razie kończymy w składzie nieco uszczuplonym w stosunku do tego jak zaczynaliśmy, Paulina niestety musiała się pożegnać, ale Piotrek Machacz, Michał Dziwisz i ja, czyli Tomek Bilecki zostaliśmy, no i w tym składzie się z wami żegnamy, no i do usłyszenia, miejmy nadzieję, w przyszłym tygodniu.
Dobrej nocy.
Do usłyszenia.
Był to Tyflo Podcast.
Pierwszy polski podcast dla niewidomych i słabowidzących.
Program współfinansowany ze środków Państwowego Funduszu Rehabilitacji Osób Niepełnosprawnych.

Wszystkie nagrania publikowane w serwisie www.tyflopodcast.net są dostępne na licencji CreativeCommons - Uznanie autorstwa 3.0 Polska.
Oznacza to, iż nagrania te można publikować bądź rozpowszechniać w całości lub we fragmentach na dowolnym nośniku oraz tworzyć na jego podstawie utwory Zależne, pod jedynym warunkiem podania autora oraz wyraźnego oznaczenia sposobu i zakresu modyfikacji.
Przekaż nam swoje 1,5% podatku 1,5 procent Logo FIRR Logo PFRON Logo Tyfloswiat.pl

Czym jest Tyflopodcast?

Tyflopodcast to zbiór instrukcji oraz poradników dla niewidomych lub słabowidzących użytkowników komputerów o zróżnicowanej wiedzy technicznej.

Prezentowane na tej stronie pomoce dźwiękowe wyjaśniają zarówno podstawowe problemy, jak metody ułatwienia sobie pracy poprzez korzystanie z dobrodziejstw nowoczesnych technologii. Oprócz tego, Tyflopodcast prezentuje nowinki ze świata tyfloinformatyki w formie dźwiękowych prezentacji nowoczesnych urządzeń i programów. Wiele z nich dopiero znajduje sobie miejsce na polskim rynku.

Zapraszamy do słuchania przygotowywanych przez nas audycji i życzymy dobrego odbioru!

Tematyka

Pozycjonowanie i optymalizacja stron internetowych