TyfloPrzegląd Odcinek nr 179 (wersja tekstowa)

Pobierz napisy w formacie SRT
Pobierz napisy w formacie VTT
FUNDACJA INSTYTUT ROZWOJU REGIONALNEGO PREZENTUJE
TYFLO PODCAST
Dziś mamy środę, to jest 12 dzień kwietnia 2023 roku, a zatem no to najwyższa pora, by rozpocząć kolejne spotkanie z Tyflo Przeglądem.
Tyflo Przegląd numer 179 właśnie dziś już teraz się rozpoczyna.
Witamy Was bardzo serdecznie, Piotr Machacz, Paweł Masarczyk i mówiący te słowa Michał Dziwisz.
Witamy Was bardzo serdecznie, jak zawsze przybywamy do Was z pokaźną dawką technologicznych newsów.
A jakie to są informacje, jakie to ciekawostki, dziś będziemy Wam w tej audycji prezentować. Posłuchajcie.
W tym tygodniu w Tyflo Przeglądzie.
Pierwsze wrażenia z używania Nearby Share z czytnikiem ekranu.
Nowa wersja oprogramowania odtwarzacza Sense Player.
WebAIM już po raz piąty przebadało dostępność miliona najpopularniejszych na świecie stron głównych.
Wiemy już co nieco na temat wirtualnego wolontariusza Be My Eyes.
Jak brzmi dźwięk w różnych aparatach słuchowych? To można sprawdzić.
Interfejsy audio Focusrite stają się coraz bardziej dostępne.
Nowości w dodatkach dla NVDA.
Braille Doodle, nowe urządzenie wspomagające naukę Brailla.
Mid Journey wygeneruje szczegółowe opisy obrazów.
Jak szybko wrócić na górę ekranu w iOS?
Discord dodaje funkcję emitowania dźwięków podczas rozmowy.
Fairy Feeds, ciekawy czytnik RSS na iPhona i Maca.
Wszystko to, a pewnie jeszcze więcej już za chwilę. Zaczynamy!
My zaczynamy i mam nadzieję, że zaczynacie również razem z nami.
A jeżeli macie ochotę, aby aktywnie włączyć się do tej naszej audycji, do Tyflo Przeglądu,
to oczywiście antena jest do Waszej dyspozycji.
Jak zawsze serdecznie do tego zachęcamy.
kontakt.tyflopodcast.net
Tam możecie pisać.
Możecie do nas również zadzwonić na tyflopodcast.net ukośnik zoom.
Możecie napisać na YouTubie, na Facebooku i z poziomu aplikacji zarówno dla iOS-a jak i dla Windows-a.
Do tego bardzo serdecznie wszystkich zachęcamy, aby aktywny udział brać w Tyflo Przeglądzie.
Możecie komentować to, o czym będziemy dziś Wam opowiadać.
Możecie również jakieś swoje informacje dostarczyć.
Jeżeli na przykład o czymś zapomnieliśmy, coś zauważyliście,
coś istotnego dla osób niewidomych właśnie się dzieje albo niedawno się wydarzyło,
a my o tym nie wiemy, to sprawdźcie, abyśmy dowiedzieli się zarówno my,
jak i przede wszystkim także wszyscy pozostali, którzy Tyflo Przeglądu będą słuchać
albo słuchają na żywo albo później posłuchają sobie tego z odtworzenia w Tyflopodcastie
czy w Tyfloradiu, kiedy nie ma nas na żywo.
Przechodzimy już teraz do zaplanowanych dziś informacji.
Na dobry początek wrócimy do tematu, o którym mówiliśmy tydzień temu,
czyli do aplikacji Nearby Share.
Aplikacji, która ma działać tak jak AirDrop na iOS-ie, tylko że na Androidzie
i ma pozwalać przesyłać pliki z Androida na Windowsa.
Prawda, Pawle? Nic nie pokręciłem?
Tak, to się zgadza. Dokładnie o tą aplikację chodzi.
Tak jak już wspomniałeś, mówiliśmy o tym, że ona ma być dostępna wkrótce,
że tak powoli i nieśmiało gdzieś tam się objawia, to znaczy Google ją zapowiedział,
ale ona nie jest jeszcze wszędzie dostępna.
Jest dostępna w prawie wszystkich krajach świata.
I tu nagle cała lista krajów europejskich, których jej nie ma.
Co ciekawe kraje europejskie, jakby unijne, plus parę takich krajów jak Iran,
Korea Północna, więc zaglądaliśmy w zacnym towarzystwie.
Kuba też.
Natomiast wiemy już, jak aplikacja działa z screenreaderami.
No i czego się dowiadujemy z tegoż demka?
Które poczyniła użytkowniczka z Indii, zdaje się, która miała okazję
już tę aplikację przetestować.
Otóż ta aplikacja dostępna jest, jak najbardziej.
Instalujemy ją sobie ze strony, na której na ten moment dla nas
żaden link download się niestety nie wyświetli.
Mam nadzieję, że to się zmieni za jakiś czas.
I po instalacji logujemy się na nasze konto Google.
Kiedy to zrobimy?
To oczywiście możemy bez żadnych przeszkód wysyłać sobie pliki
na nasze urządzenia podłączone w ramach tego samego konta Google.
I wtedy nie musimy ani żadnej zgody wyrażać, ani niczego potwierdzać.
Po prostu bierzemy plik, wysyłamy go i on po prostu sobie jest.
Ale też możemy ustawić, czy tych plików nie mogą nam przesyłać inni.
I tu możemy się ograniczyć albo tylko i wyłącznie do naszych kontaktów,
albo pozwolić na to wszystkim.
Oczywiście, żeby to zadziałało, wszystkie zainteresowane urządzenia
muszą znajdować się w tej samej sieci Wi-Fi.
Z tego, co kojarzę, ewentualnie gdzieś w odległości Bluetootha od siebie.
I wtedy przy wybraniu z dowolnej aplikacji w systemie Android opcji udostępni,
nasz komputer powinien się pojawić.
Oczywiście możemy też wysyłać w drugą stronę te pliki.
I tutaj też cały interfejs jest dostępny.
Tylko pliki możemy wysyłać, bo możemy wysyłać również foldery.
I do tego także są odpowiednie dedykowane przyciski w samej aplikacji.
No i nic łatwiejszego.
Wybieramy sobie odpowiednią opcję, następnie wybieramy plik bądź folder.
No i urządzenie docelowe, do którego chcemy wysłać.
Moment, w którym już wybieramy ten folder, to moment, w którym nasze urządzenie,
przynajmniej inne urządzenia w sieci, zaczyna sygnalizować,
że nadchodzi jakiś plik, że komputer, laptop, Jasia, zaczyna udostępniać plik lub folder.
No i potem wybieramy urządzenie, tak jak wspomniałem, z listy.
I wtedy już plik po prostu wskakuje na nasze urządzenie.
A my dostajemy po prostu powiadomienie, że znalazł się on w folderze pobrane.
My możemy sobie ustalić, do jakiego folderu na komputerze wpadają pliki przychodzące.
I oprócz tego i prywatności, to chyba nie ma wiele więcej, co w tych ustawieniach można zmienić.
No więc wygląda na to, że szykuje się bardzo ciekawe rozwiązanie do przesyłu plików
między urządzeniami androidowymi, a laptopami, komputerami, ogólnie z systemem Windows.
No tylko kiedy ono będzie dostępne w Europie, a przez konsekwencje też i w Polsce.
No to będziemy musieli jeszcze troszeczkę poczekać.
Miejmy nadzieję, że czekać nie będzie trzeba długo.
Google lubi Polskę, zdecydowanie bardziej lubi niż Apple.
Więc może, może jednak.
Swoją drogą ostatnio a propos Apple i tego, że oni Polskę to lubią tak sobie,
ale chyba coraz bardziej, bo pojawił się zdaje się polski kanał oficjalny Apple na YouTubie,
ale też jakieś aktualizacje w mapach się pojawiły dotyczące Polski.
Ktoś z was testował te mapy w praktyce? Jak to wygląda?
Jeszcze nie, ale z tego co czytałem gdzieś tam po Mastodonach i innych różnych mediach,
no to te widoki 3D, taki tak jakby Google Earth, to co tam jest Live View, chyba to się nazywa,
czy jakoś tak, jest to dostępne w Polsce, na przykład dworzec we Wrocławiu
można podziwiać i z zewnątrz i od środka.
Ja to otworzyłem i, bo nawet dostałem powiadomienie, że mapy się zmieniły, słuchajcie.
Ja to otworzyłem z voice overem, aż takiej różnicy też nie zauważyłem,
też ponoć pojawiła się dzięki temu jakaś opcja sprawdzania czegoś w transporcie miejskim,
też ponoć aplikacja w niektórych miastach jest w stanie nam teraz wysyłać powiadomienia,
jeśli ustalimy, gdzie chcemy dojechać, kiedy powinniśmy wysiąść.
No niestety mieszkam w małym mieście, więc nie mam jak tego przetestować,
no ale przepuszczam właśnie, że we Wrocławiu, czy w Warszawie, czy gdzieś w takich większych miejscach
to może w Polsce też działa, mam taką nadzieję przynajmniej.
Więc jeżeli korzystaliście z nowych map Apple, jeżeli w ogóle używacie tego narzędzia,
albo w ogóle takich aplikacji, niekoniecznie dedykowanych dla niewidomych,
a po prostu map, czy map Google, czy Apple, czy jakichś takich mainstreamowych narzędzi do nawigacji,
bo słyszałem, że niektórzy niewidomi w ten sposób sobie radzą, to dajcie znać,
tak z ciekawości, jeżeli macie ochotę opowiedzieć, jak wam to się sprawdza
i jak bardzo można na tego typu narzędziu polegać.
Jesteśmy do waszej dyspozycji i drogi kontaktu są otwarte,
a teraz przechodzimy do następnego tematu,
tematu urządzenia, które do swego czasu prezentowaliśmy,
jako dodatek do Tyflo Przeglądu, mianowicie urządzenie Sense Player.
Doczekało się nowego oprogramowania, a jakie Piotrze nowości w tym oprogramowaniu mamy?
Tak, w ogóle samo dowiedzenie się o tych nowościach było też ciekawą zagwozdstwą,
bo tutaj Floem Bayers, który napisał o tym na Mastodonie,
po prostu na swoim urządzeniu dostał aktualizację i nie wiedział za bardzo, co jest w nim nowego,
bo ani na holenderskiej, ani na angielskiej, ani zresztą na polskiej stronie nie było o tym informacji,
więc on po prostu do nich napisał i wysłali mu informacje o nowościach w pliku Dockem,
który to szczerze udostępnił i dzięki temu możemy też wam przeczytać,
co tam się ciekawego zmieniło w tym urządzeniu.
Urządzenie miało trochę błędów na początku po wypuszczeniu na rynek,
ale firma już bardzo sprawnie, sporo poprawia i dodaje ciekawe nowości.
A jakie to są nowości? Zacznijmy może od Smart Connecta,
bo tutaj się całkiem sporo zmieniło.
Po pierwsze, możemy teraz nagrywać połączenia głosowe.
Jeśli mamy włączony ten Smart Connect, więc Sense Player jest naszymi słuchawkami,
naszą klawiaturą, prowadzimy przez niego rozmowę, to naciskając przycisk Record
po prostu możemy sobie tą rozmowę nagrać.
Dodano też obsługę klawiatury Braille Sense,
więc można je teraz też z Braille Sensem połączyć i nim sterować.
To nawet było chyba reklamowane, ale w tej pierwszej wersji tego jeszcze nie było oficjalnie.
Możemy przełączać je między tymi różnymi trybami klawiatury naciskając przycisk Bluetooth.
Poprawiono problem, że urządzenie nie wysyłało mikrofonu,
np. właśnie podczas rozmów, podczas trybu nawigacji po internecie.
Jeśli chcemy poruszać się do tyłu po różnych elementach,
to zamiast trzymania gwiazdki musimy teraz naciskać klawisz kasuj, klawisz delete.
A także nawigacja na główkach o konkretnych poziomach jest teraz uzyskana
poprzez nacisnięcie menu i cyfrę od 1 do 6 lub do tyłu,
no to też można docisnąć sobie ten klawisz delete i wtedy można się poruszać do tyłu.
W menadżerze plików dodano opcję otwierania obrazków,
a także plików PDF bezpośrednio do aplikacji OCR.
Z poziomu tego ogólnego menadżera plików możemy teraz sobie rozpoznawać pliki.
W odtwarzaczu multimediów nawigacja po skok po czasie
z ściałkami lewo-prawo działa teraz na poziomie całej playlisty,
a nie tylko aktualnie otwarzanego plików, więc jeśli ktoś słucha np. książki,
która jest podzielona na kilka plików, to na pewno się ucieszy z tego.
Po otwarciu odtwarzacza zawsze tryb nawigacji się zrestruje do myślnej opcji,
a nie będzie zapamiętywany, więc tutaj pewnie użytkownikom się to nie podobało,
jak urządzenie to zapamiętywało.
W okienku informacji są teraz dostępne informacje upłynionego i pozostałego czasu
w całej playliście, więc tutaj też jak ktoś słucha książek, to się na pewno ucieszy.
Jeśli mamy włączoną opcję zapisywania pozycji naszej, to teraz jeśli nacisniemy pauzę,
wyjdziemy z aplikacji, czy uśpimy urządzenie, to ta pozycja już będzie zapamiętywana.
To był duży błąd, który też kilka osób zgłaszało, zarówno tutaj u nas,
jak i w zagranicznych podcastach.
Poprawiono sortowanie w taki sposób, że plik 2 pojawi się przed plikiem 10.
Jeśli chodzi o nazwy plików, jeśli jakiś plik zaczynał się od samej cyfry 2,
a nie np. 02, to teraz się pojawi jako drugi plik na liście.
Tak samo będzie to zrobione w innych aplikacjach.
To się jeszcze nie stało, ale tutaj producent sygnalizuje, że w przyszłych aktualizacjach
tak będzie.
Teraz otwarzasz DAISY.
Już nie powinien się wycypywać, jeśli urządzenie da komunikat niski poziom baterii.
To ważna poprawka.
W książkach tylko tekstowych już nie będzie wyświetlana informacja o czasie,
bo nie ma jak tego urządzenie obliczyć.
Zakładki są teraz wstawiane w kolejności numerów, czyli po prostu 1, 2, 3.
Podobno wcześniej tak nie było.
Podczas otwarzania książek DAISY AUDIO czas pozostały i upłynięty już będzie
wyświetlany prawidłowo.
W czytniku dokumentów, czyli pliki tekstowe, tutaj też jest ta poprawka
z wstawianiem zakładek w odpowiedniej kolejności.
W aplikacji radio dodano bazę danych radio browser, więc teraz możemy albo
szukać w radio browserze naciskając klawisz cyfra 8 lub korzystać ze starej bazy
radio sure naciskając 0.
Więc tutaj fajnie, że taka bardziej aktualna baza została zaimplementowana.
Naciskając klawisz trybu przycisk MODE podczas otwarzania radia urządzenie
powie nam teraz tytuł i artystę piosenki, która jest akurat odtwarzana,
jeśli dana stacja daje takie informacje.
I jeśli kasujemy jakąś stację np. z ulubionych, to teraz jesteśmy pytani
czy jesteśmy tego pewni.
OZER potrafi teraz rozpoznawać pliki PDF, bardzo wydaje mi się przydatne.
Pobieranie z Bookshare, tutaj poprawiona lista, historia pobieranych plików.
Online Daisy, czyli między innymi tutaj nasza polska biblioteka z tego korzysta.
No tutaj jest poprawka konkretnie dla biblioteki Vision Australia, ale też
naciskając klawisz kasuj powinien zwrócić książkę, tak jak powinien w niektórych
bibliotekach trzeba książki zwracać.
U nas akurat chyba nas to nie dotyczy.
Nagrywanie.
Możemy teraz ustawić, żeby urządzenie informowało nas o stanie nagrywania
wibracjami, a nie dźwiękiem lub mową.
Lista nagrań powinna się teraz odświeżyć, kiedy zrobimy nowe nagranie.
Menu ustawienia lokalizacji plików zostało usunięte, bo teraz dektafon
będzie nagrywał do tego folderu, w którym akurat jesteśmy ustawieni,
a szybkie naciśnięcie przycisku record odtworzy ostatnie nagranie.
Właśnie to naciśnięcie krótkie klawisza record, żeby otworzyć ostatnie nagranie
powinno działać prawidłowo i będzie nam podany komunikat, kiedy nagranie
zostanie pomyślnie zapisane.
I teraz ustawienia głosu.
Poprawiono problem korzystania z nowo zainstalowanych głosów
zaraz po ich instalacji.
Ustawienia globalne.
Możemy ustawić osobno głośność różnych dźwięków, systemowych alertów
w porównaniu do całego systemu.
Opcje informowania nas o paskach postępu.
Możemy teraz ustawić zarówno komunikat, jak i dźwięk.
Można zwiększyć sobie jeszcze czas oczekiwania, jak wpisujemy litery
w trybie T9 nawet do 1 sekundy.
Tutaj Florian prosił, żeby to się dało jeszcze skrócić, bo minimalna opcja
to jest 200, ale ponoć jeśli piszemy za szybko, to czasami urządzenie
potrafi zgubić znaki, więc miejmy nadzieję, że to też pójdzie w drugą stronę.
Ustawienia języków powinny już być czytane prawidłowo.
Lista języków pokazuje teraz tylko języki, które my, w sensie
jaka tutaj firma zlokalizowała.
Nie wiem dokładnie o co tutaj chodzi, ale taką mamy informację.
I jeszcze ogólne zmiany.
W głównym menu, pod menu komunikat rozwijany już nie jest czytany
na elementach menu, tylko po prostu czyta nazwę tego menu.
Jeśli wpisujemy, używając wyboru znaku, że wybieramy znaki z listy,
a nie metodą T9, to ta lista teraz się zawija w lewo i w prawo,
więc można szybciej dojść do pierwszej lub ostatniej opcji.
Jeśli ustawiamy 24-godzinny format czasu, to nie pojawia nam się już
lista AMPM, bo nie jest nam potrzebna.
Poprawiono w trybie pomocy niektóre skróty.
Były z jakiegoś powodu czytane dwa razy, jeśli je sprawdzaliśmy.
I dodano komunikat pomocy dla przycisku home, też w pomocy klawiatury.
Urządzenie będzie teraz zapamiętywać osobno głośność głośnika
budowanego i słuchawek.
Zmiany w domyślnym motywie dźwiękowym, więc tutaj dźwięki się jakieś
pozmieniały systemu.
No i został zaktualizowany podręcznik na urządzeniu i dodany link
do tutoriala audio, bo faktycznie po angielsku taki tutorial oficjalny
od producenta się pojawił.
No i to wszystko.
Trochę tego jest.
Trochę tego jest, to się zgadza.
Myślę, że zwłaszcza ta opcja nagrywania rozmów to może być teraz taki,
jak to się mówi ładnie po zachodniosłowiańsku, selling point.
Powód, dla którego ludzie będą chcieli kupić, bo zauważcie, że wiele osób
pyta o to, jak nagrywać i ty Michale, kiedyś takie rozwiązanie sprzętowe
nawet zakupiłeś zdaje się.
Tak, tylko z nim były dość duże problemy i nadal są tak naprawdę.
Apple niezbyt chętnie pozwala na to, żeby cokolwiek przechwytywało
nasze rozmowy i mimo, że teoretycznie to oczywiście działa, to tam
teraz to już jest urządzenie przestarzałe, bo tam jeszcze wpina się słuchawki
na małego Jacka.
To jest jedna rzecz. Rzecz druga była taka, że to dość słabo działało,
bo tam czasem jakieś trzaski się potrafiły pojawiać, a tak w sumie
to naprawdę aż dziwne, że nikt nie wpadł na pomysł taki, że okej,
jak to mówią nikijem, gotopałką i skoro nie da się podłączyć czegoś,
co by nagrywało jakoś sensownie przewodowo, to dlaczego by nie wykorzystać
bluetootha i nie stworzyć właśnie nawet chociażby słuchawek po prostu.
Zestawu słuchawkowego, do którego wkłada się jakąś kartę, a może takie rzeczy są,
tylko my tego nie szukaliśmy.
Na AliExpress.
No właśnie.
Ja kiedyś miałem głośnik, który miał funkcję nagrywania i niestety
to nagrywanie wyglądało tak, że jeśli chcieliśmy nagrywać dźwięk z mikrofonu,
to on to po prostu nagrywał z głośnika, więc ten dźwięk był taki troszeczkę
pudełkowy, a ta druga osoba po prostu z głośnika się wydobywała,
więc to średniej jakości było, no ale…
Ale wiecie, nawet mieć tę jakość w tych 16 kHz, czyli z zachowaniem HD Voice,
to już nie jest wcale takie głupie.
Ja jestem ciekawy, czy ten ten player obsługuje HD Voice.
No właśnie, no właśnie, tego też bym się chętnie dowiedział,
ale jeżeli to na przykład potrafiłoby, no już tak się trochę rozmarzyłem,
ale jakby to potrafiło miksować na przykład głos, nasz głos,
z tą oryginalną jakością, plus rozmówce po tym HD Voice.
Kto wie jak to działa, bo to nowo…
No to już by naprawdę było całkiem przyzwoite, jeżeli chodzi o jakość,
bo te mikrofony w tym Sense Playerze to naprawdę nie są złe.
Nie.
No, ale jest to ciekawa, jest to unikatowa funkcja w sprzęcie dla niewidomych.
To trzeba przyznać.
To prawda.
I to taka, której osoby widzące też czasem szukają.
Zwłaszcza jak mają iOS-a, chociaż i na Androidzie to już teraz jest problem.
Słyszałem właśnie, że coraz większy, tak.
Tak, więc no to może być naprawdę ciekawy powód, żeby to urządzenie też kupić.
Blindshell’a sobie można kupić, jak ktoś chce nagrywać,
bo Blindshell akurat pozwala na to.
Nie, bo trochę taniej nawet wychodzi.
No, to prawda.
Do samego nagrywania, tak.
O Blindshell’u jeszcze dzisiaj powiemy.
A jeszcze taniej to jest Vocaster też, nie?
No tak, jeszcze Vocaster.
No i Blue Driver jeszcze jest też.
No będziemy strzelać z łuku do chowara.
Tak, no co tam, można.
Dobrze, słuchajcie, mamy telefon, mamy Patryka na łączu
i Patryk pewnie o jakichś grach nam będzie chciał.
Patryk pewnie zagrał przez święta w The Last of Us na GeForce.
No właśnie, ciekawe jak to poszło.
No to zaraz zobaczymy.
Zaraz zobaczymy, tylko odbierzmy połączenie od Patryka.
No Patryk na razie się jeszcze do nas łączy.
O, już chyba zaraz się uda.
Jeszcze tylko…
O, Patryku, czy nas słyszysz?
Słyszę was, słyszę.
No to my cię też.
Dobrze, no to ja tutaj jak zwykle do was przychodzę
ze światem rozrywki, jak to ja.
Powiedziałem tydzień temu o The Last of Us,
że miało się pojawić na GeForce Now.
No niestety nie pojawił się.
No też chyba.
Nie pojawił się, ale on się pojawi.
To akurat jestem pewien, bo już są informacje na ten temat.
Nawet znalazłem serwis taki,
który on może powiadamiać nas poprzez maila,
jak sobie założymy konto,
czy dana gra się pojawiła, czy nie.
Natomiast tam są jeszcze problemy z optymalizacją.
Ja właśnie ostatnio sobie gadałem
tutaj z naszym kolegą redakcyjnym,
Tomkiem Tworkiem, który właśnie mówił,
że pomimo tego, że ma bardzo dobrą kartę graficzną
i dobry sprzęt, to ma bardzo długie loadingi shaderów
i w ogóle krasze po prostu zdarzają się nagminnie tam.
Także ludzie bardzo na tego The Last of Us narzekają.
Oni to patrzują, natomiast jest to problem.
No i podejrzewam, że to jeszcze nie jest gotowe,
ale ma się to pojawić na GeForce Now.
To taka pierwsza rzecz.
Druga rzecz. Nie wiem, czy mówiliście tydzień temu
o aktualizacji do gry Brock The Investigator.
Chyba nie chce się też powtarzać.
A nie, słusznie, że zauważyłeś,
faktycznie duża aktualizacja się pojawiła i no właśnie.
Ja jeszcze nie miałem okazji jej przetestować.
A ja miałem.
No to możesz śmiało powiedzieć, co tam się zmieniło.
Tak, no to pierwsza rzecz, która ucieszy tych,
którzy z angielskim nie są za pan brat,
albo których ten angielski nie jest aż tak dobry,
co mogę ja o sobie na przykład powiedzieć.
Ja mam problem tam czasami z zrozumieniem,
jak leci szybko tekst.
A wiadomo, Anglicy czasem potrafią szybko mówić
i niekiedy to jest czasami ciężko zrozumieć.
No to teraz odetchnijcie z ulgą,
bo nie będziecie musieli nawet używać OCR-a.
Jest wyżej schowek.
Czyli dosłownie każdy tekst, wszystkie napisy,
wszystkie menu są kopiowane do schowka.
Wystarczy jakiś czytnik, czytnik schowka.
Na stronie Brocka,
ja teraz nie pamiętam dokładnie adresu,
jak to tam było,
ale podejrzewam, że na stronie Brock the Investigator,
tej gry, znaczy na stronie oficjalnej jest link,
chyba Accessibility on się nazywa.
I tam w opisie jest link do pluginów, do Dropboxa,
gdzie można pobrać, znaczy to nie są pluginy,
tylko to są te takie programy,
Clip Reader, tam jest Clip to SAPI.
Potrzebujemy czegoś, co nam automatycznie przeczyta po prostu schowek.
A taka jest informacja dla tych,
którzy używają czytnika ZDSR,
bo ZDSR ma coś takiego jak historię schowka,
czyli wszystko to, co kopiujemy do schowka
pod ZDSR plus R się zapisuje.
I jeżeli ktoś sobie nie życzy,
że na przykład to, co z Brocka wychodzi,
żeby się tam zapisywało,
to można wejść w ustawienia z ZDSR,
następnie menu ogólne
i z menu ogólne wybrać sobie
przechowuj historię schowka
i tam jest domyślna chyba wartość 100
i to należy przestawić na 0.
I wtedy już nie będzie.
Twoją drogą byłoby fajniej,
gdyby Developer dodał opcję po prostu dodawania
wykluczeń konkretnych aplikacji.
Ja już gadałem z Arkadiuszem,
który jest supportem,
jakby ktoś nie pamiętał,
i on to zgłosił i zostanie to dodane
prawdopodobnie w następnym patchu.
Także to.
No i co jeszcze?
Jak kogoś irytowało
chodzenie po tych miejscach w Brocku
za pomocą strzałek lewo, prawo,
góra, dół,
no to może sobie włączyć
opcję w menu Accessibility,
która to opcja
umożliwi chodzenie w prawo i w lewo,
czyli takim systemem scrollowym.
Natomiast pozostaje jeszcze rzecz irytująca,
czyli nadal trzeba w taki nielogiczny sposób
chodzić we wszystkich menu,
gdzie są zagadki logiczne.
Mnie osobiście to wkurza strasznie
i czasami naprawdę robię
skip action scene,
skip puzzle, bo po prostu…
Znaczy mogę spacją oczywiście
sprawdzać, co tam jest,
ale szukanie, zwłaszcza tam,
gdzie trzeba jakieś liczby
powpisywać, jakieś coś,
a tego jest dużo, no jest jeszcze problematyczne.
Ja logiki w tym menu nie znalazłem żadnej.
Czyli co, czasem trzeba iść strzałką w górę,
czasem w dół, czasem w lewo, czasem w prawo.
I w ogóle to jest najśmieszniejsze.
Jest jakiś puzzle, gdzie na przykład
jestem na liczbie 3.
Zrobię strzałkę w lewo,
no to ląduje na liczbie na przykład,
no tam 2, ale zrobię strzałkę w prawo,
to ląduje na przycisku wstecz
z jakiegoś powodu back.
Jak zrobię w lewo od back,
no to na przykład jestem na liczbie 5.
Czyli jakby te elementy tego puzzla
nie mają takiego stałego kształtu,
ułożenie tych elementów,
do którego można by się jakoś odwołać
i sobie nawet wyobrażać, że okej,
jeżeli to jest kwadrat,
to to zawsze jest kwadrat.
I wiemy mniej więcej, czego się możemy spodziewać.
Zawsze to jest inaczej.
No to jest pokusem, są błędy.
I na jakiejś zasadzie
szuka następnego, poprzedniego elementu,
więc może tam po prostu coś minimalnie
idzie do góry, do dołu
i coś gdzieś czasami się pogubi.
No ale właśnie to jest to fajne w tej grze,
że jest ta opcja pominięcia rzeczy,
z którymi mamy problemy.
Więc jeśli chcemy frustrować,
to musimy zbawić się tą fabułą.
I jeszcze jest jedna rzecz fajna,
która niestety jest w Sequence Stormie,
jest taka rytmiczna gra Sequence Storm,
gdzie tam zdaje się,
że czegoś poniewidomemu
nie jesteśmy w stanie zrobić
i chyba za to jest jakieś,
jeżeli coś tam wyłączymy,
to jakiegoś osiągnięcia nie zdobędziemy.
Jesteśmy za to ukarani.
I tutaj nic nam się w osiągnięcia
nie wpisuje,
jak skończymy przygodę,
jak zaczęliśmy z tego pomijania.
Po prostu twórca stwierdził,
no dobra, są ludzie,
którzy lubią łamigłówki,
są tacy, którzy ich nie lubią.
W Last of Us zresztą
jest podobnie, jeśli tam też
deweloperzy zresztą się chwalili
tym, że nawet te trofea tak zwane,
bo akurat tak się tam na Playstation to nazywa,
no to są tak zaprojektowane,
że nawet jeśli ktoś korzysta z funkcji dostępności,
to je zdobędzie.
Ja zresztą też pomijałem niektóre zagadki
w Last of Us, przynajmniej jedną albo dwie.
I faktycznie dostałem
później osiągnięcie za przejście całej
głównej kampanii.
I to jest akurat w porządku.
Ja próbowałem wpisać stwórcom Sequence Storma,
ale jakoś on
nie bardzo wyzwał mi tam,
żeby źle z tego odniósł.
Natomiast jeszcze chciałem wam powiedzieć
o jednej rzeczy, którą
w zasadzie z Tomkiem Forkiem
odkryliśmy całkiem niedawno przed świętami.
Jak ktoś z was
lubi Hadesa
i lubi taką rozgrywkę jak w Hadesie,
to jest produkcja bardzo podobna,
tyle że
w formie side-scrollera.
Nazywa się to
Spiritfall.
To jest gra na PC,
przynajmniej na razie, i jest ona we wczesnym
dostępie.
I już mogę powiedzieć, że autor jest
zainteresowany dostępnością,
jest otwarty na sugestie.
Na dzień dzisiejszy jest to produkcja
na razie zwybrakowana, ponieważ
nie mamy wielu dźwięków.
Na przykład brakuje dźwięków
od kroków.
Jak jesteśmy w biomie, czyli w tym,
co przechodzimy, nie słyszymy,
jak nasza postać się porusza,
jak poruszamy postacią,
ale to nie jest akurat problemem.
Za to słyszymy na przykład, jak skaczemy
po platformach, jak schodzimy
z platform, no to słychać to.
No i walki
wrogowie też nie mają
dźwięków, kroków jeszcze,
ale jesteśmy w stanie z nimi
normalnie walczyć, bo ich słyszymy
w stereo, więc tutaj akurat nie jest
to problemem.
OCR tutaj działa bardzo ładnie,
bo jeżeli jesteśmy
na jakiejś nagrodzie,
którą za każde wyczyszczenie
pokoju sobie przejdziemy,
to poruszamy się po tym
lewo i prawo, i co jest
fajne, to to, że to menu nie jest
zawijane, czyli jeżeli jesteśmy na samym
początku, po lewej stronie
zostaniemy
i tak samo jak przejdziemy na prawo,
jeżeli najedziemy na jakąś opcję,
to pod wszystkimi opcjami
mamy podpowiedź, co dana
nagroda nam daje,
co dane ulepszenie
nam daje.
Tak samo, jeżeli na przykład jest
wiele pokoi, ja co prawda
do tego nie doszedłem, ale jeżeli jest
więcej niż jeden pokój,
wyczyścimy już
ten pierwszy,
no to pojawia się nam lista pokoi
dostępnych, które też możemy przesuwać
lewo i prawo, i jeżeli
chcemy do jakiegoś pokoju
wejść, jak dociśniemy Enter
tudzież Interakcje,
to zostaniemy tam przeteleportowani
do tego miejsca.
Jedyne z czym możecie mieć problem,
na razie nie grajcie z klawiaturą,
bo
jest taki błąd, że
przycisk odpowiedzialny za
interakcje uaktywnia jakiś
atak postaci,
który jest w ogóle pod klawiszem C jeszcze
oprócz tego.
Więc możecie się czuć skonfundowani,
bo zejdziecie z platformy
w tutorialu i okaże się, że
zamiast wejść w interakcję
z przyciskiem Next,
który nas przenosi dalej,
będziecie wyłączać jakiś atak.
Także na padzie
polecam na razie,
chyba że ktoś będzie mieć na tyle cierpliwości,
żeby sobie przemapować to jakoś.
No ja już
byłam pada generalnie od jakiegoś czasu,
więc nie bawiłem się
tym aż tak, natomiast jest na razie z tym
problemem. No to powiedziałam, to jest wczesny dostęp.
Produkcja
kosztuje 72 zł,
znaczy kosztowała do jakiegoś czasu,
bo tam była jakaś promocja.
Teraz może chyba
z 80 zł kosztować, czy jakoś tak,
bo tam była
jakaś obniżka o 10%,
dobrze pamiętam.
No,
potem oczywiście jak wyjdzie to
za parę miesięcy, bo
twórcy tyle dają, no to oczywiście cena
jeszcze bardziej się podniesie,
bo to tak jest zawsze.
Natomiast warto dać szansę,
jest Discord,
można na tym Discordzie zgłaszać
błędy dostępności
i
zobaczymy, do czego to
zmierza,
do czego to będzie zmierzać,
co twórcy z tym zrobią,
ale są otwarci na sugestie i to jest…
Można mieć nadzieję, że
jeszcze jakieś opcje dojdą, zwłaszcza, że to jest
Early Access, więc jest większe prawdopodobieństwo,
że coś się jeszcze
uda osiągnąć.
Tak, tym bardziej, że twórcy
są otwarci
na to i się tym zajmą.
Także
to tyle
z takich nowości, natomiast
mam dla ciebie takie pytanie, nie wiem, czy ty się
bawiłeś już tym jakoś
bardziej Mortal Kombat
mobilnym?
Średnio.
Bo tam mam problem z zadaniami,
bo tam się wchodzi w te zadania poboczne
i już to pisałem,
że ta pierwsza wieża
z jakiegoś powodu ma wygaszony przycisk.
Jakby da się w inne
wchodzić
i na przykład jest…
Czy próbowałeś przedrozpoznawanie ekranu, czy może
jest jakiś bug w
dostępności po prostu?
Więc nie wiem, znajdź ją palcem, spróbuj wyłączyć
voice overa, spróbuj przez
rozpoznawanie ekranu, może trzeba jakoś ekran przewinąć,
to też można…
Zdaje się, że do rozpoznawania ekranu
trzeba będzie język zmienić, bo ja mam
iPhone’a po polsku.
Przyciski to
można rozpoznać, aczkolwiek
nie wiem, jak to jest teraz.
Czy on w końcu
jakiś OCR wykonuje, jak nie mamy
angielskiego języka
ustawionego?
Nie, OCR
nie robi,
ale kontrolki. Kontrolki
rozpoznaje, coś tam jest
w stanie, natomiast to mam wrażenie,
że od tylu
wersji iOS’a, jak jest
to rozpoznawanie, no to w wersji polskiej
to się ani na język nie poprawi.
No pewnie dopóki nie będziemy mieli oficjalnego
OCR’a polskiego w polskim języku,
jeszcze nie mamy, w najnowszej wersji ukraińskiej
doszedł język na przykład, no ale polskiego
jak nie było, tak nie ma, no to pewnie to się nie zmieni.
A swoją
drogą
tragicznie i tak to nawet działa
w wersji angielskiej ten OCR,
bo ja próbowałem w wielu rzeczach
i na przykład jest taki problem, że nie da się w coś
kliknąć, mimo że kliknąć
powinno się,
teoretycznie powinno się dać.
No to jest tylko narzędzie, jak w wiele innych
rzeczy, więc to jedno, a druga
rzecz jest taka, że tak naprawdę ja czytałem kiedyś
post, jak Apu
przygotowało to narzędzie
i oni nawet podkreślili
to konkretnie, że oni to zastosowali na
aplikacjach i na grach. Grach jednak
troszeczkę, niektóre przyciski może trochę
inaczej wyglądają i
to też ma wpływ, no to nie zawsze działa na 100%.
Tutaj masz rację, czasem to działa,
czasem nie, ale
zdarzyło mi się wiele razy, że to narzędzie
mi pomogło czasami.
Częściej w aplikacjach niż w grach, ale w
niektórych grach też.
No to właśnie, w aplikacjach
to to jeszcze ma
jakoś tam, jakoś to
sens.
To rozpoznawanie, no lepiej chyba się
ma Android, ten komentarz
i screen reader podobno.
To tam
z tego co wiem działa lepiej.
No to myślę, że takie bardziej typowe OTF,
nie?
Tam chyba nie ma takiego rozpoznawania jak
w iOS, że tam próbuje
przyciski na przykład, czy
przełączniki rozpoznawać.
Jest wizualny ekran,
to znaczy można zrobić OCR
całego ekranu, nawet jest
coś co się nazywa Continuous OCR,
czyli on będzie robił Ci ekran za ekranem.
Natomiast
to jest, czy to jest już offline
tego na przykład, nie wiem.
Podobno jest.
Ja już też nie mam kontaktu z tym programem od
niewielkiego czasu.
Ale coś jest i to od początku był
jakiś taki rozpoznawany ekran.
Nie wiem, czy było tutaj wspominane
o Twitterze i o
Twiskake’u.
Nie, ja nie chciałem o tym wspomnieć, ale dzięki
Patryku, że wspomniałeś.
Działa znowu Twiskake,
nie wiadomo na jak długo, on
posługuje się jakąś autoryzacją
z Maca chyba.
Spring też jeszcze ponoć działa, Michał Kasparczak
do mnie pisał.
Spring będzie działać.
Spring na ten moment działa.
W końcu mamy wiosnę.
Tak, tak.
Właśnie mam.
Nie wiem, czy ktoś z was korzysta
z mobilnego Twittera, bo
ja mam z jedną osobą problem,
którą śledzę na Twitterze, mimo że ta osoba
nic tam takiego
nie publikuje strasznego.
To jak wejdę sobie w Twitty, to jest
pokazane, że ta osoba może
umieszczać treści,
które są
niedozwolone,
czy coś takiego. To jest coś,
co możesz ustawić sobie
na profilu zarówno ta osoba i ty,
czy na profilu jest opcja,
w której zaznaczasz, że możesz
czasami publikować
takie treści, które mogą być nieodpowiednie
dla niektórych osób. To jest po prostu pole wyboru,
więc nawet jeśli taka osoba nic nie pisze,
musiała sobie to w profilu włączyć.
A w drugą stronę, ty możesz
sobie w ustawieniach, ja teraz nie przypomnę sobie
na jakiej zakładce to jest, ale gdzieś tam
jest opcja, żeby domyślnie
wyświetlanie takich kont, takich
zdjęć włączyć sobie.
W ogóle zauważyłem, że Twitter
ostatnio zaczął
powiadomieniami różnymi
dziwnymi sypać o różnych
twittach od osób, które
niekoniecznie śledzę i o treściach bardzo
dziwnych,
niby rekomendowanych.
No i co ciekawe,
ten algorytm
rekomendowania
tweetów to nawet został
opublikowany gdzieś
w sieci. Ileś
analiz było już
równocześnie na ten temat.
Tak, jak ktoś
jest zainteresowany, to jest
sporo artykułów, można się czytać jak
to ma działać, jak to działa.
Nie wiem, co pan Musk
zamierza z tym dalej, z tym Twitterem
zrobić, ale na szczęście, mimo
że tam zostali ludzie od dostępności
zwolnieni, to jeszcze na razie
dostępność nie ucierpiała.
No bo na razie prawdopodobnie
nie ucierpiała tak siłą rozpędu,
bo po prostu wszystko
działa tak, jak działało.
Pewne rzeczy, okej, zostały powyłączane,
ale nie zostało w samym
Twitterze jakichś takich
dużo chyba
zmian w obszarze interfejsu
wprowadzonych. Na razie tak.
My też mamy szczęście, że akurat
to wystarczy, że
aplikacja ma opisane przyciski, bo
na przykład osoby niesłyszące już mają
większy problem, bo
Spaces stracił
opcję transkrypcji. Prawdopodobnie
dlatego, że żeby chcąc częścić koszty,
no bo jednak to kosztuje, po prostu
Twitter przestał płacić
za, nie wiem,
jakie oni firmy akurat używają, ale
to na pewno nie było darmowe, więc to, żeby
cząć koszty, to się
tej opcji pozbyli, więc
jeśli ktoś chciał sobie
wejść na te Spaces
i widzieć, co się dzieje, a nie słyszy,
a nie może akurat słuchać, no to
tutaj już
jakieś braki się pojawiły niestety.
Jeszcze mam miłą informację
dla użytkowników
aplikacji Tuning Radio,
znaczy ogólnie
tej usługi Tuning.
Mam wrażenie,
że potaniała subskrypcja premium
miesięczna,
bo kiedyś ta subskrypcja
premium miesięczna, to tam było
jakaś horrendalnie wysoka, co tam jakieś
dwadzieścia coś złotych
za miesiąc,
a teraz za miesiąc jest tylko
8,99.
To na iOS-ie, tak?
Czy w ogóle w przypadku Tunina to tam
jest sens za cokolwiek płacić?
To znaczy oczywiście, jeżeli ktoś jest
w Stanach, to
tak, ale…
Może dlatego w Polsce to staniało,
bo nie mają tych licencji sportowych.
No, ale to
chociażby dla tych, którzy
angielski znają i którzy…
Ale nie wiem, czy właśnie
czasem, bo w Tunin przecież są podcasty
też.
I nie wiem, czy w przypadku właśnie premium
nie dostajemy w ogóle dostępu do tych
podcastów.
Bo ja mam to premium
już jakiś czas.
Nie wiem, czy one w Polsce są, bo angielskie
są, ale pytanie, czy są dostępne w Polsce.
Jakość włączenia?
Oczywiście.
Ja próbowałem jakiś audiobook
sobie odtworzyć i
odtworzył się.
Działał na premium,
także…
Jeżeli ktoś
rozumie ten
angielski i lubi sport…
Ale też
premium, no to przecież też
jest brak reklam, bo Tunin Radio
on nam nie dość, że
świetla za każdym uruchomieniem, co
mnie wkurza bardzo, taką zachęca,
żeby kupić, to jeszcze są reklamy
w samej aplikacji.
Mi się na głośniku Echo
czasami zdarzają, jak poproszę
asystentkę w jakieś radio, nawet
polskie, to czasami faktycznie
reklamy się też puszczają.
No właśnie, a w premium tych reklam
nie mamy. Jeszcze jest jakaś w ogóle subskrypcja
ostatnio doszła, Tunin Explorer.
Ale tego
nie znalazłem w Polsce nigdzie.
Nie wiem w ogóle, co to jest, co oni wymyślili.
Ale jest coś takiego.
Natomiast mówię, 9 złotych
tylko miesięcznie kosztuje,
także można spróbować.
No to dzięki Patryku za te
informacje. Czy jeszcze coś
dla nas masz ciekawego?
To wszystko.
To bardzo ci dziękujemy za to, że do
nas zadzwoniłeś, no i
do usłyszenia.
Pozdrawiamy.
Jeszcze może a propos Brocka, to też
taka informacja, że jeśli ktoś chciał sobie tą grę
kupić na konsoli, to
teraz jest na promocji
na wszystkich konsolach jest 20%
tańsza, więc jeśli ktoś…
do końca kwietnia. Więc jest trochę czasu,
jeśli chcieliście sobie tę grę kupić na komputerze,
wolicie na konsoli grać, no to
można ją kupić
teraz taniej.
Przechodzimy do iOS-a, do nowości,
jeżeli chodzi o aplikacje w tym systemie.
I tu co nieco ma dla nas
Paweł. Zgadza się i skoro
Piotrze mówisz o promocjach, to ja też wspomnę
o czymś co jest na promocji jeszcze do jutra,
więc jeżeli nas słuchacie na żywo,
to możecie mieć szczęście.
Dzisiaj jest 12 kwietnia,
do 13 jest promocja
na aplikację Gentler Streak.
Gentler Streak, czyli
aplikacja fitnessowa,
nagradzana przez samego Apple’a nawet
chyba kilkukrotnie, ale na pewno
raz w zeszłym roku.
Która to aplikacja właśnie w swojej
najnowszej wersji, w wersji 3.04
doczekała się usprawnień dostępności.
I to po wszystkich
aspektach, bo nie tylko voiceover, voiceover
też, ale też wsparcie
czcionki dynamicznej, wsparcie
kontrastów, kolorów,
wsparcie zredukowanego
ruchu,
wsparcie
assistive touch na watchu, bo oczywiście
aplikacja na watcha,
która tej aplikacji dłużej na iOS-a
towarzyszy, również ozyskała te same
usprawnienia. No i jest to
taka aplikacja fitnessowa, która gdzieś
kompleksowo podchodzi do tematu
naszego zdrowia, odpoczynku, snu,
pokazuje nam dość rozbudowane
statystyki, wyznacza nam jakieś zadania,
pozwala nam tym zdrowiem naszym
i ćwiczeniami zarządzać.
Oczywiście jest jej wersja
darmowa, natomiast pewne funkcje odblokowujemy,
no jak to zwyczajem się
już stało w dzisiejszych czasach,
abonamentem premium.
Co ciekawe, aplikacja ma również opcję
wykupienia jej raz na zawsze,
natomiast są też te opcje abonamentowe
i właśnie opcja abonamentowa
roczna do jutra
jeszcze jest 50% taniej, więc tu możecie
też, jeżeli jesteście
zainteresowani
właśnie śledzeniem waszych aktywności
sportowych i zdrowia, no to
jest taka nowa aplikacja, która stała się dostępna,
właśnie Gentler Streak
i możecie sobie spróbować jej
po troszkę tańszej cenie
na rok.
To jeśli chodzi o Gentler Streak,
natomiast druga aplikacja, aplikacja
Please Don’t Rain,
aplikacja do sprawdzania pogody,
autorstwa tej samej
osoby, która stworzyła wcześniej aplikację
Food Labs do śledzenia naszych nawyków żywieniowych,
ja o niej mówiłem,
jest to deweloper, który
zainspirowany
prezentacjami podczas WWDC
postanowił wejść w dostępność
i uczynić swoje aplikacje
bardziej dostępnymi, no tutaj mamy
oczywiście dość prostą aplikację,
bo aplikacja, co ciekawe, tak bardzo
dba o naszą prywatność, że nawet nie
sprawdza naszego położenia i to my musimy
ręcznie zdefiniować w jakim mieście i na jaki dzień
chcemy sprawdzić pogodę
i w wersji darmowej po prostu
możemy to sprawdzić, w wersji
premium możemy,
jeżeli tak to zostawimy, pozwolić
aplikacji uaktualniać automatycznie
te dane, czy po prostu otwierając aplikację
patrząc tam i patrząc, czy też
przez widżety, które możemy sobie umieścić
na ekranie głównym, na ekranie blokady,
natomiast aplikacja
jest ponoć zoptymalizowana
pod kątem voiceover, a
przeróżne wskaźniki, które nam pokazuje, czy to
wskaźnik UV, czy nawet
godzinowe wskaźniki
częstotliwości
opadów
i przeróżne inne parametry
pogodowe, które są nam podawane, są
podawane w formie wykresów i tutaj
deweloper starał się
te wykresy uczynić też dostępnymi w formie
właśnie audio, używając tego
aplowskiego API, które
zostało udostępnione, no więc
można się tutaj już
posiłkować i można próbować.
Nie wiem z jakiego
API korzysta aplikacja
co do pobierania danych pogodowych,
natomiast
myślę, że można przetestować, czy działa ona
w Polsce, no jeżeli
będzie to wspierane w API, to też
będą nam przesyłane alerty pogodowe,
gdyby coś się stało, no więc
wygląda na to, że tutaj Weather Gods
rośnie jakaś konkurencja drobna,
może na razie drobna, bo to dopiero
początki, no i
możecie sobie zobaczyć Please Don’t Rain
również w App Store.
No to rzeczywiście
całkiem pokaźna kolekcja
newsów, jeżeli chodzi o aplikację,
może znajdziecie
coś dla siebie, albo dla
miłośników pogody, albo innych
rzeczy, chociażby
zdrowia gdzieś tam,
a teraz przechodzimy do
następnych, następnych tematów,
mianowicie
temat mój,
dotyczący
tego, że
WebAIM, czyli ci, którzy stworzyli
chociażby takie narzędzie jak Wave,
przebadali po raz piąty,
po raz piąty
milion
stron głównych,
najpopularniejszych na świecie,
no i
sprawdzili oczywiście ich dostępność,
jeżeli chodzi o
tę dostępność, jak to
wygląda, jest ponoć
nieznacznie lepiej,
natomiast
no nie jest jakoś
też szałowo, ta
dostępność nieznacznie się poprawia,
ale
teraz kilka słów o wynikach, o tym
jak to wszystko wygląda,
ja oczywiście nie będę przytaczał wszystkiego,
bo będziecie
sobie mogli szczegóły przeczytać w
raporcie, który WebAIM na swoich stronach
opublikowało i tam
możecie sobie to posprawdzać,
ja tylko jeszcze dodam, że
i oni zresztą o tym napisali
również, że to trzeba
też te raporty
i te badania dostępności
tak
nie do końca traktować
jako
jakąś wyrocznie z kilku
powodów, przede
wszystkim nie wszystkie
wytyczne WCAG
da się sprawdzić automatem
i to jest najważniejsza kwestia,
tu
zostały sprawdzone i
zostały przetestowane tylko
te rzeczy, które da się sprawdzić za
pomocą narzędzia automatycznego, za
pomocą WAVE-a, natomiast
pozostałe
rzeczy, gdyby chcieć
sprawdzać, do tego trzeba by było
zaangażować testerów,
którzy to
no wiadomo, po pierwsze
nie będą pracować za darmo, a po
drugie będą pracować zdecydowanie
zdecydowanie wolniej, więc
na pewno nie udałoby się w jakimś
rozsądnym czasie aż
tego tyle
przetestować.
No i jak to tu wygląda?
Średnio 50
średnio 50 błędów
na stronę się pojawia,
na stronę główną oczywiście
danego serwisu.
Od ostatniego badania zwiększyła się
złożoność stron głównych,
jest na nich więcej elementów
niż w badaniach poprzednich,
no i tu taka
ciekawostka, średnio co 21
element na takiej stronie jest
niedostępny i to
jest ujęte bardzo ogólnie,
że jakiś z tym elementem
jest problem. Czy to jest przycisk,
czy to jest link
bez jakiejś etykiety, bez opisu,
czy to jest jakiś
element, który jest
klikalny, do którego nie da się
dotrzeć za pomocą klawiatury,
czy to jest
jakiś obrazek bez tekstu alternatywnego
i tak dalej, i tak dalej.
Więc średnio co 21 element
ma problem z dostępnością.
96,3%
badanych
stron miało
jakikolwiek problem
z dostępnością, więc
tam się te błędy tak czy inaczej pojawiały,
no więc spory
odsetek tych stron.
Jest
jakiś nieznaczny progres,
jeżeli chodzi o tę dostępność,
bo to się zmniejsza.
Tam na przykład
jakiś czas temu było 97,
teraz właśnie mamy tu 96,3,
no ale to sami przyznacie,
nie jest jakoś
bardzo, bardzo dużo.
To znaczy dużo
stron jest po prostu
z problemami różnego rodzaju,
dostępnościowymi, a to tylko te problemy,
które da się z automatu
zbadać.
I teraz
jeszcze co do tego,
z czym jest największy problem?
Okazuje się, że z kontrastem,
czyli coś, co nas nie dotyka,
natomiast dla osób
słabowidzących to już jest zasadniczo
kłopot.
83,6%
stron ma problem
z niskim kontrastem.
Na przykład jeszcze z takich
interesujących rzeczy
to się zwiększyła ilość
obrazków na stronach internetowych.
Na stronach internetowych
zwiększyła się o
9,1%,
a 22,1%
obrazków
badanych na tych stronach
internetowych było bez
tekstu alternatywnego.
Generalnie, tak jak wspomniałem,
te strony stają się
coraz bardziej skomplikowane,
strony główne,
i ma to przełożenie też na
ilość różnego rodzaju elementów,
bo na przykład też,
jak czytałem w tym badaniu,
mamy chociażby zdecydowanie
więcej elementów interaktywnych,
niż w badaniu poprzednim.
Więc te strony stają się takie
coraz bardziej interaktywne,
coraz więcej jest różnych elementów,
z którymi można coś zrobić,
czyli nie tylko kliknąć w link,
ale na przykład wypełnić jakiś formularz,
dokonać jakiejś decyzji,
dokonać jakiegoś wyboru.
Mam trochę wrażenie, że być może część
z tych stron
i z tymi formularzami,
i z takimi przyciskami różnego rodzaju,
to mogło się to stać
poprzez te komunikaty o ciasteczkach.
Być może się…
To samo pomyślałem.
I to może być właśnie to,
dlaczego te strony są coraz bardziej interaktywne,
bo często te
banery
różnego rodzaju, to zamyka się
nie linkiem,
tylko właśnie przyciskiem.
Więc być może
tu jest jakiś problem.
Jest newslettery, coś jeszcze.
Tak, albo newslettery, dokładnie.
Jeżeli chcecie poczytać sobie,
jakich więcej jest różnych problemów
z dostępnością
i czego jest
najwięcej, czego występuje,
ile i gdzie.
Łeben całkiem fajną taką notatkę
przygotował, całkiem fajny raport.
Można się z nim zapoznać
i tylko jeszcze raz przypominam,
pamiętajcie, że to było badanie
automatyczne. Tu nie zostało uwzględnione
wszystkie kwestie
związane z dostępnością.
Tu na przykład
nie były analizowane
chociażby kwestie
dostępności materiałów audio,
materiałów wideo i podobnych
rzeczy, więc
no niestety,
mimo tego, że tu 96,3%
witryn ma
problem z jakimś
elementem dostępnościowym, to tak
mi się wydaje, że chyba
większość, jak nie wszystkie
strony internetowe
gdzieś tam jakiś problem
dostępnościowy taki czy inny będą miały
i nie od rzeczy jest
tu to słynne stwierdzenie, że
dostępność to nie jest coś, co robi się raz,
tylko dostępność to jest
po prostu proces, który się
wdraża i
który cały czas trwa i jeżeli pojawia się
coś nowego na stronie internetowej,
no to po prostu staramy się
sprawić, żeby to wszystko
było dostępne dla jak
największej grupy naszych
odbiorców.
Przechodzimy do następnego
tematu. No właśnie
i to jest temat, o którym
już wspominaliśmy jakiś czas temu,
że się pojawiło, że się zapisaliśmy
na listę oczekujących,
a co niektórzy to już nawet dostali dostęp
okazuje się. Kilka słów o
wirtualnym wolontariuszu Be My Eyes.
Pawle. Tak,
tydzień temu jeszcze bym powiedział, że dzięki
podcastowi Mose & At Large, teraz już
trzeba powiedzieć podcast Living Blindfully,
bo tak, w ciągu minionego
tygodnia ten podcast zmienił swoją
nazwę, no nie tylko nazwę, bo też
i stronę internetową, teraz już możemy
go znaleźć pod adresem living
blindfully, living blindfully
przez dwa L
i living przez V oczywiście,
.com. To jest nowa strona
podcastu Jonathana Mosena.
Tak nawiasem mówiąc,
od teraz też podcast ma
no zupełnie nowy player,
który pozwala na
klikanie w rozdziały, trochę
jak u nas, tylko jeszcze u nich to są
elementy klikalne,
u nas są to linki, tak jak to być powinno
i też
nowe logo i tak dalej, no i można
też stać się patronem i sobie
zakupić dostęp premium.
Dostęp premium, który na ten moment
pozwala na odsłuchiwanie
odcinków prędzej, to znaczy
będą one się pojawiały rzeczywiście
dalej, tak w soboty, jak zazwyczaj
dla osób, które
korzystają z dostępu, no tradycyjnym
kanałem, będą się pojawiały na razie
trzy dni później, czyli we wtorek,
następny po tej sobocie, w której
zazwyczaj wychodzi odcinek, no i też osoby,
które są w tym pakiecie premium
będą mogły
dostawać wcześniej informacje
o tym, z kim na przykład będą
prowadzone wywiady na następny odcinek,
więc będzie można zasugerować jakieś
pytania do gości, a nawet
Jonathan rozważa otwarcie
Zooma w momencie nagrywania wywiadu, tak żeby
patroni premium mogli na takiego
Zooma sobie wejść i uczestniczyć na żywo
w takim wywiadzie i zadawać pytania.
Więc no warto
prawdopodobnie, zwłaszcza, że
na ten moment można sobie samemu ustalić
cenę, ile uważamy, że chcemy
wpłacić, oczywiście wpłaty są
miesięczne bądź roczne,
no i w dolarach nowozelandzkich,
ale
myślę, że warto
wesprzeć, bo to naprawdę jest ciekawy podcast,
jest dużo bardzo ciekawych tematów poruszanych,
jeżeli znacie oczywiście
angielski, natomiast ten, który
interesuje nas, to
właśnie wirtualny
wolontariusz Be My Eyes, bo Jonathan, jako
podcaster, bo na ten moment
twórcy, włodarze Be My Eyes
zdecydowali, że jedną z grup, która
będzie otrzymywać dostęp wczesny
są podcasterzy.
Celem, no wiadomo, promocji, przetestowania
na żywo i
zrobienia takiego trochę teasera,
jak to działa i jak to może wyglądać
w wersji finalnej,
kiedy już Be My Eyes się zdecyduje
udostępnić tą funkcję szerszemu
gronu użytkowników.
No i Jonathan troszeczkę
przetestował tego asystenta,
możecie sobie, wirtualnego wolontariusza,
możecie sobie właśnie
w odcinku 222
zdaje się
posłuchać o tym,
ale dla tych, którzy nie chcą słuchać,
ja to bardzo chętnie streszę,
jest ciekawie.
Na pewno jest to bardzo unikatowe podejście
i domyślam się, że tak jak
wiele aplikacji
użytkowników niewidomych
zniechęca, zwłaszcza takich, gdzie w grę
wchodzi aparat, robienie zdjęć
albo kręcenie filmów i rozpoznawanie
czegokolwiek,
no bo tu jednak ta dokładność
już jest wymagana
i jak my coś źle
reagujemy albo nie umiemy,
nie mamy takiego nawyku kierowania kamerą na coś,
to tu się może
nie udać i wiele osób się zniechęca
do tego typu aplikacji.
Tak, tutaj może być ten efekt takiego
natychmiastowego wow, bo aplikacja
otrzymując zdjęcie
i to co ciekawsze,
można je zrobić bezpośrednio
w aplikacji Be My Eyes,
a można też je udostępnić z aplikacji zewnętrznej.
Ona to, właśnie,
jeżeli robimy zdjęcie w Be My Eyes,
no to robimy zdjęcie w Be My Eyes,
ona zostaje załadowane i mamy
pole edycji zadaj pytanie,
więc to nigdy nie jest tak, że my robimy zdjęcie
i automatycznie nam przychodzi
jakiś opis czy coś,
tylko my możemy zadać pytanie.
To jest bardzo ważne, bo
my nie zawsze chcemy
mieć coś opisane, tak,
na zasadzie co to jest.
My chcemy czasami wydobyć konkretną informację
i udostępniając tego wirtualnego wolontariusza
my możemy zadać
konkretne pytanie o to zdjęcie,
no tak jakbyśmy rozmawiali z żywą osobą
na Be My Eyes.
Jeżeli udostępniamy
zdjęcie skąd inąd, z innej aplikacji,
no to wtedy to pytanie
o opis ogólny
jest zadawane automatycznie
i to jest zawsze, po załadowaniu
tego zdjęcia z innej aplikacji, zawsze otrzymamy tą
odpowiedź z tym takim ogólnym opisem,
no ale oczywiście dalej możemy zadawać pytania
już doszczegóławiające.
Po zapytaniu
o opis ogólny zdjęcia
dostajemy ten opis bardzo szczegółowy
i tu Jonathan jako pierwszy przykład
zrobił zdjęcie po prostu
swojego pokoju. No i co, usłyszeliśmy, że jest to pokój.
W którym?
Na pierwszym planie, po lewej stronie
widać coś tam, coś tam, coś tam.
Jakieś tam szafeczki, powiedzmy
szafki, na których ustawione są
dmuchane,
czy tam jakieś porcelanowe
zwierzątka, kwiatki,
książki i coś tam.
Po prawej
znajduje się, nie wiem, też jakaś
szafka, na której znajdują się jakieś tam
obiekty. Na środku
stoi biurko, a na biurku jest komputer.
Przed nim stoi
mikrofon wsparty na,
oczywiście kolory są też jakieś tam podane,
na jakimś tam stojaku.
No dobrze, no to
w tym momencie spróbujmy dopytać o
ten mikrofon. Opowiedz więcej
o mikrofonie. Mikrofon jest koloru
czarnego czy jakiegoś
i jest na srebrnym stojaku.
Prawdopodobnie jest to
mikrofon pojemnościowy.
Tutaj
ponoć Jonathan stwierdził, że to prawdą nie jest
i tutaj do tego warto też przejść,
że kiedy
ten wirtualny
wolontariusz, czyli przez konsekwencje
GPT ma
odwoływać się do jakichś danych faktograficznych,
to potrafi
halucynować i to mocno.
Przykłady tego podam za chwileczkę.
No dobrze,
no zapytał się w takim razie,
czy wiesz jaka to jest marka tego mikrofonu?
No niestety na zdjęciu tego nie widać.
No dobrze, to co powiesz
mi o tych dmuchanych zwierzątkach po lewej?
Jest to
żabka koloru
tam nie wiem, czerwonego
czy zielonego jakiegoś tam,
z całym brzuszkiem, znajduje się
na drugiej półce po lewej stronie.
No i to było już
bardzo konkretne. Żadna aplikacja
do tej pory aż tak dokładnie nie była w stanie
nam tych rzeczy opisać. Ponoć to się tam
z prawdą pokrywało.
No a przynajmniej Jonathan nie zgłaszał, żeby to jakieś
nieprawdziwe było.
W następnej kolejności wziął sobie
opakowanie
jakiegoś dania
z diety pudełkowej zdaje się.
No i zrobił zdjęcie
i zapytał, co to jest?
No i tutaj dostał już pełną informację,
że jest to produkt takiej a takiej
firmy, dieta pudełkowa
taka a taka. OK, super.
I tu już zaczęły się
pytania, czy jesteś w stanie wymienić mi składniki
tej diety?
Co w tym pudełku jest?
No i on chyba się tu odwołał rzeczywiście
do strony internetowej dostawcy,
producenta, bo zaczął
rzeczywiście opowiadać tu o jakichś składnikach.
Jonathan jeszcze nie protestował,
więc zakładam, że była to informacja prawdziwa.
Potem zaczął
dopytywać o jeszcze jakieś tam inne
mikroelementy, czy składniki,
o jakieś jeszcze bardziej szczegółowe rzeczy.
I ponoć już
dostaliśmy informację, że
tej informacji nie ma na stronie
producenta. OK.
Podobno, gdyby się dokopać gdzieś głębiej
po stronie, to by się udało to znaleźć.
Natomiast to jest GPT.
Co prawda jakaś tam opcja przeszukiwania
internetu gdzieś tam niby jest.
Microsoft się czymś tam chwali,
ale umówmy się zbyt głębokie,
to jeszcze nie jest.
No dobrze. Czy możesz mi podać
dane kontaktowe tej firmy?
No i poleciały dane kontaktowe,
przy czym okazało się, że tak, adres e-mail się zgadza,
ale numer telefonu
i adres pocztowy już nie zgadzają się
z tym, co zna Jonathan.
No i prawdopodobnie wynikało to z tego,
że podane zostały dane kontaktowe
do głównej siedziby,
a Jonathan miał dane takie
dla klientów tam
ta linia wsparcia, a też w innym
mieście w ogóle była ta siedziba,
o której on wiedział.
No więc po części może jakieś halucynacje,
po części znalazł informacje jakieś tam
bardziej może oficjalne, może z innego
źródła to wydobył. No w porządku.
No to następny
eksperyment. Pilot do telewizora.
Pilot telewizora Samsung.
Zdjęcie zostało zrobione.
No i teraz pytanie.
Co to jest?
To jest pilot do…
To jest chyba po prostu,
że to jest pilot.
Czy jesteś w stanie mi powiedzieć, do czego jest ten pilot?
Niestety zdjęcie jest zbyt mało wyraźne.
Spróbuj zrobić zdjęcie jeszcze raz.
Oczywiście tutaj też warto podkreślić,
kiedy chat GPT czegoś nie wie,
to proponuje nam, że można nas połączyć
z żywym takim ludzkim wolontariuszem,
bo taki wolontariusz zawsze będzie widział więcej.
To jest bardzo takie odpowiedzialne zachowanie
ze strony tutaj twórców.
No i pilot.
Zrobione zostało.
Nowe zdjęcie, bo mamy tam opcję,
w tej samej rozmowie, nie musimy zakończyć rozmowy,
wyślij kolejne zdjęcie i wtedy możemy
po prostu dosłać jakieś jeszcze jedno zdjęcie,
spróbować coś sfotografować pod innym kątem
i może wyjdzie lepiej.
Czy teraz możesz mi powiedzieć,
co to za pilot?
Wygląda jak pilot do telewizora
marki Samsung.
OK, to się zgadza.
Czy mógłbyś opisać mi
przyciski na tym pilocie
od lewa do prawa, od góry do dołu
oraz funkcje, które wykonują.
I tu już zaczęło się naprawdę fantazjowanie
po całości, bo
były chyba dwie próby
ze strony Jonathana, żeby to opisać
w taki sposób normalny,
właśnie pytając o tego konkretnego
pilota. I za każdym
razem on coś opowiadał,
co jest nieprawdą. Przede wszystkim to,
że na pilocie znajduje się
blok, że
to było tak dziwnie opisane, że
u góry na środku
znajdują się cyfry.
Po lewej u góry znajduje się przycisk power.
Na środku u góry znajdują się
cyfry służące do zmiany
kanału 1, 2, 3, 4, 5, 6 itd.
I tutaj
już zaczyna się problem, bo ten
konkretny pilot
nie posiada w ogóle bloku cyfr.
On posiadał przycisk, na którym było napisane
1, 2, 3, cyferki,
żeby otworzyć listę kanałów.
Być może ta halucynacja zadziałała tak,
że on jakoś
zinterpretował te 1, 2, 3
na tym przycisku, jako że to jest cały blok cyfr.
Byłoby to bardzo dziwne, no ale
cóż. No i parę przycisków
tam źle zinterpretował, który się w ogóle
pominął, który źle opisał.
Kolejna próba.
Dalej pojawiły się cyfry,
ale już coś więcej tych przycisków było.
I w końcu Jonathan zrezygnowany
napisał, że
to jest telewizor Samsung.
Konkretny model. Wpisał jaki model.
Czy mógłbyś opisać rozkład
przycisków pilota i jego funkcje w tym modelu?
I tutaj znowu pojawił się
blok cyfr i znowu
jakieś przyciski, których nie było.
Więc tutaj po raz kolejny
te kwestie faktograficzne
gdzieś się
rozsypują.
Teraz nie wiem, czy czegoś nie pominę,
natomiast na pewno
udostępnione zostały też zdjęcia
z Londynu
i które Jonathan sobie zrobił
podczas wycieczki tam.
No i tutaj już było udostępnienie
z poziomu aplikacji zewnętrznej,
wydaje się z poziomu aplikacji zdjęcia.
I było to zdjęcie
takiego londyńskiego krajobrazu.
Płynie sobie tamiza.
Mamy jakieś budynki
w tle, jakiś most.
No i
oczywiście jako, że udostępniamy
z aplikacji zewnętrznej,
no to pierwsze pytanie już leci z automatu,
bez naszej interwencji.
Co na tym zdjęciu się znajduje?
Opisz zdjęcie. No i dostaliśmy, że jest to
krajobraz. Dokładnie to, co wam powiedziałem.
Krajobraz, tam nie wiem,
w tle budynki, na pierwszym planie
płynie rzeka
i jest, widać też most.
No więc Jonathan napisał,
to zdjęcie zostało zrobione w Londynie.
Czy mógłbyś je jeszcze raz opisać?
Nie zmieniło się to wiele,
oprócz tego, że zamiast rzeka
powiedziane było, że to tamiza.
No okej, w porządku.
Czy mógłbyś coś powiedzieć o budynkach,
które się dookoła nas znajdują?
On wymienił parę nazw budynków i także opisał most.
I tutaj Jonathan
nie protestował. Prawdopodobnie się to
zgadzało.
On tam o ten most się nawet chyba musiał dopytać.
Pamiętam, że pytał się, jaki to jest
most konkretnie. I wtedy mu powiedział.
A może, możliwe. Tak, to jest racja.
Dzięki, że uzupełniłeś. Natomiast wiem też, że
dopytywał potem o takie faktograficzne dane
a propos tego mostu. Czyli kto go wybudował
i tu się dowiedzieliśmy na przykład,
że ktoś go wybudował w konkretnym roku
i nie wiem, czy tam też jakiś styl.
Nie wiem, czy styl budynków też nie był podkreślony
w tych opisach zawsze, że w stylu.
Te opisy były bardzo
takie bogate,
różne szczegóły takie, że aż się zastanawiałem,
czy to jest prawdziwy opis,
czy on też halucynuje przy tych opisach.
Ale było to naprawdę takie szczegółowe.
Natomiast potem było pytanie jeszcze
o kruki na wieży, bo tam
chyba w Tower
można
obserwować takie kruki. Tam one są
nawet jakoś specjalnie dokarmiane. To jest taka
atrakcja. I rzeczywiście ten opis był też
taki, że kruki tam jakiegoś
ubarwienia wyglądają na dobrze
zadbane.
Zdrowe.
To były takie bardzo, bardzo bogate
te szczegóły.
No i na sam koniec
postanowił Jonathan pokazać,
jak sobie radzi
właśnie ten wirtualny
wolontariusz z przeróżnymi
wykresami.
No więc najpierw sfotografował,
bo rzecz tyczyła się głośników
Sonos, właśnie Era 300, które zakupił.
I sfotografował
najpierw stojak do głośników,
bo sobie kupił stojak do głośników.
Udowiedzieliśmy się, że jest to
głośnik Sonos.
Na stojaku też chyba był podany
jego kolor. Już teraz nie pamiętam.
Które coś tam są, nie wiem, czy podłączone.
Wiem, że jakiś
taki szczegół też był podany.
No i padło pytanie,
jak wysoki może być
ten stojak. Tak jakby na jaką
wysokość można go wyciągnąć, czy coś takiego.
I tutaj już stwierdził,
że ani z opisu zdjęcia,
ani z samego zdjęcia, ani z jego
stowarzyszącego mu opisu, nie wynika
ta informacja.
Czy możesz przeszukać internet w poszukiwaniu
tej informacji? Czy możesz zajrzeć na oficjalną stronę
Sonosa? Nie, niestety
nie jestem w stanie zajrzeć na stronę. Czyli
jak poprosimy go o informację,
jak sformułujemy
pytanie, żeby zadać o konkretną informację,
to on coś próbuje wyciągnąć z tych źródeł
zewnętrznych. Jak my powiemy mu wprost,
przeszukaj stronę, on powie, że nie może.
A to ja coś takiego też widziałem
w Bingu.
Też na to się natknąłem.
Ja próbowałem mu na przykład podać,
bo gdzieś wyczytałem
informację o tym, że Bing
potrafi też opisywać
obrazki, jak mu się poda
adres URL. I ja mu
próbowałem podać adres URL
do konkretnego
obrazka, który chciałbym,
żeby opisał, ale
niestety to nie zadziałało, niestety on mi
po prostu cały czas
mówił, że no ja nie mogę tego
obrazka odczytać i tyle.
Aczkolwiek to ciekawe,
niewidome osoby, jak to
GWT4 wyszło, były w stanie
poprosić o jakieś konkretne obrazki
z tytułu, tak wiem, że ktoś
prosił, dosłownie pisał
opisz mi nie wiem, postać Skorpiona z Mortal
Kombata, tak jakbyś chciał
ją opisać osobie niewidomej. I tam po raz
trzeci wychodziło. Tak, Joratan
może też z John Lennonem próbował rzec,
jak wyglądał John Lennon. I tam dostał
taką kompilację
faktów na temat wyglądu
Johna Lennona, jak wyglądały te jego okulary
charakterystyczne, lennonki,
jakie nosił,
bluzki, takie rzeczy.
Natomiast
ostateczny test
GPT w Be My Eyes
polegał na wrzuceniu
znalezionego na reddicie
schematu tego, jak najlepiej
ustawić chyba te kolumny
pod różnym kątem, jakoś tam
jak ten dźwięk przestrzenny
się najlepiej rozchodził.
Są jakieś konkretne ustawienia
pod kątem iluś stopni
i tutaj
porównał nam specjalnie Seeing AI,
który przeczytał, po prostu wyczytał te tekstowe
wartości z tego
powiedzmy takiego wykresu.
Ta legenda tych wykresów. Tam były dwa schematy.
Jeden z Dolby oficjalnie,
a drugi no to tam właśnie te głośniki
Sonosa, jak ustawić obok.
Tak i normalnie
to jest pokazana jakby kolumna
z takimi strzałeczkami chyba
w formie głośniczków, które wskazują
na konkretne wartości.
I właśnie Seeing AI jedyne co zrobiło,
to wypluł nam te wartości tekstowe
bez jakiegokolwiek układu i tak dalej.
Natomiast właśnie GPT to ładnie
rozpisał, że jest to kolumna
z wykresem
coś tam w kształcie głośniczków
wskazujących na ileś tam stopni
po lewej, ileś tam stopni u góry
coś tam po prawej,
ileś stopni po prawej
i ileś tam stopni gdzieś jeszcze na dole.
Więc tutaj już był taki bardzo dokładny
i kontekstowy opis tego
obrazka.
No i jakby to
można podsumować. Opisy, które to
generuje są naprawdę zachwycające,
bo żadna aplikacja do tej pory
nie opisywała tego w takich szczegółach.
I zwracając uwagę
to rozmawiałem ostatnio
z moim kuzynem, który rozglądał się też kiedyś
po grupie
Opisujemy Niewidomem.
No i doszedł do wniosku, że on o tym nie wiedział,
że wiele osób niewidomych
właśnie lubi takie opisy od ogółu do szczegółu
i tak dalej.
I był ciekaw czy właśnie czat GPT
zachował tą cechę ich. Wydaje mi się,
że całkiem nieźle sobie
radzi od takiego ogólnego,
że jest to pokój i tak dalej
do rozpracowywania tego
na takie najdrobniejsze
elementy, że coś jest z której strony,
że coś na coś wskazuje,
że coś ma jakieś cechy
i to te cechy nie ograniczają się tylko do
kolor, wielkość
i coś tam,
tylko właśnie jakieś takie bardziej
wpływające na nasze wyobraźnie
te cechy i te opisy.
No, ale te informacje faktograficzne
czasem mu się uda,
częściej mu się nie uda.
No i oczywiście pozostaje złote pytanie
i tu miejmy nadzieję, że ktoś z nas kiedyś się dobije
do tych testów, nawet jako właśnie
podcast. Jak to wszystko
ma się do języka polskiego?
Ja wysłałem prośbę do Be My Eyes
z naszego
fundacyjnego
adresu mailowego.
No i
skończyło się na wysłaniu prośby w zeszłym
tygodniu. Niestety nadal
nie otrzymałem żadnej odpowiedzi od nich.
Więc, no
może się coś uda.
Jeżeli tak, to na pewno będziemy
się tym bawić i będziemy to
testować, bo sam jestem ciekaw jak to
wygląda. Może
już ktoś jest, kto otrzymał
dostęp do
tego wirtualnego wolontariusza i
chciałby się tymi informacjami
podzielić tu z nami. Może
jakoś komuś się udało.
Nam, z tego co wiem,
żadnemu z nas się to nie udało.
Kilka osób już tu jednak
zapisało się na te listy oczekujących
i wszyscy mamy pending.
No tak. Myślę, że to trochę
jeszcze potrwa, zanim uruchomią
to dla ogółu, bo
tak jak mówili na razie, to są jacyś
zaufani testerzy, plus podcasterzy, plus
jeszcze jakieś tam osoby
zaufane. No zobaczymy
jak to się wszystko zakończy.
Czas pokaże.
Ja widzę, że co jakiś czas próbuje
się do nas dodzwonić ktoś
przez telefon, tylko
ma taką strategię,
że dzwoni, chwilę czeka,
po czym się rozłącza, a to
nie tak działa, bo
my jednak chcąc zachować pewną spójność
tej audycji, to
po prostu odbieramy telefony
w przerwie między
jednym tematem a drugim.
No chyba, że jakoś akurat
jest szansa na to,
żeby ten telefon odebrać
wcześniej, ale taka generalnie jest
zasada, więc te osoby, która
do nas gdzieś tam telefonicznie się
dobija, to po prostu prosimy o cierpliwość.
Wojtek na przykład był cierpliwy,
poczekał i się doczekał.
Cześć Wojtku.
O, jesteś.
Już jest,
nie ma kłopotów, wystarczy tylko się
odciszyć, bo teraz
jest jakoś tak, że jak się tu wchodzi, to
od razu jestem
odciszony i to chyba nie jest
najlepsze, więc od razu to wyłączyłem się
stąd.
Tak, bardzo ciekawe
jest to, co opowiadaliście
o tym
o tym nowym mechanizmie.
Myślę, że to idzie w bardzo
dobrym kierunku.
Ja bardzo byłbym ciekaw,
szkoda, że ten
prowadzący podcastu, jak rozumiem,
ten Jonathan Mosen, nie zrobił takiego
testu, żeby dać obraz
jakiś namalowany,
nawet może być i znany obraz
i ciekawe jakby porównać
to wygenerowane z jakąś
audiodeskrypcją zrobioną do tego
obrazu. Co by było sensowniejsze,
bo rzeczywiście
jak sobie pomyślimy o takiej
możliwości, że dostajemy
dwudziestosekundową audiodeskrypcję,
a potem możemy się dopytać
o te szczegóły obrazu,
które nas interesują, a nie wszystko
co jest od A do Z
wypowiedziane przez lektora,
to to jest coś niesamowitego.
Wyobraźcie sobie chodzenie po muzeach
z czymś takim.
No, to prawda.
Albo nawet gdzieś powiedzmy
na stronie muzeum
jak mamy jakieś eksponaty,
jak mamy zdjęcie jakichś eksponatów,
tak, wirtualne zwiedzanie,
kopiujesz sobie adres obrazka,
wrzucasz to do tego
i proszę mi tu opowiedzieć i mogę jeszcze
zadać jakieś dodatkowe pytania.
No albo, słuchajcie, zakupy.
Chcecie kupić jakiś produkt,
chcecie kupić dla kogoś prezent
i chcecie dopytać o różne szczegóły,
bo znacie preferencje tej osoby. Może być
to biżuteria albo jakieś ubranie, albo
no nie wiem, nawet
czerwony rower, tak, albo jakiś
nawet elektronika. Czy to wygląda
jakoś tam ładnie? Jakiego to jest rozmiaru?
Oczywiście to pytanie,
czy to jest ładne, możemy rozbić na nasze jakieś
wyobrażenie tego i tak dalej.
Natomiast, no właśnie
ten, tutaj o tym też jakoś mi to uciekło,
ten stojak na głośniki, no to czy na ten
wrzucał z Amazona, czy z jakiejś, nie,
ze strony Sonosa? Jako zdjęcie po prostu.
Tak, on po prostu przytrzymał palec na
ten obraz w safari potajże nawet po prostu.
Dokładnie, wypuścił do wolontariusza.
Tak.
Zwłaszcza, że tutaj można się dopytywać, więc tutaj
można by wysłać jedno zdjęcie jednego produktu,
potem wrócić do tej rozmowy, wysłać
drugie zdjęcie, zapytać, a czy, powiedzmy
nie wiem, to jest większe, mniejsze, tak, jakieś
tutaj konkretne pytać.
Jestem bardzo zainteresowany zobaczeniem tego domu,
jeśli to gdzieś jest dostępne. Jeśli by
można było prosić o link, to…
Będzie w komentarzu podany, natomiast jak jesteś
niecierpliwy, to ja polecam
blindfully.com
A, ok, no dobra, to w komentarzu będzie.
Jestem cierpliwy i mam bardzo dużo pracy,
także…
To wzmaga moją cierpliwość
bardzo, wykładniczo powiedzmy.
Swoją drogą, Jonathan
też oferuje transkrypty, więc tam
jeśli ktoś nawet nie zna angielskiego, a chciałby
na przykład sobie przepuścić to przez tłumacza jakiegoś,
to można jak najbardziej.
Kiedyś to było na osobnej stronie, nie wiem jak
jest na tej nowej, szczerze mówiąc, ale
to gdzieś też powinno być.
Musiałbym zobaczyć też, to jest pewnie jakoś dołączone
do odcinka, jak się wejdzie na podstronę
konkretnego odcinka, to jest podlinkowany
chyba transkrypt.
Jonathan oferuje transkrypty, ale mam wrażenie, że
nie do wszystkiego, bo ja pamiętam, że ja kiedyś
chciałem sobie
poczytać konkretnie
ten podcast o
wokasterze, transkrypt tego podcastu
na temat wokastera, bo
pewne rzeczy, pewnych rzeczy
czy nie zrozumiałem, czy po prostu
chciałem się upewnić, czy dobrze
je rozumiem. Był poprzedni,
był następny, tego nie było
i chyba nadal go nie ma.
Oj, no to możliwe,
że była jakaś przerwa, bo tam się zmieniło
sponsoring, kto sponsoruje te
transkrypcje, może akurat… To całkiem możliwe.
Na tą przerwę, ale teraz
mają stałe chyba od Numa Solutions
wsparcie w tej kwestii, więc
raczej każdy odcinek
już ten transkrypt ma, przynajmniej na
Mastodonie, na Twitterze
wyskakują cały czas linki do tych transkryptów.
Wojtku, czy coś jeszcze?
Jestem,
jestem, jestem. Wygląda na to jakby
jakiś dekalarz był.
Tak, mam wrażenie, że z internetem
masz jakiś problem, bo
troszeczkę cię rwie, ale jesteś
zrozumiały.
To ciekawe.
Potem to sprawdzę.
Tak, to jest pierwsza sprawa.
Druga sprawa, to chciałem powiedzieć,
że jestem zachwycony tym audio hijackiem
na Maca. To na pewno
umożliwia tyle rzeczy,
zrobienie tylu rzeczy, że po prostu
szok. Ja zamierzam się
tym bawić. Mówiliście jeszcze o transkrypcjach
teraz, to jeszcze
taką mi dzisiaj kolega poddał
super pomysł na zajęcia
i to dzięki właśnie hijackowi
jest banalnie proste
w realizacji.
Kierujesz dźwięk z przemówienia
na
kabel wirtualny.
Kabel wirtualny podczepiasz
do Google Chrome,
dajesz pisanie głosowe
i widzą twoi studenci,
znaczy moi studenci, widzą
to, co
było w przemówieniu, więc to ich
wspiera w tym, jak
mają tłumaczyć.
Zamierzam to sprawdzić. Może nie
jutro, ale jakoś wkrótce zamierzam
to sprawdzić, bo to jest mega opcja
uważam. Ja jestem ciekaw, czy
jak długo to w ogóle będzie działało?
Czy to się nie wyłączy po jakimś czasie?
Sprawdzałem,
to się wyłączy, ale po
kilku minutach, a ponieważ jest
sprytny skrót klawiszowy,
to wystarczy co te kilka minut
na jedną
dziesiątą sekundy zwolnić
to i wznowić
i będzie działało. To nie jest
rzędu tam, tak jak w dyktowaniu na Macu,
że dwadzieścia sekund i
do widzenia.
Także, słuchajcie,
idziemy do przodu, jest
bardzo dobrze i myślę, że dużo
będzie ciekawych tych zastosowań.
Jeszcze z takich drobnych pytań,
bo ściągnąłem sobie różne aplikacje
do różnych rzeczy i widziałem też
aplikację na Maca od tego samego faceta,
który zrobił Mac Whispera.
Widziałem aplikację do Eleven Labs.
Czy tam jest trudno się zalogować?
Możecie coś powiedzieć,
pewnie już o tym była mowa, ale…
To się Tomek bawił,
szkoda, że go dziś nie ma z nami.
Nie wiedziałem, że jest tego aplikacja,
oni API mają,
pewnie sam proces logowania nie jest trudny,
tam pewnie trzeba gdzieś w ustawieniach wygenerować
sobie klucz API
i pewnie gdzieś w aplikacji
go trzeba wpisać, chyba, że on ma swój.
Bo nawet nie słyszałem
o tej aplikacji szczerze, więc muszę,
będę musiał się przygotować do
przyszłej audycji.
Wojtku, a swoją drogą…
A swoją drogą to ja cię
jeszcze zapytam o to, bo być może
zapomniałeś, ale już kiedyś
prosiłem, żebyś do nas zadzwonił i opowiedział
nam te informacje
i o tej
ciekawostce, o której mi wspominałeś
jakiś czas temu,
mianowicie odnośnie tych różnego rodzaju
ulepszeń na Zoomie i tego,
a właściwie w tych ulepszeniach
w różnych komunikatorach głosowych,
w cudzysłowie,
w ulepszeniach,
które to wcale nie robią
dla nas nic dobrego, przynajmniej w niektórych
przypadkach, prawda?
Tak, tak, to już wiem o co ci chodzi.
Byłem jakieś kilka tygodni temu,
bo ponieważ jesteśmy
jako Instytut Lingwistyki
stosowanej członkami takiego
konsorcjum europejskiego
uczelni,
w których się naucza tłumaczenia
konferencyjnego, no to czasem nas zabierają
różne wybrane
oczywiście osoby, tam
jest jakaś rotacja,
zabierają nas na różne spotkania, gdzie
po prostu jesteśmy douczani różnych
ciekawych rzeczy, no i na tym
spotkaniu najnowszym,
co było w Paryżu,
był taki ciekawy cały segment
na temat dbania
o słuch, bo sprawa
wygląda tak, że podczas pandemii
jest jakaś grupka
tłumaczy w parlamencie,
w instytucjach unijnych, to głównie dotyczy
parlamentu, ale nie tylko,
to, że po prostu nawet w wieku 30
czy 40 paru lat
potracili pracę, bo potracili
słuch od pracy zdalnej
i to nawet nie chodzi
o to, że oni pracowali zdalnie,
bo oni nawet nie pracowali zdalnie,
to pracowali zdalnie ci wszyscy
politycy, a oni siedzieli w tych kabinach,
tam duże są te kabiny zresztą,
tam wiadomo, że politycy
są ważniejsi niż tam jakiś staw,
natomiast potracili słuch
od, prawdopodobnie od tego
i to jeszcze nie mamy do końca potwierdzenia
na ten temat,
prawdopodobnie od tego, nie tego, co
z nich wychodziło i tego, jak
pracowali, tylko od tego, co do
nich przychodziło, co słyszeli
w uszach i prawdopodobnie
tam nawet był taki motyw
w ubiegłym roku bardzo ciekawy,
że był strajk tłumaczy
konferencyjnych w
instytucjach unijnych, no tam
chodziło o różne rzeczy, ale
właśnie bardzo eksponowanym
punktem protestu
był ten słuch, to, że oni po prostu tracili
słuch i to zdecydowanie
częściej niż przed pandemią.
No i chodzi o właśnie te komunikatory,
których my tutaj wszyscy pięknie
używamy i oczywiście
tak jak wy na przykład używacie komunikatorów,
to wiecie, to używa tak
nie wiem, 1-2%
może ludzi,
a ludzie używają tego w sposób
byle jaki, gdzie aktywują te wszystkie
filtry, które Zoom
czy Teams czy inne komunikatory
włączają. Oni nawet nie muszą nic
aktywować, bo to jest właśnie, to jest
problem, że to jest domyślna konfiguracja
tych wszystkich komunikatorów.
No i cóż,
okazało się, że te częstotliwości,
które do nas idą, to są
nawet tam były podane, że częstotliwości
między 3 a 5000 Hz
to są
takie częstotliwości, które
jakby ten facet, który
nam robił na ten temat wykład, porównał to
do takich odleżyn, że to jest troszkę
jak odleżyny, czyli jak ciągle
nawalasz na jednych częstotliwościach
w to ucho, to
ja zastrzegam oczywiście, że
nie jestem specjalistą, w tym po prostu
raportuję to, co udało mi się zapamiętać
z tej prelekcji.
No to po prostu w końcu to ucho
przestanie słyszeć.
W końcu się tam dokonają jakieś
procesy szkodliwe.
No i teraz jest
po prostu tak, wprowadzona
no parlament też do tego jakoś tam
podszedł dość sensownie wydaje mi się
i była przedstawicielką parlamentu
i oni powiedzieli co robią.
Różne rzeczy robią, mam na przykład takiego
no właśnie czy to
nazwać robot, takiego manekina
który ma założone słuchawki
i jakby idzie do niego to samo
co idzie na wejściu
do tłumacza do uszu
i jak tłumacz skręci
sobie czy tam basy podbije
czy wysokie tony
to temu manekinowi wyposażonemu
w mikrofony też to się robi.
No i w każdym razie
podejmują takie próby takiego
researchu na ten temat.
Tu jeszcze oczywiście wyników nie ma
ale jest to wszystko bardzo ciekawe
bo wygląda na to, że
po prostu trzeba
naciskać na
tych mówców żeby
te jakość była
bardzo dobra tego co robią.
No i tu jest taka sytuacja
że na przykład parlament wysyła po prostu
zestawy jakichś mikrofonów
nie mikrofonów po to żeby ta jakość była
dobra no ale
oni wysyłają te zestawy
ci mają włączone standardowe
te wszystkie filtry
no i co i dopóki z nimi nie przejdą
przez ten system i nie powyłączają
albo nie zrobią własnej platformy
na której będzie to wszystko po prostu
powyłączane to nie ma
to żadnego znaczenia.
Także sytuacja jest taka
rozwojowa myślę, że będą na ten temat
jakieś badania jakieś
wiarygodne artykuły
no myślę, że to czego ja tutaj
się od was nauczyłem dotyczące
tego oryginalnego dźwięku.
Ja ostatnio znalazłem jakieś nagrania
moich archiwalnych zajęć
z kwietnia dwudziestego roku.
Pierwsza rzecz to jest proszę niech pani
pamięta o włączeniu oryginalnego dźwięku.
Więc to właściwie od samego
początku pandemii ja to
wszystkim tłukę tę Ewangelię
oryginalnego dźwięku
i to rzeczywiście działa
słuchajcie no bo to jest bardzo ważne.
Ja mam wrażenie, że niestety
ostatnimi czasy to Zoom
zrobił trochę więcej
po to żeby to w świat nie poszło
bo od którejś tam
z kolei aktualizacji
na platformy komputerowe
ten klient no to
niestety nie pozwala już zapamiętać
tego przełącznika
oryginalnego dźwięku.
Kiedyś to jeszcze było tak, że można było to
zapamiętać per urządzenie i na przykład
jeżeli urządzeniem wejściowym była
konkretna karta dźwiękowa
no to wtedy ten dźwięk
oryginalny włączał się automatycznie.
Teraz trzeba za każdym razem pamiętać
o tym żeby ten przycisk kliknąć
fakt oczywiście
jest informacja głosowa nie wiem jak to wizualnie
wygląda natomiast głosowo jest
że ten dźwięk
oryginalny dźwięk dla muzyków jest
wyłączony
no i że ta
optymalizacja Zooma jest włączona.
To oczywiście też jest kwestia
dźwięk taka, że z tym oryginalnym
dźwiękiem nie wszystko
i nie zawsze nam zadziała szczególnie jeżeli
ktoś nie pracuje w słuchawkach.
Ale na przykład
ja już też zauważyłem, że te algorytmy
Zooma odszumiające
i poprawiające te
wyciszające
te zwrotkę audio
jeżeli ktoś ma głośniki są na tyle
dobre, że ja już
nie jedną audycję zrobiłem
z kimś kto nie miał słuchawek
nie miał włączony ten oryginalny dźwięk
tylko nie miał tego tłumienia hałasów
na przykład tylko po prostu miał
włączoną te
antyzwrotkę tak zwaną
że z głośników po prostu nie było mnie słychać
i to się dało tylko to
trzeba oczywiście z każdym usiąść
indywidualnie jeszcze wcześniej sprawdzić
a no nie z każdym
niestety jest na to czas żeby zrobić
a też powiedzmy sobie szczerze nie każdego umiejętności
niestety na to
pozwalają i tu
bardzo żałuję, że ja nie mogę tego
wymusić tych ustawień
ze swojego poziomu jako
organizatora spotkania
a to taka a propos jeszcze hijacka anegdotka
jest, że ja dopiero
odsłuchując mikrofon własny
na laptopie w hijacku
dowiedziałem się gdzie ten mikrofon jest
bo z zoomem jak robiłem
różne testy to gdzie bym
nie dotknął, nie szurał tymi palcami
to on to wszystko nawet chyba przy
dźwięku oryginalnym on to wszystko
wyzerowuje
i nie mam możliwości odkrycia gdzie ten
mikrofon jest a tutaj hijack
ma oczywiście czyste wejście
więc
błyskawicznie się zorientowałem
okazało się, że w tym Macu to on jest
gdzieś pod monitorem
między głośnikami
ale jeszcze chciałem się
odnieść do kwestii map
Apple’a i to jest moim zdaniem
też bardzo rozwojowe
tam oczywiście jest problem
z efektem skali
to znaczy po prostu jest bardzo mało
ok, nie to, że jest bardzo mało
ale brakuje jeszcze
tylu punktów, nie ma
co jest na mapach Google’a
natomiast same mapy Apple’a
wygląda to bardzo
zachęcająco, był jakiś czas temu
u Piotra Witka był taki
krótki materiał
o tym jak włączyć na zegarku
taki widget
żeby się pokazywały na przystankach
najbliższe autobusy
z najbliższego przystanku
i to idzie właśnie w tym kierunku
że jest coraz więcej
no ja w kilku miastach teraz byłem w Polsce
wszędzie te mapy już są z transportem publicznym
i co jest dla nas
myślę też ciekawe
że oni zainwestowali
w takie bardzo
znaczy lepsze na pewno niż w Google’u
sposoby
przekazywania tych wskazówek
gdzie masz iść
no może to jeszcze nie jest
bardzo do nas dostosowane
ale dla mnie jest to już obiecujące
że na przykład mówi ci
że tam nie tylko za 250 metrów
skręć tam w jakąś ulicę w prawo
ale na przykład że to będzie
tam jeszcze znak stop
no i teraz jeżeli jest coś takiego
no to mogą się tam pojawić jeszcze dodatkowe
elementy, więc być może
że oni po prostu mają te
jakieś street view czy inne
z Apple’a
mapy Apple’owskie też pewnie to mają
i pewnie będą jakoś przetwarzać
to sztuczną inteligencją i coraz więcej
tych szczegółów będzie
no niestety dalej tam też jest
zjedź tam w drugi zjazd z ronda
przy nawigacji pieszej
oczywiście to mówię
no ale wiecie moim zdaniem to
zapowiada się coraz bardziej obiecująco
dla mnie to przestawienie się
na mapę Apple’a jest
no jest jeszcze trudne
ale wydaje mi się że jest w tym jakiś
większy
może ktoś kto się na tym lepiej zna
mógłby zrobić podcast z tym
bo ja chętnie bym się nauczył
tym posługiwać ale wydaje mi się że
to ma naprawdę sens
zainteresowanie się mapami
No to faktycznie fajnie
żeby to się rozwijało
po prostu no żeby
tych punktów było jak najwięcej
bo tak jak mówisz tu chyba jest
problem i też czytałem to
nawet i w takich mainstreamowych jakichś portalach
technologicznych że
ludzie tak no chcieli
się pobawić tymi mapami bardziej
bo wiele
miejsc w sieci o tym pisało
że tak że poprawione mapy również i w Polsce
no tylko potem się okazywało że
niestety jednak ta siatka punktów nadal
nadal jest niezbyt
duża w porównaniu z Googlem
Tak jeszcze mi się jedna rzecz przypomniała
już was zostawiam
w spokoju to znaczy jeszcze pewnie macie
bardzo dużo do powiedzenia dzisiaj
to o to chodzi ale ten dźwięk
oryginalny jeszcze a propos tego mi się przypomniało
że teraz to już w ogóle będzie
mega ważne dla mnie
no bo ja teraz
pracuję nad takim systemem żeby
siedzieć sobie w sali
z kabinami
żeby sobie siedzieli studenci czy tam
kto tam będzie tłumaczył
w kabinach nie mieli
zuma tylko mieli
przed sobą
mieli kanał 0.1 i 0.2
i ja będę
mieć 0.1
na jednym komputerze na zoomie
a 0.2 będzie szło
przez kabel do drugiego
i ich normalnie nie będzie już w ogóle
obchodziło to tam na którym to jest kanale
oni będą się tylko przełączać
na pulpicie fizycznie
a zoom będzie się sam
jakby przełączał
i robił no będę te testy robić
w przyszłym tygodniu już powinniśmy mieć pierwsze
takie zdalne spotkanie
i zobaczymy czy to wyjdzie
myślę że może to być ciekawe
ja tutaj usiłuję namówić
przy okazji Zuzanki poznałem taką dziewczynę
która w Hiszpanii ma podcast
i tam u niej występowałem
no i żeby coś opowiedziała o życiu niewidomych
w Hiszpanii więc może też kogoś to
zainteresuje
no to będzie oczywiście ćwiczebne dla moich studentów
ale może ktoś by się chciał
podłączyć tam będzie we wtorek o 17
to jak coś to mogę
udostępnić link do naszego zooma
o no to pewnie
zobaczymy jak to będzie wyglądało
oni też będą mieli takie poczucie
że dla kogoś to robią a nie w powietrze
zawsze to jest
inna po prostu zabawa
niż bez tego
ale w każdym razie bez tego oryginalnego dźwięku no to wiecie
no to w ogóle nie ma o czym mówić
jak się bierze z jakiegoś innego źródła
powiedzmy z tej konsoli kabinowej
przez interfejs audio
to w ogóle
nie ma z czym pracować
bez oryginalnego dźwięku
a zoom jest jednak taką platformą
mainstreamową i jest
powszechny bo oczywiście
są różne inne narzędzia
które coś takiego potrafią
i które potrafią przesyłać ten dźwięk
no chociażby team talk przecież którego używaliśmy
kiedyś
nawet i do realizacji audycji
no tylko z tym jest jeden
podstawowy problem
było też kłopotliwe
dla części osób które
gdzieś tam chciały z niego korzystać
bo to trzeba było jednak
skonfigurować
i mam wrażenie że zdecydowanie więcej
zabawy było z tym żeby to ustawić
niż z zoomem
to jest rzecz jedna no i rzecz druga
jednak stabilność tego
zoom ma całą siatkę serwerów na świecie
którą my
jesteśmy w stanie
no i tak zazwyczaj korzystamy
z jakiegoś tam jednego czy dwóch
natomiast no jeżeli ktoś
dzwania się do nas z jakiejś lokalizacji
gdzie bliżej ma do nas jakiegoś tam
innego serwera no to on po prostu łączy się
z nim i te opóźnienia też dzięki temu
są mniejsze bo te serwery
są ze sobą spięte
dość takim
sprawnym szkieletem
to już ja się wyłączam
ale zostawię was z taką anegdotą
ciekawostką że jak była ta
cała imba
jakość mówców
w parlamencie europejskim
czyli teraz tłumacz ma prawo po prostu powiedzieć
jakość jest za słaba, nie będę tłumaczyć
nie będzie do tego tłumaczenia
i bardzo dobrze to była ta kampania
taka różni tłumacze się wypowiadali
właśnie mieli filmiki na YouTube
i była jedna tłumaczka niewidoma właśnie
która o tym opowiadała
no że ona kocha swoją pracę
ale jeszcze bardziej kocha
słyszeć to co się wokół niej dzieje
bo już na stratę kolejnego zmysłu
jej nie stać
no zdecydowanie, oczywiście, że tak
i to też jest ważne
liczymy na to że coś będzie
też taka ciekawostka, my o tym mówiliśmy
w tym stoprzeglądzie, ale ja czytałem
kiedyś wytyczne konsorcjum W3C
World Wide Web Consortium
a propos tego
jak powinny wyglądać dostępne platformy konferencyjne
i co ciekawe
dźwięk wysokiej jakości a co ważniejsze
dźwięk stereo
były podkreślone jako udogodnienia dla osób
niedosłyszących
a to jest w ogóle
ciekawa kwestia
im lepsza jakość dźwięku
to znaczy no to na pewno ta jakość dźwięku
jest istotna
większej częstotliwości stereo to nie wiem
jeśli dużo osób nawet sobie włącza gdzieś dźwięk mono
no właśnie, tak mi się też wydaje
natomiast pytanie, bo może jest kwestia
nie wiem, niedosłyszenia w jakimś konkretnym
może
wiele platform
mam też takie wrażenie i takie podejrzenie
wiele platform
tak naprawdę dopiero po włączeniu stereo
pozbywa się wszystkich możliwych
a może też im chodziło
o dźwięk stereo w sensie takiego pozycjonowania
jak kiedyś w SimTalku czy na Clubhouse’ie
bo to jak ktoś nie rozsłysza
by się mógł oprzeczać, bo te głosy wtedy są
łatwiejsze do oddzielenia
można sobie odseparować, na przykład kogoś przesunąć tam
a kogoś tam i dzięki temu mamy
trochę mniejszą kakofonię
to prawda, no do tego też są
teraz te wszystkie dodatki i wiele osób
to upodobało, żeby w czasie pandemii
żeby rozmieścić screen reader na inny kanał
niż resztę dźwięku
dlatego np. do NVIDIA jest taki
dodatek, JAWS ma to jako wbudowaną funkcję
swoją drugą ciekawą
supernowa chyba też teraz nawet
czy to nie ma jakiegoś wpływu na słuch
takie
rozdzielenie tego
tak, ale pozytywny czy negatywny
no właśnie, ja się trochę obawiam, że może być
negatywny na przykład, że tylko na jedno ucho
jak się dostaje, ale to
spekuluje tylko i absolutnie nie mam na to
to jest właśnie ciekawe
bo w tej dyskusji padł ten argument
bo my uczymy i sami tak
pracujemy też jako tłumacze
że słuchawką na jednym uchu
a na drugim uchu jest słuchawka
tak do połowy powiedzmy
albo w ogóle nie ma albo jest do połowy
różnie ludzie robią
a ja bardzo często też tak pracuję
po co tak robimy? Po to żeby swój output
kontrolować, żeby np. bo
zasłonisz sobie oba uszy
zaczniesz słuchać
jeszcze przyciśniesz sobie do uszu te słuchawki
słyszysz tego mówcę
i po prostu po chwili zaczynasz już krzyczeć
do tego mikrofonu i po to
zawsze uczymy, żeby tego nie robić
i to też było
przedmiotem jakby badań
no i tu ciekawe, że niektórzy
specjaliści już tacy, nie wiem jak oni się nazywają
audiolodzy
powiedzmy, właśnie mówili
że to jest
niedobre, że to nie jest do końca fajne
że tłumacze tak pracują
też pojawiły się podobno też takie
głosy, no że jak zapobiegać
no jeżeli
będziesz pracować tylko na jednej słuchawce
to tylko jedno ucho ci się zniszczy
może zmyjesz raz jedno
raz drugie
no oczywiście to tak w kategorii
artu, bo to wiadomo, że trzeba
ludzi dbać o ich zdrowie
ale fajne jest też to, że
te instytucje tak podjęły to
i tak to wyglądało dość szczerze z ich strony
że chcą się tym zająć
że robią coś, żeby
żeby po prostu było lepiej
tym ich pracownikom, no przecież to jest jasne
że nikomu na tym nie zależy, żeby
ktoś stracił słuch i też jasne jest
że ta hybrydowość w jakimś tam
sensie po prostu z nami zostanie
na zawsze
To prawda, więc dobrze się do tego przygotować
Przygotować, tak
No i to też to, co ktoś kiedyś powiedział
że
w pakiecie z maseczkami powinny być dołączane
jakiekolwiek tanie, ale headsety
słuchawki z mikrofonem
Tak, bo ja naprawdę
współczuję, chociażby oglądając
to, co jest niekiedy
w telewizji, czy w radiu
i zwłaszcza w tych czasach
pandemicznych, jak było to realizowane
wywiad z kimś
chociażby
Tok FM to już miał kiedyś
i dość często
tam korzystali, akurat tam korzystali
ze Skype’a, no tylko niestety też
korzystali bardzo często
z laptopów zamiast ze smartfonów u gości
i efekt tego był
taki, że no jeszcze pamiętacie, że te
laptopy to tam kilka lat temu, to te mikrofony
to miały takie, że to
lepiej jakby ich nie miały wcale
bo czasem
rozkręcał się jakiś wentylator
i ten wentylator był
było słychać głośniej od
osoby mówiącej do mikrofonu, no bo
akurat on musi
troszeczkę się pokręcić, a
ten mikrofon
po prostu łapał te dźwięki, więc
naprawdę, no
to też jest taka rzecz
ale to już trochę znak czasów, że
producenci, no
spotkania jakiekolwiek zespołowe, takie
odprawy techniczne w pracy
nawet, to też jest słuchaj
mixa and selecta przeróżnego
sprzętu, który ludzie posiadają
od słuchawek, słuchaj
takich korków
do uszu, które z jakichś przyczyn mają
też doczepiony mikrofon, więc
koleżanka bądź kolega co chwilę
szuszu, szuszu, szuszu
po tym mikrofonie, ktoś drugi
zebrał się w trzy osoby wokół kamerki
podpiętej do komputera i każdy woła do tej kamerki
ktoś próbuje
trzech różnych mikrofonów, z czego
jeden jakoś działa, ale coś tam
buczy, basuje
drugi to jest wbudowany z laptopa
mało kto ma
jakiś sensowny headset, więc no
były to ciężkie czasy
Dla mnie taką czerwoną
linią to są właśnie te stare mikrofony
laptopowe i słuchawki
bluetooth, gdzie jest mikrofon
i odsłuch na jednym kanale
i uważam, że to jest taka czerwona linia
gdzie ja teraz mając wiedzę, którą mam
powiedziałbym
nie będzie tłumaczenia
No ja parę razy miałem okazję
brać udział w różnego rodzaju
konferencjach i to nawet jeszcze przed
pandemią zdalnie, gdzie
spotkało się kilka osób i
ktoś robił transmisję
przez telefon
po prostu z telefonu położonego
na stole w jakości
typowo telefonicznej, no
i to jeszcze w pomieszczeniu, gdzie był
pogłos
Życzę powodzenia
naprawdę
Nie dość, żeby w ogóle zrozumieć
co tam się dzieje, no to jeszcze
fajnie by było w tej konferencji akurat
wziąć udział i coś mądrego
powiedzieć, no
Było to wyzwanie
Miły akcent na koniec
ja was opuszczam, bardzo wam serdecznie
dziękuję
No to co robicie jest bardzo po prostu
ważne i bardzo wielu ludziom się
przysłuży i przysługuje
także
Keep up with the good job you’re doing
Bo to jest bardzo ważne
Myślę, że to jeszcze wyląduje w pracach
akademickich, zobaczycie
Oby
Oby tak właśnie było
Trzymaj się Wojtku, dzięki
za telefon
Cześć
Wojtek to swoją drogą wiedział kiedy się wdzwonić
i jaki temat poruszyć
chociaż no akurat ten temat
to tak trochę za moją sprawą
poruszył, a nawet sobie nie
zdawałem sprawy, że teraz
właśnie mój temat
Ja już patrzyłem, ja już patrzyłem co jest dalej
Właśnie, bo teraz będzie
o aparatach słuchowych, no jak już
Ktoś faktycznie
za dużo podłumaczył
i musi sięgnąć
po to urządzenie, to jeżeli
chciałby posłuchać sobie
jak brzmią różne aparaty słuchowe
to jest
miejsce, gdzie można tego
dokonać
soundly.com.shop
to jest strona takiej instytucji
która zdaje się, że
też w ofercie ma po prostu różne aparaty
słuchowe, to jest chyba amerykańska jakaś
firma, ale najistotniejsze
jest to, że
zamieściła próbki
tego jak te różne aparaty
brzmią. Z tego co
czytałem, zostało to
nagrane z użyciem mikrofonów
binauralnych
no i można
po prostu sobie porównać różnego
rodzaju aparaty słuchowe
zdaje się, że też
to są takie sprzęty, które
są dostępne również i u nas
jeżeli ktoś miałby ochotę sobie
posłuchać tych modeli
to nie będzie miał większego problemu
jedyne co i
z czym ja miałem
początkowo problem
to mianowicie
było to, żeby w ogóle ten
dźwięk odtworzyć, bo
pierwsze co się rzuca w oczy
i w
czytnik ekranu
to jest
element za pomocą którego
można odtworzyć
taki
filmik, w którym ktoś opowiada
o danym aparacie, to jest też fajne
bo opowiada o jego możliwościach
opowiada o
jego funkcjach
o tym jak on wygląda
to też na przykład dla osób, które mają
problemy zarówno ze wzrokiem, a i
ze słuchem może być przydatne
bo też jest informacja o kolorach, o tym
czym dany aparat się wyróżnia
i tak dalej, i tak dalej i oprócz tego
i to niestety było zwinięte
gdzieś tam na
tej stronie
taki element
listen to a demo i ten element
pod tym elementem
przynajmniej u mnie był taki
przycisk, który
był zwinięty
on był opisany
jako down carrot, no
można by było lepiej, ale ok
i ten przycisk po prostu trzeba
rozwinąć i
w tym momencie mamy
informację odnośnie tego, że
dla najlepszych rezultatów
to prosimy
zaopatrzyć się w jakieś
słuchawki, żeby sobie
tego spokojnie posłuchać
no i tu mamy kilka rzeczy, mamy na przykład
demo jak dany aparat
radzi sobie w hałasie
cichy
jakiś pokój
z grającym telewizorem
streaming muzyczny
na przykład tu widzę
też jest pokazany
jak te aparaty sobie radzą
i tak dalej, i tak dalej
i można sobie to po prostu odtworzyć, jak już
uda wam się rozwinąć te sekcje
z tymi próbkami, to można sobie
potem tego słuchać
no, myślę, że jest to ciekawe
co prawda zastanawia mnie
jak osoba mająca problemy
ze słuchem i na ile to dla tej osoby
która być może i tak
już się musi wspomagać jakimiś
dodatkowymi aparatami, na ile jest to
miarodajne co usłyszy
w tych plikach demo
ale jeżeli ktoś na przykład z was
jest w ogóle ciekaw, jak brzmią te
różne dźwięki przepuszczone
przez aparaty słuchowe, przez te różne
programy tych aparatów, bo to przecież
też jest, nie jest tak, że
że to ma jeden
program i tyle, ale są różne
funkcje, różne możliwości, no i aparaty się różnią
też ceną oczywiście
no to myślę, że warto zajrzeć
i warto sobie
na tej stronie trochę poczytać
i posłuchać, a być może
będzie to dla kogoś przydatne
strona w języku angielskim
przypomnę adres
soundly.com
ukośnik shop
tam sobie można to wszystko
przejrzeć
a teraz
kolejna informacja
tym razem informacja o zbiórce
i myślę, że dosyć ważnej
zbiórce
tak, zbiórka jest organizowana przez
związek
osób niewidomych w Ukrainie
tak, to jest
też ten oddział, od którego
mieliśmy już gości u nas w radiu
słyszeliśmy ich w audycji
wojna w Ukrainie
oczyma osób z dysfunkcją wzroku
i oni teraz
chcieliby wyprodukować serię
filmików, chyba tam x20
będzie, dla
rodzin osób, które
straciły wzrok, no jak wiadomo
działania
wojenne niosą za sobą ofiary
no i niejednokrotnie bywa
tak, że te ofiary
to no najczęściej
słyszy się o tych śmiertelnych, ale wiele jest też
rannych, no i różne są rodzaje
tych rannych, w tym też takie osoby,
które gdzieś wzrok straciły
i teraz
no jako, że nie zawsze i nie wszędzie
jest tak szybko możliwy dostęp
do usług
właśnie związku i ta rehabilitacja
no są to trudne czasy, więc ciężko
to wszystko od dnia
pierwszego, kiedy taka sytuacja nastąpi
rozpocząć, tak jak to być powinno
to żeby rodziny takich osób
miały jakąkolwiek pomoc, żeby
no nie stracić nadziei
i zacząć próbować organizować
to życie na nowo takiej osoby
no to mają powstać
filmiki instruktażowe, no z różnych dziedzin
tak, życia codziennego
i dostępu do
do życia, w dużym skrócie
cel
tej zbiórki to
10 tysięcy, 100 tysięcy nawet
hrywien ukraińskich, czyli
z tego co patrzyłem na przeliczniki kilka
dni temu, to jest około
11 tysięcy 700 zł
na tym etapie już 70 tysięcy
zostało zebrane, więc większość
tej kwoty już jest osiągnięta
można wpłacić
jest link, będzie link podany w komentarzu
Igor Kusznir
który był moim gościem
właśnie w tamtej audycji też jest w
tę akcję zaangażowany, więc
jeżeli słyszeliście wypowiedzi
Igora, wiecie jakie jest jego nastawienie
i też wiecie jakie są
aktualnie cele organizacji
no to myślę, że
będziecie też wiedzieć, że
ta robota, którą zrobią
będzie
dobrą robotą i będą to
wartościowe materiały
no więc jeżeli czujecie taką
potrzebę i chcielibyście na jakiś
nowy sposób pomóc, to ja zachęcam
Jak najbardziej
zachęcamy, a teraz
odbieramy kolejny telefon
tym razem od naszej słuchaczki
od Mileny, witamy
Witam
i słuchamy
Ja przychodzę z taką
dyskusją, bo jak już
jakiś czas temu rozmawialiśmy o
interfejsach audio
i ja takowy interfejs
audio zakupiłam
jest to interfejs
Behringer 202
HD
i
zastanawiam się o jedną rzecz, bo owszem jak do tego
interfejsu podłączę normalnie mikrofon
wszystko fajnie
mikrofon działa i tak dalej, tylko
bo ja nie posiadam w laptopie
głośników takich
głośników zewnętrznych, tylko
wbudowane
i
problem polega na tym
nie wiem czy to nazwać problemem
ale kwestia polega na tym, że
w momencie kiedy odzywam się
przez mikrofon, to słyszę się po prostu
w słuchawkach, znaczy słyszę po prostu
dźwięk po prostu
i z mikrofonu, jakby to co mówię
i w laptopie, jakby odbija się ten dźwięk
podwójnie
i zastanawiam się czy to jest kwestia może
tego, że nie posiadam
zewnętrznych głośników
Ale w jakim
programie się to dzieje? W czym to się dzieje?
To się dzieje zawsze?
Jesteśmy
Słychać
Słychać cię, słychać
Nic nie słychać
Halo?
Słyszymy cię
Halo?
No niestety
to chyba nie jest jedyny problem Mileny z dźwiękiem
mam takie wrażenie
Tutaj pytasz jaka aplikacja, no bo w Reaper
jeśli mamy interfejs, który ma swój własny
odsłuch, no to trzeba wyłączyć monitorowanie
Też pierwsze co mi przyszło
do głowy, czy w Windowsie miałaś
włączony odsłuch?
Tak, tak
Ja bym tu tego szukał
ale czy Milena nas słyszy?
Chyba nie
No to niestety
Pozostaje mieć nadzieję, że odsłucha
sobie to z audycji
bo nie jesteśmy w stanie
nic w tym momencie zrobić
Ale
ja również przychylam
się do tego co Piotrze mówiłeś właśnie
jeżeli w Reaperze to właśnie
gdzieś tam monitorowanie
tej ścieżki, jeżeli
w Windowsie to
nasłuchiwanie, być może
sama karta, no ale sama karta
raczej nie przekazuje
z siebie dźwięku
na inne urządzenia
No właśnie, bo to są dwa osobne urządzenia
bo laptop to jedna karta
interfejs to druga karta
Więc coś musi być gdzieś włączone
jeszcze dodatkowo
co po prostu powoduje, że jest sytuacja
taka, a nie inna
No niestety
no przez to, że
Mileny teraz nie słyszymy to nie możemy
pomóc w żaden sposób
ale może zadzwoni do nas przez telefon
i jeszcze coś tu spróbujemy doradzić
i spróbujemy się wspólnie zastanowić
jak można problem rozwiązać
No to teraz
następny temat
następny temat
tym razem, no właśnie
znowu, jak to
miło się dziś te nasze
tematy uzupełniają
bo będzie właśnie o interfejsach
audio, o interfejsach
audio Focusrite
których to dostępność się
polepsza
Tak jest, no właśnie, było
już wcześniej w Okasterze, że to był
pierwszy interfejs tej firmy, który
miał w pełni dostępne
oprogramowanie, bo o tym tutaj mowa
jakiś czas temu, jak pojawiła się nowa
wersja takiego systemu Juice, w którym często
pisze się wtyczki, ale nie tylko wtyczki
bo też
różne aplikacje związane z
dźwiękiem, m.in. bardzo często
oprogramowanie sterujące różnymi
interfejsami, no właśnie w Okastera
m.in. interfejsów firmy
Audient, ale także
bardziej profesjonalnych interfejsów
firmy Focusrite, tutaj
np. Linia Scarlet
chyba taka najbardziej popularna, jeszcze
kilka takich interfejsów
jest, które mają po prostu
więcej wejść, są bardziej przystosowane
do nagrywania instrumentów,
kilku mikrofonów naraz
i tak dalej, no i
ludzie się spodziewali, że prędzej czy później
to
dostępność pojawi się i w ich
oprogramowaniu, bo jej jakiś czas nie było,
no ale pomału to się już
zaczyna zmieniać, na razie w wersjach beta,
ale te wersje beta już
one wcześniej były testowane przez jakieś osoby
niewidome, tam były różne
informacje, tam było mówione
półsłówkami, bo tam były jakieś
umowy, no ale już oficjalnie
pojawiła się wiadomość na
liście użytkowników Reapera,
gdzie
jeden z użytkowników, który napisał
do firmy Focusrite, dostał
informację od jednego z pracowników, że
publiczna wersja beta tego
oprogramowania i ono jest zarówno na
Windowsie jak i na Macu,
została wydana nowa wersja
z dostępnością.
Tutaj na pewno
ustawienia wejść
na interfejsie są dostępne,
również
przekierowanie tych wejść,
tutaj ten pracownik mówi, że
jeszcze są jakieś miejsca, gdzie ta dostępność
może nie jest do końca dopracowana,
ja nie wiem dokładnie co to
oznacza, bo nie ma takiego interfejsu.
Natomiast inne osoby, które
dziś zgłaszały się, też
później na tej liście, mówiły, że faktycznie ściągnęły
sobie to oprogramowanie i ono
faktycznie działa, jest
dostępne, już można sobie
więcej rzeczy poustawać. Rzeczy, do których
kiedyś potrzebowaliśmy osób
widzących, ta firma zresztą ponoć była
dostępna w pomocy, jak ktoś do nich
napisał, to oni nawet byli w stanie
zdalnie połączyć się z naszym komputerem
i poustawiać to wszystko tak, jak
my byśmy tego chcieli.
Ale wiadomo, zawsze jest lepiej, jeśli możemy to
zrobić sami. No i fajnie, że
coraz więcej interfejsów
staje się dostępne, bo tutaj
te Audienty, teraz GoXLR,
no i teraz te Focusrite.
Mamy coraz więcej
wyboru, niekoniecznie musimy
się kierować, to znaczy wiadomo, że
częścią poniekąd też,
ale tutaj możemy
bardziej dopasować nasz wybór
pod nasze potrzeby.
Czego konkretnie potrzebujemy i czego oczekujemy
od danego interfejsu? No bo one też się
różnią, czy to jakąś tam, nie wiem,
liczbą wejść,
ile mamy tych wejść
i wyjść, jakie to są
wejścia, wyjścia,
jakie przetwarzanie sygnału, czy mamy jeszcze
jakieś dodatkowe funkcje,
możliwości.
To jeżeli
to wszystko mamy w
danym urządzeniu, a jest ono dla nas
niedostępne, ten interfejs
dzięki któremu możemy sobie to wszystko
skonfigurować, no nie jest dostępny,
no to jeżeli robimy tę konfigurację
raz, to pół biedy, ale jeżeli
to jest na przykład jakieś bardziej zaawansowane
urządzenie, w którym możemy sobie różne
sceny zapisywać, że powiedzmy raz
chcemy tak sobie to poustawiać,
innym razem mamy potrzebę, żeby zrobić to
jeszcze inaczej, no to już zaczynają
się problemy i to takie problemy,
które
często mogą przekreślać
decyzję o zakupie takiego sprzętu.
No więc fajnie, że coraz więcej
producentów faktycznie to zauważa
bardzo, to też pokazuje
ile tego programowania audio
w tym juice powstało,
bo ja tak przepuszczałem, że jak
ta aktualizacja wyjdzie z dostępnością,
to będziemy stopniowo widzieć taką
lawinę aktualizacji, no i
jak na razie, no właśnie tak jest
i oby było tak dalej, a jeśli macie
interfejs jakiejś innej firmy,
albo zastanawiacie się nad tym,
no to warto też do nich
napisać, zapytać jak to jest, bo
może uda wam się też coś
w tym temacie ruszyć, może już
coś się dzieje, o czym my nie wiemy, więc no
no właśnie, oby tak dalej.
Tak jest, przechodzimy
teraz do dodatków do
NVDA, które powstają
i cały czas jakieś nowe.
Pawle, co tam ciekawego teraz?
No nie wiem, czy
Michale pamiętasz, czy ty
korzystałeś z syntezatora mowy WP
kontaktu, ten speak taki z WP?
Wiesz co, nim słyszałem,
ale nie używałem.
On miał jedną ciekawą właściwość,
on potrafił bardzo duże liczby czytać,
on tam do heptyliardów, heptylionów
zdaje się nawet liczył,
to ja mając tych lat wtedy,
no nie wiem, z trzynaście,
nie miałem pojęcia, że takie liczby są,
to znaczy, no gdzieś ta
liczba mi się jakoś jeszcze wtedy nie obiła
i się bawiłem bardzo
wpisując 1, 2, 3, 4, 5, 6, 7, 8,
9, 8, 7, 6, 5, 4, 3, 2, 1
i w kółko. No i się okazuje,
że teraz można takie zabawy sobie urządzać
na NVDA,
bo jest dodatek Num2Words,
dodatek, który
powstał początkowo
z myślą o użytkownikach Eloquence’a
i tutaj tego nie wiedziałem, to ty Piotrze,
możesz potwierdzić bądź zaprzeczyć, ale
jest problem jakiś przy odczytywaniu
dużych liczb, na przykład jak
chyba jest taka modła w języku angielskim,
my chyba tego aż tak nie robimy,
rozdzielanie dużych liczb spacjami,
że np. pisząc 12 789.
No to nawet,
ale wiesz co, to nawet w Polsce,
jak czytasz polskie ceny Eloquence’u,
co często robię, no to też rozbija wtedy to,
więc jak najbardziej.
Ta wtyczka zapobiega temu,
że to ma czytać właśnie
w całości,
natomiast
ona też wspiera różne języki
i odczytuje bardzo duże liczebniki.
Więc w tym momencie mając ten dodatek,
możemy sprawić,
że dowolna synteza, tak przynajmniej to rozumiem,
będzie nam czytała
bardzo, bardzo duże liczebniki.
I to jest jedno,
co ta wtyczka robi. Drugie to jest
okienko, które możemy wywołać
i możemy sobie zażyczyć
konwersji dowolnego wpisanego
ciągu
liczb
na jeden z wybranych formatów.
Jest to oczywiście format typowych liczb,
ale możemy też przekonwertować na
rok lub walutę.
Więc on wtedy potrafi sobie radzić
na przykład z odczytem
ileś tam złotych i ileś groszy,
albo ileś tam,
nie wiem, jakiś tam rok,
1995
i tak dalej.
Więc możemy sobie
zamieniać liczby
na słowa, jak byśmy bardzo chcieli.
No i do tego
jest teraz dodatek.
Swoją drogą teraz sprawdziłem
ile ta testowa
wtyczka, którą oczywiście
z każdym chętnym bardzo się
podzielę z przyjemnością.
Do Apolla potrafi
odczytywać, bo my pamiętam,
że też kiedyś siedząc gdzieś tam
i tworząc ten dodatek,
to próbowaliśmy
zaimplementować mu to odczytywanie
dużych, dużych liczb.
Odczyta generalnie do
111 centylionów.
To jest 60
to jest 60 cyfr.
O kurcze.
Ja pamiętam też zawsze jak
instalowałem jakiś nowy syntezator, to
pierwsze to sprawdzałem, ile zer?
Ile zer będzie?
Jak to w RH8 wygląda?
Wiesz co, teraz nie pamiętam,
ale nie było tego dużo chyba.
Nie wiem, do 12 może tam.
Aha, okej.
No to tutaj jest do…
Zaraz wam chętnie powiem ile jest
do ilu, bo to było wyjaśnione.
Tylko, bo to jakieś duże też liczby.
Wiem, że on chyba po
dwudziestu? Cieńko.
Ja sobie zobaczę może ile w zwłokę w RH8,
bo akurat jeszcze nie mam tej wtyczki.
Zaraz będziemy mogli porównać.
Tak.
Nawet są tutaj podane
przykłady.
Do
do biliona RH8 zdobija tylko, czyli 12 zer.
Dobrze kojarzyłem.
No więc mamy
oczywiście skróty klawiszowe.
NVIDIA
Alt Shift N otwiera okienko dialogowe,
a jest też nieprzypisany skrót,
który włącza lub wyłącza
no właśnie
to odczytywanie w czasie rzeczywistym.
Tutaj
mamy napisane, że
działa to w tym języku,
w którym mamy ustawiony NVIDIA
i to będzie też działało nawet,
jak przełączymy sobie syntezę
na inny język. No to trochę słabo akurat.
Convert 27.
27 cyfr.
Na Apollo
lepiej.
Natomiast
o
implementowana jest też
konwersja liczb dziesiętnych.
To jest super.
Ja jestem ciekaw, czy to naprawi syntoka,
bo syntok ma teraz taką przypadłość.
Fajnie się syntokiem ogólnie czyta angielski.
Bo nie, że nie.
Ja tam rozumiem i sobie chwalę.
Ale w angielskim
właśnie liczby takie
powyżej tysięcy się pisze z kropką.
Nie wiem, 50 tysięcy to jest 50
kropka 0 0 0.
Przerąbana sprawa, bo
muszę zawsze o tym pamiętać, jak czytam
jakieś właśnie ceny, zwłaszcza ceny.
Albo liczba ludności gdzieś tam.
To on mi czyta, że tam coś
kosztowało 50 dolarów.
Ja taki zdziwiony. Ale co za to
urządzenie? 50 dolarów?
A, 50 tysięcy, bo tam są jeszcze 3 0 po kropce,
których syntok raczej nie czytać.
No ciekawe, czy to
będzie jakoś tutaj naprawione.
Natomiast druga wtyczka, która się
zrealizowała, drugi dodatek, to dodatek
Beckiego-Zaliszwilego
tt-enouncer, czyli
dodatek, który sprawia, że jeżeli
jesteśmy sobie na Timtoku, to
możemy ustawić inną syntezę
dla wiadomości czatu.
I to jest dość fajne, bo jeżeli
pracujemy sobie na komputerze, na naszej
podstawowej syntezie, a są osoby
z nami na kanale, które nie mogą aktualnie
rozmawiać, a tylko piszą,
no to jest bardzo prawdopodobne, że
przegapimy każdą ich wiadomość, bo coś innego
nie mamy w tym momencie syntezą.
No a tak możemy
oddelegować inny syntezator
do tego, żeby
czytał nam wiadomości z czata.
Oczywiście jest opcja, żeby to było
czytane przez SAPI, no ale tak
możemy sobie, i do tego jest nawet skrót klawiszowy,
tą mowę zatrzymać,
kiedy już jej nie potrzebujemy,
albo kiedy ktoś nam wyśle bardzo długą
wiadomość.
No i też możemy oczywiście korzystać wtedy
z tych wszystkich głosów,
których nie mamy, albo nie chcemy mieć, albo nie istnieją
pod SAPI, a mamy
je pod NVDA, no więc
takie są korzyści.
No i można sobie
z takich dodatków od teraz skorzystać.
A my odbieramy
telefon. Kogo
witamy po drugiej stronie? Halo?
Dobry wieczór, tu
jeszcze raz Milena. Dobry wieczór, no
coś nam padło, nie słyszeliśmy
cię niestety. No ja w ogóle
was nie słyszałam niestety.
Czy my cię, właśnie my cię słyszeliśmy,
ty nas nie słyszałaś.
No ja nie słyszałam. Prawdzie
nie, ja nie używam tego w żadnej
aplikacji. Chodzi po prostu mi o to, że
no podłączam
urządzenie i no i
ja oczywiście się słyszę, ale
słyszę się podwójnie i w głośnikach
laptopowych i jakby z tego mikrofonu,
no i to tak trochę takie…
Z tego mikrofonu w sensie z słuchawek,
tak? Masz do tego interfejsu
też słuchawki podłączone?
Podłączam zwykły mikrofon taki
przewodowy do
urządzenia
i słyszę po prostu jak
ten, jak dźwięk się odbija od tego
mikrofonu, po prostu jak przez niego
mówię i słyszę też siebie
po prostu w głośnikach laptopowych
i zastanawia mnie to
po prostu, czy żeby to jakby zniwelować,
nie słyszeć, żeby
ten dźwięk słyszeć tylko
w samych głośnikach, czy
po prostu, nie wiem, albo
jakieś słuchawki podłączyć do tego urządzenia,
albo czy
podłączyć jakieś głośniki z zewnątrz,
jak to rozwiązało sprawę.
Moim zdaniem to w ogóle nie powinno być Ciebie słychać w tych
głośnikach, zastanawia mnie
skąd się to bierze i tak jak
mówiłem, ja bym posprawdzał, czy
gdzieś na przykład we właściwościach
nagrywania tego
urządzenia nie jest
przypadkiem zaznaczona jakaś opcja
nasłuchuj.
Jest zakładka nasłuchiwanie we właściwościach
audio,
i tam właśnie jest
być może coś zaznaczone, że nasłuchuj przez to
urządzenie, no bo innego
wytłumaczenia, powiem szczerze, nie
mam na to, dlaczego
coś takiego miałoby się dziać. Gdyby
to było na przykład w jakimś programie, to tak jak
już Piotr mówił, w Reaperze chociażby, no to
okej, tam jakieś monitorowanie może być
włączone, może być cokolwiek, ale…
Nie, nie, nie, to bez żadnego
programu.
To powiem szczerze, ja się z taką sytuacją
nie spotkałem,
szkoda, że Tomka nie ma, bo by może
nam coś tu więcej powiedział, może on
więcej różnych tego typu
konfiguracji widział. Ja
nie mam pomysłu, co to
może być, jeżeli… Bo nasłuchiwanie, jak rozumiem,
jest wyłączone, na pewno.
A ja już teraz nie pamiętam.
Nie pamiętam, myślałam, że to sprawdzę.
No to to jest ważne, bo jeżeli jest włączone,
to trzeba to wyłączyć, trzeba to odznaczyć
po prostu. Nasłuchuj
przez to urządzenie, i to we właściwościach
nagrywania
tej pracy.
Ja bym stawiał na to, że to zostało
zaznaczone i dlatego
jest problem.
Będę próbowała się jakąś może z Tomkiem
skontaktować, chociaż raz do niego
pisałam, to tak się nie odbywał.
No to może za tydzień już będzie.
Może za tydzień już będzie.
No może, może będzie.
Dobrze, w takim razie dziękuję.
I fajnie, że się udała w końcu dogadać.
No, też się cieszymy. Dzięki za
telefon, pozdrawiamy.
Do usłyszenia.
Do usłyszenia.
Tak jest.
Zaczynamy od
historii człowieka, a konkretnie
Daniela Lubinera, który
był nauczycielem przez 25 lat.
5 lat z tego uczył
osoby niewidome. Uczył ich
konkretnie plastyki, sztuki.
Po czym zaczęła się pandemia,
no i stracił z nimi
taki bezpośredni kontakt, no i zorientował
się, że osobom niewidomym
jest bardzo trudno
sobie rysować.
Tutaj mówi, że osoby widzące to mogą po prostu
sobie wsiąść ołówek, kartkę papieru,
czy takie różne zabawki
typu jakiś etch of sketch,
czy takie coś, na czym można
rysować, po prostu sobie zmazywać to,
co narysowaliśmy, łatwo, żeby
coś innego narysować.
No, ale też zauważa, że
osoby niewidome teraz coraz
rzadziej uczą się braille’a. Tutaj mówi, że
dzisiaj w Stanach Zjednoczonych to jest nawet 10%,
zaledwie. Więc no,
bardzo dużo to nie jest.
No i zastanawiał się,
jak można im
pomóc i wymyślił
takie urządzenie,
które nazwał
Braille Doodle, czyli to doodle
to takie właśnie zgranie,
rysowanie. To jest urządzenie
wielkości laptopa, on to tak opisuje,
wielkości laptopa, zrobione z plastiku,
które ma
dwie strony.
Na jednej stronie
mamy taki
arkusz, na którym możemy rysować.
Konkretnie to działa w ten sposób, że
do urządzenia na stałe jest przyczepiony
taki specjalny
rysik, on ma jakiś magnet
na końcu, bo w samym urządzeniu
pod spodem są
setki takich malutkich kulek,
które podpływają tego
magnesu, które z tym rysiku wyskakują.
Więc my możemy sobie tym rysikiem
po prostu na tej pierwszej stronie
rysować
i po prostu w ten sposób możemy
różne rzeczy sobie rysować,
wyczuć to, co zrobiliśmy i po prostu
jak już pozbyć się tego, co narysowaliśmy,
to wystarczy tam mocniej gdzieś nacisnąć,
żeby ten tekst
zmazać. Na stronie zresztą jest
film z audiodeskrypcją, który pokazuje, jak
dzieci bodajże w
Indiach bawią się na prototypie tego
urządzenia.
To jest jedna rzecz, a na tej
części do rysowania możemy
też przyczepiać takie specjalne nakładki,
które pomogą nam
rysować konkretne rzeczy,
czy będą nas czegoś uczyć.
Tam tutaj podaję przykłady
kształtów geometrycznych,
notacji,
brajla do nut muzycznych,
brajla
w innych językach.
Tutaj różne pomysły na to są,
jakie te nakładki będą się
zaczepiać, to urządzenie ma jakieś takie
rogi wycięte, które pozwalają nam
łatwo te nakładki
zainstalować na nie.
Ale to jest jedna część. A druga część
pozwala nam na
łatwe uczenie się całego
alfabetu brajla. Na tej
drugiej stronie mamy
cały alfabet plus
kilka takich najczęstszych
skrótów. To jest skrót amerykański,
bo tam jest skrót of, for,
czyli takie bardzo częste słowa
w języku angielskim.
I obok
na tej części mamy te wszystkie litery
wytłoczone.
Pod spodem też mamy ich
czarnodrukowo odpowiedniki, też
takie wytłoczone, więc możemy je wyczuć.
No i obok każdych mamy
taki obszar, na którym
możemy sobie
ćwiczyć. Więc widzimy, jak ta litera wygląda
i tam te punkty
są takie troszeczkę większe, żeby łatwiej było
je wyczuć. A obok mamy
taki obszar, na którym znów tym
ryjnikiem możemy sobie ćwiczyć. Więc możemy
sobie wyduszać te litery,
porównać sobie palcem, czy dobrze
je wybiliśmy
i tak
uczyć się Braila.
No pomysł wydaje mi się całkiem ciekawy.
Na pewno kreatywność
dzieci może pobudzić, zwłaszcza ten
aspekt rysowania. No a przy okazji
można też się
w fajny sposób nauczyć Braila, ale też
przy okazji troszeczkę czego? Czarnodruku.
No nie? Bo mamy tutaj też porównanie, jak
jak
te litery
wyglądają. Wiesz, ale na przykład
i nauka geometrii chociażby
w szkole. No właśnie. Rysowanie
różnego rodzaju rzeczy. Ktoś może powiedzieć
no ale przecież jest rysownica
z różnego rodzaju
foliami. Można tam
sobie po prostu te folie
przyczepić i rysować czymkolwiek bądź.
Ale to też nie zawsze tak
fajnie nam zadziała,
szczególnie jeżeli dopiero się uczymy,
to ile tych folii trzeba zużywać. A tutaj
mamy taki rysik, mamy
ten sprzęt. Oczywiście wiadomo,
też to wszystko zależy od tego, ile to będzie
kosztowało.
Czy coś wiadomo? No właśnie,
chciałem do tego przejść. Ostatecznie ile to będzie
kosztowało, nie wiem. To jest generalnie
ten człowiek założył fundację, żeby ten sprzęt
dystrybuować. On będzie
na początku sprzedawany na
Kickstarterze od
przyszłego miesiąca. No i w tym momencie
właśnie, jeśli ktoś teraz się zapisze
na jego listę przez następne
10 dni,
to może się zapisze na
tak zwany Early Bird Special, czyli
bardzo wczesną cenę.
I ta wczesna cena
nie jest jeszcze bardzo wysoka,
bo to jest około 70 dolarów.
Ile będzie później?
Nie wiem, tutaj na stronie też nie pisze. Jest
tylko pole, żeby się zapisać na
listę dyskusyjną,
taki newsletter, jeśli ktoś tym
sprzętem jest zainteresowany. Nawet nie ma
linku do samego Kickstartera,
bo on dopiero wystartuje
we wczesnym maju. No ale
sam urządzenie jest, już prototyp powstał,
było testowane nawet na,
no tak jak już tutaj mówiłem, dzieci
w nie pamiętam teraz, w jakim mieście,
ale to było w Indiach, już miały okazję się tym
pobawić, potestować. To na pewno
w Stanach, bo chyba ten człowiek jest
ze Stanów też, to gdzieś było
testowane. No ale myślę,
że pomysł całkiem ciekawy.
Oczywiście, że tak. I na pewno jest to urządzenie,
które może być użyteczne
i przydatne.
Więc ciekawe, ile finalnie będzie
kosztować. Ja stawiam na jakieś
100 dolarów, może
coś koło tego. Pewnie
taka to będzie cena.
A teraz odbieramy kolejny
telefon. Kto jest z nami?
Dobry wieczór.
Cześć, dzwoni Darek.
Marcin Iszyn. Cześć, ja dzwonię
z typowej dla siebie sprawy.
Chciałem poinformować o
nowych aplikacjach, które
dostał telefon Blind Child Classic 2.
Nie wiem, czy była dzisiaj o tym w oczach, być może
już Paweł coś o tym opowiedział.
Jest w notatkach, ale dobrze, że dzwonisz, bo
na pewno dużo bardziej szczegółowo
i ciekawie o tym opowiesz niż ja. Ja tylko
wiem, co tam jest i wiem tyle, ile
mi opowiedziałeś, więc proszę.
Tak, więc
mamy do dyspozycji
trzy aplikacje.
To jest tak, kółko i krzyżyk. Gra w kółko
i krzyżyk. Można grać
z komputerem,
a można grać też
dwie osoby mogą grać w jednym telefonie
jakby…
Ojej, panu,
trochę się zapędałem. Możesz grać
z wirtualnym przeciwnikiem i można
grać na jednym telefonie dwie osoby.
Plansza jest
o rozmiarach 3×3,
4×4, 5×5 i 6×6.
No powiem szczerze,
że póki co nie udało
mi się wygrać z telefonem
na tej największej planszy.
Nie jest to tak łatwe, chyba, że jest na to jakiś
patent, jakiś mek, o którym nie wiem, ale
fajna, całkiem sympatyczna
rzecz.
To jest pierwsza rzecz.
Druga aplikacja to jest Spotify.
Spotify jeszcze nie
wytestowałem, ponieważ nie mam pojęcia,
jak założyć konto premium.
Nie mam pojęcia, jak
ten miesięczny
czas subskrypcji
darmowej wykupić.
Powiem uczciwie, nie umiem tego zrobić.
Próbowałem.
Teoretycznie pierwszy miesiąc jest za darmo,
ale nie jestem w stanie tego premium
na ten tryb przejść.
Druga,
jakby, problem jest taki, że
w tej aplikacji korzystę, przynajmniej w wersji
premium.
Trzecia aplikacja to jest
aplikacja do nawigacji,
do tworzenia własnej trasy.
Można jakieś, ja jutro to dopiero
wytestuję, jestem w stanie o tym opowiedzieć
za tydzień, ponieważ jutro będę testował
tę aplikację bardziej
szczegółowo.
Mamy GPS, mamy kukiełki krzyżyk
i mamy Spotify’a.
Ale fakt, faktem
rozwija się ta oferta tych aplikacji.
No tak,
naprawdę się rozwija.
Bardzo fajnie teraz działają załączniki w mailach.
Kiedyś,
powiem tak, kiedyś był problem
z dołączaniem
załączników w formacie
niewspieranym przez BlindShada.
Jeżeli na przykład, taki podam sobie
przykład, przyjmijmy, że BlindShada nie odtwarzał
plików OGG, to nie można było ich wysłać mailem.
Teraz już można bez problemu.
Więc tak, naprawdę działa
to, działa to,
działa to coraz stabilniej.
Ja jeszcze tego, nie mówię, tego GPSa
jeszcze muszę wytestować,
zrobię to jutro około godziny,
myślę, 16-17,
albo napiszę w komentarzu, albo zadzwonię
za tydzień i dam znać, jak to działa.
Ale tak, faktycznie, no ja jestem
zachwycony nadal baterią, no ile mam
telefon? Prawie 20 miesięcy.
No dobrze, może przesadziłem.
No, ale powiedzmy,
od 19 miesięcy
korzystam z tego telefonu i powiem szczerze,
że akumulator jest w znakomitej
kondycji, a ja na tym telefonie
codziennie też czytam książki i naprawdę,
naprawdę ta bateria jest
ekscytowana dość mocno
i powiem szczerze, no,
to jest naprawdę coś, mija mi rok,
a bateria nadal
śmiga, no,
za mnie, to jest super.
Jak będę wiedział o tych kolejnych rzeczach,
to na pewno dam znać.
Albo napiszę w komentarzu, albo zadzwonię za tydzień
i opowiem troszkę, jak ten GPS
działa.
OK, no to czekamy w takim razie
na relacje, Darku.
Dzięki.
Dobrze, dam znać na pewno,
dam znać na pewno, jak tylko będę wiedział
właśnie, jak te trasy można
sobie projektować i czy jest to
funkcjonalne, to jeszcze jutro to sprawdzę.
OK.
Dziękuję, dziękuję bardzo.
Dziękujemy.
Do usłyszenia.
Do usłyszenia, pozdrawiamy cię serdecznie.
A teraz kolejny
temat, tym razem temat
znowu o
chyba sztucznej inteligencji, tak?
I o obrazkach.
Tak.
Mid Journey, czyli
podobnie jak Dale kiedyś, no i
teraz trochę chat GPT,
sztuczna inteligencja do generowania
obrazów na podstawie tekstu,
to takimi mechanizmami się już bawiliśmy.
Natomiast uzyskuje
mechanizm też opisywania
obrazów i to też w taki dość szczegółowy
sposób podobno.
No i to jest wszystko, co można na ten moment
chyba o tym powiedzieć. Ja
powołuję się tutaj na artykuł z
LifeWire
staje się, czy też
przedstawiany przez msn.com,
czyli jakby Bing News.
Natomiast
gdzie oni
dziennikarze, autorzy artykułu
rozpisują się nad tym, jakie to będzie
miało zastosowanie dla
osób widzących, że
nareszcie ta sztuczna inteligencja do czegoś
dobrego posłuży, bo pamiętajmy, że też
cały temat cieszy się dość dużą,
bardzo dużą ilością krytycznego
podejścia.
Natomiast
no właśnie, tutaj znowu będzie
system
opisu
zdjęć.
Też implikacje
są takie, że ponoć być może
ma być
możliwość jakiegoś opisywania, nie wiem, czy opisywania
filmów, czy tworzenia napisów
do filmów. Natomiast
no teraz tyle o tym wiemy.
Ja nie wiem, czy ty Piotrze, może widziałeś, ktoś to testował?
Czy to w ogóle da się testować? Bo
wiem, że były o tym dyskusje na Mastodonie.
Ja szczerze mówiąc nie słyszałem
o tym, od ciebie się dowiedziałem
o tym, więc.
Tak, no to
będzie konkurencja dla czata GPT
w zakresie
dokładnych, alternatywnych opisów
zdjęć. No i zobaczymy,
czy to będzie rzeczywiście alternatywny opis
w stosunku do czata GPT, czy też
nie. No jak tylko się
on pojawi
w szerszej publice do testów.
Teraz króciutka
informacja i to będzie już
ostatnia informacja
z działu Tyfloaktualności.
Dziś znalazłem
wskazówkę na
CoolBlindTechu,
która w sumie pewnie jest
dość znana, ale fajnie sobie
o niej przypomnieć i myślę, że
dla niektórych może być
przydatna. Otóż,
jeżeli macie potrzebę powrotu
na samą górę ekranu,
to znaczy na przykład, dajmy na to, macie jakąś
listę maili
albo stronę internetową
jakąś dużą
i gdzieś tam znalazł wam się
fokus na samym dole
i chcecie szybko wrócić,
no to jest też ten gest, jak dobrze pamiętam
dotknięcia czterema palcami
ekranu,
górnej jego części, natomiast
można znacznie prościej i powiem szczerze,
ja to zdecydowanie wolę
i wolę z tego skorzystać,
mianowicie wystarczy
stuknąć jednym palcem
w ten
pasek statusu, tam gdzie
mamy na przykład godzinę, gdzie mamy datę,
a właściwie datę nie, gdzie mamy
godzinę, gdzie mamy procent baterii
i tak dalej, i tak dalej, stukamy tam dwa razy
jednym palcem i fokus nam wraca
na górę okna, także
może to być rzeczywiście
dla kogoś przydatne,
bo ten gest myślę, że tak trochę
zapomniany jest, a warto, żeby go sobie
przypomnieć i żeby potem
niepotrzebnie na przykład, no, nie scrollować
tego ekranu, korzystając
gdzieś tam z tego paska przewijania,
no bo po prostu ma różna sześć.
Tak, on przewija po prostu, jeśli mamy coś, jakąś
listę, coś, no to po prostu przewija ją na pierwszą
stronę, to jest klucz, którego
bardzo, jak jeszcze używałem
Androida, bardzo mi na Androidzie brakowało, bo
z tego, co wiem, do dziś na Androidzie czegoś takiego nie ma,
więc jak otwierałem jakiś klient od
Twittera czy czegoś i miałem,
nie wiem, byłem 200 postów w dół,
to często nie było łatwej
możliwości właśnie, żeby sobie
przewinąć to do najnowszych postów.
No tak, a tu można,
bez większego problemu,
ale jeżeli jest coś takiego też na Androidzie,
to dajcie znać, czekamy.
Milena jest z nami ponownie,
więc być może jakaś aktualizacja
w sprawie
tych problemów z dźwiękiem
zaraz się okaże i zaraz
się okaże, jak Milenę w ogóle słychać
i czy słychać i czy my będziemy
nas słyszalni, tak,
zobaczymy, oby tym razem już
wszystko było w jak najlepszym
porządku. Halo?
No, na razie
Milena ma wyciszony mikrofon,
więc
czekamy i poczekamy
jeszcze chwilę
i miejmy nadzieję, że się sytuacja
zmieni.
Halo, halo. O, jesteś, słyszymy się.
No, cieszę się.
No to tak,
co do kwestii
tego
nasłuchiwania,
to nasłuchiwanie było włączone,
ja to odznaczyłam,
no ale kwestia jest tego typu, że w ogóle się teraz
nie słyszę, nie? I nawet
próbowałam nagrywać
prosto w rejestratoru dźwięku, weszłam w
Windows 10 i nic nie słychać.
No nic, będę
kombinować coś jeszcze. To może złe
urządzenie jest wybrane
czy w rejestratorze, czy
gdziekolwiek, albo na przykład głośność
jest źle ustawiona. No właśnie,
tutaj ja bym sprawdził głośność
w tym odpowiednim urządzeniu,
czy nie jest wyciszone, bo tam jest osobno też
pole wyboru wycisz na tym zakładce
poziomy bodajże to się nazywa,
no ale też na samym urządzeniu
pewnie jest jakieś pokrętło do
ustawienia głośności.
No są tu pokrętła i nawet na maxa to nic
nie daje, jak chodzi o pokrętła
w urządzeniach.
Zobaczę ewentualnie jeszcze w
dźwięku, w pole
dostarowane w dźwięku, no tam ewentualnie.
Aczkolwiek jak
patrzyłam
w nagrywaniu w mikrofonie
to było na maxa.
Czy to urządzenie
jest urządzeniem domyślnym w nagrywaniu?
Tak.
Jest urządzeniem domyślnym?
Tak, tak, tak.
No to w takim razie
wychodzi, że to powinno działać
rzeczywiście.
Ciężko nam tu cokolwiek
więcej doradzić, ewentualnie
być może sam
chociaż byłoby to dziwne, na jakich
programach próbowałaś, czy tylko rejestrator
dźwięku, czy na przykład coś jeszcze innego?
Póki co na samym rejestratorze
dźwięku. Nie mam
pomysłu na czym to jeszcze spróbować, no
bardzo
więc póki co tylko
na rejestratorze, no.
No
oprócz tego co powiedzieliśmy to
obawiam się, że wiele
więcej się nie da tu podpowiedzieć
chociaż tak z drugiej strony
no kwestia jest taka, że
ten mikrofon
Ja od początku miałam ogólnie
Mikrofon działa, bo ja też
To znaczy nie, tylko właśnie chodzi mi o to,
że jeżeli nasłuchiwanie działa
no bo przekazuje ten dźwięk
na głośniki, no to
i to powinno.
A czemu nie działa? No właśnie.
Chyba, że
ja bym jeszcze
radził zrobić to w ten sposób.
Spróbuj włączyć sobie ponownie
to nasłuchiwanie, spróbuj
doprowadzić ten
sprzęt do takiego stanu, że będzie
słyszeć się w głośnikach
wyłącz nasłuchiwanie i wtedy
spróbuj coś nagrać.
Może tak.
Ja powiem wam szczerze, że tak
ja od początku jak ten sprzęt kupiłam, no to
właśnie od początku coś nie działało
i ja na początku myślałam najpierw, że
to jest problem z mikrofonem, no ale
dałam do brata mikrofon, brat
jest tam elektromechanikiem, no
okazało się, że kabel był owszem nie ok
i kabel kupiłam, no mikrofon działa
bo sprawdził to u siebie na sprzęcie, wszystko
elegancko. Mówię, kurde,
no to coś jest z tym urządzeniem nie tak. Dałam
je do serwisu
bo ja kupowałam przez sklep
muzyczny.pl, dałam do serwisu
i oni właściwie
ja to odesłał
oni to, kurier zabrał to w środę
to był tam już nie pamiętam teraz który dzień
oni za tydzień we wtorek mi to z powrotem
tam w środę odesłali. Tak jak w ogóle
by nic nie sprawdzili, no i to jest
najlepsze, że…
Ja myślę, że to może być po prostu
kwestia tutaj konfiguracji, ustawienia
poziomów, no bo generalnie takie sprzęty
są troszeczkę bardziej skomplikowane niż
po prostu podłączenie mikrofonu
do laptopa, tak? Dokładnie, trzeba to
jednak jakoś skonfigurować, sprawdzić
posprawdzać
tak jak wspomniałem
dobrą opcją będzie przetestowanie
z tym nasłuchiwaniem, ale następnie po prostu
wyłączenie, rejestrator
dźwięku, ewentualnie
jakieś inne oprogramowanie do nagrywania
chociażby, czy darmowy
Audacity, czy Reaper, który też
No mam Audacity, mam Audacity
No to na przykład, to na Audacity
bo być może ten rejestrator się z jakiegoś powodu
nie lubi z tym urządzeniem
też tak może być
Ja powiem szczerze, nie pamiętam kiedy
rejestratora dźwięków używałem ostatnio
więc nie wiem na ile on
dobrze działa
z różnym sprzętem, ale
ja bym proponował jednak jeszcze to
na czymś innym sprawdzić, ale
przede wszystkim sprawdzić to
nasłuchiwanie, jeżeli będzie mikrofon słyszalny
to znaczy, że urządzenie jest konfigurowane
prawidłowo
Dobra, będę działać dalej
Powodzenia
Dziękuję
No w takim razie cóż, miłego wieczoru
I wzajemnie
Do usłyszenia
Pozdrawiamy
A teraz kolejne tematy
kolejne, o i będzie znowu
o dźwięku
Znowu o dźwięku
Piotrze tym razem
temat twój i w sumie to już będą
dwa tematy twoje
Tak nam się złożyło
Ja jeszcze jeden będę miał
Możemy go zrobić pośrodku
Nawet, tak będzie chyba
lepiej
Discord, który
dodaje nam ciekawą funkcję
Ja myślałem swoją drogą, że ona już tam jest
Pojawiła się teraz
Oni to jakoś kilka dni temu
szerzej ogłosili, ale ja
jakiś tydzień, albo dwa tygodnie temu
sobie rozmawiałem na Discordzie i nagle
wyskoczył komunikat
Słuchaj, dodaliśmy soundboard
możesz teraz, jak jesteś w kanale głosowym
puszczać dźwięki zdajemy i półprzycisk
wypróbujmy
No to wypróbuję, zobaczymy
No ale to później już wyszło
oficjalnie i szerzej
No o co tu chodzi
Tak jak wcześniej mogliśmy w wiadomościach
wysyłać sobie różne naklejki
każdy serwer może mieć swoje naklejki
później możemy je też gdzieś przekazywać
No to tak samo teraz
kiedy jesteśmy w kanale głosowym
jakimkolwiek, możemy puszczać
dźwięki
każdy serwer ma
swoje, można
uładować i co ciekawe
Discord też ma trochę takich
swoich, jeśli ktoś
od ostatnich kilku lat
oglądał YouTube’a, albo gdzieś na TikTok’u
no to takie typowe dźwięki, jakaś smutna
trąbka, jakiś aplauz, takie
świerszcze, takie dźwięki, które
często mogą się przydać, żeby
jakąś sytuację zaakcentować
tam są, no ale też możemy
załadować swoje
Co ciekawe tutaj
to mogą być tylko pliki mp3
próbowałem innej, tego za bardzo nie rozumiem
czemu, no bo to jest elektron
to powinien utworzyć praktycznie wszystko
no ale to mogą być tylko
pliki mp3 do 500 kilobajtów
maksymalnie
bodajże 10 albo 20 sekund
już teraz nie pamiętam
za darmo
w serwerze możemy mieć
8 własnych dźwięków, jeśli
dokupimy sobie tzw. boost, czyli
ktoś, kto opłaca Nitro
czyli tą subskrypcję, abonament
w Discordzie może podbijać serwer
i odblokowywać nowe funkcje, to tam
można sobie więcej tych miejsc
dodać
no i jeśli tak załadujemy dźwięk do
serwera, no to każdy
w tym serwerze może
ten dźwięk sobie wykorzystać
no i po prostu jak jesteśmy w kanale głosowym
mamy przycisk
otwórz soundboard, naciskamy w ten przycisk
i wtedy nam się wyświetla okienko
w którym możemy wybrać sobie albo
dźwięki te wbudowane
albo w którejś z tych naszych
mamy możliwość przeszukiwania tych dźwięków
możemy sobie je odsłuchać zanim je
puścimy szerzej, no bo
możemy je po prostu odtworzyć
jeśli to zrobimy, no to też
każdemu dźwiękowi towarzyszy jakaś
emotka i screenreader nam nawet mówi, że
dana osoba zareagowała
taką czy inną emotką
więc przy okazji też
jak ładujemy własne dźwięki, to tam też
można to sobie wybrać
no i
funkcja jest prosta, można
ustawić sobie osobno głośność
tego soundboardu w porównaniu
do innych dźwięków
w ustawieniach dźwięków
w Discordzie lub całkiem
wyciszyć. Działa to na razie
tylko na komputerze
w takim sensie, że jeśli jesteśmy
na komórce w jakimś kanale
no to będziemy słyszeć te dźwięki, ale
nie możemy ich puszczać
no ale prosta funkcja
ale myślę, że zwłaszcza nam niewidomym
może się spodobać. Ja jestem ciekawy
czy to nie spowoduje, że
to się znów
takie puszczenie dźwięków stanie poniekąd bardziej popularne
bo w czasach IRCA to
niektóre aplikacje miały
możliwość odtwarzania dźwięków czy
na MSN-ie był dodatek Messenger Plus
ja bardzo ciepło wspominam
puszczanie znajomych różnych
dźwięków. No jestem ciekawy
czy przez to
ta moda na to nie wróci znów.
Mi się przypomina taki filmik
dość znany, który kiedyś krążył po internecie
pamiętacie pewnie, Bijcie Master
Czułki. Lecz się Kamil,
lecz się.
Po prostu grupa graczy
wiedziała na ventrilo
i grali w jakąś grę już, co to było to nie wiem
pewnie jakaś Tibia, bo to jeszcze takie
czasy, albo inny Metin
i
któryś z graczy nagle tam zawołał
Bijcie Master Czułki
Master Czułki to był oczywiście nick któregoś
z graczy tam wrogiego, którego oni
chcieli tam spacyfikować i przy innej
jakiejś okazji
ktoś tam coś powiedział i mu odpowiedzieli
lecz się Kamil, lecz się. I potem ktoś
nagrał te dwa konkretne sample i je
w losowych momentach i ludzie nie wiedzieli
czy to rzeczywiście mówi ta osoba,
czy to jest puszczane z sampli
i ludzie byli naprawdę zagubieni
przez chwilę, dopóki człowiek nie zaczął tego nawet używać
i się zorientowali, że chyba ktoś tutaj
spamuje nam tym
dźwiękiem, ale jakoś
prowader całego zdarzenia nie mógł przestać
no i w jakiś sposób ten filmik stał się
viralem i tekst Bijcie Master Czułki
i lecz się Kamil, lecz się to
doszło też do jakiegoś takiego kanonu
polskiego YouTube’a.
Jakoś chyba przespałem ten czas
albo nie oglądałem po prostu tych
filmów, ale faktycznie
wniosek z tego jest prosty, uważajcie co mówicie
bo nawet i wasz kilka
słów od was może stać się
takim powiedzmy, że memem.
Samplem, tak.
Swoją drogą, Piotrze
to tak jeszcze zapytam, a dostępność
tego soundboardu, no bo
tam kilka tych dźwięków to
nie będzie problem, natomiast
jak ci się wydaje, jak ich
będzie więcej, jakieś przeszukiwanie
tego, coś?
Tam jest pole wyszukiwania i te przyciski są
opisane, więc można sobie
okienkiem wyszukiwania w screen readerze
pomóc, no na pewno nie będziemy tak
szybcy jak osoby widzące
przepuszczam, więc tutaj
A można przepisać skróty klawiszowe?
Niestety nie, można sobie przepisać skrót, żeby
otworzyć to okienko w
czasie gry, ale
żeby do konkretnych dźwięków przepisać
skróty chyba niestety się nie da.
Już liczyłem na taką
dżinglownicę trochę, jak w radiach.
No, Discord z dżinglownicą.
Tak. Było ciekawe.
To mogłoby być interesujące.
No dobrze, to Pawle, to co ty
znalazłeś ciekawego? Znalazł to
nawet, znalazłem nawet nie ja, a znalazł
Arek Świętnicki, który
zazwyczaj dzwoni do nas z aplikacjami,
może dziś nie mógł, może poczekał
aż mu się zbierze więcej, a znalazł
on dość ciekawy manager schowka na Windowsa
aplikacja Ditto,
którą ja zainstalowałem,
ale szczerze mówiąc jeszcze nie zrobiłem z nią
jakoś dobrego doświadczenia,
bo
bardzo trudno było mi ją uruchomić,
tam po pierwszym uruchomieniu
niestety musiałem kliknąć
prawym przyciskiem myszy na ikonkę
w zasobniku systemowym, żeby
otworzyć menu, bo menu kontekstowe
nie chciało działać i widzę, że
wiele rzeczy tam jest jeszcze jakoś niepodpisanych,
ale to nie, że się nie da korzystać, tylko
bardziej trzeba troszeczkę się z tą
aplikacją zapoznać, na pewno pomógłby
w niej jakiś podcast troszeczkę,
a troszeczkę może po prostu poprawki
dostępności w zakresie etykiet,
ale no powiem tutaj,
zacytuję z Eltena co Arek napisał
Windowsowa historia schowka
was wkurza? Nie chcecie korzystać z czegoś
co działa powoli, gubi fokus
i trzyma śmiesznie małą liczbę elementów?
Poznajcie Ditto.
Pomimo, że ZTSR ma bardzo dobrą historię
schowka, wbudowaną w sam screenreader,
przesiadam się na Ditto, bo
i tu argumenty.
Po pierwsze, Ditto korzysta z bazy
SQLite do trzymania schowka.
Jak mam ponad milion elementów, to przeszukiwanie i tak
jest błyskawiczne.
Dwa, Ditto pamięta zaznaczenia plików,
to znaczy, jeśli
zaznaczymy sobie kilka plików, skopiujemy
je, to w Dittowej historii
te pliki będą i będziemy mogli je znowu
zaznaczyć. Po trzecie,
Ditto pozwala organizować
elementy historii w foldery. Ja tej opcji
nie znalazłem, szczerze mówiąc.
Znalazłem mnóstwo innych, natomiast
nie znalazłem
tej konkretnej, więc
możliwe, że jeszcze za mało poszukałem,
bo to też tak bardziej
popatrzyłem sobie na
ten program.
Po czwarte, Ditto pozwala pisać
wtyczki, które umożliwiają nam robienie
ze schowkiem
różnych innych rzeczy.
Po piąte, Ditto pozwala nam
przypisywać skróty do konkretnych elementów
historii.
Zainteresowani, to pobiegać i testować.
Link jest
ditto.soursforge.io
My tu już troszkę
w wątku na Eltenie o tym pogadaliśmy
i ponoć kontrol-akcent
to jest skrót, który wywołuje nam
listę tych ostatnich
zaschowkowanych elementów.
Ja sobie przypisałem też
inny skrót. W ogóle w ustawieniach jest
dużo skrótów klawiszowych do przeróżnych
opcji i właśnie niestety te skróty
klawiszowe nie są podpisane, a szkoda,
bo tak naprawdę bez pewnie jakiejś
nawigacji obiektowej w screenreaderze
lub kursora JAWS, no nie wiemy
do czego ten skrót
ma być przypisany, a jest ich dużo.
Widziałem jakąś opcję
udostępniania schowka
znajomym i to chyba działa
po jakimś IP, czyli to musi być w sieci lokalnej
albo po odblokowanych IP,
ale jakieś współdzielenie tego schowka
widać, że jest możliwe.
Widziałem też
opcję
tworzenia własnych typów
schowków, no bo w schowku możemy mieć różne rzeczy.
Pliki, tekst.
Może o to chodziło w tej organizacji
foldery.
Ale tutaj widzę, że dyskusja skręciła
też w inną stronę,
bo tutaj padło pytanie,
czy można by na przykład
zmusić tą aplikację, żeby
przechwycywała jakieś nietypowe
rodzaje zawartości.
Tu jest przykład edytora audio,
który przykładowo
to takie Audacity, czy Reaper potrafi
skopiować audio i wkleić
je w innej instancji Reapera albo Audacity.
I pytanie, czy można
jakoś zapośredniczyć w tym procesie
i przechwycić to jakby w środku
i wrzucić do
jakiegoś jeszcze innego programu, do którego to nie jest
przeznaczone. I tutaj ponoć
do tego służą różne
typy schowków, żeby definiować
różne właśnie typy rzeczy, które mają się tam
znajdować, używając
Shella Windowsowego i tego, jak tam
między programami
po tym Shellu są różne dane wymieniane.
Więc to chyba bardziej
do tego są te typy schowków, żeby obsługiwać
różne typy zawartości.
Tak mi się wydaje.
No i dużo rzeczy
tutaj ponoć można zrobić. Ja jeszcze mówię,
muszę się z tą aplikacją zapoznać, może będzie o niej podcast,
może Arek do nas
też, czy jeszcze dziś, czy za
dzień, czy kiedykolwiek indziej zadzwoni
i nam trochę o tym opowie.
No ale
myślę, że jest to aplikacja ciekawa, warto
się nią zainteresować. Jest ona dostępna
też w języku polskim, co ciekawe.
Natomiast to spolszczenie nie jest
kompletne i już widziałem, że mam
połowę opcji po polsku, połowę po angielsku.
No ale
możecie się pobawić. Ditto.
Manager schowka. To z Windowsa
skaczemy sobie na systemy
Apple, bo tu Piotr ma dla nas ciekawy
czytnik na Maca i na iOS,
a ciekawy czytnik RSS.
Tak. To jest aplikacja,
która okazuje się wcale nie jest taka
nowa. Tutaj może nawet
mieć 10 lat, chociaż nie wiem, na pewno 3 albo 4
ma, ale ja się dowiedziałem o niej
teraz, dzisiaj rano mi
na masło do niej mignęła
no i w opisie zobaczyłem, że
też wspieram VoiceOver’a, więc
zobaczę, o co w tym chodzi.
Mowa tutaj o aplikacji
Fiery Feeds, Fiery Feds.
Nie wiem, czy to się tak czyta, tak mi przynajmniej
angielski eloquence czyta, więc
załóżmy, że tak.
Aplikacja jest darmowa,
aczkolwiek ma abonament,
który kosztuje 10 zł
miesięcznie lub 60 rocznie.
Jest darmowy okres
próbny, no ale
tych aplikacji do czytania kanałów RSS
jest bardzo dużo, więc
dlaczego powinniśmy się akurat
zainteresować tą?
Po pierwsze, no to ma wszystkie
takie funkcje, które taka współczesna
aplikacja powinna mieć, więc tutaj mamy
różne usługi, z którymi
możemy się zsynchronizować, jest iCloud
oczywiście, ale są też te wszystkie inne
zewnętrzne, tutaj gdzieś się chyba
nic nie będę wymieniał, no ale te wszystkie
najbardziej popularne
są. Możemy importować pliki
opml, możemy tworzyć
foldery, potrafi wydobywać
tekst artykułów, więc tutaj nie ma
problemu, żeby się
przeczytać artykuł jakiś nawet
dłuższy. Możemy
pomijać reklamy i tak dalej,
są powiadomienia.
No, dostępność. Dostępność
jest generalnie na
fantastycznym poziomie, mamy
tutaj bardzo dużo czynności,
chyba więcej nawet niż
Visha, który chyba to był taki
taka sztandardowa aplikacja,
jeśli chodzi o to, jak zrobić dostępność
w czytniku RSS. No,
tych czynności jest dużo, bo możemy
otwierać wystawienia, rozwijać, zwijać
foldery,
oznaczać powyżej i poniżej jako
przeczytane, udostępniać artykuły,
oznaczać z gwiazdką,
tagować, o tagowaniu za chwilę,
bo to też taka ciekawa funkcja.
W wystawieniach
możemy zdecydować, czy ma nam
aplikacja czytać godzinę
publikacji, nazwę kanału, z którego
dany artykuł pochodzi,
oraz jego tekst
na liście artykułów.
Możemy włączyć, wyłączyć
pytanie, powiadomień.
Jak aktualizujemy kanały w aplikacji,
to się nam powiadomienia na górze
wyświetlają.
Kilka
niezetiketowanych przycisków
jest, tam w kilku miejscach przydałyby się
nagłówki, których nie ma, na przykład
jeśli sortujemy według
daty lub kanału,
no to tam są nagłówki,
w innych aplikacjach one są czytane jako
nagłówki, można po nich skakać.
Tutaj niestety na razie nie są, ale
będę się z twórcą kontaktował,
bo generalnie
aplikacja działa naprawdę fajnie.
Ale co nam jeszcze oferuje, dlaczego się
warto nią zainteresować? Mamy bardzo
duże możliwości konfiguracji
wyglądu. Możemy wszystkie
paski narzędzi, zarówno jak czytamy
artykuł
lub jesteśmy na liście artykułów
lub kanałów, możemy dostosować jakie
przyciski są na tym pasku, w jakiej kolejności.
Tutaj przypomina mi się
konfiguracja paska kart
w Springu czy w Monie,
to jest podobnie.
Możemy dostosowywać widoki
poszczególnych folderów.
To jest akurat fajne, bo
na przykład ja generalnie lubię
otwierać sobie na przykład folder
angielski lub polski, a
można też robić sobie podfoldery, więc na przykład
jakby ktoś chciał sobie zrobić podfolder
polski, a w nim sport,
informacje ze świata, technologia,
to można i tak samo dla innych języków.
No to taki folder
można zdecydować na przykład
jak te kanały
mają się wyświetlać, czy ma
nam je grupować
według kanału
czy według daty, ale
na przykład na liście artykułów,
które oznaczyliśmy w piasku, naszych ulubionych, na przykład
nie chcemy, żeby nam grupował po kanale, tylko
po dacie od najnowszych, bo po prostu chcemy
zobaczyć co tam ostatnio
dodaliśmy. To można ustawić,
jak się te artykuły mają
w danym folderze wyświetlać, więc tutaj
jest tych możliwości całkiem sporo.
Możemy wyszukiwać
artykuły we wszystkich naszych kanałach
i co ciekawe,
te wyszukiwania możemy sobie
zapisać i one wtedy się wyświetlają
jako folder, a to już nam daje duże
możliwości, bo możemy
na przykład sobie wyłączyć powiadomienia w aplikacji,
ale to sobie
wyszukiwanie na jakieś konkretne słowo kluczowe,
które nas bardzo interesuje, nie wiem, niewidomi
albo jakaś konkretna
ulubiona aplikacja, która nas
interesuje, albo osoba.
No i zapisać sobie takie wyszukiwanie,
włączyć na to wyszukiwanie
powiadomienia, no i jeśli któryś z naszych
kanałów napisze coś
o tym, czego szukamy,
to dostajemy o tym komunikat
i możemy sobie w każdej chwili taki
filtr przejrzeć.
Możemy artykuły
tagować. To jest też fajne.
Oprócz tego, że mamy te gwiazdki, które mają
wszystkie aplikacje, no tutaj możemy też tworzyć
własne tagi. No ja tutaj
u siebie to widzę już
zastosowanie zapisywania
sobie artykułów, które chcę w Tyflo Przeglądzie
umawiać. Dodałem sobie
tag Tyflo Przegląd i teraz mogę
z czynności znaleźć opcję
dodaj tag, wyswietla mi się lista
po prostu zaznaczam Tyflo Przegląd. To wygląda
bardzo podobnie jak
dodawanie na przykład utworu
do playlisty w Spotify’u na przykład.
Bardzo podobna idea.
Później takie tagi też się nam
wyświetlają na liście. Możemy sobie do nich wejść
i coś
z tymi artykułami robić.
Mamy inteligentne widoki.
Tutaj aplikacja nam oferuje na przykład
widok z artykułami
z kanałów, które
dużo piszą albo mało publikują.
Albo możemy zobaczyć
tylko artykuły z dzisiaj.
To jest takie akurat częste, ale na przykład
widok tylko krótkich
lub długich artykułów i możemy sami
zdefiniować co to znaczy, ile słów
to jest krótki, ile słów to jest długi.
Tego jeszcze w innej aplikacji nie widziałem.
To się nam może przydać tutaj.
Jak nie mamy dużo czasu, chcemy tylko jakieś krótsze
teksty zobaczyć, to
możemy to
zrobić.
Więc aplikacja jest całkiem ciekawa.
Natomiast ma kilka
problemów.
O tym jednym z nagłupkami to już
wspominałem. Druga kwestia jest
taka, że domyślnie
te artykuły otwierają się
w natywnym widoku.
To jest fajne, bo zamiast strony internetowej
otwiera się po prostu pole
tekstowe, co działa
trochę szybciej. To byłoby fajne,
gdyby nie to, że w tym widoku
nie jesteśmy w żaden sposób
informowani ani o nagłupkach,
ani o linkach. Ten tekst jest
rozwijany na akapity.
Jeśli tam są jakieś linki, to po prostu o nich nie wiemy.
Więc w ustawieniach warto przejść na
stary
widok i wtedy te artykuły,
nawet jeśli chcemy widzieć tylko tekst,
wyświetlą się po prostu jako strona
internetowa. I tutaj już wszystko,
wszystkie skróty
nawigacyjne nam
w VoiceOverze zadziałają.
A drugi problem dotyczy
aplikacji na Maca, bo na iOS
jest naprawdę fantastycznie.
A na Macu to jest aplikacja
Catalyst, więc tutaj
jest przeportowana wersja na iOS.
A takie aplikacje niestety,
jeśli deweloper
nie poświęci trochę czasu, żeby tam
kilka kwestii dopracować,
to często mają problemy,
zwłaszcza takie bardziej skomplikowane.
No i tutaj problem
podstawowy jest taki, że kursor
VoiceOver i Focus
klawiatury się ze sobą niesynchronizują.
Co to znaczy? To znaczy tyle, że możemy
sobie z ciałkami chodzić na przykład po liście
artykułów i
ten Focus nam będzie się zmieniał. Nawet nam VoiceOver
przeczyta, który artykuł jest zaznaczony,
no to nie będzie nam o nim mówił,
jeśli będziemy chodzić z ciałkami.
No a jeśli
będziemy chodzić z VoiceOverem
zamiast tego, no to owszem, wtedy możemy
sobie wejść w jakieś artykuły, zaznaczyć,
ale wtedy, po pierwsze,
wszelkie skróty klawiszowe,
które pozwolą nam na przykład
oznaczyć jakiś artykuł jako przeczytany,
gdzieś właśnie dodać gwiazdkę,
gdzieś przenieść,
to nie zadziałają na tym
artykule, na którym jest ustawiony
Focus VoiceOvera, no jeśli byśmy
taki artykuł otworzyli, a potem
z niego wyszli,
no to Focus nam wróci
na początek okna, więc no tutaj
trzeba to na
Macu dopracować.
No ale aplikacja generalnie jest bardzo
ciekawa. Jeszcze a propos
oznaczenia jako przeczytane,
tutaj zapomniałem dodać do notatek,
że jeśli oznaczamy artykuły
jako przeczytane, możemy
też to robić według czasu, więc
możemy poprosić na przykład, żeby aplikacja
oznaczyła nam tylko artykuły
starsze niż, nie wiem, niż
24 godziny. No i wtedy
jakieś starsze artykuły owszem zostaną oznaczone
jako przeczytane, no ale też dzisiaj,
albo nawet można z ostatnich godzin,
ostatnich kilku godzin
mogą nam być pozostawione.
Więc jest dużo opcji,
na pewno na iOS-a myślę,
że aplikacja jest warta przetestowania,
a na Macu
no to na razie bym się jeszcze wstrzymał
niestety, ale generalnie
jeśli ktoś szuka takiej
aplikacji do zaawansowanego
czytania kanałów RSS, to
myślę, że warto sprawdzić.
No pozostaje mieć nadzieję, że
rzeczywiście, jeżeli na przykład udałoby Ci
się skontaktować z autorem i
przekazać mu te sugestie dostępnościowe,
no to by je wdrożył.
Coś, tak myślę,
że może mieć to
sens, dlatego, że
no chyba jednak on coś próbował
w tej dostępności działać.
Ewidentnie, tam zresztą w opisie jest
wzmianka voice’owa, że to voice’owe jak jest trakcja,
więc no myślę, że tutaj po prostu nie wiem.
Coś poszło nie tak.
Tak, nieprzetestowane to dokładnie,
czy coś. Dokładnie.
Więc rzeczywiście całkiem
interesujące narzędzie.
I to tyle, jeżeli chodzi o
nasze dzisiejsze notatki.
Pytanie tradycyjne na koniec,
czy coś jeszcze?
Ja widziałem jedną
relację, nie jest jeszcze potwierdzona,
bo widziałem to od jednej osoby,
ale podobno, tak rozmawialiśmy
o Twiscaku wcześniej, no chyba
właśnie ta wersja macowa,
tam był klucz podmieniony, też już
niestety przestała działać.
No mi się jeszcze dzisiaj zalogował.
Pytanie, czy odświeża
tweety.
Już patrzę.
Kiedy mam ostatni tweet z mojej listy?
No tak,
dwie godziny temu.
No to,
to może być problem.
O, i chyba nam
Pawła wyrzuciło.
Albo jakiś problem
złączem się pojawił.
No ale w każdym razie, rzeczywiście
mniej więcej coś jest na rzeczy.
O, jesteś, jesteś.
Włączam Twiscake’a
i istotnie, tak,
macie rację. Co, nie działa?
No nie, nie wygląda na to,
żeby się logował.
Trudno.
To bye bye.
To jest oficjalny koniec wszystkich klientów
w tym planie.
A Spring?
Spring wiecznie żywy.
To końca wiosny.
No to szkoda.
Powiedzieliśmy, że Twisca jak działa,
a już padła.
W trakcie audycji, Ilon słuchał po prostu.
Ilon słuchał i wyłączył.
No cóż,
miejmy nadzieję, że może
jeszcze odrodzi w tej kwestii,
a jeżeli nie, no to, że po prostu
Mastodon będzie
rósł w siłę i coraz więcej
takich interesujących źródeł tam się będzie.
Jeżeli nie nawet przenosiło,
to po prostu utworzyło konta,
żeby można było sobie
obserwować te same osoby, które
na Twitterze, to również
i na Mastodonie. Tego myślę, że
możemy wszystkim życzyć.
Na koniec dzisiejszego Tyflo Przeglądu,
numer 179,
który wspólnie ze mną poprowadzili
Paweł Masarczyk i Piotr Machacz.
Dziękuję Wam bardzo.
Ja również dziękuję za uwagę.
Michał Dziwisz, do usłyszenia, do następnego spotkania
na antenie Tyflo Radia.

Wszystkie nagrania publikowane w serwisie www.tyflopodcast.net są dostępne na licencji CreativeCommons - Uznanie autorstwa 3.0 Polska.
Oznacza to, iż nagrania te można publikować bądź rozpowszechniać w całości lub we fragmentach na dowolnym nośniku oraz tworzyć na jego podstawie utwory Zależne, pod jedynym warunkiem podania autora oraz wyraźnego oznaczenia sposobu i zakresu modyfikacji.
Przekaż nam swoje 1,5% podatku 1,5 procent Logo FIRR Logo PFRON Logo Tyfloswiat.pl

Czym jest Tyflopodcast?

Tyflopodcast to zbiór instrukcji oraz poradników dla niewidomych lub słabowidzących użytkowników komputerów o zróżnicowanej wiedzy technicznej.

Prezentowane na tej stronie pomoce dźwiękowe wyjaśniają zarówno podstawowe problemy, jak metody ułatwienia sobie pracy poprzez korzystanie z dobrodziejstw nowoczesnych technologii. Oprócz tego, Tyflopodcast prezentuje nowinki ze świata tyfloinformatyki w formie dźwiękowych prezentacji nowoczesnych urządzeń i programów. Wiele z nich dopiero znajduje sobie miejsce na polskim rynku.

Zapraszamy do słuchania przygotowywanych przez nas audycji i życzymy dobrego odbioru!

Tematyka

Pozycjonowanie i optymalizacja stron internetowych