TyfloPrzegląd Odcinek nr 173 (wersja tekstowa)
Pobierz napisy w formacie SRT
Pobierz napisy w formacie VTT
FUNDACJA INSTYTUT ROZWOJU REGIONALNEGO PREZENTUJE
TYFLO PODCAST
W KALENDARZU MAMY PIĄTEK
W kalendarzu mamy piątek, to jest 3 dzień marca 2022, nie, 23 roku.
Trzeci miesiąc w kalendarzu Nowego Roku, a ja jeszcze się do daty nie przyzwyczaiłem.
I w sumie, tak na dobrą sprawę, nie wiem po co ją mówię, chyba też z przyzwyczajenia,
bo dziś nie jesteśmy na żywo, a w sumie, nie wiem, po co ją mówię,
chyba też z przyzwyczajenia, bo dziś nie jesteśmy na żywo, a w sumie,
nie wiem po co ją mówię, chyba też z przyzwyczajenia,
bo dziś nie jesteśmy na żywo, dziś nagrywamy dla Was te audycje,
aczkolwiek będzie to taki standardowy Tyflo Przegląd,
w którym będziemy dla Was mieć sporo różnych technicznych nowinek
dotyczących tego, co tam w technologiach asystujących i przyległościach słychać.
To jest Tyflo Przegląd numer 173, witamy Was bardzo serdecznie.
W takim składzie powiedziałbym średnim, ani dużym, ani małym,
bo bywały już składy mniejsze.
Michał Dziwisz przy mikrofonie, przy dwóch mikrofonach pozostałych
Paweł Masarczyk i Tomasz Bilecki.
Witamy Was bardzo serdecznie, ja jeszcze tylko dodam,
ale to może za moment powiem na temat tego nieco więcej,
bo dziś ten Tyflo Przegląd realizujemy tak trochę eksperymentalnie
w oparciu tylko i wyłącznie w zasadzie, mógłbym powiedzieć, o software.
Szczegóły za moment i za moment się pochwalę, co ja tutaj testuję
w naszym radiowym studiu, bo najpierw kilka słów o tym,
o czym właściwie będziemy mówić dziś w audycji.
W tym tygodniu w Tyflo Przeglądzie.
Niewidomi użytkownicy produktów Apple coraz bardziej niezadowoleni
o to, co robią, by zwrócić uwagę firmy.
MemPad – prosty, tekstowy edytor z drzewkiem.
Międzynarodowy konkurs dla niewidomych kompozytorów.
Nowe limity dorabiania Dorend od marca.
Niewidomi a OpenStreetMap – jak robić to dobrze?
StickyShift – nowe skrypty dla Jossa.
Nowości w dodatkach dla NVDA.
Problemy z dostępnością subskrypcji w App Store.
LinkedIn usprawnia nawigację po postach.
Signal wymaga capczy przy rejestracji.
Nowa beta eSpeak’a na iOS – jest szybciej, ale czy, aby nie na zbyt szybko?
Zmiany dla użytkowników Brailla w Windows 11.
Nowe interesujące aplikacje.
Nowości w czytnikach ekranu.
Sony pierwszym partnerem Be My Eyes, oferującym specjalistyczną pomoc w języku polskim.
Ruszyły konsultacje społeczne odnośnie europejskiej karty osoby niepełnosprawnej.
Wszyscy chcą teraz klonować nasz głos.
Testowaliśmy sztuczną inteligencję w wyszukiwarce Bing.
Aplikacja łącza z telefonem, zintegruje się z systemem iOS.
Wyszukiwarka wbudowana w Windows również dostanie sztuczną inteligencję.
Dostępny interfejs do transkrypcji audio mechanizmem od Google.
Wszystko to, a pewnie jeszcze więcej już za chwilę.
Zaczynamy!
Z pewnością znacznie więcej różnych rzeczy dziś na naszej antenie to się nie pojawi,
bo audycja nie jest na żywo, więc wszystko mamy zaplanowane.
Aczkolwiek bywa to tak dosyć często, że jeszcze w międzyczasie, w czasie prowadzenia tego programu,
gdzieś nam się jakieś tam różne informacje zaczynają dopiero pojawiać i kto wie,
być może tak też się stanie i dziś i również jeszcze coś tam w międzyczasie dorzucimy do tych naszych notatek.
A teraz zgodnie z obietnicą kilka słów o tym, co tu jest takiego nietypowego
i jak dziś w nietypowy sposób nagrywamy tę audycję.
Mówię nagrywamy, bo na razie no po prostu tak eksperymentalnie postanowiliśmy zrealizować ten Tyflo Przegląd właśnie w ten sposób,
ale docelowo mam obok siebie urządzenie, któremu na pewno poświęcimy kiedyś w całości jakąś audycję.
Mianowicie urządzenie Vocaster.
To jest sprzęt, o którym już kiedyś opowiadaliśmy w Tyflo Przeglądzie,
bo doczekał się już, no myślę, że nie będzie przesadą jak powiem, że wielu zagranicznych podcastów też
i ze względu na to, że jest to dla nas bardzo dostępne urządzenie również w tej warstwie konfiguracyjnej,
w warstwie oprogramowania, dzięki któremu możemy zarządzać tym interfejsem Audion.
A dlaczego o tym dziś mówię?
A no dlatego, że w końcu doczekaliśmy się tak naprawdę urządzenia, które pozwala na sprowadzenie i realizowanie co najważniejsze audycji radiowych.
Może nie jakichś bardzo skomplikowanych, ale powiedziałbym, że tak w 90% różnych przypadków,
które mamy w trakcie realizowania audycji radiowej, że Vocaster pozwala nam na to wszystko,
co zazwyczaj do czego jest nam potrzebny mikser, pozwala na realizację tego w sposób wygodny, no i miejmy nadzieję stabilny.
Czy stabilny, czy tak do końca stabilny to się wszystko okaże w trakcie tej naszej dzisiejszej audycji,
bo no dzisiejszy Tyflo Przegląd to jest taki właśnie eksperyment,
ale na temat samego Vocastera, no to jeszcze myślę, że powiemy sobie niejedno w trakcie dedykowanej mu audycji na antenie Tyflo Radia.
A teraz już przechodzimy powolutku do wydarzeń bieżących i do tych naszych bieżących notatek, które tu mamy.
Na dobry początek odwołamy się jeszcze do komentarzy, które pojawiły się w poprzednim Tyflo Przeglądzie, pod poprzednim Tyflo Przeglądem.
Mamy tu między innymi komentarz naszego słuchacza Michała, który teraz pozwolę sobie zacytować,
bo myślę, że może być on przydatny dla części z naszych słuchaczy.
Cześć, no wiem, że pisząc poniższe podkładam się, na to kompletnie no trudno, ale może komuś się przyda.
Wyciszę sobie tylko mowę, bo coś mi tu się synteza zanadto rozgadała w telefonie i kontynuuję już ten wątek Michała.
Żeby przedłużyć profil zaufany należy z grubsza zalogować się i potwierdzić drugi poziom logowania kodem z SMS.
To mnie wyszło okej, przejść do szczegółów konta profilu zaufanego i aktywować właściwą opcję od przedłużania i potwierdzania danych.
To też okej. Wpisać dwa razy adres e-mail raz numer telefonu to też okej.
Potwierdzić kod dostarczony w e-mailu i to okej. Potwierdzić kod dostarczony w SMS i profil przedłużony.
No i to już mi nie wyszło. Ostatni kod SMS nie przychodzi, a strona profilu zaufanego wylogowuje.
No więc robiłem to na iPhonie i godzinę zajęło mi wymyślenie, że trzeba w iCloud wyłączyć przekazywanie prywatne.
Czyli ten VPN od Apple dla Safari. Po wejściu w ustawienia Apple ID, czyli pierwsza pozycja ustawień z imieniem i nazwiskiem,
dalej iCloud i wyłączeniu tam opcji przekazywania prywatnego, wszystko oczywiście zaczęło działać okej.
Zmyliło mnie, że w sposób powtarzalny wywalało mnie dopiero na ostatnim kroku.
Ale teraz to mogę się usprawiedliwiać, no i jest to mój pierwszy ujawniony przypadek, kiedy nie mogłem czegoś zrobić z powodu przekazywania prywatnego.
Pozdrawiam. My Ciebie też Michale serdecznie pozdrawiamy i dziękujemy za te informacje.
Rzeczywiście można się spodziewać, że z takimi opcjami właśnie VPN, zwłaszcza zmiennymi, bo zdaje się, że Apple to nie przypisuje nam tam jakiegoś statycznego adresu,
tylko od czasu do czasu zmienia te adresy, no to mogą być różne sytuacje.
Dodajmy do tego jeszcze jakieś kwestie geolokalizacyjne, które również mogą mieć to i owo do powiedzenia w przypadku różnych usług naszej Polskiej Publicznej Administracji.
No i rzeczywiście może być z tym różnie, nie mniej jednak warto wiedzieć i warto mieć to na uwadze, więc jeżeli macie włączone przekazywanie prywatne w Waszych iPhone’ach
i coś Wam tam nie działa, no to może spróbujcie to wyłączyć, a nóż pomoże.
A teraz już przechodzimy do informacji bieżących na dobry początek.
Pawle, kontynuując wątek jabłuszka nadgryzionego, niewidomi użytkownicy Apple coraz mniej zadowoleni są z dostępności usług tej firmy, no i dają temu wyraz.
Tak, bo problemy Apple, no, przeciągają się i przedłużają. Na ogół iPhone’y są ikoną dostępności i gdzieś w tych wyborach sprzętu, czy taki, czy inny, bardzo często są brane pod uwagę właśnie z uwagi na tę dostępność.
Czy iPhone’y, czy Mac’i, czy nawet TV, zegarki, tablety, iPad. Natomiast to nie jest wszystko takie piękne i cudowne, bo okazuje się, że już od lat Apple co wydanie wprowadza jakieś błędy.
Te błędy są bardziej, mniej poważne, są eliminowane częściej lub rzadziej, niektóre znikają w kolejnych wersjach, niektóre od lat gdzieś się nagromadziły i są z nami nadal, no i gdzieś taka sytuacja już od lat występująca powoduje, że, no, to frustracja użytkowników musi gdzieś ujść.
I ja odnalazłem informację o dwóch takich źródłach, czy sposobach może ujścia tego typu frustracji. Pierwsza rzecz, jaka się wydarzyła, no, Apple, dział dostępności Apple zorganizował spotkanie, no, na którym różni, powiedzmy, udziałowcy, tak szeroko o tym mówiąc, czyli grupy użytkowników, użytkownicy, organizacje mogły się spotkać i pewne rzeczy omówić, o pewnych rzeczach usłyszeć.
No i w ramach tego spotkania też, czy też jednym z uczestników tego spotkania był z ramienia Europejskiego Związku Niewidomych Bart Simons, belgijski użytkownik, który, no, w różnych takich technologicznych kwestiach reprezentuje EBU, przed firmami i w różnych instytucjach.
Ja miałem przyjemność akurat z Bartem prowadzić kiedyś podcast EBU Access Cast, więc jeżeli słuchaliście nas wtedy, to głos Barta będziecie na pewno kojarzyć. Natomiast tym razem on był naszym głosem tam i przedstawiał różne obawy użytkowników, no, europejskich, jeśli chodzi o produkty Apple.
No i czego się dowiedzieliśmy z tej konferencji, z tego spotkania? Oczywiście, jeżeli mówimy tu o Europie, no to pierwszy wątek, jaki się nam nasuwa, to jest wsparcie różnych języków, oczywiście przełamane na dwie kategorie, czyli syntezmowy i brail.
No i w przypadku syntezmowy zostało zadane pytanie, kto stoi za tym, kto podejmuje te decyzje, z czego to wynika, że jedne głosy są zamieniane na inne w niektórych językach, że słowniki tych syntezatorów są nastawiane w ten sposób, że próbują coś czytać, ale im to nie wychodzi,
że w jednej wersji wymowa bardzo prostych słów była dobrze zrobiona, a tu nagle wychodzi nowy iOS i wszystko jest popsute, jakoś dziwnie wymawiane. Kto tym w ogóle zarządza i czy tutaj w ogóle ma na to wpływ ktoś, kto rzeczywiście mówi naszym językiem, czy to są jakieś takie przymiarki i dopasowania pod kątem angielskiego albo tych języków większościowych.
No i okazuje się, rzecz, która mnie osobiście bardzo zaskoczyła, podobno istnieją w Apple lokalni jacyś doradcy czy pracownicy, którzy zajmują się tym, jak w danym języku ma działać synteza.
Oznaczałoby to, logicznie myśląc, że na rynku polskim, czy na rynek polski jest też oddelegowana taka osoba w Apple, która po polsku jak najbardziej mówi i zarządza tym właśnie, jak te syntezatory mówią, jakie głosy, no to średni ma wpływ sam Apple, bo korzystając z vocalizera to, co Nuance daje w API czy w SDK to jest udostępniane.
Natomiast to, jakie jakości tych głosów, jak to jest wszystko wymawiane, na jakich platformach, co jest jak udostępniane, tym wszystkim zarządzają te właśnie osoby. Pewne decyzje oczywiście idą z góry, ale takimi kwestiami typowo językowymi zajmują się osoby, które autentycznie coś z tym krajem czy z tym językiem, powiedzmy może, o który chodzi, mają wspólnego.
Nie ujawniono, co to za osoby, kim te osoby są, czy można się z nimi jakoś skontaktować. Prawdopodobnie tym osobom przekazuje pewne rzeczy wsparcie Apple. I tutaj była prośba, aby użytkownicy różne takie problemy głosowo-językowe, słownikowe zgłaszali, jak zwykle, do wsparcia Apple, do działu dostępności.
Co ciekawe, był podany konkretny przykład, zapytano o niego ponoć na Węgrzech. Nastąpiła taka sytuacja, że głos, który brzmiał lepiej, a przynajmniej społeczność użytkowników niewidomych była do niego bardziej przyzwyczajona, został zamieniony na taki, który już społeczności się podoba mniej.
No i odpowiedź pani Sary Herrlinger, która zawiaduje działem dostępności Apple, była taka, że, no ale ta zamiana głosu nastąpiła po konsultacjach ze społecznością użytkowników na Węgrzech. Jakich użytkowników, co to za konsultacja, kto to zgłaszał, kto te uwagi przyjmował, nie wiemy.
Ale rzekomo konsultacje były. No więc tyle wiemy, jeśli chodzi o syntezy mowy. Jeśli chodzi o Braille’a, jest dość podobnie. Jeżeli znajdziecie błąd w jakiejś tabeli Braille’a, w tablicy braille’owskiej, na przykład polskiej, no to można go również zgłosić na accessibilitymaupaapple.com. Mowa tu oczywiście o wbudowanych tablicach Apple, nie o Liblui.
No i na koniec była też sugestia, że mamy różne funkcje w Apple’u, w tym też na przykład wykrywanie drzwi. No i jest to ciekawa funkcja, ale idealnie byłoby, gdyby była ona dostępna na jakimś sprzęcie noszonym na głowie, na jakiejś tam kamerze doczepianej, na okularach. Do tego się już pani Herrlinger nie odniosła.
A propos jeszcze wracając do syntez, zgłosił się do odpowiedzi Jakob Rosin, czyli prezes estońskiego Związku Niewidomych, za sugestią, że istnieje estoński głos i czemu to się tak dzieje, że jeszcze go nie ma w iPhonie.
Nie jest to głos wokalajzera, tylko głos innej firmy. No i tu Apple stwierdził, że oni albo nie wiedzieli o tym, że ten głos istnieje, albo technologie nie były kompatybilne do tej pory, ale oni są otwarci na rozmowy, żeby taki głos zintegrować, więc jest wyrażona jakaś chęć współpracy nawet przy głosach zewnętrznych, które niekoniecznie są głosami z tej serii wokalajzer.
No to otwiera furtkę do różnych ciekawych pomysłów na przyszłość. Zwłaszcza, że Apple próbował się pochwalić tym, że wspiera, chyba tam była powiedziana kwestia wprost, że wszystkie języki oficjalne Unii Europejskiej, już mogę powiedzieć, że to się nie zgadza, bo nie ma języków bałtyckich, właśnie estoński, litewski, łotewski.
Nie ma języka amerykańskiego, nie ma języka irlandzkiego. No to chyba tyle z tego, co teraz tak na szybko jestem sobie w stanie przypomnieć. No natomiast widać, że jakaś próba spotkań i dyskusji jest, ale to nie wszystko, bo również w zeszłym tygodniu została taka inicjatywa powołana przez portal Apple Vis,
aby użytkownicy w formie takiej ankiety, którą udostępnili administratorzy portalu, wyrazili swoją opinię na temat obecnego stanu dostępności produktów Apple. I można było oceniać różne rzeczy. Funkcje voiceovera, sensowność funkcji, które oferuje voiceover, doświadczenia już użytkownika, czyli jak nam się podoba działanie tych funkcji, jakie mamy z nimi doświadczenia.
Podobny schemat dla brajla, podobny schemat dla funkcji dla osób słabowidzących i podobny schemat, już taki bardziej otwarty system komentarzy dla nowych funkcji wprowadzonych w ostatniej wersji iOS.
Polecam przeczytać ten raport, bo jego wyniki się już ukazały. Są tam wybrane wypowiedzi niektórych osób, użytkowników, którzy postanowili swoje uwagi zgłosić. No i daje on nam pewien taki obraz tego, co na ten moment z Apple jest nie tak.
I oczywiście na szczycie tego, na co najczęściej się narzeka jest niedostateczny rozwój voiceovera na Maca, gdzie widać wieloletnie zaległości i zaniedbanie przez Apple voiceovera na tą platformę, co się objawia na przykład w niewystarczającym wsparciu dla pakietów biurowych,
które nie potrafią nam dać takiego poziomu dostępności jak jest na przykład na Windowsie. Problemy z stabilnością funkcji gdzieś, brak pewnych funkcji takich produktywnościowych, które mamy już na iPhonie.
Z drugiej strony na iPhonie najwięcej chyba narzeka jest w sekcji Brailla, gdzie te błędy w obsłudze Brailla się nie naprawiają, pojawiają się nowe, ogólnie ujmując wsparcie Brailla na iOS staje się coraz mniej stabilne.
Też wiele narzeka nie jest jeśli chodzi o tvOS. Możecie sobie poczytać o tym, jak nie wszystkie monitory braillowskie są wspierane na Apple TV, jak bardzo zaplątany, zagmatwany jest gdzieś voiceover na tvOS w porównaniu z iPhonem o pewnej ociężałości i braku dostępności konkretnych nowych funkcji w iPadOS.
Myślę, że jest to bardzo ciekawa lektura, bo podsumowuje w jakiś sposób właśnie wszystko co jest nie tak z dostępnością w Apple. No i plan jest taki, przynajmniej tak z tego co wyczytałem ze strony administracji AppleWiz, żeby wyniki tego raportu, wyniki tej ankiety przedstawić samej firmie Apple i zobaczyć jaka będzie reakcja.
No myślę, że to jest pierwsza inicjatywa tego typu na tak szeroką skalę zakrojona. Zobaczymy jak to zostanie skomentowane przez samą firmę z nadgryzionym jabłkiem w logo, no i czy sobie wezmą te uwagi do serca i zaczną coś naprawiać, bo przeczytać sobie taki ciekawy raport to jest jedno, ale sztuka w tym, aby to co zostało w nim ujęte rzeczywiście wziąć sobie do serca i zacząć naprawiać.
No ja nie ukrywam, że bardzo bym sobie tego życzył jako użytkownik wieloletni produktów Apple, bo faktycznie błędy nowe się gdzieś tam pojawiają, zresztą o błędach będziemy jeszcze dziś mówić, bo między innymi ostatnimi czasy pojawił się jeden i to taki no dość poważny, bo dotyczący już kwestii finansowych, co jest istotne, ale nie uprzedzajmy faktów.
Trzymajmy zatem kciuki za to, żeby się państwo z Cupertino po prostu ogarnęli i może nieco więcej środków przeznaczyli ze swojego budżetu na dział Accessibility, który będzie te dostępnościowe funkcje dopieszczać i bardziej uważnie testować. Tego myślę, że wszyscy możemy sobie życzyć.
A teraz przechodzimy do kolejnych tematów. Między innymi ja tu znalazłem już jakiś czas temu takie narzędzie, które myślę, że może się części osób przydać. Jest to mianowicie prosty edytor tekstu, prosty notatnik, ale z bardzo ciekawą jedną funkcją, mianowicie taką, że te notatki, które sobie tworzymy w tym programie, a program nazywa się MemPad,
możemy umieszczać w obrębie drzewa. Możemy sobie tymi notatkami też żonglować, możemy je przesuwać względem siebie, zagnieżdżać jedna w drugiej i tak dalej i tak dalej. Było kiedyś takie oprogramowanie, ono się nazywało bodajże Tripad, ono już nie jest rozwijane.
MemPad zdaje się, że rozwijany jest nadal. No i myślę, że jeżeli kogoś interesuje właśnie taki edytor tekstu z taką funkcją, tam jeszcze on ma kilka dodatkowych funkcji, między innymi możemy sobie prowadzić nasz własny dziennik. Jest specjalna funkcja do prowadzenia dziennika.
Akurat tego nie testowałem, bo takowego nie prowadzę, ale podejrzewam, że to chodzi o to, że tworzymy sobie odpowiednie gałęzie w tym drzewie dotyczące lat i miesięcy, a później automatycznie wypełniamy rzeczy związane z dniami, tworzone są notatki, w których możemy coś wpisywać.
MemPad jest w zasadzie dość dobrze dostępny dla czytników ekranu, natomiast nie jest pozbawiony wad, przynajmniej jeżeli chodzi o moje testy z NVDA. Ten program ma problem z podwójnym czytaniem ostatniej linijki tekstu, więc jeżeli mamy coś tam wprowadzone, mamy jakiś wiersz na końcu tego pliku i później na przykład mamy pusty wiersz, to on nam przeczyta podwójnie.
Jest to jakieś takie niekonsekwentne i może wprowadzać w błąd, natomiast dotyczy to tylko końca pliku, w żadnym innym miejscu coś takiego się nie dzieje.
Jest jeszcze jedna fajna rzecz, a właściwie która mogłaby być fajna i ja wiązałem dość spore nadzieje z tym, bo MemPad pozwala na linkowanie do różnych plików, a także na linkowanie wewnątrz notatek, czyli możemy sobie linkować z jednej notatki do drugiej, jeżeli naprawdę mamy jakieś zaawansowaną strukturę tego drzewka, to może być to przydatne.
Problem tylko w tym, a testowałem jedynie linkowanie do plików, że te linki po prostu nie działają, to znaczy one są oznajmiane, że jest to link, ale nic się z tym nie da zrobić, nie da się aktywować tego linku, nie da się w żaden sposób w niego kliknąć, próbowałem na kilka sposobów i niestety przynajmniej u mnie to nie działa.
Natomiast jeżeli interesuje Was właśnie taki edytor tekstu, który pozwala na docieranie do notatek z takiej drzewiastej struktury, która jest czytana przez nasze programy odczytu ekranu bez większego problemu, no to polecam MemPada, link do pobrania tej aplikacji znajdziecie w komentarzach pod najnowszym Tyflo przeglądem.
A teraz przechodzimy do kolejnego tematu, tym razem to temat Pawła, otóż jest pewien międzynarodowy konkurs dla osób, które to i owo potrafią skomponować.
Tak, konkurs organizowany jest już od lat przez konserwatorium imienia Jana Deyla, to w Czechach i przy współpracy z Czeskim Związkiem Niewidomych. Konkurs zaprasza wszystkie osoby niewidome, które tak jak Michale wspomniałeś komponują i tu już jest mowa o kompozycjach takich bardziej klasycznych,
bo mogą to być solistki bądź soliści lub też grupy muzyki orkiestrowej, może też być wykonanie wokalne, ale maksymalnie dwa głosy ludzkie, nie ma żadnych ograniczeń co do długości takiej kompozycji, natomiast należy wysłać do organizatorów albo nagranie jak utwór jest wykonywany,
albo w jakimkolwiek formacie elektronicznym bądź brajlowskim zapis nutowy naszej kompozycji. No i takie już gotowe skomponowane dzieło bierze potem udział w konkursie, w którym nagrody są myślę warte tego wysiłku,
bo 800 euro za pierwsze miejsce, 600 za drugie i 400 za trzecie oraz wykonanie publiczne oraz nagranie tych utworów przy właśnie patronacie konserwatorium, więc jeżeli komponujecie w stylu wydaje mi się takim orkiestrowym muzyki poważnej no to jest to konkurs dla Was i możecie swoich sił spróbować.
Życzymy powodzenia i miejmy nadzieję, że ktoś chociażby z naszego kraju taką nagrodę wygra. Kto wie, kto wie, jak będziecie się zgłaszać to na pewno szansa wzrośnie, a tymczasem skoro w kalendarzu marzec to i nowe limity dorabiania do rent. Tomku Ty wiesz więcej na ten temat.
Tak i jak szanse wzrastają to i limity wzrastają, bo w ostatnim kwartale wynagrodzenie wynosiło 6733 zł i 49 groszy i to jest wzrost o 250 zł, więc tutaj jest inflacja to nie tylko wzrosty cen, ale też wzrosty płac.
W ogóle często to wzrasta wynagrodzenie. No i raz tak, 70% tego wynagrodzenia, czyli to jest ta kwota, przy której renta obecnie jest zmniejszana o tam odpowiednio, to jest 4713,50 zł, czyli do tej kwoty brutto można pracować bez żadnych, nie będzie z tą rentą działo się nic.
Renta właśnie od tej kwoty będzie zmniejszana, natomiast maksymalny poziom wynagrodzenia, przy którym ta renta będzie całkowicie zawieszona to jest w tym kwartale 8753,60 zł.
No i ta kwota spowoduje, że ta część renty, która nam zostanie jeszcze po tych wszystkich ograniczeniach, no to już nam zostanie zawieszona do końca i zostanie tylko to co sobie zarobimy.
Jeszcze tak a propos tego zmniejszania, złotówka za złotówkę, o którym się od jakiegoś czasu mówi, także w kontekście renty socjalnej, ja ostatnio też gdzieś tam interesowałem się tym tematem jak to wygląda i to jest trochę, że to rzeczywiście tak jest, ale nie do końca.
Otóż to znaczy nie, to nawet nie o to chodzi, ale jeżeli na przykład wychodzi nam, że tam przekraczamy o parę złotych tę kwotę, to ZUS tę rentę i tak nam zmniejszy o konkretną, z góry ustaloną kwotę.
Ona się też co roku zmienia, w tym momencie to chyba jest nawet jakieś 700 czy 800 złotych i chyba bliżej 800 od tego miesiąca. Oczywiście później te różnice, która wynika z tego ile my tam przekroczyliśmy tę rentę, no to w kontekście tej złotówki za złotówkę ZUS nam zwróci, ale to dopiero w rozliczeniu rocznym.
I to nie jest tak, że jeżeli my tam przekroczymy o parę złotych, to tylko o parę złotych ta renta nam zostanie zmniejszona. Nie, ZUS nam zabierze najpierw i to z tej renty nie tak znowu mało, a dopiero potem nam te różnice odda.
Jest to coś o czym warto pamiętać, jeżeli ktoś powiedzmy nie ma jakichś takich oszczędności i żyje z miesiąca na miesiąc, tak po prostu, że ma ten swój budżet dopięty na ostatni guzik i że tutaj jakakolwiek strata może być dla niego bolesna, bo można się po prostu zdziwić.
A druga rzecz to jest to, że zarabia na tym ZUS. Dlatego, że nie było pieniądze z roku na rok tracą na wartości. Im większa inflacja, tym bardziej pieniądze tracą na wartości. W związku z powyższym te same pieniądze, które nam ZUS odda w przyszłym roku, nie mają takiej samej wartości. Będą mniej warte, dokładnie tak jak mówisz.
Dokładnie, więc na to trzeba zwracać uwagę i takie trochę smutne, że w sumie za chęć pracy, za to, że gdzieś tam jesteśmy na przykład coraz to lepszym pracownikiem, bo w końcu nam pracodawca oferuje jakąś tam podwyżkę, to i tak trochę jesteśmy przez taką instytucję.
No mimo wszystko ja to odbieram jako jednak jakąś trochę karę, bo oczywiście później się tłumaczą, że oni to przecież oddają i tak dalej i tak dalej, ale to jednak tak już na papierze i jak sobie policzyć to wszystko, co mamy konkretnie na koncie i co dostajemy do ręki, no to wcale to tak różowo nie wygląda. To tak tylko na marginesie.
A teraz przechodzimy do kolejnego tematu, już tym razem chyba będzie nieco bardziej optymistycznie, bo nikt nam nic nie będzie chciał zabierać, wręcz przeciwnie, będzie nam chciał dać kolejne punkty nawigacyjne z OpenStreetMap. Właśnie jak to wszystko ma działać, żeby niewidomym było jak najbardziej pomocne, o tym teraz opowie Paweł.
No tak, otóż wpadł w moje ręce ostatnimi czasy dość ciekawy artykuł z Wikipedii, znaczy nie z Wikipedii, tylko z Wiki projektu OpenStreetMap, który okazuje się, że jest już całkiem stary, bo początki, pierwsze wzmianki w tym artykule były dodawane w roku 2009.
I jeszcze tam znajdziemy odniesienia do aplikacji Loadstone GPS na Symbiana i założenie jest takie, że osoba niewidoma korzysta właśnie z Loadstone’a. No, dużo rzeczy z tego artykułu jakoś odnosi się do rzeczywistości, a uważnie niemieckiej, bo chyba ktoś z Niemiec, z niemieckiej społeczności, tworzył ten artykuł u jego podstaw, przynajmniej w wersji jego angielskiej.
Ten artykuł też w trochę okrojonej wersji istnieje po polsku, natomiast w wersji angielskiej znajdziemy dużo bardzo ciekawych informacji, których w polskiej wersji nie ma, dlatego też o tą wersję się teraz w moim opracowaniu będę opierał.
No i czego się możemy tam dowiedzieć? Po pierwsze, istnieje mnóstwo tagów, bo wiadomo, jak dodajemy w OpenStreetMap punkt, to przypisujemy mu różne tagi. No, tagi, czyli takie znaczniki, które służą do tego, żeby jakieś szczegóły o tym punkcie, takie stałe szczegóły mu przypisać.
Stałe w sensie takim, że można się spodziewać, że one w różnych punktach będą podobne albo takie same, więc się im przypisało już jakby takie stałe znaczniki. No, takie, powiedzmy, ptaszki, haczyki, yes, no, czy coś jest lub czegoś nie ma.
No i okazuje się, że tego typu tagi powstały, żeby zaznaczyć obniżenie krawężnika, kiedy tworzymy taką mapę, żeby zaznaczyć, że przejście dla pieszych jest wyposażone w sygnalizację dźwiękową, że jest wyposażone w wibracje, że jest wyposażone w przycisk z tym trójkącikiem, który wskazuje nam kierunek, w którą stronę należy przejść.
Czy jest wysepka? Czy istnieją gdzieś planety fotograficzne? Czy istnieją linie prowadzące? Oczywiście, tu mi słowo uciekło przez chwilę. No i także, nie pamiętam już teraz, czy jest to tylko i wyłącznie propozycją, czy rzeczywiście to jakoś się bardziej przyjęło,
spadły kategorie miejsc na takie usługi, które osobom niewidomym albo się mogą przydać, albo przez osoby niewidome są prowadzone, czyli organizacje osób niewidomych, sklepy ze sprzętem tyflo i sprzętem medycznym, restauracje w ciemności,
gdzie można zdaje się zdobyć wodę dla psa przewodnika, czy sklep z artykułami jakimiś odpowiednimi dla psów i może koniecznie dla psów przewodników.
Różne informacje na temat podziału ścieżki na ścieżkę dla pieszych, ścieżkę rowerową. No i są to takie rzeczy, których ja nie widziałem, żeby one były jakoś wykorzystywane w tych nawigacjach naszych, które na OpenStreetMap bazują, czyli DotWalker, czyli Seeing Assistant Move, a mogą to być bardzo przydatne informacje.
Może być też tak, że w Polsce tego się jakoś nie dodaje zbyt często, aczkolwiek te tagi są ujęte jak najbardziej w artykule w języku polskim.
Też okazuje się, że w Niemczech były w ogóle spotkania całe dotyczące OpenStreetMap, jego użyteczności dla osób niewidomych. Co prawda jest to początek gdzieś minionej dekady, jakiś rok 2011, może 2012, no ale takie spotkania się odbyły, czy w Hanowerze, czy w Marburgu, czy gdzieś jeszcze.
No i były tam prowadzone dyskusje, powstawały też projekty, był projekt mapy dźwiękowej, był projekt usługi pozwalającej na uproszczony wydruk map dotykowych bazujących na OpenStreetMap.
Przeróżne pomysły wynikały z tych różnych eksperymentów. Niewiele z nich się niestety utrzymało. Natomiast poradnik jak najbardziej został i jest on przydatny. Jest on przydatny także dla nas, bo okazuje się, że przynajmniej ta część, która interesowała się osobami niewidomymi w OpenStreetMap,
z projektu zdeklarowała się w tym pomagać, że w jaki sposób my możemy dokładać się do tego, żeby powstawały też mapy OSM, mimo że nie widzimy i nie potrafimy graficznie nanieść rzeczy na mapy. Otóż nic prostszego, wystarczy za pomocą aplikacji, która jest w stanie nam tworzyć ślady GPS.
Wystarczy, że przejdziemy jakąś trasę, czy troszkę pospacerujemy gdzieś po naszej okolicy, zarejestrujemy taki ślad w formie pliku GPX i udostępnimy go w portalu do śladów GPX, jest taki portal w ramach OpenStreetMap, z tagiem BlindOSM.
I tak oznaczony ślad osoba widząca może podjąć jego edycję i pooznaczać to, gdzie my tam przyszliśmy, nazwami ulic, pooznaczać jakieś POI, które pomijaliśmy, pooznaczać drogi. Wystarczy, że my się przejdziemy, a osoba widząca te rzeczy pooznacza.
My jako osoby niewidome możemy także oczywiście wchodzić w interakcje z deweloperami, sugerować stworzenie nowych narzędzi, które nam jakoś te dane OSM doprowadzą do użyteczności albo w formie jakiejś nawigacji, albo jakiegoś innego narzędzia referencyjnego. Możemy tłumaczyć strony wiki i już dostępne oprogramowanie na nasz język.
Także w tych poradach dla osób dodających rzeczy do OpenStreetMap pojawiała się wzmianka, żeby jeżeli nie jesteśmy pewni lokalizacji punktu i go tak zaznaczamy na przysłowiowe oko, tak mniej więcej około, to warto oznaczyć lokalizację tego punktu tagiem FixMe, żeby inna osoba, która będzie znała dokładne położenie, oznaczyła to dokładne położenie, bo to dokładne położenie jest dla osób niewidomych ważne.
Także była sugestia, że jeżeli są dodawane pliki POI, punkty POI, to żeby oznaczać budynki i oznaczać ich wejścia także, bo dzięki temu osoba niewidoma może podejść bezpośrednio, na tyle oczywiście, na ile dokładność GPS pozwala, do wejścia.
Więc żeby nie oznaczać położenia danego punktu POI mniej więcej na środku budynku, czy powiedzmy na punkcie środkowym położenia budynku, tylko właśnie, żeby najpierw nanieść budynek z całymi jego wymiarami na tą mapę, a potem oznaczyć jego wejścia.
I wtedy tak pooznaczane dane można jak najbardziej wykorzystać, nawet nie widząc. Też jest zachęta, żeby kontaktować się z lokalnymi społecznościami twórców OSM, wchodzić tam we współpracę, sugerować co można by dodać, co można by zmodyfikować, no i być w kontakcie i zatroszczyć się o to, żeby te punkty w naszym mieście były jak najbardziej dokładne.
Pozostaje mieć nadzieję, że jednak może kiedyś w Polsce też szerzej będą te różnego rodzaju tagi wykorzystywane, bo chyba z tym jest słabo, prawda?
No wejścia jeszcze widziałem, że są oznaczone i Seeing Assistant Move jak najbardziej je wykrywa. Nie wiem jak to Dworker. Natomiast nie spotkałem się z tymi tagami właśnie do przejść dla pieszych, żeby były informacje o tym, czy jest dźwiękowe przejście, czy nie.
Ale to też z tego powodu, o którym mówiłem, czyli że te nasze nawigacje Dworkers i Seeing Assistant Move mogą tych tagów nie wspierać, a przynajmniej ja o tym nic nie wiem. Tu GRMapa była takim gigantem, który potrafił wyczytać, potrafił nam załadować wszystkie tagi dla danego punktu i my byliśmy w stanie sobie wydobyć takie informacje, jakie były nam potrzebne.
A w przypadku niektórych punktów lektura była długa, ale pasjonująca, bo można było poczytać sobie na przykład o woltażu linii tramwajowej tramwaju, który sobie odjeżdżał z naszego przystanku. Dużo było jakichś powiedzmy informacji na temat budynków, ilopiętrowe są te budynki, jaki tam materiał, jakieś wykonania.
A jeżeli klasztor na przykład, to pod jakim wezwaniem, czy żeński, czy męski. No naprawdę bardzo szczegółowe są te tagi i właśnie oprócz GRMapy nie spotkałem się jeszcze z narzędziem, które tak szczegółowo by je prezentowało.
To może autor GRMapy jakoś nam przybliży kwestię, bo być może wie coś więcej na temat implementacji tych tagów w pozostałych aplikacjach do nawigacji, bo może gdzieś zbadał ten temat, kto wie. Grzegorz nas słucha od czasu do czasu, więc może w komentarzach da znać jak to wygląda.
A teraz zmieniamy temat, bo będzie o nowych skryptach dla Jossa, które mogą się przydać szczególnie osobom z np. niesprawną jedną ręką, posługujących się tylko jedną ręką w pisaniu.
Mianowicie to są skrypty, które nazywają się Sticky Keys i jest to coś, co Joss realizuje w podobny sposób jak ta funkcja systemowa, natomiast ma ona działać lepiej, bo np. naciśnięcie shifta nie powoduje dodanie go do klawiszy nawigacyjnych.
Więc np. strzałki, jak deklaruje autor skryptów, mają zostać nienaruszone, ma to po prostu działać tylko na jakieś litery bądź też cyfry. I teraz jak to wszystko działa? Skrypty można zdaniem Snowmana, czyli człowieka, który już kilka różnych skryptów dla Jossa napisał, jest znany w międzynarodowym skrypciarskim środowisku.
One mogą być podpięte zarówno do jednej konkretnej aplikacji, jeżeli chcemy z nich w niej korzystać, jeżeli ona ma swoje skrypty, możemy je także podpiąć globalnie dla całego naszego Jossowego profilu i używać tych skryptów wtedy wszędzie.
Działa to w bardzo prosty sposób, otóż naciskamy klawisz shift, słyszymy odpowiedni dźwięk, wpisujemy literkę jaką tam chcemy albo cyferkę i jest ona traktowana tak jakby była wpisana jednocześnie z shiftem.
Jeżeli się rozmyślimy, no to po prostu naciskamy shift jeszcze raz i wtedy ten shift jest zwalniany bez wprowadzania dużej litery. Natomiast tu od razu Snowman przestrzega, żeby się tak specjalnie tym nie bawić, bo naciśnięcie kilkakrotnie klawisza shift spowodować może aktywację tych systemowych klawiszy.
Właśnie tych sticky keys to są chyba klawisze trwałe, one tak się nazywają, czy klawisze lepkie, też gdzieś tam spotkałem się z takim opisem, natomiast można oczywiście sobie to wszystko też wyłączyć w ustawieniach systemowych, jeżeli nie chcielibyśmy, żeby te funkcje się ze sobą gryzły.
Skrypty są darmowe do dowolnego użytku, zatem po prostu nic tylko pobierać, korzystać, jeżeli oczywiście ktoś ma taką potrzebę i potrzebuje właśnie takich skryptów do działania i do pracy z JOS-em.
Kolejny temat i też wokół czytników ekranu, ale tym razem z JOS-a przechodzimy do NVDA, bo tu mamy nowości w dodatkach.
Zgadza się i w tym tygodniu mam dla Was trzy nowości, dwie z nich to dodatki w sumie, a trzecia to pewien komunikat, który z dodatkami jest dość mocno powiązany.
No i zacznijmy od tego, co tam w dodatkach nowego. Pierwsza rzecz jest dość ciekawa, jest to dodatek FF Tools. FF, czyli można by pomyśleć, że chodzi o Firefoxa albo o Follow Friday, jak ktoś jeszcze pamięta z Twittera, a teraz z Mastodona,
ale nie, chodzi o jeszcze trzecią rzecz, która się z FF kojarzy, czyli biblioteka FFmpeg, czyli taka biblioteka służąca do dość zaawansowanego zarządzania odtwarzania konwersji multimediów na różne sposoby.
No i na co pozwala nam dodatek FF Tools w związku z tym? Pozwala nam na to, żeby odtwarzać multimedia bezpośrednio z eksploratora plików, bez otwierania jakiegokolwiek odtwarzacza. To już znaliśmy z wtyczki ZPOD, również z resztą hiszpańskiej, bo FF Tools jest też wtyczką o hiszpańskim radowodzie,
czy raczej hiszpańskojęzycznym. Natomiast oprócz tego, że możemy odtwarzać i o tym jak odtwarzamy, to za chwileczkę opowiem, możemy też tym plikiem na kilka sposobów manipulować. Możemy go skonwertować na inny format, możemy go przyspieszyć, zwolnić, możemy go podgłośnić, możemy też go przyciąć.
A wszystko to z poziomu eksploratora plików od razu za pomocą dodatku. No i jak to wszystko działa? Otóż mamy dwie komendy na start, które nie są do niczego przypisane. Musimy sami sobie je do jakichś skrótów klawiszowych przypisać w zdarzeniach wejścia, czyli otwarcie powłoki odtwarzania i otwarcie powłoki komend.
Powłoka odtwarzania polega na tym, że naciskamy skrót, mając oczywiście podświetlony plik multimedialny w eksploratorze plików. Powłoka się aktywuje i w tym momencie możemy zarządzać odtwarzaniem. Spacją powodujemy rozpoczęcie odtwarzania bądź pauzę.
Strzałki góra-dół pozwalają na kontrolę głośności, strzałki lewo-prawo na przewijanie, natomiast home czy też page up w tym przypadku pozwala nam przejść na początek pliku. No i escape’em wyłączamy tą powłokę, kiedy już nie chcemy pliku odtwarzać.
Natomiast powłoka komend pozwala nam tu na bardzo ciekawe rzeczy, bo możemy tutaj klawiszem C przykładowo wybrać sobie bitrate, wybrać sobie format docelowy pliku, jeżeli chcemy zmienić za pomocą klawisza, zdaje się R.
Możemy dokonać zmiany prędkości i przycięcia, więc możemy na przykład zrobić dzwonek od razu z utworu. No i klawiszem L dokonujemy konwersji wsadowej. Więc taki mini-konwerter, mini-odtwarzacz w formie dodatku do NVDA. Bardzo ciekawa koncepcja, jak widać tych takich poręcznych narzędzi powstaje coraz więcej.
Jedne co warto mieć tu na uwadze to fakt, że binarne pliki, czyli plik.exe z ffmpeg należy pobrać osobno. Jest w readme do dodatku podany oczywiście link, no i umieszczamy wtedy tę binarkę w danych aplikacji, w appdata, nvda, tam addons, fftools, albo bezpośrednio tam, albo jest jakiś jeszcze folder bin czy inny.
I tam umieszczamy ten plik i powinno to wszystko działać.
Druga rzecz, to nie jest w sumie nowy dodatek, chociaż chyba o nim jeszcze nie mówiliśmy do tej pory, nie widziałem też takiej potrzeby, bo nie wiedziałem w sumie do czego go można by zastosować, a już mówiłem o podobnym dodatku, mówiłem kiedyś o dodatku nvda recorder.
Jest to dodatek, który rejestruje wszystko co mówi nvda, co mówi nasza synteza, co jest podawane do naszej syntezy do pliku tekstowego.
No i dlaczego postanowiłem o tym dodatku, a dodatek ten nosi nazwę speechlogger mówić?
A no ponieważ zainspirowany artykułem Drew Webera, do którego też zresztą będzie link podany w komentarzu, artykuł ten traktował o tym jak wykorzystać skrypty do JOS-a i skróty w iOS, no żeby podglądać sobie z iPhona co tam też nasz komputer w ostatnim czasie powiedział.
No i ja jako że JOS-a nie używam, postanowiłem skonstruować sobie coś podobnego na bazie nvda.
OK, jak ja tego dokonałem? Ja to może zademonstruję troszeczkę, ja załączę tutaj teraz udostępnianie dźwięku i już Wam to pokażę.
Rozpoczęto udostępnianie dźwięku. Mamy tutaj dźwięk. Mamy, mamy, potwierdzam.
Tak jest. I warto zacząć od tego, żeby pobrać sobie wtyczkę speechlogger. Do tej wtyczki będzie jak najbardziej podany link w komentarzu. No i po jej instalacji trzeba ją troszeczkę ustawić.
Ja zaraz tu pokażę w jaki sposób.
Mamy tutaj wtyczkę speechlogger. No i cóż, ta wtyczka nam pozwala ustawić. To jest też wtyczka, która zapisuje mowę do pliku, tylko że do osobnego pliku. Mowę lokalną, a mowę zdalną.
Czyli jeżeli jesteśmy w sesji NVDA Remote, to będziemy mieli dwa pliki na to, co powiedział nasz komputer i na to, co powiedział komputer zdalny, którym sterujemy.
No więc dobrze. Zobaczmy, jak tą wtyczkę ustawić, żeby było wszystko tak, jak należy. I żeby na iPhonie nam się to wyświetlało.
Speechlogger strona. Log directory. Grupa. Pole edycji zaznaczone C. Users HP Dropbox.
Dokładnie. Ja sobie ustawiłem tutaj katalog mowy lokalnej na Dropboxa. Na główny katalog mojego Dropboxa. No można oczywiście stworzyć jakiś podkatalog. Ja zrobiłem tak.
Browse. Przycisk.
Tutaj przeglądaj, gdybym musiał zmienić ścieżkę.
Local speechlog filename. Pole edycji zaznaczone NVDA speechlog.
Tak. I tutaj już jest nazwa pliku. Jak się ten plik nasz ma nazywać? No domyślnie się nazywa tak. Możemy sobie tą nazwę zmienić.
Remote speechlog filename. Pole edycji.
Tutaj dla zdalnej mowy, czyli NVDA Remote. Dla komputera podłączonego.
Separator opcjons. Grupa. Utterance separator. Lista rozwijana. Twospat SNVDA log style.
Tak. Jak ma, jeżeli na przykład jest podawany jakiś komunikat, on się składa z kilku jakby takich fraz, które synteza wymawia poniekąd osobno.
Na przykład nie wiem. Pulpit lista. To jest jedna fraza. Mój komputer. To jest druga fraza. I tam jeden z 86. To jest chyba trzecia. Tak mi się wydaje.
Ewentualnie jeszcze potem jakiś tam wyświetla dodatkowe informacje, czy wyświetla pliki i foldery, coś tam. To jest jeszcze kolejne.
No i pytanie. Jak to ma być rozdzielane? No, ja polecam zostawić tak jak jest, bo jeżeli damy na przykład nową linię, jest tu taka opcja.
New line. To wtedy, no wiadomo, na iOS będzie to jeden flik, jedna fraza. No, nie do końca chyba tak chcemy.
Nie byłoby to zbyt wygodne w czytaniu, więc lepiej to zostawić tak jak jest.
Można też zrobić własny separator, jeżeli komuś z jakichś przyczyn bardzo na tym zależy.
No i tu wystarczy nacisnąć OK. I po tej stronie jest już wszystko zrobione.
No a teraz co na iPhone’ie? Na iPhone’ie należy stworzyć skrót. Ja już pokażę jak ten skrót powinien wyglądać.
Może trochę też zwolnię. No i spróbujmy.
No i zobaczmy jak ten mój skrót.
Tak, mam taki trzyczynnościowy skrót NVIDIA Speech Viewer. Ja do niego też udostępnię link w komentarzach.
No ale zobaczmy najpierw może z czego on się składa.
Tak, pierwszą czynnością jest pobierz plik Dropbox. Wybieramy ją.
Oczywiście będzie wymagana autoryzacja z Dropboxem aplikacji skróty. Robimy to.
No i co robimy, gdy już wybierzemy tę akcję pobierz plik z Dropbox?
Wskazujemy ścieżkę do naszego pliku.
No nie, nie chcemy usuwać.
Wybieramy ścieżkę do pliku, tam będzie pole edycji, możemy wpisać od razu albo po slashach ścieżkę do folderów, albo jeżeli mamy w głównym folderze te pliki, no to od razu nazwę tego pliku z NVIDIA Speech Log.
Pokaż wybór dokumentu. Odhaczamy, no bo nie chcemy za każdym razem wybierać osobno dokumentu.
My jesteśmy zdecydowani na jeden konkretny plik, który ma zostać pobrany.
Tak, tutaj mamy tą ścieżkę do pliku.
No może być błąd, no bo zawsze warto wiedzieć, jak coś nie zagra.
Drugą czynnością, którą zaraz potem sobie wstawiamy jest pobierz tekst z wejścia, no bo wzięliśmy sobie plik, tak, kazaliśmy naszemu skrótowi dostać się do tego pliku, wydobyć jego treść
i teraz naszym wejściem, naszym inputem jest treść tego pliku, więc pobierz tekst z wejścia, czyli spraw, aby tekst z tego pliku udało się do czegoś dalej wykorzystać.
To jest mniej więcej to, co oznacza.
I szybki przegląd to jest trzecia akcja, czyli pokaż taką nakładkę, takie okienko z treścią tego pliku.
Ja teraz pokażę, jak to działa w praktyce.
Ja zamknę tutaj skróty.
Wisielec to fajna gra swoją drogą, jeszcze mogę o niej dzisiaj powiedzieć krótko.
No i co ja mogę teraz zrobić? Może na początek wyczyszczę stary plik z rzeczy, które tam były, bo robiłem sobie wcześniej jakieś już testy i myślę, że nie ma co oglądać starych rzeczy.
Możemy sobie obejrzeć nowe.
Generator pliku.
NVDA Metal Screw.
NVDA Spech Log.
NVDA 2D Pusta. Odznaczono.
Pusta. Pusta.
Dropbox. Pasek zadań.
No i teraz, przypuśćmy, dlaczego ja w ogóle taki sposób sobie stworzyłem?
A no, przypuśćmy, że zostawiamy jakiś proces, może być pobieranie czegoś, jakaś instalacja czegoś dużego.
To może być jakiś czat, który nam gdzieś leci i bardzo chcemy go śledzić.
To może być jakaś, nie wiem, zmiana jakichś parametrów czegoś, utworów w radiu, czegoś tam w wierszu poleceń.
No, różne mogą być powody i różne mogą się rzeczy dziać.
I bardzo byśmy chcieli, no nie wiem, musimy wyjść gdzieś i bardzo byśmy chcieli ten proces, jego postęp śledzić, będąc w trasie.
No i wystarczy, bo NVDA, przy założeniu, że NVDA będzie te kolejne etapy tego, co chcemy śledzić, czytać samodzielnie.
No to włączamy logowanie mowy do pliku.
To, co będzie mówił NVDA nam się do pliku zapisze, a my możemy to przejąć na telefonie w sposób, jaki zaraz pokażę i sobie to czytać.
No dobrze, to ja załączam w takim układzie dodatek.
Dodatek.
Started Logging Local Spelech.
Użyłem skrótu NVDA Alt L.
No, zaczęło się logowanie mowy.
W porządku. Przejdę teraz sobie na Zooma.
Zoom spotkanie.
I pochodzę troszkę tabem po interfejsie.
Wyświetl przycisk 3 z 35. Informacje o spotkaniu przycisk 6 z 49.
Prowadzący może wyłączyć wyciszenie na włączono oryginalny dźwięk.
Zatrzymaj nagrywanie Alt. Zatrzymaj nagrywanie wycisz.
Tymczasowo wyłączono wyciszenie Alta przycisk.
No dobrze, coś tam nam ten screenreader poczytał i też coś tam nam się do tego pliku już zdążyło zapisać.
Dobrze, no to w takim razie ja przypisałem sobie do tego skrótu gest voiceover 3 razy 4 palce.
No i teraz go spróbuję wywołać.
O, shortcut. Tutaj trochę jest problem, bo ten nasz widok się załadował.
On jest załadowany, ale gdybym teraz zaczął nawigować gestami,
no to dalej jestem na ekranie głównym.
Muszę wyeksplorować palcem po ekranie.
Znane komunikaty.
Tak, słyszymy dokładnie to, co przed chwilą czytało nam NVDA.
Ja w tym momencie przejdę jeszcze trzy kontrolki dalej.
Ustawienia dźwięku przycisk menu. Rozpocznij wideo Alt V dymek.
Ustawienia wideo przycisk menu.
Ja tu powciskałem. To się nie odświeży, bo ja mam kopię pliku w momencie, kiedy wywołałem skrót.
Ja tu mogę szukać. Z szedłem palcem musiałem wyeksplorować na sam dół.
Mogę też udostępnić.
I to jest ostatni komunikat, jaki został wypowiedziany.
No nie jest to stan aktualny, bo ja już zdążyłem przejść o trzy pozycje dalej.
No więc zwinę tutaj dwoma palcami pocierając ten obecny widok.
Wróciłem sobie na ekran główny.
Wywołam raz jeszcze plik.
Otwarł mi się plik, co zostało oznajmione także nijak.
Dotknę sobie znowu, bo ja chcę ostatni komunikat.
Dotknę sobie u dołu ekranu.
I nawigujemy w lewo od końca pliku.
Jest.
Jest.
No więc jak widać, można sobie skonstruować taki,
taką rozgłośnię do tego, żeby nam to, co jest w tym momencie przez NVIDIA
czytane przez nasz screen reader, wyświetlało nam się dość szybko na telefonie.
Tak jak mówię, może być taka sytuacja, że chcecie jakiś proces dziejący się
na komputerze sobie mieć na podorędziu, nawet jak nie jesteście przy komputerze.
Oto jest sposób, jak tego dokonać.
Ja wyłączę teraz już zarówno…
NVIDIA Alt L, jak i udostępnianie dźwięku, bo nie jest na razie nam potrzebne.
I przejdę może do trzeciego newsa, który dla was dzisiaj mam w kwestii dodatków do NVIDIA,
czyli zbliża nam się sklep z dodatkami.
O tym już mówiliśmy.
Po pierwsze był dodatek nieoficjalnych hiszpańskiej społeczności Tienda para NVIDIA,
który nawet doczekał się polskiego tłumaczenia.
No i też były już rozmowy na liście mailingowej NVIDIA,
jak by taki sklep uczynić sklepem oficjalnym.
No i wygląda na to, że na dyskusjach się nie skończyło,
bo gdzieś pomysł twórcom NVIDIA cały czas w głowie siedział,
no i teraz on zbliża się powoli do rzeczywistości.
Bo powstały już pierwsze szczegóły tego, jak taki sklep będzie wyglądał
i już autorzy dodatków, zdaje się, mogą swoje dzieła w takim sklepie uczynić.
Zdaje się, mogą swoje dzieła w takim sklepie publikować.
No i jak to będzie w praktyce działać?
Otóż powstanie repozytorium na GitHubie,
do którego będzie można wrzucać informacje o dodatkach.
Będą to takie pliki manifestu, czy pliki metadanych,
w których będą podane właśnie nazwa dodatku, autor, krótki opis
i link do aktualnej wersji.
Ponoć cały proces zatwierdzania będzie automatyczny.
Nie będzie żadnego procesu ręcznej weryfikacji tego, co tam jest wrzucane.
Jedne, co będzie weryfikowane, to sumy kontrolne,
żeby to, co jest zadeklarowane w repozytorium,
sprawdzić, że się zgadza z tym, co jest pod linkiem.
Oczywiście będzie opcja, żeby czynnik ludzki tutaj zagrał
i ktoś będzie mógł gdzieś wyłapać i zgłosić jakiś niepożądany dodatek,
który może nie powinien się znajdować w takim repozytorium,
albo gdzie kod jest dość słabej jakości.
Natomiast sam proces opublikowania domyślnie będzie raczej automatyczny.
Tutaj autorzy postanowili się oprzeć na już znanym pomyśle,
bo w ten sam sposób wygląda publikacja oprogramowania w Wingecie,
w tym menedżerze pakietów, który poniekąd za sprawą programu Winget UI
był niedawno bohaterem jednego z ostatnich odcinków Tyflo Podcastu.
No więc tutaj ten sam pomysł ma się sprawdzić w przypadku czytnika ekranu NVIDIA i dodatków.
Zobaczymy, w której wersji oficjalnie ten sklep pokaże się wbudowany w czytniku.
No i super, że będzie, bo ułatwi to proces zarządzania,
odkrywania nowych i aktualizacji starych dodatków.
Swoją drogą, ja się tak zastanawiam, dlaczego ten temat sklepu tak się ciągnie,
bo on już jest od kilku lat, mam wrażenie, podnoszony i ciągle się o tym mówi,
że fajnie by było, żeby ten sklep się już pojawił,
natomiast przez długi, długi czas była taka wrażenie ze strony twórców NVIDIA,
że tak, że fajnie, ale to jeszcze poczekajmy, jeszcze to dopracujmy.
Być może jakieś kwestie związane z bezpieczeństwem,
natomiast jak Ty, Paweł, mówisz jak to ma działać w praktyce,
to ja tu specjalnie jakichś mocnych zabezpieczeń nie widzę przed różnego rodzaju nadużyciami.
Tak, też mi się tu wydaje, że to tak wygląda, zwłaszcza,
że żeby dodatek się zakwalifikował na oficjalną stronę NVIDIA,
tą add-on z NVIDIA Project Org, no to musi przejść jakieś standardy jakości kodu.
Tak, to się zgadza, tam na liście deweloperów NVIDIA, na której jestem,
no to są niekiedy dość duże dyskusje na temat poszczególnych dodatków,
co można by było poprawić, jak można to poprawić,
to nie jest tak, że ktoś tworzy dodatek i on od razu leci na stronę,
tam ta weryfikacja jest taka dosyć złożona,
więc trochę dziwi takie postawienie sprawy w przypadku tego oficjalnego miejsca z dodatkami.
Możliwe, że to będzie kwestia umowna, no nie powinno tak być,
ale że mimo wszystko to, co tam wpadnie do tego repozytorium,
będzie już dostępne awansem, natomiast nadal osoby,
ci tak zwani reviewers, recenzenci dodatków będą mogli tam zajrzeć
i w razie czego dany dodatek gdzieś tam wycofać.
Zobaczymy, jak to się sprawdzi w praktyce,
natomiast może ten Winged i jego popularyzacja były potrzebne jako taki katalizator,
czynnik zapalny może bardziej, który sprawił, że się zdecydowali w końcu coś z tym tematem zrobić.
No i oby nie skończyło się to tak, jak w przypadku repozytorium od GW Micro,
które to być może nasi starsi słuchacze pamiętają,
jak jeszcze istniał taki czytnik ekranu jak Window Eyes.
Pewnego dnia pojawiła się aktualizacja dodatków do tegoż,
no i po aktualizacji co kilkanaście czy tam kilkadziesiąt minut
otrzymywaliśmy wiadomość od Islamic State, że czas wyrównania rachunków się zbliża.
Jak dobrze pamiętam, jakiś taki mroczny komunikat.
Ten dodatek na szczęście zmodyfikowany, nic wielkiego tam nie robił,
tylko taki komunikat, ale mógłby, więc właśnie zastanawiam się,
jak to będzie wyglądało tutaj, no bo proces instalacji takiego dodatku
z takiego repozytorium jest znacznie prostszy niż pobranie go ze strony.
To prawda, a co by nie mówić, społeczność NVIDIA ma już za sobą przykład
użycia potęgi jaką jest Python, w którym pisze się dodatki,
którego cały interpreter mamy do dyspozycji w NVIDIA do niecnych celów.
Nawet na stronie dodatków NVIDIA już był raz komunikat a propos ostrzegawczy,
tylko pewnego dodatku, który obiecywał wiele, a okazało się,
że miał złośliwe oprogramowanie w środku.
Więc nie jest to temat bynajmniej obcy, myślę, społeczności i tego czytnika.
No nie wiem, rozumiem, że tutaj chcieli twórcy pójść w jakąś wygodę,
zwłaszcza, że no coroczne aktualizacje wymuszają to, żeby te dodatki
również, te aktualizacje przechodziły.
To prawda.
A umówmy się szczerze, gdyby co roku albo co jakiś czas regularny,
bo tak naprawdę co aktualizacje NVIDIA jakieś ukompatybilnianie tych dodatków
ma miejsce, no to już wymagałoby to dość solidnych zasobów finansowych,
żeby zatrudnić osoby, które będą tam siedzieć i to wszystko weryfikować.
No cóż, czas zatem pokaże po prostu co dalej i jak to będzie wyglądało,
a przede wszystkim kiedy ten sklep się w końcu ukaże.
Miejmy nadzieję, że już jesteśmy bliżej niż dalej tej drogi,
a teraz cóż, kolejne informacje.
Dziś Paweł ma maraton, ale spokojnie Tomek też się odezwie.
Tomek też ma swoje informacje, wystarczy po prostu cierpliwie poczekać
i to jakie, to za kilkanaście minut w porywach do kilkudziesięciu
wszystkie karty odsłonimy, bo teraz ty Pawle masz dla nas porcję kolejną,
tym razem takich drobnych newsów.
Tak, drobnych newsów, jedne są mniej, drugie bardziej pozytywne
i myślę, że warto tutaj zacząć od problemów z dostępnością subskrypcji w App Store.
Nie wiem czy ty się Michale natknąłeś, ale sporo użytkowników zgłaszało,
że przez jakiś czas…
Ujmę to tak, ja się natknąłem i słyszałem ostatnio o tym problemie,
natomiast ja go do końca nie mogę potwierdzić.
To znaczy ty Pawle najpierw może opowiedz jak to teoretycznie wygląda,
a za chwilę ja opowiem coś z praktyki.
Podobno po wejściu w App Store w subskrypcję nie jest możliwa nawigacja
po tych subskrypcjach, tak jakby VoiceOver niczego tam nie widział,
czy w jakiś sposób nie pozwalał podświetlić konkretnych aplikacji,
w których mamy subskrypcję.
Minęło trochę czasu i ponoć zostało to częściowo naprawione,
czyli da się eksploracją ekranu podświetlić konkretną subskrypcję,
ale nadal nie jest możliwa nawigacja gestami przesunięcia lewo-prawo.
Ja co ciekawe, ja mam nie najaktualniejszego iOS-a i to się widzę,
zaczyna bardzo ciekawie objawiać, bo dzisiaj, to za chwilę o tym powiem,
gdzieś tam w kręgach znajomych się pojawił raport o kolejnym przeciekawym błędzie,
który jakoś tak nagle mam wrażenie, przecież iOS 16.3.1 nie od dziś jest dostępny.
No, ale się pojawił. Natomiast ja chyba w zeszłym tygodniu albo dwa temu,
nie pamiętam, anulowałem subskrypcję jednej aplikacji.
Miałem taką potrzebę i u mnie żadnych problemów nie było.
Mogłem to spokojnie zrobić.
Natomiast dość sporo użytkowników się uskarżało na to,
że u nich problem występuje. Jak to było u ciebie, Michale?
Ja właśnie wczoraj usłyszałem o tym błędzie rozmawiając ze znajomym
i u mnie wygląda to tak. Ja to zresztą pokażę.
I teoretycznie tutaj nie mamy tego.
O, i jak sobie chodzę w końcu, gdzieś tam docieram,
ale wydaje się, że mam tych subskrypcji znacznie więcej niż bym miał.
A fokus, kiedy wejdę na listę subskrypcji, on się po prostu zawiesza
na tej pozycji, na której on się znajdzie.
Więc jeżeli chcę skorzystać z konkretnej subskrypcji, jeżeli chcę ją znaleźć,
to tak jak mówisz, muszę…
Tak, eksplorować.
I tu sobie mogę już wejść.
Ciach.
O.
I tu mogę anulować.
Więc jest to możliwe, jest to do zrobienia.
Natomiast nie jest to łatwe i to traktowałbym w kategorii
takiego dość poważnego błędu, bo jest to błąd, który powoduje już nasze,
jakieś tam, albo może powodować, jakieś nasze finansowe straty.
Ja słyszałem na przykład ostatnio o takiej sytuacji,
to w kontekście właśnie tych subskrypcji, o których rozmawiałem ze znajomym,
że jakaś tam osoba chciała skorzystać z tej usługi bodajże YouTube Music.
No ale nie działała ta usługa jej tak, jakby sobie tego życzyła
i chciała zrezygnować.
No i nie może.
No bo nie może wejść na tę listę albo na przykład nie potrafi do końca
korzystać z eksploracji i nie jest w stanie tego odnaleźć,
a tak naprawdę nie musi, bo przecież są do tego gesty,
do poruszania się po elementach ekranu.
Więc tak to z pewnością nie powinno działać i moim zdaniem akurat
w takich miejscach, bardzo ważnych miejscach, gdzie mamy już do czynienia
z kwestiami dotyczącymi pieniędzy, jakichś automatycznych odnowień,
płatności i tak dalej i tak dalej, to Apple powinno naprawdę kłaść
szczególny nacisk, żeby było to dostępne, bo najzwyczajniej w świecie
no tu decydujemy o naszych pieniądzach.
To prawda i można się bardzo gorzko rozczarować, bardzo naciąć
no i stracić pieniądze, więc uważajcie i miejmy nadzieję, że Apple
naprawi ten błąd dość szybko.
Wspominałem też o pewnym drugim błędzie, który dzisiaj dosłownie
wypłynął w dyskusjach gdzieś.
Mianowicie, ponoć w iOSie 16.3.1, w 16.4 ktoś demonstrował
i tego problemu nie było, w 16.1 niestety, no tu wstyd się przyznać,
w 16.1.2 dopiero, no to też tego problemu nie obserwuje,
a jest on jak dla mnie dość krytyczny, bo wiele aplikacji,
nagłówki akurat implementuje dobrze i ta nawigacja po nagłówkach,
no co by nie mówić, to poruszanie się po zwłaszcza takich
większych, skomplikowanych aplikacjach ułatwia.
Ja sobie do nagłówków przypisałem gesty voiceoverowe,
cztery palce góra-dół i ponoć z tego, co opisują koledzy,
ta funkcja przestała działać.
No i jest to przykre, bo to tak nagle się pojawiło,
nikt o tym nie mówił, tak jak mówiłem iOS 16.3.1 już troszeczkę temu wyszedł,
a tu taki brzydki błąd, no Apple nie fajnie,
to tutaj wracając do karty Apple Vis i no do nadziei,
że Apple sobie te różne uwagi i frustracje użytkowników
weźmie głęboko do serca, bo no wiele osób kupiło
dość drogie urządzenia w nadziei, że otrzyma wysokiej jakości
też dostępność, którą też wiele osób poleca, no i nie bez powodu,
a tutaj takie błędy.
Więc miejmy nadzieję, że zostanie to naprawione.
Ale przejdźmy do może bardziej pozytywnych wieści.
LinkedIn doczekał się również redesignu troszeczkę,
no i teraz jedno machnięcie oznacza jeden post,
no i to jest super sprawa.
Albo to już weszło, albo powoli wchodzi,
natomiast docelowo tak ma to wyglądać.
No, znowu wrócimy do troszeczkę mniej pozytywnych wieści,
ale podobno, sam tego nie sprawdziłem,
ale tak donosi jeden z użytkowników,
których obserwuję gdzieś w mediach społecznościowych,
na signalu pojawiła się kapcza przy rejestracji.
H-kapcza konkretnie, tak?
Tak, H-kapcza taka dość perfidna, bo no H-kapcza, jak wiemy,
oferuje nam to ciasteczko dostępnościowe, to cookie,
które możemy sobie do przeglądarki wgrać
i wtedy już oni wiedzą, że my jesteśmy człowiekiem,
natomiast to cookie działa w safari,
ale już nie w widoku jakimś tam aplikacji.
Tak, no bo każda aplikacja ma ten swój kontener,
w którym operuje i te dane ze sobą się nie mieszają.
Safari ma swoją piaskownicę, Telegram, czy Signal,
czy Facebook, czy jakikolwiek inny komunikator,
każdy ma swoją piaskownicę, ma swoje dane
i po prostu jeżeli wrzucimy to ciasteczko do safari,
no to nie wrzucimy go nigdzie indziej,
a podejrzewam, że nawet i takie aplikacje
ze względów prywatnościowych nawet nie mogą,
albo nie zawsze przyjmą nam takie ciasteczko,
bo sobie coś tam na przykład ustawimy,
albo w ogóle Apple tego nie przewidział,
żeby takie rzeczy lądowały w pamięci danego programu.
Jest jakaś nadzieja, że tutaj wejdzie to ten passwordless login
i w ogóle możliwość autentyfikacji nas za pomocą naszego iPhona.
Nie wiem, czy Signal na coś takiego pójdzie jako komunikator,
który chce nam gwarantować prywatność,
natomiast na ten moment, jeżeli się nie mylę,
my nie możemy samodzielnie założyć konta w Signalu,
zalogować się do niego, no i to jest…
To jest problem.
To jest problem, to jest zła wiadomość bardzo.
No, ale na koniec dwie wiadomości pozytywne.
Myśleliśmy, że to koniec rozwoju eSpeak’a na iPhona,
ale jednak nie.
Ukazały się dwie nowe bety,
no i jedną ze zmian, które zostały wprowadzone,
jest suwak do regulacji przerw między frazami.
To są te pauzy SSML,
czyli pauzy regulowane tym językiem programowania syntez.
No i dzięki temu już eSpeak nie robi aż takich przerw,
jak robił kiedyś,
między różnymi frazami, które były podane.
Wy już tego troszeczkę się nasłuchaliście tutaj pokątnie,
ale może zademonstruję.
Całkiem naturalne te pauzy, tak mi się wydaje.
Prawda. Trochę to nie przeszkadzać.
Jakoś tak on dziwnie to akcentuje, ale okej.
To jest w ogóle nowa wersja biblioteki eSpeak
i niektóre słowa są wymawiane tak dziwnie,
jak dwa jakieś takie bardzo są oddzielane, wybijane,
te niektóre dźwięczne spółgłoski.
Ja to może pokażę.
Najlepiej to się chyba prezentuje na wejściu ekranu Braille’a,
bo tam wyskakuje kilka komunikatów naraz.
Bez przystanku.
I ja używam zazwyczaj eSpeak’a na 50
i wtedy to brzmi już tak.
Dość ostra kanonada.
Musicie sobie wyobrazić też,
że kiedy próbujemy czytać jakiś fragment tekstu,
czy to jest na przykład dość długi akapit maila,
czy artykułu na stronie internetowej,
kiedyś ja się do tego nawet nie potrafiłem przyzwyczaić,
chociaż na komputerze mam dokładnie to samo,
bo tu u mnie Syntox czyta bez przystanku, czy RHA Voice,
natomiast eSpeak jakoś to sobie dzielił na segmenty,
przynajmniej na iPhone’ie,
a tutaj jak zaczął się produkować,
to leciał, leciał, leciał, leciał i bez przystanku,
aż nie byłem przyzwyczajony do tego,
że na iPhone’ie coś takiego może mieć miejsce.
Natomiast powoli się przyzwyczajam
i muszę przyznać, że jest całkiem fajnie.
Teraz te przerwy są bardzo znośne,
jak ktoś kiedyś mógł powiedzieć,
że no nie da się tego używać,
bo on tak bardzo oddziela i tam coś,
to teraz muszę przyznać,
że jak się ustawi ten suwak tych pauz SSML na zero,
no to jest naprawdę dobrze.
Wiesz, no tu parę sekund z życia,
tu parę sekund z życia
i się okazuje, że nagle zaczynamy sobie
dzięki skróceniu tych pauz
całkiem sporo czasu oszczędzać,
w skali dziennej, tygodniowej, miesięcznej.
To jest racja,
że jesteśmy przyzwyczajeni do tego,
żeby w takim,
tak dużo tekstu naraz przyjmować.
To jest inna sprawa myślę
i to jest kwestia też każdej osoby
i przyzwyczajenia.
To prawda i myślę, że nie jedna osoba,
która nas w tym momencie słucha,
to zada sobie pytanie
i postuka się w czoło,
o co im w ogóle chodzi,
przecież to jest w ogóle za szybko
i ta synteza to mówi naprawdę
w tępie iście ekspresowym.
No to jest też prawda,
że czasem nam się może wydawać,
że jak na przykład osoby niewidome
korzystają z syntezy mowy,
to zawsze korzystają z niej
tak naprawdę na wysokich obrotach.
Część osób, owszem,
ale to nie jest reguła
i to wcale też nie jest tak,
że każdy niewidomy będzie słuchał syntezy
o prędkości karabinu maszynowego.
No nie, są ludzie, którzy wolą
spokojnie i bez pośpiechu.
Można i tak.
Tak i prędkość to jest jeden czynnik,
który jest bardzo ważny
i to, że on nie biorąc nawet oddechu,
nie dając jakby mentalnie przerwy
na połknięcie tego, co my usłyszeliśmy,
jedzie, jedzie, jedzie, jedzie,
jedzie dalej, po prostu pendolino.
To fakt.
I mam wrażenie, po zmniejszeniu tych pauz,
że naprawdę zacząłem przyjmować
bardzo dużo tego tekstu naraz
i może być mi tego aż troszkę za dużo,
no ale na szczęście wszystko da się regulować,
nie trzeba od razu zjeżdżać do zera,
między 100, które jest domyślne,
a 0 jest jeszcze cała gama liczby,
ale to jest zależnie,
idealne dla siebie,
no obyście i Wy znaleźli swoje
i oby autor już niczego nie psuł do wydania,
bo już kiedyś było dobrze
w jednej z bet,
zanim została aplikacja oficjalnie wydana,
a potem znowu zostało to zmienione
i znowu było tak, jak mieliśmy,
więc miejmy nadzieję, że tu
no autor niczego już nie będzie grzebał,
bo jest dobrze,
można konfigurować,
już jest dobrze tak, jak jest.
No i na sam koniec tych naszych drobnych newsów
jak się obudziło,
oni tak się od czasu do czasu budzą
i jakąś porcję poprawek dostępności wrzucił.
Jest na pewno poprawione to,
że u dołu kiedyś były takie przyciski tam
na te kontakty, czaty,
coś tam jeszcze więcej,
teraz są to już normalne zakładki,
takie natywne,
jak powinny w aplikacjach być,
więc wiemy, że jest to zakładka,
wiemy, która jest wybrana,
jest wszystko jasne.
Dostępne stały się także foldery,
bo możemy sobie organizować
kontakty, grupy, kanały
na Telegramie w foldery.
No i one wcześniej dostępne na iOS nie były,
teraz już są.
Trochę lepiej wygląda kwestia w ustawieniach,
kiedyś tam to było mniej czytane,
zwłaszcza w sekcji zakupu premium,
teraz jest już trochę lepiej.
No i też w czatach grupowych
dowiemy się w odpowiedzi
na jaką wiadomość
naszą albo innej osoby
jest wiadomość, którą aktualnie czytamy.
To jest czytane w taki sposób,
że odpowiedź na wiadomość tam twoją
i czytana jest wiadomość ta,
która jest odpowiedzią
i dopiero na końcu jest czytana
wiadomość oryginalna,
do której się odnosi ta odpowiedź.
To się powoli zmienia.
Ponoć teraz jest jakiś taki moment,
gdzie nawet na Twitterze,
bo parę osób próbowało,
wsparcie techniczne Telegrama
jakoś bardziej łaskawie odpowiada
na sugestie dotyczące
profilową falę
i wzwyżkę nastrojów w Telegramie,
powstał kanał,
gdzie osoby niewidome
raportują różne rzeczy
związane z dostępnością.
Nie ma tam na razie nikogo z Telegrama,
ale pomaga to pewnie
w jakiejś koordynacji,
działaniami, tym co zgłaszać
w jakiej kolejności.
Gdybyście szukali TG A11Y
można tam się podpiąć do tej grupki
i zgłaszać błędy
i doświadczenia z Telegramem.
Ja teraz właśnie otworzyłem sobie
Telegrama, żeby sprawdzić
i istotnie Pawle, wszystko to,
o czym wspomniałeś działa,
tak to się wszystko zachowuje,
mamy te zakładki,
wygląda to zdecydowanie lepiej,
natomiast nadal niestety
przemieszczając się flikami
tam po liście,
kiedy już jesteśmy w oknie czatu
z konkretną osobą,
to nadal nam ten fokus gdzieś tam
więźnie na przyciskach,
później kiedy przechodzimy sobie
na listę wiadomości,
to on też nie do wszystkiego dociera,
no to jeszcze fajnie,
gdyby ktoś poprawił,
bo kiedyś było zdecydowanie lepiej,
no i może te dobre czasy
dla Telegrama znowu nadejdą.
Oby nadeszły,
zobaczymy jak to wyjdzie,
też widzę problemy z przewijaniem,
no miejmy nadzieję,
że to jest ten czas,
kiedy twórcy Telegrama
postarają się o tę dostępność,
nareszcie.
A teraz będzie o Braillu
i o Windowsie 11,
bo tu mamy coś nowego.
Owszem, mamy coś nowego
i do Windowsa 11 jeszcze wrócimy,
bo o tym wydaniu mówi się wiele,
o tych buildach insiderskich,
które aktualnie są testowane,
bo dochodzi tam dużo ciekawych rzeczy,
m.in. ulepszony panel głośności
i pewne inne funkcje,
o których później gdzieś porozmawiamy,
natomiast na razie skupmy się na tym,
co w dostępności,
no i w dostępności Braillu,
a w Braillu dodano dość szybkie,
szybsze przełączanie się
pomiędzy screenreaderami,
jeśli chodzi o Brailla,
czyli jeżeli używaliśmy monitora
Braillowskiego z narratorem
i przełączymy się na NVDA,
to bez jakiegoś zbędnego przeładowywania
jeden screenreader od drugiego
tego Brailla powinien przejąć.
No i też weszło wsparcie
dla nowych monitorów,
dla monitorów tych nowszych humanwarowych,
tych Brailliantów,
tych NLS Readerów BART,
które w Stanach są,
więc jeżeli ktoś w Polsce
będzie się wyposażał w humanwary,
to teraz one też działają,
działają one też,
no po prostu z narratorem.
No i to chyba tyle.
Jeszcze się próbuję tutaj
jakoś dokopać do ewentualnych,
ciekawych informacji
na temat tej wersji,
ale chyba to wszystko.
W związku z czym,
no myślę, że warto poczekać
na tę wersję Windowsa 11.
Tak, szczególnie, że słyszałem
o takich przypadkach,
w których niestety,
kiedy ten Windows
dostawał komunikaty,
a właśnie kiedy zainstalowaliśmy
w Windowsie obsługę Brailla
właśnie w narratorze,
to nagle przestawała działać
aż by były jakieś z tym problemy,
więc dobrze, że Microsoft
coś z tym robi.
Kiedyś, ostatnio miałem taki właśnie
telefon od znajomego,
który komuś konfigurował komputer,
komputer już cały w zasadzie zrobiony,
wszystko i mówi,
słuchaj, no chciałem jeszcze
dobry uczynek zrobić,
skonfigurować linijkę braillowską
we współpracy z narratorem
i z NVIDIA,
żeby to wszystko działało
i coś mnie podkusiło,
niepotrzebnie to zrobiłem,
bo teraz nie działa w NVIDIA ten braill,
działa za to w narratorze,
ale co bym nie robił,
to po prostu nie mogę tego cofnąć
i sprawić, żeby ten braill
zaczął działać z powrotem w NVIDIA,
no więc zadowolony to na pewno nie był.
Przypuszczam.
Tak jest.
Okej, no to teraz przejdźmy
do kolejnych nowości,
bardziej pozytywnych,
pozytywnych nowości,
bo przynoszących samo dobro,
jeżeli chodzi o aplikacje,
bo mamy trochę tutaj świeżynek,
konkretnie Pawle,
to ty masz jakąś listę dla nas.
Tak, zgadza się,
no i mamy kilka nowych rzeczy,
które wyszły w międzyczasie
i się okazało, że są dostępne
w sposób świadomy,
czyli albo do tej dostępności dotyczą,
albo twórcy tego czy innego rozwiązania
postanowili nad tą dostępnością
No i pierwszą taką aplikacją
jest aplikacja Guava.
Jest to aplikacja do śledzenia
naszego stanu zdrowia.
Wprowadzamy w niej różne parametry
dotyczące naszego zdrowia
i ona może nam jakieś rekomendacje
takie inteligentne podsuwać.
Zdaje się, że też łączy się
z różnymi serwisami z danymi fitness,
czyli jeżeli mamy różnego rodzaju
zegarki, smart, opaski,
no to mogą być dane nasze
z tych serwisów pobierane.
Tam możemy wręcz się łączyć
z różnymi dostawcami usług medycznych,
u których możemy, nie wiem,
korzystać z usług lekarza,
czy szpitali i tak dalej,
obieki zdrowotnej prywatnej amerykańskiej.
Tam jest to gdzieś zintegrowane,
a nawet możemy z poziomu aplikacji
zamówić sobie badania krwi.
Natomiast no umówmy się,
no w Polsce to nie działa,
a więc tutaj aplikacja ma charakter
typowo taki analityczny, referencyjny.
No i twórcy chcą pracować
nad dostępnością,
chcą się zgłaszać,
no bo po prostu chcą,
by ich aplikacja stała się lepsza,
a to się zawsze chwali.
Druga rzecz to program Lokalizateur
i jest to, no ja tak się żartobliwie
na to mówię, niezbędnik
niewidomych Francuzów,
no bo wyobraźcie sobie,
że Fondation Valentin Hay,
czyli no fundacja imienia właśnie
Valentina Haya,
czyli nauczyciela Ludwika Breila,
jedna z bardziej znanych organizacji
osób niewidomych we Francji,
jakiś czas temu,
ja się temu przyglądałem,
ale dopiero teraz miałem okazję
przetestować tak naprawdę
swoją własną aplikację,
która jakby jest jeden
by wszystkimi rządzić,
tak jak we Władcy Pierścieni,
czyli mamy jedną aplikację,
ona jest dostępna na Windowsa,
na Androida, na iOS-a,
nawet na BlindShell-a
i w tej aplikacji jest wszystko
i kiedy ja mówię wszystko,
no to rzeczywiście dużo rzeczy,
mamy bibliotek z książkami
francuskojęzycznymi,
mamy tam dostęp do taki mini katalog
stacji radiowych,
czy poświęconych osobom niewidomym,
czy takich ogólnych podcastów,
czasopism, gazet,
ale mamy tam też na przykład
nowości w kinach,
mamy na przykład
wykaz świąt i ferii we Francji,
mamy informacje covidowe,
mamy na przykład
możliwość wyszukiwania lekarzy
w usłudze Doctolib,
to jest taka francuska usługa,
coś jak u nas znany lekarz,
że możemy się umówić przez aplikację,
przez internet na wizytę lekarską,
mamy YouTube’a,
taki pseudo klient,
który w sumie osadza nam
tą ramkę taką YouTube’ową,
taki widok webowy YouTube’a w aplikacji,
ale możemy z poziomu tej aplikacji
wyszukiwać rzeczy na YouTube’ie,
jest integracja z Audible,
jest wyszukiwanie filmików,
mamy przeróżne rzeczy,
ja mogę za chwileczkę zresztą tą aplikację
otworzyć i pokazać
i tutaj coś dla osób,
które albo językiem francuskim już władają,
albo się dopiero tego języka uczą,
mamy dostęp do
wideoteki francuskich kanałów telewizyjnych
i to co ciekawe działa z Polski
i testowałem, tak,
to co w ostatnim czasie
było grane w telewizji
za kilka tygodni,
a może ostatniego kilku dni,
możemy sobie odtworzyć
w tej aplikacji.
Działa to z Polski, działa to za darmo
i co najważniejsze działa to z audiodeskrypcją,
więc jeżeli chcielibyście sobie obejrzeć,
znacie już język na tyle,
że rozumiecie filmy, seriale
w języku francuskim,
to możecie je oglądać
z poziomu tej aplikacji
z audiodeskrypcją.
No ta aplikacja też zwróciła moją uwagę
z innego powodu,
bo aplikacja jest naprawdę
mocno dopieszczona.
Mamy możliwość oczywiście organizacji,
jako że aplikacja jest dość rozbudowana
i oferuje nam dostęp
do naprawdę wielu treści,
no mamy tu dostęp do
bardzo rozbudowanych katalogów rzeczy.
Możemy sobie nasze ulubione,
właśnie ulubione, słowo klucz,
treści dodawać do ulubionych,
żeby mieć do nich szybki w miarę dostęp.
Możemy sobie też do tych
ulubionych naszych skrótów
przypisać skróty Siri.
No i jeżeli skróty Siri,
to też skróty takie jak pokazywałem tu,
czyli tradycyjne Apple,
czyli możemy sobie przypisać jakieś gesty voiceover,
żeby od razu otwierać aplikację
w konkretnym widoku.
Też ciekawy bardzo
i rozbudowany jest odtwarzacz,
bo odtwarzacz pozwala nam oczywiście
na odtwarzanie, przewijanie,
jasna sprawa, ale też regulacja prędkości.
Od razu jest też integracja z AirPlay.
Możemy sobie wysłać konkretną treść,
której teraz słuchamy
i to jest bardzo kompatybilne z AirPlayem.
No i wszystkie gesty możliwe,
czyli pocieranie, żeby wrócić itd.
są zaimplementowane.
Ja mogę spróbować pokazać,
co taka aplikacja potrafi.
No to jest ekran główny lokalizatora.
Tu mamy menu
i tu mamy od razu na ekranie głównym
rzeczy dotyczące nawigacji.
To jest parę takich przycisków,
żeby można było odświeżyć lokalizację,
zobaczyć, rozejrzeć się
po punktach w okolicy,
no ale kiedy już mamy
na ekranie głównym
na ekranie głównym
mamy przycisk,
który pozwala nam
zobaczyć, rozejrzeć się
po punktach w okolicy,
no ale kiedy już chcemy wyznaczyć,
zapisać swoje aktualne położenie
do odtworzenia później,
ale gdy już chcemy przystąpić
do nawigacji zakręt po zakręcie,
to proponowane są nam albo mapy Apple,
albo mapy Google.
No ale co my tu jeszcze mamy?
Mamy w ogóle kategorie,
takie rubryki,
które są ponumerowane w ogóle,
więc mi się kojarzą albo
stare strony internetowe,
czyli mało linki,
mrugnięcie w stronę starej strony ICC,
albo obsługa takich IVR-ów,
czyli no linii telefonicznych tak naprawdę,
systemów obsługi automatycznej przez telefon.
Tak jest, aby wejść
gdzieś tam wciśnij jeden
i tak dalej.
Tak, ja opowiadałem o takim serwisie
ze Szwajcarii, gdzie rzeczywiście
pod kątem osób niewidomych
jest cała platforma przez telefon
z informacjami różnymi,
natomiast tu mamy właśnie
możliwe, że to kiedyś też była
infolinia tylko się trochę
unowocześniła.
No musiałbym temat kiedyś zbadać,
ale zobaczmy co to tak z ciekawości
pobieżnie mamy.
Moje ulubione,
różnego rodzaju informacje,
takie pobieranie danych
z różnych serwisów,
zaraz tutaj pokażę jakie na przykład.
Jakbyś może Pawle troszeczkę
podgłośnił ten telefon,
żeby było jeszcze lepiej.
Tak, może można,
tak można wyszukiwać
konkretnych lekarzy.
Można wyszukiwać specjalistów
po ich specjalizacji,
a już nie po imieniu, nazwisku.
Tu możemy wyszukiwać
kto i gdzie,
nie wiem z jakich danych jest to brane.
A, tu możemy wyszukiwać chyba,
to jest taka jakby panorama firm.
Tutaj chyba można po numerze,
czyli nie wiem,
czy to nie jest jakaś książka
telefoniczna też poniekąd.
Tak, to są też numery
jakieś takie dostępowe,
takie chyba ważne dla niepełnosprawnych.
To są numery alarmowe,
zdaje się.
I to jest tutaj wszystko.
Tu jest commerce,
to tu jest kilka sklepów można,
jakieś kilka sieci sklepów
albo supermarketów przejrzeć
rzeczywiście pod kątem jakichś produktów,
które są oferowane.
Tu jest kultura,
tu na przykład mamy
lista różnych spektakli
i wydarzeń z audiodeskrypcją
w różnych miastach Francji.
Tak, no biografie
kompozytorów klasycznych
to dość zrozumiałe.
Tutaj są biografie osób znanych.
Odmiana czasowników.
Jakiegoś rodzaju słownik.
Reverso, kolejny słownik.
Terytoria świata,
geograficzna baza danych.
Synonymy.
No wiadomo.
Tak, no wiksznary słownik,
wiki słownik
i to wszystko.
Ekonomia, finanse,
to są kursy giełdowe,
przeróżne jakieś,
mogę to spojrzeć tu.
Tak, historyczne kursy walut.
Tu jakieś,
tu jakieś giełdy francuskie,
jakieś rzeczy,
których nie mam pojęcia.
Tutaj mamy wszystkie rzeczy
muzyczne, audio.
I co tu mamy?
Mamy tutaj historię tego,
co grały stacje radiowe we Francji.
Radia narodowe,
radia międzynarodowe,
radia z serii Sherry FM,
to jakaś sieć taka francuska stacji,
klasyka.
Tutaj kolejne jakieś też
nurty radiowe.
To też jakaś sieć zdaje się
radiowa.
NRJ, NRG nawet.
Réunion, czyli te terytoria kolonialne
Francji też.
Rire et Chanson,
to też kolejne
uśmiech i piosenki,
też jakaś sieć chyba internetowa.
Teksty piosenek.
YouTube.
YouTube po kanałach
i to tyle.
Tutaj hobby.
Przepisy kulinarne od A do Z.
Też tylko inaczej
prezentowane.
To są chyba do różnego rodzaju
tych multiwarów
i kombiwarów i tak dalej,
multi cookerów.
Dokładnie Thermomix,
przepisy do Thermomixu.
Tu są jakieś wyniki.
Nie wiem czy to jest jakby lotto
francuskie czy jakiegoś rodzaju
też zabawa taka narodowa.
I to tyle.
To są biblioteki dźwiękowe
z książkami.
Tu są właśnie podcasty różne
i też, ale też właśnie replay,
czyli to co leciało ostatnio
w telewizji do odsłuchania przez
jakiś czas, też z audiodeskrypcją.
To są te filmy i seriale,
o których mówiłem.
To jest prasa
i już widziałem, że na przykład
takie Le Figaro,
które normalnie jest płatnym,
płatną gazetą,
no nie puszcza dalej.
Jest paywall i nie wiem jak oni
tego paywalla obchodzą,
czy oni gdzieś się logują,
bo tu nie widzę gdzie można
się zalogować.
No ale jakby jest.
Tu są usługi.
Pytanie jakie usługi?
Komune de France to są te,
no różne rejony,
czy gminy, gminy we Francji.
Jakby lista pewnie
i jakieś dane podstawowe.
Która godzina w konkretnej
strefie czasowej,
w konkretnym kraju?
Konwerter walut.
Jaka jest data,
a jaki dzień jest
o podanej dacie?
Taryfy, cenniki pocztowe,
to są takie,
taryfy, cenniki pocztowe.
Serwisy publiczne.
I tu mamy,
tutaj na temat szczepionki
na COVID-19 prawdopodobnie.
Tutaj jakiś też kolejny serwis,
nie wiem, czy Anuer,
to jest chyba książka telefoniczna,
czy coś takiego.
Tak, tutaj informacje covidowe.
Tak, to jest kalendarz ferii i świąt.
Kolejny,
to jest chyba serwis z listami,
czy jakoś tak,
nie wiem, czy wysyłanie listu pocztą
z poziomu, czy coś takiego.
To są chyba ulotki leków.
I też jakieś kanały RSS,
jakichś konkretnych,
ważnych źródeł.
Tu mamy transport,
czyli rozkłady jazdy pociągów,
autobusów w różnych miastach,
różnych sieci transportowych francuskich
i tak dalej.
Życie praktyczne.
No i życie praktyczne.
I co tu mamy?
To są właśnie te informacje
o nowych filmach w kinach.
Horoskop na dziś.
Takie informacje też dnia różne.
Pogoda i tak dalej.
O, tu jest pogoda.
Program telewizyjny.
No i to wszystko.
I wyobraźcie sobie,
że to wszystko,
co teraz wam wymieniłem,
pokazałem,
to jest jedna dostępna aplikacja,
która wszystkie te informacje w sobie ma.
Więc tak naprawdę,
osoby niewidome we Francji
nie potrzebują
kilku aplikacji
do różnych rzeczy,
bo mają wszystko w jednej.
I to jest naprawdę fajnie zorganizowane
w takie właśnie kategorie.
Wszystko można sobie
pododawać do ulubionych.
Więc no fajnie.
Jakby kiedyś na przykład w Polsce
coś takiego też powstało.
No a z drugiej strony
pokazuje to,
jak ważne jest
posiadanie otwartych API
do różnych serwisów.
No właśnie też
przyszło mi to do głowy,
bo to się nie bierze znikąd.
I to nie jest tak,
że twórcy aplikacji
to sobie,
to wszystko zbierają
te informacje
we własnym zakresie.
Najprawdopodobniej
w większości przypadków
oni się po prostu łączą
do jakichś zewnętrznych źródeł.
Serwisów konkretnych,
które konkretną informację
na przykład jakąś o pogodzie,
rozkładzie jazdy,
informacjach kinowych
mają i są gotowe
udostępnić taką informację
w otwartym formacie.
No to się akurat zgadza,
ale jak tak sobie pomyślę,
kurczę, takie szkolenie
nawet takiej mało technicznej
osoby niewidomej we Francji
to musi być cała przyjemność,
jak można od razu
pokazać jedną aplikację,
która tyle rzeczy robi na raz.
No to jest, to jest piękne.
No i trzecia aplikacja,
którą dziś chciałem przedstawić,
aplikacja polskiego autorstwa.
Jest polski deweloper,
stworzył aplikację Scores.
Aplikacja kosztuje 12 złotych
i aplikacja jest dostępna
z VoiceOver.
Ja nie testowałem,
ale no tak głosi opis,
więc i też udostępniła to
osoba niewidoma na Mastodonie,
więc liczę na to,
że jest to prawda.
Aplikacja do wpisywania
wyników gier,
czyli powiedzmy gramy
w jakąś grę ze znajomymi
i potrzebujemy gdzieś sobie spisać,
ile kto ma punktów
w konkretnej rundzie
i potem w sumie.
No i możemy tutaj
coś takiego zrobić.
To jest albo do gier,
albo do różnego rodzaju czynności.
Nie wiem, zrobiliśmy jakiś zakład
i nabijamy punkty w tym zakładzie,
albo nie wiem,
po prostu wymyśliliśmy sobie
jakąś konkurencję
i zbieramy punkty.
No to tu możemy w takiej aplikacji
te punkty notować.
No i to wszystko,
jeśli chodzi o aplikację.
Ale to nie wszystko,
jeżeli chodzi o informacje,
które nam Pawle dostarczyłeś,
bo masz kolejne nowości.
Tym razem nowości
w czytnikach ekranu.
To prawda.
No i w tym tygodniu
tych nowości jest dwie,
bo mamy Josa.
Jest nowa wersja Josa,
wersja lutowa.
I chyba taką najważniejszą rzeczą
w tej wersji jest,
już Wam powiem,
jest Whatsapp.
I tak naprawdę wsparcie
Whatsappa desktopowego.
Czyli są skrypty dodane do tej aplikacji,
którą znamy i lubimy.
To zdaje się,
Brian Hartgen też coś miał maczać palce
w tych skryptach do Whatsappa.
Ciekawe, czy to jakaś kooperacja z nim,
czy niezależne działania twórców dostaw.
No właśnie, nie wiem.
Mi się wydawało,
że tutaj Brian Hartgen
jak najbardziej pomógł.
Aczkolwiek dalej widzę,
że on oferuje te swoje płatne skrypty,
bo jego skrypty były płatne.
Przypomnijmy,
a tutaj mamy je już w Josie.
Więc pytanie,
czy to są te same skrypty,
czy one są w jakiś sposób okrojone.
No poczytajmy.
Jos od teraz zawiera skrypty
dla popularnej aplikacji komunikatora Whatsapp.
To są skrypty,
które obejmują aplikację desktopową,
dostępną ze sklepu Microsoft Store
na Windowsie 10 i wyższym.
No i tutaj mamy link,
żeby dowiedzieć się więcej.
Jos oferuje kilka nowych funkcji,
które usprawniają doświadczenie użytkownika
przy interakcji z wiadomościami
oraz z wykonywaniem i odbieraniem
rozmów audio i wideo.
Niektóre z tych funkcji to
automatyczne oznajmianie wiadomości,
kiedy przychodzą
oraz odgrywanie dźwięku,
kiedy kontakt pisze wiadomość.
Dodatkowo nowe szybkie ustawienia
w Insert V
i można za pomocą tych ustawień
wyłączać te oznajmianie,
jeżeli ich nie chcemy.
No i możemy używać Alt 1 do Alt 9,
żeby przejrzeć
dziewięć najnowszych wiadomości
i z shiftem wyświetlamy
tę konkretną wiadomość
w podglądzie bufora wirtualnego.
Mamy też nowe skryty klawiszowe
do szybkiego przejścia do pola edycji.
To jest Alt E w konkretnym czacie
do listy konwersacji,
czyli Alt C i Alt H
do historii wiadomości,
do listy wiadomości.
No i oczywiście Insert H
wyświetli nam listę skrótów,
które dodają skrypty czasowskie,
a Insert V listę skrótów,
które są dostępne tak o,
w Whatsappie.
No i to wszystko.
Wydaje mi się, że
Brian Hudgen coś tam więcej dał,
ale nie jestem pewien.
Natomiast widziałem jeszcze,
że te skrypty są dalej do kupienia,
więc domyślam się,
że coś oferują więcej niż to,
co jest już wbudowane w JOS-ie.
Jest też dostępny
zaktualizowany FSDN
i jest to
Freedom Scientific Developer Network,
czyli to jest sieć
dla osób tworzących skrypty.
Jest to dokumentacja właśnie
do języka skryptowego JOS-a,
więc tutaj mamy też pewne uaktualnienia.
No a tak, no to mamy
pewne inne zmiany.
Na przykład możemy
w historii powiadomień,
czyli to jest ta nowa funkcja,
która doszła ostatnio w JOS-ie,
że możemy spersonalizować sobie,
w jaki sposób będą oznajmiane nam
konkretne powiadomienia
z konkretnych aplikacji.
No tu możemy sobie
przeorganizować kolejność,
w jakiej mają być stosowane reguły,
które wymyśliliśmy.
Która reguła ma mieć od którą
gdzieś tam pierwszeństwo.
Możemy też tutaj poczytać,
że naprawiono błąd w PowerPoint-cie,
który polegał na tym,
że JOS nie respektował kolejności
odczytywania elementów na slajdach,
tak jak zadeklarował je autor
danej prezentacji.
Jeżeli outlook jest skonfigurowany,
aby pokazywać wiadomości
wedle konwersacji,
naprawiono błąd,
przez który JOS nie czytał,
czy konwersacja,
czy wątek takiej konwersacji
jest rozwinięty, czy zwinięty.
Naprawiono też błąd,
kiedy naciśnięcie Insert w Windows 11
nie wyświetlało wszystkich ikon
w zasobniku systemowym na Windows 11.
Naprawiono błąd w
BART Express,
to jest aplikacja dla BART NLS,
dla tej biblioteki amerykańskiej.
Naprawiono błąd,
kiedy to kursor braillowski
nie wyświetlał się
na właściwej lokalizacji
w edytorze kodu Visual Studio.
Naprawiono błąd w Visual Studio Code,
gdzie to JOS nie czytał
wyników autouzupełniania,
podczas gdy pisaliśmy,
w sensie na bieżąco,
kiedy się one pojawiały
w miarę naszego pisania.
Naprawiono błąd
występujący przy
pojawiających się w wielu aktualizacjach ARIA,
czyli tych autoodczytywanych komunikatach
na stronach,
gdzie był używany typ ARIA Atomic Region,
gdzie JOS oznajmiał
wszystkie aktualizacje,
a nie tylko tą najnowszą.
Naprawiono błąd,
gdzie tryb formularzy
się nie aktywował jak należy
we wszystkich polach,
w niektórych polach edycji.
Na przykład pole wyszukiwania
na stronie sklepu Play,
Play Google Com się nie aktywowało
w ten sposób.
Jeżeli dodajemy elementy do listy
w dokumencie Google Docs,
rozwiązano problem,
gdzie JOS oznajmiał
całkowitą liczbę
za każdym razem,
gdy naciskaliśmy Enter,
żeby dodać nowy element.
Teraz już tylko to będzie oznajmiane,
gdy będziemy wchodzić
w obręb listy jakiejś.
Naprawiono też błąd
w arkuszu Google,
gdzie JOS nie oznajmiał
współrzędnych komórek
A1, B1 i tak dalej,
kiedy się przemieszczało
po takim arkuszu.
Uaktualniono samouczek dla Teamsów,
żeby uszczegółowić,
których strzałek używać do nawigacji
po paskach narzędziowych,
po różnych elementach aplikacji.
Naprawiono błąd
w LibreOffice Calc,
który się wysypywał,
kiedy próbowało się
nawigować po arkuszu
z JOS-em i monitorem brailowskim.
Nie jest już konieczne,
żeby zmieniać
cokolwiek w rejestrze,
żeby móc używać
JOS-a i Fusion
z Citrix Virtual Delivery Agent.
Były jakieś problemy z tym przedtem,
już tego nie trzeba robić.
Jest już jakiś artykuł
gdzieś też w bazie Freedomu.
W odpowiedzi na uwagi użytkowników
strukturalny tryb Braila
wyświetla teraz skróty klawiszowe,
tak jak wcześniej było to robione
przed aktualizacją grudniową.
Tłumacz brailowski Liblui
został uaktualniony do wersji najnowszej
i jest wybrany teraz domyślnie.
W angielskiej wersji JOS-a
naprawiono błąd,
gdzie język holenderski
niderlandzki Belgia
był używany
z jakichś przyczyn w Libluisie.
Dodano wsparcie
dla rosyjskiego głosu
NewFonts API 5.
To tyle, jeśli chodzi o JOS-a.
Ale mamy też nową wersję
supernowa End Screen Reader 22.
No i spróbuję się już za chwileczkę
dowiedzieć,
co tam nowego
nastąpiło.
I mamy tutaj wprowadzone
True Font Magnification,
czyli prawdziwe powiększanie czcionki
w funkcjach Office.
To w supernowej.
Najostrzejsze powiększanie czcionki,
jakie istnieje na rynku.
Mamy też rozdział dźwięku,
który już jest znany z JOS-a
czy z NVDA
na kanał lewy i kanał prawy,
czyli podzielenie dźwięku systemu
na jeden kanał, a mowy na drugi.
Usprawnienia w skanowaniu
i czytaniu dokumentów PDF.
Wsparcie fizycznego trybu braillowskiego
w aplikacjach Office,
Microsoft 365 i 2021.
Nie wiem, czym jest ten fizyczny,
Physical Braille Mode,
że piszemy na klawiaturze braillem
czy że można wpisywać z monitorów.
Coś takiego.
I dodatkowe poprawki błędu.
Jeszcze tu doczytuję.
Nie, nie dowiemy się.
To tyle, jeśli chodzi o screenreadery na ten tydzień.
No to przejdźmy do kolejnej informacji,
którą zaskoczenie też ma dla nas Paweł.
Tym razem to będzie informacja dotycząca
nowości w Be My Eyes.
I to nowości, która dotyczy nas w Polsce.
Zgadza się.
Mamy pierwszą firmę, która oferuje nam
po polsku pomoc specjalistyczną.
Jest to firma Sony.
No i od teraz, jeżeli macie jakiś problem
z konfigurowaniem jakiegoś produktu Sony,
albo macie jakieś pytania a propos dostępności,
albo jakieś takie typowo rzeczy
związane z produktami firmy Sony,
które dotyczyłyby naszej sytuacji jako osób
z funkcją wzroku,
albo potrzebujecie po prostu pomocy przez wideo
w zlokalizowaniu czegoś właśnie w produktach Sony,
skonfigurowaniu, znalezieniu itd.,
to mamy już naszych ludzi,
mamy już osoby mówiące po polsku.
Wystarczy otworzyć Be My Eyes,
kliknąć przycisk pomoc specjalistyczna,
następnie wybrać kategorię technologia.
No i już ukazuje się nam Sony jako opcja.
Dostępna ta usługa jest od poniedziałku do piątku
w godzinach od dziewiątej do osiemnastej.
Jest też dostępna to w kilku innych krajach Europy.
Było to poprzedzone pilotażem.
Jest też język hiszpański.
Zdaje się, że właśnie no angielski na pewno
i chyba jeszcze kilka innych.
No ale my jesteśmy wyróżnieni i też to mamy.
Jeszcze nie testowałem.
Ja też nie posiadam żadnych produktów Sony,
ale przypomnijmy, że to na przykład PlayStation,
to na przykład telewizory Sony Bravia,
które mają Android TV
i ponoć są dość fajnie dostępne.
Są to słuchawki.
No, Sony ma też swojego Walkmana.
Ostatnio też jakieś smartfony.
Zdaje się, już coraz mniej wychodzą,
ale powiedzmy, że coś się może jeszcze znajdzie,
jak ktoś ma.
No i ostatnio też przecież aparat fotograficzny
z udźwiękowieniem,
z którego wiele osób się śmieje,
no ale jest.
Wielu tych produktów Sony,
które my być może używamy, jest.
Więc są też powody,
żeby ze serwisem Sony przez Be My Eyes
móc się kontaktować.
No i miejmy nadzieję, że w przyszłości
więcej firm podąży śladem Sony
i pojawi się także i w naszym języku w Be My Eyes.
No myślę, że tego to wszyscy byśmy sobie życzyli.
Tymczasem co jakiś czas,
zwłaszcza osoby, które trochę podróżują po Europie,
też życzyłyby sobie,
żeby te wszelkiego rodzaju dokumenty
związane z naszą niepełnosprawnością,
a tym samym też różnego rodzaju benefity
w postaci zniżek
dotyczyły nas wszędzie na terenie Unii.
No i cóż, chyba coś ku temu zmierza,
przynajmniej jeżeli chodzi na razie
o konsultacje społeczne, prawda?
Tak, zgadza się.
Otwarły się pod koniec lutego
konsultacje społeczne projektu właśnie
Komisji Europejskiej co do stworzenia
Europejskiej Karty Osoby Niepełnosprawnej,
European Disability Card.
No i proszą nas,
jak to zwyczajem komisji bywa,
o naszą opinię.
Jest formularz, który można wypełnić.
Jest on dość prosty w wypełnieniu.
On jest w języku angielskim,
natomiast odpowiedzi na pytania otwarte
możemy udzielać w języku polskim,
jak najbardziej.
I formularz gotowy należy później wysłać
na podany adres e-mail.
Pytania są przeróżne,
bo pytania zaczynają się od takiej demografii,
czyli jak masz na imię,
jak się nazywasz, ile lat, jaka płeć,
skąd jesteś z jakiego kraju,
czy jesteś osobą niepełnosprawną,
czy w jakiś sposób związaną z osobami niepełnosprawnymi.
No i potem już wchodzi konkret,
czyli właśnie, jakie doświadczenia masz
z podróżowaniem, czy podróżujesz często,
jak często podróżujesz.
No i wchodzimy w tą kartę.
Jakie trudności napotykasz podczas podróży?
W jakich obszarach chciałbyś, żeby karta…
Czy uważasz, że karta to dobry pomysł
i czy rozwiąże problem właśnie
braku zniżek przy podróżowaniu,
czy jakiś tam praw przy podróżowaniu w Europie?
Na co chcesz, żeby te zniżki były?
Czy tam powiedzmy, na co chcesz,
żeby ta karta działała?
Czy powinna ona być tym samym,
która już istnieje,
czy powinny być to dwa osobne dokumenty?
Czy te karty powinny być tylko jako plastik,
tylko jako opcja mobilna w telefonie,
czy i plastik, i mobilna?
I tam jest też trochę takich pytań otwartych.
Czego się od tej karty spodziewamy?
Można napisać taki trochę dłuższy raport,
dłuższą wypowiedź, tak jak mówiłem,
w języku polskim i wysłać.
No bo to nasza opinia ma znaczenie.
To jest ten moment, w którym możemy
swoją opinię wyrazić, żeby potem
nie narzekać, że ta karta weszła,
ale w sumie to nie oferuje tego,
czego bym się spodziewał,
a w sumie to nic nie daje.
No to teraz jest możliwość,
żeby naszą opinię wyrazić.
Taką możliwość będziemy mieli
do, zdaje się, 5 maja,
więc czasu trochę jeszcze jest,
ale warto już pomyśleć,
jakiej karty europejskiej
osoby niepełnosprawnej byśmy chcieli
i w takiej konsultacji wziąć udział.
Link oczywiście będzie w komentarzu,
żebyście mogli ten formularz wypełnić.
No i cóż, zachęcamy do tego,
bo to w naszym dobrze pojętym interesie,
aby taka karta rzeczywiście
była nam maksymalnie przydatna.
A takie tutaj kategorie,
jeszcze na chwilę wrócę,
są rozważane, których bym się nawet nie spodziewał,
bo no właśnie transport, no to wiedzieliśmy,
żeby były zniżki tak na autobusy
w konkretnych miastach za granicą,
jeżeli osoby niewidome tam je też mają,
czy na pociągi itd.,
ale też np. na atrakcje turystyczne,
wiadomo, parkowanie, wiadomo,
ale np. też, czy powinna obejmować ona
zakwaterowanie,
więc jeżeli podróżujemy,
nie wiem, czy tu chodzi o to, żeby
to były jakieś zniżki,
bo nie wiem, czy osoby niepełnosprawne w jakimś kraju
mają zniżki na, nie wiem, hotele czy coś,
no ale może na jakieś obiekty
dedykowane osobom niewidomym,
to ciężko stwierdzić, ale np.
na, czy powinno też być objęte
np. wsparcie prawnicze, prawne,
gdyby coś tam się przydarzyło,
potrzebowalibyśmy jakiejś asysty tam,
no nie wiem, adwokata czy kogoś,
czy jakiejś pomocy prawnej,
czy też powinno to być objęte tą,
np. kartą,
różnego rodzaju właśnie pomoc
jest tam gdzieś też uwzględniona,
więc no, ja myślę, że warto
wypowiedzieć się akurat w tej konsultacji.
Zdecydowanie do tego zachęcamy
i powoli przynajmniej ten wątek
tyflu aktualności zbliża nam się do końca,
ale zanim go zamkniemy,
to jeszcze Paweł nam opowie
o nowościach w grach.
Tak, i no jak zwykle
tutaj się powołam na Biuletyn Audio Games,
który wyszedł sobie w tym miesiącu,
no i cóż to ciekawego
wyszło w tym miesiącu?
Magic Research,
gra na iOS-a i Android-a.
Nie wiem jaki to charakter jest gry,
czy to jest gra taka tekstowa,
przypuszczam, że tekstowa,
że nie jest to taka w pełni gra audio
z rozbudowanymi efektami dźwiękowymi,
tylko taka tekstówka do gdzieś wyklikania.
No, ale o co chodzi?
W grze Magic Research jesteś dyrektorem
nowo stworzonego Instytutu Magii
i masz jeden cel,
nauczyć się tyle, ile można
o tej sile,
aby zdobyć sławę
i wygrać w prestiżowym konkursie
szkół magicznych.
No, brzmi znajomo,
gry dostępne i czara plagiatu,
ale tutaj będziemy mogli właśnie
uczyć się od innych,
wyjeżdżać na takie jakby,
jeździć na takie jakby wycieczki badawcze,
wyprawy badawcze
do różnych krajów,
rzucać się czarów,
rzucać się te czary,
no i rozbudowywać gdzieś wiedzę
naszej szkoły magii
i czarodziejstwa
w dostępnej grze,
dostępnej grze.
Potem mamy grę Fruit Pod 2.
Jeżeli graliście wcześniej we Fruit Pod,
czyli tak jakby salon,
minigierek różnych takich
około Blackjack i tak dalej,
automatów do gier,
taki symulator automatów do gier,
no to wyszła jego druga część,
tym razem osadzona w latach osiemdziesiątych,
ponoć też z jakimiś utworami muzycznymi
z epoki,
z tamtej dekady,
więc warto może też
tą grą się zainteresować.
Constant Motion,
gra koncepcyjna,
zdaje się, że chyba autorstwa
sama Tupiego, bo chyba jakiś
ostatnio był blackout na serwerze
Survive the Wild,
ja o tym nic nie wiem,
w samej STW nie gram, więc nie wiem
na ten moment, kiedy ta gra
gdzieś tam wstaje z popiołów,
no to, żeby nam się nie nudziło,
został wrzucony taki koncepcik,
minigierek
w Pythonie, bo sam Tupi
programował wtedy w Pythonie,
no i próbował się zorientować, czy ten
Python to jest język
dla niego, gdzieś to jest
dostatecznie potężny język, żeby w nim
aż tworzyć gry audio, stwierdził ostatecznie,
że nie, no ale sam pomysł gry mu się
spodobał i jest pomysł, żeby tą grę
przepisać od zera,
ale na ten moment kilka
godzin gry i tak z tego
uzyskamy.
I no zobaczymy.
Aha.
Gra,
w której,
tak, nie mamy
nigdy bezpośredniego,
bezpośredniej kontroli nad tym,
w którą stronę porusza się nasz gracz,
ale od czasu do czasu możemy albo zmienić kierunek,
albo prędkość, z jaką idzie
i w tym
klimacie mamy przeróżne minigry.
No, jakiś taki, może nie endless
runner, ale jakiś taki
constant właśnie motion,
cały czas się ruszamy.
No i mamy nowy mod,
nowy mood, grę typu właśnie
tekstowych przygodówek online,
czyli
Forgotten
Kingdoms. Jest to gra osadzona
w uniwersum
kampanii Forgotten
Realms
i
mamy tutaj, oczywiście będzie link
podany w komentarzach, mamy dane do
połączenia się z moodem
i mamy
tutaj grę, świat pełen
magii i walki na miecze.
Musimy się wczuć
w postać, więc cały czas gramy tą postacią,
nie ma tam przedstawiania się prawdziwym imieniem,
tylko jak na Arkadii wymyśliłeś sobie
postać, która się jakoś nazywa, to cały
czas przedstawiasz się jako ta postać
i mówisz w stylu tej postaci.
Rzeczywiście są jakieś
konwencje a propos tego, jak
powinniśmy swoją postać nazwać, trzeba
się z tym zapoznać. Jest trochę klasy
postaci do odblokowania.
Mamy cztery postaci, cztery klasy
na początek.
Możemy
budować gildie
i mamy punkty
kismet, które zbieramy, żeby odblokowywać
różne zaawansowane
rasy i inne elementy
gry. No więc, jeżeli
kręci was
takie uniwersum, no to jest nowy
mod, w którego można pograć.
Mamy też
kilka aktualizacji gier, które już
wcześniej się pojawiły,
czyli
na przykład dowiedzieliśmy się, że już można
w przedsprzedaży kupić The Last of Us
jedynkę, ten remake, na
peceta.
I gra
ma się ukazać
28
marca już tym razem. Przypomnijmy,
że premiera była przekładana, no więc
jest szansa, że ten tytuł
otworzy się do wielu nowych graczy, którzy
z uwagi na brak konsoli nie mogli
sobie wcześniej pozwolić na grę
w The Last of Us. Jest nowa
wersja Say Despair, czyli
moda udostępniającego Slay
Despair, grę karcianą,
znaną, która była też
już w Tyfflo Przeglądzie
przedstawiana. No i
teraz mamy
API dla deweloperów modów,
żeby oni mogli też swoje mody
udostępnić przez ten mod,
czyli żeby teraz mody do
Say Despair stały się
dostępne dla
osób
niewidomych.
Będą miały, będą mieli
deweloperzy dostęp do właśnie przekazywania
komunikatów do czytnika ekranu oraz do
reprezentacji dostępnej
mapy w grze.
No i teraz jest
trochę poprawek i też lepsze
odróżnianie podobnych do siebie
potworów w grze, więc no
niech żyje Say Despair.
Też nastąpiła aktualizacja
Classic Six Dragons, Muda,
który, o którym już mówiliśmy
w zeszłym miesiącu, więcej
stref szkoleniowych,
kilka nowych tematów pomocy
i usprawniono
Soundpack, który też stał się teraz
mniejszy przez większe skompresowanie
plików dźwiękowych.
Też
była aktualizacja Hearthstone’a,
a w niej nowy mini set
cards, powrót do Naxxramas
i też
wprowadzono
nowy patch, który miał
nowego bohatera w ustawce,
w trybie ustawki.
Jest trochę
zmian, które trochę
wyrównują balans między poszczególnymi
postaciami. No i na przykład jest
nowe menu dźwięku, które
pozwala dostosować
w trochę bardziej granularny
sposób różne poziomy głośności.
No i zaktualizowano też mod Hearthstone Access,
który,
dzięki któremu nowa wersja gry jest
wspierana i też te nowe opcje dźwięku
możemy je teraz też samodzielnie
modyfikować.
Tymczasem w modzie Alterion
mamy dużo
mniejszych poprawek w różnych
dziedzinach od tworzenia przedmiotów
przez umiejętności bitewne,
podglądanie inwentarza
i tak dalej.
Kolejna aktualizacja gry Text Spaced,
kilka
wizualnych poprawek, ale też nowy
dziesiąty rozdział historii.
No i jest
też skonfigurowalny teraz dźwięk
pingnięcia,
takiego ping,
kiedy w nasze pole
wykrywania, w nasze pole radaru
wpływają statki wroga.
I powstał też nowy,
stworzony przez, nowa stworzona przez
użytkowników mapa do
Adventure at Sea,
która nazywa się Windows
tak? I też
nowa wersja 2.0
z przebudowanym
kompletnie interfejsem gry Lost
Vault
i właśnie
przez, cały czas w lutym były
wypuszczane kolejne aktualizacje,
które miały dostępność tego interfejsu
usprawniać. No i
pomniejsze poprawki
i to tyle jeśli chodzi o gry,
ale ja jeszcze mam nowość,
jeśli chodzi o gry o Wisielcu,
mówiłem Wisielca bardzo lubię, odkąd Piotr Witek
na swojej szufladzie o nim napisał,
dość często w niego gram, no czyli
gra Hangman, klasyczna gra,
w której musimy odgadnąć
słowo, tylko, że
każda próba
nie trafiona w literkę
danego słowa
powoduje, no
powieszenie kolejnej części ciała ludzika
na szubienicy
tak naprawdę, no
wirtualnej, więc chodzi po prostu
o odgadywanie słów. Gra jest bardzo dostępna,
bo możemy zawsze podejrzeć ile i w których
miejscach liter odkryliśmy.
Też zawsze, kiedy
podkładamy literę, to jest całe słowo
odtwarzane w taki sposób, że
na każde miejsce na literę
jest odtwarzany dźwięk i tam
gdzie
mamy już odkryte litery, tam jest
jeden typ dźwięku, tam gdzie jeszcze
nie mamy odkrytych jest inny typ dźwięku.
Gra, co prawda, nierozwijana
od dłuższego czasu i kosztuje chyba
pięć czy sześć złotych, ale myślę, że
warto ją pobrać, bo dalej działa
sprawnie i nawet można grać przez
Game Center z drugą osobą, przez
internet i wymyślać jakieś słowa, więc
no gra taka wkręcająca
na
dość długi czas. A jeszcze
a propos gier, no to też pod
moje palce wpadła gra na iOS
Grid Games, czyli taki zestaw
gier bazujących na
idei planszy, czyli takich jakby puzzli.
Mamy tam na przykład Sudoku,
mamy tam na przykład Pairs,
czyli dopasowywanie kart, ale
co ciekawe, gra jest dostępna
o tyle, że
autor postanowił stworzyć tą grę
właśnie jako taką trochę
koncepcyjną, żeby udowodnić, że no
można zrobić dostępne gry właśnie
takie puzzle’owe na iPhone’a
używając funkcji dostępnościowych voice-overa,
więc tu mamy na przykład
dopasowywanie obrazków, przy czym te obrazki
są bardzo fajnie i bardzo dokładnie opisane
opisem alternatywnym, tak przykładowo.
No działa super, nawigacja
w pionie, możemy chodzić w pionie po takiej planszy.
No i co ciekawe,
jedną z ciekawszych
gier tego zestawu jest gra
Where WCAG, czyli
gra, w której dopasowujemy
losowo wybrane nam przez
system kryterium dostępności
do jego liczby porządkowej,
tak,
no w całym jakby, w całej
tabeli wytycznych WCAG, czyli
na przykład, nie wiem, strona powinna być
nawigowalna, które to kryterium?
I tam możemy sobie wybrać z listy
no i wybieramy, aż trafimy, więc jeżeli ktoś
ćwiczy na jakiś certyfikat
na przykład IAAP,
Międzynarodowego Stowarzyszenia
Ekspertów Dostępności, albo
na jakąś inną certyfikację,
to myślę, że gra bardzo, bardzo
pouczająca, edukacyjna
i przydatna.
Można się sprawdzić.
Tak, więc to wszystko, jeśli chodzi
o gry, przekazuję
z powrotem do studia głos.
No spokojnie,
Pawle.
Trochę odpoczniesz, aczkolwiek ten
pierwszy news w technikaliach
jest podpisany jako twój,
aczkolwiek tu coś czuję, że
Tomek też będzie miał
co nieco do powiedzenia,
bo właśnie otwieramy
kącik technikaliów
i na dobry początek
będzie o tym, że teraz
to, gdzie się nie rozejrzeć,
gdzie nie spojrzeć,
to ktoś chce bardzo klonować
nasz głos,
żeby nam było
fajniej i milej. W praktyce
to pytanie, co tam potem
z tego będzie, natomiast fakty są takie,
że rzeczywiście to klonowanie
głosu, to jest technika, która
obecnie bardzo, bardzo się rozwija.
Tak.
I to nie wiem, Tomku, to może cię poproszę
na początek, skoro mówimy o klonowaniu głosu,
to się pochwalimy tym, co
razem osiągnęliśmy w tej dziedzinie, czyli
przetestowaliśmy
technikę True Voice,
czy Clear Voice, jak to się nazywa, w Skype’ie.
True Voice chyba.
Czyli tłumaczenie rozmów na Skype’ie w czasie
rzeczywistym, przy zachowaniu
przynajmniej względnym, tak jest to
przynajmniej w teorii,
naszego własnego głosu.
Przy czym to jest w ogóle
taka metoda, bo to im jest napisane
i to już kilka jakby
firmy teoretycznie oferuje,
za chwilę, że wystarczy
kilka sekund, żeby zaoferować
tłumaczenie, znaczy zaoferować syntezator
mowy mówiący naszym głosem.
Ja o tym sobie troszeczkę,
może nie to, że jakoś poczytałem, bo to chyba
za duże słowo. W każdym razie
to są,
to nie działa
tak jak na przykład w RK Voice’ie, że jest trenowany
model, tyle że nie wiem,
z użyciem kilku sekund
tego, co mówimy,
co mówię ja.
To tak, że Microsoft
oprócz tego, że ma
te syntezatory, które wszyscy
albo przynajmniej część z nas
zna i to są syntezatory
ich oficjalne, one mają swoje jakieś tam
imiona, nazwy, można sobie
coś tam nimi powiedzieć, to jeszcze ma
bardzo dużo, podejrzewam przynajmniej, że ma
bardzo dużo,
takich syntetycznych głosów, które nie są
dostępne nigdzie i one służą głównie właśnie
do klonowania osób.
Działa to mniej więcej w ten sposób,
że taki
syntezator słucha sobie, co
ja mówię,
wybiera sobie
model taki, który
według niego najbliższy będzie temu,
mojemu głosowi,
zmienia w nim jeszcze kilka rzeczy, pewnie jakąś
wysokość, pewnie intonację,
wymawianie pewnie
jakichś niektórych głosek, no to, co
może jakby zmienić w tym
modelu, to tak jakby
wziąć, nie wiem, jakiś syntezator
mowy i w nim
pozmieniać wysokość, pozmieniać
prędkość, pozmieniać coś jeszcze,
w taki sposób, żeby mówił teoretycznie
jak tam ktoś inny.
Czyli krótko mówiąc, on udaje nasz
głos, to jest tak jak
niektórzy mają, jak niektórzy
mają taki dar
i takie predyspozycje,
że są w stanie naśladować
czyjeś głosy, to trochę
tak działa.
Nie wiem czy kiedyś, czy nadal się to nazywa
i próbuje udawać
głos, to jest rzeczywiście coś takiego.
No i
w Skype’ie jakoś to działa,
zresztą w Eleven Loves, to co kiedyś pokazywaliśmy,
znaczy niedawno w sumie pokazywaliśmy,
to też była ta sama
technologia, tylko że w Eleven Loves to chyba
działa lepiej niż w Skype’ie,
tak mi się przynajmniej wydaje.
Tak, bo tutaj w Skype’ie
ewidentnie słychać, że
to nie jest mój głos, tylko
to jest głos Microsofta naśladujący
głos. To
myślę, że jak pokażemy nagranie, to
to się to okaże dość ewidentne,
ale to słychać,
to rzeczywiście można nagiąć, on
czasami się nie wyrabia, nie potrafi dobrze
odczytać tej próbki głosu.
Tak. To naśladownictwo nie jest
tak fajnie odwzorowane, no
przeciekawe rzeczy się działy z tym mechanizmem.
Tylko tak jeszcze
słowem wstępu,
my nie robiliśmy specjalnej,
nie wiem, prezentacji do twór podcastu,
więc tu się, zwłaszcza u mnie, dzieje
dużo. No tak, to prawda,
ale słyszysz nasze głosy.
Choć to też powoduje, że
wychodzą różne problemy
z tym tłumaczeniem.
Tak. Ale
może przejdźmy do samego tłumaczenia,
a potem sobie jeszcze chwilkę pewnie
o tym porozmawiamy. No to
Skype i True Voice. Paweł
mówi po angielsku, ja mówię po polsku.
Trzeba oczywiście
ustawić odpowiedni język Skype’a, żeby to działało,
więc Paweł musiał całego Skype’a ustawić,
zdaje się, na angielski. Na angielski, ale z iPhone’a to działa,
więc bez problemu. No właśnie.
No i
niezbyt fajne jest to, że jak
ty gadasz i gada syntezator,
to syntezator nie ścisza Ciebie
i to się troszkę zlewa. Bo ten syntezator
ogólnie ma inną barwę
i to dużo lepiej wtedy słychać.
No jak jeszcze jest.
Tylko muszę troszkę
to dopracować. I Leven Labs to robi
lepiej.
Ale no, mamy nagranie
i zobaczymy. Mam nadzieję, że na tylko przeglądzie
będzie się dało to zrobić.
Jakie to będzie.
Przeszkód muszę zobaczyć, gdzie Skype’a nagrywa.
An example not as a rule,
but we have a recording and we’ll see.
I hope at this review it will be
possible to do what what.
It will be.
I quickly need to see where the treasure is recording.
Yeah, so I’m trying to record this now
with the screen recording
and I hope you can hear me still
and I hope it’s capturing
what it’s supposed to be capturing.
Dobra.
Mam nadzieję, że nadal mnie słyszycie
I tak to wygląda.
No jak słychać.
Za długie zdania.
Za długie zdania panowie budowaliście.
Wiesz, to jest jakby jedno.
Natomiast ja myślałem, że to będzie tak,
że jak mówi syntezator,
to oryginał się troszkę wyciszy.
Ale właśnie.
Po drugim nagraniu słychać
mój oryginalny głos,
moje tłumaczenie,
Paweł oryginalny głos,
Paweł oryginalny głos,
moje tłumaczenie,
Paweł oryginalny głos i Paweł tłumaczenie.
No to prawda.
To się wszystko ze sobą miesza
i jest niezła kakofonia.
Ja jak to słyszałem, to słyszałem tylko
Paweł głos i Paweł tłumaczenie,
więc było trochę tutaj lepiej
pod tym względem.
Niemniej, no właśnie ja już chyba wolę
w Skype’ie, żeby to był syntezator
taki standardowy.
Dlatego, że jeżeli ktoś mówi sobie jakimś głosem
i syntezator mówi głosem niższym,
niż jest, to
dzięki temu,
że te właśnie głosy są inne,
to
dużo lepiej się rozróżnia to, co mówi syntezator
od tego, co mówi człowiek,
zwłaszcza, że nie jest ta mała ściszana.
Bo pewnie gdyby to było ściszane,
to by też było trochę inaczej.
Natomiast on nie zachowuje intonacji
mówiącego.
Nie wiem, czy zwróciliście uwagę,
ja tam coś powiem, zobaczymy, czy to się nagrywa
i od tego momentu
syntezator z mojego głosu
przeszedł na jakiś taki bardzo niski głos.
Tak, no to prawda.
I potem musiało trochę czasu
upłynąć, żeby on z powrotem wrócił do tego
powszedniego głosówka, że właśnie te głosy
czasami się potrafią zmienić.
Czyli wniosek z tego taki, że ta analiza
jest przeprowadzana na bieżąco,
że to nie jest tak, że on
na początku sobie coś zdefiniuje.
Aha, dobra, ty masz, człowieku,
taki głos, to ja już teraz będę
tym głosem
generował tę mowę, no bo w sumie
poniekąd i racja,
mogłoby się okazać na przykład, że
z jednej strony tego Skype’a
czy innego
komunikatora mamy
kilka osób, na przykład w przypadku jakiejś
konferencji, że ktoś mówi
coś, inna osoba
w danym pomieszczeniu mówi też
swoje i Microsoft
chciał to rozróżnić, natomiast no w takiej
sytuacji dzieją się ciekawe rzeczy.
Tak, to też
nie działa od początku, to
czasem zadziała od razu, czasami zadziała
z jakimś opóźnieniem,
natomiast, i akurat tu
trzeba pochwalić Skype’a, mimo że u mnie
działo się kocioł niesamowity,
jeszcze był program, który powtarza
to, co się mówi w pokoju,
dzieci śpiewały,
jakieś piosenki grały,
coś nam dzwoniło,
to program mnie tłumaczył w miarę,
dzieci nie tłumaczył w ogóle,
piosenek też chyba nie
tłumaczył, może coś czasem, ale to było
rzadko, więc w takim środowisku,
w którym dzieje się dużo,
no program jest w stanie jakoś
działać i jakoś to nawet
tłumaczył nawet nieźle,
no w każdym razie
efekt jest taki,
że no można
rzeczywiście zaczynać rozmawiać
z osobami,
których języka się nie zna.
Tak, tylko trzeba naprawdę
bardzo uważać, jakby umówić się na to
i w jakichś idealnych warunkach,
bo no to jakoś
tłumaczenia pozostawia wiele do życzenia,
jakby wcześniej to już działało, bo sama funkcja
tłumaczenia też nie jest specjalnie nowa,
tylko używała po prostu głosów Microsoftu
do tego, żeby odtwarzać te partie.
Tak, tych oficjalnych głosów tam jest jeden żeński, jeden męski,
chyba tam można wybrać
zdaje się, którego chce się używać do
tłumaczeń, nie pamiętam, w każdym
razie, w każdym
razie, no…
Ale to klonowanie głosów chyba było tą ciekawszą częścią
Tak, to klonowanie to tak
szczerze mówiąc,
gdyby to właśnie wyciszało
rozmówcę w momencie, gdy samo
tłumaczy, to by jeszcze nie było tak źle.
Natomiast, gdy podobną
barwą mówi syntezator,
podobną mówię ja,
no to wtedy robi się…
To się zlewa. Zlewa się. Tak.
To naprawdę trzeba się skupić nieźle,
żeby gdzieś tam…
Ale też sama jakość tej podróbki, ona tak
niby powierzchownie robi wrażenie,
że potem jak się wsłuchać, to słychać te formanty
tych syntez takich właśnie neuronowych.
Tu mam jeszcze jakiś taki
kawałek, gdzie ty mówisz i potem syntezator mówi
właśnie. Okej, no to słuchaj.
Ale słyszę, że słychać jakiś
syntezator mowy.
To sprawia, że głos brzmi bardzo idealnie.
No właśnie. Na przykład, nie?
No i to jest, według mnie, głos Pawła.
To jest ewidentnie
Microsoftowski głos podkręcony na wyższą wysokość.
Tak to brzmi.
No, także tak to mniej więcej wygląda.
No i…
No już, no.
Także generalnie
klonowanie głosu jest w stanie działać.
W ogóle jeszcze bawiłem się tym Eleven Labs
i tam niektóre głosy naprawdę
bardzo dobrze
wyszło ich klonowanie.
Natomiast to chyba wszystko zależy
tylko jakim bankiem głosów dysponuje
ten, kto te głosy
klonuje. Innymi słowy
może być tak, że u różnych firm
to klonowanie głosu różnie wychodzi
i niektóre osoby mogą być
bardzo dobrze sklonowane, inne osoby
w tym samym, jakby
przy użyciu tego samego
algorytmu mogą być sklonowane dużo gorzej.
Bo akurat nie znaleziono na przykład
podobnego algorytmu.
No tak.
No ale to Microsoft to nie jest jedyna firma,
która ma chrapkę na to, żeby
nasz głos klonować.
No bo w podobnym czasie
ukazały się
dwa artykuły.
Ja tutaj przeczytam
z tabletowo.pl,
że iPhone przeczyta
wiadomość głosem naszego znajomego
czy naszego kolegi.
No i co tutaj jest napisane?
Otóż mamy do czynienia
z patentem złożonym przez Apple, a nie faktyczną
zapowiedzią nowej funkcji,
ale jest ona na tyle interesująca,
że warto o niej wspomnieć. Użytkownicy
iPhone’ów mogą bowiem
zyskać nowy, wyjątkowy sposób
odczytywania wiadomości w iMessage.
Wiadomość przeczytana
głosem znajomego.
Komunikator iMessage nie zdobył zbyt dużej
popularności w Polsce. Jak najbardziej.
Można go nazwać niszowym.
Nie można jednak tego samego powiedzieć
o innych rynkach, na przykład USA.
Wynika to z prostego faktu.
iMessage
dostępny jest tylko na urządzeniach Apple,
a te u nas sprzedają się przeciętnie.
Oczywiście,
niskie zainteresowanie komunikatorem Apple
w Polsce zdecydowanie nie oznacza,
że mamy do czynienia ze słabą aplikacją.
Śmiem twierdzić, że to naprawdę dobre narzędzie
do komunikacji ze znajomymi,
aczkolwiek ograniczone przez brak wsparcia
konkurencyjnych platform.
Jak wynika z odkrytego patentu,
Apple wprowadza,
rozważa
wprowadzenie funkcji
głosowego otrzymanych wiadomości.
Nie będzie to jednak takie zwykłe
czytanie tekstu, bowiem nie byłoby to
nic naprawdę ciekawego,
a poza tym można już poprosić Siri o
przeczytanie wiadomości. Okazuje się, że firma
Tima Cooka chce zapewnić
odczytywanie wiadomości głosem osoby,
która wysyła nam wiadomość.
Oczywiście, taki głos
nie mógłby zostać wygenerowany z powietrza.
Wcześniejsze byłoby,
konieczne byłoby wcześniejsze
udostępnienie próbek naszego głosu,
i iPhone mógł go naśladować.
Trudno obecnie stwierdzić, jak wiele
próbek byłoby potrzebne, ale
Apple w złożonym patencie wspomina o modelu
tworzonym na podstawie wielu próbek.
Użytkownik podczas wysyłania
wiadomości miałby otrzymać możliwość
dołączenia pliku audio do wiadomości.
Miałoby się to sprowadzać wyłącznie
do wybrania odpowiedniej opcji,
a następnie generowaniem nagrania
audio zajmowałaby się już sztuczna inteligencja
i Siri.
Brzmi ciekawie, ale…
Owszem, nowa funkcja w iMessage mogłaby
spotkać się z większym zainteresowaniem
wśród użytkowników iPhone’ów, ale obawiam się,
że byłoby to tylko chwilowe zaciekawienie.
W końcu wysyłając wiadomość tekstową
raczej chcemy komunikować się w ten sposób,
a nie przez wiadomości głosowe.
No to już zależy. Myślę, że są różne potrzeby
i ktoś może
chcieć po prostu właśnie
w jakiś sposób komuś
uatrakcyjnić może
taką wiadomość.
Tutaj jakiś taki
próbny balon tutaj gdzieś wysyła.
Też prawda.
Sprawdźmy, co powiedzą ludzie,
jak to w ogóle
się przyjmie nawet na takim etapie.
No oczywiście tu jest też
przypomnienie, że Apple tych patentów
to składa tysiące,
a wiele nawet nie dociera do końca.
No zobaczymy, bo
to może potrwać rok, dwa, albo pięć,
ale coś się może w końcu stać.
Ważne, że patent mają.
Samsung się posuwa o krok dalej
i to już wychodzi ta funkcja powoli.
Ona już jest dostępna po angielsku
i chyba po koreańsku,
czyli Text Call
w Bixby.
Chodzi o to, że możemy właśnie również
stworzyć próbkę naszego głosu
na naszym Samsungu
i odbierać tym połączenia
i rozmawiać jakby tym naszym
wygenerowanym głosem sklonowanym
przez telefon.
No i też podobna zasada działania,
czyli generujemy sobie wcześniej głos
i potem ktoś do nas dzwoni, my odbieramy,
piszemy tekst, który ma zostać
wypowiedziany i wypowiada go
nasza syntezowana,
nasz syntezowany głos.
No jak widać
wszyscy chcą klonować
nasze głosy.
No oby się to nie wymknęło spod kontroli.
To się w pewnym sensie już wymknęło
spod kontroli. No to wiem, tak, ale
no prawda też. To znaczy, chodzi o to,
jest coś, co nazywa się
i teraz Angli…
Nie zjedzcie mnie. W każdym razie
Tortoise
TTS
to jest
taki system syntezmowy
twardo-źródłowy,
żeby nie było, który można
pobrać sobie z GitHuba.
W tej chwili, o ile mi wiadomo, nie ma modelu
polskiego oficjalnie. Niektórzy robią
sobie takie modele gdzieś tam na własny użytek.
To trochę trwa.
Czas
zdaje się, to trzeba liczyć
w tygodnie, tak mi się wydaje.
Dość dużo tych próbek tam jest potrzebne.
Parę godzin,
inne kilkanaście.
No i mając
taki model, można potem sobie
degenerowywać kolejne głosy
na podobnej zasadzie i
im więcej się ma tych głosów, tym
może inaczej.
Tortoise właśnie pozwala na klonowanie
taką samą metodą głosu
też z kilku sekund próbki.
W związku z powyższym
takie
otwartość z ułowy już jest.
Tylko teraz trzeba
pozbierać
na przykład ileś głosów,
dobrej, najlepiej jakości,
porobić
te wszystkie głosy, co trochę czasu
zajmie, chyba że ma się masę sprzętu.
No i wtedy rzeczywiście
można
puścić również
gdzieś tam klonowanie
głosu i jakby w ten sposób
też można to robić w związku z powyższym.
No
taki syndrom obecnych czasów.
Można wiele, tylko trzeba mieć
sprzęt. Dużo sprzętu.
Naprawdę dużo.
Ciekawe jak to działa.
Jakby wyniki
takiej, chciałbym chętnie posłuchać
takiej syntezy.
Ja troszkę słyszałem.
No to brzmi jak te wszystkie,
no nie wiem, czy kojarzysz.
Nieraz na YouTubach są
tam jakiś celebryta,
czyta, nie wiem,
Księgę Rodzaju.
Ale to jest takotron, tak? To jest jak takotron?
Trochę tak, tylko że ma
wyższą częstotliwość
próbkowania.
Ma trochę taki,
to trochę brzmi jak to było
odszumiane audio, przynajmniej to, co ja widziałem.
Że, tylko jak wiesz,
są te odszumiacze, które
spowodują, że to audio się tak jakby gotuje.
Jakby tam był szum i on został zabrany.
Natomiast
ma mniejsze problemy z niskimi
częstotliwościami. Takotron tak
dziwnie charczał na takich
niższych częstotliwościach.
On zdaje się nie charczeć.
No i oczywiście są kilometrowe dyskusje
na temat, czy intonuje, czy lepiej
intonuje od takotrona, czy gorzej, czy jak.
No tak.
Sporo osób powie, że to jest bardzo dobry
system, tylko jest strasznie wolny.
To znaczy bardzo długo,
dużo czasu zajmuje mu
wygenerowanie wypowiedzi. Zresztą nauka
też.
Także, no właśnie.
To już jest.
Ale to się już dzieje, to już jest
dostępne i podejrzewam, że
za jakiś czas to wystarczy
tak naprawdę z GitHuba,
czy z jakiegoś innego tego typu
repozytorium pobrać paczkę
z polskimi modelami, bo ktoś to prędzej,
czy później wrzuci.
Pytanie kiedy.
Wielu ludzi się nie śpieszy, zwłaszcza
tych, którzy robią to prywatnie, no bo co.
On się tu napracował,
zrobił. A teraz każdy będzie miał.
I teraz ma to każdy pobierać.
No ale myślę, że
czy później to nastąpi, a potem
tworzenie takich głosów na podstawie
tego, no to już będzie naprawdę
chwilka.
Już mniejszy problem.
Tak jak mówisz, prędzej, czy później
to wyjdzie. Także tak to
wygląda. Spodziewajcie się, że
jak udostępniacie swoje
gdzieś tam głosy do internetu,
jak nagrywaliście cokolwiek
kiedyś na przykład na YouTube’a,
albo w jakieś inne miejsca
publicznie, no to
za jakiś czas się może okazać, że
ktoś wam po prostu ten głos
sklonuje. Oczywiście on będzie
się różnił od
waszego oryginalnego głosu.
Będzie taki brzmiący
mniej więcej, albo lepiej,
albo gorzej, ale trzeba się po prostu
z tym już tam gdzieś
liczyć z takimi
konsekwencjami tego,
co się pojawia.
Teraz przechodzimy do
kolejnego tematu,
mianowicie do
GPT i do Binga,
którego to
mieliście okazję testować. Ja zresztą
też, to się też podzielę jakimi
swoimi refleksjami, ale jeszcze
à propos w ogóle
GPT i tego,
co oferuje OpenAI,
to nie wiem, czy słyszeliście o tym.
To tak z branży,
która jest mi
bardzo bliska, aczkolwiek
tak z drugiej strony
to się bardzo cieszę, że ja już nie działam
w takim typowym
radiu komercyjnym i że po prostu
ewentualnie takimi rzeczami
zajmuję się bardzo,
bardzo hobbystycznie, żeby sobie tam od czasu
do czasu jakąś audycję poprowadzić.
Bo
te czasy, kiedy radio
potrzebowało prezentera,
no to już powoli
naprawdę zaczynają się
kończyć, a przynajmniej w takich
stacjach typowo komercyjnych, gdzie te wszystkie
elementy programu radiowego
są bardzo precyzyjnie
wyliczone. Wejścia nie muszą
być, a nawet nie powinny być
na zbyt długie. Jest dużo muzyki,
dużo reklam, dużo tego typu
elementów, a ten prezenter to ma odezwać się
co jakiś czas. Jedna z firm
amerykańskich, nie pomnę
teraz ich nazwy,
stworzyła
mechanizm, dzięki któremu
można sobie
w zasadzie cały program radiowy
stworzyć za pomocą sztucznej
inteligencji, wspomagać
się GPT
i do tego
stopnia, że
jest w stanie ten mechanizm przeszukiwać
na przykład, załóżmy, że mamy,
że tworzymy sobie radio w Krakowie
i teraz ten serwis
będzie w stanie przeszukiwać na przykład
portale miejskie
Krakowa i okolic,
szukać jakichś
informacji
dotyczących tegoż miasta
i jego okolic i tworzyć
na ten temat
samodzielnie albo półsamodzielnie
jakieś wejścia prezenterskie,
mówić o tym
i po prostu tworzyć
w zasadzie prawie, że
bezzałogowo program radiowy.
Jak się jeszcze dogadają z Eleven Labs,
żeby to stworzył tam
ich niższy TTS lub jakaś podobna
technologia, no to
to może zadziałać.
Prawdopodobnie się dogadują,
bo ja słyszałem
na razie amerykańskie
takie radio demonstracyjne,
no powiem szczerze,
robi to wrażenie,
że to jest naprawdę
już dość
mocno zbliżone do tego,
czego da się słuchać.
Są te głosy oczywiście nie tak
bardzo dynamiczne, jeszcze szczególnie
kiedy zwrócimy uwagę na to, że w radiu,
współczesnym, komercyjnym
radiu to się tak mówi
dynamicznie i tak z taką
emfazą i gdzieś
tam, ale…
Został do Eleven Labs zrobiony głos
tego, Boże, tego podcastera
tam dwóch.
Joe Rogan. Nie, nie, nie, polski.
Pamiętam, tego
lektora, tak? Znaczy był
Krzysztof Banaszek, to był jeden i drugi.
O Jezu,
jak on się nazywał, nie pamiętam.
W każdym razie zostało to
zrobione na taki sposób newsowy i myślę,
że bardzo można by dobrze
zrobić taki głos, który
byłby typowo pod
newsy, pod jakieś takie
historie, zresztą Eleven Labs
już ma plan enterprise,
w którym można, to trzeba
mieć firmy, ale myślę, że ten,
kto stworzy takie radio to na pewno ma firmę.
Dostał od 500 dolarów miesięcznie.
Myślę, że to też dla jakiejś większej
firmy nie będzie żadnym problemem. To nie są wielkie pieniądze
dla takich biznesów. Znaczy od 500,
tak powiedzmy. No w każdym razie tak czy inaczej
myślę, że stworzenie jakiegoś głosu
zdaje się, że nie trzeba w ogóle
dużo tych próbek, to tam chyba do pół godziny.
Tak, bo w ofercie w ogóle, w ofercie
Radio GPT
jest też opcja sklonuj głosy
Twoich prezenterów, więc
tak, to jest już w ogóle
ciekawa historia. To kolejna firma,
która klonuje głosy. Tak, to już jest w ogóle
taka ciekawa historia, teoretycznie
niby na dobry początek można zawsze powiedzieć
ej wiesz co, nie będziesz się męczył,
będziesz
mógł prowadzić sobie poranek na żywo,
a powiedzmy na nockę Cię też
obsadzimy, tylko że z syntezy.
Dobra, parę miesięcy później.
Wiesz co, w sumie sorry, ale
poranek też nam zrobi synteza.
Dzięki.
No, także… To nie jest jedyny
projekt tego typu, bo też widziałem już, że ktoś
stworzył na bazie Hacker Newsa jakby
rzeczy wrzucanych na Hacker Newsa
i też któregoś tam
chyba GPT i któregoś klonowania
głosu podcast.
Ktoś po prostu robi
podcasty z tego.
A jeszcze jedna rzecz i to już jest całkiem
bardziej w naszym
zasięgu niż jakiekolwiek myślę tutaj
poczynania,
które pewnie
kiedyś zostaną użyte przez kogoś.
Spotify. Aktualnie już
testuje na wybranych użytkownikach
gdzieś w Stanach i w Kanadzie anglojęzycznej
DJ-a Twojego
osobistego, czyli
proponują Ci playlistę
i tą playlistę zapowiada
Ci jakiś
syntezator
bardzo inteligentny plus algorytmy,
które budują mu te wejścia,
co on to ma mówić.
Tak sobie
różni radiowcy wyobrażają
właśnie przyszłość radia,
która to
medium trochę zabije
i właśnie Spotify jest tu upatrywany
jako jeden z takich
być może największych killerów
ze względu na to, że Spotify ma
to, czego nie mają inni
dysponujący nawet
taką technologią prawa do
olbrzymiej biblioteki muzycznej
i teraz
i do podcastów też zresztą
i taka przyszłość radia, którą
radiowcy generalnie rysują
no to jest po prostu to, że
masz stworzoną
playlistę pod swoje gusta,
ustalasz sobie jakim suwaczkiem
częstość
wejść prezentera,
drugim suwaczkiem ustawiasz sobie
jaki ten prezenter ma być,
czy bardzo jakiś dowcipny
czy mniej dowcipny
i na jakie tematy
na przykład ma Ci przekazywać
informacje, czy Cię interesuje
technologia, polityka,
lifestyle czy wszystko naraz,
klikasz gotowe i masz
wygenerowaną pod siebie stację radiową,
która gra muzykę,
która do Ciebie mówi
no i ewentualnie jeszcze też
od czasu do czasu w modelu darmowym
serwuje Ci reklamy, a w płatnym to już nawet nie.
No?
No.
Zobaczymy. Powiem szczerze, cieszę się,
że działamy w niszy.
To prawda.
Tylko ja się tak zastanawiam też,
czy to na przykład, jeżeli
będzie to jakiś głos wygenerowany
syntetycznie,
trochę czekam w pewnym sensie na taki
czas, kiedy te firmy będą proponowali
na przykład lektorom
taką formę
syntezatora, który
jest opłacany subskrypcyjnie, tak?
Czyli lektor nagrywa swoje i potem
dostaje tam jakieś grosze oczywiście
za każdą wypowiedzianą frazę
w związku z powyższym,
jeżeli
jeżeli ktoś z tego
potem korzysta, to lektor nagra się raz,
a potem gdzieś tam ileś wchodzi
tak po prostu.
Takie tantiemy, tak jak
artyści żyją za
x-ów, jak stworzą jakiegoś hita,
jeżeli lektor na przykład ma
bardzo chwytliwy głos, z którego
chcą wszyscy korzystać,
to mógłby
też podejrzewam z czegoś takiego.
Oczywiście, że tak.
Na taki model właśnie syntezy, w którym
i rzeczywiście podejrzewam, że wtedy lektorzy mogą
zacząć
rzeczywiście nagrywać
swoje głosy i taki
syntezator może kiedyś
niezłą tutaj też furorę
w związku z tym zrobić.
Zgadza, tylko Tomku, tu jeszcze mamy kwestie
prawne i
to cały czas nie jest jeszcze w żaden sposób
mam wrażenie uregulowane, bo to jest
zupełna nowość
i teraz jak w ogóle podchodzić do
tematyki i do tematu
chronienia prawem czegoś
takiego jak głos. Mamy
ochronę wizerunku, tak?
To już wiemy.
Do tego się wszyscy przyzwyczailiśmy, no bo
zdjęcia i tak dalej,
ale nikt się nigdy nie zajmował
ochroną głosu,
chyba, że podciągnąć to pod jakieś dane
biometryczne na przykład,
co myślę, że miałoby
sens, ale prawo jak zawsze
nie nadąża po prostu za technologią.
Takie odnoszę wrażenie.
Zobaczymy.
No dobrze.
To co z tym bingiem?
No tak.
Microsoft wdrożył swój
model, znaczy nie swój,
OpenAI, model GPT-3
czy 3.5, już nie pamiętam,
w każdym razie chyba 3.5
do przeglądarki Bing.
Niestety nie dla każdego.
Tam trzeba się zapisać.
Ja to zrobiłem. Chyba w takim razie
wy też, tak mi się wydaje.
Tam trzeba wejść na stronę odpowiednią,
zapisać się, podać
nie wiem czy
tylko, a na pewno konto Microsoftowe.
Ja miałem, więc podałem.
No i po jakichś dwóch tygodniach
dostałem e-maila, że
brawo, już jesteś, możesz
korzystać i będzie super.
Tylko na Edge’u.
Teoretycznie, bo już powstają
podobno dodatki do Chroma,
żeby z tego korzystać.
Nie wiem, nie używałem na razie.
Korzystam z Edge’a, bo w sumie
przy okazji sobie testuję tę przeglądarkę.
Mi jakoś na Edge’u to nie chciało działać,
ale może mam po prostu za stary
system akurat na komputerze,
z którego w tym momencie korzystam,
ale działało mi to
na aplikacji Bing na
iOS.
Ha.
No w każdym razie wchodzimy sobie na
normalnie na stronę Binga,
czyli bing.com i tam chyba na
drugi link od góry to jest chat.
Wchodzę na ten link
chat, no i
nie wiem, może pokażę tę stronę,
bo
ona jest ciekawa.
Jest napisane na samej górze, może
troszkę zwolnie, syntezator.
Mam nadzieję, że dobrze słychać.
Słychać.
No.
A to przy okazji.
To są takie przykładowe
pytania.
Trzecie będzie
najciekawsze.
Tak.
Dobra, no potem jest
jakieś tam.
A właśnie.
I czy jest bardzo ważny
komunikat?
I niespodzianki
istotnie są.
Czyli na ile ma
sobie pozwolić na różnego rodzaju
jakieś swoje konfabulacje, a na ile ma się
trzymać faktów?
No i.
Zresetowano mój mózg do nowej
konwersacji. O czym chcesz teraz porozmawiać?
To jest w ogóle kilka komunikatów,
które się tam powtarzają, więc to chyba
niezwykle generowane.
No i tu mamy kilka jakichś tam pytań.
No i tu można, jest tutaj
pole edycji, w którym można wpisać, zdaje się,
2000 znaków, więc wpiszmy tu sobie
to.
Może inaczej. Może powiem,
co wpisywałem i co się działo.
Chociaż dobra. Może na
początku rzeczywiście wpiszę sobie coś.
Po.
O Jezu, tylko, że muszę.
Na przykład.
Jaki jest
najnowszy
odcinek
Tyflo podcastu.
I teraz
chwilkę zajmie generowanie tej odpowiedzi, więc
w sumie to szybciej byłoby wejść na stronę
i to sprawdzić, to prawda.
Ja przeszedłem
kilka liniek w górę, tu niestety nie ma żadnych
nagółków.
To wyszukiwanie dla
Tyflo podcastu, to jest
coś w rodzaju takiego proma, który on sobie wpisuje
w jakąś taką wewnętrzną wyszukiwarkę
sprawdzić, na ile to nasze
pytanie przełożyło się na to, co on będzie
mniej więcej wyszukiwał.
Trwa generowanie odpowiedzi dla Ciebie.
Witaj, to jest Bing.
Tyflo podcast to zbiór instrukcji oraz poradników dla niewidomych
lub słabowidzących użytkowników komputerów
o zróżnicowanej wiedzy technicznej.
Odwiedzony link Tyflo podcast audycje
dla niewidomych i niedowidzących.
To znaczy link do strony Tyflo podcastu.
Najnowszy odcinek Tyflo podcastu został opublikowany
28 lutego 2023
roku i dotyczył aplikacji.
No to już jest
troszeczkę zdezaktualizowane.
Ale w ogóle nie było
aplikacji Whatsapp
w ostatnim czasie.
Też mnie to zastanawia, no to są właśnie
te jego błędy, które
naprawdę potrafi
generować.
To na przykład
pisze mu
podaj tytuł tego
odcinka.
A, tu jest takie coś 1 z 6.
Bo Bing
w ostatnim czasie, ten czat
Bingowy dostał
takie ograniczenie ilości
takich zadawanych kolejnych pytań
w jednej dyskusji, bo tam podobno
zaczęły się dziać rzeczy dziwne
i niemiłe.
W związku z tym, że
podobno ten czas komuś groził.
Nie wiem na ile.
Ale ciekawe.
Od razu powiem, że
ostatni odcinek opublikowany
w Tyflo podcastie
nie był 28 lutego,
tylko 27 lutego
i dotyczył
Advance Braille Keyboard.
Także w ogóle
się pomylił kompletnie.
Aha.
To jest
jakieś straszne.
To jest strasznie
dawno. To jest bardzo stary, więc
ja nie wiem w ogóle.
Ładowanie
zakończone.
Słuchaj online na główek. Pliki do pobrania.
Komentarze na główek.
Kieruję rzeczywiście do
podcast web, natomiast… Ale to nie jest
najnowszy odcinek.
Tak, to nie jest najnowszy odcinek.
Gdzie to jest?
Jeszcze pod tymi wszystkimi są pytania
takie szybkie.
Teraz przycisk. Co to jest?
Tak. Chcę posłuchać tego odcinka.
Nie. Chcę wybrać inny odcinek.
Nie. Dziękuję za informację.
Niedostępne. Przestań odpowiadać.
No bo to
proces odpowiadania chwilę trwa.
Można tu go przerwać.
Nowy temat.
Zapytaj usługę.
Teraz jeszcze go
zapytam o jedną rzecz, bo tu
nieraz wykazuje się
rzeczywiście
no…
ciekawymi informacjami. Znaczy nieraz
prawdziwymi, żeby nie było. I w tym przypadku
staje się, że też będzie w miarę dobrze. Kim
jest Paweł
Masarczyk?
Masarczyk. Pytaj mi.
Odebrano wiadomość. Przyjemna. Przejdźmy do
nowego tematu. Oczy. No dobra. To jest
takie coś, co on sobie tam zawsze tworzy.
Przycisk przełączania niewciśnięty.
Lubię to. Odebrano wiadomość. Przyjemne.
Wyszukiwanie dla Paweł
Masarczyk. Trwa generowanie.
Paweł Masarczyk jest osobą niewidomą od urodzenia,
absolwentem filologii angielskiej i pasjonatem
od komputerów i języków obcych.
Link staż w Luksemburgu.
Wypracuje w Europejskim Związku Niewidomych
jako członek zespołu podcastu.
Link Paweł Masarczyk.
Member of Tebuazd. Tematyką technologii
dostępnych dla osób z niepełnosprawnością wzroku.
Jest także autorem artykułu
o Schine Plus. Alternatywie dla Talkbacka.
Link Schine Plus. Alterna urządzeń
androidem przez osoby niewidome i słabowidzące.
Odebrano wiadomość. Angielskie
i pasjonatem jako… To jest nie wiem czemu
powtórzone dwa razy to samo. I już wiem
z czego on wziął informację o mnie. Z LinkedIna.
Poniżej są teoretyczne źródła.
Tak, ale…
Tak. No.
No, to jest budowa. Wiem, że
do LinkedIn…
O!
Inne pytanie.
Tak. Nieraz takie pytania.
To są ciekawe
tematy.
No.
Okej. To tak.
Chodziło mi o to, żeby mniej więcej pokazać
jak wygląda interfejs
tego Binga. Natomiast
ja się tym oczywiście bawiłem.
Może nie jakoś bardzo długo, ale
troszkę mu próbowałem zadawać różnych
pytań.
I tak.
Ten czas jest leniwy.
Jak skłamie to
w sumie niewiele go to interesuje.
Nie lubi
przyznawać się do błędów.
Natomiast z drugiej strony
potrafi robić rzeczy, które ludziom zajmują
bardzo dużo czasu. On to zrobi w moment.
Tylko nie wiadomo czy powie prawdę.
I tak.
Po pierwsze trzeba wiedzieć
o co go pytać, a o co go
pytać nie bardzo ma sens.
Jak widać, jaki jest najnowszy odcinek
Tyflo Podcastu, no to różnie mu to
wyszło.
Natomiast on, od razu powiem, że
Tyflo Podcast jak najbardziej kojarzy, bo jak
go zapytałem, jakie znasz audycje
dla niewidomych,
to
jedną z pierwszych, o ile nie
w ogóle na pierwszym miejscu wymienił
Tyflo Podcast, także
jesteśmy w bazie.
Słuchaj, no przecież czytał przed chwilą
czym jest Tyflo Podcast i
ten. Zresztą do Tyflo Podcastu
jeszcze wrócę.
Bo o co mi chodzi z tym
odpowiednim pytaniem.
Wpisałem mu jakiś czas temu, zresztą
kilka razy potem to powtórzyłem,
z różnym skutkiem.
Mniej więcej coś takiego, że
na stronie tyflopodcast.net
znajdują się m.in. audycje
Tyflo Przegląd. Pod każdą z tych audycji
znajdują się komentarze
i w nich
m.in. są podane tematy audycji.
Znajdź audycję, w której mowa jest
o atrakcjach
turystycznych dla niewidomych.
I rzeczywiście znalazł kilka audycji.
Tu jakieś Kielce, Kraków,
coś tam. To się jakoś tam w miarę zgadzało.
Natomiast on przeszukuje tylko pierwszych
kilkanaście audycji z reguły,
bo np. jak mu wpisałem,
żeby znalazł
audycje, w których mowa jest o Allegro,
to znalazł chyba tam 159 audycji.
Tam rzeczywiście była mowa o Allegro.
I nie było to
napisane w opisie, tylko rzeczywiście
w komentarzach do audycji.
I tam jeszcze którąś. Jak mu ukazałem
znaleźć więcej, to powiedział, że nie, już nie ma więcej.
Bo przecież mówiliśmy
dużo razy na temat Allegro w Tyflo Przeglądach
różnych.
I jakoś tak nie kwapi się,
żeby szukać głębiej.
Natomiast jak
próbowałem mu szukać
o samochodach elektrycznych,
to w ogóle znalazł, że Tyflo Przegląd
z 28 listopada
2021 roku.
Nie podam numeru
tego Tyflo Przeglądu. Rzeczywiście był to
chyba 109 audycji.
I to nawet
nie znalazł w tym komentarzu pierwszym,
tylko w czasówkach było tam
coś a propos autonomii
samochodów, coś tam gdzieś
dalej.
Rzeczywiście coś było, więc
widocznie jakiś temat wyszedł
w trakcie.
Natomiast
znalazł jeszcze teoretycznie drugą audycję
z 30 listopada.
Takiej w ogóle nie było, więc on
no tak lubi sobie pozmyślać
ten czacik.
Teoretycznie
zapytałem go, żeby
znalazł na stronie gdzieś
statystyki
dotyczące uczniów.
Ja to kiedyś sprawdzałem.
Statystyki dotyczące uczniów
z orzeczeniem
o potrzebie kształcenia
specjalnego
i sprawdził, czy się zmienia tam
ilość osób niewidomych na przestrzeni lat.
To nie jest o tyle zadanie łatwe,
że każda
taka statystyka dotyczy jednego…
Tam jest po prostu plik do pobrania, plik csv.
W każdym takim pliku jest statystyka
roczna, rozbita na
województwa, rozbita na osoby niewidome.
Tam zdaje się w ogóle nie ma
takiego podsumowania. O ile pamiętam, przynajmniej
nie ma takiego podsumowania, że ilość osób
niewidomych w sumie tylko
w różnych szkołach, w różnych województwach
to trzeba podsumować każdy z tych
arkuszy i trzeba
porównać ilość tych arkuszy.
Czyli jakby trzeba je pobrać, podsumować
każdy z nich i potem
jeszcze sprawdzić, jak to się ma.
I on mi powiedział, że tam w roku
2000… że znalazł
od 2018 do
2022 i tam podał
jakieś nieliczby, że wtedy to było tyle,
potem to było tyle, co się tak nie bardzo zgadza
z rzeczywistością. Z drugiej strony
on mógł też wziąć pod uwagę osoby słowidzące,
bo tam był taki podział,
że są osoby niewidome i osoby słowidzące.
Być może on sobie wziął dwie,
bo ta liczba, z tego co pamiętam, to taka
podobna była do tej liczby
właśnie słowidzących również
i niewidomych.
Więc
wydaje mi się, że to jest troszkę
tak jak z tłumaczem Google
w roku 2008. Nie wiem, czy pamiętasz
Michale, jak sobie kiedyś na Tim Toku,
na pierwszych tygodniach Tim Toka
braliśmy
jakiś twój tekst z bloga
i przeciągiwaliśmy go
poprzez różne języki
na końcu z powrotem powracając do polskiego
i wyszedł jakiś rebus.
To prawda, pamiętam.
Nie szło zrozumieć.
Teraz, gdy coś takiego się robi,
no, są jakieś zmiany,
ale to są zmiany stosunkowo nieduże.
Da się zrozumieć.
Na pewno da się zrozumieć.
Zresztą mało tego,
kiedyś sprawdziłem, że tłumacz potrafi
poprawić sam siebie. Kiedyś w jednym z książek
Artura Andrusa,
opisywał jakieś menu, które znalazł
w jakiejś węgierskiej restauracji,
które ktoś przetłumaczył właśnie takim
tłumaczem i tam były jakieś palone kłykcie,
jakieś w ogóle dziwne rzeczy,
jakieś palone
coś tam z przemieszanym garnirunkiem,
już w ogóle jakaś
abstrakcja tam była.
Ja to wpisałem w Google’a,
kazałem, muszę tłumaczyć to na węgierski,
potem z powrotem na polski i te niektóre rzeczy
stały się nagle daniami.
Między innymi jakiś gulasz,
jakieś coś tam się zaczęło pojawiać
i
Google poprawił sam siebie,
w pewnym sensie, o ile to było Google oczywiście,
to ja tego nie wiem.
W każdym razie,
potencjał tego jest ogromny.
Jeżeli to mogłoby
właśnie przeszukiwać
różne zbiory danych
i na podstawie zapytania użytkownika,
ja się nie znam na, nie wiem,
jakimś
budowaniu plików CSV.
Mogę zrobić tyle, co można zrobić w Excelu,
spoglądając na pasek statusu
i, nie wiem,
menu kontekstowe powiedzmy.
I tyle.
Jeżeli on by przestał
zmyślać,
to jest to narzędzie
przepotężne
do robienia najróżniejszych
rzeczy w internecie,
przeszukiwania masy wiedzy
i
w moment stworzenia różnego rodzaju
raportów.
Tylko, że z jakiegoś powodu,
po pierwsze, jest leniwy.
Podejrzewam, że albo ma za dużo tekstu
do sprawdzania,
chociaż nie wiem,
no i po drugie,
to jego zmyślanie
jest zbyt duże.
Kazałem mu
na przykład, na podstawie
też wyszukałem sobie
w internecie plik z instrukcją do
Complete Control w PDF,
kazałem mu znaleźć
informację, jak włączyć dostępność.
Znalazł
i
to jest tak, że
trzeba przycisnąć na raz
Shift i przycisk
Settings, zdaje się.
To jest tak, jak ma być.
On napisał, że też trzeba znaleźć dwa przyciski
i je nacisnąć na raz, Shift
i jakiś inny.
Czyli wiedział coś,
ale nie znalazł tam jakichś
Beck. I ja go proszę,
przytocz mi w oryginale
fragment
z tej instrukcji.
I podaj link do PDF-a.
Przytoczył
po angielsku i tam było napisane, że niby
Beck, czyli ten nieprawidłowy,
a w linku podał
linka do jakiegoś starego PDF-a,
w którym było napisane, że ta funkcja
jeszcze nie jest zaimplementowana,
ale już niedługo będzie.
Także…
Czyli to jest po prostu
taki kreatywny uczeń na egzaminie,
który nie bardzo wie, ale za wszelką cenę
próbuje się
jakoś wykaraskać z tego,
a już nie zauważą.
Tu coś podmieni, tu coś
mu się tam zagubi, tu coś zmyśli.
To znaczy ja mam wrażenie, że
to właśnie wynika
z tego, jak działają
te modele i jak to
wszystko wygląda, że to jest
tak naprawdę jedna wielka
probabilistyka i
to wszystko się opiera
na tym. Tak samo
i to właśnie dlatego
niekiedy Whisper
ma różnego rodzaju halucynacje,
gdzie rozpoznaje
głosy,
tekst, którego absolutnie
w tym miejscu nie ma w nagraniu
dźwiękowym i jest w stanie
po prostu coś zmyślać
i teraz tak naprawdę
kolejnym
krokiem podejrzewam,
że będzie opracowanie jakiejś metody,
dzięki której uda się
to wyeliminować. To na pewno
nie będzie prostym zadaniem,
ale podejrzewam,
że prędzej czy później
uda się tego
dokonać. Być może poprzez
karmienie tych
wielkich modeli
jeszcze większą paczką
danych, a może trzeba
coś zmienić w działaniu
samego algorytmu,
który generuje
te odpowiedzi. Tu już ciężko
stwierdzić, nie znam się na
tym,
ale myślę, że prace trwają.
Tak, na kanale Nauka to lubi
ostatnio pojawił się wywiad,
znaczy rozmowa w zasadzie
właśnie Tomasza Rożka i Mateusza
Chroboka, którzy
rozmawiają o sztucznej inteligencji.
To trwa półtorej godziny
i polecam, bo tam rzeczywiście jest
trochę tłumaczonych różnych
rzeczy, które się z tym wiążą.
Właśnie o halucynowaniu jest tam mowa
między innymi. Jeszcze
kilku innych zjawiskach, które wiążą
się z tym czatem.
No i taka
ciekawa to rozmowa
rzeczywiście i polecam
posłuchanie tego.
Natomiast
mówię,
w tej chwili trudno to traktować
jak
coś takiego, co rzeczywiście
otworzy
nie wiem, świat komuś.
Natomiast
jeżeli
mam przeszukać
jakiś zbiór informacji
pod kątem znalezienia czegoś, co da się
szybko zweryfikować, czyli na przykład
tak jak poszukiwałem
tę audycję Tyflo Przeglądu
na temat samochodów elektrycznych i jak jej
znalazł. Znalezienie tego
ręcznie przez przeszukiwanie
kolejnych stron i znajdowanie
komentarzy
zajmowałoby masę czasu.
Jeszcze zrobiłem
jedną rzecz.
Podałem którąś z tekstowych
wersji, chyba Time for Buzz, jak
rozmawialiście z Romkiem.
I
po pierwsze
na podstawie tej
i się go
poprosiłem najpierw o straszenie
tego
czegoś. I
powiedział, że jest to audycja,
trwa około 40 minut.
Nie wiem, czy ona trwała
40 minut, nie mam pojęcia. No nie, zdecydowanie
więcej. Okej.
I to za każdym razem mówię, że trwa 40
minut. I teraz tak,
że prowadzącym jest
Michał Nowak i rozmawia
z Romanem Kowalskim.
Super. Imiona się zgadzały, nazwiska
nie.
W audycji dotyczącej tam,
jak to było, coś ze sztuką
też tam jakiś
czas temu robiłeś z…
Z Anią Knapek. Tak.
I nazwisko
Anny Knapek się nie zmieniło, ale
rozmawiała z nią Magdalena Kozłowska.
Wow.
To ciekawe.
Nie wiem, skąd on to wszystko wziął,
bo
jeżeli chodzi o Time For
Us, to nawet tam się część
informacji zgadzała, że najpierw
porozmawiali się z
aplikacją,
że tam coś,
były jakieś telefony od słuchaczy,
no rzeczywiście był jeden.
Natomiast
jak mu kazałem,
bo tam na końcu
powiedział, że były jeszcze jakieś plany na przyszłość,
się go zapytałem,
jakie te plany? No między
innymi udostępnienie kodu źródłowego
tej aplikacji.
Na pewno.
To pewnie sam autor nawet nie wiedział.
Chyba, że
BingGPT ma plan
udostępnić kod źródłowy.
Może. Rozebrać na części pierwszej.
No.
To mi się nie wydaje
takie nieprawdopodobne.
No i w każdym
razie, no tam jeszcze kilku rzeczy się go
pytałem, niektóre rzeczy odpowiadał naprawdę
dobrze, inne nie.
W każdym razie,
no trochę trzeba się nauczyć
tego, o co go pytać,
o co go warto pytać, o co go nie warto
pytać, póki co przynajmniej.
Więc mówię, dla mnie to jest trochę
taki status tłumacza Google
z 2008 roku,
który w pewnych bardzo
określonych sytuacjach mógł się
sprawdzić, natomiast
jeżeli ktoś znał język,
no to zdecydowanie ten tłumacz
Google to raczej nie.
Chyba, że rzeczywiście to jakieś pojedynczych słów,
żeby się tam z czymś wspierać, natomiast
no w tym momencie to już jest zupełnie inna jakość
tego tłumaczenia niż na początku.
I zapewne z tym
będzie tak samo.
No taką trochę mam nadzieję,
że z tym będzie tak samo, ale
no póki co jest jak jest.
Ciekawe, czy wy macie podobne spostrzeżenia.
Ja się z tym za mało bawiłem, powiem
szczerze, ale to, co
mnie rzeczywiście irytuje
i co trochę zniechęca do korzystania
z tego, w porównaniu
do oryginalnego
czatu GPT, to jest
tempo, w jakim on odpowiada.
No tam odpowiedź
była niemalże natychmiastowa.
Enter. Od razu.
Tutaj trzeba się naprawdę
naczekać.
No sorry,
jesteśmy zajęci.
Poczekaj, aż będzie wolne.
Potem rzeczywiście linijka
po linijce, linijka po linijce,
to się generuje, bo pamiętaj, że wiesz,
to bardzo szybko zdobyło miliony
użytkowników i teraz są zatkane
pod korek.
I bywa
nieraz, że np. generuje się odpowiedź
na czacie GPT i nagle, oj,
serwer error i w ogóle
wyczyszczone jest wszystko i
zacznijmy od nowa. W ogóle zaobserwowałem,
że ten oryginalny czat GPT
zaczął zapamiętywać
prompty,
kiedy się tam zalogujemy.
Tak. Tego wcześniej
nie było. Tak, znaczy to
już jest tam, nie pamiętam, miesiąca, czy
jakoś, że da się wybrać
sobie konwersację, którą się
robiło, żeby ją jakby kontynuować. Zgadza się.
I one są nawet tytułowane
w jakiś taki sensowny sposób.
Konwersacja na temat,
nie wiem, wytłumaczenia
czegoś tam.
I to ma jakieś takie tytuły.
Instrukcje warunkowe
w Linuxie, a potem
opowiadanie na temat gniazdek
elektrycznych na drzewach.
No.
Jakieś takie
rzeczy.
No już.
No okej, to jeszcze
wracając do czatu
GPT i Binga
i sztucznej inteligencji, to
skoro już jesteśmy w tym wątku,
to w Windowsie ma też się
to pojawić, prawda? Tak, no właśnie miałem
do tym też tak wspomnieć, bo w sumie
nie wiem po co dałem to jako dwa newsy.
Nie wiadomo
jeszcze jak to będzie działało,
natomiast rzeczywiście ta
wyszukiwarka Windowsowa, czyli to co
wciskamy start i tam się pojawia
w Windowsie 11 to jest
start
okno szukaj w internecie i w systemie
Windows okno, no to
ma tam być ten
nowy Bing dany.
Natomiast gdzie on będzie szukał
i czy nasz osób będzie
szukał też jakoś lokalnie
i w jakiś sposób, no to
nie wiem, ale kiedyś
chciałbym na przykład móc znaleźć
w różnych zbiorach tekstowych
plików, które nie wiem, coś sobie
zapisałem kiedyś i teraz nie pamiętam
ani nazwy pliku, ani daty, ani
rozmiaru, ani gdzie to zapisałem, tylko
wiem, że było coś takiego gdzieś.
No też w Skype’ie.
W Skype’ie też wchodzi czat GPT
Bing.
Już dostałem updata i tam ponoć niby
jest, tak, w liście zmian. Ale co, że można
wiadomości szukiwać? Pisać z nim, tak,
znaczy na pewno można z nim pisać przez Skype’a,
a czy jakąś interakcję z nim prowadzić,
można go chyba do czatów grupowych dodać
i nie wiem
co więcej, szczerze mówiąc, trzeba go
przetestować. A to trzeba się będzie
rzeczywiście pobawić, bo to
też może mieć całkiem spory
sens, żeby sobie otwierać takie
okienko czatu z takim botem
i gdzieś tam sobie z nim
gadać. No i też taka
informacja z ostatniej niemal chwili,
znaczy wczoraj
chyba czy jakoś, że
OpenAI zdaje się otworzyło
API tego
GPT 3.5 i ludzie
zaczęli masowo
pisać jakieś pongamiki w oparciu
o to GPT 3.5.
To i Whisper’a też API.
Tak, Whisper’a,
tego chyba ich Whisper’a,
znaczy nie, że ty sobie pobierasz
Whisper’a na swój serwer,
tylko korzystasz jakby z Whisper’a, który jest
na ich serwerze, to jest jakoś tam
płatne
i że można sobie
no
co prawda nie za darmo, ale
tłumaczyć różne rzeczy jakby na ich serwerach
przez jakieś tam API.
No to rzeczywiście
dzieje się, dzieje się
i na pewno do tego wątku będziemy jeszcze wracać,
bo podejrzewam,
że co ruszto się będą pojawiały
różne takie
rzeczy, o których warto będzie mówić.
A tymczasem
skoro jesteśmy
w kręgach Microsoftu,
no to Pawle, ty masz dla nas
ciekawą informację, bo już niedługo
z Windowsa 11
będziemy sobie mogli wysłać
iMessage. To prawda
i nie tylko, bo też zadzwonić,
czy po Facetime’ie, to nie wiem,
napisane Basic Call Support,
czyli podstawowe wsparcie rozmów, więc
domyślam się, że na ten moment może
chodzić o rozmowy telefoniczne,
no ale tak
insajderzy już mają, powoli
zaczynają mieć, może tak to ujmę,
dostęp do takiej
nowej wersji, tej aplikacji
Łącze z Telefonem,
tak chyba się teraz nazywa, ja się jeszcze zatrzymałem na etapie
Twój telefon, kiedy miałem Androida,
Łącze z Telefonem,
która
daje dostęp do iPhona.
No i na ten moment nie wszyscy
jeszcze to mają, niektórym
wyskoczy informacja, że coming soon, jak się
wybierze iPhona z tej aplikacji,
no ale niektórym już
pozwoli system na sparowanie
telefonu, przyznanie uprawnień
bluetooth, zeskanowanie kodu QR
łączącego i tak dalej.
No i pojawi się
podstawowe wsparcie, na ten moment
jest podstawowe wsparcie właśnie
wiadomości, połączeń i kontaktów.
O tyle wsparcie
wiadomości jest podstawowe, że nie można jeszcze
na przykład odpowiadać na konwersacje grupowe
i nie można do wiadomości dołączać
multimediów.
Ale to wszystko się rozbudowuje,
to wszystko się przeobraża, myślę, że to wszystko
się jeszcze pojawi.
No ale wygląda na to, że po raz pierwszy
będzie można
iPhone’em sterować, czy w jakiś sposób
z niego wysyłać treści
i tam się łączyć za pomocą
Windowsa i to jest też super wiadomość.
No po raz pierwszy to chyba nie,
bo to już Dell miał coś takiego
w swojej ofercie, ale
z jakiegoś powodu oni zakończyli
wsparcie tej aplikacji.
Tak, to się zgadza.
No natomiast jest to ciekawe,
zwłaszcza, że androidowa wersja
się też dalej rozbudowuje i też dla
insajderów parę nowych rzeczy dla
androida wpadła, na przykład wymiana plikami
między komputerem a telefonem
i wymiana z sesjami przeglądarki.
Czyli mogę sobie moją sesję
przeglądarkową, nie wiem, z Chrome’a na androidzie
przerzucić tak jak mam
na
Windowsa, na komputer. To jest też fajne.
Pewnie.
Nowe narzędzie też dochodzi do
rejestrowania ekranu,
bo wcześniej dało się nagrywać ekran z tej pozycji
paska gier,
paska gracza,
gaming, game bar,
ale coś tam było też
nie do końca chyba tak,
chociaż mi to zawsze odpowiadało, zawsze mogłem nagrywać.
Nie wiem, czy tam to nowe narzędzie
przycięcia, ten snap tool, ten Windows S,
narzędzie przycinania,
ono ma jakieś teraz nowe funkcje nagrywania
ekranu, ale już to
ktoś zgłosił, że bez dźwięku
na ten moment.
No i nowy panel głośności, który ponoć
będą głoszą, że został podprowadzony z aplikacji
Ear Trumpet. W ogóle mówiliśmy o tej
aplikacji kiedyś.
Aplikacja, która taki ma fajny design, że
strzałkami góra-dół chodzimy po
aplikacjach, a lewo-prawo regulujemy głośność
na tym, tego na czym stoimy
i tam jakieś parę takich też patentów
było. Aplikacja stworzona przez
byłych pracowników Microsoftu w ogóle, żeby było
śmiesznie. No a teraz też
nowy panel głośności idzie do,
już natywnie do jedenastki, więc
dzieje się ojdzieje w tym Windowsie.
No to teraz jeszcze a propos tego, co
się dzieje, to ty Pawle masz dla nas
na koniec
tych dzisiejszych newsów informację
o ciekawym narzędziu, za pomocą
którego możemy sobie rozpoznawać
mowę i przekształcać ją na
tekst. Co prawda nie
za pomocą jakiegoś, nie wiadomo
jak super silnika, ale zawsze.
Bo to jest ten silnik od Google’a.
To jest silnik od Google’a, ten który jest
wykorzystywany do tworzenia na przykład napisów
automatycznych w YouTubie.
I to działa. Testowałem prosty
programik w Pythonie, otwieramy go,
ładujemy do niego plik,
wybieramy język
i dokonujemy transkrypcji
i za jakiś czas, po kilku minutach,
oczywiście dużo szybciej niż z Whisperem,
pojawia nam się plik w tym samym
katalogu tekstowy oraz plik
SRT z napisami.
No i już testowałem i są typowe
przypadłości Google’a, czyli urywanie
wypowiedzi z nie wiadomo jakiego powodu.
No właśnie
dokładne transkrypcje,
oczywiście wszystko w jednej linii,
gdzieś tam, jakieś po prostu wymieszane jedno z drugim.
Ale, no, można
coś sobie rozpoznać. Jeżeli nie mamy
dostępu do niczego innego,
to można rozpoznać tym.
Jest strona
pytranscriber,
tak się nazywa narzędzie,
pytranscriber.github.io
I tam można ten program
pobrać. I jest on też dostępny
w Winged’cie, więc można zrobić winged install
pytranscriber.
Swoją drogą zastanawiam się jakie są limity
tego API od Google’a, bo pewnie jakieś
są i kiedy
przy tłumaczeniu w ten sposób,
przy rozpoznawaniu w ten sposób
dłuższych nagrań, to nam się
na przykład wywali. To prawda.
Nie próbowałem jeszcze jakoś bardzo
czegoś długiego, ale…
Typowy przegląd można spróbować.
Ciekawe co z tego wyjdzie.
To się będzie pobawić.
Tym bardziej, że chwilowo
niestety Whisper
w moim przypadku
niestety nie wchodzi w grę, bo
komputer jeszcze cały czas tutaj
walczy z jego
naprawą, więc jeszcze chwilę to
potrwa. To taka informacja dla tych
wszystkich, którzy będą się dopominać
przekładów audycji na formę
tekstową. No troszeczkę będziecie
musieli jeszcze poczekać, aż ja się uporam
z serią nieożywioną, która
teraz jest jeszcze bardziej martwa niż
zwykle.
No cóż, jeżeli
chodzi o nasze notatki, to
to jest tyle, ale
tradycyjne pytanie na zakończenie
programu. Czy ktoś coś jeszcze
ma i chciałby się podzielić?
Ja może powiem, że
jedna rzecz, której nie uściśliłem,
a teraz mi to uświadomiono w międzyczasie,
jak to jeszcze podglądam,
to też na pewne tematy, mimo, że to jest audycja
offline, to rozmawiam też z innymi
osobami, że ten
kwestionariusz konsultacji
społecznych a propos
karty europejskiej osoby
niepełnosprawnej jest
również dostępny w innych językach i
zdaje się, że też
po polsku, co też
bardzo chętnie
sprawdzę.
Już tu otwieram znowu stronę
Komisji Europejskiej
i
jest. Language jest.
Tak, ja już tu przełączam na polski.
Super.
Polski. Niestety nie da się podać
bezpośredniego linku do tego.
Trzeba kliknąć
w link rozwijany language
i wybrać polski.
I
rzeczywiście jest tutaj formularz.
Pytanie, czy możemy podzielić się Twoimi
odpowiedziami z innymi osobami? Jest cały
formularz po polsku, więc nie musicie się
męczyć z angielskim. Wystarczy
przełączyć język i
wszystko zrozumiecie. No to fantastyczna
wiadomość. Myślę, że
nie jednej osobie to ułatwi
wypełnienie tego formularza
i że jeszcze
więcej informacji dzięki
temu zostanie zebranych.
Tak. No dobrze.
To w takim razie chyba rzeczywiście
już wszystko, jeżeli chodzi o
173 wydanie
Tyflo Przeglądu. Prawie?
To coś jeszcze?
Tak, króciutka informacja.
Na YouTubie jest takie
coś jak Podcastage
pod Zastagę
i mówiliśmy
nie pamiętam, czy dwa
Tyflo Przeglądy temu, czy ileś
o słuchawkach autotechniki, które
mają wbudowany mikrofon.
A, faktycznie.
Zresztą ten,
czy przynajmniej kapsułę, tę samą,
z której Ty w tej chwili tutaj
przemawiasz. Zgadza się.
AT2020. I ten
mikrofon został
wytestowany
przez człowieka, który
się zajmuje tym podcastem,
który prowadzi ten podcast.
Dość fajnie go prowadzi.
Pokazuje ten mikrofon.
Oczywiście ma
różne mikrofony, w tym
coś, co nazywa się Neumann U87.
Kosztuje, zdaje się,
jakieś naście tysięcy złotych w tej chwili.
Jest mikrofonem
mojej od dawna, od dawna
znanym i lubianym.
I jeszcze
ileś innych. No, w każdym razie
można sobie posłuchać.
No, to są dość
fajne słuchawki z mikrofonem,
choć oczywiście wiadomo,
że nie każdemu
się coś takiego przyda. Niemniej,
no, niemniej
myślę, że
może to się przydać w niektórych
sytuacjach, właśnie zwłaszcza w takich, gdy albo
gdzieś tam często jesteśmy w rozjazdach
i chciałbym mieć dobry
dźwięk z mikrofonu
za słuchawek
i jestem w stanie napisać na to
tysiąc złotych, albo ewentualnie, gdy mam, nie wiem,
mikroskop o inne biurko,
tylko miejsce na laptopa,
na nic więcej. Też chcę mieć
z jakiegoś powodu dobry dźwięk
w tym wszystkim. I ja wtedy
szanstam, że taki mikrofon rzeczywiście troszkę
pomoże. No, mi to się wydaje
naprawdę całkiem niezłym uzupełnieniem tego
Vocastera, którego teraz
testuję. Nie wiem,
czy będę aż tak
w to inwestował. To
oczywiście jest kwestia gdzieś tam
do rozważenia.
Natomiast na co trzeba
zwrócić uwagę i o czym
mówi autor wspomnianego
przez Ciebie materiału,
że te kapsuły, mimo że
istotnie według producenta
są takie same, to one
jednak brzmią inaczej. To znaczy
ta audiotechnika,
którą ja mam przed sobą,
ona ma
więcej wysokich częstotliwości,
jak dobrze pamiętam. Tomku,
możesz skorygować.
Chyba wysokich
też.
Tam chyba o górę chodziło, wiesz?
Być może. Coś z tym basem i chyba górą
tam coś było.
Co prawda akurat dla mnie to nie jest problem,
bo ja tych wysokich
częstotliwości w głosie to raczej
troszkę mam. To też nie było
tak, że to były jakieś ogromne różnice.
Tak, tak, tak.
Wiecie, no to
też testuje człowiek, który
ma
o tym duże pojęcie i
pytania też raczej niemałe.
Oczywiście. Więc to tak, żeby
nie było. Natomiast
jest jeszcze jedna cześć, która mi troszkę
się nie podoba w tych słuchawkach.
Możliwe, że to jest kwestia konstrukcji.
Tam nie ma odłączonego
kabla. Ja bym bardzo
chciał mieć takie słuchawki,
w których mogę sobie wymienić kabel. I raz jest
to kabel z jackiem
i XLR-em, żeby sobie podłączyć
do miksera, albo
jak właśnie gdzieś wyjeżdżam, my mam za sobą
jako laptopa, to podłączam te słuchawki pod
USB i wtedy one mi robią
zakartę dźwiękową. To prawda, bo
te słuchawki występują w dwóch odmianach,
niestety nie w jednej.
A mogłyby. O, tak
mi się wydaje przynajmniej, że mogłyby.
No, bo tak naprawdę
no to kwestia po prostu tego
przewodu. Ja podejrzewam,
że to… Ciekaw jestem, czy smartfon uciągnie
te słuchawki, bo jakby uciągnął,
to by było naprawdę bardzo ciekawie.
Tak. Wiesz, prowadzisz,
nie wiem, na Zuma przecież można wejść ze smartfona.
Oczywiście.
Ja nieraz mam coś takiego,
że gdzieś tam albo wyjadę, pewnie
teraz tych wyjazdów będzie więcej i ja nie wiem, czy nie
zainwestuję sobie w takie słuchawki,
no bo rzeczywiście,
posiadanie takich słuchawek wyjazdowych o naprawdę
niezłych parametrach,
które mógłbym, tylko
muszę sprawdzić, czy mógłbym
podłączyć do smartfona i w zasadzie
wyjeżdżam gdziekolwiek,
mam smartfona, podłączam do niego
te słuchawki i mam naprawdę całkiem przyzwoitą
jakość dźwięku. To się zgadza.
Mogę robić podcasty, mogę uczestniczyć
w tych przeglądach bez
noszenia mikrofonu, statywu,
czegoś, oprócz
laptopa, tylko po prostu mam słuchawki
i na nich ma wszystko. No kwestia jest
też tylko po prostu właśnie tego wyboru,
odpowiedniego
przewodu i odpowiedniej
wersji tych słuchawek, no bo tak.
To raczej na USB, no bo jak
wyjeżdżam, no to zakładam, że jednak
tak to będzie wyglądało.
Zgadza się.
Mam już mikrofon. No ja właśnie mam,
ja mam, ja miałbym tu większy
zgryz, ja raczej właśnie
skłaniałbym się ku
tej wersji XLR
plus jack, żeby sobie to,
żeby sobie to spiąć właśnie
z tym sprzętem i
wtedy mieć to tak rozwiązane.
Z drugiej jednak strony,
jakby była właśnie taka sytuacja, kiedy
bym chciał wpiąć sobie to do smartfona,
no to już nie mogę tego
zrobić. No i to jest to właśnie o czym
ty mówisz i to jest wielka szkoda, że nie ma
tu wymiennego przewodu.
Tak, bo tam wygląda to w ten sposób, że jak
jest przewód USB, to akurat jest przejściówka
też na USB-C. Więc jest
albo zwykłe USB-A, albo USB-C.
Tak, no
a niestety nie ma
możliwości wtedy wpięcia się
z jackami z XLR-em.
No cóż, albo po prostu może
warto poczekać, bo może za jakiś czas
pojawi się jeszcze jakieś takie
rozwiązanie, które i ten
problem nam zniweluje.
I oby tak było. A to jest całkiem możliwe.
Widziałeś, nie wiem, informacje o tym RODE’cie
nowym NT1-A
piątej generacji? I jeszcze nie.
No
mikrofon jak mikrofon, zdawałoby się.
I ma XLR-a,
no i zazwyczaj XLR combo
jest z jackiem. No tak.
A tu jest combo z USB-C.
O! I to
mi się podoba. Chociaż powiem szczerze,
ja akurat
z USB-C miałem niewiele
do czynienia. I na przykład
jak przyszedł do mnie
ten vocaster,
to się trochę tak
zniechęciłem do tego USB-C,
bo ono jest, przynajmniej w
przypadku tej karty, nie wiem
na ile wy mieliście do czynienia z USB-C
i ile tam tego
podpinaliście. No troszkę.
To nie jest… Smartfony.
No to nie jest
wcale takie
jakieś mam wrażenie stabilne
i pewne to gniazdo.
To znaczy, no zależy
do czego porównując.
Do microUSB, zwłaszcza 2.0,
co było totalną porażką,
to jest dużo.
Bo kable microUSB
u mnie wytrzymują średnio 3 miesiące,
po czym te sprężynki metalowe,
które tam są i które mają doklinować,
to się…
To przestają być sprężynkami.
Aha. To nie, to ja
nie miałem w ogóle takich problemów, a tu
wyobraź sobie, jak
podpiąłem tę kartę,
to na początku to się
zmartwiłem, bo wpinam
do tego
gniazdka, wpinam do portu,
no i coś tam
zaszumiało, ale system nie
widzi urządzenia. Okazało się, że
wystarczyło wypiąć i wpiąć jeszcze raz
tam z tyłu, bo coś jakby
się skończyło, potem już tego problemu nie było.
Ewentualnie spróbuj
może kupić jakiś inny kabel USB-C.
Całkiem możliwe, że ten jest taki.
Ale tak jakoś by…
Ja akurat
u siebie jeszcze niespecjalnie
mam cokolwiek na USB-C, no bo
jak nie jakieś starsze
technologie, to bardziej Lightning,
ze względu na iPhona.
No i tak jakoś
ten jeden z pierwszych
kontaktów z USB-C nie był
najbardziej pozytywny.
Znaczy wiadomo, że
XLR jest łączem znacznie bardziej
stabilnym, zresztą
bo taki miał być, tak?
XLR to są łącze,
które
ma być naprawdę solidne, więc
tam ludzie się przewracali
o statywy z mikrofonami
i oczywiście to tak nie powinno być, że to…
że szarpią za wtyczkę,
ale generalnie ta wtyczka powinna
wytrzymywać różne rzeczy
i wytrzymuje, jeżeli jest przyzwyczajona.
To prawda.
No i słuchajcie,
tak oto mamy minutę po północy.
Tak, my witamy już sobotę,
ale z wami to się będziemy żegnać
w 173
wydaniu Tyflo Przeglądu,
co prawda takiego offline, ale
jesteśmy tak jakbyśmy byli tutaj
na żywo, no tylko bez waszego
udziału, ale spokojnie już w kolejną środę
będziemy czekać na wasze
telefony. A na dziś
z naszej strony to tyle.
Paweł Masarczyk, Tomasz Bilecki
współprowadzili dziś
tę audycję. Dziękuję wam bardzo.
Dziękujemy.
I ja również dziękuję za uwagę. Michał Dziwisz,
kłaniam się. Do usłyszenia, do następnego
spotkania na antenie Tyflo Radia.