TyfloPrzegląd Odcinek nr 182 (wersja tekstowa)

Pobierz napisy w formacie SRT
Pobierz napisy w formacie VTT
FUNDACJA INSTYTUT ROZWOJU REGIONALNEGO PREZENTUJE
TYFLO PODCAST
Majówka, majówka i po majówce, 180 chyba druga audycja Tyflo Przeglądu.
Zgadza się.
Dzisiaj, no taki całkiem duży mamy skład, jest Paulina Gajoch, jest Mikołaj…
Dobry wieczór.
Jest Piotrek Malicki, jest Michał Dziwisz i…
Piotr Machacz.
Piotr Machacz.
To już mi się wszystko myli.
Ale pozdrawiamy Piotra.
Tak, koło ja też.
I mi kojarzę, że masz.
Tak, jest jeszcze Paweł Masaczyk, jak słychać, Michał Dziwisz i ja, czyli Tomek Bielecki.
Dobry wieczór.
No i czas na przedstawienie newsów, ale dzisiaj newsy przedstawi sztuczna inteligencja.
W dzisiejszym Tyflo Przeglądzie.
Mona for Mastodon oficjalnie w App Store.
Konkurs International Low Vision Song Contest będzie transmitowany w Tyflo Radiu.
Games for Blind Gamers 2 Jam zakończony.
W co warto zagrać?
W Japonii nie upijemy się przez przypadek, nawet jeśli nie widzimy.
Co ma się znajdować na wypukłych mapach parków?
Trwają badania w tym kierunku.
Nowy OCR do NVIDIA.
Gra Forza Motorsport będzie w pełni dostępna DLA Niewidomych.
Jak drukować pismo punktowe na drukarce 3D?
Fundacja Prowadnica to wie i tą wiedzą się podzieliła.
Piper. Nowy neuronowy syntezator DLA NVIDIA.
Zaproszenie na prelekcje z cyklu Polscy Nobliści.
Starostwo powiatowe w Bielsku Białej dostępne DLA Niewidomych.
Spektakl Kto Puka w Sosnowcu.
Nowości od Towarzystwa Muzycznego im. Edwina Kowalika.
Nie tylko DLA miłośników muzyki.
Narrator będzie lepiej czytać w Microsoft Excel.
Kilka ciekawych blogów w serwisie Elten.
Doświadczenia z targami pracy na platformie Brazen.
Nowości w Seeing Assistant Home.
Kilka małych newsów ze świata gier.
Neuronowe głosy od Eleven Labs dostępne po polsku.
Audon. Fediverse’owa alternatywa DLA Clubhouse.
Home Assistant pozwoli na przerobienie telefonu stacjonarnego na centrum sterowania domem.
Google Chrome pozwoli ominąć część kodów kapcza.
Stack Edit. Edytor Markdown w naszej przeglądarce.
Wszystko to, a pewnie jeszcze więcej już za chwilę.
Już za chwilę. A w zasadzie to już.
Pora tylko jeszcze powiedzieć, że jesteśmy na…
Właśnie, gdzie my dzisiaj jesteśmy? Na YouTubie? Na Facebooku?
Tomku, my jesteśmy wszędzie. I na YouTubie, i na Facebooku.
W Tyfloradiu też jesteśmy. I tak w ogóle, gdyby ktoś jeszcze miał ochotę,
to aplikacja na iOS-a wróciła do TestFlighta,
bo przez chwilę jej nie było, ale już jest ponownie.
I można się nią cieszyć, można korzystać, można testować.
I z tej aplikacji można nas również oczywiście słuchać i do nas pisać.
I pisać można jeszcze z aplikacji Tyflorpodcastu
napisanej przez Dawida Piepera na system Windows.
No i przez stronę tyflorpodcast.net
albo kontakt tylko na tyflorpodcast.net.
Już mi się naprawdę wszystko myli majówką.
Co ty robiłeś na tej majówce? Właśnie nie wiem.
Co znaczy wiem. W każdym razie chyba czas zacząć newsy.
I zaczynamy od jeszcze newsów, które nam z poprzedniej audycji zostały.
Znaczy zostały. To rozwinięcie takiego tematu z poprzedniej audycji,
czyli Mona forma studenta oficjalnie w App Store.
Dokładnie, tak jak w zeszłym tygodniu Paweł mówił,
że ta aplikacja niedługo się pojawi w App Store,
ona właśnie się pojawiła.
Jak mówiliśmy wcześniej, to jest naprawdę potężne narzędzie
do obsługi Mastodona, do czytania, do pisania na nim,
które jest w każdym możliwym stopniu właściwie personalizowane.
Jakie czynności mamy na pokrętle, jakie karty mamy,
ile tych kart mamy.
Jest do tego stopnia, że Jonathan Mosen zrobił prawie 3 godziny podcast,
który opisuje każdą funkcję tej aplikacji.
Może bardzo dużo.
Było wcześniej dostępne w Test Flight jako wersja beta,
a teraz pojawiła się pełna wersja.
Już można ją sobie zarówno dla iPhona, iPada i Maca pobrać z App Store.
To jest jeden link na wszystkie 3 wersje.
Po prostu wystarczy z waszego danego urządzenia sobie w niego wejść.
Jak to wszystko wygląda cenowo?
Jest wersja darmowa, która pozwala nam zobaczyć jak ta aplikacja wygląda,
bo pozwala nam zalogować się na jedno konto,
włączyć sobie podstawowe powiadomienia,
przeglądać sobie tego Mastodona.
Wszystko, bo możemy i szukać, możemy sobie inne serwery podglądać.
Też jest to możliwe.
Możemy pisać, aczkolwiek to pisanie jest troszeczkę okrojone,
bo możemy pisać krótsze posty do 160 znaków
i możemy odpowiadać na posty innych osób.
Jeśli chcemy dostać dostęp do pozostałych funkcji aplikacji,
których jest bardzo dużo,
to musimy sobie zakupić wersję Pro albo wersję Pro Max.
A dokładnie jakie to są opcje?
To właśnie pisanie dłuższych postów, możliwość dołączania zdjęć i ankiet,
czy też plików audio zresztą.
Więcej czynności, czyli to wszystkie możliwości,
które pozwala nam Mastodon,
czyli to jest podbijanie czy tam reblogowanie,
akurat tak się to w tej aplikacji nazywa,
ulubione, dodawanie postów do ulubionych, do zakładek,
wbudowana funkcja tłumaczenia,
która korzysta albo tłumacza w telefonie lub z DeepL’a,
dostosowanie paska kart,
motywy, to bardziej może dla osób samobowidzących,
można sobie kolory, ksiągki dostosować,
wielokąt jednocześnie,
możliwość dodawania sobie filtrów,
więc jeśli chcemy jakichś konkretnych typów postów widzieć,
możemy je sobie odfiltrować.
Dostosowanie powiadomień push,
więc możemy sobie powyłączać jakieś konkretne powiadomienia,
czy ustawić jak one mają się nam wyświetlać
i możemy sobie też ustawienia w wersji Pro importować.
Aplikacja jest dostępna w dwóch wersjach,
Pro lub Pro Max.
Różnica jest taka, że wersja Pro
daje nam dostęp do tych wszystkich funkcji na jednym urządzeniu.
To może być iPhone, to może być iPad, to może być Mac,
ale tylko jedno takie urządzenie.
Więc jeśli mamy iPhone’a i Mac’a na przykład
i chcielibyśmy korzystać z aplikacji na obu urządzeniach,
to już musimy sobie kupić wersję Pro Max.
Mamy 13-dniowy okres próbny,
więc oprócz tego darmowego dostępu, o którym mówiłem,
możemy też sobie uaktywnić okres próbny.
A jeśli chcemy zakupić wersję Pro,
no to do końca maja, bo tutaj dowodowy powiedział,
że potem ceny prawdopodobnie pójdą w górę,
o ile nie wiem, nie podał takiej informacji,
ale do końca maja cennik wygląda tak.
Wersja Pro kosztuje około 50 zł,
wersja Pro Max około 90
lub 50 zł, jeśli mieliśmy wcześniej zakupioną aplikację Spring,
tego samego twórcę.
No to aplikacje są bliźniacze do siebie, jeśli chodzi o wygląd,
tylko Spring był do Twittera, a Mon jest do Mastodona.
Więc jeśli mamy zainstalowanego Springa,
to możemy sobie za połowę ceny pełną wersję Mon’y
na wiele urządzeń wykupić.
Jest jeszcze możliwość przejścia z wersji Pro na wersję Pro Max,
więc jeśli kupimy sobie tą podstawową wersję Pro,
bo mamy powiedzmy tylko iPhona,
no ale potem kupimy sobie jeszcze Maca albo iPada
i też chcemy na nim korzystać z Mon’y,
to możemy sobie za połowę ceny po prostu dokupić wersję Pro Max
i wtedy mieć dostęp na wszystkich urządzeniach.
Używam tej aplikacji praktycznie od momentu,
kiedy ona się w tej slajdzie pojawiła,
parę miesięcy temu.
Autor naprawdę dba o funkcję i o dostępność,
jeśli są jakieś błędy z voiceoverem,
czy samą aplikacją zgłaszane,
czy jakieś prośby o sugestie, prawie wszystkie.
Cały czas czekamy na możliwość dostosowania dźwięków,
niestety, no ale pozostałe jakieś inne prośby
są gdzieś brane pod uwagę.
Więc aplikacja jest naprawdę warta polecenia.
Nawet dzisiaj już się ukazała następna wersja
i właśnie już w tej wersji na App Store,
jeśli ktoś jeszcze korzysta z wersji beta,
no to nie ma jeszcze możliwości ustalenia,
w jakim języku piszemy post,
bo taka opcja się pojawiła,
Mastodon to wspiera.
Niestety nie wszystkie aplikacje mają tę możliwość.
Mon’a jest jedną z pierwszych w sumie.
No i właśnie w tej wersji na App Store pojawiła się aktualizacja 5.1,
która na ekranie pisania postów daje nam możliwość ustalenia,
w jakim języku piszemy.
Naprawdę warto pobrać sobie tą aplikację i przetestować.
Jest naprawdę świetnie rozstępna.
Jest po polsku, co też myślę jest fajne.
No więc warto sprawdzić.
Ja myślę, że też się tu podepnę,
bo miałem przyjemność zakupić tą aplikację
ze zniżką dla osób, które już Springa posiadały,
czyli te 50 zł za wersję Pro Max.
I tutaj ważna uwaga.
Pamiętajcie, żeby sobie Springa zaktualizować
do najnowszej wersji, jaka wyszła.
Tam jakiś czas temu, nie wiem, z tydzień, może parę dni,
wyszła taka wersja jeszcze Springa,
która ma wpisane jakieś tam poprawki i usprawnienia.
Tą wersję trzeba pobrać, bo z mojego doświadczenia
inaczej ta zniżka nie chciała działać.
I kiedy już sobie wgracie mone,
zwłaszcza jeżeli z bety przechodziliście na wersję teraz już stabilną,
to żeby tam zadziałały powiadomienia,
to warto wejść do ustawień powiadomień.
Tam ustawienia, powiadomienia push.
Niczego tam nie zmieniać.
Znaczy wejść, przepraszam, wejść w swoje konto,
to na którym chcemy te powiadomienia mieć włączone
i nie zmieniając niczego nacisnąć przycisk zapisz
i wtedy zostaniemy poproszeni o udzielenie pozwolenia
czy uprawnień na powiadomienia,
na wysyłanie przez aplikację powiadomień.
To w sumie wszystko.
Może jeszcze tylko powiem, że
Mastodonem warto się zainteresować teraz zwłaszcza,
bo okazuje się, że ma dojść troszeczkę takich funkcji,
o które użytkownicy prosili.
Na przykład cytowanie postów,
które było bardzo kontrowersyjnym tematem
i nadal jest w takich środowiskach,
zwłaszcza już weteranów Platformy Mastodon.
Też mają dość lepsze narzędzia wyszukiwania treści i osób,
więc będzie jakieś wyszukiwanie postów.
Jak będzie to działało, to też zobaczymy,
czy to będzie jakiś opt-out czy opt-in,
czy w ogóle nie.
W jaki sposób będzie można sobie te nowe treści
przez wyszukiwarkę po prostu znajdować,
tak jak to miało miejsce na przykład na Twitterze.
No i też kolejna zmiana,
która jest dość mocno debatowana.
To bardziej dotyczy osób,
które chciałyby przygodę z Mastodonem zacząć
od oficjalnej aplikacji,
no bo tutaj dużo bardziej będzie rekomendowana
instancja mastodon.social
i osoby, które będą zakładały swoje pierwsze konto na Mastodonie
właśnie przez oficjalną aplikację.
Będą oczywiście miały możliwość wyboru innej instancji,
natomiast ta mastodon.social będzie gdzieś tam
w pierwszym kroku już proponowana
i tak jakby ta preferowana.
Więc jeżeli ktoś nie będzie miał pomysłu
na jakąś instancję inną,
to dużo łatwiej będzie się zalogować tam.
Różnie się na to patrzy,
bo, no właśnie, istnieje zagrożenie,
że przeciętny użytkownik nie będzie chciał
sprawdzać tych innych instancji
i się interesować tą jakby całą szerokością Mastodona
i różnorodnością
i powstanie kolejny silos,
kolejny Twitter, który prawdopodobnie
zostanie przez kogoś wykupiony
i, no właśnie, też ta instancja stanie się taka
no nijaka, takie wszystko i nic tam będzie.
No zrobi się z tego taki moloch kolejny,
więc tego się troszeczkę boją,
zwłaszcza już tacy użytkownicy z dłuższym stażem.
Natomiast jeśli jeszcze mówimy o Mastodonie,
to też szybko powiem,
że aktualnie w testach jest ta wersja
już chyba z ulepszeniami dostępności,
natomiast aplikacja się poleca Topiary,
chyba tak się to czyta, pisze się Topiary
i nie chodzi tu o żadne influencerki,
które chcą być na topie,
bynajmniej a o aplikację do analizowania
naszych różnych powiązań
i sieci kontaktów na Mastodonie,
czyli możemy sobie sprawdzić,
kto śledzi nas, kogo my nie śledzimy
albo kogo my śledzimy, kto nie śledzi nas,
a gdzie mamy taką zależność,
że i my śledzimy i ktoś śledzi nas,
a które konta to były dawno nieaktywne.
Takie proste narzędzie do posprzątania trochę
i uporządkowania tej naszej listy osób,
które śledzimy.
Ponoć ma tam dojść gro o czynności na pokrętle,
na przykład prosto z pokrętła będzie opcja Obserwuj,
czyli taką osobę, którą sobie w wyniku
naszej analizy znajdziemy,
że w sumie to fajnie byłoby ją zaśledzić.
No i przeróżne takie analityczne kwestie
będzie można tą aplikacją robić,
no więc można się nią jak najbardziej zainteresować.
A teraz konkurs.
Konkurs International Low Vision Song Contest
będzie transmitowany w Tyflo Radiu.
Co za konkurs, kiedy to wszystko się będzie działo?
O tym wie więcej Paweł.
Tak. I tutaj mówimy o konkursie ILSC,
International Low Vision Song Contest,
czyli taka Eurowizja niewidomych poniekąd.
I nie mówię tutaj tego porównania,
nie używam przypadkowo.
Wszak w przyszłym tygodniu
czeka nas też Eurowizja.
Więc tutaj będzie to taki bardzo muzyczny tydzień,
przynajmniej dla mnie, nie wiem jak dla Was,
ale nie będzie trzeba na szczęście wybierać
między Eurowizją A i ILSC,
bo finał tego drugiego odbędzie się właśnie
w przyszły piątek, 12 maja o godzinie 20.
I będzie on transmitowany przez nas i tłumaczony,
podobnie jak tłumaczony był koncert
We’re With You dla osób niewidomych z Ukrainy.
I już tutaj ustalamy jeszcze ostatnie szczegóły techniczne.
Skład myślę będzie dość mocno zbliżony do tego,
który już znacie z We’re With You.
Możliwe, że z drobnymi zmianami.
Ile potrwa wydarzenie?
No tego sami nie wiemy.
To zależy od tego, jak szybko się organizatorzy
uwiną z prezentowaniem wykonawców,
z przyznawaniem nagród,
z decydowaniem o tym, kto tą nagrodę otrzyma.
To nawet nie jury, tylko to Wy też zdecydujecie
i my też Wam pomożemy w tym,
jak będziecie mogli głosować na utwory,
które przypadną Wam do gustu
i będziecie chcieli oddać na nie swoje cenne głosy.
No domyślam się, że w przeciwieństwie do Eurowizji tej dużej,
no to tutaj już te głosy można oddawać za darmo.
Więc chyba warto się skusić.
No i myślę, że będzie to ciekawy festiwal muzyczny,
bo z tego, co tutaj widzę,
Polski Związek Niewidomych,
który opiekuje się tym,
jak będą reprezentacje z Polski,
no zapowiada, że będzie 25,
24 będą kraje z pięciu kontynentów.
Ja już troszeczkę za kulisy miałem okazję zajrzeć
i wiem, że z takich krajów bardziej egzotycznych
na przykład będzie zespół z Nepalu.
Więc no myślę, że warto się wsłuchać
i warto też kibicować naszej reprezentacji
i trzymać za nich kciuki,
ażeby im się udało.
No a was już zapraszamy na przyszły piątek
na godzinę dwudziestą do nas tutaj, do Tyflo Radia.
No i też wygląda na to, że jeżeli nie uda wam się tego odsłuchać na żywo,
być na żywo i głosować i kibicować,
ale chcielibyście w sumie posłuchać w późniejszym terminie,
to tym razem będzie możliwość,
żeby to było opublikowane jako podcast.
Tak, dostaliśmy zielone światło od organizatorów,
więc możemy to zrobić
i ten materiał będzie opublikowany
jako audycja na stronie Tyflo Podcastu.
To już za tydzień.
A teraz jeszcze zanim przejdziemy do kolejnych informacji,
to widzę, że na stronie Tyflo Podcastu
pod ostatnim Tyflo Przeglądem
pojawił się taki naprawdę obszerny komentarz
Kamila Kaczyńskiego
a propos tego, o co pytał nasz słuchacz Bartek.
A Bartek pytał o to,
jak można sobie zgrać kasetę wideo
do komputera.
No i tu Kamil się rozpisał,
więc ja ten komentarz pozwolę sobie zacytować.
Do połączenia magnetowidu z komputerem
potrzebujemy tzw. karty wideo,
tudzież wideograbera,
wyglądającego mniej więcej jak pendrive
albo prosta karta dźwiękowa USB
z odpowiednimi gniazdami.
Najprostsze grabery posiadają 4 gniazda,
to jest dwa RCA, czyli kanały lewy i prawy
do głosu oraz jeden RCA do obrazu.
To trzy chyba.
I ja też zresztą kojarzę to z wideo,
że tak właśnie miałem dwa RCA na lewy, prawy
i właśnie wideo.
Ale może tu się jeszcze coś rozjaśni dalej.
Gniazda połączeniowe audio
mają kolory biały do lewego kanału
oraz czerwony do prawego kanału,
a do połączenia obrazu służy kolor żółty.
Urządzenie posiada również wejście S-Video,
a to jest to czwarte.
Jeżeli nasz magnetowid posiada takie gniazdo,
możemy nim połączyć obraz zamiast żółtego
i wówczas mamy szansę uzyskać trochę lepszy obraz,
ale magnetowid musi mieć odpowiedni przetwornik
i być wyposażony w wyjście S-Video,
ale ponieważ system się nie sprawdził,
tylko profesjonalne tudzież montażowe magnetowidy
wyposażono w takie wyjścia,
to wiele magnetowidów posiada.
Ponadto dwukierunkowe połączenie z kart,
czyli tak zwane eurozłącze,
wówczas należy się zaopatrzyć
w dostępny w sprzedaży kabel
zakończony z jednej strony wtyczką eurozłącza,
a z drugiej strony odpowiednimi wyprowadzeniami
w postaci wtyczek chinch,
które powinny posiadać odpowiednie kolory,
jak wyżej opisałem,
oraz powinny być oznakowane w postaci opisów
to jest tu Audio In L, Audio In R,
Video In, Audio Out L, Audio Out R
oraz Video Out.
W wyższej klasy magnetowidach
wyjście wideo może się składać z trzech gniazd RCA
lub może być gniazdo eurozłącza,
które będzie wymagało takich wyprowadzeń.
Kolory wtyczek audio oraz kolor żółty
się nie zmieniają,
pozostałe dwa nie pamiętam jaki mają kolor.
Zgrywając z taśmy VHS należy zwrócić uwagę na fakt,
że rozdzielczość wideo jest niska
i nigdy takie nagrania nie będą pod względem wizyjnym
dorównywać dzisiejszym standardom,
także może się zdarzyć,
jeżeli włączymy kasetę po przysłowiowych 30 latach,
to nie będzie tak dobrze odbierała jak kiedyś,
gdyż taśma magnetyczna się rozmagnesowuje.
Należy zwrócić uwagę na jeszcze jedną istotną rzecz.
W latach 80 oraz 90,
czyli w czasach świetności VHS,
zdecydowanej większości
przeważały odbiorniki telewizyjne mono,
program również był nadawany w mono,
dopiero u schyłku lat 90
zaczęły się w Polsce pojawiać programy telewizyjne
nadawane w stereo
oraz upowszechniać telewizory i magnetowidy stereo.
Piszę o tym, gdyż trzeba zwrócić uwagę
na ilość gniazd wyjściowych audio,
gdyż w magnetowidach mono
będzie tylko jedno gniazdo
i będzie koloru białego.
W przypadku, jeżeli w naszym magnetowidzie
jest tylko jedno gniazdo do połączenia audio,
co zdarza się często,
wówczas dźwięk będzie nagrywał nam się
tylko na jednym kanale,
więc musimy dokupić odpowiedni rozdzielacz
i podać to na wyjście liniowe w obu kanałach.
W pierwszej dekadzie lat dwutysięcznych
do digitalizacji VHS
przede wszystkim wykorzystywało się kartę telewizyjną,
którą montowało się w komputerze,
aby oglądać telewizję.
Urządzenie niniejsze działało
jak tradycyjny odbiornik telewizyjny
i tak jak do zwykłego telewizora
można było podłączyć antenę tudzież magnetowid,
tak tam też można było podłączyć do karty magnetowid
celem przegrania na komputer nagrania z kasety.
Wtedy jeszcze dyski były znacznie mniejsze i droższe,
także i programy do przechwytywania wideo
oraz do samej obsługi karty telewizyjnej
były dość skomplikowane.
Dobre karty też nie były tanie
i jak już wspomniałem
do niniejszej karty było dołączone oprogramowanie,
a profesjonalna karta kosztowała fortunę.
Karty takie przechwytywały
w nieskompresowanym AVI
to tak jak w dźwięku podstawowy WAV
godzina nagrania w nieskompresowanym AVI
potrafiła zajmować jakieś 10 GB.
Jedna kaseta miała od 3 do 4 godzin,
więc już 40 GB na dzień dobry,
a później trzeba to było po przegraniu skompresować,
to i na kompresję potrzeba było przynajmniej jeszcze 40 GB.
Tak więc dobrze było mieć w zapasie cały czas
około 100 GB miejsca na dysku,
aby jedną kasetę bezpiecznie zgrać,
a w tamtych czasach dyski nie były tanie i duże,
więc nie każdy tak mógł,
dlatego digitalizacją VHS zajmowały się często punkty usługowe.
Od ostatnich 15 lat czasy się zmieniły,
zwłaszcza, że mamy do czynienia z telewizją cyfrową,
a ja chciałem powyżej napisać jeszcze o analogowej.
W obecnej chwili są wspomniane przeze mnie grabery,
które podłącza się przez USB,
nagrywają w MPG-2,
czyli w skompresowanym formacie od razu do formatu DVD,
są sprzedawane z intuicyjnym oprogramowaniem,
a ceny najprostszych oscylują w granicach 100 zł.
Kupując taki graber otrzymujemy płytę,
na której znajdziemy sterowniki do niniejszego urządzenia
oraz kompatybilny z nim program do zgrywania,
który powinien poprowadzić nas krok po kroku
przez proces nie tylko samego zgrania materiału,
ale także umożliwić jakiś mały montaż.
Dodanie napisów, muzyki, utworzenie pokazu zdjęć,
czyli przy odrobinie samozaparcia, chęci i czasu
możemy sobie nawet w dość profesjonalny sposób
zdigitalizować swoje zbiory wideo.
Warunkiem jest jednak posiadanie przez nas
dobrego magnetowidu VHS,
celem poprawnego odtworzenia nagrania.
Niestety opcje montażowe najczęściej nie są dla nas dostępne,
więc będziemy skazani na pomoc osoby widzącej,
ale z samym zarejestrowaniem materiału
powinniśmy poradzić sobie bez problemu.
Kiedy jednak zarejestrujemy już nagranie,
możemy plik poddać montażowi,
przynajmniej w podstawowym zakresie,
za pośrednictwem innych programów.
Trochę możemy zrobić programem Vegas,
ale jeszcze z tego nie korzystałem,
więc trudno mi się do tego obiektywnie ustosunkować,
więc nie chcę nikogo wprowadzać w błąd.
To ja dodam, bo ja trochę tym się bawiłem,
też oczywiście niewiele,
ale mogę dodać, że jakaś podstawowa obróbka
w zakresie chociażby przycięcia materiału wideo
jest dla nas dostępna i możliwa.
Także to jesteśmy w stanie…
W Windowsie XP korzystałem z programu Windows Movie Maker.
Może, ba, warto by zawrzeć dłuższą znajomość
z omawianym niedawno na łamach
Tyflo Podcastu programem Lossless Cut.
Szczególnie jeżeli nie zależy nam na żadnej poprawie obrazu,
czego i tak sami nie zrobimy,
ale posiadamy na przykład kasetę z jakimiś pierwszymi swoimi krokami,
nagraną kamerą i tam jest kilka takich nagrań
i chcielibyśmy je podzielić.
W ramach z droższymi grabberami
możemy otrzymać dodatkowe kable połączeniowe
oraz bardziej profesjonalne oprogramowanie.
W kolejnym komentarzu podam linki do przykładowych urządzeń,
ale nie wiem jak jest z dostępnością ich oprogramowania.
Czasem po zainstalowaniu sterowników grabbera
można użyć go z oprogramowaniem z innego grabbera
i też działa.
Kiedyś korzystałem z karty telewizyjnej,
dzisiaj korzystam z grabberów,
posiadam profesjonalny grabber Intensity Pro,
ale do jego użycia potrzebujemy komputera stacjonarnego,
ale posiadam również dwa prostsze grabbery,
które się łączy przez USB.
Jeden kupiłem w 2014 roku,
ale oprogramowanie nie umożliwiało nawet zarejestrowania materiałów w łatwy sposób
i trzeba to było obejść wirtualną myszą,
natomiast drugi kupiłem w 2016 roku
i tam można było po niewidomemu poustawiać niemal wszystkie opcje
potrzebne do poprawnego przechwycenia pliku.
Co więcej, ten starszy grabber
z oprogramowaniem tego nowszego działa również.
Dla zainteresowanych tematem napiszę,
że aplikacja nazywa się
Honestech VHS to DVD.
To DVD właściwie tak powinienem powiedzieć.
Ale oczywiście możecie sobie przeczytać
pod 181 tyfloprzeglądem komentarz Kamila
i tam sobie dokładnie sprawdzicie,
jak ta aplikacja się nazywa.
A Kamil pisze dalej tak.
Być może ktoś będzie w stanie kupić ją z jakimś grabberem
lub znaleźć w internecie sam program,
ale nie wiem, czy na przykład tylko ta moja wersja
nie jest przypadkiem tak dobrze dostępna.
Możliwe, że mi się po prostu tak dobrze trafiło,
ale możliwe, że ktoś sobie kupi jakikolwiek grabber
i znajdzie tę aplikację i będzie miał dobrze,
no ale wtedy nie wiem, jak z dostępnością innych jej wersji.
Jeżeli ktoś będzie chciał kupić grabber,
to warto zobaczyć, czy tam nie jest dołączona aplikacja
o takiej nazwie.
Poczytam, jakie są teraz grabbery, może znajdę z taką
i można kupić, być może można też kupić grabber,
zainstalować sterowniki,
a następnie poszukać w internecie nawet jakiegoś
darmowego programu do samej rejestracji wideo.
Przy digitalizacji kaset należy zwrócić uwagę również
na system, w jakim został zapisany na taśmie obraz.
Do najbardziej znanych systemów należały
SECAM, w jakim telewizja nadawała na przełomie
lat 80. i 90.
PAL, w jakim telewizja nadawała od drugiej połowy lat 90.
W PALu również nadawały
amatorskie kamery analogowe oraz
NTSC, jeżeli mielibyśmy kasety,
które nagrywane były w Stanach Zjednoczonych.
Wówczas należy ustawić
odpowiednio system zarówno w magnetowidzie,
jak i w opcjach grabbera.
W przypadku błędnego ustawienia obraz będzie czarno-biały.
No i tyle Kamil nam napisał.
Więc jeszcze pewnie będzie tam za jakiś czas
również dodatkowy komentarz Kamila, w którym wrzuci
kilka linków do grabberów, czyli do tych urządzeń,
które pozwalają na zgrywanie kaset VHS.
Dziękujemy Ci bardzo Kamilu za tak obszerny komentarz.
W sumie dzisiaj
jakoś się to musiało spotkać ze sobą,
bo akurat przeglądałem Reddita i tam też ktoś pytał,
jak zgrywać wideo. Akurat wrzucał zdjęcie jakiejś karty
jeszcze na Pcimcie i pytał,
czy to też na Pci i czy to jeszcze dzisiaj zadziała.
No i potem była cała dyskusja o grabberach właśnie USB,
o kartach jeszcze na Pci.
I to, co właśnie Kamil pisał, tylko w dużo uboższej formie,
czyli znajdź sobie kartę na USB najlepiej
z kompatybilnym złączem do Twojego magnetowidzu
i będziesz szczęśliwy.
No więc tutaj Kamilu rzeczywiście dzięki za bardzo obszerny
komentarz. Miejmy nadzieję, że Bartkowi pomoże.
Ja tylko jeszcze poprawię pewną kwestię,
jeśli chodzi o transmisję festiwalu, powiedzmy,
czy konkursu piosenki i LSC.
24 kraje, 4 kontynenty, a nie 5.
No i wiemy, kto reprezentuje Polskę.
A reprezentuje ją po raz drugi Zuzia Mulec
z piosenką Wdal, którą napisała, skomponowała sama.
A kompaniować będzie jej, tak jak i rok temu,
też Rock Mulec.
Trzymamy kciuki, no i już za tydzień transmisja.
Teraz news kolejny w takim razie.
I teraz bym to dobrze powiedział. Games for Blind Gamers
to Jam.
Jeszcze takie pytanie, bo wcześniej miałam newsa
swojego z poprzednich audycji,
tam jakieś update’y.
Pytanie, czy ty to pamiętałeś celowo, czy…
A jest, tylko że ci jest. Faktycznie dopiero teraz to zauważyłem.
Musiałem odświeżyć stronę.
Ja myślę, że spokojnie może Paulina powiedzieć później.
No to w takim razie…
Ok, no to przepraszam od razu za
odcinkę, ale właśnie zastanawiałam się
o co chodzi. Jeśli chodzi o te update’y,
no to właśnie przez ten czas, w którym tak długo mi nie było,
no to już parę rzeczy się pozmieniało a propos tego,
o czym miałam dawać znać.
To dalej w sumie się nie dowiedziałam,
jakie okulary do Jeszuo będą
kompatybilne, żeby móc
korzystać z tej jego nowej funkcji,
więc najpewniej kupię sobie coś zwyczajnego,
po prostu strzelając w jakikolwiek model
i spróbuję zrobić na ten temat jakąś prezentację,
jeżeli to w ogóle będzie kompatybilne.
Natomiast jeśli chodzi o Alchemy,
to co prawda bardzo długi proces ma,
przez bardzo długi proces
musiałam przejść, żeby w końcu
móc to potestować, ale finalnie się uda,
także będą z tego nagrania, myślę, że to nawet
będzie zasługiwało na
jakiś odrębny podcast z highlightami
i moimi komentarzami już na chłodno.
Jeśli chodzi o tłumaczenia moje,
to tak, ostatnio zaniedbałam tłumaczenia
do komentarzy z Kirin Liter, do Jeszuo,
jest nowa wersja, ale nie ma moich tłumaczeń,
dlatego że ostatnio była dość
mocna potyczka,
jeśli chodzi o tłumaczenia,
ponieważ pan Feng,
developer programu, przekazał
tłumaczenie angielskie innej osobie
bez poinformowania poprzedniego tłumacza
i zawirowania wokół tego
sprawiły, że nie przetłumaczyłam
na czas tych ciągów
nowych znaków i przez to
wylądują te tłumaczenia dopiero
na nowe,
na nową wersję z nowymi
aktualizacjami tłumaczeń,
czyli wtedy, kiedy będą jakieś nowe funkcje,
które będą wymagane tłumaczenia, to dopiero wtedy
te tłumaczenia trafią do obiegu.
Ostatnio też usłyszałam taki
trochę krytyczny głos, jeśli chodzi o moje tłumaczenia
do Abyka, czyli Advanced Braille Keyboards,
jak zobaczyłam na nie, to faktycznie też się przeraziłam,
bo już zapomniałam, jak to wstrętnie wygląda,
a to tak wstrętnie wygląda przez to, że pan developer
zamiast wysłać cały plik z tłumaczeniem tak,
żeby można było go poprawić, zrewidować,
no to on wysyła tylko te fragmenty, które mają być
przetłumaczone na daną konkretną wersję, w skutek czego
nie da się zachować zgodności nazwowej,
bo człowiek po prostu nie pamięta, jak wcześniej to przetłumaczył.
Albo na przykład coś jest przetłumaczone bez kontekstu
i wygląda zupełnie inaczej niż powinno.
Przykładowo słowo
focus oznacza zarówno ostrość,
jak i no właśnie focus i nie znając kontekstu
możemy przetłumaczyć coś zupełnie inaczej
niż byśmy tego chcieli.
Z rzeczy, które będą omawiane też
dzisiaj na audycji,
czyli co do
Eleven Labs, to
staram się tam o
praktyki lub zatrudnienie, nie wiem jak to
finalnie wyjdzie i dowiedziałam się
w międzyczasie,
że pracuje u nich jako
moderator osoba niewidoma. Osoba, która używa
screenreadera na co dzień, więc
to jest praca, która jest dla nas dostępna.
Jeżeli byście byli ciekawi, zainteresowani dołączeniem,
to jest też komunikat właśnie taki,
że da się, że jest to w miarę
osiągalne dzięki temu, że
jedna z osób tam pracuje.
A coś możesz, Paulino, więcej powiedzieć na temat tego
na czym ta praca polega?
Ta osoba, czyli
Oniku Storm, czyli chyba z tego co wiem
taki rumun niewidomy,
pracuje właśnie jako moderator
i discorda i jakby przewodnik po platformie
odpowiadający na pytania użytkowników
i ja najpewniej będę
osobą, która
będzie wsparciem płatnych
użytkowników i z tego co wiem, ta osoba też się tym zajmowała
przez jakiś czas, więc wiem, że to jest
dostępne, ale nie mam szczegółów co do platform
poza discordem i tą stroną
na których się to odbywa.
Jeśli chodzi o tą stronę 11lapsa, na której na przykład
generujemy głosy, tam jakby
ustawiamy parametry tego co się ma wygenerować
to te listy, które są
niezbyt dobrze dostępne z klawiatury
są już zgłoszone właśnie jako takie
mało dostępne, mało dobre
dla niewidomych i ma być z tym coś
zrobione, więc to w sumie tyle
tych moich update’ów.
To są generalnie takie wydarzenia
w których programici, deweloperzy, gier czy całe firmy
nawet dostają jakiś krótki czas, to może być
tutaj akurat to był miesiąc, ale to też może być krócej, dwa tygodnie,
tydzień na stworzenie gry na jakiś konkretny
temat. Game jamy są różne, no i tutaj
tematem przewodnim właśnie były gry dostępne
dla osób niewidomych. O tym game jamie
już wcześniej Paweł wspominał jak on dopiero
skończył i byli szukani, zainteresowani
programiści. W czasie kwietnia właśnie
ten game jam się rozpoczął i rozpoczęły się prace
nad różnymi projektami. No i 30 kwietnia
to się wszystko zakończyło i finalnie
dostaliśmy 31 pozycji. No tam właściwie
może być troszeczkę mniej, bo tam np. jedna gra się nie
załadowała po prostu w pusty archiwum, ktoś się załadował.
Ale generalnie możemy powiedzieć tam około 30
gier jest, które możemy sobie za darmo pobrać.
Większość jest dostępna w przeglądarce,
całkiem sporo też jest na Windowsa, które sobie możemy
pobrać, ale też kilka znalazło się na Linuxa i na Maca,
też nawet jedna gra, która tylko na Macu,
co ciekawe. Tych gier jest
całkiem dużo, to są często gry, które
stworzyły takie gry
dla niewidomych po raz pierwszy, więc to nie są jakieś
skomplikowane produkcje, to też dlatego, że nie mieli
zbyt dużo czasu. Co nie zmienia faktu,
że dostaliśmy naprawdę kilka ciekawych pozycji
w praktycznie wszystkich
gatunkach, bo znalazły się tutaj jakieś gry
zręcznościowe, kilka takich gier fabularnych, gdzie
po prostu czytamy historię i podejmujemy decyzje.
Kilka gier RPG, nawet
jedna gra wyścigowa, więc naprawdę wszystko, właściwie
wszystkie gatunki, jakie możemy sobie wyobrazić,
zarówno gry jakieś tekstowe, jak i takie typowe gry audio,
więc warto się w tym zainteresować.
Link oczywiście będzie
w komentarzu.
Tak sobie przeglądam tutaj listę i na przykład pierwsza gra, która
mi się wyświeciła, bo tutaj się też one sorczują losowo,
to jest Fishy Fist, to jest gra, w której
łowimy ryby. Agent Stealth, to jest gra, która
jest tylko na Macu, no to tutaj
musimy zakraść się do jakiegoś budynku,
uratować zakładników
i przy okazji nie zostać złapani.
The Fourth Dragon, to jest właśnie jedna z tych gier RPG, w których
jesteśmy smokiem i musimy uratować
swoich kolegów, no i przy okazji
uratować świat. Mystery Artifacts,
no to nawet nie jest tyle gra, co taki interaktywny
utwór muzyczny, jak to autor napisał, to jest gra, w której
musimy mieć joystick i po prostu po otwarciu
aplikacji leci sobie piosenka i wszystkimi
gałkami, przyciskami o tym joysticku mamy wpływ
na to, jak ta muzyka brzmi.
Cloudskeeping, to jest z kolei
gra taka bardziej interaktywna, w której
poprzez… jesteśmy papierowym samolotem,
lecimy sobie gdzieś po niebie i zależnie od tego, w którym
kierunku lecimy, jak szybko, no to też tam w tle leci
muzyka, która leci albo
wolno, albo szybko. Jest kilka takich gier typu
Simon, w których powtarzamy dźwięki.
Lifeworms, też kolejna taka ciekawa gra, w której gdzieś jesteśmy
na obcej planecie i
musimy szukać obcych form życia. Też naprawdę
bardzo ciekawie dźwiękowo to zostało
zrobione. Revmatch, to jest ta gra wycinkowa, o której
mówiłem, której musimy w odpowiednim czasie
zmieniać biegi.
Dryadson, to jest właśnie jedna z tych
gier tekstowych. Naprawdę tych gier
jest całkiem sporo i
jeśli zdecydujecie się w nie zagrać,
to warto sobie również założyć konto na portalu Itch.io,
gdzie to się wszystko odbywało, co pozwoli nam po pierwsze
zacząć obserwować tych deweloperów, bo wielu
z nich zapowiedziało, że będą pracować dalej nad swoimi produkcjami
albo kolejne ich gry
może będą dostępne dla niewidomych.
A po drugie, na każdą z gier możemy przynajmniej przez
następny jeszcze dzień, właściwie dwa dni, więc tak
do soboty wieczora, możemy jeszcze
na swoją ulubioną grę wgłosować. Jest kilka kategorii, w której
każdą produkcję oceniamy, jakość
dźwięków, czy gra była dostępna dla niewidomych, czy nam się fabuła
podobała. No i po prostu tak symbolicznie
dzięki temu możemy pokazać, która gra
podobała nam się najbardziej. No i
możemy też zostawić twórcom komentarze
na co oni bardzo liczą.
Game Jam też miał swój Discord, w którym też większość z tych
deweloperów siedzi i chcą, żeby jak najwięcej ludzi
ich produkcję przetestowało, więc
gorąco do tego Was zachęcam.
Teraz news dosyć ciekawy na temat
Japonii. Okazuje się, że tam
nie upijemy się przez przypadek, nawet
jeśli nie widzimy, tak jest napisane w newsie.
Pawle, o co chodzi?
To, że w Japonii, jak i zresztą w wielu innych
krajach, pewnie wszędzie na świecie,
są sprzedawane piwa w puszkach i są sprzedawane
też napoje w puszkach, takie bezalkoholowe.
No i Japończycy wpadli
na pomysł, i to nawet nie rząd, a po prostu
browary się tak ze sobą zmówiły,
że one będą, no koło
tak powiem miejsca, gdzie się puszkę otwiera,
tej takiej zawleczki,
będzie się instalowało napisy
w brajlu o tym, że jest to napój
alkoholowy, że jest to piwo. No i tutaj
każdy browar ma jakiś swój na to patent,
jedni piszą po prostu alkohol, drudzy piszą piwo wprost,
trzeci piszą nawet, jaka to marka, że to jest
ich browar, a wszystko po to, żebyśmy
jako osoby niewidome, przez przypadek
sobie nie wzięli, chcąc napić się na przykład do śniadanka
jakiegoś tam napoju, żeby nie napić się piwa.
No i okazuje się, że oczywiście
oprócz takich przyczyn typowych, o których możemy pomyśleć,
że zawsze mądrze jest napić się alkoholu, nie w każdej sytuacji,
a czasami po prostu nawet nie chcemy, nie mamy na niego ochoty,
tylko tam kiedyś, indziej później, albo w ogóle nie pijemy,
a to piwo to jest kogoś innego z naszych domowników.
No to też
jest tam powód trochę medyczny, bo w Azji
osoby właśnie o azjatyckich genach
mają bardzo zróżnicowane
te genotypy i u niektórych osób
spożywanie alkoholu kończy się
no nawet nieprzyjemnościami zdrowotnymi, nie są to jakieś
śmiertelne sprawy, natomiast jakieś właśnie takie,
że tu cała czerwona twarz, że bardzo gdzieś tam gorąco,
że oddech się traci, jakieś takie objawy, których
no, wolelibyśmy uniknąć, gdybyśmy chcieli,
więc jak wiemy, że nam alkohol nie służy,
no to świadomie też go nie spożywamy. No a jeżeli mieszkamy
z kimś, kto wręcz przeciwnie, no to warto
mieć tego typu sytuacje pod kontrolą.
No i właśnie z tego powodu, między innymi
też browary zdecydowały się
swoje puszki jasno oznaczać,
że jest to napój zawierający alkohol albo, że jest
po prostu piwo. No i takie japońskie puszki z piwem
mają brajla. No i ciekawe,
może ktoś z was kiedyś pił japońskie piwo?
Nie zdarzyło mi się, a bardzo lubię
piwo, natomiast jako właśnie ktoś,
kto ten napój lubi, to ja
bym szczerze powiedziawszy z miłą chęcią
przywitał nie tylko informację, że
dana puszka to piwo zawiera, ale też jakie
to jest piwo, bo czasem
ma na przykład znaczenie pod względem
takim sensorycznym, jeżeli na przykład
decydujemy się na wypicie tam powiedzmy
dwóch piw, jednego po drugim,
to na przykład istotne jest to, od którego piwa się zaczyna,
bo chodzi o to, żeby z procentowością
alkoholu przechodzić od mniejszego
do większego, żeby
móc sobie no rzeczywiście ten smak
danego piwa odpowiednio poczuć
i żeby na przykład to mocniejsze piwo,
które będziemy sobie tam pili na przykład na samym
początku, no nie zagłuszyło nam tych
nutek różnego rodzaju, które są w tym słabszym
alkoholu, jeżeli chodzi o procent, także no to
też byłoby miłe szczerze powiedziawszy, no ale to już wiadomo,
to kwestia jakichś tam
dodatkowych rzeczy, tu ten aspekt zdrowotny
przede wszystkim zwyciężył.
To prawda, no więc ciekaw też
jestem, czy jeżeli na przykład do Polski, bo domyślam się,
że to nie jest jakieś niebywałe, żeby piwo
z Japonii gdzieś na nasze może półki sklepowe
to nie, ale chociaż czemu nie?
W restauracjach zdarza się.
W restauracjach albo na jakichś festiwalach, albo w jakichś sklepach z żywnością zagraniczną,
albo w sklepach jakichś japońskich tematycznych nawet
takich internetowych. Pytanie, czy można dostać
gdzieś takie piwo i się przekonać na własne
palce, czy to piwo rzeczywiście jest
podpisane, tak jak obiecują.
No wiem, że Kirinu chyba taka marka jest
wymieniona, jeżeli nie przekręciłem w artykule,
na który się powołuję, że oni mają
na pewno, ale to nie są jedyni, więc no jeżeli
mieliście doświadczenia z japońskim piwem w jakiejkolwiek formie
to podzielcie się, czy był na nim brail.
Też zależy, kiedy jest news, bo jeżeli news jest
teraz, a my kupimy teraz, no to może być jeszcze
stare piwo z magazynów. To już trochę ma, to
ktoś odkopał newsa sprzed chyba siedmiu lat,
2016 rok jest
zdatowany na artykuł, więc, a wyskoczyło na jakimś
fast-foodowym koncie. Raczej starego piwa nie będzie w sklepie.
No właśnie, wyskoczyło na jakimś koncie
takim typowo ciekawostkowym, jakiś Today I Learned
czy coś tego typu, więc postanowiłem się
podzielić, ale jeżeli macie gdzieś dostęp do japońskiego piwa,
to dajcie znać, czy jest brail na nim.
Zaglądam do komentarzy,
które nam się tu pojawiły
i mamy dwa komentarze
od Mojsiora. Pierwszy komentarz
to jest pytanie. Chciałem się
zapytać Piotra o aktualizację do gry
System Fold, bo ja tej aktualizacji nie mam,
a mam grę kupioną w sklepie Microsoft i mam tę wersję
sprzed roku. Na forum Audio Games Net
również nie ma wzmianki od autora, o której Piotrze
wspomniałeś. Skąd masz
info o tej aktualizacji?
Tak jak zresztą pisałem w zeszłym tygodniu, to ta aktualizacja
na pewno pojawiła się na itch.io. Może
autor po prostu nie wysłał tej aktualizacji do
sklepu Microsoftu. Ja może
spróbuję do niego napisać, zapytam się, czy coś
utknęło, czy po prostu
nawet może zapomniał ją tam wysłać,
bo chyba większość ludzi ją ściągnęło
przez itch.io. Ja też tak zrobiłem, bo tam
miałem dostęp do wersji na Windows, ale też na Maca
od razu, więc zobaczymy. Na itch.io
ta wersja na pewno jest i przez to, że
obserwuję tam autora, to właśnie dostałem
maila, jak ta nowa wersja się ukazała.
Stąd ta informacja.
Ale spróbuję coś się więcej dowiedzieć.
I mamy jeszcze jeden komentarz Mojsiora, a potem
będziemy mieć jeszcze inny komentarz, który nam
pojawił się w międzyczasie.
Pojawiły się poprawki do moda dla gry
Crusader Kings 3, który poprawia
sporo w interfejsie. Teraz już robienie tutoriala
jest bardzo łatwe, ponieważ można
wykryć okienko tutoriala, dzięki czemu
nie zasłania ono innych okienek gry.
I jeszcze mamy tu komentarz od DJa
Chrisa. Ja tak na marginesie
a propos tych grabberów. Przy pomocy OBS-a
też można zdigitalizować kasety VHS,
wybierając transmisję lokalną
i wybierając naszą kartę jako kamerę.
No tak właśnie podejrzewałem, że tu OBS może być
też do tego w jakikolwiek sposób przydatny.
I jeszcze jeden komentarz,
skoro już go widzę, też Ewelina do nas napisała
Witam, mam Blind Quest 3.
No to Ewelino, może jakaś audycja na temat
tej gry. Jeżeli miałabyś ochotę,
to zapraszam do jakiegoś kontaktu
i jeżeli będziesz chciała podzielić się
jakimiś swoimi wrażeniami z tej gry, jak ona wygląda
i jak się w nią gra, czy fajnie, czy też nie.
No to może warto będzie
taką audycję zrobić.
A teraz mój news dotyczący
tyflografii, czy w zasadzie wydruków 3D
map dla niewidomych, map parków różnego rodzaju
kreobrazowych.
To znaczy kilkoro naukowców
z kilku różnych uniwersytetów.
Wojskowa Akademia Techniczna jest u KSW,
Uniwersytet Kandydat Stanów A. Wyszyńskiego
jest jeszcze…
O Jezu, już nie pamiętam. Uniwersytet w Skierniewicach
Stefana chyba Batorego.
W każdym razie, ci wszyscy ludzie
badają to, jak najsensowniej
robić plany tyflograficzne
czy mapy
różnego rodzaju parków.
Założenie tutaj jest takie, żeby
taki plan nie służył do tego, żeby można było
po takim parku się samodzielnie poruszać,
tylko po to, żeby można było zobaczyć
czym charakteryzuje się jakiś styl
danego parku. Jakiś japoński, angielski
tam były wmieniony w przykładach
i pewnie tam jeszcze kilka innych.
Zobaczyć, że jest jakiś styl
jakiegoś parku ogrodu i o co chodzi w ogóle
w tym stylu.
Oprócz tego, że ma być stworzonych pięć
planów, czy w zasadzie plany
pięciu styli czy stylów takich parków,
to mają być opracowane takie
wytyczne, czy to jakaś praca naukowa
ma być stworzona, która ma
mówić o tym, jak to zrobić dobrze.
I teraz będzie
w ciągu najbliższych dwóch chyba lat
sześć sesji, w których będzie brał udział
w sumie 20, zdaje się, osób niewidomych,
które mają testować te wszystkie plany
pod kątem tego, czy te plany są dobre, czy
dobre jednak nie są. No i tu oczywiście jest
kilka problemów, no bo na takim planie
można zrobić bardzo dużo.
Problem polega na tym, że dotyk ma stosunkowo
niską rozdzielczość, w związku z powyższym
trzeba wybrać takie rzeczy, które będą
najważniejsze i które mimo wszystko
trzeba jakiś kompromis tutaj zawrzeć między tym,
żeby w ogóle dało się cokolwiek zrozumieć, a tym, żeby dało się
zrozumieć jak najwięcej z takiego, wyczytać
jakby jak najwięcej z tego planu.
Więc no, moim zdaniem to jest o tyle
ciekawe, że rzeczywiście
możliwe, że powstanie coś
na czym będą mogli oprzeć się ludzie
tudzież firmy, tudzież w ogóle jakieś instytucje,
które w przyszłości będą chciały stworzyć
tego rodzaju plan i wtedy już nie będzie
czegoś takiego, że każdy będzie musiał robić
taki research od zera i pytać niewidomych
jak zrobić to, a jak zrobić tamto, a może tak,
a może inaczej, a może ktoś będzie miał swój pomysł,
tylko po prostu będzie praca, która będzie mówiła
jak to zrobić, żeby to było dobrze,
to lubię.
A teraz niezbyt dobra wiadomość na temat
Siri, są różne błędy
w Siri, które no, powodują
duże problemy z funkcjami dla niewidomych,
które są generowane przez Siri.
No i właśnie tutaj mam wrażenie, że media,
z jednej strony może media technologiczne trochę podchwyciły
temat od tej strony,
a z drugiej strony mam też wrażenie, że rzeczywiście w tych krajach,
gdzie Siri działa, to dla wielu osób
z dysfunkcją wzroku, to jest jakby główny
sposób robienia czegokolwiek na iPhonie, mimo, że
voice over to jest potężny, rozbudowany czytnik ekranu.
Otóż jest taki błąd
dość dziwny w najnowszej wersji, czyli 16.4.1,
mówię o wersji stabilnej,
gdzie nie jest możliwe
zapisywanie wydarzeń w kalendarzu
ani odczytywanie jakichkolwiek
informacji o tych wydarzeniach, jeżeli one
mają się odbyć 31.
dnia dowolnego miesiąca.
I zdaje się, że kilka
amerykańskich stacji radiowych,
a przynajmniej jedna gdzieś była podana,
otrzymało w ogóle telefony od słuchaczy,
którzy dzwonią
i mówią, że oni są osobami niewidomymi
i przez to, że ten błąd
występuje, to oni nie są w stanie
sobie wpisać wydarzenia do kalendarza.
No i rzeczywiście ktoś tam się z tego radia,
do którego jeden z tych telefonów napłynął,
zainteresował, zadzwonił do Apple,
do wsparcia technicznego. Apple w ogóle podziękowało
jemu za to, że taki
dość rzadki błąd wyłapali,
sprawdzili go, ma to być jakoś tam naprawione.
Natomiast no właśnie tak to mi uzmysłowiło,
że gdzieś w opinii publicznej
krąży takie przeświadczenie, że nawet jest napisane
w artykule, że mimo, że jest voice over,
to dla wielu osób w Siri to jest jedyny sposób,
czy najszybszy sposób, jak sobie wydarzenia w kalendarzu
dodać.
I ja to nawet rozumiem.
Natomiast no właśnie moment, w którym coś się psuje w Siri,
to jest moment, w którym, i to już zauważyłem, bo to nie po raz pierwszy,
media właśnie głównego nurtu technologiczne
na alarm, że psujące są funkcje dla niewidomych.
Więc tutaj taka perspektywa
z miejsc, gdzie Siri działa, ale rzeczywiście,
jeżeli jakoś sobie radzicie za pomocą Siri,
to ta funkcja chwilowo w ten sposób no nie działa.
Nie można zaprogramować wydarzenia
na 31 dzień miesiąca.
I teraz pozytywna wiadomość.
To będzie kilka takich wiadomości przeplatanych,
raz pozytywna, raz negatywna, bo pojawiła się
nowa wtyczka do NVIDIA. Nowy OCR.
Zostanie to od Pauliny.
Tak, to jest wtyczka, która korzysta z bindu OCR.
Stworzył ją niedawno jakiś
Chińczyk, ale nie jestem w stanie przeczytać
jak on się nazywa, także
przepraszam, ale jest link do GitHuba i tam jest
jego nazwa użytkownika, więc
możecie się zapoznać. W każdym razie,
ta wtyczka właśnie oferuje
wsparcie bindu OCR wraz
z publicznym kluczem, który nam daje
do testów. Możemy sobie też wykupić swój,
no ale dopóki używamy tego
sobie tak przygodnie, to według mnie nie ma powodu, żeby kupować.
Potestowałam to
i muszę powiedzieć, że to wcale nie jest
taki głupi pomysł, bo ok,
co prawda, jeżeli
rozpoznamy coś po polsku,
to na przykład dostaniemy z tego
rozpoznane coś bez
polskich znaków, ale jeżeli
rozpoznamy coś w jakimś innym alfabecie, to systemowy
OCR zupełnie, zupełnie zawodzi.
Natomiast tutaj bardzo fajnie sobie
w każdym razie bindu
sprawdzałam to, co prawda może nie na wszystkich
alfabetach, ale na wielu z nich
i poszło mi całkiem dobrze.
Są tam skróty w zdarzeniach wejścia
do przekonfigurowania, jest
rozpoznawanie ze schowka, rozpoznawanie
aktualnego obiektu i zmiana
silnika rozpoznawania, bo mamy tam
online’owy OCR dokładny,
znaczy nazwany jako dokładny, czyli
Accurate OCR, mamy też
offline’owy i jakiś general.
Nie wiem, czym ten general jest,
no ale można sobie potestować i sprawdzić.
Od tego samego człowieka,
od tego samego Chińczyka właśnie wyszła
też wtyczka do tłumaczenia i co prawda
ona się nazywa, a przynajmniej
została określona jako Multilingual Translation,
bo nie wiem, parę
nas ma ta wtyczka w sumie.
Ale niestety właśnie ona też się opiera na
Baidu i w tej sytuacji to jest niestety,
ponieważ mamy tam tylko chiński i angielski.
Więc to multilingual to
niezbyt dobre jest.
I to jest to. Natomiast jeżeli
jesteśmy przy OCR’ach, to
to jest aktualizacja do wtyczki
Tesseract OCR od Rojego Fontesa.
Jest właśnie link w komentarzu
w mojej notatce
do pobierania bezpośredniego.
No i przy okazji
to jest też link do GitHub’a, więc jeżeli się
cofniemy o poziom w tym linku, no to
będziemy mieli samo repozytorium.
Także to jest
chyba tyle na ten moment.
A to na tyle nie jest na pewno jeżeli chodzi
o komentarze, które do nas piszecie,
bo tu mamy kilka wypowiedzi.
Mamy pytanie od
Pawła. Kiedy będzie transmitowany konkurs
Piosenek Niewidomych i kto będzie z naszego kraju?
Pawle, już za tydzień.
O tej porze, czyli po 20 w piątek.
Po 20 w piątek. A z naszego kraju
Zuzia Mulec, zdaje się. Tak, Pawle?
Tak, tak. Zgadza się. Potwierdzam. Roger, roger.
Zaglądamy do kolejnego
komentarza. Tu Patryk
do nas napisał.
16 beta 3, jeszcze nie
uaktualniałem do bety 4
series podstawowym językiem angielskim brytyjskim
i głosem także w tym języku. Jak najbardziej
umie zapisać wydarzenie w kalendarzu na
najbliższy 31 dzień miesiąca.
Za to zapisanie na
31 września zgodnie z
oczekiwaniami nie jest możliwe.
No to dobrze.
Jeszcze a propos komentarzy, już autor System Vaulta do mnie
odpisał. Tak, aktualizacje zostały wysłane do
sklepu, tylko tam właśnie gdzieś w procesie
weryfikacji utknęły. Bardzo podziękował za informację, bo
napisał mi, że po prostu szturchnie te
w support Microsoftu. Może coś się uda w tej sprawie ruszyć, bo szykuje się
jeszcze następna aktualizacja, więc przepraszam za utrudnienia,
ale powinna się w jakimś czasie
pojawić się aktualizacja.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Zgadza się.
Na czym polega optymalizacja tej gry pod rozgrywkę jednoosobową?
To jest jedno. A drugie, czy są roz…
Czy są brane pod uwagę inne języki od dyskrypcji?
I w ogóle może coś więcej o tej grze? Czy w ogóle w jakich językach ona jest?
I tak dalej. Czy coś jest po polsku?
Wiesz co…
No jeśli chodzi o tą optymalizację, to…
To… Nie wiem, tak po prostu…
Generalnie to wyglądało tak, że
wiele osób po prostu zaczęło się pytać Brandona
w mediach społecznościowych, czy te funkcje będą działały w multiplayerze.
I on po prostu odpowiadał w taki sposób, mówiąc, że
tutaj firma pracowała nad tym, te funkcje…
Dosłownie użył tych słów co ja, także…
To było bardziej testowane pod single player,
ale w multiplayerze te funkcje też powinny działać.
Ja przypuszczam, że to może być tak, że nie wiem, może osoby widzące
będą szybciej mogły jakieś konkretne ruchy wykonać.
Myślę, że my też będziemy w stanie się tego jakoś nauczyć.
Ale co to dokładnie znaczy, nie wiem.
Będziemy musieli poczekać na to, jak ta gra się ukaże.
A co do dostępnych języków w tej audio-dyskrypcji…
Na pewno sam skill needed w tej grze to są po prostu głosy Microsoftu,
które po polsku też są. Nie wiem, czy
poprzednie części Forzy były spolszczone, czy nie.
Musiałbym się tego dowiedzieć.
Jeśli były, to przypuszczam, że sam narrator też będzie spolszczony.
No i też nie wiem, czy ta audio-dyskrypcja jest robiona głosem ludzkim,
czy po prostu przez syntezę.
Jeśli przez syntezę, to przypuszczam, że ona po polsku też powinna być dostępna.
No i mamy też komentarze.
Mamy komentarz od DJ Krisa.
Krisa to tak a propos gier różnego rodzaju.
Ciekawe, co z Hearthstone’em.
Była ankieta i cisza.
No faktycznie, twórcy Hearthstone’a chyba nie za bardzo
jakoś wdrażają dostępność dalej.
Tu trzeba polegać na modach, prawda?
To jest tak, jak chyba nawet kiedyś mówiliśmy z Pawłem,
bo pamiętam, że kiedyś właśnie był wątek Hearthstone’a poruszony.
I tak, nawet wpisanie maili do teamu dostępnościowego
z zapytaniami jak idą prace nad dostępnym Hearthstone’em
nie przynoszą zbyt wielkiego efektu.
Natomiast właśnie o ile GuideDev przestał pracować nad modami,
o tyle właśnie społeczność wzięła się za ich rozwój.
I w zasadzie, co prawda oczywiście wielkie gratulacje dla GuideDev’a
za rozpoczęcie inicjatywy i tak dalej.
Ale fakt jest faktem, że odkąd przyjęła to społeczność fanów
nie zdarzyło mi się jeszcze nigdy, chociaż teraz już rzadziej
trochę gram w Hearthstone’a, ale nie zdarzyło mi się nigdy
czekać na moda mimo aktualizacji.
Te update’y są naprawdę wydawane błyskawicznie.
Jest to rozwijane, jest teraz arena.
Mają się pojawić w jakimś tam niedalekim czasie w najemnicy,
ale nie znam zbytnio więcej szczegółów.
Ale tak, da się dalej.
W zasadzie nie jest niesamowicie, ale nie jest też gorzej.
Także, no cóż.
Ja jeszcze w międzyczasie sobie sprawdziłem, czy poprzednie części Forzy
były spolszczane i wygląda na to, że na szczęście tak.
Poprzednia część Forza Horizon 5 była dostępna w języku polskim.
Ja nie wiem, czy jej funkcje dostępności były też spolszczone,
ale tutaj mówię, przez to, że synteza w Microsoftu jest dostępna
w wielu językach, to była dostępna, więc myślę, że tutaj jak ta
następna część się pokaże, to też nie powinno być problemu.
Jak gra się ukaże, to oczywiście postaram się do tej informacji
wtedy dotrzeć, a może nawet uda mi się coś szybciej ustalić.
No i mamy jeszcze jeden komentarz.
Tym razem Roberto do nas napisał.
Cześć! Ostatnio przestało działać dyktowanie klawiatury Google Gboard
z czytnikiem ekranu G-show.
I żeby móc dyktować w tej chwili, trzeba mieć głośność G-show
ustawioną na multimedia.
Opiszę, jak to zrobić i proszę o sprostowanie dla słuchaczy,
bo nie używam telefonu po polsku.
Menu G-show, czyli gest dół prawo, potem ustawienia programu,
ustawienia mowy, główny silnik syntezy mowy i tu pole wyboru
używaj głośności dostępności musi być nieoznaczone.
Niestety wtedy synteza będzie na takiej samej głośności,
co odtwarzana muzyka i cokolwiek innego oprócz dzwonków.
Błąd jest prawdopodobnie gdzieś pomiędzy G-show i Gboard,
bo z TokBekiem wszystko działa.
Napisałem we wtorek do dewelopera G-show i na razie bez odpowiedzi.
Ja też tu nie używam G-showa, więc pytanie do tych, co używają,
czy te opcje tak się faktycznie nazywają?
Drobna korekta, główny silnik TTS.
Chyba to tak przetłumaczyłam.
Ok.
Jeszcze szybko sprawdzę, żeby nie okłamać.
Ustawienia programu, ustawienia mowy,
główny silnik przetwarzania tekstu na mowę.
Tak, główny silnik przetwarzania tekstu na mowę.
I używaj głośności dostępności. Tak, też się zgadzam.
To teraz narzędzie do analizy naszej sieci kontaktów na Mastodonie.
Nazwa ma taką, że w sumie nie wiem, jak to się wymawia.
To Parry, ale ja już o tym mówiłem przy okazji Mastodona,
na początku audycji, więc można spokojnie myślę przeskoczyć dalej,
bo to jest ta aplikacja właśnie, o której mówiłem na początku
do analizowania, kto nas śledzi, kogo my śledzimy i tak dalej.
To przy okazji Mony pozwoliłem sobie troszeczkę porwać wątek.
To nie wiem, bo Michał tam miał dalej coś o druku?
Tak, bo Fundacja Prowadnica oddziałał stosunkowo niedawno
i swoje działalność dość dynamicznie tutaj rozwijają.
I to w ciekawych obszarach trzeba przeskoczyć.
W ciekawych obszarach, bo znowu wracamy do druku 3D.
O druku 3D już dzisiaj było i teraz znowu będzie.
Tym razem jak drukować brajla?
Jest taka spora praca w sumie.
Znaczy spora, chyba dość dokładna praca właśnie,
taki artykuł w zasadzie naukowy.
Jak dokładnie drukować na drugarce 3D punkty brajlowskie?
Bo wydawać by się mogło, że to jest w sumie nic takiego skomplikowanego,
ale rzeczywiście warto się zapoznać z tym tekstem,
który opublikował właśnie Dawid Pieper.
Ja może przeczytam informację, którą zamieścił na forum Eltena
w związku z tą publikacją.
Jak zapowiadaliśmy na konferencji w ramach Fundacji Prowadnica
zdecydowaliśmy się na otwarcie całej naszej wiedzy
o drukowaniu 3D brajla.
Przyznam uczciwie, nie był to łatwy krok,
bo mówimy o 18 miesiącach pracy podanej na tacy,
ale wierzymy, że jest to podejście słuszne.
A ja bym dodał, że w przypadku fundacji,
w przypadku tego typu instytucji,
to moim skromnym zdaniem,
to jest moje zdanie i się absolutnie nikt nie musi z tym zgadzać,
ale to jest jedyne słuszne podejście.
Bo tak naprawdę fundacje zwykle żyją z pieniędzy,
gdzieś tam różnych projektów
i nie ma nic bardziej irytującego,
niż jak to, że realizowany jest jakiś projekt,
są środki publiczne,
natomiast np. wiedza wypracowana w ramach danego projektu
gdzieś tam później jest schowana do szuflady,
no bo takie, a nie inne decyzje zapadły,
to moim zdaniem to jest bardzo dobra praktyka
i powinno być to zwyczajnie i krótko mówiąc powszechne.
Dzięki temu każdy, kto ma drukarkę 3D,
czyli ośrodek dla niewidomych, szkoła masowa, szpital czy muzeum,
będzie mogło wydrukować sobie tabliczki na drzwi.
Pierwszy i najważniejszy element to opracowanie tłumaczące dokładnie,
jak drukować brajla w 3D.
Praca będzie jeszcze na pewno nieco redagowana,
ale jej pierwsza forma jest już opublikowana.
Zawarte tam są zarówno modele matematyczne,
jak i konkretne instrukcje i ilustracje,
jak poprawnie wydrukować tabliczkę.
Tak, ja czytałem tę pracę i to jest rzeczywiście bardzo fajnie przygotowany artykuł,
w którym rzeczywiście Fundacja Prowadnica,
przypuszczam, że przede wszystkim Dawid,
ale pewnie i też inne osoby działające w Prowadnicy,
działały przy tych testach i przy różnego rodzaju eksperymentach związanych z drukiem 3D.
Tam bardzo to fajnie wszystko opisane jest,
jakich technik użyto, czego użyto, jakich środków,
bo tam na przykład wręcz jakichś takich dość niebezpiecznych działań nawet momentami
niebezpieczne działania podejmowano z różnymi środkami chemicznymi,
dzięki czemu na przykład wygładzano te punkty brajlowskie.
Także jest to wszystko opisane i myślę, że jest to tak czy inaczej bardzo ciekawa lektura.
Rzeczywiście warto się z nią zapoznać,
a jeżeli chodzi o link to będzie oczywiście w komentarzu pod audycją.
Natomiast on jest taki dość prosty,
więc myślę, że mogę już go podać.
3dpoint.tech, przez ch, ukośnik fdmbbrajl,
fdmbrajl, czy brajle, tak na dobrą sprawę, przez dwa l.
Więc jeżeli macie ochotę sobie poczytać,
jak to wszystko wyglądało,
jak wyglądały działania związane z odkrywaniem tego najlepszego
sposobu na drukowanie brajlowskich punktów,
no to jest to dosyć ciekawa lektura na kilkadziesiąt minut.
Newsów jeszcze sporo przed nami.
No i teraz aktualizacja.
Kilka aktualizacji.
Victor Reader Stream 3 i Smart Vision 3 od Pawła.
News od Pawła.
Ja tych aktualizacji nie wypuściłem.
Byłby to dla mnie zaszczyt,
ale to za wysokie progi na moje nogi.
Natomiast mogę wam chętnie przytoczyć i przeczytać,
co się pozmieniało.
Victor Reader Stream 3, czyli odtwarzacz książek mówionych,
o którym już tu mówiliśmy kilkukrotnie w tym roku,
jakoś bardzo nam obrodził rynek w tego typu rozwiązania,
jeszcze Sense Player, też niedawno nowy Milestone był prezentowany.
Jest o czym mówić.
No i wiadomo, te urządzenia się rozwijają,
dostają aktualizację oprogramowania, błędy są naprawiane,
nowe funkcje są dodawane.
No i myślę, że można tutaj mówić o powrocie starych,
dobrych funkcji, bo pewne funkcje, które Stream 2 już miał,
dopiero teraz w Streamie 3 są wprowadzone.
A cóż to za nowe funkcje w Streamie 3 się pojawiły?
Daisy Online, czyli protokół, który jest używany w wielu krajach na świecie,
żeby dostać się do bibliotek z treścią dla osób z dysfunkcją wzroku.
Teraz pytanie do ekspertów tutaj.
Czy DZDN wspiera Daisy Online?
Uciekło mi teraz, nie pamiętam, szczerze mówiąc.
Bo sam nie jestem subskrybentem i członkiem biblioteki,
więc teraz nie mam tego pod ręką.
Ale jeżeli tak jest, jeżeli Daisy Online jest wspierane,
a z tego, co kojarzę, chyba właśnie jest,
to teraz z Wiktorem ReaderStreamem będzie można się wpiąć.
Ponadto na razie dodana jest opcja wypożyczania i zwracania książek,
a z czasem ma się pojawić wyszukiwanie i menu dynamiczne w wersji 1.2.
Zakładki, tak, Audio Highlight Bookmarks,
czyli funkcja robienia zakładek w plikach.
I jest ta opcja z powrotem.
Zdaje się, że to są też zakładki właśnie audio,
że możemy nagrać jakiś tam krótki taki klip, który będzie tą zakładką.
I to również wróciło.
Tutaj firma przypomina, że do prawidłowego działania tej funkcji
wymagane jest posiadanie karty pamięci w urządzeniu.
Nagrywanie radia internetowego to też funkcja z dwójki streama,
która pojawiła się w trójce.
Nawigacja po rozdziałach w podcastach.
Nareszcie zaimplementował to któryś odtwarzacz dla niewidomych,
bo wiele tych odtwarzaczy jest.
Jest też Blind Shell Classic, takie urządzenia specjalistyczne.
I ktoś by pomyślał, że taka podstawowa funkcja.
Przecież my korzystamy z bardzo długich form audio.
Słuchamy różnych podcastów.
Te podcasty miewają często rozdziały.
Znamy już ten system i mamy gdzieś do niego dostęp.
Czy na smartfonach, czy na komputerach.
My mamy zaimplementowane to na naszej stronie www.tyflopodcast.net
A tu urządzenie za niemałe pieniądze
oferuje przeróżne funkcje, ale takiej nie.
No i nareszcie tutaj HumanWare wysłuchał próśb użytkowników
i dodał rozdziały do podcastów.
Nasze tyfloprzeglądy użytkownikom tego urządzenia
będzie się łatwiej gdzieś tam przeglądało.
Też zmiana drugiego głosu,
bo w Victor Reader Streamach
można zainstalować sobie dwa głosy.
Głos do menu systemowego i głos do tekstów.
No i ten głos drugi można sobie też czytać.
Po prostu można mieć dwa głosy,
żeby zmieniać między nimi dla różnych języków itd.
No i tutaj teraz dodano opcję zmiany tego bezpośrednio na urządzeniu.
Tu jest też wyjaśnione, jak to było wcześniej robione,
że można było sobie zainstalować tylko i wyłącznie pakiety,
bo to są głosy, zdaje się, acapella
i one były oferowane na stronie HumanWare
w formie takich gotowych już paczek.
I były też takie paczki kombinowane,
że tam angielski plus hiszpański.
No i ciężko, żeby zaoferować w ten sposób
wszystkie możliwe kombinacje języków,
więc teraz będzie można też, jeżeli to dobrze rozumiem,
te języki dociągać bezpośrednio na urządzeniu.
I w wersji 1.2 będzie…
Aha, i na razie można to przełączanie
dla tego właśnie drugiego głosu, czyli tego dla tekstów,
a w 1.2 dojdzie też przełączanie w ten sposób głosów tych głównych,
czyli głosów menu, systemowych komunikatów itd.
Dodano także powiadomienie o końcu książki.
Może to być albo delikatne, dyskretne piknięcie,
albo komunikat głosowy.
No i lokalizacja, czyli pakiety.
Nie wiem, czy chodzi tylko o głosy, czy też o tłumaczenie interfejsu.
Dla języków takich są teraz oferowane
angielski, francuski, hiszpański, duński, niderlandzki,
włoski, norweski, polski i szwedzki.
I w przyszłości będzie dostępnych więcej tych wersji językowych.
Są też poprawki błędów.
Poprawiono tutaj rozłączanie się z sieci,
które mają dość długie nazwy.
Też bardziej dokładne powinny być wskazania siły,
takiego sygnału siła, jak silny mamy zasięg.
Tutaj poprawione są błędy w bibliotece BART amerykańskiej,
kongresowej, narodowej.
Też naprawiono wykrzaczanie się urządzenia przy próbie importu.
Playlisty z treścią internetową,
czyli prawdopodobnie streamów radiowych.
Tutaj z Booksharem naprawiono jakiś problem.
Aha, że od teraz urządzenie powinno zapamiętywać pozycję,
gdzie skończyliśmy czytać nasze książki przed jego zamknięciem.
Widocznie do tej pory po restarcie urządzenia ta pozycja się gubiła.
I teraz podcasty będą sortowane według daty publikacji.
Konsolidacja notatek też lepiej działa, trochę jak na streamie dwójce.
Jeżeli mamy więcej niż 200 wyników wyszukiwania,
jeżeli szukamy podcastów, to będzie przycisk następna strona.
Tak, że będzie zapamiętana półka z książkami,
na której byliśmy.
Jeżeli włączyliśmy urządzenie na nowo lub weszliśmy do ustawień,
to przedtem nie było to pamiętane.
Byliśmy wyrzucani do pierwszej czy do jakiejś innej.
A teraz powinna być zapamiętana ta, na której byliśmy ostatnio.
No i mamy też kilka mniejszych poprawek,
o których już przedstawiciel Humanware nie pisze.
Również Smart Vision 3 doczeka się aktualizacji z wieloma poprawkami.
Taka funkcja, na którą użytkownicy z francuskiego podcasta Oxitude
zwrócili uwagę.
To, że od teraz można na WhatsAppie nagrywać już wiadomości głosowe
bez użycia ekranu dotykowego, tylko bezpośrednio z klawiatury.
Domyślam się, że to nie jest tylko i wyłącznie poprawka pod kątem WhatsAppa,
tylko po prostu dodano możliwość wykonania gestu stuknięcia dwukrotnego
z przytrzymaniem.
Dlatego też rykoszetem WhatsApp pozwala nam na nagrywanie wiadomości głosowych.
Jeśli mogę się dołączyć, bo jak zacząłeś, Paweł, wspominać o lokalizacji,
ja przypuszczam, że to chodziło raczej o spolszczenie interfejsu,
jak jeszcze pojawił się polski.
I to mnie skusiło, żeby wejść na stronę Harpo i zobaczyć,
czy ten najnowszy wiktor i ten może się w Polsce w sprzedaży pojawił.
Pojawił się język polski, mówiono o tym, że ma się w Europie pokazać.
No i na stronie sklepu Harpo, jak najbardziej,
Wiktor Leader 3 już w sprzedaży jest oferowany.
I kosztuje on 2000 zł, około 1999 zł,
co jest bardzo konkurencyjną ceną, bo z tego co pamiętam,
on w Stanach kosztuje około 550 dolarów.
Więc ta cena nawet wychodzi troszeczkę taniej w tym momencie,
niż na rynku amerykańskim.
Nie pisze tutaj nigdzie, czy to jest jakaś czasowa promocja.
Właśnie, czy to jest cena przedsprzedażowa, czy to jest cena…
No nie pisze nigdzie, że to jest jakaś promocja, więc…
Bo to jest fajna konkurencja też i dla Oriona, który…
Orion kosztuje 1500, dobrze pamiętam?
Chyba tak.
Jeszcze się rozerze, czy tutaj są jakieś aktualności.
Ale jeśli kogoś by to urządzenie interesowało,
no to można śmiało zamawiać, jak widać już.
I no, to może być urządzenie takie dość też stabilne z tego, co czytam.
Które może nie oferuje tyle, ile obiecuje Sense Player,
na przykład, ale ma dużo mniej, na przykład, błędów.
To oprogramowanie jest dużo bardziej dopieszczone.
No i ma rozdziały wreszcie i można nas słuchać na nim wygodnie.
To teraz syntezator do NVDA nowy i neuronowy.
Dokładnie, no właściwie informacje dostałem z Mastodona.
Chodzi tutaj konkretnie o syntezator Piper.
Który powstał głównie dlatego, że chciano stworzyć syntezator taki właśnie neuronowy.
Który byłby w stanie szybko reagować na urządzenia,
jak u takich naprawdę bardzo słabych procesorach, jak Raspberry Pi.
Więc tutaj pewnie chodziło o jakieś asystenty głosowe i takiego typu rzeczy.
No ale co za tym idzie.
Dzięki temu też ten syntezator jest w miarę responsywny
do takich celi innych, jak na przykład właśnie screenreadery
i praca na takich zwykłych procesorach.
Tutaj do tego nie potrzebujemy jakiejś karty graficznej.
No i ta mowa jest generowana po kilku sekundach, a nawet mniej.
Dodatek możemy sobie ściągnąć z GitHuba.
Jest link.
Nie musimy oprócz tego dodatku nic innego instalować.
Wystarczy go sobie ściągnąć.
Po instalacji, jeśli mamy pobranych żadnych głosów,
to dodatek nam zaoferuje przejście na stronę, gdzie te głosy możemy pobrać.
Możemy też wejść w ustawienia MVDA
i tam na liście kategorii ten dodatek dodaje swoją kategorię Piper
i z tego poziomu możemy zainstalować pobrane paczki głosów
lub przejść na tą stronę.
Jest też dostępny Jaren Głos Polski,
aczkolwiek w aktualnej wersji dodatku jest błąd,
który powoduje, że niektóre pliki instalacyjne
właśnie z tym głosem polskim się same nie zainstalują,
chyba że nie zmienimy im nieco nazwy niestety,
ale autor wiecał, że to zostanie poprawione.
A czy warto te głosy instalować, to jest inna sprawa.
Ja myślę, że to w dużej części zależy od tego,
do czego chcemy te głosy używać i jakie języki nas interesują.
Bo na przykład ten głos polski,
który już sobie wcześniej zainstalowałem, ma problemy.
Jak wiecie, głosy neuronowe często mają tendencję do tego,
żeby czasami bardzo szybko zacząć wydawać ciebie niepokojące dźwięki
i tę mowę jakoś z niej kształcać.
Ten głos polski dosyć ekstremalnie te objawy pokazuje.
Ja może po prostu szybko zademonstruję, jak to wygląda
z tym głosem polskim, ale też kilka głosów angielskich,
które działają znacznie lepiej.
Zacznijmy od głosu polskiego, który myślę, że już słychać.
Ja sobie odpowiedziałem…
Przeszłem nad porządek linii, to była jakaś litera.
Nie powiem wam jaka, bo szczerze nie zrozumiałem,
co ten głos powiedział.
Przeczytamy sobie tutaj kawałek tekstu.
Jak zapowiadaliśmy na konferencji,
w ramach Fundacji Prowadnica zdecydowaliśmy się na otwarcie
całej naszej wiedzy odrukowaną.
Przyznam uczciwie, nie był to łatwy krok,
bo mówimy o 18 miesiącach pracy podanej na pacy.
Ale wierzymy, że jest to podejście słuszne.
Więc ten głos czasami jakieś rzeczy gubi,
a jeśli już po prostu próbujemy sobie nawigować po tym tekście…
Nie dał mi wydrukować pismo punktowe na edukację,
czy też Fundacja Prowadnica to wie i to…
…przeczytałem po prostu tutaj na kółek, no to on tak to…
On po prostu momentami zaczyna bełkotać,
no tego się inaczej nie da określić.
Tak, a ja to bardziej ekstremalnie mogę pokazać po prostu poprzez,
nie wiem, chodzę sobie teraz kontrolę Nvidia i szczałki.

Słyszę, że to nie jest jakieś bardzo responsywne,
ale też po prostu inna kwestia jest taka, że…
Mi to się kojarzy z tą tak zwaną pseudomową,
jak to w latach siedemdziesiątych, osiemdziesiątych
zagłuszano stacje radiowe, Głos Ameryki, BBC,
Wolną Europę, to czegoś takiego używano.
No proszę bardzo, jakby ktoś chciał sobie takie coś zasymulować
na swoim komputerze.
Tutaj nawet sobie poraził, szczerze mówiąc jestem zaskoczony,
myślałem, że się na tym wykrzaczy, ale jakoś się nie wykrzaczył,
ale tutaj sobie zmienimy głosy.
O właśnie, tak to czasami brzmi.
Ale zmienimy sobie głosy.
Tak, te angielskie są lepsze, właśnie to chciałem pokazać,
więc sobie przejdziemy na jeden z angielskich głosów.
To jest głos, który jest niższej jakości, jakoś low,
ale tutaj mamy ten artykuł o dostępności w Forcie
i tutaj sobie też kawałek tego przeczytamy.
No więc tutaj już jest całkiem fajnie, a jeszcze sobie
przedstawimy głos jeszcze wyższej jakości.
To jest akurat też angielski, ale wejdźmy sobie na przykład
ten głos, on też jest całkiem fajny, to jest jakość średnia chyba.
Tutaj słychać to dostępność nie jest jakoś bardzo wysoka,
myślę, że ten głos jest bardziej do czytania dłuższych fragmentów
niż po prostu do pracy z komputerem.
I może jeszcze jeden głos, jeszcze wyższej jakości,
teoretycznie jakości high.
No a ten głos już była…
No tutaj słychać jak on generuje te próbki,
więc to mniej więcej brzmi tak.
Ja już sobie to wyłączę.
Co jeszcze obiecuje autor?
Obiecuje, że ten dodatek za jakiś czas powinien działać szybciej,
bo planuje przepisanie rdzenia tego syntezatora w języku RAS,
który powinien być szybszy.
No a na razie jeśli ktoś jest zainteresowany,
można sobie za darmo ściągnąć, głosy też są darmowe,
więc można przetestować sobie.
I pora na kolejny news.
Tylko gdzieś mi zginął…
Jest, OK.
Nowości Polskiego Związku Niewidomych.
Tutaj Paweł zaprezentuje kilka.
Tak, mamy trzy nowości na ten tydzień.
Pierwszym jest zaproszenie na prelekcję z cyklu Polscy Nobliści.
To się odbywa w Tyflogalerii.
9 maja o godzinie 17 w Tyflogalerii PZN
odbędzie się prelekcja z cyklu Polscy Nobliści
pod tytułem Droga Władysława Stanisława Reymonta
do Nagrody Nobla w dziedzinie Literatury w 1924 roku.
Serdecznie zapraszamy wszystkich zainteresowanych.
Władysław Stanisław Reymont to wybitny polski pisarz,
prozaik i nowelista.
Laureat Nagrody Nobla w dziedzinie Literatury
Autor m.in. Ziemi Obiecanej, Buntu oraz Komediantki.
Prelekcję wygłosi Wiesława Dłubak-Bełdycka,
emerytowana nauczycielka,
przewodnik oprowadzający po Cytadeli, Muzeum Niepodległości,
przewodnik wycieczek historycznych.
Od razu współpracuje z Tyflogalerią PZN.
Zapraszamy również na pozostałe wydarzenia
zaplanowane w maju w Tyflogalerii PZN.
23 maja o 17.00 koncert zespołu muzyki dawnej Furibondo
i 30 maja Zielone Echa Wieczór Autorski Izy Galickiej.
No więc tak, jeżeli w Warszawie jesteście,
to takie atrakcje was czekają.
Jeżeli natomiast mieszkacie w Bielsku Białej,
to na pewno ucieszycie się z tego,
że wasze starostwo powiatowe stało się bardziej dostępne.
I tu, co ma do powiedzenia Polski Związek Niewidomych na ten temat.
Wizyta w urzędzie, ośrodku zdrowia bądź placówce kulturowej
nie dla każdego wygląda tak samo.
Rozmowa z urzędnikiem czy obejrzenie filmu w kinie
to dla osób z niepełnosprawnościami wyzwania życia codziennego.
Na szczęście coraz więcej miejsc użytku publicznego w Polsce
jest dostosowanych do osób z różnymi potrzebami.
Instytucją, która wprowadziła wiele udogodnień
dla osób z dysfunkcją narządów wzroku, ale nie tylko,
jest Starostwo Powiatowe w Bielsku Białej,
które od lat pracuje nad zapewnieniem jak najlepszej dostępności.
W budynku przy ulicy Piastowskiej 44
osoby niewidome i słabo widzące mają do dyspozycji
na każdym poziomie kolorowe tyflomapy,
a na parterze mapę sensoryczną.
Znajduje się na nich rozkład pomieszczeń
ze spisem wydziałów i numerami pokoi.
Informację przedstawiono w dwóch formach.
W alfabecie brajla oraz głosowej,
który można odsłuchać przez słuchawkę.
Ponadto tablice są wyposażone w pętlę indukcyjną,
która wspiera przede wszystkim osoby
używające aparatu słuchowego.
Już wcześniej bielskie starostwo wyposażono
w cztery pętle instrukcyjne.
Dwie stacjonarne i dwie przenośne.
Na głównych ciągach komunikacyjnych starostwa
znajdują się pasy informacyjne oraz ścieżki prowadzące.
Pierwsze podpowiadają, że właśnie zaczynają się
lub kończą schody.
Zaś drugie pomagają w poruszaniu się
osobie z dysfunkcją narządu wzroku,
która używa białej laski.
Cennym udogodnieniem są również oznaczenia
kluczowych pomieszczeń tabliczką
z wypukłym numerem biura
i oznaczeniem w alfabecie brajla,
która znajduje się nad klamką.
Winda również posiada takie oznaczenia
oraz jest udźwiękowiona.
Natomiast osoby korzystające z aplikacji Toto Point
zostaną przez nią doprowadzone
do każdej tyflomapy.
Inwestycja została zrealizowana dzięki
udziałowi powiatu w projekcie
Państwowego Funduszu Rehabilitacji
Osób Niepełnosprawnych pod nazwą
Dostępny Samorząd Granty
oraz ze środków własnych powiatu.
No i to jest
dobra wiadomość dla
mieszkańców Bielska Białej,
a z tych okolic
właśnie województwa gdzieś
śląskiego powiedzmy się nie ruszamy,
bo
w Sosnowcu też
czeka nas uczta
dla duszy,
bo spektakl Kto Puka?
Pokaz spektaklu
z audiodeskrypcją i zdaje się
też z napisami czy
z językiem migowym, zaraz już o tym
przeczytam.
Tak.
20 maja
o godzinie 18.00
w ramach projektu Scena Dostępna
odbędzie się pokaz spektaklu z audiodeskrypcją,
napisami i tłumaczeniem
na język migowy.
Organizatorami wydarzenia
są Teatr Zagłębia
z Sosnowca, typowe mieszkanie
w typowym bloku, w typowym mieście,
w typowym kraju, typowi
bohaterowie i ich typowo łóżkowe
tajemnice, typowo ukrywane.
Tylko po co?
Musimy ciągle udawać
rozdarci między chceniem a zakaniem,
pożądaniem a karą piekielną,
tym co w głowie i tym co poniżej,
ale zaraz, czy naprawdę
musimy? Pyta Dick Soltys,
autor farsy
Kto puka?
No bo czego się tu wstydzić? Po co kryć się w szafie?
Bo pewne rzeczy można robić tylko
w domu pokryjomu? Bo co ludzie
powiedzą? Bo co robisz w sypialni
to twoja sprawa, więc się nie afiszuj.
Kto puka?
Wyciąga na jaw to,
co bohaterowie farsy
za wszelką cenę, choć może i nieudolnie
próbują ukryć.
To splot przezabawnych
wydarzeń w sytuacjach, które może jednak
aż tak zabawne nie są,
choć na pewno bawią.
Farsa Kto puka? została wystawiona
po raz pierwszy w chilejskim Santiago
pod koniec lat osiemdziesiątych pod hiszpańskim
tytułem
Qui en empotra.
Mam nadzieję, że tu
dobrze przeczytałem, zwłaszcza, że to
prawdopodobnie gra słowna
i to taka raczej
po dwudziestej drugiej, jak się domyślam.
Po latach pochodząca z Chile
i Argentyny grupa realizatorek
i realizatorów
pod wodzą reżysera Alejandro
De Nady
wraca do klasycznego już tekstu,
by przenieść go w sosnowieckie realia.
Osoby pragnące skorzystać
z powyższych udogodnień proszone są
o kontakt z Biurem Współpracy
z widzami pod numerem
telefonu 32
266 11
27. Raz jeszcze.
32
266 11
27. Lub mailowo
pod adresem
rezerwacjemałpa
teatrzaglebia
kropka.pl
rezerwacjemałpa
teatrzaglebia kropka.pl
Cena biletu to 35 zł.
Serdecznie zapraszamy.
I to wszystkie nowości Polskiego Związku
Niewidomych na ten tydzień.
To ja teraz zaglądam do komentarzy.
Tu mam jeszcze wypowiedź
od naszego słuchacza Mojsiora.
Ja testowałem Forcę 5
i niestety, aby używać
funkcji dostępności, trzeba było
ją przedstawić na język
angielski. To tak jeszcze
a propos tego, że zastanawialiśmy się
jak z dostępnością
poprzedniej wersji tej gry.
To teraz
nowości też, ale od
Towarzystwa Muzycznego
Emilia Edwina Kowalika.
Tak, i to w dodatku będą nowości
nie tylko dla tych
zainteresowanych muzyką,
a wręcz powiem, że od
nie muzycznej nowości
zaczniemy.
Bo jednym z działań, które
to Towarzystwo ostatnio podejmowało
był międzynarodowy
projekt, który nazywa się
DD Math.
Realizowany od października
2021 roku.
Projekt ten miał
na celu tworzenie i promowanie
cyfrowych technik, uczenia się
matematyki oraz przedmiotów ścisłych
przez osoby z dysfunkcją
wzroku. W ramach współpracy
z działającym we
Włoszech głównym organizatorem
udało się opracować
w wersji polskiej program
Lambda, pozwalający na komputerowe
zapisywanie i odczytywanie
wyrażeń oraz działań
matematycznych w brajlowskim
kodzie ośmiopunktowym.
W język polski przetłumaczono
nie tylko sam program, ale też lekcje
wideo ułatwiające
przejście pierwszych kroków
we współpracy z wspominanym narzędziem,
a także
stanowiących instrukcję
jego obsługi podręcznik,
który
dostosowano do polskiej wersji
oprogramowania z uwzględnieniem
ośmiopunktowej notacji
brajlowskiej zbliżonej do
sześciopunktowej notacji stosowanej
w naszym kraju.
Wszystkich zainteresowanych
Towarzystwo zaprasza
pod adres
ddmatch.eu
Warto dodać, że
udostępnione tam materiały
są wciąż aktualizowane
i będą
jeszcze aktualizowane w miarę ich
ulepszania przez niewidomych
ekspertów. Towarzystwo zachęca
do śledzenia
rozwoju programu Lambda
no i oczywiście wdrażania
również tego programu
w miarę możliwości do swojej działalności,
a także wyrażania swoich opinii
i uwag. Do dyspozycji
wszystkich są forum na stronie
projektu ddmath,
adres mailowy Towarzystwa
oraz fanpage na Facebooku.
I to jeżeli chodzi
o tę niemuzyczną
część tej informacji,
natomiast jak czytamy
na stronie Towarzystwa
muzycznego imienia Edwina Kowalika
jeszcze też coś dla
muzyków albo tych,
którzy muzykami chcą zostać się
znajdzie. I teraz cytat
ze strony. Wśród naszych
obserwatorów znajdują się zapewne osoby
niewidome, które miały lub
obecnie mają okazję poznawać
tajniki budowy
i łączenia współbrzmień
w ramach nauczanego w szkołach
muzycznych
drugiego stopnia, a także
na muzycznych uczelniach przedmiotu
pod nazwą Harmonia.
Prawdopodobnie większość z nich
zgodzi się, że jedną z istotniejszych
kwestii dla ich edukacji w tym zakresie
stał się brak materiałów
w formie dostosowanych
do potrzeb z dysfunkcją
wzroku. No i wreszcie nadarzyła
się okazja, by zaradzić
tej sytuacji. A to wszystko
dzięki współpracy naszego
Towarzystwa z wszechstronnie
wykształconym i doświadczonym
muzykiem Pawłem Miazgą.
To właśnie on podjął się
tego niezwykle wymagającego
zadania, czyli napisania
nowego podręcznika do nauki
harmonii. I tak oto
powstała publikacja pod tytułem
Harmonika funkcyjna.
To co wyróżniają na tle innych
znanych w Polsce
pozycji o podobnym przeznaczeniu
to nowatorskie podejście do
wprowadzania poszczególnych zagadnień,
a także liczba przykładów z
literatury muzycznej ilustrujących
omawiane zjawiska.
Oprócz dostępu do materiałów jest
coś jeszcze, co spędza sens powiek
niewidomym, zgłębiającym
zasadę harmonii.
Wielu z nich bowiem głowi się
jak z użyciem pisma punktowego
zanotować wszystkie skomplikowane
oznaczenia akordów zapisywane
przez nauczycieli na tablicy,
skoro reguły Brailowskiej Notacji
Muzycznej tego nie precyzują.
Od teraz nie trzeba już wymyślać
własnych roboczych systemów.
Do przedstawienia zawartych
w podręczniku treści
konieczne było opracowanie
zestawu tego rodzaju symboli.
Jego wykorzystywanie
testowały w praktyce osoby
z dysfunkcją wzroku.
Bazując na ich opiniach zapewniamy,
że przyjęte rozwiązania są intuicyjne
i łatwe do zapamiętania.
Wierzymy więc, że kolejni użytkownicy
odniosą podobne wrażenia.
Z harmoniką funkcyjną
można zapoznać się na trzy sposoby.
Tych, którzy preferują
wersję elektroniczną w formacie HTML
zapraszamy do kontaktu
przez Facebooka
lub adres mailowy
towmuzmałpaoutlook.com
outlook.com
No i…
po otrzymaniu wiadomości
zawierającej numer orzeczenia
o niepełnosprawności prześlemy
aplikator i hasło pozwalające
na dostęp do interesującego
Was materiału
zamieszczonego w zakładce
publikacje zabezpieczone.
Znajdziecie tam też instrukcje, dzięki którym
będziecie w stanie odczytywać na Waszych
monitorach brajlowskich
przykłady nutowe.
A skoro mowa już o alfabecie Brajla…
to mamy
coś specjalnie dla jego miłośników.
Egzemplarze wydrukowane
z użyciem pisma punktowego
przekazaliśmy do kilku instytucji
m.in. Dział Zbiorów
dla Niewidomych, Głównej Biblioteki
Pracy i Zabezpieczenia Społecznego.
Mamy zatem nadzieję
na liczne grono osób
chętnych do ich wypożyczania.
Rzecz jasna nie zapominamy
również o czytelnikach słabowidzących
i tu dobra wiadomość
w naszych zasobach zostały
jeszcze kilka egzemplarzy wydanych
drukiem powiększonym. Jeśli
chcecie wzbogacić Wasze półki
z książkami o wspominaną
pozycję dajcie znać
drogą mailową lub
facebookową. Co oczywiste
aby gruntownie zapoznać się
z jakąś dziedziną sama teoria
nie wystarczy. Każdy kto uczył się
harmonii wie jak istotny w jej przypadku
jest trening wykorzystywania
zdobywanej wiedzy
w praktyce. W związku
z tym nie chcemy poprzestać na
wydaniu podręcznika i planujemy
w niedalekiej przyszłości dopełnić go
obszernym zbiorem zadań.
I jeszcze
taka informacja na koniec,
którą instytucje
finansujące lubią, a w tym
przypadku polubi na pewno
Państwowy Fundusz Rehabilitacji Osób
Niepełnosprawnych,
bo to właśnie ze środków
PFRON-u powstała ta
publikacja. Została ona
dofinansowana właśnie przez
PFRON.
I
teraz kolejny news.
Taka ciekawostka w sumie,
bo okazuje się, że
słownik Asamskiego jest największym
słownikiem brailowskim na świecie.
Tak. Dostał
on i to jest potwierdzone przez
Komisję Rekordów Guinnessa, więc tu
już nie mówimy tylko o jakichś przypuszczeniach,
o tym, że oni się tak
chwalą, ale
jest już to potwierdzone, że
ten słownik ma rekord
Guinnessa. Jeśli chodzi o
wielkość, co to jest
język asamski, możecie zapytać.
Jest to język, jeden z urzędowych języków
Indii. Indie tych języków
urzędowych mają 26,
o ile się nie mylę. Tu są oczywiście
dialekty,
bo to się jeszcze tam rozbija.
Też w Bangladeszu częściowo
jest używany asamski. No w sumie ma
17 milionów użytkowników
na ten moment. I Hemkosz,
jeżeli dobrze czytam, jest to pierwszy
słownik etymologiczny
języka asamskiego. W ogóle język
asamski ma też swój alfabet
asamski, który jest unikalnym
gdzieś tam alfabetem.
No i
jest to największy dwujęzyczny
słownik brajlowski na świecie. Nie wiem, czemu
dwujęzyczny, bo jeżeli jest to słownik etymologiczny,
to to nie jest słownik, którym tłumaczy się
z języka na język. Nie jest też
tu wspomniane, na jaki język to miało
być te słowa tłumaczone.
No ale tak jest tu
napisane, że to dwujęzyczny słownik.
I jakież to
parametry taki słownik może mieć?
Ile może mieć na przykład
słów? No dziewięćdziesiąt
tysięcy sześćset
czterdzieści. Tyle słów ma
tenże słownik.
Wydrukowanych w dwudziestu
jeden tomach
i sześciu częściach
na dziesięciu tysiącach dwustu siedemdziesięciu dziewięciu
stronach.
I
waży cały ten słownik
osiemdziesiąt przecinek
osiemset tysięcznych
kilograma.
Osiemdziesiąt kilogramów ponad.
No trochę
robi wrażenie.
Robi wrażenie.
Jak najbardziej.
Szkoda, że nic z tego języka asomskiego
my nie rozumiemy, natomiast
no oni tam mogą,
użytkownicy tego języka się pochwalić
rekordem Guinnessa, co do
wielkości słownika. Ja w sumie
oprócz jakichś wycinków
w podręczniku do niemieckiego, to nie widziałem
nigdy słowników brailowskich. Wiem, że są.
Wiem, że są.
Słyszałem o na przykład polsko-francuskim.
Na pewno, ale inne
na pewno też jakieś są.
Ale ja takiego nigdy nie posiadałem w swoich
zasobach. No dobrze, że wychodzą.
To jest ważne.
A teraz
ciekaw jestem, czy
ktoś z słuchaczy używa jeszcze
narratora, czy jeszcze używa narratora
Windowsowego, bo
jeżeli tak, no to dobra informacja
właśnie dla użytkowników narratora,
bo będzie ten
skrindler czytał lepiej Excela.
Dokładnie.
Właściwie nawet będziemy w stanie
dostosować sobie, jak on ma tego Excela
czytać i wydaje mi się, że
chyba Jost na takie rzeczy pewnie pozwala,
ale NVIDIA chyba już nie.
To jest też ciekawe, jak to
zostało zrobione, no ale właśnie zacznijmy
od początku. Na razie
ta funkcja jest dostępna
tylko w
insiderskich wersjach
Windowsa 11 oraz
Office’a. Konkretnie
musimy mieć przynajmniej
Windowsa
w wersji
w wersji
23403
i
Office’a
w wersji
też insiderskiej, więc tam też trzeba się
zapisać do tego programu
w Office’ie
i tam Office’a musimy mieć w wersji
16
130. Właściwie
to jest teraz Microsoft 365.
Właściwie ta nazwa Office już nie funkcjonuje,
no ale gdzieś
dostałem ich pamięci.
Jest to też ciekawe, jak to zostało zrobione,
bo jeśli mamy już te wersje
i Windowsa i Office’a, to po pierwszym
uruchomieniu
Excela
i otworzymy sobie Excela, to on po prostu
wejdzie do sklepu Microsoft
i ściągnie sobie rozszerzenie do
Excela, które poprawia
pracę właśnie Excela z narratorem.
To są takie trochę skrypty, tylko że to nie są
skrypty, które są instalowane do
screenreadera, tylko w tym przypadku
tylko screenreader sobie instaluje
dodatek do
Excela. Jak już się to wszystko
zainstaluje, no to
to optymalizowane czytanie
zostanie automatycznie uaktywnione
i dostaniemy
kilka dodatkowych
skrótów klawiszowych.
Konkretnie
są to
włączenie, wyłączenie
do tego optymalizowanego czytania, to jest
narrator.alt.o
Przełączenie
czytania kontekstu
na początku lub na końcu, to jest
narrator.alt.c
Zamienienie
czytania nazwy i wartości
to jest narrator.alt.n, czyli
czy ma być czytana najpierw nazwa
czy wartość. Czytaj bieżący
kontekst, to jest narrator.shift.c
Przeczytaj właściwości
elementu komórki, to jest
narrator.shift.s
Przeczytaj zaznaczenie i to jest
narrator.shift.e
Co to nam da?
Zmiana czytania
kontekstu
spowoduje…
Kontekst to są po prostu
informacje, które nas informują
gdzie w tej
tabeli jesteśmy.
Jeśli mamy na przykład nagłówki,
no to tutaj
taki przykład tutaj
to są daje, że jeśli domyślnie
ten kontekst jest czytany
pierwszy
i
tutaj przykład, jeśli mamy tabelę
gdzie na kolumnie A2
jest wpisana wartość
jabłko, a jest na główę
kolumny owoce, no to
usłyszelibyśmy komunikat najpierw
jabłko
A2
wejście w tabelę
owoce. Jeśli przełączymy
kontekst na początek, no to
najpierw byśmy usłyszeli
owoce A2
jabłko. Jeśli przełączymy
nazwę
no to narrator
albo czytał
nazwę kolumny, na przykład imię A1
lub najpierw
położenie w tabeli, więc A1
imię. Taki przykład.
A co
jeszcze nam
daje? Na przykład
lepsze czytanie podczas
nawigacji po kolumnach oraz
podczas zaznaczania.
Konkretne
komunikaty, kiedy komórka jest
pusta, więc jeśli to było włączone
to nie było czytane.
Konkretne
komunikaty, kiedy
komórki zawierają jakieś inne dane,
jeśli narrator nie jest pewny co tam jest,
lub jeśli są jakieś równania, no to nas
o tym lepiej
poinformuje.
Lepsze radzenie
sobie z stalonymi komórkami
i będzie
podawał dodatkowe informacje o
innych osobach, które akurat w tym samym czasie
edytują dokumenty, więc jeśli
współpracujemy nad jakimś arkuszem
jednocześnie, no to narrator nam będzie mówił, jeśli
inna osoba akurat też
jest w tym miejscu i coś
na tym arkuszu
zmienia.
Microsoft jeszcze oszczeka, że na razie
będzie czasami
jakieś za dużo informacji podawane,
kiedy nawigujemy między komórkami i
oszczeka też, że na razie to jest
wszystko zoptymalizowane pod mowę,
ale Braille jeszcze nie
jest do końca wspierany.
No ale fajnie, że coś tam się z tym narratorem dzieje.
Jakiś czas temu, pamiętam, były
poprawki w Outlooku,
że też miało działać jakoś
szybciej i oczywiście cały czas jakieś
zmiany się pojawiają w Edge’u. Zresztą też
jakieś mniejsze poprawki w tej kompilacji
Windowsa się pojawiły, jeśli chodzi o
obsługę narratora w internecie,
ale już tutaj te funkcje
w Excelu wydaje mi się, że mogą być całkiem
przydatne, zwłaszcza dla osób, które faktycznie
dużo w tym programie może pracują
i
właśnie chciałyby sobie tak jakoś
to czytanie dostosować,
bo tak jak mówiłem, no MVD
i takie rzeczy z tego, co bym nie pozwala, jeśli na przykład
pracujemy dużo
w tabelach jakichś, gdzie mamy na główki kolumn
i chcielibyśmy sobie to jakoś dostosować,
no to fajnie, że
narrator nam może pozwoli
na więcej, bo to jest
darmowa aplikacja, nie musimy nic
na nią dodatkowo dopłacać, więc
można mieć nadzieję, że to jest początek
jakichś dalszych zmian
i ten narrator będzie stawał się
coraz bardziej konkurencyjny, no bo
przecież pojawiły się te głosy neuronowe,
po polsku jeszcze nie, ale
kto wie, może kiedyś się pojawią.
Pożyjemy, zobaczymy.
RH Voice dostępny na
iPhona, to dobra informacja.
Nie po polsku, to gorsza
informacja.
Tak, na ten moment, tak jak z Wonimir
Stanecic wspominał
w naszej audycji o RH Voice,
no, z pełna miesiąc
temu,
może troszeczkę ponad,
wersja dla
iOS-a ukazała się w pierwszej kolejności
dla języków albańskiego i
macedońskiego, no ponieważ
są to języki, które domyślnie przez
Voice Overa wspierane nie są, więc były
tu języki w pierwszej potrzeby,
dla których tutaj RH Voice
mógł uczynić największą różnicę.
To też na jakieś
specjalne zamówienie ponoć powstało, tam jakieś
całe historie się jakieś
dzieją,
natomiast firma jest jak
najbardziej otwarta na to, żeby
dalej powstawały kolejne języki.
Kiedy
to będzie się działo? No ciężko powiedzieć.
Na razie mamy tylko te dwa.
Też nie wiadomo, czy do nowych języków
będzie potrzebna aktualizacja
aplikacji samej w App Store, bo w ustawieniach
widać, że jest opcja aktualizacji
pakietów
językowych przez WiFi,
więc możliwe, że tutaj nawet nie trzeba
będzie wypuszczać nowej wersji aplikacji.
Link jest podany w komentarzu,
więc gdybyście już chcieli na zaś
sobie go,
aplikację samą zainstalować,
no to możecie to zrobić i czekać,
aż wyjdzie wersja z językiem polskim
albo innym, którego
używacie.
No i na ten moment tyle możemy o tym
mechanizmie powiedzieć.
No, coś się
powoli przebija, ale
jeszcze nie dla nas.
Swoją drogą, ciekawe, czemu
został podjęty właśnie taki krok,
żeby najpierw udostępnić
tylko jeden język, a dopiero
potem jakby cały. Ja sobie przejrzałem
stronę tego producenta, to jest tam
ciekawie zrobione. Też dostałem
tam informację, że niedługo też się powinna
wersja na Maca pojawić, no bo to jest…
No, generalnie większość tego kodu jest dzielona, więc
no, fajnie byłoby,
jeśli Macowa wersja też by się pojawiła.
Natomiast tam też oferują
głos
bodajże portugalski i on też jest
oferowany w troszeczkę innych zasadach, niż
pozostałe głosy RH Voice’a, bo trzeba
instalować ich
jakiś firmowy dodatek, który
wymaga dodatkowej rejestracji.
Piszą, że po prostu telemetry je chcą
zbierać i dlatego są takie wymagania.
To jest takie trochę dziwne,
no bo pozostałe głosy takich rzeczy nie wymagają.
Też nigdzie nie widziałem
gdzie kod źródłowy tego
został
wrzucony, a
teoretycznie, jeśli RH Voice jest na licencji otwartej,
no to powinien
gdzieś być dostępny.
No cóż.
Tam jest ogólnie jakiś taki rozłam.
Tak, bo to jest RH Voice.com,
tam cały projekt jest na
RH Voice.org.
Nie jedna firma się do tego brała, żeby
coś na tym projekcie też dla siebie
ugrać. No ale miejmy nadzieję,
że skończy się to z korzyścią
dla użytkowników.
Zobaczymy.
Blogi, które
byłbym w stanie polecić
na LTE 2, które ostatnio się
utworzyły.
Pierwszy dotyczy
nawigacji,
czyli systemów tych nawigacyjnych dla niewidomych
programów.
nawigacja.s
.lten.blog
To jest blog
prowadzony przez Kamila Midzio.
Tam są
póki co przynajmniej wpisy
dotyczące programu DotWalker
i Sync Assistant Move.
Jest kilka kategorii, to znaczy
DotWalker, Nowinki, Sync Assistant Move.
No i w DotWalkerze
mamy na przykład takie wpisy jak
w zasadzie tylko dwa wpisy.
Uwagi wstępne i
rozglądanie się w DotWalkerze.
Nowinki.
Nowości
w becie Sync Assistant Move na Androida
i nowość
w Sync Assistant Move na iOS.
Natomiast jeżeli chodzi o
Sync Assistant Move, to mamy
wpisy
sam, czyli Sync Assistant Move
na Androida. Okno
główny, zakładka
główne na
Androidzie.
I sam na Androida
instalacja i pierwsze uruchomienie.
To są takie fajne wpisy
dotyczące różnych rzeczy
dotyczących
podstaw pracy z programami nawigacyjnymi.
Takiego bloga osobiście brakowało.
To znaczy
ja na szczęście dość dobrze znam tego typu programy.
Natomiast to jest taki temat,
który jest bardzo
taki
bardzo
mało ruszony w ogóle
w środowisko osób niewidomych.
Mało kto ogarnia tę nawigację, a to jest rzecz, która
myślę jest bardzo potrzebna,
bo rzeczywiście to pozwala nam
być znacznie bardziej niezależnymi.
Więc
naprawdę bardzo się cieszę,
że coś takiego powstało i bardzo zachęcam
wszystkich do zaglądania.
Mam nadzieję, że to też trochę da autorowi motywację,
żeby tych wpisów pojawiało się na blogu
coraz więcej.
Natomiast drugi blog
to jest znacznie
bardziej taki blog rozrywkowy.
automatic.s.elten.blog
to jest blog,
w którym
na którym są głównie
różnego rodzaju
zabawy sztucznymi inteligencjami
syntezatorowami
mowy,
czat, GPT itd.
itd.
Można sobie
posłuchać
jak takie nowe syntezatory brzmią.
Być może można sobie sprawdzić
jakie w ogóle są
jakieś sztuczne
programy sztuczne inteligencji, które
mogą się przydać. Natomiast to
absolutnie blog na luzie.
Tam są treści
takie dość
dla niektórych mogą się wydawać, niektóre kontrowersyjne,
więc różnie
to bywa. Natomiast żeby
chociażby sprawdzić co potrafi
dzisiaj sztuczna inteligencja, no to myślę, że też
można to sobie sprawdzić.
O ile oczywiście kogoś to interesuje.
No i to są
takie dwa, które
ostatnio się pojawiły
i myślę, że można to
polecić.
Natomiast…
Coś dodać?
To szczerze mówiąc
miałam się nawet przyłączyć do tego
bloga, ale
trochę takie wulgaryzmy
wplesione odrobinę bezsensownie
w treści tego
co tam było generowane, trochę mnie od tego
odstręczyły. Aczkolwiek
na takim małym blogu
prowadzonym we dwójkę z
użytkownikiem Dasha Camden, żeśmy zrobili sobie
kategorie ajajaj
co prawda pisane przez J, ale
chodzi o AI.
I tam na przykład żeśmy
pod Eleven Lapsem sklonowali
Julitę Bartosiek
zarządu fundacji Prowodnica.
I co prawda to jest jedyny
fizz w tej kategorii, ale właśnie mam
zamiar robić coś takiego bardziej
no bardziej
kreatywnego.
Nie mówię, że od razu
wulgaryzmy jakoś tak skreślam, ale
chciałabym jednak
jakoś… Czasem za dużo tego może być
rzeczywiście dla ludzi.
Tym to bardziej?
Przy okazji napomykam
o audiomenach.
Tak. To też jest blog, który
warto znać.
Choć
chyba jest akurat dość znany
mam takie wrażenie.
Natomiast zawsze warto takie
inicjatywy gdzieś tam promować.
News kolejny. Doświadczenie
z targami pracy na platformie…
Właśnie jak to się czyta?
Brazen chyba. Brazen.
Tak.
Ja wspominałem już jakiś czas temu
o tym, że
mają się odbyć międzynarodowe targi
pracy dla
osób z niepełnosprawnościami
i że wezmę w nich udział.
I wziąłem w nich udział.
O samym wydarzeniu może nie będę mówił
zbyt wiele, bo
liczyłem na trochę więcej
organizacji się prezentujących
i też troszkę
mnie zniesmaczył fakt, że
dziesięć razy zmieniano datę
tego wydarzenia tak naprawdę.
I gdyby nie to, że
czasami coś gdzieś przez przypadek, bo też nie każda
z tych zmian była komunikowana jakoś jasno
mailem. No
bardzo dziwne rzeczy się tam działy z tym
wydarzeniem. Ostatecznie
ono się odbyło w takim terminie, jaki
został gdzieś tam też podany mailem
na platformie Brazen.
Ja się bałem bardzo, czy ten Brazen
w ogóle będzie dostępny, czy
jak to będzie wyglądało.
Jeżeli mamy takie targi pracy,
no to wiemy, jak to wygląda
w świecie rzeczywistym. Mamy
stoiska firm,
między którymi trzeba się przemieszczać.
Przy każdym stoisku możemy pokazać swoje CV.
Możemy zapytać, jak się pracuje
w takiej firmie, jakieś ulotki wziąć,
jakieś materiały informacyjne, zadać jakieś pytanie.
Też są pewnie
jakieś takie ogólne
prelekcje, prezentacje
do wysłuchania,
które już się
odbywają poza stoiskami.
Jak przekształcić coś takiego w formę
wirtualną? Okazuje się, że jak się chce,
to się da. Brazen
jest platformą, której do dostępności
a jakże pomyślano.
Po zalogowaniu się na wydarzenie
my tam się logujemy naszym mailem,
otrzymujemy dostęp do
całego terenu wystawy,
tego wirtualnego oczywiście terenu.
Mamy tam listę.
Jest to tak jakby
aplikacja trochę ariowa,
robiona widać, że specjalnie
pod dostępność,
bo mamy tam dostęp
do całej listy
tych stanowisk takich.
Stoisk,
czyli jakby te budki
stoiska, po prostu stoiska.
No i
są różne typy tych stoisk.
Są stoiska typowo informacyjne,
gdzie po prostu
nikt, nie ma żadnego człowieka żywego,
który by odpowiadał na nasze pytania.
Tylko są po prostu
do pobrania jakiejś tam ulotki,
czy pakiety informacyjne w PDF,
czy w innym pliku.

tak zwane
tekstów chyba,
czyli po prostu stoiska tekstowe czatu tekstowego.
No i tam
po prostu
wpisujemy się w kolejkę
i czekamy,
kiedy nadejdzie nasza kolej.
I to jest trochę frustrujące
i irytujące, bo
czekać to my sobie możemy.
Co prawda jest tam napisane,
którzy jesteśmy w kolejce, z ilu osób,
które w ogóle w kolejce są,
ile trwa przeciętnie rozmowa
przy danym stoisku
i
no możemy się troszkę
naczekać, bo każdy
petent, każdy interesariusz
chciałby się dogadać
i uzyskać odpowiedzi na swoje pytania.
No a taki czat tekstowy
to zawsze wolniej troszkę trwa niż
głosowe wideo.
No i bywa różnie. Ja akurat
uczestniczyłem w takich tekstowych
czatach, w takich stoiskach
i tam
na rozmowę mieliśmy po 10 minut.
To dużo i mało,
bo
najpierw trzeba się, no oczywiście
mając czytnik ekranu, zorientować, jak
z tego systemu korzystać. A nie jest to takie
jasne i oczywiste, bo
jakby osobną aplikacją,
w którą wchodzimy,
jest pole edycyjne, w którym piszemy
naszą odpowiedź,
a osobno musimy nawet chyba,
tym skrótem w NVDA, on jest
NVDA Control Spacja,
wyjść z tej aplikacji pisania wiadomości,
żeby przejść do całej, jakby do aplikacji
poziomu wyżej, gdzie czytamy odpowiedzi.
One są oczywiście też czytane automatycznie,
tak samo jak i wszystkie alerty,
że czas nam się kończy, że czas został nam
przedłużony, bo taka sytuacja też może mieć
miejsce i tak dalej.
Natomiast, no jak przegapimy
ten komunikat, jak cokolwiek się zdarzy, jak dostajemy
drugą wiadomość w czasie, jak pisaliśmy pierwszą,
no to może musimy,
możemy chcieć
te wcześniejsze wiadomości przejrzeć, w których trzeba
wyjść z tej aplikacji
i się przejść i to, to wszystko
dodaje gdzieś tego czynniku
stresu, więc ja zawsze na
dzień dobry przepraszałem, ale
uprzedzałem, że jestem z czytnikiem ekranu, że dopiero
co rozpracowuje ten
system i tak naprawdę
nie wiem do końca jeszcze, jak się go obsługuje,
ale na szczęście porozmawiać
się udało. Fakt, niestety te dziesięć
minut to nie jest dużo,
zwłaszcza jak nie zna się instytucji, z którą się pisze.
Zdarzyło mi się
niestety tak, że ucięto nam
w połowie zdania i moja
wiadomość już nie czekała się odpowiedzi na
czacie. Na szczęście
istnieje taka opcja jak follow-up,
czyli nasz
rekruter, czy powiedzmy osoba, która
prezentuje firmę na takich targach, czy tam organizacje,
może
do nas napisać maila
i my możemy przez ten kontakt mailowy
dalej sobie pewne kwestie jakieś
wyjaśnić.
Są też stanowiska
audio i wideorozmów
jeden na jeden. Ja
w takich niestety nie miałem okazji uczestniczyć,
bo żadna z organizacji takich
nie zaoferowała. Teraz nie pamiętam,
chyba są też te rozmowy
grupowe audio-wideo, ale teraz
nie jestem tego pewien. Natomiast są też
stanowiska, które są
livestreamami i to jest taki jednostronny
livestream, do którego my się
podłączamy, trochę jak do
transmisji na żywo na YouTube
i wysłuchujemy
i oglądamy, co nam mają
organizatorzy do powiedzenia
lub do pokazania.
No i tutaj
już po prostu zapoznajemy się
z takim streamem.
Tam są też różne
informacje, można sobie przejrzeć
informacje o uczestnikach tego,
znaczy o osobach reprezentujących,
kim oni są, jakie stanowiska reprezentują.
Można sobie też, jak zwykle,
pobrać jakieś tam materiały,
zapoznać się troszeczkę, firma może się tam
jakoś opisać
na takim stanowisku.
No i tak
to w dużym skrócie wygląda.
Od razu uprzedzam,
nie mam pojęcia, ile kosztuje dla organizatorów
takich targów
ta platforma, bo może
słuchają nas jakieś organizacje,
które chciałyby takie targi zorganizować.
Ja zachęcam, ja polecam
chociaż takie
rozwiązanie, no ja widziałem to w wersji po angielsku.
Nie mam pojęcia, czy oni oferują to po polsku,
ale jest też być może opcja
jakiegoś spersonalizowania, oczywiście
pewnie za dodatkową opłatą
takiego rozwiązania pod nas.
Natomiast nie mam
pojęcia, ile kosztuje. Jest opcja
poproszenia, jakby
zamówienia sobie
takiego kosztorysu,
ile coś takiego mogłoby kosztować, natomiast no to
już trzeba się kontaktować z firmą.
W komentarzu będzie adres, to jest po prostu
brazen.com
i
tam można już
rozejrzeć się, jakież to rozwiązania firma
oferuje i czy któreś z nich odpowiada
naszym potrzebom.
Ale muszę powiedzieć, że bardzo
miłe było to, że w ogóle istnieje platforma,
gdzie tego typu skomplikowane
wydarzenia dało się
zrobić w sposób dostępny.
I że ktoś intencjonalnie
o tej dostępności pomyślał.
Tak, to prawda. Jak teraz myślę o tym, że
zbliża się Site City w tym tygodniu
już, to znaczy w tym, który będzie
i będę znowu pewnie
skakał od jednego Zooma do drugiego,
żeby się tu nie spóźnić, a tam
niczego nie przegapić, no to
taki brazen to by się przydał
takiego Site City.
Zapewne.
A teraz kilka
newsów, taki pakiecik newsów
od Piotrka.
Tak, tutaj mam takie kilka
krótkich informacji o aktualizacjach,
ale też nie tylko takich nowościach,
które może za jakiś czas się pojawią,
które myślę, że
Was mogą zaciekawić.
Najpierw o rzeczach, które
przyspieszają, a trochę tych rzeczy
jest konkretnie, tutaj mówimy o
NVIDIA najpierw, bo
na razie w wersjach alfa, więc to pewnie
w następnej stabilnej wersji
te rzeczy się pojawią. Kilka
takich istotnych rzeczy zostało wprowadzone,
w większości dzięki
Jamie’emu, który właściwie teraz
pracuje dla Mozilla, ale też
czasami do NVIDIA
jakieś poprawki wrzuca.
No i wrzucił takie dwie
dosyć, wydaje mi się, istotne, właściwie trzy nawet.
Po pierwsze, poprawił
dosyć irytującą kwestię w NVIDIA,
gdzie aplikacja
bardzo lubiła się
zawiesić, jeśli jakaś aplikacja przestała
odpowiadać. No i często po prostu,
dopóki my tej aplikacji nie
umieliśmy, co czasem nie było
bardzo łatwe, no to
nie mieliśmy mowy i było bardzo trudno ją odzyskać.
Teraz NVIDIA zachowuje się tutaj
dużo lepiej, nie powinniśmy
tej mowy stracić.
Ja faktycznie to zauważyłem.
To generalnie działa
dużo bardziej responsywnie.
Też zostało poprawione
czytanie, jeśli chodzi o responsywność
czytania kursora w polach edycji.
Teraz NVIDIA powinien reagować trochę szybciej.
Tam jakieś timery
zostały troszeczkę skrócone
i dzięki temu
NVIDIA reaguje dużo szybciej.
A też
powinien dużo szybciej reagować
sam dźwięk, który się z tego
NVIDIA wydobywa, bo
Jamie wprowadził do
NVIDIA obsługę
Wasabi, czyli to jest
najbardziej współczesny system, przez
jaki aplikacje w Windowsie
przesyłają dźwięk.
Dzięki temu ta mowa powinna
być bardziej responsywna, nie powinna
się tak zacinać.
Czasami w niektórych przypadkach
ta mowa lubiła się gdzieś
przerywać.
To na przykład ma bardzo fajny efekt
przy
starym vocalizerze, tym jeszcze pierwszym vocalizerze
Automotive, który mimo to, że
tutaj aktualizacje to w najnowszych wersjach
zwłaszcza w głosach
kompaktowych, faktycznie ta mowa
lubiła gdzieś się czasami gubić,
trzeszczeć coś,
no to jeśli mamy to
Wasabi włączone, a ono domyślnie jest
w tych wersjach alfa włączone,
no to ta mowa działa
dużo, dużo lepiej, już tak nie
przerywa. Natomiast
to wsparcie Wasabi akurat właśnie
nie lubi się z syntezatorem Piper,
wtedy to się wszystko zawiesza, więc jeśli
chcecie się Piperem pojawić, pobawić,
a macie te wersje
alfa, no to w ustawieniach zaawansowanych
musicie sobie to
wsparcie Wasabi
na jakiś czas
wyłączyć.
To jest MVVA.
Są dwie kwestie,
bo też bardzo zauważalny
jest skok wydajności,
właśnie responsywności na Wasabi i na
urządzeniach bluetooth.
O widzisz, tego nie sprawdzałam akurat.
Widzę, że…
Chyba, że to placebo, ale…
Nie, bardzo możliwe, bo to jest dużo nowszy standard,
więc…
Wydaje mi się, że jakoś tam to przechyrzyło.
Natomiast ostrzeżenie takie,
jeśli chodzi o
użytkowanie tej alfy,
jest takie, że jeżeli ktoś
naużytkuje program
Elten i właśnie chciałby się
przerzucić na alfa MVVA,
to jest taki problem, że na…
jakby skacząc
tabem po wpisach tekstowych
użytkowników, nie są
one czytane, ani
jakby nazwa użytkownika,
ani sam wpis. Trzeba to
strzałkami czytać.
Ale jakby…
Myślę, że
profity tej alfy i tak
zwyciężają to, że czasami czytam Eltena,
więc dalej na niej jestem, bo naprawdę
przechyrzyła mocno.
No właśnie, tutaj to naprawdę przyspieszyło.
To jest właśnie wersja alfa. Tutaj też
warto, uwaga, jeśli chcecie się tym
pobawić, a na przykład nie chcecie jeszcze sobie
aktualizować głównej instalacji, to warto
sobie po prostu zrobić
wersję przenośną. Możecie sobie po prostu mieć
tą alfę zainstalowaną osobno
i ją testować. Jak już wszystko
będzie zaktualizowane, no to
po prostu się wtedy na nią przejść.
Aczkolwiek moje wszystkie
dodatki na razie nie narzekały na tą
alfę, więc
oprócz tutaj tego, co Paulina mówiła.
Tak z ciekawości,
czy ty używasz tego dodatku LBL?
Nie.
Bo on do tej pory
bardzo się nie lubił z wszelkimi
alfami, nie działał prawidłowo.
No więc tutaj się niestety też
nie wypowiem.
Warto sobie ściągnąć,
bo naprawdę ten skok wydajności
jest dosyć istotny, a
szykują się następne zmiany, tym razem skupione
na wierszu poleceń,
ale nie tylko, więc tam już kolejne przyspieszenia
są szykowane.
Sklep
też w przyszłym tygodniu w alfie
ma się pojawić z dodatkami,
jakaś pierwsza jego już wersja
wstępna, więc też może być.
Jak to się pojawi, to na pewno jeszcze do tematu wrócimy,
bo myślę, że to też się zaciekawi.
Cały czas na liście deweloperów
gorące dyskusje a propos sklepu,
tam cały czas
coś wokół tego się dzieje.
No sklep coś tam jest robione,
tylko właśnie interfejsu brakuje, no interfejs ma
się pojawić, więc
na pewno do tematu wrócimy.
No a trochę rzeczy, które przyspieszyły.
Jeśli pamiętacie, oj nie wiem, to
już będzie rok jak nie więcej,
jak chyba Mikołaj mówił o tym,
jak w Firefoxie też
doczekaliśmy się dużych zmian
w infrastrukturze dostępności,
które spowodowały, że
ta przeglądarka przyspieszy.
Wtery to też właśnie było w tych wersjach
nightly, więc w wersjach niestabilnych.
No a tutaj wyszedł Firefox
112
i w tym Firefoxie są 12 te funkcje
tzw. Accessibility Cache
już jest dostępny.
Na razie jest wyłączony.
Jeśli ściągniecie sobie tego sub innego Firefoxa
i chcecie to przetestować, to trzeba
sobie wejść do
about.config
czyli to są odpowiedni chromowych
flag w Firefoxie
i tam w polu wyszukiwania wpisać sobie
cahe
i tam w wynikach powinna się
pierwsza pozycja
być accessibility.cache.enable
która będzie
wyłączona to trzeba sobie
włączyć, przełączyć na true
i wtedy
ten Firefox
z czytnikami ekranu zarówno na
Windowsie i na Macu
powinien znacznie przyspieszyć. To jest też
coś co ja testuję, bo ostatnio
ogólnie Firefox zwłaszcza na Macu
stał się taki bardzo fajny
i szukałem takiej przeglądarki, która pozwoliłaby
mi właśnie historię, takie zakładki
i różne rzeczy zsynchronizować między
Maciem a Windowsem. No to jak
Firefox na Windowsie wcześniej był
moim zdaniem bardzo toporny
to po tych zmianach do niego wróciłem
i jak na razie muszę powiedzieć, że
jestem naprawdę zadowolony
więc w porównaniu z tym co się stało z
NVDA i tym co się stało
z Firefoxem na Windowsie i na Macu
jeśli ktoś tą przeglądarkę
porzucił, warto sobie tą
najnowszą wersję ściągnąć, włączyć tą opcję
i po prostu przetestować, bo
możecie być zaskoczeni
a od wersji 113, która
pewnie się ukaże niebawem
no to ten Accessibility
Cache będzie już dla wszystkich
domyślnie włączony, więc nie trzeba będzie
tego ręcznie gdzieś tam ustawać
we flagach, tylko po prostu po aktualizacji
dla wszystkich to się automatycznie
włączy, więc no ta przeglądarka po prostu
sama z siebie
powinna
przyspieszyć.
Następnie mamy SensePlayera
tutaj była mowa właśnie o aktualizacjach
Wiktora streama trójki
SensePlayer też dostał
aktualizację, no niestety nie mamy
tutaj szczegółowego
changeloga, bo jak mówiłem wtedy
firma takich rzeczy nie udostępnia
no i akurat
nie dostałem pełnego
natomiast Brian Hudgen na
Mastodonie informuje, że pojawiła się
aktualizacja, która poprawia
przynajmniej dwa
błędy, które ludzie zgłaszali. Po pierwsze
urządzenie miało
taką tendencję, że czasami
jeśli mieliśmy podłączone słuchawki
przez Jacka do urządzenia
no to głos lubił się wydobywać
i z głośnika urządzenia i z tych słuchawek
no więc dosyć irytująca kwestia
to już
powinno być poprawione
a także został poprawiony algorytm
przyspieszania, tutaj Brian akurat
na to narzekał, podobno już
jest jakiś lepszy stosowany w urządzeniu
więc jeśli lubicie słuchać
wążek audiobooków na szybkich
prędkościach, no to wasze
doświadczenia powinny
być lepsze.
Został również zaktualizowany
RIM na Macu, tutaj
też niestety nie mam
szczegółowych informacji o tym, co jest nowego
mimo to, że takowe są w aplikacji
ale mimo to, że aktualizacje
są i zmiany są widoczne to
changelog jakoś nie jest aktualny
natomiast co się stało
na Macu, aplikacja teraz
potrafi się schować do paska menu
tak jak na Windowsie sobie siedzi w zasobniku
to na Macu wcześniej po prostu
była cały czas otwarta
no a teraz tak jak na Windowsie
się po prostu minimalizuje do
paska menu, a co za tym
idzie, możemy sobie teraz tego Maca
zdalnie łączyć, możemy sobie ustawić
stały zdalny dostęp
więc jeśli gdzieś wyjdziemy, zostawimy
naszego Maca włączonego
a np. chcemy gdzieś z podróży
albo z pracy
złączyć się z naszym prywatnym komputerem
którym jest akurat Mac
no to teraz możemy sobie to
w ten sposób skonfigurować
nie wiem, czy jeszcze jakieś inne
zmiany zostały wprowadzone, czy np.
już dzielenie z chowkiem działa
czy te inne błędy
które jeszcze nie są
na Macu obsługiwane
no ale jak widać
ta aplikacja się rozwija
i myślę, że niedługo będzie na obu platformach
miała te same
funkcje
następnie informacja, która może
zaciekawić wszystkich
muzyków lub dźwiękowców, którzy nas słuchają
odbył się taki ciekawy
panel dyskusyjny
który nazywał się
Inclusive Design & Harmony
to był taki panel, w którym
wzięło udział kilka firm
które zajmują się
dźwiękiem, tam właśnie było Native Instruments
był Ableton, była
firma odpowiedzialna za
Juice’a, czyli ten
system do tworzenia interfejsów
użytkownika do wtycza, który
ostatnio stał się dostępny
jest Avid, czyli twórcy
Pro Tools’a, Focusrite
więc są takie naprawdę
znane firmy, tam było dużo różnych
kwestii
I te firmy, o których ostatnio słyszy się w kontekście
dostępności rzeczywiście
No i właśnie dlatego tutaj
na takim panelu wzięli udział
jak tutaj można tą dostępność jeszcze
poprawić, jak współpracować ze sobą
jakie bariery jeszcze zostały w dostępności
No i tutaj padały
różne tematy
prowadzący tę całą dyskusję wywołał
każdą firmę po kolei do tablicy
No i dzięki temu dowiedzieliśmy się
kilku ciekawych rzeczy, ja tutaj
dałem link do filmu, który przewinąłem
do tego miejsca, gdzie
te tematy akurat się zaczęły
I takie dwie
ciekawe informacje, tutaj nie mamy konkretów
niestety, ale myślę, że jest na co
czekać, bo tak jak wspominałem
w przypadku dostępności
maszyna od Native Instruments
tutaj ludzie osią sobie zęby
na traktory, czyli te
kontrolery do DJ-owania
No to tutaj
pracownik firmy potwierdził, że
są już prowadzone prace
dostępności
nad traktorami, więc niedługo
myślę, że też te urządzenia do nas przemówią
A tak samo
kiedy Paweł
mówił o aplikacji Ableton Note
na iPhona, rozmawialiśmy
też o pełnej wersji
Abletona, czyli to jest Ableton Live
to jest takie całe
właściwie studio nagrań i nie tylko
tak alternatywa
dla Reapera czy Logic
No tutaj też
firma potwierdziła, że
rozpoczęły się prace nad wsparciem
dla czytników ekranów tej aplikacji
No gdyby to się stało
to na pewno dużo ludzi będzie
zainteresowany, no bo pojawiłaby się
jakaś kolejna alternatywa do
nagrywania lub tworzenia
muzyki, albo jeśli ktoś pracuje w studiu nagrań
bo tam akurat ktoś mówił, że
pracuje w studiu nagrań i czasami
trafiały w ręce jakieś projekty, sesje
w Abletonie, do których
potrzebował pomocy osób widzących, żeby je jakoś
otworzyć sobie, więc
no myślę, że jest na to czekać, będziemy
temat
obserwować, miejmy nadzieję
Zwłaszcza, że Ableton Live to jest
naprawdę dość taka
znana
aplikacja, bardzo znana
to jest jedna z teraz takich
głównych aplikacji do tworzenia muzyki
elektronicznej różnych gatunków
i ma
wsparcie do szeregu
takich procesów, które się
w trakcie tworzenia takiej
muzyki dzieje
że tak powiem, więc
no to na pewno dla twórców właśnie muzyki
to może być bardzo
fajny news
Tak, więc tutaj mam nadzieję, że coś
będzie dalej się w tym temacie
zmieniało, bo no właśnie tutaj tak jak mówisz, to
właśnie FL Studio i Ableton chyba takie
najbardziej popularne do tworzenia
muzyki elektronicznej, wielu
youtuberów, których śledzę akurat właśnie z tej aplikacji
korzysta, więc no nawet sam jestem ciekawy
co oni w niej widzą
tak, Antnie sam bym też to przetestował
No i jeszcze kończąc
temat
Jest tam sposób tworzenia muzyki
Tak
Znaczy no to masz
to głównie jest do
miksowania i tam masz bardzo dużo
narzędzi takich wyciągniętych na zewnątrz
dotyczących właśnie samego
procesu miksowania
ścieżki, które
można wysyłać na inne ścieżki
tworzyć foldery i tak dalej
i tak dalej, masz ileś takich rzeczy
które są na wierzchu, natomiast
edycja midi, no to
wejdź se ewentualnie w edytor midi i tam
coś jest, natomiast
w Abletonie to te wszystkie rzeczy,
które służą do
tworzenia muzyki z kwantyzacją na czele
to jest absolutnie na wierzchu
paterny, czyli właśnie takie
małe cząstki, z których
potem składa się piosenki
no to jest coś, co jest taką
absolutną podstawą tworzenia
muzyki
tworzenia
tej własności rytmicznej
jak to zrobić szybko i
efektownie, to wszystko
w Abletonie Live jest zrobione
z tego co wiem, bardzo tak
fajnie
i tutaj jest duży nacisk
położony na to, żeby tworzyć muzykę
taką elektroniczną
jak najszybciej i w taki oczywiście
profesjonalny sposób
No właśnie, więc miejmy nadzieję, że też
jako osoby niewidome niedługo
dostaniemy do tego
dostęp, no ta aplikacja Notes, no to podbiła
Mastodona
jeśli chodzi o niej, bo tam dużo osób
wysyła swoje kreacje, więc no
miejmy nadzieję, że tutaj też coś
się będzie działo. No i jeszcze na koniec
a propos
dźwięku, pojawiła się kolejna
wersja alternatywnego oprogramowania
dla interferesów Go SLR, o których już
wspominałem, był podcast
w którym zresztą pokazywałem
takie funkcje, które były
na razie w stadium eksperymentalnym
a mianowicie
dźwiękowe komunikaty, które są podawane
na screen reader, kiedy
przełączamy niektóre
przyciski na urządzeniu efekty
wyciszanie poszczególnych kanałów
no to były takie bardzo w surowym
stanie wersji eksperymentalnej
teraz pojawiły się wersje
dwie właściwie, bo 0.11 i dzisiaj jeszcze
0.11.1
które już tą mowę
wprowadziły oficjalnie do aplikacji
te komunikaty już zostały
uproszczone i skrócone, już wszystkie funkcje
które powinny być udźwiękowane

no i przy okazji też suwaki
są lepiej czytane, bo tak jak może pamiętacie
na początku suwaki miały takie
wartości surowe, tam od 0 do 255
np. obok było
pole edycji, w którym widzieliśmy
prawdziwą wartość np. w procentach
teraz te suwaki też już podają
te prawdziwe wartości
w procentach, co też się przydaje np. jeśli
ustawiamy te efekty budowane
korektory, bramki
no to tam już te suwaki naprawdę
fajnie są teraz czytane, więc jeśli ktoś
taki interfejs ma lub jest
zainteresowany, no to
polecam mój podcast, no a
też później to
narzędzie, bo jest naprawdę
fajnie zrobione i twórca
tutaj dba o dostępność, sporo osób
już teraz z tego korzysta
zgłasza błędy, sugestie, więc
też jakieś poprawki są na Macu
z tego co wiem, już parę osób
tego na Macu testowało
no więc fajnie, że tutaj też coś się
zmienia
I teraz jeszcze
nowości, ale tym razem
w konkretnym programie Seeing Assistant
Home. Tak, bo nowa
wersja Seeing Assistant Home
się ukazała niedawno
no i nowości
są ciekawe
nowości są ciekawe
i ja tutaj pozwolę sobie zacytować
rozszerzoną listę
taką dość techniczną
zmian, którą też można
przeczytać w aplikacji samej
Seeing Assistant Home
natomiast ja ją tutaj
mogę sobie podglądać
na komputerze i ją
zaprzytoczę
Dodano możliwość wyświetlania
w aplikacji Seeing Assistant Home
zawartości, do której
odsyłają adresy HTTPS
zapisane w kodach QR
Stosowne kontrolki znajdują się
w sekcji ustawienia
sposób otwierania adresów HTTPS
zawartych w kodach QR
Uwaga, gdy w ustawieniach wybierzesz
otwieraj w tej aplikacji
włączone, a zawsze pytaj
wyłączone, następnie
przejdziesz do okna funkcji skanuj kod
i ustawisz tryb skanowania na wyświetl
lub wyszukaj, wybierzesz, żeby były
skanowane tylko kody QR lub wszystkie
a kod QR zawiera tylko jeden
adres i nie będzie w nim innych elementów
takich jak tekst, adres, e-mail itp
to nastąpi automatyczne
wyświetlenie lub odtworzenie treści, do której
prowadzi dane URL
nie będzie konieczności stukania w link
nie będzie takiej konieczności
po prostu
inaczej mówiąc, gdy przy powyższych ustawieniach
zeskanujesz kod QR zawierający
jeden adres HTTPS to nastąpi
automatyczne przejście do
treści, do której on prowadzi
może to być tekst, obraz, plik audio
lub wideo
i to jest super, bo
muzea bardzo często, np. różne instytucje
kultury stosują tego typu
system, gdzie my po prostu skanujemy
kod QR i to jest taki przewodnik audio
że on tam otwiera
z tego kodu QR daną część przewodnika
więc ten przewodnik tu by się
od razu np. odtworzył, to jest fajne
ten sposób działania
aplikacji będzie bardzo przydatny we wszystkich miejscach
w których w kodach QR zawarto
adresy HTTPS odsyłające do
różnych rodzajów treści
jak numery pokoju w hotelach
czy urzędach
opisy eksponatów w muzeach czy na wystawach
w przestrzeni miejskiej
i tym podobne
tryb ten nazwaliśmy trybem szybkiego
skanowania kodów QR, poniżej
opiszemy sposób jego aktywacji
przy użyciu specjalnego gestu
wykonywanego smartfonem, jest to gest
bujania, ważne
otwieranie adresów HTTPS
wewnątrz aplikacji umożliwia
wyświetlanie i odtwarzanie treści
w której prowadzą linki zapisane w kodach QR
i szybki powrót gestem
do skanowania kodów
ich otwieranie w domyślnej przeglądarce
internetowej nie daje takich możliwości
we wcześniejszej wersji
Sling Assistant Home treści do których
odsyłały adresy URL
mogły być otwierane jedyne w zewnętrznej aplikacji
domyślnej przeglądarce internetowej
dodano możliwość
błyskawicznej aktywacji trybu
szybkiego skanowania kodu QR
z użyciem gestu bujania na boki
smartfonem
w tym celu po uruchomieniu Sling Assistant Home
na pierwszym planie jest ekran główny
aplikacji
ustaw iPhone’a
pewnie Android jak rozumiem też w tym działa
chociaż nie wiem, może to jest tylko iPhone
czy tam to jest napisane
ustaw iPhone’a w pozycji
pionowej
gniazdem ładowania do dołu
i przechyl go naprzemiennie kilka razy
w lewo i prawo
w prawo i lewo lub w lewo i prawo
gest należy wykonywać stosunkowo
energicznie odchylając urządzenie
na boki o przynajmniej 45 stopni
w odniesieniu do pozycji pionowej
wykonanie tych ruchów powinno przynieść
zamierzony skutek po około
dwóch sekundach
czyli to jest otwarcie
trybu szybkiego skanowania
kodów QR
tę sekwencję ruchów nazwaliśmy gestem bujania
jest on niezależny od gestu
potrząśnięcia smartfonem
w niektórych sytuacjach może
wystąpić niezamierzona aktywacja gestu
potrząśnięcia szczególnie gdy
gest potrząśnięcia będzie wykonywany
w podobny sposób do gestu bujania
czyli potrząsanie na boki
tryb szybkiego skanowania kodów QR
jest to tryb skanowania kodów QR
z następującymi ustawieniami
wyświetl lub wyszukaj
aktywne rodzaj kodów QR
dźwięk włączony
dioda włączona
automatyczny zoom aparatu włączony
zawieraj w tej aplikacji włączone
zawsze pytaj wyłączone
gdy kod QR będzie zawierał tylko jeden adres
HTTPS i nie będzie w nim innych elementów
takich jak tekst, adres, e-mail itp
to nastąpi
automatyczne wyświetlenie lub odtworzenie treści
do której prowadzi dany URL
nie będzie konieczności stukania w link
inaczej mówiąc gdy przy powyższych ustawieniach
zeskanujesz kod QR zawierający
jeden adres HTTPS to nastąpi
automatyczne przejście do treści
do której on prowadzi
tekst, obraz, plik, wideo lub audio
jak pisaliśmy powyżej
ten sposób działania aplikacji
będzie bardzo przydatny we wszystkich miejscach
w których kodach QR zawartą adresy HTTPS
w których zawarto
różne rodzaje treści takich jak
to co czytałem
tu się powtarza
uwaga ustawienia trybu szybkiego
skanowania kodów QR nie wpływają
na ustawienia użytkownika
wykonane w standardowym trybie skanowania
kodów QR z użyciem przycisku
skanuj kod
dodano ręczny
i automatyczny zoom w funkcji skanuj kod
włączenie automatycznego
zoomu pozwala na rozpoznawanie kodów
kreskowych EAN i QR
z większej odległości niż bez jej użycia
gdy jest włączony
to w ciągu około jednej sekundy
aplikacja wykonuje kilka błyskawicznych
zmian zoomu w zakresie od 0 do 30%
im większa
wartość zoomu tym większe zbliżenie na
obiekt ale mniejsza jego część będzie
automatyczna w kadrze
podobny efekt otrzymamy po ręcznym
odpowiedniego poziomu
ale w tym przypadku wartość
powiększenia przybliżenia trzeba nastawiać ręcznie
dodano ręczny zoom
w funkcji wykryj tekst
przybliżenie obiektu z tekstem w niektórych
sytuacjach
poprawia jakość optycznego
rozpoznawania znaków
dzięki użyciu funkcji zoom można też
rozpoznawać teksty znajdujące się
w dużo dalszej odległości niż bez
zbliżenia
numery autobusów, tablice z nazwami ulic
numerami budynków, wyświetlacze na dworcach
i tym podobne
ważne szczególnie po włączeniu automatycznego
zoomu lub ręcznego
nastawienia na wartości większe od 0
trzeba zadbać o to żeby przemieszczanie
smartfona było możliwie stabilne
potrzebny jest czas na dopasowanie
zoomu i przechwycenie klatki
z wyostrzonym obrazem
ponadto penetracji skanowania nie należy
wykonywać płynnie przemieszczając smartfon
najlepiej robić to
skokowo czyli przesunąć smartfon
o kilka centymetrów stopni
i zatrzymać
dzięki temu kamera uzyska potrzebny czas
na przechwycenie odpowiednio
wyostrzonego obrazu
dodano możliwości jednoczesnego
rozpoznawania kodów kreskowych
EAN i QR
gdy używamy opcji wykryj tekst
czasami
zdarza się że podczas rozpoznawania tekstów
w kadrze znajdują się także kody
kreskowe typu EAN
lub QR
sytuacja taka może zdarzyć się na przykład
na różnego rodzaju dokumentach takich jak
faktury, opakowania produktów spodywczych
witryny internetowe lub w przestrzeni
miejskiej
dzięki tej modyfikacji podczas działania funkcji
wykrywania tekstu jednocześnie działa
funkcja wykrywania kodów kreskowych
EAN oraz QR
gdy któryś z tych kodów zostanie wykryty
poinformuje o tym wibracja typu Haptic
będzie ona inna dla
każdego z rodzajów tych kodów
ponadto przycisk wykryte kody zmieni
stan z niedostępnego na dostępny
gdy przycisk staje się aktywny
to stuknięcie w niego lub wykonanie
wyżej wspomnianego
gestu bujania spowoduje
otwarcia
widoku w którym znajdą się wyniki
wyszukane dla danego kodu EAN
lub treść zapisana w kodzie QR
w jednej sesji wykryj tekst
zapamiętywanych jest maksymalnie
10 wykrytych kodów
wykryte kody w trakcie wykrywania tekstu
są także zapisywane na liście
ostatnio skanowanych kodów
dodano nową funkcję
skanowanie dokumentów
to funkcja pomocna w skanowaniu
i optycznym rozpoznawaniu znaków
wykorzystaliśmy do tego narzędzie
dostarczane przez Apple
funkcja potrafi wykryć i przy pomocy
komunikatów dźwiękowych oraz głosowych
nakierować na obszar z tekstem
gdy jest ujęty w kadrze
to aparat automatycznie zrobi zdjęcie
a następnie wykonana zostanie
korekcja obrazu
wygładzenie i przycięcie
tak przygotowany obraz będzie przekazywany
do modułu rozpoznającego znaki
uwaga! istnieją dwa tryby skanowania
przechwytywania obrazu z kamery
ręczny i automatyczny
służy do tego dwustanowy przycisk
AUTOM RĘCZNY
domyślnie wybrany jest tryb
AUTOM czyli automatyczny
w obu trybach można wykonywać
skanowanie pojedynczych lub wielu
stron dokumentów z tekstem
na początek
sugerujemy naukę i kalibrację skanowania
z użyciem trybu ręcznego
dzięki niemu
można nauczyć się
skanowania dokumentów w taki sposób
żeby w kadrze znalazł się cały tekst
w tym celu umóż kartkę z tekstem
na jednolitej powietrzni
nie zawierającej innych tekstów
i nakieruj kamerę i iPhone’a
na tekst
skanujące
gdy przestanie informować
o konieczności przesunięcia aparatu
to oznacza, że najprawdopodobniej
cały tekst znalazł się w kadrze
wtedy trzymaj iPhone’a stabilnie
i wykonaj zdjęcie
z użyciem przycisku na ekranie
ćwiczenie najlepiej wykonać z rozmiarem kartki
z którym przychodzi Wam pracować najczęściej
gdy wybrane jest
automatyczne robienie zdjęć to aparat
co około 2 sekundy automatycznie wykona
zdjęcie tekstu znajdującego się w kadrze
znajdzie się tak nawet
jeżeli w kadrze będzie się znajdował
wciąż ten sam tekst albo tylko jego fragment
aby uniknąć powielania
skanowania tych samych tekstów
należy po każdym wykonaniu automatycznego zdjęcia
pożądanego tekstu
zakryć aparat albo podmienić tekst na kolejny
zmiana strony
albo nakierować obiektyw na obszar
bez tekstu
z kolei aby unikać sytuacji w której fragment tekstu
zostanie automatycznie sfotografowany
zalecamy rozpoczynać skanowanie
z większej odległości
nawet około 0,5 metra
i przybliżać do kartki z tekstem
alternatywnie umiejscowić obiektyw
mniej więcej na środku dokumentu do zeskanowania
i dość szybkim ruchem podnieść go
na wysokość około 40 cm
zachowując równoległe ułożenie
względem tekstu
optymalnym rozwiązaniem będzie zastosowanie
odpowiedniego stasywu lub
podobnej konstrukcji
na której można ustawić właściwe ułożenia
iPhona względem skanowanego dokumentu
w tych procesach bardzo przydatna
może być pomoc osoby widzącej
gdy chcemy
zakończyć sesję skanowania należy
stuknąć w przycisk zachowaj
wówczas tekst zostanie poddany
procesowi optycznego rozpoznawania
znaków przetworzony na tekst
edytowalny
gdy pojawi się okno z propozycjami krawędzi
do przycinania
oznacza to, że proces
przycinania obszaru skanowania nie poradził sobie
z wyodrębnieniem krawędzi
tekstu
wtedy pojawia się możliwość wykonania przycinania ręcznego
ale osoba niewidoma nie będzie
w stanie zrobić tego samodzielnie
sugerujemy w takich przypadkach
pozostawić obraz bez przycinania
i użyć przycisku
pozostaw skan
pozostaw skan
skanowanie dokumentów można wykonywać w każdym ułożeniu
iPhona na połasko, pionowym
oraz poziomym
funkcję skanowania dokumentów rozpoznaje teksty
w każdym ułożeniu
z poziomem skośnym i do góry nogami
proces optycznego rozpoznawania
znaków odbywa się w pamięci iPhona
a dane użytkownika nie są wysyłane
do serwisów działających w chmurze
treść zeskanowanych dokumentów
zostanie zapisana na liście
wykryte teksty
najlepsze wyniki rozpoznawania znaków będą
dostępne dla urządzeń zainstalowanym
iOS 16 lub wyższym
w starszych modelach iPhone’ów
automatyczne wykonywanie zdjęć może nie zadziałać
dlatego zalecamy wykonywanie zdjęć ręcznie
wyniki optycznego
rozpoznawania znaków przy użyciu funkcji
skanu dokumentów powinny być lepsze
niż z użyciem wykrytekst
tej drugiej funkcji nie ma nakierowania
na skanowany obiekt z tekstem i mimo wolne
ruchy ręki mogą
powodować dostarczenie
gorszej jakości
tekstu do modułu rozpoznającego
znaki
inne zmiany
naprawiono funkcję wykonywania i przywracania
bazy z kodami w pamięci
smartfona
naprawiono funkcję archiwizacji bazy kodów
użytkownika na koncie Dropbox
w funkcji skanuj kod gdy aktywny jest tryb
rozpoznań i wypowiedź dodano przycisk
wyświetl zawartość kodu
będzie on aktywny po zeskanowaniu
i rozpoznaniu kodu QR
po jego naciśnięciu przejdziemy na okno
w którym zamieszczona zostanie
zawartość kodu QR
w formie analogicznej dla jego trybu
wyświetl lub wyszukaj
usprawniono skanowanie dynamicznych kodów QR
do ich obsługi
niezbędny jest dostęp do ich danych
internetowych
zachęcamy do zapoznania się ze specyfiką
działania i możliwościami wykorzystania
dynamicznych kodów QR
na liście zawierającej ostatnio
wykryte teksty dodano informacje
o pozycji numerze danego elementu
na tej liście
jeśli czytasz ten tekst to znaczy że odnalazłeś
i stuknąłeś w nowy przycisk zawierający
dokładniejszy opis ostatnich zmian
w sekcji więcej zobacz inne
nasze aplikacje dodano link do aplikacji
Echo Vis i tu jest opis aplikacji Echo Vis
my już o niej mówiliśmy
więc myślę że nie ma
sensu tego dalej cytować
no i tak wyglądają
te zmiany
jeśli chodzi
o Seeing Assistant Home
a tymczasem
już od kilkunastu
jak nie dziesięciu minut
w poczekalni naszego spotkania
czekał Bartek
bo teraz zauważyłem że
Bartek się pojawił więc mam nadzieję że
i Bartek zauważy
że wpuściliśmy go na antenę
Bartku
jeszcze tylko kwestia
odciszenia mikrofonu
ja jeszcze może w między
czasie zajrzę do
komentarzy które tutaj

Borys do nas napisał pytanko co do
mobilnego kombata czy to fair play
to nie wiem co
miał na myśli
strzelam że tutaj chodzi o to że tutaj
są jakieś mikropłatności no niestety są
i z tego co czytałem to
trochę jest pay to win czyli po prostu
jeśli ktoś płaci to jakąś przewagę ma
niestety
no i jeszcze tu pytanie od Kuby
czy coś wiemy na temat premiery
asystenta głosowego Sara
no ale chyba nadal nic nie wiemy
na ten temat
jak będzie wiadomo
to damy znać
wiemy tak ale na razie
niczego więcej nie wiemy Bartku czy jesteś już
z nami
no teraz miejmy nadzieję że się słyszymy
słyszymy się
ok bo lekko tutaj słyszę przebicie
z drugiej strony ale to znaczy że już
jestem na antenie no de facto troszeczkę się
naczekałem to było około pół godziny
ale widać że cierpliwość popłaca
no sam początek chciałem tylko podziękować
Kamilowi za ten
dość obszerny komentarz
miejmy nadzieję że może w jakiejś przyszłości
ta wiedza też mi się przyda także jeszcze raz
dziękuję
jeżeli chodzi o tą digitalizację
tych kaset VHS
no to już tak jak
w zeszłym tygodniu tutaj wspomniałem to tylko tak z ciekawości
kiedyś mnie natchnęło na ten
temat i sam byłem ciekaw
czy takie coś można zrobić
więc może ta wiedza jak to już wyżej
nadmieniłem się przyda
dwa
co chciałem powiedzieć
aha tak tutaj chciałem się też
odnieść do tego tematu
o którym dzisiaj mówiliście
mianowicie o tym
etykietowaniu piwa
w Japonii
no wydaje mi się że
w Polsce
to też by miało swoje zastosowanie
Michale tutaj sam przyznałeś się
na antenie że też lubisz
no przyłączę się do ciebie ja też nie powiem
lubię i
wydałoby się chociażby to w sklepach
gdzie sami de facto
musimy wybierać
produkty spółek no tutaj akurat
mówimy o piwach
to znaczy wiesz oczywiście
ale to nawet nie tylko jeżeli
chodzi o piwa tylko generalnie
fajnie by było jakbyśmy mieli te
etykiety ale to
dotyczy tak naprawdę każdego produktu
a z tym to się zgodzę
w dzisiejszych czasach to tak naprawdę mamy tylko
mamy tylko leki
tak obrailowane
i ewentualnie czasem jakieś tam
firmy wychodzą
z taką inicjatywą
natomiast
ostatnio kupiłam herbatę
o widzisz
a czy Pawlino jesteś w stanie że tak powiem
jeżeli oczywiście możesz i to będzie możliwe
podać się jakiej firmy
i gdzie to czy to ściągałaś z internetu
czy
w jakimś sklepie
tylko że zapomniałam jaka to była firma
to jest herbata zielona
z pigwą i cytrusami
jak rozumiem
gdzie ten napis był umieszczony
to był na kartonie tak?
tak jakby na pudełku
kartonowym
z serzytkami herbat
też kupiłem kiedyś herbatę z napisem
railowskim
i te zioła że tak powiem
z tej marki
nie wiem czy to smarka czy to fix
to one też mają
napisy na kartonach mięta fix
rumianek fix coś tam jeszcze
to jest natomiast
któraś zwykła herbata
Irving
tak dokładnie
no właśnie no to
widzicie akurat się przypomniała
ale tutaj skoro
Michale sam podkreślałeś że to powinno być
na wszystkich produktach
te napisy railowskie
i tak teraz patrząc na nie
wszystkim się da
chociażby prosty przykład
soki w kartonach
no
to myślisz żeby się
no faktycznie mogłoby dojść
do jakiegoś
przecieku ewentualnie
tak na samym kartonie
ewentualnie
myślę że by się dało
ale słuchajcie
co byłby za problem
stosować jakieś naklejki
nie bezpośrednio pisać po samym
kartonie
tak naprawdę to dałoby się
oczywiście że tak
dałoby się w zasadzie na wszystkim
kwestia jest po prostu chęci
i tak naprawdę no jakiś procesów produkcyjnych
no bo to
tu jest największy problem
bo to trzeba do tego procesu to wdrożyć
i cena i koszty
no właśnie
niestety za tym idą koszty
a producenci
niestety sceptycznie do
tej kwestii podchodzą
z drugiej strony ja też bym tych kosztów
nie demonizował słuchajcie skoro
wydawane są pieniądze na różnego
rodzaju kampanie marketingowe
że na przykład teraz
nasz produkt jest w nowym fancy pudełku
czy w jakimś tam
opakowaniu i coś tam
się zmienia co jakiś czas
żeby to cieszyło oko i przykuwało
uwagę no to
dlaczegoż by o to nie zadbać
no ale to wiecie to jest
my sobie możemy pogadać
dobrze Michale to ująłeś
powiedziałaś żeby cieszyło oko
tak a nas przy okazji też
a w tej kwestii
to niestety ale my jako osoby niewidome
jesteśmy pomijani no
to trzeba niestety chyba powiedzieć głośno
jeżeli sami się nie odezwiemy
i to musi być nie jedna osoba
tylko to musi być wysoki grono
jest już działanie na poziomie
Europejskiej Unii Niewidomych
jest konsultacja
była wyrażona opinia
odnośnie strategii tam
sustainable food czyli
żywienie na przyszłość
bo nie wiem czy w przypadku leków to czasem
nie były narzucone już tutaj
właśnie
i dlatego a tutaj to my możemy
tylko polenizować że takie coś będzie
sprowadzone
no w Hiszpanii jest to już prawem na przykład
natomiast też jak ktoś ma
jeżeli ktoś ma androida
to naprawdę bardzo polecam aplikację
Lookout bo
no to jest aplikacja która rzeczywiście
bardzo nam się ostatnio
w ogóle nam się przydaje
do sczytywania różnych rzeczy
z jakichś pudełek, kartonów, butelek
i tego typu rzeczy
no i też
niedawno zdaje się
NaviLens takie mi
info wysłali że w związku z tym
że teraz nowe mają
jakieś różne nowości
to podobno teraz
zwiększają ilość tych kodów
które udostępniają użytkownikom
nie wiem
ile coś mi chodzi po głowie
jakaś liczba tysiąc
czy tyle tych kodów można sobie wydrukować
różnych
w każdym razie no też może być jakiś
pomysł no bo przecież są te
etykiety które
można sobie są te arkusze etykiet
w formie kartek A4
które można sobie kupić, wydrukować
u siebie czy gdzieś
i przyklejać
no w końcu muszę taki arkusz sobie kupić
trochę poeksperymentować
i być może przydałoby
być może zrobię podcast
jeżeli to zadziała
o tym właśnie jak sobie takie
kody wydrukować, poprzyklejać
na różne rzeczy w domu
i w ten sposób taki
bezwzrokowy
sobie okleić różne
fajne rzeczy
A jeszcze tutaj takie właśnie pytanie
a propos Think Assistant Who
mi się nasunęło skoro tutaj Paweł
mówiłeś o tym
takie moje pytanie jest czy to
by mogło zastąpić chociażby czytniki
cen w sklepach?
No
nie do końca bo ten tryb
wykrywania kodów kreskowych jest
i on w wielu przypadkach się sprawdza
ja bym od tego zaczął przede wszystkim
że to jest nieporęczne jakby
ta cała technologia którą na ten moment mamy
nawet jak sprawdzi nam się
w domu do rozpoznania produktów
nie wiem odróżnienia jednej puszki od drugiej
no to nie jest to
wygodne kiedy musimy lecieć po
supermarkecie, wiedzieć co na jakiej półce
stoi, no nie będziemy każdego produktu
ściągać z półki i go skanować
To jest jedno, poza tym
druga rzecz jest taka, że w kodzie
paskowym, który jest w sklepie
nie ma żadnej informacji o cenie
tam jest kod
znormalizowany, tam ilość cyfrowy
chyba dziesięcio albo dziewięciony
pamiętam
który po prostu określa
numer produktu
i to jest chyba numer na poziomie co najmniej
krajowym, jeśli nie europejskim
który określa
produkt X to ma
numer taki a taki
i teraz w jakim systemie
który ma sklep
jest napisane, że produkt
numer taki a taki ma cenę
taką a taką
a w ten design to funkcjonuje
tylko co wiem to w to
tak, my też mówiliśmy o tym dwa tylu przeglądy
temu, że nadchodzą jakieś nowe kody
kreskowe
dwuwymiarowe
i one mają już więcej informacji móc
nieść i takich informacji też
i dla sprzedawców i dla nas
więc jest jakaś
nadzieja w tym, że tutaj
coś się dla nas też poprawi, ale to wszystko
zależy od tego jak będą to producenci implementować
no bo najmniej według mnie to lepiej
chyba tam gdzieś sobie stanąć przy regale
i sobie samemu ten produkt zeskanować
niż stać godzinę
może przesadziłem przy samym czytniku
i szukać tego kodu
chociaż patrząc na dzisiejsze sklepy to tylko
chyba bodajże jedna sieć
no mogę chyba powiedzieć nazwę Lidl ma
udźwiękowione czytniki
cen, ale sam się przekonałem, że
zanim ten kod się namierzy
manewruje się
tym produktem, manewruje
i to jest jednak czasochłodne
No tak
na ten moment zakupy samodzielne
w supermarkecie to jest
ciężki temat
My możemy liczyć tylko na pamięć, że nic nie zostanie
przełożone i po prostu kierujemy się pamięcią
że to na przykład
produkt A stał na przykład obok
produktu B
Ale to się zmienia
No właśnie mówię, możemy tylko na to liczyć
W mniejszych sklepach osiedlowych
może, ale w takich
supermarketach to nie ma
absolutnie żadnego sensu, bo to co jakiś czas
zmienia się, ustawienie tych
produktów, ułożenie ich względem siebie
po to, żeby klient sobie
chodził i
nie jakimiś utartymi ścieżkami
że na przykład produkt A
jest zawsze obok produktu B, tylko żeby
jeszcze sobie przeszedł gdzieś i przy okazji
zobaczył, że jest produkt C
a w sumie może kupię
No tak, to jest marketing
Zawsze jeżeli
idzie klient
po coś konkretnego, a zobaczy
coś po drodze
to, a dobra, przyda mi się to
Na tym to właśnie ma polegać niestety
Taki jak to
powiedzieliby chwyt marketingowy
Dobrze
No to teraz pozwólcie tylko, że
króciutko przejdę jeszcze do
kwestii technologicznych
Najpierw
może odniosę się do tych
dodatków z nowymi głosami,
które prezentował Piotr
kilkadziesiąt minut temu
Powiem tak, no według mnie
ten polski głos nawet by nie nadawał się
chociażby do codziennego funkcjonowania
bo ja słyszałem po pierwsze jaka jakość
po drugie tak jakby on lekko
moim zdaniem charczał
te głosy angielskie były
o wiele lepszej jakości, to tak mogę powiedzieć
To znaczy tak
z tym głosem polskim jest kilka
w ogóle problemów
To jest nagrany jakoś w ogóle zupełnie amatorsko
tak źródłowo jakby
nagrany jest, nagrany jakoś amatorsko
Tam jest dużo pogłosu, żadna synteza
nie lubi pogłosu
Z tego co wiem
to ta polska synteza
jest niestety
niestarannie, to znaczy te próbki
do polskiej syntezy zostały
niestarannie zrobione, to znaczy to zostało
zarówno, to zostało
i pocięte
i rozpoznane, o ile mi wiadomo
w dużym stopniu automatycznie
i bez jakiegoś
nadzoru ludzkiego, w związku z czym
te próbki są pocięte jakoś
z tego co wiem gorzej niż lepiej
Tam są jakieś próbki
Tak, bo to jest
to jest wzięte z
książki dostępnej na
licencji publicznej
to chyba Lalka
nagrał to niejaki Piotr Nater
i
te próbki są dostępne
do pobrania
bez żadnych problemów
zupełnie legalnie, można z tymi próbkami
robić wszystko
dlatego na tych próbkach właśnie bazuje
m.in. ten syntezator, ten i jeszcze
parę innych projektów z polską syntezą
mowy
natomiast właśnie w związku z tym, że te próbki
zostały pocięte zupełnie automatycznie
no to
powoduje to szereg problemów
właśnie takich, że
czasami to się wszystko sypie
jeśli chodzi o
w ogóle sposób czytania
Mam chytry plan
żeby spróbować
wytrenować na tym jakiś głos, który jest
na przykład w R.H. Weissie
natomiast
to nie jest takie hop siup
nie wiem na przykład ile potrzeba
tych próbek, żeby wytrenować taki syntezator
kiedyś słyszałem o kilkunastu godzinach
próbek, to jest bardzo dużo
i żaden głos R.H. Weissowy
ale nie ma, nie ma nawet jednej
piątej tego, bo tam
największe głosy
R.H. Weissowe to jest troszkę
ponad dwie godziny materiału, jeżeli to jest
potrzebne kilkanaście
no to będzie to jakiś problem
żeby to zrobić dobrze
więc no zobaczymy, ale
może mi się mimo wszystko uda coś zrobić
no jeżeli tak
no to będzie
fajnie, ale no
nie obiecuję niczego
Ok i no myślę, że już
na sam koniec, bo takimi małymi sprawami
sprawami wangłowy nie będę
tutaj zawracał
ale Pawle sprawdziłem
to o czym żeśmy rozmawiali tydzień temu
mianowicie chodzi o to
u mnie bynajmniej dziwne
ściszenie się dźwięku podczas
wykonywania połączenia
telefonicznego bynajmniej, jeżeli ktoś
do mnie dzwoni, to mówię
przez trzy sekundy dźwięk
jest na normalnej głośności
po chwili nagle się ścisza
i zaleciłeś mi tutaj sprawdzić, czy to
czasem nie jest przez złagodzenie dźwięków
voice over i muszę niestety
powiedzieć, że jednak problem nie leży po tej stronie
i teraz tak naprawdę nie wiem co z tym zrobić
no wydaje mi się, że
zostaje mi tylko
zadzwonić do wsparcia Apple i zapytać
co to tak naprawdę może być
No myślę, że to
raczej dobrze byłoby zrobić
bo to absolutnie nie wiąże się
z jakimiś tam kosztami
a akurat wsparcie Apple jest dość kompetentne
Co prawda nie robiłem
eksperymentu z wyłączonym voice overem
ale wątpię
żeby to cokolwiek zmieniło tak naprawdę
To też warto by było
mimo wszystko jednak sprawdzić
Ja bym sprawdził
Zastanawiające jest to
dlaczego tylko na tym modelu mi
tak się zachowuje iPhone, bo jak miałem
jeszcze no dwa miesiące temu
tak, chyba będzie dwa miesiące temu jeszcze
SE drugiej generacji
to wszystko tam było w porządku
Jeszcze tak zapytam z ciekawości
to się dzieje zarówno na słuchawce jak i na głośniku, tak?
Znaczy się
Michale
konkretnie chodzi o to, że
mam połączenie przychodzące
voice over
przepraszam, voice over
odczytuje mi identyfikator dzwoniącego
mamy trzy
sekundy normalnej
głośności dzwonka
i po chwili on nagle
się ścisza tak jakby
Przepraszam, że ci wejdę w słowo
jaki to jest model iPhona?
Trzynastka. Ale to tak ma być
bo to nawet osoby widzące mają
to jest na takiej zasadzie, że jak dzwoni telefon
i osoba widząca zaczyna się patrzeć na ekran
bo on potrafi wykryć tymi czujnikami
czy patrzysz się na niego
to on wtedy ten dzwonek ścisza nawet
osobom widzącym
To też tak działa?
Gdzie?
Przy kurtynie, no bo ja mam
złączoną kurtynę
Bo to używa tych samych czujników co do Face ID
tylko to nie rozpoznaje twarzy, tylko po prostu patrzy
czy patrzy się na telefon
Ale czekajcie, czekajcie, bo ja mam też
trzynastkę
i u mnie coś takiego absolutnie nie występuje
więc być może to jest jakaś opcja, którą
albo, no inna rzecz, że ja się
nie patrzę specjalnie na ten telefon
Ja tej opcji nie widziałem, ja też zobaczyłem
Ja tylko kieruję, żeby wiedzieć
gdzie palce skierować, prawda? Chociaż sam dźwięk
powinien nam o tym wywnioskować
Chociaż to też powinno działać na takiej zasadzie, że
jeżeli przez chwilę się na ten telefon popatrzymy
bynajmniej w teorii
no w naszym przypadku to
my tego telefonu fizycznie nie widzimy
i nagle od razu powinno wrócić
A ty masz aktywną tę
funkcję podnieś, aby
obudzić? Bo może to jest jakoś skorelowane
z tym
Nie, tej opcji włączonej
nie mam
Ja generalnie mam dzwonek
po prostu ściszony, więc może coś tego
tak nie zauważyłem. Na pewno wiem, że
na iPhone’ach moich, tutaj pozostałych
osób w domu, osób widzących
no to tak to jest, ja po prostu nawet słyszę
gdzieś dzwoni im telefon, podnoszą go do ręki, coś tam
rozmawiają i słyszę, że ten dzwonek się ścisza zanim oni
go odbiorą, więc to tak jest
na pewno
A to ciekawe, od czego to zależy
bo, tak jak mówię, ja od siebie
tego nie zaobserwowałem
To jest normalne
tak, że masz połączenie
bierzesz telefon do ręki
i on jest na takiej samej głośności
jak kiedy leżał
Tak, no ewentualnie voiceover powie
jaki jest telefon, kto dzwoni
no to się tam czasem trochę przyciszy, ale
potem ta głośność dzwonka wraca
Tak, bo jak rozumiem
ty, Michale, to złagodzenie dźwięku
prawdopodobnie też masz włączone
Różnie, ja sobie to ustawiłem na pokrętle i czasem
to mam włączone, czasem wyłączone
No to
de facto to też jest, że tak powiem
kwestia samego przyzwyczajenia
Czasem jest mi to potrzebne, czasem nie
Czyli mówię
muszę wykonać ewentualnie dwa kroki
najpierw zrobić
ten test z
wyłączonym VO, albo
zadzwonić do wsparcia, zobaczyć, co
oni mi powiedzą
Nie powiem, żeby to było irytujące, tylko zastanawiam
mnie, dlaczego tak się dzieje
bo widać, że
tutaj mamy jakby, no, dwie wersje
u mnie się dzieje właśnie taka dziwna sytuacja
u ciebie, Michale, jest
spokój
No chyba, że ja po prostu aż tak dęto im zwracam uwagi, ale
myślę, że raczej zauważyłbym
Ja po prostu w ten sposób generalnie
zauważyłem
No, też możliwe
wcale nawet bym zauważył
Ja bym zauważył, jakby zwiójkać tam
z wysokości, tak szczęśliwie na niego
nie patrzę chyba, więc może też to bym nie zauważył
Zastanawiająca jest
jedna rzecz, bo teraz tak mi nie
przyszło do głowy
że on już był cichy, jak ja go
miałem raz w kieszeni, jak miałem połączenie
No
Chyba to się
Aha, dobra
Prawdopodobnie to się da wyłączyć w
sekcji ustawieniach
Face ID i kodu
Tylko nie wiem, jak się
ta opcja
Ja to jeszcze sprawdzę, ale
chyba widzę, że to się da wyłączyć
Ja jeszcze tutaj spróbuję temat zgłębić
Jeżeli to się tam
gdzieś wyłącza, to ja też spróbuję zaraz
przy tym pogrzebać
i wtedy zobaczymy
co to ewentualnie
da
No dobra, no to wtedy
A, jeszcze takie małe
pytanie, Michale, do Ciebie
tutaj, a propos ICO
Nie zauważyłeś ostatnio,
że u Ciebie bynajmniej powiadomienia,
jeżeli chodzi o
powiadomienia w tle, o ICO, że one
przychodzą z opóźnieniem, a powiadomienie w aplikacji
już się znajduje? Wiesz co,
no akurat tak bardzo tego nie sprawdzałem
natomiast
Ja bynajmniej miałem dzisiaj taką
sytuację. Fakt faktem,
że czasem
powiadomienia o płatnościach, na przykład
płatnościach kartą,
potrafią przyjść z opóźnieniem
nawet kilku godzin
że na przykład
zakupy były dokonywane tam
powiedzmy o godzinie 13,
a dziś mi na przykład przyszło
powiadomienie o godzinie 20, że
była autoryzacja kartą
więc
to takie ciekawe rzeczy
tam się dzieją, ale nie porównywałem
tego i nie sprawdzałem, czy w samej aplikacji
jako takiej to już jest dostępne,
no bo aż tak
Ja Tobie mogę powiedzieć z własnej autopsji,
Michale, że dzisiaj właśnie jak
wymieniłem, miałem taką sytuację
i wszedłem
do ICO, akurat
mi pokazywało zero
plakietek, zalogowałem
się do aplikacji, a w
powiadomieniach już to powiadomienie
o tej transakcji płatności było
Rozumiem
Więc nie wiem, czy to
kwestia
samej aplikacji, czy też
może, nie wiem
bo ostatnio pokazała się
mikroaktualizacja, tak to
można powiedzieć, bo ona miała niecałe 100
megabajtów, o ile dobrze pamiętam, samego
iOS-a
Nie, nie, to nie ma nic wspólnego
Bartku, od razu powiem, to nie ma nic
wspólnego jedno z drugim, bo te opóźnienia
w aplikacji ICO to już są nie od dziś
one są od paru
nawet bym powiedział miesięcy
i to nie zawsze, czasem są
czasem nie
Czyli w tym przypadku też trzeba
zobaczyć co
najbliższe ewentualne aktualizacje
przyniosą, jak to będzie się
toczyć, jak to się mówi
Okej, no dobra
Tym razem jest koniec
Przepraszam jeszcze ci przerwę
bo w międzyczasie dokopałem się do tego
wystawienia, jak to się nazywa po polsku
Tak, wchodzisz w wystawienia
Face ID i kodu, tam musisz wpisać swój
kod i musisz wyłączyć
przełącznik
funkcje rozpoznające, uwaga, to jest domyślnie
włączone, jeśli to jest to, o czym ja myślę
to jak to wyłączysz, to teoretycznie
problem powinien zniknąć
Okej, dobra, to wtedy to sprawdzę
i w przyszłym tygodniu albo
napiszę, albo znowu, że tak powiem
troszeczkę wam głowę potruję
jak to się mówi
W porządku
I co jeszcze chciałem się zapytać
Coś mi się wydaje, że
ostatnio mam problem z
zewnętrzną kartą dźwiękową, tutaj mówimy
konkretnie o Creativie, teraz modelu wam
nie pomnę
ale mam taką przypadłość, że
korzystając z karty
ona stąd
jakby się dezaktywuje
i dopiero po wyjęciu i zamontowaniu
ponownie
kabla w USB, ona
znowu się nam aktywuje
No tu powodów
może być
Bo jeżeli byłby
uszkodzony kabel, to rozumiem, że
z automatu przeszedłby na tą
kartę budowaną, zewnętrzną
wewnętrzną, przepraszam
którą
ustawioną
Nie, właśnie
nie
Znaczy, wiesz co
uszkodzony kabel może
tak przypuszczać, że może w różny
sposób się zachowywać
Ale żeby było, Michale, ciekawie
to tylko się dzieje wtedy, kiedy
powiedzmy, że przez minutę, dwie
nic nie robię
Aha
To może jakieś
oszczędzanie energii masz włączone na
portach USB, tam w menedżerze urządzeń
warto sobie to sprawić
Nie zmieniałem
od samego początku
Albo w zaawansowanych ustawieniach
planu zasilania, planu sterowania
Też prawda
Natomiast ja bym
przede wszystkim, mimo wszystko
tak dla świętego spokoju, jeżeli masz taką
możliwość i ta karta jest wymiennym kablem
to sprawdził ten kabel albo podłączył ją
na przykład do innego portu i też to sprawdził
Trzeba będzie też to wtedy przetestować
Dobrze, teraz
Naprawdę ciężko jest zdiagnozować w ten
sposób
problemów może być dużo
i to raczej nie da się tego zrobić
w kilka minut
Zgadza się, no cóż, wszystko będzie trzeba
dokładnie sprawdzić, przetestować
Jeszcze raz dziękuję, że mogłem tutaj poniekąd się też
dowiedzieć, troszeczkę porozmawiać
i uzyskać też od Was pomoc
Tutaj Piotrze też Tobie serdecznie
dziękuję za tą wskazówkę
Nie mam problemu, mam nadzieję, że pomoże
Nie wiem, czy nawet bym sam na to
wpadł, także jeszcze raz bardzo dziękuję
Pozdrawiam serdecznie i przechodzę do słuchania
Was dalej już na sprzęcie, także dzięki
serdeczne, pozdrawiam, do usłyszenia
Do usłyszenia Bartku, pozdrawiamy
Cię również serdecznie
Jeszcze tu widzę
jakiś taki komentarz
od naszego słuchacza Dominika
Czy to jest
monitor brajlowski
Alwa?
Chyba ktoś chciał napisać, właśnie Dominik
No tak, jest taki monitor brajlowski
jak Alwa, a właściwie
nawet był, bo
to jest sprzęt, który
kiedyś, kiedyś
Tak, Alwa była
Ona została później wchłonięta
w Optelec, a Optelec został wchłonięty
przez VOV, czyli Freedom’a
Oni chyba teraz się tylko na powiększalnikach
skupiają, no bo Freedom ma swoje
focusy
Zgadza się
Mój pierwszy monitor, bardzo ciepło wspominam, swoją drogą
Rzeczywiście, był całkiem ciekawy
I tu jeszcze komentarz
od Eweliny
Witam zawsze, proszę, pracownika marketu o pomoc w zakupach
i nie mam z tym problemu
No to fajnie, to
oczywiście, to jest dla nas
w przypadku
zakupów w marketach
raczej najlepsza opcja, natomiast
fakt faktem też od czasu do czasu słyszy się, że
no nie zawsze pracownicy
są chętni, żeby pomóc
z przyczyn różnych
też i z takich, że
po prostu jakoś tam
inną pracą też są obłożeni
i to jest niestety również kłopot
Problem polega na tym, że to jest
nieuregulowane
w zasadzie niczym
Dokładnie, to zależy od dobrej woli, bądź też jej braku
Dokładnie, i często ona jest
jakby nie musi to być
to nie jest obligatoryjne w żaden sposób
no i
tu jest jakiś problem, który
nie został jak na razie rozwiązany
w żaden sposób
to może
przejdźmy do chyba
takich nieco weselszych, a na pewno
luźniejszych newsów
newsów ze świata gier, które
przygotował dla nas Piotrek
Dokładnie, no tutaj głównie skupiam się na tym
co umieściłem
z kolegami z Audiogames
w biuletynie. Większe rzeczy już
omawialiśmy na bieżąco, no tutaj te największe
wiadomości, czyli Forza, czy ten Game Jam
to miały swoje osobne
miejsca w Tyflo Przeglądzie
też inne wydania w ciągu
całego miesiąca
ale zostały jeszcze kilka takich
drobniejszych aktualizacji, które też się
w międzyczasie pojawiły
A propos tutaj nowości
jest taka jedna mniejsza nowość
od Nathan Smitha
wypuścił dwie małe gry
konkretnie to jest Sudoku
i
Kakoro
jeśli dobrze czytam
Kakuro nawet
to jest też gra podobna do Sudoku
gdzie na planszy mamy
jakieś sumy matematyczne i musimy
na pozostałych polach jakoś do tych sum
dojść. Ja szczerze mówiąc jestem bardzo
słaby w takie gry matematyczne
no ale jeśli
kogoś taka gra interesuje
to może ją sobie pobrać
gry są dostępne w wersji darmowej i
płatnej. Płatne wersje kosztują 5 funtów
ale
nie są w jakiś sposób ograniczone
wersje darmowe czasowo, tylko w wersjach płatnych
mamy możliwość dostosowania
wielkości planszy
w przypadku Sudoku i poziomu
trudności w przypadku
Kakoro. A tutaj Nathan
mówi, że jeśli ktoś
nie potrzebuje tych wersji płatnych
i po prostu woli sobie na tych wersjach darmowych
grać to nie ma
problemu. No ale jeśli
kogoś właśnie takie gry interesują
to może sobie na komputerze
na Windowsie ściągnąć.
No i jeszcze zostało kilka
aktualizacji. Tutaj też niektóre omawialiśmy
ale nie wszystkie.
Jak zwykle dużo dzieje się w
świecie modów różnych
na przykład
w Ereon modzie pojawiły
się
dodatkowe dźwięki w soundpacku, który
też może sam się aktualizować
to jest chyba na podstawie musz klienta
więc jak ktoś w Walter Eona gra
to tutaj będzie
aplikację kojarzył.
Oprócz tego jak zwykle są nowe zakręcia i umiejętności
no i system zdarzeń w grze
teraz pozwala nam ustawić
naszą strefę czasową. To jest bardzo fajne
więc jeśli tutaj mieszkamy
w Polsce a ten mod chyba gdzieś w Stanach
hostowany to możemy sobie
ustawić naszą strefę czasową i dzięki temu
nie przegapimy różnych
zdarzeń.
Tutaj o aktualizacji Brocka to już
Patryk mówił kilka typy przeglądów temu
więc teraz możemy sobie komunikaty
w grze kopiować do
schowka co za tym idzie
dzięki temu na przykład możemy grać
w grę po polsku więc myślę, że
tutaj wiele osób się ucieszy
jak też mówiłem demo
tej gry pojawiło się na
wszystkich dostępnych platformach
więc jeśli ktoś chce przedestawać
zanim kupi na komputerze lub na konsoli
to teraz można.
Gra Warsim w której
jesteśmy królem
dosyć dużego królestwa
też cały czas się aktualizuje to jest gra tekstowa RPG
w wersji
1.0.2 pojawił się
szybki start więc jeśli gra na początku
nam zadaje dosyć dużo pytań jeśli
chcemy jak najszybciej zacząć to możemy
sobie teraz wykorzystać ten szybki
start. Też w tej aktualizacji
możemy
nachodzić
inne nacje
no i jak zwykle
doszły jakieś nowe budynki
które możemy
wziąć i różne
przedmioty. Potem pojawiła się
jeszcze jedna aktualizacja 1.0.3
w której
możemy naszych
jakichś współpracowników
po prostu zamordować
jeśli nam się z jakiegoś powodu nie podobają
dają nam jakieś złe porady
jak ktoś chce tak grać to można
ale też zostały rozwinięte
zdarzenia związane z
Berłem Królestwa Goblinów
więc tutaj można je przejąć
i w ten sposób zyskać
sympatię Goblinów.
Też jak zwykle poprawki
różnych błędów.
Kolejny mod Classic Six Dragons
tutaj też zostały poprawione
samouczki. Tutaj też doszło
więcej dźwięków do ich
soundpacka
i klasa nekromanty
doszła do gry
więc jeśli ktoś chciałby sobie zagrać nekromantę to
może.
Sanctuary in Time
kolejna gra która została zaktualizowana
to jest też taka gra tekstowa w której
z całego
czasu
przyszłości i przeszłości
ściągamy różne
różnych wojowników do siebie.
Do gry też doszedł cały
system miłości więc możemy
zakochiwać się z różnymi
postaciami które gdzieś tam
do siebie rekrutowaliśmy. Możemy
nawet się z nimi żenić.
No i dzięki temu
doszły jakieś nowe misje
z tym związane.
Kolejny mod Altereo to już chyba wszystkim
znane. Tutaj jak zwykle też doszły nowe
przedmioty w tym razem skupione
na krawiectwie.
Nowe jakieś
przestrzenie które możemy
sobie eksplorować.
Niektórzy sprzedawcy
teraz są w stanie tworzyć
losowe przedmioty więc one są
proceduralnie tworzone więc
tutaj też więcej rzeczy się pewnie
od nich
będzie można kupić.
Kolejna gra tekstowa Techspace
tutaj znów mamy klimaty science fiction.
Dodano do gry
system Gildi. Nasza postać teraz może
dołączyć do jednej z 13
bodajże Gildi. Każda z nich daje nam
jakieś unikalne
umiejętności więc warto się na tym
zastanowić. A dodatkowo
też możemy do naszej postaci
uzupełnić jakieś dodatkowe dane biograficzne
bo to jest taka gra tekstowa RPG gdzie
możemy bardzo
szeroko sobie fabułę naszej postaci
rozpisać jeśli
ktoś by chciał. No i jak zwykle nowe statki
nowe budynki
i ogólnie nowe przedmioty.
Tak jak
mówiliśmy o grze Blind Quest o której
już dzisiaj było. Trzecia część
gry pojawiła się zarówno na iOSie
jak i Androidzie. Gra też jest
oczywiście dostępna na komputerach.
Kolejna gra tekstowa Timequest
została przepisana w sensie
nie tyle samej aplikacji
co po prostu tekstów w grze które zostały
jakoś tam poprawione. Doszło prawie z 100 tysięcy
słów.
To jest taka gra o tyle ciekawa że
zjemy kontakt z
czarodziejem który tam żyje
od lat do tyłu
i co jakiś czas on nam zadaje pytanie
co ma zrobić dalej
jeśli my mu odpowiemy no to
wykonuje jakąś czynność która jakiś czas
faktycznie zajmuje. Więc na przykład
on nas pyta czy ma pójść
w lewo czy w prawo powiedzmy bo
widzi przed sobą jakieś góry czy coś.
To my mówimy idź w prawo. No to on mówi
dobra to mi zajmie jakieś 2-3 godziny
to ja się z tobą za 2-3 godziny skontaktuję.
I faktycznie tak jest.
Po 3 godzinach nagle dostajemy
to wygląda jak taki komunikator
słuchaj doszłem
no i podejmujemy
dalsze decyzje.
Jak już raz przejdziemy to tam
są takie tryby gdzie możemy ten czas
skrócić sobie więc jeśli już chcemy
zobaczyć jakieś inne ścieżki które mogliśmy
obrać no to już później
możemy to w ten
sposób zrobić.
A propos Hearthstone’a mówiłem już wcześniej
o Festiwalu Legend co to jest następna
paczka kart. Ona już się
pojawiła. Tutaj jest
motyw muzyczny.
Każda klasa dostała nowe karty. Każda
klasa też dostała unikalną
broń. To są instrumenty muzyczne.
Jakieś gitary. Różne
takie właśnie motywy muzyczne.
A
tego jeszcze nie ma w piratynie bo to będzie w
przyszłym tygodniu ale szykuje się
czwarty sezon ustawy. Tutaj też w tym momencie
warto wspomnieć.
W którym to całkowicie zmieni się
pula
dostęp tych stronników.
Ci którzy są 58 właściwie zostanie
wyrzuconych a w ich miejscu pojawi
się 57 nowych
i 3 powracające.
Więc tutaj kompletnie zamieni nam
jak te ustawki będą wyglądać.
Ta aktualizacja
pojawi się we wtorek i wtedy już będziemy
mieli więcej informacji jak
to dokładnie
stronnicy będą. Ale te
poszczególne typy tych stronników
będą stopniowo
wypuszczane w ciągu najbliższego
bodajże tygodnia albo dwóch.
Przepraszam że mod Hearthstone Access to po kilku
godzinach jak ta aktualizacja się pokaże
zostanie zaktualizowany więc tutaj
myślę że o
dostępność nie musimy się martwić.
Przy okazji jeśli mogę coś dodać.
Jasne.
Dla mnie ta
aktualizacja Hearthstone jest bardzo
smutna ponieważ
w wyniku rotacji
rozszerzeń znika
Pierwsze rozszerzenie które
było nowe jak
dostępność Hearthstone’a wchodziła.
A to prawda.
Zjednoczeni w Ichrogrodzie już przychodzą do historii.
Bardzo dobre rozszerzenie.
Bardzo miło je wspominam. Ciepło.
Tak bo to nasze pierwsze karty.
Masz rację. Tak samo
z ustawek niestety
z powrotem znikną towarzysze którzy też się
byli dostępni jak
Hearthstone Access to dostał. No właśnie.
No niestety jeśli ktoś
chce pobawić się towarzyszami to ma czas do poniedziałku.
Więc jeśli nie wiecie
co zrobić przez weekend to…
No jeżeli komuś bardzo żal
jest
zjednoczonych no to rzeczywiście może
pograć na dziko.
Ja to nie uznaję. To już moja prywatna opinia.
No niestety nie mamy
ustawek na dziko więc towarzysze po prostu
znikną. Nie wiem czy bezpowrotnie ale
na pewno na jakiś czas znikną.
No ale to tyle ze świata gier.
W sumie jeżeli
jeszcze mogę coś na szybko dodać. Pewnie.
Jeżeli w ogóle
chodzi o gry
jest
mam wrażenie
że w pewnym sensie
kończy się już hype na
MW czyli
Misty World
czy jak to tam
dwie wersje są w sumie tej nazwy.
Bo teraz
bardzo dużo zauważam że jest
sprzedawanych postaci.
Ja też sprzedam swoją.
Już to nie gram.
Bardzo dużo ludzi zauważyło że
no jednak dużo jest w tej
grze elementów
które skłaniają nas
do ocenienia jej jako
pay to win czyli takiej gry w której
płaci się za to żeby móc
praktycznie wygrywać z innymi osobami.
Więc jeżeli
mieliśmy nawet robić o tym podcast
kolegą redakcyjnym Arkiem
ale
jakoś tak się przedłużyło i nie
wyszło a teraz już nawet nie ma o czym
zbytnio bo
no bo cóż
no widzę że
coraz więcej ludzi z tego
rezygnuje. Dobrze mi się udało jeszcze na czas
postać sprzedać.
Także jeżeli gdzieś
podawałam przy okazji mówienia o MW
swój nick i swoje ID
to ono już jest nieaktualne.
Jeszcze a propos
schowka i
kopiowanie danych ze schowka.
Mnie przez parę tych przyglądów nie było
parę ładnych i nie wiem czy
wspominaliście o programowaniu
Ditto. Tak ja wspominałem.
Dobra, dobra to okej.
Mówiłem tylko tak powierzchnie jak ono działa
bo sam
jak zresztą pisałem na forum eltenowym mam z nim
jakieś problemy i
się w nim nie odnajduję. Natomiast
no tak było wspomniane
już nazwane i podlinkowane.
No to super.
Naprawdę mi Ditto przepięknie działa
i właśnie w takich scenariuszach
się przepięknie
sprawdza bo można sobie
aplikację dodać do czarnej listy dzięki czemu
nie śmieci nam
schowka.
Ditto przechowuje mi wszystkie
elementy dosłownie od pierwszego dnia w którym
mam Ditto. Mam teraz
Mam teraz
dokładnie
500 elementów. A dobra
no to nie bo mam ustawione że mam mieć
500 ale można ustawić czas
jakby po jakim
mają być usuwane elementy. Można
ustawić liczbę elementów
w tej bazie i
i to naprawdę działa według
mnie zarąbiście.
Ale to taka
szybko właśnie wrzutka.
Chociaż
jak już jestem przy takich drobnostkach to jakbym jeszcze
mogła dorzucić.
Bo ostatnio
widziałam właśnie artykuł tylko że nie pamiętam
gdzie go widziałam
dlatego też nie linkowałam w swoich
newsach ale widziałam
artykuł o tym że
jest
prowadzone
badanie naukowe
wynikiem którego
w wyniku którego powstał
telefon z wyświetlaczem który jest
jakby fizycznie
pokazujący
różne ikony itd.
Czy przypadkiem to nie jest informacja
o której za chwilę będzie
mówił Paweł? Tak to jest dokładnie to
o ile chętnie ci przekazuję. To przepraszam
nie bo ja w sumie nie wiem nic więcej tak
naprawdę. Wiem że to ma
Instytut Carnegie Mellon
aktualnie jako swoją technologię którą
właśnie wynaleźli i się tym chwalą
że używają jakichś
zmikroskopizowanych
pomp hydraulicznych
w ogóle
i to jest jakieś tam przekazywanie cieczy
i oni właśnie tam za pomocą właśnie
takiego bardzo szybkiego
przerzucania płynu potrafią
wywołać tą
to o tym już słyszałem
nie wiem czy o tym ale właśnie
to też miało być jakieś hydrauliczne i to
chyba parę lat
temu ładnych
to za chwilę ktoś z tym wychodzi
ktoś wychodzi z jakąś taką
technologią ale właśnie słyszałem o tym
że to ma być
właśnie hydrauliczne więc
no to możliwe że ktoś
to rozwinął w każdym razie więcej
nie mam zawsze nadzieje że to mimo wszystko które z tych
z tych pokazów to gdzieś w końcu
zatrybisz
to ktoś gdzieś w końcu
wykorzysta i to zacznie działać ale
póki co. Tak trochę przypomina te rewolucje
w laskach
w jakimś
przywracaniu wzroku w sumie tak
i tak i nie
to chyba po prostu są na razie
technologie które pewnie działają w laboratoriach
natomiast
no trudno to zaprząc
nie wiem w smartfonie działającym
żeby to się
nie było zbyt drogie
żeby to rzeczywiście działało żeby to się nie psuło
i tak dalej
więc no
jeżeli chodzi o te laski
no ale nic no w sumie
przepraszam też za to że mieszam tutaj
ach nic się nie stało
nic się nie stało
jest jak najbardziej okej
ja już też teraz zakończę
te flowieści
z zabawnym
akcencikiem
no bo my narzekamy sobie w Polsce na to że
ludzie nam zostawiają linie prowadzące walizkami
ale może tych linii po prostu nie ma
bo dofinansowania
nie styka albo ktoś o nie pomyślał o tym żeby zrobić
no w Australii mają zgoła inny problem
bo tam
ptaki kakadu kradną
oznaczenia
tak i
policja w Sydney
próbowała się dowiedzieć
o co chodzi
badali to i rzeczywiście
znaleźli grupkę
takich ptaszków tamtej
tamtejszych lokalnych
które sobie wydziobują prawdopodobnie
nie wiem jak to jest możliwe
jak wyglądają te australijskie oznaczenia
może to nie są te na ziemi tylko jeszcze jakieś inne
ale
jakaś część tej infrastruktury dostępnościowej
jest właśnie rozdziobywana
przez ptaki
no i jest filmik
możecie
jak ktoś widzi spojrzeć
jak nie to pokazać komuś widzącemu
tam nic na tym filmiku nie jest mówione
więc no ja też z niego nie jestem w stanie
wiele wyciągnąć natomiast z opisu wynika
że ptactwo
wandalizuje
po prostu dworzec kolejowy
i tą infrastrukturę sobie
pałaszuje
no więc
także wychodzi na to że kakadu nie tylko mówić umie
jeszcze kilka innych ciekawych rzeczy
o których można
powiedzieć
rozdziubią nas kakadu
tak
to skoro Paweł jesteś w przygłosie
to pierwszy niósł w technikaliach też należy do Ciebie
proksy służące
do obsługi poczty z out
na starych dobrych
protokołach o co chodzi
a no chodzi
o to że
wiecie jak jest teraz
z pocztą że teraz wszystkie
współczesne serwisy w których możemy
sobie pocztę założyć czyli właśnie gmail
no yahoo
outlook takie międzynarodowe
wycofują się powoli ze wspierania
imapa pop 3
i tak dalej tych protokołów takich
otwartych i idą w taką
własnościową autoryzację kont po
api
i do udostępniania poczty
w ten sposób
no i jest sobie
proksy dostępne na
wszystkie platformy bo i macie linux
i windows nawet
które można sobie postawić na komputerze
można
w tym proksy zautoryzować
właśnie że te
nasze konta które my potrzebujemy
i do których chcemy mieć dostęp
po czym to proksy oferuje nam
dostęp do tych kont z poziomu imapa
więc jeżeli mamy jakiegoś klienta poczty
który tylko i wyłącznie działa
przez imap lub pop 3
no to można takim
programem
przepuścić go i żeby on
sobie działał dalej no więc ja
takie rozwiązanie podrzucam link na githuba
jest w komentarzu
będzie pod audycją
no i to w zasadzie raczej tyle
swoją drogą ciekawe
jak autorowi się to udało
sprawić żeby to
rzeczywiście działało bo nie wiem czy
pamiętacie ja chyba
o tym wspominałem
a na pewno o tym czytałem jakiś czas
temu nie wiem czy pamiętacie taki
program pegasus mail
którego
autor miał
problem i
w związku z tym problemem
tak naprawdę
miał w planie zawiesić
w ogóle pracę nad pegasus mailem
dlatego że
no właśnie to było
w związku z tym co google planowało czyli
przejście z tego mechanizmu
OAuth a właściwie z tego
mechanizmu login hasło na OAuth
no i ktoś mógł powiedzieć
fajnie bo to jest
bardziej bezpieczne
i w ogóle
natomiast co się okazało
że przynajmniej temu autorowi
nakazano
przeprowadzenie takiego
jakiegoś audytu aplikacji
pocztowej właśnie tego pegasus maila
no tylko
przez pracowników googla no tylko ten
audyt nie był darmowy
ten audyt wiązał się z jakimś kosztem
i to wcale nie takim małym chyba 10 tysięcy
dolarów albo
jakoś tak więc no
autor stwierdził że to jest
program który on rozwija w wolnym czasie
to jest aplikacja za którą
absolutnie nic nie chce
aplikacja darmowa
no więc mu się to zupełnie nie opłaca
zastanawia mnie
jak w takim razie
no jest
zadziałało to że autor tego
narzędzia proxy
mógł coś takiego zrobić a autor pegasusa
tego zrobić nie mógł
być może kwestia jest taka że
o ile dobrze pamiętam to pegasus mail
na przykład nie jest programem
open source ten program ma kod
zamknięty ale on jest
za darmo udostępniany
co nie znaczy że gdzieś tam sobie ten kod
można podejrzeć albo może
jeszcze jakieś inne powody
tu
były dlaczego google
nakazał uiszczenie mu takiej opłaty
natomiast jeżeli ktoś
no korzysta właśnie
z pegasusa bo tak się zastanawiam
w dzisiejszych czasach do czego
komuś mogłoby się to
wydać
ja widzę
przynajmniej jedno zastosowanie jak ktoś na przykład
ma jakiś starszy
notatnik brajlowski
bo te klienty
często nie mają wsparcia dla
tego oaw
czyli sobie to gdzieś na serwerze
takim na windowsie powiedzmy
jako serwerze postawić
albo nawet na skoro to jest dla linuxa
to też gdzieś w sieci
i po prostu tam się potem do tego dobijać
do tego naszego konta
no to jest jakaś
to jest rzeczywiście
no i właśnie takie programy już nie bardzo rozwijane
jeżeli chodzi o
pocztę a ktoś na przykład
ktoś bardzo lubi outlook expressa
o tym samym pomyślałem
a są chyba jeszcze tacy
którzy lubią outlook expressa
no bo program prosty
robił to co miał robić
a pegasus mail był dostępny?
wiesz co
był dostępny kiedyś
w dzisiejszych czasach to nie wiem
ale skrypty
na przykład do window ice’a
do jossa dla pegasus maila
były i tam gdzieś w latach 90
to pamiętam że
byli niewidomi użytkownicy
którzy korzystali z pegasus maila
i sobie to chwalili
ja coś próbowałem kiedyś się trochę
pobawić tą aplikacją
i jakoś mnie
nie zachwyciła
nie pamiętam już teraz z jakich względów
natomiast większość rzeczy
tam zrobić się dało już
no to było już dość dawno więc
naprawdę nie pamiętam co mi tam się w niej nie podobało
okej
i już jestem
i chyba taki
news na który podejrzewam że
kilka osób mogło czekać przez większość audycji
czyli
eleven loves dostępny po polsku
w końcu można powiedzieć
a premiera to się tak trochę przekładała
przekładała to znaczy oficjalnie
informacja była tak
aż w momencie
prawdopodobnie w pierwszym kwartale
tego roku
no i w zasadzie się
udało
natomiast
takich wiążących tutaj obietnic
nie było w zasadzie w ogóle nigdzie
więc jakby
tutaj trudno mówić o jakichś
terminach których się udało
nie utrzymać
no nie mniej mamy w końcu głosy od
eleven loves w języku polskim
to co na początku
czyli
dzisiejszy nasz
skrót wiadomości
tego co będzie w tyflo przeglądzie
no to właśnie przedstawił nam jeden z głosów
eleven loves który
został wygenerowany co ciekawe na podstawie
głosu Michała który zresztą czytał
właśnie newsy do któregoś
z tyflo podcastów
że średnio to podobne
wyszło
i on jeszcze w dodatku w międzyczasie
jakoś stracił zapał
tak sklęsł i ja mam w ogóle wrażenie
że te głosy
od eleven loves niektóre
bo nie wszystkie mają taką tendencję
ale niektóre mają
że coś im się dzieje w trakcie
czytania na przykład wygenerowałem
też kiedyś jakiś głos
i puściłem mu kawałeczek książki
na początku czytał dobrze a potem
zaczął mieć to w rodzaju chrypy
i ta chrypa
się powiększała
temu głosu
też to zauważyłam
często jeśli chodzi o takie typy głosów
dlatego jest w sumie też ten limit 2500 znaków
ale wiesz co to nawet
szybciej się zaczyna dziać
to się po kilkuset znakach już zdarza
co ciekawe
co ciekawe
na stronie jest napisane że im dłuższy tekst
powinno być lepiej
no to tak do pewnego momentu jest lepiej
a potem jest gorzej właśnie
więc jeżeli ktoś chce naprawdę
mieć fajnie wygenerowane teksty to
no
tak tak
ale może lepiej jakieś bazowe rzeczy opowiedzmy
najpierw
tak natomiast no mówię o tym
co tu się wydarzyło w trakcie czytania
i tak
może
ktoś się zastanawia
jak w ogóle skorzystać z tych głosów
w języku polskim
bo domyślnie
włączony jest
uruchomiony
aktywny jest taki model
który jest tylko w języku angielskim
żeby go przestawić
trzeba
ja sobie może wejdę
na stronę po prostu
eleven labs
pokazać choć jest
z tym kilka problemów ale spróbuję
mimo wszystko to zrobić
to w międzyczasie może jeszcze takie
zupełne podstawy
jest strona
beta.elevenlabs.io
chyba
tak i to jest strona
na której zakładamy konto
i mamy jakiś tam pierwszy swój limit
nie pamiętam ile to jest 30 tysięcy
znaków czy ileś tam
w wersji darmowej
też mówiliśmy o tym
jak zaczął się
w ogóle eleven labs
no tak to też prawda
i możemy sobie wykupić
różne pakiety z różnymi limitami
no to już jest
oferta stacjonarowa to już jest druga rzecz
i teraz możemy tak
albo korzystać z głosów, które już są
przez nich zrobione, tych głosów jest
koło dziewięciu
i te głosy właśnie mogą czytać po angielsku
mogą czytać w jakimkolwiek obsługiwanym
przez
eleven labs języku
zarówno jak i wszystkie głosy
ale możemy sobie też
wygenerować głos zadając
mu parametry takie jak płeć, akcent
wiek i tak dalej
a możemy również sklonować
głos czyli zrobić to co
dzisiaj zrobił Tomek
klonując Michała, który
przeczytał nam właśnie hedy dzisiaj
przy czym klonowanie
jest tylko
dla płatnych użytkowników dostępne
tak
no i właśnie ja sobie założyłem konto
wykupiłem sobie jeden z tych
płatnych pakietów, żeby można było to zrobić
i logując
się na stronę
od razu mam na dzień dobry
już to
jakby to
pole do wpisywania tekstu
oczywiście wcześniej mam kilka przycisków
jakieś tam otwierające menu, otwierające
opcje, coś tam jeszcze
natomiast jest potem taki
nagłówek
nagłówek poziom 6
przycisk menu zwinięte rozwijane midi tyflo
ja sobie tak nazwałem ten głos
przycisk zwinięte
przycisk eleven multilingual
no właśnie i to jest
to jest
taki przycisk, który teoretycznie ma
otworzyć
model
czy w zasadzie wybór modelu
różnie to działa
i to jest domyślnie wybrany
model, czyli nie będzie
czegoś tak jak u mnie, że
przycisk eleven multi
V1 tylko będzie monolingual
V1 i tu jest
opisnego modelu, że to jest model dla języka
angielskiego, który wspiera różne
style wypowiedzi
w ogóle i w ogóle
i jest potem napisane
języki
angielskie i potem
eleven multilingual V1 experimental
generateli felikesperhin multiple language and
related content
i tu jest napisane, że
ten wielojęzyczny model jest
na razie w formie eksperymentu
no i teraz taki model właśnie
wielojęzyczny, gdzie
gdzie tych języków jest
kilka właśnie
i tu
jest napisane, że
ta konwersja
głosu to jeszcze ma być
jest napisane
języki
no właśnie
tu są wypisane te języki
jest napisane to, co rzeczywiście się
sprawdza
cyfry mogą być i w przypadku języka
polskiego są odczytywane nieprawidłowo
i że prosimy
wypisać te cyfry
liczby i cyfry
tak jak się je pisze, czyli
czterynaście napisać
w związku z powyższym, żeby
w ogóle działał język, trzeba zmienić
ten, wybrać ten przycisk, który
u was będzie
nazywał się
Eleven
Monolingual V1
na Eleven Multilingual
V1
no chyba, że słuchajcie
Słucham?
Czuze model też się może nazywać
aha, ok
aha
to u mnie się, możliwe, że dlatego, że
wcześniej założyłem
kontno i mi wybrał domyślnie ten
mono, nie mam pojęcia
też jest napisane teraz V1, bo
być może za jakiś czas wejdą
kolejne wersje V2
V3, V tam ileś
no i być może wtedy
będzie to wyglądało inaczej
no i
następnie mamy
tu sobie wpisałem
już ten tekst, który ma być
wygenerowany, zapomniałem
wygenerować tego ostatniego
to zawsze Michał
mówi przed, znaczy na końcu
tych zapowiedzi
więc musiałem zrobić kolejną
wypowiedź z tym właśnie
czyli tu jest napisane, że
wpisz lub wklej tekst
tutaj
i za pole edycji
mam napisane, że
został mi, że mam wpisanych
pięćdziesiąt kilka znaków, został
z w sumie dwóch tysięcy pięciuset
które mogę wykorzystać
zostało mi jeszcze w tym miesiącu osiemdziesiąt
ileś tam tysięcy znaków do wykorzystania
kupiłem sobie taki, no większy trochę
pakiet
a nawet masz pięć tysięcy, jak masz wygrupiony pakiet
tak, rzeczywiście pięć
tysięcy, tak
i następnie mam
przycisk, no
który po prostu generuje
wypowiedź, no i potem
już są jakieś tam linki typu
blog
i tak dalej, i tak dalej
więc to jest jakby taka najważniejsza
część
jest
jeszcze coś takiego, czym się polecam
troszkę pobawić
jak
voice settings
rozwijam go enterem
i tutaj póki co
lepiej jest wyłączyć tryb przeglądania
suwak jeden
to jest pierwszy suwak, który
ma określić
suwak zero trzy
to default
są jakoś inaczej te suwaki
ja już wiem, czemu się ten głos tak sklęsł
chcecie można jeden
tak, ale powinien
ale wydaje mi się, że go wcześniej
miałem na inną wartość
on cię resetuje
ja nie wiem, czy te suwaki
nie zostały zamienione
stability, przycisk rozwinięty
stability, pusta, more variable
more stable
nie wiem, w każdym razie
jeden z tych suwaków
suwak jeden
możliwe właśnie, że ten, nie wiem dlaczego
mam go ustawionego źle, możliwe, że rzeczywiście
się pozamieniały
suwak 075
suwak 070
w każdym razie, możliwe, że ten pierwszy
suwak odpowiada za
taką kreatywność
w intonacji
im suwak jest wyżej
tym
ten cały algorytm
bardziej się pilnuje, żeby to było wszystko
poprawnie
tak zgodnie ze sztuką
i żadnych
odchyłów
to może skutkować tym, że to będzie
czytane w taki sposób trochę mechaniczny
bezemocjonalny
że tak powiem
bardzo taki
słuchawczy
im niżej, tym ten głos
będzie miał z jednej strony więcej emocji
ale możliwe, że ten głos
nagle zacznie się zachowywać
w sposób nieco bardziej
nieprzewidywalny
może na przykład
o tu tylko zegar
zaczyna bić
dwunastą
jeszcze kilka niósł przed nami
witamy w sobotę
tak jest
ten głos może się zacząć jąkać
może zacząć wydawać z siebie dziwne
dźwięki
ale raczej nie takie dzwony
no nie, raczej nie
chociaż w sumie ciekawe jest to, co by było gdyby dać zegar
jako próbkę do kronowania
głosu, tam dawałem mu różne rzeczy
w wiolonczele również
zegara jeszcze nie dawałem
no w każdym razie
i z wiolonczeli wyszedł normalny głos
także ze wszystkiego jest w stanie
to co jest robić normalny głos
w każdym razie
no naprawdę to coś potrafi
dziwnie ten głos
czasami
zrobić
z drugiej strony właśnie takie ekstremalne ustawienia suwaków
mogą spowodować, że
ten styl wypowiedzi
będzie trochę taki, jakby ktoś o czymś tak opowiadał
przed kimś, to znaczy, że wpiszemy
tekst, który zostanie
nie przeczytany
przez syntezator, tylko tak wypowiedziany
jakby on sobie wymyślał to
czyli tak jak teraz mówimy
sobie te wszystkie rzeczy
w tyflo przeglądzie, zastanawiam się
co powiedzieć, jak powiedzieć
to czasami ten syntezator może
w ten sposób zacząć
działać
I to dosłownie naprawdę działa
i te suwaki mają sens, ja taki dam przykład
z tego weekendu właściwie
a propos tego Game Jamu, tam były dwie
gry, których autorzy
użyli Eleven Labs
z czego jeden to była taka
gra, w której wcieliliśmy się
w starszą kobietę, która rozdawała ludziom
książki, taka fajna fabuła, tylko tam
te suwaki chyba były wystawione bardzo na prawo
i ta cała gra była
w takim głosie monotonnym, no te głosy
były takie ludzkie, ale cały czas
mówiły w jednym tonie i to bardzo
wyciągnęło z tej fabuły
już bym wolał, żeby mi to
nawet screen reader czytał, a była
inna gra, w której też
właśnie głosy były z Elevena
tam byliśmy w jakiejś ciemnej
w ciemnym jakiejś jaskini
no i musieliśmy się z nimi
wytoczyć i mieliśmy kontakt tam
z naszymi kolegami przez radio
i tam te suwaki już były ustawione
niżej i tam naprawdę
było, ile wam zajmie
zanim dojdą mnie do dzieci? 4 godziny
4 godziny? Serio?
Tak naprawdę
wiedzieliśmy, że to był Eleven Labs
po prostu tą głosy poznaliśmy w domyśle
ale
ta intonacja była
naprawdę świetna
Także no
bardzo różnie
bardzo różnie
to działa, no i
w tym modelu
wielojęzycznym
to klonowanie głosów jeszcze takie
jest powiedzmy
średnio udane, ze względu na to, że
no przynajmniej w polskim języku
tam podobno nie jest zbyt dużo
jeszcze wrzuconych
mówców, bo im więcej
im więcej jest tych
mówców, tych głosów w bazie
tym jest większa szansa, że
głos będzie
no bardziej podobny do oryginału
Na tym blogu, o którym
tutaj już wspominałem
z tymi zabawami ze sztuczną inteligencją
są na przykład
wrzucone do Eleven Labs
próbki z Apollo
i te
Apollo zupełnie nie mówi jak
Apollo, to słychać, że to troszkę
tak mówi jak Apollo
ale to słychać jakby jakiś lektor
miał
troszeczkę takie
no taką nieco podobną
barwę do Apollo w pewnym sensie
znaczy, tak jakby Apollo
to trochę
brzmi tak jakby Apollo zrobili
z jakiegoś lektora
w pewnym sensie i to był ten oryginał
z którego został zrobiony Apollo
i ten oryginał
jest dość ludzki, że tak powiem
i w ogóle
jak wrzucałem jeszcze do tej wersji angielskiej
na przykład syntoka
to też to brzmiało trochę jak
ktoś na takich przyspieszonych obrotach
ale mówiący z jakąś
intonacją, mimo tego, że syntok nie miał
intonacji absolutnie żadnej
kiedy wrzucałem
kawałek
historii filozofii po góralsku
Tischnera, czytanego przez Tischnera
po góralsku
no to też nie przypomina
to nie przypomina zupełnie Tischnera
może troszeczkę
no i absolutnie nie ma nic
góralskiego
więc
trudno, im bardziej
ten głos jest jakiś charakterystyczny, gwarowy
zwłaszcza, tym większa jest szansa
że nie będzie
to wszystko poprawnie
przetworzone, jeżeli to jest głos
rapujący
to rapowanie też
najprawdopodobniej nie zostanie tutaj przetworzone
i też zostanie
po prostu
ten głos będzie taki
może w pewnych aspektach
podobny do oryginału, ale
w pewnych aspektach nie będzie podobny do oryginału
co ciekawe jest kilka głosów
które gdy się wrzuca
to są zwłaszcza głosy znanych lektorów
których jak się wrzuca tam
do klonowania głosu
to te próbki
jak najbardziej są podobne do oryginałów
oznaczałoby to, że
w Eleven Labs
możliwe przynajmniej, że
tych lektorów tam
mają w bazie głosów
z jakiegoś powodu
też gdzieś pisali
na Discordzie, że
sukcesywnie będą te modele
uzupełniać o nowe głosy
i możliwe, że
za kilka miesięcy
to się będzie
poprawiać
jest też możliwość zapisania się
do
takiej usługi, która
pozwoli sklonować nasz głos
w znacznie bardziej dokładny
sposób, będzie to polegało
na tym, że to będzie przeczytać ile jest zdań
trochę tak jak się to
robiło na przykład w tym projekcie Common Voice
i wtedy podobno
rzeczywiście ta jakość
tego głosu sklonowanego
te głosy będą
bardzo, ale to bardzo bliskie
oryginałowi
i coś takiego
będzie możliwe chyba
od czerwca
testował to chyba
Darek Marchewka i problem polega
na tym, że tam jest taki element
weryfikacji głosu
chodzi o to, żeby było absolutnie
pewne, że ten kogo
głos się w ten sposób klonuje
wyraził na to
zgodę taką zupełnie świadomą
i tam jest generowane
z tego co wiem przez jakiegoś
czata GPT czy coś podobnego
jakieś zdanie losowe
które należy przeczytać
i to zdanie
jest wygenerowane w taki
sposób, że jest to niedostępne
dla czytników ekranu
o ile mi wiadomo, ja sobie się tego
jeszcze nie testowałem
choć kusi mnie, żeby sobie
sklonować głos
i zobaczyć co z tego wyniknie
może mi się kiedyś to przyda
nie wiem, w każdym razie
ciekaw jestem
no i
no właśnie, ciekaw jestem
jak to będzie wyglądało
także zachęcam do zabawy
zachęcam do
spojrzenia sobie na tego bloga
zachęcam do wpisania
okazji Eleven Labs w YouTube
tam też można sobie posłuchać
różnych głosów, co prawda
częściej tam widzę
głosy z jakichś gier
z jakichś anime, ewentualnie
właśnie głosy sławnych ludzi
którzy zostały przez to wszystko sklonowane
natomiast na tym blogu, o którym mówiłem
to jakby abstrahując już od treści, które tam są
wygenerowane, to głosy
które tam są użyte, to są
nie raz i nie dwa znane
wielu
ludziom z tak zwanego
środowiska, bo to są właśnie
nie raz jakieś syntezatory mowy
tudzież osoby, które
które słychać, może
ktoś na przykład głos kogoś
z nas sklonuje, zobaczymy
na blogu
w każdym razie
no to chyba tyle, jeżeli chodzi
o Eleven Labs, być może
Eleven Labs pojawi się jeszcze kiedyś, czy w Robotkaście
bo, no
jest to naprawdę już
taki syntezator, który jest w stanie
przeczytać takie rzeczy
jak newsy w taki sposób
bardzo ładny
i warto wspomnieć o tym, że nawet jeżeli ktoś
miałby ochotę używać tego w jakiś
komercyjny sposób, to nawet
i za te 5 euro
czy tam dolarów na miesiąc
to można pod warunkiem,
że
gdzieś tam da się
wzmiankę, że materiały zostały
stworzone właśnie z użyciem
Eleven Labs, bo tak właśnie
teraz zajrzałem do cennika
a to wcale nie jest
taką oczywistą rzeczą
w przypadku innych syntez
to nie jest
tak, że każdą syntezę
można sobie wykorzystać
jakbyśmy tylko chcieli i gdzie byśmy
tylko chcieli, to
w różnych takich
sytuacjach, jeżeli na przykład tworzymy
jakieś materiały, to
no to czasem
to różnie z tym
może być, zwłaszcza jeżeli mają być
to na przykład jakieś produkcje komercyjne
Tak, natomiast
z tego co mi wiadomo, jeżeli
się kupi już ten wyższy pakiet za 22
dolary, to tam chyba tego
ograniczenia
powiedzmy nie ma, to znaczy nie trzeba tam
wspomnieć, że to zostało wygenerowane
przez Eleven Labs
to jest jedno i tam chyba dostajemy trochę wyższy
bitrate, to znaczy pliki
są generowane w MP3 96
kilobitów, a nie w 64
w tym wyższym pakiecie, tak mi się
wydaje, także
jest kilka różnych opcji
jeżeli komuś jest to
potrzebny znacz pakiet za chyba 300
dolarów, gdzie jest 2 miliony znaków miesięcznie
więc tam już można wygenerować
jeśli dobrze
liczę, ze 4
konkretne książki
więc można by powoli robić
nie wiem, wydawnictwo
jeżeli komuś by się
chciało, a za
300 dolarów, czyli powiedzmy
1300-1400
złotych, nagrać 4
książki, to dużo
to znaczy, to jest naprawdę
to są naprawdę bardzo małe pieniądze
jak na 4 książki
bo no akurat pracuje
w takim miejscu, czyli w
storyboxie, gdzie się takie książki wydaje
i no
lektor
sam lektor
no to byłoby to
podejrzewam
no to byłoby to
prawdopodobnie
sam lektor, to były większe
pieniądze, plus realizacja tego
plus jakaś obróbka tych plików
natomiast tutaj dostajemy pliki, które
są dobrze zrobione
tylko trzeba uważać, żeby nie przesadzić
z tymi emocjami, trzeba sobie
wyznaczyć
jakąś fajną wartość tego
suwaka, no i też
zwłaszcza takie
momenty, kiedy coś się dzieje w książce
jakieś dialogi
trzeba coś dokładnie
zaakcentować, tu coś się dzieje
tu akcja troszeczkę
jest no
taka mniejsza, tu jest jakieś
napięcie, tu coś
no to ten algorytm
ma z tym jeszcze nieraz problemy
nie zawsze dobrze
akcentuje co, gdzie się dzieje
że ktoś coś krzyczy, że ktoś
coś mówi szeptem
no to bardzo różnie to bywa
natomiast jeżeli
jeżeli ktoś ma książkę
jakąś taką powiedzmy
nie wiem, popularnonaukową
czy jakąś książkę
czy jakiś tekst, który opisuje jakieś tam
różne rzeczy, to jak najbardziej
taki syntezator wygenerowany
z Eleven Labs może się do tego
nadać.
Też jeśli mogę trzy swoje
grosze dorzucić
to tak
pierwsza rzecz, przetestowałam
i wiem, że
Eleven Labs jest w stanie
odczytywać
znaki unikodowe
z innych alfabetów
znaczy z innych, no tak
z innych systemów pisania
i co prawda
jakby nie są one odczytywane
nawet z transliteratem
bo jakby transliterat
no w zależności jest od języka
ale jakkolwiek
jest na to reakcja
ja teraz nie chcę udostępniać, bo bym musiała
się bawić w całe
udostępnianie i
pokazywanie syntezy i tak dalej
ale
ale jakby widziałam, że
znaki
które są na przykład
w cyrylicy w pewien sposób
przełożył na ten nasz
alfabet i przeczytał to tak
bardzo fonetycznie, ale jakkolwiek przeczytał
więc według mnie
to jest duży plus
druga rzecz to jest
to, że
właśnie
matko, co ja miałam
a, że jeśli chodzi o te emocje
to
mam wrażenie, że bardzo dużo jest tutaj
postawione na audiobookach, jeśli chodzi
nawet o, w sensie
o treść
tego, bo
wpisałam sobie tak dla Hecy
jakby
dialog pomiędzy
rodzicami, a dzieckiem
i właśnie to, co
powiedziało dziecko
na tym
pierwszym słowaku z cyrylici, oczywiście
na zero, było właśnie
powiedziane takim głosem piskliwym
więc faktycznie udało się zachować
ten realizm
takiego zwykłego audiobooka
i coś jeszcze miałam
ale, ale już nie pamiętam
a z ciekawości
na jakich alfabetach to
testowałaś Paulino, jeżeli
chodzi o te różne
nietypowe, nie z
alfabetu łacińskiego znaki, na przykład
z jakimś japońskim, chińskim
testowałam na koreańskim
kolega testował też na japońskim
no właśnie na cyrylicy
testowaliśmy i
wszystko jest ok, w sumie
próbowaliśmy emotek
w sensie emoji
A to też ciekawe, co by z tego
wyszło. Ciekawi mnie, czy to by cokolwiek dało
szczególnie, właśnie myśmy
sobie tak wymarzyli, że
fajnie by było, gdyby te emoji
faktycznie były w stanie sterować
nastrojem tego modelu
Znaczy z tego, co wiem
Eleven Knaps gdzieś tam myśli
o tym, żeby
można było sterować emocjami w jakiś
sposób tego
A
i właśnie mi się przypomniało, co miałam mówić
jako trzeci, jako trzeci zębroż
przysłowiowy, a mianowicie
że właśnie teraz
nam trochę nie wyszły te hedy z takiego
powodu, że dużo tam było
słów krótkich
na przykład on bardzo się wywala na słowie
dla, bardzo często właśnie
DLA czy tak
też nie wiem, NVDA
bardzo często nie wiem
jakieś NVDA
trochę po języku to tak czyta
tak dalej, więc dla mnie
workaround, czyli obejście tego jest
mniej więcej takie jak z liczbami, albo
ENVDA
albo ENVIDEA
nie wiem
jakoś
gorzej jest dla, bo
to trzeba byłoby w ogóle zastępować
to słowo, czasami też
CI jest czyta jako CI
i dlatego ja się troszeczkę
bałem trochę tego modelu
bo często
tego typu modele, które mają wykrywać
język, no to
to mają
tego typu problemy, fajnie by
było mieć możliwość
zadeklarowania, czytaj
to zgodnie z regułami
takiego, a takiego języka
bo w książkach różne się rzeczy
zdarzają, są
postaci, które mają dość
nietypowe
jakieś tam imiona, nazwiska
które trzeba przeczytać w konkretny
sposób i fajnie by było
mieć możliwość
kontroli, no bo to z tego co
wiem, to ma być syntezator
do wykorzystywania
jak najbardziej komercyjnego
i takiego wykorzystania właśnie
przez ludzi, którzy mają
naprawdę duże wymagania co do tego
jak to ma być wszystko
czytane, no i tutaj
nie powinno być takiej sytuacji, że
oj, zwykłe
słowo jest czytane dziwnie
i w sumie nie wiadomo co z tym zrobić, bo
bo będzie to po prostu dziwne.
No błędy takie jak Marsiuka powinny nam już coś
mówić, albo Trojan
zamiast Trojan
albo
co najbardziej mnie śmieszy w ogóle
ze wszystkich tego typu
Urząd Morski uwiła się
do tej pory obecny w
Paulinie Microsoftowej i Adamie.
No, także
no to
to są niestety problemy jak
ktoś chce zrobić
produkt, który ma wykrywać
różne rzeczy, no bo
nie powiedzieliśmy jeszcze w sumie tego, że
gdy już wybiorę
ten model
multilanguage, to tu po prostu
wystarczy, że wpiszę tekst po
polsku i on będzie
czytany po polsku. Nie muszę
wybierać języka, w który muszę to
wpisywać.
Po prostu wpisuję tekst.
Jeżeli potem napiszę tekst
po hiszpańsku, on się
przełączy na hiszpański. Co ciekawe,
czasami jest tak, że
jeżeli właśnie piszę coś po
polsku, potem mam, nie wiem,
cztery zdania po angielsku i znowu po polsku,
to te pierwsze zdanie po
przełączeniu, syntezator
czasami ma
jakieś ślady tego poprzedniego
języka, co też
nie jest zbyt dobre. No i mówię
fajnie, by było mieć możliwość takiego
sterowania, tu ma być
polski, tu ma być angielski,
tu ma być szwedzki, a tu ma być
napisane tą całą ipą,
czyli tym alfabetem fonetycznym,
jak to ma
być czytane.
Ja nie wiem w ogóle, czy on nie obsługuje
tego właśnie ipa.
Nie jestem pewien.
Gdyby tak było, to możliwe, że też by
było fajnie.
Słuchajcie, tymczasem
godzina późna, a do nas jeszcze
dzwonicie. Tym razem Piotr jest
z nami. Witamy cię Piotrze.
Cześć, witajcie. Słychać mnie?
Słychać.
Słuchajcie, bo akurat
przeczekałem ten
Teflon
przegląd aż do Eleven Labs
i w temacie chciałem powiedzieć,
że no niestety, ja dzisiaj
się próbowałem tym pobawić, ale przy okazji
zobaczyłem ceny i chyba nie jest
tak optymistycznie, jak Tomek sądził,
bo te trzysta trzydzieści dolarów
to jest za pięćset tysięcy
znaków, a za dwa
miliony dolarów to tam jest skontaktuj
przepraszam, dwa miliony znaków
to tam jest skontaktuj się z nami.
Właśnie tak się zastanawiam.
Bo
tam ta
kolejność tych wszystkich
znaków jest dość nietypowa
i z tego co wiem, to jest
właśnie w ten sposób, że skontaktuj się
z nami, to jest model Enterprise,
w którym w ogóle
można mieć
jakiś oddzielny serwer do tego,
można mieć support,
można mieć coś tam jeszcze,
jakieś głosy dla siebie
specjalnie tworzone
i to jest zdaje się od pięciuset
w ogóle dolarów to tak na start
i to jest
i to jest jakby coś dla
dużych firm, które robią
bardzo dużo różnych rzeczy
i wtedy jest w ogóle
plan robiony zupełnie
oddzielny dla firmy, to trzeba
wynegocjować już z nimi.
Czyli rozumiem, że ty wykupiłeś to
za dwadzieścia dwa i to jest sto tysięcy.
Tak i to jest sto tysięcy. A w takim razie ta strona jest
troszeczkę mylnie zrobiona.
Tak, bo ta oferta, ja też właśnie jestem
na tym cenniku i
te dwa miliony są jakby poniżej
tego przycisku do zakupu.
Więc to rzeczywiście
może być wyjątkowe. Więc tak jakby wychodziło, że dziesięć
potem zakup za te pięć tam dolarów, potem
dziesięć tysięcy. Tak, tak, tak.
Z tego co wiem to wygląda.
No to trochę mnie to zmyliło,
to przepraszam. Tak mi się wydaje chyba, że coś
zmienili, ale tak mi się wydaje, że to właśnie tak
wygląda. A ja mam jeszcze pytanie odnośnie
jak wygląda z zakupem,
bo tam widzę, że jest Apple Pay i są różne
metody. Czy to jest obarowane
jakąś, jakąś taką
opłatą operacyjną, czy jak to?
Chyba nie, to sensowy strip.
Strip? Strip to się chyba nazywa.
Tak, jest taka firma. Płaciłeś
rozumiem kartą, czy jak?
To znaczy teoretycznie
Google Payem, tylko że jak się płaci Google Payem
to oni tak widzą numer karty
użytej i potem se te karty podpinają
pod swoje. Znaczy wiem,
no ja chciałem Apple Pay spróbować, ten
najtańszy, ale właśnie nie wiedziałem
czy jest jakaś prowizja, czyli dlatego
też zadzwoniłem. Chyba nie jest.
Czyli normalnie jest. Tylko, że
dopóki się nie wyłączy to będzie subskrypcja
pobierana. Tak jest. Oczywiście
non stop. Tak jest.
Okej. No to ja chyba tyle.
Dzięki bardzo. To dzięki.
Dzięki.
To co?
Przechodzimy do następnego newsa?
Myślę, że możemy.
To co? Google
udostępnia Passkeys. O co chodzi?
Do czego to się może przydać?
No Passkeys to jest technologia, o której
my już słyszeliśmy w kontekście Apple
i tego co oni chcą zaoferować,
czyli przyszłość bez
haseł.
I to jest taka autentykacja, zgenerowany klucz
i Passkeys, nawet nazywa się już po polsku
klucze, przynajmniej w implementacji Google.
Jest to klucz
wygenerowany na urządzeniu
i jest tym urządzeniem
najczęściej nasz telefon. Autentykacja
przebiega przez
autoryzację albo odcisku palca, albo naszej
twarzy.
No i klucze
takie są dużo bardziej bezpieczne
i
mniej podatne na phishing
i różnego rodzaju inne
skamy.
Ja może tutaj przeczytam
artykuł z
android.com.pl
bo na niego
się powołuję i tu jest wszystko
wyjaśnione jak to zamierza działać.
Google udostępniło klucze
Passkeys, czyli nową metodę logowania,
z której użytkownicy mogą już korzystać
na swoich kontach. Dzięki
kluczom nie trzeba będzie już pamiętać
haseł, a do
logowania zostanie wykorzystany nasz
odcisk palca czy nasza twarz.
To jednak nie do końca to samo co
logowanie do telefonu, ponieważ
klucze mają być o wiele
bezpieczniejszym sposobem,
który uchroni nas przed nieautoryzowanym
przyjęciem konta. Jak działają
klucze od Google
i jak zacząć z nich korzystać?
Passkeys, czyli po polsku
klucze, to nic innego jak kolejna metoda
logowania, która pozwala nam na
korzystanie z konta Google na danym urządzeniu.
Klucze Google
mają zastąpić nam zwykłe logowanie z wykorzystaniem
hasła czy nawet
weryfikację dwuetapową, na którą zresztą
Google
naciskało bardzo swego czasu.
Dodajmy zresztą, że słusznie.
Klucze w odróżnieniu od zwykłych haseł
nie są bowiem tworzone przez użytkownika
i nie można ich nigdzie zapisać tak,
by ktoś niepowołany mógł uzyskać do nich dostęp.
Klucze są też
odporne na ataki phishingowe,
ponieważ nie ma tu jednorazowych haseł
potwierdzających dostęp do konta,
który można przychwycić.
Klucze od Google umożliwiają logowanie
do konta z wykorzystaniem odcisku palca,
skanu twarzy lub kodu PIN
do blokadu ekranu w smartfonie.
Tworząc klucze
związane do konkretnego urządzenia,
tworzymy tak naprawdę dla
klucze kryptograficzne
jeden
prywatny i przypisany do sprzętu
oraz drugi publiczny.
Takie klucze
będzie można też tworzyć dla urządzeń,
z których korzystamy tymczasowo,
by zalogować się na przykład tylko raz.
Google będzie nas informować
o próbach zalogowania się na nasze konto,
więc tu też mówimy o zwiększonym bezpieczeństwie.
Jeżeli będziemy chcieli zalogować się
na naszym komputerze,
będzie można przypisać klucz także do niego,
a przy pierwszym logowaniu na ekranie
wyświetli się kod QR, który będziemy musieli
zeskanować telefonem.
Żeby skorzystać z kluczy od Google
do logowania, musimy mieć smartfona
z przynajmniej systemem Android 9
lub iOS 16.
W przypadku komputerów
jest to Windows 10,
macOS Ventura
oraz Chrome OS 109.
Jeżeli chcecie zacząć korzystać z kluczy
od Google, to musicie je włączyć
logując się na swoje konto i przechodząc
na stronę Google. Tu jest podany link.
No więc smartfon jest jakby
naszym kluczem autoryzacyjnym
i na nim są generowane właśnie te
klucze do
logowania nas do różnych kont,
no a ewentualnie potem możemy
powiązać z tym po koncie Google
nasz komputer. No więc
w ten sposób to działa.
Ja już patrzyłem, kiedyś podawałem tutaj
stronę paskis.io,
gdzie podana
jest lista serwisów,
które już wykorzystują Paskis.
Ja jeszcze nie patrzyłem,
czy ta lista się poszerzyła
od czasu, kiedy pierwszy raz tą stronę odkryłem.
Możecie to zrobić, ja też to może
w wolnym czasie i zobaczymy
no ile ta funkcja na ten moment jest
przydatna na takich stronach, z których
na co dzień korzystamy.
Pytanie, co w sytuacji, kiedy ten sprzęt,
który wykorzystujemy
jako klucz
dostępu, nam padnie?
Nie wiem.
Pewnie można mieć kilka, też tutaj
mnie zastanawia ta kwestia tych kodów QR.
Przepuszczam, że na przykład na Macach,
gdzie mamy Touch ID, to się
pewnie jakoś da obejść. Na Windowsie też mamy
Windows Hello i można kupić
na przykład sobie klawiaturę albo kamerkę, która
ma czytnik albo
skaner twarzy.
Ciekawe, czy też wtedy dałoby się po prostu
taki klucz na komputerze utworzyć.
Nie wiem, jak to…
No jest to na pewno ciekawe.
Telefon jest głównym narzędziem.
Tak, na to by wyglądało, że właśnie telefon jest głównym narzędziem
i ewentualnie potem podpinamy sobie jeszcze
dodatkowe
źródła. No coraz więcej
tych metod
szczęstwa uwierzytelniania się właśnie
takiego dwuskładnikowego, a tu nawet
i być może kiedyś
Google zrezygnuje z hasła
na rzecz tylko
właśnie… W tę stronę to idzie.
Tak, w tę stronę to idzie i dobrze,
no bo z tymi hasłami to są
jednak problemy. Są niby
menadżery haseł, oczywiście można tego używać,
natomiast
wycieki się zdarzają, a
w przypadku takiego klucza zdecydowanie
mniejsze jest prawdopodobieństwo.
Tylko byleby obsługiwane
były dobrze
procesy
na wypadek, jeżeli taki
klucz byśmy stracili, bo
to raczej
niewesoła sytuacja. Swoją drogą
ostatnio właśnie to też
przy okazji Authenticatora,
o którym wspominałem,
bo też zacząłem ostatnio bawić się tą aplikacją,
z niej
korzystać, to właśnie teraz
w ogóle Google wprowadziło możliwość
zabezpieczania tych naszych
kluczy w chmurze,
w tym Authenticatorze.
To tak
nawiasem mówiąc, ta aktualizacja
pojawiła się, no chyba
parę czy
paręnaście dni temu.
No to jest rzeczywiście
bardzo fajna,
fajna sprawa.
I Microsoft też ma tego,
ten swój Microsoft Authenticator,
to się tak ta aplikacja nazywa.
I one są kompatybilne ze sobą,
bo jeżeli na przykład podoba ci się
bardziej Microsoft Authenticator,
możesz korzystać z niego,
a jeżeli na przykład
podoba ci się aplikacja Google’a,
to do logowania się do Microsoftu,
do konta Microsoftu, możesz używać
aplikacji od Google’a.
Wiele managerów
hasłów też ma takie funkcje, chociaż tutaj
ludzie uważają, że generalnie
tych rzeczy nie powinno się łączyć, ale na przykład
w tej scenie to Beachwarden,
którego używam, też ma taką funkcję.
Muszę się tym pobawić w sumie,
poustawiać sobie to.
No i mam nadzieję, że
oczywiście za jakiś czas te hasła
no to będą już
takim czymś, co
o czym już się zapomina.
Natomiast ja mimo wszystko powtórzę to, o czym mówiłem
bodajże w poprzednim Tyflo Przeglądzie.
W naszym przypadku,
mimo że jest to jednak
pewne ograniczenie
sobie tego bezpieczeństwa,
to jednak jeżeli decydujemy się
na uwierzytelnienie dwuskładnikowe,
to mimo wszystko
warto sobie ustawić
jako taką alternatywną,
zapasową metodę coś bardziej
konwencjonalnego w rodzaju
telefonu bądź też
innego tego typu
środka. No tak po prostu
na wszelki wypadek. Jeżeli
twórca danej aplikacji,
chociażby z której korzystamy,
coś by popsuł w tych
kwestiach dostępności i na przykład
z jakiegoś powodu nie dałoby się odczytywać
tych kluczy. No jednak
mimo wszystko warto się tak zabezpieczyć.
Tak, to rzeczywiście może
być taki problem.
No ale zobaczymy, co
będzie
dalej.
Przechodzimy do Audona,
czyli no taki
Clubhouse, ale
w Fetiversum,
czyli tam gdzie Mastodon
i inne usługi tego typu.
Nie wiem, czy to można nazwać
typem.
Może to jest Fetiversum, tak jak
napisałem, że to jest właśnie taka trochę
Fetiversowa alternatywa
do Clubhouse’a.
Bo o co chodzi? To jest usługa, do
której logujemy
się przez nasze konto na
Fetiversum. Na pewno działa Mastodon,
pewnie inne pochodne też.
No i to jest
na stronie audon.space.
No i tam
logujemy się naszym
Mastodonem, ewentualnie hometown
też działa, bo ja z Dragonscave’a nie miałem
problemu, żeby się zalogować.
I tak jak to było
na Clubhouse’ie, możemy sobie
utworzyć pokój. Przy
tworzeniu pokoju możemy wpodać sobie
tytuł, opis tego pokoju, więc o czym
chcemy rozmawiać. Możemy
sobie wybrać prywatność
tego pokoju, więc możemy sobie ustawić tak,
że do niego
mogą wejść wszyscy lub
tylko osoby, które
nas obserwują lub my obserwujemy.
Albo ograniczyć
do konkretnej licy tylko
współprowadzących.
No bo obok też możemy właśnie
wpisać sobie też tutaj
niki fetiversowe
współprowadzące, które chcemy
sobie wyznaczyć.
No i taki pokój tworzymy.
Jest też opcja,
która nam pozwala ustalić, czy
usługa ma publikować
nasz pokój botem, bo on ma takiego
swojego bota, którego możemy sobie
z dowolnego kąta, czy tam Macedona,
czy z jakiejś innej strony
zaobserwować i jeśli zaznaczymy
odpowiednie pole, to jak utworzymy pokój,
no to ten bot
wyśle wiadomość, że taki
pokój jest dostępny.
No i inne osoby mogą sobie
do tego pokoju wejść.
Tak jak to jest na Clubhouse’ie,
no mówimy
my i mówią osoby, które
my wyznaczyliśmy jako współprowadzące.
Jeśli ktoś inny,
kto wszedł do tego pokoju
chciałby się odesłać, no to musi nas poprosić,
podnieść rękę, tam jest właśnie
request to speak po prostu
i my mu możemy
na włączenie mikrofonu
zezwolić.
Niestety
nie jesteśmy żadnym dźwiękiem,
nie jesteśmy żadnym komunikatem informowani,
jak ktoś o to poprosi. Możemy do tego dotrzeć
i to włączyć, jeśli o tym wiemy, no ale
o tym nie wiemy.
Jest też opcja i do tego chyba nie trzeba
wysłać prośby, żeby reagować
różnymi emotkami i na to jest
dźwięk, słychać jak ktoś taką reakcję
wyśle, no ale tutaj znów
na razie to dostępne
nie jest, aczkolwiek myślę, że
może to zostać poprawione, bo
jak ta usługa
wystartowała, to taki
monto na Mastodronie Fediverse News o tym
napisała, no to niewidomi
się na to rzucili, bo wszystko
z dźwiękiem, no to nas interesuje, no i
okazało się niestety, że
dostępność tego była słaba, bo
było bardzo dużo niepodpisanych przycisków.
No właśnie ja chyba na to trafiłem, bo
kiedy widziałem
jakiegoś newsa o tym,
właśnie o Audonie, to stwierdziłem
a, spróbuję się pobawić. Jak szybko
założyłem pokój, to
tak szybko stamtąd tak naprawdę
znikałem, bo widziałem tylko
kilka nieopisanych przycisków i
jakoś nie zachęciła mnie ta usługa
do tego, żeby się tym bawić dalej,
ale mówisz Piotrze, coś działa,
działają twórcy, tak?
Jeżeli chodzi o poprawę dostępności.
Tak, właśnie miałem powiedzieć, kilka dni później
autor
już został otworzony odpowiedni
ticket na stronie
projektu, bo projekt jest otwarto źródłowy,
no i przynajmniej te przyciski
już zostały zatykietowane, więc tego problemu
akurat nie ma. No mówię, są jeszcze jakieś zmiany, które
można by wprowadzić, ale
z tym problemu już nie ma, więc jak
już wejdziemy do tego pogoju, to właśnie możemy
poprosić o głos,
możemy się wyciszyć
lub wyłączyć wyciszenie.
No i to
wszystko działa. Jeśli jeszcze
chodzi o jakość dźwięku, to
myślę, że jest całkiem nieźle. Jest otrzymianie,
którego niestety nie da się wyłączyć, to też chyba
coś, co warto by poprawić.
Ale, co ciekawe,
jeśli korzystamy z Firefoxa,
w Chromie niestety to nie działa, no ale
jeśli wchodzimy z Firefoxa,
no to mamy dźwięk stereo.
Jest niestety otrzymiany cały czas, no ale
to testowaliśmy właśnie,
testowałem to z drugą osobą.
Ta osoba korzystała
akurat z
Chroma i ja z Firefoxem, no to on
mnie słyszał
w Chromie w stereo. Ja jego słyszałem
na początku w mono, mimo to, że miał
akurat mikrofon stereo, potem się ta osoba
wysiadła też na Firefoxa i
wtedy też go słyszałem w stereo.
Nie wiem, jak to jest w Safari.
Ponoć to na
iPhonie też działa,
ale tego nie testowałem.
Przepuszczam, że na telefonach z Android
też nie powinno być problemu, bo
Chrome te wszystkie
api, webartyce itd.
wspiera. Natomiast jeśli
ktoś szukałby takiego
narzędzia, którym można by porozmawiać
z takiej nawet całkiem przyzwoitej
możliwości, no to myślę, że warto
to narzędzie obserwować, bo
może się w jakiś
ciekawy sposób jeszcze rozwijać.
I już jestem.
Kolejny news.
Home Assistant, czyli ten
no, taki centrum
dla domowych,
dla inteligentnych domów,
pozwoli na to, żeby
takim głównym urządzeniem w tym wszystkim
był telefon
stacjonarny.
Pawle.
O, teraz
jesteś, bo mikrofon coś
nie chciał się odpalić.
No to jeszcze raz.
Więc, no tak.
Telefon stacjonarny, którego będziemy
używać jako głośnika do
asystenta głosowego, bo Home Assistant w tym roku
bardzo idzie w asystenta głosowego.
Ja nawet nie wiem.
Ty, Tomku, kiedyś się tematem interesowałeś.
Czy ten asystent mówi po polsku?
Wiemy coś?
Albo na czym jest oparty?
To znaczy,
on chyba
możliwe, że ma
spolszczenie. Nie jestem pewien
tego tak do końca.
No trzeba będzie to zweryfikować.
Natomiast, pomijając już te kwestie,
no to
dodano mu w ostatniej wersji, w ogóle w
wersjach Home Assistanta dochodzi
wsparcie dla VoIP-a.
Konkretnie dla bramki
VoIP-owskiej Grand Stream
HT810. Jest to jedna
bramka, jakich wiele,
tylko że zrobiono dla niej integrację.
Po prostu wpinamy do niej po RJC
dowolny telefon stacjonarny.
No i po podniesieniu
słuchawki możemy wydawać polecenia
asystentowi. No i to już
można sobie wyobrazić, co można wszystko
za pomocą tego robić.
Ja na filmiku, który wrzucił
autor,
słyszałem, że on tam
z tym asystentem to sobie pogawędki urządzał
i asystent udawał dla niego
Mario z gry Super Mario.
Natomiast
można tak naprawdę wszystko, bo
sterowanie domem oczywiście wiadomo,
pewnie jakieś włączenie muzyki.
Zależy od tego, co w tym Home Assistencie
sobie oskryptujemy i
jakich wstyczek korzystamy.
Tak naprawdę można by i nawet z chatem GPT
zadać przez telefon, bo
kto nam zabroni. Ja sobie zaraz wyobrażam
stare PRL-owskie telefony,
które są do tego podłączone.
No artykuł wspomina, że telefon
na tarczę nie ma problemu.
Bardzo się świetnie nada, trzeba tylko
odkopać.
I zrobisz przejściówkę, bo one już
nie były podłączone na RJC, tylko na jakieś
takie duże, stare.
Na żyły, tak, na te żyłkowe takie.
Także, no.
To jest taki news, taki bardziej ciekawostka,
ale mi się buzia uśmiechnęła,
jak zobaczyłem. Bo jakby takie
projekty, to nie jest nic nowego,
bo robienie telefonu stacjonarnego,
przerabianie go pod jakieś różne rzeczy,
to już były takie
projekty. Już kiedyś mi Mikołaj właśnie
Hołysz podsyłał, jak ktoś zrobił
z głośnika
jakiegoś tam smart
w domu, który był zamontowany, nie wiem, czy w okapie,
czy w jakiejś szafce w kuchni
i właśnie ze stacjonarki zrobił
sobie system do sterowania
Spotifyem i tam z telefonu wywoływał
playlisty, które potem
grały na głośniku
i coś tam i ten, albo jakieś
montowanie telefonów na tarczę,
żeby działały jako komórki.
Tylko to już potem ludzie to muszą się
specjalizować w tych mikrokomputerach,
czy Arduino, czy jakieś Raspberry Pi.
A tutaj to jest dość prosta
konstrukcja, bo trzeba kupić tylko bramkę.
Bramka kosztuje ponad 200 zł, co prawda.
No ale.
I to wszystko jakoś
przypiąć, ewentualnie jakieś
mądre skrypty, albo wtyczki do tego
znaleźć i będzie dobrze.
No więc fajnie.
Fajnie, że ktoś na taki pomysł wpadł.
Chciałbym zobaczyć kiedyś
implementację na żywo u kogoś.
No właśnie.
Tymczasem w komentarzach
tu jeszcze a propos poczty elektronicznej
DJ Chris do nas pisze, że
on do dziś używa Outlooka
Express. No, z niektórymi
kontami pocztowymi dalej jest to
możliwe. Z Googlem, czy z
Microsoftem, no to niestety
nie bardzo. Natomiast
z takimi, które nie mają tego mechanizmu
OAuth, a wiadomo nie wszystkie mają,
to jak najbardziej Outlooka Express
można używać.
I jeszcze tu takie pytanie od
Eweliny Piotrze do ciebie konkretnie,
bo Ewelina pyta, czy grałeś
w Blind Questa?
Grałem nawet swojego czasu.
Przechodziłem
przynajmniej pierwsze dwie części
z znajomym na streamie, no to były
streamy po angielsku,
ale to są takie gry, które ja
słyszałem twoją prośbę o podcast.
To jest o tyle
trudne, że to są gry, które
przejście jednej części
zajmuje nam przynajmniej te 3-4 godziny.
To są gry, w której
jest trochę fabuły, więc tak
zrobić podcast na wszystkie trzy części, no to
pewnie 10 godzin, pewnie więcej,
bo to jeszcze by trzeba było tłumaczyć.
Ja nie wiem, czy to nie byłoby bardziej
temat dla kogoś, kto
robi na przykład
let’s play’e na YouTubie, a wiem, że takie
osoby w naszej polskiej społeczności są,
jakby ktoś chciał
się tego podjąć.
No bo to są dosyć
długie gry.
No i
takie specyficzne,
bym tak powiedział.
To przechodzimy do następnego
newsa, tym razem mojego.
Google Chrome
pozwoli ominąć część kodów
kawcza.
Google sobie wymyśliło,
że mając
przeglądarkę,
są w stanie wykryć, czy
przed tą przeglądarką siedzi człowiek,
czy też siedzi coś innego,
że tak powiem, niż człowiek.
W związku z powyższym
to nie stronę powinny
rozpoznawać, czy
przed przeglądarką siedzi człowiek, tylko sama przeglądarka.
I
Google Chrome,
już w jakichś tam wersjach
nightly chyba, czy tam któryś
takich bardzo wczesnych,
łączy się z czymś, co nazywa się
API Private State Tokens.
Nie wiem, co to jest.
Podejrzewam, że jakoś jedna
ze składowych którejś kawczy.
Dlatego
napisałem w tytule tego newsa,
że chodzi o niektóre kawcze.
I
potrafi
w cudzysłowie powiedzieć stronie,
tudzież temu
mechanizmowi kawczy, żeby
się w ogóle nie wyświetlał, bo
przeglądarka wie, że
obsługiwana jest przez człowieka,
a nie przez maszynę.
No i dzięki temu
możliwe, że za jakiś czas
na niektórych przynajmniej stronach
może nam się kawcza nie wyświetlać
w ogóle, tylko
to wszystko zostanie załatwione przez
przeglądarkę, o ile używamy
Chroma
lub jakiejś, która będzie miał
ten mechanizm również zaimplementowany.
Nie wiem, na ile to będzie możliwe.
Ja jestem ciekawy, jak to będzie
kombinowane z tym, co Apple
dodało w tym roku do Safari, bo tam też
coś podobnego, jeśli dobrze pamiętam, doszło.
No właśnie.
Ciekaw jestem, czy to w ogóle
nie zrobi się jakiś taki trend,
że producenti przeglądarek
będą chcieli przejąć na siebie
ten, no że tak powiem,
obowiązek sprawdzenia.
Może nie obowiązek, ale
tę próbę sprawdzenia.
Czy przeglądarka obsługiwana
jest przez człowieka?
Zobaczymy.
Pozostaje też
mieć nadzieję, że używanie
czytnika ekranu
jako takiego pośrednika nie będzie wpływało
w żaden sposób.
Bo jednak podejrzewam,
że zachowanie
użytkownika widzącego jest
no nieco inne niż
zachowanie kogoś, kto posługuje
się programem odczytu ekranu.
I mam nadzieję, że te przeglądarki będą miały
chociażby jakąś taką waitlistę,
gdzie
będą takie wyjątki na zasadzie,
OK, on ma odpalonego JOS-a,
czy NVDA, czy VoiceOvera, czy TalkBacka,
no jakikolwiek program odczytu ekranu,
to słuchaj, uznaj go za człowieka.
Mimo tego, że tam
jest jakiś automat pośredniczy.
Mam nadzieję, zwłaszcza, że
niewidomi, czy pewnie w ogóle niepewnosprawni,
to spodejrzewam grupa osób,
która ma największe problemy z tymi kapczami.
Zgadza się.
Więc mam nadzieję, że to jest jakby tworzone trochę
z myślą między innymi o takich osobach.
Choć praktyka pokazuje,
że to, co jest zdroworozsądkowe
nie zawsze jest prawdziwe, więc
zobaczymy.
A tymczasem
Editor Markdown
w naszej przeglądarce.
Tak, to jest projekt, na który
natrafiłem grzebiąc po GitHubie,
pod adresem
stackedit.io
Czyli to, co Tomek właśnie powiedział.
Mamy sobie Editor Markdowna,
możemy sobie tworzyć w nim
pliki, możemy nawet tworzyć całe struktury,
pliki, foldery, tam jest taki
wbudowany mini-eksplorator.
To wszystko zachowuje się na naszym komputerze,
czy na naszym urządzeniu, w naszej pamięci.
I my możemy z tym
pracować. Wygląda to na
dostępne. Oczywiście jeszcze
niczego w tym nie napisałem,
ale widziałem, jak się pisze
i wstępnie
wygląda obiecująco, bo mamy
przyciski, które są wszędzie
opisane.
Mamy chyba nawet skróty klawiszowe
z tego, co pamiętam, do tych różnych elementów,
które możemy chcieć wstawiać, bo oczywiście
do tych różnych elementów markdownowych
są przyciski.
Mamy przeróżne typy
markdownów wspierane włącznie z tym
rozbudowanym, gdzie są tabele i tak dalej.
Są też treści matematyczne.
Jest Mermaid do
wykresów.
Są jeszcze jakieś chyba ze Stack Overflow,
stąd też nazwa Stack Edit, rodzaje
składni.
Od razu pod polem edycji
i tymi wszystkimi przyciskami mamy ramkę
osadzoną
z wysiwygiem,
z what you see, z what you get, czyli widzimy wynik
na bieżąco tego, co piszemy,
jakby zrenderowany już do HTML.
No i ma to parę fajnych funkcji,
bo z jednej strony można
plik z tego naszego Stack Edita powiązać z plikiem
w naszym koncie Dropbox,
więc tutaj można, czy też OneDrive,
czy Google Drive, więc tu można też
współpracować z innymi osobami,
które używają nawet innych edytorów
nad tymi plikami
i możemy też publikować
te pliki
na pewno na WordPressa,
używając już kilku gotowych szablonów
HTML.
Więc wygląda na to,
bo jak omawialiśmy na potrzeby podcastu
o Markdownie różne edytory,
no to się okazywało bardzo często,
że ten to jest fajny,
ale nie jest już dostępny
w internecie, nie da się go ściągnąć.
Ten to jest dostępny w internecie
i dostępny też dla czytników, ale nie wspiera
całej składni. No a tu wygląda
na to, że jest to rozbudowane,
gdzieś to też rozwija.
Jest to otwartość źródłowa, jest to open source,
więc można sobie nawet sklonować i u siebie gdzieś tam
uruchomić, jak komuś bardzo zależy,
aczkolwiek nie wiem, czy jest aż taki sens
z perspektywy chociażby prywatności,
bo i tak to jest
w przeglądarce i w naszej,
w naszym komputerze.
No natomiast
funkcjonalnie też to wygląda całkiem fajnie,
więc może warto by się
tym też zainteresować.
Jeżeli szukacie jeszcze jakiegoś fajnego
komputera markdownowego, to może
Stack Edit wam się sprawdzi.
Ja się trochę tym bawiłem
pod Chrome’em
i miałem
mały problem z edycją,
a właściwie z poruszaniem się po
większych partiach tekstu.
To znaczy on tam czasem
zaczynał czytać od początku tekst
albo na przykład, kiedy była jakaś pusta linijka,
to też czytał
od początku. Jakoś dziwnie to się zachowywało,
ale być może to jest
przypadek z Chrome’a,
na przykład może pod Firefoxem
będzie inaczej, a może
na przykład za jakiś czas
też to się zmieni, więc
rzeczywiście ten tekst jest
odczytywany, który
wpisujemy, da się z nim zapoznać,
więc ja bym
strony nie skreślał
i naprawdę myślę, że warto obserwować
co będzie się z tym projektem działo,
bo kiedyś naprawdę może okazać się
on przydatny, a być może nawet już teraz
jest.
Kolejny news
dotyczy czata
GBT, a w zasadzie konkurencji dla czata
GBT, bo takowa się
pojawiła jakiś czas
temu
i o tym Paulina więcej.
Tak,
znaczy nie wiem ile tutaj można
mówić więcej, generalnie
wypuściła
stworzyła to
organizację Hugging Face,
czyli taka
platforma, na której
można
wyszukiwać
różne modele, różne inteligencji
i tak dalej
i właśnie
Wyszukiwać i chyba stawiać jakieś tam
i stawiać, tak, tak, tak, tak, sorry,
już późno,
ale tak,
usługa nazywa się Hugging Chat
i możemy
sobie wejść tam
huggingface.co
i to
jest sobie no właśnie
coś jak czat GBT, tylko,
że open
source’owy z dobrych informacji,
czyli otwartość źródłowej,
a ze złych informacji bardzo,
bardzo biedniutki.
Ja jak
go testowałam na potrzeby
TV Przeglądu, to najpierw
zapytałam
po angielsku, czy mógłby
mi napisać kawał po polsku,
w sensie, no, po uprzednim
przywitaniu i napisał mi po polsku,
ale nie kawał, tylko wiersz
i nie rymowy, tylko biały.
To jest
jedno, a drugie napisałam
później typowo już po polsku,
napisałam mu po prostu dzień dobry
i on, ok,
jakby użył złych odmian
i w ogóle mówił jakby
bardzo niezrozumiale, ale
w taki, powiedzmy, stendoperski sposób.
On przywitał się ze mną mówiąc,
że w sumie to
ma bardzo złe warunki
w pracy i chciałby z kimś o tym pogadać.
No to ja mówię,
dobra, no to
zaufaj mi, możesz ze mną o tym pogadać.
Ale nie, no, w sumie
nie chcę mówić o tym, co działa na mnie.
To działa na mnie, to jest cytat.
Ja mówię, ale nie,
no, spokojnie, ja nikomu nie powiem.
Spoko.
On mówi, nie, no naprawdę, nie mogę, nie mogę.
Ja mówię, dobrze, no to
skoro nie, no to trudno.
Jakby nie chcę cię zmuszać też,
żeby nie było. On mówi,
wiesz co, w sumie na takich
użytkowników jak ty to dziennie
tracę no niby parę sekund
na użytkownika, ale tak
generalnie to jest dużo, także dzięki
za wyrozumiałość, ale no,
jakby…
Także
w ten sposób zakończyła się
moja długoletnia przyjaźń
z
hacking chatem.
Naprawdę
rozumienie polskiego ma bardzo,
bardzo biedniutkie.
Rozumienie i wypowiadanie się po polsku.
Jakiś super. Jeszcze raz?
Wypowiadanie się po polsku też.
Właśnie przed chwilą
spytałem się go, czy umie po polsku.
Powiedział, tak, mogę rozmawiać zarówno w języku
polskim, jak i angielskim.
Czy mogę, jak to było?
Czy mogę się z Tobą
wspierać? Nie, nie pamiętam.
Właśnie nie.
To nie było tak składne właśnie.
Czy mogę Ci
coś dziwnego powiedział
takiego, co nie wiedziałem w ogóle, co mu się chodzi.
Właśnie tutaj u mnie też na przykład było
dziękuję za porozumienie.
Czy tam wyrozumienie
jakoś tak.
Także tutaj
naprawdę dużo, dużo jeszcze trzeba
poprawić, ale
fajnie, że powstają te
open source’owe duże modele językowe.
To też
w pewnym sensie
jest dobre, bo otwiera
trochę świadomość
jak to wszystko działa.
Że to nie jest inteligentne
samo w sobie. To nie jest coś
co faktycznie
odczuwa
i jest świadome.
A z drugiej strony też właśnie
należy na nas na jeszcze więcej
różnych
różnego typu
oszustw, bo później możemy na przykład
sobie wytrenować
tak stworzony model
na jakichś naszych danych.
Czy to
ten model, czy to lamy, czy alpakę.
I też
właśnie stworzyć
go pod jakieś
oszukańcze
powiedzmy sobie wiadomości
czy też treści.
No ale cóż, no tego nie unikniemy.
Przy okazji też takie
dwa zupełnie
drobne, ale jak już
jesteśmy w temacie newsy.
Firma Tencent z Chin
chce jakąś tam
opłatę z 60 dolarów,
czy ile tam było
oferuje stworzenie cyfrowej
tożsamości człowieka,
danego cyfrowa
tożsamość, czyli pewnie
stworzenie wideo
na którym na przykład ktoś
by mówił coś
i wyglądał tak
jak wygląda w rzeczywistości.
Ale nie znam co prawda szczegółów
i na razie
to nie dotyczy rynku
polskiego,
jest chyba tylko po chińsku i po angielsku.
A drugi z takich drobnych
newsów
odkryliśmy ostatnio
na studiach coś takiego, co się nazywa
PDF.
I to jest coś takiego, że wczytuje się tam
PDF-a i można sobie z nim pogadać.
W sensie
ten
najpewniej członki EPT, który jest do tego
zaprzężony
no, wczytuje sobie
ten tekst
i później z niego tworzy jakieś podsumowanie.
To jest usługa płatna,
nie udało mi się tego
przetestować za darmo na takim PDF-ie
z którego faktycznie wiedziałabym, że
coś jest.
Czyli
nie przetestowałam tego na takim PDF-ie,
które go nie opłacałoby
mi się czytać,
a co opłacałoby mi się kupić, więc
dlatego nie jestem w stanie nic o tym powiedzieć.
Bo jakby samo
wrzucenie tekstu w czat GPT
no też niekoniecznie odniesie
sukces, bo
w tej naszej zwykłej wersji
przez stronę jest
dość ostry limit
znaków, które są zapamiętywane
w ramach sesji, czy tam nawet
nie znaków, tylko chyba
jakichś tokenów, słów,
nie wiem na czym to jest liczone,
a ten limitany.
Na tokenach.
Czym innym jest czat przez stronę
i tam jest rzeczywiście
limit znaków, chyba,
a czym innym jest czat
przez API.
Mówię, że czat przez stronę
i nie wiem na czym to jest liczone, ten limit.
No ale mniejsza o to.
W każdym razie po prostu mówię, że jest coś takiego
czatpdf.com
no i
można sobie przetestować.
Słuchajcie, ale właśnie a propos testowania.
Ja przetestowałem sobie przed momentem
tego Hugging Face’a
czat i
powiem szczerze, no
nawet w miarę sensownie odpowiedział,
chociaż oczywiście jak
jego kolega po fachu, czyli
chatGPT leje wodę.
Zapytałem go jak jest na audycje radiowe
dla niewidomych i odpowiedział mi
tak. Nie jestem w stanie podać
konkretne audycje radiowe
przeznaczone specjalnie dla
niewidomych lub z wadą wzroku,
ale muszę zaznaczyć, że wiele audycji
radiowych dostępnych w internecie
ma możliwość odtworzenia treści
za pomocą technologii opisowej
dźwiękowej, na przykład DAISY,
która może być korzystana
przez osoby niepełnosprawne
i starsze. Treści te
zawierają informacje na tematy
różnorodne, zarówno na tematy bieżące,
jak i z dziedziny nauki czy historii.
Każdy mógłby znaleźć coś
pasującego do swoich potrzeb
i upodobań.
Z tego powodu polecam
sprawdzenie listy
dostępności serwisu internetowego
Radia w Twoim Kraju
albo kontaktowanie się z urzędem
do spraw osób niepełnosprawnych
celem uzyskania
dodatkowych informacji.
No?
Ale to i tak super.
Ja z nim gadałam z tydzień czy dwa tygodnie temu
i to naprawdę wyglądało
w stylu
dzień dobry,
mieć na imię Ola.
Uczyłam się
w
nie wiem, liceumie
imienia
Karol
Szymanowskiej.
Nie wiem, to totalnie było bez sensu.
Nie, a tu są błędy,
pewne błędy składniowe,
natomiast to już
zaczyna mieć sens
ta odpowiedź, przynajmniej pod względem
takim jakimś stylistycznym,
bo oczywiście wiadomo, że
merytorycznie, no ale to z merytoryką to
i GPT ma problem.
To nie jest nowość.
Natomiast zauważcie, że to
wychodzi na to, że to nie jest
tak, dobra, wrzućmy
internet w
algorytm i urodzi nam
się z tego czat, bo to przecież są duże firmy
i ten Hugging Mason
to z tego co wiem, to jest jednak
to nie jest robione przez kogoś gdzieś tam
w domciu, tylko to
jest jednak duża firma.
No i Google jeszcze nie wypuściło barda.
Czat GPT, no to jest coś, co chyba rzeczywiście działa.
Natomiast kilka było
takich właśnie alternatyw do
czata GPT i póki
co to nic nie jest
czymś takim, co by rzeczywiście
można tam było wrzucić książkę,
zapytać się o coś
na temat tej książki albo i chociażby
podcasta, tak jak
próbowałem robić te podsumowania,
to wszystko z czata
GPT, włącznie, to póki
co się myli i to momentami dość
grubo się myli.
No właśnie, niby jest,
ja się dziwię też w ogóle,
bo są na przykład w jakimś
Teamsie robione podsumowania,
są różne AI-e do
podsumowań,
nie wiem, rozmów
na Teamsie, na Zoomie,
na czymś. Wszystko jest fajnie,
tylko słabo jest wtedy, kiedy to
AI się pomyli i ktoś
nie weźmie tego pod uwagę i nie
skonsultuje się, tak? Jeżeli
mamy coś wdrożone, to fajnie, to robimy
tak, nie? A tu AI
nam wytnie kawał i jest problem.
To znaczy, to jest jakby jedna
rzecz, natomiast osobną
sprawą jest ten prompt
engineering, tak? Czyli
to już rzeczywiście jest i o tym
się mówi już coraz szerzej,
że powoli robi się
zapotrzebowanie
na zawód,
na ludzi, którzy znają
te wszystkie czaty od
podszewki i
potrafią zadać tym czatom
pytanie w taki sposób, żeby
te czaty odpowiadały zgodnie
z życzeniem, że tak powiem,
klienta i powoli już
powstają nakładki takie
właśnie na czata, które
pozwalają na to, żeby właśnie
rozmawiać z PDF-ami,
na to, żeby pisać
jakieś teksty na określone tematy,
no w taki sposób…
O tych domenach, no to jest właśnie czat GPT
zaprzężony do tego.
No właśnie.
Powoli właśnie robi się
duże
zapotrzebowanie na takich ludzi
i no
spore firmy potrafią
wydawać dużo pieniędzy na to, żeby
zatrudnić
kogoś, kto albo przynajmniej
zlecić komuś
stworzenie na przykład jakiegoś asystenta
produktowego, podobny z naszych
polskich sklepów, dość popularny,
ma już asystenta,
takiego asystenta sprzedaży,
który jest oparty na czacie GPT
i ten asystent
właśnie
jest stworzony, przynajmniej w jakiejś części,
przez kogoś, kto
teoretycznie zna się na tym,
jak zadać czatowi pytanie
w taki sposób, żeby odpowiedział
zgodnie z tym, co sobie
tak naprawdę chcemy, żeby on odpowiedział.
No i
rząd to się zmienia,
czat GPT też się zmienia,
więc to jest jedna wielka zabawa,
można powiedzieć ciągle, to są zrosną
dopiero początki, no i zobaczymy, co będzie dalej.
I tak jak
polecałem jakiś czas temu, tak nadal polecam,
aż sprawdziłem sobie, jak się pisze
matt wolfe przez w,
czyli wolf, to jest
człowiek, który testuje sztuczne
inteligencje, najprzeróżniejsze
tego hugging czata
też testował, stwierdził,
że to się też nie umywa do czata GPT,
bo on tam ma
jeden z jego takich
testów
na sztuczne inteligencje, to jest to,
żeby stworzył
stronę internetową, która zawiera
ileś tam dowcipów i ta
strona ma mieć jeszcze CSS-a jakoś tam
w miarę zrobionego i czat GPT to zrobił
w miarę, natomiast te inne
czaty albo tego nie zrobiły w ogóle, albo
zrobiły stronę, która wygląda tragicznie.
Oczywiście
to jest jeden z rzeczy,
które ten gość
tam przesyła, bo on tam jeszcze
prosi te czaty o różne rzeczy, no i jak
na razie czat GPT wygrywa
z innymi, a ten hugging czas
podobno właśnie jest taki dość
biedny. Oj tak, ja mu
kazałem na przykład teraz napisać
trzydziestosekundowy skrypt na
wejście prezenterskie o pogodzie
i zakupach, no i
wysypał się kompletnie, zaczął pisać
jakieś totalnie, totalne
bzdury, które
nawet nie opłaca się tego czytać, bo to
po prostu nie ma sensu.
No to przechodzimy chyba do ostatniego
newsa. Tak,
ale tu nie ma co wiele mówić. Trochę podobnego
w sumie w charakterze.
Było spotkanie, no
podsumowanie jak pierwszego kwartału
w Amazonie
i ujawniona została informacja,
że no chociaż już
asystentka głosowa Amazonu, nie mówię
jej imienia, żeby nie wywołać,
działała na modelu
językowym, to powstanie
jeszcze lepszy model językowy dla
niej, żeby jeszcze bardziej skomplikowane
zadania były wykonane.
No i tyle wiemy.
Reszta to już są domysły. Autorzy
tu artykułu, na który się powołuję,
twierdzą, że
no właśnie, że to może
będzie lepiej wykrywać niuanse takie
komunikacyjne między ludźmi, że już
będzie lepiej rozumieć i nie będzie
źle gdzieś tam interpretować poleceń,
że będzie lepiej
informacje wydobywać. No ja osobiście
pierwsze skojarzenie, jakie miałem,
może w końcu zadziała Polski, bo
te modele językowe, które
teraz są, na przykład taki czat GPT,
albo tak dużo języków
wspiera, albo jest wręcz językowo
agnostyczny,
bo
jest tak skonstruowany, jaka jest jego
konstrukcja i takimi danymi go
nakarmiono w różnych językach, że
jest w stanie sensowne
wypowiedzi w tych językach konstruować.
Więc tylko dlatego
się tym podzieliłem, bo mam nadzieję, że
jak ten model językowy będzie jakiś na
pasie, to
Polski też
się szybciej pojawi.
Ponoć wszystko teraz, co Amazon robi
gdzieś tam bazuje na modelach językowych
dużych, więc
zobaczymy, czy i o języku
polskim sobie przypomną.
Miejmy nadzieję. Podobno
w ogóle z tymi dużymi modelami jest tak,
że jeżeli tam
coś w jednym języku się robi,
to to ma wpływ na wszystkie języki,
może mieć wpływ na wszystkie języki.
W związku z tym
jakby nie trzeba
tego robić, nie trzeba robić wszystkiego
dla każdego języka z osobna.
Wystarczy mu zrobić jakąś
implementację,
któregoś z tych języków i wtedy
ten model poniekąd
to, co mu się wprowadzi w jednym języku, on to
już ma we wszystkich językach i wtedy
niezależnie od tego, co w jakim
języku, to po prostu model
dla modelu to
w pewnym sensie wszystko jedno.
Może w cudzysłowie
tak jakby myśleć w dowolnym
z tych języków, który jest tam
wybrany, czyli to nawet chyba nie musi być
zawsze konwertowane, chociaż często
jest na angielski. Pewnie
dlatego, że on jest mimo wszystko największy,
ale podejrzewam, że nie musi być
i to mało tego, to może być tak, że
w jednej konwersacji
z użytkownikiem on będzie w cudzysłowie
myślał po polsku, a w innym
przypadku będzie myślał po angielsku,
a w jeszcze innym, w związku z tym, że
on ma trzy informacje, jedną po węgielsku, drugą
po estońsku, trzecią po czwesku, a czwartą
po jakiemuś tam, to co
tam jeszcze zrobi. Ja się wcale nie śmieję, jak
takie modele
językowe będą wymyślały jakiś swój język
w ogóle do, ale nie wiem, to już tak
sobie myślę zupełnie.
Tej anegdota, która zawsze mi się przypomina
w takich okolicznościach, to jest jak
dwa razy próbowałam
poprosić Cię o to,
żeby napisał mi parę
słów na A. I właśnie
na raz dostałam rzeczy w stylu
jabłko,
nie wiem,
sień.
Słowa, które są w języku
angielskim na A, w polskim nie.
A później dostałam
abderyta, abderyci,
abderycka,
abrazja,
ambrozja i tak dalej, nie?
Rzeczy, które są już po polsku.
Więc tak,
to myślenie jest
zupełnie nieświadome,
oderwane od, w sensie
mogłabym zapytać równie dobrze po
nie wiem, jakimkolwiek
innemu, nie?
No przede wszystkim też za każdym
razem, mimo tego, że zadajesz to samo pytanie,
uzyskujesz inną odpowiedź,
co też już jest
znakiem
czasów właśnie takich
modeli językowych, bo to
no kiedyś, kiedy mieliśmy
jakiś algorytm, tak, no to
coś na wejściu, to dostawaliśmy
zawsze coś konkretnego na wyjściu,
jeżeli, a teraz już
tak nie jest, więc. No i tak samo
jest z tą syntezą, to jedna rzecz,
której nie pokazałem, że jak
przy tym dodatku Piper. Tak, też to chciałem pokazać.
A widzisz, no właśnie, to też
taki, można sobie, nie wiem,
czytać, pusta u mnie to tak, czytałem właśnie
posty na pastelonie,
ludzie sobie, oj, jak on za każdym razem mówi blank,
blank, blank, zupełnie inna,
to są jakieś minimalne różnice, ale jednak
dzięki temu ten głos był taki
bardziej naturalny, tak?
Tak. W tym momencie. I level
jeszcze bardziej jest widoczny, bo
można kilka razy wygenerować ten sam tekst
i dostać trzy różne teksty
na wejściu.
W sumie w tym momencie wymyśliłam
podsumowanie tego, cośmy teraz odkryli,
bo jest taka
maksyma, że tylko szaleniec,
robiąc to samo, oczekuje innych efektów.
Wniosek, żyjemy w
przerażonych czasach.
I tym
optymistycznym akcentem. I po
wszystko chyba jednak optymistycznym.
O tak. Tak.
Myślę, że możemy skończyć. No, to na koniec
jeszcze ciekawostka, powiedzenie
obyś żył w ciekawych czasach, ponoć
w ogóle nie jest chińskie.
No proszę.
Tak, nie ma dowodu na to, że
jest chińskie, o, w ten sposób, to
Chinom to przypisał jakiś,
chyba nawet ktoś powiązany,
chętnie ojciec nawet Chamberlaina,
premiera później brytyjskiego,
który sam był gdzieś tam wysokiej rangi
politykiem, przypisał to jakiemuś chyba
dyplomacie chińskiemu. Dzisiaj
mi to się przewinęło, artykuł cały jest na Wikipedii
o tym przysłowiu, a na
angielskiej przynajmniej. No proszę.
No. I pozdrawiamy tych
wszystkich, którzy, aby uzyskać
te informacje, dotarli z nami
do godziny
pierwszej siedem. Czy to jest rekord?
Chyba tak.
No pięciogodzinnego tyfloprzeglądu
nie pamiętam. Ciekawy czas.
Tak.
Tak jest. No dobrze.
Dzisiaj pięcioro
nas było w tyfloprzeglądzie i
pięć godzin.
Pięć osób, pięć godzin,
ale komentarzy więcej. Telefonów też
sporo. Dzisiaj wszyscy byli aktywni.
Newsów też.
Także Paulina Gajoch,
Piotrek,
Michał Dziwisz,
Paweł Maszaczyk i ja, czyli Tomek Bilecki.
Uff, teraz się nie pomyliłem.
No i dobranoc
i do usłyszenia.

Wszystkie nagrania publikowane w serwisie www.tyflopodcast.net są dostępne na licencji CreativeCommons - Uznanie autorstwa 3.0 Polska.
Oznacza to, iż nagrania te można publikować bądź rozpowszechniać w całości lub we fragmentach na dowolnym nośniku oraz tworzyć na jego podstawie utwory Zależne, pod jedynym warunkiem podania autora oraz wyraźnego oznaczenia sposobu i zakresu modyfikacji.
Przekaż nam swoje 1,5% podatku 1,5 procent Logo FIRR Logo PFRON Logo Tyfloswiat.pl

Czym jest Tyflopodcast?

Tyflopodcast to zbiór instrukcji oraz poradników dla niewidomych lub słabowidzących użytkowników komputerów o zróżnicowanej wiedzy technicznej.

Prezentowane na tej stronie pomoce dźwiękowe wyjaśniają zarówno podstawowe problemy, jak metody ułatwienia sobie pracy poprzez korzystanie z dobrodziejstw nowoczesnych technologii. Oprócz tego, Tyflopodcast prezentuje nowinki ze świata tyfloinformatyki w formie dźwiękowych prezentacji nowoczesnych urządzeń i programów. Wiele z nich dopiero znajduje sobie miejsce na polskim rynku.

Zapraszamy do słuchania przygotowywanych przez nas audycji i życzymy dobrego odbioru!

Tematyka

Pozycjonowanie i optymalizacja stron internetowych