TyfloPrzegląd Odcinek nr 166 (wersja tekstowa)
Napisy dostępne wkrótce.
Fundacja Instytut Rozwoju Regionalnego prezentuje Tyflo Podcast.
166. audycja Tyflo Przeglądu, a pierwsza w 2023 roku.
Ja nazywam się, możecie mi wierzyć lub nie, ale Tomek Bilecki, choć mówię troszkę innym głosem.
A teraz już nie mówię innym głosem.
Kto mi ukradł głos, ja się pytam. Kto mi ukradł głos?
Ten Mikołaj pomylił te prezenty chyba w tym roku. Coś poszło, no.
Teraz już, mam nadzieję, mówię zwykłym głosem. To znaczy na pewno mówię zwykłym głosem.
Natomiast o tym jeszcze będzie dzisiaj, co się tutaj stanęło, ale nie w tej chwili, to później.
Natomiast teraz tylko powiem szybciutko, że w dzisiejszej audycji będą brać udział
Michał Dziwisz, Pan Profesor Mikołaj Hołysz i Jacek Tomek Bilecki.
U mnie jest troszkę głośno, mam nadzieję, że to się za chwilę zmieni.
Więc żeby to tak troszkę przeczekać, to może Michale, co dzisiaj?
W tym tygodniu w Tyflo Przeglądzie.
Soundscape na GitHubie.
Czat GPT nadaje się do poprawiania skanowanych książek.
Pierwsze wrażenia po grze w Scrabble wyprodukowanej przez Fundację Prowadnica.
Nowe aplikacje PKP już dostępne, ale można by sobie życzyć więcej.
Rusza World Blind Herald, nowe czasopismo dotyczące osób niewidomych.
Mona for Mastodon już w wersji beta.
Overture, ciekawy projekt map do nawigacji GPS.
Nowości w grach.
Div SVC, kolejny silnik prawie do syntezy mowy.
Wszystko to, a pewnie jeszcze więcej, już za chwilę.
Zaczynamy!
A zacznę jeszcze od informacji kontaktowych.
Można się z nami skontaktować na stronie kontakt.tyflopodcast.net.
Można do nas pisać na platformie Zoom.
W ogóle można się z nami skontaktować na platformie Zoom.
Tam można do nas zadzwonić, można do nas pisać na Facebooku.
Jesteśmy w ogóle również na Facebooku, to znaczy tam można nas usłyszeć.
I chyba na YouTubie, tak?
I na YouTubie też jak najbardziej jesteśmy.
No i więcej informacji na stronie kontakt.tyflopodcast.net
i oczywiście w aplikacji tyflopodcast napisanej przez Dawida Piepera.
No i na iOSie też można, co prawda na razie jest ta aplikacja w wersji testowej,
ale działa i są osoby, które korzystają aktywnie z tej aplikacji,
więc można również z jej poziomu nas słuchać, do nas pisać, więc zapraszamy.
No to w takim razie zaczynamy od już newsów.
Konkretnie od pakietu newsów, wieści ze świata od Pawła.
Ale jest ich kilka.
Jest ich kilka, konkretnie cztery, więc znowu wybieramy się
zaraz na początek nowego roku w podróż dookoła Europy.
Chyba raczej Europy, z tego co widzę.
Tak, to będzie Europa tylko i wyłącznie dzisiaj.
No to World Wide Herald nam odkryje pewnie troszkę więcej świata,
ale o tym później Mikołaj.
Natomiast co ode mnie?
Ode mnie pierwsza rzecz, taka troszkę prywata.
Miałem okazję rozmawiać z dwiema osobami,
nie tylko z jedną osobą, ale wiem też o drugiej.
Które to osoby były uczestnikami koncertu Coldplay.
Mowa o koncercie w Belgii, już za czasów, kiedy były dostępne
udogodnienia i oprowadzanie dla osób z dysfunkcją wzroku.
No i jak wygląda taki dostępny koncert Coldplaya?
Przychodzi się jakiś czas wcześniej, to jest chyba godzina albo dwie
i jest się oprowadzanym przez management zespołu.
Nie są muzycy, żeby była jasność. Chrisowi Martinowi jako nie członkowie
fanklubu ręki nie uściśniemy. Nie jest to też obejście biletów
Meet & Greet ani żadnego Golden Circle.
Po prostu bierze nas pod rękę management, ktoś z załogi zespołu
i oprowadza nas po scenografii. Mówię po scenografii, ponieważ
nie możemy wejść bezpośrednio na scenę. Natomiast możemy się przejść
po, myślę, że warto sobie usmysłowić, że takie instalacje sceniczne
na tego typu koncerty zespołów, które oprócz muzyki mają też
dostarczać fantastyczne show i to show ma być też w jakimś sensie wizualne,
więc tam mają być jakieś efekty świetlne, coś się ma wyłaniać z tej sceny,
gdzieś z podziemi ma wyrastać, gdzieś tam ma coś za kulis się wyłaniać.
To są tak naprawdę dość potężne konstrukcje, które mają wiele poziomów
i np. taka scena, jaką my widzimy pozwala też np. muzykom na zejście
pod spód, jakby do podziemia, w takie korytarze podziemne poniekąd.
I w tych korytarzach są wszystkie jakieś tam kwestie prób, kwestie
jakichś poukrywanych przedmiotów, które później mają być na tę scenę
wyciągnięte i tak dalej. No i co? I tam właśnie możemy zajrzeć
jako osoby niewidome. Na tej trasie koncertowej, którą ostatnio zespół
zagrał w Europie, scen były trzy i do każdej z nich, to znaczy do tych
podziemi, do tych ukrytych pomieszczeń można było się dostać.
Można było obejrzeć sobie, tak jak się mogliśmy tego spodziewać,
kostiumy, rekwizyty używane przez zespół, a także instrumenty.
I tu co ciekawe, jej koleżanka, która była też na tym właśnie koncercie,
gra na fortepianie i umie zagrać też niejeden utwór Coldplaya
pozwolono jej usiąść przy fortepianie, przy którym za chwilę będzie
grane na żywo i zagrać sobie jakiś utwór, jaki jej się tylko podoba
na tym właśnie samym fortepianie. Ponoć właśnie warto dowiedzieć się
zawczasu, czy dla danego koncertu będzie takie udogodnienie dostępne
i zamówić sobie takie oprowadzanie z managementem. Ja już wspominałem
o pani Lauren, która nam takich informacji może udzielić.
Prosili też oni o to bardzo, żeby rozpowszechnić tą informację
wśród osób niewidomych, bo bardzo możliwe, że nikt o tym nie wie,
że takie udogodnienia są oferowane. A tymczasem, jak widać, można.
Zespół i jego zarządcy bardzo by chcieli, żebyśmy z tego skorzystali.
Więc jeżeli Coldplay kiedyś wróci do Polski, to można się dowiedzieć.
Rammstein to jest drugi taki zespół, który podobne rzeczy organizuje.
Gdybyście mieli więcej pytań konkretnych o to, jak takie oprowadzanie wygląda,
to dajcie znać. Ja wiem, kogo zapytać. Mogę podpytać o coś konkretniejszego.
Jeśli chodzi o jeszcze inne wieści ze świata, tu podziękowania dla Roberto,
który to dla nas sprawdził. Jest sobie w Czechach taka aplikacja
do rozkładów komunikacji miejskiej w całym kraju, jak CG Transit.
To jest aplikacja taka i dla iOS-a i na Androida. Ona jest dostępna,
zdaje się, że w całości, a jak nie, to nawet w bardzo dużej części.
Wiele osób niewidomych tamtej aplikacji używa. Zdaje się, że za dostęp
do rozkładów trzeba tam coś zapłacić, więc bardzo to przypomina mobile MPK.
No i aplikacja ta ostatnio otrzymała bardzo ciekawą funkcję, bo w Pradze
na niektórych przystankach, głównie na stacjach metra, ale też na przystankach
tramwaju czy autobusu, jeżeli wyszukujemy sobie jakiegoś połączenia
i połączenie wjedzie przez konkretny przystanek, musimy się przesiąść,
to możemy sobie rozwinąć taki bardziej zaawansowany opis takiego przystanku.
I tam mamy już wyszczególnione, że po wyjściu z autobusu
prosimy kierować się w prawo. Prosimy iść cały czas prosto
do odnalezienia schodów wiodących do stacji metra.
Po zejściu do stacji metra prosimy kierować się w lewo i iść,
aż zobaczymy coś tam tego typu, bardzo rozbudowane opisy.
Są dwie wersje tego opisu. Opis jest w wersji takiej podstawowej,
uproszczonej i w bardziej zaawansowanej, gdzie jest trochę już więcej szczegółów.
Tak jak już wspomniałem, na razie Praga i na razie tylko niektóre stacje,
ale będzie tego, miejmy nadzieję, więcej. Może i nawet Roberto,
jeżeli nas słucha, to się do nas odezwie i nam krótko tą funkcję zademonstruje.
Myślę, że jest to fajna informacja dla osób, które Pragę chcą odwiedzać.
Tu jeszcze jesteśmy w trakcie sprawdzania, czy takie informacje
są również dostępne w języku angielskim.
A druga rzecz, że jest to dobra praktyka.
Jeżeli słucha nas ktoś, kto planowałby stworzyć aplikację
do rozkładów komunikacji miejskiej w Polsce, albo kto taką aplikację testuje,
albo kto w jakiś sposób jest zaangażowany w to, żeby coś powstało
i zbiera sugestie, no to jest to kolejna rzecz, która w Pradze,
jak widać, powoli jest uruchamiana.
No i przydałaby się również i nam tutaj nad Wisłą,
bo wtedy myślę, że ta nasza mobilność stałaby się dużo bardziej rozbudowana.
Jeżeli już mówimy o Europie Środkowo-Wschodniej
i naszej niezależności i mobilności, to Budapeszt.
Ja już wspominałem jakiś czas temu o takim europejskim projekcie
jak Danowa Mobility Project, czyli projekt, w ramach którego były fundusze
i to był konkurs poniekąd na rozwinięcie rozwiązań zwiększających mobilność
osób z dysfunkcją wzroku w krajach nad Dunajem.
Ja wspominałem o rozwiązaniu austriackim, troszkę wspominaliśmy o krajach
byłej Dziugosławii, no a dziś przyszła kolej na Budapeszt,
bo budapesztańskie lotnisko jest pierwszym lotniskiem w Europie,
które jest w pełni możliwe do samodzielnej nawigacji przez osoby niewidome.
Tak przynajmniej głosi artykuł, artykuł zaczerpnięty z serwisu
Future Travel Experience.
Ponoć użyto tu aplikacji Bindy Maps, jest to aplikacja australijska,
którą ja kojarzę głównie z podcastów właśnie Vision Australia,
że jest ona używana na przykład w budynkach organizacji,
że jest ona używana też chyba w niektórych sklepach.
Nie bardzo wiem, jak ona działa w praktyce, natomiast z tego,
co napisane jest w artykule, wynika, że w kwestii lotniska w Budapeszcie
jest ona zainstalowana w terminalu numer 2.
Na razie dostępna jest w języku angielskim. Bardzo ciekawa koncepcja.
Tak jak ja czasami narzekam na to, że różne rozwiązania dostępnościowe
są dostępne jedynie w języku rodzimym danego kraju,
tak teraz tutaj Budapeszcz stwierdził, że na razie niektóryści skorzystają,
więc na razie po angielsku. Osoba niewidoma, która znajduje się
na początku terminalu numer 2, włącza Bindy Maps,
otrzymuje wprowadzenie w języku angielskim, gdzie się aktualnie znajduje,
może sobie wybrać lokalizację, do której chce przejść
i aplikacja z dokładnością 2 do 4 metrów za pomocą, zdaje się,
bikonów nas jakoś doprowadzi.
Ponadto zostało zainstalowane około 1100 metrów linii prowadzących
w całym obszarze jakby tym pasażerskim.
No i można po tym lotnisku, po tych liniach się orientować.
Jeżeli ktoś ma okazję przetestować lotnisko w Budapeszcie
pod kątem dostępności, to jesteśmy ciekawi wrażeń.
No a jeżeli nie, no to może będzie to informacja również ciekawa,
jakaś ciekawa, dobra praktyka do wymiany, żeby zastosować to
w innych miejscach i może nie tylko na Węgrzech.
Ciekaw jestem, czy z lotniska w Budapeszcie możemy polecieć do Neapolu,
bo to właśnie tam, na zamku San Elmo, jest bardzo ciekawa instalacja,
która istnieje już od 6 lat, ale jakoś tak nikt o niej nie mówił,
dopóki nie została ona odkryta. Wrzucono oczywiście zdjęcia
na portale społecznościowe i stało się to wiralem, bo ludzie
sobie się zorientowali, że jest tam bardzo długa poręcz,
no poręcz jak poręcz, wiadomo w zamkach są tam różne konstrukcje,
ale poręcz ta ciągnie się i ciągnie i ciągnie i ma na sobie brajla.
No i tu bardzo ciekawa instalacja multimedialna,
tylko właśnie taka dostępna, dotykowa, bo ten brajl, z którym możemy
się zapoznać na tej poręczy, jest to w języku włoskim i angielskim
opis widoku, który możemy podziwiać, stojąc w tym miejscu,
gdzie ta poręcz się znajduje. Żeby to jeszcze była jakaś zwykła,
jakiś zwykły opis taki przygotowany przez, powiedzmy,
jakiegoś koordynatora dostępności, jakoś niedawno,
no to może nie byłoby w tym nic niezwykłego, znaczy fajnie, że jest,
ale wiadomo, tego typu instalacje już mamy, jakieś makiety i inne opisy.
Natomiast okazuje się, że ten opis to już taki trochę stary,
ten opis to już ma tak z 80 lat ponad i jest to fragment powieści
Giuseppa de Lorenzo i jest to poemat, czy też powieść pod tytułem
Ziemia i człowiek. La terra u e il uomo. Przepraszam tu bardzo
za łamaną włoszczyznę. No i my możemy się takim widokiem opisanym
w tak poetycki sposób już bardzo dawno temu i prawdopodobnie nawet
bez jakiegoś specjalnego tutaj pomyślunku o osobach niewidomych wtedy.
Możemy się nim cieszyć i czytać tę powieść, czy powiedzmy,
nie wiem, czy to właśnie poemat pewnie jakiś jest i ten widok
nam przybliżony zostanie. Co ciekawe, celowo artysta,
który stworzył te instalacje, nie opublikował nigdzie tego opisu
w wersji czarnodrukowej, żeby można było go przeczytać,
ani w internecie on nie jest dostępny, co tu dokładnie w Braille’u
jest napisane, bo uznał on, że osoby widzące mogą po prostu patrzeć
oczyma i widzieć ten widok i nie jest on jakoś, żadna interpretacja
nie jest takiej osobie narzucana, a taką poniekąd tajną wiadomością
dla tych, którzy wiedzą o coho, że się tak potocznie wyraża,
czyli dla osób, które umieją czytać pismo Ludwika Braille’a,
zresztą dziś obchodzimy no już sto dwudziestą, sto trzynastą chyba
rocznicę urodzin, właśnie dokładnie w dniu dzisiejszym,
mogą osoby, które znają to pismo przeczytać ten przepiękny opis.
Ja jestem zawsze pod wrażeniem tego typu instalacji,
bo myśląc o dostępności, zwłaszcza w kontekście sztuki
i to takiej sztuki nieoczywistej, bardzo często mamy takie wyobrażenie,
że to albo jest niewykonalne, albo jest bardzo trudne,
albo że nie ma to sensu, albo że musi to być taki suchy, techniczny opis.
Pawle, ja tylko tak, żeby doprecyzować, no Ludwik Braille jest trochę starszy,
bo urodził się w 1809 roku.
A, 213, przepraszam, jedna stówka mi przeskoczyła.
Odmłodziłeś go, odmłodziłeś go.
Odmłodziłem go, ale pismo wiecznie żywe, śliczne dzięki Michale.
Natomiast tak, natomiast właśnie myśląc o takich opisach,
mamy wrażenie, że to musi być taka sucha technika.
A tymczasem się okazuje, że tak naprawdę ludzie opisywali już różne rzeczy
na sposoby bardziej lub mniej poetyckie od dawien dawna.
I czy jakieś stepy ackermańskie, czy właśnie tutaj ten, ten że zamek
istniały już na przykład w opisach poetów.
I człowiek, który nie mógł wtedy zobaczyć tych terenów, o których pisał
Mickiewicz czy Lorenzo, musiał sobie to wyobrazić.
I nagle okazuje się, że jest to audiodeskrypcją, tak samo jak bardzo
do mnie przemawia interpretacja obrazu Gwieździsta Noc Van Gogha
w formie piosenki Donna McLeana, Starry, Starry Night.
Oczywiście to nie jest to samo wrażenie, które bym miał widząc ten obraz,
ale utwór podoba mi się na tyle i zawiera tyle takich deskryptywnych szczegółów,
że naprawdę jest bardzo fajną wskazówką nawet dla mnie, który nie widzi.
I mam wtedy swoje własne wyobrażenie, swoją własną interpretację
oczywiście jakoś już wskażoną tym, co mi przekazał Don McLean w tekście
i jak on to widział, jego gdzieś emocjami i emocjonalnym podejściem.
Natomiast fajne uzupełnienie takie, które do mnie przemawia na swój sposób,
bo ja bardziej lubię właśnie muzykę, więc tu jak najbardziej.
No i oczywiście przykład, który już kiedyś podaliśmy, czyli reklama Apartu,
która została w taki sposób sparodniowana przez internet,
że powstała przez przypadek audiodeskrypcja, o czym nasza redakcyjna koleżanka Paulina
miała się okazję na własnej skórze też przekonać.
Zapraszamy do odcinku Kreatyw do Przeglądu gdzieś sprzed chyba dwóch lat,
gdzie to było omówione i właśnie w ten sposób zostało to rozwiązane.
Także warto podróżować, warto zwiedzać i różnych dobrych praktyk zażywać,
czego Wam życzę też na ten Nowy Rok.
Dzwonicie do nas i bardzo dobrze, mamy już dwie osoby w kolejce,
więc najpierw proponuję, abyśmy odebrali telefon. Kogo witamy po drugiej stronie?
Witam serdecznie, dobry wieczór, Łukasz.
Witaj Łukaszu.
Wszystkiego dobrego w Nowym Roku dla Was i dla Państwa słuchaczy.
Dziękujemy i wzajemnie.
I na sam początek o Blind Shellu, że tak powiem prezent świąteczny,
czyli cztery nowe aplikacje.
Czyli pierwsze to jest gra w szachy. Po prostu gramy sobie w szachy
z komputerowym przeciwnikiem, niech to nazwę.
Udało mi się, że tak powiem w to zacząć grać, ale jeszcze nie skończyłem
tej rozgrywki, niech to nazwę.
Teraz drugi program to jest konwerter walut, czyli pozwala nam na przeliczanie walut.
Na przykład wpiszemy 100 zł i przeliczyć na dolary, takie coś właśnie.
Następny to jest model klików, czyli pozwala na zarządzanie pamięcią w telefonie,
czyli przenoszenie, zmienianie nazwy, kopiowanie z pamięci wewnętrznej i na kartę pamięci
i w drogą stronę, jak chcemy.
I w sumie czwarta rzecz, chyba taka najbardziej przydatna to jest tłumacz,
czyli translator pozwala na tłumaczenie tekstu i właśnie na początku wymaga
połączenia z internetem, bo musimy sobie pobrać języki.
Fabrycznie jest zainstalowany tylko angielski, a właśnie resztę sobie musimy pobrać.
No a potem już działa bez połączenia z internetem, czyli wpisujemy tekst
i potem wciskamy tłumacz i on nam przekłada na inny język.
Bardzo przydatny i też jest taka funkcja, że załóżmy jak mamy notatkę czy maila,
czy wiadomość SMS, klikamy w udostępni i potem użyj aplikacji translator
i on to nam wtedy przetłumaczy na inny język. Bardzo fajnie.
Rzeczywiście bardzo fajnie, a czy wiadomo jakiego tłumacza wykorzystuje to narzędzie?
Powiem szczerze, nie mam pojęcia. W opisie pisało, że to jest otwierane dla Intel.
Rozumiem. No być może skorzystali z czegoś otwarto dostępnego.
Na razie języki tam mamy tylko łopajskie, bo tam mamy angielski, niemiecki, francuski, hiszpański, portugalski, czeski, ukraiński, rosyjski, jeszcze ten estoński i niderlandzki.
Rozumiem. Natomiast ja jeszcze tak dopowiem, że już 10 stycznia, to będzie we wtorek, zaprezentujemy jak te możliwości nowe Blind Shella działają w praktyce.
Myślę, że dla nikogo nie będzie zaskoczeniem, że ponownie z Darkiem Marcin i Szynem się wtedy spotkamy i Darek nam tu wszystko pokaże jak to działa.
Ale Łukaszu, dzięki za zajawienie tego tematu, bo myślę, że ci wszyscy, którzy nie chcą czekać, to już zostali właśnie poinformowani co i jak.
Tak, tak. Ja też mam nadzieję, że ten tłumacz będzie rozwijany, że będzie się na przykład nim tłumaczyć teksty na stronach internetowych.
No, bo to by rzeczywiście było też całkiem fajnym rozwiązaniem. To się zgadza.
Tak, no ale na przykład to już jest pomysł fajny, że choćby jak mamy tam trochę problem z językiem, a chcemy napisać do producenta na przykład Blind Shella,
no to sobie piszemy po polsku, potem dajemy właśnie przetłumacz i mamy już przełożone na angielski.
Oczywiście, oczywiście, że tak. To jest bardzo fajne narzędzie. Pozostaje tylko mieć nadzieję, że ta jakość tłumaczenia jest przynajmniej taka,
że producent czy ktokolwiek, kto dostanie taką wiadomość, to zrozumie co poeta miał na myśli.
Tak. I ja teraz jeszcze mam takie dwa pytania. W sumie, no powiem dotyczy bardziej osób widzących, ale my w sumie też się z tym spotykamy, też o tym słyszymy,
a teraz temat taki trochę na czasie w związku z tą sytuacją w Policji jest niezbyt dobry, no ale tak zapytam, co to są w sumie memy, no i jak powstają?
W sumie w jakich programach są tworzone, skąd pobieramy obrazki, przykład daje i potem jak to się przerabia, jak się na to nakłada tekst i jak to się potem udostępnia,
że tam w ciągu kilku dni, kilka milionów osób to widzi, że tak powiem to nasza twórczość.
Łukaszu, przede wszystkim to są obrazki tworzone, jak sama nazwa może sugerować, w różnego rodzaju programach graficznych.
Ja podejrzewam, że być może nawet są jakieś specjalne narzędzia do tworzenia memów, ale tak naprawdę to taką grafikę możesz przygotować w dowolnym miejscu,
w dowolnym programie, byleby odniosła odpowiedni efekt. Myślę, że niektórzy tworzą takie memy w oparciu o jakieś strony internetowe,
a niektórzy po prostu mają na tyle umiejętności posługiwania się różnymi zaawansowanymi, bardziej lub mniej programami graficznymi, że budują to tam.
A jak to się dzieje, że te memy mają taką później wielką popularność? No po prostu efekt wiralu tak zwanego, czyli ktoś udostępni, potem jeszcze ktoś, jeszcze ktoś,
i mamy taki efekt kuli śnieżnej, że ten mem, czy jakiś śmieszny filmik, czy cokolwiek innego, no się rozpędza i po prostu ma tak olbrzymie zasięgi.
I jeszcze mam takie drugie pytanie, bo też podobne. Chodzi mi o twórców na YouTubie. Właśnie, w jaki sposób, od czego zaczynają, że potem dochodzą do wielkich pieniędzy?
Trzeba mieć od razu 100 tysięcy na start, przykład daje, jakiś super komputer, kamery i tak dalej, potem program, żeby to zmontować wszystko, czy w sumie jak to działa?
Przede wszystkim trzeba mieć na to pomysł i szczęście, tak mi się wydaje. Bo teraz, to być może bardziej twórcy YouTubowi patrzą na to z takiej biznesowej perspektywy,
co się opłaca, co się nie opłaca, jakie rzeczy tworzyć, żeby, kolokwialnie mówiąc, zażarły i żeby mieć jakąś naprawdę dużą oglądalność.
Natomiast, no ci tacy pierwsi twórcy YouTubowi, to wszystko zawdzięczają tak naprawdę przede wszystkim szczęściu i tam na pewno nikt nie miał od samego początku,
nie wiadomo jak silnego komputera, nie wiadomo jak profesjonalnego studia, żeby cokolwiek nagrywać i nadal niektórzy twórcy tego nie mają,
a ludzie ich i tak mimo wszystko oglądają, no przez to, że treści, które przekazują są interesujące, więc tu też nie ma reguły.
I teraz tak naprawdę, no to YouTube już jest takim, można powiedzieć, medium dojrzałym, a teraz mamy kolejne miejsca, gdzie znowu powstają różnego rodzaju formy wideo,
na których też ludzie zaczynają zarabiać, no to jest Instagram, to jest TikTok i tam to po prostu też bardzo dużo podejrzewam, że jeszcze na chwilę obecną zależy od szczęścia,
no a za jakiś czas to będzie po prostu taki typowy biznes, też już pewnie dla niektórych jest.
Łukaszu jeszcze dajmy Mikołajowi powiedzieć.
Jeżeli chodzi o YouTube, bo wiem, że były osoby niewidome, które się też próbowały z tematem zmierzyć, no i tam dużym problemem jest jednak ta kamera,
jednak to, żeby to wideo wyglądało ładnie, no i się okazało, że bez osoby widzącej, która no najlepiej by było, żeby też w ogóle z nami mieszkała i miała do nas jakby stały dostęp,
żeby nam mogły po prostu wszystko ustawić, to niewiele się da osiągnąć, bo tam potem wchodzi kwestia światła, jak to się ustawić, żeby mieć słońce za sobą, przed sobą, obok siebie,
co zasłonić, czego nie zasłaniać, gdzie ma być kamera, co ma być widać, czego nie ma być widać, że tutaj mamy, nie wiem, koszt z praniem albo inne tego typu przedmioty,
które raczej nie powinny być pokazywane, to je trzeba przesunąć i tak dalej, i tak dalej, i tak dalej, no i się okazywało, że no bez widzącego to było bardzo trudno coś takiego w ogóle zrobić,
bo to nie jest tak, że wystarczy nam kamerka z laptopa i już nas będzie widać, już będzie super.
Ja powiem jeszcze do tego Mikołaju, o czym ty wspomniałeś, że nawet jeżeli decydujemy się na publikację jakiegoś, no chociażby podcastu, bo to też nie jest do końca tak,
że na YouTubie przyjmują się tylko jakieś krótkie formy i że to musi być obraz, taki typowy obraz, ale jeżeli na przykład nawet ludzie na YouTubie tworzą podcasty,
teraz takim modnym tematem jest ten tak zwany true crime, czyli sporo, sporo osób tworzy podcasty o różnego rodzaju zbrodniach, które miały miejsce, to jest taki dość nośny temat,
natomiast nawet jeżeli ktoś taki podcast tworzy, to on go w odpowiedni sposób ilustruje, wybiera jakieś, na przykład jeżeli mowa jest o miejscu dokonania danej zbrodni,
to tam się pojawia jakaś mapka, jeżeli są jakieś rysopisy sprawców albo zdjęcia ofiar, no to też się tam pojawiają, jeżeli oczywiście są możliwe do zamieszczenia,
i tak dalej, i tak dalej, więc ten YouTube, nawet jeżeli by nam się tak wydawało z pozoru, że w sumie to ktoś sobie siedzi i gada, to nie do końca tak jest.
Zgadza się, a jeszcze tak pytanie co do tego już potem zarabiania, to w sumie tam są jakieś numery konta podawane, czy po prostu jak my mamy tego YouTube premium, to właśnie jest to ściągane z tych naszych subskrypcji?
Łukaszu, chyba nikt z nas tu nie prowadzi płatnego kanału na YouTubie, to znaczy takiego, który ma włączoną monetyzację, Tyflopodcast monetyzacji włączonej nie ma,
chociaż jeżeli chodzi o ilość obejrzanych godzin, to już byśmy się kwalifikowali, natomiast jeszcze kwestia subskrypcji jest za mała, ale i tak tego nie będziemy tam raczej uruchamiać,
bo tam dopiero zarabiać można jak masz tysiąc subskrybentów, więc to też nie jest tak łatwo, żeby taką ilość zebrać na dobry początek, natomiast z tego co wiem,
to kiedy się do takiego programu kwalifikujesz, to już w ogóle to jest kwestia odpowiedniej umowy z YouTubem, nierzadko nawet i też trzeba wtedy założyć własną działalność,
jeżeli to są odpowiednio duże środki, albo podpiąć się pod jakąś inną działalność, są różne firmy, takie agencje interaktywne i inne tego typu,
które zajmują się prowadzeniem YouTuberów, no ale to już jest ten dalszy etap, jeżeli ktoś już to rzeczywiście traktuje jako swoją taką codzienną pracę.
A, w ten sposób, tak, to dzięki za fajną właśnie wytrapującą odpowiedź, no i jeszcze mnie tu naszła taka refleksja co do Blind Shella,
że ja w sumie mam nadzieję, że te właśnie wielkie firmy typu na przykład Uber, czy na przykład Impost,
no jak to by nazwać, przebudzą się też trochę zimowego snu i właśnie zaczną pracować nad tym, żeby na przykład te paczki, czy te taksówki,
żeby była możliwość zamawiania właśnie przez tą przeglądarkę internetową po prostu na Blind Shellu, że to tam, no że to właśnie mam nadzieję,
że to kiedyś zacznie działać, bo właśnie nie wszyscy korzystają z telefonów dotykowych, co też zwolennicy właśnie klawiatury,
no i to by był właśnie też fajny pomysł.
Obawiam się Łukaszu, że jeżeli ktoś, w sensie jakaś firma, zdecyduje się na coś takiego, na stworzenie takiej strony internetowej,
to raczej będzie to dzieło albo przypadku, albo jakiejś innej sytuacji niż akurat przez wzgląd na użytkowników Blind Shella,
no bo użytkownicy Blind Shella, powiedzmy sobie szczerze, są niszą w niszy.
No zgadza się to.
Tak Łukaszu, czy coś jeszcze?
Nie, to już na dzisiaj,
słodko mnie tyle, pozdrawiam wszystkich, no i dalej będę was słuchał, cześć.
Dzięki za telefon, trzymaj się, pozdrawiamy cię serdecznie.
Tak, dziękuję bardzo, cześć.
Hej, dobrze, jeszcze mamy jeden telefon, więc może go odbierzmy od razu.
Tym razem jest z nami Matthew, ktoś tak tu się podpisuje, a kto to jest, to pewnie za moment się przekonamy.
Na razie ma wyciszony dźwięk, więc tam jeszcze jest konieczne zezwolenie na nagrywanie,
ale w międzyczasie, w oczekiwaniu na uaktywnienie się naszego słuchacza, przeczytam to, co do nas piszecie.
A piszecie do nas już, m.in. napisał do nas Matt.
Witam, odbieram was za pośrednictwem radia internetowego Ferguson Regent 450.
Dobra jakość, urządzenie dostępne. Mam problem ze sparowaniem odtwarzacza z komputerem po Bluetoothie.
System to Windows 10, a komputer to Dell.
Po sparowaniu odtwarzane są tylko dźwięki z przeglądarki internetowej i z odtwarzacza muzyka Groove.
A gdy odtwarzam z VLC, czy Windows Media Player jest cisza?
Czy głośniki mogą reagować wybiórczo na dźwięk?
Gdzie szukać ustawienia za to odpowiedzialnego?
Co mogę zrobić, żeby cały dźwięk z komputera szedł na odtwarzacz Regent?
Głośniki Regent są domyślnymi, brak wyciszenia dźwięk na maksa.
Z góry dzięki za porady, pozdrawiam, Matt.
Wydaje mi się, że mógłbyś spróbować ustawić np. w VLC te głośniki osobno.
Albo to też może być kwestia tego w jakiej kolejności uruchamiasz VLC,
a gdzieś tam powiedzmy podłączasz się do tych głośników.
Bo może tu jest istotna kwestia.
Więc ja bym popróbował np. najpierw podłączyć się do głośników,
potem uruchomić VLC i być może wtedy zadziała.
A jeżeli nie, to np. w VLC po prostu przestawić urządzenie odtwarzające
odpowiednio na te głośniki bezpośrednio, bo może z jakiegoś powodu nie chce tam zaskoczyć.
Też zdaje się, mikser głośności w Windowsie ma możliwości już przekierowywania
konkretnych programów na konkretne urządzenia, więc ja bym jeszcze tam tego poszukał.
Więc jak na razie to przychodzi mi do głowy.
O, a mamy tymczasem już naszego słuchacza, który uporał się z mikrofonem.
Halo? No i chyba jednak nie uporał się tak do końca, bo mimo odciszonego mikrofonu
dalej się nie słyszymy. Także niestety, tu jest problem.
No to idziemy dalej.
Przejdźmy tak, do kolejnych newsów, znowu będzie seria newsów,
ale tymczasem od Mikołaja, który nazwał to Drobne Newsy.
To jakie masz, Mikołaju, Drobne Newsy dla nas?
Tak, jak już tutaj było mówione kilkadziesiąt dni temu, nastąpił ten dzień
i aplikacja Microsoft Soundscape znikła z sklepów App Store.
No a kto za tym idzie, ukazała się ona również w wersji open source,
ukazała się ona na GitHubie. No i co, ja sobie na to popatrzyłem
i ta aplikacja tam faktycznie jest.
No właśnie, tylko że nie jest w całości.
Bo się okazało, że jakieś części, nie wiadomo dokładnie jakie,
bo tego Microsoft nie powiedział, nie zostały upublicznione,
bo tam były kwestie wchodu innych firm, kwestie licencji.
Podejrzewamy, że może tam chodzić o jakieś kwestie związane z mapami,
bo to, co jest tam obecnie, co znajduje się tam obecnie,
to są mapy OpenStreetMap, gdzie mi się wydaje, że kiedyś
Soundscape korzystał też z Binga, z danych Bing Microsoftu.
I z tego, co przynajmniej mi się wydaje, nie ma,
korzysta właśnie z OpenStreetMapa ta wersja otwarta,
więc podejrzewam, że to właśnie może być ta część, która stamtąd znikła
i też może być to kwestia tego śledzenia ruchu głowy
jakichś konkretnych urządzeń, jakichś konkretnych integracji
z urządzeniami firm trzecich.
Tak podejrzewam, że tam też może być ta kwestia.
No ale aplikacja jest, całkiem nawet duża, bo to 86 tysięcy linii kodu.
Szczerze mówiąc, nie spodziewałem się, że to będzie aż takie duże.
Ukazać się ona ukazała, więc jeżeli ktoś będzie miał chęć
dalej ją rozwijać, no to oczywiście będzie miał taką możliwość,
no bo kod można sobie pobrać i zrobić z nim, co chcemy.
Jest on udostępniony na licencje MIT, czyli możemy robić wszystko
i mało co tak naprawdę nas obchodzi.
Mamy bardzo niewiele restrykcji.
Chyba jedyną restrykcją, jaką mamy, to jest to, że jeżeli wykorzystamy
jakieś części Soundscape’a w naszej aplikacji, to gdzieś tam w pomocy
musimy po prostu umieścić taką adnotację, że ta aplikacja korzysta
z takiego i takiego kodu i on został stworzony przez taką a taką osobę,
co jest całkiem normalną praktyką i takie rzeczy się stosuje.
Ale nie jest to tak, że jeżeli my nagle wrzucimy Soundscape’a
do naszej aplikacji, to cała nasza aplikacja też musi być otwarta.
Nie ma kompletnie takich wymogów, więc jest, myślę, że sporo nadzieja
na to, że któryś z twórców innych nawigacji może wziąć coś,
co oferuje Soundscape i skorzystać z tego w swoich własnych apkach.
Kolejna informacja. Mówiliśmy tutaj już kiedyś o narzędziu ChatGPT,
które podbija serca osób gdzieś tam zajmujących się technologią
i okazuje się, że to narzędzie ma też swoje zastosowanie
wśród osób niewidomych. Okazuje się, że ono umie całkiem dobrze
poprawiać książki, które są zeskanowane i poddane
wszelkiego rodzaju rozpoznawaniu tekstu. Oczywiście nie tylko książki,
ale również inne dokumenty, które nie są w żaden sposób tajne,
którymi jakoś nie boimy się podzielić z taką usługą,
bo pamiętajmy, że wszystko, co tam wrzucimy, może być czytane
potem przez osoby, które zajmują się udoskonalaniem tego typu usług.
No i okazuje się, że jeżeli napiszemy właśnie w tej usłudze,
że to jest zeskanowany dokument z błędami, popraw go i wkleimy dokument,
to ten dokument zostanie nam całkiem nieźle poprawiony.
To, co było testowane, było testowane na języku angielskim,
na którym ta usługa jest generalnie uczona.
To, co ona ma z polskiego, to są jakieś skrawki, które przebiły się
przez filtr, bo tam się generalnie filtruje języki obce,
żeby ich nie było, ale po prostu to są tak ogromne ilości tekstu,
że to, co się przebije przez filtr, wystarczy do tego,
żeby ta usługa umiała mówić po polsku całkiem sensownie i całkiem składnie.
Swoją drogą, Mikołaju, wiadomo, jakie jeszcze inne języki przebiły się
przez ten filtr? Ten polski jest taki przypadkiem, czy to więcej jest?
Nie, to się jakby wszystkie, bo to się przebija po prostu,
bo tak jest i tak będzie, bo tego się nie da wszystkiego wyłapać,
więc to absolutnie nie jest tak, że polski jest jedyny.
Polski tu jest raczej w grupie wszystkich innych języków,
ale generalnie unika się tego, żeby tam treści w językach obcych
gdzieś tam były, no i też widać jednak troszkę, że z tą gramatyką polską
to czasem na przykład potrafi mieć problem, gdzie z gramatyką angielską
to nigdy i nigdzie nie ma problemu i on sobie radzi po prostu perfekcyjnie,
bo tych danych jest po prostu mniej.
No w każdym razie w języku angielskim na pewno, niewiadomo jak w innych,
nadaje się to narzędzie do tego, żeby wrzucić mu kawałek tekstu
i żeby zrobić automatyczną korektę z OCR-a, co nawet jak sobie gdzieś tam liczyłem,
gdyby korzystać z tych płatnych modeli, to wyszłoby nam mniej więcej
przy dużych książkach tak mniej więcej 10 zł za książkę.
Przepuszczenie przez takie narzędzie, jeżeli chcielibyśmy korzystać właśnie z korekty,
napisać sobie jakiś program, który ładuje nam książkę jako biblioteka
i nam te skany gdzieś tam poprawia.
No więc to jest też fajna informacja, że jest to teraz w jakiś sposób
na słabej jakości skany, jeżeli mamy te skany gdzieś potem udostępniać,
jest ileś tych bibliotek, które właśnie udostępniają czytelnikom niewidomym
zeskanowane książki, zgodnie tam z użytkiem dozwolonym,
więc coś takiego może się przydać.
Pojawiło się kolejne narzędzie, na razie gdzieś tam w powijakach
i podczas jego tworzenia, które ma na celu stworzenie
prostej, dostępnej dla niewidomych, niewymagającej większej wiedzy technicznej
nakładki na narzędzie Whisper, czyli ten system, którego my używamy
tutaj w Teflopodcaście do rozpoznawania audycji naszych
i przetwarzania ich na tekst.
No i myślę, że to może wiele osób ucieszyć, bo gdzieś już dostawaliśmy
takie pytania, no a jak tego Whisper’a używać i co ja mam zrobić,
żeby móc tego używać. Na razie nie jest to proste i wymaga to trochę
wiedzy technicznej, wymaga to trochę obycia z wierszem poleceń.
Ma się to zmienić, no chociaż musimy też pamiętać o tym,
że nadal problemem będzie to, ile zasobów Whisper wymaga.
No i tutaj bez dobrej karty graficznej niewiele zdziałamy
i to już takiej naprawdę z wyższej półki karty graficznej.
No jest ta wersja Whisper’a, która jest napisana w C,
która na procesorach działa.
Tak, na procesorach działa, no ale tutaj też z kolei musimy mieć
dużą ilość RAM-u i to całkiem sensowny procesor.
I faktycznie np. u mnie na tym Macu, którego ja mam,
który co prawda ma sensowną kartę graficzną, ale to jest jakby
inna rodzina kart i one nie są do końca kompatybilne z tym,
co Whisper by chciał. Przynajmniej jeszcze to się ma też wkrótce
zmienić, no ale ma właśnie bardzo porządny procesor.
I ja tę wersję testowałem i ona działa naprawdę fajnie.
No i na tym właśnie naszym modelu, na którym my przetwarzamy
tylko podcast, no to to działa z prędkością 1,5 raza, czyli
jeżeli wrócimy, powiedzmy, nie wiem, 45 minut audio,
no to na 30 minut nam się to wytranskrybuje z audio na tekst.
Ja jeszcze tylko dodam do tego, o czym ty mówisz, Mikołaju,
że już takie nakładki na Whisper’a, które ułatwiają, to są.
Jak sobie wejdziemy na GitHub’a i przejrzymy te różne rzeczy,
to tam znajdziemy różne projekty, które wykorzystują Whisper’a
i gdzieś tam już nawet miałem okazję bawić się takimi,
tymi nakładkami, które ułatwiają, pomagają.
Powiem więcej, są już nawet i też to testowałem
i to chyba nawet w którymś Tyflo Przeglądzie również o tym wspominałem.
Są narzędzia, które próbują, aby Whisper tłumaczył,
a właściwie transkrybował tekst w czasie rzeczywistym.
To jest co prawda taki czas pseudo-rzeczywisty,
bo on tam działa w pewnym oknie czasowym,
my sobie to ustawiamy i po prostu jest to pewne opóźnienie,
ale jednak mimo wszystko ludzie różne rzeczy robią z tym Whisper’em
i naprawdę dosyć ciekawe eksperymenty tworzą.
Ja cały czas, powiem szczerze, z niecierpliwością czekam,
aż ktoś sobie poradzi w końcu z wykrywaniem mówców,
bo to jest chyba jedna z najczęściej podnoszonych kwestii dotyczących Whisper’a,
której ludziom brakuje.
Też już jakieś próby są.
Tak, są jakieś zewnętrzne w ogóle narzędzia, które coś takiego robią.
Ostatnio odczytałem też zresztą na Hackerniusie,
ktoś wrzucił link do rozwiązania, które ktoś stworzył,
które miało być jakby takim systemem tłumaczenia,
tworzenia napisów do filmów w czasie rzeczywistym,
czy do gier nawet, bazującym na tym, co jest w Cyberpunk’u i 2077.
I nawet to jakoś powstało, że on tam nakłada na dialogi w grze
napisy przetłumaczone DPL-em, stranskrybowane coś tam Whisper’em
i jest jakieś trzecie narzędzie, które przyporządkowuje właśnie mówców.
Więc trzeba by po prostu spojrzeć i zobaczyć.
Tak, ale to już z moich przynajmniej obserwacji jest więcej zabawy
z łączeniem tego i tak w ogóle, to ja też trochę przestrzegam
tych wszystkich, którzy mają ochotę się pobawić Whisper’em,
a może niekoniecznie mają dużo wiedzy na temat Pythona,
na temat tego, od czego tam zależy, przed jedną rzeczą,
mianowicie przed instalowaniem z GitHuba wszystkiego, jak leci,
bo się w pewnym momencie może okazać, że jedno wam zacznie działać,
ale na przykład Whisper wam przestanie działać.
Są oczywiście na to odpowiednie sposoby, ale też trzeba mieć to na uwadze
i trzeba ostrożnie, więc jeżeli gdzieś tam na przykład instalowaliście Whisper’a
w oparciu o jakiś poradnik z internetu i byliście w stanie przez to przebrnąć,
ale niewiele więcej wiecie na temat tego, jak i co i od czego tam zależy,
to ja bym do tego typu eksperymentów podchodził z odpowiednią dozą ostrożności.
No tak, to oczywiście wszystko prawda.
No i tak kończąc temat Whisper’a, okazuje się, że jest osoba niewidoma,
która miała okazję testować smartfon z Androidem z klawiaturą fizyczną kuwerty.
Urządzenie nazywa się Astro Slide 5G
i co się okazuje, urządzenie nie jest wyposażone w topeka.
Tego topeka trzeba sobie podobno doinstalować
i mimo, że producent twierdzi inaczej, to ktoś to testował
i się okazało, że tego topeka nie było.
Urządzenie ponadto nie wspiera gestów wielopalczastych,
bo to jest Android 11, więc nie może ich wspierać.
Nie ma kropek na F i J, klawiszach F i J.
Nie ma wypukłości, co utrudnia jakieś zorientowanie się, co gdzie tam jest.
I podobno ten mechanizm tej klawiatury, ten zawias, czy jak go tam zwał,
to też zbyt solidnie nie wygląda
i ciężko przewidzieć, ile takie urządzenie wytrzyma
i czy ono się czasem nie rozleci.
Więc generalnie pierwsze opinie, pierwsze wrażenia nie są zbyt fajne.
Zainteresowałem się ostatnio też tematem RH Voice’a,
o którym tutaj było parę, już razy, naście razy wspominane
i jak wygląda sprawa, jak wyglądają postępy z RH Voice’em na iOSie
i RH Voice’em na Macu.
I okazuje się, że nie wyglądają one wcale, a wcale za dobrze,
bo były jakieś pierwsze próby, jakieś pierwsze patche w czerwcu
i tak od czerwca to sobie leży i w sumie nie wiem, na co do końca to czeka.
Nie jest jakby zaproponowana taka seria zmian do RH Voice’a na GitHub’ie,
która czeka na aprobatę lub dezaprobatę
autorki, twórczyni głównej, czyli Olgi, która się tym RH Voice’em zajmuje
i tak sobie czeka bez jakichś nawet większych komentarzy,
co tam jest nie tak, względnie dlaczego nie zostało to już przyjęte.
Ja nawet otagowałem jakiś czas temu w komentarzu Olgę, twórczynię RH Voice’a,
żeby może mieć jakiś komentarz, stanowisko, żeby się do tego odniosła.
No, na razie się nie odniosła, więc trochę mnie to smuci,
jako naużytkownik też urządzeń Apple, bo kompletnie nie wiem po prostu
na czym stoimy i co nas w tej kwestii będzie czekało.
Co jeszcze? Okazuje się, że RH Voice pracuje też, ktoś właściwie przy RH Voice’ie,
nad możliwością wytrenowania nowych głosów RH Voice’a na tej platformie Google Collab.
To jest taka platforma, którą się bardzo często wykorzystuje
przy wszelkiego rodzaju sztucznej inteligencji.
W skrócie mówiąc, pozwoli to nam na to, żeby w sporo prostszy sposób,
nawet taki, który podejrzewam, że osobom średniotechnicznym
by się dało jakoś wyjaśnić, stworzyć sobie takie nasze głosy RH Voice’a,
no bo obecnie to instrukcja jak takie głosy zrobić,
to jest kilka chyba dziesiąt kroków i wymaga ona dość sporych zabiegów z Linuxem
i tutaj już trzeba wiedzieć trochę co robimy.
Jest sporo, przechodziłem przez to.
W pewnym sensie polecam to tylko tym, którzy naprawdę chcą to robić u siebie,
bo rzeczywiście jest tego dużo, to znaczy może nie kilkadziesiąt,
tam kilkanaście tych kroków jest, natomiast to są kroki, które ludziom takim jak ja,
to znaczy, którzy niewiele mają do czynienia z programowaniem, prawie w ogóle,
to jest tam dużo, dlatego że tam trzeba po pierwsze oprócz kompilacji różnych rzeczy,
powiedzmy jeszcze tam okurzna było się spotkać nieraz, chociaż coraz rzadziej,
bo coraz więcej jest rzeczy, które są po prostu w Pythonie
i się to robi przez jedno lub dwie komendy.
Tak, ale tam jest edycja jeszcze jakichś plików konkretnie, coś trzeba patchować,
żeby to działało, jest sporo zabawy.
Jak to się robi przez WSL, to jeszcze pół problemów,
bo można sobie to powiedzmy w notatniku czy w jakimś innym edytorze,
choć niektóre pliki są duże i jak tam patrzyłem,
zmień linijkę numer 1100 ileś tam, no to jest nieźle,
natomiast oprócz tego trzeba pobierać jeszcze rzeczy ze strony,
przy czym to nie zawsze działa, bo czasami pobiera się zamiast pliku informacja,
że jest błąd, więc trzeba też sobie sprawdzić,
bo tam jest jedna z bibliotek, która wymaga, ona jest darmowa,
ale jakby wymaga założenia konta na jednym z serwisów i pobrania po prostu plików.
Tak, i to hasło przychodzi do nas mailem, jak dobrze pamiętam
i tam trzeba po prostu to wpisać i pobrać.
Tak, i to hasło użytkownika się jakby wpisuje w adres strony,
więc tam jest ileś różnych rzeczy, które się robi na ileś różnych jakby sposobów
i wystarczy jedną rzecz zrobić źle, żeby cały proces,
no może nie to, że trzeba było powtarzać, ale żeby coś poszło nie tak
i wtedy trzeba wiedzieć, co poszło nie tak, a to też nie jest takie proste.
Sam proces tworzenia tych głosów to też ma tam kilkanaście kroków,
do tego powstają powoli różne zautomatyzowane narzędzia,
zresztą ja też tam mam swój mały, bo mały, ale udział,
sam sobie na początku takie narzędzia, znaczy może nie,
ale Grzesiek Złotowicz napisał takie narzędzie, potem ja je troszkę podrasowałem pod siebie,
a potem jeszcze się okazało, że jeden gość, którego nie znam osobiście,
też zrobił narzędzie takie ohohoho, tam całe menu jest, jak to ma się wszystko tworzyć.
W każdym razie ciekaw jestem, jak ten notatnik będzie wyglądał,
natomiast ja się boję, że iluś użytkowników może się zniechęcić do tego,
że po pierwsze tam jest coś takiego, że cały ten proces jest podzielony na ileś kroków
i z jednej strony to dla collaba dobrze,
dlatego że te notatniki collabowe potrafią w pewnym momencie przestać działać,
bo tak, te collaby to potrafią na przykład 2-3 godziny działać,
po czym stwierdzą, że a, tego użytkowniku koniec.
I wtedy może się okazać, że w połowie trening jest i po prostu sorry, odłączamy
i do widzenia i cała praca przepadła.
No i teoretycznie można to sobie wszystko pobrać,
natomiast RH Voice tworzy milion plików różnych w różnych lokalizacjach w trakcie tworzenia,
więc teoretycznie można by to pewnie jakoś sobie zipować.
Natomiast jest jeden proces, czyli sam trening, który po prostu trwa,
no to on sobie ileś musi potrwać, w zależności od tego jaka to jest maszyna
i ile jest próbek, no to on trwa sobie bardzo różną ilość czasu.
Dla takiego standardowego głosu, na przykład typu Nathan albo Michał,
no to on trwa, u mnie na laptopie no to tak ze dwie godziny,
na starszym komputerze no to tak ponad trzy,
więc to trochę jest, plus oczywiście nawet bliżej czterech,
w każdym razie no plus te etapy poprzednie,
no to na tym starym komputerze tak od początku do końca,
no to tworzenie głosu zajmowało tak pięć i pół godziny,
na nowym tym laptopie, co teraz mam, to jest taki laptop raczej z górnej półki,
no to tak ze trzy godziny może niecałe to zajmuje.
W związku z powyższym, no jest realna szansa,
że te collaby w międzyczasie się zawalą, tworzenia takiego głosu,
więc to nie jest tak, że teraz nagle każdy będzie mógł tworzyć te głosy bez limitu,
to znaczy jeżeli to będzie jakiś mały głos,
który składa się powiedzmy z 20 minut nagrań,
no to pewnie tak, bo 20-minutowy głos, no to przynajmniej u mnie na laptopie
to się tworzy no tak, no nie wiem, 40 minut do godziny, podejrzewam,
więc no nie powinno być jeszcze większego problemu,
zresztą Google Collab to jest taki serwis, który wymaga specjalnej troski,
to znaczy najlepiej by było, żeby użytkownik miał przez cały czas otwarte okno przeglądarki
na tej stronie, żeby na tej stronie coś jeszcze robił,
to znaczy żeby on siedział przy komputerze i aktywnie obserwował ten proces tego,
co się tam dzieje, bo wtedy Google też wie, że to nie jest tak,
że to jest coś puszczone i użytkownik idzie,
bo Google Collab to jest tak naprawdę projekt służący do badań różnych rzeczy,
więc jakby chodzi tu o to, żeby można było się uczyć na przykład
o sieci neuronowych, programowania, więc w takich przypadkach z reguły obserwuje się
tę swoją pracę, no i w związku z tym jakby Google nie chciałoby,
żeby to było wykorzystywane w takich sytuacjach, że jest coś tworzone
i w sumie to użytkownik to sobie puszcza i sobie idzie gdzieś i to się robi samo,
w związku z czym no różnie to może wyglądać, ale możliwe,
że to rzeczywiście może działać, nie wiem właśnie jak tutaj poradzona sobie
z tym problemem, że ten Collab może sobie pójść, że tak powiem, na spacer,
on tam ma możliwość chociażby dodania, znaczy zapisania czegoś na dysku Google
i podmontowania dysku Google, więc możliwe, że tam jest jakiś etap,
w którym to, co się tam zapisało jest eksportowane na dysk,
tego nie wiem, bo jeszcze nie widziałem tego notatnika,
choć chętnie bym go sobie obejrzał i sobie zobaczył, jak to wygląda.
No i mam nadzieję, że rzeczywiście komuś to pomoże stworzeniem takiego syntezatora,
też są próby stworzenia czegoś, co nazywa się docker, czyli stworzenia takiej,
no nie wiem, czy to można nazwać wirtualną maszyną, ale takiego…
Coś tak jakby, jakby technicznie rzecz biorąc to chyba nie jest wirtualna maszyna,
to są te tak zwane kontenery, one trochę inaczej tam działają,
ale żeby nie komplikować to tak, to jest po prostu wirtualne środowisko.
Tak, coś w rodzaju takiego wirtualnego, powiedzmy, że Linuxa już z zainstalowanymi
wszystkimi bibliotekami, który w dodatku ma uruchomić konkretne komendy,
czyli mamy komendę stwórz rhvoice’a z plików takich a takich,
i to się może dziać jakoś tam w miarę automatycznie.
Oczywiście taki program, jeżeli powstanie będzie raczej duży,
to nie będzie program, który ma 100 mega, to będzie program, który pewnie będzie miał
nie wiem, może 1 giga, może 2, nie wiem, to będzie raczej duże.
Natomiast jest szansa, że to będzie jakoś działało, no i zobaczymy, o ile to powstanie.
Kiedyś rozmawiałem, to problemem największym było właśnie to całe HTK,
czyli ten komponent, którego potrzebujemy, żeby sobie takiego rhvoice’a zrobić,
który ma to ograniczenie licencyjne i jego nie możemy za bardzo dystrybuować.
My sobie go możemy pobrać, my sobie go możemy używać, ale my go nie możemy udostępniać.
No i tutaj się pojawia problem.
To jest właśnie to coś, gdzie trzeba wpisać na tego uczestnika hasło.
Ja rozmawiałem z Tomkiem Kowalikiem i on mówi, że jeżeli to tak wygląda, to nie ma problemu,
to znaczy można zrobić takiego dokera, w którym wpisywałoby się swój login i hasło
i on po prostu na podstawie tego, co by się wpisało, on by sobie to pobierał.
Więc jest szansa, że byłaby możliwość stworzenia takiego dokera,
który nie łamałby tych ograniczeń licencyjnych. Także tak.
No w każdym razie jest na to, podejrzewam, szansa i to części osób myślę, że ułatwiłoby sprawę,
aczkolwiek i tak, no co by nie mówić, tworzenie takiego głosu to nie jest zabawa dla osoby,
która nie ma wiedzy technicznej, bo tam trzeba i nawet jeżeli ten proces zostanie uproszczony,
to stworzenie takiego głosu to nie jest przechodzenie przez jakiś kreator,
na zasadzie powiedz parę słów, a teraz wygeneruje się synteza. No nie.
No to teraz w takim razie znowu Paweł.
Pierwsze wrażenia po zagraniu w skrable prowadnicy, bo mówiliśmy o tym jakiś czas temu,
że prowadnica, Fundacja Prowadnica zaczyna sprzedawać różnego rodzaju,
kilka różnych produktów w tym skrable. No i mamy już pierwszych, którzy te skrable mają, w tym Paweł i ja.
Tak i ty Michale też i myślę, że mamy dość podobne obserwacje, ale przekonajmy się.
Ogólnie jestem bardzo zadowolony, muszę powiedzieć. To była naprawdę gra,
która rozkręciła nam dyskusję przy stole świątecznym i budowanie słówek sprawiało nam wielką radość.
Gra składa się z planszy, która jest w pięciu częściach, staje się pięciu.
Czterech.
Czterech?
W czterech, tak.
Tak, w czterech, które łączy się ze sobą i wkłada się tam te kafelki, powiedzmy, czy płytki, płytki, płytki z literkami.
I na każdej płytce mamy literkę z wygrawerowanym brajlem i wygrawerowanym też pod spodem czarnodrukiem.
Jest to litera i punktacja, która tej literze jest przypisana. No tak, płytki trzymają się stabilnie.
Swoją drogą, w ogóle naprawdę fajnie można było sobie, przynajmniej ja sobie mogłem przypomnieć, jak wyglądają co niektóre litery,
no bo tak szczerze nie na co dzień masz do czynienia z całym alfabetem, więc to też taki walor edukacyjny, niewątpliwie.
Jak najbardziej. Ja nawet już mam takie pomysły, żeby jako taki, powiedzmy, trik wizualny dla gości, którzy przychodzą,
ułożyć na stole planszę ze skrablami w jakiś napis. I to też nie jest złe, to ma bardzo ograniczone zastosowania,
ale mamy możliwość jakiejś komunikacji z osobami widzącymi poprzez wkładanie liter.
Więc jest to, mówię, do jakiejś takiej zabawy typu witamy kogoś na urodzinach naszych czy na jakiejś imprezie
i chcemy zrobić takie pierwsze wizualne wrażenie, to możemy ułożyć w skrable jakieś hasełko na przykład.
Natomiast tak, gra się super. Rzeczywiście i widzący i niewidomi mogą grać. Mamy tych literek dość, mamy planszę.
I teraz czym są problemy? Pierwszy podstawowy problem i to naprawdę wiele osób zgłaszało i ty Michale chyba też, kontrast.
Zgadza się. Kontrast. Ja nie zamawiałem planszy z kontrastem, bo są dwie wersje skrabli.
Jest wersja taka standardowa i jest wersja kontrastowa. Ona jest tam trochę droższa.
Natomiast Dawid w ogłoszeniu a propos skrabli na forum Eltena zdaje się też, ale tam i chyba w opisie produktu na stronie prowadnicy
też jest taka informacja. W każdym razie w którymś miejscu na pewno o tym czytałem, że osoby widzące nie miały problemu z graniem w tę grę.
Jeżeli chodzi o ten wariant standardowy. No to skoro tak, okej, no to zamawiam standardową opcję, bo grałem z osobami, które ze wzrokiem problemu nie miały.
Natomiast problem był. Problem był zasadniczo w momencie, kiedy było zapalone sztuczne światło.
Jeszcze kiedy grało się w takim zwykłym świetle, kiedy grało się w dzień powiedzmy, no to większego problemu nie było.
No ale powiedzmy sobie szczerze, przy obecnej porze roku to światło zapala się dość szybko i problem z czytelnością tych płytek występował.
U mnie to ja jeszcze mogę potwierdzić, że zauważyłem to wśród graczy 55-60 wiekowo. Była zwiększona potrzeba używania okularów, że jak założyli okulary to było trochę lepiej,
to mogli się w tym lepiej rozczytać.
Nie, to w moim przypadku to nawet młodzi po dwadzieścia parę lat też był problem.
To tutaj rzeczywiście potwierdzają, u mnie też potwierdzają, że rzeczywiście jest z tym problem.
Druga rzecz, nie widzę tego problemu, ja go aż tak nie odczuwam, co niektóre osoby zgłaszały,
które zgłaszały niektóre osoby, że ten brail jest taki nie do końca wyraźny, że tam niektóre znaki wyglądają,
że trzeci punkt wygląda jak szósty, że te odległości między punktami są jakieś nietypowe, nie zauważam tego w mojej patrzni.
Nie, ja też nie, tego tak nie odczuwam. Co prawda, no widać, że te płytki niekiedy, ale to nawet chyba nie brail, tylko bardziej te niektóre litery czarnodrukowe,
ale i te punkty brailowskie też są w taki dziwny sposób wytłoczone, to znaczy czasem one są takie dosyć ostre te punkty,
ale to raczej kwestia faktury niż odległości między punktami.
W ogóle z brailem na drukarce 3D to są problemy i ja pamiętam, że nawet u nas kiedyś na uczelni byłem wołany do,
gdzieś tam do laboratorium, które się zajmuje właśnie wszelkiego rodzaju dostosowaniami
i mi tam pokazywano chyba z pięć różnych próbek braila wydrukowanego właśnie różnymi technikami
i mnie pytano, no dla mnie jako dla osoby niewidomej, która jest najsensowniejsza i którą wolę, która lepsza, która gorsza.
A widzisz, no to widocznie to jest coś, co wymaga ekspertyzy i takiego trochę rozeznania,
ale myślę, że tą ekspertyzę też Fundacja Prowadnica posiada, wszak sami są użytkownikami braila,
więc myślę, że już niejeden test pod tym kątem przeprowadzili.
Natomiast coś, co ja osobiście bardzo mile bym widział w takim zestawie, to jest instrukcja obsługi.
Bo ja oczywiście wiem i tu jest pytanie, jak to zrobić najlepiej, bo ja wiem, że można w internecie znaleźć.
No to jest jasna sprawa, ale po pierwsze, no ja jestem jednak zwolennikiem tego,
że produkty, które się sprzedaje i ktoś to kupuje, powinny mimo wszystko z jakąkolwiek instrukcją przyjść.
Bo użytkownik, który kupuje produkt komercyjny, nie powinien się domyślać, jak go używać.
Zgadza się. I tak samo to dotyczy jakiegoś opakowania, w którym te skrable są przechowywane.
No tu rzeczywiście opakowania nie było, natomiast mam już informację od Dawida,
że te skrable, dlatego była taka sytuacja z nimi, że po prostu chcieli wywiązać się z tego,
żeby dostarczyć je przed świętami. I istotnie przed świętami one dotarły, to jest prawda.
Natomiast po prostu oni zamówili opakowania, ale te opakowania nie dotarły na czas.
No tak bywa z drobnymi biznesami.
To nie jest hurtownia, która może prawdopodobnie kogoś zobowiązać jakoś finansowo.
Ale fakt faktem, jeżeli gramy gdzieś tam z osobami widzącymi, no to też jakoś fajnie,
gdyby to rzeczywiście wyglądało w odpowiedni sposób, że wyjmujemy te plansze
z jakiegoś odpowiednio wyprofilowanego pudełka.
Też w skrablach w ogóle, w opisie, który znalazłem gdzieś w internecie,
no bo zgodnie z tym, co wspomniałeś Pawle, to jest istotnie problem z tą instrukcją obsługi,
instrukcją gry, zasadami gry, powinny być podstawki jeszcze na te płytki z literami.
Tych podstawek nie ma.
Tak, to prawda. I te podstawki są, do czego też potem przejdę później dość praktyczne,
jeżeli gramy w skrable, bo można grać w skrable na poziomie mistrzostw.
To są mistrzostwa w skrable.
No więc właśnie, potem tak, mamy premie oznaczone słowne i wyrazowe.
Przepraszam, słowne i literowe, oczywiście.
Dwu i trój, podwójne i potrójne, czyli że za konkretną literę lub za całe słowo
otrzymamy dwa razy lub trzy razy więcej punktów.
Są to odpowiednio dla, dobrze teraz pamiętam, dla literowych są to kwadraty,
a dla słownych są to kółka.
Jak dobrze pamiętam, to tak właśnie jest.
Ten opis jest na stronie sklepu Prowadnicy i to jest jedyne miejsce, w którym go znajdziecie.
Dokładnie, więc też by się przydał gdzieś przy opakowaniu.
Natomiast te koła w zależności od wielkości są małe, duże,
więc odpowiednio podwójne, potrójne premie.
No i bywa tak, że te pola znajdują się na złączeniu plansz.
I to nie jest jakiś duży problem, natomiast wymaga z początku
pewnego przyzwyczajenia się, żeby odróżnić, że to jest złączenie,
a nie kwadracik, który symbolizuje premię literową.
Więc tutaj można się przyzwyczaić, natomiast jest to na początek
troszkę takie, no wymaga przyzwyczajenia się.
Moja osobista preferencja byłaby też taka, żeby jakoś oznaczyć prawy,
na przykład tak jak się mapy brailowskie ścina się prawy górny róg,
to żeby też jakoś oznaczyć jeden z rogów planszy,
żeby wiedzieć według czego ją orientować.
Bo okej, zazwyczaj jak się gra w takim uporządkowanym powiedzmy
zestawie osób, które trzymają się zasad i chcą współpracować
i pamiętają o tych zasadach współpracy, no to tą planszę się obraca,
orientuje się względem następnego gracza.
Czyli powiedzmy ja gram do Michała, Michał do Mikołaja,
ja podaję Michałowi planszę tak, żeby on miał te litery poukładane
względem siebie z góry na dół.
No i Mikołaj już dostanie tę planszę, bo siedzą obaj panowie obok siebie
zorientowaną jak należy.
Więc jeżeli stół się zagina, no to warto tę planszę też odpowiednio obrócić.
No i fajnie by było jakby to było jakoś zaznaczone, żeby,
zwłaszcza jak grają na przykład same osoby niewidome
i ktoś gdzieś się zapomni, pogubi, żeby tą planszę
dużo łatwiej było zorientować.
Myślę, że byłoby super.
Kwestie kontrastu, tak mi się teraz przypomniało, tych literek
my rozwiązaliśmy chałupniczo, bo moja mama już się wyposażyła
w czarny flamaster i zamalowała po prostu te litery,
te płytki na czarno, żeby było bardziej kontrastowo.
Trochę zabawy miała.
Tak, to prawda, ale stwierdziła, że takiej się gra podoba.
W ogóle moja mama na początku była bardzo nieprzekonana,
że sobie nie poradzi, że nie będzie w stanie wymyślać tych wszystkich słów.
Po czym wygrywała partię za partią i się naprawdę wkręciła,
więc myślę, że tutaj przekonaliśmy osobę nieprzekonaną.
Też już wiem o jednej osobie, która jest w takiej sytuacji,
że traci wzrok powoli, nie jest w stanie grać w skrable tradycyjne,
a nie zna jeszcze Braila.
Więc tutaj te wypukłe litery bardzo, bardzo pomogą.
Tak, to jest bardzo dobry ruch, że one są,
bo faktycznie, no to może pomagać.
Jeżeli ktoś nie zna Braila, ten wzrok traci.
Czy tam Brail jest też?
Tak, tam jest Brail, tam jest czarnodruk,
ale w Brailu i w czarnym druku masz nie dość,
że literę, to jeszcze cyfrę.
Czyli punktację za literę.
Punktację, tak.
No i że tak powiem, czy można jakoś to fajnie tutaj zamknąć?
Dobra gra.
Naprawdę świetnie się bawię.
Już kombinuję, jak wymyślać słowa.
I tutaj właśnie przechodzę powoli do drugiego tematu,
który trochę na kanwie tego, że zacząłem w te skrable grać,
a trochę dlatego, że z jakichś przyczyn
Hacker News ostatnio jest zadany artykułami na ten temat,
przeszedłem do kwestii grania w skrable bardziej profesjonalnie.
I okazuje się, że istnieją oficjalne mistrzostwa skrablowe.
W różnych językach można w nie grać
i są osoby, które naprawdę to wygrywają
i to niekoniecznie są rodzimi użytkownicy danego języka.
Bo przykładowo zwycięzcą tytułu mistrza skrabli w języku francuskim
dzierży aktualnie Nowozalandczyk.
Człowiek, który po francusku potrafi powiedzieć bonjour
i policzyć do dziesięciu,
ale nauczył się całego słownika na pamięć.
I ja sobie pomyślałem, że to jakiś jest po prostu ewenement.
Są różni ludzie, różne dziwne rzeczy ludzie w życiu robią.
Na przykład uczą się słownika na pamięć słów wypuszczalnych w grach.
Natomiast okazało się, że to nie jest jakiś ewenement,
bo istnieją całe techniki i na tym polega gra w skrable takie mistrzowskie,
że osoby, które grają w te skrable i rzeczywiście im zależy na tym,
żeby te wyniki osiągać,
to nie są ludzie, którzy po prostu znają dużo słów
i są jacyś bardzo wygadani, elokwentni w każdym języku.
To są ludzie, którzy siedli sobie do słownika gier
i zaczęli się go uczyć od wyrazów dwuliterowych.
I w każdym języku jest konkretna określona ilość.
Dwuliterowych jest tyle, trójliterowych jest tyle, czteroliterowych jest tyle.
I oni się po prostu uczą tego jakimiś technikami,
robią sobie w ogóle całe fiszki.
W ogóle są programy komputerowe do ćwiczenia tych słów.
I już wtedy człowiek ma taką wiedzę,
ile punktów można dostać za konkretne słowo
i to wcale nie jest gwarancją, że długie słowo zapewni nam więcej punktów.
Bo się może okazać, że jeżeli mamy słowo dwuliterowe nawet,
ale które używa jakichś mniej spotykanych liter,
bo każda litera oczywiście w zależności od języka,
od częstotliwości występowania w słowach w danym języku
jest wyżej punktowana, na przykład Z jest za 9 punktów w języku polskim.
Z tego zapamiętam, aż za 9 chyba.
To jest najwyżej punktowana litera.
No to możemy ułożyć słowo składające się właśnie z takiej litery
plus jeszcze trafić na premię, bo kto nam zabroni,
jeżeli oczywiście układ nam sprzyja i ruchy innych graczy.
I tym nabijemy sobie bardzo dużą ilość punktów tak naprawdę.
I mistrzowie w Scrabble już działają w ten sposób,
że właśnie oni znają już takie triki,
które słowa w której konfiguracji im zapewniają
jak najwięcej tych różnych punktów.
I na przykład w angielskie Scrabble mistrzami są Pajowie,
którzy też specjalnie nie umieją jakoś po angielsku się dogadać,
natomiast znają słownik i przećwiczyli go wielokrotnie
z programem komputerowym.
Bardzo często nawet nie są lingwiści,
czy powiedzmy osoby związane z humanistycznymi naukami,
tylko właśnie osoby, które rozpracowują mechanizmy.
Matematycy, informatycy, muzycy, artyści i tak dalej,
którzy gdzieś tam potrafią ogarnąć słownik jako pewien mechanizm.
W ogóle zdaje się, że takie osoby mają też już przed oczami,
w głowie mają jakby ten graficzny obraz.
Słowo, punkty, słowo, punkty, słowo, punkty.
Jest to niesamowite.
Jest to niesamowity, myślę, wyczyn.
Jestem ciekaw, na ile mając teraz dostępne takie Scrabble w Prailu,
byłoby nam dozwolone, ja wiem, że tam wchodzi jeszcze kwestia
pewnie jakiegoś czasu, nie wiem, jak tam wygląda czas przydzielony
na myślenie się nad danym słowem, pewnie nie jest to bez znaczenia.
Natomiast skoro są osoby niewidome grające w szachy,
no to ja jestem ciekaw, na ile by dało się wyrobić grając w Scrabble
i na ile to musiałaby być jakaś własna kategoria,
a na ile moglibyśmy się zintegrować z osobami widzącymi.
Ciekawe to jest.
Jeżeli ktoś rozbadał bardziej dokłębnie temat,
to zachęcam do podzielenia się, bo bardzo by mnie to interesowało.
Tak samo jak i zresztą, bo ogarnianie planszy Scrabble’i
takich prailowskich, jak właśnie są Sprowadnicy,
jest możliwe, aczkolwiek wiem, że jak bardzo szybko mi zależy
na tym, żeby przejrzeć, to potrafię też wytrącić płytki.
Te płytki potrafią wyskoczyć mi z planszy niestety.
Zdarzyło mi się już tak raz czy dwa.
Natomiast też właśnie to trochę dłużej trwa takie opanowanie ręką
tego układu i liter i tego wszystkiego, co zostało już ułożone
względem tego, jak wzrokiem to ogarnia osoba widząca.
Natomiast jeżeli macie jakieś przemyślenia na ten temat,
to zachęcam do dyskusji.
Tak samo jeżeli macie polecenie jakiejś aplikacji iOS, Android
dostępnej ze słownikiem słów dopuszczalnych w grach.
To byłoby super, bo też taki słownik często się przydaje w grze.
Już nieraz się z tym przekonałem.
Na sjp.pl chyba jest gdzieś do pobrania txt, plik po prostu taki duży
z słownikiem słów Scrabble’i i sobie po prostu można go pobrać.
Okej, to jest dobra wskazówka, Mikołaju, dzięki.
Natomiast fajnie, jakby to jeszcze była aplikacja, w której można
jakoś nawigować, wyszukiwać, doczytywać jakieś tam informacje,
definicje i tak dalej, bo też fajnie taką grę wykorzystać
typowo edukacyjnie, czyli żeby dało się po prostu nauczyć
jakichś nowych słów i stać się bardziej elokwentnym człowiekiem.
Oczywiście, że tak. Matthew tym razem, czyli Mateusz,
bo już na Facebooku się okazało, kto do nas próbuje się dodzwonić
jest z nami, uporał się z mikrofonem.
Witaj, Mateuszu.
Bardzo cichutko cię słychać.
Wliż się do mikrofonu, Mateuszu, jeżeli to możliwe.
No spróbuję, ale coś nie wiem.
Włączyłem słuchawki, mikrofon ze słuchawek, ale coś nie wiem,
bardzo cicho mnie słychać.
Mateuszu, to brzmi trochę tak, jak gdyby ten mikrofon ci się nie przełączył
i ty nie mówisz do właściwego mikrofonu.
Ty mówisz do chyba jakichś słuchawek, a…
Mateuszu, to ja proponuję, żebyś jednak spróbował się uporać z tym
i zadzwonił do nas jeszcze może za jakiś czas,
bo mamy jeszcze jednego słuchacza w kolejce,
który chciałby do nas się dodzwonić i z nami porozmawiać.
Po drugiej stronie jest kot, czyli sądząc po nicku, to Marcel do nas dzwoni.
Tylko jeszcze, żeby…
O, jeszcze zgoda na nagrywanie i będzie wszystko jasne.
W międzyczasie Michał, czy ktoś do nas pisał może?
Pisał i właśnie zaraz przejrzę jeszcze.
Dzień dobry, dzień dobry.
O, już jesteś, witaj.
Powinienem być teraz słyszalny.
Tak, słyszę.
Zawsze o tej zgodzie na nagrywanie zapomnę.
W każdym razie ja dzisiaj przychodzę ani z Tyflo, ani z Newsem.
Wybaczcie za głos, jestem trochę chory jeszcze.
Natomiast miałem już z tym dzwonić jakiś czas temu.
Chciałem przestrzec ludzi przed wrzucaniem dużych plików na Google Drive.
I o cóż chodzi?
Generalnie jestem obecnie w dość ciężkiej sytuacji jak chodzi o Internet.
To ma duże znaczenie w tym, o czym będę mówić.
Prędkość mam dość kiepską.
I dostałem ostatnio do pobrania duży plik.
Tak około, no nie wiem, z 10 gigatów ważyło na Google Drive.
Zacząłem to sobie pobierać.
Tam leciało sobie z 500 kbps, kilobajtów na sekundę.
I tak sobie to powoli szło, powoli szło.
Dobra, czekałem, czekałem i się nie doczekałem.
Po około godzinie Google wyciął mnie.
Wyskoczyło 403 forbidden, że po prostu dostęp zabroniony.
Linki googlowskie po kliknięciu w ten pobierz link
wygasają po godzinie lub po półtorej godziny.
Teraz dokładnie nie pamiętam po jakim czasie, ale coś w ten decen.
Więc jeżeli mamy kiepski transfer i ktoś wie o tym, że mamy kiepski transfer,
to nie polecam, żeby wystawiać komuś duże pliki po Drive
z uwagi na ten czas wygaszania sesji.
No, to jest rzeczywiście problem.
W takiej sytuacji może lepiej pokusić się o jakieś rozwiązanie peer-to-peer,
które po prostu bezpośredni mostek zestawia między nami a przeglądarką tej osoby.
Może na przykład coś w rodzaju file pizza albo coś podobnego.
W ogóle ja bym rekomendował, żeby w takich sytuacjach dzielić pliki na części.
Natomiast mówię tak zadzwonię z tą informacją, bo już paru osobom to mówiłem
o tym Googlu i były bardzo zdziwione, że tak się dzieje.
Tak, bo to jest rzeczywiście taki nietypowy przypadek.
Ja akurat przez dysk Googla przerzuciłem ho, ho, ho albo jeszcze więcej danych
różnego rodzaju i nie miałem z tym nigdy problemu.
Ja troszkę też tylko obstawiam, że jeżeli pobieramy od siebie samych,
to może być trochę inaczej.
Wiesz co, ale nie tylko, bo niektóre osoby też mi wysyłają pliki po prostu
jako linki do dysku Google i też to są pliki po parę giga.
Nie mam problemu, ale właśnie tu jest kwestia jakości łącza.
Ja mam dobre łącze i ono działa u mnie bez większych problemów,
a jeżeli masz słaby internet, który jeszcze w dodatku lubi się gdzieś tam
zrywać albo po prostu to łącze ma niską przepustowość,
no to może być problem istotnie.
Dokładnie, dlatego mówię zadzwonię, poinformuję, bo jednak trochę osób
nadal ma różnej jakości te łącze.
Oczywiście, oczywiście, że tak.
Dzięki za ostrzeżenie i za informację.
Dzięki i do usłyszenia.
Do usłyszenia, trzymaj się.
A tymczasem zaglądamy do naszych, a właściwie waszych wypowiedzi,
bo tu mamy kilka, kilka, kilka wiadomości,
więc ja teraz już przeglądam na dobry początek może Facebook,
chociaż nie, do Facebooka sobie może przejdziemy za chwilkę,
bo gdzieś mi się zgubił.
O, a na razie wiadomości, które na nasz panel kontaktowy wysyłacie.
Kuba do nas napisał.
Cześć, jeżeli lubicie śpiewać, to mam aplikację specjalnie dla was.
Nazywa się iSing, jest dostępna na iOS i Android oraz strona internetowa
dostępna na PC. Polecam, można się tam nagrywać i udostępniać
do społeczności iSing i też trenować śpiew, słuchać nagrań innych.
Polecam, dzięki Kuba.
To jest chyba w ogóle dość stara strona, którą ja kojarzę jeszcze sprzed 12 lat.
Tak.
Jakoś 2010 już była.
Ja stronę kojarzę, ale nawet nie wiedziałem, że to ma aplikacje mobilne.
Ja się mogłem tego domyślić, że jakby poszli z duchem czasu
i sobie taką zrobili, ale fajnie, że mówisz Kubo,
bo ja nie byłem pewien, czy to jest dostępne.
Wiem, że to było bardzo popularne swego czasu.
Tam w ogóle chyba są gotowe podkłady do utworów, do których my możemy śpiewać.
Więc to jest fajne. Kiedyś się bawiliśmy, nie wiem, pamiętacie La Didę, prawda?
No tak.
Była taka aplikacja, tam można było wybrać sobie jeden…
Tam trochę bardziej już była zabawa taka, że on jakby…
Tam był autotune.
Autotune tam był i były jakieś gotowe takie, powiedzmy, quasi-podkłady
i można było ten podkład się dostosować i coś pośpiewać i to też udostępnić.
Ale to już dawne czasy.
Jedna z pierwszych takich aplikacji, powiedzmy, które sprawiły,
że ludzie chcieli korzystać z iPhone’ów jako takich zabawki,
czy iPodów Touch. Natomiast dzięki Kuba za informację,
bo to może się rzeczywiście komuś przydać.
No i cóż, mamy kolejną wypowiedź.
Kolejną wypowiedź tym razem od Piotra.
Ostatnio słuchałem, że są kłopoty przy korzystaniu…
NVIDIA po aktualizacji do najnowszej wersji 2022-4.
Czy warto ją instalować?
Ja mam od paru dni i problemów nie zauważyłem,
ale jeszcze o tym myślę sobie więcej powiemy.
Jeszcze mamy jedną wypowiedź.
Mamy wypowiedź od Mata.
Witam. Wszystkie pomysły sprawdzone i bez efektu.
Wygląda to tak, jakby głośniki wycinały dźwięki systemowe, screenreadery,
a odtwarzały tylko multimedia z internetu i muzyka groove.
Można mikserem Windows przekierowywać dźwięk na inne urządzenia?
Jeśli tak, to jak to zrobić?
Mi się wydaje, że można zmienić tylko poziom głośności.
Czekam jeszcze na sugestie.
Pawle, czy ty mógłbyś coś więcej na temat tego powiedzieć,
bo ja przyznam szczerze, używam sprzętowego miksera
i jakoś nie było mi to nigdy potrzebne.
Jest ta opcja. Nawet da się to jakoś otworzyć przez uruchom.
Było do tego jakieś polecenie.
Nie wiem, czy je tak szybko znajdę
i obawiam się, że mogę tego nie znaleźć.
Natomiast wiem, że wchodzi się w ustawienia…
Moment, zaraz sprawdzę, bo to jest gdzieś przy ikonce głośności,
oczywiście.
I mam tu głośniki.
To też ustawienia dźwięku, zdaje się, to się nazywa.
I tu mamy, jak przejdziemy tabem,
jest taka opcja jak preferencje głośności i urządzeń aplikacji.
To jest Windows 10.
Możliwe, że coś w 11 jest inaczej albo w dalszych dziesiątkach się pozmieniało.
I tu można jak najbardziej przekierowywać, co się chce, na co się chce.
Więc mam nadzieję, że to jakoś pomoże.
Też mamy taką nadzieję.
No dobrze, to spróbujmy jeszcze odebrać raz połączenie od Mateusza,
który, miejmy nadzieję, że już sobie tym razem poradził
definitywnie z ustawieniami dźwięku.
Zaraz to się wszystko okaże.
Przypominam, czekając jeszcze, aż Mateusz włączy sobie mikrofon,
że możecie do nas spisać na kontakt tyflopodcast.net, na Facebooku, na YouTubie.
Możecie też do nas dzwonić właśnie na zoomie, tyflopodcast.net, ukośnik zoom.
Jesteśmy tam do waszej dyspozycji i staramy się w miarę możliwości
odpowiadać na pytania, jakie nam zadajecie.
Mateuszu, no to chwila prawdy.
Jest jak było niestety.
Dobrze, jeżeli to jakaś krótka wypowiedź, to słuchamy.
Spróbuję zadzwonić z telefonu w takim razie.
Spróbuję zadzwonić z telefonu.
Dobrze, Mateuszu, no to w takim razie próbuj,
a my tymczasem przechodzimy do następnego tematu.
A następnym tematem to jest taki, można powiedzieć, ostatni dzwonek,
bo NVDA 2022.4 został wydany jakoś na przełomie,
na przełomie dosłownie grudnia i stycznia.
Nie wiem, czy to jeszcze 31 grudnia, 1 stycznia w każdym razie.
2022.4 wydana wersja jest.
A co nowego, Mikołaju, Ty wiesz.
Tak, nowe zmiany, a właściwie nowe funkcje.
Dodano przewodnik szybki start w pomocy.
Dodano nowe polecenie do sprawdzenia skrótu klawiszowego elementu,
na którym jesteśmy ustawieni w danym momencie,
czyli jak jesteśmy na przykład w jakimś menu lub innym podobnym miejscu,
to możemy się dowiedzieć, jaki dany element ma skrót.
I na komputerach typu desktop, na klawiaturach z klawiaturą numeryczną
robimy to skrótem shift i numeryczne dwa.
Na laptopie robimy to nvda.ctrl.shift.
Wprowadzono polecenie do przesuwania kursora przeglądu o stronę
i to poprzednia strona na desktopie nvda.ctrl.shift.pageup,
na laptopie nvda.ctrl.shift.pageup, no i analogicznie w dół nvda.ctrl.shift.pagedown.
Dodano następujące polecenia tabeli.
Przeczytaj wszystko w kolumnie, ctrl alt nvda strzałka w dół,
przeczytaj wszystko w wierszu strzałka w prawo,
przeczytaj całą kolumnę strzałka w górę i cały wiersz strzałka w lewo.
Wydaje mi się, że tu chodzi o to, że czytaj wszystko,
to jest czytaj od tego miejsca w dół albo od tego miejsca w prawo,
przeczytaj całą, no to jest od samego początku do samego końca.
Może to być przydatne, jeżeli, nie wiem, przeglądamy sobie jakąś tabelkę,
chcemy sobie przejrzeć, powiedzmy, nazwy produktów,
a nie interesuje nas cena, wielkość, wysokość, szerokość
i 20 innych rzeczy, które są w tej tabelce pokazane,
no to do tej pory nie mogliśmy używać tyle wszystko.
Teraz sobie naciskamy jeden skrót, zapuszczamy sobie to,
możemy sobie iść, nie wiem, zrobić herbatę i nvda nam cały czas czyta.
Nvda teraz ogłasza, jeżeli wychodzimy z tabelki w Excelu,
ogłaszanie na główku w tabeli można teraz dostosować
osobno dla kolumn i dla wierszy,
znaczy jak się poruszamy, trzeba nam mówić,
na jaką kolumnę najechaliśmy czy nie.
No i to tyle, jeżeli chodzi o nowe funkcjonalności.
Jeszcze zmiany, zaktualizowano SPK do najnowszej wersji,
poprawiono odczytywanie znaków łaciny, jeżeli używamy języka chińskiego,
zaktualizowano Libluis, dodano nowe tablice braille’owskie,
dodano braille chiński uproszczony, Kinyarwanda braille, Luganda braille,
szwedzki bez skrótów, szwedzki częściowo ze skrótami,
szwedzki ze skrótami, chiński bieżący system dla mandaryńskiego bez tonów
i to tyle, jeżeli chodzi o nowe tablice.
No i to tyle, jeżeli chodzi o nowości, o zmiany,
do tego są jeszcze oczywiście jakieś poprawki, błędów.
Cała lista zmian jest oczywiście dostępna w programie i na stronie producenta.
Mamy a propos NVDA komentarz też od naszego słuchacza Pawła,
który napisał do nas tak.
Witajcie, zainstalowałem najnowsze NVDA i mam problem polegający na tym,
że w przeglądarce w Firefox nie działają klawisze NVDA,
nie można wejść do menu NVDA, nie można chodzić po nagłówkach i linkach.
Po wejściu na inny ekran wszystko działa bez problemu.
Cóż Pawle, ja nie mogę tego potwierdzić, a mam dwa Firefoxy zainstalowane,
bo mam zarówno Firefoxa nightly, jak i Firefoxa stabilnego i u mnie wszystko działa
bez najmniejszych problemów po aktualizacji.
Sprawdziłem to jeszcze przed momentem, bo na co dzień korzystam z Chrome’a,
więc ten Firefox to tak przy okazji gdzieś tam na moim komputerze sobie jest,
ale jest i działa, także ciekawa sprawa.
Czy ktoś z was się z tym spotkał, może?
Nie słyszę, więc podejrzewam, że może być to jakiś odosobniony przypadek.
Ja powiem szczerze, że ja kiedyś miałem taki problem przy okazji reinstalacji Adobe Readera,
że rzeczywiście jakoś przeglądarki przestały mi działać, ale to tak globalnie.
Chrome, Firefox, wszystko. Restart pomógł.
Przypuszczam, że Paweł to już dawno takie rzeczy robił.
Jeszcze ewentualnie takie problemy można spróbować w narzędziach.
Jest ta opcja tam rejestracja.com, coś takiego jakoś tak to się nazywa,
bo to czasem jest tak, że tam się coś popsuje z tym i nam NVIDIA czegoś nie czyta
i trzeba to po prostu zrobić jeszcze raz i jest szansa, że to zadziała wtedy.
Tak, to jest w narzędziach taka opcja, która nazywa się
uruchomnarzędzienaprawybłędówrejestracji.com
i to jest ta opcja, o której mówisz, Mikołaju.
No dobrze, to odbierzmy kolejne połączenie.
Dzwonicie do nas i bardzo dobrze.
A kto jest z nami tym razem po drugiej stronie?
Cześć, dzwoni Dariusz.
Cześć, Darko.
Ja tradycyjnie dzwonię w sprawie Blind Shella i nowej aktualizacji,
która pojawiła się 24 grudnia.
A to już cię uprzedził nasz słuchacz Łukasz, który dzwonił na samym początku.
Chyba, że coś jeszcze chcesz do tego dodać.
A o czym on mówił, tak żebym już się nie powtarzał?
Powinienem rozpadać się teraz szachy?
O nowych aplikacjach mówił, ale szczegółów nie.
Ja też wspominałem, że będziemy to w przyszłym tygodniu prezentować, tak w ogóle.
To ja podam takie dwie ciekawostki, może najważniejsze.
Po pierwsze pojawił się manager plików, który umożliwia rozpakowywanie archiwów.
To na przykład umożliwia nam pobieranie książek z BC.
Teraz to jest BZDN.
Możemy sobie teraz wejść na stronę biblioteki, zalogować się,
pobrać książkę z internetu na telefon i z poziomu telefonu ją rozpakować,
ewentualnie skopiować w jakiegoś folderu, wyciąć i normalnie odtwarzać książkę.
Czy to tekstową, czy to pliki mp3.
Więc jest to bardzo fajnie, bardzo intuicyjne, bardzo proste.
To jest pierwsza rzecz, o której chciałbym powiedzieć.
Druga rzecz jest dla mnie jeszcze ciekawsza.
To jest nowa aplikacja do szachów.
Chciałbym o niej troszkę opowiedzieć, to nie potrwa długo,
ale powiem dlaczego ona jest fajna.
Ponieważ możemy grać z komputerem, z przeciwnikiem na dziesięciu poziomach,
ale bardzo fajnie jest rozwiązana kwestia dostępności planszy.
W wielu aplikacjach takich jak na przykład Quentin,
w takim dodatku do NVDA mamy cztery strzałki,
czyli możemy się przemieszczać góra, dół, prawo, lewo.
Tutaj z uwagi na możliwości klawiatury C9 mamy też przekątne,
dwa, osiem, góra, dół, sześć, cztery, prawo, lewo,
jeden, trzy przekątne góra, lewo, góra, prawo
i siedem, dziewięć przekątne góra, dół, lewo, dół, prawo, dół.
I to jest tyle fajne, że na przykład gramy sobie,
chcemy sobie zobaczyć klucze, czy ja tym końcem coś zbiję
i tak patrzę i przekątam, przekątam, cyk, mogę zbić albo nie mogę zbić.
Niby detal, ale biorąc pod uwagę inne konkurencyjne aplikacje na komputer
to jest rozwiązanie niezawodne.
Więc naprawdę gra się super.
Jest jeden mały błąd, jeżeli chodzi o pionki czarne,
o tym powiem za tydzień, ale już go zgłosiłem do producenta.
Powiem tak, no nieprawdopodobnie fajnie zrobili te aplikacje
i myślę, że na tych wyższych poziomach to tak łatwo wygrać się będzie.
Więc jest to naprawdę fajna aplikacja, już troszkę sobie pograłem w te szafy
i mogę to polecić.
Super, no i myślę, że w przyszłym tygodniu czeka nas demonstracja
między innymi tego, prawda?
Tak, opowiem o tym na pewno, a teraz już nie będę,
przedłużał, skoro temat został na początku poruszony.
Ale warto właśnie nawet w znacznikach podać taką informację
dla osób, które będą słuchać, że właśnie umożliwia pobieranie z DZDN.
To jest bardzo ważne, bo dużo osób o to pytało.
Okej, super Darku, to dzięki za potwierdzenie tego.
No i cóż, do usłyszenia w takim razie.
Pozdrawiamy.
Do usłyszenia w przyszłym tygodniu, cześć.
Cześć.
Natomiast jeszcze tak a propos NVDA, to jedna ważna informacja,
którą ja widziałem ostatnio na liście deweloperów, tego czytnika ekranu,
informacja od Josepha Lee, który szuka chętnych na rozwijanie
tworzonych przez niego dodatków.
Tych dodatków jest kilka, tam jest m.in. dodatek,
no ja go akurat zapamiętałem najbardziej,
bo to jest dodatek do oprogramowania, z którego korzystam na co dzień.
To jest dodatek do oprogramowania Station Playlist,
ale tych dodatków jest znacznie, znacznie więcej.
I teraz to już nie są żarty, bo Joseph ma zamiar stworzyć
chyba jedną albo jeszcze dwie maksymalnie wersje dodatków.
Na pewno taką wersję, która będzie kompatybilna z przyszłoroczną,
a właściwie z tegoroczną, ale przyszłą wersją NVDA
i to będzie tak naprawdę już koniec.
I on już nie planuje tych dodatków więcej rozwijać,
nie planuje też dbać o ich kompatybilność.
Od tych dodatków niekiedy zależy też praca różnych osób.
Jeżeli chcą pracować na aktualnym oprogramowaniu,
tak jak na przykład to ma miejsce w przypadku Station Playlist,
ta aplikacja, właściwie ten zestaw programów jest uaktualniany co roku,
tak w okolicy listopada SPL jest aktualizowany
i na razie mamy spokój, bo do listopada jeszcze parę miesięcy,
ale ja powiem szczerze liczę i myślę, że nie tylko ja,
że ktoś te dodatki od Josepha przejmie
i że ktoś będzie je jednak mimo wszystko rozwijał,
a tych dodatków jest kilka.
To się zgadza.
No to przechodzimy do kolejnego newsa,
czyli nowych aplikacji w PKP.
Tych aplikacji to się robi strasznie dużo
i czy te nowe wnoszą coś do sprawy dla nas, Pawle?
No więc poniekąd tak, poniekąd nie.
Mamy dwie nowe aplikacje.
Aplikacja pierwsza to jest PKP,
o której już słyszeliśmy, pkp.appka, tak się pisze tę nazwę.
I PKP zapewnia, że ta nazwa ma też zagwarantować to,
że będzie łatwo ją zapamiętać osobom z zagranicy.
Nie wiem, śmiem polemizować, ale no okej.
Natomiast druga aplikacja to aplikacja PKP Intercity.
Jaka jest różnica?
PKP jest aplikacją taką bardziej, zdaje się, ogólną
do wyszukiwania najróżniejszych połączeń.
Ona ma zastąpić Bilkoma.
Ma się w niej dać właśnie wyszukiwać połączenia,
przeglądać rozkłady jazdy na dworcach.
To chyba Tomek się czymś bawi.
Przepraszam.
To prosimy się nie bawić.
Na antenie.
Dokładnie.
Natomiast tak, możemy wyszukiwać połączenia,
jak wspomniałem, bilety, kupować też.
Aczkolwiek na ten moment przekierowani będziemy
po prostu na stronę Bilkomu.
Więc wiele więcej niż tradycyjnym Bilkom nam to nie da.
Mają tam też być komunikaty różne z dworców,
jeżeli coś miałoby się tam okazać zmienionym
lub podlegać jakiejś awarii lub przenosinom lub innym pracom.
Miałyby tam być informacje o udogodnieniach na dworcach,
czyli gdzie są i jakie poczekalnie,
jakiego rodzaju punkty różne są na dworcach,
udogodnienia dla niepełnosprawnych itd.
Natomiast też przycisk SOS do wzywania obsługi dworca.
Szczerze mówiąc nie wiem, czy to rzeczywiście
ma być wykorzystywane tylko w przypadku
jakichś zagrożenia życia lub zdrowia,
czy np. my jako osoby, które potrzebują
często pomocy, obsługi dworcowej,
mogłyby też tym przyciskiem się pełnoprawnie posłużyć
bez gdzieś tam wzbudzenia fałszywego alarmu.
Nie wiem, jakie tam są prawidła przyjęte.
I wszystko to byłoby piękne, tylko że aplikacji
chyba nikt nie poświęcił dosyć czasu,
jeśli chodzi o dostępność.
Przynajmniej w wersji na iOS.
Jest to aplikacja, która ma…
Ona jest do użytku, bo to nie, że nie.
Można jej użyć. Wszystko jest do znalezienia
łącznie z ustaleniem daty godziny wyjazdu,
co jest często nefralgicznym punktem
w tego typu aplikacjach.
Natomiast wiele kontrolek, w tym zakładki u dołu,
są to po prostu obrazki bez etykiety.
Netso Voice Over nam czyta to.
Obrazek, obrazek, obrazek.
Można sobie oczywiście wypracować
gdzieś tam metodą prób i błędów,
co te przyciski robią.
Ale wiadomo, nie o to w tym chodzi.
I jeżeli to jest…
Żyjemy już w czasach, gdzie
takie rzeczy dziać się nie powinny,
bo mamy dyrektywy unijne o dostępności.
PKP jest spółką Skarbu Państwa,
więc powinno to gdzieś tam zostać uwzględnione,
a jednak nie.
Trochę lepiej wygląda sytuacja z…
Znaczy ta rezerwacja biletów,
jeszcze tylko dodam, ma być przeniesiona
z czasem na tą infrastrukturę nową PKP Intercity,
więc nie wiem, czy będziemy przekierowani wtedy
do PKP Intercity, czy po prostu
będzie przeniesiona tam, przeszczepiona
infrastruktura rezerwacji.
Pożyjemy, zobaczymy.
Natomiast właśnie PKP Intercity.
PKP Intercity ma zastąpić starą aplikację
ICE Mobile Navigator.
I tu już wygląda sprawa troszkę lepiej.
Tu widać, że ktoś chęci miał
z wykonaniem różnie.
Jest lepiej, bo wszystko jest zetikietowane.
Możemy…
Wszystkie elementy są ładnie poopisywane.
Jedno przesunięcie to jest jedno połączenie
na przykład albo jeden element.
Wszystko tak, jak powinno być.
Problemy oczywiście są.
Problemy są na przykład takie, że
kiedy chcemy
nawigować po interfejsie i przesuwamy się
gestami w prawo, jest taki moment, w którym
jest pętla i kursor przeskakuje nam
znowu do góry.
I żeby dostać się do tych dolnych partii
aplikacji, trzeba niestety
wyeksplorować ekran.
I to są najczęściej te przyciski typu
anuluj, zatwierdź, zapisz,
wyszukaj i tak dalej.
I tutaj już jest właśnie
konieczność eksploracji.
To jest rzecz jedna.
Rzecz druga
to jest na przykład, kiedy próbujemy
szukać stacje i wpisujemy
przykładowo Wrocław.
W, R, O, C, za każdym razem
słyszymy 350 dostępnych
stacji, 50 dostępnych stacji,
27 dostępnych stacji, 3 dostępne
stacje. I to słyszymy
cały czas, gdy wpisujemy litery, więc nie słyszymy, co
wpisujemy de facto.
I to jest…
Pół biedy, jak ktoś wpisuje
gdzieś tam powiedzmy
z klawiatury
czardodrukowej, standardowej
gwerty, ale brajlem?
Tak, to jest
właśnie problem.
Natomiast
poza wszystkim można, zarówno
datę, godzinę, nawet jest wybór miejsc,
który no jakoś jest
rozwiązany, to znaczy możemy sobie wybrać, czy chcemy
miejsce przy oknie,
w przedziale tam, nie pamiętam
teraz, różne typy przedziałów chyba są,
ale można też
obok zajętego już miejsca,
można
definiować też ręcznie, numer miejsca, numer wagonu.
Więc jakieś te opcje są,
schematu dalej nie mamy oczywiście,
ale jakieś opcje poza schematu
dostępne są.
Nie przeprowadziłem jeszcze transakcji
zakupu biletu, a ponoć jest to o tyle
ciekawie, że już są dostępne metody płatności,
takie jak Blick, Google Pay,
Apple Pay. No właśnie ja ostatnio
czytałem, że nie są, ale
też nie sprawdzałem.
I ponoć da się
zapłacić tylko właśnie z takich,
nowocześniejszych metod,
to jest Blick.
Czyli jest to
jakby to samo, co
mamy
na stronie biletintercity.pl.
No to może być, że
to dopiero dojdzie, bo
co ciekawe
dla tej aplikacji, no
podejrzanie wiele rzeczy jest
z adnotacją, że będzie w przyszłości.
Właśnie tak i też
tego nie testowałem, bo
bawiłem się wczoraj tą aplikacją.
Tu podziękowania dla Michała Kasperczaka,
który mi podrzucił artykuł
z recenzją. Ja też
Michałowi dziękuję, bo gdyby nie Michał, ja byłem teraz
poza domem, nie wiedziałbym o tym.
Z recenzją tej aplikacji.
I tam też było
napisane, że
ja tego nie przechodziłem, ale ktoś
strasznie narzekał na to, że
jak masz tam założone
już wcześniej konto na intercity.pl
do kupna biletów,
to nie bardzo da się zalogować
tymi danymi w aplikacji mobilnej.
Że tam się jakoś to
konwertuje, ale te linki
na przykład potrafią nie działać.
To mi znajoma
w ogóle wysłała ostatnio taki
zdjęcie
gdzieś krąży po sieci
z komunikatem, który
ktoś dostał pisząc właśnie do
Intercity w tej sprawie
i komunikat
był mniej więcej taki
prosimy o ponowny reset hasła
hasło powinno zawierać
małe litery, duże litery i cyfry
hasło nie powinno
zawierać znaków specjalnych
mimo, że system prosi o coś zupełnie przeciwnego.
To fantastycznie
zresztą informatyka
w PKP
niejednokrotnie już
była powodem
różnych memów, słynne
w kodzie strony
i to chyba właśnie Intercity.
No cóż
zobaczymy jak to się
rozwinie, jak widać dużo rzeczy jest zaplanowanych
na przyszłość
więc może te
Apple Pay, Google Pay jeszcze dotrą,
może lepsza dostępność tych aplikacji
również dotrze, aczkolwiek jeżeli
słucha nas ktoś z PKP Informatyki
dostępność jako coś, co się
dodaje później to nigdy nie jest dobry pomysł.
No ale jak się już
rozlało mleko to trzeba posprzątać.
Natomiast jedna rzecz, która mnie również
ucieszyła i to jest potwierdzone
zarówno poprzez
zapewnienia w komunikacie prasowym PKP
jak i przez coś, co
przeczytałem krótko przed
między świętami a sylwestrem
na Cashlesie.
Jest rozpisany,
znaczy zaoferowany przetarg
na nowe systemy rezerwacji
biletów.
Ma to być zmodernizowane,
usprawnione, przyspieszone i tak dalej.
I jedna z rzeczy,
która osobiście mnie ucieszyła
to, że będzie możliwe w przyszłości
kupowanie przez internet
biletów na połączenia międzynarodowe.
No i chciałoby się powiedzieć
nareszcie, aleluja, bo
no jako
nie, na pewno
nie jeden z niewielu, bez przesady, ale
tutaj nasi sąsiedzi wszędzie, bo i Czechy
i Niemcy, tak
i unijni sąsiedzi, bo mówimy o unijnych systemach,
do których ma być podpięty
system PKP rezerwacji.
Już między sobą się gdzieś tam
wymieniają i można z aplikacji jednego
przewoźnika kupić bilet na cały przejazd.
Ale chyba Niemcy
chyba są.
Właśnie ja coś, to znaczy
ja wiem, że można kupić zapewne do
z Cashem, mogłem kupić
do stacji granicznej.
To chyba też zależy
od systemu aplikacji
w jednych się dało, w innych
się nie dało.
Na pewno jak patrzyłem na to jakieś dwa lata temu,
kiedy temat mnie interesował żywo, bo korzystałem
z pewnego połączenia międzynarodowego,
kolejowego, to nawet osoba
widząca miała z tym problem.
I ciężko było sprawdzić przejazdy,
ciężko było
zakupić bilet.
Też słyszałem ostatnio, że z Czechami coś jest lepiej.
Natomiast
no ma to być zmodernizowane
i dobrze by było, żeby było to
uniwersalizowane, bo
no podróże fajne są
i czemu by się tylko
koleją i czemu by się ograniczać
tylko do naszego kraju.
Można też zawsze gdzieś pozwiedzać,
popodróżować albo po prostu ktoś
z innych przyczyn jeździ często.
Takie naprawdę marzenie
na przyszłość to, żeby był
jeden unijny system,
w którym możesz sobie po prostu
kupić bilet na
pociąg dowolnego przewoźnika,
kupić bilety w zależności od tego
gdzie się chcesz dostać i nie musisz
się martwić o nic. No ale to…
I żeby jeszcze były dostępne składy wagonowe.
No. Najlepiej.
No tak. To prawda to się może zmienić,
ale przynajmniej przewidywane składy wagonowe.
Bo zwłaszcza na tych
mniejszych stacjach troszkę, jak tu pociągi stają
Intercity, mają tam
minutę i teraz nie wiadomo, czy ten
nasz wagon, wiedząc, że to jest ten nowy
skład, w którym można sobie wybrać
miejsce, to czy pierwszy wagon
będzie na początku, czy pierwszy wagon będzie
na końcu składu. No w przypadku
Intercity to akurat dość
częstą praktyką jest informowanie
o tym, gdzie te wagony się
znajdują przez informację pasażerską,
przez komunikat na stacji.
No tylko te komunikaty to
są też różnie słyszalne.
I z dokładnością.
Jeżeli jesteś już z rodziną,
masz siedem paczek i chlebaczek
i teraz nie wiadomo, czy się ustawisz
na początku, czy na końcu,
czy w zakresie czasu, żeby to już nie było problemem.
No ale…
To było tylko
w aplikacji Mój Pociąg, która
została z hukiem zamknięta.
Tak powiem.
Chociaż ostatnio, na przykład,
była ciekawa sytuacja,
bo ja sobie wracałem na przykład z Wrocławia
i jechał sobie taki
pociąg, ja akurat nim jakby nie jechałem.
Ja jechałem właśnie tym następnym
i na tym następnym pociągu
jechało dużo osób, widzących,
które poszły
na pociąg poprzedni,
bo był komunikat, że pociąg odjedzie z peronu
powiedzmy, że pierwszego, chyba pierwszego
akordu miał jechać.
Wszędzie było napisane na tablicach, że z pierwszego.
W aplikacjach było, że z pierwszego.
Komunikat był, że z pierwszego.
Potem był komunikat, że pociąg stoi na peronie szóstym.
Pociąg odjedzie z peronu szóstego.
Pociąg pojechał.
I ludzie… Nie.
I to takie
też bywają czasami.
I to jakby ludzie widzący
nie zdążyli przejść, więc
to dopiero niewidomy.
No niestety to
jest problematyczne.
Tymczasem Mateusz
próbuje się do nas dodzwonić
i miejmy nadzieję, że już tym razem się uda, bo Mateusz
teraz z telefonu widzę,
że próbuje się z nami połączyć.
No to miejmy nadzieję, że tu się
rzeczywiście uda, ale widzę, że jest jeszcze
jakiś problem, a z racji tego,
że mamy słuchacza
Marcela
czekającego również na to, żeby
jeszcze o czymś interesującym nam
powiedzieć, no to odbierzmy te
oba połączenia.
Marcelu, to najpierw zacznijmy od Ciebie.
Dzień dobry, dobry wieczór
ponownie. Ja właśnie
do PKP się postanowiłem odnieść troszkę,
że tak powiem.
Do tego, co przed momentem
było mówione.
Zacznijmy może od końca.
Komunikatów na stacji. No, z tymi komunikatami
na stacji to naprawdę bywa różnie.
Szczególnie na tych małych
stacjach jest największy problem, bo
na przykład u mnie pewnego
w pewnym momencie tam
przez długi, długi czas było tak,
że komunikaty leciały z przesterowanego
mikrofonu, które się sprzęgały już przez dwóch
głośników, które miały
opóźnienie wobec siebie i zrozumieć
cokolwiek to
graniczyło. No to są problemy. Na szczęście
mam wrażenie, że coraz więcej dworców też już
jest wyposażona
w automat. Tak, coraz więcej dworców w ogóle
nawet jak nie jest wyposażona
zaczyna ogarniać. Ja teraz
zacząłem bardziej jeździć pociągami
i u mnie na dworcu na przykład
teraz już jest ładnie, teraz już wszystko jest
wyraźnie słyszalne. Dalej czy tak człowiek,
ale wszystko można
sobie ogarnąć w temacie. W Iłowie na przykład mamy
automat, który podczas wypowiadania
komunikatu lubi się zaciąć
w środku danej wypowiedzi,
a największy problem
ma z tym, żeby przeprosić
za opóźnienia, bo jest
za opóźnienia serdecznie przeprasza…
I my jest gdzieś
ucięte. Przepraszam.
Może nie lubi przepraszać, no wiadomo.
Ciężka praktyka, trudna.
Tak jeszcze co do
przycisków SOS się wypowiem,
bo miałem ostatnią okazję
skorzystać z takowego.
Kwestia wyglądała następująco.
Asysta nie mogła mnie
zderzyć. Ja akurat stałem przy
przycisku SOS. Tak jakoś
mnie ktoś szczęśliwie ustawił.
No i ochrona
dworca jak ze mną rozmawiała przez telefon
powiedzieli, to niech pan to naciśnie i pan wyjaśni
sytuację i wtedy będziemy mogli pana
zlokalizować, skąd pan się
do nas próbuje dobić.
Zadzwoniłem,
wyjaśniłem, gość mi co prawda powiedział,
że on trochę nie od tego jest, ale skoro
kazali zadzwonić tam z centralni,
no to…
znaczy z centralni, no tam
od osób, które się tym konkretnym zagadnieniem
zajmują, to spoko, on zaraz przekaże,
przedzwoni, powie gdzie
i tak dalej. No i odebrali
mnie wszystko, poszło zgodnie z planem.
Nie wiem, czy jakbym tak sobie z samowolki
zadzwonił, nie byłoby kłopotów,
ale w tym
przypadku akurat wszystko
poszło gładko.
Jeszcze co do dostępności
chciałem się odnieść PKP.
Może niekoniecznie ich aplikacji,
ale typowo
sieci Wi-Fi.
Jak wiadomo, w PKP
są dwie generacje routerów, z tego co się dowiedziałem,
jedna jest nowsza, druga starsza
i bodajże z tą starszą
jest połączone coś, co się
nazywa Just Wi-Fi
i to jest kompletnie niedostępne dla żadnego
czytnika, bo wychodzi na to,
że na stronie jest
zastosowana aria-hidden. No i dzwoniłem,
znaczy dzwoniłem, pisałem
do providera w tej
sprawie, a oczywiście nic,
nul, zero, cisza.
Nie dostałem żadnej odpowiedzi.
Więc tak myślę,
czy by nie siąść któregoś dnia,
jak będę w wagonie,
miał trochę więcej wygody
i czasu i się nie pobawić
w jakieś obchodzenie tego
dodatkami. No być może
byłby to jakiś efekt.
No właśnie. To jest
raczej rozwiązanie, zainstalować
sobie XS Hammer
i tam jest w menu kontekstowym wtedy
taka opcja, że wyłącz
te tak zwane
aria-hidden bodajże, czy atrybuty nawet
aria-hidden, to klikamy
i w tym momencie nam się cała strona
powinna pokazać. A to jest pod chromem?
To jest pod
Firefoxem. No to
właśnie. No to trzeba
sobie zainstalować. Zainstaluj sobie
Firefoxa i… Znaczy mam, ale tak
generalnie na telefonie na przykład mam chroma, nie?
Nie, na telefonie
to już nie zadziała. No i jeszcze kwestia właśnie,
no bo to na komputerze, a
z telefonem gorzej.
To znaczy, ale jedna
rzecz, jedna
rzecz, Marcelu,
to się objawia czym?
Że tam możesz zrobić cokolwiek?
Bo teraz, żebym…
Nie mogę zrobić nic.
Wczytuje mi się strona i mam puste okno.
W syntezach czyta tylko po prostu
pusta, pusta, pusta i w zasadzie tyle.
Na telefonie
tego co mi się kojarzy jest dokładnie tak samo.
W
kodzie strony się próbowałem bawić. Patrzeć
w kodzie strony czy nie da się kliknąć gdzieś
przycisku po prostu. Ale niestety.
Bo te nowsze
te nowsze systemy
to też nie są wcale takie fajne.
Bo one
tam wymagają podania maila,
jeżeli chcemy bez ograniczeń korzystać
z tego internetu.
I tam trzeba wpisać tego maila,
pozaznaczać ewentualnie te zgody.
Oczywiście ten mail nie jest w żaden sposób weryfikowany,
więc można wpisać cokolwiek.
Ale
żeby
tam wejść dalej,
to trzeba nacisnąć na klawiaturze
Enter. Tam nie ma żadnego przycisku
ani niczego
do potwierdzenia. To tak samo jak przy kupowaniu biletów
w pewnym momencie przez
intercity.pl. Dokładnie
taki sam motyw jest w jednym
miejscu. Za pierwszym razem
tak się zastanawiałem o co chodzi.
A przy bodajże nazwisku,
wpisywaniu nazwiska już tam na końcu
trzeba kliknąć Enter.
Właśnie.
A to szczerze mówiąc nawet nie pamiętam.
No ale w każdym razie to taka
sugestia dla kogoś, kto
może miałby też jakiś właśnie z tym problem.
Dobrze. I jeszcze jedno pytanie.
Tak w zasadzie
czy warto, żebym
się za to zabrał, bo już od
dłuższego czasu mi chodzi po głowie.
Przynajmniej na aplikację
Androida. W sensie jak chodzi
o aplikację Androida, bo
ludzie
gdzieś tam mówili, niektórzy, że
oni to za bardzo nie wiedzą jak z tym mWarsem
się posługiwać. W sensie mWars to jest
aplikacja, w której możemy sobie zamawiać żarcie
w PKP.
Parokrotnie z niej korzystałem
i pytanie czy nie nagrać może
jakiejś krótkiej prezentacji.
Myślę, że się przyda.
I na przykład gdzieś tutaj
podesłać wam.
Pewnie.
No okej. To w takim razie byłoby już
wszystko z mojej strony.
Dzięki za telefon w takim razie. Pozdrawiamy cię do usłyszenia.
Trzymaj się. No dobrze Mateuszu.
To do iluś tam razy sztuka.
Teraz słuchamy ciebie.
Ooo. No i teraz możemy rozmawiać.
Do trzech razy sztuka z iPhona
tym razem zadzwoniłem.
Tak. No cześć wam
przede wszystkim. Witajcie.
Chciałem tutaj
nieco
potłumaczyć wam
i przeczytać wam listę poprawek w notatniku
jakie ukazały się
w grudniowym Dżosie.
To było gdzieś tak przed świętami
19 grudnia to się ukazało.
Paulina mówiła
rzeczywiście o wersji grudniowej
ale Paulina się pomyliła
bo mówiła o wersji październikowej.
Tak. O wersji październikowej.
O tym pierwszym
że tak powiem
release’ie Dżosa, który się
okazał. Rzeczywiście poprawki Dela
się ukazały ale to były
nie w wersji grudniowej tylko w październikowej.
A to jest Pauliny
że tak powiem błąd.
Czy było mówione o grudniowych
poprawkach w Dżosie?
Czy raczej nie?
No dziś nic nie mówiliśmy.
Dziś nic nie mówiliście.
A więc ja mam
całą listę w notatniku więc
wam to przeczytam.
Postaram się nie na bieżąco tłumaczyć
ale własnymi słowami
bardziej te najważniejsze zmiany
postaram się, że tak powiem
wypuklić
i przedstawić.
A więc
pierwsza zmiana to jest
pierwsza poprawka to jest taka
w programie Adobe Acrobat wykryliśmy
że funkcja Smart Glass
spowodowała iż
ładowanie dokumentów zajmowało
więcej czasu niż zwykle
dlatego wyłączyliśmy
tę funkcję.
Uwaga
podczas naciśnięcia
kombinacji Y
bądź Shift i Y
w programie Adobe Acrobat
Dżos
powie
Dżos
powie
nie ma wyróżnień
na tej stronie
co się tylko tyczy
aplikacji Adobe.
Druga poprawka
to jest taka, że
znowu menadżer
historii powiadomień
został ulepszony
o opcję
całkowicie
wyłączania wybranych reguł
z menu kontekstowego
gdy jesteśmy w danej regule.
Wystarczy nacisnąć
klawisz
menu kontekstowego
a następnie wybrać opcję
wyłącz regułę
aby zablokować
poszczególne
reguły.
Wybierz opcję
zarządzającej regułami
wybierz pozycję zarządzającej
regułami tabulatorem.
Następnie gdy
focus znajdzie się na liście
reguł wybierz menu kontekstowe
a następnie wybierz pozycję
wyłącz regułę.
Kolejna poprawka
w Josie, która jest
dotyczy
funkcji picture smart.
Funkcja picture smart
pozwala również
na rozpoznanie
zdjęć w formacie
etlowskim
HEIC.
Kolejna
poprawka
dodano
opcję w szybkich ustawieniach
na główki
komórek i zawartości
która
kontroluje
która kontroluje
czy
która pozwala
czy
na główki tabeli mają być
odczytywane przed odczytywaniem
zawartości komórki
czy po odczytaniu
zawartości komórki.
Kolejna poprawka
w aplikacji Microsoft Teams
dodano w Josie możliwość
wsparcia funkcji
naciśnij i mów
gdy jesteśmy
na spotkaniu
w Teams.
Ta opcja odczytywanie
nagłówki
odczytywanie
zawartości
nagłówka w tabeli
jest dostępna
w aplikacji
World Outlook
365
lub we wspieranych
czarkach
internetowych.
W Teamsie to
czytałem.
Jeżeli ta funkcja
jest wspierana to możemy nacisnąć
kontrol spacja i przytrzymać
coś w rodzaju szeptów
żeby po prostu szybko
nacisnąć i mówić do
uczestnika.
Zgłoszono kwestię
która
powodowała, że
Jos nie ogłaszał
stanu kamery lub
mikrofonu
w najnowszych aktualizacjach
programu Teams.
Podczas
naciskania
skrótu klawiszowego
Control Home lub Control End
Jos
ogłasza
gdy naciskamy
kombinację klawiszy Control Home lub Control End
gdy znajdujemy się
pod koniec dialogu
modalnego czyli takiego standardowego
dialogu ARIA
Jos ogłasza
tylko początek lub
koniec dialogu.
Poczekajcie.
Jos przenosi
kursor tylko do początku
lub końca
dialogu i kolejna
poprawka.
Gdy
aktywujemy
linka
na liście
rozwijanej, która
zmienia informację
na której
którejkolwiek ze stron
Jos
tylko
Jos ogłasza
od teraz
region na stronie, który
został zaktualizowany.
Jeśli poziom
oznajmiania Jos został ustawiony
na początkujący,
Jos ogłasza
status przycisku
status przycisku
o nazwie wciśnięty bądź
niewciśnięty
rozwiązano
rozwiązano
problemy
związane z interakcją
na przyciski opcji, które
używały atrybutu
ARIA
ARIA
Active Descendant Property,
które używały właściwości
ARIA Active Descendant Property
rozwiązano kwestie
zgłoszono
problem
gdzie Jos
ogłaszał
Mateuszu, to są takie
bardzo szczegółowe rzeczy.
Czy może
jakieś takie kwestie
mógłbyś wymienić, które rzeczywiście
są istotne dla użytkownika,
który będzie w stanie
jakoś je zauważyć?
Tak, rzeczywiście wymieniłem, czyli ten
manager powiadomień,
o którym już było głośno mówione
w krypto przyglądzie m.in. przez
Pawła został ulepszony.
To wiesz.
I przede wszystkim
Jos
rozpoznaje już
w PictureSmart zdjęcia
w formacie HEIC.
No i taką drugą kwestią
jest
ogłaszanie
tabel
komórek
przed ogłoszeniem
Współrzędnych komórek, tak?
Tak, współrzędnych komórek
przed ogłoszeniem
przed ogłoszeniem na główku
komórek, bądź po. I można to
ustawić
w szybkich ustawieniach.
Tak. Czyli to są te
trzy najważniejsze
zmiany. Ja tak patrzę jeszcze.
Aha. Tutaj
nie ma. Czyli
to były te
zmiany najważniejsze.
Najważniejsze trzy, myślę.
Okej, Mateuszu. To bardzo Ci dziękujemy
za te informacje.
Ja również dziękuję. Trzymajcie się i pozdrawiam
serdecznie. Pozdrawiamy
Cię również. Do usłyszenia.
No to w takim razie
kolejny temat, który
na dzisiaj mamy.
A tematem, który na dzisiaj mamy kolejnym
to jest czasopismo nowe dla niewidomych.
Po nazwie domyślam się, że
jest to prawdopodobnie
wytwór, że tak powiem, ze Stanów
Zjednoczonych.
Ten wytwór jest ze Stanów Zjednoczonych
choć wytwór
uznaje się za
międzynarodowy i
world blind herald
czyli ma być to
coś światowego
i oni się uznają za taką
właśnie nie tylko
skupiającą się na Ameryce
organizację.
I założył to
Chris Hofstadter
człowiek, który jest w środowisku
znany już od jakiegoś czasu
człowiek, który kiedyś zajmował
jedno gdzieś tam z wyższych
stanowisk firmy Freedom Scientific
twórców
Jossa. Potem też
dość słynnego bloga
prowadził. Teraz
człowiek właśnie
zaajmuje się world blind herald
i ma
to czasopismo
dwie takie, dwa takie
będą jakby różne
typy artykułów
powiedzmy się ukazywać
blindness briefs, czyli
taki zbiór linków
dotyczących osób niewidomych
ogólnie
oraz science briefs
czyli kwestie typowo związane z
medycyną, z jakąś
naprawą wzroku, operacjami
zabiegami, badaniami
i no wszelkiego
rodzaju właśnie zagadnieniami
naukowo-medycznymi.
No to jest już coś, co
znamy z zeszłego roku z bloga właśnie
Christa Hofstadera.
Teraz jest to na blind heralds.
Mają też się tam ukazywać
artykuły twórców zewnętrznych.
Właśnie Christopher
pisał, że on
chce, żeby ludzie z
różnych stron świata i różnych
krajów, którzy
uważają, że mają coś ciekawego
do przekazania
wypowiedzieli się
w kwestii
no w jakiejkolwiek kwestii
uznają, że powinni
mogą się skontaktować
z twórcami
tegoż czasopisma, tegoż serwisu
internetowego.
Na stronie ma się
pojawić również
jakaś taka
podstrona z
ogłoszeniami o pracę.
Gdzieś szuka się
osób niewidomych
oraz będą się pojawiać
reklamy różnych
sposorów, którzy coś
naszej grupie
docelowej mają do zaoferowania
i takie reklamy już tam faktycznie
widać.
Ma też się pojawić kolumna
Interactive Advice, co zostało nazwane
czy jakichś takich
rad, które
będą dotyczyć
głównie samodzielności
i życia jako
osoby niewidome.
I tematy,
które będą tam poruszane to
między innymi nauka,
medycyna,
przestępczość wśród osób niewidomych,
bo tam dużo się pojawiało właśnie takich
artykułów na blogu Krisa Hofstadera,
za co to różnych niewidomych
zamykali, a zamykali za ciekawe rzeczy.
Za pornografię dziecięcą
nawet kogoś kiedyś
zamknęli.
To też taka ciekawostka.
Kwestie prawne,
zatrudnienie,
moda, kultura,
edukacja, polityka,
organizacje działające
na rzecz osób niewidomych,
sport oraz
niewidomi sportowcy
oraz biznes.
No więc spektrum tematów
jest szerokie, więc
jeżeli kogoś interesuje
taki temat i
chce dostać jeszcze więcej
źródeł newsów, a język angielski
nie jest dla niego językiem obcym,
no to może
się zapoznać
z tym, co na World Blind Herald
będzie publikowane.
Tymczasem odbieramy
kolejne połączenie
od naszego słuchacza
Krzysztofa,
z którym już teraz się łączymy
no i mam nadzieję, że
połączymy się już dość
szybko, że Krzysztof włączy
swój mikrofon i zaraz będziemy mogli rozmawiać.
Jestem jeszcze? Jesteś, witaj.
Witajcie, witajcie w Nowym Roku, wszystkiego
dobrego dla całej redakcji.
A dziękujemy i wzajemnie.
Dla Ciebie Michale dużo
fajnych tematów, dużo
fajnych działań
i wszystkiego dobrego w Nowym Roku
i chciałem powiedzieć Tomku, że
fajnie brzmiałeś na początku, tak
bardzo, wiesz,
fajny głos i w sumie jakby tak
na początku w każdej audycji było, to nie
było głupie, taka moja
drobna sugestia.
A na temat tego głosu to jeszcze dziś porozmawiamy.
Bo to bardzo
ciekawe.
Natomiast ja chciałem tutaj, jeżeli
oczywiście mogę i Michale, nie masz nic
przeciwko temu, tym bardziej, że
chcę opowiedzieć o rzeczy, o której
oboje wzięliśmy udział w tym roku,
a mianowicie już
od 7 stycznia
w TVP2 rusza
drugi sezon
serialu Pasjonaci Emisja,
w której to
Michał również miał swój udział.
Zgadza się, w dwóch odcinkach.
Tak, dokładnie, także
zachęcamy do,
żeby zasiąść przed telewizorami
w soboty o godzinie
17.20
w TVP2.
No i serial jest
dostępny z audiodeskrypcją, co myślę
jest też bardzo ważne, bo
jednak troszkę jest
ten, gdzie jest jakaś cisza tam
albo na muzyce, więc
warte to jest podkreślenia, że
każdy odcinek będzie w TVP
z audiodeskrypcją.
Nie wiem, jak będzie z
aplikacją TVPVOD,
ale…
Aplikacja TVPVOD jest
tak naprawdę
sromotną porażką telewizji
polskiej niestety.
I nie tylko moje zdanie.
I ja ubolewam
właśnie na tym, że
no, kolejne
dofinansowanie, miliardy na media
publiczne
idą, a
dostępność tej aplikacji
w porównaniu do
komercyjnych odpowiedników,
które
też nie są jakieś rewelacyjne,
ale moim zdaniem nadal jest
po prostu najgorsza.
No wydaje mi się, że player już jest lepiej
dostępny. Player tak, i player
w ostatnio nawet zobaczyłem, że napisy
wprowadził, więc jest
szansa, że też i gdzieś tam
audiodeskrypcja się pojawi, chociaż z drugiej strony
właśnie player, czyli TVN, Discovery,
oni bardzo
mało materiałów tworzą
z audiodeskrypcją.
No właśnie, zauważyłem też. Także no
i tutaj TVPGO też nie wiem, jak
z tą dostępnością, bo nie testowałem,
ale TVPVOD to po prostu
jakaś porażka. Ten Focus
tak, słuchajcie, lata,
głupieje i po prostu nie, z tego się
nie da korzystać.
No ale myślę, że
duża rzesza słuchaczy
da sobie z tym radę
i co soboty od
7 stycznia z tego,
co chyba gdzieś
tam wyśledziłem, że to będzie po jednym
odcinku co soboty,
czyli
według moich obliczeń skończy,
a serial ma 13 odcinków, czyli
skończy się według
kalendarza jakoś
prima aprilis?
Coś takiego może.
No zobaczymy. W każdym razie
zachęcamy do oglądania
i no i chyba tyle
z mojej strony.
Ja mam taki dylemat, na co zachęcać, bo
w soboty po godzinie 16 na antenie
DHT jest RTV.
No ale cóż, zawsze
tak jak wspominałem też i zresztą
przy okazji
wzmianki o pasjonatach
w programie RTV.
No i jedno
i drugie źródło ma możliwość
odtworzenia powtórek, co prawda
z tą audiodeskrypcją na antenie telewizji
polskiej jest lepiej
oglądać na żywo, bo potem
to są z tym kłopoty, więc
obawiam się, że na żywo
nam parę osób może odpłynąć,
ale jeżeli ktoś jest ciekaw
medialnych różnych wieści,
no to też potem sobie RTV można w
Tyflo Podcastie odsłuchać.
Tym bardziej, że niestety
mnie nie będzie chyba dane z audiodeskrypcją
oglądać, bo mamy tutaj dostawcę
prywatnego, lokalnego
i niestety nie ma
w ustawieniach dekodera
ścieżki dźwiękowej dodatkowej z audiodeskrypcją.
Krzysztofie, zawsze możesz spróbować
zainwestować w jakąś niewielkich
rozmiarów pokojową antenę, podpiąć do telewizora
i po prostu sobie wyszukać
kanały z telewizji
naziemnej. Tam będzie.
To już też przerabiałem.
Niestety mamy taką lokalizację,
że to nie zadziała.
O, to szkoda.
Choćbyś ją wystawiał
za okno, to i tak nic nie da
i łapię tylko
jakieś albo czeskie,
albo jakieś dziwne.
No nie to,
co się chce. No to szkoda.
Także
z mojej strony to tyle na razie
i jak ja kogoś niosę, będę miał,
to będę dzwonił również. Jeszcze raz wszystkiego
dobrego w Nowym Loku i
no i
do usłyszenia. Dzięki za telefon.
Pozdrawiamy Cię. Do usłyszenia.
I kolejny temat.
Tym razem
Mastodon.
Temat nam wraca dość często w
cyfroprzeglądach Mastodona,
ale tym razem Mona
for Mastodon już
w wersji beta. To jest już
Pawła. Tak.
Mastodona, czyli klient Mastodona
od twórcy, klienta twitterowego
Spring dla systemów Apple.
Mówiliśmy o tym, że on się
niedbawem ma ukazać w becie.
No i istotnie tak się też stało,
więc mamy
do dyspozycji aplikację, którą
pobieramy za pomocą
strony o programie
aplikacji Spring, czyli żeby mieć
Monę w tym momencie jako betę,
trzeba mieć Springa
i to wersję tą pro kupioną.
Wtedy możemy za darmo dołączyć do testflighta,
o ile jeszcze są w nim miejsca,
i testować
sobie Monę jako betę.
No i co można powiedzieć?
Kurczę, jest kopia Springa,
tylko że z obsługą Mastodona.
Aplikacja wygląda dokładnie tak samo.
Nawet jeszcze
określenia są stare,
bo dalej mówimy o tweetach, retweetach,
jakichś tam
innych terminologiach
ćwierkających.
Natomiast wszystko działa tak jak powinno
i doświadczenie użytkownika,
przede wszystkim, i dostępność jest taka,
jakiej spodziewaliśmy byśmy się
po Springu, czyli
wszystko jest dostępne tak samo.
Gesty, opcje personalizacji
dostępności, z których Spring słynie,
są jak najbardziej dostępne.
Różne opcje,
inne dostępności również tam są.
Mamy zakładki
u dołu, ten pasek kart taki, który można
spersonalizować, opcje tłumaczenia,
wiele
tak naprawdę rzeczy.
To, czego jeszcze nie ma, to są na przykład
powiadomienia, push, pewnie one będą
za jakiś czas implementowane.
Można nawet sobie
przetransferować ustawienia ze
Springa do Mony
i to jest bardzo przydatne, jak chcemy właśnie
te różne nasze konfiguracje, dostępności,
czynności na pokrętle i czego tam jeszcze
przenieść sobie do Mastodona.
Są też
tego pewne efekty uboczne. Mi na przykład
przeniosła się zakładka, która
prawdopodobnie nie działa, a
dotyczy ona listy twitterowej,
którą miałem sobie przypiętą
na pasku, żeby mieć do niej szybki dostęp.
Ciężko, żeby lista z Twittera działała
mi teraz na Mastodonie, ale mamy
za to trochę nowych zakładek. Mamy zakładkę
Federated Timeline i mamy
zakładkę, która po polsku jest przetłumaczona jako
grupa dyskusyjna, a jest to tak naprawdę
lokalna oś czasu.
Widać, że w stronę jakiegoś
takiego
przewieczenia to troszkę idzie, żeby te terminy były
trochę bardziej przystępne.
Znalazłem już parę błędów. Tam na początku
były problemy, nie dało się rozwinąć
na przykład
posta
z ostrzeżeniem o zawartości
wrażliwej.
To już jest naprawione, aczkolwiek w taki
sposób, że implementacja metatextu
podoba mi się troszkę bardziej,
czyli metatext pozwolił
na stuknięcie dwukrotne na post, żeby
rozwinąć treść ukrytą pod
ostrzeżeniem. Tutaj otwiera nam się
po prostu okienko z tym
postem i całą
przynależną do niego konwersacją i dopiero wtedy
to ostrzeżenie się odkrywa, więc mi
się to aż tak nie podoba, ale nie jest to
aż tak wielka niedogodność, żeby
programu nie polecać.
Problem, na jaki trafiłem natomiast, to jest na ten moment
to, że
jak już zagłębimy się bardzo, bardzo
mocno w naszą oś czasu
i dotrzemy gdzieś do postów
powiedzmy z dnia poprzedniego
i będziemy chcieli je próbować
gdzieś tam załadować,
to
nam się wyświetli niestety komunikat,
że jakiś tam model
czy tryb ładowania nie jest wspierany przez
Mastodona. Czy to jest coś, co
autor musi jeszcze dodać? Tego
nie wiem. Natomiast
dodał też funkcję na przykład cytowania
postów, co nie jest standardowym zachowaniem
Mastodona. Na Mastodonie
dość krzywo, zwłaszcza ci
użytkownicy z dłuższym
stażem, bardziej krzywo patrzą
na cytowanie tweetów,
które uważane jest tam za zachowanie toksyczne,
że na tweeterze było ono używane
do
bardziej jakby komentowania
kogoś niż rozmowy z kimś,
więc jakieś obgadywanie ludzi, jakieś
wyżywanie się i tak dalej. Zamiast
odpowiedzieć to się robiło cytat, że patrzcie
jaki dziwny człowiek i tak dalej.
Teraz się pojawia coraz więcej dziennikarzy,
którzy twierdzą, że to cytowanie to była
podstawa ich pracy i wnioskują
o to, żeby się to pojawiło.
Jakieś powstają nawet forki, gdzie to
cytowanie jest wspierane, no i w tym momencie
Mona
jakoś to cytowanie nieoficjalnie,
ale implementuje.
Natomiast
no właśnie, są jeszcze takie funkcje,
których tam nie ma. Są
naprawdę drobne błędy. Jak na wersję beta ta aplikacja
jest bardzo stabilna i mam
z nią bardzo mało problemów. Na ten moment
nie ma wersji jeszcze na Maca, z tego co wiem,
a planowana
jest premiera oficjalna tej wersji gdzieś
na wiosnę tego roku, czyli za jakieś
2-3 miesiące
Mona powinna się ukazać. Nie wiem,
Mikołaju, ty testowałeś jakoś tą aplikację?
Nie, szczerze mówiąc, ja tak
używam Mastodona.
Używam,
ale nie jakoś… Rozumiem.
Nie pchałam
miłościem do tego serwisu.
Trochę jest tam niewidomych i trochę też
do tych poprzeklądu, żeby mieć newsy,
a faktycznie parę newsów stamtąd
dzisiaj na przykład było.
To używam, ale
no nie.
Nie, nie, nie.
Okej, no w porządku. Ale ja
przetestowałem i mogę powiedzieć, że
jak mówię, jak na wersję wczesną
beta jest naprawdę dobrze.
Wymaga to trochę takiego oczyszczenia,
właśnie to opisowanie
terminologii, wyeliminowanie paru
błędów, jakieś wprowadzenie może
funkcji, bo tych takich typowych Mastodonowych
funkcji typu, które teraz doszło,
jakieś śledzenie hasztagów,
jakieś tam edycja
tych wpisów. Nie wiem, czy to
tam teraz jest. Chyba edycja nawet
doszła w ostatniej wersji. Ale
ale
no właśnie, żeby to wszystko było takie tam
pozgrywane, no to jeszcze musimy
troszkę poczekać.
Więc mam nadzieję, że
zwinie nam się to w bardzo fajnym tempie.
Na pewno już były dwie czy trzy, dwie
takie większe aktualizacje od premiery,
a premiera była gdzieś no w Wigilię,
czy dzień przed Wigilią,
więc myślę, że tempo
wydawnicze jest optymalne
i takie solidne.
No więc mam nadzieję, że
będziemy mogli cieszyć się tą aplikacją
w pełni, już dopracowaną wkrótce.
A teraz mapy.
Mapy, otwarte
mapy.
Mikołaju, jakieś mapy nowe
powstają otwarte, które
właśnie
te dodatki dość ciekawe
wyglądają. Tak, Overture,
bo tak nazywa się fundacja,
a właściwie projekt, który
pod guidą
Dodex Foundation, czyli fundacji
zajmującej się już teraz nie tylko
Linuxem, ale wieloma
otwartymi projektami i wiele tych
projektów pod swoje skrzydła
biorącej się
pojawił. No i ma być to właśnie
projekt, który da
otwarty dostęp do map
i udostępni
wiele narzędzi, dzięki
którym z tych map będzie można
korzystać. Czyli m.in.
takie jakby ujednolicone,
ujednolicony schemat,
ujednolicony standard,
z którego wszelkiego rodzaju
te zbiory danych mapowych
będą mogły korzystać
tak, że będziemy mogli
miksować sobie różne te zbiory
i pisząc kod,
który będzie pracował z jednym zbiorem,
będziemy mogli też pracować z drugim zbiorem,
bo one po prostu będą jakby wszystkie w takim samym
formacie i wszystkie tak samo wyglądać.
No mają być też udostępnione
oczywiście też same dane,
no i tam jakieś też narzędzia do
wykrywania zmian w tych mapach,
wandalizmu
i innych tego typu
że tak powiem aktywności pobocznych.
W to zaangażowani są
dość duzi gracze, bo w to
zaangażowany jest AWS, czyli jedna z
takich największych chmur,
na których stawia się
wiele rzeczy, to jest
pod, że tak powiem
część gdzieś tam Amazona.
Jest w to zaangażowana Meta,
czyli firma, która
ma między innymi Facebooka, Whatsappa
i Instagrama.
Jest w to zaangażowany Microsoft,
który do tej pory
chociażby miał też swoje mapy
Bing, więc jeżeli to miałoby
kiedyś trafić do tego Overture
to myślę, że
mogłoby to też być ciekawe.
Jest w to zaangażowany
TomTom, który też
mapami stoi i z map
słynie. Nie wiem
jaka jest strategia tych firm,
czy strategia tych firm jest taka, żeby
współpracować nad mapami,
zrobić jedną wielką,
lepszą, otwartą mapę,
bo cztery firmy razem
zrobią coś lepiej niż jedna
i na tej podstawie po prostu
tylko zarabiać na swoich własnych
aplikacjach, które map mają to samo,
tą samą, ale
funkcjonalności różne.
Nie wiem jaki tu jest plan,
nie wiem jaka tu jest strategia,
ale myślę, że z perspektywy twórców
specjalistycznych i gdzieś
tam niszowych aplikacji
dla osób niewidomych
może być to bardzo fajna
rzecz, ponieważ
wiadomo, że twórcy takich aplikacji
sami sobie mapy nie zrobią,
no bo nie ma opcji, żeby
jakiś mały team cały świat
objechał i wszystko zmapował. To Google
to ma setki tysięcy osób,
które, może nie setki tysięcy, ale
tysiące na pewno, które jeżdżą
po tym świecie i robią
wszystkiemu zdjęcia i
ustawiają, gdzie te rzeczy wszystkie są.
No nie ma
opcji, żeby ktoś w apce dla niewidomych
ktoś takiego zrobił.
A firmy takie typowo, z sensu
stricte komercyjne,
no nie chcą, nie są zbyt chętne
dawać mapy.
Bo na przykład z mapami Google
wiem, że jest taki problem, że wcale
nie jest tak prosto dostać je jako
twórca takiej apki.
One są płatne,
one są drogie,
dostęp w ogóle do tego api jest bardzo drogi
i tam mamy duże restrykcje
jeżeli chodzi o to, co my
z tymi mapami możemy zrobić.
Na przykład nie możemy
stworzyć, z tego co wiem,
aplikacji, która jest oparta
na wskazówkach głosowych
jakby z nawigacją po trasie. Czyli my nie możemy
skopiować samej
aplikacji map Google’a.
No co, jeżeli chodzi o aplikacje
nawigacyjne dla niewidomych, które
dokładnie to robią,
jest problemem.
I mapy Google’a, czyli w tym momencie
najlepsze mapy, odpadają
nam. Wiadomo, że jest OpenStreetMap, tylko
że OpenStreetMap z kolei jest
przez wolontariuszy
i
ma to też swoje problemy.
W niektórych miejscach tych wolontariuszy
jest więcej, w niektórych mniej.
Pewne rzeczy mogą być też nieaktualne,
mogą być stare.
Zwłaszcza na przykład po COVID-zie
się troszkę
przetasowała, że tak powiem
przetasowały pewne miejsca
i to jak w nich
wygląda, bo dużo
przybytków wszelkiego rodzaju się zamknęło
z uwagi na pandemię.
Po pandemii te miejsca wynajęły
gdzieś tam nowe osoby i tam
mogą być jakieś zupełnie inne rzeczy.
U mnie na przykład w okolicy,
tam gdzie ja mieszkam,
jest parę takich miejsc,
które są po prostu miejscami widmami,
które na wszystkim poza
Google Mapsem jeszcze są, a których
naprawdę
nie ma, po prostu już nie ma.
Więc
to fajnie, jeżeli
będzie taka właśnie otwarta, dobra,
lepsza jakość i alternatywa dla Google Mapsów.
No, a teraz
można powiedzieć maraton
newsowy, bo
Paweł ma teraz nowości w grach,
nowości w aplikacjach i to są
ostatnie zestawy
newsów, oczywiście ostatnie z naszej
tyflowieści rubryki,
bo potem są jeszcze
technikalia.
Zgadza się, no i zaczynamy
od czegoś, czego już dość dawno nie było,
czyli biuletyny
Audio Games à propos
gier, nowości w grach
dostępnych dla nas, czyli w co możemy sobie
w tym roku pograć. O niektórych z tych nowościach
już słyszeliśmy w takich
rozsianych, pojedynczych
informacjach.
Natomiast teraz taka
informacja, myślę, zbiorcza,
z której mam nadzieję,
że znajdziecie coś ciekawego dla siebie,
żeby na nowy rok sobie jakąś
gierkę zainstalować. Mamy zaległy
biuletyn z listopada, który
teraz początkiem roku się ukazał.
No i co my takiego tutaj
mamy?
Evidence111,
gra czeska, o której tu już była
mowa, ona się ukazała, ona
dostała nawet nagrodę Apple Viz, ona była
już ograna na podcaście
Mozart Large przez Jonathana.
Grał w nią również
Liam Irvin podczas swojego
maratonu,
aby zebrać
pieniądze na to, by dalej móc streamować.
No i
myślę, że tu już więcej wiele
nie powiem. Gra się ukazała, mówiliśmy o tym.
Ale mogę w zamian
za to wspomnieć o nowej produkcji
studia Play by Ears z Czech,
która na ten moment jest
tylko dostępna w języku czeskim. Miejmy nadzieję,
że zostanie z czasem przetłumaczona.
Mowa o
produkcji, która
po czesku nazywa się Szachowa Gra
Hra, czyli jest to
gra w szachy,
Game of Chess. I jest to
znowu taka
audio narratywa, gra,
w której tak naprawdę
opowiadana jest nam historia i od naszych
decyzji zależy, jak ta
historia się potoczy.
Tutaj postawiono na dźwięk stereo.
Dźwięk ten jest
dużo bardziej ważny niż w Evidence111,
ponieważ tutaj ten dźwięk służył
jedynie tak dekoracyjnie, żeby było
ciekawsze doświadczenie, natomiast
tu rzeczywiście musimy już w tych słuchawkach
grać, żeby w pełni móc
zagrać w tę grę, bo
o co chodzi w grze? W grze chodzi o to, że
naszą główną bohaterką jest Klara,
osoba, która straciła pamięć
i próbuje ją odzyskać
przy wsparciu pielęgniarki.
Obydwie panie grają sobie w szachy
i grając w te szachy Klara próbuje
skupić
swoje myśli i swoją pamięć
odzyskać.
Dociera do różnych wspomnień
i
my właśnie te wspomnienia będziemy w miarę,
jak ta partia szachów jest rozgrywana,
odzyskiwać.
Będziemy mogli do nich nawigować i właśnie
tu w przestrzeni ta
nawigacja będzie nam potrzebna właśnie
w stereo, aby wysłyszeć,
gdzie te wspomnienia się znajdują,
bo trzeba będzie takie wspomnienie zlokalizować
na ekranie, tam gdzie
słyszymy dźwięk i przyciągnąć je
gdzieś do nas, żeby
móc z niego
wydobyć jakieś informacje. Wspomnienia są
różne, bo są to fragmenty utworów
muzycznych, są to
jakieś rozmowy telefoniczne, jakieś odgłosy,
które pomagają Klarze
odzyskać jej tożsamość.
Ja słyszałem pobieżnie
bardzo
ścieżkę dźwiękową gry
w szachy. Oczywiście jak zwykle
znamienita czeska obsada aktorska.
Dla osób, które
gdzieś tam znają tamtejszy rynek dubbingowy,
dubbingowo-teatralno-telewizyjny,
ale muzyka, którą
miałem okazję usłyszeć, no
myślę, że spokojnie odnalazłaby się na
szczytach list przebojów, bądź w radiu, jako
po prostu bardzo
wpisującą się w obecne trendy muzyka pop.
Więc ja
z niecierpliwością czekam na to, aby pograć
w szachy, nie grając w szachy.
A swoją drogą, to tak od razu
wejdę Ci w słowo, Pawle, bo
może ktoś będzie w stanie
odpowiedzieć na pytanie, które
zadał Iwo. Czy jest jakaś
aplikacja do gry w szachy
dostępna na iOS?
Ja mówiłem jakiś
czas temu o kilku dostępnych
aplikacjach na Maca,
ale zdaje się, że na
iOS-a też coś ostatnio się
pokazało na Apple Vis.
Ja będę musiał przejrzeć
Apple Vis, bo ta aplikacja to jest
bardziej taki ćwiczebnik,
aplikacja do ćwiczenia.
Natomiast
myślę, że
jest to bardzo
fajne też narzędzie.
Jak znajdę, to oczywiście
dam znać i
podrzucę też link,
bo jest to aplikacja,
która gdzieś ostatnio była na Apple Visie
polecana.
Nie wiem też, czy Leet Chess
to jest taka dość znana platforma do gry.
Ona ma różne tryby, też tryby gry
dla osób niewidomych z czytnikiem ekranu.
Czy tam też nie ma jakiejś
oficjalnej aplikacji.
Trzeba będzie przejrzeć.
Dzięki Iwo za pytanie, bo sam jestem
w sumie ciekaw.
No i dobrze,
to jest Evidence111, czyli
no i gra w szachy.
Zobaczmy, co tam
dalej jeszcze mamy.
Breu Shadow Hunt
An Interactive Narrative Audio Game.
To jest gra
brazylijskiego twórcy
Steam Zeroth.
I jest to
gra, w której w odróżnieniu od
gry pierwszej mamy już pełny
zestaw, pełną obsadę aktorską
i ścieżkę dźwiękową
zagraną przez prawdziwych muzyków.
Oczywiście jest to gra
w formie, z tego co tutaj czytam,
też również opowieści audio.
Jest tłumaczenie
na język angielski.
Gra w oryginale jest w portugalskim brazylijskim.
Gramy jako Marco.
Nasz bohater próbuje odnaleźć
swojego zaginionego dziadka
w lesie.
Mamy oczywiście ludzi,
którzy nas będą otaczać.
Będą tam
różne potwory, z którymi będziemy musieli
walczyć i ten dziadek okazuje się, że
ma jakąś swoją historię.
Musimy odnaleźć różne wskazówki,
ażeby nie tylko
odnaleźć dziadka, ale dowiedzieć się, co to się stało,
że w tym lesie nam zaginął.
Czas gry wyliczany
jest na około trzy godziny.
Możemy
sobie chodzić po różnych obszarach
strzałkami, mamy wsparcie dla screen readerów.
Po planszy przemieszczamy
się w formie takiej siatki
i
wszystko tam jest, jakieś obiekty,
wskazówki, MPC, z którymi
możemy rozmawiać.
Możemy czasem biec,
żeby uciekać, żeby nie zostać
złapanym.
No i
jest wspierane w pełni przez NVDA,
więc gra jak widać na
Windowsa.
Dalej mamy Together Inspire.
O tym już mówiliśmy. To jest mod
do State Espire, pozwalający nam
na grę
multiplayerową do dziesięciu osób
w tą karciankę,
taką klimatowo-rpgową.
Następnie mamy
Artesnaut.
Nie wiem, jak to się czyta. Czy to jest Artnaut,
czy Artesnaut, czy Artesnaut
po prostu, albo Artnaut.
Różne mogą być
tutaj opcje.
Natomiast jest to gra na iOS,
tekstówka
RPG w świecie fantasy.
I tu mamy
swoją drużynę,
z którą idziemy przez różne
lochy,
różne dungeons,
takie lokacje rpgowe,
w których zbieramy różne obiekty.
Głównie jakiś tam
sprzęt.
Rabujemy różne
prawdopodobnie miejsca.
No i każda z tych
lochów jest
osobnym rozdziałem, więc tam każdy
ma jakąś historię.
Natomiast
trzeba też walczyć, coraz dalej
i coraz dalej.
No i mamy różne
klasy postaci. Taki typowo
RPG, jak ktoś lubi fantasy
średniowieczne, to można sobie
tu poeksplorować.
Haunted Party, czyli
spin-off Crazy Party.
Jeżeli graliście w
Crazy Party i jest tam
minigierka,
to ona się nazywa The Zombies Mansion.
Ktoś stwierdził, że ta gra
jest na tyle dobra, sama w sobie
i na tyle popularna, że trzeba zrobić osobną grę
dedykowaną tej
mechanice i temu, co się dzieje w Zombies Mansion.
Więc tutaj mamy grę.
Zabieramy zombie mieczem.
I co tu mamy?
Dużo różnych jednostek,
którymi musimy sobie poradzić.
Zachowują się one wszystkie
jak w świecie Crazy Party.
Oczywiście mamy zombie,
mrówki, jeże,
komary, chciałoby się
powiedzieć rysie, jelenie,
jenoty, ale nie.
Mamy
te inietoperze.
No i gdziekolwiek byśmy się nie kryli, to będą
nas próbowały jakieś tam atakować.
Mamy
różne rzeczy, nad
którymi będziemy musieli przeskakiwać.
Oczywiście dziury, przepaści,
bole, działa armatnie
i różne rzeczy.
Musimy to przeskoczyć, żeby przetrwać.
Sześć odblokowywanych
trybów, które
pozwalają
na różne inne wyzwania
i tryby gry.
Będzie trzeba zbierać jakieś
bąbelki,
zbierać formularze,
tak jak w przypadku chyba tej gry takiej
urzędniczej, która jest też w Crazy Party.
Jakieś
unikanie motylków, które nas chcą zaatakować
i tak dalej. Więc
jak ktoś lubił Crazy Party i tą konkretną
grę, no to teraz jest
odbitka i
gra bazująca na tym
uniwersum. I to jest gra na jaki system?
Windows. Aha.
Tak. Następnie gra bardzo ciekawa.
Gra
Hansel & Gretel The Revenge.
A text RPG with music
and sound effects by Corax.
Corax, czyli ten twórca,
o którym już mówiliśmy jakiś czas temu, twórca
na przykład gry Portmonde.
Takiego dość brutalnego RPG-a,
którego można sobie również grać.
Tylko tutaj mamy
dość znane uniwersum, bo
gramy sobie Jasiem i Małgosią
z baśni Braci Grimm.
I nawet nie tylko
Jasie i Małgosia są porwani i
uciekają i się uwalniają od tej
czarownicy, od tej swojej
złej macochy, ale też
potrafią
się oddać i będą walczyć
z różnymi tu postaciami. Gra
oczywiście jest po francusku,
więc wskazane jest używanie
translatora.
Testowana jest też nowa wersja gry
FruitPod.
Było kiedyś już Accessible Fruit Machine.
Też taka gra, w której się odblokowywało
różne rzeczy, rozwiązywało takie
mini zagadki, minigry.
No to teraz powstaje wersja druga.
Jest dostępny
Lifeline, można testować.
I co?
Tematy,
motywem przewodnim gry są lata osiemdziesiąte,
więc zarówno stylistyka graficzna,
jak i dźwiękowa, jak i utwory muzyczne,
które będą się pojawiać,
nawiązują do lat osiemdziesiątych.
Więc jeżeli lubicie taki klimat,
no to możecie sobie poodblokowywać
i potestować tę grę.
Lifeline, Beside You,
In Time,
to jest gra, w której
mamy
astronautę zaginionego w kosmosie
i możemy się komunikować
z nim, z jego
złym bratem bliźniakiem, który będzie nam utrudniał
zadanie, ale od naszych działań
będzie zależało przeżycie. My chyba o tej grze
już coś troszkę mówiliśmy,
bo ona się na AppleWiz ukazała,
natomiast teraz takie jeszcze przypomnienie,
że ona jest. Ona jest na iOS-a i też na AppleWatcha
w ogóle, więc można
pewne interakcje w tej grze podejmować
nadgarstka po prostu,
co jest też zawsze mile widzianym
usprawnieniem.
Farm RPG, czyli
prosta taka gra
przeglądarkowo-aplikacyjna.
Można sobie uprawiać farmę.
Wszystko jest za darmo, ale
można oczywiście kupować złoto, jeżeli chce się
wspierać twórców
i pomóc w utrzymaniu serwera.
Jest też społeczność, z którą można wchodzić w kooperatywy.
I jak ktoś lubi takie
powolne gierki i sobie rozwijanie
farmy, to można sobie
rozwijać farmę.
I w listopadzie
to tyle z nowości, ale mamy też kilka
aktualizacji.
Rzeczy, które się pozmieniały.
Na przykład
nowa wersja Pokémon Access
się ukazała, która
wspiera Pokémon Emerald,
wersję
ROM-u tego gameboy’owego,
więc można to teraz grać.
Periphery
gra ukazała się w wersji beta.
To chyba za chwileczkę się
zmieni, bo już w grudniu
ukazała się wersja 1.1.
Więc na razie mamy
wersję 1.0 w listopadzie,
która dodaje nowe artefakty.
Można na stronie
A, bo gra jest widocznie podzielona na strony,
przejrzeć.
Ta strona już jest kompletna
i mają się pokazać nowe
światy, więc tutaj
mamy taką obietnicę.
Ancient Wormwood
dla gry Sound RTS również
otrzymał aktualizacje,
które troszeczkę
usprawniają balans gry,
że będziemy zbalansować
i dodano opcję rozbudowy łuczników.
Alter Eon
ma
różne usprawnienia odnośnie tworzenia przedmiotów
i dodano
cotygodniową grę quizową.
Microsoft Flight Simulator
otrzymał
bardzo…
największą aktualizację roku
i w tym też mnóstwo usprawnień
i dostępności z czytnikami ekranu.
Ponoć staje się to bardzo dostępny
i bardzo używalny symulator lotów,
więc jeżeli kręcą Was
takie rzeczy, no to możecie
zainteresować się
tym tytułem. Skoro już o symulatorze lotów
mowa, to nie bójcie się.
Prace nad Eurofly’em 3
dalej trwają, więc
niewiele o tym słyszymy, ale coś
się jest, coś się ponoć dzieje,
więc jest szansa, że
wkrótce o Eurofly’u nowym również
usłyszymy.
Dowiedzieliśmy się też,
niestety, że
zmarł
Jason SW,
czyli
twórca
XXL Studios.
Stworzył on takie gry, jak na przykład
Self Destruct,
Danger City czy Giftanum.
Kojarzę te gry gdzieś jeszcze
ze wczesnych lat dwutysięcznych,
z, no powiedzmy,
początku jakby jeszcze całego
przemysłu audiogamingowego.
Wiele osób grało w te gry.
No, kondolencje dla rodziny.
Miejmy nadzieję, że
w jego gry
zostaną nam na zawsze w pamięci, mimo, że
on już z nami nie jest.
I tutaj
mamy też,
mamy też
biulet na grudzień.
No i co takiego wydarzyło się w grudniu?
Mystworld to
o tym już mówiliśmy przy okazji ostatniej
audycji, chiński AirPack 2D
audio, który pojawił się teraz z
oficjalnym tłumaczeniem angielskim.
Jeżeli ktoś chce, no to można
go sobie tam przejrzeć.
Tam się w ogóle ciekawe kontrowersje
pojawiły, jeżeli chodzi o tego Mystworlda,
bo z jednej strony
pojawiła się, no
fala krytyki od osób, które mają
jakieś większe pojęcie i
przejmują się takimi sprawami,
że Mystworld
spiracił pewne
rzeczy i używał
muzyki z gier wideo, do której
nie miał praw autorskich,
co zostało potem
zgonione na Chiny i na to,
że tam po prostu nie ma takiej kultury jak na zachodzie,
że no
prawa autorskie i nie powinno
się używać rzeczy, które
nie zależą do nas i że jeżeli ktoś to zrobił,
to trzeba mu zapłacić za to, żeby tego używać.
Tam
jest od jakiegoś
czasu też takie
prawo i Chiny podążają
za zachodem, ale
kulturowo to nie jest aż tak
tam źle postrzegane,
powiedzmy, jak u nas,
ale, co ciekawe,
twórcy Mystworlda
zauważają problem
i bardzo szybko zareagowali
na to, co ludzie zaczęli mówić
i jak zaczęli zauważać, że
ludziom na zachodzie się takie praktyki
nie podobają,
to wycofali dużą ilość
muzyki z gry,
właśnie takiej, która była
nie do końca legalnie
pozyskana i powiedzieli,
że oni postarają się
wprowadzić muzykę
na takich licencjach,
które im na to
pozwalają.
Więc co jak co, ale
chwali się to, że twórcy
widzą problem i widzą to, że
jeżeli wchodzimy na rynek
zachodni,
wchodzimy na rynek gdzieś tam anglojęzyczny,
to wypadałoby
jednak troszkę
postępować zgodnie z naszymi
normami i
takie praktyki już po prostu
nie będą dopuszczalne.
To miło słyszeć.
Myślę, że chwali się
taką szybką reakcję
autorów. Natomiast
z Chin przechodzimy do Japonii,
bo tu już się pojawia
Katawa,
Re-engineered,
Windows i Mac.
Tu już jest to gra,
która jest,
muszę tu przeczytać,
powieścią wizualną
w stylu
Shujo.
Chyba tak to należy czytać.
Nie znam się niestety na komiksach
japońskich i pewnie to jakoś
nawiązuje do mangi, do tej tradycji
mangi. Wcielamy się
tu w bohaterkę, która w wyniku
wrodzonej wady serca musi się przenieść
do szkoły dla osób niepełnosprawnych.
No i
musi się jakoś w tym odnaleźć,
musi
rozegrać
swoją historię tak, żeby znaleźć
przyjaciół, może nawet wielką miłość.
Mamy pięć postaci,
którymi losami możemy kierować,
ale historia jest zawsze opowiadania
z perspektywy tej dziewczyny.
Jest to
perspektywa narratorki pierwszoosobowej.
No i gra ta
ostatnio ukazała się też
w wersji właśnie Re-engineered,
w ramach której to
pojawiły się też usprawnienia
dostępności, wsparcie dla screenreaderów,
jakieś tam dialogi, self-voicing
i tak dalej, więc
już powoli można zacząć w tą grę
próbować grać, jeżeli
Was interesują takie japońskie,
mangowe klimaty.
To jest to prawdopodobnie coś dla Was.
Natomiast mamy tutaj
sequel gry na Windowsa,
Maca
i ma niedługo się pojawić wersja mobilna
Blind Quest the
Ivy Queen i tutaj kierujemy
losami Nathana,
najemnika, który wpada
w niełaskę
tyranicznej królowej Bluszczu
i musi się wydostać
z jej
powiedzmy tyranicznych rządów.
No i tutaj pomagamy, jest to sequel gry Blind Quest,
więc jeżeli graliście wcześniej,
to tutaj
możecie również
dalej sobie poradzić.
Ale mamy
Endless Runner na Windowsa,
Christmas Chaos
i to kolejna gra, gra firmy Accessiveware.
Zdaje się, jeżeli się nie mylę, to są,
jest to ten sam człowiek,
który stworzył też jeden z dostępnych
edytorów Markdowna, którego kiedyś
używałem, który kiedyś prezentowałem
na Amaktyw do przeglądu.
No i tutaj mamy grę
tym razem i
musimy tutaj być po prostu
pomocnikiem Mikołaja, który
pomaga sterować staniami,
saniami i dostarczyć
wszystkie prezenty.
No i możemy
i możemy tutaj
pomóc Mikołajowi, dostarczyć prezenty.
Mamy też
tekstową grę
RPG
w stylu fantasy
o otwartym świecie, która
nazywa się Upheaval.
Jest to gra
dla Windowsa,
w której jesteśmy
poszukiwaczami magicznych
skarbów i też przeglądamy jakieś,
jakąś wielką dzicz,
jakiś szeroki bardzo świat
w miarę jak
się,
jak podejmujemy decyzję, czas idzie do przodu.
Możemy tworzyć lub niszczyć
sojusze. Możemy
przygotować się
na wizytę magika,
który jest tutaj jakimś punktem
zwrotnym w tej grze.
No, znowu, jeżeli lubicie fantasy,
to możecie zagrać w Upheaval.
Sanctuary in Time,
gra na Windowsa, która jest
interesująca. Jest to gra,
jest to napisane dla dorosłych,
w którym
jesteśmy pół krwi
synem ostatnio
zamordowanego boga czasu
i jego mordercy
chcą zabić też nas, więc
używając niebiańskiej technologii
wypełniamy
korytarze, hole naszej,
lochy naszej cytadeli
za figurami
naszych
pięknych sojuszniczek,
kobiet, które
mogą się jakoś rozbudowywać się
i pomagać nam pokonać
tych właśnie
zbirów, którzy na nas polują.
No, gdybyście chcieli w coś takiego
zagrać, to gra Sanctuary
in Time się poleca.
Football, przepraszam,
Coach
College Dynasty,
gra, która
okazała się na Steamie
i jest to menadżer piłkarski, ale
takiego amerykańskiego futbolu
college’owego. Możemy tu zarządzać drużynami,
robić transfery, przyglądać się
grze,
ustalać kto z przodu, kto z tyłu,
kto jak ma grać
i wcielić się w takiego właśnie trenera
i troszkę menadżera college’owej
drużyny piłkarskiej.
Więc jeżeli takie klimaty Was kręcą,
to tutaj jak najbardziej jest dla Was
też pozycja. Elder Tale
Online, również gra,
również w takim klimacie,
tym razem postapokaliptycznym,
bo wirus komputerowy
uszkodził całą technologię i przez
7 lat nikt nie mógł z technologii korzystać,
dopóki nie powstał nowy
system operacyjny. Jedną z jego
minigier jest właśnie Elder Tale
i mamy tutaj właśnie potwory
różnych graczy
i możemy się
z różnymi wyzwaniami tutaj
mierzyć. W tym systemie
Ultimate, to jest nazwa
tego systemu operacyjnego, który
został
stworzony, by zapobiec tej
katastrofie technologicznej, jaka się stała.
No i
tutaj możemy
w Dniu Apokalipsy zagrać
sobie
w Elder Tale.
No i
to wszystko jeśli chodzi o nowości,
a jeśli chodzi o
aktualizację. Wszyscy wiemy, jaka saga
czekała mod Hearthstone
Access, że on teraz
znów działa, natomiast
było
mnóstwo tutaj sytuacji
takich już podbramkowych,
ale mimo to grać się
póki co da.
Mamy
dostęp do areny, o tym już też ostatnio
było mówione, trochę więcej przygód w singleplayerze
jest odblokowanych, no i
można w Hearthstone’a dalej grać.
Say the Spire
zostało
zaktualizowane do wersji 1.0.4
i zmiany są głównie
pod
maską i pozwalają,
przygotowują nas do tego, żeby można
było tego moda przetłumaczyć na
różne języki, a dodano też opcje
pod skrótem Ctrl-P
do sprawdzania
naszych mocy, sprawdzania
uskrzydlonych
jakichś ścieżek, które możemy podjąć
no i są też inne poprawki.
Gra Browser
Quest, czyli gra
jednoosobowa, RPG,
przeglądarkowa,
inspirowana
RPGami takimi
planszowymi, tradycyjnymi,
ma nowy moduł
z ekstra zawartością, z nowymi
przygodami dla osób, które już tę grę przeszły,
więc jeżeli już graliście w tę grę
i chcielibyście czegoś nowego,
no to można sobie w to nowe teraz pograć.
Gra They’ll Come From
the Moon otrzymała
dość dużo poprawek
w Windowsie, poprawiających
wydajność,
wsparcie dla joysticków, do kontrolerów,
kompatybilności
ze Steam Deckiem i tak dalej.
Gra
Text Spaced wyszła z bety
i jest w wersji 1.0
i w ciągu ostatniego roku
doszło dość dużo nowych
przygód, nowej zawartości,
nowych treści w grze i może
wspierać więcej graczy
naraz.
No i można przeczytać troszkę więcej o tej grze.
Warsim również
otrzymał nową, dużą aktualizację,
która wyciąga
grę z trybu Early Access
i jest
nowy region, który można sobie przeglądać.
Nazywa się Dunelands
i można
tam po tym świecie się rozejrzeć.
Jest też trochę nowych przygód
i poprawek bezpieczeństwa.
Już wspominałem o grze Periphery.
Tu już mamy informację, że jest wersja
1.1,
w której można wspinać się
na wysokie góry.
Sidelines Football Manager otrzymał
więcej poprawek
dostępności
i okienka pop-up w grze stały się
bardziej dostępne.
I Alterion
wprowadził system
narażenia i obrony w różnych
broniach, więc różne postacie będą teraz na różne
bronie reagować,
na dźgnięcia,
jakieś tam wykrwawienia itd.,
więc no tu można
tym systemem teraz się pobawić.
No i wydarzenie
przesilenia zimowego trwa
do…
trwało do wczoraj, więc już chyba
się nie można pobawić.
No i wiadomość, która nam jakoś umknęła
na radarze, a
szkoda, bo wydawałoby się,
że to dla nas takie dość ważne,
gra To the Dragon’s Cave
czeskiego studia Kikiriki Games
została przetłumaczona na polski.
Jest już dostępna po polsku, więc gdybyście chcieli
zagrać w coś po polsku, to
teraz możecie. No i
na koniec dostajemy informację, że
bardzo prawdopodobnym jest
i wszystko wskazuje na to, że gdy w marcu
ukaże się na peceta
remake gry The Last of Us,
no to będzie tam już
zaimplementowana dostępność
ta, jaką znamy z
PlayStation.
No i to jest tyle, jeśli chodzi
o gry audio na
zarówno listopad jak i grudzień,
ale jeżeli, Michale,
jakieś w międzyczasie mieliśmy
wiadomości? Nie,
na razie nie mamy. Dobrze,
no czyli trzeba przejść. Jest niestety,
musisz Pawle kontynuować tak jednym ciągiem.
Nie ma problemu,
już z nie takimi wyzwaniami
sobie człowiek dawał radę.
Mamy nowości w aplikacjach. Jest ich kilka,
są one niektóre większe,
niektóre mniejsze, no i
prezentują się one w sposób następujący.
Po pierwsze, mówiłem w ostatnim
przeglądzie, w tym takim świątecznym,
o aplikacji V-Radio,
tudzież V-Radio, aplikacji,
która jest odtwarzaczem
radiowym zarówno na iOS-a jak i Androida
z możliwością nagrywania
audycji do plików.
I mówiłem też o tym, że aplikacja pozwala
na dodawanie własnych streamów,
a jest to nawet preferowana opcja, ponieważ
domyślny katalog
aplikacji jest, co by nie powiedzieć, ubogi,
a też była
opcja organizowania tych stacji w
swoich folderach. No i
dostałem takie też pytania, czy
aplikacja będzie wspierała
importowanie stacji z plików
PLS i M3U. Zadałem to pytanie
autorowi. Okazało się, że tak,
będzie wspierać. No i aktualizacja androidowa
już była wtedy wypuszczona, natomiast
iOS-owa dopiero teraz wyszła i tak
już można w tej aplikacji
playlisty M3U i PLS
importować. Niestety nie całe
katalogi stacji, więc jeżeli macie na przykład
playlistę wszystkich polskich
stacji, bo niektórzy mają takie kolekcje,
to niestety aż tak dobrze to nie zadziała.
Zostaną te stacje
zaimportowane jako wiele
strumieni jednej stacji,
więc jeżeli mamy kilka strumieni
w playliście, to możemy jak najbardziej
zaimportować, ale możemy sobie to, co
zaimportowaliśmy z playlist,
potem poorganizować w
foldery, więc
tej możliwości nam nie zabrano, jak najbardziej
można takie rzeczy
nadal robić.
Jeśli mowa już o radiu, to
trafiłem na inną aplikację radiową dla
iOS-a, która jest całkiem dostępna.
Zdaje się, że bazuje na katalogu
browser, radio browser.
Nazywa się ona
Broadcasts i jest
stworzona przez kogoś takiego jak
Steve Troughton
Smith, to jest chyba dziennikarz jednego
z
tych magazynów takich amerykańskich,
Apple’owych, teraz nie wiem czy 9to5.
On jest na pewno deweloperem i on dużo
akcji iOS-owych robi
i ja go kiedyś obserwowałem na Twitterze
i on właśnie bardzo często pisał
o tworzeniu apek na iOS-a
i to jest jeden z takich
słynnych troszkę niezależnych
deweloperów na platformy
Apple, z których to Apple
słynie zresztą, że jest parę
takich apek, chociażby
ten słynny Audio Hijack, czy
Loopback, chociażby Twitterific,
które są robione przez jakieś takie
małe firemki,
które zajmują się głównie
właśnie robieniem rzeczy na Apple’a
i które
robią
wysokiej jakości, często płatne
aplikacje.
No to Broadcast 3 akurat jest darmowy,
wersja 3 ostatnio dopiero
co wyszła i jedną z nowości
jest integracja z Shazam’em,
która polega na tym, że możemy sobie to
aktywować i jeżeli
dana stacja, której słuchamy, nie podaje nam
w tym momencie
nazwy utworu ani wykonawcy,
to możemy z Shazam’em
sprawdzić, co to nam aktualnie
leci na iOS.
Możemy też przejrzeć historię
utworów, które odtwarzaliśmy. Z tego, co
widziałem, jeszcze tego nie testowałem, ale
chyba się da. Z tego, co pamiętam,
chyba da się też dodawać własne
stacje, ale katalog
jest już dość obszerny.
Można dodawać oczywiście do ulubionych.
Jest też jakiś, z tego co pamiętam,
wyłącznik czasowy.
Trochę funkcji różnych tam jest,
więc jeżeli szukacie jakiegoś jeszcze,
lubicie testować odbiorniki radiowe,
no to możecie sobie Broadcast
również przetestować.
Jeżeli szukacie
natomiast przetwornika
dźwięku analogowo-cyfrowego,
takiego ze wzmacniaczem,
który oferowałby
różne funkcje, a był przy okazji dostępny,
to poleca się firma koreańska
Kudelix. Firma, która robi takie
dobrej jakości, ale
nie ma przystępnej cenie przetworniki.
Na przykład model 5K, który
był testowany przez użytkownika Apple Vis.
Ja w archiwalnej
już niestety aukcji z września
na Allegro znalazłem taki przetwornik
za 549 zł.
Nie wiem, czy one są
tak szeroko i tak prosto dostępne
w Polsce, natomiast widziałem
już też jakieś polskie recenzje tego sprzętu,
więc bardzo możliwe, że da się go
jakoś nabyć.
Jest to na przykład przetwornik
Kudelix 5K, który
wspiera łączność bluetooth,
złącza
3,5 oraz 2,5 mm
jackowe, USB
także.
Szczyci się wsparciem tych
kodeków, że od początku był przy rozwoju
tych kodeków Sony LDAC
i tych różnych kodeków bluetoothowych
niskiej przepustowości,
znaczy niskich opóźnień,
więc można
się w taki sprzęt zaopatrzyć, zwłaszcza,
że okazuje się, że aplikacja Kudelix
jest dostępna i całym
equalizerem, który jest jej najważniejszą
funkcją, można bez problemu
za pomocą voice-overa sterować.
Dostępna jest także aplikacja
Shadow Rocket na iOS-a, która
pozwala nam na konfigurację przepływu
transmisji danych przez różne serwery
proxy i możemy tutaj
sobie spersonalizować, aby
konkretne aplikacje łączyły się
przez konkretne serwery proxy.
Jest to ponoć bardzo przydatne
przy gdzieś pomijaniu reklam,
ale ja myślę, że to jest też dość
istotne, gdy mamy jakiś internet
z ograniczonym dostępem, gdy
chcemy sobie bardziej przypatrzeć się
ruchowi, który jakieś tam aplikacje
generują, mamy jakieś swoje proxy postawione.
Obecnie często
blokady lokalizacyjne,
wszelkiego rodzaju.
Więc tutaj, jakbyśmy
chcieli, to możemy
w sposób zaawansowany
gdzieś te różne proxy i VPN-y
sobie za pomocą takiej aplikacji
konfigurować. Ona z tego, co wiem, jest jakoś tam
płatna, natomiast chyba jednorazowo
i można sobie ją
kupić i ponoć wszystko jest
swoim serwerem dostępne. Dostępność
jest wprowadzana w sposób świadomy.
Mamy do testów aplikację
Babywise, aplikacja stworzoną
przez dewelopera podpisującego się
jako Nowem. Czyżby
ktoś miałby już dość świąt i last Christmas?
Ciężko powiedzieć.
Natomiast aplikacja jest przydatna
dla rodziców, zwłaszcza takich świeżo upieczonych,
czy po raz pierwszy, czy kolejny,
bo jest to aplikacja
do wprowadzania różnych danych
dotyczących dziecka
właśnie, czyli pory
karmienia,
jakieś kwestie, kiedy
dziecko brało drzemki,
właśnie, kiedy sobie drzemało.
Różne inne
aktywności związane tutaj z
dobrobytem naszego maluszka
i tymi aktywnościami można się też
dzielić z innymi osobami, więc jeżeli
właśnie dwoje
rodziców się zajmuje,
mogą przez iCloud gdzieś sobie
te rzeczy synchronizować
i mieć zawsze pod kontrolą.
Autor
mówi, że uczynił aplikację
tak dostępną, jak to możliwe,
natomiast liczy na
linie i czeka,
więc jest wątek na forum AppleVis,
który oczywiście będzie podlinkowany
no i będzie można
no,
myślę, przetestować
i zgłosić autorowi pewne też
uwagi. No i last but
not least, na sam koniec,
wiadomość prawie z ostatniej chwili, bo to dziś nasz
słuchacz i też kolega redakcyjny Piotr Machacz
opublikował informację,
że jeżeli ktoś posiada
mikser
Helikon
GoXLR, który jest chyba
takim dotykowym, z tego co kojarzę, mikserem,
z ekranem dotykowym, takim już
mikserem cyfrowym, to powstało
nieoficjalne oprogramowanie
GoXLR on Linux,
którego nazwano, może być
trochę mylące, że to tylko na Linuxie, ale
jest też wersja na Windowsa,
które powoli staje się dostępne
do obsługi tych mikserów. Na razie można zarządzać
wyjściami, wyjściami, przekierowywać
sygnał
z jednego miejsca w drugie.
Wiele kontrolek jeszcze wymaga usprawnień,
ale jak na początek jest to już dużo
bardziej dostępne niż jakiekolwiek
hakowanie oprogramowania domyślnego.
Z tego co pisze Piotr
i na ten moment
na Windowsie musimy zainstalować
oficjalne sterowniki, ale upewnić się, że
aplikacja oficjalna nie jest uruchomiona
i wtedy tą nieoficjalną
możemy tymi mikserami
jak najbardziej sterować.
No i to jest wszystko, co na ten
moment mam tutaj do powiedzenia,
więc dzięki wam wielkie
za wysłuchanie. No i przekazuję
mikrofon z powrotem tam, gdzie on należy.
No i przechodzimy
do technikaliów
i w technikaliach mamy wpisany news
jeden, ale już wiadomo
przynajmniej, że
jest tych newsów,
będzie więcej.
Bo
chodzi o to,
że pojawił się nowy,
teraz nie wiem jak to nazwać,
syntezator mowy, to to w zasadzie
nie jest,
dlatego, że
jest to coś takiego, do czego trzeba
mówić
powiedzmy.
To znaczy
działa to mniej więcej w ten sposób, że
ma to wytrenowane różne
panele głosowe
i ja potem sobie
nagrywam coś, powiedzmy swoim głosem
albo nie wiem, daję mu jakiś
plik w każdym razie dźwiękowy, który zawiera
coś powiedziane
lub wyśpiewane, bo to jest tak naprawdę
stworzone po to, żeby
śpiewało to coś
i on będzie mówił lub śpiewał
czy w zasadzie śpiewał, ewentualnie
mówił tym głosem, który
go nauczyliśmy.
Czyli to jest tak naprawdę bardziej rzecz do zmiany
głosu.
W związku z powyższym
no
jak to widać, no to
to działa
w takim sensie, że no to co
słyszeliście na początku audycji, no to
to właśnie zrobiłem
używając tego czegoś.
To się nazywa
DIFFSVC
to trochę brzmi jak
jakaś biblioteka, w sumie nie wiadomo dlaczego, jakaś
bardzo programistyczna, ale tu chodzi
o jakieś
DIFFUSION, SINGER
coś tam, już nie pamiętam tego rozwinięcia.
W
każdym razie to się
też wzięło z jakiejś biblioteki, która wcześniej
była, jakiś VIRTUAL SINGER
chyba czy coś takiego.
No i generalnie to wszystko jest
bibliotekami do PYTHON’a
tego środowiska PYTHON.
W związku z czym no trzeba
mieć tego PYTHON’a.
Teoretycznie da się to uruchomić na WINDOWS’ie.
Mi się to uruchomiło
częściowo, to znaczy
teoretycznie się robiło, ale nie zapisywało
wyników, w związku z czym nie dało się tego
de facto używać. Być może coś
mam źle skonfigurowane, nie wiem.
Aż tak się na tym nie znam, żeby tutaj
jakieś
sytuacje rozwiązywać.
Udało mi się to zrobić na
LINUX’ie, na tych maszynach typu
WASD, tudzież w Google
App, bo tam też próbowałem
i to jakoś mi to wychodziło.
No i nauczyłem.
W zasadzie stworzyłem
modele Michała.
To jest zrobione z
dokładnie tych samych sampli, które były wykorzystywane
w RH Voice’ie.
I ten sam głos,
który był wykorzystywany
do głosu Nata,
czyli to jest Edwin Tarka.
Tutaj kilka razy się w
cyfrowotkaście pojawił.
Dwa modele zrobione.
Przy czym te modele można robić
na różnych częstotliwościach
publikowania.
24 kHz i
4400 kHz.
Więc to jest taki syntezator,
czy w zasadzie zmieniacz głosu, który teoretycznie
potrafi mówić już
z maksymalną,
w pełnym spektrum
słyszalnego pasma.
Tu też wielkie podziękowania dla Tomka
Kowalika, który mi dość mocno pomógł
w tym, żeby to wszystko okiełznać.
Zwłaszcza na Linuxie.
No i
jest.
Mogę tutaj jeszcze
zaprezentować…
Zaprezentuj może Tomku, bo
nie wszyscy słuchali początku,
to będą mieć teraz
kontekst, co to tak naprawdę potrafi.
To w ogóle
wszyscy będą mieli myśleć, nie, co
większy kontekst jest na początku, bo może
zacznę od oryginalnej próbki,
bo chciałbym jeszcze raz powiedzieć,
jeżeli tego wcześniej nie powiedziałem,
to coś, żeby działało,
to nie wpisujemy mu tekstu,
tak jak do klasycznego syntezatora
mowy, tylko trzeba mu ten tekst
powiedzieć, nagrać
do pliku i
dopiero z zapisanego pliku
on ten tekst jest w stanie
przekształcić na
ten głos inny. To nie dzieje się w czasie
rzeczywistym, to znaczy być może
powstaną jakieś implementacje, które
robią to w czasie rzeczywistym, na razie nic takiego
nie widziałem,
no i
tak to mniej więcej wygląda, więc najpierw nagrałem
dźwięk, który
brzmiał tak.
166. audycja Tyflo Przeglądu,
a pierwsza w 2023
roku.
Ja nazywam się, możecie mi wierzyć lub nie,
ale Tomek Bilecki, choć mówię
troszkę innym głosem.
To jest oryginalna moja próbka.
I teraz
jeszcze raz przypomnę dla tych,
którzy nie słuchali, to jest model
wytrenowany na głosie Michała,
przy czym model 24-kilohercowy.
166. audycja
Tyflo Przeglądu,
a pierwsza w 2023
roku.
Ja nazywam się, możecie mi wierzyć
lub nie, ale Tomek Bilecki, choć
mówię troszkę innym głosem.
Tu można zauważyć
dwie rzeczy. Po pierwsze ten model
słabo sobie radzi z oddechami,
znaczy on jest strasznie przygłaśny
i momentami robi strasznie takie
jakieś
powiedziałbym nie do końca zdrowe.
W niektórych sytuacjach
wyglądała jeszcze gorzej.
Teraz będzie model już wytrenowany
na 44-kilohercach
i z tych próbek, które oryginalnie
tworzyły głos Natan, czyli
głosu Edwina Tarki, przy czym to nie jest
model stworzony na bazie głosu
RH Voice gotowego, tylko tych próbek,
które dostałem od
Edwina wcześniej,
żeby w ogóle stworzyć ten głos.
Pozwoliłem sobie, że tak powiem,
stworzyć właśnie głos do
tego Diff SVC w oparciu
o głos Edwina.
I ta sama próbka przepuszczona
tego mojego głosu przez
Diff SVC w przypadku Edwina
i tak.
Słychać, że to jest
Edwin, natomiast
w obu środkach troszkę słychać, że
to jest jednak jakiś taki głos
sztuczny.
Tak.
To też pewnie wynika z tego, że
po pierwsze
ten model,
tam twórcy
mówią, że dobrze by było, żeby
tam było co najmniej trzy godziny
głosu.
To jest jedna rzecz. Druga rzecz,
że
to jest, cały ten proces
w ogóle tworzenia głosu jest
troszeczkę inny niż w przypadku
RH Voice’a, bo w RH Voice’ie,
jakkolwiek ten proces jest dość skomplikowany,
to po prostu wykonuje kroki od pierwszego
do ostatniego, czeka się
na zakończenie tego wszystkiego i
w wyniku tych
wszystkich operacji tworzy się głos.
Tu jest poniekąd podobnie, tylko że operacji
są zasadniczo dwie, no plus
oczywiście cała instalacja, ale ona też jest
prostsza niż w przypadku
RH Voice’a. Jest
taki etap, który się nazywa
pre-processing,
w którym się przygotowuje
poniekąd próbki do użycia ich
do trenowania głosu
i drugi etap to jest
już trening właściwy. I tu się zaczyna
cała zabawa,
dlatego że można ten trening
uprawiać, że
tak powiem, w nieskończoność w pewnym
sensie. To znaczy, chodzi o to,
że
cały
ten proces, znaczy może inaczej,
znaczy cały, no,
ten proces treningu składa
się z kroków.
Po każdym kroku
ten model głosu
się odrobinkę poprawia.
Tak, jeden krok to w sumie
trwa bardzo krótko,
natomiast to,
co ja tutaj pokazywałem,
ten głos Edwina, to
114 tysięcy kroków.
W dodatku
to jest jeszcze
wspomagane już innym
wytrenowanym głosem, ale o tym za chwilę.
W każdym razie
tych kroków
można wykonywać
ile się chce. Teoretycznie za każdym
krokiem będzie ten syntezator
nieco, czy ten głos nieco bardziej
podobny do oryginału, choć
mówi się o takiej wartości
granicznej, gdzie przestaje
to mieć sens.
Jaka wartość jest
dla
tego modelu DIFF SVC
nie wiem jeszcze,
bo w ogóle usłyszałem
pierwszy raz o tym syntezatorze jakoś
w Wigilię zdaje się. To taki
mój prezent się śmieje na święta.
W każdym razie
co
pewien czas
ja mam ustawione co 2000 kroków
zapisuje się
on jest nazywany checkpoint. Checkpoint,
czyli taki model, którego można
sobie użyć
i ten model już działa,
teoretycznie działa, bo pierwsze modele,
które składają się
z dwóch, czterech, sześciu tysięcy kroków
działają raczej teoretycznie
niż praktycznie.
Najczęściej w ogóle nie słychać,
znaczy nie da się w ogóle zrozumieć
co tam jest mówione. Ja zresztą mam
takie próbki wygenerowane
czymś takim, tylko że
te próbki składają się z innego
pliku wejściowego, ale to też jest
mowa. Tylko tam dałem
kilka książek, kilka jakichś tekstów,
piosenek, natomiast
i tak nie bardzo się da zrozumieć co tam
się mówi.
No i
dodatkowo można skorzystać
z gotowego modelu, żeby on na podstawie
tego już jakby zrobionego modelu
sobie ułatwił
sprawę. To znaczy, że on już wie, że
głos powinien brzmieć mniej więcej
tak, tylko teraz to
czym się charakteryzuje ten
konkretny tutaj
lektor, to będzie
sobie próbował
jakoś tam
jakoś na to wszystko nałożyć. No i efekt
jest taki, że
najpierw trenowałem
model Edwina bez żadnego
modelu bazowego i
po 40 tysiącach kroków
miałem podobny rezultat,
co po mniej więcej
nie wiem, ośmiu
tysiącach, może dziesięciu tysiącach
kroków z tym
modelem bazowym, jak to się
mówi. Model bazowy jest trenowany na ośmiu
godzinach mowy i śpiewu
i tam jest kroków miliona,
więc to już jest naprawdę
konkret. Jak długo
to trwa? No to
zależy od posiadanej karty
graficznej i od
ilości
tych zdań, które tam są w środku.
Coś, Mikołaj,
chciałbyś powiedzieć? Tak,
a jaki jest efekt,
jak weźmiesz jakby samą
tę bazę bez dodawania
czyjegoś głosu? A to też pokaż,
bo te bazy
są jako modele
normalnie, przynajmniej część z tych baz jest jako
modele normalnie udostępnione i można sobie
przepuszczać głos przez to.
To jest jeden konkretny
człowiek, tam w ogóle jeszcze oprócz bazy
jest coś, co się nazywa vocoder.
Ten vocoder też jest trenowany, ale tym razem
na jakichś dziewięćdziesięciu
chyba godzinach, nie wiem dokładnie
czym się różni vocoder.
Te vocodery też można trenować samemu,
więc zabawy
jest z tym bardzo dużo tak naprawdę.
I na przykład moje modele mają
jakąś taką przypadłość, tutaj na tych
moich głosach to nie słychać, ale jak puszczymy im
audiobooka, to zwłaszcza w przerwach
między zdaniami, on potrafi
wydobywać ze siebie dźwięki
dziwne, podobne trochę do pił
łańcuchowej albo nie wiem czego jeszcze.
Albo
wiertarki.
W każdym razie
to jest dość
ciekawe.
Nie wiem jak to jeszcze zrobić tak, żeby to
nie generował za dużo artefaktów.
W każdym razie
tak to mniej więcej wygląda.
No i właśnie teraz
chciałem przejść do tych modeli,
które są już wytrenowane.
Najpierw chciałem pokazać właśnie ten model
duży, który ma
milion kroków, ma
dziewięć godzin mowy i śpiewu.
I teraz tak, wszystkie te modele
są najprawdopodobniej
wytrenowane na japońskich
głosach, co będzie
słychać, bo nagle
ten początek audycji
rzeczywiście zabrzmi tak, jakby to
mówił Japończyk.
Mam to zrobione? Mam to zrobione.
166 audycja
przeglądała pierwsza w
2023 roku.
Ja nazywam się, może się
mi wierzyć lub nie, ale Tomek Bielecki,
choć mówię troszkę innym głosem.
I tak
wiesz Tomku, co mi to przypomina?
Audycję Chińskiego Radia
Międzynarodowego.
Bo tam
programy prowadzą
Chińczycy, rodowici, którzy
się uczyli polskiego
i ten taki charakterystyczny
sposób mówienia, to jest
właśnie dla
nich. Bardzo mi się to z tym skojarzy.
Tak, Japończycy też jak mówią po polsku
to oni mają takie…
Też swoje coś, bo Chińczycy
to w związku z tym, że oni mają ten tonalny
język, to oni jeszcze mają te tony
swoje, które tam gdzieś,
które im się gdzieś odzywają,
czy chcą, czy nie chcą. Zgadza się.
Podczas generowania
tych modeli, znaczy inaczej,
podczas potem
generowania już poszczególnych
wypowiedzi z wykorzystywaniem
tych modeli jest jeszcze jeden parametr, który
wykorzystałem i zaraz
będzie można posłuchać tego rezultatu,
bo część z tych modeli to są
modele na podstawie
głosów kobiecych, bo ten model, który
tu był, to były
wszystkie modele na podstawie głosu męskiego.
Natomiast w momencie, gdy
mamy model na podstawie głosu kobiecego,
gdybym ja mówił na
oryginalnej wysokości, to często te modele
nie są do tego jakby
przystosowane i one mają swoją
górną i dolną jakby granicę
tych wysokości dźwięku, jaką są w stanie
z siebie wydobyć,
co przejawia się
tym, że jeżeli ktoś mówi zbyt nisko,
to on się jakby zatrzymuje
na swojej najniższej częstotliwości
i tak mniej więcej mówi wszystko takim
podobnym troszeczkę tonem.
Czasami gdzieś tam się połamie.
Natomiast jak się mówi za wysoko,
Michał, to słyszałeś chyba, bo
słyszałeś jak ty żeś
śpiewał teoretycznie i w pewnym
momencie jakby się tam coś
dziwnego z tym głosem działo.
On próbuje śpiewać wyżej, ale to mu się
zdecydowanie nie udaje, więc
i wtedy brzmi to w ogóle
dość zabawnie. W każdym razie
jest parametr, który można sobie
podwyższyć
te mowy o określoną wysokość
tonów. Nie wiem jak jest max, ja dawałem
kiedyś podwyższałem i obniżałem
o oktawę ten głos, więc tyle się da.
Czy da się więcej? Nie wiem.
I teraz będą dwa modele żeńskie,
zresztą tu będzie słychać, zwłaszcza na jednym
dość dużo artefaktów
i nagle
zrobiłem się
niemęskoosobowy.
…
No, tylko że na razie nic nie słychać.
…
To znaczy ta sama osoba,
tylko że był model zrobiony
poniekąd dwa razy, raz w 24,
raz w 44 kHz
i chyba też trochę inne były
ilości kroków
do tych dwóch modeli. Już nie pamiętam
ilości tych kroków, ale tam
była zmiana i te modele też się
troszkę inaczej rzeczywiście zachowywały
i tu było sporo różnych artefaktów,
tu było słychać bardzo, że to jest
coś dziwnego z tym głosem zrobione.
Ostatni głos,
całkiem niezły moim zdaniem,
też głos kobiecy, głos
też jakiś japoński,
który brzmi tak.
…
Mam wrażenie, że dlatego
tu lepiej to brzmi, że
ta pani
mogła mieć w ogóle
wyższy głos,
a ta poprzednia,
która była,
była taka typowa japonka.
Tak.
Taka stereotypowa.
Tak, stereotypowa japonka
o bardzo wysokim głosie.
Jakbyśmy po prostu sobie jakieś anime oglądali.
Być może, może
gdybym jeszcze tutaj podwyższył ten głos,
to możliwe, że zachowywałby to się
lepiej.
Teoretycznie mogę sprawdzić.
No w każdym razie, no na razie mam tyle
próbek takich dobrych.
Będę próbował robić jeszcze
jakieś głosy. Będę próbował
twój, Michałek, głos troszkę poprawić.
Zobaczymy, czy mi się uda.
A proszę bardzo, wszak
głos jest na Creative Commons.
Powiem szczerze, nie przypuszczałem
że to będzie, że
upublicznienie jego,
że tak powiem, będzie miało taki efekt.
Ale okej, no to
coś tam zawsze zostanie.
Ja podejrzewam,
że ty to się jeszcze za 10-15
lat w indziej gdzieś
spotkasz z samym sobą.
Wcale się nie zdziwię, no ale to przynajmniej
tyle z tego będzie. Może, tak
a propos jeszcze RH Voice’a, to
niedawno dowiedziałem na GitHub’ie
jakieś repozytorium,
które dostosowuje
RH Voice’a pod tzw. Home Assistant,
czyli taki, no jeden
z tych systemów do
inteligentnego domu, darmowy,
source’owy, więc niektórzy tego
używają i być może
u kogoś w domu
jak się zapala światło, to może Michał
powiedzieć, że światło zostało
włączone na przykład,
czy coś. Także, no
tak to wygląda.
Swoją drogą,
ten TIFF SVC
bardzo nie lubi
takich zachrypniętych głosów.
Jeżeli ja
kilka
sylab mi się wypowiedziało
takim zachrypniętym głosem, no wtedy
nie wie jaką częstotliwość dać
i daje jakąś,
która mu się tam wymyśli.
I to najczęściej
nie brzmi najlepiej.
Jak mu puszczam audiobooka, który
kawałek audiobooka właśnie, który
który
ma coś takiego,
myślę, że nie będzie
wielkim problemem jak to pokażę, bo to jest
fragment udostępniony publicznie
na różnych serwisach typu audioteka,
jeżeli się posłucha fragmentu książki,
to
można tego posłuchać,
tylko będę musiał teraz tego
poszukać, ale myślę, że dość
krótko mi to
dobrze mam.
Słuchajcie.
Janka z pożaru.
Mój Boże, kto by jej
nie pamiętał.
I tutaj
zostało to przeczytane takim głosem
właśnie,
także z nieokreślonym wysokości dźwięku
i bardzo
dużo tych
różnych algorytmów tego
nie umie.
Już to zaraz znajdę.
Mam tutaj, właśnie to jest ta ostatnia
pani, którą pokazywałem.
Mój Boże,
kto by jej nie pamiętał.
I on tu
próbuje jakoś tę częstotliwość oryginalną
wydobyć. Ale szaleje po tych
częstotliwościach. Ale szaleje po tych częstotliwościach.
Więc takich rzeczy nie lubi
bardzo ten algorytm.
No i nie wiem, czego jeszcze nie lubi,
na pewno czegoś jeszcze nie lubi,
w każdym razie
tak to mniej więcej wygląda.
No, ja to tak
tutaj opublikowałem
w Tyflo Przeglądzie.
Myślę, że wiem, że
są ludzie, którzy lubią
robić jakieś słuchowiska domowe,
jakieś takie rzeczy.
No i być może coś takiego może im się
przydać.
No tylko, że niestety tworzenie
głosu do czegoś takiego
jest dość problematyczne ze względu na to, że
trzeba mieć kartę graficzną,
co najmniej 6-gigową.
No i ten
głos
twój, to było
z 10 godzin
pracy takiej naprawdę niezłej
karty graficznej. To był
akurat NVIDIA A5000.
Podejrzewam, że
podobne rezultaty można by było
osiągnąć, znaczy podobny czas
można by było osiągnąć na przykład
RTX 3090.
Choć nie wiem, musiałbym to sprawdzić.
Ostatnio udało mi się wynająć
komputer z taką kartą
i myślałem, że
jeszcze w czasie audycji uda mi się puścić trening,
ale mi się jeszcze nie udało.
Ale myślę, że po audycji
puszczę właśnie taki trening
Michała na
tych
no na
4400 i zobaczymy, jak to będzie szybko
szło. Swoją drogą,
ja tak właśnie
w kontekście tego, co ty prezentujesz
Tomku,
przypomniałem sobie taką swoją luźną myśl
rzuconą jakieś,
bo ja wiem, z osiemnaście
lat temu, może trochę
więcej, może trochę mniej,
że w zasadzie skoro
każdy nasz głos jest
zapisywany cyfrowo, skoro
mamy taką technologię, że możemy
nasz głos zapisać w sposób
cyfrowy i skoro są to po prostu dane,
to tak naprawdę
kiedyś będziemy w stanie
zrobić tak,
że
uda nam się podrobić
praktycznie każdy głos za pomocą
komputera. No wtedy to jeszcze takich
technologii nie było, teraz
zaczynamy się do nich powoli zbliżać.
To jeszcze jest oczywiście wszystko
w powijakach,
ale
idziemy w tę stronę.
To się zgadza.
To się zgadza, no i
zobaczymy, co
będzie się działo.
No dobrze, to ja
proponuję, żebyśmy odebrali
kolejny telefon, bo Bartek
się naczekał w naszej
poczekalni. Trochę dlatego, że się
rozgadaliśmy, a trochę dlatego, że
dość późno zauważyłem, że
się Bartek podłączył.
No, ale miejmy nadzieję, że już
teraz sprawnie wszystko
pójdzie i rzeczywiście poszło. Dobry wieczór, Bartku.
Witam serdecznie
wszystkich
prowadzących tytuł Przeglądu
w Nowym Roku. Zacznijmy od tego.
A zacznę może
od tematu, z którym
w ogóle chciałem do Was zadzwonić.
Zacznę może od pytania.
Ktoś z Was
mnie może pewnie korzystał,
ale kto nie ryzykuje,
ten nie wygrywa, prawda? Zapytam.
Czy ktoś z Was kiedyś korzystał
z Open Office jako
otwartej aplikacji?
No, ja korzystałem kilka razy.
Zdarzyło się. A tutaj jeżeli
chodzi mi konkretnie
o odpowiednik
Excela, jeżeli chodzi o Microsoft Office,
czyli aplikację Open Office
Calc, jak dobrze pamiętam.
Tak korzystałem troszkę.
Ok, no zarówno
Pawle jak i Michale, pytanie do Was.
Chociaż tutaj
bardziej bym polegał
na Waszym zdaniu,
jeżeli słyszeliście to od osób widzących,
ponieważ ja też to słyszałem od osób
widzących, a już mówię o czym,
o co mi chodzi.
Jeżeli dajmy na to w komórkę wpisemy
na przykład jakąś datę, no
nie będę tutaj przytaczał jakiegoś
przykładu i
NVDA tą datę nam
odczyta, a graficznie
jest to widziane zupełnie inaczej.
Spotkaliście się może z czymś
takim, że na przykład są krzyżyki
widziane zamiast tej konkretnej
daty? Nie.
Ja też nie.
Spotkałem się, ale pamiętaj
o tym, że
komórki i to w Excelu
i w tym kalku
prawdopodobnie też mogą mieć różnego
rodzaju formatowanie. I być może
on sobie sam na podstawie
tego, że
niby jest to data, ale
on uznaje to za coś zupełnie
innego, to po prostu sobie
sam formatuje. No właśnie, jeżeli chodzi o kalk,
to przede wszystkim były te hasze,
krzyżyki czy coś takiego, bo tutaj osoba widząca
mi o tym napomknęła.
A jeżeli chodzi
o Excel, to wszystko było czyściutko.
Więc
ja tak podjeżdżam, że prawdopodobnie
w Excelu wszystko jest w porządku, a
co byście doradzili, jeżeli chodzi o tą aplikację
kalk?
Znaczy, krzyżyki widzi osoba
widząca, tak? Tak, no właśnie, a
NVDA, jeżeli
włączymy
edytowanie komórki i poruszamy się
strzałkami lewo, prawo, po znakach, to
wszystko nam widzi tak, jak wpisywaliśmy.
A co czyta, jak podświetlisz komórkę
w trybie po prostu przeglądania komórek? Też czyta.
Okej. Wiesz co, to
musi być jakiś bardziej ogólny…
A próbowałeś w każdej możliwej komórce?
Od A1 do, nie wiem, w sensie nie, że
w ten? Tak, było kilka
wypełnionych komórek, też datami
i wszędzie były
krzyżyki. Okej.
Ja bym, Bartku, poszukał
dziwna formuła się. Ale powiem Wam taką
ciekawostkę, że ten
dokument, który był robiony właśnie
w aplikacji Calc
został do mnie przesłany na komputer
odpalony w Excelu, gdzie
wszystko było prawidłowo. Czyli
prawdopodobnie Excel mógł sam sobie to przetworzyć
co formatowanie? Wiesz co, być może
ja natomiast poszukałbym
gdzieś w
samym Calcu.
Wybacz, nie powiem Ci gdzie,
bo po prostu ja używałem go
parę razy w życiu.
Ale poszukałbym, tak jak już
wspomniałem i zacząłem o tym mówić, jakiejś opcji
związanej z formatowaniem komórek.
Bo to moim zdaniem może
gdzieś tu być problem.
Czyli to może być gdzieś w narzędziach?
W formacie prędzej.
A, albo w formacie.
Okej, bo jeżeli dobrze pamiętam,
tu mamy standardową listwę.
Tak, tak. Standardowe
menu. To nie jest wstążka jak w
Microsoft Office. No właśnie. Natomiast taka ciekawostka,
natomiast taka ciekawostka,
która
mi teraz się przypomniała, że
ja miałem bardzo podobny problem,
o którym Ty mówisz,
ale
w
Excelu właśnie.
W Excelu, kiedy
importowałem dane z
pliku CSV
i tam były daty. I to też
co ciekawe, nie wszystkie daty.
Tylko, że
to było importowane, a tutaj jeżeli chodzi o mój
Excel, to było wszystko wklejane,
bo trzymamy z palca.
Także to może być właśnie ta różnica.
Tylko właśnie o to
mi chodzi, że po prostu
ja sobie poradziłem z tym tak.
I też to było bardzo ciekawe, bo właśnie
tam był,
tam były
jakieś krzyżyki,
jakieś rzeczy tego typu. Ja sobie poradziłem z tym w ten
sposób, że w Excelu, ale to
mówię w Excelu, znalazłem
niestandardowe formatowanie komórki,
bo tam możesz sobie formatować ją na różne
sposoby. Co ciekawe, formatowanie jako
daty tu nie załatwiało sprawy.
Ale ja sobie ją sformatowałem jako
typ niestandardowy
i tam można było używać jakichś
różnych takich określeń, co
w tej komórce jest, bo tam była
data plus czas
w tej komórce, akurat wtedy.
Tam była, tam był
i to jeszcze tak ciekawie, że to było w
sposób brytyjski sformatowany,
czyli tam
odwrotnie jest miesiąc z dniem,
że u nas jest
dzień, miesiąc,
rok, a tam jest,
a tam jest chyba miesiąc,
dzień, rok.
Po prostu mają inną kolejność. No, no, dokładnie.
Ja sobie po prostu w ten sposób poradziłem.
Więc być może
u ciebie też by to
rozwiązało w jakiś sposób problem.
Czyli
mówisz jeszcze raz, Michale, jak to zrobić wtedy?
Trzeba wejść w
format, mówimy o kalku
w tej chwili. Tak, musiałbyś sobie poszukać
opcji odpowiedzialnej za formatowanie
komórek, bo to
prawdopodobnie tam leży problem.
I poeksperymentować z tym. Ja nie podam
ci teraz dokładnego rozwiązania
problemu. A czy to będzie działać
za każdym razem, jak
zapiszemy, czy przy tworzeniu
każdej innej,
każdego innego,
jeżeli chodzi o arkusz kalkulacyjny,
to trzeba będzie
to samo zrobić wtedy? Tak. Prawdopodobnie tak.
Aha.
Prawdopodobnie tak. Być może w ofisie,
w open ofisie, jest jakaś opcja
też zapisu jako szablon
i na podstawie szablonu można
by było potem to robić,
ale to by najpierw trzeba było sprawdzić, czy to w ogóle działa.
Więc najpierw
poeksperymentuj, zanim zaczniesz
tak bardzo ingerować
w jakieś domyśle ustawienia, bo potem
odkręcić to może być problemem.
W moim przypadku jest to, że tylko w jednej
kolumnie, gdzie były daty, tam
widział Krzyżyki, a w innej
kolumnie, gdzie również były daty, już
nie będę mówił konkretnie o jakie daty
chodzi, to te daty były widziane.
Bartku,
ja miałem też ten problem,
że niektóre daty były widziane,
niektóre nie były widziane i właśnie ten problem
dotyczył Excela. Więc
coś z tymi datami jest na rzeczy.
A tylko przepraszam,
że Michale tak zapytam, co wstawiałeś
między chociażby dniem, miesiącem
i rokiem? To była kropka?
Żebym ja to
pamiętał, tam właśnie te daty
były w różny sposób formatowane, niektóre
chyba były jeszcze ze slashami.
Bo właśnie tutaj, gdzie miałem akurat te
daty wpisane, to
między danymi,
czyli dniem, miesiącem
i rokiem były kropki.
A w każdym,
ale w tej kolumnie, w której były dobre
te daty też? Też.
Właśnie gdzie były
jakiekolwiek daty, format daty
był taki sam, czyli był dzień,
kropka, miesiąc,
kropka, rok.
No, moim zdaniem
to tu też może być problem.
Z jakiego powodu
w jednej kolumnie to działało
dobrze, w innej nie?
Zastanawiam się, dlaczego na przykład,
dajmy na to, mamy dzień
przykładowo 07,
07
2022, oczywiście taki przykład podaję.
Ja się zastanawiam,
Bartku,
chyba zaczynamy
mniej więcej
rozwiązywać Twój problem.
Ja mam wrażenie, że gdzieś on sobie
po prostu
pomyślał, że kropka jest
jakimś separatorem dziesiętnym.
Czyli
jakby on to sugerował jako
ułamek? Tak, prawdopodobnie
tak.
No i tak zapewne to się wiąże właśnie
z przeformatowaniem komórki, tak?
Tak, zgadza się, zgadza się.
A pamiętasz może, Michale, czy
to wtedy się tyczy całego dokumentu,
czy tylko danej komórek? Zaznaczonych komórek.
Okej, czyli na przykład
dajmy na to, jak mamy
w jakiejś kolumnie
n ilość dat,
czyli można je zaznaczyć po prostu
shift, strzałka w dół.
No shift, strzałka w dół.
I wtedy
wyszukać to formatowanie komórek, tak?
I konkretnie wskazać o co chodzi.
Tak, ja bym próbował tego.
No ale
koniec końców i tak jest nam do tego potrzebne
oko tak naprawdę. No żeby to
zweryfikować, tak, obawiam się, że tak.
No dobrze, to
w tej sytuacji, w ten
sposób będę tutaj kombinował, jeżeli chodzi o
te aplikacje.
Generalnie
moim zdaniem rozdzielanie
miesięcy, dni
i roku kropką
to jest zły pomysł, bo powinno się to
rozdzielać myślnikiem.
Zawsze raczej stosuje się
rozdzielanie właśnie myślnikiem.
A teraz muszę właśnie to przetestować, jak to będzie za pomocą myślnika,
bo tego to nie robiłem, bo tam gdzie w dokumencie
to miałem, to było właśnie kropką
oddzielone. Moim zdaniem Kalk właśnie
tu zgłupiał po prostu, że ty chciałeś to rozdzielać
kropką.
Aha, no rzeczywiście, że też
być może sam sobie gdzieś zmienił
formatowanie po drodze tych komórek
i dlatego w jednej było dobrze, w innej było
źle, ale to jest, mówię, to jest trochę wróżenie z fusów.
Tak,
ale tutaj metodą prób i błędów trzeba
dotrzeć do tego, gdzie leży
sedno sprawy tak naprawdę.
No i jeszcze właśnie tylko
króciutko taki może komentarz do tego,
o czym mówiliście przed chwilą,
czyli
ta aplikacja
DisSVC, dobrze pamiętam?
Tak, DisSVC.
O, no to mogę
powiedzieć, że tutaj może mieć to właśnie
zastosowanie chociażby
w zapowiadaniu przystanków do komunikacji
miejskiej, bo przed chwilą tak mi właśnie
przyszło do głowy, bo teraz
bynajmniej u siebie w mieście zauważyłem, kiedy
pojawiają się nazwy nowych przystanków, a
z początkiem tego roku kilka nowych
nazw się pojawiło i już
zauważyłem, że znowu jest to zapowiadane
niestety głosem syntetycznym, jakby to
można było tak podmienić. To, że tak powiem,
to wydaje mi się, że w tym przypadku to
miałoby swoje zastosowanie.
Tylko żeby to dobrze działało,
ktoś by to musiał mimo wszystko przeczytać.
Ktoś by to musiał przeczytać.
Wydaje mi się, że to nawet
nie stanowi problemu. Zawsze znajdzie się
jakaś osoba, która by to przeczytała i nagrała.
Żebyś się nie zdziwił, dlatego
że to jest, że tak powiem,
na krótko spięte
z intonacją czytającego. To znaczy, że
nawet jeżeli tam masz superlektora,
ale przeczyta się coś,
następny przystanek,
centrum, to ten lektor,
który będzie się czytał świetnym
głosem, superbarwą,
będzie czytał
taką samą dokładnie intonacją.
Oczywiście ta osoba, która ten plik
wyjściowy nagra, to musi to nagrać
doskonale, nie tak byle jak.
Tylko to musi być zrobione perfekcyjnie.
I być może to jeszcze nie jest
na te czasy, ale rzeczywiście
to może być sposób na
zastąpienie lektorów,
którzy, albo uzupełnienie
jakiejś bazy
rzeczy wypowiadanej przez lektorów,
którzy chociażby nie żyją.
Ale wydaje mi się,
że już prędzej
do tego byłyby wykorzystywane
standardowe syntezatory mowy.
Dlatego, że syntezatory
mowy już coraz
prędzej, znaczy coraz lepiej
oddają oryginalną barwę głosu,
zwłaszcza jeżeli się nakarmi
materiałem, który jest jakby tak samo
nagrany jak
to, co chcemy nagrać. Czyli jeżeli
na przykład nagramy lektorowi
bazę, no niech będzie
na przykład warszawskich dwóch tysięcy
przystanków,
to jest już konkretna ilość
materiału i myślę, że na tej
podstawie dobry algorytm mógłby
się nauczyć, nie wiem czy taki, który
teraz mam, ale rzeczywiście za pięć, dziesięć lat,
mógłby się nauczyć tej syntezy
w taki sposób, żeby rzeczywiście było to
możliwe do wykorzystania
w takich warunkach.
Tylko trzeba
by było znaleźć naprawdę dobry syntezator,
popatrząc chociażby na Paulinę,
to u mnie w Bydgoszczy nie jest to za bardzo
zrozumiałe. To znaczy to,
co Microsoft daje
do Windowsa,
dawał zwłaszcza, to są
bardzo okrojone jej technologie.
Mi bardziej chodzi o te
syntezatory, które są w ażurze.
Już niektórzy
youtuberzy zaczynają używać w ogóle tych
syntezatorów z ażura
do swoich produkcji.
Posłuchaj sobie Bartku
poprzedniego Tyflo Przeglądu,
gdzie pokazujemy, jak
na przykład Microsoft
jest w stanie za pomocą mowy
syntetycznej imitować Twój głos
tam w kilku językach, pamiętasz?
Tak, wydaje mi się, że nawet,
bo ja słucham każdego Tyflo Przeglądu, także
wydaje mi się, że to też mi się objęło,
chociaż to było dwa tygodnie temu,
ale było rzeczywiście coś takiego,
ale powiem tak szczerze,
tutaj tego
zastosowania tak nie widzę.
Oczywiście subiektywnie mówię do tego
tematu,
oczywiście uderzając, a tylko tak Tomku
zapytam z ciekawości
właśnie, jak to jest w Warszawie w tej chwili,
kiedy zabrakło nam tego słynnego lektora
Tomasza Knapika, czy jeżeli
pojawiły się jakieś nowe przystanki, jak to
w tej chwili jest nagrywane?
Przez syna Tomasza Knapika.
Czyli jednak
miasto stołeczne poszło
w głos naturalny.
Ja myślę, że
jeszcze długo nie pójdzie
w inne rozwiązania.
I to jest dobre
rozwiązanie moim zdaniem.
Ze względu chociażby na to, że
tworzenie głosów syntetycznych nie jest
w ogóle opięte prawem.
To jest jakby jedna rzecz. Po drugie,
to wcale nie jest takie
oczywiste, że to wszyscy wiedzą o tym,
że to się da zrobić. Myślę, że to
niewiele osób wie o tym.
A jeszcze żeby wiedzieli
o tym na górze tej całej drabinki
decyzyjnej, to
to też jest
kwestia…
Wydaje mi się, że my jako niewidomi możemy takim
instytucjom nasunąć.
Znaczy wiesz, ja myślę,
że po prostu to czas
pokaże tego
wszystkiego, bo
jeszcze też właśnie tak jak
słusznie Tomek zauważył, to kwestie prawne
to musi i pewnie
zostanie prędzej czy później jakoś uregulowane,
bo to
jeszcze do pewnego momentu nie był problem,
teraz zaczyna też
być.
Tak, tylko jeżeli chodzi o
mowy syntetyczną, to tutaj te firmy,
które produkują
te zapowiedzi,
to one zrobią to byle jak.
Ja jeżdżę często, więc
obserwuję, jak to jest zrobione
i porównuję
to chociażby z natłukami w autobusach,
że wiem kiedy to jest
zrozumiałe, a kiedy
nie jest. I jeżeli
chodzi o tę mowę syntetyczną,
to rzeczywiście
ludzkiego głosu moim zdaniem nic nie
zastąpi.
No to jest prawda, przynajmniej na razie.
Przynajmniej na razie.
To znaczy zależy do czego.
To znaczy
ja się zastanawiam naprawdę,
czy to nie będzie w jakiejś
nawet niedalekiej przeszłości
trochę mimo wszystko tak,
tak jak było trochę z muzyką
w latach siedemdziesiątych i osiemdziesiątych.
To znaczy
w latach
siedemdziesiątych, sześćdziesiątych zwłaszcza,
w zasadzie cała muzyka, prawie cała muzyka
była robiona na żywych instrumentach.
I
oczywiście mówiło się, że te syntezatory
to nigdy żywych instrumentów nie
zastąpią. Oczywiście był żar,
że to był jakiś Elis, jakiś tam inny
twórcy muzyki elektronicznej,
którzy robili muzykę tylko na syntezatorach
i to było wielkie wow. Natomiast
w latach osiemdziesiątych, co z tego,
że te syntezatory brzmiały nadal
trochę jak syntezatory, kiedy okazało się,
że do pewnych gatunków muzyki
wystarczą, tanecznej
są jak najbardziej okej. I talodisko chociażby.
Mało tego, dokładnie
i ja sobie nie wyobrażam, żeby w takiej muzyce
grały żywe instrumenty.
Znaczy brzmiałoby to najprawdopodobniej gorzej,
bo przynajmniej trzeba by się było
mocno postarać, żeby to brzmiało
też dobrze.
Ja się wcale nie zdziwię,
jak się okaże, że w pewnych przypadkach
syntezator może nie to,
że brzmi lepiej od głosu, ale brzmi
na tyle dobrze, że
po prostu
będzie można tego użyć. Tylko
no właśnie, niech…
Bo z tymi zapowiedziami to na chwilę obecną
jest po prostu tak, że
ktoś, kto tworzy te zapowiedzi
to pracuje na tym, co ma
i specjalnie do tego się nie przykłada,
bo to nie chodzi o to, że nie ma już
lepszych głosów.
Dokładnie. Skoro u mnie…
Tak, a normalny Kowalski na to nawet uwagi nie zwraca,
szczerze powiedziawszy. Skoro u mnie w mieście,
w autobusie jest,
w autobusach są zapowiedzi generowane
Agatą z czasów Toksa,
no to o czym my mówimy?
No to rzeczywiście, to
jest słaba jakość, to trzeba przyznać.
Więc to
możliwości już teraz są.
No chociażby
w zeszłym roku miałem okazję
być w Gdańsku i jechać gdańskim
tramwajem, tam też jest Paulina
i szczerze powiedziawszy
żadnego z przystanków nie byłem w stanie
zrozumieć.
To tak mówię słowo, oczywiście subiektywnie.
Nie wiem, czy się niektórzy
ze mną zgodzą. Chcesz trochę dobrze umieć
dobrać do
celu i też…
Znaczenia też Pawle, bo tu jeżeli mamy
głośny silnik, no to wiadomo jak
synteza będzie słaba, chociażby jeżeli
mówimy o Paulinie w tej chwili, no to
silnik, głos silnika
przybiegł zapowiedzi.
W państwach zachodnich z akapelami.
Akapele plus wokalajzery.
Ale tam powiedzmy niemieckie
czy francuskie, czy jakieś niderlandzkie.
I to dobrze
słychać, co by nie mówić. Jest to nudne,
jest to w jakiś sposób mdłe, bo
słyszysz ten sam głos w telefonie, w autobusie
gdzieś tam jeszcze.
Ale przyzwyczajony jesteś
do tego głosu, więc…
Natomiast nie mogę powiedzieć, że on jest niezrozumiały.
Poza tym pamiętajcie, że kierowcy
w naszych autobusach
mają jaką
brzydką tendencję do przyciszania
tego.
Nieraz wystarczyłoby po prostu
zrobić głośny.
To akurat to jest normalne, jeżeli
chodzi o moje miasto.
Że po 20 po prostu samo się ścisa
z takiego minimalnego poziomu
głośności.
No ale stali bywalcy to akurat
znają te przystanki, tylko tutaj
miejmy na uwadze też innych
pasażerów.
No ale to już
jest temat na bardzo długą rozmowę
i wydaje mi się, że
trzeba będzie, że tak powiem,
może chociażby jakoś zasugerować w ten sposób,
że
mimo tego, że synteza to jednak
głos ludzki na razie
nie skupi.
Okej Bartku, czy coś jeszcze?
To będzie dobrze, bo tutaj się
rozgadałem, rozgadałem, a tutaj północ
zaraz nas zawita i będzie
czwarty stycznia. Także jeszcze raz
wszystkiego dobrego na nowy rok.
Jak najwięcej tych audycji
i samych
dobrych
informacji, prawda?
Żeby tutaj były nam przekazywane.
Właśnie minęła północ i właśnie mamy
czwartek, piąty stycznia.
A przepraszam, no piąty.
O no widzicie, już czas tak leci.
Ostatni był sylwester.
A no był, ale już go nie ma.
Dzięki Bartku za telefon. Dobrej nocy.
To się trzymajcie serdecznie, również
was pozdrawiam, do usłyszenia.
No i tyle jeżeli chodzi
o newsy, które
mieliśmy w notatkach,
ale ja przynajmniej
znalazłem jeszcze w trakcie audycji
dwa newsy, takie
dość
nie do końca związane z nami,
ale myślę, że mogą być jakimiś ciekawostkami.
To znaczy pierwsza to jest
rzeczywiście taka ciekawostka,
bo podobno ktoś
odkrył, gdzie
to właśnie próbuję tu sobie przypomnieć
z artykułu, który
znalazłem, bo
odkryto, że
przy pomocy sygnałów wi-fi
można wykrywać zaburzenia oddechowe
u ludzi. To znaczy,
że
te routery, które wysyłają
sygnał wi-fi
i jak ten sygnał jest odbijany
od różnych przeszkód, to
może powiedzieć nam
w związku z tą charakterystyką odbijania
się tego sygnału
w zależności od tego, czy człowiek robi wdech,
czy człowiek robi wydech, jest na tyle już
inna, że można to
wykryć i to wykryć zdaje się
takim zwykłym, normalnym urządzeniem typu
smartfon.
W związku z powyższym smartfon
może służyć nam za podobno
dość niezły monitor oddechu.
Na tyle
jest on niezły, że
przemyśliwa się, że tak powiem,
stworzenie aplikacji na smartfona,
która miałaby monitorować
oddech, na przykład w czasie snu
i w ten sposób jakoś tam czuwać
nad naszym zdrowiem. Czy to się
rzeczywiście okaże fajne, czy to
jest mimo wszystko tylko w laboratorium?
Piszą, że
teoretycznie przynajmniej, że
ma to bardzo dobrą wykrywalność,
99% z groszami,
bardzo dużo.
Ciekawe, czy to rzeczywiście takie będzie.
Natomiast
drugi news to jest
aktualizacja aplikacji
Moje IKP, czyli
Internetowe Konto Pacjenta,
które doczekało się
rozszerzenia historii.
To znaczy
do tej pory było tak, że tylko
pewne zdarzenia tam
w tej aplikacji były
uwzględniane w historii. Teraz jest ich
znacznie więcej. Przede wszystkim
całe leczenie prywatne
może się
pojawić w historii.
No i teraz
tak,
jest lista tych zdarzeń, które
w tej chwili IKP obsługuje.
Nie wiem, czy to są wszystkie
zdarzenia, czy tylko nowe. W każdym razie mamy
pobyt w szpitalu,
leczenie jednego dnia, leczenie w szpitalu,
które trwa do 24 godzin.
Ciekawe, dlaczego nie dłuższe.
Pobyt trwający przynajmniej jedną
noc w zakładzie opiekuńczo-leczniczym,
w zakładzie pielęgnacyjno-opiekuńczym,
sanatorium, prewantorium,
hostelu
lub innej placówce
dla osób wymagających
całodobowej opieki i pomocy medycznej.
Porada. Konsultacja
u lekarza, lekarza psychiatry
lub dentysty w gabinecie
lub przychodni.
Porada patronażowa. Pierwsza wizyta
lekarza u noworodka i jego
rodziców w ich domu.
Patronażowa
wizyta położnej lub pielęgniarki
u niemowlęcia do drugiego miesiąca
życia. Wizyta,
kiedy konsultacja przez lekarza, dentysty
lub psychiatrę ma miejsce w domu pacjenta.
Cykl leczenia.
Leczenia zaplanowane jako
cały zestaw procedur medycznych
wykonywanych w określonym czasie
może objawiać na przykład
cykl leczenia u lekarza
specjalisty. Badania laboratoryjne
lub diagnostyczne.
Sesja, cykl leczenia
dotyczący zdrowia psychicznego
i uzależnień. Osoba leczona.
Wszystkie zdarzenia medyczne, których
Ci udzielono, a których nie da się
zakwalifikować do wcześniej wymienionych
kategorii. Wyjazd ratowniczy.
Pomoc udzielona przez
zespół ratownictwa medycznego
związkiem ratowników górskich i wodnych.
Akcje ratownicze.
Czytności ratunkowe wykonywane
przez wodne ratunkowe pogotowie
albo ratownictwo górskie.
Przewóz, transport pacjenta do
placówki medycznej lub z placówki
do domu. Hemodializa.
Hemofiltracja lub
hemodiafiltracja.
Bilans zdrowia profilaktyczny.
Badania lekarskie dzieci i młodzieży
wykonywane w określonym
wieku lub w grupie wybranej
ze względu na specyfikę
rozwoju, których celem jest
wczesne wykrycie zaburzeń i zaplanowane
dalsze działań. Wyrób medyczny.
To znaczy np. laska,
protezy,
aparaty słuchowe i ortezy.
Ortobedyczne wózki, walizki, laski,
kule, balkoniki,
obuwie ortobedyczne,
zestawy infuzyjne do osobistych
pompiculinowych, pieluchomańki,
cewniki, sprzęt,
stominy,
szczepienie, tylko finansowanie
ze środków publicznych, badanie, test
przesiewowe, badanie lekarskie lub pielęgniarskie
mające na celu identyfikację grup ryzyka,
wczesne wykrycie
objawów chorobowych i podjęcie
w porę odpowiedniego leczenia.
Świadczenie profilaktyczne
obejmuje niewymienione wyżej badania
profilaktyczne. Osoba
opieką
koordynowaną, nowa
od października
2022 roku. Forma opieki
nad pacjentem w placówce podstawowej
opieki zdrowotnej, która obejmuje poza
zwykłymi świadczeniami
dodatkowo dostęp
do badań diagnostycznych z obszaru
kardiologii, diabetologii, chorób płuc,
alergologii oraz endokrinologii,
porady edukacyjne,
dietetyczne,
osoba leczona w szpitalnym oddziale
ratunkowym lub izbie przyjęć,
segregacja,
tam jest jeszcze kilka tych rzeczy.
Są jeszcze dwie funkcje. Pierwsza może być ciekawa.
Jeszcze jej nie testowałem, bo można sobie
zeskanować opakowanie leku i on na podstawie
kodu ściągnie ulotkę
na temat leku, co może być rzeczywiście ciekawe.
Ciekawe, czy to jest dla nas dostępne.
I jest jeszcze
ułatwienie w teście wysiłkowym
przed treningiem w kromach
8 tygodni do zdrowia.
Aplikacja sama policzy odległość i czas.
Aplikacja…
No i tyle.
Ja gdzieś czytałem o tym, że
te skanowanie ulotek,
co ciekawe, działa i ponoć
wygląda
obiecująco.
No to…
No może być
rzeczywiście ciekawe.
Pytanie, czy
ktoś z was coś jeszcze znalazł
po drodze?
Ja myślę, że o jednej rzeczy wspomnę
i to tak dzisiaj
niecypowo, bo myślę, że
warto w tym momencie powiedzieć o tym
nad czym ja pracuję
i jeszcze do końca
projektu troszkę
zostało, ale myślę,
że za czas jakiś projekt się ukaże.
A mianowicie
pracuję nad katalogiem
wszelkiego rodzaju
informacji o dostępności
produktów. I to produktów
wszelkiego typu.
Generalnie inspiracją był AppleVis,
czyli serwis, który
mówi o dostępności
aplikacji na platformy
firmy Apple.
Drugą inspiracją było
audiogames.net, czyli
taka podobna baza, tylko jeżeli chodzi
o gry. No i stwierdziłem,
dlaczego by nie rozszerzyć tego
na więcej kategorii
i nie zrobić
takiej ogólnej, większej bazy,
gdzie możemy
ogólnie siebie nawzajem
informować o dostępności wszelkiego rodzaju rzeczy
dla niewidomych. I plany
są duże, plany są na
wszystko, od właśnie programów komputerowych
na wszelkie możliwe systemy,
przez
jakieś na przykład smartfony z Androidem
informacje typu, czy ten smartfon
da się
skonfigurować samodzielnie
przez
wszelkiego rodzaju aplikacje,
kuchenki, mikrofale,
ekspresy do kawy
i inne rzeczy z informacjami,
jak one są dostępne, czy da się
je obsłużyć dotykowo,
czy są dostępne aplikacje i tak dalej.
Po rzeczy typu
wtyczki VST,
sprzęt krótkofalarski
i no rzeczy już
bardziej specjalistyczne,
gdzie też się teraz okazuje,
że albo ten mikser zrobił to,
albo ta wtyczka, albo ten zrobił
nowego Juice’a i to się nadal
nawet da dostępnie obsłużyć, albo ten ma
jakieś mappingi i tak dalej, i tak dalej,
i tak dalej, żeby takie
informacje po prostu zebrać w jedno
miejsce, w jedną bazę
i żeby coś takiego powstało.
Projekt nie jest
polsko-centryczny i on polsko-
centryczny nie będzie,
bo jest jakby międzynarodowy, tworzony
po angielsku i
taki jest jego cel, żeby korzystali z
tego wszyscy, a nie tylko Polacy.
Więc jakby polskiej wersji
językowej tego to ja na razie
szczerze mówiąc nie widzę
i nie wiem czy kiedyś się
doczekamy,
ale no coś
takiego jest, jakby
projekt jest w planach i
miejmy nadzieję, że jak
najszybciej uda mi się jakieś pierwsze
prototypy no
zaprezentować i że coś z tego będzie.
No to trzymamy Mikołaju
kciuki, życzymy powodzenia
no i pozostaje mieć nadzieję na to,
że ludzie będą dodawać,
dodawać różne opisy,
różne rzeczy do tej bazy,
bo coś takiego to naprawdę
byłoby przydatne. A powiedz
jeszcze ty planujesz to
tylko jako stronę internetową
czy będzie też na przykład
jakaś aplikacja?
Na razie strona,
na razie strona, bo
też założenie jest takie,
żeby to w miarę tak napisać,
żeby dało się te poszczególne produkty
wyszukiwać w Googlu,
czyli jak wpiszemy sobie
accessible microwaves
to żebyśmy my
byli w stanie znaleźć
naszą stronę na
Enably właśnie
z informacją o tym jakie
te mikrofalówki są
dostępne, a jakie może
niekoniecznie.
I
na razie, na razie właśnie będzie to strona
internetowa.
Co będzie potem?
Api na przykład, żeby ktoś mógł stworzyć aplikację.
Api jest i to jest akurat
tak pisane, że
klient jest trochę, jakby strona jest trochę
osobno i backend tak zwany, czyli serwer jest trochę
osobno, więc akurat api to tam
jak najbardziej jest
i każdy kto będzie chciał
to nie będzie większy problem, żeby sobie z tego api
wziąć i skorzystać, zwłaszcza, że
kod jest jakby na Githubie
i będzie go też
będzie też udostępniony open source,
więc to nie będzie żaden
problem, żeby
ktoś go jakby
znalazł i sobie
popatrzył na to jak można
z tego api korzystać
i co można z nim zrobić.
Myślę, że
w ten czy inny sposób, nie wiem jeszcze
jak to będzie zrobione i to nie jest
pomysł na pierwszą, że tak powiem
turę funkcji, ale w pewnym
momencie
w jakiś sposób, czy to będzie Twitter, czy to
będzie Mastodon, czy to będzie
mail, czy to będzie kanał na
Telegramie, informacje
o tym, co stało się niedostępne.
Takie alerty,
ej uwaga, nie aktualizować, bo
tutaj będzie problem.
To jakby to
chcę zrobić,
no nie wiem, czy
apka, to jeszcze pomyślimy.
Myślałem
też, że może jakieś skille, może jakieś
asystenty głosowe, coś,
no bo jednak nie targetuję
polskiego rynku,
tylko raczej myślimy o ogólnie
międzynarodowym,
gdzieś tam międzynarodowej
konkretności, nie mówię, że Ameryka, bo jakby
nie tylko absolutnie, ale
na pewno cały świat.
Więc
zobaczymy, zobaczymy
co też ludzie będą chcieli,
jakie będzie podejście,
w którą stronę to w ogóle rozwinąć,
bo jeden kierunek to jest rozwinięcie
tego na ogólnie
inne też niepełnosprawności
i na przykład na dostępność miejsc,
kwestie wózków,
podjazdów i tak dalej,
a drugi kierunek to jest z kolei
pójście typowo w niewidomych
i zrobienie forum,
komunikacji, zrobienie z tego
potem trochę drugiego eltena
i jakiejś takiej interakcji społecznej.
Więc no
pomysłów jest dużo, ale myślę, że na razie
to trzeba wyjść z wersją pierwszą
i zobaczyć
jaki będzie odzew, co użytkownicy
powiedzą i
na co jest
tak naprawdę potrzeba i
co warto by zrobić, a co
może nie jest tak potrzebne, jak
mogłoby nam się wydawać.
No to trzymamy kciuki rzeczywiście
no i oby się
rzeczywiście udało.
No to ja jeszcze na koniec dwie rzeczy
drobne, takie uzupełnienie,
trochę do tego, czym otwarłem audycję,
to tym też zamknę.
Tu podziękowania dla Roberta, szybko mi
dopisał, że co prawda aplikacja
CG Transit jest dostępna
w języku angielskim, ale opisy
jak przejść, właśnie opisy tych przystanków
stacji metra dalej są w języku
czeskim, więc na ten moment
nie są one przetłumaczone,
może kiedyś będą, nie wiadomo.
Natomiast druga
rzecz, jeszcze w uzupełnieniu do
koncertów Coldplay,
oprócz tych podziemnych, powiedzmy
obszarów scenografii, można
też się przejść do,
jest taki obszar, który jest jeszcze przed sceną,
ale już jest oddzielony jakby
taką ochroną specjalną
od publiczności
i tam można się też przejść
i właśnie obejrzeć
nawet te
maszyny, te aparatury do
zrzucania konfetti
i inne właśnie jakieś
takie powiedzmy
stojaki na mikrofony
i tak dalej, więc można
naprawdę dużo sobie obejrzeć.
Też powinienem być w stanie dowiedzieć się
więcej a propos dostępności na koncertach
Rammsteina.
Skontaktuję się z kimś, kto na takim koncercie był
i opowie mi jak było.
Z tego co na razie wiem, to ponoć
gitarzysta sam zespołu
nas oprowadza po takim
tour, więc to też jest
myślę dość ciekawe przeżycie.
I to tyle z mojej strony.
No dobrze.
Mamy już,
już mamy czwartek.
15 minut po północy.
No i chyba
wygrono to, że kończymy
dzisiejszy Tyflą Przegląd. Dzisiaj
w sumie cztery osoby.
Michał Dziwisz, Paweł Masaczyk,
Mikołaj Hołysz, Tomek Bilecki.
Dobrej nocy.
Do usłyszenia, jak rzadko.
Także do usłyszenia
i do usłyszenia, no właśnie
do zobaczenia w przyszłym tygodniu.