TyfloPrzegląd Odcinek nr 215 (wersja tekstowa)

Pobierz napisy w formacie SRT
Pobierz napisy w formacie VTT
Fundacja Instytut Rozwoju Regionalnego prezentuje Tyflo Podcast.
Dzień dobry Państwu, pierwszy Tyflo Przegląd w 2024 roku.
A w ogóle to, jak tutaj patrzę, to jest audycja numer 215, tak.
No i dzisiaj wraz ze mną jest Paweł Masarczyk, Piotrek Machacz i Michał Dziwisz.
Pauli Nagajoch, której już dawno tu nie było.
No i ja, czyli Tomek Bilecki.
No i oczywiście zaczniemy od tego, co dzisiaj przygotowaliśmy,
a troszkę tego jest.
W tym tygodniu w Tyflo Przeglądzie.
Nowości w grach.
W Hearthstone pojawiła się karczem nabójka.
Rozpoznawanie ekranu iPhona czatem GPT jednym gestem
Dzięki nowemu skrótowi jest to możliwe.
RSSParrot, czyli kanały na naszej mastodonowej osi czasu.
Brakuje Ci fizycznej klawiatury na smartfonie?
Dwie firmy chcą temu zaradzić.
Mamy nowego pełnomocnika rządu do spraw osób niepełnosprawnych.
Nowości w VOCR.
Wiemy, co i jak będzie punktowane podczas starania się o świadczenie wspierające.
Apple Vis przygotowuje kolejny raport satysfakcji z dostępności urządzeń Apple, możesz w tym pomóc.
Nowości w insiderskich wersjach Windows.
Heynote, ciekawy notatnik w elektronie.
Microsoft wprowadza nowy klawisz na klawiaturach.
Testowaliśmy Whisper X, jest szybko.
Czy ChatGPT stanie się asystentem głosowym dla Androida?
Eleven Laps uruchamia Dubbing Studio.
OpenAI wprowadza sklep z GPT budowanymi przez użytkowników.
Wszystko to, a pewnie jeszcze więcej już za chwilę.
Zaczynamy!
Zdecydowanie jeszcze więcej, a ja przypominam, że nasza audycja jest na żywo,
a zatem może być ona również i z waszym udziałem.
6 6 3 8 8 3 6 0 0 6 6 3 8 8 3 6 0 0 to jest nasz numer telefonu, tu do waszej dyspozycji kilka dróg komunikacji, bo jest i Whatsapp i Facetime i po prostu zwykły tradycyjny telefon.
Jest też YouTube, jest też Facebook, tam transmitujemy na żywo, możecie do nas pisać za pomocą komentarzy, które są pod każdą z takich transmisji.
Za momencik też, bo tego jeszcze rzeczywiście nie zdążyłem zrobić, ale powiem szczerze, po takim czasie świątecznej przerwy to trochę ciężko się wdrożyć w to wszystko,
ale za jakiś czas będziecie mogli też pisać do nas na kontakt.tyflopodcast.net, a tym samym również za pomocą aplikacji mobilnej na iOS-a i tej na Windows-a.
I to są chyba już wszystkie drogi kontaktu z nami, które mamy, zapraszamy do tego, abyście się do nas odzywali,
bo pewnie przez te parę tygodni to i owo się zdarzyło, o czym byście chcieli opowiedzieć.
Zapewne. A teraz przechodzimy już do newsów, które przygotowaliśmy my i zaczynamy od newsa.
Jeszcze trochę z poprzedniej audycji, bo jest coś dla, chyba dla programistów, jeśli dobrze myślę.
bo aplikacja demonstrująca przykłady dobrych praktyk dostępności w Swift UI w App Store jest ta aplikacja, to od Paweł Aniusz.
Tak, zgadza się. No, co mogę powiedzieć? Piotr jakiś tu czas temu, chyba w ostatniej albo przedostatniej audycji przedstawił nam takie repozytorium na GitHubie,
gdzie firma CVS Health amerykańska i jeden z działających dla niej ekspertów dostępności
stworzyli taki zestaw, no taką przykładową aplikację, ale tak naprawdę taki zestaw przykładów kodu,
który można by wykorzystać, żeby zaimplementować różne fajne opcje dostępności w aplikacjach na iOS-a.
Czyli od takich podstaw wychodząc, jak zarezygnować przycisk, czemu w ogóle robić natywne przyciski,
jak robić tabele, jak robić, żeby były nagłówkowane sekcje i czemu to jest ważne,
jak robić, żeby była dobra kolejność elementów i żeby odpowiadało to temu,
co jest widoczne na ekranie, no wszystko to, co jest potrzebne,
żeby aplikacja dostępną dla nas była.
No i było to w formie takich właśnie na GitHubie, jakiegoś tam repozytorium,
a tymczasem stało się to jeszcze bardziej przystępne dla każdego z nas,
bo powstała wersja w formie aplikacji dostępnej w App Store.
Aplikacja nazywa się Swift UI Accessibility Techs od Technics.
Skrót taki mniemam.
No i jest to rzeczywiście taka przykładowa aplikacja, do której sobie wchodzimy.
I ta aplikacja ma dużo różnych sekcji.
No i tam możemy sobie właśnie wejść w przyciski, listy, tabele,
jak zrobić magic tap, czyli podwójne stuknięcie dwoma palcami w ekran,
żeby jakąś akcję wywołać.
Wiele aplikacji z tego sobie korzysta.
Jak stworzyć gdzieś tam wysoki kontrast,
jak dostosowywać do czcionki dynamicznej,
w jaki sposób implementować czynności na pokrętle i tak dalej.
I to cały czas się poszerza.
Jest to zademonstrowane w formie takich kontrolek już zaimplementowanych,
czyli możemy sobie sprawdzić.
Najpierw sobie możemy o tym oczywiście w języku angielskim przeczytać, jak to w teorii
brzmi, jak to się w ogóle profesjonalnie nazywa, a potem możemy sprawdzić, jak to
czyta się z voice-overem, jak to się zachowuje z voice-overem i to jest myślę świetne
narzędzie, jeżeli chcielibyśmy się nauczyć, jak w sposób trochę bardziej profesjonalny
zgłaszać pewne rzeczy twórcom aplikacji, więc to już nie tylko programiści, ale myślę, że
każdy z nas ma czasem taki moment, że chce zgłosić jakieś błędy dostępności w aplikacji
na iPhone’ie. No i teraz możemy przetestować na takiej przykładowej aplikacji, czego my tak
naprawdę szukamy, czego nam potrzeba, co w tej naszej aplikacji, w której życzylibyśmy
sobie usprawnień jest popsute i jak to nazwać tak technicznie, żeby taki deweloper,
który nigdy w życiu z dostępnością do czynienia nie miał, wiedział przynajmniej czego
szukać w dokumentacji do programistów, programistycznej Apple, która to muszę
przyznać, no najprzejrzystsza nie jest.
Pawle, to ja od razu zapytam przy tej okazji, bo wspomniałeś o tym, że są zademonstrowane
różne tak zwane dobre praktyki, a czy tam gdzieś jest jakaś rzecz czy jakaś sekcja z pokazanymi różnymi takimi problematycznymi sytuacjami, bo ja mam takie wrażenie,
okej, to jest z jednej strony to rzeczywiście pełna zgoda z tym o czym mówisz, że bardzo często nie wiemy jak coś nazwać, ale z drugiej strony czasem pojawia się w różnych aplikacjach
taki jakiś niedostępny ekran, gdzie też najzwyczajniej w świecie nie bardzo wiadomo jak to określić, można tylko powiedzieć, no kurczę, no nie działa, jeżeli jest się takim użytkownikiem powiedzmy średnio zaawansowanym.
I ciekawe, czy nie fajnie byłoby też dodać właśnie drugą jakąś taką sekcję z tymi nie do końca dobrymi praktykami, albo po prostu mówiąc wprost złymi, żeby ludzie też mogli sobie zobaczyć, a w tej aplikacji to jest to i to spowodowało zastosowanie tego i tego.
Każdy element w aplikacji posiada sekcję poprawna implementacja i niepoprawna implementacja.
A, no to super.
Możemy sobie zrobić porównanie. Ja to może zademonstruję na przykładzie czegoś.
Może zwolnię trochę syntezę.
Tu po angielsku się odzywa, bo jest zdefiniowana.
To może ja jeszcze…
Dobrze. I teraz możemy sobie po…
To jest w razie czego, gdyby ktoś pytał
bo czasami pytacie o różne takie szczególiki,
które potem są wychwytywane.
Jestem sobie w tej aplikacji i co ja tutaj mam?
Mam tutaj taki cały pasek, na którym są różne sekcje.
Headings, czyli nagłówki.
Obrazki dekoracyjne, funkcjonalne i informacyjne.
No i na przykład wejdziemy sobie tutaj.
To są natywne kontrolki, przykłady różnych kontrolek.
to taki bardzo szeroki dział i przykładowo wybieramy sobie alert.
I tu przyszło nam takie długie, długie, długie angielskie objaśnienie,
że po pierwsze, takie okienko alertowe, jeżeli ono jest dobrze zrobione,
no to przede wszystkim przechwytuje nasz focus voiceover,
czyli jeżeli nam jest wyświetlany taki alert, to po prostu w momencie jego wyświetlenia
my na niego wskakujemy. Automatycznie jest nam przesuwany tam focus.
Co więcej, kiedy podejmiemy jakieś działanie, powinien ten focus wrócić
do tego elementu, który ten alert wywołał, czyli do tego przycisku,
do tej kontrolki, do tego linku i tak dalej.
Raczej to będą przyciski w większości przypadków.
No i tu były podane też dwie techniki,
jak po pierwsze zaprogramować, jaką metodą,
jakiej funkcji użyć, żeby zaprogramować
taki konkretny rodzaj okienka
oraz jakiej metody użyć, żeby potem
zmusić ten fokus do przeskoczenia z powrotem na ten przycisk.
To jest wszystko tu rozpisane, można sobie przejrzeć.
No i zobaczmy.
Mamy good example, czyli dobry przykład i mamy przycisk delete all messages.
Taki przykładowy, on niczego nam nie usunie, ale jest tutaj po to, żeby dać powód do tego, żeby wyświetlił się jakiś alert.
No i jak to powinno teraz działać? Ja jeszcze tu przejdę w prawo i details to są szczegóły, to za chwileczkę sobie rozwiniemy.
tam jest opisane jak to jest zrobione.
No to naciśnijmy przycisk, zobaczmy czym ma być ten alert.
Czy na pewno chcesz usunąć wszystkie wiadomości?
Nie można tej operacji cofnąć.
Usuń wszystkie wiadomości i anuluj.
No to dajmy, że usuniemy wszystkie wiadomości.
I wróciliśmy do przycisku, który tą akcję wywołał.
No więc tutaj mamy poprawnie zaimplementowane okienko takie dialogowe z alertem, z jakimś komunikatem.
I znacie takie okienka, one wyskakują Wam przy różnych aplikacjach, ten dźwięk du-dum też kojarzycie.
No i właśnie mieliście napisane i przedstawione jak to się nazywa, że to jest alert i jak to zaprogramować poprawnie.
I teraz Details, rozwijam, i mamy tutaj taki tekst.
No, czyli powyżej zobaczyliśmy przykład alertu zakodowanego metodą natywną
tam kropka alert chyba otwarcie i zamknięcie nawiasu okrągłego ze SwiftUI
i dodatkowo accessibility focus state funkcja została użyta, żeby skierować fokus na tą kontrolkę, którą chcemy.
Ale mamy także bad example, czyli zły przykład.
I znowu mamy tu przycisk i details, tak samo jak wcześniej, tylko że jak ja teraz nacisnę ten przycisk,
to nie stało się nic, to znaczy przynajmniej tak się wydaje z pozoru.
No ale teraz możemy przejść w prawo i co usłyszymy?
No właśnie, czyli to się pokazało, ale trzeba było ręcznie przejść jednym machnięciem w prawo do tego komunikatu.
Co więcej, my możemy sobie chodzić po całym oknie, możemy daleko gdzieś zgubić.
Ja wyszedłem w ogóle za obszar tego okienka, nie wiadomo czy ja jeszcze znajdę czy nie, no tu znajdę, bo jest mały widok, ale przypuśćmy, że tak by się działo w prawdziwej aplikacji.
No i co my teraz zrobimy? No i teraz wróciłem, akurat dotknąłem gdzieś w połowie ekranu i jestem.
No i dokładnie to samo co tu mamy jest tu, co mieliśmy w tym dobrym przykładzie jest też tu, ta sama treść, te same przyciski, no i znów nacisnę Delete All Messages, no i on wyleciał sobie gdzieś tym fokusem akurat na ten tekst wyjaśniający gdzieś tam kilka linijek powyżej, no i czemu by nie?
Tak się nie powinno robić, no ale on tak robi.
No i tu mamy objaśnienie, dlaczego ten przykład jest zły.
No, czyli zakodowano to okienko za pomocą jakiegoś niestandardowego widoku,
który nie kieruje do siebie focusu voiceover, kiedy się pojawia
i też nie odsyła go z powrotem do elementu, który go wywołał.
No i w ten sposób są pokazane różne rzeczy, codziennie widzę albo co dwa dni mniej więcej jest aktualizacja, jakieś nowe treści dochodzą, no więc jeżeli albo się interesujecie dostępnością, a może jesteście na kierunku tyfoinformatycznym w którymś z naszych ośrodków, albo po prostu chcecie się dowiedzieć z czego są zrobione wasze aplikacje i dlaczego działają tak jak działają, a potem może chcecie jeszcze zgłosić jakieś błędy, to myślę, że aplikacją warto się zainteresować.
Przechodzimy w takim razie do następnego newsa, czyli w zasadzie już do pierwszego newsa, który mamy już na tę audycję i tutaj na początku mamy nasze maratony newsowe, ale nie wiem co myślicie, żeby te maratony zostawić sobie na koniec, a zacząć od rzeczywiście tych takich newsów, newsów pojedynczych newsów i jeżeli się na to wszyscy zgadzamy,
No to pierwszym newsem jest news Piotrka na temat rozpoznawania ekranu w iPhone’ach czasem GPT jednym gestem dzięki magii skrótów.
No właśnie wracamy do czegoś co przez ostatnie kilka audycji Paweł demonstrował potęgę aplikacji skrótów i tutaj mamy kolejny przykład tym razem od pana Arona Romeraza na portalu AppleWiz,
ale nie tylko, bo też na forum Audio Games też wrzucił ten skrót.
Właściwie nawet powstały dwa skróty, ale ja głównie będę mówił o tym pierwszym
skrócie, który pozwala nam po prostu zrobić zrzut ekranu, który automatycznie jest
wysyłany do czata GBT, a my jesteśmy pytani o po prostu pytanie, które chcemy temu
czatowi zadać, no i po kilku sekundach będziemy widzieć do niego odpowiedź.
Czemu to się nam może przydać?
No bo wysyłanie zdjęć do tych aplikacji, czy to będzie aplikacja Be My Eyes, chyba najbardziej popularna, czy nawet Seeing AI od Microsoftu, no jednak trochę zajmuje, bo jeśli chcemy, powiedzmy, zrobić zrzut ekranu z YouTube’a, z jakiegoś filmu na YouTubie, który sobie zatrzymaliśmy akurat w jakimś miejscu, chcemy wiedzieć co się na nim dzieje,
No to musimy zrobić ten zrzut ekranu, musimy znaleźć ten pływający przycisk,
otwiera nam się widok, musimy kliknąć udostępnić, udostępnij przepraszam, znaleźć tą
aplikację, no i dopiero wtedy możemy ewentualnie jakieś pytanie zadać.
To trochę czasu zajmuje, a też czasami nie, może to być utrudnione.
Niektóre aplikacje też nam nie pozwalają takich zdjęć udostępnić, tutaj patrz
Facebook, Michał wiele razy zwracał na to uwagę, no i w takich sytuacjach taka
możliwość to się nam może przydać, no bo ten skrót nam to upraszcza
maksymalnie. Jak my to sobie konfigurujemy?
Znajdziecie link w komentarzu do tego skrótu i kiedy w niego klikniemy otworzy
nam się aplikacja skróty i będziemy sobie ten skrót dodawać zadane zostaną
nam dwa pytania, bo skróty przy dodawaniu mogą nam zadawać różne pytania i
w tym przypadku będziemy mieli takie dwa główne pytania, na których warto
zwrócić uwagę.
Pierwsze pytanie to jest tradycyjnie klucz API do OpenAI, jak wiele tych dodatków, aplikacji, o których mówimy, tutaj jeszcze będzie jedna aplikacja później, która też w ten sposób działa, musimy sobie wejść na stronę OpenAI, platformę deweloperską, tam założyć konto, zasilić je, minimum tam musimy pięć dolarów wpłacić, no i wtedy wygenerować sobie klucz API, który później do tego skrótu wpisujemy, więc warto sobie ten
klucz, jeśli go sobie już wygenerujemy, nawet na komputerze,
nie wiem, wysłać do siebie pocztą, notatką, telegramem, jak to woli,
jak macie Maca, no to mamy ten schowek uniwersalny i na naszym
telefonie sobie po prostu ten skrót, ten klucz skopiować do
schowka w momencie, żeby kiedy nas ten skrót o to zapyta, po
prostu go sobie wkleić.
To jest pierwsze pytanie, a drugie pytanie jest o domyślny
prompt i co ciekawe, tutaj jest wykorzystana ta funkcja tego
promptu systemowego tak zwanego, czyli to jest to pole, które mówi temu GPT czym on jest.
I tam jest taki domyślny prompt w angielsku
Jesteś asystentem, który opisuje zdjęcia dla osób niewidomych
Nie próbuj tutaj jakoś ich interpretować
Jeśli widzisz jakiś tekst, no to ten tekst podaj w verbatum
i staraj się mówić krótko i zwięźle, bo ta osoba nie będzie mogła zadawać Ci dodatkowych później pytań
I to jest o tyle fajnie tak zrobione, że ten, później możemy dodatkowy ten prompt, który normalnie widzimy w innych aplikacjach, możemy zostawić pusty i on i tak nam wtedy opowie o tym zdjęciu, a możemy zadać jakieś pytanie o jakiś konkretny szczegół.
Natomiast on właśnie nas o ten prompt systemowy przy instalacji skrótu zapyta i tutaj też warto sobie ten skrót do tego promptu, no na przykład dopisać, żeby nam odpowiadał w języku polskim.
No możemy po prostu do tego promptu napisać po angielsku
nie wiem, the descriptions must always be in Polish
albo po prostu przepisać ten prompt od początku po polsku
jesteś asystentem, którego zadaniem jest opisywanie zdjęć dla osoby niewidomej
coś w tym stylu po prostu napisać, żeby ten bot wiedział co ma zrobić
no i to są te dwa podstawowe pytania
no i później ten skrót nam się doda
Później warto sobie go przypisać do jakiegoś gestu w voiceoverze.
Możemy to zrobić wchodząc sobie w ustawienia voiceovera, później w polecenia.
I tutaj uwaga, później warto sobie, żeby znaleźć wszystkie skróty,
które możemy przypisać do poleceń, nie możemy kliknąć najpierw w gest,
który chcemy przypisać, bo tam się skróty z jakiegoś powodu nie wyświetlają.
Więc kiedy wejdziemy sobie do tej sekcji polecenia, klikamy później w przycisk
wszystkie polecenia i tam będzie kilka kategorii właśnie poleceń bossa vera.
Jedną z nich będą skróty, wchodzimy w skróty i tam ten skrót znajdziemy i możemy
sobie go do jakiegoś gestu przypisać.
Ja to sobie zrobiłem wcześniej i teraz myślę, że możemy przejść do demonstracji.
Już sobie też wcześniej ten prompt zmieniłem, żeby odpowiadał nam po polsku
i nawet znalazłem sobie już post, akurat to jest post na Mastodonie, coś w hashtagu
idealne wakacje dla kotów, ale niestety opisu alternatywnego akurat ta osoba nam
nie dała, więc sobie ten klucz przetestujemy.
Obrazek. Dostęp do czynności.
No właśnie, mamy obrazek, nie wiemy o nim nic.
Oczywiście, żeby to działało też musimy mieć kurtynę wyłączoną, więc jeśli
generalnie korzystamy z kurtyny, no to na tą chwilę musimy ją wyłączyć.
No i ja już to zrobiłem wcześniej, kurtynę mam wyłączoną i teraz użyję
gestu, który sobie do tego skrótu przepisałem.
U mnie to jest czworokrotne stuknięcie trzema palcami.
Przepraszam, to było czterokrotne, bo tutaj właśnie, no właśnie,
sobie znalazłem wolny gest jeszcze.
No właśnie.
Dobra, zdjęcie zniknęło.
Okej, czworokrotne stuknięcie czterma palcami.
Akurat u mnie tak jest.
I co się stało?
W ogóle przeszliśmy do aplikacji skróty
i otworzyła nam się klawiatura
z pytaniem, czy chcemy uzyskać
jakie konkretne informacje chcemy uzyskać.
Jeśli zostawimy to pole poste,
no to przez to, że ten prompt systemowy
tam był ustawiony, to SendScrewt już wie, że ma generalnie ten opis podać i ma ten
opis być w języku polskim, więc ja sobie po prostu przejdę do przycisku gotowe.
Akurat u mnie to jest po angielsku, bo ja mam system po angielsku i w tym momencie on
zostanie wysłany do API OpenAI.
Natomiast musimy zaraz po naciśnięciu tego przycisku wyjść z tej aplikacji skróty albo
wrócić po prostu do aplikacji, w której byliśmy, dlatego że i tu jest chyba jakiś
nie wiem czy to jest błąd dostępnościowy, czy coś jest nie tak z aplikacją skróty,
bo generalnie kiedy ten skrót zakończy działanie, mamy dźwięk
i otwiera nam się okienko z podglądem opisu, co ten czat nam odpowiedział,
który z jakiegoś powodu, jeśli aplikacja skróty nadal jest otwarta na pierwszym
planie, po prostu voiceover go nie widzi.
Wtedy musimy voiceover zestartować, żeby ten skrót działał.
Nie wiem czemu tak jest, natomiast jeśli o tym pamiętamy, no to działa fajnie.
Więc ja sobie teraz nacisnę ten przycisk, od razu potem gestem przesunięcia czterema palcami w prawo wrócę do Mony akurat tutaj, bo w tej aplikacji byliśmy wcześniej.
To już się wysłało.
Wyszłem z aplikacji.
I czekamy na dźwięk.
Oczywiście chwilkę potrwa, no bo to jest OpenAI.
Oczywiście przed audycją, o jest, przed audycją to wszystko działało.
I fokus nam tam nie przeszedł, ale po prostu jeśli dotkniemy gdzieś na górze ekranu to, no i mamy tutaj opis.
Na szczytowym elemencie konstrukcji siedzi kolejny kot o pręgowanym umaszczeniu, który wygląda na zainteresowanego otoczeniem.
Po prawej stronie od urządzenia do zabawy, w rogu pokoju widać małego, szarego kota, który wydaje się być zrelaksowany lub śpiący.
Na górze zdjęcia widnieje czarny pasek z napisem Monoforma Stodon, co sugeruje, że zdjęcie pochodzi z aplikacji mobilnej dla serwisu Mastodon.
I pod spodem mamy jeszcze jedną informację.
To jest deskrypcjąco z 2,731 cen.
Bo aplikacja nas też informuje, ile taki opis kosztuje.
No i tutaj za to zdjęcie z konta, czyli z tych 5 dolarów, które tam wpłaciłem, zostało ściągnięte około 3 centy.
Więc no tak około 2 do 3 centów widzę takie jedno zdjęcie zabiera, więc no na takich 5 dolarach można całkiem sporo sobie opisać.
No i jak widać to zadziałało nam fajnie, możemy sobie tutaj, gdybyśmy chcieli to skopiować, bo tutaj nawet mamy przycisk, żeby to udostępnić.
Oczywiście też możemy gestami to zrobić, albo możemy sobie kliknąć gotowe.
Tutaj też jest nieprzetłumaczone.
No i wróciliśmy do aplikacji Mona.
No i możemy sobie dalej z naszego urządzenia korzystać.
No trochę to zajmuje konfiguracji, trzeba pamiętać, żeby z tej aplikacji wyjść.
Natomiast skrót jest bardzo fajny, no i fajnie, że działa praktycznie w każdym miejscu,
no i faktycznie dostęp do tego jednym gestem, tak jak to mamy czy na NVDA, czy nawet na Macu teraz,
o czym będę mówił później, no to bardzo się przydaje.
A tymczasem mamy telefon, więc odbierzmy ten telefon. Ktoś z nami po drugiej stronie?
Sylwester.
Witamy i słuchamy.
Ja dzwoniłem do Rubenu w sprawie tego telefonu Blanche Classic
i kazali mi ten formularz wypełnić,
ale takie błędy nie mogłem tego wypełnić.
Proszę kogoś, kto źle wypełnił, chyba ja nie wyślę tego telefonu, chyba że kogoś tam, jak ktoś będzie jechał, to wyślę najwyżej. Zabierze je do Warszawy.
No to może się akurat uda coś z tym zrobić w takim razie. Oby jednak się udało, no bo to wiadomo zawsze, jeżeli ten telefon był ci przydatny i pomocny, no to fajnie byłoby, żeby działał pogodnie.
Czy Sylwestra dzwonisz do nas jeszcze w jakiejś sprawie?
Ja chciałem się zapytać, nie ma takich starszych osób, takich po wyżej mojego wieku, na przykład z lat 80., przed lat 80., po 70. rączniku.
Szkoda mi się zrobiło, jak Robert Łubeński odszedł.
Robert generalnie nie odszedł jakby od realizowania audycji. Od czasu do czasu można go u nas posłuchać. Co prawda już nie w Tyflu Przeglądach, bo Robert generalnie zrezygnował z współtworzenia Tyflu Przeglądów, ale na pewno jeszcze niejednokrotnie u nas go usłyszysz.
Tak, bo ja szukam takich osób z lat np. 80-tych, około lat 80-tych, lotników, a on tak jakby starszy był ode mnie 2 lata.
Dużo też miał wiadomości.
No okej, ale szukasz jakby kontaktu z takimi osobami, bo sprecyzujmy się może.
I żeby jakaś taka osoba zawsze trochę była w audycji, bo te młodsze jakieś tak mniej mi to…
No cóż, to powiem w ten sposób. Akurat nie mamy nikogo w załodze, aczkolwiek jest u nas dwóch z Tomkiem roczniki 80.
My jesteśmy akurat z 86 konkretnie roku, także no cóż, tyle niestety przynajmniej da się mówić i wystarczy.
A ja chciałem sprawić tego Whatsappa, jak to na przykład coś nagrać i wysłać do Was.
Po prostu jako wiadomość głosową na ten numer 663883600.
Tak, na ten sam numer zadzwonię?
Tak, tak, tak, po prostu wiadomość głosową.
Aha, i właśnie wysyłać, tak?
Dokładnie.
Nagrywać i wysyłać.
Tak, tak, dokładnie.
Bo ja nie mam zainstalowanego WhatsAppa, ale chyba prawdopodobnie zainstaluję go.
A to zainstaluj sobie, bo ta aplikacja jest całkiem dostępna, więc myślę, że nie będziesz miał problemów z jej obsługą.
No, na tym Galaxy.
Mhm.
Będzie pasować chyba.
No, powinno.
No tak, czołgowniki brojnowskie teraz próbuję szukać. Nie wiem, gdzie ja mogę teraz szukać.
pieniądze. Być może…
Ja lubię…
Ja polecam program Audacity
jak ktoś chce nagrywać
na komputerze, nie na listotorze.
Korzystam, korzystam
i jakby z jakichś dziwnych
powodów nie idzie mi przesiadka na Reapera
więc póki co ja również…
A ja Reapera niestety nie ogarniam.
Nie jestem w stanie używać
jej wolę Audacity.
Jest najprostszy.
No to jest potężna aplikacja, ale na pewno nie należy do prostych, zwłaszcza jak zaczynamy z nią, to prawda.
Bo Reaper dla mnie przynajmniej jest dość trudny.
No to już jest kwestia, mam wrażenie, takiego dosyć indywidualnego podejścia. Tak jednemu będzie pasowało coś, innemu będzie pasowało coś innego. Dobrze jest Sylwester, czy jeszcze w jakiejś sprawie do nas dzwonisz?
No tak to jest, dokładnie jest dość zła, choć raz na tydzień, ale mam taką koleżankę, która ma dzieci małe, czy może Milena Miśniewska raz na miesiąc, czy raz na dwa miesiące, czy w lepszym rądzie, choć pół, nie musi całej edukacji zajmować, coś by opowiedziała, czy uszkolać, czy coś takiego.
No to zobaczymy, czy będzie zainteresowana tym, bo Milena akurat u nas prowadzi program RTV, więc…
Właśnie, właśnie, ale ona żeby nie musiała tak już co tydzień być, ale przynajmniej raz na miesiąc, czy raz na dwa miesiące uzebrała i nie zajmowała całej audycji.
No to przekażemy na pewno te informacje, jeżeli będzie zainteresowana, to na pewno się usłyszycie i usłyszymy.
Dobrze, Sylwestrze, to dzięki, dzięki w takim razie.
Ja dla tej, dla Moniki z Lublina.
A to pozdrawiamy.
Dobrze, to Sylwestrze, dzięki w takim razie za telefon,
fajnie, że do nas zadzwoniłeś, pozdrawiamy Cię
i wszystkiego dobrego w nowym roku.
Dobrego, spokojnego przede wszystkim.
Dokładnie, dokładnie.
Nie zapowiada.
Zgadza się.
Nie będę komplementował.
Tak jest.
Do usłyszenia, pozdrawiamy Cię serdecznie.
Tymczasem mamy komentarze i to całkiem sporo komentarzy w wersji tekstowej,
więc ja się pozwolę tutaj na nich teraz skupić.
Widzę, że też jakieś wiadomości na Whatsappie.
O, rozdzwoniliście się i bardzo dobrze.
Mamy pierwszy komentarz od Matiusa.
Ja mam pytanie, czy to prawda, że konsola PlayStation 5 posiada czytnik ekranu
i może ona mówić w języku polskim.
Piszą na stronie PlayStation,
że jego mowa zależna od języka konsoli
i wymieniony jest polski.
Piotrze, czy ty tu coś…
W skrócie tak.
Po prostu Maj potrafi, można sobie nawet konfigurację wstępną też po polsku przeprowadzić, więc
to nie ma największego problemu.
No to super.
To w takim razie możemy przejść do następnego komentarza, też od Matiusa.
Co z dostępnością Spider-Man 2 na PS5 oraz czy gra God of War 2018 ma te same ułatwienia dostępu jak God of War Ragnarok?
Takie pytanie.
Więc tak, jeśli chodzi o Spider-Mana, to pamiętam, że, oj, to już będzie kilkanaście tylu przeglądów temu, a może kilka, nie wiem, no więc jakiś czas temu opowiadaliśmy o tym, co zostało zapowiedziane.
Generalnie to gra ma jeszcze, ma utrzymać audiodeskrypcję i czynnik ekranu, ale później. To miało się ukazać w grudniu, natomiast producent tej gry, firma Insomniac Games tą aktualizację opóźniła,
po prostu wymagała jeszcze dopracowania, bo tam jeszcze jakieś inne rzeczy mają wejść.
Też w międzyczasie byli ofiarami dosyć dużego ataku hakerskiego,
gdzie bardzo dużo poufnych danych wyciekło,
więc pewnie też sobie z tym musieli poradzić.
No więc to wszystko się opóźniało.
Czy to wystarczy, żeby ta gra była dla nas dostępna?
Nie wiem.
I sam Brandon Cole, który też recenzował tę grę,
też nie był pewny,
dlatego, że tam brakuje takich funkcji nawigacyjnych i dodatkowych dźwięków np.
na celowanie do przeciwników, tak jak np.
mamy w przypadku The Last of Us i takie rzeczy nie były zapowiedziane.
Natomiast może coś się w tej sprawie zmieni.
Na pewno są niewidome osoby, które tę grę kupiły, dostały właśnie, żeby przeprowadzić
recenzję i wiem, że te osoby się zadeklarowały, kiedy te aktualizacje z
czytnikiem ekranu i audiodeskrypcją się pojawią.
no to obiecały, że swoje recenzje zaktualizują i wtedy powiedzą czy ta gra jest dla nas w pełni grywalna czy nie.
Więc no po prostu będziemy musieli jeszcze poczekać.
Kiedy ta aktualizacja się pokaże, no to na pewno wspomnę o tym w Tyflo przeglądzie.
Też na pewno na forach, na audiogamesie też jakieś informacje pewnie zaczną się pokazywać, więc będziemy wtedy wiedzieć więcej.
No to chyba tyle o Spider-Manie, a jeśli chodzi o God of War, to ta wersja 2018 roku chyba tych funkcji dostępności wszystkich, które były, niestety chyba nie dostała.
I raczej już nie dostanie, no bo to już ma, jak można się domyślić, pół roku wydania zresztą, tak? 2018 rok. No to już raczej ich chyba niestety nie dostanie.
Kolejne pytanie w wersji tekstowej, które przybyło do nas od Mata.
Witam, zainstalowałem dodatek OpenAI do NVIDIA i nawet jakimś cudem wygenerowałem klucz.
Proszę o info co będzie, jak przekroczę darmowy limit.
Zablokują mnie? Czy będzie na kredyt i kiedyś się zdziwię?
Gdzie mogę kontrolować płatności i czy muszę płacić kartą, czy może być na przykład blik?
To znaczy na jaką stronę wejść, żeby zdobyć info o płatnościach, bo rozumiem, że nie jest to chat GPT.
Jest to subskrypcja, czy tyle ile wykorzystam, tyle zapłacę?
Takie pytanie jest od Mata.
Ja nie odpowiem na wszystko od razu, bo tu pewnie Piotr ma też sporą wiedzę, mi się pewne rzeczy zacierają.
Ale, po pierwsze, żeby cokolwiek szło, musi być coś na koncie.
To jest konto, które się doładowuje, to nie jest konto, gdzie karta jest na stałe podpięta,
w takim sensie, że my sobie coś tam produkujemy i te pieniądze sobie nam tak schodzą, schodzą, schodzą, my musimy doładować konkretną kwotę i póki ten stan konta jest zachowany i tam coś jest, na tyle jest, trochę jak z doładowywaniem telefonu, póki na telefonie coś jest, to korzystamy, jak się pieniądze na prepage’ie skończą, to nie ma, po prostu wyskoczy błąd tam, jakiś error z API 400, nie 404, ale jakiś tam konkretny i nam nawet wtyczka ta,
Przynajmniej ta AI Content, nie, AI Content Describer, ta od Cartera Tema, bo tej wtyczki ja używam. Ona nam poda konkretnie błąd, że tam rzeczywiście czegoś nie ma, że nie ma pieniędzy na koncie.
Kartę można podpiąć, wątpię, że jest BLEAK, to jest amerykański twór i tam BLEAKa, ja z tego co pamiętam, nie ma, trzeba sztywno podpiąć kartę.
Czy przypadkiem GPT w ogóle nie jest obsługiwane przez tę firmę Stripe?
Którąś z tych portali, nie pamiętam czy to był Stripe akurat, ale tak.
Tak, no i gdzie to się podpina? Tam chyba w zakładce billing czy gdzieś, jak się zalogujemy na konto nasze w OpenAI.
Tak, i tam jest też obok zakładka Usage, na której możesz sprawdzić ile Ci zostało tego kredytu.
Tam można sobie to skonfigurować, żeby to się nam automatycznie doładowało.
Tam można sobie ustawić, że jeśli nasze saldo spadnie tam poniżej,
tam można sobie wpisać kwotę, że ma nam automatycznie tą płatność uiślić,
ale też możemy sobie to odznaczyć. Nie pamiętam, czy to przy pierwszym doładowaniu
jest zaznaczone, czy nie. Ja pamiętam, że to generalnie odznaczałem
i wtedy nie musimy się o nic martwić, bo tak jak Paweł mówił, po prostu
jeśli wtedy nam to saldo się wyczerpie, no to po prostu wyrzuci nam błąd,
nic się nie stanie.
Więc to chyba wszystkie pytania, które miał nasz słuchacz i jeszcze mamy od Matiusa pytanie, czy gra i tu nie wiem, czy to jest taki rzeczywiście tytuł, czy jakieś rozpoznawanie mowy, ale to Piotrze na pewno zaraz tu powiesz co i jak.
Ratchet i Clank Rift Apart ma jakąś dostępność, która w jakiś sposób pozwala w nią grać osobom niewidomym. Brandon Cole ją pokazywał na własnym kanale.
Co? No prawie dobrze w tektowaniu wyszło, bo faktycznie gra się nazywa Ratchet & Clank, to po prostu ten znaczek, więc pewnie stąd. Mniej więcej tam jakieś funkcje dostępności są, ale dla nas konkretnie chyba nic nie było, więc tutaj znowu nie mamy czytnika ekranu, nie mamy jakichś dźwięków dodatkowych i nie wiem czy mamy jakąś pomoc w nawigacji, bo to jest kolejna gra taka, gra na perspektywy pierwszej osoby, więc tam się będzie nam bardzo łatwo niestety zgubić.
Tyle pytań tekstowych, teraz czas na pytanie głosowe być może jakieś albo niekoniecznie, bo odbieramy kolejny telefon. Kto się do nas dodzwonił?
Halo, cześć, Łukasz z tej strony.
Cześć Łukaszu, słuchamy.
Ja dzwoniłem do was ostatnio, mówiłem wam z tym allplayerem, który ma tego lektora AI.
Aha, pamiętam.
I ja to sprawdziłem, no i prawda jest taka, że faktycznie wyszło tak, jak…
Szymonek, zrozumiałem.
I faktycznie wyszło tak, jak wy nawet mówiliście, że ta sztuczna inteligencja ma jednak problem
z czasem niektórymi słowami i potrafi zgubić się, potrafi tak troszkę jakby, że tak powiem, na inny język się przestawiać.
Jak oglądałem Mortal Kombat i tam było nazwisko Hasashi, no i tam postać, tam syn jego krzyczał tato, tato i tam ktoś potem Hasashi,
to ta mowa, właśnie ten lektor najpierw powiedział tato, potem powiedział tatu, a potem powiedział hasasi, nie?
Potrafi tak przekręcać strasznie, jeżeli jest jakieś słowo w obcym języku, to albo przed nim, albo po nim potrafi polskie słowa przekręcać, także jeszcze muszą to dopracować.
No tego się niestety obawiałem, ale cóż, może kiedyś będzie lepiej. Tam cały czas Eleven Labs pracuje nad tymi swoimi modelami. My zresztą też dziś będziemy mówili o Eleven Labs i o ich najnowszej ofercie.
No cóż, a na razie to po prostu, no to jest takie ryzyko, że gdzieś tam w pewnym momencie przestanie to dobrze działać.
A jeszcze chciałem powiedzieć, bo ostatnio była audycja o Pokemon Red,
które dostało moda, który daje dostępność osobom niewidomym.
Ja jako osoba widząca, to sobie gram używając zwykłej lupy,
ale ciekawi mnie, czy byłby ktoś, kto by się podjął zrobienia skryptu
albo ktoś, kto pomógłby mi zrobić skrypt, ponieważ Pokémon Crystal
dostało pełne spolszczenie. Po 20 latach Dark Archon z kanału ARN.eu
jakby stwierdził, że zrobi pełne spolszczenie do Pokémon Crystal
i gra otrzymała dwa spolszczenia, z czego jedno jest polonizacją taką,
która nie zawiera polonizacji nazw Pokémonów,
a drugie spolszczenie właśnie nazwy Pokémonów zostały gdzieś tam
spolonizowane przez społeczność
ARN i EU, także
można by kiedyś nad czymś takim pomyśleć, fajnie by było
A powiedz mi czy próbowałeś ten skrypt
sobie do tego spolszczenia załadować po prostu, bo z tego co wiem
to ten skrypt Pokemon Access wspiera pierwsze
trzy generacje Pokemonów, więc nie tylko tą wersję Red, tylko właśnie
Crystal i później też
Ruby, Sapphire i Emerald, więc nie wiem czy po prostu
to nie zadziała
Nie, nie zadziała, to znaczy ja próbowałem, ale tam nawet na githubie jest napisane jakie wersje językowe wspiera i mi się wydaje, że to trzeba wiedzieć co zrobić, żeby to działało z polską wersją.
No to myślę, że tutaj warto byłoby skontaktować się po prostu z autorem, bo to spolszczenie powstało przed tym modem, no i zapytać go, więc bardzo możliwe, że to po prostu będzie coś, co będzie można po prostu zaimplementować, a myślę, że wiele osób by się ucieszyło, gdyby to się udało.
Też tak myślę, zwłaszcza że, no nie oszukujmy się, jeżeli gra jest w pełni po polsku, to jak najbardziej wtedy by była w pełni dostępna, nie?
A jeszcze właśnie chciałem się was zapytać, bo wy na pewno wiecie, jak jest gra Crazy Party, ta dla osób niewidomych.
Ona jest w 100% spolonizowana.
To tłumaczenie nie jest najlepszej jakości, ale gra jest po polsku jak najbardziej.
Tak, tak. Aktualnie wszystko jest po polsku.
Bo zamierzam potestować, pobawić się w tą grą.
Z mojej strony to chyba tyle.
No i cóż, pozdrawiam wszystkich słuchaczy, Was.
Jak coś jeszcze będę miał ciekawego, to na pewno zadzwonię
Zadzwonię i podzielę się jakimiś swoimi wrażeniami czy tam.
Jasne Łukaszu, super.
Dzięki za telefon, w takim razie pozdrawiamy cię serdecznie.
No i cóż, komentarze kolejne są, kolejne wasze wypowiedzi.
Między innymi mamy tu wypowiedź od Dawida.
Witam was pytanie do Pawła, czy będzie mówił o moim telefonie, czyli o Blind Shellu,
bo tam się pojawił czytnik QR w Wigilię i tam jakieś dwie gierki.
Pozdrawiam was, tak do nas napisał Dawid.
To znaczy, to o tym nie wiedziałem, nie ukrywam, że mi to umknęło,
więc dzięki, że o tym piszesz, to jest bardzo fajna wieść,
bo kody QR są teraz wszędzie, od restauracji, przez jakieś bilety różne,
po jakieś nawet reklamy i tak dalej, więc fajnie, że teraz macie też do tego dostęp.
Natomiast do mnie trafiła trochę jeszcze inna nowość, o której też warto wspomnieć,
że Be My Eyes na Blind Line Trailer się zaktualizował i już też ponoć ma Be My AI i to jest myślę też bardzo fajna rzecz, więc Dawidzie testowałeś już Be My AI na Blind Trailer, masz, w Polsce jest dostęp, no i daj znać, jeśli ci się udało już z tej funkcji skorzystać.
No i to na razie tyle, jeżeli chodzi o komentarze.
Ale to dopiero początek, jeżeli chodzi o newsy.
I teraz, Michale, Twój news.
Mastodon się często, ostatnio przynajmniej, u nas jakoś sprawdza,
a RSS-y można, jak się okazuje, trochę z tym mastodonem, że tak powiem, sparować.
Dokładnie. Jest taka usługa, która dostępna jest pod adresem rssparrot.net, natomiast tak naprawdę obsługujemy ją z poziomu Mastodona.
Jak to działa? Mamy takiego użytkownika jak birbmaupa rssmyślnikparrot.net i do niego w wiadomości wysyłamy do niego po prostu adres kanału RSS
z daną, no do danej strony, tak, którą będziemy chcieli w ten sposób śledzić na naszym mastodonie.
Przy czym nie może być to wiadomość bezpośrednia, to musi być któraś z tych innych typów wiadomości.
Nie może być to taka wiadomość prywatna. Musimy w jakiś taki sposób bardziej publiczny zawzmiankować
tego RSS-parlota, przynajmniej na razie, być może za jakiś czas to się zmieni.
No i teraz jak to działa. W odpowiedzi zwrotnej dostajemy informację o pewnym koncie.
Koncie też w domenie rssparrot.net, które po prostu musimy zaśledzić.
No i w tym momencie, kiedy coś pojawi się w danym kanale RSS, który w ten sposób podaliśmy temu rssparrotowi,
no to dostaniemy to bezpośrednio na oś czasu naszego mastodonowego klienta.
Sprawdzałem, testowałem, działa, jest też opcja, za pomocą której możemy wysłać po prostu adres strony internetowej do tego RSS Parrota.
Nie musimy podawać bezpośredniego kanału RSS.
Natomiast z moich takich obserwacji to ten mechanizm nie zawsze chce działać.
On czasem zadziała, czasem nie, bardzo dobrze, tak z moich testów, to działa ten mechanizm w serwisie, w narzędziu, w narzędziu WIS-u RSS,
bo tam on naprawdę potrafi całkiem fajnie wykrywać te adresy RSS na stronach internetowych, nawet jeżeli one czasem są jakoś tak pozaszywane z jakiegoś dziwnego powodu
i inne narzędzia tego nie wykrywają, to Visu RSS sobie całkiem fajnie z tym radzi.
Natomiast RSS Parrot nie jest aż tak dobry, ale jak podamy mu jakiś adres konkretnie do kanału,
który sobie gdzieś tam wyłuskamy, gdzieś odnajdziemy, to on nie będzie miał z tym najmniejszych kłopotów,
stworzy nam takiego użytkownika i po prostu będziemy mogli sobie te kanały śledzić.
Zresztą w ogóle na stronie rssparrot.net mamy całą listę tych wszystkich RSSów,
Więc tu taka jedna ważna uwaga, czasem jest tak, że chcemy sobie śledzić jakieś takie rzeczy prywatne, na przykład z jakichś naszych usług po RSS-ach.
No to oczywiście wiadomo, że jeżeli coś jest publicznie dostępne, to zawsze będzie publicznie dostępne, natomiast jeżeli stosujecie metodę tego tzw. głębokiego ukrycia,
czyli nie ma żadnego mechanizmu uwierzytelnienia,
nie ma żadnego loginu i hasła,
ale jednak nie chcecie, żeby taki kanał RSS był publicznie widoczny,
no to lepiej z tego RSS Parrota nie korzystać,
no bo ktoś dostaje to po prostu w takim indeksie,
może sobie to przeglądać i może takie kanały RSS śledzić.
Natomiast do jakichś newsletterów, do portali informacyjnych,
do tego po prostu wszystkiego, co jest dostępne publicznie,
to ten RSS Parrot się naprawdę nadaje, działa to fajnie.
Z moich takich obserwacji też tam cały czas trwają nad tym jakieś prace,
dlatego, że jeszcze kilka dni temu pojawiały się na przykład w tytułach artykułów,
przynajmniej w niektórych portalach, jakieś śmieci, jakieś znaczki, kody z haszem i jakimiś tam cyferkami,
to się chyba Encje nazywa, jak dobrze pamiętam, takie właśnie różne dziwne rzeczy.
Ostatnio to zostało wyeliminowane i już przynajmniej w tym, co ja sobie tak testowo zaśledziłem, to tego nie ma, więc teraz czyta się to naprawdę fajnie.
A jeżeli chcemy wejść po prostu na dany kanał, no to aktywujemy, na danego newsa może tak, to aktywujemy po prostu to, tak jakbyśmy chcieli otworzyć jakiś link z danego wpisu.
no i przenosimy się wtedy do treści danego artykułu.
Więc ja polecam, bo działa to naprawdę całkiem fajnie.
I mam nadzieję, że nie zniknie zbyt szybko.
Oby. Bo też ostatnio szukałem czegoś takiego w ogóle.
Natomiast jedna rzecz, która jeszcze jest tam niedopracowana moim zdaniem,
to jest to, że musimy zaśledzić taki feed publicznie,
czyli wysyłając publiczny post do naszego bota,
przez co spamujemy troszeczkę tym na osi, to jest jedno, a drugie, że każdy wie, co my sobie aktualnie zaśledziliśmy i to mogliby rzeczywiście udoskonalić, żeby dało się wysyłać te prywatne, takie powiedzmy pseudo-prywatne, ale takie ukryte przynajmniej na osi czasu, posty do bota, żeby ten proces zaśledzenia kanału odbywał się gdzieś tam prywatnie.
No ja zazwyczaj, żeby też jakoś nie spamować, nie śmiecić, to wysyłam to na zasadzie tej opcji not visible, bo to można, nie można wysłać tej bezpośredniej, jest to not visible, to chyba…
Ale i tak wtedy widzą twoi śledzący. Widać tego na lokalnej osi.
Śledzący, a śledzący to wtedy widzą.
Tak, tak, tak.
Czy tam not listed.
Not listed.
To wtedy nie widać tego w osi lokalnej twojej instancji, ani też w osi globalnej tych wszystkich instancji zrzeszonych, ale widać to u twoich śledzących.
Śledzących, no tak, więc mogą dostać trochę spamu różnego rodzaju. No i też tak jak mówię, pamiętajcie o tym, że to wszystko leci na tym indeksie tego RSS Parrota, bo on sobie to wszystko zbiera.
Więc no też tak jak mówię, tu trzeba ostrożnie z tym śledzeniem jakichś takich rzeczy bardziej prywatnych.
Albo na przykład jak ktoś ma kanał RSS dla siebie, jakiś taki personalizowany do czegoś, to to też nie jest dobra opcja.
Ale to w sumie może być fajny mechanizm, który trochę jakoś zmobilizuje ludzi do przejścia, bo jakby jednym z głównych argumentów, czemu nie,
jest to, że wszystkie media są na Twitterze, na Eksie i że jakieś tam gazety, jak ktoś sobie zrobił z Twittera RSS-a,
no to był to rzeczywiście problem, a teraz można sobie to jakoś tam na tym odtworzyć, na Mastodonie.
Chociaż niektórzy już tak natywnie się pojawili na Mastodonie, Onet na przykład z takich większych portali.
Onet jest zawsze tam szybki, kanał na Whatsappie, oni wszystko mają.
No w takim razie przechodzimy do newsa, no właśnie Pawła, do newsa Pawła na temat nowościach we wtyczkach do NVIDIA, bo kilka nowości jest.
Gadza się, są trzy wtyczki, na przykład wtyczka, która usprawnia nam pracę z Google Docs, z dokumentami Google.
Stworzył ją Anthony Malek, czyli ten, który już stworzył NVIDIA BrowserNav, NVIDIA, jakiś tam SentenceNav,
bluetooth, audiofix, trochę wtyczek takich, które znamy, stworzył.
No a tym razem mamy Google Docs and Support ulepszony.
No i co my tu możemy zrobić?
Ten dodatek usprawnia kompatybilność z dokumentami Google.
Dodatek ten działa w trybie przeglądania, umożliwiając nam korzystanie
z komend szybkiej nawigacji
oraz nawigacji kursorem.
Sprawia on, że działają one poprawnie.
Na przykład
normalnie, kiedy przeglądamy jakiś
duży dokument w dokumentach Google,
no to naciskając literę H, my
możemy przechodzić po nagłówkach,
ale tylko w ramach tej części
nagłówków, które są aktualnie
widocznie na ekranie.
Natomiast
po aktywacji dodatku
Możemy nawigować po wszystkich nagłówkach w dokumencie.
Żeby działał ten dodatek, trzeba aktywować tryb brailla i czytników ekranu w ustawieniach dokumentów Google.
No i to chyba tyle.
Wspierane jest to na Chrome’ie i na Firefox’ie.
Aha, no i potrzebny jest…
Chyba angielski układ klawiatury.
Tak, dokładnie.
I ja w związku z tym mam pytanie, czy ty to, Paweł, może testowałeś?
Jeszcze nie miałem okazji.
Czy to w naszym przypadku zda egzamin?
Bo ja się tak trochę zastanawiam, bo te skróty googlowskie w dokumentach Google’a,
One też kolidują z naszymi polskimi diakrytykami niestety.
Ja się tu trochę obawiam, że jeżeli to zostało tak zrobione, to może być pewien problem.
Może być istotnie.
Dzięki, że zwracasz uwagę, bo to trzeba by też autorowi może jakoś zgłosić wtyczki, może on jest w stanie jakoś zrobić.
Chociaż skoro jest skazany na przechwytywanie skrótów Google, to może być mało ciekawie.
Mamy też dodatek Scanvox for NVDA.
Scanvox to taki darmowy, francuski program do skanowania tekstów skanerem, jeżeli włożymy sobie jakiś dokument do skanera i postanowili twórcy tego rozwiązania, czy ktoś zewnętrzny, opracować dodatek, który na tej samej technologii bazuje, czyli nie musimy już instalować tego programu ze sklepu Microsoft Store, a wystarczy, że ściągniemy ten dodatek i mamy tę technologię skanowania w formie tego dodatku.
Ponoć naciskamy NVDA Alt S i jeżeli mamy podłączony skaner, to otwiera się nam interfejs do skanowania dokumentów.
No i trzeci dodatek, Enhanced Control Support, czyli dodatek, który pozwala nam zareagować na kilka sposobów,
jeżeli my napotkamy jakiś taki element, który jest po prostu gdzie NVDA czyta nieznane, nieznane, nieznane.
No i co my możemy wtedy zrobić?
Możemy troszkę jakby przemapować klasy, żeby taka kontrolka była widziana jako coś innego.
Jako lista, jako pole kombi, jako pole edycji, pole wyboru, przycisk, przycisk opcji, słówak, tekst.
Możemy zastosować, żeby spróbować, żeby spróbował technologią MSAA lub UIA, czyli tą starszą lub nowszą technologią,
przez którą czytnik ekranu porozumiewa się z Windowsem.
No albo pozwolić dodatkowi samodzielnie jakoś tam sobie z taką kontrolką poradzić.
Instalujemy dodatek, przechodzimy do miejsca, gdzie NVDA czyta nieznane, no i albo sobie sam poradzi, albo NVDA alt C i wybieramy w jaki sposób chcemy na siłę wymusić jakiś tam konkretny tryb zachowania.
Takie coś, pamiętam, kiedyś w Windowaju było tak po prostu.
Tak, w Windowaju i w Josie zresztą też.
Tak, i wtedy mi się też wydaje, że do tego typu operacji już też powstała wtyczka do NVDA, holenderskiej chyba produkcji, która pozwalała gdzieś tam te role nadpisywać.
No ja to testowałem w jednej aplikacji, w aplikacji, o której chyba chciałem opowiedzieć, ale poczekam aż może się uda z deweloperem coś wynegocjować, żeby dostępność została poprawiona, czyli Streamwriter, aplikacja dość zaawansowana do nagrywania radia.
Tam była lista stacji, która domyślnie da się po niej nawigować klawiaturą, czyli strzałkami przesuwamy się po tej liście, ale NVIDIA nic nie czyta, czyta tylko właśnie, że nie znane.
No a tutaj udało mi się zrobić tak, że ta lista jakoś się tam zrenderowała i przynajmniej troszeczkę ją jakoś tam czytało.
Więc, o chyba mnie coś urywa.
Nie, jest okej.
Próbuję dalej i się nie poddaję.
Okej, mówi mi, że połączenie niestabilne.
No i tą wtyczką można coś poeksperymentować, podziałać i spróbować co on sobie z tym zrobi i czy coś nam udostępni.
I przechodzimy teraz do newsa od Piotrka, tytułem wstępu można by powiedzieć w ten sposób, że klawiatura fizyczna w smartfonach to jest coś czego nie ma i dla wielu, może nie dla wielu, nie wiem, ale dla jakiejś części na pewno osób jest to mniejszy lub większy problem.
Czasem pojawia się jakieś info, że ktoś coś spróbuje z tym zrobić i dzisiaj też.
Dokładnie i to są takie dosyć ciekawe sposoby na to.
Jeden jest do iPhone’ów, a drugi jest do wszystkiego poniekąd, więc no właśnie o co
chodzi? Klawiatury fizyczne w smartfonach to już dawno ich nie było.
Gdzieś chyba ostatnie dziś telefony, które takie klawiatury miały to jeszcze było
Blackberry, które jakiś czas takie telefony z Androida nawet produkowało.
Jeszcze firma Unihertz chyba coś produkuje, natomiast to też nie jest jakiś mocny
telefon, na co jeślibyśmy chcieli to mieć na przykład na Iphonie, bo to będzie pierwsza rzecz, o której powiem.
Kiedyś takie futerały z klawiaturami były, ale to tak nie wiem, pamiętam czasy Iphona 4, 5.
Najpóźniej jak kiedyś czegoś takiego szukałem, no to do Iphona w serii 6 takie futerały były.
One działały na takiej zasadzie, że te klawiatury były rozsuwane, ale też sam futerał miał, no ta klawiatura po prostu działała po Bluetooth.
No i ten futerał miał swoją osobną baterię, którą trzeba było osobno naładować, chyba po micro-USB, więc musieliśmy mieć kilka kabli, żeby to wszystko jakoś naładować, no i pamiętać, żeby ten futerał też sobie naładować.
No w międzyczasie oczywiście też technologia poszła do przodu na tle
programowym, bo nawet osoby niewidome mają wiele sposobów na pisanie, np.
wprowadzanie przez brajla, które wiele osób sobie ceni.
No ale są też osoby, które jakoś się z tym nie lubią z tych czy innych powodów.
Może właśnie potrzebują fizycznych przycisków, ale też są takie osoby widzące.
No i właśnie dla takich osób powstaje nowy produkt.
produkt nazywa się Kliks, zresztą tak samo jak firma, która go produkuje, no właśnie futerał
klawiaturą Kliks od, no właśnie od firmy Kliks, który, to firma została stworzona przez
takiego, dwie takie dość znane osoby, jedną z nich jest osoba, która prowadziła przez
długi czas portal Crackberry, czyli portal dla fanów właśnie telefonów Blackberry,
które właśnie słynęły z takich klawiatur kwerty malutkich na telefonach, a drugą jest
Michael Fischer, znany na YouTubie jako Mr. Mobile, czyli osoba, która nagrywa dużo materiałów właśnie o historii telefonów komórkowych od tych pierwszych do współczesności.
Więc to też coś wie o takich klawiaturach i na chwilę też za nimi tęsknił.
No i panowie razem postanowili stworzyć taki produkt.
Futero jest dostępny zarówno dla iPhone’a 14 oraz 15.
Konkretnie to są dwa osobne fodele dla 14, 14 Pro i Pro Max, no i tak samo 15, no i 15 Pro i 15 Pro Max.
To jest związane z tym, że te telefony zwykłe i ten Max, no wiadomo, różnią się rozmiarem ekranu, ale też różnią się tym, jak duży jest obiektyw aparatu,
No bo to jest futerał, on musi mieć odpowiednie wycięcie na ten obiektyw, więc do tego kilka wersji tego urządzenia powstało.
No i wiadomo, iPhone 14 jeszcze działa na wejściu lightning, a iPhone 15 na USB.
USB-C dokładnie.
No i tutaj jest taka pierwsza ciekawa rzecz, bo jak to urządzenie wygląda?
No to jest, no właśnie to jest futerał, który składa się jakoś z dwóch części, do którego wkładamy telefon.
Ta górna część to jest no generalnie gdzieś plastik, żeby to było otwarte, z zewnątrz ma taką, na stronie jest napisane, że to jest taka szczuczna skóra, więc to taki, gdzieś taki będzie miało wygląd, a na dolnej części znajduje się sama część z klawiaturą.
to podłączamy, to wsuwamy w taki sposób, że w urządzeniu jest odpowiedni wtyk
albo lightning albo usb-c, zależnie od tego czy mamy wersję dla iPhone’a 14 lub 15
no i to urządzenie po prostu bierze sobie moc z naszego iPhone’a
nie ma swojej baterii, co za tym idzie jest dużo lżejsze
nie musimy pamiętać żeby coś znaładować tylko po prostu ona wpina się do portu ładowania naszego iPhone’a
I w ten sposób po prostu działa jak urządzenie USB i system widzi tą klawiaturę.
Ta klawiatura nie jest rozsuwana, tylko delikatnie odstaje nam właśnie od tego miejsca, gdzie mamy właśnie ten port ładowania.
To nie jest duże. Ja tutaj pytałem się osób widzących, żeby mi to jakoś opisały.
To jest długość, nie wiem, może tak jednego palca, więc to nie jest jakieś bardzo duże, to będzie powodowało, że ten telefon nam będzie trochę, trochę odstawał minimalnie, ale nie jakoś bardzo, więc to nie jest taka bardzo duża klawiatura, więc pod ekranem będziemy mieli kilka rzędów takich typowych małych smartfonowych klawiszek,
czy pamiętacie stare Nokia, czy właśnie jakieś stare inne smartfony, które miały klawiatury QWERTY no to to jest coś w tym stylu.
Tutaj chyba ściałek z tego co widziałem nie ma, natomiast mamy też inne modyfikatory.
Jest klawisz w TAB, jest klawisz mikrofonu do dyktowania.
Natomiast będzie też aplikacja, w której będziemy mogli te klawisze jakoś sobie dostosować z modyfikatory i pozmieniać.
więc myślę, że może będzie jakiś sposób, żeby sobie jakiś klawisz do voiceovera wykorzystać,
no ale też cały czas będziemy mieli dostępny ekran, jeśli ktoś by chciał z tego sobie korzystać.
No i przez to, że urządzenie nam zajmuje port ładowania, no to też mamy wyjście.
Ono ma swój port, przez który możemy ładować nasz telefon.
Z tym nie ma problemu.
Natomiast ten port nie jest tak funkcjonalny, jak ten port, który mamy w naszym telefonie.
Niestety w przypadku tej wersji dla iPhone’a 14, no to kiedy to urządzenie mamy założone na telefon, no to przynajmniej możemy oczywiście ten nasz telefon ładować, z tym nie ma problemu.
Możemy go do jakiejkolwiek ładowarki podłączyć i to będzie działało.
Możemy też użyć ładowarek bezprzewodowych, taki ładowarek Qi, ale nie możemy użyć MagSafe, no bo to urządzenie nie ma swoich magnezu, więc to po prostu ładowarki MagSafe się niestety z naszym telefonem
w tej klawiaturze nie podłączą.
W wersji dla iPhone’a 14 do Maca możemy sobie je podłączyć i wtedy w iTunesie
nasz telefon się wyświetli, możemy sobie jakieś dane kopiować.
Natomiast niestety jeśli np.
lubimy korzystać ze słuchawek przewodowych przez przejściówkę np.
albo takich na Lightning, no to niestety to też nam nie zadziała.
Musimy wtedy sobie telefon wyciągnąć z tego, gdzieś przełożyć sobie do takiego
klasycznego futerału, natomiast w przypadku wersji z iPhone’em, dla iPhone’ów 15, no to ten port na urządzeniu właśnie będzie nam mógł służyć tylko do ładowania telefonu, więc też nie możemy ani podłączyć go do komputera, ani podłączyć słuchawek, ani innych akcesoriów.
Trochę szkoda, myślę, że jakiś prosty hub USB pewnie dałoby się tam zaimplementować, może gdzieś w przyszłych wersjach to zostanie zrobione, no myślę, że byłoby fajnie.
Natomiast na tą chwilę to wygląda w ten sposób.
Oczywiście urządzenie nie jest wodoodporne.
No wiadomo, w jakiś sposób będzie nasz telefon chronić od upadków, natomiast przez to, że tam też są klawisze,
no to tutaj producent sugeruje, żeby raczej tego telefonu nie upuszczać, natomiast on będzie nam dawał jakąś ochronę.
Tutaj producent mówi porównywalną z takimi futerałami silikonowymi, więc jakaś ochrona jest.
Natomiast wiadomo to nie jest jakiś taki typowo pancerny futerał.
No i troszeczkę wagi nam też będzie dodawało.
Może niedużo, bo to waży 60 gramów, no ale zawsze nasz telefon będzie troszeczkę
większy, no i co chyba najważniejsze dłuższy.
Urządzenie w wersji dla iPhone’a 14 będzie dostępne od lutego.
Wersję dla iPhone’a 15 pojawi się w marcu.
Ceny zaczynają się od 140 dolarów, co na polskie w tym momencie to jest ile, około 500 złotych z hakiem?
Coś koło tego.
Coś koło tego, coś mi tutaj kalkulator walut nie chce działać, no ale coś koło tego.
Nie wiem czy w to jest też wad liczony czy nie, tutaj na stronie pisze, że wysyłka do Stanów lub do Europy kosztuje 15$, więc tutaj nie jest jakoś tragicznie jeśli chodzi o koszty przesyłki.
No i zobaczymy jak to się będzie sprawdzało zarówno dla osób widzących, jak i niewidomych. Może więcej osób, jakieś osoby zaczną to dostawać i będziemy wtedy wiedzieć coś więcej.
No wydaje mi się, że to rozwiązanie wygląda ciekawie, ja kiedy za jakiś czas zmienię telefon nie wiem czy się nie zdecyduje na zakup tego urządzenia, jeśli tak będzie to na pewno powiem wam jakie mam z tego wrażenia, bo ja jakoś nigdy z Vailem się nie polubiłem, więc no kto wie czy nie zdecyduje się na to urządzenie, zobaczymy czy faktycznie jest dobre.
No jeśli ktoś czegoś takiego szuka, fajnie, że jakiś producent o czymś takim pomyślał.
Zobaczymy jak to się, no właśnie, jak to się w praktyce wszystko sprawdzi.
Ale to nie wszystko, no bo oczywiście tutaj producent tej klawiatury CLIX będzie na targach CES w Las Vegas, ale nie tylko oni, bo wybiera się tam też inny startup, tym razem już z Azji, z Korei Południowej konkretnie.
jest to firma OneCom i oni wymyślili klawiaturę też, a natomiast to już jest typowo taka
zawieraszczona klawiatura na bluetooth, natomiast urządzenie wymyślili sobie nową
technologię, która ma naśladować klawiaturę QWERTY, ale używając tylko sześciu przycisków.
I to ma się właśnie między innymi przydać dla osób niewidomych, ale także ma łatwiej…
Z tego, co z tego, co czytałem, właśnie do końca nie wiem, jak się ma na tym pisać.
Niektórzy tutaj mówią, że to może być coś, coś jak flexi, natomiast np.
też tam było napisane, że np.
żeby wpisać literkę W, to musimy nacisnąć E i R, ale nie wiem, bo niestety to jest
taki przykład urządzenia, gdzie mamy filmy demonstracyjne, które są po prostu
gdzieś filmikami na YouTubie, na których leci sama muzyka, a na stronie nie pisze
Niestety jakoś bardzo dużo, natomiast jak oni to chcą przetestować?
No wypuszczają na rynek dwa produkty.
Jednym z nich jest taka klawiaturka, którą można założyć na kontroler na
Playstation, który nam pomoże dopisać czat na czatach różnych, a drugim jest
właśnie klawiatura, która ma pomóc osobom niewidomym.
To jest też takie właśnie bardzo malutkie urządzenie, no bo tutaj mamy tych sześć
klawiszy do pisania plus kilka klawiszy, które mają nam służyć jako
modyfikatory, czyli ctrl, alt, shift i tak dalej i one, co ciekawe, są zrobione na
na bokach urządzenia, z przodu, trochę tak jak mamy spusty na joystickach, jeśli ktoś
kiedyś trzemał pada do jakiejkolwiek konsoli, no co wydaje mi się całkiem sensowne,
jeśli to jest takie powiedzmy małe urządzenie wielkości, nie wiem, jakiegoś
smartfona na przykład, więc to chyba nie jest jakieś bardzo duże, to może mieć
sens, jeśli ten unikatowy system do pisania faktycznie działa dobrze i można tutaj
to wpisać jak pisać jak na klawiaturze QWERTY.
Co jeszcze wiemy?
No wiemy, że urządzenie ma wbudowany jakiś silniczek
wibracyjny, żeby nas informować o stanie baterii, kiedy
przełączamy się między kilkoma urządzeniami, bo możemy
podłączyć do niego kilka urządzeń i ma tryby nawigacji
dedykowane do obsługi voice overa i talkbacka, więc możemy
sobie z poziomu tej mini klawiaturki, czy jak oni to nazwali
ładnie mobilnego komunikatora dla osób niewidomych, po prostu sobie po naszym smartfonie chodzić.
No tutaj też to urządzenie ma się za jakiś czas pojawić, natomiast na razie niestety żadnych konkretów nie ma.
Producent po prostu zachęca, żeby ich właśnie odwiedzić na targach CES.
Jeśli ktoś akurat w Las Vegas jest, no to możecie zobaczyć sobie jak to wygląda.
Zobaczymy może za jakiś czas to gdzieś się pojawi w sprzedaży.
No i zobaczymy, czy to też będzie ciekawa alternatywa albo właśnie dla tego WTR outleaks, albo dla Orbit Writera na przykład, czyli tej kieszonkowej klawiatury brailowskiej od firmy Orbit Research czy od innych produktów tego typu.
Tymczasem mamy kolejną wiadomość. Głosową wiadomość od Rafała.
Nagrywanie bez przetrzymywania. Wyślij przecisk.
Dobry wieczór. Po drugiej stronie jest Rafał.
Po drugiej stronie Rafał.
Mam takie do was pytanko.
Wiem, że się tam…
się…
Wcześniej się nie dało, a teraz może się da.
A o co mi chodzi?
Na blokacji ekranu…
Jak się telefon…
No, jak zablokuje się ekran telefonu,
to jest ten…
aparat i latarka.
Ja tam niechcąco sobie włączę, nacisnę.
I chciałem się po prostu pozbyć, krótko mówiąc,
tych aparatów, latarek i tak dalej,
żeby po prostu ten blokad,
To ten, to żeby było po prostu tak jak w ubosku standardowym, jak kiedyś, trójgodzina i tak dalej, wydolność powiadomienia i to wszystko. Dziękuję za uwagę. Do usłyszenia.
Wydaje mi się, że nadal nie jest możliwe pozbycie się tych elementów, chyba że wy coś innego wiecie na ten temat.
Nie, raczej chyba nie, niestety.
Dobrze, to w takim razie przechodzimy do następnego newsa od Pauliny.
I teraz troszkę odpocznijmy sobie od technologii, no bo cóż, zmiana rządu to i zmiana na niektórych stanowiskach.
na przykład pełnomocnika, jak to jest, pełnomocnika rządu do spraw osób niepełnosprawnych.
Tak. No i cóż, został nim obecnie Łukasz Krasoń, czyli przedstawiciel partii
Szybana Chwałowni Polska 2050. To jest były mówca motywacyjny.
On ma niepełnosprawność taką ruchową, ale nie przeszkadza mu to w jakimś tam aktywnym życiu dynamicznym itd.
Jest z nim wywiad na stronie niepełnosprawnie.pl, też na tej samej stronie jest news i do tego są linki.
Natomiast gdybyśmy tak sobie chcieli dowiedzieć się mniej więcej za czym on będzie optował,
jakie pomysły będzie miał na to, żeby gdzieś tam kolejne działania planować na to.
On wspomniał też o tym dokumencie pełnoprawni osoby z niepełnoprawnościami i ich opiekunowi,
który został przygotowany przez działaczy partii 2050.
On jest z 2022 roku, ale skoro się do niego odwoływał, to znaczy, że nadal będzie chciał za nim iść i swoją politykę kształtować na jego podstawie.
No i co tu jest? Tu jest 8 takich rozwiązań, które oni uważają, że są cenne do wprowadzenia.
no i tak pokrótce mówiąc o nich, no to tak.
Podniesienie wskaźnika zatrudnienia osób z niepełnosprawnościami,
czyli zlikwidowanie pułapki rentowej
i asystent pracodawcy.
No, czyli cóż, retoryka podobna do tego,
co tam wcześniej było mówione w tych kręgach
i co też według mnie da się łatwo zauważyć,
że przez to, że no mamy wskaźnik pensji, po której to kwocie mamy zawieszoną rentę, no to ludzie nie decydują się na zatrudnienie się na jakichś lepszych stanowiskach albo w ogóle się nie decydują na zatrudnienie.
Zawieszoną lub zmniejszoną, bo to też jest teraz…
lub zmniejszoną. No to właśnie, ludzie nie chcą podejmować zatrudnienia, a może przez zniesienie tego progu będzie większe zatrudnienie.
Nowy system orzecznictwa, czyli tam orzeczenie indywidualnego poziomu wsparcia, a także przyspieszenie procedowania tych zgłoszeń.
Odpowiedź na tę instytucjonalizację, czyli wprowadzenie jakichś opcji wspierania ludzi niepełnosprawnych w miejscu ich zamieszkania, a nie tylko w ośrodkach.
Dostępna bezpieczna i efektywna edukacja, czyli przeszkolenie nauczycieli w szkołach specjalnych i poświatowych, integracyjnych i ogólnodostępnych.
Sprawiedliwe prawo dla opiekunów, czyli głównie chodzi też o tą pułapkę świadczenia pielęgnacyjnego, żeby dać opiekunom możliwość pracowania pomimo otrzymywania tego świadczenia.
I jest jeszcze jakaś propozycja o świadczenie przywracającego, czyli jeżeli osoba niepełnosprawna umrze, którą opiekuje się opiekun otrzymujący świadczenie pielęgnacyjne,
no to żeby po śmierci tej osoby przez jakiś czas otrzymywała ono świadczenie do momentu, w którym znajdzie jakąś pracę.
Opieka interwencyjna dla osób z niepełnosprawnościami w nagłych przypadkach, czyli jeżeli by tam opiekunowi się coś stało, to żeby doraźnie pracownicy jakiegoś ośrodka pobliskiego mogli pomóc.
I wzmocnienie wsparcia przez wprowadzenie asystencji osobistej, w sensie nawet nie wprowadzenie tylko wzmocnienie tego czynnika.
No cóż, zobaczymy jak to będzie wyglądało.
Teraz mamy świadczenie wspierające, które też będzie omawiane dzisiaj.
No a jeżeli coś się pojawi newsowego, no to będziemy dawać znać.
I teraz news od Piotrka.
Wpało OCR, czyli taki, nie wiem jak to powiedzieć, to jest program, skrypt na Maca.
Program, aplikacja po prostu.
Aplikacja, która na podstawie OCR-a pozwala na dość ciekawą interakcję z aplikacjami,
które do tej pory były reguły niedostępne. No i tu się dzieje.
Dzieje się, dzieje się całkiem sporo i to w odstępie tak naprawdę kilku dni można powiedzieć.
No właśnie, VOCR, czyli to jest taka aplikacja, którą wydaje mi się każdy chyba na maku swoim powinien mieć.
No bo ona generalnie robi nam to, co np. funkcja rozpoznawania w OCR, w NVDA np. czy w innych czytnikach ekranu.
Możemy sobie albo całe okno, albo element pod kursorem VoiceOver po prostu rozpoznać OCR-em, po prostu jakiś tekst przeczytać, skierować myszkę w np. jakieś przyciski, które normalnie byłyby nierozstępne i gdzieś kliknąć sobie.
No ta aplikacja od kilku lat w sumie się nie rozwijała, no miała te wszystkie funkcje przez to, że korzystała z silnika OCR wbudowany w system macOS, który jest naprawdę dobry, no to ona była dobra.
Natomiast gdzieś na przykład w MVDA ostatnio pojawiały się jakieś nowości
automatyczne, czytanie i tak dalej, których VOCR nie miał, no ale autor tej
aplikacji, pan Chi Kim, który dosyć często się u nas pojawia, miał trochę
czasów wolnego i postanowił tą aplikację rozbudować.
Jakie funkcje?
Między innymi o coś, co pojawia się praktycznie wszędzie, to narzędzie,
które zresztą pomogą mu w tym szybkim implementowaniu różnych tych funkcji w ostatnich kilku dniach do tej wersji 2.0
oczywiście chodzi tutaj o chata GPT, który w VOCR-ze też się pojawił.
Działa bardzo podobnie jak w innych aplikacjach tego typu, bo po prostu wchodząc sobie do menu ustawień,
które znajdziemy w tej sekcji menu statusu na Macu, lub możemy też użyć
skrótu Command-Ctrl-Shift-S, żeby to menu ustawień otworzyć, tam jedną z pozycji
będzie Enter Open API Key, czyli właśnie miejsca, gdzie wprowadzamy swój
klucz API. Możemy mieć jeden klucz, który wszędzie będziemy wykorzystywać.
Nie jest tak, że musimy kilka tych kluczy to osobno do każdej aplikacji
generować. Możemy sobie wszystko jednym kluczem obsłużyć.
No jeśli ten klucz sobie wpiszemy, no to będziemy mieli do dyspozycji dwa skróty.
Pierwszym z nich jest po prostu zapytanie GBT o to, co jest akurat pod kursorem voiceovera.
No i to po prostu znów tutaj ustawiamy się na przykład na jakimś zdjęciu na przykład.
Naciskamy Command, Control, Shift, A. No i wtedy aplikacja nam zrobi zrzut ekranu.
wyświetlicie pole edycji, w którym po prostu zadajemy nasze pytanie, czy po prostu
opisz mi to zdjęcie, chyba tam jest jak domyślnie wklejone, ale możemy sobie
no poprosić o opis po polsku, albo zapytać o coś bardziej konkretnego.
Wtedy to jest oczywiście wysyłane do API, no i po kilku sekundach VoiceOver
nam odpowiedź odczyta i ona też zostanie nam skopiowana do schowka,
więc możemy ją sobie gdzieś bardziej szczegółowo przejrzeć, albo właśnie
gdzieś wkleić, na przykład jakbyśmy chcieli sobie dodać opis do jakiegoś
zdjęcia np. do mediów społecznościowych.
Możemy też różne zdjęcia otwierać w tej aplikacji.
Ona będzie wyświetlała się jako w menu Otwórz W na plikach z obrazkami.
Będzie też dostępna w sekcji udostępniania w różnych aplikacjach na Macu, które ten
systemowy mechanizm do udostępniania wspierają, więc możemy też sobie pytać się
o po prostu jakieś inne obrazki, które gdzieś mamy na komputerze.
A trzecim sposobem wykorzystywania tego GPT jest funkcja eksploracji okna i ją możemy wywołać skrótem Cmd Ctrl Shift E i to jest ciekawe, natomiast niestety nie działa to tak fajnie chyba jakby autor tego chciał, bo on po prostu próbował zrobić coś takiego, żeby GPT był tak jakby czetnikiem ekranu, on go prosi, tam jest jakiś wewnętrzny prompt, który jest wysyłany zrzut ekranu całego okna i on tam go prosi,
żebym podał współrzędne każdej kontrolki i jaką kontrolką coś konkretnie jest.
I no te współrzędne po pierwsze są bardzo niedokładne, ja o tym tutaj ostrzega,
to też jest inna taka kwestia, że wewnętrznie GPT przetwarza zdjęcia w niższej rozdzielczości niż one faktycznie są.
Nie pamiętam teraz jaka to jest rozdzielczość, więc też to ma wpływ na to, że te współrzędne, które on dostaje są niedokładne,
więc tutaj nas przed tym ostrzega, a druga rzecz jest taka, że on w tym trybie bardzo mówi ogólnie, tak, na przykład zrobiłem tutaj zdjęcie aplikacji do instalowania wtyczek o takiej jednej firmy Plugin Alliance, która normalnie jest kompletnie nierozstępna, tam właśnie mamy kilka przycisków opcji pól wyboru, które nam pozwalają zdecydować, jaki format tych wtyczek chcemy zainstalować, no i jakie te wtyczki, czy te, które mają aktualizacje, czy wszystkie, czy wszystkie wersje,
demo, tam trochę tych opcji jest, no generalnie to obsługuje się bardzo słabo, no z ACR jakoś się da,
no ale nie wiemy czy coś jest zaznaczone, czy nie, więc mówię, no spróbuję to tutaj.
I to w tym GPT wygląda tak, że on elementy widzi, widzi źle, to znaczy na przykład będzie
nam powie, że jest taki element jak lista wyboru typów tyczek zawierające opcje takie jak VST2, VST3
i inne. No i super, no ale jeśli chcemy konkretnie na VAO ST3 kliknąć, no to już tego nie zrobimy,
bo to jest po prostu jeden element. No ale tutaj mamy klasyczny OCR, on cały czas jest dostępny
i myślę, że do eksploracji okna raczej lepiej korzystać z tego. Natomiast do pytania się właśnie
o jakieś pojedyncze elementy, no to się sprawdza bardzo fajnie, no i działa tak samo dobrze jak
no ten skrót, który pokazywałem wcześniej na iPhonie, czy dodatki do MBDA, więc to jak najbardziej
jest przydatny.
Jakie mamy jeszcze inne opcje?
Mamy mamy OCR w czasie rzeczywistym z automatycznym czytaniem.
To jest też coś co MVDA niedawno dostał i to się może nam przydać np.
do czytania napisów w jakimś filmie, gdzie te napisy są po prostu w obrazie
tego filmu albo w jakiejś aplikacji czy na jakiejś stronie.
Jak to działa?
No po prostu znów ustawiamy się na elemencie, które zawiera gdzieś ten odtwarzacz, gdzie te napisy się nam wyświetlają, naciskamy Command-Control-Shift-R, no i VOCR tak jak NVIDIA nam po prostu będzie ponawiał ten OCR co sekundę około i jeśli coś się na ekranie zmieni w tym miejscu, które zaznaczyliśmy, no to automatycznie nam to zostanie przeczytane.
To działa bardzo fajnie, jeśli na przykład robimy to, nie wiem, na YouTubie czy na jakiejś innej stronie warto sobie ten odtwarzać, włączyć na pełny ekran, żeby ten tekst był bardziej czytelny, ale no testowałem to na kilku filmach, zwłaszcza właśnie na tych, gdzie te napisy po prostu były dostępne w obrazie w samym filmie, no i ta funkcja sprawdzała się bardzo fajnie, pewnie też się przyda w sytuacjach, kiedy no znów korzystamy z jakiejś niedostępnej aplikacji, czekamy, żeby jakaś operacja się zakończyła lub gramy w jakieś gry.
gdzie jest OCR nam potrzebny, no to tutaj też możemy sobie to automatyczne
czytanie włączyć i aplikacja nam po prostu powie, kiedy coś się zmieni.
Mamy też nową funkcję, wykrywanie obiektów.
To jest coś, co system aploski do OCR-u nie pozwala tylko na wykrywanie samego tekstu.
On jest też w stanie wykrywać jakieś inne obiekty.
Niestety on nie jest w stanie rozróżniać tych obiektów.
To znaczy API do tego gdzieś powstało, ale niestety deweloperzy nie mają do niego dostępu.
Natomiast VLCR jest teraz w stanie wykryć jakieś inne rzeczy, które są jakimiś, nie wiem, obiektami, jakieś prostokąty, kwadraty, czyli coś co prawdopodobnie jest ikoną.
No nie powiem nam co to jest, ale to się w niektórych sytuacjach mimo wszystko może przydać.
to działa podobnie jak jeśli ktoś pamięta czasy
w pierwszych wersjach Jawsa czy Window Ice’a,
kiedy mogliśmy sobie włączyć, żeby on nam czytał wszystkie
grafiki, nawet te, które nie zostały zetykietowalne.
No i kiedy chodziliśmy sobie myszką, no to on nam po prostu
mówił, oprócz samego tekstu, grafika 213 czy coś w tym
stylu. No to tutaj to działa bardzo podobnie, po prostu
jeśli VOCR zobaczy jakiś taki właśnie coś, jakąś ikonkę,
powiedzmy coś, co prawdopodobnie jest jakąś ikonką, no to
nam po prostu oznajmi to jako obiekt i to wbrew pozorom no to można my wyłączyć
to zamiast nie jest wyłączone bo to powoduje że aplikacja gada dość dużo
ale są sytuacje kiedy to się może przydać no bo znów jeśli powiedzmy mamy jakiś
niedostępny program gdzie mamy listę jakichś elementów powiedzmy i w dokumentacji
na przykład pisze że nie wiem obok każdego elementu na tej liście po prawej
stronie powiedzmy jest jakaś ikona nie wiem kosza na śmieci żeby dany element
z tej listy usunąć, no to wiedząc to, jeśli sobie to wykrywanie obiektów włączymy i zobaczymy, nie wiem,
element pierwszy i potem nam powie obiekt, jakiś obiekt jest po prawej stronie, no to wiemy, że to jest
prawdopodobnie ten koszt, więc jeśli chcemy coś usunąć, no to dzięki tej funkcji i wiedzy mniej więcej
jak ten interfejs wygląda, no to możemy wtedy sobie myszkę przenieść w prawo do tego obiektu, kliknąć
no i prawdopodobnie zrobisz to co chcemy, szkoda że na Windowsie nic tego nie potrafi,
bo to czasami wydaje mi się mogłoby być całkiem przydatne właśnie do jakichś
graficznych przycisków, no ale VLCR właśnie czegoś takiego się doczekał,
no i myślę, że to może się czasami przydać.
Co mamy jeszcze? Mamy tutaj te funkcje eksploracji, o których już mówiliśmy,
Mamy menu ustawień, które możemy sobie wywołać po prostu skrótem Command-Ctrl-Shift-S.
Niektóre ustawienia, które kiedyś miały osobne skróty, na przykład był osobny skrót do włączania i wyłączania dźwięków.
To jest teraz po prostu wszystko w tym menu ustawień, które po prostu ma teraz więcej opcji.
No i można je wywołać z każdego miejsca.
Możemy otwierać właśnie pliki obrazów z Findera w VLCRze.
Mamy opcję zapisz wynik OCR, czyli tą zawartość tekstową, też teraz to jest dostępne w menu.
A, mamy jeszcze funkcję automatycznego skanowania i to jest też całkiem fajne, bo to po prostu powoduje, że kiedy wykonamy OCR na oknie i klikniemy gdzieś mieszką, no to aplikacja nam automatycznie to okno jeszcze razem skanuje.
Więc znów tutaj instalujemy jakiś program, klikniemy w przycisk dalej, no to wcześniej musielibyśmy znów sobie ten OCR wykonać.
Teraz nie musimy, bo jeśli mamy tą funkcję autoscan włączoną, no to jak aplikacja wykryje, że kliknęliśmy gdzieś myszką, no to ten OCR automatycznie wykona się nam jeszcze raz.
No i po prostu będziemy mogli sobie jeszcze raz to przeczytać.
No i też mamy opcję w menu, żeby zapisać ostatni zrzut ekranu.
A to się też może przydać w sumie nie tylko do OCR-a, ale na przykład jeśli chcemy w łatwy sposób zrobić zrzut ekranu na przykład tylko jednego obszaru ekranu, tam gdzie jest voiceover na przykład,
no to tym skrótem czy tą opcją w menu tak naprawdę w bardzo łatwy sposób możemy sobie to zrobić.
Jeśli ktoś tej aplikacji jeszcze nie ma, no to mówię warto ściągnąć, a jeśli macie, no to warto ją sobie zaktualizować.
znajdziecie w komentarzu link do GitHub’a projektu
no i tam najnowszą wersję.
W tym momencie to jest Alpha 8 czy 7?
Alpha 8, ale bardzo możliwe, że pewnie jakieś jeszcze akuralizacje się pojawią,
bo ostatnio ta aplikacja bardzo dynamicznie się znów zaczęła rozwijać.
To ja teraz zaglądam do waszych wypowiedzi, do waszych komentarzy.
Tu mamy na przykład taki komentarz od Borysa.
Witam. Jak z natywną dostępnością Hearthstone? Czy Blizzard nad tym pracuje? Czy ma to w nosie?
Ciężko nam powiedzieć, tak coś czuję, natomiast cały czas to raczej ten mod społecznościowy Hearthstone Access działa,
więc chyba Blizzard jednak nic tu nie robi, a przynajmniej żadnych oficjalnych informacji na ten temat nie ma.
Zresztą o Hearthstone’ie to jeszcze dziś będzie.
Tymczasem mamy informację od Mata.
A właściwie nie, to jest pytanie od Mata.
Czy aby wpisywać szybciej diakrytyki,
funkcja Rysuj ścieżkę, aby pisać,
musi być włączona?
Da się to jakoś obejść?
Jeśli wyłączę funkcję,
to nie mam regulacji wpisywania diakrytyków
i czekam na nie długo.
A to ciekawe, dobre pytanie, bo można to wyłączyć w dwóch miejscach, można to wyłączyć w ustawieniach voiceovera, ale też można to rysowanie ścieżki wyłączyć w ustawieniach klawiatury iPhone’a, po prostu w ustawieniach ogólnej klawiatura chyba.
Ciekawe, jeśli to się wyłączy tam, czy to wtedy będzie cały czas działać. Nie jestem pewny, ale myślę, że warto tam sprawdzić.
I jeszcze tu mamy pytanie od kogoś, kto podpisał się jako Tyflos.
Witajcie, czy warto nagrywać podcasty iPhone’em i czy polecacie jakąś aplikację do tego?
No narzędzi do nagrywania jest trochę różnych, od prostych do bardziej złożonych.
Ja bym powiedział tak, to może jeszcze Tomek coś doda albo ktoś z was,
że do nagrywania iPhone spokojnie jest dość dobrym, jakość mikrofonu nie jest zła, więc naprawdę jak nie mamy jakiegoś studyjnego sprzętu to spokojnie tym smartfonem można.
To czego ja bym nie robił na smartfonie, do czego ja się jakoś nie mogę przekonać absolutnie, to jest jakaś większa obróbka.
Moim zdaniem te narzędzia dostępne tam nie są do tego wygodne, ja sobie lubię usiąść jednak przy komputerze i po prostu poobrabiać, poprzecinać.
Nawet coś jest chyba dostępnego na iPhona przynajmniej, tylko jest to strasznie długo trwało, znaczy strasznie długo się to wszystko robi.
Wielośladowy to jest Hokusai chociażby.
Wydaje mi się, że Ferajt jest wielośladowy, a Hokusai jest jednośladowy.
To jest coś w ogóle dziwnego, bo Hokusai jakiś tam wieloślad ma, ale to jest dużo prostszy edytor, tak mi się wydaje.
Który, co ciekawe, on nie jest rozwijany już praktycznie, ale ma parę patentów, typu na pokrętle jakieś tam gesty do markerów do początku i końca zaznaczenia,
które Ferajt spokojnie mógłby mieć, a chyba nie ma, chyba, że ja o czymś nie wiem.
Tylko wiecie, bo jakby wszystko fajnie, że są na pokrętle jakieś gesty, tylko wiecie, jak ja to robię na Reaperze, GodWave, Audacity, wszystko jedno, no to mam skrót, początek zaznaczenia, koniec zaznaczenia.
A tutaj muszę na pokrętle przejść na początek zaznaczenia, potem ustawić koniec zaznaczenia, potem gdzieś znaleźć, usuń, bo chcę usunąć kawałek, jakiś, który gdzieś tam sobie zaznaczyłem.
Jest jeszcze kwestia precyzyjności tego zaznaczania.
Tak, tak. I wiesz co ciekawe, te aplikacje Ferrite na pewno ma cały wachlarz skrótów, no ale jeśli już tutaj bawimy się w podłączanie klawiatury na bluetooth, no to równie dobrze już można na komputerze pracować.
No ale jak ktoś bardzo lubi na iPadzie, no to…
To się zgadza.
No i chyba tyle. To znaczy tak, jedno co bym jeszcze polecał, jeżeli chodzi o nagrywanie na iPhona, to jeżeli nagrywamy jakiś podcast, w którym nie zależy nam koniecznie na tym, żeby było stereo, to ja bym to przedstawił nagrywanie na mono i bym nagrywał w miarę, no w miarę oczywiście blisko tego mikrofonu,
do rozmów, to jest mikrofon dość dobry z reguły.
Ale też nie za blisko, bo tu dość łatwo o popy.
Też nie za blisko, tak.
Ten efekt taki zbliżeniowy dość charakterystyczny.
To znaczy ja w ogóle, tak, ja w ogóle często robię w ten sposób,
że ustawiam iPhone’a tak jakby z boku twarzy,
w taki sposób, że on jest skierowany na twarz,
ale on jest jakby rzeczywiście z boku
i wtedy strumień powietrza przechodzi przed iPhone’em,
Ale iPhone całkiem nieźle nagrywa i wtedy rzeczywiście jest szansa, że dużej części tych popów uda się uniknąć, nawet jeżeli nie wszystkich, no to właśnie naprawdę dużej ich części.
A iPhone jest o tyle fajny, że nagrywa dość głośno, ma te wszystkie rzeczy związane z jakąś automatyczną regulacją głośności,
i nie ma jakichś problemów, że ma za dużo basu, za dużo góry, on dość, dość przyjemnie nagrywa.
Widziałem, znaczy widziałem, no jest już co najmniej kilka podcastów na Tyfro Podcastzie nagranych iPhone’em
i nie jest, jest to takie najgorsze, no oczywiście, że mikrofon studyjny będzie lepszy, no ale to już jest wydatek i jakby nie każdy na to stać.
A jeżeli mamy możliwość i tak naprawdę wybór nagrywania mikrofonem z laptopa, a iPhonem powiedzmy, to zazwyczaj ten iPhone jednak okaże się lepszym wyborem, zwłaszcza jeżeli laptop ma lat kilka i tam nie ma na przykład chłodzenia pasywnego, więc lubi jakiś wiatraczek zacząć szumieć, albo dysk może jeszcze jakiś tam ktoś ma starszy, no to są różne rzeczy.
To jakby, to jest jedno, natomiast osobną kwestią i często nawet gorszą jest jakość samego tego mikrofonu, jakieś ulepszenia w cudzysłowie, dużym cudzysłowie, które często sobie nazywamy wyłącznie ugorszeniami, bo to po prostu inaczej tego się nazwać nie da.
No i generalnie mikrofony w laptopach to trzeba naprawdę wiedzieć, że jest okej, bo są laptopy, do których te mikrofony nie są złe, ale ich jest zdecydowanie mniej niż więcej, tak, bardzo zdecydowanie, to prawda, że tak to wygląda.
No dobrze, to przechodzę chyba do swojego newsa, podejrzewam, że będzie dość duży, dlatego że na temat świadczenia tego wspierającego, czyli przypomnijmy, to jest świadczenie, które, no takie dodatkowe świadczenie dla osób tych najbardziej niepełnosprawnych, można powiedzieć, które jest oparte na skali punktowej i to świadczenie będzie wypłacane od tego roku osobom, które tych punktów mają najwięcej.
W przyszłym roku troszkę mniej i jeszcze w 2026 roku tam od chyba 70 punktów będzie to świadczenie wypłacane i im więcej punktów, tym to świadczenie będzie wyższe.
dla tych osób najbardziej poszkodowanych, czy najbardziej niepełnosprawnych to będą. Zdaje się, że dwie renty dla tych osób, które mają punktów 70, to 70 padło chyba, nie pamiętam, to będzie chyba 40% renty, więc tak to mniej więcej wygląda.
No i teraz, co będzie oceniane i w jaki sposób, i jak to wszystko wygląda i już jest do pobrania formularz od jakiegoś czasu, formularz dla komisji, co ciekawe, bo to nie będzie wyglądało tak, że każdy z nas będzie to wszystko wypełniał,
To znaczy, być może komisja zrobi jakiś formularz i chyba są nawet często do wypełnienia online jakieś formularze, natomiast ten najważniejszy formularz, ten który będzie decydował o tym, ile tych punktów dostaniemy, wypełnia komisja.
I teraz tak, tych pytań jest zdaje się 32, każde chyba, każde ma maksymalnie 4 punkty, więc myślałem, że tych punktów jest 100, ale matematyka mówi, że ich jest teoretycznie 128,
Natomiast, no nie wiem, czy tu nie ma powiedzmy jakichś błędów i ich nie będzie de facto 100, nie wiem, bo ten PDF jest tak, no nie jestem do końca pewien, czy tam wszystko jest tak jak, czy wszystko jest dostępne tak jak być powinno.
Żeby nie było za prosto, są dwa takie współczynniki, które określają ile punktów dostaniemy za konkretną kwestię.
I teraz wygląda to tak, maksymalnie właśnie tych punktów jest prawdopodobnie cztery i teraz są dwa te współczynniki.
Pierwszy to jest, powiedzmy, rodzaj wsparcia, to jest chyba nawet tak nazwane, jest wsparcie towarzyszące, tu jest współczynnik 0,8, potem wsparcie częściowe, to jest współczynnik 0,9, wsparcie pełne, gdzie 0,99 i teraz uwaga, uwaga, wsparcie szczególne, współczynnik 1.
Nie mam pojęcia, czym się różni wsparcie pełne od wsparcia szczególnego bardziej niż pełne, nie wiem, ewentualnie wsparcie towarzyszące i wsparcie częściowe, no to są jakieś takie rzeczy, które nie wyglądają mi na jakoś fajnie zdefiniowane, no ale okej.
I teraz jest jeszcze drugi współczynnik, który ukreśla częstotliwość tego wsparcia.
Czyli mamy tak, czasami tu jest 0,5, często 0,75, bardzo często 0,95, no i zawsze 1.
Czyli jak ja to rozumiem, to wydaje mi się, że oba te wspólniki są brane pod uwagę.
Czyli jeżeli potrzebujemy towarzyszącego wsparcia czasami, to mamy cztery punkty razy 0,5, czyli dwa punkty i razy 0,8, czyli, ojej, jeden przecinek coś tam.
Tam chyba trochę ponad półtora punkta wtedy wychodzi, czy jeden osiem, jeden sześć chyba punkta.
Tak mi się wydaje, że tak to powinniśmy rozumieć, ale nie jestem tego taki pewien do końca, ale tak mi się wydaje.
I teraz jakie są tutaj kwestie? Myślę, że można by sobie przez te wszystkie pytania przejść, bo wiem, że na temat tego świadczenia jest sporo dyskusji
I myślę, że fajnie by było wiedzieć w razie czego, w ogóle co będzie brane pod uwagę w tym wszystkim, bo tych kwestii jest dość dużo, właśnie 32, choć moim zdaniem niektóre się w jakiejś części pokrywają, albo przynajmniej jedna wynika w pewnym sensie z drugiej, ale okej, czytamy.
I to jest zawsze tak, że najpierw jest kwestia taka w trzech słowach, a potem jest wyjaśnienie do niej, czyli jeden, zmiany pozycji ciała.
Ocenie podlega zdolność osoby do dokonywania dowolnej zmiany pozycji ciała w przestrzeni, w tym zdolności do przyjmowania i powrotu do pozycji stojącej, siedzącej lub leżącej oraz przyjmowania i powrotu do spoczynkowej pozycji ciała.
No i jakby, no wydaje mi się, że to dość oczywiste, ale jakby chodzi mi o to, żeby pokazać jakby, jak to, jak to wygląda.
Teraz tak, druga kwestia, poruszanie się w znanym środowisku. No, czyli ocenie podlega zdolność do chodzenia i poruszania się w obrębie mieszkania lub domu z uwzględnieniem wchodzenia i schodzenia ze schodów,
docierania do wszystkich pomieszczeń w zamieszkiwanym, nie wiem czym, no właśnie, mieszkaniu lub domu oraz poruszania się w bezpośrednim otoczeniu mieszkania lub domu.
Tu są jeszcze pomiędzy jakaś psychiczna, intelektualna, fizyczna, cztery jakieś numerki, dzienniki, ustaw, jakieś różne takie rzeczy i to czasami jest w środku tego tekstu,
Więc ten PDF nie jest najszczęśliwiej zrobiony, więc ja się czasami mogę tak trochę zacinać, bo muszę omijać te wszystkie rzeczy, ja je próbowałem usunąć, no ale nie wszystko udało mi się usunąć.
Trzecia kwestia. Zaczynamy tutaj kwestie takie bardzo dyskusyjne. Poruszanie się w nieznanym środowisku.
ocenie podlega zdolność osoby do poruszania się w mieszkaniu lub domu innej osoby,
budynkach, użyteczności publicznej i znaną zewnątrz tych budynków oraz zdolność
do pokonywania barier architektonicznych i omijania przeszkód zookalizowanych w nieznanym jej środowisku.
I tu moim zdaniem, no, trudno powiedzieć, jak to wszystko interpretować, no bo to bardzo zależy
na przykład z samego tego środowiska, tak? No jakie tam będą te architektury, tak? No są takie architektury, które nam są jakby w jakimś sensie niepotrzebne, typu podjazd dla wózków,
ale mogą być architektury pod tytułem, znaczy bariery architektoniczne pod tytułem, nie wiem, bramki plus jakiś dotykowy terminal, na którym trzeba coś wybrać,
żeby stało się coś typu, nie wiem, wirtualna kolejka, czy coś tego typu i tu sobie nie damy rady, więc jak to jest.
Co tu zaznaczy komisja? Nie mam pojęcia.
Mnie zastanawia w jaki sposób będzie to badać w ogóle, czy nas gdzieś tam, nie wiem, wywiozą w jakieś miejsce nieznane? Ciekawe.
Wątpię. Z tego, co wiem, to ma to wyglądać najczęściej tak, że albo przechodzimy sobie do miejsca, w którym ta komisja sobie urzęduje, albo ta komisja może też przyjechać do nas.
I jest wywiad przeprowadzany. I na podstawie tego wywiadu ta komisja będzie to wszystko oceniać. Więc pytanie, o co nas zapytają, co oni sobie sami wymyślą i co wpiszą? Tego nie wiem.
Ale no mówię, no, warto myślę w jednej stronie…
Bo tak naprawdę, no wiesz, te pytania to brzmią tak trochę jak jakiś test sprawnościowy, który można by było komuś zrobić.
Tak, to się zgadza. I takich rzeczy będzie dużo. No właśnie, ale tak jak mówię, myślę, że warto, żeby ludzie wiedzieli w ogóle o co w tym wszystkim chodzi, jakby co będzie w ogóle teoretycznie badane, tak, żeby na szybko coś zaznaczyć w tym wywiadzie.
No bo pytanie właśnie, co te komisje będą sobie tam sprawdzało, no bo też, no nie oszukujmy się, tam pracują urzędnicy, a urzędnik niekoniecznie zawsze będzie musiał wszystko sprawdzić,
bo on ma czas pracy, on ma jeszcze ile rzeczy do zrobienia i tak dalej, i tak dalej, więc może być różnie, no a to jest jakby kwestia, która może nas dotyczyć dość mocno, powiedziałbym.
Ok, czwarta kwestia. Sięganie, chwytanie i manipulowanie przedmiotami urządzkowymi.
No tu jest ocena, ocenie podlega zdolność osoby do używania ręki, w tym do chwytania, manipulowania, wypożyczania przedmiotów, no i tak dalej.
no to chyba nie widzę nic takiego. A zdolność, no właśnie, zdolności do omijania przeszkód podczas wykonywania tych czynności.
No właśnie, kolejna kwestia, która mogłaby być ewentualnie dyskusyjna.
Przemieszczanie się środkami transportu. Ocenie podlega zdolność osoby do przemieszczania się różnymi środkami transportu jako pasażer
podczas przejazdu samochodu oraz korzystania ze środków transportu publicznego, takich jak, teraz moment, muszę tu przewinąć te wszystkie cyferki,
w szczególności taksówka, autobus, pociąg, samolot, w tym również podczas dużego natężenia ruchu.
Tak, klasyfikacja docierających bodźców.
Ocenie podlega zdolność osoby do rozumienia znaczenia bodźców, komunikatów oraz informacji docierających do tej osoby różnymi kanałami komunikacji.
Na przykład przez przekaz mówiony, pisany lub gesty, zdolności do identyfikacji źródła docierającego bodźca oraz oceny bodźca pod względem jego bezpieczeństwa dla osoby.
No właśnie, to wszystko wrzucone do jednego worka, idźmy kawałek, co tu komisja zaznaczy w naszym wypadku.
Osoby… Ocenie podlega, teraz jest kolejna kwestia, zdolność osoby do logicznego przekazywania informacji innym osobom, zwięzłego i zrozumiałego przekazania innym osobom posiadanych informacji za pomocą dowolnego kanału komunikacji, w szczególności przez mowę, gesty lub pismo,
w tym również informacji dotyczących własnych potrzeb, zalegliwości lub samopoczucia.
No, znowu, ciekawe co tu wpiszą, bo, bo tu naprawdę dwie różne komisje mogą wpisać dwie różne rzeczy tej samej osobie.
Prowadzenie rozmowy.
Ocenie podlega zdolność osoby do inicjowania i kontynuowania, zakończenia rozmowy lub wymiany informacji z jedną osobą lub więcej niż jedną osobą, w tym zdolności do wprowadzania nowych tematów i poglądów,
nawiązywania do tematów poruszonych przez innych za pomocą powszechnej, obowiązującego społeczeństwie sposobu komunikacji.
To będzie jedna z łatwiejszych rzeczy do weryfikacji w obecności komisji.
To się zgadza, to się zgadza, choć ja się wcale nie zdziwię, jak ktoś komuś mimo wszystko coś pisze, ale okej.
Ocenia niepodległość osoby do opanowania momencie, bo jak zwykle jest opanowanie nowej umiejętności praktycznej,
podjęcia i przeprowadzania do końca nieposiadanej wcześniej nowej umiejętności praktycznej związanej z codziennym funkcjonowaniem i opanowaniem nowego zachowania.
No, koncentrowanie się na czynności, a po prostu koncentrowanie się na czynności. Ocenie podlega zdolność osoby do celowego skupienia uwagi na wykonywaniu określonej czynności,
czyli skierowania uwagi na określony bodziec i utrzymowania jej w czasie, w tym również zdolność do przerzutności i poziomności uwagi.
No okej, czyli jak rozumiem tu raczej, prawdopodobnie nie o sam brak wzroku będzie chodzić.
Korzystanie z urządzeń i technologii informacyjno-komunikacyjnych.
Ocenie podlega zdolność osoby do korzystania z technologii, wykorzystywania, do rozwiązywania problemów,
ułatwienia codziennego, tu znowu mamy właśnie różne rzeczy, funkcjonowania, usprawnienia pracy albo edukacji oraz zwiększenia wydajności i jakości usług, w tym w szczególności umiejętności korzystania z radia, telewizora, komputera, internetu, telefonu komórkowego.
Kolejna rzecz, z której można wpisać różne rzeczy w zależności od tego, co sobie komisja wymyśli moim zdaniem.
Mycie i osuszanie całego ciała, no to w sumie tutaj, nie wiem czy, chociaż dobrze, jak w sumie czytam, to czytam. Z użyciem wody i odpowiednich środków czyszczących, w szczególności mydła lub mydła do kąpieli oraz osuszenia całego ciała z użyciem ręcznika w domu i poza domem.
I teraz to samo, mycie i osuszanie rąk i twarzy, więc w sumie to jest dokładnie to samo. I to w ogóle dla mnie ciekawe, nie wiem, może to ma jakiś sens, ale dlaczego tutaj są jakby dwa punkty za mycie całego ciała i osobne punkty za mycie rąk i twarzy?
Przypuszczam, że może w jakichś przypadkach niepełnosprawności nie ma problemu z umyciem rąk i twarzy, ale na przykład z sięgnięciem gdzieś tam, powiedzmy, żeby umyć się całościowo może być większy problem, jeżeli to jest jakaś niepełnosprawność ruchowa.
Być może. Ale tu jest jeszcze trzeci punkt. Pielęgnowanie poszczególnych części ciała.
Ocenie podlega zdolność osoby do pielęgnowania części ciała, w szczególności skóry, ciała i głowy, zębów, paznokci, stóp, genitaliów i które wymagają więcej odpowiednich zabiegów pielęgnowacyjnych, innych niż mycie i suszenie.
No dobrze, okej. Troska o własne zdrowie. Ocenie podlega zdolność osoby do uświadamiania sobie własnych potrzeb fizycznych, podejmowania czynności fizycznych związanych z zapewnieniem sobie odpowiednich warunków bytowych, unikania czynników szkodliwych oraz zdrowiego odżywiania się i zachowania właściwego poziomu aktywności fizycznej.
Korzystania z toalety, no to jakby tutaj wiadomo, ubieranie się, tu przeczytam, bo jest jedna rzecz, która może być ciekawa dla nas, z naszego punktu widzenia.
Ocenia podległość zdolności osoby do podejmowania czynności związanej z zakładaniem i zdejmowaniem ubrania i obuwia, w tym umiejętności do stosowania ubioru do aktualnie panujących warunków pogodowych,
ok. Właściwy dobór ubrania, zapinanie guzików i wiązanie butów, no i ciekawe co tu komisja jakby wymyśli.
Jedzenie i picie, no ocenie podlega zdolność osoby do podejmowania i wykonywania w domu i poza domem czynności związanych ze spożywaniem podanego pokarmu lub napoju,
w tym inicjowanie jedzenia i picia, zdolności do rozpoznawania i sięgania po serwowane jedzenie, rozdrobnianie go, otwieranie butelek i puszek, używania przyborów do jedzenia.
No tak, zaleca… Aha, potem jest kolejna kwestia.
Stosowanie zalecanych środków terapeutycznych.
ocenie podlega zdolności do usowiadamiania sobie własnych potrzeb zdrowotnych, podejmowania czynności związanych z korzystaniem z usług specjalistów i przestrzeganie wydawanych zaleceń, przyjmowanie produktów lecznicy, zachowanie właściwej metody podawania i dawkowania oraz stosowania metod terapeutycznych.
O tym warto w sumie wiedzieć, dlatego że przecież są takie rzeczy, z którymi możemy mieć problem. Jeżeli to są jakieś krople, które trzeba podawać, no rzeczy się pokropli, ja sobie naprawdę wyobrażam, że to może być duży problem czasami, bo nie każde krople to tak fajnie działają, jeżeli to nie zakrapiamy sobie czegoś u siebie,
W sensie, że jestem w stanie poczuć, tylko na przykład muszę, nie wiem, wlać do jakiegoś, nie wiem, naczynia kilka kropel czegoś tam.
To może być też jakiś problem, więc to też jakby można gdzieś w razie czego na to zwrócić uwagę.
Realizowanie wyborów i decyzji. Ocenie podlega zdolność osoby do realizowania własnych wyborów i decyzji,
w tym zdolność do przeanalizowania problemu, identyfikacji, tu jest oczywiście dużo cyferek, dostępnych opcji działania, wyboru najlepszej z tych opcji oraz zdolność do oceniania skutków dokonanego wyboru i wywiązania się z zaciągniętymi zobowiązaniami.
Pozostawianie w domu samemu. Ocenie podlega zdolność osoby do pozostawania w domu samemu przez okres co najmniej jednej doby.
No ciekawe, co tutaj te komisje będą wpisywać. Tu możesz się wziąć ciekawie.
Nawiązywanie kontaktów. Ocenie podlega zdolność osoby do inicjowania kontaktów z innymi osobami, w tym fizyczna, a nie, przepraszam, w tym fizyczna to jest ta ocena jakby, po prostu ta tabelka jest zrobiona naprawdę źle.
W tym nawiązywania kontaktów z osobami wcześniej nieznanymi w sposób fizyczny lub za pośrednictwem kanałów teleinformatycznych.
Też w sumie ciekaw jestem co tu będą wpisywać w tę komisję.
Kontrolowanie własnych zachowań i emocji.
Ocenie podlega zdolność osoby do kontrolowania własnych emocji i odruchów zarówno werbalnych jak i fizycznych we wzajemnych kontaktach z osobami znanymi lub nieznanymi w sposób odpowiedni do danej sytuacji i akceptowana społecznie.
Potem, utrzymywanie kontaktów z bliskimi. Ocenię podlega zdolność osoby do utrzymywania kontaktów z osobami bliskimi, takimi jak np. rodzina, przyjaciele lub bliski znajomi, w szczególności występowanie u osoby zainteresowania i potrzeby utrzymywania relacji z bliskimi, komunikowania się i wydywania z tymi osobami oraz występowania obiektywnych przeszkód w utrzymaniu kontaktów.
Znowu rzecz, z którą ciekaw jestem, jak będą te komisje wpisywać.
Potem, tworzenie bliskich relacji z innymi osobami.
Ocenia podlega zdolność osoby do inicjowania, tworzenia i utrzymywania bliskich relacji uczuciowych z drugą osobą,
w tym zdolność do zawierania związków, założenia rodziny, wspólnego zamieszkania i planowania wspólnej przyszłości.
Też ciekaw jestem, co będą tutaj wpisywać.
Kupowanie artykułów codziennej potrzeby.
Ocenie podlega zdolność osoby do wybierania, nabywania i przewożenia artykułów potrzebnych w codziennym funkcjonowaniu,
takich jak żywność, napoje, odzież, środki czyszczące i artykuły gospodarstwa domowego oraz zdolność do składania zakupionych artykułów w odpowiednich miejscach.
Przygotowanie posiłków.
Ocenie podlega zdolność osoby do przygotowania i podawania do spożycia posiłków prostych, czyli posiłków o małej liczbie składników, łatwiej w przygotowaniu i łatwych do serwowania oraz posiłków złożonych, czyli posiłków o dużej liczbie składników, wymagających skomplikowanych metod przygotowania i serwowania.
Też bardzo jestem ciekaw, co by tutaj te wszystkie komisje wpisywały.
Dbanie o dom i ubrania.
Odznanie podlega zdolności osoby do czyszczenia powierzchni i sprzętu kuchennego, sprzątania zajmowanego mieszkania przy użyciu sprzętu gospodarstwa domowego,
właściwowego segregowania i pozbywania się śmieci oraz zdolność o dbanie o ubrania i obuwie, w tym właściwego przechowywania garderoby, prania i suszenia odzieży oraz korzystania z pralki, suszarki lub żelazka.
No właśnie, też kolejna taka rzecz, z którą można ciekawie.
Potem, dokonywanie transakcji finansowych.
Ocenie podlega zdolność osoby do dokonywania transakcji finansowych,
gotówkowych lub bezgotówkowych, kończącym się kupnem lub sprzedażą towaru lub usługi,
w tym rozumienie wartości pieniądza i cen produktów oraz używanie pieniędzy do kupowania lub sprzedaży.
Rekreacja i organizacja czasu wolnego.
Ocenie podlega zdolność do zaangażowania się w aktywności związane z dowolną formą spędzania wolnego czasu,
jak na przykład udział w wydarzeniach kulturalnych lub sportowych,
w tym nieformalnych lub formalnych, zorganizowanych przez instytucje publiczne i inne podmioty,
wizyty w placówkach kultury, podróżowanie, zwiedzanie,
rozwijanie hobby oraz uczestnictwo w kołach zainteresowań.
31. jeszcze zostały tylko dwa.
Załatwianie spraw urzędowych.
Ocenie podlega zdolność osoby do korzystania z usług publicznych,
załatwiania spraw w urzędach lub instytucjach,
w tym zdolność osoby do złożenia odpowiedniego wniosku papierowego lub przez internet.
No i 32 punkt, ostatni zdaje się.
Realizowanie dziennego rozkładu zajęć.
Ocenie podlega zdolność osoby do podejmowania działań związanych z planowaniem, ustalaniem i spełnianiem czynności wynikających z codziennego rozkładu zajęć i obowiązków, no i uzasadnienie maksymalnie dwa tysiące znaków. I tyle.
Mam wrażenie, że tu mogą być bardzo różne wyniki w przypadku bardzo różnych osób i chęć zrobienia rzeczywiście i zweryfikowania tego jest wręcz, mam wrażenie, niemożliwa, a wręcz w pewnych przypadkach to zwyczajnie uwłaczająca godności, że tak górnolotnie powiem.
No bo, powiedzmy, no nie wiem, weryfikowanie, czy ktoś jest w stanie się samodzielnie umyć, takie rzeczywiste weryfikowanie, no.
Nie no, ja myślę, że, no bo tu jest mówione o tym, że…
Ocena zdolności, tak.
Że na podstawie wywiadu.
Na podstawie wywiadu.
Znaczy, nie w tym konkretnym dokumencie, ale jest napisane, że na podstawie wywiadu, czyli oni się będą pytać, czy umiesz się umyć.
No więc tak naprawdę w wywiadzie można powiedzieć wszystko.
W wywiadzie można powiedzieć wszystko, to się zgadza.
O tym właśnie myślałem, że…
Natomiast nawet jak tak sobie próbowałem, no bo powiedzmy, że okej, jestem załóżmy,
co się raczej nie stanie, członkiem takiej komisji i powiedzmy sam siebie chcę spróbować zweryfikować.
Tak szczerze mówiąc, pomyślałem sobie, że zrobię sobie takie widełki,
jakby oczywiście na podstawie tego, co faktycznie jakby umiem,
co faktycznie jestem w stanie zrobić,
ale kilka rzeczy było na tyle zastanawiających, nie wiedziałem, co wpisać
i to mi się zaczęło tak rozjeżdżać, że w pełnym momencie
ta różnica to była trzykrotna.
No tak, bo w wielu przypadkach to jest, to sobie można odpowiedzieć, to zależy.
To zależy, więc co wpisać, tak? Coś pośredniego, no może, ale może jednak nie. Więc to wszystko jest dość mocno takie, jak mi się wydaje, bardzo tu zależne od konkretnej komisji i się wcale nie zdziwię, jak w jednych komisjach ludzie się niewidomymi załapią, a w innych się nie załapią, w zależności od tego, gdzie się mieszka i kto będzie to wszystko badał.
No to jest ciężki myślę temat, jak w ogóle próbuje się, jakby to jest z jednej strony taka próba podejścia sprawiedliwie, tak, bardzo byśmy chcieli, sobie życzyli, żeby były te rzeczy jakby dystrybuowane zależnie od potrzeb, tylko nagle zderzamy się z tym, ale jak się określa te potrzeby, tak konkretnie, tak, jak się określa tę sprawność, tak, jak wychodzimy poza ramy tych typowych określeń, niepełnosprawność wzrokowa, ruchowa i tak dalej i zaczynamy oceniać jakby, no dobra,
Są niewidomi na przykład, na naszym przykładzie. Mniej zrehabilitowani, bardziej zrehabilitowani, tak? I no jak to określać, zwróciwszy też na to, że to jest wszystko płynne, tak? Bo my czasami uczymy się nowych rzeczy, albo w określonych sytuacjach radzimy sobie z danym czynnością lepiej, w określonych sytuacjach gorzej.
Ale słuchajcie, to jest nawet…
Teoretyczne te mnożniki, no ale właśnie jak te mnożniki tu stosować?
Tak, bo mówię, za rok się czegoś nauczę znowu, tak, albo…
Ale są takie, wiecie, sytuacje, w których najzwyczajniej w świecie te nasze umiejętności
to i tak okazują się niewystarczające.
Przykład najbliższy z naszego podwórka.
Umiejętność gdzieś tam, powiedzmy, korzystania i tak w temacie audycji
z komputera, z telefonu i tak dalej, i tak dalej.
No właśnie, czy jesteś w stanie korzystać z komputera? Tak, nie. No właśnie.
Albo często i przy jakiej pomocy? No to naprawdę zależy.
I w jakich okolicznościach, bo czasem zdarzy się tak, że na przykład ja po prostu nie wiem co się z tym komputerem dzieje w tym momencie,
bo przestał mówić, no i co? I to znaczy, że ja jestem w stanie z tego komputera w tym momencie skorzystać, czy nie?
No ja myślę, że tutaj wjeżdża już pojęcie tej społecznej koncepcji niepełnosprawności, tak, czyli pytanie jest co czyni moją niepełnosprawność, to ja ją czynię i jakby te moje psychofizyczne różne uwarunkowania, no czy społeczeństwo rozumiane w tym sensie, że no jeżeli programista nie stworzy systemu, który jest dla mnie dostępny, to przykładowo tu się objawia objawia ta niepełnosprawność, nie jestem w stanie wykonywać np.
w mojej pracy. Tak, gdyby to powstało, mógłbym.
No i tak samo myślę sobie możliwość
wykonywania transakcji finansowych.
No okej, nasze banknoty powiedzmy są w jakiś sposób dostępne, jakieś tam
charakterystyczne cechy mają, one są lepiej lub mniej wykrywalne, ja tam nigdy jakoś po
banknotach, zwłaszcza wytartych już takich długo używanych, no miałem duży problem
poznawać. Są banknotówki, są aplikacje, no jasna sprawa, można użyć.
No ale gdyby były jakieś brailowskie oznaczenia, jakby z designu wynikające, no to byłoby to, byłby, byłoby to dużo mniej jakoś tematem, tak, na przykład w tego typu komisjach też potem, czy przykładowo, no właśnie, kwestia nawet transakcji finansowe przy terminalach dotykowych, tak, że żyjemy w świecie, który tak mocno i tak silnie ewoluuje i przyzwyczaja nas do różnych nowych trendów.
Ja zresztą w sekcji newsów ze świata opowiem wam o bardzo ciekawym przykładzie tego,
jak kwestia tego, że zaczęły się pokazywać pewne rzeczy na ekranach i tak dalej,
została rozwiązana to w Austrii.
Natomiast no po prostu okazuje się nagle, że jakby człowiek chciałby powiedzieć tak,
tak, jestem w stanie robić, ale gdybym miał to, czy to, czy to dostosowanie, które jakby,
gdybyśmy jeszcze mówili o jakichś rzeczach z kosmosu, ale mi się na przykład serce kraje,
jak właśnie, dlatego też tu opowiadam często o różnych rzeczach ze świata,
że w innym kraju udzieliłbym kompletnie inne odpowiedzi, bo wiem, że tam pewne
rzeczy są zapewnione, a tutaj w Polsce nie są, tak, i niestety muszę udzielić
odpowiedzi przeczące, nie, nie jestem w stanie zrobić rzeczy x, y, z.
No i to
tutaj gdzieś się kłania właśnie ten społeczny model niepełnosprawności,
co czyni tą naszą niepełnosprawność, tak.
Takie przemyślenia mam na luźno.
Także, no nie wiem, jakoś tak ten formularz nie napawa mnie jakimś przesadnym optymizmem, no ale jakiś musi być.
Natomiast tu też taka, taka, jeszcze jedna, jeszcze jedno takie moje przemyślenie, no bo do tej pory mieliśmy sobie stopnie niepełnosprawności i to musiało wszystkim wystarczyć.
A teraz nagle zaczyna się coś nabudowywać na te stopnie bezporozumienności.
Mamy to świadczenie 500 plus do osób niesamodzielnych i to jest w ogóle osobna kwestia.
Teraz mamy to świadczenie i tu jest w ogóle jeszcze osobna kwestia i się nagle okazuje, że ten system,
że mamy ileś różnych oceń do iluś różnych rzeczy i zamiast robić coś, jakiś jeden system, który by działał do wszystkiego,
to mamy ileś jakiś nadbudówek, przebudówek, dobudówek, każdy to sobie rozumie po swojemu, jak chce i, no nie wiem, każdy to teraz jakoś rozwija, jakoś w ostatnich latach w szczególności to się zaczęło rozwijać, tylko właśnie, no ciekaw jestem jak to wszystko, jak to wszystko będzie szło dalej, no ale zobaczymy.
Czas pokaże, czas pokaże po prostu.
I tu coś jeszcze jest, są jeszcze newsy takie pojedyncze, czyli najpierw od Piotrka, AppleWiz przygotowuje kolejny raport satysfakcji z dostępności urządzeń Apple, możesz w tym pomóc.
Czyli po polsku mamy kolejną ankietę, którą warto wypełnić, bo no właśnie to jest drugi raz, kiedy portal Apple Vis na coś takiego się zdecydował, bo w zeszłym roku oni opublikowali coś takiego, co się po angielsku ładnie nazywało Apple Vis Report Card, czyli no właśnie to oni zainspirowani byli jakimś innym portalem, teraz nie przypomnę sobie jakim, który zbadał poziom satysfakcji, chyba to było o programistach, albo ogólnie o użytkownikach,
urządzeń Apple, no i tutaj wiemy jak z dostępnością tych systemów wygląda.
Czasem jest lepiej, czasem jest gorzej.
Wiadomo co mówi marketing, no a jak to jest w praktyce, no to każdy z nas myślę
wie, bo korzystaliście, albo korzystacie z tych urządzeń, albo po prostu gdzieś
słyszycie od nas, czy od innych osób w środowisku.
Dlaczego warto to się na tym pochylić?
Między innymi dlatego, że ten raport z zeszłego roku to był dość szeroko komentowany, bo Apple Vista jest dosyć dużą stroną, więc umówmy się, że nawet jeśli generalnie mówi się, że Apple może nie reaguje na wszystkie raporty, nie odpowiada bezpośrednio wszystkim, no to o Apple Vista wiedzą, Apple Vista na pewno czytają, a nawet jeśli by ktoś z działu dostępności akurat tego nie przeczytał, ale pewnie ktoś przeczyta,
to te większe portale technologiczne gdzieś około Apple’owskie też o tych raportach komentowali.
A no to już na przykład dział marketingowy powiedzmy jeśli widzi, że powiedzmy ktoś, ogólnie duża społeczność niewidomych użytkowników powiedzmy Maców ocenił jej dostępność na trzy gwiazdki z pięciu
no to wiadomo, że tam gdzieś dział marketingu zwróci się do tego działu odpowiedzialnego za dostępność, za naprawy niby.
No słuchajcie, no z jednej strony mówimy to, a ludzie tutaj oceniają to jakoś tak, no dostatecznie, nazwijmy naszą skalą ocen,
no to takie informacje gdzieś dotrą.
Więc dlatego warto sobie tę ankietę wypełnić, natomiast to będą mogły chyba zrobić tylko osoby, które nas słuchają na żywo niestety,
bo tak w przeciwieństwie do WebAIMa na przykład, który swoją ankietę o dostępności stron
internetowych, no to ona jest od grudnia i do końca stycznia, więc jeśli jeszcze ktoś
jej nie wypełnił, też polecam, żeby to zrobić.
No to cały czas można.
No to tutaj ta ankieta jest dostępna tylko przez tydzień, bo do niedzieli, do 14 stycznia
możemy sobie tą ankietę wypełnić.
Natomiast jeśli macie konto na portalu Apovisa, jeśli nie, to można łatwo je założyć.
to myślę, że warto sobie wejść na główną stronę, to jest też wypromowana ta
ankieta na głównej stronie, więc w komentarzu też znajdziecie później link, tam pewnie po
czasie też się pojawią wyniki i sobie tą ankietę wypełnić.
To są głównie pytania zamknięte, natomiast też mamy pola, w których możemy jakieś
bardziej szczegółowe komentarze wypełnić.
Tutaj, o co ciekawe, autorzy tej ankiety, które później będą te wyniki sprawdzać,
Najciekawsze komentarze wypromują i one będą gdzieś pokazywane na stronie, żeby no na przykład zwrócić uwagę na jakieś konkretne błędy, więc jeśli chcemy się rozpisać, znamy język angielski, albo może nie wiem, posłużymy się tłumaczem nawet, nie wiem, żeby zwrócić uwagę na jakieś kwestie, które mogą umknąć użytkownikom gdzieś ze Stanów Zjednoczonych czy z Anglii, no to możemy to zrobić i takie ciekawsze komentarze gdzieś będą właśnie promowane, to potem może być cytowane przez jakieś inne strony, więc tutaj ludzie to z Apple’a na pewno by wtedy zobaczyli.
No i w takiej sytuacji też możemy zdecydować, czy te komentarze mają po prostu, ma być powiedziane, że my jesteśmy autorem tych komentarzy, czy one mają po prostu być zanonimazowane, żeby to było właśnie anonimowo.
Jakie mamy pytania? Więc myślę, że możemy sobie tutaj przejść po tej ankiecie.
Musimy być zalogowani, żeby ten formularz zobaczyć. Jeśli nie jesteśmy, to po prostu on cię nam nie wyświetli.
No to jest generalnie bardzo prosty formularz, tutaj też autorzy proszą, żeby wypełniać pola tylko dotyczące funkcji, których my osobiście korzystamy, no czyli jeśli jesteśmy osobą niewidomą, nie korzystamy z funkcji powiększających na przykład, albo nie mamy linijki brajlowskiej, no to sekcji o brajlu czy o powiększaniu ekranu nie wypełniamy.
Pierwsza sekcja to są funkcje i doświadczenia z voice-overa.
Pierwsze pytanie, jak oceniamy funkcję voice-overa na iPhone’ie?
I tutaj te wszystkie pola generalnie wybieramy albo od pierwszej opcji NA, czyli not applicable, jeśli chcemy jakieś pole po prostu pozostawić puste,
No a potem po prostu dajemy ocenę od 1 do 5, gdzie 5 to jesteśmy bardzo zadowoleni, a 1 to jesteśmy w ogóle wcale nie zadowoleni.
No i tutaj mamy właśnie jak oceniamy funkcję voice overa na iOSie, na iPadOSie, więc tutaj na iPadach, na MacOSie, na WatchOSie i na TVOSie, więc na AppleTV.
No i później pod spodem mamy pole, gdzie możemy zostawić ogólnie komentarze
dotyczące funkcji voice overa na produktach Apple.
Następnie mamy jak oceniamy nasze doświadczenia, więc tutaj pierwsze
pytanie po prostu mówi o dostępnych funkcjach, a drugie o naszych
doświadczeniach, czyli po prostu jak to wszystko działa w praktyce.
No i tutaj znów mamy pola na poszczególne systemy iOS, iPadOS, macOS, watchOS, tvOS i tak dalej.
Tutaj znów mamy pole na zostawienie komentarzy.
Sekcja druga to są funkcje związane z Braille’em.
I tutaj podobnie mamy pole do funkcji związanych z Braille’em dostępnych na iOSie, iPadOSie, macOSie, watchOSie i tvOSie.
No i tutaj znów możemy komentarze zostawić i jakie mamy doświadczenia z korzystaniem z Bly’a, więc tutaj pewnie można, no głównie pewnie tutaj chodzi o monitory Bly’owskie, natomiast jeśli ktoś korzysta z pisania z Bly’a, to myślę, że może też by się zadało podciągnąć po to, czy tu, czy tu to wypełnimy, no to można, no na pewno te wiadomości gdzieś dotrą.
Sekcja trzecia dotyczy funkcji dla osób słabowidzących, no i tutaj znów po prostu mamy podzielone, mamy dwa zestawy list dotyczących ogólnie dostępnych funkcji i naszych doświadczeń z tymi funkcjami, tutaj też podzielonych na każdy system osobno, no i pole do zostawienia komentarzy.
Potem mamy sekcję następną, czwartą na pozostałe i tutaj mamy pytanie, jak
oceniamy funkcje, które zostały wprowadzone w roku 2023.
I tutaj możemy oddać ocenę od 1 do 5.
Tam na górze strony też jest link, gdzie możemy sobie przejrzeć, jakie nowości
zostały wprowadzone w poszczególnych systemach.
No to na przykład na iPhone’ie taka chyba najważniejsza funkcja to była to
funkcja wskaź i move z liderem, nie wiem, taka pierwsza nowość, która mi jakoś bardzo się
gdzieś rzuciła w oczy, no i właśnie tutaj możemy ocenić, czy ta funkcja, czy jakieś inne,
które w zeszłym roku zostały wprowadzone, czy one faktycznie nam się przydają, czy nie.
No i też tutaj możemy, oprócz tej wystawienia
oceny, możemy jakiś komentarz zostawić.
Jak oceniasz,
Jak oceniasz postępy firmy Apple w naprawaniu błędów związanych z voice-overem, braillem czy powiększaniem w roku 2023?
No i podobnie, możemy zostawić ocenę i zostawić jakieś komentarze, więc jeśli wiemy o jakichś błędach, które zgłaszamy od x lat, które nie są poprawiane, no to to jest dobre miejsce, gdzie po prostu możemy zostawić.
No i ostatnie pytanie, czy mamy jakieś sugestie, co jeszcze firma Apple mogłaby wprowadzić, żeby poprawić dostępność swoich urządzeń i doświadczenie, no i też po prostu możemy sobie rozpisać.
Później mamy pole na jeszcze jakieś inne komentarze, które nie dotyczą pozostałych pól, no i tutaj mamy właśnie to pytanie, o którym mówiłem na końcu.
czy jeśli ApoVis zdecyduje, że nasz komentarz jest na tyle fajny, że chcieliby go
gdzieś wypromować, czy ma być powiedziane, że my ten komentarz zostawiliśmy,
czy po prostu on ma być anonimowy.
No także jeśli słuchacie nas przed tym 14 stycznia, korzystacie z urządzeń AWU,
no to myślę, że ta ankieta może być warta wypełnienia, no bo faktycznie to jest coś co
na co
nie tylko właśnie społeczność osłonił i zwraca uwagę,
ale właśnie w ten sposób taka informacja wychodzi na szerszy świat.
Nie wiem ile osób wypełniło go w zeszłym roku, na pewno to było dużo.
No i generalnie tak jak się mówi, że dostępność Apple’a jest dobra,
no to iOS z tego co pamiętam tutaj dostał ogólnie 4 gwiazdki,
iPadOS też, Mac i tvOS chyba 3, więc to tutaj też pokazuje, że jednak no…
No właśnie, iOS dostał 4,5 oceny w zeszłym roku, iPadOS 4.2, macOS 3.6, watchOS 4.1 i tvOS też 3,5 gwiazdki, więc no i tutaj mamy właśnie komentarze takie naprawdę obszerne, więc warto, jeśli korzystacie z urządzeń Apple, jeśli jeszcze jest na to możliwość, warto sobie to wypełnić.
Tymczasem mamy kolejne wypowiedzi. Na YouTubie na przykład pojawił się komentarz od Łukasza, to jest pytanie, czy God of War Ragnarok na PS4 jest w pełni dostępny dla osób niewidomych? Łukasz by się chciał dowiedzieć.
Czy jest w pełni dostępne, to bym się niestety zastanowił, są recenzje, Brandon Cole pamiętam, że taką recenzję zrobił, generalnie problem jest taki, że gra generalnie jest nawet dostępna, bo mamy różne dźwięki, mamy screen reader przynajmniej jeśli mamy konsolę ustawioną na angielski, tutaj jest też niestety dla nas problem, że no właśnie jeśli chcemy z tego screen readera korzystać, no to nie możemy grać w grę po polsku, a szkoda, bo ma bardzo
bardzo fajnie zrobiony dubbing polski m.in., ale no jest kilka problemów.
No ten screenreader nie działa wszędzie, więc są miejsca np.
kiedy zarządzamy ekwipunkiem, a gra ma takie elementy RPG,
no to będzie nam jakiś OCR potrzebny, a żeby zrobić OCR z konsoli, no to np.
musimy sobie obraz na komputer jakoś wysłać, albo po prostu, nie wiem, robić zdjęcie
telefonem, albo użyć aplikacji Remote Play, żeby obraz przerzucić na komputer.
No to się da obejrzeć z OCR-em, to działa.
Mamy też wsparcie nawigacyjne, ale ono niestety nie zawsze nas doprowadzi tam,
gdzie sama generalnie działa, ale są jakieś niektóre zagadki w grze,
w których możemy utknąć.
Trwają prace nad tekstowym przewodnikiem, jak tą grę w zupełności całkowicie
samemu przejść bez pomocy osoby widzącej.
Natomiast one jeszcze oficjalnie się nie pojawiły.
Myślę, że za jakiś czas, miejmy nadzieję, za parę miesięcy się pojawią autor tego przewodnika.
Ostatnio miał kilka spraw, które musi wypadły przez to, że się wszystko opóźniło, ale wiem, że prace nad takim przewodnikiem trwają.
Jest to niewiadomska gra, ale niestety, żeby była w pełni dostępna, to nie mogę powiedzieć na razie.
No i tu jeszcze mamy wypowiedź od Dawida a propos Blind Shella, że pojawiła się nowa aplikacja, a właściwie nowa wersja aplikacji pogoda, pogoda lokalna i można dodać miasto do ulubionych, taka kolejna nowość w Blind Shellu.
Dziękujemy ci bardzo Dawidzie za te informacje.
W takim razie chyba zostały nam tylko newsy duże, czyli w zasadzie te nasze maratonie newsowe. To może, żeby tak troszkę odpocząć sobie od poważnych tematów, nowości w grach od Piotrka.
Ok, to jak zwykle był koniec miesiąca, nawet koniec roku, słuchajcie, bo rok 2023 się skończył, więc tradycyjnie pojawił się kolejny biuletyn nowości na audio games, ale to nie tylko o tym będziemy mówić, bo całkiem sporo też później się wydarzyło.
Jeśli chodzi o ten Bigletten, dużo rzeczy też tradycyjnie mówiłem wam na bieżąco, więc jeśli chodzi o to co się pojawiło poza tym, no o modzie do gry Crosscode już wspominaliśmy, więc tutaj więcej informacji znajdziecie w poprzednich audycjach, o modzie do Plants vs Zombies też, on cały czas się zresztą rozwija, o grze Ripley’s Aliens też, natomiast tutaj taka gra bardziej
przygodowa, nowa.
Dla iPhone’a
i Mac’a się pojawiła gra nazywa się
Voice of the Ancients
i tutaj autor tej gry napisał,
że stworzył
tą grę specjalnie m.in. dla
osób niewidomych
i słabowidzących, ale nie tylko.
To jest gra przygodowa,
więc musimy jakieś zagadki rozwiązywać,
żeby
znaleźć jakiś zagubiony
dawno skarb,
Uciekając od jakiejś złej grupy, jakiegoś stowarzyszenia starożytnych.
I co ciekawe w tej grze, ona jest sterowana głosem.
Więc tutaj narrator nam opisuje nasze otoczenie.
I my po prostu dosłownie mówimy w tej grze, właśnie używając naszego głosu,
co chcemy zrobić, gdzie chcemy pójść, co ma nasza postać zrobić.
Gra jest w App Store, więc można sobie ją czy na iPhone’a czy na Mac’a ściągnąć, jakby ktoś chciał sobie przetestować, to można.
No to było coś dla fanów Apple’a, a teraz coś dla użytkowników Androida, bo pojawiła się gra Duels RPG,
czyli właściwie to jest seria gier, już kilka tych gier w tej serii powstało, są takie gry, no właśnie RPG, gdzie głównie zarządzamy ekwipunkiem,
Musimy różne decyzje podejmować, no ale walczymy też w takim systemie właśnie turowym.
Te gry generalnie były jednoosobowe, ale pojawiła się kolejna część.
Duels RPG PvP Arena, więc tak tutaj PvP, Player vs Player, żeby rozwinąć ten skrót.
A będziemy grać przeciwko innym graczom, właśnie używając tego silnika zaawansowanego, żeby grać przeciwko innym graczom.
Będziemy mogli walczyć przeciwko innym w czasie rzeczywistym, możemy tworzyć, zastosować nasze postacie, różne klasy będą dostępne, różne talenty, więc każda klasa będzie miała swoje unikalne umiejętności, ale poza tym też będziemy mieli do dyspozycji duży świat, w którym znajdziemy różne lochy, różne jakieś misje poboczne, które możemy wykonywać, żeby zdobywać lepszy ekwipunek.
No i właśnie mamy te walki przeciwko innym graczom, które pozwalają nam wspinać się w liście najlepszych graczy, no i po prostu wspinać się i zdawać się najlepszymi w tej grze.
Gra była testowana z Talkpackiem i z innymi czytnikami ekranu, wiele osób niewidomych gdzieś grało w poprzednie części w tej serii, więc autor o osobach niewidomych jak najbardziej wiedział i w tej nowej części, no to osoby niewidome były zaangażowane już w jej rozwoju, więc gra jest bardzo fajnie dostępna, więc jeśli macie telefon z Androidem, no to myślę, że warto sobie tą grę ściągnąć.
Później mamy grę Kościaną, która co ciekawe najpierw była dostępna po polsku, tam też znajdziecie link do wersji polskiej, no i też została przetłumaczona na angielski.
w której generalnie to jest gra zainspirowana grą w shrinkę, jeśli ktoś na przykład w aplikacji Dice World czy na RS Gamesie grał,
gdzie rzucamy, generalnie w tej oryginalnej grze to była po prostu zwykła sześcienna kostka.
W tej grze ta kostka ma ścian osiem i chodzi o to, żeby nazbierać jak najwięcej punktów.
Rzucamy tą kostką, jeśli rzucimy od dwóch do sześciu, to będziemy tą liczbę punktów zdobywać.
Natomiast możemy też rzucić jedynkę, tak jak właśnie w tej grze w świnkę.
Jeśli rzucimy jedynkę, to wszystkie punkty, które zgromadziliśmy, tracimy, która przechodzi do następnej osoby.
Dwójka automatycznie zapisuje to co akurat zdobyliśmy i przekazuje turę do następnej osoby.
Siódemka pokazuje, siódemka nic nie robi, a ósemka nam może losowo albo dodać 8 lub zabrać 8 punktów z naszego konta.
No i tutaj jest oczyszczenie, gra powstała w BGT, więc antywirusy mogą mówić, że tam jest wirus, ale spokojnie, wirusa nie ma.
O Rokko Koko już też wspominaliśmy ostatnio.
Później mamy grę taką też przygodową, tylko tutaj takie Interactive Fiction, czyli coś pokroju na przykład gry odchłanie, jeśli ktoś grał.
tylko, że tutaj po angielsku, gra w której jesteśmy gdzieś uwięzieni na statku, który
pomału gdzieś jest wciągany przez czarną dziurę, no i musimy po prostu z tego statku uciec.
No i gdzieś na tym statku jakieś tajemnicze portale się otwierają i widzimy jakąś
osobę, która gdzieś nam towarzyszyła od początku tej przygody, no i musimy po prostu
dowiedzieć się, co się dzieje, skąd te portale się wzięły, no i po prostu rozwiązać tą zagadkę, co się dzieje, jak się tutaj znaleźliśmy.
Później mamy grę przeglądarkową, Survival Game. Co ciekawe, to jest gra, która jest dostępna tylko w języku polskim, no i to jest po prostu gra, w której musimy przetrwać.
To jest taka też właśnie coś w pokrój takiej gry przygotowej, powiedzmy.
Następnie mamy Mooda, Mooda Celestial Knights, opartego na uniwersum Dragon Balla.
Więc jeśli ktoś w dzieciństwie to anime pamięta, może teraz, bo przecież cały czas Dragon Ball gdzieś tam trwa, jakieś nowe odcinki powstają.
No i chcielibyśmy się w tym uniwersum znaleźć, lubimy Moody, czyli właśnie wieloosobowe gry tekstowe.
No to taki Mood właśnie powstaje.
znajdziecie adres, możecie się po prostu do niego podłączyć, no i w tym świecie się zanurzyć.
Ale to nie są wszystkie nowości, no tutaj biuletyn przechodzi do aktualizacji, a zanim przejdziemy do aktualizacji, to jeszcze może tutaj dołączę do innej nowości, które później się pojawiły.
Mamy kolejne, kolejną chińską grę RPG, więc tutaj będzie nam tłumacz potrzebny.
Gra nazywa się Journey of Seeking.
No i to jest gra, w której gramy małym chłopcem, który, okazuje się, ma nadzwyczajne zdolności w różnych sztukach walki.
No i postanawiamy wyruszyć w świat, żeby dowiedzieć się więcej o tych różnych sztukach walki.
No i kiedy to robimy, nagle wszyscy zewsząd zaczynają nas atakować i my nie wiemy czemu.
No i po prostu musimy po pierwsze tych przeciwników, którzy nam staną na drodze pokonać,
no a po drugie dowiedzieć się czemu tak się dzieje, skąd to się wszystko wioło,
dlaczego jesteśmy tak dobrze w sztukach walki, bo może to jest jakieś głębsze dno
no i po prostu musimy tą zagadkę rozwiązać.
Gra jest dostępna na Windowsa, no i tutaj mówię gra jest dostępna wyłącznie w
języku chińskim, więc tutaj musimy się zaopatrzyć w dodatek tłumaczący czy to do
MVDA czy do ZSR-a, ale jeśli taki dodatek mamy, no to można spokojnie sobie grać.
I ostatnia nowość, Super Mario 64 Boombox.
To jest przepisanie jednej z minigier dostępnej w grze Super Mario 64,
a przynajmniej jej wersji na przenośną konsolę Nintendo DS, w której po prostu
to jest gra w pamięć, mamy planszę i musimy znaleźć wszystkie pary dźwięków.
Problem polega na tym, że nie mamy na to dużo czasu.
Po prostu przechodzimy poszczególne poziomy.
Na początku mamy trzy pary, potem mamy tych par stopniowo coraz więcej.
Natomiast oprócz tego, że
oczywiście wszystkie mamy oryginalne dźwięki gdzieś właśnie z tej gry, więc tutaj mamy
takie właśnie dźwięki z Mario, natomiast te dźwięki z czasem stają się coraz bardziej
podobne do siebie umyślnie, tych par jest coraz więcej i na dodatek mamy ograniczoną
liczbę szansa, bo możemy się trzy razy pomylić w późniejszych poziomach, więc też
musimy mieć dosyć dobrą pamięć, bo gra nam też nie pozwoli jakoś dużo losowo klikać
i faktycznie trzeba się tą pamięcią gdzieś wykazać.
No gra generalnie jest bardzo fajna, natomiast nie jest bardzo stabilna.
Podczas stosowania tej gry parę razy mi się wysypała, ale jak działała, to muszę
powiedzieć, że działała całkiem przyjemnie.
I teraz jeszcze mamy tutaj troszkę aktualizacji, które mi uciekły, ale już je
znalazłem. Warsim tradycyjnie kolejne aktualizacje dostał.
Między innymi pojawiło się Wesołe Miasteczko, do którego możemy sobie dotrzeć we wiosce gnomów.
I tam mamy różne rzeczy, które możemy sobie tam w tym Wesołym Miasteczku zobaczyć.
Mamy nowe opcje na ekranie wyboru poziomu trudności.
No i mamy oczywiście też poprawki, inne błędów.
Tutaj też możemy więcej najemników z całego świata gdzieś nawoływać jeśli potrzebujemy.
No i tutaj właśnie więcej popraw od Benów, otóż kilka takich mniejszych aktualizacji w tej grze się pojawiło.
Następnie mamy grę Periphery, w której eksplorujemy planetę takim skafandrem,
w którym można zarówno chodzić, jeździć, latać, mamy plecak odrzutowy.
No i pojawiła się duża aktualizacja, w której oprócz tego pojawiła się w tym skafandrze opcja łodzi podwodnej, bo na tej planecie też teraz została dodana woda i to bardzo dużo tej wody.
No i możemy właśnie też sobie po tej wodzie pływać i znajdziemy w niej wiele jaskiń, które są gdzieś losowo generowane, no i w tych jaskiniach znajdziemy kolejne jakieś skarby, informacje oraz różne materiały,
które pozwolą nam nasz skapander jeszcze bardziej ulepszać.
Następnie mamy aktualizację do gry Upheaval, to jest też taka gra w RPG,
w której to mamy nowe intro, będziemy widzieli pamiętnik Szarnoksiężnika,
na którego czekamy w tej grze.
Będziemy wiedzieć, po prostu dostaniemy więcej informacji o miejscu, w którym gra się będzie rozwijała.
No i jak zwykle mamy poprawki błędów.
Crazy Party zostało zaktualizowane, o tym już Wam wcześniej też mówiliśmy.
Nowe karty, pojawiły się nowe gry.
Gra Advanced Wars, czyli taka też gra strategiczna,
To jest też przeportowana gra dla widzących też z konsolą Nintendo, w której dowodzimy armią.
No i teraz w tej najnowszej wersji gra dostała system pogody, więc czasami na planszach będziemy mieli właśnie jakieś mgły, jakieś burze, które nam będą pogarszały widoczność.
No i sztuczna inteligencja też naszych przeciwników w tej grze została jeszcze ulepszona.
O aktualizacji Mortal Kombat’a też mówiliśmy, tam coś się trochę pozmieniało jeśli chodzi o dostępność, która działa trochę lepiej.
Niestety na komputerach nadal mamy ten, nazwijmy to, tragiczny syntezator mowy.
O aktualizacji Forzy też już mówiliśmy, natomiast to jest chyba dobre miejsce w którym możemy powiedzieć o narzędziu, które społeczność stworzyła,
bo Forza sama w sobie, czyli to jest gra wyścigowa,
udostępnia zewnętrznym aplikacjom różną informację o naszym samochodzie,
m.in. jego prędkość, temperaturę kół, w jakim stanie jest zawieszenie,
co gra nam wcześniej nie udostępniała, a społeczność stworzyła właśnie narzędzie,
które daje nam do tego dostęp.
Nazywa się
Accessible for the real-time companion, działa zarówno z wersją na komputery, jak i na konsolę, bo w wersji na konsolę też można sobie tak ustawić, żeby dały dostęp do tych danych.
No i możemy sobie właśnie ustawić, żeby gra nam cyklicznie informowała o prędkości samochodu, jeśli się zmienia.
Można sobie różne ustawić, jak często mamy być o tym informowani, kiedy koła się będą, przekroczą jakąś temperaturę,
co informuje nas o tym, że po prostu będziemy tracić szybciej przyczepność.
No tam jest wiele opcji, które możemy sobie skonfigurować,
więc jeśli gdzieś bardzo zaczynamy grzebać w naszym samochodzie
i chcemy mieć dostęp do właśnie wszystkich tych informacji,
no to tym narzędziem możemy być o nich informowani praktycznie w czasie rzeczywistym.
Następnie mamy Hearthstone’a.
Ja myślę, że tutaj możemy połączyć też to, o czym chciała powiedzieć Paulina,
bo tutaj poniekąd te informacje się łączą ze sobą, bo tak jak wspominałem jakiś czas temu
kilka rzeczy w grze nie było dostępne przez to, że Blizzard je przebudował, bo na przykład był
niedostępny sklep oraz ten nowy tryb nowicjusza w tej grze, bo on został przebudowany i w tym
innymi zostały włączone tryby, które wcześniej przez mod Hearthstone Access nie były
dostępne, jak na przykład, jak na przykład karciem nabójka, o której panu ja wiem, że
chciałaś opowiedzieć, nie wiem czy, czy możemy opowiedzieć jak to.
Znaczy tak, ogólnie karciem nabójka to jest taki tryb Hearthstone’a, który co tydzień ma
różne zasady i co środę wieczorem jest rotacja tych zasad.
One się potrafią powtarzać z roku na rok, jakby potrafią być np.
jakieś takie karczmne bojki, które są nie wiem, co roku na święta itd.
Ale na ogół to one się rotują.
No i naszym zadaniem jest przeczytać sobie ten opis, stworzyć jakąś talię albo
wybrać po prostu klasę bohatera i
grać talią losowo stworzoną przez grę, no i wygrać
co najmniej raz, bo za pierwszą wygraną otrzymujemy pakiet standardowy.
I kwestia jest taka, że właśnie
można było wcześniej grać
czy to OCR-em, czy to Golden Cursorem w karczem na bójkę.
Z tym, że był spory problem, naprawdę spory, z tworzeniem talii, bo
bo o ile były te karczemne bojki, w których wystarczyło sobie dodać kilka kart
albo mieć losową talię, no to spoko.
Ale jak trzeba było zrobić 30 kart, wyklikać z tym OCR-em,
czy to wpisując w wyszukiwanie jakieś kryteria i próbując stworzyć talię,
czy to scrollując po stronach i wklikując się w odpowiednie karty,
no to była to mordęga.
Natomiast teraz mamy już spokojnie
w miarę standardowy interfejs do tworzenia talii, do ogrywania tej karczemnej bujki.
Z tym, że
jest taka kwestia, nie wiem jak z tą, bo jeszcze nie zdążyłam zagrać w nią dzisiaj,
ale z poprzedniotygodniową była taka kwestia, że
był komunikat, ta karczemna bujka nie jest wspierana przez Hearthstone Access.
no tam poczekaj na aktualizację, czy jakoś tak mniej więcej brzmiał ten komunikat.
Natomiast kwestia była taka, że wystarczyło z OCR-em albo Goldenem
kliknąć w tą karczemną bójkę i wtedy już został nam zapewniany interfejs
do tworzenia talii, do czytania opisu i do rozpoczynania gry.
Natomiast są dwa niedociągnięcia tego nowego trybu,
które mam nadzieję, że zostaną gdzieś tam
wyrównane na przestrzeni dziejów.
Mianowicie pierwsza rzecz jest taka, że nie można jeszcze zapraszać znajomych do
karczemnej bójki, a normalnie przez
w sensie można to zrobić goldenem.
Jest instrukcja na Discordzie Hearthstone’a, Axess’a.
Więc jeżeli byśmy bardzo chcieli to da się to zrobić, natomiast mod tego nie obsługuje.
I druga kwestia jest też taka, że jeżeli mamy karczem na bujkę, w której trzeba użyć swojej jakiejś talii, no i weźmiemy, zamiast robić od początku, to skopiujemy jakąś ze swoich obecnych talii, to mod co prawda zapyta się nas, czy chcemy tej talii użyć i można dać tak, będzie animacja tworzenia się nowej talii.
natomiast żeby uruchomić grę trzeba wyjść, po prostu dać backspace i wejść jeszcze raz w ten tryb, bo po tej animacji mamy taką jakby zawieszoną grę i nic poza tym backspacem nie da się zrobić w tym okienku, ale tak na ogół to działa dobrze, więc można próbować.
No właśnie, czyli mamy kolejny tryb, który stał się dostępny, no i to całe doświadczenie dla nowicjuszy, więc jeśli czekaliście na to, a wiem, że na przykład Paweł, który nas tutaj słucha, czekał na to, jeśli jeszcze sobie Hearthstone Accessa nie zaktualizowałeś, to to jest ten moment, że tak powiem, możesz sobie je zaktualizować i już będziesz mógł spokojnie sobie to przejść.
No i tutaj jeszcze niestety taka informacja, która pojawiła się później a propos Hearthstone’a, ale to nie jest związane z modem, ale no właśnie kiedy tutaj mamy tryby, które stają się dostępne, firma Blizzard postanawia inne tryby usunąć, jak na przykład tryb starć, który też niedawno został udostępniony.
Natomiast w zespole pracujący nad Hearthstone było ostatnio trochę zwolnień i tutaj postanowili
wsparcie dla trybu starć zarzucić i w kwietniu on po prostu z gry zostanie usunięty.
Więc jeśli jeszcze nie graliście, a chcielibyście zobaczyć co to w ogóle było to kilka miesięcy
wam na to zostało, ale po tym czasie już niestety tego trybu grze nie zobaczymy.
To był Hearthstone. Następnie mamy grę Wave of the Undead, czyli tutaj też właśnie grę, w której walczymy przeciwko zombie.
Mamy w niej 5 dodatkowych poziomów, nową broń, którą możemy sobie odlokować oraz poprawki do edytora własnych misji.
Więc jeśli chcemy sobie własne jakieś misje do tej gry stworzyć, no to narzędzie, którym to robimy stało się jeszcze bardziej poddężne.
Gra Hellhunter 2, która była wcześniej dostępna na komputerach, na Windowsie i na Macu, dostała też wersje mobilne, zarówno na iPhonie i Androidzie.
No i na koniec mamy aktualizacje w dwóch modach, które ostatnio często się pojawiają.
Mod Classic Six Dragons ma kilka nowych wydarzeń, które losowo mogą się odbywać oraz zmieniono sposób w jaki statystyka siły jest obliczana podczas bitew i mod Alter Aeon.
Tutaj podobnie mamy różne zmiany w niektórych umiejętnościach oraz w systemie tworzenia własnych elementów.
Tutaj dodany został nowy materiał do tworzenia ekwipunku, a konkretnie to jest marmur.
I to jest chyba wszystko tak, no bo jeszcze mamy na końcu informację, że As Dusk Falls w marcu dostanie audio deskrypcję,
Ale o tym też już wspominaliśmy, no ale jeśli ktoś nie wiedział, to właśnie też ta gra audio-deskrypcji się niedługo doczeka.
No i to wszystko na razie jeśli chodzi o grę.
A tymczasem odbieramy kolejny telefon, bo ktoś do nas przed momentem się dodzwonił.
A kogo witamy po drugiej stronie?
Dzień dobry, Paweł z tej strony się kłania.
Właśnie celowo do was zadzwoniłem, bo chciałem nawiązać do Hearthstone’a.
No cóż mogę powiedzieć. Po świętach tak naprawdę zacząłem w to grać.
Dzięki waszym tutaj audycjom i poleceniom stwierdziłem, że wypróbuję,
bo dawniej jakoś do tych wielkarcianych to miałem takie podejście,
że to zupełnie nie dla mnie, że to wymaga jakiegoś, nie wiem,
liczenia, przeliczania, nie wiadomo czego i nie dla mnie.
I bardzo pozytywnie jestem zaskoczony po prostu tym,
co można doświadczyć grając w tą grę.
No bo jest przecież wspaniały dubbing, są fajne dialogi, jest muzyka.
No coś się dzieje w tej grze, nie jest to po prostu na zasadzie złap zajączka,
złap króliczka i nazbiera jak najwięcej punktów.
No, ale chciałem się zapytać, bo trudno jest znaleźć jakby pomoc w internecie.
Jak w tą grę tak naprawdę grać?
To znaczy nie mam na myśli klawiszologii, że tu trzeba dać tap, tam trzeba dać enter, tam mamy informacje, nie wiem, o karczmie, o kartach, bo to jest wszystko czytane i jest wszystko wspaniale.
Tylko chodzi mi o to, co my mamy w tej grze osiągnąć.
Czy to polega na tym, że po prostu gramy z losowymi przeciwnikami,
którzy nam się napatoczą.
Nieraz gramy, nie wiem, magiem, drugi raz gramy kapłanem
i po prostu te postacie sobie rozbudowujemy.
Wykonujemy te codzienne zadania albo cotygodniowe.
Czy jeszcze coś można tam więcej uzyskać, bo jak się przegląda te statystyki, tych kart, różne tam kolekcje, talie, to dużo jest rzeczy nieodblokowanych, no i tak naprawdę nie wiem w jaki sposób to czy odblokować, czy z tego korzystać, czy stworzyć te talie, jak to w ogóle wygląda.
Generalnie możemy tak naprawdę grać kim chcemy, no bo chodzi o to żeby po prostu, no jeśli gramy przeciwko innym osobom to wspinamy się po tej drabince, po prostu zdobywamy kolejne rangi, bo zaczynamy od gdzieś rangi brązowej, potem wchodzimy na srebrno, złoto i tak dalej, no i wtedy dostajemy przeciwników z tej samej rangi, więc teoretycznie oni stają się coraz trudniejsi.
Ale jeśli chodzi o Twoje pytanie, to jest na takiej zasadzie generalnie zrobione, że mamy różne paczki kart i te paczki pojawiają się tak średnio chyba co dwa czy trzy miesiące, jakieś nowe sezony tak zwane się pojawiają.
No i te paczki sobie możemy w sklepie kupować i to jest, oni w ten sposób nad tym zarabiają, bo oczywiście możemy je kupować złotem, które zdobywamy w grze, ale też jeśli ktoś chce sobie je kupić więcej, szybciej,
no to można też po prostu za prawdziwe pieniądze tych paczek kupić sobie od razu więcej.
No i w każdej tej paczce dostajemy pięć losowych kart,
więc żeby stworzyć talię, którą my akurat chcemy,
bo talię generalnie po prostu tworzymy sami,
tak sprawdzając, które karty działają lepiej ze sobą,
no to po prostu może nam to otwieranie trochę tych paczek zająć generalnie.
Więc na tym tutaj producenci zarabiają, też na tym, że można sobie różne jakieś tak zwane
kosmetyczne przedmioty kupować, na przykład skórki Heroesów, więc możemy sobie jakąś
inną postacią grać, z której mamy inne głosy, inne jakieś dialogi, więc na tym oni
zarabiają. Ale generalnie o to chodzi, bo sobie tworzymy różne talie do tych różnych
klas, która nam odpowiada bardziej.
Ale co jeszcze możemy robić?
No poza tym, że możemy grać przeciwko innym graczom, co jest główny, powiedzmy, tryb tej gry,
no to mamy też kilka takich trybów jednoosobowych i to mogą być w sumie, to może być w sumie dobre miejsce,
od którego ja bym zaczął. W tym menu tryby masz księgę herosów i księgę najemników.
Tam są historie różnych postaci z uniwersum Warcrafta, bo w tym to wszystko jest osadzone.
I tam nie dość, że po prostu dowiesz się więcej o tych postaciach, ale też to ci fajnie pokaże te różne klasy, te różne karty z jakimi będziesz miał do czynienia i to ci też może pokazać która klasa na przykład odpowiada ci bardziej.
No i przy okazji też można dużo paczek w ten sposób zdobyć za darmo.
Więc ja bym tutaj chyba zaczął od tego.
Aha, rozumiem. No to na razie dziękuję wam bardzo i polecam wszystkim Hearthstone’a, bo rzeczywiście warto się chociaż zapoznać. Gra za darmo, no to czemu nie?
Ja się tylko mogę do tego dołączyć, też bardzo gorąco tą grę polecam.
Jasne, dzięki.
takie duże zasady newsów, czy pakiety newsów? Chyba jeden, jak dobrze patrzę, nie, drobne newsy najpierw.
No właśnie, ja mam jeden, jeden krótki news a propos nowości w aplikacji TW Blue, która jakiś czas nie była rozwijana,
natomiast niedawno ludzie się też zaczęli martwić, czy ona właśnie jest jeszcze rozwijana.
Na szczęście jest rozwijana właśnie, w ogóle strona przestała działać przez jakiś czas, już w ogóle wtedy ludzie się przestraszyli.
No już wiemy czemu tak się stało, bo po prostu projekt zmienił domenę, znajdziecie nowy adres do niej,
ale też jeśli chcecie sobie po prostu to TW Blue ściągnąć, kiedyś ono było dostępne na stronie twblue.es,
a teraz będzie to strona twblue.mcvsoftware.com
i teraz z tego miejsca tą aplikację sobie ściągniecie, a to w ogóle jeśli ktoś nie wie to jest
klient do, no kiedyś do Twittera i do Macedona, teraz już tylko do Macedona,
który podobnie jak na przykład Twiscake ma zarówno taki widziany, jak i niewidziany
interfejs, którym możemy, którym możemy sterować z każdego miejsca w systemie.
Od tej najnowszej wersji będą dostępne tylko wersje 64-bitowe, no bo biblioteki różne, które są używane do tworzenia tej aplikacji zostały poaktualizowane i już 32-bitowych systemów niektóre z nich nie wspierają, więc po prostu to zostało porzucone.
No ale poza tym mamy kilka zmian.
No oprócz, mówiliśmy tutaj o tej domenie.
Też projekt będzie cały czas dostępny na githubie.
Wsprawdzanie aktualizacji powinno działać lepiej.
Jeśli uruchamiamy aplikację ze źródeł, bo kod źródłowy jest jak najbardziej dostępny,
to też w sprawdzaniu aktualizacji będzie wyłączone.
I polecenie zgłość błąd w menu pomoc też już działa, po prostu będzie przekierowało do sekcji issues na githubie, gdzie możemy różne błędy zgłaszać.
No i mamy zmiany w mastodonie w dodaną wsparcie dla czynności na buforze pvdomain.
Więc jeśli mamy jakieś powiadomienie, możemy użyć różnych skrótów tego interfejsu niewidzialnego lub jeśli po prostu korzystamy z tego widocznego na liście, otworzymy menu kontaktowe, to tam różne czynności, które na jakieś powiadomienie możemy wykonać, znajdziemy.
Dodano wsparcie dla uaktualniania profilu, więc mamy okienko do zmiany profilu, gdzie możemy sobie na przykład nasze informacje o sobie zmienić,
dodać na przykład jakieś adresy do naszych jakichś stron internetowych, profili na innych mediach społecznościowych,
może jakiś avatar załadować, nie wiem czy to też jest wspierane, ale to jest bardzo możliwe.
Możemy też wyświetlić profile użytkownika innych osób, zarówno z menu użytkownik lub skrótu w interfejsu niewidzialnego.
Mamy wsparcie do głosowania na ankietach. Bardzo fajnie Twiskiek ostatnio też się tego doczekał.
Możemy to np. zrobić używając skrótu Alt Windows Shift V w interfejsie niewidzialnym.
Mamy wsparcie dla przeszukiwania po postach, natomiast tutaj mamy informację, że to musi być wspierane.
Bo niektóre instancje na Macedonie pozwalają nam po prostu przeszukiwać po tekście postów, a nie tylko po hashtagach jak to zazwyczaj działa.
Ale no właśnie nasza instancja musi to mieć włączone, więc to po prostu musimy sobie gdzieś w regulaminie naszej instancji przeczytać, czy to akurat mamy u siebie, czy nie.
I zostało dodane autouzupełnianie użytkowników.
Podczas pisania postów możemy sobie na ekranie ustawień nacisnąć przycisk, żeby aplikacja nam ściągnęła na przykład nasze listy obserwujących i obserwowanych i dodała je do bazy danych autouzupełniania.
no i później jak będziemy jakiś post lub odpowiedź jakiegoś postu pisać,
no to możemy sobie to autouzupełnianie wywołać.
I wwp powinno teraz ignorować wiadomości bezpośrednie z usuniętych kont,
które gdzieś tam wcześniej nam wisiały na buforze i to w buforach
i powodowało różne błędy, już tak nie powinno być.
One po prostu nam będą teraz znikać.
I tak samo z powiadomieniami, podobnie powiadomienia dotyczące usuniętych kont też już nie powinny powodować błędów.
No i to jest nowe TW Blue, jeśli szukacie jakiegoś alternatywnego klienta na Windowsa, no to warto się myślę tą nową wersją też zainteresować, jeśli pozostałe jakieś rozwiązania Wam nie pasują.
No i to wszystko ode mnie, ale no właśnie, to jeszcze nie koniec.
Tak, to ja jeszcze mam dwa newsy krótkie, bo przez ten okres świąteczny chyba ktoś postanowił sprzątać i zrobić jakieś świąteczne, noworoczne porządki i powprowadzać trochę usprawnień dostępności.
I tak na przykład sygnał doczekał się ponoć, chociaż mi się wydawało, że to już było, ale w Change.logu wyskoczyło jako nowe, że można reagować na wiadomości z voice-overem, przynajmniej na iPhone’ie, nie wiem jak tam Android.
Stukamy dwukrotnie z przytrzymaniem na wiadomości i wyskakują normalnie reakcje.
Także to działa.
No i Pocket Cast, klient podcastów, którego ja korzystam, on nie jest jakiś…
Dla mnie to była bitwa między Castro a Pocket Castem.
No Castro coś tam przestaje działać niby już strona nie działa i tak dalej aczkolwiek u mnie ta aplikacja dalej wysyła powiadomienia więc prawdopodobnie jeszcze jest do użytku.
Padła ale wróciła.
A okej.
No natomiast
Pocket Cast u mnie wygrał tym że po prostu ma bardzo fajny widok rozdziałów i można na ekranie teraz odtwarzane przeskakiwać sobie poprzedni następny rozdział i podglądać jaki aktualnie mamy odpalony.
Też taki fajny dźwięczek ma na powiadomienia, z kilku powodów mi się ta aplikacja spodobała.
Ma ona swoje problemy.
Teraz przy wyszukiwaniu podcastów porobili jakiś taki dziwny, mało dostępny widok, taką podglądówkę.
Żeby zobaczyć podcasty trzeba kliknąć w pokaż wszystkie.
Jakieś takie bardzo rozwiązania skupione na tym, żeby jakieś algorytmy coś tam ewidentnie nam wypychały.
I oni mieli też taki problem, że nie dało się tamtych podcastów jakoś sensownie przewijać, znaczy można było sobie ustawić w opcjach aplikacji o ile przycisk do tyłu i do przodu miał przeskakiwać, natomiast nie było suwaka dostępnego.
No i oni teraz ten problem naprawili i ten suwak działa i on chyba przesuwa się o te wartości, które mamy zdefiniowane w ustawieniach, bo u mnie jakieś około 50 sekund.
Natomiast dwie rzeczy są tam śmieszne w tym suwaku, po pierwsze jest on opisany słownie, liczbami po angielsku, więc tam mamy seven minutes and thirty four seconds, więc to są tego typu opisy.
No i ten suwak jest w stanie wyskoczyć poza granicę, czyli powiedzmy mam odcinek podcastu, który trwa tam 7 minut i ileś sekund.
Ja przejadę suwakiem dalej, jestem już na 8 minutach, a nawet 9, a nawet 10 i mogę sobie tak przewijać i przewijać i przewijać.
Oczywiście realnie to nic nie zmieni, no bo już przeleciałem za koniec odcinka, ale suwak może sobie dalej iść w górę.
No tutaj ktoś czegoś nie przewidział, natomiast suwak jest już dostępny i to jest super wiadomość, bo klikanie w przyciski, no chyba przesuwanie suwaka palcem w górę a dół jest troszkę wygodniejsze.
No to w takim razie został już ostatni pakiet newsów, zresztą Paweł od siebie, czyli nowości ze świata.
Tak jest. No świat nie próżnuje, jak to zresztą zwykle bywa i okres świąteczno-noworoczny
również pewne newsy obrodził. Po pierwsze ciekawa informacja z Europejskiej Unii Niewidomych.
No już wspominałem kiedyś, że pod przewodnictwem Jakoba Rossina z Estońskiego Związku Niewidomych
ruszyła inicjatywa Grupa Robocza na rzecz dostępności terminali płatniczych.
No i grupa ta wydała swój pierwszy zestaw rekomendacji co do tego, jak mają takie terminale być zaprojektowane, żeby być dla nas dostępne, no bo Europejska Ustawa o Dostępności się zbliża wielkimi krokami, no i do roku 2025 również i terminale płatnicze mają stać się dostępne.
No i co tutaj grupa uradziła?
Grupa uradziła, że tak na dobrą sprawę to najlepiej by było jakby sprzedawcy nie polegali tylko i wyłącznie na ekranach dotykowych, żeby zawsze gdzieś tam oferowali tą funkcję z przyciskami fizycznymi.
I tutaj ja się zastanawiam jak to jest przewidziane, bo jak wam sobie to wyobrazić, że po prostu sprzedawca ma dwa terminale na każdą okoliczność?
Gdyby przyszedł klient z dysfunkcją wzroku, no nie wiem, no bo też już pewnych zmian nie zatrzymamy i te ekrany dotykowe, zwłaszcza w formie soft-postów, czyli terminali płatniczych na smartphonach, gdzieś tam zaczną się prawdopodobnie pojawiać, więc to nie ma co tutaj jakoś specjalnie utyskiwać, ale może rekomendacja jest taka, żeby gdzieś tam w miarę możliwości nie wycofywać aż tak szybko tych klawiszowych terminali.
Co do terminali klawiszowych, są też jakieś wytyczne zaproponowane, żeby klawisze były łatwe do odróżnienia, miały odpowiedni kontrast, żeby nie polegać tylko na kolorze, jak chodzi o odróżnienie przycisków, czyli słynne pin zielony, żeby to nie był tylko zielony, ale też w inny sposób, żeby klawisz Enter był do odróżnienia.
No oczywiście piątka z oznaczeniem, z kropką, to wszystko co już znamy.
Co do ekranów dotykowych, no zasugerowano tutaj, że właśnie jeden z argumentów
dlaczego te terminale dotykowe powinny być rozważane jako gdzieś tam druga opcja,
a no bo nawet jeżeli wymyślimy najgenialniejszy screen reader
i najgenialniejszy system jakiejś obsługi, my już tu kilka takich systemów
na łamach Tyflo Przeglądu prezentowaliśmy no to zawsze będzie to jakiś interfejs,
który będzie wymagał od osoby niewidomej nauczenia się.
I to jest prawda, bo o ile gdzieś tam pewne jakieś rzeczy wspólne można wprowadzić,
to niestety już widzimy powoli po tych różnych przykładach, że każdy na swój sposób to robi
i jeden bank zrobi sobie tak, drugi bank zrobi sobie inaczej.
i tak naprawdę, no tu już chyba jest to rolą tych różnych instruktorów, nauczycieli nie do końca orientacji w przestrzeni,
ale tak czynności życia codziennego, nauczyć tych ludzi niewidomych, że no w tym banku, czy powiedzmy z tego banku terminale to zachowują się tak,
a te terminale tej firmy to tak, a dźwięki w terminalu tej firmy to są takie, a tutaj to będzie mówił, a tu będzie piszczał, a tu będzie wibrował.
Na ten moment jest zatrzęsienie, nie ma żadnej standaryzacji w tym, więc nic dziwnego, że takie rekomendacje gdzieś tam płyną, ale mamy terminale dotykowe i co począć?
Najlepiej to byłoby, gdyby na ekranach dotykowych pojawiły się dotykowe pinpad, czyli są cyfry na ekranie, ale dotykowe.
No to tutaj najlepiej gdyby albo była nakładka założona, a najlepiej jakby sam ten ekran miał jakieś takie wgłębienia na cyfry lub po prostu wyraźnie zaznaczone brzegi, żebyśmy mogli oddzielić obszar jednej cyfry od drugiej.
No i najlepiej jakby na piątce też nad tym samym sensorem, gdzie się dotyka, żeby cyfrę wprowadzić była kropka.
No jeżeli jakieś informacje są podawane gdzieś tam publicznie, czyli przez jakiś głośniczek, no to najlepiej, żeby to były informacje takie, żeby nie dało się ich zidentyfikować, no bo trochę byłoby głupio, gdyby wpisywane przez nas cyfry PIN-u, czy tam jakaś kwota transakcji, ile my tam sobie płacimy za nasze zakupy, no waliło na cały głośnik gdzieś tam, żeby wszyscy słyszeli.
No najlepiej gdyby do takich rzeczy utajnionych typu właśnie cyfry PIN-u były jakieś mechanizmy
wibracyjne stosowane, jakieś takie takty dotykowe, haptyka lub coś innego.
No to jest też dla osób głucho niewidomych bardzo, bardzo, bardzo przydatne.
Gdyby już jakiś screen reader, no to najlepiej właśnie albo przez głośnik to jakieś bardzo
albo ogólne komunikaty, które nie dają zbyt wielu informacji takich prywatnych,
albo dać możliwość aktywacji tego przez wpięcie słuchawek na jakieś popularne złącze,
albo jack 3,5 mm, albo jakiś odpowiednik typu USB-C, żeby tam był.
Co ciekawe, tutaj są już sugerowane takie rozwiązania, że jeżeli taki system rozszerzonego udźwiękowienia,
czy screen reader, czy jakieś dźwięczki, czy wibracje, jeżeli nie jest on aktywny
domyślnie, żeby dało się go aktywować przez przytrzymanie na przykład
jakiegoś przycisku dłużej albo przez nawet
deklarację w banku, że my jesteśmy osobą z niepełnosprawnością.
Ta informacja jest wprowadzana na nasze konto, jest to powiązane z naszą kartą
i my w tym momencie umieszczając kartę w terminalu lub zbliżeniowo ją
gdzieś tam podkładając, aktywujemy wtedy na czas naszej transakcji
ten tryb jakiś taki bardziej udźwiękowiony.
W przypadku terminali takich soft-posów to tutaj już jest rekomendacja, żeby zastosować jakiś czytnik ekranu,
również oczywiście pod opostrzeniami, albo jakieś słuchawki, albo jakieś ogólne komunikaty.
I żeby tu stosować jakieś konwencje, czyli przyjrzeć się temu jak wygląda nawigacja na typowych takich smartfonach,
czyli palec, machnięcie w prawo, następna opcja, machnięcie w lewo, poprzednia opcja, podwójne stuknięcie, aktywacja i tak dalej.
No i tutaj, żeby te gesty były też mniej więcej podobnie zorganizowane.
Tak samo jakiś ujednolicony gest uruchamiania tego trybu udźwiękowienia, czyli albo wpięcie słuchawek, albo włożenie karty, gdzie zadeklarowane to jest, że my potrzebujemy takiego wsparcia, albo jakiś gest typu położenie dwóch palców na ekranie.
Gdzieś tam dalej jest też rozważane, że różne są też przez banki stosowane rozwiązania,
to chyba bardziej na Francję wzrok skierowany, no bo istnieją takie rozwiązania np.
jak karta płatnicza z czytnikiem odcisków, z odciskiem palca, która zamiast pinu może
zostać zaaplikowana, albo karta, która za pomocą Bluetooth łączy się z naszą
aplikacją bankową i my możemy tutaj jakąś interakcję podjąć.
Właśnie też było powiedziane w kontekście softposów, że fajny byłby model interakcji
zakładających, że my dane z tego softposu odczytujemy np.
w aplikacji naszego banku i w aplikacji naszego banku potwierdzamy też płatność.
No zobaczymy w jaką stronę to wszystko pójdzie.
Tych rekomendacji jest 10 stron.
Mam wrażenie, że nie ma takiego idealnego rozwiązania i właśnie tutaj też w kwestii
tej naszej niezależności finansowej w podejmowaniu transakcji finansowych,
to o czym mówiliśmy przy świadczeniu wspierającym,
jest to dość mocno ograniczone przez to, jak ograniczona jest też technologia.
I tutaj głowią się wszyscy jak to zrobić i nadal te rozwiązania są bardzo takie rozbite,
jakieś nieustandaryzowane i ciężko powiedzieć czego my się tak naprawdę mamy uczyć.
czy obsługi softposu, czy działania z nakładką na terminal, czy wpinania słuchawek i słuchania komunikatów, czy słuchania na głośniku, czy piknięcia takiego czy innego.
Oczywiście będziemy informować na bieżąco, jeżeli się dowiemy o jakiejś ciekawej praktyce, natomiast nie jest to, jak widać, prosty temat do rozważania.
Przenosimy się, skoro już wspomnieliśmy o Francji, to do Francji, bo tu wydarzyły się dwie rzeczy.
Po pierwsze, rozważany jest taki pomysł, aby wycofać ulotki w lekach w formie papierowej.
No oczywiście powodem jest chęć zaoszczędzenia papieru, ekologia i tak dalej.
No i pomysł jest taki, żeby zastąpić ulotki kodem QR.
No z tego co czytałem, nie jest to jakoś bardzo źle przemyślane, bo nadal opcja papierowych ulotek by istniała na życzenie.
Czyli jeżeli np. osoba starsza, która w technologii się nie odnajduje, przyjdzie, otrzyma jakieś leki i będzie chciała tej ulotki w wersji papierowej, to ją otrzyma.
Jest to jeden ze zważanych wariantów, natomiast już tak domyślnie te leki są sprzedawane, będą sprzedawane z kodem QR.
Na razie mają to być jakieś tam próby w jakichś konkretnych miastach, że w szpitalach, że w niektórych aptekach, że coś tam.
Natomiast jeżeli ten pilotaż się sprawdzi, to francuskie apteki chcą wycofać papierowe ulotki.
Czy to dobrze, czy nie? Na pewno będzie to miało swoje jakieś minusy.
Natomiast dobrze, że pomyślano o tym wariancie, że na życzenie też będzie ta papierowa ulotka dostępna.
Również we Francji w jednym z miast ruszył pierwszy dostępny w pełni Carrefour.
I co to oznacza?
Jest oczywiście jakaś aplikacja, która ułatwia nawigację.
Różne rozwiązania dla osób właśnie niesłyszących z ograniczeniami ruchowymi.
Ale co ciekawe dla osób niewidomych w takim Carrefourze będzie brailowski plan
całego supermarketu i linie prowadzące na podłodze.
No ja tu jestem ciekaw, no OK, mogę nawigować po supermarkecie.
Powiedzmy nawet, że umówiliby się, że w tym supermarkecie byłyby te, no powiedzmy,
rzeczy na tych samych półkach, no ale skąd ja mam wiedzieć, że chcę, że podejmuję konkretny
produkt, tak, że ja biorę konkretny produkt, ten, o który mi chodzi z półki.
Czy tu pomoże jakaś aplikacja?
Tego do końca nie wiem, natomiast, no, będzie coś się działo.
bo tutaj też Francja się stara, bo niedługo ma być, mają być Mistrzostwa Olimpijskie i też Paraolimpiada, to już w przyszłym roku, więc, znaczy nawet w tym roku, nawet a nie w przyszłym, więc no tutaj Paryż i Francja się starają i do 2025 roku ma już w 10 sklepach Carrefour w całej Francji i w 50 sklepach wielobranżowych
w Paryżu tego typu system się pojawić, więc no ciekawe czy to też przeniknie do Polski, czy polskie
karfury też zostaną tak wyposażone, tak przeremontowane.
No nie wiem, jakoś zawsze jestem ciekaw, kiedy jakaś firma, która no nie tylko na swoim rodzimym
rynku funkcjonuje, a też i u nas jakieś rozwiązanie wprowadza, no to czy my też się go doczekamy.
Za to, jeżeli planowalibyście wakacje, to warto rozważyć Fuerteventure, wyspy kanaryjskie, bo tam już kilka hoteli doczekało się systemu Lazario, dzięki czemu właśnie dzięki aplikacji Lazario możliwa będzie samodzielna nawigacja po hotelu, interakcja z różnymi urządzeniami, a także przeczytanie sobie menu w restauracji, zapoznanie się z tym menu.
No też chyba obsługa hotelu została przeszkolona na okoliczność turystów z dysfunkcjami różnymi, bo to nie tylko dysfunkcje wzroku, ale różne niepełnosprawności.
No więc podrzucam link w komentarzu, tam jest lista obiektów, które na ten moment Lazario wspierają.
Więc jeżeli chcielibyście zakosztować przygody w hotelu, w którym w pełni możecie się poruszać samodzielnie, no to Fuerteventura się poleca.
No i na sam koniec moje osobiste doświadczenie z ostatniej chwili, bo z dziś,
a no bo byłem sobie w Wiedniu u okulisty i może to jest kwestia tego, że to okulista,
a może to jest kwestia tego, że w pobliżu w miarę Związku Niewidomych, ale spotkałem
się z dostępnym systemem informowania o tym, że jest nasza kolej, że nasze nazwisko
padło. No i właśnie, nazwisko.
Siedzimy sobie w poczekalni, zarejestrowaliśmy się.
No i co chwilę słyszymy, pam, pam, pam, pan Paweł Masarczyk,
proszony do pokoju numer 8, czytane acapellą,
Julią czy którąś tam niemiecką acapellą, syntezatorem.
Oczywiście Paweł Masakcyk, bo jakżeby inaczej.
Natomiast, no właśnie, tak mi się to jakoś kłóci tutaj z prywatnością
i z RODO, że tutaj system syntezy wywrzaskuje na cały regulator,
bo te głośniki są też dość głośne.
imiona i nazwiska poszczególnych pacjentów.
Jeszcze my nie widzimy, ale osoby widzące widzą, która osoba wstaje, więc można sobie od razu imię i nazwisko
powiązać z daną osobą i nie wydaje mi się, żeby ten system był taki sprawiedliwy, jak chodzi o zachowanie naszej
prywatności. Dużo ciekawszy byłby tu system, myślę, gdyby przydzielano nam po prostu numerki i zaraz po naszej
rejestracji otrzymujemy konkretny numerek, dowiadujemy się jaki to numer jest i czekamy,
aż nasz numerek zostanie wymieniony.
No ale i tak myślę, że super ruch, że jakkolwiek jest to udźwiękowione i osoba
niewidoma wie o tym, że jest już jej kolej.
W ogóle ostatnio też w jednym z budynków, w których miałem okazję być, spotkałem się z
udźwiękowionym systemem wind, bo teraz się okazuje, że windy to już nie są takie proste
windy, że naciskamy przycisk, ale w takich wielkich wieżowcach
korporacyjnych mamy na przykład panel dotykowy, na którym wybieramy,
na które więtro my chcemy iść i najbliższa wolna winda się nam otwiera i to jest
pokazane na tym ekranie, z której windy powinniśmy skorzystać i widziałem już
taką implementację, gdzie jest to udźwiękowione i po prostu odpowiednio gdzieś tam
naciskamy taki trójkątny przycisk, przytrzymujemy palec na panelu i słyszymy
wymieniane różne piętra, tam trzynaste, dwunaste, jedenaste, dziesiąte.
Okej, dziesiąte chcemy, puszczamy i ona mówi dziesiąte winda numer ileś tam.
Skąd mamy wiedzieć, która to winda, to jeszcze niestety nie rozpracowałem.
Natomiast też słychać, gdzie te drzwi się otwierają, więc można podejść, siąść i
taka winda nas zabierze na określone piętro.
No więc fajnie, że o tym się myśli i fajnie, że takie rozwiązania są wprowadzane.
To może jeszcze się podłączę, jeśli chodzi o właśnie takie systemy kolejkowe, że tak powiem, bo w Stanach Zjednoczonych niedawno była taka sytuacja, że jakaś jedna z takich dużych sieciowych przychodni została pozwana, bo mieli taki niedostępny system, gdzie właśnie sobie braliśmy numerek, do którego tam trzeba było też jakieś inne informacje wprowadzić, co ciekawe, ten system działał na iPadzie, ale oczywiście ten iPad był jakoś tam ukryty tak, że tam nawet nie było widocznego tego przycisku,
początek, więc tam nie dało się nic nacisnąć, no i tutaj, no, można by zaimplementować
voice overa, coś w tym stylu.
Na to się nie zdecydowano.
Zdecydowano się na coś takiego, że zamiast wypełniając ten formularz, podchodząc do
tego kiosku, po prostu naciskamy na ekran i trzymamy palec przez kilka sekund.
To dodaje nas do kolejki jako osobę niepełnosprawną, która skorzystała z tej
funkcji dostępności i to no troszeczkę mam podobnie mieszane uczucia do tego co ty przed chwilą mówiłeś,
tylko że z tym, że tam masz sytuację, że mówi twoje imię i nazwisko, a tutaj jest sytuacja, a teraz
osoba niepełnosprawna, która nacisnęła przycisk dla osoby niepełnosprawnej jest proszona, więc to też
jeśli, powiedzmy, jesteśmy sami.
A jeżeli ta osoba jest więcej?
Tego właśnie nie wiem, między innymi oto chyba był ten pozew, oni tak to próbowali rozwiązać, tam
chyba ludzie chcieli coś więcej, natomiast on stwierdził, że to było wystarczające, więc tak to się zakończyło.
No, ale to jest też dobre pytanie, może też teraz są jakieś numerki wtedy, no nie wiem.
Rozumiem, że najczęściej z takich systemów korzysta osoba z niepełnosprawnością widoczną, tak na przykład jak my.
Więc to po nas jakby widać, że osoba z niepełnosprawnością, więc wiem, czy to jest aż takie naruszenie.
No nie wiem, mniej więcej tak to w Stanach zostało gdzieś rozwiązane.
Ciekawe. Może przez smartfony byłaby też jakaś opcja, ale nie każdy ma smartfon często do lekarza. Dość dużą grupą odbiorców są osoby starsze, więc znowu kolejna taka sytuacja, gdzie różne praktyki ciekawe można zastosować. Tutaj w Wiedniu jest taka.
No tak, no to w takim razie chyba, jeśli tak dobrze patrzę, to chyba wszystko jeżeli chodzi o nasze tyflowieści, co oczywiście nie znaczy, że to koniec newsów w ogóle w tyfloprzeglądzie.
Jeszcze przed nami technikalia, tutaj kilka newsów jeszcze mamy.
To może zacznijmy sobie od początku, czyli od WordPad i Voice Access, czyli głosy w narratorze. Nie. Tak?
WordPad, Voice Access i głosy w narratorze, czyli co?
A, dobrze, ten przecinek jest. Dobrze.
Tak, tam jest przecinek.
Jeszcze taka zaszłość ze staropolskiej pisowni, przecinek.
Dobra, w każdym razie, to jest news o tym, co jest nowego w Windows Insider, w tych kopiach testerskich.
No i cóż, ostatnio pojawiła się wersja Canary nowa z końcówką 20 ze stycznia i w niej jest kilka takich dostępnościowych rzeczy.
No to co mnie martwi najbardziej to jest to, że w świeżo zainstalowanych Windowsach nie będzie już Wordpada.
Zupełnie będzie usunięta ta aplikacja, nie będzie można jej używać.
A w sumie szkoda, bo ona się przydawała do otwierania jakichś takich bardziej sformatowanych dokumentów.
A też jeżeli ktoś Worda nie miał, no to no nie, no wiadomo, że zawsze jest jakiś Open Office czy Libre Office.
No ale jednak według mnie nie ma sensu tego usłyszeć, bo to były leciutkie, to dużo miejsca nie zajmowało, no ale decyzje są takie, a nie inne.
Kolejna rzecz jest taka, że rozwija się Voice Access i ja zrobiłam kiedyś podcast o Voice Accessie jako o takiej ciekawostce.
No nadal dla nas to jest ciekawostka, bo język polski nie został wprowadzony, zostało wprowadzonych kilka innych języków.
Jest ich teraz osiem chyba.
Przy czym to jest chyba z trzy warianty angielskiego, tam dwa hiszpańskiego i tak dalej, więc to też, to też tak.
Nie aż tak znowu bardzo inkluzywnie.
Natomiast to co głównie się zmieniło według mnie to jest to, że pomimo braku angielskiego systemu można korzystać po angielsku na polskim systemie, już nie trzeba się przełączać.
No, ale nadal te wszystkie komendy, które są dostępne, przynajmniej z tego tutoriala Microsoftu, nie wzbudziły jakiegoś mojego entuzjazmu.
No, w większości to są rzeczy, które bez problemu możemy zrobić, a też nie działa to zawsze, nie działa to tak, jakby się chciało.
No ale nie wiem, no nie ma żadnego jakiegoś przeciągania, upuszczania, jakiegoś klikania w niedostępne rzeczy na ten moment.
Więc raczej nic, nic tutaj nas nie, no nic, nic na mnie umyka przez to, że tego polskiego nie ma.
No i też nadal nie ma tego, o czym chyba mówiłam w tym podcastie, że nie ma żadnego dźwięku na wybudzenie się voice accessa.
czyli nawet jak powiem tą formułkę tam
Voice Access Wake Up
no to nawet jeżeli ja zauważę pod przyciskiem
że jest mikrofon aktywny
no to nie mam żadnego dźwiękowego bodźca
że już mogę zacząć mówić.
I to jest…
no i w Narazdorze są
teraz przy pobieraniu nowych głosów
jest możliwość odsłuchania próbek
Chyba nawet poszerzyła się nieco lista naturalnych głosów, ale nadal nie ma jeszcze polskiego.
A teraz notatnik, jakiś ciekawy notatnik, Heynote.
Zgadza się, Heynote, bardzo prosta aplikacja, ale czasem może się nam przydać z kilku powodów.
W ogóle, jeżeli chodzi o aplikację, to jest ona do pobrania ze strony heynote.com.
Pobieramy sobie instalator, instalacja jest bardzo prosta, aplikacja ma też auto-updater, który będzie dbał o jej aktualność.
I co to właściwie ten Heynote jest?
To jest notatnik, bo kiedy otworzymy sobie te aplikacje, to mamy po prostu jedno wielkie pole edycji do wprowadzania tekstu.
To jest aplikacja napisana w elektronie, więc jednym się będzie podobać, innym niekoniecznie.
Natomiast co jest w niej takiego charakterystycznego?
Ano dwie rzeczy. Po pierwsze, że tu nawet nie ma opcji zapisz, dlatego, że to się wszystko zapisuje automatycznie, więc ja sobie otwieram w tym momencie aplikację Heynote i wracam po prostu do tego stanu sprzed jej zamknięcia, o nic się nie muszę martwić.
Ale to nie wszystko. Dodatkowo takim mocnym punktem tej aplikacji są bloki, bo to pole edycji, które nam się otwiera, możemy sobie dzielić na bloki.
Po prostu wciskamy Ctrl Enter i w tym miejscu, gdzie wciśniemy ten Ctrl Enter, pojawia się nowy blok.
I w tym bloku możemy wstawiać jakąś tam wartość tekstową, możemy sobie coś tam wpisać.
I będzie to traktowane jako taka pojedyncza kolejna instancja.
Co ważne, tu może być to wiele wierszy tekstu, a potem jak sobie wciśniemy Ctrl A, Ctrl C,
to skopiujemy tylko ten jeden konkretny blok, gdzie jest nasz kursor.
I to jest fajne. Minusem tego jest natomiast to, że podział tych bloków nie jest w żaden sposób oznajmiany.
Więc my tak naprawdę jak sobie tych bloków narobimy dużo, to w pewnym momencie po prostu nie wiemy, gdzie jesteśmy,
jaki to jest blok, co jest w zawartości tego bloku, więc musimy to przynajmniej na razie po prostu pamiętać.
To nie jest wszystko, więc nie wiem, czy do tego byś się chciał odnieść, czy?
To znaczy, no w jakimś sensie, bo na razie w zasadzie wymieniasz te rzeczy, które są w jakimś sensie w notatniku, to znaczy notatnik też przecież ostatnio nas zostawia tam, gdzie skończyliśmy.
Okej, bloków jako takich nie ma, ale karty już jak najbardziej tak i w tych kartach można sobie, te karty można sobie potraktować jako coś w rodzaju bloków.
No i tutaj przechodząc po kolejnych kartach, no wiadomo co to jest, bo tam pierwsza linia jest przecież nazwą dokumentu, trochę taka koncepcja urdowska.
Zgadza się, ale jest jeszcze jedna rzecz, bo to nie jest wszystko.
Jest jakieś tam autoformatowanie, które nam tak naprawdę nie daje nic, bo możemy sobie wybrać jak ma być ten tekst formatowany jako jakie tam konkretnie znaczniki, czy markdown, czy xml, czy cokolwiek innego, ale to nie jest istotne.
Istotne jest coś innego, mianowicie to, że bloki konkretne możemy oznaczać jako bloki matematyczne i możemy tam dokonywać obliczeń,
więc możemy sobie na przykład w jednym bloku coś powiedzmy pisać, w bloku poniżej możemy sobie przeprowadzać jakieś obliczenia
i te rzeczy wszystkie między sobą kopiować.
Po prostu tworzymy sobie nowy blok,
oznaczamy ten blok jako ten blok matematyczny
i to akurat, jak dobrze pamiętam, nie było
takie najprostsze oznaczenie tego bloku, ale udała mi się ta sztuka,
kiedy się tą aplikacją bawiłem
i w tym momencie po prostu
wpisuję sobie tam jakieś działanie, a te działania
mogą być nawet na jakichś zmiennych,
jakieś funkcje, tam też to narzędzie obsługuje, więc nie takie bardzo proste, ale możemy to wykorzystywać jako prosty kalkulator.
I powiem szczerze, to już mi się ileś razy przydało, dlatego że mam parę takich rzeczy i parę takich sytuacji, kiedy muszę sobie coś tam policzyć.
I dla mnie na przykład, no jest istną po prostu zmorą po tym zamykanie, bo ja tu coś robię i tu sobie otwieram kalkulator, żeby coś policzyć, ten Windowsowy, potem tu sobie otwieram, bo coś jeszcze chcę policzyć, a tak to mogę sobie stworzyć tu kilka tych bloków w tym Heynote’cie i liczyć to, co mi jest potrzebne i to mi się naprawdę bardzo fajnie sprawdza, a do tego też możliwość tworzenia tych bloków tekstowych.
No więc rzeczywiście jakby notatnik jeszcze pozwalał wykonywać obliczenia w tych plikach, jakby na przykład, no nie wiem, tam dajmy na to wpisujemy sobie, tak jak w arkuszu kalkulacyjnym, tak, w Excelu, równa się i tu, co ma tam zrobić, to dodaj to, podziel, pomnóż i tak dalej i tak dalej, to byłoby fajne, ale na razie nie ma takiej możliwości, więc ten hejnot, no, jakąś tam wartość dodaną dla nas przedstawiać.
Może jeżeli komuś się opis spodobał to zachęcam do testów, ja od paru tygodni używam.
No fajnie, to może przejdźmy teraz do tego newsa, który miał swego rodzaju fall start, czyli tej aplikacji na iPhona do rozczłonkowywania muzyki na jakieś elementy składowe.
To zdaje się, że nawet nie jest jakaś bardzo nowa aplikacja, ale co, to jak rozumiem Paweł to testowałeś, albo nie wiem.
Tak, testowałem, testowałem. Moises się to nazywa, nie wiem, Moises, Moises, czytamy jakoś tak. I aplikacja prawdopodobnie bazuje na którymś z tych algorytmów znanych, czyli UVR albo ten drugi jakiś tam audio stream.
Demux pewnie czy coś.
Demux, tak.
Tak, o tym już słyszałem, chociaż nie wiem, czy oni czegoś nie mieli, ale nie wiem.
Efekty są podobne, no ja coś próbowałem rozdzielić, to właśnie gdzieś tam na tej ścieżce wokalnej jakieś elementy jeszcze tego instrumentalnego takie dość wyraźne czasem zostawały, w jakimś jednym czy dwóch miejscach tak bardzo wyraźnie, ale no rozpoznałem, że to któryś z tych znanych mechanizmów.
No co, ładujemy utwór i zasadniczo możemy go rozdzielić na cztery ścieżki, albo na wokal i instrumenty, albo na wokal, instrumenty, perkusję i chyba bas.
Jest jeszcze kilka innych trybów i w ogóle są jakieś limity, ale można to odblokować
wykupując jak zwykle subskrypcje i to jest z tego co pamiętam też jakieś 30 złotych na miesiąc
a rocznie wychodzi jakieś 200, bo oni tam to jakoś tak stosują.
Także no tak to wygląda, taką mamy aplikację, można załadować sobie z aplikacji pliki
dowolny utwór
lub z naszej
biblioteki muzycznej, jeżeli coś
sobie przystaliśmy do muzyki
zsynchronizowaliśmy.
No i można potem z tym pracować. Tam są pewne
problemy z etykietami, bo
na przykład suwaki do regulacji głośności
dla poszczególnych ścieżek
niestety nie są zaetykietowane,
więc trzeba troszeczkę na wyczucie tam
się tym pobawić, zobaczyć czy
otrzymamy ten efekt, który
chcieliśmy. Natomiast
Poza tym z aplikacją po prostu ogólnie da się pracować.
Tymczasem mamy słuchacza na linii, który się troszeczkę naczekał, ale już odbieramy. Dobry wieczór Bartku.
Witam Was serdecznie. Rzeczywiście się troszeczkę naczekałem.
Na początek chciałbym Was przeprosić za tą ostatnią kropkę, którą umieściłem w swojej wiadomości jeszcze w starym roku jak się nagrywałem.
Widzicie, nie jestem przyzwyczajony do nagrywania wiadomości głosowych na Whatsappie i dlatego ta kropka, że tak powiem, tak się umieściła mi w tej wiadomości.
Spokojnie. Ja zauważyłem, że tak się niektórym zdarza, jak się pomylą, czy nagrywają, czy dyktują. Jak dużo się głosem gdzieś tam korzysta z tego, to tak może być.
Ja kiedyś słyszałem osobę, która
podyktowała całą w ogóle wiadomość.
Kiedyś jeszcze jak tak zaczynało się te wiadomości głosowe,
jeszcze Whatsapp tego nie miał,
to pewna znajoma po prostu takim sztywnym głosem
jakby mówiła do Siri,
dyktowała tę wiadomość głosową
łącznie z całą interpunkcją.
Aha, to brzmiało to troszeczkę tak,
jakby to była synteza, tak Paweł?
Tak, tak, tak.
Więc spokojnie, nie ma się co oszczędzić.
Nie, no ale kultura tego wymaga.
Dzwonąc na początku do was, myślałem, że tylko z jednym tematem,
ale jak tak długo czekałem, czekałem na linii,
to pomyślałem, że też odniosę się do tych tematów,
które usłyszałem tutaj przez słuchawkę swojego telefonu.
Więc może zacznę od tych terminali, o których ty, Paweł, mówiłeś.
Tak naprawdę na tą chwilę to nie widzę takiego dobrego zastosowania
dla osób niewidomych, jeżeli chodzi o terminale dotykowe,
bo patrzę, jeżeli chodzi o podejście w cudzysłowie oczywiście osób pełnosprawnych
do osób niewidomych. Ja chociażby dając iPhone’a, żeby ktoś mi na przykład
sprawdził w jakiejś aplikacji jakąś promocję, czy coś skorygował,
to sam automatycznie muszę włączać i wyłączać voice overa,
Więc tutaj w tym momencie, a jeżeli mówiliśmy o słuchawkach, to nie wiem czy też producentom by się chciało w to bawić, bo to są dodatkowe koszty, a patrzymy jak niestety do tego konsumenci podchodzą.
To znaczy, wiesz co, to były rekomendacje.
Prawdopodobnie słuchawki się tyczyły tych terminali, gdzie to można by umieścić.
Jedynym jedynym rozwiązaniem niedostępnym dla wszystkich
oczywiście bo podkreślmy nie każdy ma smartfona prawda.
Znam osoby a nawet osobę która niedługo będzie korzystała
po raz pierwszy najprawdopodobniej z udźwiękowego telefonu i to będzie
Blind Cell Classic 2.
No tak.
I o ile tam się orientuje nie można podpiąć karty prawda.
No nie ma NFC w ogóle.
No właśnie, no nie, dwójka chyba też nie ma z tego co, bo jedynka na pewno nie miała.
Sam nie korzystałem, ale miałem w ręku. I teraz tak, no jeżeli chodzi właśnie
o podpięcie karty do telefonu, no to tylko to by tyczyło się osób, które właśnie
posiadają smartfona, iPhony czy Androidy, prawda, a tutaj takie osoby jakby miały.
Więc tutaj wydaje mi się, że troszeczkę jeszcze sobie poczekamy na dostępność tych terminali, jeżeli chodzi o osoby niewidome.
Bo tutaj implementacja tego udźwiękowania, de facto ona mogłaby być harmonijna, nazwijmy to w ten sposób,
ale też takie osoby muszą najpierw wiedzieć, jak w ogóle z takiej mowy korzystać, jeżeli mówimy o konsumentach płacących.
A z tym niestety to bywa różnie.
Coś będzie musiało być ostatecznie zrobione, bo jest to wymóg ustawy unijnej, więc będą musieli się jakoś dostosować.
Pytanie, która opcja zwycięży przemysłowo i czy któraśkolwiek zwycięży.
Tak naprawdę, jeżeli chodzi o wdrożenie tego, to wydaje mi się, że powinny tutaj, chociaż to też wiąże się z dużymi kosztami, ale wydaje mi się, że to będzie dość odpowiednie i najbardziej korzystne, żeby po prostu przeprowadzić konsultacje.
Tylko też pojawia się pytanie, ile osób niewidomych w takich konsultacjach będzie chciało wziąć udział.
Czy wiesz, to są też wielkie firmy, umówmy się jakieś, czy Worldline, czy inne, więc tutaj podejrzewam, że jakaś gratyfikacja finansowa, chociaż mała, tak, jakiś bon.
Bo jeżeli rzeczywiście to są wymogi unijne, będą wymogi unijne tak samo jak teraz, tu nie wiem czy to weszło teraz od 1 stycznia, czy ma wejść na dniach właśnie z tym USBC, że teraz wszystkie urządzenia mają mieć to gniazdo, prawda, nawet iPhony.
I teraz jeżeli np. mówimy o bankomatach. Bankomaty są dostosowane jak są, ale nie są dostosowane tak naprawdę w pełni.
No bo podstawowe funkcje wypłacić 50 zł i inną gotówkę owszem, ale wpłacić gotówkę to już nie jest taka prosta sprawa, żeby to zrobić za pomocą samego udźwiękowienia.
De facto istnieje opcja wpłacenia blikiem, ale to też nie jest dostępne.
Mhm. Sam jestem ciekaw jakby podeszli do tego sami pracownicy banku.
Może kiedyś skuszę się i zgłoszę się z taką prośbą do banku czy
któryś z konsultantów w mojej okolicy nie podjąłby się takiego że tak powiem
treningu nie bardziej szkolenia może ale szkolenia oczywiście w cudzysłowie.
Daj znać jak Ci poszła rozmowa, bo to są zawsze ciekawe tematy.
Tak, na razie to, szczerze powiedziawszy, to są daleko pojęte tematy, nie wiadomo kiedy do tego dojdzie.
Sprawa druga, tutaj fajnie, że Francja poszła właśnie w tym kierunku dostępności, jeżeli chodzi o dostosowanie sklepów,
chociażby o utrzymanie tej prostej linii, bo wydaje mi się,
że dla osób niewidomych w tego typu obiektach to jest jedna
z najważniejszych rzeczy i wydaje mi się, że tego typu zastosowanie
mogłoby zostać wprowadzone u nas w Polsce w galeriach handlowych,
bo powiedzmy sobie szczerze, te obiekty są dla nas w ogóle
wykluczone z dostępności. Nie wiem, co wy o tym sądzicie.
To jest też ten fenomen, którego my nie mamy tutaj w Polsce, że właśnie Carrefour czy Auchan, ja widziałem już takie Auchan w Luksemburgu, to nie jest sklep, taki supermarket, jak my mamy, tylko to jest cała galeria handlowa i tam tych sklepów jest troszkę więcej w ramach Auchan, nie wiem czy ten Carrefour…
To znaczy nie to, że w ogóle nie mamy, bez przesady, no u nas właśnie jest taki Oshon.
Tak, w sensie, że Oshon jest firmą, jest marką jakby galeryjną, o to mi chodziło, że nie wiem.
No rozumiem, u nas w Bydgoszczy jest takie coś.
I to jest jakby Oshon, ale oprócz Oshon rzeczywiście jest tych sklepów jeszcze ileś jakby w takim samym tym czymś.
No właśnie, to jest to coś podobnego, o czym Tomku mówisz, że jest budynek o nazwie Oshon,
czyli to się uznaje jako galeria oszą, a w środku są sklepy różnych marek.
Jasne.
No i właśnie o taką dostępność chociażby tutaj chodzi, no bo jeżeli chodzi o produkty,
to tutaj tak naprawdę to nie widzę dobrego zastosowania.
Najlepszym zastosowaniem po prostu byłby moim zdaniem po prostu żywy człowiek.
Ale to wiadomo, że też niestety są koszty, a tutaj możemy wymyślać i wymyślać tak naprawdę.
I jeszcze tak króciutko podsumowując w tematach bieżących na sam koniec chciałem tylko powiedzieć dwa słowa jeżeli chodzi o temat tego uzupełniającego świadczenia, o którym mówiliście.
Tak patrząc, no to nie obrażcie się oczywiście, jak to powiem na głos,
ale wydaje mi się, że taki ktoś, który powinien dostać 100% tego świadczenia,
bo słyszałem, że tam chyba jest od 40% do 220% tej najniższej renty socjalnej.
Nie wiem, czy w radiu to chyba słyszałem bodajże.
no to nie obrażając się, powinniśmy być roślinami tak naprawdę.
No bo tutaj te pytania to brzmią, nazwijmy wprost, powiedzmy dość debilnie.
No ale to w jakimś sensie właśnie o to chodziło, tak? Żeby te osoby, które
rzeczywiście mają zerowe szanse na cokolwiek, żeby zyskały rzeczywiście
największe wsparcie.
Ale patrząc tak w rzeczywistości de facto, jeżeli ktoś ma stopień powiedzmy znaczny, a porusza się bez białej laski, no to przepraszam bardzo, na co ten stopień znaczny tak naprawdę można powiedzieć?
Ale widzisz, no tu jest, no, ale tu jest jakby dwie różne osobne rzeczy. Pierwszy to jest właśnie te stopnie nasze nieszczęsne, które są tylko trzy. Trzy stopnie niepewnosprawności i tyle. A osobną właśnie kwestią są teraz te punkty, które jakoś tam mają to wszystko różnicować.
Tylko ja z własnej autopsji wiem, kto tak naprawdę zasiada.
To ma być taka zindywidualizowalna ocena teraz tak naprawdę.
Z własnej autopsji wiem, kto w takich komisjach tak naprawdę zasiada.
To są specjaliści nie od tej dziedziny, z którą ty masz problemy.
Więc to są osoby, które tak naprawdę na temacie się nie znają.
Bartku, no niestety nie jest to rzadkością i to jest akurat prawda,
Natomiast tak naprawdę to przypuszczam, że dopiero będziemy mogli obserwować efekt tego wszystkiego za jakiś czas, bo pewnie te komisje dopiero teraz ruszą.
I zobaczymy.
Teraz dopiero zaczną składać ludzie wnioski tak naprawdę.
Tak, teraz dopiero zaczynają składać ludzie wnioski, no i pewnie za jakiś czas zaczną spływać na różnych grupach informacje, jak to wszystko się wydarzyło.
I jakieś relacje też.
Może znajdą się tacy chętni, którzy podejmą to ryzyko tak naprawdę, bo patrząc na te wytyczne, czyli na te pytania, no to może być różnie.
O ile mi wiadomo, jakby ryzyka o tyle nie ma, w jakimś sensie przynajmniej, że to nie jest tak, że jeżeli nie skorzystamy z tego świadczenia, to nie, stracimy rentę.
Ale jeżeli złożymy i nic nie dostaniemy, to też jej nie tracimy, jak rozumiem, tak?
No tak, to znaczy jedyne co można stracić, ale to chyba w momencie, kiedy się to świadczenie dostanie, to jest to świadczenie pielęgnacyjne dla opiekunów, które w tej chwili jest.
No właśnie i tutaj ta pułapka może być właśnie dla takich, no powiedzmy sobie wprost osób jak ja, bo niestety tutaj moim opiekunem jest mama i ona właśnie takie świadczenie dostaje.
Tak, to w tym momencie rzeczywiście nie wiem dokładnie jak to wygląda, jak ty nie dostaniesz tego świadczenia, ale jeżeli ty dostaniesz to świadczenie, no to wtedy…
Bo ono z automatu też nie traci, tak?
Tak, to z automatu wtedy traci
pielęgnacyjny, doświadczenie pielęgnacyjne.
To też jakby warto wiedzieć, że jeżeli
są tutaj ludzie, którzy
mają taką sytuację, no to
to zostanie utracone.
Okej, ale tutaj na sam koniec mam jeszcze dobrą
wiadomość, de facto nie mam jeszcze w głowie
szczegółów, ale
tak, przedwczoraj chyba
Znajomy na Messengerze przesłał mi link, w którym była umieszczona informacja,
że zostały zwiększone dofinansowania na białe laski.
Tyle, że nie chcę tutaj fake newsa wprowadzać, ale wydaje mi się,
że zostało tutaj dość wyszczególnione, czy to jest laska sygnalizacyjna,
czy laska orientacyjna i wtedy od tego będzie
zależeć dofinansowanie, ale na pewno zwiększyło się powyżej stu złotych.
Tak, ja w ogóle o tym miałem
pisać tu w notatkach, ale mi to umknęło.
Rzeczywiście, nie pamiętam szczegółów.
Na pewno na jakiś typ lasek jest dofinansowanie zdaje się do 250 złotych.
Tak, coś z 240 czy chyba, a i to są chyba te orientacyjne chyba.
Najprawdopodobniej.
Natomiast co ciekawe jest również dofinansowanie do końcówek nalazki, do 60 zł.
Też to słyszałem, powiedzmy, ale z innych źródeł, właśnie tutaj od pracownic sklepu medycznego,
że też takie dofinansowanie ma być.
Tak i z tego co wiem w tym roku rzeczywiście to już jest i to działa,
ale rzeczywiście może spróbuję do przeszłej audycji sprawdzić dokładnie jak to wygląda.
No jakie laski? Ile?
Może teraz, zaraz sprawdzę, spróbuję.
Największą zagwozdkę moim zdaniem to będą mieli lekarze wystawiając zlecenia na białą laskę.
Bo nie wiem czy w systemie na daną osobę jest napisane jakiej laski dana osoba po prostu używa.
Nie wiem, orientujecie się może w tym?
Nie wiem szczerze mówiąc.
No bo do tej pory było tak, że po prostu lekarz rodzinny nawet wystawiał zlecenie.
Ty szedłeś z tym zleceniem do danego sklepu medycznego.
Ściągałeś, mówiąc kolokwialnie, kija.
Dopłacałeś ewentualną różnicę i po bólu.
I teraz właśnie jak to będzie wyglądać w ten sposób.
No to podejrzewam, że to wszystko zobaczymy jak ktoś to rozpozna bojem.
No ja tak naprawdę mogę się przyznać, że dopiero mnie to spotka chyba dopiero w kwietniu,
bo niestety mija wtedy karencja półroczna od poprzedniej tak zwanej umowy,
więc dopiero wtedy będę mógł się przekonać jak tak naprawdę to dofinansowanie funkcjonuje.
Okej, to byłoby tyle jeżeli chodzi o tematy bieżące,
a jeszcze chciałbym zapytać o temat taki poboczny,
który no niestety ostatnio mi się urodził i mianowicie
tyczy się Apple’a i dodawania własnych dzwonków przez iTunes.
No jak zwykle to z moim iPhone’em bywa, miejmy nadzieję,
że już go niedługo oddam na gwarancję, ale dzwonek był gotowy,
iPhone został zaakceptowany przez komputer,
czyli można powiedzieć, że synchronizacja przebiegła pomyślnie,
ale tego dzwonka nie mogłem dodać.
Bo tabulatorem przeniosłem się na to pole, w które się ten plik wkleja
i po Control V była cisza.
Czy on miał nie mniej niż, Boże, nie więcej niż 40 sekund?
No właśnie mogło tak być, ale Paweł zastanawia mnie jedna rzecz, że te dzwonki, które są widziane na iPhone nie są widziane w iTunesie.
Te oczywiście dodawane przeze mnie.
Oj, to nie wiem. Ja już dawno nie lubiłem iTunesem, ja lubię bardzo tą opcję z GarageBandem.
I teraz powiem wprost, że zaryzykuję to co teraz powiem, ale dzwoniąc na infolinię Apple’a przedstawiając sytuację usłyszałem to, że ja łamie prawo.
Ale w jaki sposób, że łamie?
No właśnie, że chcąc dodawać własne dzwonki łamie prawo, bo od tego jest sklep.
A nie pochwaliłeś się gdzieś tam przypadkiem, że to jakiś utworek muzyczny coś tam?
Nie, powiedziałem tylko, że to jest mój własny dzwonek i tyle.
To bardzo ciekawa interpretacja.
O, chyba właśnie jakieś tu nastąpiło rozłączenie z Bartkiem, albo jakaś przerwa.
A ja znalazłem w międzyczasie te dofinansowanie do Lasek.
Okej, no to jeszcze uzupełnijmy to.
I tu jest w ogóle jedna taka dziwna rzecz, to znaczy, podpórcza składana z odblaskami, refundacja 100%, z limitu 140 zł.
Czyli rozumiem, że tu chodzi o tą sygnalizacyjną.
Orientacyjna nieskładana z odblaskami, z wyłączywością wymiany końcówek, refundacja 100%, z limitu 200 zł.
No dobrze, i teraz uwaga, uwaga, orientacyjna nieskładana z odblaskami, minimum trzyczęściowa z możliwością wymiany końcówek, refundacja 100% z limitu 250 zł, trzyczęściowa nieskładana, nie wiem o co chodzi, no i sygnalizacyjna minimum pięcioczęściowa refundacja 100% z limitu 220 zł.
Nowością jest również wprowadzenie refundacji na wymienną końcówkę do Białej Laski, gdzie refundacja została rozdzielona w następujący sposób. Inna niż obrotowa i teraz uwaga, uwaga, też refundacja 100% z limitu 220 zł.
Obrotowa refundacja 100%, limitu 220 zł. Nie wiem, dziwne to jest. Obrotowe i nieobrotowe. Ale za końcówkę 220 zł to jest coś dziwnego. Nie wiem. Coś tu jest dziwnego. Nie wiem o co chodzi. Być może jest jakiś problem.
No dobrze, mamy pytania jeszcze od naszych słuchaczy, się pojawiło tu kilka rzeczy.
Od Mata, czy da się do aplikacji Radiobox na iPhonie dodać własny link, żeby słuchać na przykład Tyflo Podcastu?
Online Radiobox.
Online Radiobox, tam zdaje się jest tylko katalog.
Tak, tam chyba nie ma.
Też mi się tak wydaje.
Mateusz jeszcze tu do nas napisał.
Witajcie, a propos terminali. Czy myślicie, że dużo osób będzie korzystało z tradycyjnych kart?
Według mnie obecnie większość transakcji robi się telefonem lub zegarkiem, gdzie PIN nie jest wymagany.
No, jest taki trend, aczkolwiek ciekawe jak to w takich globalnych statystykach.
Wszyscy, to znaczy pamiętajmy o tym, że też podejmujemy często, może nie często, ale w życiu podejmujemy transakcje przekraczające te limity bezstykowe. I ten PIN w końcu trzeba będzie wpisać.
Tylko, że na telefonach to zdaje się, że to tak nie działa. Ja już od u-hu-hu, ja nie pamiętam w ogóle kiedy ja płaciłem kartą.
Ja chyba, że za dwa lata płacę telefonem, najróżniejsze te transakcje tam mi przechodzą przez tę kartę.
I rzeczywiście, ja nie pamiętam kiedy wpisywałem PIN.
Ale to też nie wszyscy lubią smartfony, nie wszyscy mają smartfony, nie wszyscy chcą.
Nie, oczywiście.
Oczywiście, natomiast bardziej chodzi mi o globalny jakiś taki trend.
Pawle, mikrofon chyba znowu ci gdzieś uciekł?
Nie, mam przy sobie.
To Tomek jest głośny.
To ja się ściszę.
Aczkolwiek to, no właśnie, taka moja naprawdę trochę porada dla ludzi, którzy trochę tak nie bardzo chcą tych smartfonów, nie bardzo jakoś próbują walczyć.
Problem polega na tym, że jak widać, ta walka jest dość ciężka do wygrania, przynajmniej na razie, bo nie ma tutaj żadnych, tak naprawdę, żadnego prawa w tym zakresie.
To są tylko zalecenia Unii Niewidomych, czyli w zasadzie czegoś, co sobie może mówić i co z tego trochę.
I nawet ta Unia to mówi, no w sumie sprzedawcy to w razie czego to miejcie sobie drugi terminal, a jak to nam wszystko jedno.
I są takie firmy od terminali, które zdaje się, że mają tylko na przykład dotykowe i jakby nie mają innej możliwości.
Więc trzeba by tak naprawdę zamówić osobny drugi terminal z drugiej firmy, ponosić dodatkowe koszty i na pewno nikt tego nie będzie robił albo prawie nikt.
No i efekt jest taki, że obawiam się, że albo smartfon, albo póki co przynajmniej ciągłe problemy z ewentualnymi pinami na urządzenia dotykowych, który będzie coraz więcej i więcej i więcej.
To znaczy, to co ja mówiłem, to są rekomendacje, to jest jedno Tomecki, ale inne, że jest ten, ta europejska ustawa o dostępności, która gdzieś tam wymusza, żeby jakkolwiek te terminale były dostępne, więc coś się pewnie w tej kwestii wydarzy, stąd te różne testy, tu w Hiszpanii coś, tutaj gdzieś tam coś, no Apple ma dostępny jakkolwiek ten swój terminal, tak, jeżeli używamy Apple Pay,
nie Apple Pay, tylko uciekła mi nazwa tej funkcji, że iPhone może być terminalem płatniczym, no to tam już jest jakaś dostępność wbudowana, więc no to coś, jakiś tam ruch i prawnie i coś tam jest.
Natomiast prawda jest też taka, ja patrzę po swoich znajomych, skoro pytamy o trendy, w moim otoczeniu osób widzących, czy w mojej rodzinie, czy wśród najbliższych znajomych, ja tak naprawdę nie znam osoby, która płaci telefonem.
blik i jeszcze jak cię mogę.
Jak tam np. mama zapomni czasem
telefonu, znaczy portfela, czy tam
pójdziemy gdzieś bez portfela tak o
i po drodze nas coś zaprosi, żeby
kupić jakieś tam drobne.
To już się zdarzało, że mała płaciła
blikiem, ale np.
mimo, że ma smartwatcha to jeszcze
sobie nie skonfigurowała płacenia
zegarkiem albo zawsze jest ta
karta albo jest blik albo coś tam.
U mnie to jest coś takie właśnie
50-50, że tak powiem.
Ja i siostra no to
Owszem płacimy, płacimy telefonami głównie, a no mama też się nauczyła, ma to wszystko zkonfigurowane i czasami korzysta, ale mimo wszystko to rzeczy z kartą też dużo.
No to jest gdzieś tam chyba jednak, mam wrażenie, taka trochę obawa, wiecie, podpinanie tej karty do telefonu, a że to się coś tam stanie i tak dalej i tak dalej.
U mnie brak potrzeby, trochę nawyk też. U mnie to były nawyki.
Teraz, kiedy mama wróciła ze sklepu, w sumie zapomniałam kartę, bo ja wiesz, że mogłaś z telefonem.
No tak, zapomniałem. Trzeba się przyzwyczajać, nauczyć tego nawyku. To jest też, no właśnie.
No bo wiecie, no to, no już nic takiego.
Mamy jeszcze jeden komentarz, zupełnie w innej sprawie, tym razem od Witolda.
Dobry wieczór. Jakiś czas temu Wojtek pytał o notatnik z możliwością łatwego przełączania między notatnikiem a terminalem.
Braille pen 14 ma do tego pstryczek i działa to bardzo sprawnie. A to dzięki Witoldzie za te informacje.
Mhm, no to dobrze wiedzieć. To co, przechodzimy do newsa znowu. No i można powiedzieć Microsoft robi rewolucję, której nie było od dwudziestu kilku lat. Myślę Michał, że ty możesz też pamiętać jak wchodziły klawiatury, które miały przyciski start, bo wcześniej była dziura.
To była ta klawiatura Microsoft, ją tak nazywano.
Tak, i te starsze miały rzeczywiście dłuższą spację między kontrolem i altem. Po obu stronach była po prostu dziura. No to teraz się jeszcze bardziej zacieśni ta klawiatura.
Tutaj ciekawostka i to zaraz, dlaczego o tym mówię, też będzie istotne. Te klawiatury miały dwa przyciski. Właśnie wszedł przycisk start, ale wszedł też przycisk menu kontekstowego.
Tak, tak, tak.
No i cóż, niestety kwestia jest taka, że z tego co czytałam, to nie zacieśni się ta klawiatura, bo wyleci przycisk menu kontekstowego, a wejdzie przycisk ten właśnie, o którym jest cały news, czyli przycisk copilot.
Przycisk do otwarcia tego nowego asystenta AI, którego Microsoft w Windowsach wprowadza.
Którego nie ma w Unii Europejskiej.
No właśnie.
No ale cóż, mam nadzieję, że do czasu kiedy już wszystkie klawiatury zostaną zaspamowane tym przyciskiem, to że już będzie.
Bo tak trochę bez sensu.
No ale też nie wiadomo czy tam poza tą funkcją będzie można tworzyć na jego podstawie jakieś skróty klawiszowe itd.
Nie są podane żadne szczegóły.
No tak naprawdę to jest tylko taki drobny sygnalizacyjny news, że takie coś idzie w naszą stronę.
Ja to mogę o tyle rozwinąć, że to jest wiadomość, która dosyć gruchnęła na niewidomym Macedonie, że tak powiem.
Do tego stopnia, że Jonathan Rosen gdzieś tam uruchomił swoje kanały i zaczął kontaktować się z ludźmi gdzieś na wyższych szczeblach w Microsoftzie.
i prosił ludzi tutaj o opinię, czy będzie im brakowało tego klawisza.
Ja mu jako na przykład osobę, która dużo z Reapera korzysta powiedział, że bardzo mu będzie brakowało.
No można go zastąpić, wiadomo, ale jednak to jest wygodne.
No i właśnie powstała taka dyskusja, żeby ok, nawet jeśli coś takiego będzie, żeby była możliwość
dostosowania tego skrótu w jakiś sposób.
Tak z tego co pamiętam na komputerach, gdzie tego co-pilota ma nie być,
nawet na Windows 10 też ma z czasem się pojawić, to będzie uaktywniało po prostu wyszukiwarkę systemową, więc on też coś tam będzie robił.
Natomiast właśnie tutaj…
Tak, on będzie robił Windows S.
No właśnie, czyli ciekawe czy ten klawisz będzie działał trochę tak jak na niektórych laptopach pojawił się klawisz Office, który tylko naciskał tam chyba Windows Control Alt Shift, ale to swoją drogą.
No mniej więcej właśnie Microsoft zdał sobie chyba właśnie sprawę, że no niewidomi jednak z tego klawisza dużo korzystają, no i zobaczymy czy.
No chciałem powiedzieć, że fajnie byłoby gdyby się dało wszystkie te skróty, jakieś Windows różne itery zmodyfikować, bo na Macu te wszystkie skróty systemowe da się albo wyłączyć, albo po prostu zmienić i no między innymi o to ludzie teraz proszą, może coś fajnego z tego wyniknie.
A użytkownicy Linuxa cieszą się, że będą mieli ekstra jeden klawisz, który będą mogli sobie zmienić.
No.
No dobrze, no to co, w takim razie albo zostanie nam polubić się z programami do tak zwanego remapowania klawiatury, czyli takiego procesu, w którym zmieniamy funkcje klawiszy, takie programy są i z tego zawinęły są dostępne.
Szarpki chociażby.
Tak, tylko mało kto chyba na się z tego korzysta, być może takie programy wśród niewidomych zaczną być bardzo popularne, a może nie, zobaczymy.
Kolejna taka informacja chyba niezbyt znowu wesoła, bo Spotify podnosi ceny w Polsce.
Tak, mi już, nie wiem czy wam, ale mi już pojawił się e-mail ze Spotify, że z uwagi na koszty operacyjne zwiększa się twoja subskrypcja.
no kosztowała 20 złotych, teraz będzie kosztować 24, w sensie 19,99 na 23,99, co ciekawe, to nie jest tak, że ona wskoczy automatycznie, tylko ja muszę się zgodzić na to, żeby ta podwyższona cena zaczęła obowiązywać, no oczywiście, w przeciwnym razie, jeżeli do końca marca tego nie zrobię, to przy następnym okresie rozliczeniowym po prostu zdegradują mnie do użytkownika darmowego, czyli z reklamami i tak dalej.
Także no i na Polskę przyszedł ten czas i można zapoznać się, może zapoznajmy się na podstawie artykułu z wirtualnych mediów z cennikiem wszystkich pakietów.
No więc tutaj mamy informacje.
Spotify zaczął ogłaszać pierwsze podwyżki, podwyżki dla polskich użytkowników komunikacji emailowej.
Jest to pierwsza w historii aktualizacja ceny planu i jest ona konieczna, ponieważ wzrosły ponoszone przez nasz koszty operacyjne, informuje Spotify swoich klientów.
Nowe ceny Spotify. Najdroższy pakiet Premium Family, dający dostęp do usługi dla nawet 6 osób, będzie kosztował 37,99 zł, zamiast dotychczasowych 29,99 zł.
Ta podwyżka wyjdzie w życie w kwietniu.
Podwyżka za pakiet premium indywidual wynosi aż 20 procent z 19,99 na 23,99.
Spotify Premium Duo dla dwóch osób po podwyżce kosztuje 30,99 miesięcznie.
Nowa cena pakietu premium student to 12,99 złotych miesięcznie, czyli aż 30 procent
więcej niż jeszcze w ubiegłym roku.
W planach Individual oraz Student nowi użytkownicy mogą
słuchać treści nieprzerywanych reklamami przez pierwszy
miesiąc za darmo.
No to wiemy.
No i że wszyscy abonenci muszą zgodzić się ręcznie, bo
inaczej stracą dostęp do pakietu premium.
Zostanie on wyłączony i wróci się po prostu na wersję
darmową.
No nie wiem jak tam wy, ja się zastanawiam czy nie
przemigrować na Apple Plus, na Apple Music skoro już i tak
Mam ten abonament Apple Plus.
Ja akurat jeszcze mam okres próbny na Apple Music, bo była oferta dla
użytkowników PlayStation i będę bardzo poważnie sobie go testował,
bo no właśnie mam, my akurat mamy pakiet rodzinny,
który na Apple Music, co ciekawe, gdy mówicie, że te usługi Apple’owskie są
najdroższe, no to akurat pakiet rodzinny na Apple Music sam kosztuje
w złotych trzydzieści chyba dwa albo trzy bodajże, więc wychodzi taniej i mamy
lepszą jakość dźwięku, więc no też się na tym zastanawiam.
Ja teraz od niedawna tutaj w Austrii, przez to, że się w Austrii zameldowałem na
Google Asystencie z mojego JBL-a, z mojego głośnika, to mam również Apple Music
na asystencie, więc też jeden argument mi odpada osobiście przeciwko
temu, żeby, no, nie używać Spotify, a przejść się tak na Apple Music.
No jedyne, co mnie przy Spotify gdzieś tam trzyma, to jest ta jako popularność szalona
jakby w społeczeństwie, że jak się myśli playlista na imprezę, to się mówi Spotify i tak naprawdę ten Spotify jest potrzebny, bo no właśnie, mimo iż Apple Music jest na Androida, no to z androidowców raczej, przynajmniej w moim kręgu znajomych, większość ludzi ma tego Spotify, a więc jakaś wymiana utworów, linków do utworów, czy właśnie tworzenie wspólne playlist odbywa się właśnie głównie na Spotify.
Tak, no u nas akurat jest jeszcze taka rzecz, u nas dzieci i dzieciom trzeba coś puszczać, czasem z komputera, czasem właśnie z asystenta, no i tutaj tylko Spotify, póki co przynajmniej. Także tak się tutaj wszyscy już zdeklarowaliśmy, w jakimś sensie.
No to mój news, tym razem wieści raczej pozytywne, bo Whisper, tak jak w tamtym roku wyszedł Whisper pierwszy, pierwszy, oryginalny od OpenAI, no to tych różnych implementacji Whisper pojawiło się dość dużo.
No i ostatnio testuję coś co nazywa się Whisper X, w sumie chyba, no w każdym razie Whisper i litera X.
Oparte jest to na czymś co już wcześniej testowałem, Faster Whisper, natomiast oni tam mówią, że w związku z tym, że oni dzielą to sobie na kawałeczki i tych kawałeczków mogą ileś naraz przetwarzać przez tego Whispera,
no to ten proces jest szybszy i jest szybszy, przynajmniej u mnie, mniej więcej dwukrotnie w stosunku do Faster Whisper.
Przy czym Whisper X jest jakby w dwóch, no można Whisper X używać albo jako aplikacji EXE i wtedy można,
No jest kilka tych formatów, plików, które on obsługuje, w zasadzie do tych, do których on jest w stanie zapisywać tekst.
Natomiast jedna dziwna rzecz.
WhisperX, przynajmniej póki co, nie umie przetwarzać wielu plików naraz, przynajmniej w formie aplikacji.
jeżeli mu wpisuje gwiazdkę, no to jest problem.
Oczywiście można sobie napisać skrypt, który przetwarza wszystkie pliki przez Whispera po kolei,
natomiast za każdym razem Whisper będzie musiał załadować swój model, co zajmuje ze 20 sekund,
więc w przypadku małych plików to będzie absolutnie nieefektywne.
Natomiast też dzięki czatowi gpt napisałem, znaczy napisałem, zleciłem czatowi napisanie skryptu w Pythonie,
który rzeczywiście robi transkrypcję wszystkich plików audio znajdujących się w folderze audio
i transkrypcję zapisuje w folderze txt, które mają takie same nazwy jak pliki audio
i rzeczywiście, no wtedy jest, no jest moc, jest szybko, naprawdę jest szybko i u mnie na karcie laptopowej 3070 Ti taki tyflo przegląd około dwóch godzin,
to mi się whisperował chyba, jeśli dobrze pamiętam, 8 minut, także to już robi wrażenie.
To już robi wrażenie, to prawda.
Tak, 8 minut. I ja wcale nie mam przecież najlepszej karty, to jest 3070, więc jest szansa, że gdybym miał tę kartę lepszą, to możliwe, że byłoby jeszcze szybciej.
Także tak, no i nie zauważyłem jakiegoś spadku jakości, wydajności, znaczy wydajności to jest wzrost, ale spadku jakości tych transkryptów.
Co ciekawe, teoretycznie WhisperX obsługuje podobno, teraz powiem dlaczego podobno, rozróżnianie mówców, czyli że teraz mówi człowiek numer jeden, teraz mówi człowiek numer dwa, teraz człowiek numer trzy.
Więc teoretycznie dałoby się zrobić takie transkrypcje tyfroprzeglądów, w których byłoby napisane, że teraz mówi Michał, a teraz mówię ja, a teraz mówi Piotrek albo Paulina.
Problem polega na tym, że u mnie ten proces wykrywania mówców to trwa i trwa i trwa i się skończyć nie może.
Co ciekawe, jak robię to samo w jakimś tam, w jakiejś, no muszę zobaczyć jak to działa, bo raz mi się to udało zrobić, tylko to robiło dziwnie trochę, bo on co słowo, jakby każde słowo przyporządkowywał kolejnej osobie, czyli na przykład osoba 1, witamy, osoba 1 wy, osoba 1 kolejnym,
Osoba jeden odcinku, osoba jeden tyflo przeglądu. Także, no nie jest to zbyt fajne.
Jest jeszcze druga rzecz, nie wiem czy to się komuś przyda, to znaczy ja sobie wyobrażam to w jakichś bardzo konkretnych, szczególnych przypadkach.
można sobie jakby wyrównać czas, czas wypowiedzi do faktycznego miejsca, kiedy ta wypowiedź jest, to znaczy oryginalny Whisper i w sumie wszystkie implementacje,
jeżeli robi się transkrypcje takie, w których jest podany czas, to one ten czas podają tak mniej więcej,
Czasami poddają na sekundę przed tym, zanim pojawi się dana wypowiedź, czasami w jej trakcie dopiero puszczą transkrypcję i to tak działa mniej więcej.
Natomiast tutaj jest teoretycznie taki algorytm, który te czasy wyrównuje, rzeczywiście podobno wyrównuje do słów, które są mówione.
Nie wiem na ile to jest dobrze zrobione, natomiast też warto na to w jakimś sensie uważać, bo to chwilkę zajmuje i na przykład tyflop,
No ten proces wyrównywania tego tyfloprzeglądu zajął kilka minut,
potem i tak nie korzystałem z tej czasówki, natomiast ten proces jakby się wydarzył.
I wtedy to nie trwało 8 minut, tylko tam chyba 12 czy 13.
W każdym razie, no też gdyby ktoś chciał koryzystać z tego Whisper X, no to też
warto wiedzieć, że tam jest zarówno to rozpoznawanie mówców,
zaimplementowane, jak i właśnie to, ten alignment, czyli właśnie wyrównywanie tych czasów, żeby one jak najbardziej się zgadzały z tym, co jest, z tym, co jest faktycznie mówione i z czasem tych wypowiedzi wszystkich.
No także zobaczymy jak i kiedy, jak będzie wyglądało kolejne wcielenia Whispera.
W ogóle spojrzałem sobie też na Hugging Face, czyli taką stronę, czy taki magazyn tych wszystkich modeli, zbiorów danych i innych tego typu urzędów do sztucznych inteligencji najróżniejszych,
m.in. do Whispera, no i właśnie wpisałem Whisper, wiecie ile jest modeli stworzonych przez użytkowników do Whispera?
Oczywiście to są modele jakoś tam lekko pewnie zmodyfikowane te OpenAI-owe, albo pod konkretne implementacje Whispera,
albo zdokonany tak zwany fine tuning, czyli dostrojanie, czyli mam jakiś swój model, w którym mam np. język polski,
albo np. jakąś gwarę góralską, która jest pisana jakoś, albo np. cyfry, które są pisane zawsze słownie, albo inne tego typu sytuacje.
Więc takich modeli trenowanych przez różnych użytkowników do Whispera, znaczy jakby z nazwą Whisper na Hugging Face jest w tym momencie trochę ponad 8 tysięcy.
Gdy wpisałem w whisperpolish.pl, to modeli zrobiło się 29 i tak sporo, także widać, że jest to technologia, która bardzo ludzi interesuje, różni ludzie robią różne rzeczy z tymi modelami, także zobaczymy,
Być może za jakiś czas pojawi się jakiś model, który akurat na nasze potrzeby będzie lepszy od oryginału z jakiegoś powodu, będzie go można użyć i to wszystko będzie działało dobrze.
Oczywiście na razie głównym problemem w tych wszystkich technologiach jest specyfika tych sieci neuronowych i fakt, że żeby to dobrze działało, to trzeba to robić albo na karcie graficznej,
albo przynajmniej na procesorze ARM, no i zobaczymy, jak te procesory ARM będą się rozwijały w komputerach Maxo zainstalowane i widać, że to działa dużo szybciej,
nawet jeżeli ten Whisper nie jest odpalany na karcie graficznej, tylko na procesorze, to widać, że to działa dużo, ale to naprawdę dużo szybciej niż na procesorach Intela,
które są montowane w komputerach PC z Windowsem.
Tak, aczkolwiek też, a propos tych targów CES, które cały czas się odbywają, to tam też zarówno Intel i AMD zaczęli prezentować nowe procesory i one też już mają, podobnie jak zresztą procesory w smartfonach i tak dalej, one też już dostają jakieś dedykowane układy do właśnie obliczeń neuronowych, więc on nawet, no właśnie.
Właśnie o tym słyszałem i rok temu i dwa lata temu, że ma coś być.
No ale to już pomału zaczyna wchodzić na rynek na razie chyba tylko w tych topowych modelach, ale już coś pomału się dzieje w tą stronę też.
Natomiast, co chyba równie ważne, że podobno jest jakaś szansa, że od tego roku gdzieś tam też na jakichś portalach technologicznych latają tego typu wieści,
że prawdopodobnie pojawią się komputery PC z procesorami właśnie ARM, najprawdopodobniej będą to w pierwszej kolejności laptopy i te takie komputery,
które mają mieć przede wszystkim bardzo niskie zużycie energii, ale jest szansa jakaś, że na przykład w przyszłym roku, być może za dwa lata, uruchamianie takich systemów typu Whisper czy jakiejś syntezy mowy, takie neuronowe będzie dużo mniejszym problemem dla przeciętnego użytkownika,
no bo widać, że te technologie po prostu są bardzo, ale to bardzo potrzebne.
No bo powiedzmy, okej, w naszym przypadku osób niewidomych,
no to jest to, żebyśmy sobie wygodnie przejrzeli tyflo przegląd.
Ale w przypadku osób z problemami ze słuchem,
no to ten whisper to się robi trochę jak u nas OCR przecież.
Czymś podobnym.
To prawda, wśród osób z problemami ze wzrokiem
też są osoby z problemami ze słuchem,
Więc to też czasem i naszej grupy potrafi dotyczyć.
Tak, to się zgadza.
No i jeżeli na iPhonie już w tym momencie jesteśmy w stanie uruchomić ten model,
prawie najwyższy ten medium, whispera,
no to trochę czekam, aż kiedyś na iPhonie będzie można uruchomić model large
i to jeszcze w czasie rzeczywistym i jeszcze jakiś tłumacz
I rzeczywiście iść z telefonem w jakimś miejscu, w którym są ludzie, którzy nie mówią w naszym języku, ja coś mówię do telefonu, telefon nie tylko rozpoznaje słowa, ale również intonacje.
Więc interpunkcję wstawia, bo to jest chyba coś takim problemem też trochę dla tych tłumaczy, no bo jest przecież teraz Google Tłumacz od lat już, który, który teoretycznie tak działa, no tylko, że on nie wychwytuje w ogóle interpunkcji.
To, co się tam domyśli, to się domyśli, a czego się nie domyśli, to zmyśli. Także zobaczymy, jak to będzie się wszystko robiło, no i ile w ogóle jeszcze technologii nawejdzie ze sztuczną inteligencją, bo po prostu tego się robi strasznie dużo.
No i to nie koniec sztucznych inteligencji u nas w audycji i to nie koniec sztucznych inteligencji w smartfonie.
ChatGPT, znowu ChatGPT, ale tym razem stanie się asystentem głosowym dla Androida.
Tak, i to też jest bardzo krótki sygnalizacyjny news.
Mianowicie w aplikacji chata gpt dla androida wykryto jeszcze nie zainterfejsowane funkcje, które pozwalają na wybranie chata gpt jako domyślnego asystenta głosowego w androidzie.
No i cóż, będzie to dostępne dla subskrybentów czata, także jako, że subskrypcję mam, to czekam na to, aż to się pokaże i będę pewnie testować i dam znać coś.
Natomiast, jeżeli to będzie oparte na tym Voice Conversations
i nie będzie umiało nic ponad to, że po prostu będziemy sobie gadać z tym modelem,
no to niezbyt widzę tutaj jakiś wachlarz zastosowań,
bo tak w sumie jest z tym kopilotem na Androida,
jak był szum o to, że wow, wchodzi kopilot na Androida,
tylko że gopilot na androida to nie jest chat gpt plus nie wiem jakaś obsługa systemu obsługa jakichkolwiek zadań integracji cokolwiek to jest po prostu zwykły chat gpt czyli tak naprawdę w zasadzie to samo co bing no właśnie właśnie czyli tak w zasadzie to będzie trzeba po prostu sprawdzić i nie zachwycać się do tej pory dopóki nie będzie żadnych informacji bo może to być tak samo jak z tym gopilotem że tak naprawdę
To samo co voice conversation, tylko że z możliwością wybudzenia tego i gadanie z tym bez, jakby bez używania rąk.
To się zgadza.
Choć słyszałem o ludziach, którym coś takiego będzie przydatne, bo myślę, że oboje słyszeliśmy,
Znaczy, jakby poznaliśmy kogoś, kto sobie rozmawia z tym czatem, na zasadzie po prostu rozmowy z kimś, trochę taka proteza rozmawiania z, powiedzmy, z jakimś człowiekiem, powiedzmy, z jakimś przyjacielem, czy coś tego typu.
Nie, to na pewno, tylko że wydaje mi się, że jakby tworzenie z tego asystenta głosowego, domyślnego, zabierającego nam siłą rzeczy Google’a, no jest trochę bez sensu w sumie.
Wiesz co, no ale to zależy, ale wiesz, no właśnie o to chodzi, nie, no bo jeżeli ktoś nie korzysta z asystenta Google do tej pory, a właśnie chciałby mieć kogoś takiego, z kim by chciał sobie coś pogadać, no to być może właśnie taka funkcjonalność się przyda, ale zobaczymy, co będzie.
Dalej, sztuczna inteligencja. Mówiliśmy jakiś czas temu, że Eleven Labs tworzy dubbingi, czyli takie automatyczne tłumaczenia na inny język.
I to w zasadzie było najprawdopodobniej wspierane przez Whispera właśnie, bo były zresztą typowe dla niego halucynacje, napisy stworzone przez społeczność Amara.org i tam jeszcze kilka tego typu.
plus jakieś tłumaczenie, no i to wszystko potem było ich klonowaniem głosu podawane w tym języku do celów, działało to tak sobie, delikatnie mówiąc, raczej jako zabawka niż jako coś, z czego można było skorzystać.
No i teraz wchodzi coś, co nazywa się dubbing studio i to nie zamieszczonego dostępności, nie bawiłem się tym jeszcze w ogóle, ale to ma być narzędzie.
rzeczywiście profesjonalne, w którym mamy wpływ na wszystko, to znaczy na ten etap, to znaczy możemy edytować transkrypt, możemy edytować potem tłumaczenie tego transkryptu,
no bo jak rozumiem, to nadal będzie taki proces, gdzie jest wykonywany przez Eleven Lapsa transkrypt, przez Eleven Lapsa tłumaczenie i przez Eleven Lapsa potem docelowy dubbing.
Tylko, że każde z tych elementów w końcu możemy my jako użytkownicy rzeczywiście jakoś tam kontrolować.
Jeżeli nam się nie podoba transkrypt, to transkrypt zmieniamy po swojemu.
Jeżeli nam się nie podoba tłumaczenie, bo na przykład umiemy język na tyle, żeby sobie z tym poradzić,
no to sobie to tłumaczenie zmieniamy według własnego gustu.
I podobno również można jakoś edycję tego docelowego głosu również mieć pod kontrolą, nie wiem na ile, no ale jeżeli tak, no to moim zdaniem to rzeczywiście te dubbingi zaczynają mieć jakiś sens.
One nadal są dużo droższe od takiego zwykłego generowania głosu, ponieważ tutaj wychodzi, minuta dubbingu zabiera nam 5 tysięcy znaków, więc powiedzmy tyle co 5 minut standardowego Nextu.
ewentualnie jeżeli oni nałożą na to swój znak wodny, to cena się jakoś tam obniża, natomiast to wymaga tego, żeby plikiem źródłowym i docelowym był plik wideo,
bo tu chodzi o znak wodny taki właśnie w tej warstwie wideo zdaje się, pewnie dodatkowy, no bo w warstwie audio on pewnie i tak jest.
No tak czy inaczej, no ciekaw jestem, czy rzeczywiście te dubbingi teraz, które się pojawiają, nie spowodują, że jakieś podcasty, jakieś filmy, jakieś inne tego typu rzeczy, nie zaczną być, oczywiście zapewne nie przez duże firmy, bo duże firmy radzą sobie po swojemu,
ale myślę, że przez jakichś youtuberów, czy podcasterów, czy kogoś takiego jest szansa, że one zaczną być tłumaczone na inne języki.
Być może kolejna jakaś bariera zostanie, czy kolejne nawet bariery zostaną jakoś tam przełamane i no ciekaw jestem, czy coś się nie pojawi.
No bo okej, nam się może wydawać, że 5 tysięcy znaków za minutę, no to oczywiście, no bo to jest dużo, więc mamy, powiedzmy, 25 minut, no to wychodzi nam coś koło, no ponad 100 złotych na pewno, ale z drugiej strony,
Gdybyśmy chcieli rzeczywiście poprosić kogoś, żeby nam nagrał podcast w innym języku, no to na pewno byśmy zapłacili więcej niż 100 zł.
Także jest szansa, że rzeczywiście ten doping studio, w którym mamy wpływ na to, jak ten proces będzie przebiegał, no to moim zdaniem rzeczywiście jest to jakoś bardziej sensowne.
i być może, być może coś tu się nam pojawi, jakieś, jakieś, jakieś nowe rzeczy.
A warto pamiętać, że z Eleven Lapsa to już na przykład korzysta Netflix, tworząc audiodeskrypcję swoich filmów.
Tak, no nie no, Eleven Laps to jest już…
To jest nic. Ja dzwonię sobie do krakowskiego tam urzędu, w sensie jest taka, krakowskie centrum kontaktu,
to jest taka infodinia właśnie, gdzie z urzędami różnymi łączy i właśnie Eleven Lapsy na centralce robi.
Eleven Laps to chyba w ogóle się zrobił taki już standard w zasadzie i to po naprawdę dość krótkim czasie. Rok minął.
Ja ostatnio słyszałem w jednej ze stacji radiowych jak prowadzący, który chciał mieć współprowadzącą to użył Eleven Lapsa i wiadomo to był jakiś tam montaż czy ewentualnie te wypowiedzi odpalane spod klawisza
natomiast, no, poranek na dwa głosy, gdy człowiek był fizycznie jeden.
No, także, no, tak jak mówię, to myślę, że to już się naprawdę staje standardem.
Tak są, też zresztą przyze mnie troszkę Muzeum Narodowe w Krakowie.
Już Eleven Labs zaprzęga do czytania audiodeskrypcji.
No i też dzięki temu jest ich więcej, no bo
nie trzeba za każdym razem się odwoływać do człowieka,
tylko można tą pracę przekazać modelowi. Szczególnie, że to nie musi być takie
ekspresyjne, więc nie, nie tracimy na to jakiejś…
Tak, to po prostu musi być przeczytane, tak po prostu.
Więc do tego Eleven Labs się świetnie nadaje. Zwłaszcza, że tam jest bardzo dużo głosów
i domyślnych, można generować swoje głosy. Niekoniecznie nawet klonowane,
tylko takie po prostu losowe w jakimś sensie.
I voice library też jest spore, więc…
Tak, tak, dokładnie. No, w tej bibliotece też jest naprawdę dużo tych głosów,
Także no, zobaczymy. No i następny news. Znowu sztuczna inteligencja, znowu OpenAI, bo OpenAI wprowadza sklep z GPTs-ami budowanymi przez użytkowników.
Pauline, od czym są GPTC, GPTC?
To dobra, może będę mówić o tym, że to są czaty po prostu, bo to w istocie są czaty.
Użytkownicy tam, no około dwa miesiące temu, nie pamiętam kiedy to dokładnie się stało,
w każdym razie nabyli funkcję, użytkownicy pramią oczywiście, mają opcję stworzenia swojego własnego czatu
w oparciu
o zachowania,
które można
jakby wymóc
na modelu, w oparciu o
dataset, który można przesłać i w oparciu
o akcje, które można temu modelowi
zaprogramować,
żeby zrobić. Znaczy nawet nie
zaprogramować tylko jakoś tam skonfigurować.
No i to działa
tak, że
rozmawiamy sobie z GPT Builderem,
on
On się nas pyta, co byśmy chcieli, żeby robił ten czat, my opowiadamy, on go nazywa, tam daje nam jakieś zdjęcie, które sobie wygenerował.
On się może łączyć z czymś zewnętrznym, czy to tylko i wyłącznie…
Może się łączyć, tylko, że ja tego jeszcze nie próbowałam opracowywać.
Ale to nie jest coś takiego tylko, że on ma w zasadzie twój dataset, swój dataset i tylko promptami go zmuszasz do czegoś i w sumie to jest GPTIS całe i tyle, czyli to trochę jest jak wtyczka.
Nie, no można się łączyć z jakimiś tam API, jakby to też zależy od tego stopnia zaawansowania jaki użytkownik będzie chciał na nim stworzyć.
Nie jasne, tylko teoretycznie…
Ale są takie opcje, tylko że ja po prostu jeszcze nie próbowałam, więc dużo o tym nie opowie.
Czyli teoretycznie można by stworzyć GPTisa, który by podawał na przykład rozkład jazdy z podanej stacji?
Teoretycznie tak, jeżeli by się go podpiął pod API, które by umożliwiało sprawdzanie takich informacji.
No i co? No i tam jeszcze na początku ustala jakieś pytania, które są takie pomocnicze, żeby użytkownik końcowy wiedział, czego się może spodziewać od tego czata.
tak, tak jak mamy w zwykłym czacie, jakieś tam pytania, wymyśl mi, nie wiem, jak mogę, nie wiem, plan na spotkanie integracyjne kogoś tam, nie wiem, na przykład mojej firmy, albo coś tam, no to tam sobie możemy, w sensie on generuje jakieś pytania, ale możemy to też poustawiać, no potem, no bo są zakładki dwie, jest Create i Configure i w tej Configure właśnie mamy jakieś akcje, które on może wykonywać,
Mamy przesyłanie dotasetu i tak dalej.
No i kwestia była taka, że do tej pory można było albo po prostu mieć je sobie samemu i potem z nich korzystać,
albo móc dawać link ludziom do tych czatów, tak żeby ludzie sobie z tego korzystali.
Natomiast teraz mamy ten GBT Store, w którym…
Przepraszam, myślałam, że ktoś mi puka do domu.
w którym możemy po prostu eksplorować czaty stworzone przez innych użytkowników
i także możemy publikować swoje oczywiście
i tam co tydzień mają być promowane jakieś czaty,
które albo zyskają dużą popularność albo są open AI
i stwierdzi, że są fajne, są wartościowe.
Jest jakiś proces weryfikacji, to na pewno
No i żeby móc opublikować, no to trzeba albo się zgodzić na to, żeby nasze imię i nazwisko było widoczne, albo jakaś tam witryna nasza.
No i też jest właśnie deklaracja ze strony OpenAI, że jeżeli dużo będzie korzystane z naszego czata, to jakimiś tam zyskami będą się z nami dzielić.
No i od razu, dosłownie od samego razu, zaczęły się pojawiać jakieś skamerskie czaty w stylu
Odgadnij kod na złamanie mnie, a wygrasz 100$, coś tam
No wiadomo, żeby dużo z nim pisać, żeby próbować, no bo jak się pisze i próbuje
No to osoba, która ten czat stworzyła może liczyć na jakieś wynagrodzenie i tak dalej
No także nowa era skamów się zaczyna nam tworzyć na naszych oczach.
Wiesz, z jednej strony może i nowa era skamów, ale z drugiej strony, no to jest jakaś zachęta
rzeczywiście do tego, żeby były tworzone różne czaty, które są rzeczywiście ciekawe.
No bo, no podejrzewam, że jeżeli będzie dużo takich czatów typu, no właśnie,
pewnie wygraj nagrodę, jak odgadniesz, no to też pewnie zainteresujesz się tym jakieś portale technologiczne, jak portale, to i OpenAI.
A podejrzewam, że jeżeli rzeczywiście, no bo to jest jakaś motywacja do tego, żeby tworzyć takie ciekawe czaty, no i być może rzeczywiście coś się z tego ciekawego urodzi.
No w każdym razie, no jakby, no można sobie przeglądać zapewne te czaty.
Też spróbuję to sobie powszeglądać w takim razie i zobaczymy, co z tego mi wyjdzie.
Może też coś znajdziecie ciekawego, być może będą kolejne materiały dotyczące przeglądu.
Jakieś ciekawe GPTsy, które…
No ja na pewno jestem na etapie projektowania swojego, więc jak skończę, to pewnie też będę o tym spamować.
Okej, to odpocznijmy przez chwilkę od sztucznych inteligencji i VDO-Ninja, to się tak nazywa?
Video Ninja.
Video Ninja, okej, dobrze.
Tak, tak se to wymyśliłem.
No właśnie, to jest bardzo ciekawe narzędzie.
Bardzo, ja się zgadzam.
Które już to było testowane?
Tak, my testowaliśmy to wewnętrznie tutaj w naszym zespole, bo cały czas zastanawiamy się jak można by nasze audycje realizować lepiej, ciekawiej, na bardziej przystępnym oprogramowaniu i sprzęcie i tak dalej.
No i trafiliśmy na Videoninja
dzięki rekomendacji jednego z moich znajomych.
Jest to narzędzie stworzone przez twórcę OBSa,
czyli tego programu między innymi, którego my używamy,
który Michał ma skonfigurowany, żeby wyjść na świat,
na Facebooka, na YouTube’a.
No i bardzo często jest używany przez streamerów
właśnie do puszczania różnych swoich treści na żywo,
na Twitcha, na właśnie Facebooka, YouTube’a itd.
dalej. No i Videoninja powstał po to, żeby przesyłać
jedno źródło danych na drugie, wideo lub audio.
Brzmi to bardzo górnolotnie i do czego my tego możemy używać?
Początkowo to służyło do tego, żeby wysyłać jakieś właśnie obrazy z jednej
kamery na drugi komputer, z któregoś tam audio na inny jakiś jeszcze sprzęt, żeby
te streamy, żeby w ogóle można było
zakotwiczyć jakby taki stream z drugą osobą albo z jakiejś drugiej kamery w OBS-ie.
No ale z czasem ludzie zaczęli sobie życzyć nowych różnych funkcji i rozbudowało się to do
czegoś w stylu właśnie tak jak teraz używamy Zooma, tylko właśnie w przeglądarce.
No i my już prezentowaliśmy takie narzędzia typu na przykład Clean Feed, no ale Clean Feed
wymaga chroma, a tu nie trzeba chroma mieć.
Wszystko jest za darmo i open source, bo działa po technologii peer-to-peer, czyli łączymy się bezpośrednio ze sobą nawzajem bezpośredniczącego serwera.
Serwer jest tylko potrzebny, żebyśmy się znaleźli i można bardzo wiele modyfikować w kwestii audio.
To audio może być oryginalnej jakości w PCM-ie, czyli w kodeku WAV, takie jak wypływa z komputera.
Może być w opusie, może być stereo lub mono, może być z różnym bitrate’em, głośnością.
My możemy nawet jako jeżeli w jakiś sposób jesteśmy reżyserami, mamy tę rolę reżyserów
dźwiękowych, reżyserki, to możemy np.
ustawiać ten dźwięk drugiej stronie np.
jak komuś mniej technicznie zaawansowanemu, możemy poustawiać wszystko łącznie z kartami
dźwiękowymi, no możemy poustawiać karty dźwiękowe komuś, na przykład jak sobie ktoś tam nie radzi, żeby przełączyć mikrofon z laptopa na jakiś tam headset.
Jak niskie opóźnienie tam można wygenerować, jakby tak się uprzeć i po prostu zjechać?
Tam zdaje się, że to można jakoś w miarę nisko, jest nawet jakiś artykuł u nich na wiki, jak nadawać z możliwie niskim opóźnieniem, włączając w to nawet ASIO.
Oni deklarują, że to opóźnienie to jest trzydzieści parę milisekund, maksymalnie dwieście milisekund.
Wow.
My chyba mieliśmy ping w granicach czterdziestu i to tak brzmiało, no faktycznie nie było dużo.
A tak na przykład porównując do, nie wiem, Zuma Tim Toka.
Podobnie?
W sumie nie widzimy pingu.
No nie, ale nie mówię o pingach, mówię o realnym takim opóźnieniu, co dochodzi do człowieka na zasadzie, nie wiem, co z tym mówicie.
No nie klaskaliśmy w dłonie, w mikrofonie.
Aha, no właśnie.
Okej.
Ale no, myślę, że można, możemy tego jeszcze spróbować. No dużo różnych takich funkcji, naprawdę, nas zdziwiło to, ile tam tych rzeczy jest.
W ogóle większość tych rzeczy można też sterować przez parametry, czyli można sobie skomponować cały adres do danego pokoju,
który ma już pozaszywane różne konkretne rzeczy, typu mam do pokoju wejść, ale w stereo, tylko że na kodeku takim,
ale z bitrate takim, nazywać się mam tak, bo to też można zrobić, nazwę sobie zaszyć, ale pomijamy cały autostart,
czyli przeglądarka tylko nas pyta o zgodę na użycie mikrofonu i kamery, ale w sumie o nic
więcej. Żadnych więcej kroków nie ma, a wideo to ma być jakoś tam inaczej.
A przy okazji chcę, żeby mi grały dźwięki jak ktoś napisze wiadomość albo podniesie rękę,
albo tam dołączy do naszego streama.
Więc no, jest to dość takie uniwersalne, dość rozbudowane i z tego co mi wiadomo, autor
cały czas pracuje nad tym i pracuje też cały czas nad dostępnością.
Ta dostępność jest niezła, aczkolwiek znaleźliśmy trochę problemów.
To znaczy nie, że czegoś się nie da zrobić albo że coś jest niedostępne.
Te rzeczy są po prostu uciążliwe, bo albo coś jest jakoś źle podpisane,
albo się od razu fokus nie przenosi w jakieś ważne miejsce, albo np.
nie ma żadnych nagłówków, żeby szybko znaleźć konkretną jakąś osobę i np.
tej osobie coś tam, nie wiem, wyciszyć, podgłośnić i tak dalej.
Fajne jest to w sumie, że każdy stream, bo to jest jakby tak naprawdę każdy człowiek jest streamem osobnym, to jest kolekcja streamów taki pokój i to, że my w ogóle tam możemy generować linki push i view, czyli że jeden link służy do tego, żebym ja coś wysyłał, inny link, żebym oglądał, na przykład mogę oglądać osobno tylko jedną osobę, bo tak, no to jest już inna historia, natomiast no są tam różne takie możliwości typu, że można, każdy stream osobny jest osobnym,
odtwarzaczem HTML5, czyli takim natywnym odtwarzaczem w przeglądarce
zaimplementowanym, można tam wyciszać, można zgłaśniać,
ściszać, można nawet skierować każdą osobę na inną
kartę dźwiękową. Więc no…
Co do tych kart dźwiękowych, to na przykład
ja niestety zaobserwowałem taki błąd, który się pojawiał tylko
w Chrome’ie, co ciekawe, nie w Firefoxie.
w Firefoxie było wszystko w porządku, że kiedy Paweł, bo akurat Paweł był użytkownikiem, który miał tę rolę reżysera,
to kiedy Paweł się łączył ponownie z naszym spotkaniem, a ja miałem akurat skonfigurowane to tak,
że na chromie miałem po prostu wybraną inną kartę niż domyślna, to w tym momencie mi na przykład ta karta
przestawiała się na domyślną, potem musiałem sobie ją znowu przestawić, mógł to zrobić też Paweł, natomiast kiedy Paweł wychodził i wchodził, no to znowu to się wszystko rozwalało.
Na Firefoxie bez problemu, wszystko super, wszystko fajnie, dlatego ja powiem szczerze, już nawet tak się zastanawialiśmy, czy nie spróbować za jakiś czas
jakichś takich testów na żywym organizmie tego Video Ninja.
Natomiast ja mam cały czas takie trochę wrażenie, że to wszystko, tu diabeł tkwi w szczegółach
i w różnych konfiguracjach takich mniej typowych mogą zacząć się pojawiać jakieś tam problemy.
Bo to, że to narzędzie ma też wiele parametrów, które można podać,
no to kusi, żeby robić różne eksperymenty i kusi, żeby zacząć tam to rzeczywiście sobie ustawiać.
I tu już warto wspomnieć o tym, że jak ktoś ma zamiar się bawić i robić jakieś rzeczy nietypowe
i chciałby tego używać później tak produkcyjnie, dając na przykład takie linki innym użytkownikom,
to naprawdę warto przetestować platformy i jak najwięcej platform, na których to będzie działać.
Bo już mieliśmy taki przypadek, że testowaliśmy jakieś kodeki, których dana konfiguracja nie obsługiwała.
Na jednej przeglądarce działało, na innej nie, no i zaczęły się pojawiać problemy.
Więc narzędzie jest przepotężne, jest fajne, to robi rzeczywiście wrażenie.
Też to, czego mi brakuje w Zoomie chociażby z perspektywy osoby, która gdzieś tam technicznie czuwa nad tym wszystkim,
no to, że ja na przykład w Zoomie nie jestem w stanie wyregulować głośności poszczególnym użytkownikom.
Jeżeli ktoś jest za głośno, no to on po prostu jest, ja muszę poprosić.
Ale Zoom chociażby wymaga jednak tego, żeby mieć Zooma.
Wiesz co, i to jest moim zdaniem jego akurat, z perspektywy stabilności i przewidywalności, moim zdaniem jest to jego zaletą niż wadą.
To znaczy, nie, ale wiesz, chodzi mi o to, robisz raz podcast z kimś, kto nie ogarnia. I wiesz, dajesz mu link, jakoś, na Whatsappie, na SMSie, na czymkolwiek, kliknij w to.
Klika w to i już niewiele go interesuje.
O ile nie będzie sytuacji, że coś się z przeglądarką zadzieje nie tak i nagle no przeglądarka po prostu nie zechce współpracować tak jakbyśmy sobie tego życzyli.
Właśnie dla mnie to gdyby, wiesz, gdyby nie było problemów właśnie z tym, że różne przeglądarki, niby standard jest jeden, no ale różne przeglądarki różnie się do tego standardu mają.
Być może, rzeczywiście jakby się to trochę potestowało, być może potem już można wiedzieć, okej, jakiś wspólny mianownik jest taki, jeżeli człowiek nie będzie wiedział czego używa, damy mu bezpieczną opcję, jeżeli będzie wiedział, okej, mi to się uruchomiło w Firefoxie, dajemy mu link do Firefoxa.
Ale oczywiście z tym się zgadzam, z tym się zgadzam, dlatego właśnie wspomniałem po prostu o tym, że jeżeli ktoś miałby ochotę eksperymentować i gdzieś tam zmieniać te różne parametry, to naprawdę warto to wytestować przed puszczeniem tego jakoś produkcyjnie w świat, bo się można zdziwić.
Ale na pewno jest to jedna z iluś opcji połączenia się z ludźmi i podejrzewam, że może to być dość ciekawa.
jest aplikacją, aplikacje mobilne też dedykowane, które mają przeróżne opcje, na przykład aplikacja na iOS-a pozwala na udostępnianie ekranu tego iOS-a właśnie przez Video Ninja.
Niestety nie jest udostępniany dźwięk na ten moment, ale domyślam się, że to jest kwestia do wynegocjowania z autorem, bo ogólnie aplikacje potrafią takie rzeczy.
A jeszcze samo udostępnianie ekranu, bo ono tam też jest, oczywiście też wspiera stereo, można też też z tym udostępnianiem ekranu wygórować.
Tylko trzeba skroma wygórować.
Skroma, tak, z kolei właśnie tu skroma, tu skroma.
Tak, ale działa, można udostępniać dźwięk, można mówić tylko do jednej osoby, co jest bardzo fajne, jak ktoś z reżyserki chce na przykład jakiejś uwagi technicznej udzielić, to opcja jest tak najbardziej solo talk.
Nie, naprawdę, bardzo rozbudowane narzędzie. Myślę, że można poprosić kogoś, żeby otwarł inną, inny adres i tam od razu skierować kogoś, więc można przeładować komuś szybko pokój z jakimiś innymi parametrami.
Można osadzić nawet stronę jakąś, jeżeli robimy jakąś prezentację i chcielibyśmy coś komuś wyświetlać, też można.
Tak.
Można.
No ciekawe, no w każdym razie jest to jakaś opcja i zapewne dla niektórych ludzi może to być ciekawe.
Zwłaszcza, że za darmo.
Zwłaszcza, że za darmo, tak jest. I został nam chyba już ostatni news, wracamy do sztucznej inteligencji.
Pamiętacie jak notatnik był jeszcze prościutki, nie miał nic, no i notatnik zyskał menu wstążkowe,
Zyskał karty, zyskał pamiętanie ostatniego tam zapisu, a teraz jeszcze sztuczną inteligencję będzie zyskiwał.
No też pytanie, czy w niektórych przypadkach, na ile to jest zysk, ale no właśnie, jeszcze co prawda nie są te opcje widoczne,
Ale wykryto, że tam w misejderskich kopiach są już ślady tego, że za jakiś czas nozatnik będzie mógł właśnie jakieś takie copyrighterskie opcje mieć, czyli tam wydłużanie, skracanie akapitów, no przeredagowywanie jakichś naszych treści, poprawianie pisowni, zmiana stylu wypowiedzi i tak dalej.
No takie, takie właśnie opcje.
No to zobaczymy, jak to będzie działało. Być może to jest też odpowiedź na pytanie, dlaczego nie ma Wordpada, bo będzie notatnik, który będzie jak Wordpad.
I w sumie to być może w jakimś sensie nie będzie notatnika, bo się notatnik trochę zmieni w Wordpada.
No bo w zasadzie zostało notatnikowi obsługa kilku formatów plików i się z tego robi regularny wordpad, więc no ciekaw jestem, czy to się tak nie skończy.
A pytanie, czy pojawią się jakieś newsy w międzyczasie? Prawie pięciogodzinnego.
Ja bym miał dźwięczek na koniec, ale to…
No dobrze. To chyba czas na dźwięczek.
To tylko muszę jeszcze, Pawle, dać Ci udostępnianie ekranu.
No to mamy przykład dźwiękowy. Mam nadzieję, że się odtworzy.
Oj Suomika, co sinun pajwas koittaa,
Yön uhka karkoitetu on jo pois,
Jaa munkijuuru kirkkaudeessa soittaa,
Kuin itse taivahan kaansi sois,
Jön vallata, mun valkeus jo voitta, sun päivä skoitta, oj syyn imma.
No nie wiem, jak się czujecie z tym, co usłyszeliście, ale…
Co to było, jakaś miękka synteza?
Jak za starych dobrych czasów, gdy syntezatory mowy śpiewały.
Tak, tak, to prawda.
Język ktoś rozpoznał?
Chiński chyba.
Tak, to jest język chiński.
Syntezator mowy mikropuchę.
Tak, syntezator mowy, jeden z pierwszych
takich chińskich.
Nie wiem, czy to były syntezatory już
konkatenatywne, czy jeszcze jakaś
wcześniejsza generacja.
Natomiast bardzo popularny końcówka lat
dziewięćdziesiątych, a w ogóle lata
dziewięćdziesiątej, wczesne dwutysięczne
syntezator mowy chińskiej,
który był dostępny na początku na Windowsa 95, 98 i jakieś wczesne wersje wtedy też Maca.
Natomiast potem oni się wycofali z Maca i zostali kompletnie na Windowsie i obsługiwali SAPI i także śpiew.
Co ciekawe, jakby zajrzeć w ogóle w historię tej fińskiej syntezy i w ogóle mikropuchy i tak dalej, to okazuje się, że polski akcent również się tam znajdzie,
bo nad tą konkretną metodą syntezy, w tej jakiejś bardzo kluczowej dla niej pracy naukowej, z panem o nazwisku Cariolainen, jeżeli nie przekręciłem, współpracował też pan Konrad Łukaszewicz.
więc tutaj jakieś te powiązania również są.
No a skąd mam takie piękne rzeczy?
To był chyba hymn Finlandii, ale nie jestem do końca pewien,
bo teraz próbowałem odtworzyć hymn Finlandii i trochę inaczej brzmiał.
Natomiast do niektórych wersji mikropuchę
dołączane było coś takiego jak speech CD.
Speech CD, czyli tak naprawdę praca magisterska
jednego z właśnie panów pracujących nad tą syntezą, na Uniwersytecie chyba
Politechnika, czy któryś z uniwersytetów technicznych w Helsinkach, która była
takim podsumowaniem historii syntezy mowy stan na rok 1999.
Bardzo ciekawe, bo dość oczywiście w języku angielskim, ale dość lekko się to czyta,
oczywiście poza kilkoma technicznymi aspektami, gdzie jest naprawdę rozpisane,
jak działa fonetyka, jak synteza mowy przetwarza,
jak wytwarza dźwięki i tak dalej.
Ale mamy takie podsumowanie i mnie bardzo ten rozdział zainteresował.
Jakie to systemy, różne syntezy mowy istniały przez lata?
No okazuje się, że było tego trochę.
Ja na przykład nie miałem pojęcia, że Infovox, którego my znamy jako
a cappella, produkt a cappelli, gdzie w ramach tego była na przykład
Ania Polska. Produkt a cappella to firma szwedzka.
raczej o szwedzkim rodowodzie, bo teraz tam jest jakaś wielonarodowa,
tam jest chyba i Belgia i Francja zakotwiczone.
To początkowo Infovox, zanim to przejęła acapella,
czy zanim acapella w ogóle powstała, to był projekt Teli,
czyli szwedzkiego operatora telefonii.
I to był syntezator sprzętowy dla języka szwedzkiego
i chyba tam, nie wiem, czy fiński też był, ale chyba norweski,
islandzki, czy duński i to mnie naprawdę zaskoczyło.
Tak samo Belgia miała też swój syntezator, to był syntezator Eurowox.
Tryb, tryb komunikacji i mowa.
Ja zaraz, ja zaraz znaleźć jakieś przykłady takich ciekawych głosów, bo oprócz tego,
że jest to praca naukowa, którą możemy sobie przeczytać, to do pracy naukowej
dołączona była płytka CD i tą płytkę CD my również mamy, bo w ogóle całość
została zarchiwizowana przez Jake’a Grossa z Gross Gang na, jak to się nazywa teraz?
Data Jake? Data jakie? Kropka Braille…
Braille Screen, tak? Kropka…
Chyba tak.
Tak i tam jest cały index off, gdzie są różne fajne rzeczy związane z syntezą mowy.
I tam jest też ta cała praca zachostowana w HTML-u, więc można spokojnie…
Polskie też, jakby ktoś chciał sobie z pijara na przykład ściągnąć.
No tak, tak, tak. Ale na płytce niestety polskich głosów nie ma. Za to są różne francuskie, niemieckie, embrole, psole. Wszystko co na lata 90 było dostępne. No zobaczmy co tu…
Muzyka drogowa.
Muzyka drogowa.
Muzyka drogowa.
No tu widzimy jakieś wczesne próby do DECKTOKA.
Tutaj…
w języku angielskim do głosu.
Używa systemu fonetycznego tekstu,
który włącza umiejętności
do wytłumaczenia intonacji
i fonetycznego dźwięku
w języku angielskim do dźwięku dźwiękowego.
System ASL MediTalker TTS
w języku angielskim do głosu.
Także jest to ciekawe, jakby interesowała was historia syntezymowa i zwłaszcza takie wczesne początki, od tak naprawdę Wodera, od lat 20-tych, 30-tych, do roku 1999, to możecie sobie przeczytać tą pracę i możecie sobie posłuchać tych uforków, znaczy tych nagrań, tych sampli na płycie CD dołączonej, która jest bardzo ciekawa.
jest podlinkowana, podhostowana właśnie
na tej stronie, którą podałem
i można się tam przeklikać przez te przykłady
dźwiękowe i sobie różnych fajnych
rzeczy posłuchać. Jakie to ludzie
w latach dziewięćdziesiątych mieli pomysły na
syntezę mowę?
No to
to w takim razie chyba
to już wszystko chyba na dzisiaj
wygląda na to, że tak.
Ja przypomnę w takim razie, że dzisiaj Paulina Gajoch, Paweł Masarczyk, Piotrek Machacz, Michał Dziwisz i ja.
Do usłyszenia.
Braliśmy udział w audycji. No i do usłyszenia. Miejmy nadzieję za tydzień.
Był to Tyflo Podcast. Pierwszy polski podcast dla niewidomych i słabowidzących.
Program współfinansowany ze środków Państwowego Funduszu Rehabilitacji Osób Niepełnosprawnych.

Wszystkie nagrania publikowane w serwisie www.tyflopodcast.net są dostępne na licencji CreativeCommons - Uznanie autorstwa 3.0 Polska.
Oznacza to, iż nagrania te można publikować bądź rozpowszechniać w całości lub we fragmentach na dowolnym nośniku oraz tworzyć na jego podstawie utwory Zależne, pod jedynym warunkiem podania autora oraz wyraźnego oznaczenia sposobu i zakresu modyfikacji.
Przekaż nam swoje 1,5% podatku 1,5 procent Logo FIRR Logo PFRON Logo Tyfloswiat.pl

Czym jest Tyflopodcast?

Tyflopodcast to zbiór instrukcji oraz poradników dla niewidomych lub słabowidzących użytkowników komputerów o zróżnicowanej wiedzy technicznej.

Prezentowane na tej stronie pomoce dźwiękowe wyjaśniają zarówno podstawowe problemy, jak metody ułatwienia sobie pracy poprzez korzystanie z dobrodziejstw nowoczesnych technologii. Oprócz tego, Tyflopodcast prezentuje nowinki ze świata tyfloinformatyki w formie dźwiękowych prezentacji nowoczesnych urządzeń i programów. Wiele z nich dopiero znajduje sobie miejsce na polskim rynku.

Zapraszamy do słuchania przygotowywanych przez nas audycji i życzymy dobrego odbioru!

Tematyka

Pozycjonowanie i optymalizacja stron internetowych