TyfloPrzegląd Odcinek nr 159 (wersja tekstowa)

Pobierz napisy w formacie SRT
Pobierz napisy w formacie VTT
Fundacja Instytut Rozwoju Regionalnego prezentuje Tyflo Podcast.
Dzień dobry, dzień dobry. Zbliżamy się do połowy listopada, już po 20.
A my jesteśmy. I dzisiaj jest taka mała zmiana, myślę, że dobra zmiana.
To znaczy jesteśmy na Facebooku, jesteśmy też na YouTubie.
Mam nadzieję, że tak. Mam nadzieję, że jesteśmy, bo to ja już kompletnie zapomniałem, jak się nadaje na YouTube,
ale chyba prościej niż na Facebooka. I mam nadzieję, że ta transmisja się uruchomiła.
Przynajmniej YouTube pokazuje mi, że transmisja, że kondycja transmisji jest dobra.
Pozostaje mi wierzyć mu na słowo.
W związku z powierzchnią prosimy o jakiś kontakt w tej sprawie, albo po prostu czekamy na to, co się wydarzy.
W każdym razie dzisiaj jesteśmy w składzie nieco większym niż ostatnio.
To znaczy jest Paulina Gajoch, Paweł Masarczyk, Mikołaj Hołysz.
Dobry wieczór Państwu.
Michał Dziwisz i ja, czyli Tomę Gilecki.
Dobry wieczór.
No i jak zwykle zaczynamy od tego, co się dzisiaj będzie działo, a to, co się dzisiaj będzie działo, jak zwykle przedstawi Michał.
W tym tygodniu w Tyfloprzeglądzie.
Nowy adres listy mailingowej dotyczącej orki.
Czy wirtualna rzeczywistość może być dostępna?
Zakończenie wsparcia Hearthstone Access.
Twitter zwalnia cały zespół dostępności.
Accessible Android Apps – lista dostępnych aplikacji na Androida.
Mastodon zyskuje na popularności. Jak z dostępnością?
Great Editor – przynajmniej w teorii ciekawe narzędzie dla programistów Pythona.
Jak wymogi dostępności mogą szkodzić nam wszystkim?
Problemy niewidomych z pracą mogą pojawić się już na etapie rekrutacji.
Apple przyłapane na śledzeniu użytkowników.
Ciekawy kompaktowy smartfon dostępny na polskim rynku.
W Allegro Smart będzie drożej.
Muzyczne okulary od Razera.
Skróty klawiaturowe w aplikacji Messenger.
Wszystko to, a pewnie jeszcze więcej już za chwilę. Zaczynamy!
A zaczynamy od informacji kontaktowych.
To znaczy od informacji, że można się z nami skontaktować na Facebooku,
można pisać komentarze, można też pisać komentarze w aplikacji,
znaczy połączyć się z nami w aplikacji Tyfro Podcast,
no i można się połączyć z nami również na Zoomie.
I na YouTube można też pisać. I już wiemy, że działa,
bo mamy potwierdzenie i to podwójne. Napisał do nas Patryk,
który się z nami przywitał, napisał też do nas Kuba i Kuba pyta,
czy to już tak zawsze będzie z tymi transmisjami na YouTubie.
No wygląda na to, że tak, bo jesteśmy w stanie w końcu to zrobić.
Więc skoro to działa i skoro wszystko jest jak trzeba,
no to po prostu tak zostanie.
Tak jest.
No i zaczynamy od newsów.
A w zasadzie zaczynamy od takich nie do końca newsów,
to znaczy od informacji jeszcze z poprzedniej audycji.
No e-speak się pojawił na iPhone’a,
dla niektórych jest to informacja nieznacząca kompletnie nic,
inni szaleją ze szczęścia.
Mikołaju, testowałeś?
Tak, ja testowałem tego e-speak’a w dwóch, że tak powiem, wariantach,
bo ja go testowałem zarówno na iPhone’ie, jak i na Macu,
bo i takiego też posiadam.
No i co ja mogę powiedzieć, e-speak na iPhone’ie
u mnie się jeszcze nie sprawdził,
gdzie ja jestem dużym fanem e-speak’a,
dla mnie to jest jedyna synteza, w której ja rozumiem
teksty w obu językach, w sensie po polsku i po angielsku,
nie zmieniając głosu, nie zmieniając syntezy.
Ja tę syntezę po prostu lubię,
ja tę syntezę po prostu lubię
i ja byłem do niej przyzwyczajony na Windowsie
i jednak to było coś, czego mi brakowało trochę.
To było jednak coś, czego mi trochę na tym Macu brakowało.
No i co, e-speak na iPhone’ie u mnie nie zdawał egzaminu.
Dlaczego?
Ten e-speak lubił się wyładowywać.
Ja podejrzewam, że to może być dlatego, że ja mam iPhone 8,
który po aktualizacji do iOS 16 wyraźnie zwolnił
i to po nim widać, że to już nie jest ten iPhone,
który był kiedyś
i ja mam duże wrażenie, że mu trochę RAMu zaczyna brakować
i po prostu pewne aplikacje były gdzieś tam wyładowywane
i były z tym e-speakiem problemy.
No ale właśnie,
jak sobie VoiceOver radzi,
jeżeli syntezator coś mu odwinie
i nie za bardzo wie,
co ma z tym syntezatorem zrobić?
Otóż okazuje się, że VoiceOver radzi sobie bardzo dobrze.
Bo ten VoiceOver, owszem, przywiesić nam się przywiesi
na minutę, półtora, pół
faktycznie nie będziemy mieli syntezy,
co gorsze nie będziemy mieli w ogóle VoiceOvera
do tego stopnia, że nam się kurtyna wyłączy,
do tego stopnia, że sterowanie iPhone’em wróci do zwykłego sterowania dotykowego,
tak jakbyśmy nie mieli czytnika ekranu,
ale jak ten VoiceOver w końcu dojdzie do wniosku,
że no nie, z tej syntezy to już nic więcej nie będzie
i coś tu poszło bardzo, ale to bardzo nie tak,
no to nagle problem się rozwiązuje,
VoiceOver do nas wraca
i VoiceOver do nas wraca z wyczyszczonymi domyślnymi ustawieniami mowy,
czyli na pokrętle
wszystkie języki dostają domyślne ustawienia mowy.
Nie wiem dlaczego wszystkie,
nie wiem dlaczego nieobecny,
no podejrzewam, że po prostu VoiceOver widzi,
ale coś jest na tyle nie tak,
że po prostu dla bezpieczeństwa ta konfiguracja mowy jest czyszczona
i zaczniemy od zera,
zaczniemy od stanu, w którym wiemy, że ta mowa zadziała
i no ona faktycznie działa.
Ona co prawda na początku ma duże problemy z latencją,
on jest strasznie nieresponsywny,
ten VoiceOver wtedy,
ale my możemy wejść sobie do ustawień,
sobie te syntezy albo jakby wybrać ją jeszcze raz
i wtedy my tę responsywność dostajemy.
I nie jest to idealne rozwiązanie,
wiadomo, że nie jest to idealne rozwiązanie,
można by to zrobić troszkę lepiej,
ale działać to działa i nie mamy takiej sytuacji,
przynajmniej mi się taka sytuacja nie zdarzyła,
żebyśmy stracili mowę,
albo żebyśmy znaleźli się w pozycji,
żeby nam pomogła. Ja mam na szczęście też taki plus,
że mam na pokrętle kilka języków,
więc nawet gdyby mi ten espig zamilkł,
to jestem w stanie się przełączyć na inną syntezę w innym języku
i to będzie tak czy inaczej działać,
ale nawet jeżeli tego nie ma,
to wygląda na to, że tutaj Apple pomyślał
i naprawdę zrobił to tak,
że to po prostu się nie dzieje,
to po prostu się tak samo zawsze ustawić,
żeby taką czy inną syntezę zawsze będziemy mieć,
czego na przykład o Androidzie,
no to zależy od czytnika ekranu,
ale nie do końca można powiedzieć,
czego ja sam ostatnio mając z tym systemem troszkę do czynienia
miałem nawet okazję doświadczyć.
Co do Maca,
espig na Macu to jest cudowna rzecz,
fakt, no ta beta, która jest obecnie
i która wyszła wczoraj ma w sobie jakiś błąd
sama w sobie po prostu
i ona nie brzmi tak fajnie jak brzmi powinna,
więc ja jestem tymczasowo przyłączony na inną syntezę,
ale mi się już parę dni fajnych bet
espiga zdarzało poużywać
i to działa, to po prostu działa.
Mogłoby to być szybsze, ale to jest limit,
więc wiemy z czego wynika i to jest bardziej
zaszłość historyczna, która wymaga gdzieś tam
kilku linijek w samym espigu
i powinien ten limit zostać wniesiony.
Jest tam jeszcze parę błędów,
ale ten espig działa, ten espig mówi,
ten espig robi to co ma robić, on jest fajny, on jest responsywny,
mi się on bardzo podoba.
Co można o nim powiedzieć, były takie bety,
które sprawiały voice-overowi sporo problemu
przez to ile one dodawały do siebie języków,
bo dla każdego języka,
których mamy w espigu kilkadziesiąt,
mieliśmy kilkadziesiąt głosów,
więc lista głosów jakby dostępnych w systemie
szła nam w tym momencie w tysiące,
co też mogliśmy na przykład
w Voice Dreamie podobno zobaczyć,
na przykład listy z głosami,
które miały po dziesięć tysięcy elementów,
więc voice-over na Macu sobie z tym kompletnie nie raził
i start takiego voice-overa
na porządnym Macu z M1
zajmował z 30 sekund
i działać to działało, ale zanim ten voice-over
po prostu wystartował, to musiało swoje minąć,
a teraz już tego problemu nie ma,
ponieważ teraz wprowadzono taki mechanizm,
że domyślnie do voice-overa są dodawane
tylko i wyłącznie języki nasze systemowe,
te, które mamy w systemie
do języki region w tych ustawieniach dodane,
a jeżeli chcemy sobie
skorzystać z jakiegoś innego języka,
to możemy sobie kliknąć w przycisk
języki voice-over, których w aplikacji e-pick nam się pojawia
i tam z listy wybrać sobie, zaznaczyć sobie,
które języki nam są potrzebne,
które języki ten e-pick ma nam dodać
do swojego repertuaru głosów
dostępnych dla aplikacji zewnętrznych.
To ma to znaczenie nie tylko w przypadku voice-overa,
ale na przykład też tim-talk na Maca
miał spore problemy, on nie za bardzo chciał wstać,
to zajmowało obóz 15-20 sekund,
żeby się uruchomić. Nawet jak już się uruchomił,
to przejście na zakładkę
tekstu speech, czyli tekstu mowy,
tam gdzie się wybiera głos, żeby sobie ten głos zmienić
doprowadzało do permanentnej zawieszki tego programu
i tam jeszcze nic nie dało zrobić,
więc po prostu ewidentnie aplikacje nie są sobie w stanie
kompletnie poradzić z taką ilością
głosów i z taką ilością
języków, więc
zostało to na szczęście już naprawione, zostało to teraz tak wprowadzone,
że tych głosów jest nadal dużo,
ale nie tyle. I już na przykład voice-over startuje
tak jak startował, czyli prawie natychmiast.
No więc to tyle jeżeli chodzi o e-picka
na Maca. No ja co do e-picka na iOS-a
to jednak mam te swoje obawy, bo nie wiem
jak to zostanie rozwiązane w kwestii licencyjnej
i ja się nie zdziwię, jeżeli ten e-pick do AppStora trafi,
bo takich rzeczy się na etapie
tego tzw. review, tego tzw. przeglądu aplikacji nie sprawdza,
ale jeżeli się nadgorliwy
któryś odezwie na
adres e-mailowy
odpowiedni działu prawnego Apple,
zwłaszcza jeżeli będzie to ktoś, czyiś kod
do e-picka trafił i kto teoretycznie ma prawo
nieść, no to może się okazać, że
jest problem i może się okazać,
że ten e-pick z AppStora wyleci,
no ale jeżeli chodzi o Maca to się raczej takimi
rzeczami przejmować nie musimy,
bo nawet jeżeli by ten e-pick
miał wylecieć z AppStora, no to na Macu
możemy również instalować aplikacje z zewnątrz,
gdzie no tutaj już deweloper będzie miał jak najbardziej
prawo te aplikacje dystrybuować
w takim obiegu, że tak powiem, poza Mac AppStore.
No i to tyle jeżeli chodzi o e-picka
przynajmniej z mojej strony, bardzo się cieszę, że to się
rozwija, bardzo się cieszę, że to działa i no
mimo wszystko cieszę się z tego jak
zostało zrobione to w Apple’u,
jak została rozwiązana kwestia tej syntezy
i że ktoś wie o tym, że
Apple’a używają osoby niewidome i że
ten voice over pierwsze i najważniejsze,
nieważne co zawsze musi mówić,
czym by nie mówił, ale on musi mówić i on faktycznie mówi.
Podobno też gdzieś krążą
jakieś takie informacje bardzo nieoficjalne,
ale już kilka gdzieś tam źródeł o tym mówiło, więc jest
szansa, że faktycznie robi się też na
iPhone’a RH Voice, na jakim to jest etapie nie mam zielonego pojęcia,
natomiast no podobno robi się.
Także z RH Voice’em, z tego co wiem
problemów licencyjnych raczej nie powinno być,
więc no miejmy nadzieję, że ten syntezator
na urządzenia
z logiem nadgryzionego jabłka również trafi.
Ja teraz powrócę do informacji
o transmisji na YouTubie, bo dostajemy kolejne
informacje zwrotne.
No i cóż, Adam na przykład napisał do nas,
że na Facebooku jest lepsza jakość.
Cóż, ja sobie porównałem przed momentem, co prawda nie mam w tym momencie
jakichś perfekcyjnych warunków odsłuchowych, żeby to wszystko weryfikować,
natomiast wydaje mi się, że jest to porównywalne, być może
no na przykład Adam ja ciebie jakoś
YouTube zredukował, jeżeli chodzi o jakość
dźwięku z powodu łącza, bo też się czasem
tak zdarza, może tak być, ale ja jeszcze to będę wszystko
przeglądał, dziś ta transmisja jest taką transmisją faktycznie
eksperymentalną, niemniej jednak mającą
szansę, żeby już na stałe u nas zagościć,
bo po prostu w końcu mamy możliwości
techniczne, żeby taką transmisję zrealizować.
Dostaliśmy też pytanie od Kuby,
kiedy będzie prezentacja telefonu
Smart Vision 3? Kubo i wszyscy pozostali, którzy
tej prezentacji się domagacie.
Kwestia jest najzwyczajniej taka,
że my ten telefon po prostu musimy od kogoś
dostać i to nie jest niestety tak,
że my mamy jakieś
bardzo wspaniałe układy
z każdym dostawcą sprzętu
dla osób niewidomych w Polsce i że każdy nam z
miłą chęcią taki telefon do testów oferuje.
Próbujemy coś z tym zrobić, no i jest na to
szansa, natomiast na chwilę obecną
ten telefon u nas się nie znalazł, więc jeżeli ktoś
na przykład już jest w posiadaniu tego
telefonu i chciałby zrobić taką audycję,
no to sami słyszycie, jest zapotrzebowanie,
proszę się do mnie zgłaszać na
michal.dziwiszmałpafir.org.pl
i możemy coś podziałać w tej sprawie, natomiast
no niestety, jak to mawiają, tak krawiec kraje,
jak mu materii staje i po prostu
u nas właśnie w ten, a nie inny sposób
to wygląda. Ja powiem
szczerze, że kiedyś na przykład próbowaliśmy
wchodzić też we współpracę z różnymi
firmami takimi zewnętrznymi, które nam
nawet przez chwilę
udostępniały różnego rodzaju sprzęty do testów,
no przez chwilę,
w momencie, kiedy zaczęliśmy pisać
rzetelnie czy mówić, bo zarówno w Tyflopodcastie,
jak i w Tyfloświecie pojawiały się takie recenzje,
to w momencie, kiedy zaczęliśmy mówić, jakie
osoby niewidome mogą mieć problemy z obsługą
danego urządzenia i na co należy zwracać
taką
szczególną uwagę przy zakupie
tego konkretnego sprzętu, no to niestety
ta chęć przestała być aż tak
duża, bo po prostu
najzwyczajniej w świecie zaczęliśmy mówić sporo o wadach,
a niestety dostępność
różnych sprzętów też i z otwartego rynku
po prostu bywa naprawdę różna.
Ja jeszcze dopowiem, jeśli mogę się wtrącić,
że wstępne testy
moje Smart Vision 3
są przy okazji wywiadów moich,
które były na, przy okazji targów
technologicznych RECHA 2022,
ale troszkę
może publicznie poganiając Tomasza
dopowiemy, że te
moje i testy, i wywiady czekają na
montaż.
Tak, czekają na montaż i miejmy nadzieję, że już za chwilkę
będą zmontowane. Niestety rodzina,
nieraz rodzinne obowiązki
powodują, że troszkę tutaj jest
trudno zaplanować cokolwiek czasami,
w ten sposób powiem.
A teraz przejdźmy do komentarza, bo jeden z komentarzy
pojawił się tutaj nam w notatkach.
Komentarz od Michała, dość długi komentarz,
ale myślę, że dość ciekawy.
Michał pisze tak, cześć, system iOS
jest bardzo zabugowany,
nie od dzisiaj, większość błędów wymaga,
jednak nie jest poprawiana
i nowe kwestie tylko dochodzą z nowymi wersjami.
W tym komentarzu chciałbym zwrócić uwagę na dwie
sprawy, o których rzadko słyszę, aby ktoś
o nich mówił. Może ktoś mający dostęp
do bazy zgłoszeń, dodaje do listy problemów.
Po pierwsze, ja już nie mówię o tym, że
podwójne wciśnięcie home nie zawsze ustawia
voice over na aktywnej aplikacji.
Ja już nie mówię o tym, że lista uruchomionych aplikacji
czasem zapętla się, a już po chwili posiada swój początek
i nawet z czasem koniec, ale gdzie sens
i logika w poniższym?
W switcherze pod podwójnym home jest lista
uruchomionych aplikacji posortowana od ostatnio
używanych i aplikacja aktywna jest na początku
listy. Tymczasem voice over ma gesty
do przełączania się między uruchomionymi aplikacjami.
Gdy przemieszczymy się do innej aplikacji przy użyciu
voice overa, to po otwarciu listy w switcherze
uruchomionych aplikacji
sortowanie listy niejak ma się do ostatniego
użyciu. W szczególności aktywna aplikacja nie jest
na początku, tylko gdzieś w środku listy.
Wydaje się, że voice over nie przekazuje informacji
do switchera systemowego,
a switcher dowo też tylko czasami, więc
jak tu wymagać, żeby voice over wiedział zawsze prawidłowo
którą aplikację wskazywać jako aktywną na liście?
Po otwarcie switchera prawdopodobnie w operacjach
na wskaźnikach listy, podczas dodawania lub usuwania
elementów switchera też są błędy,
bo skąd inaczej? Lista, która raz jest cykliczna, a za moment
nie, z takich błędów już niedaleko
do wycieków pamięci i albo
zamulonego działania, albo przy dobrym
odśmiecaniu wolnych zasobów, sypania się zadań
i usług. To może ja już nie będę sprawdzał,
jak działają gesty voice overa do przełączania
aktywnej aplikacji, gdy wcześniej został otwarty switcher.
Po drugie będzie o tym, jak wysypać voice overa,
a nie, przepraszam, zrestartować.
Tak, funkcja automatycznego wstawania
przyda się, dla jasności, używam głosu Zosia
w wersji rozszerzonej.
No więc, otwieramy aplikację notatki,
wstawiamy krawiszem return znak nowej linii
i na koniec usuwamy go backspace’em.
Tak, usuwanie znaku nowej linii w notatkach wysypuje voice over.
Naprawdę, mało zabawnie jest,
gdy podłączymy klawiaturę sprzętową, nawciskamy trochę znaków nowej linii,
a następnie chcemy je usunąć w dość szybkim tempie.
Wówczas szybka seria restartów voice overa
zmienia głos Zosia z rozszerzony na standard.
Wygląda na to, że tylko wejście w ustawienia
i poprawka na liście głosów jest na to radą.
Nie wiem natomiast, co z innymi głosami,
a także czy tracę jeszcze jakieś ustawienia poza syntezatorem mowy.
Osobiście chciałbym stracić
pustą grupę interpunkcji.
Wiem, że komentarze to nie adres zespołu Apple
powołanego do zdebugowania ich systemów,
ale chciałem zwrócić uwagę na te problemy switchera
w aplikacji w odniesieniu do gestów voice overa.
Do przełączenia aplikacji i o tym wysypywaniu się voice overa
z utratą syntezy na usuwaniu nowej linii,
bo rzadko słyszę o tych dwóch kwestiach od innych.
Systemy Apple nie są już młode.
Jeżeli szybko najważniejszych błędów nie usuną,
to znów będziemy mieli nową epokę,
w której znów jakieś młodsze systemy będą miały swoją chwilę
aż do naprawiania błędów.
Choć wolałbym
nie najgorsze te przesiadki danych,
znów do kogoś nowego już miało być fajnie
i na lata, a jest jak zawsze i wśród błędów,
gdzie te pliki tekstowe na dysku
przechowywa się i mail się wyśle
i na HTTP wystawi.
Zasoby są komunikacja jest, sieć jest,
postscriptum. Jeśli ktoś lubi zwykły tekst,
to na iOS polecam Dropbox zamiast dodatek.
Ma proste pole tekstowe zamiast udziwnionej autokorekty na czele
z zamianą wszystkiego, co popadnie do linku,
w których nie idzie z powrotem odkręcić.
Pozdrawiam.
Ja się odniosę tylko do tego voice overa i do tej zmiany syntezy
i to też jest podejrzewam kolejny właśnie mechanizm
obronny, że jeżeli coś się z syntezą
stanie takiego, że ona nam zacznie
wysypywać voice overa, no to po kilku takich
restartach ten voice over po prostu zmieni
syntezę na domyślną i to też jest właśnie
jakby dobre i dobrze, że taki mechanizm
obronny jest, bo jeżeli kiedyś
zdarzy nam się taka sytuacja, to nie chcemy, żeby
voice over wpadł nam w jakąś wieczną pętlę
restartów, z której sami przecież nie wyjdziemy, bo nie mamy voice overa.
Więc no widać tutaj
po prostu, że została wzięta pod uwagę
kwestia, a co
jeżeli osoba niewidoma straci
mowę w ten czy inny sposób.
Ja mogę też powiedzieć, a propos jeszcze błędów,
że jakoś tak bardzo mocno do mnie dotarło,
tak bardzo zbugowane jest wejście ekranu Braila,
tak w ogóle to już w 15 też się działo.
Nie wiem czy to jest po prostu dzisiaj lewą nogą
wstałem, czy po prostu rzeczywiście te błędy są dużo poważniejsze,
natomiast, bo to mówię już o 16.1,
natomiast no jest to dość niestabilne momentami.
Ja już wspominałem, że odkąd mam iPhone’a 13 mini,
to reagowanie ekranu na dotyk jest dość mocno
do zakwestionowania, że tak powiem.
Czteropunktowe lub pięciopunktowe litery
nie zawsze wskakują, kiedy je piszę.
Jakieś litera T, litera N bardzo często zdarza się,
że ja stukam palcami, nie ma reakcji, zwłaszcza jak piszę jakoś tam szybko
i wymaga to dwóch, trzech prób, żeby w końcu zaskoczyło,
ale to jest powiedzmy może jakaś wada hardware’owa
tych mniejszych ekranów, albo po prostu 13 mini,
albo może mojego egzemplarza, to jest zawsze możliwe.
Natomiast takie bardzo UX-owe rzeczy,
że na początku próbuję wykonać dwupalczasty gest,
ten taki enter, nowa linia lub wyślij,
znaczy nie wyślij, ale enter,
jeżeli aplikacja reaguje jak na enter, to wysyła,
jak nie, to nowa linia. Mówię o tym dwa palce w prawo
albo w kierunku głośnika, zależy jaki układ.
To się przełącza pokrętło i wychodzi mi z tego ekranu.
Jak już powiedzmy uruchomię sobie aplikację,
uruchomiając aplikację Braille’em,
to on gdzieś dalej, mimo że załadowałem aplikację,
myśli, że jest w trybie ekranu Braille’a
i ja coś próbuję palcami ruszać, a on mi piszczy,
tak jakbym wchodził w tryb eksploracji punktów
i jakieś inne rzeczy czyta niżsą, muszę przekręcić pokrętłem
i on dopiero wtedy mi mówi jakaś orientacja pionowa, coś tam.
Jakieś dziwne przesuwanie się kursora,
na przykład piszę sobie w polu edycji Messengera
i nagle focus przeskakuje mi z jakichś przyczyn
na ostatnią wiadomość od osoby.
Ja chcę w tym momencie moimi gestami nowo odkrytymi
nawigować po tekście i dokonać korekty,
a nie mogę, bo focus przeskoczył na coś innego
i już chodzę po czymś innym. I to nie jest wina tylko Messengera,
bo takie rzeczy dzieją się też w innych appach,
więc widać, że ten UX w najmniej spodziewanych momentach
bywa jakiś taki niedopieszczony,
to prawda, natomiast
pytanie ile jeszcze takich obszarów jest,
na ile te błędy są poważne
i na ile gdzieś są też często zgłaszane.
Apple Viz trochę tych błędów wykrył,
więc miejmy nadzieję, że to są te błędy, o których Apple najbardziej wie.
Wiadomo, całą resztę można zgłaszać do Apple Accessibility,
im nas więcej, tym większa szansa, że ktoś to zauważy.
W kwestii syntez ja tu przytaczałem przykład francuski,
gdzie Francuzi sobie wywalczyli jakieś tam poprawki
i one mają być wprowadzane. Czy to będą poprawki względem
większej ilości głosów i języków? Zobaczymy, bo wiem,
że inne języki też się uskarżają, że się te kwestie słownikowe
gdzieś tam pozmieniały.
Na pewno warto zgłaszać, na pewno warto o tym mówić,
pisać do Appla, w jakim języku możecie w takim piszcie,
translatorem, nietranslatorem,
bo tak, to prawda, te systemy
miewają błędy i te błędy są przenajróżniejsze,
natomiast na szczęście chyba przy release’ie 16.
obyło się bez jakichś krytycznych takich, gdzie zahaczenie
jakiejś opcji niespodziewanie wysypuje cały voice over
albo słynny błąd z telefonem,
którego właśnie ja długo, długo nie miałem na piętnastce,
w zasadzie odkąd miałem iPhone’a, czyli to będzie już z rok
i dosłownie nie wiem, kiedy to było, dwa tygodnie temu,
czyli chwileczkę zanim miałem w ogóle zamiar aktualizować
16, on się zaczął dziać.
Teraz jeszcze nie testowałem na tyle długo, żeby stwierdzić,
czy on naprawdę sobie poszedł baj-baj,
natomiast słyszę, że tak, więc liczę na to, że tak
i mam nadzieję, że ten błąd nie zaskoczy mnie
w najmniej oczekiwanej chwili, bo niestety tak się stało ostatnio
i trochę mi było głupio, bo podzwoniłem po jakichś ludziach,
których nie miałem zamiaru niepokoić, a jednak to zrobiłem.
No więc tutaj istotnie jest to, to jest moim zdaniem poważny bug
i wstyd, że tak długo Apple czekało z jego naprawą,
zwłaszcza, że ten błąd był zgłaszany, to był jeden z najbardziej
chyba zgłaszanych błędów tak międzynarodowo,
no i miejmy nadzieję, że to się będzie gdzieś ogarniało,
ale coś jest na rzeczy, że kolejne wydania Apple,
trzeba się liczyć z tym, że będą w nich nietypowe błędy
i to w wydaniach finalnych i to jest ogromna szkoda.
A no, zobaczymy co się będzie działo dalej.
A teraz przechodzimy już do newsów, które mamy w notatkach
na ten tydzień i zaczynamy od takiej serii,
będzie seria drobnych newsów.
Na początek dwa newsy od Pauliny.
Tak, moje newsy są dwa i w tyflowieściach i w technikaliach,
ale z tych tyflowieściowych to najpierw chciałabym opowiedzieć
o tym, że Orkalist ma nowy adres, ponieważ cała społeczność Gduma
przeniosła się z list mailingowych na jakieś inne usługi,
ale uczestnicy Orkalist uparli się, żeby to była lista,
więc teraz mamy na freelist.org listę,
do której trzeba się zapisać tam na stronie.
Najpierw wpisujemy maila, później jest lista rozwijana,
co chcemy zrobić, czy zasubskrybować, czy odsubskrybować,
czy włączyć jakieś tryby sobie odbierania tej poczty,
czyli wyłączyć i dzięki temu właśnie się na nią zapiszemy.
Jeszcze nie wiem zbytnio jak to działa, bo jestem dopiero od dzisiaj,
bo dopiero dzisiaj ten news do mnie doszedł.
To jest jedna rzecz, a druga rzecz, że powstał serwer
Mastodona, o którym jeszcze tutaj dzisiaj będzie,
dotyczący technologii zarówno takiej dostępnej, jak i mainstreamowej.
To jest i accessibility.social.
Także tyle z moich drobnych newsów na ten moment.
Przypomnijmy, że Orka to jest czytnik ekranu dla graficznego Linuxa,
gdyby ktoś nie wiedział, czym jest Orka.
Nie przytomnie podeszłam do tych newsów.
Ale to nie koniec drobnych newsów w ogóle,
bo drobne newsy swoje przygotował jeszcze Paweł.
Tu już będzie chyba więcej tych newsów, tak mi się coś wydaje.
Przynajmniej tyle, jest kilka wpisanych chyba z pięć.
Jak masz najnowszą wersję notatek, to pięć.
To chyba się zgadzamy.
Słychać mnie jak rozumiem?
Oczywiście słychać.
W porządku, no to zaczynamy.
Więc na początek pozdrawiamy wszystkich uszytkowników smartfonów Samsung,
ponieważ otrzymaliście w tym tygodniu, z tego co słyszę,
talkbacka 13.5.
No i mówię o tym w drobnych newsach, bo to jest ten sam talkback,
który już kilka miesięcy temu wyszedł na wszystkie inne urządzenia androidowe.
Więc tutaj się pokazuje niestety troszkę, że ta współpraca Google-Samsung
chyba trochę innym zatoczyła tor, niż by się z początku wydawało.
No ale to nie znaczy, że jest to gdzieś tam mniej wartościowa aktualizacja,
bo macie w tym momencie rozpoznawanie obrazków.
I z tego co słyszę, to w ogóle tu Samsung poszedł trochę inną drogą,
bo dzisiaj wyszła chyba jeszcze druga aktualizacja,
która w ogóle jest dość duża, ona chyba zajmuje 80 mega,
takie dostałem informacje, bo te modele uczenia maszynowego,
które są odpowiedzialne za rozpoznawanie obrazków,
są już wbudowane w tym apk, które jest pobierane.
Na androidzie ogólnie jest to tak rozwiązane,
że dopiero po instalacji talkbacka gdzieś w ustawieniach,
po włączeniu odpowiedniej opcji model jest pobierany,
natomiast tu jest już on spaczkowany razem z wydaniem
i on po prostu jest.
Doszedł też język polski w klawiaturze brajlowskiej,
doszło też to, co już wcześniej androidowcy otrzymali,
czyli nowe gesty, które wyeliminowały na przykład nawigację po tekście
czy też regulowanie suwaków klawiszami głośności.
To widziałem, że niektórzy użytkownicy jeszcze się do tego przyzwyczajają.
Jakieś kwestie dotyczące klawiatury, wybór chyba trybu wpisywania w klawiaturze,
chociaż wydaje mi się, że to w Samsungu już kiedyś było,
jakieś bardziej zbudowane funkcje echa.
Niektórzy użytkownicy twierdzą, że im talkback przyspieszył
i że szybciej i tak sprawnie działa na tych Samsungach.
Inni mówią, że nie aż tak bardzo, więc pytanie,
czy to subiektywna opinia, czy rzeczywiście coś zostało porobione,
żeby ten talkback działał szybciej.
No i przeróżne inne drobne zmiany.
Jeżeli używacie Samsungów i macie nowego talkbacka,
to dzielcie się wrażeniami, bo jest to ciekawe.
No i fajnie, że macie te zmiany, które już od jakiegoś czasu były.
Też chyba doszedł Braille i pytanie teraz,
czy ten Braille jest w tym momencie tylko na Androidzie 13,
czy też wkradł się on do wcześniejszych Androidów na Samsungach.
Ten wbudowany Braille, czyli monitory Braille’owskie.
Czym Google chwaliło się już wiosną na konferencji Google I.O.
No, miejmy nadzieję, że okaże się to niedługo.
Jeżeli macie Samsunga i używacie talkbacka, to dajcie znać.
Druga rzecz, również jeśli chodzi o Androida.
Tutaj jest notka dla użytkowników aplikacji Google Books
względnie książki Google.
Jeżeli kupujecie w tym serwisie książki,
importujecie jakieś pliki, czytacie za pomocą tej aplikacji,
to doszła opcja przerzucania stron w książkach za pomocą menu kontekstowego,
czyli tych działań takich w screen readerze,
bo zarówno wiemy, że Talkback, jak i też Joshua wspierają właśnie tenże system.
W związku z czym możecie tym przerzucać stronę?
Nie ma nadal automatycznego przerzucania stron ponoć,
w związku z czym trzeba to robić ręcznie,
natomiast można to robić i jest ku temu opcja.
Szkoda, że nie ma do tego jakiegoś gestu,
zwłaszcza, że Android pozwala na implementację gestów przesuwania,
które tam z Talkbackiem są kompatybilne,
chociaż teraz jak się ma gesty wielopalczaste,
to trzeba by to pewnie osobno skonfigurować.
Natomiast jest to, więc gdybyście potrzebowali książek Google,
to teraz jest taka możliwość przerzucania stron.
Trzecia kwestia już bardziej Apple’owa dotyczy aplikacji,
która jest w TestFlight’cie i możecie ją przetestować,
bo jej deweloper zwrócił się do społeczności Apple Viz o pomoc.
Nie każdy iPhone może w pełni skorzystać z tej aplikacji,
bo chodzi tu o aplikację, która wykorzystuje tą interaktywną wyspę,
Interactive Island w iPhone’ach 14 Pro,
a jest to aplikacja kompasu.
Aplikacja, która oczywiście pokazuje nam nasz obecny kierunek
i gdzie jest północ, ale też troszkę więcej,
bo pokazuje nam, jeżeli zapiszemy sobie wcześniej różne miejsca
w naszych ulubionych w tejże aplikacji,
jaka jest odległość i kierunek do tego miejsca.
Wiem, że są osoby, które lubią w ten sposób nawigować na azymut,
czyli wybieram sobie jakieś miejsce i jedyna informacja,
jakiej potrzebuję to odległość i kierunek.
No to tutaj mamy taką możliwość, żeby wyświetlać tego typu informacje cały czas,
czyli jeżeli macie tego iPhone’a 14 Pro lub Pro Max
i macie tę wysepkę dostępną.
Ja wiem, że teraz są z nią jakieś problemy w najnowszych iOSach
i Apple próbuje je w tym momencie rozwiązać,
żeby ta wysepka była czytana z voice-overem.
No to na razie jest to dość problematyczne.
Niemniej jednak na pewno Apple sobie czasem z tym poradzi.
No i jeżeli lubicie taki styl nawigacji,
to możecie mieli do niego dostęp w tym momencie z każdego miejsca w systemie,
bo tak naprawdę ta wyspa wysuwa się na zarezerwowanej dla niej części ekranu
i pozwala na wyświetlanie tego, co aktualnie dla niej chcemy mieć,
nieważne, gdzie jesteśmy.
Pytanie, czy autor też pomyślał, a jeżeli nie,
no to może to być jedna z pierwszych uwag do tej aplikacji,
żeby udostępnić dla urządzeń starszych, no nie tylko starszych,
bo na 14 Pro może ktoś też tak lubi, opcje widgetów.
Widgetów na ekranie blokady, widgetów na ekranie głównym,
bo to też byłoby całkiem niezłe, gdyby można było umieścić sobie
na przykład na ekranie blokady widget z danym miejscem,
żeby pokazywało nam ile jeszcze i w jakim kierunku można by podjąć naszą drogę.
Myślę, że dla wielu osób niewidomych byłaby to bardzo,
ale to bardzo użyteczna sprawa.
No więc jeżeli macie możliwość i ochotę przetestować tego typu rozwiązanie,
to aplikacja będzie oczywiście w komentarzu miała podany link na AppleWiz,
tam będzie link na TestFlight i możecie kontaktować się z autorem
i sugerować mu najróżniejsze rzeczy, które chcielibyście,
żeby w takiej aplikacji się pojawiły.
Kolejna rzecz, ktoś dzisiaj wrzucił poradę, jakbyście nie wiedzieli,
może wiedzieliście, ja nie używam Maca, więc nie wiem,
może ty Mikołaju o tym też wiedziałeś, ale udostępniam,
bo może okazać się, że nie wiedzieliście.
Gdybyście chcieli konwersację w iMessage otworzyć w osobnym oknie na Macu,
to wystarczy na tej konwersacji nacisnąć dwukrotnie voice over spacja,
taki skrót klawiszowy i wtedy otwiera wam się ta konwersacja w osobnym oknie.
Gdybyście tak chcieli, to można.
No i ostatnia rzecz, kolejny moduł, już tu nieraz Mikołaj głównie wspominał
o środowisku Hammerspoon, które pozwala na uruchamianie w ramach systemu MacOS
najróżniejszych modułów napisanych przez użytkowników,
które prace z tym systemem usprawniają, do tego stopnia,
że narzędzie Hammerspoon zyskało status takiego nieoficjalnego środowiska
do czegoś w rodzaju dodatków NVDA, czyli jakby takich wtyczek,
które tą dostępność zwiększają, różne zdarzenia pozwalają odczytać syntezą,
różne dźwięki pozwalają rozgłaszać na konkretne wydarzenia i tak dalej.
No to dziś mamy do czynienia z rozszerzeniem batterymon,
które pozwala nam na uzyskiwanie informacji w czasie rzeczywistym,
kiedy to się dzieje, w miarę jak zmienia się status naszej baterii.
Na ten moment narzędzie informuje nas co 10%,
natomiast jest plan, żeby dodać w nim regulowanie co ile procent chcemy,
co jaki czas, może też ciężko powiedzieć jakie są plany tutaj twórcy,
żeby informacja była ta do skonfigurowania przez użytkownika samodzielnie.
No więc jeżeli chcielibyście takiego narzędzia, to ono już jest.
I z mojej strony to wszystko, jeśli chodzi o drobne newsy.
Ale to nadal nie wszystko, jeżeli chodzi o w ogóle drobne newsy,
o drobne newsy również przygotował Mikołajce,
one są troszkę dalej w naszych notatkach,
ale myślę, że skoro już mamy te drobne newsy,
to można już drobne newsy o drobnych newsach powiedzieć wszystkich.
Tak, w takim razie to właśnie tutaj.
Zaczynamy od tego, że powstał DECTOK, działający w przeglądacie internetowej.
To o czym mówiliśmy kiedyś, czyli stary, stary, stary, jeszcze z lat osiemdziesiątych.
Syntezator DECTOK dawniej, syntezator sprzętowy, potem również programowy,
swego czasu bardzo kultowy, zwłaszcza gdzieś tam w środowisku zachodnim,
które miało do niego większy dostęp, bo wiadomo, syntezator nie mówił po polsku.
Zresztą na jego, na bazie, na której powstał DECTOK,
powstał też poniekąd głos Stephena Hawkinga.
To są jakby podobne korzenie i z podobnego typu i z podobnego autorstwa się to wszystko wywodzi.
No i DECTOK się dorobił teraz w wersji przeglądarkowej,
przez to, że wyciekł jakiś czas temu jego kod, różne dziwne rzeczy się z nim dzieją
no i działa też również na stronach internetowych.
Sony z kolei ogłosiło, że będzie dostępny jako firma w Be My Eyes
i osoby niepełnosprawne będą się mogły do Sony dodzwonić bezpośrednio przez tą aplikację
i uzyskać no dla nich wsparcie bezpośrednio przeznaczone.
Niestety usługa będzie dostępna na razie tylko w siedmiu krajach.
Nie rozumiem przecież mówiąc tej decyzji, no skoro Be My Eyes pozwala nam wybrać język,
to ja nie rozumiem dlaczego, dlaczego tak.
W App Store pojawiła się nowa wersja klienta Twittera Spring,
o którym tu już kiedyś mówiliśmy w wersji czwarta, za darmo dla obecnych użytkowników Springa.
Twitter również dodał ze swoim API w wersji 2 wiadomości prywatne.
Oznacza to mniej więcej tyle, że znowu do klientów dla osób niewidomych
może za czas jakiś wrócić opcja dostępu do wiadomości prywatnych na bieżąco,
no bo w API V1 tym bez streamingu, które mamy dostępne obecnie.
Są jakieś bardzo restrykcyjne limity, co jaki czas my możemy te wiadomości prywatne pobierać
i w efekcie dostajemy na powiedzmy aplikację mobilną informację, że takie wiadomości prywatne się pojawiły,
a w naszych klientach, nawet jak będziemy próbowali sobie odświeżyć, one się nie pojawią
przez najbliższe kilka minut, API V2 ten problem rozwiąże i one będą się pojawiały natychmiast.
Podobno są problemy z aplikacją Authy w iOS 16.1.
To jest aplikacja do tzw. kodów dwuzchodnikowego uwierzytylnienia.
Niektóre serwisy, zwłaszcza gdzieś tam w firmach, wymagają od nas, abyśmy dwie metody
zastosowali do zalogowania się, aby utrudnić pracę wszystkiego rodzaju cyberprzestępcom.
No i tą drugą metodą jest bardzo często kod, który pojawia nam się w aplikacji na smartfona
i musimy ten kod przepisać, żeby móc się zalogować.
Jedną z tych aplikacji jest właśnie Authy i ta aplikacja była do niedawna dostępna,
ale pojawiły się jakieś doniesienia, przynajmniej od niektórych użytkowników,
że na iOSie 16.1 voice over ma z nią spory problem.
Również voice over, tym razem na Macu, ma podobno na najnowszym systemie problemy z Audacity,
więc jeżeli ktoś używa to ludzie mówią, żeby nie aktualizować, bo nie działa to dobrze.
Pojawiła się też informacja, że w Polsce ma nastąpić zmiana prawa,
zmiana prawa dotyczącego windykacji i to jest ciekawe,
firmy windykacyjne nie będą mogły ścigać osób ze znacznym stopniem niepełnosprawności,
co jest dla mnie trochę dziwne i zastanawia mnie też,
jak w dłuższej perspektywie wpłynie to na przykład na naszą zdolność kredytową.
Czy się nie okaże w pewnym momencie, że w ramach oczywiście prawa
i w ramach tego, co będzie można zrobić,
jakieś firmy będą chciały nam jeszcze bardziej podmawiać o udzielenie kredytu,
bo przecież nie będą mogli potem w razie czego użyć windykacji.
Zdolność kredytowa to jest jedno, Mikołaju.
Ja się zastanawiam nad firmami, które znacznie częściej,
mam takie wrażenie, korzystają z usług firm windykacyjnych,
bo banki to się chyba aż tak bardzo w to nie bawią,
natomiast wszelkiego rodzaju operatorzy komórkowi i inni świadczący tego typu usługi
mam wrażenie, że są znacznie częstszymi klientami firm windykacyjnych,
niejednokrotnie działając w zasadzie na granicy prawa,
bo już nieraz się słyszało o ściąganiu jakichś długów,
których wierzycie tak naprawdę nie byli do końca informowani,
a właściwie ci dłużnicy, którzy nie byli do końca informowani,
albo na przykład te długi były przedawnione,
a mimo tego te firmy po różnego rodzaju sposoby na ściągnięcie tych długów sięgały,
natomiast koniec końców, tak, też czytając te informacje przyszło mi to do głowy,
czy nie zaczną pojawiać się nagle jakieś problemy właśnie,
jeżeli będziemy sobie chcieli chociażby po prostu kupić telefon na abonament.
Tak, i tutaj jakby przejdziemy potem jeszcze w dzisiejszej audycji
do takiej informacji pochodzącej tym razem z Izraela,
o tym, że ta dostępność to też ma sporo swoich ciemnych stron
i wymuszanie tej dostępności ustawą czasem kończy się gorzej dla wszystkich
i niewidome też na tym traci, ale do tego to przejdziemy za chwilę.
No i to tyle, jeżeli chodzi o małe newsy.
To ja zaglądam teraz do waszych wypowiedzi na YouTubie.
Widać, że z tego czatu chętnie korzystacie,
bo na razie tu najwięcej się dzieje, jak na razie, jeżeli chodzi o naszą dzisiejszą transmisję.
Nie wiem, czy to taki powiew nowości i efekt nowości,
czy rzeczywiście po prostu wygodnie wam się będzie z tego korzystać
i będziecie do nas pisać.
Pisze między innymi Kuba.
Jeśli chodzi o Talkback, to ja dziś zainstalowałem najnowszą wersję.
Jestem z niej zadowolony i podobne zdanie ma też Paweł.
Ja też mam Samsunga i miałem aktualizację Talkbacka,
no i szybko chodzi lepiej.
Więc rzeczywiście widać, że tu pozytywne głosy odnośnie aktualizacji słyszymy.
A tymczasem drobne newsy nam się prawie skończyły,
bo jeszcze została taka jedna seria newsów,
ale nie takich do końca technologicznych newsy ze świata.
A jeżeli newsy ze świata, no to oczywiście Paweł.
Tak i myślę, że warto zacząć trochę z innej kolejności,
niż tutaj mam to rozpisane, bo tak trochę wrzucałem,
tak w miarę jak widziałem, ale priorytety są priorytetami.
Zaczynam od trochę smutnej wiadomości.
Wiadomość o tym, iż wybuchł pożar w szkole dla niewidomych Salama w Ugandzie.
Jest to szkoła, do której chodziły dzieci,
bo tak naprawdę uczniowie od 6 roku życia,
no nie tylko dzieci, ale już tak młode osoby się tam znajdowały.
Ta szkoła przyjmowała uczennice i uczniów z terenów wiejskich,
w jednym z regionów tego afrykańskiego kraju
i we wczesnych godzinach we wtorek 25 października
wybuchł tam pożar w jednej z sypialni dziewczęcych
i niestety są ofiary śmiertelne 11 dzieci.
Chyba wszystkie to były dziewczynki zginęły w tym pożarze.
To był tak silny pożar, że identyfikacji z WOK
trzeba było dokonać na podstawie badań DNA.
Spłonęła duża część szkoły, jak nie cała ta szkoła.
Dzieci potraciły swoje ubrania, swoje rzeczy osobiste.
Nie mają w tym momencie materiałów do nauki.
No i grupa osób niewidomych z Kenii, z Niemiec i z Wielkiej Brytanii
oraz przy współpracy z nauczycielami z tej szkoły właśnie w Ugandzie
postanowiła współpracować i zorganizowana została zbiórka
na portalu GoFundMe, której celem jest zebranie kwoty
10 tysięcy funtów brytyjskich na cel właśnie zakupienia
tych rzeczy, które są tam najbardziej potrzebne.
W kwestii ubrań, rzeczy takich higieny osobistej i tak dalej
ta część przeznaczona na te wydatki zostanie przesłana
bezpośrednio do władz szkoły, bo to oni wiedzą, co jest najbardziej
na miejscu potrzebne. Natomiast takie rzeczy jak białe laski,
papier brajlowski, materiały zostaną zakupione tu w Europie
i przesłane do Ugandy tam na miejsce.
Jeżeli możecie coś wpłacić, na ten moment prawie 13% tej kwoty
jest już osiągnięte, czyli ponad 1000 funtów.
Natomiast możecie wpłacać, a wiem, że z GoFundMe chyba
to nie jest tak do końca prosto, zwłaszcza, że kwota zbiórki
jest zdefiniowana w funtach, więc tam pewnie jakieś przeliczniki
kosmiczne pójdą, ale tyle ile możecie, to wpłaćcie, bo to też
jakby osoby z naszego środowiska, tylko gdzieś bardzo, bardzo
daleko i przydarzyła im się i ich rodzinom niesamowita tragedia
i myślę, że jeżeli my możemy pomóc, to pomóżmy.
Druga kwestia to też poniekąd prośba, tylko już trochę powiedzmy
bardziej patrząca w przyszłość, bardziej powiedzmy związana z innowacją,
z technologią, czyli z tym, o czym najczęściej tu mówimy,
bo Instytut Dostępnych Technologii na Politechnice w Karlsruhe,
czyli uczelnia, która niektórym z nas jest znana, chociażby ze współorganizowania
przez wiele, wiele lat obozów ICC, przy współpracy z drugą znaną właśnie
z tych obozów instytucjon, czyli Politechniką w Dreźnie,
pracują nad takim projektem, w ramach którego miałyby powstać,
nie wiem, czy już konkretne prototypy, czy wytyczne na ten moment,
dostępnych planów budynków, czyli tak jak osoby widzące mają plan taki
wizualny, na którym wszystko widać, gdzie się znajduje,
to miałoby powstać coś takiego dla osób niewidomych.
Tutaj medium przekazania tych danych miałby być dźwięk,
właśnie dźwięki takie intuicyjne, które by informowały nas,
gdzie są, nie wiem, jakieś toalety, drzwi, jakieś konkretne budynki i tak dalej.
I żeby sprawdzić, czy tego typu forma się przyjmie,
no to jest ankieta, którą można wypełnić.
Ankieta, no tu widzę, że troszeczkę zajmuje, bo godzinę do dwóch,
będziemy słuchać różnych dźwięków i odpowiadać na pytania z dziedziny tego,
czy takie dźwięki są dla nas intuicyjne, żebyśmy zrozumieli,
że chodzi o taki, a nie inny przedmiot, czy takie, a nie inne pomieszczenie.
To są te tak zwane audio icons, audio ikonki, no i instytuty chcą zbadać,
czy my rzeczywiście kojarzymy te dźwięki z tymi przedmiotami.
Potem w dalszej części badania, które później się odbędzie
na dalszym etapie rozwoju projektu, będziemy poproszeni
o rozpoznawanie już tych dźwięków w kontekście konkretnej mapy,
więc będzie można dalej się wykazać.
Nie zostaniemy tutaj, nasz czas nie zostanie tutaj za darmo wykorzystany,
bo jako uczestnicy tej ankiety możemy wziąć udział w losowaniu
pięciu voucherów o wartości 25 euro do serwisu Amazon.
Z tego, co wiem od osoby prowadzącej ten, czy współprowadzącej
ten projekt, zaangażowanej w ten projekt, nie spodziewają się zbyt wielu uczestników,
więc szansa wygranej jest dość wysoka. Wszystko zależy od Was.
A też, nawet jeżeli plany tych różnych projektów i badań naukowych
wydają się bardzo dalekie i takie nierealne, to będzie też pewien element,
z którego my będziemy mogli skorzystać, bo dźwięki, które zostały zaprojektowane
na potrzeby tego projektu, zostaną wkrótce udostępnione też
w domenie publicznej jako efekty dźwiękowe, jako biblioteka dźwięków,
które będzie można sobie do dowolnych celów wykorzystać, więc z wielu powodów
myślę, że warto tym projektem się zainteresować, a skoro już mówimy
o nawigacji, to myślę, że warto wspomnieć o tym, iż w Niderlandach,
tak w Holandii, Bartimaeus, kolejna instytucja znana z ICC,
dzisiaj mam jakieś takie wieści ze świata, motyw ICC, właśnie testuje
i wdraża w tymże kraju swój system nawigacji wewnątrz budynków.
System nazywa się Easy Ways i system polega jak wiele takich systemów,
jak Good Maps, jak chyba australijski Bindi Maps, jak coś,
w co próbuje też wejść WaveOut z Austrii, czyli mapowanie budynków
w 3D, czyli firma na zlecenie osób zarządzających budynkiem,
jakimś szpitalem, dworcem, galerią handlową, biurem, tak dalej,
przyjeżdża, wykonuje skanowanie 3D w specjalnym programie,
nanosi na taką mapę 3D, gdzie znajdują się różne budynki,
różne pomieszczenia, gdzie znajdują się różne przeszkody
i potem osoba niewidoma mająca odpowiednią aplikację mobilną
może po takim budynku nawigować. Ponoć ten system ma również
współpracować z systemem, jak to było, dotykowych linii prowadzących,
więc domyślam się, że chodzi tu o takie inteligentne linie prowadzące,
które pewnie też jakoś z laską współpracują odpowiednią.
Więc fajnie, że takie systemy też powoli trafiają do Europy.
Ciekaw jestem, na ile są efektywne, bo nie miałem jeszcze okazji
testować takiego systemu. Bardzo możliwe, że przekonamy się niedługo
i bardzo możliwe też, że to właśnie, że one nie są aż tak dobre.
Myślę, że trzeba by taki system gdzieś na własnej skórze się przekonać o nim,
jak on działa. No i ostatni z serii newsów ze świata dziś.
No choć jeszcze w pewnym sensie wrócimy do tematów ze świata,
ale na ten moment z tych takich drobniejszych. Coca Cola nawiązała współpracę
z Nawilencem i to na razie tylko w Wielkiej Brytanii na swoje
świąteczne zestawy, czyli świąteczne zestawy Coca Coli, które będzie można
dostać w brytyjskich supermarketach, będą opatrzone etykietkami Nawilence.
Mówię o tym dlatego, że coraz więcej takich firm znanych,
jakaś Pantene, jakiś Kellogg’s, tutaj Coca Cola, na razie to wszystko
gdzieś tam w innych krajach. Wielka Brytania widzę w tym Nawilence
i się przoduje mimo, że sam system jest hiszpański, ale kto wie,
jeżeli ta współpraca się przyjmie i będzie to owocne, są to firmy
z globalnym zasięgiem, są to firmy, których produkty są również dostępne u nas,
więc kto wie, może za jakiś czas Nawilence będzie coraz bardziej powszechny
i na produktach, które my możemy dostać w Polsce.
No to w takim razie już rzeczywiście to wszystko jeżeli chodzi o te pakiety newsów.
No a teraz już przechodzimy do pojedynczych informacji
i zaczynamy od wirtualnej rzeczywistości.
Wiele film próbuje jakoś, może niewiele, ale no kilka film próbuje
jakoś tę wirtualną rzeczywistość urzeczywistnić.
No a teraz kwestia jeszcze dostępności tej wirtualnej rzeczywistości.
Tutaj Mikołaj znalazł jakieś informacje na ten temat.
Tak, bo były przeprowadzone takie właśnie badania z osobami niewidomymi.
No czy, jak i na ile można by w ogóle zrobić tę dostępność?
No i się okazało, że to wcale nie jest takie proste, jakby nam się mogło wydawać.
No bo tak, była taka sobie symulacja sklepu, że wchodzimy do sklepu,
mamy sobie w sklepie trzy półki i możemy sobie przeglądać co na tych półkach jest,
widzimy na nich różne produkty, z wagą, ceną, nazwą i opisem.
Tam to był sklep o motywie jedzenia japońskiego
i możemy sobie te produkty zabierać z półki za pomocą kontrolerów wirtualnej rzeczywistości,
brać je sobie jakby do siebie.
No i w założeniu, jeżeli to była prawdziwa jakaś aplikacja,
no to moglibyśmy potem za nie zapłacić, by zostały one nam wysłane pocztą.
To była tylko symulacja, żeby przetestować jak mogłaby z takiego sklepu skorzystać osoba niewidoma.
No i się okazało, że mimo dostosowania takiej symulacji,
mimo prób dostosowania takiej symulacji dla osób niewidomych,
wcale nie było to takie proste.
Bo tak, dostosowano to w ten sposób, że osoba niewidoma miała opis,
gdzie jest, co to jest za sklep.
Miała opis tego, na co jakby wskazuje tym kontrolerem.
Tak, to jest akcywacja przypadkowa asystenta głosowego, takie rzeczy się zdarzają.
I miała również opis tego, co wykona, jakie akcje wykona, jakie czynności wykona
i po wskazaniu na przykład konkretnego produktu były skróty na kontrolerze,
a właściwie na dwóch, bo tam są dwa kontrolery, jeden trzymamy w jednej ręce, drugi w drugiej,
które moglibyśmy sobie naciskać i za pomocą tych skrótów dostawaliśmy konkretne informacje o produkcie,
nazwy, opis, cenę, wagę i tak dalej.
No i się okazało, że to nie wystarcza, to absolutnie nie wystarcza, jest z tym sporo problemu.
I teraz tak, okazuje się, że bardzo duży problem jest dla osób niewidomych,
żeby za pomocą kontrolera wycelować w obiekt o małym rozmiarze.
I nawet jeżeli uda nam się ten obiekt znaleźć, to bardzo często jest tak,
że przez to, że my nie widzimy i my nie mamy tej wizualnej informacji zwrotnej,
to gdzieś nam ta ręka się przesunie, przeleci, za mocno pójdziemy w jedną stronę, w drugą stronę
i my usłyszymy, że jesteśmy na produkcie, ale zanim możemy kliknąć, to już pójdziemy za daleko.
Więc to był duży problem.
Drugim problemem było to, że osoba niewidoma nie wie, w którą stronę ten kontroler jest skierowany,
bo osoba widząca widzi, że z tego kontrolera wychodzi taki wizualny promień
i ten promień jest takim przedłużeniem kontrolera i on celuje w konkretny obiekt.
My tego nie widzimy i my nie za bardzo wiemy, gdzie ten kontroler ma jakby końcówkę,
gdzie on jest tak naprawdę skierowany.
I tutaj sugestią jest, że dla osoby niewidomej przydałyby się specjalne kontrolery,
np. stworzone w kształcie pistoletu, bo wtedy osoba niewidoma wyczuje sobie,
jak wygląda pistolet i się domyśli, że ten pistolet celuje tam, gdzie lufa.
I po prostu tak jak skierujemy lufę, to tam będziemy celować.
I zakłada się, że to byłoby zdecydowanie lepszym rozwiązaniem.
No też kolejnym problemem było to, że duży problemem było jakby stwierdzenie, w jaki sposób ten kontroler trzymać.
Mówiło się nawet o tym, żeby ten kontroler można było trzymać w dwóch rękach,
tak aby móc wykonywać jakieś takie większe ruchy, bardziej precyzyjne ruchy,
żeby nam te ręce aż tak nie drżały.
Nie było również powiadomienia dźwiękowego o tym, że chwyciliśmy obiekt lub czy go chwyciliśmy czy nie,
co też utrudniało osobom niewidomym poradzenie sobie z taką symulacją.
Kolejnym takim problemem, który osoby niewidome zaobserwowały jest to,
że jeżeli się poruszamy w wirtualnej rzeczywistości, a przynajmniej w tej konkretnej symulacji,
to my jakby nie wiemy gdzie jesteśmy, że osoby niewidome w rzeczywistości, no i tak faktycznie jest,
korzystają z, nie nazwę bym tego nawet echolokacją, ale tego, że idąc blisko ściany słyszymy,
że obok nas jest ściana i ten dźwięk odbija się od ściany i wiemy, że ona tam jest
i to pomaga nam się poruszać, bo to daje nam też kontekst taki trochę gdzie jesteśmy.
Do tego w wirtualnej rzeczywistości nie było, były po prostu kroki w jedną, drugą, trzecią,
w otwartą stronę, a kompletnie zero informacji gdzie my jesteśmy w tej przestrzeni takiej dźwiękowej
no i to też osoby niewidome zorientowało.
Kolejnym problemem był brak dźwięków kolizji ze ścianą, no bo osoba widząca takich dźwięków nie potrzebuje.
Okazuje się, że my potrzebujemy, no bo nagle przestajemy słyszeć kroki, idziemy i nie chce nam iść.
No i dlaczego nie chce nam iść? No właśnie dlatego, że wyszliśmy w ścianę i o tym na nas w ten czy inny sposób trzeba poinformować.
Kolejnym problemem było brak możliwości zatrzymania lub pominięcia czytania konkretnej informacji,
brak możliwości zmiany prędkości mowy, brak możliwości wyłączenia dźwięku w tle,
no bo takie symulacje jak to symulacja sklepu, żeby była bardziej realistyczna, dostają dźwięk w tle,
no i się okazuje, że dźwięk w tle zagłusza czytnik ekranu i często sprawia, że tego czytnika ekranu nie da się za bardzo usłyszeć.
Zbyt wiele informacji było ogłaszanych, przez co utrudniało dotarcie do tych informacji, które nas interesowały.
Czasem nawet ci naukowcy musieli złapać osoby za rękę, żeby wycelować w konkretne miejsce,
bo osoba niewidoma nie była tego w stanie robić sama.
No i to tyle jeżeli chodzi o problemy, które zostały zauważone, no jak widać jest tego trochę
i to wcale nie jest tak, że wprowadzimy jakiś czytnik ekranu, wprowadzimy jakieś opisy i będzie super.
Okazuje się, że żeby taką wirtualną rzeczywistość zrobić dostępną, no to jednak trzeba czegoś więcej.
Znaczy ja myślę, że to jest troszkę podobnie jak w grach, które też muszą mieć jakąś obudowę dźwiękową
i to nie wystarczy tylko, żeby coś tam czytało, a te kontrolery to tak mi się trochę też kojarzą z myszką.
Zmuszenie niewidomych do korzystania z myszki, były próby różne, to prawie nigdy nie kończyło się dobrze,
więc albo te kontrolery będą musiały mieć jakiś system, nie wiem czy wibracji, czy czegoś innego,
co pozwoliłoby w jakiś sposób poczuć cokolwiek, jakkolwiek i gdziekolwiek,
no albo trzeba będzie po prostu, albo jedno i drugie, robić pewnie jakieś nadbudowy, jakieś nakładki,
bo nie jest to pewnie tak rzeczywiście proste, ale z drugiej strony w związku z tym, że to jest wirtualna rzeczywistość,
no to można teoretycznie na przykład zrobić różne rzeczy, które będą tylko dla osób niewidomych.
To znaczy wiesz, w standardowym sklepie nie dasz, nie wiem, głośnika, który ci mówi, że tu są herbaty,
ani nic, no bo on będzie przeszkadzał wszystkim, natomiast w rzeczywistości wirtualnej można dawać nakładki,
które będą tylko dla osób niewidomych, tylko dla osób bez rąk, tylko dla osób niesłyszących i tak dalej i tak dalej.
Więc podejrzewam, że to się wcześniej czy później może tak skończyć, choć oczywiście no pytanie,
jak w ogóle ta rzeczywistość wirtualna będzie nam towarzyszyć faktycznie.
Ciekawym przykładem jak to można zrobić był Second Life.
No Second Life to była taka też właśnie symulacja świata wirtualna, w której mogliśmy robić wszystko,
od tańczenia, przez jeżdżenie na koniu, po nieco bardziej, że tak powiem, no mniej cenzuralne zajęcia,
o tak to ujmimy, no i ona była w domyśle niedostępna, za pomocą oficjalnego klienta niedostępna,
ale mogliśmy sobie pobrać klienta Radegast, no który sprawiał, że ona nagle dostępna się stawała
i jak ta dostępność działała, no właśnie tak, osoby niewidome miały listę na przykład obiektów w pobliżu
i na obiekcie mogliśmy nacisnąć menu kontekstowe, mieliśmy opcję zobacz jakby co jest w danym obiekcie,
podejść do obiektu, nawet była opcja przeteleportuj się do obiektu.
No przecież co nam broni skoro to jest wirtualna rzeczywistość, zamiast chodzić i poruszać się po symulacji,
znaleźć to co nas interesuje i zamiast konieczności wymyślania jak tam w ogóle dotrzeć,
jak lawirować w labirydzie, nie wiem, półek, korytarzy, nie wiadomo czego, po prostu kliknąć, przenieść się do
i zostać tam po prostu umieszczonym, więc no można to robić po prostu też w taki sposób.
Jeżeli mogę się odnieść, bo ja też troszkę mam takiego fizycznego doświadczenia,
co prawda myślałam, że zdobędę je dzięki programowi Facebook Research Lab jeszcze wtedy,
odnośnie właśnie Metaverse’u, mieli mi wysłać zestaw i mieli tam mnie jakoś badać, być przy unboxingu i w ogóle i w ogóle,
ale nic z tego się nie odbyło, natomiast na studiach, jak jeszcze byłam na designie, na specjalizacji design,
był taki przedmiot właśnie z VR’em związany, nie pamiętam jak on się nazywał, produkcja gier w VR’ze, jakoś tak.
No w każdym razie miałam tam trzy zajęcia, ale zdążyłam na nich pooglądać kilka zestawów do VR’u
i to czy wiem gdzie celuje kontroler czy nie, to nie jest kwestia tego czy kontroler jest przystosowany do niewidomych czy nie,
tylko po prostu jaki ma design, bo parę było takich, że nie wiedziałam jak to założyć i tak dalej,
ale w sumie jak zapytałam pani prowadzącej przedmiot, to ona też musiała się chwilę zastanowić, żeby mi powiedzieć jak to się zakłada.
Możesz w ogóle Paulino coś więcej opowiedzieć o tych zestawach, czym one się różnią, jak to w ogóle wygląda?
Znaczy tak, to zestaw do VR’u generalnie składa się z gogli i z kontrolerów.
Gogle, czyli takie po prostu większe okulary, tak?
Tak, plus często słuchawki, a jeśli nie słuchawki, to wejście na jacka.
Znaczy słuchawki, no takie głośniczki, które przylegają nam do uszu powiedzmy.
To jest w różnych egzemplarzach i modelach różnie rozwiązywane.
I cóż, no czym one się różnią, to jakby nie wiem, software’owo, ale design’owo to różnią się ciężko,
a chęścią różnią się tym, jak właśnie jest rozwiązane na przykład mocowanie na głowie,
bo czasami jest taka gumowa, chamska, no taki pasek, na którym się to trzyma u nas na głowie,
a czasami jest taka regulacja, jak załóżmy w torpach, torebkach, pelcakach i innych tego typu.
Czasami są rzepy, czasami są jakieś inne rzeczy.
No może się to różnić też w ogóle jakością tego dźwięku, który tam jest od takich z dużą górą do takich naprawdę fajnych,
a w ogóle przez takie, które mają jacka, o czym już wspomniałam.
Mogą się różnić tym, jak wyglądają kontrolery, bo kontrolery czasami potrafią wyglądać tak, że są do szpica.
To nie wygląda może jak pistolet, ale wiem, że skoro to jest ten szpic, to on jest właśnie tym celownikiem.
Przynajmniej tak to wyglądało na moją intuicję, a nikt nie wyprowadził mnie z błędu, żeby to też nie było tak,
że jestem alfą i omegą, bo może akurat coś źle myślę.
To może też zależeć od kontrolera, bo każdy może wyglądać trochę inaczej.
No dokładnie, no i też to zakładanie się różni, czasami jest bardziej, czasami jest mniej intuicyjne.
Przyciski potrafią się różnić na tym kontrolerze, ale zazwyczaj jakiś tam joystick, jakieś parę innych przycisków jest takich standardowych.
No nie wiem, co tam jeszcze mogę powiedzieć, bo ja tylko patrzyłam tak na wygląd typowo, ale to takie moje odczucie.
Okej, ja tu widzę, że dyskusja cały czas trwa na temat Androida i aktualizacji.
Między innymi użytkownik, który się podpisuje, Świat muzyki Pysia na YouTubie do nas napisał.
Jeżeli dobrze rozumiem ten komentarz i tu bym bardzo prosił jednak, żebyście starali się pisać poprawnie to, co chcecie nam przekazać,
bo ja to potem muszę przeczytać, a przynajmniej chciałbym przeczytać, ale rozumiem, że ja z Xiaomi mam mało aktualizacji.
Brat ma Samsunga A50 z 5G i już prawie Android 13, a ja Android 11, masakra.
Tu jeszcze dostaliśmy informację, że jakoś jest dobra, no to się cieszymy, że wszystko jest w porządku.
I jeszcze, i to się muszę przełączyć na nasz panel kontaktowy, bo tu mamy od Krzysztofa informację.
Dodam jeszcze, a propos aktualizacji Talkbacka dla telefonów Samsung, że zarówno wersja S21, która dostała już aktualizację do Androida 13,
może korzystać z tej najnowszej wersji Talkbacka, ale i Samsung S21 FE, który jeszcze aktualizacji do Androida 13 nie otrzymał,
ma możliwość korzystania z najnowszej wersji Talkback z wszystkimi jej funkcjonalnościami.
Pozdrawiam, no to my też Krzysztofie pozdrawiamy i dziękujemy za te informacje.
A teraz w takim razie wracamy do newsów i teraz news również z takiej nie do końca rzeczywistości całkowitej,
ale tym razem chodzi o gry i to nie jest jakaś bardzo wesoła wiadomość, bo zwija się wsparcie dla Hearthstone Access.
Tak, niedawno obiegła nas wieść, że guide dev, czyli główny developer Hearthstone Access, po 15 miesiącach utrzymywania moda
zdecydował się zakończyć jego dalszy rozwój ze względu na bardzo wiele zmian wewnętrznych, które Blizzard wprowadza do Hearthstone z wersji na wersję.
Jest taka informacja, którą on napisał na githubie projektu, to też podlinkowałam w komentarzu.
Napisał on tam, że bardzo smutno mu jest kończyć tę działalność, ale widzi, że Hearthstone z wersji na wersję staje się coraz lepszy,
a mod staje się coraz gorszy i nie było to jego celem i jednakże jest on przetłoczony tym jak wiele się zmienia
i w związku z tym, że za każdym razem trzeba dużo przebudowywać, to użytkownicy czekają długo, a później i tak to nie jest jakieś super,
więc miło było obserwować, ale ostatnia wersja Hearthstone Access, która wyjdzie jest do tej wersji, która jest teraz,
a już następna, główna wersja nie będzie wspierana, czyli najpewniej wersja, która ukaże się przed 6 grudnia,
ponieważ to jest data wejścia nowego rozszerzenia, pochód króla Leash’a, a skoro wchodzi nowe rozszerzenie, to najpewniej ukaże się jakaś większa wersja.
W związku z tą wieścią bardzo liczne, międzynarodowe środowisko zaczęło zgłaszać petycje do Blizzard’a,
znaczy najpierw pisać, później podpisywać o to, żeby stworzyli natywną dostępność do Hearthstone’a,
w zasadzie tych petycji są dwie, pierwsza ma coś koło 1500, znaczy nie, pierwsza ma coś koło 1000, druga ma coś koło 1700 z tego co pamiętam,
ale teraz już nie zwracam na te petycje szczególnej uwagi, ponieważ Blizzard odniósł się do ich treści
i napisał na swoim forum ogłoszenie zacytuowane odniesienie się do kwestii dostępności Hearthstone’a
i napisali w nim, że bardzo są wdzięczni Guide Dev’owi za pracę, którą podjął dla udostępnienia Hearthstone’a
i wiedzą, że jest sporo niewidomych graczy, którzy cieszą się ich grą.
Na ten moment pracują nad możliwością dostosowywania głośności dźwięków poszczególnych elementów gry,
czyli muzyki, dźwięków, dialogów itd., a w późniejszym terminie zajmą się stworzeniem dostępności do całego Hearthstone’a,
aczkolwiek zaistnieje czas, w którym Hearthstone nie będzie dostępny dla graczy niewidomych pomiędzy tą dużą wersją,
a przygotowaną przez nich dostępnością, aczkolwiek należy trzymać rękę na pulsie, ponieważ oni będą próbowali coś z tym zrobić.
Jeszcze raz dziękujemy Guide Dev’owi za jego pracę na rzecz dostępności.
Następnie na Discordzie projektu Hearthstone Access na kanale Developer Talk, czyli na kanale, w którym rozwija się dyskusja
odnośnie podtrzymywania moda. Zresztą to podtrzymywanie moda zostało jakoś tam wstępnie zapewnione przez kilku chętnych.
Guide Dev wyraził taką prośbę, żeby ludzie wstrzymali się z jakimiś próbami, tym bardziej udostępniania kawałków kodu Blizzard’a,
ponieważ jest wstęp w kontakcie z Blizzardem i byłoby to nie okej.
Więc w zasadzie teraz mamy dwa scenariusze, albo Blizzard napisał to ogłoszenie na forum po to,
aby media nie fascynowały się tym, że Hearthstone traci dostępność, ponieważ sprawa zyskała trochę rozgłosów w świecie gamerskim.
Albo faktycznie coś tworzą i chcą trochę się zabezpieczyć przed tym, żeby jakieś kawałki kodu nie pojawiały się w coraz to kolejnych klonach,
forkach i projektach dostępności, przy okazji narażając użytkowników na jakieś działania osób o złych intencjach.
No cóż, myślę, że jeszcze na ten moment jest za wcześnie, żeby którąkolwiek z tych opcji postawić nad tą drugą.
Aczkolwiek Blizzard też w tym poście na forum zachęcał do pisania na mail do Accessibility Team
z jakimiś poradami co do wprowadzenia tej dostępności i innymi uwagami.
Dobrze jest do nich pisać jakoś tak regularnie, żeby było wiadomo, że sprawa nie straciła na rozgłosie.
Też nawet planuję tam napisać, żeby zadeklarować się jako ewentualny beta tester, jako ewentualny ktoś, kto może opiniować pewne rozwiązania i pomysły.
No ale właśnie też Was zachęcam, nawet czy z translatorem, czy bez, żeby jakoś tam się z nimi kontaktować, żeby było wiadomo, że cały czas ta sprawa jest dla nas ważna.
No to teraz zostajemy w świecie technologii i niestety również taka nie do końca też niewesela wiadomość.
Twitter, czy kierownictwo Twittera zwalnia cały zespół, no cały zespół odpowiedzialny za dostępność platformy.
Tak, bo Twitter ostatnio ma, spore zmiany są ostatnio w Twitterze, ponieważ został on przejęty w całości przez Ilona Maska,
obecnie najbogatszego człowieka na świecie, właściciela chociażby Tesli czy SpaceX, człowieka bardzo kontrowersyjnego w świecie technologii.
Twitter będąc kiedyś firmą publiczną tak zwaną, czyli firmą będącą na giełdzie, teraz stał się spółką w 100% posiadaną przez osoby prywatne
i z nowym właścicielstwem przyszła restrukturyzacja w firmie i jak to według słów Ilona Maska, w Twitterze było za dużo ludzi
i Twitter zatrudniał ludzi, których nie potrzebował, no i teraz ludzi, których już nie potrzebuje, należy się z nich, z niego pozbyć.
No i niestety mówi się o tym, że skład Twittera uszczuplił się o połowę, że połowa osób, która tam niedawno pracowała już tam nie pracuje.
No i jedną z tych grup, które zostały z Twittera kompletnie wyeliminowane jest grupa dotycząca dostępności.
W ogóle za nowego zarządztwa zostały wyeliminowane wszystkie takie grupy, które nie mają bezpośredniego przełożenia na zyski w biznesie
i które nie są dla tego biznesu konieczne, które istniały, bo przecież robienie dostępności robi dobry PR w mediach
i w dzisiejszych czasach, no przy tym jakie ruchy polityczne mamy, zwłaszcza w Stanach Zjednoczonych, to nie wypada jej nie robić.
No teraz wszelkie grupy właśnie związane z dostępnością, etycznymi algorytmami i tak dalej i tak dalej zostały usunięte.
No i właśnie jedną z nich jest cała grupa Twitter Accessibility, manager i cały jego team zostali po prostu zwolnieni.
I z tego co wiemy nie ma w tym momencie w Twitterze osoby, która zajmuje się dostępnością, co z tego wyniknie zobaczymy.
A co ciekawe ostatnio ponoć Twitter dość intensywnie przypominał swoim użytkownikom o umieszczaniu tekstów alternatywnych pod zdjęciami.
Pytanie czy to było już po zwolnieniu czy jeszcze?
To było z poprzedniego zarządu, przecież MASK to przejął nie wiem, ze dwa tygodnie temu może.
Tak, tak, tak.
I w piątek chyba zeszły, czy jakoś tak, no przez ten weekend teraz, który był, odbyły się te zmiany wszystkie.
To znaczy tak, ja myślę, że warto tu wspomnieć jaka krótka, ale bardzo prężna i dynamiczna była historia tego zespołu,
bo my zresztą omawialiśmy o tym w przeglądzie, bo to w trakcie pierwszej fali pandemii, czyli jakoś 2020 rok, bliżej wakacji niż dalej,
wybuchła cała afera wokół Twittera, bo na kanwie tego, że tam wprowadzono chyba tweety czy wiadomości bezpośrednie głosowe,
odezwały się osoby niesłyszące, że potrzebują transkrypcji.
Tych transkrypcji tam nie ma, możliwości wstawiania napisów nie ma.
Zrobił się wokół tego szum medialny, no w toku którego wypłynęło, że dostępność w Twitterze, to jest inicjatywa prywatna jakichś, nie wiem, jednego czy dwóch pracowników wolontariuszy,
którzy na co dzień mają kompletnie inne obowiązki, ale z poczucia misji prowadzą też działania na rzecz dostępności.
No to oczywiście medialnie zyskało dość dużą uwagę, w wyniku czego Twitter zformował taki zespół dostępności
i od tego momentu to już szło prosto w górę, bo weszły chyba wtedy weszły albo w ogóle opisy alternatywne zdjęć,
albo one zostały wreszcie dane jako widoczne zawsze, to nie była opcja, bo pamiętajcie, że w Twitterze na początku,
kiedy weszły opisy alternatywne zdjęć, czyli dodawanie, to była to ukryta opcja, trzeba było ją świadomie włączyć, żeby pole na te opisy się pojawiało.
To zostało zdjęte, to pole stało się dostępne przez cały czas, zarówno w interfejsie webowym, jak i w aplikacjach mobilnych,
jak i też chyba w tym narzędzie TweetDeck, które Twitter przejął, które jest dość popularne wśród osób,
które zajmują się bardziej zawodowo social mediami i twitterem, jakimiś kampaniami reklamowymi i tak dalej.
Potem doszły właśnie twitterspaces już z transkrypcjami dla osób niesłyszących, poprawki oczywiście dostępności interfejsów,
gdzieś tam i w ogóle myślenia o dostępności przy wprowadzeniu nowych funkcji, no i te rzeczy, które ostatnio zaobserwowaliśmy,
czyli te przypominajki o dostępności, te plakietki, które pokazują, że zdjęcia mają opisy alternatywne,
to, że te opisy stawały się coraz bardziej gdzieś tam prominentne, bardziej wystawione na widok,
to, że Twitter co chwilę przypominał przez swoje konto Accessibility i nie tylko o tym, że te opisy warto dodawać,
więc Twitter był jedną z takich platform, które w sposób najbardziej taki wokalny i najbardziej w pozytywnym sensie agresywny
przypominały o tym, że te opisy są ważne i o ile wiadomo, że większość się nie dostosowała, bo to ciężko osiągnąć,
no to pojawiło się wiele nawet takich bardziej znanych instytucji, firm i kont i osób, które udostępniały te opisy.
Tutaj najbardziej chyba znacząca była NASA, która rzeczywiście udostępniała te zdjęcia.
Ciekawe, jak teraz Elon się czuje jako sam podbijający kosmos, kiedy wywalił możliwości i uciął jakby to,
że takie znaczenie miało, między innymi właśnie to, że NASA te zdjęcia dodawało, bo teraz tak naprawdę
nie ma żadnej kontroli nad tym, co będzie się działo i kiedy, czy na przykład te opcje, które zespół Twittera
wypracował w ciągu ostatnich dwóch lat nagle nie znikną, albo czy aplikacje, które dzisiaj są dostępne,
na przykład jutro nie przestaną być w wyniku jakichś gruntownych zmian designu.
I to jest taki moment w życiu i ogólnie w technologii, który mi w pewnym sensie uświadomił,
że jeżeli ktoś z nas uważa, że polityka go nie dotyczy i nie trzeba się nią interesować, to właśnie jest polityka.
Nie na poziomie państw, nie na poziomie władz, narodów, rządów, na poziomie korporacji, na poziomie ludzi,
którzy mają potężne pieniądze, żeby kupić co chcą i z tym, co kupią zrobić co chcą.
Wiele mówi się w mediach, spotkałem się z wieloma takimi komentarzami, że tak naprawdę Elon Musk
kupił sobie po prostu drogą zabawkę, bo on bardzo lubi Twittera, bardzo lubi tego Twittera używać
i on sobie po prostu kupił, bo było go na to stać najzwyczajniej w świecie.
Tak, ale to jest też właśnie alarmujące w pewnym stopniu. Ja wiem Mikołaju, że ty masz o tym troszkę inny artykuł
za chwileczkę i innego newsa, natomiast myślę, że warto o tym wspomnieć, że kwestie dostępności,
no ja myślę, że to można by rozciągnąć gdzieś na inne też dziedziny, bo każda grupa społeczna,
której coś dotyczy, pewnie będzie miała podobne roszczenia, ale tutaj się nam uwidacznia jako osobom niewidomym,
że kwestie właśnie dostępności, pewnych dostosowań, które da się zrobić i myślę, że zespół Twittera pokazał,
że jakiś kierunek obrać można.
Tak, można by dyskutować o tym, czemu dopiero teraz, ale lepiej później niż wcale i pokazuje ten przykład
przynajmniej na razie, bo oczywiście zaraz może się okazać, że to wcale nie pójdzie w tę stronę.
My na razie wiemy, że tego zespółu dostępności nie ma. Teraz nie wiadomo, czy tego zespółu dostępności
ma nie być w ogóle, bo Elon Musk uważa, że ta dostępność nie jest ważna i że w zasadzie nie ma co się przejmować
użytkownikami z jakimiś szczególnymi potrzebami, czy po prostu ten zespół będzie gdzieś tam,
na przykład dostępność, to nie będzie obowiązek wszystkich, którzy Twittera tworzą gdzieś tam od tej strony programowej.
My tego na razie nie wiemy.
Pamiętajmy o tym, że osoby zajmujące się dostępnością, co by o nich nie mówić, zwłaszcza w Stanach Zjednoczonych,
bardzo często stoją po jednej konkretnej stronie i mają bardzo zbliżone do siebie i bardzo konkretne poglądy
polityczne i bardzo konkretny światopogląd, który nie za bardzo jest zbliżony do poglądu i światopoglądu
Ilona Muska, więc też nie wykluczałbym takiej opcji, że właśnie bardziej tu chodziło o pozbycie się takich osób
z firmy, które nie pójdą i nie będą podążać za tą wizją, którą Elon Musk dla Twittera widzi
i jakąś chęcią zamienienia ich na osoby, które no bardziej będą z tą wizją skłonne współpracować.
Pozwolicie mi poczynić pewną tragiczną czarną bardzo wizję i przedstawienie czarnego scenariusza?
Ja powiem tak, Elon Musk, Twitter, Accessiby. Co wy na to?
Biznesowo to się spina.
Właśnie ja się obawiam i to już ktoś wysunął. Żeby nie było, ja nie jestem autorem, ja nie daję Elonowi pomysłów.
To już amerykański Twitter.
Elon nie słuchaj.
A to by dopiero było ciekawe, jak byśmy się dowiedzieli, że Elon słucha naszych podcastów.
No więc właśnie, oby nie. Chociaż kiedyś Polskiego się ponoć próbował uczyć, bo jakieś tam coś pisał na Twitterze, jakieś rzeczy.
No w każdym razie, a teraz mamy transkrypty, to już w ogóle jest łatwiejszy dostęp, to już pewnie jakiś AI.
To się wytnie.
Tak, to że tak powiem brzmi jak, nie byłbym zdziwiony, o tak powiem, gdyby taki scenariusz się urzeczywistnił,
bo to by mogło być. Chociaż wizje są różne, jakby tak słuchać wszystkich wizji, to Elon Musk kupił Twittera,
żeby strolować ludzi, zamknąć go i zachęcić do korzystania ze zdecentralizowanego na przykład Mastodona.
Możemy w sumie przejść do Mastodona z tej dyskusji, bo widzę, że masz Mikłaju osobny punkt o Mastodonie,
a ja się Mastodonem przez ostatni tydzień bawiłem.
Ale to jak uważacie, natomiast nie byłoby to do końca jakieś też dziwne, aczkolwiek wątpię.
To jest moim zdaniem bardziej żartobliwy scenariusz niż prawdziwy, ale to w sumie tweet Ilona Muska w czasach,
kiedy meta zaczęło grzebać przy regulaminach WhatsAppa, słynna sprawa sprzed półtora chyba roku,
to tweet Ilona Muska zachęcił ludzi do instalacji Signala. Gdyby nie Elon Musk, to do wiadomości w opinii publicznej
tak by się nie wyrył Signal, który teraz jest tak de facto standardem na przykład w niektórych środowiskach rządowych,
w firmach jakichś pozarządowych, które w jakiś sposób operują wrażliwymi danymi, w niektórych korporacjach.
No więc może po tej kanwie, ale wątpię, wątpię, wątpię.
Nie wiem, czy Ty, Pawle, ze mną zgodzisz, ale ja mam takie wrażenie, że niemieckie środowiska się bardzo zachwyciły Signalem.
Może być.
Bo też niemieckie środowiska bardzo się zniechęciły WhatsAppem.
Też prawda, ale wiem, że też instytucje europejskie miały przejść na Signala i nawet jakoś tam przeszły, w sensie unijne,
ale możecie mieć rację, bo tak też pomyślałam, że kogoś w Polsce znam, że w Polsce też Signal, ale jak tak teraz pomyślę,
to mam dość, no mam taką bańkę znajomych, którzy pracują dla klientów niemieckich też tu w Polsce, więc to może być też ta sprawa.
To znaczy Pawle, jeszcze wejdę tylko w słowo, z dobrze poinformowanych źródeł wiem, że przedstawiciele różnego rodzaju rządowych agencji również używają Signal.
Polskich.
Tak, polskich.
Tak, tak, tak, ale my teraz mówimy o trochę mniej, o bardziej przyziemnych osobach, o osobach pracujących sobie gdzieś tak o, nie mających aż takich sekretów, gdzie powiedzmy w Polsce
wymieniając się kontaktami z kimś to będzie WhatsApp, Messenger, numer telefonu, a jakoś miałem akurat w ciągu ostatnich kilku miesięcy kilka takich okazji rozmawiać właśnie z ludźmi
gdzieś tam z niemieckiego środowiska, fakt po angielsku, bo po angielsku niemieckiego nie znam i zawsze pierwszą sugestią, że przejdźmy na komunikator z maila, to było masz Signala?
No mam Signala.
I dla nich to jakoś, nie wiem, właśnie to było dla mnie takie specyficzne, że pierwszą sugestią był właśnie Signal.
No tak, bo on jest tam w świadomości jako komunikator właśnie bezpieczny i zaszyfrowany.
Ja aż taką fanką Signal’a nie jestem jak Telegrama, bo Telegram i ma opcje prywatne, i ma opcje wygodne, i ma masę botów, i ma masę funkcji i w ogóle.
Nie ma dostępnego IOS-a.
To się zawsze będzie pojawiać, przepraszam najmocniej, ale odkąd łam to cierpię.
Tak, no ja po prostu też wytłumaczę dlaczego jestem fanką.
Ok, jasne.
Ale wracając, to ja w sumie tak teraz bardzo się dziwię, jak dostaję informację, że ktoś tam dołączył do Telegrama z moich kontaktów, gdzie w ogóle bym się tego po tym kimś nie spodziewała.
Bo to jest jakaś taka, nie wiem, dajmy na to, kuzynka, która w sumie nie jest jakoś ani techniczna, ani nic, przynajmniej nic o tym nie wiem, żeby była.
Chociaż nam może akurat się stała, ale tak dużo ludzi, o których bym w ogóle nie myślała, że przejdę do Telegrama przeszło, że widzę, że to faktycznie jest jakiś progres.
Przy czym teraz nawet mam potwierdzone info, że przyjazd dość liczny ludzi z Ukrainy do Polski wzmógł ruch telegramowy i zdarzają się grupy komunikacyjne już nie na Messengerze, tylko na Telegramie.
No tak, bo na wschodzie to ten komunikator jest dość mocno popularny na wschodzie od nas.
Głównym źródłem informacji, zauważcie, że jak czytacie komunikaty jakiekolwiek prasowe, medialne doniesienia a propos Ukrainy, to bardzo często jest informacja o tym, że albo Agencja Prasowa Ukrainy, albo Ministerstwo Obrony podało komunikat na Telegramie.
I to jest chyba główne źródło informacji nawet w Ukrainie, jeśli chodzi o kwestie rządowe i takie oficjalne, tam też Telegram jest używany przez instytucje.
Tak, bo ten komunikator jednak ma prywatność dość mocno wpisaną w siebie i nie dziwi to, że jest używany dość intensywnie.
Ale jak się zaczęło z WhatsAppem działać, to ja pamiętam, że też osoby, moi znajomi z Polski też i to nijak niepowiązani tak mi się wydaje, ani z niemieckojęzycznymi krajami, ani nijak po prostu tego Signala instalowali. Był przez pewien czas na niego jakiś, była moda.
Ja Signala lubię, powiem szczerze, bo on ma fajną jakość dźwięku. I to jest jakby, i z komputera nawet, przynajmniej z Windowsa, bo z Maca to gorzej, ale z Windowsa całkiem fajnie się z niego korzysta.
Miałem też sytuację i to sporo czasu temu, to był rok jakieś 2019 i to nawet w Polsce, że miałem akurat konieczność kontaktu z osobą, sporo już na emeryturze, musieliśmy tam parę kwestii, parę szczegółów uzgodnić i właśnie wyszedł temat, gdzie się najlepiej kontaktować.
I wtedy pytanie do mnie padło, czy ty empasz coś takiego jak Signal, bo to jest w sumie fajna rzecz. I ja z takim zdziwieniem, no mam, mam oczywiście, że mam, więc nawet się czasem u takich osób trafi takie komunikatory.
My mamy grupę rodzinną przeniesioną, a Signal już naszą, bo jedna z osób w tej grupie, która dość mocno zwraca uwagę na prywatność, właśnie wykasowała wszystko, co ma meta w nazwy, czyli właśnie WhatsAppy, Messengery, Facebooki.
No i jesteśmy teraz na Signalu, więc siłą rzeczy też to pokolenie rodziców sobie tego Signala sprawiło, więc jakby tutaj jest to komunikator jak najbardziej używany.
No to jak tam, chcecie jeszcze jakieś newsy, czy może przejdziemy do Mastodona?
Ja myślę, słuchajcie, że możemy przejść do Mastodona, ale zanim to spróbujmy odebrać połączenie od naszego słuchacza Radka, który to już chwilę czeka w poczekalni.
Teraz miejmy nadzieję, że uda mu się z nami dość szybko podłączyć. O, widzę, że się udało. Witamy cię.
Witam, mam nadzieję, że mnie słychać. Słychać, głośno i wyraźnie. Tak, tak bardziej, witamy.
Witam, Radek z tej strony. Jakiś czas temu była tutaj mowa w tyfloprzeglądzie na temat Voice Moda.
Chciałem opowiedzieć o swoich wrażeniach, ponieważ był poruszany tutaj temat kwestii dostępnościowych, że trzeba korzystać z myszki obiektowej.
Powiem szczerze, że ja od wczoraj testuję ten program na tej wersji podstawowej, bo nie mam wersji pro i muszę powiedzieć, że jest prostszy sposób, który działa u mnie.
Nie wiem jak u innych użytkowników, a mianowicie po uruchomieniu aplikacji Voice Mod wystarczy po prostu zrestartować NVDA,
przejść do okna aplikacji, nacisnąć tabulator kilkukrotnie i pojawi nam się ładny, webowy interfejs z klikalnymi elementami i możemy sobie spokojnie po tych głosach się przemieszczać.
To rzeczywiście ciekawe. Tomku, czy u Ciebie to działa tak samo?
Ja, póki co, chyba nawet restartowałem czasami NVDA i nie załapał tego trybu przeglądania nigdzie.
Więc póki co to jest jak interfejs webowy, ale nie webowy. Przynajmniej tak to u mnie wygląda. Być może coś czegoś nie zrobiłem. Zaraz spróbuję to sprawdzić, bo może rzeczywiście coś tu jest na rzeczy, ale do tej pory radziłem sobie obiektówką.
Bo po restartzie NVDA trzeba tabulator nacisnąć kilka razy i wtedy nam powinien przejść jakby do tego trybu przeglądania.
Z tym, że jeżeli mamy uruchomionych ileś otwartych aplikacji i przemieszczamy się pomiędzy oknami alt tabulatorem to czasami rzeczywiście może być z tym problem.
Ja raz bodajże miałem taką sytuację, że musiałem kilkukrotnie zrestartować NVDA i bodajże chyba jeszcze musiałem zmaksymalizować okno z tego menu.
Rzeczywiście jest.
Ale heca. Niesamowite.
I to jest po prostu dowód na to, że i odsłuchaczy też możemy się dowiedzieć ciekawych rzeczy. Dobrze wiedzieć. Radku bardzo cię dziękujemy.
Cieszę się bardzo, że mogłem pomóc.
Od razu taki protip. Jeżeli by to było potrzebne to ta grafika favorite pozwala na to, że później w menu kontekstowym można sobie wybrać ten głos z listy.
Myślałem, że to służy do tego, żeby po prostu dany głos dodać do ulubionych.
To też i wtedy on będzie na wierzchu listy. To jedno. Ale drugie co robi to dodanie do ulubionych to dodaje też do menu kontekstowego do treya.
Paulina powiedz mi, nie wiem czy się orientujesz, jak wygląda sytuacja z tymi głosami beta, bo co prawda ten głos narrator jest obecnie tylko dostępny.
Natomiast creepy doll i te wszystkie inne po kliknięciu nie przełączają się. Czy to trzeba mieć pro?
Dlatego, że to trzeba mieć pro.
Aha.
Ale one działają jak najbardziej i tak.
No właśnie pozostałe poza narratorem już nie są takie bardzo zangielszające.
Jakby ktoś nie wiedział to ja mogę powiedzieć, że to jest w ogóle głos Morgana Frimana tak z ciekawości.
Serio? O, nie wiedziałam.
No to rzeczywiście to znane nazwisko.
Jeszcze jako ciekawostkę mogę powiedzieć o pewnej alternatywie, która już bardziej służy do zastosowań profesjonalnych i tutaj już nie mamy typowo głosów takich z manipulacją wysokości, typu pitch shifter i inne różne tego typu rzeczy.
Bo obecnie aplikacja VoiceMod wspiera te głosy AI i VoiceLab się tym zajmuje. Natomiast jeżeli byśmy chcieli skorzystać tylko z głosów AI
jest taki serwis, który nazywa się Respeacher i tam chyba bodajże wykupuje się konto i tam już mamy coś takiego jak VoiceMarket, gdzie możemy dzielić się swoim własnym głosem, który możemy potem licencjonować, bo to służy właśnie do różnych dubbingów i tego typu rzeczy.
I możemy handlować głosami, możemy kupować głosy i te głosy brzmią zdecydowanie dużo lepiej, nawet można wykorzystywać to do śpiewu, także to już jest bardziej do takich zastosowań profesjonalnych.
Są próbki na YouTube, jeżeli wpiszemy Respeacher można sobie zobaczyć z głównego kanału, jest bodajże chyba kanał na temat VoiceMarketu i użytkowniczka w filmiku pokazuje jak wybiera głos i jak używa go do stworzenia jakiejś tam scenki dialogowej
do jakiegoś filmu, także gdyby ktoś był zainteresowany, no szkoda, że mnie tutaj niestety nie stać ze względów finansowych, ale myślę, że można by było przetestować to rozwiązanie.
A czy tam jest tylko język angielski czy też inne?
Nie wiem jak to wygląda obecnie, bo wiem, że z tego co czytałem na ten temat to Respeacher miał w planach w ogóle wprowadzić coś takiego, że miałyby być wspierane akcenty, to znaczy jeżeli na przykład jakaś osoba wybrałaby głos niemiecki i z racji tego, że jest obcokrajowcem nie mówiłaby płynnie po niemiecku
to i tak on by to rozpoznał i byłoby to mówione w tym prawidłowym niemieckim akcencie, ale z tego co pamiętam jak oglądałem jedną konferencję, bo Respeacher był prezentowany na jakiejś konferencji, to chyba jest więcej języków.
Aktualnie polskiego nie widziałem.
Jest jeszcze jedna rzecz, ten Altered.ai, to jest nasz jakiś taki serwis do filmów, no też generalnie chodzi o dubbingi, tam się płaci dość dużo, ponieważ tam za najtańszą wersję, tam się płaci chyba 54 euro miesięcznie plus VAT, a wersja jakąś średnią to chyba 180
i jest jakaś wersja enterprise, no to contact, please contact, no i to też są głosy już wysokiej jakości, tam jest jeszcze kilka rzeczy, bo tam jest jeszcze jakaś syntne zamowy taka klasyczna, tam są jakieś możliwości tłumaczenia tekstu, zamawia tekstu na mowę, mowy na tekst.
To właśnie Respeacher też oferuje, że można korzystać w czasie rzeczywistym mówiąc do mikrofonu.
Mój głos można zamienić na starszy, młodszy i jakby coś tego typu, w związku z powyższym tych serwisów pewnie będzie więcej.
I wpisywanie tekstu też jest wspierane, natomiast nie wiem czy w pozostałych serwisach też tak jest. Respeacher oferuje możliwość przetwarzania głosu w pliku audio, możemy w pliku audio zamienić na dowolny głos.
Tak, bo tu chodzi o nagrania, on chyba w ogóle potrafi głównie z nagrań ten alteret, tak mi się wydaje, bo chodzi o to, że nagrywa sobie aktor jakieś swoje sceny,
daje się to do tego alteret i po prostu tam jest jakieś batch processing, coś tam jeszcze, on to przerabia po prostu masowo, czy może przerabiać masowo,
ileś plików naraz właśnie w taki sposób, aby był to inny głos. Tych głosów tam jest w sumie 800, tam 20 jakichś takich dobrych super aktorów, reszta to są bardziej zwykli ludzie, którzy tam służą do jakichś tłumów, do jakichś tego typu rzeczy.
No i właśnie chodzi o to, żeby można było tanim kosztem, oczywiście tanim jak na producenta filmów, ogarniać sobie takie różne kwestie. Gdzieś w ogóle są jakieś biblioteki,
które można chyba wykorzystać w ogóle do zrobienia swoich głosów, tylko że to są wiele takich programistów. Temat mnie w ogóle dosyć interesuje i mam nadzieję, że kiedyś, gdy będę miał troszkę więcej czasu,
może spróbuję z kimś, kto się lepiej ode mnie na tym zna, zgłębić temat. Mam możliwe, że dałoby się to zrobić w jakiejś takiej wersji pewnie nie tak profesjonalnej oczywiście, natomiast w jakiejś takiej, żeby zobaczyć w ogóle jak to działa, czy to działa, czy to ma jakikolwiek sens.
A może nawet, żeby coś mimo wszystko z tego ciekawego zrobić.
No póki co mamy bardzo dobrze zrobioną gomułkę do R.H. Voice’a. Gratuluję, widziałem na blogu.
Zupełnie nieoficjalna rzecz.
Tak, nieoficjalnie, ale zawsze fajnie się podzielić.
Nieoficjalnie to jest jedno, natomiast takie rzeczy to jest w ogóle rzecz taka zupełnie nieobjęta chyba prawami. Prawdopodobnie prawa wygasły do tych wszystkich przemówień z 50. lat.
Natomiast no to jest taka sfera, która rzeczywiście pewnie jeszcze jakiś czas nie będzie jakoś tutaj za dużo prawa.
No w każdym razie nie wiadomo kto co tam zrobi w związku z powyższym ostrożnie z takimi głosami.
Jakby ktoś chciał tego używać bardziej do czegoś takiego więcej niż zabawa dla siebie, no bo to zawsze jest jakiś problem może być.
Także no tak to wygląda.
Jeszcze chciałem króciutko zapytać o Whisper’a i będę kończyć, bo niestety troszeczkę nie rozumiem działania jak to wygląda.
Czy to jest jakiś eksek do pobrania z GitHub’a, bo ja szczerze myślałem, że to będzie taka stronka typu jak omawiany wcześniej Audio Strip i ładujemy tam plik.
To znaczy jest jakaś wersja na stronie, nam się ile za to płaci. To co jest do pobrania to jest tak naprawdę skrypt do Python’a plus exec na Windowsa.
Jeżeli ktoś by chciał wykorzystać to coś jako na Windowsa.
A tak naprawdę to chyba i tak lepiej sobie zainstalować właśnie nie w formie tego exec’a tylko zainstalować sobie Python’a, zainstalować sobie odpowiednie komponenty.
Bo jak ty Tomkuł kiedyś wspominałeś w jednej dyskusji, ty miałeś problem z tym exec’iem, żeby on rozpoznawał kartę graficzną, prawda?
Nie, to nawet nie była kwestia exec’a, to była kwestia tego, że ja to zainstalowałem w takim środowisku izolowanym.
A rozumiem.
Bo ja mam jednego Python’a, ileś rzeczy, które chciałbym na tym Python’ie postawić, żeby to się nie gryzło.
To można sobie zrobić takie izolowane środowiska, w których można sobie swoje biblioteki zainstalować itd.
Ja instalowałem, szczerze mówiąc, Whisper’a zgodnie z tą sugestią, jaka tam była w Readme, czyli po prostu zainstalowanie Git’a, zainstalowanie Python’a i innych zależności.
Bo to sporo osób chyba tak będzie robić, tylko po prostu kwestia z tego typu, że mam jeszcze kilka innych rzeczy na Python’ie i żeby potem nie było problemu.
Ja tam widziałem jakieś Readme MD, pikałem w to i nic mi się nie pobierało.
Nie, nie, nie, bo w tym Readme masz opisane, opisaną procedurę instalacji.
Co tam trzeba zrobić, czego użyć, żeby to wszystko działało.
Natomiast to jest program, który będzie raczej wymagał tak czy inaczej konsoli.
Tak. Konsoli i no solidnej karty graficznej.
Tak, tak, tak, bo o karcie graficznej pamiętam właśnie było wspominane.
Ta obsługa później jest dosyć prosta, bo tam wpisujemy po prostu Whisper, nazwa pliku, minus, minus, model, large, minus, minus, language.
Ale samo to pewnie trzeba będzie przekompilować to do tego pliku, żeby było to dostępne z konsoli.
Nie, nie, nie, tam jest podana komenda, którą trzeba wpisać.
Dokładnie. Trzeba jeszcze tylko mieć zainstalowanego konsolowego FFMP-a na pewno i ja na Windowsie miałem taki problem,
że na początku nie chciał mi rozpoznawać karty graficznej, mimo tego, że była obecna w systemie.
Tam trzeba było trochę pogrzebać. Ja teraz dokładnie nie powiem, co ja zrobiłem.
Tam trzeba było chyba konkretną wersję tego Pytorcha zainstalować, żeby to wszystko ze sobą działało.
No i tam trzeba chyba te narzędzie deweloperskie, tak?
Tak, tak, tak, tak, tak.
Deweloper, to trzeba zainstalować.
W sumie ciekawe, bo to pewnie jest jakiś patch do tego, bo pewnie musi być jakaś zmienna tam wprowadzona,
żeby ta komenda Whisper działała i tam z jakimś plikiem musi być to powiązane, bo tak się właśnie zastanawiam.
Bo z reguły, jeżeli nie mamy jakiegoś pliku, to po wpisaniu w konsoli na przykład jakieś nazwy,
to on mi mówi, że nierozpoznawalne, że nazwa pliku wykonanego lub sadowego, czy coś tam.
On ten plik umieszcza po prostu w konkretnym folderze i tam jest ta tak zwana zmienna PAW,
czyli system Windows V, w których folderach on ma szukać naszych programów
i on po prostu przy instalacji jest tam do tego folderu wrzucany
i wtedy jak już wpiszemy, to on wie, że przeszuka sobie te wszystkie nasze foldery i go w końcu znajdzie.
No i tam jest pewnie ten plik exe obsługiwany z konsoli.
Tak, to BAT chyba nawet jest na Windowsie, bo tak to jest zrobione, że to jest jakiś tam Python,
no tam jest taka nakładka śmieszna w Pythonie, która na podstawie tego naszego pliku generuje nam takie właśnie skrypty,
tam BAT na Windowsie i odpowiedniki na Unixach i po prostu pozwala nam to uruchomić i to nam zadziała.
No w ogóle fajnie, że takie narzędzie powstało i teraz wszyscy słuchacze mogą się też cieszyć właśnie tekstowymi wersjami Tyflo Przeglądu.
Ja miałem okazję kilka przeczytać, no i muszę powiedzieć, że jestem pod wrażeniem.
Jeżeli nie było żadnych poprawek przy edycji wprowadzanych, to to jest rzeczywiście bardzo potencjał ma to narzędzie.
Nie, nie było poprawek, to jest tak jak zostało to przetworzone, tak to jest.
Ja się też cieszę, że są też te pliki napisów, dzięki którym można również wrzucać później te transkrypcje na YouTube,
bo to też z pewnością części osób może okazać się przydatne później.
Dobrze, no to tyle ode mnie. Bardzo się cieszę, że mogłem tutaj też pomóc.
Jestem pozytywnie zaskoczony, tym bardziej, że to był mój pierwszy telefon do Was tutaj.
No i życzę udanej audycji.
Dziękujemy Ci Radku za telefon, no i czekamy na kolejne, jeżeli będziesz miał coś dla nas ciekawego, dla nas i dla słuchaczy przede wszystkim.
Jeżeli tylko będę coś ciekawego wiedział, to chętnie poinformuję.
A nawet jeżeli jakaś informacja się powtórzy, to tym lepiej, bo czasami może być tak, że ja coś niedokładnie się dowiem,
to się wtedy przy okazji sprostuję, także dziękuję za udział w audycji i do usłyszenia.
Dziękujemy również, do usłyszenia, pozdrawiamy Cię.
Zanim przejdziemy do kwestii mastodonowych, to myślę, że to jest dobry moment, żeby przeczytać komentarz od Grzegorza,
który nam tu już wisi od jakiegoś czasu, a właśnie dotyczy tego tematu, który za moment się na naszej antenie pojawi.
Cześć Wam, będziecie gadać o Mastodonie?
Ja też jestem choćby na 101010.pl lub mastodon.social, ale też byłem na tfl.net.pl, który prowadził Jacek Zadrożny.
I to on mnie zainspirował tym całym fediwersem i powiem, że to naprawdę fajna sprawa.
Tym bardziej fajna alternatywa dla Twittera po tym, jak Musk go przejął.
A w sumie mam pytanie, Tiflo Podcast i Tiflo Świat chyba są na WordPressie.
Jeśli tak, to jest wtyczka do WordPressa, Activity Pub, która pozwalałaby Was śledzić choćby z klientów Mastodona.
Tu jest link i jeszcze w komentarzu Grzegorz właśnie link zamieścił.
Dziękujemy Grzegorzu.
Tak, spróbujemy to dodać i miejmy nadzieję, że w najbliższym czasie uda nam się ta sztuka,
żeby można było właśnie z klientów Mastodona śledzić czy to Tiflo Podcast czy to Tiflo Świat.
Zawsze to jakiś kolejny sposób na dotarcia do nowych słuchaczy być może.
Także spróbujemy coś z tym podziałać. Mamy to na uwadze.
No to skoro ten mastodon nam się jakoś ostatnio odmienia przez wszystkie przypadki,
no to jak to z tym mastodonem jest dostępność?
Mikołaju, Ty byś chciał?
Tak, mogę powiedzieć myślę.
W porządku.
No bo ludzie zaczęli o mastodonie mówić i mastodon przestał być w tym momencie jakąś taką zabawką dla ludzi,
którzy interesują się otwartymi technologiami, a zaczął powoli wchodzić do mainstreamu.
Co się okazało, ludzie nie za bardzo trochę też wiedzą jak tym korzystać, bo okazuje się, że to wcale nie jest takie proste
i że tam gdzie Twitter przez to, że jest firmą wydał, co by nie mówić, jakieś pieniądze na to,
żeby dopieścić ten swój interfejs użytkownika i żeby ten interfejs użytkownika był zrozumiały
zarówno dla człowieka, który zęby zjadł na programowaniu, jak i dla osoby, która komputera używa jak musi,
no to na mastodonie przez to, że jest to projekt open source rozwijany przez programistów,
no to nie ma aż takiego dopieszczenia tego interfejsu.
Ja już się na Twitterze z wieloma takimi informacjami spotkałem, typu a co to w ogóle są te serwery,
ile w ogóle jest tych mastodonów i co to jest z mastodon, a co to jest ActivityPub, a co to jest Fediversum,
a co to jest jeszcze Pleroma i czym to się wszystko różni i dlaczego tego jest tyle i ja tego nie rozumiem,
no ale tak wyjaśniając pokrótce o co w ogóle z tym wszystkim chodzi, jest sobie kilka serwerów,
najprościej to porównać do poczty elektronicznej, gdzie możemy mieć pocztę na Gmailu, WP, O2,
Onecie, Interii i jeszcze paru innych serwisach i człowiek z WP jest w stanie się skomunikować z Gmailem,
a człowiek z tureckiego T-Maila jest w stanie wysłać email na rosyjskiego Yandexa
i niezależnie od tego z jakiego providera korzystamy, to możemy do każdego innego dostawcy,
do każdego innego usługodawcy maile napisać. No i podobnie działa mastodon, możemy sobie wybrać jakiś serwer,
na którym chcemy nasze konto umieścić i na innych serwerach inne osoby będą mogły nas obserwować,
będą mogły czytać nasze wpisy, a my będziemy mogli czytać wpisy z ich serwerów.
No i w Polsce 10.10.10.pl stało się chyba taką największą instancją, wokół której ta polska społeczność z tego co widzę się skupia.
Jest też parę instancji dostępnościowych, światowych, jakieś accessibility coś stworzyło,
DragonSky.space się wśród niewidomych trochę spopularyzował, jest mastodon.social czyli ta duża,
taka największa, główna instancja mastodona, która została stworzona przez twórców mastodona,
a ludzie odradzają rejestracji na mastodon.social, ponieważ ona zrobiła się tak duża,
że powoli nie daje rady z taką ilością użytkowników i tam często jest tak, że trzeba długo na przykład
czekać na powiadomienia, bo serwer po prostu nie wyrabia pod naciskiem tak ilości ludzi,
więc zachęca się do korzystania z tych alternatywnych instancji.
No i właśnie, jak korzystać, bo się okazuje, że oficjalna aplikacja mastodona na iOSa i strona taka,
jaką nam oferują instancje nie są zbyt dostępne, one nie są tragiczne, ale mogłyby być lepiej.
No i się okazuje, że przez to, że mastodon jest otwarty i przez to, że są do tego API i przez to,
że każdy developer może stworzyć aplikację na dokładnie tych samych prawach co aplikacja oficjalna,
bo tam nie ma żadnych jakby ograniczeń, czego developer praktycznie nie może,
no poza jakimś zarządzaniem, może kontem, który jest jakby tylko i wyłącznie opublikowany,
gdzieś tam pokazany przez stronę, ale naprawdę praktycznie wszystko, co robi oficjalna aplikacja,
może i zrobić aplikacja zewnętrzna.
W aplikacji powstało sporo. I czego ludzie używają?
Na iOSa używa się aplikacji Metatext i są osoby, które też polecają aplikacje Toot, pisane.
Ja Toota nie testowałem, Toot jest aplikacją płatną.
Ja testowałem.
OK. Dla osób, które nie wiedzą, to pewnie może się za chwilę o Tootie wypowiedzieć.
Dla osób, które nie wiedzą, Toot jest odpowiednikiem tweetach na mastodonie,
czyli wpisem, który tam umieszczamy, swoją drogą na większości instancji do 500 znaków,
choć limit jest konfigurowalny przez administratora naszego serwera.
Na Windowsie jest TwistCake. Na wszystkim, co ma na sobie przeglądarkę internetową,
jest aplikacja Pinafore, którą ludzie lubią i ona jest faktycznie fajna.
Ja się nią też bawiłem i ona działa.
Pinafore.app bodajże, tak się pisze.
Albo nawet social.
Social? Ja sprawdzę.
Pinafore.social to jest strona.
Natomiast TwistCake, póki Mikołaj sprawdza, dostał przed dwa dni temu aktualizację,
która znacznie usprawnia funkcjonalność mastodona w tym programie,
bo on wcześniej był taki podstawowy, taki trochę na przyczepkę, żeby był kolejny serwis,
ale jako że to zyskało na znaczeniu, to doszło dużo.
25 zmian było dotyczących samego mastodona w TwistCake’u ostatnim.
Coś poza TwistCake’iem jest na Windowsa?
Pinafore.
Webowy Pinafore.
To jest web.
To jest web, ale to jest bardzo fajny web, to jest bardzo dobrze zrobiony web.
I to jest taki web, że…
Jak Discord, nawigujesz strzałkami po statusach.
Tak, tak.
I on ma skróty klawiszowe, on ma wszystko.
On nie jest zrobiony dla niewidomych, ale on jest zrobiony absolutnie z wiedzą o tym,
że takie osoby istnieją i z chęcią developera, żeby tym osobom pomagać
i myślą, że te osoby też powinny mieć dostęp do takiej aplikacji,
bo tam z tego, co wiem, od administratorów mastodona to różnie z tą dostępnością było
i nie ma zbyt mniej chęci robienia tej dostępności.
Jest też takie alternatywne oprogramowanie jak pleroma, które współpracuje.
To jest wszystko jeden protokół, czyli jeżeli my jesteśmy na serwerze pleromy,
a ty jesteś na serwerze mastodona, a on jest na serwerze write.us,
a ktoś inny jest na serwerze jeszcze czegoś,
a to wszystko jest jakby sfederowane w tym całym właśnie fediwersum,
to my możemy ze sobą dyskutować.
Tak jak Gmail ma swoje oprogramowanie do poczty,
WP ma swoje do poczty i Onet ma swoje do poczty,
a możemy między sobą wymieniać maile,
no to tak samo właśnie w mastodonie, a właściwie w fediwersum,
każdy serwer może mieć jakąś swoją wariację na temat
i jeżeli my sobie zażyczymy, to możemy sobie napisać kompletnie system od zera,
który będzie kompatybilny z tymi wszystkimi dokumentami, standardami,
które są gdzieś tam zdefiniowane
i inne osoby nawet nie będą wiedziały, że my nie używamy mastodona, tylko czegoś innego.
No i właśnie mastodon sam w sobie dostępny jest jakoś,
pleroma dostępna jest z tego, co wiem jeszcze gorzej,
no ale są właśnie zewnętrzni deweloperzy, którzy uważają,
że my dostępność będziemy robić i dostępność robią
i to też ciekawe, na mastodonie jest większa kultura opisów alternatywnych obrazków
i tam te opisy się raczej robi.
To prawda.
Jest jedna rzecz, bo jak Facebooka można jedną decyzję uczynić niedostępnego,
można go zamknąć, można z nim zrobić ileś rzeczy,
to chyba z mastodonem to tak to się nie da.
Bardziej chyba nawet Twittera w obecnej sytuacji,
bo z Bookiem to by się tak trochę więcej czasu zeszło.
Tak, ale powiedzmy, że nie ma czegoś takiego,
że jest jeden, jedyny słuszny klient, jedyne coś
i to się zamyka i wszystko pada, bo nie bardzo jest sens.
Nie ma jednej osoby, jednego ciała, jednej organizacji,
która może powiedzieć teraz wszystkie serwery dostaną reklamy na przykład.
Bo nawet jeżeli mastodon stwierdzi, my kończymy,
to cała reszta może z tego korzystać, tak jak nie da się wyłączyć maila.
Dokładnie, można wyłączyć onet, można wyłączyć o2,
ale maila nie wyłączymy, faksu nie wyłączymy, telefonu nie wyłączymy,
możemy zamknąć jednego operatora.
No więc na mastodonie też różne dziwne treści jakby znajdziemy
i instancje tymże poświęcone.
Tam z tego co wiem jednym z większych takich zagrożeń,
z którym administratorzy instancji się muszą bardzo często mierzyć
jest wysyp pornografii dziecięcej.
Bo przez to, że to jest tak zdecentralizowane,
że instancje może sobie otworzyć każdy, kto ma 5 dolarów na VPS-a,
no to nie jest to już trudne.
Powiem więcej.
Przepraszam, że wejdę w paradę.
Są już serwisy dedykowane do hostowania własnych instancji mastodona.
No tak.
Gdzie płacisz ludziom za to, że trzymają ci instancje mastodona.
Dokładnie.
Więc to jest takie proste już.
Też pamiętajmy o tym.
Ja myślę, czy właśnie sobie nie założyć konta na 10.10.10.pl,
bo tam z tego co widziałem to regulamin jest generalnie taki,
że to co prawem polskim zabronione, czy pornografia dziecięca to zabronione,
ale cała reszta to jak najbardziej w Polsce wolno, to u nas też wolno.
Bo bardzo często, i o tym też musimy pamiętać,
są instancje, które mają dość restrykcyjne warunki na treści
i administratorzy instancji bardzo często dużo mogą
i administratorzy instancji przez to, że te instancje są malutkie,
nie są pod takim medialnym gdzieś tam ciśnieniem,
żeby te ich decyzje miały jakiś sens i logikę.
I jeżeli mamy administratora zwolennika partii X,
to bardzo często instancja głównie dla zwolenników partii Y
na nasze instancji zostanie po prostu zablokowana
i my nie będziemy mogli obserwować osób,
które mają konta na instancji zwolenników partii Y.
Czyli tak trochę wracamy do tych czasów internetu lat 90.,
kiedy to administrator serwera IRC czy serwera grup dyskusyjnych,
jego słowo było prawem i jeżeli ci się to nie podobało,
to mogłeś sobie skorzystać z innego serwera,
ale tak naprawdę to niewiele więcej,
bo odwoływanie się do kogokolwiek, nawet jeżeli dana usługa
była świadczona przez firmę z jakąś renomą,
która miała rozpoznawalną markę, to i tak to nic nie dawało,
bo to bardzo często był serwer u administratora,
który zajmował się wieloma innymi rzeczami pod biurkiem,
a osoby, które były nad nim, to tak naprawdę nie do końca wiedziały,
co się dzieje i co to te internety są i o co tu w ogóle chodzi,
a tam coś sobie robi, to nie ich robi, ale to ważne, że to działa.
Dokładnie i też pamiętajmy o tym, że takie serwisy jak Facebook, Twitter, WhatsApp,
co by o nich nie mówić, są na tyle duże,
że tam nie ma jednej osoby odpowiedzialnej za wszystko
i to nie jest tak, że jedna osoba wpadnie pod przysłowiowy autobus,
to serwis nagle się wysypie, a nawet jeżeli się wysypie,
to zawsze znajdzie się ktoś, kto go postawi z powrotem na nogi,
a w przypadku instancji Mastodona, bardzo często jest tak,
że nawet te duże instancje, to jest robota jednej osoby,
albo w najlepszym wypadku kilku i jest to gdzieś tam w posiadaniu na przykład jednej
i jeżeli się okaże, że ta osoba, albo coś się jej stanie,
wiadomo, wypadki zdarzają się każdemu i można skończyć bardzo gwałtownie czasem swoje życie,
no to się nagle okazuje, że jest instancja, nie ma administratora, jest sobie serwer,
za chwilę zamknie się konto bankowe osoby, która za to wszystko płaciła,
serwer w sieci zniknie, a wraz z serwerem znikną wszystkie nasze dane,
wszystkie nasze wpisy, wszyscy nasi obserwujący pliknie wszystko, co tylko tam było,
bo oczywiście jeżeli my się chcemy przenieść, to my mamy opcję zmigrowania z serwera na serwer
i my, jeżeli wiemy o tym, że ten serwer będzie zamknięty, to możemy to ręcznie zrobić
i dostanie to nawet w miarę bezbolesny sposób zrobione,
ale jeżeli admin nas nie lubi, bo jego dziewczyna jest teraz naszą dziewczyną,
albo admin wpadnie pod autobus i zepsuje mu się serwer,
albo admin nas hakuje, bo w sumie to jest jeden człowiek i nie na wszystkim się zna
i bezpieczeństwo nie jest tym, na czym się zna, to możemy mieć problem,
więc przed tym też ostrzegamy, że to trzeba jednak mieć na uwadze,
że to jest wszystko jednak trochę domatorskie i to nie jest ten poziom profesjonalizmu
i nie używałbym ja na przykład osobiście takich serwisów do wysyłania jakiejś prywatnej wiadomości,
bo też administrator ma do tego dostęp, a przez to, że te instancje są mniejsze,
to jest statystycznie większa szansa, że tym administratorowi się będzie chciało,
bo na te ileś tam miliardów użytkowników Twittera, jeżeli my nie jesteśmy przywódcą Al-Kajdy
albo innym podobnym typem, którego jeden czy drugi rząd będzie chciał gdzieś tam namierzyć,
to szansa, że ktoś będzie czytał konkretnie nasze wiadomości prywatne,
mimo że teoretycznie taka możliwość jest, jest dość niewielka,
ale jeżeli na instancji jest 15 osób i my z administratorem wyjdziemy w rywalizację
od tej przysłowiową dziewczynę, to nagle się okazuje, że administrator ma dostęp
do wszystkich naszych konwersacji i może sobie tam poczytać, co gorsza,
może nam zmienić hasło, wylogować nas z konta i w naszym imieniu wrzucać własne wpisy
i zaczynać wypisywać jakieś w ogóle głupoty i bzdury, żeby nas skompromitować.
Więc no to tym wszystkim też trzeba pamiętać.
Ja myślę, że Mastodon to jest w ogóle temat na osobną audycję, bo można by wiele powiedzieć.
Ja może dorzucę kilka takich rzeczy. Odnosząc się do kwestii bezpieczeństwa,
które tu Mikołaju wspomniałeś, to przede wszystkim myślę, że warto pamiętać o tym,
tam jest możliwość eksportu danych do plików, więc prawda, trzeba sobie wyrobić pewnie nawyk
albo to zautomatyzować, jak ktoś umie.
Tak, ale ci tutaj wejdę, powiem słowo, nie ma możliwości eksportu osób, które nas obserwują.
Można, znaczy nie, które nas obserwują?
Tak, jeżeli my założymy nowe konto, a nasz serwer już z nami nie chce współpracować z tego
czy innego powodu, to nie ma szybkiej i fajnej możliwości jakby zautomatyzowanego przeniesienia
i poinformowania tych poprzednich serwerów, ej, my teraz jesteśmy tutaj, teraz obserwuj nas tutaj.
Bo jeżeli jest normalna migracja, to to działa.
W sensie jak przenosimy się z jednego aktywnego serwera na drugi aktywny serwer,
to to chyba nawet działa, bo ja migrowałem teraz w niedzielę z jednej instancji na drugą.
Jest możliwość weryfikacji dwuetapowej i uwierzytelniania i nawet działają sprzętowe klucze,
Yubikeye, więc tutaj myślę, że można by się dodatkowo tak zabezpieczyć.
Co do wiadomości prywatnych, to jest tak, w ogóle wiadomości prywatne na Mastodonie to są zwykłe wpisy,
zwykłe tuty ustawione na widoczność tylko dla osoby, którą wspomnę we wpisie.
Więc tutaj jest tego typu sytuacja, że już nie pogadamy sobie za plecami o koleżance
bądź koledze, jeszcze wspominając ich znika, bo wtedy zostaną te osoby wciągnięte do dyskusji,
dla nich ten wpis też będzie widoczny, więc to są takie wiadomości prywatne, niewiadomości prywatne.
O racjonale tego, dlaczego tak jest, możemy sobie pogadać w osobnej audycji,
bo naprawdę nie ma co rozciągać tematu, natomiast Metatexta ja też polecam,
ja go używam aktualnie jako mojego domyślnego klienta, też z tego względu,
że on jest przetłumaczony przez Jacka Sadrożnego na polski.
I to jest prawdopodobnie jedyna aplikacja na ten moment w ogóle dostępna do Mastodona,
która po temu polsku się z nami komunikuje.
Na Androida jest dostępny klient Taski, pisane Tusky,
tam również dostępność zapewniał Peter Wagner, a więc osoba jak najbardziej znana
i na której pracy jak najbardziej można polegać.
Jest w produkcji, w Betatestach kolejny klient na iOSa,
bo mówiłeś Mikołaju o Metatexcie i o Tucie.
Ja jeszcze powiem, jest Mercury, który jest dostępny
i Mercury w przeciwieństwie do pozostałych klientów pozwala na,
na przykład personalizację tego, jakie czynności i w jakiej kolejności są na pokrętle.
Do pewnego momentu można spersonalizować, co jest gdzie czytane,
czy na początku ma czytać nazwę użytkownika, czy coś.
To jest niestety w formie takich pól wyboru, więc to są dość predefiniowane rzeczy,
ale coś tam można.
Co tam jeszcze?
No Tud jest płatny i Tud w przeciwieństwie na przykład do Metateksta
posiada własne dźwięki na powiadomienie i można wybrać z kilku.
Jest to przezabawne, w ogóle myślę, że warto tu wyjaśnić genezę Mastodona.
No Mastodon, w ogóle ponoć nazwa tego konkretnego odłamu Fediversum
wzięła się od zespołu metalowego, o którego jeszcze muszę posłuchać swoją drogą.
Nie wiem, czy wy znacie i czym polecacie,
ale ja jeszcze nie słyszałem, a metal to nie jest jakiś gatunek,
który jest mi kompletnie obcy, więc pewnie sobie obczaję ich.
Natomiast oni wiadomo swoją nazwę zaczerpnęli od pewnego prehistorycznego słonika.
Interesujący sposób na zdobycie popularności, bo ja coraz więcej tweetów widzę teraz o nich
i w ogóle jakiś niszowy metalowy zespół przez to, że ktoś tworzył program na ich cześć.
Chyba nie jest tak niszowy, bo ja dzisiaj od kogoś kompletnie nie związanego z Mastodonem
i ten słyszałem, a to ja tylko ten zespół kojarzę.
Więc jak ktoś cię chyba interesuje metalem, to to jest już jakaś marka, tak mi się zdaje.
Ok, ale ja od osób, które się raczej mało interesują,
słyszałem ostatnio przy okazji tego całego szału na Mastodona
komentarze typu, bo ludzie mi mówili, że to jest na podstawie zespołu,
ja sobie obczaję ten zespół i to jest sobie spoko.
I ja się nie zdziwię, jak teraz ludzie w zespole tylko siedzą,
zadzierają ręce i liczą pieniądze i mówią, ale nam spadło.
No widzisz, no to trzeba sobie umieć też na taką markę zapracować.
Ale dlatego też właśnie wpisy nie nazywają się twity czy tam post,
znaczy posty to jest bardzo ogólne określenie, ale toot, czyli jakby z angielskiego trąbnięcie, tak.
I też odpowiednio są dostosowane dźwięki w kliencie, który się nazywa toot,
bo tam mamy różne rodzaje trąbnięcia.
Ja się śmiałem już, że nie wiem, szczerze powiedziawszy,
że chciałbym, żeby usłyszano gdzieś w miejscu publicznym z mojego telefonu taki odgłos,
ale z drugiej strony to jest bardzo fajny sposób pokazania,
co myślimy o decyzjach Ilona Maska a propos Twittera
i w ogóle o mainstreamowych mediach społecznościowych,
bo przecież sam ruch decentralizacji nie zaczął się z zakupem Twittera przez Ilona Maska,
tylko już sobie troszkę istnieje.
Ja na przykład 10 lat temu korzystałem, już czy 12, ze serwisu, który kiedyś nazywał się Statusnet,
później Frendika, czyli tak naprawdę Facebook w świecie tym Fediversum,
bo tu Mikołaju wspomniałeś właśnie o Plerome, o Mastodonie, o Frendice, nie, o Frendice nie wspominałeś,
ale no Fediversum to jest takie konglomerat różnych portali społecznościowych tak naprawdę,
gdzie Mastodon jest takim jakby Twitterem, Pleroma i te Write Us,
tak dalej, to jest taki jakby blog, taki jakby, nie wiem, Tumblr, Medium, coś tam.
Wordpress.com.
Też. Frendika to jest taki jakby Facebook, Pixel Fed w ogóle to jest taki jakby Instagram,
PeerTube to jest taki jakby YouTube, jest też jakiś odpowiednik Spotify
i w tym momencie to wszystko ma swoje odpowiedniki, czyli ja śledząc na Mastodonie kanał z PeerTube,
śledzę tak naprawdę tak, jakbym za pomocą Twittera śledził YouTube’a,
tak i w tym momencie ja śledząc konto na Mastodonie, które jest PeerTube’ową instancją,
tak naprawdę daję subskrypcję kanałowi, klikając lajka, polubiając wpis na Mastodonie,
który pochodzi z instancji PeerTube, tak naprawdę daję łapkę w górę i tak dalej,
więc tak naprawdę te wszystkie operacje do pewnego momentu są wzajemnie kompatybilne,
tam potem oczywiście się rozchodzą, no bo każdy serwis ma jakieś inne zastosowanie,
natomiast no w dość dużym zakresie one są wzajemnie kompatybilne, więc to jest też super,
no teraz na przykład gdyby się Tyflo Podcast pojawił przez wtyczkę wordpressową,
no to ciekawe jak to jest kompatybilne, jeżeli ja za pomocą Mastodonowego Klienta,
śledząc Tyflo Podcast, odpowiem na wpis, który będzie nowym podcastem,
to ja prawdopodobnie wstawię komentarz na stronie, to może być wyraz ciekawym.
Tak, jest w ogóle coś takiego jak Mention i to jest też właśnie jeden z takich standardów
i tam to na przykład pozwala nam umieścić własny wpis na własnym blogu,
który jest jakby w odpowiedzi do czyjegoś wpisu i on się pojawi, powiedzmy, że nie wiem,
ja bym teraz napisał wpis na blogu i wspomniałbym, że w link tej audycji Tyflo Podcastu
stało się coś tam, coś tam i coś tam i teraz administrator Tyflo Podcastu
dostałby informację, że hej, ktoś o Tobie napisał i coś Cię, link wspomniał tutaj.
No, zwłaszcza, że są jakieś bazy w ogóle wiedzy bazujące, takie wiki bazujące
cvnf ediversum, to jest niesamowite. Ja myślę, zastanawiam się jakie byłyby implikacje.
Powiedzmy, ja włączę się do dyskusji na Tyflo Podcastie, odpowiem w komentarzu,
znaczy odpowiem na wpis Tyflo Podcastu, czyli ja będę to widział jako tut,
ale to będzie tak naprawdę nowy podcast na stronie tyflo-podcast.net,
więc poczyniłem komentarz za pomocą mojego klienta. Zaraz ktoś odpowie na ten komentarz
normalnie ze strony i ja prawdopodobnie dostanę powiadomienie, że ktoś,
tylko ktoś musiałby mnie wtedy chyba wspomnieć, ale no nie, może to będzie
tak potraktowane, że jeżeli to jest odpowiedź na mój komentarz w tym wątku
takim komentarzy zagnieżdżonym, to pewnie dostanę powiadomienie na telefon,
że ktoś odpisał na mój komentarz, więc to w ogóle otwiera dużo nowych możliwości
i ja jestem naprawdę ciekaw jak to się rozkręci. Wracając jeszcze do samego
Mastodona, powstają kolejne klienty, powstaje JetFox, który, znaczy on już jest,
tylko że powstały pull requesty, żeby ta dostępność się polepszyła,
pojawił się Tusker, Tasker, który jest jeszcze w becie i nie ma za wiele,
nie ma powiadomień, nie ma wielu opcji, ale dostępność już ma,
jakieś tam akcje na pokrętle i tak dalej.
Już są pull requesty, czyli już ktoś zaprogramował i teraz tylko autorzy
muszą przyjąć i złączyć te zmiany z kodem źródłowym, poprawki tego typu
dla oficjalnej aplikacji Mastodona na iOS-a, więc tam się dużo dzieje
w tym momencie i przez to, że to zyskało na popularności, to tam w tym momencie
jest niesamowity kocioł jak chodzi o dostępność i naprawdę to wszystko
rusza do przodu. Racja, to co mówiliście, internet lat 90-tych, wiele osób zwraca
na to uwagę, że przez to, że to jest wszystko takie nowe i wszyscy się tak
wzajemnie wspierają na ten moment, to wraca trochę taka atmosfera właśnie
dyskusji z lat 90-tych, jakieś fora IRC i tak dalej. Ja w tym momencie
już zagadywałem do jakichś obcych ludzi i piszemy sobie o nauce języków,
o dostępności, o klientach właśnie mastodonowych, poznajemy się.
W ogóle na instancjach można sobie wejść na lokalną oś czasu i przeglądać
absolutnie wszystko, co piszą wszyscy ludzie, którzy są w tym momencie
na naszej instancji, więc to jest trochę tak jak poznawanie sąsiadów,
że można chodzić po całym bloku, pukać do ludzi i poczęstować ich ciastem.
Można sobie nawet jeszcze z federowaną oś przeglądać i wtedy widzimy wszystko,
co piszą ludzie, co interesuje nasz serwer, czyli jeżeli powiedzmy
my obserwujemy kogoś na jakimś innym serwerze, to zawartość tego serwera
będzie się pojawiać w naszej sfederowanej ośi czasu i nasz serwer obserwuje
dużo, dużo innych serwerów, bo powiedzmy mamy 10 użytkowników,
każdy z nich obserwuje 10 innych osób, przeciętnie na 5 różnych serwerach,
to mamy 50 serwerów, z którymi jesteśmy połączeni, 50 naszych sąsiadów,
no każdy z tych 50 serwerów ma na sobie powiedzmy po 10 użytkowników,
no to w naszej sfederowanej osi czasu mamy 500 osób różnych, losowych,
od których my będziemy widzieć jakieś treści, bo powiedzmy jest serwer dla anarchistów
i jedna z osób na naszym serwerze obserwuje jedną z osób,
która jest na serwerze dla anarchistów, no to my nagle będziemy widzieć
zawartość serwera dla anarchistów.
Chyba nie całego serwera, właśnie chyba tylko tych osób, które są śledzone,
tak mi się wydaje, bo tam chodzi o to, żeby nie obciążać serwerów za bardzo,
tych instancji, więc tam chyba widać tylko ludzi z innych serwerów,
których śledzi ktokolwiek z naszego, no a instancje są różne,
są instancje dla krajów, są instancje dla miast, to jest zwłaszcza
w Niemczech popularne, są instancje po zainteresowaniach,
ja już widziałem instancje dla muzyków, instancje dla radioamatorów,
instancje technologiczne o technologiach open source,
cyberbezpieczeństwo, dostępność, są strony do przeglądania,
ale to wszystko tak, jak już wspomniałem, myślę, że warto omówić
szerzej w dedykowanej audycji, bo ta dyskusja nam się coraz bardziej wydłuża,
ale mastodon, jak i całe fediversum jest ciekawym zagadnieniem
i warto go już zgłębiać, się zainteresować, a cała reszta na osobną audycję.
– Halo? – Halo?
– Jest, dobrze. Coś przed chwilą chyba nie było słychać.
No to teraz taki news, który się troszkę naczekał w kolejce, news Pauliny.
Chodzi o to, że powstaje katalog dostępnych aplikacji na Androida,
różnych dostępnych aplikacji.
Tak, szczerze mówiąc, to jest jedna z łatwiejszych do edytowania list
czegokolwiek oficjalnych, które spotkałam gdzieś,
bo mianowicie mamy sobie stronę webową, która jest odzwierciedleniem pliku
i mamy też plik na Google Docsie, po prostu, w który wchodzimy
i wpisujemy to, co byśmy chcieli wpisać.
Przy czym oczywiście ta lista ma schludny, ładny, przynajmniej do tej pory,
bo jeszcze nikt tego nie zespamował.
Format, są kategorie, można stworzyć też podkategorie, są apki.
Każda apka musi mieć link.
Kolejna sprawa jest taka, że jeszcze tych apek jest mało,
bo na przykład do nawigacji wymieniane jest tylko Rosalio.
Aczkolwiek pomysł jest bardzo świeży z tego tygodnia.
Sprawa się rozpowszechniła na Blind Android Users.
W komentarzu jest link i do strony, i do pliku na Docsie.
Jest tam na przykład edytor audio.
Jest tam parę różnych rzeczy.
Fajne sprawia, jak ktoś sobie chce poeksplorować, co jest fajnego, dostępnego.
No i też taki, nie wiem, taki nasz na przykład set,
że jak tam zmieniamy telefon i nie jesteśmy aż tak bardzo za przywracaniem tego,
co mieliśmy na starym telefonie, no to też można sobie zobaczyć,
co jest na tej liście, co warto byłoby zainstalować.
Są tam programy, no i są kategorie do sprawdzania na przykład, do diagnozowania sprzętu naszego.
No podejrzewam, że później się pojawią jakieś takie nieoczywiste kategorie,
w których nie chciałoby się nam szukać czegoś dostępnego,
chcielibyśmy odwiedzić od razu.
No to już nie musimy się pytać, tylko wchodzimy na stronę, sprawdzamy.
No i może faktycznie uda się coś ciekawego tam odkryć.
Ja się zastanawiam, czemu to powstało na dokumentach Google,
kiedy mogło na przykład na GitHubie.
I wtedy byłaby troszkę, znaczy może byłoby to troszkę wolniejsze i mniej w czasie rzeczywistym,
ale byłaby trochę bardziej ogarnięta kwestia jakiejś moderacji tego
i przyjmowania, nie wiem, pull requestów czy coś.
Natomiast podobną listę widziałem właśnie po niemieckiej stronie zrobioną,
też pokategoryzowaną.
Te aplikacje, no one są trochę czasem tam niemiecko-centryczne,
bo wiadomo, natomiast nie wszystkie.
I tak naprawdę jest tam dużo takich też użytecznych.
Ja mogę do notatek nam tą listę podrzucić, jak ją tylko gdzieś odkopię.
Pewnie, zawsze będą dwie.
Ja myślę, że dlatego Google Docs, żeby po prostu każdy mógł tam wpisać coś,
no bo nie każdy ma GitHuba, nie każdemu chciałby się z tym bawić,
no a tak to nie wiem, odkryję sobie coś w nocy przeglądając tam Google Playa,
no to tak sobie wpiszę od razu, no bo dlaczego nie,
a tak to bym musiała wstawać, iść do komputera, wpisywać, a potem to już zapomnę.
No tutaj chodziło, przynajmniej jak patrzyłam w tym mailu,
to właśnie o tą edytowalność, żeby można było zawsze gdzieś tam się dopisać do tego.
Tak jest, a tymczasem jakiś Grid Editor, czyli w teorii przynajmniej ciekawe narzędzie
dla programistów Poytona od Michałanius.
Tak jest, przenosimy się na Uniwersytet Stanowy w Pensylwanii,
bo tam właśnie stworzono narzędzie, które jak o nim przeczytałem,
mimo że programistą nie jestem, ale czasem w kod muszę zajrzeć,
to mnie zainteresowało, bo z opisu wygląda naprawdę bardzo fajnie,
otóż przede wszystkim ma być ono przydatne osobom programującym w Pajtonie,
ale też i takim, które muszą czytać czyjś kod,
no bo jak programujemy sobie w jakichś zespołach,
no to często trzeba przeanalizować czyjś kod, który już został napisany,
albo nawet nasz własny kod, do którego wracamy po jakimś czasie,
no i teraz zorientuj się tu człowieku, co poeta miał na myśli.
No i idea jest nawet dosyć interesująca, bo ten kod troszeczkę wygląda tak,
jakbyśmy go wrzucili do arkusza kalkulacyjnego.
O co chodzi?
Otóż ten kod przedstawiony jest nam w formie tabeli,
w której wiersze to są linie kodu,
natomiast kolumny są pewnego rodzaju wcięciami,
bo w Pajtonie jest tak, że stosujemy tak zwane wcięcia
i te wcięcia w zależności od tego, co jest zagnieżdżone,
jaka funkcja jest zagnieżdżona, w jakiej, jaka procedura,
no to po prostu one muszą być w odpowiedni sposób uporządkowane.
I w Pajtonie akurat jest to ważne, bo jeżeli tych wcięć nie będziemy pilnować,
no to po prostu kod może nam się najzwyczajniej w świecie nie wykonać.
I dzięki Grid Editorowi teoretycznie powinniśmy mieć możliwość
łatwego zapoznania się z tym.
Także i dla nas w wizualny sposób powinno być to czytelne.
Powiem więcej, ten editor nawet ma różnego rodzaju dźwiękowe podpowiedzi.
Dla osób słabowidzących ta składnia też jest w odpowiedni sposób wyróżniona.
Tyle teorii.
Kiedy wejdziemy sobie na stronę Grid Editora,
którą podrzucę Wam oczywiście w linkach, w komentarzach
do najnowszego tyfloprzeglądu, dostajemy pole edycyjne,
w którym już mamy jakiś tam fragment kodu.
To jest jakiś bardzo prosty kawałek kodu napisanego w Pajtonie,
ale to jest tak po to, żebyśmy mogli się z tym zapoznać.
No i żeby przejść do tego wyglądu siatki,
w którym będziemy sobie to mogli ładnie przeglądać,
naciskamy Control i cyfrę 2.
I wtedy rzeczywiście dzieje się magia,
bo nam się to wyświetla właśnie w formie takiej tabeli
albo w formie siatki, jak kto woli.
No i możemy sobie po tym chodzić, przeglądać.
No i w momencie, kiedy znajdziemy jakąś linijkę,
która nas będzie interesowała, znajdziemy się w odpowiednim tam wcięciu,
możemy nacisnąć Control 1 i w tym momencie przeniesiemy się
do dokładnie tego miejsca w polu edycyjnym.
Możemy ten kod sobie modyfikować.
I to jest fajne.
No i teraz zaczyna się problem.
Mikołaju, chciałeś coś dodać?
Nie, to jakby dokończ to, co masz o tym narzędziu.
Ja chciałem dodać jeszcze jednym, które w sumie spełnia podobne zadanie.
To ja jeszcze dokończę.
Dlaczego ja mówię o tym, że to jest teoretycznie fajne rozwiązanie?
Bo ten przykład, który tam jest zamieszczony,
to naprawdę przegląda się przyjemnie i to działa bardzo fajnie.
Ale tak sobie pomyślałem, dobra, to teraz spróbujemy
popracować na jakimś rzeczywistym kawałku kodu,
bo skoro ten przykład działa,
to ja bym się chciał zapoznać z innym kodem w Pythonie,
na przykład chociażby ze sterownikiem do Apollo,
który gdzieś tam, mam jego kod źródłowy na dysku,
sterownik napisany do NVIDIA w Pythonie,
no to spróbujemy go wrzucić i przejrzeć w ten sposób.
No i tu się okazał problem.
Mam wrażenie, że ten edytor to jest na razie taki bardzo koncept,
on już gdzieś tam został okrzyknięty, no może nie rewolucją,
ale czymś naprawdę bardzo, bardzo ciekawym
i rzeczywiście koncepcyjnie wygląda to fajnie,
ale jak wkleiłem ten kod, który tam miał kilka tysięcy znaków,
to to po prostu wszystko się zamuliło.
Pierwsze, najpierw w ogóle zastanawiałem się, dlaczego ja nie mogę tego wkleić ze schowka.
Czemu mi to nie chce działać?
Pojedyncza linijka tekstu bezproblemowo udawała się wkleić.
Po otwarciu tego kodu w notatniku i przeklejeniu ze schowka do przeglądarki nie działo się nic.
Okazało się, że tam się dzieje, tylko w bardzo wolnym tempie
i ten kod po prostu zanim został przeklejony, zanim ja się mogłem z nim zapoznać,
no to potrzebował kilkudziesięciu sekund tak naprawdę.
A przeglądanie tego w formie tej siatki, w formie tej tabeli,
które na tym demonstracyjnym przykładzie wyglądało bardzo fajnie,
to tak naprawdę przestało działać.
Więc niestety z większymi fragmentami kodu,
no to jest bardzo duży problem i to nie jakimiś naprawdę monstrualnymi,
bo wydaje mi się, że ten sterownik, te kilka tysięcy znaków,
no to nie jest jakieś coś, co jest bardzo dużym kodem,
z którym powinno to mieć aż tak wielkie problemy.
Więc podaję to jako ciekawostkę, być może jeżeli ktoś pracuje na jakichś naprawdę małych fragmentach kodu,
to do czegoś mu będzie to przydatne,
a nie jednak przed twórcami tego rozwiązania,
no dość duży wysiłek jeszcze, żeby to wszystko działało
i żeby to faktycznie spełniało swoje zadanie.
Niemniej jednak koncepcja istotnie ciekawa.
Jest jeszcze jedno takie narzędzie, które ma troszkę podobny pomysł,
ale jednak koncepcja jest nieco inna.
To narzędzie się pierwotnie pojawiło jako dodatek do NVIDIA,
potem stało się również dodatkiem do edytora Visual Studio Code
i to narzędzie się nazywa Indent Nav.
I tam idea jest taka, że mamy w polu tekstowym kod,
w tak naprawdę dowolnym języku programowania,
byle tylko były zachowane w nim wcięcia,
a jeżeli współpracujemy z widzącymi, to tak czy inaczej te wcięcia
albo będą zachowane, albo widzący będą mieli z tym bardzo duży problem.
I mamy tam tak naprawdę cztery komendy.
Przejdź do następnej linii o tym samym wcięciu,
przejdź do poprzedniej linii o tym samym wcięciu,
wejdź jakby w cięcie wyżej i wyjdź w cięcie niżej.
Czyli na przykład mamy jakąś funkcję i mamy w niej 30 linijek.
Każda z nich jest jakby wcięta, funkcja jest wcięta razy jeden,
bo jest tam w czymś i te linijki są wszystkie w środku wcięte
na dwa wcięcia, na tam 8 spacji.
No to jesteśmy sobie w linii 15 i chcemy jakby wyjść do góry tej funkcji,
czyli do tej linii wciętej razy jeden.
No to sobie naciskamy tam NVIDIA ALT strzałka w lewo
i przeskakujemy na samą górę.
I jeżeli mamy ileś takich funkcji wciętych razy jeden,
każda z nich mająca w sobie ileś tam linijek wciętych na dwa,
to możemy NVIDIA ALT góra-dół poruszać się po wszystkich tych elementach wciętych razy jeden,
pomijając wszystkie te linie wcięte razy dwa.
Czyli mamy linijkę wciętą razy jeden, 30 linijek razy dwa,
linijkę wciętą 30 linijek razy dwa, razy jeden, 30 linijek razy dwa
i się tak poruszamy razy jeden, razy jeden, razy jeden.
I tak samo możemy sobie nawet za pomocą tego dodatku
tworzyć takie drzewiaste pliki tekstowe.
Czyli tworzymy sobie, nie wiem, linijki dotyczące jakichś konkretnych zagadnień,
powiedzmy, gdyby to był tyfloprzegląd, to linie nie wcięte,
to by było powiedzmy audycja pierwsza, audycja druga, audycja trzecia,
linie wcięte raz tyflowieści z poprzedniej audycji z komentarzy Technicalia,
linie wcięte dwa razy tytuły konkretnych newsów,
trzy razy konkretne zawartości newsów.
I teraz poruszamy się audycja pierwsza, InstaData Strzałka w dół,
audycja druga, audycja trzecia, audycja czwarta,
dojedziemy do audycji czwartej, okej, chcemy weźmy audycję czwartą,
InstaData Strzałka w prawo, no i teraz poruszamy się jakby tylko po tych liniach,
które są wcięte raz jeden pod audycją czwartą, przed audycją piątą.
Czyli poruszamy się po kategoriach w prawo i tak dalej, i tak dalej, i tak dalej.
I to nam bardzo dobrze zastępuje to, co osobom widzącym daje myszka
i szybkie przewijanie, bo my tego szybkiego przewijania nie mamy
i właśnie często jest taki problem, no jak szybko dojść do jakiegoś miejsca,
my wiemy gdzie to miejsce jest, no może można się spomawiać jakimś wyszukiwaniem
i no można to zrobić i czasem jest tak faktycznie szybciej,
ale ja na przykład osobiście bardzo lubię mieć dostęp do takiej opcji,
chociażby na przykład dlatego, że czasem przegląda się, szuka się czegoś konkretnego
i wiecie, że no nie, w tym bloku to to nie będzie, ja szukam jakby dalej,
ja szukam poniżej i wtedy możemy pomiń cały ten blok, przejść do jego końca.
I no ja uważam, że taka właśnie drzewiasta struktura, jedna w drugim, w trzecim, w czwartym
ma sporo więcej sensu i to faktycznie działa i ja za NVIDIA tego bardzo dużo używałem,
na Macu mi tego bardzo brakowało i no odkryłem, że jest to jako dodatek do Coda
i można tego używać.
Jeszcze w tym Greed Editorze dodam tylko tyle, że jak dobrze pamiętam, to dostawaliśmy informacje
odnośnie tego, jaki fragment kodu, jakby w czym mieści się dana linia na początku tego bloku,
więc to też czasem mogło być przydatne, nie wiem czy ten indent nav też informuje nas o tej nadrzędnej.
W NVIDIA możemy sobie przejść do tej nadrzędnej, ale jest też chyba jakiś skrót z tego co pamiętam,
jakby przeczytaj mi nadrzędną linie.
No bo to też czasem może być przydatne.
No i jakimś też rozwiązaniem, które czasami się może przydać, to jest informacja o wcięciach dźwiękowa w NVIDIA.
Tak, oczywiście to też, ale jakby…
I to jest troszkę może być takim odpowiednikiem trochę przewijania takiego myszką, bo mogę sobie
przytrzymać strzałkę w dół i sprawdzić, kiedy coś się zmieni.
Tak, ale jakby ja, przynajmniej z moich takich trochę obserwacji, przy większych plikach po prostu
lepiej mieć nad tym większą kontrolę niż mniejszą kontrolę i oczywiście, że tak można robić,
ale ja jakby czułem się szybszy mając jednak tę strukturę i móc się po tej strukturze.
To na pewno.
I chodzi o właśnie takie sytuacje, że czasem gdzieś coś trzeba znaleźć, jakieś wcięcie gdzieś tam,
no to też polecam tego typu rozwiązanie, bo to się może przydać właśnie w jakichś sytuacjach.
Może niekoniecznie, gdy mamy jakieś takie funkcje.
Ostatnio w ogóle, to jest w ogóle jakieś ciekawostka, zaczynam, no trudno to nazwać programowaniem,
ale no generalnie w baszu jakieś tam kwestie i tam też są wcięcia, znaczy nie musi być tam w tych wcięć,
ale są ze względu na to, żeby to jakoś wyglądało.
No i właśnie w związku z tym, że mam nawet te proste właśnie informacje, jak to jest wcięte coś,
no to już gdzieś tam to jednak troszkę pomaga.
To nie są oczywiście duże rzeczy, żeby nie było.
Programistą nie jestem i raczej nim nie zostanę, ale no właśnie takie rzeczy, czasami nawet w książkach zwykłych,
czasami się przydaje, żeby gdzieś tam można było znaleźć jakiś kawałeczek właśnie,
gdzie jakieś, niektóre książki są, właśnie od kapitu zaczynają jakąś nową kwestię,
więc w różnych sytuacjach może się coś takiego przydać.
W sumie ja bym chciał, żeby więcej było takich sygnalizacją, dźwiękiem, różnych rzeczy związanych z formatowaniem,
bo to czasami właśnie w jakichś dokumentach tekstowych ktoś się może przydać.
No ale zobaczymy, może ktoś kiedyś zrobi taką wtyczkę.
No to w takim razie przechodzimy do kolejnego newsa, tym razem od Mikołaja.
Ten news już był poniekąd zapowiadany w czasie drobnych newsów, bo okazuje się, że wymogi dostępności mogą czasem zaszkodzić.
Mikołaj, ty coś o tym wiesz, nawet mówiłeś, że wiesz.
Tak, to jest historia człowieka z Izraela, ponieważ Izrael dostał ostatnio dość takie porządne
i dobrze zrobione prawo dotyczące dostępności i tam biznesy, firmy muszą tę dostępność wprowadzać,
to o czym mówiliśmy, jeżeli chodzi o Stany Zjednoczone, że jest to debatowane.
I okazuje się, że wcale, a wcale nie jest to nic dobrego w pewnych kwestiach,
no bo okazuje się, że wielu małym biznesom bardziej opłaca się nie istnieć niż robić dostępność.
Po prostu nie ma wiedzy, ekspertyzy i czasu, żeby tę dostępność robić, żeby tę dostępność robić na takim poziomie,
żeby być pewnym, że nikt nas za tę dostępność nie pozwie do sądu
i po prostu te treści, te biznesy się kompletnie zwijają.
I tutaj przykładem jest człowiek, który od wielu w ogóle lat prowadził strony właśnie w Izraelu po hebrajsku i angielsku,
na których uczył kilku tam konkretnych języków programowania
i udostępniał, co ciekawe, w ogóle za darmo i w swoim wolnym czasie tworzone materiały do nauki tychże języków
i był jednym z takich większych zasobów właśnie w języku hebrajskim do nauki tych języków,
jednym z lepszych, bardziej zaufanych, bardziej polecanych.
Okazuje się, że w tym momencie w Izraelu jest taka sala prawników, którzy szukają stron z tymi czy innymi problemami dostępności
i się czepiają do tych stron, żeby uzyskać tylko pieniądze,
że człowiek w obawie przed koniecznością wydawania nie wiadomo jakichś pieniędzy na coś, co on tak naprawdę robił z dobrej woli i na czym w ogóle nie zarabiał,
stwierdził, że stronę musi zamknąć.
Chyba tam już w ogóle dostał jakieś takie wezwanie od jakiejś kancelarii, bo ja też śledziłem ten temat.
Wydaje mi się, że to już tam poszło i w tę stronę, że się coś pojawiło konkretnego
i chodziło też o to, z czym właśnie my mamy problem, a właściwie mieliśmy problem
i jeszcze przez jakiś czas mieć będziemy, natomiast technicznie możliwości już mamy.
Mianowicie chodziło o napisy do materiałów wideo, których on najzwyczajniej w świecie nie był w stanie zrobić.
Tak, no i tak naprawdę pomyślmy o tym, że gdyby powiedzmy zakładając nieistnienie Whispera,
zakładając powiedzmy rok 2019, gdyby w roku 2019 w Polsce weszła ustawa,
która wymagałaby od Tyflopodcastu tworzenie napisów do wszystkich materiałów, które są na Tyflopodcastie umieszczane,
to ja nie wiem, czy Tyflopodcast by przetrwał.
Tyflopodcast to też rzeczywistość projektowa i podejrzewam, że gdyby był taki wymóg,
no to trzeba by było to wprowadzić w…
W projekt.
W projekt po prostu.
No tak, tylko pytanie na przykład co ze starymi audyzjami?
Trzeba by było wprowadzić w projekt…
Tak, tak, tak.
Przepisać, no są te firmy, które to robią.
To jest chyba trochę kwestia takich chorób wieku dziecięcego,
no bo z jednej strony rzeczywiście to jest problem, z drugiej strony no jednak fajnie by było, gdyby ta dostępność była.
I oczywiście, że no to zawsze będą firmy, które gdzieś tam będą na tym żerować.
To jest tak samo, słuchajcie, jak z prawami autorskimi.
Teoretycznie, teoretycznie jest to coś, co nie jest niczym złym, tak?
Jesteś artystą, należy Ci się wynagrodzenie za Twoją pracę.
Jesteś producentem, wykonawcą kimkolwiek.
A że przy okazji tego typu rzeczy pojawiają się różnego rodzaju kancelarie,
które na tym żerują i w taki czy inny sposób wykorzystują tego typu przepisy,
to jest zupełnie inna sytuacja.
No ale czy można w tym momencie powiedzieć, że to jest problem prawa autorskiego,
że prawo autorskie jako takie, te podwaliny tego prawa autorskiego, że są złe?
No nie.
No właśnie, jeszcze wracając do dostępności, to kolejnym przykładem jest
któreś z amerykańskich uczelni, ja teraz nie pomnę dokładnie która,
gdzie tam była podobna sytuacja.
Okazało się, że tam była jakaś wielka skarbnica nagrań wykładów,
które ta uczelnia udostępniła online.
I to były dosłownie nagrania wykładów.
Ktoś tam był z kamerą i nagrywał ten wykład, miał zrzuty z tablicy wszystko
i to, co normalnie było kiedyś udostępnione dla studentów,
zostało udostępnione online dla wszystkich z myślą, że przecież co nam szkodzi?
Jakby nam to i tak nie zaszkodzi, bo my już to i tak zrobiliśmy,
więc możemy to równie dobrze dać, jak komuś się przyda.
Tak, to chyba nawet była w mowach w jakimś Tyfro Przeglądzie niedawno,
tak mi się wydaje.
Tak, i zostało to po prostu wszystko zniszczone, usunięte z sieci,
a to były jakieś potworne tysiące godzin,
bo się ktoś przyczepił do braku napisów, gdzie ich polityka była taka,
że student, jeżeli tych napisów potrzebuje, to te napisy zostaną mu zrobione
i on je dostanie, ale no nie ma możliwości, fizycznie nie ma możliwości,
żeby przy nagrywaniu każdego wykładu na uczelni, gdzie przecież nawet na naszej
polskiej uczelni to tych wykładów idą dziennie potworne ilości,
a co dopiero na jakimś wielkim amerykańskim uniwersytecie
robić do tego wszystkiego napisy?
I czy o to nam chodzi, że powiedzmy my jako niewidomi nie mamy w tym momencie nic,
widzący nie mają w tym momencie nic i ci głusi też nie mają w tym momencie nic?
Tylko wiesz, bo to jest trochę wylewanie dziecka z kąpielą,
bo z jednej strony tak, ale z drugiej strony ile będzie takich sytuacji,
że my rzeczywiście nie będziemy mieli nic, ale w związku z tym,
że inni będą mogli mieć dużo, to nikt na to jakby nie zwrócił uwagi,
bo wiesz, jeżeli jest taki problem, nie można tego, nie można tego,
ileś różnych firm nie daje sobie rady, to to będzie nagłaśniane,
tak, i jakby to pewnie z czasem się jakoś wyprostuje, no bo…
Pytanie, co jest lepsze, w sensie czy pytanie, czy lepsze jest,
żeby tych wykładów nie miał nikt, czy lepsze jest,
żeby te wykłady mieli wszyscy poza jedną grupą osób?
Ale wiesz, tak, tylko jest jedna kwestia, bo jeżeli teraz tych wykładów nie ma nikt,
to już jakby w świat poszła informacja, słuchajcie, jest problem z tym prawem
i trzeba coś zrobić, żeby jakiś kompromis być może wprowadzić,
bo jeżeli jakby nie było problemu, to by pewnie nikt się o tym nie dowiedział,
no bo kto i skąd musi mają problem, no to niech tego mają.
Ja myślę, że najrozsądniejszym tutaj takim kompromisem jest założenie,
i zresztą przecież bardzo często się o tym mówi, że prawo nie działa wstecz,
więc ja trochę tego nie rozumiem, dlaczego akurat te nagrania
zostały w ten sposób potraktowane.
Dlatego, że one były hostowane jeszcze.
Nawet przecież w przypadku dostępności podmiotów publicznych,
to też się mówiło o dostępności na przykład pewnych materiałów,
które zostały wykonane przed jakąś konkretną datą,
że one dostępne być nie muszą, albo jest jakiś wydłużony okres
na przygotowanie tej dostępności.
Więc wydaje mi się, że no tu trochę po prostu ktoś wykazał się
jakąś pewną nadgorliwością, no chyba że rzeczywiście amerykańskie prawo
nakazuje przygotowanie tych napisów dla materiałów, które by były dostępne,
które zostały wydane, nieważne kiedy, ale po prostu uczelnia jest uczelnią,
jest instytucją finansowaną ze środków publicznych
i wymóg jest stworzenia każdego materiału na tej uczelni,
albo zaadaptowania go w odpowiedni sposób.
No właśnie tam chyba była kontrowersja o to, że zakładano,
że te wymogi nakazują zaadaptowanie materiału studentom
i to było robione, czyli jak student się odezwał, że on napisy chce do tego kursu,
to on napisy dostał do tego kursu, a nikt nie przewidział,
że udostępnienie tych materiałów online wszystkim
oznacza, że każdy może chcieć napisy do wszystkiego.
I tutaj się jakby pojawił problem.
Tylko no właśnie, bo jeżeli jedna uczelnia będzie miała problem,
druga, trzecia, no to może kiedyś właśnie zrobi się coś takiego,
że ok, skoro chcemy coś robić, to róbmy te napisy,
zwłaszcza, że teraz rzeczywiście powstają te whispery,
tego będzie coraz więcej, na pewno będzie coraz więcej.
Przecież mówi się teraz o tym, że generalnie te procesory
do przetwarzania tych neuronowych kwestii są coś takiego,
nad czym te wszystkie duże firmy się bardzo mocno zastanawiają,
jak to zrobić, bo coraz więcej tych wielkich serwerów
ogromnych korporacji muszą przetwarzać danych
i to jakkolwiek jest możliwe, ale ludzie chcą szybciej i więcej.
W związku z powyższym coraz więcej robi się tego na urządzeniach klientów.
Tak jak wiecie, dyski SSD 15 lat temu to była kwestia tylko i wyłącznie serwerów.
Może jakiś entuzjazm tam miał coś w domu,
ale pamiętam jak w roku 2008 czy 2009 znajomy kupował komputer
i właśnie kupował dysk SSD 128 giga, wtedy kosztował 800 złotych,
to był jeden z najtańszych dysków SSD, zresztą jeden z niewielu dostępnych na rynku.
Dzisiaj dysk SSD 128 giga kosztuje 70 złotych, czy tam coś koło tego,
a ja niedawno kupiłem dysk chyba dwuterabajtowy za coś koło 800 złotych,
coś koło tego generalnie.
On jest ileś razy szybszy od tego, co było 11 lat temu, więc pytanie,
czy to nie będzie trochę tak, że coraz więcej będzie możliwości takiego
zautomatyzowanego robienia różnych rzeczy, nie tylko audiodeskrypcji,
ale właśnie jakichś napisów, dostosowywania czegoś z automatu,
to jest jakby raz, a dwa, że jeżeli raz, drugi, trzeci coś się nie uda,
to zacznie się o tym rozmawiać i zacznie się tego typu sytuacje wprowadzać w prawo
w czasie czegoś takiego, że no trudno, niewidomi nie mają, bo nie mogą,
no to trudno, idziemy dalej, tylko nie mają, spróbujmy zrobić coś,
żeby przynajmniej częściowo to mieli, tak, tak jak no strony internetowe,
rządowe muszą mieć dostępność, coś tam jeszcze musi mieć dostępność,
tam jest ileś kwestii, które muszą mieć dostępność,
budynki, które muszą mieć dostępność dla osób na wózkach chociażby
i pytanie to ze snarymi budynkami, no bo to jest problem nadal,
no ale mimo wszystko jakoś to się kręci i no i deweloperzy,
którzy budują nowe budynki, to budują je w zasadzie zgodnie ze,
no z tym jak to powinno być robione, więc podejrzewam,
że w dłuższej perspektywie ma sens, no tylko no niestety,
niestety zdarzy się jeszcze pewnie niejednokrotnie tak,
że no, że to będzie rzeczywiście robiło problemy,
pytanie rzeczywiście, czy ma to sens, moim zdaniem w dłuższej perspektywie tak,
choć rzeczywiście w krótszej perspektywie kilka inicjatyw
może zostać przez to utrąconych.
To się zgadza i wydaje mi się, że w tym momencie ten autor
różnego rodzaju materiałów ma już metodę,
za pomocą której mógłby to zrobić, oczywiście nie będzie to rzeczą
zupełnie darmową, ale tak z drugiej strony,
to dla chcącego nic trudnego, myślę, że jest na tyle popularnym autorem,
że jakieś finansowanie też ma, żeby mógł z tego skorzystać.
To jest rzecz jedna, a rzecz druga to jest taka,
że on zdaje się wziął się na pewien sposób,
wykorzystując pewną lukę w tych przepisach, przynajmniej na razie,
że utworzył albo ma zamiar utworzyć jakąś nową stronę internetową
z tymi materiałami, które to będą wymagały rejestracji,
bo w tym prawie izraelskim nie ma wymogu przygotowywania napisów,
jeżeli odbiorców jest jakaś skończona, konkretna liczba.
Poniżej jakiejś liczby odbiorców nie są wymagane właśnie te napisy.
Jeżeli to już jest przekroczone, to trzeba dostarczyć odpowiednie transkrypcje do filmów.
Tak że tak zdaje się, zakończył się ten temat, przynajmniej na razie.
Ale być może jak dowie się o Whisperze, to zadziała.
Być może.
Zwłaszcza, że jest programistą, więc sobie to zautomatyzuje.
A o Whisperze to się mówi troszkę jednak.
Może nie to, że każdy portal technologiczny o tym mówi,
ale to jest coś takiego, co robi firma duża,
która z tego co wiem jest dość znana w świecie, powiedzmy programistą z różnych rzeczy,
bo to przecież nie jest ich jedyny projekt.
Oni tam mają chyba kilkadziesiąt różnych projektów i Whisper to jest jeden z nich.
Podejrzewam, że niekoniecznie największy, chociaż nie wiem, może.
W każdym razie nie ileś takich dużych projektów, na które trzeba było przepotwornych ilości obliczeń.
W związku z tym tak mi się wydaje.
Nie wiem, Mikołaj chyba chciał coś powiedzieć.
Oni słyną z GPT chociażby, czyli z tej takiej sztucznej inteligencji kończącej nam teksty.
Kazałem napisać artykuł o tym, że polscy uczniowie z liceum
myślili o białą laskę, która elektronicznie wykrywa przeszkody
i mi napisał piękny artykuł, brzmiący jak absolutnie każdy artykuł w Kazerii Technologicznej o niewidomych,
włącznie z polskimi imionami, nazwiskami i nazwą szkoły, która jak jej potem szukałem to jej nie było,
ale brzmiała polsko i brzmiała tak, że jak się nie wie, to się w to uwierzy.
No i to są też ludzie od tego generatora obrazków, o którym się ostatnio mówi, chociażby typu Dolly,
więc tak, oni robią dość dużo w tej kwestii.
Swoją drogą, a propos ilości obliczeń, to ostatnio właśnie widziałem takiego tweeta,
któraś firma tworząca właśnie takie modele napisała,
że ostatnio jak dostaliśmy pieniądze to zaczęliśmy wydawać 9 tysięcy dolarów dziennie na karty graficzne
i to w sumie nie wystarcza, zdecydowanie nie wystarcza, więc sobie o takich kosztach mówimy.
Tak, bo to co my tutaj mamy w swoich komputerach, te wszystkie karty, RTXy, korzystamy z tego whispera
do przetwarzania tekstu, to na to z tego co wiemy mówi się procesory brzegowe, czyli takie konsumenckie,
natomiast to żeby wytrenować takiego whispera, żeby on nauczył się w ogóle rozpoznawać,
to jest o kilka rzędów wielkości jak nie więcej, nie no kilka myślę rzędów wielkości,
potrzebne są wyższe zasoby, żeby w ogóle to jakkolwiek ruszyć, nawet nie mówię, że szybko,
w związku z tym, zresztą wyobraźcie sobie, przerobić pół miliona godzin.
Ja kiedyś spróbowałem obliczyć ile to jest dni, co wynik w latach zdaje się wyszedł,
to są przepotworne historie, zresztą to co my widzimy w tych kartach graficznych,
to podobno są te procesory, które zajmują się tylko, są używane tylko do tego typu obliczeń neuronowych,
one są ponoć w ogóle zakazane, jeżeli chodzi o sprzedaż na pewne rynki,
do pewnych krajów skidami oczywiście na czele i one służą ponoć tylko do tego typu obliczeń,
one są właśnie możliwe chyba do kupienia po pierwsze tylko w Stanach,
tylko chyba przez jakieś firmy i generalnie to nie jest tak prosto, żeby taki procesor znalazł się gdzie indziej.
Podobno, tak gdzieś słyszałem w jakichś materialach, który chyba mam wrażenie jest dość rzetelny.
No i tak to wyszliśmy z tematu dostępności i zatrzymaliśmy się w jednym newsie na temacie sieci neuronowych,
ale to w sumie dość blisko się trzyma, zwłaszcza ostatnio, bo rzeczywiście jedna technologia wspiera drugie.
No a teraz francuska firma, która tworzy technologię pomagającą zobaczyć świat
i coś tu się przez przypadek zdarzyło.
Tak, gra została przez przypadek udostępniona, bo zdaje się, że cały projekt wyszedł od tego,
że firma Arta France chciała zrobić urządzenie jakich wiele, żeby niewidomym jakoś ten wzrok chociaż częściowo przywrócić.
Pawle troszeczkę bliżej mikrofonu.
O, dziękuję. I właśnie ta firma Arta France wpadła na pomysł, żeby stworzyć monitor,
który gdzieś tam jest przyczepiany czy wstawiany i za pomocą jakichś delikatnych wibracji na naszą skórę
będzie nam przekazywał różne komunikaty ze świata wizualnego.
No i co się okazało podczas tworzenia tego eksperymentu?
Że to urządzenie fantastyczne zastosowanie ma podczas gry w Trackmania.
Czyli jedna z dość popularnych, bardziej popularnych gier wyścigowych, w które zagrywają się osoby widzące.
No i okazało się, że ta technologia na tyle jest skuteczna w grze w tą Trackmanie,
w podawaniu osobie niewidomej szerokości toru wyścigowego, po którym ściga się gracz,
że sam producent, czyli nikt inny jak firma Ubisoft ogłosiła, że to będzie oficjalne akcesorium,
przez które osoby niewidome w tą Trackmanie będą mogły grać.
No więc ciekawy przykład tego, jak może zacząć się od czegoś eksperyment, a skończy zupełnie gdzieś indziej.
Pytanie oczywiście na ile to będzie powszechne, na ile to będzie powszechnie dostępne,
na ile będzie nas stać na grę w taką Trackmanie, no ale coś się dzieje.
No i to jest super, że tutaj w kwestii gier coś się rozwija.
Swoją drogą jak macie już jakieś opinie o God of War i jak się gra, bo ponoć ma to być dostępne dla niewidomych,
to dajcie znać, bo streamy ponoć ruszają.
Coś mi takie prześwity doszły, że może być problem z polskim interfejsem i że może być problem,
że się będzie trzeba na angielski przełączyć, żeby to w ogóle miało jakikolwiek sens, ale to zobaczymy.
Takie mnie tutaj dochodziły informacje.
Niewykluczony zestaw go samego źródła w każdym razie.
Streamy będą do oglądania na pewno angielskie, więc no pożyjemy, zobaczymy.
Pewnie kolejna gra nam się szykuje.
Ja tymczasem obliczę sobie z ciekawości, ile to jest 680 tysięcy godzin, bo tam chyba tyle było materiałów.
To 77 lat z kawałkiem.
W związku z powyższym, no wiecie, przetworzyć 79 lat, cokolwiek z tym zrobić.
Nie wiem, nawet skonwertować na MP3.
W naszych komputerach domowych trwałoby kilka lat, a tu nie jest kwestia konwersji prostej,
tylko nauczenia się rozpoznawania mowy, mając te 680 tysięcy godzin materiału, czyli te 78 lat,
trzeba było je przeanalizować pod różnymi kątami, tak żeby wyciągnąć z tego mowę.
Więc ja sobie nie wyobrażam, jaka to musi być moc obliczeniowa, żeby to wszystko zrobić.
To też taka ciekawostka.
A teraz, Niosos Michała, znowu jakiś taki smutnawy.
Problemy niewidomych z pracą mogą pojawić się już na etapie rekrutacji.
Tak jest. Przeczytałem sobie dziś dosyć ciekawy artykuł na blogu DEC Systems,
czyli ludzi zajmujących się szeroko pojętą dostępnością, różnego rodzaju audytami
i tego typu kwestiami związanymi z dostępnością jako taką.
Jeden z nich szukał właśnie pracy i to co ciekawe, słuchajcie, także w sektorze dostępności,
gdzie teoretycznie wydawać by się mogło, że powinno być zrozumienie dla różnego rodzaju potrzeb
udostępniania tej całej ścieżki rekrutacyjnej od samego początku do samego końca.
Okazuje się, że nie zawsze to tak działa, bo etapy rekrutacji ułatwiają różnego rodzaju systemy.
No i te systemy mogą wcale nie być dostępne.
Na przykład był podany chociażby formularz za taki przykład niedostępności,
w którym to nie dało się wybrać pewnych opcji już na etapie zgłoszenia się do rekrutacji.
Nie dało się na przykład wysłać swojego CV albo innych dokumentów, które były wymagane.
Z innej strony problem może pojawić się na przykład przy wypełnianiu różnego rodzaju testów.
No bo przecież na samym początku już ktoś zajmujący się rekrutacją może chcieć sprawdzić naszą wiedzę.
No i wszystko jest fajnie, jeżeli ten test jest wykonany chociażby w formularzu Google
albo w formularzach Microsoft, Forms albo inne tego typu dostępnej aplikacji.
No a jeżeli w grę wchodzi jakiś system, który nie został przetestowany pod kątem dostępności,
no to mogą być tu na tej linii problemy.
I okazuje się, że te problemy dotykają także różnego rodzaju instytucji,
też agencji zajmujących się, mających gdzieś tam napisane na stronach
jako jeden z elementów swojej działalności także dostępność.
Okazuje się, że po prostu też ta dostępność nie zawsze jest sprawdzana.
No a też nie zawsze można się doprosić różnego rodzaju alternatywnych form,
bo okazuje się, że czasem jak się skontaktujemy z kimś, kto teoretycznie jest za proces rekrutacji odpowiedzialny,
no to później ktoś tam na przykład może nie odpisać,
albo gdzieś ten kontakt z nim może się urwać w najmniej oczekiwanym momencie.
Więc taka była prośba i ja się pod tą prośbą podpisuję.
Jeżeli rzeczywiście gdzieś rekrutujemy, jeżeli szukamy nowych pracowników,
a wcielamy takie systemy w życie, bo na przykład jest to większy proces,
nie tylko na zasadzie wyślij maila na taki a taki adres mailowy,
załącz swoje CV i napisz dlaczego uważasz, że nasza firma to jest dobre miejsce dla ciebie
i odpowiedz ewentualnie na kilka pytań,
że ten proces jest bardziej zautomatyzowany i rekruter ma do przejrzenia znacznie więcej zgłoszeń
na dane stanowisko pracy i tu różnego rodzaju systemy mogą być mu pomocne,
to warto taki system jednak mimo wszystko przetestować,
czy wszyscy są w stanie z niego skorzystać, bo może się okazać, że nie.
Ja teraz mam temat troszeczkę na bieżąco, bo sam rekrutuję jako osoba szukająca pracy,
potencjalny pracownik i mam teraz na celowniku sektor korporacyjny,
więc trochę oglądam sobie jak tego typu rekrutacje wyglądają właśnie w korporacjach.
I tutaj muszę przyznać, że jak chodzi o sam proces rekrutacji to narzekać nie mogę,
bo zarówno te narzędzia do wrzucania danych naszych osobowych,
jak i te kroki jakby procesu, przez który do tej pory miałem okazję przejść,
były raczej dostępne, czyli po prostu na stronie można było wszystko wrzucić,
nie było z niczym zasadniczo problemu.
Teraz próbuję sobie przypomnieć, że pewnie czegoś nie pominąłem.
Nawet byłem zaskoczony, bo to tam jakieś pola rozwijalne z instrukcjami dla screen readerów,
jak ten konkretny krok wykonać, że tu jak wybieram nie wiem kraj, czy jakiś tam płeć,
czy jakąś tam inną opcję, to mi mówi jak to przeszukiwać strzałkami.
Pola mają edycji, etykietki tam gdzie powinny.
Te aplety, gdzie się wrzuca już załączniki, różne nasze dosie, czyli właśnie CV,
czyli jakieś listy motywacyjne, to są jakieś ramki, w których jest przycisk przegląda
i to się normalnie ładuje.
Raz trafiłem na takie narzędzie, gdzie swoją motywację, dlaczego chcę tu pracować,
wpisywałem w albo to był jakiś Tiny, jak to się nazywa, Tiny MCE.
Tak, jest taki edytor.
Tak czytam, czy któryś z tych takich właśnie, który jest aplikacją i w nią się wchodzi enterem,
po prostu są tam wszystkie skróty klawiszowe i możliwe formatowanie.
Więc tu jak najbardziej praktyki są dobre.
Zdarza się, oczywiście zdarza się, byłem już na takich stronach, gdzie nie było poetykietowanych pól,
ale to była taka powiedzmy firma, której też z wielu innych powodów nie zaufałbym,
czytając ogłoszenie.
Natomiast potem już rekrutacja, na ten moment mam doświadczenia z rozmowami takimi rekrutacyjnymi
przez telefon i przez Teamsy.
I Teamsy w formie audio.
Nie było wymagane ode mnie wideo, wiem, że w jednym miejscu byłoby,
ale tak daleko nie zaszedłem, a tam, gdzie zaszedłem, to było audio.
Jedyne co, to chyba ktoś się nie zorientował, że ja nie widzę,
bo jako, że praca wymagałaby znajomości języka obcego,
to osoba biorąca udział w tej rekrutacji chciała sprawdzić moją umiejętność języka
i wyświetliła mi tekst w formie udostępniania ekranu na ekranie.
Więc ja tutaj powiedziałem, że nie, taka forma niestety nie zadziała,
w związku z czym, ale okazało się, że ten tekst był tylko takim wstępniakiem,
żeby sprawdzić, czy ja w ogóle sobie poradzę z przeczytaniem czegoś w języku.
No a skoro odpowiedziałem na wyzwanie mówiąc w tym języku,
że niestety tutaj potrzebowałbym pewnych udogodnień,
to osoba prowadząca rekrutację stwierdziła, że ok, w porządku,
to było tylko sprawdzenie, czy język działa.
Jak język działa, to możemy przejść dalej do dyskusji w tym języku.
Więc tutaj na ten moment jakby wszystko się odbyło bez większych problemów.
No jakby były jakieś dodatkowe jeszcze doświadczenia,
no to pewnie przy jakiejś najbliższej okazji znowu będę mógł o tym opowiedzieć,
ale nie jest aż tak źle, jakby się mogło wydawać,
przynajmniej w tych korporacjach, do których możemy aplikować tu z Polski.
A też i inna rzecz, że te refleksje, no to były zbierane przez ileś lat,
więc całkiem możliwe, że sytuacja już się poprawiła i oby tak faktycznie było.
Tak jest. I ostatni news, tym razem raczej już optymistyczny,
bo powstał przewodnik turystyczny po Podlasiu dla osób niewidomych.
Tak, to prawda. Jest to coś, co powstało z inicjatywy Uniwersytetu Białostockiego
i szansy dla niewidomych i już Wam przeczytam, bo to najlepiej przeczytać taką informację.
A więc tak, co tutaj pisze portal, Kopalnia Wiedzy w ogóle.
Ja chyba Kopalnia Wiedzy nawet śledzę na Twitterze, jeżeli to jest ta sama Kopalnia Wiedzy.
Polecam, bo oni wrzucają dużo takich ciekawych, przynajmniej na Twitterze wrzucali.
A Ty na Facebooku już kolej.
Ciekawych informacji takich właśnie trochę, no Kopalnia, czyli o wykopaliskach,
o jakichś archeologicznych odkryciach, ale nie tylko.
Z jakiej ty dziedziny, Paulina, najchętniej czytasz?
No mi się zdarza takie flikowe typowo, że tam, nie wiem, jakiś eksperyment o czymś,
takie jakby niekoniecznie dowiązane bezpośrednio do moich zainteresowań.
Ok, w porządku. Moi właśnie lubią takie wrzucać dużo tekstu, ja lubię takie konta na Twitterze
i pewnie Ty na Facebooku, które sypią tekstem, a nie tylko, że zdjęcia, zdjęcia, zdjęcia.
Tylko tego tekstu trochę jest, no więc poczytajmy.
Powstał przewodnik turystyczny po Podlasiu dla osób niewidomych i słabo widzących.
Jego autorem jest doktor, inżynier, architekt Maciej Kłopotowski z Politechniki Białostockiej.
Piosenkę pod tytułem Podlasie na wyciągnięcie ręki, przewodnik turystyczny dla osób niewidomych i słabo widzących
wydano we współpracy z białostockim oddziałem Fundacji Szansa dla Niewidomych.
Przewodnik jest efektem projektu współfinansowanego ze środków województwa podlaskiego.
Wyjątkowe wydawnictwo w ograniczonym nakładzie.
W publikacji wykorzystano technikę druku transparentnego, który łączy czarnodruk i zapis Brajlowski.
Czytelnik znajdzie tu również tyflografiki.
Opisałem w tym przewodniku najważniejsze zabytki Podlasia oraz umówiłem ich dostępność dla osób niewidomych i słabo widzących.
W przypadku Białegostoku to oczywiście pałac Branickich, katedra białostocka, bazylika pod wezwaniem świętego Rocha,
ratusz, największe cerkwie.
Jest też szlak tatarski, kraina otwartych okiennic oraz te obiekty w podlaskich parkach narodowych, do których mogą dotrzeć osoby niewidome.
Wyjaśnił wykładowca Politechniki Białostockiej.
Wydano tylko 25 egzemplarzy dwutomowego przewodnika.
Mają one zostać bezpłatnie przekazane osobom z niepełnosprawnością wzrokową oraz instytucjom publicznym znajdującym się na terenie województwa podlaskiego.
Krok w kierunku aktywizacji w zakresie turystyki.
Choć branża turystyczna w coraz większym stopniu zwraca uwagę na kwestie dotyczące niepełnosprawności, na razie skupia się głównie na osobach z niepełnosprawnością ruchową.
Jak podkreślono w komunikacie prasowym Politechniki Białostockiej, powodem jest niedostateczna wiedza na temat tego, jak dostosować ofertę turystyczną do potrzeb osób z dysfunkcją wzroku.
Wydanie przewodnika to dobry krok, choć pewnie wciąż niewystarczający, w kierunku aktywizacji osób z niepełnosprawnością wzroku w zakresie turystyki.
Już mało wiemy, gdzie znajdują się obiekty, które mogą zwiedzić i poznać osoby z niepełnosprawnością wzroku niewidome i słabowidzące.
Barierą jest także to, że nawet do tych modeli i eksponatów, które są dostępne haptycznie, osoby te nie mogą dotrzeć samodzielnie.
Na ogół potrzebują wsparcia przewodnika, podsumowuje dr inżynier architekt Kłopotowski.
Na stronie Fundacji Szansa dla Niewidomek znajdują się linki i tu są podlikowane linki do PDF-ów z obydwoma tomami.
No i to tyle w sumie w tym temacie, więc jeżeli chcielibyście ten rejon naszego kraju zwiedzić,
to możecie się w taki przewodnik wyposażyć w wersji elektronicznej lub pewnie w tamtejszym oddziale, czy Fundacji Szansa, czy Polskiego Związku Niewidomek zapytać o możliwość wypożyczenia.
No i z pomocą takiego wydawnictwa zwiedzać Podlasie.
Ja tu chyba dorzucę trochę łyżkę dziegciu do tego wszystkiego, dlatego że co jakiś czas właśnie słychać o jakichś przewodnikach, opisach czegoś, jakichś makietach.
I to są prawie zawsze jakieś obiekty albo turystyczne, zabytki, tego typu rzeczy.
Natomiast prawie, do tej pory w ogóle, czy prawie w ogóle, nie słyszałem o tym, żeby właśnie ktoś zrobił makietę takich rzeczy, do których było, nie było o sobie niewidomych, jeżdżą dużo częściej.
Centrum miasta, czy w ogóle plan miasta. Kto z Was wie jak wygląda Białystok?
Kto z Was może się dowiedzieć jak wygląda Białystok? Jakie ma dzielnice? Jak one są zorientowane jakby względem siebie?
Białystok można było obejrzeć na mapie, na geografii i jak wyszliśmy ze szkoły, komu zostały te mapy w domu na przykład?
Znaczy, a można było w ogóle obejrzeć, czy to była po prostu kropka na mapie?
Znaczy, to była kropka na mapie. W sensie dowiedzieli się gdzie jest. To był kształt, że tam miasta do ilość tysięcy to był tam kwadracik, kółeczko, kwadracik ze strzału, tam jest jakąś kreseczką.
O to mi właśnie chodzi, że nawet nie można było go sobie obejrzeć na mapie, tylko można było sobie zobaczyć gdzie on mniej więcej leży.
I to mnie jakoś tak kurczę trochę boli, że z jednej strony robi się te wszystkie rzeczy, te zabytki, makiety w Krakowie, w Warszawie, w Poznaniu, teraz w Białymstoku są.
I na to się wydaje pewnie ileś pieniędzy, natomiast prawie w ogóle się nie wydaje pieniędzy na takie przybliżanie obiektów użyteczności rzeczywiście publicznej.
Albo nawet właśnie miast. Jadę do Krakowa, mam jechać na jakąś dzielnicę, kompletnie nie wiem gdzie jadę, czy na północ, czy na południe, na wschód, zachód. Skąd ja mam wiedzieć?
To jest jedno z największych miast w Polsce.
Ale w sumie jak mowa o użyteczności to poddzi to.
Dlatego, że na przykład jeżeli ktoś mi powie albo nie wiem, jeżeli mam potem od tego kogoś, wiem, że mam trzech znajomych w Krakowie, mam podane adresy.
Zielonego pojęcia nie mam czy te adresy mogą być blisko siebie czy daleko, nawet jak mi powiedzą dzielnice.
Bo nie wiem czy to są dzielnice, które ze sobą sąsiadują, są w jednej linii, czy to są trzy różne kompletnie punkty Krakowa.
No ale to trochę, bo to jest mobile MPK, tak w sumie.
Ale wiesz, to jest aplikacja. No wiesz, z drugiej strony te zabytki, no to co, możesz poczytać na stronie internetowej, co tam jest.
Możesz pojechać z przewodnikiem, tylko że o zabytkach robi się właśnie jakieś plany tyflograficzne, mapy, jakieś tam przewodniki brajlowskie.
Natomiast o użyteczności publicznej raz się se sami. Na dworcach macie assistę i w ogóle w czym problem?
No czasem jeszcze plan dworca jest, tak? Z którego wiele przynajmniej dla mnie nie wynika.
No dla mnie w sumie nie wiem, bo jeszcze nie widziałem planu dworca, widziałem kilka planów warszawskiego metra, bo tam byłem.
I dla mnie akurat te plany trochę dają, ale to pewnie dlatego, że ja w ogóle lubiłem mapy.
Natomiast problem też polega na tym, że bardzo wiele osób prawie nie ma jak ćwiczyć tego. Bo gdzie? I na czym?
No tu by się przydało, któryś z tych serwisów właśnie, albo do wydruków map w 3D.
No jest ten jakiś Touchmapper, tak? Taki serwis, który pozwala na wygenerowanie modelu na bazie…
Nawet chyba kilka jest tych serwisów, ale to są wszystkie takie inicjatywy bardzo oddolne.
W sensie ciekaw jestem, czy gdzieś jest jakieś państwowe jakiekolwiek wsparcie tych rzeczy.
No w Czechach jest ten serwis, tak? Który, nie wiem czy on jest państwowo wspierany, ale to jest praca tam uczelni.
Tam możesz sobie zażyczyć. My o tym mówiliśmy w tym przeglądzie. Christian, nasz słuchacz to testował.
I on tam jakieś miał uwagi, że to tak nie do końca coś tam ten.
Ale w teorii możesz sobie zażyczyć mapę do wolnego obszaru na świecie i oni ci tę mapę przyślą.
I to jest rzeczywiście fajne. To jest moim zdaniem krok w tę stronę co trzeba.
No bo zwłaszcza, że tam w tym przewodniku, bo miałem snogu, było napisane, że to jest aktywizacja, coś.
No fajnie, tylko jeżeli ktoś się porusza z przewodnikiem, no to co mu z tego, że przyjedzie,
co mu z tego, że będzie miał przewodnik po samym tym pałacu Branickich załóżmy,
kiedy nie będzie wiedział jak tam dojechać do tego pałacu od siebie? No bo skąd ma wiedzieć?
No tego było powiedziane. Krok, tak.
Ja wiem, że krok. Tylko pytanie, czy to jest ten krok, który należy rzeczywiście wykonać w pierwszej kolejności?
No pewnie jest go najłatwiej wykonać, bo najwięcej jest dobrych praktyk,
którymi można się wymienić, więc to jest taki, nie chcę mówić nisko wiszący owoc,
bo to by troszeczkę podważało i deprecjonowało wysiłek włożony w powstanie tej publikacji,
ale jest tego tyle, więc było to pewnie trochę łatwiej stworzyć, nawet na tej zasadzie,
że już ktoś to wcześniej zrobił w tym kraju.
Z tego co wiem, jest dużo grantów na udostępnianie tego typu rzeczy,
czy tak jakieś muzea, zabytki, lubi Unia i tam jakieś takie rzeczy w to się bawić,
znaczy bawić, gdzieś tam jakieś pieniądze w to ułożyć.
Problem polega na tym, że gdy trzeba zrobić właśnie jakiś projekt dostępu do miasta po prostu jakiegoś,
nawet dużego, no to nie wiem właśnie dlaczego jeszcze nikt się za to nie wziął
i nie powstało jeszcze nic takiego, tak?
Nie wiem, projekt Warszawy, załóżmy.
I albo to się pojawi na jakimś projekcie typu tyflowiki,
ktoś to po prostu wpisze zupełnie oddolnie, totalnie,
albo nie wiem, czy będzie w ogóle cokolwiek na ten temat.
Znaczy nie wiem, ale na orientacji były jakieś takie plany.
W Laskach też panią do orientacji zrobiła mapę.
I to jest w Laskach, bo pani zrobiła.
To nie jest coś takiego, że to jest jakiś projekt dofinansowany z czegoś,
robimy mapy, proszę bardzo, jak ktoś chce, niech przyjedzie, zobaczy tam coś tego.
Skąd ma się ktoś dowiedzieć na przykład, co, jak?
Ja na przykład sam mieszkam teraz rok praktycznie w tym,
jakby bardziej lub mniej, teraz bardziej we Wrocławiu.
Ja tak naprawdę o tym Wrocławiu mam zerowe pojęcie.
Ja może nawet powoli zaczynam wiedzieć, jak się dostać z punktu A do punktu B,
jak wyglądają konkretne kawałki Wrocławia,
typu jak wygląda konkretna ulica i ile tam jest przejść i gdzie tam są te przejścia
i jak się na tym konkretnym fragmencie w Wrocławiu poruszać.
Ale ja nawet nie mam za bardzo pojęcia, że powiedzmy wiem,
że jadę z tramwajem z punktu A do punktu B,
a ja nie mam za bardzo nawet pojęcia, jak te dwa punkty,
między którymi nie jadę, są wobec siebie położone.
Jakby wiem, co one mają w okolicy i gdzie ja chcę z punktu A i z punktu B dojść,
ale nie za bardzo w ogóle wiem, co tam się dzieje między tym wszystkim
i wiem, że tam jest jakaś rzeka, wiem, że tam są jakieś mosty,
ale to tak trochę, co jest po jednej stronie tej rzeki,
a co jest po drugiej, to już na przykład tak średnio.
Ja na przykład nie byłbym w stanie teraz powiedzieć,
że to jest po jednej stronie odryczy po zachodniej,
a jak mi ktoś powie, że ja mieszkam na Krzykach, a drugi, że na Psimpolu,
to ja już w ogóle nie wiem, o czym oni mówią, gdzie oni są.
Dokładnie, czy to jest potencjalnie 2-3 kilometry, czy 15-20 kilometrów?
Dokładnie.
W związku z tym, czy to jest podróż na 20 minut, wszystko jedno czym,
czy półtorej godziny?
Tak, gdzie ja? No mieszkam w tym mieście, ja tu żyję w tym momencie.
Fakt wiem, ja się tu nie urodziłem, ale no…
Swoją drogą, ja dokładnie tę dzielnicę chciałem zaproponować, tak?
Jakby, czy wiesz, jak się mają krzyki, do księgów się kopala.
No nie.
Także no…
Nie, nie wiem, nie wiem, naprawdę nie wiem.
Krzyki są chyba gdzieś blisko, ale to tyle wiem.
Ja na przykład też nie wiem.
Warszawa jest na w miarę dobrze, tylko że w Warszawie mieszkam od urodzenia, tak?
No tak.
Wiem, powiedzmy, że Żoliborz, no to jest blisko Bielana,
na przykład Ursynów, jest bardzo daleko od Białołęki, tak?
I mniej więcej wiem, jak to się ma, tak, jedno do drugiego.
Natomiast no…
No i prawdopodobnie…
No ciekawe, czy ktoś wie, gdzie jest w Warszawie na przykład ochota?
Z was.
Albo no nie wiem.
Ja nie wiem.
Kto mieszka w Warszawie, to pewnie wie,
no ale kto nie mieszka w Warszawie,
no to jest duża szansa, że tego nie wie.
To nie wie i się nie dowie w taki prosty sposób,
bo nie zerknie sobie teraz nam jakąś mapkę Warszawy,
no bo jej nie ma.
Tak, i nawet jeżeli ktoś mu powie,
słuchaj, no to jest na ochocie na tam…
Nawet jeżeli to jest jakaś duża ulica, tak,
o której się słyszy czasami, jakaś tam Puławska,
to nie ma pojęcia, czy ta Puławska,
to trzeba w tę stronę jechać, czy nie w tę stronę jechać,
czy to jest na przykład daleko od centrum,
tak w ogóle Puławska to jest jedna z najdłuższych ulic w Warszawie
i ona się ciągnie ileś kilometrów,
w związku z powyższym to, że ktoś mieszka,
mówi, że mieszka na tej ulicy,
to nawet może się okazać, że to jest informacja tam,
powiedzmy, niezbyt precyzyjna,
ale no powiedzmy, no jakby chodzi o sam,
samą wagę problemu, że tak naprawdę wiesz, wiecie,
no to jest problem niejednokrotnie.
Właśnie kiedyś byłem we Wrocławiu przez miesiąc,
chciałem się spotkać z paroma osobami,
oni zaczęli mi wymieniać jakieś nazwy,
jak to jest jedna rzecz, poza tym jak jechałem autobusem,
no ja miałem w mobile MPK przystanki,
przepraszam, jaki teraz jest przystanek,
no tu obok okrąglaka,
na pewno wszystko wiem,
ale jakaś nazwa w przystanku,
no wie pan, tu jest ulica taka i taka,
też dużo mi to mówi.
No i to jest też problem,
no nie, no to akurat jest spoko,
bo możesz sobie wpisać adres w mobile MPK.
Ale ty już jesteś na przystanku,
za 10 sekund autobus odjedzie.
Dokładnie, te nazwy się zmieniają na przykład.
No to masz rozkład przystanku przecież.
Ja ostatnio na przykład kogoś pytam,
już nie pamiętam teraz o co,
ale chyba tam właśnie gdzie coś jest,
i ktoś mi mówi w okolicy Ronda Regana,
to znaczy tam na Rondo Regana byś musiał pojechać,
ja mówię, co to jest Rondo Regana, gdzie to w ogóle jest?
I się okazuje, że to co się kiedyś nazywało Rondem Regana
i to co jest w okolicy Ronda Regana,
przystanek się zupełnie inaczej nazywa
i ja znam jakby, wiem mniej więcej gdzie jest to miejsce
i wiem mniej więcej, że ok tam,
ale ja ją znam jakby z nazwy przystanku,
a nie z jakiegoś Ronda w ogóle, który jest tam obok,
gdzie ja mieszkam w tym mieście
i to są naprawdę moje okolice, to jest blisko,
więc to jest problem
i też z takich na przykład,
ja się kiedyś chciałem dowiedzieć,
jak wyglądają Stany Zjednoczone,
w sensie, co tam się, do czego, jak ma
i jak się ma wschód do zachodu
i gdzie to mniej więcej wszystko jest
i co tam z czym graniczy
i to wcale nie jest takie proste,
jakby się człowiekowi wydawało,
żeby te informacje w jakiś fajny i sensowny sposób dostać.
No, albo na przykład wiesz,
w książce masz jakieś informacje,
jechał samochodem z Kansas do Oklahoma
i teraz pytanie, czy on jechał trzy godziny,
czy jechał półtora dnia i w związku z tym jest padnięty…
Tak, bo jak w Polsce to jeszcze coś w domu wygrzebie,
jakieś województwo on znalazł
i jakby mam przez to jakieś pojęcie,
ale jak mnie powiedzmy zainteresował inny kraj
i to taki raczej duży
i to taki raczej, o którym wszyscy trochę wiedzą,
to się okazuje, że ja znam tam na przykład sporo ludzi
i mam pojęcie mniej więcej o tym,
jak to tam wszystko wygląda,
ale czasem brakuje,
ja to widzę, że mi po prostu go brakuje,
kontekstu geograficznego
i ja nie za bardzo mam opcję
znaleźć sobie ten kontekst geograficzny.
Ewentualnie tu powiedzmy jechał z samochodem
z tego punktu do tego,
no to można by było sobie dajmy na to
w jakichś mapach Google’a sprawdzić,
jaka to jest odległość,
ale to jest wszystko, te sposoby,
to są sposoby, które wymagają,
mam jednak wrażenie od nas,
znacznie większego wysiłku.
Dokładnie, bo widzący,
ja to widziałem,
jak widzący to robił,
bierze sobie dowolną aplikację map,
Apple lub Google’a,
nie każdy o tym wie,
przynajmniej Apple’a na pewno,
Google’a wydaje mi się mocno,
możemy sobie pomniejszyć
i my sobie możemy ten temat pomniejszyć
do takiej skali, że
na razie widzimy nasz dom,
za chwilę widzimy nasze miasto,
województwo, kraj, kontynent i świat.
I przyzoomujemy sobie na Amerykę Północną,
powiększymy sobie wielkie stany
i w kilka sekund widzimy
taki poglądówkę,
no i jak wyglądają stany
i możemy sobie przyzoomować na dowolne stan
i dowiemy…
Teoretycznie, Mikołaju,
to jest następne dla nas,
ale to jest właśnie teoria,
bo to możesz sobie na ekranie
dotykać, szukać czegoś
eksploracją, ale ja próbowałem kiedyś
w ten sposób oglądać te mapy
i dość szybko się poddałem.
Jeszcze jak to byłby iPad,
to ja myślę, że tu by można,
ja myślę, że na dużym iPadzie tu by można
coś osiągnąć, jakiejś 12-calówka,
jakiejś Pro,
ale no nie,
nie na jakimś
czterocilucalowym
malutkim iPhone’iku 8, no nie.
A teraz załóżmy, że
ktoś sobie obserwuje wojnę na Ukrainie,
w Ukrainie i jest informacja
Wojsko cofnęły się
z wsi jakiejś do wsi jakiejś.
Gdzie tak? Gdzie to jest?
Albo nawet z miasta, tak?
Gdzie to jest?
Gdzie w ogóle inna sprawa,
że nawet jeżeli my tę mapę znajdziemy
i my sobie wydrukujemy tę mapę
w ten czy inny sposób,
to na
mediach społecznościowych
i ogólnie w internecie bardzo często
mapa to jest jedno,
a jakaś druga warstwa na tej mapie
to jest druga,
to jest drugie, czyli mamy wpis typu
tak rozkładają się zakażenia COVID
w Europie
i to jest mapa Europy,
tylko że na tej mapie Europy
mamy dodatkowo każdy
powiedzmy region
ma kolor
biały, czarny, gdzie czarne to jest
mnóstwo zakażeń,
białe to jest nie ma COVIDu
i no
osoba widząca
dużo z tego wyciągnie,
bo sobie powiedzmy wyciągnie
informacje, że aha
ten blok był wschodni,
Polska, Czechia, Słowacja itd. ma powiedzmy
mało, a blok
powiedzmy nie wiem południowy, Włochy, Hiszpania
ma dużo, a tam powiedzmy
Niemcy, tam gdzie kiedyś były Niemcy
wschodnie to mają mniej,
a tam gdzie kiedyś były Niemcy zachodnie to mają więcej.
Ale wiesz COVID
weźmy przykład znacznie bardziej
banalny, pogoda.
Pogoda, tak, dokładnie.
I widać, że
front burzowy idzie na nas, jeden z północy,
drugi z południa, pewnie się u nas
spotkają już niedługo.
Będzie fajnie.
Tak.
No i to są takie rzeczy,
które musimy przez
jakieś prawą ręką, przez lewe ucho
robić.
I nikt się tym w ogóle
nie zajmuje.
W żaden sposób mam takie wrażenie.
Tu mamy komentarz od naszej słuchaczki
Magdy, a czy nie jest tak,
że tyflomapy są trudne
do odczytania dla osoby niewidomej?
Ja mam wrażenie,
że to wynika z tego,
one są trudne,
ale one są trudne, dlatego że mamy
mało praktyki.
Tak, są trudne, bo mamy mało map,
a mamy mało map, bo są trudne.
Ja czytałem
na Twitterze Chancey Fleet.
To jest taka dziewczyna,
kobieta ze Stanów, która tam pracuje chyba
w bibliotece w Nowym Jorku.
I ona
właśnie jest bardzo dużą
fanką i wolenniczką i propagatorką
tyflografiki.
I ona właśnie mówi o tym, że
ludzie, którym się te tyflografie
ciśnie od dziecka niewidomi,
to zaczynają rozumieć
jakieś rzeczy, które
wydawało się do niedawna,
że są dla niewidomych nie do zrozumienia,
tylko jakaś perspektywa,
jakieś rzeczy izometryczne,
gdzie ja,
no nie wiem, chociażby
idea,
że rzeczy, które są
dalej, są mniejsze
i że
osoba widząca, zamieszana w kosmosie,
jeżeli pokaże się jej kostkę
metr na metr na metr,
to ona nie będzie wiedziała, czy to jest kostka
metr na metr na metr blisko,
czy to jest kostka kilometr
na kilometr na kilometr, bardzo daleko,
bo wielkość
i dystans to jest jakby dla wzroku to samo
i potrzeba w ogóle
zagniżdżenia i jakby
w przestrzeni tego obrazu i kontekstu
typu porównanie do czytającego obok
budynku, żeby stwierdzić, że
aha, to jest człowiek,
to jest wielkości człowieka, a nie wielkości
godzili, to
jest coś, z czym my jako niewidomi,
a zwłaszcza jako niewidomi od urodzenia
mamy i będziemy mieć problem.
No, także
trochę się pochwaliliśmy, trochę sobie ponarzekaliśmy,
a teraz myślę, że
można przejść do technikaliów,
bo śledzenie paczek pojawi się w
e-mailu. Jakże to?
Tak, że
Google już o różnych rzeczach nas informuje
z maili, my się czasami
śmiejemy, czasami z przerażeniem patrzymy,
ile informacji jest w stanie wyciągnąć
Google z naszych maili,
jakieś informacje o wydarzeniach,
jakieś informacje o
jakichś tam zakupach,
jakieś informacje jeszcze
najróżniejsze, które potem służą do tego, żeby
nam jakoś tam podpowiadać inteligentnie
różne rzeczy w życiu.
No i jako, że się zbliża sezon
najróżniejszych zakupów, a w Stanach to już w ogóle,
bo święto dziękczynienia,
więc Black Friday,
Cyber Monday itd.
Za chwilę znowu będą
święta,
więc wszystko się kręci
wokół kupowania prezentów
i różnych innych rzeczy.
Więc póki co w Stanach, ale
kto wie, może to czasem zawita też
dalej, ma się pojawić
właśnie śledzenie paczek w Gmailu.
Ma to wyglądać tak, że kiedy zamówimy sobie
jakiś przedmiot
i dostaniemy potwierdzenie z naszego sklepu
o tym, że paczka została
już nadana,
to wyskoczy nam powiadomienie, czy my chcemy
tą paczkę śledzić. Jeżeli wyrazimy zgodę,
no to w tym momencie,
kiedy będziemy wchodzić w maila
z tym potwierdzeniem zamówienia, to
od razu kontekstowo pokażą nam się informacje
o statusie paczki.
Będziemy też otrzymywać powiadomienia
na bieżąco o tym.
Natomiast
no to będą powiadomienia dość podstawowe,
czyli naklejono etykietę,
paczka wyruszyła, paczka będzie
nie wiem, dziś, jutro i też będzie pokazywane
w tym powiadomieniu,
znaczy w mailu na pewno też,
czas
przewidywany
do ręczenia, do ręczenia
naszej przesyłki.
No i właśnie.
Pamiętajmy
też, bo nie każdy
o tym wie, a to jest fajna funkcja,
bo ona jest gdzieś schowana,
że Apple też ma
i to zwłaszcza u przechodźników takich
amerykocentrycznych, czyli no nie będzie to
InPost, ale już na przykład z UPS-em
jest na to spora szansa.
Ma też śledzenie paczek, jeżeli klikniemy
sobie na numer paczki, to często
on jest w stanie nam zrobić
to, co powinien, czyli
albo wyświetlić nam jakąś
informację bezpośrednio, albo rozpoznać
kto to jest za przewoźnik i przekierować
do strony internetowej, gdzie nam się ta informacja
pokaże.
I Apple ma też śledzenie
lotów.
Jeżeli klikniemy sobie na numer lotu,
to bez instalacji jakiejś zewnętrznej
aplikacji, jesteśmy w stanie
wyświetlić w takim widgetzie
iOS-owym,
nadal praktycznie wszystkich lotów informacje,
chyba nawet jesteśmy w stanie dostawać
powiadomienia, chociaż tego nie jestem pewien.
No i tam mamy nawet
często informacje o tym, z którego gate
ten lot odlatuje, pod który gate
ten lot przylatuje.
Te informacje są fajne, one są nawet dość
szczegółowe i
kompletne.
A no nie jest to jakaś, nie wiem,
osobna aplikacja czy coś, tylko jest to
po prostu taka ukryta funkcyjka
systemu, która po prostu sobie jest.
Jeżeli klikniemy
w jakiejkolwiek aplikacji, gdzie
iOS ma włączone to wykrywanie
wszelkiego rodzaju
entity z tak zwanych, tam gdzie
numery telefonów stają się linkami, pod które
można zadzwonić i adresy e-mail stają się
linkami, pod które można napisać,
no to tak samo staną się linkami
numery paczek i numery lotów.
No a teraz były
jakiś czas temu
w tyflowieściach
drobne newsy, a teraz jeszcze
zostały nam
drobne newsy w rubryce
technikalia, to są drobne newsy od
Pauliny.
Tak,
znowu już dwa
drobne newsy,
a mianowicie
pierwsza
rzecz dotycząca skrótów,
o nie, dobra,
Jezus, przepraszam,
mam mówić o drobnych newsach czy o skrótach
w Messengerze?
O drobnych newsach.
A więc,
pierwsza rzecz dotyczy
Apple’a, który został przyłapany na śledzeniu
użytkowników.
Jeden
Twitterowicz wysłał
nagranie wideo, na którym
jakimś sposobem,
nie wiem jak to jest widoczne, bo
czytam tylko opis,
co jest dość
zrozumiałe, podejrzewam,
udowodnił, że
Apple śledził
każde dotknięcie ekranu
w aplikacji
Storo,
zostało to
zarejestrowane na systemie
14
iOS-a?
Tam chyba widać,
to jest wysyłane po prostu,
z tego co wiem, w sensie, że przy każdym
jakby kliknięciu czegokolwiek jest po prostu wysyłana
informacja do Apple’a.
Tak.
Co nie jest niestety
nowością, bo pamiętajcie,
że są
na stronach internetowych
też dość często podczepiane
różnego rodzaju narzędzia,
które śledzą oprócz tego,
w co my klikamy, bo to to już
nie dziwi nikogo,
ale do badań
tak zwanych
UX-owych śledzi się
kursor myszki na przykład.
To, że nowością
to nie jest to
okej, ale skoro jest
ustawienie podobno,
czy
akceptujemy śledzenie,
czy nie, i nawet
jeżeli mamy je wyłączone, to
nadal się to dzieje, no to już trochę
nie jest to fajne.
Tak, to się zgadza, ale czy jest to w AppStore
akurat, bo tak szczerze powiedziawszy,
to wszelkie aplikacje
rzeczywiście, to się
z Tobą Paulino zgodzę, jak instaluję
to dostaję pytanie.
Czy chcę, żeby ta aplikacja
zbierała informacje na ten temat,
ale ja sobie powiem szczerze,
nie przypominam, żebym o to był pytany
w kontekście AppStore.
Bo to jest jakieś inne ustawienie.
App ma to jakby swoje rzeczy
i to jest przy którymś
z tych pytań przy
konfiguracji urządzenia.
On tam pyta, czy chce, żeby App zbierał
statystyki na temat tego, tego i tego.
Statystyki, tak, tak, tak, tak.
I to gdzieś tam jest i jakby Apple
nie używa tych
samych jakby rzeczy co zewnętrzni
producenci, no przez to, że
Apple jako Apple musi mieć dostęp
do większej ilości informacji,
od chociażby, jeżeli zaznaczymy sobie
te statystyki, to do Apple
idą na przykład informacje o tym,
jak zużywają się baterie w naszych
telefonach,
tak aby no można było
stworzyć jakieś
lepsze strategie zarządzania tą
mocą. Apple na przykład wie,
co te baterie
najbardziej zużywa, żeby móc pracować
nad optymalnymi jakimiś,
no wiedzieć nad czym najbardziej
trzeba pracować, o.
I
te właśnie
wszystkie śledzenia w aplikacjach
App’a to są gdzieś, gdzieś
tam, gdzieś jakby w tych ustawieniach
no zgromadzone,
że tak powiem.
Tak, no i ogólnie
jest nagonka, że niby
Apple
całego
no, całego Facebooka
sparaliżowało tym, że nie
pozwala mu
personalizować
aż tak bardzo reklamy pod
użytkowników, nie pozwalając im
ich śledzić, a sam
ich śledzi, no i
tak dalej.
W zasadzie dlatego
tak dużo tego podobno i
innych tego typu zwrotów, że
no Apple’owcem nie jestem,
więc przekazuję tylko
newsa jako taki sygnał,
bo też nie wiem jak
się
ma to do tego
jak tam się da co poustawiać
i co z tych ustawień wynika.
Natomiast
druga rzecz
odnosi się do programu,
który ma powstać w celu
możliwości
ucyfrowienia,
podpisywania umów
o
wszelkie formy pracy
i rozliczania składek.
Jest to realizacja rządowego
projektu ustawy
o systemie teleinformatycznym
do obsługi niektórych umów,
który został przyjęty przez Radę Ministrów
i teraz trwają
nad nim prace w Sejmie.
Podobno dzięki temu programowi
będzie można wykorzystać profil
zaufany do podpisywania
tego typu umów.
No i dzięki temu
może już nie wszyscy
będą musieli kupować kwalifikowany
podpis elektroniczny.
Dobrze by było tak sobie myślę, żeby w ogóle
wszelkiego rodzaju umowy cywilnoprawne można
było za pomocą tej
aplikacji podpisywać.
Nie tylko o pracę.
W sumie możesz od razu opowiem
o tych skrótach messenger, bo w sumie
to jest dość drobny news,
a szczerze mówiąc jestem
już tak trochę podsypiam, więc przepraszam
za ten mój nieorient,
ale po prostu
pewnie też słyszycie, że pogoło się gdzieś tam
ledwo
funkcjonuje.
Jeśli chodzi o skróty w messengerze,
to
ostatnio mi się pojawił taki ten
pop up
z okienkiem, że
tam dowiedz się więcej o skrótach,
które wprowadziliśmy
w messengerze.
No i można było napisać control slash,
żeby ten panel wywołać
ze skrótami.
No i
pojawiło się w nim parę skrótów, które
znam,
które są nawet
gdzieś tam w kontrolkach
apki, ale też kilka,
które były dla mnie nowością i
które przyspieszyły mi dość mocno
kooperację z messengerem.
Jako, że ta lista nie
jest zbyt wygodna
do przeglądania z
nvda,
to po prostu wyjęłam z niej
to, co wydawało mi się najważniejsze i
wam tu przeczytam te skróty.
Control slash otwiera
preferencje,
alt, strzałka, góra, dół
przychodzi po
poprzednia, następna
konwersacja, w sensie
od góry, jakby od
ostatnio używanych.
Control cyfry
no to przychodzi tam, control 1 to
pierwsza od góry, control 2 to
druga od góry i tak dalej.
Control n
to nowa konwersacja,
znaczy nowa wiadomość.
Control k
to jest główne wyszukiwanie, czyli
wyszukiwanie osób,
grup, w których tam jesteśmy
i tak dalej. Chyba nawet
wiadomości tam się też pokazują z różnych
konwersacji.
Control f to jest wyszukiwanie
danej konwersacji.
Control e to jest
otwarcie
wyboru
emoji do wstawienia
do wiadomości.
Control p to wybor
zdjęcia. Control u
to załącznik.
W rozmowie
skróty alt plus m
to jest przełączanie wyciszenia
i
aktywacji
mikrofonu.
Alt v to jest przełącznik
wideo, tylko że nie wiem
czy przełącznik odbierania wideo
czy przełącznik wysyłania wideo, bo to nie było
wpisane w tą listę.
Musiałbym to sprawdzić z kimś.
To raczej wysyłanie wideo, nie ma raczej
czegoś takiego jak przełącznik odbierania
wideo w aplikacjach.
No nie wiem, w Teams’ach jest.
Ok.
Wyłącz przewodzące wideo.
Ok.
W Zoomie zdaje się, że też to można zrobić.
No chyba tak. Tak, jest.
Ale nie jest to tak jakby
na wierzchu, żeby
do tego skrót zrobić, mi się wydaje.
A, no to, no
najprawdopodobniej
chodzi po prostu o nawiązanie połączenia wideo.
Jest rozmowa audio, rozmowa
wideo, tak?
Ale nie, bo to jest już w rozmowie.
A w rozmowie, no to pewnie włączenie kamery.
No, pewnie tak.
Push to talk
w trybie watch together
to jest m,
tylko że to m jest napisane jako duże.
Więc nie wiem czy z
shiftem czy samo.
Podejrzewam, że samo, ale
no też by trzeba było to zweryfikować.
Chodzi o to, że w trybie watch together
nam się mikrofon automatycznie wycisza
i trzeba ten m
trzymać, żeby mówić.
Alt plus s to udostępnienie ekranu.
I alt plus h to przełącznik
podniesionej i opuszczonej ręki.
No i przebranęliśmy przez całą listę.
Także to tyle newsów ode mnie.
No to teraz przechodzimy do smartfonów.
Paweł znajduje
do czasu jakiś mały smartfon
i teraz udało się znaleźć
King Konga małego.
Małego King Konga?
Tak, to prawda.
To nawet nie ja
znajduję te smartfony, tylko nasz słuchacz
Piotr, który podrzuca mi ostatnio linki
do ciekawych sprzętów, które
jego zdaniem warto, żeby wspomnieć o nich
w cyflu przeglądzie. Ja myślę, że to jest
rzeczywiście dobry pomysł i zgadzam się.
Zwłaszcza, że mówimy
o naprawdę interesującym urządzeniu, bo firma
Cubot jest marką
no oczywiście chyba
z radowodem chińskim, natomiast
taką jedną z tych
bardziej już rozpoznawalnych.
No i oczywiście wiadomo znany jest
Huawei, znany jest Xiaomi,
ale gdzieś zaraz za tymi markami
jest Umi Digi kiedyś było,
czy też Umi
i właśnie Cubot. To są takie marki, o których
od czasu do czasu nawet w takich
bardziej poczytnych mediach
technologicznych usłyszymy.
Co więcej Cubot jest to firma
znana z telefonów bardzo takich
masywnych i stabilnych.
To są takie telefony, można się śmiać,
że jak rzucimy nimi o ziemię to
przetrwają
i są to
również telefony,
które mają polskie przedstawicielstwo już
w Polsce. Jest oficjalny sklep Cubota
w Polsce. Więc to już też
nie jest jakaś taka firma,
gdzie trzeba naprawdę się nagimnastykować
z AliExpressem, żeby coś dostać.
No a o telefonie King
Kong Mini 3 warto
wspomnieć, ponieważ jest to telefon
mały. Mały oznacza 4,5 cala
wyświetlacz,
a przy tym ma
parametry współczesnego smartfona,
bo mamy tutaj ośmiordzeniowy
Helio G85
procesor, każdy rdzeń taktowany
po 2 gigaherce,
6 giga RAM,
128 giga pamięci wbudowanej,
dwie karty SIM, LTE,
niestety 5G nie ma to tutaj,
jak ktoś liczył to się może zawieść,
ale jest NFC,
ale jest czysty Android 12 ze sklepem
Play, ale jest
tylni aparat 20
megapikseli,
ale jest,
co jeszcze,
w dużym skrócie to jest to, co w tym
telefonie, prawda, jest.
Chyba nie ma wejścia na kartę pamięci,
nie ma chyba rozszerzonej pamięci,
przynajmniej nic o tym nie wspomina opis niestety.
Telefon kosztuje
780 złotych, można go kupić
normalnie na Allegro.
No i tutaj ja jestem
ciekaw, na ile to się rzeczywiście sprawdzi,
bo to się może okazać, zwłaszcza, że
ceny smartfonów podskakują,
bardzo ciekawa
opcja do rozważenia dla osób właśnie niewidomych,
jeżeli lubicie iPhone rozmiarów SE
albo tam mini,
a chcielibyście coś cenowo
bardziej przystępnego, albo w ogóle coś
z Androidem, no to być może
to będzie jakieś ciekawe
rozwiązanie. Ja
znam kogoś, kto używał kiedyś telefonów
Cubota, co prawda to były
właśnie też King Kongi, ale chyba te
nie mini, definitywnie nie mini,
dość masywne telefony, takie duże.
No i ta osoba
mówi mi, że z telefonu była zadowolona,
jedyne co, no to nie można liczyć na
nie wiadomo ile aktualizacji tego
sprzętu, no bo
no bo tam, nie wiem,
albo żadnych nie ma takich większych,
albo jest jedna większa do następnego
Androida i to niestety tyle.
No natomiast,
jak za taką cenę, to myślę, że
zwłaszcza, że
no nie możemy specjalnie wybrzydzać,
jak chodzi o telefony w takich rozmiarach,
no to jest to
propozycja warta
rozważenia. To może
od razu też wspomnę o drugim sprzęcie, który
nasz słuchacz Piotr nam podesłał,
czyli do kupienia w Media
Expercie muzyczne
okulary Razera. Razer
Anzu,
z głośnikami wbudowanymi
w ramki,
z
ekranem, panelem,
przepraszam, bardzo dotykowym.
Tylko nie jestem tutaj
pewien ceny, bo jest napisane, że
kosztują 265 zł, ale że to jest
obniżka z 1000 zł,
więc wydaje mi się to jakieś podejrzane,
więc albo czegoś nie rozumiem,
albo można jakąś mega promocję w tym momencie
na te okulary. Albo to jest obniżka
o 265.
Nie, nie, bo tam jest napisane,
że tam coś obniżka 700 zł
i za chwilę widzę inną ofertę
na inny kolor tych okularów, gdzie
z 280
na 250, więc jestem troszeczkę
zagubiony. Albo to jest
no taka sztuczna cena ten
1000 złotych. Może.
Nie wiem, nie wiem, natomiast
takie okulary są, gdybyście szukali alternatyw
do jakichś bousów czy coś.
Ciężko też powiedzieć, jak to brzmi,
bo chyba jeszcze nikt tego nie testował, ale
fajnie wygląda. 265 zł to jest
no niska cena na taki produkt.
To się zgadza, chociaż
już były też Technaxy.
Technaxy i tak dalej, więc
no Technaxy były też chyba tańsze,
nie? Które ludzie kupowali,
bo też jest taka firma Technax.
No tylko powiedzmy Razer,
no to jest taka firma znana
dość. To nie jest jakiś
krzak, tylko no jednak.
No to warto sprawdzić.
Może ja źle czytam ceny, ale
wydaje mi się
tutaj, że
dobrze czytałem. No zobaczcie sobie.
W każdym razie, bo to była
pierwsza liczba, jaka się
w kwestii ceny wyświetliła, więc
ja myślę, że to jest ta właściwa.
No to sobie obejrzyjcie.
Obejrzymy
i może kupimy, a
jeżeli kupimy, to być może na Allegro.
No i a propos Allegro,
w Allegro Smart będzie
drożej. To jest mój news, jedyny
w tej audycji mój.
Od 21 listopada
konkretnie będzie drożej.
To znaczy, to się tyczy oczywiście
tych Allegro Smartów,
które są kupowane
albo od 21 listopada,
albo nie wiem, od teraz.
W każdym razie, no
mają się ceny zmienić, zarówno
abonamentu, jak i
minimalne ceny przesyłek.
A niestety nie da się przedłużyć
wcześniej, bo jak ja dostałem
maila od Allegro, to
pierwszym moim pomysłem było
zajrzenie na zakładkę
moje Allegro, tam gdzie są ustawienia
Smarta i czy tam nie będzie jakiegoś
przycisku przedłuż teraz,
bo mi się akurat Smart kończy
w grudniu.
No i niestety się już załapie na tę
podwyżkę.
Jeszcze trochę jestem bardziej wygrany, bo chyba
w czerwcu przyszłego roku.
W każdym razie.
To ja jestem jeszcze bardziej wygrana, bo jeszcze
nie wykorzystałem swojego Smart Student.
Okej.
W każdym razie.
Od 21 listopada
ma być tak, że
przesługi do Paczkomatu
mają być darmowe
od 45 złotych, teraz
jest od 40 złotych,
a jeżeli chodzi o kuriera,
to od 64 złotych.
Ciekawe, czemu akurat
64 złotych, no ale jest 64 złote.
Tak informatycznie.
No właśnie.
Teraz było od 40 złotych, choć
no kiedyś było od 100 złotych, więc
no tak w sumie no to i tak troszkę
lepiej niż było kiedyś, ale gorzej
niż jest teraz.
Rocznie ma być 60
złotych, no 59,99,
więc to jest podwyżka
o 10 złotych. Subskrypcja
miesięczna pozostaje bez zmian.
Natomiast
tam jest coś takiego chyba napisane,
chociaż tego nie jestem pewien, że nowe,
że w tych nowych umowach,
że w tych
nowych umowach, Allegro zastrzega
sobie możliwość zmian warunków.
Więc pytanie, czy to się nie będzie jeszcze zmieniało
i na gorsze. Zmian warunków
i że w przyszłości też mają zostać
określone nowe warunki
związane z dzieleniem się
z Martem.
Teraz jeszcze przez
najbliższe pół
roku, bo to chyba do czerwca
przyszłego roku ma
wszystko być po staremu,
natomiast potem ma zostać
określone, jak to będzie
działało i jakie będą te warunki,
więc przypuszczam, że
w przyszłości, jeżeli na przykład teraz
mamy iluś członków rodziny
czy znajomych, z którymi się tym
Smartem podzieliliśmy, bo przypomnijmy,
że do 10 osób to jest
możliwe i za darmo,
no,
to może się to
przestać opłacać, albo będą
jakieś obostrzenia, albo na przykład
tak jak teraz słyszymy
co jakiś czas w jakichś medialnych
doniesieniach, że Netflix planuje
za dzielenie się kontem
nakładać dodatkowe
opłaty.
Zobaczymy, jak to wszystko będzie wyglądało.
No i jeszcze
jest jeden warunek,
że najwcześniej
dostawa w Smartzie
ma być następnego dnia. To znaczy, że
teraz jak są te paczki
od Allegro, które są z magazynu
na Allegro i mogą być dostarczone
jeszcze tego samego dnia, no to
najprawdopodobniej w Allegro Smart tego
nie będzie. No i ciekaw jestem
ile Amazon na tym na przykład
skorzysta, bo przecież
Amazon, zdaje się, to tam nie ma
żadnych ograniczeń, więc no
ciekawe, czy nie
spróbują coś z tym
zrobić.
I tym samym,
no, skończyły nam się newsy,
które są
w naszej
rubryczce,
obu w zasadzie rubryczkach, ale
już wiem, że to nie wszystko, bo ty,
Michale, chciałeś jeszcze powiedzieć o komputerze,
w zasadzie o niespodziance,
która się w tym komputerze spotkała,
niespodziance, która mogłaby się skończyć
nie za fajnie.
Mogłaby się skończyć źle, powiedzmy, wprost.
Otóż, no,
stałem się posiadaczem
nowego komputera,
który już
jest skonfigurowany,
prawie że
za pomocą którego dziś ta
transmisja jest realizowana,
więc też
przechodzi swoje różnego
rodzaju testy, no ale jak to z tym
komputerem było. I to jest takie ostrzeżenie
dla tych wszystkich, którzy jeszcze
się będą mieli
zamiar porwać na komputer stacjonarny.
To nie jest
częsta decyzja,
ale, no,
część osób
się jeszcze z takich czy innych
względów decyduje na
stacjonarkę. Ja akurat
zdecydowanie wolę tego typu
rozwiązanie, dlatego że
laptop to jest laptop,
a komputer stacjonarny to jest urządzenie,
które ma swoje
miejsce na moim biurku,
mam tu cały osprzęt i
służy mi on przede wszystkim
do pracy. No i przyszedł
ten komputer,
podłączyłem go, nie otwierałem
go, to zaznaczam
od razu, nie otwierałem, bo nie miałem takiej
potrzeby, nie
planowałem niczego
przynajmniej na ten moment
do niego dokładać,
nie zaglądałem do środka, nie
rozkręcałem, nie rozkręcałem go po prostu,
no bo po co, skoro tam było
włożone wszystko, czego sobie życzyłem,
no to wystarczy tylko
podłączyć, peryferia,
klawiaturę,
zasilanie, triochę jeszcze
innego sprzętu, no i wcisnąć power.
Na początku wszystko było
okej,
oczywiście jeden z pierwszych testów
to był test Whispera,
bo w komputerze
jest sobie karta, która
z tym Whisperem działa
i powiem szczerze,
trochę
mina mi zżedła,
jak usłyszałem, jak ten
komputer pracuje
głośno,
dlatego, że to było
naprawdę głośne,
on pracował mniej więcej
taki hałas
generował jak mały odkurzacz,
a powiem
szczerze, no nie jestem
użytkownikiem,
który miałby wcześniej do czynienia
z jakąś
bardzo dobrą kartą graficzną, no bo
po co mi, gdybym
nie potrzebował jej do Whispera, to
nie miałbym jej nadal, bo
nie byłoby takiej potrzeby,
specjalnie
graczem nie jestem, więc
mogłem sobie to odpuścić.
Przez chwilę myślałem, że okej,
no to tak powinno być,
może po prostu te
komputery tak mają, już zaczynałem
się zastanawiać nad tym, jakby to
można było wyciszyć.
Natomiast
zmartwiło mnie coś jeszcze.
Już zmartwiło mnie to,
że ten Whisper
na tej samej karcie
w usługach
zewnętrznych,
czyli w serwisie VAST,
działał o wiele lepiej,
bo ten
Whisper
mniej więcej
działał w takiej
prędkości jeden razy, czyli godzina
materiału rozpoznawała się w godzinę,
a nawet trochę dłużej.
No i co tu robić?
Szukam, szukam w internecie
i wyczytałem, że
karty graficzne,
całkiem zresztą słusznie,
mają coś takiego,
jak Thermal Throttling, czyli takie
dławienie mocy tej karty
na podstawie temperatury.
Jeżeli tam zaczyna się robić
gorąco, to ta karta
pracuje nadal,
ale z mniejszą wydajnością.
No i to mi dało
też do myślenia, bo na początku
ten Whisper działał całkiem żwawo,
a on zwalniał z czasem.
Więc pomyślałem sobie, aha, no to
pewnie coś tu jest na rzeczy z tą
temperaturą i rzeczywiście
no temperatury w komputerze,
bo znalazłem program,
za pomocą którego byłem w stanie
jakkolwiek zczytać temperatury z tych sensorów,
no były niepokojące.
Okej, no to w takim razie
rozkręcamy komputer.
Czas było podjąć te decyzje,
zresztą mogłem to zrobić,
bo tu już teraz
nie ma takich sytuacji jakichś
gwarancyjnych, to absolutnie nie był komputer
zaplombowany, no
raczej już w dzisiejszych czasach
nikt czegoś takiego nie stosuje,
bo jasnym jest, że jeżeli użytkownik
kupuje komputer stacjonardy,
to będzie coś tam w nim
modyfikował.
Otwieram, słuchajcie, pudło,
zresztą nawet nie musiałem
śrubokrętu użyć, bo
no po prostu
były to te takie
wkręty, które można było
palcami
odkręcić, zdejmuję
bok obudowy
i co widzę?
A no widzę, że ktoś się postarał w zabezpieczeniu
tego komputera, bo
pudło
kartonowe, w którym przyszedł
ten sprzęt, było wypełnione
na zewnątrz takimi piankami,
takimi z takiego
materiału, który
często jest używany
jako wypełnienie różnego rodzaju przesyłek.
Wszystko
fajnie, tylko że
okazało się, że te pianki były
nie tylko na zewnątrz, ale i w środku
komputera.
No i ja
oczywiście nie miałbym nic
przeciwko temu, żeby te pianki
tam były, bo przecież co to za problem
wyciągnąć te pianki ze środka,
tylko jedna rzecz, trzeba
o tym wiedzieć,
że tego typu zabezpieczenie
tam jest. Gdyby ktoś nawet
chociaż jakąś kartkę
zostawił w komputerze
w tej paczce,
wyjmij pianki ze środka,
to już by było o wiele
lepiej. Natomiast
dobrze, że się nic nie stało, pianki
zostały oczywiście wyjęte,
komputer, nie dość,
że zaczął pracować ciszej,
zaczął się zdecydowanie
mniej grzać. No to i Whisper
już zaczął działać tak, jak
działać powinien, czyli mniej więcej
z prędkością 4 razy.
Więc
godzina materiału, 15 minut pracy
Whispera. No i o to chodziło
i tak to powinno działać i tak rzeczywiście
działa.
Także dzisiejszy tyflon przegląd w godzinkę.
Tak, się będzie robił.
Mniej więcej tak.
No to co, zostało
coś jeszcze komuś? Nie wiem,
gdzieś tam w czasie
audycji może coś się pojawiło
nowego? No ja tego
dodatek nie wpisywałam, bo to
w zasadzie punkt
zdania newsa, ale
do 16 listopada
Chomik ma wyrzucić stare pliki
użytkowników.
Jest bardzo możliwe, że
jest to połączone z niedawnym wyrokiem
o tym, że ma usunąć pliki
niezgodne z prawami autorskimi.
Każdy użytkownik na swoim
koncie może sprawdzić co to są za pliki
w ustawieniach.
Więc jeżeli
z Chomika korzystaliście kiedyś i macie
tam jeszcze jakieś pliki, to sprawdźcie
co to jest i ewentualnie
sobie pobierzcie, no bo
szkoda by było je stracić.
Tak jest.
No to co,
to chyba w takim razie kończymy.
10 minut po północy
4 godzinki
Tyflo Przeglądu.
Kończymy, jak zaczynaliście
my, czyli mamy
w składzie
Paulina Egaioch,
Mikołaj Hołysz,
Paweł Masarczyk, Michał Dziwisz
i Jaćko Tomecki.
Dobrej nocy.
Był to Tyflo Podcast.
Pierwszy polski podcast
dla niewidomych i
słabowidzących.
Program współfinansowany
ze środków Państwowego Funduszu
Rehabilitacji Osób Niepełnosprawnych.

Wszystkie nagrania publikowane w serwisie www.tyflopodcast.net są dostępne na licencji CreativeCommons - Uznanie autorstwa 3.0 Polska.
Oznacza to, iż nagrania te można publikować bądź rozpowszechniać w całości lub we fragmentach na dowolnym nośniku oraz tworzyć na jego podstawie utwory Zależne, pod jedynym warunkiem podania autora oraz wyraźnego oznaczenia sposobu i zakresu modyfikacji.
Przekaż nam swoje 1,5% podatku 1,5 procent Logo FIRR Logo PFRON Logo Tyfloswiat.pl

Czym jest Tyflopodcast?

Tyflopodcast to zbiór instrukcji oraz poradników dla niewidomych lub słabowidzących użytkowników komputerów o zróżnicowanej wiedzy technicznej.

Prezentowane na tej stronie pomoce dźwiękowe wyjaśniają zarówno podstawowe problemy, jak metody ułatwienia sobie pracy poprzez korzystanie z dobrodziejstw nowoczesnych technologii. Oprócz tego, Tyflopodcast prezentuje nowinki ze świata tyfloinformatyki w formie dźwiękowych prezentacji nowoczesnych urządzeń i programów. Wiele z nich dopiero znajduje sobie miejsce na polskim rynku.

Zapraszamy do słuchania przygotowywanych przez nas audycji i życzymy dobrego odbioru!

Tematyka

Pozycjonowanie i optymalizacja stron internetowych