TyfloPrzegląd Odcinek nr 157 (wersja tekstowa)
Pobierz napisy w formacie SRT
Pobierz napisy w formacie VTT
Fundacja Instytut Rozwoju Regionalnego prezentuje Tyflo Podcast.
Dzień dobry, dzień dobry. Kto do mnie wie? To mówię ja.
Ja bym w życiu nie zgadł.
No właśnie. I problem polega na tym, że ktokolwiek nie mówi przez to coś, czyli dokładnie tak samo.
To jest prawda.
No a teraz już się odkrywam.
A co to jest właśnie?
To jest voice mod. O tym troszeczkę mówiłem w poprzedniej audycji albo za poprzedniej, ale o tym jeszcze za chwileczkę, troszkę więcej.
No a teraz zaczynamy od oczywiście tego, co zwykle, czyli od tego, co dzisiaj będzie i zaczynamy jeszcze zanim to, co dzisiaj będzie, to przedstawię tych, którzy dzisiaj w Tyflo Przeglądzie wezmą udział.
Nas jest dzisiaj chwilowo bardzo skromna ekipa.
I chyba tak będzie.
I chyba tak będzie. Jest Paweł Masarczyk, Michał Dziwisz i ja, czyli Tomek Bilecki.
Dobry wieczór.
No ale mimo to kilka newsów udało nam się przygotować.
A co przygotowaliśmy o tym jak zwykle? Michał.
Konsola Xbox pozwoli na przesyłanie uwag odnośnie dostępności gier wprost do twórców.
Nowości w dodatkach dla NVIDIA.
Brak dostępności może czasem ułatwić nam życie.
Zapisy na kursy Salesforce do końca października.
Suspend Braille – skrypty do wstrzymywania monitorów braillowskich dla Jaws.
Konsorcjum Daisy rozwija Braille’a dla egzotycznych języków.
Tremendous – aplikacja do tworzenia dostępnych drzew.
Strona do przetestowania mechanizmu Apple Pass Keys.
Reakcje w mobilnym outlooku.
Wszystko to, a pewnie jeszcze więcej już za chwilę.
Zaczynamy!
Na pewno jeszcze więcej.
Zaczynamy od informacji, której nie było w nagłówkach audycji, w tych szybkich zapowiedziach.
To znaczy, jakiś czas temu, 2-3 audycje temu, o ile pamiętam, mówiłem o czymś takim, co nazywa się Voice Mod.
To znaczy, to nie był news jako taki, to był bardziej taki trend odnośnie, jak mówiliśmy o syntezatorach mowy kolejnych.
Zdaje się od TikToka chyba to był news Mikołaja.
I wspomniałem wtedy, że jest taka technologia w takim programie Voice Mod.
To jest taki program dla jakichś youtuberów, dla streamerów, gamerów i jakby różnych ludzi do zmieniania głosu.
No i do niedawna jeszcze ta zmiana głosu była taka można powiedzieć klasyczna.
To znaczy, można było dodać pogłosu, jakiegoś efektu megafonu, czegoś jeszcze obniżyć, podwyższyć głos.
Tam oczywiście było ileś takich predefiniowanych ustawień, które można było sobie wybrać, ewentualnie troszeczkę tam zmodyfikować.
Natomiast od pewnego czasu weszły głosy dużo ciekawsze, wykorzystujące takie przetwarzanie z użyciem sieci neuronowych.
I to, co przedstawiłem na początku, to przez co mówiłem, to właśnie było to.
No i Voice Mod od kilku miesięcy ma takie coś.
Voice Mod w ogóle jest takim programem powiedziałbym średnio dostępnym.
I tu niestety niedostępność nie ułatwia nam życia.
Natomiast kilka takich podstawowych rzeczy da się zrobić.
Chociażby zmienić kartę dźwiękową, da się też włączyć i wyłączyć przetwarzanie tego głosu.
Niestety nie da się zrobić czegoś, co jest chyba najważniejsze, czyli wybrać sobie głosu.
Na szczęście jest możliwość przepisania sobie skrótów klawiaturowych do poszczególnych głosów.
W związku z powyższym da się to z osobą widzącą jakoś tam ogarnąć.
Bo samo przepisywanie, jak rozumiem, też nie jest dostępne.
Raczej tak. To znaczy, to jest jakiś taki widok webowy, tylko że albo na jakiejś starszej technologii,
bo tam są jakieś linki, natomiast nie ma trybu przeglądania aktywnego.
Nie można włączyć. Przynajmniej w NVIDIA. Być może jakiś inny czytnik ekranu by sobie z tym dał radę bardziej,
ale NVIDIA nie ogarnia.
Tam obiektułówka coś czasem, ale to też tak część najeża.
W każdym razie do tej pory nie udało mi się wybierać samodzielnie tych głosów.
Program jest częściowo darmowy, to znaczy te takie podstawowe głosy są darmowe,
natomiast te głosy, których ja używam, są płatne. Jest 24-godzinne demo.
Natomiast po tym okresie już trzeba kupić wersję Pro.
Ja to zrobiłem, bo to kosztuje chyba 60 złotych w tej chwili. Jest jakaś obniżka.
Normalnie to kosztuje coś ponad 100 złotych za wieczystą subskrypcję, bo są jeszcze licencje jakieś miesięczne, roczne.
Natomiast ja stwierdziłem, że w związku z tym, że roczna licencja kosztuje chyba 48 złotych, a ta wieczysta 60,
no to już kupię sobie wieczystą.
To nie ma sensu.
A to są bardzo ciekawe rzeczy.
I kto wie, czy to jest ich ostatnie słowo, bo może za jakiś czas doczekamy się.
To znaczy prawdopodobnie nie.
To znaczy oni mówią, że co miesiąc coś wprowadzają nowego, jakieś nowe głosy.
Więc pytanie, kiedy się pojawią głosy, które nie będą wspierać język angielski.
Choć widziałem kilka takich głosów neuronowych, które też są takie bardzo angielskie,
ale mimo wszystko troszkę chyba lepiej sobie radzą z polskim.
I możliwe przez jakiś czas, mam nadzieję, że będą bardziej międzynarodowe, powiem może w ten sposób.
Tak czy inaczej, sama technologia jest bardzo ciekawa.
Zresztą ja to, podejrzewam, wykorzystam też do jakichś zabaw naszych dzieci,
bo bardzo lubią takie zabawy efektami, więc to się tak czy inaczej może przydać.
W każdym razie, tak czy inaczej, moim zdaniem rzecz jest bardzo ciekawa.
Nawet jeżeli ten program nie zyska dostępności.
Nawet jeżeli w tym konkretnym programie nie pojawią się takie głosy w języku polskim,
to skoro ta technologia już jest zaimplementowana gdzieś,
no to najprawdopodobniej ktoś jeszcze to zaimplementuje prędzej czy później.
Nie wiadomo, czy teraz, za rok, za dwa, ale najprawdopodobniej to się gdzieś pojawi.
Zwłaszcza, że przynajmniej w tym tutaj scenariuszu, znaczy w voicemodzie, to nie generuje wielkich opóźnień.
One oczywiście jakieś są, rzędu 100 milisekund, ale 100 milisekund, umówmy się, to nie jest jakoś bardzo dużo.
Zwłaszcza, jeżeli tak naprawdę to jest coś w rodzaju syntezymowy, tylko takiej sterowanej przez użytkownika.
To znaczy, ja mówię coś, on rozpoznaje to, co mówię i na tej podstawie generuje syntezą mowy odpowiednie głoski, powiedzmy, fonemy, jak to nazwać.
Przy czym on stara się wyciągnąć takie rzeczy za wszelką cenę.
Do tego stopnia, że jak stukałem w biurku, u mnie pies szczekał, wył przez chwilkę nawet
i on próbował jakieś aaaa robić jakieś takie dziwne coś.
Jak się stuka, nie wiem, wstryka palcami, gra na instrumentach, puszcza muzykę, jak jest coś dziwnego z tym robi, ale próbuje zawsze.
Tak, on próbuje, minusem tego natomiast jest to, że on w żaden sposób nie rozróżnia odległości i natężenia tego dźwięku.
Jak mieliśmy taką sytuację, że twoja córka, Tomku, jeszcze przed audycją się bawiła w pomieszczeniu, w którym byłeś,
to głos twój jak i jej był na tym samym poziomie i on był przez ten program traktowany na równi.
Więc jeżeli mamy na przykład jakiekolwiek efekty gdzieś tam powiedzmy w tle, ktoś na przykład będzie dość głośno stukał młotkiem,
załóżmy, to może mieć to wpływ na to, co będzie generowane jako nasza mowa.
Tak, i najprawdopodobniej będzie to miało, poza tym to też jakby ten syntezator nie bardzo umie sam z siebie jakby operować głośnością,
znaczy nie umie krzyczeć, jakby w taki sposób on potrafi podnieść, zmienić wysokość, ale nie potrafi zrobić czegoś takiego,
że teraz mówię cichutko, teraz mówię nieco głośniej i to słychać, jakby ja nie muszę, nie wiem, no tak to słychać po prostu,
mówię ciszej. Ten syntezator tego nie rozróżnia i mówi wszystko jakby na jednej takiej intonacji takiego standardowego narratora.
No ale podejrzewam, to są też jakieś ograniczenia tej technologii. Z drugiej strony tak się zastanawiam, kiedy ta technologia zacznie być wykorzystywana
w tych sytuacjach, gdy ktoś nie chce ujawniać swojego głosu. No bo tutaj tak naprawdę w tej chwili mamy bardzo prymitywne metody
najczęściej, które przez bardzo prosty zabieg zmiany wysokości głosu można powrócić do oryginalnego tempa, zwłaszcza jeżeli to są nagrania,
w których na przykład jedzie tramwaj, bo to były takie na przykład czasami nagrania gdzieś tam z ulicy i słychać, że on dzwoni i nagle ten dzwonek się zmienia
na inną konkretną wysokość, więc wystarczy tak naprawdę zrobić tak, żeby potem ten dzwonek był w tej oryginalnej wysokości, mamy oryginalny głosnego kogoś,
co naprawdę nie jest coś, do czego trzeba jakiegoś wykształcenia, wiedzy tajemnej, nie wiadomo czego. Może zrobić prawie każdy.
W związku z powyższym, a jeżeli mamy tę technologię zaimplementowaną, no to w zasadzie zmienić głos w tej chwili można w sposób taki, który przez zwykłego człowieka
będzie absolutnie nierozpoznawalny. To w zasadzie tylko po użytych słowach, może po intonacji będzie można rozpoznać, kto to mówi.
No właśnie, bo intonacja mniej więcej zostanie zachowana, zachowana zostanie tempomowy.
W tym głosie, tak. Natomiast są takie głosy, które mają jakieś takie mnożniki intonacji, że na przykład ja mówię w ten sposób, on mówi w taki sposób.
Teraz to tego nie pokazałem, bo nie mam skrótu klawisowego jeszcze porobionego. Ja to wszystko robiłem na bardzo szybko.
Natomiast są takie głosy, więc podejrzewam, że gdyby na przykład powstały takie głosy, które mają za zadanie zmienić czyjś głos,
to być może będą specjalnie wprowadzane jakieś fruktuacje w barwie, być może w tempie mowy, to nie będzie takie w czasie rzeczywistym,
tylko to będzie coś takiego, co się nagłada później i on będzie troszeczkę przyspieszał, troszeczkę zwalniał.
Tak, Tomku, ale jeszcze mi o co innego chodzi, bo dzięki temu, że mamy coś takiego, no bo tak naprawdę ktoś już mógłby w dzisiejszych czasach
równie dobrze zmienić ten głos, czyli po prostu przepisać to, co chce powiedzieć i nagrać to syntezą.
Ale przez to, że ten głos, że ta synteza powiedzmy, którą zaprezentowałeś, czy jakikolwiek inny głos, który będzie stworzony na bazie,
zachowuje jednak tę pewną dynamikę głosu, że tam po prostu te pewne rzeczy zostają zachowane.
Tak, ta ekspresja jest zachowana, to nie jest takie sztuczne, to dzięki temu mamy taką jednak większą naturalność.
To jest jedna rzecz, no i szybkość, tak, no bo w zasadzie co? Przełączam pole wyboru.
Takim głosem syntetycznym, więc to się robi momentalnie i to jest w czasie rzeczywistym, zero roboty trzeba.
Zgadza się.
Więc, no, moim zdaniem bardzo ciekawa technologia, zobaczymy, czy się rzeczywiście przyjmie, natomiast no potencjał jest duży.
I co ciekawe, to jest…
Jest zabawny amerykański akcent oczywiście, my już się tutaj przed audycją bawiliśmy troszeczkę.
No tak, tak, jest amerykański akcent.
Prezenterów radia polonijnego w Stanach Zjednoczonych, w Chicago i tak dalej.
Oj tak.
Więc…
To można.
Jak najbardziej efekt działa i spełnia swoje zadanie, natomiast no…
Ale jest to na pewno mniejszy problem ze zrozumieniem tej mowy, niż gdyby to przepuścić przez taką angielską syntezę.
Napisać ten tekst i puścić to syntezą, zdecydowanie gorszy byłby efekt, a tu jednak jakoś on sobie z tym lepiej radzi.
Tak, no bo tu w zasadzie no…
Tak, on daje takiego uroku na swój sposób.
Tak, no on tutaj po prostu nie ma niektórych naszych polskich fonemów i musi sobie dopasowywać do najbliższego angielskiego, natomiast…
No on stara się właśnie no…
Fonem po fonemie, tak, to co jest mówione.
Czyli powiedzmy głoska po głosce, nie trzeba się trudzić, jak to ma być napisane, co to ma być dokładnie.
Więc ja się trochę zastanawiam.
Coraz, coraz więcej jej, może inaczej, lektorzy mają się coraz więcej czego bać, trochę to jest nie po polsku powiedziane,
ale no, coraz więcej jest takich rzeczy, których w zasadzie może jeden człowiek z jakąś wyobraźnią powiedzieć,
przez te właśnie głosy robione sztucznie i to będzie coraz lepiej, podejrzewam, wszystko brzmiało.
Słuchajcie, tak naprawdę anglik zwłaszcza, albo Amerykanin, to już w ogóle nie musi nawet specjalnie umieć dobrze mówić,
bo sztuczna inteligencja załatwi mu wszystko. Nawet nie musi umieć mówić, ani nie musi mieć jakichś dobrych warunków głosowych.
No bo tak, jest ten cały narzędzie, bodajże to się clean voice nazywa, do wycinania tych wszystkich różnych y, e, m, ta, no, wiadomo.
Zresztą mam wrażenie, że w ogóle jakoś Anglicy, Amerykanie jakoś mniej tego mają, mam takie dziwne wrażenie, może niesłuszne.
Zależy od tego, kto jak mówi, być może, być może tak, ale tu ciężko mi powiedzieć, ale nawet gdyby mieli to tak samo problematyczne jak my,
no to do głosu angielskiego jest to przystosowane. Mamy taką syntezę, mamy narzędzia, które zdecydowanie jeszcze lepiej od tego,
co mamy po polsku, przełożą nam to na tekst, więc tak naprawdę wystarczy mieć tylko jakiś pomysł, a coraz mniej trzeba się martwić tym,
jak my to właściwie wykonamy i czy mamy odpowiednie umiejętności do wykonania. Tak naprawdę wystarczy jakaś taka kreatywność po prostu.
Tak, wystarczy tylko wiedzieć, co powiedzieć i już.
A resztę to już maszyna załatwi.
To się zrobi samo powoli, więc no ciekaw, oczywiście ta ilość tych głosów jest mocno ograniczona, tam jest ich kilkanaście póki co,
przy czym zwłaszcza te wyższe głosy, one są, widać, robione na trochę podobnej technologii jak RH Voice.
One mają troszkę podobne problemy, czy podobny styl mówienia, te spółgłoski wybuchowe są takie troszkę przedłużone.
Z ciekawości. Z ciekawości Tomku, czy ty próbowałeś, pewnie są w pakiecie, głosy kobiece i mówić głosem kobiecym. Czy to jakąś różnicę robi?
Są i po prostu wtedy, ja teraz jak mówię tym czymś, to ten głos, który mówię jest obniżony w stosunku do mojego, nie zniszczy tam o seks to chyba mało.
Natomiast głosy kobiece są podwyższone odpowiednio. Są podwyższone i jakby to zrobione na bardzo podobnej zasadzie.
W związku z powyższym to wszystko jest możliwe do zrobienia. W dodatku tam są też głosy, no to już jest w ogóle raczej rzeczywiście do takich specyficznych zastosowań gdzieś w grach,
albo nie wiem, pewnie w niektórych słuchowiskach, że ten głos jest jeszcze przepuszczony, na przykład jest taki głos, że jest przepuszczony przez jakiś efekt typu megafon,
na to jest jeszcze nałożony dźwięk helikoptera i muzyka jest taka w tle, taka muzyka typu akcji i jak się nie mówi, to jest dźwięk takiego, taki Roger, tylko nowszy taki powiedzmy,
że zaczynasz mówisz, to jest jakiś dźwięk wywołania, kończysz, to też jest dźwięk takiego wywołania.
Jakaś operacja wojskowa jakby na przykład. Więc jeżeli ktoś chce zrobić jakąś grę z czymś, no to w zasadzie kupuje to i to robi.
Zwłaszcza, że on nie tyle pewnie będzie notować tych głosów coraz więcej, coraz więcej efektów właśnie, które nad tym powstają i naprawdę no realizatorzy czy designerzy,
stan designerzy będą mieli coraz mniej roboty, no i to wszystko naprawdę, jeżeli robi to ktoś sobie w domu na mikrofonie za trzy złote, to nagle może nie mieć to takiego wielkiego znaczenia.
Swoją drogą taka refleksja mnie jeszcze naszła, że no skoro dla nas, którzy jednak interesujemy się jakoś tam tą technologią więcej lub mniej powiedziałbym nawet, że więcej,
to jest to dla nas no rzeczywiście te dokonania ostatnich czasów są imponujące, to co dopiero mają powiedzieć te osoby, które tą technologią się w ogóle gdzieś tam nie interesują,
jak gdzieś tak sobie posłuchają ile te rzeczy, ile rzeczy potrafią zrobić w dzisiejszych czasach komputery, a to nie jest jeszcze ich ostatnie słowo.
Na pewno, zwłaszcza, że z tego co wiem, no to no niestety konflikt, zwłaszcza ten amerykańsko-chiński, no to najprawdopodobniej, przynajmniej tak mówią specjaliści,
przyspieszy rozwój wszelkich obliczeń sztucznej inteligencji, to jest jakby jedna rzecz, druga rzecz no to starzenie się społeczeństwa i europejskiego, chińskiego, amerykańskiego, nie wiem, ale chyba trochę też,
no też sprawi, że coraz więcej będzie takich zawodów, które będą musiały wykonywać maszyny zamiast ludzi.
Co może budzić pewne niepokoje, ale to zawsze tak było, no ale koniec końców to raczej powinno wyjść wszystkim na dobre, oby tak się rzeczywiście stało.
Niemniej nadzieję przynajmniej, w każdym razie, no najprawdopodobniej, czy chcemy, czy tego nie chcemy, to tak po prostu się stanie i już.
No i tyle, także no to takie kolejne narzędzie, które być może się przydać i to testowałem jeszcze na komputerze moim stacjonarnym sprzed 8 lat.
Działało, nie robiło to problemów, tam jest jakiś Core i7, ale no właśnie dość stary, więc jak na dzisiejsze czasy to nie jest żadna rewelacja.
I też to chodziło, w związku z czym podejrzewam, że to nie ma jakichś takich ogromnych wymagań ten cały program.
A tymczasem mamy słuchacza z nami, jest z nami Wojtek.
Od dłuższego czasu.
Tak, od dłuższego czasu, no Wojtku słuchamy.
Tak, ciepliwie czekam, już nawet przełączyłem studenta, powiedziałem mu, żeby 5 minut później przyszedł, bo jeśli myślicie, że pracujemy tylko dniami, to nie jest tak.
Nocami też.
Mam dyżur na 20.30.
A to wiesz co, to jeszcze nic.
Ja słyszałem od jednego z moich wykładowców na studiach, on zdaje się na Wojskowej Akademii Technicznej studiował z kolei,
no to jakiś wykładowca jego umawiał się z nim na egzamin o 3 w nocy.
No to już jest perwersja.
Znaczy tak, ja pamiętam jak Duda te zaprzysiężenia od sędziów odbierał rano,
wcześniej to kolega powiedział, o super, wreszcie w moich godzinach pracy ktoś coś robi.
Ale to nie z tym oczywiście dzwonię.
Dzwonię z czymś, co obiecałem, że się skontaktuję, gdy ten problem rozwiąże, a o poradę prosiłem Was, więc obietnicy chcę to trzymać.
Mianowicie chodzi o organizacje hybrydowych zajęć, tak żeby wszyscy słyszeli wszystkich.
Udało się.
Rozwiązanie jest o tyle niekonwencjonalne, że bazuje na bardzo starej technologii.
Czymś, co pamiętam moje studia, nawet liceum, odnalazłem sobie w moich gratach dyktafon Walkman Sony WM-GX320.
No to to miało i radio, i przyspieszanie kasety, i nagrywanie, i tam cuda wianki.
Co ono miało?
Ono miało mikrofon taki zewnętrzny, kierunkowy.
Bardzo dobry.
Świetnie się na tym nagrywało.
I co ja wymyśliłem?
Podłączyłem to, włączyłem baterię, wszystko to działa tak jak przed laty.
Zasymulowałem mu obecność taśmy naciskając sprężynkę, włączyłem nagrywanie.
Oczywiście zaraz tam wrzuciłem pauzę, żeby to baterii nie marnowało.
A do wyjścia słuchawka rufego podłączyłem kabelek Jack Jack Line In.
Włączyłem sobie ten kabelek do komputera, troszkę tam ściszyłem w Walkmanie.
Głośność, żeby tam nikogo nie ogłuszyło.
I włączyłem ten Line In na Original Sound na Zuma.
Słuchajcie, podobno słychać to jakby ktoś siedział obok w Warszawie będąc na drugim końcu Europy.
No proszę.
Czyli my tu się tak zachwycamy tymi różnymi nowoczesnymi technologiami.
Ale i o starych nie należy zapominać.
Nisko budżetowe rozwiązanie.
Dobrze, że tego nie powyrzucałem nigdy.
I nikomu tego nie dałem wyrzucić.
Nawet mam dwa takie dyktofony, takie etui skórzane mam do tego.
Także okazuje się, że to się przydało i chyba to się przyjmie i będę z tego korzystał częściej.
I nawet teraz takie imprezie uczestnicze, też w takich seminariach dotyczących studiów o niepełnosprawności.
Tam straszny był problem z tą hybrydą.
Więc też już im powiedziałem, że mogę coś takiego zorganizować.
Do tego wezmę głośnik przenośny Sonosa, który też niedawno kupiłem.
Odpalę to, więc jak Zoom będzie mówił to przez ten głośnik to wszyscy będą słyszeli.
A jak będą mówili na żywo to Zoom będzie słyszał przez tę całą skomplikowaną przeróbkę, przekładkę.
Ale naprawdę, słuchajcie, działa to no fajnie, fajnie.
A pamiętam, że właśnie ja tak robiłem już w późniejszym etapie.
Zanim nie miałem dyktafonu cyfrowego to tak robiłem na studiach.
Że miałem laptop, podłączałem właśnie Jack-Jack i sobie w ten sposób nagrywałem wykłady.
Także to mnie jakoś zainspirowało, żeby to odkryć.
Także z tym dzwonię i też dzwonię, żeby wam powiedzieć, że absolutnie Tyflon Przegląd to jest audycja pionierska wyznaczająca trendy.
Ponieważ mam takiego kolegę, który powiedzmy, że teraz pracuje na uniwersytecie w Anglii.
No ale ze względu na COVID to tam z byciem jego w Anglii to różnie wygląda.
W każdym razie zajmuje się tam przekładem, tłumaczeniem maszynowym i rozpoznawaniem mowy.
I połączeniem tych dwóch rzeczy.
No i tam z miesiąc temu do niego zadzwoniłem, czy napisałem.
Mówię, słuchaj, muszę Ci coś pokazać, jakie piękne rozpoznawanie mowy.
No i w końcu się skontaktowaliśmy, bo tam pracowaliśmy gdzieś na Zoomie razem.
Dzwonię potem do niego, mówię, słuchaj, ja już wiem jak to się nazywa.
To się nazywa Whisper.
A, Whisper, tak, to my kilka dni temu to też odkryliśmy.
Także wiecie, jesteście w awangardzie nawet nie tylko tam tyflotechnologii, ale naukowej awangardzie.
No my to już nie tylko odkryliśmy, a nawet już udało nam się wdrożyć.
Już od paru tygodni sukcesywnie gdzieś tam te napisy się pojawiają, te przekłady się pojawiają.
No i rzeczywiście widać, że to się ludziom podoba.
No bo ktoś może sobie alternatywnie posłuchać syntezą.
Jeżeli na przykład dla niego mówimy za wolno, nie chcę słuchać tego jako podcastu,
tylko chcę sobie wrzucić na przykład do Voice Dreama, można, testowałem ostatnio.
Wrzuciłem sobie jakąś audycję do Voice Dreama i ustawiłem odpowiednią prędkość syntezy.
Mogłem sobie jej posłuchać.
Dobra, to dzięki Wam wielkie za uwagę i dzięki za te wszystkie pomysły,
bo do tego być może trzeba będzie kiedyś wrzucić, ale na razie sprawa została rozwiązana.
Wiadomo jak to ze sprzętem jest, może się różnie zdarzyć.
To wtedy ewentualnie będę się uśmiało, poradzę co do tego dyktafonu kupić, żeby działało to tak jak ten mikrofon,
bo on nie ma żadnego zasilania, nic nie ma, po prostu to jest taki stereo mikrofon.
Trzeba go tylko gdzieś wpiąć sobie i on świetnie po prostu wszystko odbiera, nawet stereo.
No to fantastycznie.
Być może ma zasilanie to tak zwane plug-in power, chociaż nie jestem pewien,
czy te mikrofony dołączone do Walkman’ów go miały, bo nie wiem czy Walkman’y miały zasilane plug-in power.
W każdym razie te mikrofony elektretowe mają z reguły dość dobrą jakość,
natomiast właśnie nie wiem czy to jest taki mikrofon, bo nie wiem jak to wyglądało.
Zwykły, malusieńki w wielkości paznokcia, w bardzo dużym palcu powiedzmy i po prostu tylko jack’i już.
No tak, bo te mikrofony to były takie, że są te elektretowe konstrukcje, potrafią być malusieńkie.
Przecież mikrofony elektretowe to są właśnie w smartfonach na dobrą sprawę,
więc one muszą być malutkie, żeby w iPhone’ie się zmieściło ich trzy, tak, bo tam chyba tyle jest tych mikrofonów.
O, półpaluszka AA. To jest coś takiego, jakby przeciąć na półpaluszek AA.
Tak, to jest taka standardowa wielkość, znaczy standardowa. No może być taki mikrofon, nawet mogą być mniejsze te mikrofony.
Śmiałem się do tych studentów, mówię, słuchajcie, ten sprzęt ma więcej lat niż Wy, a działa świetnie.
Dobra, rozłączam się i idę na kolejne spotkanie. Dzięki jeszcze raz.
Okej, Wojtku, dzięki za telefon. Miłej pracy w takim razie.
Trzymaj się.
Tu jeszcze tylko przypomnę, że skoro już mieliśmy słuchacza, to rzeczywiście można się z nami kontaktować na Zoomie.
www.tyflopodcast.net, jeśli dobrze pamiętam, albo kontakt.tyflopodcast.net, tam można do nas napisać, można też do nas wpisać na Facebooku, gdzie prowadzimy również transmisję na żywo.
I w aplikacji Dawida Piepera, tyflopodcast, tam też można do nas napisać, także zapraszamy do kontaktu.
To ja teraz może, a propos kontaktu, a propos Waszych wypowiedzi, przeczytam to, co do nas spłynęło, bo mamy tu jeden komentarz w notatkach, ale mamy też kilka wypowiedzi od naszych słuchaczy.
Więc teraz taki kącik kontaktowy, że tak go pozwolę sobie nazwać.
Zacznijmy od tego, co na bieżąco do nas wysyłacie.
Patryk do nas napisał. Myślę, że mimo wszystko głos zniekształcony dla prywatności, aktualnie stosowanymi metodami daje większą wiarygodność.
Aktualnie synteza jednak u coraz bardziej spostrzegawczych słuchaczy może zapalić czerwoną lampkę, że mamy do czynienia z deepfake’iem.
Z jednej strony tak, z drugiej strony zawsze, kiedy ingerujemy w jakikolwiek sposób w ten głos, to wydaje mi się, że takie podejrzenia mogą paść, a ja powiem szczerze…
Zwłaszcza, że wydaje mi się, że wiele osób uważa taki zniekształcony głos już za syntetyczny, że jest obniżony, więc to już jest sztuczne.
A ja powiem szczerze, że wiele osób też chyba wierzy, że da się syntezować taki bardzo naturalny głos, co różnie z tym bywa, więc podejrzewam…
No nie wiem, w każdym razie jest szansa, że niektóre treści takie, które jakby są… jeżeli jest jakiś podcast, który sam w sobie ma renomę,
tak wiadomo, że ci państwo są okej, przynajmniej większości ich słuchaczy, no to jakby sama ta renoma może już zaświadczyć, to jest okej, tu żadnego deepfake’u nie ma.
Niemniej na pewno będą się pojawiać takie rzeczy, natomiast tu jest zawsze ten problem.
Tomku, podcast jak podcast, większy problem i gdzie ja bym to jak najszybciej widział, to jest w telewizji.
Te wszystkie materiały interwencyjne, w których to bardzo często ludzie nie chcą się wypowiadać jawnie, gdzie mamy jakieś anonimowe źródła.
Ja powiem szczerze, kiedyś mam wrażenie, że większą wagę przykładano do tego, żeby mimo tego, że ten głos jest zniekształcony, to był on jednak zrozumiały.
Teraz odnoszę takie wrażenie, że ten głos coraz częściej jest tłem dla napisów, które no prawdopodobnie też się wyświetlają, nawet szczerze mówiąc nie wiem, ale tak przypuszczam,
bo ja nie jestem w stanie momentami zrozumieć, co ci ludzie mówią, bo to jest jeszcze, wiesz, czasem nagrane jakimś słabej jakości dyktafonem z ukrycia.
To jest zniekształcone, zaszumione, zaszeleszczone i jest z tym naprawdę bardzo duży problem, żeby to po prostu zrozumieć.
Więc ja naprawdę mam nadzieję, że tego typu nagrania zostaną wymienione na takie wersje traktowane, no taką powiedzmy sobie syntezą mowy i to będzie z korzyścią dla nas wszystkich.
A teraz wypowiedzi, jeszcze dwie od Agi. Cześć wszystkim, pozdrawiam, a to tylko taka króciutka wypowiedź, ale za to dłuższa jest druga.
Aga do nas napisała tak, zainstalowałam sobie nową wersję systemu Makos w Ventura i póki co jestem zadowolona, a najbardziej z funkcji poprawiania błędów pisowni, jeśli chodzi o podwójne spacje.
No to cieszymy się, że to rzeczywiście działa i że jesteś z tego zadowolona. A teraz jeszcze jeden komentarz już tym razem do audycji.
W zeszłym tygodniu mówiliśmy o tych różnych drukarkach, które mają działać lepiej. Lexmark, zdaje się, nad tym pracuje.
A tu mamy wypowiedź od jednego z naszych słuchaczy, konkretnie od Marcela. I napisał do nas Marcel tak, jeśli ktoś szuka modelu, urządzenia wielofunkcyjnego, bardzo dostępnego, to był Epson EcoTank L3060.
Bo tam są fizyczne przyciski, duże, szeroko rozstawione, a na obudowie nie ma żadnego wyświetlacza. Dodatkowo nawet na tych najbardziej potrzebnych przyciskach były wypukłe kropki i kreska, a włącznik odróżniał się tym, że był bardziej wgłębiony.
Urządzenie to nie miało żadnego menu i żadnych komplikacji przy obsłudze, po prostu wciskało się tyle razy przycisk, ile ma być kopii kolorowych lub czarno-białych i już.
W dodatku aplikacja na telefon i komputer jest też w pełni dostępna i można wszystko robić przez Wi-Fi. Spotkałem inne modele Epsonów, ale chociaż nie były dotykowe, to miały malutkie i niewyczuwalne przyciski, na które ciężko było trafić. Pozdrawiam.
No to my też pozdrawiamy, dziękujemy za te rekomendacje.
Dziękujemy, a teraz już przechodzimy do wydarzeń z tego tygodnia i zaczynamy od serii drobnych newsów od Pawła, a ich kilka jest.
Ja tylko mówiłem, że mam nadzieję, że będzie mnie tak stabilnie słychać, bo ja na odbiorze mam Was z jakimiś przycinkami, ale to nic nowego u mnie, więc chyba w drugą stronę jest dużo lepiej.
W drugą stronę jest okej, przynajmniej na razie i oby tak zostało.
Dobrze, no to spróbujmy, bo trochę do opowiedzenia Wam mam, bo tych drobnych newsów zawsze się troszeczkę zbiera.
No i pierwszy news dotyczy Windowsa 11, bo w tygodniu, staje się ubiegłym, wyszły cztery bety w ciągu jednego tygodnia i to każda z nich miała jakieś nowe funkcje, bo to na tych różnych ringach, na tych różnych kanałach powiedzmy testerskich, poukazywały się różne wersje.
Ale to, co nas będzie interesowało, to jest zmiana dotycząca braila w narratorze, ponieważ wprowadzono coś, co nazywa się Narrator Braille Driver Solution, czy też Device Solution.
I to jest rozwiązanie, które ma utrzymać nam tego braila w momencie, kiedy my przełączamy się między narratorem i jakimś innym screenreaderem, w którym też używamy braila.
Domyślam się, że chodzi tam o jakieś przeładowanie sterowników, które do tej pory nie następowało zbyt szybko i były jakieś problemy z tym brailem. Pewnie trzeba było te czytniki ponownie uruchamiać, albo może urządzenia podłączyć ponownie.
Jeżeli dość często zmienialiśmy między narratorem a JOSem, a jeszcze do Mixu wrzuciliśmy NVIDIA. Teraz w nowszych buildach Windowsa 11 ma to zostać usprawnione i ma to działać lepiej.
Druga rzecz, którą dziś dla Was znalazłem, a raczej znalazł jeden z użytkowników w portalu AppleVis, jest to aplikacja ShortCat, w sensie nie ShortCat przez U, tylko ShortCat, jak kot z HortCat.
Jest to aplikacja na Maca, która jest czymś w rodzaju wyboru rzeczy VoiceOver, czyli pokazuje nam listę wszystkich elementów, jakie aktualnie są na ekranie.
Czyli powiedzmy jesteśmy w jakimś oknie i możemy sobie wylistować wszystko, co w tym oknie się znajduje.
No i można pomyśleć, po co nam takie coś, skoro VoiceOver taką funkcję ma wbudowaną, no ale okazuje się, ja tego nie potwierdzam, bo nie posiadam Maca, natomiast użytkownicy Maca mogą potwierdzić lub zaprzeczyć, że ten wbudowany czytnik nie jest zbyt szybki, zwłaszcza w dużych aplikacjach.
Może się to potrafi przymulić, potrafi się to zaciąć, potrafi się to nawet wysypać, więc tu ta aplikacja pod tym kątem ma działać dużo stabilniej, ma sobie dużo lepiej radzić z dużo większymi listami.
Ponadto to, co jest w tej aplikacji wyjątkowe, to to, że nie jest tu używany kursor VoiceOver, a za to jest używana myszka.
W związku z czym można wykonywać pewne gesty na tych elementach, na przykład kliknięcie lewym przyciskiem myszy, kliknięcie prawym przyciskiem myszy, kliknięcie podwójne kliknięcie lewym przyciskiem myszy i tak dalej.
No i aplikacja co prawda do tej pory była dobrze zaetykietowana, natomiast były problemy na przykład takie, że kiedy wpisywaliśmy w polu edycji, żeby przefiltrować tą listę pod kątem jakiegoś słowa klucz czy jakiejś frazy, to nie było nam od razu podpowiadane przez VoiceOver, że znaleziono wyniki i można po nich się przemieszczać.
Teraz ponoć jest to już naprawione, no i developerzy są otwarci oczywiście na dalsze poprawki, więc jeżeli korzystacie z Maca i uważacie, że takie narzędzie zwiększy waszą produktywność, to możecie się nim pobawić, jest ono dostępne.
Trzecia rzecz to usprawnienia dostępności w LinkedIn mam tu wynotowane, a tak naprawdę chodzi o szereg inicjatyw, które w związku z tym, że teraz nie pamiętam czy wrzesień czy październik jest takim miesiącem zatrudnienia osób niepełnosprawnych, chyba amerykańskim, chociaż być może jest też świętowane międzynarodowo.
I Microsoft, do którego LinkedIn aktualnie należy, postanowił z okazji tego miesiąca kilka takich inicjatyw w ramach LinkedIn, który jest taką maszyną jeśli chodzi o nawiązywanie sieci kontaktów zawodowych uruchomić.
I myślę, że jedną z takich ważniejszych rzeczy jest fakt, że od teraz ustandaryzowano różnego rodzaju stanowiska związane z dostępnością, bo do tej pory jeżeli w naszym profilu LinkedIn chcieliśmy się jako osoba zajmująca się dostępnością wpisać, po to żeby nasze doświadczenie było gdzieś tam widoczne w profilu, po to żeby algorytm nam podpowiadał pasujące do naszego doświadczenia i zainteresowań zawodowych oferty pracy,
żeby też rekruterzy mogli nas łatwiej znaleźć, no to wprowadzono pewne ujednolicone stanowiska dotyczące dostępności, takie jak Chief Accessibility Officer, Accessibility Engineer, Accessibility Tester itd.
I jest to gdzieś tam po linii z tym jak funkcjonuje w tym momencie, a przynajmniej jak próbuje funkcjonować branża, no bo tak naprawdę póki co jeszcze i to nie tylko w Europie, gdzie powiedzmy ta branża się dopiero gdzieś tam rozwija, ale w Stanach, gdzie już trochę dłużej się ona rozwijała jest to widoczne, że nawet firmy, które dopiero wchodzą gdzieś i są w tym wszystkim dość nowe, nie mają do końca takiego rozeznania,
na czym polega dostępność i jaka jest różnica między tymi różnymi stanowiskami, po co jest designer, tester, konsultant, ktoś tam jeszcze, skoro można to załatwić jedną osobą niepełnosprawną, która przecież wszystko obskoczy.
Albo można zatrudnić kogoś rzeczywiście dedykowanego na to stanowisko, po czym wrzucić mu odpowiedzialności za 10 osób, bo no dostępność to jest dostępność, prawda, więc tam jak jedna osoba się tym będzie zajmowała, no to ona ma tą wiedzę, ma doświadczenie, no to przecież może się zająć wszystkim.
Ja to widziałem też w kontekście nawet tutaj u nas badań dostępności, że mylone jest pojęcie testera użyteczności z audytorem i na przykład spytano mnie, czy nie chciałbym przeprowadzić audytu dostępności, gdzie na myśli ta osoba miała po prostu testy z perspektywy osoby, która posiada konkretną niepełnosprawność.
To są dwie różne rzeczy. No więc tutaj LinkedIn się stara to uporządkować, żebyśmy mogli pasujące dla nas doświadczenie zawodowe, pasujące do nas role i odpowiedzialności sobie w tym profilu przypisać, żeby nasze doświadczenie było zgodne z prawdą.
Ponadto startują nowe kursy, teraz już w ramach Platformy LinkedIn Learning wystartował kurs dla designerów, dla projektantów, jak projektować dostępne interfejsy, ma się też pojawić troszkę takich konwersacji, takich rozmów na żywo, takich okrągłych stołów, gdzie osoby pracujące w Microsoftcie właśnie, które zajmują się dostępnością z różnych perspektyw, mają na żywo właśnie w ramach takiego networkingu dzielić się swoimi przemyśleniami, swoimi obserwacjami i poradami, i dobrymi problemami.
Inna rzecz też jest taka, że w kreatorze kampanii, czyli jak rozumiem wszędzie, gdzie w LinkedInie się projektuje jakieś ogłoszenia, czy to o pracę, czy jakieś takie powiedzmy publikacje, gdzie firma chce o czymś poinformować i na szeroką skalę jakieś informacje swoje przekazywać, no to tu wchodzi kreator kampanii, campaign creator, czyli takie narzędzie do zaprojektowania całego takiego powiedzmy postu na LinkedInie.
No i w tym narzędziu dodano wsparcie dla opisów alternatywnych zamieszczonych tam grafik, no do tego jeszcze napisy na żywo w rozmowach na LinkedInie, w filmach, które są tam umieszczane.
Też jako doświadczenie, jako umiejętność dodano myślenie dyslektyczne, bo chcę się tam wyróżnić, że osoby z dysleksją potrafią w sposób nietuzinkowy podejść do, czy postrzegać jakoś treści, które się im przedstawia, w związku z czym umiejętność wczucia się w ten sposób myślenia jest postrzegana jako umiejętność, którą możemy sobie w LinkedInie dopisać do naszych umiejętności w profilu.
No i wiele więcej takich pomniejszych inicjatyw, o których można przeczytać pod linkiem, który zamieściłem, będzie on oczywiście w komentarzu, pod audycją.
Co my tu jeszcze mamy? Mamy tutaj generatory dostępnych w Sudoku, bo okazuje się, że w Sudoku można grać na różne sposoby i są aplikacje na przykład mobilne takie dostępne gry Sudoku, na blogu moja szuflada Piotra Witka można o takich kilku przeczytać, czy na iPhone’a, czy też na Apple Watcha, są też w formie gier audio, na komputer.
Najróżniejsze opcje są gry w tym Sudoku. No a co, gdybyśmy chcieli pograć sobie fizycznie, z brajlowskimi elementami?
Można takie elementy oczywiście kupić. Ja się tu powołuję na artykuł bloga Michaela Lidlhej ze Słowacji, czyli Technologie bez draku i pisze ona, że w Czechach takie Sudoku jest do kupienia w sklepie Tyflopomucki, natomiast można też takie Sudoku wykonać sobie samemu, wycinając po prostu w brajlu odpowiednie karteczki, no tylko w jaki sposób sobie to potem wymieszać, żeby była to dla nas zagadka.
Okazuje się, że istnieją programy komputerowe, które nam to wymieszają za nas. Jeden to jest program właśnie z tej samej osoby, która stworzyła brajlowskie Sudoku w Czechach. Jest to program, który zasadniczo działa w formie wiersza poleceń i w tym wierszu poleceń wyświetli nam tą zagadkę, a także zapisze ją w pliku txt.
A drugi jest to strona internetowa QQWING.QQ, czyli jak te dwie litery, jak ten chiński komunikator, WING jak skrzydło,.com i tam możemy sobie również taką zagadkę wygenerować.
Ona w konkretnym formacie jest nam wyświetlona. Jak już się z takim formatem otrzaskamy, gdzie są zaznaczone puste miejsca, gdzie liczby, to po prostu jak po sznurku za taką instrukcją czy z tego programu, czy z tej stronki układamy sobie to nasze zrobione domowym sposobem Sudoku na stole, na jakimś kartce papieru, na naszej wyimaginowanej planszy i możemy się brać za rozwiązywanie.
Taka strona pozwala nam również na sprawdzenie, czy dobrze rozwiązaliśmy i możemy sobie też podejrzeć rozwiązanie takiego Sudoku i porównać je potem jedną ręką, operować komputerem czy też monitorem brajlowskim i czytać rozwiązanie zaproponowane przez stronę, a drugą ręką śledzić to, co sami ułożyliśmy na stole w naszych stworzonych przez nas kostkach czy też elementach brajlowskich.
No więc, jeżeli byście chcieli sobie samodzielnie stworzyć Sudoku, jest to jak najbardziej możliwe.
Znów wracamy do Microsoftu i Xbox tym razem.
Xbox, który no tak chwali się, że w tej dostępności przoduje i istotnie ten narrator tam jest, a jeśli chodzi o osoby niewidome, to tych gier chyba zbyt wielu dostępnych na Xboxa niestety nie ma.
Może się to zmieni, może nie, natomiast na pewno jakimś krokiem w stronę, żeby dobrze się w tej kwestii zadziało, jest stworzenie narzędzia i to jest narzędzie, które w ramach centrum testów dostępności na Xboxie jest wbudowane,
czyli narzędzie pozwalające na bezpośrednie zgłaszanie twórcom gier, uwag odnośnie dostępności, gramy w jakąś grę i z poziomu tej gry albo gdzieś niedaleko można zawsze wskoczyć tam i prosto do twórców gry przesłać opinię a propos dostępności.
Miejmy nadzieję, że to wpłynie też pozytywnie na dostępność gier dla osób niewidomych, bo Microsoft chwali się tym, że przeróżne gry na Xboxa stają się dostępne,
natomiast często nie dotyczą te zmiany osób z dysfunkcją wzroku, a to szkoda.
Dodatki NVIDIA również mogą się pochwalić w tym tygodniu nowościami.
Jeden z tych dodatków to Clipboard Assist, wtyczka, która pozwala nam na sprawdzenie skrótem, którym domyślnie jest NVIDIA Shift Z, jaki to rodzaj danych jest aktualnie w naszym schowku,
czy jest to tekst, czy jest to plik, czy jest to może zrzut ekranu, czy dane innego typu, możemy to sprawdzić, a naciskając szybko dwa razy ten skrót możemy schowek wyczyścić, takie małe narządko.
Natomiast druga wtyczka to Speak Key i jest to wtyczka, która przyda się zwłaszcza osobom, które dopiero zaczynają przygodę z komputerem i uczą się rozkładu klawiatury.
Cóż wtyczka robi? Wtyczka po aktywacji trybu Speak Key, który aktywuje domyślnie Control Escape, warto ten skrót zmienić, bo Control Escape, warto pamiętać, otwiera nam menedżera zadań, na przykład albo Menu Start, tak, Menu Start, więc gdybyśmy potrzebowali to Control Shift Escape menedżera zadań.
Natomiast warto zmienić ten skrót na wypadek, gdybyście używali jednak tego skrótu do otwierania Menu Start.
Po aktywacji tego trybu, każde pierwsze naciśnięcie jakiegokolwiek klawisza na klawiaturze spowoduje, że ten klawisz zostanie nam odczytany, jego funkcja zostanie nam odczytana,
a dopiero podwójne naciśnięcie klawisza spowoduje przesłanie go do systemu i wykonanie tego, co on rzeczywiście robi.
Brzmi to trochę jak nawigacja po ekranie dotykowym w smartfonie, natomiast myślę, że właśnie dla osób uczących się klawiatury może być to całkiem sympatyczne ćwiczenie i nauka klawiatury,
zwłaszcza jak ktoś nie do końca czuje się jeszcze pewnie, czy właściwe klawisze wciska, no to może się okazać, że jest to bardzo przydatne narzędzie.
I ostatnia rzecz, której w notatkach co prawda nie było, ale ja Wam o niej powiem.
Aplikacja WaveOut. My o niej mówiliśmy jakiś czas temu, że ona jest na iOS-a, czyli austriacki startup DreamWaves z Wiednia,
który rozwija coś na kształt soundscapa Microsoftu, czyli nawigację z elementami właśnie dźwięku umieszczonego w przestrzeni.
Mamy słyszeć punkty, do których się zbliżamy właśnie w formie dźwięków, które nadchodzą z konkretnego kierunku,
więc tu warto mieć fajne słuchawki albo z przewodzeniem kostnym, albo z transparentnym przepuszczeniem dźwięku, coś ala airpocy.
Aplikacja ta wykorzystuje też kamerę, żeby analizować nasze otoczenie, czyli próbuje tu robić coś, co robią mapy Google dla osób widzących
w formie opcji live view, analiza trasy na mapach, analiza obrazu w kamerce, w aparacie telefonu, porównanie tych dwóch
i próba pomocy nam w nawigacji do celu. Coś takiego ta aplikacja próbuje robić.
I ta aplikacja ostatnio ukazała się też na Androida, można ją pobrać ze sklepu Play, jest na razie aplikacją darmową
i na ten moment działa ona jedynie na tych urządzeniach z Androidem, które wspierają usługi rozszerzonej rzeczywistości Google.
Może kojarzycie, że w waszym sklepie Play czasem pobiera wam się aktualizacja takiego komponentu, usługi rozszerzonej rzeczywistości Google,
też Google AR Core i to, jeżeli to u was się pojawia, oznacza to, że telefon to wspiera. W internecie jest też lista takich urządzeń.
Autorzy pracują nad tym, żeby uniezależnić się od tych usług i wprowadzić jakieś bardziej uniwersalne rozwiązanie,
takie też, żeby nie trzeba było cały czas telefon utrzymać w ręku i tą kamerą operować, tylko żeby można było telefon spokojnie wsadzić do kieszeni
i mimo to z tych dźwięków korzystać. Autorzy pracują też aktualnie nad nawigacją wewnątrz budynków.
Rozwiązanie będzie w jakiś sposób podobne, tu tak z opisu mi się wydaje, do rozwiązania amerykańskiego, czyli Good Maps,
czyli również budynek zostanie zmapowany w swego rodzaju kreatorze na komputerze, zostanie narysowana jego taka jakby właśnie wirtualna mapa
i dzięki rozpoznawaniu obrazu i sieciom neuronowym będzie możliwe nawigowanie po różnych zamkniętych przestrzeniach, po budynkach.
Zobaczymy, jak to będzie funkcjonować w praktyce.
A nie wiesz, czy ta aplikacja jest oficjalnie dostępna w Polsce?
Jest, jest. Już nawet słyszałem się z osobą, która testowała tę aplikację.
No i na ten moment wiemy tylko, że wydaje z siebie dużo dźwięków, zżera dość dużo baterii, ale żeby ocenić jeszcze, czy ona działa czy nie,
trzeba będzie ją troszkę dłużej potestować, bo na razie jeszcze niewiele wiemy.
No ostatnio jeszcze troszkę sobie, ja chyba mam te usługi, tak mi się wydaje.
Ostatnio dużo jeszcze do przedszkola z Martynką i Olą, także no jest szansa, że uda mi się coś przetestować.
Jak będziesz w stanie przetestować, to ja jestem ciekaw opinii.
I to wszystko na ten tydzień, jak chodzi o drobne newsy z mojej strony.
No to miejmy nadzieję, że do przyszłego Tyflon Szygonu będzie coś na ten temat mówione, ale zobaczymy.
A tymczasem bardzo taki ciekawy news, troszkę o co sobie porozmawialiśmy dzisiaj.
Brak dostępności może czasem ułatwić nam życie, to wydaje się dziwne, ale Michał coś więcej wie o tym i może to wyjaśnić.
Tak, ja z przyjemnością to wyjaśnię.
Ten i moim zdaniem to oczywiście ta historia, o którą za moment przytoczę, to jest historia zabawna.
Natomiast ona zabawna wcale być nie musi i to wszystko zależy od sytuacji, w jakiej tego typu problemy zaczynają wychodzić.
Sytuacja wyglądała tak, że wczoraj z moją Moniką, z moją drugą połówką chcieliśmy sobie po prostu w coś pograć.
Coś co będzie dla nas obojga dostępne, z tym wiadomo jest różnie.
Akurat w jej przypadku coś quizwanie nie chciało działać, no to stwierdziliśmy, że poszukamy sobie czegoś innego.
Bo Monika widzi, no ja zupełnie nic, więc szukaliśmy czegoś, co będziemy w stanie wspólnie sobie pograć.
No i quizwanie akurat u niej nie chciało działać, u mnie cały czas jeszcze ta stara aplikacja jakoś działa i ma się dobrze.
No i cóż, gdzieś tak coś kojarzyłem, że była kiedyś jeszcze też gra bardzo podobna, mianowicie Quizplanet.
No i faktycznie ta gra jest, jest na oba systemy, jest dostępna na iOSa, jak i na Androida.
Kiedyś nawet była jeszcze w takiej wersji na Messengera.
Z swego czasu pamiętam, że trochę zaproszeń w ten sposób otrzymywałem.
Nie instalowałem nigdy tej aplikacji, no ale to stwierdziłem, że spróbujemy.
Pobawimy się tym, zobaczymy, czy będziemy w stanie sobie w to pograć.
No i sytuacja wyglądała w sposób następujący.
VoiceOver czytał za dużo.
Przede wszystkim aplikacja dostępna jest bardzo słabo, przynajmniej na iOSie.
Na iOSie to sprawdzałem, na Androidzie nie sprawdzałem tego, przyznam szczerze.
Ja troszeczkę sprawdzałem, na razie no da się chyba, ale rzeczywiście no to nie jest tak, że to jest takie super intuicyjne.
Tak, bo to jest taka strona internetowa.
Wydaje mi się, że się da. Tak, to jest strona internetowa, tam jakieś rakiety, coś tam jest wszystko spostrzone.
Tak, dużo linków, dużo grafik i tak dalej i tak dalej i tak dalej.
I o co chodzi?
Otóż aplikacja działa na bardzo podobnej zasadzie do Quizwania.
Mianowicie dostajemy zestaw pytań, wybieramy kategorię i musimy na pytania z danej kategorii odpowiedzieć.
Po udzieleniu odpowiedzi na dane pytanie otrzymujemy informację jaki był procentowy rozkład tych odpowiedzi.
To znaczy, na jaką odpowiedź ile procent osób udzieliło danej odpowiedzi.
O, tak bym to powiedział.
No i wszystko fajnie, pięknie, tylko że osoba widząca dostaje te informacje dopiero w momencie, gdy zaznaczy odpowiedź, której chce udzielić.
W iOSie z voice over’em osoba niewidoma te informacje dostaje w momencie, kiedy przegląda dostępne odpowiedzi na dane pytanie.
Od razu. Zazwyczaj jest tak, że ta odpowiedź, która ma najwięcej procent to będzie tą dobrą odpowiedzią.
Tak z moich obserwacji było i prawdopodobnie tak właśnie jest.
No bo zakładam, że tam dość często grają ludzie, którzy mają jakąś wiedzę i są w stanie tych prawidłowych odpowiedzi udzielać.
Oczywiście to nie zawsze jest tak, że te różnice w procentach są duże, bo czasem to jest kilka procent.
Widziałem już takie pytania, że na przykład było tam powiedzmy 30%, 30%, 20%, 20%, tak mniej więcej, że taki był rozkład, albo podobny.
Ale czasem to oczywiście było, że trzy odpowiedzi po zero, 99% trzecia odpowiedź, czwarta odpowiedź.
Więc w ten sposób to wyglądało.
I ktoś by powiedział, no w sumie nic się wielkiego nie stało, bo tu sobie graliśmy.
Ja oczywiście chcąc być uczciwy to od razu o tym też powiedziałem.
Zresztą sam byłem ciekaw, bo ja na początku też sobie pomyślałem, że osoba widząca ma tak samo.
Ale okazało się, że nie.
Że voice over po prostu z jakiegoś powodu, prawdopodobnie dlatego, że programiście nie chciało się tworzyć jakichś odrębnych widoków
i najzwyczajniej w świecie za pomocą jakichś styli te procenty były ukryte, a one były później dopiero w jakiś odpowiedni sposób odkrywane,
to właśnie to spowodowało, że tak się działo.
I osoba niewidoma bez problemu była w stanie od razu zapoznać się z tymi informacjami procentowymi.
No i tutaj nie ma problemu, bo tu sobie powiedzmy pograliśmy i tak dalej i tak dalej.
Ale jeżeli na przykład coś takiego miałoby miejsce w przypadku jakiegoś egzaminu,
w przypadku jakichś testów, od których zależy, no nie wiem, czy nasze przyjęcie do pracy, czy uzyskanie jakiegoś certyfikatu.
Ja już nie mówię, że sytuacja mogła być taka sama.
To znaczy, że dostalibyśmy odpowiedzi procentowe, ale na przykład ja jestem sobie w stanie wyobrazić coś takiego,
że mamy ten sam ekran, na którym po udzieleniu odpowiedzi podkreślana jest, czy w jakiś sposób wyróżniana jest prawidłowa odpowiedź.
I teraz gdyby coś takiego było, no to w tym momencie odpowiadam na pytanie, ale patrzę sobie pierwsze pytanie, drugie pytanie,
ale zaraz, jedna z tych odpowiedzi wyróżniona jest w jakiś tam konkretny sposób.
No to ja w zasadzie cały egzamin w takiej sytuacji mam już zaliczony.
Nie muszę się o nic martwić.
Masz takie pytanie do publiczności w gratisie.
Tak, dokładnie. I to wiesz, w milionerach to było jedno pytanie, a tu zawsze.
W przypadku QuizPlanet, a w przypadku gdyby ta sytuacja wyglądała inaczej,
to znaczy gdyby na przykład zaznaczona była zawsze prawidłowa odpowiedź w jakiś sposób,
no to byłoby jeszcze lepiej, bo ja po prostu musiałbym tylko szukać tego odpowiedniego wyróżnienia.
I to pokazuje, że testowanie dostępności jest bardzo ważne, bo to może działać w dwie strony.
Z jednej strony ta dostępność może utrudniać, to znaczy brak dostępności może utrudniać,
ale z drugiej strony to brak dostępności w pewnych przypadkach może nam dawać dość duże fory.
I pytanie, czy rzeczywiście powinniśmy te fory mieć, a w części przypadków podejrzewam, że zdecydowanie nie.
Także z tego co wiem, to chyba na stronach internetowych niektórych jest tak,
że jest to okno ze zwól na cookies, ale to jest okno pod którym ta strona de facto jest,
czytniki to widzą przecież niejednokrotnie. Nie zawsze oczywiście, ale tak się zdarza.
W związku z tym też mamy coś w rodzaju braku dostępności na dobrą sprawę.
Zgadza się.
To są takie sytuacje, w każdym razie jeżeli ktoś ma ochotę, to może sobie w QuizPlanet grać.
Ja już tak się wczoraj śmiałem, że gdyby jakieś teraz organizowano turnieje,
w których można by jakąś gotówkę wygrać, to ja się bardzo chętnie bym zgłosił.
Bo istnieje duże prawdopodobieństwo, że można by to wygrać.
Myślę też, że zbyt wysoki wynik by wzbudził pewne podejrzenia w komisji takiej.
No to tam parę bym odpowiedział, no parę źle.
No można by, tak, to prawda.
Poza tym wiesz, no ty byś odpowiedział jak większość ludzi, więc ładny w pewnym sensie.
To też niekoniecznie jest zawsze dobra odpowiedź, to co większość ludzi.
Tak, właśnie o to chodzi.
To się zgadza, więc to w tym przypadku to nie do końca jest takie wskazywanie tej poprawnej odpowiedzi,
ale chodzi o sam fakt, że ja dostaję coś, co osoba widząca jednak dostaje później.
I w innym przypadku, gdyby, tak jak już powiedziałem, gdyby na przykład ktoś zastosował taki mechanizm,
OK, nie pokazuję tych procentów, ale pokazuję jakiś element, jakąś ikonkę,
no czymkolwiek oznaczam prawidłową odpowiedź.
Mógłby tak zrobić. Dlaczego nie?
No to w tej sytuacji, no nie mam na mnie mocnych.
Ciekawe, ciekawe właśnie, ile jest jeszcze takich przykładów dostępności, która poszła nie tak
i jakie na przykład tajemnice programistyczne, albo na przykład efekty frustracji programistów
zostały nieumyślnie odkryte przed niczego niepoświadomymi użytkownikami.
Różne teksty alternatywne, opisy.
No ja pamiętam, w jaki sposób się przekonałem, z jakiego kraju pochodzi aplikacja Tesco,
bo kiedy chyba pierwsze powstawały aplikacje, które, chyba to wtedy jeszcze był Audex,
które odczytywały etykietki niezaitykietowanych przycisków na bazie tam jakiś klas i nazw plików z obrazkami itd.
No to nagle z dużym zdziwieniem się przekonałem, że polska aplikacja Tesco ma przyciski typu nakup, chle dać
i tam różne inne i się okazało, że aplikacja jest robiona przez czeską ekipę,
czego, no co można by pewnie sprawdzić, ale o czym nieświadomie się przekonałem właśnie
korzystając po prostu z tej aplikacji.
Swoją drogą, a propos quizów, szkoda, że aplikacja QuizApp nigdy nie była dostępna w pełni,
bo to już jest taka aplikacja quizowa, która po pierwsze jest popularna tak samo jak quizowanie, jak nie bardziej,
a po drugie ma bardzo rozbudowany system kategorii pytań, że tam już pytania nie ograniczają się tylko do kategorii
nie wiem, muzyka, sztuka, historia, ale są bardzo specyficzne, bardzo konkretne,
na przykład można sobie zrobić quiz pytań o jakiś konkretny jeden zespół.
To tak jak chyba w QuizHouse, chyba, że to się zmieniło w to, nie wiem.
Ja też grałem w Trivia Krak, ale Trivia Krak jest dość mało popularny i te pytania się potem zaczęły powtarzać.
Okazało się, że ktoś założył kategorię właśnie jakiś zespół muzyczny i było 16 pytań w kółko,
więc to też nie jest, no ciekawe ile jest jeszcze takich sztuk.
To w QuizHouse tam chyba był taki problem, że tam było często pytanie, co to jest rysunek?
Oj, no tak, to w QuizWanie potrafiło takie pytania pomijać, albo jakoś tam dostosowywać, dawać wersję tekstową.
Z drugiej strony, w takich pytaniach może też się okazać, że mamy fory, jakieś rozpoznawanie obrazów.
Albo ktoś po prostu nazwie obrazek, albo ktoś nazwie obrazek i to będzie nieumyślnie odkryte.
No też, ale nie wiem, czy tam nie ma jakiegoś takiego, wiesz, standardowego wrzuć obraz, pyk i już nie.
Może tak być.
Tyle.
A tymczasem mamy telefon.
Halo?
Halo?
Halo, dzień dobry.
Dzień dobry.
Magdalena Martynisz.
Już, już, już, już.
O, bo ja się próbowałam, ja się próbowałam połączyć, ja słyszę się z opóźnieniem i zaraz się tutaj, że tak powiem, o, już jestem.
Czy ty, Magdo, próbujesz do nas też się wdzwonić na Zoomie, tak zapytam od razu, bo widzę, że…
Ja próbuję się, tak, ja próbuję się do Ciebie, do Was wdzwonić i powiem Ci, że miałam problem.
Miałam też problem z waiting roomem, bo po prostu czekałam co najmniej z 15 minut i się zastanawiam, Boże Święty, czy to, czy to działa i dlatego próbowałam…
Spokojnie, spokojnie działa, no ale to skoro jesteśmy już połączeni, to słuchamy.
Jesteśmy połączeni, to możemy przejść do meritum.
Przepraszam wszystkich fanów R.H. Vojsa, że dzwoni teraz, ponieważ w związku z pewnymi sprawami osobistymi dopiero teraz mogę się wziąć za, za wszystko co zawodowe.
Otóż chciałam powiedzieć, że 7 października wyszła nowa wersja Alicji, wyszła stabilna wersja Alicji pod SAPI, która już jest w oficjalnym repozytorium R.H. Vojsa na stronie Pana Grzegorza Złotowicza.
Tam to jest jedna rzecz, no i w wersji androidowej też wyszła, jest…
I w wersji androidowej oczywiście, tak.
Jeżeli ktoś ma Android’a R.H. Vojsa, to też może sobie Alicję pobrać i zacząć używać tego głosu.
Tak, tak, dokładnie tak. I właśnie to chciałam, to chciałam powiedzieć, bo zobaczyłam, spojrzałam na znaczniki i nie zauważyłam informacji podanej w tyflopszeglądzie, więc pomyślałam sobie, że podam ją właśnie dzisiaj.
Wydaje mi się, że o tym mówiliśmy, ale być może, być może w takim razie nie.
To znaczy, nie wiem czy w jakiejś innej audycji, w każdym razie w znacznikach to nie było, to nie było uwzględnione. W każdym razie mówię, że 7 października została, został oficjalnie nowy głos wcielony do repozytorium.
To już nie w wersji beta. Tak, i drugim głosem, który został wcielony jest również głos Michał, czyli obecny tutaj Michał Dziwisz. Zresztą tym głosem pewnego razu reprezentowaliśmy nowaści w tyflopszeglądzie.
Tak jest, swego czasu było to zrobione.
Tak, więc mamy oba głosy. Te głosy wyszły z jakimś takim, one nie wyszły razem, one wyszły z kilkudniowym rozdźwiękiem, że tak powiem.
Ale jakoś tak w podobnym czasie. Chciałam tylko powiedzieć, że ty jesteś jednym z twórców tych obu głosów, ponieważ to zajmowałeś się mixem i masteringiem, czyli wszystkie próbki, wszystkie zdania edytowałeś.
Wycinałeś oddechy, różne przedźwięki, różne kliknięcia.
Właśnie oddechy nie wycinałem i to podobno wyszło na dobre temu głosu. Przynajmniej ludzie mówią, że to im się podoba, że te oddechy tam są w tym głosie. Myślałem, że będzie odwrotnie.
Myślałem, że to oddechy będzie coś takiego, czego ludzie nie lubią, natomiast do tej pory nie spotkałem się przynajmniej ja z opinią, że te oddechy są problemem.
Natomiast kilka osób mówiło, że bardzo dobrze są oddechy, bo to jest takie bardziej fajne, naturalne i nie zaburza to i tak szybkości czytania. Bardzo mnie to cieszy.
Eksperyment się udał.
Tak, no i jeszcze warto jedną rzecz powiedzieć, że te głosy, w przeciwieństwie do tych, które były poprzednio, zezwalają, co prawda Alicja nie do końca, na używanie tych głosów również w celach komercyjnych, czyli takich zarobkowych.
To znaczy nie, Alicja zezwala i powiem szczerze, że jestem w stanie to zmienić i ujednolicić. Tak, tak, proszę mów.
W przypadku Alicji tam jest licencja, która jakby powoduje, że trzeba zaznaczyć gdzieś w swoim produkcie, że ten głos został, no kto został, kto jest autorem tego głosu. Natomiast głos Michał…
Nie tylko autorem, ale wszyscy twórcy też mają być zmienieni, czyli między innymi ty.
Dokładnie, więc to nie jest tylko kwestia mojej osoby, ale także i twojej, z Wonimira i Arka Świętnickiego, który był pomysłodawcą tego głosu.
Tak, w każdym razie jest taka możliwość. Natomiast tych głosów Michał takich ograniczeń nie ma, można go używać zawsze i wszędzie bez jakichkolwiek informacji.
To znaczy ze względu na to, że baza tego głosu była właśnie wypuszczona na tej licencji, bo przypomnijmy, jeżeli ktoś by się zastanawiał czemu ten mój głos ma troszeczkę mniej wysokich tonów w porównaniu do pozostałych głosów,
to warto powiedzieć, że ten głos był brany z takiego projektu fundacji Mozilla jak Common Voice. My o nim już kilkukrotnie mówiliśmy.
Swego czasu miałem okazję nagrać sporo materiału do tego projektu, no i uzbierało się go na tyle, żeby był sens stworzyć na jego bazie głos.
Swoją drogą polecamy tym, którzy się zastanawiają czy tam coś nagrać, dlatego że między innymi z tego źródła pochodzi materiał do trenowania tego algorytmu Whisper.
I podejrzewam, że i różnych innych algorytmów również, różne inne algorytmy również będą brały z tego bazy do jakichś swoich rzeczy.
W związku z powyższym myślę, że prędzej czy później ta baza może być naprawdę wykorzystywana, no nie wiem czy przez wszystkich, ale przez dość dużo ludzi.
Także no polecam wszystkim, którzy tylko chcą i mogą, a w szczególności ludziom, którzy mają problemy z wymową, bo takich ludzi też Fundacja Mozilla szuka.
To naprawdę nie jest trudne, trzeba się zarejestrować. Na stronie jest cały taki no taki skrypt, który pozwala na nagrywanie tych głosów.
To nie trzeba się rejestrować, tylko o tyle lepiej się zarejestrować, bo później dzięki temu to ten głos jest przypisany jakby do konkretnego zbioru.
Bo jeżeli ten głos nagramy bez rejestracji, no to niestety on będzie rozbity na różnego rodzaju jakieś takie mniejsze zbiorki.
Więc jeżeli na przykład właśnie ja bym się nie zarejestrował, no to ciężko byłoby stworzyć na bazie mojego głosu tę syntezę.
Prawdopodobnie tak. No także tak czy inaczej polecamy wszystkim, którzy chcieliby coś fajnego wnieść o nagranie i to właśnie nie musi być wcale profesjonalny sprzęt.
My specjalnie zalecają, żeby to był taki sposób czytania, taki sprzęt, jakiego byśmy używali na co dzień do komunikacji z wszelkimi asystentami głosowymi itd.
Czyli jakieś mikrofony wybudowane w laptopy, pokoje, które nie są specjalnie wyciszone itd.
Także takie rzeczy jak najbardziej tam się przydają. Jakieś właśnie wady wymowy, takie różne historie, które zwykli szarzy ludzie mają,
no to tam jak najbardziej są w cenie, że się tak wyrażę.
Magdo, czy jeszcze chciałabyś coś dodać?
Znaczy właściwie już nie. Tylko tak sobie pomyślałam, że moglibyśmy pod tą audycją odnośne linki umieścić do naszych głosów.
Czyli do mojego i do twojego, bo może nie każdy wie, gdzie takich głosów szukać.
A to myślę, że jest dobry pomysł.
Dlatego, że nie każdy, tak właściwie zauważyłam, że nie każdy jeszcze tak biegle operuje tymi wszystkimi linkami.
Ja pamiętam, że jeszcze jakiś czas temu, zanim zaczęłam nagrywać, no to też mi trochę zajęło, zanim się dogrzebałam do tego wszystkiego,
zanim zainstalowałam sobie silnik do NVDA, bo o tym też trzeba powiedzieć, bo niby się o tym pamięta.
Ludzie nie pamiętają takich rzeczy, że jeżeli ktoś chciałby zainstalować sobie nasz głos jako dodatek do NVDA,
to musi zainstalować też silnik, żeby to silnik RH Voice, żeby to kompatybilnie działało właśnie z NVDA.
Tak jest, a zdecydowanie lepiej sobie instalować to w ten sposób, bo oczywiście można zainstalować to jako SAPI,
ale będzie to działało mniej responsywnie, wolniej, więc jeżeli chcecie to wykorzystywać w NVDA, to zdecydowanie lepiej zainstalować to jako dodatek.
Tylko to właśnie robimy w ten sposób, że najpierw instalujemy silnik RH Voice, a później sobie po prostu doinstalowujemy konkretne głosy.
I jeszcze trzeba też dodać jedną rzecz, ponieważ wersje beta pod SAPI też upubliczniałam już, chyba dwie wersje beta zostały upublicznione.
I żeby zainstalować tę wersję oficjalną, należy usunąć z systemu wersję beta z rozszerzeniem EXE.
No tak, i to robimy przez dodaj-usuń programy, przez panel stylowania.
I jak to jest, bo nie potrafię teraz do tego dojść, coś trzeba było w Windowsie zatwierdzić, że zezwalamy temu programowi EXE na zainstalowanie.
On nas po prostu zapyta, prawdopodobnie masz na myśli kontrolę konta użytkownika w trakcie instalacji, jeżeli mamy to włączone, to dostaniemy takie pytanie,
czy chcemy zezwolić temu programowi na dokonanie zmian w naszym systemie, wtedy trzeba po prostu nacisnąć Alt-T.
Tak, tak, trzeba o to zapytać, bo muszę powiedzieć, że te RH Voice’y w związku z tym, że tu chodzi o, nie wiem, już nie będziemy się wgłębiać w to, co chodzi,
w każdym razie coś tam z licencją i chodzi po prostu o to, że to musi być, że nawet jeżeli ma się to wyłączone, to on może o to poprosić.
Jak zainstalował, próbowałam sobie zainstalować Magdę czy Natana, też mi właśnie wyskoczyła informacja, że trzeba na coś wyrazić zgodę i tak dalej, więc musimy wyrazić zgodę.
Tak, bo te fliki nie mają tego tzw. certyfikatu Microsoftu.
Właśnie tak, tak, tak, tak, nie widzimy, kto fachowo nazwać i właśnie nie mają tego certyfikatu i dlatego jest to takie pewne utrudnienie, o którym jednak należy wspomnieć, bo nie każdy o tym wie.
A może inaczej, jeżeli już jesteśmy przy tych głosach, to może pokażmy, jak te dwa głosy brzmią na jakiejś takiej w miarę, powiedziałabym, normalnej prędkości słyszalnej dla użytkowników.
Bo jeżeli jesteśmy przy głosie, to uważam, że możemy ustawić tutaj jakąś próbkę.
Tomku, czy Ty masz jak pokazać?
Mam, mogę pokazać na przykład te nagłówki do audycji dzisiejszej na przykład.
Tylko tu sobie pozmieniam, dlatego że mam nieco wysokość zmienioną, ale już to sobie daję, więc zacznę, ladies first, więc najpierw Alicja.
Link podłącz się do Zooma. Nagłówek poziom dwa z poprzedniej audycji. Nagłówek poziom dwa z komentarzy pod audycją. Nagłówek poziom trzy Michał.
Komentarz Marcela odnośnie drukarek. Jeśli ktoś szuka modelu urządzenia wielofunkcyjnego bardzo dostępnego, to były Epsoneco Tank L3060.
To jest głos Alicja i za chwilkę dam, pokażę również głos Michał.
Jeśli ktoś szuka modelu urządzenia wielofunkcyjnego bardzo dostępnego, to były Epsoneco Tank L3060, bo tam są fizyczne przyciski duże i szeroko rozstawione, a na obudowie nie ma żadnego wyświetlacza.
No i tak wyglądają między te głosy w praktyce.
Ja cię, Michał, widzę w książkach o tematyce sportowej. Ja po prostu fenomenalnie widzę twój głos w takich publikacjach, ale to jest moja taka opinia. Nie wiem, czy można ją wyrażać w ten sposób.
To Magdo, jeżeli ktoś czyta książki sportowe, to może się podzielić. Ja nie czytam, więc jeżeli ktoś czytał jakieś książki sportowe, syntezą zrobioną z mojego głosu, to może dać znać, czy to się rzeczywiście do tego nadaje.
No dobrze, to w takim układzie bardzo dziękuję Państwu za uwagę. No i życzę miłego testowania głosu. Jeżeli pojawią się jakieś uwagi, to proszę pisać albo na Tyflosie, albo w odnośnie grupie na Eltenie,
albo na Facebooku Niewidomini i Niedowidzący bądźmy razem, albo po prostu podam swojego maila też, jakby ktoś miał jakieś uwagi i chciałby się podzielić, więc go podaję magdapodkreśleniemarcieniszynmałpao2.pl.
Jeszcze raz podaję magdapodkreśleniemarcieniszynmałpao2.pl. Bardzo dziękuję Państwu za uwagę. Do usłyszenia.
Dziękujemy również. Dobrej nocy. Do usłyszenia. To news. Kolejny. Newsów jest troszeczkę jeszcze. Tym razem zapisy na kursy Salesforce do końca października.
Tak jest amerykańska instytucja. Nazywa się Blind Institute of Technology i oni prowadzą kursy z zakresu administracji i takiego tworzenia różnych rzeczy pod Salesforce. A czym jest Salesforce? Salesforce jest to system stosowany bardzo często przez różne firmy w procesie sprzedaży,
zarządzania danymi klienta, w ogóle relacjami z klientami i tak dalej. No i jest to taki dość skomplikowany system. Podobną taką platformą, która chyba w Polsce jest dużo bardziej powszechna jest SAP. Jeżeli się orientuje to jest chyba też z tego samego podwórka.
Oprogramowanie i Salesforce no tam pracowana nad dostępnością. Ona jest i można też certyfikaty pozyskiwać, które świadczą o naszej znajomości tego oprogramowania.
No i jako że oprogramowanie jest dostępne to powstały też kursy dla osób niewidomych przygotowujące zainteresowane osoby do właśnie przystąpienia do takiego egzaminu certyfikacyjnego.
I można wziąć w takim kursie udział. Kursy są w języku angielskim i zdaje się za darmo. Tam jest napisane za darmo dla naszych kandydatów. Trzeba by zobaczyć kim są kandydaci, jak się kwalifikują, ale zdaje się, że to nie jest jakiś duży problem.
Jedyne co to warto się zapoznać z wymaganiami poszczególnych kursów, bo kursy są różne. Jeden kurs jest dla administratorów, drugi jest dla twórców aplikacji na tej platformie, a trzeci jest dla developerów samej platformy, czyli osób, które tą platformę jakoś tam pewnie przekształcają pod potrzeby konkretnego przedsiębiorstwa.
Warto się zapoznać z tym, jakie tam wymagania są do każdego z kursów, bo jest to bardzo ważne, żeby takie kursy mogły się odbyć bez przeszkód, bez tego, że ktoś trochę się porwie z motyką na słońce nie wiedząc, nie mając pewnych podstaw, które są tam wymagane.
Ale o tym wszystkim można sobie przeczytać na stronie. Kursy zaczynają się od stycznia i trwają w zależności od wybranego kursu od 6 do 20 tygodni. Link oczywiście będzie podany w komentarzu, a zgłoszenia są przyjmowane do 31 października, więc jeżeli jesteście zainteresowani, to warto się pospieszyć, bo czasu już niewiele.
No a jeżeli postanowiliście się zapisać na taki kurs, to powodzenia i może dajcie znać jak było.
Ja tylko dodam, że jeżeli ktoś chce uczyć się Salesforce’a we własnym zakresie, to też można. Będzie to trochę bardziej być może problematyczne, bo te kursy jak się domyślam będą miały jakieś już wyznaczone ścieżki konkretne
i będziemy się tego Salesforce’a uczyć prawdopodobnie w oparciu o materiały producenta, ale być może z pominięciem pewnych rzeczy. Dlaczego o tym mówię?
Ja swego czasu próbowałem uczyć się Salesforce’a właśnie na tym kursie administratora i powiem szczerze, że całkiem przyjemnie mi się w tym pracowało i sporo lekcji udało mi się przerobić.
Ale się w pewnym momencie poddałem. Raz, że to było raczej takie po prostu, żeby sobie to poćwiczyć. Nie musiałem się tego uczyć.
Ja chciałem po prostu poznać coś nowego, ciekawego, co być może kiedyś gdzieś tam byłoby mi przydatne w życiu.
Utknąłem na takiej typowo wizualnej rzeczy, która dla mnie nie byłaby przydatna w ogóle. Gdybym mógł, to bym sobie to pominął, bo tam było nawet w opisie tego,
że to robimy teraz po to, żeby było ci łatwiej sobie wyobrazić pewne rzeczy w przedsiębiorstwie, jak pewne procesy przebiegają, co od czego zależy i tak dalej i tak dalej.
A wcześniej było to w oparciu o inne narzędzie, dzięki któremu ta reprezentacja tych procesów i ich przepływów była po prostu dla mnie już w tym momencie zrozumiała.
Więc ja nie byłem w stanie przeprowadzić tej wizualizacji. I to było już tam na którymś kolejnym rozdziale tego kursu administracyjnego Salesforce.
A platformy tej naprawdę warto się uczyć, bo tak jak Pawle powiedziałeś, ona zbudowana jest w oparciu o dostępność.
I tam naprawdę sporo rzeczy jest stworzonych od samego początku. Tam widać, że ktoś tej dostępności nie doklejał,
a stworzył ją w momencie kiedy budował platformę albo na pewno kiedy ją rozbudowywał.
Bo w Salesforce mamy chociażby dostępne mechanizmy takie jak przeciągnij i upuść, bo czasem trzeba zbudować jakiś formularz i elementy tego formularza przeciągać
albo ustawiać w odpowiedniej kolejności. To wszystko jest dostępne. Ja tam naprawdę nie widziałem zbyt wielu dostępnościowych problemów.
Niestety właśnie ta kwestia wizualizacji tych pewnych procesów to było coś, co po prostu chyba jeszcze nie zostało stworzone.
Albo ktoś, kto zajmował się dostępnością, stwierdził, że przecież niewidomy to i tak pewnie z tego nie będzie chciał korzystać, bo po co mu to.
Tylko nie przewidział, że właśnie w trakcie szkolenia będzie to wymagane. Ale ja zachęcam, żeby swoich sił spróbować i żeby się tym pobawić.
No to teraz coś dla tych, którzy mają JOSA i linijki brojlowskie, bo wstrzymywanie syntez był od dawna, a teraz wstrzymywanie linijek. To coś nowego.
Tak jest. Niejaki Snowman, czyli człowiek znany chociażby ze swoich radiowych programów, napisał skrypty do JOSA, za pomocą których można wstrzymywać pracę monitorów brojlowskich.
Dlaczego w ogóle chcielibyśmy to robić? Jest kilka argumentów. Po pierwsze żywotność linijki.
Nie zawsze mamy potrzebę korzystania z brojla. Często pracujemy gdzieś syntezą, bo jest po prostu szybciej. Nie musimy w danym momencie wyświetlać tego tekstu na monitorze brojlowskim.
Natomiast ten tekst cały czas się tam wyświetla, a każdy taki brojlowski pin ma swoją żywotność i im więcej będziemy z tej linijki korzystać, tym krócej ona nam będzie służyła. To jest rzecz jedna.
Rzecz druga to chociażby kwestia hałasu. Te linijki brojlowskie, one cały czas, kiedy te punkty się wyświetlają, troszkę jednak słychać.
A jeszcze te linijki, które mają migoczący kursor, to u niektórych, jeżeli są na przykład blisko mikrofonu w trakcie jakiejś telekonferencji, to to może nawet brzmieć jakby ktoś siedział w samochodzie i miał włączony kierunkowskaz.
Takie było moje skojarzenie, kiedy brzmienie takiej linijki usłyszałem. No i Snowman stworzył odpowiednie skrypty dla Joussa, które można sobie pobrać, wrzucić je do swoich plików konfiguracyjnych, no i dzięki temu można wyłączać za pomocą naciśnięcia jednego klawisza i włączać zresztą później też monitor brojlowski.
Na stronie, która zostanie podana w komentarzu, będzie zawarty cały opis dotyczący tego, jak te skrypty sobie do Joussa wrzucić. To nie jest proces bardzo skomplikowany, ale nie jest też trywialny, bo tam nie ma żadnego instalatora, tam są po prostu pliki skryptów, trzeba odpowiedni plik w managerze skryptów otworzyć,
zadeklarować te skrypty, przypisać odpowiedni skrót klawiszowy, to wszystko robi się za pomocą odpowiednich narzędzi Joussa. To nie jest instalator, to jest archiwum ZIP, ale na całe szczęście jest tam plik w postaci strony internetowej, w którym wszystko jest naprawdę w zrozumiały sposób opisane, oczywiście w języku angielskim.
Także zapraszam serdecznie, kiedy już nasza audycja okaże się na stronie, skrypty będą tam również w komentarzu podlinkowane, będzie można je sobie pobrać i korzystać.
A teraz co? A teraz wie ci ze świata, od Pawła. Tak, dzisiaj bardzo krótka sekcja, bo są tylko dwie informacje w tym dziale. Pierwsza informacja dotyczy tego, co konsorcjum Daisy robi, aby Braille był dostępny w większej liczbie krajów i to takich krajów bardzo rozwijających się, krajów Afryki, Azji, Ameryki, Łacińskiej.
Bo okazuje się, że tam te języki jakiegoś Braille’a posiadają, natomiast on nie jest gdzieś reprezentowany jeszcze w technologiach wspomagających, a w ostatnim czasie poczyniono jakieś działania, o czym my też czasem rozmawiamy.
Z mojego punktu widzenia to nie wygląda tak kolorowo, jak jest to opisane przez konsorcjum Daisy, bo oni twierdzą, że powstało kilka takich urządzeń niskobudżetowych, które pokazują Braille’a, czyli monitory Braille’owskie właśnie te tańsze.
Ja wiem na pewno o Orbicie, wiem, że jakieś inne próby były podejmowane, ale Orbit Reader to jest chyba jedyny taki produkt, który się powiedzmy jakoś bardziej sensownie wybił. Natomiast w jakiś sposób to zrodziło pytanie, czy można by za pomocą takiej technologii wspierać właśnie w takich krajach osoby niewidome, które mają utrudniony dostęp do jakichkolwiek materiałów w Braille’u.
I konsorcjum Daisy postanowiło się do tego przyczynić i aktualnie dzięki takiemu funduszowi niskobudżetowej technologii wspomagającej, który współtworzy też Microsoft, stara się wprowadzić języki właśnie krajów Afryki, Azji, Ameryki, Łacińskiej.
Te powiedzmy rodzime do oferty LibLuis. I na razie powstała ankieta, jakie to języki mogłyby być. Zidentyfikowano 12 takich języków, a do marca przyszłego roku do LibLuis mają trafić dwa, czyli Swahili i Chichewa.
Chichewa jest to język rodzimy w Malawi, no Swahili wiadomo w wielu krajach afrykańskich, Tanzania, Kenia, Uganda i tak dalej jest on używany.
No i takie tablice braille’owskie się powoli pojawiają, natomiast ma się też pojawić narzędzie i to może być też z korzyścią dla nas. Narzędzie, które pomoże w konwersji na Braille’a za pomocą właśnie tych tablic z LibLuis’a tekstów.
Pytanie, czy to narzędzie będzie ograniczone tylko do tych języków, czy będzie bardziej otwarte i bardziej uniwersalne. Mamy dostać informacje w najbliższej przyszłości. Oczywiście jak będę coś wiedział, to o tym dam znać.
Natomiast drugi news pochodzi z Francji, bo to tam bank francuski wydał całemu sektorowi bankowemu wytyczne, że usługi bankowe powinny stać się bardziej dostępne. No i tu też wspomniano o tym, że terminale w takiej formie, w jakiej są teraz, czyli z ekranem dotykowym, ale bez jakichkolwiek opcji dostępności, no nie są niczym dobrym dla osoby niewidomej.
Też dochodzi taka kwestia. Ja nie wiem, czy my w Polsce też to mamy, bo nie słyszałem o tym, nie słyszałem, żeby to był problem, a mowa o kartach z dynamiczną biometrią, czyli że numer CVV zmienia się co transakcje na przykład i to jest gdzieś tam w jakiś sposób wizualny jest to dostępne.
Nie wiem, czy karta ma jakiś moduł wbudowany, który tam potrafi te cyfry samoczynnie zmieniać, czy my to mogą gdzieś wyczytać z naszego konta bankowego, ale jest to podawane w formie wizualnej. Natomiast jest taki dodatkowy poziom zabezpieczeń i jest on we Francji stosowany i jest to też rekomendacja, że on dla osób niewidomych dobry nie jest.
W związku z czym rekomendacja jest, żeby tego albo nie stosować, albo pomyśleć, jeżeli dobrze zrozumiałem, nad jakimiś rozwiązaniami, które by to udostępniły. Cieszę się, że ktoś o tym mówi, bo z tego, co pamiętam, nie wiem, czy właśnie terminale na przykład są otwarcie ujęte w Europejskiej Ustawie o Dostępności jako właśnie sektor, który również tym regulacjom dostępnościowym podlegać powinien.
A jest to dość duży problem i jest on gdzieś dopiero na początku bycia rozwiązywanym, zwłaszcza w Europie, więc no właśnie, im więcej krajów się decyduje, żeby takie rozwiązania na swoim poziomie krajowym legislacyjnie przepchnąć, tym no lepiej, bo też się zrodzą jakieś dobre praktyki i kto wie, może te francuskie dobre praktyki przepłyną gdzieś też i do nas, i do innych krajów.
Byłoby to ze wszech miar pożądane. I to wszystko, jeśli chodzi o newsy ze świata ode mnie w tym tygodniu.
To teraz będzie coś chyba dla programistów, o ile dobrze mi się wydaje, ale może nie, czyli aplikacja do tworzenia dostępnych drzew.
Tak.
Jak rozumiem, tu chodzi o takie struktury drzewiaste w programach, ale nie wiem, Michał wie.
Nie, nie w programach. Po prostu do tworzenia struktur, które mają formę drzewa.
To mogą być na przykład jakieś schematy, to mogą być jakieś mapy myśli, chociaż z tymi mapami myśli to zastanawiam się, bo chyba to nie do końca ma formę drzewa.
To jeszcze jakoś inaczej wygląda. Natomiast jest nowa aplikacja, która do tego może nam posłużyć.
Ja już coś takiego kiedyś widziałem i w tyfloprzeglądzie swego czasu podrzucałem.
Natomiast to było bardziej do grafów, a tu mamy takie typowe drzewka, które możemy sobie budować.
To są też przykłady, że może być to wykorzystywane w nauce języków, bo tam można sobie wpisywać na przykład słowa, jakieś słowa i ich tłumaczenie i je sobie potem jakoś łączyć w te struktury.
Także jest to myślę, że aplikacja, którą możemy wykorzystać na kilka sposobów.
Ja to może rozbuduję troszeczkę, bo to było bardzo konkretne zastosowanie i ja to niestety kojarzę dość boleśnie z moich studiów.
Wojtek jeżeli nas jeszcze słucha to się może przyłączy i może w informatyce, w jakichkolwiek studiach informatycznych czy technicznych też się to pojawia.
W formie drzewa prezentowane są składnie zdań.
Jest taki przedmiot na studiach filologii angielskiej jak gramatyka opisowa i w ramach gramatyki opisowej jedną z kategorii tej gramatyki jest tak zwana syntaktyka czy też syntaks.
Czyli analizowanie zdań pod kątem ich składni i tam mamy jakieś tam orzeczenie, orzeczniki, nie orzeczniki, jakieś tam frazy przymiotnikowe, orzecznikowe i tak dalej.
Czyli to jest ten tak zwany rozbiór zdania, to co było na polskim kiedyś Pawle?
Coś takiego, tylko to jest jeszcze bardziej rozbudowane w takich kategoriach po prostu, że każde zdanie ma mnóstwo jakichś elementów, z których się składa, a te elementy jeszcze z jakichś elementów.
Rozumiem.
I trzeba umieć te zdania rozbierać poprawnie.
Ja próbowałem to wtedy jeszcze z moją asystentką ogarnąć jakoś w Wordzie, jakoś tak opisowo.
Być może gdybym poświęcił temu więcej czasu, to bym to pojął.
Jako że byłem typowym studentem i robiłem wszystko na ostatnią chwilę, no to do dzisiaj gramatyka opisowa na zdaje się drugim roku jest najgorszą moją oceną w indexie.
Na szczęście zdaną, to z tego się cieszę.
Natomiast zastanawiałem się dość długo w jaki sposób można by ten syntaks przedstawić lepiej i właśnie z myślą też o lingwistyce i o tym, że właśnie można rozbierać czy morfologicznie słowa na morfemy, czy też dźwięki w fonetyce na fonemy.
I to wszystko gdzieś tam prawdopodobnie da się jakoś zagnieździć w strukturach.
No to tutaj jest to, właśnie z myślą o tym powstało to drzewo, czyli Tremendous.
Zwłaszcza, że można eksportować chyba te drzewa, które my stworzyliśmy, do formatu tego oprogramowania GraphVis.
Tak, to jest jeden sposób, za pomocą którego można eksportować.
Można też wyeksportować sobie kod w latechu, więc jeżeli na przykład potrzebujemy takie drzewko umieścić w jakiejś publikacji naukowej, którą sobie piszemy, albo w jakimś artykule, który tworzymy w latechu,
no to możemy sobie bardzo łatwo to drzewko tam wkleić, bo to jest po prostu kawałek kodu, który dostajemy.
No i jest jeszcze opcja podglądu wizualnego.
Trochę szkoda, że ten podgląd wizualny zrobiony jest tak na okrętkę, dlatego że musimy wejść w specjalny tryb, który powoduje nam wyświetlenie tego drzewa.
To nie jest synchronizowane z tym, co mamy w interfejsie, bo w interfejsie oczywiście dla naszego czytnika ekranu mamy ładne drzewko, kontrolkę, która nam się wyświetla,
która jest elegancko renderowana, możemy sobie tworzyć gałęzie tego drzewa, możemy je rozgałęziać w zasadzie do woli, jak tam sobie chcemy,
ale żeby wyświetlało nam się to wizualnie, to wchodzimy do widoku i wybieramy odpowiednią opcję i wtedy pojawia nam się graficzna reprezentacja tego,
po której nawigować się w żaden sposób nie da, to jest tylko dla naszych współpracujących z nami osób widzących wyświetlane,
później wciskamy escape i możemy pracować z tym drzewkiem dalej, natomiast można też to drzewo wyeksportować oprócz tego formatu, o którym wspomniałeś,
to także można wyeksportować do formatu PNG, jeżeli ktoś na przykład potrzebuje takiej typowej graficznej reprezentacji, też jest to do zrobienia.
Więc myślę, że zastosowań do Tremendous jest sporo, jak na razie na githubie, do którego link też zostanie podrzucony oczywiście w komentarzu,
pod tyfloprzeglądem, jest dostępna skompilowana wersja dla Windowsa, na innych systemach ponoć da się uruchomić ten program,
natomiast wymagana jest jego kompilacja z kodu, więc po prostu trzeba troszeczkę więcej się napracować, żeby Tremendous uruchomić,
chociażby na Macu, czy pewnie na Linuxie również, natomiast na Windowsa mamy zarówno wersję instalacyjną, jak i przenośną.
Programik pobrałem, pobawiłem się nim chwilę, jest bardzo prosty i być może nie jednej osobie się przyda.
I zostały jeszcze z tej naszej rubryki tyflowieści dwie informacje od Pawła Obie, dotyczące poprawek bezpieczeństwa, poprawek dostępności niebezpieczeństwa
w różnych dwóch programach, czy w systemach, jeden program, drugi to system.
Nawet się pokrywa to troszeczkę liczbowo, bo pierwsza rzecz dotyczy WordPressa 6.1, a kolejna iOSa 16.1, więc brzmi to wszystko podobnie,
ale zmiany są dosyć inne. No WordPress, wszyscy wiemy, najpopularniejszy prawdopodobnie na świecie system CMS do tworzenia stron internetowych,
blogów, a nawet sklepów, portali, no wielu różnych rzeczy. On się z wersji na wersję gdzieś tam usprawnia i tutaj taką kością niezgody,
jeśli chodzi o użytkowników niewidomych jest ten nieszczęsny nowy edytor Gutenberg, który jest edytorem blokowym i twórcy WordPressa tworząc ten edytor
no ewidentnie nie brali pod uwagę potrzeb dostępności, bo po ukazaniu się bezpośrednio w ogóle nie był dostępny.
Teraz to się poprawia z wersji na wersję, ale zdaje się, że dalej nie jest to tak wygodne jak klasyczny edytor i wiele osób niewidomych ma z tym problemy,
wymaga to determinacji. Niemniej jednak rzeczy się poprawiają, różne rzeczy się dzieją i te poprawki gdzieś tutaj różne są.
W WordPressie 6.1 okazuje się, że można też współpracować nad dostępnością, bo są różne pull requesty, czyli wrzucony kod,
który można gdzieś tam przejeżdżać, ewentualnie można samemu wrzucić jakieś poprawki, bo jest to wszystko open source i kod źródłowy jest do wspólnego tworzenia,
jest kanał na Slacku, są osoby, z którymi można się kontaktować, więc jakby osoby, które chcą są jak najbardziej zachęcane do tego,
żeby pomóc w tym, aby WordPress został się jeszcze bardziej dostępny i mamy różne zmiany w konkretnych częściach WordPressa,
które najczęściej dotyczą, jeśli chodzi o właśnie o nas, o użytkowników czytników ekranu, albo zaetykietowania jakichś kontrolek,
albo przepisania im poprawidłowych ról, albo prawidłowego użycia arii i są to takie dość szczegółowe i drobne zmiany.
Ja spróbuję tu przytoczyć ich chociażby kilka, natomiast chodzi na przykład tu o te motywy te domyślne,
bo one otrzymały na przykład etykietkę, że są gotowe do użycia w stronach, które wymagają dostępności, czyli są one dostępne
i są to pierwsze dostępne motywy z edytora blokowego, więc są to motywy 2022 i 2023.
Jeśli chodzi o ekrany administracyjne, czyli tam gdzie administrujemy WordPressem, to tu na przykład poprawki wizualne dla osób niedowidzących.
Mamy tutaj zaetykietowane pola formularza, które są tylko do odczytu, mamy wyświetlanie różnych rzeczy z Zoomem prawidłowo,
formalizacja CSS-u, mamy ukrywanie ikon komentarzy i atrybutu tytułu do screen readerów na liście tabel.
Mamy tutaj ulepszenia, żeby lepiej widoczna była treść alternatywnych opisów, kiedy je wpisujemy.
Jeżeli wrzucamy jakieś permalinki, linki stałe, to pola na te linki, na opisy są lepiej zaetykietowane.
Kiedy usuwamy własną strukturę, to jest poprawiony tekst Live ARIA, czyli komunikat, który tam się od razu pojawia.
Mamy też przyporządkowanie pól do ich opisów, więc wszystko jest ładnie czytane, kiedy w trybie formularza się przemieszczamy.
Więcej komunikatów administracyjnych się pojawi od razu pod naszym screenreaderem.
Kiedy coś pójdzie nie tak, od razu otrzymamy komunikat, gdy tylko on się wyświetli. Też poprawki w etykietach i przypisanych rolach na ekranach.
Logowania i rejestracji do sieci. Domyślam się, że to są jakieś funkcje administracyjne.
O, tutaj edytor strony i edytor szablonów. Tutaj mamy np. ARIA Toolbar w tym pasku narzędziowym nagłówkowym.
Mamy tutaj np. dodane i ulepszoną dostępność przycisków do tworzenia tych szablonów. Tu jest ARIA znowu pododawana.
Tutaj są poprawiona kolejność nawigacji tabulacją, tabulatorem. Również w bloku nawigacyjnym są poprawki wprowadzone.
I w edytorze blokowym mamy tutaj ponad 32 zmiany, więc ciężko mi o wszystkim mówić.
Ja myślę, że warto się z tym zapoznać samodzielnie. Jeżeli wy administrujecie WordPressem i gdzieś tam doskwiera wam ten brak dostępności w Gutenbergu,
to myślę, że warto sprawdzić, czy jest to teraz trochę prostsze. Wiem, że ta robota cały czas trwa i w RE proszą też osoby zaangażowane w to, żeby się przyłączać.
Jeżeli ktoś ma wiedzę, jeżeli ktoś ma pomysły, to żeby dokładać swój kod i sprawić, by ten WordPress stał się jeszcze bardziej dostępny.
Natomiast iOS 16.1, o tym wiemy już wszyscy, że wyszedł w zeszły poniedziałek, czyli przedwczoraj jak to nagrywamy i poprawiono w nim wiele z tych zgłaszanych błędów dostępności.
No i na przykład naprawiono ten błąd znany i krytyczny, który był w iOS 16, czyli gdy włączona jest inwersja kolorów, nie otwiera się pasek ostatnio przełączanych programów.
Można teraz ustawić własny czas, kiedy planujemy wysyłanie wiadomości emaili na później. VoiceOver już nie odnajduje jakichś niepotrzebnych elementów ukrytych, nie wiadomo jakich.
Na ekranie teraz odtwarzane w aplikacji muzyka, na ekranie blokady i w obszarze powiadomień znowu z pokrętła jest dostępna opcja więcej na powiadomieniach.
Tak, błąd, który wiem na pewno, że niektórzy z Was go doświadczali, już wymazywanie powiadomień z ekranu blokady działa lepiej i z obszaru, i z centrum powiadomień. Nie ma tego błędu, gdzie przez chwilę jeszcze te powiadomienia tam wiszą.
Można już teraz nawigować normalnie podczas personalizacji ekranu blokady, nie trzeba już palcem dotykać po ekranie, można nawigować gestami.
Kolejne błędy są poprawione przy modyfikowaniu ekranu blokady. Kontrolka przełączania focusów, czyli tych strybów skupienia w centrum sterowania teraz poprawnie oznajmia swój stan.
Nie znikają już dźwięki, które wydaje klawiatura, kiedy się na niej pisze tak dotykowa.
Podczas przeglądania w aplikacji pogoda wykresów działa już element szczegóły na pokrętle.
Informacje takie jak numer seryjny czy model są już wypowiadane normalnie w informacjach o urządzeniu, w ustawieniach naszego urządzenia.
Teraz na interaktywnej wyspie Interactive Island w iPhone’ach 14, jeżeli używaliśmy tam minutnika, no to już jest etykietka przyczepiona do przycisku wstrzymać znów odliczanie.
Niestety pojawił się nowy błąd, jeżeli przeglądamy sobie w aplikacji mail maile, no to może się zdarzyć, że przeczytamy sobie, że tam e-mail jest od kogoś konkretnego, tam temat i nadawca,
a podgląd, ten kawałek treści, który jest w podglądzie będzie przeczytany z zupełnie innego maila, więc tu może być to troszeczkę pomieszane.
I to tyle na ten moment, jeśli chodzi o znane błędy w iOSie 16.1 i o naprawione błędy.
No iOS 16.2 pewnie niedługo się pojawi albo już się pojawił i miejmy nadzieję, że, chyba już się nawet zdążył pojawić, więc miejmy nadzieję, że jakiś feedback wkrótce otrzymamy co do poprawek dostępności.
No to tymczasem zaglądamy do waszych komentarzy, tu mamy kolejny komentarz od Patryka, tym razem a propos tego co Microsoft z Braille’em poprawiać, ma zamiar i poprawia, to Patryk napisał do nas tak.
Nie wierzę w uczciwe zamiary Microsoftu w kwestii narratora i Braille’a. Chodzi o to, że narrator do poprawnego działania uruchamia swoją własną pobraną kopię bibliotek i sterowników BRLTTY,
podczas gdy NVIDIA używa swojego własnego wsparcia dla monitorów, a BRLTTY jest jedynie jedną z opcji dla nieobsługiwanych monitorów. Myślę, że przynajmniej na początku wprowadzi to tylko bałagan, a jeśli już to zyskają tylko nowe monitory. Tyle Patryk.
To tyle Patryk i tyle mamy w dodatkach a propos Tywlowieści, choć ja bym jeszcze jeden news dorzucił, bo pojawiła się nowa wersja Envision, w której dodano tryb offline dla języka hebrajskiego.
Podejrzewam, że dla zdecydowanej większości słuchaczy to nic nowego, nic szczególnego nie będzie, natomiast tutaj widać, że Envision pracuje nad tym, żeby przywrócić te funkcjonalności, które nie były dostępne wcześniej offline.
No i podejrzewam, że zanim będą coś nowego wprowadzali, to najpierw spróbują się zapewne wyrobić z tym co się da oczywiście, żeby jak najmniej ucierpieli użytkownicy, którzy stracili jakieś funkcjonalności w wyniku tego zlikwidowania wersji offline w przypadku krótkich tekstów.
Dlatego też ten news tutaj przedstawiłem, żeby jakoś nakreślić możliwą drogę rozwoju w najbliższych miesiącach przenie Envision. Tak mi się wydaje, że tak to będzie wyglądało.
A teraz przechodzimy do tyflowieści. No i znowu od Pawła zaczynamy. Tym razem niezbyt dobra wiadomość dla użytkowników AppStora i nie tylko, ale chyba głównie jeżeli chodzi o AppStora, bo jest drożej i w ogóle trochę mniej fajnie.
Tak, to znaczy nawet nie o AppStorze, to jest za chwileczkę druga rzecz, też nie za fajna. Natomiast pierwsza rzecz nie fajna to to, że Apple, można było się tego spodziewać, zważywszy na obecną sytuację, podnosi ceny swoich usług subskrypcyjnych.
I tak na przykład abonament Apple One, czyli ten taki ujednolicony, w którym jest Apple Music, jest Apple TV+, jest Arcade, jest 200 gigowy zdaje się iCloud i chyba jeszcze jakaś jedna usługa.
Kosztowało to 25 zł kiedyś ten abonament i potwierdzam, mam taką usługę zakupioną. Tutaj podnosi się cena aż o 10 zł i będzie teraz to kosztowało 35 zł dla użytkowników indywidualnych.
Mniej odczuwalna potwórzka, tutaj ma miejsce w przypadku kont rodzinnych, kosztowało to 40 złotych, teraz 45, oczywiście mówię 39,99 na 44,99, ja to zaokrąglam.
Jeśli chodzi o Apple TV+, tak, tutaj też podnosi się cena i tutaj z 24 zł do 34 zł również, podobnie jak Apple One.
A, lub 350 zł rocznie, wcześniej było to 250.
No i ostatnia usługa to Apple Music, gdzie po podwyżce użytkownik indywidualny zapłaci 21,99 za nas 19,99, no to nie jest jeszcze taka tragedia.
I pakiet rodzinny również 34,99 zamiast 29,99 i pakiet studencki jako jedyny pozostaje bez zmian, nadal 11,99 i już obowiązują w naszym kraju te właśnie nowe cenniki.
Natomiast tutaj też kolejna wiadomość nie za fajna a propos AppStora, bo Apple nam wkłada coraz więcej reklam.
I tutaj taki znalazłem artykuł o tym z MGSM portalu, który tak z przekąsem pisze, że Apple już jest prawie jak Xiaomi, już nas zalewa reklamami i ja go tutaj sobie przeczytam.
Apple wprowadziło do sklepu AppStore więcej reklam. Jak będą wyglądać i co oznacza to dla użytkowników?
iOS słynie z tego, że w odróżnieniu od Androida, użytkownicy sprzętów z logo jabłuszka nie są nękani teoroma reklamami, jak to jest w przypadku tych drugich.
Z biegiem czasu i inflacją za plecami Apple postanawia jednak zwiększyć nieco intensywność reklam, tak aby żyło nam się nieco mniej przyjemnie.
No tak, tutaj widać opinie autorki o całej sprawie. O co dokładnie chodzi?
Jak donosi redakcja MacRumors, od dziś w sklepie AppStore z aplikacjami giganta znajdziemy więcej reklam.
Te zaczną pojawiać się na głównej karcie, a także w sekcji proponowanych apek na dole list poszczególnych aplikacji. Tak zwane możesz też polubić.
Co istotne, odróżnienie reklam od pozostałych treści nie będzie trudnym zadanie. Będą one jasno oznaczone znaczkiem reklama oraz zawsze będą pojawiać się na niebieskim tle.
Tyle dobrze. Reklamy w AppStore pojawiają się globalnie. Wyjątkiem jest jeden kraj – Chiny. Tam wszystko zostaje po staremu.
No i to na tym nie koniec reklam od Apple. Już w sierpniu donosiliśmy, że Apple ma w planach trzykrotne zwiększenie rocznych przychodów z reklam, do co najmniej 10 miliardów dolarów rocznie.
Te niebawem mają pojawić się w takich aplikacjach giganta jak Apple Podcasts, Apple Maps czy Apple Books.
No i już widziałem takie też nagłówki, że ten algorytm reklam to tak nie do końca fajne rzeczy proponuje, bo ludzie widzą bardzo dużo reklam aplikacji hazardowych na przykład,
co zdaje się może być dość niebezpieczne w przypadku jak dzieci sobie zobaczą coś takiego przy jakiejś gierce, którą sobie będą chciały pobrać.
No ale tak postępuje Apple. No i na ten moment to chyba tyle z moich Apple’owych smutnych wieści. To może przejdźmy Tomku dalej. Może będzie coś weselszego.
A dalej no nie wiem czy będzie wesele, to zależy od wyników, bo można sobie przetestować mechanizm Apple Pass Keys. No właśnie o tym więcej Michał.
Tak, jest sobie taka stronka, której adres mogę w tym momencie podać, bo jest stosunkowo prosty, ale oczywiście będzie do niej link również w komentarzu passcase.io.
Wchodzimy sobie tam i możemy przetestować jak działa ten mechanizm, który Apple zapowiada, że dzięki któremu będzie można się logować bez różnego rodzaju haseł na strony internetowe.
No cóż, działa to rzeczywiście fajnie, bo jeżeli nasze urządzenie obsługuje Pass Keys, to po prostu jesteśmy proszeni o stworzenie nowego klucza na tej stronie, jeżeli chcemy się tam zarejestrować.
Sęk tylko w tym, że ja to już mówiłem przy okazji audycji z Maćkiem Walczakiem, że ja mam takie wrażenie, że Apple jakoś coraz mniejszą uwagę przykłada do tego jak ten system operacyjny wygląda,
też z punktu dostępnościowego, bo na przykład wyobraźcie sobie, że element do generowania klucza nie ma przypisanej roli przycisku.
Możemy w to oczywiście kliknąć, możemy i kiedy w to klikniemy, to jesteśmy poproszeni o zautoryzowanie się biometrią i można to zrobić,
natomiast jeżeli raz nam to nie zadziała, to mimo tego, że ten element dalej jest dostępny, to już to w ogóle nie chce się ponownie aktywować,
ale przede wszystkim dla mniej doświadczonego użytkownika może być to mylące, bo nie jest to przyciskiem i to taki mój podstawowy błąd.
Natomiast co do zasady, sam mechanizm działa rzeczywiście bardzo fajnie, a jeżeli nasz sprzęt, na którym działamy nie ma tego mechanizmu,
czyli po prostu jest czymś innym niż to, co oferuje nam Apple, to tam zostało zaimplementowane rozwiązanie w postaci kodu, który musimy przepisać,
który przychodzi na nasz adres mailowy. Podajemy adres, dostajemy maila, mamy tam kod, wpisujemy go, no i też to zadziała.
Także jeżeli macie ochotę przetestować sobie, jak też te paski w praktyce będą działały, no to jest okazja.
A myślę, że warto wspomnieć też o tym, że na ten moment tylko w Stanach, ale pierwszą usługą chyba, albo jedną z pierwszych, która PASKIS wprowadziła jest PayPal.
I można się zabezpieczyć właśnie na Paypalu PASKIS, więc zobaczymy, czy dotrze to też do naszego kraju.
Fajnie by było, bo jednak może PayPal nie jest zbyt popularny u nas, ale jednak się z niego korzysta, zwłaszcza jeżeli ktoś robi zakupy za granicą.
A powiedz Michale jeszcze proszę, czy ten błąd z przyciskiem niezatykietowanym to jest błąd tej strony, czy błąd tego mechanizmu po stronie adresu?
Moim zdaniem to jest błąd mechanizmu, bo strona jest po angielsku, a mechanizm pojawia się po polsku, więc to jest mechanizm systemowy.
A to dość duże niedopłacenie.
Tym bardziej, że później tam jest jeszcze jeden przycisk, szczerze mówiąc nie testowałem, jak to działa, ale tam jest taki przycisk,
że wyśli klucz na inne urządzenie i to już jest przyciskiem, a to pierwsze niestety nie.
No to miejmy nadzieję, że Apple to poprawi, bo kurczę, to taka potencjalnie dla nas technologia.
Tak, to są takie malutkie błędy, ale ja mam wrażenie, że ich ostatnimi czasy zaczyna się mnożyć.
No to w takim razie kolejna chyba w sumie niezbyt wesoła wiadomość, chociaż zobaczymy w dłuższej perspektywie dla ludzi, którzy nie mają siódemki.
W każdym razie jeżeli ktoś ma siódemkę, jeżeli używa chroma to niedługo przestanie, prawda Pawle?
Znaczy skończą się aktualizacje, tak, bo wraz z wejściem w wersji 107 chyba, która jest planowana na początek lutego 2023,
7 lutego to jest wstępna data, ma zostać porzucone wsparcie chroma dla Windowsa 7.8.1.
No i w tym momencie, no, wiadomo, będzie można korzystać dalej z przeglądarki, ale bez aktualizacji, co w praktyce oznacza też bez aktualizacji bezpieczeństwa.
No, bez dwóch statystyk, które tam Google sobie pobrał, wynika, że tych użytkowników jest coraz mniej i tak dalej.
Natomiast, no, ja wiem, że niektórzy z Was mają jeszcze Windowsa 7, lubicie ten system, nie chcecie chrząścić się na dziesiątkę, na jedenastkę,
no to może będzie kolejny powód, żeby to rozważyć, bo jak widać coraz więcej programów, już ten system przestaje wspierać.
I, no, ta dziesiątka minimum, to jest już w tym momencie, no, wymagana, żeby z różnych programów korzystać. Teraz będzie kolejnym właśnie Chrome.
Ciekawe, co na to te alternatywne wszelkiego rodzaju przeglądarki typu Brave, albo Opera chociażby, jak one z tą siódemką.
Sami kompilują Chromium, czy to jakąś różnicę czyni, czy też nie, natomiast być może nie, bo Chromium jest dość takie uniwersalne, chociaż kto wie, może jest już Chromium porzucone.
No, trzeba będzie zobaczyć, jak to się wszystko rozwinie, ale jeżeli jeszcze używacie tych systemów, no to wiedzcie, że dni Chroma tam są policzone, przynajmniej takiego w wersji najnowszej, zapewniającej najwyższy poziom też bezpieczeństwa.
No i jednak aktualizujcie, aktualizujcie te systemy, bo Windows 10 to już nie jest taki zły, ja z jedenastką to mam wrażenie, że to chyba jeszcze nie jest jej czas takiego stabilnego używania,
ale Windows 10 to już jest system, który ma parę lat, to co Microsoft na początku popsuł, no mam wrażenie, że już zdążył naprawić i tego systemu da się używać, więc myślę, że spokojnie, jeżeli nie chcecie jedenastki, to na tę dziesiątkę chociaż warto, ze względu bezpieczeństwa szczególnie.
Chociaż to może być kwestia też sprzętu, no bo użytkownicy laptopów są uzależnieni nie tylko od producenta systemu, ale i sterowników, niestety teraz tego bory świetnie świadczam.
W każdym razie u mnie już ta jedenastka zaczyna całkiem nieźle chodzić, miałem odpalonego laptopa przez chyba tydzień i no dobrze, po tygodniu była jakaś różnica, ten RAM był troszkę bardziej zajęty,
natomiast to nie jest to, co na początku, że po dwóch dniach zajęto się RAMów, to jest 99%.
No właśnie, ale jak to się u ciebie, Tomku, skończyło? Po prostu, któraś aktualizacja przyszła i naprawiła?
Wychodzi na to, że tak, to znaczy jest jedna rzecz, która dość mocno psuje całą sprawę, to znaczy w momencie, gdy wchodzę do jakiegoś katalogu, gdzie są bliki muzyczne, głównie w formie blików OGG, to system musi je jakoś przeanalizować.
Analizuję jakimś procesem background-task-host.exe i ten proces potrafi być uruchomiony ileś dziesiąt razy na sesję, albo więcej, albo dwieście razy, jeżeli tych blików jest dużo i te pliki się, te procesy się potem usuwają, ale mam wrażenie, że nie do końca.
Jeżeli odwiedzę sobie ileś takich folderów, a pracując z dźwiękiem jest spora szansa na to, że tak się stanie, no to rzeczywiście muszę tego bardzo pilnować.
Ja sobie zrobiłem taki malutki skrypcik w Bashu, który zamyka wszystkie otwarte procesy, te background-task-host.exe, może to nie jest najbardziej elegancki sposób, ale taki na razie tylko wymyśliłem, nie będąc programistą.
W każdym razie, no wtedy rzeczywiście potrafi ten system też się trochę przymulić i ten RAM zostać jakoś zużyty.
Jest jakiś program MemRedux, którego zadaniem jest oczyszczanie pamięci RAM i to nawet działa. Nawet bardziej nie myślałem, że będzie to działało, bo on nawet na świeżo uruchomionym systemie potrafi zwolnić gigabajt RAM-u.
Po prostu uruchamian Windowsa, uruchamian na dzień dobry MemRedux i nagle oczyszczono 900 mega czy coś koło tego. Potrafią być naprawdę niezłe te wartości, więc jeżeli ktoś ma tego RAM-u mniej, no to przynajmniej na razie z tego co ja sobie tam gdzieś tam od czasu do czasu go używam, no to warto.
Przynajmniej na 11. Nie wiem jak to wygląda w dziesiątce, a tymczasem mamy słuchaczkę. Słuchaczkę albo nie słuchaczkę w pewnym sensie.
Tak jest, pałdzijna jest słuchaczkę.
No przyznaję się, że nie słuchałam dzisiaj, więc taka słuchaczka trochę krypto. Dzień dobry. Miało mnie tutaj nie być, ale poczułam się lepiej, więc stwierdziłam, że zajrzę, ponieważ trochę jest newsów, a w sumie nie aż znowu na tyle, żeby się aktywnie angażować przez całą audycję, ale na tyle, że warto przyjść.
Więc tak, zaczynamy od pack-up-ki, czyli nowej aplikacji do zamawiania biletów z intercity. Ten mobile navigator już do końca roku maksymalnie ma odejść na emeryturę.
Z tego co wiadomo, apka pozwoli na wpłacenie nowymi formami płatności, których nie było w tej oficjalnej apce, która jest teraz, generowania faktur VAT, możliwość zamawiania posiłków przez aplikację i jakby wybieranie udogodnień dotyczących obsługi dla niepełnosprawnych,
czyli nie będzie trzeba dzwonić na numer z asystą.
Mam takie wrażenie, że jak tak sobie czytam o tych aplikacjach PKP, to trochę mam takie wrażenie, że czytam o aplikacjach googlowych. Google ma tych aplikacji milion, czasem część ubija, robi się z tego powogan.
Podobnie jest w PKP, mamy bilkom, rozkład kolejowy, portal pasażera. Tam jeszcze jest coś od PKP.
Ten mobile navigator, który jest teraz.
To jest od intercity, ale to wszystko są podspółki PKP.
No właśnie, dość słabo to wygląda.
Tylko do intercity, to nie jest do TLK itd.
Bo spółka intercity obsługuje też TLK, obsługuje ekspresy, obsługuje intercity premium.
Racja, przepraszam, miałem na myśli Polregio i te różne lokalne rzeczy typu Koleje Śląskie, Koleje Małopolskie itd.
Bo miał być nowy bilkom i nie wiem, czy właśnie to jest ten nowy bilkom, czy ten nowy bilkom to jeszcze coś innego będzie.
Znaczy nowy bilkom to chyba jest od jakiegoś czasu, bilkom beta był, teraz jest chyba bilkom, bo był ten stary bilkom, teraz jest nowy.
Więc albo ma być jeszcze nowszy, albo nie wiem co.
Bo ten bilkom nowy to obsługuje Blika chociażby, obsługuje kilka tych form.
Tak, właśnie się zastanawiałem, nowe formy płatności to jest Blik czy to jest na przykład Apple Pay?
Albo Google Pay?
Być może Apple Pay, bo Apple ani Google chyba nie ma w bilkomie.
Nie ma na pewno zamawiania posiłków, za to wydaje mi się, że…
To było w aplikacji Mvars, osobno, kiedyś.
Tak, i ona chyba nadal jest.
Tak.
Natomiast wydaje się, że w bilkomie da się generować faktury.
Da się, tak, da się, robiłem to ostatnio, działa.
Natomiast nie da się zamawiać asysty od razu z poziomu tego.
No to fajnie, jeżeli to jest dogodnienie dla niepełnosprawnych.
Mvars to taka aplikacja, w której dałoby się sprawdzić zestawienie pociągu, przynajmniej to planowane.
Tak, to prawda.
Chociaż my, który wagon będzie jako pierwszy, jako ostatni.
Tak, w Niemczech to się da zrobić, to prawda.
No i dałoby było coś, bo na razie z tym jest wielki problem.
Jedyna aplikacja, która to umożliwia, to była aplikacja Mvars,
pociąg, który już dawno nie ma, bo została przez PKP zbanowana.
Także brawo Polskie Koleje Państwowe.
Tak, kolejny news dotyczy sieciowego The Last of Us, który jest planowany przez Sony.
Co prawda jeszcze nie ma nawet tytułu i zbyt dużo nie wiadomo o tym projekcie,
ale Sony potwierdziło, że pracuje nad tym.
I jest bardzo możliwe, że będzie to gra darmowa, ponieważ są ogłoszenia o pracę przy tej grze.
W szczególności szukają ludzi, którzy pracowali przy wysokobudżetowych grach free to play.
Czyli takich też trochę grach usługach.
I jest spodziewane, że ta gra pokaże się co prawda też na PS5,
ale będzie można ją uruchomić na komputerze osobistym.
Sygnalizuje, ponieważ jak wiadomo The Last of Us gdzieś tam w dostępności bardzo dużo pokazało fajnych rzeczy.
Nie wiem na ile to się sprawdzi, bo to wiadomo są plotki, ale coś się z tą grą dalej dzieje.
No i wiadomo, co multiplayer to dużo więcej rozgrywki takiej, która się nie nudzi i która się nie kończy.
Kolejna rzecz dotyczy tego, że platformy streamingowe w USA podrożały.
YouTube premium rodzinny to tam 23%, jakoś tam do 5 dolarów generalnie, Apple Music o dolara
i tam ten Spotify Platinum też wszedł, który czy tam zaraz wejdzie, który zapewni taką hi-fi jakość audio.
No i w związku z tym jest spodziewane, że to przyjdzie też do nas te droższe usługi streamingowe.
I jeszcze jedna taka rzecz a propos właśnie usług, że bardzo możliwe, że wszystkiego rodzaju social pasy,
video pasy i inne takie rzeczy, które lobuje Orange, ale nie tylko.
Czyli jakby wyjęcie spot naliczania zużytego transferu internetu konkretnych aplikacji i usług będzie zakazane w UE.
Znaczy no już jest tam przez UE nieobdarzone aprobatą i słowacki Orange się wycofał z tych pakietów,
które u nas jeszcze są, ale też jest spodziewane, że to dobiegnie końca.
Pytanie czy, bo nie słyszałem o tej reformie unijnej, czy byliby w stanie zrobić wyjątek dla aplikacji
na przykład właśnie takich dla osób niewidomych, żeby na przykład wyjąć, no żaden operator co prawda tego chyba w Europie,
z tego co ja nie stosuję, ale wiem, że w Turcji na przykład Sing.ai jest chyba wyjęty spod transferu.
No jakby jakieś Be My Eyes, czy jakieś powiedzmy takie aplikacje, czy byliby w stanie to wziąć.
Znaczy podejrzewam, że tu chodzi o te wszystkie praktyki monopolistyczne, bo jeżeli to jest na przykład konkretna aplikacja,
no to mogą się tutaj przyczepić do tego, że no to jest tylko jedna aplikacja premiowana, a reszta no to nie.
Tak, tak, no tam właśnie był, wiem, że te pakiety tak wyglądają, że sobie wybieramy na przykład czy to ma być TikTok,
czy to ma być Viber, czy to ma być WhatsApp i sobie wybieramy którąś z tych aplikacji.
Zdaje się, że na Słowacji tak to działało, że się wybierało właśnie, że ja chcę mieć to wyjęte,
ale tylko jedna aplikacja i to można się zdecydować chyba na którąś.
No to pewnie też na którąś konkretną, w sensie jest konkretna lista.
Tak, tak, tak, dokładnie.
Nie to, że wybieraj ze Timetoka.
Nie, nie, nie, nie. Były konkretne aplikacje zadeklarowane przez operatora i to w ramach tego można było sobie wybrać,
że w ramach wideo to na przykład tylko YouTube, a nie TikTok i Instagram,
w ramach komunikatorów tylko WhatsApp, a nie nie wiem Telegram czy Viber, no i tak dalej, tak.
No dobrze, Paulina nas opuściła, w związku z powyższym wygląd na to, że możemy, znaczy możemy, że kontynuujemy newsy,
które mamy wpisane w nasze dodatki.
Czyli teraz reakcje w mobilnym Outlooku.
To jest taka, w sumie nie wiem co o tym sądzić, bo to jest taki news, który nie wiem co mówi, ale Michowie.
Wiem, bo mi się pojawiło kilka dni temu wraz z kolejną aktualizacją Outlooka.
Tu myślę, że dość ważna informacja, że to będzie działało tylko z kontami Microsoftu, z kontami pocztowymi Microsoftu.
Jeżeli macie albo na przykład pracujecie z kimś, kto też używa tego konta pocztowego,
no to ciekawostka, możecie wysłać mu na maila reakcję.
W Outlooku, przynajmniej mobilnym, bo ja nie używam stacjonarnego Outlooka,
nad wiadomością mamy coś takiego jak selektor reakcji wiadomości.
Jak sobie w to wejdziemy, to po prostu możemy wybrać reakcję, która nam najbardziej odpowiada.
Czyli tam jest jakiś kciuk w górę, serduszko, gniewna buźka, jakaś płacząca buźka i tak dalej i tak dalej.
Więc tę modę z mediów społecznościowych, jak widać, Microsoft powoli przeszczepia na pocztę elektroniczną.
Sprawdziłem, jak interpretują to inne programy pocztowe.
To znaczy, czy w ogóle cokolwiek się dzieje, jeżeli ja zareaguję na tę wiadomość,
a na przykład mam skrzynkę podpiętą po iMapie do programu pocztowego, który nie jest Microsoftu.
No i nic się nie dzieje. To działa tylko w Outlooku.
Więc przypuszczam, że w tych nowych Outlookach, jeżeli ktoś korzysta stacjonarnie,
to też mu się to będzie wyświetlało, że na przykład wysłał komuś maila,
a on mu uśmieszek wysłał, albo jakąś tam, nie wiem, kciuk w górę, albo cokolwiek innego.
Jest to myślę też dosyć fajny sposób na szybkie zareagowanie na maila.
Na zasadzie tak, wiem, ok, zapoznałem się, no i powiedzmy kciuk w górę, no to fajnie,
albo gorzej jak osoba na przykład, która jest nad nami, nam wysyła zagniewaną buźkę.
To znaczy, że zaraz można się spodziewać jakiejś rozmowy na Teamsach niekoniecznie miłej,
albo telefonu. Natomiast jest to jakiś kolejny sposób na komunikację, gdzie w dzisiejszych czasach
jesteśmy wszyscy zabiegani, więc może warto i z tego korzystać.
Chociaż zastanawia mnie, jak, bo z jednej strony mamy takie reakcje mediów społecznościowych,
z drugiej strony mamy te wszelkiego rodzaju etykiety biznesowe i na tej linii też myślę,
że może dojść do różnego rodzaju nieporozumień, kiedy na przykład jeden pracownik zaangażowany
w jakąś korespondencję na na przykład jakąś poważną ofertę wyśle smutną buźkę.
Może być ciekawie i różnie, no ale to myślę, że to też zależy bardzo od kultury pracy w danej instytucji
i jakichś też wewnętrznych ustaleń odnośnie tego typu reakcji.
Ja zdążyłem powiedzieć co nieco na temat swojego tematu, a tymczasem Paulina do nas się podłączyła ponownie.
Tak, słychać mnie? Tak. Super. Przepraszam, miałam problem z internetem.
Później on wywołał mój nawyk wstania i rzucania wszystkim i zrestartowania rotera, co z kolei w związku
z moim nowym ustawieniem spowodowało wylanie przeze mnie picia i o tym w sumie zaraz, bo to też jest pewnego rodzaju news.
W sensie nie to, że wylałam picie, ale kupiłam sobie na Shopee niedawno taki ten, nie wiem jak to się nazywa,
taki uchwyt, w którym się można tam kubek trzymać, który jest przykręcony do biurka jak statyw mniej więcej.
Jest jeszcze tam taki jakby skręcany w różne strony wysięgnik na słuchawki,
ale z kolei ten, że właśnie uchwyt nie jest obudowany ze wszech stron.
W sensie on ma taką ramę i taką podstawkę, ale ten kubek można wygibać jak się machnie zbyt zomaszyście
i właśnie to zrobiłam niedawno. I to się też trochę odnosi, to też się odnosi do tego, co też na grupie niewidomych na Facebooku
napisała jedna pani, że kupiła sobie telefon Nokia, a przyszła jej jakaś część od samochodu
i ta część od samochodu była widoczna na zdjęciu, a opis był telefonu i nazwa była telefonu w ofercie.
Więc taki protip, generalnie jak coś kupujecie na sklepach internetowych, to starajcie się dzwonić na Be My Eyes,
nawet dla potwierdzenia właśnie takich jak AliExpress, Shopee, Amazon, Action, inne takie cuda,
bo wiadomo w tych takich typu X-kom to raczej się nie zawiedziemy, a nawet jeśli to oficjalna droga wzrotu zawsze funkcjonuje.
Poza tym niektóre serwisy lub nasza telegro mają swoje procedury bezpieczeństwa i różne kwestie,
które mają przestrzec użytkowników przed różnego rodzaju nieuczciwymi praktykami sprzedających
i podobno jest tak, że jeżeli mamy spór typu słowo przeciwko słowu, to znaczy ja twierdzę co innego, sprzedawca twierdzi co innego
i w sumie nie bardzo wiadomo, nie bardzo da się to udowodnić, to podobno najczęściej Allegro staje po stronie kupującego,
Allegro dba o kupujących, a sprzedawcy z nich se sami radzą. Podobno tak to jest, słyszałem to od człowieka,
który zajmuje się ogólnie biznesem, więc jest szansa, że wie o czym mówi. Ja na szczęście jeszcze nie musiałem tego sprawdzać.
Znaczy okej, ale mówię to bardziej w kontekście takim, żeby się nie bawić w kupowaniu czegoś,
w zwracanie i w inne tego typu rzeczy, skoro od razu można się dowiedzieć, że coś jest nie tak z tym czymś, co chcielibyśmy kupić.
Także, tak.
Zresztą taki uchwyt na kubek ja też mam, tylko że nie z AliExpressu, czy tam nie z Shopee, tylko z Ikei, bo Ikea też takie rzeczy sprzedaje.
Tylko że Ty masz chyba taki obudowany, nie?
Tak, ja mam obudowany, to znaczy z jednej strony jest taka mała szczelina, w domyśle to szczelina na uchwyt tego kubka,
bo wiadomo, że kubki mają z reguły uchwyt i ten uchwyt trzeba jakoś trzymać, więc żeby udało się to zrobić, to jest taka szczelina na uchwyt.
Natomiast rzeczywiście ten kubek raczej trudno jest wywalić z tego pokrowca, choć takie duże kubki typu pół litra albo większe,
no to część z nich, nie małą część z nich raczej nie da się tam włożyć, więc to jest taka rzecz na takie standardowe, ewentualnie odrobinę większe.
A to mi z kolei by się chyba troszkę dało.
To nie to, że wywalić, ale przez to, że to z jednej strony nie jest obudowane, a z drugiej strony jest szerokie, to da się ten kubek tak wygibać dość mocno.
No i ja go nie wywaliłam, tylko właśnie wygibałam, wywróciłam troszkę w tym.
No ale dobra, nieważne, nie ma co pakać nad rozdaną herbatą.
Tylko na czym ja skończyłam?
A, na tej reformie unijnej.
Matko, jeszcze tutaj coś sobie poklikałam na szybko.
Ok, przepraszam.
Tak, kolejna rzecz dotyczy obecnego w Holandii Design Weeku i na tym wydarzeniu właśnie jakiś projektant stworzył,
czy w zasadzie zaprezentował chip, który jest wszczepiany do mózgu, łączy się z okularami, które mają w sobie kamerę i pozwalają widzieć.
Podobno pomogło to jednej osobie, ale jest tutaj mowa o nerwach wzrokowych,
które są stymulowane przez ten chip, więc najpewniej osoby z problemami z nerwem wzrokowym nie skorzystają.
To jest jedna rzecz, a druga rzecz, że było podkreślone, że osoby niewidome od urodzenia też nie skorzystają.
Nie wiem czy dlatego, że interpretacja obrazu musiała być nauczona od początku i do tego, że widzimy do góry nogami, byśmy się musieli przyzwyczajać i tam coś,
czy w ogóle jeszcze od czegoś innego to zależy, no ale cóż, w sumie to też chyba nie jest pierwszy taki projekt.
Takich projektów jest wiele i często się słyszy, że przywrócono niewidomemu wzrok,
no a później, jak przychodzi co do czego, to okazuje się, że jest dużo gwiazdek, że tak powiem, czyli zastrzeżeń w danym artykule, w danych rewelacjach.
I w sumie ostatnia taka rzecz, że w Krakowie, gdzieś w okolicy Madalińskiego, na środku chodnika wytyczono miejsce,
w którym ma stanąć sosna, wywołało to oburzenie, ponieważ i niewidomi, i rowerzyści będą mieli problem z tym, żeby tę sosnę taktycznie sobie ominąć,
ale została mimo to przeprocedowana ta kwestia, chociaż o niewidomych jakoś tam mieli się zatroszczyć, bo mieli ułożyć z płytek jakąś alternatywną ścieżkę,
chociaż podejrzewam, że to też już będzie trochę takie wymagające wiedzy z naszej strony, że tutaj jest coś nie tak i będzie to drzewo.
Więc też tak sygnalizuję. I cóż…
A, i właśnie jeszcze miałam opowiedzieć o rzeczach sensorocznych i na serio.
Jeśli chodzi o ten event sensoryczny, no to w zasadzie spodziewałam się większych jakichś takich targów czy czegoś,
bo skoro się wystawił tam Altix, to myślałam, że inne firmy też się powystawiają, ale nie.
Był tam tylko Altix i to w takim założeniu, że po prostu dla ludzi zewnątrz była to pokazówka tego,
czego niewidomi używają do poszczególnych różnych rzeczy, więc jakby niczego nowego zbytnio się dowiedzieć nie dało stamtąd.
Natomiast jeśli chodzi o hackathon, no to był w sumie tam panel mentorski, na którym jeżeli dowiedziałam się czegoś rewolucyjnego,
to co jednego to tylko tego, że Figma w swoich wersjach beta ma umożliwić tworzenie interfejsów,
znaczy na wizualizacji interfejsów dostępnych dla niewidomych z czytnikami ekranu, ale że to podobne jeszcze nie działa.
Nie wiem, nie testowałam, sygnalizuję. Natomiast jeśli chodzi o sam hackathon, to mój zespół zajęł trzecie miejsce,
ale nie jest to na tyle dobra informacja, żeby być domnym, ponieważ okazało się, że finalnie jest pięć zespołów.
Byliście w środku stawki.
Tak, zgłosiło się sporo osób, a jednak przyszło niezbyt wiele.
Z ciekawości nad czym pracowaliście?
To jest trochę dłuższa opowieść, ale ok. Wymyśliłam otóż coś w rodzaju apki, która jest centralną opisów tras do konkretnych punktów z okolicznych przystanków.
W większości dotyczy się to instytucji publicznych, ale nie tylko.
I właśnie taka apka ma nam pozwolić jakieś takie szybkie w miarę zlokalizowanie nas, ale również możliwość odkrywania tego, co jest w naszym mieście i w innych miastach.
I pokazanie nam punktów, do których możemy iść właśnie z przystanków, które są w okolicy.
W taki sposób, że idziemy po trasie, która jest opisana, ale to opisywanie to też nie jest takie po prostu zwykłe wpisowanie tekstu.
Tylko wybieranie z takich jakby bloczków, tak jak się programuje w scratchu, albo tworzy zadanie we fullen searchu, to właśnie tak by się tworzyło trasy u nas w apce.
I to miało mniej więcej taką budowę, że najpierw było, pierwsze słowo zdanie to było idź na sztywno wpisane w apkę.
I tak, to idź miało swój kierunek, czyli w prawo, w lewo, w prosto i tak dalej.
Odniesienie, czyli wzdłuż, przez i po i element orientacji, czyli żywopłot, ogrodzenie, budynek, coś tam, coś tam.
I aż do, i tam był ten element orientacji kolejny, czyli aż do przejścia przez jezdnię, czy tam aż do zmiany akustyki, zmiany w nawierzchni,
aż do zmiany tego, co jest po prawej na przykład, czyli tam aż do skończenia się tego, wzdłuż czego idziemy i tak dalej.
Tam było dużo tych różnych zaproponowanych przez nas pomysłów i to też na przykład jak się wybrało przejście dla pieszych,
to od razu wyświetlał się model, który wymuszał na tworzącym trasę uszczegłowienie danej informacji, czyli czy ma sygnalizację, czy nie ma sygnalizacji.
Jeśli ma, to czy dźwiękową, czy bez dźwięku. Jeżeli dźwiękową, to czy jest ciągły dźwięk, czy jest dźwięk tylko na zielonym.
Przepraszam, wyciszę sobie telefon. I tak. I matko, znowu bym wylała to picie.
I jeśli chodzi o to, w jaki sposób powstawałyby te trasy, w jaki sposób aplikacja miałaby się tymi trasami zapełnić, to byłyby na to trzy sposoby.
Pierwszy sposób to jest tworzenie tras prywatnych, czyli po prostu pomoc w braku potrzeby gdzieś tam wpisywania tego w jakieś notatki na telefonie,
potem się telefon zmieni, czy tam coś tam, no i już jest problem, poza tym trzeba wpisywać ściany tekstu.
A, jeszcze nie powiedziałam o dwóch rzeczach, że za każdym takim jakby waypointem na trasie, czyli pomiędzy wciskiem i śnięciem next,
bo to by się właśnie tak odbywało, że to nie ma GPS-a, to nie ma nic, tylko sobie jak dojdziemy do tego, co jest aż do, czyli do tego elementu orientacji, to wciskamy next.
I tam jeszcze by mogło być dodatkowe informacje, które by się już wpisywało w pole edycji, czyli uważaj na.
I tam by na przykład były jakieś proponowane typu zwisające gałęzie, wcięte schody do budynku wchodnik, uważaj na hulajnogi, bo tam często bywają,
uważaj na słupy jakieś i tak dalej. I mijaż, czyli na przykład mijaż jakiś sklep, mijaż hotel, knajpę, coś tam.
Dzięki temu łatwiejsza byłaby nawigacja też, gdybyśmy się zgubili, ale też takie informacje mogą być przydatne.
Kontrolnie słychać mnie? Bo coś tu mi. Słychać, tak. I tak, właśnie te rodzaje tras.
No to trasa prywatna, która pozwoli nam zaoszczędzić czas, która pozwoli nam ładować to wszystko na serwerze, żeby nam się nie zgubiło te trasy.
To się przyda do tras, których często nie uczęszczamy, ale się przydają. Nie wiem, jakiś tam urząd gminy, jakiś sklep,
którego generalnie nie lubimy, ale czasami coś trzeba kupić w nim i takie rzeczy. I do tej trasy można dać też link komuś, kto też by tej trasy nagle potrzebował.
Czyli na przykład zrobię sobie trasę do mojego domu, bo do mojego domu często przychodzą niewidomi, no to będzie link.
Jakiś niewidomy zamiast go tam pilotować czy zamiast po niego iść, no to niech sobie przyjdzie sam, nie?
Drugi rodzaj tych tras to są trasy, które są tworzone oddolnie przez użytkowników.
No i tutaj byśmy też dali znać, że nie weryfikujemy tego w żaden sposób, ale weryfikacji dokonuje społeczność przez wpisywanie komentarzy i wystawianie ocen.
No i to mogą być trasy zarówno tworzone przez niewidomych do obiektów, które znają dla innych, jak i przez widzących dzięki wykorzystaniu tych bloczków,
co z kolei przełoży się na to, że widzący będą widzieli, jakie punkty są charakterystyczne dla nas, jakie są dla nas ważne na trasie.
I trzecia warstwa, czyli taka publiczna, instytucjonalna opiera by się na tym, że instytucja płaciłaby nam jakąś tam subskrypcję, znaczy nam, no, jakiemuś ownerowi apki,
która też zakładałaby rozszerzenie o usługi, ale tak generalnie to pozwalałaby na to, żeby ta trasa była zweryfikowana przez nas, zarówno pod kątem jakby typowo przyglądaniu się tekstom,
jak i też byśmy mieli gdzieś tam na podorędziu w różnych większych miastach osoby, które na nasze zlecenie by sprawdzały te trasy.
Druga rzecz to byłoby możliwość uzyskania powiadomienia przez taką instytucję, że niewidomy rozpoczyna podróż po trasie, czyli instytucja od razu wie, że zbliża się do niej niewidomy.
Trzecia kwestia to byłoby jakby możliwość przez niewidomego połączenia się z daną instytucją, albo przez czat, albo przez połączenie, albo przez wideokonferencję, żeby w razie W można było gdzieś tam tego niewidomego ogarnąć,
jeżeli albo się zgubi, albo coś się stanie na trasie i ewentualnie myślimy o usługach typu możliwość powiadomienia przez apkę, jakby powiadomień skierowanych od instytucji w stronę niewidomych,
o jakichś wydarzeniach, o zmianie siedziby, o godzinach otwarcia, które się zmieniają, o czymś tego typu, ale to jest jeszcze tak typowo perspektywicznie na rozwój.
I myślimy też o tym, żeby przez nas były robione te trasy, jeżeli instytucja nie będzie się chciała podjąć stworzenia tej trasy i o czym jeszcze nie powiedziałam,
o tym, że mamy pomysły też na to jak łatwo byłoby dać użytkownikom możliwość wyklikiwania tego Nexta, można byłoby albo przyciskiem na słuchawkach i wtedy syntezaby automatycznie odtwarzała to co jest dalej,
jakby kolejnym tym waypointem, albo na watchu, albo ewentualnie to jest też taka perspektywa na rozwój typowo, żeby to była nakładka na laskę. I teraz kwestia jest tego typu,
że mogą na tym skorzystać nie tylko niewidomi, bo mogą na tym skorzystać również osoby z zaburzeniami orientacji, osoby z zaburzeniami czytania map i tak dalej,
tylko że wtedy by trzeba było troszkę przemianować rzeczy związane typowo z niewidomymi, czyli na przykład właśnie typowe domienia personalizowane i tak dalej.
Chyba tak z grubsza o wszystkim powiedziałam, ale nie pamiętam.
Czyli plany na rozwój są jak rozumiem takie jak przedstawiłaś i ta aplikacja rozwijana będzie, czy od czegoś to konkretnie zależy w tym momencie?
To znaczy tak, no myśmy to trzecie miejsce dostali, więc nie jakoś nadziejogennie. Natomiast jest też informacja od organizatorów hackathonu,
że byli na ogłoszeniu wyników ludzie z Invest Hub, to taka inwestycyjna spółka, która zajmuje się wspieraniem wschodzących projektów i niezależnie od wyników hackathonu
mogą się do nas odezwać jeszcze przez jakiś czas, więc to też pewnie będzie rzutowało, jeżeli oni się odezwą. Natomiast jeżeli się nie odezwą,
no to też jest taka kwestia, że jest taki plan, że z dziewczyną jedną z zespołu, z koleżanką zrobimy badania najpierw na poszczególnych grupach użytkowników,
które mogłyby być zainteresowane po pierwsze na to, jakim się to przydaje i co by można było zrobić, żeby się to przydawało możliwie dużej grupie odbiorczej,
a druga kwestia to byłoby na tyle duże rozszerzenie tych blaszków, żeby można było objąć nimi jak najwięcej tras, żeby nie trzeba było wpisywać jakichś swoich niestandardowych rzeczy
i oczywiście jak użytkownicy będą takie rzeczy wpisywać, a nie będzie to spam, no to też będzie to dodawane do tych naszych głównych blaszków.
I jak te badania się zrealizują, no to albo w ramach pracy magisterskiej ja gdzieś tam poduczę się tego programowania i trzasnę tę apkę, albo jeżeli się nie uda,
no to coś się wymyśli. Nie wiem, ale tak generalnie większość zespołu stwierdziła, że bardziej była na tym hackathonie tak po prostu,
ale właśnie ta dziewczyna, która chciałaby się w badanie zaangażować jest dość otwarta, więc możliwe, że to gdzieś tam będzie ten temat dalej dotykany przez nas.
No to by się udało w takim razie. Paulino, czy coś jeszcze, bo jeszcze mamy jednego słuchacza w kolejce.
O matko, zapchałam. Znaczy bardzo by mi zależało na feedbacku w sumie, jeśli chodzi o pomysł, czy w ogóle to jest potrzebne, czy uważacie, że to coś zmieni w naszym funkcjonowaniu.
A jest gdzieś jakiś prototyp chociaż, żeby można coś było przetestować, czy na razie to był taki koncept?
Znaczy na razie była to koncepcja, dlatego że też długo rozmawialiśmy o tych standaryzacjach, o tych co by mogło być w tych blożkach, o tym komu by się to mogło przydać itd.
i w sumie to nam zajęło większość czasu, więc prototypu nie ma, ale właśnie miałoby było, gdybym właśnie jakieś odniesienie do pomysłu mogła zebrać.
Okej, no to czekamy w takim razie na jakieś komentarze, być może pod audycją się pojawią.
No wiesz, ja powiem szczerze, ciężko cokolwiek wyrokować bez sprawdzenia. Ja mam przede wszystkim obawy na ile to będzie użyteczne bez jakiegokolwiek wsparcia nawigacji GPS.
Natomiast samo budowanie trasy z takich bloczków to jest coś, co nawet mi się podoba.
Tak, zwłaszcza wewnątrz budynków, bo tam jest problem generalnie z GPSami i w momencie, gdy mamy jakieś dość skomplikowane przestrzenie, na przykład perony jakieś zadaszone,
bo są takie dworce na przykład w Warszawskiej Centralnej, gdzie wszystko jest pod ziemią i tam po prostu GPS nie działa.
Kompas nieraz też nie działa, bo pociągi potrafią troszeczkę go zaburzać czasami, albo nie.
W każdym razie, kiedyś miałem takie doświadczenie, że troszkę to psuło.
W każdym razie, gdyby była taka informacja, żeby w obrębie tego molocha jakim jest dworce ten warszawskie, albo krakowski na przykład, który też jest duży,
dostać się na przykład z peronu, którego zaznaczamy, że jesteśmy na peronie czwartym, chcemy dojść na nie wiem, przystanek PKS, albo nie wiem, jakieś coś.
No to myślę, że coś takiego by się przydało.
Tak, i żeby ta aplikacja była w stanie poprowadzić po prostu.
Tak, oczywiście fajnie by było, gdyby na przykład ta aplikacja mimo wszystko umiała korzystać z czegoś jak kompas.
Przynajmniej tyle, bo ten kompas, wysiadamy chociażby z pociągu.
Pociąg może jechać w jedną, albo w drugą stronę. W związku z powyższym po wysiadce to nie da się po prostu powiedzieć skręć w prawo,
bo w zależności od tego, na którym jesteśmy torze i z której strony przyjechał pociąg, to można iść albo w jedną, albo w drugą stronę.
W związku z tym to jest takie dość czasami zawodne, albo na jakichś pętlach autobusowych,
gdzie czasami na autobus zatrzymują się trochę bliżej, trochę dalej, gdzieś tam sobie skręcą, bo tak akurat im się podoba.
Ja na przykład mam często taką sytuację, że autobus albo pojedzie sobie na pętlę, znaczy na swoje stanowiska,
albo pojedzie sobie troszkę wcześniej i stanie sobie 50 metrów, bo to czasami są tego typu odległości, gdzieś tam wcześniej.
Albo wysiadam z taksówki, jestem przed domem, owszem.
Ale po której stronie ulicy taksówkarz może zatrzymać, albo tu, albo tu, albo tam.
I gdyby była jakaś funkcja chociażby kompasu, czy czegoś takiego, żeby można by powiedzieć, że idź tu powiedzmy, czy tam tu masz dom podobno.
No to by było super.
Kompas faktycznie może być rzeczną rzeczą, ale dlaczego brak ci jest Michale GPS-u?
Wiesz co, bo wspomniałaś o tym, że będzie tutaj możliwość jakby wprowadzenia tych tras globalnych.
To znaczy, że na przykład na całą Polskę będziecie chcieli to wprowadzać.
Chociażby GPS przydałby się do tego, że jeżeli punktem odniesienia miałby być na przykład jakiś przystanek,
to on byłby w stanie wskazać mi najbliższe rzeczy z tego przystanku, na którym ja jestem.
Żeby nie musiał wpisywać, że ja teraz jestem tu, bo to mógłby sobie bez problemu przecież czytać.
Ale to też mówiłam, że GPS będzie nas lokalizował tak raz punktowo, gdzie jesteśmy.
A ok, bo ja zrozumiałem, że w ogóle ta aplikacja nie miała wynieść wsparcia dla GPS-u.
Czasami są takie miejsca, które są po prostu siedemnastym budynkiem z rzędu.
No i co? Idziesz ulicą, 700 metrów, bo akurat tyle masz z przystanku na przykład.
No i jaki tu punkt orientacyjny wynaleźć, jeżeli to po prostu jest ciąg budynków, każdy ma swój płotek, każdy ma swoją siatkę, to jest jakaś wioska.
No i po prostu w pewnym momencie trzeba skręcić w prawo na osiemnastym podjeździe z rzędu.
I tutaj też GPS przydałby się, że to mniej więcej gdzieś tu.
Już znajdź sobie w odległości powiedzmy kilkunastu metrów powinna być bramka z fikuśną klamką w kształcie kółka zębatego powiedzmy.
Ale to jakby wiadomo, gdzie tak pirazę oko tego szukać.
Znaczy tak, GPS o tyle jest problematyczny, że po pierwsze jest dość mocno bateriożerny i nie da się długo chodzić z GPS-em.
Szczególnie jak ktoś ma starszy telefon, ale po prostu mniej pojemny, jeśli chodzi o baterie.
Po drugie potrafi być niedokładny w miejscach właśnie takich jak wioski.
Wiem co mówię, bo zostałam przez wszystkie wioskowe krzaki przeprowadzona przez datukera.
A kolejna rzecz jest taka, że właśnie na starszym telefonie ten GPS będzie działał gorzej, będzie działał lepiej.
Właśnie jak nie usłyszymy, że to już gdzieś tu, no to możemy coś przegapić.
Gdzieś może pójść nie tak, no to zróbmy, żeby wszędzie nie było tego w ogóle.
Czasami jest, czasami nie.
Natomiast właśnie myśmy myśleli o tym, żeby bazować typowo na punktach orientacyjnych, czyli tam jakieś któreś obniżenie w kodniku z kolei.
Nie wiem, właśnie jakieś inne drzwi, jakaś inna klamka, jakaś zmiana, coś co się pojawi, coś co zniknie.
No ponieważ aparat GPSu jest już w grud.
Tak, tylko właśnie nie zawsze taka zmiana jest.
Albo jeżeli ta zmiana właśnie siedemnasta z kolei.
No bo idziesz właśnie ulicą, wzdłuż której masz milion wszystkiego.
I trudno jest tak po prostu, zwłaszcza idąc pierwszy raz, manewrując między słupkami, hulajnogami, rowerzystami, którzy jadą wózkami,
ludźmi, którzy są zaoferowani pomóc, ja pana podprowadzę i bierze za rękę, tak, nieważne co się dzieje.
I jakimiś tego typu różnymi rzeczami, a ty masz znaleźć trzeci podjazd.
Albo trzeci to pół bidy, ale dziewiąty podjazd.
I wiesz, i myślę, że są takie sytuacje, w których bez GPSa będzie bardzo trudno.
A biorąc pod uwagę, że naprawdę sporo osób, takie mam wrażenie, albo chcę przydać korzystać z tego GPSa,
tylko rzeczywiście niekoniecznie w taki sposób, że ty zaufaj GPSowi, GPS się odprowadzi od punktu A do punktu B i już.
Bo jeżeli to będzie GPS, który będzie współpracował, tak, że jakby teraz masz iść prosto,
ulicę mając po lewej stronie, masz gdzieś mniej więcej 500 metrów, tak, to jeżeli on ci powie,
uwaga, jeszcze tam powiedzmy 20-30 metrów i masz skrzyżowanie, które trzeba przejść, tak,
to już jakby ty będziesz wiedzieć, że mniej więcej gdzieś tu trzeba przejść.
Natomiast jeżeli chodzi o baterie, no to tak jak mówię, pierwsze dzisiejsze telefony kupione nowe,
no to te baterie mają zdecydowanie większe niż te telefony starsze.
Po drugie, no wydaje mi się, że to jest takie trochę wylewanie dziecka z kąpielą.
GPS działa gorzej, to nie używamy w ogóle, a jak komuś działa lepiej, no to trudno.
Powerbanki są dzisiaj w cenach śmiesznych, bo to inaczej się tego nazwać nie da, są niektóre przynajmniej malutkie.
10 miesięcy, milion paru godzin Powerbank, no to jest powiedzmy wielkość telefonów.
Ceny cenami, ale kable, Powerbanki, nosić to wszystko, podpinać.
No ale wiesz, no to jest trochę tak, że albo, wiesz, można z tego nie korzystać powiedzmy, tak,
można wyłączyć powiedzmy ten moduł, jeżeli ktoś nie chce, tylko chodzi o to, że naprawdę są takie sytuacje,
że bardzo trudno będzie bez GPS-a zorientować się, co się tu w ogóle dzieje, tak.
Można by było na przykład wsparcie tego GPS-a zrobić i na przykład pozwolić twórcom tras na rekomendowanie włączenia tego GPS,
albo coś w tym stylu, no to jest, o tyle fajniej jest być projektem, mówiąc z perspektywy rozwiązania,
że jest właśnie projektem i można to w każdej chwili jakoś tak rozwinąć, pomyśleć o czymś inaczej i tak dalej.
A jak rozumiem wy to tworzycie z bloczków ze względu na to, żeby na przykład łatwo zrobić trasę powrotną,
tylko wtedy odwrócić kierunki?
To jest jeden pomysł, tylko że to też ma trochę wad, bo na przykład czasami jest taka kwestia, no nie wiem,
być na drugą stronę jak coś tam się zmieni, ale po drugiej stronie się nie zmienia i może być słabo,
ale to jest taki jakby pomysł na to, żeby to trochę spróbować okiełznać.
Natomiast cóż, no tłumaczenie na języki, to w sumie o tyle może być problem, że pół będzie po polsku, a pół po angielsku,
ale nawet jeżeli, czytam po jakiemuś innemu, ale nawet jeżeli już będziemy przewalić przez automatycznego tłumacza,
to zupełnie inaczej będzie działało jak przynajmniej to, co jest w bloczkach będzie zawsze napisane poprawnie,
zawsze bez żadnych skrótów myślowych, poetyzmów i innych tego typu, niż coś, co dowolny użytkownik będzie mógł wpisać dowolnie.
Przede wszystkim też wydaje mi się, że nie bez znaczenia jest kwestia czasu na stworzenie takiej trasy.
Stworzenie takiej trasy z bloczków to jest po prostu wyklikanie sobie pewnych opcji,
a w przypadku tego, gdyby to trzeba było budować z jakichś słownych opisów, to jest więcej, więcej zdecydowanie.
A co w momencie, gdy będą jakieś nietypowe wskazówki, co znaczy, że wiesz, że to nie będzie zmiana powierzchni, tylko to będzie, no nie wiemy, w momencie, gdy zaczyna się nierówny chodnik,
bo wiadomo, że tam nie będzie w najbliższym razie się remontu, więc co, jakie coś można zrobić?
Znaczy przewidujemy, że zawsze damy możliwość na wpisanie czegoś ludziom, a jeżeli będą wpisywać coś sensownego,
to będziemy dodawać to do bloczków.
Ok.
Chyba, że to będzie coś naprawdę specyficznego dla danej trasy, że nie wiem, no nie wiem, co by mogło być takiego.
Tak, no takie różne rzeczy mogą się zdarzyć, tak, no nigdy, nigdy nie wiadomo.
No to kibicujemy, oby projekt wypalił, bo rzeczywiście czegoś takiego, wydaje mi się, że nie ma takiego programu,
który by mógł takie tresy jakby z palca tworzyć.
Troszeczkę zdaje się, że takie bardzo proste elementy to miał chyba TotuPoint, ale no tam to jest tylko informacja, która jest taka punktowa, tak?
No tak, no i tam jest kwestia tych znaczników, tak, że one muszą być obecne.
To jest jakby jedno, no i w samym znaczniku po prostu jest informacja, że zrób to, znaczy możesz tu zrobić to, to, to, to, albo to
i to jest opis i tyle.
Natomiast na kiblożku rzeczywiście nie ma, no zobaczymy, może rzeczywiście powstanie dosyć ciekawa aplikacja.
No oby, bo tego nigdy chyba za wiele.
A Maciej, może w planach coś takiego, to ja się jeszcze szybko zapytam, żeby do tych tras dodawać na różnych etapach,
na przykład ilustrować te etapy załącznikami, bo przykładowo elementem orientacyjnym będzie jakiś schupek, który w konkretny sposób brzmi.
Można by dołączyć nagranie, jak laską się stół, ewentualnie to jest bardzo głupi przykład, ale na nie wiem, jakaś fontanna, jakiś dzwon, coś tam,
jakiś taki element, który byłby na przykład dźwiękowo odróżnialny i wrzucić tam po prostu nagranie, żeby można było stworzyć taki krótki klip, jak to ma brzmieć, żeby…
W zasadzie, nawet nie myślałam o tym ani nikt z mojego zespołu, ale jest to do zrobienia, chociaż to by już wymagało stworzenia takiego jakby troszkę zarchiwizowanego projektu trasy,
który by te dźwięki czy inne rzeczy miał w sobie, bo myśleliśmy, żeby to był po prostu jakiś taki tekstowy plik, który oznaczałoby gdzie jest next i pobranie tego to byłaby sekunda,
bo też myśleliśmy o takim prostym przycisku typu ulubione trasy i tam byłyby nasze prywatne trasy plus te, które żeśmy sobie ściągnęli do offline’u.
I cóż, i wtedy to by trzeba było faktycznie troszkę więcej pamięci poświęcić na to, ale jest to jakiś pomysł.
No dobrze.
Trzeba to zrobić jakoś opcjonalnie albo inaczej, ale to myślę, że jest dyskusja już na dalszym etapie gdzieś.
Tak.
Ale gratulacje pomysłu i powodzonka.
A, dziękuję, przyda się.
Będzie może pierwszy program, który od podstaw był współtworzony w ramach tych przeglądów, w sensie chodzi o granie feedbacku i generowanie pomysłów na bieżąco.
Tak, oczywiście, my zachęcamy do tego, żebyście też komentowali pod audycją, bo myślę, że Paulina skorzysta z sugestii, jeżeli się da.
Tak, bardzo chętnie.
To może ja sobie tutaj zostanę, chyba że nie powinnam.
Oczywiście.
Znaczy my i tak będziemy już, podejrzewam, niedługo kończyć, chociaż, o, to teraz możemy dać antenę kolejnemu słuchaczowi, ale też takiemu słuchaczowi, który się pojawia niejednokrotnie na antenie tyflopodkastów, tyfloprzeglądów, no i niejedną audycję też już przygotował.
Arek Świętnicki jest z nami, witaj.
Dzień dobry, czy mnie słychać?
Słychać, witaj.
Dzwonię z takimi paroma losowymi w sumie rzeczami.
Już jakiś czas się zbierałem.
Po pierwsze chciałbym powiedzieć o tym, co mówiliście chyba dwie audycje temu.
Mówiliście o 1428 Shadows over Silesia.
Mówiliście o tej grze wielokrotnie.
Grałem, przeszedłem i, no, jak wiecie, ja lubię sobie narzekać, ale tutaj, jakby to powiedzieć, nie mam na co.
Praktycznie.
Było parę malutkich błędów, które wynikały z tego, że grałem w grę w sumie w dzień premiery.
Ale naprawdę, no 1428 Shadows over Silesia polecam.
Reklama jak się patrzy.
Żartuję oczywiście.
No, ale gra naprawdę zacna.
Developer zrobił kawał dobrej roboty, jeśli o to chodzi.
Być może w sobotę o godzinie 19.00 będę robił streama na Twitchu.
twitch.tv ukośnik nunonuno.
Jak ktoś będzie zainteresowany, no to wpadajcie.
Sobota 19.00 będzie stream.
Pogramy sobie pokażę co i jak.
Jeżeli się na przykład boicie, bo nie wiecie, czy sobie poradzicie w tej grze, no bo to jest jednak gra wideo, no to możecie wpaść, posłuchać i tak.
Druga rzecz, o której chciałbym powiedzieć.
Ukazał się Mac OS 13.
Nie wiem, czy mówiliście, bo nie byłem z wami od początku.
Aga wspominała w komentarzu, że się ukazał, no i że zadowolona jest z tego systemu.
A jak twoje wrażenia?
Moje wrażenia są takie, że jest super, ale jest jeden bug, który nie został naprawiony.
VoiceOver nie zmienia wysokości na wielką literę i bardzo proszę zgłaszajcie to.
Ja dzisiaj dzwoniłem do Apple’a w tej sprawie.
Pisałem, bo Apple Accessibility i zgłaszałem przez formularz, który mamy jako zarejestrowany deweloper.
Zobaczymy, co to da, ale zgłaszajcie ten błąd, jak tylko marzecie.
Wszelkim accessibility.apple.com.
Jeżeli nie znacie angielskiego, to piszcie z tłumaczem, ale piszcie, że to nie działa, bo naprawdę moim zdaniem to jest krytyczny błąd.
Może przesadzam, może to zboczenie zawodowe.
Nie no, na pewno dla części osób, które pracują z tekstem to jest błąd bardzo istotny.
Ale dla mnie to jest spory błąd.
Czy dla programistów, czy dla dziennikarzy, czy dla autorów książek, czy jakichś artykułów.
Ale nawet dla ludzi, którzy po prostu chcą zadbać o to, żeby…
Żeby pisać poprawnie.
Tak.
Oczywiście, ale tak już mówię w przypadku jakichś konkretnych zawodów.
No ale każdy, kto pisze jakiegoś maila nawet takiego oficjalnego, gdziekolwiek i do kogokolwiek by nie pisał.
I można sobie włączyć albo czytanie, żeby mówił wielkie przed literą, ale wiadomo, to jest opóźnienie.
Albo można włączyć też sobie dźwięk, który byłby fajny, gdyby nie to, że VoiceOver ma taką nieprzyjemną tendencję do kolejkowania dźwięków przed mową.
Michał, wiesz o co chodzi?
Wiem o co chodzi, bo pokazywałeś, tak.
I on tak nie wiem jak to powiedzieć, no kolejkuje po prostu.
Dźwięk musi wybrzmieć, a dopiero potem odzywa się synteza.
Tak, to jest dziwnie zrobione.
Ale oprócz tego, że ukazał się macOS 13.0 dla publiki, to dla nas deweloperów, ukazał się już macOS 13.1 i iOS 16.2 beta deweloperska.
I pojawiła się aplikacja Freeform, o której wspominałem na audycji.
Dzisiaj rano wstałem i na telefonie mi się pojawiła nowa aplikacja.
Bawiłem się tym Freeformem, cały dzień się nim bawiłem, nie mogłem się od niego oderwać.
Kto mnie zna, to wie, że lubię takie rzeczy.
Takie dobre?
Powiem w ten sposób.
Apple miało chyba lepszy dzień jak to robili, bo tak.
Możemy wstawiać sobie kształty, możemy wstawiać pola edycji, nie możemy rysować.
No ale nawet jakbyśmy mogli, no to okej, umówmy się, i tak by to niewiele dało, nawet jakby nam to udostępnili.
Ale tak, możemy wstawiać pola edycji, możemy wstawiać kształty, możemy wstawiać pliki, możemy wstawiać oznaczenia, możemy wstawiać wyróżnienia, komentarze, chodzić po pokrętle.
Możemy też przeciągać różne elementy, zmieniać ich rozmiar, szerokość, wysokość, ułożenie.
Oczywiście, jeżeli mamy iPhone’a lub też gładzik na Macu, to możemy sobie to eksplorować, jak to działa, jak to wygląda.
I nie wiem, jakie by to mogło być profesjonalne zastosowanie, takie poważne, chyba że no nie wiem, byśmy sobie na przykład omawiali, zaraz przejdę do kolejnej rzeczy, na przykład omawiamy sobie z Michałem wygląd aplikacji tyflu podcastu na iPhone’a, dajmy na to.
Ale co to jest? To jest taka formatka czegoś?
To jest taka tablica po prostu, na której możesz sobie wstawiać, pisać cokolwiek gdzie chcesz.
Czy to coś jak Figma, czyli wizualizacja interfejsów, tak?
To znaczy nie.
Nie do interfejsów.
Ale wydaje mi się, Arku, że to profesjonalnie może mieć zastosowanie do wielu rzeczy.
Warunek tylko jest jeden, wszyscy muszą z tego korzystać w danym zespole, ale wiele jest przecież takich sytuacji i wiele w dzisiejszych czasach zespołów, które nad czymś pracują, wykorzystuje właśnie tego typu tablicę do zapisywania jakichś myśli, pomysłów, do dzielenia się jakimiś ideami.
I no chyba tak naprawdę to nie było niczego takiego, co by fajnie wyglądało, bo to też musi fajnie wyglądać.
Widzący to po prostu patrzą na to tyle.
Ale to może być kwestia tego, że gdzieś pracujesz i jakiś formularz z danymi, z czymś.
Ale wiesz co, to nie jest tylko coś takiego.
Nie, nie, nie.
To jest taka tablica po prostu, że masz okno i możesz sobie wstawiać tam kształty różne, gwiazdki, jakieś trójkąty.
Ja się bawiłem w stawie trójkątów, można potem w tych trójkątach coś wpisywać itd.
Tak i to jest po prostu, bo ludzie bardzo, bardzo ludziom pomaga z tego, co ja się zorientowałem, jak sobie coś rozrysują, rozplanują, gdzie po prostu mogą na to spojrzeć.
A problem jest taki, że my do tego nie mamy dostępu.
My sobie to musimy zapisywać na jakiś nasz sposób i bardzo dużo rzeczy nam ucieka.
A w tym momencie, kiedy mamy takie narzędzie, no to już to zaczyna się zmieniać po prostu in plus.
Otworzę tego freeforma w tym momencie, bo chcę nawet sprawdzić na Macu, bo jestem teraz w domu, a jak sobie otworzymy, tak na Macu też możemy poruszać się.
Też jest pokrętło, więc można też sobie udostępnić tę tablicę, ale tym się nie bawiłem.
Nie mam niestety nikogo z betą, bo ta kolaboracja Uapla, jak widzieliśmy w przypadku Safari jakoś średnio się udała.
Oj tak.
Nam się to zbugowało mocno. Ciekawy jestem, jak to tutaj działa.
Bo jeżeli to jest, no bo raczej ja jako osoba niewidoma sam dla siebie nie korzystałbym z czegoś takiego.
Aczkolwiek to jest efektowne narzędzie.
Powiem wam, że jak się tym bawiłem, to po prostu nie bawiłem się nigdy czymś takim i po prostu fajnie mi się z tym pracowało.
Ale jest to fajnie zrobione, tylko że ktoś z Upla, no musiało coś wyjść nie tak.
I z jakiegoś powodu, jak na przykład czyta nam współrzędne czegoś, czyli tam wierzchołka trójkąta na przykład,
albo to z jakiegoś powodu on za referencję bierze prawy dolny róg, a nie lewy górny róg.
Dlaczego? Nie wiem.
To ciekawa sprawa. A czy można, Arku, jakoś decydować o szczegółowości tych opisów?
Bo trochę mnie przeraża to, co ty mówisz, że on zaczyna czytać jakieś współrzędne trójkątów i tego typu rzeczy,
gdzie mnie interesuje po prostu treść i ewentualnie jej rozmieszczenie.
Ale on najpierw czyta treść, potem czyta rozmieszczenie i potem dopiero czyta na przykład trójkąt,
czyli coś tam początek obiektu znajduje się 473,4 punkty od prawego dolnego rogu zaznaczenia, coś takiego.
Dobra, to mnie trochę uspokoiłeś.
Oczywiście to polskie tłumaczenie jest takie, jak to powiedzieć, takie toporne, aczkolwiek w sumie sam nie miałbym pomysłu,
jak to lepiej przetłumaczyć.
Także jeżeli ktoś ma beta, mam tu prośbę do słuchaczy, jeżeli ktoś ma beta iOS-a deweloperską lub macOS-a, to zapraszam do zabawy.
Napiszcie admin na maila Nuno69amaupa gmail.com, bo chciałbym się tym pobawić, żeby po prostu się nauczyć tej aplikacji
i zrobić wam audycję o tym, bo może komuś się to przyda, może ktoś pracuje w jakimś miejscu, gdzie to się wykorzystuje.
Nawet myślę, że żeby daleko nie szukać, to jak Paulina, u was w grupie będziecie pracować nad taką aplikacją, o której wspominałaś,
to taka tablica do wymiany jakichś myśli to byłoby nieocenioną pomocą.
Chociażby sobie nie musiały interfejse wyrysować.
To znaczy mój zespół robił to tak, że pisaliśmy na Google Docsie, a oni sobie potem przenosili do jakiejś tablicy.
No właśnie, a widzisz.
W pewniejszy sposób dlatego, że ja nie mam Maca.
A to ja już abstrahuję od tego, tylko mówię po prostu, że gdybyś miała, to dzięki czemu…
Tak, gdybym miała, to bym miała i mi już coś zaproponować, a tak to nie mam.
To mogłabyś pracować właśnie i miałabyś dostępne narzędzie do czegoś takiego, a takie tablice, takie właśnie narzędzia są bardzo często używane.
Zgadza się.
Na studiach pracy.
I na studiach i gdzieś tam w projektach. Wszyscy chcą gdzieś tam łazić po jakichś…
Już nawet nie pamiętam nazw tych rzeczy.
Ale po prostu ciągle.
A to jest dla ciebie dostępne? A może to?
Skąd wiesz, może to?
No sprawdź.
Bo przecież to bez sensu, żebyśmy pisali w Google Docsie, a potem to przenosili.
No weźże sprawdź.
Ja po prostu z 20 tych apek miałam poinstalowanych, po…
No.
Webowych, pootwieranych jakichś czegoś.
Ale to w ogóle jakby z dostępnością nie będzie wspólnego.
No niestety.
Ja mam nadzieję, że będzie do tego kiedyś dostęp też z przeglądarki.
Bo jeżeli to by było dostępne w ten sposób, no to już w ogóle byłoby super.
To by tam załatwiało całą sprawę.
No ale odkryłem, że można sobie zmienić, że jak ktoś nie lubi współrzędnych, to można sobie ustawić w centymetrach widok.
No super.
I teraz na przykład wstawiłem sobie trapez i mogę modyfikować lewy górny róg trapezu, prawy górny róg trapezu.
I tak samo z lewymi rogami mogę je przenosić w prawo, w lewo, w górę, w dół.
I mogę coś wpisywać do trapezu.
Tutaj teraz jestem na Macu, nie na iPhone’ie.
I widzę, na Macu jest taki problem, że jeszcze nie mam wsparcia dobrego do skrótów klawiszowych.
Działa tylko Command-N na nowej tablicy.
No ale jeżeli będą skróty klawiszowe, to wow.
Ja nie lubię takich rzeczy.
W sensie inaczej.
Lubię takie rzeczy, ale lubię się bawić takimi rzeczami, ale jakbym miał w profesjonalnym zastosowaniu, chyba by mi nie wyszło.
Ale może, że na przykład w odpowiednie miejsce trapezu wpisywać pewne rzeczy?
Że na przykład, nie wiem, robisz sobie trójkącik po lewej i wpisujesz tam coś, ale ogólnie w trapezie jest coś innego czy nie?
Można tak robić. Tutaj jest dużo tych opcji.
Można tymi uchwytami sobie zarządzać.
Można sobie wokół… VoiceOver jeszcze nie czyta jakby kolizji.
Czyli jeżeli ja na przykład mam już jakiś obiekt i chcę inny obiekt rozszerzyć, żeby on objął ten mniejszy obiekt, to wtedy VoiceOver mi tego nie przeczyta.
Ale ja to zgłoszę.
Będę się jeszcze bawił tym freeformem, bo mówię dla mnie to jest coś nowego, a dla mnie jak jest coś nowego, to się będę tym długo bawił.
Podejrzewam.
Ale najbardziej mnie interesuje kolaboracja jednak z tym.
Jak po prostu działa kolaborowanie z kimś nad takimi tablicami, więc ja nie wiem Michale, czy ty masz developerską betę?
Ostatnio nie miałeś, ale…
Nie, nie mam, nie mam.
Także to jest freeform.
Można nawet wstawiać pliki, ale plików się nie da z jakiegoś powodu jeszcze wstawiać.
Może tego nie zrobili czy jak, ale jest ta opcja wygaszona.
Ciekawe jak to działa, wstawianie plików.
No ale w każdym razie można.
Druga rzecz też, trzecia rzecz, dzisiaj druga rzecz też makowa, aplikacja Wuxi, o której kiedyś mówiłem, Wooschy.
Nie, ona nie jest chińska, chociaż nazwa mogłaby tak wskazywać.
To jest aplikacja do przeszukiwania interfejsów.
Doczekało się jeszcze większych usprawnień dostępności.
I teraz już jest wszystko. To jest aplikacja, coś jak na Windowsie, Fluent Search, tylko typowo do interfejsów.
Że możemy sobie przeglądać, przeszukiwać interfejsy.
Wcześniej były jakieś problemy z czytaniem, teraz naprawdę developer to poprawił, więc naciskamy sobie domyślnie command shift prawie kwadrat, wpisujemy co chcemy, dajemy enter.
Aplikacja przeszukuje menu, przeszukuje po prostu to co jest.
Coś jak wybór rzeczy, bo ja zauważę tylko jak, jeżeli ktoś korzystał, to wie, że to działa powoli.
Także aplikacja Wuxi, www.wooschy.app.
Czas, Arku, słuchałeś, bo ja tutaj wcześniej mówiłem o shortkecie, tylko shortcut jest też właśnie coś podobnego.
Shortcut.
Tak, słyszałem o tej aplikacji, słyszałem o niej.
Odkryłem też bardzo fajny ten program do czytania Hacker Newsa na Macu, nazywa się HackIt.
Można go pobrać z AppStora, jest darmowy.
Niby AppStore zgłasza, że są zakupy w aplikacji, ale zakupy w aplikacji to donaty po prostu.
Także nie odblokujemy nic.
Aplikacja się rozwija, fajna jest.
A jest też na iOSa?
Nie wiem, w sumie.
Na iOSa jest kilka apek do Hacker Newsa, chyba ja znalazłem z 4 albo 5.
Testowałem wszystkie, na ten moment najbardziej polecam Octala, który jest opensource’owy.
Znaczy ma opcję premium, ale jest na GitHubie, bo tam prawie wszystko jest okej.
Mógłby tylko autor trochę bardziej popracować, żeby pogrupować elementy do kupy,
trochę jak w dystopii, że więcej powinno być pod pokrętłem, a mniej pod machaniem w prawo.
Ja niestety ubolewam, bo były dwie usługi.
Pierwsza to była Hacker Mail, a druga była też, nie pamiętam teraz nazwy,
ale pierwsza polegała na tym, że ustalało się próg,
dla którego Hacker News sprawdzał nam newsy i wysyłał codziennie maila
z newsami przekraczającymi dany próg.
Punktów przydzielonych temu newsowi, czyli załóżmy jeżeli bym sobie ustawiała 10,
to dostaje od tam, załóżmy tego 703 ileś, bo zazwyczaj tyle jest najwięcej,
czy tam 700 coś, właśnie do 10, jeżeli nie schodzimy.
A druga była taka, która pozwala definiować tematy, które nas interesują
i jeżeli te słowa klucze padną w newsach, to dostajemy taką cotygodniową paczkę,
ale obydwie te usługi już nie działają i bardzo mi z tego powodu smutno.
A na Android’a jest coś do Hacker Newsa z ciekawości?
Nawet nie patrzę, bo ja nie chcę mieć apki, bo jak ja robię sobie newsy na TV przegląd,
to ja mam osobny folder w mailu, który sobie przeglądam i nie wiem,
odprawiam sobie Twittera, przeglądam sobie maila,
ale tak, żeby jeszcze jakąś jedną apkę instalować, którą mam przeglądać.
Ja bardzo lubię aplikację i jestem fanem aplikacji do wszystkiego w sumie.
O, też aplikacja Stellar na Macu doczekała się dostępnościowej rewolucji.
Męczyłem deweloperów o to długo i się wreszcie domęczyłem.
Jest bardzo fajnie zrobili, edytor postów jest tak pięknie dostępny.
Wybaczcie telefon, mam nadzieję, że mnie dalej słychać, bo…
Tak, słychać.
Jest bardzo teraz dostępny edytor postów w tym Stellarze.
Wcześniej były z nim lekkie problemy, dało się je oczywiście rozwiązać,
ale teraz oni to zrobili po prostu tak, jak powinno być i lepiej.
Moim zdaniem się nie da.
Aplikacja Stellar jest wersja darmowa, która ma większość możliwości.
Jak ktoś ma więcej niż jedno konto na Reddit,
ja chcę sobie filtrować subreddity wyrażeniami regularnymi,
przeszukiwać komentarze itd., to musi zapłacić chyba 20 zł, jakoś tak.
Jak na to, ile ta aplikacja mi pomaga przekonać reddita,
to nie jest żadna cena dla mnie.
Więc naprawdę polecam też aplikację Stellar.
Co jeszcze?
Na moim blogu na etenie, Michał widział chyba, zacząłem…
Tak, widziałem, polecam, lekturę.
Zacząłem opisywać, jak tworzyć programy na iOSa,
ale ja nie chcę robić, pisać kolejnego poradnika,
jak zostać dobrym programistą, bo ja nie wierzę w takie poradniki,
nie lubię takich poradników.
I co?
I zacząłem opisywać, jak tworzę aplikację Tyflopodcastu na iOSa.
Napisałem dwie części, trzecia część jest w drodze,
w której już faktycznie zacznie się coś dziać.
Jeżeli kogoś interesuje programowanie, to polecam.
Chciałbym, żebyście mi napisali po prostu, czy wam odpowiada taki styl,
bo ja w sumie tak piszę to i nie wiem, czy to ma jakiś sens,
bo wiadomo, oczywiście mówię, z tego się nie nauczysz programowania,
raczej od zera do bohatera, bo to nie jest moim celem.
Moim celem jest pokazanie, jak to wygląda,
jak już się coś umie, żeby zachęcić ludzi do nauki w innych źródłach,
bo ja nie jestem dobrym nauczycielem.
Ja powiem szczerze, przeczytałem pierwszą część,
drugiej przeczytałem fragment, jeszcze czeka gdzieś tam w kolejce,
żeby się z nią zapoznać.
Dla mnie jest to o tyle ciekawa lektura,
że gdzieś tam oprogramowanie się swego czasu otarłem,
to nigdy nie było coś związanego z komputerami,
co jakoś bardzo mi wychodziło i co chciałbym robić,
ale przynajmniej, żeby sobie przeczytać,
jak robi się to na zupełnie innym systemie, w środowisku,
które jest dostępne i dzięki któremu można coś stworzyć,
to jest naprawdę całkiem interesująca lektura, jak dla mnie.
Tak, bo ja tam opisałem, jak sobie skonfigurować tego Xcode’a,
tak mniej więcej.
No i tak, też staram się wyjaśniać, dlaczego robię tak,
a nie inaczej, bo jakbym chciał po prostu udostępnić kod,
tadałbym linka do kodu i tyle.
Też nie o to mi chodzi.
Chcę bardzo szczegółowo opisać,
dlaczego używam Core Data do ulubionych,
a nie tego innego frameworku, tego UserDefaults.
I też o tym napisałem,
dlaczego używam bazy danych do ulubionych.
Więc www.mao.s.l.blog,
tam można sobie zobaczyć.
Sprawałam się, żeby to jakoś wyglądało, jakby ktoś widzący chciał zobaczyć,
więc nie wiem, jak to się w kliencie Eltena renderuje.
Nie, no jest ok.
Bo ja tam robiłem różne dziwne rzeczy z tym wpisem, formatowałem go,
robiłem tabele w drugiej części,
więc może być różnie, ale jeżeli jest ok, to super.
No i mam nadzieję, że coś wyjdzie z tym develop podcastem.
Mogę sobie sprawdzać, jakie są nowości w tym podcastie.
O, może nawet mi się uda.
Nie wiem, czy słychać syntezę.
Słychać.
O, mogę sobie otworzyć.
Tylko się właśnie tak dzieje jeszcze.
Także w miarę to próbuje działać.
Czasami się coś zawiesi, no ale to wiadomo,
że też API WordPressa nie jest przystosowane do takich zabaw do końca.
Też nie wiem, jak rozwiąże wyświetlanie całych kategorii,
bo nie zaimplementuje czegoś takiego jak leniwe ładowanie.
No też będziemy się tym zajmować w tej mojej serii na blogu.
Też będę dokumentował te swoje przygody.
No bo może być ciężko, jak na przykład taka kategoria sprzęt,
gdzie jest 498 audycji i będzie się chciała załadować cała naraz,
to też może to boleć.
Może to się długo ładować.
Może paginacja.
No pewnie tak.
W sensie no, paginacja w telefonie tak średnio wygląda,
ale pewnie jakby w środku program będzie sobie paginował dane.
No, będziemy się tym bawić.
Także tak.
Co jeszcze?
Mówiliście o LinkedInie i to też jest ciekawa sprawa w sumie.
Bardzo, bardzo mnie to zaciekawiło.
Będę się też temu przyglądał,
bo LinkedIn to jednak taka popularna strona do ogłaszania się.
Nie wiem, czy ludzie szukają pracy tak typowo na LinkedInie,
ale na pewno…
Tak.
Bardzo.
Zwłaszcza z IT.
Także fajnie, że oni też dbają o tą dostępność.
Rekruterzy też szukają.
Popytaj trochę po ludziach z IT, to się przekonasz,
że sporo z nich otrzymywało w ogóle wiadomości od rekruterów,
że są zainteresowani.
Ja teraz jak byłam na tym hackathonie,
to wszyscy się chcieli łączyć po LinkedInie ze mną.
W sumie jak im powiedziałam, że niczym innym nie byli zainteresowani,
więc to już też jest jakiś wyznacznik.
Może sobie zrobię, puszczę tam githuba swojego i zobaczymy, co się stanie.
Tak z ciekawości.
Na pewno warto zainwestować czas w to, żeby opisać swój profil.
Jeżeli robiłeś nawet jakieś najdrobniejsze wolontariackie rzeczy w życiu,
no to myślę, że warto o tym tam napisać.
Dużo robiłem.
Chociażby CSR-a tłumaczyłem.
No to wiesz, to wszystko możesz opisać tam.
Są tam odpowiednie sekcje, są umiejętności,
są znajomości języków i programowania i takich mówionych.
Chciałem jeszcze was dopytać.
Ja przychodzę z problemem, który mnie denerwuje.
Bo na MAK-u jak sobie chcę czytać książki w PDF-ie,
to mam Voice Dream Reader’a na MAK-a,
który swoją drogą ma moim zdaniem niesprawiedliwie niską ocenę.
Tam o subskrypcję się rozbija.
Ale może ktoś z was wie, jak mogę czytać książkę normalnie strzałkami.
Bo w momencie, kiedy ja sobie przejdę do pola edycji z książką,
to Voice Over się zawiesza, wszystko mi pada.
A nawet jak już się odwiesi, to zawsze startuję od początku,
a nie od rozdziału, który sobie wybrałem w spisie treści.
Wie ktoś coś na ten temat, jak to zrobić?
Podejrzewam, że tu by nam się Mikołaj przydał, którego dziś nie ma.
Trochę głupi pytań ci zadam.
Próbowałeś się tworzyć przeglądarką?
Nie no, próbowałem, ale przeglądarką to wiesz,
jak się czyta pdf i nie mam zakładek itd.
I zastanawiałem się, czy ktoś typowo nie wie o tym Voice Dream Readerze,
bo jest też aplikacja Preview na Macu.
I ona też jakoś działa, ale właśnie interesuje mnie coś jak Curie.
No Curie i dana Maca nie ma, więc musiałbyś się wirtualizować do Windowsa.
Rozumiem.
No to nic, będę coś kombinował z tym Voice Dream Readerem.
Ale mówię, jeszcze raz ponadam prośbę o freeforma.
Jeżeli ktoś byłby zainteresowany kolaboracją,
przetestowaniem jak to działa, to zapraszam do siebie na e-mail.
Nuno69a na opatrz e-mail.com.
Bo już teraz przygotowuję sobie skrypt audycji,
którą chciałbym o freeformie zrobić.
Ale ta audycja jest uzależniona od tego po pierwsze,
w jakim kierunku ten freeform pójdzie i czy będę miał z kim przetestować kolaborowanie.
No bo wiadomo.
Prędzej czy później będziesz miał z kim,
tylko właśnie pytanie, kiedy ten system się oficjalnie gdzieś tam ukaże.
Teraz numer wersji chyba się kończy na E,
więc za jakieś półtora miesiąca może ta wersja będzie publicznie dostępna.
To podejrzewam, że najpóźniej wtedy ktoś będzie w stanie to przetestować.
To pewnie wtedy to i ja z miłą chęcią, jeżeli ona będzie wersją stabilną.
No bo jednak na jedynym telefonie, który mam,
to nie będę chciał instalować wersji beta.
A mój Mac się już niestety kwalifikuje.
Dalej jest ten błąd swoją drogą w iOS-ie,
że dźwięk, ale teraz już na szczęście tylko dźwięki,
dźwięki voice-overa idą na słuchawki w mono.
Trochę zostało tych błędów.
Niestety błędy będą.
No ale jeszcze raz też ponawiam prośbę o tym,
żeby jednak zgłosić ten błąd o dużych literach w Macu,
bo to nie wiem, może komuś to nie przeszkadza,
ale dla mnie jako dla osoby, która programuje chociażby,
chociażby też nie tylko, po prostu pisze teksty i chce,
żeby jakoś on wyglądał, to jest duży błąd,
bo voice-over kolejkuje te zdania.
Też chyba pojawiły się jakieś głębsze przykłady
tworzenia syntezatorów mowy.
Ktoś coś pisał, wie ktoś coś o tym na iOS-a?
Jakieś przykłady dokumentacji są, ja o tym mówiłem, ale tyle.
Dokumentacje ja widziałem już dawno, dawno, dawno.
Jeszcze jak iOS-a nie było publicznie szesnastki,
ale myślałem, że przykład w sensie, że ktoś coś napisał publicznego.
Nie, to była przykładowa aplikacja dołączona
w tym, co zostało ostatnio opublikowane.
Rozumiem pan? Jak będę miał więcej czasu,
to może uda mi się stworzyć pierwszy przykład,
jak pisać syntezator mowy.
A to zrobiło to dość proste.
W sensie każdy, kto ma mniej więcej wiedzy o tym,
jak się programuje na platformę Apple’a,
powinien móc przeportować jakiś syntezator.
No bo wiadomo, stworzenie własnej syntezy od podstaw
to nie jest zabawa taka na kilka dni.
Ale przeportować syntezator, myślę, że każdy,
kto tak mniej więcej wie, o co chodzi
i kto ma czas i chęci byłby w stanie,
to jest coś skomplikowane. Zastanawiam się,
czy chociażby tego e-speaker da się przeportować,
podobne jakieś problemy licencyjne były.
Tak, ta kwestia GPL-u,
dla którego Apple ponoć nie jest zbyt łaskawy.
Zresztą przecież podejrzewam, że ktoś nie miałby problemu
udostępnić kod źródłowy tego sterownika swojego
w Switch’cie na przykładach.
No dokładnie.
Wiesz, kwestia na macOS-a to na pewno
problemu by nie było, gorzej za iOS-em.
No tak, bo na macOS-a to udostępnią sobie
klik.app i już jest gotowe.
Ale nic, w sumie tak odbiegliśmy.
Także dziękuję raz jeszcze
i mówię, Freeform
myślę, że jeżeli Apple
będzie szło w tym kierunku, w którym idzie, to może
odbić furora, jeśli chodzi o takie narzędzia dla osób niewidomych.
No to prawda. Ja powiem szczerze, ja nie znam
innego dostępnego narzędzia tego typu.
To znaczy ta Figma, ale ta Figma się ogranicza tylko
do tworzenia interfejsów użytkownika, a tutaj mogę sobie robić, nie wiem…
Możesz sobie zrobić tablicę
i pisać ze znajomymi
przepis na sałatkę, jak chcesz.
Albo planować budżet
wielomilionowej korporacji na najbliższy rok.
No można. I można też eksportować do PDF-ów
te tablice. Tylko jest taki bug
w najnowszej becie, ostrzegam, nie da się kasować tablic.
Czyli możecie kasować obiekty z tablic,
ale samych tablic nie usuniecie, bo przepis
usuń jest zawsze wygaszony.
To z ciekawości, Arku, to taką prośbę mam od razu.
Podeślij mi jakąś wyeksportowaną taką tablicę PDF-em.
Bo jestem ciekaw, jak to się potem czyta.
Zaraz wyeksportuję coś z kilkoma palami edycji, co sobie tam rozpisałem.
Jasne.
Zaraz dostaniesz. To dziękuję.
Dzięki również. Do usłyszenia, trzymaj się.
Do usłyszenia.
Jeżeli mogę się wbić, bo jeszcze mi zostały dwa newsy w sumie.
To słuchamy.
To tak, ale to już są drobne.
Ja się nie zabiorę.
Pierwszy news dotyczy PC Managera.
Nie wiem, czy mówiliście.
To taka aplikacja od Microsoftu, która się niedawno ukazała.
Coś jak CCleaner.
Tylko, że nie wiadomo co od producenta Windowsa,
co od producenta Windowsa.
Przy okazji mamy reklamę
taką bezczelną dość.
To jest coś, co w zamyśle ma przyspieszyć nasz lekką albo mniej lekką stary komputer.
I możemy sobie wygenerować takie zalecenia dla naszego komputera.
No i podobno zawsze w tych zaleceniach jest ustawienie sobie domyślnej aplikacji Microsoft Edge.
Na przeglądarkę.
No chyba, że ktoś faktycznie to już ma, no to wtedy już nie ma.
I druga taka rzecz to jest skanowanie plików tymczasowych przeglądarki,
żeby usunąć rzeczy, które nie są już potrzebne, żeby zwolnić miejsce na dysku.
No i to też jest dostępne tylko dla aplikacji Microsoft Edge.
Nie badałam dostępności, czytałam tylko o tym artykuł, więc to zostaje do eksploracji.
Ale sygnalizuję, bo jeżeli ktoś potrzebuje i szuka takich aplikacji,
no to może faktycznie aplikacja producenta systemu sprawdzi się w tej roli.
Chociaż tak naprawdę no mamy przecież te wszelkiego rodzaju kreatory oczyszczania na dysku
i inne, które są już wbudowane w Windowsa, więc ja się zastanawiam ile tam faktycznie jest nowego.
Tak, to by trzeba było przetestować. Czy to jest po prostu nowe opakowanie tych narzędzi,
które już dobrze znamy z niejednej wcześniejszej wersji okienek?
Szczególnie, że na przykład ostatnio, to nie wiem też na ile to jest kwestia insidera,
bo ja cały czas jestem na wersji Insider Dev, ale ostatnio miałam tak,
że zajęłam prawie cały dysk systemowy, znaczy całą partycję
i dostałam powiadomienie, czy usunąć starą wersję Windowsa zachowaną,
czyli ten folder windows.old, którego normalnie nie da się usunąć,
ponieważ uprawnienia nam są tak ustawione, żebyśmy nie byli w stanie z poziomu systemu tego usunąć.
Jeżeli się na to zgodzi, to tam też jest parę innych opcji w tym monitorze zużycia,
czy jak to się tam nazywało, czujnik pamięci? Nie, nie czujnik pamięci,
ale to gdzieś w ustawieniach jest i właśnie ta stara wersja Windowsa
mnie tak zwróciła moją uwagę, bo wcześniej tego nigdzie nie widziałam.
Wiadomo, że to się wiąże z tym, że nie będzie można przywrócić starej wersji,
ale jeżeli tam ona tylko jest i wisi, to wiadomo po co ma tam zalegać.
Natomiast drugi news dotyczy w sumie też mojej współpracy z Muzeum Narodowym w Krakowie,
a mianowicie w ramach gdzieś tam aktywizacji społecznej niewidomych,
ale też trochę w ramach poznawania orzekiwań.
Muzeum funduje nam kawę niewidomym z Krakowa.
Także zapraszam, bo w sumie z jednej strony może się uda poznać się nawzajem,
może po prostu się spotkać, może wypłynieć temat dostępności w muzeach,
może gdzieś tam się przejdziemy, pozwiedzamy coś.
W Muzeum Książąt Czartoryskich spotkanie takie pilotażowe ma się odbyć w listopadzie,
także jeżeli chodzi o listopad, bardzo bym poprosiła o informacje o dniach tygodnia,
które byście brali pod uwagę, o godzinach, jeżeli byście byli chętni.
I to by najlepiej było, gdybyście zgłaszali gdzieś tam prywatnie do mnie
albo na maila Paulina Gajoch, razem pisane maładzimail.com,
albo w alternatywnych formach, jeżeli też do mnie takie macie, no to zbieram.
No bo cóż, jeżeli coś się będzie wykluwało, jakiś termin,
to też z tymi wszystkimi osobami, które się ode mnie odezwą,
będę się kontaktować na pewno, także serdecznie zapraszam.
No to chyba mi został ostatni news na dziś.
Tak jest.
To jest taki dość nietypowy news, bo ja zobaczyłem właśnie też dzięki Haker Newsowi
nagłówek smartfon bez ekranu, czy naprawdę go potrzebujesz.
No i co się okazuje, jest sobie taka firma, firma się nazywa MyManu
i firma ta tworzyła do tej pory słuchawki, jakich wiele,
czyli słuchawki do tłumaczenia tekstów na różne języki w czasie rzeczywistym,
czyli że słuchawki wysłuchują tam tekstu i jakimś swoim systemem
tłumaczą to na język inny albo na nasz.
No i stwierdzili, że słuchawki do tłumaczeń to za mało,
trzeba zrobić smartfona w formie słuchawek.
No i mamy słuchawki bezprzewodowe z eSIM, które po zeskanowaniu tego eSIMa
są w stanie oczywiście wszystko za pomocą, sterowane za pomocą głosu,
wykonywać rozmowy, wysyłać i odpierać wiadomości tekstowe
oraz odtwarzać nam różne rodzaje mediów streamingowych.
No i założenie tu jest takie, że przy okazji też tłumaczyć tą platformą MyJune’ą,
czy tam MyJune w zasadzie, która jest w tych tradycyjnych słuchawkach tłumaczących.
No i tutaj już autorzy artykułu się domyślają, jakie mogą mieć zastosowania,
żeby ograniczyć używanie takiego tradycyjnego smartfona i patrzenie w ekran,
ale też osoby z dysfunkcją wzroku.
No ja nie wiem, czy ja bym czegoś takiego mógł używać w pełni.
Jest to na pewno ciekawy gadżet, chociaż nie wiem, czy wart 400 dolarów.
Taka jest cena rynkowa, chociaż można dostać to z dość dużą zniżką.
Zdaje się, jeżeli ktoś kupi sobie w przedsprzedaży jako ten backer,
czyli osoba, która wesprze ten projekt odpowiednio wcześniej,
chociaż chyba już da się go kupować po prostu.
Powiem szczerze, ja się obawiam, że nie ma to języka polskiego.
Prawdopodobnie nie ma, tak.
To jest jedyna rzecz, jakiej ja się tu obawiam,
bo sama koncepcja jest moim zdaniem ciekawa.
Zresztą w tym tygodniu pokazywaliśmy wspólnie z Patrykiem Chojnackim
też taką Nokię, która to uboga była funkcję,
natomiast miała syntezę, nie po polsku zresztą też,
ale pod audycją pojawiły się i zresztą w trakcie audycji
też pojawiły się takie dosyć pozytywne głosy na temat tego telefonu.
Dla mnie on był średni do użytku,
ale ja oczywiście rozumiem, że może być tym zainteresowanie.
Jako podstawowy telefon takich słuchawek to na pewno bym nie chciał,
bo nie dają mi one zbyt wiele,
ale jestem sobie w stanie wyobrazić,
że co niektórzy nasi słuchacze w tym momencie już prawie przysypiali,
ale jak to usłyszeli, to zrobili wow.
To jest taka opcja, bo ja się domyślam, że tam będzie pewnie,
nie wiem, może jakiś ich własny system, tego nie wiadomo,
ale być może jakiś asystent Google czy inny.
No i szczerze mówiąc, gdyby to było urządzenie z asystentem Google,
ja mówię całkiem teoretycznie, bo nie mam pojęcia, co tam jest,
urządzenie z asystentem Google w formie słuchawek z eSIM-em,
no to już można trochę tym zdziałać, bo oczywiście rozmowy,
połączenia byśmy mieli, to, co tam jeszcze producent by dobudował,
plus wszystkie usługi, z których może korzystać asystent,
czyli właśnie TuneIn, Spotify, YouTube Music,
różne jakieś tam wyszukiwanie definicji, czytanie tych definicji,
jakaś pogoda, jakieś dzwonienie po tym całym alo,
czy którymś tam googlowskim duo komunikatorze,
sterowanie domem inteligentnym, wypytywanie o jakieś rzeczy typu pogoda,
typu jakieś tam, jakieś gry proste, no i plus wszystko to,
co dałoby się potem do tego asystenta dobudować.
No to nie jest zły pakiet, jak na urządzenie oczywiście uproszczone.
W formie słuchawek. Ciekawe.
Tylko, że bateria.
Bateria to jedno.
Mnie interesuje bardziej, jakie to są słuchawki.
Czy to są takie z przewodnictwem kostnym?
Czy takie dokanałowe?
Czy takie duże?
No właśnie, to mnie bardziej interesuje,
bo jakby to jeszcze miało przewodnictwo kostne.
To myślę, że to uszna niestety.
Tylko, że to musi być duże w sumie.
Skoro to jest telefon, tak w sumie,
który ma obsłużyć jakieś aplikacje,
które się uruchamiają i w ogóle,
no to znaczy, że musi mieć baterię.
Skoro musi mieć baterię,
a to jest do uszny, no to jak?
Będzie bardzo obciążało chyba.
Ja myślę, że przede wszystkim
słuchawki z asystentami głosowymi to nie jest nic nowego,
bo różne aleksy i inne rzeczy już się pojawiały na słuchawkach.
Tam fakt może być jakimś elementem decyzującym to,
że tam jest ten eSIM, czyli jest ten moduł LTE czy 5G
i to będzie pewnie najbardziej tą baterię ssało.
No bateria pewnie jest w jakimś tam pałąku za głową,
bo to są jakieś do uszne pewnie z pałąkiem za,
że to się tam gdzieś tak wciska bokiem albo coś.
No ciężko. Pewnie ktoś, kto widzi,
znalazłby design, zobaczyłby na zdjęciu.
Natomiast zważywszy na to,
że to jest pochodna produktu do tłumaczeń,
to z tego, co ja kojarzę, to to są do uszne wtedy te tłumaczące,
te takie nowoczesne słuchawki.
No ale takie urządzenie ujrzało światło dzienne,
więc może będą jakieś pochodne, które też w Polsce zobaczymy
i które Polski będą wspierać.
No ciekawe. Tych pomysłów na słuchawki,
znaczy na telefony, urządzenia za drogą jest coraz więcej,
być może któryś zaskoczy po prostu.
Także no zobaczymy.
No i to już jest rzeczywiście ostatni news,
który przygotowaliśmy.
Pytanie, czy coś jeszcze komuś przyszło,
bo mi na przykład przyszła informacja.
To znaczy czytałem po prostu sobie Twittera,
uzupełniałem informację.
No i podobno Apple już z płaczem podobno.
Też chciałem o tym mówić, tak?
Mówi, że no jak już trzeba, to wprowadzimy to USB-C,
ale to takie jest niefajne, bo to generuje śmieci.
Wszystko fajnie, tylko jak wprowadzili ładowarki z USB-C,
to jakoś na ten temat nic nie mówili,
no ale teraz już mówią,
także mają jakiś problem z tym,
żeby zrezygnować z tego Lightninga.
Powiem szczerze, jako posiadacz iluś akcesoriów na Lightninga,
to się cieszę tak sobie, ale dobra.
No to prawda.
Też nie wiadomo,
czy iPhone’y, które będą poza Europą,
dostaną USB-C, czy zostaną przy Lightningu.
O tym firma na razie nie chce mówić,
więc możliwe, że sami nie wiedzą.
Zobacz, Michale, będziesz mógł się w przyszłości może wymienić
iPhone’em z tradycyjnym SIM-em z Europy
na iPhone’a z Lightningiem ze Stanów.
To jest jakby jedna rzecz.
No i są przeciw…
A ja się trochę cieszę tak sobie.
…że będzie pewnie więcej z Lightninga na USB-C.
I to podejrzewam, że ok, te Apple’owskie przeciwki będą dość drogie,
ale podejrzewam, że przeciwki innych firm wcale takie drogie nie będą.
No a poza tym, no już mieliśmy kiedyś rewolucję,
jedną w przypadku Apple,
kiedy zmieniali ten dock connector na Lightning.
Też ludzie byli niezadowoleni, jakoś to przeżyli.
No to i następną rewolucję przeżyjemy.
Ja do dziś mam w domu głośnik na dock connector
i jest on teraz fajnym kawałkiem klocka, cegły,
który stoi sobie, bo nie mam go na tym…
Natomiast nie oszukujmy się, teraz jest na tyle dużo tych sprzętów z USB-C,
nawet przecież niektóre laptopy mają mieć USB-C,
że trudno będzie przypuszczać, że ktoś nie ma ładowarki z USB-C.
No nie, to akurat rzeczywiście nie jest problem,
a jeszcze może w ciągu najbliższych paru lat
powszechniejszym stanie się też to ładowanie indukcyjne.
Kto wie.
No ja się cieszę na to, bo możliwe, że dzięki temu
akcesoria, które są raczej znane z bycia do komputera,
będą też do telefonu.
I to może trochę zmieni flow pracy na telefonie.
To znaczy już są przecież jakieś karty dźwiękowe,
które są tu i tam.
To jest jedno, poza tym jest ta przejściówka,
pamiętajcie.
Tak, są przejściówki.
Tak, ja na przejściówki w sumie już jestem tak zła,
że nie kupuję przejściówek, jeżeli nie muszę.
Ja mam przejściówkę z USB na Lightning
i powiem szczerze, jak przychodzi mi jakieś nowe urządzenie,
to tak sobie je testuję.
I na przykład karty dźwiękowe niektóre działają z iOS-em,
klawiatury działają.
Swoją drogą nie przyszło mi do głowy nigdy,
żeby podłączyć myszkę.
A co ciekawe, myszka jest kompatybilna,
ale karty dźwiękowe tak, bo z tego co wiem,
iOS ma bardzo podobną, o ile nie taką samą strukturę,
jak w Mac, więc większość kart jest zgodna z Maciem,
no to i z iOS-em będzie zgodna.
Natomiast najbardziej mi przynajmniej szkoda,
że te słuchawki z mikrofonami, tudzież mikrofony
słuchawkami Sennheisera AMB,
nie są kompatybilne z niczym poza iPhone-em.
I możliwe, że Maciem, ale nie wiem, bo nie są.
To teraz pytanie, czy są przejściówki Lightning do USB?
Są, ale to nie o to chodzi.
Z przejściówką też są, nie działa.
A, nie działa.
Bo tak, dlatego że tam jest przetwornik Apogee
i to jest firma, która nie wiem jak teraz,
uwielbiała Apple’a nad życie
i karty swoje, dźwiękowe, bardzo profesjonalne
i doskonałej jakości, z tego co mi wiadomo przynajmniej,
tworzyli tylko na
komputery Apple, czyli na Maci.
A nie na Windowsa chociażby.
Więc chyba z tego wynika głównie ta
niedostępność Sennheisera na Android’a
no i na wszystko inne.
I tyle znalazłem.
A czy ktoś coś jeszcze znalazł?
Chyba nie.
W takim razie, no nie pozostaje mi nic innego
jak się z Państwem pożegnać, powiedzieć, że
dzisiaj w audycji brali udział Paweł Masarczyk,
Michał Dziwisz, no i później dołączyła Paulina Gajoch.
Dobrej nocy.
No właśnie, ja też mówię dobrej nocy.