TyfloPrzegląd Odcinek nr 155 (wersja tekstowa)
Pobierz napisy w formacie SRT
Pobierz napisy w formacie VTT
Fundacja Instytut Rozwoju Regionalnego prezentuje Tyflo Podcast.
Dzień dobry, dzień dobry. 155. audycja Tyflo Przeglądu.
Kto by się spodziewał, że tyle tego będzie jak zaczynaliśmy tę audycję, przynajmniej po takim czasie.
No bo my na początku to co miesiąc chcieliśmy ją robić.
Tak, pamiętacie?
Myśleliśmy, że newsów nie będzie.
A tymczasem okazuje się, że Tyflo Przeglądy biją rekordy popularności, mimo tego, że są co tydzień.
Dzisiaj…
I są chyba najdłuższe nasze, to są jedne z dłuższych naszych…
No właśnie o to chodzi.
No chyba rekordem jest audycja o grze słynnej, którą Paulina…
O Boże!
…tracowowie, którą Paulina z Arkiem zrobili.
A najlepsze jest to, że w sumie o wielu elementach nie powiedzieliśmy.
Co zresztą wspominałam w offline’owej audycji.
No to będzie co? Będzie jakaś dogrywka.
Tak. I bardzo możliwe, że ją zrobimy. Szczególnie, że jest nowy patch.
A najlepsze jest to, że ta offline’owa audycja również sobie potrwała dość długo, pomimo, że nie mieliśmy z Wami kontaktu.
Tak jest.
No tak czy inaczej.
Tak czy inaczej.
Dzisiaj jest Mikołaj Hołysz, Paulina Gajoch, Paweł Masarczyk
Dobry wieczór Państwu.
I Michał Dziwisz
Dobry wieczór.
I Tomek Bilecki.
No i jak zwykle zaczynamy od tego, co dzisiaj w Tyflo Przeglądzie o czym będziemy mówić.
A o tym jak zwykle Michał.
W tym tygodniu w Tyflo Przeglądzie.
Więcej informacji na temat nowych głosów Google.
Ciekawe słuchawki do Kostne.
Na Uniwersytecie Illinois popracują nad jeszcze lepszym rozpoznawaniem mowy.
Edycja tekstu bezpośrednio z poziomu wejścia ekranu Braila w iOS.
Poprawki dostępnościowe w najnowszej wersji One Passwords.
Akcja sensorycznie i na serio w tym roku skupi się na niewidomych.
Czy niewidomy może pilotować samolot?
Jak okiełznać dźwięk na Zoomie? Odpowiedź w Tyflo Świecie.
Wiadomo jak uzyskać wyższy limit zużycia prądu dla osób z niepełnosprawnościami.
Beta NVDA 2022.4 wydana.
audio.com udostępnianie projektów audio wprost z Audacity.
Nowa wersja VirtualBox.
Niki dla twórców YouTube.
Apple uruchamia program wspierania deweloperów.
Wszystko to, a pewnie jeszcze więcej, już za chwilę. Zaczynamy!
A zaczynamy jak zwykle od informacji kontaktowych.
Można się z nami kontaktować na stronie kontakt.tyflopodcast.net
Można pisać do nas na Zoomie, na Facebooku, przepraszam.
Można dzwonić do nas na platformie Zoom.
I oczywiście można też kontaktować się z pomocą aplikacji Tyflopodcast na komputery PC.
Już tu na Facebooku widzę pierwsze polubienia naszej transmisji, także dziękujemy bardzo.
Prosimy nie tylko klikać łapki w górę, ale też prosimy komentować, pisać do nas.
Zapraszamy serdecznie!
Zapraszamy i zaczynamy od informacji, w zasadzie od prezentacji tego, co się wiązało z informacją,
którą zdaje się, Paweł, ty podawałeś informację na temat tego, że Google ulepszył swój syntezator mowy wbudowany w Androida.
Ja tak mówię, nie ma tego, nie ma, nie ma.
I podejrzewam, że część ze słuchaczy może rzeczywiście tego syntezatora nie mieć, tylko właśnie go mieć,
ale to może być niewidoczna zmiana w pewnych warunkach, bo, zresztą zaraz to pokażę,
bo w tej chwili mam na telefonie ustawiony ten syntezator, sobie go tutaj odpalę.
W 2014 poziom naładowania baterii 29. YouTube Music Tomiczek.
Dobrze, mam nadzieję, że słychać.
Słychać, słychać.
I jak słychać, ta jakość jest całkiem niezła, tylko z jakiegoś powodu mam tutaj troszkę wejście zepsute.
Jestem tutaj w tym panelu od wybierania syntezatorów.
Szybkość mowy, język polski, polska.
Dobrze, wszystko jedno. I teraz zwiększam szybkość.
55%
60%
I teraz, uwaga, uwaga, 65%
65%
Nagle nam się uruchamia stara jakość.
Ustawienia przycisk. Preferowany silnik usługi głosowe Google.
60%
Ustawienia przycisk. Preferowany silnik usługi głosowe Google.
I no właśnie, jeżeli mamy zbyt szybko ustawioną szybkość, znaczy zbyt szybko na te algorytmy pewnie jakieś nowe,
to nagle nam się przełącza na tę syntezę starą z jakiegoś powodu.
55%
Natomiast, jak widać, synteza jako taka jest całkiem niezła.
Jeszcze mogę zaprezentować w sumie inne głosy.
Wyszukaj ustawienia. Preferowanie ustawienia, język, ustawienia, przycisk.
To jest taki głos najbardziej chyba uniwersalny.
Przejdź wyżej, opcje, zainstaluj.
Zainstaluj dane głosowe.
Rzecz ciekawa jest taka, że nie ma tego głosu, który jest w asystencie Google’owym.
To jest norma Google’u i tak samo nawet w chmurze Google’owskiej nie ma tych głosów asystenta.
I to nie tylko w języku polskim ich tam po prostu nie ma.
Do tego stopnia, że np. niektóre języki mają głosy 2, 3 i 4, bo np. jedynka jest w asystencie.
Do tego stopnia, że w niektórych językach głosy, które w chmurze były, zostały potem uczynione głosem asystenckim i tych głosów już tam nie ma, mimo że one kiedyś tam były.
Tak, no tak, rzeczywiście.
Natomiast nie wiem czy teraz, ale kiedyś w asystencie dało się użyć również tych właśnie głosów, które teraz tutaj słychać.
Znaczy w tych aplikacjach, które wykorzystują asystenta głosowego.
Tymczasem udało mi się dostać do panelu z wyborem głosów.
No to po prostu…
O właśnie, ono się bardzo szybko przełącza na te inne głosy.
A, to był głos trzeci w ten moment.
O właśnie, to jest głos pierwszy.
I to jest podejrzane ten głos, który był…
Tak, to jest ten standardowy głos, który był zawsze głosem domyślnym.
To on tak brzmi jakby w tej wersji ulepszonej.
To jest ten głos męski, który tutaj na początku prezentowałem.
Jeszcze jest głos czwarty.
No i już, mamy pięć głosów dostępnych.
One są takie mam wrażenie dość zróżnicowane.
Bo mam wrażenie, że w tej wersji takiej gorszej, te głosy nieco mniej się między sobą różniły.
Tutaj są wyraźne takie różnice między tymi głosami.
Ja mam wrażenie, że w tych żeńskich jest mimo wszystko bardziej grane na wysokości.
Nie wiem czy same głosy są różne.
Ja w ogóle głos, ten czwarty głos, ja mam takie dziwne wrażenie,
jakby on trochę chciał być głosem niebinarnym, ale może się mylę, może mi się wydaje.
No coś w tym może być.
Nie wiem, znaczy ja znam kilku panów, którzy mają tak wysokie głosy, nawet jeszcze wyższe głosy.
Więc to chyba po prostu, nie wiem, albo Google chciał zrobić różne głosy o różnej wysokości,
różnej barwie, żeby to było dość zróżnicowane.
I w ogóle mam wrażenie, ale mogę się mylić,
że oni próbowali zrobić tak, żeby te głosy w różnych językach były dość podobne do siebie.
Bo gdy wybiorę na przykład język angielski, tylko nie pamiętam czy angielski jest…
Mam teraz głosy angielskie Stany Zjednoczone.
Głos trzeci, odczyć głos i odtwórz próbkę głosu i przycisk.
Dobrze, odtworzę próbkę głosu.
A, tylko że on tu ma za jakiegoś powodu te stare.
Tylko że znowu mi się tutaj zepsuło wejście.
Niestety kabel mam nieco już stary.
Odtwórz próbkę głosu, głos i przycisk.
Odtwórz próbkę głosu, głos, drugi przycisk.
A, tu już jest dobrze.
Głos trzeci, odtwórz próbkę głosu, głos, trzeci przycisk.
Głos trzeci, odtwórz próbkę głosu, głos, czwarty przycisk.
A, tu już jest więcej tych głosów.
Głos trzeci, odtwórz próbkę głosu, głos, V przycisk.
Mam wrażenie, że to mniej więcej ten sam głos, co w polskim.
I nawet ma bardzo podobną intonację, jak mówi.
Czyli, czyżby Google robiło to samo, co próbuje teraz zrobić Microsoft?
Mam wrażenie, że oni to robili już od dawna.
Mogę się mylić, ale tak mi się wydaje, że Google to już robią od dłuższego czasu.
Już te głosy były dość kompatybilne ze sobą już dawno.
Możliwe, że Google robi to jakąś inną metodą, znaczy prawdopodobnie.
Znaczy, myślę, że jest nawet bardzo duża szansa, że to robi inaczej, ale może.
Ja myślę, że ta metoda jest taka, żeby po prostu wybierać ludzi, którzy mają podobne głosy i intonację.
Być może.
Według mnie to się różni i to dość znacznie.
Oczywiście są pewne podobieństwa.
Ale jeszcze tak zupełnie na marginesie powiem, że w sumie dopiero teraz odkryłam, że ja to mam chyba od dobrego miesiąca.
Może nawet, nie no, dwóch to bym przesadziła, ale jakieś półtora miesiąca.
Nie wiem, czy to jest możliwe, ale ja w sumie już miałam te głosy, tylko po prostu stwierdziłam, że to jakiś taki mały update w sumie, bo…
No właśnie ja też. Ja już miałem ten update jakiś czas temu.
Natomiast i nawet właśnie ktoś mówił, że na którejś z grup dyskusyjnych, że się zmieniło i się tam coś troszeczkę.
Ale właśnie jest spora szansa, że sporo osób niewidomych ma po prostu zbyt szybko ustawiony ten syntezator, żeby tę nową jakość usłyszeć w związku z powyższym.
Rozumiem, że ta synteza jest w appach zewnętrznych też, tak?
W sensie jeżeli mam na przykład takich książek elektronicznych, to on może z tego korzystać.
Tak, to są po prostu głosy wybudowane w Androida i cokolwiek, co używa głosów, może tego używać.
Ja używam w tej chwili komentary, nie używam talkbacka i te głosy używam przez komentarego.
Myślę, że z taką jakością, a zwłaszcza z taką prędkością, to te głosy byłyby fajne właśnie do czytania książek.
I jeżeli to będzie dalej tak wyglądało, to ja się naprawdę nie zdziwię, jeżeli któraś z apek do czytania książek na Androizie wprowadzi coś takiego, jak mamy na Windowsie w NVIDIA.
W niektórych syntezatorach takie pole jak podkręć szybkość.
Czyli innymi słowy, synteza czyta i wykorzystujemy algorytm taki sam jaki wykorzystują apki do podcastów, do przyspieszania podcastów, do przyspieszania syntezy.
Bo jak nie bardziej możemy to zrobić i jest taka technika właśnie w NVIDIA chociażby stosowana do SPICA.
Tak, tylko też pamiętaj, że niewidomi są dość mocno uczuleni na jakość syntezy.
Ja się zastanawiam, czy to trochę nie będzie tak, że mimo wszystko to jest po pierwsze nowa opcja.
Pytanie, czy Google też w przyszłości nie zrobi czegoś, żeby to było lepsze, żeby to się nie zmieniało szybciej.
Poza tym pytanie, czy to na przykład nie jest trochę tak, że im szybciej się mówi takim głosem, tym szybciej musi się generować ta mowa.
Być może na telefonie, który ma lepszy procesor, możliwe, że ten próg jest gdzie indziej ustawiony, tego nie wiem.
Ja się też troszkę domyślam, co tam może być przyczyną.
Bo tak słuchając tych głosów, to ja zauważyłem, że przy prędkości 60, to on się tak trochę, no robi się taki neuronowy głos.
Da się go zrozumieć, ale zaczyna już, to się mambo po angielsku na to ładnie mówi, bełkotać, o właśnie, bełkotać zaczyna.
I nie jest to tak zrozumiałe, jak być powinno. I głosy neuronowe czasem lubią to robić z różnych powodów.
To Siri, słynna, dało się ją doprowadzić do ch-ch-ch-ch i innych podobnych dźwięków wydawania z siebie.
I ja mam wrażenie, że to bardziej tutaj jest problem, że przyspieszając to w taki normalny sposób, na 60 to jeszcze, jeszcze, jeszcze,
ale na tych teoretycznych, hipotetycznych 70 czy 80, które ten głos, podejrzewam, że technicznie byłby w stanie zrobić,
to jest po prostu na tyle nie zrozumiałe, że zostało to programowo wyłączone.
Tak może być, no to też trochę nie wiadomo.
To zobaczmy, to zobaczmy na moim telefonie, ja mam teraz 50%.
Prędkość mowy, funkcja testowa, przyspiesza systemowy syntezator.
Tak, czyli mam ten nowy update.
Tak mi się wydaje.
Tak.
I teraz podbijam do 65.
Tak.
I już jest.
A mi się wydaje, ja mam ten Snapdragon 865.
Czyli, no tak.
Czyli całkiem ok i myślę, że to jest po prostu na sztywno ustawione, gdzieś tam wchodzi, że prędkość 65, wracamy na stare śmieci.
Pewnie tak.
A tymczasem mamy opinię o tych głosach napisała do nas Aga i napisała tak.
Witajcie, jeśli o mnie chodzi, to mi się najlepiej podoba ten trzeci głos.
Ten pierwszy to jest istotnie ten podstawowy głos, taki, który był już zawsze.
No i na razie tyle w kwestii głosów, jeżeli Wy chcecie również swoją opinię na ich temat wyrazić, no to zapraszamy serdecznie.
Facebook, kontakt tyflo podcast net i Zoom tu głosowo.
Co jeszcze ciekawe, można też, ja tego nie prezentowałem, ale można też zmniejszać, zwiększać wysokość tych głosów.
Do absurdalnych wartości wręcz.
W sumie mogę to pokazać, bo czemu nie.
I ten głos, a nie, teraz już nie pokażę, bo już zmieniłem, w każdym razie do naprawdę absurdalnych wartości, w których te głosy brzmią bardzo dziwnie.
I wtedy się algorytm nie zmienia, ten algorytm się zmienia tylko jeżeli chodzi o szybkość.
Także no to taka ciekawostka, ale jeżeli ktoś ma telefon z Androidem, to może sobie przełączyć na taki głos i nie wiem, na przykład słuchać książek.
No być może rzeczywiście do takiego zadania się to przyda, do jakiejś może nawigacji.
Tak, no dobrze, to może przejdźmy do następnego newsa, tym razem od Pawła.
Wojna w Ukrainie, osoby z niepełnosprawnością.
Temat ostatnio jakoś troszkę zapomniany u nas, ale wraca.
Zapomniany, nie zapomniany, ale też na szczęście, albo i nie, w zależności od newsów, nieco tydzień dzieje się coś, o czym warto by wspominać.
Natomiast teraz akurat jakoś tak się złożyło, że jako że niestety ataki rosyjskie się zintensyfikowały.
Akurat pojawiły się też rzeczy, o których warto w tym kontekście ukraińskim wspomnieć.
Pierwsza rzecz to zbiórka, kolejna zbiórka Fundacji Prawo Wybora.
My tą fundację już znamy, to ta fundacja, która właśnie zajmowała się wspólnie z Ari Ari tu w Polsce transferami i przerzutami osób,
które były zainteresowane emigracją i uchodźstwem tu do Polski i do innych krajów Europy.
No i teraz ta fundacja zbiera na taki ośrodek informacyjny, który ma pomóc dzieciom i rodzicom dzieci z niepełnosprawnością wzroku, które gdzieś muszą się uczyć.
No i są w tych różnych krajach, ponad 300 dzieci z niepełnosprawnością wzroku jest już w różnych krajach Europy na uchodźstwie.
I tam jakoś musi się uczyć. No wiadomo, są przyjmowani do szkół dla niewidomych gdzieś na miejscu tam, gdzie są.
I tam jakoś się próbują integrować ze swoimi nowymi koleżankami, kolegami z klas, próbują się wdrożyć w zajęcia lokalne, no ale bariery językowe, no ale różne ograniczenia.
No i efekt jest taki, że wiele z tych dzieci uczy się zdalnie, dalej w ukraińskich szkołach, które takie zdalne lekcje oferują.
No ale zwłaszcza w przypadku osób niewidomych sparza to wielu trudności.
Takich jak na przykład brak dostępu do pomocy specjalistycznej, do materiałów w Brajlu. Rodzice też nie do końca sobie radzą z tą sytuacją.
No i żeby temu zapobiec, albo chociażby jakoś dołożyć się do tego, by było jakkolwiek lepiej, właśnie Prawo Wybora zbiera teraz na taki ośrodek, na taki zasób informacyjny, na taką platformę, o tak można by to nazwać,
która podejmie pewne konkretne działania, żeby tą sytuację jakoś ułatwić właśnie takim dzieciom i rodzicom.
No i ma powstać tego typu platforma. Jej zadania to na ten moment te, które są wskazane w opisie celów projektu, to adaptacja i drukowanie materiałów edukacyjnych w Brajlu,
organizowanie spotkań online, warsztatów kreatywnych, uniwersytetów dla rodziców, no czyli takich pewnie platform wymiany doświadczeń dla rodziców, dzieci z niepełnosprawnością wzroku,
którzy gorzej lub lepiej sobie radzą w tej nowej sytuacji oraz no oczywiście pomoc psychologiczna.
Zebrana kwota ostateczna, jaka ma być, to 106 454 euro. Na ten moment zebrano już 28 tysięcy euro, 28 086 dokładnie euro, a nie, przepraszam, to jest kwota, która pozostała, więc tak naprawdę zebrano już większość tej kwoty.
Więc 28 tysięcy prawie 100 euro to jest to, co zostało jeszcze do zebrania, żeby osiągnąć 100% tego celu. 281 osób zdecydowało się wpłacić na tę zbiórkę i dwie osoby zdecydowały się na miesięczne wpłaty.
No więc jeżeli już wspieraliście Prawo Wybora i AriAri podczas organizowania transportów, no to możecie teraz też wesprzeć Prawo Wybora w tej misji,
no bo przetransportować osoby i zapewnić im ochronę to jedno, a zapewnić jakieś warunki bytowe na miejscu i zwłaszcza jeśli chodzi o dzieci,
które tak naprawdę uczą się o tym świecie i dowiadują się i mogą w przyszłości się rozwinąć i są w tym krytycznym tak naprawdę momencie swojego rozwoju jakim jest edukacja,
no one są szczególnie zagrożone, a większość z nas prawdopodobnie wie jak to jest uczyć się z niepełnosprawnością wzroku, że tam różne inne wyzwania dochodzą,
więc im więcej można pomóc tym lepiej. To jest jedna inicjatywa. Natomiast druga inicjatywa to inicjatywa My Ukraińcy i tutaj troszeczkę kontekstu,
bo udało mi się właśnie dzięki obecności na targach Reha for the Blind, zresztą Paulinie i mnie mieliśmy przyjemność niebywałą poznać osoby niewidome z Ukrainy.
Ja tu wspominałem na przykład o Igorze Kuszni, że jakiś czas temu przy kontekście promocji i akcji Blind Squara Centrum NIKC, Centrum Informacyjne działające przy UTOSie,
przy Związku Niewidomych Ukrainy i właśnie osobę Igora, który organizował właśnie te akcje, próbował tam nagrywać podcasty, mówiłem też o Radio Gomer,
które zostało powołane przez Związek. No i tak się zdarzyło, że na Reha for the Blind poznaliśmy Igora i jego team i pomogliśmy im, więc tutaj możemy się pochwalić,
że Tyflo Podcast, polski podcast wsparł radio ukraińskie. Pomagaliśmy ekipie z Ukrainy robić wywiady do ich radia, pomagaliśmy im w tłumaczeniu.
Tłumaczyliśmy.
Tak i dzięki temu oni teraz emitowali niedawno i do teraz emitują w kawałkach materiały z Rehy i o różnych sprzętach opowiadają, które być może kiedyś będą też do Ukrainy sprowadzać.
Właśnie, Pawle, Ty patrzyłeś, czy oni nas wycięli, czy nie?
Niestety nie, bo oni tylko to emitują w radiu. Domyślam się, że tak. Domyślam się, że tam, gdzie my nie byliśmy jakoś potrzebni specjalnie, zostaliśmy wycięci.
Myślę, że to byłoby troszkę też oszczędność dla nich materiału.
Ja rozumiem, ale tak po prostu właśnie w tym kontekście, że dziwnie by było, gdybyśmy nie byli wycięci, bo byłby po prostu potok polskiego.
Wgadza się. Natomiast przez to, że oni emitują to tylko i wyłącznie na żywo, są powtórki, to prawda, to trzeba przyznać, ale to są tylko emisje o określonych godzinach i nie ma podcastu do odsłuchania.
Zawsze jakoś przegapiam te sloty, więc jakoś mi się nie udało jeszcze dotrzeć.
Natomiast samo radio jest bardzo też ciekawe.
Tam są audiodeskrypcje meczy, drużyn ukraińskich, Szachtera na przykład do Onieck, wczoraj z Realem grali Madryt.
Jakieś czytanie literatury, jakaś muzyka, więc tak naprawdę wielowątkowo to działa.
No i też dostaliśmy jakby błogosławieństwo, że ja na razie dołączyłem do i Roberto nasz słuchacz, do grupy właśnie osób powiązanych z NICC na Telegramie.
I z bardzo ciepłym przyjęciem się to spotkało, okazało się, że część osób tam rozumie polski, nawet się uczyła polskiego, są zainteresowani nauką polskiego
i podrzuciłem tam też tyflopodcast, więc możliwe, że będziemy mieli też słuchaczy z naszej wschodniej granicy, już awansem pozdrawiamy, jeżeli nas słuchają.
I też trafiłem na ich kanał YouTube’owy i okazuje się, że na kanale YouTube’owym jest bardzo ciekawa akcja, bo jest tam akcja My Ukraińcy.
To jest akcja, która już jakiś czas temu została odpalona w dniu 31 rocznicy niepodległości Ukrainy.
I to jest akcja, w której różne osoby niewidome lub osoby zdaje się też związane z osobami niewidomymi z Ukrainy,
nagrały takie krótkie spotiki reklamowe, poleci sobie dżingielek, kawałek muzyki i przedstawiają się te osoby.
Właśnie w tym spotcie one się przedstawiają, zmienia z nazwiska, czasami ile mają lat, skąd pochodzą z Ukrainy, czym się zajmują zawodowo,
albo co lubią robić w wolnym czasie, no i kilka takich słów otuchy dla Ukrainek i Ukraińców w tym trudnym dla nich czasie.
Więc jeżeli chcielibyście poznać kilka takich osób i was ciekawi, np. co robią osoby niewidome z Ukrainy,
no to możecie sobie te spoty sprawdzić. Link oczywiście do YouTube’a będzie w komentarzu.
No i może przy okazji sprawdzicie na ile rzeczywiście języki ukraiński i polski są podobne i można wzajemnie je zrozumieć.
Jak myślisz Pauli? No problemów nie było. Wywiady tłumaczyliśmy praktycznie bez tłumaczeń pośrednich na polski, prawda?
Znaczy ja w sumie też trochę, no była z nami taka pani Bogumiła, ona zna i polski i ukraiński. Ludmiła nawet.
Ludmiła. Tak, jest w Polsce w tym momencie też. Pomyliłam. Pozdrawiamy.
Tak, pozdrawiam również. No i czasami bywało tak, że ona przekładała to co mówiłam na ukraiński, szczególnie jeżeli to były jakieś takie słowa specjalistyczne.
No tak. Natomiast bardzo często zdarzyło się po prostu tak, że ja mówiłam po polsku i już ci Igor i jego współpracownik rozumieli co mam do przekazania
i pytali się dalej tych wystawców o to co ich interesowały i przekładałam na angielski. W sumie też czasami właśnie ja rozumiałam to co oni mówili. Tak, pół na pół w sumie.
I nawet zdaje się, że wielu polskich wystawców rozumiało to o co pytają nasi goście z Ukrainy, więc jak widać ta komunikacja działa.
A to ja tylko w angielskich byłam.
Nie, to byśmy jeszcze byli później chyba na stoisku też Altixu zdaje się, gdzieś jeszcze i oni wtedy rozmawiali bezpośrednio po polsku i ja nawet nie byłem specjalnie wtedy potrzebny, ale się z radością przysłuchałem.
To w ogóle śmiesznie było, bo ta Pani Ludmila, pewnie dłużej bym tłumaczyła, ale stwierdziła, że się bardzo zmęczyłam, bo wtedy kiedy oni już podziękowali za wywiad
i mieli kończyć na to, później zadawali kolejne pytanie, na które ja już nie reagowałam, bo po prostu moja czynność została wyłączona.
Myślałam, że coś tam sobie mówią do siebie, żeby coś ustalić i właśnie ta Pani stwierdziła, że chyba już jestem zmęczona i trzeba teraz Ciebie poprosić.
Tak, tak właśnie i wtedy ja się przyłączyłem i też niebywała przyjemność, bardzo fajny czas, bardzo go mile wspominam, więc jeżeli ktoś nas z tamtej ekipy albo ogólnie z Ukrainy słucha, no to pozdrawiamy.
Mamy nadzieję, że wszystko da się rozumieć.
A może i do zobaczenia za rok.
A może i do zobaczenia za rok albo i prędzej.
No i jak zwykle powodzenia, dużo szczęścia i spokojnego nieba nad waszymi głowami.
Tak jest, a tymczasem mamy telefon, więc proponuję, żebyśmy ten telefon odebrali.
Halo, kto jest z nami?
Halo, witam, dzwoni Dariusz.
Witaj, Darku.
Witam, ja nie ukrywam, że już od kilku miesięcy czuję się jak ambasador Blindsheila w Polsce, dużo osób się do mnie zwraca z różnymi pytaniami, więc postanowiłem nieco naprostować informacje sprzed tygodnia o aktualizacji.
Mówiliśmy tutaj o aktualizacji telefonu Blindsheil Classic 2.
Mam na myśli tutaj pocztę elektroniczną, klienta poczty. Pojawiła się bardzo istotna poprawka, na którą kiedyś narzekałeś, nawet jak prowadziliśmy razem audycję.
Mianowicie, teraz można podpiąć pod tę aplikację więcej niż jedno pąto.
O, no to super.
To jest taka fajna informacja. Ja miałem dwa konta i przy okazji wytestowałem to, jak wygląda logowanie się na konto Google.
Jeszcze z jakichś tam zamieszków czasów androidowych miałem konto Google i hasło, więc jest to bardzo proste.
Jeżeli chce się założyć, podpiąć skrzynkę na Gmail, to po prostu wpisuje się wszystkie dane i Blindsheil przekierowuje nas na stronę internetową i tylko klikamy przycisk OK i wszystko działa bez problemu.
No tak, bo Google teraz już nie ma nawet innej możliwości zalogowania się do tego konta, bo już tam nie działa to takie standardowe login hasło, więc dobrze, że oni o to zadbali.
Tylko teraz moje poprzednie pytanie.
Jeżeli podtypniemy dwa konta pod aplikację, to czy ona wspiera coś takiego, co u mnie w kliencie poszty się nazywa Unified Inbox, czyli taki feed, na którym widzimy najnowsze wiadomości niezależnie od tego, na które przyszły konto.
Czyli po prostu taka globalna skrzynka odbiorcza.
Nie, absolutnie. Co mnie osobiście cieszy, bo ja bym się pogubił na przykład. Powiem szczerze, oczywiście nie mogę wypowiadać się za inne osoby. Wygląda to tak, że wchodzimy do aplikacji.
Pytanie pierwsze, które się pojawia się w komunikacie, wybierz kontu i wybieram czy chcę na przykład Gmaila czy Interia i po prostu tam sobie korzystam, a kiedy chcę sobie przejść na przykład na drugie konto, no to wychodzę z tego pierwszego i przechodzę na drugie. Więc to są dwie jakby rozdzielne podplikacje.
Co mnie osobiście cieszy, aczkolwiek może nie każdemu się to spodobać.
No ja się przyzwyczaiłem, powiem szczerze. Ja przez Outlooka na przykład, chociaż na komputerze w beki chociażby, no to mam siłą rzeczy indywidualne skrzynki odbiorcze dla każdego konta, bo beki nie ma możliwości za bardzo, żeby to działało inaczej, szczególnie jeżeli konta są na IMAPie.
Ale no ja szczerze mówiąc wolę, żeby wszystko mi spływało do jednej skrzynki odbiorczej, ale to tak jak Darku wspomniałeś, to są bardzo indywidualne preferencje.
Tak. Druga rzecz, to nie wiem czy ktoś o tym powiedział, myślę, że nie. Można pobierać, kiedyś można było tylko odsłuchiwać, teraz można pobierać podcasty w tej aplikacji do podcastów. No i to co podcast tam jest, można sobie odcinki pobierać. Kiedyś się tylko odsłuchiwało, teraz można już się zapisywać.
Ciekawości są rozdziałane, bo to jest dla mnie zawsze taki punkt honoru, jak chodzi o podcatchery.
Uczciwie powiem raczej nie, ale mogę to sprawdzić i za pół godziny napisać taką informację albo w komentarzu dać. I jeszcze mam teraz do wszystkich pytanie, bo całkowicie się nie znam na napisaniu petycji.
Może ktoś z Was mi coś doradzi, albo powie jak się za to zabrać, albo powie, że bym sobie dał ten spokój, bo to nie ma sensu.
Sprawa jest prosta. Jest tyle ustaw o dostępności, tyle takich teoretycznie działających udogodnić do osób niewidomych.
Ja się mierzę i pewnie nie tylko ja, tylko 90% społeczeństwa, nie tylko osób niewidomych, ale w ogóle społeczeństwa.
Problemem reklam na YouTube. Nie oczywiście sape w sobie reklamy nie przeszkadzają. Uważam, że jeżeli korzystają z sercji darmowej, to one mogą nawet 10 minut się odparzać, bo takie jest prawo rynku.
Nie mam nic przeciwko, tylko one będą na tym poziomie głośności takim optymalnym. Ja sobie jestem w słuchawkach i po prostu bardzo, bardzo głośno wszystko się odpala.
Nie jest szansą, żeby systemowo napisać tę kompozycję, bo nawet jeżeli ja bym chciał czasami przykładowo mać cicho sentyzator, a ta reklama zaczyna mi szumieć,
to żeby ją opuścić, no to uszy nie ukrywam na tym troszkę jednak cierpią. Nie wiem co wy o tym myślicie.
Jakbyście zapatrujecie na taką, powiedziałbym, inicjatywę, bo jeżeli reklamy są prawdą szczerze 10 minut, to jest ten poziom już znormalizowany.
I to wszystko działa tak jak to widzę. Nawet jeżeli trwają 10 minut, to ta głośność jest mniej więcej taka jak powiedzmy tego, co jak z wiadomości czy z film,
a potem po prostu czasami tak potrafi na co udostępnić to, co ja bym mówił. Mówcie się z telewizji. Czy jakiś komentarz na to z naszej strony, z perspektywy dostępności?
No ale nie wiem czy tego nie ma w WCAG nawet wytycznych. No wiadomo, że kwestia reklamy jest zawsze taka, że reklamy generują przychód i reklam się nie dotyka jeżeli nie trzeba.
Ale niech one będą.
Więcej na tym się tak, ale więcej się inaczej. Jeżeli czegoś najmniej się chce dotykać pod kątem dostępności, to to są właśnie reklamy, bo reklamy generują najwięcej przychodu.
I nie jest za fajnie dla firmy, jeżeli daje się coraz więcej, więcej, więcej, więcej obostrzeń, bo się nagle okazuje, że ten reklamodawca chce wysłać reklamę,
to mu będzie za głośna, ten chce wysłać to będzie za cicha, ten chce wysłać to będzie za duża, ten chce wysłać to będzie za mała.
I skończy się na tym, że jednak wyślą do konkurencji i będą się reklamować w innym serwisie, bo tu im w ogóle też nie wchodzi.
To znaczy Darku, żebyśmy mieli jasność. Ja na przykład bardzo chętnie taką petycję bym podpisał, chociaż i tu muszę zastrzec, że ja jakoś nie odczuwam tego typu problemów.
Być może też dlatego, że korzystam, że ja YouTube’a w ogóle bardzo mało oglądam na komputerze.
Zdecydowanie korzystam, jeżeli z YouTube’a korzystam, to z aplikacji mobilnych, a w przypadku iOS’a na przykład, to ja mam takie wrażenie, że ten dźwięk jest jakoś tam jednak mimo wszystko wyrównywany.
Na komputerze to w ogóle nie ma problemu, bo na komputerze instalujemy uBlock Origin i mamy problem zakontrolowany.
I to oczywiście problem jest rozwiązany. Natomiast tak w ogóle pamiętaj o tym, że programy od czytu ekranu mają ten tak zwany audio ducking, czyli to ściszanie.
Na pewno ma to NVDA, można to sobie włączyć, na pewno ma to też voice over. Nie wiem jak jest z talkbackiem i blindshell podejrzewam, że też go może nie mieć.
Jest też, tylko to różnie działa czasem, ale jest, tego co wiem. No i justice mode’a.
Ja już nie wpuszczałem tego co wiem, ale to już musiałbym sprawdzić. Ja to akurat odczuwam to co Ty mówisz. Też na iPhone’ie istotnie są reklamy, które są na poziomie głośności dużo wyższym niż film, który oglądasz.
No ja akurat mam też tak, że oglądam filmy, które się różnią głośnością od siebie na różnych etapach, bo nie wiem, jest puszczony fragment czegoś, który jest głośniej niż komentarz do tego czegoś i to potem muszę latać tą głośnością w te i we w te.
Ja, wiesz, coś co możesz zawsze spróbować, ja Ci nie gwarantuję, że to coś da, bo Google niestety jest znany z tego, że dość lakonicznie odpowiada na jakieś takie zapytania, ale jest dział dostępności Google’a i on ma swój helpdesk.
I jak poszukasz Google Accessibility Support masz różne opcje. Oczywiście najłatwiej Ci będzie po angielsku, bo po polsku to nawet nie istnieje, ale jest e-mail, jest nawet Google na Be My Eyes z tego co pamiętam i można się do nich też zgłosić.
Jest jakiś numer telefonu pewnie amerykański, ale jest też czat chyba taki na żywo. Oni mają media społecznościowe. Spróbuj zarzucić temat, bo być może nie jesteś jedyny i może być też tak, że kwestia dźwięku dla Ciebie jest tym, co dla osoby np. z epilepsją bardzo szybko mrugające obrazy.
Jeszcze to co dopowiem to by było zasugerowanie prędzej stworzenia odpowiedniego ustawienia w YouTubie dla osób, które mierzą się z tym problemem, żeby sam processing dźwięków aplikacji wyrównywał głośność niż wymuszenie na dostawcach reklam optymalizowanie tej głośności.
Swoją drogą słuchajcie to tak jeszcze od razu powiem, bo zajrzałem sobie do ustawień iPhone’a i bo ja się zastanawiałem czemu ja tego aż tak nie odczuwam i zapomniałem kompletnie, że ja sobie włączyłem dwie opcje, które jeżeli komuś przeszkadza różnica głośności to też może sobie spróbować włączyć.
Po pierwsze to jest ustawienia muzyka i tam szukamy tych dwóch opcji, to jest equalizer ustawiamy na tryb nocny i wyrównanie dźwięku, ja sobie to też włączyłem.
I naprawdę ja zapomniałem w ogóle, że jest coś takiego jak różnica w poziomach, bo ona oczywiście czasem jest, czasem mi jakaś reklama ryknie, nie powiem, że nie. To nie załatwia nam problemu w stu procentach, ale przynajmniej jak sobie włączyłem te dwie opcje, ja już dawno nie miałem sytuacji takiej, żebym musiał, żebym się po prostu skarżył na te różnice w poziomach jakoś, żeby mi to jakoś bardzo mocno przeszkadzało.
Także w equalizerze tryb nocny i wyrównanie dźwięku.
Ale pamiętajmy też jeszcze o jednym, bo o tym wiele osób nie pamięta, że na szczęście w iPhone’ie jest bardzo prosto zapauzować coś, więc jeżeli ta reklama jest na tyle głośna, że my nie jesteśmy w stanie znaleźć przycisku pomij reklamę, to możemy sobie ją tam poczekać te 3-5 sekund, usłyszymy, że coś tam na voice over powie, nie usłyszymy do końca co.
Ale się domyślimy, że on nam powiedział, że reklamą można teraz pominąć, dwa razy stukamy dwoma palcami, to nam automatycznie przerywa odtwarzanie, znajdziemy sobie przycisk pomij reklamę na ekranie normalnie, na spokojnie, bo przecież włączyliśmy pauzę.
No i wtedy już nie musimy się głośnością przejmować, bo po prostu ta reklama zostanie nam wstrzymana. Tylko wiadomo, musimy to zrobić w odpowiednim momencie, bo jakąś część tej reklamy musimy obejrzeć, żeby ten przycisk pomij się w ogóle pojawił.
To jest, dziękuję od razu, od razu powiem, że dziękuję za wszystkie podpowiedzi, coś o tym też pomyślę jeszcze, może też wrzucę temat na tych stosie, może kilka miejsc i może się znajdzie jeszcze kilka osób, które by się coś takiego…
Ja myślę, że jeżeli miałoby to jakąś rację, by to taka petycja, to musiałaby ona być zdecydowanie międzynarodowa. Dziwi mnie w ogóle, że nikt takiej petycji nie stworzył. Ja podejrzewam, że gdyby poszukać, to może już by się coś znalazło, bo to nie sądzę, żebyśmy my byli jedyni z takimi problemami, bo różnice w poziomach to przeszkadzają nie tylko niewidomem, to generalnie jest problem dla ludzi.
Nikt nie lubi być straszony, a ja bardzo często na przykład zasypiam przy jakichś materiałach z YouTube’a i nieraz mnie te reklamy, już tu człowiek prawie usypia, usypia, a tu nagle coś jeszcze się odezwie.
A są też twórcy, którzy jako metodę zabijania habituacji i przyzwyczajenia wszelakiego stosują przestery. I to jest kolejny poziom.
Nawet mi nic nie mów o Gargamelu.
Tak, Gargamel. Gargamel najpopularniejszy podcast w Polsce dwóch typów. Może nas kiedyś wysłuchają. Ciekawe.
Pozdrawiamy.
Pozdrawiamy.
Nie róbcie tego, bo to naprawdę, zresztą Gargamel już po upadku…
A to nas pustywa, to wspomniałem nawet, czy to jest wygodne, czy to jest niewygodne, ale to po prostu te petardy na przykład. Jak petarda ci od 20 cm pod ucha wybuchnie, no to też nie jest komfortowo.
No nie jest komfortowo, oczywiście.
Ja to w tych kategoriach rozpatruję, bo to czasami po prostu potrafi zwalnąć. Nawet jeżeli to reaguje po tej sekundzie, to już walnęło. To jednak po prostu z to bum się odbyło.
Więc jest to taki problem… Ostatnio mi jakoś wpadło, że warto by to gdzieś… Warto by się gdzieś tym zająć.
Służna data, uwaga.
Dziękuję. Ja sprawdzę zaraz, czy rozdziały w FlowPodcastie są. Podejrzewam, że nie ma i napiszę na maila w takim razie.
Albo na kontakty FlowPodcast.net możesz napisać, to od razu zobaczymy te informacje i odpytamy w trakcie jeszcze audycji.
Przeciągu pół godziny to zrobię.
Okej, dzięki.
To dziękuję, dziękuję bardzo.
Pozdrawiamy cię Darku serdecznie, do usłyszenia.
Grzegorz do nas napisał a propos głosów i napisał do nas tak. Mi się podoba głos czwarty. Jest taki gejowski.
Jak widać różne mamy preferencje wśród naszych słuchaczy. Oczywiście jak najbardziej szanujemy.
Teraz firmy technologiczne idą w tę stronę, żeby właśnie promować różnorodność wśród głosów i na przykład w Siri amerykańskiej mamy też głos niebinarny.
I nie wiem, czy Microsoft coś ma. Microsoft chyba nie ma, ale na pewno właśnie Apple ma, Google teraz.
No mi się też wydaje właśnie, że taki był cel i taka była idea tego głosu. Siri na przykład Apple ma też akcenty specyficzne.
To jest tak, jakbyśmy w Polsce dostali głos mówiący po góralsku, albo po śląsku, albo po wschodniemu takiemu z zaśpiewem takim dość mocno na przykład północno-wschodnim.
No to jakby angielski też oczywiście ma swoje odpowiedniki i idzie się w tym kierunku, że syntezatory mowy mogą też dla osób, które lubią takie i które czują się częścią jednej z takich grup, takimi głosami również mówić.
I ja teraz mam może mały problem, ale spróbuję mi wszystko szybciutko zapowiedzieć. Nowe słuchawki z przewodnictwem kostnym.
O, od Mikołaja to jest informacja, że nadchodzą.
Tak, taka informacja została podana przez portal 9to5mac, a że słuchawki dokostne to są produkty, które osoby niewidome lubią, to myślę, że warto gdzieś w ogóle wspomnieć, że takie rozwiązanie istnieje.
Jest to model, nazywa się on dokładnie H2 Audio 3 Multisport. I co one mają? Są to słuchawki słynące z wodoodporności, słynące z tego, że można się w nich nawet zanurzyć.
Można je oczywiście używać na dworze, na wietrze, w wszelkiego rodzaju warunkach atmosferycznych. Słuchawki dokostne generalnie powstały do uprawienia sportu, co oczywiście dla nas niewidomych jest zaletą, bo bardzo często są one używane gdzieś tam w orientacji przestrzennej, czyli też są wystawione na czasem różne czynniki atmosferyczne.
Ten konkretny model jest właśnie typowo przystosowany na wodę, ma on połączenie Bluetooth ze smartfonem, jak i odtwarzacz MP3, wbudowany z 8 GB pamięci wewnętrznej, wytrzymuje 9 godzin na baterii i ma kosztować 99 dolarów w dniu premiery,
a cena potem skacze do 149 dolarów. Nie wiem ile i trzy da się to dostać w Polsce, ale ceny wyglądają tak dokostnie, nie ma jakiejś przesady ani w jedną, ani w drugą stronę.
Tak, coś koło ceny aftershocksów to stoi.
Dokładnie, bo jakieś 600 zł za słuchawki dokostne to nie jest jakoś niesamowicie dużo, za 300 zł teraz też podejrzewam, że już dostaniemy, ale to nie jest tak, że jak poszukamy za 600 zł to nie dostaniemy,
a na tyle by nam to wyszło, te 99 dolarów na nasze polskie realia, doliczając odpowiednie podatki, nie podatki.
Okej, to teraz proponuję, żebyśmy przyjęli kolejny telefon od kolejnego naszego słuchacza, a zarazem też i członka redakcji Tyflo Podcastu i Tyflo Świata jest z nami Michał Kasperczak, witamy Cię Michale.
Witam, dobry wieczór, słychać mnie?
Słychać Cię, jakbyś sobie jeszcze Originalsound włączył to by było nawet jeszcze lepiej.
Dobrze, nie byłem pewny czy to mam włączone, jak go włączyłem, ale to dla każdego spotkania.
To musisz sobie tam kliknąć więcej i oryginalny dźwięk, niestety na aplikacji mobilnej to jest tak właśnie.
O, i od razu lepiej. Trochę szumu się pojawiło, ale słychać się lepiej.
W oryginalnym dźwięku jest tak troszeczkę szumu, sam go słyszę, a dzwonię teraz, jakby potestuję, się troszeczkę przeprosiłem z moimi earpods,
czyli kablowymi tymi słuchawkami na Lightning od iPhone’a i tak jak lubię moje earpods Pro, lubię bezprzewodowe,
różne takie rozwiązania bluetoothowe, to kurczę, jest jednak urok w tym kablowym zestawie słuchawkowym, muszę powiedzieć,
i naprawdę do takich rozmów telefonicznych, czy nawet takich zoomowych, super.
Wydaje mi się, że to jest, no będę słuchał jak to potem słychać w podcast’cie, ale tak jak tam dzisiaj też rozmawiałem,
trochę testowałem, to naprawdę fajne to jest. Te kablowe słuchawki ciągle mogą się jeszcze przydać,
a tym bardziej nam, kiedy my jakoś tam jak rozmawiamy, nadajemy powiedzmy z tych słuchawek, no to gdzieś tam my lubimy też,
żeby było dobrze słychać, no stąd gdzieś tam jak możemy, to dobrze, to fajnie wykorzystać, pamiętać o tym.
To znaczy tak, bo jest jedna bardzo ważna rzecz, sam protokół bluetooth, jakkolwiek przez Apple’a, no w pełnym sensie zmodyfikowany,
on nie pozwala na transmisję sygnału w dwie strony o dobrej jakości, no tak to po prostu działa, przynajmniej na razie,
tam coś podobno w wersji 5.3 bluetootha coś się zmieniło, nie wiem, na razie nie widziałem nic takiego, co by to mogło jakoś fajnie potwierdzić,
w każdym razie po kablu jakość jest jakby potencjalnie dobra, natomiast na razie przynajmniej bluetooth będzie miał,
przynajmniej jeżeli mowa o komunikacji dwustronnej, to będzie ta jakość niestety bardzo zła w porównaniu do tego,
co można sięgnąć po kablu. Czyli tak jak trochę z tym UPC w poniedziałek mówiliśmy, że download super, a upload niestety, a powiedz mi…
Nie, nie o to chodzi, jeżeli nadajesz tylko w jedną stronę, czyli z iPhone’a do słuchawek, to jest dobrze, jeżeli nadajesz do słuchawek
i jednocześnie pobierasz ze słuchawek, to w dwie strony będzie dużo gorzej i to jakby w obie strony będzie gorzej,
czyli to trochę tak jakbyś miał internet, jeżeli tylko pobierasz, to masz bardzo wysoko, a jeżeli i pobierasz i wysyłasz,
to nagle jakby jedno i drugie ci spada do bardzo, bardzo słabych wartości.
To powiedz od razu, Nikolaj, czy kojarzysz się, jaką wersję bluetooth będą miały te schowki, o których mówiłeś przed momentem?
Nie, nie kojarzę. Nie spodziewam się tutaj jakościowo cudów i to cudów jakościowo w bluetooth’ie też jeszcze długo, długo nie spodziewam.
Może właśnie poza AirPodsami, które wy chodzą ponad standard, bo to trzeba o nich powiedzieć, ale nadal nie jest to kabel
i podejrzewam, że kabel to długo, długo, długo jeszcze nie będzie.
A jak, Nikolaj, przy temacie jesteśmy, co wiemy o audio, w sensie mikrofonach AirPodsów Pro 2, coś wiemy?
No jest troszkę lepiej, ja widziałem próbki, jest troszkę lepiej, ale no to nie jest to, to jest nadal trochę bluetooth.
To słychać, to jeszcze słychać, to powoli zaczyna mieć sens, to powoli zaczyna nabierać jakiegoś kształtu,
ale to nadal jest takie poczucie, że…
Znaczy do prowadzenia podcastów to się nie nadaje.
Dokładnie, dokładnie.
Ale z tymi bluetooth’ami to wam powiem, to jest dziwne, ja się też na tym nie znam, bo ten bluetooth mat to bardziej właśnie takie kwestie,
to ty Tomek na tym się znasz, te różne rodzaje bluetoothów, te sposoby wykowystania i potem te różnice między systemami operacyjnymi,
ale ja jako gdzieś tam iPhone’iarz niby te AirPodsy, ale też testowałem, miałem kiedyś jakieś jedne, drugie Jabry,
no to było różnie, ale w niektórych z tych słuchawek było o ile gdzieś tam opóźnienia z voice over’em i jakieś takie szumy,
kiedy voice over nic nie mówił, no to były słyszalne coś tam, to były takie specyficzne jakieś tam rzeczy,
ale na przykład mikrofony w tych niektórych słuchawkach były lepsze i nawet słyszenie rozmówcy i jakość połączeń telefonicznych
i słyszenie mojej osoby i słyszenie kogoś tam na Skype’ie, Zoomie, na czymś tam, więc niby ten Apple taki Apple, prawda,
a nie wszystko ma takie dobre niestety.
Bo to też zależy od tych odszumiaczy.
Dokładnie.
Tak, teraz na przykład mogę powiedzieć Michale, że Ciebie i tak mimo włączenia tego dźwięku oryginalnego łapie jakiś odszumiacz,
ja podejrzewam, że gdzieś tam jeszcze w ustawieniach iPhone’a jest taka opcja do odszumiania tego dźwięku,
ją by trzeba było wyłączyć, ale to już jest temat na jakąś zupełnie inną historię.
Być może, ja generalnie tak, to jest jakby jedna rzecz, ja dzwonię tak na czas, żeby przetestować te słuchawki, ale chciałem się z słuchaczami i z Wami troszeczkę podzielić tak,
no może nie na gorąco, ale na moimi takimi już troszeczkę wrażeniami z używania komputera najnowszego Maca, Macbooka Air,
którego uzyskałem z dofinansowania z aktywnego samorządu.
No i ja dzięki rozmowom z wieloma ludźmi, dzięki Twoim, Mikołaj, podcastom między innymi, no zdecydowałem się na tego Maca jednak,
na tego Macas M2, Macbooka Air, 512 dysk, 16 giga, M2, no i dwa tygodnie mijają odkąd tego komputera używam
i generalnie powiem Wam, że jestem bardzo zadowolony. Oczywiście ja wiedziałem w co wchodzę, wiedziałem generalnie jak funkcjonuje Mac,
ale tak, no pierwsza rzecz to już nie będę wchodził w design, bo to jest trochę kto co lubi, jak to i tak dalej, no ktoś woli płaski,
ktoś woli komputer bardziej taki ścięty w jednym, na jednej stronie tej przy otwieraniu ekranu, no teraz ten Macbook jest taki równy,
płaski jak te nowe Macbooki Pro. Klawiaturę też ma całkiem niezłą, chociaż wróciłem do klawiatury mojej takiej tej bezprzewodowej,
powiedzmy stacjonarnej, bo jednak szybciej, jednak te klawisze są większe i tak bardziej też mi pasowało ułożyć Maca linijkę brajlowską i tak dalej.
Ale co mogę powiedzieć? Jestem, no tak, zaskoczony to mało powiedziane rzeczywiście jak to dobrze wszystko działa.
Nie jestem w stanie powiedzieć jak tam te procesory M2 czy M1, co one tam, czy generalnie ARM, jak to wszystko jest szybsze
w porównaniu, nie wiem, z czymś tam, bo tutaj nie chcę się licytować i też jakby nie robię na tych Macach nie wiadomo czego,
ale ja wcześniej korzystałem z Macbooka Air z 2016 roku, czyli z komputera 6-letniego, całkiem niezłego by się wydawało,
Macie niby się mówi, że tak mają długą żywotność, tam wszystko 5-6 godzin, 7 na baterii to działało, wszystko generalnie grało,
komputer przyzwoity. O tym komputerze teraz mogę powiedzieć, że to jest dopiero komputer przyzwoity, a do tamtego wracać już po prostu nie chcę.
Oczywiście klawiaturę miał lepszą, ale to właściwie nic poza tym, bo pod każdym względem, po pierwsze brak wentylatora,
no oczywiście to też jest takie, my niewidomi tego troszeczkę nie lubimy, bo jednak nie słyszymy jak coś się dzieje, jak system się uruchamia,
jak tam jakieś niepokojące rzeczy, no ale tutaj jest cisza po prostu idealna, tak jak iPhone, który właściwie prawie w ogóle się nie grzeje,
no jak go podniosę gdzieś tam w pewnych miejscach, no jakbym się postarał to coś znajdę, ale generalnie żadnego problemu nie ma.
Ładuje się bardzo szybko, ładuje go gdzieś tak 3 razy w tygodniu myślę, używam go nie wiem, 5 do 8 godzin dziennie, czasem 10, czasem ileś tam,
no fakt, że nie robię tam nie wiadomo czego. Na pewno co, bardzo dobre mikrofony, tutaj Michał możesz potwierdzić,
że mikrofony rzeczywiście.
Ci, którzy chcą posłuchać to niech sobie posłuchają podcastu poniedziałkowego na temat telewizji, który ty prowadziłeś,
a gośćmi byli Adrian Wyka i Kamil Żak, bo tam nadawałaś właśnie Zmaka, no naprawdę jakby to powiedział Mr. Krycha, robi wrażenie.
No więc to jest to. Co jeszcze mogę powiedzieć, aha mówiłem o tym, że ładuje 3 razy w tygodniu, ale to też nie jest tak,
że jakoś tego Maka oszczędzam, bo normalnie wszystko robię, Twitter, nie wiem, jakieś zasobożerne strony, Facebook, nie wiem,
pobieranie z internetu różnych rzeczy, słuchanie, no i to wszystko, mail, IMAP, różne chmury, które tam w tle synchronizują różne rzeczy,
no i to generalnie 7-8 ileś tam godzin dla tej baterii to spokojnie działa, czasami 10, no różnie, bo nie używam komputera,
jak go też jakoś tam zamykam, usypiam go, więc to też nie jest tak, że ja tak jednocześnie za jednym razem pracuję tyle,
więc tak też trudno mi to jakoś tam mierzyć, no ale bardzo jestem zadowolony, gdzieś tam oglądałem w piątek koncert na YouTubie
inauguracyjny Wieniawski, konkursu skrzypcowego Wieniawskiego, o to tam 2 godziny to oglądaliśmy bateria,
nie wiem, o 15% może w dół poszła i tak dalej, no więc to naprawdę super. Coś wczoraj dziwnego się stało,
ale to jeszcze no musiałbym to zreprodukować Facetime, bo rozmawiałem z kimś przez wideo na Facetime i pół godzinki
i mam wrażenie, że bardzo bateria poszła na łeb, na szyję, ale to nie wiem czy to, no nie wiem co się stało tak do końca,
dziwne, ale no to musiałbym ewentualnie kiedyś jeszcze jakoś tam sprawdzić. No pobieranie z internetu,
ja tam też mam no szereg różnych płat tych aplikacji do różnych rzeczy i no nie wiem, jakieś tam w Safari kliknięcie,
downi, pobieranie w kilkudziesięciu filmów i konwersja do mp3, no to mi tam 10 minut zajęło, co wiem, że pod Windowsem
w tym Pontes czy czymś tam, raz by to działało, raz by to nie działało, no byłoby to kłopotliwe.
Także ja właściwie Windowsa teraz używam tylko do takiej pracy, pracy stricte, bo mi w pracy, jak na razie
Windows sprawdza się lepiej, to znaczy publikowanie na stronie na WordPressie, poprawianie rzeczy w Wordzie,
to mi lepiej sprawdza się to z NVDA, z Windowsem, jakby na Macu nie znalazłem, nie to, że nie mam satysfakcjonujących narzędzi,
ale nie działają one na tyle szybko, sprawnie, efektywnie i sensownie, tak jakbym chciał, więc no jakby tutaj Windows
u mnie wygrywa, ale być może z nową wersją systemu, albo jeszcze z innymi, ze zmianą innych przyzwyczajen i też z wirtualizacją,
bo wiem, że Piotr Machacz szykuje artykuł do Tywtoświata o Parales i o wirtualnym, o instalacji właśnie pracy z wirtualnym Windowsem,
no to też przetestuję, bo będę tego bardzo ciekawy.
Ja też tego używam na przykład i ja jestem bardzo zadowolony i nawet na tą baterię nie ma to takiego wpływu,
jakby się ludzie spodziewali, no co faktycznie zaczyna te baterie pożerać i to pożerać jak smok, to jest Elten.
I o tym trzeba powiedzieć, że Elten, jak się używa Eltena, to ten komputer działa jak komputer z Windowsem, jeżeli chodzi o baterie,
ale tak poza tym to działa naprawdę fajnie.
No ale powiedz mi, przechodzisz na taką, na tego wirtualnego Windowsa i nie wiem, tak załóżmy uruchamiarz, może tego nie robisz, ale niech będzie,
uruchamiarz Chroma, coś tam byś robił w WordPressie, w Wordzie, jesteś w stanie czy to będzie jednak tak jak na Bluetoothie tak opóźniać jakoś?
Inaczej, nie byłbym chyba w stanie i nie chciałbym używać tego jako głównego systemu i jeżeli ja miałbym, nie wiem, 8 godzin dziennie pracować
w jakiejś aplikacji i całe życie w tej aplikacji spędzić, no to nie, ale do rzeczy typu, bo tu jest jakaś strona i ta strona nie za bardzo chce działać w Safari,
bo tu jest jakaś jedna czy dwie apki, które raz na jakiś czas bym chciał opalić i to działa na Windowsie lepiej, bo tu bym sobie chciał pograć w Hearthstone,
który jest dostępny tylko na Windowsie. Do takich rzeczy to działa super, do tego stopnia, że no ja nie mam jeszcze macOSa 13,
ja na przykład używam kurida do ePubów i ja mam skonfigurowane tak, że ja sobie z Finder’a jestem w stanie otworzyć ePub,
komand strzałka w dół, ten ePub mi się otwiera w kuridzie i mi się otwiera pod komand tab, mam normalnie aplikację kurid i sobie mogę w tym kuridzie tego ePuba czytać.
I co, jak kontrol FM albo zakładkami, procentami to nie czujesz, że to jakoś spowalnia jak po tym pliku, nie wiem, ma milion znaków,
wielka książka i latasz po tym pliku, nie wkurza cię to, rozumiem?
Nie, trochę to czuć, ale to czuć bardziej na zasadzie, nie wiem, Bluetooth to myślę, że przesada, bardziej ludzka synteza, latencja i to taka starszego typu.
Czyli irytuje, ale pracować to się nad tym da pracować, jeżeli nie robimy tego, nie wiem, cały dzień.
I wiadomo, są rzeczy zwłaszcza związane z grami, których nie zrobimy na paralelcach i jeżeli ktoś chciałby albo bardzo ze sobą żarne gry wideo,
które mają jakąś tam dostępność, albo jakieś, nie wiem, gry rytmiczne, czy takie tego typu zabawy, gdzie to musi być wszystko natychmiast
i tu sobie nie możemy pozwolić na opóźnienia, to może być z tym problem.
Ale jeżeli komuś te paralelacje są potrzebne do tego, bo on ma w firmie apkę i ta apka jest tylko jako egzę,
że względnie nie wie mocno drukować na drukarce brajlowskiej, która nie ma wsparcie dla Maca i robi to pięć razy dziennie,
to mu się spokojnie ten paralel przyda i spokojnie mu wystarczy do takich rzeczy.
A jak to jest, a ty masz tak, że generalnie tego paralela masz cały czas w tle, czy jak nie potrzebujesz, to go jednak wyłączasz,
bo jednak on bardzo zamula MacOSa potem?
Nie zamula. Ja do niedawna go miałem praktycznie cały czas w tle, stacjonowałem sobie w domu, bo ten Mac był cały czas podładowarką.
Teraz jak jestem w terenie, to już raczej tego nie robię, staram się tego nie robić, żeby jednak nie zużywać tej baterii,
że jednak jak ja chodzę cały dzień, czasem po 12-13 godzin poza domem, ciągle siedzę z tym Maciem, to żeby mi tej baterii starczyło,
chociaż wrócić poniżej 40% po dniu intensywnego używania to mi się jeszcze nie zdarzyło.
Czyli to jest trochę tak jak Windows Subsystem for Android, czyli możesz mieć pod alt tabem wymieszane aplikacje z jednego i z drugiego, tak?
Zależy jak sobie ustawimy. Zależy jak sobie ustawimy. Możemy sobie ustawić tak, że to jest jedno wielkie okno,
możemy sobie ustawić tak, że my widzimy teoretycznie te ikony pod command tabem i one są w dochu,
ale to jest tak naprawdę nadal jedno wielkie okno i jak my się przełączymy na aplikację, to on nam przełączy tam gdzie trzeba,
a możemy sobie ustawić tak, że te okna będą faktycznie osobnymi oknami do tego stopnia, że my nawet wizualnie jesteśmy w stanie
okno aplikacji wyciągnąć jak poza Windowsa i położyć sobie okienka tak, że po lewej stronie ekranu mamy notatnik,
po prawej stronie ekranu na środku ekranu mamy findera, a po prawej stronie ekranu mamy kurida,
że nie jest tak, że Windows to jest jakby jedno okno i Mac to jest drugie okno i wszystko co jest Windowsem jest w oknie Windowsa,
tylko te okna z Windowsa mogą sobie wyjść na ekran, co w naszym wypadku jedyną różnicą jest to, że widzimy to pod command tabem.
Ja nie zawsze jestem fanem tego trybu koherencji, bo VoiceOver ma na przykład taki problem, że jak zmienia się tytuł okna,
to VoiceOver o tym mówi, a Windows bardzo lubi zmieniać tytuły okna i Windows bardzo lubi na przykład nie wiem,
w Firefoxie, w przeglądarce, co zmianę strony zmienia się tytuł okna, co zmianę folderu w eksploratorze Windows zmienia się tytuł okna
i VoiceOver za każdym razem próbuje coś tam czytać, więc albo wtedy sobie przycinamy tego VoiceOvera, nie jest to trudne,
jest to jeden skrót klawiszowy, albo sobie aktywność tworzymy, albo po prostu nie używamy tego trybu, to wszystko zależy od tego,
co, kto, jak i do czego z tego korzysta, bo to mówię, bardzo, bardzo zależy od naszego zastosowania i od tego,
do czego nam ten wino jest właściwie potrzebny i czy nam ten wino jest właściwie potrzebny.
A jak to jest, bo ty się wyraziłeś, że masz tam, no rozumiem, że w Finderze domyślnie, że ePub się uruchomi w Qridzie,
a gdybyś miał wyłączony paralec, to wtedy on go włączy?
Włączy paralec i otworzy Qridzie.
A, i musisz czekać dłużej, rozumiem.
No dłużej, no wiadomo, 30 sekund trzeba poczekać, żeby ten wino wstanie.
No właśnie zastanowiłem się, czy on go sam włączy, czy będzie włąd, że jakby…
Nie, włączy, włączy.
No no, a jeszcze powiedziałeś, że Mac OS, że nie masz Mac OSa 13, a to w 13 natywnie ePub gdzieś…
Tak, w 12 też jest aplikacja książki, tylko w 12 ta aplikacja książki jest tragiczna.
W 13 ta aplikacja książki jest cudowna, ja ją widziałem w becie, to jest najlepszy czytnik książek,
jaki ja widziałem na jakiejkolwiek platformie do tej pory.
Bo na iPhone’ie te książki uruchomiłem, ale może nie przyłożyłem się, ale też te książki na iPhone’ie w 16,
ja tam nie widzę, różnicy wielkie.
Ja nie wiem, ja nie wiem jak jest z iOS-em, ale z Mac OS-em jest różnica zapewne,
i to mogę powiedzieć i te różnice bardzo widać.
No jedyne co i co mnie bardzo boli, ale to trochę wynika z filozofii Westovera niestety,
że jest nadal problem z czytaniem kodu i jeżeli mamy kod w książkach,
bo akurat nas ta dziedzina interesuje, no a mi się zdarza technicznie czytać,
to nie jest nadal dobra aplikacja, bo ona się porusza nam po paragrafach, nie po liniach.
Czyli tak trochę jak Voice Dream na Maca, czy w ogóle na iPhone’a gdzieś tam.
Jak wszystko, jak voice over.
I tam nie ma na przykład tego, co mamy w Safari, gdzie możemy się poruszać normalnie strzałką góra-dół,
bez voice overa, a w Safari na przykład to mamy i to tam nam rozwiązuje problem.
W iBooks’ach tego niestety nie ma i bardzo szkoda,
no ale do takiego każdego innego typu literatury, nawet naukowej,
a ja bym powiedział, że nawet zwłaszcza naukowej, zwłaszcza typu linki,
przepisy, tabele, nagłówki, to jest coś, czego nam kulit nie przeczyta
i żaden czytnik na Windowsa nam tego nie przeczyta,
bo wyświetli i Query, i Bookworm, i wszystko inne.
Wyświetla nam to w polu edycji tylko do odczytu, więc cały HTML, cała struktura,
nagłówek, poziom 1, tabela, link i tak dalej nam ginie.
Grafika, opisy alternatywne obrazków chociażby, matematyka,
przecież voice over umie czytać wzory matematyczne, umie czytać formuły,
to to wszystko jest dostępne. I co jeszcze?
A, no a na przykład z drugiej strony są te wszystkie apki typu Torium na Windowsie,
tylko że Torium na Windowsie, Torium nie ma i nie będzie miało,
bo taka już jest niestety uroda HTMLa i tego jak się na Windowsie robi
i strony internetowe, i jak one są tam utrugiwane.
Nie ma dobrze działającego wsparcia dla zachowywania pozycji w dokumencie.
O czym mówię, jak jest długi, długi rozdział,
jakby długi, bo w ogóle Torium dzieli książkę na rozdziały
i tam trzeba skakać po tych rozdziałach, to się nie wyświetla w całym dokumencie tak jak powinno,
no ale jest sobie ten długi rozdział, my dojedziemy gdzieś tam do połowy tego rozdziału,
zamkniemy aplikację, otworzymy aplikację, to my wylądujemy gdzieś znowu na początku,
on nie zapamięta gdzie my byliśmy.
W iBooksach my otworzymy, jakby wejdziemy w interakcję ze spisem treści,
klikniemy na rozdział, wejdziemy w interakcję z obszarem książki,
w momencie jak wejdziemy w interakcję z obszarem książki,
kursor będzie dokładnie na elemencie, na główek poziomu 2, rozdział 3.
Ani element w przód, ani element w tył, dokładnie tam.
I to jest jednak ta precyzja, mi bardzo zaimponował ten czytnik,
bo ja nie widziałem do tej pory na żadnej platformie, ani komputerach PC,
ani na urządzeniach mobilnych czytnika, który byłby tak wierny i tak dostępny,
jeżeli chodzi o pliki ePub.
No to świetnie, to pozostaje, no sam jestem zachęcony i już nie mogę się doczekać
na tego macOSa 13, bo tam kilka funkcji, no to mnie tam ta korekta interesuje
i tam jeszcze inne rzeczy, więc no bardzo jestem ciekaw,
jak to wszystko faktycznie będzie działać i pewnie będę zadowolony.
Dobrze, no to ja nie będę dalej przeszkadzał, bo tematów pewnie całe mnóstwo,
to chyba wszystko z mojej strony. Dziękuję.
Dziękujemy również.
Dzięki Michale za telefon. Słuchajcie, i mamy następne telefony.
Dzwonicie do nas i bardzo zresztą dobrze, to proponuję, żebyśmy odebrali,
idąc za ciosem, jeszcze kolejny telefon. Mamy tym razem Wojtka na antenie,
a właściwie z nim się już łączymy i miejmy nadzieję, że za moment się połączymy.
Czy jesteś Wojtku z nami?
Już tak, jestem.
Witaj.
Cekundkę, tylko muszę wyłączyć to okienko, żebym nie słyszał stereo.
Już wszystko jest, tak?
Okej.
Cześć wszystkim. Ja mam do Was takie pytanie, właściwie po prośbę trochę przychodzę.
Mianowicie chodzi o taką rzecz, zaczęły się zajęcia i jak każdy nauczyciel w tym kraju
chce kupić sprzęt do robienia zajęć za własne pieniądze, a tym sprzętem,
którego potrzebuje jest mikrofon. I już Wam mówię, o co chodzi.
Chodzi o taki mikrofon, dzięki któremu ja będę mógł zbierać głosy z całej sali.
Jakiś taki, nie wiem czy to się nazywa, kierunkowy, no taki w każdym razie,
gdzie oni wiadomo siadają gdzieś z tyłu sali, a ja potrzebuję to zebrać,
bo mam część grupy na Zoomie, za granicą.
Ale chcę, żeby słyszeli to, co się dzieje na sali.
Teraz utrzymamy taki sygnał, że nic nie słyszeli, więc nie wiem,
czy macie jakieś połady, żeby to potem dołączyć do komputera,
jakoś szybko zintegrować.
To znaczy, wiesz, z tym jest taki trochę problem, że na większe odległości
to mikrofon jest kierunkowy, bardziej, mniej, zaczyna tracić to jakieś większe znaczenie.
No mikrofon kierunkowy rzeczywiście bardziej odbiera dźwięk z jakiegoś jednego kierunku
niż z pozostałych, natomiast w momencie, gdy to jest duża sala
i w pewnym momencie już tych odbić od ścian ze wszystkich kierunków jest bardzo dużo,
no to właśnie trochę to przestaje mieć znaczenie, jakieś ma, ale nie duże.
W każdym razie, jeżeli to ma być sala, w której jest ileś osób,
one są w różnych miejscach tej sali, no to podejrzewam,
że lepiej byłby mikrofon dookólny kupić.
Natomiast tu też jest kwestia tego, że jeżeli to jest Zoom,
no to Zoom potrafi wycinać różne odgłosy.
Ten dźwięk zawsze będzie właśnie z tym dużym pogłosem tej sali,
który i tak będzie zniekształcał często ten dźwięk i tu może być problem.
Osoby z daleka słychać no słabo, więc tu trochę będzie problem.
Znaczy no rozwiązaniem jakimś pewnie byłoby kupienie kilku mikrofonów,
rozmieszczenie ich w różnych punktach sali, ale to jest znowu to są koszty,
bo te mikrofony trzeba jakoś podłączyć do komputera,
więc trzeba kupić znowu mikser.
Mikser no to znowu, są miksery w miarę tanie, tanie oczywiście jak na miksery,
typu za nie wiem 600 złotych, no ale no właśnie do tych mikserów
trzeba podłączyć kilka mikrofonów, mikrofony no takie powiedzmy tanie pojemnościowe,
no to spodziewam około 100 złotych per mikrofon,
no więc gdyby tych mikrofonów tak kilka no to już mamy 1000 złotych nagle na,
tylko po to żeby było słychać osoby z różnych miejsc,
tak mi się wydaje przynajmniej, nie wiem jaka duża jest ta sala,
ile tam jest osób, czy tam jest osób 15 czy tam jest osób 150,
jeżeli jest 150 no to jest w ogóle trochę problem,
bo podejrzewam, że ta sala może być na tyle duża,
że nawet człowiek mógłby mieć problemy powiedzmy z usłyszeniem kogoś z końca sali,
tak mi się wydaje, przynajmniej może nie to, że problem,
ale no trzeba jakoś się skupić,
a jeżeli to jest jeszcze mikrofon, Zoom, ktoś ma jakieś słuchawki słabe,
mikrofon jest jakiś, no to się zaczyna jeszcze gorzej,
bo nawet jak się nagrywa to na jakimś cestorejestratorze,
to te osoby słychać tak sobie powiedziałbym nieraz,
więc no tu może być jakiś problem i szczerze mówiąc,
jak to jakoś fajnie rozwiązać to trudno mi powiedzieć.
Z tego co ja gdzieś tam pamiętam,
to technika standardowa, którą widziałem stosowaną w takiej sytuacji,
to był po prostu mikrofon bezprzewodowy,
który się podawało do tyłu za każdym razem jak ktoś miał coś tam powiedzieć
i no chyba tylko jedynie w taki sposób.
No jeżeli tak by się dało zrobić, to rzeczywiście to by było to.
Mikrofony bezprzewodowe rzeczywiście są w cenach bardzo różnych,
ale takie systemy analogowe to powiedzmy 300 zł per mikrofon,
to takie najtańsze z tego co mi wiadomo,
przynajmniej takich firm, które są sprzedawane w sklepach muzycznych,
bo no pewnie firm różnych chińskich jest dużo,
nawet na Allegro widziałem jakiś mikrofon, Karaoke dla dzieci,
natomiast no właśnie po pierwsze nie wiem jaki tam może być budżet,
no bo wiadomo im więcej się na to pieniędzy wyda, tym z reguły lepiej.
Są firmy typu Sennheiser, które po prostu robią te mikrofony dobre,
tylko że mikrofony, w ogóle mikrofony bezprzewodowe są kilka razy droższe od przewodowych o podobnej jakości
i technika bezprzewodowa póki co jest dość droga.
Więc no właśnie pytanie, czy można się już zaczepić na jakiejś infrastrukturze,
która tam jest, jeżeli tak to w jaki sposób,
no bo co innego jest jeżeli ma się do dyspozycji smartfon i tyle,
co innego gdy ma się jakiś na przykład system prosty, ale jednak jakiś wzmacniacz czy coś,
no więc to bardzo zależy od tego co już się ma, ile się ma pieniędzy,
jakie to duże pomieszczenie i tak dalej i tak dalej.
Tak szczerze to w sumie zamiast kupować bezprzewodowy mikrofon,
to zawsze można wpaść na szalony pomysł i kupić na przykład jakiś tam mały głośnik,
który by jakby dawał zwrotkę na całą salę z tego co się dzieje na Zoomie
i jakiś używany telefon nawet, który po prostu będzie robił za mikrofon
i ten telefon się będzie gdzieś tam podawało, no jest to jakaś oszczędność,
gdyż ta jakość nie będzie taka ryzykowna jak w jakichś mikrofonach,
które będą stawiały głównie na niską cenę.
No właśnie to wszystko zależy od tego ile można wydać pieniędzy na to.
No tak, kocham moją pracę, kocham pracować z tymi ludźmi,
ale myślę, że dwóch tysięcy to bym nie wydał z własnej kieszeni,
bo myślę, że nikt mi tego nie dofinansuje,
więc muszę to załatwić we własnym zakresie.
Jeśli chodzi o infrastrukturę, to jest ona żadna.
Teraz się przeprowadzamy do nowej części budynku trochę po trochu
i mam na przykład jedno takie duże zajęcia i tam nie ma nic oprócz projektora
z wystającym kablem HDMI, podobno biurko przyszło w tym tygodniu.
Także to są takie warunki dość polowe.
Są jakieś głośniki reklamowane jako głośniki konferencyjne
właśnie do tego typu zastosowań teoretycznie.
Natomiast jakie one są jakości, co one potrafią, to nie wiem,
ale teoretycznie one są projektowane właśnie po to,
żeby móc się wpiąć do jakiegoś systemu, do Zuma czy tam do czegoś.
Mają tych mikrofonów kilka, nieraz.
One są w różnych cenach od kilkuset do dwóch, trzech tysięcy albo i lepiej.
Nawet w XCOMie widziałem właśnie głośniki konferencyjne.
Natomiast ja tego nie testowałem w ogóle, bo mi to nie było do niczego potrzebne.
Natomiast jak to ma być, bo gdzie to będzie podłączane, do jakiegoś komputera?
Dla mojego komputera, z którym chodzę, tylko tak, co może być podłączone.
No to jeżeli do komputera, no to jest na przykład taki mikrofon,
to jest odbiornik i nadajnik na baterie.
To się nazywa Toman Wireless chyba, nie pamiętam.
Przepraszam, nie Toman, tylko T-Bone.
Nie pamiętam, jak to się dokładnie nazywa.
W każdym razie to jest, nie, nie pamiętam, jak to się nazywa.
W każdym razie to jest mikrofon taki do ręki, on chyba 250 zł kosztuje odbiornik i nadajnik,
no to ma jakość takiego mikrofonu powiedzmy trochę dynamicznego, ale jest.
Ze smartfonem z jednej strony fajnie, z drugiej strony pytanie, kto zacznie na nim kombinować i coś włączać.
Ja wiem, że można zablokować, włączyć kurtynę, włączyć coś jeszcze,
ale ciekaw jestem, kto mimo wszystko będzie coś tam próbował i pytanie, czy ten smartfon się odzyska.
Tak się zastanawiam po prostu.
Ja myślę, że tak, bo jeśli chodzi o to, żeby Zooma puszczać na salę, to nie ma żadnego problemu,
bo jest jakiś tam, w projektorze jest głośnik, w tej jednej sali, a w drugiej to w ogóle jest nagłośnienie.
To nie jest kłopot, tylko jest kłopot, żeby Zoom słyszał salę.
I ta sala, w której mi na tym bardzo należało, to nie jest jakaś duża sala,
nie wiem, ona może mieć ze 20 m2.
A, to jeżeli coś takiego, to podejrzewam, że jakiś mikrofon na USB,
typu ostatnio też, znaczy ostatnio, jakiś czas temu byłem z niego w tyflu w przeglądzie.
On się nazywa Superlux E205U chyba.
On chyba kosztuje 200 złotych czy jakoś coś koło tego.
On jest co prawda kierunkowy, natomiast on ma dość długi kabel USB,
tam chyba domyślnie jest 3-metrowy kabel.
Można go gdzieś postawić, nie wiem, więcej w połowie sali, tak przodem jakby do wszystkich teoretycznie.
I może jest szansa, że to jakoś ludzi będzie słychać.
Tak mi się wydaje, bo on dość mało szumi, więc można go w miarę fajnie ustawić.
Tak mi się wydaje, może w coś takiego pójść.
Ale nie wiem, bo…
Superlux E205U, tak?
Tak, no, znaczy w ogóle takich mikrofonów jest sporo, więc oprócz niego jest jeszcze kilka takich mikrofonów,
to są dość podobne jakości, oczywiście tam można dyskutować, czy one są trochę lepsze, trochę gorsze,
choć to raczej jest kwestia tego, czy one są lepsze, jak się do nich mówi z bliska
i mają jakieś szczegóły głosu wykryć, natomiast część z nich może być dość podobna
do takiego słuchania wszystkiego, co się dzieje na sali,
tylko pewnie trzeba by też znaleźć taki mikrofon, który ma poziom odpowiednio duży,
żeby to wszystko nagłoślić.
Nie pamiętam teraz, jaki maksymalny poziom ma ten Superlux,
ale może w coś takiego pójść, na co mi się wydaje.
Mnie się też podoba ta idea tego bezprzewodowego mikrofonu, bo to może być nawet fajne.
Ten T-Bone jest właśnie za 250 złotych, on jest chyba na dwa paluszki, odbiornik,
coś podobnego jest w mikrofonie i to rzeczywiście można gdzieś tam podawać,
jeżeli to nie będzie problemu, żeby te ludzie, to na pewno będzie najlepiej słychać.
I to się spina do USB, tak?
To znaczy nadajnik może być na jakiegoś XLRa czy coś,
czyli trzeba by jeszcze znaleźć kartę dźwiękową z wejściem,
możliwe, że duży jack.
Tu jest kilka koncepcji, można pewnie to jakoś próbować,
są takie przejściówki, żeby to wpiąć w to gniazdo słuchawkowo-mikrofonowe,
jako mikrofon, to nie zawsze chce działać.
Są za pewnie, nie wiem, 100 złotych takie, takie coś, co ma właśnie wtyczkę
i z drugiej strony USB i to jest taką kartą, no nie chcę mówić amatorską,
znaczy nie chcę mówić profesjonalną, ale to nie jest taka karta dla Szarego Kowalskiego,
to jest właśnie karta, karty takie mają nieraz, chociaż nawet pewnie można by
kupić jakąś zewnętrzną kartę na USB, która ma wejście pewnie liniowe,
ten odbiornik będzie miał wyjście pewnie liniowe, ale sam nie,
jeszcze nie miałem tego odbiornika w ręku, ale tak mi się wydaje,
że raczej bezprzedowe to chyba mają liniowe wejście, te odbiorniki mikrofonowe,
ale kurczę, ja naprawdę bardzo rzadko korzystam z takich mikrofonów,
to się najczęściej wykorzystuje w jakichś sytuacjach nagłośnieniowych,
a ja się tym nie zajmuję praktycznie w ogóle, więc to mi tylko gdzieś tam przy okazji gdzieś tam…
Ale taka koncepcja, Tomku, z nadajnikiem, który podpinamy do jakiejś przejściówki
XLR na USB, to wydaje się sensowna.
Tak, tylko powinno się znaleźć konkretną przejściówkę, podejrzewam,
jakby się zadzwoniło do sklepu muzycznego, sklepów jest dużo.
Ja w sumie teraz też tak zobaczyłam, jest muzyczny.pl, taki sklep właśnie,
i teraz to jest jeden z popularniejszych sklepów w Polsce.
350 złotych z jakichś Sanson, to jest właśnie z odbiornikiem na USB, czyli są.
No to może nawet, no to widzisz to.
Tak, to jest też jedna z firm, które produkują zresztą mikrofony, więc to nie jest żaden no-name.
Sanson XP-D1.
To w ogóle ta sama firma, która produkuje rejestratory pod marką Zoom.
No to dobre rejestratory przecież, można się skłócić na coś takiego.
Także może być, że ten mikrofon będzie w miarę…
No właśnie, także jest, może tam w ogóle zadzwonić do takiego sklepu,
myślę, że oni mają sporo tego typu zamówieni i się też tam zapytać, co oni by polecali.
A poza tym to ma jeszcze świetną zaletę, a mianowicie, że przestaje być uwiązany do biurka
i mogę chodzić z tym mikrofonem podczas wykładu, bo wiecie, to warto też sprzedać.
Bo do wykładów są zawsze takie mikrofony nagłowne, które się zakłada tak na ucho,
wystaje z przodu takie coś i wtedy nawet nie trzeba było go trzymać w ręku.
Ręce wolne, wszystko wolne, mikrofon siedzi sobie na uchu,
jak trochę taka słuchawka, tylko z takim pałączkiem do przodu.
I to są właśnie mikrofony nawet, tam jest często, one mają w opisach,
że to jest dobre dla wykładowców, do tego typu zastosowań.
Te tanie oczywiście mają z reguły jakoś transmisji sportowych, czy coś tego typu,
ale no, dźwięki zrozumiały, jak najbardziej.
To jest ciekawy pomysł, ale tylko z notatnikiem Brajlowskim,
bo tak to by trzeba było jeszcze chodzić z klawiaturą i mieć z komputera odbiór syntezymowy,
więc to już by była większa, myślę, zabawa, ale kiedyś tak poprowadziłem semestr
jeszcze w czasach przedpandemicznych z notatnikiem Brajlowskim.
I taka ciekawostka, że potem, kilka lat później o tym rozmawiałem
z uczestniczkami tego kursu i właściwie mówimy, że myśmy to w ogóle nie ogarniały,
jak ty to robisz, że ty cały czas cytujesz jakieś prace, jakieś coś
i chodzisz po prostu z tą maszynką małą i ty wszystko tam masz.
Także takie to było ciekawe, myślę też dla nich doświadczenie,
może też takie pouczające bardzo, ale to fajnie, dzięki wielkie za te opcje.
Ja myślę, że na tej dużej sali, gdzie ona jest na sto, tam kilkadziesiąt osób,
to ja mam z osiemdziesiąt osób, to w ogóle w życiu to nie jest takie,
że można to załatwić. To z tym się godzę, ale tam jest wykład.
Natomiast ta praca w grupie, to fajnie by było, żeby się wszyscy słyszeli,
ewentualnie jakbym to nagrywał, to też dobre by było.
Także dużo fajnych pomysłów i coś na pewno wybiąłem.
Także nie tylko ja, ale też…
Często sklepy muzyczne mają taką świadomość, że nieraz ludzie chcą testować takie rzeczy.
Nie wiem, czy dla firm też mają testy, ale nieraz można to wziąć na jakiś tam tydzień
czy coś i sobie tam sprawdzić, czy dwa. No i tak.
Fajnie, fajnie. To jest dużo ciekawych opcji, to będę eksplorował.
Jak coś wymyślę i z czegoś skorzystam, to obiecuję się podzielić wrażeniami.
A to na pewno się przyda.
Ciekawe będzie doświadczenie dla nas wszystkich.
Fajne chyba mieć coś takiego na przyszłość.
Ale też mnie zainspirowaliście do jeszcze jednej rzeczy.
Jak będę najbliższym, najbliższą razem, jak będę gdzieś tłumaczył na żywo,
to się technika podpytać, bo on może być właśnie oblatany w tym,
jak się tam podłącza na konferencjach.
Może być. Choć jest szansa, że może być oblatany w tych drogich systemach.
Może coś poleci, ale ciekawe kolejny taki moment, żeby coś nowego dowiedzieć.
Nie zabiorą wam czasu, ale bardzo, bardzo dziękuję, bo to ważne dla mnie.
Sam nie miałem pojęcia, jak się to w ogóle zabrać, a teraz tyle pomysłów jest,
że nie wiadomo, który wygrać.
Także dzięki serdecznie.
Dziękujemy również.
Dzwonicie państwo do nas bardzo i bardzo się z tego cieszymy.
No to w końcu, no właśnie, Tyflon Przegląd w kolejnym miejscu,
czyli na Telegramie.
Kanał na Telegramie.
No nie wiem, Paweł, Paulina, bo wiem, że tutaj Paweł…
Miałam przejąć, bo Pawła wtedy akurat nie było,
ale że już jest, no to…
Jest OK.
Nie ma co wiele mówić, jest.
W komentarzu będzie podany link.
Jest to kanał zresztą inicjatywa naszego kolegi,
też edukacyjnego Huberta Killera, Ofa, Goda, Mayera,
który wrzuca na ten kanał wszystkie po prostu linki,
z których my korzystamy, czyli to, co wy znajdujecie w komentarzu pod audycją.
Gdyby ktoś chciał być z tym bardziej na bieżąco i może w przyszłości
nawet do konkretnych artykułów jakieś dyskusje prowadzić,
to jest jeszcze rzecz, która jest w tym momencie rozpracowywana,
jak to ma działać,
no to kanał tyflonprzeglad, t.me, ukośnik tyflonprzeglad się poleca.
Właśnie przed chwileczką wleciały, widziałem wszystkie linki
z odcinka poprzedniego, który od kilku godzin jest właśnie na stronie,
więc możecie tam zasubskrybować i być na bieżąco z tym,
o czym mówimy, gdyby Was bardziej interesowały artykuły,
niż słuchanie naszych omówień tych, czy powiedzmy linki do projektów.
Wszystko możecie sobie tam podejrzeć.
Korzystając z okazji, bym jeszcze się na momencik dopięła z informacjami
na temat Tyflo Polski.
Jest to grupa na Telegramie, która jednoczy osoby niewidome.
I tam kiedyś mieliśmy taką komendę, która w bocie wywoływała informacje
o tym, co w Tyfloradiu będzie na bieżący tydzień w audycjach,
natomiast wycofaliśmy się finalnie z tego pomysłu,
ponieważ użytkownicy nadożywali tej funkcji.
No i już teraz tego nie ma, tym niemniej zapraszam.
t.me.pl
No cóż, mamy kolejnego słuchacza, ale słuchacz zdaje się nieokiełznał.
Zuma Bobo22 z nami jest, ale czy się uda podłączyć do nas?
No i jeszcze dźwięk z komputera wyciszony, więc musiałbyś jeszcze zaakceptować
ten fakt, że transmisja jest nagrywana, no i możemy porozmawiać.
Więc chwila na ustawienie.
Chyba że spróbujemy jakiegoś pierwszego newsa, na przykład twojego.
Pierwszy news z Tyflowieści w ogóle.
Już by ponad półtora godzina audyt zminęło.
Ale to dzięki wam, słuchacze, bo do nas dzwonicie i tak jak powiedziałem,
bardzo się z tego cieszymy.
Rozpoznawanie mowy. O tym niedawno było, to teraz znowu może być,
bo podobno ma być jeszcze lepiej.
Michale, coś tu o tym wiesz.
Tak, a to się dzieje dzięki Uniwersytetowi Illinois, który to ma zamiar rozpocząć
realizację projektu, którego celem jest poprawienie rozpoznawania mowy,
ale właśnie poprawienie rozpoznawania mowy wśród osób, które z tą mową mają problemy.
OK, powiedzmy, że jeszcze zwłaszcza dzięki projektowi Whisper, który prezentowaliśmy,
to rozpoznawanie mowy jest już całkiem niezłe, ale nadal problematyczne jest to,
jeżeli ktoś z tą mową ma problem z różnych względów.
No i dzięki temu projektowi, który tak jak wspomniałem na Uniwersytecie Illinois
jest realizowany, ma się to zmienić.
A to jest w ogóle projekt, w który włączyło się sporo dużych graczy,
bo mamy tu Amazon, mamy Apple, Google, Metę, czyli Facebooka, Instagrama i WhatsAppa
i kogo jeszcze, jeszcze Microsoft mamy.
I oni wszyscy ponoć zaangażowani są w rozwój tego projektu.
Jak to będzie wyglądało w praktyce?
No to zobaczymy oczywiście, jakie to będzie zaangażowanie.
Czy dają tylko swoje logo i markę, czy faktycznie jakiś intensywny research
będzie za tym wszystkim szedł.
Ale o co tak naprawdę chodzi?
No być może już się niektórzy ucieszyli, ale teraz będę was martwił,
bo to jest informacja ze Stanów Zjednoczonych,
no więc jak na razie będzie ten projekt dotyczył przede wszystkim języka angielskiego.
Tam nawet w opisie projektu było napisane American English,
więc tej odmiany amerykańskiej, no bo w końcu mają najbliżej takich uczestników,
więc pewnie dlatego, później prawdopodobnie będą realizowane też inne języki,
ale przynajmniej na razie chcą nagrać, najpierw znaleźć w ogóle osoby,
które mają problemy, różne problemy z mową, które mówią niewyraźnie,
z którymi no może nawet i ciężko się niekiedy porozumieć,
czyli coś takiego, co tworzy też Mozilla Common Voice.
Natomiast tutaj celowo będą szukać tych konkretnych osób.
Będą im nawet płacić za udział w tym projekcie.
Nie znam stawek, więc nie wiem jak to będzie wyglądało,
ale fakt faktem, że opłacane te osoby będą
i ich zadaniem będzie nagranie różnego rodzaju próbek.
Przypuszczam, że to będzie wyglądało właśnie podobnie jak w przypadku Common Voice,
czyli trzeba będzie przeczytać ileś różnych zdań.
No i cóż, i w momencie przeczytania tych wszystkich zdań zostanie to nagrane,
zanonimizowane, a później silniki rozpoznawania mowy
będą na tym trenowane właśnie po to,
żeby po prostu to rozpoznawanie mowy było jeszcze lepsze.
Także tak to wygląda. Na razie to są zapowiedzi
i na razie nie mamy jeszcze efektów.
Kiedy te efekty zobaczymy, tego nie wie nikt,
ale fakt, że się tutaj zaangażowało sporo dużych firm informatycznych,
no to może budzić nadzieję na jakiś też sukces taki komercyjny tego przedsięwzięcia,
a nie tylko na zasadzie, że zróbmy kolejny projekt naukowy,
który zamkniemy w szufladzie i z którego później niewiele będzie.
Ja trzymam za to kciuki, żeby to po prostu wszystko się powiodło.
To zmieniamy temat, choć w sumie niekoniecznie,
bo nadal jesteśmy w kwestiach około tekstowych,
ale tym razem iPhone i edycja tekstu z poziomu wejścia ekranu Braila,
bo okazuje się, że no jest, da się, da się.
O, chyba się udało.
Chyba się udało.
To może przepuścimy.
Tak.
Dzień dobry.
Dzień dobry, dobry wieczór.
Pierwsza wiadomość to, co do stadii. Stadia się zwija.
Stadia się zwija.
Tak, Google Stadia kończy działalność.
To zostało ogłoszone, to prawda.
Oni teraz chyba idą w jakieś chmurowe granie na Chromebookach,
jakieś próbują robić coś.
Tak, nawet Acer będzie wypuszczał.
I wszystkie, i wszystkie pieniądze, nie martwcie się,
wszystkie pieniądze za te gry i za subskrypcje będą wam zwrócone.
I chciałbym też się podzielić doświadczeniami z nowego takiego serwisu
xCloud.
To jest fajny serwis według mnie, jak ktoś ma Game Passa.
Na przykład możemy grać w Mortal Kombat bez karty graficznej.
I gdziekolwiek jesteśmy przez sieć po prostu,
nawet jeżeli nie mamy dysku, po prostu kupujemy Game Passa.
Wchodzimy na aplikację Xbox w granie w chmurze,
musimy mieć kontroler i działa.
Działa to super.
Jak to wszystko wygląda z takiego dostępnościowego punktu widzenia?
To wszystko dla nas jest odczytywane przez program odczytu ekranu?
Czy musisz coś tam na przykład posiłkować się OCR-em w jakimś miejscu?
Jak to jest?
No to jest tak, że cały interfejs aplikacji przed grą jest odczytywany,
a potem najlepiej naciskać od razu A.
Wtedy powinno być coś takiego jak Conquer.
Potem przesuwamy się w prawo albo chodzimy w to Conquer
i dalej tak to powinno działać.
Czyli poza Mortalem raczej w nic nie pogramy?
Czy coś jeszcze jest ewentualnie?
Może jakby ktoś się posiłkował OCR-em i włączył dostępność,
to może coś tam jeszcze strategicznego.
Albo jakby ktoś miał angielski to może jakiś Minecraft Dungeons by się udało,
nie wiem, tak do końca, ale raczej Mortal Kombat.
Można próbować z innymi grami.
Dobrze, czy coś jeszcze masz dla nas jakieś nowości?
No głównie to, że się stadia zwija.
No i to jest trochę smutne, bo od Google’a.
No smutne jest, ale podejrzewam, że coś nowego na miejsce tego powstanie,
także myślę, że niedługo trzeba będzie czekać.
Natomiast Google w ogóle znany jest z tego, że ma bardzo dużo różnych projektów,
które uśmierca. Gdzieś nawet jakaś taka strona chyba jest w internecie.
Cmentarzysko projektów Google.
Tak, słyszałam o tym.
I jeszcze to jest, jeżeli o tym nie mówiliście,
że Google Hangout zmienia się na Google Meet 2, coś takiego.
A to już jakiś czas temu zdaje się mówiliśmy o tym.
Tak, zapomniałam o tym.
I w ogóle dziękuję, że mnie wpuściliście.
Tyle tu siedziałem w tej poczekalni.
No cóż, niestety kolejka jak widzisz jest, ale całe szczęście udało nam się porozumieć.
No i całe szczęście udało ci się skonfigurować Zuma.
Dobrze, to dziękujemy ci bardzo w takim razie za telefon.
No i do usłyszenia.
Do usłyszenia.
Dobrze, to w takim razie przystąpmy do dzieła.
Jeżeli ktoś ma iPhone’a i używa wejścia ekranu Braila,
to prawdopodobnie wie, że edycja tekstu w takim trybie jest dość utrudniona.
Bo należy normalnie przestawić pokrętło,
wyjść z tego trybu i tradycyjnie wejść tam w edycję,
coś zaznaczyć, ewentualnie znaki, wyrazy,
tymi tradycyjnymi metodami się przemieszczać po tekście,
zlokalizować to miejsce, gdzie chcemy coś wstawić, usunąć.
No i możemy usuwać wtedy też tradycyjnie,
ale jak chcemy Brailem pisać, to musimy znowu wrócić do wejścia ekranu Braila.
Na Androidzie sprawa miała się historycznie dość prościej i dużo lepiej,
bo większość tych aplikacji, które oferowały wpisywanie Brailem,
oferowały też gesty, które pozwalały na nawigację od razu,
bezpośrednio z poziomu właśnie tej klawiatury,
bez konieczności wychodzenia z niej,
przez co wszystko działo się dużo szybciej
i sprawdzanie tekstu na okoliczności różnych literówek i innych błędów
odbywało się dość szybciej, dość dużo sprawniej.
No i okazuje się, że taki sposób nawigacji i edycji tekstu
również jest dostępny w wejściu ekranu Braila,
o czym zdaje się niewiele osób w ogóle wiedziało,
bo kiedy opublikowałem tutorial na Apple Viz,
no to nagle mnóstwo osób takich, które pisały poradniki o wejściu ekranu Braila,
które znają się na ogół na tym iPhone’ie,
były zaszkoczone, że takie coś w ogóle istnieje
i przez te osiem lat nikt się nie zorientował.
Ja odszukałem to przez jeden z niemieckich podcastów dla niewidomych,
przez podcast Apfel-Fleger,
więc tutaj wszystkie podziękowania dla Jurgena Flegera,
który to odkrył, znaczy odkrył to jego znajomy,
a Jurgen to upodcastowił, tak to mówimy.
No i zdaje się, że właśnie odkryłem jakiś taki lifehack,
jest już też na Tywtoświecie artykuł o tym,
gdybyście chcieli poczytać,
natomiast ja mogę wam to pokrótce zademonstrować.
Pouważam, że jest to bardzo fajny lifehack
i warto się nim zainteresować.
I tak to wszystko wygląda.
Otwieramy sobie pole edycji, dowolne pole edycji.
Przechodzimy w tryb wejścia ekranu Braila,
przekręcając pokrętło.
No tak, ja piszę ze skrótami w ogóle ostatnio,
więc tu trzymajcie kciuki za mnie,
bo uczę się tych kontrakcji polskich i tych skrótów,
które są szalenie produktywne,
zwiększają produktywność i przyspieszają pisanie,
więc polecam się nimi zainteresować,
natomiast jak ktoś nie zna podstaw,
można pominąć wiele ciekawych lifehacków i w ogóle uproszczeń.
Podstawowe pytanie w takim razie skąd się uczyć?
No właśnie, mam wrażenie, że ci, którzy znają to znają,
ci, którzy nie znają to nie znają.
Wiele można sobie wypracować kombinując i eksperymentując,
natomiast nie wszystko, bo jak się okazuje są skróty wyrazowe,
są skróty początkowe, wśródwyrazowe, skróty końcowe
i pewne rzeczy mają różne funkcje w zależności od tego,
czy są w środku wyrazu, czy na końcu.
Najprościej byłoby powiedzieć to,
że najlepiej porozmawiać ze znajomymi, którzy już to ogarniają,
natomiast to nie jest odpowiedź,
którą chciałbym udzielić, bo fajnie by było.
Ja myślę, że warto by stworzyć taką tabelkę po prostu,
najprostszą możliwą, z tymi skrótami po prostu takie, jakie one są,
bo ona i dla polskiego, i nawet dla angielskiego również
by się mogła przydać, bo o ile w angielskim jest na to materiał,
to to jest nadal kurs całego Braila,
a nie ma takiego prostego materiału, gdzie sobie możemy wejść
i przeczytać po prostu listę, ani dla żadnego z tych dwóch języków.
No, póki co pozostaje nam chyba learning by doing,
czyli siadamy, otwieramy sobie dowolne pole edycji
i wpisujemy różne rzeczy i sprawdzamy, co się stanie.
Ale my nie po to się tu zebraliśmy, zebraliśmy się po to,
żeby zobaczyć, jak się da edytować.
Więc ja napiszę tutaj coś, napiszę sobie Tyflo Pokal, bo tak.
I z tego Tyflo Pokalu będę chciał zrobić Tyflo Podcast.
No i teraz, jak do tego przystąpić?
Kładziemy palec na dowolnym punkcie na ekranie, może być jeden,
może być ich więcej, ale kładziemy jeden.
I słyszymy dokładnie, słyszymy tego typu piski.
Co ciekawe, nie musimy czekać na ten drugi pisk i na eksploracja,
tryb eksploracji punkt jeden.
Wystarczy, że ten pierwszy pisk już się rozlegnie
i możemy stosować takie skróty.
Teraz uwaga, ja używam iPhone’a 13 mini, iOS 15.6.1
i tryb ekranu z przodu, więc te gesty mogą się trochę różnić
i z tego, co czytałem, mieć więcej sensu nawet w trybie tym takim stołowym,
kiedy telefon leży przed nami.
Natomiast ja go trzymam tak i w tym układzie tak.
Gest pionowego pociągnięcia trzema palcami, czyli jakby od siebie do siebie,
przełącza nam szczegółowość i to jest pierwszy krok,
który musimy podjąć, żeby w ogóle cokolwiek zrobić.
W trybie eksploracji jeden, wiersze, znaki, wyrazy, wiersze, znaki.
Mnie interesują znaki, no bo ja bym chciał jednak
gdzieś tam zmodyfikować ten pokal nieszczęsny, który tu wpisałem.
No i teraz jak to ja robię?
Trzymając dalej oczywiście ten palec,
te gesty wykonując cały czas trzymałem palec na ekranie,
dwoma palcami przesuwam teraz poziomo.
Poziomo, czyli w stronę ładowarki i odładowarki.
Uwaga, przesuwam w prawo.
Wydawało mi się, że będę szedł do tyłu,
ale nie, idę w prawo do przodu,
a w lewo idę do tyłu, czyli przesuwając jakby od siebie.
I coś tu się wydarzyło niezgodnie z planem,
bo no właśnie, bo nie słychać tego, a ja tu wpisałem pewne rzeczy.
Zobaczmy co się stało.
Spróbujmy jeszcze raz.
Pytanie Pawle, czy nie byłeś w trybie skorupów i czy wpisali spację,
żeby przetłumaczyć słowo?
I tu ważna uwaga, ten tryb jest pełen chochlików,
kiedy używamy kontrakcji, więc dzięki Mikołaju, że zwróciłeś uwagę.
Miałem o tym wspomnieć, a nie zorientowałem się w porę.
Kiedy piszemy z kontrakcjami,
dopiero po zrobieniu spacji pojawia nam się słowo.
Dopóki nie zrobimy spacji, to jest tylko kupa kombinacji punktów,
które wpisaliśmy.
Z tego wynika kilka spraw, ja za chwileczkę o nich opowiem.
Pierwszą z nich jest to, że żeby słowo było słowem,
musimy wstawić spację.
Dzięki Mikołaju, cenna uwaga.
Raz jeszcze przytrzymuję palec i przesuwam dwoma palcami.
I teraz właśnie w prawo idę do tyłu, w lewo idę do przodu.
Więc teraz przesuwając się poziomo dwoma palcami w prawo idę.
I gdybym puścił teraz kursor, to tutaj mogę coś pisać,
bo wpuściłem kursor tu.
I teraz będę pisał co? Za tym P pewnie, czy przed tym P?
Zobaczmy.
A, znowu nieszczęsny.
I znowu, teraz tu wstawię znak.
Dopiero jak dam spację, to wstawiłem jakąkolwiek literę.
No bo nawet jeżeli przemieszczę kursor, to tak naprawdę
dopiero to liczy się jako nowe słowo w trybie z kontrakcjami.
Ja może te kontrakcje wyłączę, bo one nam na razie tylko przeszkadzają.
Dokładnie.
I napisałem sobie tyflo z pokal, pewnie prawdopodobnie.
Tak, czyli jak nastawiłem na P, to wpisuję przed P.
Jeżeli idę od tyłu, jeżeli idę do przodu, pisałbym pewnie po.
No tak działa kursor w iOSie.
I teraz chciałbym ten spokal zamienić na podcast.
Jak ja to robię?
Nie dwoma, a trzema palcami przemieszczam się teraz poziomo,
czyli doładowarki i odładowarki. I co się dzieje?
Tego nie chcę, bo to zaznaczę jakieś olf z tyflo. Odznaczam, ale…
Zaznaczyłem ten spokal i teraz napiszę…
I mamy, pięknie.
Dokładnie.
Te cztery gesty, czyli pionowe przesunięcia dwoma palcami
i poziome przesunięcia dwoma i trzema, to są te gesty, które należy opanować,
jednocześnie trzymając drugą ręką jakiś punkt na ekranie.
W tym momencie możemy nawigować po całym polu edycji,
dokonywać różnych edycji, wstawień, usunięć, przesunięć kursora.
Co więcej, kiedy wejdziemy sobie w ustawienia voice overa,
w sekcję polecenia wejście ekranu Braila,
możemy sobie również przypisać gesty na kopiuj, wklej, wytnij, cofnij.
Polecam cztery palce, bo są domyślnie wolne.
No i co mogę więcej powiedzieć?
Ten tryb działa, nie jest to może jakiś niesamowicie ukryty life hack,
ale zdaje się, że wiele osób, jak nie większość, po prostu o tym nie wie.
Ja też o tym nie wiedziałem, odkryłem to przez przypadek
i uważam, że jest to moje odkrycie tygodnia,
bo to jest coś, czego bardzo mi brakowało z Androida.
Tak szczerze, to mi się wydaje, że to jest mega niestabilne.
Jak trzymam telefon w tym trybie ekranu z przodu
i na przykład piszę w autobusie, stojąc i trzymając się łokciem,
to gdybym jedną ręką trzymała jeden palec,
a drugą ręką trzyma, dwoma palcami jakoś lawirowała
i ktoś by na mnie wpadł, to bym mogła mieć po telefonie.
Ale inaczej, to jest tryb pisania braille’em,
a jeżeli robimy to w trybie pisania braille’em,
to i tak używamy dwóch rąk, żeby odchodziwać tryb pisania braille’em.
Tak, inaczej rozumiem, ale jeżeli mam…
Poza tym trybem pisania braille’em, to możemy robić pokrętłem.
Znaczy ok, ale wtedy wiadomo, że trzeba wyjść z tego, przejść, kręcić.
Ale chodzi o to, że jak piszę braille’em,
to cały czas obydwie ręce mają kontakt stały,
stykają się z krawędzią urządzenia w tej samej pozycji,
więc mogę pewnie chwycić telefon.
Znaczy no cóż, ja też w sumie nie widziałam tego na żywo
i tak na gorąco myślę o tym.
Nie, wiesz co, znaczy tak, zależy jaki masz styl,
w ogóle trzymanie telefonu w pisaniu braille’em,
to jest coś, co mi się ciężko tłumaczy przez podcast.
To pokazuje, że jak komuś to pokazuje na żywo,
a to to jest takie proste.
Nie, ja dalej mogę między kciukiem i małym palcem ściskać telefon,
bo ja tak zawsze robię, nie trzymam w kłębie,
tylko ściskam małym i kciukiem po obu bokach,
poprzeciwległych bokach i trzy palce są zawsze na ekranie.
Bo ja jakby trzymam telefon na zgięciu,
tak tam, gdzie się, u nasady palców, jakby to nazwać.
To ja tak bardziej w środku dłoni, ale no tak.
No to ja właśnie też tak, w środku, w środku dłoni.
No tak, to może ja mam chłodsze palce i to się da,
ale no nie wiem, moim zdaniem fajny system,
zwłaszcza, że można robić bezpośrednio z tej klawiatury
i fajnie, że to jest, bo wiele osób mam wrażenie
tego gdzieś szukało, a teraz znalazło.
Przecież nie, w sumie jak tak, teraz wzięłam telefon.
No.
Nie, to nie jest tak źle, tylko myślałam,
że będzie trzeba obracać ręką albo coś.
Nie, to tam naprawdę można.
Nie, to nie jest tak najgorzej w sumie.
Po prostu cztery kierunki po prostu wykonujesz,
te przesunięcia różne, więc…
Nie no, to ok, to w sumie…
Te palców nie musisz zmieniać w pozycji.
Niewiele się różni.
Jak się popatrzyłam na telefon, to to już jest ok,
ale jak tak o tym słyszałam, że jedną ręką coś tam,
drugą coś tam, to myślałam, że ten telefon
będzie taki bliski wypadnięcia.
Nie jest aż tak źle, nie jest aż tak źle.
Naprawdę się da.
Gorzej te cztery palce potem do tych różnych
kopiowań, wklejań, bo to już trzeba naprawdę
sobie wymyślić jakąś technikę,
ale mówmy się, że takich operacji nie robi się
aż tak często i wątpię, żeby ktoś miał potrzebę,
chociaż, no, lubię być zaskoczonym,
żeby ktoś potrzebował kopiować, wklejać, wycinać,
stojąc w autobusie i coś pisząc.
No, ale, ale kto wie.
Natomiast, no, miłego używania
i też będzie opublikowany wkrótce,
już na Tywroświecie artykuł jest,
a wkrótce będzie też materiał u Piotra Witkan
w jego szufladzie.
Kolejnym newsem jest seria newsów,
teoretycznie seria newsów,
krótkie wieści od Mikołaja,
natomiast krótkie newsy, małe newsy od Mikołaja,
natomiast jest wpisany tam tylko jeden news,
nie wiem, czy tak faktycznie jest,
czy tylko tam jest wpisany jeden,
ale w notatkach jest jeden wpisany.
Ja będę miał też swoje chyba dwa albo trzy,
więc się może podepnę potem po Mikołaju,
więc będzie taka dłuższa sekcja.
No nie, tam są chyba dwa, dwa są.
To jest tak, pierwsza rzecz,
one password dla iOSa,
to jest manager haseł,
który był znany trochę z tego,
że niewinni go używali.
W wersji ósmej dostał sporo problemów z dostępnością,
podobno w betach jest teraz lepiej
i wrócił gdzieś tam do tego,
z czego go znali użytkownicy,
czyli do używalności,
bo tam przy wersji ósmej podobno były takie problemy,
że nawet hasła nie dało się przeczytać
i wiele osób straciło zaufanie do tej aplikacji.
Podobno się pojawiła aplikacja na Windowsa
i nie tylko zresztą na Windowsa.
Nazywa się on Diarium
i służy do prowadzenia dziennika.
Jeżeli ktoś lubi sobie w jak pamiętnie pisać,
to może to robić w tej aplikacji.
Aplikacja jest podobno na Windowsie i iOSie dostępna.
Jest też wersja na Androida,
tylko że osoba wrzucająca to info nie ma Androida,
żeby to testować.
Więc wiemy o Windowsie i iOSie.
Ale to jest jak rozumiem do prowadzenia takiego typowego dziennika dla siebie,
nie jakiś klient blogowy.
Nie, z tego co wiem nie.
No i też na Macu i iOSie mamy aplikację DayOne,
którą ludzie polecają i która też jest podobno dostępna.
I czy ja coś jeszcze tu mam?
Nie wydaje mi się, ale zobaczymy.
Nie, nie mam nic więcej.
To ja w tym momencie przejmę.
Ode mnie dwa jak się okazuje newsy,
bo trzeci już się w biuletynie gier zdążył pojawić.
Więc po pierwsze najnowsza wersja aplikacji w Wikipedii na iOS
w swoim changelogu ma informacje o poprawkach dostępności.
Warto wiedzieć, nie wiadomo jakiego rodzaju są to poprawki,
natomiast ja zawsze o tym wspominam, bo warto myślę zwracać uwagę na aplikacje,
gdzie o tym się świadomie myśli i nad tym pracuje.
Jest to wymieniane w liście zmiana, nie że gdzieś tam ogólne poprawki i usprawnienia.
Więc jeżeli jakieś, doświadczaliście jakichś problemów z Wikipedią na iPhone’ie,
to teraz powinno być lepiej.
Natomiast jeśli chodzi o jeszcze jedną nowość, która wyszła,
jest to dodatek do NVIDIA, autorstwa Abeki Gozaliszwiliego.
CPUmon, czy też CPUmonitor i jest to dodatek, który pozwoli nam kontrolować,
co sprawia, że nasz procesor cieszy się taką popularnością
i takim potężnym zużyciem, jakim się cieszy.
Działa to tak, że ustawiamy sobie procentowy próg,
od którego wtyczka ma nas informować o zużyciu
i dostaniemy wtedy informacje o tym, który proces odpowiada za najwięcej zużycia,
czyli powiedzmy procesor jest obłożony w 80%.
Później taki jeden z bardziej ekstremalnych wariantów.
No i automatycznie, gdy taka sytuacja miała miejsce,
usłyszymy nazwę procesu, który nam takie przyjemności zafundował.
Myślę, że jest to ważne, zwłaszcza kiedy z niewiadomych przyczyn
mamy nagle jakieś podskoki w zużyciu procesora.
Wtedy dość szybko możemy zidentyfikować sprawcę.
Nie wchodząc za każdym razem w manager zadań, jeszcze poczekać,
aż to się odmuli, aż screen reader do nas przemówi,
gdzieś tam przejść na zakładkę, jak ktoś nie ma domyślnie tej właściwej,
jakieś przesortować według procesów, strzałkami chodzić.
Tutaj mamy od razu informację podaną, więc mam nadzieję, że komuś taki dodatek się przyda.
To od razu mój protip może.
Przepraszam, że się wcięłam, ale właśnie to często proponuję użytkownikom,
co odkryłam długi, długi czas temu, którzy tęsknią ze starym menadżerem zadań
albo, co gorsza, instalują jakieś dziwne programy, które nadpisują
ten nowy na ten stary i coś tam.
No właśnie, sposobem na to jest ustawienie sobie.
To jest w menu pod Altem.
Tam są opcje i jest ustaw karty domyślną rozwijane
i wybieramy sobie szczegóły.
I dzięki temu po pierwsze mamy właśnie dużo szybciej chodząc ten menadżer zadań,
po drugie przywraca nam się ten tradycyjny wygląd, tradycyjny wygląd.
Trzeba jeszcze sobie dać przycisk więcej szczegółów chyba,
ale tak ogólnie raz się to skonfiguruje i już później jest z głowy.
No proszę, jest jeszcze inna wtyczka, nie, nie wtyczka, samodzielny program,
nie pamiętam, jak on się nazywa, Harm coś tam, nie pamiętam.
Harm 2.
Tak, i to jest też taki, powiedzmy, że taki monitor pracy procesora,
dysku, nie wiem czy nie czegoś jeszcze, chyba czegoś jeszcze.
Chyba jeszcze RAMu.
Chyba jeszcze RAMu.
Działa to na troszkę innej zasadzie, bo tam to wygląda w ten sposób,
że są podpinane różne dźwięki pod zużycie procesora
i tam w dodatku jest jeszcze kilka schematów dźwięków typu wulkan, stadion,
jakieś wieczne chyba dzwonki, coś tam jeszcze, można tworzyć własne schematy.
No i jakby koncepcja jest taka, że im bardziej nam dźwięk szaleje,
im jest głośniejsze, z reguły, bo to są różne te schematy dla niektórych,
jest tak, że na przykład im jakiś dźwięk jest wyżej,
tym jakiś tam procesor właśnie czy RAM czy dysk jest bardziej używany,
tam się ta, to jeszcze rozłożyć na poszczególne rdzenie tego procesora,
więc to też może być dość ciekawe narzędzie.
I jeszcze jest jedna rzecz, która mi się też dość często przydawała,
to znaczy można sobie ustawić skrót na jakby szybkie takie włączenie i wyłączenie monitora,
żeby to nie było przez cały czas, tylko wtedy, gdy chcemy ten monitor jakoś tam wykorzystać.
Ja sobie zrobiłem nawet jakiś własny schemat,
żeby jakoś tam było to w miarę dla mnie przynajmniej fajne,
natomiast jest to jakiś tam też ciekawy pomysł na,
po pierwsze sprawdzenie jakby stanu komputera,
albo po drugie powiedzmy zrelaksowanie się i uzależnienie tego dźwięku od stanu komputera,
to też może być jakiś ewentualny pomysł,
nie wiem czy pamiętacie te programy typu Aura, to się chyba nazywało,
czyli jakoś do generowania takich atmosferycznych różnych dźwięków
i tam było masę różnych warunków, które mogło to spełniać,
tam ustawień, że to mogło jakieś dźwięki puszczać w określonych sytuacjach,
jakiś czas i tak dalej i tak dalej,
no to Aura Sync, jakoś tak to się chyba nazywało.
W każdym razie jest to narzędzie, które również jakby w ten sposób może teoretycznie być używane,
plus oczywiście jako monitor to jest chyba podstawowa zasada tego programu,
czy podstawowy taki sposób działania.
Zaglądam na Facebooka, bo mamy tutaj dwie wypowiedzi właśnie z tego źródła.
Mamy pytanie od Pawła.
Czy nadajecie także na żywo na YouTubie?
Przezadą nadawania na żywo na Facebooku jest to, że słuchając was, trzeba mieć zawsze Facebooka na wierzchu.
Co mi jest nie na rękę?
Nie przychodzą mi powiadomienia z YouTuba, że macie transmisję na żywo.
Pawle, myślę, że w ciągu najbliższych kilku tygodni to się zmieni,
bo na razie nie nadajemy, po prostu nie mam na tyle mocnego komputera,
żeby uciągnąć dwie transmisje, transmisję na Facebooka i transmisję na YouTuba.
Z naszych obserwacji, kiedy próbowaliśmy robić takie dwie transmisje,
wychodziło, że jednak troszeczkę większe zainteresowanie jest Facebookiem,
więc dlatego tu zostaliśmy,
ale na całe szczęście myślę, że twoje prośby niedługo zostaną wysłuchane
i będziemy mogli nadawać i tu, i tu.
I jeszcze od Grzegorza tu taka wypowiedź.
Do Wojtka mikrofon np. Novox NCX lub Blue Yeti Pro.
No to takie typy polecanych akurat przez Grzegorza Mikrofonów.
Blue Yeti jest bardzo drogi, nasza wersja Pro.
Tak, no Blue Yeti.
To chyba koło tysiąca złotych kosztuje.
No, obecnie tak.
I niestety, jak to ma być mikrofon, który będzie się przenosiło,
jakoś z nim chodziło, będzie on trafiał z rąk do rąk, to ja bym Blue Yeti nie polecał,
bo to jest delikatny sprzęt.
Jego bardzo łatwo jest to szkodzić.
Tak, tak, tak.
Znaczy ten, o którym ja mówiłem, też nie jest jakoś super mocny,
ale jest przynajmniej pięć razy tańszy.
Tańszy, tak, tak, więc mniej będzie bolała strata.
Ewentualna.
To przechodzimy chyba w takim razie do czegoś, co nazywa się akcja sensoliczna.
To jest jeszcze Paweł chyba drugiego newsa, nie?
A, okej, no tak, ja się rozpędziłem.
Nie, nie, nie, ja już byłem, ja już koniec.
A, czyli jednak przechodzimy.
Ale to jeszcze pytanie, bo ja mam też jakiś tam ten set drobnych newsów,
tylko że one są bardziej techniczne.
To może potem.
To zostaw mnie na technikach.
Okej, tak.
No to co, akcja sensoliczna i na serio.
I to jest cyfrowieść.
Tak, i teraz już na serio.
Bo właśnie ta akcja w tym roku skupia się bardziej na niewidomych.
Zresztą nie, dzisiaj już zaczęła się pierwsza część.
To jest i blok wystaw technologicznych, i warsztatów, i jakichś wykładów interaktywnych.
Ja jutro na tych targach, znaczy na targach, nie targach, tylko na tej wystawie będę.
Więc może też Wam opowiem, co tam na niej było.
Zresztą też moje wywiady z Rechy gdzieś tam są na etapie montażu,
więc to też w ramach uzupełnienia będzie.
I cóż, później tam 15 października to się kończy.
To jest w ogóle w Krakowie Galeria Krakowska.
Wydarzenie nie mówi, znaczy opis wydarzenia nie mówi w jakich godzinach to się będzie odbywało,
ale od Altixu wiemy, który też tam się wystawia, że będą na stanowiskach od 11 do 19,
więc bardzo możliwe, że właśnie w tych godzinach będzie się to wydarzało.
Jejku, będzie się to działo.
I tak, to jest pierwsza część, natomiast druga bardziej się skupia na typowo technicznych akcjach,
a mianowicie będzie konferencja poprzedzająca hackathon, który się odbędzie 22 i 23 października,
znaczy na 22 i 23, matko, coś jestem dzisiaj rozkojarzona.
I ten hackathon ma mieć temat o dostępności obszarów miejskich dla osób niewidomych.
Myślę, czy by w sumie w tym hackathonie nie wziąć udziału, bo co prawda rzadko kiedy z hackathonów
rodzi się coś realnie przydatnego, ale może dzięki temu.
Ale może to będzie ten jeden raz, albo jeden z nielicznych razów, kto wie.
No i przy okazji dowiem się też bardziej od wewnątrz, co ludzie technicznie zorientowani
myślą na temat właśnie stopnia wykluczenia cyfrowego osób niewidomych.
Także może to też jakoś podsumuję, jeżeli czegoś ciekawego się dowiem.
No a teraz w takim razie jeszcze wieści, taki zbiór wieści, ale tym razem wieści ze świata,
jak zwykle od Pawła.
Tak jest i pierwsza wieść dotyczy nas wszystkich, bo jest wieścią z Unii Europejskiej,
ponieważ Komisja Europejska podczas konferencji na temat włączenia osób niepełnosprawnych
na rynku pracy, to jest takie wydarzenie, taka konferencja, którą zorganizowała
niedawno czeska prezydencja Rady Unii Europejskiej staje się, uruchomiła taki pakiet rozwiązań,
który ma pomóc we włączeniu właśnie osób niepełnosprawnych na rynku pracy.
To się nazywa Disability Employment Package. Nie jest to żadne nowe prawo,
żadne nowe rozwiązania legislacyjne, a bardziej takie środki, które mają
państwom członkowskim Unii pomóc we wdrożeniu już istniejącej legislacji
w sześciu obszarach i te obszary to wzmocnienie możliwości usług zatrudnienia
i integracji, po drugie promowanie perspektyw zatrudnienia przez akcje
afirmatywne i walkę ze stereotypami, czyli różnego rodzaju takie akcje preferencyjne,
gdzie będzie się na przykład zachęcało przez jakieś osobne pule zatrudnieniowe
do zatrudniania właśnie osób niepełnosprawnych, tak ja to rozumiem,
zapewnianie rozsądnych dostosowań w miejscu pracy, ochrona, czy powiedzmy zapobieganie
niepełnosprawnością powiązanym z chorobami chronicznymi, czy wynikającymi
z chorób chronicznych przewlekłych, zabezpieczanie różnego rodzaju programów
rehabilitacji zawodowej w przypadku chorób, czyli kiedy ktoś w wyniku choroby
będzie musiał się gdzieś tam przebranżowić, albo będzie musiał zrezygnować z pracy,
albo ta praca będzie musiała się odbywać w ograniczonym zakresie i eksploracja,
badanie, wyszukiwanie takich możliwości zatrudnienia, wartościowego zatrudnienia
w zakładach pracy chronionej z możliwością otwarcia się na otwarty rynek pracy.
No i oczywiście jest tu cały bardzo skomplikowany i zawiły dokument,
który objaśnia, jak to konkretnie ma działać. Pożyjemy, zobaczymy, natomiast wydaje mi się,
że w praktyce to będą pewnie jakieś środki na różnego rodzaju projekty, programy.
Zobaczymy, na ile trwałe i na ile efektywne, ale wydaje mi się, jak zwykle przy takich projektach,
że lepiej mieć coś takiego niż nie mieć nic. Zawsze to jakieś nowe umiejętności,
nowe doświadczenie, a może rzeczywiście jakieś też zatrudnienie z tego wyniknie.
Pożyjemy, zobaczymy, natomiast to w ogóle będzie, przyszły rok będzie w ogóle dość ciekawy
pod kątem zatrudnienia i osób niepełnosprawnych i w ogóle dostępności,
bo z tego, co też zdaje się, że nawet sama Pani Przewodnicząca Komisji Ursula von der Leyen
ogłosiła, priorytet zostanie nadany wdrożeniu Europejskiej Karty Osoby Niepełnosprawnej,
czyli takiej legitymacji europejskiej, która będzie osoby niepełnosprawne z Unii uprawniała
do różnych zniżek, ulg na przykład na komunikację miejską, na transport, na różne atrakcje turystyczne itd.
A także, jako że przyszły rok w Unii będzie obwołany Europejskim Rokiem Umiejętności,
no to w ramach tego też skupi się Unia na szerzeniu gdzieś umiejętności w zakresie ekspertyzy
dostępności cyfrowej, bo coś, co wyniknęło w toku konferencji, która też się odbyła
z okazji drugiej rocznicy inauguracji i wejścia w życie ustawy o dostępności cyfrowej,
czyli tej ustawy, która obliguje organy publiczne do udostępniania, do czynienia
swoich stron i aplikacji dostępnymi, okazało się, że wiele państw członkowskich zgłaszało
albo brak ekspertyzy, brak ekspertek, ekspertów, którzy mogliby doradzić,
albo brak jakiegoś jednolitego systemu honorowania tychże, czyli ustalenia,
kto tym ekspertem rzeczywiście jest, a kto nim nie jest, no i ma się Unia nad tym również pochylić.
To jeśli chodzi o Unię. Druga kwestia, to teraz przenosimy się do Stanów Zjednoczonych.
My już nieraz mówiliśmy o samojezdnych pojazdach, o tym, że tam konkretne rzeczy już się dzieją,
w tą stronę, żebyśmy mogli tymi samochodami się przejechać samodzielnie jako osoby niewidome.
No i tu przoduje w tym taka firma jak Waymo, która już taką flotę samojezdnych taksówek
uruchomiła w San Francisco i powołała ona taką sieć kontaktów odnośnie dostępności
z pojazdów samojezdnych, czyli oni stworzyli taką platformę, aby różne firmy i organizacje osób niepełnosprawnych
mogły się wymieniać praktykami i dyskutować nad przyszłością tego przemysłu właśnie pojazdów samojezdnych.
No i jest tam parę organizacji służących osobom niewidomym.
Jest tam American Council of the Blind, jest tam chyba Lighthouse, San Francisco Lighthouse Services for the Blind,
jakaś jeszcze jedna organizacja, no więc powstaje taka sieć.
Pytanie, na ile to się rozszerzy poza Stany Zjednoczone.
Jak zwykle, pożyjemy, zobaczymy, wiem, że to bardzo często powtarzam w tej sekcji,
no ale coś się dzieje i wiadomo, że to też nie jest tak, że ten przemysł, jakby ta gałąź technologii
rozwija się sama sobie gdzieś tam bez naszego udziału, tylko ktoś o tym myśli i ktoś już na tym etapie,
kiedy ta technologia jeszcze jest powiedzmy w powijakach, planuje, jakby to mogło nam też służyć.
Jest to ważne, bo lepiej zadziałać teraz, niż zastanawiać się potem, jak przykręcać jakieś tam pół środki
i pół rozwiązania na gotowy produkt, który powstał bez naszego udziału.
Też kolejną ważną jakby dziedziną naszego życia jest zarządzanie gospodarstwem domowym
i radzenie sobie w domu, a jak wiadomo są problemy z obsługą sprzętów różnego rodzaju AGD,
pralki, piekarniki, kuchenki, różne indukcyjne.
Mamy z tym problem przez to, że są ekrany dotykowe, że coraz trudniej znaleźć sprzęt z fizycznymi pokrętłami,
no i co można tu zrobić? Tydzień temu mówiłem o inicjatywie jednej z wyższych szkół w Wiedniu,
czyli katalog dostępnych sprzętów tego typu, a teraz się okazuje, że to nie wszystko, bo inicjatyw jest więcej
i taką inicjatywą jest inicjatywa Związków Niewidomych z Krajów Niemieckojęzycznych,
czyli Niemcy, Austria, Szwajcaria, Home Design for All i jest to inicjatywa zainicjowana przez Szwajcarów,
bo co ciekawe i o tym nie wiedziałem, no sytuacja jest zła i o tym wiemy wszyscy,
natomiast jakieś jeszcze sprzęty powiedzmy na tym rynku są, jak sobie je wyszukamy i wyselekcjonujemy
i możemy je sobie nabyć, no to jesteśmy w dobrej sytuacji, bo się wyratowaliśmy.
W Szwajcarii problem polega na tym, że to właściciel mieszkania wyposaża mieszkanie w sprzęt
i my tego sprzętu tykać nie możemy.
No więc w takiej Szwajcarii, kiedy osoba niewidoma wynajmuje mieszkanie,
jest zdana trochę na łaskę i niełaskę osoby, od której wynajmuje,
bo przyjmuje dom czy tam mieszkanie z całym dobrodziejstwem inwentarza.
Jeżeli trafi na sprzęt dostępny, no to ma szczęście i może z niego korzystać.
Jeśli nie, to też nic nie może z tym zrobić.
Więc to Szwajcarzy pierwsi wyszli z inicjatywą, a skwapliwie przyłączyli się do tego Niemcy i Austriacy
i w wyniku tej inicjatywy powołano taki właśnie projekt, aby doradzać firmom,
które takie sprzęty produkują, w tym jak oni mogliby te sprzęty czynić dostępnymi.
Na niemieckim rynku trochę tych firm jest, bo jest Siemens Bosch,
jest jakieś nie Guggenau, tylko Agenau, jest jakaś taka trzecia firma,
jest Mile, jeszcze pewnie jakieś inne są.
No i ostatnio ta właśnie inicjatywa miała takie swoje wspólne stanowisko na targach IFA w Berlinie
i na te IFE przyszło do nich kilkoro producentów właśnie tego typu sprzętu,
żeby się powymieniać doświadczeniami, żeby podyskutować.
No i z tego, co opowiadała Pani ze Niemieckiego Związku Niewidomych,
zainteresowanie nawet było i okazało się, że przede wszystkim przyszła firma Siemens Bosch
i oni poinformowali, że oni usprawniają swoją aplikację mobilną
pod kątem osób z dysfunkcją wzroku, pod kątem screen readerów
i rzeczywiście, bo okazuje się, że właśnie Siemens Bosch i ta właśnie trzecia firma,
której nie pamiętam, mają jakąś wspólną w ogóle platformę,
chyba Home Connect czy jakąś taką, która potrafi jakoś tam zunifikować sprzęty tych wszystkich firm
w jakiejś jednej chmurze, więc jeżeli ktoś się doposaża z tych firm w sprzęty,
no to może z jednej aplikacji to wszystko obsługiwać
i wiem, że ta aplikacja dostępna jak najbardziej jest.
Tak samo Miele również potwierdziło, że swoją aplikację pod kątem osób niewidomych udostępnia
również pewna mniejsza firma się pojawiła na stanowisku
i zadeklarowała chęć udostępniania swojej aplikacji, nie wymieniono tej firmy z nazwy
i też zaprezentowano tam prototyp, pewna firma zaprezentowała prototyp,
jak mógłby wyglądać udźwiękowiony piekarnik,
gdzie można by sterować jego menu przez ekran dotykowy.
Więc coś się dzieje na pewno i miejmy nadzieję, ta inicjatywa już istnieje od trzech lat,
miejmy nadzieję, że posunie się to dalej i rzeczywiście producenci sprzętu wezmą to sobie do serca
i będą kombinować oczywiście aplikacje, pamiętajcie to nie jest jedyne rozwiązanie,
a nie powinno takim być, bo wiele jest sytuacji, w których ze smartfona skorzystać nie można,
albo się nie da, albo nie jest to na rękę, więc warto też tych producentów namawiać do tego,
żeby wprowadzali też rozwiązania takie na miejscu w samym urządzeniu.
Coś próbuje też działać Szwecja i tutaj w ogóle ciekawa historia,
bo temat leży już u mnie w szufladzie od kilku miesięcy, bo właśnie kilka miesięcy temu
odbyły się targi sprzętów i technologii dla osób z dysfunkcją wzroku w Göteborgu w Szwecji,
tylko że jedynym materiałem źródłowym, jaki do tej pory miałem był podcast szwedzki,
podcast Blind Tech Support i tenże podcast właśnie był na tych targach, to znaczy byli jego prowadzący
i opowiadali, mieli nawet relację nagraną z tego, co tam się działo i była tam mówiąca pralka
i właśnie chętnie wam o tym opowiedział, tylko że oprócz tego, że coś mówi i chodzi o pralkę,
niestety niewiednie nie mogłem więcej zrozumieć, bo wszystko było po szwedzku,
ale przez to, że mamy przecież do dyspozycji Whisper, tu podziękowania dla naszego słuchacza Mateusza,
który udostępnił mi swoją maszynę i podcast dla mnie przetranskrybował,
oraz DeepL, tłumaczenia DeepEla, też sztuczna inteligencja i tu podziękowania dla Tomka,
który to przetłumaczył, uzyskaliśmy plik, z którego naprawdę ten podcast dało się zrozumieć.
Ja byłem w stanie ten podcast sobie, wiadomo…
Potwierdzam, to nie jest takie, znowu, to nie jest coś, co można by, nie wiem,
wypuścić jako tłumaczenie oficjalne podcasta, ale to jest coś, dzięki czemu można zrozumieć o co chodzi.
No i właśnie, i Szwedzi eksperymentują aktualnie z jakąś skrzyneczką, która po sparowaniu jej z pralką
będzie w stanie nam generować, mową, aktualne stany.
Pytanie, bo nie było to wymienione z nazwy, czy nie chodzi o to niemieckie rozwiązanie,
czyli Fillware, o którym ja mówiłem przy okazji, chociażby SideCity, no bo to nam niewiele pomogło,
bo to wymaga znowu, żeby pralka miała pokrętła, więc to są kilka modeli, z którymi to współpracuje.
Może chodzi o coś innego. Na razie są to prototypy, na razie nie chce nikt mówić o cenach,
ale zdaje się, że to jest jakieś szwedzkie rozwiązanie, bo były wymienione też osoby z nazwiska,
które są w tym projekcie zaangażowane. Chodzi tu o firmę Iris Helpmittel właśnie ze Szwecji,
a z kolei też tam na miejscu był zademonstrowany właśnie znowu jakiś prototyp pieca czy piekarnika,
może nawet ten sam, co i w Niemczech, więc coś się dzieje i coś jest na rzeczy.
Miejmy nadzieję, że Szwedom i Niemcom i innym narodom w Polsce może też uda się wypracować jakieś sensowne rozwiązanie,
bo byłoby naprawdę super. No i tak, teraz przenosimy się do Wielkiej Brytanii,
bo okazuje się, że w Wielkiej Brytanii audiodeskrypcją objętych jest wiele materiałów,
filmy, seriale, różne inne rzeczy oraz reklamy. No i na przykład taką reklamę z audiodeskrypcją
wprowadził Virgin Media. Reklamują oni różne rzeczy. Ja trafiłem na YouTube na reklamę
akurat jakiegoś inteligentnego Wi-Fi i reklamy Virgin Media charakteryzują się tym,
że są kręcone w stylu takich filmów akcji, więc tam jest bardzo dynamiczny dialog,
tam jest cała akcja, która się dzieje, tam są jakieś bardzo szybkie zmiany scen,
tam bohater wyciąga jakiś inteligentny router z Wi-Fi i coś tam nim robi i o nie,
Wi-Fi przestało działać, ale na szczęście jest inteligentny Wi-Fi, który jest lepszy.
I do tego jest ta deskrypcja, która opisuje, co się w tym filmie akcji takim reklamowym dzieje.
Co ciekawe, w tym nagraniu przynajmniej, który ja słyszałem i nie wiem, czy to jest charakterystyka
tamtej telewizji, czy ktoś to tak nagrał, audiodeskrypcja była w lewym kanale,
a cała treść reklamy w prawym. I tak to było rozdzielone.
To jest charakterystyka, w brytyjskiej telewizji standard nadawania jest taki,
że ścieżka główna audio i ścieżka audiodeskrypcji to są dwie osobne ścieżki.
Po to, żeby oszczędzać pasmo na telewizji naziemnej, to nie nadaje się całej tej ścieżki audio bogatej,
w stereo, w wysokiej jakości, w dwóch kopiach, jednej kopii z dołożoną deskrypcją,
drugą kopii bez dołożenia deskrypcji, tylko nadaje się jedną ścieżkę audio pełną,
super fajną, stereo albo nawet 5.1 bogatą, a do tego nadaje się malutką ścieżkę,
tam sobie 64 kbps z audiodeskrypcją mono, na której ta audiodeskrypcja sobie idzie
i tylko w momencie, kiedy my sobie ta audiodeskrypcję włączymy, to nam odbiornik
dorzuca deskrypcję na naszą ścieżkę główną.
Czyli po prostu on potrafi to zmiksować jedno z dwóch?
On potrafi to zmiksować dokładnie.
I w programach na Windowsa, w programach komputerowych, poza bardzo specjalistycznymi
narzędziami do odbioru telewizji typu TV Viewer, które z tego co wiem umieją to zrobić,
nie jest tak prosto zrobić tak, żeby to działało i żeby to działało dobrze.
Jeżeli mamy T.S. tak zwaną, czyli jakby bezpośredni zrzut z takiego telewizora nawet
brytyjskiego, z tego co wchodzi anteną, to nie mamy takiej ścieżki, to nie jest wcale
takie proste, żeby sobie coś takiego nawet odtworzyć, bo odtwarzacze typu VLC,
typu Podplayer mają taki tryb, że one albo odtwarzają jedną ścieżkę, albo odtwarzają
drugą, a nie za bardzo są w stanie odtworzyć obie naraz.
Na przykład w VLC wiem, że VLC ma jakieś w ogóle parametry śmieszne w linii poleceń,
które mu trzeba tam wpisywać i wtedy jakoś to nawet zadziała, ale nie ma na przykład
coś takiego co ma zwykła telewizor, czyli wyciszanie gdzieś tam, co może mieć zwykły
telewizor, czyli wyciszanie ścieżki głównej na audiodeskrypcję i też poziomy tam nie
zawsze będą takie jakie mają być, a zwykły telewizor ma w tym pliku też gdzieś jakąś
dodatkową informację, jakieś metadane i on wie jak to należy miksować i jak należy ustawić
te poziomy, żeby ta ścieżka dyskrypcji się z tą ścieżką audio fajnie zgrywała.
Więc ja się nie zdziwię, jeżeli ktoś właśnie nagrał tą reklamę, to oczywiście może
być zrobione w taki sposób, że to są dwa osobne kanały, ale mi się wydaje, że ktoś
po prostu nagrał tą reklamę w taki sposób, że nagrał właśnie sobie jakąś TS i jakoś
to musiał złożyć do kupy i po prostu złożył to w ten sposób, trochę niefortunnie,
ale no brytyjską dyskrypcją jest właśnie problem taki, że ciężko ją jakkolwiek
obrobić na czymkolwiek, co nie jest brytyjskim telewizorem zaakceptowanym do odbioru
brytyjskiego freeview.
No to dzięki tu za techniczne objaśnienie.
Czego możemy się dowiedzieć z podcastu ostatniego Mose & Large?
Bo też nie jest to jedyna firma Virgin Media, która reklamy opatruje dyskrypcją.
Zdaje się, że też któraś z firm produktów, nie wiem, mleczarskich, zbożowych też to robi.
Jedynie tylko, że jedyne co jest w audiodeskrypcji wspomniane, to że jest to produkt bio
i produkt wytwarzany na terytorium Wielkiej Brytanii, więc takie informacje dodatkowe
do opisu specjalnie tego, co w reklamie się dzieje.
No i nie wszystkie reklamy mają tą audiodeskrypcję, ale jakieś mają i ponoć jest to
jakiś ewenement na skalę, nie wiem, czy światową, czy jakąś, bo no tak na ogół reklamy
to audiodeskrypcji nie mają.
No i ostatnia rzecz, tu dzwonił do nas dzisiaj Wojtek, a za Wojtka będziemy mogli niedługo
oddać ciuki, bo jest on uczestnikiem, czy też w jakiś sposób się udziela, jest zaangażowany
w wydarzenie Europejskie Forum Tłumaczeniowe, Translate Europe Forum, które odbywać się
będzie w dniach 9-11 listopada w Brukseli jako wydarzenie fizyczne, ale też online,
więc można się zarejestrować, można wziąć w tym udział, a warto, bo wiele tematów będzie
związanych, dużo będzie o technologiach właśnie mowy na tekst, właśnie jakiegoś rozpoznawania
mowy w celach tłumaczeń, tłumaczeń maszynowych i sztucznej inteligencji i tak dalej,
natomiast będą też z tego co widziałem dwa, ale będą panele na temat dostępności
oprogramowania do tłumaczeń, więc zwłaszcza jeżeli ktoś studiuje, interesuje się tematem,
pracuje w zawodzie, to warto myślę w tym wydarzeniu wziąć udział i to wszystko na ten tydzień,
jeśli chodzi o wieści ze świata.
No a teraz się dowiemy, czy niewidomy może pilotować samolot, bo Mikołaj znalazł taką informację.
Tak, wszyscy się zawsze śmiali z takiej tak amerykańskiej filozofii ślepoty i z podejścia,
że przecież niewidomy może wszystko i zawsze takim ulubionym argumentem moim i nie tylko moim
na hipotezę, że niewidomy może wszystko było, no ale samolotu to niewidomy nie popilotuje.
No, otóż popilotuje i to nawet nie niewidomy, a niewidoma, bo osoba ze Stanów Zjednoczonych
w wieku lat 21, czyli co ciekawe dokładnie moim, podobno pilotuje właśnie samolot, a właściwie
pilotowała chyba, bo to jest jakaś dłuższa trasa, tam przez kilka stanów, oczywiście wiadomo,
że nie na raz, bo to jakiś taki mniejszy samolocik dwusilnikowiec, śmigłowiec, a nie komercyjny
airliner taki, no którym można sobie polecieć i na drugi koniec świata, to takimi mniejszymi
samolotami, no to tam nie wiem, kilkaset kilometrów to już jest daleko i ta osoba właśnie lata,
ma ileś takich tras, no i co, osoba nie jest w stu procentach niewidoma, ale tak naprawdę
dużo osób niewidomych nie jest osobami w stu procentach niewidomymi, okazuje się, że ta osoba
widzi coś na kilka centymetrów przed twarzą, no czyli niewiele to pomoże, jeżeli chodzi
o pilotowanie samolotu. To jest i tak mało. To jest i tak bardzo mało, dokładnie, no i ma
oczywiście nawigatora, który trochę podpowiada, gdzie ona tam niby jest, no ale podobno samolot
pilotuje sama, tylko nawigator mniej więcej mówi trochę wyżej, trochę niżej, trochę w lewo,
trochę w prawo. Mnie zastanawia tylko jedno, ale podejrzewam, że i z tym sobie radzi, jak
ze startem i z lądowaniem, bo to są najtrudniejsze dwa manewry w pilotażu, a się zawsze śmieją,
że zwłaszcza w tych samolotach liniowych, że tak naprawdę to jak już się wystartuje to
sobie można drzemkę uciąć, bo w zasadzie wszystko za nas robi sprzęt, natomiast no wystartować
i wylądować to trzeba jednak być bardzo skupionym przez te kilka minut.
No tak. Natomiast jest taki kanał, znaczy na jednym z kanałów na YouTubie dotyczących
samolotów, lotnictwa, gość zaprosił do symulatora oczywiście lotu, kogoś znajomego,
albo świeżo, czy w ogóle kogoś z widzów kanału, no i sytuacja była zaaranżowana jakby
taka, że z jakiegoś powodu tylko on, w zasadzie ona, bo to też była dziewczyna, oczywiście
widzoma, ale jakby dziewczyna, która pierwszy raz była w takim symulatorze, że nie wspomnę
o kabinie samolotu zwykłego, no i czy niby jest taka sytuacja, że wszyscy z jakiegoś powodu
na pokładzie nie są przytomni, nie żyją, wszystko jedno, została ona i ona musi ten
samolot jakoś sprowadzić na ziemię. I sytuacja jakby taka, że gdzieś tam, no bo ten samolot
przestaje odpowiadać oczywiście na wszelkie wezwania, więc tam gdzieś tam wzbija się jakiś,
powiedzmy samolot jakiś misiliwski, czy jakiś misiliwiec, czy coś tego typu i no zaczyna
eskortować ten samolot i tej dziewczynie są podawane przez radio instrukcje, co ma nacisnąć,
kiedy, w jaki sposób, właściwie wiadomo, to było na symulatorze, ale jakby udało się
wylądować na lotnisku dużym samolotem przez osobę, która pierwszy raz usiadła za sterami.
No nie wiadomo, jakby to było w sytuacji realnej, kiedy by pewnie teraz zjadły w tej dziewczynie
dokładnie, natomiast…
A ja widziałem takie nagranie z sytuacji realnej, była taka sytuacja, to był oczywiście
mniejszy samolot, ale tam chodziło o to, że to był samolot jakby dwuosobowy, w którym był
instruktor i no też właśnie dziewczyna, która była instruowana na przyszłą pilotkę i to tak
no świeża, bardzo świeża, tam było chyba 20 godzin, miała wylatane, czyli bardzo niewiele
i się okazało, że w pewnym momencie instruktorowi się zemdlało bodajże, czy coś mu się tam
stało poważnego, do tego stopnia, że nie było z nim kompletnie kontaktu, gdzie ona była
w powietrzu i no właśnie musiała za pomocą kontroli lotów, bo miała na tyle pojęcie,
że wiedziała, jak się skontaktować, no powiedzieć, co się stało i ktoś tam w tej kontroli
miał jakiegoś też swojego, jakby takiego instruktora głównego, który był na ziemi i on
po prostu, plus no ludzie w wieży jej gdzieś tam zaczęli tłumaczyć, jak należy to zrobić
i jest oczywiście nagranie na YouTube gdzieś po angielsku z samej tej kontroli, z tego,
co tam zaszło i co tam było mówione i no okazuje się, że jesteśmy w stanie na odległość
poinstruować osobę, co ona ma zrobić.
No właśnie w tej symulacji też tak wyszło, tam oczywiście było ileś takich gość organizował
rzeczy, typu na przykład gracz te wszystkie symulatory lotów Microsoftu czy tam innych
gier miał zrobić coś takiego, no ciekaw jestem, co by było, gdyby do takiego symulatora
zaprosić kogoś niewidomego, tak jakby w podobnej sytuacji, także no ciekawe, ciekawe,
jak by to wyglądało, no pewnie można by zaproponować taki eksperyment.
Tak już ona opisywała, że miała w domu jakąś taką makietę tego czegoś, tego samolotu
z opisanymi na tej makiecie jeszcze w brajlu, co tam jest jakby czym i który przycisk,
który przełącznik i tak dalej jest od czego i po prostu godziny spędzała ćwicząc poszczególne rzeczy.
Tak w ogóle amatorzy lotnictwa to potrafią mieć całe takie wycinki z kabin realnych
pilotów z jakimiś oryginalnymi częściami od samolotów.
Tak i to potem się łączy do tego flight simulatora i na przykład niektórzy tak latają.
Ale niewidomy latający na symulatorach lotów to też akurat nie jest wcale nowość i
jest parę osób, jest nawet jakiś w Stanach Zjednoczonych człowiek, który angażuje się
bardzo głęboko w to, włącznie z tymi sieciami wszystkimi i się okazuje, że to się da.
Cały Watsim to się chyba nazywa.
Watsimy, dokładnie.
Że na tych symulatorach komputerowych jest na tyle dużo z jednej strony autopilota,
nie ukrywajmy, że tam jest trochę tego autopilota, ale z drugiej strony różnych dziwnych narzędzi,
wtyczek, konfiguracji i na konkretnej wersji konkretnego symulatora z konkretną wersją
konkretnych kryptów do JOS-a z jednym, drugim, trzecim, czwartym dodatkiem skonfigurowanym
w konkretny sposób, który tak naprawdę powstał po coś innego, ale można go zaprząc
tak, żeby zadziałał i zadziałał.
I my tu nawet w Polsce zresztą mieliśmy, nie do takiego stopnia, ale ludzi, którzy się
tym tematem zajmowali. Ja pamiętam jeszcze, jak małym dzieciąciem byłem, istniał taki projekt,
który się nazywał Tyflostacja, jeszcze przed powstaniem Tyfloradia.
Tak.
To mi się tam udało.
No to były ciekawe czasy.
Mi się tam udało złapać kiedyś, była taka audycja w sobotę, bodajże o 20.00 o grach audio.
Tak, z Tomkiem Kowalikiem.
Dokładnie. Mi się tam udało kiedyś złapać bodajże właśnie rzeczonego Tomka, który też z
Tyflopodcastem się kiedyś zetknął w roli prowadzącego, pozdrawiamy jeśli słucha,
jako właśnie na temat symulacji lotów.
Miałem to nawet gdzieś kiedyś nagrane na dysku, zgubiło mi się to.
To zresztą na LT nowych blogach użytkownika, którego już nie ma na tym świecie,
czyli niejakiego chrynka, to też tam było ileś nagrań, gdzie on bawił się właśnie Flight Simulatorem
z jakimiś dodatkami i też tam próbował tu coś wylądować, tu coś tam zrobić.
Było, było też trochę takich nagrań. Ktoś może pogrzebać sobie.
Sięciowi, bo pamiętajmy o tym, że te wszystkie sieciowe systemy to już są takie,
że tam jeżeli my zrobimy coś źle i się powiedzmy rozbijemy,
albo co gorsza w kogoś, że tak powiem, w jakiś sposób uderzymy i zakłócimy innym zabawę,
no jest to bardzo niemile widziane i to nie jest tak, że my sobie możemy robić żarty
i wlatywać w budynki i bawić się w małego terrorystę. Nie, nie, nie. To tak nie działa.
Więc jeżeli osoba niewidoma uczestniczy w takiej sieci właśnie symulacji lotów,
no to już musi mieć na tyle doświadczenia z tym systemem i na tyle pojęcia o tym systemie
i ten system musi być na tyle dostępny, że ta osoba niewidoma może sobie zagwarantować,
że doleci od startu do miejsca lądowania.
Ale swoją drogą kiedyś też w archiwach bodajże Blind Kulteka było jakieś takie nagranie.
Oczywiście to było dawno, dawno temu. Ktoś pokazywał jakąś kasetę, nie wiem czy pamiętacie,
z lat dziewięćdziesiątych, z początku lat dziewięćdziesiątych, gdzie ktoś pilotował samolot oczywiście
już będący w powietrzu, bo to też pamiętajmy, że to się wszystko zmienia.
No na przyrządach tak zwanych to my raczej nie mielibyśmy wielkich szans,
to nas musi wspomagać dość mocno automatyka i to też był jakiś taki niewielki samolot,
jak dobrze pamiętam, ale ktoś próbował z instruktorem swoich sił jakoś tam w powietrzu
jakieś manewry wykonywać.
No to są bardzo ciekawe historie.
Też jeszcze jakby na koniec dokończajmy. Myślę, że warto też wspomnieć o jednym,
że nawet widzący piloci są w stanie jakby latać trochę na dwa sposoby.
Wizualnie i właśnie przy użyciu przyrządów i na przykład jeżeli jest mgła, ogromna mgła,
wiadomo, że wtedy się leci gdzieś indziej, loduje gdzieś indziej, ale teoretycznie
jesteśmy w stanie bardzo dużo zrobić, widząc bardzo mało.
Wiadomo, że te systemy mogą wysiąść i tego się nie robi, jeżeli nie trzeba,
bo to jest po prostu niebezpieczne, ryzykowne i może się to źle skończyć,
jeżeli coś nie pójdzie, ale osoba niewidoma technicznie, gdyby coś takiego udźwiękowić,
to jest bardzo duża szansa, że byłaby w stanie coś takiego osiągnąć.
Problem jest jeden, nie ze stuprocentową skutecznością i nie byłoby to na tyle bezpieczne
i nie mając możliwości skorzystania z tej wizualnej pomocy, szansy by żadnej absolutnie nie było
na otrzymanie licencji na to, więc jakby osoba niewidoma profesjonalnym pilotem nie była,
nie jest i nie będzie, ale jakby technicznie pod kątem, czy dałoby się ten samolot obsłużyć
kompletnie abstrahując od tego, czy byłoby to legalne i czy on by do punktu A do punktu B doleciał,
to jest na to całkiem spora szansa, że gdyby odpowiednio to przystosować, to on by nawet doleciał.
Bardzo możliwe. No dobrze, to teraz zmieniamy temat i temat to powinien być bliskim wszystkim tym,
którzy do nas lubią, albo nie tylko do nas, w ogóle lubią gdzieś tam dzwonić, lubią albo muszą,
gdzieś tam dzwonić na Zuma i chcieliby, żeby było ich słuchać jak najlepiej, bo jest na ten temat artykuł
zresztą w jakby to powiedzieć siostrzanym czasopisie.
Podprojekcie tego wszystkiego, co nazywa się Tyflotechniczna Platforma Medialna i w czego skład
wchodzi Tyflo Podcast, ale też i portal oraz kwartalnik Tyflo Świat. Ja napisałem taki artykuł
na temat tego, jak okiełznać dźwięk na Zoomie i tam zawarłem najistotniejsze informacje,
o co w ogóle w tym chodzi, dlaczego dzieje się tak, a nie inaczej, dlaczego jak się podłączycie do nas,
to nie jest to słyszalne od razu i co zrobić, żeby to poprawić, ale ten artykuł ukazał się kilka dni temu.
Dziś ukazała się nowa wersja Zuma i no nie powiem, że ten artykuł stał się bezużyteczny, no bo nie,
tak nie jest, ale już widzę, że jakieś drobne zmiany zostały wprowadzone, także jeżeli chodzi o tłumaczenie,
więc jeżeli Wam się coś innego będzie wyświetlać, a nie będą dokładnie opisane te przyciski
czy pola wyboru tak jak w tym artykule, to apeluję, żeby po prostu przeczytać to ze zrozumieniem,
bo najzwyczajniej w świecie to tłumaczenie widzę, że ktoś aktualizuje i trochę w Zoomie się lubi to pozmieniać.
Na przykład ja teraz nie widzę opcji do wyboru urządzenia i to jest akurat, uważam, błąd i to duży błąd,
bo kiedyś w stacjonarnym kliencie Zuma można było sobie przypisać, że do tego urządzenia konkretnego
ja chcę mieć zawsze włączony oryginalny dźwięk. Teraz niestety widzę, że ta opcja gdzieś zniknęła.
Mam nadzieję, że to jest tylko chwilowe niedopatrzenie albo jest to jakaś opcja, którą trzeba sobie gdzieś tam jeszcze włączyć
w zarządzaniu kontem, bo Zoom tak naprawdę, co ci wszyscy, którzy słuchali kiedyś tyflo podcastów na temat tej platformy,
ten klient to jest nic, tam pod maską Zuma naprawdę jest bardzo dużo różnych opcji konfiguracyjnych,
które pozwalają na włączenie i wyłączenie różnych rzeczy, one się dość często zmieniają, więc no tak jak mówię,
artykuł jest i na pewno z niego można skorzystać i polecam, żebyście sobie przeczytali ten artykuł,
będzie link w komentarzu, zresztą na tyfloświat.pl można sobie wejść i już sobie sczytać ten tekst,
natomiast uprzedzam, te teksty tłumaczeń w niektórych miejscach uległy zmianie.
A teraz będzie coś a propos limitów energetycznych, to znaczy ceny prądu rosną, natomiast będą nałożone ograniczenia
w cenach prądu, natomiast te ograniczenia w cenach prądu będą obowiązywać wyłącznie dla klientów indywidualnych,
czyli po prostu dla zwykłych ludzi, w dodatku te ceny prądu stałe będą obowiązywać tylko do pewnego limitu
wykorzystania tej energii elektrycznej i w przypadku albo dużych rodzin, albo osób z niepełnosprawnościami,
tudzież rodzin, w których taka osoba z niepełnosprawnościami jest, te limity będą większe,
znaczy standardowy limit to będzie 2000 kWh rocznie, natomiast w przypadku rodzin z osobami niepełnosprawnymi
będzie to 2600, dużych rodzin 3000 kWh rocznie. No i jest artykuł o tym, jak tak mniej więcej taki podwyższony limit
uzyskać, przynajmniej jeżeli chodzi o osoby niepełnosprawne. Link oczywiście będzie w komentarzu, natomiast ja sobie
tutaj pozwolę przeczytać to, co jest najważniejsze. Jest napisane tak, że zgodnie z przepisami, aby uzyskać ulgę
należy złożyć do przedsiębiorstwa energetycznego, wykonującego działalność w zakresie obrotu energią elektryczną
lub zajmującego się jej dystrybucją oświadczenie o spełnianiu przez odbiorcę warunków pozwalających na uznanie
go za odbiorcę uprawnianego. Nie trzeba załączać do niego kopii orzeczenia o niepełnosprawności,
jednak zakłady energetyczne mogą zażądać jego okazania w celu weryfikacji danych. Oświadczenie należy złożyć nie
później niż do 30 czerwca 2023 roku. No i mniej więcej tyle jest napisane. Także warto się tym jakoś zainteresować,
2000 kWh to jest taka wartość, którą spokojnie można osiągnąć, a powyżej tej wartości noce ceny prądu mogą
zacząć być już inne. Zwłaszcza jeżeli mamy wszystko w mieszkaniu na prąd, a to jest coraz powszechniejsze,
zwłaszcza w nowym budownictwie, gdzie od gazu mam wrażenie, że się odchodzi. Na przykład u mnie, żeby daleko nie szukać,
wszystko jest na prąd, nie ma tu żadnej innej możliwości. U nas akurat możliwość jest, natomiast my kupowaliśmy
mieszkanie z rynku wtórnego i u nas po prostu nie założyli instalacji gazowej. Tu na przykład w ogóle nie ma
instalacji gazowej, więc nie ma żadnej opcji. Natomiast pół biedy jeszcze w mieście, trochę gorzej jest na wsi,
gdzie ten prąd również się często używa do ogrzewania i wtedy może być. Oczywiście. Zdarza się, że ten prąd jest
używany na prąd do ogrzewania. Ale tam chyba jeszcze dla gospodarstw rolnych to jeszcze jest jakaś inna,
jak dobrze pamiętam, a przynajmniej miała być, bo to się zmieniało, tam chyba było 3000. Być może, w każdym razie
tak czy inaczej. Jeżeli mamy na przykład jakiś komputer stacjonarny, to taki komputer może dość sporo tej energii
pobierać i myślę, że jakiś temat jakichś liczników energii, które są na przykład na Bluetooth, może być dość
interesujący. Ja w ogóle mam od niedawna taki miernik energii, który jest na aplikacji, który się instaluje koło licznika,
to już musi zrobić ktoś, kto ma dość dobrze opanowaną elektrykę, bo trzeba rozebrać skrzynkę z tą, skrzynkę tą,
gdzie są bezpieczniki. Trzeba tam powkładać te powiedzmy, że czujniki i to jeszcze odpowiednio powkładać,
bo gdy się je wkłada jakby w drugą stronę, to może się okazać, że urządzenie nam mierzy energię jakby w drugą stronę,
że my oddajemy energię do sieci i jeszcze kilka takich rzeczy, które nie są może jakoś bardzo ważne, niemniej mogą się
sprzedać, też są źle wskazywane, tak zwana moc bierna, moc pozorna, może być trochę inaczej wskazywana wtedy. W każdym razie tak czy inaczej
myślę, że warto zainteresować się, jeśli nie czymś takim, to przynajmniej tymi licznikami, które się wkłada do gniazdka
i można sobie mierzyć zużycie brądu przez różne urządzenia.
Z ciekawości Tomku, jaki jest koszt takiego licznika, o jakim Ty mówisz?
To jest kilkaset złotych, my zapłaciliśmy nie pamiętam 400 czy 500, coś koło tego, no i to mierzy na 5, znaczy w ogóle prąd na trzech
tych tak zwanych fazach, więc jeżeli się ma również te trójfazowe urządzenia, również to potrafi zmierzyć.
No i oprócz tego u nas akurat jest tak, że ta instalacja, zresztą pewnie nie tylko u nas, jest dość logicznie zrobiona, czyli na przykład
kuchnia jest na jednej fazie, łazienka na drugiej, pokoje zdaje się na trzeciej często, więc da się tak z grubsza ustalić, co ile bierze prądu,
a jeżeli chce się mieć takie bardziej te ostrzyty szczegółowe, no to można też kupić sobie właśnie takie urządzenia, które instaluje się gdzieś tam w gniazdku.
Oczywiście można kupić tylko takie urządzenia i sobie badać tylko to, co się podłącza do gniazdka, no bo wtedy już nie zbadamy na przykład zużycie prądu
przez światła w domu, a zwłaszcza przy starych żarówkach to może być dość konkretny ten koszt. Ja sobie patrzyłem właśnie u nas w domu
i tam, gdzie mamy nowe żarówki, no jest tam kilka, kilkanaście watów, natomiast bywało, że tych watów jest kilkadziesiąt per żarówka, więc jeżeli mamy
zaświecony cały dom, to tam pod dwieście watów w ogóle szły wskazania, więc no jeżeli ktoś jeszcze nie ma poczucia światła i na przykład przez
przybadek sobie zapali takie światło, no to może konkretnie mu ten, znaczy konkretnie, no jakoś tam zauważalnie mu ten koszt wzrosnąć energii.
Też jak tam kilka lat temu kupiliśmy lodówkę, wcześniej mieliśmy lodówkę sprzed dwudziestu lat też kupioną przez pierwszych właścicieli, ona w ogóle była lodówką
dwuagregatorową, czyli miała dwa oddzielne systemy chłodzenia do lodówki i oddzielne do zamrażalnika, mimo tego, że to było jakby jedno urządzenie.
No i efekt był taki, że po kupnie nowej lodówki ceny prądu nam zmalały o jedną trzecią, więc tylko jakby wystarczyło, wystarczyło wiemy na lodówki,
żeby te ceny prądu poszły w dół i to tak naprawdę konkretnie w dół, bardzo zauważalnie, a teraz gdy te ceny są jeszcze wyższe, no to można się, no myślę, że dobrym
nie razem pomysłem byłoby zastanowienie się, czy można by sobie obniżyć takie rachunki w domu, no bo te ceny będą szły w górę i mogą konkretnie pójść w górę,
zwłaszcza po przekroczeniu tego limitu mrocznego. Także no to taka, takie coś.
Zaglądam na Facebooka, bo tu do nas piszecie, Dawid do nas ma pytanie, czy te głosy, które prezentowaliśmy na początku dzisiejszego tyflopszeglądu pojawią się w blindshellu,
bo byłby zainteresowany. No Dawidzie to pytanie nie do nas, to bardziej pytanie do producenta. Ja podejrzewam, że z którąś aktualizacją to jest szansa, że one się pojawią.
Blindshell jest 64-bitowy, ma procesor. Pytanie, czy blindshell ma głosy Google’a? Jak dobrze pamiętam, to tak.
Klikacje Google’a i rzeczy typu Google Play. Nie, sklepu Play nie ma. Nie, głosy Google’a 100% ma, bo to słychać w każdym jednym demo.
Natomiast sklepu Play to nie ma jak zaktualizować. No ale wiecie, może wyjść jakaś aktualizacja systemu, dlatego mówię, że być może w przyszłości,
ale to nie będzie tak, że to przyjdzie razem z jakimś nie wiem, że to przyjdzie za kilka dni. O ile w ogóle jest 64-bitowy. No właśnie, właśnie.
Więc Dawidzie nie odpowiemy Ci na to pytanie. To wie tylko producent, albo planuje. Ale można się zapytać. Tak, można się zapytać.
I podejrzewam, że kilka osób może faktycznie gdzieś tam o to pytać, bo to jest taka rzecz, którą używamy. Syntezator mowy to jest jedna z takich kluczowych opcji w telefonie dedykowanym osobom niewidomym.
Zdecydowanie. Miejmy nadzieję, że tak się stanie. I ostatnią nowością w naszej rubryce Tyflowieści jest informacja, że wyszła beta nowego NVIDIA.
To w ogóle ciekawe, bo przecież tuż niedawno wyszła wersja stabilna 2022.3, a teraz pierwsza chyba beta 2022.4.
Tak. NVIDIA chcesz tak lubi. Posiedzi sobie na tych betach, poprawia błędy, potem się pojawią RC, wyjdzie 2022.4, no i następne bety potem.
Nie wiem, czy oni teraz trochę nie przyspieszyli w sumie tego cyklu wydawniczego. Miałoby to sens.
Tak, bo tam pamiętasz, że była obsuwa kiedyś. Tak, obsuwa była kiedyś. I chcą to chyba nadgodnić, żeby to miało sens, żeby to nadal dzwoniło kwartałami.
Tak, bo teraz było tak, że zawsze wersja 2020.4, czyli ta ostatnia, wychodziła w nowym roku już. No więc trochę nie miałoby sensu.
Tak, w ogóle bety nawet wychodziły w nowym roku. Tak, w nowym roku. Bo kilka miesięcy było opóźnione, więc.
Dokładnie, więc może praktycznie. Teraz to już tak jest nieźle, skoro w październiku tego roku już są bety, więc jest szansa, że gdzieś w styczniu lutym.
Albo też takiego. To może być na premierę, ale zobaczymy. Albo i grudzień może, nawet się wyrobią jeszcze w tym roku, zobaczymy.
No i tak, to wydanie zawiera kilka nowych poleceń, w tym polecenia czytaj wszystko dla tabeli.
Przewodnik, podreszcie użytkownika, zyskał teraz sekcję szybki start. Jest kilka poprawek błędów.
Zaktualizowano Ispica oraz LibLuis. Dodano nowe tablice dla chińskiego, szwedzkiego języka Luganda i Kinnajärvåvanda.
Przepraszam za nieumiejętność wypowiadania nazw tych języków, ale oczywiście dobrze, coraz więcej języków dostaje tablice mylowskie, coraz więcej języków dostaje wsparcie w Ispiku i w LibLuisie.
No i to dobrze, bo są osoby, które mówią tymi językami i fajnie by było, gdyby one mogły też z komputerów jako osoby niewidome korzystać.
Bo Vocalizer i inne tego typu syntezatory, to wspiera te większe języki, ale zwłaszcza z językami afrykańskimi, syntezatory mają bardzo często problem.
A tam są czasami ogromne ilości ludzi, tam jest czasem więcej osób mówiących jednym z języków, bodajże Nigerii, niż osób mówiących po polsku.
Więc to nie jest wcale tak, że tych osób jest mało. W każdym razie przechodzę do nowości.
Nowe funkcjonalności. Dodano sekcję szybki starts do podręcznika użytkownika, wprowadzono nowe polecenie do sprawdzenia skrótu klawiszowego elementu, na którym znajduje się fokus, na którym znajduje się nasz kursor.
Na klawiaturze desktopa jest to shift i numeryczne dwójka, na klawiaturze laptopa nvda plus control plus shift plus kropka.
Wprowadzono nowe polecenia pozwalające przesunąć nam kursor przeglądu o stronę w przód lub w tył.
Poprzednia strona na desktopie nvda plus page up, laptop nvda shift page up, no i wiadomo następna strona page down.
Dodano następujące polecenia do tabeli.
Przeczytaj wszystko w kolumnie nvda alt control strzałka w dół, przeczytaj wszystko w wierszu nvda control alt strzałka w prawo, przeczytaj całą kolumnę nvda control alt w górę, przeczytaj całą wiersz nvda control strzałka w lewo.
O co tu chodzi? Mamy powiedzmy tabele i mamy nazwa produktu, cena, producent, kod, opis.
I powiedzmy my szukamy jakiegoś produktu, który nas interesuje, no i do tej pory możemy sobie dać czytę wszystko i nam czyta. Nazwa taka, kod 28, myślnik 13 i tak dalej i tak dalej i tak dalej.
Nas to nie interesuje, nas interesują same opisy. No tylko żeby czytać same opisy to musieliśmy sobie nawigować po tych opisach ręcznie.
A my byśmy chcieli sobie zapuścić i niech on nam te opisy produktów czyta, my sobie pójdziemy, zrobimy herbatkę, mamy na sobie słuchawki bluetooth, niech sobie nvda czyta.
No to teraz będzie mogła nam czytać, zapuszczamy sobie czytaj wszystko na kolumne no i nam czyta na kolumne.
No i czytaj i jeżeli dobrze rozumiem to właśnie czytaj wszystko co są polecenie od kursora w dół, no a całe no to jest całe od początku do końca.
Kontynuując, Microsoft Excel, gdy używamy UIA, czyli tego nowego standardu, który jest teraz w Excelu implementowany, nvda będzie ogłaszał gdy opuszczamy tabelę w arkuszu kalkulacyjnym.
No bo w arkuszu kalkulacyjnym mimo, że sam arkusz jest ponikąd tabelą, to w nim możemy tworzyć dodatkowe tabele. To może jak ktoś Excela zna to wie o co chodzi i jak się tego używa.
Ogłaszanie nagłówków tabeli można teraz konfigurować osobno dla wierszy i kolumn.
Ja uważam, że przydatna funkcja zmiany. if-pick-ng został zaktualizowany, poprawiono ogłaszanie znaków łacińskich, gdy używamy mandaryńskiego,
a zaktualizowano LibLuis, dodano tablice braillowskie, chiński braill wspólny, znaki uproszczonego chińskiego,
kina rwanda braille literacki, luganda braille literacki, szwedzki braille bez kontrakcji, szwedzki braille z częściowymi kontrakcjami,
szwedzki braille z pełnymi kontrakcjami, chiny, obecny system braille dla mandarińskiego bez wsparcia dla tonów.
NVIDIA będzie teraz zgłaszać architekturę procesora przy zgłaszaniu statystyk i to tyle jeżeli chodzi o zmiany, poprawki błędów.
Gdy aktualizujemy NVIDIA za pomocą managera pakietów Windows, wersja stabilna nie jest zawsze traktowana jako nowsza, jeżeli posiadamy wersję alfa,
to zawsze byliśmy informowani, że wersja stabilna jest nowsza. NVIDIA będzie teraz poprawnie ogłaszać grupy w aplikacjach w technologii Java.
Kursor poprawnie podąża za czytaj wszystko w aplikacjach takich jak Bookworm, Wordpad oraz przegląd logów NVIDIA.
Jak zatrzymamy mowę, a mamy włączone wszystko, to trafimy kursorem tam gdzie faktycznie zatrzymaliśmy, a nie w jakieś losowe miejsce. Programy, które używają UIA,
częściowo zaznaczone poda wyboru, będą teraz poprawnie ogłaszane. Poprawiono stabilność i wydajność w Microsoft Visual Studio, Windows Terminal
i innych aplikacjach, które używają właśnie UIA. Te poprawki dotyczą tylko i wyłącznie Windowsa 11 wersji Sanwali 2, czyli 22H2 i wyższych.
Rejestracja tylko dla wybranych wydarzeń UIA jest teraz włączona domyślnie, co to dla użytkowników oznacza spore przyspieszenie screen readera, czyli na NVIDIA będzie sporo szybszy,
bo ta opcja do tej pory była tylko dla użytkowników zaawansowanych. To nawet nie chodzi o przyspieszenie, najczęściej w zwykłym użytkowaniu chociaż to też,
ale zmniejszenie ilości zawieszeń programu, bo jedna z przyczyn, gdzie NVIDIA bardzo długo na coś reagował, bo się kompletnie zawieszał,
jedną z przyczyn było to, że niektóre programy z powodu błędów wysyłały jakieś właśnie olbrzymie ilości tych zdarzeń i w przeciwieństwie do innych screen readerów model wewnętrzny
stworzenie NVIDIA jest taki, że po prostu bierze jedno zdarzenie, przetwarza, następne, przetwarza, następne, przetwarza, niczym po prostu robotnik na linii produkcyjnej na taśm pociągu,
no i jeżeli się nam ta kolejka zdarzeń zapcha, to może mu zająć powiedzmy minutę zanim on to wszystko przetworzy, a w tym czasie zdąży tych zdarzeń przebiec dwa razy tyle,
więc przez tą nową funkcję on optymalizuje, które zdarzenie go w ogóle interesują, o które zdarzenie o system prosi i w tej kolejce się pojawi połowa z tego, co by się tam normalnie pojawiło, w związku z czym szybciej będzie nam to wszystko przetworzyć.
Ogłaszanie tekstu, wyjście w brajlu oraz tryb hasseł działają teraz poprawnie w wewnętrznej kontrolce konsoli w Visual Studio 2022. NVIDIA ma teraz wsparcie dla DPI, gdy używamy więcej niż jednego monitora.
Jest kilka poprawek, jeżeli używamy DPI większego niż 100% na wielu więcej niż jednym monitorze. Problemy mogą się jeszcze pojawiać w Windowsach starszych niż Windows 10 1809.
Aplikacje, z którymi NVIDIA współpracuje, również muszą współpracować z tematem DPI. Nadal są jeszcze problemy z Chromem i Edgem.
DPI to jest kwestia bardzo wizualna. Chodzi po prostu o to, jak duży ma być jeden piksel. Jeżeli mamy dwa ekrany różnej wielkości, to sobie możemy to tak ustawić, żeby ikonka, która na jednym ekranie ma centymetr wysokości, na drugim ekranie też miała centymetr wysokości.
Mimo, że jeden ekran ma wysokości powiedzmy 1080 pikseli, a drugi ekran ma wysokości powiedzmy 720 pikseli i sobie tam ustawiamy inne DPI, czyli jakby inna wielkość fizyczna tego piksela i to zostanie wtedy nam tak ładnie wyświetlone.
NVIDIA ma problem z tym wszystkim. I tutaj jest powiedziane, co nam poprawiono. Podświetlenie wizualne elementów będzie się teraz pojawiało w poprawnych miejscach. Interakcja z ekranem dotykowym będzie teraz dokładna, taka jaka powinna być.
Śledzenie myszy będzie teraz działać w większości aplikacji. Jeżeli właśnie mamy taki scenariusz, to do tej pory mieliśmy z tym problem, że NVIDIA przez te zmiany, przez te przeskalowania nie za bardzo wiedział, gdzie pewne rzeczy znajdują się na ekranie.
Zmiany orientacji są teraz poprawnie ignorowane, gdy nie ma żadnej zmiany, np. zmiana monitora, no bo do tej pory i to jest faktycznie fakt, one były ogłaszane. NVIDIA będzie ogłaszał, gdy przenosimy elementy na ekranie np. w takich miejscach jak przenoszenie kafelków w menu start i wirtualnych pulpitów.
Ustawienia zaawansowane, opcja odtwórz dźwięk na błędy jest teraz poprawnie przywracana do wartości domyślnych. NVIDIA może zaznaczać tekst za pomocą skrótu insert f10 w aplikacjach Java, no i to tyle. Potem to już są zmiany dla deweloperów, to już sobie chętni doczytają.
No i przechodzimy teraz do naszej ruryczki technikalia i na początku news od Pawła, a propos serwisu audio.com, czyli udostępnianie obiektów audio wprost z Audacity.
Tak, bo Ty Tomku mówiłeś w ostatnim, no przedostatnim w sumie spotkaniu o nowej wersji Audacity, gdzie weszły efekty w czasie rzeczywistym, weszły VSTki w wersji 3, no a okazuje się, że grupa Muse rozbudowała się bardziej w stronę właśnie jakichś takich ofert, serwisów i tak dalej, jakiegoś zintegrowania bardziej Audacity z jakąś usługą i tak dalej.
No i można by tak zażartować, że Audacity ma teraz swoje Q-Audio, albo swojego SND-Apa, albo AnyAudio, albo którykolwiek z tych serwisów, no bo została tam dodana opcja wysyłania czegokolwiek nad czym pracujemy na właśnie serwis audio.com, który powstał specjalnie do tego celu.
Możemy wejść sobie na audio.com, założyć tam konto, no i od tego momentu mamy swój osobisty profil. Format tego jest bardzo prosty, bo audio.com ukośnik nasza nazwa użytkownika. Jeżeli wpiszemy nasze imię i nazwisko jako nazwę wyświetlaną przy rejestracji, to domyślnie to będzie nasza nazwa użytkownika, ale możemy ją też zmienić na jakąś tam swoją.
I wtedy wszystko co wrzucimy na audio.com jako publiczne, będzie tam figurowało jako nasze nagrania.
No i co możemy zrobić? Możemy za pomocą strony właśnie audio.com bezpośrednio w przeglądarce wrzucić dowolny plik. Formaty to WAV, MP3 lub FLAC, a możemy też wrzucić to z Audacity.
Co robimy w ten sposób, że naciskamy będąc w widoku ścieżek dwukrotnie Ctrl-F6, żeby przejść na ten drugi pasek narzędziowy, no i tam będzie przycisk udostępni audio. O ile mamy cokolwiek na ścieżce, to wyświetli nam się komunikat, żeby albo powiązać nasze konto, albo wrzucić audio tak o.
No i kiedy wrzuciłem audio tak o, to jakimś cudem, możliwe, że ten link, który został wygenerowany, był aktywowany w przeglądarce, w której ja byłem wcześniej zalogowany na to moje konto, ale automatycznie ten dźwięk został powiązany i tak z moim kontem.
Natomiast w momencie, kiedy jesteśmy już powiązani i powiązaliśmy to konto z Audacity, no to możemy albo po wrzuceniu ten link skopiować, albo przejść na stronę audio.com i tam się dalej tym nagraniem zająć i zmodyfikować jego ustawienia.
Link otrzymujemy po to, żeby tym nagraniem się podzielić ze znajomymi. Oni mogą to nagranie sobie oczywiście odsłuchać. Jeżeli im na to zezwolimy, to możemy również w ustawieniach nagrania ustalić. Mogą oni sobie to nagranie od nas pobrać.
Mogą oni sobie również to nagranie skomentować. Mamy dyskusję w komentarzach pod nagraniem. I w dużym skrócie to jest w zasadzie tyle. W tym momencie najczęściej tak to wygląda, że link do tego nagrania to jest audio.com, ukośnik nasza nazwa użytkownika, ukośnik nazwa tego nagrania, więc to nie jest jakiś bardzo skomplikowany system.
Grupa Muse zakłada, że tam będziemy wrzucać jakieś nasze produkcje audio, utwory muzyczne, nagrania, jakieś podcasty, cokolwiek. No i będzie można taką bibliotekę tworzyć.
A czy wiadomo coś i czy w ogóle są jakiekolwiek ograniczenia tego systemu? Na przykład pojemność naszego konta, albo wielkość pliku, który możemy tam wrzucić za jednym razem.
Do niczego takiego niestety nie dotarłem w tym momencie. Nie jest to gdzieś w sposób oczywisty napisane?
No przypuszczam, że to czego na pewno należy się wystrzegać w przypadku tego typu serwisów, jeżeli chcemy, żeby nasze konta pozostały nienaruszone, no to nie traktować tego jako jakiegoś schowka do przetrzymywania materiałów, do których nie mamy praw autorskich.
Bo o ile na samym początku to prawdopodobnie nic z tym się nie będzie działo, o tyle później, kiedy serwis zyska na popularności, no to może się nagle okazać, że po prostu nasze konta zostanie wyczyszczone, albo zupełnie dostaniemy bana.
Zwłaszcza, że serwisy typu SNDAB są serwisami w dużej części wykorzystywanymi przez niewidomych i na nie się aż tak nie patrzy, no a takie serwisy typu właśnie to Audiocom, no to są serwisami popularnymi i podejrzewam, że niejednemu przyjdzie pomysł podzielenia się muzyką, do której nie ma praw w ten sposób.
I niejednemu przyjdzie też pomysł zarobienia na znajdowaniu takich osób i zgłaszaniu ich odpowiednią instytucją.
Są piękne przykłady corporate trollingu, więc mnie by coś takiego absolutnie nie zdziwiło, no i prędzej czy później, podejrzewam, że dojdzie do tego, że Audiocom, jeżeli już oczywiście do tego nie doszło, zirytuje się na osoby naruszające prawa autorskie i te czy inne systemy wprowadzić.
Bardzo możliwe. Natomiast ja bym dodała dwie rzeczy. Jedna rzecz, której mi brakuje zawsze przy takich rzeczach, czyli że nie można sobie po prostu wejść na stronę i zobaczyć co tam się nowego dzieje, przynajmniej w ramach tego co jest dozwolone jako możliwe do pobrania.
No tak. Bo fajnie byłoby po prostu mieć taką kopalnię totalnie losowych rzeczy. Natomiast druga rzecz, w sumie dużo bardziej odrealniona, to byłoby współpracowanie nad nagraniem.
Które by właśnie było w chmurze i synchronizacja by się działała właśnie na etapie jakiegoś… no chociażby to było zrobione tak jak jest w ofisie online’owym, że jest na przykład jakiś fragment dźwięku, załóżmy 10 sekund, że jak jedna osoba to edytuje, to druga nie może i trzeba się gdzieś tam przemieścić, żeby też ten…
Czy w sumie… chociaż dobra, to by się roz… to by mogło być dziwne, ale tak w sumie… no… Audacity to w sumie raczej nie, ale Reaper w sumie w ramach itemów…
No Audacity też ma taki rodzaj itemów, ale Audacity ma te klipy, te przycięcia. Aha, no właśnie. W ramach klipu by się dało. Inaczej… zawsze… No właśnie, to może Mikołaju…
Wiecie co, ja też pomyślałem o tym, bo to jest dopiero początek i ten serwis dopiero gdzieś się tam powoli rozkręca. Ja myślę, że to jest początek i my jeszcze zobaczymy dużo więcej od Audiocom.
Ale Audacity sama w sobie jest też chyba open source nadal. To bardzo możliwe, że tą integrację z Audiocom da się przeprowadzić też na jakimś innym oprogramowaniu. Może za chwilę się okaże, że klienty Twittera będą te dla niewidomych sobie ten serwis wykorzystywać do wrzucania audio.
Bo to wygląda jak taki typowy Twitterowy serwisik właśnie dla niewidomych, tylko robiony przez już dużą firmę, która z niewidomymi coś wspólnego ma, ale nie tylko z nimi. No, pożyjemy, zobaczymy co z tego wyniknie.
Natomiast na ten moment możecie uploadować swoje dzieła, które stworzyliście w Audacity, albo po prostu przez przeglądarkę, gdybyście szukali jakiejś platformy, żeby móc to udostępnić w mediach społecznościowych albo znajomym.
Tak jest. A teraz rzekło się, że newsy Pauliny drobne będą, no to w końcu pora na te drobne newsy od Pauliny, tylko właśnie to są newsy bardziej technologiczne ogólnie niż związane z typowym tyfloweściami, ale myślę, że mogą i tak się części z nas zapewne przydać.
A zatem rozpoczynamy od aktualizacji oprogramowania VirtualBox, które dostało wersję 7.0, która to wersja pozwala na chmurowe maszyny wirtualne.
Nie wiem w ogóle, jak by to działało, bo dzisiaj się o tym dowiedziałam, że w ogóle jest ta wersja, ale ma to wyglądać tak, że właśnie maszyna synchronizowana jest z chmury dociągana i jakoś tam, właśnie nie wiem czy dociągana, czy realizowana w chmurze, ale ma się to nam praktycznie nie, no jakby…
Czyli jak rozumiem, stan tej maszyny wirtualnej będzie zapisywany w chmurze i możemy powiedzmy na jednym komputerze sobie ją uruchomić, wykonać jakieś tam operacje, przeprowadzić coś tam i wyłączyć tego VirtualBoxa, przejść do innego komputera, zalogować się do tego samego chmurowego konta, no i dostaniemy ten stan maszyny.
To może być interesujące, chociaż no VirtualBox jak dobrze pamiętam nigdy nie grzeszył jakąś przesadną dostępnością, nam chyba trochę poprawiono to po jakimś czasie, ale…
Tragedii tam też nie ma i VirtualBox jest o tyle fajny, że tam też wszystko z linii poleceń zrobimy, więc to czego na przykład w VMware, że nie za bardzo bylibyśmy w stanie w ogóle zrobić, to w VirtualBoxie w ten czy inny sposób zrobimy.
I ja VirtualBoxa miałem okazję używać i no nie był to jakiś wielki problem, ale nie było to też jakoś najprzyjemniejsze. Na szczęście dzisiaj jest cenzuralnie za oknem, więc jest tylko śmiesznie.
Ale to był bardzo ciekawy komentarz.
Tak, właśnie. Jest tak jakby dezafrowatą obdarzona tego VirtualBoxa. Tak, kolejną rzeczą, która w tym programie się zmieniła jest pełne wsparcie dla szyfrowania TPM i ogólnie tego co kojarzy się z wymaganiami systemowymi Windowsa 11.
Czyli inaczej mówiąc, bez kombinowania można już teraz ten system zwirtualizować. Są też jakieś zmiany w interfejsie, jakieś centrum powiadomej nie są ujednolicone, ale nie wiem, nie znam więcej szczegółów na ten temat.
Szczególnie nie wiem na ile dostępność się zmieniła. To jest do potestowania.
Druga rzecz, będą niki na YouTube dla twórców treści, dla twórców kanałów.
Czyli załóżmy mamy sobie kanał jakiś tam i ten kanał otrzymuje swój unikalny nick, dzięki któremu można go wzmiankować w komentarzach do innych materiałów, można go używać w spersonalizowanym URL-u.
Generalnie będzie kilka miejsc, w których te niki się będą wyświetlały. To też można oznaczać twórcę w komentarzach do jego treści właśnie nickiem.
I sukcesywnie to pole, gdzie będą niki królowały się będzie rozszerzało. No cóż, myślę, że to jest okej, jeśli na przykład mamy kogoś, kto ogłasza się, że będzie się zajmował czymś i gdzieś indziej na YouTube trafimy na coś, co mogłoby go zainteresować.
No to wtedy go wzmiankujemy, no i tym ktoś może sobie spokojnie na to zerknąć wtedy, kiedy będzie miał jakiś tam wolny czas na to itd.
Kolejna rzecz, która może się też nam przydać z perspektywy dostępności. Apple uruchamia takie sesje AskApple i to będą takie, ja wiem, Q&A pewnego rodzaju, które mogą pomóc developerom w programowaniu aplikacji na systemy.
O, to właśnie Apple’a. Będzie to realizowane na Slacku czy też na innych dokładnych platformach, ale najbardziej o Slacku jest mowa.
I cóż, kwestia jest tego typu, że można pytać o jakieś nowe koncepcje projektowe, o wdrażanie technologii, które są przygotowane w nowych update’ach, ale również jest mowa o wdrażaniu ułatwiń dostępu,
więc można przekierować właśnie developera, któremu zasugerowaliśmy dostępność do tych sesji AskApple, ponieważ można zapytać o konkretny kod, o konkretną aplikację, konkretne rozwiązanie, także wydaje się to dość ciekawe.
A to jest w ogóle rzeczywiście interesująca sprawa, bo zwykle dyskusje o Apple z Apple toczyły się w obrębie jakichś miejsc, gdzie to Apple tym wszystkim zarządza, a tu wychodzą tak trochę do użytkowników na jakieś zewnętrzne platformy, przynajmniej na to by to wskazywało.
Ciekawe czym to zostało podyktowane, może większą chęcią dotarcia do szerszego grona programistów, może też to oznacza w jakiejś tam przyszłości nieco bardziej liberalne podejście do tych kwestii kont developerskich, może kiedyś będzie taniej.
Może, zobaczymy jak to się ukształtuje. No i takie ostatnie dwa newsy. Pierwszy dotyczy Microsoft Teams, który śladem powiedziałabym i WhatsAppa i Telegrama uruchamia swoją subskrypcję premium.
Śmieję się z tym śladem, bo raczej nie sądzę, że z tego powodu, ale jakoś tak ostatnio się namnożyło tych wersji premium różnych komunikatorów.
W każdym razie Teams w swojej wersji premium zaoferuje nam jakieś presety, opcji dotyczące spotkań w różnych konfiguracjach, czyli tam różne ustawienia będzie stosował do różnych scenariuszy.
Możliwość zachowania większej ochrony treści na spotkaniach, jakieś tam inteligentne podsumowania, czyli jakaś transkrypcja, tłumaczenie w czasie rzeczywistym.
Jakieś automatycznie generowane rozdziały, spostrzeżenia, to kiedy zostało wspomniane nasze imię, jakieś takie podsumowania od momentu kiedy wcześniej opuściliśmy spotkanie przed jego końcem.
W zasadzie info jest z dzisiaj, więc nie wiem też na ile to wspiera język polski.
Powiem Ci Paulino szczerze, że to już powoli zaczyna być wdrażane, to znaczy ja zauważyłem, bo my akurat korzystamy w fundacji z Teamsów i w ogóle z narzędzi Microsoftu.
I tam zaczęły mi od pewnego czasu przychodzić takie inteligentne, a właściwie próbujące uchodzić za inteligentne maile od takiego wirtualnego asystenta. Teraz nie pomnę nazwy tego asystenta.
Ale zacząłem dostawać na przykład informację, że tu masz jakąś tam informację, na którą trzeba odpowiedzieć dzisiejszego dnia, a tu masz jakąś jeszcze niezakończoną sprawę.
Tu pojawia się coś tam i na przykład w Teamsie gdzieś tam też zauważyłem, że zaczęły się pojawiać informacje dotyczące na przykład pracy, że mogę sobie wybrać jakieś godziny, w których mam tak zwaną pracę indywidualną.
To znaczy, że proszę, żeby mi nie przeszkadzano, nie mam czasu na jakieś spotkania, mogę sobie to oznaczyć, że na przykład koresponduję najczęściej e-mailowo i gdzieś tam właśnie na Teamsach z tymi i tymi osobami.
Czy na przykład chciałbym im podziękować za jakąś dodatkową aktywność, że zrobiły coś w pracy więcej niż musiały i tak dalej i tak dalej.
Więc ta poczta Microsoftu, to całe środowisko, ono jest bardzo mocno analizowane przez tę sztuczną inteligencję i także w języku polskim i Microsoft tym się może za bardzo nie chwali,
ale tam się pod maską dzieje bardzo dużo i myślę, że za jakiś czas to może nam faktycznie przynieść dosyć ciekawe efekty i to może być naprawdę niezła pomoc w pracy.
Bo na razie te maile to są takie, na przykład on uznaje, że jakaś sprawa nie jest zakończona, a tak naprawdę już temat jest rozwiązany.
Jest trochę takich false positives, ale rzeczywiście za jakiś czas to może być całkiem nie głupia rzecz, natomiast to raczej nie będzie rzecz premium,
bo w przypadku Teamsów mam wrażenie, że w ogóle nie ma sensu coś takiego jak premium w tych innych komunikatorach.
No bo kto poza pracą korzysta z Teamsów czy poza jakąś nauką? No ok, jest taka możliwość teoretycznie, można z tego korzystać, ale ten pakiet, to narzędzie,
to jest głównie do pracy, a tam i tak płaci się za licencję.
Znaczy nie wiem, ale ja w zasadzie jakby info mam oficjalne ze strony Microsoftu, więc…
No to jeżeli tak by miało być, to to jest dziwne posunięcie moim zdaniem, zupełnie dla mnie nie zrozumiałe, chyba że Microsoft chce, żeby też i użytkownicy prywatni korzystali z Teamsów.
Znaczy mi się wydaje, że to bardziej jest oczywiście pod firmę, bo tam na przykład jest też jakieś personalizowanie tła, które ma na przykład wyrażać jakieś logo firmy i tak dalej.
No to być może będzie można sobie to kupić w jakiejś rozszerzonej licencji, może o to tu chodzi, natomiast i tak się już za to płaci, i tak się już za te konta płaci.
Znaczy to właśnie, nie wiem jak tam wygląda kwestia finansowa, no ale…
No nie mniej jednak potwierdzam, sztuczna inteligencja w Microsoftzie siedzi i czesze, czesze bardzo intensywnie to, co tam się pisze i nie wiem czy też o czym się rozmawia.
Na razie jeszcze tu niczego takiego nie zaobserwowałem, ale kto wie, kto wie, wszystko przed nami.
No bardzo możliwe, że już w sumie skoro te transkrypcje mają być, no to raczej tam coś do tej analizy trafia.
No w każdym razie ostatni taki drobniutki już wniósł sygnał ze swojego klienta na Androida, wycofuje wsparcie SMSów i MMSów,
tak że będzie trzeba w ustawieniach wybrać nową aplikację do myśleniu, jeżeli nadal używacie Sygnala jako te właśnie aplikacje do SMSów,
no tym niemniej Sygnal zachęca do korespondowania nadal na Sygnalu, z tym że już z użyciem ich protokołu.
A znalazłem tego asystenta Microsoftowego, Viva, nazywa się Viva.
O, to tak jak moja chrześnica.
No to ja jeszcze się podczepię na koniec, tak?
Tak, jeszcze dwa twoje newsy zostały.
Bardzo szybko, bo tu nie ma się nad czym też rozwodzić, po pierwsze Żabka i InPost kończą współpracę,
więc już od 7 października nie da się odbierać paczek InPostu w Żabce, bardzo to wszystkich zaskoczyło, bo nic na to nie wskazywało.
Dalej da się Pocztę Polską i DHL, a WhatsApp przynajmniej w wersjach beta, tak to na razie wygląda,
testuje, czy by nie zwiększyć liczby uczestników grupy z 512 do 1024, z jakichś przyczyn lubią ten system dwójkowy,
no i będą dzięki temu mogły być większe grupy na WhatsAppie.
I to chyba tyle na ten moment.
I to chyba też tyle na ten tygodniowy przegląd, chyba że oczywiście ktoś znalazł coś jeszcze w trakcie trwania audycji.
Znaczy mam jeszcze takie rzeczy, których nawet nie wpisywałam w ten plik, bo stwierdziłam, że nie będę się nad tym rozwodzić,
ale jakoś tam w ramach zasygnalizowania 15 października będziemy mogli zwiedzić Muzeum Szlachty Mazowieckiej w Ciechanowie
za darmo, jeśli jesteśmy osobami niewidomymi lub ich opiekunami.
Tam jest jakaś dłuższa ścieżka przygotowana z audioprzewodnikami i tyflografikami.
Kolejna rzecz, jest jakaś kampania społeczna pracodawca z sercem, która zakłada nagradzanie pracodawców,
którzy podejmują się zatrudniania osób z niepełnosprawnościami, promowanie tej formy oraz aktywizację osób z niepełnosprawnościami.
Jest to już druga rocznica i w Łodzi ruszył program dofinansowywania dom mieszkań dla osób z niepełnosprawnościami
przygotowywany razem z Pefronem.
No to ja może jeszcze na sam koniec ostatnia rzecz z ostatniej chwili.
Apple udostępniło przykłady kodu jak tworzyć te syntezy mowy zewnętrzne dla iOS-a, czyli ten brakujący puzelek,
którego do tej pory nie mieliśmy teraz się pojawił, więc się może chyba już zacząć oficjalnie dziać.
Jeszcze chce mi to patrzeć i okazuje się, że jest to po prostu aplikacja. Ta aplikacja pozwala nam dodać sobie głos do systemu.
Możemy sobie wpisać nazwy głosu, ten głos zostanie do systemu dodany i ten głos jedyne co robi to wychwytuje nam teksty hello i goodbye
i jeżeli taki tekst znajdzie no to odtwarza go po prostu z pliku audio.
Jeszcze dosłownie macie być szczęście, że na koniec na dniach powinna się ukazać aktualizacja komentarego,
która będzie miała już polskie tłumaczenie do najnowszych opcji.
A propos takich syntezatorów, które mówią coś z plików, to chyba była kiedyś jakaś taka akcja,
ktoś zrobił teoretycznie syntezator chyba Google’a na Windowsa jako wtyczkę do NVIDIA.
Apple’a.
Alexa.
Tak, Alexa.
Prima Aprilis.
Tak, tak, tak, właśnie tak.
I tam zdaje się dodało takie najczęściej występujące słowa w języku angielskim, które można znaleźć.
Jakieś desktop, te wszystkie ikony, które są na plikie najważniejsze.
Tam był chyba cały słownik jakiś po prostu większy przejechany skryptem na maku,
bo ja znam ludzi, którzy to robili tak trochę bliżej.
Tam było, co wiem, cały słownik po prostu puszczony plus jakieś dodatkowe chyba rzeczy,
żeby to w NVIDIA jakkolwiek brzmiało.
Po prostu słowo po słowie.
Skrypt oczywiście, bo tego nie pisał człowiek.
Ileś to sobie tam pochodziło, zrobiło.
No i wyszło nawet na tyle, że miało to tyle mega, ile mniej więcej ten głos powinien mieć.
Problem się pojawiał jeden i to jest w ogóle ciekawe, bo ludzie, którzy to robili,
to najmniej nie byli Amerykanie.
Nie przewidziano faktu, że ktoś może chcieć to potestować na nieangielskim Windowsie
i nieangielskim NVIDIA i mieć bardzo duży problem.
Jak? Miałem.
No tak. Także takie prima prilisowe żarty też się zdarzają.
Należy czasami uważać, kiedy przychodzi do nas news z jakąś ciekawą informacją.
Ktoś w ogóle kiedyś znaje się, zrobił też to.
Przegląda jakiś Q-Audio czy właśnie tego typu serwis.
Chyba ktoś chciał kogoś wkręcić, że powstaje syntezator taki, który ten growl tak zwany udaje,
czyli ten metalowy taki, co się w tych wszystkich metalowych takie darcie się, że tak powiem, udaje.
I tam podłożył sample, voice overa, wszystkiego.
Te teksty, nazwy ikon jak trzeba, opóźnienia to tam zasymulował,
tam przez głośniczek tego iPhone’a to zdaje się jeszcze przepuścił.
Więc to wszystko miało być takie dość ciekawie zrobione.
Także ludzie mają ciekawe pomysły.
A to z kolei też w Chinach była kiedyś akcja, że gość był fanem NVIDIA
i chciał pokazać Chińczykom, swoim rodakom, że NVIDIA też jest bardzo responsywne
i nagrał załóżmy syntezę, która mówi pewne jakieś tam swoje kwestie
i dźwięki klawiatury, przy czym te dźwięki klawiatury widać było, że są takie wysamplowane,
bo to był jeden sample, jakby dosłownie w ten sam sposób brzmiący
i te opóźnienia były symulowane mniejsze niż NVIDIA ma w zwyżaju.
Chociaż to też zdarza syntezę, ale generalnie pomysł był taki, żeby zachęcić ich do używania NVIDIA.
A wyszło, jak wyszło.
No dobrze, to co? Kończymy Tyfro Przegląd?
Chyba kończymy.
Dość bogaty w informacje, zarówno te, które przygotowaliśmy dla Was,
jak również te, które Wy przygotowaliście dla wszystkich w sumie,
bo było dużo telefonów, dużo informacji również tych pisanych.
Bardzo się cieszymy z tego powodu.
No i cóż, w dzisiejszym Tyfro Przeglądzie udział wzięli Paulina Gajoch, Mikołaj Hołysz, Paweł Masarczyk,
Michał Dziwisz i ja, czyli Tomek Bilecki..
No i do usłyszenia w następnym Tyflo Przeglądzie.