TyfloPrzegląd Odcinek nr 196 (wersja tekstowa)

Pobierz napisy w formacie SRT
Pobierz napisy w formacie VTT
Fundacja Instytut Rozwoju Regionalnego prezentuje Tyflo Podcast.
Chyba jeszcze tak długo to nie mieliście okazji posłuchać sobie naszego podkładu Tyflo podcastowego, ale to dlatego, że jeszcze na ostatni moment dosłownie rzutem na taśmę musiałem tu dokonać pewnych operacji, żebyśmy się wszędzie mogli słyszeć.
Nie chciałem już powodować tego, żebyśmy mieli jeszcze jakieś dodatkowe opóźnienia, bo już i tak jesteśmy pięć po.
Co prawda opóźnienie to może nie jakieś bardzo wielkie, ale zawsze, co niektórzy nas przynajmniej proszą, żebyśmy byli o czasie, żebyśmy byli o czasie.
To jesteśmy prawie o czasie sto dziewięćdziesiąte, szóste wydanie Tyflo Przeglądu na antenie Tyflo Radia właśnie się rozpoczyna.
oczywiście także na naszych mediach towarzyszących, czyli Facebook oraz YouTube.
Tam nadajemy i witamy Was bardzo serdecznie.
Dziś w składzie Piotr Machacz, Paweł Masarczyk i mówiący te słowa,
Mirosław Dziwisz. Witamy Was bardzo serdecznie.
Piotr i Paweł mają dla nas dziś sporo różnych informacji.
A z racji tego, że ja akurat tak się złożyło, nie mam żadnej, to w zamian za to się z
tymi wszystkimi informacjami podzielę, ale tak w skrócie.
Spektakl Praktyka Widzenia w Teatrze w Łodzi.
Zmodernizowany dworzec w Gdańsku, bardziej dostępny.
Nowości w grach audio.
Co nowego w sierpniowej aktualizacji Joe’s?
Zajrzymy też do najnowszych piątych bet systemów Apple.
Przebudowa hierarchii ustawień i inne zmiany w Jashua.
Google ułatwi skanowanie kodów QR w Androidzie.
Orcam 3. Kolejna wersja urządzenia już dostępna w Wielkiej Brytanii.
Expose Image Captioner. Nowy dodatek do NVIDIA opisujący obrazki.
Transcriptionist. Kolejna aplikacja do przekształcania mowy na tekst na iPhona i Maca.
Rozmowy wideo w Orange. I to bez komunikatora.
Stomp. Mastodon na zegarku Apple Watch.
Interfejs dla FFmpeg z wyszukiwarką komend.
Wszystko to, a pewnie jeszcze więcej już za chwilę.
Zaczynamy!
W Tyflu Przeglądzie jesteśmy zawsze otwarci na Państwa pytania, uwagi oraz newsy.
Zapraszamy na stronę kontakt.tyflopodcast.net,
gdzie można uzyskać szczegóły na temat połączenia na Zoomie oraz napisać do nas wiadomość.
Można to zrobić także z poziomu transmisji na Facebooku, YouTubie oraz aplikacji na iPhona od Arkadiusza Świętnickiego
i na Windowsa od Dawida Piepera.
Czuwamy także na Tyflo podcastowym serwerze Discorda.
Zapraszamy więc do kontaktu.
No a propos tej aplikacji od Arkadiusza Świętnickiego,
to mamy komentarz pod poprzednią audycją,
czyli pod 195. Tyflo przeglądem.
Arek napisał do nas tak.
Dzień dobry. Niestety TyfloCentrum nadal nie będzie jeszcze w tym tygodniu.
Otóż zaraz po audycji wysłałem sobie radośnie aplikację do ASC, ale otrzymałem komunikat, że aplikacja nie może zostać wysłana, ponieważ jedna z moich zależności nie deklaruje klucza i tak dalej i tak dalej.
Z polskiego na nasze, chodzi o to, że aplikacja nie przedstawia systemowi jaki jest jej numer w wersji, błąd ten nie dotyczy zależności, które napisałem samodzielnie,
a biblioteki Unforseen Bass, której używam do odtwarzania dźwięku.
Poniżej link do wątku na ten temat.
No i cóż, tu jest też jeszcze link i Arek ma nadzieję, że twórca tej biblioteki zareaguje,
bo jak nie, to będziemy musieli szukać sobie innej biblioteki audio,
a z tej korzystam już od lat i jestem do niej przywiązany.
Tutaj jest link. Ktoś mógłby powiedzieć, że przecież mogę sam ten klucz dodać do pliku, ale niestety licencja BASA mi na to nie pozwala.
No i tu jeszcze aktualizacja tego całego wątku. Twórca odpisał, więc pozostaje mieć nadzieję, że będzie to wszystko jakoś rozwiązane.
I być może Arek już będzie miał dla nas jakieś dobre wieści.
Oby tak było, bo właśnie Arek się podłączył do nas przed momentem,
więc już go wpuszczamy i zobaczymy, co nam ciekawego powie.
Witaj, Arku. Jak tam, Tyflocentrum?
Dzień dobry. Nie wiem, dlaczego jest zwrotka.
Nie wiem, czy mnie słyszycie, czy mnie w ogóle słyszycie.
My ciebie słyszymy dobrze i zwrotki.
Ja nie słyszę zwrotki.
I zwrotki nie mamy.
Bo ja mam Was na głośniku iPhone’a z jakiegoś powodu, nie wiem dlaczego.
I mam poniekąd dobre wieści, ale to oczywiście będzie za chwilkę, tylko moment.
Podłączę sobie tylko słuchawki, mam je już w ręku, więc to będzie kwestia zaledwie kilku sekund.
Jasne.
I napiszę, opowiem Wam o tym, jaki jest dalszy ciąg moich przygód z betami Apple’a.
a właściwie nie z betami, tylko, że tak powiem przez tyflocentrum Biblioteka Bayes na iOS-a
dostała dzisiaj krytyczną poprawkę i wszystkie dodatki do tej biblioteki również.
No bo wykryłem coś takiego, że teraz wszystkie, generalnie iPhone ma coś takiego,
czy ogólnie systemy Apple jak pliki .plist, to są pliki tzw. property list.
Jeżeli ktokolwiek bawił się w edycję wtyczek do NVDA,
to może te pliki kojarzyć w dużo prostszej formie jako pliki manifest chyba.
Tak poprawcie mnie, jeżeli mówię głupoty,
ale tak mi się coś kojarzy z tego, co moi znajomi się bawili.
To są chyba pliki manifest.
To są takie pliki, które mają w sobie jakieś tam metadany
dotyczące, przepraszam bardzo, czy ja jestem,
Coś mi tu dziwnego się wydarzyło.
Jesteś cały czas.
To są pliki, które zawierają metadany, takie jak nazwa, wersja i tak dalej.
Kiedyś, jak wysyłaliśmy aplikację do App Store Connect,
to te pliki plist mogły być poniekąd wybrakowane dla zależności,
jakie nasz projekt posiadał.
Czyli tyflocentrum, jak już wspominałem, jest zależne od biblioteki BASE.
Biblioteka BASE służy do tego, żeby odtwarzać dźwięk.
No i ta biblioteka, jako że to jest biblioteka bardzo stara,
wyszła praktycznie w 2008 roku,
czyli praktycznie była dostępna już na iPhone OS,
jeszcze wtedy to nie był iOS 2.0.
No i ta biblioteka korzystała z tego starszego formatu pliku .plist,
który to plik nie posiadał numeru wersji.
Ta biblioteka dla iOS-a nie posiadała numeru wersji.
No i teraz wraz z premierą Xcode’a 15, iOS’a 17 i macOS’a 14,
nie wiem, które z tych trzech jestemów inne, a może po prostu serwer.
Teraz, gdy wysyłamy aplikację do App Store Connect,
no to jesteśmy proszeni,
jakby nasza paczka jest oczywiście poddawana wielu takim testom
i otrzymujemy informację, że biblioteka nie posiada tego stringu z numerem wersji.
No i wtedy oczywiście aplikacja nie zostaje wysłana do App Store Connect,
nie możemy jej dać do testów przez TestFlight’a.
Oczywiście aplikacja się kompiluje, uruchamia,
można z niej korzystać, ale nie można jej dać testerom do testów.
No więc napisałem na forum Base’a, jak widzieliście pewnie ten wątek,
i pan Ajan Luke, twórca BAS-a, mi odpisał.
Otrzymałem poprawiony plik.plist i co się okazało, że nadal są problemy.
Ale problemy już nieco innej natury, to jest tzw. proces linkowania,
to są problemy jakby bardziej zaawansowane, o których nie będę was zanudzał tym.
W każdym razie problemy zostały rozwiązane.
Teraz mam taki problem, że App Store nie chce mnie przepuścić,
mimo że aplikacja Tyffno Centrum korzysta z API systemu iOS 16,
no to potrzebujemy stabilnego X-coda,
mimo tego, żeby wysłać aplikację nie mam w tym momencie,
pobiera mi się, więc być może jeżeli żadne inne niespodzianki wyskoczą,
już niedługo to teflocentrum będzie.
Korzystając z tej obsłuwy, wiecie co, zrobiłem parę rzeczy ważnych.
Po pierwsze, zmniejszyłem zużycie baterii,
które było ogromne w tej aplikacji.
W jaki sposób je zmniejszyłem?
Zmniejszyłem je w taki sposób kosztem prędkości ładowania się niektórych audycji,
szczególnie tych dłuższych.
Chodzi bowiem o to, że tyflocentrum będzie pobierało więcej danych za jednym razem,
ale co mniejszy odcinek czasu.
Teraz było tak, że ten bufor był malutki,
żeby jak najmniejsze opóźnienia były,
no ale tyflocentrum cały czas mówiło iPhone’owi
ej obudź się, bo trzeba pobrać nowe dane, ej obudź się, bo trzeba pobrać nowe dane.
A to drenowało baterie.
Tak, i raporty w App Store Connect mi to pokazywały, że ludzie nawet z iPhone’ami 14 Pro Max,
mamy kilku takich użytkowników, mają z tym problem i ten drenaż baterii jest wysoki.
Swoją drogą zastanawiam się jak ta aplikacja w ogóle przeszła weryfikację do test flighta tego zewnętrznego z takim błędem.
Jak zobaczyłem te raporty, to się przeraziłem.
Ja używam tej aplikacji do słuchania Tyflo Podcastu,
Tyflo Przeglądu też z niej słucham,
ale ja przeważnie robię to na Macu,
więc jakby mnie ten problem osobiście nie dotknął,
więc bardzo przepraszam, jeżeli komuś wyczerpałem baterię.
Po drugie, szykuję aplikację na takie gruntowne przebudowy,
rozbiłem ją na kilka mniejszych części.
Jest część odpowiedzialna za interfejs, czyli UI,
jest część odpowiedzialna za Tyflo Podcast,
czyli Tiflo Podcast Kit, jest część odpowiedzialna za Tiflo Świat,
czyli Tiflo World Kit i jest moduł odpowiedzialny za dźwięk, czyli Audio Kit.
Dlaczego o tym mówię?
Dla użytkowników nie zmieni się absolutnie nic,
ale wiem, że jest tu kilka osób, które tak są zainteresowane tym programowaniem,
ale nie wiedzą co i jak i uważam, że jak się mówi o takich rzeczach,
no to zawsze ktoś może się zaznajomić i nasiąknąć tym właśnie,
dlaczego trzeba modularyzować aplikację,
No chociażby dlatego, że dzięki temu będę mógł zrównać ze sobą tyflopodcast i tyfloświat pod kątem wyszukiwarki, na przykład.
A propos wyszukiwarki, naprawiłem błąd.
Wcześniej wyszukiwarka brała pod uwagę wielkość liter, teraz nie bierze,
czyli jeżeli wpiszemy na przykład frazę Michał dziwisz z wielkich liter i Michał dziwisz z małych liter,
to dla wyszukiwarki nie będzie to miało już żadnego znaczenia.
Poprawiłem błędy związane z tym odtwarzaczem,
który czasami nie chciał się pauzować.
Poprawiłem trochę kod sieciowy.
Teraz tyfloświatowe artykuły nie będą ładowane w całości,
bo czasami są w nich obrazki
i to powodowało, że czasami dużo danych się potrafiło niepotrzebnie załadować.
Teraz jest zaimplementowane tak zwane leniwe ładowanie.
Mam nadzieję, że nie będzie to wpływało negatywnie na to, jak użytkownicy będą to widzieli.
Po to mam testerów, właśnie was, żebyście mi mówili takie rzeczy.
Także testerów prosimy o cierpliwość i o to, żeby nie usuwali gdzieś tam powiedzmy
Tyflo Centrum z TestFlighta, tylko jeszcze trochę poczekali.
Nie, nikt mi nie uciekł na szczęście.
bo do testowania niedługo będzie można ponownie przystąpić.
Tak i właśnie też o tym będę jeszcze mówił, bo bardzo jestem pod olbrzymim wrażeniem tego, co zrobiło Apple
w nowych betach Xcode, bo w nowych betach iOS to chyba jestem pod wrażeniem, ale trochę w drugą stronę.
O tym za moment.
Jeszcze co do TyfloCentrum, no to pracuję sobie nad jakimiś tam widgetami i takimi rzeczami,
Chociaż najpierw trzeba zrobić ważniejsze rzeczy, czyli przewijanie chyba,
bo to jest ważne, i przyspieszanie treści.
Swoją drogą, bawiłem się biblioteką Sonic, znaną chociażby z ESPICA,
i ona działa dobrze do podcastów, z tym, że jeżeli podcast jest nagrany
mikrofonem słabszej jakości, no to wtedy Sonic robi z tego papkę
i nie wiem, jak to rozwiązać.
No to chyba będzie w kwestii użytkownika.
No jeżeli przyspieszy podcast i będzie go źle słychać,
no to niestety użytkownik będzie musiał taki podcast zwolnić.
Nic z tym nie zrobię.
Teraz co jeszcze do bet nowych,
to tak, mamy w opcjach Fruisevera nową rzecz.
Nie wiem czy, bo to głównie Piotr chyba,
nie wiem czy Piotrze odkryłeś w ustawieniach pokrętła,
nowa opcja, która pozwala nam,
powiedzmy zamrozić pokrętło w miejscu, w którym ono jest,
Czyli znacie doskonale sytuację, ustawiacie się na znakach na przykład,
idziecie sobie w prawo i jakiś element ma czynności i to pokrętło zmienia się na czynności.
Można teraz to zachowanie wyłączyć, czyli jeżeli mamy ustawione znaki, to zawsze mamy
ustawione znaki i tylko znaki.
Jeżeli chcemy czynności, to musimy ręcznie to zmienić.
Także się też w internecie może przydać na przykład, tak widziałam tą opcję, na przykład skaczemy sobie po nagłówkach, ja tak często akurat nie mam osobnego gestu na nagłówki, no i skaczemy sobie po nagłówkach, później zaczynamy tę stronę czytać, gdzieś jest jakaś grafika, no i wtedy voiceover nam właśnie przeskakuje na czynności, no bo tam jest wtedy ta opcja eksploruj, no i musimy znowu gdzieś na tym pokrętle szukać, no to się może przydawać, to się też może denerwować, to jest oczywiście domyślnie włączone,
więc to na początku się zachowywało tak jak zawsze, ale jeśli ktoś tego nie chce, to można to sobie wyłączyć.
Kolejne, że nie ma tego jako rzeczy, którą można w czynnościach ustawić dla konkretnych aplikacji, bo to by mi się w sumie mogło przydać.
No to też będę zgłaszać jeszcze.
Kolejna rzecz, no to teraz mamy już spolszczone komunikaty.
Teraz taki komunikat, który się nam pojawia przed stronami, szukaj, wcześniej było search, teraz jest szukaj.
Jeszcze mamy poprawki w zdrowiu, w tym stanie umysłu, nie wiem jak to jest, to mental well-being, jak jest przetłumaczone,
bo z jakiegoś powodu u mnie to jest teraz… Przepraszam bardzo, czy mnie słychać dalej, bo ktoś do mnie dzwonił.
Tak, słychać, słychać.
I w tym mental well-being zostało wreszcie poprawione to, że słowaki nie były odczytywane tak jak trzeba.
Jeszcze mamy kilka zmian na zewnętrznych ustawieniach.
Mamy zmienioną kolejność tapet.
Jak tworzymy sobie tapetę ekranu blokady,
to mamy u góry te tapety pogodowe, czyli te użytkowe,
a później mamy jakieś tam zdjęcia, astronomię itd.
Co do poprawek błędów, to zniknął bardzo uciążliwy dla mnie problem,
że nie działał słówek do wyciszania połączeń.
Ten błąd został poprawiony.
Został poprawiony błąd, że przyciski głośności wybudzały iPhona.
Został poprawiony błąd ze znikającym oknem Safari i innych aplikacji,
w sensie, że po prostu my otwieramy przeglądarkę i nic nie widać.
Zostało trochę poprawione zużycie baterii.
Z tego, co widzę od wczoraj, to jest troszkę lepiej.
Modem został zaktualizowany, przynajmniej na moim 14 Promaxie,
został zaktualizowany modem,
co może wpłynąć też na czas żywotności baterii,
na problemy z połączeniem, jeżeli ktoś jakiś miał i tak dalej.
Aktualizacja ma już literkę D na końcu,
co oznacza, że zbliżamy się wielkimi krokami.
Wydaje mi się, że to już jest przedostatnia beta,
jakby zanim iOS 17 ujrzy światło dzienne.
W macOSie też poprawki w znikającym oknie Safari,
poprawki w odczytywaniu predyktywnego tekstu.
Niestety dalej brak większej liczby ustawień głosów dla vocalizera.
Też pobrawki w tym, co mówiłem, czyli że jeżeli jakaś aplikacja korzysta z plików i klauda,
to się crashuje, teraz aplikacja po ludzku woła o pobranie tych plików i je pobieranie,
crashuje się, to nie wymagało żadnego przystosowania chyba ze strony deweloperów aplikacji,
bo wiele z tych aplikacji nie było aktualizowanych od tamtego czasu,
więc to był błąd po stronie Apple, który został rozwiązany.
W xCode 15 beta 6, co ciekawe, bo xCode trochę się rozszczepił pod kątem numeracji,
w xCode też sporo poprawek dostępności, był taki błąd,
nie wiem czy wam opowiadałem o tym, że teraz te preview,
czyli takie podglądy interfejsu użytkownika, który tworzymy,
są dostępne dla VoiceOvera.
Był taki problem, że jeżeli weszliśmy w to preview,
mieliśmy bardzo się namachać, żeby z tego wyjść,
teraz można po prostu wyjść z interakcji
i to zostanie, po prostu opuścimy to, będziemy mogli nadal korzystać z edytora.
Także fajne zmiany, fajne poprawki, jeżeli ktoś ma jakieś błędy w iOS-ie, czy w macOS-ie,
czy w jakimkolwiek systemie, to nie instalujemy bet po to, żeby mieć wcześniej niż wszyscy dostęp do jakichś funkcji,
przynajmniej ja z takiego założenia wychodzę, tylko instalujemy te bety po to, żeby te funkcje pomagać,
ulepszać, żeby później ludzie, którzy zainstalują czy to wersję stabilną, czy właśnie bety,
żeby ci ludzie mieli jak najlepsze doświadczenia z tymi systemami,
więc jeżeli wam coś przeszkadza, nie odpowiada, nie działa, to naprawdę zachęcam do zgłaszania.
Noszę się z zamiarem, to bardziej na artykuł niż na podcast,
noszę się z zamiarem napisania artykułu o tym, jak poprawnie zgłaszać błędy,
to po prostu to się może przydać i to jest jakby taka…
Ja myślę, że to bardzo dobry pomysł, bo to się nie tylko może nam przydać do testów
beta jakichś systemów, tylko nawet do zgłaszania błędów dostępności.
Ja myślę, że tak, to może być fajny temat.
Rozmawiałem ostatnio z panem, który pracuje w Apple i właśnie on mi mówił, że
ludzie zgłaszają bardzo dużo feedbacków, które są dla nich bezwartościowe, bo
nie opisują tak naprawdę nic.
I to mnie tak zainspirowało,
że w sumie to jest problem.
Nie uczy się ludzi, jak zgłaszać błędy
i dlatego
te systemy są takie zabagowane.
Wiesz co, nie uczy się ludzi, jak zgłaszać błędy.
Nie uczy się ludzi, jak zgłaszać błędy.
Błędy to jest raz, ale dwa właśnie
myślę, że dużo osób
popełnia ten błąd, o którym
ty wspomniałeś przed momentem, że instaluje
wersję beta nie po to, żeby
testować, nie po to, żeby
pomóc producentowi gdzieś tam rozwijać ten swój system jak najlepiej, tylko właśnie żeby mieć coś szybciej niż inni i to zresztą też przecież w naszym środowisku bardzo dobrze widać.
Jak jestem na różnych grupach Apple, to ludzie zadają naprawdę takie pytania związane z tą instalacją wersji beta, bardzo takie podstawowe i widać, że nie mają jakiegoś takiego zacięcia testerskiego
i że te raporty, które oni ewentualnie mogliby zgłaszać, to naprawdę nie będą przedstawiały jakiejś większej wartości, przynajmniej na ten moment, bo oczywiście potem to wiadomo, że im więcej osób to przetestuje, tym będzie lepiej.
Ale no właśnie niestety jest to problem, że dużo osób chwyta się za te bety i nie bardzo wie co z nimi zrobić.
A to jest jedno, a też jednak z jednej wersji beta na następną są rzeczy, które mogą być poprawione, a są rzeczy, które mogą się zepsuć.
Bo tak na przykład, od razu pytanie do Ciebie poniekąd. Czy zauważyłeś, że w tej piątej becie Maca opcja czytaj wszystko w Safari się bardzo popsuła i przeskakuje duża kapita?
Przeskakuje czysty tekst i co ciekawe, też się popsuło to, że czasami nawigacja po słowach nie chce działać, jeżeli mamy linię poprzedzoną jakimś atrybutem HTML-u, czyli linia, pod spodem link.
Przepraszam bardzo.
To wówczas ani nie możemy czytać po słowach tej linii tekstu, ani nie możemy czytać po słowach tego linka.
To jest ten błąd, który zgłosiłem, błąd, który został
został przeze mnie zgłaszany, polecam, polecam też zgłaszać te błędy.
Dokładnie, ja tam też swoje zgłosiłem i to, żeby nie było, no nie wiem, to co ty
mówiłeś, ale to Safari wcześniej przez cztery poprzednie bety działało, więc to się
bardzo dynamicznie wszystko może zmieniać i na to trzeba być przygotowanym.
Akurat inne przeglądarki działają, no ale jeśli korzystamy z tego komputera do pracy,
no to trzeba być przygotowanym.
Nie używam innych przeglądarek, więc nie wiem czy działają, może to był też mój błąd.
Co jeszcze? Właśnie, bardzo ważna rzecz dla mnie.
Jeżeli ktoś korzysta z programów od Rogue’a Meba i nie instalował bet, bo wiedział, że nie będą działały,
to tak, jest loopback FC2 i audio hijack FC2 i wszystko, co korzysta z silnika ACE.
A to dziękuję za informację, bo nie wiedziałem.
Jest loopback, można świętować, można streamować.
dzisiaj będę robił granie w gry, bo wreszcie mogę streamować, więc wiem, że są programy typu wormhole, ale im nie ufam i mają większe opóźnienia, więc bardzo, bardzo, bardzo się cieszę, że Lubek dostał poprawki, Lubek dostał wsparcie dla MacOS-a 14, oni tak sztucznie trochę zamykają to, aczkolwiek się nie dziwię, bo jeżeli typy pograć…
Z drugiej strony pewnie dlatego, że no właśnie, żeby jednak to dobrze przetestować.
A po drugie to jest coś co działa w kernelu, chociaż nie jestem pewien czy te sterowniki działają w userspacie czy w kernelspacie, tak szczerze nie wiem.
Cały czas wymagają włączenia rozszerzeń, nawet w najnowszej wersji, więc…
Tak, tak, tak, ale nie jestem pewien z której wersji driver kita oni korzystają, czy z tej która działała tylko w kernelspacie, czy z tej bezpieczniejszej, tego nie jestem pewien,
nie jestem pewien, ale z drugiej strony może to trochę denerwować,
ale się cieszę, bo w przypadku takich programów,
jeżeli one się zepsują, to mamy pozamiatane jako osoby niewidome,
bo nie zmienimy sobie urządzenia dźwięku w łatwy sposób.
Mówiąc też o urządzeniach dźwięku,
wysłałem Hotfixa do swojej aplikacji, do SS-MAC-a,
do zmiany dźwięku, która korzysta z nowego API od Core Audio,
które po prostu działa,
bo w starszych wersjach było inna API,
teraz to API trochę się zmieniło i tak.
Już można zwracać się z prośbą
o otrzymanie testowego egzemplarza Vision Pro,
jeżeli nas słucha jakiś deweloper z cienia,
który napisał jakąś aplikację
i chciałby ją przeportować na Vision Pro,
to są już powoli zapisy na testy.
Można o to prosić, można o to wnioskować.
Nie wiem, na jakiej podstawie te wnioski są przyznawane,
bo nie wiem,
bo nie mam takiej potrzeby ani nie mam szans na razie,
przynajmniej w tym programie,
bo możliwe tak, jak już wam kiedyś wspominałem,
że będę miał okazję testować Vision Pro.
Nie swoje oczywiście,
bo to jest coś, co jest zdecydowanie poza moim zasięgiem.
Mamy też nową wersję firmware’u do AirPods’ów.
Oczywiście w tym wypadku ciężko powiedzieć, co nowego,
a tu nie informuję o tym, co zmienili w tych mniejszych urządzeniach powiedzmy.
Jeszcze z błędów na Apple Watch jest taki błąd,
że jeżeli wejdziemy sobie w wiadomości,
to zamiast oznacznie czytane mamy messages, podkreślenie checkmark,
czyli nie wiemy, czy wiadomość jest oznaczona jako nieczytana czy nie,
bo zamiast zlokalizowanej nazwy funkcji mamy identyfikator stringa.
Także to był kącik newsów Apple’a ode mnie.
Teraz jeszcze może dodam, bo parę rzeczy, które też na Mastodonie ludzie zarejestrowali.
Działają znowu ambeosy, czyli znowu działają ponoć akcesoria przez Lightning.
Ponoć doszła, tak jak do tej pory dało się za pomoc pokrętła wejść na ekranie głównym,
wyjść z ekranu Braila i odpalać za pomocą wpisywania pierwszych liter aplikację,
to teraz można to samo robić z monitora Brailowskiego.
Trzeba nacisnąć chyba Enter, czy nie wiem, którąś kombinację.
Tak, Enter, czyli to jest punkt ósmy i spacja domyślnie.
No chyba, że mamy w naszej tablicy Brailowskiej, bo nie wszystkie tak mają punkt ósmy jako Enter.
Co tam jeszcze? No ponoć teraz wróciły znowu czynności na wiadomościach w aplikacji wiadomości,
ale z jakichś przyczyn wiadomość każda z wiadomości stała
się kontrolką przycisku.
Wynika z tego jak działa SwiftUI.
Ja wam już mogę wytłumaczyć np.
w Tyflo Centrum podcasty też są przyciskami.
Okej.
Wcześniej nie było to nie wiem czemu.
Wcześniej ta aplikacja była w UI Kit w tym starszym frameworku.
To jeszcze.
Przepraszam musiałeś coś jeszcze tutaj.
Tak coś jeszcze chciałem a propos Braila, zastanawiam się i powoli zaczynam do tego dochodzić,
w jaki sposób wylistować wszystkie znaki danej tablicy brailowskiej,
bo np. polska tablica iOS-owa to jest jakiś drama,
nie da się wprowadzać wielu znaków podstawowych,
a niektóre znaki mają po dwa albo czasami trzy bindingi przypisane.
I zastanawiam się, czy ktoś wie, jak listę tego znaleźć,
Bo ja dochodzę do tego bardzo taką nieładną metodą, więc zastanawiam się czy jest jakiś sposób, żeby to…
No LibriVis jest na GitHub’ie oczywiście, bo mamy dwie tablice systemowe, to jest chyba ten tłumacz Tuxberry.
No i mamy LibriVisa, LibriVisa oczywiście można sobie po prostu na GitHub’ie podejrzeć.
No LibriVisa tak.
Jeszcze jeśli chodzi o Braila to możemy zakończyć w sumie wątek wersji beta, bo też się jeszcze jedna opcja pojawiła,
pojawiła, a właściwie kilka w ustawieniach Brailla.
Mianowicie możemy sobie teraz ustawić, czy iOS ma nam się rozłączać z monitorem
Braillowskim, kiedy telefon jest usypiany.
To się może przydać w sytuacji, kiedy telefon jest wyłączony, a chcemy go obudzić,
no bo takie monitory Braillowskie, które też łączą się jako klawiaturę np.
Mantisy czy QBrail, no to one zawsze mogły tego iPhona obudzić, no ale np.
taki fokus, jeśli iPhone już się z nim rozłączył, już nie.
No jeśli mamy tą mocję włączoną, zablokujemy ekran to po prostu monitor nam się robi pusty, ale VoiceOver się z nim nie rozłącza i wtedy możemy nacisnąć dowolny klawisz na tym monitorze, a przynajmniej na prawie tym, że…
Tutaj warto wspomnieć, że to będzie wpływało na życie baterii oczywiście.
Oczywiście, powód tego jest, no ale to można sobie ustawić, więc jeśli ktoś dużo z tego brailla korzysta i denerwowało go to, no i nie przeszkadza mu to, że ciut więcej baterii może urządzenie zużyć, no to można sobie to tak ustawić.
to się ustawia osobno dla każdego monitora, który mamy sparowany.
Też to menu wygląda troszeczkę inaczej i nam wyświetla, jeśli mamy kilka linijek
sparowanych, no to on je wszystkie wymienia, więc to mi sugerowałoby, że może
się dać ustawić voice overa tak, że będzie się automatycznie łączył z każdym
monitorem. Natomiast mi to na razie nie chciało działać, przynajmniej z tymi
dwoma monitorami, które ja posiadam, więc nie wiem czy to o to chodzi, czy po prostu
źle zrozumiałem jak to menu teraz wygląda.
No a to chyba wszystko jeśli chodzi o nowości przynajmniej to co to co ja
zauważyłem.
W Macu z tego co.
A tak faktycznie tam jeszcze poprawiono jakby responsywność w ogóle
jakąś że coś tam synteza lepiej nie wiem czy kolejkuje czy coś.
Ogólnie responsywność to już od początku jest poprawiona natomiast w Macu jedna
rzecz która doszła o której Arek nie wspomniał a miałem też powiedzieć to to
że w ustawieniach QuickNav możemy sobie ustawić a jak to już
mieliśmy jakiś czas na iOS, żeby VoiceOver zamiast nam mówić, szybka nawigacja włączona, wyłączona, po prostu puszczał dźwięk.
Domyślnie raz włączony niestety, zapomniałem o tym powiedzieć, przepraszam.
Tak, jest dźwięk i mowa chyba o to ustawione domyślnie, ale jak ktoś chce albo jedno, albo drugie tylko, no to można sobie to teraz ustawić.
Arkuj jeszcze tutaj taka sugestia od naszego słuchacza Borysa dla ciebie i pytanie, czy dałoby się kiedyś stworzyć Tyflo Centrum na Apple Watcha?
Czy dałoby się zrobić tyrocentrum na Apple Watcha?
Pytanie, czy chcecie odpowiedź krótką, czy długą,
bo krótka odpowiedź brzmi chyba tak,
a długa odpowiedź brzmi, to jest bardziej skomplikowane niż mi się wydawało przynajmniej,
bo ja myślałem, że po prostu sobie przeportuję aplikację,
zrobię troszkę mniejszy interfejs,
tam jakoś kontrolki zrobię tak, żeby to były jako strony,
zamiast zakładek zrobię ten słuchaczek i tak dalej, i tak dalej,
Ale Apple Watch ma trochę inny procesor niż iPony, trochę inna architektura tego jest i tak dalej,
więc byłoby z tym bardzo dużo pracy.
Chciałbym zrobić chociażby odczytywanie Tyflo Świata,
bo tutaj jak w wersji iOS-owej problemem jest Tyflo Świat,
tak tutaj w wersji watchawej problemem byłby Tyflo Podcast.
I dlatego chyba w ogóle na Watchu jest bardzo mało aplikacji,
które cokolwiek z tym audiem potrafią zrobić, prawda?
Tak w porównaniu do iOS-a.
Bo tam to Core Audio jest mocno zlimitowane, trzeba bardzo dobrze znać SWIFTA,
znaczy no SWIFTA jak SWISTA, SWISTA to tam nieważne.
Może być i Objective-C jak ktoś woli, ale trzeba bardzo dobrze znać to API,
wiedzieć co potrafi, gdzie potrafi, a czego nie potrafi przede wszystkim,
to jest chyba ważniejsze, żeby to napisać i no nie wiem, na razie muszę się uporać
z wersją iOS, a chciałbym żeby to technocentrum było na Macu, też dobrze działające.
Może kiedyś na Androidzie, chociaż to wątpię, bo Android ostatnio robi takie rzeczy ze swoim systemem audio,
że dla każdej wersji Androida musiałbym mieć inny backend audio.
Także to jest troszkę, troszkę licha sprawa.
No na Windowsa jest Tyflopodcast Dawidowy.
Pozdrawiam serdecznie Dawida, którym się inspirowałem, w ogóle zaczynając z Tyflocentrum.
Więc tak no, teoretycznie by się dało.
Jest jeszcze kilka rzeczy, o których chciałbym powiedzieć.
A propos Dawida, nowa wersja LTN-a, ważną zmianą,
jeżeli ktoś czymkolwiek tam moderuje,
jest to, że możemy teraz masowo zarządzać wpisami,
naciskamy sobie Control-Backslash
i mamy listę wielokrotnego wyboru z postami,
zaznaczamy posty, na których chcemy coś zrobić
i pod tabem mamy usuń, przenieś, zmień pozycję i tak dalej.
To taka najważniejsza zmiana w LTN-ie.
No i o czym jeszcze chciałbym powiedzieć, to o bardzo fajnej grze, która się ukazała od Singular Works, czyli od człowieka, który jest odpowiedzialny za mód takiego frandum.
Taki mód nastawiony głównie na wykonywanie zadań, także coś co bardzo, bardzo w moje klimaty uderza i gra też w takich klimatach Escape from Norwood.
To jest demo przygodówki z otwartym światem.
Gra w większości tekstowa, ale mamy muzykę i efekty dźwiękowe.
Gra jest dostępna na Windowsa i na Maca.
Interfejs to ma topor niesamowicie,
więc jeżeli ktoś nie jest odporny na toporne interfejsy,
to raczej nie będzie się dobrze bawił,
ale gra ma na tyle dobrze napisany świat,
na tyle fajnie napisane postacie,
że warto, moim zdaniem, w to sobie zagrać.
Gra jest dostępna za darmo,
do wybrania na Steamie, jest demo.
Nie wiem, czy mówiliście o grze Firebird w tym przeglądzie.
To jest…
Miałem mówić dzisiaj.
Okej, to nie wiem, czy mam mówić, czy będziesz mówić.
Możesz powiedzieć, śmiało.
Firebird to gra, w której też się zakochałem.
To jest gra bardzo z pozoru prosta.
To jest taka visual novel, powiedzmy,
gdzie gramy jako Mariska,
czyli pani, która zajmuje się prowadzeniem tira,
z przewożeniem różnych rzeczy.
Akcja gry dzieje się w Rosji.
Bardzo fajnie napisana, bardzo klimatyczna,
bardzo krótka, ale niesamowicie klimatyczna historia,
pełna ciekawych postaci, ciekawych wątków.
Mamy taki prosty system zarządzania naszym paliwem,
wytrzymałością naszej ciężarówki.
Mamy dużo wyborów, które faktycznie wpływają na tę rozgrywkę.
Mamy bardzo prostą, ale ładną muzykę.
jest dostępna za 47 złotych chyba do kupienia, naprawdę bardzo, bardzo fajna, bardzo fajna,
prosta, ale wciągająca naprawdę giereczka i muszę sobie ją jeszcze kilkukrotnie przejść.
Ja cię mogę tylko jedną rzecz zapytać, bo słyszałem informacje takie i takie tak
naprawdę, bo ja tylko grałem w demo tej gry.
Czy w pełnej wersji jest voice acting, bo jedni mówili, że tak, jedni mówili, że nie.
Dla mnie go nie było.
To jest taka, to jest coś, co dla mnie trochę było miejską legendą, ale zbyt wiele osób to powtarza, żeby to było nieprawdą.
No to jest, to jest wszystko udźwiękowane, więc nie ma z tym problemu.
Screen Reader nam wszystko czyta, ale po prostu…
Zresztą jest jeszcze aktualizacja Diablo 4, która też poprawia w Screen Readerze kilka rzeczy, więcej rzeczy czyta.
Nadal uważam, że ta gra jest niedostępna.
niedostępna, przepraszam bardzo, jeżeli kogoś uraziłem,
ale tak uważam, gra w której nie wiemy tak naprawdę,
gdzie idziemy i co robimy praktycznie.
Może mieć najlepszy moduł odczytu ekranu na świecie,
ale i tak będzie niedostępna.
Trzeba poprawnie spojrzeć w oczy.
Odczytanie ekranu to ja mam OCR-a.
Jest Hearthstone 27.0, czyli rozszerzenie Tytanii.
Jeszcze nie wiem, jak z balansem tych kart
W ostatnim rozszerzeniu jestem przerażony, mam nadzieję, że choć troszkę to się poprawiło.
Tytani, Panteon, Azeroth, możemy grać kartami wielkich tego świata, że tak powiem.
Jeszcze z nowości w grach doszło dodatek Skull dla World of Warcraft.
Dostał swoją wersję dla World of Warcraft Classic Era, czyli to jest jeszcze inny WoW Classic.
Taki całkiem czysty, bez żadnych rozszerzeń,
taki jak był w 2004 roku.
Więc są dwie wersje tego dodatku.
Jest World of Warcraft, Wrath of the Lich King
i World of Warcraft Classic Era.
Jeżeli ktoś chce, www.duug.github.io
slash sku z wielkiej litery, tam wszystko można pobrać.
Tam jest wszystko napisane.
Jest gra Brave Brain, to jest taki quiz od naszych czeskich sąsiadów Kiri Kiri Games,
twórcy gry, która się chyba nazywała The Dragon’s Cave, jeśli się nie mylę.
Mój krótki werdykt na temat tego quizu jest taki, że nie polecam,
a jeżeli zależy komuś na dłuższej opinii, to jest to gra typowo mobilna.
Pytania to jest chyba jedyna dobra rzecz w tej grze,
bo jesteśmy cały czas postawieni przed faktem tego,
że musimy albo zapłacić prawdziwymi pieniędzmi,
albo obejrzeć reklamę, albo czekać,
żeby przejść gdzieś dalej.
Poza tym to jest zwykły quiz, jakich tak naprawdę wiele.
Pytania znam z innych quizów, więc to chyba korzystać
z jakiejś otwartej bazy pytań.
No gra jest w języku angielskim, nie ma
polskiego języka. Jeżeli ktoś jest zainteresowany, no to może sobie pobrać
Brave Brain’a troszeczkę i to znaczy tak, jeśli chodzi o pytania, to
w ogóle my o tym mówiliśmy też w tym przeglądzie.
Na początku, kiedy gra była jakoś koncypowana, była odezwa do społeczności, żeby
nadsyłać pytania i w kredycach są też osoby, które pytania podsyłały.
Więc to jest robione przez społeczność, być może tą samą, która gdzieś przy playroomie
się działa, bo to gdzieś tam mniej więcej podobne towarzystwo, chociaż nie do końca.
Tam niektóre osoby chyba są jakieś takie też związane, ale
raczej, raczej społeczność.
Natomiast zgadzam się, jest to takie, no nie chcę mówić pay to win,
ale pay to carry on.
To jest chyba jeszcze, to jest chyba jeszcze gorszy system, żeby zrobili płatną grę
chociaż w ogóle też ciekawe są te systemy pay to coś tam w grach,
bo czasami bardzo się kłócę z ludźmi, czy coś jest pay to win czy pay to perk.
To też jest bardzo ciekawy temat moim zdaniem.
Ja się interesuję grami, bo ludzie, którzy się interesują grami
dzielą się na dwie kategorie chyba.
Są ludzie, którzy lubią grać w gry i są ludzie, którzy lubią grać w gry
i wiedzieć jak te gry działają.
I mnie bardzo interesują gry właśnie od tej drugiej strony też.
Nie od strony kogoś, kto siedzi przed klawiaturą i robi…
Tylko od strony kogoś, kto jakoś więcej z tymi grami działa.
I to jest bardzo ciekawy temat, bo jest kilka tych systemów pay-to-coś tam,
więc właśnie pay-to-win, pay-to-perk, pay-to-play,
jest free-to-play, który jest jeszcze innym rodzajem systemu,
mimo że ma free w nazwie, to też elementy finansowe są w nim dość mocne.
I to też jest bardzo, bardzo ciekawy system.
Nie wiem, jak bym określić Brave Brain, to jest monstrum, z jakim się nie spotkałem chyba.
Podobnym rodzajem gry było Sonar Islands chyba, z tego co pamiętam.
Tam też był jakiś taki chory system, znaczy tam było jakoś tak, że dość, że się płaciło za to,
to jeszcze później było tak, że trzeba było oglądać reklamy albo płacić jeszcze więcej.
Chyba tak. Możliwe, że się mylę, aczkolwiek Sonar Islands w założeniu to była bardzo fajna gra,
tylko, tylko bardzo mało map i mało aktywności.
Niestety.
Dla słuchaczy wyjaśnimy jak cały Brave Brain działa.
To jest quiz, tak jak Arku wspomniałeś, tylko on ma taki temat światowy, czyli
każda jakby misja, każda plansza, na którą wchodzimy jest krajem osobnym.
I my im dalej jakby im więcej sobie wygramy takich misji,
tym więcej krajów sobie odblokowujemy.
I mamy sekwencję chyba trzech krajów dostępnych na raz, w które możemy grać.
No ja już byłem gdzie, chyba w dwóch, w trzech Stanach, bo byłem w Nowym Jorku, Florydzie, Kalifornii,
byłem w Wielkiej Brytanii, byłem we Włoszech, nie we Włoszech jeszcze nie, ale mam Włosch odblokowane.
Ja Chin niestety nie odblokowałem, ale bardzo mnie ciekawi jakie są Brytania.
Była Francja, też była Japonia, ja tam…
Japonia, Norwegia, Austria i tak dalej.
Paweł, mikrofon gdzieś ci chyba troszeczkę się odsunie.
Oj, racja. I w każdym z tych krajów mamy trzy miejsca i one są takie typowo związane z tym krajem.
Czyli w Japonii mamy bar sushi, fabrykę samochodów i coś tam jeszcze.
Chyba górę Fuji.
Fuji? Możliwe.
Dobrze, że nie Aokigahare.
No nie. Natomiast chodzi o to, że po prostu jedna kategoria jest typowo związana z krajem,
czyli są pytania o ten kraj, a dwie pozostałe z czymś, co się z tym krajem kojarzy.
No więc przykładowo, jeżeli mamy bar sushi, no to mamy pytania o jedzenie,
jakiekolwiek jedzenie. No i to, co mi się podoba w tej grze, to jest to, że każde
z tych miejscówek ma swój unikalny soundtrack.
Tak, to jest fajnie zrobione.
Długoprawa dźwiękowa jest naprawdę fajna, tak.
Tak, bo to są takie fajne, nowoczesne bity.
Chociaż, nie wiem, ja sobie po Norwegii obiecywałem więcej.
W sumie nie wiem, co sobie obiecywałem.
Wiesz co, to chyba jest nawet nie tyle związane z miejscówką, co
bardziej z kategorią chyba.
Bo tak jak na przykład były tematy, tam o książki tam
słychać było jakieś szaleszczenie papieru, a tam
miałem temat technologii, to był taki
dubstep, taka typowa muzyka elektroniczna,
więc może bardziej w tą stronę.
Może. No to ciekawe z tym procesu zwórczego,
który stał za tym soundtrackiem. Natomiast odpowiadając na te pytania,
mamy 30 sekund chyba na wszystkie 3 pytania, jakie dostajemy.
I jeżeli odpowiemy na pytanie dobrze, to dobrze.
Jeżeli odpowiemy źle, to mamy 3 opcje.
Albo możemy powtórzyć to pytanie za 6 diamencików,
albo możemy to pytanie pominąć za 4 diamenciki,
Albo możemy przejść dalej, czyli jakby wygenerować sobie następne pytanie, oglądając reklamę.
To też jest bardzo ciekawe. Zobaczcie, jak te koszty są rozłożone w tej grze i zobaczcie i pomyślcie sobie tak, do czego to prowadzi.
Ja nie będę miał swoich wniosków, ale ja powiem…
Płacisz, żeby poznać prawidłową odpowiedź, na przykład. Ja nie jestem w stanie się z takiej gry wiele nauczyć.
Tak, i to nie ma możliwości. Ona nawet nie mówi, jaka jest prawidłowa odpowiedź, jeśli byśmy na przykład pytanie pominęli, co też kosztuje.
A jeszcze, jeśli sobie włączymy reklamę, to może być nam bardzo ciężko z niej wyjść, bo jak często zbływa z takimi właśnie platformami, które takie reklamy dostarczają.
Tak, one są często niedostępne i tak jest tym razem. Ja akurat tego nie próbowałem, ale znam ludzi, którzy próbowali i uchnęli.
Natomiast faktycznie zgodzę się z wami, na początku dostajemy 300 diamentów i bodajże 1000 albo 2000 monet.
Jeśli opowiadamy dobrze, no to te monety nam starczą, bo potrzebujemy stu monet, żeby w ogóle jakiś jeden quiz rozpocząć, a za wygranie maksymalnie nie pamiętam ile można, chyba 150 dostać, 130.
Jeśli odpowiemy na wszystkie pytania prawidłowo, co nie jest zawsze łatwe, więc jeśli idzie nam bardzo źle albo dużo wykorzystujemy tych diamentów, to się wydawało dużo, to 300 diamentów, ale ja to tak w 10 minut złożyłem.
Tak, no bo to jest taki system, to jest właśnie taki system.
Więc tak.
Matematyka stojąca za gamedevem jest krwawa i straszna.
Polecam swoją drogą.
Szukam dostępnych artykułów o budowaniu lekserów i parserów,
jak już mowa o takich rzeczach.
A dlaczego o tym mówię?
Dlatego, że bardzo ciężko jest znaleźć dostępne artykuły w tej dziedzinie,
bo są one okraszone setkami grafik różnych,
różnych, które przedstawiają różne koncepty
i tak dalej.
I tak po prostu mi się przypomniało, jeżeli ktoś by wiedział o czymś takim ze
słuchaczy, to prosiłbym o kontakt.
Byłbym wdzięczny. Ciekawa jest budowa parserów i takich rzeczy.
Przewracając do gry, takim fajnym dodatkiem jest to, że jak
wejdziemy na jakiś wyższy level, bo tam oczywiście zbieramy gwiazdki, a za
gwiazdki są poziomy, to za wejście na nowy poziom
otrzymujemy pocztówkę, która przedstawia jakiś znany budynek na świecie czy jakąś atrakcję turystyczną i można ją udostępnić, można znajomym wysłać taki obrazeczek, no taki gadżecik to jest.
Fajna rzecz.
Pocztówki, które mają bardzo fajne opisy, bo to wiadomo obraz, która została stworzona z teamu Osoba Niewidoma i Widząca, więc tutaj zarówno nasz awatar,
nasz awatar to jest taki dosłownie mózg ludzki,
który tam jest jakoś ubrany fajnie.
On to chyba też się zmienia, jak dostajemy wyższe poziomy.
Tak, fun fact, jeżeli ktoś się dokładał do pytań,
to była szansa, żeby wygrać jego model 3D w ogóle.
O proszę, no to fajnie.
No i tutaj te pocztówki też są fajnie opisane, więc…
Tak, a ja bym tak myślał sobie, że fajnie by było,
jakby można było te muzyczki albo jakieś inne jeszcze muzyczki
odblokowywać i wygrywać jakaś kod dzwonek.
Czemu nie?
Przez to, że gra jest w Unity, to mogłaby być problematyczna technicznie, aczkolwiek tak, ja się zgadzam.
Nie, co chodzi, niech to, wiesz, wyślij, otwórz w Safari, wyślij mailem, niech to będzie najbrzydszy mechanizm świata, ale żeby się dało.
To jest gra, która… To nie jest tak, że gra jest zła, tylko jej wykonanie i jej założenie.
Nawet słyszałem głosy na forum, że ludzie nawet chcieli, żeby to jakaś subskrypcja była.
Tak, tak, oczywiście.
Żeby tak nie ten…
Niestety na subskrypcji nie da się tak robić.
No ja się zgadzam, oprawa jest naprawdę fantastyczna, to nie mogę złego powiedzieć, ale no te koszty są bardzo wysokie.
Tak, ja myślę, że to też to, że to jest w Unity troszeczkę utrudnia czasami, bo to sprawia, że dla tych, którzy to nie wiedzą, że to działa mniej więcej tak jak quizwanie, czyli działać działa, ale zdarza się, że fokus objedzie.
Mi się już autentycznie zdarzyło, że przez to, że właśnie w Unity ten fokus tak objeżdża,
że czasami to machnięcie w prawo nie działa jak machnięcie w prawo, to już sobie kliknąłem złą odpowiedź.
A swoją drogą, to specjalnie jest, słuchaj, to jest specjalnie w kodzie.
Ja to znam z quizowania, to jest po prostu Unity.
Nie, to jest spisek, tam masz 3% szansy na to, że oczywiście żartuję w tym momencie,
Będę tego kontynuował, bo ktoś mi uwierzy.
Ale w każdym razie, fun fact, jeżeli ktoś grał na przykład w Legend of the King mobilne,
tam nie ma w ogóle żadnych problemów z kursorem.
A dlaczego?
Dlatego, że Chińczycy nie mają dostępu do naszej biblioteki, tej z Unity Store.
Zresztą ona nie działa w ogóle z językiem chińskim, więc mają swoją.
Ich biblioteka jest dużo lepsza od tej naszej, no bo nie ma takich problemów
i ma dużo więcej funkcji.
Ale skoro my im nie udostępniliśmy swojej, to oni nam nie udostępnili swojej biblioteki.
Autorem tej biblioteki jest firma Tencent, czyli twórcy QQ, WeChat’a i tego typu innych rzeczy.
No i teraz jeszcze Apple ma swój plugin do Unity.
A w ogóle jak ktoś chce, to może zrobić własny plugin do Unity, szczególnie jeżeli ktoś jest niewidomym
deweloperem, bo jeżeli my jesteśmy osobami niewidomymi i piszemy w Unity, to tak czy tak większość gry
Piszemy sami, bez pomocy edytora, więc możemy ją udźwiękowić.
To też o tym chciałem powiedzieć, że bawiłem się Unity,
napisałem kilka prostych gier, jedna głupsza od drugiej,
wyprowadzanie krów.exe na przykład.
I niestety nie warto w Unity, chyba poniewidomemu.
W sensie moim zdaniem przynajmniej fajnie.
Mamy taką iluzję, ja tak na początku mówiłem, że wow, Unity,
mam dostęp do silnika fizycznego na przykład.
Ale tak czy tak wszystko musimy pisać i tak czy tak czasami musimy bardziej się namachać niż chcielibyśmy coś zrobić ręcznie,
bo Unity jest zbudowane w taki sposób, żebyśmy my mogli stworzyć grę w edytorze,
a tylko bardziej zaawansowane i nieoczywiste rzeczy pisać sami, a nawet nie pisać, bo większość rzeczy można sobie dociągnąć z Asset Store’u.
Czyli Unity jest w taki sposób zbudowane i my jeżeli chcemy coś zrobić sami, no to jest problem.
Na przykład jest raycasting, geniki, czyli mechanizm, który działa trochę jak biała laska.
Nie wiem, ty Piotrze, pisałeś gry, to nie wiem, czy dobrze to tłumaczę, jakbyś mógł powiedzieć coś na ten temat.
Chodzi po prostu o to, że jest sobie promień i ten promień sobie leci, dopóki nie natrafi na kolizję.
Jeżeli nie natrafi na kolizję, to przestaje lecieć i dzięki temu mamy systemy takie jak na przykład detekcja ścian w grach.
Jak kula leci w strzelance, to wiemy, że ta kula wpadła w kolizję z jakimś obiektem albo wiemy, że zaraz wpadnie.
więc możemy wykonać optymalizację i tę kulę usunąć już z gry,
żeby nie zajmowała czasu procesora i tak dalej, i tak dalej.
No mamy taki system Unity.
Ktoś może powiedzieć, super,
bo nie chce mi się pisać własnego systemu raycastingu.
Fajnie tylko, że są biblioteki, na przykład Bullet, 3D,
Chipmunk i tego typu silniki fizyczne,
które też posiadają ten system i korzysta się z niego bardzo podobnie.
Czyli jeżeli chcemy napisać grę w Unity, bo to jest Unity
i myślimy, że będzie łatwiej, to nie polecam,
Ale jeżeli chcemy napisać grę w Unity, bo chcemy ją wydać na wiele platform
i liczymy się z tym, że i tak będziemy musieli większość rzeczy pisać samemu,
to polecam przysiąść, pouczyć się troszkę, pomęczyć się z tym edytorem
i wówczas fajne narzędzie dostajemy.
Ja się cieszę, że posłuchałem tego developera Legend of the King
i przysiadłem na chwilę do tego Unity, bo zawsze czegoś nowego się nauczyłem.
Jeszcze mam do was pytanie spoza branży gier.
Mianowicie jest aplikacja Texts.
Texts.com, aplikacja niesamowicie droga, subskrypcja to jest chyba 13 dolarów na miesiąc.
To jest aplikacja, która łączy wszystkie Messengery w jeden, czyli WhatsApp, Messenger.
Jeżeli mamy Maca, to iMessage, Telegram, Discord itd.
Ale ta aplikacja chyba jest webowa,
Bo skoro jest na Windowsa, na Maca i na Linuxa, to nie widzę innej możliwości.
I czy ktoś z Was po pierwsze o tym słyszał i po drugie, czy wie czym to pachnie, bo nie ma dema, nie ma triala i czy ktoś wie o tym cokolwiek?
Nie, ja nie słyszałem.
Nie, pierwszy słyszałem.
Ja również.
Orlona jest aplikacją na iOS-a podobno.
Nawet szukają inżyniera SwiftUI,
więc wiem, że aplikacja na iPhone’a będzie natywna,
a nie jakaś wdziwiana.
No i jakby program brzmi ciekawie, tylko…
Chyba nikt was nie słyszał.
To chyba niedługo usłyszycie, no bo…
Myślę, że będzie nam miło.
Będzie fajnie.
Pomyślałem, tak się zastanawiałem, no to w takim razie nic, zakupię sobie to na miesiąc,
dwa tygodnie się pobawię lub trzy, a potem zrobię podcast.
Jeżeli to będzie dostępne oczywiście, bo możliwe, że to jest pisane w jakimś raście
czy w innym języku, który na przykład nie ma dostępnego frameworka dostępnościowego.
No szkoda, że nie ma triala, nawet nie wiem, godzinnego albo jakiegokolwiek,
żeby zobaczyć, nawet się nie da pobrać aplikacji bez zakupu.
Tak to bym przynajmniej zobaczył, co jest w środku i zobaczył, jak to mniej więcej wygląda.
Także trochę smutna.
Jakby ktoś chciał, to www.texts.com.
Tylko ostrzegam, zanim kupicie jakąś subskrypcję,
miejcie świadomość tego, że po pierwsze, może to być niedostępne.
Po drugie, może to mieć dużo mniej funkcji niż oficjalne klienty.
Może nie musi, nie wiem.
Po trzecie, nawet jeśli to na 90% będzie to aplikacja webowa,
Czyli w większości wypadków, moim przynajmniej zdaniem, nie warto.
Aczkolwiek jeżeli ktoś np. pracuje profesjonalnie z wieloma komunikatorami,
to te funkcje typu np. tam jest coś takiego jak Unified Inbox,
jak w niektórych klientach pocztowych,
że jest jedna jakby skrzynka, do której trafiają wszystkie wiadomości.
I nas nie obchodzi, czy to jest na służbową skrzynkę, czy na prywatną.
My po prostu odpisujemy i on sobie odpisuje w swoim jakby,
Tam, gdzie powinno to trafić, to w tym tekście też coś takiego jest podobno.
Więc brzmi ciekawie, a jak jest w praktyce, nie wiem.
Mówię, że coś takiego jest.
No cóż, Arkuś, jeżeli przetestujesz, jeżeli będziesz miał ochotę, to daj znać,
no bo rzeczywiście brzmi to obiecująco, a czy tak jest w praktyce, to…
Dobrze, no to tyle, bo znowu przygadałem.
Spokojnie, mamy czas. Pierwsza godzina Tyflo Przeglądu nam zleciała, ale to nie jest ostatnia godzina, bo teraz czas powoli przechodzić do już informacji bieżących.
Dzięki bardzo, Arku, za telefon. Pozdrawiamy cię serdecznie.
Jak możecie, to mnie wyrzućcie, bo oczywiście mam problem z tym zoomem.
O, dziękuję bardzo. To do usłyszenia i miłej audycji.
Dzięki.
Słucham was dalej.
Trzymaj się.
Jeżeli chodzi natomiast o komentarze, które mamy, to na przykład Patryk do nas tu jeszcze napisał, napisał do nas o tym, że się pojawiło firmware nowy do AirPodsów i mamy tu nieco stabilniejsze audio na nowszych modelach iPhone’ów, czyli iPhone 13 na przykład i wyżej, ale jakichś zmian dotyczących codeca to na razie nie ma.
No ale skoro chociaż to stabilniejsze audio jest, no to tyle dobrego.
Mamy też kilka komentarzy.
Mamy na przykład komentarz od Piotra.
I Piotr pyta, w jakich grach poza Blind Drive jest wykorzystany dźwięk binauralny?
Dziękuję za odpowiedź. Polecam tę grę.
Dużo, dużo. Co pierwsze co mi przychodzi do głowy to Heroes Call, o którym będzie później, bo gra teraz stała się darmowa swoją drogą.
Co jeszcze? A Blind Legend, taki już z takich gier dla widzących, ale też z gier dla niewidomych, to Cycle Path na przykład, to też podobny klimat w sumie, tak na zawołanie oczywiście, jeszcze mi nie przychodzi do głowy, chociaż wiem, że jeszcze trochę tego jest.
Sam Dragon’s Cave nie miał? Dragon’s Cave nie miał chyba przestrzennego kota?
Chyba nie, a szkoda, bo tam by się w sumie przydał, ale chyba niestety nie.
to graliście pamiętam widziałem tak
właśnie próbowałem sobie przypomnieć
czy miała ale chyba faktycznie
niestety nie ostatnio o czymś czytałem
takim właśnie co miało dźwięk
ta
ta gra o której Arek mówił
to RPG chińskie
której którego nazwy teraz nie
wymówię.
A nie wiem czy się zleczy w sumie
bo to też może może ale też to na
komputerze to było z chińską
nazwą.
Okej.
No i ja z tego.
Mamy kolejne wypowiedzi jeszcze.
Mamy na przykład komentarz jeszcze od Borysa.
Jeszcze jedno.
W iOS 17 kiedy wchodzimy do centrum sterowania
to z jakiegoś powodu voiceover ustawia się na suwaku głośności.
Nie wiem czemu tak.
Czy to było zamierzone?
Chyba nie.
No i jeszcze komentarz od Boczka.
Pojawiła się druga wersja bety NVIDIA 2023.2
co w niej nowego napisze jak zrozumiałem.
Zaktualizowano tłumaczenia, poprawki z addon store, co mamy?
Kiedy otwieramy ten sklep po raz pierwszy pojawia się ostrzeżenie
usprawnienia obsługi dodatków i wczytywanie informacji o tłumaczeniach.
Poprawiono błędy związane z wykrywaniem i skrótami klawiszowymi monitorów Euro Braille.
Poprawka błędu z wyświetlaniem sekcji ustawień Brailla.
brajla, poprawiono błąd z fokusem, szczególnie z Windows Mail, poprawka opcji podgląd brajla, poprawka z syntezatorami Eloquence z wypowiadaniem wielkich liter fonetycznie zamiast literowania.
Dzięki, dzięki Boczku bardzo za te informacje.
No i cóż, słuchajcie, to może w końcu przejdziemy do jakiejś pierwszej informacji w naszym dzisiejszym programie, w naszym dzisiejszym Tyflo przeglądzie, a zaczynamy sobie od SensePlayera, które to urządzenie doczekało się nowego oprogramowania, no i to oprogramowanie pozwala, da to i owo więcej na ten temat, Piotr.
Tak jest, nowe oprogramowanie w wersji 2.0, a że 2.0
duży numerek nowy, no to przydałoby się,
żeby dużo się pozmieniało i owszem trochę się pozmieniało.
W komentarzu znajdziecie link do dokumentu,
który mówi nam, co jest nowego w tej wersji, przynajmniej po
angielsku, ale też teraz tutaj przytoczę, co się zmieniło.
Tak jak tutaj to producent wymienił, zaczynamy od ogólnych
zmian i tutaj po pierwsze poprawiono
problem, że urządzenie czasami, jeśli mieliśmy podłączone słuchawki,
po uruchomieniu wydobywało siebie dźwięk zarówno w słuchawkach, jak i na głośniku.
Wiem, że to był błąd znany.
Znane narzekali ludzie na niego.
No to zostało poprawione.
Kiedy trzymamy przycisk power, żeby wyłączyć urządzenie, no to mamy teraz menu z trzema opcjami
pozwalające nam wyłączyć, zrestartować lub anulować.
Więc jeśli chcemy po prostu sobie to urządzenie zrestartować, to teraz możemy to z tego menu zrobić.
Wszystkich miejscach, gdzie jest stosowany odtwarzacz, Syntasa już nam nie będzie mówiła, kiedy włączamy lub wyłączamy pauzę właśnie, że z pauzy odtwarzanie się wznowiło, tylko po prostu będziemy słyszeć samo multimedia, które sobie słuchamy.
To też wiem, że osoby na to narzekały.
No i tutaj jedna krótka informacja, ale o niej więcej, szerzej
powiemy za chwilę. Dodano mobilny skin reader, podobny do tego
w BrailleSense 6, ale przystosowany na klawiaturę SensePlayera,
czyli właśnie możemy sobie instalować aplikacje zewnętrzne na
system Android. No i tutaj następna zmiana, z tym związana.
Do menu głównego została dodana nowa opcja
Wszystkie aplikacje, w której znajdziemy wszystkie aplikacje zewnętrzne, które zainstalowaliśmy
Następna zmiana, właśnie w tym menu wszystkich aplikacji
Dodano instalator aplikacji, który pozwala nam łatwo zainstalować
Najbardziej popularne aplikacje, które firma HIMS sprawdziła i wiedzą, że działają dobrze z tym urządzeniem
To jest np. Netflix, podobno to jest Audible, nie wiem co tam jeszcze było z takich chyba Spotify, takie drobox, no właśnie, więc takie popularne aplikacje, które mogą się nam przydać.
Ustawienia związane z głosem, z ustawieniami głosu zostały wyrzucone z ustawień globalnych i dostały teraz swoje własne menu, które nazywa się właśnie opcje głosu.
Możemy znaleźć je w menu ustawień, ale też możemy użyć skrótu menu plus kasuj, żeby dojść do tego menu z dowolnego miejsca.
Następnie mamy zmiany związane z bluetoothem.
Porwiono problem, że przyciski na słuchawkach nie działały poza otwarzaczem muzyki, więc otwarzanie daisy czy np. podcastów tam to nie działało, ale już powinno.
W menu menadżera Bluetooth możemy zmienić nazwę urządzenia, nie wiem czy tutaj chodzi o nazwę urządzeń, które my sparowaliśmy, czy samego SensePlayera, kiedy my na przykład łączymy się z telefonem, czy innym urządzeniem, w tym trybie Smart Connect.
Tutaj nie jest to doprecyzowane.
Poprawiono problem w trybie Smart Connect, kiedy zmienialiśmy język klawiatury skrótem, czasami się nam wstawiała przez przykład ekspansja.
I to wszystko w Bluetooth.
Teraz mamy zmiany w opcjach globalnych.
Pozmieniano kolejność opcji w taki sposób, żeby opcje powiązane ze sobą były koło siebie.
Dodano dodatkowe opcje pozwalające nam zdecydować, jak szybko urządzenie będzie wpisywało znaki,
kiedy używamy tej klawiatury T9.
Tam domyślnie nawet w tej najszybszej opcji to zajmowało dosyć dużo czasu.
Na to też wiem, że niektóre osoby narzekały.
Teraz to można jeszcze sobie skrócić, więc jeśli piszemy bardzo szybko
Szybko to możemy sobie to jeszcze zoptymalizować dla siebie.
Dodano nową opcję, która pozwala nam zdecydować kiedy będziemy słyszeli
komunikaty o indeksowaniu.
Nie wiem za bardzo o co tu chodzi, czy chodzi o pozycje na listach na przykład,
bo wiem, że urządzenie mówi to, te informacje czy to o coś innego.
Mniej więcej w opcjach globalnych znajdziecie nowe ustawienie.
Następnie menadżer plików.
No i tutaj po pierwsze dodano opcję instalowania plików APK z managera plików, jeśli na nich klikniemy i właściwie to wszystko, no ale opcja wydaje mi się potrzebna.
Teraz odtwarza 3 mediów.
Możemy teraz nawigować po rozdziałach, jeśli plik taki posiada, nie jest powiedziane w jakich formatach to działa, na pewno w MP3 i niestety na pewno nie w M4A, o czym za chwilę.
Dodano opcje, które pozwalają nam zastosować, które jednostki przeskakiwania, czy tam 10, 30, 60 sekund są doznępne tymi szałkami góra-dół.
No tam tego było bardzo dużo i wiem, że to jest kolejna rzecz, na którą bardzo dużo ludzi narzekało, że tam trzeba było naprawdę dużo się przeklikiwać.
No a teraz możemy sobie opcje, których na pewno nie chcemy, wiemy, że nie będziemy z nich korzystać, po prostu powyłączać, no i mieć to, nazwijmy to takie pokrętło bardziej.
Szybciej działające.
No tutaj jest opisane jak to działa.
Nie możemy wyłączyć nawigacji po zakładkach i rozdziałach dlatego, że te opcje są dynamicznie wyświetlane jeśli plik, który mamy otwarty akurat ma zakładki, które my dodaliśmy lub rozdziały.
No i automatycznie jest usunięty tryb właśnie skakanie po ścieżkach, jeśli akurat mamy tylko jeden plik otwarty.
Jeśli akurat tak jest, no to domyślnie jest wybierana nawigacja po 30 sekund od przodu do tyłu.
Możemy teraz dodać kolejkę, którą sobie wybraliśmy, jeśli poddawaliśmy sobie jakieś pliki do playlisty,
Zarówno do nowej, więc możemy sobie z poziomu utwarzacza, nie wiem, wybraliśmy sobie kilka folderów i możemy sobie z tego miejsca utworzyć nową playlistę, lub możemy dodać jakieś ścieżki do playlisty istniejącej.
Znajdziemy to w menu kontekstowym utwarzacza, oprócz katalogu audiobooks, więc jeśli słuchamy książek audio, no to urządzenie jest na tyle inteligentne, że nam tej opcji nie wyświetli.
Natomiast, jeśli chodzi o audiobooki, no to mamy też opcję, która pozwala nam
jeśli zaznaczymy grupę plików, czy jakiś folder albo właśnie jakieś pliki luzem, z których nie
chcemy koniecznie stworzyć playlisty takiej do muzyki, ale to jest jakaś książka audio.
Może mamy książkę, która ma powiedzmy trzy części, każda z nich jest w osobnym folderze, a
chcielibyśmy sobie to wszystko połączyć jako taką jedną dużą książkę.
No to teraz mamy też oprócz opcji zapisz jako playlista opcję zapisz jako
audiobook i jeśli to zrobimy, to sense player zawsze będzie pamiętał
gdzie skończyliśmy otwarzanie jeśli zamkniemy to niezależnie od tego
jak mamy globalne ustawienia ustawione oraz taki audiobook jest traktowany
jako jeden duży plik, więc wszystkie skróty nawigowania po jednostkach
czasu na przykład, będą nawigowały nas względem właśnie całego tego
audiobooka powiedzmy, czyli wszystkich tych plików, a nie pojedynczych ścieżek,
więc na przykład jednego rozdziału.
No i wtedy opcje takie jak powtarzaj, otwarzanie losowe są po prostu wyłączone,
no bo nie będą nam potrzebne, więc nam nie będą zawadzać menu.
Wspiera teraz otwarzanie plików m4b, to co zostało zgłoszone przez osoby
korzystające z narzędzi, które pozwalają na usuwanie zabezpieczeń z książek
Audible, więc tutaj jak widać firma Himes obrała zupełnie inną strategię
co HumanWare na obsługę Audible, bo HumanWare zresztą cały czas czeka na Amazon,
który też ostatnio bardzo wolno działa i mimo to, że obiecywali, że ten najnowszy
Victor Reader będzie miał tego Audible, to jeszcze go nie ma, a tutaj w międzyczasie
SensePlayer nie dość, że ma aplikację oficjalną, to jeśli ktoś sobie nieoficjalnie
te książki wściąga, bo są na to sposoby, no to teraz SensePlayer natywnie je wspiera.
Niestety bez rozdziałów, mimo to, że takie pliki mają rozdziały i większość aplikacji np.
na iPhonie potrafi takie rozdziały czytać, BookPlayer np.
no to niestety SensePlayer na razie nie.
To jest związane chyba z biblioteką, jakie oni utwarzają, tutaj jest właśnie to podkreślone, że
niestety na razie tego nie mogą zrobić, ale może to w przyszłości będzie jeszcze dodane.
I na koniec poprawka błędu, że w jakichś dłuższych plikach mp3 czasami się
prawidłowo nie odtwarzały, teraz już powinny.
Otwarzacz Daisy następnie.
Kiedy czytamy książki tekstowe Daisy to możemy sobie ustawić osobny głos
czytania względem całego systemu i to się tutaj nam może przydać na przykład
jeśli czytamy książkę w jakimś innym języku niż nasz system i nie chcemy
głosu w całym systemie sobie zmienia się, teraz możemy to tylko dla
otwarzacza DAISY to zrobić. I tak samo jak w otwarzaczu multimediów
tutaj też możemy sobie powyłączać różne jednostki nawigacji z tego
nazwijmy to znów pokrętłem. I tutaj tak samo skróty,
zakładka i nagłówek są zawsze dostępne.
Nie możemy ich wyłączyć, bo urządzenie inteligentnie je będzie wyświetlało lub nie.
Jeśli fliku akurat są lub nie ma nagłówków lub zakładek.
I te ustawienia są też osobne dla książek DAISY Audio i tekstowych.
A propos książek tekstowych to teraz mamy czytnik dokumentów.
I tutaj też możemy sobie osobno głos czytania zmienić.
I też możemy sobie elementy nawigacji powyłączać jeśli jakieś nam są niepotrzebne, tutaj pewnie jakieś akapity, znaki słowa i tak dalej, więc jeśli z czegoś nie korzystamy, no to możemy sobie to powyłączać.
I tutaj też zakładki nagłówki będą inteligentnie pokazywane lub niezależnie od tego, co mamy w pliku akurat.
Jest opcja dodana, która pozwala nam przeskakiwać puste linie i to jest w ustawieniach głosu.
Poprawiono nieprawidłowe ładowanie nagłówków w niektórych plikach ePUB.
Domyślna jednostka nawigacji teraz to jest wiersz, linia.
Nawigacja po nagłówkach powinna teraz być wspierana w plikach .docx, więc tutaj dokumenty wordowskie i następnie podcasty.
Mamy obsługę rozdziałów, mamy ustawienia korektora w otwarzaczu podcastów, więc jeśli ktoś chce sobie korektor ustawić, jeśli jakiś głos niewyraźny, chce sobie coś wysokie i niskie tony dostosować, to teraz można.
Też możemy sobie tutaj włączyć lub wyłączyć jednostki nawigacji i tutaj znów oczywiście zakładki rozdziały to są inteligentnie włączane lub wyłączane.
Co tutaj jest? Stan listy podcastu powinien być bardziej dynamicznie aktualizowany.
Kiedy chodzimy pomiędzy listą kanałów lub odcinków i tak dalej to powinno być bardziej responsywne.
Będziemy dostawać informacje o postępie pobierania jeśli pobieramy kilka odcinków naraz.
Pobierane pliki dostają prawidłowo nazwy odpowiadające nazwom odcinków.
Możemy zaznaczyć kilka odcinków naraz do pobrania.
Jeśli mamy wybraną opcję tylko powiesz, no to pobrane odcinki będą prawidłowo odtwarzane kiedy na nich klikniemy.
Tutaj chyba jakieś błędy były z tym.
Kiedy kasujemy jakiś odcinek, który mieliśmy ściągnięty z listy odcinków danego podcastu
podcastu, no to nam teraz synteza prawidłowo mówi odcinek skasowany, a nie kanał
skasowany, jak to było wcześniej, więc tutaj dostawaliśmy komunikat, że nie chcący
sobie wszystko usunęliśmy, a tak nie było i teraz już synteza nam prawidłowo tu mówi.
Możemy też czytać opis odcinków, tak jak to było podane w informacjach pomocy, więc
funkcja do tego była, ale nie działała, ale już na szczęście działa.
Następnie radio, możemy sobie dostosowywać kolejność kanałów na liście ulubionych, tutaj jest opisane, naciskamy dwójkę i wtedy po prostu możemy strzałkami góra dół dany kanał przenosić i naciskamy tą dwójkę jeszcze raz, żeby zatwierdzić przeniesienie.
Następnie dyktafon, nagrania powinno być zapisane jeśli nacisniemy przycisk home podczas nagrywania.
Poprawiono nagrywanie daisy, te pliki które sensplayer nagrywał nie zawsze chciały się na innych urządzeniach otwierać, teraz już powinny.
Kiedy nagrywanie jest zatrzymane, spauzowane, to możemy użyć skrótów sprawdzania godziny i baterii.
Wibracja jest teraz troszeczkę inna, kiedy nagrywanie jest pauzowane lub zatrzymywane, więc lepiej wiemy po prostu co się z tym nagrywaniem dzieje.
I tutaj też przy nagrywaniu, przy odtwarzaniu nagrań też możemy sobie dostosować jakie jednostki nawigacji są dostępne.
Pobieranie z Bookshare’a, wspiera nowe API do Bookshare’a i do tego co ciekawe jest wymagane pobranie aplikacji Chrome z tego katalogu.
Czytnik mobilny.
Właśnie aplikację możemy instalować albo z ich instalatora lub z menadżeru plików.
Możemy nacisnąć klawisz kacuj na aplikacji, żeby ją odinstalować na liście.
I tutaj mamy wszystkie skróty wypisane fajnie, tego nawet wcześniej nie
zaufałszyłem. Poprzednia następna kontrolka strzałka lewo prawo, element
powyżej poniżej strzałka w górę lub w dół.
Góra, dół ekranu to jest 1 lub 7.
Kilka elementów do przodu lub do tyłu na listach to jest 3 i 9.
A chyba są skróty, które też ogólnie w interfejsie SensePlayera są dostępne, więc tutaj jest wszystko tak bardzo logicznie.
Uaktywnij zaznaczony element, klawisz OK.
Przytrzymaj element, to przytrzymujemy 0, więc jeśli chcemy kliknąć i przytrzymać jakiś przycisk.
Przeciągnij i upuść, no to po prostu szybko naciskamy 0, przecisk wstecz to jest przecisk anuluj, słówak to jest głośność głosu, sterowanie multimediami, klawisz ok i 0 to jest play, pauza, ok z gwiazdką to jest poprzednia ścieżka,
I OK z krzyżykiem to jest następna.
Dodaj etykietę do przycisku, szybkie przytrzymanie gwiazdki i to wszystko co tutaj mamy wpisane.
No ale jak widać całkiem sporo się pozmieniało oprócz tych aplikacji w Androidzie, więc jeśli ktoś korzysta z rozdziałów lub denerwowało go to, że tam na tej liście elementów po których możemy skakać było 20 różnych elementów, to zaraz sobie można to wyłączać.
Natomiast z tego co wiem, Paweł tutaj wie trochę więcej o tym, jak te aplikacje z Androida się na tym urządzeniu zachowują.
Tak, więc nie wszystko da się zainstalować i to z różnych przyczyn.
Widziałem post użytkownika, który próbował sobie zainstalować Telegrama lub Nekograma, czyli jakąkolwiek wersję Telegrama, która by działała.
Coś pisał o jakichś instalatorach SAPK, nie do końca wiem o co chodzi.
kojarzę, że jest XAPK i jakiś tam jeszcze inny format oprócz zwykłego APK,
ale SAPK nie kojarzę, więc po prostu był dźwięk, takie pinknięcie,
jak się naciskało tam klawisz wyboru na takim instalatorze i nie działo się nic.
Lookout, Google Lookout, nawet się zainstalował, ale cóż z tego,
kiedy urządzenie nie posiada usług Google, więc aplikacja jest od nich zależna
no i się nie uruchomiła.
Whatsapp się zainstalował,
ale kazał sobie zeskanować
kod
telefonem z ekranu,
którego nie ma, tak?
SensPlayer nie ma ekranu.
Ciekaw jestem czemu w sumie,
wykrył jako tableta pewnie.
Na tablecie trzeba tak zrobić, tak się domyślam.
Natomiast pewnie kiedy niedługo
wejdzie już ta opcja,
która
na webie już jest, że można za pomocą
wpisywanego z klawiatury, no to pewnie by zaczął działać.
Chociaż nie wiadomo, bo może jakieś następne przeszkody by się pojawiły.
Z kolei Open Camera się zainstalowała ponoć bez problemu
i można było zrobić zdjęcie i nawet nakręcić film.
I ten film był ponoć słabej jakości, no ale obraz w nim był,
więc jak najbardziej komponenty dało się wykorzystać.
No i teraz jest pytanie, które to aplikacje będą działały z usługami Google,
które nie. No i też gdzieś zaczęła krążyć informacja,
że dla niektórych aplikacji typu NLS Bard, czyli rozumiem,
że właśnie aplikacje, które nie są częścią tego systemu
typowo himsowego, tylko już są doinstalowane,
włącza się ESPIG, bo ten vocalizer, to jest chyba vocalizer,
jeżeli dobrze pamiętam, czy acapella, to co jest domyślnie
vocalizer, który jest domyślnie na sense playerze
jest chyba w tak dziwny sposób licencjonowany, że można go
używać tylko w aplikacjach Chimps, no a syntezy mowy żadnej dodatkowej
doinstalować się nie da, na Google się zdecydować nie mogli, bo no nie używają
usług Google. No więc poszła opcja eSpig, która no już przyśmiewczo jest nazywana,
nazywana najtańszą, jaka mogła być, czyli darmową w urządzeniu, które kosztuje
takie pieniądze, że się nie postarali nawet o to, żeby jakiś porządny
syntezator licencjonować. No ale tak to wygląda, jak wygląda, no i na razie tyle
No pewnie czas pokaże jak ludzie zaczną jeszcze instalować inne aplikacje.
Ciekawe czy w naszych polskich realiach dałoby się tam zainstalować RH Voice’a i go użyć.
Właściwie ja też jestem ciekawy czy by się dało…
Chyba nie.
No?
Ja jestem ciekawy czy by się też usługi Google dało zainstalować, bo wiem, że są na to sposoby.
No właśnie.
Trzeba by pokombinować, na pewno byłoby dużo obróżdzenia tam potem plikami różnymi.
No pewnie tak.
Bo instalacja usług Google, no to nie jest…
Znaczy teraz może są jakieś fajne instalatory. Ja pamiętam z czasów jak miałem jeszcze Honora 7,
że to była babranina niezła. Co chwilę człowiek się łapał nad tym, że brakowało mu innego komponentu.
No więc… A potem się okazało, że gdzieś ze sklepu łapało i dało się doinstalować wszystko za jednym zamachem.
No ale nic. Zobaczymy. Na ten moment wiemy, że działa Open Camera i że nie działa Telegram, Google Code i Whatsapp.
Zobaczymy co tam ludzie będą dalej…
Przypuszczam, że np. taki VLC albo Dota Commander, którego chyba nawet da się z oficjalnej strony pobrać jako pliku APK, powinien zadziałać, więc tutaj jakby ktoś chciał sobie taki odtwarzacz do innych formatów np. ciągnąć, no to…
Pytanie, czy jakiś APK Pure nie pójdzie, który po prostu pozwala na instalację rzeczy normalnie takich, które są w sklepie Play przez wyszukiwarkę swoją własną itd.
No właśnie, tutaj też była taka jedna strona bodajże apk.mirror, która z tego co pamiętam w ogóle wprowadziła swój jakiś własny format do pliku apk i może to ten użytkownik miał tutaj z tym do czynienia, może tutaj o to było.
Może to jest to, to jest prawda, więc trzeba będzie popatrzeć. To są pierwsze dni, więc na razie jest to trochę taki dziki zachód, ludzie to rozpracowują w dość dużym pośpiechu i dzielą się na gorąco wrażeniami.
Tak, bo to dopiero, dosłownie wyszło wszystko wczoraj, przynajmniej ja wczoraj pierwsza informacja o tym dostałem, więc no właśnie.
Tak, więc trochę czasu musi upłynąć, zanim ludzie się do tego przyzwyczają, no i zaczną troszkę na chłodno i na spokojnie te różne rzeczy testować, więc zobaczymy.
Tymczasem zanim przejdziemy do kolejnych tematów, mamy kolejnego słuchacza na linii, jest z nami tym razem Witold, witamy Cię Witoldzie.
O, cześć. Słychać cię? Antena jest twoja. Z czym do nas dzwonisz?
Dzwonię, żeby dokończyć Chrome OS-a, ten temat.
Mówiłem, że czy pisałem, że przetestuję OCR, ale nic mi nie wyszło.
Tam jest w ogóle taka aplikacja jak skaner, ale to jest do podłączenia skanera tylko.
Mówił, że spróbuj ponownie. Jeszcze raz otwierałem, żeby to lepiej sprawdzić i to nie zadziałało.
To jest tylko do skanera fizycznego.
Jest też aplikacja Galeria, tam próbowałem otwierać, ale był tylko przycisk do pliku PDF.
Nie miałem takiego, a nie mam tego komputera tutaj. Czasem mam do niego dostęp.
Jakiegokolwiek obrazka na przykład nie dało się tam wczytać. Tylko PDF.
Tylko PDF.
Tak. I mam pytanie odnośnie iPhona i przejściówek.
Bo ja mam taką przejściówkę, żeby podłączyć właśnie coś na USB pendrive’a czy disk, tylko że jest taka rzecz u mnie, że muszę podłączyć zasilacz jeszcze najczęściej, żeby to działało.
Czy ty Michał też tak masz?
Wiesz co, wiesz co, nie, nie, ale to wszystko też zależy od urządzenia, ja np. pendriva bez problemu mogę podłączyć, ale np. z innymi urządzeniami to już nie jest tak prosto, mam np. kartę dźwiękową, ona co prawda liczy sobie już no tam ładnych naście lat, to jest jakaś bodajże, to jest chyba karta audiotracka, ale też i z interfejsem leksikonu miałem podobną sytuację,
że po prostu dostaję informację, że tu jest za małe napięcie, za mała moc zasilania, żeby to urządzenie dało się uruchomić.
Więc tak, zdarzają się takie rzeczy. Nie podłączałem, i to uczciwie powiem, nie podłączałem zbyt wielu dysków twardych.
Nie pamiętam nawet, czy w ogóle jakikolwiek dysk twardy podłączałem.
Mógłby nie uciągnąć.
Wiesz co, chyba że podłączysz taki dysk z zasilaniem, bo większość dysków twardych, tych większych zaznaczam, ma zasilanie, więc tu może udałoby się uniknąć problemu.
Natomiast rzeczywiście nie wszystkie urządzenia chcą się dać uruchomić. Właśnie z tych powodów energetycznych.
I właśnie też do tego zmierzałem. Czy próbowałeś podłączać może przez Hub’a jakiś taki dysk talerzowy?
Wiesz co, przez Hub’a nie. I w ogóle Hub’a nie podpinałem. Ale to jest dobry tro. Wiesz co, kiedyś będę musiał się pobawić w ten sposób.
Podpiąć właśnie przez Hub’a. Przez Hub’a najlepiej aktywnego z zasilaczem.
Zobaczyć jak to będzie się sprawdzało i czy w ogóle da to jakąś różnicę.
Na pewno np. podłączałem klawiaturę przewodową taką wiesz zwykłą. No to bez problemu.
Tak. Też mi działało. I to co ja mam, nie wiem czy to samo mamy.
Witoldzie, nie wiem czy to u mnie, czy to jest u Ciebie jakiś problem, ale chyba, ale chyba u Witolda, bo ja też słyszałem, że tutaj się zerwało.
Tak, zrywa Cię, zrywa Cię.
No i chyba nam w ogóle Witolda zerwało, niestety, no problem z łączem jak się okazuje, ale jeszcze chyba próbuje.
O, jesteś, jesteś.
Słychać?
Słychać.
Mówiłem, że podłączałem pendrive’a kolegi i to jedyny taki pendrive, który działał bez zasilania zewnętrznego, bo tam…
Słychać było o tym, jak mówiłem, że jest lightning jeszcze u mnie w tej przejściówce.
To znaczy, ale lightning, w sensie lightning żeński, tak?
Jest takie gniazdko jak w iPhonie.
To nie, to ja tego nie mam. Ja mam tę przejściówkę.
Wiesz co, ona jest ze zwykłym portem USB typu A
i do tego tam jest jeszcze
czytnik kart w tej przejściówce.
To jest dokładnie ta przejściówka,
którą da się kupić w sklepie Apple,
a przynajmniej, którą kiedyś można było kupić.
U mnie czytnika nie ma, ale właśnie jest możliwość podłączenia zasilacza do niej, no i jak podłączę zasilacz, to te pendrive wszystkie chodzą, a ten kolegi działa bez zasilacza nawet, nie wiem.
No wiesz co, to jest widocznie kwestia jakiegoś tam zapotrzebowania energetycznego, być może ta przejściówka na przykład jest w stanie jakoś…
Czy można w ogóle kupić? Czy to jest w stanie jakoś?
Wiesz co, mówię być może ona jest w stanie przekazać sama z siebie jakoś mniej napięcia do tych urządzeń, no bo ja z pendrive’ami tak jak mówię nie miałem jakiegoś zasadniczego problemu, ale słucham twojego pytania.
Można kupić taki dynks do USB, czy to żeby działał pod Windowsem, czy pod Androidem, pod iOSem, najlepiej pod wszystkim, żeby można było odbierać FM w jakąś aplikacją, bo mam właśnie notatnik brajlowski i on ma też USB, a na Androidy chyba są jakieś takie aplikacje do obsługi tunerów, nie?
Wiesz co, są urządzenia, są te takie karty telewizyjne, do których podpinasz sobie antenę, czy są to te takie tunery niewielkie, wielkości pendrive’a, one bardzo często właśnie służą do odbierania programów telewizyjnych, one głównie są do tego przeznaczone, no ale można sobie też dzięki nim odbierać stacje radiowe.
W archiwum Tyflo Podcastu mamy, jak dobrze pamiętam, audycję na ten temat, to Patryk Faliszewski pokazywał parę rzeczy tego typu, jak np. odbierać za pomocą takiego urządzenia cyfrowe stacje radiowe w DAB+.
Natomiast do tego są potrzebne odpowiednie aplikacje, na Windowsie są takie, natomiast ja nie podejrzewam, żeby to dało się zrobić z poziomu iOS-a.
Na Androida jest. Są aplikacje i to naprawdę trzeba by poszukać w sklepie Play i wpisać konkretne, wpisać zapytanie.
Bo to były, ja pamiętam, że tych aplikacji było troszkę jak na lekarstwo, jedna czy dwie.
I były wymienione konkretne modele dołączonych kart, żeby odbierać DAP.
Więc AFM to nie wiem, trzeba by zobaczyć, ale warto zacząć od szukania w sklepie Play, jakie aplikacje są aktualnie dostępne,
bo mój stan wiedzy był na kilka lat wstecz i przekonać się, co aktualnie jest w sklepie Play dostępne,
czy jest to aktualizowane, bo jest to też ważne, czy będzie działało z naszym urządzeniem.
No i zobaczyć przynajmniej w opisie aplikacji, jakie są wymienione chociażby z nazwy konkretne modele kart,
które działają i w taką kartę się wyposażyć, o ile oczywiście jest dostęp na sprzedaży.
Witoldzie, czy jeszcze jakieś pytania?
Tak, jeszcze odnośnie tego fajną aplikację ma Motorola, na pewno testowałem.
A nie w moim telefonie, tylko modelu.
A na Telegramie chyba coś było o jakiejś takiej aplikacji.
Ktoś chyba pisał tam na Tyflopolsce, że można z Androida
przegrać na drugiego Androida tą aplikację, jaką tam się chce, inną?
Tak, to jedno z użytkowniczek pisał jakiś APK Extractor chyba czy coś.
Tych aplikacji jest też troszeczkę do robienia APK z zainstalowanej aplikacji.
Ale to są aplikacje konkretne zainstalowane i najlepiej robić to z aplikacjami
oczywiście wiadomo, darmowymi, bo nawet gdybyśmy sobie spróbowali aplikację,
którą sami kupiliśmy, w ten sposób spakować, to ona się nie zainstaluje po drugiej
stronie, bo nie będzie stosownych podpisów.
A jeszcze potrzebowalibyście, czy chcecie podcast może o
Brain Not Tatu? Bo mam to urządzenie, trochę już je sprawdziłem.
No to Witoldzie odezwij się do mnie, odezwij się do mnie, to dogadamy szczegóły, bo myślę, że coś można by było tutaj z tym tematem podziałać. Tylko po prostu skontaktuj się ze mną już prywatnie, najlepiej na michal.dziwiszmałpaferr.org.pl.
Nie zapamiętam chyba adresu.
No to jak wejdziesz na stronę Tyflo Podcastu, tam będziesz miał kontakt i tam sobie znajdziesz dane w jaki sposób się skontaktować i dogadamy się.
Jeszcze powiem, że mam Oriona ECE i podłączałem go do iPhona i normalnie się to udało zrobić. Wszystko mogłem tam zrobić z aplikacji pliki.
A z Brian’a Touch się nie udało. Chciał mi formatować. Nie wiem dlaczego.
No my też tego nie wiemy.
To jest naprawdę, wiesz, kwestia bardzo, bardzo różna. Jak system rozpoznaje różne typy urządzeń i różne urządzenia jako takie.
to iOS tak naprawdę chyba nie ma nigdzie żadnej takiej listy wspieranego sprzętu.
Niektórzy producenci na przykład no się chwalą bezpośrednio, że to urządzenie przez iOS-a jest wspierane właśnie przez ten tak zwany Camera Connection Kit.
Tylko, no to niektórzy, a cała reszta to jest loteria albo zadział albo nie.
Oriana się po prostu wyświetla jako bezpłynne, więc nie dziwię się, że to zadziałało, szczerze mówiąc jestem zdziwiony, że ten bylnot sobie z tym nie poradził, no ale tam może coś w tym systemie było zmieniane, tam chyba nie wszystkie androidy miały to wsparcie, chociaż na bylnocie to bym się spodziewał, że pendrive i takie rzeczy.
Tam jest android 8.
Pendrive tam działają?
A to nie wiem, no to ciekawe.
Więc może być, że jakiś tam konkretny nie jest wspierany system, jakikolwiek system plikowy on tam widzi, to jest też ciekawe.
Tak, może jakoś dziwnie się łączy to urządzenie.
Może jakiś zewnętrzny menadżer plików by sobie z tym dał radę,
typu Total Commander, ale no…
Może.
No, to jest też pytanie.
No dobrze Witoldzie, to co?
Ja czekam na kontakt od Ciebie,
a myślę, że będziemy przechodzić powoli dalej do tematów,
chyba że jeszcze o coś chcesz zapytać.
Jeszcze mam pytanie odnośnie aplikacji VORadio, tam jest w tej aplikacji przycisk rozwiązywanie problemów, czy kontakt, czy w tym rozwiązywaniu problemów tam jest kontakt.
I właśnie nie wiem, czy tam napisać, też mam propozycje nowych funkcji, ale też nie działa tam jedna rzecz, co najmniej.
A w sklepie Play też zauważyłem maila do dewelopera.
Ja użyłem maila ze sklepu Play.
Domyślam się, że kontakt przekierowuje i tak do maila, a z kolei ja używałem maila ze sklepu Play i działa na pewno, bo autor mnie odpisywał na maile już wcześniej, więc spokojnie można użyć tego maila ze sklepu Play.
Ale kontakt w aplikacji prawdopodobnie też w to samo miejsce przekierowuje.
Nie, on przekierowuje na jakieś info, radio, coś tam i jeszcze tam się wrzucają informacje o wersji Androida chyba.
To może ma dwa maile autor. Ja pisałem w każdym razie coś z tego zespołu Play.
Ona nazwa z tego urządzenia się tam wrzuca.
No tak, bo to są takie dane diagnostyczne, tak?
Jeżeli na przykład zgłaszałbyś jakiś problem, no to te informacje deweloperowi pomagają…
Halo, słychać mnie?
Słychać Cię Witoldzie, natomiast chyba masz problem generalnie z siecią, więc no cóż, w ten sposób będzie nam trudno porozmawiać.
Dobrze, ja myślę, że możemy przejść dalej, teraz możemy przejść do serii drobnych informacji.
Tu zarówno Piotr, jak i Paweł mają co nieco do przekazania, do powiedzenia.
No to Piotrze, to co? Twoja kolej na dobry początek.
Już bodajże tutaj pierwsza chyba była orka, ale już to sobie wdejdę.
Okej, no właśnie orka, czyli właściwie no może już nie jedyny teraz, bo się
szykuje nam drugi system screen reader do graficznego interfejsu na Linuxie.
To jest ten pierwszy, który wszyscy kojarzą, no bo właśnie orka jest
dostarczana z właściwie wszystkimi dystrybucjami.
No orka, która ostatnio była troszeczkę zaniedbana, znaczy nad nią
pracuje jedna osoba generalnie tak na stałe, chociaż chyba tam teraz większy ruch się
wokół tej aplikacji stworzył.
No bo od momentu, kiedy tam generalnie jakieś małe poprawki błędów się pojawiały,
ostatnio nagle wokół orki zaczęło się dziać naprawdę dużo i ten skinreader
dostał kilka bardzo fajnych funkcji, które możemy też kojarzyć zresztą z innych
z innych przedmiotów ekranu i między innymi tutaj, co tutaj się pojawiło.
Pojawiło się np.
polecenie, które nam powie, który przycisk jest domyślny w okienku dialogowym.
Mamy też menu czynności, które pozwala nam wykonać inne czynności oprócz
nacisnięcia jakiegoś przycisku, czyli tutaj pewnie jak mamy jakiś słówak, może
jakieś coś co ma menu kontaktowe, no to w ten sposób możemy inne
inne czynności.
Mamy też wsparcie dla nawigacji obiektowej i to jest akurat fajne, bo Orka
wcześniej miała tylko taki, co się nazywało flat review, czyli to jest taki
typowy kursor JOST czy kursor podglądu w NVDA i mamy po prostu to, cały
ekran jest spłaszczany jako taki dokument i możemy sobie góra dół po prostu po
nim chodzić, ale tam nie ma struktury obiektowej zachowanej i to też nie
działało ze wszystkimi nowszymi wersjami.
Managera wyświetlania to tzw.
wcześniej był popularny taki system X, on cały czas jest popularny, ale ostatnio
też pojawił się nowy Wayland, który tam jest troszeczkę bardziej zabezpieczony, przez
co niektóre rzeczy, właśnie m.in.
właśnie ten flat review się popsuł i chyba nie wiem, czy po prostu się go nie
rozimplementować, czy po prostu jeszcze to się nie udało.
Natomiast teraz możemy też skorzystać z nawigacji, którą bardziej możemy kojarzyć
z NVDA czy z Voice-over’a lub narratora, gdzie po prostu sobie chodzimy po obiektach.
Więc mamy drzewko, powiedzmy gdzieś jest jakaś
jakaś lista, no to musimy sobie do tej listy wejść i wtedy widzimy każdy element tej
listy, więc tutaj taka właśnie nawigacja bardziej, którą znamy z NVDA i ona
z tego co wiem działa wszędzie i to jest też fajne, bo
w wielu sytuacjach taka nawigacja się przydaje nawet bardziej niż taki podgląd.
Taka nawigacja też może być ograniczona tylko do bieżącej kontrolki, która jest pod fokusem.
No i tutaj właśnie jest informacja, że lista orki ostatnio była bardzo cicha, a teraz bardzo ruch się na niej zwiększył, dużo ludzi zaczęło pisać wiadomości.
To wszystko jest już gdzieś dostępne w kodzie źródłowym orki, więc jeśli ktoś sobie korzysta z tej aplikacji i chciałby tę funkcję przezestawać, to musicie sobie ją po prostu wejść na git projektu,
szczerze nie pamiętam teraz czy to jest na githubie czy na jakiejś innej platformie, mniej więcej możecie sobie ze źródeł po prostu tą orkę skompilować i uruchomić.
Chociaż niektóre repozytorie, a na pewno w Arch Linuxie taki pakiet orka git jest, który nam zawsze najnowszą wersję ze źródełką skompiluje, więc można sobie też, jeśli akurat z tej dystrybucji korzystamy, w ten sposób to przetestować.
Fajnie, że to się tam dzieje z tą aplikacją, no bo namo Linux ostatnio staje się znów coraz bardziej popularny, no i może też dla nas będzie bardziej dostępny, a to myślę jest bardzo fajna sprawa.
Następnie aplikacja dla użytkowników Androida, a mianowicie aplikacja
Fotmob, czy Futmob, ale chyba Fotmob, bo to jest przez jedno O napisane.
To jest aplikacja, która pozwala fanom piłki nożnej sprawdzać różne rzeczy z nią
związane, więc możemy sobie obserwować ulubione ligi, drużyny, zawodników, no
i dostawać powiadomienia.
Możemy sobie śledzić mecze, które nas interesują, ustawiać sobie na nie
powiadomienia, więc jeśli nasza ulubiona drużyna gra, akurat czeli bramkę albo ktoś
dostał kartkę podczas meczu, to będziemy o tym powiadomienia dostawać.
Możemy sobie sprawdzać też jeśli wchodzą jakieś transfery zawodników, których
obserwujemy. Są też tutaj jakieś wiadomości w tej aplikacji, które możemy
podglądać. Tekstowe blogi z meczy, nawet tutaj jest napisane, że czasami też się
pojawią jakieś komentarze.
audio, to nie jest powiedziane dla których linka, ale przepuszczam tych większych, to
to tak.
Mamy też własne dźwięki, które możemy sobie ustawiać do każdego typu
wailomain, więc coś ułatwi nam zrozumieć, co się akurat dzieje, no i co ważne
dla nas i dlatego o tej aplikacji wiemy, bo pojawiła się w serwisie
Accessible Android, bo właśnie osoby z tego serwisu napisały
do autorów tej aplikacji i popracowali z nimi, żeby aplikacja była dostępna.
Więc jeśli lubicie piłkę nożną i szukacie fajnej aplikacji, która pozwalała
Wam śledzić ulubione rozgrywki czy kluby, no to myślę, że warto się tą aplikacją
zainteresować.
Następnie Threads, czyli portal od Mety, od Instagrama, który jest takim
klonem Twittera. O fredzach już jakiś czas temu mówiliśmy, aplikacja wystartowała z
dosyć dużymi brakami dostępności, nie tylko zresztą.
Funkcjonalność jest stopniowo poprawiana i Mark Zuckerberg właśnie wrzucił
informację na swój profil fredz, jakie funkcje trafią do usługi w najbliższym
tygodniu. I to są między innymi możliwość wysyłania postów na naszego Instagrama,
na profil na Instagramie, no ale co się przyda dla nas własny tekst
alternatywny dla wrzucanych zdjęć i filmów.
No to powinno być na początku, no ale niestety nie było.
Natomiast w najbliższe kilka dni ta funkcja powinna się pojawić.
Też pojawiła się opcja, która nam pozwoli łatwiej wysłać innemu użytkownikowi
wzmiankę podczas pisania postu.
No fajnie, że ten tekst alternatywny w końcu się pojawił.
No mówię, tylko szkoda, że nie było go od początku.
Pytanie ile osób będzie z tego korzystało, mam nadzieję, że jak najwięcej, no ale jak wiemy z tym może być różnie.
Mam nadzieję, że to będzie jakoś promowane, żeby ludzie o tym wiedzieli i z tego korzystali.
To wszystko ode mnie, ale teraz oddaję głos Pawłowi.
Tak, ja patrzę co ciekawego się pojawiło ode mnie.
Aplikacja CallSheet, też aplikacja, która wystartowała w tym tygodniu.
Aplikacja dostępna z VoiceOver’em, jest o tym wspomniane w opisie aplikacji.
Pozwala nam ona wyszukiwać dane dotyczące filmów i seriali.
I tutaj wykorzystywane jest API takiej dość dużej anglojęzycznej strony IMDB,
czyli Internet Movie Database, taki międzynarodowy film web.
I to, że strona jest po angielsku, no to nic, bo zasadniczo dane o różnych polskich filmach również się tam pojawiają i możemy sobie podejrzeć albo aktorów, którzy występują, no takie dane podstawowe typu data premiery, długość, jak długi jest film.
Jeżeli jest to serial, no to lista odcinków.
Kto grał, przez ile odcinków, w jakiej roli.
Kto był odpowiedzialny za różne kwestie techniczne, czyli cała obsada
techniczna. Możemy też podejrzeć, gdzie dany film można obejrzeć.
Do tego celu użyta będzie strona Just Watch, którą ja bardzo zresztą lubię.
My o niej mówiliśmy w Tyflop przeglądzie, która pozwala nam na podglądanie.
Mówiliśmy w Tyflop przeglądzie, albo nie daliśmy rady powiedzieć jeszcze, bo to było
za wcześnie, ale jest taka strona www.justwatchjustwatch.com
no i tam można sobie wpisać dowolny film lub serial i pokazane będą informacje
w jakich serwisach możemy obejrzeć, albo streamując, albo wypożyczając,
albo kupując. No i właśnie tu aplikacja ma też do tego dostęp.
Też jest nam w stanie wskazać jakieś tam zalecenia rodzicielskie
a propos danej pozycji, czy od jakiego wieku dany film stosownie jest oglądać.
Jest też przekierowanie do jakiegoś quizu z danego filmu w ramach platformy IMDb.
No i co mogę powiedzieć? Patrzyłem trochę na polskie filmy.
Można też sobie wyszukać reżyserów na przykład, więc ja wyszukałem przykładowo Andrzeja Wajdę
i mogłem całą filmografię prześledzić.
Oczywiście z tytułami niektórymi po angielsku, no bo aplikacja jest nastawiona właśnie na IMDb.
Natomiast jak się wpisze polskie tytuły, to też się znajdą.
Można podejrzeć w niektórych sytuacjach opis danego filmu.
Opis, naprawdę czasami, zwłaszcza dla polskich filmów, nie chciał mi się on pokazać.
Natomiast można śledzić tam właśnie, podglądać sobie takie różne dane.
Aplikacja za darmo udostępnia nam 21 wyszukiwań, a potem już jesteśmy proszeni o subskrypcję,
która kosztuje zdaje się tam kilka złotych na miesiąc i też jakoś niewiele na rok.
Ja jeszcze limitu nie przekroczyłem, bo na razie tylko testowałem.
No, ale jako, że aplikacja jest dostępna, no to można spróbować.
Ja już jako wadę widzę to, że ona się odpala po angielsku.
Znaczy, no fajnie, że jest wykrywanie języka i to jakoś działa.
Ostatnio w wielu aplikacjach to działa.
Natomiast zwłaszcza jak czytamy potem o jakichś polskich filmach,
jakieś polskie nazwiska, no trzeba przełączać ten język na pokrętle.
Natomiast fajną rzeczą, która na IMDb oficjalnym jest i w aplikacji również mogłaby być,
może zostanie dodana, no to jest podgląd muzyki, jakby listy utworów muzycznych,
które były wykorzystane w danym filmie albo nawet w danym odcinku serialu,
bo to też się zdarza, że oglądamy jakiś dłuższy serial i w którymś odcinku
nas zainteresuje muzyka i już mi się zdarzało przez IMDb to sprawdzać.
No więc to jest Callsheet.
Mamy też serwis alttexthalloffame.org
Jest to strona, gdzie opisana jest właśnie taka podstawa,
takie wprowadzenie do tekstów alternatywnych,
czym one są, komu one są potrzebne, jak one powinny wyglądać
I w różnych sytuacjach są te zagadnienia ilustrowane konkretnymi wpisami z Mastodona, osadzonymi,
gdzie te zdjęcia zostały opisane. Więc mamy taką też galerię poniekąd opisów fajnych różnych zdjęć.
No i to jest super. Warto tam wejść. Oni też linkują do zewnętrznych źródeł.
Jest też ta strona, o której ja mówiłem tydzień temu, czyli altmyślniktext.org.
Ja to podawałem w formie my.alttext.org jako takie narzędzie do tworzenia opisów alternatywnych.
Natomiast okazuje się, że pod adres altmyślniktext.org powstaje tak naprawdę repozytorium
różnych opisów alternatywnych do zdjęć, które już zostały utworzone w przeszłości.
I to jest super. Tam się już zbiera powoli jakiś ponuć kolektyw ludzi i to z całego świata, tak twierdzi autorka strony.
No więc jeżeli strona już wystartuje na dobre, no to będziemy być może mieli taką galerię opisów alternatywnych.
No i to byłoby super.
Be My Eyes. I to jest naprawdę fajny, wielki news. Ja myślę, że tu trzeba szampana otwierać i tak dalej.
Od poniedziałku, 14 sierpnia rozpocznie się udostępnianie BeMy.ai, czyli wirtualnego wolontariusza BeMy.ai z szerszej publice.
I będzie to szło falowo, zaczynając od tych, którzy zapisali się najwcześniej, czyli czekali najdłużej.
Będzie to odpalane takimi seriami, więc tu pewnie kilkoro z nas dostanie tę opcję już w przyszłym tygodniu.
Ja się zapisałem dopiero teraz, no więc prawdopodobnie trzeba będzie poczekać.
Ja się zapisałem na początku, więc ja liczę, że w tym pierwszym rzucie może się uda.
Tak, może w środę będziemy coś więcej dla was mieli z testów.
Może wy też coś z…
No tak, w następnym odcinku w każdym rajdzie.
Tak, tym bardziej, że akurat w środę to na żywo to już mogę teraz powiedzieć,
że się na pewno nie spotkamy. Być może jakiś tam Tyflo przegląd zostanie nagrany,
Natomiast na żywo na pewno spotkamy się za dwa tygodnie.
Tak, ale raczej Was nie zostawimy bez tego odcinka.
W międzyczasie kwestie między nami do ustalenia.
Natomiast jest duża szansa, że tam już jakieś wstępne opinie i wrażenia z BMI.ai się pojawią.
Zobaczymy jak BMI.ai z nas to uraczy.
Aplikacje, webdav, serwer na Maca.
No, gdybyście chcieli otworzyć serwer udostępniania plików, WebDAV tak zwany,
czyli tak jak niektóre chmury się podpinają, no to można.
Jest aplikacja dostępna na Maca.
Link będzie w komentarzu.
Też tutaj polecajka, którą namastodoniem udostępnił Mikołaj Hołysz, nasz Mikołaj,
z którym się tu dawno nie słyszeliśmy, czyli Orbstack.
Jest to ponoć bardzo potężne
Potężne narzędzie do uruchamiania dystrybucji linuksowych w ramach Maca, po prostu na Macu.
Coś jak WSL na Windowsa, tylko tam jeszcze ze wsparciem Dockera.
Ponownie jest to lżejsze, bardziej dostępne.
No i Mikołaj sobie bardzo to chwali.
Także gdyby ktoś chciał eksperymentować z Linuxem na Macu, no to można.
No i na koniec również za pośrednictwem serwisu Accessible Android
aplikacja na Androida Note to Self, czyli aplikacja do wysyłania notatek samemu sobie,
czy tekstowych, czy obrazkowych, czy dźwiękowych.
I jest to zorganizowane w formie takich jakby notatników,
które są jakby kontaktami na komunikatorze.
I my możemy w taki notatnik wejść, tam na początek kilka notatników jest,
jakaś tam lista zakupowa, lista spraw do załatwienia itd.
I w ramach tego są wiadomości i to wygląda w takim stylu właśnie,
jakbyśmy prowadzili z kimś rozmowę na komunikatorze,
ale wszystko się dzieje offline. Są tam nasze notatki i można sobie w takim notatniku różne rzeczy przechowywać.
No i to wszystko jeśli chodzi o odrobne newsy. Aczkolwiek chyba Tomek przyszedł i on też tu ma swój udział.
Tak, Tomek jest. Dzień dobry, cześć. Tylko co ja mam tu jeszcze muszę sprawdzić, szczerze mówiąc.
Ułatwia udostępnianie plików między Androidem a Windowsem. Tomasz.
To mam?
To masz, to masz.
Ojej, to muszę sobie to jeszcze odświeżyć.
To jest aplikacja, pamiętam, że to była jakaś aplikacja.
To zanim, a nie, ja wiem, to nawet nie jest aplikacja, to jest po prostu artykuł po angielsku, co prawda, ale zawsze można go sobie chociażby przetłumaczyć.
Dobrze się tłumaczy ten artykuł.
To jest taki artykuł, który opisuje krok po kroku, jak sobie zainstalować aplikacje typu serwer FTP na Androidzie i pobrać przez FTP pliki na system Windows, co tam po kolei zrobić, co wpisać, w jakiej kolejności itd.
Więc jeżeli ktoś chciałby bezprzewodowo sobie pobrajerać pliki na Androida i nie wie do tej pory jak to zrobić,
no bo powiedzmy, że jakby to nie jest nic nowego w takim sensie, że takie aplikacje już są, są od dawna,
ale są też użytkownicy, którzy po prostu nie bardzo wiedzą jak to zrobić, to to jest taki dość prosty, łatwy artykuł właśnie jak tego dokonać.
To się rzeczywiście może przydać, bo dla nas ten FTP…
Tak, to jest i pobieranie, i kasowanie, tam można wtedy w związku z tym, że to jest FTP, no to można i przenosić te pliki, tworzyć nowe i tak dalej, i tak dalej, no to po prostu takie zarządzanie plikami z poziomu komputera i tak jak mówię, to nie jest nic nowego, natomiast to jest coś, czego część osób po prostu może nie wiedzieć, jak to zrobić.
Zgadza się, akurat w przypadku FTP to warto też pamiętać, że to jest bardzo uniwersalne, bo to i na Androida mamy serwery FTP, na iOS-a też mamy serwery FTP.
Zresztą chociażby kwestia wrzucania muzyki, to tak jak wiele osób właśnie mówi, że na Androida się łatwo wrzuca muzykę czy jakieś tam pliki,
bo można po prostu podłączyć sobie do komputera telefon i skopiować.
A na iOS-a jest z tym problem.
Rzeczywiście tak łatwo aż się tego zrobić nie da,
ale też np. niektóre aplikacje odtwarzające muzykę,
jak chociażby Fubar ma serwer FTP
i powiem szczerze dla mnie to jest np.
najlepszy, najlepszy w ogóle sposób do wrzucania muzyki, czy wrzucania w ogóle plików audio, bo to tam pomijam, nie tylko muzyka może być, ale po prostu jakiekolwiek audio.
No dobrze, to proponuję, żebyśmy w takim razie odebrali kolejne połączenie, bo mamy tutaj Patryka, który czeka, czeka i się doczekać nie mógł, ale już w tym momencie podłączamy, podłączamy Patryka, miejmy nadzieję, że zaraz się do nas odezwie.
Jeszcze w międzyczasie zerknę, czy jakieś komentarze do nas wysyłacie, na przykład na Facebooku, ale tu chyba nic nie ma, na YouTubie zresztą też.
A, Ewelina na YouTubie zadała pytanie, czy dałoby się zrobić kiedyś audycję o osobach niewidomych w więzieniu.
Ewelino, no kiedyś myślę, że tak tylko trzeba by było znaleźć odpowiednią osobę, z którą można by było na ten temat porozmawiać jakoś rzeczowo na temat, to myślę, że jeżeli uda się kogoś takiego znaleźć chętnego do rozmowy, to nie będzie najmniejszego problemu.
Jak najbardziej jest to do zrobienia.
Patryku, teraz jeszcze tylko prosimy o zgodę na nagrywanie, żeby mikrofon Ci się odblokował
i już możesz do nas mówić.
Bo już widzę, że kwestię audio opanowałeś.
O, jesteś.
Albo jeszcze nie. Nie, jeszcze nie.
Dobrze, to w takim razie sprawdzę jeszcze, czy do nas coś piszecie tutaj na panelu kontaktowym, ale nie, niczego więcej nie ma. O, jesteś.
Z tym zoomem to się tak zmienia z każdą aktualizacją, że po prostu czasem ciężko jest się połapać.
się wyciszyło zaraz u mnie, no ja chciałem powiedzieć o takiej poradzie, jeżeli chodzi o te reklamy, bo tutaj było mówione o grze Brave Brain, ale przez Czech.
Jak sobie radzić z tymi reklamami, bo to tak do końca nie jest, bo generalnie dostawcą tych reklam jest Unity Ads Library, chyba się to nazywa,
czyli po prostu ta biblioteka reklamowa, która jest dołączona z wnity i tam jest taka jedna rzecz.
Jest tam taki przycisk, jak leci reklama, on się chyba nazywa
click to turn on accessibility content, czy coś takiego.
To się chyba mniej więcej w taki sposób nazywa i jak to tapniemy,
W momencie jak ta reklama nam się skończy, to u góry ekranu będziemy mieć normalnie close przycisk.
Wystarczy po prostu, że raz w to tapniemy i w tym momencie będziemy mieć zawsze te reklamy dostępne,
bo ten dostawca jest w zasadzie jeden, więc tak można sobie z tymi reklamami radzić.
Ja sobie właśnie radzę w ten sposób, że po prostu jak reklama to biegnie końca,
przestanie grać, na samym początku w lewym górnym rogu mamy przycisk close, który nam zamyka to wszystko,
zamyka nam reklamę i możemy sobie dalej tam grać, czy co tam, jeżeli mówimy oczywiście o tej grze.
Ja też oczywiście napisałem na temat tej gry na altenie, na forum gry.
Niezwykle mi się podoba ten model subskrypcyjny, bo ja tam pisałem, że generalnie monet nie można dostać po zakupowaniu w sklepie i napisałem, że jest to paywall.
A jednak okazuje się, że te monety można dostać, bo nie dość, że je wygrywamy za każdy wygrany quiz,
to jeszcze dostajemy je w tych bonusach dziennych.
Z tym, że tak, z bonusem dziennym chciałem ostrzec, jest błąd taki, że po pierwsze gra nas od nich nie powiadamia,
po drugie musimy sobie czasami tego bonusu przypinować, jeżeli przegapimy na przykład ten bonus dzienny
I nie odbierzemy go w czasie, kiedy jest dostępny, to w tym momencie znowu musimy czekać kolejne 12 godzin, czy tam 15, aż ten bonus znowu nie wystartuje, taki błąd, który myślę, że zostanie naprawiony.
Albo błąd, albo celowe działanie, żeby za często ludzie tych bonusów nie dostawali.
To znaczy no nie, no bo jeżeli na przykład dostaniesz bonus, to on będzie czekał na Ciebie, aż go odbierzesz, więc jak go nie odbierzesz, no to odbierzesz bonus i na następny czekasz w kolejce, nie?
A, w ten sposób myślałem, że jak nie odbierzesz, to on przepada.
Nie, jak go nie odbierzesz, to po prostu powinno się go dać odebrać jakby w innym czasie.
Natomiast co do samej gry, to bardzo mi się podobają te, jak to zostało tam zrobione, zróżnicowanie tych pytań jest fajne.
Natomiast, no mówię, ten system ekonomii płatności niestety nie.
Tak, teraz jeszcze chciałem powiedzieć, nie wiem Piotrze, czy ty będziesz o tym mówić, o Diablo 4.
Nie, akurat nie wiedziałem, że jakaś aktualizacja się pojawiła. Wiem, że Arek coś wspomniał o tym, ale tylko pobyt.
Jeśli masz informacje bardziej szczegółowe, to możesz powiedzieć.
coś powiedzieć. Mam informacje szczegółowe.
Dwie rzeczy doszły do screenreadera w tej wersji.
Teraz już jeżeli zakładamy postać nową,
screenreader czyta te ikonki tych awatarów, które pokazują się nam
właśnie kiedy tą postać tworzymy.
Już to jest wszystko odczytywane bez problemu i ekran tworzenia postaci został
poprawione i teraz screen reader też jest nam w stanie odczytywać jakieś duże litery, małe litery.
Jest w stanie rozrówniać i znaki specjalne również są odczytywane i to, jak na razie,
jest wszystko, jeżeli chodzi o dostępność, przynajmniej w kwestii tego, co napisał Blizzard.
Być może gracze znajdą więcej rzeczy, natomiast taka informacja,
No bo miało, ma chyba dzisiaj wyjść to rytmiczne RPG, co tam ma być audiodeskrypcja w tym zaimplementowanym.
Tak, ten musical Stray Gods dokładnie ma dzisiaj taką swoją premierę.
I chyba to już wyszło, chociaż nie jestem pewien, bo ludzie na audiogamesie coś tam pisali, no, że ja tam mam problem.
On mówi, ja mam OCR, nic nie czyta i coś tam tego, także nie wiem, czy to już wyszło, czy to nie wyszło, czy to wyszło jeszcze tylko, ale nie dla wszystkich.
bo niestety nie miałem okazji tego sprawdzić.
Ja też jeszcze nie, natomiast wiem, że data premiery miałaby dzisiaj rano.
Jak sprawdzałem forum, to widziałem, że tam ludzie pisali,
że tam jeszcze kilka godzin zostało, więc jeśli to się pojawiło, to stosunkowo niedawno.
Natomiast jeżeli ta gra wyjdzie, to jeżeli już wyszła, to pamiętajcie, że Sklindera tam nie ma.
W sumie ty wiesz w ogóle dlaczego autor powiedział, że Sklindera nie będzie?
nie będzie. Może jakieś takie.
Wiesz co to znaczy to nie było powiedziane że nie będzie.
Oni bardzo chcą to zrobić i mają nadzieję że w przyszłej aktualizacji to zrobią po
prostu akurat silnik tak jak oni to zaprojektowali.
Nie wiem jakiego oni silnika używają i nic z tej informacji
ale po prostu nie zdążyli to zaimplementować a że takie gry no ona już jakiś czas była
w rozwoju bo ona już chyba kilka lat temu jakiś crowdfunding był po prostu nie mieli
czasu już. Myśleli inne rzeczy do
do do pieścić
przez przed oficjalną premierą
więc powiedzieli że postaram się do
tematu wrócić natomiast po prostu już
się nie wyrabili.
No jestem naprawdę gra jest
wieloplatformowa to trzeba pamiętać
co nie jest tylko komputer.
Tam jeszcze gra wyszła na Xboxa
na PlayStation.
Każda z tych platform ma swoje jakieś
api do syntezy.
A też nie wiem czy ich silnik pozwala
się do niego do dostać
Tak więc będziemy musieli poczekać.
Też a propos, ostatnio zacząłem się bardzo interesować tematem właśnie z Arkiem
serwisów, które oferują za pieniądze jakby maszyny,
powiedzmy maszyny wirtualne online, które można jakby sobie przypuśćmy taką maszynę
wykupić. I mówię tutaj o czymś takim, co się nazywa Shadow PC.
To jest coś takiego, że kupujemy sobie tam subskrypcyjnie, jakąś tam subskrypcję wykupujemy i dostajemy dostęp do komputera, wybieramy sobie jaki ten komputer ma być, zdalny oczywiście, jakie on ma mieć parametry.
To jest właśnie ciekawym rozwiązaniem, jeżeli na przykład chcemy sobie pougrać w jakąś grę, a na przykład nasz komputer jest za słaby, a chcemy sobie na tym komputerze zainstalować powiedzmy w wirtualnym Steama i tam różne rzeczy.
Problem niestety z tym Shadow PC jest taki, że nie da się w żaden sposób tego kupić w Polsce.
I Piotrze pytanie do ciebie, czy ty masz doświadczenie z takimi rzeczami i wiesz jak ewentualnie by to można było obejść?
Nie, słyszałem o tym, słyszałem o tym, ale nie testowałem. Myślałem, że to się dałoby zrobić, bo oni mają jakieś centra dane w Europie, bo bodajże w ogóle firma była z Francji.
Chciałem się kiedyś tym zainteresować, natomiast po prostu nie miałem na tyle dobrego internetu wcześniej.
Teraz już mam, ale jeszcze nie sprawdzałem tego osobiście.
Okej. A znasz może jakieś inne alternatywne rzeczy, oprócz Shadow PC na przykład?
Nie.
No bo bardzo ciekawy temat. Ale będziemy to testować i w razie czego już żeśmy rozmawiali z Arkiem, że zrobimy audycję jeżeli nam uda się to kupić i ujarzmić.
Swoją drogą to są ci sami, którzy mają tę usługę Shadow Drive. To jest usługa po Habiku znanym gdzieś tam myślę, że m.in. chociażby z Tyflo Podcastu to OVH kiedyś za tym stało, a teraz to jest jakaś taka kolaboracja właśnie ich i Next Clouda.
Nie wiem czy tam OVH jeszcze coś przy tym robi, natomiast no ten Shadow Drive ma być tak z wielką pompą uruchomiony, ale no to się chyba bardzo mocno w czasie przesunęło jakoś dla mnie, dla mnie ta cała właśnie Shadow Drive, Shadow PC to jest jakieś takie wszystko w cieniu i oni nie bardzo mam wrażenie mają pomysł na to,
ale może, może krzywdzę i może rzeczywiście to za jakiś czas będzie dostępne.
Tylko, że to już, no przynajmniej ten Shadow Drive to kilkukrotnie tam zaglądałem, sprawdzałem i już myślałem,
że będzie można sobie to darmowe konto założyć. Niestety, nie.
No niestety, ale będziemy się starać zgłębiać te rzeczy i jeżeli będzie to dostępne, będzie się dało z tego korzystać.
Liczcie na jakieś z naszej strony tutaj odzewy w tej sprawie.
Okej, no to Patryku, to co? Dzięki w takim razie.
To wszystko.
Trzymaj się i do usłyszenia. Pozdrawiamy się serdecznie.
Co przechodzimy do następnego tematu.
United Airlines. Będziemy sobie mogli polatać i podotykać i wyczuć wszystko, jakie to siedzenie, bo oni planują obrailować samoloty, obrailowić właściwie samoloty.
Tak, nawet nie tyle planują, co już to dla tuzina swoich samolotów zrobili, dalej się to wszystko rozwija, no ale tak, ostatnio było o metrze w Nowym Jorku, no teraz właśnie przesiadamy się do samolotów,
samolotów linii United Airlines, która jest jedną z najbardziej dostępnych zresztą, bo tutaj oni też napisali, że ostatnio pracowali nad, w ogóle nad
dostępnością ogólnie, bo ich aplikacja też stała się bardziej dostępna oraz ich systemy, systemy rozrywkowe w samolotach, które mamy przed
siedzeniami, ekrany dotykowe, które mają jakiś screen reader, mają audiodeskrypcję w oferowanych filmach, więc tutaj naprawdę, jak widać,
starają się o dostępność dbać.
No i właśnie kolejnym etapem tego jest oprawialowanie kilku rzeczy.
Konkretnie właśnie tak jak powiedziałaś tutaj chodzi głównie o siedzenia, zarówno
numery rzędów i numery poszczególnych siedzeń oraz oznakowanie na toaletach
zarówno na zewnątrz i w środku.
Nie jest dokładnie powiedziane jak to ma wyglądać, jaki to oznakowanie jest.
Natomiast to jest coś, co było przygotowane w współpracy z właściwie wieloma organizacjami, które działają na rzecz osób niewidomych w Stanach, zarówno NFB i ACB, czyli dwie największe.
No i właśnie już to jest dostępne w kilkunastu samolotach głównej floty, a ten rozwój cały czas się rozwija i też jest powiedziane, że tam firma w swoich dalszych planach rozwojowych planuje zakupić kolejne kilkaset samolotów do roku 2032 i te nowe samoloty też już będą mogły nam, już będą w to ubrańlowienie też wyposażone.
Po co nam coś takiego się może przydać?
A no mogą być sytuacje, kiedy chcemy sami się po tym samolocie poruszać.
Tutaj autor artykułu, który też sam jest chyba słabo widzący,
daje taki bardzo prosty przykład.
Albo kiedy wsiadamy do tego samolotu, chcemy po prostu sami sobie miejsce
znaleźć, aczkolwiek wtedy będziemy też mieli pomoc załogi.
Ale też później sytuacja, kiedy chcemy dojść do toalety, jak już jesteśmy przy tej
toalecie. Chcemy sprawdzić, czy ona nie jest już przypadkiem zajęta.
Tutaj się właśnie zastanawia, czy to jakoś będzie mogło nam w tym pomóc, żebyśmy
nie musieli, nie wiem, po prostu próbować tego, tych drzwi otworzyć i ewentualnie
przestraszyć tą osobę, która akurat korzysta z tej toalety, jeśli jest zamknięta.
Ale też jak już skończymy załatwiać sprawy i chcemy wrócić do swojego miejsca
i nie prosić o pomoc stery załoga, tylko spokojnie po wyjściu z Taletysami do niego wrócić.
Można próbować liczyć miejsca, ale tutaj autor mówi, że właśnie niektóre linie lotnicze czasami przeskakują niektóre rzędy,
więc to liczenie nam nie musi zawsze pomóc.
W ten sposób, jeśli będziemy mieli oznakowanie, oznakowanie jest na suficie,
więc w tym miejscu, gdzie na przykład możemy walizki schować, więc możemy sobie spokojnie podczas poruszania się po pokładzie samolotu przeczytać.
No i możemy sobie właśnie znaleźć odpowiedni rząd, znaleźć odpowiednie miejsca i sami wrócić na swoje miejsce bez większych problemów.
No fajnie, że takie rzeczy się dzieją. Może coś jakieś inne, nie liczycie się na podobne kroki, zdecydują w Europie.
byłoby fajnie. Czemu nie? Myślę, że
no to nic dodać poza tym, że
po prostu to się chwali.
Ciekawe swoją drogą, czy w jakikolwiek sposób nie mogłoby nam to pomóc
w przypadku sytuacji jakiejś
awaryjnej, bo pamiętajcie, że
osoby z niepełnosprawnością ewakuuje się na końcu.
Przepuszczam, że ciekawe, czy byśmy w stanie byli
na spokojnie wtedy to oznakowanie przeczytać.
No właśnie, właśnie, więc tak też się zastanawiam, czy tam na przykład jakoś będą te wyjścia awaryjne może oznaczone, ale no o tym nic nie ma, tylko raczej o tych takich standardowych miejscach po prostu.
Chociaż w instrukcjach, no jest niby, jak dostajemy instrukcję, to jest opisane, gdzie są te wyjścia i tak dalej, i tak dalej, ale…
No ale to są kwestie takie stresogenne, że rzeczywiście może być z tym jakiś większy problem, jeżeli o to chodzi.
No dobrze, ja widzę, że mamy kolejnego słuchacza na linii. Mamy tym razem Łukasza, który chce się z nami połączyć.
no to zaraz to uczynimy, zaraz połączymy się z Łukaszem. Miejmy nadzieję, że nie będzie jakichś większych problemów, chociaż widzę, że na razie Łukasz się do dźwięku nie może podłączyć.
No to może Pawle nowości z PZN-u w międzyczasie.
Nie ma sprawy. Bardzo chętnie.
I co my tu mamy?
Zaczynamy od spacerów sensorycznych i nie tylko po Warszawie,
bo sensoryczne owszem są i to jest jedna oferta.
Są też takie przyrodnicze bardziej,
ale o sensorycznych możemy przeczytać tak.
Fundacja Wielozmysły we współpracy z Samrozkwit
i Fundacją Przyjazna Przestrzeń
organizują spacery sensoryczne dla osób niewidomych i słabowidzących.
Już niebawem w Warszawie 12 i 19 sierpnia odbędą się dwa niezwykłe spacery
przygotowane z myślą o osobach niewidomych i słabowidzących.
Spotkania odbywają się w ramach projektu 3-4 spacery.
Związane są z tematyką czwartej przyrody.
Przyrody, która pojawia się spontanicznie w zapomnianych przez człowieka miejscach
lub w takich, w których praktycznie nie ma żadnej ludzkiej ingerencji.
Spontaniczna natura ożywia przestrzeń, tworząc często bogate przyrodniczo tereny,
które mogą mieć ogromne znaczenie dla ekosystemów współczesnych i przyszłych miast.
Przez francuskiego architekta krajobrazów, Gilles Clément,
trzecia przyroda, nie, czwarta przyroda,
czwarta przyroda nazywana jest trzecim krajobrazem, zmysłowym krajobrazem.
Zmysłowy charakter czwartej przyrody, 12 sierpnia.
W trakcie tego spaceru uczestnicy poznają bogactwo i różnorodność czwartej przyrody
i odkryją jej potencjał jako miejsce odpoczynku i regeneracji.
Spacer rozpocznie się o 12 przy kopcu Powstania Warszawskiego.
Ukryte dźwięki czwartej przyrody, 19 sierpnia.
W trakcie spaceru dzięki nowoczesnym technologiom uczestnicy poznają dźwięki,
które są niedostępne dla ludzkiej percepcji,
takie jak np. wibracje, które wpływają na drzewa i krzewy.
Może nawet uda się usłyszeć dźwięki echolokacji,
którą wykorzystują nietoperze do orientacji w terenie.
Spiórka przy kopcu Powstania Warszawskiego.
Każdy ze spacerów będzie dostępny dla osób z niepełnosprawnością wzroku.
Organizatorzy zapewniają wsparcie w dotarciu na miejsce,
asystę oraz audiodeskrypcję na żywo.
Jeśli potrzebujesz dodatkowych informacji lub dodatkowego wsparcia podczas spaceru, zadzwoń pod numer, i tu numer telefonu, 509-555-812.
Powtarzam jeszcze, 509-555-812.
Na spacer ukryte dźwięki czwartej przyrody obowiązują zapisy, e-mail infomaupawielozmysly.org lub telefon 509-555-812.
Projekt jest współfinansowany przez Biuro Ochrony Środowiska Miasta Warszawy.
To może teraz odbierzmy telefon i wrócimy do kolejnych informacji.
Skoro Łukasz już jest z nami, to porozmawiajmy z nim. Łukaszu, czy nas teraz słyszysz?
Tak, dobry wieczór, witam serdecznie.
Witaj.
Słychać mnie?
Tak, słyszałem.
Tak, dzisiaj ciężkie tematy, jak to wy mówicie po łacinie, technikalia.
Na początek chciałbym.
Pozdrowić Dawida.
Bo właśnie z nim niedawno ukazał się wywiad na.
Od dostępności no to jest ten wywiad niezbyt długi 5 minut.
Na temat możliwości właśnie.
właśnie, tych, drogarek 3D, no i tam właśnie była taka,
bardzo ciekawa rzecz, co właśnie Dawid powiedział,
że, mogą powstawać, budynki na tych, właśnie drogarkach 3D,
no i to mnie właśnie bardzo ciekawi, czy to jest jakaś
informacja, zaczerpnięta z internetu, skąd
właśnie, z mediów czy właśnie, czy w sumie Dawid
widział taką maszynę właśnie bardzo mnie to
ciekawi. A to by trzeba było Dawida zapytać natomiast ja
też o tym słyszałem już ileś razy, że takie budynki
powstają to znaczy może niekoniecznie to wygląda w ten
sposób, że odpala się jakąś wielką drukarę i ona nam
za jednym razem dom, ale bardziej, że te prefabrykaty do budowy domów po prostu są drukowane na drukarkach 3D,
a następnie to się składa i powstaje z tego dom.
No właśnie, właśnie też tak samo podejrzewam. No i teraz byśmy sobie jeszcze przeszli do kieleckich przemysłowych klimatów,
czyli właśnie targi, obróbki metali i targi przemysłu tworzyw.
No na tej właśnie obróbce metali, no to, że tak powiem,
dostępnościowych smaczków w tym roku nie było.
No niestety żadna maszyna do nas nie przemówiła,
mówiła, bo ponieważ ta japońska firma Mazach w tym roku się nie pojawiła.
No ale właśnie była jedna bardzo ciekawa rzecz co do tych drokarek 3D.
Właśnie wydruki 3D z betonu.
Takie jak to mówią elementy małej architektury, czyli jakieś właśnie
na zewnątrz, no powiem, że to w sumie nieźle podniosło.
Ciśnienie No bo niestety, ten zespół tych pracowników nie
chciał o tłumaczyć jak to działa No oni się tłumaczyli
, że, technologia zbyt zastrzeżona, No ale właśnie
było widać te, te warstwy technologiczne, które
pojawiły się w tej, w tej, w tej, w tej, w tej, w tej
te warstwy, że właśnie grubość tej ścianki wynosiła około pięciu centymetrów,
a w sumie wysokość tej warstwy około centymetra.
Więc jakbyśmy chcieli, to byśmy sobie nawet mogli te warstwy
na tym danym elemencie policzyć.
Łukaszu, a czy to też właśnie było tak, że to były budowane te elementy z jakichś części, czy taka drukarka, jak na przykład był jakiś taki powiedzmy betonowy fotel, to ona drukowała go jako jedną całą bryłę?
Akurat ten fotel był wydrukowany w całości i po prostu on był wydrukowany choćby w leżeniu na boku, tak bym to nazwał, po warstwie, a potem był przywrócony właśnie na to pozycję, co ma stać.
To on musi mieć bardzo duży stół.
No on ten pracownik mi tłumaczył, że mniej więcej.
Wymiary tej maszyny są dwa na trzy metry.
I co ciekawe, samym stołem roboczym jest paleta drewniana,
na którą jest podawany beton i potem jak ten element waży tam
załóżmy 300 kilo, to potem ta paleta jest zabierana.
właśnie wózkiem, żeby tego po prostu nikt nie nie, nie
dźwigał tak w Polsce powiem No ale rzeczywiście ciężki
sprzęt ale w sumie w jaki sposób sama ta pompa działa to
niestety no nie byli chętni żeby to wytłumaczyć Poza tym
samej tej maszyny na tych targach nie było były tylko
te właśnie już elementy wydrukowane No ale była też
ogromna choćby donica to ona się znowu co ciekawe
składała z trzech części nałożonych, na siebie
spasowanych.
W taki sposób No ale co ta firma.
Dała, że tak powiem dotknąć, to była dorkarka 3D która po
prostu.
Droguje z gliny.
No dosyć maszynka spora, dwa metry wysokości.
Stół, roboczy był nieruchomy a za to właśnie głowica
jeździła po trzech osiach XYZ i samo pompowanie tej masy to
był taki no zbiornik gdzieś, ja wiem może z 5 litrów i
ale to było podawane za pomocą sprężonego powietrza.
Że nie tak jak mamy właśnie w drukarce, że właśnie rolka kręci ten filament,
to tam tak nie, tam tłumaczył, że był jakiś tłok
i po prostu sprężone powietrze wyciska to masę na głowicę
i już potem głowica się porusza zgodnie z napisanym programem.
No tylko co ciekawe, jak te elementy wyschły, no to już wypalić trzeba sobie było samemu.
No ale jakieś wazony, czy jakieś takie doniczki gliniane, no to ten wystawca mówił, że zamówień jest spory.
Ciekawe jak dużo tańszy jest, jak dużo mniejszy jest koszt produkcji właśnie w ten sposób od takiego tradycyjnego. I czy na razie w ogóle można mówić o tym, że to jest tańsze, czy to dopiero może być w przyszłości?
No to jak będę miał szczęście to podpytam w przyszłym roku bo to tak powiem, no oni, no niby ta firma działa od niedawna, że oni się tym bardzo chwalą, że to jest według nich super, super technologia.
Nie no to wiesz to wrażenie to rzeczywiście robi ale, no teraz pytanie jak to.
Sama cena tego właśnie pod tym kątem.
I co jeszcze było z takich rzeczy, co widziałem po raz pierwszy?
Była zautomatyzowana frezarka do profili drzwiowych z aluminium.
Czyli jak wszędzie naciskacie klamkę, to wszystkie te otwory
pod klamkę, pod zawias, no ta maszyna sobie robiła.
No wiadomo, że po wcześniejszym umieszczeniu właśnie profili.
No i tak pytałem co do właśnie obsługi, no to dużo interfejsu
tam właśnie graficznego opartego na kadzie.
Potem właśnie zadałem pytanie, czy jakbyśmy właśnie NVDA zgrali,
i czy by na tej maszynie szło działać, no to ten pracownik powiedział,
że no zbyt za bardzo na ten temat nie wie, no ale z tego, co oni obsługują,
no to jest dużo, no właśnie tego interfejsu graficznego,
że on sobie klika myszką i już potem, no tak po polsku już ten komputer
sam wszystko liczy. I jeszcze taka jedna ciekawostka,
na co to była też zautomatyzowana prasa do wyginania blachy,
taka wielonarzędziowa, no też dosyć z tym trochę zeszło i półtora godzinki,
żeby to właśnie obejrzeć, ale na przykład jak macie taką skrzynkę,
na przykład to jest zawór z gazem, no to jak na jednej maszynie się robi,
Jak się wytnie to blachę na wycinarce i potem wystarczy tylko włożyć do tej prasy, zaprogramować, no i już ona te wszystkie gięcia porobi sama.
Co do przemysłu tworzyw, no to powiem, w tym roku też było ciekawie, bardzo duży nacisk na po prostu automatyzację,
że na przykład mieliśmy wtreskarkę, co robiła już dwa elementy,
na przykład poziomicy i potem robot to odbierał, wsadzał te takie,
jak to by nazwać po polsku, no te właśnie oczka, co pokazuje ten poziom.
Potem to wszystko zostało składane, potem podawane do jeszcze znakowarki laserowej,
żeby wybiła znak firmowy i potem jeszcze kontrola jakości.
No to z tym i to był taki, że tak powiem, najbardziej bym powiedział ambitny przykład.
No a tak to też sporo wspaniałych spotkań, wspaniałych ludzi,
ale znowu też w zasadzie wszystkie maszyny miały interfejs na dotyk.
No więc tu trochę z tej obsługi co do dostępności,
no to też tak powiem nic do nas nie zagadało, tak powiem.
No i w sumie zobaczymy co będzie w następnym roku.
Też liczę, że jakieś ciekawe rozwiązania się pojawią.
Oby tak rzeczywiście było.
No to jest rzeczywiście, faktycznie dosyć ciekawa sprawa.
Łukaszu, a tak zapytam, co w ogóle Ciebie gdzieś tam skłoniło, żeby na te targi to już któryś raz z kolei się udać? To jest taka Twoja jakaś pasja? Czy Ty na przykład kiedyś tym się zajmowałeś?
Nie, dokładnie jest to po prostu pasja, bo w sumie od małego się interesowałem mechaniko,
różne tam majsterkowania, no i mój kierunek z studiów właśnie wybrany to była
automatyka przemysłowa. Ale taka jedna lekarka mówi, no spróbuj z innym zawodem,
czyli żebym został masażystą.
No i poszedłem do tej drogiej szkoły, zostałem masażystą, pracuję,
a tamto zainteresowanie jednak zostało.
I dużo właśnie takich rzeczy z przemysłem związanych mnie interesuje,
a w sumie takie właśnie targi są często nie jedynym oknem na świat,
no bo jak wiadomo wejść do fabryki jest bardzo ciężko.
Dokładnie zwłaszcza zwłaszcza tam no i przez różne
przepisy BHP to raczej mało kto pozwoli na to żeby w ogóle
się przyjrzeć jakiemuś procesowi produkcji.
Dokładnie jeszcze teraz takie dwie ciekawostki co do
samych drogarek 3D no tak powiem na luzie trochę z uśmiechem,
że schodzą na psy. Bo ja pamiętam, 5 lat temu to my sobie mogliśmy
wszystko obejrzeć, cały ekstruder, stolik, nawet te wszystkie paseczki napędowe,
wszystkie rolki. No a teraz technologia poszła w cudzysłowie do przodu,
na przodu, że nawet te zwykłe dorkarki, co
drukują właśnie z plastikowego
filamentu, są po prostu pozamykane.
Cały napęd, cały stolik jest po prostu za szybą.
Jeszcze to wiecie, tam nie ma takiego wyłącznika,
jak jest w palce na przykład, że jakbyśmy te drzwiczki
otwarli na załączonym, to maszyna się właśnie może wyłączyć.
No to wiesz, względy bezpieczeństwa podejrzewam.
Tak, tak. Tak, dokładnie. No i teraz jeszcze powiem taka ciekawostka,
bo w tym roku właśnie na tym plastpolu trafiłem na wspaniałych ludzi,
że właśnie wiele maszyn mi udostępnili, więc całe formy wtreskowe,
wnioskowe jak te gniazda.
Wyglądają gdzie podjeżdża robot.
Wszystko szło właśnie zobaczyć tak po polsku powiem wymacać
No a jeszcze kilka lat wstecz był z tym właśnie problem bo
no każdy każdy się właśnie względami.
Zasłaniał się względami bezpieczeństwa a co ciekawe ja
temperatura samej formy wtreskowej, gdzie wchodzi
tworzywa, bo.
Ona jest właśnie chłodzona, żeby to tworzywo w niej
zastygło to to ma temperaturę gdzieś tak powiem no takiego.
Rozgrzonego grzejnika w zimie nic bardziej poza tym więc
możemy tego dotykać. To samo tworzywo jest wlewane
pod znacznie większe, w znacznie większej temperaturze,
prawda? Oczywiście, samo tworzywo to zależy
co właśnie odlewamy, to mamy temperaturę 180, 250
niekiedy widziałem jak odlewają
lubki takie plastikowe, to była temperatura 330.
No właśnie, więc to podejrzewam, że tutaj gdyby jakoś
nieszczęśliwie się stało, że coś by nam tam kapnęło na rękę,
no to mogłoby się skończyć bardzo źle.
Ale tu jak mamy maszynę otwarto, forma jest wychłodzona,
to możemy właśnie śmiało dotykać. Wbrew pozorom powiem,
że zwykły domowy piekarnik jest o wiele bardziej goręczy
i po polsku powiem, niebezpieczny niż właśnie
falony wtreskowe.
No to rzeczywiście coś w tym jest.
Okej Łukaszu, to czy coś jeszcze masz dla nas?
Jeszcze tak mam taki w sumie pomysł, bo jest taki chłopak,
co założył właśnie kanał na YouTubie i on takie wstawia
różne filmiki z podróży z majstrykowania No i on się
chwali, że sam obsługuje kamery typu na przykład.
I mnie ciekawi czy wyszło zrobić właśnie.
Podcast na temat tych właśnie i kamerek w takim praktycznym.
Zastosowaniu czy to jest w rzeczywistości możliwe,
To się, o kim mówisz, to jest osoba niewidoma?
Yyyy niby tak. Tak mówię, że jest niewidomy.
No to są takie kamerki, które my przyczepiamy do czegoś. One najczęściej są tak,
weźcie mały mikrofon, przepraszam.
One są tak zrobione, że najczęściej to na przykład są do hełmów przyczepiane,
bo to są często sprzęty używane przez, nie wiem, motocyklistów, osoby wykonujące jakieś sporty.
Też chyba na klatce piersiowej na przykład można to nosić.
No w sumie tak, nawet kiedyś widziałem jakiś skoczek narciarski Livestream takim urządzeniem robił mniej więcej.
One, same urządzenia są chyba raczej proste.
Są takie modele, które nawet tam mają tylko 2-3 przyciski, generalnie są sterowane z poziomu jakiejś aplikacji.
Tutaj się rodzi pytanie jak dostępne są te aplikacje.
Bo te urządzenia no muszą być dostępne czasem i w warunkach ekstremalnych, więc to sterowanie powinno być najłatwiejsze jak się tylko da.
A taka ciekawostka to jest taka, że taka sama kamera GoPro ona kosztuje tam w granicach 2000 czy tam 1000 powiedzmy 800 złotych, ale trzeba też jeszcze do niej dokupić mikrofon, bo taka sama kamera z tego co wiem to ona mikrofonu nie posiada.
Niektóre mają, ale może to droższe modele, nawet niektóre chyba stereo, ale dobrze.
Ale właśnie, bo przecież Tomku, tym chyba nie GoPro, ale jakąś podobną kiedyś miałeś, prawda?
Tak, mamy Sonego, ona ma mikrofon, znaczy on jest stereo, nie pamiętam.
W GoPro z tym stereo to jest śmiesznie, bo tam są albo trzy mikrofony, albo tam są jakieś dwa miksy, które się przenikają
I wtedy, kiedy kamerze wydaje się, że powinno być stereo, to się włącza stereo.
Kiedy się wydaje, że ma być mono, to się przełącza na mono.
I to się zmienia w taki dość, według mnie, przypadkowy sposób.
Bo te algorytmy to tak, czasem to tak se coś tam myślą i według mnie to nie najlepiej.
Sobie tam wyobrażają, co to ma być, jak to ma wyglądać.
Na przykład jest taki kanał Borkoś, to jest człowiek, który jeździ do różnych wypadków i tak dalej jako taki coś w rodzaju pierwsza pomoc tylko taka wolontariacką i on tam zdaje się właśnie jeździ z GoPro którymś w miarę nowym i tam to właśnie bardzo słychać.
Więc można sobie zobaczyć chociażby na tych filmikach, jak to działa.
Podejrzewam, że jest ileś takich kanałów, ale z tego co wiem, to tam to jest właśnie w taki sposób zrobione.
Właśnie ten chłopak się chwali, że on nie ma mikrofonów, tylko ma mikro toalety,
więc czy to nie jest jakaś tam choćby taka futyczka, że potem wchodzi do tego mikrofon bezprzewodowy.
Ja się na tym nie znam właśnie.
Znaczy nie, mikroport jako taki to jest po prostu typ mikrofonu, to jest mikrofon mały, który z reguły to działa tak, że jest sobie kapsuła mikrofonowa, czyli jakby ten główny element, który jest w mikrofonie i go się zaczepia najczęściej gdzieś do kołnierzyka z przodu.
Dalej jest, no właśnie, w takich klasycznych konstrukcjach idzie sobie kabelek do nadajnika, który jest w okolicach po smytylnej kieszeni spodni i on wysyła dźwięk bezśrodowy do jakiegoś odbiornika, natomiast nowe mikrofony, zresztą o nich robiłem podcast na przykład o tych mikrofonach Ulanzi,
To one są troszkę inne dlatego, że tam jest jakby mikrofon i nadajnik w jednym i odbiornik się wpina do smartfona, ewentualnie pewnie też do kamery, bo są też takie.
No i wtedy ten system jest dużo mniejszy. To są często tanie mikrofony, aczkolwiek tutaj jest sporo kompromisów, bo to musi być po pierwsze tanie, po drugie małe, tam musi być i nadajnik, i bateria, i mikrofon w jednym i to jeszcze musi być malutkie.
Także tak.
No ale jeszcze zapytam czy sama ta kamerka czy ona jest tak udźwiękowiona jak załóżmy ten
ekspres, jak na przykład wciskamy przycisk nagrań to mamy jakieś tam piknięcie.
Jak chcemy nagranie wyłączyć to jest jakieś właśnie piknięcie inne.
Znaczy różnie to bywa, w tej stronie, której my mamy, to jest coś takiego, natomiast to jest kamera sprzed kilku lat, więc jej już raczej na rynku nie ma, ale no trzeba zobaczyć, jakie jest tych prostych nowych.
Czy na przykład, skąd poznać, że mamy pełno kartę załóżmy, albo na przykład słabo baterie, to jest też pytanie.
Ja oglądałem też taki kanał na YouTubie w Anglii, Techmoan, o którym wspominaliśmy, bo dużo ciekawych materiałów o audio m.in. też redagował.
Ale też m.in. wykonał kilka recenzji różnego tego typu sprzętu GoPro, ale też różnych takich chińskich odpowiedników, takich dobrych, takich dobrych filmów np.
czy jakieś, jakieś, jakieś firmy, która jest tam gdzieś podległa Xiaomi między innymi, ale dużo tego było.
No też firmy sprzed kilku lat, on ostatnio nic takiego nie recenzował, natomiast wiele z tych urządzeń
miało różne komunikaty, tam nawet niektóre chyba nawet miały komunikaty głosowe,
więc to wszystko zależy od konkretnego sprzętu, więc nawet jeśli nie GoPro, to może któreś z tych innych kamerek
odpowiednie komunikaty dla nas, albo przynajmniej w miarę dostępną aplikację by miały,
że bylibyśmy w stanie sobie takie informacje zweryfikować.
A, w ten sposób, a potem na przykład jak już się ponagrywa,
to właśnie w jakim programie to potem zmontować, pościnać
i czy to jest też dla nas dostępne?
Można Reaperem, to pierwsze co mi przychodzi do głowy.
Na Macu wiem, że ludzie korzystają z iMovie i nawet chyba ktoś się bawił
final cutem, czyli taki bardziej profesjonalny edytor, to są dostępne aplikacje. Co się z nimi znalazło?
A, bo oni się chwali, że niby robi na tym starym, dobrym od Windowsa, czyli mówić w Maker.
No można, aczkolwiek to już trzeba sobie ściągać osobno, bo Windows 10 już tego nie ma.
Oni teraz w ogóle promują taką aplikację ClipChamp, która w ogóle jest jakaś chmurowa.
Tam te filmy musimy gdzieś najpierw wysyłać w internet,
dopiero potem możemy na nich pracować.
Nie wiem, jak jest z osobnością tego narzędzia.
No i jeszcze takie ostatnie pytanie.
Coś, o czym w sumie wszyscy gadają.
Mnie bardzo interesuje infrastruktura techniczna właśnie,
całej tej sztucznej, inteligencji, przykład daje mi
chodzi taka, na przykład Basia w tym radiu, Piekary, czy to.
Łukaszu, to ja już ci od razu powiem, to ja już ci od razu
powiem, to jest ta Basia z radia Piekary, czyli ten, a i Basia
Ta prezenterka ze sztucznej inteligencji, z tego co wiem, to ona tak naprawdę działa na trzech komponentach.
I to jest wszystko robota ręczna. To nie jest żadne radio GPT, to nie jest tak bardzo zaawansowane.
Tam jest po prostu stworzony głos w Eleven Labs na bazie próbek jednej z osób, która kiedyś była związana z Radiem Piekary.
Teksty generuje GPT w wersji czwartej.
Natomiast jest jeszcze to narzędzie z Table Diffusion chyba, czy jakoś tak ono się nazywa, do generowania grafik.
I to narzędzie jest wykorzystywane przede wszystkim w mediach społecznościowych, żeby po prostu jakoś wytworzyć awatary tej wirtualnej prezenterki,
żeby po prostu ona była kojarzona przez słuchaczy z jakąś osobą.
Więc to jest robione w ten sposób, to jest robione jak najbardziej ręcznie,
po prostu, o Łukasz tam zniknął, ale to ja dokończę myśl,
ten czat GPT generuje jakąś wypowiedź,
następnie jest to wklejane, po prostu jest do Eleven Labs,
w tym Eleven Labs jest generowany plik audio z tej wypowiedzi,
Następnie jest to pobierane do komputera emisyjnego w radiu i jest to wgrywane po prostu w playlistę, być może nawet montowane jakoś z podkładem.
Nie musi to być, bo za to zamontaż tego z podkładem może odpowiadać bezpośrednio system emisyjny,
ale czasem to się po prostu robi tak, że montuje się takie dźwięki od razu z podkładem, żeby było prościej.
Generowane jest to w playlistę, playlista generowana jest przez oprogramowanie już w stacji, za to odpowiadają osoby tworzące bazę muzyczną stacji i tyle.
I tam nie ma żadnej filozofii absolutnie w tym, jak ona jest zrobiona, to nie jest żadna magia jakaś dodatkowa, to po prostu za tym stoi człowiek, który tym wszystkim zarządza i który decyduje co tam idzie na antenę.
Także to tak a propos tego, jak to wygląda audycja prowadzona przez sztuczną inteligencję w Radiu Piekary.
Łukasz nam zniknął, więc myślę, że Pawle możemy przejść dalej do tematów z PZN-u.
Nie ma sprawy, bardzo chętnie i tylko znajdę, bo to mówiliśmy o spacerach.
Tak.
A tu kolejne spacery w Warszawie, tym razem spacery przyrodnicze,
bezpłatne spacery przyrodnicze.
No i informacja brzmi następująco.
Stołeczne Towarzystwo Ochrony Ptaków zaprasza na bezpłatne spacery przyrodnicze
dla mieszkańców Warszawy z niepełnosprawnościami.
Na spacerach przyrodnicy opowiadają o zielonych zakamarkach Warszawy,
tłumaczą, jak dokarmiać ptaki i jak dbać o pszczoły, czy jak chronić wieżę.
Wyjaśniają też zależności ekologiczne pomiędzy elementami przyrody.
Spacery są w pełni darmowe i skierowane szczególnie do osób,
które mają szczególne ograniczenia w dostępie do przyrody.
Osób mających trudności w poruszaniu się, poruszających się na wózkach,
dysfunkcjami narządów wzroku, nie słyszących ze spektrum autyzmu,
ze szkół specjalnych czy seniorów.
W spotkaniach mogą uczestniczyć osoby w każdym wieku.
Organizatorzy zapraszają także grupy dzieci i młodzieży z opiekunami, nauczycielami.
Spacery odbywają się m.in. trasą wśród Wisły,
głównie szeroką utwardzoną ścieżką między mostem Poniatowskiego a Łazienkowskim,
prawy brzeg rzeki, po terenie obszaru Natura 2000, Dolina Środkowej Wisły,
czy po Parku Skaryszewskim,
czy po Parku Skaryszewskim.
Na spacerach
przewodnicy opowiadają o przyrodzie
w mieście, głównie tej
związanej z Wisłą, ale
nie tylko. Tłumaczą
jak obserwować i chronić
przyrodę, jak prawidłowo dokarmiać
ptaki, jak podczas prac ochronniczych
chronić jeże, ptaki, czy
nietoperze i inne zwierzęta
mieszkające w mieście.
Uczestnicy poznają florę
oraz zależności ekologiczne pomiędzy elementami przyrody.
Grupa szuka wspólnie śladów zwierząt, poznaje szczególnie cenne dla nich miejsca bytowania,
żerowania lub odpoczynku. Spacer trwa zwykle około półtorej godziny,
ale organizatorzy dostosowują też czas i formę prowadzenia zajęć do grupy,
możliwości uczestników, ich wieku czy sprawności.
Najbliższe wolne terminy dostępne są w sierpniu, godziny do uzgodnienia. Chcesz pospacerować? Napisz edukacja.stopmałpagmail.com
W treści wiadomości e-mail podaj swój numer telefonu, najlepiej komórkowego. Spacery finansowane są ze środków Miasta Warszawa, Warszawa MP, Centrum Komunikacji.
No i to tyle jeśli chodzi o spacery, ale to nie koniec nowości,
bo też w Łodzi odbywa się spektakl Praktyka Widzenia.
I tutaj grają już osoby z dysfunkcją wzroku również w obsadzie tego spektaklu.
No i jest zaproszenie.
I informacja brzmi tak.
Spektakl Praktyka Widzenia inspirowany jest zbiorem wykładów z historii sztuki
praktyki Władysława Strzemińskiego, wydanych pod tytułem Teoria Widzenia.
W sztuce biorą udział osoby z dysfunkcjami narządu wzroku. Spektakl Praktyka Widzenia
opiera się na książce Władysława Strzemińskiego, który w swoim dziele omawia
zagadnienia związane ze sztuką, analizując zagadnienie zmysłu wzroku,
to jak widzimy oraz interpretujemy to, co jest widziane.
Temat ten miał dla Strzemińskiego duże znaczenie, ponieważ artysta, inwalida wojenny,
mierzył się z niesprawnością jednego oka i poważną wadą wzroku w drugim oku.
Obraz tworzy się w głowie.
Widzenie to aktywność kulturowa, warunkowana rozmaitymi czynnikami,
pisał w teorii widzenia Władysław Strzemiński.
Na tej myśli opiera się też praktyka widzenia.
To sztuka, która uświadamia, że nikt nie widzi identycznie.
W spektaklu biorą udział aktorzy z dysfunkcjami na rządu wzroku.
W rozmowie z Anną Pajewską Linda Rojewska i Arnold Osiecki odpowiadają na pytanie,
czym jest dla nich wizualność.
Obraz tworzy się też w głowie.
Jeżeli coś jest czystym obrazem, bez głosu, dźwięku, jest to dla nas niedostępne.
Działa tylko z innymi mediami, mówi Arnold, który choruje na chorobę Stargardta.
Niczym opowiada z kolei Linda, która z powodu retinopatii wcześniej nie widzi od urodzenia.
Niczym? dopytuje rozmówca.
Jeśli ktoś opowiada mi o obrazie albo kolorach, to nic mi to nie mówi.
Nawet gdy taka osoba bardzo się stara i widzę w niej chęć jasnego przekazu,
to mimo moich najszczerszych chęci, zrozumienia, nie jestem w stanie wyobrazić sobie sfery wizualnej.
Spektakl, który ukazuje inną perspektywę.
W odbiorze sztuk wizualnych, takich jak teatr, wzrok jest podstawowym zmysłem.
Spektakl, praktyka widzenia jest próbą ukazania innych możliwości, innych perspektyw
oraz uświadomienia widzom, jak dużo zależy od tego, co chce się zobaczyć.
Autorzy spektaklu chcą skłonić widzów do poszukania odpowiedzi na kilka ważnych pytań.
W jaki sposób patrzeć na świat, w którym zewsząd zalewają nas różnorakie obrazy?
Z jaką wrażliwością dobrze byłoby patrzeć?
Jak patrzeć na drugiego człowieka, by nie było to krzywdzące?
Czego możemy nauczyć się o dzisiejszym świecie, patrząc na niego oczami osób z dysfunkcjami narządu wzroku?
Czego jako widzący nie dostrzegamy? Co nam umyka?
I wreszcie, w jaki sposób tworzyć dziś sztukę wizualną i teatr,
aby nie były one wykluczające?
Praktyka widzenia w reżyserii Wojciecha Rodaka
z tekstem i dramaturgią Michała Buszewicza
w Teatrze Nowym grany będzie dwukrotnie.
W październiku, dwukrotnie w październiku.
To wspaniała okazja do odwiedzenia Łodzi.
Mamy tu plakat spektaklu,
Na nim czerwono-niebiesko-żółte pasy, tytuł sztuki oraz oko z kolorową tęczówką.
Praktyka widzenia, mała scena, Łódź, 9402, ul. Zachodnia, 93.
Spektakl realizowany w projekcie Nowy i Młodzi.
7 października 2023 o godzinie 19.15
oraz 8 października o godzinie 17.15.
Uwaga! Planowana audiodeskrypcja.
Zgłoszenia prosimy wnosić na adres biletymałpanowy.pl
Czas trwania spektaklu 2 godziny bez przerwy.
Ceny biletów normalny 50 zł, ulgowy 40 zł, plus 1 zł dla opiekuna osoby niepełnosprawnej.
Grupowy normalny minimum 10 osób 40 zł, grupowy ulgowy minimalnie 10 osób 30 zł.
Bilety w cenach regularnych nabywać można poprzez stronę internetową Teatru nowy.pl
Warianty specjalne, m.in. bilety grupowe w kasie teatru nowego lub w ramach rezerwacji dokonanej w Biurze Organizacji Widowni.
Rezerwacje, kasa biletowa, ul. Zachodnia 93, nieczynna do września bieżącego roku.
od września czynna od wtorku do soboty w godzinach 12.00-19.00
telefon 42 636 05 92
powtarzam raz jeszcze 42 636 05 92
biuro organizacji widowni i reklamy czynne od poniedziałku do piątku w godzinach 8 do 16
W okresie wakacyjnym do godz. 14.30
Telefon 42 630 20 86
Powtarzam
42 630 20 86
Lub 601 432 520
601 432 520
Adres e-mail biletymałpanowy.pl
No i tutaj też myślę, że warto polecić, zwłaszcza, że właśnie jedną z aktorek jest nasza też koleżanka podcastowa.
Zdaje się, że Linda już nagrała jakieś podcasty swoje.
Tak, i to kilka.
Tak, także będzie można zobaczyć Lindę już nie za mikrofonem, chociaż poniekąd, ale na scenie.
Także na deskach teatru polecamy i zachęcamy, jeżeli ktoś będzie w tym czasie w Łodzi.
A z Łodzi przenosimy się nad morze, więc dużo bardziej wakacyjnie,
bo tam zmodernizowany został Dworzec Gdańsk Główny.
No i jak to przy modernizacji dworców bywa, pomyślano też i o dostępności.
Zakończone zostały prace modernizacyjne na Dworcu Gdańsk Główny.
Dzięki przebudowie dworzec stał się miejscem dostępnym dla osób z niepełnosprawnościami.
Przebudowa dworca Gdańsk Główny to największa, warta prawie 120 milionów złotych inwestycja z Programu Inwestycji Dworcowych na lata 2016-2023, dofinansowana ze środków unijnych z Programu Operacyjnego Infrastruktura i Środowisko.
31 lipca bieżącego roku pierwsi podróżni mieli okazję zobaczyć i skorzystać z udogodnień
na zmodernizowanym dworcu.
Udogodnienia dla osób z dysfunkcją wzroku i słuchu.
Dworzec Gdańsk Główny to budynek zabytkowy, wybudowany w latach 1896-1900
w stylu tzw. renesansu gdańskiego.
Zniszczony podczas II wojny światowej,
Przez lata zaniedbany, teraz odzyskał swój historyczny charakter.
Jednocześnie stał się nowoczesną i komfortową przestrzenią.
Istotnym elementem przebudowy dworca były prace konserwacyjne dworca,
lecz dworzec zyskał także na funkcjonalności przestrzeni obsługi podróżnych.
W budynku dworca i jego otoczeniu zlikwidowane zostały bariery architektoniczne.
Są ścieżki prowadzące, oznaczenia w alfabecie Braila oraz plany dotykowe dworca.
Przy kasach zainstalowane zostały pętle indukcyjne, dzięki czemu osoby korzystające z aparatu usłuchowego mogą komunikować się z kasjerami.
W toaletach zamontowano również instalacje, dzięki którym osoba z niepełnosprawnością czy rodzic z dzieckiem mogą wezwać pomoc w nagłej sytuacji.
Nowoczesny, proekologiczny i przyjazny każdemu.
Na poziomie minus jeden, na który dostać można się z holu za pomocą dwóch wind i schodów ruchomych,
znajduje się przestronna poczekalnia dla rodziców z dziećmi wyposażona w zabawki dla dzieci, pufy i mapy z dworcami z całej Polski.
Przebudowa dworca Gdańsk Główny objęła także jego najbliższe otoczenie.
otoczenie, pojawiły się nowe nawierzchnie, podjazdy pod budynek
czy wytyczone miejsca typu Kiss&Ride przeznaczone dla taksówek
i osób z niepełnosprawnościami. Dworzec Gdańsk Główny to
jedna z najważniejszych i najtrudniejszych inwestycji
wykonanych w ramach programu inwestycji dworcowych. Mieszkańcy
Gdańska zyskali dzięki tej modernizacji dworzec, który z pewnością
będzie jedną z wizytówek miasta. Mam nadzieję, że nowoczesny
i proekologiczny budynek ułatwi pasażerom i turystom podróżowanie
kolejom nad Polskie Morze, a wszystko to dzięki programowi
inwestycji dworcowych, w ramach których polski rząd przeznaczy
do końca roku 2023
prawie trzy miliardy złotych na modernizację blisko około
dwustu dworców, powiedział
wiceminister infrastruktury Andrzej Bitel. Gdańsk główny
to już osiemdziesiąty dworzec zmodernizowany w ramach
programu modernizacji dworcowych na lata 2016-2023 i piąty w województwie pomorskim.
Jeszcze w tym roku PKP planują otwarcie w tym regionie siedmiu dworców po
modernizacji. Będzie to między innymi Dworzec Gdański Wrzeszcz, Pruszcz Gdański i
Żelizdrzewo. No i to wszystko jeśli chodzi o wieści z Polskiego Związku
niewidomych. Ale to nie wszystko jeżeli chodzi o telefony od naszych słuchaczy, bo rozdzwaniacie się bardzo intensywnie i widzę, że tu w kolejce nawet mamy jeszcze kilka osób, ale wybaczcie, będziemy was dość wolno przyjmować, bo też musimy się po prostu wyrobić z tematami, które mamy w naszych notatkach, a jest ich jeszcze sporo, więc pierwszeństwo jak na razie mają osoby, które już miały okazję się z nami połączyć.
z nami porozmawiać, a dziś jeszcze nie było Michała na naszej antenie, Michała Brajera.
Witamy Cię Michale, dobry wieczór. Z czym do nas przybywasz?
Jeszcze zezwól na nagrywanie, żebyśmy się słyszeli.
Halo?
Jesteś, witaj.
Witam serdecznie, dzień dobry wieczór.
Cześć.
Otóż, otóż ja przybiegam z wiadomościami dotyczącymi kilku rzeczy.
Mianowicie pierwsza rzecz to jest właśnie wspomniany dzisiaj sense player.
I niestety wiadomość jest następująca.
Nowe oprogramowanie jest, ale bardziej dla zagranicy niż dla nas.
A to szkoda.
A to szkoda, ponieważ dla nas ostatnia łata to jest 4 lipca 2023 roku.
Ale mam nadzieję, że to się wkrótce zmieni, że dystrybutor, czyli firma ECE za niedługo wypuści tą aktualizację dla nas.
Bo próbowałem, próbowałem niestety jednak zamiast sobie spolszczyć urządzenie, urządzenie mi się typowo zangielszczyło.
Rozumiem, ale to też straciłeś w ogóle jakkolwiek polską mowę, czy tylko interfejs się zrobił po angielsku?
Straciłem jakkolwiek polską mowę.
A, no to faktycznie nie polecamy tego.
Absolutnie, absolutnie nie. Interfejs jest po angielsku, ale książki jako tego, no to są po polsku, ale nie polecamy, bo próbowałem, to nie wiem co oni nawet mają na stronie, ale wyskoczyło mi, że powinna być nowa aktualizacja, a tu mi wyskoczyło programowanie nawet 1.0 z 30 marca, więc oj.
No to po prostu trzeba czekać, trzeba czekać.
Zgadza się, aż to uaktualnią.
Następna sprawa to jest, proszę ja was i drogich słuchaczy, nawigacja Stellar Trek,
której zresztą jestem od niedawna, no, połowicznie szczęśliwym posiadaczem. Dlaczego?
Ponieważ Stellar Trek jest następcą słynnego trekera Breeze.
I jeszcze po trekerze był Wiktor Trek.
I otóż co się wydarzyło, gdy dostałem urządzenie,
wychodzę z nim na dwór, próbuję wejść w tryb eksploracji,
wybieram jakąkolwiek kategorię, widzę komunikat, brak elementów.
Czyli tak jakby mapy były puste kompletnie.
Zgadza się. Kontaktowałem się w tej sprawie z producentem, bo w firmie Harpo wszyscy mają urlopy i nijak nie idzie się tam rozwiązać tego problemu, więc postanowiłem sam na własną rękę to zrobić.
I się okazuje, że problem jest na tyle globalny, że nawet Australijczycy na to narzekali.
No to faktycznie. Z Europy do Australii jest kawałek.
No to prawda. Więc dlatego informuję już tak oficjalnie, że Humanware pracuje nad tym błędem.
i możemy lada moment już, bo miała być dzisiaj, no niestety dzisiaj się nie udało, ale podejrzewam, że
jutro albo pojutrze możemy się spodziewać łaty aktualizacyjnej, naprawiającej ten problem, więc…
Ale to jest bardzo poważny błąd, bo tak naprawdę, no, powoduje, że w zasadzie to urządzenie
jest bezużyteczne, chyba, że mamy jakieś tam trasy już wgrane wcześniej, tak? To może wtedy
przydałoby się z tego korzystać.
Tak, albo sobie ustawimy nawigację od adresu do adresu i wtedy możemy iść, bo to działa.
Aha, no to okej, to tyle dobrego.
Ale musimy znać adresy wszędzie.
Jasne, jasne.
No to wtedy ze spokojem dojdziemy.
To Stellar, Stellar Trek byłby załatwiony, Sense Player też.
I myślę, myślę, że jeszcze jedno co chciałbym o, o czym bym chciał jeszcze wspomnieć,
bo o tym nie było na łamach Tyflo Przeglądu.
Jest strona, ja ją Michale do Ciebie wyślę, żebyś ją podlinkował pod audycją.
Ja ją spróbuję przeliterować.
www.opowiedziane.ipn.
I z tym słówkiem mam zawsze problem gov, czyli przez V, przez V, gov, g-o-v, i kropka.pl.
I to jest strona, gdzie mamy potężną bazę, na obecną chwilę, relacji świadków, można to powiedzieć epoki, dosłownie,
Czyli mamy powstańców warszawskich, mamy działaczy Solidarności, mamy więźniów obozów koncentracyjnych.
I co? Ta strona ma szczególnego. Ano ma to, że jest perfekcyjnie dla nas dostępna.
No to rzeczywiście warto, warto znać ten adres dla miłośników współczesnej historii. A co tam jest, co sprawia, że ona jest tak fajnie dostępna? Kwestie na przykład odtwarzacza, tak?
O, odtwarzacz tak, to przede wszystkim działa fajnie, ale jeszcze też sama nawigacja po stronie nie jest jakoś problematyczna. Normalnie po nagłówkach się poruszamy literą H albo pod linkami literą K
i nie ma najmniejszego problemu, a jak wchodzimy w interesującą nas relację,
to przechodzimy literą F od pól formularza i będziemy mieli od razu play video.
Dajemy enter.
I działa.
I działa, bo to jest relacja w wideo, dlatego że to jest obraz, gdzie mamy tych ludzi pokazanych, mówiących.
Jasne.
No dobrze Michale, to czy coś jeszcze masz dla nas?
Myślę, myślę, że na obecną chwilę to już wszystko, a jak coś się przypomni, to bez wątpienia dam znać.
Super, to dzięki ci serdeczne za te informacje od ciebie, a teraz przechodzimy do kolejnych tematów, bo mamy tych tematów tutaj jeszcze.
I cieszę się, także wszystkiego dobrego, trzymajcie się.
Cześć!
To teraz następne tematy.
Teraz będą tematy dotyczące
gier. Piotrze
antena twoja.
Dokładnie, bo w tym tygodniu
całkiem sporo się działo jeśli chodzi o
gry, a zwłaszcza jeśli
chodzi o nowe wydania. Tutaj
poniekąd już troszeczkę o temat zahaczyliśmy,
ale jeszcze mimo wszystko sporo
informacji mamy.
Jeśli chodzi o to
co się pojawiło, no to pojawiła się
na przykład gra Braille Concept, która może być czymś, co możecie wysłuchać
waszym znajomym na przykład, którzy może są ciekawi jak wygląda alfabet Brailla
i jak się go można nauczyć.
Bo gra polega na tym właśnie, że uczymy się całego alfabetu.
Tutaj konkretnie chodzi o wszystkie litery.
Tutaj nie wchodzimy w cyfry ani w interpunkcje, więc mimo to, że gra jest po
angielsku, to spokojnie można ją sobie po polsku pograć, bo akurat te wszystkie
litery, które są tam prezentowane są identyczne w angielskim i polskim brajlu.
Fabuła jest dosyć ciekawa, bo rozmawiamy sobie z jakimś komputerem, który próbuje nam
pomóc być bardziej atrakcyjnym, żebyśmy sobie jakoś lepiej poradzili np.
na randkach. To stwierdza, że jesteśmy mało atrakcyjni, ale podobno właśnie to, że
ktoś zna alfabet brajla sprawi, że ta osoba staje się bardziej atrakcyjna od razu, więc
Nie wiem, może to jakaś porada, jeśli ktoś sobie szykuje się na randkę jakąś.
Może faktycznie to działa.
No to już mamy tutaj ułatwioną sprawę.
Ale gdybyśmy chcieli właśnie pokazać jak ten brain wygląda, to tutaj jest 20
poziomów, które stopniowo wprowadzają poszczególne litery.
Zaczyna się chyba tylko od liter A, B, C.
I jak to wygląda? Wygląda to tak, że mamy na początku
dialogu, który nam właśnie mówi co musimy zrobić, a później jak to często
wygląda w takich aplikacjach, gdzie właśnie uczymy się na przykład pisać,
dostajemy tekst, który musimy napisać.
To są generalnie litery, czasami to są całe słowa, ale one są też po prostu
literowane. I jak my to gramy?
Osoby widzące widzą na ekranie
częściopunkt i widzą też te poszczególne litery, ale widzą je jako
taką kombinację punktów braju i muszą odpowiednie kombinacje kliknąć, dotknąć
palcem, bo gra jest też przystosowana do grania na smartfonach np.
żeby to o co nas gra pyta stworzyć.
Też są sytuacje, kiedy gra nam będzie te
te kafelki z tymi literami mieszać, na początku np.
nie wiem, jeśli na pierwszym poziomie mamy litery A, B, C, D, E, tam kilka poziomów później
i one są posortowane alfabetycznie, no to z czasem ta gra może
to wszystko pomieszać i wtedy faktycznie musimy po prostu pamiętać jak te litery w Braille’u wyglądają, żeby w nie trafić.
Jak my możemy grać? Gra jest też dostępna z czytnikami ekranu do tego stopnia, że jest przystosowana do grania z monitorem braille’owskim.
Możemy to robić na dwa sposoby. Możemy sobie po prostu po tej stronie chodzić i te litery są po prostu wyświetlane.
Jeśli mamy włączoną mowę, to po prostu te litery słyszymy.
No ale jeśli mowę sobie wyłączymy, to możemy po prostu patrzeć tylko na to, co
wyświetla się na linijce i w ten sposób grać, ale możemy też po prostu pisać, bo
gra nasłuchuje jakie naciskamy klawisze, więc teoretycznie moglibyśmy też trochę to
oszukać i naciskać odpowiednie litery na klawiaturze.
No ale jeśli gramy z podłączoną linią kompilowską zarówno na Windowsie jak i na
Macu, ja akurat to z NVDA testowałem, ale na Macu to też zadziała bez problemu.
Jeśli mamy podłączoną linijkę i ustawiony odpowiedni język, to możemy sobie po prostu na klawiaturze linijki odpowiednie kombinacje punktów wystrukiwać i w ten sposób sobie tą grę przechodzić.
Gra jest bardzo fajnie zrobiona, mamy troszeczkę taką muzykę, też mamy dźwięki takie przyjemne, więc warto się nią zainteresować.
To wszystko działa w przeglądarce, więc można w nią zagrać właściwie wszędzie.
Co mamy późniejów? Później mamy Escape from Norwood, gra o której już poniekąd Arek wspomniał.
To jest taka gra przygodowa, troszeczkę klimatem przypomina właśnie takie stare gry Interactive Fiction,
ale też takie gry point and click, czyli to jest taki na przykład coś jak Brock,
czy taka gra, która kiedyś była dla nas dostępna na Time Adventures,
gdzie możemy przemieszczać się między pokojami chodząc na północ, na południe, wschód, zachód, do góry i do dołu
i jest w grze skrót, który nam pozwala sprawdzić, jakie mamy dostępne akurat kierunki.
I też za każdym razem, jak się poruszamy po świecie gry, no to synteza nam podaje taki krótki opis lokacji, w której jesteśmy.
Ale jak już jesteśmy w jakimś miejscu, to zamiast wpisywać polecenia, no to po prostu możemy sobie chodzić po dostępnych przedmiotach,
które akurat są w danym miejscu, czy osobach, które tam są, no i możemy na nich różne czynności wykonywać skrótami klawiszowymi,
więc po prostu mamy opcję popatrz, ulżej, porozmawiaj i w ten sposób sobie gramy, wybieramy odpowiednie przedmioty, wykonujemy na nich odpowiednie czynności.
Oczywiście mamy też swój inwentarz, gdzie możemy jakieś podniesione przedmioty później dalej jakoś łączyć ze sobą i mieszać.
Tutaj cały pomysł tej gry jest o tyle ciekawy, że tutaj wcielamy się w osobę, która to gra jest w takim świecie otoczone takim magicznym trochę fantasy, gdzie mamy pięciu rodzajów magii, ale my urodziliśmy się z jakimś, jakimś jeszcze takim rodzajem, który pozwala nam między innymi znikać i to jest ta nasza umiejętność, przez którą jesteśmy ścigani.
Tutaj władza tego świata chce nas zabić niestety, no i musimy z tego miasta się wydostać, no ale m.in. przez to, że mamy to zaklęcie, które pozwala nam zniknąć, żeby nas ludzie nie widzieli, możemy po prostu różne zagadki wykonywać i po prostu próbujemy się z tego miejsca wydostać.
Tak jak Arek wspominał, gra jest dostępna na Windowsie i na Macu.
Na razie jest wersja demo na Steamie, ale za, na ta chwila też się pokaże pełna wersja, ale już możecie sobie w tą demo pograć, no i zdecydować, czy gra jest dla was.
Następnie bardzo dużo mieliśmy takich gier właśnie, które głównie polegają na czytaniu, takich visual novel tak zwanych, bo tutaj jest jeszcze ten Firebird, o którym za chwilę, ale pojawiła się jeszcze jedna gra
w podobnym klimacie, która nazywa się Penny Larceny i to jest gra, która też jest dostępna na Windowsie i na Macu, to już się gra pojawiła, jest zarówno wersja demo, jak i pano wersja, która kosztuje w tym momencie 10$, więc jakoś bardzo drogo, możemy ją sobie zakupić zarówno na Steamie, jak i na platformie itch, więc jeśli ktoś bardzo nie lubi Steama, chce sobie ściągnąć tą grę bez zabezpieczeń, to można to zrobić.
I w tej grze wcielamy się w złoczyńcę, w takiego złodzieja.
Po prostu chcemy zdominować świat poprzez kradzenie różnych przedmiotów.
No i tutaj też podejmujemy decyzję, bo chcemy zostać podwładnym dla jakiegoś innego złoczyńcy.
Tutaj cała fabuła jest taka, że w tym świecie jest takie całe właśnie podziemie.
Podziemie, które nawet, co ciekawe, ma taką swoją aplikację Krimer.
z takiej geek economy, coś w stylu Ubera, że po prostu każdy może jakieś kontrakty do
tej aplikacji wrzucać i możemy te kontrakty wykonywać.
Tutaj też właśnie głównie czytamy, co mówią do nas różne postacie i sami też
podejmujemy decyzje. Gra jest udźwiękowiona.
Po uruchomieniu gry możemy nacisnąć V i wtedy nam zacznie synteza wszystko czytać.
Nawet mamy audioreskrypcję w momentach, kiedy ona jest potrzebna.
No i tak w tą chwilę sobie pograłem tą grę, oczywiście to jest też dostępne w języku
angielskim, to jest bardzo taki lekki klimat, bardzo humorystyczna fabuła, więc wydaje
mi się, że warto się zainteresować.
Też ma taką bardzo przyjemną muzykę, takim gatunku electro swing, to jest takie
połączenie muzyki elektronicznej z takim jazzem, swingiem właśnie, więc bardzo też
przyjemne dla ucha, więc warto się zainteresować.
No i Firebird. Firebird, czyli gra, o której już Arek poniekąd opowiadał.
Gra, w której strzelamy się w kierowcę ciężarówki, która po prostu, która właściwie, bo gramy z dziewczyną,
która po prostu stara się przeżyć, zarobić na utrzymanie siebie i swojej ciężarówki, żeby ją zatankować i odpowiednio naprawić.
Gra jest zasadzona w takim klimacie, takiego słowańskiego folkloru.
to jest w Rosji, ale nie tylko tam z tego co zrobiłem tam później też się chyba
jakieś elementy takie lekkie, fantastyczne pojawiają.
I co też ciekawe w tej grze, że tutaj też mamy, to jest kolejna gra, która oprócz tego,
że jest dostępna z rzecznikami ekranu, tu jest też na Windowsie i na Macu,
no to też posiada audio deskrypcję i ta audio deskrypcja jest robiona w naprawdę
fajny sposób, bo możemy w dowolnym momencie tak naprawdę się rozglądać i
też będziemy co jakiś czas dostawać odpowiednie sygnały dźwiękowe, które
nam będą mówiły, że na przykład coś przed nami, czy po prawej, czy po lewej
stronie się zmieniło i tak jak my sobie rozmawiamy z jakąś postacią, powiedzmy
stoimy powiedzmy na parkingu ciężarówek, no i możemy naciskać strzałki lub gałkę
na joysticku i tak możemy np. zobaczyć, że za nami widzimy sam parking, widzimy jakieś
zdezolowane ciężarówki przed nami, no to kamera po prostu pokazuje nas i tutaj
dostajemy opis jak jesteśmy akurat obrani.
No a jeśli popatrzymy się w prawą lub w lewą stronę, no to zobaczymy osoby z którymi
akurat, z którymi akurat rozmawiamy.
Ewentualnie jeśli coś się dzieje np.
nie wiem, zawaliśmy jakiś kontrakt, dostaliśmy pracę, dajemy sobie ręce, no to też ta
audiodeskrypcja nam wtedy o tym powie.
To jest bardzo fajnie zrobione i no fajnie, że coraz więcej gier oprócz właśnie tego, że po
prostu są dostępne z czynnikami ekranu też po prostu
też myślą twórcy o tym, żeby jeszcze jakaś audiodeskrypcja się
pojawiła. Potem mamy The Brave Brain, ale myślę, że tutaj już możemy przejść dalej, bo
wszystko już powiedzieliśmy o tej grze, co można powiedzieć, tylko może jeszcze dodam, że gra
jest dostępna zarówno na iOS-a i Androida, znajdziecie link do niej, jeśli chcecie sami sobie w nią pograć, przetestować.
A myślę, że warto mimo wszystko, bo te pytania są nawet całkiem ciekawe, więc warto sobie tę grę sprawdzić,
jeśli znacie język angielski lub czeski, bo gra oczywiście też jest po czesku dostępna.
Co mamy następne?
Następnie bardzo fajna informacja, która myślę wiele osób może ucieszyć,
bo gra A Hero’s Call jest od teraz dostępna za darmo.
A Hero’s Call to jest gra audio-RPG, która kilka lat temu miała swoje wydanie.
Gra, na którą nas bierała cała społeczność.
To była zorganizowana zbiórka, która całkiem sporo na siebie zarobiła.
Nawet swojego czasu mieliśmy o niej podcast z Tomkiem Tworekiem.
przeprowadziliśmy wywiad z głównym autorem tej gry i też w tej grze jest taki
polski akcent, bo jedną z głównych postaci gra pani Adriana V, bodajże ona się
nazywała, no mniej więcej mamy też tutaj taki akcent polski, ale sama gra też jest
fantastycznie zrobiona, bo no właśnie mamy dźwięk binauralny, mamy pełne
udźwiękowanie, voice acting, mamy muzykę, no i mamy też taki bardzo fajny system
tłumaczenia, bo mimo to, że gra jest po angielsku, to możemy z nią sobie grać po
polsku. No i gra wcześniej była dostępna za opłatą, ale niestety
firma, która nad nią pracowała, drogi osób, które nad tą grą pracowały się
rozeszły niestety. Główny programista musiał zrezygnować, też w międzyczasie
pozostali członkowie zespołu też coś w nim wypadło.
No i twórcy mieli plany, żeby tutaj gry jeszcze na przykład grafikę dodać.
Do tego niestety nie doszło, natomiast sama gra powstała i została ukończona.
No i teraz jeśli jeszcze w nią nie graliście, a może chcecie pograć, ale np.
mieliście problemy, bo ostatnio serwery aktywacyjne tej gry nie zawsze działały,
no to Ian Reid, czyli główny programista, za pozwoleniem pozostałych członków
ekipy Out of Sight Games udostępnił grę
całkowicie za darmo na swojej stronie.
Nawet już ukazało się kilka aktualizacji, które tam różne rzeczy
poprawiały, bo podczas tego udostępniania
nie wszystko od razu zadziałało. Natomiast wersja,
którą możecie znaleźć teraz jest już w pełni odbokowana.
Zawiera wszystkie teksty
we wszystkich językach, które były dostępne.
Powcześnie to było wykonywane przez serwery, teraz to wszystko jest
dołączone do gry.
Oczywiście już jest aktywowana, nie musimy w żaden sposób jej rejestrować i przedmioty, które wcześniej były dostępne dla osób, które wsparły projekt na Kickstarterze, są teraz też dostępne dla wszystkich.
Tam po uruchomieniu gry pojawi się odpowiednie zadanie, jeśli chcemy sobie te przedmioty zdobyć i tutaj takie informacje są bardzo fajne, ale też bardzo, dosyć potężne, więc one bardzo nam tę grę ułatwią,
Więc może warto je zdobyć, może nie za pierwszym razem, może z drugim, no chyba że chcemy sobie
znacznie rozgrywkę ułatwić, to możemy po te przedmioty sięgnąć.
Natomiast jeśli ktoś nie grał, to naprawdę gorąco polecam.
Ja miałem okazję tę grę testować podczas jej rozwoju, no i też brałem udział w tym wywiadzie z autorem tej gry
i to jest naprawdę fantastyczna gra.
Ja myślę, że też warto wspomnieć o tym, że ścieżka dźwiękowa gry jest ponoć dostępna w serwisach streamingowych, gdyby komuś się spodobała.
A faktycznie, chyba jest na Spotify, też nie wiem, czy gdzieś nie można jej zakupić, też jakby ktoś chciał.
Dobrze, że przypomniałeś.
Ale polski akcent w tej grze też jest.
Mówiłem, tak.
A, dobra, okej.
Wspominałem, więc tym bardziej właśnie warto się grą zainteresować.
I na koniec taka krótka informacja o odnośnieniu nowego Mortal Kombat’a, który zbliża się wielkimi krokami.
W przyszłym tygodniu, w weekend, będzie dostępna beta dla ludzi, którzy kupili tę grę w przedsprzedaży, ale w międzyczasie.
Ktoś na YouTubie wrzucił film i to wcale nie jest osoba w żaden sposób związana z dostępnością.
po prostu pokazujące, klip pokazuje jedną z postaci, która będzie dostępna w grze, ale kilka osób na forum audio games i nie tylko zauważyło taką jedną fajną rzecz w tym klipie i znajdziecie go w komentarzu, więc możecie sobie go też posłuchać, a mianowicie kiedy te postacie walczą ze sobą, to słychać takie klikanie, które czasami przyspiesza i zwalnia coraz szybsze lub wolniejsze.
O co chodzi, no jak widać w grze jest podobna funkcja, którą znajdziemy też w nowym Street Fighterze, o którym już wspominaliśmy wcześniej.
A mianowicie możemy sobie włączyć dodatkowy sygnał dźwiękowy, który będzie nas informował o tym jak daleko jesteśmy od naszego przeciwnika.
To się może przydać, bo są w tej grze ruchy, które wymagają tego, że musimy wiedzieć też jak daleko stoimy od naszego przeciwnika.
przeciwnika oraz na przykład te słynne fatality, czyli te zakończenia walki, które możemy
wykonać na naszym przeciwniku, też często wymagają tego, że stoimy albo bardzo blisko, albo
bardzo daleko od tego drugiego zawodnika, więc dzięki temu możemy to sobie sprawdzić.
Jakie gra będzie miała jeszcze funkcje, nie wiemy, ale fajnie, że tutaj ktoś zupełnie
przez przypadek miał to włączone.
Nie wiem czy umyślnie, czy nie, ale ten klip już się po społeczności rozszedł.
Nie mamy niestety informacji, czy gra będzie miała jakieś udźwiękowienie lub nie.
Natomiast jeśli taka funkcja się pojawiła, a poprzedni Mortal Kombat już jakieś
udźwiękowienie ma, miał, no to śmiem przypuszczać, że prawdopodobnie w tej
wersji będzie coś więcej.
A czy tak będzie?
No myślę, że kiedy ta beta ruszy w przyszłym tygodniu, ona będzie tylko
przez weekend na początku dostępna, zanim gra już ruszy oficjalnie we wrześniu.
Ale myślę, że wtedy już będziemy na 100% mogli powiedzieć więcej, co dokładnie
w tej grze jest.
I to wszystko jeśli chodzi o gry.
No w międzyczasie widzę, że
podłączył się do nas Kamil.
Kamil jeszcze
co prawda podłączył się do naszego
spotkania, ale nie podłączył się do
dźwięku. Może to nadrobi za jakiś
czas. Natomiast Pawle
co tam w JOS-ie? Bo JOS
się aktualizuje i nowości
jakieś ze sobą przynosi.
Na sierpień tym razem.
Tak i tym razem będzie troszeczkę
Brajla. Nie tylko,
ale też, więc zobaczymy jak tam się to wszystko rozkłada.
Już tu patrzę i mamy. Zaktualizowaną bibliotekę Liblui, oczywiście,
do wersji 2.3.26, więc to jest ta chyba najnowsza, która jest,
więc razem z tym pewnie aktualizacje
jakichś tablic i tak dalej.
JOS teraz wspiera
monitory braillowskie HumanWare
na urządzeniach o infrastrukturze ARM64.
Dodano najnowsze sterowniki
i koliki konfiguracyjne dla monitorów braillowskich Eurobrail.
JOS od teraz automatycznie wykrywa
monitory braillowskie
Reader 20 i 40 przez Bluetooth.
I opcja automatycznego wykrywania monitora brajlowskiego przez Bluetooth
w centrum ustawień nie jest dostępna, jeżeli jest już podłączony jakiś monitor brajlowski,
czy ono będzie ukrywane.
No i jeżeli mamy aktywny podgląd brajla, tryb podglądu brajla,
brajla, przy starcie JAWS, no to naprawiono błąd, polegający na tym, że monitory brajlowskie
nie były automatycznie wykrywane. To jeśli chodzi o brajla. Natomiast są też poprawki
dla współpracy z konkretnymi aplikacjami. No i tutaj mamy rozwiązany problem,
kiedy JAWS nie czytał automatycznie wiadomości otwartej w centrum wiadomości,
Message Center, jeżeli był uruchomiony jako Fusion.
Nie wiem, czy to się tak da. OK, no być może chodzi też o, aha, że w tym Fusion.
No Fusion to jest połączenie Josta i ZoomTexta.
Tak, bo mi się pomyliło z ZoomTextem. OK, w porządku, wszystko jasne.
Rozwiązano błąd, kiedy Jost nie zarządzał prawidłowo Focusem, kiedy
Przełączało się języki w Windowsie 10.
Domyślam się, że chodzi o języki klawiatury, a może nie?
Może nie, bo był taki błąd kiedyś.
Zresztą NVIDIA czasem do teraz to ma, że jak się przełącza układy klawiatur,
to czasem nie wraca fokus do tego Opala, na przykład edycji, w którym się pisało.
Ale może tu chodzi o zwykłe zmiany języka w ustawieniach.
Naprawiono błąd, który polegał na tym, że jeżeli włączało się kurtynę ekranową podczas gdy ujednolicone przetwarzanie klawiatury Unified Keyboard Processing było aktywne, to coś nie działało.
Naprawiono błąd, gdzie tryb klawisza insert, insert mode nie działał właśnie w tym też ujednoliconym przetwarzaniu klawiatury.
Kiedy w centrum ustawień włączony jest ten tryb klawisza insert, insert key mode, to insert jest wtedy klawiszem trwałym po prostu, jest cały czas chyba wciśnięty.
Zaadresowano problem przy używaniu autohotki, czyli tego języka takiego skryptowego
i właśnie tego ujednoliconego jej obsługi klawiatury, Unified Keyboard Processing.
Naprawiono błąd, gdzie w innym setupie był podawany jakiś tam nadmiarowy tekst,
którego nie powinno było być.
I naprawiono też błąd,
gdzie naciskało się
insert i numeryczne 5,
żeby odczytać wartość znaku
Unicode pod kursorem.
Naprawiono błąd,
gdzie
nawijanie, nawigowanie
strzałkami lewo, prawo
w niektórych
edytorach
było gdzieś tam o znak
do tyłu za
kursorem rzeczywistym.
Przy używaniu
wygodnego OCR,
aby rozpoznawać tekst
za pomocą niektórych skanerów
sprzętowych, występował
błąd, że
nie pojawiał się link do
otwierania Worda,
czyli jakby wyników tego rozpoznania
w Wordzie.
I też ten link
czasami po jego wybraniu nic nie
więc ten błąd też naprawiono.
Teraz w kwestiach internetowych i ARIA
naprawiono błąd w Chrome i Edge,
gdzie nie były czytane zawartości pól edycji
pod nagłówkiem wskazówki w mapach Google.
No i to naprawia też czytanie przez Josa
dowolnych pól edycji, gdzie był placeholder.
Placeholder to są te takie pola edycji,
Mamy takie wrażenie, jakby coś było już napisane, ale jak zaczynamy pisać, to to znika.
Tam typu typ, napisz coś tam, coś tam tutaj i nie jest to etykieta, tylko w tym polu edycji jest to już napisane,
a moment, w którym zaczynamy pisać, to to znika. Bywają takie pola.
Naprawiono błąd, gdzie samouczek podawał nieprawdziwą informację przy nieaktywnych,
jakby wyszarzonych przyciskach na stronach internetowych, ten tutor.
Zaadresowano problem, gdzie niektóre pola wprowadzania wyboru kolorów
nie były prawidłowo czytane.
Był też problem, że w pliku dokumentów Google, jakby punktor, lista punktorowa,
element punktora i był on rozciągnięty na kilka linii, to był problem taki, że tylko pierwsza linia była czytana przez Josa.
Naprawiono błąd w dokumentach Google, gdzie nie były anonsowane puste elementy listy, jeżeli nawigowało się skrótami
kontrol w górę, kontrol w dół. No na przykład teraz, jeżeli mamy listę numerowaną i są na niej puste elementy,
to usłyszymy chociażby numer tego elementu.
Naprawiono błąd w dokumentach Google,
gdzie Joss nie czytał prawidłowo,
a nie dawał znać, jeżeli w ramach jednej linii było kilka komentarzy.
Naprawiono błąd, gdzie Joss nie zinformował automatycznie
o stanie zaznaczonym lub niezaznaczonym w kolumnach,
gdzie było wspierane zaznaczanie spacją.
Naprawiono błąd w nawigowaniu w niektórych widokach drzew na niektórych stronach,
gdzie Joss nie oznajmiał, że zmienił się poziom tego drzewa.
Jeżeli mamy ustawione echo wpisywania na słowa,
to był błąd, już został naprawiony, gdzie były dodatkowe litery wypowiadane,
jeżeli pisane było w polu edycji.
Naprawiono błąd, gdy JAWS nie oznajmiał etykiet dla przycisków opcji,
które miały przypisany skrót klawiszowy przez atrybut access key.
I to tyle jeśli chodzi o kwestie internetowe, natomiast teraz kwestie ofisa.
Tutaj na początku pierwszy błąd. Powinno znowu działać menu wirtualnej wstążki.
Czyli coś takiego, co Vispero wymyśliło, żeby uprościć osobom niewidomym obsługę
właśnie tych znienawidzonych wstążek w produktach Microsoftów, zwłaszcza w produktach
ofisowych. Wymyślono taką wirtualną wstążkę, która trochę się zachowuje właśnie jak
takie klasyczne menu. I to nie działało. O tym pisał Galop, czyli czeski dystrybutor
na ramach portalu Pelion i też rozmawiałem z kimś, kto się na ten problem uskarżał.
No niby ta aktualizacja tego problemu u tej osoby, która się uskarżała, nie naprawiła.
No nie wiem, jeżeli ktoś miał z tym problem, to możecie dawać znać,
czy używacie w ogóle tej wstążki i czy się wam to naprawiło.
Ja powiem szczerze, ja kiedyś próbowałem korzystać z tej wstążki,
ale jakiegoś bardzo dużego komfortu nie zauważyłem w porównaniu do tej klasycznej wstążki.
No to ja właśnie rozmawiałem z kimś, dla kogo to była wielka różnica i ponoć nawet po aktualizacji Joss’a to nie działa.
To się zaczęło od którejś aktualizacji Office’a, to Microsoft coś tam nabruździł, że to już przestało działać jak należy.
A Joss musi nadgonić, no niestety.
No tak. Ale to nie jedyny problem, który naprawiono, bądź nie.
Bo naprawiono też problem w Outlooku, gdzie Joss, no nie właściwie,
usuwał dwa załączniki podczas przekazywania wiadomości.
No ciekawe. To ciekawe. Ciekawy błąd.
A, teraz możemy nacisnąć insert F8 w Outlooku, żeby wyświetlić
listę przycisków na pasku narzędziowym.
Naprawiono też błąd w Excelu, gdzie
komórki zawierające elementy auto-uzupełniania
nie były poprawnie wyświetlane w Braille’u.
I to tyle. No i jeszcze jest kilka takich dodatkowych poprawek.
Na przykład, jeżeli używaliśmy
Alt-R w Winampie,
żeby przejść do końca utworu,
to niepoprawnie działała opcja mowy na żądanie,
czyli Insert, Spacja i S.
Potem tak, jeżeli przeglądamy właściwości
w folderu lub pliku w eksploratorze pliku
to rozwiązano problem, gdzie JAWS
nie oznajmiał aktualnej
nazwy zakładki, kiedy naciskaliśmy Control Tab
i naprawiono błąd, gdzie
kursor wirtualny nie włączał się
znaczy włączał się w niewłaściwych momentach
Kiedy edytowaliśmy bez okna, nie pokazujący okna element pętli w outlooku, o cokolwiek tu może chodzić.
No i to wszystko jeśli chodzi o aktualizację JOS-a na ten miesiąc.
Kolejny temat to są nowości w betach systemów Apple, natomiast Piotrze, czy my tu jeszcze mamy coś do powiedzenia więcej niż to o czym rozmawialiśmy z Arkiem?
No to w takim razie, gdybyś mógł przejść z systemów Apple do Androida, bo to właśnie tam ma być łatwiejsze skanowanie kodów QR dzięki Google’owi.
Tak. O co tutaj dokładnie chodzi? Myślę, że każdy z nas chociaż przynajmniej raz miał taką sytuację, że musiał jakiś taki kod zeskanować najczęściej.
Chodzi tutaj właśnie o logowanie do różnego typu aplikacji typu Whatsapp czy
Signal na przykład, czy innych aplikacji tego typu.
Co nie zawsze musi być łatwe.
Te kody są często bardzo małe i ciężko w nie trafić.
Tym bardziej, że ciężko jest nam, kiedy nie widzimy.
Natomiast tutaj Google wprowadza coś, co może nam pomóc,
Bo do swojego SDK, do swojego API, do przechwytywania kodów QR, pracują nad dodaniem funkcji opartej na sztuczną inteligencję, które właśnie ułatwią skanowanie tych kodów.
O co chodzi? Kiedy telefon wykryje taki kod w kadrze aparatu, no to właśnie używając sztucznej inteligencji, po prostu sobie ten kod wyostrzy,
Powiększy, żeby on był ładnie widoczny, wykona obróbkę na tym zdjęciu, tak żeby tylko ten kod był widoczny, no i wtedy go sobie spokojnie, automatycznie, automatycznie jeszcze czyta.
To się może przydać w sytuacjach, kiedy no właśnie ten kod jest jakiś bardzo mały, ale też tutaj jest podany przykład, często aplikacje na telewizory wymagają od nas skanowania kodu, na przykład, żeby zalogować się do jakiejś usługi.
No to tutaj też właśnie jak ten kod jest gdzieś bardzo mały i bardzo odległy, to też w takich sytuacjach to może pomóc.
Kolejna taka fajna rzecz związana z tym API jest taka, że to jest osobne API od dostępu do aparatu.
I tutaj autor tego artykułu mówi, że jeśli jakaś aplikacja będzie z tego API korzystać, no to nawet właśnie nie jest potrzebny dostęp do całego aparatu,
bo kiedy aplikacja już dostanie taki kod, no to właśnie ta sztuczna inteligencja
wyśle do tej aplikacji tylko właśnie ten sam kod, a nie będzie przez
przypadek gdzieś też przechwycone coś innego, co jest widoczne w kadrze aparatu,
więc dzięki temu to jest wszystko bardziej prywatne.
To będzie działało w systemowej aplikacji skanera kodów, którą przepuszczam pewnie
też się da jakoś otworzyć tak właśnie mamy to w centrum ustalowania tutaj
pewnie na Androidzie może podobnie można sobie gdzieś to dodać i w ten sposób
otworzyć, ale też właśnie jest to API, więc jeśli jakiś deweloper chce z tego
skorzystać, a może już korzysta, bo to API też było wcześniej dostępne,
dlatego zostało zaktualizowane, no to to powinno być dostępne.
To będzie dostępne
w Androidzie 13 na pewno.
Natomiast tutaj jest też napisane, że to nowe API będzie gdzieś dodane do Google Mobile Services, czyli tego Google Play’a, tych usług Google, który każdy producent, który chce mieć dostęp do sklepu Play i też innych aplikacji Google musi też zainstalować z telefonem, więc jest bardzo prawdopodobne, że to też będzie dostępne na starszych wersjach Androida, no a co za tym idzie, no będzie po prostu dostępne dla szerszej grupy użytkowników,
co wydaje mi się jest bardzo dobre, bo faktycznie czasami z tymi kodami możemy mieć problemy,
więc wszystko co ułatwi nam ich skanowanie, jak najbardziej może się przydać.
W klimatach zielonego robocika pozostajemy dalej, bo teraz będzie o Jeszło, w którym też się zmienia. Prawda, Pawle?
Gadza się, wyszła wersja na koniec lipca i w tej wersji właśnie, no, główną taką zmianą jest trochę przebudowa ustawień,
bo, no, z czasem tych ustawień już w tym programie się narobiło tyle, że te stare kategorie przestawały wystarczać
i tam się robiły coraz dłuższe jakieś listy tych opcji. No więc parę rzeczy przebudowano, na pewno kwestie związane z gestami
gdzieś tam pogrupowano, żeby one były bardziej zbite w jednym miejscu.
Rzeczy typu jakieś dodatkowe funkcje, jakieś tam notatniki GESHU,
jakieś czytniki dokumentów, coś tam, te takie dodatkowe funkcje,
które program ma, wrzucono do jakiejś kategorii takiej jakby więcej opcji.
I no pewnie jakieś jeszcze inne rzeczy poprzebudowywano.
Ponoć nie jest to ostateczna wersja, bo jest to wersja eksperymentalna,
więc bardzo możliwe, że jeszcze coś się w tej kwestii pozmienia.
Natomiast zmiany są też różne i inne, no i na przykład mamy tutaj taką listę zmian.
Wymieniono silnik do rozpoznawania tekstu z obrazków, nie wiem czy tu chodzi o CR czy o CAPTCHA,
ale jest nowy silnik, więc oby było lepiej.
Zmieniono mechanizm autoryzacji slidera, nie wiem czy tu chodzi o przesuwanie suwaków,
czy coś jeszcze innego.
Zoptymalizowano wbudowaną syntezę Xunfei do obsługi przez programy trzecie,
czyli domyślam się, że teraz ta synteza będzie albo dostępna dla innych aplikacji,
albo po prostu lepiej zoptymalizowana, żeby z nimi współpracować.
Zoptymalizowano odczyt emotikonów, zoptymalizowane gesty dwuetapowe.
to były te takie gesty, gdzie wykonywało się kilka ruchów, że coś się przytrzymywało,
czy tam odczekiwało chwilę i przesuwało dalej. Były takie gesty, wprowadzono.
Można je teraz przełączać bezpośrednio w globalnym schemacie gestów
lub w ramach danej aplikacji, czyli one nie są już globalne, tak jak niektóre opcje,
że tylko możemy je raz ustawić i tyle, tylko można robić różne schematy
te schematy dla różnych aplikacji. One są teraz częścią tych schematów.
Zoptymalizowano ustawienia głosów.
Można teraz bezpośrednio otworzyć odpowiednie ustawienia
określonego wyjścia głosowego w tym interfejsie, czyli
no prawdopodobnie można przejść z ustawień Joshua
do ustawień dla konkretnego jakiegoś tam syntezatora,
jak mamy tam jakiegoś ESPICA czy RH Voice’a,
to można z poziomu ustawień Joshua te ustawienia otworzyć.
Zoptymalizowano zakładki ustawień.
Aha, tak. Ustawień operacji i ustawień zaawansowanych.
Zmieniono niektóre pozycje w menu.
No, to o czym mówiłem, takie przebudowy właśnie teraz tam się odbywają.
Gesty wielopalczaste, dwuetapowe i krawędziowe zostały przeniesione do domyślnej karty ustawień gestów.
No tak, czyli one nie są już tam gdzieś dalej porozsiewane, tylko są właśnie w gestach.
Przedtem były pewnie w jakichś zaawansowanych albo w ogóle gdzieś tam
w jakichś swoich osobnych menu.
Naprawiono błąd, przez który powiadomienia z aplikacji Telegram były odczytywane zbyt głośno.
Ciekawy błąd.
Że akurat z tej jednej konkretnej aplikacji.
Tak, ciekawe z czego to wynikało.
Opcje wyodrębniania łącza i dostosowywania fokusu można teraz wyświetlać w menu operacji.
No to fajnie, że tam zostało to przerzucone.
Notatki w chmurze, tryb czytania, edytor tekstu i przeglądarka internetowa
zostały zintegrowane w menu Więcej Opcji.
No to o czym mówiłem, czyli powstało nowe menu, gdzie są te opcje pochowane.
Naprawiono problem, przez który długość zakończonego połączenia
nie była odczytywana na głos wyższych wersji Androida.
No super.
Zoptymalizowane reguły ruchu kursora w edyturze tekstu czeszło.
No i to w sumie tyle, ma się wkrótce pojawić kolejna wersja, także ponad działa wszystko dość stabilnie, no więc warto próbować.
No to dobrze, przejdźmy teraz do kolejnego tematu, tym razem będzie obrazkowo, bo jest nowy dodatek dla NVDA, który te obrazki potrafi nam opisywać. Więcej na ten temat Piotr.
Tak jest, dodatek o którym jakiś czas temu wspominaliśmy, bo on wtedy był tylko zademonstrowany, był w wczesnej fazie rozwoju, a teraz już taka pierwsza wersja beta się ukazała, możecie ją sobie ściągnąć z linków, które znajdziecie w komentarzach lub jeśli macie tą nową wersję NVidia, w której jest sklep, no to w sklepie ten dodatek też znajdziecie, tylko musicie sobie ustawić dostępne kanały na beta, bo to jeszcze nie jest wersja stabilna.
tylko beta, więc można to też stamtąd ściągnąć.
Kiedy już to zrobimy, no to dodatek pozwala nam generować sobie opisy zdjęć
stuprocentowo na urządzeniu, bo dodatek korzysta z własnego modelu, który jest
z nim dostarczany, więc tutaj nigdzie nie jest nasz obraz wysyłany.
Natomiast jak to wszystko działa?
Wystarczy ustawić się na obrazku, który chcemy rozpoznać i naciskamy
MVDAX. I tutaj niestety jest największy problem tego dodatku w tym momencie, bo możemy to zrobić tak naprawdę w dwóch miejscach.
Albo w przeglądance internetowej, to może być Chrome lub Firefox. Nie wiem czy tutaj by Brave zadziałało, ja akurat w Firefoxie głównie testowałem.
I co wtedy ten dodatek robi? Po prostu pobiera sobie tą grafikę, bo każda grafika tam gdzieś jest podany jej adres,
Więc jeśli kiedy naciniemy ten skrót, no to ten dodatek sobie tą grafika ściąga i wtedy przetwarza, co może niestety czasami tworzyć problemy, bo na stronach, których jest wymagane logowanie, w jakiejkolwiek, między innymi na przykład Facebook i Twitter, tu jest podany Mastodon nie, co ciekawe, jeśli mamy jakiś publiczny post, no to spokojnie możemy sobie zdjęcia z Mastodona opisywać bez większych problemów, zarówno na stronie oficjalnej, jak i w kliencie Semafor, tylko musimy sobie wtedy to zdjęcie powiększyć, bo
To musi być grafika, tak? Dodatek nie zadziała nam na czymś, co jest czytane jako link czy przycisk niestety, no i właśnie też również nie na czymkolwiek, co jest w jakikolwiek sposób zabezpieczone, a szkoda, bo na przykład przydałoby się to zastosować, nie wiem, na YouTubie, to jest jedno miejsce.
Na drugie miejsce to jest Explorator Windows. Możemy sobie ustawić focus na pliku JPG i też nacisnąć NVDA X, żeby go rozpoznać, natomiast mi to w ogóle nie chce działać, bo w wielu restartach tutaj z tego co wiem po naszych rozmowach, no to na przykład Pawłowi to działa tylko raz, a potem się coś sypie, tak?
Tak, zgadza się, dokładnie tak to ma.
Więc to różnie działa, jak widać niestety, nie wiem czemu mi to w ogóle nie chce działać, po prostu sypie błędami i nie chce.
Natomiast jeśli chodzi o to rozpoznawanie w internecie, no to muszę powiedzieć, że generalnie to działa bardzo fajnie.
No zajmuje to kilka sekund zanim to zostanie rozpoznane, co też mówi autor, że to będzie znacznie zależało od tego jak szybko mamy komputer.
No i te opisy, ja bym powiedział, są takie porównywane do tego, co np. słyszymy od iOS-a, od tego rozpoznawania, które jest dostępne w voiceoverze na iPhone, jak on nam opisuje jakieś zdjęcia.
Ja tutaj nawet miałem, miałem takie, testowałem to na kilku zdjęciach, oczywiście teraz, teraz nie mogę znaleźć, o znalazłem, tutaj mam takie fajne, taki fajny post na Mastodonie, którym ktoś namalował sobie zdjęcie miasta Kyoto, widać, widać to miasto i widać,
jakieś linie wysokiego napięcia
no i schodzące słońce. Taki mamy tutaj, ta osoba dała
taki bardzo fajny opis alternatywny.
A co na to nam powie dodatek?
Żeby teraz go rozpoznaje.
I dostajemy komunikat. Co to komunikat? To jest tam po angielsku, bo
no po angielsku ten model został zatrenowany
i tutaj autor mówi, że nie da się niestety tego w żaden sposób zmienić, no ewentualnie
może zintegrować to tłumaczenie od Mozilla.
Ale też w sumie można by sobie tłumaczem typu
Instant Translate w sumie przetłumaczyć, nie widzę przeszkód, czemu by to miało nie działać.
Natomiast ja akurat nie mam tego subfigura wyległego, ale co mi powiedział,
że to jest namalowane, to jest, to jest obraz przedstawiający ulicę, miasta i widoczne
linie wysokiego napięcia oraz słupy telefoniczne i jakiś czerwony budynek.
Więc no taki, no wskazać się z tego, co tutaj słyszeliśmy z opisu alternatywnego.
Też to testowałem na innych zdjęciach, zdjęciach przedstawiających różne koty i nawet sobie radził całkiem nieźle, bo na przykład było zdjęcie jednego kota, który akurat rzucił się na pilota do telewizora i sobie gdzieś tam tego pilota bardzo okurczliwie trzymał w łapkach.
I faktycznie tutaj też były zdjęcia, które miały opis alternatywny, więc ja byłem w stanie porównać to, co powiedziała ta osoba, co mi powiedział ten dodatek.
No i te opisy generalnie były trochę mniej szczegółowe, ale kolory się zgadzały i nawet tutaj właśnie wychwycił, że faktycznie jakiś kotek sobie tego pilota faktycznie trzymał.
Natomiast było jeszcze jedno zdjęcie, to było jakieś bardzo stare zdjęcie, czarno-białe, jakiegoś kota w Australii, w tle którego też był widoczny taki specyficzny ptak.
Tam też był opis alternatywny, który opisywał go dokładnie, natomiast ten dodatek nie powiedział, że ten ptak jest martwy.
Nie wiem dlaczego tak stwierdził, ale taki ciekawy opis dostałem.
Przepowiadał jego przyszłość, co się stanie, jak się z tym kotem spotka może.
A kto wie?
A kto wie? Może tak.
Natomiast, no,
taki, myślę,
największy minus tego, mam nadzieję,
że w przyszłych wersjach to zostanie zaktualizowane,
żeby ten dodatek działał bardziej tak,
jak na przykład działa funkcja
OCR.
No bo wtedy będziemy, byśmy mogli sobie
rozpoznawać
słownie wszystko, może nawet
jakieś filmy na YouTubie zrobić, pauzę w jakimś momencie
sobie to rozpoznać,
czy zdjęcia np. właśnie na Facebooku, no bo wiadomo, jakie te opisy na Facebooku są niestety.
Więc fajnie byłoby, gdyby to działało trochę lepiej.
Natomiast mimo wszystko wydaje mi się, że warto sobie ten dodatek ściągnąć,
bo mogą być sytuacje, kiedy on nam się może przydać.
Może te opisy nie są jakieś bardzo szczegółowe, ale też nie są złe,
zwłaszcza biorąc pod uwagę to, że dodatek jest darmowy i jeszcze działa o 100% na naszym urządzeniu,
urządzeniu, więc możemy sobie z niego dowolnie korzystać.
Tak, ten w ogóle model, na którym to jest wytrenowane, czyli BLEEP,
z tego co ja też opowiadałem o tym w tyłku o przeglądzie, ale
czytałem, jak autor jeszcze gdzieś tam to miał w planach koncepcyjnych,
pozwala też na zadawanie pytań potencjalnie.
Natomiast na razie ten dodatek tej funkcji nie ma.
Zdaje się, że to by dodało kolejny gigabajt RAM-u zużyty,
samo to zadawanie pytań i przetwarzanie tego.
On też, autor wyjaśnia kilka kwestii w Read Me, że na przykład to nie jest rozwiązanie, które nadaje się do interpretowania wykresów.
To jest typowo do opisywania właśnie takich zdjęć, obrazków, memów, jakichś komiksów, historyjek, kreskówek i tak dalej.
No i na ten moment autor też nie przewiduje, żeby to wytrenować w innym języku niż angielski, że to jest niewykonalne.
A na przykład do CR-a można tego użyć, albo do rozwiązywania CAP czy nie bardzo?
Też nie, też nie.
Typowo do opisu zdjęć. Na przykład mam teraz tutaj zdjęcia z urlopu, no 5 lat temu byłem sobie w Słowenii i spróbuję tu rozpoznać.
O, teraz na przykład mam image file could not be read. Zrestartuję NVDA, zobaczymy czy to coś da.
To jest ten problem, który właśnie miałem po każdym pierwszym skanie.
Więc zobaczmy, o nie wiem od czego to zależy, spróbujmy.
Server is not yet loaded. Aha, czyli to musimy poczekać aż wtyczka się załaduje.
Please wait, o i teraz się robi.
Czekamy.
I czekamy.
Jest. Captioned image.
I mamy opis.
Światło świeci, czy widać rozbłysk światła w jaskini,
w wejściu do jaskini, w ciemności i nocy ze schodami,
które prowadzą na górę jakby do tego światła.
No ja się domyślam, że to jest zamek, który zwiedzaliśmy w Słowenii.
To jest… Już nie pamiętam jak się nazywał ten zamek, ale wiem, że tam były kręcone filmy.
Któryś z filmów z Jackiem Chanem był tam kręcony.
I on tam chyba w ogóle… Jakiś miał wypadek kaskaderski, czy coś.
Więc taki też dość znany, znany zabytek.
No i tak to wygląda mniej więcej.
No więc takie dość… Całymi zdaniami te opisy,
ale chyba te GPT miały dużo więcej tych szczegółów.
No może przynajmniej za to, przynajmniej za to może nie halucynuje aż tak.
No i jest przede wszystkim offline, znaczy to się robi u siebie, tak?
Więc no o tyle, no to też może być dobre w momencie, gdy robimy zdjęcia,
które no nie chcielibyśmy z jakiegoś powodu, żeby gdziekolwiek się znalazły.
No tak.
No i no właśnie to jest offline, więc no też niektórzy mają problemy z internetem.
No ciekaw jestem tych halucynacji, jak tutaj to jest,
No ale może jakieś zrzuty ekranu możliwe, że można by jakoś sprawdzać.
No, ciekawe. Muszę w sumie to też sprawdzić, bo ja to też pobrałem i jakoś nie sprawdziłem do tej pory.
Warto zwrócić uwagę, że ten dodatek się dość długo instaluje, bo sam instalator dodatku ma chyba ze 130 mega.
No i zanim to się wypakuje, to warto sobie wziąć Snickersa albo inny ciekawy słodycz i poczekać,
bo to się będzie dość długo instalowało.
Czas na kolejny temat.
Temat tym razem,
Pawle, twój.
OrCam w nowej wersji
się pojawił, przynajmniej na Wyspach.
Zgadza się.
Tak donosi
portal
portal
AT Today, czyli
Assistive Technology Today.
No i co o tym OrCamie się dowiadujemy?
OrCama znamy, czyli kamerka,
która różne ma oblicza, bo była już w wersji przyczepianej na okulary,
w wersji do trzymania na niej palca.
Różne to już miało reinkarnacje.
Teraz mamy wersję taką, która oprócz tego, że nam różne rzeczy czyta,
to jest też powiększalnikiem.
I jeżeli dobrze rozumiem, działa to w ten sposób,
że jakoś łączy się to z telefonem
i my przez przeglądarkę łączymy się z tym OrCamem
na smartfonie, czy na każdym innym urządzeniu, które obsługuje przeglądarkę.
Obserwujemy w powiększeniu, możemy zoomować, powiększać, dostosowywać sobie tekst, który czytamy.
Też jest przewidziany stojak, w ogóle taki statyw na tego Orkama, więc można go sobie jakoś ustabilizować.
Ponoć w podróży ten statyw też się sprawdza dobrze.
No i jakaś funkcja też AI-owa do podsumowań tekstu zeskanowanego
i jakiegoś tam opisywania nam tego tekstu w formie skróconej jakiejś parafrazy i tak dalej.
To jest to, co wiemy na ten moment.
Możliwe, że pojawią się jakieś bardziej szczegółowe dane techniczne.
Na ten moment tyle wiemy o orkamienowym.
Więc czy on będzie w Polsce, a może już jest?
No to jest zawsze dobre pytanie.
Za momencik będziemy przechodzić do technikaliów,
ale zanim to, to jeszcze będzie jedna informacja.
Ja mówiłem, że ja dziś nic nie mam,
Nie mam, ale jednak jedną informację dla Was będę miał, to za momencik.
Natomiast wcześniej przeczytam pytanie od naszego słuchacza Bartka.
Witam, zwracam się do Was z pytaniem dotyczącym aplikacji mBanku.
Czy orientujecie się, czy jest możliwość dodawania nowych odbiorców z poziomu aplikacji?
Oczywiste jest to, że można to zrobić logując się do bankowości internetowej.
Na co dzień nie korzystam z aplikacji mBanku, ale chcę pomóc znajomemu.
Z góry serdeczne dzięki za odpowiedź. Pozdrawiam serdecznie.
No więc teraz pytanie, czy ktoś z Was korzysta z Embanku? Ma doświadczenie?
Korzystam i musiałbym to sprawdzić. Mój telefon leży w drugim pokoju, ale wydaje mi się, że się da.
I chyba działa to w jakiś taki sposób, że jak klikamy na nowy przelew, to się pokazuje lista odbiorców już zdefiniowanych wcześniej.
Tak jak Bartek opisuje. Natomiast jest przycisk nowy przelew i wtedy my możemy ręcznie powypełniać wszystkie pola, czyli imię, nazwisko, numer konta i tak dalej.
I oczywiście tam tytuł przelewu, kwota i na końcu zdaje się jest haczyk do zaznaczenia dodaj do listy odbiorców.
Tak ja to pamiętam. Tak jak mówię, muszę to jeszcze potwierdzić.
Jasne. No więc teraz zanim przejdziemy do tematów takich bardziej technicznych, to jeszcze jedna informacja od fundacji Transgresja, bo ta fundacja uruchomiła nowy serwis, jak piszą na swoich stronach internetowych.
Z dumą i radością informujemy, że pod adresem gluchoniewidomi.info uruchomiliśmy serwis poświęcony właśnie głuchoniewidomym.
Jest to serwis poświęcony ludziom z jednoczesną niepełnosprawnością słuchu i wzroku.
Ludzie głuchoniewidomi to osoby, które jednocześnie mają problemy z widzeniem i słyszeniem.
Ta podwójna niepełnosprawność może wpływać na ich zdolność do komunikacji, orientacji przestrzennej, zdobywania wiedzy i uczestnictwa w społeczeństwie.
W tym serwisie chcemy opowiedzieć o ich potencjale i wyjątkowości, ale i ograniczeniach, które ze względu na swoją niepełnosprawność ludzie ci posiadają, a także o sposobach niwelowania tych ograniczeń.
No i tutaj mamy fotografię z tego serwisu i dlaczego akurat właśnie ta data dzisiejsza, czyli 9 sierpnia została wybrana na uruchomienie tego serwisu.
9 sierpnia 1821 roku urodził się Hieronimus Lorm,
właściwie to Heilig Landesman, twórca metody komunikacji dla osób głuchoniewidomych,
którą od jego przydomku nazwano alfabetem Lorma.
Uruchamiając więc 9 sierpnia 2023 roku serwis Głuchoniewidomi.info
chcieliśmy upamiętnić urodziny tego bardzo ważnego człowieka dla społeczności ludzi głuchoniewidomych.
Zapraszamy do fascynującej podróży po świecie ludzi głuchoniewidomych.
Nasz serwis internetowy to unikalne miejsce, które pozwoli poznać i zgłębić złożony i inspirujący świat osób
z jednoczesną niepełnosprawnością słuchu i wzroku, która stanowi według nas jedną osobną niepełnosprawność.
Naszą misją jest zwiększenie świadomości na temat tej rzadkiej niepełnosprawności oraz wypracowanie
inkludującej społeczności wspierającej osoby z ograniczeniami słuchu i wzroku.
Nasza platforma to źródło wiedzy, które daje nadzieję i inspiruje do przekraczania barier
zarówno w życiu codziennym, jak i zawodowym.
Dla osób głucho niewidomych codzienność bywa wyzwaniem,
dlatego staramy się dostarczyć wartościowe informacje,
które pomogą w radzeniu sobie z codziennymi trudnościami.
Piszemy o technologiach wspomagających,
dostępie do edukacji, możliwościach zatrudnienia,
a także różnych aspektach życia codziennego.
Wspieramy nasze publikacje doświadczeniem
samych osób głuchoniewidomych oraz osób ich wspierających.
Serwis głuchoniewidomi.info dostępny jest oczywiście właśnie pod tym adresem
gluchoniewidomi.info. Podałem ten adres już tyle razy, ale w komentarzu oczywiście
będzie, więc jeżeli będziecie mieli ochotę, żeby się tam udać, żeby poczytać o
osobach głuchoniewidomych, bo przecież to jest tak, że osoby z niepełnosprawnością
tylko wzroku, wcale niekoniecznie muszą wiedzieć, jak sobie ci głuchoniewidomi radzą w życiu, jak funkcjonują, no bo to jest
no jednak zupełnie inny sposób postrzegania rzeczywistości, kiedy dwa zmysły zawodzą, a nie tylko jeden, więc wygląda to zupełnie inaczej.
Być może ktoś jest ciekawy, a być może właśnie jacyś głuchoniewidomi nas słuchają w tym momencie.
Dlatego mówię słuchają, no bo przecież ten ubytek słuchu nie musi być całkowity, żeby do tej grupy taką osobę zaliczyć, to jest rzecz jedna, a po drugie będzie też przecież transkrypcja tego naszego tyfloprzeglądu na stronie tyflopodcast.net właśnie między innymi z myślą o takich osobach, żeby sobie mogły też przeczytać to, o czym my tu mówimy, jeżeli chcą się z tym zapoznać właśnie za pomocą monitorów brajlowskich, to bardzo serdecznie do tego zadają.
Zachęcamy. I tyle, jeżeli chodzi o tyflu aktualności, chyba, że ktoś z was jeszcze ma jakiś temat?
Nie, nie, nie.
Tak, ja zaraz będę miał temat i w sumie, w sumie go będę mógł w pewnym sensie zapowiedzieć w, niech się ta, niech się ten news sam za chwilkę zapowie, że tak powiem.
I już mogę to chyba zrobić, chociaż nie bardzo chcę to się odtworzyć, ale może się teraz odtworzę.
Nie, dobra, no w każdym razie iLevel Love wypuściło nową alfę, nową wersję w zasadzie tego modelu wielojęzycznego, swojej syntezy mowy.
No, jest lepiej, jest na pewno lepiej.
A czy naprawili dla?
Jeszcze nie wiem, ale w sumie mogę to sprawdzić.
Alfa obsługuje nowe języki.
No nie wiem co tu wpisać.
A dla polskiego działa zdecydowanie lepiej.
Lepiej, zaraz sprawdzę, mam nową klawiaturę i nie umiem pisać.
No bo akurat z tym, dla to był, pamiętam, problem.
Jeszcze liczby, jeden, dwa, trzy, czternaście, sto czterdzieści, załóżmy, wpiszę.
Takie liczby, tylko tak, muszę teraz zrobić jeszcze tak, żeby się nie słyszeć.
O, teraz już jest okej. Jeszcze ustawię troszkę ten model, bo teraz są trzy suwaki, w ogóle dodali nowe języki.
Były dwa chyba, tak?
Tak, były dwa suwaki, teraz są trzy suwaki i jeszcze jest, jeszcze jest pole, jeszcze jest pole wyboru. Boost, jak to jest?
Speaker Boost to się nazywa. To też ma być lepiej. Dużo, dłużej się generuje.
Na razie jest syntezator mowy mój, więc ten to teraz chwilkę potrwa i Twój głos ma być teraz, znaczy za chwilkę będzie Twój głos tym nowym modelem zrobiony.
Sam jestem ciekaw co z tego wyjdzie.
Jest trochę lepiej, choć do ideom jeszcze odrobinę brakuje, ale już kilka głosów wyszło naprawdę zdecydowanie, no to lepsze było rzeczywiście.
No tak, ale i te próbki, które, bo jak rozumiem, wykorzystujesz te próbki z R.H. Voice’a, tak?
Nie, teraz akurat twoje wykorzystanie…
Eleven Labs wypuściło wielojęzyczny model swojej syntezy w wersji drugiej.
Póki co to jest publiczna alfa.
OBS luguje nowe jej ezyki, a dla polskiego działa zdecydowanie lepiej.
Dla naprawy 1, 2, 3, 15, 150, oj, oj, 150, super.
Tak, ale muszę sprawdzić, co tu mi się zrobiło, czy ja tu coś zrobiłem.
Tak, obsługuje mi się źle napisało, bo ma nową klawiaturę Alt,
jest prawie trochę gdzie indziej, mi się domyli ze spacją.
No mój głos tak nie przypomina mi mojego, ale ciekawe.
Ale jest na pewno lepiej niż było.
Tak, i wiesz, ciekawe co by było, gdyby skorzystać z tej opcji voice cloning,
która przecież u nich też jest.
To jest jedno, poza tym teraz nie dałem twojego głosu z RK Voice’a,
tylko dałem z Zoom’a, z audycji, z któregoś z cyfrowszeglądu.
Jasne.
Minutę. I zauważ, on zaczął to troszkę mówić, nie czytać,
Bo wcześniej większość tych głosów, które się robiło, to tak jakby trochę książkę czytały, nieważne co się tam włożyło.
To prawda.
A teraz on rzeczywiście mówi o tym, że jest Eleven Labs, że wyszedł jakieś tam nowe modele i tak dalej, i tak dalej.
On tam nawet ma jakieś yyy tam powstawy.
Zgadza się.
To jakoś dużo.
I to jakoś sporo, to się zgadza.
Może te suwaczki od czegoś tam są.
Tak, ten trzeci słówak to jest jakaś style, jak to się nazywa, style agregate, coś tam, exagregated, style exaggregation, no w każdym razie.
Czyli przesadzenie stylu, dosłownie.
No to, no tak, czyli właśnie prawdopodobnie jak ma ten styl oddać albo nawet za bardzo przesadzić w takim razie, w każdym razie, jeżeli chodzi o te języki i tak, mamy teraz już 28 języków.
No oczywiście angielski, japoński, chiński, niemiecki, hindi, francuski, koreański, portugalski, włoski, hiszpański, indonezyjski, ten, o Jezu, wyleciała mi nazwa, niderlandzki, turecki, filipiński, polski, szwedzki, bułgarski, rumuński,
arabski, czeski, grecki, fiński, chorwacki, malajski, słowacki, duński, tamilski, ukraiński.
Jeszcze jest tutaj kilka informacji w tej alfie, że po pierwsze w związku z tym, że to jest alfa, to może to po pierwsze nie działać,
oni mogą to modyfikować, mogą to zabrać, jak coś się okaże nie tak, a jeżeli to wyjdzie z tej alfy już do normalnego,
no prawdopodobnie w związku z tym, że ten model jest dużo większy, całość generowania trwa dłużej za mniej więcej zasobów, to najprawdopodobniej będą obowiązywać inne ceny do tego modelu.
Także no tu trzeba będzie się przygotować, że to będzie jeszcze droższe, natomiast rzeczywiście jest znacznie lepiej, wrzuciłem sobie kilka bardzo różnych głosów, które bardzo różnie intonują
I rzeczywiście ta intonacja przede wszystkim jest znacznie lepiej oddawana. Mam troszkę jeszcze znaków, więc spróbuję jakieś książki przez to przepuścić, kawałki i myślę, że teraz te książki naprawdę zaczną być czytane w znacznie ciekawszy sposób, tak mi się przynajmniej wydaje.
No bo właśnie ze względu na to, że on na intonację stara się oddać tak znacznie bardziej, więc wydaje mi się, że on, że teraz ten cały algorytm może być naprawdę wykorzystywany w dużo większej liczbie sytuacji.
Nie wiem czy jeszcze we wszystkich, no bo tu by trzeba naprawdę tych głosów różnych, które krzyczą, szepczą, mówią tak, mówią inaczej, dać pewnie bardzo dużo.
ale wydaje mi się, że to już naprawdę zaczyna być, no znaczy zaczyna być, no to jest lepsze niż było na pewno.
Przede wszystkim to wydaje mi się, że żeby to można było wykorzystywać tak naprawdę w stu procentach profesjonalnie do jakichś takich produkcji typu właśnie książki,
to by się przydało jednak sterowanie za pomocą jakiegoś, to chyba syntezatory, to się w ten sposób steruje za pomocą tego, tych kodów SSML, jak dobrze pamiętam.
I gdyby można było w treść tego tekstu, który jest odczytywany przez taką syntezę, wstawiać znaczniki i nakazujące tej syntezie zachowywanie się w pewien konkretny określony sposób,
przy dołożeniu do tego faktycznie, no takiej naprawdę fajnej intonacji,
ale żeby ta intonacja była jakby na życzenie, że my chcemy, żeby np. ktoś zachował się tak
i w tym konkretnym momencie.
No z tego co wiem, różne rzeczy są planowane, no bo Eleven Loves chciałoby, żeby z tego co wiem przynajmniej,
żeby to m.in. służyło do dubbingu również w filmach w jakiejś tam przyszłości.
No, to prawda, więc do takich rzeczy, no to będą musiały być różne narzędzia, które pozwolą na automatyzację w takim bardzo naprawdę dużym zakresie, no bo to się musi zmieścić w odpowiednim przedziale czasowym, dana wypowiedź, ona musi być w bardzo konkretny sposób, to wszystko musi być powiedziane.
no jeżeli to się tak rozwija, no bo przecież cały produkt, cały, cały, no ta pierwsza beta publiczna przynajmniej, no to jest początek tego roku, pamiętajmy.
Mamy sierpień, więc nawet nie minął rok, mamy znaczący postęp, a już jest informacja, że w tym modelu angielskim V2 ma być ta tak zwana STS, czyli speech to speech, mowa na mowę,
czyli ja mówię swoim głosem, swoją intonacją i on mi to będzie przekształcał na głos, który sobie wybiorę w Eleven Loves.
I to już rzeczywiście, jak ktoś mówi, że będą to chcieli wykorzystywać w przyszłości właśnie w takich rzeczach jak dubbingi,
jak no czytanie różnego rodzaju tekstów, zwłaszcza te dubbingi, no to jak to słyszymy, to już ma to takie znamie racjonalności,
bo no gdzieś tam powiedzmy ta wcześniejsza synteza, która była, która była tworzona przez różne firmy, no to raczej ciężko było powiedzieć,
żeby to się do czegoś nadawało, takiego sensownego i takiego rzeczywiście, co miałoby naśladować ludzką mowę,
bo to było słychać, że to jest sztuczne. A tutaj, no to jest coraz bardziej naturalne i rzeczywiście, jak ktoś mówi,
że będzie chciał to wykorzystywać w takim celu, to można mu zacząć wierzyć, że faktycznie to nie jest przechwalanie się,
Tylko oni faktycznie pójdą i coś z tym zrobią i pójdą dalej.
No więc tak, to taka ciekawa rzecz.
To jak rozumiem, jeżeli chodzi o tyflu aktualności, to tyle.
Czyli możemy teraz do technikaliów przejścia.
W technikaliach mamy na przykład kolejną aplikację do tworzenia
transkryptów na iPhona i na Maca.
I o tym Piotr.
No właśnie, a propos transkryptów, o których było przed chwilą poniekąd, pojawiła się kolejna aplikacja, która nam na to pozwala.
Aplikacja od firmy Woodgie Juice, czyli ludzi odpowiedzialnych m.in. za bardzo lubiany edytor audio Ferrite i Hogusa.
I zresztą z Ferritem ta aplikacja się będzie w przyszłości integrować.
Na razie to jest w ogóle wszystko jeszcze wczesna wersja beta dostępna na test flight, więc to jeszcze w Avstorze oficjalnie się nie pokazało.
Natomiast co możemy się po tej aplikacji spodziewać?
Ona jest dostępna zarówno na iPhone’a, iPad’a i na Mac’a.
Jest przyspieszona silnikiem neuronowym Apple, czyli tym procesorem odpowiedzialnym stricte za właśnie takie uczenie maszynowe.
Może tłumaczyć, może transkrybować ponad 100 języków.
Tutaj oczywiście jest Whisper stosowany, ale o tym za chwilkę więcej powiem.
Mamy wielościeczkową transkrypcję, więc możemy do aplikacji załadować kilka
plików, nawet ona jest na tyle mądra, że jeśli mamy jakieś cykliczne podcasty np.
no to po nazwach pliku jest w stanie
dopasować odpowiednio osoby do ścieżek, więc możemy ładować kilka plików naraz.
no i wtedy jak ten transkrypt nam będzie się generował, no to
tyle będzie podzielony na konkretne osoby.
Możemy tutaj, właśnie tutaj będzie wsparcie dla feryta, więc będzie można sobie to z
feryta bezpośrednio importować, ale też możemy po prostu pliki audio sami ładować.
Możemy sobie odtwarzać te transkrypty nawet w prędkości dwa razy przyspieszonej.
Mamy wyszukiwarkę łącznie z wyrażeniami regularnymi, z zastąpieniami, więc możemy sobie jakieś zastąpienia, które chcemy cyklicznie jakoś wykonywać, nawet właśnie aż tak zaawansowane robić w tej aplikacji, eksportować do różnych formatów, w tym własne, bo w tej aplikacji też można sobie własne szablony tworzyć i tutaj na przykład jest HTML, tutaj jest też Markdown, nawet takie bardziej programistyczne typu JSON i CSV, więc tutaj trochę jest tych formatów,
Oczywiście napisy też są, jeśli ktoś potrzebuje wsparcia, dostępności, voiceover, sterowanie głosowe i tak dalej.
No i to jest wszystko co mówi autor.
Natomiast ja sobie do tego TestFlight’a dostałem dostęp i zalogowałem się.
Ściągnąłem tą aplikację na Maca i iPhone’a i co mogę o niej powiedzieć więcej?
No tu jest Whisper i jeśli chodzi o to przyspieszanie silnikiem neuronowym,
no to jest niestety tylko dostępne tak na razie na tych dwóch najmniejszych
modelach, czyli tym modelu Tiny i modelu Basic, które no radzą sobie z językiem
polskim, ale na pewno nie tak dobrze jak te modele większe, które już są uruchamiane
na procesorze.
Tu też działa oczywiście i to jest też całkiem szybkie.
To jest ten chyba jakoś zmodyfikowany Whisper CPP.
No tutaj taki ostatni TFLO przegląd, który tam miał, odcinek 194, który tam bodajże miał około dwie godziny, chyba mniej więcej 40 minut na moim MacBooku M1 przetwarzał.
No to jest MacBook Air, więc tam pewnie ten procesor z czasem zwolnił, no ale i tak to jakoś długo nie zajęło.
I na razie jedna wada tej aplikacji, ja do autora napisałem, jeszcze nie dostałem odpowiedzi czy to zostanie zmienione.
Maksymalnie, jak na razie w aplikacji, możemy ściągnąć tylko model Medium.
Nie ma tego modelu najlepszego, modelu Large, który np. w ICO czy w MacWhisperze
jest jak najbardziej dostępny i działa na moim komputerze i nawet działa
faktycznie dużo lepiej w transkrypcji języka polskiego, więc mam nadzieję,
że to zostanie zmienione, bo coś jeszcze, co ta aplikacja potrafi,
to jest naprawdę bardzo fajne i to działa, to udało mi się przetestować,
to kiedy importujemy sobie taki plik, to aplikacja jest w stanie
sczytać z niego informacje o rozdziałach i to działa naprawdę bardzo fajnie.
Ja sobie właśnie dlatego m.in.
sczytałem ten TFLU przegląd i faktycznie ten transkrypt został odpowiednio na
rozdziały podzielone i kiedy wyeksportowałem sobie to do pliku HTML, no to
ładnie na każdy rozdział aplikacja porobiła mi nagłówki.
Niestety na razie jest kilka błędów dostępności.
Widać, że autor chce i na iOSie na przykład to działa naprawdę bardzo
fajnie, bo ten transcript jest wyświetlany jako jako lista i możemy sobie
na dowolne miejsce na tej liście dotknąć.
Tam zresztą też widzimy rozdziały.
No i kiedy dotniemy sobie na jakąś linię, to możemy ją sobie wyedytować.
Możemy sobie ten plik odtwarzać i tutaj na
na niej właśnie zarówno na Macu, zresztą mamy czynności, które pozwalają nam linię skopiować, uruchomić odtwarzanie od danej linii.
Mamy też to pokrętło więcej zawartości, więc kiedy chodzimy sobie po tym tekście, to VoiceOver nam domyślnie czyta tylko tą linijkę,
a nie mówi nam czasu i tak dalej. Musimy sobie wejść na tą opcję więcej zawartości i wtedy możemy, jeśli potrzebujemy do informacji, sprawdzić dokładnie
czas danej linijki, czy kto to mówi, więc to działa w ten sposób.
Możemy też sobie właśnie, kiedy ładujemy plik na kilka ścieżek,
zdefiniować kto, kto co mówi i dla każdego rozmówcy możemy sobie
dodać zdjęcie, więc jeśli chcemy, żeby nam aplikacja jakieś miniaturki
dodała dla każdego z rozmówców, ale też możemy podać zarówno pełne
imię, jak i skrót.
Więc możemy sobie na przykład zrobić tak, że aplikacja nam powiedzmy najpierw powie
Piotr Machacz, ale już za drugim razem, kiedy Piotr Machacz by się wyświetlił, no to już
będzie za każdym razem tylko program pisał PM, żeby to troszkę skrócić.
Natomiast no niestety na Macu jest na razie kilka błędów.
To są rzeczy, które myślę są do poprawienia.
Taki chyba największy jest taki, że kiedy naciśniemy na jakiejś linijce Enter, żeby ją
wyedytować, bo w ten sposób właśnie możemy
dokonywać zmian, no to VoiceOver nam nie widzi tego pola edycji.
Możemy sobie w nim jak najbardziej pisać i nawet za każdym razem jak naciskamy
jakiś znak, to VoiceOver nam ten przycisk, bo wszystko jest czytane jako przyciski,
czyta jeszcze raz, ale nie możemy na przykład chodzić sobie po znakach, więc jeśli
chcemy jakieś słowo sobie przeliterować, jakiś jeden znak poprawić gdzieś, no to
na razie nie da się tego zrobić.
Na iOS się to działa, więc myślę, że tutaj to jest do poprawy.
Jest też skrót, który pozwala nam przenieść kursor do momentu, w którym znajduje się otwarzasz audio, więc tutaj możemy albo właśnie otworzyć nagranie od danego momentu, albo też możemy właśnie przenieść kursor do miejsca, które jest akurat otwarzane, no i ta druga funkcja na razie dla nas nic nie robi, chyba ekran Cię jakoś przesuwa, ale kursor Focus nam niestety na razie na oczytywaną, akurat otwarzaną linię nie przeskakuje.
niestety. I jeszcze jeden błąd, który jest na razie też tylko
na Macu, to jest każda osoba na tej liście może być wyciszona i może mieć
włączone solo, że słyszymy tylko tą osobę i to jest tak bardzo fajnie
rozwiązane, że to jest w formie takiego suwaka, a na Macu coś
voiceover tego suwaka nie widzi.
Aplikacja zachowuje się tak jak ten suwak miał tam mieć, ale znowu tutaj
jest widziany tylko przycisk i nie da się niestety tego na razie przełączyć.
Może tutaj jakieś skróty klawiszowe dojdą, zobaczymy.
Też tutaj to zgłosiłem do autora.
No i ostatni problem, który też mam nadzieję, że zostanie naprawiony jest
taki, że edytor własnych formatów, na przykład chciałbym sobie stworzyć
taki format HTML, który nie zawierałby tego i całej informacji o czasie.
tak, bym chciał sobie taki czysty transcript z nagłówkami dla rozdziałów eksportować.
No to za każdym razem, kiedy Focus przechodził mi do pola edycji, w którym to można sobie wpisywać,
po prostu uciekał z powrotem do góry okna i w żaden sposób nie udało mi się tam tego Focusu
dać, więc no to jest dość poważny błąd, jeśli chcemy sobie z tą aplikacją działać.
No aplikacja wygląda fajnie.
Oczywiście jak wiele aplikacji jest dostępna, będzie właściwie dostępna
jako subskrypcja, w darmowej wersji będziemy mieli dostęp do tych najmniejszych
modeli i będziemy mogli transkrybować maksymalnie dwie minuty z każdego pliku.
Jeśli chcemy transkrybować więcej, no to musimy sobie już wykupić subskrypcję,
która będzie kosztowała 20 złotych miesięcznie lub 100 złotych rocznie.
Natomiast jeśli błędy w tej aplikacji zostaną poprawione, no to myślę, że jest ona
warta sprawdzenia, m.in. zwłaszcza dlatego, że ten interfejs, gdyby działał
prawidłowo, to działał bardzo fajnie, to byłoby bardzo fajnie, bo można sobie
fajnie słuchać zarówno tego, co zostało nagrane i tam ewentualnie jakieś poprawki
wprowadzać. Są skróty, żeby to przyspieszać i zwalniać, bo można sobie o połowę
zwolnić lub dwukrotnie przyspieszyć to nagranie, no i to wsparcie dla rozdziału,
To jest coś, czego nie widziałem w żadnej innej aplikacji, a to, zwłaszcza właśnie dla takich materiałów typu podcasty, może się naprawdę przydać.
Rzeczywiście, brzmi interesująco. No, jak będzie rozwój wyglądał, oby pozytywnie.
Przechodzimy do kolejnego tematu. Tym razem temat, który myślę, że zainteresuje użytkowników sieci Orange i tych, którzy mają swoich znajomych w tejże sieci i chyba też jeżeli chodzi o playa.
Tak, tak. Bo okazuje się, że właśnie użytkownicy tych dwóch sieci mogą ze sobą rozmawiać z użyciem obrazu i to nawet bez jakiegokolwiek komunikatora w smartfonie.
Tak, zgadza się. Dzięki technologii VLTE. To już nie WLTE, tylko VLTE, czyli video over LTE.
No i mamy tu taki artykuł za Spiders Web, zresztą dzięki Michałowi za podesłanie.
Michał Kasperczak nam podrzuca czasem też artykuły różne ciekawe.
No i jedziemy. Mamy tak. Nie trzeba pobierać, a nie instalować żadnych dodatkowych aplikacji,
a wideo jest wysokiej jakości i ma niskie opóźnienia.
Zaznacza Orange Start usługi.
Jak to działa?
Po prostu wykręcamy numer, a jeżeli usługa jest możliwa, zobaczymy ikonkę kamery.
Żeby zadzwonić do kogoś w technologii VLTE, obie strony rozmowy muszą być w zasięgu sieci LTE,
mieć telefon z kartą SIM LTE, który wspiera technologię VLTE i ma aktualne oprogramowanie,
oraz mieć włączoną funkcję VLTE. VLTE jest rozszerzeniem VLTE.
Ta druga technologia mogła Wam się już obić o uszy,
bowiem było o niej głośno.
Przy okazji wygaszenia 3G wówczas potwierdzono,
że telefony obsługujące VLTE
dostępne w ofercie operatora od lipca 2021 roku
mają domyślnie włączoną tę funkcję,
więc jeśli łapiecie się na ten przedział,
to nic nie musicie robić w kontekście VLTE.
Teraz Orange dodaje tylko,
że w ich sieci ponad 60% telefonów z VLTE
wspiera także VLTE.
Operator spodziewa się wzrostu,
bowiem wraz z zmianą telefonu
przy okazji 3G więcej klientów
będzie miało nowsze słuchawki.
Po co mi VLTE,
jak mam komunikator?
Zdarza się pewnie tak,
że jeden znajomy korzysta tylko z Messengera,
a inny np. z WhatsAppa
i zrealizowanie wideorozmowy jest pewnym utrudnieniem,
bo trzeba instalować dodatkowe programy.
VLTE, jak przekonuje Orange,
rozwiązuje ten problem,
wystarczy być w zasięgu LTE i być klientem Orange bądź Playa.
Gdy korzystamy z VLTE, bateria zużywa się o kilkadziesiąt procent mniej, gdy używamy komunikatorów.
Po trzecie, połączenie VLTE ma priorytet względem połączeń wideo realizowanych za pośrednictwem aplikacji internetowych.
Przekłada się to na krótszy czas zestawienia połączenia.
Co ważne, VLTE działa niezależnie od sieci internet.
Nie musimy mieć nawet włączonej transmisji danych, a więc nie zmniejsza pakietu danych internetowych, wyjaśnia operator.
Do tego dochodzi bezpieczeństwo. Orange zaznacza, że połączenie realizowane jest w wyznaczonym do tego celu kanale w sieci komórkowej,
którą chronimy protokołem bezpieczeństwa. W przypadku komunikatorów proces przebiega przez zewnętrzne serwery.
Dzięki temu mamy pewność, że wideo rozmowy WLTE nikt nie podsłuchuje, nie podgląda i nie jest w stanie nią wniosk z zewnątrz ingerować, podkreśla operator.
No i to tyle. Nie wiem, czy już ktoś z Orange’a to testował. Gdzie to się na przykład w iPhonie takim pokazuje, czy to jest jakiś przycisk wideo w trakcie rozmowy, który zawsze jest chyba wygaszony, a potem się staje niewygaszony, nie wiem.
No natomiast ciekawe jak to w waszych telefonach się objawia. Dajcie znać czy macie, czy testowaliście.
I ciekawe jaka jest jakość dźwięku, bo to nas chyba najbardziej interesuje.
To może być ten EFS, ten słynny kodek taki przy WLTE, który jest wykorzystywany.
Podejrzewam, że tak, natomiast oprócz tego dźwięku ciekawe jak z obrazem. Czy rzeczywiście można takie połączenie w naszym przypadku do czegoś wykorzystać,
żeby np. pokazać komuś coś na kamerce, no chociażby tak jakby sobie to z facetime’em porównać.
Mhm, no jakby to tak działało, to można by jakieś usługi uruchamiać już nawet takie właśnie typu jakiś wolontariat wideo i tak dalej, asysta wideo przez infolinię zwykłą jakąś.
No to też prawda, to by była jakaś, jakaś opcja, chociaż podejrzewam, że jak mamy takie, wiesz, infolinie już, które faktycznie się gdzieś tam specjalizują, no to by to trzeba było z call center jakoś zintegrować dość mocno i to pytanie, czy to tak prosto byłoby do zrealizowania.
Proponuję, żebyśmy teraz sobie zrobili chwilę przerwy i odebrali telefon, bo Łukasz bardzo, bardzo, bardzo się do nas próbuje dodzwonić.
No to dajmy szansę, bo Łukasz się z nami rozłączył swego czasu, tu jakiś problem z internetem się pojawił u Łukasza, więc odbierzmy połączenie.
No, jak na razie coś nam tu chyba nie bardzo to działa, chociaż nie wiem, już się zdaje się Łukaszowi udało.
O, słyszymy cię Łukaszu.
Tak, witam, to jeszcze raz ja.
No niestety ten Zoom się, no tu nieźle zbuntował, no ale nareszcie działa.
No i tam pytałem właśnie o to słynne basie, jak to działa.
To właśnie, Łukaszu, ja już o tym powiedziałem. Tylko właśnie cię rozłączyło.
Tylko zacząć właśnie w tym…
Tak, ale to dobrze, to szybciutko powiem. Głos jest generowany przez Eleven Labs.
Wypowiedzi, czyli jakby ten tekst wypowiedzi generowany jest przez czat GPT w wersji czwartej.
I tam jest jeszcze, jak dobrze pamiętam, teraz mogę pomylić, bo tych silników jest kilka,
ale tam jest chyba ten stable diffusion do generowania grafik.
To są te elementy, które generują jakby postać tej prezenterki ze sztucznej inteligencji,
ale to nie jest tak, że to się wszystko dzieje samo.
Nie, to tam nad tym siedzą ludzie, później, czyli wygląda to w ten sposób,
że najpierw jest generowany jakiś tam prompt,
to znaczy na podstawie promptu jest generowana wypowiedź przez chat GPT,
Ewentualnie ona jest redagowana potem, bo nie wierzę, że nie.
Następnie jest wrzucana do Eleven Labs, potem taki plik, który jest wypluty przez Eleven Labs
jest wrzucany do systemu emisyjnego rozgłośni, ewentualnie zmontowany z muzyką
i po prostu emitowany razem z innymi utworami, tak jak zwykła playlista.
Więc w ten sposób to wygląda.
Aha, w taki sposób.
Tak, to na dzisiaj dziękuję bardzo.
Kilka fajnych tematów poruszyliśmy
i właśnie dziękuję za fajne, wyczerpujące odpowiedzi
i życzę wszystkiego dobrego, dobrej nocy
i do zobaczenia za tydzień.
Dzięki Łukaszu, pozdrawiamy cię serdecznie
i również dobrej nocy.
Już w pół do pierwszej prawie.
Przechodzimy do kolejnego tematu, tym razem temat od Piotra.
Nowa aplikacja, tym razem aplikacja do Mastodona.
I to nie na telefonie, nie na komputerze, nie na tablecie,
a na zegarku, na Apple Watch konkretnie.
Ja czekałem, kiedy coś takiego się pokaże, szczerze mówiąc,
bo naprawdę całkiem sporo pojawiło się aplikacji na Mastodonem
na różne platformy, zarówno te współczesne, jak i te retro,
nawet na DOS-a, na starego Maca, na Windowsa 95, chyba nawet ktoś zrobił klienty.
No a teraz przyszła kolej na zegarek Apple Watch.
Aplikacja została stworzona przez osobę, którą możecie zresztą pamiętać, bo aplikację
stworzył pan Will Bishop, który wcześniej stworzył taką aplikację, która też była
całkiem fajna i lubiana w środowisku, a mianowicie aplikację Chirp, która była
klientem dla Twittera, dla Apple Watcha i nie tylko zresztą, bo też zrobił
aplikację do Wikipedii, do Reddita i chyba tam do czegoś jeszcze.
Natomiast jeśli chodzi o Czerpa, no to miałem okazję też tą aplikację testować i
pomagałem mu w
dopracowaniu dostępności, bo w pierwszych wersjach to tam było bardzo słabo, ale
później naprawdę to dostępność się całkiem fajnie poprawiła.
Później aplikacja została przeprojektowana i tam w ogóle było jeszcze lepiej, bo były
czynności, więc jak dowiedziałem się, że nie dość, że Will jest na Mastodonie,
a jeszcze stworzył do niego aplikację, to się naprawdę ucieszyłem, no i ściągnąłem ją sobie.
I jak to wszystko wygląda? Logujemy się na iPhone, więc nie musimy tutaj męczyć się na
skanowanie kodów czy takich rzeczy, po prostu otwieramy aplikację na
iPhone, wpisujemy swoją instancję, przechodzimy przez autoryzację tak
standardowo, no i wtedy aplikacja przesyła nasze dane na zegarek, no i wtedy już
po prostu na iPhone widzimy komunikat kontynuuj na zegarku, więc bierzemy
zegarek, otwieramy sobie i co możemy robić?
Możemy sobie przeglądać główną oś czasu naszą, możemy przeglądać powiadomienia,
możemy przeglądać wzmianki, mamy dostęp do list, do wyszukiwarki, do wiadomości
bezpośrednich, no i oczywiście
jeśli chodzi o same posty, no to
możemy na nie odpowiadać, możemy
je podbijać, możemy je polubiać,
możemy nawet sobie wchodzić w jakieś
linki, które są w tym, w tych postach,
bo wcześniej Will stworzył taką
przeglądarkę na zegarek, więc tam
spokojnie nawet można jakiś
artykuł, oczywiście linki do
użytkowników czy hasztagów
otwierać, powiększać sobie zdjęcia
i w ten sposób z tym pracować.
Możemy oczywiście też nowe posty pisać.
Natomiast dostęp do takich bardziej zaawansowanych funkcji, tutaj właśnie
między innymi chodzi o pisanie, o odpowiadanie, o wiadomości, o listy, o
wyszukiwarkę, to jest wszystko dostępne za opłatą.
I tutaj jeśli chodzi o tą płatę to jest też coś co wróciło z czerpa, bo tutaj to
zostało rozwiązane w bardzo ciekawy sposób, mianowicie płacimy tyle ile chcemy
chcemy, bo aplikację możemy zakupić albo zakupem jednorazowym i tutaj mamy
dowolność możemy zapłacić albo 15 albo 50 zł tam 14,99 i 49 bodajże z hakiem
lub możemy sobie wykupić subskrypcję i tutaj możemy zapłacić albo 4,99
miesięcznie lub lub 50 zł rocznie więc tutaj możemy testować jak chcemy
wesprzeć autora tam też chyba jest osobno taki tip jar więc jeśli chcemy
później jeszcze dopłacić coś, to można to też w ten sposób zrobić.
No fajnie, jak ktoś lubi subskrypcję, to może sobie subskrybować,
jak ktoś bardzo nie lubi, chce sobie jednorazowo taką aplikację kupić,
to powie, że będzie dużo z Apple Watcha pisał, no bo na tych nowszych
zegarkach, no to oprócz dyrektowania mamy też klawiaturę ekranową, też
można z linki brylowskiej na przykład pisać z klawiatury bluetooth, jak ktoś chce,
więc można w ten sposób, no to może się zainteresować.
Natomiast jak z dostępnością tej aplikacji?
No niestety trochę się rozczarowałem, szczerze mówiąc, bo myślałem, że
jak już jego poprzednie aplikacje były tak fajnie dostępne, tutaj też
będzie fajnie.
No tragicznie też nie jest, bo przyciski generalnie są zatykiadowane,
natomiast jeśli chodzi o samo doświadczenie z czytania postów,
no to mogłoby być lepiej, bo te posty są rozbite na kilka
elementów. Mamy najpierw osobno autora, jego awatar, potem mamy czas, kiedy ten post został napisany, no i później mamy
treść tego postu, a później mamy jeszcze przycisk podbit, który jest nieopisany, znaczy jest odpisany, opisany jako
taką ikonkę, tam jest jakieś głosowe czy też jakiś kwadracik z czałką chyba, tak dziwnie to jest czytane.
Mamy osobno przycisk polub i później mamy informację ile razy post został podbity i polubiony, więc przebijanie
się od postu do postu trochę zajmuje, przydałyby się tutaj czynności.
Też niestety aplikacja w żaden sposób nie informuje nas o opisach alternatywnych,
więc jeśli jakieś zdjęcie ma opis alternatywny, to VoiceOver nam go niestety
nie przeczyta i nie możemy też klikać w linki.
Mimo to, że VoiceOver mówi nam, że coś jest linkiem co ciekawe w treści postu,
no to na pokrętle nie wyświetla nam się opcja linków.
No i oczywiście też nie mamy ich po czynnościami, więc niestety na razie nie da się z tym nic zrobić.
Już napisałem do autora, do Willa, mam nadzieję, że coś mi odpisze, zresztą nie tylko ja z tego co widziałem, tam kilka osób się już do niego zwróciło.
To było kilka dni temu i jeszcze odpowiedzi nie dostałem, ale mam nadzieję, że jakaś aktualizacja się pojawi, która tą dostępność trochę dopracuje.
Mam nadzieję, że chociażby czynności się pokazały i żeby to opisy alternatywne były czytane, myślę, że to są najważniejsze rzeczy w tym momencie i trochę tą nawigację sobie uprościć.
Natomiast jeśli ktoś szuka takiej aplikacji, to myślę, że warto się nią zainteresować, bo już zapowiada się całkiem ciekawie, a miejmy nadzieję, że będzie jeszcze lepiej i bardziej dostępnie.
Chyba też Mono miała aktualizację i też doszła opcja Jonathan.
Nie może się nachwalić. Ja w sumie nie do końca widzę, w czym dzieło.
Bo chodzi o to, że można odwrócić osie czasu, że one idą jakby przewijając na początek.
Mamy najstarsze wpisy.
No i ja rozumiem jakby o co chodzi, że można od tych starszych do tych nowszych,
czyli jakby chronologicznie sobie nadganiać te wpisy.
No tylko, że po pierwsze, jak ja przesunę do najstarszych, to ja mam jakieś rzeczy w ogóle sprzed kilkunastu godzin.
Najlepiej byłoby, jakbym miał jakiś gest przeskoczenia do tej luki, którą mogę sobie wypełnić czasowej.
Bo ja czasami otwieram sobie np. monet, tylko po to, żeby jakieś powiadomienie sprawdzić. On już nie zdąży zaciągnąć wpisy.
No i potem jest to troszeczkę mieszanina, jak sobie otwieram, nie wiem, trzy razy dziennie i potem wieczorem chcę zobaczyć to, co się działo właśnie teraz wieczorem.
No a z drugiej strony też jest bag jak przewijam na sam szczyt, bo to można stuknąć w zakładkę głównej i ona się wtedy przewija na samą górę.
No to mi się wykrzacza ta mona, więc tam jeszcze jest to jakieś niedopracowane troszkę, no ale jest mona i można odwracać te osie czasu, żeby one szły od najstarszych do najnowszych.
No i cóż, zbliżamy się powolutku już do końca naszego dzisiejszego tyflo przeglądu numer 165.
Pawle, ostatnia informacja w naszych notatkach należy do ciebie.
Jeżeli ktoś używa FFmpeg albo chciałby używać, to teraz powinien posłuchać uważnie.
Tak, bo właśnie przez Mastodona trafiłem na taką aplikację jak ffmpeg.app.
No adres pełen to jest def.ffmpeg.app.
No i jest to taki interfejs do ffmpega.
Nie dotarłem jeszcze do tego, czy jest to interfejs, który gdzieś tam w chmurze sobie lata,
czy on działa po prostu jako aplikacja webowa na naszym komputerze lokalnym.
Natomiast pozwala on nam na wykonywanie różnych rzeczy, na które pozwala FFmpeg
poprzez wyszukanie odpowiedniego polecenia.
No i jest pole edycji, piszemy w nim, nie wiem, na przykład
CONVERT AUDIO TO MP3.
No i on nam wyświetla to jako polecenie, jako podpowiedź.
Możemy sobie w to kliknąć.
To się wyświetla pod tym polem edycji.
Niestety nie można sobie strzałką wybrać z pola edycji,
Trzeba wyjść z trybu formularzy i sobie przejść po stronie i znaleźć.
Autor zresztą pisał, że dostępność będzie poprawiana,
że to jeszcze nie jest tam, gdzie powinno być.
No i potem, gdy wybierzemy to polecenie, to możemy załadować plik,
na którym chcemy tą operację przeprowadzić, jakieś tam dodatkowe parametry skonfigurować.
I operacja się zaczyna.
Jest to jakieś ułatwienie, aczkolwiek takich interfejsów już chyba trochę jest.
Ja tam widziałem różne polecenia. Wyciszanie dźwięków audio, dodawanie jakichś tam ścieżek audio do wideo,
jakieś konwertowanie, ale tylko do mp3 z jakiegoś powodu, jakieś re-encodowanie jakimś innym kodekiem obrazu,
jakieś tam przycinanie wideo o konkretne piksele.
Niby się da, niby tych opcji jest trochę, ale chciałoby się więcej, zwłaszcza więcej formatów do konwersji.
A też fajnie by było jakby się dało zrobić kilka operacji naraz, bo mi kiedyś było potrzebne skonwertowanie całego folderu plików
do jakiegoś tam konkretnego formatu o konkretnych parametrach.
I żeby jeszcze pozmieniać tym plikom nazwy na według określonego klucze z jakimiś tam regaksami.
Ciekawe czy nie pomógłby w tym bardziej niż takie narzędzie, po prostu chat GPT.
GPT, no teraz pewnie tak. Teraz pewnie już tak.
Wtedy to było kilka lat temu, no chata GPT nie było.
Natomiast, no właśnie.
Tutaj jest takie narzędzie. Ono się pewnie będzie rozbudowywało.
Więc z czasem zobaczymy jakieś jego tam jeszcze nowsze wersje.
I wygląda na to, że to wszystko.
A dziś, ale jeszcze tradycyjne pytanie, czy ktoś coś chciałby jeszcze dorzucić do tej naszej audycji?
No, ja będę miał dźwięczek, jako że mamy długą audycję.
A, to już?
Tak, ja będę miał dźwięczek bonusowy dla wszystkich, którzy zostali. Już dawno tego nie mieliśmy, bo audycje były, no…
Krótsze.
krótsze, a teraz mamy dość długą, w związku z czym ja mam dla Was dźwięczek.
Rozpoczęto audycja z Audacity, puszczam co następuje.
Będzie dzisiaj krótko, ale treściwie.
Odtwarzaj przygód.
To było bardzo delikatnie słychać w tle, takie trrrr, trrrr.
To było światło na przejściach dla pieszych w Wenecji.
Tak, nagranie jest moje. W Wenecji byłem przy okazji urlopu we Włoszech jakieś dwa lata temu.
I tam takie mają światła na przejściach dla pieszych, które brzmią jak dzwonek telefonu komórkowego.
No bardzo ciekawe, nie wiem czy w całych Włoszech tak to jest.
Możesz to odtworzyć jeszcze raz?
Bardzo chętnie.
Uwaga, niestety nie mogę głośniej, bo tam było ten, więc niestety tak się cicho nagrało, ale trzeba się wsłuchać.
Odtwarza ich.
Jest, ale dopiero jak powiedziałeś na co zwrócić uwagę, to dopiero się wsłuchałem i dopiero to wysłyszałem, więc dlatego prosiłem o to powtórne odtworzenie.
Tak, nie ma problemu, to nagranie jest też właśnie, no mogłoby trochę głośniej wyjść, ono jest też binauralne, natomiast oczywiście nadajemy w mono, więc jakby to nie zostało uchwycone.
Bardziej było słuchać te walizki toczące się i tam jakichś nawet ludzi, którzy coś tam sobie rozmawiali.
A czy jakbyś udostępnił dźwięk w stereo, tam zaznaczył w opcjach udostępniania dźwięku, to chyba by nawet się odtworzyło w stereo.
Tak, a my streamujemy w stereo?
Tak.
Aha.
No to mogę sobie takiego zrobić.
Spróbuj.
Bo to jest pytanie, czy ja mogę…
Tam masz opcję udostępniania dźwięku i tam jest przycisk taki rozwijany.
Dźwięk, wiem, dźwięk.
Stereo.
Stereo, wysoka jakość.
Tak jest.
Rozpoczęto.
Zaraz udostępniam.
I sprawdźmy.
Odtwarzaj przycisk.
No.
Można by lepiej było słyszeć.
Dokładnie, dokładnie. Teraz poszło.
No dobrze. No to za trzecim razem się udało
i fantastycznie.
No takie tam są światła.
W ogóle Włochy są ciekawe pod kątem świateł.
czy w ogóle przejść dla pieszych, przynajmniej w Rzymie, nie pamiętam już teraz, czy Wenecja też to ma,
bo tam linie prowadzące nas od ulicy prowadzą aż pod murek,
gdzie możemy laską już stukać.
Więc jest to bardzo ciekawe. Co prawda nie widziałem…
Gdzie ja to widziałem?
W którymś mieście były linie prowadzące przez ulicę.
W sensie, że przez przejście dla pieszych idziemy i są linie prowadzące po prostu na ulicy.
Ale to chyba nie było we Włoszech. Nie pamiętam.
A może? Natomiast…
No ciekawe, że te światła nie są jakoś ustandaryzowane, że każde miasto na świecie w ogóle jakoś po swojemu.
Z jednej strony jest to fajne, z drugiej strony jak ktoś jest bardzo kreatywny, no to trzeba się naprawdę
przyzwyczaić i nauczyć, czy jest czerwone, czy jest zielone, kiedy jest czerwone, a kiedy zielone,
jak to wszystko aktywować i tak dalej.
No ale tutaj mamy taki właśnie taki elektrycznie taki dzwoneczek, jak w telefonie, więc no.
Ja już się napalam, muszę tylko się do źródła dokopać, a źródło chyba będę miał.
Bo Budapeszt ma ciekawe, ma ciekawe światła, które brzmią jak jakaś gra komputerowa, takie wium, wium, wium.
Nie mogę się doczekać. Myślę, że będę w stanie jakoś tam nagranie z Budapesztu pozyskać.
I w którymś Tyflo Przeglądzie je zaprezentujemy, jakimś takim długim.
Zobaczymy jaki będzie następny Tyflo Przegląd. Na żywo na pewno spotkamy się za dwa tygodnie.
Czy będzie coś wcześniej to ustalimy sobie jeszcze gdzieś tam poza anteną.
Na dziś wam bardzo serdecznie dziękujemy
za to, że byliście z nami, że nas słuchaliście i że jeszcze nie śpicie.
Nam dobrej nocy wam życzymy.
Mówiący te słowa Michał Dziwisz oraz Paweł Masarczyk, Piotr Machacz i Tomasz Bilecki,
który do nas dotarł jeszcze dziś na koniec.
Tak jest. Do usłyszenia.
To Tyflo Podcast, pierwszy polski podcast dla niewidomych i słabowidzących.
Program współfinansowany ze środków Państwowego Funduszu Rehabilitacji Osób Niepełnosprawnych.

Wszystkie nagrania publikowane w serwisie www.tyflopodcast.net są dostępne na licencji CreativeCommons - Uznanie autorstwa 3.0 Polska.
Oznacza to, iż nagrania te można publikować bądź rozpowszechniać w całości lub we fragmentach na dowolnym nośniku oraz tworzyć na jego podstawie utwory Zależne, pod jedynym warunkiem podania autora oraz wyraźnego oznaczenia sposobu i zakresu modyfikacji.
Przekaż nam swoje 1,5% podatku 1,5 procent Logo FIRR Logo PFRON Logo Tyfloswiat.pl

Czym jest Tyflopodcast?

Tyflopodcast to zbiór instrukcji oraz poradników dla niewidomych lub słabowidzących użytkowników komputerów o zróżnicowanej wiedzy technicznej.

Prezentowane na tej stronie pomoce dźwiękowe wyjaśniają zarówno podstawowe problemy, jak metody ułatwienia sobie pracy poprzez korzystanie z dobrodziejstw nowoczesnych technologii. Oprócz tego, Tyflopodcast prezentuje nowinki ze świata tyfloinformatyki w formie dźwiękowych prezentacji nowoczesnych urządzeń i programów. Wiele z nich dopiero znajduje sobie miejsce na polskim rynku.

Zapraszamy do słuchania przygotowywanych przez nas audycji i życzymy dobrego odbioru!

Tematyka

Pozycjonowanie i optymalizacja stron internetowych