TyfloPrzegląd Odcinek nr 237 (wersja tekstowa)
Pobierz napisy w formacie SRT
Pobierz napisy w formacie VTT
Fundacja Instytut Rozwoju Regionalnego prezentuje
Tyflo Podcast
Muzyka
Dzień dobry Dzień dobry troszkę to tak śmiesznie
zabrzmiało na początku, gwoli wyjaśnienia wygenerowane
przez Suno, troszkę się tym bawiłem i wybawiłem coś takiego.
I po to właśnie słuchajcie, powstała sztuczna inteligencja,
te serwery grzeją się właśnie dla takich dzieł.
Dla takich dzieł, to tu jest taki trochę inside joke.
Natomiast, natomiast…
Pozdrawiamy Grzegorza i Edwina.
Tak jest, tak jest, a teraz już na poważnie,
Tyflo Przegląd, 237 audycja dzisiaj, Paweł Masarczyk, Piotrek Machacz i Michał Dziwisz i ja, czyli Tomek Bilecki, dzisiaj bierzemy w audycji udział.
No i zaczynamy oczywiście od tego, o czym dzisiaj będziemy mówili, a o tym o czym dzisiaj będziemy, to co dzisiaj będziemy mówić, no to przedstawię Michał.
W tym tygodniu w Tyflo Przeglądzie.
Sztuczki ułatwiające prace z aplikacją YouTube na iOS.
Lotnisko w Stambule zaoferuje wsparcie dla osób niewidomych poprzez rozmowy wideo.
Wracamy do nowości Apple.
Stations, odtwarzacz radia internetowego z ciekawymi możliwościami.
Nowości w dodatkach dla NVDA.
Narzędzie do łatwego tworzenia i udostępniania schematów dźwiękowych w systemie Windows.
Dalsze nowości z Sight City.
Nowości w grach.
Rozmowy głosowe na WhatsAppie i w Messengerze będą brzmieć lepiej nawet na słabych łączach.
Odczytywanie stron na głos nadchodzi w Chrome’ie na Androida.
Niebawem zapłacisz Apple Pay w każdej przeglądarce, nawet na Windowsie.
Wszystko to, a pewnie jeszcze więcej już za chwilę.
Zaczynamy!
Tyfl Przegląd jest audycją na żywo,
dlatego zapraszamy Państwa do kontaktu z nami na różne sposoby.
Można zadzwonić pod numer 663-883-600,
powtarzam 663-883-600,
lub wysłać pod ten numer wiadomość głosową na WhatsAppie.
Można również napisać do nas wiadomość tekstową,
używając formularza na stronie
kontakt.tyflopodcast.net lub aplikacji na system Windows od Dawida Piepera.
Czekamy również na kontakt pod transmisjami na Facebooku oraz YouTubie.
Staramy się także zaglądać na nasz tyflopodcastowy serwer Discorda.
Zachęcamy więc Państwa do dzielenia się z nami newsami, pytaniami czy komentarzami.
No i zaczynamy w takim razie od
sztuczek, które mogą ułatwić pracę z aplikacją YouTube na system iOS.
Zgadza się i te sztuczki pochodzą z jaj, poznałem dzięki czeskiej społeczności osób niewidomych.
Jedna z nich pochodzi od youtubera Karela Gibisza,
zaś drugą przedstawił jeden z prowadzących podcast Steczko Plus,
więc tu serdeczne dzięki, bo wiem, że czasem ekipa nas słucha, Steczka,
więc dziękujemy bardzo tutaj za udostępnienie tego typu materiałów.
Ja już tłumaczę o co chodzi.
Przestawię tylko, bo jeszcze tego nie uczyniłem.
Syntezę na bardziej zrozumiałą dla większości.
Jestem sobie na YouTubie.
Jestem sobie otwarty, mam tylko podcast chyba o Prometheus Wars,
o tej grze, która niedawno była tutaj omawiana.
No i ja go sobie odtworzę.
Odtwórz przycisk.
Odtwarzacz wideo.
On sobie leci.
I teraz to co ja zrobię,
ja go już za chwileczkę puszczę dalej.
Słyszeliście, że mam podświetlony
taki element jako odtwarzacz wideo.
Ja go stuknę dwa razy z przytrzymaniem
i okaże się,
że film
będzie przewijany, ale na podglądzie,
czyli będzie go słychać w przyspieszeniu.
I to jest taki sposób na to, żeby
Troszkę szybciej sobie przewinąć film, ja już go zaprezentuję.
Moment.
Tu odtwarzamy.
Tak, tu coś chwilowo nam nie…
Czasem to nie chce działać, tu trzeba mieć odtwarzacz w widoku pełnego ekranu
i wtedy to się uda.
No nic.
Teraz mi się to jakoś nie bardzo chce udać,
natomiast wiem, że jak jest chyba bardziej pełnoekranowy
widok odtwarzania, to wtedy
ta sztuczka jak najbardziej działa i rzeczywiście wtedy
słychać trochę, że ten podcast idzie trochę szybciej.
Spróbuj może sobie najpierw stuknąć w ten
odtwarzacz dwa razy, wtedy zniknie ten przycisk
wstecz i być może w takim widoku.
Nastuknąłem.
I teraz ten
dwukrotny przytrzymanie być może teraz to zadziała.
Nie wiem.
No tak się zaczynają.
Zaczęliśmy mówić o Apple i opowiadaliśmy o tym co tam
ciekawego jeżeli chodzi o te WWDC konkretnie otwierające
to wydarzenie Kinopód a tym razem będziemy mieć coś dla
I rzeczywiście, tak zrobiłem jak Tomku mówisz, czyli najpierw stuknąłem dwa razy w odtwarzacz na zatrzymanym filmie,
potem dałem odtwarzanie, aby go odtwarzać dalej i znowu ten odtwarzacz wideo, ten element z odtwarzaczem przytrzymałem,
stuknąłem dwukrotnie z przytrzymaniem i słyszeliście, że póki trzymałem palec na ekranie, Michała było słychać w przyspieszeniu
i film się posuwał bardzo szybciej do przodu.
Tylko jedna rzecz. Teraz, żeby zamknąć ten odtwarzacz, to trzeba z powrotem wrócić do tego mniejszego odtwarzacza, czyli znowu stuknąć w niego dwa razy, bo teraz nie ma tego przycisku wstecz.
No tak. Ja go teraz też nie widzę, ale okej. Powiedzmy, że to mamy.
I teraz musisz właśnie dwa razy w ten odtwarzacz normalnie stuknąć i wtedy ten przycisk się pojawi.
Odstuknąłem i teraz idę w lewo, a on mi się tu zresetował.
Zniknęły te przyciski chyba te takie, tak, zniknęły te przyciski, tam przewiń do tyłu, przewiń do przodu, odtwórz, ale wstecz nie widzę.
A to ciekawe, bo mnie to działa właśnie w taki sposób, że ten przycisk wstecz się pojawia.
No widzisz.
Ciekawe.
No, natomiast czy ja tą sztuczkę polecam sam, w sensie czy ja bym jej używał.
Wydaje mi się, że sposób Michała jest trochę szybszy na przesuwanie się, o którym Michał
przedstawił kiedyś w Tych To Przeklądzie, jest dużo szybszy na to, jak się przemieszczać
po większych odcinkach czasowych.
Czyli przypomnijmy może to przy okazji.
Tak, Michał, a to ty, bo mi to nie chciało nigdy działać, ja jakoś nie umiem.
Chyba, że teraz mi pokażesz jak.
No potrzebny jest do tego na pewno YouTube Premium, bo musimy to wykonać, ten gest
na tym odtwarzaczu, który jest, wiesz, na ekranie
blokady.
Eee, tak, okej.
Więc to dlatego prawdopodobnie nie chciało Ci działać.
I to na tym odtwarzaczu, który jest na ekranie blokady,
gdzie mamy ten pasek, który teoretycznie
powinien działać…
A z centrum sterowania to nie zadziała?
Wiesz co, tego nigdy nie próbowałem, powiem szczerze.
Natomiast ten pasek, który teoretycznie
przesuwamy palcem w górę i w dół,
to stukamy dwa razy z przytrzymaniem
i nie w górę i w dół, tylko przesuwamy w prawą stronę albo w lewą stronę.
Czyli tam gdzie czas upływa.
Tak, dokładnie.
I tu o zdecydowanie większą jednostkę czasu jesteśmy w stanie się przemieszczać w bardzo szybkim tempie,
więc trzeba naprawdę dosyć delikatne ruchy po tym ekranie wykonywać,
bo można bardzo szybko dotrzeć do końca materiału, nawet który trwa kilka godzin.
Skoro podajemy takie rzeczy, to jeśli ktoś nie wie, podobne rzeczy można robić też na wersji przeglądarkowej.
Jest kilka skrótów klawiszowych, o niektórych możecie wiedzieć dlatego, że one są napisane na przyciskach, na przykład pauza to jest K,
ale oprócz tego możemy też naciskać J i L. L przewija do przodu, J do tyłu o chyba jakieś 10 sekund, ale to nie jedyne skróty,
bo też cyframi od 1 do 0 możemy przeskakiwać o 10%, więc 1 to jest 10% filmu, 2 to 20% i tak dalej, i tak dalej.
I możemy też sobie zmieniać szybkość odtwarzania bardzo szybko, mianowicie Shift kropka przyspiesza, a Shift przecinek zwalnia,
więc też można sobie, nie wchodząc z tego menu ustawy i tam rozwijając pod menu szybkość, nawet może nie wszyscy wiedzieli,
że można na YouTubie sobie materiały przyspieszać, no można, właśnie w aplikacji
mobilnej to musimy właśnie z tego przycisku więcej opcji robić, no a w wersji
przeglądarkowej wystarczy właśnie nacisnąć shift kropka kilka razy
i otworzenie nam się przyspieszy.
Tak, a gdyby ktoś nie pamiętał tych skrótów, to jeżeli naciśniemy znak
zapytania na stronie, to te skróty nam się pokażą.
No to skoro jesteśmy przy desktopie, ja jeszcze do mobilnej wersji wrócę za
chwilkę, bo mam jeszcze jedną sztuczkę dla was,
to nie wiem czy wy znacie taki skrót w NVIDIA jak NVIDIA, czyli no albo insert albo caps lock, NVIDIA shift spacja, włączanie lub wyłączanie szybkiej nawigacji. Używaliście kiedyś?
Nie.
To jest skrót NVIDIA, który on nie włącza nam trybu formularza, tylko on wyłącza nam te klawisze, które służą do nawigowania po elementach strony, te literki i sprawia, że możemy ich użyć normalnie na stronie,
czyli my możemy strzałkami dalej nawigować sobie po całej strukturze strony
i tam homem, endem, page up, page down i tak dalej możemy chodzić po stronie,
ale litery już nie nawigują nam tam na główkach, tabelach, listach,
tylko używane są do tego, do czego zostały stworzone przez daną stronę.
Czyli no właśnie, na YouTubie na przykład przewijają film,
na Twitterze, na iksie jeszcze chodzą po tweetach, póki ta opcja nie padnie,
na Facebooku chyba też jeszcze są te skróty do chodzenia po statusach,
No więc można szybko Insert Shift Spacja, wyłączyć to, pochodzić gdzieś tam, dotrzeć do jakiegoś momentu, Insert Shift Spacja, znowu to włączyć, a jednocześnie jakbyśmy chcieli przejść gdzieś kawałek dalej na stronie, to w każdej chwili możemy użyć strzałek Page Up, Page Down, nie trzeba koniecznie wyłączać i włączać w te i we w te trybu przeglądania i trybu aplikacji, czy też trybu focusa, formularza, zwał jak zwał.
No więc taki skrót jest NVIDIA też.
Ja też nie wiedziałem, dopiero jak zacząłem czytać dokumentację to się przekonałem.
Taki fajny skrócik.
No a jeszcze druga sztuczka wam obiecałem.
No i druga sztuczka dotyczy tego jak szybko,
no bo ta aplikacja YouTube’a nam się z czasem bardzo rozrosła,
kiedyś wiele rzeczy było jednym elementem,
teraz się to rozpadło na 3-4 jak tak się przesuwamy po aplikacji.
No więc ta aplikacja trochę nam się tutaj rozbudowała
zbudowała i stała się troszkę mniej
przyjazna w nawigacji.
No więc pytanie jak szybko dotrzeć do
tego żeby dany film polajkować albo kanał zasubskrybować.
No przyda nam się funkcja kontenery.
Ja bardzo rzadko z niej korzystam na
iPhonie bo to są jakieś bliżej nieokreślone w większości aplikacji
obszary on tam skacze mam wrażenie co jakiś procent ekranu.
Natomiast to jest
no i na YouTubie na szczęście nie wiem czy to przypadkiem coś ten czy to zostało
zaprojektowane przez Google, można kontenerami się przesunąć bezpośrednio do tego obszaru,
gdzie mamy lajki i subskrypcje i tak dalej.
No i jak to robimy? Przestawiamy nasze pokrętło na kontenery.
Odpowiedzi, złagodzeń, głośno, szybko, wyraz, znaki, opisują, rozpozna, nawigacja, wpierdla, kołówki, kontenery.
I teraz palcem w dół.
Ten film podoba się mnie i jeszcze zero innym osobom. Przycisk.
Od razu jestem na przycisku do lajkowania.
No mogę też nie polubić tego filmu, jak bardzo bym chciał. Łapka w dół.
Ten film mi się nie podoba. Przycisk.
Dokładnie.
Ten film podoba się mnie i jeszcze zero.
Ale w lewo idąc mamy.
Opcja. Przycisk.
I dlatego, że ja już subskrybuję Tyflo Podcast, no to ja mam przycisk opcje i tu mogę sobie ustawić ten tak zwany dzwoneczek,
czyli czy chcę dostawać powiadomienia o każdym filmie, który zostanie wrzucony na kanał Tyflo Podcastu,
czy tylko o jakichś tam wybranych przez algorytm, czy o żadnych.
Tu mogę zadecydować ale jeżeli to jest zupełnie nowy dla Was kanał to w tym
miejscu pojawi Wam się przycisk subskrybuj no bo tu w lewo mamy przycisk
dokładnie przycisk który pozwala nam przejść bezpośrednio na kanał gdybyśmy
chcieli przeczytać jego opis albo przejrzeć więcej filmów od danego kanału i tak
dalej. No a jak możemy dojść szybko do komentarzy po nagłówkach więc albo
przekręcamy pokrętło na nagłówki.
No ja tego nie muszę w sumie robić bo ja sobie przypisałem w voiceoverze gest w
ustawieniach, cztery palce góra-dół, przesuwa mnie pomiędzy nagłówkami, więc jak ja teraz cztery palce w dół machnę, to już jestem przy komentarzach.
No i czyż nie jest dużo prostsze przeglądanie aplikacji YouTube w ten sposób?
Przy okazji przejrzyjcie swoje ulubione aplikacje, może i tam znajdziecie jakieś ciekawe albo kontenery, albo nagłówki, kto wie.
Tymczasem mamy już pierwszą wypowiedź od Was, wypowiedź na Whatsappie.
Sylwester nagrał nam kilka słów.
Mam takie pytanie w sprawie klawiatury Microsoft Swing, którą ja zainstalowałem na Samsungu.
Niestety jest taka sama jak samsungowa, niczym się nie różni.
i ja wraz używam klawiatury Gboard od Googla, bo tam jest przycisk pisolnia głosowego, a ta Microsoft Swing to jest to samo co Samsung i nie ma sensu jej używać, bo ja testowałem.
A czy będziecie w wakacje na żywo? Proszę o to pytanie.
Będziemy na żywo sylwestrze.
Poza wyjątkami, kiedy bierze, ktoś z nas bierze urlop.
Oczywiście, ale to absolutnie my sobie wakacyjnych urlopów nie bierzemy, takich pełnowakacyjnych,
bo wiadomo, to jest czas, gdzie rzeczywiście od czasu do czasu przydałoby się wypocząć,
ale spokojnie, tyfloprzeglądy będą się ukazywały, jeżeli nie w pełnym składzie,
no to w jakimś uszczuplonym, ale będziemy.
A co do Swypa, Swifta przepraszam, mi się te klawiatury często mylą, Swypa już nie ma.
Swifta, Microsoftu, to czy na pewno udzieliłeś tej klawiaturze zgody na to, żeby była twoją klawiaturą, bo to trzeba w Androidzie zrobić,
najpierw udzielić zgody, żeby ona mogła wpisywać w polach edycji, a później się na nią przełączyć.
Domyślam się, że tak, bo z tego co mówisz, używałeś jej, czyli przestawiłeś się na nią i ona była dla ciebie taka sama jak samsungowa.
Ale dla pewności pytam, bo na Androidzie jest troszkę bardziej skomplikowane, na iPhone’ie trochę też, ale to jest zawsze ten ekstra krok, który trzeba podjąć.
Z drugiej strony, to też w sumie może być całkiem ciekawa informacja dla ludzi, którzy lubią klawiatury Samsung,
ale nie mają telefonów Samsunga, no to być może klawiatura Microsoftu byłaby tutaj jakimś rozwiązaniem.
Nie wiem jaka ta klawiatura Samsunga jest, czy ona jest fajna, czy nie do końca, no ale w każdym razie tak to, no to może też być jakaś ciekawostka.
Przechodzimy do Stambułu, bo tam na lotnisku w ciekawy sposób można uzyskać pomoc.
Dokładnie, bo zacznijmy od tego, że kiedy to lotnisko w Stambule przeszło renowację kilka lat temu,
no to stało się takie bardzo współczesne do tego stopnia, że chwalą się tym, że mają aplikację,
którą każdy może sobie pobrać i ta aplikacja nam daje różne możliwości, między innymi
pozwala na jakąś nawigację wewnątrz tego lotniska. Możemy w łatwy sposób uzyskać różne informacje.
Nie wiem jak jest dostępnością tej aplikacji, jak na przykład ta nawigacja działa, natomiast
Można mieć nadzieję, że nie jest źle, biorąc pod uwagę informację, która pojawiła się teraz, to już jest informacja z tego roku,
bo lotnisko podpisało umowę z jednym z głównych telekomów, operatorów telefonii w Turcji, Turkcellem, na uruchomienie Centrum Wideorozmów, które będzie czynne 24 godziny na dobę.
dla osób zarówno niesłyszących i niewidomych, słabowidzących.
Będzie można wdzwonić się właśnie z poziomu tej aplikacji.
I co nam to pozwoli?
No po prostu będziemy mogli w każdej chwili poprosić o asystę.
Między innymi tutaj jest powiedziane, że można to połączyć z tą funkcją
root with me, czyli tej nawigacji wewnątrz
tego lotniska.
Albo, przypuszczam, też po prostu poprosić o asystę.
No bo…
pewnie nie każdy czułby się na tyle pewnie, żeby gdzieś
iść przed siebie z wyciągniętym telefonem, natomiast
też można w tej sprawie poprosić o pomoc.
Przypuszczam, że gdyby było trzeba jakiś
tekst przeczytać albo, nie wiem, znaleźć
na przykład jakąś restaurację, jakieś biuro,
którego akurat potrzebujemy, no to myślę, że ta obsługa
też będzie nam w stanie w tym pomóc, będą mieli też bieżące informacje na temat
wymiany walut, inne wsparcie dla osób niesłyszących, będzie też możliwość
komunikacji przez język migowy, będą mogli pracownicy tego centrum korzystać
z udostępniania ekranu, więc mogą nam pomóc jakieś informacje na może jakiejś
internetowej znaleźć, więc może w sytuacji gdyby np.
aplikacja jakiejś linii lotniczej coś było dla nas niedostępna, to może dałoby się
w ten sposób nawet poprosić o pomoc.
No i tutaj
z głównie ten artykuł jest poniekąd też reklamą dla tego właśnie operatora Turkcell,
bo chwalą się, że mogą takie usługi też zaoferować innym firmom, jeśli ktoś byłby
zainteresowany, czy uruchomić coś takiego, co nie zmienia faktu, że wydaje mi się
pomysł jest fajny, jeśli aplikacja oczywiście jest dostępna, bo mogą być
sytuacje, kiedy możemy potrzebować pomocy, gdzie akurat może asysty z
jakiegoś powodu nie ma, czekamy na nich, albo potrzebujemy pomocy w jakiejś inne
sprawie, a akurat jesteśmy na tym lotnisku w Stambule sami, no to jak
najbardziej myślę, że warto tą aplikację ściągnąć i zobaczyć jak to jest z jej
dostępnością.
Ciekawe czy na jakiś czas nie
będziemy widzieli podobnej,
podobnych funkcjonalności w innych
lotniskach. Gdzieś w Stanach zwłaszcza
chyba na wielu
lotniskach zostały podpisane umowy
z AIRA na przykład i tam możemy
się za darmo dzwonić
do wsparcia
przez jednego z pracowników AIRA.
Tutaj
podjęto decyzję żeby zrobić to
w inny, wydaje mi się nawet równie
równie ciekawy sposób. Ciekawe czy gdzieś jeszcze
będziemy coś takiego za jakiś czas mogli zobaczyć.
Ja jestem ciekaw trochę innej rzeczy tutaj, mianowicie czy ta aplikacja i to
byłoby bardzo logiczne, ale mówisz o Aira, a to niestety dla mnie już logiczne nie
jest, będzie dostępna dla podróżnych z innych krajów, bo jakby nie było taka
pomoc na lotnisku, no to w takim miejscu właśnie jak lotnisko, no to wypadałoby,
żeby była dostępna dla jak najszerszej liczby użytkowników.
No a AIRA jest sama z siebie limitowana do krajów anglojęzycznych.
Oczywiście można jakoś się napocić i przez jakieś tam VPN-y,
wirtualne numery w Stanach i inne cuda do tej AIRY się dokopać,
ale gdybym ja miał teraz przylecieć na przykład na lotnisko gdzieś w Stanach…
No to mamy problem.
Mamy problem. Mam nadzieję, że tam dalej funkcjonuje tradycyjna pomoc.
Pewnie tak, bo to…
No tak, tak, ale…
Natomiast czy to czy ta stambulska
opcja będzie też dostępna dla przylatujących podróżników?
Przez to że to jest wszystko dostępne z poziomu aplikacji lotniska przynajmniej tak
porozumiem to raczej aplikacja lotniska będzie dostępna globalnie.
Wpisałem sobie nawet teraz
nazwę tej aplikacji i na polskim App Store ją widzę.
Okej no to super.
To jest właśnie kolejny plus tego rozwiązania.
Fajnie.
Ja już rozmawiałem z użytkownikiem niewidomym ze Stambułu, z Salichem Kunduzem,
administratorem portalu Accessible Android, który mieszka w Stambule.
I on już obiecał, że jak będzie opcja, że gdzieś będzie musiał z tego lotniska wylecieć,
to sprawdzi to rozwiązanie i trochę nam o tym opowie.
Więc mam nadzieję, że czegoś za jakiś czas się dowiemy w tej kwestii.
A tymczasem mamy pierwszy dziś telefon. Kogo witamy po drugiej stronie?
Witam serdecznie.
Witam serdecznie, Łukasz.
Witaj Łukaszu.
Słychać mnie?
Tak, słychać cię głośno i wyraźnie.
Dobrze, bo tak
dla ciekawości dzwonił właśnie
z telefonu
Smartvision 3 i ciekawe
jaka jakość.
Właśnie.
Jakość jest niezła.
Słychać cię po prostu
dobrze, wyraźnie.
Szybkie połączenie, czy Whatsapp przy okazji?
Zwykłe. Telefon, telefon, HD Voice.
No to czas na recenzję targów przemysłu tworzyw sztucznych w Kielcach Plastpol.
Jak zwykle trochę nowego się udało poznać.
Na przykład była maszyna do termoformowania próżniowego, czyli na takiej maszynie mogły powstawać wanny, brodziki, wanny z hydromasażem.
Działo to w ten sposób, że po prostu operator wrzuca płytę z tworzywa na stół.
Jest ona potem podgrzewana przez tak zwane piece, czyli takie potężne grzałki.
Dokładnie one są zbudowane z lamp halogenowych.
I po tym podgrzaniu grzałki podjeżdżają na swoje miejsce.
Następnie podjeżdża ta właściwa forma i wtedy włącza się pompa próżniowa
i po prostu dociska ten rozgrzany materiał do tej formy,
żeby nadać już określony kształt.
Ile wytworzenie takiego jednego kształtu trwa?
Mniej więcej koło 6-7 minut.
Zależy, jaka…
Tak, właśnie zależy, jaka właśnie wielkość.
Czy mamy coś małego, czy coś większego.
Bo mówisz o dużych formach, ale na przykład
ciekaw jestem, czy taki sposób byłby dobry
do tworzenia np. obudów, do urządzeń jakichś dla niewidomych,
zakładając, że tych urządzeń, no właśnie, no nie produkuje się
w milionach egzemplarzy, tylko no nie wiem, w setkach,
ewentualnie tysiącach.
No to w sumie dzięki za fajny pomysł, to jak będę za rok,
to właśnie z chęcią, z chęcią zapytam, bardzo ciekawe pytanie,
bo jakby zbudować właśnie taką formę, żeby nam nadawało ten,
kształt tej konkretnej obudowy, to powinno to być w miarę tanie właśnie.
Właśnie, bo pytanie, ile taka forma by kosztowała,
ile kosztuje stworzenie takiej formy,
ile by kosztowało, no, jakby właśnie zamówienie sobie takich,
no, tego typu rzeczy, no, bo być może, gdyby to było trochę tańsze,
nie wiem, no bo na razie z tego, co wiem, mamy albo druk 3D,
Czyli no tutaj naprawdę jakieś pojedyncze sztuki, no albo no przemysłowe formy, które są opłacalne przy naprawdę ogromnej liczbie egzemplarzy.
A to jak rozumiem, to jest coś trzeciego, tak? Czy to jest właśnie ten…
Tak, tak. To jest ten właśnie trzeci sposób.
No to może być ciekawe.
W ten sposób powstają właśnie wanny, czy też takie na przykład małe walizki plastikowe.
Też idzie na ten sposób formować.
Jest dosyć technologia właśnie ciekawa.
No i oczywiście wszystko jest sterowane przez komputer,
bo tam musi być bardzo dokładne to kontrolowanie tych temperatur,
grzanie, chłodzenie, no i co ciekawe,
no takie maszyny, no zużywają sporo,
prądu na przykład, no około 100, 100 kilowatów,
bo na przykład w samych tych, tych piecach, tych grzałkach
jest, około, pięciuset tych, halogenów właśnie, tak mi
tłumaczył właśnie operator, pracownik.
No tak, sam ten proces nagrzewania
podejrzewam, że jest dość mocno energochłonny.
Tak.
Tylko, że właśnie ta maszyna była super już innowacyjna, bo
ona miała co ciekawe nieco mniej tych grzałek,
ale za to robiła więcej
więcej przejazdów po tej płycie i moc już szło zmniejszyć do zaledwie 50 kilowatów.
No to co tam jeszcze ciekawego, Łukaszu, widziałeś?
No to już mówię, na przykład wytłaczanie z rozdmuchem, czyli po prostu produkcja butelek.
na przykład słynne butelki od Dafi w taki sposób powstają.
Czyli też mamy rozgrzewanie, tworzywa jest podgrzewane
i jest podawana przez ślimak i powstaje tak zwany rękaw,
czyli idzie taka rurka roztopionego właśnie plastiku.
Szło to nawet dotknąć tak bardzo szybko, trochę to przypomina właśnie gumę.
No i ten rękaw potem wchodzi do formy.
Forma się zamyka i potem wchodzą na rdzenie rozdmuchowe, gdzie podają sprężone powietrze.
i ten rękaw się rozszerza i po prostu jest dociskany do ścianek formy,
gdzie już jest nadawany ostateczny wygląd.
Potem załącza się chłodzenie, żeby to tworzywo zastygło
i następnie forma się otwiera i jest jeszcze odcinany taki właśnie naddatek
na górze i w ten sposób właśnie powstaje gotowa butelka.
I tak dla porównania, ile stworzenie takiej jednej butelki zajmuje?
Około 5-6 sekund.
No widzisz, a wanna 6 minut potrzebuje.
Tak, no bo zdecydowanie więcej tworzywa.
I tu jeszcze odpowiedź dla Michała.
A czym jest ta, jeśli się nie mylę, ciebie ciekawiła, ta właśnie elektrodrążarka.
Tak jest.
To jest maszyna właśnie do wykonywania bardzo precyzyjnego właśnie gniazd formujących tych kształtów.
Nie widziałem tego podczas pracy.
Ja to tylko widziałem na obrotce metali, jak to było zatrzymane.
Szło tam wszystko w środku podotykać, pomacać, ale działa to w ten sposób,
że po prostu w tym metalu się drąży rozgrzanym drutem, choćby spawalniczym.
Drut jest podawany, przepływa przez niego prąd
I po prostu jest wytapiany dany właśnie otwór czy dane gniazdo, to się porusza w trzech osiach X, Y, Z i właśnie tym idzie robić różne kształty.
I jak rozumiem to też w dość wysokich temperaturach musi pracować, tak?
Tak tak.
No to jest coś podobne do, prądu spawania tylko jest
troszkę mniej tych amperów, to jest jeszcze bardziej
precyzyjne, i na przykład, na tej butelce było już,
wypłacone logo firmy, No i na tej formie szło, szło
właśnie dotknąć, ten napis zrobiony już, wcześniej w
w oddziale narzędziowym właśnie za pomocą tej maszyny elektrodrążarki.
Okej, to coś jeszcze ciekawego Łukaszu?
Tak, tak, było jeszcze ciekawe.
Była pokazana przemysłowa drogarka 3D, na której powstawały plastikowe chwytaki
dla robotów przemysłowych, przypominające spinacze, takie coś jak mamy spinacze do parania.
Te chwytaki się składały z dwóch części.
Ta maszyna pracowała, no ale właśnie operator bardzo dokładnie to otłumaczył i też było fajnie,
bo było pokazane wiele różnych elementów,
co mogło powstawać na drokarce 3D.
Na przykład było pokazane,
w jaki sposób się gwintuje elementy drokowane,
żeby potem właśnie do nich wkręcić śrubę.
No to powiem, że to gwintowanie to jest w cudzysłów,
bo to polega na tym, że już jak mamy określoną liczbę warstw,
to na pewnym etapie dorkarka jest zatrzymywana,
operator wziuca w odpowiednie miejsce zwykłą sześciokątną nakrętkę
i następnie proces jest wznawiany.
Ta nakrętka jest bardzo dokładnie oblewana tym stopionym plastikiem,
tym filamentem i jak już mamy produkt właśnie końcowy, to możemy w niego w sumie wkręcać i wykręcać daną śrubę ile razy się chce, bo ta nakrętka jest po prostu wtopiona w ten plastik.
Ale tej nakrętki potem trzeba się jak rozumiem jakoś pozbyć, tak?
No, po prostu się ją wykręca.
Nie, nie, nie.
Ta nakrętka już jest zalana.
A, rozumiem, czyli jakby ta, okej, czyli ta nakrętka,
ta nakrętka jest po prostu tym miejscem, gdzie te śruby się wkręca.
Tak.
Rozumiem, rozumiem.
Tak, no może to tak troszkę niedokładnie…
Nie, wiesz co, ja sobie wyobraziłem to trochę inaczej,
że ten plastik jakby wchodzi też w tę nakrętkę
i na podstawie tego jakby tworzy się ten gwint, tak sobie pomyślałem.
W drugą stronę, okej.
Tak, gwint zostaje, a ta nakrętka jest oblewana wkoło plastikiem.
I co ciekawe, też właśnie operator pokazywał wiele rodzajów filamentów,
z jakich można drukować różne elementy.
No i były takie właśnie też tabliczki, że sobie można było,
po polsku pomacać, różne typy tworzyw, jedne bardziej elastyczne, drugie mniej,
jedne takie bardziej gumowe, silikonowe, drugie bardzo twarde,
i jeszcze co ciekawe, że ta drogarka tak chodziła, że jak wzięliśmy
jakiś tam element, dajmy na to, że już to był ten chwytak,
spinacz zwał jak zwał, to jak się dokładnie paznokciem
przejechało, to te wszystkie warstewki szło wyczuć, co ciekawe. Jak się po tej zewnętrznej ściance tak podarwało, że tak nazwę, to szło te warstewki wyczuć.
To rzeczywiście całkiem fajna sprawa. Te drukarki przemysłowe, to jak rozumiem, spore to są urządzenia.
No to było może wielkości, jakby porównać, albo mała pralka, albo duża mikrofalówka, coś takiego.
To była maszynka zamknięta, działająca na tym tak zwanym G-kodzie, czy tam G-kodzie,
że już się wkładało pendrive, gdzie już był wcześniej
stworzony ten plik, ten projekt, wciskało się start,
tam był panel niestety dotykowy i po prostu to pomalutku
sobie jechało, interfejs był bardzo
przejrzysty dla ludzi widzących, bo było wszystko
pokazane, ile warstw jeszcze ma do zrobienia, ile tam
linii ma przejechać. Ile czasu? No, wszystko ten komputerek to fajnie przeliczał.
No jasne.
I jeszcze czwarta rzecz, bardzo ciekawa. No niestety tego mi się nie udało dotknąć,
no bo niestety polska rzeczywistość, no na początku się jedna firma zdeklarowała,
potem się w tajemniczy sposób z tego wycofali, ale nie było źle, bo inne
ale dwie firmy, co ciekawe, pośpieszyły z pomocą, żeby to o tłumaczyć.
Chodzi o tak zwane sekwencyjne formowanie wterskowe,
czyli zrobienie dwóch elementów w jednej formie
i za pomocą jednego w sumie podajnika tworzywa.
Działa to tak, że na początku jest tworzywo wlewane do jednego gniazda,
Tam już załącza się czas chłodzenia, żeby to stygło,
a w tym samym czasie w części stałej formy przełącza się
elektrozawór i otwierany jest drugi kanał.
Silnik podający załącza się drugi raz
i po prostu jest wlewany do tej drugiej części
formy. W taki sposób to działa.
I to było pokazywane na przykładzie produkcji sierpokrętów takich małych,
że na początku wjeżdżał robot i już wstawiał do formy ten metalowy taki pręt,
co jest na końcu albo płaski, albo gwiazdkowy, żeby już ta sierpę przykręcić.
I właśnie on był już oblewany tworzywem, powstawała ta rączka.
I gdy już to się oblało, to już się chłodziło, drugi raz się załączał silnik
i powstawało takie fajne pudełko na ten siurbokręt.
Następnie, jak już to wszystko się schłodziło, wystygło, robot to wyciągał,
odkładał pudełko na stół i następnie właśnie wkładał do niego te dwa
śrubokręciki. No właśnie wyglądało to ciekawie.
Czyli tak naprawdę jedną maszyną można było ogarnąć cały proces produkcyjny.
Dokładnie zgadza się, w ten sposób.
No to rzeczywiście też bardzo ciekawe podejście.
Tak, no i co jeszcze mogę powiedzieć, no ogólnie wspaniali ludzie,
co tu dużo gadać, ci co już, że tak powiem,
podjęli się pokazywania, tłumaczenia, no poświęcili bardzo dużo czasu,
więc ja jestem bardzo
zadowolony.
Też widziałam w Kreskarkę dosyć dokładnie, która
produkowała właśnie tłoczki dla
strzykawek, dla przemysłu
medycznego.
No to rzeczywiście fajne miejsce i fajne
sporo rzeczy można zobaczyć.
Tak, tak, sporo rzeczy. Dokładnie jeszcze tu sobie przypomnę, czy już wszystko.
No, z takich nowości to miejmy nadzieję, że tak.
Ale ja w sumie jeszcze opowiem taką historię, bardzo ciekawą w sumie sprzed 7 lat,
więc, co to też u mnie zapadło w pamięci, tak zwany cud marcowy,
no to były moje pierwsze targi obrobki metali.
To był 2017 rok. Wszystko było dla mnie nowe.
Już pozwiedzaliśmy, wychodzimy na taksówkę,
a tu zaczepiają jacyś ludzie, właśnie dwóch panów bardzo przyjemnych,
zaczepiają mamę i mówią, no my tu mamy dla syna prezent.
Niech to będzie w formie właśnie niespodzianki.
My potem wyjmujemy.
A to są dwa piękne portfele z Withena.
Nie byłoby w tym nic nadzwyczajnego z tym, że
na, górnej części, pudełka, był napis właśnie w brailu
Withen, italian, italian,
leder, ten napis taki logo, logo filmowe i, przez 7 lat w
sumie, nikt nie umiał, rozwiązać, w jaki sposób w
ciągu 3-4 godzin to, zrobili czy, pojechali do Warszawy
jakiejś maszynie zarobili, czy na drokarce 3D, no to były
wtedy czasy, gdzie było to dla mnie wszystko nowe, a właśnie
w tym roku na obróbce metali, właśnie mama zagadała jedno
zdanie i właśnie powiedzieli, że to jest za pomocą tego
programu, co zamienia czarną drogę na Baraila i ten napis
właśnie został wypalony za pomocą lasera. No i ja w
już odliczam do przyszłego roku, to z przyjemnością właśnie pociągnę ten temat tych właśnie
nadruków. Może coś, taki program odpalo i po prostu zobaczę jak, jak to powstaje.
Było bardzo fajnie.
No tak tym bardziej, że teraz jest coraz więcej informacji odnośnie drukowania
Braila za pomocą drukarek 3D, chociażby dzięki temu co robi Fundacja Prowadnica.
Oni opublikowali takie materiały, z którymi wszyscy twórcy mogą się zapoznać i tam wszystko jest wyjaśnione, jak oni to robią, co im wyszło, gdzie najlepiej, na czym najlepiej drukuje się takie tabliczki brailowskie, więc może komuś też będzie to przydatne.
A ja w sumie jeszcze mam taki pomysł, no taką cichą nadzieję, że ja nie wiem jak się to w ogóle organizuje takie, ale ja to bym bardzo się cieszył jakby właśnie Fundacja Prowadnica zagościła właśnie na takich targach przemysłowych.
No to by było bardzo ciekawe wydarzenie wręcz po prostu edukacyjne, że ludzie widzący, tak zwani przemysłowcy tak powiem,
że po prostu by poznali w jaki sposób my działamy na komputerach, jak po prostu pracujemy na technologiach informatycznych.
No, bardzo ciekawe by to było.
No to ja myślę, że warto by było Łukaszu, żebyś może się z prowadnicą skontaktował.
Być może nas też ktoś słucha, może Dawida, może ktoś inny jeszcze z zarządu prowadnicy.
No i oczywiście pytanie, czy dla tego typu
stoisk znalazłoby się miejsce na tych targach, bo to też podejrzewam, że zależy od
organizatorów bardzo mocno, ale pomysł uważam, że jest ciekawy i wart z pewnością rozważenia.
Bo ja muszę tak powiedzieć, że właśnie masa firm zajmujących się właśnie branżą CNC,
no co tu dużo gadać, no niestety nie wie, jak my korzystamy właśnie z komputerów.
No i tu, i tu można by coś w tej kwestii zmienić, co już było, jak już kiedyś tam nadmieniałem może za rok temu,
co by mogło w przyszłości właśnie stworzyć dla nas miejsce pracy.
No jasne. Okej Łukaszu, no to dzięki w takim razie, że się podzieliłeś z nami kolejną relacją i swoją drogą naprawdę gratuluję ciekawego hobby,
Bo to nie jest coś częstego, że ktoś do nas dzwoni i opowiada o tym, jak się przemysłowo różne rzeczy produkuje, ale zawsze bardzo fajnie tego posłuchać.
Ja, ja, jeszcze, doprecyzuję, że, ten napis brajnowski.
Od tego withena, to nie był na, drogarce 3d tylko na tej
właśnie, znakowalce, laserowej to właśnie ono
wypalałem, na tej blasze te różne, napisy No tylko, że w
tym roku to już troszkę nie było czasu No, no ale jeżeli
będzie ta firma, w przyszłym roku a mam nadzieję, że tak
No to ja ten temat tych napisów, no że tak powiem, pociągnę, bardziej się rozwinę, no bo jest to bardzo ciekawe.
Jasne. Dzięki Łukaszu za telefon.
Jeszcze taki malutki newsik, że na Blind Shell’u udało się odpalić czata GPT, założyć konto i właśnie wpisywać pytania.
I przyznam, że działa. Niekiedy trochę wolno, ale chodzi.
Ale przez przeglądarkę, jak rozumiem, nie ma dedykowanej aplikacji?
Nie, nie, nie, właśnie jeszcze nie ma.
Mam nadzieję, że coś się pojawi, bo na razie to przyznam, że jest…
Posłucham, na razie żadnych programów nie tworzą.
No może się coś, coś pojawi.
Okej, dobrze Łukaszu, to dziękujemy Ci bardzo w takim razie za telefon.
Tak, dziękuję bardzo i pozdrawiam wszystkich i życzę miłego słuchania. Wszystkiego dobrego.
Dzięki, pa.
Dzięki.
Przechodzimy teraz do nowości, ale chociaż w sumie trochę chyba, no może nie z kontargów, tylko z konferencji, bo jeszcze są noworsi od Apple’a.
Owszem i co my tu mamy? Pierwsza taka drobnostka i ciekaw jestem czy ktoś kto testuje bety osiemnastki to wyłapał.
Podobno wejście ekranu Brailla w tym trybie w którym można szukać na ekranie głównym aplikacji, żeby otworzyć jakąś aplikację bezpośrednio, obsługuje teraz częściowe dopasowania.
Czyli ja nie muszę już wpisywać, nie wiem, mess, żeby mieć messenger, tylko mogę wpisać, nie wiem, ssn, tam coś ze środka, albo ess, albo ger, chociażby, i dostanę różne messengery, albo tam inne dżery, pejdżery.
Więc tu pytanie, czy ktoś próbował w ten sposób.
Mi by się to przydało w jednym celu, mianowicie nie musiałbym przełączać klawiatury na niemiecką, kiedy chcę otworzyć aplikację zawierającą umlauty typu UBB Ticket, czyli aplikację kolejową austriackich kolei, tam gdzie mam bilety różne na pociągi.
Byłoby to super, jakąś jeszcze, teraz nie pamiętam, mam taką jedną aplikację, którą się zazwyczaj właśnie ciężko otwiera, bo są jakieś znaczki narodowe, których akurat nie mam pod ręką i jak wpiszę jakąś inną część, jakiś inny człon tej nazwy, to to nie wystarczy.
Także, plus oczywiście przefiltrowanie, jak mamy pięć seeingów,
seeing assistant home, seeing assistant move,
seeing assistant alarm GPS i jeszcze seeing AI,
no to potem znaleźć to wszystko, no to już prędzej opłacałoby się chyba
tak naprawdę znaleźć tą aplikację na pulpicie, znaczy na ekranie głównym,
a nie w ten sposób szukać i filtrować.
A tak by się wpisała jakieś AI czy cokolwiek
i on to powinien ci szybciej znaleźć.
No więc to jest jedna rzecz,
więc bardzo jestem ciekaw, czy u was to działa.
Drugą rzecz raportuje portal MacRumors
i tutaj okazuje się, że programiści dostali nowe API.
Nowe API, które pozwala na uruchamianie kamery aplikacji trzecich
wprost z ekranu blokady lub centrum sterowania
lub przycisku akcji na iPhone’ach najnowszych 15 Pro i Pro Max.
Chodzi po prostu o to, że to nawet nie jest to, że otwarta będzie ta aplikacja konkretna, tylko otworzy się widok kamery danej aplikacji i będziemy mogli zrobić z nim zdjęcie.
To może być o tyle ciekawe, że no o ile sam aparat na ekranie blokady, który tak jak już słyszymy po Waszych wypowiedziach, wielu z Was będzie chciało usunąć,
No nie jest dla nas jakąś najprzydatniejszą rzeczą albo aplikacją pierwszej potrzeby.
O tyle no właśnie jakiś Seeing AI, jakiś Envision, jakiś może nawet Be My Eyes.
Zaraz powiem czemu nie, ale któraś z tych aplikacji do rozpoznawania.
Czemu nie? To już mieć skrót na ekranie blokady, który od razu odpala nam widok
kamerki i możemy robić zdjęcie.
No to już jest dużo bardziej przydatne i tu już myślę więcej wiele osób by się
skusiło na to, żeby sobie taki widżecik wstawić.
No niestety tu jest haczyk.
Haczyk polega na tym, że żeby dokończyć jakąkolwiek akcję z tym zdjęciem, czyli
gdzie się wysłać na serwer do przetworzenia, do zacelerowania i tak dalej,
trzeba już będzie ten ekran odblokować.
Więc tutaj to nie jest aż tak szybkie, no ale takie wywołanie i nawet na szybko
zrobienie jakiegoś zdjęcia, kiedy coś akurat nam wpadnie w ręce albo gdzieś tam przez okno będziemy chcieli sprawdzić.
No to chyba nie jest opcją najgorszą i myślę, że tu jest się na co cieszyć.
Ciekawe na ile te nasze różne branżowe aplikacje to wprowadzą.
No a pozostałe nowości dotyczą takich trochę bardziej wnikliwych programistycznie gdzieś tam rzeczy.
No bo przykładowo też nowe API powstają dla deweloperów, nowe metody i funkcje w SwiftUI.
No i tu na przykład okazuje się, że przy tworzeniu aplikacji dostępnych będzie można jedną funkcją,
tak naprawdę chyba nawet jedną linijką kodu, zebrać do kupy cały jakiś widok i zgrupować go tak,
jak my to lubimy, czyli że wszystkie informacje są podawane w jednym elemencie, nie ma rozbitych elementów, że przesuwam w prawo jedna informacja, w prawo druga, w prawo pierwszy przycisk, lubię to, w prawo przycisk komentuj, w prawo przycisk udostępnij, tylko będzie wszystko czytane za jednym zamachem, a przyciski będą czynnościami na pokrętle.
Przedtem, żeby coś takiego zrobić, to trzeba było najpierw zgrupować elementy,
potem przypisać tamtym przyciskom jakieś funkcje, ukryć je, żeby nie było ich widać.
A teraz staje się, że powstała jakaś jedna taka funkcja zbiorcza, która to wszystko nam załatwia.
No więc nam jako użytkownikom może wiele to nie da, ale dużo łatwiej będzie programistom tworzyć aplikacje,
a to zawsze gdzieś tam się przekłada na bardziej dostępne aplikacje.
Dla nas zdaje się, że też na macOSie aplikacje będą lepiej wspierać mechanizm przesuń, przemieść i upuść, drag and drop, przyciągnij i upuść.
Więc tutaj też jakieś wiele punktów docelowych jest obsługiwanych, więc tu można już się wykazać i no to super, że takie mechanizmy są nam udostępniane.
Natomiast też pewne nowości, jeśli chodzi o dostępność stron internetowych pojawiły się w Safari najnowszym.
No i tu na przykład pola wprowadzania daty i godziny.
Webkit dla Safari 18 beta na Macu.
Usprawnia dostępność, ciekawe czy na iOS-ie też.
Pól daty i godziny.
Aktualnie mniejsze input type równa się date, czyli taki typowy natywny HTML-owski wybieracz do daty.
InputDateTimeLocal i InputType
te elementy będą poprawnie działać z VoiceOver’em.
No, jakoś nie przyszło mi do głowy, że to nie działało,
ale też nie ukrywam, że jakoś nie analizowałem głęboko
kodów stron. Może macie jakieś pwyprzykłady, nie wiem, że gdzieś to nie chciało działać.
Takie typowe podawanie dat i godzin.
No nie wiem, na Macu czy na iOS.
No, ale teraz będzie to naprawione.
I też dużo poprawek będzie, poprawek w ARIA.
na przykład aria-braille-label i aria-braille-row-description jest zbierane.
To jest to, o czym mówiłem jakiś czas temu, czyli te standardy aria,
które pozwalają na to, żeby jakąś kontrolkę w sposób specyficzny opisać w braillu.
Albo jej nazwę, albo jej rolę.
Czyli, no nie wiem, jeżeli to jest jakaś nietypowa kontrolka, niestandardowa,
to może ma sens, żeby trochę inaczej ona była reprezentowana w mowie syntetycznej,
a trochę inaczej w braillu, na monitorach braillowskich.
No i teraz będzie można te wartości aria, braille label i braille role description definiować.
No i jest też w ogóle dużo poprawek dostępności.
Na przykład usprawniono przypisywanie roli header.
To jest chyba banner, jeżeli dobrze pamiętam.
Punkt nawigacyjny banner.
Jeżeli jest wewnątrz punktu nawigacyjnego główny,
no to jeżeli mamy takie zagnieżdżone punkty orientacyjne, to one są teraz już prawidłowo odczytywane.
Jeżeli jakiś był zakres, można było jakąś cenę na przykład o zakres, cenę albo jakiś zakres tam odległości od do zwiększać lub zmniejszać,
to gdzieś tam przy klikaniu z VoiceOver’em działo się czasem tak, że nie były gdzieś te zdarzenia, że my coś zrobiliśmy rejestrowane,
więc te suwaki nie były regulowane, teraz już powinno to działać lepiej.
Tutaj jakieś poprawki w tzw. web-komponentach, tu już nie chcę się za bardzo zagłębiać, bo tu wchodzą jakieś takie skomplikowane pojęcia typu Shadow DOM, czyli alternatywny model obiektu, to myślę, że niewielu z nas będzie gdzieś tam dotyczyć.
No ważne, że teraz rzeczy, których wcześniej ukryć się nie dało, będzie dało się ukryć.
Pola rozwijalne będą lepiej nam pokazywać podlinkowane do nich elementy, czyli jakby zawartość, te opcje do wyboru.
Ciekaw jestem, czy to naprawi pewien błąd, który miałem. Nie wiem, czy też taki błąd mieliście, że jak było pole edycyjne, lista rozwijana, takie właśnie pole edycyjne kombi,
To ja nie wiedziałem, jak wybierać opcję, czyli stukałem w nie, otwierała się jakby klawiatura i pole edycji, czyli ta część do przeszukiwania tego pola, do filtrowania tych elementów przez wpisanie jakichś pierwszych znaków była jak najbardziej obecna, ale już sam wybór elementów z listy mi nie chciał działać.
Niestety mi to wyszło, kiedy chciałem jakąś procedurę tutaj urzędową załatwić i to było troszkę przytłaczające, bo musiałem się zwrócić o pomoc.
więc jeżeli to jest błąd, który został naprawiony, to super.
Naprawiono dostępność pól wprowadzania godziny,
bo dodano do różnych tam podpól etykietki,
więc teraz to powinno być też lepiej czytane.
Naprawiono aria-hidden, żeby było ignorowane na elementach HTML i body,
czyli są czasem deweloperzy, którzy z jakiegoś powodu wpadają na fantastyczny pomysł,
bo uważają, że tak jest dobrze,
że trzeba przed screenreaderem ukryć całą treść strony.
Oni to oczywiście gdzieś tam tłumaczą, że mieli coś innego na myśli, że nie wiedzieli do czego to do końca służy,
no ale już zdarzały się takie sytuacje, że cała strona była ukryta, więc tutaj już teraz Safari będzie tego typu sztuczki ignorować
i mimo wszystko pokazywać nam zawartość strony.
Były problemy takie, że wartości daty i godziny były pokazywane technologią wspomagającą, takim jak VoiceOver, w złej strefie czasowej.
To też zostało naprawione.
Poprawiono dostępność kontrolki wyboru godziny, dodając etykietkę, czy jest to w 12-godzinnym trybie, w 12-godzinnym systemie, czy jest to AM czy PM.
Były zły wartości podawane w tych polach daty i godziny, gdzie jest ten date i time local, czyli w jednym z tych typów, o których mówiłem wcześniej.
Teksty zamieniane CSS-em też były źle odczytywane, gdzieś tam jest też już naprawione.
Naprawiono poprawne odczytywanie roli dla wielu elementów HTML, np. listy definicyjne, czyli listy definicji, tam gdzie są pary, np. słowo i jego znaczenie.
Grupa nagłówków, emfaza, czyli podkreślenie tekstu, strong, czyli też takie wzmocnienie emfazy i przycisk opcji, więc bywało tak.
I tutaj też w wielu różnych sytuacjach po prostu elementy były ukrywane lub pokazywane,
to teraz już będą poprawnie odczytywane.
Poprawiono aktualnienie tekstu tabeli, jeżeli jej podpis jest dynamicznie aktualizowany,
czyli dla tabel, w których się gdzieś tam od czasu do czasu sama z siebie zmienia etykietka,
znaczy nazwę, podpis tej tabeli.
I tutaj jeszcze jakieś, jak coś się jeszcze w drzewie obiektów zmienia przy aria-described-byte,
czyli przy opisie jakiegoś elementu, elemencie opisującym,
no to też tutaj teraz powinno być to lepiej odczytywane.
Trochę takich technicznych zmian, ale zawsze warto widzieć,
że oprócz tych wielkich nowości, takich voiceoverowych,
które odkrywamy w ciągu pierwszych pięciu minut zainstalowania bety,
są też takie drobne, które w dłuższej perspektywie przekładają się na to,
że no z czegoś się nam wygodniej korzysta,
internet jest lepiej czytany, bo na internet, na systemach Apple
wiele osób, zwłaszcza na Macu, narzeka, zwłaszcza przy złożonych aplikacjach
takich jak dokumenty Google, więc miło słyszeć, że jakieś poprawki również są tu wprowadzane.
No i a propos internetu, to teraz właśnie będzie komentarz od naszego słuchacza Andrzeja, który napisał do nas tak.
Dobry wieczór. Za waszym pośrednictwem chciałbym pozdrowić zarząd Telewizji Polskiej za niedostępność aplikacji mobilnej TVP Sport na iOS.
W niedzielę chciałem obejrzeć mecz Polski z Holandią z audiodeskrypcją i okazało się, że aplikacja jest tak niedostępna, że Holender się nie udało.
Pomijam fakt, że podobno w tym czasie nastąpił atak DDoS, to elementy interfejsu są dziwnie porozrzucane, nie da się ich kliknąć,
a jak już nawet jakimś cudem da się dotrzeć powiedzmy do wybranej transmisji to i tak wchodzi się w jakąś mówiąc kolokwialnie ślepą uliczkę.
Chciałbym poznać wasze wrażenia jeśli mieliście okazję korzystać z tej aplikacji, a być może na androidzie wygląda to lepiej.
Pozdrawiam serdecznie.
Ja powiem szczerze parę razy miałem okazję gdzieś tam zajrzeć do TVP Sport i mam takie wrażenie, bardzo pobieżne oczywiście.
Może wy coś powiecie więcej na ten temat, ale że ta aplikacja i tak jest nieco lepsza w odróżnieniu od aplikacji TVP VOD, bo tam jest po prostu klęska.
To jest straszne, to od lat z tym tak naprawdę nie jest nic robione, te aplikacje do odtwarzania materiałów TVP są po prostu złe.
I to jest bardzo przykre, że publiczny nadawca od lat niczego sobie nie robi, mamy teraz zmiany w TVP różnego rodzaju, ale tu to jest niestety brak dostępności, jest Konstans.
Tak, jak na razie aplikacja się nie zmieniła, to jest o tyle przykre, że to jest chyba właściwie jedyny moment tak naprawdę, tylko właśnie na Euro i na Mundiale.
mamy na stronie od kilku lat audiodeskrypcję i tak fajnie, że ona jest, bo wcześniej
kiedyś nie było, była tylko na tym kanale telewizji cyfrowej, więc jak ktoś nie
miał tradycyjnej telewizji, no to miał duży problem.
Co z tym DDoS-em, to bym się zastanawiał.
Ponad wszystkie adresy IP były z Polski, więc nie wiem, czy po prostu serwery nie
wytrzymały, ale to już zostawiam.
Ja oglądam, przynajmniej staram się, nie należy to do najprzyjemniejszych rzeczy.
Czy mam stuprocentowy patent na to?
Nie, powiem co mi zazwyczaj działa i generalnie ja wchodzę albo z
iPhona albo z aplikacji na iOSa uruchomionej na Macu, która wtedy
wyświetla się w widoku iPadowym.
Próbowałem na początku wpłynąć ze strony w przeglądarce i to tam nawet
jest zastępne, to znaczy kiedy wejdziemy na tą stronę, film otwiera
się w pustej ramce.
Można w tą rankę kliknąć, wtedy najpierw otworzy nam się trochę reklam
i później nam się zacznie odtwarzanie.
Natomiast w tym roku mimo szczerych chęci
nie znalazłem w odtwarzaczu webowym przycisku, żeby przełączyć ścieżkę audio.
On kiedyś tam na pewno był, dwa lata temu jak był mundial, pamiętam, że udało mi się to zrobić.
A teraz przeszukałem cały kod nawet w inspektorze w Firefoxie i Access Hammer’em.
Nie znalazłem przycisku, żeby zmienić ścieżkę audio.
Wydaje mi się, że ktoś go po prostu zastąpił przyciskiem, który wyświetla nam
alternatywne transmisje.
To byłoby w sumie dobre miejsce na audio deskrypcji.
Nie, tam jest tylko transmisja atmosfery ze stadionu, gdzie po prostu nie mamy
komentarza, nie mamy studia i chyba jest jeszcze taki jeden vlog, który statystyki nam
różne wyświetla. Więc łeb zostawiłem, bo po prostu nie mogę tej opcji znaleźć.
Natomiast na iOS to mniej więcej ja wchodzę w ten sposób.
Nie wchodzę przez te ekrany, które się wyświetlają nam po otwarciu aplikacji, bo ono zazwyczaj takie wyświetla taką jakby reklamę na pełny, ekran obejrzyj teraz, jeśli jest jakiś mecz akurat, no to zazwyczaj on się nam tam wyświetla.
Nie wiem, ja z tego poziomu mi się to nigdy nie udało otworzyć, więc ja to po prostu zamykam.
Przechodzę na zakładkę transmisje, ona nie będzie czytana jako zakładka, ale będziemy mieli napis transmisje, więc to powinno być oczywiste.
Potem wchodzimy w mecz, który nas interesuje i on też ten widok
transmisji jest taki porozbijany, no ale klikamy albo na godzinę,
albo na słowo trwa, albo na tytuł.
To nie ma różnicy w co klikniemy.
I teraz tak, na tym ekranie, na iOSie gdzieś na górze ekranu jest
powinniśmy wtedy zobaczyć niezatekietowany przycisk.
On będzie gdzieś obok przycisku share, czyli udostępni.
I to nam na iOSie transmisję uruchomi, natomiast na Macu, nie wiem czemu, to się nie dzieje.
Na Macu, kiedy nacisniemy na tą godzinę, czy na tą nazwę transmisji, która nas interesuje,
trzeba na nią nacisnąć jeszcze raz. Może nam wtedy focus uciec, musimy wtedy się cofnąć.
Na Macu to się będzie wyświetlało wewnątrz takiej kolekcji.
Naciskamy na nią kilka razy i w końcu to się odpala.
Nie wiem dlaczego tak jest, dlaczego to działa, może jakiś element jest po prostu przykryty i voiceover po prostu wtedy stuka w dobre miejsce, nie mam pojęcia, mniej więcej tak po prostu wtedy zaczniemy najpierw słyszeć reklamy, musimy poczekać, żeby tam nam te reklamy minęły, albo na Macu wychodzimy z aplikacji Command Tab i wracamy wtedy, nam pomija to wszystkie reklamy, też nie wiem czemu tak jest, ale przez przypadek to odkryłem, no i mamy w końcu odtwarzanie.
Otwarzanie oczywiście nam się uruchomi ze ścieżką, no u mnie się uruchamia ze ścieżką angielską, pytanie co by było gdybym miał system po polsku, w sumie zmieniłem język aplikacji, ani przecież nie, właśnie nie zmieniałem mi języka tej aplikacji, więc musiałbym zobaczyć, może jeśli mamy w ustawieniach dostępności włączoną audiodeskrypcję, to ona nam się uruchomi automatycznie, jeśli tak to byłoby super, u mnie tak się nie dzieje, u mnie się angielska transmisja domyślnie uruchamia, więc musimy sobie ją przełączyć.
Odtwarzacz ma na górze kilka przycisków, które czasem znikną, jak je wyświetlić?
VoiceOver chyba widzi ten odtwarzacz jako taki niezatykietowany element, czasami nam gdzieś rozpoznawanie ekranu może powiedzieć, że on widzi trawę na przykład, albo tłumy ludzi, więc na to naciskamy.
Gdyby to nie pomogło, to można VoiceOvera wyłączyć i stuknąć palcem w mniej więcej górną część ekranu, bo ten odtwarzacz będzie zminimalizowany.
Wtedy zobaczymy kilka przycisków odtwarzania, ten który nas interesuje nazywa się Player Preferences i to jest przycisk, który nam wyświetli menu i ścieżek audio.
To menu też nie wyświetla się w jakimś, nie wiem, okienku wyskakując w jakimś alercie voiceover nam nic nie powie czy to się otworzy, natomiast kiedy naciśniemy ten przycisk po prostu gestami cofamy się do tyłu i gdzieś tam powinniśmy zobaczyć tą listę.
Jedną z opcji będzie audiodeskrypcja.
Kiedy klikniemy dwukrotnie w nią,
no to ta audiodeskrypcja nam się powinna włączyć.
Na Macu jest trochę lepiej, o tyle, że
ten przycisk preferences zawsze jest dostępny.
Nie wiem czemu na Macu te przyciski nie znikają,
ale u tyle jest łatwiej.
Naciskamy na niego, wtedy te wszystkie
dostępne ścieżki wyświetlają się w tabelce,
więc znów cofamy się do tyłu,
będzie tabelka, wchodzimy w nią,
w interakcję, no i tam tą audiodeskrypcję znajdziemy
no i wtedy możemy sobie mecz, który nas interesuje oglądać.
To mogłoby być znacznie lepiej.
Jestem bardzo ciekawy, czy jest lepiej na Androidzie, bądź na Apple TV.
Na pewno na aplikacji na telewizory Samsung nie jest lepiej, bo ona dziwo jest dostępna,
natomiast wszystkie przyciski otwarzacza są niezatykietowane, a tam ich jest z pięć albo sześć,
więc jeszcze nie rozgryzłem, który ewentualnie mógłby nam gdzieś to menu ścieżek audio otworzyć.
Jeśli to menu w ogóle w aplikacji na Samsungu jest, nie wiem.
Tu jeszcze taka uwaga od naszego słuchacza Dawida, jeżeli chodzi o audiodeskrypcję,
no to Dawid nie jest z niej zadowolony, dlatego że co jakiś czas wywala i jest bardzo cicho.
Nie wiem, czy ty Piotrze też zaobserwowałeś, żeby audiodeskrypcja była cicha?
Czy jest cisza od tej transmisji tradycyjnej? Nie wiem, ja też gdzieś tą głośność sobie zmieniam.
Na pewno w porównaniu do tej transmisji oryginalnej to nazwijmy, dźwięki ze stadionu jest znacznie ściszone w porównaniu z transmisją oryginalną.
Słychać go jest faktycznie ściszone i też jest ściszone w porównaniu z tym co mamy w radiu.
Na przykład tutaj też podpowiedź, jeśli was interesują stricte mecze polski, no to też można po prostu sobie w radiu otworzyć, no i tutaj można ulubionej aplikacji do radia wykorzystać.
Ja tak zrobiłem właśnie jak serwery wpadły w zeszłą niedzielę, natomiast do innych meczów musimy wchodzić właśnie przez stronę lub przez aplikację.
Tak, ja jeszcze tylko dodam, że to w programie pierwszym Polskiego Radia jest transmisja z polskich, z meczów tam gdzie gra Polska.
Więc jeżeli was interesują te transmisje, to właśnie radiową jedynkę powinniście włączyć.
No i taka smutna refleksja a propos tej dostępności aplikacji mobilnej telewizji polskiej, zwłaszcza tej VOD,
jeszcze mi się nasunęła, bo to któryś jeszcze z poprzednich prezesów, teraz nie pomnę, czy Mateusz Matyszkowicz, czy Jacek Kurski,
Kiedy ta aplikacja się zmieniała i była tak dość mocno aktualizowana, to była mowa o tym, że będziemy mieli do czynienia teraz niejako z polskim Netflixem.
Wielka szkoda, że nie mamy do czynienia z polskim Netflixem w kategoriach dostępności, bo tu niestety od Netflixa to jeszcze przyszłoby się telewizji publicznej sporo nauczyć.
No niestety, a teraz troszeczkę tutaj sobie odrobinkę przynajmniej zmienię kolejność i może teraz nowości, znaczy we wtyczkach dla NVIDIA, bo tych nowości kilka jest.
Tak, zgadza się. Konkretnie są to nowości dwie, nawet trzy i chyba wszystkie są, z tego co ja kojarzę, dostępne w sklepie NVDA, więc mimo że w komentarzach oczywiście zostawimy linki do repozytoriów na GitHubie i możecie sobie tam pobrać te najnowsze wersje, czy tradycyjnie, czy przez ten serwis Git LLS, to przypomnę, że w tym linku, który zobaczycie w komentarzu w tym adresie github.com
to właśnie HUB zamieniacie na RLS, tak żeby było git.rls.com no i całą resztę zostawiacie jak jest i powinna wam się ściągnąć najnowsza wersja.
No ale może nie będzie wam to w ogóle potrzebne, bo te wtyczki, o których mówię, raczej są w sklepie dostępne.
No i cóż to za wtyczki? Po pierwsze mamy wtyczkę Translate Advanced autorstwa Hektora Beniteza, który już tworzył wtyczki.
My kojarzymy takie wtyczki jak Z-Pod czy Z-Radio, czyli i Z-Podcast, czyli odtwarzacz radia,
do radia jeszcze wrócimy dzisiaj, czy odtwarzacz plików multimedialnych, dokładnie tych, które mamy podświetlone w eksploratorze plików,
taki dość zaawansowany z przewijaniem i tak dalej.
No to teraz Hektor powraca i stworzył, no trochę tych wtyczek do tłumaczenia już mamy.
Mamy NVIDIA Translate, mamy jakiś Instant Translate, mamy NVIDIA Translate zmodowany tak, żeby działał z DLM,
jakieś jeszcze tam chińskie czy rosyjskie wynalazki, trochę się tego namnożyło i tutaj jakby taką odpowiedzią na to poniekąd chaos jest właśnie wtyczka Translate Advanced,
która pozwala na tłumaczenia tego, co aktualnie jest podświetlone za pomocą różnych silników. Mamy tu do dyspozycji tradycyjnego tłumacza Google, mamy Libre Translate,
czyli ten taki otwarto-źródłowy tłumacz maszynowy, który m.in. jest dostępny w Mastodonie.
DeepL oczywiście, jak mamy swój klucz API.
I zaraz tutaj jeszcze spojrzymy.
A no i Microsoft Translator też jest.
Jest też tutaj wsparcie dla historii tłumaczeń i dla tłumaczenia tekstu zaznaczonego,
więc nie tylko to, co jest aktualnie podświetlone.
No i jest tutaj całe Redmi niestety w języku hiszpańskim,
ale można sobie notabene przetłumaczyć.
Po drugie jest wtyczka Radio Center,
autorstwa ukraińskiego dewelopera Ruslana Dolowaniuka.
No i to jest taka prosta wtyczka, w której możemy
pododawać sobie troszeczkę streamów radiowych
i posłuchać radia, co pisze autor.
Ten dodatek pozwala na słuchanie stacji radiowych online.
No i mamy tutaj skróty klawiszowe.
NVDA Alt P to odtwarzanie i wstrzymywanie odtwarzania aktualnie grającej stacji.
NVDA Alt w górę i w dół to jest głośnienie i ściszenie.
Alt, NVDA Alt lewo, prawo to jest przełączanie stacji na następną lub poprzednią.
NVDA Alt-O to jest pobieranie informacji o stacji, NVDA Alt-R to jest właśnie manager stacji, gdzie możemy te stacje sobie dodawać do listy.
Możemy stacje mieć nieposortowane, możemy alfabetycznie lub alfabetycznie odwrotnie według nazwy i według priorytetów, czyli sami możemy nadać priorytety danej stacji.
Tak jeszcze patrzę, jakie zmiany tu nastąpiły, można edytować stację, bo już tej wtyczki używałem jakiś tydzień czy dwa temu, a w międzyczasie zdążyła się ukazać jakaś aktualizacja.
No i chyba, chyba tu wiele więcej nie można.
Chyba bazą do odtwarzania jest VLC player, przy czym ten VLC player się nie otwiera sam z siebie, w sensie jako taki zainstalowany na naszym komputerze, tylko jest po prostu wbudowana biblioteka, która w tle gdzieś tam coś odtwarza.
i również od Ruslana Dolvaniuka wtyczka, która może się przydać osobom, które korzystają z Telegrama, a konkretnie z Unigrama.
Jest to wtyczka Unigram Cash Cleaner, no bo jak Unigrama troszkę używamy, zresztą Whatsappa też,
i zwłaszcza jak dużo odbieramy multimediów, jakichś wiadomości głosowych, zdjęć, filmików i tak dalej,
no to nam się to wszystko gromadzi na dysku i niektóre z tych rzeczy może rzeczywiście potrzebujemy,
ale to sobie zazwyczaj gdzieś zagwiazdkujemy albo wyeksportujemy.
Natomiast wielu z tych rzeczy nie będziemy potrzebować, odsłuchaliśmy wiadomości głosowej, więc po co mamy ją trzymać.
No i z czasem niestety taki cache się gromadzi i zajmuje dość dużo miejsca na dysku, o czym sam się też przekonałem.
No i tu mamy dodatek, który nam ten cache czyści.
NVIDIA SHIFT-C pozwala nam ręcznie na start czyszczenia.
Można w ustawieniach ustawić sobie ścieżkę, gdzie nasz Unigram i jego kiesz się znajduje.
Domyślnie mamy takie ścieżki jak są po ściągnięciu Unigrama ze sklepu Microsoftu albo z wersji beta.
Można ustawić też swoją ścieżkę i to chyba tyle tak naprawdę, bo wiele więcej tu nie ma.
Nie wiem czy też tutaj jest jakaś opcja czyszczenia automatycznego, tak by wynikało, ale nie widzę tego nigdzie.
No i to by było tyle jeśli chodzi o dodatki do NVDA na ten tydzień.
To zaglądamy ponownie do kontaktów od was, do wiadomości od was.
I mamy dwie wiadomości od Mirka.
Co do transmisji meczów z Euro na Androidzie to ścieżki zmienia się w ustawieniach na danej transmisji.
I jeszcze jedna wiadomość od Mirka.
Dla mnie głośność jest okej i nie jest wcale cicho.
No to wszystko podejrzewam, że też może zależeć na przykład od tego skąd tej audiodeskrypcji słuchamy
czy z aplikacji, czy z przekazu linearnego, bo może w tych różnych miejscach różnie z tą głośnością być.
Takie są moje przypuszczenia, a może to po prostu osobnicze preferencje.
To teraz news dla tych, którzy chcieliby tworzyć, albo w jakiś sposób zarządzać, czy udostępniać schematy dźwiękowe w systemie Windows,
czyli te dźwięki, które
służą, znaczy które
podczas otwierania ewentualnie programów albo gdy
nie wiem, pojawia się jakiś błąd w systemie.
No jest narzędzie, które ułatwia tworzenia takich schematów.
Dokładnie narzędzie, które co ciekawe na rynku już jest od jakiegoś czasu, natomiast
zostało nierawno odkryte przez niewidomą społeczność Mastodona.
Narzędzie nazywa się po prostu Sound Manager.
Możemy je sobie pobrać z GitHub’a, będzie oczywiście link do tego w komentarzu i ma kilka zadań.
Głównym jego zadaniem właśnie jest pozwolić nam na dystrybuowanie schematów dźwiękowych, które my stworzymy sami.
Może przy tym zrobić kilka rzeczy, które myślę mogą być całkiem przydatne, bo narzędzie to wspiera wszystkie systemy operacyjne.
tak naprawdę od Windowsa XP po najnowsze Windows 10 i 11.
I co ciekawe na tych najnowszych systemach jest nam w stanie przywrócić rzeczy,
które no z Windowsa jakiś czas temu zniknęły.
I tak na przykład możemy sobie zmienić dźwięk uruchamiania i wyłączania systemu,
które zostały z jakiś czas temu z Windowsa usunięte.
To znaczy dźwięk start systemu jest, ale jest tylko jeden, który mamy na sztywno.
Możemy go sobie włączyć lub wyłączyć, no a w tej aplikacji
i możemy sobie ten dźwięk przywrócić.
Prawidłowo nam też zmienia dźwięk na powiadomienia, to baloniki, tak zwane pomocy,
które w Windowsie XP miały swój dźwięk, który dało się zmienić.
Później w Windowsie Vista on teoretycznie zniknął.
Okazało się, że Microsoft zmieniał złą wartość w rejestrze swoim własnym i
dlatego ten dźwięk po prostu przestał działać.
Ale ta aplikacja robi to w sposób prawidłowy, więc jesteśmy w stanie to
to sobie łatwo zmienić. Schematy dystrybuowane w tej aplikacji są bardzo proste, bo to są po prostu pliki zip z zmienionym rozszerzeniem.
Możemy wewnątrz aplikacji zresztą te schematy zmieniać i to nie jest jedyna nowość zresztą, nie jedyna rzecz, którą nam ta aplikacja pozwala zrobić,
bo jesteśmy też w stanie z jej poziomu różne schematy sobie pobierać.
Myślę, że może szybko zademonstruję jak to wszystko wygląda, bo aplikacja nie jest jakoś bardzo skomplikowana.
Mam nadzieję, że już wszystko słychać.
SoundManager.exe.
Słychać.
OK, otworzymy sobie aplikację.
SoundManager.exe.
I mamy tutaj tak naprawdę chyba trzy zakładki, nie cztery, tak nam to mówi NVIDIA.
Tak, mamy trzy zakładki.
Na pierwszej mamy schemat dźwiękowy.
Tutaj słychać jaki schemat sobie na próbę ustawiłem.
I tutaj możemy sobie wpisać nazwę schematu, jakieś informacje.
I mamy listę, to jest właściwie siatka i to jest myślę istotna kwestia.
Chodzimy sobie po tej liście ściałkami zarówno góra, dół, lewo, prawo i jak my
będziemy sobie po tej liście chodzić, to aplikacja nam będzie odtwarzała wszystkie
dźwięki, czyli tutaj mamy pierwszy element na liście, to jest start.
I tutaj znajdziemy większość zdarzeń systemowych, kilku brakuje, takich nieistotnych, ale np. dźwięk tak zwanego zakończenia nawigacji, który np. w schemacie Andrea Louisa jest zaimplementowany, w tej aplikacji go nie ma,
to jeszcze może być coś, co będzie warto do autora zgłosić, bo w ogóle jest w tej aplikacji ten schemat jako jeden z przykładowych,
natomiast on po prostu, no tego dźwięku akurat nie ma, ale większość innych dźwięków jest.
Gdybyśmy chcieli stworzyć własny schemat, możemy to zrobić z tej listy.
Na każdym z tych elementów mamy menu kontekstowe.
Nie da się go wywołać z klawiatury, więc musimy sobie przywołać myszkę i kliknąć w prawym.
Wyświetla nam się menu, otwórz zastąp, tutaj możemy własny dźwięk wybrać, zresetować, usunąć, wskazać w eksploratorze i to wszystko.
Więc tak możemy sobie cały schemat stworzyć.
Mamy też przycisk open, który pozwoli nam wskazać własny plik schematu.
Możemy wyeksportować do tego pliku w tej aplikacji, zresetować do pierwotnego stanu i wyjść z aplikacji.
To jest pierwsza zakładka.
Gdybyśmy nie chcieli bawić się tym interfejsem i stworzyć schemat tak klasycznie, czyli z poziomu Windowsa,
bo mamy już jakiś schemat, który stworzyliśmy wcześniej.
No to możemy sobie z poziomu tej listy schematy, które już mamy w systemie, zaimportować i tak na przykład.
Właśnie, tutaj mam schemat, który jakiś czas temu stworzyłem ze znajomymi MajorLigi.
Tutaj nam wyświetlił wszystkie schematy, które są w systemie.
Mogę przejść do przycisku import i wtedy sobie z Windowsa taki schemat czytać.
System integration groping associate with sounds hemophiles hexbox not hexhead.
Tutaj możemy skojarzyć aplikacje z plikami schematów, one mają własne rozszerzenie.
Start with Windows to play the system start slash stop sounds Windows 8 plus hexbox not hexhead.
No właśnie, na systemach Windows 8 i wyższych aplikacja może startować z systemem, żeby otworzyć tam dźwięk uruchomienia i zamykania systemu.
I możemy poprosić aplikację, że jeśli jakiś schemat nie ma ustawionego danego dźwięku na jakieś zdarzenie to aplikacja może nam automatycznie przywrócić domyślny dźwięk systemowy.
No i tutaj możemy aplikację zainstalować ponownie, odinstalować i z niej wyjść.
To jest o tyle istotne, że aplikacja działa w ten sposób, że w systemie dodaje nam się jako jeden schemat.
Schemat będzie się po prostu nazywał Sound Manager.
Jeśli my sobie coś zmienimy tutaj w tej aplikacji, no to będzie nam się zmieniał ten jeden schemat, a wszystkie inne schematy, które mieliśmy w systemie, nam się nie zmienią.
I to myślę, że jest akurat fajna sprawa.
I jeszcze tutaj zakładka informacji, która ma jeden istotny przycisk, który ma też swoją osobną aplikację.
Możemy przeczytać pomoc, odwiedzić stronę autora i pobrać więcej schematów.
I tutaj sobie na chwilkę wyjdziemy.
Download schemes.
Tutaj nam się otworzyła osobna aplikacja i mamy drzewko.
Mamy wszystkie schematy i tutaj mamy kategorie.
Abstrakcyjne, tutaj właśnie na przykład mamy schemat
Andre Luisa.
Tutaj schematy, które już mam pobrane są
zaznaczone.
Rozgrywka, tutaj mamy
anime, różne gry.
wojny, o właśnie te nazwy przejdziemy, na przykład
do sekcji Windows
i do sekcji Main, czyli główne schematy z poprzednich wersji z demu Windows.
Ja mam Windowsa 10, ale chciałbym
Windowsa XP już ściągnąłem wcześniej, to na przykład kupiemy
Windowsa Vista na przykład, bo myślę, że będziecie dźwięki z Windowsa Vista kojarzyć.
Można też znaleźć tutaj wszystkie schematy dodatkowe, które na przykład były właśnie w Windowsie 7 dostępne,
czy jeszcze z Windowsa 98, 95, tam też było parę schematów dołączonych systemem.
To wszystko tutaj też jest, jakby ktoś chciał sobie ściągnąć, no ale my sobie pobierzemy na przykład Vista.
Przestań! Przestań!
Przestań! Przestań!
Przestań! Przestań!
Przestań! Przestań!
Przestań! Przestań!
Przestań! Przestań!
Przestań! Przestań!
Przestań! Przestań!
Przestań! Przestań!
Przestań!
Przestań!
Przestań!
Przestań!
bo jest tych schematów tam kilkadziesiąt jak nie więcej,
więc myślę, że jeśli lubicie zmieniać dźwięki w swoim systemie,
lubicie się bawić takimi rzeczami,
to raczej znajdziecie tam coś, co wam się spodoba.
Zaglądam do waszych wypowiedzi i teraz czas na wypowiedzi głosowe.
Maciek nagrał do nas kilka wiadomości,
a zatem posłuchajmy, cóż Maciek ma nam ciekawego do powiedzenia.
Cześć, witajcie. Generalnie się w pierwszej kolejności może odniosę do tego częściowego,
jakby się to ładnie nazwali, no w każdym razie, że można nie tylko po pierwszych literach
wejściu ekranu Brailla wpisywać. Jeśli chodzi o ten nowy tryb Brailla i wyszukiwania aplikacji,
tylko ten, powiedzmy, ten częściowy, te inne człony nazwy.
Ja powiem tak, no, zauważyłem to i to mnie nieco irytuje,
powiem szczerze, bo, no, dawniej na przykład miałem tak,
że jak sobie wpisałem OR, jak Orange, no to miałem po pierwsze
Orange Flex, po drugie Orange Telefon, czy tam Telefon Orange,
w sumie, nie, Orange Telefon ja mam, mi się tak nazywa.
No i wiecie, od razu to miałem dwie tylko aplikacje.
A teraz ja wpiszę OR i od razu mam, po pierwsze, no dobry, niby jest Orange Telefon, Orange Flex, są porady jeszcze i tak dalej, bo OR, tak samo jeśli na przykład FA, bo ja chcę, albo nawet inaczej, TI, chcę Time for Busa na szybko otworzyć, no to muszę bardzo, miałem wtedy tylko jedną aplikację, więc nic z nią na przeszkodzie, od razu dwa palce w prawo,
No i, no i aplikacja mi się otwierała, nie?
A teraz TI, no to co? Time for Buzz to jest jedna rzecz.
A drugie, co może być, co zawiera TI?
Albo TI my nawet.
No, FaceTime, nie?
No, więc on to z Kubanymi znajduje.
Więc to takie trochę jest, no moim zdaniem,
w sumie fajnie by było jakby użytkownicy mieli wybór,
mogli sobie to przestawić.
No wiadomo, to jest pierwsza beta developerska.
ale raczej tego już nie zmienią,
a nie byłoby to wcale głupie,
gdyby to można było zmienić, no ale
tak jest, innym się to
podoba,
drugim nie, no więc no tak
to jest po prostu, no i tyle.
Tak, jeszcze
co do błędów, ciekawe błędy,
właśnie, jeśli chcecie pozbawić
aplikacji wiadomości,
czy raczej jej dostępności
na Apple Watchu, to tak,
tak zachęcam do instalacji bety WatchOS 11, o tym, co ciekawe, się w ogóle nie mówiło,
nigdzie na aplikacjach nie pisali i tak dalej, bo te wątki też przeglądam.
Natomiast aplikacja wiadomości jest dostępna do pewnego momentu,
to znaczy podgląd wiadomości ostatnio danego wątku,
ostatnio, ostatnio wiadomości napisanej, czy to otrzymanej, czy wysłanej jest,
ale gdy wchodzimy sobie w dany wątek, już daną konwersację,
niestety wiadomości w ogóle nie ma, nie są, jest tylko status.
Tak naprawdę ostatnio, jeżeli się coś wysłało na iPhone’ie na przykład,
no to jest status, że odczytano, że dostarczono, że coś,
nawet, że to jest przeczytane tak naprawdę,
ale nie ma możliwości podglądu listy wiadomości.
To jest jedno. Mało tego, w centrum powiadomień, jeżeli jeszcze nie wklikniemy w wiadomość, to okej, jest tam w sumie taki podgląd, to jest kawałek tej wiadomości, ale jeżeli już sobie w to klikniemy, to powiadomienie, nie, wtedy już nie będzie w ogóle nic.
więc taki fajny błąd, a na iPhone’ie z kolei w wiadomościach nie ma reakcji na wiadomości.
Dodaj naklejkę, owszem jest i można tam sobie emotką zareagować na wiadomość,
ale nie można z tego z poziomu pokrętła, gdzie jest reakcja, nie da się.
To znaczy nie jest widoczne dla voice overa, bo jak dzisiaj sobie przeanalizowałem,
zrobiłem zrzut ekranu do BeMy.ai to ładnie opisało, że tam jest pasek reakcji, kciuki w górę, tam serce, pytajniki, wykrzykniki i tak dalej, i śmiechulki, no to to jest, natomiast nie ma, czyli to dla widzących jest dostępne, a dla nas niestety nie, taka sama sytuacja ma się na Macu, tam też totalnie jakby ten obszar jest niedostępny, co do Maca, jeden taki mały ciekawy błąd,
odnośnie Wi-Fi i tego, że jak się połączy z daną Wi-Fi, albo generalnie tam się coś uaktualni,
zmieni się jak stan sieci, nie wiem, bo są jakieś zakłócenia, nie wiem, z dwóch pasków na trzy i tak dalej,
no wówczas wiadomości nie są. To znaczy, wiadomości nie są. Wi-Fi jakby wychodzi z tej listy voice over całkiem.
Wychodzi z interakcji z tą listą, trzeba sobie co chwila wchodzić. I jak tylko się coś zmieni, czy jeśli się połączymy z siecią
i ona zmieni swój status na, jak to nam ładnie VoiceOver anonsuje, zaznaczony,
no to nam też wychodzi, więc z tej listy.
Taka drobna niedogodność.
I taka jeszcze jedna, też związana z Wi-Fi, że już nam teraz nie czyta nazwy sieci.
Jeżeli sobie albo przypiszemy skrót, albo ustawimy, albo mamy wo F7,
albo, no właśnie, w ten sposób.
To nam nie czyta już nazwy sieci Wi-Fi, jak to miało miejsce w Sonomie,
Także no, na to gdzieś tam też trzeba mieć baczenie.
Pierwsza beta, zobaczymy, co będzie dalej.
Czy to tyle? Chyba tak.
A, jeszcze jedna taka drobna rzecz odnośnie tych przypisywania skrótów właśnie voice’owych na Macu.
Też jakoś tak dziwnie jest. Jeszcze póki co zrobiłem.
Tam jest niby tabelka, że można sobie wybrać tryb kolumnowy czy jakoś tak,
albo tryb tabelki. No i jakby mamy tryb kolumny, on jest mało intuicyjny w sumie, ale przynajmniej kategorie można i można sobie filtrować.
Jak mamy tryb tabelki, no to też jest jakiś taki głupi ten tryb, szczerze mówiąc.
A to, co mi się podoba, to aplikacja Hasła. To ona rzeczywiście fajnie działa.
Na Macu również, jak tam swego czasu wspominałem, że kod QR można sieci wi-fi pokazać teraz.
Na Macu też to można zrobić, działa fajnie.
Swoją drogą w Mac OS 14 mieliśmy błąd.
W ostatniej wersji się pojawił, że nie można było sobie w Safari hasła
w OShift M wejść z nim w interakcję, czyli tam typu kopiuj hasło,
kopiuj kod uwierzytelniania i tak dalej.
No na szczęście w Mac OS 15 w hasłach to się zmieniło na lepsze.
A, i jeszcze jedno drobne ostrzeżenie, jeżeli sobie ukryjecie aplikację poprzez Require Face ID i tam, żeby właśnie ukrywać tę aplikację, żeby trafiła do folderu ukryte, to póki co niestety nie da się z tego folderu jej wyciągnąć, ja sobie tak niestety ubiłem test flighta, bo chciałem sobie to sprawdzić,
jak to działa, no i sobie myślę, w sumie TestFlighta rzadko używam, no tego, dobra, no sprawdzimy, no i niestety jedyne co pomaga wejście ekranu Brailla,
swoją drogą właśnie test, TestFlight i SpeedTest, a propos tego częściowego wyszukiwania po części nazwy, więc nie można tego,
to w aplikacjach, w ustawieniach jest, w sekcji aplikacje, na samym samym końcu są ukryte aplikacje, gdzie jest autoryzm Face ID.
No ale niestety nie da się już tego wyciągnąć stamtąd, więc no może Face ID się da zablokować, potem da się odblokować,
bo jest Require Face ID, a potem jest Don’t Require Face ID, więc można to zrobić,
ale już odkryć aplikacje, że tak powiem, z ukrytych, no nie, niestety nie.
I to chyba rzeczywiście by było ode mnie.
Na tyle pozdrawiam wszystkich i dalszego dobrego prowadzenia audycji.
Pa, pa.
Ja myślę tylko jeszcze, wspomnę może, że myślę, że to byłaby dość prosta poprawka,
że jeżeli wpisujesz jakiś ciąg znaków, to najpierw pokazują się w pierwszej kolejności aplikacje,
od których to się zaczyna, a dopiero potem np. aplikacje, które zawierają ten ciąg znaków, więc myślę, że to jest wszystko do pogodzenia.
Ewentualnie, które najczęściej są otwierane przez nas, albo te.
Tak, myślę, że to też miało wpływ, jeśli mogę też coś podpowiedzieć. Nie wiem, jak to zadziała w tym przypadku, bo akurat miejsc tego korzystałem, nie zauważyłem akurat, że tam to zostało dodane.
Natomiast w LaunchBarze i w Discordzie też takie częściowe wyszukiwanie jest często wykorzystywane.
Na przykład Discord chyba bierze pod uwagę częstość takich rzeczy.
Natomiast jeśli ja szukam czegoś w interfejsie takim, to ja generalnie, i to zazwyczaj eliminuje takie problemy, że coś nam nie znajduje, wpisuję pierwsze litery wyrazów.
Więc jeśli jakaś aplikacja składa się z kilku wyrazów, tak jak na przykład wspominałeś o Test Flight’cie, to ja bym go nie szukał po TES,
czyli jeśli wiem, że tutaj jest ten Fuzzy Matching tak zwany, to ja bym prawdopodobnie tutaj próbował wpisywać TF, jak Test Flight.
Time for Bus, no tutaj też T4, tak, bo tam jest to 4 wpisane czwórką, tak?
Chyba tak, tak.
No właśnie, więc…
Tak, tak, cztery, albo nie wiem, BU albo coś tego typu.
No właśnie, no właśnie.
No tak, ja właśnie też co miałem powiedzieć, bo rzeczywiście na przykład jeżeli mamy aplikację Sync Assistant Move, Sync Assistant Home, jeszcze Sync AI, no to akurat w tym przypadku to się bardzo przyda. Wpisuję pewnie MOV i mam.
Albo sam.
Albo sam. Sam?
Sync Assistant Move.
I to zadziała na takie skrótowce?
Powinno.
Są pola do testów, w końcu do tego właśnie teraz służą te bety i pamiętajcie o tym, bo coraz więcej osób pyta, jak zainstalować betę, jak to zrobić.
Myślę, że znowu warto to powtórzyć, bety, jeżeli macie główne jedno urządzenie, z którego korzystacie, to się naprawdę, nawet nie dwa, tylko pięć razy zastanówcie,
Czy aby na pewno instalowanie w wersji absolutnie niestabilnej systemu to jest to czego chcecie i czy jesteście w pełni świadomi konsekwencji jakie to może za sobą nieść.
Jeszcze wiadomości mamy tu tekstowych kilka, więc do nich pozwólcie teraz przejdę.
Mamy na przykład wiadomość od Pawła.
Szacunek dla Łukasza. Ciekawą ma pasję. Na pewno producenci urządzeń przemysłowych mają niezłą zagwozdkę jako sobie niewidomej wytłumaczyć działanie urządzeń i mi to się kojarzą wycieczki szkolne do fabryki czekolady i do huty imienia Sędzimira w Krakowie oraz targi robotyki na których kiedyś byłem i dzięki poznanym tam osobom jako jedyny w szkole miałem dostęp do internetu.
na ACK cyfronet. No to rzeczywiście, do czasy podejrzewam takie, kiedy ten dostęp do internetu to był rzadkością i rzeczywiście wtedy to było coś.
Ja jeszcze może odpowiem na swoje własne pytanie, bo tutaj szybko sprawdziłem jak się to zachowuje też z ciekawości.
Działa to mniej więcej tak, ale faktycznie coś by można było jeszcze tutaj poprawić, bo na przykład wpisując TF i szukając test flighta
Pierwszy wyrzucił mi Netflix, a wydaje mi się, że ostatnio otwieram TestFight’a częściej niż Netflix na iPhone’ie.
Drugi wyskoczyła mi inna aplikacja do powiadomień NTF i dopiero na dole był TestFight, więc faktycznie on go znalazł, ale nie wiem czemu właśnie był na końcu listy, więc tutaj faktycznie sortowanie według częstości otwierania to myślę, że byłoby tutaj dobrym pomysłem.
Tak samo próbowałem szukać Seeing AI, wpisułem C-A-I, no i mi znalazło tylko Hokusai’a, czyli ten edytor audio, więc…
Czyli chyba skróty nie działają.
No z TestFlightem zadziałały, więc tutaj jeszcze ewidentnie jest coś…
Ale czy TestFlight nie pisze się na raz?
Bo test tyfy…
Tak.
To pewnie dlatego.
No pewnie tak.
Zawsze można jeszcze to pozgłaszać do Apple’a i może coś tam dopracują.
No tutaj wspólnymi siłami.
Oczywiście, w sensie testy na żywo w trakcie audycji.
Tak, tak.
Dokładnie. I jeszcze jedna wypowiedź, tym razem z YouTube’a.
Mamy taki komentarz pod transmisją.
Paweł do nas napisał. Też Paweł, ale nie ten sam.
Witam. Jaki waszym zdaniem jest najlepszy konwerter na Windows z YouTube’a na MP3?
Pozdrawiam i miłej audycji.
Jaki jest najlepszy, to nie wiem, ja z przyzwyczajenia korzystam z Pontessa.
Ja tecę Amedia Downloader, aczkolwiek wiem, że jego się trochę trudno ściąga, ale ostatnio wyszło kilka dodatków do NVDA, które pozwalają na ściąganie z YouTube’a, więc można się też zainteresować tym.
To na pewno nie będzie rozwiązanie dla wszystkich, ale ja po prostu biorę u źródła, że tak powiem, i korzystam bezpośrednio z YTDLP z wiersza poleceń, czyli tego narzędzia, które pewnie dziś wewnętrznie te wszystkie inne aplikacje wykorzystują.
No zgadza się.
To prawda, ja zrobiłem po prostu plik bat i po prostu
przeklejam link w miejsce url i to działa.
Nawet mam zrobione to w taki sposób, że na początku mi się aktualizuje.
Pierwsza linijka, druga to jest właśnie do pobierania filmików.
Także ile ludzi tyle sposobów.
Natomiast rzeczywiście pewnie PONTES, bo pewnie PONTES
no to, no to jest taki chyba dość, dość znany.
Dobrze, to może teraz w takim kontrowersyjnym pomyśle na pomoc z niepewnosprawnościami we Francji.
Tam chodzi o wybory i sposób jest rzeczywiście dziwny.
Owszem, no bo jak śledzicie, co się w polityce dzieje, to pewnie słyszeliście, że,
no jak w różnych krajach się potoczyły wyniki tychże wyborów do Parlamentu Europejskiego,
o których już tutaj kiedyś wspominałem przy innej okazji.
No i tam rząd postanowił, a raczej prezydent postanowił rozwiązać parlament.
No i powołane będą nowe wybory parlamentarne już 30 czerwca pierwsza tura, 7 lipca druga.
No i nie wspominałbym o tym w ogóle, no bo co nas to interesuje, gdyby nie pewna inicjatywa,
na którą uwagę zwrócili mi na Mastodonie śledzeni przeze mnie francuscy aktywiści
na rzecz dostępności. No bo we Francji jest takie prawo, że osoba z niepełnosprawnością,
która gdzieś tam sama zagłosować nie może, albo nie do końca może ufa nakładkom,
podobnie jak ja o tym wspomniałem, może powołać pełnomocnika,
który zagłosuje w jej imieniu.
No i okej,
to, że tam
jakieś pewnie są pola do nadużyć, wiadomo,
ale jest to jakaś metoda.
W Polsce w sumie też mamy głosowanie przez
pełnomocnika. No tak, racja.
Rzeczywiście.
No to widzisz, jest taka możliwość
i tu ktoś
wpadł na pomysł, że okej,
może nie każdy ma takiego pełnomocnika,
jakąś osobę zaufaną,
no więc poszukajmy tej osobie pełnomocnika
w internecie. I spirala problemów, myślę, że nasuwa się od razu. Dlaczego to jest tak bardzo zły pomysł, bo już nawet sam nagłówek reklamujący tę stronę, kiedy ją otworzymy, przynajmniej w tłumaczeniu takim maszynowym, zrobionym Google Chrome’em, głosi serwis randkowy do wyborów.
Więc jest to bardzo, bardzo złe. Ale dlaczego tak naprawdę?
No bo wiadomo, jaką mamy pewność, że osoba, którą my gdzieś tam w internecie sobie znajdziemy
i która zdeklaruje się niby, że to w dobrej woli dla nas oddać głos
i my tej osobie udzielimy pełnomocnictwa,
może zagłosować wedle swojego uznania, a nie naszego.
Więc o ile popieram różne inicjatywy wolontariackie,
typu Be My Eyes na przykład, czy różnego rodzaju inicjatywy,
które w czasie pandemii też działały, żeby znaleźć sobie przez internet
wolontariuszy, którzy pomogą nam zrobić zakupy, czy jakieś inne sprawunki
załatwić, które w wyniku ograniczeń pandemicznych się gdzieś tam pojawiły
okazały trudniejszymi do wykonania osobom z niepełnosprawnościami.
No o tyle tak delikatna i dość, w końcu mówimy o wyborach tajnych,
rzecz jak decydowanie o tym, kto będzie w naszym kraju rządził,
raczej nie powierzałbym tego osobie zupełnie obcej.
Tam jeszcze później ktoś się dogrzebał po badaniu WHOIS,
czyli informacji o właścicielach domeny, że ta osoba, która ten serwis założyła,
na którą zarejestrowana jest domena, w jakiś sposób jest powiązana z aktualnie rządzącą
gdzieś tam partią Emanuela Macrona. No więc gdzieś tutaj też były jakieś wątpliwości.
Czy aby na pewno zostało to powołane w dobrej wierze i czy aby na pewno ci wolontariusze
znalezieni będą tacy bezstronni i wysłuchają woli tych osób, które im te pełnomocnictwa
powierzyły. Możliwe, że czegoś nie wiem, możliwe, że czegoś nie doczytałem,
ale zdaje się, że ci Francuzi, których opinie czytałem, mają podobne obiekcje co ja i nie uważają tego za dobry bardzo pomysł.
Ale ja się tak trochę w adwokata diabła pozwolę sobie pobawić i zapytam taką rzecz, bo z mojej perspektywy takie głosowanie przez pełnomocnika
jest to absolutnie ostateczna rzecz, jaką chciałbym zrobić i jaką ma możliwość.
Jeżeli nie mam innej możliwości, to korzystam z tego. I teraz tak, nie mam zaufanego pełnomocnika,
więc tak naprawdę moja decyzja może sprowadzać się do dwóch wyborów, tak naprawdę.
Albo nie głosuje wcale, albo głosuje przez takiego losowego pełnomocnika, którego znajduje w internecie.
I na tak postawione pytanie, to w takim razie co jest lepsze?
Wiesz co, ja bym poszedł z jakąś trzecią opcję pod tytułem upoważnić członka Komisji Wyborczej,
który byłby związany odpowiednimi jakimiś oświadczeniami.
I oczywiście, że nigdy potem nie dojdziesz do tego, czy ta osoba również zaznaczyła wedle twojej
gdzieś tam woli. Natomiast ktoś, kto gdzieś tam się zobowiązał, żeby być w tej komisji wyborczej,
to też są bardzo często osoby z przysłowiowej ulicy, to ja wiem, ktokolwiek może w komisji
siedzieć, albo jakiś oddelegowany pracownik, który nawet by przyszedł do twojego domu.
bo wiem, że to jest znowu obciążenie dla gdzieś tam tych struktur administracyjnych,
żeby ci pomóc w tym głosowaniu korespondencyjnym,
ale ktoś, kto w jakikolwiek sposób będzie związany prawnie
tym, żeby tego wyboru dokonać wedle twojego wskazania, a nie własnego widzimisię.
No i to jest rzeczywiście dobry pomysł, żeby coś takiego zrobić.
I zastanawiające jest, dlaczego nie chciano pójść tą drogą właśnie.
Właśnie ja kojarzę jeszcze z czasów chyba poprzednich wyborów do Parlamentu Europejskiego 2019, że to chyba w EBU Access Cast podcaście jeszcze wtedy jeden z prowadzących opowiadał, że zdaje się w Brukseli właśnie jak ktoś chciał głosować nie wiem czy tylko w Brukseli czy w całej Belgii, to tam można było się powołać na pomoc członka komisji wyborczej.
Bo wiecie, bo tak naprawdę to głosowanie przez pełnomocnika to wydaje mi się, że w większości przypadków to już są naprawdę takie sytuacje, że ktoś ma naprawdę poważną jakąś niepełnosprawność i też zastanawia mnie, czy w ogóle taka osoba będzie w stanie nawet i w prosty sposób skorzystać z takiej strony, która nam tu oferuje wyszukanie jakiegoś pełnomocnika.
No bo w innych przypadkach, no to my tak naprawdę, jeżeli mamy głosowanie, powiedzmy, jeżeli nie widzimy, a nawet nie mamy za bardzo jak wybrać się do lokalu wyborczego,
pytanie czy tam na przykład da się głosować korespondencyjnie. Czy jest taka możliwość?
Nie wiem, nie powinno się dać, bo tak mi się wydaje, że chyba, że czegoś nie wiem, w większości krajów europejskich, no w Stanach też jest to możliwe.
natomiast mogę czegoś nie wiedzieć, to jest też prawda.
No jest to ciekawe, ale rzeczywiście pomysł, tak zupełnie serio mówiąc,
no jest kontrowersyjny.
Jest, jest, jest. No ja z nakładkami mam duży problem i to nie jestem w tym sam.
Oczywiście.
Ja nie czuję się pewnie, stawiając krzyżyk w nakładce.
Czy to w ogóle jest ważny głos?
Czy głos jest ważny?
czy, bo na pewno wiadomo, że gdzieś w okolicy tego miejsca,
które my chcemy zakreślić, ten głos się znajdzie.
Ale to nie może być, że w okolicy, to musi być w tej kratce.
Nie zezwalają na margines błędów w tej sytuacji.
Ja w ogóle jestem, strasznie mnie, może nie przerażają,
ale frustrują takie czynności w życiu, które my wykonujemy
każdego dnia, ale nie jesteśmy w stanie tak na dobrą sprawę
w stu procentach zweryfikować ich skuteczności.
jakieś takie mikroskopijne gdzieś tam sprzątanie czegoś i tak dalej, nie?
Podpisywanie się chociażby.
Dokładnie, podpisywanie jest zmorą, tak naprawdę.
My to robimy i będziemy to robić, bo nie ma innej opcji, natomiast
no, prawda jest taka, że nie jesteśmy w stanie zweryfikować samodzielnie,
jaki jest wynik tego, co robimy.
I zazwyczaj…
Możemy to polegać na feedbacku osób widzących.
I zazwyczaj tak naprawdę to dowiadujemy się, że jest problem,
jeżeli chodzi o podpis, w przypadku kiedy naprawdę już jest jakiś duży kłopot,
kiedy mamy jakąś osobę, która naprawdę czasem w dobrej wierze, a czasem po prostu chroniąc siebie,
zaczyna kwestionować ten nasz podpis. Na przykład mój podpis wcale nie jest jakiś elegancki,
bo nie mam jakoś go bardzo wyrobionego i kiedyś nawet nad tym trochę posiedziałem, trochę popróbowałem,
ale to niestety, to jest tak, że jak tego podpisu nie używamy jakoś bardzo regularnie,
to potem i tak się zapomina, jak to powinno być.
No to nie jest ten odruch ręki osoby, która od dziecka na przykład pisze.
No to nie, to zupełnie nie jest to.
Więc u mnie to za każdym razem to jest po prostu zastanawianie się,
kiedy podpisuję jakiś dokument,
ja jestem bardzo szczęśliwy, kiedy mogę podpisać go w sposób elektroniczny,
ale za każdym razem, kiedy podpisuje jakiś dokument
długopisem, to jest takie zastanawienie się,
czy ktoś się tym razem przyczepi.
Dokładnie, dlatego miejmy nadzieję, że zostanie
wyrobiony jakiś fajny kompromis między
oczywiście cyberbezpieczeństwem, które jest szalenie
ważne i przynajmniej nikt z nas tego
nie chce tu kwestionować, a
dostępnością, która
może sprawić, że my
będziemy w stanie zweryfikować
efekty własnych działań, które są
tak szalenie ważne w życiu społecznym.
No i to chyba tyle ode mnie.
No dobrze, to w takim razie przechodzimy jeszcze do newsa od Michała, zanim będziemy tutaj maratony różne tutaj uskuteczniać, że tak powiem.
Nie będzie ich dużo, ale coś tam, coś tam się znajdzie.
I teraz coś dla tych, którzy słuchają radia i no właśnie, ciekawy odtwarzacz radia internetowego.
Tak, to w ogóle bardzo ciekawa rzecz jest z programem Stations,
bo użytkownik, który stworzył to oprogramowanie, to tak na mastodonie właściwie napisał
a no zrobiłem coś takiego, w sumie nie wiem czy to komuś będzie potrzebne,
bo to jest taka nisza, że to chyba tylko ja z tego będę korzystał.
A tu nagle się okazało, że ileś osób jest zainteresowanych
i rzeczywiście, no muszę przyznać, że aplikacja Stations,
która jest bohaterką tej mojej wypowiedzi,
no to zagościła u mnie jako taki codzienny odtwarzacz radia internetowego.
Bo to jest bardzo wygodne narzędzie i ma kilka bardzo interesujących funkcji.
Ja teraz może nawet zrobię taką króciutką demonstrację.
Postaram się tu zaraz włączyć syntezę i pokazać wam troszeczkę jak wygląda interfejs tego programu.
Mamy syntezę.
No więc tak, jest aplikacja Stations, aplikacja, która tak naprawdę w całości bazuje na skrótach klawiszowych,
bo pod altem nie mamy nic.
Kiedy naciśniemy TAP,
mamy coś, co nazywa się Zero Tyflo Radio.
No i o co tu chodzi? Chodzi tu o to, że w tej aplikacji możemy tak naprawdę słuchać wielu stacji naraz.
Jak to działa to ja pokażę za momencik. Na razie pokażę jak bardzo fajne jest przełączanie się pomiędzy tymi stacjami.
W tym momencie nie słychać w ogóle niczego, ale ja przełączę w tej aplikacji kartę na jakąś tutaj poboczną, żeby pokazać jak to w ogóle wszystko brzmi.
Zaraz się trochę zdublujemy, ale trudno się mówi.
Naciskam literkę S.
I tu bardzo fajnie możemy sobie wybrać kartę, którą chcemy.
Wybieramy trochę nietypowo, bo tabem.
Dobra, wybieram sobie to.
Zostaje pytanie, czy chcę, żeby tylko teraz ta karta została zmieniona.
Tak, chcę, bo nie chcę, żeby została zapamiętana na stałe, słucham zwykle radia na domyślnej karcie.
Więc wybieram sobie, jest, no skrótnie działa jak widać.
No dobrze, i teraz przełączamy się, podgłośniłem ten dźwięk.
Nie chcę, żeby zaraz będzie zdublowany, więc szybciutko z tego wychodzę i przełączam się strzałkami.
i coś tu nam gra.
I teraz przechodzę sobie po prostu strzałką lewo, prawo po liście,
po liście stacji radiowych, które dodawać można na dwa sposoby.
Można wcisnąć spację i wtedy jesteśmy proszeni o adres URL stacji radiowej,
następnie jesteśmy proszeni ponownie o wprowadzenie nazwy tej stacji,
Kiedy już wprowadzimy adres URL, wciskamy Enter, później po prostu podajemy nazwę.
Natomiast możemy również w pliku stations.txt
powpisywać sobie adresy z tych strumieni do stacji internetowych
w formie po prostu adres, spacja, nazwa stacji i to jest w zasadzie tyle.
I teraz tak, możemy sobie listę tych stacji, oprócz tego, że możemy się pomiędzy nimi przełączać,
to możemy sobie je przeszukiwać i to też w bardzo fajny sposób,
bo na przykład mam, powiedzmy, program trzeci Polskiego Radia,
tak sobie wpisałem te nazwę tej stacji.
Teraz naciskam Enter, bo właśnie w ten sposób wyszukujemy
i teraz mam program trzeci Polskiego Radia, wpisuję po prostu 3 i Enter.
I mam już trójkę, tak, Polskie Radio, program trzeci.
Chcę poszukać sobie programu pierwszego polskiego radia?
Jeden, Enter.
Dokładnie.
I w ten sposób mogę sobie przełączać się pomiędzy tymi stacjami.
Regulacja głośności to jest strzałka w górę, strzałka w dół.
To jest regulacja głośności mastera, tak zwanego.
Natomiast mamy tu jeszcze coś takiego jak Page Up i Page Down.
i tym regulujemy sobie głośność poszczególnych stacji,
bo teraz możemy zrobić na przykład coś takiego.
Mam sobie program pierwszy polskiego radia,
odtwarzam go sobie i teraz shiftem i strzałką w prawo
przesuwam go sobie, o, na przykład na tyle
i teraz słyszymy go bardziej w prawym kanale,
a teraz dodajemy do tej naszej listy kolejną stację.
Naciskam A i dodało mi się Tyfloradio, dlatego że Tyfloradio jest pierwsze na liście.
Teraz naciskam, na przykład będę chciał sobie dodać powiedzmy trójkę,
bo teraz też tam są wiadomości, więc naciskam Enter, wyszukuję trójkę.
I teraz na przykład mogę ją sobie też przerzucić bardziej na lewo.
I w ten sposób możemy sobie słuchać dwóch stacji jednocześnie, a jeżeli na przykład chciałbym, żeby te dwie stacje brzmiały tak bardziej przestrzennie, mogę włączyć tak zwany HRTF, mamy w trójce i teraz w jedynce też włączam sobie HRTF i mamy tak, no powiedzmy bardziej w przestrzeni, pytanie jak to nasz procesor
sobie z tym poradzi.
Możemy tak dodawać ile tylko stacji
chcemy, regulować ich głośność,
a jeżeli chcemy pozostać tylko
przy jednej stacji radiowej, no to
po prostu wycofujemy się z tego, usuwamy
ten player drugi,
czyli player
de facto pierwszy, bo tu się liczy
od zera, naciskam, przełączam
się pomiędzy nimi za pomocą
klawisza TAP i teraz usuwam ten
player naciskając literkę
D.
I zostaję tylko z jedynką, wyłączam sobie HRTF, mogę przełączać się pomiędzy różnymi losowymi stacjami naciskając literkę R.
O tu Vigor FM akurat się wyłączyło.
Mamy tak.
O, znowu jedynka.
I tak dalej, i tak dalej.
Jest tutaj trochę tych różnych skrótów klawiszowych, działa to całkiem fajnie, więc naprawdę ja używam tego obecnie na co dzień.
Wada jak dla mnie tej aplikacji jedna jest i podstawowa, mianowicie no niestety nie wspiera chociażby HLS-ów,
więc BBC na przykład, którego tak normalnie byście tu nie odtworzyli, ja odtwarzam przez taki specjalny mostek,
którego też używam do Winampa, ale z racji tego, że mam to już skonfigurowane,
więc sobie dodałem ten adres BBC do tej aplikacji, do aplikacji Stations.
Więc jeżeli was to zainteresowało, to ja polecam, bo może to być coś ciekawego,
szczególnie dla tych, którzy po pierwsze chcą szybko przełączać się
pomiędzy różnymi stacjami internetowymi. To jest raz.
A dwa, może ktoś ma na tyle podzielną uwagę, że jest w stanie słuchać
kilku strumieni jednocześnie. Mnie na dłuższą metę to męczy, ale jeżeli na przykład mam jakąś stację mówioną,
typu, nie wiem, na przykład TOK FM i chcę sobie pod tym TOK FM-em słuchać jakiejś jeszcze dodatkowo muzyki,
to takie kombinacje już testowałem i bez problemu jestem w stanie w ten sposób nawet dość długo wytrzymać.
Ja też pomyślałem, że to jest fajne rozwiązanie na właśnie euro, które teraz trwa.
Bo można sobie włączyć na dwóch kanałach na przykład dwie transmisje mecze,
jak będą mecze równoległe gdzieś tam lecieć i sobie można podsłuchiwać raz jednego, raz drugiego
tu na jedną słuchaweczkę to, na drugą słuchaweczkę tamto.
Albo w przestrzeni sobie to jeszcze rozlokować.
Takie multi-view.
I w ten sposób sobie, że tak powiem, to porównywać.
Nie wiem, czy w Polsce znajdzie się gdzieś więcej, bo na pewno jedynka transmituje mecze.
I tylko jedynka, i tylko jedynka.
Można ewentualnie posilić się zagranicznymi stronami.
Zagranicznymi, tak.
Dokładnie.
Wiecie, ale euro to euro, ale ja sobie na przykład wyobrażam jakąś stację, która na przykład nadaje dużo mowy.
Nie wiem, no są takie stacje, tak, bardzo publicystyczne, a w tle jakąś stację z jakimiś odgłosami przyrody,
bo przecież są takie różne radia, które streamują dźwięki z zewnątrz, dźwięki lasu i w ten
sposób jakby robić sobie takie dźwiękowe instalacje, nawet dwie, trzy na raz, bo w sumie
czemu nie i też robić sobie właśnie takie wielostacyjne, ambientowe też
instalacje i na wierzchu właśnie dać sobie jakieś radio, w którym o czymś mówią i w
w ten sposób też sobie, no, zrobić, żeby ten tekst leciał w jakimś fajnym otoczeniu.
Tak, na pewno obsługuje ta aplikacja formaty AC, AC+, i MP3.
Nie testowałem ZOGG, więc jestem ciekaw, czy…
Działa.
Działa, aha, okej, no to też super.
Tak jak mówię, jedyny problem to możecie mieć z tymi nowoczesnymi streamami HLS albo np. DASH.
No, pytałem w ogóle autora, czy planuje to wdrożyć, odpowiedział, że nie, więc widocznie nie jest mu to potrzebne,
bo to jest ewidentnie jakaś taka robótka na czyjeś potrzeby, ale bardzo fajna i…
Tak, dlatego ja trochę nie wiem w tym projekcie, jak mam sugerować jakiekolwiek nowe opcje, bo nie wiem, jakby tutaj najmądrzejszym
pytaniem byłoby, jaki jest w ogóle roadmap, ale pewnie i tak byśmy się dowiedzieli, że żaden.
Żaden, tak.
Tak, bo nie wiem, co on uzna za potrzebną funkcję, co za mnie na czyjąś prośbę dodał wyciszczanie np. stacji M, literą M.
Jest wersja 1.3.2, nie wiem czy już masz.
Ja nie wiem czy też kwestia tutaj obsługi HLS-a nie jest związane z tym, że po prostu to narzędzie powstało w NVGT, o którym już mówiliśmy.
Przykłady jak można to wykorzystać, może on po prostu też nie ma wsparcia dla tego, może nie ma jak to zaimplementować po prostu.
Całkiem możliwe, ale tak czy inaczej to jest właśnie taki przykład, że czasem ktoś stworzy coś i nawet się nie spodziewa, że to się komuś może przydać, a tu jednak.
Mówiło się o maratonach, no i maratonach. Maratony dzisiaj mamy dwa, to może zacznijmy od nowości z Side City, bo tu jeszcze kilka tych nowości Paweł przygotował.
Zgadza się, no bo jak zwykle jakieś podcasty nadal raportują i tak widzę, że tego trochę jeszcze będzie, bo na przykład ten jeden podcast, z którego tutaj korzystam.
O, tutaj jeden z tych portali, z których korzystam, czyli podcast SciViews z Bawarskiego Związku Niewidomych, tu już prowadzący Christian Stahlberg zapowiedział, że no on to jeszcze ma,
Oprócz tego, co dzisiaj wam przekażę, jeszcze z 17 chyba czy ileś odcinków zaplanowanych,
więc tak przewiduję skończyć w połowie lipca.
No więc jeszcze się z Side City spotkamy.
My, zdaje się, również planujemy audycję o Side City.
Znaczy, no my jako my, to nie, że ja osobiście, ale jest planowane chyba w Tyflo Podcastie, tak Michale, że będzie audycja?
Szczerze mówiąc, to nie wiem, to Tomek coś mówił ostatnio, więc…
Okej, dobra.
Więc pytanie, czy przypadkiem nie była to jakaś taka pomyłkowa informacja?
Ja się chyba, tak, coś pomyliłem, tak, chyba pomyliłem dwa wydarzenia.
No w każdym razie, to ja będę wam przekazywał te informacje dalej
i mam nadzieję, że poczujecie się chociażby trochę tak, jakbyście tam byli.
Ja jestem chyba w tym roku najlepiej
doinformowany z tych wszystkich lat, kiedy mnie tam osobiście nie było, także
nie mogę narzekać na źródła.
No i pierwsza informacja trochę już
nawiązuje do tego, co dzisiaj się wydarzyło, bo Łukasz był tutaj z nami i powiedział
Po pierwsze, że używa Smart Vision 3, a po drugie, że z powodzeniem założył konto i poczatował sobie z czatem GPT przez BlindShilla Classic.
No więc pierwsza nowość tyczy się dokładnie tego, że Smart Vision planuje wprowadzenie asystenta na bazie GPT do swojego telefonu,
który ma rzekomo odpowiadać na różne pytania, no ja bym tego jako model wiedzy jednak nie wykorzystywał.
Nie wiem, czy ma też wykonywać jakieś funkcje w samym telefonie, natomiast na pewno będzie można sobie konwersacje z tym czatem poprowadzić.
Tą informację mamy znowuż od czeskiej ekipy Teczko+. Ktoś z prowadzących podcast był na konferencji Site City i taką informację ze stoiska firmy Capsys uzyskał.
Także to jest taka pierwsza drobna informacja, natomiast co mamy dzięki siteviews tutaj dalej?
Był wywiad z Fieldspacem, czyli firma, w której poniekąd się udzielałem na pewnym etapie.
Może pamiętacie nasze wystąpienie z pasem nawigacyjnym na Recha for the Blind w roku 2022 to było?
No tak, 2022, czyli dwa lata minęły, mijają niedługo od tego pamiętnego wydarzenia, bo bardzo wtedy było fajnie, i tutaj aplikacja się rozwija, na iPhonie na przykład doszła opcja wyboru źródła danych mapowych, czy mają być to mapy Apple, czy ma być to OpenStreetMap.
Jeżeli wybierzemy OSM-a, to jest coś, czego jeszcze nie testowałem, szczerze mówiąc, bardzo mnie to tu gdzieś zadziwiło, mianowicie OSM ma zaznaczone przejścia dla pieszych.
No więc jeżeli wytyczymy sobie trasę i ta trasa będzie wymagała przejścia dla pieszych, to PAS pokieruje nas, jak mamy, pod jakim kątem przez to przejście, przejść.
Mówię, nie testowałem, musiałbym jeszcze kiedyś się wybrać z pasem, przełączyć te źródła i zobaczyć jak aplikacja się zachowa.
Natomiast taka możliwość jest, dużo też takich usprawnień właśnie gdzieś w tych różnych mechanizmach aplikacji.
No i jest przewidywane, ale nie wiadomo jeszcze kiedy, czy za rok, czy za dwa, nowa seria pasów, która będzie miała USB-C,
no bo na ten moment dalej pasy są ładowane przez mikro USB, także dość przestarzały port.
Sam mam problem, muszę pamiętać, żeby mieć zawsze ładowarkę tą od pasa, bo aktualnie już do wszystkiego praktycznie mam USB-C, także tutaj fajnie, że też się o to postarają.
Mamy informacje na temat X-Banda, czyli ten szwedzki wynalazek, opaska na rękę, która wibruje nam różne informacje z naszego smartfona.
No i jest to opaska rzeczywiście zakładana na rękę, ma dwa przyciski. Jeden jest do wibrowania godziny, drugi jest do parowania telefonu przez bluetooth.
Godzina jest wibrowana podobnie jak na Apple Watchu,
czyli piątka to jest długa wibracja,
i dalej jednostki to są pojedyncze wibracje,
więc godzina, nie wiem, ósma,
to przykładowo jedna długa wibracja, no bo pięć,
i do ósemki zostaje nam trzy, więc ż ż ż.
I tak samo minuty.
I chyba zaczyna od minut, tego trochę nie zrozumiałem,
jakoś tak dziwnie.
No i oprócz godziny może ona nam również
wibrować, powiadomienia z telefonu.
I tu dwie ciekawe rzeczy, bo po pierwsze
że możemy sobie ustawić na konkretne powiadomienia różne style wibracji i jakieś własne chyba nawet wzorce.
No więc możemy, tutaj podawany był przykład, inna wibracja jest na smsa od mamy,
a inna wibracja jest na informację, że ktoś coś tam na Facebooku nam polajkował.
No więc możemy taką personalizację wprowadzić, ale możemy także ustawić wibrowanie powiadomień alfabetem Morse.
Dlatego jeszcze mieliśmy to poniekąd na androidzie w formie aplikacji na androida.
Na Apple Watch też jest.
Jest?
Mhm.
Wow. To widzisz. To znowu czegoś nie wiedziałem. Dzięki za informację.
Używa tego ktoś z ciekawości? Nauczył się ktoś Morsa przez to?
Znam osobę, która zna, ale nie używa, bo to po prostu trwa zdecydowanie za długo.
Jestem sobie to w stanie jakoś wyobrazić.
Ja kiedyś próbowałem na androidzie klawiaturą morsowską pisać, było takie coś, dwa przyciski do kropki i do kreski, i że tak powiem, tam to ti i ta, bo to się chyba tak profesjonalnie nazywa, i ciężko było, znaczy dało się, ale było to ciężkie.
No więc takie rzeczy można robić, można też regulować prędkość tej wibracji, siłę itd. za pomocą aplikacji mobilnej, no urządzenie ma kosztować jakieś 250 euro, więc nie wiem szczerze mówiąc czy już nie bardziej opłaca się kupić, może trochę dopłacić całego watcha tak naprawdę, no ale może firma ma jeszcze jakieś sekretne plany co z tym urządzeniem będzie chciała zrobić.
VoxyVision, czyli taki telefon francuski, troszkę uproszczony, dotykowy, który trochę stylem BlindShell’a pozwala na uproszczony dostęp do różnych usług, więc w sumie żadna taka rewolucja wielka.
MVAI, czyli belgijska aplikacja do opisywania obrazów z dodatkiem takim emocjonalnym,
czyli możemy aplikacją rozpoznawać zdjęcia i otrzymywać różne opisy.
I ta aplikacja korzysta, co prawda, z GPT jako silnika, ale ponoć tam jakieś własne
programowanie firmy nastąpiło, żeby troszeczkę spersonalizować te opisy.
i będzie można wybrać sobie różne rodzaje opisów,
przykładowo opis skrócony, jeżeli na przykład fotografujemy,
nie wiem, nadjeżdżający autobus, chociaż fotografowanie tego
to jest słaby pomysł i chcemy tylko dostać informację
właśnie jaka linia przyjechała,
no to pokusimy się o taką krótszą informację,
ale też był podany przykład jakiegoś abstrakcyjnego malunku, obrazu.
No i to też zostało jakoś tam opisane,
ja nawet słyszałem taki opis i to tam było takie,
że obraz jest abstrakcyjny, składa się z jakichś tam figur geometrycznych
i ma przypominać, tam nie wiem, plażę, morze i domki i coś tam jeszcze.
No ciekawe, na ile można by go zrobić w bambuco jakimś takim obrazem,
którego człowiek nie jest w stanie zinterpretować tak w pełni.
Obawiam się, że jest to dość proste.
Natomiast też mają być opisywane emocje ludzi.
Nie wiem, jak to będzie wyglądało, bo tutaj niestety dema nie mieliśmy, obawiam się, że to może pójść i skręcić w tą samą stronę, w którą skręcają opisy Pixiebota, w tym trybie właśnie domyślnym, kiedy on jest taki trochę emocjonalny.
Nie wiem, mnie osobiście te opisy Pixiebota irytują trochę, spotkałem się już z opinią, że one są takie fajne, że są takie przyjemne, że ktoś to lubi, no dobrze, okej, to fajnie, dlatego tam są też różne style,
ale mnie to osobiście drażni.
Jakieś, aż chciałoby się z tym pieskiem poleżeć
i go pogładzić i coś.
Nie, nie, proszę, nie.
Także, no nie wiem jak będzie wyglądało to w wykonaniu MV.
Aplikacja rzekomo w niemieckim App Store jest dostępna od początku czerwca.
Ja szukałem w polskim i nie mam.
No i też jest tak, że aplikacja przez pierwszy miesiąc
jest dostępna za darmo, a następnie jest abonament
50 euro za miesiąc, bądź 500 euro za rok.
No, więc niestety tutaj są to dość duże pieniądze.
Czy to jest tego warte?
Ja się nie przekonałem, może nie wszystko jeszcze wiem.
To już naprawdę te opisy musiałyby być super.
Tak, bo dożywotni PixyBot chyba kosztuje tylko 20 chyba, tak?
I w ogóle PixyBot ma przecież opcję dożywotnią, więc…
No to właśnie o tym mówię, tak? Ona chyba 20 albo 30 tylko kosztuje.
A tam jest tylko abonament.
No więc nie wiem, nie wiem, jako bardzo oni wytrenowali tego swojego GPT i ile to jest warte, no pożyjemy, zobaczymy.
Tu mamy jakiś wywiad z firmą produkującą linie prowadzące, jakieś takie do instalacji na wydarzeniach, takie tymczasowe, to nie było aż tak ciekawe.
Ale znowu firma z Korei, której nazwa mi aktualnie uciekła, stworzyła inteligentną farbę i buty.
Ich motywacja jest taka, że tradycyjne linie prowadzące spoko, ale one mogą przeszkadzać osobom na wózkach i rodzicom z małymi dziećmi w wózeczkach,
że trudniej jest przez takie linie się poruszać, tym wózkiem wjechać, no nie wiem.
I żeby wszystkim dogodzić, to stworzono farbę, która jest sama z siebie niewidoczna.
Można ją pokryć dowolnym kolorem, można zrobić ją przezroczystą, można z nią zrobić wszystko.
Ale ta farba, niczym taki kod QR, ma w sobie zaprogramowane informacje.
I my musimy do tej farby nosić specjalne buty, które mają jakiś czujnik optyczny i te buty potrafią rozpoznać i podać nam, teraz nie wiem czy to było przez smartfona, czy same z siebie jakoś, chyba przez smartfona, informacje o tym, co się znajduje na konkretnym rozwidleniu.
I tu mamy takie informacje już preinstalowane, typu drzwi, winda, toalety, schody, coś tam jeszcze, przejście, jakaś tam przeszkoda.
I nie wiem teraz, czy my możemy sami programować te komunikaty w kontekście, nie wiem, obiektu, którym gdzieś tam zarządzamy, czy jest jakoś inaczej.
Natomiast to ma robić ta farba i te buty. Buty same mają kosztować między 150 a 200 dolarów, ale na razie będzie jedynie prowadzony pilotaż w Korei Południowej.
Więc zobaczymy co wyjdzie z pilotażu, potem będą szukani partnerzy w Europie.
Ciekawe ile będzie rodzajów tych butów, bo przecież mamy lato, zimę, mamy porę, znaczy takie okresy deszczowe, więc tych par butów, to by warto kupić kilka co najmniej.
No tak, to prawda. Już wam powiem jak się firma nazywa nawet. Tag Free? Tag Free, Tag Free, okej, tak się nazywa ta firma. Okej, w porządku.
Tu jest ciekawa firma i tu myślę warto wspomnieć o pewnym fenomenie, który na zachodzie istnieje, a w Polsce go jakoś nie ma, chyba że o czymś nie wiem.
A warto, żeby był, bo my możemy sobie dużo mówić o włączeniu osób z niepełnosprawnością wzroku czy jakąkolwiek na rynku pracy.
Natomiast realia są takie, że bardzo często trafiamy chociażby w jakichś takich środowiskach korporacyjnych na niedostępne oprogramowanie.
No i co można by wtedy zrobić? No można się oczywiście poddać i nie zrobić nic, ale można też zaangażować firmę.
I w Niemczech istnieje taka firma jak Drenner und Linert, która zajmuje się takim zawodowo skryptowaniem oprogramowania, które jest niedostępne.
I oni robią to na dwa sposoby, bo z jednej strony zdaje się, że piszą skrypty do JAWS i to w ogóle więcej firm takich, nawet tych firm, które sprzedają właśnie na przykład JAWS-a.
Pisze skrypty na zamówienie do różnych właśnie takich programów czy stron internetowych, narzędzi webowych, z których trzeba w jakichś, zwłaszcza w takich środowiskach administracyjnych, w jakichś urzędach,
osobom z dysfunkcją wzroku korzystać, żeby umawiać terminy, uzyskiwać dostęp do jakichś danych, wyciągać z tych danych jakieś kluczowe informacje, a to szybko i tak dalej.
A z drugiej strony to co Ger Lindert robi, to tworzy własne programy do różnych rzeczy, do jakiegoś dostępu do konkretnych baz danych, do jakiegoś dostępu do książek telefonicznych i do jakichś tam baz kontaktów,
bo z takimi się nadal gdzieś zwłaszcza w centralach telefonicznych, a wiele osób z dysfunkcją wzroku gdzieś tu w Austrii czy w Niemczech pracuje na centralach telefonicznych jako telefoniści,
więc muszą bardzo szybko do różnych informacji docierać, czy to jakieś tam uzupełnianie nazwisk, jakichś innych jeszcze baz danych, czy na przykład teraz firma stworzyła własne rozszerzenie do obsługi kalendarza outlookowego,
no bo stwierdzili, że kalendarz outlookowy zwłaszcza jak się dodaje wiele kalendarzy jest bardzo toporny, no więc żeby szybko sprawdzać na przykład kiedy jest jakiś najbliższy wolny termin,
albo czy w danym terminie następują konflikty z jakimś innym terminem,
że nie wiem, jedna osoba może, ale druga nie może i tak dalej.
No to, to jest za wolne i tak sobie osoba niewidoma za szybko nie poradzi.
Więc oni stworzyli własne rozszerzenie, które poniekąd chyba się pokrywa z outlookiem,
ale na własną rękę też się chyba łączy typowo z Microsoft Exchange
i dość szybko potrafi, też ma jakieś dźwięki swoje,
gdzieś tam nam nawigować do tych takich kluczowych dla nas informacji właśnie.
czy wolne, czy zajęte, kto ma wtedy, gdzie, co poumawiane, coś dodać, coś usunąć i tak dalej.
Kurczę, jak mi by to ułatwiło pracę w wielu środowiskach, włącznie z moim obecnym,
gdybym miał taki właśnie poręczny kalendarz skupiony na tych najważniejszych rzeczach,
czyli właśnie kiedy jest wolne, kiedy jest zajęte, jak to można poprzesuwać i tak dalej.
No, zdaje się, że firma też pracuje indywidualnie z klientami i robi różne rzeczy na zamówienie,
No więc można taką ofertę gdzieś tam potem dopasować.
No fajnie by było, gdyby w Polsce też tego typu firmy działały, bo może wtedy by się otwarło wiele miejsc pracy.
Jakby była taka autoryzowana firma, która zajmuje się właśnie takimi dostosowaniami.
Oczywiście takie dostosowania też nie są bez wad, bo potem wystarczy, że wejdzie jakaś aktualizacja tego oprogramowania,
z którego my korzystamy, a które samo z siebie jakoś dostępne nie jest.
I skrypty trzeba aktualizować.
aktualizować dokładnie. Staje się, że jakieś działania którejś tam firmy też są podjęte, żeby pracować gdzieś z tymi twórcami i na bieżąco z nimi jakoś tam ewaluować te ich zmiany, żeby to wszystko było dostępne.
Więc to idzie wielotorowo, no ale coś się dzieje. I myślę, że tutaj jest ważny punkt do podjęcia, jeżeli miałyby być dyskutowane jakiekolwiek dla nas pozytywne zmiany.
Tutaj jakieś powiększalniki kamery od Reineke Vision, Solar Grove to również mówiliśmy już napędzane energią słoneczną odtwarzacze DAISY, Braille Motion też był przedstawiany.
To już dość dużo tutaj wiemy i te bambuk, czyli te tandemy.
No i to na ten moment chyba jest wszystko i pewnie takich nowości, nowości będzie coraz mniej,
bo to źródełko powoli już też wysycha, natomiast jak coś jeszcze ciekawego się ukaże,
to z pewnością was o tym poinformuję.
Natomiast na Whatsappie ukazały się z kolei wiadomości od Maczka w ilości kilku,
więc posłuchajmy.
No słuchajcie, takie stricte skrótowce nie działają.
W sensie, sam wpiszesz,
to nie zadziała, zero aplikacji.
T4 też nie.
Chyba, że to w wersji angielskiej systemu, nie mam pojęcia.
Natomiast, no, w ten sposób nie zadziała.
Mało tego, wiecie, ja sobie nawet spisałem samą czwórkę,
bo żeby było
time for bus, ten, nie?
A nie, gdzie tam, Play24 też, bo
nieszczęsne Play24, biedne,
niedowartościowane dostępnością ostatnimi czasy, no ale w każdym razie, no, to i tak samo
jeszcze jedną tam aplikację miałem, którą gdzieś tam sobie wpisałem i rzeczywiście to,
no, problem jest. Ewentualnie jakbym próbował Flight wpisać chwilę i powiedzmy,
ale też by mi coś wynalazło pewnie. To jest, kurczę, no, wiecie, no jak człowiek był przyzwyczajony,
no to teraz się trzeba odzwyczaić i przyzwyczaić i przestawić, nie, więc to taka
a ten, jeszcze mnie to irytuje, to tak jest, ale no jak już się tego człowieka naużywa, no to będzie inaczej, no to wiadomo.
A właśnie Move, Audiomówi jeszcze przy okazji znalazło, nie, także jest śmiesznie.
Jest zabawa, jest wesoło, przynajmniej człowiek przez takie, ten, odkopie swoje gdzieś tam stare aplikacje, nie, więc spoko.
I to tyle wiadomości głosowych, ale mamy jeszcze wiadomość tekstową na Facebooku, tu napisała do nas Weronika i Weronika ma następujące pytanie.
Witajcie, czy ktoś z Was słuchających lub prowadzących wie jak zaktualizować Braille Sense Polaris i Braille Sense 6?
Od razu zaznaczam, że mam ustawioną sieć Wi-Fi i nie działa żadna opcja aktualizacji, ani bezpośrednia, ani po skopiowaniu pliku na kartę SD.
No cóż, ja nie wiem, być może ktoś z Was coś wie?
Polecałbym kontakt CCE, bo być może jest jakiś problem z serwerem, ja bym też się zapoznał z ich instrukcją, pewnie to już robiłaś,
ale na stronie i upewnił się, czy na pewno jest to wykonywane krok po kroku,
bo jeżeli żadna z metod nie działa, nawet ta z kartą SD,
no to przypuszczam, że może być jakiś krok drobny,
jakaś tam dobrostka, jakaś nazwa pliku.
Może na przykład ten plik oprogramowania musi mieć właśnie albo konkretną nazwę,
albo znajdować się w konkretnym miejscu tej karty.
Tak.
To też może być, zazwyczaj w głównym folderze.
Ale może być też tak, że jakiś błąd się wydarzył i chwilowo, nie wiem, plik jest uszkodzony, serwery nie odpowiadają, więc w razie wątpliwości zawsze warto skontaktować się z ECE i zapytać, czy coś tam nie jest chwilowo na rzeczy.
Albo na przykład może być tak, że aktualizacja, że tak powiem międzynarodowa jest już dostępna, ale aktualizacja polska z jakiegoś powodu jeszcze potrzebuje czegoś dodatkowego, co właśnie w tym momencie ECE jako polski dystrybutor musi wprowadzić, może jeszcze muszą zaktualizować tłumaczenia, być może ma to miejsce.
Także ja tu podzielam zdanie Pawła, nie odrzeczy będzie kontakt z dystrybutorem polskim.
No i został ostatni już u nas maraton czyli nowości w grach od Piotrka.
Tak jest i dzisiaj będzie głównie o aktualizacjach nie tyle o nowych grach natomiast tych aktualizacji kilka się pojawiło rozpoczynając od zeszłego tygodnia kiedy to wspominałem o silniku NVGT który pomału zaczyna gdzieś się u nas rozgaszczać mimo to że jest jeszcze wersja pre alfa więc no nawet
właśnie jeszcze nie alfa, ale już to ludzie zaczynają testować, wykorzystywać do otworzenia różnych aplikacji, jak na przykład pokazywany wcześniej Stations, więc wcale nie muszą być gry.
Ale mówiłem wtedy, że kilku deweloperów już się zadeklarowało, że będą swoje gry używając tego nowego silnika aktualizować i pomału zaczynamy widzieć tego efekty.
Między innymi za sprawą Masona Armstronga, który to zaktualizował kilka swoich klasycznych gier, które kiedyś właśnie powstały w silniku BGT.
No i teraz zostały zaktualizowane do NVGT, dzięki czemu działają lepiej na nowszych systemach.
Antywirusy już nie powinny też ich wykrywać na ten moment przynajmniej.
Miejmy nadzieję, że to się nie zmieni.
No ale też dzięki temu dostały ją nowe funkcje, głównie mamy tutaj właśnie ten dźwięk HRTF, dźwięk minooranny, też różne pogłosy, no bo system dźwięków NVG to jest bardziej zaawansowany.
Pewnie za jakiś czas też pojawią się wersje na Macu, kiedy ten silnik na Macu się ustabilizuje.
Natomiast na ten moment, co my tu mamy? Mamy np. grę Endless Runner,
która jest typowo gra zręcznościowa.
Nasza postać biegnie do przodu na takiej platformie,
więc możemy zrobić tylko kilka kroków na bok, możemy zrobić krok w lewo lub w prawo.
Idziemy do przodu cały czas, przyspieszamy z czasem,
bo nasza postać nabiera pewności siebie i biegnie coraz szybciej.
Na drodze będziemy spotykać różne przeszkody,
Przepaści, zarówno takie, które musimy przeskoczyć, jak i takie, gdzie jest jakiś ogień.
Będą na nas lecieć kule ognia.
Będziemy czasami musieli odpowiednio wskoczyć na liny i przeskoczyć jakieś jeszcze głębsze przepaści.
Jakieś przewody wysokiego napięcia, tam było tak przeszkód jest dużo.
ale też będziemy mogli zdobywać różne przedmioty, zbierać strasy, które będą nam w stanie pomóc w tej naszej podróży przez ten świat.
Gra jest typowo zręcznościowa, więc naszym zadaniem jest po prostu przetrwać tak długo jak to tylko możliwe,
po czym będziemy otrzymywać nasz wynik i statystyki.
Można też swój wynik wysłać do sieci i wtedy przeglądać sobie tabelę najnowszych wyników.
No i co nam dodaje ta najnowsza aktualizacja?
No właśnie dźwięk without runny, więc jak będziemy biec do przodu to będziemy
słyszeć jak te przeszkody na początku idzie będą przed nami, a po ich
przeskoczeniu będziemy je słyszeć za sobą.
Kiedy będziemy skakać to będzie słychać, że one też są poniżej, powyżej
nas, no i będzie też wszystko miało taki delikatny efekt pogłosu jeszcze.
Gra kosztuje 500 dolarów, więc nie jakoś dużo, niecałe 6 dolarów.
Można ją sobie nakupić z portalu itch.io
Będzie oczywiście link w komentarzu.
I to nie jedyna gra od Masona, która się zaktualizowała, bo została zaktualizowana jeszcze jedna gra.
Tym razem to będzie gra darmowa, a mianowicie Scrolling Battles Rewrite.
Czyli bardzo prosta strzelanka w stylu sidescrollera tak zwanego, więc po prostu możemy iść w lewo, w prawo i możemy skakać.
Naszym zadaniem jest znowu trochę zręcznościowo przetrwać jak najdłużej, bo będziemy napotykać przeciwników, których musimy zabić zanim oni zabiją nas.
Mamy do dyspozycji kilkanaście różnych broni, będą też oczywiście pojawiać się różne przedmioty, które możemy zbierać, żeby zdobywać więcej amunicji i inne rzeczy, które nam mogą pomóc.
Ponadto po zabiciu jakiegoś przeciwnika dostajemy pieniądze, które możemy wykorzystać w sklepie i kupować różne ulepszenia dla naszej postaci, więcej amunicji, więcej życia, szybsza prędkość biegania, tych ulepszeń jest kilka i po prostu tutaj tak jak wspominałem musimy przetrwać jak najdłużej.
Ponadto możemy do gry tworzyć własne paczki dźwięków, więc możemy zmieniać dźwięki otoczenia, dźwięki tych wrogów, tam domyślnie mamy taką paczkę, w której głównie naszymi przeciwnikami są różne syntezatory mowy, ale jest w grze kilka też innych schematów dźwiękowych i można też sobie stworzyć jeszcze własne.
I podobnie jak poprzednio, aktualizacja po prostu nam dodaje dźwięk HRTF binauralny, więc też po prostu to wszystko brzmi bardziej realistycznie i powinna działać lepiej na nowszych wersjach systemów operacyjnych.
Ta gra jest jeszcze raz przypomnę darmowa, również do pobrania ze strony itch.io autora też będzie link do niej w komentarzu.
I trzecia gra też przeportowana do NVGT, tym razem od innej osoby, to kolejna strzelanka, natomiast też w stylu side-scroller, więc tutaj głównie chodzimy w lewo-prawo.
Tym razem jest to strzelanka sieciowa, a mianowicie jest to gra Bloodstorm.
Bloodstorm. I tutaj historia jest bardzo podobna.
Gra została zaktualizowana do silnika NVGT, dzięki czemu mamy też HRD, w
którym możemy sobie w opcjach włączyć jeśli chcemy mieć dźwięk binauralny, ale
też tym razem gra pojawiła się na innych systemach operacyjnych, nie tylko na
Windowsie. Wcześniej to była gra dostępna tylko w systemie Windows, ale teraz
możemy ją też sobie pobrać na Maca i na Linuxa.
Więc jeśli ktoś szuka takiej prostej strzelanki, tutaj sam autor przyznaje, że jakiejś głębokiej fabuły tutaj nie znajdziemy, ale jeśli chcemy ze znajomymi po prostu wejść sobie z takiej gry online i sobie postrzelać, no to można sobie tą grę ściągnąć.
I jak wspominałem, to pewnie dopiero początek tych aktualizacji będzie jeszcze więcej, tak np. L-Works, czyli firma Liam’a Ervena, czyli postaci bardzo kultowej jeśli chodzi o świat gier audio.
Ostatnio się ich profil na Macedonie aktywował i napisali taki bardzo ciekawy post, w którym informują, że Liam akurat się przeprowadza do innego stanu w Stanach Zjednoczonych, natomiast kiedy już się przeprowadzi i wszystko się unormuje, to kto wie, jak sami napisali, kto wie, czy nie zobaczymy jakiejś aktualizacji gier.
A wiemy, że Liam był jednym z beta-testerów NVGT, jest w dokumentacji wspomniany, więc jest bardzo prawdopodobne, że może niebawem zobaczymy kolejne gry, które doczekały się współczesnych aktualizacji.
To jest NVGT, ale to jeszcze nie koniec nowości, bo mam jeszcze dwie.
Mianowicie gra rytmiczna, o której wspominałem na początku miesiąca chyba, przy okazji zestawienia miesięcznego, nawet nie wiem czy tego z tego miesiąca czy z zeszłego.
Mianowicie to jest gra Beats and Bops, gra bardzo inspirowana japońską serią River in Heaven, o której były podcasty, nawet kilka.
gra, w której wykonujemy różne czynności do rytmu bardzo fajnych, wciągających piosenek.
Czy to przywijamy gwoździe odpowiednio, czy robimy zdjęcia w foczce, która podrzuca piłeczkom takie różne, takie mamy minigry.
Gra w pełnej wersji jeszcze się nie ukazała, na razie mamy tylko demo, w którym są trzy z planowanych ponad 20 gier.
Natomiast nawet odamo jest cały czas aktualizowane i ostatnio kiedy o tej grze wspominaliśmy mówiłem, że doczekało się dostępności i mamy teraz w grze czytnik ekranu, który możemy sobie włączyć i on nam będzie wszystkie menu czytał.
Natomiast autorzy dostali trochę feedbacku od społeczności i różnych sugestii i teraz pojawiła się w zeszłym tygodniu kolejna aktualizacja, która oprócz tego czytnika ekranu dodaje nam audiodeskrypcję.
W czasie samouczku ta audiodeskrypcja będzie nam czytana automatycznie, więc kiedy otwieramy grę po raz pierwszy i nam wyświetla się na początku samouczek to będziemy mieli opisy statycznych scen, w których rozgrywka się nie odbywa, więc nam ta deskrypcja może być podana.
Natomiast możemy, jeśli tego chcemy, w ustawieniach włączyć sobie audiodeskrypcję podczas gry.
Jeśli to zrobimy, no to w czasie gry, kiedy w grze odbywają się jakieś animacje, no to gra będzie nas, będzie po prostu nam omówiła co się dzieje.
I to jest bardzo fajne, bo oprócz tego, że gra ma bardzo specyficzny klimat muzyczny, no to okazuje się, że też graficznie dużo się na ekranie dzieje.
I tak na przykład, kiedy robimy zdjęcia tej foczce, która podbija sobie piłeczkę, taką maskotką gry jest kotek Bob i on widać, mamy to opisane, że on sobie płynie na łódce, właśnie obserwuje tą fokę, w pewnym momencie znika z tej łódki, nie wiadomo co się dzieje, nagle wraca na takim materacu dłuchanym i nie wiadomo skąd znalazł sobie hot-doga i on sobie tego hot-doga próbuje zjeść, a foczka go mu zabiera.
No i takie rzeczy o tych rzeczach wcześniej nie wiedzieliśmy, a teraz jeśli sobie włączymy tą audiodeskrypcję no to w czasie gry, jeśli coś takiego się dzieje na ekranie, no to po prostu będziemy o tym informowani, a jeśli to komuś przeszkadza w czasie gry, nie może się przez to skupić na samej rozgrywce, no to można sobie to po prostu wyłączyć w ustawieniach, zresztą domyślnie ta opcja jest wyłączona, więc jeśli chcemy takich szczegółowych opisów, no to musimy je sobie włączyć ręcznie w ustawieniach.
I na koniec Hearthstone, który cały czas się rozwija, pojawiła się aktualizacja 29.6
I co mamy w tej aktualizacji? Mamy zmiany w ustawkach. Do ustawek powrócili towarzysze.
Blizzard co jakiś czas zmienia różne takie dodatkowe elementy rozgrywki, które w tym trybie ustawek mamy.
I wrócili do czegoś co już mieliśmy wcześniej, natomiast to zostało oczywiście zaktualizowane.
Towarzysze to są stronnicy unikalni, każdy bohater ma takiego swojego towarzysza.
Od ostatniego ich pojawienia się było trochę zmian, kilkanaście towarzyszy miało jakieś mniejsze lub większe zmiany.
Pojawiło się też kilku nowych bohaterów i oni też dostali swoich unikalnych towarzyszy.
Odsyłam na stronę jeśli ktoś chce dokładnie poczytać co tam się pozbieniało.
Natomiast sama idea jest taka, że towarzysz to jest po prostu stronnik, którego każdy bohater ma i możemy go sobie wykupić z karczmy.
On ma osobny przycisk dla siebie i jego koszt będzie zależny od jego poziomu i w miarę tego jak my gramy, jeśli pokonujemy swojego przeciwnika w danej turze,
no to jego koszt będzie się zmniejszał i po prostu musimy sami zdecydować, w którym momencie chcemy go sobie wykupić.
Możemy to zrobić dwukrotnie, za pierwszym razem dostajemy jedną kartę tego towarzysza,
a za drugim razem dostajemy dwie i możemy go sobie wtedy potroić.
Także tutaj też musimy odpowiednio zdecydować, kiedy chcemy to zrobić.
Mi się osobiście towarzysze bardzo podobają, więc fajnie, że oni się znów pojawili.
będą dostępni zarówno w tradycyjnych ustawkach jednoosobowych, jak i w duetach, więc i tu i tu będziemy mogli towarzyszami grać.
Oczywiście cały czas mamy inne elementy, takie jak zaklęcia. Zmieniła się trochę pula dostępnych stronników.
Tutaj też odsyłam do strony, jeśli chcecie zobaczyć, z którzy stronnicy zostali usunięci, jacy powrócili,
a jacy nowi stronnicy zostali dodani, bo też kilku nowych stronników oprócz towarzyszy doszło.
Ponadto już mamy zapowiedź nowego rozszerzenia, które pojawi się pod koniec lipca.
Mianowicie rozszerzenie nazywa się Tarapaty w tropikach i tutaj mamy właśnie taki klimat
takiego hotelu wagacyjnego, gdzie różni, różne osoby żądli przygody albo właśnie po prostu relaksu gdzieś przyjeżdżają, żeby odpocząć, ale nie wszyscy przyjeżdżają z takim celem, mają niektórzy bardziej niecne cele i mamy tutaj zapowiedziane, że w tym rozszerzeniu będzie ponad 100, znów 140 nowych kart,
Zarówno nowe stronnice, nowe jakieś skarby, nowe nawet jakieś jedzenie, które pewnie będziemy mogli wykorzystać na naszych stronnikach, żeby stali się jeszcze bardziej potężni.
Na ten moment nie wiemy nic z tymi rozszerzeniami. Jest tak, że nowe stronnice są stopniowo pokazywane przez Blizzarda.
tutaj znów odsyłam do strony, tam jest cały kalendarz jak te nowe karty będą odsłaniane.
Więc jeśli chcecie śledzić na bieżąco jak to wszystko będzie pokazywane, no to można to zrobić.
Można oczywiście też już sobie paczki z tym rozszerzeniem kupić przez sprzedaży
w takich bardzo opłacanych zestawach, które dostępne później nie będą.
One będą dostępne do 22 lipca, czyli dzień przed wydaniem tego rozszerzenia.
Więc to będzie docepne za jakiś czas, aktualizacja z towarzyszami do ustawek już została dodana, także jeśli chcecie sobie pograć z towarzyszami można już to robić, no i tradycyjnie mod Hearthstone Access też już się zaktualizował, także nie mamy z tym największego problemu.
Natomiast cały czas mamy dwie osobne wersje, ta główna wersja cały czas nie wspiera ustawek w duetach, jeśli chcemy grać w duetach, no to musimy cały czas Harfson Accessa pobierać z tej osobnej strony, gdzie cały czas trwa beta test wsparcia dla duetów.
No i to wszystko jeśli chodzi o gry.
A teraz zaglądamy po raz kolejny do Waszych wypowiedzi. Mamy na przykład wiadomości na Whatsappie od Rafała.
Dobry wieczór. Po drugiej stronie Rafał.
Ja mam tylko pytanko.
Proszę powiedzcie mi, jak tak testujecie te bety,
no, bety iOS 18,
czy dacie wywalić te aparat i latarkę,
aparat i latarkę z ekranu blokady?
Ja wiem, że tam mówiliście chyba,
aparacie i latarkę,
opowiem, że opowiadaliście o aparacie,
ale w tym momencie mi się po prostu laptop się rozładował i nie słyszałem, co mówiliście przez jakiś moment.
To tyle.
Twój wyślij.
Wyślij przycisk.
A jestem mistrzą.
Myślę, że bym się dał.
Byłbym szczęśliwy.
Wyślij przycisk.
Nagrywanie bez przytrzymywań. Wyślij przycisk.
Jeszcze jedno.
W tym aplikacja regionalna.
Aplikacja ta Ostrzegator.
Regionalna Ostrzegator.
System regionalny Ostrzegator.
Mam taki problem, że wszystkie województwa się pokazują.
Ale chciałbym, żeby się pojawiały moje dane województwa.
I pomimo, że tam zmieniam…
No, tam zmieniam…
Przestawiam tam, gdzie trzeba.
No to i tak…
To przestawia się na chwilę,
ale kiedy aplikację zamykam, to zresytuję to.
Czy też tak macie?
Cześć, mam tylko jeden problem.
Wyślij przycisk.
No to jak z tymi możliwościami usunięcia przycisków z ekranu blokady? To już teraz działa Piotrze?
Tak, to już działa. Tak, w skrócie można to zrobić. Możemy albo sobie zostawić te miejsca puste, jeśli bardzo nie chcemy, żeby tam coś mieć, albo możemy sobie wybrać własne opcje i to może być jakiś skrót, to może być jeden z przełączników z tego nowego centrum sterowania,
więc można sobie na przykład dyktafon w to miejsce dodać, jakby ktoś chciał albo
no właśnie jakiś skrót, który chcemy.
Tak jak Paweł wspominał, będą mogły aplikacje otwierać własny interfejs do robienia zdjęć,
zobaczymy jak to deweloperzy wykorzystają.
No także trochę opcji na ten ekran blokady będziemy mieli.
Natomiast co do aplikacji Regionalny System Ostrzegania,
to ja mam wrażenie, że dzieje się tak dlatego,
że ta opcja dotyczy tylko wyświetlania
tych powiadomień i ustawia nam ten widok.
Też wydaje mi się, że fajnie byłoby, gdyby dało się to ustawić na stałe,
natomiast no prawdopodobnie tak nie jest.
Ja z tej aplikacji jakoś bardzo często nie korzystam,
natomiast jedna istotna rzecz, no dla mnie jest taka,
że kiedy ją odpaliłem i ustawiłem co trzeba,
ustawiłem swoją lokalizację czy swoje województwo,
to w tym momencie od czasu do czasu otrzymuję powiadomienia,
ale one dotyczą tylko mojego województwa, województwa warmińsko-mazurskiego
i rzeczywiście nie wyrzuca, nie spamuje mi ekranu jakimiś powiadomieniami
z zakresu innych województw, które by mnie kompletnie nie interesowały.
Natomiast w samej aplikacji to niestety to właśnie chyba tak to działa,
że ten widok da się przestawić tymczasowo.
Mamy jeszcze jedną wiadomość głosową, tym razem jest to wiadomość od Mateusza.
Witajcie. Ja do was przychodzę z takim wiadomością, taką wiadomością, że po prostu już bardziej opanowałem tego Vortexa.
Pewnie nagram odcinek na mój kanał na YouTubie, który prowadzę, a tak jeszcze z taką ciekawostką, że nie wiem dlaczego, ale strona do modów Nexus Mods powoduje na Firefoxie, że nie ma przycisku Pobierz.
Tam gdzie jest w tym miejscu na stronie ten przycisk pobierz moda to go nie ma, a na Google Chrome ten przycisk pobierz istnieje, a nawet istnieją opcje, że od razu pobierz jakby przez Vortexa albo po prostu pobierz plik zip.
Oczywiście to też zależy od moda, bo np. jest jakiś mod, który ma tylko pobieranie pliku, np. takim modem jest spolszczenie do starter value, a reszta np. inne mody, po prostu się klika, że vortex i pod pobieraniem i normalnie się otwiera takie standardowe okienko pobierania moda na górze, na główek, na górze strony i tam jest, jakie są wymagane rzeczy,
rzeczy do tego działania, tego moda i
jak to tam dalej przejdziemy, to jest, że się zgadzamy
i że pobieramy i możemy wtedy
dopiero przejść, że wolne pobieranie
i wtedy się normalnie pobiera.
Nie wiem czym jest spowodowane to, że
Firefox ma z tym problem,
ale jakoś sobie to poradzi
off-shodem z tym.
Ciekawe swoją drogą,
jak to wygląda w przypadku osób nieposługujących
czytnikiem ekranu, bo może rozwiązanie tej zagadki jest takie, że no ta strona
nie jest zwyczajnie kompatybilna z Firefoxem i została tworzona tak typowo
pod Chroma. No czasem tak niestety bywa, że coś na jednej przeglądarce działa,
na innej nie. Wiadomo, że życzylibyśmy sobie, żeby to jednak wszystko było
kompatybilne ze wszystkim. Takie były zresztą też przecież pierwotne
założenia tworzenia stron internetowych, no ale teoria to teoria, a praktyka, jak widać, pokazywać może coś zupełnie innego.
Oto przechodzimy chyba do technikaliów i zaczynamy od rozmów głosowych w Messengerze i na Whatsappie,
które mają brzmieć lepiej, nawet na słabym internecie.
Dokładnie i co ciekawe to jest coś co jeśli przynajmniej korzystacie z rozmów głosowych na Messengerze lub na Instagramie to już mogliście mieć okazję to przetestować nawet o to nie wiedząc.
Na Whatsappie jeszcze nie, natomiast na Whatsappie to za jakiś czas ma się też pojawić.
O co chodzi?
Chodzi o to, że firma Meta cały czas szuka sposobów, żeby poprawić wydajność rozmów głosowych.
Przez to, że mają już trzy aplikacje, które na to pozwalają, to mają ogromne ilości danych, na których mogą pracować
i widzą, co jest największym problemem, jeśli chodzi o takie połączenia.
Niestabilny internet, którego wydolność nagle spada, prędkość i utrata danych, co też się zdarza, zwłaszcza jeśli ktoś rozmawia przez telefon w jakimś miejscu, gdzie na przykład jest słaby zasięg lub sieć jest obciążona, to możemy często mieć do czynienia z takimi sytuacjami.
Tradycyjnie od ostatnich kilku lat był używany kodek OPUS, który myślę wszyscy znacie nawet jeśli nie wiecie, no to prawdopodobnie wszelkie komunikatory, z których korzystacie, no to z tego OPUSA korzystają.
On może brzmieć naprawdę bardzo próżnie, to jest kodek, który może się dostosować od brzmienia, tak jakby to było jakieś nagranie studijne prawie.
Na przykład my teraz też rozmawiamy tutaj przez Opusa na takiej dosyć wysokiej jakości.
96 kbps dokładnie.
No, czyli nawet nie jakiś najwyższy ten bitrate, ale myślę, że to brzmi całkiem przyjemnie.
No ale jeśli na przykład nagrywaliście wiadomości głosowe, no na przykład właśnie na Whatsappie albo rozmawialiście przez Discorda, przez FaceTime czy nawet właśnie przez Whatsappa, to jest też opus, tylko że używający innych parametrów.
Sam opus też pracuje nad tym, żeby być bardziej wydajny na niskich tak zwanych bitrate’ach.
O tym też już jakiś czas temu wspominaliśmy, o nowej wersji opusa, która ma się pojawić.
Natomiast przez to, że tam jest wykorzystywane uczenie maszynowe, to nie zawsze będzie
fajnie działało na telefonach starszych, a tutaj na wielu z tych aplikacji meta, zwłaszcza
na przykład na Whatsappie, okazuje się, że bardzo dużo ludzi korzysta z starych
telefonów. Ponad 20 procent rozmów głosowych na
WhatsAppie na przykład jest wykonywane na urządzeniach, które mają architekturę
ARM7, najnowsze to jest chyba 8, a co dziesiąte połączenie jest wykonane na
telefonie, który ma 10 lat lub więcej.
Więc takie urządzenia nie mają jakichś mocnych procesorów i Meta tutaj szukała
rozwiązania takiego, żeby te dane jak najlepiej skompresować, stworzyć kodek taki,
który zachowałby tą jakość dźwięku, ale jednocześnie działał na właśnie nawet
bardzo starych urządzeniach, które mają słabe procesory.
I dzięki temu właśnie w tym celu powstał kodek MLOW, który już jak wspominałem na
początku jest wykorzystywany na Messengerze i na Instagramie.
Za jakiś czas trafi też do WhatsAppa.
Ciekawe czy wiadomości głosowe też będą tym kodekiem kodowane.
No właśnie, bo te wiadomości głosowe na Messengerze to naprawdę brzmią fajnie, a na Whatsappie cały czas w tych aplikacjach mobilnych, no niestety zdecydowanie gorzej.
No ja czytałem jakiś artykuł, pewnie korzystamy z podobnych źródeł, że ma się jakościowo, niby to się dzieje już powoli, Whatsapp w rozmowach wideo zbliżyć do Facetime’a.
A no tak, o rozmowach wideo czytałem, no niestety nic nie czytałem na temat wiadomości i rozmów głosowych, no rozmowach głosowych czytaliśmy teraz, więc zobaczymy.
Natomiast wracając do tego kodeka MLOW, ma dwa główne zadania i to oba związane z tym, żeby te połączenia przebywały jak najlepiej, nawet na słabym internecie, nawet w sytuacji, kiedy to jest rozmowa wideo.
Co i jak napisali sami autorzy tego kodeksu, często powoduje, że dziś ta jakość głosu jest spychana na boczny tor, no bo dziś jeszcze trzeba to wideo zmieścić i to też tworzy problemy.
Pierwszą kwestią jest to, żeby ta młowa była jak najbardziej zrozumiała nawet na najniższych parametrach.
Jeśli mamy, najniższe parametry na jakich pracuje Opus to jest 6 kbps, gdzie mamy przepustowość do ile tutaj było? Kiloherców?
Znaczy chyba kiloherców.
Tak, tak, tak, do 4 kHz, więc jeśli opus działa na tym najniższych parametrach, tutaj próbowałem znaleźć na stronie tą informację, no to tak to brzmi.
I teraz mamy tutaj taką próbkę i możemy sobie porównać i myślę, że to właśnie sobie zrobimy.
Na najniższych parametrach tak brzmi plik skonwertowany w najniższych parametrach opusa.
Chyba tutaj bez tych funkcji AI, które niedawno zostały dodane.
Striking against the snow-covered summit is condensed into clouds and moisture.
In consequence, the top of Ararat is usually, during the summer months at least, obscured by clouds.
No tak to brzmi, a w porównaniu, używając tych samych parametrów, więc zużycie danych będzie takie samo, tak brzmi kodek MLOW.
Striking against the snow-covered summit is condensed into clouds and moisture.
W konsekwencji, na górze AeroRat jest zwykle, przynajmniej w latach zimowych, obciążony płomieniami i mokrymi płomieniami.
W konsekwencji, na górze AeroRat jest zwykle, przynajmniej w latach zimowych, obciążony płomieniami i mokrymi płomieniami.
innych próbek, tak brzmi Opus, a tak brzmi, tak brzmi M-Low, także no naprawdę brzmi to imponująco ciekawe.
Robi wrażenie i jak rozumiem, no bo generalnie były, zdaje się, próby nawet chyba przez metę z roztworzenia takiego kodeka, tylko to wymagało nielichych mocy obliczeniowych.
No właśnie i oni też tutaj o tych kodekach wspominają, o których ty mówisz, no i to był problem z tą mocą obliczeniową, a tutaj chodziło o to, żeby to jak najbardziej zmniejszać.
Ja jestem też ciekawy, jak by sobie to radziło w sytuacji, kiedy jest gdzieś dużo hałasu na przykład.
No wiadomo, tam zanim to zostanie skodowane, to pewnie przejdzie przez redukcję szumu jakąś.
Ale ciekawe, jak by to zaburzyło sytuację, no bo te nagrania, które mamy tutaj są dosyć czyste, tak?
To są jakieś nagrania studijne ewidentnie, więc no tutaj hałasu w ogóle nie ma.
Co nie zmienia faktu, że naprawdę to brzmi imponująco.
To robi wrażenie.
Tak.
Ale rzeczywiście hałas, no bardzo jestem naprawdę ciekaw, bo może się okazać, że
OK, to jest kodek, który dobrze działa na mowie, ale na czymkolwiek innym, na muzyce,
czyli gdybyśmy chcieli coś pokazać komuś
przez WhatsAppa, jakiś dźwięk, to może się okazać, że będzie z tym spory problem.
Nie dzwoniłem ostatnio przez Messengera, więc nawet nie wiedziałem, że tam się kodek
zmienił, więc trudno mi powiedzieć, tam ewentualnie by to było można jakoś
sprawić, natomiast tam na pewno już jakieś otrzymianie jest, więc
nie wiem, jak by to wpłynęło.
Natomiast to nie jest jedyne zastosowanie tego kodeku, no bo drugą kwestią jest
co się dzieje, kiedy gubimy dane, a to się też czasami zdarzy.
W takich sytuacjach możemy użyć troszeczkę większej przepustowości.
Tutaj zamiast 6 kb było zastosowane 14 i przy 30 procentowej utracie danych
ten kodek też jest w stanie więcej informacji odzyskać.
Tutaj znów mamy porównanie z Opusem, chyba znów też bez tych nowych funkcji korekcyjnych, które do Opusa doszły.
No tutaj gubimy słowa, ewidentnie słychać, że dużo słów nam gdzieś uciekło.
To był Opus, a tak sobie w tych samych parametrach radzi Emlow.
I dlaczego twój ulubiony syn został wyłączony z drzwi.
I oni zajmują się mordą interesem w każdej tajemniczej sekrecie twojej życie.
Nie pozwalasz im być podążącymi.
nic, takich informacji nie znalazłem, więc nie możemy sobie sami jakoś plików skonwertować.
Natomiast myślę, że jest na to na co czekać.
Jeśli już korzystacie z Messengera do rozmów, bo jakoś z Instagrama to raczej wątpię.
Myślę, że już szybciej z Messengera jak coś, to możecie to już testować.
Na stronie pisze, że to już gdzieś zostało wypuszczone dla wszystkich użytkowników.
Natomiast możemy się też spodziewać, że za jakiś czas ten nowy kodek powinien też
trafić do Whatsappa, może przy okazji właśnie tych zmian związanych z jakością
rozmów wideo, no bo trzeba przyznać, że FaceTime też brzmi lepiej niż połączenia
głosowe na Whatsappie, więc myślę, że jak najbardziej jest na co czekać.
Ja myślę, że skoro już o Whatsappie mówimy, to warto wspomnieć, że ostatnio
Whatsapp dodał funkcję, z której ja nie potrafię korzystać i nie wiem, czy wam
się to udało, my z Michałem już testowaliśmy i jakoś to nie chciało nam
działać, czyli udostępnianie dźwięku podczas udostępniania ekranu w rozmowach
video. Czyli teoretycznie na WhatsAppie da się udostępnić ekran w czasie rozmowy
video i wtedy powinien też grać dźwięk tego co odtwarzamy.
Co ciekawe to nie dźwięk voice overa, bo pytałem już Drew Moczaka, który jest
osobą odpowiedzialną za dostępność WhatsAppa w meta i mówi, że właśnie voice
over nie przechodzi, natomiast dźwięk podcastu odtwarzanego w Safari czy cokolwiek
powinien przejść, także teoretycznie na swój sposób jest to taki uniwersalny share play i powinniśmy móc ze znajomymi rzeczy razem oglądać na Whatsappie,
ale jakoś to nie chce działać, więc nie wiem czy komuś się udało, czy ktoś miał z tym jakiś sukces, byłoby to bardzo ciekawe.
Ponoć też się zwiększyła liczba uczestników, którzy mogą brać udział w jednej rozmowie wideo, więc bardzo w te rozmowy wideo ostatnio inwestują.
No, też pozmieniali trochę ten układ nawigacyjny, teraz możemy filtrować między rozmowami,
wszystkim grupami nieprzeczytanymi i tak dalej, to też doszło chyba jako nowe.
Więc no, zmienia się nam ten WhatsApp i na szczęście nie na gorsze.
A propos WhatsAppa, to właśnie, kolejna wiadomość na WhatsAppie,
kolejna wiadomość od Maćka, posłuchajmy.
Słuchajcie, a propos technikaliów, to już troszeczkę bardziej trafnie będzie.
Jeden z użytkowników reddita, tak mnie gdzieś tam słuchy doszły, czytałem na jakimś portalu,
właściciel Apple Watcha zarazem odkrył, że w WatchOS 11 istnieje automatyczne wykrywanie drzemek,
więc w sumie ciekawie, niby teoretycznie można gdzieś tam sobie tym zarządzać z poziomu chyba ustawień zegarka czy coś,
Ale ja tego nigdzie znaleźć nie mogłem z kolei, czy gdzieś tam w zdrowiu, w śnie, ale ja tego znaleźć nie mogłem.
Ale podobno właśnie użytkownikowi zarejestrował watch automatycznie dane drzemki w ciągu dnia, więc tego nie było wcześniej.
Jeżeli to rzeczywiście się pojawiło, no to moim zdaniem przydatna sprawa.
No rzeczywiście, ciekawe, ciekawe. I jak bardzo skuteczne to jest, to też pytanie.
To teraz kolejna ciekawostka technologiczna, albo inna ciekawostka, bo nadchodzi odczytywanie stron na głos w Chrome na Androida.
Tak, nowa opcja, która powoli zaczyna się gdzieś pojawiać, aczkolwiek na razie chyba głównie znaleziono ją przez dokument w sekcji pomocy na stronie Google,
serwis 9to5, Google się do niej dokopał, no powoli będzie się pojawiać na Androidzie, w tym takim menu, więcej opcji przy otwartej stronie w Chrome,
opcja wysłuchaj tej strony, listen to this page, i na ten moment języki wspierane, no będzie po prostu to odtwarzanie strony i chyba to będzie troszkę
podobne do tej usługi dostępności, która ostatnio się pojawiła,
która pozwala na czytanie tekstu, no ale zobaczymy.
Na razie wspierane języki to angielski, francuski, niemiecki, hiszpański,
hindi i arabski, więc jeszcze nie polski.
No i można wybrać głos, można odtwarzać, przewijać o 10 sekund
do tyłu, do przodu, czyli to jest bardzo traktowane
jako taki podtwarzacz multimedialny, trochę taki voice dream.
Można też podświetlać słowa, które się pojawiają i można też przy nawigowaniu po innych stronach dalej ten pasek odtwarzacza będzie gdzieś tam u dołu widoczny, ale nawet będzie to działało przy zablokowanym ekranie.
Ponoć nie działa to jeszcze na wszystkich stronach, działa to na jakichś wybranych, no ale z czasem ma się to rozkręcić, więc takie też ciekawe podejście, bo zdaje się, że, znaczy zdaje się, iPhone też ma tą funkcję, ale ona chyba tylko działa w tych językach, w których działa Siri, nie wiem w sumie czemu akurat tak się zdecydowali, może dlatego, że głosy są lepsze ich zdaniem, ja to bym się i z takiej zosi ucieszył, no i tyle, więc miejmy nadzieję, że to się za czas jakiś pojawi również w języku polskim.
Wszak głosów Google, teraz zwłaszcza tych nowych polskich, no nie ma się o co wstydzić.
I ostatnia rzecz, którą mamy w notatkach dotyczy Apple’a, bo można będzie płacić przez
Apple Pay w zasadzie w każdej przeglądarce.
Tak, czyli właściwie kontynuujemy temat, co się pojawiło w wersjach beta systemów
App’u, natomiast to też coś, co będzie musiało być zintegrowane przez autorów strony
internetowych, więc pewnie jakiś czas mija, zanim to będziemy na różnych stronach
widzieć. Natomiast to jest informacja, do której dotarł portal MacRumors przez sesję
w WWDC, no bo była sama konferencja, był keynote, no a później na stronie
pojawiały się różne sesje związane z różnymi aspektami tworzenia aplikacji,
aplikacji nawet na platformy Apple.
Jedną z tych sesji była sesja związana z nowościami w płatnościach i tam były opowiedziane o zmianach jeśli chodzi o oprogramowanie obsługi Apple Pay na stronach internetowych.
I taką najważniejszą nowością, to jest nowość w tak zwanym SDK Apple Pay po stronie stron internetowych, ale też iOS-a 18,
No jest właśnie to, że Apple Pay od teraz będzie dostępny w każdej
przeglądarce, bo wcześniej to było tak, że Apple Pay był dostępny tylko z Safari,
czyli jeśli na jakiejś stronie przechodzimy do kasy, czy to na Macu,
właśnie konkretnie w Safari, nie w innych przeglądarkach, czy na iPhone, nie też Safari,
no to ona mogła nam zaoferować płatność przez Apple Pay, no to wtedy działało
analogicznie jak w innych sytuacjach, naciskamy przycisk, wyświetla nam się
powiadomień Apple Pay, klikamy dwukrotnie przycisk boczny, czy przekładamy palec
do Touch ID na Macu, no i po prostu płatność jest dokonywana, ewentualnie tam
możemy sobie zmienić kartę, jeśli chcemy.
No działa to po prostu tak jak w przypadku płatności w innym miejscu.
No ale jeśli korzystamy z innej przeglądarki lub z innego systemu operacyjnego
a nawet no to po prostu tego Apple Pay’a nie było.
To się zmienia i w najnowszej wersji tego SDK Apple Pay dla stron internetowych
będziemy teraz mogli ten przycisk wyświetlać w każdej przeglądarce, w każdym
miejscu. To będzie działało w taki sposób, że jeśli użytkownik naciśnie ten przycisk
Apple Pay, wyświetli się na ekranie kod QR, który musimy zeskanować z poziomu
czyli albo w aplikacji kamera, albo dodając ten przycisk skanera kodu QR do centrum sterowania.
Ja osobiście tą opcję polecam, bo ona dla nas jest łatwiejsza,
tylko że jeśli ten kod zostanie zeskanowany, to on zostanie otwarty automatycznie,
a jeśli to robimy z poziomu kamery, to musimy jeszcze w odpowiednim momencie
stuknąć dwukrotnie w przycisk, więc po prostu łatwiej nam jest to zrobić w ten sposób.
No to pewnie nie będzie coś, co ucieszy wszystkich, wiadomo z tymi kodami jest różnie.
Natomiast da się to zrobić i jeśli to zrobimy, no to będzie wszystko działało analogicznie, wtedy na telefonie wyświetli nam się ekran Apple Pay i znów możemy sobie ewentualnie wybrać kartę jeśli chcemy.
Klikamy dwukrotnie przycisk boczny czy przycisk home jeśli mamy starszy telefon, skanujemy twarz czy odcisk palca i płatność jest dokonywana, nie musimy na stronie wprowadzać danych naszej karty.
Wszystko jest podawane przez Apple, ta karta właściwie jest podawana wirtualna, więc strona nawet nie widzi.
naszego faktycznego numeru karty, no i na stronie automatycznie jesteśmy przekierowani do następnego kroku w składaniu zamówienia.
To wszystko generalnie powinno działać automatycznie, przynajmniej jeśli deweloperzy zaktualizują wersję SDK,
korzystając z przycisku Apple Pay opartego o JavaScript, czyli jeśli nie zaimplementowali czegoś po swojemu,
tylko wykorzystali to co oferuje samo Apple i jeśli sami też nie
prowadzili jakichś własnych mechanizmów do wykrywania tego Apple Pay
np. patrząc czy ktoś wchodzi na stronę z Safari czy z jakiejś innej
przeglądarki. Jeśli nic z tych rzeczy nie zrobili to po prostu to powinno
zacząć działać automatycznie no a jeśli tak no to muszą swój
kod źródłowy odpowiednio dostosować jeśli to zrobią
i jakaś dana osoba ma nowszą wersję systemu od iOS-a 18 i zwyż,
no to ta opcja po prostu będzie dostępna.
Byłoby fajnie i w sumie może Apple kiedyś coś takiego doda,
gdyby została dodana jakaś alternatywa do skanowania tego kodu.
Nie wiem, może do aplikacji Portfel dodać jakiś przycisk,
który by nam pozwolił wpisać jakiś kod numeryczny.
No to wszystko teoretycznie dałoby się dodać po stronie serwera,
Więc kto wie, ale nawet jeśli taka opcja się nie pojawi, no to mnie to osobiście bardzo cieszy, dlatego że Apple Pay jest jednak
dosyć szybki, jeśli uda nam się gdzieś ten kod w miarę szybko zeskanować, no można sobie nie wiem stronę zmaksymalizować, no wiadomo trzeba mieć ekran, nie wszyscy mają ekran przy swoim komputerze, ale jeśli mamy do tego warunki, zeskanujemy sobie ten kod, no to możemy spokojnie sobie przeczytać kwotę tego zamówienia.
Nie martwimy się o to, że nam jakiś czas wygaśnie, jak to jest w przypadku Bleeku, gdzie mamy często 30 sekund, żeby np. nasz Code Pin wprowadzić, co nie wszyscy lubią.
Także wydaje mi się, że jak najbardziej to jest ciekawa alternatywa, na którą myślę, że warto czekać.
I to wszystko, co mamy w notatkach, ale czy coś jest takiego, co w notatkach nie mamy, a warto by o tym powiedzieć?
Chyba nie, zatem pozostało się pożegnać, co niniejszym czynie przypominając jednocześnie, że w audycji dzisiaj udział brali Piotrek Machacz, Paweł Masarczyk, Michał Dziwisz, Tomek Bilecki i dobrej nocy.