TyfloPrzegląd Odcinek nr 212 (wersja tekstowa)
Pobierz napisy w formacie SRT
Pobierz napisy w formacie VTT
Fundacja Instytut Rozwoju Regionalnego prezentuje Tyflo Podcast.
Dzień dobry, dzień dobry. Chyba 211 audycja Tyflo Przeglądu.
A nawet 12.
A nawet 12. Który dzisiaj mamy? 6 grudnia, no właśnie, Mikołajki.
Więc prezentujemy Wam dzisiaj Tyflo Przegląd, odcinek 212, jak się rzekło,
w składzie Michał Dziwisz, Paweł Masaczyk i ja, czyli Tomek Bilecki, więc nas jest poniekąd z trzech.
A w poporywach będzie czterech, a nawet można powiedzieć, że dziewięciu.
Tak, dlatego że na pewno jeszcze tutaj pojawią się wypowiedzi Piotrka, którego z nami nie ma, ale jednak coś nam tutaj powie.
Ale na razie to posłuchajmy, o czym w ogóle dzisiaj w Tyflo Przeglądzie będziemy mówić, a o tym powie jak zwykle Michał.
W tym tygodniu w Tyflo Przeglądzie.
Hiszpanie próbują zmierzyć się z tematem dotykowych terminali płatniczych.
Indie. Tu powstał udźwiękowiony portfel i mamy jego recenzję.
Jak wygląda dostępność szwajcarskich aplikacji mobilnych?
Francja. Organizacja osób z niepełnosprawnościami przegrywa proces wytoczony przez twórców nakładki dostępnościowej.
Nowy odcinek EBU in action.
Czytniki ekranu pomagają nie tylko niewidomym. Komu jeszcze?
Wieści z konferencji SciTech Global.
Czy dzięki AI niewidomy może być grafikiem? Raczej nie.
Rozpoznawanie obrazów w iOS potrafi rozwiązać kapcze.
Rysowanie ścieżki w języku polskim w systemie iOS.
Nowości w grach.
Talking Balance, program udźwiękawiający wagi laboratoryjne.
Pobieranie instalatorów z GitHuba stało się prostsze.
Polski Amazon chce zatrudniać niewidomych.
Seeing AI oraz Be My Eye na Androidzie.
Przesyłanie pieniędzy między rachunkami telefonicznymi.
Nadchodzi Klikash.
iMessage na Androidzie? Dzięki Beeper Mini to możliwe.
Zabawy z krótami ciąg dalszy.
Tym razem szybko połączymy się z urządzeniem audio na Bluetooth.
Prezentacja głośnika Toyfel Boomster.
Wszystko to, a pewnie jeszcze więcej już za chwilę.
I my rzecz jasna jesteśmy na żywo, zatem możecie się z nami kontaktować już od teraz, bardzo serdecznie do tego was zachęcamy, a tych dróg kontaktu jest całkiem sporo, przede wszystkim telefon, whatsapp, facetime, wszystko pod numerem 663-883-600, 663-883-600.
Na Whatsappie zachęcamy was do zostawiania nam wiadomości głosowych.
Będziemy je odtwarzać w trakcie audycji.
Możecie oczywiście do nas też pisać na Facebooku, na YouTubie i na kontakt.tyflopodcast.net
oraz z poziomu naszych aplikacji dla Windowsa oraz iOSa.
No i w takim razie zaczynamy.
I zaczynamy od newsów ze świata.
Newsów jest dużo.
I jak to newsy ze świata, no to przedstawi je Paweł.
Chyba. Zaczynamy od newsów ze świata?
Tak, tak, tak. Zaczynamy. Tylko ja się wyciszyłem, a miałem się nie wyciszać.
Już jest wszystko dobrze.
Natomiast ja jeszcze zacznę może od takiego małego apelu, który jest apelem troszeczkę jednego z naszych słuchaczy, ale też i moim.
Jeżeli ktoś coś wie na temat LibreOffice, a konkretnie aplikacji składowej tego pakietu LibreCalc, czyli pakietu arkusza kalkulacyjnego.
No taki odpowiednik Excela, to dajcie znać, bo mamy pewien problem, to znaczy on się u mnie też pojawia i nie wiemy, prawdopodobnie rozwiązania nie ma, to jest niestety moja diagnoza, ale może jakiś jest, a jak nie ma, to może ktoś mądry, póki The Document Foundation się z tym nie upora samo, coś przejściowego wymyśli, jakiś dodatek do NVDA czy coś innego.
No otóż w tradycyjnym Excelu można sobie zaznaczyć taką opcję,
żeby w arkuszu, który ma zdefiniowane nagłówkowe jakieś komórki typu nagłówek
kolumny, nagłówek wiersza, były te nagłówki za każdym razem odczytywane,
kiedy przesuwamy się do kolejnej kolumny czy do kolejnego wiersza i czytamy dane z
tej rzeczy, czyli na przykład mamy imię, nazwisko, adres i tak dalej, to żeby za
Każdym razem jak chodzę po tym wierszu, gdzie są te imiona,
żeby słyszeć imię, imię, imię, imię, żebym wiedział do czego się odwołują te dane.
No to się bardzo fajnie da zrobić w tabelach na stronach internetowych,
jak się definiuje takie nagłówki.
W ofisie również jest od tego jakaś opcja.
No wygląda na to, że w kalku nie ma i mi by się to bardzo przydało,
bo też na cele jakby mojej pracy gdzieś tam czasami się zmagam z arkuszami zrobionymi w kalku.
i też obsługuje je kalkiem, no i rzeczywiście takiej opcji nie ma.
Ja myślę, że tu jest kwestia niestety ruszenia całej machiny, jaką jest
Document Foundation i ich podejście i ich jakiekolwiek założenia związane z
dostępnością, gdzie dużo się wydarzyło, tego nie można powiedzieć, ale
znaczy nie, dużo się wydarzyło, to właśnie można powiedzieć, nie można
zarzucić, że nic się nie dzieje.
Natomiast dużo jest też jeszcze do zrobienia i to trzeba sobie też powiedzieć jasno i wyraźnie, że ta dostępność nie jest na takim poziomie, jak możemy tego uświadczyć w produktach bardziej komercyjnych.
No chyba, że się mylimy, zarówno słuchacz jak i ja, no to dajcie znać, bo chcielibyśmy się mylić bardzo, oj bardzo.
Czyli krótko mówiąc chodzi o czytywanie na główków kolumn.
Tak, tak, w kalk.
A to ciekawe, to też postaram się jakoś zgłębić temat, bo to interesująca sprawa.
Może coś się uda z tym zrobić.
I jeżeli wy macie jakiś na to pomysł, to też dajcie znać.
Tak, ja już szykuję materiał dowodowy, to znaczy materiał dźwiękowy zapoznawczy
do naszego pierwszego newsa, bo jest on niesamowicie ciekawy.
Bo chodzi o znany nam już temat, który bardzo nas męczy od dłuższego czasu,
czyli no co my zrobimy, jak się zrobią wszystkie terminale płatnicze dotykowe.
Co się tam gdzieś powoli po cichu dzieje.
Na szczęście jeszcze są przypadki i te terminale klawiszowe są, ale tych dotykowych
dostrzegamy coraz więcej.
No i gdzieś tam w przyszłości jest zaplanowane w ustawie europejskiej o dostępności,
żeby ten problem został zaadresowany.
Natomiast tak naprawdę na ten moment, no bo i też Unia Europejska Niewidomych robi w tym temacie coś.
Jakieś firmy już jakieś swoje prototypy przedstawiły. No o Apple mówiliśmy, że ten Apple Terminal sobie gdzieś tam poczyna całkiem śmiało.
Natomiast no mało mamy do tej pory praktyk dobrych, jak to w ogóle dobrze zrobić i jak tak o tym pomyśleć, no to jest z tym problem.
Problem jest, bo jak to zrobić, żeby nie zgradzać naszego pinu na cały sklep,
a żebyśmy też wiedzieli, co my na tym dotykowym ekranie naciskamy.
Pewnie można by zapośredniczyć słuchawki, jak w bankomatach.
Pytanie, czy to by pomogło, czy rzeczywiście podpinanie słuchawek za każdym razem,
jak chcemy gdzieś coś tam zapłacić, znaczy to jest coś, co my byśmy bardzo tu chcieli uskuteczniać.
Natomiast Hiszpanie zmierzyli się z tym w inny sposób.
Caixa Bank, czyli jeden z działających Hiszpanii banków, już takie terminale patentuje sobie
i takie terminale mają być do grudnia tego roku, czyli już tak naprawdę teraz,
Natomiast do 30% terminali dotykowych, tych POS-ów, które oferuje ten bank powinny już być wyposażone w to oprogramowanie, o którym będziemy mowa.
Natomiast do marca wszystko, do marca już 100%.
No i jak oni to wymyślili?
Wymyślili sobie tak, że kiedy już dochodzi do transakcji,
przyciskamy sobie taki przycisk,
który się pojawia w dolnym lewym rogu ekranu,
na ekranie dotykowym, który się tam nazywa jakąś dostępność.
Przeciąga się go, zdaje się w prawo i on aktywuje nam screenreadera.
Screenreader nam mówi, że uaktywniono tryb dostępności.
Transakcja na kwotę, tyle to, a tyle.
No więc tu już dostajemy kwotę wypowiedzianą na głos.
Synteza nie jest zbyt głośna.
Ja właśnie tu próbuję zademonstrować.
Dlatego też troszeczkę jestem rozkojarzony, ale spokojnie.
Potem mówi nam, że prosimy wsadzić kartę.
No to wsadzamy kartę.
Prosimy podać PIN.
No i w tym momencie dostajemy cały opis terminala.
I to jest tak.
Klawiatura znajduje się w górnej części ekranu
i układem przypomina klawiaturę telefonu.
Piątka znajduje się po środku,
natomiast jedynka i trójka odpowiednio w lewym i prawym górnym rogu ekranu.
Przesuwając palcem wybierz żądaną cyfrę,
a następnie potwierdź wybór stukając dwukrotnie.
I my przesuwając się, układając palec na ekranie,
przesuwając po tych cyfrach, słyszymy piknięcie.
Takie samo piknięcie na każdą cyfrę.
Jak mamy się zorientować?
No, najłatwiej jest zacząć z któregoś z tych zaznaczonych przez niego punktów.
Ja bym prawdopodobnie zaczął od jedynki albo od trójki, no i zacząłbym się przesuwać
intencjonalnie gdzieś tam w tą stronę, na przykład, nie wiem, jeżeli chcę wbić
szóstkę, no to od trójki, jedno piknięcie w dół. No i pach, pach, dwa razy,
i terminal mi przeczyta, no, jedna cyfra została wprowadzona.
Gdybym chciał ósemkę, to prawdopodobnie bym położył palec na jedynce, przesunął w prawo, w dół i w dół, czyli trzy piknięcia po takiej linii, no i puknął dwa razy.
No i potem odpowiednio anuluj i enter są jak gwiazdka i krzyżyk, czyli po lewej i po prawej stronie zera.
No i po wprowadzeniu tego otrzymujemy komunikat, że wprowadzono, proszę czekać.
No i potem informacja, czy PIN prawidłowy, czy nieprawidłowy.
No i transakcja się finalizuje, bądź też nie.
Ja już tutaj szykuję materiał,
bo dzisiaj wyjątkowo mi technologia stawia kłody w kładzie pod nogi,
co nigdy nie jest fajne.
Efektów prawa Murphy’ego nie polecamy,
ale już powinno być powoli.
Tu już powoli powinno być wszystko okej.
Ja jedno co jeszcze zrobię, to udostępnię dźwięk.
Tak, ekran z dźwiękiem.
Tak.
Udostępniamy dźwięk.
Rozpoczęto.
O, mamy dźwięk.
No więc zaczynamy.
Modo akcesible activo. El importe total de la compra es de 1 euro.
Tak, czyli tryb dostępności został aktywowany, wysokość transakcji wynosi 1 euro.
Tutaj byśmy jeszcze usłyszeli informację o tym, żeby włożyć kartę, ale już usłyszeliśmy to piknięcie
pani, która prezentowała, w ogóle, żeby nie było, skąd ja wziąłem, żeby nie było potem, że nie podałem źródeł,
Najnowszy odcinek podcastu właśnie takiego techniczno-komputerowego,
informatycznego w Fundacji ONFE, czyli największej tak naprawdę organizacji osób
niepełnosprawnych, a jest to organizacja osób właśnie zrzeszające osoby niewidome w Hiszpanii.
Podcast nazywa się Arroba Sonora. Jest to wydanie numer 33 z listopada tego roku
i jest to pierwszy punkt al microscopio, czyli pod mikroskopem, jeżeli dobrze rozumiem,
w całym tym podcaście, gdzie był wywiad prowadzony właśnie z osobami z CaixaBanku, które są za te implementacje odpowiedzialne.
No więc włożyliśmy kartę, dowiedzieliśmy się, że nasza transakcja to 1 euro. No i co dalej?
Wprowadź PIN i naciśnij przycisk ENTER.
Klawiatura typu telefonicznego pojawiła się w górnej części ekranu.
Z numerem 5 pośrodku.
Oraz cyframi 1, 2 i 3 w górnej części ekranu.
Cancelar o borrar digitos a la izquierda del cero i aceptar a la derecha.
Możliwość anulowania transakcji znajduje się po lewej stronie klawisza zero, natomiast Enter po prawej.
Para marcar una tecla presiona dos veces sobre cualquier parte de la pantalla.
Aby potwierdzić wybór, dwukrotnie stuknij w dowolnej części ekranu.
W dowolnej, no bo jeżeli najedziemy jakąś cyfrę i puścimy palec, to ten fokus zostaje tam gdzie był,
a my po prostu stukając dwukrotnie, tak jak na iPhonie, potwierdzamy nasz wybór.
No i jeżeli się nie mylę, teraz Pani zacznie wprowadzać PIN.
Jedna cyfra została wprowadzona.
Tutaj Pani zaczęła od jakiegoś punktu i wprowadziła od razu tę cyfrę.
O, tu Pani nawiguje po klawiaturze, po PIN-padzie tego terminala.
Wprowadzono dwie cyfry, no tutaj trzy cyfry już, wprowadzono cztery cyfry.
No i teraz Pani prawdopodobnie zatwierdzi transakcję.
Tak, zostało wprowadzone, naciśnięte Enter.
Pin correcto, czyli poprawny.
No i dalej wydrukowałby się nam, wydrukowałby się paragon, transakcja by przeszła i wszystko jest jak należy.
No czy na tym Hiszpanie skończą? Zdaje się, że nie. Jest plan, żeby przynajmniej te nowsze terminale, bo w części starszych posłów da się to zrobić aktualizacją oprogramowania i tam, gdzie można, to oni to oczywiście zrobią.
Ale w nowszych, no kiedy one wejdą do obiegu, ciężko powiedzieć,
będą już wprowadzone jakieś oznaczenia brailowskie,
więc na przykład gdzieś na brzegach tego terminala,
żeby wyznaczyć granicę tego pinpada,
albo na piątce będą porobione oznaczenia punktami,
jakimiś takimi wyczuwalnymi.
Będą też wprowadzone wibracje, żeby także osoby głucho niewidome
mogły wyczuć to, że między tymi cyframi rzeczywiście się przemieszczają,
no bo takie piknięcia i ta synteza, no wiele im nie dadzą.
Też są prace nad tym, aby te terminale były dostępne dla niewidomych przedsiębiorców,
nie tylko dla konsumentów, ale też dla osób, które prowadzą jakiś swój biznes
i też by się chciały jakoś z klientami rozliczać.
No tutaj jest to pewnie jakieś mniej wymagające zadanie, bo pewnie się to ogarnie
tak jak w przypadku sam appa, jakąś aplikacją czy interfejsem webowym,
a może nawet, kto wie, może nawet da się wprowadzić screenreadera,
a w końcu te posy latają na jakimś androidzie i bez problemu da się takie rzeczy zrobić,
w związku z czym to jest ta mniej wymagająca część, no ta najbardziej wymagająca to jest jednak
ta część, w której my płacimy za to, co no gdzieś tam sobie chcemy kupić.
Taki pomysł jest w Hiszpanii, no jak widać nie jest łatwo.
Ciężko znaleźć jakiś kompromis, bo myślano też nad tym, żeby te dźwięki były różne i się dało je
odróżnić, ale to zawsze wprowadzamy jakiś system, który daje złodziejowi furtkę czy
potencjalnemu jakiemuś oszustowi, żeby się nauczyć, bo to pewnie z czasem, jak się już
zaczną w tych kręgach, że tak powiem, ludzie łapać jak to działa, zaczną powstawać jakieś
tam jakaś wymiana informacji, tam przecież kwitnie, no oni się dowiedzą jak te dźwięki
odróżniać.
A nawet jeżeli ktoś nie będzie potrafił tego ogarnąć słuchem, to spokojnie poradzi sobie za pomocą jakiejś zmyślnej aplikacji, bo to na pewno nie będzie trudne przesadnie, żeby coś nawet na smartfonie do tego zaprząc.
Teraz nawet na dobrą sprawę prawdopodobnie można by podpatrzeć tak gdzie ta osoba kładzie palec i policzyć sobie prawdopodobnie no chociaż no nie do końca, bo tutaj można by różnymi ścieżkami dochodzić do konkretnych cyfr, nie zawsze najkrótszą albo nie zawsze, no ale więc dobra, okej, to jest w miarę neutralne, no ale i tak stwarza to pewne trudności, tak, no ja myślę, że znajdzie się sporo użytkowników, którzy nie zorientują się w tym systemie dla których to,
To, że się przesuwają po jakichś cyfrach, gdzieś tam w jakimś kierunku, nie będzie aż tak intuicyjne.
No będzie wymagało tu dodatkowych jakichś pewnie szkoleń.
Ja się obawiam innej rzeczy jeszcze, Pawle. Mianowicie tutaj mieliśmy okazję usłyszeć to nagranie naprawdę w komfortowych warunkach.
Cichutko, spokojnie, a teraz wyobraźmy sobie, że robimy zakupy w jakimś supermarkecie,
gdzie jest ileś kas, gdzie jest tych dźwięków różnego rodzaju całkiem sporo i teraz ktoś nam podaje taki terminal, no i działaj sobie.
No, mam wrażenie, że tu może być zdecydowanie większy problem, chyba, że też na przykład byłaby jakaś opcja podpięcia słuchawek,
no ale to znowu, teraz noś ze sobą gdzieś tam słuchawki jeszcze, przewodowe najlepiej.
Tak, to już jest wymagane przez bankomaty, jeżeli chcesz wybrać pieniądze z bankomatu, który mówi, bierz ze sobą słuchawki czy z jakiegokolwiek biletomatu, jeżeli jesteśmy w miejscu np. tutaj w Austrii.
Biletomaty, jeżeli chcemy kupić bilet na transport miejski, są dostępne, jako osoby niewidome, które mieszkają w Wiedniu, tego nie muszę np. ja robić, czy inne osoby, które tu mieszkają, ale turyści jak najbardziej.
Więc jakby ja się obawiam, że to w tę stronę pójdzie. Jeżeli rzeczywiście Europejska Ustawa o Dostępności odniesie ten zamierzony skutek i wiele z tych kiosków, terminali stanie się dostępne, to domyślam się, że te słuchawki jeszcze bardziej staną się gdzieś tam nieodzowne, bo pewnie większość takich systemów będzie w ten sposób jednak działać dla naszej prywatności i naszego komfortu wprowadzenia niejednokrotnie wrażliwych danych.
jednak ten system na jakichś słuchawkach oparty będzie, myślę i tego niestety nie unikniemy.
I według mnie to nawet nie jest taki zły pomysł z jednego dość prostego powodu, bo,
przepraszam, że mnie tak słychać, ale u mnie spoko jest teraz naprawdę głośno
i tutaj, prawda, algorytm robi co może, żeby to wszystko wyciszyć.
W każdym razie, też trzeba pamiętać, że tak mi się wydaje,
Głównie będą z takich rozwiązań jak terminale płatnicze korzystać osoby, które z jakichś przyczyn nie chcą korzystać ze smartfonów do płatności.
Czyli to będą albo osoby, które nie umieją tego zrobić, bo na przykład nie mają smartfona, czyli osoby albo starsze, albo mocno na bakier z technologią, tak to nazwę.
I wydaje mi się, że no właśnie każde ułatwienie w postaci nawet słuchawek, no to może być mimo wszystko duże ułatwienie, dlatego że no okej, no słuchawki to może nie jest coś, co się nosi jakoś, no nie każdy chciałby nosić te słuchawki, ale z drugiej strony kupno najprostszych słuchawek z jakiegoś, nie wiem,
chińskiego marketu z jackiem, bo niestety coraz mniej jest słuchawek z jackiem i ciekawe, czy to nie będzie w ogóle problemem, że tych słuchawek po prostu nie ma.
Chcesz mieć słuchawki przewodowe, no to wszystko fajnie, tylko teraz to zazwyczaj, jak nie lightning, to USB-C.
A czy ja myślę, że jeszcze takie jackowe się znajdą właśnie w tej chwili?
Nie no znajdą się, tylko wiesz, tylko chodzi mi o to, do czego jeszcze te słuchawki podpinamy.
Oczywiście wiadomo, że można sobie kupić specjalnie słuchawki tam za naprawdę jakieś grosze na taki użytek i oczywiście jest to pewne rozwiązanie. Tylko to jest po prostu konieczność dodatkowego sprzętu jeszcze przy sobie.
Ale się zastanawiam i tak w jakimś sensie trochę, trochę może nie to, że czekam, ale no ciekaw jestem kto to podłapie, że któryś producent sprzętu dla niewidomych właśnie zacznie robić słuchawki.
No, bo po prostu może być problem taki, że tych słuchawek po prostu i zwyczajnie nie będzie. To jest prawda.
Prawda. Ja się jeszcze zastanawiam, no w przypadku takiego terminala płatniczego, takie tradycyjne terminale, one były gdzieś tam, one są w jakiś sposób bezprzewodowe, ale gdzieś tam są po stronie sprzedawcy, a nie sprzedającego.
Znaczy, one są wystawione teraz w naszą stronę, to nie o to mi chodzi,
tylko jakby stoją na kasie, gdzieś tam na ladzie, coś tam.
Na ile będziemy mieli wolność w tym?
Bo takie słuchawki, gdybyście chcieli je podpiąć, no mają określoną długość kabla, tak?
Może teraz wymyślam problem, którego nie ma, ale czy my będziemy mieli ten komfort
i takie pozwolenie też społeczne na to, żeby sobie wziąć terminal do ręki tak,
żeby nam było wygodnie wpiąć słuchawki w niego i żeby kabla starczyło.
Ja wiem, te soft posy, to są bardzo często takie cienkie terminale z Androidem,
może tam w ogóle nie ma Jacka i go nie będzie.
Może tutaj też szyjemy z tego materiału jaki jest, no i tyle.
Takie teoretyzowanie jest możliwe, ale czasem fajnie jest pokazać,
w jaki sposób w innych krajach się myśli.
To nie jest pierwsza akcja, taki ukłon w stronę niewidomych Kaisza Banku,
Obok Aisha Bank, o czym też mówiliśmy chyba kilka miesięcy temu, ja o tym mówiłem,
wprowadził dokumentację brailowską do kart płatniczych,
więc niewidomi klienci tego banku dostaną po prostu w Brailu informacje o tym,
jakiś numer tej karty, kod CVV, data ważności, te wszystkie ważne, niezbędne dane,
do których tradycyjnie dostępu my w banku nie mamy.
Dopiero ostatnio w niektórych bankach zaczynamy mieć przez aplikacje.
Także no i czasami jakiś AI da radę coś tam też odczytać.
No to jeśli chodzi o Hiszpanię to w zasadzie tyle.
No to teraz przenosimy się znowu bardzo daleko, ale też bywa ciepło, czyli Indie.
No i w Indiach znowu też o pieniądzach sobie porozmawiamy, bo tam firma Age Vision
stworzyła takie urządzenie jak Vision Wallet, czyli inteligentny udźwiękowiony portfel dla
niewidomych. No i można by się zastanawiać, a po co niewidomym jeszcze specjalny
portfel. No, tutaj odpowiada firma Age Vision, no żeby rozpoznawać pieniądze, które wkładamy do niego.
Już myślałem, że to jakiś portfel na krypto.
Też tak myślałem, jak zobaczyłem tytuł wątku Accessible Wallet, ale nie, nie.
To jest tradycyjny taki po prostu portfel.
I żeby było ciekawiej, mamy jego recenzję.
Ja ją podlinkuję w komentarzu.
W ogóle wiemy o tym, że takie urządzenie jest, istnieje i w ogóle jak ono działa dzięki
i YouTuberowi, YouTuber Fenix, pod takim nikiem jest jego działalność do znalezienia,
Blindy Fenix. I właśnie Fenix pokazywał, bo dostał do testów od producenta,
taki portfel. No i co mogę powiedzieć?
No, fajny, śmieszny, ciekawy zamysł.
Czy to jest rzeczywiście nam aż tak potrzebne i czy to rzeczywiście działa tak jak powinno?
Można by się kłócić, ale od początku.
Portfel jest zrobiony ze skóry. Jakiegoś rodzaju skóry.
Ta skóra ponoć wygląda to nie najgorzej tak na dotyk,
aczkolwiek raczej wyczuwa się ten taki tańszy materiał,
niż raczej bardziej jakiś tam kosztowny.
Po zapachu też ponoć taką tandetą to pachnie.
Tak to opisał Phoenix.
I rozmiarowo, no pieniądze to tam wejdą, dokumenty nasze już, nie wiem jakie są, właśnie, jakie są rozmiary różnych kart i dokumentów w Indiach.
To jest chyba jedna z bardziej losowych pytań, jakie zadałem na tym podcaście. Możemy potem robić rankingi.
Natomiast takie karty się nie mieszczą. No i co mamy, aha, zaraz po otwarciu żarzy, aha, portfel ładujemy na USB-C w ogóle, no bo czemu nie.
i dostajemy kabel do ładowania portfela.
Po otwarciu portfel żarzy nas oczobójczym światłem.
Tak, w portfelu jest diodka, lampka, która się świeci.
No okej, w porządku.
Portfel ma przegrody na pieniądze i w tych przegrodach ma sensory.
I te sensory wykrywają nam te pieniądze
i w momencie, kiedy wkładamy banknot do portfela jest odczytywany jego nominał.
Producent twierdzi, że te nominały, te banknoty są wykrywane nieważne, jaką stronę wsadzimy.
No, Phoenix udowodnił, że tak nie jest.
Już rozpoznało mu na przykład banknoty 500 rupii indyjskich jako 10 rupii.
Tak po prawdzie to i jego palec rozpoznało jako 10 rupii.
Natomiast udało mu się też, jak się dobrą stroną włożyło, rozpoznać właściwy nominał.
Ponoć też portfel potrafi nam powiedzieć, i tutaj też zaczynam mieć wątpliwości,
no Phoenix nie miał tego jak przetestować, bo nie miał na cel edukacyjny wydrukowanych fałszywych pieniędzy,
jakoś tak wyszło. Natomiast ponoć też ten portfel nam jest w stanie powiedzieć,
czy pieniądze są falszywe, czy prawdziwe.
No, ważna funkcja, aczkolwiek czy bym temu zaufał w takim wydaniu,
jak widziałem, jak on rozpoznaje nominały, chyba raczej nie.
A, no i też portfel, najważniejsza funkcja świata.
Po otwarciu automatycznie oznajmie nam poziom naładowania baterii.
Także taki gadżet.
Portfel kosztuje 3500 rupi indyjskich, czyli około 50 dolarów amerykańskich,
czyli jej ponad jakieś około 200 złotych.
Ja nie znam się na realiach Indii, ale Phoenix stwierdził, że kurcze, taki
gadżet jest raczej adresowany do osób, które
nie będą w stanie korzystać z jakiegoś powodu ze smartfona i z płatności
bezgotówkowych, bo w Indiach płatności smartfonem, tak zwany Universal Payment,
coś tam, UPI, w każdym razie UPI, system jest tak bardzo
jest powszechniony, że każdy najmniejszy sklepik gdzieś tam na prowincji w
Indiach ma dostęp do tego, więc większość takich już komputeryzowanych osób
niewidomych i tak korzysta z UPI, więc najbardziej skorzystałyby z tego osoby
starsze, osoby, które nie mogą sobie pozwolić np.
na smartfona, no i osoby, które nie mogą sobie pozwolić na smartfona, to nie są
osoby, które na portfel wydadzą 3,5 tysiąca rupii indyjskich, także no tutaj
producent musiałby jeszcze popracować nad wieloma rzeczami, nad przede wszystkim niezawodnością tych rozwiązań, troszeczkę nad może skrojeniem tej ceny pod tą grupę docelową, w którą celuję, no i co, no i że tak powiem, może wtedy by coś z tego było.
no póki co Vision Wallet to raczej taki gadżet, ale link do recenzji na YouTubie
zostawiam. Gdybyście chcieli obejrzeć, sobie posłuchać, no to zachęcam.
Jak chcecie posłuchać, jak grupie indyjskie są rozpoznawane i odczytywane, najpierw po
angielsku, potem po języku hindi, no to bardzo chętnie.
I z Indii hop do Szwajcarii, a w Szwajcarii jest taka organizacja jak Access for All,
czy też po niemiecku Zugang für Alle, jest to organizacja, która certyfikuje na całą Szwajcarię strony internetowe i aplikacje pod kątem dostępności cyfrowej.
I ta organizacja wydała w tym roku swoje jakby, swoją publikację, takie badanie, wyniki badań, raport z badań nad tym, jak dostępnych jest 50 najpopularniejszych.
Oczywiście patrząc po rankingach w Play Store, bo Play Store był wzięty jako wyznacznik,
ale wiele z tych aplikacji ma wersję zarówno na iPhone’a jak i na Androida.
Jak dostępne ich jest z 50 najpopularniejszych aplikacji w Szwajcarii.
Podzielono je na różne kategorie, biznes, zdrowie, zakupy, komunikacja itd.
No i przyznawano im oceny od 1 do 5.
No i co można powiedzieć, no nie tylko Polska i tutaj kraje nam ościenne
problemy mają, bo w Szwajcarii nie było praktycznie tylko jedna aplikacja i była
to aplikacja kolei szwajcarskich, ale dedykowana taka osobna aplikacja
specjalnie pod podróżnych z niepełnosprawnościami otrzymała rzeczywiście
piątkę i rzeczywiście ta aplikacja była też konsultowana, zdaje się, przy
współpracy z tą organizacją ona powstała, więc nic dziwnego, że tam te wymogi są
spełnione. Już ich aplikacja ogólna taka dla wszystkich do kupowania biletów, do
sprawdzania godzin odjazdu w pociągu i rozkładu jazdy miała już tylko 4,5
gwiazdki, czyli bardzo dobrze, ale nie idealnie.
Problemy były. No i potem już idziemy równią pochyłą w dół.
Jeszcze jest dużo aplikacji, które mają 4,5-4 gwiazdki, ale okazało się, że ponad 80
procent aplikacji ma na tyle poważne problemy, że nie da się z satysfakcją i z radością z tych
aplikacji korzystać, czyli no coś się da, ale
są trudności. Już chyba procent, nie pamiętam teraz ile, czy czterdzieści,
czy ileś, jest poniżej poziomu akceptowalnego tej dostępności, a często są to bardzo
ważne aplikacje, na przykład aplikacje z komunikatami SOS, takimi typowo
o zagrożeniu jakiegoś tam zdrowia czy życia, bo coś się wydarzyło w naszym regionie.
Aplikacje różnych gazet. Aplikacja na przykład Club, która jest bardzo popularna w środowiskach różnych szkolnych.
Taki odpowiednik jakby naszego Librusa, ale nie do końca, bo to nie jest tak naprawdę chyba e-dziennik, tylko bardziej taka platforma,
gdzie uczniowie, nauczyciele i rodzice utrzymują kontakt, więc jakieś informacje o wycieczkach szkolnych, o jakichś tam wydarzeniach w szkole,
o jakichś tam zbiórkach, zebraniach, no ważna rzecz, bardzo ważna rzecz,
żeby też, no czy rodzice z niepełnosprawnościami, czy uczniowie,
czy nauczyciele mieli dostęp, no i nie ma tego dostępu.
Wiele aplikacji supermarketów, które też pozwalają na zamówienie
sobie zakupów do domu, więc taki tryb jednak współpracy, który osoby
z niepełnosprawnościami zwłaszcza wykorzystują, więc jest tych problemów
Gdyby Was to interesowało, w języku niemieckim z wynikami tych badań można się zapoznać albo sobie przetłumaczyć translatorem.
No i możecie sobie zobaczyć jakie te aplikacje w Szwajcarii są, jak z ich dostępnością i na ile Szwajcarzy z niepełnosprawnościami sobie mogą w tym cyfrowym świecie swobodnie nawigować i jak to wypada na tle na przykład Polski czy innych krajów.
A może kto wie, może kiedyś któraś z tych aplikacji też tutaj spenetruje nasz rynek i wtedy będziemy już wiedzieli czego się mniej więcej spodziewać po tego typu firmie i po tego typu aplikacji.
No i ze Szwajcarii przeskakujemy dość niedaleko, bo do Francji i tam również smutne wieści, bo od jakiegoś czasu toczył się proces, który firma Facility,
czyli firma tworząca nakładkę dostępnościową,
coś takiego jak AccessDB, jak UserWay, jak AudioEye,
czyli rozwiązanie, które za miesięczną opłatę obiecuje,
no obiecuje, no zapewnia stronom internetowym,
bo z tym obiecuję, to za chwileczkę wrócę,
bo może się okazuje się właśnie,
że jedno niefortunne słowo z mojej strony i będę miał problem.
Natomiast w jakiś sposób implementuje dostępność tak, że twórca strony ma jedynie włożyć dwie linijki kodu,
a rozwiązanie ma się za pomocą sztucznej inteligencji i zautomatyzowanych procesów
zająć za twórcę strony całą dostępnością, najczęściej instalując jakiś tam osobny tryb,
który osoba np. niewidoma z czytnikiem ekranu musi włączyć i wtedy ta strona zupełnie inaczej wygląda.
Tam bardzo często np. wytłuszczony jakiś tekst, który zdaniem systemu powinien być nagłówkiem, tym nagłówkiem się staje.
Jakieś różne elementy menu dochodzą. Są opisy alternatywne obrazków robione jakimś właśnie AI-owym rozpoznawaniem.
I to jeszcze było przed czasami OpenAI, więc jakie to były opisy to możemy sobie tylko domyślić.
Ja już słyszałem o opisach np. makaronu, który był rozpoznany jako krawat, także nie za fajnie.
No i takich firm ostatnio się namnożyło, my dość dużo o tych nakładkach mówiliśmy.
No i jedną z takich firm właśnie głównie dominującą rynek francuski jest Facility.
No i jedna z organizacji zajmujących się tą dostępnością, która reprezentuje interesy osób z niepełnosprawnościami, czyli Coen,
gdzie tam chyba też była taka aktywistka, która właśnie zwłaszcza ona jakoś bardzo się udzielała w tej kwestii tych nakładek,
czyli Julie Moynard wypowiedziała się dość krytycznie na temat tego,
co firma Facility uskutecznia i jaką, no, krecią robotę robi tak naprawdę
w kwestii dostępności. No i firmie się to nie spodobało i organizacji został
wytoczony proces o zniesławienie. No i ten proces został właśnie przez tą
organizację COEN-a niestety przegrany. Z tego, co się wczytaliśmy tam,
bo to ktoś, kto zna bardziej francuski ode mnie interpretował i gdzieś tam mi tłumaczył, co się działo.
Rozbiło się wszystko o to, że Coena twierdzi, że Facility kłamie i wmawia tym firmom, które są je klientami,
że uczyni ich strony dostępnymi, a ponoć drobnym druczkiem, jak się wczytać w warunki korzystania z usługi,
To tam jest napisane, że to narzędzie nie czyni stron dostępnymi, pewnie w rozumieniu prawodawstwa, czyli nie chroni cię przed prawodawstwem francuskim czy unijnym, które nakazuje, żeby ta dostępność była.
No, prawdopodobnie tych drobnych druczków, może nie, że nikt, ale niewiele osób albo wiele organizacji decyduje się nie czytać.
No i w dobrej wierze zakupują taką usługę, myśląc, że sobie troszkę zaoszczędzą roboty, pewnie też i kosztów.
No a efekt jest potem taki, że nikt z takiej strony korzystać nie może, albo taka nakładka wręcz, no żadnych sensownych zmian nie wprowadza.
I że tak powiem o to się rozbija cały szczegół, czyli już nie można mówić, że ta firma okłamuje ludzi, oszukuje i gwarantuje dostępność, a wcale tego nie robi, no bo jest napisane, że nie wprowadza.
Że oni dostępności nie robią, więc o co chodzi?
Tak. Aktualnie chodzi o 20 tysięcy odszkodowania ze strony firmy Coen w euro, oczywiście nie w złotych, plus koszty procesu i jest zbiórka na te koszty procesowe, więc jeżeli czujecie, że gdzieś temat jest Wam bliski i chcecie organizację wesprzeć, w pokrywaniu tych kosztów to jest zbiórka i można przez chyba Paypala wpłacić i organizację wspomóc w tym sprzątaniu po tej niefajnej aferze.
Jest to jakiś precedens na skalę europejską i nie ukrywam, że troszkę z wdrużeniem patrzę, co się będzie działo dalej.
Zwłaszcza, gdzie tyle się mówi teraz o sztucznej inteligencji, o AI, więc w sumie wystarczy, żeby taka firma odpowiednio pożonglowała
pewnymi słowami, kluczami, takimi buzzwordami marketingowymi.
No i może trafić do wielu, zwłaszcza firm prywatnych, jakichś instytucji, które uznają, że kurczę, no skoro to AI teraz tak wiele rzeczy załatwia,
no to też to może załatwi dostępność.
Zdaje się, że twórcy Access E.B. też się z kimś procesowali.
Nie, to nie Access E.B., to Audio Eye.
Audio Eye z Adrianem Rossellim.
O właśnie, właśnie.
Access E.B. się zarzekało u Gelatana Mozena, że oni nie.
Oni nie.
Oni nie pozywają. Nie, nie, nie, nie, nie.
I zdaje się, że User Way również nie.
Oni tam nie bardzo się lubią z Adrianem i z tym, co on pisze,
ale nie, pozwy to nie, nie, nie, nie.
To nie my, to nasza konkurencja.
A, to konkurencja, okej, no to, ale w każdym razie, no ta francuska akcja nie była pierwszą tego typu.
Nie była pierwszą, natomiast właśnie najsmutniejsze gdzieś jest to…
Pierwszą wygraną przez twórców takiej nakładki.
Tak, i najsmutniejsze gdzieś jest to, że sąd francuski uznał, że to, co robi KON-A, czyli ta organizacja, która rzeczywiście zatrudnia ekspertów
i oni tam wedle protokołu z udziałem ludzi te audyty robią, no, że tak powiem uznała,
no została za winną, bo oni są konkurencją dla Facility i to jest nieróżciwa konkurencja,
co oni robią. Także, no, no cóż. Także tego, no i przykre.
No i ostatni news, chyba weselszy, na sam koniec. Mamy nowy odcinek EBU in Action,
czyli mojego, z drugiego, znaczy mojego, drugiego podcastu, w którym się udzielam,
czyli podcast Europejskiej Unii Niewidomych.
Podcast, w którym raz za trzy miesiące, na razie zobaczymy, jak to się w najbliższym
czasie rozwinie. Poruszamy jakąś taką paczkę tematów, jeden temat główny,
który w jakiś sposób porusza osoby z dysfunkcją wzroku w Europie.
No i poruszamy też temat tego, co tam słychać w konkretnym jakimś kraju,
który do EBU również należy, no i też, co tam słychać w samym EBU,
no w EBU troszeczkę zmian personalnych, bo przyszły nowe osoby, troszkę też kampanii
w ostatnim czasie, jak to zawsze w EBU, oni tam działają prężnie, tu z parlamentem
dyskutują, tu na jakiejś konferencji byli, tutaj z kimś się spotkali, no warto posłuchać.
Naszym tematem głównym w tym wydaniu była Europejska Karta Osób z Niepełnosprawnością
I tu rozmawialiśmy z przedstawicielem odpowiedzialnym za prowadzenie kampanii
w Europejskiej Unii Niewidomych, czyli Antoine Faube, i panią, która też zajmuje się kwestiami
właśnie rzecznictwa, kwestii też chyba prawnych w Europejskim Forum Osób z Niepełnosprawnościami,
czyli pani Claire Damilano, no i dyskutowaliśmy o tym właśnie, czym ta karta jest,
Kiedy my ją zobaczymy tak realnie w naszych właśnie portfelach, skoro już o portfelach mówiliśmy.
A czego ona nie robi, a co powinna robić? Bardzo myślę ciekawa dyskusja o tym, jakie punkty zostały,
o które też postulowała Europejska Unia Osób Niewidomych, zostały odrzucone, czyli np.
ekwiwalentność tej karty i możliwość jej użycia w zastępstwie orzeczenia o niepełnosprawności
w danym kraju, podczas gdy proces tego orzekania trwa, czyli przykładowo ja przeprowadzam się,
tak jak teraz się przeprowadziłem z Polski do Austrii, na całe szczęście moja legitymacja
austriacka jeszcze z czasów sprzed dwóch, trzech lat działa, więc jeszcze jest ważna.
Ale gdybym jej nie miał, to automatycznie zacząłbym się o nią starać.
Zacząłbym się też starać pewnie o prawo do takich świadczeń, na jakie mogę liczyć,
również finansowych. Jeżeli legalnie mogę się o nie ubiegać i moje brak obywatelstwa
austriackiego nie jest tym przeszkodą, a przeszkodą jest jedynie proces legislacyjny,
znaczy proces jakiś tam biurokratyczny, który musi się odbyć, no to na ten czas,
kiedy ten proces biurokratyczny trwa, jest taki postulat, aby ta europejska legitymacja
służyła jako równoważnik właśnie tych praw, które ja tu bym miał, gdyby ten proces się udał,
czyli ja teoretycznie tę rentę powinienem już móc pobierać na podstawie tego,
że mam tą legitymację, a proces orzekania na miejscu, czy ja tą niepełnosprawność mam,
czy nie wedle prawa lokalnego trwa. Pewnie gdyby orzeczono na moją niekorzyść,
to bym musiał zwracać, no ale żebym nie został gdzieś tam w pewnych kwestiach na lodzie,
bo pamiętajmy, że na przykład na zachodzie podejście do tego typu pieniędzy socjalnych
jest takie, że zwłaszcza w przypadku osób zatrudnionych te pieniądze służą na pokrycie
różnych dodatkowych kosztów, czyli jak ja bym chciał sobie zatrudnić asystenta,
jak ja bym chciał sobie opłacić jakieś tam powiedzmy taksówki, bo gdzieś tam nie domaga
transport publiczny albo z jakiegoś, teraz na przykład jest zima i ja osobiście przy takich
temperaturach i takim śniegu, może to nie jest kwestia odważenia się, żeby wyjść i pojechać
normalnie metrem czy tramwajem, tylko kwestia trochę takiego komfortu i zadbania o własne
zdrowia psychiczne, czyli że nie muszę na każdym kroku się stresować, czy na pewno trafię,
czy mi śnieg czegoś nie zasypał, czy psychicznie to gdzieś tam zniosę,
czy o coś się nie rozbiję, czy nie poślizgnę się, nie skręcę nogi, to brzmi może jak takie błahe
problemy, bo każdy z nas się z tym mierzy, w Polsce też i nikt nam pieniędzy na to nie daje.
No ale tutaj takie jest do tego podejście, że różne koszty, szeroko pojęte, związane z
wszystkim ekstra, co ja muszę, a inni nie muszą, bo poniepełnosprawność, no to tutaj właśnie do tego,
od tego są pieniądze te socjalne, które dostaję, no nieważne, czy pracuję, czy też nie.
Natomiast trochę się rozpędziłem, natomiast chodzi o to właśnie, czy ta karta też będzie miała jakąkolwiek
aplikowalność dla osób, które nie są obywatelami Unii Europejskiej, no bardzo ciekawe tematy,
a które w ramach tej Unii, nie wiem, studiują, pracują, cokolwiek.
Więc bardzo ciekawy temat, można sobie posłuchać, bardzo fajna, fajna dyskusja.
No i na koniec akcent polski, bo łączymy się z Dorotą Krać z Polskiego Związku Niewidomych,
z prezeską oddziału w Lublinie i dyskutujemy o tym, co się ostatnio dzieje ciekawego w Polsce
i o tym właśnie usłyszała Europa, o tym na przykład, że ustalono ostatnio nowy system kodyfikacji oznaczeń dla budynków różnych publicznych,
jak chodzi o oznaczenia, nie wiem, czy też brailowskie, czy w powiększonym druku i tak dalej. Usłyszymy też o RHA Voice’ie,
bo Dorota postanowiła się podzielić, że czymś takim, co w Polsce ostatnio, co by nie mówić, wstrząsnęło trochę dyskusją wśród osób z dysfunkcją wzroku,
jest właśnie RHA Voice, jako no takie głosy, które powstały w ramach społeczności.
Tutaj społeczność się wzięła i powstały, powstał korpus językowy i i głosy.
Te głosy cały czas powstają, społeczność decyduje o tym, to osoby niewidome decydują o tym,
co jak ma być wymawiane, więc jest to na swój sposób ewenement.
I no tam też jakieś wydarzenia kultury, które się odbywają właśnie gdzieś w województwie
lubelskim, więc też również ciekawe rzeczy, które dzieją się w Polsce, a o których warto,
żeby usłyszała Europa. Tak się prezentuje piąty już odcinek podcastu EBU In Action.
No nie tylko jako współprowadzący, ale też jako słuchacz i fan zachęcam, zachęcam do
wysłuchania. Myślę, że bardzo fajne, fajny odsłuch na ten nadchodzący świąteczny czas.
Tymczasem odbieramy telefon, bo słuchacz nam się już trochę naczekał, ale się doczekał. Jest z nami Maciek, witaj.
O, cześć wszystkim. No, jestem. Nie dowierzam, ale dobrze jestem.
W końcu się udało.
Tak. No cóż, na początku, nawet nie wiem teraz, do czego ja mam zacząć tak właściwie, bo ich was chcę pochwalić i coś dodać z tego, co mi się nasunęło.
bo jak żeśmy dzisiaj mówili, może najpierw zacznę od tego, co mi się nasunęło
odnośnie tych słuchawek, co to by mieli producenci tyflosprzętu robić i tak dalej.
Słuchajcie, wtedy by były ceny na pewno na równi z Apple’em, prawda, jak za akcesoria.
Ja tak się trochę śmieję, że Apple też ma takie drogie ceny, bo jak oni tam…
Jedną z wartości nadrzędnych jest dostępność i tak dalej, prawda, a te ceny są takie…
Wiesz, to zawsze mogłaby być jakieś nowe logo, na przykład, nie wiem, tu nadgryzione jabłko,
to to jakaś ułamana biała laska.
Laska, tak.
Może, może, no.
Ale ja też myślę, że wiesz, może nie będzie tak źle, bo słuchawki to jest jednak towar,
który jest łatwy do wykonania, stosunkowo tani.
Prawdopodobnie rozbiłoby się to jakieś chińskie fabryki,
albo jakiekolwiek inne masowe fabryki.
I wiesz co, byłaby opcja, to jest taki towar, który dość łatwo się łamie i psuje,
więc pewnie byłoby zapotrzebowanie, żeby kupić tego więcej naraz.
Więcej egzemplarzy.
Z jednej strony tak, tylko z drugiej strony…
Z jednej strony tak, tylko z drugiej strony widzisz, no masz cały czas to tłumaczenie, że to jednak jest…
Mimo wszystko, wiesz, wszystko można nagiąć i wszystko można podciągnąć, że to jest produkt jednak w tym momencie niszowy,
bo to zapotrzebowanie jest mniejsze, bo specjalna grupa odbiorców i coś tam, więc wszystko tłumaczy podniesienie cen, nie?
No, tak samo, tak samo jak ten, ostatnio się tyle, co ja się rękawiczek zaszukałem, wiecie, na pięć palców, żeby znaleźć, nie?
Alegro było nasze, ja żeśmy z mamą, znaczy w zasadzie mama to szukała.
Troszkę nam to zajęło.
Jakby jakiś taki lumen powiedzmy, czy Altyx miał.
Żeby się jakby obsługiwało to pięć palców mówię.
No też bym był w stanie normalnie wydać, bo tyle co żeśmy zaszukali to naprawdę.
No ale w końcu żeśmy na Allegro znaleźli, na szczęście.
Jeszcze w tych wszystkich Black Weekach i tak dalej jeszcze jakieś takie powiedzmy promocje były.
No i się udało znaleźć te rękawiczki, rzeczywiście fajnie działają, jest na pięć palców, bo problem z tymi rękawiczkami jest taki, że kciuk to przede wszystkim króluje, plus ewentualnie palec wskazujący, bardzo rzadko środkowy, no a my co my tym kciukiem zrobimy, nie jak nawigujemy, jak to jest powiedzmy bardziej wskazujące, iPhone to już w ogóle trzech palców potrzebuje, no i tak szukałem, szukałem, znalazłem te rękawiczki.
No i kupiłem, no i dobrze, i działają fajnie, a o ironio, dzień później po tym jak ja tych rękawiczek szukaliśmy z mamą,
no iCulture na tym holenderskim portalu, w sumie to chyba holendersko-belgijskim, nie wiem, bo często oni tam wzmiankują o Belgii, no ale okej,
w każdym razie pojawił się piękny artykuł odnośnie jakie rękawiczki, z iloma palcami i tak dalej, szczegółowe recenzje, no myślałem, że mnie trafi, no nie?
Jakby to się pojawiło powiedzmy ten dzień wcześniej to by mi zaoszczędzili też szukania ale cóż rękawiczki są tyflo firmy chyba nie muszą ich robić.
W każdym razie też się wcale nie zdziwię jakby tak było że gdzieś tam tyflo firmy wpadną na ten pomysł żeby jednak robić rękawiczki na pięć palców i potem je sprzedawać za jakieś cztery stówki czy ileś tam nie.
Jeśli już by tak miało być, Maćku, to ja mam taki postulat, bo to jest pewna nisza na rynku i myślę, że osoby niewidome to byliby głównie beneficjenci, bo lubią tego typu rzeczy.
Natomiast mi brakuje na rynku słuchawki.
Nie, ja o słuchawkach, ja o słuchawkach.
Przepraszam. Mi przydałyby się słuchawki, które potrafią nagrywać wszystko, co słyszą.
Czyli każdy dźwięk, który przepływa przez słuchawki jesteś w stanie zarejestrować na jakiejś dołączonej karcie pamięci albo na jakiejś wbudowanej pamięci.
I to byłoby tak praktyczne do wszelkiego rodzaju demonstracji, prezentacji, podcastów, do, nie wiem, nauki jakiegoś obsługi sprzętu.
No nie chcę mówić o nagrywaniu rozmów, bo to gdzieś tam dalej się oczywiście czai, ale byłaby możliwość, może nawet z nagraniem naszego głosu,
żeby jakieś po prostu nagrywać materiały szkoleniowe,
jak korzystać z jakiegoś tam konkretnego sprzętu,
nie wiem, bankomat, niech to będzie właśnie taki terminal,
coś tam jeszcze. Ja szukałem po rynku europejskim,
amerykańskim, takim oficjalnym, jakimś utwardzonym,
po chińskim. No znalazłem jakieś słuchawki Bluetooth
z nagrywaniem rozmów, ale puściłem sobie na YouTubie.
Na szczęście na YouTubie były recenzje tego typu sprzętu.
No właśnie, skoro po Bluetoothie, to pytanie jaka jakość,
Straszna, okropna, nie polecam.
Także nie ma niestety niczego.
Musiały być jakieś bardziej przełodówki.
Tak mi się też wydaje.
Już ten temat przedyskutowaliśmy w kuluarach prywatnie.
Michał zwrócił mi uwagę na bardzo ważną rzecz.
Może w Chinach by to jeszcze przeszło,
ale Europa, Stany nie przepuści tego żadna władza,
która dopuszcza do rynek różne produkty
no bo kwestie prywatności, tak?
Raczej nie, no właśnie kwestie prywatności, kwestia nawet takiego
no, miałem tego nie mówić wprost, no ale okej, no takiego
utajnionego szpiegowania, no nikt Ci nie podejrzewa, no słuchasz
te muzyki, powiedzmy, a to tak się nagle rejestruje, nie?
Piractwo, tak, piractwo też.
Są teoretycznie, wiecie, jakieś
sklepy ze sprzętem szpiegowskim, tak?
Pytanie, właśnie…
Ojej, takie słuchawki jakby tam były, no.
Właśnie, ciekawe w jakimś takim, w jakichś takich sklepach
detektywistycznych. Może, Pawle, tą drogą trzeba by było pójść.
I postojem zapłacić pewnie, no ciekawe, w sumie może być jak szczęk.
Trochę się boję, trochę się boję, bo tracę lat zostawiać po takiej innej stronie.
Tak naprawdę rzecz mogłaby się okazać dość banalna, to znaczy, wiecie,
bo tak naprawdę ja się nie zdziwię, bo na przykład jak Zoom wypuścił niedawno
mikrofon z funkcji nagrywania, no to jeszcze trochę wyobrażam coś
na zasadzie rejestrator z wejściem liniowym, który nagrywa na przykład nie do WAV-a, czy tam do FLAC-a, do WAV-a, bo to jest powiedzmy jakby ten i jakby takie zastosowanie powiedzmy profesjonalne na zasadzie, wiecie, macie wejście, które te słuchawki podłączacie do czegoś i po prostu nagrywacie to, to coś właśnie na zasadzie, nawet to mogłoby być na zasadzie,
No, podłącz swojego kiborda i nagraj jak grasz na kibordzie, przy okazji słuchając tego kiborda i nie przeszkadzając sąsiadom.
Jakby wiecie o co chodzi.
No tak, audio to jest też fantastyczny przykład użycia.
I ja myślę, że to by mogło być spokojnie sprzedawane jako rejestrator audio.
No.
Coś takiego.
No i to trzeba trzymać kciuki. Tylko żeby to było w miarę kompaktowe,
że ja to mogę spakować, wiesz, że potem chcąc nagrać np. taki bankomat
czy jakiś sprzęt dla was do podcastu, ja nie wyglądam właśnie jak jakiś,
wiesz, skłon czy operacja wojskowa wyciągając pół plecaka kabli
i rejestrator audio, bo trochę podejrzanie by to wyglądało,
gdybym z jakąś skrzyneczką stał i majstrował przy tym biletomacie.
To już pewnie ta pierwsza wizja Apple Vision Pro,
bo byś w nich wyglądał trochę tak nietypowo, nie na przykład.
Tylko Bijunpl ma jeszcze szansę się jakoś społecznie
umocnić w miarę jak się rozpropaguje VR, a tutaj
chodzi o to, żeby ten rejestrator
to znaczy wiecie
może jeszcze zoptymalizują, ale no
chodzi o to, żeby ten rejestrator, jako sam rejestrator
miał taki design, który nie podpada na pierwszy rzut oka
znaczy wiecie, bo to tak naprawdę
wystarczy, tak mi się wydaje, wystarczy zrobić następującą
rzecz, od razu sobie podpiąć słuchawki do rejestratora i do wejścia liniowego jakiś kabelek z jackiem, załączyć sobie słuchawki, przy tym urządzeniu tylko po prostu nawet włożyć rękę tam do, nie wiem, czy jakiejś nerki, czy do czegoś takiego, do kieszeni, gdzie to jest, bo przecież część tych rejestratorów jest mała, włączyć po prostu nagrywanie, no i już, no te nawet jakieś dyktafony proste teraz coraz częściej mają wejście jakieś,
No dobra, trochę na mikrofon, ale pewnie dałoby się jakoś ściszyć na początku.
Ja już w ogóle zabieram się od dłuższego czasu do…
To w ogóle podobno mnie rwie.
Tak, troszeczkę, troszeczkę tak. Dziś jakoś wyjątkowo często.
To ciekawe, bo właśnie was u mnie rwie, to muszę zobaczyć, co się dzieje.
Rytmach też, że mówiłeś, że masz w domu głośno i tak dalej, a właśnie dzisiaj cię bardzo fajnie izolował, a ty jakoś tak na tej jakości nie traciłeś, więc jest akurat tak spoko.
No być może, znaczy teraz tak naprawdę, teraz być może będzie lepiej.
I jest, i jest lepiej.
Coś, coś tu miałem.
W każdym razie, tak sobie to, no właśnie, jest dyktafon za chyba niecałe 200 złotych w tej chwili Sonego.
On nie jest naprawdę udziękowiony, ale coś tam piszczy, on mowa się w wyjście słuchawkowe,
wejść się na jakiś mikrofon, nagrywa jakoś takoś i wydaje mi się, że to możliwe, że mogłaby być też jakaś opcja, no nie na bluetooth, tylko właśnie bardziej przewodowa, ale no też nie zdziwię się jak coś takiego jest na bluetooth, być może właśnie z jakimś sprzętem takim, takim, takim.
A tak pozostając w temacie audio jeszcze to i słuchawek w sumie, tak się mi ładnie teraz po to, że tak powiem złączyło.
Tam za dwa odcinki temu właśnie mówiliście, no nie, że te słuchawki bluetooth i w ogóle, że nie do równa tej jakości jeszcze póki co i tak dalej.
Natomiast ja szczerze mówiąc byłem pod wrażeniem AirPodsów 2 Pro.
pro dwójek w sensie ja zawsze No wiadomo to jest zawsze
słychać tą jakość kiedy kiedy ktoś ci przez słuchawki
gada i tak dalej, natomiast chyba w sobotę jak tam jedną
konsultowałem tam w sprawach makowych i nie tylko to, to ona
mówi, że no tak no przez Airpocy dwójki gadają co pani
mówi nie jak to nie tak naprawdę gdyby nie pogłos
świadczące o tym, że to jednak mogą być słuchawki,
to ta jakość była na tyle dobra, że ja bym w życiu nie powiedział,
że to są AirPodsy 2 Pro. Nie wiem, co im się stało.
W sumie, swoją drogą, tam co jakiś czas aktualizacje teraz
dość często wychodzą. Ale naprawdę, to jak ja w trójkach
gdzieś tam jak się słyszę, jak gadam, to słychać, że to są AirPodsy
mimo wszystko, a te 2 Pro naprawdę dały radę.
I ja bym w życiu nie powiedział, że to są słuchawki na Bluetootha generalnie.
Zwłaszcza gdyby nie ten pogłos gdzieś tam.
Co najwyżej bym powiedział, że ktoś gada przez głośnomówiący na iPhone.
Ja się zastanawiam, czy w przypadku takich słuchawek,
bo to są słuchawki AirPodsy 2, to są też słuchawki dokanałowe,
to są takie małe słuchaweczki.
Ja się zastanawiam, czy przypadkiem, jeżeli mamy do czynienia z tego typu sprzętem, to bardzo ta jakość dźwięku nie zależy od tego, jak my je umieścimy w uchu,
bo można je tam pod różnymi kątami wkładać i być może osoba, z którą rozmawiałeś, miała dość dużo szczęścia, że udało jej się tak te słuchawki włożyć,
że po prostu do te mikrofony z jakiegoś powodu fajnie zbierały ten dźwięk a być może i oprogramowanie jakaś aktualizacja też nie była tu bez znaczenia.
No właśnie to dopasowanie też właśnie może być kluczowe bo też jeden znajomy z którym z którym rozmawiałem i on też ma Bota i właśnie dwójki pro dwójki
nie pamiętam jedynki dwójki chyba ma też tylko, że on gdzieś tam coś narzeka sobie na to dopasowanie jakby nie mógł sobie końcówek wymienić tam gumę czy coś
No ale nie wnikam, w każdym bądź razie, no to u niego to słychać, że to są earpodsy i że troszeczkę i to bez trudu jest się w stanie zrozumieć, a tutaj byłem autentycznie pod wrażeniem.
Tak samo kiedyś rozmawiałem z jednym takim, co to chyba ma te szoksy,
które to są, te chyba run, coś tam, open run chyba, no to te w każdym razie takie.
I generalnie też go naprawdę było bardzo fajnie słychać.
To też bym nie powiedział, że on przez słuchawki gada prawie źle.
Potem jak gdzieś tam zwróciłem większą uwagę, to może.
ale też robiły robotę, więc to się gdzieś tam stoie mimo wszystko coraz lepsze.
I no bynajmniej nie gadał jak ze studni i było to naprawdę bardzo fajnie słychać.
Więc powoli chyba jednak mimo wszystko zmierzamy do tego,
żeby ta jakość tych rozmów była coraz lepsza.
I fajnie, bo w sumie wygodniejsze to to i bardziej praktyczne w użyciu.
A dlaczego miałaby niby jakoś dźwiękły na tym cierpieć.
No i teraz chyba przejdę w końcu do pochwały, bo no właśnie, ja gdzieś tam jak się tam od czasu do czasu pojawię, to tam zasadzę różnymi też technowinkami i tak dalej.
I cieszy mnie to, że mówiliście o RCSie, że RCS na iPhona będzie i tak dalej, jak i to, że wreszcie ten dźwięk powiadomień nieszczęsny, domyślny, systemowy można zmienić.
Jeszcze w poprzedniej wersji beta to nie było spolszczone, było default ale coś tam, nie pamiętam.
Teraz już to spolszczyli, więc fajnie.
No bo wersja RC wyszła wczoraj, generalnie systemów.
I o tyle fajnie, że wreszcie ten Apple Watch,
widzę, że postępuje na lepsze ta optymalizacja,
bo jeszcze dwie wersje beta temu, powiedzmy, to jeszcze to takie było dosyć mało responsywne.
I to jest ciekawe, że jak jest używana Zośka kompaktowa, to jest problem.
Przy rozszerzonej teraz nie pamiętam szczerze mówiąc, chyba problemu nie ma.
Śmiga jak, no szybciutko, Krzysztof też jest okej ponoć, coś z Zośką kompaktową jest nie tak.
Tak było, bo te dwie wersje temu właśnie lekki postęp zaczął być, w poprzedniej wersji zeszłotygodniowej no już powiedzmy prawie, że dobrze było, a teraz to już jest całkiem dobrze, to jeszcze nie jest chyba to co było w 10.0 stricte, ale ta responsywność naprawdę powoli wraca do łask, no i powiedziałbym, że to w WatchOSie zostało poprawione,
No w iOS-ie wreszcie mamy te dźwięki, po wiadomień można to zmienić.
Podpowiem jeszcze to, że to był trójdźwięk, ten stary dźwięk,
no to myślę, że to jest wiadome, ale co do haptyki,
to domyślnie też się ustawia ta zsynchronizowana,
tak zwana, że on w rytm trójdźwięku pyrym też będzie wibrował w ten sam sposób.
A jak my jesteśmy przyzwyczajeni do tej, która była wcześniej,
to ona się nazywa szybka, więc jak ktoś chce sobie szybko
żeby rozmienić haptykę, to właśnie szybka i wtedy będziemy mieli po staremu
w iOS-ie 16 powiedzmy, no tak, w iOS-ie 16, bo w 17 taki wymysł sobie wprowadzili
na zmianę dźwięków. Co jeszcze? Właśnie, na razie Piotrka z nami nie ma,
ale jak będzie to mu podziękujcie, a może słucha, nie wiem, w każdym razie
za tego newsa odnośnie Macoesa i zmiany nazwy, znaczy edycji tekstu w ogóle,
bo faktycznie działa. Ja teraz tak dzisiaj, w sumie wczoraj i dzisiaj nadrobiłem te dwa odcinki
i się bardzo ucieszyłem, że rzeczywiście to zostało poprawione, bo naprawdę był dramat,
takie niemiłe zaskoczenie. Dobrze, że to jeszcze nie było w momencie studiowania,
tylko w weekend gdzieś tam wcześniej. Nieprzyjemnie zaskoczyłem, że mi nagle
nie czyta tekstów w tych polach edycyjnych ze zmianą nazw plików,
czy powiedzmy w Pagesie, w Textedicie i tak dalej, nic w ogóle i tak w ogóle przerażenie.
Trzeba było wszystko przywracać od nowa.
No a tu jednak teraz naprawili i można znowu macOS-a testować.
To feedback to jest jedno, do Apple Accessibility, przez test slajda,
boże, przez Apple Feedback Assystenta,
ale też ich o to dosyć mocno cisnąłem na Apple Accessibility właśnie w kontakcie,
bo napisałem, że to jest niewyobrażalne, mówię, żeby coś takiego trafiło do finalnej wersji systemu.
No i oni tam lakonicznie pisali, że Apple bada tę sprawę, że tak bardzo poważnie i że starają się i w ogóle.
Ale nie dostałem tak naprawdę info.
W sumie gdyby nie Piotrek, to pewnie bym dalej sobie siedział na stabilnej wersji i bym nie aktualizował.
A był tam jeden taki strasznie durny błąd, który mnie w Stabilnej irytował, więc teraz mam nadzieję, że go nie będzie.
Także dzięki Piotrek.
No a jeszcze co do… Fajnie w ogóle, że powstała ta petycja odnośnie dostępności Telegrama.
Ja jeszcze jej nie podpisywałem, ale trzeba to będzie zrobić, bo…
No, bo to by się naprawdę przydało, bo Telegram jest fajnym komunikatorem.
Właśnie, a nawet wiesz co, ja ci powiem szczerze, że nawet przez, bo ja nie mam tak naprawdę tego Telegrama i jak ja słyszę, stąd i owąt, a zwłaszcza właśnie dzięki wam właśnie z tytułu przeglądu, że ta dostępność, no to tam teraz się nie ma najlepiej, to jestem szczerze mówiąc zniechęcony, no i zwyczajnie tego nie mam, więc on mnie jeszcze w sumie nie dotyczy,
ale na wszystkie jakieś takie przejawy niedostępności różnych rzeczy, to jestem tak cięty, tak wręcz można powiedzieć nadwrażliwy w sumie nawet wręcz,
że rzeczywiście to trzeba będzie podpisać i jak się coś zmieni, ja też będę wasze relacje śledził, więc jak już się w końcu coś tam poprawi,
to może sobie nawet założę tego telegrama, nie wiem.
Muszę zajrzeć swoją drogą na te petycje, może coś tam się wyświetli, ile osób już to podpisało.
bo jak podpisywałem to było około pół tysiąca z tego pierwszego progu chyba tej petycji, który był w liczbie tysiąca właśnie.
Więc zobaczymy, zobaczymy jak to tam dalej.
To by jeszcze trzeba było na naszych grupkach udostępnić, typu Niewidomy i Niedowidzący, czy tam powiedzmy nawet dostęp na Apple,
zwłaszcza skoro to dotyczy iOS-a, no może tam jeszcze więcej ludzi dojdziemy.
Co mnie smuci, że tak się wetnę, kiedyś taka
petycja była i dalej jest tam gdzie byliśmy.
To było lata temu, wiele, wiele lat temu była już petycja odnośnie dostępności telegrama.
Ale wiesz, drugie strony jak to mówią kropla drąży skałę, więc może w końcu coś gdzieś
kiedyś do tych pustych łbów dojdzie.
A jak kiedyś wyczytałem taką informację, że w sumie telegramem i rozwojem telegrama
zarządza dział marketingu, a nie programiści czy jacyś ludzie tacy
ogarnięci w kwestiach technicznych, to może jak właśnie
pojawi się jakaś tam kolejna petycja, że
no jednak jest grupa zainteresowanych użytkowników tym Telegramem
w jakiejś dużej liczbie, no to może coś z tego będzie.
Wiecie, mi najbardziej na sercu leży, jak chodzi o Telegrama Ukraina,
bo to jest jednak ich podstawowy środek
przekazywania jakichkolwiek informacji. Wyobraźcie sobie, że w Polsce
głównym komunikatorem nie jest Whatsapp,
Jeszcze Telegram to pół biedy, bo tam jakiegoś Unigrama się da postawić albo Twiscaka.
Viber. Viber, którego wygodnie nie da się obsłużyć niczym.
I teraz Viber jest waszym podstawowym źródłem, na którym wasz rząd pisze informacje o tym,
jaki jest postęp wojny w waszym kraju, a przede wszystkim jak macie przeżyć,
jakie są do zachowania zasady bezpieczeństwa, jak się chować, jak się kryć,
jak o siebie zadbać.
Kiedyś, to nawet nie był wcale tak źle dostępny ale on się
istotnie pogorszył dość mocno teraz bardzo stoczył ja bo
mieliśmy taki problem bo ja też, mam w tym momencie na
nauczaniu, właśnie polską znaczy ukraińską grupę
którą którą uczę polskiego zresztą jest tam nas parów w
pewnym projekcie też mi, zastanawiali No jakie to
komunikator wybrać nie telegram no nie bardzo bo
z tamtą dostępnością, a on różnie, Viber nie wiedziałem,
ale jak sobie to ściągnąłem, czy to jest to…
W ogóle kwestia jest taka, że tamtego
po rejestracji numeru, czy w trakcie rejestracji
numeru, tam czegoś nie można chyba zaznaczyć i przejść dalej
w ogóle, to jest…
Wiesz co, istotnie, tak, istotnie
nie można, nie można było czegoś zaznaczyć,
bo ja ostatnio właśnie stwierdziłem, a zobaczę
sobie jak ten Viber.
Ale zainstalowałem, zainstalowałem go ponownie
i rzeczywiście tam jakaś akceptacja regulaminu nie działa, po prostu nie da się tego przejść,
tylko że ta akceptacja regulaminu w moim przypadku, to ona była, może też dlatego, że ja już tam miałem konto
założone, kiedyś, kiedyś, natomiast ja sobie z tym poradziłem, w bardzo prosty sposób.
Rozpoznawanie ekranu włączyłeś?
Nie. Zamknąłem tę aplikację, uruchomiłem ją jeszcze raz, znowu się pokazał regulamin.
Zamknąłem, uruchomiłem jeszcze raz, a on stwierdził, że on w sumie to już mnie nie będzie pytał, czy ja tam jakiś regulamin akceptuję.
Poszło po prostu i zadziałało.
Okej, no bo mi właśnie, a nie rozpoznawanie ekranu, a na to bym nie wpadł w sumie, a w końcu…
Ja wiesz co, ja zupełnie też przypadkowo do tego doszedłem, bo stwierdziłem, że dobra, to już po prostu mam tego dosyć, nie bawię się więcej z tą aplikacją.
Zamknąłem ją z AppSwitchera, ale tak po paru dniach stwierdziłem, a dobra, popróbuję jeszcze.
No i znowu tam był jakiś problem, znowu tak się poddałem, no ale za trzecim razem jak ją uruchomiłem, o, działa, to fajnie, to bardzo miło.
A na maku to powiem wam, że jest jeszcze gorzej bo tam
totalnie nic nie jest czytane w sensie nie No potem już jak
się zarejestruje znaczy zalogujesz na ten ten QR
zeskanuje to, że to powiedzmy co się da ale zanim żebym ja
się dowiedział, że tam no ten kod i w ogóle to ja musiałem
w ocerem sobie sobie to zeskanować, dowiedzieć i w
ogóle tam chyba jeszcze w coś kliknąć w ogóle nie
Dramat, dostępnościowy to to niestety jest na Windowsie
I Viber to pamiętam, że kiedyś robił bardzo dziwne rzeczy z urządzeniami audio i no tam potrafił je bardzo skutecznie rozkalibrować.
Ale tu no właśnie istotnie oni tak, mam wrażenie troszkę, że przed tym Whatsappem to jakiś taki lekki opór mają, a że rzeczywiście tamten Telegram czy Viber,
jak ja właśnie powiedziałem jednemu panu, że no fajnie jakby do naszej grupy Whatsappowej dołączymy jednak, bo tam się,
O nie, my nie potrzebujemy Whatsapp. Nie, nie potrzeba, nie.
No więc jakby tak gdzieś tak, a jednak to jest najbardziej dostępne.
I teraz ten Telegram, jeżeli by on się, jednak by się to udało, to by było super.
No tak samo z tą hakapczą nieszczęsną, nie?
To też by naprawdę autentycznie trzeba było nagłośnić,
bo jak oni tego gościa tak potraktowali, to…
Ten szyn już w kieszeni otwiera.
Zbanowali go tak naprawdę za dobre serce.
No nie, to jakżeście o tym mówili, to naprawdę mnie coś…
Ciśnienie mi się podniosło autentycznie.
I no nie wiem, jakby gdzieś tam do nich też coś wyskrobać, nie?
I żeby to jakoś ludzie podpisywali, żeby go odbanowali.
Tak, i żeby przede wszystkim ktoś jednak jakoś bardziej przywiązywał uwagę do tego,
jak traktowani są użytkownicy.
Dokładnie.
Bo ja oczywiście jestem w stanie zrozumieć, że prawdopodobnie iluś spamerów wykorzystuje tę lukę.
No ale to mimo wszystko to jakoś weryfikujmy.
Ale jednak to przekazać, jak powiedzmy my nie mamy mocy przerobowych, nie do końca wiemy.
To przekazać ten do działu technicznego, słuchajcie mam tutaj takiego klienta,
no zróbcie coś z tym wy i tak dalej, żeby to autentycznie już pisali ci co się znają.
Tak samo w Uberze słuchajcie, no tam też, ja tam zacząłem nagle na supportzie tłumaczyć
co to ten voice over, dlaczego i że ja nie mogę coś tego zrobić tu, bo
gdzie tam w ogóle nie do końca oni mi tam jakimiś ze skryptu, regułkami,
definicjami coś i też strasznie ubolewam, że nie mają tam żadnego stricte
oddziału odnośnie dostępności, żeby nawet w tej ich zagmatwanej dosyć pomocy, żeby
można było wybrać jakąś kategorię, znaczy jest kategoria odnośnie dostępności,
ale żeby tam było przekaż feedback czy coś tam to nie, tylko jest jak korzystać
z voice-overem i stock-backiem, no, nie powiem, fajnie nawet to chyba zrobili, z tego co pamiętam,
ale kurczę, żeby jeszcze była możliwość zgłoszenia tym kanałem czegokolwiek, a tak naprawdę teraz to żadnej opcji tam
takiej nie ma, i się trzeba użerać z nieświadomym supportem, nie?
I to też nie jest fajne, zwłaszcza, że ostatnio znowu tam jest jakieś drobne, bo drobne, ale problemy mimo wszystko pojawiły w tej apce,
więc też nie jest dobrze, może jakieś najnowsze aktualizacje to poprawiły, ale jeszcze tydzień temu
bo to trochę było niezbyt fajnie.
Co do McWhispera, w ogóle aplikacje od tego pana Jordiego Brana,
bo tak się go w sumie normuje, to jest ten, Holender chyba.
W każdym bądź razie, rzeczywiście, jak myśmy, Michale, rozmawiali,
wtedy myśmy tę audycję prezentowali, robili to,
taki miałem troszkę kompleks, bo u ciebie to tak szybciej to wszystko
rzeczywiście szło tak powiedzmy te trzy razy, cztery razy szybciej.
Na ołównie rzeczywiście tak dwa razy, półtora raza, to było taki maks,
bo to jednak było na CPU, nie na GPU i mimo wszystko, że M2 i tak dalej,
ale tutaj w mocy przerobowej takiej nie wykorzystywało, jakby trzeba było.
A teraz po tej aktualizacji, gdzie on
rzeczywiście korzysta z tego środowiska graficznego Metal,
tam było dwójka czy trójka, nie pamiętam, w każdym bądź razie z tego środowiska,
czyli stricte z GPU tak naprawdę, to przyśpieszenie nastąpiło.
To ja chyba sobie tak dla testu przepuściłem ten podcast,
tą audycję z Wojtkiem Dulskim o iPadach,
co tam ponad chyba dwie godziny i ileś tam sekund trwało sobie,
to mi to w takie pół godzinki chyba rozpoznało, wydaje mi się,
więc rzeczywiście tak to by mi rozpoznało pewnie w godzinę dwadzieścia
czy widać tam nie. A teraz rzeczywiście w te pół godzinki
takie lekko ponad pół godzinki mi rozpoznało więc.
Czyli to już tak naprawdę dorównuje temu co można osiągnąć na
u mnie na NVIDII.
Tak więc więc z tego się bardzo cieszę ja.
Ja to tylko trzeba pamiętać że tam mogą być
różne imprementacje tego wszystkiego no bo wiecie ja mam na przykład
ten faster whisper no to jest też jakby whisper który korzysta z tych modeli tylko
one są jakoś tam przekonwertowane.
No i u mnie na przykład podkaz pół godziny robi się 15 minut i teraz ja nie twierdzę, że mam lepszy sprzęt, tylko te implementacje u Ispera są bardzo różne na różnych systemach, one korzystają z różnych rzeczy, które w różny sposób sobie radzą z różnymi rzeczami.
i podobno ta implementacja od oryginalna do PNEA jest jakby najwolniejsza z tych wszystkich.
No i teraz potem wchodzą różne, różne udoskonalenia, które tam mają coś, coś poprawić.
No ja powiem szczerze, że ja też korzystam teraz z Faster Whisper’a i on wydaje mi się,
że nawet od tego oryginalnego Whisper’a działa odrobinkę lepiej.
To jest, to jest odrobinkę, a jeżeli chodzi o wydajność, to no jest to porównywalne.
On dłużej się zbiera do pracy, bo Whisper od OpenAI, to jak mu się to odpali, to jest kilka sekund i to zaczyna działać.
W przypadku Faster Whispera, to na przykład zanim on to sobie zdekoduje, chyba, zanim coś tam sobie zaczyta, to to trwa.
Natomiast potem…
Tak z pół minuty przynajmniej u mnie.
Tak, natomiast potem to to już, to już fajnie działa.
Ale mówisz o porównywalni do tego oryginalnego Whispera, jeżeli chodzi o czas?
Wiesz co, tak. Mniej więcej, mniej więcej tak.
A to ciekawe, no bo u mnie oryginalny Whisper, no jakby zacznijmy od tego, że on jest, on,
znaczy ja mam 8 giga pamięci na karcie, więc mogłem tylko Medium załadować.
I Medium mniej więcej robił, no w zależności od tego, co to było.
Bo jeżeli był taki materiał trudniejszy dla niego, to on robił to w czasie rzeczywistym.
Jeżeli to był taki materiał ładny typu na przykład podcast, to robił to mniej więcej półtora
raza szybciej niż oryginal, a zamiast faster…
Właśnie mój tak wcześniej robił, a teraz na szczęście.
I to już na Macbooku RC, na Macbooku RC.
Nie pro, żeby nie było.
I na M2, ale M2 jak M2, tylko właśnie ten metal to jest niby, to jest podobno przepieruńska
wydajność właśnie.
To jest przewydajność i gdyby rzeczywiście gry przepisać na metal,
jakby deweloperzy, to to, że to jest naprawdę petarda.
Więc ja się nie zdziwię, że ten Mac Whisper teraz istotnie przyspieszył.
Natomiast właśnie ten u mnie Faster Whisper to na modelu large,
czyli on powinien robić dwa razy wolniej, a robi…
To jeszcze właśnie na large.
No właśnie podcast dwugodzinny robi 15 minut.
Nie, no bo słuchajcie, bo być może to jest właśnie na tej zasadzie, że on do pewnego stopnia jest w stanie przyspieszyć, czyli np. tak jak u ciebie jest wydajność, natomiast np. na mojej specyfikacji, z którą sobie radzi dobrze ten oryginalny whisper, no to już po prostu tu nie ma czego przyspieszać, bo jest jakiś sufit, którego on nie jest w stanie przeskoczyć.
Być może no tu w ten sposób i o to tutaj chodzi.
A to jeszcze z takich nowości odnośnie właśnie Mac Whispera.
Nie pamiętam czy to jest teraz in development, czy już w sensie w fazie rozwoju, czy już to dodali.
W każdym razie automatyczne wykrywanie mówców, co zapewne jak się ich tam dodaje,
dla języka angielskiego ponoć rzeczywiście albo już jest, albo ma być na ukończeniu,
albo to już jest rozwijane jakkolwiek.
I co jeszcze?
I to, co na pewno jest, to można sobie stricte zdefiniować prompt, nie?
Już prompt wklepać mu, że słuchaj, ta rozmowa dotyczy tego i tego.
I on już autentycznie z kontekstu będzie doszukiwał się tych słów,
no bo wiecie na przykład, tak jak jest, nie wiem, capsys trójka, nie wiem, capsys dwójka,
Kapsys, coś tam, Smart Vision, i on już tam próbuje tego Kapsysa na przykład przeinaczać, albo nie wiem, no cokolwiek.
To dotyczy naszej, albo TalkBack na przykład, gdzie on, a tu na przykład jeśli mu się da prompt, w ustawieniach się to robi tam w Advanced,
w zaawansowanych, że słuchaj, to dotyczy androida, to dotyczy osób niewidomych, on będzie szukał pod tym kątem, wtedy nie, zwłaszcza tam…
I od razu zapytam, Maćku, czy ty testowałeś jakoś to w praktyce i widzisz różnicę?
Bo ja powiem szczerze, być może za mało szukałem, ale ja nigdzie nie znalazłem jakichś sensownych informacji
na temat tego, jak te prompty do Whispera należy tworzyć.
Czy to mają być prompty w języku, w którym jest rozpoznawany tekst?
Czy to ma być jakaś taka globalna instrukcja, czego to dotyczy na przykład po angielsku?
no po prostu nigdzie nie mogłem znaleźć żadnego sensownego info jak ja mam właśnie z tego promptu skorzystać,
bo ten prompt to generalnie jest w whisperach. Nie pamiętam teraz czy w fasterze jest, na pewno w oryginalnym whisperze jest możliwość podania promptu,
no ale co z tego jak w zasadzie nie wiem jak tutaj się zachować i co z tym zrobić.
No właśnie, nie testowałem tego jeszcze, a tam był jakiś wpisany rzeczywiście jakiś tam, dziwnie wyglądający, po angielsku, no bo w sumie, no wiadomo, to tak jak w Detektivie, w tym drugim programie tego pana, no to też jest prompt po angielsku.
to jest po angielsku, ale musiałbym to przetestować, ale dzieje się, w sumie ten program się cały czas rozwija, tam dostępnościowo już jest prawie idealnie, w sumie w tym McWhisperze jeszcze nie do końca, ale prawie, w sumie w Orange Flexie zresztą też i tutaj się też upór upłacił, jeszcze tam jest parę rzeczy, ale można mówić o sukcesie,
Tak na marginesie, w każdym razie to co jeszcze jest bliżej niż dalej, to apka na iPhone’a i iPad’a, że podobno to już też jest in development i podobno się ma niedługo też ukazać właśnie aplikacja MacWhisper’a.
Ciekawe w sumie jak się będzie nazywała teraz, skoro MacWhisper, to MacWhisper może iWhisper albo coś.
W każdym razie już tam autor ma przymiarki, żeby to zrobić i dobrze, bo skoro Aiko jest, to czemu nie.
Jeszcze odnośnie Apple Watcha.
W ostatnim odcinku słuchacz, któryś współsłuchacz miał pytanie, jak tam ten ekran, żeby on był aktywny przez cały czas,
bo to jemu o to chodziło właśnie.
No i są obce dwie, znaczy można sobie, jedna nie wyklucza drugiej,
można sobie jakoś tam pomóc.
Pierwsza, którą mieliśmy i ona jest ogólnie dostępna,
no to jest, można ten czas aktywności ekranu sobie wydłużyć.
Domyślnie jest 15 sekund, ale możemy sobie zrobić, żeby było tych sekund 70.
No i w tym celu, a to zarówno z Watcha, stricte z poziomu zegarka albo z aplikacji Watcha.
Te dwie rzeczy można zrobić dwojako właśnie.
Wchodzimy sobie w, no na Watchu wiadomo w ustawienia musimy otworzyć,
a z poziomu aplikacji Watcha, no to już nie no bo domyślnie.
Wchodzimy sobie w ekran i jasność i tam jest coś w stylu właśnie,
jak się ta opcja nazywa?
Teraz już nie pamiętam, w każdym razie tam można to zmienić, z tych 15 na 70 sekund, to jest jedno.
A druga sprawa, to wchodzimy sobie w dostępność.
Na zegarku też w ustawieniach, oczywiście wiadomo, w aplikacji Watch, no tak normalnie w dostępność sobie wchodzimy, voice over.
I tam też jest opcja, nie usypiaj chyba po opuszczeniu nadgarstka, czy usypiaj właśnie, kurczę nie pamiętam.
W każdym bądź razie ona jest domyślnie, ojej musiałbym to sprawdzić, ale w każdym razie jeżeli się to tam odpowiednio przy tym zamanipuluje,
no to zegarek już nie będzie usypiany, nawet jak będziemy tą ręką majdać, machać, co tam robić, to już nam po opuszczeniu, dopiero jak przykryjemy dłonią, no to wtedy nam się ten zegarek zablokuje.
No tak, nie ma opcji, watch będzie cały czas podświetlony, no i to właśnie weszło w watch s10 we wrześniu w tej głównej teraz wersji systemu, więc jeśli ten ktoś sobie nie zaktualizował, nie pamiętam imienia kto to był, to polecam zaktualizować, a jak zaktualizował to sobie tam właśnie zajrzeć do ustawień, czy to na samym zegarku czy w aplikacji watch.
w te dwa miejsca, w ekran i jasność i w dostępność VoiceOver i tam sobie to znaleźć, się tym pobawić.
No i ostatnia już w zasadzie rzecz odnośnie iPhona, bo dzisiaj na dostępnym aplikacji,
chyba albo wczoraj, nie pamiętam, się pojawiło pytanie, jak sprawić, żeby VoiceOver tych powiadomień
nam nie czytał wszystkich, co na zablokowanym ekranie przychodzą.
Wcześniej zawsze mieliśmy mu powiadomienia, a teraz już tego przełącznika nie ma w ustawieniach dostępności iPhone’a w VoiceOverze.
Tylko właśnie należy wejść do ustawień do dostępności do VoiceOver.
Szczegółowość i tam są powiadomienia systemowe, przycisk i możemy sobie zdefiniować, czy on ma na ekranie, tam są w ogóle dwa nagłówki,
jest na zablokowanym ekranie albo ekran blokady jakoś tak i możemy zdefiniować,
czy on ma mówić te powiadomienia właśnie, czy ma mówić ich liczbę,
czy ma, jeszcze możemy sobie, żeby Braila wyświetlał albo i nie,
w sensie na monitorze Braila z kimś to wszystko, no albo żeby nic nie robił,
no i wtedy albo będzie mówił te powiadomienia wszystkie, albo będzie
mówić tylko 19.25.1 nowe powiadomienia itd., albo nie będzie ogłaszał niczego.
I tak samo przy odblokowanym ekranie możemy ustawić, żeby albo mówił te powiadomienia
przychodzące, czyli jak było powiedzmy dotychczas w iOSie 16, że mamy odblokowane
ekrany, oglądamy coś i on nagle prym, facebook, coś tam.
Albo robi haptykę, tylko VoiceOver daje doznania haptyczne, że coś przyszło,
albo nie robi nic.
Więc to też sobie można ustawić, tak samo można tam używać przełącznika dzwonka,
czyli tego trybu cichego, jeśli to mamy włączone, to jak wyciszymy iPhona,
a mamy odblokowany telefon, już nie musimy generalnie ani wyłączać voice overa,
ani mowy wyłączać, ani trybu nie przeszkadzać, bo na odblokowanym ekranie
mamy przy wyciszonym telefonie.
Zawibruje telefon, ale voice over w ogóle nie będzie niczego odczytywał,
bo nawet jak coś nam przyjdzie na odblokowany właśnie ekran, jak coś oglądamy na jakimś YouTubie czy czymś.
Więc to taka garść porad i mam nadzieję, że się przyda.
Zwłaszcza też dla tych, którzy w dostępnym aplu nie siedzą, w sensie na tej grupie facebookowej.
A warto zajrzeć.
O tym bardziej ukłon właśnie w ich stronę i to przekazuję tutaj,
wiedzieli żeby no żeby też po prostu to ci słuchacze
których tam nie ma na tej grupce żeby żeby żeby też
i to wiedzieli ale tak czy inaczej jak mają fejsa to
myślę, że warto się dodać do tej grupy bo bo ciekawe
treści tam są warto się dodać do tej grupy tylko ja
od razu uczulam, że warto odpowiadać na te wszystkie
pytania przynajmniej na ich większość i i żeby
odpowiadać na nie bo no bo no bo tak to ja nie wiem z kim
mam do czynienia prawda No i też nie wszystkich akceptuje
akceptuje w tym momencie ale no nie dlatego, że ze złej
że ja jestem taki wredny i nie akceptuje tylko no
miałem kiedyś bota, szczerze mówiąc
miałem kiedyś bota, który mi pisał
nie dość, że chińskimi znaczkami jakimiś
to jeszcze było wszędzie napisane OK, OK
w sensie, jakich technologii używasz
asystujących używasz, OK
jakie urządzenia Apple posiadasz, coś tam, OK
i dlaczego grupa dostępna Apple, OK
więc no od razu odrzutka, więc no
swoją drogą właśnie a propos Facebooka
to jeszcze taka myślę, że istotna rzecz
dla tych wszystkich naszych słuchaczy, którzy mają być może fanpejże pod swoją administracją.
Ja na administrowanych przez siebie niemalże wszystkich fanpejżach ostatnio zauważyłem wiadomości,
niby to odmety, które informują, że moja strona z jakichś tam powodów może zostać zawieszona.
I proszę o wejście w dany link i wypełnienie formularza, bo jak nie, to tam w ciągu 24 godzin strona będzie zawieszona.
Oczywiście. I tu od razu pamiętajcie, jeżeli Facebook do was wyśle jakąś wiadomość, to raczej nie wyśle jej wam jako wiadomość na Messengerze,
Czy gdzieś tam w wiadomościach, teraz to jest w tym biznes suite całym, na pewno nie otrzymacie jej pomiędzy innymi wiadomościami, choćby się jej podpisywali jako administracja Facebooka.
I na pewno nie będą was prosić o podanie hasła do fejsa i innych tego typu danych, no bo po prostu to są złośliwi ludzie, przestępcy, którzy chcą wasze dane wyłudzić.
Więc ignorujcie te wiadomości, usuwajcie je, a jeżeli macie na przykład ileś osób zarządzających daną stroną, bo też się czasem tak zdarza, to jak wam coś takiego przyjdzie, to od razu wrzucajcie to do spamu, żeby komuś się aby niechcący nie kliknęło i nie wypełniło jakiegoś bzdurnego formularza.
A z jakiejś ciekawości, to gdzie, jeśli by takie wiadomości oczywiście miały przyjść, w sensie coś tam jest w tą stronę, no tak, to w sumie gdzie to o jakimś powiadomieniu PUSH rzeczywiście, czy to bardziej od tej pory?
Podejrzewam, że tak, że prędzej by to przyszło w powiadomieniu PUSH, tam jest na Facebooku coś takiego, jeżeli oni chcą się z nami skontaktować, to na przykład dostajemy to właśnie w powiadomieniach, na tej zakładce powiadomienia konkretnie,
bo ze mną się na przykład, czasem Facebook kontaktuje jak zgłaszam jakieś treści i jeżeli jakaś treść gdzieś zostanie zgłoszona, to ja dostaję właśnie tą drogą informację na temat tego, czy oni się zgadzają z tym, że ja to zgłosiłem, że jest z tą treścią coś nie tak, czy nie i ja się mogę wtedy odwołać i wtedy to mi nie przychodzi na Messengera ani do żadnych wiadomości,
tylko to jest jakby taka oddzielna skrzynka odbiorcza,
w której takiej wiadomości, taka korespondencja Facebooka się pojawia.
Więc przypuszczam, ja nigdy nie miałem problemów, żeby mi Facebook konto banował,
ale podejrzewam, że właśnie w ten sposób taka jakaś informacja również przyjdzie.
Chociaż nie, no, jeżeli ja miałem zablokowane konto,
a zdarzyło mi się kiedyś tam z powodu, ale to nie jakiejś treści, tylko przez Mirandę,
to przyszły mi te wiadomości normalnie na maila, no ale to wtedy było ewidentnie widać, że jest to Facebook,
tam odpowiedni adres mailowy i linki, które były, też były w obrębie Facebooka.
Zresztą, co ciekawe, to te linki, które tam są, to ponoć chyba nawet też są albo potrafią być wysyłane przez Facebooka
do fanpage’a, do jakiegoś innego fanpage’a po prostu i na tym fanpage’u się cały phishing dzieje, więc też warto na to być uczulonym, no i w ogóle posłuchajcie sobie najnowszego podcastu Niebezpiecznika, bo tam ciekawe rzeczy też na ten temat mówią.
niebezpiecznik, niebezpiecznik to jedno a tak odnośnie
właśnie niebezpiecznika to oni teraz No myśmy w naszej
audycji o bezpieczeństwie haseł, mniej lub bardziej
udanej i mniej lub bardziej udanie staraliśmy się
wytłumaczyć jak, jak się przed takimi fishingami chronić i
tak dalej, natomiast wspominaliśmy też o kluczach
U2F, że, że są i, że można No i jak w tamtym tygodniu
sypnęliście promocjami na różne rzeczy, tak w tym tygodniu ja też na niebezpieczniku
też wyczytałem, że teraz właśnie mają akcję świąteczną i w ich sklepie z kodem
choinka właśnie można taki klucz U2F sobie kupić, tam nie wiem czy to jest po połowę ceny
czy ile, w każdym bądź razie można sobie się zaopatrzyć, więc jakby ktoś jeszcze,
jakby ktoś bardzo, może sobie wreszcie sprawię, nie wiem, tak pod choinkę na
święta jakby ktoś chciał w sumie to jest dobry prezent
to też można i rzeczywiście coś takiego jest no także
także w sumie No chyba też zachęcam mimo wszystko bo
paski z klucze dostępu niby są ale jeszcze nie chociaż w
sumie ciekawe jeżeli tak powiedzmy, że ta technologia
się upowszechni to co, jaką rację by to będą miały te
klucze urwałe fizyczne nie tak swoją drogą gdzie już
Google’a masz zabezpieczonego paskiem, nie wiem, Amazona na przykład, tam eBay’a i inny tam.
Wiesz co Maćku, ja myślę, że skoro przez tyle lat się klucze sprzętowe nie przebiły jakoś bardzo,
skoro jeden bank w Polsce jak na razie oferuje możliwość zabezpieczenia.
A teraz PKO też się przymierza do tego.
No właśnie, ale na razie jeden, tak? Na razie jeden bank.
No tak, na razie jeden oferuje.
Tak, i mi mają tam w planach.
Natomiast skoro właśnie tak to działa, to ja podejrzewam, że na implementację jakąś taką jednorodną paskiz, to my sobie też jednak mimo wszystko troszkę poczekamy.
Więc mimo wszystko i tak się warto w taki kluczyk zaopatrzyć.
Oczywiście.
Bo jednak do świadomości powiedzmy tych wszystkich twórców większych portali, z tych portali, no banków to niestety jeszcze nie,
ale się jednak przebiło, że jednak to jest warta gra świeczki,
więc taki klucz warto sobie sprezentować,
zwłaszcza teraz na sklep.niebezpiecznik.pl i tam kod choinka.
I ciekawe w sumie o ile odniży.
No w każdym razie tak, no i tak jak mówię dostępne Apple zaprasza
i mówię, no odpowiadajcie na te pytania, żebym ja też wiedział,
że wy to ludzie, a nie wy to boty i wtedy wszystko będzie w porządku.
Także ode mnie to tyle. Ojej, się dzisiaj rozgadałem. Mam nadzieję, że chociaż trochę produktywnie.
No, także pozostaję na nasłuchu i dzięki za możliwość i trzymajcie się.
Dzięki Maćku, do usłyszenia.
No to drugi news dzisiaj. I drugim newsem dzisiaj jest news od siebie, Michale.
No właśnie, kto jeszcze oprócz niewidomych, używa screenreaderów
A okazuje się, że jest jeszcze taka grupa użytkowników. Znalazłem te informacje na blogu jednego z webmasterów na stronie tempertemper.net.
To jest on, ten człowiek, który napisał ten artykuł, jak dobrze pamiętam, ma na imię Martin i on zajmuje się właśnie przede wszystkim tworzeniem stron internetowych.
W tym artykule, o którym mówię, zaciekawiło go to, że wyniki ankiety WebAIM dotyczące używania czytników ekranu w 2021 roku,
ostatni raz była ta ankieta przeprowadzana, no i tam wynikało z tej ankiety, że troszeczkę ponad 20% użytkowników,
którzy zadeklarowali, że korzystają z czytnika ekranu, są osobami widzącymi.
No i próbował znaleźć odpowiedź na to, kto to taki może być.
I okazuje się, że ponoć co dziesiąta osoba, która zmaga się z dyslekcją,
korzysta albo z czytnika ekranu, albo z jakiegoś mechanizmu TTS,
który po prostu odczytuje tekst, że używanie tych czytników ekranów
to wcale nie jest takie rzadkie wśród dyslektyków.
Oczywiście część decyduje się tylko na korzystanie z mechanizmów TTS,
żeby po prostu czytać jakieś artykuły,
bo zdecydowanie lepiej im się przyswaja tekst słuchany niż tekst czytany,
ale osoby, które totalnie nie mogą się skupić na tekście jakimkolwiek,
który widzą na ekranie,
mimo że wzrokiem absolutnie nie szwankuje,
to posiłkują się właśnie technologią odczytu ekranu, screenreaderami używanymi przez nas.
Ja bym tu jeszcze wymienił kilka innych grup,
chociażby taką grupą użytkowników, którzy korzystają z czytników ekranu.
To nie są tylko całkowicie niewidomi, ale to też są na przykład słabowidzący,
bo jeżeli ten wzrok jakiś jest, ale nie jest on zbyt dobry,
no to też niektórzy słabowidzący korzystają z screen readerów i wybierają tę drogę radzenia sobie z komputerem.
Na przykład też testerzy różnego rodzaju, chociaż tu, no to jest sprawa bardzo dyskusyjna,
bo mówi się o tym i często spotykam się z taką opinią, z którą po części też się zgadzam,
że osoba, która widzi i która od czasu do czasu chciałaby tak sobie sprawdzić dostępność strony internetowej,
no to raczej nie powinna tego robić korzystając z czytnika ekranu,
bo szczególnie jeżeli nie potrafi z niego korzystać.
Bo niejednokrotnie już widziałem takie posty, w których to pytali się użytkownicy widzący,
którzy, w dobrej wierze oczywiście, bo ja nie zakładam absolutnie złej woli, żeby było jasne, w dobrej wierze, chcieli przetestować jak dana strona jest postrzegana przez osoby niewidome.
No słuchajcie, ja tu ruszam myszką, ale on mi jakoś to wszystko dziwnie czyta, ten NVIDIA. I co ja mam zrobić, żeby to, czy to rzeczywiście tak niewidomi pracują?
No więc no nie, tu trzeba już rzeczywiście, jeżeli chcemy używać czytnika ekranu do testów, to też powinniśmy wiedzieć jak ten czytnik ekranu działa, powinniśmy potrafić z niego korzystać,
więc w takich sytuacjach to najlepiej zrobić sobie jakiś odwyk od myszki, od monitora, popróbować działania na czytniku ekranu, tylko na czytniku ekranu,
ma takie niedzielne testowanie dostępności stron internetowych chociażby NVIDIA to może po prostu zafałszować obraz w jedną lub w drugą stronę odnośnie dostępności danej strony.
Ja ci powiem, że mnie tu wcale Michała nie dziwi, że ja o tym dość często słyszę w różnych materiałach szkoleniowych odnośnie dostępności cyfrowej,
że właśnie osoby, które z dyslekcją się zmagają,
korzystają właśnie z czytników ekranu,
ale też, to może nie czytniki ekranu,
ale takie narzędzia do podświetlenia tekstu i przeczytania go,
to też na przykład osoby, które się zmagają z ADHD.
O proszę.
I też ponoć to, że ten tekst zostanie im przeczytany
jakimś zewnętrznym głosem, pomaga się skupić na tym tekście,
zwłaszcza jak ten tekst jest gdzieś dłuższy
czyli jakiejś zawiera bardziej skomplikowane sformułowania.
Natomiast ja próbowałem kiedyś widzącym znajomym przemycić screenreader i no
oczywiście to wiesz, były żarciki nad szklanką herbaty, ale no wydaję na
zainteresowanych nawet na zasadzie, że kurczę, ja na wykładzie będę mógł sobie
z telefonu korzystać, a w słuchawkach nikt nie będzie widział, że na telefonie
coś śmiga.
To oczywiście, że tak i ja myślę, że osoby, które zadają sobie trochę,
zadadzą sobie trochę trudu w poznaniu tego czytnika ekranu, ale tak faktycznie w jego poznaniu to naprawdę z niego mogą wycisnąć całkiem sporo,
bo to dla nich jest jakiś dodatkowy sposób korzystania z komputera czy z urządzenia mobilnego w różnych, dziwnych sytuacjach.
Od chociażby, ja miałem taką sytuację raz w życiu, kiedy u mojej chrzestnej rozbił się iPad i była sytuacja taka, że po prostu coś z tym iPadem trzeba było zrobić.
Na ekranie nie było widać totalnie nic, bo no zderzył się bardzo brutalnie z podłogą i nam się chyba matryca wylała albo coś innego tego typu się zdarzyło.
natomiast ja po włączeniu voice-overa byłem w stanie bez absolutnie żadnego problemu z tego iPada skorzystać.
Przerzucić jakieś tam dane, skonfigurować co trzeba, odinstalować, wylogować się z różnych rzeczy,
no bo ten iPad był kupiony po prostu nowy i trzeba było coś tam jeszcze z tym starym zrobić,
więc ja bez problemu sobie z tym poradziłem, mając do dyspozycji voice-overa.
A tymczasem mamy połączenie z naszym słuchaczem, jest z nami Patryk, witaj.
Dzień dobry, witajcie, słychać mnie?
Słychać cię, z czym do nas przybywasz?
Tak bardzo lubię do was dzwonić, że postanowiłem zadzwonić i się podzielić z wami
kilkoma ciekawymi rzeczami z rynku gier, ale i nie tylko.
a zacznę od nie tylko, czyli zacznę od programu, którego postanowiłem sobie zainstalować,
ponieważ mając nowego laptopa, skończyło mi się miejsce na dysku, nie wiem jak ja to zrobiłem,
ale skończyło mi się miejsce na dysku, więc postanowiłem dać szansę programowi CCleaner.
No i mówiąc szczerze, nie żałuję, że dałem mu szansę, ponieważ jak testowałem ostatnio ten program,
Nie, było z nim najlepiej, to znaczy coś tam było czytane, jak się tam zaznaczało w tym drzewie, co się chciało czyścić, to tam nie chciało czytać, czy zaznaczone, czy nie zaznaczone i takie to było nie wiadomo co.
zainstalowałem najnowszego CCleaner’a i co w ogóle zauważyłem,
że CCleaner po uruchomieniu, nie w trakcie instalacji,
tylko po uruchomieniu, taka pierwsza rzecz pyta się nas,
czy chcemy zainstalować AVG, antywirus,
no to możemy to bez problemu sobie zamknąć
i jeżeli klikniemy w CCleaner’a w niestandardowe oczyszczanie się to tam nazywa,
bo on nas domyślnie ma taki automatyczny kreator czyszczenia,
bo jest audycja o SeaCleanerze przez Patryka Waliszewskiego zrobiona chyba nawet
i tam jeszcze była stara wersja SeaCleanera, gdzie tego nie było,
więc ja o tym mówię od razu.
Mamy coś takiego jak czyszczenie standardowe,
czyli takie, które automatycznie oczyszcza nadwysk
i czyszczenie niestandardowe,
które po prostu jest czymś takim w rodzaju starego, klasycznego SeaCleanera,
gdzie sobie wybieramy, co chcemy, żeby nam Signiar wyczyścił.
No i muszę tutaj Wam powiedzieć, że jestem pozytywnie zaskoczony,
ponieważ bez problemu zarówno NVDA, jak i ZDSR, którego używam na co dzień,
czyta, co zaznaczamy, czego nie zaznaczamy.
Kiedyś okienko z podsumowaniem, jak zrobiliśmy analizę, było niedostępne.
Teraz okienko pod tabem podsumowanie jest jak najbardziej czytane.
czyli jakby co SeaCleaner znalazł.
Możemy sobie zobaczyć ile czego, co ile zajmuje.
Niestety nie pojawia się to na polach wyboru,
natomiast jak najbardziej to jest dostępne.
Nie wiem dlaczego, jak wejdziemy w zakładkę aplikacje w SeaCleaner,
że nie dostajemy na przykład takich aplikacji jak Chromium,
znaczy Google Chrome, tylko mamy Chromium Edge,
Więc ja nie wiem czy to nie jest dla Edge’a i dla Chrome’a, nie jest wspólna historia, przeglądania itd.
Natomiast byłem w stanie w dostępny sposób sobie oczyścić komputer.
Więc jak ktoś by chciał Synclinera używać, jak najbardziej się da.
Jedyny problem jaki jest to jak najedziemy tabem na logo Synclinera, czyli jak za bardzo przetabujemy,
no to w tym momencie ten fokus niestety gdzieś tam się zapętli i tabem nie jesteśmy w stanie wrócić z tego logo i ja nie znalazłem sposobu jak to zrobić,
więc trzeba zamknąć cyklinera i jeszcze raz do niego wejść, natomiast no jak najbardziej pomijając tą jedną bolączkę cykliner jest dostępny moim zdaniem w pełni.
A z ciekawości jak bardzo udało Ci się oczyścić komputer?
To wiesz co, 4 giga wyczyściłem tam z klików tymczasowych, no cóż to tak jest jak się ma dysk ssb i po prostu grami się go zawali.
No to prawda, to prawda, ale no to rzeczywiście 4 giga to jest ładny efekt.
Tak, także ja Stick Cleanera polecam, a jak ktoś chce kupić, oczywiście te wszystkie narzędzia też są dostępne, typu oczyszczania autostartu,
także można by kiedyś było znowu powtórzyć audycję o Stick Cleanerze, bo ten program się stał dostępniejszy.
Ciekawi mnie natomiast, słuchajcie, jak jest z dostępnością AVG, którego Sickliner proponuje, bo skoro to jest jedna firma, a naprawdę AVG to był kiedyś antywirus, którego ja używałem i byłem bardzo z niego zadowolony, więc jeżeli się okaże, że AVG jest dostępny, tak jak Sickliner, może wrócę do niego.
Ja ostatnio o Avaście słyszałem dość pozytywne opinie, że się jego dostępność znacznie poprawiła.
Dostępność i wykrywanie, natomiast jeżeli chodzi o Avastana trochę mam niesmak, natomiast AVG chętnie wypróbuje i dam znać.
Tak, teraz powiem co nieco na temat rzeczy, która ostatnio była mówiona, czyli związanej z grami, bo nie wiem czy tutaj Piotrek to powiedział na temat Yugioh Master Duel,
tego moda, o którym mówił Borys, swoją drogą.
Ja się postanowiłem przyjrzeć troszeczkę temu modowi
i potestowałem go troszeczkę i mogę powiedzieć
tylko tyle, że jest to mod, który, no cóż, ma
sporo błędów, znaczy generalnie jego działanie jest takie, że
kopiowane są wszystkie teksty do schowka, natomiast
trzeba po pierwsze używać pada, to już Borys
Jest, żebym tam powiedział, pierwsza konfiguracja w ogóle samego Yu-Gi-Oh! Master nie jest kopiowana,
więc trzeba niestety użyć OCR-a albo tak zwanego oka, żeby to wszystko zrobić.
Myślę, co zrobić udało, aczkolwiek ja na portalu Elten o tej nie pisałem,
bo było to problematyczne, zwłaszcza z wypełnieniem takiego kwestionariusza,
Gdzie oni tam pytali, czy kiedykolwiek grałem w Yu-Gi-Oh, czy znam zasady i tam się zaznaczało odpowiedzi i tam zaznaczyło się odpowiedzi, trzeba było next kliknąć.
Pierwsze miałem problem, dlaczego mi się next nie klika, potem się okazało, że pierwsza odpowiedź jest domyślnie zaznaczona, a ja ją odznaczałem.
Także trzeba się namęczyć, natomiast później jak już to skonfigurujemy, to niestety ja mam wrażenie, że fokus jest niestabilny,
bo generalnie możemy trafić na puste miejsce w oknie interfejsu, np. pochodzimy po kartach i jeżeli trafimy na puste miejsce,
to kopiuje się nam nazwa tej samej ikonki, na której byliśmy poprzednio, więc musimy parę razy tym fokusem np. tam chodzić,
żeby dojść do jakiejś karty, oczywiście są skróty klawiszowe, które nam pozwolą dojść na przykład do cmentarza naszego, albo do naszej ręki.
Natomiast jest to mod, który na razie wymaga cierpliwości, jeżeli ktoś chce w Yugioh pograć.
W dostępny sposób to jest mod, który się znajduje na stronie allinaccess.com
i tam jest coś takiego Yugioh Mood i tam można sobie założyć konto i w Mooda po prostu grać w tekstowy sposób.
Bo ja w to gram, ale uwierzcie mi, nie poleciłbym tego użytkownikom, którzy z grami mają mało styczności,
bo nie jest to mod, który działa stabilnie, ale na szczęście Yugioh Master Duel jest darmowy, więc można spróbować, czemu nie.
To taka rzecz, kolejna rzecz, o której chciałem powiedzieć, kolejna gra, która w zasadzie jeszcze nie wyszła, ale jest w fazie beta, nazywa się to Battle Against Darkness.
Podejrzewam, że Piotrek też o tym, myślę, że nie ma informacji na temat tej gry.
Jest to gra, która pochodzi z Chin, nie, przepraszam, wróć, nie z Chin, z Tajwanu.
ale w Tajwanie jest język chiński, także jak najbardziej to można zrozumieć.
Jest to gra rytmiczna z elementami RPG.
Taki trochę space shooter, gdzie strzelamy do statków,
tyle że to się odbywa właśnie do…
musimy strzelać do tych statków do rytmu.
I generalnie gra jest w wersji beta na testplacie.
Na Audio Games Net Arek Świętnicki umieścił, zrobił wątek,
Gdzie można wybrać link do test flighta, do bety?
Problem z tą betą jest taki, że ta beta nie do końca jest publiczna,
ale generalnie deweloper powiedział, no dobra gościu możesz na audio gamesach umieścić link, bo czemu nie.
Jest wątek w new releases room na temat tego,
natomiast jeżeli klikniecie w link i wam się pojawi, że nie przyjmujemy zaproszeń, to się nie zdziwcie,
No bo nie wiadomo, kiedy beta będzie publiczna na tyle, żeby więcej osób ją mogło obsługiwać, ale jak się komuś uda, to jest ok, fajnie.
Jest to gra, która jest na urządzenia mobilne, jest to gra rytmiczna, jak już wspomniałem, z elementami RPG, gdzie ulepszamy naszą postać,
gdzie dostajemy bronie co poziom, które możemy nakładać na nasz, powiedzmy, statek, postać czy cokolwiek to jest.
Jest gra po angielsku, natomiast to tłumaczenie na wersję angielską jest trochę śmieszne.
Widać, że to tłumaczyły osoby, które nie do końca ten angielski znają.
Natomiast Arek podobno pracuje nad polskim tłumaczeniem.
Także ja myślę, że polskie tłumaczenie będzie lepsze niż angielskie.
Jest coś takiego, tutorial można zrobić.
Jest to gra, która używa TTS, a ona nie używa voice-overa,
więc voice-overa trzeba by łączyć.
Nie do końca jeszcze ogarniam, jak się w to gra, natomiast można.
Mówię, że coś takiego będzie wkrótce.
Gra jest mobilna jak na razie i ma być darmowa free-to-play
z mikropłatnościami pewnie jakimiś.
Nie będę się tutaj rozwodził nad pewnymi rzeczami,
które mogą być płatne.
Natomiast sygnalizuję, że coś takiego może nadejść lada chwila w wersji oficjalnej
na iOS-a, na Android-a i podobno na Windows-a.
Natomiast Arek powiedział, że ma być na Windows-a, natomiast wszystkie znaki na ziemi wskazują,
że będzie tak jak z grą Dreamland,
bo gra Dreamland domyślnie też jest grą mobilną.
Natomiast na pececie jest, bo dlaczego nie Unity, więc kto zabroni, więc takie coś się nam szykuje.
Natomiast ja teraz pytanie, myślisz, czy oczywiście mogę?
Słuchamy.
Chodzi o to, że ostatnio chciałem sobie sprotestować Whispera.
Mam nowego laptopa, Lenovo Gaming IdeaPad, mówiąc poprawnie,
i tam jest karta GeForce RTX 3050, laptop GPU, tak się to nazywa,
i tam jest jakieś 4GB albo 6GB, coś takiego, na pewno mniej trochę niż Tomecki mam.
I widziałem w parametrach karty, że tam jest coś takiego jak mostek, mostki cuda czy coś takiego tam w parametrach tej karty.
I zainstalowałem sobie Cuda Development Kit, czyli po prostu zainstalowałem normalnie Cudę.
I czytając artykuł Mateusza Bobrusia, który tam gdzieś na LTE nie opublikował, jak tą Cudę instalować,
Poinstalowałem, zainstalowałem CUDĘ, zainstalowałem Pythona i użyłem takiej komendy, żeby sprawdzić, czy CUDA jest obsługiwana i jeżeli pokaże się TRUE, to znaczy, że tak, jeżeli się pokaże, że FALSE, to znaczy, że nie.
Problem polega na tym, że u mnie pokazuje się, że FALSE, że tak jakby w ogóle CUDA nie była obsługiwana.
obsługiwana. Zainstalowałeś sobie jeszcze Patryku
oprócz tej cudy, coś takiego co się nazywa
CUDE-NN?
O to jest, ja nie znalazłem. To są jeszcze
A, bo to jest w ogóle, żeby to zainstalować
to trzeba się zapisać do programu
deweloperskiego. No to Mateusz natywnie napisał.
I tam generalnie z tego co
ja pamiętam to też trzeba było te biblioteki
zainstalować. Je się instaluje w bardzo dziwny sposób,
bo tam trzeba konkretne pliki skopiować w konkretne lokalizacje
i być może, podkreślam być może, ja to wiesz,
ja też jak na przykład bym przeinstalował system,
to podejrzewam, że musiałbym się trochę pobawić,
żeby zainstalować to sobie z powrotem.
To jest niestety tego typu rzeczy, to jest taka…
Ja znajdę jakąś informację, jak to się, tą cudę instalują.
W Google.
Czy to, że ja byłem na stronie cudy i tam widziałem tylko to do pobrania,
to wpisz sobie jeszcze coś takiego co się nazywa cuDNN
i musisz teraz w zależności od
NN, cuDNN?
Nie, cuDNN
C U D N N
CuDNN, tak?
Tak, tak. Jak dobrze pamiętam
to jeszcze to trzeba sobie
zainstalować i to teraz jest istotne
bo te wszystkie klocki muszą się zgadzać
tam tych, tej
cudy chyba czy tego cuDNN
to też są, jest ileś wersji
i to trzeba sprawdzać po prostu co z czym, jak działa, to ja też pamiętam, że to nie było wszystko takie bardzo proste.
To się zgadza.
Powiedz mi Michale, czy na przykład jeżeli mnie to jakoś tam przerośnie, no bo nie wiem czy te…
no bo to jest gamingowe laptop i jeżeli te 4 giga, które tam mam na przykład okazałyby się, no że jednak nie wystarczą.
A mam dość wydajny procesor, bo mam AMD Ryzen, jeden z wydajniejszych procesorów, jeżeli np. chciałbym spróbować użyć Whispera na procesorze, np. nie na karcie graficznej. Jest jakiś na to sposób?
To znaczy, no to jest kilka nawet, to znaczy, to znaczy tak, po pierwsze, podobno niektóre karty z T-3050 niby mają te cude, ale nie do końca.
No właśnie nie wiem, jaki jest w przypadku mojej, właśnie o to.
I z tym, i z tym może być problem. Po drugie, ten poradnik, on jest wpisany rok temu, był wpisany rok temu, w związku z tym on jest już trochę nieaktualny.
To znaczy, chodzi mi o to, że chociażby jest ta aplikacja Faster Whisper, bo Faster Whisper to jest w ogóle biblioteka, na jej podstawie została stworzona aplikacja, Whisper Faster dla Windows i to jest po prostu aplikacja konsolowa i to na pewno dużo się lepiej tego używa, tyle że podobno do tej aplikacji,
to oprócz tego, co mówiłeś Michale, trzeba jeszcze podobno zainstalować jakiś sublas, ja to zainstalowałem, więc to już jest trzeci komponent.
Ja szczerze mówiąc już nawet nie pamiętam, czy ja to zainstalowałem, czy to przypadkiem kiedyś zainstalowałem, bo to naprawdę, to Patryku, to po prostu to, ja ci powiem jak to wygląda.
Czytasz, googlasz, czytasz, googlasz, czytasz, googlasz, nie działa, nie działa, nie działa, działa.
Tak.
Mniej więcej w ten sposób.
Wydaje mi się, że chyba będę musiał wejść na stronę tego Whispera i po prostu stamtąd ze strony Whispera po prostu jakąś instrukcję dorwać.
No nie spodziewałbym się zbyt wiele po tym.
Tak, dlatego, że Whisper ten oryginalny to jest biblioteka dla programistów i tam nie ma takiego…
To co byście mi radzili? Na czym mam się zaczepić, żeby jakoś to spróbować mimo wszystko?
No, ja bym spróbował tego WhisperFastera, do którego linki znajdziesz kilka tyfloprzeglądów wstecz, natomiast żadne z tych rozwiązań to nie będzie coś, co zadziała ci tak jakby od strzała, bo po prostu to w ten sposób nie działa.
To jest jednak technologia, która nie jest przeznaczona dla takiego końcowego użytkownika,
który ma sobie tam kliknąć parę razy next i ma mu to zadziałać.
Zazwyczaj to jest po prostu no korzystanie z różnego rodzaju bibliotek.
Tego typu rzeczami bawią się programiści bardzo często.
Technologia to by chciała być dla użytkownika końcowego,
tylko tu wtrafiliśmy mam wrażenie w jakąś taką dziurę,
bo z jednej strony karty graficzne,
no to są karty graficzne, czyli do przetwarzania grafiki.
Jeżeli ta karta jest używana do takich celów jak rozpoznawanie tekstu i innych takich rzeczy,
to ona jest używana do czegoś zupełnie innego, z przeznaczeniem,
ale trochę to nie jest to użycie takie podstawowe.
W związku z powyższym, do tej pory, jeszcze do niedawna zakładało się,
że jeżeli ktoś będzie chciał używać karty graficznej nie do grafiki, to jest najprawdopodobniej programistą albo bardzo zaawansowanym użytkownikiem,
chcąc robić bardzo zaawansowane rzeczy i do tego to może być potrzebne, w związku z powyższym nie trzeba tutaj nic robić takiego,
co mogłoby być takie proste, łatwe i przyjemne w instalacji. Teraz to się zmienia.
Ewentualnie, Patryku, jedna rzecz, no my mówiliśmy swego czasu i tu pokazywaliśmy z Pawłem ten programik BAS,
tę graficzną nakładkę na Whispera. To ci w jaki sposób, jak ty to uruchomisz, to w jaki sposób powinno ci to zadziałać?
Natomiast prawdopodobnie zadziała to na procesorze, nie na karcie.
On nie wykorzystuje, niestety ten program ma jedną wadę, po pierwsze ma problem ze ściąganiem modeli,
To się często lubi po prostu wywalać w trakcie ściągania, ale jak już mi się udało pobrać, to nagle się okazało, że on nie wykorzystywał w ogóle w pełni mojego procesora, tylko tam jakiś drobniutki procent i naprawdę te pliki się robiły mega długo, bo ja widziałem, jakie jest zużycie procesora i nie da się w tym programie zmusić go, żeby wykorzystywał więcej technologii.
Bo, jak mi się wydaje, to nawet nie procesor jest tutaj wąskim gardłem w tym wszystkim, tylko nie wiem, czy często nie jest nim pamięć. W zasadzie szybkość pamięci.
Ja tu nie chcę się wymądrzać, zwłaszcza na tematach, na których się nie znam, więc proszę to wszystko traktować jako coś, co być może jest prawdą, a być może nie.
Natomiast słyszałem o czymś takim, że tego typu programy, one przerzucają potwornie wielkie ilości danych, chcąc to robić w jak najszybszym czasie i teraz one nie potrzebują z tymi danymi robić nie wiadomo jakich rzeczy.
To są podobno bardzo proste jakieś tam operacje, tylko ich są potworne ilości i szybkość działania tej pamięci, szybkość, no taka wymiana informacji między pamięcią i procesorem, podobno tutaj ma duże znaczenie i właśnie podobno tutaj jest między innymi oczywiście przewaga kart graficznych,
jak to powiedzieć, są szybkie, te procesory kart graficzne, one nie są te szybkie, ale jest ich dużo i to po prostu wszystko może działać bardzo szybko.
To wykonuje bardzo proste rzeczy, ale bardzo dużo i bardzo szybko.
Niestety też wniosek jest taki, że jak i to w ogóle nie tylko do Ciebie Patryku, bo podejrzewam, że Ciebie akurat ta odpowiedź nie zainteresuje,
ale jeżeli ktoś naprawdę myśli o tym, że będzie bardzo intensywnie chciał wykorzystywać Whispera
i niekoniecznie jest jakoś tam powiedzmy technologicznie użytkownikiem zaawansowanym,
no to chyba najprostszą opcją w obecnym momencie, w związku z tym co mówił na przykład Maciek,
to wydaje się po prostu Mac.
Albo iPhone i iKo.
No ale tam LART nie działa.
No iPhone jest jednak dużo wolniejszy, tam jeszcze LART nie zadziała.
Trochę szkoda sprzętu, to znaczy, bo wiesz, no iPhone w tym momencie by wykorzystywał cały procesor.
Ta bateria się szybko rozładowuje, trzeba ją za chwilę ładować.
No ale to można podłączyć podładowarkę.
No tak, tylko…
No można.
Co ja mam wracać? Ja bym na to nie stał.
Natomiast to jest i tak wolniejszy sprzęt, to znaczy, no to też zależy ile tego chcesz robić, tak?
No bo jeżeli chcesz sobie przewalić, jak to się mówi czasami, jakiś jeden podcast na tydzień,
no to tam mniejszy problem, no gorzej gdybyś chciał oczywiście co chwila to uruchamiać,
jakieś ogromne ilości tych audion.
To tak podsumowując, to co byście mi radzili? Zobaczyć na tego Faster Whispera tamto?
Zobacz na ten Faster Whisper, on zdaje się prowadzić do jakichś takich podręczników, jak to zainstalować.
I spróbować to z Michałem zainstalować, tak?
Udało się przez to przebrnąć, więc jest szansa, że tobie też się uda.
Ja po prostu, no my po prostu, i ty Tomku myślę, że też potwierdzisz, no myśmy szukali, no ja mając po prostu ten nowy sprzęt, no to najzwyczajniej w świecie postępowałem zgodnie z tym, co znajdowałem w sieci.
Natomiast to nie było tak, że ja znalazłem jakąś jedną konkretną stronę, na której napisali mi krok pierwszy, zrób to, krok drugi, zrób to, nie.
Nie, to było bardziej składanie z puzli, że na jednej stronie doczytałem coś tam, potem zainstalowałem jakieś elementy, a potem czytam, a dobra, tu mam taki błąd, co teraz?
I gdzieś znalazłem jakąś następną informację i to bardziej na tej zasadzie było. Ja z miłą chęcią bym też, Patryku, pomógł ci, natomiast to nie jest rzecz, którą ja robię regularnie,
więc to też nie jest rzecz, którą ja dokładnie pamiętam, co tam należy zrobić, gdzie tam należy wejść.
No to po prostu, no to robisz raz i zapominasz, tak? Jakbym na przykład konfigurował takich komputerów na pęczki,
to bez problemu bym był w stanie Ci powiedzieć, co trzeba zrobić.
Natomiast ja, Michale, spróbuję zainstalować to, co mówiłeś do tej CUDNN właśnie.
CUDNN, tak, tak. To, to myślę, że nie zaszkodzi. Tylko tak jak mówię, to się instaluje tak,
Przede wszystkim musisz się zarejestrować w tym
portalu deweloperów NVIDI
i potem dopiero możesz to ściągnąć, to jest normalnie paczka zzipowana,
odpowiednia…
Ale to jest, doinstalowuje się do tego Cuda development.
To się nadpisuje.
W konkretne katalogi trzeba powrzucać konkretne pliki.
Ale czy Cuda development, czy ten Cuda development
musi być też zainstalowany, ta Cuda taka normalna.
To musi być zainstalowane, CuDNN, a jeżeli idziesz w Faster Whisper, to jeszcze CuBLAS musi być zainstalowany.
Czyli Cuda Normalna, czyli taka Cuda Normalna zwyczajna ze strony Cudy Ściągnięta musi być zainstalowana i Cuda DNN, tak?
Tak, CuDNN, CuDNN i CuBLAS.
Natomiast pamiętaj, że tej Cudy, to jest chyba też ileś wersji i w zależności od tego co, gdzie, do czego, no to po prostu.
No jest, bo dwunastka jest.
No, no to właśnie, to właśnie też Cud.NN, jak dobrze pamiętam, to było ileś wersji.
I to trzeba dopasować jedno do drugiego.
To skąd wiadomo, która wersja jest pod moją…
Tam będziesz miał napisane, jeżeli…
To znaczy po pierwsze musisz w ogóle sprawdzić, którą wersję CUDY obsługuje twoja karta.
Czyli musisz sobie wejść gdzieś i wpisać w Google, że NVIDIA 3050 Ti Laptop, którą obsługuje CUDY, więc którą w ogóle tam pobrać do tego.
Bo być może nie obsługuje dwunastki.
I trzeba… I dlatego może masz właśnie problem.
Być może tak.
No właśnie, to jest Patryku jak widzisz.
Bo ja tam zdaje mi się kilka tych…
No, ja też próbowałem.
Też próbowałem.
Także to nie jest coś takiego, co się po prostu robi dalej, dalej, dalej i to się zrobi.
Tak, no widzę, że jednak tak jest.
No będę próbował w takim razie, to dzięki.
Powodzenia.
I to tyle.
Dzięki, pozdrawiamy.
Przechodzimy do kolejnego newsa.
wieści z konferencji SciTech Global.
Tak, zgadza się.
Jest to konferencja, która już czwarty raz się odbywa z inicjatywy takiego amerykańskiego portalu technologicznego Mashable i konferencja ta jest poświęcona najnowszym jakimś odkryciom i rozwojowi technologii właśnie pod kątem osób z dysfunkcją wzroku ze szczególnym naciskiem, tak mi się wydaje, ale może niekoniecznie na sztuczną inteligencję.
No i ta konferencja kilka godzin temu się właśnie rozpoczęła.
Ja miałem okazję kilku wystąpień wysłuchać.
Niestety nie wszystkich, które chciałem.
Poniekąd też przez to, że chciałem się już z Wami spotkać, ale to co zdążyłem
wysłuchać zreferuję Wam dziś, a całą resztę, jeżeli okaże się, że warto do czegoś
wrócić i warto o czymś posłuchać, a myślę, że będzie warto, no to już w przyszłym
tygodniu. No cała konferencja zaczęła się o godzinie 17 naszego czasu, czyli o
8.00 rano w Kalifornii, bo gdzieś tam w okolicach Palo Alto jakby była redakcja,
która całą tą imprezę prowadzi.
Zaproszono wielu gości i ze świata nauki, i ze świata technologii, gdzieś tam na
skrzyżowaniu właśnie sztucznej inteligencji, technologii.
Były też osoby, które są ekspertami w dziedzinie technologii dla osób z dysfunkcją
wzroku.
No i było też wiele znanych takich
marek, które nam też wiele mówią.
No więc zaczęło się właśnie
otwarciem, które było takim
jak to w takich konferencjach bywa
wejściem w całą tą imprezę.
Jakieś kwestie techniczne.
No a potem od razu przeszliśmy na
grubo, czyli Be My AI
i rozmowa z przedstawicielami
właśnie firmy i projektu
Be My Eyes. Dlaczego się tu dowiedzieliśmy?
Oczywiście było dużo, dużo, dużo podsumowań.
Jaką to rewolucją nie było Be My Eyes, jaką się nie stało, że największy hit roku.
Zrewolucjonizowało życie wielu osób z dysfunkcją wzroku dzięki szczegółowym opisom obrazów.
Oczywiście trochę podyskutowano o tym, jak to było z tym wejściem, z tą betą,
najpierw zamkniętą, trochę potem bardziej otwartą.
Przedyskutowano te wszystkie problematyczne
zakręty gdzieś tam już w życiu tym dość krótkim projektu czyli epizod, gdzie nie były rozpoznawane twarze z powodów prawodawstwa amerykańskiego,
gdzie przez jakiś czas usługa w ogóle przestała działać, bo gdzieś tam była przeciążona.
No trochę z tego się wydarzyło, teraz jeszcze są kontrowersje wokół w ogóle całej sytuacji w OpenAI i zarządu i osoby sama Altmana.
Natomiast BMI.AI radzi sobie dobrze, co ciekawe myślę, że wy tu będziecie i my tu będziemy mieli wszyscy trochę inne doświadczenia, ale Mike Buckley, czyli wiceprzewodniczący BMI.AIS stwierdził, że już teraz ten algorytm jest tak udoskonalony, że on w ciągu ostatniego miesiąca nie miał żadnych halucynacji.
Nie wiem, czy, czy, czy, czy, czy wy macie jakieś…
No nie, miał, miał, zdecydowanie miał.
Wydaje mi się, że miał. Możliwe, że to jest też kwestia języka.
On pewnie używa po angielsku, my tutaj po polsku.
Może tam coś się jeszcze wydarzyło, ale no, Mike twierdzi, że na ten moment największe
problemy, oni dalej optymalizują, natomiast największe problemy, największy problem
jakby stanowią dość skomplikowane układy przycisków, czyli na przykład jakieś zdjęcia
klawiatur telefonicznych w pokojach hotelowych czy jakichś pilotów do urządzeń i tak dalej.
Tu rzeczywiście aplikacja ma jeszcze problemy i autorzy są tego świadomi.
Ma być wprowadzonych też trochę nowych funkcji.
Oczywiście te kręgi znajomych, o tym już mówiliśmy w czasie konferencji NFB, że oni
planują to wprowadzić, czyli będzie można powołać listę takich zaufanych użytkowników
Be My Eyes, którzy jako nasi wolontariusze będą mogli być wywołani po prostu przez nas
prywatnie, ale też ma dotrzeć funkcja weryfikacji tego, co wypluła nam
sztuczna inteligencja z żywym wolontariuszem i rzeczywiście ma to działać jakoś tak, że jeżeli
nie jesteśmy pewni, a chcemy na 100 proc. być pewni, że to co powiedziało nam BMI AI
jest zgodne z prawdą, to będzie można poddać to zdjęcie i ten opis wolontariuszom i oni będą
mogą nam to opisać i chyba właśnie tekstowo po raz pierwszy, nie głosowo, że to będzie
rozmowa, tylko rzeczywiście wolontariusze będą też mogli teraz poprawiać opisy po
AI i dzięki temu też pomagać w trenowaniu tego narzędzia.
Pewnie tutaj będą różne opinie na temat tego, jak to praca wolontariuszy przyłożyła się do
do tego, że OpenAI teraz zbija kokosy.
Ale taka funkcja się pojawi, taka funkcja się pojawi.
To już zostało zapowiedziane, no zresztą Ty, Tomku, jeszcze my wrócimy,
bo Ty, Tomku, będziesz miał też do przekazania à propos Be My Eyes.
Owszem.
Tak, swojego, swojego newsa.
Potem weszły takie dość dwa ciekawe wykłady, bo mieliśmy
cały wykład pod tytułem Generative AI, What Just Happened.
I to było takie bardziej rozważanie etyczne na temat tego znany już i przeorany
prawdopodobnie na wszystkie strony temat.
Czy generatywna sztuczna inteligencja, czy sztuczna inteligencja ta, którą my teraz
obserwujemy, czyli te duże modele językowe, czy ma to potencjał przejąć kiedyś kontrolę
nad światem i czy zastąpi to kiedyś człowieka.
Oczywiście w dalszej perspektywie, nie, znaczy no, dyskusja była na temat tego,
czy już teraz albo czy w dalszej perspektywie.
I tutaj jakby ekspertem, który o tym mówił, jest
profesor Stuart Russell
z Berkeley, Uniwersytetu w Kalifornii, właśnie z Wydziału Nauk Komputerowych.
On jest ponoć też jakimś znanym specjalistą na temat AI.
No na pewno podkreślił, że już teraz można zrobić dość dużą krzywdę za pomocą AI i no tu podał kilka przykładów.
Właśnie wytwarzanie dezinformacji, możliwości jakie się otwierają w kontekście ustawiania jakichkolwiek oszustw,
czy generowaniem głosu, czy jakimiś tam tekstami napisanymi przez GPT,
czy napisanie jakiejś strony phishingowej i tak dalej, że gdzieś tutaj zagrożenia leżą.
On też gdzieś stanął po stronie tych, którzy mówili, żeby się troszeczkę wstrzymać
z tak ekspansywnym rozwojem tej technologii, bo jego zdaniem gdzieś warto byłoby zatrzymać się
i przede wszystkim, zanim jeszcze ruszymy z tym rozwojem, zrozumieć, co to jest w stanie
robić i jak to działa, bo no jego zdaniem dochodzimy już do etapu, gdzie nasza wiedza
na temat tego i to nasza wiedza, ludzi, którzy to tworzą i ekspertów w tej dziedzinie,
wymyka się spod kontroli, no a propos tego jakby potencjału tego, co to może,
jak to działa i jakie pomysły jest to w stanie wytworzyć samo.
też bardzo poszedł w taką analizę, no co by było, gdyby, i że jest to dość realne,
że wkrótce uda nam się przetworzyć jakby na cele treningu tego typu narzędzi
taką ilość tekstu, że będzie on odpowiadał całemu tekstowi,
jaki tylko został kiedykolwiek stworzony przez ludzkość.
Nie wiem, nie znam się, ciężko mi to zweryfikować.
No i obawia się, że wtedy rzeczywiście stworzylibyśmy model inteligencji
generalnej, czyli jakby no coś, co potrafi samo pojmować, rozumować i tak dalej.
Znowu, nie wiem, nie wiem, za mało mam wiedzy, żeby ją tutaj podeprzeć, no ja się spotkałem
znowu z opiniami, no również lingwistów, tak, czyli osób, które jakby z dziedziny lingwistyki
wywodzi się całe to zjawisko jakby statystycznej, parametrycznej analizy mowy ludzkiej i
budowanie tych, tych modeli.
I w ogóle pierwszy model, żeby było ciekawie, językowy, powstał w roku 1913.
Stworzył go rosyjski uczony na bazie Eugeniusza Onegidna, powieści, papużkina.
Także to nie jest wcale jakiś super nowy wynalazek, tylko my teraz mówimy o dużych,
o wielkich modelach językowych, które przetwarzają już potężne ilości danych.
i dużo więcej tych języków, bo nie tylko jednego, mogą się nauczyć.
Później mieliśmy panel
AI Gets Complicated, Emerging Debates and Surprising Challenges.
I tutaj również tak bardzo etycznie było, bo prowadzącą to była
Merve Keck, czyli osoba, która założyła takie, nie wiem, stowarzyszenie, inicjatywę AI Ethicists, czyli etycy AI.
I gośćmi tu byli Brian Fischler, nie, nie Brian Fischler, cóż ja mówię, Brian Bashin, to jest wiceprzewodniczący Be My Eyes.
Dr. Sherry Wells Jensen z Uniwersytetu gdzieś w, zdaje się, Ohio,
lingwistka, w każdym razie z wykształcenia. No i Chancey Fleet, czyli koordynatorka
technologii wspomagających w Bibliotece Publicznej Nowego Jorku,
która znana jest ze swojego wkładu w dostępność w kwestie grafik dotykowych,
druków 3D i tak dalej. Jeżeli ktoś interesuje się amerykańską,
zwłaszcza, ale ogólnie anglojęzyczną sferą dostępności i tego, co tam u niewidomych
słychać, to nazwisko na pewno nie jest obce.
No właśnie, co to się dzieje z tym AI, że ono,
no właśnie, uczy się języka, uczy się języków różnych, ale że wiele grup
społecznych, wiele jakichś zjawisk nie jest w ogóle reprezentowanych.
No i tutaj takim przykładem, który dla nas najbardziej będzie
uwidoczniał skalę zjawiska, jest kwestia osób niewidomych, że
tego typu sztuczna inteligencja na ten moment
powiela tak naprawdę, bo trenowana jest na takich danych i nie ma dostępu do
większych danych z jakiegoś powodu.
Stereotypy na temat osób niewidomych, no czyli nie wiem, jak się poprosi o
wygenerowanie zdjęcia osoby niewidomej korzystającej ze sztucznej inteligencji,
no to nagle ta osoba pokazuje nam się gdzieś tam z laską, śmigająca laską po monitorze
na przykład, albo tam na jakiś sposób ta laska jest cały czas gdzieś tam, okulary,
jakiś motyw z okularami z laską, więc jest kopiowanych dużo stereotypów w sensie takim,
że ta laska jest wszędzie, tak, że laska to nie tylko do nawigacji po przestrzeni
architektonicznej, ale też z jakiegoś powodu wirtualnej.
No i ty też, Michale, podałeś tu na przykład ciekawy przykład.
Dzisiaj z Bardem rozmawiałeś na temat czytników ekranu na różne platformy.
Zgadza się i zapytałem go najpierw o czytniki ekranu, tak w ogóle.
No to wymienił mi kilka, nawet tam NVIDIA, Jaws, Window Eyes, jeszcze kilka.
Też kilka programów podał, które takimi dokładnie czytnikami
sensu stricto nie były, natomiast potem jak go poprosiłem, aby podał mi jakieś czytniki ekranu dla Linuxa, no to wymienił orkę, ale potem słuchajcie, to się dowiedziałem, że NVDA to z racji tego, że to jest oprogramowanie otwartoźródłowe i Linux jest otwartoźródłowy, to na NVDA bardzo dobrze działa z Linuxem.
Nie wiedziałem. Joss ponoć też, także…
A, może przez Wine?
Może.
Jeszcze się okaże, że w Terminalu.
No nie no, na swój sposób, Michal, jakby się przyczepić.
WSL, NVDA w Terminalu.
Nie no tak, no przez Putti też, tak, okej.
Tylko jakby…
Ja zauważyłem, jaką ścieżką on sobie gdzieś tam kroczyło to jego rozumowanie, natomiast moim zdaniem to właśnie wynika z tego, o czym mówiłeś, zbyt małej ilości danych, żeby mogły nastąpić jakieś sensowne połączenia.
I żeby coś z tego…
Ja właśnie nie wiem, czy…
Tomku, mikrofon.
Tak, troszkę.
To znaczy, ja pamiętam, jak kiedyś Mikołaj mówił,
bardzo taką ciekawą rzecz
i to jest, moim zdaniem, coś takiego,
o czym bardzo warto pamiętać
w kontekście tych sztucznych inteligencji,
że podobno te wszystkie modele językowe
w ogóle nie mają czegoś takiego, jak rozumieć,
jak pojęcie prawdy.
To znaczy, im wszystko jedno jest to,
że one sobie coś wymyślą,
najważniejsze dla nich jest to, że to zabrzmi prawdopodobnie.
Tak, bo to jest parametryczność, czyli to jest tak naprawdę bardzo rozbudowane autouzupełnianie słów wpisanych na klawiaturze telefonu.
Coś w tym rodzaju. Ja to sobie zawsze tak tłumaczę, nie wiem czy dobrze, być może nie, ale póki co to mi się sprawdza trochę.
że bawią się dzieci małe w sklep, typu wiecie, 5 lat. No i dzieci tam mówią, a tu promocja, tu coś, tu kupon, tu jakieś rzeczy, które w oryginale są, ale produkty, ceny, one sobie będą wymyślać.
I dla nich nieważne, to absolutnie ma żadnego znaczenia, czy takie produkty są, czy ich nie ma, czy tam co jeszcze. Okej, poza kilkoma, znaczy dobra, są pewnie przypadki dzieci, które bawią się w sklep na serio, natomiast zasadniczo zabawy dzieci we wszystko, w policjantów i złodziei, czy tam w co się teraz dzieci bawią, nieważne.
No to jest wszystko wymyślanie sytuacji, które według nich są jakoś tam prawdopodobne, ale to standard zabawa i to wcale nie musi być prawdziwe,
tylko one se zakładają, że tam coś i to mam wrażenie, że trochę sztuczna inteligencja, przynajmniej te wielkie modele językowe trochę tak działają.
No to tak więcej by było. Natomiast konsensus był taki, że potrzeba jest, ażeby jednak ta reprezentacja była dużo większa, żeby te modele zostały wytrenowane na jakichś dużo bardziej zgodnych z prawdą danych, które gdzieś tam przedstawiają jakiś ogrom sytuacji.
No już tam wspomniane było, że już nawet nie warto iść w stronę zmuszenia tego do wytłumaczenia jakichś zjawisk typu, dlaczego mamy taki kryzys czytelnictwa Braila, tak na przykład, no to to już tutaj się kompletnie to pogubi, więc no żeby to trenować na danych.
Gdzieś tam były też sesje, takie breakout, czyli gdzie rozdzielaliśmy się na główną scenę i na warsztaty poboczne, no w tym nie brałem udziału.
Natomiast, o, tutaj Andrew, Andrew Leland na propos swojej książki
The Country of the Blind, czyli osoba, która wzrok straciła, zdaje się, za życia,
napisała książkę, jakoś tak dokumentując trochę ten swój proces przyzwyczajenia się do
tego życia na nowo i tak opisując w ponoć dość dobry sposób, uchwytując te realia,
jakby życia w środowisku osób z dysfunkcją wzroku, oczywiście perspektywa amerykańska.
Ponownie jest to dobra książka, nie czytałem, wiem, że Jonathan Mosen też się bardzo nad nią
rozpływał. Nie ukrywam, że tą sesję sobie odpuściłem, ale nie odpuściłem sobie
z sesji Glidance, Glidance, it’s not a cane, it’s not a dog, it’s a self-driving mobility aid.
Tutaj przedstawiciel firmy właśnie Glidens, czyli Amos Miller, osoba niewidoma.
Oni tworzą, no właśnie, taki rodzaj jakby laski z kółkami, które potrafią skręcać w lewo i w prawo, u dołu.
I teraz tak, my przesuwamy tylko tą laskę do przodu.
To ma tam wbudowane różne jakieś sensory, jakieś czujniki, kamerki, no znalny motyw.
I stara się wykrywać przeszkody, drzwi, takie rzeczy, które mogą nas albo interesować, albo chcemy je wyminąć.
i on tylko skręca, on nas nie prowadzi, on nas nie ciągnie za sobą.
To my nadajemy tempo, popychając tą laskę do przodu,
a ona nam się stara, skręcając, wymijać tam te różne przeszkody
albo docierać tam, gdzie my chcemy.
No ponoć ma to być proste w użyciu, ma nie wymagać korzystania z żadnej aplikacji.
Aplikacja oczywiście do jakichś tam funkcji jest,
ale nie jest konieczne używanie jej za każdym razem,
gdy tylko chcemy skorzystać z tego urządzenia.
Wszystko ma się dziać na urządzeniu. Tam do jakichś operacji bardziej szczegółowych
będzie potrzebny kontakt z jakąś chmurą, do jakichś tam większych obliczeń.
Ale większość tego, co to urządzenie ma oferować, ma się dziać na urządzeniu.
I ma to być na każdą kieszeń affordable.
O jakiej cenie mówimy, do tego momentu nie dotarłem.
Ja nie ukrywam, że to jest ta audycja, gdzie ta sesja, gdzie już przerwałem troszeczkę
odsłuch, bo chciałem się z wami usłyszeć.
Natomiast będę jeszcze dosłuchiwał i na pewno dam znać, co tam słychać.
I tutaj już zaczynają się sesje, na których nie brałem udziału, ale są one ciekawe.
Na przykład Wisk, czyli startup, który chce stworzyć latającą taksówkę dostępną też
między innymi dla niewidomych.
I tutaj już od początku było to brane pod uwagę.
A no właśnie, jeszcze mi umknęła jedna sesja, w której uczestniczyłem, czyli
sesja na temat, sesja z Mike’iem Szebankiem, Mike Szebanek, czyli przewodniczący
Inicjatyw Dostępności w Meta. Na propos tego jak będą wyglądały kwestie wirtualnej
rzeczywistości w przyszłości, jej dostępności, bo zbliża się Meta Quest trójka i też nowe
Ray-Bany te właśnie z funkcjami VR i czy też AR.
No i była dyskusja właśnie o tym, że jakieś tam funkcje dostępności, jakieś tam
powiększanie czcionki, coś tam jeszcze, sterowanie głosem jakieś tam dochodzi.
Natomiast jak miałby wyglądać screen reader?
No i tu było takie rozważanie, że prawdopodobnie, to jeszcze teraz nie ten czas,
ale do tego zmierza cała technologia, którą będzie się dało porzenić,
czyli rozpoznawanie obrazu, czyli sztuczna inteligencja itd.
Doprowadzi do tego, że te okulary będą miały takiego swego rodzaju asystenta,
z którym my będziemy mogli porozmawiać i wyjść sobie z nim,
oczywiście nosząc te okulary, trochę jak z takim dobrym kumplem,
na spacer, no i przykładowo poczujemy zapach jakichś tam popcornu i powiemy,
o, czuję popcorn, czyżbyśmy mijali kino, czy tam jakieś inne stoisko i on nam powie,
tak, tak, mijamy i nam jeszcze opowie, co to za kino może tam, jakie filmy są i tak dalej.
I tak samo, ja bym chciał dotrzeć tu, no i on na podstawie tego, okej, dobra,
to ja cię teraz zaprowadzę. No więc to tak sobie wyobraża Majk Szebanek, czytnik ekranu pod kątem właśnie różnego rodzaju doświadczeń wirtualnej czy rozszerzonej rzeczywistości.
No więc trzeba będzie jeszcze troszkę poczekać. Na pewno meta trzyma rękę na pulsie i coś w tym będzie się działo.
Pozostaje mieć nadzieję, że to nie będzie halucynować.
Oby, oby, oby, no ten, ten byśmy sobie życzyli.
Tak jeszcze patrzę.
Tutaj jest sesja, która już chyba też minęła, będę musiał jej dosłuchać, czyli
The Screen Reader Interoperability Gap,
A Hidden Systemic Barrier.
I tutaj będzie kontynuacja, bardzo mnie ta sesja interesuje.
Co wydarzyło się w ciągu ostatnich dwóch lat z projektem ARIA at AT, czyli taka
inicjatywa różnych firm, bo to chyba nie jest konsorcjum W3C, chociaż może jest
jakaś kwestia współpracy, na pewno tam się udziela Meta, nie wiem czy też nie Google,
a chodzi o to, żeby wprowadzić jakiś standard tego między przeglądarkami, czytnikami
ekranów i też wytycznymi różnymi, żeby wszystkie czytniki w konkretnych
przeglądarkach konkretne elementy oznajmiały tak samo, żeby nie było różnic w tym,
że jedna implementacja powoduje, że coś jest czytane tak, a druga implementacja,
że coś jest czytane inaczej, tylko żeby to jakoś ujednolicić.
Mieli wprowadzić chyba chociaż jedną, czy chociaż dwie funkcje w dwóch przeglądarkach
na iluś tam systemach.
Jakieś tam mieli wytyczone te swoje kroki milowe i KPI, czy jakiekolwiek tam inne
znaczniki na te najbliższe dwa lata, no i czeka nas podsumowanie tych działań.
Więc to jest też sesja, w której na pewno będę brał udział.
Waymo in San Francisco, no tak, w San Francisco już odbywają się pilotażowo
przejażdżki samodzielną, samojezdną taksówką Waymo, która też ma wbudowane
funkcje jakiejś dostępności.
No i tu będzie refleksja na temat tego, jak wyglądało rzecznictwo w sprawie tego,
żeby uznać istnienie tego typu formy sztucznej inteligencji po prostu na drogach użytku
publicznego, gdzie jeżdżą też samochody.
Też może być to ciekawa bardzo sesja.
No i dzień drugi, Seeing AI będzie się prezentowało też a propos generatywnego,
generatywnej, sztucznej inteligencji.
Historia aplikacji Oko, czyli tej aplikacji belgijskiej do wykrywania
kolorów świateł na przejściach dla pieszych.
Dot 2.0, tutaj też jakieś plany koreańskiej firmy Dot Incorporated,
a propos ich monitora brajlowskiego dwuwymiarowego, który wyświetla też
grafikę. Tam też ma jakoś sztuczna inteligencja i generatywne AI dołączyć.
The timing for APH Monarch Tactile Display could not be better, czyli tutaj też podobnie do DOTA, tylko że Monarch, czyli rozwiązanie graficznego dwuwymiarowego monitora barlowskiego od American Printing House for the Blind.
Salesforce, the Office of Accessibility, four years on, czyli też taka refleksja,
odkąd Salesforce zaczął wprowadzać tą dostępność, a co będzie mówić oni do
chociażby materiałów szkoleniowych i do dostępności tego całego CRM-u się
przykładają.
Can we enlist AI to accelerate human network in alt text and audio description?
No, czyli czy też taka refleksja, kto tu ma się wypowiadać?
Caroline Desrosiers ze Scribly, nie znam tej firmy.
W każdym razie coś słyszałem, ale nie wiem do końca, z czym to powiązać.
Na ile sztuczna inteligencja może wspomagać osoby tworzące właśnie opisy
alternatywne do zdjęć, czy teksty, skrypty, audiodeskrypcji?
Envision, what happens when smart glasses really get smart?
No, czyli tutaj też będzie jakaś refleksja na temat Envision i tego, co ostatnio wprowadzali w kwestii sztucznej inteligencji.
Co tu jeszcze mamy?
Behind the scenes with Max.
A Q&A session with Max’s Angela McIntosh on the streaming platform and the future of accessibility.
Czyli tutaj właśnie jak chyba HBO i Warner Bros.
tworzą audiodeskrypcję, też może być ciekawe.
Chociaż po polsku to chyba za dużo tego nie ma.
No właśnie, tak chciałem powiedzieć, czy będą też się chwalić swoimi międzynarodowymi sukcesami.
Obawiam się, że nie, bo to jest bardzo… Chociaż dzisiaj mówiono o niedoreprezentowaniu wielu języków,
które każdego roku ich umiera coraz więcej a propos AI, myślę, że to jest mimo wszystko konferencja bardzo, bardzo, bardzo skupiona na rynku amerykańskim.
i tutaj ta perspektywa będzie gdzieś tą dominującą.
Natomiast no to jest wszystko jeśli chodzi o te wystąpienia,
więc no ja się postaram coś tam jeszcze obejrzeć
i jeżeli będzie coś ciekawego do opowiedzenia,
to na pewno Wam o tym też opowiem.
A tymczasem odbieramy kolejny telefon.
Kto jest z nami po drugiej stronie?
Silwestr.
Witamy i słuchamy.
Ja mam taką prośbę,
żeby poszukać
jakiejś możliwej, jak najtańszej, czy ktoś wie, linijki takiej błędowskiej, żeby nie przekraczało przynajmniej do 4 tysięcy, nie przekraczało do 4 tysięcy.
4 tysięcy złotych.
Tak, żeby nie przekraczało, bo ja szukam długo, bo dostałem w tym roku takie słabe dofinansowanie.
No to może być ciężko, bo nawet te najmniejsze, czyli czternastki blue, fokusy blue 14, to jest jakieś 7-8 tysięcy, jeżeli pamiętam, chyba że coś potaniało, bo to też dość stare modele.
No właśnie. A jeszcze mam drugą prośbę. Co ja mam zrobić z tym Bleichellem Classic, takim zwykłym telefonem, który niestety mowę stracił, opakowanie spadło. Ja nie wiem co z tym telefonem zrobić. Czy jest jakiś program do naprawy tego opakowania? Czy w ogóle jest telefon do wrzucenia?
Ja proponuję w takiej sytuacji kontaktować się z dystrybutorem.
Ale ja mam to już ponad 4 lata.
No tak, ale…
Ale on już nie ma gwarancji.
No to w takim razie może będzie opcja jakiejś niedrogiej naprawy pogwarancyjnej.
To na pewno nie będzie darmowe, ale…
Dokładnie, zwłaszcza jeżeli tam by starczyło by może oprogramowanie przeflashować.
Producent ma do tego być może, znaczy dystrybutor.
Albo dystrybutor narzędzia.
Więc może to nie jest pewna prawa, która wymagałaby technicznie
nie wiadomo jakich starań, więc warto zapytać po prostu
dystrybutora, tam gdzie telefon zakupiłeś.
Bo ja po Rumynie tym kupowałem.
No to właśnie tak.
Zamawiałem.
Tak, tak, tak.
A ja nie wiem czy to się w ogóle opłaci.
A no to my tego nie wiemy tym bardziej.
Właśnie, bo ja używam teraz Samsunga Galaxy S21 F5G.
dotykowego teraz używam.
I on się dobrze nawet sprawuje.
No to tyle dobrego, że udało się z jakiegoś telefonu
też skorzystać po Blind Shellu, ale
nic mądrzejszego tu nie powiemy niestety.
Tak, tak, ale dobrze, ale dobrze, jeśli ktoś
używał Blind Shella Classic i ktoś na przykład
komuś się uszkodził czy coś, to polecam przejść na Samsung Galaxy 21, być najprostszy, bo iPhone, ktoś mi doradzał, ja miałem gdzieś tego iPhone’a, ale coś nie mogłem używać.
Z ciekawości, a jaki był tam problem? Z czym miałeś problem na przykład w porównaniu do tego Samsunga?
Bo Samsung jest lepszy, bo iPhone miałem chwilę tylko pożyczony, ale niestety nic nie mogłem tam zrobić.
Rozumiem, no to pytanie co było tak naprawdę przyczyną, czy może nieskonfigurowane to było, czy jakieś inne rzeczy, no ale w każdym razie fajnie, że…
A jeszcze, tak tak, ja mam jeszcze Oppo A17, taki starszy telefon, też dobrze funkcjonował, tylko że on jest wolniejszy.
Jasne.
Na przykład kogoś nie stać na takie drogie telefony, to polecam Oppo A17 albo coś takiego, a później przejść na Samsung Galaxy.
Okej. Sylwestrze, czy możemy Ci jeszcze jakoś pomóc?
Znaczy nie, tylko z tą linijką, bo ten czytnik taki, ten brail, niektóre kropeczki już nie wychłodzą i potrzebuję taki lepszy, znaczy nie lepszy, żeby to odczytać pewne informacje.
Jasne. No obawiam się, że linijki do 4 tysięcy, no w takiej cenie może być problem.
Chciałem się zapytać, czy jest bezklawiaturowe taki uświetlać brailorski do komputera?
Teraz zazwyczaj to już są wszystkie z klawiaturą.
Zwłaszcza, że tu nie klawiatura jest jakby najdroższa w tym wszystkim, tylko sam brail jako taki, dokładnie.
No właśnie. I klawiatura można by było taką normalną. Klawisze tak jak normalne klawiatury. Tylko nakleili z tym brylowskie te. A żeby czytać tylko. Mi chodzi o to, żeby rozczytać.
Tak, tak, tak, ale tak jak Tomek powiedział, tu raczej wielkiej różnicy tu w cenie by nie było,
nawet jeżeli by coś takiego się pojawiało, a teraz z reguły te linijki wszystkie, które są,
no to one mają jednak klawiaturę, bo zwykle chodzi też o to, żeby wygodnie się jednak wprowadzało,
czy jakieś informacje, bo te linijki mają też funkcję notatnika bardzo często.
To nie, już nie jestem, bo ja mam adakcję, stacjonarkę, komputer.
Jasne. No dobrze Sylwestrze, to w takim razie cóż, być może ktoś nam coś tu podpowie, jeżeli chodzi o takie tanie linijki, ale no ja nie sądzę.
No właśnie, bo ja słucham, wie pan, ja nie słucham na żywo, bo nie mam dostępu, chyba że, jeszcze mam pytanie, jak na żywo można tej audycji słuchać? Na jakim kanale?
Chociażby na YouTubie, na YouTubie Tyflo podcastu, albo w Tyfloradiu, albo tak, będzie na żywo, albo w Tyfloradiu.
Bo ja najczęściej nagrania słucham na Spotify’u, ale tylko na Spotify’u, bo mi tak wygodnie.
Jasne, ale też jesteśmy na YouTubie, jesteśmy na Facebooku, w tym momencie na żywo.
Ja o Facebooka, wie pan, ja nie używam w ogóle Facebooka.
No jasne, natomiast mówię, gdzie jesteśmy i jesteśmy też w Tyflo Radiu, jest w Googlu.
A jak Tyflo Radio nazywa, jak to, gdzie to można odpożyć?
Na naszej stronie jest link, posłuchaj Tyflo Radia, na przykład przez Googla można spróbować sobie wyszukać.
Bo jest, bo tam Tyflo Podcast, ja wiem, że jest.
Tak, no i na tej stronie też są linki do Tyflo, do posłuchania Tyflo Radia, albo na przykład, tak jak mówię, jest też YouTube.
YouTube, tak?
Ale Tyflo Radio, ale Tyflo Radio…
Tyflo Podcast, Tyflo Podcast na YouTubie.
Ale Tyflo Podcast…
Tak.
Wiem, ale Tyflo Podcast jest i na Google, tylko ja nie wiem, gdzie Tyflo Radio znaleźć.
Tyfloradio jest na naszej stronie tyflopodcast.net, tam jest jedna podstrona, która się nazywa Posłuchaj Tyfloradia i tam wszystkie rzeczy są, które pozwolą włączyć, albo można słuchać wtedy ze strony, albo jest link do jakiegoś odtwarzacza zewnętrznego.
Dobrze, spróbuję.
To powodzenia, w takim razie dzięki za telefon, pozdrawiamy Cię bardzo serdecznie i do usłyszenia.
A tymczasem proponuję, żebyśmy posłuchali kolejnych wiadomości, bo tu nam się wiadomości pojawiło kilka od Maćka.
No więc proszę bardzo, teraz posłuchajmy, co nam do powiedzenia ciekawego ma Maciek.
Dzwonił do nas, ale jeszcze to i owo chce powiedzieć.
Cześć wam, tu znowu Maciek z tej strony. Postaram się tym razem bardzo krótko,
mianowicie odnośnie tego programu Detective od pana Jordiego, który tworzy m.in. McWhispera.
W każdym razie, no powiem wam, że kiedyś sobie życzyłem, żeby Be My AI, w ogóle Be My Eyes, Be My AI wspierało też Maca i tak dalej.
Natomiast, no i nie byłoby to głupie, nie powiem, bo w sumie gdyby było, to fajnie by to było.
Natomiast, no nie ma póki co, no ale ten program od pana Jordiego bardzo się, bardzo się sprawdza, powiem wam szczerze.
Jak tak sobie z tym bawiłem w ogóle Michałowi Kasperczakowi, dziękuję, bo w sumie, a wiedziałem niby, że program istnieje, że sobie jest,
ale jakoś tak nie było, jakoś tak za to zabrać nie mogłem, a on mi też tam linka podrzucił, więc
ja myślałem, a dobra, przetestuję, no i naprawdę, bardzo fajna rzecz, no bo instalujemy sobie program,
podpinamy swój klucz OpenAI, no i cóż, prompt jako taki jest po angielsku, tak jak już wspominałem wcześniej,
Natomiast jeżeli my go zmodyfikujemy i wpiszemy tam, opisz to zdjęcie i tak dalej.
No i ważne jest, żeby tą liczbę tokenów sobie zwiększyć.
Tam domyślnie chyba jest 200, nawet chyba nie 250, ale 200 wydaje mi się.
Natomiast ja sobie zwiększyłem nawet nie do 500, do 500 też, ale miałem wrażenie,
że gdzieś tam mi te słowa niekiedy urywał, że te opisy jednak nie były do końca takie
w pewnych sytuacjach, jak było bardzo takie rozbudowane zdjęcie. Natomiast 700 poszło,
700 maksymalnie, bo to nie jest tak, że on sobie to wykorzystuje maksymalnie,
nie, tylko on sobie tam ile musi, ale ten bufor ma zapas, więc jakby do 700 spróbuję
mu nawet do 1000 zwiększyć. No w każdym razie program się naprawdę sprawdza,
Sprawdza się niemal tak jak BIMA AI, można powiedzieć, no bo też GPT-4, no i co, to przeciąganie zdjęć nie jest takie głupie, no, to warto mieć tę świadomość, że jak się, jesteśmy na danym zdjęciu, nie wiem, w jakimś folderze, czy w jakiejś prezentacji, gdziekolwiek, cokolwiek, jakkolwiek, no, ze stron nie działa, no wiadomo, trzeba sobie najpierw to zdjęcie pobrać, tak, w OSHIFT-M.
i do zachowań obrazek w pobranych, czy jakoś tak.
No ale jak już to zrobimy,
no to normalnie,
w o, klawisz voiceover, czy capstock, albo control option,
przecinek, przeciągamy,
przechodzimy do programu command tabem,
no i tam w put the image here,
coś takiego to się nazywa w o kropka,
On to sobie elegancko przeciągnie, no i potem możemy dać już normalnie po wprowadzeniu promptu danego analyze, no i się analizuje.
Analizuje się zdjęcie, zwraca na nam jest wynik i naprawdę bardzo fajnie to działa, ja jestem tym zachwycony.
Opisy alternatywne też tworzy, bo jakżeby inaczej.
No to jest tak, że on nie ma takiej stricte ciągłej konwersacji jak z BMI AI-em,
kontekstowo, tylko on każdorazowo jakby sobie resetuje, wysyła to zdjęcie jakby jeszcze raz do analizy
i opisuje jakby, początek jest mniej więcej jakoś tam taki sam.
On jakby według konkretnego podanego promptu jakby robi całą robotę od początku, nie?
Więc to się trzeba, trzeba z tym liczyć, ale program myślę wart polecenia.
Program oczywiście jest za darmo, ale można autora wesprzeć przy, jak zresztą we wszystkich jego projektach, to mi się podoba, że on w dużej części tych swoich projektów typu właśnie MagWhisper, typu Voices, typu właśnie GPT, w sensie MagGPT do obsługi czata, swoją drogą, klucz OpenAI, tam akurat nie chcę wejść, nie wiem o co chodzi.
i w każdym bądź razie oferuje je za darmo, te programy, ale zawsze można go wesprzeć.
I to też jest ciekawe. Pisze niby, że euro, po naszej stronie się wyświata, że to jest euro,
a tak naprawdę jesteśmy rozliczeni w dolarach, więc też trzeba mieć tego świadomość,
że na przykład jeśli płacimy rewolutem i chcemy sobie z wyprzedzeniem jakkolwiek obcą walutę,
na 3 złotówki na obcą walutę wymienić,
żeby to mimo wszystko zrobić w dolarach, a nie w euro,
bo on sobie to i tak płatność mu idzie w dolarach,
przy czym na naszym wykazie, na potem jakiejś tam fakturce
na potwierdzeniu jest, że on to i tak otrzymał w euro,
więc jakieś to jest dziwne, ale można w razie czego i…
No i ja polecam, bo te apki są naprawdę fajne,
z dostępnością tam, z etykietowaniem różnych rzeczy,
no bywa różnie, to prawda, ale…
Ale ja myślę, że warto, bo gość robi dobrą robotę po prostu, no i tyle.
Swoją drogą ta aplikacja MacGPT, chyba ona wydaje mi się w ustawieniach albo w About,
gdzieś tam w każdym razie było, że ją można sobie na iPhona pobrać, więc to też jest ciekawe w sumie,
jeżeli jest i jak ona tam działa, na ile się różni od tej apki oficjalnej,
chata GPT i i i i no i w ogóle, prawda, jak ona jest też dostępność na iPhone’ie zaimplementowana.
Trzeba by to sprawdzić. No i też ciekawe, czy da się klucz podpiąć, czy on działa,
bo teoretycznie w appce na Maca jest, że niby jak podepniesz swój klucz API,
no to opłynę ja i to, że masz GPT-4, a tak naprawdę to jak ja go pytam o świętej pamięci już
Królową LGBT to ona nadal żyje, stan aktualizacji wiedzy.
Słuchajcie, to już nie jest wrzesień 2021 w GPT 3.5,
tylko styczeń 2022, więc jest już jakiś tam postęp.
Ale mimo wszystko to jednak nie jest GPT 4, co by nie mówić niestety,
pomimo dodania tego klucza, wklejenia go tam.
Więc nie wiem, o co chodzi, ale klucz jest, a klucz nie działa.
No, ale okej.
A odnosząc się do tego co mówił Patryk i Aiko, no znaczy inaczej, jeżeli w sumie, znaczy to jest medium, to nie jest large, to jest medium ten model cały na iPhone’ie, nawet na modelach Pro, to się nie ma co oszukiwać, to nadal będzie medium, więc może na jakimś iPadzie Pro, gdzie tam jest M1, M2,
nie wiem, chyba też, no to może by ewentualnie, ale też tego pewien nie jestem, bo pamiętajmy, że tam też RAM, no ma znaczenie, więc też nie wiem, na ile taki large może się rozpanoszyć, zwłaszcza, że mi jeszcze do niedawna na Macu, Mac Whisper, wypluwał komunikat, że no, tego RAM-u jednak jest mało i żeby rozważyć, no, przetwarzanie na niższych modelach, na niższych jakościach.
Przy czym, no, ja oczywiście go potulnie nie słuchałem,
robiłem na large’u i tragedii nie było,
ale no samo to na Mac’u można wymusić, na Mac Whisper’ze.
Na iKo, niestety, na Mac’u, znaczy na iPhone’ie nie można wymusić,
bo na Mac’u istotnie jest large, bo ta dokładność jest lepsza,
no, bardziej to jest odzwierciedlone wszystko.
No natomiast na iPhone’ie jest, no, słychać,
widać, słychać, że to jest medium, co byśmy nie robili.
No, a co za tym idzie więcej, a jest poprawy.
No i okej, do txt można wyodrębnić,
chyba nawet skopiować do schowka i coś z tym można chyba zrobić.
Ale mimo wszystko, to chyba nie jest tak wygodne,
obawiam się, jak taki Mac Whisper, gdzie tam nawet w tej transkrypcji
teraz też sobie możesz zapisywać plik w formacie Whisper
i ten, w sensie projekt, nie, transkrypcji
i tam sobie stricte, bezpośrednio w tej transkrypcji przeedytować wszystko,
a potem wysłać, wyeksportować do wszelkich formatów tekstowych,
napisowych na YouTube’a i tak dalej, nie?
No a na takim Aiko, no jeśli to ma być stricte tekst
i to nie ma być nigdzie żadna transkrypcja,
żadne tworzenie napisów do czegokolwiek,
no może jeszcze by uszło, ale tak jak mówię,
i tak jak mówicie zresztą, szkola iPhona,
No takie jest po prostu moje zdanie, bo więcej potem było z poprawą tego, z edycją, no bo jednak medium to jest medium i to nie jest aż takie jak large po prostu.
I to wszystkie wiadomości od Maćka, jeszcze tu widzę Grzegorz do nas napisał kilka takich informacji odnośnie m.in. polskiego dużego modelu językowego, który się tworzy, ale to na razie to są takie no zapowiedzi, wiele więcej z tego nie wynika, też Grzegorz wysłał nam informacje o jakichś okularach, ale szczerze mówiąc to w trakcie audycji to już teraz z tego raczej nie doczytam,
Co to tam dokładnie jest być może tematem gdzieś zajmiemy się w przyszłym tygodniu, ale Grzegorzu bardzo dziękuję za te informacje i oczywiście czekamy na kontakt od was jeżeli tylko macie ochotę jeszcze się w jakichś kwestiach wypowiedzieć to nasze linie są otwarte.
To w takim razie przechodzimy do następnego newsa. Twojego Michale zresztą newsa.
Czy dzięki sztucznej inteligencji osoba niewidomą może być grafikiem?
No i okazuje się, że chyba jednak nie.
Nie. To pytanie zadał sobie David Redmond, który napisał artykuł właśnie na ten temat.
Oczywiście oparł się na swoich własnych doświadczeniach.
postanowił wykorzystać model Dali 3, który to myślę, że jest przynajmniej
części z was znany i generuje obrazy na podstawie tego, co mu tam wpiszemy.
No i David postanowił, zaprząc go do pracy, jeżeli chodzi o takie standardowe zadania,
jakie mają graficy, no bo on w końcu chciał być niewidomym grafikiem.
No i co mu z tego wyszło?
Najpierw postanowił stworzyć logo do newslettera, takiego technologicznego.
No i napisał, jak to logo dokładnie ma wyglądać.
No przede wszystkim nie udało się stworzyć tego loga tak dokładnie według tych instrukcji,
ale podstawowym problemem było to, że ten model ma jakiś kłopot z nanoszeniem tekstu na grafikę.
I ja to mogę potwierdzić, bo ja też kiedyś chciałem stworzyć logo z wykorzystaniem akurat tej implementacji w Bingu
i też miałem dokładnie ten sam problem, o jakim pisze David, to znaczy napisałem mu zupełnie co innego,
a on mi na tej grafice też umieścił zupełnie inny tekst.
Więc to jest jakiś generalnie problem.
Jakieś obrazki takie po prostu, no to jeszcze da radę stworzyć.
Natomiast jeżeli ma coś na tych obrazkach być napisane,
to już zaczyna być to dla niego z jakiegoś powodu kłopot.
Drugie podejście to było stworzenie tła do aplikacji Microsoft Teams
i też tam postanowił wprowadzić jakiś tekst, również to nie poszło, trzecim podejściem miało być stworzenie jego grafiki po prostu jakby będącej jego podobizną, opisał jak wygląda, chyba tam nawet podrzucił też jakieś zdjęcie,
No i okazało się, że też ta grafika nie była taka, jak powinna być, jaką on by sobie życzył.
Ponoć była najbardziej udana z nich wszystkich, bo jeszcze oczywiście te wszystkie grafiki konsultował autor tego tekstu z osobą widzącą.
Więc te dwie pierwsze, a z osobą widzącą, ale najpierw przepuszczał to przez BMI.ai, żeby sprawdzić jak w ogóle ta grafika będzie opisana.
Więc taka weryfikacja trochę, taka weryfikacja o jakiej wczoraj rozmawialiśmy z Darkiem Marchewką a propos wykorzystywania czata GPT w praktyce.
No i cóż, te dwie grafiki to w ogóle okazało się, że nie ma sensu pokazywać osobie widzącej, bo no nie zostały spełnione nawet te podstawowe kryteria.
Jeżeli chodzi o tę trzecią grafikę, no to ponoć już było nie najgorzej, natomiast też nie do końca ten tekstowy opis był zgodny z tym, co ta grafika wypluła.
na przykład odmłodziła autora. Zdecydowanie odmłodziła, ponoć wyglądał jakoś bardzo dziecinnie na tej grafice.
Więc takie podsumowanie, że gdyby chciał się zatrudnić jako niewidomy grafik, to prawdopodobnie w tej pracy nie przepracowałby nawet godziny.
Bo mogłoby się okazać, że już pierwsze poległby na pierwszym zadaniu.
No i rzeczywiście, no tu wiadomo, było mniej więcej czego się będzie można spodziewać, jakie będą tego typu efekty i to jest też taki morał, że jeżeli nawet stworzymy jakieś grafiki, jeżeli przygotujemy coś w oparciu o tę sztuczną inteligencję,
to jeżeli publikujemy coś gdzieś dalej, jeżeli tej grafiki chcemy w jakikolwiek sposób używać,
no to zawsze jednak mimo wszystko przetestujmy ją najpierw.
Chociażby możemy zapytać też sztuczną inteligencję, żeby nam opisała tę grafikę,
ale najlepiej jednak to komuś pokazać. To nie powinno być jakimś wielkim kłopotem.
No możemy chociażby poprosić o pomoc kogoś z Be My Eyes i podrzucić taką grafikę i poprosić o jakiś opis.
No, a nie ma myślę sensu publikowanie tak zupełnie na czuja tego typu produkcji, bo może się okazać, że no okej, one będą jakieś troszeczkę podobne do tego, co my chcieliśmy stworzyć,
Ale na przykład właśnie, tak jak z tym tekstem, będziemy chcieli stworzyć grafikę dla Tyflo podcastu, dajmy na to, a okaże się, że stworzymy grafikę dla jakiegoś zupełnie innego podcastu i jeszcze ciekawiej będzie jak się okaże, że taki podcast na przykład istnieje i będziemy promować jakąś cudzą twórczość, a chcieliśmy promować własną.
Więc z tym bardzo ostrożnie, mimo tego, że potencjał jest, że możliwości są, ale trzeba tu bardzo uważać, no szczególnie, że niestety takiej grafiki wytworzonej przez sztuczną inteligencję nie jesteśmy sami w stanie w żaden sposób zweryfikować.
Kolejny news, news, nie wiem czy to w sumie można newsem nazwać, ale taką ciekawostką na pewno, bo tutaj Paweł odkrył kilka różnych ciekawych rzeczy w systemie iOS.
Tak, no dwie dokładnie jest takie, którymi chciałem się podzielić, no i pierwsza jest na przykład taka, ja o tym już czytałem i o tym my też chyba nawet w ramach tego przeglądu mówiliśmy, kiedy to iOS zdaje się, że 16 albo nawet jeszcze 15 miało wprowadzić rozpoznawanie obrazków, takie ze sztuczną inteligencją, chociaż to jest chyba jeszcze starsza funkcja, no i się okazało, że ta funkcja potrafi rozpoznawać kody CAPTCHA i o tym to
bo ja gdzieś tam czytałem, w jednym, w drugim portalu,
no ale jakoś się tym specjalnie nie przejmowałem,
dopóki ostatnio Amazon nie postanowił,
że w sumie dobrym pomysłem to jest kapcza przy każdym wejściu na stronę.
I to taka bez alternatywy dźwiękowej.
No, powiedzieć, że użytkownicy niewidomi są niezadowoleni,
to jest nie powiedzieć nic.
Wściekłość jest niesamowita, zresztą słusznie.
No i ja akurat dostałem od znajomego link,
żeby coś tam sobie na Amazonie obejrzeć,
no i wszedłem, patrzę, a tam kapcza, no i momentalnie podświetliłem sobie
to zdjęcie z tą kapczą, tam gdzie jest to JPG, na szczęście, że to jest tekst,
a nie jakieś tam dopasuj rowery na obrazku, no i słyszę po plumknięciu,
że on czyta mi ten kod, no więc przepisałem to, co usłyszałem i zadziałało,
no i chcę wam pokazać, jak to działa, jeżeli oczywiście uda mi się to wywołać,
bo może się nie uda.
Zobaczymy.
Tu byłem na stronie
Jones’a na Mozena coś patrzyłem.
Wejdę na niemieckiego Amazona, bo
tam ostatnio miałem taki problem.
Chyba nie dostaniemy kodu tym razem.
Chyba nie.
No nie, chyba się nam nie uda, bo przedtem było, teraz nie ma, no więc dobrze.
Widocznie rozwiązałeś jedną kapczę, to uznało, że jesteś wiarygodnym użytkownikiem.
Mam nadzieję, bo to jest inna IP, inne w ogóle wszystko.
Ale może jakieś ciastko podrzucił.
Może.
No ale jakbyście kiedyś natrafili na kapczę typowo tekstową,
to warto mieć włączone rozpoznawanie obrazków na pokrętle,
tam gdzie jest to nie rozpoznawanie ekranu,
tylko opisywanie obrazków.
Mieć włączone, podświetlić sobie jakąś kapczę,
konkretnie ten element, gdzie ten obrazek z kapczą jest,
no i poczekać, aż on odczyta ten tekst
i być może nawet stuknięcie 4 razy 3 palcami skopiuje nam to do schowka.
Także warto potestować, bo naprawdę jest jeszcze trochę takich serwisów w internecie, które mają.
Tekstowe kapcze, takie po staremu, bez alternatyw audio.
No i tutaj taka pomoc ze strony iPhone’a czy Mac’a może się okazać bezcenna.
Natomiast druga rzecz, to muszę Wam otworzyć WhatsApp’a, żeby tutaj
I gdzieś tam mamy na przykład tyfloprzegląd i ta druga rzecz, którą bym chciał pokazać, to jest pisanie tekstów przez rysowanie ścieżki.
No funkcja, która sama w sobie nowa nie jest, ale od iOS 17 wspiera ona język polski.
No i jak to działa?
Działa to w ten sposób, że po pierwsze trzeba na pokrętle mieć włączoną tą funkcję.
No i kiedy już mamy ją włączoną, to możemy sprawdzić w następujący sposób.
Wpłynie zapisane wyrazy edycja. Wrozpoznawane ekrany. Wyłączone opisy obrazki. Wyłączone rysuj ścieżkę, aby pisać. Włączone.
Tak, rysuj ścieżkę, aby pisać. Włączone.
No i teraz możemy pisać sobie słowo w taki sposób, że kładziemy palec na pierwszej literze
i nie odrywając od ekranu,
kreślimy jakby jedną linią ciągłą po wszystkich literach danego słowa.
No to ja napiszę na przykład Cześć,
czyli kładę palec na C,
czekam, o już.
Przeciągnąłem najpierw delikatnie od C w lewo na Z,
potem do góry w stronę E,
znowu w dół na S, czyli w konsekwencji EŚ i znowu w dół na CI,
aczkolwiek nie musiałem, bo on już się domyślił, że jak napisałem CI,
to będę chciał pewnie CZEŚĆ.
To było dość proste, bo to był dość prosty wariant.
O, i jak naciskamy DELETE, to on usuwa całe słowo, a nie tylko jedną literę.
I warto robić takie najbardziej bezpośrednie te linie,
Nie jakoś kombinować po drodze coś, bo może być problem z napisaniem słowa,
bo on może wykryć inne słowo.
Na przykład ja spróbuję napisać właśnie, w,
w prawo i w dół na l, w lewo, w prawo na s,
w dół na n, w górę na i.
No i się udało, powiedzmy.
Aczkolwiek miałem już taką sytuację, że zrobiłem to dość szybko.
I zrobił wywołanie na przykład, bo najprościej byłoby, gdybym do tego L, do tego L pojechał, jakby celem jest to, żeby jak najdłuższą linię zrobić w tym rzędzie, w którym mamy najbliższą literę.
Czyli jeżeli mamy W, a potem Ł, to warto od W od razu zjechać w dół, jakby na S i w prawo na Ł. I wtedy będzie prościej.
Też generalnie trochę dezorientujące są te podpowiedzi, bo przed momentem na przykład miałeś słowo wypiła, a ono się nagle zmieniło na właśnie.
Oczywiście ma to swój sens, natomiast jak czegoś takiego słuchamy, to dość łatwo się wyprowadzić z tego rytmu pisania i tak sobie pomyśleć, że dobra, on tu już coś pomylił.
Więc do tego się najzwyczajniej trzeba się przyzwyczaić.
A tego też warto słuchać, bo czasami to słowo, które my chcemy,
on już domyśli się, że nam o nie chodzi wcześniej,
zanim my wszystkie litery znajdziemy, więc warto tego słuchać,
bo może się okazać, że to słowo napiszemy dużo szybciej.
Warto też patrzeć sobie na podpowiedzi tego, co moglibyśmy napisać u góry,
bo nawet jeżeli… Ja spróbuję jeszcze raz to nieszczęsne właśnie napisać.
O, w ten sam sposób, czyli od W nie jechałem w dół do S i w prawo do Ły,
tylko od W cały czas w prawo do P i dopiero potem w dół na Ły.
Więc teraz zrobimy włamie i teraz zobaczymy, czy nad klawiaturą,
któraś z tych propozycji, które tu mam, jest tą, której ja szukam.
Aha, no nie właśnie, nie ma, ale jest właśnie na przykład.
No więc właśnie, czasami te słowa się pojawią, czasami ich też nie ma, więc warto sobie czasem przejrzeć, czy to słowo, którego szukamy, nie jest w podpowiedziach.
Ja je teraz usunę delete’em.
To, co też jest super, no to jest to, że on oprócz słów podpowiada też emoji.
Więc na przykład gdybym chciał wstawić tu emoji takie mikrofonu,
które jest dość popularne przy różnego rodzaju głosowych i audio dziełach.
Mam wpisane słowo mikrofon i teraz nad klawiaturą patrzę sobie na podpowiedzi.
I mam mikrofon studyjny, czyli emoji.
Stukam dwa razy i mikrofon studyjny został wstawiony.
I emoji jest stawione. To jest lepsze niż w Braille’u, bo w Braille’u w wejściu ekranu Brailla nie da się wpisywać emoji.
Przynajmniej tak bezpośrednio.
Chociaż pewnie gdyby wpisać słowo i potem przekręcić na zwykły rotor, na zwykłe wpisywanie znaków z klawiatury tradycyjnej,
no to można by gdzieś poszukać tej emoji w podpowiedziach.
Natomiast tak jest dużo wygodniej.
Myślę, że też bardzo poręczne jest to,
że jak piszemy na przykład całe zdanie, to nie musimy robić spacji.
Jedne co musimy robić to znaki przestankowe, ale nie musimy robić spacji,
bo spacje będą robione za nas. Po wpisaniu konkretnego całego słowa,
jeżeli zaraz przejdziemy do wpisywania następnego słowa, ta spacja zrobi się sama.
I dzięki temu, no nie jest to tak szybkie, przynajmniej dla mnie,
jak wpisywanie wejścia ekranu Braille’a, ale myślę, że jest to druga najszybsza
metoda wpisywania dla osoby całkowicie niewidomej tekstu na ekranie dotykowym.
I jeżeli mamy na przykład tylko jedną wolną rękę albo nie ogarniamy tego brajla po
prostu, albo nie możemy pisać z uwagi na różne sytuacje brajlem ekranowym, to do
na przykład takich krótszych wiadomości jakichś SMS-ów na komunikatorach, czegoś
szukamy i tak dalej, jest to całkiem niezła alternatywa.
Ja teraz spróbuję napisać całe zdanie i zobaczymy jak szybko mi to pójdzie.
No nie będę się starał jakichś tu rekordów Guinnessa robić, ale napiszę jakąś wiadomość.
Jestem na grupie whatsappowej naszej tyfloprzeglądowej wewnętrznej, no i coś tam napiszę.
Chciałem zrobić pozdrawiamy. Ciekawe czy mi to podpowie.
O jest. Swoją drogą ciekawe, że mi od razu podpowiedział PiS.
No nie, nie chcę tu żadne znamy, nie chcę pozdrawić wszystkich, których znamy, tylko chcę pozdrowić wszystkich, których…
Oj, a to tego tak nie chciałem.
No nie ma ma, tylko…
No i napisałem, pozdrawiamy wszystkich, których nie ma dziś z nami na żywo.
Jak widać, jakieś błędy tam wystąpiły po drodze, ale zasadniczo napisałem tę wiadomość
stosunkowo szybko i ja osobiście nie odczuwam takiego efektu zmęczenia,
że ale się napisałem, ale się naszukałem tych literek, ale to wolno działa.
Jest naprawdę fajnie, on się też uczy od nas, więc jeżeli my coś napiszemy
tradycyjnie, jakąś nazwę własną, jakieś imię, jakiś pseudonim i tak dalej,
to on sobie to zapamięta na przyszłość, będzie się uczył i będzie nam te słowa
też podpowiadał, więc on też się dzięki temu jakoś tam uczy.
Ja myślę, że warto potestować, ja sobie chciałem zrobić takie wyzwanie,
że wszystko będę pisał tym rysowaniem ścieżki, ale nie ukrywam,
że w takich sytuacjach bardzo stresowych jeszcze temu nie ufam na tyle.
Natomiast jak jestem gdzieś tam spokojnie, mam czas, to już w różnych językach,
bo i po polsku, i po angielsku, i po niemiecku, usiłuję pisać właśnie rysowaniem ścieżki.
No i w wielu sytuacjach sprawdza się to bardzo fajnie, zwłaszcza jak właśnie mam
tylko jedną rękę wolną, bo w drugiej trzymam laskę i chcę jakąś wiadomość napisać.
więc pobawcie się tym, bo jest to całkiem fajne.
Swoją drogą tam sobie też można gdzieś skrócić chyba ten czas reakcji od jakby stuknięcia z przytrzymaniem i rozpoczęcia tego rysu, od położenia palca inaczej, od położenia palca i rysowania tej ścieżki.
Gdzieś jest taka chyba opcja.
W voiceoverze albo w ustawieniach dostępności gdzieś tam na pewno, tylko warto też pamiętać, że jak za długo znowu na takiej literze się zatrzymamy, zwłaszcza na tej pierwszej,
to on nam pokaże diakrytyki.
No i wtedy
niestety już nie będzie możliwe
bez oderwania, rysowania tej ścieżki,
bo przesuwając palcem będziemy
różne alternatywne znaczki sobie wybierać.
To prawda, więc z tym trzeba uważać.
Ja też się na początku
bawiłem tym rysowaniem ścieżki
i wydawało mi się, że może być
to coś fajnego, ale szczerze mówiąc
dość szybko się przerzuciłem z powrotem
na Braila.
Do dłuższych tekstów zwłaszcza. Myślę, że
że Braille nadal jest najszybszy, ale kurczę, z takich krótszych wiadomości, naprawdę mi się to sprawdza, spodobało mi się, okej.
Właśnie próbowałem kilka razy tego sposobu i jakoś mi to się akurat nie bardzo sprawdziło, no ale wiadomo, różnie to bywa.
A teraz taka nowość, o której w pewnym sensie wspominaliśmy na początku.
Piotrka niby nie było, znaczy Piotrka niby nie ma, ale trochę jest i teraz opowie o nowościach w grach.
ze strony audiogames.net jak ostatnio to często bywa o większości informacji już was informowaliśmy ale mimo wszystko dużo nowości się znalazło więc teraz postaram się je dla was omówić rozpoczynając od nowych wydań no tutaj większość mieliśmy omówione
CyberCards to już mówiliśmy, Conjury też, natomiast na ostatniej audycji mówiłem, że gra ma się pojawić na komputerach, no i pojawiła się, jest już dostępna na Steamie,
Conjury możecie sobie wpisać, kosztuje 23 zł i jest dostępna zarówno na Windowsa jak i na Maca, więc jeśli wolicie w takie gry grać na komputerze, a nie na smartfonie,
no to już jest taka możliwość, możecie sobie ją ściągnąć, gorąco polecam, gra jest po prostu świetna.
Następnie mamy grę RPG Strange Roads, to jest chińska gra, do której będzie nam potrzebny tłumacz, natomiast jeśli ktoś lubi gry akcji RPG, no to tutaj mamy taką darmową grę, właściwie ona nie jest darmowa, jest wersja darmowa dostępna, która zawiera jedną część, ale możemy sobie też dokupić część drugą, fabuła jest ciekawa, no bo tutaj autor tej gry podaje nam taką sytuację.
Wracamy do domu, kupiliśmy sobie jakąś grę RPG, tylko że ta gra nam się nie podobała i ruszamy na misję, żeby pokonać autora tej gry.
Po prostu tak nam się to nie spodobało, że chcemy po prostu jakoś swoją złość zaspokoić w taki bardzo ciekawy sposób.
Następnie mamy kolejną grę chińską, natomiast ta już została przetłumaczona na język angielski, Battle Against Darkness, to jest mobilna gra rytmiczna, chociaż ona chyba też się ma ukazać na komputerze, no gra rytmiczna, czyli musimy odpowiednio wykonywać gesty na ekranie lub naciskać odpowiednio klawisze do muzyki, żeby poziomy przechodzić.
No tutaj producent obiecuje na całkiem sporo, bo obiecuje, że mamy pełną obsadę aktorską i to po angielsku, muzykę, scenki, taką muzykę bardzo fajną.
No i to mogę potwierdzić, bo tyle mi się udało z tą grą zrobić, natomiast ona jest na razie dostępna w wersji beta na test flightie, jest do niej link.
ale na moim urządzeniu mówi tak szybko, że właściwie nie mogę nic zrobić poza odsłuchaniem właśnie tej pierwszej scenki i jakoś nie mogę przejść dalej, więc jest to nienaprawione.
Też z tego co widzę trzeba wyłączyć voice overa, no bo gra sama odbiera gesty, ale tutaj nie ma interakcji bezpośredniej, nie wiem na jakim silniku to powstało, no mniej więcej jeśli chcecie sobie to przetestować, no to voice over musi zostać wyłączony.
Następnie mamy grę przeglądarkową Idol Trillionaire, czyli to są takie gry tzw. inkrementalne, w których musimy coś zrobić, ale potem generalnie grę zostawiamy, a gra przechodzi się tak jakby sama do pewnego momentu, kiedy my musimy coś ulepszyć, podjąć jakieś następne kroki, żeby grać dalej.
No i co musimy w tej grze zrobić? No po prostu musimy zostać trilionerem, jak można się domyślić z tytułu.
Gra działa tak, że co sekundę dostajemy jednego dolara i punkty szczęścia, które potem możemy zamienić na karty.
Kart jest ponad 400, więc tutaj mamy też taki trochę element gry karcianej, no i one mają różne efekty, albo nam dają więcej pieniędzy,
pozwalają nam zarabiać więcej na sekundę, no i tego typu rzeczy, i po prostu musimy odpowiednio karty kupować, grać z nimi,
no i też mieć trochę szczęścia, żeby zrobić fortunę.
O następnych grach już wspominaliśmy, czyli między innymi Raze for the Galaxy, czyli kolejna gra karciana, Zero Hour Assault, to jest strzelanka na system Windows, trochę podobna do takich innych strzelanek audio, które kilka lat temu były bardzo popularne.
o grze Idol i ta też wspominaliśmy albo przynajmniej
jeden słuchaczy chyba wspominał o Ekowizji też mówiliśmy więc
no tutaj sporo się działo jeśli chodzi o nowe gry ale też
równie dużo działo się w świecie aktualizacji i tutaj
też mamy całkiem sporo nowości rozpoczynając od gry
Sanctuary in Time która też się pojawia często, możemy
możemy teraz zdawać naszym osobami, które dziś za nami podążają wsparcie moralne, więcej misji popołaszczonych zostało dodane, no i jak zwykle poprawki błędów.
Brog The Investigator, czyli gra, w której jesteśmy detektywem i musimy rozwiązać zagadkę, gra, która łączy elementy gry przygotowej i gry akcji, dostała tryb wieloosobowy, to jest tryb lokalny, więc musimy grać przy jednym komputerze, kilka osób na raz może grać zarówno na klawiaturze i na kilku padach, no i właśnie w tych momentach, kiedy musimy jakichś przeciwników pogadać, właśnie w tym trybie akcji,
No to kilka osób może to robić jednocześnie pomagając sobie w ten sposób, ale nawet takim normalnie w trybie przygodowym też wszyscy naraz możemy rozglądać się po miejscówkach i w ten sposób grę sobie razem przechodzić.
Następnie Warsim, kolejny klasyk, który pojawia się bardzo często.
Tutaj mamy 20 nowych wydarzeń, które nas mogą spotkać w naszej komnacie, kiedy siedzimy sobie na tronie i pojawił się nowy typ świątyni, który możemy napotkać w trybie eksploracji.
Następnie Hearthstone, wspominaliśmy o już nowej parce, która się pojawiła i mówiliśmy w zeszłym tygodniu, że szykuje się nam nowy sezon ustawek, sezon 6.
ten sezon wczoraj się już ukazał no i tak jak mówiłem pewnie mod będzie zaktualizowany w miarę szybko i zaktualizowany został.
Natomiast firma Blizzard zaskoczyła tutaj troszeczkę nas i autorów tego moda bo oprócz tego, że dodali właśnie zaklęcia do ustawek i to jest jak najbardziej dla nas dostępne bez większych problemów
to, niestety, postanowili przebudować dwie rzeczy, po
pierwsze został od zera przebudowany sklep, który teraz
wygląda zupełnie inaczej, no i przez to wsparcie dla sklepu
w tym młodzień nie działa i będzie musiało zostać zrobione
od zera i tutaj też wcześniej to nie było zapowiadane, został
zupełnie od zera przebudowany, poziom nowicjuszy, czyli kiedy
zaczynamy taką tradycyjną grę farfstona, no to zaczynaliśmy
na takiej rangi nowicjusza i musieliśmy ją przejść żeby po
prostu wspinać się później już wyżej nie musieliśmy później
tego nowicjusza pokonywać drugi raz to dla niektórych osób
było za dużo teraz to zostało zastąpione nowym trybem
nowicjusza w którym będziemy dostać różne misje które też
będą troszkę służyć jako samouczek będzie też jakiś
przewodnik dostępny przejście tego przewodnika też nam da
jakieś dodatkowe nagrody to nam to powinno zająć mniej
niż przejście tego trybu nowicjusza, no ale tutaj też mamy zupełnie nowy interfejs, do którego mod musi zostać przystosowany.
Nowa wersja moda Hearthstone Access jest dostępna, musimy ją sobie pobrać ręcznie, jeśli macie ten automatyczny patcher,
no to on tej nowej wersji nie ściągnie, a to dlatego, że no właśnie cała obsługa dla nowych graczy, ten tryb nowicjusza,
niestety dostępna no i sklep więc możemy sobie jak najbardziej pograć nowe wystawki na przykład jeśli chcecie zobaczyć jak wyglądają zaklęcia no i możemy grać tymi kartami które mamy no ale gdybyście chcieli wejść do sklepu żeby sobie coś dokupić no to niestety na ten moment tego nie możemy zrobić pewnie w najbliższych dniach czy tygodniach to zostanie naprawione na chwilę dzisiejszą.
Jeśli chodzi o Harvestona no to sytuacja wygląda tak.
Aktualizacji do Forzy już wspominaliśmy, o Mortal Kombatzie też.
O nowych grach na Quentin C Playroom też już Paweł wspominał,
ale dla przypomnienia to jest gra piątki, trójki, gra w golfa,
cęgry karciane, no i popularne m.in. właśnie u nas i w innych
krajach Europy Wschodniej 1000, więc jakbyście chcieli ze
no to teraz można.
Wave of the Undead,
gra w której musimy,
walczymy przeciwko zombie,
dostała kolejną aktualizację i to taką
ciekawą dla tych, którzy lubią
popisywać się tworząc
różne historie, no bo
oto możemy sobie sami
tworzyć kampanię do tej gry, więc jeśli chcielibyśmy
stworzyć paczkę własnych misji,
napisać do nich jakąś fabułę,
no to będziemy teraz mogli to zrobić, a jeśli
nasze misje będą na tyle ciekawe,
no to kto wie, może autor włączy je do gry w przyszłych aktualizacjach, więc myślę, że warto się zainteresować.
Aurora 4X, wersja 2.2, to jest ogromna gra, o której Vatryk wspominał w zeszłym tygodniu bodajże, gra w której kolonizujemy wszechświat.
Zaczynamy od jednej planety, ale no, rozbudujemy nasze imperium, budujemy statki, żeby kolonizować kolejne planety, eksplorować galaktykę, i tu chyba nawet kilka galaktyk w sumie, toczyć pojedynki, gra jest bardzo skomplikowana, to jest taka gra głównie tekstowa, no i właśnie dostała kolejną aktualizację, w której to, no, możemy gdzieś w wszechświecie napotkać na supernowy, więc takie wydarzenia, które są bardzo takie destrukcyjne,
ale też każdy inny system gry, czyli tworzenie statków, kolonizowanie planet i tak dalej, też zostały zaktualizowane. Ten changelog jest naprawdę pokaźny.
Następnie Land of Livia, to jest też taka gra RPG, po części tekstowa, trochę też inkrementalna, to jest gra na iPhona, właśnie pojawiła się jej dosyć duża aktualizacja 4.0,
która przebudowuje system ekwipunku, system statystyk, mamy teraz troszeczkę inne statystyki, mamy poprawki w balancie gry i poprawki błędów m.in. opisów kontrolek dla voice overa i opisów zdjęć, więc gra powinna być jeszcze bardziej dla nas teraz dostępna.
Corruption of Champions 2 to jest, kolejna gra RPG z elementami, dla dorosłych.
Została kolejną, aktualizację gra też jest, to jest gra która jest dostępna, na Steamie i pojawiło się w niej, nowa miejscówka którą możemy sobie przejść, kilka nowych, przeciwników do pokonania, których możemy napotkać w losowych, pojedynkach.
kilka dodatkowych wydarzeń podczas eksploracji.
Teraz kilka rzeczy o modach.
Mod Classic Six Dragons
dostał kilka aktualizacji do
plików pomocy.
I też możemy
podczas niektórych weekendów
napotkać losowe wydarzenia,
które będą przez grę
uruchamiane, m.in. możemy mieć podwojone
np. punkty doświadczenia podczas
pojedynków.
W Alter Aeonie, czyli to jest
Kolejny mód mamy, gra przeszła na nowy system materiałów, przedmiotów, czyli kompozycji, różne metale, różne typy drewień i tak dalej i to ma wszystko wpływ na to jak mocne są te przedmioty oraz wszystkie umiejętności do tworzenia takich elementów, bo ich też jest trochę, też mamy zmiany dotyczące różnych miejscówek w grze, no i nowe też się szykują do otwarcia.
I kolejny mod i to już chyba ostatni, Erion Mood, wprowadził tryb wiary, system wiary cały, więc w grze teraz są bogowie i boginie, każde z nich może nam dać różne nagrody i możemy sami zdecydować kogo chcemy uwierzyć, że tak powiem, no i na tej podstawie wspinać się po rangach właśnie tego systemu wiary, no i w ten sposób zdobywać unikalne nagrody, iść na unikalne misje i wiele,
I na koniec inne wiadomości o tym, że pojawi się Remake The Last of Us 2 na PlayStation już mówiliśmy, ale też mamy nagrody. Nagrody GAConf Awards 2023, czyli to jest konferencja mówiąca o dostępności gier wideo.
No i my jako gracze możemy też takie nagrody dać, właśnie rozpoczęło się głosowanie w wielu kategoriach i tutaj myślę, że warto zagłosować, bo między innymi mamy kategorię najlepsza gra dla niewidomych, zarówno taka niezależna, jak i tak zwana AAA, czyli dużego studia, tutaj no głównie to jest Forza i Mortal Kombat na przykład, więc takie właśnie duże firmy.
Więc warto na te różne kategorie głos oddać pokazując właśnie, które gry dla nas były w tym roku najbardziej dostępne, a trochę tego było, więc myślę, że warto wejść sobie na tą stronę i taki głos oddać.
No i to wszystko ode mnie ze świata gier na ten tydzień, a właściwie nawet na ten miesiąc i chciałem powiedzieć na ten rok, ale kto wie czy jeszcze do końca roku jeszcze coś się nie pojawi.
Tymczasem zaglądam do tego, gdzie i co do nas piszecie i na przykład napisał tutaj Dawid.
Na pytanie Sylwestra odpowiadam, może to mu się wyciszyły komunikaty dźwiękowe i trzeba wejść w profile dźwiękowe i tam w dźwięk i syntezator mowy.
To à propos problemów Sylwestra z Blind Shellem.
Taka odpowiedź i podpowiedź Dawida, być może to rzeczywiście okaże się pomocne.
I w takim razie chyba przechodzimy do następnego newsa, tylko coś mi się tutaj troszeczkę rozleciało, ale już tutaj mam.
Talking Balance, czyli program udźwiękowujący wagi laboratoryjne.
Tak jest, ja totalnie o tym niewiele jestem w stanie powiedzieć, jedyne co wyczytałem to, że takie oprogramowanie istnieje, że ono jest dostępne na stronie talkingbalance.co.uk,
że jest to oprogramowanie, które na pewno współpracuje z dwoma modelami
WAG takiej firmy RS-Pro.
To jest dość znana firma, tyle wiem.
Jest ona znana wśród producentów tego typu sprzętu,
bo to są takie specjalne WAG-i, które
chyba najbardziej to w różnego rodzaju laboratoriach chemicznych się przydają
i w takich sytuacjach one mogą być pomocne do
odważania jakichś bardzo, bardzo precyzyjnych dawek różnych substancji,
no bo czasem to jest naprawdę bardzo istotne.
No nie są to jakieś bardzo tanie urządzenia, natomiast dzięki tej aplikacji
i połączeniu odpowiedniego z komputerem jesteśmy w stanie odczytywać z tej wagi pomiary.
Więc jeżeli na przykład słuchają nas osoby, które będą miały ochotę zająć się chemią, albo już być może się zajmują, albo być może niektóre szkoły średnie nawet są w tego typu rzeczy wyposażone,
No to może warto sobie to sprawdzić, warto sprawdzić te aplikacje i cóż, może akurat będzie warto z niej skorzystać, bo urządzenie, które posiada wasze laboratorium będzie z nią kompatybilne, no i będziecie mogli jakoś bardziej aktywnie uczestniczyć w tego typu doświadczeniach.
Tak, a teraz, jeżeli ktoś chciałby pobrać instalator jakiegoś programu, czy tam w ogóle jakiś tam, no program czasami jest nie w formie instalatora, z GitHuba, czyli tego serwisu takiego, w którym umieszczane są kody źródłowych programów i to jest generalnie jakaś przestrzeń dla programistów,
programów, które mają otwarte źródło, czyli takich, które każdy może edytować, czasami tam, no umówmy się, nie tylko są programy, tam są wtyczki do NVDA, no w sumie to też jest trochę program, ale no to nie jest taki program EXE, tam są czasami jakieś zbiory tekstowe i inne takie rzeczy.
W każdym razie, jeżeli chcemy pobrać to, co autor uznał za ten tak zwany realist, czyli taką wersję już gotową, no to z reguły jest to problem, bo trzeba wchodzić w odpowiednie linki, rozwijać, szukać najnowszego, ale jest prostszy sposób, Pawle.
Zgadza się Tomku, to co mówisz jest prawdą, zwłaszcza że te dwa sposoby, o których dzisiaj powiem, powstały zaledwie dwa dni temu i to jest też potęga społeczności, bo ktoś wrzucił pomysł, ja to trochę pociągnąłem, ktoś potem pociągnął to co ja pociągnąłem i tak się siłą kuli piguły śnieżnej na Mastodonie rozkręciła dyskusja i w wyniku tejże mamy teraz zarówno dodatek do NVIDIA, który nam pomaga w ściąganiu tych rzeczy,
jak i serwis internetowy.
Pierwszy to pierwszy, czyli dodatek stworzył, no też na moją troszkę prośbę,
Kostiantyn Glatki z Ukrainy, ten który stworzył Unigrama+, Whatsappa+, itd.
W komentarzu będzie link na Dropbox, wystawiłem tam ten dodatek.
Wystarczy go zainstalować, nacisnąć skrót NVIDIA ALT G, pojawi się okienko dialogowe,
Wklejamy tam link do repozytorium na githubie, czyli tak jak my czasami podajemy w tyflo podcastach gdzieś tam w naszych komentarzach github.com
slash tam czyjaś nazwa użytkownika, slash nazwa repozytorium, wklejamy to, naciskamy OK.
No i przy założeniu, że przy danym ostatnim wydaniu jakiegoś programu jest tylko jeden plik do pobrania, albo tam jeden nvidia addon, albo jakieś jedno exe.
Nie, że różne pliki, różne wersje tam na Maca, na Windowsa, na Linuxa,
to on sobie poradzi z tym bez problemu i nam to od razu ściągnie i zapisze w pobranych.
Tam będzie okienko, że coś tam downloading, czy nawet nie, będzie po prostu kilka okienka takiego, trochę przywieszonego tej wtyczki,
po czym będzie pobieranie ukończone, no i klikamy przycisk Open i otwiera się folder pobrany.
No i wrzuciłem tę wtyczkę na Mastodona pod rozwagę społeczności.
No i się odezwały głosy, że w sumie czemu to robić jako wtyczkę do NVIDIA, przecież to nie musi być, przecież to jest, to byłoby fajne jako program komputerowy, a w sumie nie program, w sumie fajnie jako aplikacja webowa, ale po co aplikacja webowa, to w sumie zróbmy stronkę.
I James Scholes, taki brytyjski deweloper znany m.in. z takiego programu jak Codex
do konwertowania różnego rodzaju formatów książek między sobą,
stwierdził, że w sumie to on tam zrobił taką na szybko wersję takiego
konceptu tego, o czym mówiliśmy.
I tak powstała strona gitrls.com i działa to w ten sposób, że jeżeli mamy znowu
adres do jakiegoś repozytorium, na przykład dzisiaj na główkach w newsach
podam adres do repozytorium Jamesa Teja z wtyczką, o której będę za chwileczkę jeszcze mówił o NVDA.
No to w tym adresie, w tej części github.com, to właśnie hub, zamieniamy na rls, tak żeby było git rls.com
i tam właśnie jcsteh
slash tam nvda
coś tam lamacpp
coś tam
no i taki link wklejamy enter
i teraz
jeżeli najnowsza wersja no podobnie jak w przypadku
tej wtyczki dla nvda
posiada tylko jeden plik
powiązany ze sobą
czyli ten właśnie nvda addon albo jakiś jedno exe
albo coś podobnego
to
to od razu rozpocznie się pobieranie.
Natomiast jeżeli tych plików jest więcej,
to wyświetli się nam stronka,
z której możemy po prostu sobie wybrać odpowiedni link
i pobrać to, co nam potrzeba.
Więc teraz, już jak znajdziecie jakiś link
czy od nas, czy skądkolwiek indziej,
na GitHuba do jakiegoś fajnego programu, wtyczki, czy czegoś,
to wystarczy tylko albo użyć tej wtyczki do NVDA,
albo właśnie w github zamienić hub na rls
i sobie pobrać, więc już będziecie wiedzieli co robić
no z tym git rls trzeba uważać
bo mi już się dzisiaj udało
literówkę zrobić i napisać girls.com
ja nie odpowiadam za to co na tej stronie się wyświetli
więc lepiej sprawdzajcie sobie
to czy dobrze napisaliście adres
i czy nie macie w nim literówek
ale sposób muszę przyznać fajny
na to, żeby sobie coś z GitHuba ściągnąć i ja się cieszę, że tego typu pomoce
powstały, bo wielokrotnie nam zgłoszaliście, że macie z tym GitHubem problem, no i ja się nie dziwię.
Tymczasem po raz kolejny dzwoni do nas Maciek. A z czym, Maćku, tym razem do nas dzwonisz?
A w zasadzie z pytaniem. Cześć, po raz trzeci chyba.
Witam.
Tak, skoro Paweł przy głosie był, to ciebie, Paweł, ja zapytam w ogóle
Na wstępie dzięki za ten sposób z GitHub
bo zwłaszcza z tą wtyczką Mikołaja
swego czasu to się mocno napociłem żeby pobrać
mimo, że inne rzeczy tam w ogóle
wchodziło w grę, klonowanie repozytorium, coś jakieś dziwne rzeczy
bo tak standardowo pobieranie nie wchodziło
w grę i w sumie ciekawe czy w ten sposób też by się udało
tę wtyczkę, bo aż potem spróbuję sobie to sprawić
Zobacz, jeżeli ona jest jako release wydana to bez problemu
jeżeli ona jest po prostu w repozytorium jako kod źródłowy to nie tą stroną.
Ja jeszcze musiałbym poszukać, ale jest taka strona, gdzie też coś się w githubie,
a chyba ssgithub.com, jeszcze to sprawdzę za chwilę.
I to jest taki znowu adresik, który sprawia, że pobieramy całą zawartość repo jako zip.
Okej, a to też w sumie warto.
A ta pierwsza to grls, tak?
Git rls.
Znaczy git rls, a okej.
Git rls.com.
A co do tego Amazona to tak mnie wręcz zafascynowało i zainspirowało, żeby zadzwonić, bo przyznam się szczerze, że ja ani razu jeszcze w sumie na Amazonie z tego co pamiętam na kapcze nie trafiłem, więc to też jest bardzo ciekawe, ciekawy przypadek.
Natomiast właśnie ty masz włączoną tą
automatyczną weryfikację kapczy żeby
żeby tam gdzie to możliwe żeby pomijało
te kapcze to domyślnie powinno być
włączone ale to jest fajne.
O to ci chodzi.
No no nie nic takiego nie włączałem.
Wiesz co to domyśle domyśle powinno być
włączone ale sprawdź sobie wiesz co
jak ten bo to jeżeliby to działo bo
ja ani na maku u siebie nie
nie nie spotkałem się w safari ani na
a w iOS-ie też sobie wszedłem, bo tak to zwykle niby z apki mobilnej korzystam, Amazonu i tam no też nie miałem niczego podobnego,
ale w Safari też czasem się zdarzy na iPhone’ie, bo coś tam,
o nawet ostatnio chciałem jakąś fakturkę za coś tam wydrukować, bo komuś coś tam prezent, znaczy kupowałem i tak dalej
i żadnego kodu właśnie nie było, kapczy,
więc wiesz, w ustawieniach, w imię i nazwisko, w logowaniu i zabezpieczenia tam na samym końcu będzie stosowna opcja, no
być może warto sprawdzić,
Bo też nie wszystkie strony mają zaimplementowane serwisy, ale być może Amazon ma.
To jest jakoś losowo, bo teraz na Windowsie otworzyłem stronę Amazonu i nie mam tego kodu.
Na pewno mi się raz wyświetlił, a też inna osoba na Mastodonie na to narzekała.
Jak coś się zderzeczy.
To w ogóle w Kanadzie, więc zupełnie inna geograficzna lokalizacja. Myślę, że coś tam globalnie się podziało.
A jeszcze odnośnie właśnie tej predykcji tekstu, jak predykcji, no fajnie, że to weszło właśnie, ten też dla polskiego.
Ja sobie swego czasu, jeszcze jak to nie było w polskim, a po niebiecku sobie też w ten sposób pisałem w sumie troszkę.
I w sumie fajnie działa, no fajnie, nie, fajnie.
No na pewno lepiej jak dłubanie na klawiaturze ekranowej tak stricte, prawda, i jeszcze te diakrytyki i ten, więc w sumie spoko, że to weszło.
Natomiast, no i też jest fajne, że w VoiceOverze VoiceOver to swoją drogą, że można sobie to z pokrętła włączyć.
Też ciekawy jest sposób tej implementacji, bo tak naprawdę to jest ustawienie stricte.
To nie jest dostępności VoiceOvera i tak dalej, tylko to jest tak naprawdę w ogólnych i w klawiaturze,
więc w ogóle to jest ciekawe jak Apple to rozwiązało, że z poziomu pokrętła VoiceOver to można sobie manipulować.
Pewnie widzący mają jakiś gest, który to włącza i wyłącza.
A może też.
I my nie mieliśmy alternatywnej metody, więc zrobiono to jako pokrętło.
Ja się tak domyślam, że to tak jest, bo to jest dla widzących normalnie opcja też bardzo przydata.
Tak się też szybciej pisze.
Sama popularność klawiatury Swype na Androidzie i na iPhonie myślę, że pokazuje, że dla widzących to jest też fajne rozwiązanie.
No a dla nas, jak widać, no również szkoda w sumie, że te propozycje, które są nad klawiaturą nie są spokrętła do wybrania. Tylko jak są błędnie zapisane wyrazy, to wtedy podpowiedzi są spokrętła.
A tych podpowiedzi takich to nie ma. Szkoda trochę. To mogłoby być.
Natomiast no właśnie ciekawe czy kiedyś dodadzą jak na zasadzie do tych jak to się nazywa dostępne dostępne emoji zastępcze i coś takiego nie to ten na pokrętla akurat można wtedy sobie zamieniać no to tak jest spoko no i właśnie w tej klawiaturze tam można można właśnie wybrać czy my tą predykcję chcemy mieć włączoną czy nie czy usuwać całe narysowane wyrazy co pokazywałeś czy nie się tym można też fajnie
pobawić jakby to może lepiej nie ruszać ale jakby komuś nie pasowało coś to tam
właśnie to można wyłączyć i w sumie tylko głupio strasznie że to na że tego na
ipadzie nie ma a na ipadzie tego nie ma i to jest strasznie dziwne bo
próbowałem mamie bo ona to szkoda no ona tam się było dobre
tak no to po prostu wiesz ale znaczy no właśnie jest pisanie odręczne i w ogóle
tylko coś z tego jak to nie jest to jak to nie jest to a i tak no właśnie
A i tak to chyba w polskich zdaje się, że nikt, a nie, właśnie.
Ale takie rysowanie, no fajne by to nałożać, zdecydowanie dyktowanie by zaoszczędziło.
Ale rzeczywiście, no na iPadzie tego, tego też nie ma.
Właśnie tak, z takim rozczarowaniem i ja i mama właśnie, bo tam dubała coś sobie w przypomnieniach i no, no niestety.
Także tak, jakby ktoś szukał tego na iPadzie to, no niestety.
No to ja, ode mnie tyle.
Tytułem.
Dzięki Maćku.
Ja jeszcze szybko sprawdziłem
i to jest rzeczywiście fajny tip.
Jeżeli chcielibyście wpisać
emoji na szybko i nie szukać
po całym panelu,
napisać jakieś słowo powiązane w brajlu
nawet na ekranie wprowadzenia
brajla, wprowadzić
jakieś słowo związane z tym emoji
na przykład mikrofon, zrobić
spację, przekręcić rotor znowu
na jakieś normalne znaki,
słowa, znaki, wyrazy czy coś i nad klawiaturką
będzie podpowiedź do emoji. To jest niby takie proste.
Dla tej predykcji. No, a widzisz.
To jest takie niby proste, a jednak się okazuje,
nie wpadłem na to. To jest coś, na co osoba widząca by
pewnie wpadła, bo to widać wizualnie, jakby tak…
No właśnie, a VoiceOver tego nie czytał po prostu,
że coś tam jest.
Ale ciekawe, ile osób niewidomych o tym wie, bo
nie wpadłem na to w sumie, a zdarza mi się często, że
chcę jakoś emoji, wzbogacić mu jakiś tekst.
Natomiast zazwyczaj szukałem po całym panelu, a tu to jest takie proste, że po prostu wpisuję jakieś tam słowo klucz i przekręcam rotor i po prostu nad klawiaturą sobie palcem wyeksploruję.
No szczerze mówiąc to ja w ogóle o tym, że z poziomu tych predykcji można wstawiać emoji to się dowiedziałem dzisiaj od ciebie, za co dziękuję.
No w sumie jakoś tak, no słowa na słowa, no często gęsto się w brajlu pisze, jakoś się nie eksperymentuje, to w sumie jakoś tak na czeli na to, czyli rzeczywiście nie wpadł.
Znaczy, trzeba się będzie tym pobawić rzeczywiście szerzej, no i co, no cieszę się też, że te szybkie ustawienia voice-overa są, nie, że człowiek może sobie na przykład takie, nie wiem, rozpoznawanie obrazków na przykład, czy rozpoznawanie ekranu, czy czegoś na przykład walnąć tam w szybkie ustawienia,
A ten a na przykład te rzeczy żeby pokrętła na przykład nie zawalać sobie wsadzić tam nie wiem na główki jakieś tam łącza i tak dalej szybką zmianę prędkości czy coś nie.
Fajnie podoba mi się rozgraniczyło bo można jeszcze fajnie że są gesty że w ogóle gesty można do gestów przypisywać rzeczy.
No i ja mam nadzieję że w przyszłości będzie się dało też akcji wykorzystać do takich rzeczy.
No dokładnie, bo teraz zwłaszcza, że jest jednokrotna, można tylko ten przycisk grać, jakby go wzbogacili o większości, żeby go można było bardziej konfigurować, żeby można było go więcej razy np. wciskać, żeby jakieś tam czynności wykonywać, żeby też nie było głupie.
I to jest jeszcze taka fajna, w sumie ciekawe, jakby tak więcej ludzi do tego, w ogóle co myślicie o tym, żeby wejście ekranu Braila, zresztą no nie ja jestem pomysłodawcą, nie jestem autorem tego pomysłu, a też się dziwię jak mogłem na to nie wpaść.
Żeby wejście ekranu Brailla, to się w komentarzach pojawił ten pomysł pod tym podcastem mojego wejścia ekranu Brailla, żeby przekręcając iPhone’a poziomu, żeby się od razu wejście Brailla aktywowało w sumie.
To zależy. Można by to mieć jako opcję. Na pewno jako opcję, może na pokrętle, może nie. To jest dobre pytanie.
Natomiast mogę sobie wyobrazić sytuację, w której ktoś może sobie pracować w ekranie poziomym, zwłaszcza jak ma wtedy szerszą klawiaturę.
To nie jest takie samo domyślne, ale jako opcja byłoby to fajne.
No, tak właśnie tam napisałem w tym,
opinię w test flyer, w feedbacku
na tej asystencie. No, w sumie ciekawe, jakby tak więcej ludzi
na Apple AccessBT choćby nawet napisało, żeby
coś ciekawego się gdzieś tam pojawiło fajne.
Napisz na AppleVis na forum. Na AppleVis na forum trzeba napisać
i zobaczyć, co ludzie z tą sugestią zrobią.
No, dobra. No to dzięki.
To ja już skończę. Na razie.
Dzięki Maczku za telefon. Dobrej nocy.
To przechodzimy chyba znowu do kolejnego newsa, czyli do newsa takiego, że polski Amazon chce zatrudniać osoby niewidome.
Tak, na Facebooku pojawiła się taka informacja, którą teraz pozwolę sobie przeczytać.
Mam przyjemność poinformować, że w najbliższy piątek, to jest 8 grudnia o godzinie 10.00 wspólnie z dyrekcją Centrum Logistycznego Amazon WRO2 w Bielanach Wrocławskich
organizujemy pierwsze spotkanie informacyjne dla osób niewidomych i niedowidzących.
Spotkanie kierowane jest dla kandydatów do pracy w Centrum Logistycznym Amazon WRO2 w Bielanach Wrocławskich.
Jeśli znacie zainteresowanych, serdeczna prośba o to, aby podzielić się z nimi informacją o tym wydarzeniu.
Gdzie odbędzie się spotkanie?
Dolnośląski Specjalny Ośrodek Szkolno-Wychowawczy nr 13, ulica Kamiennogórska 16, Wrocław.
I to będzie w Auli w najbliższy piątek o godzinie 10.
Zapraszam serdecznie, Robert Warchalewski.
I tu jeszcze taka informacja króciutka z Amazona, czyli u źródła, w przyszłości mamy nadzieję wprowadzić spotkania informacyjne do stałego harmonogramu naszego centrum logistycznego.
Jesteśmy pierwszym magazynem w Europie, który wprowadza projekt Homer, zatrudnienia osób niewidomych i słabowidzących.
No ciekawe, przede wszystkim, i to już się pojawiły takie komentarze, no po pierwsze na temat tego, no, że zatrudnienie gdzieś tam w Amazonie, że z warunkami pracy to jest różnie i tam wiele kontrowersji jest na ten temat
i pytanie jak to będzie wyglądało, no ale to wiadomo, że różnie to z tym bywa, opinie też są różne na ten temat, natomiast zdecydowanie bardziej ciekawe komentarze dotyczyły tego i ludzie zastanawiali się
w jakim charakterze ci niewidomi będą pracować w tym centrum?
No ja się domyślam, że to może być jakaś forma supportu, wsparcie techniczne, jakieś tam kwestie, gdzie
raczej będą rozmowy telefoniczne, jakiś może CRM, e-mail, coś tego typu.
Czyli raczej praca biurowa, praca biurowa.
Tak mi się, tak mi się też wydaje, no bo, no coś, coś tego, chociaż nie wiadomo,
może będą szukali specjalistów, trzeba będzie zobaczyć, jak to właśnie jest przemyślane.
Ciekawe to jest, no ja się starałem np.
o pracę jako IT support pierwszej linii, czyli taki, który zbiera zgłoszenia.
Zasadniczo to może jedynie doradzić, nie wiem, wyłączenie i włączenie komputera jeszcze
raz, ewentualnie instalację drukarki, a takie bardziej skomplikowane rzeczy przekazuje na
poziom wyżej do second level support.
No i gdzieś tam niestety okazał się jakiś problem z zatrudnieniem.
Czemu? Do końca nie wiem, to zostaje już tylko w kwestii w tym momencie mojej
kreatywności w wymyślaniu teorii.
Co mogło tam im nie zagrać pójść nie tak w tej konkretnej firmie, gdzie ja
próbowałem. No bo niestety ze strony samej firmy na jakieś bardziej szczegółowe
wyjaśnienia liczyć nie mogłem.
Może Amazon ma tu przemyślane jakieś procedury,
wszak w Stanach niewidomek zatrudniali,
więc no może jakiś tam transfer wiedzy nastąpił,
można na to liczyć.
Ja, wiecie, zawsze to jest jakieś miejsce pracy
i zawsze można mieć nadzieję,
chociaż nie wiem, ty Michale pewnie bardziej
czytasz różne grupy i wiesz,
że można by liczyć nawet na podobnych stanowiskach właśnie,
jakichś takich, gdzie obsługujemy klientów
czy jakoś telefonicznie tą pracę wykonujemy, tak biurowo, na wyższe stawki niż tam,
gdzie do tej pory można było taką pracę. Dostać być może w jakiś sposób tam lepsze,
lepszy system ochrony, taki korporacyjny tego pracownika jest, jakieś tam benefity,
jakieś tam ubezpieczenia, coś tam.
To też prawda, aczkolwiek też trzeba brać pod uwagę, że pracownicy centrów w Amazonie,
jak dobrze pamiętam w Polsce, no to też jakieś strajki podnosili.
Tak, tak, no jakby jest jasna sprawa.
Byli niezadowoleni, natomiast no to tyczyło się pracowników przede wszystkim takich właśnie magazynowych, jak dobrze pamiętam.
Kurierów też chyba.
Tak, tak.
Taki się ukuł termin, tak, kołchoz Amazonu. Już się z tym spotkałeś.
Tak, więc ja nie przypuszczam, żeby akurat niewidomych chcieli obsadzić na tych konkretnych stanowiskach.
Aczkolwiek, no, ja słyszałem o różnego rodzaju systemach pickingowych, też m.in. takich, czyli system pickingowy to jest taki system, który mówi i który jakby wskazuje konkretnie, co dany pracownik ma w tym momencie zrobić, to znaczy one są zazwyczaj jakieś za pomocą sygnałów świetlnych,
Ale być może Amazon ma zamiar przetestować jakiś taki system pickingowy, który udzielałby komunikatów głosowych i byłoby to na tyle dostosowane, że też niewidomy mógłby pracować właśnie w ramach takiego magazynu, takiego centrum logistycznego, właśnie zbierając różnego rodzaju towary.
Chociaż ja tu powiem szczerze, trochę obawiam się co na to lekarz medycyny pracy i jak wyglądałaby kwestia związana z BHP.
No może być ciekawe, natomiast wiecie, tak czy inaczej, duża firma chce zapewnić osoby niewidome.
Zobaczymy oczywiście co z tego wyjdzie, być może ktoś się tam zgłosi, być może za jakiś czas zaczną gdzieś spływać jakieś informacje,
ale żeby nie było, informacja jest i jest lepsze.
Jeżeli jesteście z Wrocławia lub okolic, albo macie możliwość do piątku się tam wybrać,
no to myślę, że rzeczywiście warto, szczególnie jeżeli szukacie pracy,
to rzeczywiście warto zasięgnąć języka przynajmniej.
Tak, być może spróbować, no jest to jakiś tam kolejny pomysł dla ludzi,
którzy tej pracy nie mają, a niestety lub niestety, raczej niestety,
takich osób jest dość dużo. Następny news ode mnie, chyba jedyny ode mnie, chociaż nie, nie jedyny, ale to później. Be My.ai i Think.ai w końcu na Androida. Be My.ai to powiedzmy sprawa znacznie bardziej świeża niż Think.ai,
No bo mimo jej pojawiło się na iOS-ie dla wszystkich powiedzmy w listopadzie i w gruncie rzeczy dla wszystkich chyba w Androidzie jako beta, co prawda publiczna,
ale albo już nie, pojawiła się jakoś już, więc jakkolwiek te bety takie prywatne pojawiły się na iPhonach dużo wcześniej, no to jednak wersja na Androida pojawiła się już w miarę szybko.
No i teraz, ja sobie to zainstalowałem u siebie, bo mam Androida chyba jako jedyny w tym momencie z naszej trójki redaktorów cyfrowego przeglądu.
Ja ostatnio też mam, ale szczerze mówiąc, jeszcze się troszkę znowu przyzwyczajam do tego systemu, nie chwytam go tak intuicyjnie jeszcze, żeby coś potestować, też nie ukrywam, troszeczkę z czasem u mnie ostatnio ciężko, ale też mam jakieś takie zakusy na to, żeby tego Seeing AI-a przetestować.
Otóż BMI-AI, no tak, to okno BMI-AI jest całe pisane po angielsku, w IOS-ie jest już opisane po polsku. Znaczy kontrolki także, zrób zdjęcie jest po angielsku, tam zakończną rozmowę też jest po angielsku.
Natomiast na szczęście domyślnie ten asystent, ta sztuczna inteligencja komunikuje się z nami po polsku, o ile oczywiście mamy ustawiony język polski telefonu.
I wydaje mi się, że nie ma jeszcze w Bimaya, chociaż muszę to sprawdzić, nie ma jeszcze udostępnienia obrazu tam, żeby można było sobie tam udostępnić obraz i go sprawdzić, tak jak np. robimy to na iOSie, żeby na przykład WhatsAppa z Facebooka sprawdzić sobie zdjęcie, no tu się niestety jeszcze nie da. Mam nadzieję, że to się zmieni.
Ostatnio z Facebooka to zniknęła w ogóle ta opcja czegokolwiek wysłania do Be My Eyes na iOS-ie, niestety, teraz już nic się w ogóle tam nie da wysłać.
Przypuszczam, że po prostu to wynikało z tego, że no części rzeczy zwyczajnie się nie dało przesłać, więc teraz stwierdziłem, dobra, to na razie to wyłączymy i nie można wysłać nic.
Teraz trzeba zawsze zdjęcie zapisać, a dopiero potem z galerii wysłać do Be My Eyes.
No to tak, żeby nie było za prosto. Natomiast, no druga rzecz, no to Sink.ai, Sink.ai jest po polsku, natomiast no u Sink.ai nie ma mechanizmu udostępniania zdjęć, więc jeżeli chciałbym sobie coś udostępnić do Sink.ai, no póki co nie ma takiej możliwości.
No i to rzeczywiście już od dawna miało być, miało być, miało być, nie było, nie było, no w końcu jest.
Czyli Tomku, w Sink.ai nie masz, a jak jest z przeglądaniem biblioteki zdjęć? Masz możliwość z poziomu Sink.ai?
Wydaje mi się, że nie. W ogóle tam pisali właśnie, że na razie w ogóle są problemy ze zdjęciami zewnętrznymi.
Mam nadzieję, że to będzie w jakiejś tam, mam nadzieję, bliższej przyszłości, ale póki co trzeba czekać.
Tak czy inaczej, no dobrze w ogóle coś jest, bo tych aplikacji robi się coraz więcej i w tym momencie w zasadzie na Androidzie, nie pamiętam, czy nie ma jakiejś takiej aplikacji, która rzeczywiście jest używana przez ludzi na iOSie do rozpoznawania zdjęć, której by nie było na Androidzie, no bo Envision mamy,
SYNC-AI mamy, teraz BMI-AI, CBMI-AI też już jest, tylko że nie u wszystkich, na przykład Paulina, której dzisiaj nie ma, też mówiła ostatnio, że jeszcze tego nie ma.
Została ta funkcjonalność w ogóle udostępniona w poniedziałek, natomiast też twórcy mówią, że to parę dni będzie trwało to udostępnianie różnym ludziom,
Więc prawdopodobnie niektórzy będą mogli to dostać nieco później.
No i na Android jest Google Lookout, którego z kolei na iOS-ie nie ma, a szkoda, bo to jest moim zdaniem naprawdę bardzo ciekawa aplikacja i naprawdę potrafi rozpoznawać teksty,
Np. w przypadku poruszania się, jak testowałem CKI i Envigen to był z tym problem, jakoś ten lookout najlepiej sobie radzi z taką sytuacją, że idę sobie wzdłuż jakiegoś pasażu handlowego i po prostu odczytywane są, mniej więcej oczywiście, bo różnie to niestety bywa,
Ale mniej więcej odczytywane są nazwy sklepów, czasem godziny, czasem jakieś reklamy, oczywiście nie mniej to wszystko jest czytane w momencie gdy sobie po prostu idę.
Oczywiście nie zawsze, nie wszędzie, nie mniej to się zdarza, natomiast Thinkei i Envision dość często milczy, muszę stanąć, skierować aparat i sprawdzić.
Więc jeżeli mam jakieś miejsce, gdzie chcę iść i w sumie nie do końca wiem, gdzie to jest, to co chwilę muszę przystawać, patrzeć tym telefonem, gdzie może coś tu jest, może coś tu jest, może coś tu jest i Lookout tu się sprawdza według mnie najlepiej.
Ale będę jeszcze testował Sync.AI na Androidzie, bo być może to jest kwestia na przykład Androida. Także na pewno, na pewno będę to sprawdzał.
A tymczasem mamy telefon kolejny. Jest z nami Grzegorz. Dobry wieczór Grzegorzu.
Nie spodziewaliście mnie o tej godzinie pewnie.
A dlaczego? Jeszcze tak widzę, że wiele osób jest z nami, że wiele osób jeszcze nie śpi i mam nadzieję, że tak zostanie.
Słuchamy cię. Co masz nam do powiedzenia?
Wcześniej to tam no nie mogłem ale to później powiem, a teraz
no na temat właśnie bimai i.
Poniedziałek właśnie no taka, niespodzianka po prostu wyszła
, że, że oba te rozwiązania poszły na androida, No i tak.
Co do BeMyEye, to dostałem tę opcję bez aktualizacji aplikacji.
I tam właśnie faktycznie te przyciski były po angielsku.
I ta etykieta, tam gdzie się tekst wypisuje, to tam było po angielsku.
Ale dzisiaj przyszła aktualizacja samego BeMyEye
i to zostało przetłumaczone na polski,
że nie jest tam, nie pamiętam jak to po angielsku tam było, zrób zdjęcie, że coś.
W każdym razie już teraz jest po naszemu.
Tak, tak. No i faktycznie nie ma udostępnienia z Be My,
no to znaczy z innych aplikacji do Be My Eyes nie ma.
Ale tak, no co testowałem, no różne krajobrazy, fajnie to opisuje.
Co do dokumentów, to bardziej tak opisuje sam dokument niż tak czyta, co nie wiem.
A jak go poprosisz, to zachowuje się jak? Jak go poprosisz, żeby ci jednak podał tekst?
Jajko, to tego nie testowałem. Zdarzało mi się, że dwa razy się ten BMI się wysypał, tam był on chyba 400 coś tam, ale to było dwa razy.
Ale tak ogólnie właśnie Be My Eye jest już normalnie na Androida i no tylko tam parę dni, tam pewnie, no bo też dostałem maila od twórców, że tam parę dni potrzebują na ogarnienie.
No i dalej, Senkai, tutaj, no to pierwsze, dokument, jak zrobiłem zdjęcie, to po prostu jak skan, bym to robił skanerem po prostu i jakimś upbiffanym readerem czy czymś tam normalnie.
Ani jednego błędu normalnie nie było.
No więc tutaj świetnie.
Rozpoznawanie jakichś zdjęć osób to też fajnie, nawet wychodzi.
No i jest udostępnianie do SYNC.AI na Androidzie.
Ja to próbowałem mieć i z Facebooka, i z Solid Explorera,
czy z jakiejś galerii dać udostępnić.
Jest do wyboru SYNC.AI.
No i jak się da synk, to sobie tam czyta.
Tam przy jednym właśnie dokumencie mi się apka wysypała.
Nie wiem czemu, ale to nie żart.
Ale przeczytałem i wreszcie to jest tak.
Na początku jest taki krótki opis, dwa, trzy zdania.
No i takie ciekawe opcje, więcej szczegółów pamiętam, to jak się to kliknie, to się tam bardziej rozpisuje w szczegółach na zdjęciu, co, gdzie, jakie tam tło, jakie co, jakie wszystko.
No i druga opcja to jest eksploruj, to co jest na iOS-ie to było, czyli ruszasz normalnie palcem po ekranie.
Tak i on mówi gdzie znajduje się dany obiekt, co masz pod palcem.
Tak, tak i to samo jest na Androidzie.
No więc no Tomek udostępnianie do Sync.ai jest na Androidzie.
A widać, jakoś mi to musiało umknąć.
Trzecia rzecz to jest Talkback i do czego się aktualizacji.
aktualizacji. Co ciekawe, pisało o tym kilka serwisów technologicznych,
tam Speeders Webby i te inne takie.
No i faktycznie przyszła ta aktualizacja dotycząca.
A to co to całe resztę tam braile tego, to ja tam się nie znam, bo tam braile nie
umiem, ale opis obraz jest coś takiego, taka opcja.
Przecież nie ta opcja, jak się ją wybrało, to czytała tylko tekst z danego jakiegoś obrazka, który był pod pokusem.
Teraz można poprać dodatkowy jakiś tam moduł, model czy coś tam do opisywania obrazów.
No i jest tak, opisy są krótkie, no bardzo krótkie, jedno zdanie dosłownie może tego i po angielsku.
No i potem, no tam teksty, jeżeli coś był jakiś tekst, no to po polsku normalnie przeczytam.
Więc tutaj Tokbek, no dostał taką nową opcję.
Kolejna rzecz to jest Polish Large Language Universal Model.
To nawet pisałem na kontakt Tyffla Podcast.
Mniej więcej chodzi o to, że kilka instytutów,
między innymi NASK i inne, tworzą polski model językowy,
który, ma być konkurentem dla, zachodnich modeli, gbt.
Ma być tam, no bardziej, ukierunkowany na polskie teksty
na polskie tego no, na razie nie można tego przetestować
bo szukałem a chciałem i, niestety, nie mogłem, no może
Bo ten model Grzegorzu, to on jest dopiero opracowywany, więc zanim to zostanie wszystko wdrożone, to jeszcze, jeszcze.
Kolejna rzecz to jest nowe korsorcjum. Powstało korsorcjum AI chyba mniej więcej.
Tworzą takie firmy. Dużo tych firm też gdzieś to tam czy tam Meta m.in. Google.
To ma działać na zasadzie, to jak na przykład FIDO, albo VOOC, to korsorcium ma się zadzajmować opracowywaniem otwartej sztucznej inteligencji, modeli, etyka, różne rzeczy.
Zgadnijcie kogo tam nie ma w tym korsorcjum. Open AI nie ma.
No cóż, bo być może to ma być jakaś przeciwwaga dla nich.
Sami wiedzą, że OpenAI nie udostępnia swojego modelu jako open source, tylko po prostu zamknięte.
No tak, od pewnego czasu tak właśnie jest. Kiedyś udostępniali szczegółowe specyfikacje, co jak zostało zrobione,
a teraz, no, to jest cała gdzieś tam epopeja, można by powiedzieć i myślę, że o tym można by było długo, Grzegorzu, rozmawiać,
natomiast z racji tego, że mamy jeszcze trochę różnych rzeczy tu do pokazania, opowiedzenia, jeszcze mamy na końcu naszej audycji dziś demonstrację,
więc ja chciałbym zapytać, czy jeszcze masz dla nas jakieś informacje, czym byś chciał się podzielić, czy możemy przejść dalej.
Dwie minuty, dosłownie, dwie, trzy minutki.
No to słuchamy.
Kolejna, no to wysłałem Ci Michała na ten kontakt.
Tak, informacje na temat tych okularów, natomiast no tak jak mówiłem, ja sobie poczytam o tym i jakoś postaram się to też omówić w przyszłej audycji.
Chyba, że Ty coś wiesz na ich temat, że przeczytałeś.
Mniej więcej to chodzi o to, że tam ma być wykorzystywana technologia dźwiękowa,
że tam z samym dźwiękiem ma się rozpoznawać obiekty, orientacje ogólnie w przestrzeni.
Jeśli tam sobie przeczytaj, to mniej więcej o to chodzi,
że nie, że widzi coś tamtego,
tylko, że jakoś dźwiękowo ma reprezentację tego.
Ciekawe, zobaczymy.
Ostatnią rzecz, którą miałem już tam kiedyś, nie chcę się do tego przyznać, ale jakoś tam różne inne rzeczy.
Jakby ktoś się chciał ze mną spotkać, to o to można, bo mam swoje mieszkanie, tam trochę gadałem,
Słuchałem prywatnie różne rzeczy, ale nie będę tu rozstrząsał.
Kiedyś miałem różne inne problemy, ale to nie na tego typu audycja.
Ale ogólnie teraz jest u mnie w porządku, jest spoko.
Myślę, że będę jakieś takie rzeczy towarzyskie rozwijał bardziej,
bo wcześniej nie mogłem, ogólnie mieszkam
koło centrum Sosnowca, tam 5 minut do tego,
więc jakby ktoś chciał, no to można,
no i ja tam jeszcze nie do końca wszystko
pogarniałem. Ale zaczynasz się Grzegorzu jak rozumiem urządzać,
no to gratulacje w takim razie swoich czterech kontów,
to zawsze jest fajna sytuacja i budująca i duży komfort oczywiście też.
Dobrze, to w takim razie dziękujemy ci bardzo za telefon,
pozdrawiamy i dobrej nocy już tak naprawdę teraz, bo to już noc w końcu.
Możemy chyba przejść dalej.
Możemy przejść dalej, no to przechodzimy dalej.
To znowu tutaj news a propos sztucznych inteligencji,
bo powstał ciekawy dodatek do NVIDIA,
No bo GPT-4, GPT-4, no fajnie rozpoznaje, jest płatny, jest online, ale nie wszystko musimy rozpoznawać, nie wszystko chcemy rozpoznawać właśnie w taki sposób, żeby to wysyłać gdzieś, nie wiadomo gdzie, no z różnych przyczyn.
I dla osób, które chciałyby mimo wszystko zachować prywatność, albo chciałyby poeksperymentować, to jest wtyczka, która rozpoznaje otwartymi modelami, które można pobrać na własny komputer, do NVDA właśnie wtyczka, ale więcej szczegółów Paweł.
Tak, wtyczka NVDA LAMA CPP, czyli wtyczka, która korzysta z LAMY, z tych otwartych, otwarto-źródłowych modeli rozpoznawania obrazów od Meta.
Rzekomo pozwala na to, żeby rozpoznawać, zadawać pytania.
Problem jest tylko jeden. Trzeba zainstalować sobie te modele samodzielnie.
tam w RID mi jest napisane jak to wszystko zrobić,
ale no tu już nie ukrywa autor, a jest to James
Tay, czyli twórca NVIDIA i kilku innych ciekawych
osary, kilku innych ciekawych rzeczy, aktualnie pracownik
Mozilla, że trzeba by mieć jakąś fajną kartę
graficzną, która wspiera tą cudę i sobie to wszystko
samodzielnie poinstalować.
Wiem, że ty Tomku w takie rzeczy różne się bawisz, nie wiem ty chciałeś się tą wtyczką bawić
Czy, bo LAMA, my chyba też mówiliśmy o tym, my tą LAMĄ chyba kiedyś się jakimś tam serwisem na bazie LAMY bawiliśmy, a propos opisywania zdjęć i to, nie wiem, czy to było aż, było to aż tak szczegółowe jak chat GPT?
Na pewno nie, na pewno nie.
Na pewno nie, nie. No ale wspierałoby język polski, z tego pamiętam jakoś, jakkolwiek, bo teraz tak porównuję to do tego Exposed Image Captioner, czyli tego na bazie BLEEP-a, tej innej sieci neuralnej, neuronowej.
I tam na przykład jest tylko angielski i nie ma możliwości zadawania pytań, przynajmniej na razie, a tutaj by była, no i pewnie też udałoby się wtedy jakoś zmusić, żeby on po polsku opisywał.
Natomiast właśnie tak pamiętam, że to nie były aż tak dokładne opisy, no ale jakbyście chcieli, bo wy macie taki sprzęt chyba, który to uciągnie, znaczy na procesorze takim zwykłym CPU też by się dało, tylko będzie dużo wolniej.
Tylko ile on będzie generował tę odpowiedź wtedy.
Ja się jakoś zabieram do tego i zabieram, i się nie mogę zebrać, ale no w końcu, w końcu spróbuję chyba, bo sam jestem ciekaw, jak to będzie wyglądało.
No, no to, to tak można by to, można by to zrobić, okej.
I teraz przechodzimy już do newsów bardziej technologiczno-ogólnych, że się tak wyrażę.
I zaczynamy od czegoś co nazywa się klikasz, czyli przesłanie pieniędzy między rachunkami telefonicznymi.
Tak, to jest taki standard, który będą chcieli ustalić między sobą operatorzy telefonii komórkowej i to w Polsce. To nie jest żadna ciekawostka światowa, tylko z naszego podwórka zarejestrowany jest już znak towarowy.
To ma być jakaś taka, nie wiem, czy alternatywa, czy uzupełnienie blika,
gdzie nie będziemy używać naszego konta bankowego,
tylko naszego rachunku telefonicznego, żeby płatności dokonywać.
I ja tu przeczytam artykuł może z Cashlessa, żeby czegoś nie przekręcić.
Nowa marka została zastrzeżona w urzędzie patentowym.
Operatorzy telekomunikacyjni postanowili promować usługi płatności
w ciężar rachunku za telefon pod wspólnym brandem.
Klikasz. Clicash się pisze, jakby coś. Klikasz. Płać z komórką.
Polska Izba Informatyki i Telekomunikacji wystąpiła o zastrzeżenie tego znaku w Urzędzie Patentowym.
Poprosiłam Biuro Prasowe Izby o komentarz w tej sprawie.
Misji Polskiej Izby Informatyki i Telekomunikacji jest promowanie rozwiązań oraz dobrych praktyk
wspierających cyfrową transformację oraz upowszechnianie społecznie korzystnych
innowacji. Nie inaczej jest w przypadku znaku towarowego klikasz płać z komórką
czytam w odpowiedzi.
Jest to wspólna inicjatywa członków PIIT z branży telekomunikacyjnej
mająca na celu stworzenie wspólnego brandu dla istniejących już usług płatności
operatorskich, zapewniająca wysokie standardy bezpieczeństwa, promocję płatności mobilnych oraz wzmocnienie zaufania konsumentów i sprzedawców przekazały służby prasowe instytucji.
Oficjalny start nowej wspólnej nazwy dla usług płatności operatorskich zaplanowano na przyszły rok, a logotyp brandu wygląda tak, no oczywiście my się nie dowiemy jak.
Płatności w ciężar rachunku,
tak zwane Direct Carrier Billing,
DCB,
to usługa, dzięki której abonanci telekomów
mogą kupować różne usługi i płacić za nie w ramach wspólnego
rachunku za telefon. W ten sposób można kupować
bilety komunikacji miejskiej i parkingowe w aplikacjach,
płacić za pracę elektroniczną,
filmy na platformach streamingowych czy aplikacje
w marketach Google Play i App Store.
Z płatności operatorskich korzysta
na przykład właściciel platformy
TVN GO,
Netflix,
Sky Cash czy Anypark.
No i to wszystko, co na tej pory
wiemy.
Więc pytanie, jak to się rozkręci,
jeżeli oni pracują nad wspólnym
brendem, to czy to jest tylko zmiana
jakaś techniczna?
Czy naprawdę na przykład ruszy w tym
momencie możliwość takich płatności
przez rachunek jako opcja
obok blika np. w ramach jakiejś bramki płatniczej, że będzie można płacić w ten sposób za produkty, za jakieś usługi, że będzie można komuś wysłać pieniądze.
No to nas wszystko jeszcze czeka w jakiejś najbliższej przyszłości, ale coś w tę stronę się dzieje i coś się w tym kierunku rusza.
No i ciekawe czy będą jakieś prowizje powierane np. jak będziemy sobie jakoś tam chcieli przesyłać pieniądze w ten sposób.
Co by nie mówisz, na pewno rachunki wzrosną.
Tak, tak to na pewno.
Kolejny news mamy znowu od Piotrka, więc będzie w jakimś sensie offline.
Tak jest, a dotyczyć będzie czego?
A dotyczyć będzie iMessage na Androidzie. No właśnie, gdyby tego nie powiedziałem.
Jak wiadomo iMessage jest usługą Apple’owską dostępną tylko na iPhone’ach i Mac’ach.
Są sposoby, żeby to obejść, m.in. jest aplikacja wiadomości na Windowsie, która łączy się z połączonym iPhone’em.
No ale jeśli nie mamy ani iPhone’a, ani Mac’a, a za iMessage chcieliśmy korzystać, no to nie mieliśmy za wielu opcji.
Kilka takich aplikacji powstało, ale one generalnie działały głównie na zasadzie łączenia się z jakimiś Mac’ami,
które gdzieś były w serwerowni producenta w jakiejś chmurze i te maki później łączyły się z naszym kontem Apple, więc musieliśmy też wtedy temu producentowi podać nasze hasło i w ten sposób korzystaliśmy z dobrodziejstw iMessage na innych platformach.
Natomiast takie rozwiązania miały swoje wady, no nie były tak bezpieczne jak oryginalny iMessage, który gdzieś te wiadomości szyfruje, a tutaj one przechodzą przez właśnie gdzieś warstwę producenta, która niekoniecznie musi być odpowiednio zabezpieczona.
No i to był taki właśnie główny problem, natomiast pojawiła się właśnie nowa tego typu aplikacja, która działa zdecydowanie inaczej i to może zapowiadać ciekawe czasy dla dostępu do platformy iMessage właśnie na innych systemach operacyjnych.
Mowa tu o aplikacji Bipper Mini. Bipper to jest w ogóle usługa, która już była dostępna wcześniej i właśnie pozwalała nam łączyć kilka usług w jedną.
To jest taki troszeczkę współczesny, taka współczesna Miranda poniekąd można powiedzieć, bo to jest platforma subskrypcyjna.
To był zmodyfikowany bodajże klient element, czyli to gdzieś działało poniekąd na Matrixie z tym, że mogliśmy się łączyć z takimi współczesnymi komunikatorami,
niektóre często jakichś publicznych API na takie rzeczy nie mają np.
do WhatsAppa, do Discorda, do paru innych rzeczy.
Bipermini to jest aplikacja, która powstaje od zera.
To jest też subskrypcja, ale taka na razie niedroga, bo kosztuje 2 dolary miesięcznie
i na razie daje nam dostęp wyłącznie do iMessage.
Ale jak daje nam do tego dostęp to jest tutaj kluczowa kwestia, bo oto jakiś
16-letni haker, ale tutaj używam tego słowa w pozytywnym znaczeniu, jak najbardziej 16-letni haker z Pensylwanii, posiedział sobie trochę przed komputerem i udało mu się rozgryźć protokół iMessage właśnie, więc jak iPhone’y komunikują się z tym urządzeniem, z serwerami Apple, no i zwłaszcza jak rejestrują numery telefonu przez SMS-y, no i później jak identyfikują się jak iPhone, bo to jest też istotna kwestia, no Apple tutaj sprawdzało, czy ktoś faktycznie łączy się przez iPhone’a z tą muzyką.
Jemu się to udało rozgryźć, no i przekazał gdzieś ten swój projekt firmie Bipper, dzięki czemu powstała właśnie ta aplikacja Bipper Mini, która pozwala nam na wysyłanie iMessage, z tym, że tym razem to wszystko działa wyłącznie na urządzeniu.
To nasz telefon wysyła SMS, żeby zarejestrować numer z serwerami Apple i później automatycznie wykrywa, które z naszych kontaktów korzystają z iMessage, tak jak to robi normalnie iPhone.
No i wtedy możemy brać udział zarówno w zwykłych czatach, jak i czatach grupowych, wysyłać załączniki takie jak zdjęcia czy wiadomości głosowe w dobrej jakości, reagować na wiadomości i wtedy użytkownicy iPhone’ów będą to wszystko normalnie widzieć, z tym że te wiadomości są wysyłane bezpośrednio z naszego telefonu na serwery Apple’a i są od razu szyfrowane, producent też wtedy nie ma do nich względu.
w lądu. No i dzięki temu ta usługa działa lepiej, stabilniej i jest bardziej bezpieczna.
Jest jeszcze jeden sposób, w którym możemy zweryfikować, czy to jest faktycznie
bezpieczne, a mianowicie podstawowy kod źródłowy, jak to wszystko zostało
zaimplementowane, został udostępniony jako przykładowa aplikacja działająca w
języku Python. To jest też w ogóle ciekawe, bo przez to, że takie informacje zostały
upublicznione to kto wie czy za jakiś czas nie będziemy mieć do czynienia z wieloma alternatywnymi klientami do iMessage.
Nie wiem czy np. nie powstanie jakaś wtyczka do Mirandy czy do linuxowych aplikacji tego typu takich jak Pidgin.
Nie wiem. Może może powstanie jakaś Windowsowa albo webowa aplikacja do iMessage.
Zobaczymy. No też oczywiście pytanie co z tym Apple zrobi jeśli coś zrobi.
Jeśli chodzi o te usługi, które działały na podstawie maków, które gdzieś były w chmurze, to od 3-4 lat nic z tym nie robili, więc kto wie czy tutaj też nic nie zostanie zrobione.
Z drugiej strony mogliby uznać, że tutaj gdzieś ich kod został naruszony, mimo to, że to wszystko zostało napisane od zera, nie został żaden kod Apple’a pobrany,
więc tutaj firma myśli, że raczej nie powinno z tym nic być problemu, natomiast też nie wiedzą co bardzo Apple by mogło zrobić, bo raczej nie będą chcieli odciąć starych iPhone’ów w zastępu do iMessage, więc jakiekolwiek aktualizacje też w ten sposób byłyby utrudnione, więc istnieje szansa, że dzięki temu, nie dość, że po pierwsze użytkownicy Androida będą mieli dostęp do iMessage, bo aplikacja już jak jest z jej dostępnością, ale możecie sobie to przetestować, ale kto wie, czy dzięki temu nie
dostaniemy szerszego dostępu do iMessage bo tego typu właśnie przedsięwzięcia jak najbardziej mogą na to pozwolić zwłaszcza biorąc pod uwagę też to co ostatnio zaczęła wymagać Unia Europejska może też firma Apple przez to nie będzie podejmować jakichś kroków prawnych na przykład przeciwko firmie Bipermini ale na razie jeśli gdzieś znajomy którzy korzystają z iPhone’ów i bardzo chcecie i bardzo oni chcą korzystać właśnie z iMessage a nie z jakiegoś innego komunikatora
może chcecie to po prostu sobie sprawdzić no to właśnie aplikacja Bipper Mini jak najbardziej może was zainteresować.
I teraz przechodzimy do, no już tych newsów nie zostało nam dużo, natomiast zabawy z skrótami ciąg dalszy tak jest napisany skrót.
Tym razem szybko połączymy się z urządzeniem audio na bluetooth.
Tak, bo moje eksperymenty z radio browzerem i różnymi innymi rzeczami w skrótach doprowadziły do tego, że skontaktował się ze mną nasz zresztą kolega redakcyjny Edwin Tarka i zapytał mnie, Paweł słuchaj, a czy ty w takim razie umiesz tymi skrótami zrobić tak, że jak ja mam więcej głośników bluetooth w domu i chciałbym się szybko między nimi przełączać, no to, że mogę to zrobić jakoś tam szybko.
I w sumie mi też to chodziło po głowie, bo żeby połączyć się z głośnikiem Bluetooth trzeba wejść do ustawień, wejść do Bluetooth, znaleźć to urządzenie na liście, kliknąć dwa razy.
Czyli nie da się szybciej. No i się okazuje, że się da i tu nam pomógł Reddit, gdzie ktoś stworzył taki skrót i okazało się, że kluczową funkcją jest zmiana kanału docelowego audio.
I kiedy my jesteśmy połączeni z jakimś głośnikiem na Bluetooth,
to na tej liście pojawia się ten głośnik, więc wystarczy go sobie dodać do skrótu
i potem można się na niego przełączyć.
I kompletny taki skrót wygląda w ten sposób, że my sobie wyłączamy Bluetooth,
ten skrót wyłącza nam Bluetooth, odczekuje kilka sekund,
bo widocznie jak za szybko się to potem wyłączy, włączy, to coś tam może nie zadziałać.
Potem bluetooth jest włączany.
Znowu odczekujemy kilka sekund i zmieniamy źródło audio, czy tam docelowy kanał audio
na ten głośnik, który wcześniej w skrócie zdefiniowaliśmy.
No i to się połączy.
Ja to za chwileczkę zademonstruje na iOS 17.
Co prawda otrzymamy komunikat, że coś poszło nie tak, to się nie udało.
spróbuj ponownie, ale połączenie nastąpi, także nie ma się co martwić i dla każdego głośnika bluetooth czy słuchawek czy innego urządzenia możemy sobie zrobić osobny skrót.
Ja to pokażę jak to wygląda w aplikacji skróty. Ja zresztą w komentarzu zamieszczę link do takiego gotowego skrótu, tylko ten gotowy skrót będzie miał wybrane jako urządzenie iPhona, czyli samego siebie,
Więc taki skrót jest bezużyteczny. W tym ostatnim kroku trzeba podmienić to urządzenie z iPhona na to urządzenie, z którym chcecie się tym skrótem łączyć.
Tylko pamiętajcie, żeby Wasze urządzenie Bluetooth się tam pojawiło, to w momencie modyfikacji tego skrótu musicie być z tym urządzeniem połączeni.
No więc, przełącz głośnik, sześć czynności, edytuj skrót.
I co my tu mamy?
Ustaw bluetooth na wyłączony, to jest nasza pierwsza czynność.
Odczekaj trzy sekundy, to jest druga czynność.
Ustaw bluetooth na włączony.
Czekaj 5 sekund.
Tu jest komentarz, że w następnym kroku po angielsku, bo ja ten skrót skopiowałem z reddita,
w następnym kroku wybiera się urządzenie.
Ustaw wyjście od odtwarzania na…
No i tu jest iPhone, aczkolwiek można zjechać w dół na pokrętle.
Urządzenie iPhone i jak tu klikniemy.
No i tu możemy wybrać sypialnia, to jest mój pokój w smart home, więc tutaj mogę wybrać.
Ale gdybym był połączony na bluetooth z jakimś innym urządzeniem, no to bym miał tutaj na tej liście inny głośnik bluetooth.
Ja teraz spróbuję się tak testowo połączyć z moim głośnikiem JBL-em.
Do tego mam inny skrót.
I ja ten skrót teraz uruchamiam.
No i czekamy.
Czyli to jest jakby na bazie tego samego skrótu, tylko że jest wybrany głośnikiem JBL twoim?
Tak, tak.
Czekamy.
Bardzo możliwe, że on potrzebuje trochę czasu, te swoje 5 sekund w tle.
O! Usłyszeliśmy brzdęk z mojego głośnika, skrót został zakończony, czyli wszystko się udało.
Gdybym to wywołał Siri, to miałbym jakieś something went wrong itd.
Ale tutaj się to połączyło jak należy.
No i w ten sposób możecie sobie skonfigurować skrót.
Czy on będzie przypisany do gestu voiceover, czy będzie skrótem na ekranie głównym,
Czy wywołacie go z Siri, czy z Action Button, czy z czegokolwiek innego.
Szybko połączy się wam z wybranym głośnikiem Bluetooth.
No i teraz nie wiem, czy, bo chcieliśmy dać na koniec prezentację, tak, głośnika.
Tak, ale ja jeszcze mam tutaj jeden, jeden news.
No, a ja będę miał dźwięczek na koniec, bo przekroczyliśmy dużo, dużo, ponad 4 godziny, więc będę miał może dźwięczek.
I jeszcze to chwilę potrwa.
Tak, to jeszcze chwilkę potrwa, bo to wcale nie koniec.
To znaczy tak, mam jeszcze news od Arka Świętnickiego, bo okazuje się, jak pewnie część ze słuchaczy wie, że Total Commander na Androida, który jest w sklepie Play, jest trochę ograniczony.
Na przykład nie można instalować aplikacji z tego, co pamiętam z poziomu Total Commandera, być może coś jeszcze.
Natomiast w związku z tym, że Android jednak nadal pozwala na instalację aplikacji z zewnątrz, no to można instalować, znaczy autor udostępnił, chyba już jakiś czas temu nawet,
i instalkę Total Commandera u siebie na stronie.
Wprawdzie to jest taka dość ciekawa…
Znaczy, żeby pobrać Total Commandera ze strony,
to trzeba wejść najpierw na forum.
Czyli mamy coś takiego na stronie jak
server-sites-forum
i pod to nie jest link, jest english.
Wchodzimy na to english.
Po wejściu na to szukamy sobie Total Commander for Android, następnie tc-app-installer standalone available i tutaj w tym wątku gdzieś powinien być już link, bo to jest po prostu wątek.
z napisanym tym instalatorem, no i można go tutaj pobrać właśnie na forum.
Także no taka trochę nietypowa metoda, tego nie ma zdaje się w download, w sekcji download jest napisane, że to jest właśnie na forum,
więc trzeba wejść na forum i tam to pobrać, także tak trochę nietypowo.
Natomiast gdyby ktoś chciał mieć taką wersję Total Commandera bez tych ograniczeń, które Google ma w sklepie, no to można pobrać stamtąd właśnie.
I to jest cius ode mnie. No i czy coś jeszcze ktoś znalazł w trakcie audycji? W zasadzie ode mnie to jest niusodarka bardziej niż ode mnie.
No tylko od słuchacza Dawida przyszły takie dwie wiadomości, że tutaj do słuchacza Sylwestra, że jeżeli jakiś ten problem z tym Blind Shellem wystąpił, to być może chodzi o to, że w ustawieniach wyłączyła się mowa i dźwięki i trzeba poprosić osobę widzącą, żeby weszła nam do ustawień i włączyła, więc może po prostu obejdzie się bez serwisu.
natomiast też napisał, że gra milionerzy u niego na telefonie działa przeglądarkowo.
To może jakbyś Dawidzie jeszcze się linkiem podzielił, która konkretnie,
to by sobie też ludzie chętnie pewnie zagrali.
No a tak, no to jako, że już przekroczyliśmy taki limit czasowy,
że ja aktywuję mój tryb ukrytego bonusa,
no to szykujemy się, moi państwo, na podróż,
bo udostępniam dźwięk
i włączam
No i teraz posłuchajmy.
Hot dog 480 jen, classic hot dog 430 jen.
No i teraz…
Co to jakaś japońska synteza?
Tak, to jest japońska synteza, ale co ona czytała?
To ja bym jeszcze…
Bo to jest opcja, jest opcja, żeby zgadnąć.
Ikony z pulpitu?
Nie, a tu jeszcze puszczę raz, taki bardzo reprezentatywny przykład.
BBQ cheese hot dog 480 jen.
Bardziej coś zrozumiała, że szło?
Nie, no bbq, więc jakiś sos, nie wiem.
Tak, jeszcze raz.
BBQ cheese hot dog.
BBQ cheese hot dog.
Okej.
Tak, przenieśliśmy się do Japonii, gdzie od 2007 roku, o czym dowiedziałem się w ogóle zupełnym przypadkiem, bo Japończycy, a raczej japońska społeczność ekspertów w dostępności cyfrowej,
Ja wiem, że tam no jakby chrześcijaństwo nie jest dominującą religią,
ale stworzyło sobie kalendarz adwentowy i każdego dnia tego kalendarza jakaś
ciekawostka, ktoś z autorów, kto się zdeklarował, pisze jakiś artykuł na temat
dostępności i go pod danym okienkiem udostępnia.
No i przez tenże kalendarz, w ogóle tam jest cała strona taka adventar.org, gdzie ludzie
tworzą różne japońskie kalendarze adwentowe.
To jest w ogóle ciekawe zjawisko.
Natomiast ten dostępnościowy kalendarz to już się tak kręci od dziesięciu lat,
o czym ja nie miałem w ogóle pojęcia.
I teraz sobie czytam różne tłumaczone oczywiście translatorem po japońsku
artykuły o dostępności cyfrowej.
Natomiast tam od już szesnastu lat istnieje taka inicjatywa
jak YouMenu, czyli strona,
gdzie adaptowane są z inicjatywy jakiejś tam jednej czy dwóch firm, menu różnych
restauracji, głównie sieciowych, na format dostępny dla niewidomych.
I to jest tak stara inicjatywa, że tam jeszcze instrukcje się powołują na te
klawiszowe, takie co mówiłem o tym rok temu, telefony tak zwane RakuRaku Phone,
czyli jak wejść na stronę z menu przez Raku-Raku,
naciśnij menu, naciśnij czwórkę, aby wejść do przeglądarki,
naciśnij dwa, aby wejść do zakładek, czyli to jest wszystko
ustawiane pod to, jakby ktoś ustawił nam zakładki w iModzie
chyba jeszcze w ogóle, nie w internecie, tylko w tym japońskim
odpowiedniku mobilnego internetu w iMod.
Jak wejść na stronę restauracji i jak sobie kliknąć,
żeby zapisać menu danej restauracji w formie offline, żeby nie były naliczane opłaty za iMode
i jak sobie to przeglądać.
I to się kręci od 16 lat.
Ostatnia aktualizacja menu jest z 30 listopada i to jest właśnie Burger King.
I tam są różne restauracje, gdzie można sobie menu, włącznie z cenami, na bieżąco
pooglądać. Teraz już czasy się zmieniły, już raku, raku fonów to się nie używa, tylko
normalne iPhony i Androidy, no i oprócz tego, że jest to dość przystępna,
bardzo taka prosta w obsłudze strona internetowa, to są też aplikacje mobilne na
iPhona i na Androida właśnie z menu tych różnych restauracji, które po nagłówkach
można sobie przeglądać kategorie.
Jest cała lista alfabetyczna od A do Z wszystkich restauracji, więc można sobie
naprawdę w bardzo wygodny sposób przeglądać.
Do czego by nam to mogło być potrzebne?
No z jednej strony ja Wam życzę, żebyście kiedyś do Japonii się wybrali.
Ja sam bym się wybrał i zjadłbym coś w jednej z takich restauracji i z drugiej strony
warto zrobić sobie wycieczkę krajoznawczą i nawet obejrzeć menu takich sieciówek znanych
właśnie jak Burger King u nas, bo w Japonii bardzo często te dania, które my znamy
występują w trochę innych wersjach, bo te smaki, które u nas się przyjęły względnie w tej
naszej zachodniej kulturze takiej euroamerykańskiej, no w Japonii nie miały w ogóle
wzięcia, bo tam ludzie są przyzwyczajeni jeść trochę inaczej, więc tam wprowadza
się jakieś takie lokalne różne smaczki i warto sobie o tym poczytać.
Można też sobie przeanalizować ceny, jak to się ma do naszych cen, ile kosztuje taki
burger w Japonii, a ile kosztuje w Polsce.
Natomiast też może ktoś by chciał napisać sobie jakieś opowiadanie albo ogólnie
książkę czy jakąś scenkę, która odbywa się w Japonii i chciałby sobie dodać
jest troszeczkę realizmu do tego, no więc warto wtedy zawsze
przyjrzeć się temu, co się tam jada w takich restauracjach,
co taki typowy Japończyk czy typowa Japonka możliwie sobie
w takiej restauracji zamówić. I od razu nasze opowiadanie
jest dużo bardziej autentyczne. No a tak poza tym może
po prostu interesują takie rzeczy, jak niewidomi sobie
w Japonii radzą. Na pewno mają inną wersję NVDA,
która jest już troszkę bardziej dostosowana,
ma wbudowane japońskie syntezatory, jakieś inne do pasowania ma.
No i właśnie teraz mieliśmy okazję wysłuchać jak brzmi J-Talker Voice.
Taka bardzo znana synteza japońska, która właśnie jest chyba w pakiecie z tą japońską wersją NVDA.
Natomiast no zobaczmy jak brzmią takie japońskie głosy.
Mamy też jeszcze taki głos.
I jeszcze taki głos.
I to nie jest jedyne głos jaki mamy,
bo w ostatnim czasie również jakby organizacja, która przy zespole,
który zajmuje się japońską wersją NVIDIA działa, czyli ACT Laboratory,
ACT Laboratory w zasadzie, czyli też jakiś taki hub, gdzie chyba ludzie od najmłodszych
lat uczą się programować, nie wiem, czy tylko niewidomi, czy widzący też,
stworzyli japońską syntezę wysokich prędkości HISS, która jest syntezą płatną
i ja mam wersję próbną, która pierwsze 30 minut działa.
Także zobaczmy.
DAPI
ZAZNACZ
Burger King
Kikeru Oshinaga
Hash
BBQ Burger
400
Classic Hot Dog
4
US
ZA
GOS
List A
RO
EJ
No coś nie chce to…
WRH
BOY
Minus le…
Wybursyn
His minus
Error dialog file
Laptop his
Error
Błąd
No mamy błąd, widocznie trial mi się skończył,
ale jest to też synteza, która dość podobnie brzmi i w taki właśnie sposób składa trochę te fonemy.
Także, no jak chodzi o japońskie syntezatory mowy, to pewnie są też do wyboru te z Microsoftu,
Vocalizery, gdyby ktoś chciał sobie kupić, czy acapelle.
Natomiast z darmowych jest właśnie Jtalker, no i takim głosem można spokojnie czytać sobie
no menu japońskich restauracji, gdyby ktoś bardzo chciał, albo jakieś japońskie gry, jak ktoś jeszcze gra.
No to taka moja wycieczka do Japonii na dziś.
No i została nam ostatnia rzecz, choć my się już pożegnamy, bo to jest znowu coś, co do nas no niejako przyszło.
Michał Kasperczak ma głośnik, głośnik Teufel Boomster. W ogóle to firma Teufel, z tego co pamiętam, ma w ogóle ciekawe nazwy. Jest Boomster, jest chyba Bumster.
Rockster, Crosster, ale oni ostatnio wydają nowy system, taki też home, inteligentne głośniki do domu, jakiś home motif, coś tam.
My tu w Wiedniu mamy salon firmowy w ogóle Teufela, czy Teufla, Teufel to w ogóle po niemiecku diabeł, jakby ktoś nie wiedział.
I ten, i zamierzam się wybrać i przetestować, bo jestem aż ciekaw, czy ta aplikacja jest dostępna.
No proszę. Także my się już żegnamy z państwem. Ja tylko przypomnę, że Paweł Masarczyk, Tomek Bilecki, czyli ja,
znaczy Michał Dziwisz, Paweł Masarczyk i ja, czyli Tomek Bilecki, piliśmy dzisiaj, prowadziliśmy dyfro przegląd.
No a teraz już zostawiamy państwa z prezentacją głośnika od Michała Kasperczaka.
Przez ostatni czas mogłem dzięki agencji Sarota, która w Polsce odpowiada za markę Teufel,
testować głośnik mobilny albo półmobilny, a może głośnik z radiem, a może radio z bluetoothem.
Różnie można o tym urządzeniu mówić.
Teufel Boomster, tak się nazywa.
Jest to duży przenośny w tym sensie, że jest akumulatorem głośnik bluetooth z anteną, funkcją radia FM i radia cyfrowego DAB+.
Urządzenie bardzo ciekawe, gdyby nie to, że często słucham jakieś rzeczy z telefonu typu Whatsapp, typu inne komunikatory, coś tam odtwarzam, to myślę, że byłoby to urządzenie bardzo sensowne i ciekawe.
Ale jeżeli ktoś nie słucha
tak dużo jak ja z telefonu,
bardziej pisze niż się nagrywa,
nie przeszkadza mu Bluetooth jako
taki, to myślę, że
może go takie urządzenie
zainteresować.
No ale to są takie
ogólne jakieś konstatacje
związane z działaniem Bluetootha.
Choć też trzeba powiedzieć, że
ostatnio u nas po aktualizacji
iOS, przynajmniej
na iPhone’ach z voice over.
Bluetooth działa o tyle lepiej, że
już nie ma tego
skaczącego głośnego dźwięku.
Możemy używać bez problemu
voice overa, a jakieś urządzenie
działa przez Bluetooth
zasadniczo tak jak działać
powinno.
No i teraz o samym głośniku, co
można powiedzieć. Jest przede
wszystkim duży.
To jest urządzenie, które przypomina
taki może nieco mniejszy
radiomagnetofon dawny.
Na długość, na szerokość jest nawet
nawet grubsze, większe, waży niecałe 4 kilo.
Czyli można je przenosić, można ten głośnik wziąć,
bo ma u góry w takim wgłębieniu metalową,
taką dość nieprzyjemną, bardzo, owszem, twardą,
taką chropowatą rączkę, taki uchwyt,
no rzeczywiście solidny, wmontowany w całą obudowę,
więc można urządzenie przenosić, można gdzieś ewentualnie z nim pojechać,
No ale to już tak na siłę, bo to nie jest urządzenie lekkie.
I teraz jak ono wygląda?
Obudowa jest, pewnie to jest plastik, ale w dotyku taki lekko drewniany jakby.
Takie przynajmniej można odnieść wrażenie.
Cały przód to jest duża powierzchnia, taka wbudowana maskownica,
pod którą podobnież w pewnym momencie gdzieś tam jest wyświetlacz.
Ja tego wyświetlacza nie umiem jakby dostrzec tak ręką.
I ta maskownica typowa taka dla, metalowa, typowa dla części głośników.
Nie jest to żadna tkanina.
I pod tą maskownicą mieści się dużo różnych głośników.
Głośniki wysokotonowe, niskotonowe, średniotonowe.
cały właściwy zestaw głośników, bo to tak mówimy
jeden głośnik, ale tak naprawdę to jest
jeden głośnik jako urządzenie, ale jest to zestaw różnych
głośników. Zresztą specyfikację pewnie na końcu
przeczytam, a też będzie gdzieś tam podana
w komentarzu do tego odcinka Tyflu Przeglądu.
No i teraz tak, przyciski
bo głośnik to jest jakby to jest przód
góra głośnika składa się chyba z
12, no z całej grupy
przycisków. Na stronie Teufel
można wyczytać, że one są
haptyczne, więc bałem
się, że będą jakoś albo
niewyczuwalne, albo mało
wyczuwalne, ale nie.
Są to gumowe przyciski, takie
mniej więcej jak w różnych
głośnikach bluetooth, ale
odseparowane od siebie, o
różnej, może nawet nie w
fakturze, ale o różnych
kształtach.
O takim skoku tego nie będzie
słychać,
ale czuć, że
nie jest może ten skok jakiś
wybitny, ale na pewno bez żadnego problemu
czuć, że przycisk wciśniemy.
Nie ma też obaw, że te przyciski
zostaną wciśnięte jakoś przypadkowo.
Z tyłu znajduje się taki zaczep
do anteny teleskopowej,
którą możemy wysunąć do góry, tak jak
w starych odbiornikach, i
dwie gumowe klapki,
pod którymi mieszczą się porty
Micro USB, USB do ładowania i w drugim wejście do zasilacza, który otrzymujemy w komplecie, to jest taki duży, dosyć nie największy, jaki w życiu widziałem, ale nie mały, taki duży powiedzmy, no średnio duży, laptopowy zasilacz.
Także to jest kolejny taki element urządzenia, który sprawia, że ono choć przenośne, no to jest bardziej stacjonarne.
No i teraz przyciski.
Pierwszy przycisk z lewej strony, taki lekko wklęsły, okrągły, włączenie głośnika.
Potem jest jakiś przycisk oznaczony bas.
Domyślam się co on oznacza, ale jakoś ten bas nie chciał mi się przełączać.
A to właśnie gdzieś w recenzjach czytałem, że o ile bas można podkręcić,
to wysokich tonów regulować zasadniczo nie można, bo on nie ma jakiejś swojej aplikacji czy korektora.
Potem są dwa przyciski. Pierwszy to jest bluetooth i dalej przycisk, którym przełączamy tryby radio 1, radio 2 i AUX tryb podłączenia, bo jeszcze może zapomniałem, że tam z tyłu, tam gdzie mówiłem o tej klapce, jest też wejście takie jackowe line in, można podłączyć głośnik do komputera, tak jak kiedyś, jak byśmy łączyli dawniej głośniki.
Potem jest przerwa i jest taka wysepka, na której mamy wklesły, przyciski po lewej stronie, w lewo i w prawo, czyli jakby do tyłu i do przodu.
I tu, jak zawsze w Bluetoothie, jak mamy w telefonie następny, poprzedni, możemy przełączać, perfekcyjnie to działa, przełączanie ciągu dalszego odcinka, podcastu,
albo przełączanie do następnego jakiegoś pliku,
coś, no działa to super.
I pomiędzy tymi przyciskami duży, bo on taki się wydaje dwupozycyjny,
ale nie, jest jednopozycyjny, duży przycisk,
lekko wystający, też taki trochę wklęsły,
no play, stop.
I potem mamy znowu małą przerwę i trzy takie same,
oddzielone od siebie, niewielkie, ale jak najbardziej
wyczuwalne przyciski,
czyli 1, 2, 3
pod którymi zapisujemy sobie
ostatnio wybraną
czy właściwie ostatnio wybraną
i aktualnie odtwarzaną stację
radiową. Czyli przytrzymujemy
i zapisujemy stację i potem
naciskamy ten przycisk on nam
przełącza stację.
Jeżeli jesteśmy w DAP
to jest stacja radia cyfrowego
i jeżeli jesteśmy w trybie UKF
to jest stacja UKF.
Za tymi trzema przyciskami
Znowu mała przerwa i dwa również od siebie oddzielone przyciski ciszej i głośniej.
Tak o takim kształcie jak to często w głośnikach bluetooth można spotkać.
Do urządzenia dołączony jest też niewielki pilot.
Gdzieś się spotkałem z określeniem tabliczkowy pilot i nawet mi się to spodobało.
Rzeczywiście taki mały, niepozorny plastik.
Porządny jak najbardziej, ale sprawiający wrażenie takie troszeczkę zabawkowe może.
Pilot, który ma 12 klawiszy, też bardzo przyjemnych, o przyjemnym skoku, od siebie oddzielonych.
Obsługa tutaj nie powinna sprawiać żadnego problemu.
Postaram się napisać jak ten pilot, dokładnie gdzie są jakie klawisze.
No to może co, włączymy teraz urządzenie i posłuchamy sobie tego naprawdę dużego, porządnego głośnika, przy czym no ja niestety mikrofon mam tak, że ten głośnik jest jakby w drugą stronę, więc nie wiem jak on tutaj zbierze.
bardzo się głośno włącza.
No to jest cały problem, że nie wiem czy go włączyłem, bo tego się niestety nie wie.
Znaczy nie wie w tym sensie, że no nie słyszałem, czyli nie włączył.
O! Włączył się.
On włącza się w takim trybie, na jakim go ostatnio zostawiliśmy.
Czyli jeżeli to jest radio to dub to będzie radio, jeżeli bluetooth to będzie bluetooth.
O! Była ostatnio dwójka.
i to jest DAP,
dwójka jest
program drugi. Ja miałem
ostatnio problem w ogóle, znaczy ostatnio
jakoś nie bardzo mi
nie byłem usatysfakcjonowany
anteną w sensie radia klasycznego
radia UKF.
Jakoś tak to radio
szumiało, nie wiem, może to tak
UKF-y szumią, a ja o tym
korzystając od dawna
z radia z internetu
zapomniałem, ale jakoś tak na mnie
I mnie to zrobiło wrażenie.
Naprawdę głośnik jest bardzo głośny.
O!
Kiedy przytrzymałem teraz klawisz ciszej
on się zupełnie ściszył.
Więc jest to możliwe.
Zupełnie.
Tak słucham.
Tak.
Są jakieś szumy własne tylko urządzenia.
I teraz podgłośnimy.
Głośnik naprawdę
gra bardzo głośno.
Ja postaram się pokazać.
Normalnie wiadomo, że w ten sposób nie będziemy słuchać.
Dźwięk ogólnie jest lepszy niż myślałem.
Na początku mi się wydawało, że taki jest troszeczkę niezbyt
zróżnicowany, mdły, ale im dłużej słuchałem, tym jestem z tego
dźwięku zadowolony.
Jest on dosyć ciepły, dosyć miękki.
I jest dużo basu, ale nie wydaje mi się, żeby było go za dużo.
Oczywiście zależy to wszystko od tego skąd słuchamy, czego słuchamy,
gdzie mamy ewentualnie jakoś korektor albo nie, korekcję włączoną w innych
jakichś aplikacjach, bo to też różnie bywa. Jest dobrze.
Myślę, że jest to co najmniej dobre przenośne gdzieś tam radio,
czy jakiś taki, nie nazwałbym tego może systemem hi-fi, ale, ale głośnikiem
wysokiej, może nie najwyższej, ale wysokiej klasy można, myślę, że tak, można tak
powiedzieć. I teraz przełączymy sobie może, to jest ta dwójka.
Włączmy sobie na radio Poznań, który mam ustawiony pod jedynką.
W śmietniku za dwie godziny nie było tych ludzi.
Naciskam dwójkę.
Nie używać na przykład słowa niestety jest złem.
Naciskam trójkę.
Nie miałem żadnych problemów ze skanowaniem radia.
Bez problemu wszystko, stacje cyfrowe zostały znalezione.
Trwało to trochę.
Ja do końca nie wiem co się wtedy działo na wyświetlaczu, ale myślę, że tam z dwie minuty on skanował, skanował, skanował i wszystko znalazł tak jak trzeba i po prostu potem klawiszem do przodu, do tyłu te stacje przełączałem i on przechodził na kolejne stacje.
Ja to pokażę. Sobie wybierzemy, wcisnę, przytrzymam klawisz do przodu.
No i on teraz się przełączy na kolejną stację.
Teraz poćwiczymy budowanie odporności z witaminą C w trzech różnych formach.
Kapsułki.
Następna stacja.
No i tu trzeba generalnie po prostu się nauczyć, bo to w kółko te stacje się przełączają,
tak jak to w radiu cyfrowym bywa.
No i to jest taki chyba prawdziwy reportaż, a nie tylko relacja z koncertu.
Nacisnę teraz
play, pauza, play, stop, może bardziej.
Zastopowaliśmy i teraz bez problemu to od razu się
od razu to działa.
On ma jakiś taki tryb oszczędzania
energii, gdzie potem po pewnym czasie on się uaktywnia i działa i wtedy
głośnik się wybudza troszeczkę dłużej to
trwa.
A sprawdźmy może, jeszcze przełączę na jakieś inne radio
po to tylko żeby, może tą trójkę włączymy.
Ten bas chciałem sprawdzić.
Jakbym mogła z nim do biura do pracy przyjść, no byłyby plusy i może bym z wierzchem podjechała.
Ciekawe, nie może być wierzchem, już za chwilę radio…
Jakoś nie wiem o co chodzi.
No i teraz możemy co? Możemy się przełączyć…
Przełączyłem teraz tryb.
I nigdy nie wiem czy to jest radio, czy…
Radio.
Czyli po radio cyfrowym jest radio UKF.
Też tu sobie zapisałem jakieś stacje radiowe.
I tak wygląda przełączanie nawigacji.
Kiedy pojedynczo naciśniemy klawisz do przodu…
I idziemy po skali, ale jak przytrzymamy, no to on nam znajdzie.
Przynajmniej próbuje znajdź.
To pastylki, to szybko rozpuszczają się w ustach.
Informacje oczywiście pojawiają się na wyświetlaczu, no ale jakie one są, to za bardzo nie wiem.
Próbowałem coś czytać aplikacjami różnymi, ale nic mi jakoś nie ściągnęło, nic mi nie przeczytał.
No i teraz mogę przełączyć się na kabel.
akurat nie mam już podłączonego kabla do komputera.
No i teraz następny raz jak nacisnę to przełączymy się na to radio cyfrowe.
Znowu to tak działa na przemienie.
Czy on się teraz…
No tak, działa, jest radio cyfrowe rzeczywiście, a teraz sprawdzimy sobie.
Przełączyłem się na Bluetooth i takim dość istotnym minusem głośnika, też znowu raczej
to wynika z wszystkich urządzeń Bluetooth, czy z większości może tak, jest to, że on ma,
kiedy jesteśmy,
kiedy słuchamy radia i odtworzymy
coś z iPhone’a
czy z urządzenia pod którym jest
połączony, do którego głośnik
jest połączony poprzez Bluetooth, to
niestety on odtwarza
jakby w powietrze, tak?
Czyli słuchamy radia, wciskamy
w iPhone’ie, z którym jest połączony
głośnik Play w jakiejś aplikacji
no i widzimy pauzę, nic
się nie odtwarza, a tak naprawdę
odtwarza się na tym, na tym kanale
Bluetooth, na który się musimy wtedy
z iPhone’a przełączyć i oczywiście można się rozłączyć tak, rozłączyć głośnik z iPhone’em
no i wtedy jest okej, no ale kiedy on wcześniej był, tylko go rozłączymy a nie zapomnimy urządzenia
no to po kolejnym włączeniu głośnika i tak iPhone się z nim połączy
albo głośnik połączy się z ostatnio sparwanym urządzeniem, no tak to zasadniczo działa
Ja do końca nie czuję się jakoś znawcą i nie czuję się osobą kompetentną jeżeli chodzi o bluetooth.
Więc jeżeli ktoś będzie miał jakieś więcej informacji jak można by tego albo uniknąć albo w ogóle sobie poradzić z tym to proszę bardzo.
Ale wydaje mi się że tak jak rozmawiałem, szukałem i sprawdzałem to sprawa jest niejednoznaczna i raczej cudów się tutaj nie osiągnie.
Tak samo kwestie profili bluetooth, on generalnie jak powiedziałem z voice overem już teraz problemów raczej nie ma, ale z kolei o ile na początku było tak, że audio bez problemu mogłem odtwarzać z telefonu podczas kiedy głośnik działał, to potem już niestety whatsapp nawet i wszystko przechodziło przez głośnik, kiedy mówiłem hi siri no to radio też mimo, że byłem w trybie radia,
też na chwilę się wyciszało, bo głośnik nasłuchiwał, mimo że mikrofonu nie ma sam w sobie.
No i teraz otworzymy sobie jakąś aplikację, na przykład jakiś klient podcastów.
No niech będzie Overcast.
To oczywiście jest szybkość, więc o, bardzo ładnie można klawiszami się nawigować
takie następne poprzednie, to działa po prostu super.
I to jest Bluetooth, mogę pokazać muzykę, na chwilkę tylko, tak troszkę robię głośniej, ciszej.
Na pewno ta separacja instrumentów nie jest też jakaś nie wiadomo jaka, nie ma też wybitnych wąskich, stereo jest dosyć wąskie, ale to urządzenie jest dość wąskie, znaczy wąskie, zależy jak na to spojrzeć, ale jak na rozmieszczenie stereo, to też nie ma cudów, więc w tych 30-40 cm nie spodziewajmy się, że jak mamy jeden, drugi głośnik, że to jakoś nie wiadomo jak będzie słychać.
I teraz możemy się, ja postaram się, a nie, to byśmy musieli w podcastach pokazać, na przykład wejdziemy sobie w ten overcast.
Przełączymy się na radio znowu.
Czyli obok bluetootha.
Wszystkim z portretami, jak Pani wspomniała, czy ich powstawanie, ich malowanie.
No i teraz tak, mogę sobie wyjść, zmienić podcast.
No i co, back.
Czas płynie, a radio gra i idzie wszystko w powietrze.
Teraz jakbym się przeniósł z powrotem na bluetooth.
Dlaczego cisza?
Nie powinno być ciszy.
Włączam znowu radio i się przeniosę potem na bluetooth, no przedtem działało teraz.
Dziwne, to teraz wychodzi na to, że włączam radio to on jakoś pauzuje to co odtwarzał z bluetootha, przedtem tego nie było, nie wiem z czego to wynika, bluetooth jest dla mnie nieodgadniony i nie wiem co mam powiedzieć, bo jeszcze wczoraj działało to trochę inaczej, więc raczej za to, nie wiem czy za to winić głośnik, raczej winiłbym za to ogólną specyfikę bluetootha
i działania, bo to może już niedobrze być wina iPhone’a na przykład.
I tu powiem szczerze, nie wiem, co mam powiedzieć.
Klawisz Bluetooth, też o tym nie mówiłem, jak się go wciśnie ponownie, to możemy wejść w taki pairing mode,
dzięki któremu możemy nowe urządzenie połączyć.
Także, o.
No i to jest w zasadzie…
Pierwszych portretów paryskich, kolorystyka jasna, modele jakby lekko zamuglone, to się…
Jeszcze jedną rzecz postaram się sprawdzić.
…przycisk, przelew, ostatni moment, przycisk, przelew, przycisk, przelew, przycisk, przelew…
i formy pokoju, czyli pras systemów i prasy zielonej, nie potrafi do tego wyjaśnić swoim pomysłem,
aniż wszystkie państwa otwiercą demokrację i nawet w niedemokratycznych systemach,
nie wkrótce może doprowadzić do zmian, do kraty władzy.
Ale myślę, że ten martwy temat może się wówczas nie dostarczyć,
żeby skorzystać w tych informacjach sprzecznych.
No oczywiście tu jest za szybko, tak?
Głupio tak na głośniku takim jak bluetooth słucha się tego dość nieciekawie,
ale z drugiej strony trochę podcastów posłuchałem i muszę powiedzieć,
że no trochę oczywiście zwolniłem, tak?
Ale było to raczej doświadczenie przyjemne, nie uważam, żeby audio źle na tym głośniku grało, tak jak na kilku bluetoothowych, na których gdzieś tam kiedyś słuchałem.
Czy warto? Trudno powiedzieć.
Na pewno cena jest wysoka, bo nie powiedziałem jeszcze o cenie.
Urządzenie kosztuje prawie 1700 zł, 1600 ileś.
Było w promocji na Black Friday, przecenione na chyba 1100 zł coś kosztowało, no to już lepiej.
ale to i tak nie jest tanio.
No ale jest to duże urządzenie, tak?
No naprawdę jest kawał głośnika.
Jest to…
Aha, też takie przyjemne, że on ma z tyłu takie gumowe…
to nawet nie są nóżki, tylko takie ramki,
dzięki którym on bardzo ładnie…
bardzo trudno go przewrócić i przesunąć.
Jest to niemiecka, porządna robota
i taka przemyślona, sensowna też.
Toyfel ma inne urządzenia z przyciskami też, co nie jest wcale takie oczywiste w dobie różnych rozwiązań, które posiadają tylko interfejs dotykowy.
Także gdzieś tam firma warta uwagi i też współpraca z agencją Sarota, która wypożyczyła sprzęt, też się bardzo dobrze zapowiada i jakoś tam bardzo kompetentna była ta dotychczasowa korespondencja i też miła.
Natomiast co jeszcze o samym głośniku, czy warto?
to no jest to no właśnie jak
pozycjonować czy głośnik bluetooth z
radiem czy radio z funkcją bluetooth
raczej oni to znaczy Teufel to
pozycjonuje jako głośnik bluetooth
boomster czyli taki trochę jak boom
jak boombox jak dawniejszy
tylko że teraz no radio FM
dub plus plus bluetooth
tak czy za tą cenę
nie wiemy. Jeżeli komuś nie
przeszkadza bluetooth liczy się z
Wszystkim tym co się z bluetoothem wiąże
w naszym przypadku korzystania gdzieś tam z smartfonów i tak dalej przez osoby
niewidome no to a zarazem lubi lubi DAP ma gdzieś tam
chce mieć jakieś trzy stacje zapamiętane osobno dla DAP osobno dla dla UKF
plus ma tego będzie mógł mieć tego bluetootha i podłączyć
jeszcze głośnik do komputera.
Czemu nie. Gdyby on był dwa razy mniejszy.
Gdybym miał jeszcze więcej przycisków albo możliwość, nie wiem, za podwójnym przyciśnięciem szybkim wyboru zapamiętania nie trzech, a sześciu stacji na przykład radiowych, to powiem szczerze, być może bardziej bym się nad tym zastanowił.
W obecnej sytuacji raczej będę celował w inne rozwiązania, które mają Wi-Fi albo jakieś głośniki aktywne.
Być może w ogóle będziemy dla Was testować jeszcze inne rzeczy od Teufla, takie są przynajmniej zapowiedzi i plany, bo mają tam w ofercie i ciekawe radio z pilotem, i też głośniki aktywne, Ultima takie małe i większe, znaczy większe nieaktywne, małe aktywne, takie gdzieś tam do komputera, no co najmniej do komputera.
i też słuchawki, więc ta marka Teufel
ona nie dotychczas nie była pozycjonowana
jako takie nie wiadomo jakie audio premium
ale ona w Niemczech ma dość silną pozycję
od lat 40 ponad
także jest to na pewno marka
warta zainteresowania
i ten Teufel jest lepszy
zdecydowanie jest lepszy niż myślałem
o tak powiem.
Dziękuję agencji Sarota za wypożyczenie
Jeszcze może przeczytam specyfikację głośnika Teufel Boomster.
Interfejs Bluetooth 5.0, przetworniki niskotonowy 110mm plus dwa średniotonowe 65mm
plus dwa wysokotonowe
20 mm plus
dwie pasywne membrany.
Co tu mamy dalej?
Moc 42W RMS
pasło przenoszenia
44HZ20KHZ
funkcje
zintegrowany
uchwyt, odporność na
na zachlapania IPX5, pilot zdalnego sterowania, radio FM i radio DAP plus, multipoint, power bank i akumulator 7500 mAh.
Około 18 godzin działania na akumulatorze, 3 godziny ładowania i oczywiście funkcja power banku działa dość wolno,
ale działa. Z tyłu można tam podłączyć coś do ładowania właśnie.
Także to chyba tyle z mojej strony.
Dziękuję.