TyfloPrzegląd Odcinek nr 267 (wersja tekstowa)
Pobierz napisy w formacie SRT
Pobierz napisy w formacie VTT
Fundacja Instytut Rozwoju Regionalnego prezentuje
Tyflo Podcast
Witajcie. Taka dzisiaj zmiana. Najpierw trzy sekundy.
Krócej. Niepewności oczywiście i inny głos prowadzącego,
ale audycja niezmiennie ta sama. Dziś mamy… no wtorek,
to chyba nikogo nie dziwi. 28 stycznia
2025 roku, to jak ktoś na kalendarz spojrzał, to również nie dziwi.
No i po godzinie 20.00, aktualnie minut 10, tak oczywiście.
I no cóż, to by była taka pora, żeby tyfloprzegląd numer 267 zacząć.
Dziś poprowadzę go w drodze wyjątku ja, Paweł Masarczyk,
a ze mną dzisiaj w studio Piotr Machacz i Michał Dziwisz.
Witajcie, dobry wieczór.
No i zanim przejdziemy do tematów, bo troszeczkę ich dzisiaj mamy,
no to usłyszmy, czym się będziemy dzisiaj zajmować.
Michale, czyń honory.
W tym tygodniu w Tyflo Przeglądzie.
Google zapowiada nowości w TokBeku.
Urząd Skarbowy doczekał się mobilnej aplikacji.
Wrażenia skorzystania z nowych słuchawek Turtle Beach.
Meta obiecuje poprawę Facebooka w przeglądarce i oferuje tymczasowe rozwiązanie.
Dowolna mikrofalówka przemówi, w Australii się udało.
Los Sapi 4 w NVIDIA przesądzony.
Kolejne poprawki w dostępności WhatsAppa na Androidzie.
PeakyBot na Androidzie dostaje przetwarzanie w tle.
Androidowa klawiatura z rozpoznawaniem mowy Whisper.
Porównaj ceny różnych przejazdów w jednej aplikacji.
OpenAI zaprezentowało Operatora, czyli GPT potrafiącego wykonywać różne zadania na komputerze.
Laragon, środowisko programistyczne, którym zainteresują się nie tylko deweloperzy.
Aplikacja do migracji playlist na Apple Music z masą przydatnych funkcji.
Wszystko to, a pewnie jeszcze więcej już za chwilę. Zaczynamy!
Tyflo Przegląd jest audycją prowadzoną na żywo,
więc serdecznie zachęcamy Państwa do współtworzenia go razem z nami.
Oczekujemy na wiadomości głosowe na Whatsappie oraz połączenia telefoniczne
pod numerem 663-883-600,
powtarzam 663-883-600,
oraz zapraszamy Państwa do wyrażania komentarzy w formie tekstowej
poprzez formularz na stronie kontakt.tyflopodcast.net
Zanim przejdziemy do naszych informacji, które przede wszystkim Piotr i Paweł dziś zgromadzili, to odczytam pierwszy komentarz, to komentarz od Łukasza, a właściwie to jest wiadomość, którą do nas Łukasz przysłał na Whatsappie.
Witajcie. Kolejny informatyczny bubel wpadł mi wczoraj w ręce.
To mobilna aplikacja BookBeat, którą pobrałem na BlindShell’a 3.
Interfejs programu wygląda na całkiem dostępny i intuicyjny, ale pozory mylą.
Założenie konta przez przeglądarkę nie sprawiło żadnego problemu,
a teraz otwieramy apkę i klikamy za loguj i okazuje się,
że nie otwierają się pola tekstowe do wpisania adresu e-mail i hasła.
Po wybraniu przycisku e-mail lub hasło nie otwiera się okienko do wpisania tekstu.
Telefon tylko przemawia, klawiatura ukryta, skopiowanie maila i hasła z notatnika też nie działa,
zalogowanie jest po prostu niemożliwe.
Ciekaw jestem, czy na iPhone’ach i dotykowych Androidach też jest ten problem.
Jak coś wiecie, to dajcie znać. Pozdrawiam.
Tak napisał Łukasz. Łukaszu, jak ja pamiętam, to my swego czasu z Wojtkiem Dulskim
Wcześniej pokazywaliśmy aplikację BookBeat, jako jedną z tych aplikacji do czytania książek, tu akurat audio książek i wygląda na to, że ona wtedy działała, ale to wiadomo, że się sporo mogło w tej materii zmienić na plus, jak i minus, niestety.
To prawda, z aplikacjami różnie bywa, jak zresztą też się przekonamy w toku dzisiejszej audycji.
No i żeby te aplikacje działały jak najlepiej, żebyśmy w ogóle mogli obsługiwać nasze smartfony, niezbędnym komponentem tej układanki jest czytnik ekranu.
I cieszyć się trzeba, że dożyliśmy takich czasów, gdzie większość urządzeń ma jakikolwiek czytnik wbudowany.
I o właśnie jednym z takich czytników, i nie tylko, teraz Piotr, bo Google
raczej za Was sprawą z tego, co się orientuje, konferencji Samsung Unpacked
miał okazję zaprezentować jakieś różne nowości.
Więc Piotrze, co tam ciekawego słychać w Google i Samsungu?
Skoro mówimy o Samsungu, to myślę, że też warto przy okazji wspomnieć
o samej konferencji, aczkolwiek fani serii Galaxy S, wypatrzcie mi, że to nie będzie jakaś
długa informacja, dlatego że te nowe modele, które zostały zaprezentowane, no bo oczywiście
mieliśmy tutaj zaprezentowane modele Samsung Galaxy S25 podczas tej konferencji.
Generalnie to jest po prostu dalsza ewolucja tej platformy.
Te nowe telefony wyglądają praktycznie identycznie jak Galaxy S24, tylko mamy tutaj ulepszenia w podzespołach.
Oczywiście mamy trzy warianty dostępne. Galaxy S25, S25 Plus i S25 Ultra.
Najmniejszy telefon, czyli S25, ma ekran 6,2 cala. Plus ma tutaj 6,5, a Ultra ma ekran 6,8.
8 oczywiście też się różnią aparatami, ale np. co ciekawe, dostępnymi podzespołami w środku już nie znaczy, no też baterią się różnią mi aparatami, ale wszystkie mają procesor Snapdragon 8 Elite w wersji Galaxy, a to jest ciekawe, bo to jest chyba ten sam procesor, który np. znamy z nowych komputerów, które mają system Windows i procesora ARM, więc tutaj, podobnie jak np. na iPadach, mamy procesory, które zadebiutowały w Macach
No to tutaj z Androidem dzieje się coś podobnego.
Oczywiście to ma pozwolić tym telefonom być bardzo wydajnymi
no i wykonywać wszelkie zadania związane z AI.
I tutaj też największe różnice szybkości się kryją, no bo
procesor neuronowy jest o jakieś 40% szybszy.
Procesor podstawowy to jeszcze o jakieś 30 parę procent.
No i też GPU też zostało w jakimś stopniu przyspieszone.
Dostajemy 12 GB RAM-u.
Są też gdzieś warianty z 16 GB, natomiast one są na ten moment dostępne tylko na rynku azjatyckim, z tego co czytałem.
Także tutaj my w Europie maksymalnie dostajemy tego RAMu gigabajtów 12,
no a większość prezentacji odbywała się opowiadając o oprogramowaniu, w którym to oczywiście cały czas główną rolę trwa gra AI.
No i tak jak na pikselach, na Samsungach również domyślnym asystentem stał się Gemini, wypychając z tej roli Dixby.
Dixby cały czas na telefonach jest, ale po prostu będziemy musieli sobie jego włączyć ręcznie, gdybyśmy chcieli z niego korzystać.
Natomiast jeśli chodzi o Gemini, no to on też nauczył się współpracować z niektórymi wbudowanymi aplikacjami samsungowymi,
bo na przykład Samsung ma własną aplikację do notatek, do ustawiania budzików, do kalendarza.
No i Gemini też będzie w stanie z tymi aplikacjami współpracować.
Przy okazji Google pochwaliło się tym, że Gemini będzie teraz w stanie wykonywać kilka zadań
jednocześnie w takim łańcuchu i przeskakiwać między nimi.
Czyli moglibyśmy na przykład poprosić, żeby nam dodał coś do kalendarza no i od razu
wysłał, wysłał o tym informację znajomym albo zabukował coś w przeglądarce czy jakiejś
…do aplikacji do bookowania hotelu, restauracji na przykład.
No i też później od razu nam to dodać do kalendarza.
Doczekał się też w trybie Gemini Live.
Jeszcze nie mamy tego trybu z kamerą na żywo, to to przejdzie później.
Ale możemy w czasie rozmowy wysyłać mu załączniki.
Czy to będzie zdjęcie, czy to będzie jakiś dokument,
czy to będzie jakiś plik audio.
I dalej z nim na temat tego załącznika rozmawiać.
Jeśli jeszcze chodzi o samego Samsunga i same aplikacje,
na ekranie blokady pojawi się przy okazji One UI 7,
no bo Samsung ma swoją nakładkę, ona się nazywa One UI od jakiegoś czasu,
jest już w wersji siódmej.
Oczywiście samo Android na tych telefonach to jest Android 15,
więc najnowszy, jaki jest, no, przez nas kradzieść w wczesnych wersjach beta
w tym momencie.
Ekran blokady doczeka się nowego pasku informacyjnego,
pasek teraz, co się nazywa po prostu, pasek now,
Jak to pisze na stronie.
I ona będzie w stanie różne informacje wyświetlać, zależnie od tego, co my robimy.
Oczywiście tam też będzie jakaś sztuczna inteligencja wykorzystywana,
żeby zdecydować, co ma nam tam być wyświetlane.
Między innymi chwalono się tym, że jeśli mamy w aplikacji Google
zaobserwowane jakieś drużyny sportowe, które akurat grają w jakiś mecz,
no to automatycznie na ekranie blokady mogą się wyświetlać wyniki
tych trwających meczy.
Także jeśli ktoś lubi sporty, no to może być całkiem przydatne.
Oczywiście tam się pewnie będą też inne informacje wyświetlać, nie wiem, pogoda, jakieś wydarzenia nadchodzące w kalendarzu.
Zadanie jest takie, żeby to nam wyświetlało jak najbardziej potrzebne informacje.
Mamy też jakieś zmiany w aplikacji aparatu, która też ma więcej funkcji, ale też np.
dyktafon. Podobnie jak na iPhone’ie też doczekał się kolejnych funkcji AI, aczkolwiek trochę innych niż mamy w iPhone’ach,
No bo w iPhone’ie 16 to mieliśmy łączenie ścieżek,
mieliśmy jakiś inteligentny mix, to właśnie było bardziej w aparacie.
A tutaj w dektafonie Samsungowym będziemy w stanie wykorzystywać
redukcję hałasu opartą o sztuczną inteligencję,
aczkolwiek, co ciekawe, będziemy w stanie zdecydować,
co ma nam być usunięte z tego hałasu.
Możemy poprosić, żeby nam został usunięty dźwięk wiatru,
Dźwięki tła, jeśli jakiś szmer ludzi w tle, będziemy mogli sobie po prostu wybrać,
tak jak od jakiegoś czasu w aplikacji zdjęć Google mieliśmy coś takiego jak Magic Eraser,
czyli taka magiczna gumka dosłownie, którą mogliśmy wymazywać to, co chcieliśmy,
no to tutaj Samsung nazwał tą funkcję Audio Eraser, czyli tutaj podobna zasada,
tylko że związana z dźwiękiem, więc coś, co nam jak najbardziej może się przydać.
Ale nie tak bardzo jak nowości TalkBacku, bo takie nowości też się mają pojawić i przy okazji tej konferencji Google się właśnie tym pochwalił.
Konkretnie pochwalił się dwoma nowościami.
Pierwsza z nich będzie znana dla użytkowników Pixeli i mówiliśmy już jakiś czas temu o niej,
Mianowicie, TalkBack na telefonach Samsunga,
przynajmniej na początku właśnie na Galaxy S25,
będzie w stanie podawać nam opisy zdjęć modelami Gemini.
I tutaj zarówno będziemy mieli do czynienia z opisami
tworzonymi przez internet modelem Gemini Flash,
więc tutaj TalkBack będzie nam te zdjęcia wysyłał do chmury Google
i po prostu nam te opisy zwracał,
ale też będziemy mieli opisy offline,
które będą generowane na urządzeniu
modelem Gemini Nano.
Do tej pory to była funkcja, która
była dostępna
wyłącznie na pikselach.
Ostatnie kilku miesięcy, kiedy nowe
piksele z serii 9 się pojawiły.
No Galaxy S25
jest też kolejnym telefonem,
który takiej funkcji
się doczekał.
Aczkolwiek tutaj ciekawostka, w
międzyczasie pan Michel Roman
napisał też na Macedonie,
że podobną funkcję dostał
Telefon OnePlus 13, także jeśli ktoś się zdecydował na ten telefon, on już jest też dostępny w sprzedaży to tam też, on chyba też już jest wyposażony w Androida 15, jeśli nie, no to pewnie można go zaktualizować i jeśli to zrobimy, no to tam też już te opisy Gemini, rozumiem tutaj, że zarówno w tej wersji humorowej, jak i wersji offline dostajemy, no to jest jak najbardziej coś, co nam się może przydać, natomiast łyżką dziegciu w tym wszystkim jest to, jak zostały potraktowane
I osoby z innymi telefonami od firmy Samsung, na co zresztą zwraca uwaga
serwis Accessible Android, bo mamy na tym poście informację, że te funkcje trafią
też do starszych telefonów z serii Galaxy S w późniejszym czasie.
Możemy to przez to rozumieć, że one pojawią się w momencie, kiedy na te
telefony zawita One UI 7, bo ta nakładka też generalnie do niektórych starszych
Jak samsungów, przynajmniej do 24 może nawet 23, oczywiście mówię tutaj Galaxy S24, 23,
powinna za jakiś czas trafić. Pytanie kiedy?
Bo na innych telefonach, nawet nie Pixelach, no to te opisy przynajmniej oparte o sztuczną inteligencję w chmurze,
no to mieliśmy od jakiegoś czasu. A w przypadku Samsunga oni postanowili, że te nowości,
Jeśli przez to, że Samsung cały czas ma swoją gałąź rozwojową TalkBaka, tak to nazwijmy,
no te aktualizacje opóźniają. I opóźniają je do tego stopnia, że one pojawiają się tylko w momencie,
kiedy ta główna nakładka One UI się aktualizuje. A więc jeśli ktoś ma trochę starszy model,
albo nawet nie ma modelu flagowego, więc może jakieś modele z serii A na przykład,
które też są bardzo popularne, no to te aktualizacje mogą się pojawić dużo później,
albo mogą się w ogóle nie pojawić, co jak najbardziej może stanowić problem.
Nie rozumiem, dlaczego cały czas Samsung ma swojego talkbacka,
jak tak naprawdę już sami nowych funkcji nie dodają do niego,
ale w tym momencie mamy jakieś funkcje, które się opóźniają.
A z drugiej strony mamy funkcje, które…
i wracamy tutaj do starych czasów, ale może niekoniecznie starych, dobrych czasów,
Kiedy jakaś funkcja pojawia się najpierw na telefonach z Samsunga i to nawet konkretnie właśnie tylko na S25 znowu,
ale jeszcze nie na innych telefonach z Androidem i to jest funkcja, na którą wiele osób czekało, zwłaszcza tych, którzy mają nowe monitory playlowskie oparte o standard HID,
o który walczą od już lat przynajmniej dwóch, jak nie więcej, kiedy te monitory zaczęły się na rynku pojawiać.
Od jakiegoś czasu one w jakimś stopniu działają, jeśli podłączymy je po USB,
natomiast jeśli chodzi o ich wsparcie na Bluetooth,
no to cały czas w tej sprawie nic się nie zmieniało,
mimo to, że producenci monitorów radowskich mówili,
że piłka jest po stronie Google.
Google na początku mówiło, że były wymagane aktualizacje
w samym Androidzie, w sterownikach, gdzieś w tym stosie Bluetooth,
w tak zwanym, zmiany te, które już zostały dokonane.
Natomiast tutaj chyba, żeby pokazać, że Samsung jednak dba o dostępność,
że dogadali się z Google w taki sposób, że to wsparcie monitorów HIT faktycznie
pojawi się na początku wyłącznie na Galaxy S25, natomiast trafi do kolejnych
telefonów, zarówno telefonów Samsung, jak i innych telefonów z Androidem.
Tutaj przepuszczam, chodzi o Androida 15 głównie, za jakiś czas, za następne
kilka tygodni, jak nie miesięcy.
Jeśli ktoś na przykład kupił sobie Pixela i ma monitor brajlowski oparty o hit i czekał na to, żeby ten brajl działał, to myślę, że ma prawo czuć się rozczarowany.
Tutaj znów serwis Accessible Android pisze, że Samsung wykorzystał tę sytuację, żeby sobie dobrego PR-u w pewnym sensie narobić.
Czy to jest dobre dla użytkowników? Nie wydaje mi się, ale niestety mamy taką sytuację, jak mamy.
Jeśli kogoś te telefony interesują, to oczywiście w internecie można znaleźć dużo informacji, jakieś tabele, które specyfikacje porównują.
Mamy też zapowiedzi kolejnego modelu serii S25, który nie został jeszcze na tej konferencji ujawniony.
Na razie Samsung nakręca atmosferę, że to będzie coś ciekawego.
To ma być konkurencja dla iPhone’a w wersji cienkiej, bo są przecieki, że ma się pojawić przy okazji iPhone’a 17 model
Mówi się roboczo, że to będzie iPhone 17R, który ma być ponad wszystko cienkim jak najbardziej.
Nawet tam, żeby zejść poniżej tych 7 milimetrów, żeby ten telefon miał 6, ileś milimetrów.
Oczywiście na rzecz dużej baterii, na rzecz większej ilości aparatów.
Natomiast już inne firmy też ten temat podchwyciły i zaczynają własne konstrukcje w tym stylu tworzyć.
Samsung też już coś takiego zapowiedział.
Natomiast na ten moment nic poza tym nie wiemy, tam jakieś tylko były przebłyski
podczas konferencji, było informacje, że coś dużego się, dużego czy właściwie małego,
cienkiego się szykuje, ale na ten moment nie wiemy nic.
Także jeśli ktoś chce mieć taki właśnie flagowy telefon z Androidem,
no to oczywiście te telefony zapowiadają się bardzo ciekawie i można już nawet je sobie
kupić w sprzedaży, jest dużo ciekawych bonusów. Nawet my dostajemy jakieś
Warto wtedy zwrócić uwagę, że jeśli Wam zależy na najnowszych funkcjach w TalkBacku,
no to tutaj te opóźnienia cały czas się pojawiają i wygląda na to, że przynajmniej na ten moment
nic w tej sprawie się nie zmieni, a wręcz przeciwnie, nawet mamy teraz taką nowość,
która pojawia się tylko właśnie najpierw na Samsungu, a na inne telefony trafi za jakiś czas.
No to przykre słyszeć, przykre wieści z Korei Południowej.
Miejmy nadzieję, że użytkownicy innych modeli telefonów,
no przede wszystkim tych pikseli, które też kupuje się z powodu właśnie tego,
że są flagowe i miały być tą sztandarową wizytówką Google
w zakresie tego, co Android ma do zaoferowania,
też doczekają się niebawem tych nowości.
No, zwłaszcza te monitory HID. Znaczy, no oczywiście Gemini gdzieś tam też, jeżeli jest jakoś ulepszone, rozbudowane.
Ale zwłaszcza te monitory HID, to wiem, że w Stanach to był big deal.
Także mam nadzieję, że się firma z tym upora.
Natomiast my tu do Polski wracamy, bo w Polsce, i to w administracji publicznej, nowa aplikacja się pojawiła.
Prawda, Michał? To chyba nawet jest od naszego słuchacza…
Zgadza się.
Zgadza się, to słuchacz Andrzej podesłał mi te informacje.
Skądinąd też również dziś widziałem, że na dostępnym Androidzie się pojawiła ta wieść ze strony Huberta,
więc jak widać na obu platformach aplikacja ma się dobrze.
A do czego zmierzam? Andrzej napisał dziś do mnie tak.
Tak, mam jeden temat do dzisiejszego Tyflo Przeglądu. Powstała niedawno aplikacja do rozliczania się z urzędami skarbowymi o nazwie e-urząd skarbowy.
Umożliwia ona m.in. rozliczanie podatków, opłacenie mandatów i załatwienie innych formalności w urzędzie skarbowym.
Link podaję poniżej, umieść go w komentarzu pod audycją.
Pozdrawiam Andrzej. I ja jeszcze oprócz tego odnośnika, który podesłał Andrzej, a Andrzej podesłał link do aplikacji w App Store, też dorzucę w komentarzu aplikację dla Androida, więc możecie sobie pokorzystać, no podejrzewam, że niewielu z nas chce jakoś bardzo często mieć do czynienia ze skarbówką, ale raz do roku na pewno trzeba i swoją drogą ciekawe, czy będzie możliwe z poziomu tej aplikacji właśnie
złożenie tak zwanego PIT-a, czy tam nawet przejrzenie tego, co tam nam Skarbówka
wyliczyła, bo teraz to jeżeli chcemy, to możemy po prostu im to zlecić.
Tak naprawdę oni zawsze nam zrobią rozliczenie i my potem możemy to
zatwierdzić bądź też dokonać stosownych poprawek.
Jeszcze trochę czasu do tego nam zostało, no ale coraz bliżej już te PIT-y
zaczną do nas przychodzić.
Myślę, że i tą funkcją tej aplikacji
warto się będzie niebawem zainteresować.
O ile będzie.
Jak najbardziej.
Ciekawy jestem też dostępności tej aplikacji.
Jak rozumiem, nikt z was jeszcze nie testował.
Nie, natomiast słyszałem dość pozytywne
opinie na jej temat, więc myślę, że
można będzie sobie popróbować,
potestować i skorzystać.
Ja sobie ją na pewno zainstaluję.
Tu mamy jeszcze taki komentarz od Eweliny.
Ewelina pyta, czy znacie grę RPG, która się nazywa…
Już patrzę dokładnie tej nazwy…
Warshowel. Warshowel.
Ponoć to super gra i to jest gra na iOS.
Znamy, nawet mówiłam o tej grze przy okazji
Dzięki zestawieniu nowości w grach, które nagrywaliśmy,
właściwie prowadziliśmy audycję na żywo z Arkiem Świętnickim
w zeszły piątek. Myślę, że ta audycja za jakiś czas
powinna się pojawić na stronie. I tak mówiłem
o tej grze w szczegółowo wtedy.
Okej. Dziękujemy Ewelina
za wiadomość. Natomiast my
teraz przenosimy się do takiego newsa,
gdzie pojawi się przykład dźwiękowy, więc nie będziecie słuchali
wyjątkowo tylko i wyłącznie nas, a w tym przypadku Piotra,
ale też usłyszycie, zdaje się, człowieka, który odpowiada
za na przykład takie projekty jak Road to Rage
czy administrację serwerem Dragon’s Cave, czyli Gorthalon.
A o co chodzi Piotrze?
Czym są słuchawki Beach Turtle?
Znaczy, czym są, to nawet nasi słuchacze wiedzą,
bo mówiliśmy o nich, ale może przypomnij.
No i opowiedz, jak tam się ich używa.
Dokładnie, więc kilkanaście, jak nie kilkadziesiety
Mówiliśmy o ciekawym nowym modelu słuchawek.
One się jakoś na jesień pojawiły w zeszłym roku.
Najciekawszą kwestią było to, że w zestawie dostajemy dwa dongle na 2,4 GHz.
Ale może zacznijmy od początku, o co w ogóle chodzi.
Zarówno dla nas, jak i dla graczy jest w dźwięku ważne, żeby ten dźwięk miał jak najniższe opóźnienia.
Dla nas dlatego, że po prostu nam komputer reaguje szybciej, a dla graczy, że np. słyszą, że nie wiem, ktoś ich atakuje z tyłu, czego oni nie widzą, żeby ten dźwięk jak najbardziej był dopasowany do obrazu.
Dlatego coraz więcej sprzętu dla graczy właśnie najczęściej pracuje na własnych protokołach rozszerzowodowych, z reguły opartych o pasmo 2,4 GHz, które mają naprawdę niskie opóźnienia.
Takie opóźnienia na takim stopniu, że praktycznie my ich nie odczujemy.
Dlatego wydawało mi się, że propozycja, którą zaprezentowała firma Turtle Beach,
była dla nas na tyle ciekawa,
że słuchawki, konkretnie Stealth 700 Gen 3,
które przychodzą do nas z dwoma takimi donglami w zestawie,
są ciekawe.
Dongiel to jest coś, co podłączamy do komputera portem USB
I właśnie z tym donglem komunikują się słuchawki na komputerze.
Widzimy je normalnie jako zwykłe urządzenie audio.
Natomiast po prostu ono nie jest podłączone po kablu,
tylko właśnie w trybie bezprzewodowym,
że możemy spokojnie, dosyć znacząco z reguły,
od tego komputera się oddalić i cały czas wszystko słyszeć.
No i ten konkretny model, tutaj producent chwalił się tym,
że w zestawie mamy dwa takie dongle, więc możemy sobie podłączyć.
No, oni proponują komputer, konsola, ale nic nie stoi na przeszkodzie,
żeby sobie podłączyć np. do komputera stacjonarnego i laptopa,
albo, nie wiem, komputer i np. no, nie wiem, dwa komputery,
no, generalnie cokolwiek, co…
Albo Android, ewentualnie nowszy iPhone z USB-C?
Bo to ma USB-C, to radio?
Ten donkiet jest chyba USB-A, no ale nic nie stoi na przeszkodzie,
żeby sobie przejściówkę podłączyć.
Ten tzw. Camera Connection Kit.
Ciekawe tylko, czy iPhone go rozpozna, bo pamiętajcie, że niestety lista sprzętu obsługiwanego przez iOS-a jest chyba nieznana.
Ale to jest zwykłe urządzenie audio, więc to powinno zadziałać generalnie, bo jeśli ludzie podłączają jakieś zoomy, interfejsy audio i to nawet jakieś typu vocastery i to działało, to myślę, że to też powinno zadziałać.
Natomiast, jeśli ktoś by chciał też do tego podłączyć smartfona jednocześnie,
to jest do tego druga opcja, czyli po prostu Bluetooth.
I co ciekawe, możemy mieć jednocześnie aktywne właśnie połączenie 2,4 GHz
i ten Bluetooth. Możemy być połączeni maksymalnie z jednym z tych dwóch dongli,
natomiast na samych słuchawkach jest przycisk, który nam pozwala
łatwo się między nimi przełączyć.
No i wracając do…
Piotrze, możesz mieć aktywny jednocześnie bluetooth i 2.4 i jeden z tych dongli i jednocześnie dźwięk dociera i z jednego i z drugiego?
Nie, to znaczy dźwięk dociera jednocześnie z bluetootha i z jednego z tych dongli.
No właśnie o to mi chodzi. Właśnie dlatego pytam konkretnie o to, czy ten dźwięk jest jednoczesny,
Bo nawet w przypadku Bluetootha, jak mamy te multipointy, tak zwane, gdzie tam jest mowa o tym, że rzeczywiście można jednocześnie podłączyć kilka urządzeń,
no to potem okazuje się, że smutna prawda jest taka, że okej, dwa urządzenia są podłączone, ale jak jedno działa, to drugiego nie słychać,
Więc dlatego pytam, czy po prostu można zrobić tak, że jedno po 2.4, drugie po bluetoothie i jakby oba te urządzenia jednocześnie są słyszalne.
Tak, oba są słyszalne i to będzie dla nas o tyle istotne, że no właśnie możemy jednocześnie sobie robić coś na komputerze, rozmawiać, ale też jednocześnie sobie na telefonie na przykład coś sprawdzić.
No producent to proponuje na przykład, żeby odbierać połączenia albo muzyki sobie słuchać, no ale my po prostu możemy to do innych rzeczy też wykorzystać.
Także tutaj ten dźwięk jest jednoczesny.
Druga rzecz, która przykuła moją uwagę w tym przypadku, w przypadku tego urządzenia,
jest to, że producent chwalił się, że konkretnie dla wersji na PC, bo to urządzenie
jest sprzedawane w trzech wersjach, wersji PC, wersji PlayStation, wersji Xbox, tak
naprawdę też wszystkie wersje do komputera podłączymy.
Natomiast tylko wersja PC reklamowała się tym, że jej mikrofon działa z częstotliwością
Impróbowanie 32 kHz, a nie 16, jak to często ma miejsce w przypadku tego typu sprzętu.
I tak się fajnie złożyło, że ja akurat tych słuchawek nie mam, natomiast mój znajomy,
właśnie wcześniej wspomniany Gore Talon, czy właściwie teraz podpisujący się jako Talon,
miał potrzebę, żeby sobie kupić nowe słuchawki. I tak rozmawialiśmy o tym,
wspomniałem, że widziałem taki model. Zainteresował się nim i od zeszłego czwartku
z takich właśnie słuchawek się cieszy i trochę go o różne, różne aspekty wypytałem,
między innymi właśnie to, o czym rozmawiamy.
No ale oczywiście też miałem okazję posłuchać mikrofonu tego urządzenia i poprosiłem go też,
żeby dla was tutaj taką próbkę mikrofonu nagrał, co z przyjemnością uczynił.
Więc jeśli jesteście ciekawi, jak brzmi, jak teraz brzmią mikrofony na słuchawkach dla graczy,
No to w tym przypadku brzmi to tak.
No właśnie, taka króciutka próbka.
Jakaś tam redukcja jest.
Coś tam się lekko gotuje, ale jak na słuchawki bezprzewodowe, to to już rzeczywiście robi wrażenie.
Tak, robi naprawdę wrażenie. Jeśli jeszcze o takie informacje nie chodzi, może zwróciliście uwagę, tam jest taki delikatny, bardzo metaliczny poddźwięk gdzieś w okolicach 4 kHz, no to już naprawdę takie małe detale.
To jest chyba coś związane z kodekiem, bo w aplikacji mamy pasmo 4 kHz, natomiast zredukowanie tego pasma nie usuwało tego.
Jakby kogoś to bardzo denowywało…
No to słychać głównie na przykład jak ktoś pisze na klawiaturze.
Mam nadzieję, że mnie słychać, bo to cały komunikat, że mam niestabilne łącze.
Tak, tak, słychać się, słychać.
Okej, to dobrze.
No natomiast właśnie po prostu w komunikacji tego tak naprawdę nie słychać.
Mamy też w tych słuchawkach funkcję odsłuchu,
więc możemy się w czasie rzeczywistym słyszeć z mikrofonu.
Można tego regulować głośność.
Natomiast co ciekawe, ten odsłuch jest w zdecydowanie gorszej jakości niż to, co słyszecie.
Ten odsłuch jest właśnie w takiej jakości 16 kHz, więc ewentualnie można sobie odsłuch zrobić ręcznie, jakby ktoś chciał.
Ale też nie zdziwcie się, jak usłyszycie się w słuchawkach, że tam to brzmi gorzej.
Inne osoby będą słyszeć Was właśnie tak, jak to teraz Wam zaprezentowałem.
A jeśli chodzi o stronę Bluetooth, no bo oczywiście tam też możemy rozmawiać,
no to tutaj mamy ograniczenie tej częstotliwości próbkowania.
No tutaj już mamy takie typowe 16 kHz, natomiast przez to, że to jest…
że tutaj ten mikrofon jest blisko naszych ust, a nie, jak to często bywa w przypadku,
nie wiem, AirPodsów, no jednak trochę dalej, no to mimo wszystko ten dźwięk jest naprawdę czysty
i spokojnie można przez telefon też na tym sprzęcie bez większych problemów rozmawiać.
I ten dźwięk jest mimo wszystko czysty.
Jeśli jeszcze chodzi o jakość tego Bluetootha,
no to wiadomo, tam opóźnienia mamy większe niż na 2-4 GHz,
natomiast one i tak są naprawdę dobre.
Talon to porównał do AirPodsów, więc jeśli ktoś ma iPhona,
no to te opóźnienia są mniej więcej na tym samym poziomie,
tak że naprawdę nie jest źle.
Mogliście też zwrócić uwagę na jedną rzecz,
o której wspomniał przy tej demonstracji.
Mówił, że mikrofon ma korektor w aplikacji.
No bo faktycznie te słuchawki posiadają aplikację.
Aplikacja jest zarówno na komputery, jak i na smartfony.
Druga wiadomość jest taka, że aplikacja na komputery jest całkowicie niedostępna.
Dobra wiadomość jest taka, że aplikacja przynajmniej na iOS-a
dostępna dla nas jak najbardziej jest i pozwala nam skonfigurować
wszystko, co byśmy chcieli, i to w tym samym czasie,
kiedy te słuchawki są podłączone np. właśnie do komputera czy do telefonu,
Słyszymy wszystkie zmiany, których dokumulujemy.
Co ważne, te zmiany zapisują się w pamięci słuchawek.
Tak że jeśli dostosujemy korektor,
czy to mikrofonu, czy to samych słuchawek,
bo same słuchawki też mają korektor,
nawet możemy sobie w czasie rzeczywistym
dodawać lub redukować bas i wysokie tony,
to to wszystko nam się w pamięci tych słuchawek zapisze.
Domyślnie ten mikrofon nie ma tyle niskich częstotliwości, co słyszeliście.
Nie mam próbki, jak ten dźwięk brzmi domyślnie.
Natomiast ten preset korektora, który słyszeliście, to był preset niestandardowy.
Tutaj Talon sobie sam te słowaki dostosował.
Generalnie z tego, co z nim rozmawiałem, to najwięcej góry,
najwięcej niskich tonów, ile udało mu się z tego headsetu wyciągnąć.
Nie jest to może jakoś dużo, ale dla mowy po prostu to jak najbardziej myślę jest wystarczające.
No a w aplikacji też właśnie możemy dostosować inne rzeczy.
Możemy włączyć lub wyłączyć sobie bramkę na mikrofonu, zdecydować czy chcemy słyszeć właśnie ten odsłuch,
kontrolować głośność dźwięków urządzenia, no bo ten HC też nam będzie podawał różne dźwięki na włączenie, na wyłączenie.
Część modułu Bluetooth to w ogóle po prostu do nas mówi,
kiedy np. urządzenie jest podłączone lub rozłączone.
Mamy takie komunikaty kobiecym głosem, ponoć bardzo przyjemne,
podawane, które nas informują, kiedy ten headset się połączył lub złączył.
Mamy na nim dwa pokrętła. Jednym ustawiamy głośność.
To są takie skokowe pokrętła, więc mamy wyczuwany skok.
A drugie pokrętło możemy zaprogramować sami, możemy zdecydować czy ono ma na przykład właśnie kontrolować głośność odsłuchu mikrofonu, podbicie basów lub wysokich tonów.
Tam chyba jeszcze kilka innych opcji jest, więc można też to zdecydować.
Mamy chyba też dwa osobne pokrętła na głośność samych słuchawek i bluetootha. Tam chyba są trzy pokrętła z tego co pamiętam.
Co jeszcze warto o tych słuchawkach powiedzieć?
Bateria. Bateria, która jest naprawdę infonująca.
Producent na stronie deklaruje, że te słuchawki powinny nam działać przez 80 godzin po naładowaniu.
Ładują się przez port USB-C, tak swoją drogą.
I jeśli chodzi o test baterii, to wiem tyle.
Talon wyciągnął te słuchawki w zeszły czwartek z pudełka.
Naładował je nie do pełna, jego słowa nie moje.
I wczoraj wieczorem, kiedy ostatnio z nim rozmawiałem m.in. na temat tych słuchawek,
sprawdził stan baterii. To swoją drogą też można zrobić z aplikacji, więc to jest też fajne,
że możemy sobie w dostępny sposób zobaczyć, ile baterii nam zostało.
Nie musimy polegać, nie wiem, na jakichś lampkach gdzieś, które na tym urządzeniu są.
No to po kilku dniach intensywnego korzystania, to są jego główne słuchawki,
…którego on wykorzystuje zarówno w, jak i po pracy,
miał 50% baterii.
A większość dnia spędził przed komputerem.
Także wydaje mi się, że nawet jeśli te 80 godzin jest gdzieś zawyżone,
no to i ta kilkadziesiak, jak nie kilkadziesiąt godzin,
myślę, że na tych słuchawkach spokojnie będzie się dało wyciągnąć.
A swoją drogą mówi też coś to o wygodzie tych słuchawek,
Tak, bo podejrzewam, że gdyby nie były wygodne, gdyby ich się fajnie nie nosiło, to tyle czasu zwyczajnie by w nich nie wytrzymał.
Tak, to też prawda. Swoją drogą też te słuchawki są, jak to powiedział, dosyć ciężkie.
Generalnie słuchawki takie gamingowe nie należą do małych, lekkich konstrukcji.
Natomiast są wygodne. Są wygodne, no i jeśli też chodzi o same słuchawki, to tutaj jakość jest naprawdę dobra.
Miałem porównanie do poprzednich słuchawek, których on korzystał.
To były też słuchawki gamingowe Corsair Virtuoso SE.
Akurat ja cały czas z tych słuchawek korzystam.
No to tamten dźwięk był faktycznie taki zrównoważony.
Tam było dużo wszystkiego, ale nie za dużo.
I mówił, że tutaj jest podobnie z tym, że tutaj jeszcze mamy
ten korektor na samych słuchawkach, czego w Corsairze na przykład
nie mieliśmy bez oprogramowania.
I to są słuchawki zamknięte.
Tak, to są słuchawki zamknięte.
zamknięte, generalnie konstrukcja wskórzana, jeśli chodzi o same słuchawki,
także tak to wygląda.
Gdyby ktoś był zainteresowany tymi słuchawkami, to w Polsce ceny na dzień dzisiejszy
wahają się pomiędzy 750 do 900 zł, średnio 850 w większości sklepów.
Znajdziemy gdzieś takie sklepy, gdzie kosztują właśnie trochę mniej.
Są sklepy, gdzie kosztują trochę więcej.
Natomiast gdybyście byli tymi słuchawkami zainteresowani,
to jeszcze raz przypominam, model, którego szukacie,
to jest Turtle Beach Stealth 700 Gen 3 w wersji PC.
Bo to jest ten model, który faktycznie ma mikrofon w takiej jakości,
jaką pokazywałem.
No, brzmi to imponująco.
Ja ze swojej strony jestem już ciekaw, bo chyba mogę już Wam powiedzieć,
że będę miał okazję przedstawić Wam headset podobnej klasy już za,
mam nadzieję miesiąc do półtora, zależy jak szybko do mnie dotrze,
bo trochę idzie do mnie pokrętną drogą, a mianowicie coś, co Tomek Bilecki
gdzieś tam wyszukał nam w internecie, SteelSeries Arctis Nova 5.
I to są słuchawki, które również mogą być podpięte
zarówno przez jakby 2,4 GHz bezprzewodowy dągielek,
jak i na Bluetooth. No niestety nie jednocześnie.
I mają się charakteryzować właśnie bardzo, bardzo dobrym dźwiękiem.
Także zobaczymy jak się będą miały do tych Beach Turtles,
które tutaj teraz usłyszeliśmy.
Mam nadzieję, że będę mógł coś mądrzejszego już powiedzieć.
To były te słuchawki troszkę tańsze niż to, o czym teraz mówi Piotr.
Ale to wszystko w swoim czasie, a tymczasem…
Mamy wiadomość.
Mamy wiadomość.
To może posłuchajmy wiadomości od Grzegorza.
Cześć wam. Jest nowa sztuczna inteligencja o nazwie DeepSeek.
To konkurent chiński dla znanych nam czatów AI.
Jest ponoć tak samo wydajny jak niewydajniejszy od znanych nam LLM-ów przy dużo niższych kosztach dla Polaków.
Dobra informacja. DeepSeek działa po polsku bez problemu.
Oprócz samej strony też są aplikacje na Androida i iOS.
Przynajmniej co testowałem na Androidzie jest kilka przycisków bez etykiety, ale nie jest to większy problem,
Gdyż sama aplikacja jest nieskomplikowana.
A zawsze rozpoznawanie Gemini w TalkBacku pomoże.
Aplikacja jest po polsku.
Funkcji ma niewiele.
Oprócz zwykłego pisania ma możliwość importu zdjęć,
zrobienia zdjęcia i zaimportowania dokumentu.
Ma też opcję głębszego myślenia i szukania w sieci,
ale tego szukania akurat jeszcze nie testowałem.
Chat.ai, jak każdy inny, ale z zalet najczęściej wymienianych jest właśnie te koszty, które są dużo niższe i otwartość źródłowość.
Jeżeli chodzi o DeepSeeka, to ja próbowałem. Ja się tam próbowałem zarejestrować i mi na razie ta sztuka się nie udała.
Ja nie wiem, to jest w ogóle takie dosyć charakterystyczne dla produktów chińskich,
bo Dipsik jest chiński,
że oni mają jakąś obsesję na punkcie adresów mailowych z konkretnych domen.
Że przepuszczają tylko adresy mailowe z konkretnych domen.
Ja próbowałem zalogować się przez Google’a, bo jest taka możliwość, żeby zalogować się kontem Google’a z mojej domeny.
Nie przeszło.
Spróbowałem stworzyć konto po prostu podając login hasło.
Podaję swój adres mailowy i dostałem komunikat, że moja domena nie jest dozwoloną domeną, więc na razie konta nie założyłem, nie miałem okazji sobie tego potestować.
Ale fajnie Grzegorzu, że się podzieliłeś tymi pierwszymi informacjami, jeżeli chodzi o ten nowy model, no bo rzeczywiście może trochę namieszać.
A jeszcze szczególnie, że jest otwarto źródłowy, no to to już w ogóle pytanie, tylko jakie trzeba mieć możliwości, żeby ten model uruchomić na swoim komputerze i czy w ogóle jest to na tę chwilę możliwe? Podejrzewam, że raczej może być problem.
No tak, dzięki jeszcze raz za podzielenie się wiadomością. My dalej pozostaniemy zagranicy, ale trochę może bliższej, bo
Teraz jest tu news, pora na news mój na temat pewnego czeskiego dodatku do NVDA.
Na pewno znacie dodatek Read Feeds, ten do czytania kanałów RSS.
To już jest legenda wśród dodatków, chyba odkąd istniał, odkąd istniało
jakiekolwiek oficjalny system dodatków w NVDA, to ten dodatek istniał.
Pozwala na czytanie kanałów RSS, możemy sobie ich dodać mnóstwo,
możemy sobie wybrać jeden konkretny i za pomocą skrótów klawiszowych
Po prostu w sposób niewidzialny przeglądać najnowsze wiadomości z tego konkretnego kanału.
No rzecz fajna. Do pewnie jakichś konkretnych zadań. Ja bym sobie to bardziej wyobrażał
na przykład do monitorowania jakiegoś statusu czegoś tam, który jest podawany po kanale RSS.
Czy powiedzmy jak czekamy na wiadomość z jakiegoś konkretnego źródła.
Ale jeżeli chcielibyśmy sobie tak poglądowo przejrzeć więcej
jakichś tam, powiedzmy,
wiadomości, zrobić sobie po prostu taką prasówkę.
To no tutaj ten interfejs ja nie wydaje mi się, żeby był zbyt wygodny.
I tu z odpowiedzią przychodzi pan Marek Suścik z Czech, pracownik firmy Spectra,
w której to firma jest jednym z dystrybutorów sprzętu, technologii
wspomagających dla osób z dysfunkcją wzroku właśnie w Czechach, bo stworzył
On, nowy dodatek, swój własny dodatek do czytania kanału w RSS.
Chwilowo link, który zresztą pojawi się w komentarzu, nie działa z jakiegoś powodu, ale wczoraj działał, daję słowo.
W ogóle strona autora się chwilowo nie ładuje.
No i dodatek pewnie ma interfejs po czesku.
No ale jako, że jest dość gdzieś tam prosty, z tego co przynajmniej czytałem opis,
no to nie powinno być problemu.
Czym ten dodatek się różni? No po pierwsze tym, że my tych kanałów możemy dodać więcej i przeglądać wiadomości ze wszystkich w jednym oknie.
No nie ma tu już okna niewidzialnego, co prawda. Jest okno wywoływane, zdaje się, skrótem Ctrl-Shift-E i tam mamy podgląd wszystkich wiadomości
z wszystkich kanałów, możemy też przefiltrować, żeby były pokazane tylko nieprzeczytane albo tylko z jednego konkretnego kanału.
Kurczę, żeby jeszcze foldery dodał. Mi naprawdę w tych wszystkich narzędziach właśnie takich, które są dodatkami i pozwalają na czytanie RSS-ów bardzo, albo jeżeli gdzieś występuje możliwość przeglądania kanałów RSS w jakiejś aplikacji, która niekoniecznie tylko do tego służy, to zawsze bardzo brakuje folderów.
No widzisz, można zgłosić. Ja jeszcze pewne inne rzeczy bym tam zgłosił,
ale zobaczymy, poczekajmy aż strona autora znowu wstanie.
A tymczasem porobię wam trochę jeszcze smaka.
Jak możemy czytać te artykuły? Dwa sposoby.
Albo otworzymy sobie stronę z artykułem i po prostu przeczytamy w przeglądarce
artykuł normalnie ze strony, albo jego treść…
i tutaj nie wiem, czy jest jakiś mechanizm inteligentny
wydobywania tej treści, czy po prostu tyle, ile kanał RSS w sobie ma albo tam
ewentualnie, jeżeli czytnik na stronie działa, jest prezentowany, no ale w polu
tekstowym, czyli nie mamy formatowania, nie ma nagłówków, nie ma linków,
no ale za to możemy sobie z niego coś wykopiować, możemy sobie takiego newsa
gdzieś tam w jakimś txdku zapisać. No i przede wszystkim w prosty sposób się
czyta. Co więcej, ten dodatek pozwala również na odsłuchiwanie podcastu,
I ma to jakiś swój player, na bazie chyba VLC,
który po wybraniu tam, że chcemy odtworzyć odcinek dany,
wyświetli nam takie okienko i tam możemy przewijać, zgłaśniać,
ściszać, pauzować, przeskakiwać na początek, na koniec i tak dalej.
Z tego co mi wiadomo, nie ma tam też rozdziałów i właśnie to jest jedna z
rzeczy, którą ja bym zasugerował z kolei, czyli no właśnie rozdziały
w ramach tego, co tutaj
możemy sobie w podcastach odtworzyć.
Mamy też dołączoną bazę jakichś podcastów RSS-ów już takich gotowych.
No ale jako, że dodatek jest czeski, to baza raczej też będzie zawierała
czeskie źródła informacyjne, więc dla nas jakoś w ograniczonym stopniu przydatne.
Natomiast zobaczymy, jak dodatek rozwinie się dalej.
…na różne sugestie reaguje, no więc jest szansa, że będzie można się zwrócić i coś zostanie dodane.
Ciekawe, czy kiedyś ten dodatek też wpadnie do sklepu z dodatkami, czy jednak ReadFeed zostanie tam jako ten jeden, jedyny, słuszny.
Zobaczymy. A tymczasem, jeżeli nie mamy…
Mamy telefon. Mamy telefon, więc odbieramy. Kogo witamy po drugiej stronie?
Dobry wieczór, Paweł Podolski z tej strony.
Dobry wieczór, Pawle.
Mam pytanko, zacznę może od tych RSS-ów.
Zaskoczony jestem, że jeszcze ktoś tego używa.
Ja na przykład lubię dostawać powiadomienia z różnych stron internetowych
i przeglądam sobie na telefonie, bo telefon to mam zawsze pod ręką.
No i właśnie jak jest ten początkowy kreator importu ustawień w Androidzie,
Teoretycznie jest to zrobione poprawnie, bo on nam przenosi wszystkie aplikacje, jakieś tam notatki, nagrania, loginy, hasła.
No ale właśnie tych powiadomienisk Roma jakby nie potrafi.
To znaczy on przeniesie mi listę stron, którym ja zezwalam na powiadomienia,
ale jakby przestaję z tych stron tych powiadomień otrzymywać
i nie mam pojęcia jak to z tego wyjść, wybrnąć, żeby te strony mi zaczęły
z powrotem te powiadomienia na nowym telefonie wysyłać.
To my chyba tego też nie wiemy. No jest to dziwne, bo to pewnie jest
jakiś kukik z preoglądarki, który pamięta to, że ty udzieliłeś
Na tym konkretnym urządzeniu, może z jakichś przyczyn, nie wiem, prywatności czy innych,
te rzeczy nie są przenoszone. Jak rozumiem, jeżeli wejdziesz sobie na każdą z tych stron osobno,
z tego nowego urządzenia, to możesz im dać tą zgodę.
Tak, tak, tak. Z czasem to się pojawia. Tylko trzeba na nowo jakby wchodzić.
No i nie ma takiego mechanizmu jak tutaj kiedyś na komputerze.
Wcześniej mówili, że jest ta zgoda na kukizy i nie trzeba się tym w ogóle martwić.
Na Androidzie się nie da tak zrobić.
A dzwonię właśnie w związku z poprzednią informacją o tym właśnie deepseeku.
Ja to dzisiaj próbowałem zainstalować na Androidzie.
Nawet się zalogowałem na tym przez Google.
Niestety jest bardzo dużo niezatykietowanych przycisków.
Może gdybym użył troszkę sztucznej inteligencji do opisania,
to może bym bardziej wiedział, co te przyciski robią.
Ale bardzo trudno się z tego korzysta.
I wydaje mi się, że przynajmniej tak jak dla nas,
jeżeli chodzi o pozyskiwanie informacji,
o jakieś tam generowanie treści, nie wiem, jakichś śmiesznych historii,
to jednak czat GPT czy nawet ten Jimmy nie odgoogla,
No ciężko tutaj będzie, żeby ktoś to przebił, bo tutaj ta dostępność jest naprawdę słaba tego DeepSeeker.
Tyle rzeczy, tyle rzeczy.
No może kiedyś to poprawią.
A jeszcze taki błąd maleńki chciałem zgłosić, bo macie na komputer aplikację do Tyflo Podcastu
I zapewne, że nie wyświetla się ramówka i że nie da się pisać. Tak, wiem i powiem szczerze, nie jestem w stanie stwierdzić, co ten błąd dokładnie powoduje, pojawił się jakiś czas temu ten problem, zgłosiłem to Dawidowi, no i trzeba po prostu poczekać, aż będzie miał chwilę czasu, żeby to zdiagnozować.
Staracie w różnych miejscach publikować, co będzie nowego w Tyflu Podcaście.
Jakoś tam z kanału, na Telegramie i dzięki temu wiem.
No to tyle, co chciałem dzisiaj. Miłej audycji życzę. Dziękuję bardzo.
Dzięki również, Pawle. Pozdrawiamy. Do usłyszenia.
Czy już byśmy mieli jeszcze jedno połączenie? Bo tak coś słyszałem sygnał w tle, ale…
Zdaje się, że tak. Już odbieramy.
Grzegorz do nas dzwoni. Przed momentem się nagrał, teraz jeszcze stwierdził, że coś dopowie. Dobry wieczór.
No cześć, no tym razem to ja, a nie mój głos pro w Elevenie. Więc teraz to jestem ja, żywa inteligencja tym razem.
Nie możesz się do tego tipsika się zalogować, wczoraj mi się udało, ale od dzisiaj jak czytają różne informacje na jakichś speeders webach czy gdzieś tam, że oni mieli jakieś ataki cybernetyczne i ograniczyli tymczasowo rejestrację nowych kont.
Dlatego ja cierpliwie będę czekał, chociaż wiesz, akurat to, że np. produkty chińskie nie lubią adresów e-mail z takich mniej oczywistych domen, to nie jest dla mnie nowość, bo np. w przypadku ZDSR-a była taka sytuacja, że ja chciałem założyć sobie konto na mojego maila w domenie dziwisz.net i nie mogłem, ale zgłosiłem.
Ale zgłosiłem to Arkowi i problem został rozwiązany. Natomiast to nie jest pierwszy taki przypadek, więc jakoś mnie to bardzo nie zdziwiło.
A co do dostępności na Androidzie, póki co tak testowałem. To jest proste, nie wiem co tam Paweł mówił, że jakaś trudna.
Że tam są nieopisane przyciski, z tym miał Paweł problem.
Tak, ale tego tam nie ma wiele, bo jest tak…
U góry to jest chyba jeden przycisk niezatakiowany,
co się menu otwiera, te boczne, i tam są po prostu tylko
lista konwersacji i tam…
no i nazwa tego… swojego profilu, gdzie tam można wejść,
tam się wylogować i w ogóle.
A w samym czasie to jest tak. Na dole jak jest pole do wpisywania, to obok jest jeden niezatekietowany, gdzie jak się go kliknie, to jest wybór właśnie zrobienia zdjęcia i dokumentu zaimpertowania.
Drugi przycisk niezatekietowane to jest zwyczajne.
No i jeszcze mamy przyciski, które są zatekietowane, czyli tam szukaj.
I jakieś tam głębsze myślenie, co tam testowałem.
To trwa 9 sekund, te myślenie, że tak powiem.
To jest właśnie… no albo zwykłe zdanie.
No i w samej odpowiedzi są cztery niezatekietowane,
Jeden jest do skopiowania, drugi do odświeżenia tej odpowiedzi,
się tam zregenerowania.
Lubię i nie lubię to, co ja tam opisałem,
Gmini w Talkbacku, więc to jest taka w miarę prosta.
Nie wiem jak na iOSie, bo jeszcze tego nie testowałem, ale ponoć podobnie jest.
Pozostaje po prostu czekać na to, jak się będzie to narzędzie rozwijało i czy istotnie można je traktować jako jakąś tam konkurencję do czata GPT.
Właśnie te firmy amerykańskie z Invidium na czele, że ponoć już te, jak się to nazywa, akcje po prostu pospadały na dół po prostu i jak ten DeepSeek wyszedł, to właśnie panika się już taka niby zrobiła się u tych amerykańskich.
się okazało, że Chińczycy zrobili coś podobnie wydajnego, ale o o wiele mniejszych tam kosztach i tam trenowania i używania jakby tego.
No i też jest też wersja jakaś open source’owa, gdzie to można niby na kompie postawić.
No właśnie ciekawe jakie wymagania tej wersji open source i możliwości też.
RTX pewnie…
tą czterysta… cztery tysiące dziewięćdziesiąt albo coś w tym stylu pewnie no.
No pewnie takie no.
Druga rzecz to…
urząd skarbowy sobie zainstalowałem
Na androidzie, czy przynajmniej, nie wiem czy można na dwóch
telefonach, ale przynajmniej na androidzie. No i co można
powiedzieć? No działa, normalnie z tobiekiem wszystko to
można zrobić. Czekam na 15 lutego, kiedy mi się to tak
bardziej przyda, no bo wtedy przyjdzie rozliczenie.
No dokładnie, dokładnie, więc będzie można sprawdzić, czy
Czy w ogóle ta funkcja jest tam zaimplementowana, czy możesz złożyć bit z telefonu?
No, to się zobaczy. Jak tam wszedłem, to na razie ten twój bit, tam był taki przycisk.
To jak to klikłem, to mi się otworzyła przeglądarka.
I od razu byłem zalogowany do tego.
No i tam mi pisał, że rozliczenie tam będzie dostępne dopiero 15 lutego.
Ale to dopiero pierwsze…
No dokładnie, bo to jeszcze czas.
Trzecia rzecz właśnie, bo jak tam wiecie, byłem wolontariuszem Wielkiej Orkiestry.
Tam 600 zł mi się udało uzbierać.
Gratulacje.
No i nagrałem filmik.
No jest problem.
Czym go pociąć w miarę łatwo i szybko, bo…
Bo tak bawienie się z sztatem GPT i FPEG-iem to tak trochę…
mi się nie uśmiecha.
Co do Rapera to słyszałem, że porędy, że jakość się pogarsza znacznie.
Przynajmniej ja tak z testów niestety muszę powiedzieć.
Ewentualnie może ktoś jest w stanie podzielić się jakimiś dobrymi ustawieniami,
bo ja kiedyś pamiętam, że ja się tym bawiłem.
Zadanie było dość proste, mianowicie nagrać ścieżkę dźwiękową do filmu,
Który już był przygotowany i stwierdziłem, że spróbuję to połączyć.
Skoro Reaper pozwala na renderowanie klipów wideo, no to spróbuję po prostu czegoś takiego dokonać.
Ale z informacji, jaką dostałem od kolegi, z którym pracowaliśmy nad tym materiałem,
no to, że jakość była wizualnie sporo gorsza od tego, co jemu udało się stworzyć
Aha, no właśnie. I to nie wiem, czy tu jest problem ustawień przy renderze, czy…
Skoro nie FFMP, to może rozwiązaniem dla Ciebie byłby ten program, który kiedyś Paweł prezentował, czyli Lossless Cut.
Jakoś ciągnąłem i jakiś trudny jest.
A słuchałeś podcastu?
No może, kurde, jeszcze raz to, nie no, słuchać kiedyś słuchałem, ale to ja może jeszcze raz chyba.
To spróbuj, może akurat.
No tego, no bo jeszcze próbowałem na iPhonie.
I mówiłem.
Ale tam się nie da.
Przynajmniej ja, ja nie umiem, ale się nie da.
Na Macu jeszcze…
Znalazłem E&E Clips, nawet tam chyba Piotr Witek to gdzieś tam pisał na temat tej aplikacji.
Wszystko jest niby okej, tylko mi skrót jeden nie działa.
Command Ctrl S, który służy do zaznaczania tych klipów.
Kurde, nie wiem.
Tam poza tym w tej mojej szufladzie, bo to było tam kiedyś chyba,
on to wrzucał i ten link do pobierania, on nie działa.
Ale w Appelvis jest nowsza chyba wersja i jest normalnie w App Store,
no i normalnie ją pobrałem, zainstalowałem i…
No jest niby dostępna, ale żeby ten skrót mi działać, nie wiem czemu mi kurde nie działa.
Nie wiem, czy przez to, że do tego Maca o mini mam podłączoną klawiaturę od Windowsa, czy taką zwykłą, czy nie wiem.
Nie, to raczej nie powinno robić już nic, tylko musisz pamiętać o tym, że jeśli nie zmieniałeś wystawień, gdzie masz modyfikatory, co można zrobić,
Klawisz Command i Option są zamienione miejscami, ale pewnie o tym już wiesz, bo…
Tak, tak, tak.
Command to chyba jest jak Windows, chyba.
Dokładnie, tak. One są zamienione miejscami.
Akurat tego programu nie korzystam, natomiast jeśli jakiś skrót Ci nie działa,
ja bym po prostu też rozejrzał się w menu,
czy nie ma odpowiednika tego polecenia.
Nie edycja na przykład, czegoś takiego bym szukał.
Kurde, no właśnie szukałem i właśnie tam jakoś…
A ten iMovie na Macu, tam chyba nie wiesz czy tam da się
z voice-overem jakoś…
Pewnie coś by się dało, chyba ktoś kiedyś z tego korzystał,
natomiast więcej informacji nie mam.
Bo jak ma to wyglądać jak na Iphone’ie, no to no nie no.
Sorry, że na Iphone’ie się naprawiłem.
Aha, no bo próbowałem, no to normalnie dotykam tego, ale to się nie da.
Ale dobra, dzięki, to może jeszcze tam będę coś jeszcze próbował, no.
No dobra, chętnie, chętnie.
Aha, dobra.
Tak, ale przecinanie moja szyfrada? No dobra, spróbuję, zobaczymy.
Dobra, dzięki.
Pozdrawiamy.
I nie wiem, czy mam jeszcze jakieś wiadomości?
Na razie nie.
Nie, to u mnie Messenger.
Dobrze. No to Messenger, to dobrze, że o nim mówimy, bo tu Meta obiecuje poprawę i NFB przy tym współpracuje.
Piotrze, ty wiesz więcej.
Dokładnie, mamy informację, która pojawiła się jako wątek na Macedonię profilu AccessOn,
czyli to jest profil nowego podcastu, który prowadzi teraz Jonathan Mosen z ramienia NFB,
czyli National Federation of the Blind, na Krajowej Federacji Niewidomych Stanów Zjednoczonych,
jak tutaj to zostało przez Dziepala przed chwilą przetłumaczone,
bo NFB od jakiegoś czasu właśnie zaczęło się bardzo angażować w takie sprawy,
Dostępności różnych platform technologicznych i dobrze, no bo jak sami często
zauważacie, zdarzają się sytuacje, że ta dostępność regresuje w niektórych
sytuacjach. No i dobrym przykładem tego jest Facebook. No i mieliśmy tutaj kilka
takich problemów. Mieliśmy problem z tym, że ludzie na iOSie nie widzieli, co
piszą na przykład. No i też mieliśmy taki problem, że jeśli ktoś lubił korzystać
ze strony mBasic, no to z niej korzystać nie mógł, no bo ta strona po prostu
…zniknęła, a w międzyczasie pełna wersja strony Facebooka ma swoje bolączki dostępnościowe.
No i NFB się tym zainteresowało, rozpoczęli współpracę z Meta, no i już jakieś owoce tej współpracy mamy okazję widzieć.
Ja teraz przeczytam ten post, który na Was ogłonie się pojawił, no i później się do tego postu odniesiemy,
bo wiem, że na przykład to, co zostało zaproponowane mi nie działa, wiem, że Michał to testował,
Więc myślę, że tutaj więcej powiemy za moment, ale warto właśnie zacząć od tego, co tutaj Jonathan Mosen napisał.
W październiku 2024 roku rozpoczęliśmy rozmowy z firmą Meta na temat regresji dostępności na Facebooku.
Najbardziej krytycznym problemem było wycofanie strony mBasic na Facebooku.
Chociaż ta wersja została pierwotnie zaprojektowana dla urządzeń mobilnych,
ograniczonych możliwościach.
Jej prosty, oparty na tekście
układ sprawił, że była realną
alternatywą dla coraz
bardziej niedostępnej strony
Facebooka na komputery stacjonarne
dla niewidomych użytkowników
czytników ekranu.
Witryna M-Basic została zamknięta
ze względów bezpieczeństwa i wydaje
się, że meta mogła
nie w pełni zrozumieć zakres
Jesteśmy zobowiązani do współpracy z Meta, aby zapewnić, że główna strona Facebooka stanie się w pełni dostępna dla użytkowników, użytkowników ekranu.
To jest w ogóle o tyle ciekawe, że niedawno słuchałem wywiadu w podcasie DoubleTap, gdzie był wywiad z człowiekiem, który długie lata przepracował w Appu i był odpowiedzialny m.in. za rozwój pierwszego voiceovera na Macu.
Jak współpracował z osobami niewidomymi, po czym ostatnie kilka lat przeszedł
właśnie do mety. Teraz w Imajais pracuje, ale za czasów pracy w mecie właśnie
pracował nad poprawieniem dostępności pełnej strony Facebooka i chwalił się,
że niby ma być lepiej. Różnie tego efekty widać moim zdaniem, ale wracamy
do tekstu.
Jesteśmy zachęceni chęcią meta do pracy
nad tym celem, czyli tutaj po prostu Mometa obiecuje, że będzie lepiej.
Meta wprowadziła adres URL,
który wymusza działanie obecnej
obecnego mobilnego Facebooka na
nowoczesnych komputerów, stacjonarnych
laptopów.
Ze skrót, ze skutkiem
natychmiastowym można odwiedzić
ten adres URL i ten adres jest
w miarę prosty.
Jest to po prostu facebook.com
ukośnik, znak zapytania
Jeszcze raz powtarzam, ten adres facebook.com
ukośnik, znak zapytania, force, podkreślenie, mobile, równa się 1.
Na podomyślnie facebook nawet jeśli byśmy weszli na przykład na m.facebook.com
jeśli wykryje po pewnie naszym tak zwanym user agentien, czyli tym jak
nasza przeglądarka się m.in. identyfikuje, że prawdopodobnie
Jeżeli to nie jest smartfon, to nas przekieruje.
A ten adres ma w teorii spowodować,
że zostaniemy przekierowani na wersję mobilną.
Nie będzie to wersja mobilna M-Basic,
a ta bieżąca wersja mobilna zoptymalizowana
pod ekranem dotykowym,
ale mimo wszystko też starsze przeglądarki.
To nie działa wszędzie.
To też ludzie mówili pod tym wątkiem namasne do mnie,
Ale to nie jest taka kwestia, że to działa tylko w Stanach Zjednoczonych,
no bo mamy tutaj informację, że to w innych krajach też u niektórych działa,
nawet u nas właśnie. Michałowi to zadziałało, a mnie działać nie chce.
Zadziałało, ale powiem szczerze, o tym mogę powiedzieć tylko tyle dobrego,
że przy tych różnych elementach, które tam się pojawiają na Facebooku,
gdzie mieliśmy te linki z takimi różnymi śmieciami, z jakimś tekstem
zupełnie bez sensu, no to tego nie ma.
Ale na przykład nie ma też nagłówków, a przynajmniej
zazwyczaj ich nie ma, bo czasem jesteśmy w stanie dotrzeć do jakiegoś
nagłówka, który działa w bardzo osobliwy sposób.
Raz mi się tak dziś zdarzyło, a nawet kilka razy, a potem już nie byłem
w stanie tego zreplikować, że naciskam literkę
H, przechodzę do jakiegoś tam w końcu nagłówka,
Ale okazuje się, że jest to nagłówek ostatni na stronie.
No i myślę sobie, dobra, to ta strona ma jeden nagłówek pewnie.
Nic bardziej mylnego. Po naciśnięciu Shift-H okazuje się, że jestem w stanie się cofać.
Więc ta prawidłowa kolejność to tam ewidentnie nie jest coś, co zostało zaprogramowane w należyty sposób.
Błędów jest podejrzewam, że też więcej i na tę chwilę to ja sobie nie wyobrażam korzystania z tej strony
z użyciem czytnika ekranu.
No i nadal jest moim zdaniem dalej ten problem, że
najlepszym rozwiązaniem obecnie dla użytkownika niewidomego
jest korzystanie z aplikacji mobilnej, no bo na komputerze
to zarówno stronę facebook.com, jak i tę stronę,
no powiedzmy, że mobilną, to przegląda się źle.
Po prostu źle.
Tak, no i zresztą do podobnego zdania tutaj dochodzi
Jonathan Mowden, no bo tutaj tekst jest kontynuowany, no poza tym, że sugeruje
dodać sobie to do zakładek, ale później pisze.
Chociaż doceniamy reakcję Meta na nasze poparcie i wprowadzenie tego obejścia,
oferujemy następujące zastrzeżenia.
Niestety, obecnie nie ma łatwego sposobu na przechodzenie od jednego posta do
Po drugie, sugerujemy, aby każdy post na Facebooku był oznaczony nagłówkiem lub punktem orientacyjnym w celu usprawnienia na aplikacji.
Strona przewija się w nieskończoność, więc nie ma określonej liczby postów na stronie.
Ponieważ ta strona została zaprojektowana dla przeglądarek mobilnych, mogą istnieć inne problemy, których nasi testerzy jeszcze nie wykryli.
Jeśli masz jakieś uwagi dotyczące funkcjonalności tego obejścia,
przyślij je do Jonathana Musena, dyrektora wykonawczego NFB
do spraw doskonałości dostępności.
musen.nfb.org
Kto wie, czy te informacje w terenie dojdą szybciej,
niż gdybyśmy mieli z samym Facebookiem się kontaktować,
no bo tam, przypominam, dział dostępności przestał istnieć
…i pomału w bólach coś się odradza.
Nie wiem, czy ten formularz kontaktowy z docepnością powrócił.
Czy jeszcze nie? Szczerze mówiąc, może ktoś z Was coś wie więcej.
No nie, chyba nie.
Rozumiem, że nie. No niestety.
Tak że ewentualnie tutaj wiadomo,
jeśli byście chcieli z panem OZNem się kontaktować,
no to po angielsku, tutaj ewentualnie tłumaczem się posilić,
gdybyście chcieli coś zgłosić.
Członkowie przekazali nam również informacje zwrotne.
Na temat regresji w aplikacji Facebook na iOS.
Najbardziej znaczący błąd dotyczy trudności stworzenia postów,
ponieważ to, to co użytkownicy wpisywali w kompozytorze,
czyli po prostu w tym polu edycji, co słychać, tak tam gdzie piszemy posty,
nie było widziane przez voiceover.
Pomogliśmy w filmie metod zidentyfikować ten problem
i wiemy, że użytkownicy Facebooka będą zadowoleni z wprowadzanej poprawki.
Wreszcie w tej rundzie poprawek Facebook
sprowadził już ulepszenie wydajności osi czasu.
W zeszłym roku Facebook wprowadził zmianę, która oznaczała, że zdjęcie
profilowe użytkownika było postrzegane przez voiceover jako osobny
element. Oznaczało to, że każdy post wymagał dwóch przeciągnięć podczas
nawigacji, czyli no po prostu voiceover się zatrzymywał dwa razy, tak na każdym
Właściwie to zdjęcie nawet było czytane, mieliśmy informację, zdjęcie profilowe tej i tej osoby za każdym razem.
Teraz zostało to przywrócone do poprzedniego, bardziej wydajnego zachowania.
Jest jeszcze wiele do zrobienia i wolelibyśmy, aby wycofanie strony mBasic nie spowodowało tak długotrwałych niedogodności dla wielu osób niewidomych.
Niemniej jednak meta była otwarta na nasze obawy i współpracowała z nami w dobrej wierze.
W rezultacie nasze partnerstwo z metą jest silniejsze i kontynuujemy z nimi dialog w wielu kwestiach,
w tym w sprawie ulepszeń okularów inteligentnych meta Ray-Ban.
Miejmy nadzieję faktycznie, że ten dialog będzie kontynuowany
Jeśli chodzi o dostępność mety, to tam jest naprawdę bardzo nierówno, bo z jednej strony mamy naprawdę fenomenalnie działającego Whatsappa na praktycznie każdej platformie,
no a z drugiej strony mamy właśnie Facebooka, o którym wspominaliśmy. Mogłoby być lepiej, miejmy nadzieję, że faktycznie jakieś kolejne znaczące zmiany będziemy w tej sferze widzieć,
no bo jednak w Polsce, umówmy się, Facebook jest dosyć ważną, myślę, usługą, bo dużo informacji znajdziemy tylko tam.
To prawda, przede wszystkim właśnie ze względu na to, że dużo osób tam jest, publikuje, jeszcze na całe szczęście, niekiedy treści tekstowe, wiadomo, że są obrazki, no ale do obrazków można załączyć tekst alternatywny.
Czasem to się zdarza, czasem coś wygeneruje facebookowe AI, więc ten Facebook, no dla nas jest takim narzędziem, z którego z jednej strony
Jakoś da się korzystać. Z drugiej strony tam naprawdę sporo różnych treści możemy znaleźć takich, które nas interesują i dotyczą np. różnego rodzaju spraw lokalnych, bo bardzo dużo grup jest w rodzaju jakichś spotted albo takich grup zrzeszających, jakieś niewielkie lokalne społeczności.
O tym, żeby daleko szukać, a właściwie nie szukać, to na przykład nasza wspólnota mieszkaniowa ma grupę na Facebooku i tam się pojawiają najbardziej aktualne informacje i dla mnie na przykład to jest zdecydowanie najłatwiejszy sposób dotarcia do nich, no bo kartki na tablicy to raczej nie zauważę, a post na grupie, a i owszem, nawet jeżeli ktoś tam…
Nawet jeżeli ktoś tam opublikuje zdjęcie tej kartki, to zawsze można już sobie ją rozpoznać.
Okej, ale ważne, że wiem, że trzeba się czymś zainteresować.
Tak, mamy mieć aplikację w naszej wspólnocie. Jest to przynajmniej w mojej umowie o mieszkanie.
Ponoć jeszcze powstaje. Zobaczymy. Mamy nadzieję, że będzie dostępna.
Dostępne mogą być także, albo mogą i nie być, w zależności jaką sobie kupimy,
ale raczej w mniejszości są te bardzo dostępne, mikrofalówki.
A Australijczycy wymyślili rozwiązanie, mianowicie stworzyli zestaw,
który można zamontować na, jak twierdzą, dowolnej mikrofalówce nie starszej niż 5 lat.
No i najlepiej by było, gdyby była to mikrofalówka na przyciski,
ponieważ w takiej mikrofalówce najłatwiej zdemontować ten panel sterowania
i zamontować właśnie ten zestaw, który proponują.
Zestaw, który kosztuje 240, a aktualnie na wyprzedaży 210 dolarów,
jak się domyślam, australijskich, więc można sprawdzić, ile to kosztuje,
no ale myślę, że będzie to cenowo zbliżone do niejednej mikrofalówki,
Który po zamontowaniu przez wyspecjalizowanego technika,
i tutaj producenci przesyłają zawsze oprócz instrukcji obsługi dla użytkownika końcowego,
również instrukcję techniczną właśnie dla osoby wykwalifikowanej,
najlepiej właśnie przedstawiciela takiej firmy,
który zainstaluje nam tą nakładkę.
Tak to nazwijmy.
No i kilka przykładowych modeli jest na stronie producentów wymienione.
Na przykład jest to jedna z mikrofalówek firmy Panasonic,
jest to też mikrofalówka firmy Silver.
I uwaga, tak to mniej więcej brzmi.
Jest.
To chyba tyle. No więc jak słychać, to nie jest tylko tak, że tam jakieś przyciski
po naciśnięciu coś mówią, tylko rzeczywiście on jest w stanie
mierzyć gdzieś tam ten czas, może jakąś temperaturę sprawdzi
i nam te różne rzeczy przeczyta. No więc skoro udało się coś takiego zrobić
w firmie w Australii, no to pytanie, jak skomplikowane jest coś takiego
do wykonania w ogóle, bo no przypuszczam, że skoro mikrofalówki
są tak łatwe do zdemontowania i do zamontowania czegoś nowego,
co wyczytuje tyle informacji, no to pewnie jest to coś, co mogłaby
…żeby zrobić jakaś firma też i w Polsce, na przykład.
Ciekawe, czy to musiałyby robić firma, czy to mogłyby robić np. jakiś zespół,
właśnie, czy to nie jest zadanie dla jakiegoś hackathonu, czy powiedzmy nawet,
czy hackerspace’a, dla jakiejś nieformalnej grupy entuzjastów.
Ja myślę, że coś takiego byłoby do zrobienia, bo jeżeli zabierze się za to
jakaś firma, to będziemy mieli, obawiam się, niestety, taki sam problem,
jak w przypadku, no, tego australijskiego rozwiązania. Myślę, że ta cena
To jest równowartość niejednej kuchenki mikrofalowej, jeżeli chodzi o ten zestaw.
Więc tu może być problem. A może dałoby się przez jakiegoś pasjonatę zrobić coś takiego po kosztach.
Może, może, kto wie. A może nawet i w naszym środowisku ktoś byłby tematem zainteresowanym.
Mamy wiadomość. Mamy wiadomość od Łukasza.
Witam i przychodzę z pomysłem.
W związku z zeszłorocznym Noblem z fizyki,
czy mogłaby powstać techniczna audycja o historii
i podstawach sztucznej inteligencji?
Co to tak naprawdę jest? Czy jest to fizyczny sprzęt,
który możemy wziąć do ręki lub postawić na biurku?
Czy jest to po prostu rodzaj oprogramowania?
Co to są czipy i akceleratory AI,
których nie dostaniemy zbyt dużo od Amerykanów?
Jak wyglądają startupy i serwerownie
…pobierające tyle prądu, co małe miasta. Co to są modele językowe? Pytań jest cała masa.
Chciałbym, żeby powstał taki fascynujący odcinek z dawką konkretnej wiedzy, obalający wszystkie mity.
Zauważyłem, że setki tysięcy ludzi używa tego pojęcia, nie wiedząc, co ono oznacza.
I pamiętajmy, że po raz pierwszy pojęcie sztuczna inteligencja zosta, i tu niestety mi się zawiesiła ta wiadomość, spróbuję odszukać.
No niestety, nie jestem w stanie tak na szybko dalszego ciągu tej wiadomości odczytać.
To jest Whatsapp, słuchajcie, jeżeli wy chcecie, żebym przeczytał jakąś wiadomość, to jakbyście mogli nie pisać na Whatsappie, tylko na nasz panel kontaktowy albo na YouTubie, na Facebooku, bo on właśnie w tej webowej wersji to lubi sobie tak czasem coś zawinąć, zostawić tę wiadomość i potem z tym jest problem.
Natomiast Łukaszu, odpowiadając na twoje pytanie, ja nie sądzę, żeby w naszym zespole były osoby, które aż tak głęboko siedzą w tematach sztucznej inteligencji, żeby były w stanie udzielić odpowiedzi na te pytania.
Te pytania są no bardziej, powiedziałbym, z takiego mainstreamu. To, co ja mogę zaoferować i myślę, że taka audycja powstanie i zresztą już niejednokrotnie o tym mówiliśmy w Tyflo Przeglądzie,
to po prostu podzielenie się różnego rodzaju wskazówkami i historiami, w jaki sposób my wykorzystujemy sztuczną inteligencję.
Bo to możemy powiedzieć, możemy podzielić się naszym doświadczeniem z takiego użytkowania praktycznego, ale jak wygląda serwerownia, czy czym się konkretnym charakteryzują czipy związane z AI,
to myślę, że o takie rzeczy to należałoby pytać ludzi, którzy rzeczywiście się mierzą z tym tematem, którzy projektują takie wielkie modele językowe,
…które z nimi pracują, no takie jedno z pierwszych nazwisk, jakie mi przychodzi do głowy, jeżeli chodzi o popularyzatorów nauki, to Aleksandra Przegalińska.
Ona zajmuje się sztuczną inteligencją, niejednego wywiadu udzieliła i opowiadała o tym, jak to z tym AI jest i jak ta cała rzecz wygląda.
I jest jeszcze sporo innych osób, które się tym zajmują i zajmują się no właśnie od takiej strony też bardziej teoretycznej i projektowej i polecałbym Ci poszukać po prostu podcastów z tymi osobami.
A my możemy się wypowiedzieć jak najbardziej w tematach sztucznej inteligencji, ale z perspektywy użytkownika niewidomego i do czego to się może przydać.
To prawda. Aczkolwiek, kto wie, kogo nam jeszcze kiedyś tutaj nasz mikrofon studyjny przyniesie.
Oczywiście.
Może i ktoś w naszym środowisku jest, kto temat gdzieś tam zgłębia.
Nawet jeżeli z nim nie pracuje, to może dużo o nim po prostu wie i się z jakichś przyczyn nim interesuje.
A my teraz zainteresujemy się całą gamą różnych rzeczy, niepowiązanych ze sobą,
bo nadszedł czas na ostatni już element Tyflowieści na dzień dzisiejszy,
czyli drobne newsy.
Piotrze, to ty zacznij, ja potem dokończę.
Dokładnie tak.
Bo coś obawiamy się w tym temacie do powiedzenia, prawda?
Tak. I w ogóle pierwszy temat to jest nawiązanie bezpośrednio
do tego, o czym ty mówiłeś, chyba w zeszłym tygodniu nawet.
Tak, właśnie czytałem.
Znaczy, no widziałem to też po śledze GitHuba NVIDIA,
ale no powiedz to, popowiedz.
Tak, no to dla tych, którzy nas nie słuchali w zeszłym tygodniu,
Paweł wspominał o tym, że toczy się dyskusja,
żeby z MVDA został usunięty sterownik z API 4,
bo on może stanowić ryzyko bezpieczeństwa na przykład.
To jest po prostu stare API do syntezy.
Ostatnio MVDA znów prowadziło zmiany,
które generalnie będą wymagać poprawek od deweloperów wszystkich syntezatorów.
Jest to związane z tym, jak MVDA komunikuje się z urządzeniami audio,
Swoją drogą, efektem obocznym tego będzie też to, że wyleci nam muzyczka z instalatora.
Także jak uruchomicie sobie instalator NVDA na świeżym komputerze,
to po prostu nie usłyszymy tego słynnego logo,
które jedni lubią, inni nie.
Ono było tyle fajne, że jak mieliśmy bardzo wolny sprzęt,
to wiedzieliśmy, że tam coś się ładuje,
a teraz po prostu musimy czekać, aż NVDA do nas przemówi.
No ale à propos właśnie SAPI,
to przy okazji zmiany,
Która ten sterownik naprawiła na ten moment w wersji 2025.1, która ma się za jakiś czas pojawić.
Została wprowadzona jeszcze jedna zmiana, a mianowicie okno dialogowe, które będzie informowało użytkowników,
że sterownik SAPI 4 będzie porzucony i w wersji 2026.1, czyli w przyszłym roku, zostanie całkowicie usunięty.
Także pierwszy raz jak ktoś przełączy się na ten syntezator, wyświetli nam się to powiadomienie.
Będziemy mogli zaznaczyć, żeby nam ono już nie było pokazywane.
Natomiast po prostu musimy mieć to gdzieś w tyle głowy, że będziemy musieli znaleźć
sobie jakiś alternatywny, bardziej współczesny syntezator.
Ale swoją drogą ciekawe właśnie, czy ktoś nie stworzy jakiejś wtyczki, która
będzie obsługiwać SAPI-4.
Miałem powiedzieć, że wcale by mnie to nie zdziwiło, przecież zresztą kod
NVIDIA jest otwarty, więc kto wie, czy ktoś po prostu nie weźmie tego kodu,
który tam jest i nawet jeśli to oficjalnie wyleci, to pewnie ktoś to będzie
Ale przy okazji też dostałem takie informacje, że np. chińska społeczność NVIDIA pracuje też nad poprawkami SAPI-5.
Np. NVIDIA za jakiś czas będzie w stanie usuwać ciszę z tego dźwięku, który nam wysyła syntezator.
Syntezatory bardzo często lubią na początku komunikatów wysyłać ciszę i dlatego one są wolniejsze.
Czyli np. ZDSR tą ciszę usuwa i MVDA za jakiś czas ponoć też będzie w stanie coś takiego zrobić.
Także może nam przy okazji też po prostu nowsze SAPI-5 przyspieszy. No zobaczymy.
Ale pewnie to faktycznie ktoś to SAPI-4 wyrzuci jako dodatek, coś czuję.
No ale do tego jeszcze trochę czasu zostało.
Natomiast faktycznie warto o tym pamiętać, że w przyszłym roku SAPI-4 już nie będzie.
Przynajmniej wymówili jej oficjalnie.
Dalej Android, tutaj mamy kilka
informacji z Androidem związanych.
Na początek meta znowu.
Opowiadanie o dwóch metach, tak
naprawdę jednej, o której już
mówiliśmy, gdzie Facebook jest taki
sobie, no i drugi Whatsapp, o którym
też w pewnym sensie wspominałem,
że naprawdę jest z Whatsappem bardzo
dobrze i tak co jakąś audycję,
co każdą audycję, ostatnio
praktycznie mówiłem o tym, że do
Androida coś fajnego trafiło, bo
mówiłem o tym, że najpierw
Pojawiły się czynności na czatach,
później czynności na samych wiadomościach.
A teraz kolejna informacja, w której dowiadujemy się…
Po pierwsze, mamy powtórzenie informacji, że te czynności są,
więc jeśli nie wiedzieliście, czy działania, tak to się w TokPaku nazywa,
możemy sobie łatwo odpowiedzieć na czat, przekazać go dalej,
jakąś konwersację wyciszyć i wiele innych opcji.
Ale też nawigacja w grupach zwłaszcza od wiadomości do wiadomości
będzie teraz znacznie przyspieszona,
bo jedna wiadomość to po prostu będzie jeden element,
więc gestami przesuwając prawo w lewo
będziemy od dłuższego czasu skakać od wiadomości do wiadomości.
Kolejna fajna zmiana to też coś, co na iOS-ie jest od jakiegoś czasu
i na komputerze chyba jeszcze nie, ale może ktoś mnie poprawi.
Taka informacja, że po prostu nie będą nam czytane numery telefonu.
Jeśli nie mamy kogoś w kontaktach, to wcześniej było tak, że mieliśmy informację,
że na przykład, nie wiem, może Jan Kowalski i potem słyszeliśmy
plus 4, 8, 1, 2, 3, 4, 5, 6, 7, 8, 9, cały numer telefonu.
Teraz już tak nie będzie, po prostu będziemy mieli informację
może Jan Kowalski i tyle. Będziemy musieli sobie ewentualnie,
jakby ktoś chciał ten numer podejrzeć, wejść do informacji i tam sobie to sprawdzić.
Ale to też znacznie nam przyspieszy czytanie, zwłaszcza w grupach.
W grupach prawdopodobnie będziemy mieli częściej sytuacje,
że nie będziemy mieli wszystkich członków danej grupy w kontaktach.
Tak że to też jest jak najbardziej bardzo fajna zmiana na plus.
I oby ten WhatsApp się nie zepsuł, bo naprawdę fajnie się z niego korzysta.
Podobnie zresztą jak z aplikacji PixiBot,
jak ktoś chce czytać, która nam pozwala rozpoznawać
zarówno zdjęcia, jak i filmy, nawet generować wersje filmu z audiodeskrypcją.
Dosyć mamy szerokie możliwości personalizowania tych opisów,
z jakiego modelu aplikacja ma korzystać, dużo ustawień w tej aplikacji mamy.
I w najnowszej wersji, przynajmniej na Androida, na iOSie tego jeszcze nie mamy,
aplikacja będzie w stanie nam te filmy i zdjęcia przetwarzać w tle.
I to jest o tyle fajne, że zwłaszcza jeśli chodzi o opisy filmów,
One generalnie trochę czasu zajmują. Im dłuższy film, tym ten opis będzie dłuższy, on musi zostać pobrany, wysłany nawet na serwer.
Jeśli pobieramy na przykład film z YouTube’a, no to aplikacja go najpierw pobiera na nasze urządzenie, potem jest wysyłany, więc to też trochę może potrwać.
I teraz byśmy chcieli w międzyczasie zrobić na telefonie coś innego. Nie wiem, może właśnie zobaczyć i sprawdzić powiadomienia, odpowiedzieć na jakąś wiadomość.
Wcześniej, gdybyśmy PeakyBot’a zminimalizowali, to to przetwarzanie nam się zatrzyma.
A teraz spokojnie po prostu możemy go zminimalizować, może nawet zablokować
ekran, przepuszczam. A kiedy nasz opis będzie gotowy, no to po prostu zostaniemy
po wiadomienie. Możemy wtedy sobie do aplikacji wrócić, no i wtedy ten opis
zostanie nam przeczytany.
Nowość na razie dostępna wyłącznie na Androidzie, jeśli coś podobnego pojawi się
na iOS-ie, to dam Wam znać.
Teraz sprawdzałem w App Store, że ostatni raz aplikacja na iOS-a była aktualizowana miesiąc temu,
ale takiej informacji, że coś takiego na iPhone’ie możemy zrobić, nie mamy.
I na koniec, jeśli chodzi o Androida, no to tutaj mam jeszcze informację o ciekawej aplikacji,
której niestety nie mam jak przetestować, no bo po prostu nie mam urządzenia z Androidem.
Natomiast, gdyby ktoś chciał sobie rozpoznawać mowę
Whisperem na Androidzie, i to nawet w każdym miejscu,
gdzie wykorzystujecie dyktowanie,
to okazuje się, że nie jest do tego aplikacja.
Aplikacja, co ciekawe, nie jest w sklepie Play,
natomiast jest w sklepie bardziej.
To jest repozytorium otwarto-źródłowych aplikacji F-Droid,
która wygląda właściwie jak sklep.
Możemy sobie tego F-Droida ściągnąć i on ma taki interfejs
Jest bardzo zbliżony do sklepu Play.
Nazywa się po prostu Whisper, będzie do tej aplikacji link.
I kiedy sobie tą aplikację pobierzemy,
to możemy z niej korzystać na dwa sposoby.
Po pierwsze, po prostu do transkrypcji plików
czy to nagranego dźwięku z mikrofonu.
Więc jeśli aplikację otworzymy,
to możemy sobie różne rzeczy transkrybować.
Ale też mamy do dyspozycji wersję
W formie tak zwanego IME, czyli tak jakby zewnętrznej klawiatury czy nawet metody rozpoznawania ekranu…
Boże, rozpoznawania mowy, która powinna być zastępna w całym Androidzie.
Więc z tego, jeśli dobrze rozumiem, to po prostu aplikacja będzie nam się albo integrowała jako klawiatura,
albo będzie jedną z dostępnych opcji, kiedy klikniemy w jakiejś aplikacji, w jakiejś klawiaturze na przycisk dyktowania,
Jako jedna z metod, w jakim tekst może być rozpoznany.
Pytanie, które aplikacje będą z tym działać.
Pewnie coś czuje, że Gboard będzie preferował swoje dyktowanie.
Natomiast jeśli to jest usługa wprowadzania,
to będziemy mogli sobie ją wybrać z menu zmiany metody wprowadzania.
No i wtedy możemy sobie coś dyktować.
Aplikacja oferuje nam dwa modele.
Mamy model najmniejszy, który wspiera tylko język angielski.
Mamy trochę model większy, który już wspiera języków więcej.
Nie wiem, z jakim rozmiarem tutaj mamy do czynienia,
natomiast pewnie to będzie albo rozmiar small albo medium,
więc to nie będzie tak dokładne jak na przykład te modele large,
które możemy wykorzystywać na komputerach.
Mamy też ograniczenie czasu do 30 sekund,
więc jakichś dłuższych tekstów w ten sposób nie podyktujemy.
Natomiast do pisania w dowolnym polu edycji na klawiaturze
Myślę, że takie 30 sekund powinno w zupełności wystarczyć.
Także jeśli nie jesteście zadowoleni z dyktowaniem Google,
szukacie alternatyw, takich, które nawet zresztą działają na urządzeniu,
bo to też nie jest wysyłane do żadnej chmury na starcie aplikacji,
a tylko sobie modele dociąga z serwisu Hugging Face,
na którym takie modele są,
i później całe przetwarzanie odbywa się wyłącznie na naszym urządzeniu,
no to myślę, że warto się tym zainteresować.
Następnie kilka rzeczy związanych z iOS-em, mianowicie mamy w ogóle aktualizacje, wszystkie systemy Apple zostały zaktualizowane do wersji .3, czyli to jest iOS 18.3, macOS Sequoia 15.3, watchOS 11.3, tvOS też, ale tutaj będziemy mówili głównie o tych trzech.
Jakichś bardzo dużych zmian w tych systemach nie ma.
Generalnie, jeśli chodzi o Maca, to głównie to są zmiany związane z Apple Intelligence,
które już nie będzie nam podsumowywać powiadomień z aplikacji,
które nam wysyłają wiadomości, bo tam na przykład BBC zwróciło uwagę,
że różne, dziwne podsumowania Apple Intelligence tworzyło,
w których to ludzie, którym tak naprawdę nic nie było, ginęli,
…i byli postrzeliwani i różne takie nieciekawe sytuacje, więc tymczasowo Apple to po prostu dla aplikacji z kategorii wiadomości wyłączyło te podsumowania.
Mamy też na Macu aplikację Image Playground do tworzenia zdjęć sztuczną inteligencją i własnych emotek.
To też może w sumie się przydać nam jakbyśmy zdjęcie jakieś do jakiejś sytuacji potrzebowali.
Jeśli chodzi o poprawki dostępności, to tutaj jakichś dużych zmian nie ma.
Niestety, nie ma nowych błędów, na szczęście.
Na Macu mamy nowy dźwięk na to, kiedy te funkcje Apple Intelligence
się nam pojawiają po zaznaczaniu tekstu.
Dźwięk jest dużo krótszy.
I cały czas towarzyszy mu komunikat, że narzędzia pisania są dostępne.
W Polsce, chyba że macie system ustawiony na język angielski,
to raczej tego komunikatu nie usłyszycie.
No ale jeśli macie, no to usłyszeć go możecie, zwłaszcza, że teraz systemy Apple
domyślnie będą nam Apple Intelligence włączały, co ciekawe.
Apple mówiło długo, że to będzie coś, co każdy będzie musiał sobie włączyć ręcznie,
a jednak tutaj stwierdzili, że po instalacji, jeśli wszystko się zgadza,
to po prostu te modele zostaną automatycznie pobrane i to będzie włączone.
Oczywiście możemy sobie to wyłączyć, natomiast jeśli tego nie chcecie,
to też po prostu
warto zwrócić uwagę.
Jeśli chodzi o iOS, to parę osób zwraca uwagę na to,
że jest bardziej responsywnie.
Ja dużej różnicy nie odczułem.
Natomiast po prostu może dla niektórych osób
ten system może być bardziej żywawy.
Dla tych, którzy mają iPhone’a 16 z tym przyciskiem do aparatu,
Została dodana funkcja Visual Intelligence, o której mówiliśmy przy okazji z tych nowych iPhone’ów.
To jest ta funkcja, która pozwala nam przytrzymać ten przycisk w dowolnym miejscu,
zrobić zdjęcie czegoś i system na podstawie tego zdjęcia może albo nam wyszukać informacje w internecie,
albo wysłać je do czata GPT, albo jeśli np. tam jest jakaś data, no to może nam ją do kalendarza dodać,
jeśli to jest jakaś np. jakaś ulotka informacyjna.
Jak jest dostępnością tej funkcji? Nie wiem. Może więcej informacji za jakiś czas się pojawi.
Natomiast jeśli macie iPhone na 16, chyba Pro, bo tylko po modelu Pro jest ten przycisk,
ale może w szesnackach też to działa.
No i też musicie być w miejscu, gdzie Apple Intelligent jest wspierany,
no to można to przetestować.
Natomiast jeśli chodzi o Watcha, to tutaj mamy dla nas najważniejszą zmianę,
dlatego że został naprawiony problem z głośnością voice overa,
która czasami lubiła nam skakać.
Problem został naprawiony w taki sposób,
że ta głośność, którą ustawiamy na pokrętle
lub gestami dwukrotnego stuknięcia,
dwoma palcami przesuwaniem w górę, w dół,
steruje teraz wyłącznie głośnością voice-overa,
a bardziej konkretnie nawet wybranego głosu,
co ma swoje konsekwencje, a nie głośnością całego zegarka,
to możemy ustawić np. w centrum sterowania,
gdyby ktoś potrzebował.
Co jest o tyle istotne, że jeśli mamy na pokrętle
Kilka głosów dodane i ściszymy jeden z nich, a np. pracujemy z kilkoma językami,
to się można zdziwić, kiedy przełączymy się na ten drugi język i nagle nasz zegarek
przemówi do nas znowu z pełną głośnością, więc to idealne rozwiązanie to nie jest.
Natomiast faktycznie generalnie problem rozwiązuje.
Ludzie są generalnie z tego zadowoleni.
Poza tym, Apple świętuje miesiąc historii dokonań osób czarnoskórych,
nową tarczą na zegarku. Nową tarczą, która, co ciekawe, jeśli ją ustawimy,
jest też opatrzona unikanymi dźwiękami na pełną godzinę, bo sobie w oczu możemy
taką zegarynkę ustawić, która nam albo co kwadrans, albo co godzinę albo wydaje
dźwięki ptaków różnych, albo po prostu takie proste pykanie. A jeśli mamy tą tarczę
Unity bodajże ona się nazywa, no to mamy wtedy jakieś unikalne na to dźwięki,
które możemy o każdej godzinie usłyszeć. No i to są nowości, jeśli chodzi o Apple.
Natomiast jeszcze tutaj, jeśli chodzi o iOS-a, mam jedną informację też nawiązującą
do poprzedniej audycji, mianowicie mówiłem wtedy, że pojawiła się nowa wersja NVIDIA
Remote’a na iOS-a, która to obiecywała dużo. W praktyce okazało się,
że po prostu ta aktualizacja więcej popsuła,
no bo nam w ogóle nie działała mowa.
Autor, okazało się, był tego problemu świadomy,
wysłał nawet poprawkę, natomiast Apple, wiadomo,
te poprawki akceptuje pomału.
Na szczęście ta poprawka już w App Store się znalazła
i teraz ta mowa działa, natomiast jeszcze ma błędy.
Na ten moment jest dostępna wyłącznie opcja mowy
przez syntezę systemową, a nie voice-overa.
Cuwak prędkości na ten moment nie działa, więc będzie to dla nas mówiło z prędkością domyślną.
No ale gdybyśmy potrzebowali gdzieś z pracy połączyć się z jakimś komputerem przez NVIDIA Remote,
mamy klawiaturę bluetooth koło siebie, no bo tylko tak możemy z tej aplikacji korzystać,
no to już można sobie tego NVIDIA Remote’a naściągnąć i z niego korzystać.
Okej, w porządku.
To teraz ja przejmę może moją część.
I czego się możemy dowiedzieć?
Pierwsza to jest ode mnie dzisiaj drobny news.
To ciekawostka zasadniczo, bo ja lubię przykłady takiej dostępności,
która może nie wiem, czy do końca dostępnością miała być,
z drugiej strony często mamy takie przeświadczenie,
że dostępność to się zaczęła od ap… jakie aplikacje się pojawiły,
przynajmniej w takich kwestiach właśnie, czy jak urządzenia mobilne,
Jak na przykład rozkłady komunikacji miejskiej.
No a tutaj ciekawy przypadek z Londynu, bo szukałem informacji na pewien temat na stronie właśnie Transportu Miejskiego w Londynie.
No i gdzieś tam czytając różne strony a propos dostępności, dowiedziałem się, że w Londynie możemy sobie zamówić informacje o podjeżdżających autobusach na przystanek SMS-em.
Także tych SMS-ów trochę pewnie ten transport Londynu wysyła dziennie,
jeżeli ludzie sobie to rzeczywiście ustawiają.
Ciekawa forma, bo tak by się wydawało, że już teraz te powiadomienia push
wszędzie nas zdominowały.
A tu proszę, SMS-em takie powiadomienia o nadjeżdżających autobusach.
Ciekawe jak dawna to jest, ile osób z tego korzysta, dla kogo to powstało.
Dużo pytań, mało odpowiedzi.
Natomiast kolejne wieści dotyczą programu Scribe.
My pokazywaliśmy kiedyś Scribe for Meetings, to jeśli chodzi o spotkania,
no a Scribe sam w sobie jest taką usługą w chmurze od firmy Numa Solutions,
która rozpoznaje i udostępnia nam, adaptuje nam w jakiś sposób dokumenty.
Tam jakiś jest OCR, jakiś rodzaj AI, no to pokazywaliśmy te opisy obrazów
Wtedy, kiedy jeszcze tylko z rok temu ten test przeprowadzaliśmy,
no nie były jakieś wybitne.
Ale w międzyczasie zdaje się, że oni też się już zaczęli
jakimś GPT posiłkować.
No i tym razem też polepszone
już są opisy zdjęć,
ulepszony OCR, więc wszystko
powinno w teorii lepiej działać.
Ale to, dlaczego postanowiłem
w ogóle o tym napisać
w drobnych newsach,
to fakt, że, przynajmniej tak chwali się producent,
Scribe jest
z pierwszym oprogramowaniem, no przypuszczam, że nie pierwszym,
bo już słyszałem o podobnych rozwiązaniach, ale może to działa
jakoś zdecydowanie lepiej, które rozpoznaje matematykę
z obrazu, działania matematyczne z pliku, który jest tam
gdzieś rozpoznawany i może to jest rzeczywiście nowością,
że ta matematyka jest przetwarzana do MathML-a i możemy sobie ją,
no za pomocą czytników ekranu, które wspierają, a wspierają
obecnie zarówno JAWS, jak i NVDA, możemy sobie, oczywiście po włączeniu
odpowiednich funkcji, instalacji, odpowiednich dodatków, możemy sobie te treści
matematyczne przeglądać i w braillu, i mową. Także jeżeli Was takie rzeczy
interesują, jeżeli Was to dotyczy, no to jest szansa, że tu coś ciekawego,
jakieś nowe możliwości dla Was się otworzą.
Co następne nas czeka, to ze Stanów Zjednoczonych jedziemy do Francji.
Firmę Capsys na pewno większość z Was kojarzy przez telefon z telefony,
nawet serię telefonów Smart Vision. No ale okazuje się, że nie tylko
Smart Vision firma żyje, bo ostatnio wypuścili urządzenie, które nazywa się
CapX i CapX jest to headset, jakiś rodzaj słuchawek noszonych,
na głowie, które potrafią wykrywać przeszkody,
w jakiś sposób są świadome naszego otoczenia
i te informacje o naszym otoczeniu, o przeszkodach,
o tym, jakie obiekty mijamy i tak dalej, podaje nam w 3D.
Informacji o cenie nie znalazłem, bardzo możliwe,
że jest ona wysoka. No i czy się pojawi w Polsce,
tak jak telefony firmy Capsys, myślę, że czas pokaże.
No i na koniec, bardzo często pojawia się temat w naszych podcastach pułapki rentowej.
No i okazuje się, pytacie o to, jak co można by zrobić, jak można by zadziałać.
Cały czas się zastanawiamy, czy ta czy inna władza coś w tym temacie ruszy.
Okazuje się, że problem nie jest jedynie polski, a że ma go w jakiś sposób więcej krajów Europy.
I dokładnie tak samo, jak my mówimy, pułapka rentowa, określenie angielskie brzmi
the benefit trap. Także jest temat szerzej znany. A czemu o tym mówię?
No bo dużo się dzieje i bardzo w tej kwestii się udziela zarówno Europejski Związek
Niewidomych, Europejska Unia Niewidomych, jak i Europejskie Forum Osób
z Niepełnosprawnościami, czyli EDF. Z jednej strony ponoć nawet temat jakoś był
Ulobowany już podczas minionej kadencji, to znaczy minionej go przewodnictwa w Unii Europejskiej
i Węgierskiego, które trwało o minione pół roku. Ponoć właśnie obydwie organizacje i pewnie też
więcej organizacji bardzo, bardzo mocno apelowało do europosłanek i europosłów, żeby coś z tym zrobić.
No i nie udało się dogadać tam na poziomie właśnie parlamentu i nic się z tym nie stało.
Natomiast działanie, które teraz podejmuje właśnie Europejska Unia Niewidomych,
to jest zbieranie informacji od organizacji członkowskich na temat tego, jak sytuacja
wygląda w konkretnych krajach, zwłaszcza w krajach Unii Europejskiej.
Więc można mieć nadzieję, że tu Polski Związek Niewidomych takich informacji
Unii Europejskiej udzieli. No i zobaczymy, co dalej. Pewnie to są takie działania,
No to jest tu jakaś kampania, tu się uderza do jakiegoś europosła,
tutaj na jakimś wydarzeniu się podnosi temat na jakimś szczycie.
To pewnie potrwa, to pewnie w jakiś sposób będzie uciążliwe,
może długo jeszcze efektów nie zobaczymy,
ale chciałem tylko zasygnalizować, że temat jest już…
i to nie jest tylko polska kwestia, temat jest już gdzieś tam
na poziomie europejskim rozgadywany.
No i to wszystko jeśli chodzi o odrobne newsy i o Technicalia na ten tydzień, więc pytanie czy ktoś pisał, ktoś dzwonił, ktoś wołał?
Mamy telefon, mamy telefon, tak, więc odbieramy. Halo?
Halo?
No witamy Cię Patryku i słuchamy.
Witam bardzo serdecznie. Rozumiem, że nie macie przewidzianych nowości w grach na ten tydzień?
Ale są przewidziane.
W zasadzie przewidziana jest jedna nowość ode mnie, jedno uzupełnienie.
Więc może zacznę od tej jednej nowości.
Jaka dzisiaj gra pojawiła się na forum Audiogames.net?
Pojawiła się gra Werewolf Online, tak to przynajmniej zostało nazwane.
Jest to gra stworzona przez tego samego dewelopera, który stworzył AX Roguelike,
czyli przez tego samego japońskiego dewelopera.
I co jest ciekawe, jest to gra online Battle Royale, która pozwala na walkę z innymi graczami.
Gra posiada kilka trybów tej walki.
Możemy sobie nawet grać jako wieśniak, jako postać, która może dostać różne umiejętności,
tylko problemem tej gry jest to, że ja nie miałem jak przetestować tego systemu walki,
ponieważ nie miałem z kim grać. Bo generalnie można grać prywatnie,
a można sobie stworzyć ram tak zwany publiczny, że inni gracze po prostu będą to widzieć
Problem jest taki, że niestety ja nie mogłem sobie stworzyć żadnego losowego lobby.
Znaczy, stworzyłem, ale nikt się nie dołączył.
Natomiast nie mogłem dołączyć do żadnego lobby, bo pojawił się komunikat, że dołączyć się nie da.
Nie wiem, Piotrze, czy ty widziałeś już tą gierkę?
Wyglądało mi, ale nie miałem czasu to zgłębić.
Natomiast ja widzę, w czym może być problem.
Dlaczego tak jest, że nie miałem z kim zagrać?
Nie wiem, czy pamiętasz taką grę Undead Assault?
Generalnie tam była taka sytuacja, że dopóki nie było jakby
możliwości tworzenia prywatnych pokojów,
no to sobie, że tak powiem, normalnie nie było z kim grać.
A odkąd jak gra ma prywatne pokoje, to ja mam wrażenie, że osoby sobie po prostu tworzą jakieś prywatne lobby i nikt nie chce grać publicznie tak naprawdę, a jak gra się publicznie, to jest ten tryb battle royale.
Tu nie jest problem właśnie. No i problemem jest też to, że nie ma ta gra powiadomień na zasadzie, że zostaje powiadomienie, że ktoś stworzył lobby, weź teraz kliknij i dołącz.
Tego niestety nie ma i to myślę może być problemem.
Nie wiem, to jest nowość, więc może autor doda coś w tym.
Natomiast pomysł jest bardzo ciekawy, bo chyba nie mamy żadnej gry w trybie Battle Royale,
która jest dostępna dla nas.
Więc pomysł może być ciekawy.
Druga nowość jest taka, że podobna jest aktualizacja do gry Euroflight 3.
Tylko problem jest taki, że ktoś tak wyhaczył, że jest update.
Problem jest taki, że nikt go nie może pobrać.
To znaczy, bo generalnie z tym Euroflyem 3 jest takie wymieszanie,
że można mieć dwa kanały, albo beta, w tym momencie, albo ten release główny.
No i ja tam poradziłem ludziom, żeby przełączyli się na kanał beta,
bo ja tego osobiście nie testowałem, ale ludzie twierdzą, że przełączyli się na kanał beta i oni update’u nie mają, więc skos ten update.
Więc nie wiem jak wygląda sprawa update’u Euroflight 3, czy on jest już prywatny, czy jest publiczny.
Natomiast jakieś info jest, że jest ta nowa wersja trójki.
To tyle, jeżeli chodzi o Eurofly’a.
Musicie sprawdzać, jak ktoś ma tego Eurofly’a, czy ten update będzie, czy nie.
Ale ponoć coś jest. Ja nie instalowałem, nie sprawdzałem.
Tylko informuję, że coś, jakiś update jest.
Jeszcze tutaj takie uzupełnienie do audycji poprzedniej o grach.
Tutaj, Piotrze, zapomniałeś powiedzieć o jednej jeszcze grze,
która dostała dostępność, a mianowicie Pokémon Ribbon.
O tym nie mówiliście, a myślę, że to też jest ważna rzecz,
że jest to gra fanowska, która dostała access immunity.
Tak apropos…
Jeszcze tak, jeszcze to już odchodząc od gier, a tutaj skupiając się jeszcze na Whatsappie, no to nie wiem czy mówiliście o tym czy nie, ale na Whatsappie są transkrypcje wiadomości głosowych.
Przynajmniej u mnie jest coś takiego napokręte jak możliwość włączenia tej transkrypcji.
Tylko u mnie się to kończy kraszym aplikacją Whatsapp.
Nie wiem jak u was.
Ale trzeba wspomnieć o tym, że język polski nie jest wspierany na ten moment.
Jest kilka języków, angielski, chyba hiszpański, nawet nie wiem, czy niemiecki…
Rosyjski też jest, włoski…
Tak. Natomiast angielski ja to testowałem.
Rzeczywiście pojawia się zaraz obok wiadomości głosowej taki element z tą transkrypcją.
Nie jest to złe, aczkolwiek, zwłaszcza jak ktoś mówi szybko i z akcentem,
bo bywam w takich grupach międzynarodowych, więc tam te akcenty bywają różne,
to się błędy jednak zdarzają.
Miałeś też coś takiego, bo ja też testowałem, że w wielu miejscach on…
Mam wrażenie, też chyba ma jakoś stosunkowo wysoko ustawiony ten tryb pewności,
bo ja zauważyłem, że też dużo po prostu wycinał.
I tam miałem, powiedzmy, jakieś co jedno, co drugie zdanie
Możliwe, że tak. Mogło coś takiego być, że on coś pominął, jak czegoś nie był pewien.
I tak jeszcze, ponieważ ja lubię testować różne aplikacje pod kodem dostępności,
wszystko jedno jakie by to nadzieją nie było. Z racji tego, że moi dziadkowie oglądają telewizję Republika,
Postanowiłem, wyszła aplikacja Radia Republika, którym oni się tak chwalą.
I stwierdziłem, dobra, sprawdzę, przetestuję.
No to jest tragedia.
Nie dość, że aplikacja jest koszmarnie dostępna, nie można w ogóle włączyć radia.
W sensie jest dużo nieetikietowanych czegoś tak naprawdę,
bo to nawet nie są przyciski.
To jest coś w tej aplikacji, co VoiceOver klika i nie wydaje żadnych dźwięków.
No to słyszymy to jako in-progress i w zasadzie nic się nie odtwarza.
Sama ta aplikacja, jeżeli nawet wejdziemy w sekcję podcasty,
Jeśli chodzi o podcasty, które są dostępne, to niestety kliknięcie w jakiś podcast powoduje totalny krasz aplikacji.
Już nie mówiąc o tym, że ta aplikacja chyba nie ma żadnych ustawień.
Jest jakieś tam menu, w którym tak naprawdę jest jedna opcja o aplikacji.
I to jest chyba wszystko, co jest schowane za menu, co tak naprawdę Voice Over jest w stanie zauważyć.
Aplikacja ma jakiś system powiadomień. W zasadzie to ja miałem z tą aplikację przez tydzień czasu.
Nie miałem żadnego powiadomienia o nich.
Także no niestety pokazano, jak dba się o dostępność, że się o tą dostępność nie dba.
Ja podejrzewam, że tam nie było w ogóle jakichkolwiek testów przed wypuszczaniem, z nikim.
Zostaje mieć nadzieję, że widzowie, odbiorcy, a zapewne też i tam niewidomi są w grupie docelowej, że tak powiem,
no to po prostu będą zgłaszać i że się ktoś tym przejmie, bo to jest też ciekawa sprawa.
Sprawdziłem.
A jeszcze wrócę, przepraszam. Miałem jeszcze wrócę do jednej gierki.
Ktokolwiek, ktoś kto… Japonia, ktoś kto lubi japońskie rzeczy.
Ninja Gaiden 2 Black wyszło jakieś 4 dni temu.
Remaster świetnej serii.
Ostrzegam, gra ma duże wymagania, ale gra jest po prostu świetna.
Jest taki slasher, gdzie po prostu zabijamy wszystko, co się rusza.
Mówiąc w skrócie, ale też poprawiona jest, jeżeli chodzi o dostępność.
To znaczy ta gra nie ma żadnych ułatwień dostępu, żeby nie było.
Ale po pierwsze, jeżeli mamy OCR, w NVIDIA jest teraz taka funkcja,
jeśli ktoś nie wie, w ustawieniach OCRa można sobie włączyć,
by OCR się nam odświeżał z automatu.
Jeżeli mamy włączone okienko z OCR-em i jeżeli np. gramy sobie w tę grę,
OCR nam się odświeża i np. jeżeli będziemy blisko jakiegoś przedmiotu,
skrzynki, czegokolwiek, w czym wejdziemy w interakcję, pojawi się nam napis,
żeby np. nacisnąć i wejść w interakcję z czymś.
Ninja Gaiden 2 Black ma tryb naprowadzania, czyli jeżeli przytrzymamy sobie przycisk
i będziemy go trzymać, to postać będzie szła w tym kierunku, w którym mamy iść.
Oczywiście są elementy platformowe, typu gdzieś trzeba będzie przeskoczyć przez coś,
ale jak najbardziej jest to wykonalne, da się to zrobić.
No i system walki jest genialny w porównaniu do poprzednich Ninja Gaiden.
Z tego co słyszałem na YouTubie, bo nie grałem na przykład w trzecią część,
którą grał Tomek Tworek, jest o wiele lepsze udźwiękowienie.
OCR, w ogóle inwentarz jest dostępny,
bo na przykład jeżeli mamy w inwentory coś w naszym ekwipunku,
to na przykład jeżeli jesteśmy kursorem na jakimś obiekcie,
to OCR nam przeczyta tylko tę rzecz, na której jesteśmy ustawieni.
On nie będzie nam czytał całego ekwipunku,
Tylko tą rzecz, na której jest kursor i dowiemy się od razu, co ta rzecz robi, co dany przedmiot powozuje.
Także naprawdę jest dostępniej. Zdecydowanie jest dostępniej.
I naprawdę polecam Wam, jeżeli macie dobry sprzęt, Ninja 2 Black.
Chyba na GeForce Now ta gra jest.
Jeżeli ktoś ma słaby sprzęt, to jest rozwiązanie, które pokazał Arek Śmiednicki w jakiejś audycji, czyli Shadow PC.
Możecie sobie to kupić i jak najbardziej możecie sobie w to grać.
Ja gram i naprawdę super to jest. Udźwiękowanie jest naprawdę o wiele lepsze niż w poprzednich odsłonach.
Także ja polecam.
No to super, to w takim razie miejmy nadzieję, że ci, którzy lubią sobie pograć w to i owo, to też znajdą w tym tytule co dla siebie.
Tak jest.
Tak jest.
Ok, Patryku, to dzięki w takim razie za garść informacji dotyczących gier. Pozdrawiamy cię serdecznie.
Zanim przejdziemy dalej, to zajrzę do komentarzy, bo na YouTubie tu się pojawiło trochę
Od Marcela mamy na przykład takie pytanie.
Jak i na czym polega w zakładce
dostępność audiodeskrypcja?
Na czym ta funkcja polega
na iOS? To po prostu polega
na tym, że jeżeli to sobie włączysz, to
materiały w aplikacjach, które wspierają
ten mechanizm automatycznie będą uruchamiane
z odtwarzaniem audiodeskrypcji. Zawsze to sobie lepiej
I włączyć, bo wtedy nie trzeba grzebać w ustawieniach, po prostu jeżeli coś audiodeskrypcję ma i obsługuje to automatyczne włączanie, no na przykład Netflix, ale też i Kanal Plus chociażby, no to po prostu nam to zadziała.
Mamy kolejne jeszcze pytanie od Macieja.
Dobra, hej. Która nawigacja piesza zadziała w Hiszpanii na Majorce? Z Google Maps nie korzystam, a do Sync Assistant Move nie wiem skąd by trzeba bazy punktów brać.
No zasadniczo każda, która posiada OpenStreetMap.
Majorka jest jeszcze w Hiszpanii, a Hiszpania jest w Unii,
czy tam należy do Hiszpanii, a Hiszpania jest w Unii,
więc spokojnie roaming unijny powinien zadziałać.
No i na bieżąco sobie kafelki dosysać.
Właśnie czy Seeing Assistant Movem, czy Lazario,
jak już tak mówimy o aplikacjach takiego Hiszpania,
to taka jest chilejska, ale hiszpańskojęzyczny rodowód,
czy jakaś tam jeszcze inna, VoiceVista,
MyWay, no to powinny działać.
Ja jej używałem już tego typu nawigacji w różnych krajach i nigdy mnie nie zawiodły.
Możesz sobie przed wyjazdem zasymulować na Seeing Assistant Movie albo na VoiceVście
tą lokalizację, gdzie będziesz na Majorce i zobaczysz, ile ci punktów pociągnie
i to powinno ci dać jakieś wyobrażenie, jakie jest pokrycia.
To też coś, na co ludzie zwracali uwagę na masę.
To nie Brian Harden na przykład pisał, że właśnie w ogóle ze stronami,
gdzie coś się przewija automatycznie, to ponoć, ja bym mówił,
raci sobie lepiej, co ciekawe.
No i kolejne pytanie od Piotra tym razem.
I mam pytanie, który OCR jest lepszy,
NVIDIA czy Jaws?
Moim zdaniem Jaws jest lepszy.
Jose, a wy co sądzicie?
No to wszystko zależy od tego jaki silnik jest używany.
W Josie to mamy OmniPager, więc to jest na pewno silnik wiele razy lepszy
niż ten, który mamy w MVDA.
W MVDA mamy tylko silnik, który jest domyślnie, może to warto dodać.
Mamy tylko silnik wbudowany w system Windows.
W Josie zresztą też się da z tego silnika korzystać,
ale on też właśnie przychodzi do nas tym OmniPage’em, który nam da
lepsze wyniki.
Jest też dodatek, teraz nie pamiętam jak on się nazywa, który nam daje dostęp do
na przykład lokalnego silnika od Tencenta, czyli to jest chiński OCR, ale on
przynajmniej dla języka angielskiego do niektórych aplikacji przynajmniej
da nam trochę lepsze wyniki, ale jeśli chodzi o takie stricte czytanie na
przykład dokumentów, zwłaszcza w języku polskim, to faktycznie myślę, że JAWS może
I jeszcze tu Piotr pyta o wtyczki do NVDA dla początkującego
użytkownika. Jakie byśmy polecili?
Czy mamy jakiś taki zestaw?
Nie mam nic pod ręką. Jak myślę o początkującym użytkowniku,
to myślę o sobie samym, czyli przesiadka z Josa.
Dziesięć lat temu.
Wtedy nie było wtyczek chyba jeszcze.
No nie było, ale były już takie jakieś skrypciki, tam ludzie
dodawali te pliki w tych folderach, coś tam.
Mi bardzo brakowało na początku, teraz już mniej,
zasobnika systemowego, więc Insert F11.
Jest wtyczka, która informuje o tym, jak używać kontrolek.
Jak ktoś jest naprawdę początkujący, to może się przydać taka wtyczka,
w jaki sposób używać tam przycisków, przycisków opcji Insert H.
Wtedy się naciska, zdaje się, i on pokazuje takie okienko z informacją.
JAWS ma to trochę wygodniej rozwiązane, ale jest.
Myślę, że dużo zależy od tego, co na komputerze robisz.
Myślę, że to jest takie podstawowe pytanie.
Na Wiki NV Access, gdzie był taki artykuł dla ludzi,
którzy przesiadają się z NVidii do JOS-a,
który np. mówił o różnicach między kursorem JOS-a
a nawigacją obiektową w NVidii, która często może stanowić problem.
Tutaj np. taki dodatek, który mi przychodzi do głowy,
No to nazywa się Enhanced Object Navigation.
Parę tylu przeglądów temu opisywałem ten dodatek.
On generalnie pozwala nam trochę nawigować tak jak kursorem JOST,
w takim sensie, no bardziej to może przypomina ten tryb skanowania właściwie bardziej,
gdzie włączamy sobie z MVDA Shift Spacjum, akurat tutaj skrótem,
to, że strzałki nam chodzą po wszystkich obiektach na ekranie,
nawet tych, do których normalnie tabem nie dojdziemy.
Więc ewentualnie to się może przydać.
A co dalej? No to już zależy co na komputerze robisz, bo dodatków jest naprawdę dużo.
Jeśli korzystasz z monitora Braille’owskiego, no to na przykład dodatek Braille Extender pozwala na
bardziej precyzyjne dostosowanie jak ten Braille działa, jak są typy kontrolek wyświetlane.
Wyświetla emoji w Braille’u, czego domyślnie MVDA nie robi, a to się w dzisiejszych czasach może przydać.
No, a później jest dużo takich praktycznych, no, różne syntezatory, to też jak, co kto lubi.
Tak, vocalizer można sobie na przykład dokupić albo na SAPI, albo jako dodatek MVDA, to wtedy jest jeszcze, jeszcze szybsze.
Albo RH Voice za darmo.
RH Voice za darmo, dokładnie. To jest taki bardzo szybki syntezator, jaki zwykli ci nie pasuje, albo głosy Microsoftu.
No, a później, no, dużo jest tego. Są dodatki do tłumaczenia w czasie rzeczywistym, tak.
Tak, zaznaczasz cokolwiek na jakiejś stronie internetowej w obcym języku, to się tłumaczy od razu.
Dodatki do szybkiego pytania o zawartość treści, różne modele to sztucznej inteligencji.
To jakbyś na przykład polegał na…
Picture Smart AI chyba to się w czasie nazywa, tak?
W tych funkcjach sztucznej inteligencji, no to w MVDA to można dodatkiem rozwiązać,
natomiast wtedy to też nie jest darmowe, trzeba sobie konto OpenAI zasilić.
Dużo tego jest.
Ja myślę, że Remote, NVIDIA Remote.
Właśnie.
Dobra wskazówka dla osób początkujących, bo zawsze możemy potrzebować czyjejś pomocy.
Żeby ktoś nam się zalogował na ten komputer i coś jednak, jakiś problem rozwiązał
albo jakieś rozwiązanie przedstawił.
No są też te dodatki, które udają…
Wiem, że Grzegorz Złotowicz napisał te klawisze schowka, tak?
Które informują nas o tym, że wycinamy, kopiujemy, wklejamy.
Aczkolwiek, z tego co wiem, tak jak te dodatki działają, to one tylko po prostu
które reagują na ctrl-c, ctrl-v, one nie weryfikują tego czy realnie coś wkleiliśmy,
tylko po prostu mówią komunikat.
Może jeszcze dodatki do różnych aplikacji, nie wiem, jak na przykład z Whatsappa korzystasz.
Tak, jest do tego dodatek, który tam parę skrótów dodaje.
Do Telegrama też podobnie coś było.
Generalnie ja myślę, że tu po prostu można polecić przejrzenie
…tej całej listy dodatków do NVDA w sklepie, bo tam przy każdym jest opis, wiadomo co on robi i też na tej podstawie będziesz mógł zadecydować, czy dany dodatek będzie Ci potrzebny, czy w ogóle Cię on interesuje, czy też nie, a jeżeli nie spełni Twoich oczekiwań, to zawsze można go po prostu usunąć i też nie ma z tym najmniejszego problemu, odinstalowujesz ten dodatek.
I ślad po nim nie zostaje.
Tu Piotr pyta, jaki jest numer telefonu do nas?
663-883-600.
663-883-600 to jest numer telefonu.
Natomiast teraz to myślę, że zrobimy sobie chwilę przerwy.
Ale nie muzycznej.
Nie muzycznej, tylko zrobimy sobie chwilę przerwy na posłuchanie materiału,
Który też podesłał nam nasz słuchacz Janusz.
A Janusz tym razem zaprezentuje mówiącą ładowarkę.
Ładowarkę PowerMax.
Udźwiękowioną ładowarkę z portem USB.
Więc wracamy do was za jakieś 12 minut.
Dzień dobry, dzień dobry. Ja się nazywam Janusz Połomski.
Tym razem zaprezentuję wam udźwiękowioną ładowarkę
Powermax z portem USB. Ładowarka o której mowa nie jest wielkich rozmiarów, że tak powiem jest średnich rozmiarów, można nią ładować praktycznie wszystkie rodzaje akumulatorów jeśli chodzi o rozmiary tych baterii, że tak się wyrażę począwszy od R3,
A bodajże jest symbol R6 dwa razy a jest symbol R14 i R20 jeśli byłyby jakieś pomyłki z mojej strony to bardzo mnie proszę poprawić, będzie mi równie miło.
Ładowarka posiada wyświetlacz który informuje o stanie naładowania baterii.
Z lewej strony wyświetlacza znajduje się przycisk, który informuje o naładowaniu baterii, po jego przyciśnięciu jednokrotnym uzyskujemy stan naładowania baterii, podawany oczywiście w procentach, ale od razu powiem, że wartość stanu naładowania zmienia się co 25%.
W tym momencie ładowarkę mam ustawioną do siebie w taki sposób, że wyjście zasilania znajduje się od mojej strony, natomiast wyświetlacz ładowarki znajduje się z przodu bardziej i po lewej stronie wyświetlacza znajduje się przycisk, który właśnie możemy naciskać i ładowarka nam będzie mówiła o stanie naładowania baterii.
Od razu powiem, że port usb nie podlega żadnym informacjom i tak dalej.
Jeśli podłączymy sobie jakiegoś smartfona do portu usb, aby go móc naładować, no to ładowarka nam tutaj nie poda żadnych informacji.
Jeśli chodzi o kanały ładowania baterii, no to ładowarkę, jeśli mamy ustawioną do siebie wyjściem zasilania,
Liczymy od prawej do lewej, czyli od prawej idąc mamy 1 kanał ładowania, 2 kanał ładowania, 3 kanał i 4 kanał ładowania.
Także przypomnę liczymy od prawej strony kanały ładowania.
I teraz, jeśli byśmy chcieli ładowarkę uruchomić, zostaniemy powitani takim bardzo fajnym sygnałem dźwiękowym, co zaraz zaprezentuję.
I tak po przygotowaniu zasilania, podłączam teraz samą wtyczkę zasilacza do ładowarki. Bardzo proszę o uwagę.
Ładowarka tym sposobem została uruchomiona.
Jeśli nie mamy w środku żadnych baterii włożonych, żeby się one ładowały,
przycisniemy sobie krótko przycisk i usłyszymy komunikat.
Wszystkie kanały są puste.
Oznacza to, że żadne baterie się nie ładują.
Za momencik zaprezentuję jak wygląda ładowanie baterii.
Od razu wspomnę, że można ładować nawet jedną baterię w poszczególnym kanale, do którego byśmy kanał ładowania tej baterii nie włożyli.
Zanim przystąpię do prezentacji ładowania baterii w poszczególnych kanałach,
Wspomnę jeszcze, że ładowarka kosztowała 885 złotych i była zakupiona w firmie Altix.
I teraz tak, otwieramy sobie klapę, czyli od strony wyświetlacza jest tutaj takie wybrzuszenie i można podważyć sobie spokojnie palcem.
Podnosimy tą klapę i mamy w środku takie blaszki tak jak w typowych ładowarkach, że trzeba podciągnąć blaszkę i włożyć baterie, żeby można było rozpocząć ładowanie.
A więc na przykład pozwolę sobie włożyć zwykłego paluszka, oczywiście akumulatorek.
Nie będę zakładał do pierwszego kanału z prawej strony, tylko na przykład wezmę drugi kanał licząc od prawej strony.
Włożymy paluszka i słyszymy komunikat.
KANAŁ 2 ŁADUJE
Rozpoczęło się ładowanie akumulatorka.
Ja bym chciał wiedzieć jak wygląda stan ładowania.
Przycisnę sobie krótko przycisk i usłyszymy następujący komunikat.
KANAŁ 2 ŁADUJE 25%
Oczywiście przypomnę, że wartość stanu naładowania zmienia się co 25%.
Nie ma czegoś takiego, że będzie o 1, 2, 3% więcej informowało o stanie naładowania.
Proszę sobie to wziąć bardzo pod uwagę.
Jeśli chodzi o menu ładowarki, żeby otworzyć, trzeba przytrzymać koło wyświetlacza.
Dłużej i usłyszymy wtedy coś takiego.
Mamy głośność.
Przycisnę sobie teraz po raz kolejny krótko przycisk koło wyświetlacza z lewej strony.
I teraz tak. Chcielibyśmy sobie to automatyczne powiadomienie wyłączyć.
Przytrzymujemy długo ten przycisk.
I mamy teraz automatyczne powiadomienie włączone.
A jeśli chcemy wyłączyć to powiadomienie to trzeba nacisnąć krótko ten przycisk.
No dobrze, nie chcemy słyszeć powiadomienia o naładowaniu baterii.
Jeśli chcemy zostawić ustawienia i zapisać w takim stanie,
Przycisk dłużej.
Ustawienia się nam zapisały.
I ten dźwięk, który usłyszeliśmy przed momentem.
Oznacza to, że menu zostało opuszczone.
I teraz naciskamy krótko przycisk.
I z powrotem usłyszymy następujący komunikat.
Kanał 2 ładuje 25%.
Czyli powracamy do stanu poprzedniego.
I po krótkim naciśnięciu przycisku, możemy usłyszeć komunikat o stanie ładowania baterii.
Ale ja bym na przykład chciał przywrócić te powiadomienia, żeby były one wypowiadane, gdy baterie zostają naładowane lub jedna bateria zostaje naładowana.
Przytrzymuję długo przycisk.
Głośność 3
Tu mamy głośność 3.
Dobrze. Włączymy sobie te powiadomienia. Przyciskamy krótko przycisk.
Automatyczne powiadomienie wyłączone.
Przytrzymujemy w tej pozycji przycisk po przejściu na te automatyczne powiadomienia długo.
Automatyczne powiadomienie wyłączone.
I teraz krótko naciskając ten przycisk włączymy te automatyczne powiadomienia.
Automatyczne powiadomienie włączone.
I teraz musimy te ustawienia zapisać, przytrzymując ten przycisk długo.
Ale dobrze, powróćmy jeszcze raz do menu ładowarki i naciskamy przycisk długo, bo nas interesuje jeszcze głośność.
Głośność 3
Głośność 3
Głośność 4
GŁOŚNOŚĆ 5
GŁOŚNOŚĆ 1
GŁOŚNOŚĆ 2
GŁOŚNOŚĆ 3
Dłużej, żeby usłyszeć dźwięk opuszczenia menu ładowarki.
I dobrze, teraz wejdziemy jeszcze raz do menu ładowarki przytrzymując długo przycisk.
I teraz mamy znowu.
Oczywiście po krótkim naciśnięciu przycisku.
Mamy następną pozycję, naciskam krótko przycisk.
I tu jest takie coś jak opuścić, ale wydaje mi się, że to jest tylko związane z opuszczeniem menu.
Więc przytrzymam długo ten przycisk i tym samym menu mamy opuszczone.
Jeśli chodzi o ładowanie akumulatorków to dostajemy komunikat.
Jeśli mamy pełną baterię naładowaną, przykładowo kanał 1 kompletnie naładowany, bądź kanał 2 kompletnie naładowany.
Niestety nie mam w tym momencie baterii naładowanej do pełna, żebyśmy mogli ten komunikat w pełni usłyszeć.
W każdym razie ładowarka nas powiadomi, jeśli w poszczególnych kanałach baterie zostaną naładowane.
Co dostajemy w komplecie, jeśli chodzi o ładowarkę?
Dostajemy instrukcję w wersji papierowej i instrukcję na płycie CD.
W kopercie, takiej typowej kopercie jak się nieraz kupuje płyty.
I dostajemy wreszcie zasilacz. Całość jest zapakowana w dość solidnym kartoniku.
W związku z tym, że zasilacz jest pakowany w osobnym pudełeczku, jeśli chodzi o cały komplet ładowarki, dodatkowo ładowarka jeszcze jest pakowana w takiej folijce bąbelkowej, żeby nie została uszkodzona w trakcie transportu i tak dalej.
To tyle na temat ładowarki.
Dziękuję pięknie za uwagę i życzę miłego korzystania z zaprezentowanej ładowarki.
Dziękujemy bardzo Januszu.
Jeszcze tu jeden komentarz i to taki trochę zaległy komentarz
pod jedną z ostatnich audycji Tyflo Przeglądu od naszego słuchacza Dawida.
Tu Dawid taką mini recenzję napisał Disney Plusa na dekoderze Polsatu z Androidem.
Otóż wszystko jest ładnie dostępne, tylko do wpisania kodu musimy mieć osobę widzącą,
ponieważ musimy wyłączyć czytnik ekranu, bo inaczej się nie da.
No i jeszcze jest jeden problem, jeżeli chodzi o Disneya, no to nie ma na ten moment audiodeskrypcji w języku polskim.
No i jeszcze tutaj jakiś czas temu rozmawialiśmy o sieci i o tym, jak różne sieci działają z telefonami.
No to, Dawid, jest zdania, że sieć ma bardzo duże znaczenie, bo ma 75% zasięgu,
A telefon ma inne. I to tyle ode mnie. O co tu chodziło, to szczerze mówiąc nie wiem. Ja też bardzo apeluję, moi drodzy, jak piszecie do nas, starajcie się.
Jeżeli musicie używać dyktowania głosowego, no bo wiadomo, że czasem po prostu jest taka sytuacja, że nie macie innej możliwości, żeby do nas napisać.
Ale naprawdę ja bardzo apeluję o to, żebyście przed wysłaniem jakiejkolwiek wiadomości
sprawdzali, co do nas piszecie, bo potem my to chcemy przeczytać i zrozumieć.
I myślę, że nasi słuchacze też.
Tak, zgadza się. Ale dziękujemy za wszystko, co nam przysyłacie.
I to jest też myślę niesamowite, że, bo myślę, że już do telefonów, do wiadomości Waszych się gdzieś tam przyzwyczailiśmy, w sensie takim, że zawsze jesteście i jest super.
Natomiast czymś stosunkowo nowym jest to, że niektórzy z Was przysyłają nam takie mini demonstracje różnych rzeczy.
To też jest bardzo fajne.
Tak, tak. Właściwie mi się też strasznie podoba, bo to tak naprawdę pokazuje, że to nie jest nasza audycja.
To jest przede wszystkim audycja, w której chodzi o Was i my ją wszyscy, my tak naprawdę wszyscy ją tworzymy.
To jest nasza w sensie i Was słuchaczy i nas prowadzących i to jest super. Tak mi się wydaje.
A jeżeli ktokolwiek ma ochotę przygotować jakąś dłuższą prezentację w formie podcastu takiego odrębnie publikowanego,
no to zawsze ja też bardzo serdecznie zapraszam do kontaktu.
ustalimy wszelkie szczegóły.
michal.dziwiszmałpa
firr.org.pl
Tam się odzywajcie, tam dawajcie znać.
No i będziemy
coś konkretnego ustalać.
Jasne.
No to przejdźmy
w takim razie do
technikaliów, bo też ich trochę
mamy.
I na sam początek właśnie Michale.
Ty wymieniałeś ostatnio klawisze w klawiaturze.
Tak? I…
I masz jakieś doświadczenia, którymi się chcesz podzielić? Łatwe, to przyjemne?
To znaczy tak, w ogóle chcę opisać ten cały proces, bo być może nie dla każdego jest w ogóle to jasne, jak taka cała rzecz wygląda.
Otóż, no przede wszystkim, jeżeli chcemy wymieniać przełączniki, bo właśnie tego dokonałem w klawiaturze, to musimy mieć klawiaturę z tak zwaną funkcją hotswap.
No, to nie są najtańsze klawiatury, więc tu trzeba się liczyć z tym, że wydamy trochę pieniędzy, natomiast odwdzięczy nam się ona potem tym, że mamy możliwość wymiany przełączników na w zasadzie dowolne.
Dowolne o takiej sile nacisku, jaka nam będzie odpowiadać, o charakterystyce tego klikania, jaka nam będzie odpowiadać.
Ja jeszcze nie zakupiłem sobie nowego zestawu do przełączników.
Ostatnio te klawiatury musiałem trochę przeczyścić,
bo okazuje się, że kiedy w domu jest kot,
to jego futerko dostaje się wszędzie,
nawet i pod przełączniki,
bo zaczynało mi na przykład wpisywać po jakiejś literce podwójnie,
więc okazało się, że tam trochę kotka było w klawiaturze,
Klawiaturę, jak i zresztą wszędzie indziej, natomiast do tego celu to myślę, że warto opisać w ogóle jak należy się do tego zabrać, jak w ogóle takie przełączniki się w klawiaturze wymienia, no bo de facto, jeżeli będziecie chcieli sobie na przykład kupić jakieś inne przełączniki i będziecie chcieli je wymienić, no to trzeba będzie te poprzednie wyjąć i jak to wygląda.
Ja mam akurat klawiaturę firmy Keychron.
Keychron się pisze.
I to jest klawiatura właśnie z tą funkcją hotswap,
więc tu się nic nie lutuje.
Tu się po prostu przełączniki wyciąga
i wkłada się nowe.
I ja razem z tą klawiaturą otrzymałem w takim woreczku kilka akcesoriów.
Tu mam m.in. imbusa tak zwanego.
Mam też krzyżakowy śrubokręt, no bo tę klawiaturę można sobie absolutnie rozebrać do ostatniej śrubki, jeżeli ktoś miałby taką potrzebę i na przykład ją sobie jeszcze dodatkowo wytłumić jakąś tam pianką, to właśnie tego typu klawiatury są przeznaczone do takich zabiegów, natomiast najczęściej będziemy po prostu wymieniać przełączniki.
I do wymiany tych przełączników służy też narzędzie, które otrzymałem razem z tą klawiaturą.
To jest taki przyrząd, który ma tak naprawdę dwie końcówki po obu swoich stronach.
No bo przełącznik w klawiaturze to jeszcze coś na górze ma.
Ma ten tak zwany keycap, czyli te po prostu nakładkę.
I co ciekawe, te nakładki, no to też możemy sobie wymieniać.
One są z różnych tworzyw, mają różne faktury, różnie też wyglądają, jeżeli dla kogoś ma to znaczenie, więc tu się naprawdę też można z tą klawiaturą bawić i w taki sposób.
I najpierw trzeba z danego przełącznika zdjąć właśnie tę nakładkę. Do tego zdejmowania nakładek to służy nam ta większa część.
To są takie jakby dwa druciki.
Dwa druciki, które musimy, którymi musimy jakby objąć ten klawisz, który chcemy zdejmować.
Ja teraz dla przykładu sobie będę działał na lewym kontrolu.
I te dwa druciki, jakby obejmujemy nimi ten klawisz po lewej i po prawej stronie.
Przesuwamy je do dołu, przesuwamy to narzędzie do dołu.
I w pewnym momencie… o, w pewnym momencie po prostu one się zatrzasną na tym klawiszu.
I teraz wystarczy pociągnąć do góry, bo ten klawisz jest złapany, ta nakładka jest złapana w objęcia tych dwóch drucików.
Wyciągamy, odkładamy i teraz przechodzimy do drugiej części tego naszego zabiegu,
Przełącznik to już jest taki mniejszy elemencik i do tego posłuży nam druga część tego narzędzia.
To jest mianowicie taka pinceta jakby.
Też obejmujemy ten przełącznik z lewej i z prawej strony.
Tu poczujemy taki charakterystyczny klik, bo też te przełączniki mają takie odpowiednie rowki,
I w tym momencie po prostu pociągamy do góry.
I ten przełącznik nam z klawiatury wychodzi.
Tu jedna ważna uwaga.
Te nakładki będzie się zdejmowało zdecydowanie lżej niż przełączniki.
Przełączniki będą wychodzić trochę ciężej,
a to chociażby z tego powodu,
że te przełączniki mają jednak kilka tych tak zwanych pinów.
Ja tu mam na przykład takie przełączniki,
które są pięciopinowe,
I te piny to są takie po prostu małe bolczyki, które są na dole tego przełącznika i jeden jest taki nieco większy.
I tu mamy właśnie takich pięć pinów, które wchodzą w odpowiednie otworki w podstawie tej klawiatury.
No i teraz, jak mamy wyjęty taki przełącznik, to możemy sobie odłożyć go i wymienić.
Albo możemy go po prostu przeczyścić, sprawdzić czy tu nie mamy jakichś zabrudzeń i włożyć go z powrotem.
Akurat w tej klawiaturze, z której ja korzystam, jest to o tyle fajne, że tu są takie okienka po prostu na te przełączniki,
więc ja wkładam ten przełącznik w to okienko, staram się uczynić to w miarę prosto i wciskam do środka.
I to już jest cała operacja. Teraz tylko nakładam tę nakładkę, nakładam ten keycap na górę tego przełącznika.
To już rzeczywiście wchodzi bardzo łatwo. Zakliknęło się wszystko. Wszystko jest jakby finalizowane takim charakterystycznym kliknięciem,
więc tu mamy pewność, że dobrze umieściliśmy ten przełącznik, że niczego nie wyłamaliśmy, niczego nie wygięliśmy.
Operacja jest naprawdę dosyć prosta, więc jeżeli ktoś by się zastanawiał, to myślę, że rzeczywiście warto takie klawiatury, te tak zwane customowe z tą funkcją hotswap, to jest koszt od kilkuset złotych, no wzwyż, tak bym to powiedział.
Zobaczcie, że na przykład,
gdy macie taką potrzebę, żeby
dostosować to narzędzie pracy,
które dla nas jest najbardziej istotne,
bo przecież my z klawiatury
korzystamy naprawdę bardzo, bardzo dużo.
My nie używamy myszki, my korzystamy tylko z klawiatury,
więc myślę, że zdecydowanie warto,
żeby to narzędzie dostosować
do własnych potrzeb i preferencji,
żeby jak najbardziej komfortowo
W dobie laptopów może nie jest to już aż tak bardzo palący temat, ale ja jako użytkownik cały czas komputera stacjonarnego, no ja naprawdę sobie bardzo ciężko by mi było pracować na klawiaturze, która ma taki skok jak w laptopie, no przyzwyczajenie po prostu.
No, to bardzo użyteczna umiejętność i też brzmi to bardzo fajnie, że można wymieniać, że takie przełączniki gdzieś tam, że to jest po prostu do zdjęcia, do przerzucenia, ten…
Dokładnie, dokładnie. Jeszcze warto sobie ewentualnie poczytać po prostu, jakie przełączniki do jakiej klawiatury możemy wymienić. Z reguły to jest tak, że większość pasuje do większości,
Zawsze warto przed zakupem jednak jeszcze
ewentualnie czy na jakichś forach, czy po prostu u sprzedawcy
ten fakt skonsultować, żeby się aby nie okazało,
że coś tam nie będzie nam jedno do drugiego
pasowało.
Zgadza się, to pamiętajcie o tym.
Następny news styczy się
przejazdów, bo wielu z nas korzysta
z różnego rodzaju apek przejazdowych, czy to Uber, czy to Bolt,
Czy to Freenow, czy jakieś inne
jeszcze alternatywy.
No i dzięki portalowi
Cashless i troszkę zabawnemu
artykułowi,
który się ukazał właśnie w minionym
tygodniu, trafiłem na aplikację,
o której będę mówił.
Aplikacja niemieckiego startupu
Blik.
Tylko, że Blik przez Q i z naszym
Blikiem nie ma nic wspólnego.
Aplikacja służy właśnie do
porównywania w jednym miejscu
ofert przejazdu, taką właśnie taksówką.
No, dane na niej trasie, czyli podajemy, skąd, dokąd chcemy jechać
i on nam wyświetla, że w Uberze tyle, w Bolcie tyle, w Freenau tyle.
Właśnie te trzy na pewno widziałem, że wspiera.
Nie wiem, czy gdziekolwiek coś jeszcze innego wspiera.
No, w Wiedniu tyle. Przypuszczam, że w Polsce też.
I szkoda, bo nie na tych trzech aplikacjach jakby rynek się kończy.
Wiem, że na przykład tu w Wiedniu jest aplikacja jednej z korporacji taksówkowych,
takich na telefon, gdzie te przyjazdy bardzo często są tańsze.
Na przykład nie zawsze, ale mi się już to sprawdziło, że o te kilka euro
taniej zazwyczaj było, także zawsze warto było tam sprawdzić.
No ale w Polsce co by było?
iTaxi pewnie, może coś jeszcze w jakichś miastach,
jakieś takie konkretne mniejsze apki.
Natomiast no tutaj myślę, że do tych trzech aplikacji
to spokojnie wystarczy, jeżeli do tych trzech aplikacji się ograniczacie.
Czy aplikacja jest dostępna? Nie.
Czy aplikacja jest używalna?
Jak najbardziej, chociaż to też zależy do czego.
Wyszukać trasę można i przejazdy porównać można.
Trzeba eksplorować ekran, bo tam jest dużo takich elementów przy przesuwaniu się gestami, które są gdzieś tam nieopisane, albo opisane dziwnie, albo są dekoracyjne i nie powinno ich w ogóle być widać z perspektywy voice-overa.
Także najlepiej po prostu po wyszukaniu danej trasy dotknąć gdzieś mniej więcej na środku ekranu i tam te nasze wybory się, opcje się zmaterializują.
No i jest tam oczywiście opcja przekierowania nas do odpowiedniej aplikacji, żeby sfinalizować transakcję.
Zdaje się, że też się jakoś da z poziomu tej apki coś tam zamawiać, bo aplikacja ma możliwość dla nas zalogowania się do poszczególnych tych serwisów,
czy do Ubera, czy do Bolta, czy do FreeNow. Ma brać pod uwagę nasze indywidualne zniżki i gdzieś tam da się dodać metodę płatności,
aczkolwiek ten krok właśnie zbyt dostępny nie jest.
Więc no tu jeszcze aplikacja problemy swoje ma.
Myślę, że warto je zgłaszać, ale jeżeli często jeździcie
i często Wam się zdarzało być w sytuacjach, w których
okazywało się, że nie wiem, w jakimś mieście albo na jakiejś trasie
o którejś porze, dana aplikacja dawała Wam lepsze ceny niż inna,
no to możecie sobie sprawdzić.
Można też sobie pod kątem innych różnych tam
Gdzieś tam sortować, który najszybciej dojedzie, czy który…
Coś tam jeszcze. Można jakieś dodatkowe kryteria
wiltrowania tam też wybrać.
Więc jeżeli chcielibyście sobie w jednym miejscu porównać
przejazdy i nie chce Wam się otwierać trzech różnych aplikacji
i porównywać, to Blik przez Q to jest aplikacja dla Was.
Sylwester pyta, jaką ładowarkę tu przed momentem omawiał Janusz.
Otóż była to ładowarka Sylwestrze Power Max.
Udźwiękowiona ładowarka z portem USB Power Max.
Tak właśnie się tę ładowarkę pisze,
więc miejmy nadzieję, że to będzie dla Ciebie informacja użyteczna,
bo rzeczywiście ostatnio szukałeś ładowarki, więc może taka?
Oby tak było. Życzymy powodzenia.
Ja przekazuję mikrofon Piotrowi i to też jest dość znaczący news,
myślę, zwłaszcza dla nas, jak chodzi o, no, gdzieś sterowanie naszymi komputerami
i to wszystko, o czym tu mówimy, bo chat GPT wprowadza tryb operator.
I ty możesz nam więcej opowiedzieć, jak on działa. Nie wiem, czy miałeś już okazję testować,
czy on nie jest dostępny jeszcze tak ogólnie?
Znaczy, jest dostępny, jeśli jesteśmy w Stanach Zjednoczonych i mamy wykupiony ten abonament
za 200 dolarów, także nie miałem okazji przetestować, ale widziałem posty
Od osoby niewidomej, która testowała i o tym też będzie, także będzie trochę informacji.
Jeśli chodzi o nowinki AI, to tak naprawdę w tym momencie świat żyje dwoma rzeczami.
Po pierwsze DeepSeek, o którym już tutaj Grzegorz m.in. mówił, który spowodował
ciekawe sytuacje na giełdzie amerykańskiej. A drugą taką nowością właśnie jest to,
co zaprezentowała firma OpenAI. Sam koncept nie jest może nowością,
Dlatego, że np. coś podobnego
jakiś czas temu zaprezentowała firma Antropic ze swoim Cloudem,
który też doczekał się podobnej funkcji,
która ma nam pomagać w sterowaniu komputera.
No a teraz coś podobnego zaprezentowała firma OpenAI.
Właśnie funkcja się po prostu nazywa Operator,
czyli po prostu operator,
i zalicza się do takiej kolejnej fazy rozwoju AI,
na którą pracują wszystkie firmy, bo i Microsoft i Google też takie rzeczy
chcą tworzyć, tak zwani agenci.
Co ma nam taki agent pomóc zrobić?
To praktycznie wszystko zależy, jakieś bardziej skomplikowane
zadania, które możemy potrzebować. Na początku mówiło się o tym w firmie,
czyli jakieś przygotowanie prezentacji, odpowiadanie na pytania,
ale w życiu prywatnym może być taki agent, nie wiem, mógłby nam pomóc
Według naszych kryteriów znaleźć nam odpowiadający nam hotel czy restaurację
i od razu automatycznie zabugować nam na wybrany przez nas termin po prostu pokój w danym miejscu.
I do takich różnych sytuacji tego typu aplikacje mogą mieć zastosowania.
Operator na ten moment jest w bardzo wczesnej fazie podglądowej.
Tak naprawdę jest to jeszcze projekt badawczy, tutaj wiele razy w poście na blogu OpenAI
pojawia się właśnie sformułowanie, że to jest research project, więc to jest jeszcze
w stadium, gdzie po prostu projekt jest też cały czas rozwijany.
Natomiast tak jak wspominałem, właśnie osoby, które po pierwsze są w Stanach Zjednoczonych
i po drugie mają wykupiony abonament Pro, czyli ten właśnie za 200 dolarów,
Mogą już się tym bawić.
W OpenAI też obiecuję, że z czasem to pojawi się dla użytkowników
czata GPT+, czyli tego tańszego abonamentu,
no a z czasem po prostu też ma być dostępne dla wszystkich.
No i na co nam to pozwala?
No tak jak wspominałem, głównym zadaniem tego modelu
jest operowanie może nie tyle w tym przypadku komputera,
co przeglądarki internetowej pracującej w murze.
Jest to robione z modelem CUA, tak zwanym, to jest skrót od Computer Using Agent, czyli dosłownie agent korzystający z komputera.
Jest to lekko zmodyfikowany model GPT-4O, czyli ten model, który wszyscy, myślę, znacie, który jest jeszcze wyposażony w lepsze dane treningowe,
które pomagają mu korzystać z komputera, operować takim standardowymi kontrolkami, przyciskami, menu.
I tutaj jest wykorzystywane wyłącznie dane graficzne,
więc ta funkcja nie korzysta np. z API dostępności.
Jest informacja, że ona pracuje wyłącznie na zrzutach ekranu,
co ma swoje plusy, minusy.
Dla nas to raczej może być o tyle ważne,
że jeśli jakaś strona jest niedostępna, to sobie z tym może poradzić.
Aczkolwiek ma problemy z rzeczami,
z którymi my też często mamy problemy, ale o tym za chwilę.
I właśnie na tej podstawie jest w stanie w odpowiednim miejscu kliknąć,
wprowadzić odpowiednie dane w jakieś pole edycji,
po prostu z tej przeglądarki, z danej aplikacji korzystać.
Jest też w stanie korygować błędy, więc jeśli wykryje, że coś jest nie tak,
no to jest po prostu w stanie jakoś z tych tarapatów się wydostać.
Dzięki temu może dla nas różne rzeczy wykonywać.
Jak to działa w praktyce?
Po prostu zaczynamy od tego, że mamy czat.
W czacie możemy sobie różne prompty nawet zapisywać
i możemy poprosić, żeby ten operator coś dla nas zrobił.
I tutaj Thomas Gacy, czyli niewidoma osoba,
która między innymi pracuje w Spotify,
Właśnie w dostępności, ale też wiele różnych ciekawych rzeczy
pisze na swoim astronomie, bawi się różnymi narzędziami AI.
Mówił, że to testował i kiedy zadajemy jakieś pytania,
no to na ekranie otwiera nam się widok przeglądarki
i my po prostu jesteśmy w stanie widzieć,
jak ten operator wchodzi na dalszą stronę
i po prostu widzimy, jak przesuwa się myszka,
różne przyciski są klikane,
jest prowadzony tekst w różne pola edycji.
Natomiast są z tym związane ograniczenia, które narzuciło samo OpenAI.
Po pierwsze, i to może być dla nas minus, mimo to, że pewnie to byłoby możliwe, ale to nie będzie robione,
ten operator nie wypełni CAPTCHA.
Jeśli gdzieś na stronie jest jakaś CAPTCHA, no to przechodzi w tak zwany trip takeover mode,
czyli po prostu użytkownik przejmuje kontrolę, gdyby właśnie coś się stało,
że operator nie może jakiejś czynności wykonać,
no to po prostu poprosi użytkownika,
przepraszam cię, ale ty mi musisz pomóc
tutaj dane zadanie wykonać.
No i właśnie tutaj, gdyby na przykład była jakaś kapcza,
no to on nam tego nie zrobi.
Gdyby gdzieś trzeba było wprowadzić hasło,
na przykład gdybyśmy, nie wiem, poprosili,
żeby nam dodał konkretne rzeczy, nie wiem, do naszego koszyka
w jakimś na przykład Glovo, to był Instacart podany,
czyli taki serwis, gdzie można zakupy spożywcze zrobić przez Internet,
czyli tutaj w Polsce to byłoby właśnie jakiś tego typu serwis.
No to musielibyśmy sami nasz adres e-mail i hasło
po prostu na tej wirtualnej przeglądarce wpisać.
Ta przeglądarka jest w stu procentach graficzna,
ten obraz jest po prostu jakoś streamowany z Internetu,
więc czytniki ekranu tego nie zauważą.
Ewentualne pytania już tak, ale jeśli chodzi o samą przeglądarkę,
no to Tomasowi udało się przez docera na przykład to pole hasło
…i to zadziałało, natomiast samej przeglądarki my tutaj nie widzimy.
Podobną sytuację mielibyśmy w sytuacji, kiedy na przykład pracujemy z jakimiś zdanymi wrażliwymi.
Jeśli będzie jakaś sytuacja, gdzie pracujemy z danymi wrażliwymi, na przykład logowanie się gdzieś do banku,
No to może albo tego odmówić, albo może być sytuacja, że po prostu operator poprosi, żebyśmy my coś zrobili.
On nas będzie ewentualnie obserwował.
I kiedy my ten krok wykonamy, no to on będzie w stanie jakoś kontynuować dalej.
Nie wiem na jakiej zasadzie to jest, czy to będzie zadecydowane, czy coś w ogóle pójdzie, czy nie.
Czy w ogóle na przykład pozwoli się do banku zalogować.
Może… bierzemy pod uwagę cały czas, że to jest zapisywane w chmurze.
Dane są przez 90 dni zresztą przechowywane, przynajmniej w tej fazie rozwojowej.
rozwojowej, więc to też warto brać pod uwagę.
Ale mniej więcej tak to ma działać. W niektórych sytuacjach po prostu my
będziemy musieli coś wykonać, ewentualnie operator nas poprosi, żebyśmy naprawdę
zwracali w tym momencie uwagę na to, co on robi, żeby nam czegoś zrobił,
czego my byśmy nie chcieli, a w sytuacjach, gdzie musi być podjęta jakaś decyzja
wysokiego ryzyka, tutaj był podany przykład wysyłania CV, na przykład jak ktoś szuka
No to też operator się zatrzyma i poprosi, żeby użytkownik
daną czynność wykonał do końca.
Ja bym poza tym też chciał zwrócić uwagę na to,
że użytkownicy powinni naprawdę z innych powodów
też bacznie się przyglądać temu, co temu operatorowi zlecają,
dlatego że będzie to robione na wirtualnej przeglądarce.
A zatem jeżeli nawet dostaniemy to w przyszłości,
Ja pewnie tak się stanie, ale te serwery są zlokalizowane na przykład gdzieś tam, czy w Stanach Zjednoczonych, czy okej, może nawet i w Europie jakieś też węzły,
ale jest to logowanie, a przynajmniej może być to logowanie z zupełnie innej lokalizacji niż nasza.
I w takiej sytuacji mogą podnieść alarm różnego rodzaju systemy detekcji, włamania albo inne tego typu mechanizmy.
…co bardziej istotnych dla nas serwisach, więc może się nawet skończyć taka zabawa tym, że po prostu zostaniemy zablokowani na jakiś czas, dopóki nie wyjaśnimy, że z nami wszystko okej i że nikt nam się tak naprawdę na konto nie włamał, to my sami tylko zdalnie chatem GPT coś sobie chcieliśmy zrobić.
Jeszcze na koniec tutaj można powiedzieć były przeprowadzane testy, powstały takie dwa tak zwane benchmarki, czyli właśnie testy na to jak tacy agenci sobie w internecie radzą.
Na jednym prostszym, nie wiem dokładnie jakie to były zadania, no to operator zyskał 89%, na drugim, gdzie miał do czynienia z bardziej skomplikowanymi zadaniami typu e-commerce,
czyli jakiejś zakupy online, to już ta skuteczność spadła do procent pięćdziesięciu siedmiu.
Co ciekawe, tutaj mamy informację, że nie radzi sobie dobrze w sytuacjach, kiedy ma do czynienia
z zaawansowanym programem np. do tworzenia prezentacji, czyli pokazy slajdów oraz kalendarzami.
Czyli z czymś, z czym te szczytniki ekranu mają czasami problemy, czyli tutaj jak są jakieś siatki,
takie bardziej przestrzennie skomplikowane interfejsy, no to może mieć z tym problem.
Ale na końcu mamy jeszcze jedną informację, która szczerze mówiąc mnie ekscytuje jeszcze bardziej niż sam operator.
Mianowicie mamy informację, że te funkcje CUA, czyli tego agenta używającego komputery, będą udostępnione deweloperom jako API.
Jeśli to API pozwoli aplikacji, jeśli to będzie działało w taki sposób, że nie będzie się odpalała jakaś wirtualna przeglądarka,
tylko po prostu, nie wiem, deweloper będzie mógł przesłać zrzut ekranu
I w prompcie podać, że chcemy, żeby to kliknęło w jakiś konkretny przycisk.
I to będzie w stanie podać prawidłowe, współrzędne,
które później aplikacja może przetworzyć,
z czym GPT do tej pory miał problem,
ale rozumiem, że ten model był trenowany do tego typu zadań.
To może być funkcja, która dodana do czytników ekranu,
czy to natywnie, nie wiem, już widzę, jak to w ROS-ie jest natywnie,
albo do dodatków wszelkich, mogłaby nam naprawdę pomóc.
No bo do tej pory GPT ładnie nam wszystko opisze, owszem,
ale nie możemy go poprosić, żeby nam kliknął w jakiś przycisk,
nie wiem, z daną ikonką, na przykład wiemy, że gdzieś na ekranie jest
w prawym górnym na górę, na przykład jakiś X albo jakaś lupa czy coś.
No, gdyby takie API było, moglibyśmy powiedzieć,
proszę, kliknij mi w lupę albo przeciągnij mi ten element w to miejsce,
tak, bo po prostu aplikacja tego wymaga.
I to byłoby w stanie to zrobić
Z pomocą naszego czechnika ekranowego, bez przekazywania całkiem dostępu do naszego komputera.
To już byłoby coś, co dla mnie byłoby ogromną rewolucją, która by nam mogła dużo pomóc.
O, tu jestem. No to zobaczymy, jak to się rozwinie.
A my będziemy teraz rozwijać, będziemy prowadzić development.
Bo następny news dotyczy czegoś, co znalazłem w sumie dziś.
I tutaj jakby podziękowania. Jakoś dzisiaj Słowacy w tym tygodniu się bardzo wykazali ciekawą wiedzą,
bo informacje o czytniku RSS w NVIDIA wziąłem z portalu Technologia Bezdraku.
Michał Idl-Hej, a tutaj Blind Review Słowacki, też portal tyfloinformatyczny,
podrzucił mi bardzo ciekawą wskazówkę, jak można sobie ułatwić pewną rzecz.
Będę mówił o środowisku Laragon.
Czym jest Laragon?
Laragon jest środowiskiem deweloperskim,
które pozwala nam na instalację różnych silników,
takich jak Node.js, Python, PHP i wiele innych.
Zarządzanie zależnościami,
zarządzanie właśnie tymi środowiskami i tak dalej.
No i rozwijanie na lokalnej maszynie,
Odpalanie maszyn wirtualnych do developmentu, do rozwoju
i programowanie sobie jakichś tam naszych rzeczy na lokalnym i testowanie tego,
zwłaszcza jak chodzi o takie technologie webowe w przeglądarce.
Jak rozumiem, bardzo Was wszystkich zachęciłem.
To może trochę prościej.
Dlaczego w ogóle, jak nie jesteśmy programistami,
to warto się czymś takim zainteresować?
Jest to program na Windowsa, który ściągamy ze strony,
normalne egze, instalujemy i w tym programie możemy sobie stawiać różne rzeczy.
Ja dzisiaj, za poradnikiem z Blind Review, skupię się na tym, co możemy sobie stawiać
w kwestii CMS-ów, czyli takie systemy dostawiania gotowych stron internetowych.
I o co chodzi? Instalujemy tego Laragona, otwieramy go,
Tam jakąś wstępną konfigurację przeprowadzamy.
I możemy sobie stworzyć nowy projekt.
I w ramach tego projektu możemy sobie zainstalować cokolwiek, co wymaga PHP.
Czyli tak naprawdę jakikolwiek silnik do stron internetowych.
Najprościej jest z WordPressem, bo to po prostu tworzymy nowy projekt
i tam gdzieś z menu wybieramy opcję WordPress.
I on wtedy nam ściąga po prostu WordPressa, instaluje go i my możemy sobie już w przeglądarce, na adresie, który będzie nam podany, otworzyć konfigurację tego WordPressa i możemy się tym WordPressem zacząć bawić.
Ale jak chcemy zainstalować cokolwiek innego, jakikolwiek inny system CMS, czy to będzie Drupal, czy to będzie jakiś, nie wiem, Wagtail CMS, ponownie bardzo fajnie dostępny.
No to nic bardziej prostego.
Wchodzimy na stronę takiego CMS-a,
czy to będzie właśnie Drupal, czy jakiś inny.
Wchodzimy w instrukcję instalacji
i bardzo często na stronach takich silników,
a przynajmniej na stronie Drupala
jest takie coś zamieszczone.
Mamy taką komendę,
którą musimy przekleić do odpowiedniego miejsca
i tę komendę kopiujemy.
Do terminala będziemy ją wklejać.
I Laragon ma swój terminal,
który wywołujemy znowu gdzieś tam
i w tym terminalu tą komendę wklejamy.
Ten terminal ponoć nie jest zbyt dostępny,
to znaczy tam strzałkami chyba się nie da czytać
i odczytywanie tego, co nam zwraca,
to też chyba nawigacją obiektową to akurat jest normalne,
no ale nie będzie automatycznie odczytywane
gdzieś tam coś, co nam w wyniku tej komendy
zostało wyplute przez terminal, czy tam przez nasz silnik.
Jest też komenda, która pozwala nam…
Ten wynik, to co dostaniemy jako informację zwrotną, skopiowało się do schowka,
więc jeżeli mamy jakiś dodatek do NVDA typu Autoclip albo jakiś tam inny,
no to możemy sobie to skonfigurować tak, żeby te komendy były nam po prostu
automatycznie czytane w ten sposób, że wylądują w schowku.
To system znany chyba z niejednej gry, w którą zdarza nam się czasem grać.
Także tak. No i co?
Możemy wtedy zainstalować sobie taki system.
No i potem jeżeli mamy taki projekt, tych projektów możemy mieć więcej,
taki projekt otrzymuje właśnie taki adres, który możemy sobie uruchomić
na stronie internetowej. Zazwyczaj ma to format
nazwa naszego projektu.test i pod tym adresem
uruchomi się nam ten silnik, który mamy.
Czemu ja Wam o tym wszystkim mówię i czemu uważam,
Super, bo nareszcie w formie programu komputerowego,
który po prostu obsługujemy jak zwykłą aplikację,
możemy sobie instalować różne serwery CMS,
czy tam silniki CMS nawet, przepraszam,
i robić tam serwery, które pozwolą nam je obsługiwać.
I to jest o tyle fajne, że jeżeli chcielibyśmy
jakoś bez ryzyka zainteresować się tematem tworzenia
jakichś tam właśnie stron internetowych na takich silnikach,
Ale dopiero zaczynamy tą przygodę i chcemy zobaczyć,
czy w ogóle, nie wiem, poradzimy sobie z obsługą takiej strony
albo chcemy sobie przetestować jakiś nowy silnik
i zobaczyć, czy on nam odpowiada,
to możemy sobie właśnie odpalić taką kopię lokalnie
na naszym komputerze za darmo
i się nią bawić dowoli.
Personalizować, tworzyć treści,
tworzyć jakieś tam inne rzeczy,
Wtyczki, jak nam się już potem zachce jakieś tam jeszcze inne rzeczy się bawić.
A jak już będziemy na tyle pewni tej naszej konfiguracji, że będziemy gotowi na to, by pokazać ją światu,
to możemy wtedy zainwestować w jakiś hosting, taki już poważniejszy.
No i nic nie stoi na przeszkodzie, żeby taką instalację po prostu skopiować
i przenieść sobie na już serwer FTP naszego hostingu.
Zazwyczaj to jest tak, że robi się to za pomocą określonych też wtyczek, bo w przypadku CMS-u, w przypadku rzeczy w oparciu o PHP, gdzie też przy okazji bardzo często mamy jakiś silnik bazodanowy, to potem przenoszenie tego, no to już nie jest tak jak w latach tam powiedzmy dziewięćdziesiątych czy na początku dwutysięcznych, kiedy klepały się strony internetowe w przysłowiowym notatniku i wysyłały się pliki na serwer.
W tym momencie, no to już trzeba te nasze treści gdzieś tam, czy te wszystkie motywy, ustawienia przenieść,
ale do tego, na przykład do WordPressa są odpowiednie wtyczki.
Mi się zdarzyło, na przykład ostatnio, migrować parę stron z jednego serwera na drugi.
To są narzędzia do tego, że tak naprawdę, no może nie jest to takie dziecinnie proste,
ale nie jest to też jakieś bardzo skomplikowane.
Wystarczy, no, czytać uważnie to, co się robi, a przy okazji takie wtyczki zazwyczaj to już też dbają o to, żebyśmy mieli kopie zapasowe.
A kopia zapasowa w przypadku jakichkolwiek danych ważna rzecz.
Tak, to na pewno. No to dzięki, że mi zwróciłeś uwagę, bo w sumie racja.
Natomiast, no właśnie, można się bawić, można się wyżywać.
Ale no, kto broni też. Oczywiście zależy, jakie macie komputery na Windowsie,
te osobiste, jakie są wydajne i jakie wydajne łącza i tak dalej.
I do czego zamierzacie ich używać, ale kto zabroni.
Postawić sobie to jako serwer, wystawić to IP na świat
I żeby ludzie sobie na taką naszą stronę również wchodzili z zewnątrz, też jest to możliwe.
Ewentualnie zainwestować w jakieś Raspberry Pi, jeżeli chcecie przy okazji nauczyć się administracji własnym domowym serwerem.
Postawić sobie to w domu, przy okazji trochę nauczycie się o sieciach.
Potem też wiadomo, administracja, aktualizacja, konfiguracja różnych rzeczy.
A jeżeli ktoś nie chce aż w ten sposób, to są naprawdę tanie i fajne serwery, takie chociażby ten serwer, na którym stoi Tyflo Podcast, czyli Mikrus, tam za kilkadziesiąt złotych rocznie już można mieć serwer, na którym naprawdę można całkiem sporo zrobić.
Zgadza się. Także do dzieła.
Mam nadzieję, że coś tam potestujecie.
No i jakbyście mieli już jakieś doświadczenia, to podzielcie się,
bo ciekawe, jakie projekty będziecie tworzyć.
No to teraz się będziemy…
Jeżeli nie mamy oczywiście żadnych telefonów, wiadomości…
Na ten moment nie.
No to teraz już zbliżamy się do końca powoli.
Jeszcze dwa newsy przed nami i oba z działu Muzyka.
To tego jeszcze dzisiaj nie było.
Piotrze, Native Instruments jakoś się próbuje zbratać z kontrolerami firm zewnętrznych.
Ty wiesz o tym więcej.
Tak, już tłumaczę, o co chodzi. Jeśli ktoś nie jest zorientowany w świecie tworzenia muzyki,
zwłaszcza po niewidomemu, to może nie zdawać sobie sprawy,
dlaczego to byłaby tak istotna kwestia, pod warunkiem, że w końcu
Native Instrument weźmie się za dostępność nowych wersji swojego oprogramowania,
ale o tym za chwilę. Co to jest? W ogóle zacznijmy od tego, że mamy artykuł.
Będzie link oczywiście do tego artykułu, w którym Native informuje,
że dodało program partnerski dla sprzętu ze wsparciem dla standardu NKS.
I ten standard NKS jest dla nas bardzo istotny,
Dlatego, że od już ponad 10 lat, jak mniej więcej,
na pewno z 90 lat to już jest dla nas dostępne,
to jest standard, do którego każdy może dołączyć.
Oficjalnie zaopatrzone są też sposoby,
żeby wtyczki dostosować do tego standardu.
I to pozwala nam później zrobić coś takiego,
że ładujemy sobie w naszym programie do tworzenia muzyki,
czy to jest Reaper, czy to jest Ableton, czy to jest Logic czy coś innego,
To jest wtyczka COMPLETE CONTROL i ta wtyczka jest takim środowiskiem, w którym możemy później ładować inne instrumenty.
Sterujemy tą wtyczką praktycznie całkowicie z poziomu kontrolera.
Właśnie do tej pory to było kontrolery od samego Native Instruments’u.
To jest taka seria COMPLETE CONTROL.
Tych modelów jest dużo. Od modelu M32, który ma 32 klawisze,
ale też są większe i bardziej
rozbudowane modele.
Natomiast te wszystkie kontrolery, nawet w porównaniu do konkurencji, nie są tanie.
Teraz nie pamiętam ile kosztuje M32, natomiast te ceny zaczynają się chyba przynajmniej od 500 złotych.
Od tak gdzieś koło 400, bo 500 złotych tutaj może spróbuję to szybko
Sprawdzić mniej więcej, no to jest generalnie, gdyby ktoś chciał po prostu zacząć
stworzenie muzyki, np. korzystać z samplera typu Kontakt, to jest też produkt
nativa. Osoba widząca generalnie takiego kontrolera nie potrzebuje, a nam taki
kontroler może się przydać, bo naprawdę nam
ułatwia życie. Tak, o 440 złotych te M32 się zaczynają,
Dlatego, że on, jeśli włączymy odpowiednią funkcję dostępności,
nam po prostu czyta wszystkie dźwięki, które sobie możemy wybierać.
Jeśli mamy zainstalowane dużo wtyczek w filmczecik,
no to możemy wszystkie dźwięki tych wtyczek przeszukiwać
jednocześnie pod kątem tego, czego szukamy.
Na przykład, nie wiem, szukamy dźwięku fortepianu,
no to możemy przeszukiwać wszystkie fortepiany,
czy to od Native’a, czy to od jakiejś innej firmy,
innych firm, nie wiem, od KORGA, jeśli mamy odpowiednie wtyczyki zainstalowane,
od Spitfire Audio, takich firm dużych, które zajmują się tworzeniem programowych instrumentów.
Ich interfejsy często są na tyle niedostępne, że bez tego kontrolera po prostu nie bylibyśmy w
stanie przeglądać, jakie w danej wtyczce mamy dostępne dźwięki. A kiedy już mamy coś załadowane,
no to też w dostępny sposób możemy zmieniać różne parametry tych instrumentów. Głośność,
pogłosy, włączać, wyłączać różne mikrofony, bo często takie bardziej zaawansowane
instrumenty mają wiele mikrofonów, które tam możemy dostosować zależnie od tego
jakiego dźwięku szukamy. Różne efekty, włączać, wyłączać jakieś pogłosy i echa i tak dalej.
No i to wszystko robimy z poziomu tego właśnie sprzętu.
A co jeśli akurat znaleźliśmy jakiś kontroler, jakiś keyboard, który nam pasuje
Nie bardziej, może dlatego, że jest większy.
Ma jakieś dodatkowe przyciski, z których byśmy chcieli korzystać.
Ale jednocześnie chcemy korzystać z tego standardu NKS Complete Control.
No do tej pory tego zrobić się nie dało.
A tutaj Native Instruments nagle właśnie ogłosił,
że ta aplikacja otworzy się właśnie na kontrolery firm trzecich.
Jeśli dobrze to rozumiem, to w najbliższych miesiącach
będziemy mogli załadować tą aplikację Complete Control
i dowolnego z tych kontrolerów, które na ten moment są wspierane,
pewnie czasem będzie ich więcej,
po prostu korzystać z tej aplikacji
i przepraszam, też włączyć sobie dla nas dostępność.
Będą to kontrolery na początek od firmy Akai,
Novation, Nektar, Korg
oraz M-Audio.
Tutaj mamy też konkretne modele wspomniane od Akai, to jest np. model MPK-mini.
Od Novation to będą kontrolery Launchkey Mark 3 i 4.
One są modele ciekawe, że z tego co wiem, to są cenowo dosyć konkurencyjne kontrolery, które też mają więcej funkcji,
a ich oprogramowanie samo w sobie jest ponoć bardzo dostępne.
To jest jakiś webowy interfejs, więc jak ktoś nie potrzebował
instrumentów, które są oparte o standard NKS, one były dobrą opcją.
A jeśli dostaną integrację z Complete Control, no to już w ogóle wydaje mi się, że
może być to ciekawe.
A jeśli chodzi o M-Audio na przykład, to są klawiatury czy keyboardy
właściwie z serii Oxygen.
To wszystko będzie się pojawiało stopniowo.
Bardziej szczegółowe informacje, chociaż dużo konkretnych dat tego typu informacji nie ma, dużo możecie sobie zajrzeć na post Native’a.
Natomiast to wszystko byłoby fajne, ale cały czas nie wiemy tak naprawdę co się dzieje z dostępnością Complete Control.
Dlatego, że w zeszłym… nie, już będzie ponad, więcej niż w zeszłym roku, chyba dłużej to się stało, pojawiła się nowa seria od samego Native’a.
Wydaje mi się, że to jest trzecia generacja Complete Control z serii S,
czyli tej flagowej serii, która ma nową, odświeżoną aplikację, która ma więcej funkcji.
Problem w tym, że ta nowsza wersja w Complete Control jest dla nas ciągle niedostępna.
Native obiecywał, że ta dostępność miała się pojawiać, natomiast jak do tej pory,
to kiedy to się miało stać, cały czas się opóźnia.
Pierwszy kwartał roku 2024 stał się drugim, drugi stał się trzecim, a w trzecim kwartale to już w ogóle powiedzieli, że prawdopodobnie to będzie pierwszy kwartał roku 2025.
Jeszcze trochę czasu w tym kwartale im zostało, natomiast szkoda, że cały czas nie mamy jakichś konkretnych informacji.
Temat jakoś ucichł, co może być trochę niepokojące.
Te ostatnie informacje, które dostawaliśmy, sugerowały, że jakieś inne funkcje, jakieś szablony midi i inne kwestie
miały dla nich większy priorytet niż zrobienie tej dostępności.
Mimo to, że było całkiem dużo osób, które te sprzęty kupiły,
biorąc pod uwagę, że wcześniej to wszystko było dostępne,
mając nadzieję, że to jest chwilowy brak dostępności,
ale na ten moment, z tego co mi wiadomo, jeszcze w tej sprawie nic się nie zmieniło.
Mam nadzieję, że faktycznie to się jednak zmieni, zwłaszcza biorąc pod uwagę
te najnowsze informacje, które się pojawiły.
Bo to dla osób, które tworzą muzykę po niewinowemu,
jest naprawdę bardzo istotny sprzęt, istotne oprogramowanie.
Jeśli ktoś chce się w takiej kontrole zaopatrzyć,
to nie nada problem, czy kupować te najnowsze sprzęty,
czy którąś ze starszych wersji, które są w sprzedaży,
ewentualnie szukać czegoś używanego.
No ale wtedy, jeśli faktycznie te nowe wersje staną się dostępne,
no to możemy za jakiś czas po prostu stracić wsparcie,
stracić dostęp do niektórych funkcji.
Także sytuacja niestety nie jest za ciekawa.
To przykro słyszeć.
Może uda mi się jakoś zakończyć pozytywnym akcentem
to wydanie tytułu przeglądu,
bo aplikacja, którą znalazłem przedwczoraj,
Jest dość ciekawa, a jest to aplikacja Playlisty.
Pisze się jak playlisty, jak liczymy mnogą od playlist,
ale chyba czyta się z angielskiego, bo autor definitywnie Polakiem nie jest.
Natomiast tutaj chodzi o aplikację, która…
Playlisty nazywała się to Playlisty for Apple Music.
Jest też bliźniacza aplikacja Playlisty for Spotify.
Aplikacja na iPhone’a, która pozwala nam na importowanie playlist do Apple Music.
I takich aplikacji było trochę.
Przy czym, jedyna aplikacja, o której ja wiedziałem, która istniała na iPhone’a
i była jakkolwiek sensowna, to był SongShift.
I tam trzeba było wykupić, żeby zrobić jakiekolwiek większe przenosiny,
a nie playlistę dwudziestu utworów, no to trzeba było zakupić wersję płatną,
Która chyba w jednorazowym zakupie kosztowała ponad 100 złotych.
Tu tutaj premium owszem jest i jednorazowe i kosztuje 15 złotych.
No, po drugie były też serwisy i po drugie różnie wyglądały te przenosiny,
te dopasowania utworów, były takie se, czasem to w dużej ilości przypadków po prostu nie wychodziło.
No i był też serwis, jest nadal Tune My Music,
w którym, żeby rzeczywiście importować duże ilości utworów, trzeba też zapłacić
chyba jakieś 5 dolarów miesięcznie. To jest zresztą serwis webowy, tam się logujemy
do różnych naszych usług i możemy te playlisty wymieniać.
Tutaj, szczerze mówiąc, nie porównywałem jeszcze, jak wyglądałby import
jakiejś dużej playlisty, na ile on by sobie to dopasował. Natomiast jest dużo
różnych ustawień, jak to wyszukiwanie ma wyglądać, co ma dopasowywać,
czy ma być jakieś tam pogłębione wyszukiwanie, czy nie.
Więc też autor jest dość przejrzysty, jeśli chodzi o to,
jakim mechanizmom się posługuje, że jest dopasowanie ID,
jakichś tych utworów i czy znajdą się te same itd.
Także jest to dość otwarta formuła
i dużo wiemy o tym, jak to wyszukiwanie wygląda.
I ta aplikacja ma kilka fajnych rzeczy.
Od czego by tu zacząć?
No może od tego, że wspiera różne źródła, z których możemy importować.
Możemy importować oczywiście z Spotify, Deezer, YouTube Music.
Możemy importować z Soundclouda.
możemy importować też z Setlist.fm i to jest bardzo ciekawe,
bo nie wiem, czy znacie serwis Setlist.fm. Setlist.fm to jest serwis,
w którym publikowane są tracklisty z koncertów. Czyli po prostu
albo byliśmy, albo wybieramy się na koncert jakiegoś zespołu, wykonawcy
I chcielibyśmy wiedzieć, co będzie grane, w jakiej kolejności,
ewentualnie co było grane, w jakiej kolejności, bo nie znamy
wszystkich tytułów utworów, jakiś nowy został zagrany, spodobał się nam.
Więc możemy wejść na setlist.fm, wyszukać danego wykonawcę,
znaleźć sobie jakiś konkretny koncert, no i tam zapoznać się z listą.
No a tutaj możemy sobie zaimportować całą taką tracklistę
z danego koncertu, już jako gotową playlistę do Apple Music.
Znaczy w przypadku tej aplikacji do Spotify, bliźniaczej, do Spotify,
jeżeli mamy taką potrzebę. Co prawda, do tej konkretnej funkcji ja wolę
zdecydowanie inną aplikację, aplikację Setlistify,
Setlistify, która pozwala nam wyszukiwać najpierw danego wykonawcę,
a potem, albo nawet miejsce, w którym koncerty się odbywają,
a potem dopiero wybrać sobie jakiś tam koncert i te utwory.
Bo w playlisti niestety dodajemy na stałe wykonawcę jako źródło,
bo każdy streaming czy każdy właśnie… każdy wykonawca
to jest tak naprawdę źródło, które dodajemy na stałe.
I tak na przykład konkretny wykonawca ze setlista
jest też dodany jako źródło,
Jakoś tak przygodnie podchodzimy do tego,
że chcielibyśmy sprawdzić jednorazowo konkretnego wykonawcę,
bo tam byliśmy na koncercie,
to nie bardzo nam się uśmiecha pewnie dodawać go do listy na stałe.
Ale tak działa ta aplikacja, zawsze są alternatywy,
więc można się posłużyć.
Kolejna rzecz, na którą ta aplikacja pozwala,
to jest tzw. Scratchpad.
Scratchpad jest czymś ciekawym,
To jest jedno wielkie pole edycji.
I my w tym polu edycji możemy wklejać rzeczy.
Co możemy wklejać?
Możemy wklejać tekst odpowiednio sformatowany
i aplikacja będzie się starała ten tekst sformatować
i go zinterpretować.
Czyli jak wpiszemy na przykład listę utworów
wykonawca, myślnik utwór,
no to w sumie zinterpretuje to jako wykonawca, myślnik utwór
i nam poszuka po prostu tych wszystkich utworów.
Jakoś się da to formatować,
Zobacz, żeby on też szukał albumów, jakichś tam różnych innych tagów.
Możemy wkleić treści różnych playlist i on rozumie różne formaty.
Możemy wkleić m3u, możemy wkleić csv, możemy wkleić jeszcze jakieś tam
różne inne rzeczy, a on to będzie rozumiał i interpretował.
Co więcej, możemy wkleić link.
I link do jakiegoś serwisu typu YouTube, czy tam YouTube Music,
no okej, jasne, nie ma sprawy.
Ale możemy wkleić też Spotify, playlista publiczna.
Możemy wkleić link do dowolnej strony i o ile on rozpozna format na tej stronie,
to z tej strony zaimportuje nam te tytuły.
I to jest ewidentnie skrojone chyba pod Wikipedię,
bo bez problemu, jakby przykładem pierwszym podanym przez autora
jest tam jakaś lista billboard przebojów z Wikipedii.
Ja przetestowałem to na mojej ulubionej stronie na Wikipedii,
jaka tylko istnieje, czyli lista piosenek skawerowanych na czeski.
No tam to on się trochę pogubił, bo ta tabela jest trochę bardziej rozbudowana
i tam jest na przykład wykonawca oryginalny, wykonawca kaweru,
tytuł kaweru, tytuł oryginalny, więc on tam mieszał te dane równo
i tam wyszukiwał sobie czeskiego wykonawcę i tytuł angielski.
Ale wykrył tabelę i pokazał tych tabeli kilka.
I to jest też fajne, że ewidentnie to jest jakoś skrojone pod tabelę,
bo jak on sobie skanuje tę stronę, to pokazuje nam wypis,
po prostu tabel, wszystkie tabele, jakie znalazł.
I my z tych tabel możemy sobie od razu poodtwarzać,
możemy zapisać to od razu jako playlistę,
możemy tam pozaznaczać te utwory i zapisać punkt wybrany itd.
Tak samo sobie bardzo fajnie poradził z którąś listą też na wikipedii zamieszczoną
z tabelami ze strony lista piosenek Top Wszechczasów.
Tam też elegancko pościągał z tych tabelek te tytuły wykonawców
i zrobił mi już gotową, już porozpoznawaną playlistę.
To jest też fajne, bo jest utwór i w podpowiedzi voice-over jest odczytywane
czy dopasowanie zostało znalezione.
Jeśli tak, to czy to jest idealne dopasowanie, czy nieidealne.
Takie, że great match, albo not so great match.
Więc wtedy będziemy mogli oszacować, czy to, co zostało znalezione, nam odpowiada, czy nie.
Nie poradził sobie z notowaniem listy HoppBands z RMF Maxu.
Nie poradził sobie z wypisanymi… one są chyba wypisane jakoś jedna linia po drugiej,
a nie zwykłymi myślnikami.
ale nie poradził sobie z listą utworów z pewnej audycji
zamieszczonej na stronie Radia Freira,
to tam, gdzie kiedyś pracowałem.
I próbowałem go też zmylić, dając mu inną tabelkę do rozpoznania.
To była tabelka…
chyba…
lista imion…
Jak to było?
Nie. Też mój ulubiony artykuł ostatnio na Wikipedii.
Lista incydentów odegrania złego hymnu narodowego na imprezie otwartej.
Bardzo niszowe, ale jest taki artykuł na angielskiej Wikipedii.
Nawet go sobie zaobserwowałem. Tam są wypisane wszystkie…
na jakichś imprezach sportowych, na jakichś oficjalnych uroczystościach,
gdzie zagrano zły hymn. No więc ewidentnie te dane w tej tabeli
nie są wykonawcą ani tytułem. I wykrył, że jest błąd.
Znaczy wykrył, no błąd pokazał, że nie zna tego formatu.
Więc nie wiem czy Wikipedia, bo nie jestem wikipedystą, ma jakiś szablon na tabele,
w których mają być informacje o utworach muzycznych, czy to z czegoś innego jeszcze wynika,
ale z takimi tabelarycznymi danymi radzi sobie to bez problemu.
No oczywiście takie linki czy teksty można udostępniać z dowolnej aplikacji,
więc można po prostu w Safari coś tam otworzyć, czy w Wikipedii i udostępnić do playlisty
I wtedy się to po prostu załaduje.
Natomiast można też wklejać.
Możemy też sobie zaimportować plik.
No i wtedy po prostu z aplikacji pliki wybieramy.
Tam kilka formatów tych plików jest wspieranych.
Także można sobie się tym bawić.
Polecam.
Ciekawa aplikacja, zwłaszcza jak dużo pracujecie
czy ze Spotify, czy z Apple Music.
Tam też są kwestie preferencji
tych utworów i tak dalej, czy jakieś hi-fi, nie hi-fi, przestrzenne i tak dalej.
Także możecie, możecie sobie poeksperymentować z tym.
A już jakieś ciekawe playlisty sobie potworzycie.
Możecie nam dać o tym znać.
No i to koniec tyflowieści na ten moment, więc nie wiem czy, znaczy tyflowieści,
technikaliów też, wszystkiego co na dziś przygotowaliśmy.
Czy coś, ktoś do nas pisał, dzwonił?
Właśnie widzę, że ktoś do nas dzwoni. Już tak dosłownie rzutem na taśmę.
Więc odbieramy telefon. I już tu przełączam naszego słuchacza.
A jest nim Bartek. Dobry wieczór.
No witam serdecznie. Tak na sam koniec się wstrzeliłem, jeżeli dobrze słyszę.
Zgadza się.
Z samego początku. I to, że tak powiem, słucham was tak jak w poprzednim Tyflo Przeglądzie mówiłem, że będę was od czasu do czasu słuchał przez Safari i się wtedy pytałem, jak to, że tak powiem, dodać, żeby mi się od razu uruchamiał, ale to mniejsza z tym, tylko chciałbym się zapytać właśnie a propos tego waszego odtwarzacza.
Czy w którymś z tych miejsc można aktualnie sprawdzić, jaka audycja leci aktualnie?
Bo szczerze powiedziawszy takiego miejsca w tym odtwarzaczu w Safari nie znalazłem.
Może wy wiecie…
Bo to nie jest nasz odtwarzacz, Bartku.
Bo to jest po prostu możliwość odtwarzania takiego strumienia przez przeglądarkę.
I tam się tego typu informacje nie wyświetlą.
Jeżeli nas byś słuchał w jakimś Winampie właśnie,
no to wyświetliłoby się, zazwyczaj jeżeli audycja jest z automatu, to tam się pojawia.
W przeglądarce nie, w przeglądarce się nie wyświetla taka informacja.
Przynajmniej nie w tych natywnych jakby odtwarzaczach, a też nie uważałem,
żeby sensowne było wprowadzanie jakiegoś skryptu, bo z tymi skryptami,
które odtwarzają, to też jeszcze potem z reguły jest więcej problemów,
Nie wszystko jest tak super dostępne jak rozwiązanie natywne,
więc po prostu jest adres, który odtwarza bezpośrednio z przeglądarki
i to jest najprostszym rozwiązaniem.
Z takim tylko pytaniem na sam koniec tutaj dzwoniłem,
bo z czystej ciekawości po prostu mówię.
Po raz pierwszy słucham was w taki sposób i z własnego doświadczenia
mogę powiedzieć, że chyba jest lepiej niż na komputerze,
tylko że z tą różnicą, że na komputerze korzystam z Wi-Fi, ale mobilnego.
Może dlatego od czasu do czasu ten strumień po prostu buforował i się przerywał.
No dobrze, bo pewnie już kończycie dzisiaj bez Tomka, także to pozdrawiam wszystkich serdecznie z Tomkiem włącznie.
Tomku, wracaj do nas jak najszybciej. Miejmy nadzieję, że za tydzień już się, miejmy nadzieję, usłyszymy.
Także cóż, spokojnej nocy i do usłyszenia.
Dzięki Bartku za telefon, dobrej nocy, do usłyszenia.
Dobrej nocy, tak.
No to chyba wygląda na to, że będziemy powoli kończyć.
Jest pytanie, czy coś się jeszcze wam w międzyczasie urodziło.
Jak chodzi o… Znaczy, chodzi o tematy, oczywiście, audycji.
Chociaż jak macie inne dobre wieści, to podzielcie się,
my chętnie posłuchamy. Ale czy wy macie tutaj ze mną studio
jakieś jeszcze na ostatniej chwili wieści?
Chyba nie.
Nie wygląda na to, że mamy.
Ale ja jeszcze chyba jedną rzecz na koniec gdzieś poruszę.
Nie chciałem z tego robić jakiegoś dużego gdzieś tam tematu,
Bo też nie do końca wiadomo, w którą stronę to wszystko pójdzie.
No, a też ja ze swojej strony mogę powiedzieć, że staram się bez potrzeby
jakichś tematów bardzo politycznych nie poruszać na audycji, ale to jest coś,
co trzęsie w tym momencie mediami społecznościowymi w mojej gdzieś tam bańce,
czyli osoby niewidome plus eksperci dostępności.
No bo tak, to co w Stanach Zjednoczonych się dzieje, to pewnie obserwujemy w mediach głównego nurtu,
czyli nowym prezydentem jest Donald Trump, już jest zaprzyciężony, już jest, sobie siedzi w Białym Domu.
No i jedną z pierwszych decyzji, jaką podjął, było zamknięcie, czy pozbycie się, nie wiem jak to nazwać,
Zredukowanie wszystkich programów w ramach rządu federalnego skupionych na różnorodności.
Ta różnorodność w mediach głównego nurtu pewnie przeszła głównie jako rasa, płeć, orientacja seksualna itd.
O czym być może się nie mówi tak często jest też to, że tam jest też włączona dostępność cyfrowa.
I pewne efekty tego już są widoczne.
Takie, które my możemy bezpośrednio jakby sprawdzić,
to to, że np. ze strony Białego Domu i chyba też, Piotrze,
mówię Ci, innych federalnych urzędów,
poznikała deklaracja dostępności.
No…
Tak, tylko chciałem powiedzieć, że np. takiego przewodnika
dla cyfrowej transformacji,
czy jak tworzyć np. dostępne dokumenty,
Media, posty na mediach społecznościowych,
też zniknęły, wszelkie informacje związane z zasobnością na przykład,
na co ktoś zwrócił uwagę, że nie jest na przykład sugerowane,
żeby zdjęcia opisywać, tego typu sprawy.
No więc to są na razie takie rzeczy symboliczne i subtelne,
bo nic się nie stało jeszcze takiego funkcjonalnego na zasadzie,
strona jakaś nie przestała działać z dnia na dzień,
nikt tam, nie wiem, na siłę nie wyrzucił tego, co już było zrobione.
No ale nieciekawa jest sytuacja…
Czy nie wyrzucił tej właśnie deklaracji dostępności?
Ja mówię o technicznych rozwiązaniach, bo deklaracja dostępności,
jakby, wiesz, dla kogoś, komu się nie chce czytać różnych dokumentów,
to jest pewien po prostu symbol, taki gwarant tego, że ta strona
jest dostępna w jakimś tam stopniu ujętym w tej deklaracji.
Świadomie ten dokument powstał w ramach organizacji,
Z drugiej strony, Pawle, też w takich dokumentach, no może nie zawsze, ale od czasu do czasu pojawiają się informacje, jak z danych mechanizmów korzystać.
Jeżeli coś jest nietypowego i w takiej sytuacji, no to już może mieć wpływ na dostępność. Nie wiem, czy w przypadku Białego Domu akurat ma, natomiast jeżeli są jakieś multimedia i są jakieś odtwarzacze działające w nietypowy sposób,
No tak.
Ja się bardziej skupiłem na samej technice, tak? Że nie wiem, nagłówki nagle nie zniknęły.
Albo jak już ktoś zrobił opisy alternatywne, to one pewnie dalej są.
No tak, no to jest właśnie to. Więc mówię, że to, że z dnia na dzień taka decyzja powstała,
nie znaczy, że zrujnowano to, co było. Ale okej.
No nie za fajna jest sytuacja osób, które tam pracowały przy tym wszystkim.
No pamiętajmy, że Stany to taki gdzieś tam był prymus, jak chodzi o tą dostępność.
To od nich się poniekąd te wszystkie rzeczy wzięły, te takie, powiedzmy,
pierwsze jakieś tam poważniejsze, takie naprawdę rewolucyjne ustawodawstwa
typu właśnie czy ustawa rehabilitacyjna z 77, czy ADA, znany American with Disabilities Act,
którego przyszłość też nie jest do końca pewna, aczkolwiek tutaj dalej krążymy w sferze spekulacji,
to znaczy osoby, które śledzą amerykańską politykę i rozumieją trochę jak działa i jakimi metodami
rządzenia gdzieś tam postępuje, czy w jakimś… jaką strategią, może o tak, jaką strategią
prawdopodobnie pokieruje się prezydent Trump. No mają już pewne pomysły na to,
jak to może dalej się skończyć. No ja jako, że nie jestem ekspertem i my tutaj myślę wszyscy
możemy siedzieć spokojnie i patrzeć i czekać, co się wydarzy. Natomiast póki ADA jest,
No to nadal firmy prywatne z tych rozwiązań dostępnościowych zrezygnować jakoś prawnie nie mogą.
No plus pamiętajmy, że Europa też wymaga. Od czerwca 28 już powinny być pewne produkty dostępne.
Amerykańskie, nieamerykańskie na europejskim rynku są, powinny być.
Ciekawe swoją drogą jak potoczą się losy tej nakładki dostępnościowej AkcesiB.
Czy oni zapłacą tę karę, czy nie?
No to też zobaczymy.
Natomiast…
Ja tak bardziej o tym myślę, że
oczywiście zobaczymy, gdzie to się potoczy,
jak to się potoczy, jakie będą kroki poczynione.
Nie chcę tu żadnych snuć czarnych scenariuszy,
bo też uważam, że jest to
nieodpowiedzialne
ze strony tutaj mojej, by to było,
jako prowadzącego podcasty, bo też
wiem, że nie jestem
Dobrą wróżką jak chodzi o przewidywanie różnych rzeczy, co się wydarzy.
Już niejednokrotnie się pomyliłem i oby tym razem też bym się pomylił.
No ale nastroje w społeczności są minorowe i to jest lekko powiedziane.
Są takie głosy już, że pytanie co teraz zrobią korporacje prywatne.
Zwłaszcza, że gdzieś takie namowy czy zachęty ze strony właśnie
Opinie nowej administracji były, żeby i one poszły tym śladem.
Opinie są takie, że to wszystko teraz zależy od dobrej woli korporacji, a ta dobra wola to bardzo często jest
spełnianie interesów aktualnie rządzących, czyli jak przykładowo taka dostępność popierana jest,
no to w takiej firmie też będzie. Jak nie będzie przymusu, no to w duchu oszczędności,
Zapewnienie dostępności jest zawsze jakimś pewnego rodzaju kosztem.
Jeżeli zrobi się to umiejętnie i od samego początku najlepiej wdroży się ten proces,
to wtedy ten koszt nie jest taki znowu wielki. Ale jeżeli o dostępności pomyśli się na samym końcu
i bo trzeba, no to się nie ma co oszukiwać. To kosztuje.
To trzeba zapłacić komuś, kto wie, jak tę dostępność zrealizować i też trzeba zapłacić komuś, kto to zaudytuje, zbada, sprawdzi i wyda stosowną opinię albo zasugeruje jakieś konkretne poprawki. To już są wtedy realne pieniądze.
Tak, tak, tak. Nie można o tym zapominać.
No więc w duchu tej oszczędności takie, a nie inne kroki są na razie podjęte
na szczeblu federalnym. Zobaczymy, co dalej.
Natomiast mi tak najbardziej w tym wszystkim chyba po prostu szkoda ludzi,
bo takie wyszkolenie się na eksperta w dziedzinie dostępności,
ja wiem, że jest możliwe technicznie, nie wiem, w parę miesięcy
Czytam nawet krócej, bo są różne kursy i różne itd.
Natomiast rzeczywiście wejść w to
i się z tym zaprzyjaźnić, to jest masa pracy,
bo to nie jest tylko kwestia…
I aktualizować też jeszcze potem, Pawle, wiedzę,
bo tak naprawdę my,
będąc użytkownikami
technologii asystujących, konkretnie czytników ekranu,
a w tym przypadku to wiadomo, że dostępność to jest
Znacznie szersze pojęcie, bo są różne grupy osób, które mają różne potrzeby, no ale
w myśl zasady najbliższa ciało koszula, to będę mówił o nas.
My nawet czasem nie jesteśmy w stanie nadążyć za tym, jak pewne rzeczy w czytnikach ekranu się zmieniają,
a my się zajmujemy opowiadaniem o tym wszystkim wam.
I czasem też nas coś zaskoczy.
Co dopiero osoba, która używa tego oprogramowania na co dzień i aż tak bardzo się tym nie interesuje,
a co dopiero człowiek, który zajmuje się dostępnością i musi jeszcze ogarniać znacznie więcej,
niż tylko to, jak sobie niewidomi radzą z komputerem?
Tak, ale to jest jedna rzecz, a druga rzecz, że nawet będąc tą osobą niewidomą, która korzysta
i nawet będąc w miarę zaawansowanym użytkownikiem, jest kupa wiedzy, którą powinniśmy posiąść,
żeby tą dostępność audytować, jakiejśkolwiek, nawet nie podstawy,
ale taki średnio zaawansowany HTML.
To jest moim zdaniem podstawa. HTML i ARIA.
CSS i JavaScript, no tak naprawdę też.
I to jest naprawdę…
Ale też takie wyrobienie się w tej rutynie,
kiedy ocenić w jaki sposób problem, znaczy dany błąd,
jak to wszystko działa, które wytyczne,
do którego problemy się odnoszą.
W tym naprawdę się można rozwijać
i rozwijać bez końca, jak w każdej innej dziedzinie.
No i pewnego dnia budzimy się
w rzeczywistości, w której
władza naszego kraju nazywa naszą robotę
po angielsku wasteful, po polsku
strata pieniędzy.
I mamy głos w dyskusji.
Sławek się do nas zadzwonił.
Dobry wieczór, Sławku.
Cześć, cześć.
Witajcie, witajcie.
Kilka słów, to znaczy, to trzeba
Trzeba sobie jasno powiedzieć, że ta decyzja Trumpa nie jest bez powodu.
I tak naprawdę Paweł powinien jakoś tam się przygotować na następną audycję.
No i podać rzeczywiście, jakie są statystyki.
Niestety, panowie, to co się stało w Ameryce, to jest lewactwo w czystej postaci.
To jest po prostu przyrost aktywistów.
Ludzi, którzy, tak jak związki zawodowe,
ale tutaj aktywiści, na rzecz niepełnosprawnych,
zarabiali gigantyczne pieniądze.
Było ich coraz więcej, coraz więcej, coraz więcej.
No i to już był taki typowy etatyzm.
I trzeba było temu powiedzieć stop.
I w tej chwili biznes się przestał bać.
No i te wszystkie duże korporacje,
Ludzie od tego odchodzą, bo widzą, że to jest czyste szaleństwo.
Nie zarabiają na tym ani grosza.
I to po prostu nie ma żadnego sensu.
Ja podam ostatnio taki przykład. Miałem chyba kilka miesięcy temu.
To a propos inkluzywności i tego całego idiotstwa.
Otóż kiedyś, jak się dzwoniło do Apu, do infolinii,
to po prostu aż człowieka dziwiło, że tak wspaniale może być obsłużony
i że ci ludzie, którzy tam są, mają niesamowitą wiedzę
i mogą np. poprowadzić człowieka dosłownie jak za rękę,
jeśli nie ma jakiejś odpowiedniej wiedzy co do obsługi iPhone’a
czy jakichś już nawet bardziej zaawansowanych rzeczy.
A słuchajcie, jak zadzwoniłem, to była tam jakaś pani
chyba nie w pełni mocy intelektualnej,
no i po prostu odłożyłem słuchawkę.
Drugi taki przykład mam z Ikei, gdzie zadzwoniłem i też z reguły
to tam byli ludzie naprawdę na poziomie i można było się zapytać
o każdy towar. Oni podawali różne specyfikacje,
podawali jakieś alternatywy. I ja bardzo szybko się zorientowałem,
że zaraz, nie mogę się w ogóle z tą osobą porozumieć.
To ona chyba naprawdę reprezentuje jakiś wyjątkowo niski poziom, tak, intelektualny.
Więc to chodzi o to, żeby skończyć z tym szaleństwem.
Czyli jeżeli ktoś ma rzeczywiście jakieś możliwości, to niech pracuje.
Jak ktoś nie ma, to niech nie pracuje, albo niech pracuje, ale na innym froncie robót, że tak powiem.
To znaczy, Sławku, tylko to jest wszystko zestaw naczyń połączonych.
Jak ktoś ma możliwości, niech pracuje. Tylko problem jest taki, że my tak naprawdę w dzisiejszych czasach to jesteśmy zależni od tych różnego rodzaju dużych korporacji.
Chociażby właśnie, jak na przykład od Microsoftu. I w tym momencie na przykład Microsoft robi całkiem sporo, żeby ta dostępność była.
Ale ja sobie jestem w stanie wyobrazić, że kiedyś komuś przestanie kompletnie na tym zależeć, a może się nagle okazać, że przestanie zależeć nawet do tego stopnia, że my z komputera, nawet z czytnikiem ekranu, będziemy mieli ten dostęp bardzo utrudniony.
Więc to, wiesz, to fajnie się gdzieś tam powiedzmy opowiada w teorii o bardzo różnych rzeczach.
Natomiast w praktyce, no, konsekwencje jakieś dalsze mogą być rzeczywiście, mogą być problematyczne.
Michał, to nie jest tak do końca, bo nawet wasz przykład pokazuje.
No, mówicie ludziom cały czas o dostępności, wszyscy mu mówią o dostępności.
To się zrobił taki temat świetny dla aktywistów.
A co, macie jakąś normalną pracę? Albo ktokolwiek z waszych znajomych?
Taką niedofinansowaną pracę w normalnym sektorze prywatnym? Nie.
I tak samo wy jesteście aktywistami, a po prostu nigdy chyba na życie
nie tknęli normalnej pracy.
Sławku, ja akurat miałem okazję przepracować kilkanaście lat
na otwartym rynku, też prowadząc własną działalność.
I ja również robiłem rzeczy, które nie były związane z niewidomymi.
No tak, ale w tej chwili Paweł jesteś aktywistą, a nie jesteś pracownikiem.
Przepraszam, ja też przez 8 lat pracowałem w zawodzie, w ogóle z tym nie związany.
I chodzi o to, że takich ludzi jest cała masa.
I oni po prostu, jeżeli chodzi o osoby niewidome,
że potrafią im pokazywać, że ten świat jest dla nich,
że oni mogą wszystko, a tak naprawdę nie mogą.
I to się trzeba z tym pogodzić.
I oczywiście mieć do siebie nawzajem szacunek.
Ale to nie jest tak, że ten świat ma działać na naszą rzecz tak całkowicie.
To my musimy się też przystosować do świata,
a też ludzie o tym zapominają.
Owszem, tylko żeby przystosować się do funkcjonowania w świecie,
to trzeba mieć odpowiednie warunki.
Też.
Ja może inaczej.
Sławku, bardzo chciałbym się odnieść do jakiegoś argumentu
z tego, co powiedziałeś,
tylko mam z tym potężny problem z jednego powodu.
Ja przytoczyłem przykład dostępności cyfrowej.
Proste rzeczy, tak? Dostęp do codziennych rzeczy.
Praca jest ważna, oczywiście jest gdzieś tam podstawą tego,
żeby gospodarka się rozwijała, żebyśmy mieli z czego żyć,
żebyśmy się też spełniali jakoś, ale życie to też masa innych sektorów.
Jest rozgrywka, są zakupy, jest jakieś prowadzenie, czegokolwiek.
I teraz naprawdę ja jestem w stanie dostosować się do wielu rzeczy,
bo jeżeli strona nie jest, czy aplikacja w pełni dostępna,
Ja znajdę tysiąc obejść i od tego też jest Tyflo Podcast, żeby je pokazywać, jak z tego korzystać,
ale kiedy odbierze mi się absolutnie wszystko, oczywiście to jest ekstremalnie czarny scenariusz,
natomiast jeżeli odbierze mi się absolutnie wszystko, jeżeli załóżmy tak, że Apple zarzuci
całą dostępność w Chambuł i przestanie zajmować się, albo ewidentnie potem z uwagi na dług technologiczny
Zresztą nie voice-overa, tak?
No to za pomocą czego
miałbym się dostosować w społeczeństwie,
które jest już poniekąd
uzależnione od technologii cyfrowych
do funkcjonowania?
No, choćbym chciał,
to mi się to
nie uda i
mogę być aktywistą, mogę być, nie wiem,
pracownikiem, każdy sobie to jakoś wartościuje.
Ja uwielbiam swoją pracę
i uważam ją za ważną.
Chociaż wiem, że jest gdzieś tam politycznie
w jakiś konkretny sposób motywowana, ale robię też inne rzeczy w życiu.
Zajmuję się różnymi aktywnościami, które nie byłyby możliwe,
gdybym tej technologii nie miał. A moja egzystencja technologiczna
na ten moment jest uzależniona od trzech firm. Google, Apple, Microsoft.
Jeżeli oni wszyscy porzucą te programy i przestaną jakkolwiek o to,
żebym miał jakikolwiek dostęp do technologii dbać,
to myślę, że znajdziemy się w sytuacji, w której nawet nie będziemy mogli
Tak, teraz dyskutujemy, po prostu nie będzie czym.
Wydaje mi się, że to jest tylko niekończąca się taka gonitwa jednak.
Bo technologia się zmienia, my tu próbujemy coś tam nadążać,
ale to wiadomo jak jest.
Jeszcze inna kwestia, wejście takie gwałtowne sztucznej inteligencji i czatów,
to też nawet osoby widzące postawi w innej sytuacji,
No bo w tej chwili te najbardziej zaawansowalne czaty nawet mają funkcje takie, że mogą za ciebie przejąć klawiaturę i mysz i po prostu robią za ciebie wszystko.
To prawda, tylko warunek jest jeden. Ja sobie, wiesz co, ja właśnie nawet jak zaczęliśmy o tym rozmawiać, to tak sobie pomyślałem, że w sumie w dobrym momencie, jeżeli coś tu miałoby się pogorszyć z tą dostępnością, to się znaleźliśmy.
Taki był przez chwilę taka moja myśl,
której nie wypowiedziałem z jednego prostego powodu.
Bo sobie przypomniałem, jakie ostatnimi czasy
miałem problemy z aplikacją czata GPT.
I w tym momencie mamy problem z interfejsem,
z wejściem do tego i jeżeli z tym zrobi się problem,
to co ci po tym, że aplikacja będzie w stanie
zrobić za ciebie wszystko, skoro ty nie będziesz w stanie
No tak, no w każdym razie moje stanowisko jest takie, że dostępność jak najbardziej, ale wszystko w rozsądnych granicach.
A kto ustala te granice?
Ludzie, którzy mają jakiś zdrowy rozsądek, czyli jeszcze raz ci mówię,
nie może być tak, że osoba upośledzona intelektualnie z jakimś deficytem
siedzi na infolinii. Takiego czegoś nie może być.
Czy na przykład kierowcą autobusu będzie ktoś, kto ma epilepsję,
bo on tak sobie wymyślił.
Specjalnie zawężyłem ten temat w mojej argumentacji,
Może nie jestem tak przygotowany, jak byś chciał,
ale ja bardzo zawężyłem to, o czym chciałem powiedzieć w tym,
do dostępności cyfrowej, bo okej, dostępność nie bez przesady,
tak jak mówisz, czy włączenie, w tym momencie nie ma jej w ogóle,
a raczej jeszcze jest, bo siłą rozpędu, ale zniknie z tych miejsc,
w których była i była zrobiona dobrze i służyła ludziom.
To jest główne clue tego, co chciałem przekazać tym,
że w ogóle o tym powiedziałem.
Ale ona nie zniknie moim zdaniem.
Chyba, że np. opisy, jakieś zdjęć, to też…
W zasadzie nam to nie jest tak bardzo potrzebne do życia, że tak powiem.
Tak, oczywiście, że gra…
Czygokolwiek innego, co wejdzie.
No chociażby, słuchajcie, to, co się stało na Facebooku.
Zabrali nam te aplikacje, te wersje strony Mbasic
i ta wersja przeglądarkowa jest naprawdę w dłuższej perspektywie
niewygodna do korzystania.
Jeżeli teraz jeszcze coś popsują z aplikacją mobilną,
to zostaniemy odcięci tak naprawdę od Facebooka.
Weźmy pod uwagę, że po cichu Facebook zwolnił działodostępności,
Jak się to popsuło, ludzie zaczęli pisać, okazało się, że nie miałby kto odpisywać nam te wiadomości.
To był na żywym organizmie przykład, jak to się może skończyć.
Jest jeszcze kwestia tego, że są organizacje, które jakąś tam jednak siłę nacisku mają,
poprzez to, że są raz, że duże, dwa, że istnieją jakieś tam lat,
obojętnie czy to Ameryka, czy Niemcy, czy Anglia, czy Polska,
Które mogą jakoś tam wywierać nacisk na korporacje czy na jakieś instytucje publiczne w sferze dostępności.
No ale to jest, Sławku, właśnie ten aktywizm, który Ci się nie podoba. To w końcu dobrze czy źle?
Nie, Michał, mi się nie podoba ten aktywizm, o którym już wspomniałem, ale to jest zupełnie… to jest jeszcze inna rzecz.
Natomiast tutaj w takim zakresie, co tutaj Paweł mówi, to…
Znaczy nie sądzę, żeby to było dobre, żeby regulować to wszystko
na zasadzie, że jest jakiś urzędnik i teraz zmusza wszystkich do tego,
żeby coś wyglądało. Tak i koniec. Myślę, że lepszym jednak chyba rozwiązaniem
jest właśnie, żeby ludzie sami jakoś tam naciskali i mówili o swoich potrzebach,
a nie uśredniać to i na przykład mówić o jakimś uniwersalnym projektowaniu,
Także tak to chyba widzę, ale jestem jeszcze z tego pokolenia,
które musiało sobie radzić samo i sobie radziło.
No i pewnie dlatego takie mam twarde podejście.
Spokojnie, my też. Ja zacząłem używać czytników ekranu w czasach,
kiedy połowa linków się nazywała spacer.php, tabele, główki.
Także zobaczymy jak to będzie.
Ja na przykład powiem wam, że teraz wyszła aplikacja Radio Republika.
I wszyscy się tam chwalą, że 100 tysięcy pobrań na tym czasem dla nas jest w ogóle niedostępna.
No właśnie to Patryk o tym dziś mówił, dzwonił do nas.
Kompletnie niedostępne. Nie ma etykiety przycisków, a nawet jeżeli coś się kliknie, to i tak to w ogóle się nie poddaje jakimkolwiek naciskom, że tak powiem.
Jakiś jest ikona, która się nazywa głośnik, klika się w to też, to nic nie daje. Ja dzwoniłem tam tydzień temu, pani powiedziała, że…
bo tam już są takie zasady KORPO, więc nie można porozmawiać z osobą kompetentną na ten temat. Tylko pani powiedziała, że nagrała ten fragment rozmowy i ona przekaże.
Potem specjalnie napisałem publicznie na Facebooku u nich,
że jest coś takiego, jest taki problem.
I zadzwoniłem dzisiaj.
No a dzisiaj ta pani też w ogóle powiedziała, że ja nie wiem, o co chodzi.
No ja mówię, jeżeli pan nie wie, o co chodzi, to podobno rozmowa jest nagrywana,
więc prosiłbym, czy ten fragment chociaż przekopiować
i podać to do osoby, która coś wie na ten temat.
No i jeszcze gdzieś na Instagramie napisałem…
Nie wiem, zobaczymy, czy się tam coś zmieni,
chociaż tak troszeczkę mocno nacisnąłem,
bo tam napisałem, że z ekranu się leją frazesy o pomocy,
o wartościach chrześcijańskich, a tutaj zapomnieli o grupie ludzi,
dla których smartfon jest oknem na świat.
Także też się tutaj mieszam z tą dostępnością.
Bo chcemy czy nie chcemy, to ta dostępność nas dotyka w zasadzie na każdym kroku.
Albo nas nie dotyka i nam jakoś nie przeszkadza, ale nagle jak się upomni, to się okazuje, że jest to ważny problem.
No nic, dziękuję wam i dobrej nocy, bo to już późna noc.
No i mamy już środę.
Dzięki Sławku za telefon, do usłyszenia.
Wam również dziękujemy dzisiaj za uczestnictwo w audycji,
za wasze telefony, za wiadomości, za wasze prezentacje
i zapraszamy was do kolejnej audycji już za tydzień
i do wszystkich innych, które będą w tym tygodniu,
ale Tyfto Przegląd już za tydzień na antenie Tyfto Radia.
Do usłyszenia, dzisiaj ze mną studio Piotr Machacz i Michał Dziwisz,
a przy mikrofonie prowadzącego Paweł Masarczyk.
Do usłyszenia. Dobrej nocy.
Był to Tyflopodcast.
Pierwszy polski podcast
dla niewidomych i słabowidzących.
Program współfinansowany
ze środków Państwowego Funduszu
Rehabilitacji Osób Niepełnosprawnych.