TyfloPrzegląd Odcinek nr 288 (wersja tekstowa)

Pobierz napisy w formacie SRT
Pobierz napisy w formacie VTT
Fundacja Instytut Rozwoju Regionalnego prezentuje
Tyflo Podcast
W tym tygodniu w Tyflo Przeglądzie
Znaczna poprawa dostępności pilota WP na iOS
Kilka ciekawych aplikacji wartych polecenia
NVIDIA 2025.1.2 naprawia niedziałające starsze wersje Worda
Keep Awake, dodatek do NVDA, zapobiegający usypianiu komputera.
Speech Central na Androida niebawem z dużą aktualizacją.
Developer szuka testerów.
Sygnal na iOS przeczyta status dostarczenia wiadomości.
Druga beta iOS-a 26 przynosi nowy dzwonek i nowości na pokrętle.
Resample, webowa aplikacja do tworzenia muzyki, staje się dostępna.
Poprawki dostępności także w Element X i PKP Intercity.
Toalety na niektórych stacjach japońskiego metra mają brailowskie plany.
Co nowego w Prudence Screen Reader 3.0?
Apel o uczciwość przy ustaleniu poziomu wsparcia. Jest petycja do podpisania.
Nowe angielskie głosy SAPI 5 od BlastBay Studios.
Eleven Reader już nie za darmo. Wchodzą subskrypcje.
SteamOS dostaje czytnik ekranu.
Będą też inne nowości w grach.
Nadchodzi Unihertz Titan 2, współczesny smartfon z Androidem i fizyczną klawiaturą.
Wikiradio, losowe dźwięki z Wikimedia Commons.
Wszystko to, a pewnie jeszcze więcej już za chwilę. Zaczynamy!
Tyfo Przegląd jest audycją prowadzoną na żywo, więc serdecznie zachęcamy Państwa do współtworzenia go razem z nami.
Oczekujemy na wiadomości głosowe na Whatsappie oraz połączenia telefoniczne pod numerem 663-883-600, powtarzam 663-883-600 oraz zapraszamy Państwa do wyrażania komentarzy w formie tekstowej poprzez formularz na stronie kontakt.tyflopodcast.net.
Odczytujemy również Państwa wypowiedzi zamieszczone pod transmisjami na Facebooku i YouTubie. Staramy się też zaglądać na nasz tyflopodcastowy serwer Discorda.
Po urlopie to człowiek powinien teoretycznie być wypoczęty, zrelaksowany, ale nie mogę tego powiedzieć niestety o swoim głosie.
Akurat tak się nieszczęśliwie złożyło, że jakiś wirus na ten okres urlopowy mi się przyplątał.
No i jeżeli dziś będę wypluwał z siebie płuca, to z góry serdecznie wszystkich za to przepraszam, tych, którzy będą tego słuchali.
No ale cóż, taka to kolej rzeczy. Mam nadzieję, że dzisiejsi współprowadzący Tyflo Przeglądu w dobrym zdrowiu, Piotr Machacz, Paweł Masarczyk. Jak tam u was?
Witajcie. Wszystko dobrze. U mnie wiarę też.
Okej, no to bardzo fajnie. Mam nadzieję, że wy będziecie zdecydowanie więcej mówić niż ja, bo dziś rzeczywiście to po waszej stronie bardzo dużo różnych ciekawych informacji.
Ale myślę, że zanim jeszcze oddam wam głos, to wpuścimy tu naszego człowieka od różnych technologicznych nowości także, który się niejednokrotnie udziela i przynosi do nas coś ciekawego, a mianowicie Arka Świętnickiego.
Arku, czy nas słyszysz?
Dzień dobry, halo.
Dzień dobry, jesteś.
O, jestem, dobrze. Witam. Miałem coś dla was mieć w tamtym tygodniu, ale nie miałem, bo zdrowia nikomu nie pozwoliło.
Niestety słońce mi, że tak powiem, główkę przygrzało no i się skończyło tak jak się skończyło.
A to trzeba uważać, bo rzeczywiście słońce bywa zdradliwe i potrafi nieźle przegrzać.
Nie polecam udaru słonecznego. No nie jest to po prostu przyjemne.
Nic przyjemnego, zdecydowanie.
Ale tak, ja tutaj przynoszę nowość tym raczem swojego autorstwa.
Nie wiem, co ty Piotrze mówiłeś o tym, bo ja wypadłem trochę z obiegu, ale napisałem wtyczkę dla Mac OS-a o nazwie Ray Access, która sprawia, że Raycast jest…
Naprawiłem jedną z głównych bolączek Raycasta dla niewidomych użytkowników, czyli brak automatycznego czytania tego, co aktualnie mamy w launcherze.
Tak, to Piotr o tym zdaje się, że wspominał, natomiast chyba nie demonstrowałeś tego Piotrze w praktyce, prawda?
Nie, ja po prostu mówiłem o tym przy okazji drobnych niesłów chyba w zeszłym tygodniu.
Aha, rozumiem. To może zademonstruję, jeśli pozwolicie, bo uważam, że udało mi się zrobić to w taki sposób, że naprawdę bardzo szybko to działa.
Powiedziałbym, nawet za szybciej niż inne launchery.
Próbuję udostępnić dźwięk, korzystam z bety Mac OS-a 26, więc mam nadzieję, że będzie to dobrze działało.
Zaraz się okaże.
A jeszcze i tak będę potrzebował coś Wam na iPhone’ie potem pokazać, więc…
File Computer Audio, super.
I szare komputer audio.
Czy słychać?
Słychać.
Najbardziej to widać na wyszukiwaniu plików, więc ja sobie otworzę wyszukiwanie plików
Command, Option, Spacja. I zacznę sobie na przykład wpisywać…
Czy to tutaj działa? Chyba już nie działa.
A, bo on tu krzyczy, że teraz chyba powinien działać.
Halo? Jesteś, tak? Przepraszam, bo tu mi się tak zacina wszystko.
Dobrze, więc spróbujemy sobie coś pisać, na przykład R.
Mam nadzieję, że nie ma zbyt dużego opóźnienia między mową a klawiaturą,
ale bardzo szybko to działa. Mogę wpisywać sobie dalej.
Teraz w tym momencie, przez to, że cały czas jest ten plik ru.dist
i piszę dalej, to nic się nie dzieje.
Mogę wpisywać sobie, nie wiem, na przykład ms.
O, i tutaj mam jakiś taki plik.
Mogę sobie strzałkami chodzić.
No i cały Raycast dzięki temu jest czytany.
Wtyczka jest jeszcze w fazie beta.
Na moim GitHub jest prośba, żeby pisać do deweloperów Raycasta,
bo ja bym wolał, żeby ta wtyczka nie musiała powstać,
bo ta wtyczka działa na bardzo brzydkiej zasadzie.
i od razu uczciwie Wam powiem jako jej autor,
że po prostu nie jest to jakieś state of the art,
to nie jest tak, że dostępność powinna się robić w taki właśnie sposób.
Tylko Raycast po prostu nie oferuje nam tych funkcji dostępności natywnie,
dlatego musimy uciekać się do tego typu rozwiązań.
Problem z tym jest taki, że np. wyjdzie nowa wersja Raycasta,
która coś zmienia w interfejsie użytkownika,
no i wtyczka Ray Access już przestanie nam funkcjonować.
Ale jeżeli ktoś nie chciał RayCasta z tego względu,
że nie czytał automatycznie wyników,
to myślę, że teraz będzie mógł sobie
z czystym sumieniem ten program potestować.
No bo zarówno nam czyta wyniki, jak i czyta nam akcje po Command K.
No i jak piszemy, to nam czyta, jak chodzimy strzałkami, to nam czyta.
Jedyne, co nie jest czytane, RayCast ma taką funkcję,
że jak przytrzymamy sobie klawisz Command,
I naciskamy cyfry od 1 do 9. Nad wynikami wyszukiwania pojawiają się wtedy cyfry.
Tego specjalnie nie robiłem dostępnego, bo dla osoby niewidomej to i tak będzie trudne w używaniu,
no bo te wyniki się dynamicznie zmieniają. Wiadomo, osoba widząca…
Ogarnie cały ekran tak naprawdę.
Ogarnie cały ekran, więc tego specjalnie nie robiłem i tego nie będzie.
Nie mam takiego planu. Chyba jak ktoś mi poda jakiś dobry powód, dla którego by to miało być,
No ale bardzo się cieszę, bardzo mi ta wtyczka pomaga.
Ja długo z Raycasta korzystałem na takiej zasadzie, że po prostu sobie pisałem.
No bo zademonstruje jak to działa bez wtyczki.
Żeby ludzie, którzy następnie słuchali audycji, wiedzieli.
Teraz już jestem bez wtyczki. Command-Ctrl-Shift-A się ją deaktywuje.
I teraz sobie wpisuję na przykład MESS. No i muszę wow prawo…
No to zdecydowanie dłużej to trwa.
Więc polecam, jeżeli ktoś chce www.github.com
slash nuno69 slash r-a-y-a-c-c-e-s-s r-a-y-a-c-c-e-s
Link też jest w najnowszym dyflo-przeglądzie na stronie, akurat właśnie tam było to informacja, więc tam też jakby ktoś szukał.
Przeglądałem ostatnio notatki.
Ale nie widziałem, chyba że po prostu ominąłem.
Może wszedł ostatnio, na pewno link wrzucałem.
Jest, na pewno jest, także spokojnie możecie też z tych notatek korzystać.
Z komentarzy pod audycją.
Arku, a jak Raycast się rozwija jeżeli chodzi o Windowsa?
Bo coś tam się miało już pokazać, prawda?
Tak, i będzie zdaje się w lipcu publiczna beta.
Będzie przeportowany na Windowsa. Tylko na Windowsie to będzie niestety działał w jeszcze brzydszy sposób.
Pomyślcie sobie, że to będzie na zasadzie takiej jak działa Hearthstone Access.
Czyli ja po prostu co wersje Raycasta będę musiał to patchować.
No ale chcę developerom pokazać, że się da też tak trochę…
Rozumiem, że to nie jest na Windowsie na tyle dostępne, żebyś mógł na przykład, nie wiem, AutoHotKey’em jakoś z dostępności to sprzedać.
Mogłbym, ale ja to robię celowo. Ja to robię celowo w taki sposób, żeby oni wiedzieli, że nawet z kodu maszynowego da się to zrobić i nie jest to trudne, bo oni gadają rzeczy w stylu, że nie, że to jest bardzo trudne do odprowadzenia. Nie jest trudne do odprowadzenia, po prostu im się nie chce.
Bardzo lubię Raycasta, tak tutaj muszę powiedzieć, że im się nie chce. Tak najzwyczajniej w świecie.
Rzeczywiście, ja czekam, ja czekam na tego Raycasta dla Windowsa, jestem bardzo ciekaw co to będzie potrafiło i na ile w ogóle pod okienkami ta aplikacja okaże się przydatna.
Wiesz co, ja korzystam, bo testuję Ray Access też na Windowsie. No i wreszcie odpalili ten swój system rozszerzeń.
I rozszerzenia są w większości cross-platformowe.
O, a to fajnie.
Jeżeli na przykład jest rozszerzenie do GitHuba, no to ono jest cross-platformowe.
Chyba, że są jakieś typowo, na przykład jest do Ulyssesa rozszerzenie.
No to to jest aplikacja typowa na Maca.
No tak, to nie miałoby to sensu.
Ona po prostu, to po prostu nie będzie działało.
Czy tam jakiś Apple Script czy coś.
Ale tak poza tym, to naprawdę bardzo dużo tych rozszerzeń działa.
Jeśli jeszcze te agenty trochę mniej potrafią na Windowsie,
bo wbrew pozorom API Windowsa nam niej pozwala.
Czyli na przykład nie ma integracji z kalendarzem.
Chyba, że ktoś ma Fantastical, to wtedy tak, wtedy może sobie korzystać z tych agentów, o których mówiłem, ale za to będzie dla Windowsa integracja z Recallem.
O, no to też rzeczywiście może być ciekawą sprawą, o ile sobie ktoś tego nie wyłączy.
No tak, ja akurat to mam wyłączone u siebie na wirtualnej maszynie, ale…
Raycast jest na Windowsie aplikacją webową, ale nie martwcie się, to nie jest CEF, ten Chrome Embedded Framework, znany szerzej jako Electron.
Tylko to jest po prostu render przez Windowsowy WebView i cały silnik aplikacji jest w raście, więc Raycast zużywa u mnie mniej RAMu niż Everything testowałem.
Ale tutaj muszę Everythingowi jakby dać, że tak powiem szansę, bo Everything nie ma wersji ARM natywnej, więc to może dlatego, może to z tego wynika.
Więc to nie jest ciężka aplikacja, nie jest na Windowsa ciężki ten rake.
Skoro o Everythingu mowa, to wersje beta tej aplikacji też zaczynają potrafić coraz więcej, m.in. tam coraz lepiej sobie radzą z przeszukiwaniem plików.
Tu są jakieś serwery nawet centralne, które można sobie tworzyć i do których się podłączać i przeszukiwać potem różne zasoby.
Tam w Everythingu też się cały czas coś dzieje.
O, no to dobrze. Tutaj widzę, że David Carpenter też mocno ciśnie. I dobrze, bo Everything to jest bardzo solidne narzędzie.
Zgadza się.
To jest chyba pierwsze tak potężne narzędzie tego typu.
Tak. I tak responsywnie działające.
Tak, ja też chciałem wam powiedzieć, bo ja postaram się na dzisiejszy Tefloprzegląd zmontować to, co miało być dla was, na dla was za tydzień, dla was, czyli 20 nowości w iOS-ie.
Taki przedsmak naszej wielkiej audycji, która mam nadzieję, że też się pojawi.
Oj, w tym roku to chyba trzeba będzie na trzy części rozbić, bo ja mam, no, prawie już 500 elementów na liście swojej z notatkami.
No myślę, że wstępnie to będzie dobry pomysł, tak.
Więc tak, tak mi się wydaje, ale zmiana, która mnie rozwaliła na drobne kawałki, to historia schowka w iOS-ie.
Tak to można chyba Piotrze określić.
Tak, będę o tym dzisiaj mówił.
Aha, czyli dobrze, to nie będę wyprzedzał może faktów, ale jestem zachwycony tym.
Poza tym, że to na razie tylko 10 elementów może przechowywać.
Ale mamy na pokrętle opcję Copy Speech i możemy sobie góra-dół chodzić po tym.
Dwa razy tapiemy i to nam ląduje w schowku.
I na iPadzie też to jest, też to testowałem.
Można to klejać rzeczy?
W sensie dołączać?
Tak.
Niestety nie można, ale możesz…
Chyba, że sobie w jakimś polowycji po prostu wkleisz jedno, potem wkleisz drugie.
Nie, bardziej chodzi mi o to, że jak kopiuję ze strony na przykład do źle
łamiącej się numer telefonu lub numer konta bankowego.
No tak.
Wywołane na dwie linie.
Niestety dołączanie do schowka to jest…
Nie wiem dlaczego, ale chyba bardzo chiński wynalazek, bo u nas tego nie widziałem.
Ani na Androidzie, ani na iOSie za bardzo. A to jest bardzo przydatne czasami.
Ale można to, Pawle, skrótem jakimś zrobić, podejrzewam.
Bo w aplikacji skróty też dużo nowego.
Nie wiem, czy ty, Piotrze, próbowałeś, ale mi się udało zmusić Core Foundation
do tego, żeby polskie prompty łykał i nawet po polsku odpowiadał.
No to super, no generalnie niestety aplikacja jest krótka,
przynajmniej w tych wczesnych betach to ucierpiała na dostępności,
ale mamy nadzieję, że się to naprawią.
No tak, na iOS-ie tak, jest bardzo ciężko cokolwiek zrobić.
W nowej becie poprawili to, że już czyta,
że coś jest w warunku lub poza warunkiem.
Jeszcze w Mac OS 26 jest…
Mac OS 26 moim zdaniem jedna z bardziej udanych
i stabilnych bet tego systemu.
I co dla mnie na przykład bardzo ważne, działa loopback i hijack,
czyli programy od Roak Ameba, z których na co dzień korzystam.
Ja co roku narzekałem, że programy od Ameby nie działają.
No tak, bo one tam dość nisko w systemie grzebią.
I widać, że tu nic nie zostało popsute na tyle.
Tak, no przez to, że oni teraz korzystają z bardziej oficjalnych api,
to po prostu teraz to wygląda tak, że dostajemy ostrzeżenie,
Jeśli taki program uruchomimy, że jeszcze ta wersja systemu nie była testowana,
natomiast po prostu wszystko, faktycznie też z mojego doświadczenia, działa.
Jeśli chodzi o takie programistyczne rzeczy, to miałem okazję się bawić xCode’em 26.
Wielkie rozczarowanie niestety, jeśli chodzi o nas niewidomych.
Dalej podstawowe błędy dostępności są,
ale może niech łyżką miodu w byczce dziekcił będzie to,
Jest kolejny nowy framework od Apple, czyli Speech.
No i jak sama nazwa wskazuje, to jest rozpoznawanie mowy.
I ona działa bardzo fajnie i na urządzeniu.
I po polsku mi się nie udało go zmusić do działania,
ale mówiłem do niego i po angielsku i po chińsku
i on dobrze sobie zmieniał te języki,
więc teraz twórcy będą mogli budować fajne aplikacje.
A propos języków, przy okazji, jak tutaj jesteś,
popraw mnie, jeśli się mylę z Maćkiem,
Bo tutaj wcześniej rozmawialiśmy przed wejściem.
W iOS 18 nie mieliśmy jeszcze wbudowanego w system polskiego OCR-a, chyba, tak?
Nie mieliśmy.
Bo w 26 okazuje się, że teraz mamy. Właśnie Maciek odkrył, że polskie znaki zaczął rozpoznawać.
Tak, ale system i tak musisz mieć po angielsku, żeby on działał.
Ja zmieniałem języki i mi to cały czas działało.
Rozpoznawanie ekranu nie działa to cały czas, to prawda, niestety.
Ale na przykład to rozpoznawanie na żywo, czy nie bywało OCR na przykład też na Macu?
Po prostu teraz polskie znaki normalnie widzimy.
Tak, bo ten Framework Vision wspiera polski język.
No właśnie.
I to jest jeden z lepszych OCR-ów w ogóle, takich szybkich.
I to jest naprawdę bardzo dobry OCR.
I tak, wspiera polskie znaki, nie mieliśmy wcześniej tego.
Tylko problem jest taki, że jeżeli…
Też z takiego programistycznego punktu widzenia,
Jeżeli chcemy na sztywno ustawić jakiś język, to się crashuje API i mamy wyjątek nieobsłużony.
No to jest dopiero druga beta także.
I popsuli te… Boże, jak ta kontrolka się nazywa po polsku? Steppery?
Pokrętła? Tak to nazwijmy?
Właśnie nie, bo to nie jest wybieracz, bo wybieracz to jest picker, ale…
Na Windowsie to się nazywa pokrętłami. Takie pole edycji z pokrętłami, tak to się nazywa.
I w AIS-ie 26 to zepsuli. I zgłosiłem to do Apple jako błąd krytyczny.
A już wam tłumaczę, dlaczego jako błąd krytyczny, bo teraz jest tak, że jeżeli mamy takie pokrętło,
to nam mówi to tam na przykład jeden pole edycji, dobrze.
I potem mamy jeden zwiększ wartość przycisk i to zmniejsza wartość.
I mamy jeden zmniejsz wartość przycisk.
I do nas jako do twórców Luomo już pisali, że złe etykiety daliśmy.
I że w ogóle to jest…
I zostaliśmy zawaleni takimi requestami
i zaczęliśmy to badać. Nie no, etykiety są dobre.
I tak patrzymy sobie. Użytkownicy Androida nie zgłaszają takich problemów.
Okazało się, że w SwiftUI ktoś się walnął.
I odwrotnie to działa.
No i odwrotnie, odwrotnie zaetykietowali przyciski.
Więc jeżeli natkniecie się na taki błąd, to nie zgłaszajcie go
deweloperowi aplikacji, tylko do Apple’a od razu.
Tak, no bo to jest kontrolka systemowa, tak? To system ją generuje tak naprawdę.
Ja wypełniłem feedback, też na przykład jeżeli zgłosicie jakiś feedback, to informujcie o tym ludzi, dawajcie ID tego feedbacka, żeby inni ludzie mogli się odwoływać do niego w swoich raportach na przykład.
Ogólnie takie moje wrażenia z tego wszystkiego są takie, że z iOSem 26 jest trochę jak z Windowsem Vista podczas premiery, czyli fajne funkcje, ale optymalizacja troszeczku leży.
Porównanie o tyle trafne w ogóle, że ten cały wygląd Queen’s Quest, to bardzo dużo ludzi porównuje do wyglądu, chyba to się nazywało Arrow, czyli to bardzo podobnie wygląda do Vista ponoć.
Nawet widzący koledzy z pracy, to też jak kolega kiedyś zobaczył, to pyta mnie, co to, czyli co, Apple wydało Vistę, tak?
Tak, 20 Vista w 26, 19 lat później Vistę dostaliśmy.
A wziąwszy pod uwagę jaki, naprawdę jakim fajnym systemem był następca Visty, czyli siódemka, to może im to na dobre wyjdzie.
Ale w drugim becie poprawiła się żywotność baterii, muszę wam powiedzieć.
I jeszcze z takich nowości, które bardzo lubię i które będę się starał zademonstrować na audycji tej dużej,
To oczekiwanie na rozmowę, to znaczy jeżeli dzwonimy na jakąś infolinię i nam gra muzyczka,
to system może nam jakby rozłączyć to połączenie tak na niby i do nas jakby oddzwonić,
kiedy już będzie konsultant, czyli my nie musimy cały czas mieć tej muzyki na telefonie.
No i to w drugiej becie zaczęło działać.
Ciekawe, czy będzie to działało też z polskimi infoliniami.
To chyba wykrywa muzykę, więc działa.
Aha, okej.
Tylko to jest w kwestii jak mamy jakiś komunikat typu jesteś piąty w kolejce na przykład.
No właśnie.
To też pewnie będzie trzeba jeszcze szerzej sprawdzić, bo na pewno to chyba będzie niestety działało
tylko jeśli mamy angielski język w systemie ustawionym.
Tak, ja niestety testowałem to bardzo krótko, no bo wiadomo nie chciałem się nigdzie dodzwonić.
Nie wiem za bardzo jak to dobrze sprawdzić. Nie wiem czy jest sposób, żeby to dobrze sprawdzić.
Ale pewnie jest.
Muszę coś zasymbolować. Kiedyś zadzwonimy się, puszczę jakąś muzykę, a potem zacznę coś gadać, nie wiem.
No, to też tak to można zrobić.
W Makolesie też mamy historię Schowka i nowy Spotlight.
I była straszna drama na Reddicie, bo ludzie się zaczęli bać, że właśnie aplikacje typu Raycast czy Alfred spadną z rowerka.
Uspokajam fanów tych, że nie, Spotlight dalej potrafi jakieś 20% tego, co Alfred na przykład.
Ale dobrze, że się poprawił Spotlight, bo teraz ludzie, którzy na przykład nie chcą płacić za Alfreda czy Raycasta,
czy nie chcą po prostu instalować jakiegoś lunchbara na przykład, będą mieli w miarę fajne działające narzędzie do wyszukiwania.
Mam ciekawy błąd jeszcze Wam tak chciałem powiedzieć w Windowsie 11, może ktoś wie jak go naprawić.
Znaczy nie wiem nawet czy to jest błąd, ale kiedyś w notatniku Windowsowym można było otworzyć dowolny arbitralny plik,
A teraz notatnik informuje mnie z uśmiechem na ustach, że halo, ale ten plik nie jest obsługiwany i koniec.
I to może być nawet plik JSON, albo plik YAML, albo jakikolwiek, to nie musi być nawet plik binarny.
Po prostu jeżeli on nie ma wpisanego w rejestr tego pliku, to nie pozwoli go otworzyć.
A to bardzo dziwne, wziąwszy pod uwagę to, że wiele różnych zewnętrznych programów
Traktuje notatnik jako edytor domyślny dla plików, chociażby file zilla.
No właśnie, dlatego…
Mam nadzieję, że to tylko u mnie jakiś problem.
Chociaż wydaje mi się, że tak, bo ja ostatnio chyba coś otwierałem i nie miałem takich problemów.
No ja już od dłuższego czasu nie mogę otworzyć, nie mogę otwierać plików i nie wiem co mam zrobić.
To dziwne.
Poddałem się, ustawiłem VS Code jako domyślny edytor i dobra noc.
No i działa.
Ale tak, to jest też, ostrzegam, bo może to jest jakiś A-B testing i niedługo do wszystkich to dotrze.
Oby nie.
No bo ja po prostu mam, to nie jest tak, że mam błąd, dialog błąd, tylko ja mam wprost powiedziane, że ten typ pliku nie może być skojarzony z programem Notepad X.
No ale pliki JSON tak trochę dziwne, no bo takie pliki generalnie to się edytuje przecież w takich aplikacjach, więc…
To jest śmieszne, bo wprowadzają niby jakieś wsparcie Markdowna i tak dalej, a no nie wiem, dziwne, dziwne, dziwne.
Okej, Arku, czy masz jeszcze dla nas jakieś informacje?
Nie, no postaram się jeszcze coś podesłać, to co mam, ale nie wiem czy mi wyjdzie.
A jak nie, to najwyżej opublikujemy jako osobną audycję, także spokojnie.
Także dziękuję.
Dzięki również za to, że się z nami podzieliłeś porcją różnych ciekawych informacji.
O, Arek się właśnie wyłącza.
A my myślę, że możemy przejść na dobry początek do informacji,
bo mamy też już kilka waszych wypowiedzi,
ale najpierw może coś z kolejki newsów.
WP Pilot na iOS poprawił się, prawda?
Tak, i wszystko zaczęło się od…
Nie wiem, czy też korzystasz z tej aplikacji, dostałeś tego maila od WP.
Taka niewinna informacja. Zmieniamy regulamin ze względu na dyrektywę dostępności,
akt o dostępności, który wdrożyła Unia Europejska, co za tym idzie.
My jako Polska też ten akt wdrożyliśmy i tam po prostu były nowe zapisy dane,
że generalnie usługi pilota WP wspierają wszystkie jakieś funkcje asystujące,
dają dostęp do wszystkich potrzebnych opcji.
No i była informacja, gdzie ewentualnie jakieś błędy zgłaszać.
Szczerze mówiąc, nie wczytywałem się w ten regulamin.
Byłoby fajnie, gdyby jeszcze jakieś czyny za tym były.
Zacznijmy od tego, że generalnie aplikacja Wilota WP
na iPhonie, zresztą na przeglądarce też,
dostępna o tyle jest, że możemy sobie kanał wybrać.
Kiedy już ten kanał wybierzemy,
to samego otwarzacza VoiceOver nie widzi,
więc np. zmiana ustawień graniczy z cudem.
A jeśli chcemy otwarzanie zatrzymać, to trzeba zminimalizować aplikację
i wtedy z centrum sterowania tym sterować.
Do przyjemnych to nie należało, dało się z tego korzystać,
ale zdecydowanie, jak w przypadku wielu aplikacji do oglądania telewizji
czy materiałów VOD, dałoby się zrobić dużo więcej.
I co za tym idzie, przechodzimy do aktualizacji, która pojawiła się dzisiaj.
Jest to wersja 4.56.0.
Sprawdzałem sobie w App Store wszystkie nowości i mi ta aktualizacja się pojawiła,
a w liście zmian było napisane, nowa aktualizacja równa się nowa dostępność.
Później była informacja, że obiecują, że ta aktualizacja poprawi działanie
z czytnikami głosu. Jakoś tak to było dziwnie nazwane,
ale można było domyśleć się, o co chodzi, że tutaj właśnie jakieś wsparcie
dla czytników ekranu, programów wększających zostało dodane.
Mamy też obietnicę, że to jest dopiero początek.
Co mamy na ten moment?
Po otwarciu aplikacji generalnie mogę powiedzieć,
że faktycznie jest zdecydowanie lepiej.
Zanim uruchomiłem kanał, widziałem niezadegetowane przyciski.
Sporadycznie takie przyciski możemy w niektórych miejscach znaleźć.
Natomiast jeśli chodzi o samo oglądanie telewizji
i wybieranie kanałów,
to naprawdę muszę powiedzieć, że pobrawa jest znacząca.
No bo w końcu odtwarzacz widzimy.
I ten odtwarzacz został zrobiony naprawdę sensownie,
bo jeśli mamy włączonego voiceovera,
to kontrolki tego odtwarzacza, czyli przycisk zatrzymaj,
przycisk ustawienia, Chromecast,
wszystkie generalnie przyciski sterujące tym odtwarzaczem,
nam się domyślnie nie ukryją.
Co normalnie wygląda tak, że te przyciski automatycznie znikają.
Dużo aplikacji robi tak, że jeśli voiceover jest włączony,
no to te przyciski zostają.
My możemy je sobie ręcznie ukryć,
co też jest widoczne, po prostu stały otwarzać jest traktowane
jako taki jeden duży przycisk zatykietowany jako
ukryj lub pokaż kontrolki otwarzania.
Jeśli wyciśniemy ten przycisk, no to te kontrolki nam się ukryją.
Jeśli chodzi o same kontrolki,
to one faktycznie dostępne i zatykietowane są.
Miałem problem z zmianą ścieżki audio
i nie wiem do końca, czy to było związane z tym,
że po prostu alternatywnych ścieżek audio w kanałach, które wybierałem,
po prostu nie było. Czy w aplikacji jest jeszcze jakiś błąd?
No, próbowałem na przykład na tych kanałach generalnie głównych,
na jedynce, na Polsacie, na TVN-ie.
Możemy jak najbardziej dojść do przycisku ścieżka audio,
natomiast kiedy go naciskałem, to po prostu to menu ustawień znikało
i nic mi się nie wyświetlało. I nie wiem do końca jeszcze właśnie,
czy to jest związane z tym, że jeszcze jest w aplikacji jakiś błąd,
czy po prostu WP Pilot tych ścieżek nie widzi,
Mimo to, że np. w aplikacji TVPV Audio, czy właściwie na stronie, o której niedawno mówiłem, w przypadku programu pierwszego, można jak najbardziej tą alternatywną ścieżkę audio wybrać.
Nie wiem, czy to się dynamicznie pokazuje, tylko jeśli materiał ma audiodeskrypcję. Chyba nie.
Nie, oczywiście, bo pilot nie jest z tego niestety znany, że tych ścieżek nigdy nie miał.
Przeciw do tego jest i nie wiem, czy ta ustawa też nie wymaga tego, żeby te ścieżki były, więc może to jest…
Być może jeżeli nawet tego nie mieli, to wdrożą to po prostu w swoją transmisję, bo to tak naprawdę jest kwestia tylko dorzucenia tych ścieżek, oni nie muszą nic sami produkować, tylko po prostu je włączyć w ten przekaz, a skoro to jest dopiero początek, no to może właśnie to czeka jako ta kolejna nowość.
Natomiast to jeszcze nie jest koniec tego, jak generalnie to w wielu miejscach jest opracowane.
Bo co się stanie, jeśli naciśniemy ten przycisk, żeby te kontrolki ukryć?
No wtedy zostaniemy dostęp do innej bardzo fajnej funkcji.
O, mianowicie, osoby widzące mogą palcem po tym otwarzaczu przesuwać w prawo lub w lewo,
żeby przeskakiwać między kanałem. Tak zwany zapięk.
Tak jak macie na pilocie przycisk kanał do przodu, do tyłu, to tak można to zrobić.
My przedstawiać gestem trzema palcami nie możemy.
Kiedy te kontrolki są ukryte, to na tworzaczu dostajemy czynności.
Mamy czynność następny kanał i poprzedni kanał.
Jeśli ktoś nie chce przeglądać listy,
co też można zrobić i dostaniemy informację o tym,
jaki program leci na danym kanale.
Informacja o godzinie jest podana w podpowiedzi.
Jak ktoś nie chce słyszeć godzin,
można podpowiedzi wyłączyć i wtedy informacji nie dostaniemy.
No a jeśli wolimy po prostu coś tak, po prostu przeskakiwać po kanałach, zobaczyć co gdzie leci,
no to też można z poziomu tych czynności między kanałami się przesuwać.
Mamy też do dyspozycji program TV. No tutaj też dostępność mogłaby być lepsza,
bo w domyślnym widoku to wygląda tak, że mamy pokazane kilka kanałów jednocześnie.
I Wojsława czyta nam, jakie najbliższe 3-4 pozycje w danym kanale będą lecieć.
natomiast nie mówi nam, jaki kanał wybraliśmy,
chyba że na niego nie naciśniemy.
Jeśli naciśniemy, no to już jak najbardziej taki pełny widok,
gdzie możemy sobie wybrać konkretną datę np. i przeglądać program.
Tylko od tego kanału, no to wtedy już tą informację dostaniemy.
Ale tutaj też generalnie wszystko jest fajnie czytane.
Jeden flik, jeden gest to jest jedna pozycja w programie TV,
więc tutaj widać, że faktycznie dobre rzeczy zaczynają się dziać.
Nie wiem, jak wygląda sytuacja na Androidzie, może jeśli ktoś z Was korzysta, to dajcie znać, czy Android też taką aktywizację dostał.
Sprawdziłem jeszcze szybko, jak to wygląda na stronie.
Na stronie pomału też chyba coś się będzie działo, bo zauważyłem, że pojawiło się dużo nowych punktów orientacyjnych,
np. odtwarzacz sam został opatrzony punktem orientacyjnym.
Natomiast same kontrolki odtwarzacze niestety cały czas dostępne nie są, więc tutaj…
Możemy do tego odtwarzacza się dostać i wtedy spacja nam będzie działała jako play-pauza,
a szczątkami góra-dół możemy sobie dostosować głośność tego odtwarzacza.
No ale niestety, gdybyśmy chcieli zmienić sobie ścieżkę audio, czy dostosować jakieś inne ustawienia,
no to na razie czytniki ekranu, przynajmniej voiceover na Macu, bo akurat z Maciem to testowałem,
jeszcze tutaj przycisków nie widzą. No ale można mieć nadzieję, że to zostanie poprawione.
No, a w przyszłości byłoby fajnie, gdyby jeszcze aplikacje na Smart TV były dostępne,
bo chyba nie są tego jeszcze też.
Nie zdążyłem sprawdzić, jak to na przykład na Samsungu jest.
Wiem, że na Apple TV jest okej.
Z innymi systemami było generalnie trochę gorzej.
No, ale można mieć nadzieję faktycznie, że jednak ta ustawa zaczyna coś robić.
Fajnie, że tutaj w UB Pilot zaczyna coś poprawiać.
W sumie TVP też.
Miejmy nadzieję, że podobne rzeczy będą się działy.
…też z innymi dostawcami, no i oby też ten WP Pilot tą dostępność poprawiał, tak, no bo tutaj też jeszcze są rzeczy, które można poprawić,
ale to, co dostaliśmy, to już jest naprawdę duży postęp, więc proszę więcej.
Ja w ogóle tak przeglądam te… bo teraz ja się już śmieję, bo na Mastodonie Eric Eggert, jeden z takich ekspertów w dostępności,
no człowiek, który w ogóle był jednym z członków tych grup roboczych przy World Wide Web Consortium,
Czyli ludzie, którzy pisali wytyczne WCAG.
Swoją drogą, to jest mega smutne, że facet teraz po prostu spędza…
Znaczy, on robi też jakieś audyty i tak dalej,
ale spędza mnóstwo czasu w social mediach, na Mastodonie i tak dalej,
kłócąc się z ludźmi o to, jak interpretować zasady,
które sam napisał,
łącznie z różnymi urzędami w krajach i tak dalej.
Natomiast on wrzucił takie dwa, ale jak mówił,
że zaczyna się jego IAA Tracker, czyli po prostu śledzenie, które aplikacje
w wyniku ustawy teraz będą pisały w swoich nowych aktualizacjach w notkach wydawniczych
o tym, że coś tam w kwestii dostępności poprawiali. No i moje ulubione kwiatki,
to jest dla mnie to jest w tym momencie festiwal tego, jak ludzie albo firmy po prostu
nie wiedzą, jak rzeczy się nazywają. Bo na przykład to, co mówiłeś o czytniku,
no ja kojarzę to z aktualizacji teraz właśnie, o której znaczy no nie ma co mówić dużo,
Napisali, że są poprawki. Błąd, który Bartek zgłaszał, czyli utykanie mowy, kiedy się wpisuje w polu wyszukiwania coś dalej jest, czyli PKP InterCity.
Poprawki dla czytnika głosowego. To jest jeszcze w miarę łagodne.
No tak.
Trzy papryczki chili dostaje ode mnie, to już wspomniałem o tym w zeszłym tygodniu, Santander Consumer Bank, czyli ten Santander od lokat i kredytów,
który też wysłał do mnie maila, właśnie podobnego jak u Pepilot do Was,
że no, nowy Regulamin, bo właśnie wchodzi nowa aplikacja,
no a aplikacja ma być bardziej dostępna, uwaga, m.in. dla czytników kart.
Ja w tym momencie, no chyba bym nie chciał, żeby moje dane bankowe
były dostępne dla czytników kart, zwłaszcza jeżeli ten czytnik
nie jest czytnikiem autoryzowanym przez, nie wiem, jakiegoś tam dostawcę
…czy jest terminalem, tylko po prostu zczytuje sobie dane na cele niecne.
Także, no zobaczymy jeszcze jaką interpretację na temat screenreaderów,
wariację dostaniemy w najbliższym czasie, ale robi się ciekawie, to na pewno.
Trochę z jednej strony szkoda, że ludzie dopiero postraszeni konkretnymi wymogami
zaczynają coś robić, ale z drugiej strony to lepiej późno niż wcale.
Teraz zaglądamy do Waszych wypowiedzi.
I mamy taką głosówkę na Whatsappie, tu nam się użytkowniczka nagrała, która się podpisuje
Nie zrobię ci barszczu. No to posłuchajmy.
Witajcie. Pierwszy raz nagrywam wiadomość tutaj, ale chciałabym podzielić ją tak właściwie wczorajszą,
wczorajszej niej z wczoraj. Miałam tę sytuację, gdzie nie mam opcji na Allegro,
która zawierała w sobie zdjęcia z różnymi wzorami.
No i problem był taki, że ja nie do końca wiedziałam, co to oznacza.
Tzn. domyśliłam się, co to oznacza, ale nie wiedziałam,
do którego numerku jest przyporządkowany.
Więc zaczęłam, wysłałam koledze linka,
że to jest czat NGTT, spróbował to rozgryźć.
Czat NGTT nie do końca sobie z tym poradził.
Podejrzewam, że dlatego, że mój kolega nie wpisał dokładnie,
co on chce. Więc stwierdziłam, dobra, ja spróbuję z co-pilotem, ale przez Whatsappa.
Nie przez appkę, tylko przez Whatsappa. No i słuchajcie, wysłałam linka temu co-pilotowi.
Opisał zupełnie, to znaczy podobnie jak, to znaczy trochę było podobnie z opisu
tego, tej aukcji, tak jak chat GBT to opisał, ale jednak zaczął sam z siebie zawierać
więcej szczegółów. No więc stwierdziłam, że skoro to idzie tak w taktowym kierunku,
No to napiszę mu, że panie weź mi to jeszcze bardziej opisz,
bo mi są potrzebne konkretnie wzory z tych zdjęć.
No i on to wszystko przeanalizował i opisał mi wszystko dokładnie.
Mało tego, pomógł mi wszystko tak jakby stersonalizować pod konkretny wzór,
który ja sobie tam wybrałam. Trochę on mi pomógł wybrać, trochę ja sobie go wybrałam.
Pomógł mi stersonalizować ściankę, pomógł mi stersonalizować kolor i wszystko.
I nawet pomógł mi napisać wiadomość dostrzegającego.
W tamtym tygodniu była taka właśnie wiadomość.
Ktoś nagrywał, chyba Cornelia, na temat opisywania zdjęć.
I powiem szczerze, że ja z takim niedowierzaniem na to AI patrzyłam,
ale widzę, że bardzo mocno się rozwinęło i jestem niele zaskoczona,
że nawet pilot WhatsAppowy już ma dostęp do internetu
i jest w stanie naprawdę szczegółowo opisać to, co sobie zażyczysz.
Oczywiście, że trzeba mu wskazać, co się chce dowiedzieć,
ale on, nie wiem, jakby sam też trochę wiedział już, o co chodzi.
I świetnie trzyma się w temacie konwersacji.
Nawet na krótkie odpowiedzi moje, typu tak, nie,
jest w stanie bardzo ładnie odpowiedzieć.
To nie jest na zasadzie idź sobie i nie wracaj,
tylko naprawdę odpowiada pełnymi zdaniami i zdaniami.
Jestem bardzo zaskoczona, mile.
No, dzięki niemu stresowanie zadałam sobie naprawdę, myślę, że
ładną pamiątkę do oka.
Myślę, że nie podstydziła to się tego osoba widząca.
Więc polecam wam co-pilota na whatsappa, bo naprawdę warto.
Jeszcze jak człowiek zje czego chce, konkreta, no to już w ogóle.
Aczkolwiek jakimś takim chyba mniej ogarniętym ludziom też dostanie jakoś pomóc,
tylko trzeba wtedy dłużej z nim pisać, a tak, no to jednak krócej się to wszystko dzieje.
No ja z godziny czasu siedziałam i to personalizowałam, ponieważ
no tam jeszcze była treść napisu i coś tam, i coś tam, to to grawer laserowy,
Trzeba było wszystko ładnie dopracować, ale uważam, że współpraca z nim była po prostu super owocna.
I naprawdę polecam Microsoft Copilot na Whatsappa jako chat, jako bota, tak? AI.
To tyle z mojej strony. Pozdrawiam. Nila.
Dziękujemy Ci za tę wiadomość. Ja dodam też jeszcze, że ChatGPT akurat też naprawdę bardzo fajnie radzi sobie,
jeżeli chodzi o narzędzie do rozpoznawania zdjęć.
Zdjęć takich, że tak powiem, bardziej historycznych albo dotyczących różnych obiektów.
Ostatnio właśnie z moją drugą połówką byliśmy na urlopie w Niemczech.
No i tam, wiadomo, wszystkie obiekty, jakieś pomniki i tak dalej, wszystko popodpisywane.
Po niemiecku, ale to wiadomo, to trzeba jeszcze ten język rozumieć jakoś lepiej,
…żeby być sobie w stanie z nim radzić. A naprawdę bardzo fajnie pod tym względem sprawdzał się czat GPT, wystarczyło mu zrobić zdjęcie, czy przesłać zrobione wcześniej zdjęcie i zapytać, co to jest za na przykład pomnik, co to za rzeźba, jaka jest historia, no i identyfikował te wszystkie obiekty bardzo fajnie, nie zmyślał, a przynajmniej nie zmyślał w tych przypadkach, które tam mu podawaliśmy w jednym
się pomylił, jakby autor się zgadzał,
nie zgadzało się miejsca, ale jak się doprecyzowało
informacje dotyczące tej konkretnej
rzeźby i tego konkretnego miejsca,
no to już był w stanie podać konkretne, szczegółowe
informacje na temat tego, skąd to tam się w ogóle wzięło,
jaka jest historia danego zabytku. Także
też naprawdę bardzo, bardzo fajnie się to
sprawdzało pod tym względem, więc no,
No, chat GPT może się także i w takich sytuacjach przydać.
Teraz proponuję, Pawle, żebyś ty tam kilka ciekawych aplikacji opisał, mobilnych, bo masz taki zestaw.
Mam. I na początek, no myślę, że hit w jakiś sposób, bo ja o tego typu aplikacjach słyszałem.
Nawet wiem, że swego czasu nieobecny dziś z nami Tomek Pilecki bawił się tego typu rzeczami na Androidzie.
Okazuje się, że Apple nie gorszy i taką aplikację również ma.
A o co chodzi? Chodzi o aplikację, która nazywa się Rideforces.
I to jest aplikacja, która przypadnie do gustu, myślę, wszystkim tym,
którzy lubią jeździć na różnego rodzaju kolejkach, atrakcjach,
w szeroko pojętych parkach rozrywki. Bo aplikacja pozwala nam
na pomiary przyspieszenia i różnych innych parametrów w momencie,
w momencie, kiedy my sobie takim rollercoasterem jedziemy.
I używane są oczywiście wszystkie czujniki,
używane są różne sensory, używane są też dane w wersji zaawansowanej,
pogodowe, czasowe, GPS, więc można w ogóle mierzyć,
całą trasę można zarejestrować, jaką trasę ta kolejka przebyła.
Można zarejestrować, jaki był stosunek czasu, kiedy kolejka stała
w stosunku do tego, kiedy jechała, jak długo spędziliśmy w jakimś tam
W tym zawieszeniu powiedzmy, że wisieliśmy do góry nogami, z jaką prędkość, z jakim przyspieszeniem i tak dalej.
No i można by też pomyśleć, że okej, na niektóre z tych kolejek może trochę ryzykownie z telefonem wchodzić, bo co jak wypadnie, no i ludzie mieli różne triki, jak te…
No tak szczególnie, że właśnie nawet jak wchodzi się na niektóre te kolejki, które mają mocne przyspieszenia, to tam jest nawet taka sugestia, żeby no jednak telefony zostawić.
No jednakowoż w dobie różnego rodzaju GoPro i innego rodzaju sprzętu,
bo jednak ludzie chcą jakkolwiek te jazdy swoje zarejestrować,
no YouTube też z czegoś żyje, no to jakoś tam się to udaje.
Ludzie wymyślają różne sposoby, jak to tam przymocować, przemycić
i sobie problemu nie zrobić, ale okazuje się, że ta aplikacja
ma również swoją aplikację na Apple Watcha.
Także na tyle, na ile Watch swoimi sensorami pozwala nam
różne rzeczy badać, no możemy po prostu mieć zegarek na ręce i tym zegarkiem sobie takie pomiary prowadzić.
Co więcej, no, deweloper chyba wyczuł, że niewidomi to jednak te atrakcje lubią,
więc aplikację pod VoiceOver’a udostępnił, łącznie z tym, że można sobie korzystać z wykresów audio,
do tego typu pomiarów. Także, no mamy kolejną aplikację, która implementuje wykresy dla tych,
którzy naprawdę chcą się bardzo jakoś w te swoje jazdy wkręcić
i potem to udostępniać. Można to oczywiście udostępniać znajomym,
te różne zapisy, można je importować i tak dalej.
No, myślę, że jeżeli planowaliście w te wakacje odwiedzić jakąś
Energylandię albo jakiś jeszcze inny park czy Chorzowską Legendię,
czy gdzieś tam jeszcze, nawet może i za granicą,
no to RideForces waszym przyjacielem może się stać.
Druga aplikacja to aplikacja Flashcards Deluxe,
która została podrzucona na jednym z kanałów whatsappowych,
które śledzę. Tu niestety nie testowałem.
No i aplikacja ma być dostępną fiszką, czyli możemy wrzucić
jakiś materiał, możemy nawet na komputerze po prostu
tworząc plik przedzielony tabulatorem, czyli pytanie-tabulator-odpowiedź
tekstowy. No i możemy sobie zaimportować takie fiszki do smartfona
i czegoś się uczyć. Czyli wygląda to tak, że po prostu pokazywane są nam pytania.
My, widząc samo pytanie, zastanawiamy się nad tym, jaka jest odpowiedź,
no bo uczymy się jakiegoś materiału. Potem odkrywamy tę odpowiedź i sprawdzamy,
czy mieliśmy rację. No i na koniec zahaczamy sobie tą daną fiszkę,
Czy sobie z nią dobrze poradziliśmy, czy nie aż tak dobrze.
No i te fiszki, które nam sprawiają jeszcze jakąś trudność,
wracają do nas potem na koniec.
To jest aplikacja jedna z wielu, chyba taką najpopularniejszą
i najpopularniejszym w sumie systemem nauki w ten sposób.
Aktualnie jest Anki, które chyba dostępne jest różnie,
ale sam format Anki jest jakoś tam otwarty,
więc wiem, że ta aplikacja, no nie ma nic napisane,
nie jest napisane, żeby wspierała bezpośrednio format Anki,
No, ale można też skorzystać z tego formatu tekstowego.
No, także importowanie i eksportowanie fiszek przez chmury,
przez pliki i tak dalej jest możliwe.
No, także jeżeli mielibyście się czegoś uczyć,
tak jak ja teraz się, na przykład, uczyłem do egzaminu
na licencję nadawczą na falach, akurat UKF,
no, ale w szeroko pojętym radioamatorskim paśmie,
krótkofalarskim, no, to bardzo by się taka appka przydała.
Niestety przyszła troszeczkę za późno.
I na koniec aplikacja SuperCards.
No bo część z Was, dostawaliśmy takie sygnały,
korzystała z aplikacji StockCards,
która była taką dość popularną aplikacją,
w której można było sobie zarchiwizować, zabezpieczyć,
przechowywać różnego rodzaju karty lojalnościowe.
Jakieś karty żabki, biedronki i tak dalej.
Natomiast ta aplikacja została przyjęta przez Klarne
i też przez klarnę skutecznie, z tego co rozumiem, unieszkodliwiona
i już nie służy do tego, do czego miała służyć.
W związku z czym, no, na co się tu przesiąść?
No, w jakiś sposób niby tam miały taką funkcję oferować np. portfel Google Wallet.
No, ale jest też aplikacja niezależna, aplikacja Super Cards
i ona jest dostępna właśnie i na iPhona i na androida
i można sobie tam karty lojalnościowe przechowywać.
Dzięki Pawle za ten zestaw aplikacji.
Pewnie każdy znajdzie, albo prawie każdy znajdzie coś dla siebie.
Jeżeli wy macie jakieś ciekawe aplikacje, godne polecenia, to zapraszamy też do kontaktu,
żebyście powiedzieli o nich nam i całemu światu.
A tymczasem odbieramy telefon. Może Patryk właśnie dla nas coś takiego ma.
Albo nowości jakieś w grach. Albo jeszcze co innego. Witaj Patryku.
Witam bardzo serdecznie.
No to ja pierwsze będę zachwalał, ponieważ wreszcie kupiłem sobie nowy telefon.
I powiem szczerze, że zwykle sobie kupowałem właśnie te wszystkie iPhony SE,
SE 2, SE 3 był moim ostatnim telefonem. W ogóle mam nadzieję, że mnie dobrze słychać.
Tak jest. Ostatnio kupiłem sobie iPhona.
Nie, nie, nie. Ja jestem od 10 lat przy iOS-ie.
Próbowałem podejmować próby z Androidem i niestety
nie udały mi się, aczkolwiek kto wie, może z komentarym bym mi się przekonał.
Natomiast jakoś tak iPhone został, no i kupiłem sobie iPhone’a 16A,
raczej powinienem powiedzieć, że iPhone’a 16E,
czyli tego takiego, powiedzmy sobie, troszeczkę następcę iPhone’a SE.
No i muszę przyznać, muszę powiedzieć, że naprawdę jestem
Jestem bardzo, bardzo zadowolony tym telefonem, bo po pierwsze dźwięk z tego telefonu jest na tyle świetny,
że nawet jeżeli ja teraz siebie, Michale, słyszałem przez telefon, to naprawdę ten dźwięk był piękny.
I mało tego, w tamtych iPhone’ach, jak na przykład byłem na głośnomówiącym i sobie sterowałem voice-overem,
To często ten voiceover był mało wyraźny, bo jego dźwięk był tak jakby przez słuchawkę telefoniczną i trochę ten voiceover brzmiał… lekko zniekształcony był.
Muszę, Patryku, powiedzieć, że ciebie też słychać lepiej. To prawda.
Tak, a teraz po prostu ja sobie flickam palcem i ja po prostu voiceovera słyszę w taki sposób, jakbym go słyszał normalnie przez głośnik.
To jest pierwsza rzecz.
Druga rzecz to jest bateria.
Słuchajcie, ja ładowałem dwa dni temu baterię.
I to było tak gdzieś o godzinie 13.
Czekajcie, to było…
Nie, ja ładowałem w niedzielę o godzinie 13.
Tak gdzieś, nie, o 15.
Doładowałem ją do 80% i tak naprawdę dopiero dzisiaj, gdzieś o 15,
miałem 20% baterii i dopiero wtedy go podłączałem.
Jeszcze nie miałem telefonu, w którym bateria by mi dwa dni wytrzymywała,
a dodam, że była tylko do paru procent doładowana.
I właśnie tutaj też rzecz, którą zauważyłem,
i nie wiem właśnie z czego ona wynika.
Byłem w ustawieniach baterii na moim starym iPhonie.
Dodam, że ten sam system iOS 18.5.
Teraz na tym nowym telefonie w ustawieniach baterii
mam coś takiego, że mogę sobie ustawić
do jakiego zakresu on ma mi tą baterię naładować.
I to nie jest żaden skrót ani nic. Po prostu w ustawieniach
mogę sobie wybrać, czy chcę tą baterię naładować do 85,
Ale to chyba właśnie zależy od modelu telefonu.
Chyba te starsze tego nie mają.
Tak, to jest bodajże wspierane od piętnastki wzwyż.
Więc to jest nowość faktycznie.
Jezu, no i po prostu słucham Was i jestem naprawdę zachwycony,
jak Was teraz cudownie słuchać, a to jest przez telefon.
I to jest tak naprawdę… i to jest przez Bluetootha jeszcze,
bo mamy podłączony mikser do telefonu bezprzewodowo.
No faktycznie, tutaj zgodzę się z Michałem, że słychać się lepiej.
W ogóle ten iPhone 16e nawet już też posiada cztery mikrofony
i będzie w stanie nagrywać ten dźwięk przestrzenny.
My więcej mówiliśmy o tym przy okazji tej konferencji WWDC,
ale faktycznie w tych nowych iPhone’ów, no tych mikrofonów generalnie jest więcej
i są po prostu lepszej jakości chyba, z głośnikami chyba jest podobniej zresztą.
Tak, no i jeszcze chciałem powiedzieć jedną rzecz, że okazuje się,
Jeżeli chodzi o to Apple Intelligent, to nie jest powiedziane,
że tylko na iPhonach Pro to działa, bo w momencie, kiedy ja dostałem ten telefon,
wchodzę sobie w ustawienia i mam coś takiego Apple Intelligent i Siri.
Czytam Siri i Apple Intelligent i nawet mam komunikat, że system iOS
musi być ustawiony na język angielski, żeby Apple Intelligent działał.
Także chyba procesor iPhone’a szesnastki E.
Pytanie, czy to nie jest taki po prostu, wiesz, jakby zbiorcza nazwa,
a potem w zależności od podzespołu będzie działał jedno lub drugie.
Nie, nie, nie. To jest…
Nie, bo w iPhone’ie starszym miałem tylko samo Siri.
Wszystkie iPhone’y z modelem szesnastki mają ten sam procesor.
Chyba tam ma mniej rdzeni graficznych, ale jeśli chodzi o tę funkcję AI,
Tak, natomiast jeszcze chciałem tutaj powiedzieć, że poniekąd moje nawyki wynikające z korzystania z poprzednich modeli troszeczkę poniekąd mi zawożyły pewne rzeczy.
Ja np. mając sam telefon z Touch ID bardzo często robiłem sobie coś takiego, że leżałem sobie na łóżku albo np. gdzieś byłem w jakimś głośniejszym otoczeniu, trzymałem sobie np. telefon przy prawym uchu gdzieś tak mniej więcej i trzymając tam przy prawym uchu sobie naciskałem się z blokady tylko po to, żeby sobie sprawdzić godzinę albo np. żeby zobaczyć sobie powiadomienia na ekranie blokady.
Teraz jest Face ID i często jest tak, że jeżeli ja sobie nacisnę ekran blokady,
to w tym momencie usłyszę tę godzinę i chcę tam jeszcze palcem fliknąć,
nie chcę od razu tego przycisku blokady naciskać, żeby zablokować.
Jeszcze raz. I słyszę… spróbuj ponownie.
Bo on w tym momencie już próbuje mi skanować twarz.
To nic, że widzi moje ucho, a nie obrzut mojej twarzy,
Ale on już próbuje mi skanować twarz.
Ja też stwierdziłem, że spróbuję odwrócić go ekranem od siebie,
ale on też coś widzi.
I w tym momencie on już próbuje skanować twarz.
Ale nie chcę go całkiem odblokować,
bo chcę tylko sprawdzić godzinę i sprawdzić,
z jakich apek zostały powiadomienia, niekoniecznie ich treść.
I tu mam teraz takie pytanie, czy to da się jakoś zasłonić, np. palcem, żeby on np. tego, bo wiadomo, że on to skanuje, ten twarz, no bo wiadomo, no Face ID on on on blokowuje, ale ja właśnie żeby zrobić coś takiego, żeby, no ja chcę tylko odblokować ekran, sam ekran blokady sobie pokazać, no ale nie chcę koniecznie go na twarz kierować, żeby mi zrobiło psk i jej tam cyknęło i to się jakby tam odblokowało ten ekran blokady,
Chcę, żeby bez skanowania twarzy po prostu sprawdzić, co tam jest na tym ekranie blokady, zablokować telefon, odłożyć i tyle.
Bo jak miałem Touch ID, to wiadomo, to było dość proste, bo naciskałem przycisk boczny, nie dociskałem go do tego przycisku Home.
No i w tym momencie ja sobie jeździłem po ekranie blokady, cyk, zablokowałem.
To musi zależeć od jakiejś opcji, bo ja właśnie przy Face ID mam właśnie tak, jak mówisz.
Właśnie w ten sposób u mnie to działa.
Że jak?
Że po prostu naciskam przycisk blokady i jeszcze on mi nie łapie tego Face ID.
To kiedy on Cię zaczyna łapać? W którym momencie?
Kiedy przesunę palcem w górę, żeby jakby odblokować ten ekran.
No to u mnie on w momencie, jak nacisnę ten przycisk blokady, to on najpierw właśnie sprawdza mi Face ID.
I jakby jest coś takiego, że on wie, Michale, o co mi chodzi, bo na przykład domyślnie na ekranie blokady działa to w taki sposób,
że na przykład masz pokazane na ekranie blokady powiadomienie, na przykład wiadomość iMessage od Michał Dziwisz.
I tyle masz napisane.
Jak przesuniesz przy twarzy, to w tym momencie on zrobi psk, ale jesteś dalej na ekranie blokady, tylko masz wiadomość, Michałowi chodzisz i cześć.
Ale to zależy, jak to masz skonfigurowane.
Tu Piotrze, może ty więcej coś powiesz.
Właśnie chciałem to powiedzieć.
Generalnie jeśli chodzi o to odblokowywanie, to nawet jak on ci powie, spróbuj ponownie, to możesz po ekranie cały czas nawigować.
Ja zauważyłem, że jeśli mam go na biurku
I na przykład operuję go jedną ręką, gdzie w ogóle na niego się nie patrzę,
no to on nie będzie próbował. Natomiast jeśli gdzieś nawet minimalnie
tą twarz wychwyci, on potrafi czasami się odblokowywać naprawdę w różny kontakt.
Zdarzało mi się, jak on leżał na biurku i jakoś się na nim…
Ja przychodziłem koło niego i on się jakoś odblokował.
Więc co do Face ID, to naprawdę czasami jest zaskakująco dokładne.
Ja bardzo często na przykład mam tak, że leży gdzieś tam ten telefon obok mnie
i rzeczywiście totalnie nie ma szans, żebym na niego spojrzał,
bo leży po prostu gdzieś obok mojej głowy, na stoliku i wtedy, no, na pewno mi się to nie dzieje, na pewno on nie łapie tego Face ID.
Natomiast, tak jak mówiłeś… Tylko teraz, czy to jest w ustawieniach powiadomień, czy to jest w ustawieniach…
Może to jest kwestia jakiegoś wyszkolenia jeszcze, bo może on się jeszcze musi nauczyć tego…
Może, on Cię będzie z czasem jeszcze uczył Twojej… bo tam jest zresztą tak napisane, że Face ID cały czas się uczy Twojej twarzy i pewnie jest czasem bardziej dokładne.
Natomiast jeśli chodzi o te powiadomienia, to albo w ustawieniach powiadomień, albo w ustawieniach Face ID.
Teraz nie pamiętam, akurat telefon mi się ładuje, więc ja mam je teraz sprawdzić.
Ja akurat to lubię, to mi się akurat podoba, bo ja właśnie czasami na przykład… albo nie wiem…
Ktoś na przykład ma mój telefon, no i w tym momencie nie chcę, żeby ktoś zobaczył, co ktoś mi napisał w wiadomości.
No to w takim razie po prostu musiałbyś sobie go odblokować.
Dokładnie, to jest albo-albo. Ja właśnie mam to tak skonfigurowane, że on mi wyświetla te powiadomienia.
Tak, ja też sobie to wyłączyłem akurat, no ale…
Tylko właśnie chodzi mi o to, żeby mieć to jak to Michał właśnie tutaj ustawiał.
To właśnie być może, to właśnie być może to od tego zależy, wiesz?
Bardzo możliwe.
Bo tak jak mówię, mi się to po prostu nie dzieje. Nie łapie mi tego. No muszę to przesunąć, żeby dopiero jakby to Face ID załapało,
Ja przesuwać chyba nie muszę, natomiast nawet jeśli on mnie rozpozna, powie mi spróbuj ponownie, to nie robi to mi jakiegoś problemu.
Tam chyba dopiero za drugim, bo za trzecim razem pojawia się to pole, żeby kod wprowadzić, więc nawet jakbym musiał sobie coś tak przeczytać, kiedy telefon leży na biurku, to to nie stanowi jakiegoś problemu.
Tak, jak dobrze pamiętam, dwie próby podejmuje i dopiero za trzecią jest.
Tak, więc ten komunikat po prostu ignoruję i sprawdzam, co chciałem sprawdzić i jest okej.
Natomiast jeszcze słuchajcie, mam jakiś taki problem, jeżeli chodzi o kontakty.
I już mi się to raz stało i ja potem to naprawiłem.
Ale z jakiegoś powodu, nie wiem dlaczego, bo mam kontakty zdublowane.
Że na przykład mam, nie wiem, mam pięćdziesiąt kontaktów na przykład
i mam, nie wiem, Michał Dziewisz dwa razy, mama dwa razy, babcia dwa razy.
Jak wejdę w te kontakty, to mi pokazuje, że mam zduplowane wizytówki,
gdzie np. babcia używa tylko Whatsappa.
Ona nie używa jakiegoś Outlooka, jakiegoś Discordu.
Czemu ja je mam podwójnie?
Tu też rodzi taki problem, że jeżeli ja sobie na każdy kontakt
ustawię osobny dzwonek,
bo mam tak, że mama mi dzwoni innym dzwonkiem,
Babcia mi dzwoni innym dzwonkiem,
na przykład Arek Świetnicki też mi dzwoni innym dzwonkiem,
ale przez to, że te wizytówki mam podwojone, zdublowane,
to to głupiej, jeżeli sobie raz zadzwoni dzwonkiem, który ja ustawię,
a raz sobie zadzwoni dzwonkiem domyślnym za jakiegoś powodu.
I z czego może wynikać to podwojenie tych kontaktów?
Co się właściwie mogło wydarzyć przy przywracaniu kopii?
A czy nie masz podpiętych na przykład kilku kont, z których on bierze te kontakty, na przykład Google i iCloud?
No ale czy nie masz tych kontaktów na pewno właśnie tam, bo być może dubluje się to na zasadzie, że kiedyś na przykład eksportowałeś je na Androida,
Dajmy na to. I on sobie po prostu teraz, wiesz, zaciąga i z konta Google, i z iClouda.
Szkoda, że on sobie z tego… OK, ja nie mam nic przeciwko temu, tylko szkoda, że on sobie z tego jednej wizytówki nie stworzy.
A teraz kontakty nie mają jakiegoś wykrywania do aplikatów?
Właśnie.
Ja to jeszcze sprawdzę.
Powinno to wyświetlić automatycznie, z tego co pamiętam, ale może to nie działa jak to jest…
Ja zazwyczaj korzystam z listy ulubionych i ostatnich, rzadko tam wchodzę.
Dzisiaj wszedłem przed audycją i zobaczyłem.
Ewentualnie możesz po prostu, wiesz…
Możesz popróbować, na przykład, no nie wiem, wyłączyć sobie te kontakty googlowskie
i może to rozwiąże twój problem, tak wiesz, na szybko.
Albo rzeczywiście popróbować z tym wykrywaniem duplikatów.
Okej, to ja jeszcze dosłownie dwie sprawy i już Was, słuchajcie, nie trzymam,
bo wiem, że jeszcze tematów macie dużo. Chciałem powiedzieć o jednej grze,
a w zasadzie o grze, która może chociaż w jednej kwestii się stanie dostępna,
a mianowicie chodzi tutaj o grę, która się nazywa Solo Leveling Ares.
To jest takie RPG akcji,
które jest w dwóch wersjach.
W wersji takiej powiedzmy multiplayerowej z kooperacją z mikropłatnościami,
która poniekąd jest przewidziana na wersje mobilne.
To Tomek Tworek na forum Audio Games o tym pisał.
I wersja druga tej gry,
która jest w wersji demo na Steamie, która jest tylko na komputery,
bez żadnych mikropłatności, jest wersją na Steamie.
A teraz jaki jest problem na razie z tą taką wersją, powiedzmy pełną,
darmową, z mikropłatnościami, że przez to, że jest to na razie wersja
głównie przewidziana na komórki, ale możliwością uruchomienia
na komputery PC, musimy klikać w większość opcji.
Możemy oczywiście sterować padem, ale co na przykład mnie zachwyciło,
jeżeli chodzi o tę grę, to jest pierwsza gra, która w tutorialu pokazuje,
jeżeli mamy pada podłączonego, tekstowo, w jakie przyciski na padzie mamy naciskać.
No, pierwsza gra, bo zwykle większość gier pokazuje to obrazkowo,
natomiast ta gra pokazuje to w sposób tekstowy. Natomiast jaki jest problem?
Ja pisałem do twórców już o tym.
Problem jest taki, że są pewne opcje, w których nie klikniemy z OCR-em.
I to nie jest problemem, jest również to, jeżeli chcemy użyć funkcji AI,
czyli w tym przypadku jest to aplikacja Viewpoint,
no to niestety nie użyjemy aplikacji Viewpoint,
Gdyż aplikacja Viewpoint mogłaby zadziałać, podejrzewam, żeby nam zadziałała.
Problem niestety z tą grą jest taki, że ta gra hukuje klawiaturę.
To znaczy, że zabiera nam wszystkie, dosłownie wszystkie skróty klawiszowe.
Zabiera całą klawiaturę dla siebie.
I nie użyjemy żadnych skrótów Viewpointa.
Po prostu nie uruchomimy na ekranie tej gry Viewpointa.
Jedyne, co się udało nam z Tomkiem Tworekiem rozwiązać,
co prawda Tomek Tworek dostał odpowiedź od twórców, ja nie dostałem,
ale w najnowszej wersji twórcy nie są zainteresowani dostępnością,
ale przynajmniej w najnowszej wersji tej gry, w najnowszym patchu,
tak napisali, że dodadzą możliwość chodzenia kursorem za pomocą pada
po różnych opcjach.
Więc przynajmniej będzie można w coś klikać.
Natomiast jeżeli myślicie o jakimś autohotki, który by w coś klikał i zaprzężenie do tego skrótów…
Tego się niestety nie zrobi, ponieważ przechwytuje to klawiaturę całą.
Staje się, że MistWord chyba też tak robi, że przechwytuje skróty klawiatury.
Nie wiem, po co to jest robione w grach, ale jest i bardzo tego nie lubię.
Także żebyście byli na to uczuleni, że taka sytuacja się niestety zdarzy.
Może wy wiecie, czemu właśnie tak jest, że skróty klawiszowe są po prostu zabierane,
klawiatura się zabiera dla siebie.
Często to jest spowodowane albo często to jest zabezpieczenie przeciwko osobom,
które by na przykład próbowały jakoś oszukiwać.
Tworzyć jakieś makra na przykład.
Czasem to jest kwestia, żeby zapobiec temu, że ktoś niechcąc sobie naciśnie klawisz menu start.
Wiem, że niektóre gry czasami też tak robiły.
No to można menu start wciskać.
No to akurat tutaj pewnie to nie jest powodem.
Natomiast też może być tak, że ja zauważyłem, że Viewpoint jakiś ma problem z tą klawiaturą.
To znaczy, miałem akurat nie w tej grze konkretnie, ale zdarzyło mi się w kilku aplikacjach i jeszcze w jednym miejscu,
że po prostu Viewpoint mi te klawisze nie widział,
mimo to, że np. NVIDIA czy ZDSR nie miały z tym problemu.
Więc też ta obsługa klawiatury w Viewpoint jest taka trochę nielopracowana,
więc może to być problem.
Może to nie jest… to może nie jest to wina gry,
chociaż jak ja próbowałem ZDSR-a włączyć za pomocą skrótu CTRL-ALT-U,
to też nie działało, jak bywało przy mnie.
Więc może jakieś jarenkoprawdy w tym też być.
No na 100% nie powiem, akurat te gry jeszcze nie testowałem,
aczkolwiek mam takie plany, bo wygląda ciekawie.
Polecam Ci tą drugą, ten Overdrive, to demo.
Ono jest zdecydowanie bardziej, bo tam już możesz pada używać.
Natomiast, no mówię Ci, w tutorialu, przynajmniej w tej wersji free-to-play, było ładnie napisane.
Press A to dash.
Press left stick to move.
Albo coś tam.
Także to tyle.
Jeszcze mam do was takie pytanie, a w zasadzie do osób, które latają samolotem.
Jeżeli jest taka sytuacja, bo teraz jest tak w samolocie, że jeżeli kupujemy bilet na samolot,
to kiedyś można było kupić, że się dostawało miejsca koło siebie.
Natomiast teraz jest tak, bo moi rodzice lecą, ja będę leciał w tym roku,
Właśnie oni mówią, że właśnie bardzo często mają miejsca gdzieś tam przydzielone losowo.
Ale właśnie chciałem się zapytać, jak na przykład ja sobie kupiłbym bilet i zaznaczyłbym, że będę jechać z opiekunem,
to w tym momencie ciekawy jestem, czy jeżeli ja będę miał oznaczony z opiekunem, to też zależy od linii.
Pamiętaj, że pośredników linii lotniczych jest bardzo dużo. Ja na przykład ostatnio kupując bilety właśnie na ten nasz urlop, to korzystałem z swoją drogą dość kiepsko dostępnej aplikacji, ale akurat miała dobre oferty Kiwi, aplikacja Kiwi.
I tam na jeden lot udało się dokupić sobie miejsca, że można było sobie wybrać konkretne miejsca, które chcemy, ale już w drugą stronę, jak wracaliśmy, to…
I to, co ciekawe, droższy lot, a miejsca były przydzielane przez automat. Nie dało się ich wybrać w ogóle.
Jak to się dzieje w przypadku właśnie, jeżeli ja zaznaczę, że jestem niewidzącą osobą i że będę swoim opiekunem?
Patryku, to też nie zawsze i nie wszędzie się w ogóle da tak zrobić.
Aha, czyli to jest kwestia linii…
To jest bardzo indywidualna kwestia. Jeżeli ci zależy na konkretnych jakby udogodnieniach, to najlepiej chyba po prostu kontaktować się bezpośrednio z konkretną linią,
Ale musisz się wtedy liczyć z tym, że może być np. drożej.
Bo to, że kupujesz bilety u przewoźnika, to nie znaczy, że będzie taniej.
Jest bardzo dużo zmiennych, te linie lotnicze to jest dosyć taki skomplikowany temat.
Jeśli jeszcze mogę, przypomniałem sobie coś a propos Eleven Labs Lidera.
Nie wiem, czy tutaj w ogóle to było opowiedziane.
Nie słuchałem wszystkich tych naprzeglądów, ale jeżeli ktoś ma sentyment, jeżeli ktoś lubi sobie posłuchać pana Piotra Fronczewskiego, lubi jego głos, to w Eleven Naps ten Piotr Fronczewski jest i brzmi jak młody Piotr Fronczewski.
Także brzmi super.
No jutro Eleven Readera będziemy pokazywać, będzie go Michał Brajer pokazywał, więc być może pana Piotra też usłyszymy.
usłyszymy, no mam nadzieję, że powiecie o tych subskrypcjach.
No o tym dziś na pewno będziemy mówić.
300 złotych na rok to chyba nie jest dużo,
jeżeli dużo słuchamy i dużo korzystamy z książek.
No ja bym nie wydał, powiem Ci szczerze.
Jakoś nie przekonuje mnie to.
Okej. Dobrze.
To tyle ode mnie.
Pozdrawiam i życzę dobrego prowadzenia.
Dzięki za telefon Patryku, pozdrawiamy, do usłyszenia.
Zaglądam do Waszych wypowiedzi.
Tutaj DJ Volt, czyli Sylwester, do nas na Whatsappie się nagrywa.
W dwóch sprawach.
Słuchajcie, ja mam pytanie do Was.
Nowa wersja Prudence się ukazała.
Proszę na ten temat coś powiedzieć.
Jeszcze jedna uwaga.
Co te literki oznaczają na iPhone’a?
Literka S i literka E.
Co one oznaczają? Co te literki oznaczają?
Co to Prudence będzie dzisiaj?
I chyba myślę, że zaraz będziemy mogli do tego przejść nawet.
Okej, no to możemy tak zrobić. Natomiast jeśli chodzi o…
o te literki…
Apple w sumie chyba nigdy sam nie powiedział.
Słyszałem w wersji Edition po prostu…
Nigdy nie było wprost powiedziane.
No Pro, Pro Max to wiadomo.
Natomiast jeśli chodzi o te dopiski tak S…
S to znaczyło speed, jak były te iPhone’y kiedyś z opiskiem S, no to tam było powiedziane, że to jest jakby tak ulepszona wersja modelu, który był wcześniej, tak 6S i tak dalej, natomiast teraz to po prostu one są.
Okej, no to w takim razie teraz, Piotrze, myślę, że możemy przejść do Prudensa. Skoro słuchacz sobie życzy, rozpełniamy życzenie słuchacza.
Ok, skoro temat został wywołany, to sobie zajrzymy na stronę Accessable Android,
gdzie pojawiła się informacja o tym, że pojawił się Prudent Screen Reader w wersji 3.0
i co on nam takiego przynosi. No, ciekawe rzeczy, dużo AI, ale nie tylko.
Zaczynając od nowych rzeczy, które zostały dodane, no to np.
gdyby ktoś chciał, jest wsparcie dla języka duńskiego, aplikacja została przetłumaczona.
W sumie, teraz się zastanawiam, jak to jest z językiem polskim.
Czy Prudence dostał polski przykład?
Jeśli nie, to prawdopodobnie, gdyby ktoś do deweloperów napisał,
to pewnie dałoby się to zrobić.
No i następna funkcja, tu już właśnie wchodzimy w funkcję AI.
Pojawiła się inteligentna kamera.
To jest smart camera, jak tutaj napisali deweloperzy.
W czasie rzeczy smart camera, real-time Q&A,
czyli możemy głosowo zadawać pytania.
A, inteligentna kamera w czasie rzeczywistym poda nam opisy naszego otoczenia.
Domyślam się, że tutaj chodzi o opisy z jednego zdjęcia, a nie opisy na żywo,
aczkolwiek może właśnie chodzi tutaj o takie bardziej opisy na żywo w stylu Gemini Live Apogeta GPT.
Nie wiem, mniej więcej taka funkcja się pojawiła.
Mamy też opcję w tej smartkamerze szukania obiektów.
I też po prostu poleceniem głosowym możemy poprosić, żeby nam aplikacja pomogła znaleźć jakiś konkretny obiekt.
Coś tam spadło, na przykład szukamy jakiejś torby, kluczyków, czegoś.
Możemy poprosić i tutaj sztuczna inteligencja po prostu nas do tego obiektu jakoś poprowadzi.
Do modułu czytania książek, czy nowa lidera,
mamy teraz nowe opcje, które pozwalają nam ustawić dedykowaną syntezę.
Więc np. jeśli ktoś generalnie korzysta z zbiga, z RH Voice’a, z czegoś szybkiego,
ale książki woli czytać syntezą Google, vocalizerami, czymś bardziej naturalnym,
no to teraz można sobie w aplikacji po prostu osobny głos
do tego trybu czytania książek ustawić.
Podobnie z resztą z powiadomieniami.
I tutaj też coś, co ma komentary, na przykład.
Możemy sobie ustawić inną syntezę do czytania powiadomień.
To jest też fajna sprawa.
Możemy w ten sposób sobie…
Będziemy wiedzieć, że coś, co nam teraz czyta aplikacja,
to jest jakieś powiadomienie.
Może ustawimy sobie, żeby powiadomienia były czytane głośniej, wolniej.
Można sobie osobne ustawienia po prostu do powiadomień skonfigurować.
I mamy automatyczne opisy zdjęć.
Jeśli napotkamy jakieś niezaetykietowane przyciski,
to Prudence będzie w stanie nam je w automatyczny sposób,
używając AI, zaetykietować.
Następnie mamy poprawki błędów, tutaj też kilka poprawek mamy.
Poprawiono wydajność syntezy,
jeśli korzystamy z głośności multimediów.
Można wybrać, czy aplikacja korzysta z kanału głośności dostępnościowej
czy tego głównego dla multimediów.
Jeśli właśnie mamy tą drugą opcję wybraną, to powinna ta opcja się zachowywać po prostu lepiej.
Poprawiono niedziałającą funkcję OCR, jeśli kurtyna była włączona.
Opcja ukryj ekran została…
Jej nazwa została zmieniona na bardziej przejrzystą nazwę, czyli czarny ekran.
Czyli tutaj mamy bardziej doprecyzowane, co dokładnie ta opcja robi.
I a propos tej funkcji, mamy informację,
że jej stan będzie teraz prawidłowo wyświetlany w menu głównym.
Czyli jeśli włączyliśmy sobie ją gestem, tę kurtynę,
to w menu głównym ta informacja nie była odzwierciedlona.
Naprawiono niedziałające dźwięki przewijania ekranu na telefonach Pixel.
Poprawiono niepoprawne wyświetlanie i aktywację focusa,
jeśli kliknęliśmy na jakąś świadomość w aplikacji Telegram.
Tutaj znów poprawka dotycząca używania głośności multimedialnej.
Była nierówna głośność pomiędzy syntezą a dźwiękami aplikacji.
Teraz te głośności powinny być bardziej wyrównane.
Zoptymalizowano wygląd menu głównego
i usunięto niepotrzebne pozycje.
O które pozycje chodzi, nie wiem, to nie jest wymienione.
Ale jeszcze do menu głównego mam dodaną możliwość
do sortowania tego menu,
więc możemy sobie we własnej kolejności wszystkie opcje poustawiać.
Poprawiono błąd przerywania ciągłego czytania,
jeśli był czytany jakiś dłuższy tekst.
I mniejsze, drobne poprawki błędów i zmiany
w całej aplikacji.
I jeszcze tutaj mamy taką informację, że rozpoczynając od tej wersji 3.0,
żeby skorzystać z tych bardziej zaawansowanych funkcji AI,
m.in. właśnie smart camera, tłumaczenie
oraz automatyczne opisy zdjęć,
musimy zalogować się do konta PSR,
żeby w pełni z tych funkcji korzystać.
Rozumiem, że cały czas to konto jest chyba darmowe.
Natomiast jeśli takiego konta nie mamy,
to pewnie będziemy musieli je sobie założyć.
Nie wiem też, z jakich modeli aplikacja Prudence korzysta.
Nie wiem, czy będzie wykorzystywana Gemini
czy te modele Vivo, które ostatnio pojawiły się w komentarzach,
czy w Jeshuo lub w ZDSR-ze.
Ale jeśli chcemy z tych funkcji AI korzystać w Prudence,
to musimy sobie takie konto założyć.
A tymczasem odbieramy kolejny telefon. Grzegorz jest z nami tym razem. Witaj.
No cześć wam. Michał widzę, że już wróciłeś z urlopu.
No to właśnie jak mowa o Elevenie, to będzie mógł sobie przetestować nową aplikację od Elevena.
Czyli po prostu Eleven Labs wyszła i już jest dostępna na iOS, na Androidzie jeszcze jest w rejestracji wstępnej,
Ale już na iOS można ją pobrać.
No i ją przetestowałem.
To było tak z 15 do 20 minut temu.
Po prostu jak mi wyskoczyło, nawet maila dostałem od nich,
że wyszła aplikacja na iOS i na Androida,
ale jeszcze na Androida nie można jej pobrać, bo jeszcze jest w tym.
Pomrę na iOS-a i co można powiedzieć?
Jest dostępna, tak mi się wydaje. Jak otwieramy, to jest normalnie pole edycji.
Możemy wybrać głos, możemy wybrać model.
Już ta trójka nowa jaka jest. Możemy ją wygenerować.
Od razu mówi nam ile tych tokenów nam żeżre.
Mamy dostęp do konta, możemy się zalogować Googlem, Applem czy czym tam mamy.
Mamy jakiś plan itd.
Co do planów nie możemy, to znaczy nam się te plany wyświetlają,
Ale tak z Twojej perspektywy, Grzegorzu, wygodniej korzystać w tym momencie z aplikacji, czy nadal jednak ze strony?
Ja bym wolał chyba…
W tej aplikacji nie ma tam dużo funkcji.
Tam nie ma, tam po prostu mamy to podstawowe,
to po prostu generowanie mowy z tekstu.
Mamy dostęp do historii wygenerowanych wcześniej,
jak to nazwać, tych treści, możemy sobie to poodtwarzać,
możemy sobie to pobierać. To jest takie podstawowe.
Tam nie ma żadnych podcastów, nie ma wrzucania plików,
Głównie ma jakieś tam, co to na stronie, jakieś odstrzemiania głosu,
zmieniania głosu czyjegoś na czyjś, takich rzeczy zaawansowanych,
jak normalnie na stronie nie ma. To jest po prostu, że możemy sobie
kleić tekst, wybrać głos, wybrać model, możemy parametry tego modelu.
Co ciekawe, app-ka jest po polsku od razu na starcie.
No i możemy wygenerować sobie jakąś tam mp3-kę z jakimś tam tekstem.
No i sobie to tam użyć, więc…
No do takich rzeczy to na pewno, nie wiem, z app-ki mi się wydaje, że wygodniej będzie.
A jakby dodali faktycznie te inne funkcje, to byłoby już fajnie.
Te wszystkie, nie wiem, tworzenie podcastów, jakieś tam…
No na to podejrzewam, że trzeba będzie zwyczajnie jeszcze poczekać.
No skoro to jest dopiero jakaś tam pierwsza wersja tej aplikacji, to cierpliwości.
Dobrze, Grzegorzu, czy jeszcze dla nas masz jakieś informacje?
Sobie taka jedną też dzisiaj natrafiłem, akurat przewijając TikToka.
A tam różne rzeczy są oczywiście na TikToku,
takie fajniejsze, mniej fajniejsze, bardziej śmieszne.
Ale też mi się pojawiają tam różne na temat AI.
Jest jakiś model, który się nazywa po prostu tego,
tam trzeba w Google najlepiej, Minimax Speech.
To jest jakiś chiński model,
Też do generowania takiej mowy.
No i że Ponoś jest lepszy od Elevena.
Nawet tam Kościół próbkę tam swojego głosu tam wrzucił itd.
No i za darmo Ponoś.
Ale no…
Jak za darmo to tak na razie nie dotarłem, ale…
Pytanie, czy tego na przykład na Hugging Face’ie gdzieś nie ma, bo jak wpisałem tego minimaksa, to widzę coś tu, że się na Hugging Face’ie pojawia.
Aha, no możliwe, no to… No ponoć lepszy od Elevena, ale czy lepsze to możecie sobie…
No i pytanie, w jakich językach, wiesz?
Po polsku? Ponoć, tak? No bo mówię, ja to wrzuciłem nawet na tą grupę telegramową.
Aha.
Jest zabawa, to nawet dożycie. No i ten gościu, ten swój głos zna grał, więc to wygląda na to, że po polsku to działa. No więc niby za darmo. Można spróbować.
Za darmo to jest zawsze coś kosztem czegoś, bo żeby AI odpalać to trzeba mieć jednak mocny sprzęt. Nawet jeżeli coś mamy za darmo, to i tak trzeba się zyskać sprzęt.
Ja mam akurat, no właśnie, na Macu chciałem sobie postawić różne modele.
Nawet mi się udało. Ale jak to idzie…
No nie wiem, M2, 8 giga RAM-u, ale jak wrzuciłem jakiś model…
Uruchamiam to w dockerze, więc to może to ma znaczenie, że docker nie ma dostępu do jakby tam do tych zaawansowanych tam modów procesora, to może też ma znaczenie.
To też, natomiast pewnie też tutaj trochę kwestia RAM-u niestety, bo jednak ja bym rekomendował no minimum 16 GB, jeśli chcemy te większe modele uruchamiać.
Do modeli językowych to jest fajna OLAMA.
Na Macu też akurat ona wykorzystuje faktycznie tę kartę graficzną
i ten procesor neuronowy, więc tutaj faktycznie możemy więcej osiągnąć.
Trzeba chyba tą OLAMĘ po prostu natywnie zainstalować
po prostu na Macu, a nie przez dockera jakiegoś.
Tak, ale to nie jest problem akurat, bo OLAMA generalnie to jest narzędzie,
które uruchamiamy, zwiercza poleceń.
Całą OLAMę pobieramy z Homebrew, najprościej,
bo to i tak w terminalach będziemy musieli,
ale też chyba ze strony można instalator pobrać.
Natomiast później zarządzamy tym z terminala.
Generalnie to jest jedno polecenie, żeby jakiś model pobrać.
Później też można z terminala, z jakimś modelem porozmawiać,
ale też jeśli ściągniesz sobie jakąś aplikację,
która z takiego modelu potrafi korzystać,
czyli to może być np. darmowa WOL-LAMA zoptymalizowana
pod osoby niewidome, czy np. Bolt AI, o którym niedawno mówiłem,
No to te aplikacje będą w stanie wykryć, jakie modele masz zainstalowane i po prostu z nich korzystać.
Aha, no spoko, no bo jak to narodokarze, żebym to uruchomił, to jedno słowo mi chyba na 5 sekund mnie wygenerowało.
To dość wolno.
Chyba faktycznie to na tym nie chodzi.
Pewnie więcej, nie wiem czy więcej
poprania chodzi.
No na Mac to zaczyna jakby…
No zainstalowałem jakby dockera.
W dockerze zainstalowałem kasaos, czyli taki jakby taka nakładka
na dockera, która to upraszcza w ogóle jakby instalację
Różnych tych dockerów, no i przez to. Ale to może to ma znaczenie, że po prostu…
Być może, wiesz. To Grzegorzu, to nie jest temat, który nam się uda, podejrzewam, rozwiązać tak dość szybko, bo o ile to wszystko to ma za zadanie uprościć całą sprawę, to ja mam wrażenie, że żeby się wgryźć jakby w ten temat, no to trzeba jednak się trochę z tym po prostu pobawić.
Ja sam pamiętam, że jak konfigurowałem coś w dokerze, to potem, kiedy już mi się to udało wszystko ogarnąć, połączyć jedno z drugim, to było naprawdę fajnie, ale zanim to się udało, oj, to spędziłem dość dużo czasu.
Tak, jeszcze pewnie pytanie, jak te obrazy były zoptymalizowane, bo jeśli na przykład te obrazy były zoptymalizowane pod Linuxa, gdzie mamy kartę NVIDII z reguły…
Tak, to pod Linuxa to było.
No właśnie.
I ten cały Linux by był uruchomiony przez CoLima.
Nie, to Grzegorzu, myślę, że nie podejmiemy się w tym momencie rozwiązywania tego problemu.
Dobrze, dzięki za telefon. Pozdrawiamy cię serdecznie. Dzięki za kolejne ciekawe informacje, które nam dostarczyłeś.
Pawle, a ty nam dostarczysz teraz informację prosto z Japonii.
Tak, zgadza się. No i kto jakkolwiek skoki narciarskie oglądał, ten wie,
że Piotr Żyła najbardziej w Japonii lubi toalety, bo są podgrzewane.
Ale to nie jest jedyna osobliwa rzecz, która w toaletach japońskich jest.
Jest ich wiele. A jedną z nich okazuje się, że są brailowskie plany.
No i o co chodzi? W ogóle na temat się natknąłem zupełnym przypadkiem,
Ktoś na Mastodonie udostępnił rolkę chyba, czy jakiegoś shorta.
Molly Burke to jest taka influencerka niewidoma z chyba Stanów?
Czy z Wielkiej Brytanii? Chyba ze Stanów.
Która ostatnio była sobie w Australii
i tam odwiedziła jakąś jedną ze szkół,
gdzie szkolone są psy-przewodniki.
I ona tam trafiła właśnie na taką toaletę,
która, no oprócz tego, że ma jakieś tam pewnie dla osób widzących
oznaczenia, no to ma też brailowski plan rozmieszczenia,
gdzie w środku w tej toalecie znajdują się jakie sprzęty.
No i ja na początku to zignorowałem, bo stwierdziłem,
no okej, dobra, no szkoła psów przewodników,
no to nic dziwnego, że jakieś takie nowatorskie sposoby
Po czym zupełnie niezależnie inna osoba, która mieszka w Osace,
na Mastodonie, właśnie w Japonii, wrzuciła też post o tym,
że tego typu plany znajdują się też na w ogóle jakiejś małej stacji metra,
która nie ma specjalnie personelu itd.
No i poprosiłem osobę widzącą o opisanie mi tego zdjęcia
I okazuje się, że po prostu jest sobie plan.
Ten plan jest wspólny dla wszystkich.
On jest i graficzny i chyba też wypukły.
No i jest tam rozrysowane w ogóle,
że na przykład toaleta składa się z większej ilości pomieszczeń.
I w każdym z tych pomieszczeń coś tam się znajduje.
I nie wiem, tam po lewej jest…
Tu jest gdzieś tam umywalka,
tu jest gdzieś tam pisuar,
a tu jest na przykład przewijak,
bo przewijaki dla niemowląt również są.
No i te różne przybytki w tej toalecie
są podpisane też po japońsku czarnodrukiem,
po angielsku czarnodrukiem i po japońsku w brajlu.
I zdaje się, że osobno, nie wiem, w sumie po co,
może dlatego, żeby, nie wiem, była na 100% jakaś tam jasność,
ale jest też legenda, która te symbole właśnie opisuje.
Czyli z jednej strony jest legenda z opisami,
A z drugiej strony te opisy są też obok tych symboli już naniesione na ten plan.
Plan jest niby wielkości takiej typowej kartki, nie wiem czy A4.
No tak, że nie wiem też w jakiej skali te różne piktogramy i symbole są na tym planie nakreślone.
W ogóle w jakiej skali jest cały ten plan, więc na ile można by się w nim…
Bo jak z planami bywa, no to sami wiemy, różnie, w zależności od tego jak nas nauczono ich czytać i interpretować.
Natomiast, no, po prostu gdzieś tam taki plan jest,
no więc pytanie w jakiej skali i na ile on jest czytelny
dla osoby, która miałaby potem z tego rzeczywiście skorzystać
i gdzieś tam wejść.
No, także takie pomysły w Japonii gdzieś tam są.
Myślę, że ciekawe toalety różne bywają.
Ja zazwyczaj w toaletach się nawet jakoś odnajduję.
Ewentualnie o coś tam zapytam,
Ale często, z reguły są te toalety tak, przynajmniej w miejscach publicznych, tam gdzie byłem jakoś rozłożony, że
idąc z laską, ewentualnie popytając ludzi, jakoś w końcu da się to, co potrzeba gdzieś tam znaleźć.
Ale zdarzyło mi się już też tak, że były trochę nielogicznie pobudowane. Dużo jakichś zakrętów, tych pomieszczeń było odpowiednio więcej.
No i może taki plan w takiej sytuacji by się rzeczywiście przydał.
Fajne są też toalety dla osób właśnie z niepełnosprawnościami, bo one mają dość prosty
dość prosty układ, bardzo często i w ogóle fajna rzecz, która się dzieje w wielu krajach,
nie tylko na zachodzie. Wiem, że Czechy, Słowacja też ten system mają.
To jest tak zwany system Euro-Key, albo Euro-Key, czyli jest europejski standard klucza,
który operatorzy różnych miejsc publicznych mogą zaadoptować w swoich toaletach
i my jako osoba z niepełnosprawnością możemy złożyć wniosek
o ten jeden konkretny klucz.
I tym jednym konkretnym kluczem te wszystkie toalety
my możemy otwierać. No dzięki temu,
wiadomo, że tylko my mamy do nich dostęp, więc
nie ma takiej opcji, że osoby, które
nie potrzebują ewidentnie z takiej toalety skorzystać,
do niej sobie wejdą.
No i też możemy sobie zawsze
bez potrzeby wołania kogoś z obsługi i robienia
całego harmideru, sobie taką toaletę otworzyć.
No i wtedy rzeczywiście te toalety z reguły mają bardzo prosty układ taki, że…
Ja to tak pamiętam, że na wprost drzwi jest po prostu ta właściwa toaleta.
Gdzieś tam czy po prawej czy po lewej jest umywalka.
W miejscach też takich dość logicznych są i mydło i jakaś albo suszarka albo…
No i przede wszystkim też jest to zdecydowanie większe, tak?
Bo ze względu na potrzeby chociażby wózkowiczów.
To tak, to na pewno. Tak, też.
No więc ciekawe czy ten japoński wynalazek się jeszcze gdzieś przyjmie.
No Molly Burke twierdziła, że to, co widziała w Australii, to w ogóle chciałaby zrobić jakąś kampanię, żeby tego było więcej, pewnie tam gdzieś w Stanach, no ale na ten moment można tylko podyskutować o tym, że gdzieś tak jest. No, ciekawe.
Teraz marzenie o kampanię, o petycji, którą przygotowała Fundacja Wismajor, pies-przewodnik, a dotyczy ustalania poziomu potrzeby wsparcia.
Ten poziom, ta punktacja przede wszystkim kojarzył się ze świadczeniem wspierającym, ale też całkiem możliwe, że będzie miał znaczenie w przypadku godzin asystencji osobistej.
Tu już nie tylko też o pieniądze chodzi, ale też o właśnie godziny, które będą nam przydzielane w związku z tą punktacją.
I okazuje się, że osoby niewidome, o czym zresztą mówi się na wielu środowiskowych czy to listach, czy grupach dyskusyjnych, czy forach internetowych, w bardzo różny sposób te punktacje otrzymują.
No i też podnoszą się takie głosy, że ta punktacja jest niekiedy bardzo niesprawiedliwa i że osobom niewidomym jest przyznawana zbyt mała ilość punktów.
I Fundacja Wismajor Pies Przewodnik przygotowała taką petycję, którą można podpisać w serwisie petycjeonline.com.
Na razie mamy 220 podpisów. Może dużo, może mało. Każdy kolejny się przyda.
Ja teraz postaram się przeczytać treść tej petycji.
My, niżej podpisani, apelujemy do Rady Ministrów o natychmiastowe zaprzestanie patologicznych praktyk,
jakie stosują wojewódzkie zespoły orzekania o niepełnosprawności
w zakresie ustalania poziomu potrzeby wsparcia dla osób niewidomych i innych osób z niepełnosprawnościami oraz o usunięcie skutków tych praktyk.
Chodzi o następujące praktyki.
Poza prawne wprowadzenie limitu 76 punktów przyznawanych osobom niewidomym, które odbyło się w drodze wewnętrznych zaleceń Biura Pełnomocnika Rządu ds. osób niepełnosprawnych,
…podczas gdy zgodnie z artykułem 81 Konstytucji oraz artykułem 6 paragraf 6 ustaw… ustęp 4 o rehabilitacji, kwestia ta należy do materii ustawowej.
Karanie przez wojewódzkie zespoły tych, którzy odwołują się od ich decyzji na skutek ponownego rozpatrzenia sprawy, wojewódzkie zespoły często obniżają liczbę przyznanych punktów.
Jest to działanie rażąco bezprawne, gdyż narusza artykuł 139 Kodeksu Postępowania Administracyjnego oraz artykuł 2 Konstytucji Rzeczypospolitej Polskiej
Zasada zaufania obywateli do państwa. Apelujemy o uczciwość w traktowaniu osób z niepełnosprawnościami w procesie orzekania o poziomie potrzeby wsparcia.
Nie bądźmy bierni wobec naruszania naszych praw. Link będzie w komentarzu, zatem zapraszam bardzo serdecznie, jeżeli ktoś ma ochotę się podpisać, to myślę, że podpisać się warto.
A teraz kilka słów o nowych angielskich głosach SAPI.
Tak, głosy pochodzące od firmy, od człowieka, który będzie pewnie wielu osobom znany,
zwłaszcza jeśli graliście swojego czasu w gry audio,
bo pan Filip Penefal, prowadzący firmę Blast Pace Studios,
to człowieka, którego właśnie możemy kojarzyć głównie z gier
i z silnika BGT do tworzenia gier.
Od jakiegoś czasu już się akurat tym nie zajmuje,
ale to nie znaczy, że zniknął ze społeczności,
zniknął gdzieś ze świata programowania,
tylko po prostu zaczął pracę nad czymś nowym.
Tym czymś nowym są syntezatory mowy.
Od jakiegoś czasu, jeśli obserwujecie forum Audio Games,
to mogliście parę razy spotkać się z momentami,
kiedy Filip coś tam na forum wrzucał.
Eksperymentował z różnymi technologiami do tworzenia syntez mowy,
m.in. podobnych technologii, jakie były używane
do tworzenia syntezatora Festiwal,
czy zresztą nawet naszego ulubionego RH Voice’a.
Natomiast w momencie, kiedy na świecie zaczęła stawać się popularna sztuczna inteligencja,
zaczął zastanawiać się, czy byłaby możliwość stworzenia syntezatora,
który jednocześnie zachowałby tą naturalność, jaką znamy,
to było tak odwzorowanie głosu, jakie znamy z syntez takich typowo AI,
ale też zachowując responsywność.
No i pomysł, na jaki wpadł, jest całkiem ciekawy.
No bo wytrenował dwa głosy, na razie głosy w języku angielskim.
Podobnie jak się trenuje głosy AI na próbkach.
Próbkach, które zresztą zamówił od dwóch lektorów.
Mamy głos kobiecy i głos męski.
Akurat te próbki były przygotowane pod inną technologię,
więc one są czytane dosyć metodą lektorską.
Jak ktoś by oczekiwał bardziej książkowej intonacji do recytowania,
to akurat tutaj mamy taką właśnie intonację.
Tak pokazywałem, do typowego czytania lektorskiego.
Natomiast jak ten model został wytrenowany,
żeby tę mowę generować,
to finalnie ta mowa nie jest generowana w taki sposób tradycyjny,
Nie wiem, jak to robi AI na podstawie sampli, nie wiem dokładnie, jak to działa.
A te dane są wykorzystywane do sterowania syntezą formatową.
Synteza formatowa to technologia, w jakiej na przykład powstało…
Powstało na przykład Apollo, Orpheus, Eloquence,
czyli jest taka typowo synteza syntetyczna.
Natomiast kiedy takie syntezatory typu Apollo,
to tych formatów mogą być, nie wiem, 10, powiedzmy, czy 20,
no to tutaj, przez to, że te głosy były trenowane przez AI,
do tych formatów mamy ponad 80.
I to skutkuje tym, że głos jest zarówno w stanie
bardzo dobrze odwzorować ten głos oryginalny,
ale jednocześnie też zachowuje responsywność,
co dla nas, dla użytkowników czytników ekranu,
jest kwestią jak najbardziej istotną.
O tym teraz każdy może przekonać się sam,
dlatego że te głosy można już sobie ściągnąć
i zakupić ze strony producenta.
Adres zresztą nie jest bardzo skomplikowany,
więc myślę, że mogę go tutaj podać.
I tak to www na początku jest ważne.
Jeśli tego www nie wpiszecie, to strona się nie załaduje.
Tak że to podkreślam.
Mamy dwa głosy.
Mamy głos żeński Libi, głos męski Richard.
Można sobie pobrać te głosy po prostu na komputer,
zarówno dostępne w wersji 64-bit, jak i 32-bit.
Tak że jeśli ktoś lubi grać w różne gry,
to generalnie ze wszystkimi aplikacjami,
ze wszystkimi grami te głosy będą działać.
I głosy nie są darmowe,
ale generalnie to cenowo też nie wypada najgorzej,
Poza jeden głos Filip życzy sobie 19 dolarów plus VAT.
To jest o tyle też, wydaje mi się, ceną sensowną,
zwłaszcza że, i to też było celem umyślnym,
te głosy nie mają jakichś zabezpieczeń.
Nie jest wymagane połączenie z Internetem,
jakaś aktywacja internetowa.
Poza grupie po prostu dostajemy klucz licencyjny
i w instalatorze, kiedy głos instalujemy,
to jest też ciekawe, jak tę aktywację dokonujemy.
Na jednym z ekranów jesteśmy pytani o adres e-mail,
w jakim głos zakupiliśmy i o wpisaniu tego klucza.
I mamy też przycisk zainstalować wersję demo.
Więc jeśli chcemy aktywować wersję pełną,
to po prostu jeszcze raz uruchamiamy instalator, wpisujemy ten klucz
i głos po prostu mamy.
Nic, nie musimy aktywować go przez Internet,
więc po prostu o to się nie musimy martwić.
Natomiast jeśli chodzi o wersję demo,
to ja za chwilę pokażę, jak ta wersja demo działa,
bo teraz myślę, że możemy krótko te głosy zademonstrować.
Jeśli chodzi o responsywność głosów, zanim przejdę do jakiejkolwiek demonstracji,
ta responsywność jest naprawdę na poziomie dobrym.
Filip mówi o 20 milisekundach. Myślę, że to jest gdzieś trafne.
W praktyce na komputerze faktycznie z systemem Windows,
bo na razie głosy są dostępne na system Windows,
to jest bardzo responsywne.
Może minimalnie faktycznie wolniejsze od Eloquence czy RHA Voice,
ale naprawdę ta responsywność jest na bardzo wysokim poziomie.
Wy teraz tego nie usłyszycie, ale to dlatego,
że będę to pokazywał na wirtualnej maszynie Windowsa ARM.
Więc tutaj mamy przekład z Intela na ARM.
Ma być wersja natywna na ARM, to jest po pierwsze.
Po drugie, jeszcze to będzie przechodziło przez Hijacka,
który minimalnie obózienia zwiększa
i jeszcze to nie jest najnowsza wersja MVDA
akurat na tej maszynie z tymi poprawkami do SAPI.
Ale jakość głosu to będziecie mogli jak najbardziej ocenić.
A my sobie teraz uruchamiamy tutaj dźwięk i mam nadzieję,
że jak teraz przejdę do wirtualnej maszyny, to będzie słychać.
Jest. Jest. OK, czyli właśnie słyszycie właśnie głos pani Libby
w dosyć szybkiej prędkości.
I co mogę o tym właśnie powiedzieć, że on faktycznie dźwiękowo trochę mi RH Voice’a przypomina, ale jest taki…
Dużo góry, dużo wysokich tonów.
Dużo góry. I to jest bardzo fajne. Mi akurat to bardzo pasuje, bo dzięki temu ten głos naprawdę potrafi się przebijać przez jakieś inne dźwięki.
Tak słuchając tego mam wrażenie, że tu jakiś taki lekki resampling jest.
Ale to może właśnie na skutek tych wysokich tonów, które są dość mocno podbite.
Możliwe, no tutaj też są te formanty symulowane, więc może też to jest z tym związane.
Natomiast jedną z prób, jakie trafiły do Filipa i to ponoć będzie wprowadzone,
to będzie korektor w stylu iOS-owym.
Będzie dodane okrąg konfiguracji i tam będzie można sobie te czynności
i właściwości naprawdę precyzyjnie skonfigurować, co też będzie fajne.
Podobnie zresztą jak włączenie, wyłączenie czytania skrótów,
bo tam jakieś skróty się wdarły.
Tutaj też mamy SMS NV Access, mamy Nevada Access na przykład
i tego typu rzeczy.
Zyndaza na razie też nie reaguje na wykrzykniki,
więc tutaj też jeszcze jakieś drobne zmiany są wprowadzane.
Natomiast wejdźmy sobie do ustawień NVDA.
NVDA settings. General normal configuration dialog.
Categories. List alt plus C. General 1 of 28.
Speech 2 of 28. Change. Button alt. Rate. Slider 80 alt plus R.
Tutaj mam prędkość na 80. Maksymalna prędkość…
Jest taka. Przypominam, to jest wersja MVDA bez podkręcenia prędkości,
więc jakby ktoś chciał jeszcze szybciej, można. Można oczywiście też wolniej.
Tak ten głos brzmi w takiej domyślnej prędkości.
Można też oczywiście zmienić wysokość.
To jak najbardziej działa.
I ten głos akurat mam zainstalowany w wersji pełnej,
więc on po prostu cały czas mi będzie mówił, no właśnie tak jak teraz.
Ja teraz przełączę się na drugi głos, czyli głos Richarda,
który akurat aż tyle góry nie ma.
Może tutaj były jakieś inne nagrania wykorzystane?
A, to prawda, tak, tak.
I też sobie ten głos przyspieszymy.
No i tutaj też…
Można sobie przystosować wysokość głośność.
Będzie też słówak do intonacji, którego w tym momencie nie ma.
No i sobie generalnie jeszcze przez chwilę po prostu pochodzimy pod tym okniem.
Do momentu kiedy…
Nie, wyłączy się ograniczenie wersji demo, które będzie bardzo słyszalne.
Wszystko, co mogę o tych głosach powiedzieć generalnie to ja osobiście jestem zadowolony,
bo są bardzo wyraźne i faktycznie można je przyspieszyć.
No i też cieszę to, że tutaj nie mamy jakiejś aktywacji.
Jeśli chodzi o to, o co pewnie zapytacie, inne języki jak najbardziej są planowane.
Już parę osób o polski prosiło.
Myślę, że warto do tych prośb ewentualnie się dołączyć, żeby Filip wiedział ewentualnie, jakie języki ludzie chcą bardziej.
Inne platformy? To też będzie. Na pierwszym miejscu mają być dodane głosy do Androida, a też w przyszłości mają być inne systemy.
Linux, iOS, Mac. Też po prostu na te platformy te głosy zaczną się pojawiać.
Będzie jedna licencja na głosy komputerowe,
więc jeśli kupimy sobie głosy na Windowsa,
to też Linuxa i Maca będziemy mieli jakby w cenie.
Natomiast wersje mobilne będą sprzedawane osobno
w firmą w App Store, w Google Play.
I tam ta cena ma być ponoć jeszcze niższa.
Myślę, że już te ograniczenia demo się włączyły.
Delayed descriptions for capital pitch change,
percentage edits…
A może jeszcze nie.
Jeszcze sobie chwilę pochodzimy.
Jak na złość nie chcą.
Tak, jak na złość nie chcą.
To jest coś bardzo ciekawe.
Generalnie to się włącza po minucie.
Może chodzi tutaj o minucie mówienia.
Jeszcze sobie chwilę pochodzimy.
Gdyby się cały czas to nie włączyło,
to po prostu powiem, co tam się dzieje.
Natomiast to jest zrobione też, wydaje mi się, całkiem sensownie,
bo nie mamy takiej sytuacji.
I to jest ograniczenie wersji demo.
Po minucie po prostu głos nie jest tak, że zaczyna nam mówić,
…tylko głos nie jest licencjonowany, tylko po prostu robicie takie coś.
Jest dodawany szum, mamy taki efekt radiowy.
Najzabawniejsze będzie to, jeżeli komuś się taki głos spodoba.
Już ktoś tak napisał, że to do niektórych gier by się nadawało.
Także tak.
Natomiast też można sobie to zresetować w bardzo łatwy sposób.
Bo wystarczy głos rozładować, załadować jeszcze raz…
I to też jest tak umyślnie zrobione, że po prostu wtedy to demo nam się resetuje.
Także, gdyby ktoś chciał, tak jak mówiłem, www.blastbay.com
u głośnik voices.php, tam można głosów posłuchać, pobrać sobie tę wersję demo.
A gdyby ktoś chciał sobie pełne wersje zakupić, no to też właśnie można to zrobić z tej samej strony.
No to teraz zajrzyjmy do waszych wypowiedzi na Whatsappie.
Mamy wiadomość od Pawła.
Witajcie. Ja się do was nagrywam w kwestii dostępnych kalendarzy na stronach WWW. Czy jest na to jakiś sposób?
Chodzi mi mianowicie o to, że chciałem sobie kupić dietę pudełkową. I żeby to zrobić, to trzeba wybrać dni, w których dniach chcemy tę dietę otrzymywać.
Zdecydowałem się właśnie na jedną z diet i teraz poległem właśnie na tym, że kalendarz na stronie jest niedostępny.
bo mam napisane, co prawda, dni danego miesiąca, czyli tam czerwiec, lipiec i tak dalej,
ale nie mam powiedziane przede wszystkim, który z tych dni to jest sobota, niedziela.
Nie mam napisane dnia, że tam nie wiem, poniedziałek, dwudziesty czwarty czerwca,
tylko samo 23 i potem 24 i jest to element klikalny. No i teraz wydawałoby się,
że no dobra, można się powiedzmy tam wspomóc kalendarzem z iPhona,
żeby sobie te dni dobrze policzyć, skoro po prostu poklikać sobie na tym kalendarzu
To są te wszystkie dni, tygodnia zwykłe.
No ale zawsze co klikałem, to mi nie wychodziła taka liczba tych dni, jak powinna.
I nie dało się sprawdzić, czy dany dzień jest kliknięty, czy nie kliknięty, czy zaznaczony, czy nie zaznaczony.
No on oczywiście pewnie zmieniał jakoś tam kolor, no ale to już mi w żaden sposób nie było oznajmiane.
No i postanowiłem do problemu podejść na różne sposoby, czyli zainstalowałem sobie aplikację na Androida, na iOS-a.
No to na iOS-ie to nawet nie byłem w stanie się samodzielnie zalogować do aplikacji,
Gdyż to miejsce, gdzie się logujemy, czyli login, hasło i zapomniałem hasła i tak dalej,
było czytane jakby jako jeden ciąg. Nie można było wejść w poszczególne pola edycyjne,
więc nawet logowanie było niedostępne. A na Androidzie w ogóle się nie dało też tych
dni w kalendarzu dobrze naklikać. Próbowałem oczywiście różne przeglądarki,
NVDA, narrator, no wszystko, co tylko można było, żeby sobie jakoś się z tym poradzić.
No i niestety, z wielkim żalem muszę stwierdzić,
że jak napisałem bądź dzwoniłem telefonicznie do biura obsługi klienta
tejże diety, to zostałem delikatnie to rzecz nazywając niemile potraktowany.
Mianowicie Państwo stwierdzili, że no to się nie ma czym przejmować,
niech mi rodzina naklika i jakoś tam sobie Pan zamówi.
Także chciałem się Was zapytać, czy macie sposób na takie niedostępne kalendarze,
żeby to jakoś dało się ogarnąć, bo co ewentualnie trzeba by im podpowiedzieć,
…żeby po prostu jakoś to poprawili.
Chodzi o aplikacje Kuchnia Wikinga.
Może ktoś z was korzysta, ukorzysta
i mógłby coś odpowiedzieć.
Tak samo właśnie odnośnie takich niedostępnych aplikacji
To już się spotkałem z, na przykład, Patronitem.
Tam odtwarzacz z kolei jest zupełnie niedostępny.
Nie mamy nad nim żadnej kontroli i też się nie możemy zalogować z VoiceOver-em.
Może ktoś z was ma na takie patenty jakieś obejścia.
Niestety z moich doświadczeń te wszystkie cateringi dietetyczne to jest zmora pod względem dostępności i są to jedne z gorzej wykonanych w ogóle usług jako takich.
I to nie ma znaczenia czy jakieś boksy szczęścia, czy diety od brokuła, czy kuchnia wikinga, czy Dietly chyba jest też taka aplikacja. To jest tragedia.
A to naprawdę dla osób niewidomych jest coś, co mogłoby być bardzo dobrą opcją,
no bo dzięki temu jesteśmy w stanie, nawet jeżeli nie mamy jakichś talentów kulinarnych,
a powiedzmy sobie, nie każdy ma, jeść zwyczajnie zdrowo.
I ja w takiej sytuacji, Pawle, w jakiej ty byłeś, to bym po prostu na tej infolinii powiedział,
Ale nie ma mi kto pomóc, to proszę mi w takim razie pomóc z załatwieniem tego.
No, w końcu chcę być waszym klientem. Chcę zapłacić, chcę skorzystać,
więc no to chyba w ich interesie byłoby, żeby pomóc. Tak mi się wydaje.
Natomiast ja nie mam dobrego patentu na to. Coś można próbować, czasem się uda z telefonu trochę,
Czasem coś ze strony, potem… Ale to jest droga przez mękę i nie testowałem tego jakoś bardzo dużo,
ale no nie jestem w stanie polecić żadnej dobrze działającej tego typu aplikacji.
Jeżeli ktoś coś ma, zna, no to zapraszamy do kontaktu.
Bo tutaj tyle chyba mogę powiedzieć.
A teraz będzie o Eleven Readerze.
Było za darmo i się kończy to za darmo.
Tak, i to jest news, który okrążył już jakiś czas temu.
I ma Stodona, i jak teraz widzę, też nawet nie wiedziałem,
że jest polski subreddit Eleven Readera,
czy Eleven Lapsa ogólnie.
I na reddicie ludzie się wymieniają różnymi rzeczami.
No i jest właśnie wątek o tym, że weszły subskrypcje.
I te subskrypcje są zrobione właśnie,
Właśnie nie wiem, jak to Michał będzie jutro wyjaśniał
i tego bronił, ale zadanie ma ciężkie,
bo zdaje się, że tam ten czas, który możemy przeznaczyć
na słuchanie książki, jest liczony w kredytach.
Te kredyty się nie przenoszą.
To znaczy, jeżeli już odsłuchaliśmy jakiegoś fragmentu,
to nie jest tak, że ten wygenerowany fragment
możemy sobie do niego wrócić, tylko po prostu
za każdym razem generuje się to od nowa.
Te ceny wychodzą jakoś tak, że chyba około dolara za godzinę słuchania,
a jakiś, nie wiem, miesiąc… tylko no właśnie, tu ktoś mówił, że miesiąc 70 dolarów,
ale to nie jest abonament chyba, bo nie ma czegoś takiego chyba właśnie,
jak abonament, w ramach którego można słuchać za darmo…
znaczy za darmo, no w ramach tego abonamentu bez limitu, przepraszam,
słuchać sobie ile dłuższa zapragnie, tylko właśnie wykupuje się ten czas w kredytach.
No i tutaj widzę, że społeczność dość ostro na to narzeka, bo nie wyobraża sobie nikt, żeby za takie ceny, przy takich warunkach, dalej tą aplikacją czytać.
Także jestem ciekaw, jak Michał się jutro do tego odniesie.
Natomiast nie wygląda na to, żeby ta aplikacja mogła być takim rzeczywiście towarzyszem naszych sesji czytania już na takim poziomie, na jakim był,
Czy tak dalej jest dla wielu pewnie, czy Voice Dream Reader, czy Speech Central, czy różnego rodzaju inne rozwiązania do czytania.
Takiego regularnego po prostu książek.
Ja tutaj na Apple Visie na przykład widzę, ja nie wiem jak to jest liczone, czy to jest na miesiąc, czy na ile, pięć dolarów,
czyli powiedzmy około dwadzieścia złotych za piętnaście godzin słuchania.
No to tanio nie jest, jak ktoś dużo czyta jeszcze.
Dokładnie. Nie, ja powiem szczerze, ja jakoś od samego początku nie miałem serca do Eleven Readera i w sumie się nawet cieszę, że jakoś za wiele się nim nie bawiłem i że się do tego nie przyzwyczaiłem,
bo teraz byłoby mi może się trudno z tym rozstać, może przyzwyczaiłbym się do tych fajnych głosów, a tak to nie mam czego żałować i dalej czytam tak jak czytałem i nie mam przynajmniej zmartwień.
Ale jeżeli ktoś się przyzwyczaił do tych głosów, no to myślę, że będzie miał nie lada zgryz.
Jeżeli to tak ma wyglądać.
No dobrze, to teraz może kilka słów albo nieco więcej niż kilka o grach.
Co tam nowego, Piotrze?
Tutaj znów wracamy chyba do aktu dostępności w sumie à propos.
Bo w zeszłym tygodniu mówiłem wam o tym, jak można sobie udostępnić Steam’a na Macu
i przy okazji mówiłem o tym, że ten interfejs w wersji beta, zwłaszcza w tym trybie Big Picture,
czyli to jest interfejs zoptymalizowany pod takie duże jakieś ekrany, telewizory czy przenośne konsolki,
staje się bardziej dostępny. No i słuchajcie, okazuje się, że chyba wiemy dlaczego.
Przynajmniej według tego, co pisał Ian Hamilton na Xie,
on tak to prawo zinterpretuje,
że jakiekolwiek urządzenie sprzedawane na terenie Unii Europejskiej,
które ma jakiś system operacyjny,
musi mieć funkcję dostępności w tym czytnik ekranu.
Takim urządzeniem m.in. jest Steam Deck.
Steam Deck, czyli przenośna konsola od Valve,
czyli producenta też aplikacji Steam.
To jest taka pierwsza, no może nie pierwsza, najbardziej popularna taka minikonsolka,
bo pierwszy to był Nintendo Switch i GPT-Win, one jakoś pojawiły się w tym samym czasie,
ale to była pierwsza konsolka, która spopularyzowała tę kategorię urządzenia.
Czyli to jest taki właściwie komputer z procesorem x86,
to akurat nie jest Intel, tylko procesory AMD,
z ekranem dotykowym i zbudowanym padem do grania
i możemy sobie właśnie na nim różne gry instalować.
I to przez to, że to urządzenie było w stosunku swojej ceny do podzespołów niedrogie,
to stało się bardzo szybko naprawdę popularne.
Jeden z powodów, jak Valve’owi się to udało,
to to, na jaki system operacyjny się zdecydowali,
bo oni od jakiegoś czasu eksperymentowali z Linuxem,
z emulowaniem Windowsa na Linuxie,
no i stworzyli swój system właśnie pod Steam Deck’a na początku,
ale teraz też go można zainstalować na innych urządzeniach, czyli Steam OS.
Jest to system, który generalnie uruchamia się właśnie w takim…
w Steamie, po prostu w tym trybie Big Picture,
z kilkoma dodatkowymi opcjami.
I tam możemy zarządzać wydajnością tego urządzenia,
konfigurować tą emulację Windowsa dla gier, które tego potrzebują.
Generalnie tak z tego korzystamy.
Niewidome osoby nie mogły z tego korzystać prawie wcale.
Mówię prawie wcale, bo dało się na tym zainstalować Windowsa.
Natomiast to też wiązało się ze swoimi problemami,
…żeby ten kontroler na tym urządzeniu działał, to musieliśmy i tak mieć zainstalowanego Stima.
A z dostępnością Stima długo było tak średnio.
Właśnie zwłaszcza gdybyśmy chcieli sobie konfigurować jakieś przyciski, emulacje klawiatury na tym kontrolerze.
Ciężko to było zrobić.
Teraz ten interfejs stał się dostępny.
I wiemy czemu.
Bo na stronie Valve pojawiła się informacja.
Pojawiła się w zeszłym tygodniu kilka dni jakoś po naszej audycji,
chyba jakoś w weekend, co się stało,
w której po prostu dowiedzieliśmy się o tym,
że w Steamie pojawiły się nowe funkcje dostępności.
Dla osób słabo widzących możemy teraz wyłączyć animację,
mamy tam redukcję ruchu, właśnie mamy opcję powiększenia.
Możemy sobie po prostu skonfigurować tak,
żeby ten tekst był większy.
Możemy skalę tego tekstu sobie zastosować.
Mamy też tryb…
Mamy inwersję kolorów.
I mamy też…
tryb wysokokontrastowy, więc tutaj też mamy takie funkcje.
A dla nas, czyli dla osób zupełnie niewidomych,
mamy też czytnik ekranu.
Przez to, że Steam OS jest oparty na Linuxie,
to Valve tutaj dużo pracy w sumie nie musiało włożyć,
No, bo Linux ma przecież trzy dni ekranu, czyli orkę.
Jeśli ktoś wie coś o dostępności, no to na pewno o orce słyszał.
Natomiast sam Steam na Linuxie od dłuższego czasu dostępny nie był,
dlatego że po prostu, mimo to, że jest generalnie strona internetowa,
która działała właśnie w tym CEFie, o którym Arek mówił wcześniej,
to Valve tą dostępność umyślnie wyłączał.
Trzeba ją było sobie włączyć z wiersza poleceń.
Teraz to się też zmieniło, swoją drogą.
Jak coś sobie z Steam’a na Linuxie zainstaluje, to on już jest dostępny na start.
Na Macu jeszcze coś się nie stało, ale pewnie to Valve też napisze,
może uda się to zmienić.
Na ten moment mamy skrót.
Mniej więcej jest to strona internetowa, która teraz dostała Arie,
więc już dostępna generalnie jest.
Ale jeszcze w tym Steam OS-ie orki nie było.
Ona była po prostu z tego systemu usuwana.
To się teraz generalnie wszystko zmieniło.
Z powłoki tego interfejsu mamy teraz sekcję ustawień dostępności,
gdzie te wszystkie nowe opcje znajdziemy.
I m.in. właśnie tę rzecz znajdziemy w opcje czytnik ekranu.
Włączymy ją i jak to zrobimy?
Po prostu uruchamia nam się normalnie orka.
A przez to, że to jest strona internetowa,
to możemy sobie cały czas po tym interfejsie nawigować.
Będzie się do nas odzywał e-speak.
Ja akurat tylko słyszałem, jak to działa po angielsku.
Natomiast biorąc pod uwagę, że e-speak jest dostępny
w wielu innych językach, w tym polskim,
Przepuszczam, jeśli wszystko zostało odpowiednio skonfigurowane,
że gdybyśmy zmienili język na polski,
to ten InSpeak cały czas będzie do nas mówił tylko po polsku.
No, po prostu możemy po interfejsie nawigować.
Dużo opcji konfiguracyjnych nie mamy,
bo możemy sobie zmienić wysokość, głośność i prędkość.
Oczywiście orka ustawień ma zdecydowanie więcej.
Tutaj na przykład użytkownicy zwracali uwagę na interpunkcję,
która jest czytana domyślnie.
Tam Orka mówi wszystko, praktycznie dwukropki, nawiasy i tak dalej,
więc od tego jest dosyć dużo.
Natomiast możemy w każdej chwili wyjść z tej powłoki steamowej
i dostać się do pełnego pulpitu, a tam pod maską mamy pulpit KDE,
tam jest chyba Arch, Linux jakiś zainstalowany.
Więc gdybyśmy podłączyli sobie klawiaturę,
to jak najbardziej możemy wejść sobie do pełnych ustawień Orki
i tam więcej ustawień sobie zmienić.
Wiem, że ludzie już też to testowali, wychodzili ze Steama
i to nie jest tak, że wtedy orka jest wyłączana.
Tak że jakby ktoś chciał sobie z innych aplikacji skorzystać, to można.
Podobnie zresztą z przeglądaniem Internetu,
natomiast wtedy też musimy mieć podłączoną klawiaturę,
bo jeśli na Steam Decku się jakaś strona internetowa otworzy,
to spada…
Nie będziemy niestety mogli po niej nawigować,
chociaż Valve mógłby do tego jakieś skróty klawiszowe dodać.
A propos skrótów klawiszowych,
Tak, coś co Valve tutaj zrobił zdecydowanie na plus, czego nie zrobiło np. Nintendo,
to dodało właśnie skrót klawiszowy globalny, który nam pozwoli z każdego miejsca
ten czynnik ekranu włączyć lub wyłączyć.
Jest to wykonane naciskając przycisk Steam oraz View.
Jednocześnie po prostu mamy takie dwa przyciski na tym urządzeniu.
Jeśli to zrobimy, no to ten czynnik ekranu się włączy lub wyłączy.
Czy to nam pozwoli po niewidomemu od zera Steam Deck’a skonfigurować?
Bardzo możliwe, że w przyszłości tak, natomiast na ten moment
ten czynnik ekranu jest dostępny wyłącznie w wersji beta oprogramowania,
więc żeby go dostać, to musimy poprosić np. osobę witącą o pomoc,
żeby przejść do ustawień, do sekcji system
i tam przełączyć się na wersję beta.
I kiedy to zrobimy, ten czynnik ekranu będziemy mogli sobie włączyć,
natomiast nie wykluczam, że kiedy to już się pojawi w wersji stabilnej
i późniejsze egzemplarze SimTechów, które będą się na rynku pojawiać,
Jak już będą miały wgrany nowszy system domyślnie,
to pewnie tę wstępną konfigurację po niewidomemu
będziemy w stanie sobie przeprowadzić.
Co jeszcze wiemy o tym czytniku ekranu?
Generalnie większość rzeczy jest czytane dobrze.
Są jeszcze gdzieś, gdzie nie gdzie, rzeczy, które nie są zatykietowane.
Najdobrym przykładem są słowaki, które po prostu są czytane jako przyciski.
Np. słyszymy przycisk 0,5 i nie wiemy,
…że to jest uwaga głośności, jasności, czy czegoś innego, więc tutaj też jeszcze jest trochę rzeczy do dopracowania.
Natomiast Valve obiecuje, że to jest tutaj też znów dopiero początek aktualizacji i plany są takie, żeby to działało lepiej.
Jeśli jeszcze chodzi o same gry, to gry, które tą dostępność mają zrobioną np. samplami, tutaj dobrym przykładem jest Brock, to działać będą.
Natomiast gry, które np. mówią przez SAPI albo przez czytniki ekranu,
no to nam domyślnie mówić nie będą.
Są na to sposoby, bo społeczność linuxowa stworzyła emulatory NVIDIA,
które komunikują się z linuxową syntezą.
Tutaj taki projekt Audio Game Manager się kłania na przykład.
Więc jeśli mamy na Steam Decku możliwość, żeby ten tzw. prefix zmodyfikować,
żeby te rzeczy wgrać, no to prawdopodobnie dałoby się
Włączyć, natomiast no domyślnie to niestety nie działa też aplikacje, czy gry właściwie, które korzystają z głosów Microsoftu.
Tutaj Mortal Kombat wiem, że był testowany, to też niestety do nas na Steam Decku nie przemówi.
A niektóre gry, które pewnie wiele osób chciałoby zagrać, ja na przykład jak Forza, po prostu na tym Linuxie wspierane na ten moment nie są.
Mimo to wiele rzeczy można uruchomić i w ogóle jest po prostu fajnie,
że Steam OS też w końcu tego czytnika ekranu się doczekał.
Z jednej strony pracy nie było dużo,
z drugiej wymagało to tego, żeby ten interfejs udostępnić,
a to też ma taki efekt wyboczny, że ta dostępność też służy
nie tylko na samym Steam OS-ie,
a też właśnie użytkownikom innych komputerów,
o czym zresztą Valve też mówi.
Lepiej tutaj rekomenduję, jeśli ktoś chce korzystać ze Steama,
czy to na Linuxie, czy na Windowsie,
to lepiej właśnie korzystać z tego trybu Big Picture.
Można się do niego dostać z menu kontekstowego na ikonie zasobnika
albo w ustawieniach włączyć, żeby Steam się domyślnie do tego trybu otwierał.
I kiedy to zrobimy, ten interfejs po prostu jest najlepiej zaoptymalizowany
zarówno pod czytniki ekranu, jak i klawiatury.
Więc po prostu jeśli jesteśmy niewidomi, to lepiej z tego trybu korzystać.
A jeśli ktoś z tym deckiem jest teraz zainteresowany,
no to jak najbardziej tutaj życie nam zostało znacznie ułatwione.
Natomiast na ten moment, tak jak wspominałem,
musimy poprosić osobę widzącą, żeby nam włączyła
tę wersję beta oprogramowania.
To był SteamOS i tutaj, jeśli jeszcze chodzi o gry,
to mamy jedną nową grę, o której chciałbym wspomnieć.
Znów Matiusz wraca, czyli człowiek,
który za chwilę znajduje jakieś nowe, ciekawe roguelajki,
które można byłoby zrobić dostępnymi.
I znów to zrobił, słuchajcie.
Mamy grę, która nazywa się Joker Poker Texas Frenzy.
I w dużym uproszczeniu, jak komuś byłoby smutno,
że wersja mobilna Balatro nie jest dostępna z czynnikami ekranu,
to już smutno wam być nie musi,
bo ta gra w pewnym sensie jest właśnie Balatro, tylko że na sterydach.
Balaltro, tak przypomnę, jak ktoś nie grał, to gra, w której gramy generalnie w pokera i musimy jak najlepsze kombinacje tych rąk pokerowych tworzyć,
żeby zdobywać odpowiednie rosnące wartości punktów, żeby pokonać różnych przeciwników, którzy też często będą nam w różny sposób życie utrudniać.
Mamy też różne jokery, które możemy sobie kupować, żeby nasze talie ulepszać.
Między innymi możemy naprawdę spowodować, że jakieś konkretne typy rąk są mocniejsze,
jakieś konkretne typy karno.
Tego jest naprawdę masy.
Tam w samym Balatro tych jokerów było, teraz nie pamiętam, mam około 100 albo 200.
A w tej grze jest po prostu tego jeszcze więcej.
Generalnie zawartości w tej grze w porównaniu do Balatro jest jeszcze więcej.
Co ciekawe, też mamy tryb multiplayer, w którym gramy nawet nie w czasie rzeczywistym,
ale na serwer zapisujemy nasze postępy i jesteśmy dopasowywani z innymi graczami.
I po prostu w ten sposób możemy grać przeciwko innym osobom.
Gdybyśmy nie chcieli grać przeciwko komputerowi, co też oczywiście możemy robić.
Wszystko jest też opatrzone dźwiękami i muzyką.
No i co najważniejsze, dla nas gra jest w pełni dostępna.
zarówno z voice-overem, jak i z androidowymi czytnikami ekranu,
bo gra jest dostępna na obie te platformy.
Ta dostępność jeszcze jest w niektórych miejscach dopracowywana.
Tutaj deweloper obiecał, że kolejne aktualizacje się pojawią.
Na przykład, kiedy nawigujemy po kartach,
to lepiej to robić eksploracją niż gestami,
bo kiedy nawigujemy gestami,
to te karty nie są w tej kolejności, w jakiej one są wyświetlane,
a możemy sobie skonfigurować, jak chcemy, żeby to było sortowane.
W niektórych miejscach przesuwanie jokerów czy kart nie jest tak oczywiste, jak by mogło być.
Tam jest, jadę na podwójnie, zatygrowane przyciski.
Natomiast to też będzie naprawione, a na forum w pierwszym poście to oczywiście będzie podlinkowane.
Matiusz opisuje, jak te karty przesuwać. To nie jest skomplikowane.
Da się to bez większego problemu zrobić.
No, grę wczoraj testowałem i skończyło się to trochę podobnie jak z Ballatro.
Nie wiedziałem, kiedy mi godzina minęła przed tą grą.
Tak że jeśli podobają wam się takie gry,
to naprawdę warto sobie tę grę ściągnąć.
Swoją drogą, jest też dostępna zupełnie za darmo na obie platformy,
natomiast jeśli chodzi o płatne treści,
to możemy sobie usunąć reklamy, które czasami nam się będą pojawiać,
Co nam też pozwoli, gdybyśmy przegrali jakąś rundę, za darmo rozgrywkę wznowić.
I to usunięcie reklam przynajmniej na iPhonie kosztuje niecałe 15 złotych.
Biorąc pod uwagę, że deweloper tutaj ewidentnie chce dbać o dostępność
i zresztą pisał, że po tym jak ta gra trafiła na forum i też na przykład na Apoviso
trochę ludzi tą grę kupiło, co go bardzo zmotywowało do kolejnych poprawek.
No to myślę, że jak najbardziej warto to zrobić, jeśli lubicie takie gry właśnie trochę związane właśnie z kartami, ale też z elementami roguelike’ów, no i tego typu rzeczy.
Naprawdę gorąco polecam.
Okej, no to w takim razie teraz z kącika growego myślę, że możemy przejść do kącika drobnych newsów, bo one tak naprawdę nam zostały tylko w Tyflo Aktualnościach.
Tak, i tutaj też aktualizacji mamy całkiem sporo, zarówno ze strony Pawła, jak i z mojej.
I zaczniemy od kilku wątków związanych z NVDA.
Mianowicie, mamy kolejną aktualizację NVDA 2025.1.
Konkretnie jest to wersja .2 teraz, 2025.1.2.
I ta aktualizacja poprawia jedną rzecz, natomiast jest to rzecz, która dla użytkowników, którzy mieli z tym problem, pewnie będzie bardzo istotna, a mianowicie ta aktualizacja już nie powinna powodować problemów z tym, że MVDA jej powodował, że starsze wersje Worda się wysypywały.
Tutaj konkretnie chodziło o wersję z numerkiem 16.0.18226 lub starszymi.
Więc jeśli ktoś miał starszego warda właśnie i ten ward się zaczął wysypywać,
warto sobie po prostu MVA zaktualizować.
Tutaj swoją drogą też NVAccess przy okazji ostrzegał rzeczkowników,
że jeśli ktoś zdecydował się tą aktualizację ściągnąć,
ale potem stwierdził, że coś mu nie działa, może jakiś dodatek
i próbował wrócić do wersji poprzedniej.
To spowoduje, że nasza konfiguracja będzie uszkodzona,
co spowoduje tym, że NVIDIA po prostu ją skasuje
i wszystkie ustawienia będą resetowane do wartości domyślnych.
Tak że jeśli planujecie odinstalować tę nową wersję
i wrócić do wersji poprzedniej, to też trzeba na to zwrócić uwagę.
Ale generalnie aktualizacje dodatków też cały czas postępują
i myślę, że warto generalnie mieć tę wersję najnowszą,
zwłaszcza, że przynosi całkiem dużo istotnych zmian,
jakich mówiliśmy już poprzednio.
Zdalny dostęp, zintegrowany ZenVGA, zaznaczanie w Chromie
i wiele, wiele więcej ciekawych nowości.
A propos dodatków, no to tutaj mamy nowy, całkiem ciekawy dodatek
od Javiego Domingasa, który nazywa się Keep Awake.
I zadaniem tego dodatku jest zapobieganie przechodzenia
Kiedy się nam to może przydać?
Dobrym przykładem jest wiadomość,
którą jakiejś SM-u od Eweliny dostaliśmy,
która słuchała sobie czegoś w programie,
to był RadioShure,
który nie wyłączał usypienia w systemie.
Aplikacje mogą powiedzieć Windowsowi,
żeby komputer nie przechodził w tryb uśpienia,
ale czasami możemy się spotkać z sytuacją,
gdzie jakiś program tego nie robi,
Właśnie chcemy zabezpieczyć się przed tym, żeby komputer nam nie przeszedł w tryb uśpienia.
Z tym dodatkiem to nic prostszego, bo po jego instalacji wystarczy wejść do menu narzędzia,
bo tam dodatek daje swoje dwie opcje.
Właśnie jedna opcja to zapobiec usypianiu, a druga to wyłącz zapobieganie usypianiu.
Także jeśli robimy coś i nie chcemy, żeby komputer nam przez przypadek usnął,
Wystarczy tą opcję kliknąć i kiedy skończymy to zadanie,
to po prostu wyłączamy to i komputer już będzie mógł spokojnie
znów przejść w tryb uśpienia, tak jak został do tego skonfigurowany.
Na ten moment dodatek można pobrać z podlinkowanej strony,
natomiast też mamy informację, że już został wysłany
do weryfikacji do sklepu z odkami,
więc pewnie też lada dzień, kiedy wejdziecie do sklepu,
do zakładki Odkrywaj, bodajże to się nazywa,
I tam wpiszecie Keep Awake, no to też z oficjalnego sklepu dodatek będzie można sobie ściągnąć.
Następnie przechodzimy do wątków androidowych.
Tutaj konkretnie do jednej informacji.
Speech Central. Aplikacja znana. Konkurencja do Voice Dream’a, czy na przykład Eleven Loves Reader’a,
czy no do Android’u, to na przykład będzie Ad Voice Allowed Reader, na przykład.
Na iPhonie od jakiegoś czasu prężnie się rozwija
i dostała dużo nowych funkcji.
Integracja z głosami AI,
jakieś dodatkowe funkcje intonacji.
Dużo tych nowości w Speech Centralu się pojawiało.
Aplikacja, która ma specyficzny interfejs,
ale też ma swoich fanów i faktycznie się prężnie rozwija.
No i przyszła pora na to,
żeby i wersję androidową tej aplikacji odświeżyć.
To właśnie uczynił deweloper i jest gotowy,
żeby użytkownicy zaczęli tę nową wersję testować.
Jeśli ktoś jest zainteresowany,
to w komentarzu znajdziecie link do posta
na oficjalnej stronie Speech Central,
gdzie znajdziecie więcej informacji.
I link do zaproszenia do sklepu Play,
gdzie możemy dołączyć do tej wersji beta.
Jeśli na ten link klikniemy, to właściwie to tyle.
Dołączamy do tej wersji beta i później z poziomu sklepu Play
Możemy sobie aplikację do tej wersji beta zaktualizować.
No i oczywiście, jeśli to zrobimy, to deweloper prosi o to,
żeby mu jakieś informacje zwrotne wysłać,
czy wszystko działa tak powinno,
co jeszcze byśmy chcieli w tej aplikacji zobaczyć.
Myślę, że jeśli ktoś szuka fajnej aplikacji do czynienia książek,
może wam nie pasują te, które są na rynku,
warto z Pitch Centralem się zainteresować.
Zwłaszcza, że chyba na Androidzie jest podobnie dla użytkowników niewidomych
korzystających z czytników ekranu,
to aplikacja jest chyba dostępna zupełnie za darmo.
Wiadomo, nie licząc funkcji AI, gdyby ktoś chciał dodać klucz
do głosów OpenAI albo Microsoftu,
to za to musimy już zapłacić sami,
ale generalnie sama aplikacja dla nas będzie darmowa.
A teraz kilka wątków związanych z iPhone’em.
Na przykład sygnał.
Sygnał na iPhonie ostatnio staje się coraz bardziej dostępny
I mamy tutaj kolejną aktualizację, która sporo poprawia.
Właściwie poprawia jedną rzecz, ale jedną rzecz moim zdaniem dosyć istotną.
A mianowicie, Wojsław teraz nam będzie czytał statusy doręczenia wiadomości.
Czyli jeśli wiadomość została wysłana na serwer,
ale nie dostarczona, kiedy została dostarczona.
No i oczywiście, kiedy została przez odbiorcę odczytana,
jeśli odbiorca sobie to włączył.
To jest w najnowszej wersji Signala.
Wystarczy sobie z App Store’a tą aplikację zaktualizować
i tą informację po prostu będziemy z voice-overem dostawać.
Następnie druga beta iOS-a 26 i zresztą też pozostałych systemów.
Temat, który już troszkę gdzieś ślizgnęliśmy
na początku audycji z Arkiem.
Natomiast warto tutaj też jeszcze raz przytoczyć,
bo tutaj będą pojawiać się, pewnie z każdą nową wersją beta,
kolejne ciekawe smaczki.
I nie inaczej jest. Tym razem taką najciekawszą nowością,
którą odkryli użytkownicy, jest właśnie historia mowy,
którą znajdziemy na pokrętle.
A dokładnie działa to w taki sposób,
że kiedy użyjemy gestu czterokrotnego stuknięcia trzema palcami,
żeby skopiować ostatnio wypowiedzianą frazę do schowka,
to w tym momencie na pokrętle pojawi nam się właśnie nowa opcja,
Ja, historia mowy, w której to znajdziemy 10 ostatnio skopiowanych przez nas komunikatów.
Jeśli klikniemy dwukrotnie na któreś z tych komunikatów, no to zostanie on automatycznie skopiowany do schowka.
Ta lista jest tymczasowa, gdyby ktoś nie chciał, żeby tam coś było, no to te komunikaty generalnie się nadpisują,
ale też jeśli voiceovera po prostu zrestartujemy, to ta historia zostanie wyczyszczona.
Przynajmniej tak to wygląda w tej wersji systemu.
Bardzo możliwe, że z czasem opcji będzie więcej.
Może wyrzukiwarka się pojawi,
może można to w okienku wyświetlić.
Nie wiem, to jest dopiero druga beta.
Dużo może się zmienić, jeśli chodzi o to, jak ta funkcja będzie działać.
Natomiast nawet w tej wersji, jaką mamy teraz,
to jest całkiem przydatna funkcja,
która może w wielu sytuacjach, wydaje mi się, się nam przydać.
Np. jeśli musimy skopiować od razu nazwę i hasło jakieś,
np. kilka pól,
to teraz to możemy sobie szybciej najpierw przygotować,
a następnie wrócić do aplikacji,
do której potrzebujemy tę informację wkleić
i z tego pokrętła znów tę informację znaleźć
i po prostu sobie powklejać.
Oprócz tego, tak jak wspominałem,
Dowiedzieliśmy się, że mechanizmy OCR w systemie zaczęły wspierać język polski,
co myślę, że wielu osób ucieszy.
Generalnie dało się z tego korzystać wcześniej,
jeśli zmieniliśmy język na angielski.
Ale teraz niezależnie od tego,
czy po prostu voiceover nam jakiś tekst z obrazków czyta,
czy jeśli używamy z funkcji wykryć tekst w aplikacji zdjęcia
czy w innych aplikacjach,
co w swojego czasu Piotr Witak pokazywał na ramach swojej szuflady,
To po prostu polskie znaki będą wykrywane.
Z moich testów w 90% to działa.
Czasem zdaje się, że EO przekręci się w T albo RZ z kropką w zwykłe Z.
Ale generalnie tych znaków jest więcej niż mniej,
tak że to się bardzo chwali.
Zwłaszcza, że te mechanizmy aplowskie do OCR
są naprawdę świetne.
Zresztą w systemie jest dużo aplikacji, które mogło z nich korzystać.
Pierwsze przykłady, które przychodzą mi na myśl, to np. Prismo,
Bo VoiceDream, chyba też jakieś funkcje OCR na Macu ma.
Taka aplikacja jest więcej VOCR, tak jak rozmawialiśmy wcześniej.
Teraz te wszystkie aplikacje będą w stanie
w jeszcze bardziej sensowny sposób nam polski język czytać,
zachowując nasze wszystkie diakrytyki.
Tak że to jest bardzo zdecydowanie fajna zmiana.
I jeszcze taka ciekawostka dla tych, którzy lubią nowe dzwonki.
Apple nowy dzwonek dodało do systemu.
On był wcześniej znaleziony w kodzie systemu w pierwszej becie,
natomiast nie dało się do niego dostać jako użytkownicy,
ale już w tej drugiej wersji beta ten dzwonek normalnie został udostępniony.
Jest to konkretnie już trzeci wariant dzwonka domyślnego,
czyli tego dzwonka, który w angielskiej wersji nazywa się Reflection.
Po polsku chyba jest to odbicie, jeśli się nie mylę.
To jest generalnie ten standardowy dzwonek,
który mamy…
Taki trance’owy, trochę taki klubowy, nie?
Tak, tak.
Ta-ta-ta-ta-ta-ta-ta-ta-ta.
Ten taki…
Syntetyczny bardzo, na syntezatorach chyba zrobiony po prostu.
Dokładnie, to sobie zobacz.
O, mam nawet tutaj to przygotowane.
To jest…
Mieliśmy tę wersję standardową,
natomiast ta wersja alternatywna brzmi tak.
Which is why I am…
Dobra, to sobie usuniemy.
I tak to nam się po prostu zapęta.
Nie wiem jak ty, Piotrze, dla mnie to brzmi jak podstawka pod taki hands up ze wczesnych lat 2000.
Tak, tak, tak.
Coś niezwykłego świata, taka kaskada, nie?
Tak, tak, tak.
Ciekawe jak ludzie zaczną to remiksować, no bo przecież poprzednie dzwonki iPhone’ów to były wiele razy remiksowane, więc no…
Jak ktoś nas słucha i ma pomysł, to myślę, że to może być ciekawy materiał do remiksu.
A propos remiksu, ale fajne przejście nam wyszło.
Kolejna rzecz, która pojawiła się na portalu Apple Biz.
To jest deweloper aplikacji, którą zaczął tworzyć w Żeglądarkowej.
Aplikacja zupełnie webowa,
która generalnie pozwala na tworzenie,
remiksowanie muzyki na podstawie sampli.
Mamy bibliotekę sampli, którą nam strona udostępnia,
które są idealnie do siebie dopasowane.
I po prostu na takiej siatce…
Jeśli ktoś pamięta, to aplikacja do kompozycji muzyki
A, no tak.
Robienie sklejek, takich gotowych, no, z takich gotowych już podkładów troszkę jakby, znaczy części podkładowych. Trochę perkusji jakiejś było, parę orientów, no.
No tutaj mamy coś takiego, natomiast tutaj nie robimy może nie tyle piosenek, co takich pętli bardziej.
Mamy na ten moment 12 taktów do dyspozycji, no i właśnie układamy sobie te utwory na siatce.
Generalnie mówię o tym dlatego, że deweloper napisał na ApoVisie,
bo powiedział, że jednym z jego głównych celi jest to,
żeby ta strona była dla użytkowników, czytników ekranu
jak najbardziej dostępna.
I po prostu prosi o informację zwrotną.
Ja trochę się tą stroną bawiłem.
I dostępne to generalnie jest,
bo wszystko, co ma być etykietowane, jest.
Natomiast z klawiatury korzysta się z tego na ten moment opornie.
Nie na pewno do niego napiszeć. Coś czuję, że te zmiany zostaną poprawione.
Na przykład, kiedy nawigujemy po tej siatce,
to wygląda trochę tak jak w Abletonie czy w Leaperze.
Góra-dół to mamy ścieżki, a lewo-prawo chodzimy po tych 12 taktach.
Nie możemy potem chodzić z czałkami na ten moment.
Możemy wyłącznie chodzić tabem.
Też nie jest to oznaczone jako tabela.
Mimo to, że na ekranie to wygląda jak taka siatka tabela.
Też czynnik ekranu nam w tym niestety nie pomoże.
Ewentualnie gładzik na Macu.
Tutaj mamy tą usługę gładzikiem, więc tutaj można sobie pomóc.
Też te wszystkie przyciski są po prostu opisane jako
wstaw albo usuń, klip.
Więc tutaj też nie mamy informacji w jakim miejscu jesteśmy.
Więc tutaj jest parę rzeczy, które dałoby się dopracować.
Może jakieś dodatkowe skróty klawiszowe.
Niemniej jednak, jak napisał sam developer,
jego priorytetem numer jeden właśnie jest to,
…żeby ta strona, aplikacja była jak najbardziej dostępna i po prostu szuka sugestii od użytkowników, żeby po prostu ta aplikacja była dla nas jak najbardziej dostępna.
Czy to właśnie, żeby działała najlepiej z czytnikami ekranu, jakby mogła być rozwiązana nawigacja z klawiatury i tego typu kwestie.
Wątek jest na Powizie, będzie podlinkowany, natomiast samą aplikację, gdyby ktoś chciał sobie po prostu przetestować, znajdziecie pod adresem
I to wszystko z mojej strony, ale tradycyjnie to jeszcze nie jest koniec drobnych newsów.
Zgadza się, bo ja nie mam też wiele o PKP Intercity, które ulepsza swoją dostępność, jak to mówią dla czytników głosowych.
Już mówiłem, w sensie ja nie zauważyłem zmian możliwych, też bardzo pobieżnie spojrzałem,
Ale ten błąd główny, który od razu się pokazuje na stronie głównej,
czyli chcemy wyszukać połączenie, wyszukujemy miasto i się przycina nam synteza,
gdy próbujemy coś na klawiaturze wpisać, no dalej niestety jest.
Czyli to, o czym mówił Bartek kilka przeglądów temu, no po prostu nie zostało naprawione.
I Element X, czyli klient Matrixa oficjalny na iPhona, no też jakieś poprawki dostępności przyjął.
Nie wiem jeszcze w jakim zakresie, ale na pewno coś tam dobrego się podziało.
No i taki jeszcze drugi temat, który gdzieś wypłynął przez jednego z użytkowników
zarówno Forum Audio Games, jak i Mastodona, czyli poprawia się dostępność.
Nie wiem, czy Piotrze, interesował cię ten temat OpenMPT,
czyli takiego darmowego, otwarto-śródłowego trackera.
A tracker jest to również oprogramowanie do tworzenia muzyki,
natomiast w trochę inny sposób niż my to klasycznie znamy,
Czyli nie, że ładujemy jakiś instrument, przede wszystkim tracker to jest określenie
na program do tworzenia muzyki na bazie sampli, czyli podobnie jak tu, tylko rzeczywiście sampli,
czyli pojedynczych dźwięków. I głównie się go używa do tworzenia muzyki
tzw. chiptunes, czyli muzyki ośmiobitowej, czyli muzyki bazującej na
właśnie takich bardzo prostych syntezatorach, wręcz na falach dźwiękowych,
no po prostu muzyka ze starych gier komputerowych. Jak ktoś kojarzy, nie wiem, Mario,
Final Fantasy i tak dalej, stare konsole, komodorki,
Nintenda pierwsze i różne inne historie, Gameboye.
I tam zasada tworzenia muzyki jest taka, że nie gramy tej muzyki na żywo,
na jakiejś klawiaturze sterującej, a po prostu umieszczamy na takiej siatce,
jakby w takim układzie tabelarycznym, nuty,
Oczywiście w takty i tak dalej.
I każdej z tych nut możemy nadać jakąś właściwość, czyli wartość.
Czy to ma być ósemka, ćwierć nuta i tak dalej.
Czy ma jakieś mieć efekty, jakieś echo, pogłosy, inne jakieś tam właściwości.
Ładujemy tam oczywiście jakieś różne sample,
na których chcemy potem grać.
Także jest to dużo, dużo bardziej uproszczona forma tworzenia muzyki.
Pewnie nie można robić takich ładnych, nie wiem, przejść.
No nie wiem, brzmi to też jak muzyka taka grana na żywo,
Jakimiś instrumentami, nawet na wizji wirtualnymi.
Po prostu taka sklejka sampli, więc jest to do takiej raczej prostszej,
przynajmniej z technicznego punktu widzenia muzyki.
Rzeczywiście do takiej muzyki…
Oj, Pawle, zdaje się, że…
Tak, chyba coś…
Nie słyszymy się?
Już się słyszymy, już się słyszymy.
Łokciem kabel zahaczyłem? Nie wiem.
A może…
A, nie, już mi tu zgłasza Zoom, że połączenie niestabilne.
Ale już jest stabilnie.
No w każdym razie ta aplikacja, czy ten program raczej jakoś używalny był nawet już i 10 lat temu,
bo widziałem już jakieś takie wątki, gdzie jacyś niewidomi użytkownicy się z tym programem siłowali.
To nie wszystko było proste, do pewnych elementów trzeba było dojść kursorem JOST czy też nawigacją obiektową.
No a teraz niby wyszła nowa wersja, niedawno właśnie, kilka dni temu, według jednego z użytkowników,
Która ma dużo poprawek, jeżeli chodzi o dostępność.
No i tenże użytkownik pokusił się zarówno o zamieszczenie informacji
na forum samego projektu, jak i na forum Audiogames.
I można tam też znaleźć filmik, który nagrał,
gdzie na przykładzie odtwarzania motywu z jednej z gier komputerowych
pokazuje, co z tym programem robić się da, a czego się nie da.
Ja się jeszcze z nagraniem muszę zapoznać, bo są ponad jeszcze
pewne obszary, do których nie tak łatwo z klawiatury dotrzeć.
No natomiast coraz bardziej się to uzdatnia do używania.
No i to jest coś, co by mnie nawet interesowało,
bo ja jakimiś tam chiptunami się interesowałem.
Chciałbym nawet tworzyć taką muzykę czy próbować.
Bardzo lubię tą estetykę, taką lat powiedzmy osiemdziesiątych czy u nas dziewięćdziesiątych,
bo u nas na przełomie dekad dopiero gdzieś tam dotarły takie różne nowości.
Natomiast, powiedzmy w szerszym zakresie oczywiście,
Natomiast to już by przypominało bardziej takie komponowanie jak na Nokii w kompozytorze.
Jestem ciekaw co z tego wyjdzie i jak ten program się też rozwinie.
A my odbieramy kolejny telefon. Kto jest z nami tym razem?
Tym razem Bartek po tej stronie, trochę wywołany chyba tutaj do tablicy przez Pawła,
ale Pawle poniekąd w tym temacie też będę krótko się wypowiadał.
Na początek, Piotrze, chciałbym Tobie podziękować
za poprzedniotygodniową wskazówkę a propos RH Voice’a.
Udało mi się go zaktualizować po małych problemach,
bo dopiero, że tak powiem, doszedłem, że mogę aktualizację
jakby pobrać przez stronę. Czyli jak wejdę w sklep z dodatkami
i zaznaczę RH Voice’a, to tam jest strona http
i wtedy otwiera tą stronę, gdzie można ten dodatek pobrać.
Ja akurat w ten sposób się udało, ale po dłuższych problemach.
Na szczęście problem zażegnany.
Super.
A jeżeli jeszcze mówimy o głosach do NVIDIA, to Piotrze może…
Ty się orientujesz a propos tej aktualizacji tych głosów
wokalizer z Tyflotechni, co można było pobrać.
Ja też właśnie próbowałem tą samą metodą,
ale pobiera wersję dodatku,
To tutaj pytanie, czy widzisz aktualizację tego dodatku w sklepie?
Bo z tego co wiem, w sklepie już najnowsza wersja jest dostępna,
więc musiałbyś przejść w sklepie na zakładkę aktualizacji.
On tam zresztą nawet jeśli jakiś dodatek jest wyłączony,
bo nie jest kompatybilny, to mimo wszystko MVA powinien sprawdzić,
czy aktualizacja jest. Jeśli znajdziesz go tam na liście, to…
A pozwolisz Piotrze, że ja akurat odpalę tutaj ten sklep i jakbyś tak króciutko mnie pokierował?
Tylko pozwolisz, że sobie zgłośnię mowę.
Ok, i teraz tak, menu, nvidia i narzędzi.
Addon Store. Ok, i teraz muszę zaznaczyć wtedy ten dodatek?
Musisz znaleźć zakładkę aktualizację.
To z tabulatora, tak? Jak dobrze rozumiem.
Możesz Ctrl Tab, zmieniać zakładki, albo po prostu przejść tabem do zakładek po prostu.
Jest, do zaktualizowania. I to jest to, tak? I wtedy z czałką czy tabulatorem już?
Teraz z tabulatorem możesz przejść na listę i tam ten vocalizer powinien być.
A to sobie zaznacz.
Oznaczone. Szukaj. Pole edysk do zaktualizowania.
Lista aktualizacji. Przewodnik pocalizer Express V1.1.
Stan. Dostępna aktualizacja. Niezgodny dodatek.
Dostępna aktualizacja. Niezgodny dodatek.
Ale jest podana wersja 3.11.
A to jest chyba nawet jakaś starsza wersja.
Zobacz czy masz tutaj też tą Tiflotechnia Voices na tej liście.
Jak chodzę strzałkami góra-dół, to jest tylko jedna pozycja.
No to spróbuj nacisnąć na tym spację i jedną z opcji powinno być zaktualizuj.
Jest pierwsze, zaktualizuj, nadpisz zgodność, strona internetowa, licencja, kod źródłowy.
I recenzję społeczności i kanał aktualizacji.
To jest ciekawe, bo ja myślałem, że ty pobrałeś sobie ten najnowszy dodatek, a to…
Z Tiflotechni pobierałem, tylko teraz ostatnio właśnie próbowałem w tym grzebać i teraz pytanie, czy ja go nie usunąłem.
Możliwe, bo ten dodatek, o którym ja myślałem, powinien się nazywać Tiflotechnia Voices.
Tak, tak, ja to miałem. Poproszę cię jeszcze sekundeczkę, dobrze?
Ja nie chcę wam to zabierać czasu antynowego, ale jak już mam, że tak powiem się tutaj…
De facto nie, ale moment, czy ja go mam w pobranych?
Dobrze, to zróbmy…
Tyflotecnia.com generalnie.
Aha, jeszcze raz wejść na tyflotecnia.com i podać ten dodatek i wtedy tą samą metodą, którą mi przed chwilą zaprezentowałeś, Piotrze, spróbować zaktualizować.
Dokładnie. Gdyby ten dodatek cały czas był tam na tej stronie w starszej wersji, to tak.
Okej, w porządku. No to bynajmniej już będę wiedział, za co się zabierać.
Druga sprawa, troszeczkę Patryk też mnie tutaj można powiedzieć
nie zainspirował tylko zdziwił tym tematem a propos
tej automatycznej jakby prośby o Face ID.
Ja de facto mam tak samo ustawione jak Patryk i się właśnie zastanawiałem
Nie kojarzysz, co to za opcja jest, którą ewentualnie odznaczyłeś, która pozwala Ci na to, że…
Nie, treści powiadomień nie. Ja mam chyba ustawione jako…
Czyli to wtedy by trzeba było zmienić sposób wyświetlania powiadomień?
Tak, żeby wyświetlały się treści. Tak mi się wydaje, ale to jest wiesz…
To wtedy tak sugeruje, na co by trzeba było ustawić?
Bartku, ja nie mam niestety w pamięci wszystkich ustawień iPhona.
Nie, nie, no to wiadomo, nie wszystko tutaj musimy mieć w małym paluszku, prawda?
Jeszcze druga sprawa, z którą dzwonił Patryk. Tak tutaj Michale mówiłeś, że te kontakty mogą się dublować przez to, że…
Przez Google na przykład.
A ja tutaj, że tak powiem, oczywiście możesz się też z tym nie zgodzić,
ale wydaje mi się, że to nie jest przez to, bo jak wejdziemy w kontakty
i potrzemy palce, dwoma palcami zrobimy gest wstecz,
to tam mamy osobno kontakty iCloud, kontakty Google, jeżeli takowyż mamy
i wtedy, jeżeli wejdziemy w kontakty iCloud, to tylko właśnie te
powinien nam wyświetlać, więc taka moja tylko sugestia w stronę Patryka.
Tak, to też warto sprawdzić, czy właśnie na tej liście kontakty iCloud nam się to dubluje, czy nie.
Bo jeżeli Patryk zmieniał telefon, to może, nie wiem, automatycznie pobrał kontakty z SIM i może tam miał zapisane kontakty.
I dlatego też mu się to zdumowało.
Być może.
Jedyna metoda, która mi tutaj przychodzi do głowy.
Okej, w porządku. I tutaj do czego jeszcze chciałem nadmienić,
czy korzystaliście ostatnio z kolei o morze?
Nawet wczoraj.
A zauważyłeś, Michale, taką dość dla nas zauważalną bynajmniej zmianę,
którą ja zauważyłem, że teraz przy sprawdzaniu trasy
podaje nam również tor i peron?
To znaczy on zawsze podawał, ale nie przy wszystkich pociągach mam wrażenie.
Ja zauważyłem inną rzecz, że on, bo kiedyś tego mam wrażenie, że nie podawał, podaje informacje o opóźnieniach.
Ale jedna taka usterka, nie wiem czy to jest jeszcze błąd dostępności, jakbyśmy chcieli sprawdzić całą trasę, to bynajmniej nie wyświetle nam tylko ostatnich stacji.
Tak, potwierdzam, trzeba palcami przesunąć, trzema palcami w górę po prostu.
Można, a ja znalazłem jeszcze, że po prostu tą ostatnią czytaną stację można podświetlić
Wtedy stara się nam wyświetlić następne stacje.
No to też, to podejrzewam, że też tak to zadziała. Ja po prostu przesunąłem trzema palcami.
Okej, w porządku. Jeszcze takie małe pytanie a propos WP Pilota, to chyba też Piotrze tutaj do Ciebie.
Ta opcja na pokrętle czynności, która mówi, że to jest następny program i poprzedni program, to jest na której zakładce?
To jest na zakładce telewizji, to jest ta pierwsza zakładka, gdzie możemy telewizję oglądać.
I to jest na odtwarzaczu konkretnie, czyli na tej górnej części, gdzie nam się ten kanał wyświetla.
A odtwarzacz w której części ekranu się znajduje?
Faktycznie całą górną część zajmuje.
Aha, czyli można powiedzieć, że tam gdzie wtedy było puste pole, to w tym miejscu wyświetla nam się cały odtwarzacz.
Tak, tam mamy te wszystkie przyciski i tam też są te czynności.
Okej. Myślę, że to będzie na tyle. Piotrze, jeszcze raz bardzo dziękuję tutaj za pomoc w przyszłym tygodniu.
Już dzisiaj nie będę wam zawracał głowy, czy wszystko się powiodło.
Nie ma sprawy.
Z głosami. Dzięki jeszcze raz serdeczne. Pozdrawiam was. Spokojnej nocki życzę.
Pozdrawiam.
Do usłyszenia.
Dzięki Bartku za telefon. Dobrej nocy również ci życzymy.
Paweł nam zniknął z tego co widzę, ale miejmy nadzieję, że wróci.
A my tymczasem posłuchajmy dwóch dość długich wiadomości od Mariusza.
Cześć, witajcie w poniedziałkowe wieczór z tej strony Mariusz.
Moje pytanie to jest na początek, ponieważ znajomi pytają mnie,
czy program iTunes działa dalej na systemie Windows 11,
ponieważ dotychczas byli na systemie Windows 10,
no a teraz będą przechodzić na Windowsa 11.
No i po prostu używają intensywnie iTunes
i mają obawy, czy będzie działał iTunes,
jak byście mogli się wypowiedzieć
i też jak z jego dostępnością.
A druga sprawa to, czy mówiliście kiedyś
w jakimś Teflop-przeglądzie lub Teflop-podcaście
o takim fajnym, darmowym programie,
który nazywa się Panties Media Downloader.
Jest to program na system Windows
i na system macOS.
I to jest program do pobierania muzyki z platformy YouTube.
Możemy pobrać sobie różne formaty, w sensie takim, że możemy ustawić,
jak chcemy, żeby program pobierał nam daną naszą muzykę z YouTube’a.
W MP3, albo w kodeku Flats i jeszcze innych plikach.
W każdym razie jest to darmowy program, bardzo dobrze dostępny z NVDA.
Jest on w języku angielskim.
No i jest na system Windows 10 i chyba 11 oraz na system macOS.
No i tak, jak to działa?
Działa to w ten sposób, że jeżeli chcemy sobie pobrać jakiś nasz ulubiony utwór z
platformy YouTube, a nie mamy YouTube Premium, to robimy to w ten sposób, że
wpisujemy w YouTubie, powiedzmy, nazwę naszego utworu i później, gdy go
Wchodzimy jeszcze na kanał tego wykonawcy i dopiero z kanału wybieramy ten nasz utwór do pobrania, ponieważ jeżeli nie wejdziemy na kanał, to Panties Media Downloader zrobi nam tak zwanego miksa i ten miks nie do końca działa dobrze, a wtedy nam się pobiera to jako taka pojedyncza mp3.
I co robimy?
No jeżeli już uruchomimy sobie ten nasz utwór, ten jako film,
to na nim naciskamy skrót klawiszowy CTRL-L,
tam dajemy CTRL-C i później otwieramy program Panties Media Downloader,
tam po prostu go wklejamy CTRL-V i tabulatorem dochodzimy do słowa,
do napisu start download.
No i ten utwór
nam się popiera jako MP3 i później
go możemy mieć offline, zapisany na
naszym dysku twardym w komputerze.
Myślę, że wielu z Was kojarzyć może
ten program lub go w ogóle
znać. Jest to darmowy program
Panties Media Downloader.
Bardzo fajny, polecam.
I dzięki temu nie trzeba wtedy
się zastanawiać, czy by przypadkiem nie
kupić sobie takiego YouTube Premium,
bo właśnie jest obejście, jak jeszcze
Można sobie fajnie pobierać jakieś nasze ulubione np. utwory, czy nawet audiobooki z tej także popularnej platformy.
Przypomnę i powtórzę, program nazywa się Panties Media Downloader.
Jest to program darmowy, jest dobrze dostępny z czytnikiem ekranu NVDA, JAWS oraz z narratorem i śmiało można z niego po prostu korzystać.
Polecam, naprawdę fajny program. Mało miejsca, zajmuje na dysku twardym naszego komputera i jest to bardzo lekki i szybki.
To tak, gdyby ktoś zastanawiał się, jak obrać np. naszą ulubioną piosenkę czy książkę z platformy YouTube.
Poza tym, wyszła nowa wersja NVDA, no i był problem z dodatkiem Expressive,
ale już ten problem został naprawiony, bo dodatek został zaktualizowany
Już możemy po prostu używać NVDA z osi, zenteryzatora z osi, albo z osi premium, jak kto woli.
Można śmiało aktualizować. Dodatek został już zaktualizowany do kolejnej wersji i działa już w porządku.
Poza tym mamy wypuszczoną dzisiaj kolejną wersję, kolejną betę systemów iOS 18.
Są to bety drugie systemów, iOS 18, WatchOS, tvOS, macOS, andVisionOS.
Także nie zmieniają jakoś nic za bardzo te bety.
Są to tylko poprawki błędów i stabilności.
Także to tyle ode mnie. Pozdrawiam wszystkich serdecznie.
No i przyjemnego wieczoru. Trzymajcie się ciepło. Cześć. Pa, pa.
Cześć. To jeszcze raz ja, ponownie Mariusz. Dobry wieczór.
Chciałem wszystkich ostrzec przed najnowszą aktualizacją mobilnego Messengera na iOS-ie,
ponieważ niestety znowu najnowsza wersja aplikacji Messenger ma pływający kursor i po prostu voice-over.
Czyta nam wszystkie wiadomości po kolei, a żeby to zatrzymać albo wyciszyć,
to po prostu trzeba na chwilę wyłączyć mowę i później włączyć ją z powrotem
i można wtedy przeglądać wiadomości na Messengerze.
Także nie aktualizujcie Messengera, jeżeli jeszcze tego nie zrobiliście do najnowszej wersji,
Jest masakrycznie na iOSie i bardzo źle się obsługuje Messengera i w ogóle odczytuje wszelkiego rodzaju wiadomości.
Nie tylko w czatach prywatnych, ale też w czatach grupowych. Wszystko zostało tam obsute znowu.
Dostępność została zepsuta. Także nie aktualizujcie do najnowszej wersji Messengera.
I jeżeli możecie, to po prostu wstrzymajcie się i poczekajcie na jakąś może lepszą jego aktualizację.
Aktualizacja. Totalnie VoiceOver jest obsuty, zgłupiał, czyta wszystko sam z siebie po kolei
i po prostu zwykłe przesuwanie palcem po ekranie nie pomaga.
Ewentualnie jeszcze można sobie pomóc w ten sposób, że można go zrestartować,
VoiceOvera, i to naprawia korzystanie z Messengera, ale tylko na chwileczkę,
bo jak wyślemy znowu kolejną wiadomość, to po prostu VoiceOver czyta od tych
wiadomości, które już były wysłane dużo, dużo wcześniej.
Pozdrawiam wszystkich serdecznie. Życzę przyjemnego, miłego wieczoru. Trzymajcie się ciepło.
Na Windowsie podzielił tego iTunesa na te różne aplikacje, z tego co pamiętam, natomiast on, natomiast iTunes jako taki dalej jest dostępny.
Tak, jak ktoś chce, to można go ściągnąć jeszcze. Powinien działać, tak? Tam chyba nie zmieniło się takiego.
On cały czas aktualizacje nawet dostaje, z tego co widziałem.
Tak, bo ja akurat mam zainstalowanego iTunesa i tam czasem coś przychodzi.
Natomiast jeśli jeszcze chodzi o Messengera, to tutaj jeśli faktycznie jest taki problem z tymi komunikatami,
no to to akurat można obejść sobie, mianowicie po otwarciu Messengera wchodząc do szybkich ustawień VoiceOvera,
to jest po czwórne stuknięcie dwoma palcami i tam wyłączamy sobie opcję obszary dynamiczne.
No to spowoduje, że nam VoiceOver nie będzie czytał tych komunikatów podawanych automatycznie do aplikacji,
więc gdyby to w przyszłości naprawili, to nie będzie nam czytał wiadomości automatycznie,
albo np. tam chyba przy wyszukiwaniu coś tam było, pamiętam, czytane.
No ale jeśli faktycznie te obszary, te komunikaty są wrobione źle,
no to po prostu możemy na poziomie VoiceOvera je sobie dla tej jednej aplikacji tymczasowo wyłączyć.
No to teraz przechodzimy już powoli do technikaliów.
Na dobry początek taka mała ciekawostka i protip dla tych wszystkich, którzy wybierają się za granicę,
zwłaszcza w Unii Europejskiej i jeżeli na przykład chcecie korzystać za granicą z internetu.
Ja miałem ostatnio właśnie taki przypadek i zupełnie przypadkowo odkryłem to.
Podejrzewam, że nie u wszystkich operatorów może to działać, natomiast jeżeli przy automatycznej konfiguracji sieci
Trafi Wam się taki operator, który nie ma najlepszego pokrycia danego kraju, jeżeli chodzi o mobilny internet.
To można zawsze spróbować ręcznego wyszukania sieci.
I popróbować, czy nie będziecie w stanie podłączyć się do innej sieci komórkowej.
Jeżeli tak, to też będziecie mogli w ramach tego europejskiego roamingu korzystać z tego Waszego pakietu.
Ja zauważyłem, że na przykład kiedy korzystałem z alternatywnego dostawcy, na przykład z Deutsch Telekom zamiast O2, bo automatycznie Orange mi się łączył na O2, na tę sieć, to miałem z opóźnieniem naliczany transfer mobilnego internetu.
Natomiast, no, miałem w pakiecie tam 27 gigabajtów, więc specjalnie się tym nie przejmowałem.
Natomiast zdecydowanie lepiej ten internet działał, bo miałem wszędzie zasięg LTE.
A na przykład w przypadku O2, no to bardzo często pojawiał mi się jeszcze ten edge,
który w praktyce nie nadawał się do niczego, jeżeli chodzi o korzystanie z internetu.
Więc jeżeli się wybieracie za granicę i macie potrzebę
częstego używania internetu, chociażby
czy do nawigacji, czy jakichś innych rzeczy,
to warto sobie to ręczne
wyszukiwanie sieci sprawdzić.
A skoro o telefonach mowa,
to ciekawy telefon,
ty Piotrze, znalazłeś. Z Androidem i z klawiaturą.
I to jeszcze z nowym Androidem.
Tak.
Tak, konkretnie tutaj będziemy mówili o
W firmie, która już nie pierwszy raz tworzy telefon, który ma Androida i klawiaturę.
I która co jakiś czas w tyfloprzeglądach się pojawia z różnymi telefonami.
Będziemy mówili konkretnie o firmie Unihertz,
która generalnie tworzy telefony takie niekonwencjonalne, jak na dzisiejszy czas.
Tworzą np. najmniejsze telefony na świecie.
Telefony, które mają ekran 3-4 cale, ale z mocnymi podzespołami.
No i m.in. też tworzą takie telefony bardzo pancerne.
No i też tworzyli telefony z klawiaturą.
Pierwszy model, Uniherz Titan, pojawił się już parę dobrych lat temu.
Nie pamiętam nawet, kiedy to było, natomiast już trochę czasu minęło.
I wiele osób prosiło o nową wersję tego telefonu,
bo Uniherz wypuścił niedawno dużo nowych telefonów.
Generalnie to były telefony z serii Jelly, czyli właśnie te mniejsze.
Ale mówiło się o tym, że za jakiś czas ma się pojawić telefon wyposażony w klawiaturę QWERTY, czyli coś w stylu telefonów Blackberry, że po prostu tu nie są telefony rysowane, tylko mamy ekran i pod ekranem mamy klawiaturę.
No i słuchajcie, właśnie ruszyła kampania na Kickstarterze,
w której możemy na taki…
Możemy po prostu producenta wesprzeć.
Aczkolwiek już mogę powiedzieć, że cel został osiągnięty i to znacznie,
bo producent szukał 100 tysięcy dolarów, czyli około 360 tysięcy złotych,
Właściwie 368, natomiast no już udało mi się uzbierać ponad 2,5 miliona, 699% przekroczony został cel, także ten telefon raczej na pewno na rynku się pojawi, a gdyby ktoś chciał bym telefona się zainteresować i go zakupić, to teraz w sumie może być dobry moment, dlatego że właśnie na Kickstarterze można go zdobyć trochę taniej niż ten telefon będzie kosztował finalnie, bo finalnie ma kosztować około 400 dolarów,
Czyli na ten moment jakieś 1460 złotych, czyli jakieś 10-15 złotych, powiedzmy.
A w tym momencie, gdyby ktoś ten telefon kupił na Kickstarterze, przewidywana dostawa na październik,
to można go dostać za około 1000 złotych. Nie wiem, czy tutaj jest wliczony już VAT, czy nie.
Wiem, że dostawa do Polski jest zapewniona. Sama dostawa będzie kosztowała 20 dolarów dodatkowo akurat do Polski,
Więc tragedii, wydaje mi się, nie ma, jak na taką cenę telefonu.
A co za ten 1000 czy 1500 zł dostaniemy?
Dostaniemy całkiem sensowny telefon.
Czego nie mogę powiedzieć o sensowności,
to było to, jak producent te specyfikacje podał.
Bo na stronie mieliśmy trzy niezetygietowane zdjęcia,
których na przykład Firefox nawet w ogóle nie widział.
Na szczęście Safari nie powiedział, że to są jakieś grafiki.
I tutaj, a propos zastosowań dla Chata GPT,
te specyfikacje były podane w formie takiej dwustronnej tabelki,
która przy takim klasycznym OCR-u się kompletnie rozjeżdżała.
Na szczęście właśnie, do czego mamy Chata GPT,
bez problemu się z tą tabelką uporał.
Poprosiłem, żeby mi stworzył taką listę
i właśnie z tej listy teraz będę Wam te specyfikacje podawał.
Może zacznijmy od tego, że urządzenie faktycznie
Klawiatura, która nie ma klawiszy typu ściałki, na przykład.
Mamy oczywiście klawisz alt, klawisz funkcji, jakiś klawisz shift, spację, enter, backspace itd.
Generalnie to po prostu mamy klawiaturę QWERTY.
Ale, co ciekawe, będziemy mogli do tej klawiatury całkiem dużo przypisać skrótów.
W ogóle, po pierwsze, cała sama klawiatura będzie w pewnym sensie dotykowa.
Producent mówi, że będziemy mogli przesuwać kursorem,
wykonując na klawiaturze różne gesty.
Rozumiem, że po prostu machając palcem na klawiaturze,
trochę tak, jakbyśmy nawigowali czynnikiem ekranu,
będziemy mogli po prostu chodzić w lewo, prawo, górę, dół.
Tak że ciekawe, ale jeśli to faktycznie działa,
to w całkiem sensowny sposób.
Ale też będziemy mogli sobie przepisywać skróty do różnych aplikacji.
Właściwie do wielu rzeczy, do czego chcemy tak naprawdę.
zarówno na pojedyncze naciśnięcie krótkie, jak i przytrzymanie dowolnej litery.
Ponadto, tak jak w poprzednim modelu Titan,
mamy też z boku dwa programowane przyciski.
Tak że jak ktoś lubi sobie przepisywać skróty do asystentów,
do aplikacji, może do czytników ekranu,
jak to np. komentary, to przyciski zobaczy.
No to tutaj jest co przepisywać, jeśli chodzi o samą klawiaturę.
Natomiast sam telefon.
Wymiary w milimetrach to jest 137,8 x 88,7 x 10,8 mm,
no także to nie jest cienki telefon, tutaj mamy prawie 11 mm głubości,
no ale jednak mamy fizyczną klawiaturę, więc tego można było się spodziewać.
Waga z baterią 235 g, więc tutaj też telefon nie jest lekki,
Ale to w sumie też nie jest jakiś bardzo ciężki hit.
iPhone’y mają około 200 gramów teraz.
Mówi się, że ten telefon jest lżejszy od poprzednika.
Procesor Mediatek Dimensity 7300.
Jest to procesor ośmiordzeniowy,
wydajnościowe cztery rdzenie energoszczerne, 2 GHz.
Tu jest nowa jednostka.
To jest jednostka ze średniej półki wydana w zeszłym roku.
Także biorąc pod uwagę, ile czasu zajmuje stworzenie takiego telefonu,
no to wydaje mi się, że tutaj tragedii nie ma, mamy faktycznie nowy procesor.
Tutaj przy okazji, jeśli jeszcze nie mówimy o takich podzespołach,
no to mamy 12 GB pamięci RAM, a więc też wcale nie mało,
i 512 GB przestrzeni na nasze pliki.
Także też całkiem sporo, tutaj dałoby się dużo nagrań na przykład,
czy jakiś filmów, muzyki na tym telefonie umieścić.
System operacyjny Android 15, także tutaj też tragedii nie ma.
System nowy, no jest teraz Android 16, ale on wyszedł słownie miesiąc temu,
także no tutaj nie będę krytykował producenta za to, że jest wersja 15.
Bateria ma 5050 mAh.
Bateria jest zamontowana na stałe, jak w większości współczesnych smartfonów.
Wspiera też 33-watowe szybkie ładowanie.
No właśnie, tutaj pamięć 12 GB RAM-u DDR5
i pamięć 512 GB UFS 3.1.
Wyświetlacze. Wyświetlacze, co ciekawe, mamy dwa.
Podstawowy wyświetlacz, który znajdziemy nad klawiaturą,
jest, co ciekawe, kwadratowy.
Ma 4,5 cala i o rozdzielczość 1440×1440 pikseli,
czyli faktycznie wyświetlacz kwadratowy.
Rozdzielczość Full HD to co nie jest, ale też mała rozdzielczość to też nie jest.
I, co ciekawe, mamy też drugi wyświetlacz.
Drugi wyświetlacz zamontowany na wysepce, na której znajdziemy aparaty,
czyli po prostu z tyłu telefonu i z informacjami,
do których dotarłem np. na portalu The Verge,
no to na tym wyświetlaczu będą nam się wyświetlać podgląd kamerki,
gdybyśmy chcieli sobie selfie zrobić z aparatem tylnim.
Ale też możemy tam widget wyświetlać np. różne informacje.
Ciekawe, czy to będzie z TalkPakiem działało. Zobaczymy.
Generalnie wyświetlacz ten ma 2 cale i rozdzielczość 410×502 piksele,
czyli to faktycznie taki drugooczenny wyświetlacz
do wyświetlania jakichś takich podstawowych informacji.
Wspieralne sieci. Generalnie tutaj mamy wszystko.
Ten procesor wspiera 5G, więc mamy tutaj wszystko od 2G do 5G właśnie.
Producent deklaruje, że wszystkie pasma międzynarodowe są wspierane,
A więc tutaj problemów w Polsce być nie powinno.
Aparaty. Podstawowy aparat ma 50 megapikseli.
Natomiast kamerka z przodu ma 32 megapiksele,
więc też wydaje mi się, jest całkiem spoko.
I mamy też drugi aparat telefoto,
to tutaj to zdjęcie z takim lepszym zbliżeniem, 8 megapikseli.
Więc tutaj mamy taki system dwuaparatowy,
jak w wielu współczesnych smartfonach.
Włączność Wi-Fi 5E jest wspierane, oczywiście 5 GHz, hotspot, wszystko generalnie tutaj jest.
Bluetooth 5.4.
Wszystkie generalnie też standardy nawigacyjne, czyli jest GPS, jest Galileo Europejskie, jest Baidu, jest GLONASS.
Czujniki. I tutaj mamy do dyspozycji czytnik linii papierarnych.
Nie wiem, gdzie on się znajduje, niestety.
Mamy, wiadomo, akcelerometry, kompas,
światło, czujnik zbliżeniowy,
takie wszystkie czujniki, jakie powinny być.
Oprócz tego mamy NFC, mamy podczerwień,
więc możemy to urządzenie wykorzystać jako pilota do sterowania telewizorem,
klimatyzacją, wszystkim, co działa na podstawie pilota na podczerwień.
Mało telefonów teraz ma coś takiego, więc to jest też fajny bajer.
USB OTG, czyli możemy do portu USB-C po prostu podłączyć sobie różne urządzenia.
Głośnik Radio FM, to też coś, co jest coraz rzadziej spotykane w tym urządzeniu.
Może nie będę wymieniał tutaj wszystkich dostępnych pasem.
Jest ich generalnie dużo.
No i mamy informacje tutaj, jakie są wspierane języki.
Tu pewnie chodzi o to, jakie litery są nadrukowane na klawiaturze.
Polskiego akurat na tej liście nie ma, natomiast urządzenie jak najbardziej do Polski będzie można zamówić.
No, patrząc na tę stronę, na te specyfikacje, muszę powiedzieć, że to wygląda naprawdę sensownie.
Jeśli ktoś szuka urządzenia z klawiaturą QWERTY,
ale też urządzenia współczesnego,
nawet po pełnej cenie, tych 1500 zł,
kiedy urządzenie już się pojawi oficjalnie,
to może być sensowna propozycja.
Zostaje pytanie, jak dobrze i czy będzie działało z TalkBackiem.
Poprzednie urządzenia Unihertza z TalkBackiem
z tego, co wiem, problemów nie miały, więc bym się o to zbytnio nie martwił.
Co na co warto zwrócić uwagę, to wiem, że generalnie Uniherc niestety średnio
później swoje telefony wspiera, jeśli chodzi o aktualizacje.
Na pewno dostaniemy jedną dużą aktualizację Androida, czyli tutaj to
szesnastki aktualizacje dostaniemy.
Później z tym może być problem.
Natomiast wiem, że społeczność generalnie wokół tych telefonów jest
w szczegóły dużo duża i dużo własnych ROM-ów powstaje.
Inna sprawa też jest taka, że tak naprawdę nawet Android 15 tak naprawdę
Wszystko, co dzisiaj będzie wspierane przez lata, a coraz więcej komponentów systemu, jest teraz aktualizowane osobno, więc nawet jeśli powiedzmy Androida 17 nie dostaniemy, to ja myślę, że ten telefon i tak powinien raczej się spisywać dobrze.
Także jeśli szukacie takiego telefonu z klawiaturą, to myślę, że warto tematem się zainteresować, zwłaszcza teraz, kiedy jeszcze przez następne 29 dni można go prawie 400 zł taniej dostać.
Oczywiście będzie link do tej kampanii w komentarzu, natomiast też pewnie już będziecie mogli ją znaleźć na stronie producenta unihertz.com.
Tam pewnie też wszelkie informacje się znajdą. Zobaczymy. Na pewno wygląda to ciekawie.
Ciekawe, czy jakieś osoby niewidome na ten sprzęt się zdecydują. Może wtedy coś więcej o nim się dowiemy.
Ciekaw, jak tam wygląda kwestia teraz mikrofonów, czy zostały jakoś polepszone, bo wiem, że przynajmniej te modele sprzed kilku lat, no mimo iż Android raczej słynął z tego, że wiele telefonów, nawet takich mniej znanych marek, miało już ten zestaw mikrofonów stereo, no to Unihertz uparcie nadal tylko i wyłącznie mono. Także ciekawe, czy tutaj poszli po jakieś nowe komponenty.
Może ktoś z naszych słuchaczy nawet się skusi. Jeżeli tak, to dajcie znać.
A ciekawe, w jakiej sprawie dzwoni do nas Maciek. Dobry wieczór.
I tu mnie mają. Dobry wieczór, dobry wieczór. Myślałem, że postanów nie zauważony, a jednak jestem.
Słuchajcie, w sumie właśnie, a propos, bo tak prywatnie w sumie, mówiłem Ci Piotrek, że nie działał mi ten Joplin, nie?
Zadziałał, ale w sumie odkryłem, i to w sumie dlatego o tym mówię,
dlatego że może gdyby ktokolwiek jeszcze miał tego typu problemy, jak ja,
i pytanie, czy to związane jest wyłącznie z betami.
Natomiast kwestia była taka, że mi w ogóle się nie ładował ten droplin nieszczęsny.
Cały czas mi generalnie mówił Mac, że Joplin nie ma okien itd.
Dzisiaj to samo miałem z notatkami, jak chciałem otworzyć notatki, żeby sobie tu porobić, żeby z tym co do was przyjść.
No i coś się okazało, z GPT się udało problem rozwiązać.
I generalnie mówię, w sumie powiem na szybko, co by trzeba było.
W każdym razie, jak mi GPT zasugerował wyczyścić profil generalnie użytkownika w tylda, slash, konfig.
Nie, jak to tam była ta ścieżka? Ojej, nie pamiętam. Chyba tak.
Tak mi generalnie zaczęło to wszystko teraz działać, więc Joplin działa.
Notatki w sumie też rozwiązałem jakoś dziwnie okrężnie,
przełączając się też z widoku listy notatek idąc do menu widok tak naprawdę na galerię
i potem znowu na listę. Notatki magicznie wróciły. Joplina trzeba było profil mu zresetować,
wyczyścić, tam też jakąś tam komendą w terminalu w każdym razie zadziałała.
podał mi właśnie też GPT, więc gdyby komuś nie działało, to warto też się pana GPT zapytać,
jakby to zrobić i wtedy też zadziała, zwłaszcza, że poszperał i w oficjalnych generalnie,
gdzieś tam na drogę w oficjalnych, w sensie po jakichś Redditach, po GitHubach generalnie przeszukał
i to znalazł, więc to działa.
Kwestia… no i dzięki temu teraz ładnie mam notatkę w Markdownie, a nie prawda.
Kwestia, jeśli chodzi o te urządzenia, znaczy o aplikacje Apple’owe na Windowsa 11,
to też właśnie istnieją do ściągnięcia z Microsoft Store’u, ze sklepu Microsoft.
Właśnie jak już wspomniano, że się podzieliły te aplikacje,
rozbite na powiedzmy trzy, a nawet chyba cztery.
I właśnie w MS-Store dostępna jest aplikacja Apple Devices do
generalnie obsługi iPhone’ów, gdzieś tam aktualizowania ich, zerowania,
stworzenia backupów i odtwarzania i tego typu operacji na zarządanie iPhone’em.
Music też jest i jest i jest i jest i jest iCloud,
jakby ktoś chciał i potrzebował sobie podpiąć iCloud’a
do Windowsa, na zasadzie powiedzmy Dropboxa, to w ten sposób można,
chociaż z synchronizacją to tego gdzieś tam bywało różnie, ale apki są.
Podcasty nie wiem czy są, ale te są, także odpowiadając na pytanie.
Generalnie jeśli chodzi o błędy, to też przychodzę z ciekawymi błędami,
Jeśli chodzi o w sumie iOS i watch osa pierwszym z nich.
Znaczy właśnie Airplay dalej nie naprawiony nie naprawiony jeśli chodzi o głośniki innych
firm. Co ciekawe z urządzeniami Apple działa.
Mi z Sonosem działa Airplay.
Wiesz co mi kurcze nie chce działać z moim JBL więc i ja resetuje i wszystko i mi cały
czas to właśnie nie chcę działać.
Właśnie mi tutaj nie chcę więc już feedback jakby poszedł ale no jakby
sygnalizuje, że gdzieś tam może być problem.
Dobrze, że tobie działa z…
może też… no nie wiem w sumie dlaczego.
Bo tak z urządzeniami Apple to mówię,
mi generalnie działa z przesyłem na Maca,
z Maca odwrotnie, na TV i tak dalej.
To mi działa na Apple TV, natomiast nie działa
właśnie tam na, na, na mojego JBL-a.
W centrum powiadomień fajny jest błąd generalnie,
że na, na, na Watch OS-ie nie czyta,
znaczy trzeba parę razy próbować
dwoma palcami w dół albo koronką
i to wymiennie działa bardzo zamiennie.
I losowo, że centrum powiadomień się albo otworzy, albo nie otworzy,
więc troszkę z tym zabawy jest.
W pierwszej becie tego nie było, w drugiej się pojawiło.
Także jakby ktoś liczył na to, że druga beta może bardziej dopieszczona,
a nie bardzo, właśnie, nie bardzo,
dlatego że w wiadomościach, również na iOS-ie,
jedną rzecz naprawili, drugą zepsuli,
bo naprawili, przywrócili czynności dla wątków na pokrętle
typu usuń, ukryj alerty, oznacz jako przeczytany,
oznacz nieprzeczytany i tak dalej.
I to przywrócili i to ładnie działa.
Jak również te wszystkie opcje dotyczące edycji,
to znaczy zbiorczego działania na wątkach.
Tam gdzie mamy w wiadomościach edycja, przycisk.
I filtrowanie też już gestem, flikiem,
prawo, lewo się do tego możemy bez problemu dostać.
No to trzeba było jednak sobie wyeksplorować.
A teraz działa ładnie.
Natomiast zepsuli coś takiego, że…
I to też działa bardzo losowo.
Wiadomości niektóre są jakby przedstawiane w taki sposób,
że tak jakby to było nadal pisane w polu tekstowym.
Jakby nasza wiadomość, a ta wiadomość jest od kogoś.
I nieraz tę wiadomość da się przeczytać po znakach, na pokrętle i po wyrazach, a nieraz nie.
A nieraz znowuż ostatnią wiadomość się nie da przeczytać.
Jakby ktoś chciał sobie nawigować po wyrazach i tak dalej, na pokrętle, no to zaś się nie da, więc taki ciekawy błąd.
Emoji na iOS, no jeszcze nie naprawione.
I o Messengerze była mowa, to dobra. Zwłaszcza to jest upierdliwe, jeśli mamy grupy i on tak naprawdę
Czyta mi wszystkie nieprzeczytane tak naprawdę dotychczas wiadomości.
No i to najbardziej przeszkadza na grupach, jak się sporo wiadomości zbierze.
Swoją drogą chyba też podobny problem zgłaszał mi Mikołaj Hołysz
odnośnie wersji na Maca, bo od jakiegoś czasu Messenger na Macu
to chyba też jest aplikacja po prostu z iOS-a przeportowana, jest jakiś kataliz
chyba używany.
Chyba tak, bo nawet te same błędy są.
Tak, i on właśnie mi mówił, że fajnie, że coś tam zaczęło czytać automatycznie,
Właśnie mówił mi, że czyta od początku, więc bardzo możliwe, że tutaj na laku będzie podobny problem.
O nie, bo mi w tym momencie czyta stricte od pierwszej nieprzeczytanej tak naprawdę, więc ja też sobie te komunikaty…
Może to miał na myśli?
Przełączyłem… no być może. Ja sobie to przełączyłem i teraz już mam też na szczęście spokój.
Jeśli chodzi o to, co już działa w tym iOS-ie i miejmy nadzieję, że tak zostanie w tej drugiej becie…
To naprawiono pasek też, oprócz tej aplikacji wiadomości, o czym wspomniałem przedtem,
to naprawili też już ten nieszczęsny pasek kart w Safari, że już jest dużo łatwiejszy do namierzenia eksploracją.
Nie jest tak, że on tam się gdzieś bez sensu chowa, kurczy.
Znaczy może tak jest, ale dla voice-overa nadal jest bardziej, że tak powiem, namierzalny.
Druga rzecz to jest taka, że podobno, nie wiem, nie widzę, więc nie potwierdzę,
ale podobno ten Liquid Glass cały jej centrum sterowania,
że ponoć to zostało poprawione, ulepszone w tej drugiej becie
i też jeśli się wejdzie do ustawień i tam zmniejszy przezroczystość,
to podobno działa to jeszcze lepiej, że ponoć jeszcze lepiej tam tego
liquida nam likwiduje, jeśli tego nie chcemy, powiedzmy, że w ten sposób.
Interfejs staje się czytelniejszy.
To czego mi brakowało i nie działało chyba od trzech wersji iOS-a, tak jakbym sobie tego życzył.
Ostatnio rozmawiałem sobie przez Facetime’a i przypadkiem wyszło połączenie wideo.
Słuchajcie, rewolucja francuska nadeszła.
Działa w końcu teraz tak, że jak mamy kamerkę włączoną tudzież wyłączoną,
to w końcu on to czyta po bożemu, że kamera przełącznik włączony,
Czyli ta kamera jest. Kamera, przełącznik wyłączony. Kamery nie ma.
Tak samo jest z mikrofonem. W końcu to wreszcie działa, czyta tak, jak ma czytać.
Bo z tym był problem i ja nigdy nie wiedziałem, czy kamera w końcu jest włączona, czy nie.
Działa.
Na maku również zniknął irytujący pop-up, wyskakujący taki, nie wiem jak to nawet nazwać,
ale jak się zmniejszało głośność, jasność ekranu, głośność dźwięku zmniejszało, zwiększało,
bombardowało komunikatem, trzeba było to obchodzić sobie woscape’em i tak dalej.
Na szczęście zniknęło. Nie ma.
I tak. I to by było z błędów, a z innych rzeczy, jak sobie zatytułowałem.
Historia, schowka, voiceover.
W razie, gdyby ktoś też tego nie chciał, chociaż to jest bardzo przydatna opcja i ja już ją bardzo sobie chwalę.
Dobrze jest wiedzieć, że po restarcie Voice Overa resetuje się ta historia w sumie.
I dobrze jest wiedzieć, że do 10 generalnie się tam zapisuje.
Ciekawe, czy kiedyś to zwiększą limit, żeby było więcej.
Natomiast można sobie to w ustawieniach pokrętła wywalić.
Nie z szybkich ustawień, tylko z ustawień pokrętła, jakby ktoś tego bardzo nie chciał.
ale zresztą w ogóle w szybkich ustawieniach chyba tego nie ma.
Kwestia OCR w ogóle, właśnie, bo to odkryłem i to było w ogóle fascynujące,
że jak ja to wyłączyłem w ustawieniach, włączyłem w tych ogólnych region i język i tak dalej,
to już mnie w ogóle nie trąbiło, że nie wspiera języka polskiego i tak dalej,
więc w końcu to mamy. I skoro te sprawy wizualne działają lepiej,
Gesty aktywacji wejścia ekranu Braille’a, gdyby ktoś nie chciał, też się znajdują w szybkich ustawieniach,
także nie trzeba koniecznie wchodzić do ustawień VoiceOver’a tylko i tam do pisma Braille’a itd.
Gdyby ktoś chciał tradycyjnie skorzystać z pokrętła, chociaż w sumie nie wiem czemu,
ale gdyby to w szybkich ustawieniach VoiceOver’a też tym sobie można manipulować.
Co do GPT, słuchajcie.
Ostatnio się przygotowywałem do egzaminu
i tak go promptowałem tym, żeby on szukał
we wiarygodnych źródłach, pomijał Wikipedię,
na przykład, powiedzmy, tego typu sprawy
i żeby stuprocentowo weryfikował źródła
i tak dalej, żeby wracał do mnie z odpowiedzią
Odpowiedzią poprawioną na tysiąc procent, że słuchajcie, zaczyna mi powoli przebijać gość perplexity tak naprawdę, więc to jest generalnie sukces w jakichś tam master promptów, normalnie różnych dziwnych rzeczy.
W każdym razie, tak mi się skubany do egzaminu pomógł przygotować, gdzie ja bym się musiał uczyć dwa tygodnie, a uczyłem się od zeszłego chyba piątku czy czwartku i…
No i słuchajcie, piąteczka wpadła, także nauka z GPD się opłaca.
No to właśnie miałem zapytać, jak ten egzamin poszedł?
Na szczęście piąteczka do tej… już prawie w to uwierzyłem, ale jeszcze nie, bo był cholernie trudny i taki… bardzo dużo materiału i tak dalej, to tak mi ten GPT, że naprawdę, piąteczka wpadła, o dziwo.
No ale właśnie to jest też kwestia tej skutecznej komunikacji z nim, o czym…
A z ciekawości, bo to jest, bo na pewno dużo mówiliście też w tej audycji o praktycznym wykorzystaniu sztucznej inteligencji,
Dla tych, którzy nie słuchali, to w jaki sposób Ty się z nim przygotowywałeś do tego egzaminu? Jaką rolę pełnił w tym?
Takiego… właśnie, dobre pytanie.
Takiego w sumie researchera, takiego poszukiwacza generalnie przygód
internetowych czy źródłach materiału.
Materiału nawet nie, chociaż czasem też.
Ale w dużej mierze ja mu podawałem pliki generalnie bezwstydnie,
które miałem i prezentacje różne i artykuły i tak dalej.
Kazałem mu to właśnie streszczać, wyciągać najważniejsze rzeczy.
Nie wiem, robić z tego jakieś fajne zgrabne odpowiedzi, ustne na przykład i coś tam, bo co miał być ustny egzamin, prawda?
I po polsku, i po niemiecku, i gdzieś go tam pytałem o różne zwroty, w razie czego, żeby mi potem jeszcze przypominał, żebym ja sobie tam też to jakby notował.
Takie właśnie różne rzeczy, typu skracająco, streszczająco, wynotowujące, prawda, wyciągające, robiące esencje.
Taką samą esencję, w ten sposób.
Tak, tak. No, że bez takiego lania wody, tylko…
No i generalnie bardzo sobie fajnie z tym radził.
Mało tego, jak ja mu mówię, że ma mi pisać bez żadnych markdownów
i mu w cudzysłowach podaję te znaki, których ma nie uwzględniać i tak dalej,
bardzo fajnie sobie z tym radzi.
No i tak nawet jak się przygotowałem do prezentacji,
bo jedną z części tego egzaminu to była prezentacja w sumie do przedstawienia,
to też się go zapytałem, jak on by to widział w sumie,
w sumie przeszukiwać internet, jeśli chodzi o materiały.
Czy to ma być GPT i Deep Research? Czy to ma być Perplexity i Deep Research?
Czy to ma być Gemini? Sam stwierdził lojalnie, że Perplexity będzie lepsze,
bo może gdzieś tam podać trochę mniej źródeł, ale to będą na pewno sprawdzone źródła
i nie będzie rzeczywiście podawał jakichś tam wyhallucynowanych.
sam o sobie to powiedział, więc no dobrze, szacun dla niego.
I faktycznie, tam potem jak znalazłem te źródła,
wszystkie działały zweryfikowane.
Wszystkie linki działały, źródła się faktycznie odnosiły
do tego, do czego chciałem.
Potem jak już gotową prezentację też miałem, to co?
No też mu potem ten plik wrzuciłem i go poprosiłem o zgodność,
żebym porównał generalnie.
No tam 98%, bo czegoś tam jeszcze mu brakło,
Więc poradził se chłop naprawdę, zaoszczędził tyle czasu, tyle roboty, że szkoda gadać, w sensie na pozytyw.
Także bardzo polecam.
Zresztą to o czym Milena mówiła dzisiaj odnośnie tych zakupów tego GPT i tak dalej, to też o czym ja tam opowiadałem,
Nawet to GPT, bo co-pilot co-pilotem,
ale GPT i modele rozumujące działają, zdają egzamin jeszcze lepiej.
I a propos GPT, to ten numer na Whatsappa,
znaczy dostęp przez Whatsappa do GPT też potrafi generować obrazki.
Też potrafi grafiki generować podobno od zeszłego tygodnia.
Więc gdyby ktoś chciał przetestować
To może, bo generalnie opisywać już ja mógł od jakiegoś czasu.
Tak samo mogliśmy nagrywać głosówki na Whatsappie,
a on je transkrybował i wracał z tekstowymi odpowiedziami.
A teraz doszło o generowanie obrazów, także można.
A co do WP Pilota, to generalnie…
No właśnie, dobrze, że ta dostępność w końcu z czytnikami głosowymi,
W końcu weszła. Chociaż smutne tak naprawdę, że muszą robić,
jak już naprawdę mają nad sobą bat, to jest jedno.
A drugie nawet się nie doedukują, jeśli chodzi o terminologię
i walą takimi głupotami typu czytniki kart czy czytniki głosowe, nie?
No ale, no dobra, świadczy to o nich jakoś tam.
No na pewno tak, że robią, bo muszą, prawda, a nie robią, bo chcą.
No ale dobrze w ogóle.
Jeśli chodzi o tego WP Pilota, to te niezetikietowane przyciski, które tam są,
wydawałoby się, że ich jest Bóg wie ile, że ich jest strasznie dużo.
Powiedzmy 4, 5 czy ile. A tak naprawdę to są tylko dwa, bo sprawdzałem.
Jeden z nich, to znaczy chyba trzy albo tam ile z nich służy do dostania się do ulubionych.
A dwa z nich albo nawet jeden przy końcu dopiero do zakładki oferta,
która jest też na końcu w ogóle interfejsu, więc jest to coś grubo nie tak,
ale tak to działa.
Odtwarza się na szczęście, tak jak mówiłeś, działa bardzo fajnie.
Natomiast też się zastanawiam, jeśli chodzi o te ścieżki audio,
bo w Kanal Plusie na przykład, bo sprawdziłem,
o tej samej godzinie, akurat sobie dzisiaj po 17 na dwójce,
to tam sobie miłość i nadzieja leciała, prawda, turecki serial,
A skoro tak, to to mamy oryginał i mamy voiceover w sensie lektora.
No i co? I w Canal Plusie da się wybrać ścieżkę audio.
Normalnie oryginał turecki, żeby sobie leciał.
A tutaj też to chciałem sprawdzić i niestety nie.
Więc być może to jest jeszcze jakiś błąd faktycznie.
Albo po prostu faktycznie nie mają podziału na te ścieżki.
Jeszcze jakby w sygnale.
Może stricte w samym WP Pilocie, bo na stronie TVP
Chyba z tego, co wiem, idzie to ogarnąć. Tak samo właśnie na Kanal Plusie też, więc być może tu jest problem.
Odnośnie do VOD TVP właśnie. Ty, Piotrek, mówiłeś, że na Macu próbowałeś, testowałeś wtedy w tym tyfloprzeglądzie, jak mówiłeś, czy na iPhone’ie, bo nie pamiętam. Na Macu chyba, nie?
Na Macu tak, bo niestety aplikacja na iPhone’ie cały czas jest tragiczna.
No właśnie, apka tak, ale strona właśnie na iPhone’ie, gdyby ktoś chciał, to też jest w sumie już obejście na szczęście,
bo skoro odtwarzać jest dostępny, już na szczęście można,
więc i ten odtwarzaż na iPhonie też się zachowuje dosyć fajnie,
jak na Macu, tak że działa, można.
I pytanka mam jeszcze, tak za cztery.
A propos, też do Ciebie Piotrek, w sumie, a propos właśnie bet i…
Nie wiem, czy wiesz, ale jak wiesz, to spoko, a jak nie, to znaczy…
Jeśli chodzi o Airpocy i o bety, słyszałeś może coś o tym, żeby gdzieś jakieś źródła trąbiły, żeby tam jakiś problem ewentualny z ANC był?
I jeśli chodzi o te tryby, generalnie tryby trybu kontaktu i ANC, czy nic ci nie wiadomo na ten temat?
Nie słyszałem, żeby ktoś miał z tym problem. Wiem, że ludzie zaczęli testować ten tryb studio.
Ja jeszcze nie, bo nie chcą mi się Airpocy zaktualizować. Może teraz z najnowszej bety z Macadą można spróbować, więc będę dalej próbował.
Właśnie, tak, bo na Macu można, no, teraz od tej do tej.
Natomiast w ten tryb studio, to muszę powiedzieć, że…
Słychać, że to są mikrofony, które gdzieś są dalej, ale można w końcu to otrzymianie wyłączyć, jak mamy ten tryb studio aktywny.
Gdzie się to włącza? Bo ja tego w centrum sterowania gdzieś widzę.
Wiesz co? Nie powiem ci na 100%, bo po prostu jeszcze tego nie mam. Nie mogę AirPodsu swoich zaktualizować.
Aha, aha, czyli jakby wiesz, że ludzie testują, ale jakby nie było w zmianach do końca gdzie, tak?
No dobra, to będzie trzeba iść tam jeszcze poszukać,
bo ja generalnie BT mam, ale jakby nie mogłem sam tego jeszcze znaleźć.
I odnośnie aktu tego dostępności unijnego, słuchajcie, no bo
mówi się o tym, że to teraz ma być wszystko coraz bardziej dostępne
i tak dalej, no ale właśnie, gdzie tak naprawdę zgłaszać takie
różne, powiedzmy, niedoróbki? Bo tak na przykład Uber, słuchajcie,
on dalej, nie wiem na ile tu mogę akurat zaufać GPT-kowi,
ale że podobno w anglojęzycznej wersji tak naprawdę ma w pomocy, w dostępności
możliwość zgłaszania różnego rodzaju feedbacków odnośnie do właśnie
tego typu naszych tutaj spraw. Natomiast w polskiej wersji aplikacji
tego w ogóle nie ma. I w pomocy Ubera tak naprawdę też nie można
niczego zgłosić. No i teraz pytanie, co tak naprawdę ze zgodnością,
no bo skoro aplikacja ma się stawać coraz bardziej dostępna,
A wejście ekranu Braila nie działa, bo tak. W sensie, jak się pisze do kierowców, no to teraz jak im to zgłosić? I w sumie, jak im nie można, to w takim razie gdzie to można zgłosić? Orientuje się ktoś z Was?
Tego co wiem, deklaracje dostępności chyba są właśnie w świetle ustawy europejskiej, tej dla prywatnego sektora opcjonalne niestety.
Mimo wszystko warto, żeby je mieli.
Gdzieś też powinni uwzględnić różne rzeczy.
Bo gdyby mieli deklarację, no to mogą w deklaracji podać punkt kontaktowy.
Jakby osobę, jednostkę do kontaktu.
A propos rzeczy stricte dostępnościowych.
Tak, natomiast deklaracja dostępności, no to przynajmniej w Polsce dotyczy instytucji publicznych.
Dotyczy tak, no w sensie, że prawnie zobowiązane.
Tak.
No i tak jest dobrym pomysłem dla prywatnych też.
No właśnie, i robi się problem, no bo z jednej strony wymogi są,
a z drugiej strony, gdzie zgłaszać, jak nie są realizowane, nie?
Tak naprawdę.
Znaczy, tak naprawdę wiesz, jeżeli nie reaguje żaden z kanałów
oficjalnie dostępnych aplikacji, no to każdy kraj powinien powołać.
I wiem, że bywa z tym różnie. I niestety, muszę przyznać,
że przez to, że jestem w Austrii, już nie orientuję się,
jak Polska pod tym względem wygląda.
Bo w Austrii już wiem na przykład, które ministerstwo się tym zajmuje.
I tam można po prostu złożyć skargę.
W sensie napisać do ministerstwa, do osoby wyznaczonej w tym ministerstwie,
czy pod jakiś konkretny adres.
Słuchajcie, ta aplikacja nie działa.
Ja im to zgłaszałem tak, jak mogłem podać jak.
I oni powinni to jakoś przejąć tą sprawę.
I pytanie, kto się tym zajmuje w Polsce.
I czy w ogóle została już taka instytucja nazwana jakoś.
No właśnie to jest to pytanie, bo jedną z instytucji, na przykład w przypadku publicznych, no to jest PEFRON.
No właśnie, pytanie czy oni by mogli zareagować jako prezydent. No właśnie, właśnie.
Możemy tam spróbować, ja nie wiem, bo kwestia jest w ogóle taka, że tam, że w ogóle tak naprawdę do Ubera stricte napisać tak naprawdę się nie da,
Bo można tylko zgłosić problem z przejazdem i tak naprawdę tyle.
I w sumie jako takich dróg kontaktu do nich to nie ma.
Z ciekawości w App Store, jeżeli otworzysz informacje o deweloperze,
nie jest tak, że oni tam muszą coś podać?
Właśnie…
Chociaż wiesz co, właśnie, bo teraz na terenie Unii…
Bo jeszcze powiedzmy, nie wiem, z pół roku temu jak patrzyłem, czy rok temu,
no to było tak, że była tam witryna kierująca do wsparcia,
A to wsparcie kierowało do panelu logowania się użytkownika,
a ten z kolei do pomocy, w której można było zgłosić problem wyłącznie z danym przejazdem.
I tak się koło zamykało, nie?
No, więc to generalnie problem jest duży.
No ale nic, może to będzie dobrym pomysłem napisać do PFRON-u
albo tam powiedzmy zadzwonić i się upewnić,
bo infolinię chyba też tam nawet swoją jakąś mają odnośnie tych spraw.
Więc może, być może.
Jeszcze kwestia Personal Voice, Piotrek.
Jeśli chodzi o iPhona, ty tam masz któregoś z tych nowszych,
co już Apple Intelligent wspiera i tak dalej.
Czy ty jakoś to sprawdzałeś, testowałeś, czy rzeczywiście można
już nagrywać te krótkie frazy i tak dalej?
Tak, można. Ja akurat nagrywałem na Macu, ale wiem, że ludzie na
iPhone’ach też to nagrywali. Nie wiem, jaki iPhone jest
minimalnie wymagany. Wiem, że w tej pierwszej wersji tego
No właśnie, bo ja cały czas mam te 150 fraz i tak dalej, więc być może ja mam za starego iPhona zwyczajnie, jeszcze w sumie na Macu spróbuję. I ten hiszpański też miałeś? Normalnie gdzieś tam?
Tak.
Kurczę, to widocznie rzeczywiście to bazuje na tych wymaganiach, że ja ich nie spełniam.
No to na Macu raczej na pewno powinno to pójść.
Na Macu być może ruszy i jak te głosy się synkronizują to też powinno być okej wszystko, nie?
Po iCloudzie, tak.
Po iCloudzie, no.
To w sumie kończę, bo już zająłem dużo czasu.
Jeszcze mam tam technikaliów sporo, ale powiedzmy to na następny raz zostawię sobie.
Natomiast ostatnią taką rzeczą, bo nie pamiętam czy mówiliście o aplikacji też
Eleven Labs Generator, że wyszła dzisiaj.
To Grzegorz mówił.
To Grzegorz mówił, tak. Aha, aha, aha. Dobra.
No, to okej. To na następny raz zostawiam sobie różne technikaliowe sprawy, a tym razem się już z wami żegnam.
Bo dużo tego było.
Dzięki Maćku za telefon i dobrej nocy.
Do zobaczenia.
Pa, pa. Cześć.
Cześć.
No to Pawle, teraz twoja informacja, bo już w zasadzie też będziemy kończyć nasze dzisiejsze spotkanie
z Tyflo Przeglądem o stacji radiowej, takiej nietypowej, prawda?
Tak, i to też nie jest do końca stacja radiowa, bo to nie jest jakiś tam link do powiedzmy
Icecasta czy Shotcasta, który coś tam streamuje, a jest to strona internetowa,
która pokazuje nam różne rzeczy, ale no powiedzmy, że przez to, że tam dużo będzie
materiału dźwiękowego, no to autor tego rozwiązania nazwał swoją zabawkę
Wikiradio. I to są takie zabawki, które ja lubię, bo to są zabawki edukacyjne.
A mianowicie jest to strona, która po kliknięciu przycisku może wylosuje nam
jakiś dźwięk z kolekcji Wikimedia Commons.
I czym jest kolekcja Wikimedia Commons?
To jest należąca do Wikipedii kolekcja multimediów,
które bardzo często są powiązane z jakimś artykułem,
czyli w kontekście jakiegoś tam konkretnego artykułu
Jest wspomniany jakiś, nie wiem, jak mówią o jakimś zwierzęciu na przykład,
to jakiś odgłos tego zwierzęcia będzie podpięty, jak mowa o jakimś państwie,
to może próbka hymnu, jak mowa jest o jakimś wydarzeniu historycznym
czy politycznym czy innym, to jakiś fragment przemówienia,
jakiegoś słynnego i tak dalej, i tak dalej.
No i zazwyczaj te dźwięki są powiązane z tym artykułem,
One są na licencji też Wikimedia Commons w kwestii tego,
co można z nimi robić, jak można ją udostępnić i tak dalej.
I po prostu zazwyczaj my na nie trafiamy, czytając jakiś artykuł,
a tutaj po prostu mamy losowy generator,
który z całej tej kolekcji, co klikniemy przycisk,
to losuje nam jakiś dźwięk i go odgrywa.
Jest to ciekawe.
Ja troszeczkę się tym pobawiłem
i rzeczywiście mi losował różne rzeczy.
Raz trafiłem na jakiś utwór, chyba klasyczny,
wykonany w ogóle jakimś generatorem midi,
bo trzeba też liczyć się z tym,
że jeżeli autor artykułu chce jakiś utwór nam przedstawić,
to też nie ma prawa autorskich, żeby sobie znaleźć jakieś nagranie,
nie wiem, jak jakaś orkiestra wykonuje i je wrzucić,
bo prawa autorskie leżą po stronie tejże orkiestry.
Więc po prostu zagra to, czy znajdzie jakąś wersję, albo zagra sam,
na jakiejś klawiaturze właśnie MIDI, na jakichś syntezatorach prostych,
żeby po prostu dać nam to odczucie, jak to brzmi, jak to powinno brzmieć,
nie łamiąc prawa przy okazji.
Trafiłem na jakieś odgłosy właśnie zwierząt, na jakieś nagranie takie,
które brzmiały jak jakieś nagranie otoczenia, tła, bo tam było słychać
jakieś dźwięki otoczenia, jakichś ludzi rozmawiających i tak dalej.
Można przejść do strony informacyjnej o tym pliku,
która jest bardzo taka techniczna, bo podaje nam dużo metadanych i tak dalej.
Prawdopodobnie tam można się jakoś przekopać, w jakim artykule
albo w kontekście jakiego artykułu ten plik został umieszczony.
Także musiałbym jeszcze na tym popracować,
ale przypuszczam, że się da to jakoś zrobić.
No i jest też drugi przycisk, który, bo tradycyjnie na to będzie losowane ze wszystkiego,
ale oprócz przycisku właśnie skip jest też drugi przycisk, który pozwala nam na wylosowanie
krótkich raczej dźwięków, czyli jak nie chcemy, żeby nam się losowały utwory po kilka minut,
bo mi się dzisiaj trafi na przykład w autobusie utworek na 2,5 minuty,
no to klikamy w ten przycisk i wtedy losują się tylko te krótsze pliki.
Ja myślę, że bardzo ciekawa zabawka, bo można naprawdę się zaskoczyć,
a zwłaszcza, że ta kolekcja, myślę, rośnie cały czas w miarę,
jak powstają jakieś nowe artykuły w Wikipedii i tak dalej.
Tak że jak Wam się nudzi, macie ochotę, to sobie kliknijcie tam i zobaczcie.
Tak, ja na przykład, jak się tym chwilę bawiłem,
no to trafiłem na na przykład jakieś dźwięki dzwonów,
po czym dostałem nagranie amerykańskiego radia pogodowego.
Była jakaś prognoza pogody czytana przez syntezę.
Byłeś w stanie dotrzeć do właśnie artykułu źródłowego jakoś?
Nie udało ci się tam jakoś połapać?
Nie, bo ja nawet, wiesz co, nie zauważyłem,
że tam na stronie można w ogóle wejść do informacji o tym pliku.
Muszę jeszcze tę stronę zbadać. Ja po prostu…
Okej, okej, jasne.
No to taka zabawka na dziś. Ja lubię takie rzeczy,
bo dużo jest fajnych, dużych kolekcji rzeczy,
ale czas mieć, żeby to wszystko przeglądać.
A tak można sobie losowo, kawałek po kawałku, trafiać na różne tak naprawdę rzeczy.
Zaglądamy teraz jeszcze do Waszych wypowiedzi.
Mamy komentarz od Piotra.
Czy i jak można zrobić skrót przełączający wibracje pomiędzy trybami?
Nie odtwarzaj w trybie cichym i zawsze pomijaj na iPhonie.
Najlepiej by było jakby taki skrót można umieścić na zablokowanym ekranie.
Chyba nie da się tego przestawić niestety, akurat po prostu nie ma w skrótach funkcji do tego niestety, tego ustawienia konkretnego.
I tu chyba nikt nas nie testował, ale ja się zastanawiam, nie ma tam…
może jestem bardzo oczywisty w tym momencie,
ale nie ma tam tej opcji, żeby przepisać po prostu kod?
Że kod przyjdzie i można go przepisać?
Nie wiem czy to jest w tym kontekście, ale generalnie…
Generalnie, jeśli chodzi o to, z którego telefonu skanować,
to kod bodajże wyświetla się na urządzeniu pomocniczym, a my na urządzeniu głównym wchodzimy do tej funkcji, do tajnowego urządzenia i tam nam się wtedy aparat wyświetla.
Zdaje się, że Tomek Bilecki, którego dziś nie ma z nami, to przechodził ten temat łącząc Whatsappa na iOS-ie i Androidzie. Może za tydzień nam coś powie.
Zobaczymy, o ile Tomek będzie, bo jeżeli chodzi o dzisiejszy 288 Tyflo Przegląd, no to już tyle.
Dziękujemy Wam bardzo, że byliście z nami.
Paweł Masarczyk, Piotr Machacz i mówiący te słowa Michał Dziwisz. Do usłyszenia.

Wszystkie nagrania publikowane w serwisie www.tyflopodcast.net są dostępne na licencji CreativeCommons - Uznanie autorstwa 3.0 Polska.
Oznacza to, iż nagrania te można publikować bądź rozpowszechniać w całości lub we fragmentach na dowolnym nośniku oraz tworzyć na jego podstawie utwory Zależne, pod jedynym warunkiem podania autora oraz wyraźnego oznaczenia sposobu i zakresu modyfikacji.
Przekaż nam swoje 1,5% podatku 1,5 procent Logo FIRR Logo PFRON Logo Tyfloswiat.pl

Czym jest Tyflopodcast?

TyfloPodcast to zbiór instrukcji oraz poradników dla niewidomych lub słabowidzących użytkowników komputerów o zróżnicowanej wiedzy technicznej.

Prezentowane na tej stronie pomoce dźwiękowe wyjaśniają zarówno podstawowe problemy, jak i przedstawiają metody ułatwienia sobie pracy poprzez korzystanie z dobrodziejstw nowoczesnych technologii. Oprócz tego, Tyflopodcast prezentuje nowinki ze świata tyfloinformatyki w formie dźwiękowych prezentacji nowoczesnych urządzeń i programów. Wiele z nich dopiero znajduje sobie miejsce na polskim rynku.

Zapraszamy do słuchania przygotowywanych przez nas audycji i życzymy dobrego odbioru!

Tematyka

Pozycjonowanie i optymalizacja stron internetowych