TyfloPrzegląd Odcinek nr 278 (wersja tekstowa)

Pobierz napisy w formacie SRT
Pobierz napisy w formacie VTT
Fundacja Instytut Rozwoju Regionalnego prezentuje
Tyflo Podcast.
Dzień dobry, dzień dobry. 278. audycja Tyflo Przeglądu
w kalendarzu 15 kwietnia, połowa miesiąca.
Ciepło się w końcu robi, no ale miejmy nadzieję,
że mimo wszystko ktoś nas słucha.
Może na przykład w plenerze już nas słuchacie.
A to możliwe. Na pewno do nas piszecie wiadomości, ale może zanim przeczytamy wiadomości, to przynajmniej posłuchajmy, o czym w ogóle dzisiaj będziemy mówić.
I się może przywitajmy z naszymi słuchaczami.
I się przywitajmy, tak, to prawda, bo jest dzisiaj Piotrek Machacz, jest Paulina Gajoch.
Witajcie. Dobry wieczór.
Jest Paweł Masarczyk.
Witajcie.
Tak jest. Paweł Masarczyk, jest Michał Dziwisz.
Witajcie.
Tomek Bilecki i chyba w końcu rzeczywiście można przejść do tego, o czym będziemy dzisiaj mówić.
W tym tygodniu w Tyflo Przeglądzie.
W najnowszej becie iOS przestała działać klawiatura ekranowa, ale jest na to obejście.
Pogorszenie dostępności YouTube w przeglądarce.
Narrator otrzymuje kolejne nowości, tym razem opisywanie zdjęć przez AI.
The Crowhill Company chce poprawić dostępność swoich wtyczek audio i prosi o wypełnienie ankiety.
VoiceOver na Macu źle czyta plik PDF? Warto przełączyć się w widok jednej strony.
M-Clock zaktualizowany.
Powstał moduł dla NVIDIA do znajdowania etykiet w programach i na stronach internetowych.
Balabolka i YouTube. Do czego może przydać się ten duet?
Nowości w grach.
Nowe gesty w klawiaturce Hable Easy.
Jak zorganizować dostępną zabawę w polowanie na jajka?
Wystarczy poprosić saperów o pomoc.
Będzie też kącik newsów sztucznie inteligentnych.
Wszystko to, a pewnie jeszcze więcej już za chwilę.
Zaczynamy!
Tyfo Przegląd jest audycją prowadzoną na żywo,
więc serdecznie zachęcamy Państwa do współtworzenia go razem z nami.
Oczekujemy na wiadomości głosowe na Whatsappie oraz połączenia telefoniczne pod numerem 663-883-600, powtarzam 663-883-600 oraz zapraszamy Państwa do wyrażania komentarzy w formie tekstowej poprzez formularz na stronie kontakt.tyflopodcast.net.
Odczytujemy również Państwa wypowiedzi zamieszczone pod transmisjami na Facebooku i YouTubie. Staramy się też zaglądać na nasz tyflopodcastowy serwer Discorda.
I zaczniemy może nie jeszcze od wiadomości, tylko od informacji.
Jednej z informacji, którą dla Was przygotowaliśmy.
Informacja dotyczy, znaczy informacja bardziej, nie wiem, być może taka porada,
być może taki trik, jak to niektórzy mówią.
Do czego może się przydać taki duet Balabolki i YouTube’a?
A może przydać się do tego, do czego chociażby użytkownicy ekosystemu Apple
No bo VoiceDream z tego co wiem, to w tej opcji obecnie płatnej też pozwala na
synchronizowanie sobie statusu odsłuchiwanych książek. No, tylko że to wszystko
odbywa się w ekosystemie Apple. A co w przypadku, kiedy mamy taką sytuację jak ja na przykład,
Właśnie moim smartfonem jest iPhone, natomiast komputerem z którego korzystam jest pecet. Po prostu pecet z Windowsem.
Ja chciałbym skorzystać sobie z możliwości słuchania książek i ja trochę słucham książek na komputerze, trochę słucham sobie na smartfonie.
I chciałbym to jakoś sensownie połączyć i chciałbym mieć takiego właśnie
Voicedream’a tudzież Netflix’a albo jakieś inne środowisko tego typu,
w którym po prostu kiedy ja bym tam nie wrócił do odtwarzania danego materiału,
no to po prostu będę sobie w stanie odtworzyć go właśnie w tym momencie,
w którym przestałem słuchać go na innym urządzeniu.
I okazuje się, że do tego bardzo dobrze nadaje się YouTube.
Jest oczywiście kilka pewnych ograniczeń i z tymi ograniczeniami trzeba się liczyć i trzeba też bardzo uważnie tworzyć tego typu materiały, jeżeli nie chcemy popaść w konflikt z prawem też, z prawem autorskim, bo pamiętajmy, że książka to jest zawsze dzieło i to dzieło jest chronione prawem autorskim i absolutnie nie możemy sobie takich treści swobodnie udostępniać.
Ale tak z drugiej strony, to YouTube oferuje coś takiego jak filmy prywatne.
Każdy film, który zamieszczamy na tej platformie, możemy uczynić takim właśnie materiałem prywatnym.
I do takiego filmu mamy dostęp tylko my, ewentualnie też osoby, którym udostępnimy odpowiedni link.
Te materiały nie są dostępne z poziomu wyszukiwarki, w żaden inny sposób nie da się do nich dotrzeć.
Więc nie udostępniamy niczego, natomiast to jest pierwsza rzecz, o której trzeba wiedzieć.
Natomiast druga rzecz, to jak właściwie przygotować taki materiał. A też bardzo prosto.
Otóż Balabolka nam się przydaje. Balabolka, program, o którym myślę, że już doskonale wiecie.
Być może go jeszcze pamiętacie z czasów, kiedy fajnie było sobie przygotować dla sansy,
Dla jakiegoś innego urządzenia taką książkę, w której to możemy sobie słuchać, naszą ulubioną syntezą.
No i teraz możemy do tych czasów wrócić, możemy znowu słuchać sobie naszą ulubioną syntezą.
Tworzymy sobie taką książkę w formie na przykład jednego pliku.
Jeżeli lubimy słuchać dość szybko, to naprawdę może być to jeden plik.
Z tego co wiem, to YouTube ma jakieś ograniczenie, chyba film może mieć tam 12 godzin.
Też coś czytałem o tym, że konieczna jest jakaś weryfikacja konta,
natomiast no ja mam konto zweryfikowane, nie pamiętam, żeby wiązało się to w jakikolwiek sposób
z jakąkolwiek dla mnie opłatą.
To jest chyba jakiś SMS kod albo coś takiego prostego?
No, więc to jest coś takiego prostego. To nie jest coś, że musimy za coś płacić
czy jakieś dodatkowe rzeczy wykonywać, jakieś bardzo skomplikowane.
Bez tego mamy limit 15 minut długości filmu, no więc no nie, to nam się nie przyda.
Ale warunek YouTube’a jest jeszcze jeden.
Otóż taki film musi mieć warstwę graficzną.
I Balabolka ma możliwość zapisywania pliku w formacie mp4.
No ale mp4 to jest kontener, co my tam wrzucimy to będzie.
I teraz sam ten plik z balabolki nic nam nie da.
Musimy jeszcze w jakiś sposób dorobić do tego obrazek.
I bardzo prosto możemy taki obrazek dorobić,
mianowicie za pomocą takiego konsolowego narzędzia jak FFmpeg.
Jakikolwiek może być to obrazek, możemy sobie, możemy nawet poprosić
czata GPT, żeby stworzył nam obrazek
i jeszcze, żeby podrzucił nam polecenie FFmpeg,
którym będziemy w stanie taki obrazek zintegrować z tym plikiem mp4.
No i ja coś takiego zrobiłem. Ja sobie to przetestowałem.
Czytam już w ten sposób drugą książkę i działa to naprawdę fajnie.
Mam wrażenie, że ta synchronizacja działa lepiej, kiedy używamy komputera.
…ona jest dokładniejsza, bo jeżeli zatrzymam odtwarzanie na komputerze w przeglądarce, to kiedy zaczynam odtwarzać ten materiał z telefonu, no to w tym momencie jest to w zasadzie co do sekundy.
Jeżeli coś takiego robię z telefonu, czyli jeżeli na przykład zatrzymuję to odtwarzanie z poziomu telefonu, to mam wrażenie, że to bardziej pływa.
Ale efekt taki jest,
jakiego właściwie chciałem.
Czyli mam swoją syntezę, bo w tym momencie nie jesteśmy
ograniczeni tym, co mamy
na przykład w Voicedreamie. Możemy sobie użyć
jakiegokolwiek syntezatora chcemy,
na przykład jeżeli ktoś by chciał RH Voice’em sobie czytać książki.
Nie ma problemu, można.
Nie ma RH Voice’a na iOS-a, ale możemy sobie
w ten sposób czytać
…RH Voice’em. Chcemy czytać jakąś inną syntezę, której nie ma?
Też się da. I teraz jeszcze ktoś mógłby się zapytać,
okej, ale ile to mi czasu wszystko zajmie?
Testowałem to na dwóch książkach i muszę powiedzieć, że
no, chwilę to trwa. Przygotowanie samej książki
z użyciem balabolki, to jest tam kilka minut,
Natomiast przekodowanie tego pliku mp4 z fmpegiem, żeby jeszcze dodać do tego ten element graficzny,
dodać ten obrazek, no to już wtedy trwa nieco dłużej. I to trwa nawet kilkanaście minut.
Albo nawet i kilkadziesiąt. Ja sobie to po prostu wrzucam w tło i to się przerabia i to sobie pracuje gdzieś tam w tle.
…i to w żaden sposób procesora nie obciąża, aczkolwiek jeżeli ktoś ma np. starszy komputer, to może być to dla niego jakoś uciążliwe i dotkliwe.
Że mu coś tam pracuje, konwertuje i to się koduje i po prostu procesor jest za nadto obciążony.
Potem wysłanie takiego pliku na YouTube’a, no to już w zależności od naszego łącza.
Ja teraz mam na przykład taki plik, który sobie ostatnio w ten sposób przetworzyłem.
On zajmuje około 800 megabajtów.
I to jest cała książka, która w audio pokazuje mi YouTube, że to tam ma czasu chyba, nie wiem, 3,5 godziny albo 4.
Więc to są tego typu rozmiary. No też jeżeli ktoś ma na przykład wolne łącze, to trzeba się z tym liczyć,
że będzie to dość powolny proces. Natomiast jest to coś, co działa.
Prawdopodobnie mało osób będzie chciało się w to bawić, ale mi to się naprawdę podoba takie rozwiązanie, sprawdza się.
Oczywiście jeżeli ktoś na przykład zna jakieś narzędzie, dzięki któremu można by było sobie to robić lokalnie,
dzięki któremu można by było sobie właśnie tego typu usługę postawić we własnym zakresie,
To bardzo chętnie też poznam, bo być może będzie to jeszcze coś lepszego i coś, co będzie jeszcze sprawniej działało i będzie na przykład oszczędniejsze, jeżeli chodzi o internet, bo też trzeba pamiętać, że no, żeby nam to wszystko działało, to musimy być cały czas podłączeni do internetu, żeby ta synchronizacja następowała, to po prostu to cały czas się strumieniuje, więc gdzie byśmy tam nie byli, to musimy korzystać z oglądania
…słuchania tego filmu, czyli słuchania tej naszej książki de facto po prostu w streamingu.
Jeżeli ktoś na przykład będzie chciał pobrać sobie taki plik i przeczytać jakiś tam dłuższy fragment w pociągu,
no to niestety obawiam się, że może być z tym problem, bo jak dobrze pamiętam, to nie synchronizuje się czas.
YouTube nie jest na tyle inteligentny, żeby na przykład jeżeli pobierzemy sobie dany plik,
I to jakoś tam potem zdalnie synchronizować sobie ten czas z tą wersją strumieniowaną i sobie to wszystko łączyć.
Więc to jest takie ograniczenie tego narzędzia, ale działa, więc się dzielę.
Podejrzewam, że nawet coś, co by było lepsze niż to rozwiązanie, które masz teraz, Michale, nie musiałby być nawet hostowany na swoim serwerze.
Wystarczy, że tańsze byłoby niż YouTube Premium, jeżeli ktoś go nie ma i musiałby go kupić specjalnie po to.
Albo wystarczy, żeby nie trzeba było dokładać tej warstwy graficznej, bo to już na pewno będzie odpowiadało za zmniejszenie objętości pliku i za zmniejszenie czasu potrzebnego na przygotowanie tego materiału.
Oczywiście, że taki tu Paulino. Dobrze, że zwróciłaś na to uwagę.
Zdecydowanie warto mieć YouTube Premium, żeby to wszystko działało, bo po prostu jeżeli będziemy słuchać sobie takiej książki na odblokowanym ekranie cały czas,
Teraz to obawiam się, że bardzo szybko nam po prostu bateria siądzie w naszym urządzeniu, a tego byśmy nie chcieli.
Także to rzeczywiście słuszna uwaga. YouTube Premium to jest coś, co zdecydowanie warto mieć.
No bateria, bateria, ale chyba nawet synchronizacja jest w ramach właśnie usługi Premium, po prostu, w sumie i definicji.
Nie, nie, nie, nie.
Okej, no to jeżeli tak, no to dobra.
Znaczy ja mogę polecić jedną rzecz, jeśli chodzi o dodawanie tego obrazu, żeby się nie bawić w FFmpega,
to znowu tutaj hiszpańska społeczność przychodzi z pomocą, no bo jest program TCA Video Creator.
I on właśnie służy do tego, żeby w w miarę prosty sposób dokładać warstwę obrazowkową do materiału audio.
Właśnie pod tym kątem, żeby to się ładnie potem wrzuciło na YouTube’a.
Były też strony do tego, no ale wrzucanie takiego dużego materiału na stronę
pewnie znowu dokłada nam trochę roboty.
No i co mogę jeszcze powiedzieć?
Ja nie pamiętam teraz, jak się to rozwiązanie nazywało,
ale kiedyś Mikołaj Hołysz jeszcze, jak z nami tutaj gawędził,
to wspominał o tym, że jest takie rozwiązanie,
Właśnie jakaś taka biblioteka audio z opcją synchronizacji właśnie, która ma też jakąś appkę, tylko trzeba to stawiać samemu na jakimś swoim serwerze.
A to myślę, że trzeba by się było z Mikołajem gdzieś jeszcze tutaj porozumieć i rzeczywiście może by przypomniał to…
Sonic? Coś tam Sonic. Super, nie Super Sonic. Coś z Sonikiem. Już teraz…
Ale jest to, ale jest to rzeczywiście, no tu wtedy odpadłoby nam, odpadłaby nam konieczność
gdzieś tam konwertowania tego do, tego materiału z obrazkiem, bo rzeczywiście trzeba by było i tak te książki,
obawiam się, przerabiać sobie balabolką na wersję audio, natomiast rzeczywiście, no to byłoby coś prostszego.
Też jeżeli chodzi o tego Fmpega, to ja też myślę, że nie ma się go co aż tak bardzo bać,
…bo wystarczy sobie stworzyć takie jedno polecenie, a potem tylko po prostu do wiersza poleceń je wklejać.
Ewentualnie zmieniając nazwę pliku, którą sobie tam chcemy przetworzyć.
Więc jest to bardzo, bardzo proste.
No ale oczywiście, jeżeli ktoś nie ma doświadczenia z wierszem poleceń, to będzie to dla niego nawet i w takiej bierze kłopot.
Odbieramy telefon, bo ktoś do nas się dodzwonił.
A kogo witamy po drugiej stronie?
Cześć Marku, słuchamy.
Chciałbym… Ja tutaj przychodzę z prezentacją jednej rzeczy.
Mianowicie, chciałbym pokazać mówiący zegarek
naręczny z Alpixu. Nowy model.
Jako kupiłem za 119 zł.
Ale teraz cena jest trochę wyższa. 139 kosztuje.
No i on jest wykonany ze stali.
Ma dwa przyciski i koronkę do ustawiania wskazówek.
No i go teraz zaprezentuję w sumie.
A ten zegarek mówi jak rozumiem, tak?
Tak, tak, to jest mówiący.
Jak się drugi raz naciśnie przycisk po lewej stronie, bo ma dwa przyciski.
Po lewej stronie jest przycisk do godziny i do daty.
Po środku jest pokrętło do mechanizmu tego wskazówkowego.
A po prawej jest do ustawienia.
No to jeszcze raz nacisnę ten do godziny.
Jest dwudzieścia, dwudzieścia siedem.
Dwudzieścia, dwudzieścia wtorek.
Jeszcze są ustawienia tego zegarka.
Przyciskiem po prawej stronie.
A przyciskiem po lewej stronie się zmienia ustawienia.
No i na przykład na alarmie pokażę.
I jeszcze jest raport godzinowy.
I tak samo.
Teraz jest wyłączony.
Teraz jest włączony. I od 7 do 22 bodajże to jest ustawione.
Ten zegarek to jest, mam wrażenie, bardzo podobne urządzenie do tego, co wczoraj u nas na antenie pokazywał Robert Łabęcki.
Tylko to jest taka przenośna wersja tego zegarka.
No to jest, co ja mam, to jest na rękę.
No właśnie, właśnie, taka, gdzie możesz ten zegarek zabrać wszędzie, to się zgadza.
No tak, tak. No i ja go kupiłem w 2021 roku w sumie.
No i dzisiaj byłem właśnie u zegarmistrza, żeby baterię zmienić, bo już była zużyta.
Jak rozumiem, jesteś po wymianie baterii zadowolony, nadal?
No na razie tak, na razie tak. Zobaczymy jak długo działa.
I ta bateria Ci do teraz tak naprawdę służyła, tak? To pierwsze.
Nie, to już parokrotnie była wymieniona właśnie, bo często był używany, wiadomo.
No i właśnie mam teraz wymienioną obydwie, bo tam wchodzą dwie baterie ogólnie.
Jedna do wskazówek, druga do tego mechanizmu umującego.
Co do tego zegarka, co mam, to w sumie tyle.
I jeszcze takie sprostowanie, bo pytałem dzisiaj zegarmistrza
Podnośnie tego mechanizmu płynącego, czy niby jest lepszy, czy nie, to zegarmistrz powiedział,
że czy mechanizm płynący, czy mechanizm wskazówkowy, to jest zarówno te jeden i drugi, to jest kwart,
więc nie ma to za bardzo znaczenia, czy jest płynący, czy nie płynący.
Nie da się po prostu ocenić, czy jest lepszy czy nie. To jest tak samo. Tylko ten mechanizm płynący baterię zużywa szybciej.
Tak chciałem sprostować.
Dziękuję, pozdrawiam.
To ja tylko jeszcze się wetnę szybko. Ja, Michale, sprawdziłem
tutaj, bo mi się przypomniało te różne serwery do audio.
To, o czym mówił Mikołaj, nazywało się Subsonic.
Subsonic. A to trzeba będzie też przetestować.
Natomiast jest też różne warianty na temat. Jest Airsonic, bo tam
jakieś zawirowania, że raz było open source, potem zostało zamknięte.
Więc jest Subsonic, Airsonic, jest coś, co się nazywa Navidrome, Navidrome.
Przez V, Navidrome.
Jest też inne rozwiązanie, Jellyfin, też takie dość popularne, słyszałem o tym.
Więc trzeba po prostu zrobić jakiś research, jak chodzi o serwer, dostępne
klienty, czy na iPhone, na Windowsie, jak to zrobić.
Wiem, że tam też jakieś DLNA jest wspierane.
Ja Jellyfinie to słyszałem bardziej w kontekście wideo nawet, bo to chyba ludzie
z tego się zaczęli przesiadać, jak Plex coś zaczął robić.
Wszystkie multimedia wchodzą. Właśnie Airsonic też wideo, ale czy tam Subsonic,
Ale audio też. I ponoć właśnie NaviDrone na pewno wspiera to, że w przeglądarkowa wersja, bo to można też w przeglądarce słuchać,
wspiera te zakładki, czyli pamiętanie gdzie skończyliśmy i tam synchronizację. Tylko trzeba też sprawdzić, żeby klienty trzecie na różnych platformach to też obsługiwały.
Więc jest co sprawdzać w międzyczasie.
No to będzie co testować.
I mamy jeszcze jedną wiadomość. Znaczy w zasadzie pierwszą wiadomość, bo wcześniej był telefon.
A teraz wiadomość głosowa od Sylwestra, to jeszcze à propos poprzedniej audycji.
Słuchajcie chłopczy, Mac, ten Mac Mini wylądował u Rafała Bielaskiego,
ten co kanał prowadzi w serwisu urządzeń aploskich.
Niestety, wylądował tam mój Mac i okazało się, że układ audio i procesor dźwięku jest uszkodzony,
Jest uszkodzony procesor dźwięku, tak. Jeszcze on się dopatrzył, że układ po to obrazu i wideo jest uszkodzony. Także nie wiem jakie to będą koszta. To tyle do was mam. Pozdrawiam was i dobrego prowadzenia audycji.
No to sporo tam uszkodzeń w tym komputerze, to obawiam się, że niestety koszty mogą być niemałe.
Nie małe, to prawda, także no, ale no tutaj widać, że to jest rzeczywiście sprzętowe jakieś uszkodzenie.
Dziękuję Wam oczywiście.
Tak, to teraz pierwsza beta NVIDIA 2025 została wydana.
Tak jest i to jest dosyć duża aktualizacja, no zresztą na numerek nawet może nam to
No bo to jest pierwsza aktualizacja roku 2025, a co za tym idzie też mamy wiosenne sprzątanie w dodatkach.
To tak tradycyjnie, jak już mamy taką dużą aktualizację, no to z tymi dodatkami będzie różnie.
Natomiast jeśli chodzi o samą aktualizację, to poza tym, że nam może niektóre dodatki popsuć,
przynajmniej zanim deweloperzy tych dodatków je naprawią, to przynosi nam dużo dobrego.
I NV Access na swoim blogu chwali się, że w tej aktualizacji zostało zamknięte około 555 zgłoszeń.
Czyli takie zgłoszenie to może być raport błędu, to może być jakaś sugestia kodu źródłowego,
którą ktoś zaproponował ze społeczności.
A trochę tutaj takich ciekawych rzeczy od społeczności w tej wersji się znalazło.
Jakich? No to zaraz będziecie mogli się dowiedzieć.
Tradycyjnie jest to wiersza wersja beta, co znaczy tyle,
Jeśli macie wersję Stabilo w tym momencie zainstalowaną,
to nie jest tak, że Wam się to od razu zaktualizuje i Wam się dodatki popsują.
Gdybyście chcieli sobie tę wersję przetestować,
no to musicie sobie ręcznie wejść na stronę nvacess,
ewentualnie skorzystać tutaj z tej strony, o której kiedyś mówiliśmy,
czyli nvda.zip. I tu sobie na przykład można wpisać nvda.zip, ukośnik beta
i wtedy od razu Wam się ten plik instalacyjny dla tej wersji zacznie pobierać.
Wtedy można albo tą wersję, którą mamy zainstalowaną, zaktualizować, wiadomo, wtedy podejmując ryzyko ewentualne, jeśli chodzi o jakieś dodatki, lub sobie stworzyć taką wersję przenośną, którą możemy sobie równolegle testować.
Nie ma z tym problemu, jakby ktoś ją zobaczyć, ale jednocześnie, nie naruszając waszej takiej codziennej instalacji NVDA, można to bez większych problemów zrobić.
A to nam ta aktualizacja przynosi. No to zacznijmy może od takiej informacji skrótowej.
To wydanie zawiera MVDA Remote Access, które, jak się można domyślić, po prostu wciela dodatek MVDA Remote do samego MVDA,
więc już nie będziemy musieli go sobie pobierać ręcznie. Każda jedna wersja MVDA, którą sobie ściągniemy od tej wersji 2025.1
po prostu będzie odrozumiała to wsparcie dla zdalnego dostępu w zintegrowane.
Poza tym mamy wiele poprawek, jeśli chodzi o mowę, zwłaszcza w kontekście
responsywności syntezatorów SAPI 4, SAPI 5 oraz OneCore.
Mamy też wsparcie dla podkręcania mowy i automatycznej zmiany języków dla SAPI 5.
Natomiast te głosy SAPI-4 wspierają złagodzenie dźwięku
i mamy też wycinanie ciszy z mowy,
bo to niektóre syntezatory do każdego komunikatu dodają kilkasetnych sekund ciszy,
no może trochę mniej, ale dodają trochę ciszy i to powoduje, że po prostu nam się wydaje,
że ten syntezator konkretny jest mniej responsywny, a tak naprawdę on po prostu…
Nie wiadomo czemu do tych plików dodaje ciszę na początku.
I też ten sterownik
SAPI 4 wspiera
nie usypianie urządzenia audio, co się pewnie przyda użytkownikom
słuchawek bluetooth, którzy lubią głosy SAPI 4, no bo po prostu te
słuchawki, czy tam karty dźwiękowe na niektórych laptopach nie powinny nam
się ucinać tam dźwięku.
Sklep z dodatkami jest teraz
w stanie automatycznie się aktualizować.
Możemy też zdecydować jakiego kanału aktualizacje będą instalowane i jesteśmy
też w stanie automatycznie włączyć, wyłączyć automatyczne odświeżanie OCR lub
jeśli mamy to automatyczne odświeżenie wyłączone ręcznie wyłożyć,
ręcznie wymusić, przepraszam, odświeżenie.
Poza tym mamy natywne zaznaczanie From jej Edge’u, poprawki w aplikacjach biurowych, zarówno Microsoft Office, jak i LibreOffice.
Automatycznie MVDA będzie nam wybierał tablicę brakdawską odpowiednią dla naszego języka po instalacji.
Mamy wsparcie dla wielowierszowego monitora DotPad.
I mamy też mniejsze poprawki w braillu, mamy aktualizację bibliotek, ale myślę, że tutaj już możemy przejść do czytania tych wszystkich nowości.
I teraz jeśli chodzi o nowe funkcje, najpierw mamy sklep z dodatkami.
No właśnie, możemy zdecydować czy kanał aktualizacji dla konkretnych dodatków, więc jeśli nie chcemy, żeby nam dodatek jakiś aktualizował się do wersji beta, to możemy to zdecydować.
Właśnie chcemy wersję beta dostawać, no to można sobie tak to ustawić.
Dodatki mogą nam się automatycznie aktualizować w tle,
więc podobnie jak np. w przeglądarkach, które same nam wszystkie wtyczki aktualizują,
no to teraz MVDA też nam może tak dodatki aktualizować.
Co za tym idzie też Joseph Lee już potwierdził, że nie będzie już zupełnie potrzebna wtyczka addon updater,
no bo po prostu te wszystkie funkcje, które ta wtyczka nam dawała, zostały zintegrowane z MVDA
i tam ostatnia aktualizacja, jaka ma się pojawić,
Po prostu będzie użytkowników tych nowszych wersji o tym informować się.
No i też te automatyczne aktualizacje będą w stanie aktualizować dodatki,
które zostały wyłączone z powodu niekompatybilności.
Więc jeśli mamy jakiś dodatek zainstalowany, który nie działa i czekamy,
żeby jego developer go zaktualizował,
no to MVDA nam może automatycznie taką aktualizację wykryć.
Mamy też przycisk do anulowania instalacji, gdyby nam coś się zawiesiło,
…bo pobierało się za długo.
Mamy też przycisk ponów, gdyby nam ta instalacja z jakiegoś powodu się nie powiodła.
Właściwie pobieranie, gdyby nam np. internet zerwał, no to możemy ponowić to pobieranie.
Lista dodatków może też być sposortowana po różnych kolumnach, m.in. podacie publikacji,
zarówno w kolejności rosnącej lub malejącej, a to może być fajne np. żeby sobie zobaczyć co nowego się pojawiło
w sklepie z dodatkami.
Następnie mowa, tak jak wspomniałem,
automatyczna zmiana języków jest
teraz wspierana w syntezatorze
SAPI5 oraz Microsoft
Speech Platform.
I tak samo w przypadku głosów SAPI5
i Microsoft Speech Platform jest też
wspierane podkręcanie szybkości,
czyli tutaj mamy niezależne
podkręcanie szybkości.
Jeśli jakiś syntezator nam się podoba,
ale mówi za wolno, no to
Możemy sobie tą jego prędkość jeszcze podkręcić, coś co na przykład użytkownicy z EDS-era znają, no to MVDA teraz też takiej funkcji się doczekał.
Poza tym, tak jak wspominałem, przez to wycinanie cichszej wiele syntezatorów też powinno znacznie przyspieszyć.
Następnie przeglądarki i w przeglądarkach mamy taką też bardzo fajną informację.
Natywny tryb zaznaczania w przeglądarce, czyli to jest MVDA Shift F10,
Jest teraz wspierany w Google Chrome, Edge’u i innych przeglądarkach bazujących na Chromie, Chromium nawet, 134 i nowszym.
Co dla nas to znaczy? Natywne zaznaczanie pozwala nam zaznaczać tekst na stronach internetowych z całym formatowaniem.
Podobnie jak zaznaczamy w MVDA, to po prostu nam się tak naprawdę kopiuje czysty tekst.
Natomiast jeśli w tekście są np. jakieś linki, jakieś nagłówki, jakieś zmiany czczące, jakieś obrazki, które chcielibyśmy przekleić np. do dokumentów w Wordzie,
no to one nam się nie przeniosą, mimo to, że gdyby osoby widzące ten sam kawałek zaznaczyły, no to te wszystkie elementy, te linki, te obrazki się by przeniosły.
Z drugiej strony to naprawdę bardzo fajnie, że można zaznaczać na dwa sposoby,
Tak.
Bo wbrew pozorom, to czasem to formatowanie tekstu absolutnie nie jest pożądane, żeby się przenosiło razem z tym zaznaczeniem.
Czasem potrzeba po prostu skopiować tekst i dobrze, że tu dalej to domyślne zaznaczanie działa w taki właśnie sposób.
Tak, to też nic myli użytkowników. To może być o tyle istotne, gdybyśmy na przykład cytowali jakieś fragmenty tekstu i wtedy trzeba też patrzeć na czcionkę.
Tak, bo ta czcionka może być znacznie różna od reszty naszego tekstu,
więc faktycznie w takiej sytuacji lepiej sobie to kopiować po prostu jako czysty tekst.
Natomiast w sytuacji, gdybyśmy chcieli sobie tak coś skopiować…
A, jeszcze jedno zastosowanie tabelki. Tak można łatwo przenosić np.
ze stron do Excela. Więc tutaj też w takiej sytuacji, co się nam może przydać,
no to wystarczy nacisnąć m-shift F10 i po prostu zaznaczać normalnie z shiftem.
I jak już ten tekst skopiujemy, no to to formalizowanie po prostu powinno się zachować.
Jeśli użyjemy skrótu…
A nawet nie tylko jeśli użyjemy skrótu, ale podczas nawigacji po linkach MVDA może nas teraz informować, jeśli link prowadzi do tej samej strony, czyli mamy tak zwane te linki wewnętrzne.
Joston odzywał linkami do tej samej strony, MVDA do tej pory nie mówił nic.
Natomiast teraz taka funkcja się po prostu pojawiła, więc jeśli np. czytamy jakiś podręcznik,
czy jakiś artykuł, gdzie na górze jest spis treści, no to po prostu będziemy wiedzieć,
że jakiś link niekoniecznie zaprowadzi nas do innej strony, tylko po prostu przeniesie nas
na inne miejsce na tej stronie, na której jesteśmy.
Następnie Office i w Office tutaj mamy na przykład taką informację.
Podczas edycji fulltekstowych w PowerPoint’cie możemy nawigować się po zdaniach
używając skrótów Alt-strzałka w górę, Alt-strzałka w dół.
W Wordzie, jeśli użyjemy poleceń zaznaczania przez skrótami F8 i Shift-F8 w Wordzie,
żeby na przykład zaznaczyć jakiś blok tekstu, no to MVA nas poinformuje
o zmianie w wielkości tego zaznaczenia.
W Wordzie 16.0.0…
tutaj mamy taki konkretny numer wersji Worda i wyższych.
Oraz kiedy używamy trybu Object Model, czyli tego starszego trybu do korzystania z Worda.
MVDA będzie nas informował, jeśli nagłówek jest zwinięty
zarówno używając mowy i brajla.
W Wordzie używając trybu UIA, to jest ten nowszy, bardziej responsywny tryb.
Jeśli używamy natywnych wordowskich poleceń do nawigacji po tabelach,
to jest alt-home, alt-end, alt-page-up i page-down.
MVE po prostu nas będzie informował o tym,
gdzie nasz kursor się znajduje po użyciu jednego z tych skrótów.
Jeśli użyjemy polecenia, tutaj cały czas mówimy o Wordzie, polecenia
przeczytaj punkt uwagi, czyli to jest MVDA tab.
Jeśli ta informacja jest dostępna, MVDA poinformuje nas o tym, jaki
mamy wybrany układ dokumentu i jeśli raportowanie opisów obiektów mamy
w ustawieniach MVDA włączone.
Stan większej ilości skrótów będzie teraz raportowany zarówno w Wordzie
I w Outlooku m.in. są to skróty związane z ściągką i formatowaniem oraz zwiń, rozwiń na główek.
Następnie LibreOffice, bo tutaj też mamy kilka zmian.
Jeśli zmieniamy rozmiar ściągki w aplikacji Writer skrótami klawiszowymi, no to MVDA będzie teraz informował nas o aktualnym rozmiarze tekstu.
Jeśli zastosujemy styl na jakimś akapicie, np. styl na główka, skrótem klawiszowym w Writerze 25.2 lub nowszym, no to też MVDA po prostu nas o tym poinformuje.
Podobnie jeśli przełączamy podwójne podkreślenie, też po prostu będziemy o tym poinformowani.
I MVDA poinformuje nas o pierwszym wcięciu linii w rajterze 25.8 tym razem.
Następnie OCR. Jeśli przeglądamy wynik OCR, możemy wymusić odświeżenie tego rozpoznania skrótem MVDA F5.
Także jeśli na przykład właśnie oglądamy jakiś ekran komputera, a mamy to automatyczne odświeżenie wyłączone,
bo nie chcieliśmy, żeby nam jakieś zmiany od razu się tam pojawiały,
no to możemy po prostu wtedy ręcznie sobie tą zawartość odświeżyć.
I a propos tego automatycznego odświeżania, to możemy sobie dodać
do jego przełączenia skrót, gdybyśmy często chcieli je włączać lub wyłączać.
Natomiast to polecenie jest domyślnie nie przypisane do żadnego klawisza,
więc jeśli chcecie z tej funkcji korzystać, no to musicie sobie po prostu
skrót w ustawieniach MVDA dodać.
Wsparcie do zdanego dostępu na podstawie dodatku MVDA Remote zostało z MVDA
zintegrowane, tak jak wspominalem ułyłem.
Tak, jeden element na liście zmian, który tak naprawdę tak dużo zmian w kodzie
wprowadził. No ale właśnie, mamy ten zdany dostęp teraz po prostu wbudowany.
Możemy podać alternatywne źródła.
w których MVA będzie sprawdzać dostępne aktualizacje zarówno samego MVA, jak i
dodatków. To się pewnie może przejdzie w jakichś środowiskach korporacyjnych.
Wiem, że też chyba chińska społeczność z tego korzysta, no bo po prostu te ich
serwery są pewnie trochę szybsze, tak się domyślam.
Mamy wsparcie do równań matematycznych w plikach PTF.
M.in. działa z wyrażeniami, które mają też zaimplementowane w kod mat.ml.
M.in. niektóre pliki wygenerowane nowszymi wersjami narzędzi do Latecha.
W tym momencie jest to wspierane wyłącznie w aplikacji Foxit Reader oraz Foxit Editorial.
W sumie nawet nie wiedziałem, że Foxit Reader jest dostępny.
Może to być ciekawa alternatywa dla Adobe Reader’a, nie wiem.
Ja pamiętam Foxy Reader’a jako coś, co zawsze się odinstalowało,
jak ta aplikacja przychodziła z laptopa.
No ja tak samo, to było totalnie niedostępne, więc jeżeli coś się poprawiło, to fajnie.
No to może być warto sprawdzić, zwłaszcza że na razie ta obsługa matematyki jest właśnie tylko tam dostępna.
Co mamy dalej?
MVVA może być teraz skonfigurowany tak, żeby automatycznie mówił bieżącą linię lub akabit podczas nawigacji z monitora Braille’owskiego.
No to jest też fajna rzecz, więc po prostu jeśli sobie monitor przewijamy, same monitory, jeśli mamy jakiś monitor, który ma zarówno mowę i Braille,
no to pozwala nam skonfigurować go tak, żeby też nam synteza czytała, to niektóre czynniki ekranu też takie funkcje mają.
VoiceOver na Macu to po prostu robi, no i teraz MVDA też możemy sobie w ten sposób skonfigurować.
MVDA jest w stanie informować nas o pozycji kursora po naciśnięciu skrótów Alt-
ściałka w górę lub w dół, i na przykład to jest przydatne w Visual Studio Code.
Dodano polecenia, żeby przenieść kursor podglądu, czyli w tym trybie podglądu,
tutaj nawet nie tyle o nawigacji obiektowej,
żeby przenieść kursor do pierwszego lub ostatniego znaku zaznaczonego tekstu.
Domyślnie są one przepisane do MVA at home oraz MVA at end.
Dodano ogólne ustawienie, aby zapobiec usypianiu wyświetlacza
podczas czytania wszystko lub czytania monitorem braille’owskim.
Opcja jest domyślnie włączona, ale może, może spowodować zwiększone zużycie baterii.
No ale faktycznie, jeśli przewijamy ciągle monitor, no to raczej nie chcemy, żeby nam
komputer usnął, żeby nam się ekran wyłączył, no bo to faktycznie może nam to czytanie
przerwać, no i spowodować kolejne problemy.
NVDA został przetłumaczony na język bośniacki.
I to wszystko, jeśli chodzi o takie duże zmiany, natomiast nowości właściwie, a teraz mamy zmiany.
Aktualizacji komponentów. I tak na przykład się zaktualizował LibreWiz do wersji 3.30.
I to nam dodaje kilka nowych tablic brajdowskich.
Mamy zaktualizowaną definicję znaków Unicode, czyli po prostu MV będzie w stanie rozpoznawać nowe emoji, które się ostatnio pojawiły.
To zostało zaktualizowane do definicji w wersji 47.
InSpeak NG się zaktualizował również do wersji 1.52.
Zmiany w interfejsie NVDA.
Instalator NVDA nie będzie już odgrywał dźwięku przy starcie.
To jest spowodowane zmianami w systemie dźwięku.
NVDA po prostu teraz korzysta z technologicznych implementacji.
Natomiast zanim ten instalator się załaduje,
to nie jest możliwe odważanie dźwięków.
Z jednej strony wiele osób ten dźwięk irytował,
z drugiej strony zdarzało mi się MVDA instalować
na naprawdę wolnym sprzęcie,
które czasami potrzebowało dobrych pół minut, żeby się odpalić.
I ten dźwięk w pewnym sensie mi informował,
że udało mi się ten instalator chociaż uruchomić na przykład.
A teraz będziemy musieli poczekać do momentu,
kiedy ten instalator załaduje się na tyle,
że po prostu MVVA zacznie do nas mówić.
No ale z drugiej strony, jak ktoś tego dźwięku nie lubił, no bo on był specyficzny, był bardzo długi,
ja za samym dźwiękiem też akurat nie przepadałem, no to po prostu go teraz już nie będzie.
Teraz okienka dialogowe, w których czytamy adres linku,
informacje o formatowaniu oraz jeśli nacisniemy kilka razy funkcję
przeczytać zaznaczenie, mają teraz przyciski zamknij i kopiuj, więc możemy łatwo, nie używając
Ctrl-C, zawartość tych informacji trzeba by skopiować do schowka.
Okienko zamykania MVDA ma nową funkcję, która pozwoli nam zarówno zrestartować MVDA z wyłączonymi
dodatkami oraz z maksymalnym logowaniem włączonym, co może nam pomóc znaleźć jakiś błąd, np.
Jeśli coś działa nam nie tak, to MVDA będzie wtedy więcej informacji zapisywał.
Opcja wyłączenia Wasapi do obsługi dźwięku została wyłączona.
Generalnie znaczy to tyle, że MVDA teraz wspiera wyłącznie to najnowsze API
Windowsa do obsługi dźwięku, która generalnie jest bardziej responsywna
i pozwala deweloperom zrobić więcej rzeczy po prostu dłużo starego kodu.
Dzięki temu mogło zostać usunięte.
Ma to też wpływ właśnie na dodatki, głównie przez to wiele syntezatorów
będzie musiało zostać zaktualizowane, co pomału się dzieje.
Wiem, że RHA Voice już doczekał się np. pierwszej wersji beta, która tą
najnowszą wersję MVDA wspiera, ale z innymi syntezatorami może być różnie.
To może trochę czasu zająć.
Opcja w trybie przeglądania automatycznie ustawia punkt uwagi na elementy, które
Mogą przyjmować punkt uwagi. Została usunięta i wyłączona.
To jest temat, który podzielił społeczność.
To jest funkcja, która faktycznie często powodowała problemy,
więc dużo osób ją wyłączało, bo np. na Facebooku to powodowało
i na innych skomplikowanych stronach, że Focus nam czasami lubił
skakać i uciekać, ale były też sytuacje, w których to się mogło przydawać.
Generalnie teraz to wygląda tak, że Focus synchronizuje nam się
Tylko wtedy, kiedy ręcznie włączymy tryb formularzy,
np. naciśniemy, nie wiem, Enter, albo Tab, albo menu kontekstowe,
wtedy MVI będzie wiedział, żeby nam ten focus przenieść.
Natomiast ma to też wpływ na przewijanie strony,
co nie zawsze ponoć działa dobrze.
Tutaj dużo osób zgłaszało uwagi do tego, natomiast ludzie z MVX-u stwierdzili,
że po prostu to jest zbyt skomplikowane, żeby ten kod utrzymywać
I oni po prostu go usuwają i to jest decyzja, tutaj cytując Huberta Ubalińskiego,
ostateczna i definitywna, no i żadne uwagi społeczności tutaj nie pomogły.
Po prostu tej opcji już nie ma.
MVDA będzie informował nas o ostrzeżeniach związanych z niekompatybilnością
tylko wtedy, kiedy zmieniła się wersja API,
czyli generalnie po prostu tych ostrzeżeń będziemy dostawać mniej
i ona powinna się pojawiać tylko w sytuacji,
kiedy faktycznie mogą jakieś problemy z kompatybilnością się pojawić.
Polecenie…
Lista osób, które jakoś przyłożyły się do projektu,
lista kontrybutorów została z menu pomoc przyjęta,
to też jest po prostu w innych miejscach dokumentacji.
Licencja MVDA jest teraz dostarczana jako plik HTML,
dzięki czemu jest po prostu łatwiejsza w czytaniu.
Zostały dodane krótsze wersje niektórych przełączników,
jeśli uruchamiamy NVDA z wiersza poleceń.
Może już nie będę czytał konkretnie, jakie te funkcje się pojawiły.
Jak ktoś tego potrzebuje, to sobie myślę, że może doczytać.
Miałamy też zmiany w narzędziunaprawiającym.com.
To jest coś, co czasami możecie przydać,
gdyby nam coś źle było czytane w ofisie na przykład.
Następnie, jeśli chodzi o poprawki w mowy,
głosy SAPI5 i Speech Platform teraz wykorzystują Wasapi,
dzięki czemu powinny być bardziej responsywne.
Mamy to usuwanie ciszy, o którym już wspominałem,
właśnie w SAPI5, Speech Platform i też w niektórych
sensatorach firm trzecich.
Głosy SAPI4 też teraz korzystają z Wasapi
Dzięki temu też mają dostęp do zwagodzania dźwięku, do wycinania ciszy i innych nowości.
Gdyby ta funkcja nam nie działała z naszym konkretnym głosem SAPI 4, a takie głosy się czasami ponaddarzają,
no to w ustawieniach zaawansowanych możemy to dla SAPI 4 wyłączyć.
Normalizowanie znaków Unicode jest teraz domyślnie włączone.
To jest ta funkcja, która pozwala Emilii czytać takie inne wersje liter,
które są często używane, żeby coś podkreślić, jakieś nawet cyfry,
które wyglądają jak klawisze, dzięki czemu są większe,
jakieś takie pogrubione matematyczne wersje liter,
które często ludzie na mediach społecznościowych lubią wykorzystywać,
właśnie żeby wyróżnić jakiś tekst w miejscach,
gdzie formatowanie tak raczej nie jest wspierane,
Efektem ubocznym czego właśnie było to, że czytniki ekranu po prostu ich w ogóle nam często nie czytały, a dzięki temu MVDA je przeczyta.
Ustawienia dla czytania pisanych znaków i słów mają teraz trzy opcje.
Wyłączone, tylko w polach edycji i zawsze. Czyli tutaj mam kolejny dodatek, który w pewnym sensie został wcielony do MVDA, bo był wcześniej do tego osobny dodatek, nawet dwa chyba.
Teraz po prostu te dodatki już nie będą potrzebne.
To jest też bardzo fajna rzecz.
VoiceOver tak robi nam akurat dawna.
Narrator też. ZDSR takiej funkcji się niedawno doczekał i teraz MVDA również.
Jeśli ktoś lubi, żeby np.
były czytane wpisywane znaki, ale tylko w polach edycji, a w innych miejscach
was to irytuje, no to teraz można MVDA sobie w ten sposób skonfigurować.
I zresztą na nowych instalacjach domyślnie echo wpisywanych znaków będzie teraz
MVDA jest domyślnie ustawione właśnie tak, żeby było włączone tylko w polach edycji.
MVDA teraz domyślnie ustawi tablice brailowskie na podstawie języku MVDA.
I mamy poprawki błędów, których też jest dużo.
Poprawiono, że funkcja czytaj wszystko, co mi się zatrzymywało z niektórymi głosami SAPI 5.
Jeśli zmieniamy
Jeśli zmieniamy głos, używając skrótów pomiędzy różnymi głosami SAPI5 i SAPI4,
inne parametry takie jak szybkość i głośność już nie będą się nam resetować
do domyślnych wartości.
Poprawiono błąd, że niektóre głosy SAPI4 po prostu się nie ładowały,
np. chińskie głosy IBM via Voice Braille.
Mamy natywne wsparcie dla monitora wielowierszowego dotpad,
nawet właściwie monitora graficznego.
Mamy poprawki dla monitorów Seika,
których oficjalnie w Polsce nie ma,
ale generalnie tam po prostu niektóre skróty kawiszowe zostały poprawione.
MVDA nie powinien już wydawać siebie dźwięku błędu
i zasypywać logu błędami.
Jeśli przełączyliśmy Braille’a na tryb Historia Mowy, ale nie mamy podłączonego monitora braille’owskiego.
Kiedy wybierzemy na liście standardowy monitor braille’owski HID i klikniemy OK,
to MVDA nam po prostu będzie teraz wyświetlał konkretny model wykrytego monitora braille’owskiego,
zamiast cały czas pokazując, że żaden monitor nie został wykryty.
To powinno być bardziej czytelne.
Sterownik dla monitorów HumanWare jest teraz lepiej w stanie inteligentnie wybrać odpowiedni tryb połączenia,
dzięki czemu praca tych monitorów powinna być po prostu bardziej stabilna i nie powodować błędów.
Niestandardowe tablice brailowskie w katalogu Scratchpad są prawidłowo ignorowane,
Jeśli uruchamiamy, mówili, jest wyłączonymi dodatkami.
Następnie poprawki w Office.
Polecenie, czytaj, podaj adres linku.
Teraz działa prawidłowo w Wordzie i Outlooku, jeśli korzystamy z trybu Object Model,
czyli tego od starszego do pracy z Office’em.
W Excelu okienko lista elementów.
Już wyświetla prawidłowo wszystkie komentarze
i działania, funkcje na systemach innych niż angielskie.
No to myślę, że istotna zmiana.
Poprawki w PowerPoint-cie.
Raportowanie, gdzie jest kursor, powinno działać prawidłowo,
jeśli w tekście są jakieś znaki emoji na przykład.
I.N.V.E. już nie powinien automatycznie uruchamiać czytania wszystko, kiedy uruchamiamy pokaz slajdów, a w ustawieniach trybu przeglądania mamy włączone automatyczne czytanie strony po jej załadowaniu.
LibreOffice. Mamy tutaj poprawę dla tych, którzy korzystają z chińskiego wprowadzenia tekstu.
Stan pól wyboru jest teraz też raportowany w brailu, a nie tylko mową, więc też istotna zmiana.
Następnie matematyka. Czytanie równań matematycznych zostało poprawione dla niektórych elementów w internecie,
na przykład jeśli mieliśmy jakieś równanie ukryte w elemencie span tzw. oraz tych, które mają odpowiednią rolę
Aria ma ustawioną. Teraz to powinno po prostu działać.
Równania matematyczne, które są wyświetlane jako obrazek
bez tekstu alternatywnego, będą teraz wykrywane przez NVIDIA,
bo normalnie NVIDIA takie obrazki pomija, natomiast tutaj, jeśli
wykryje, że tam jest też zawartość matematyczna, to pozwoli
i użytkownikowi po prostu do nich wejść i po nich nawigować.
Następnie środowiska programistyczne.
NVIDIA już nie powinien się wysypywać w niektórych plikach, jeśli użyjemy funkcji
Zaznacz Wszystko w aplikacjach takich jak Android Studio oraz IntelliJ, czyli
środowisko, też aplikacja do pisania kodu w Javie.
Visual Studio Code Emilia już nie przychwytuje skrótów alt ciałka w górę i w dół.
I też Visual Studio Code niektóre elementy sekcji są teraz prawidłowo rozpoznawane jako pola edycji.
W najnowszym notatniku w Windows 11 oraz innych polach edycji korzystających z UIA.
A ostatnia, w sytuacji, kiedy ostatni wiersz jest pusty,
brailowskie polecenie przenieść do następnej linii.
Generalnie po prostu, jeśli mamy dwie puste linie koło siebie,
to polecenie brailowskie, żeby przenieść focus do następnej linii,
będzie po prostu działało prawidłowo, ewentualnie przeniesie nas do końca dokumentu,
jeśli już tekstu poniżej nie ma.
Profile konfiguracyjne.
Braille już działa prawidłowo, jeśli dokonaliśmy jakichś zmian w profilu dla czytania wszystkiego.
Poprawiono problem, że niektóre ustawienia były zawsze zapisywane do aktywnego profilu,
nawet jeśli wartość tego ustawienia była taka sama jak w domyślnej konfiguracji.
Podczas literowania funkcja to normalizowanie znaków Unicode teraz działa lepiej.
MVVA będzie teraz nas informował o elementach menu, które się wyświetlają podczas wyszukiwania w Thunderbirdzie,
czyli pewnie sobie podczas pisania jakieś auto-uzupełnianie po prostu powinno działać lepiej.
Mamy poprawki w narzędziunaprawy.com, o którym wspominałem wcześniej.
MWDA już nie powinien czytać elementów historii schowka w Windows 11.
Kiedy zamkniemy to okno…
Jeśli przeładujemy wszystkie wtyczki podczas wyświetlania wiadomości,
którą można przeglądać, na przykład OCR-a, bo adres łącza tego typu rzeczy,
to MWDA będzie prawidłowo później czytał, gdzie jest focus.
W aplikacjach takich jak Skype, Discord, Signal oraz Włącze z telefonem
i innych aplikacji, które włączają złagodzenie dźwięku, generalnie przez tryb komunikacji w Windowsie,
mowa i dźwięki NVDA nie powinny być złagodzone, czyli tutaj Windows nie będzie nam NVDA w takich sytuacjach ściszał.
Mamy poprawki w otwieraniu konsoli NVDA i w niektórych sytuacjach
Zmiany w zaznaczeniu na niektórych polach edycji w przeglądarkach
już zawsze powinny być czytane.
Jeśli…
Klikamy w łącze, które prowadzi nas do tej samej strony,
ale w tym samym elemencie, to MVA powinien nam prawidłowo
przenieść focus do tego miejsca.
Okno podkreślania w MVA, czyli pewnie to jest ta rzecz,
która odpowiada nam za potwierdzenie elementów,
Jeśli sobie tą opcję włączymy, ja będzie już wyświetlana na pasku zadań, jeśli
eksplorator Windows zostanie zrestartowany.
No i dobrnęliśmy do końca.
Mamy jeszcze tutaj sekcję zmian dla deweloperów.
Tutaj też mamy osiemnaście elementów, ale tak jak wspominałem, no to generalnie
będą raczej informacje dla programistów.
Dla nas ważne będzie to, że ta aktualizacja może spowodować, że wiele dodatków będzie
musiało zostać zaktualizowane, zwłaszcza jeśli chodzi o syntezatory.
Z tymi najpopularniejszymi, no to sytuacja wygląda tak, że
RH Voice już się zaktualizował.
Jeśli chodzi o vocalizery, no to tak jak mówiłem przy okazji,
kiedy ten najnowszy dodatek się pojawił parę miesięcy temu,
to jedyny aktualizowany dodatek to będzie ten najnowszy od firmy
TFLOTECNIA i AccessMind, a jeśli ktoś ma poprzednie wersje,
na przykład, no bo lubi Agatę, no to niestety przynajmniej oficjalnie
ten dodatek aktualizacji już nie dostanie.
Nie wiem, czy społeczność się nie włączy.
Trudno powiedzieć, natomiast oficjalnie wsparcie już zostało zakończone.
Jeśli chodzi o Elo Gwenta, to pewnie też coś się pojawi.
Raczej tutaj ludzie to też zaktualizują, nawet chyba już jakaś beta się pojawiła.
A dla fanów aCapelli, no to na ten moment informacji nie mamy.
Natomiast to jest cały czas dopiero pierwsza wersja beta.
Pewnie jeszcze kilka tych bet się pojawi,
zanim ta wersja pojawi się jako wersja stabilna.
To pewnie będzie, nie wiem, może maj, czerwiec nawet.
Bliżej lata się to pojawi, a jeśli
któraś z tych nowości Was zainteresowała, zwłaszcza tutaj
przed audycją rozmawialiśmy, że te poprawki SAPI
są bardzo odczuwalne, jak ktoś korzysta z tych głosów Microsoftu m.in.,
no to możecie sobie tę wersję beta ściągnąć
albo jako aktualizację, albo równolegle jako
wersję przenośną testować. No i jeśli
znajdziecie jakieś błędy, no to je zgłaszać czy do
NV Access, czy do autorów dodatków.
No i tu mamy takie ostrzeżenie od naszego słuchacza Oskara, który napisał na YouTubie tak.
Niedawno wyszła NVIDIA 2025.1. Przed aktualizacją zróbcie sobie kopię przenośną stabilnej.
Start z nią nie był przyjemny. Nie mogłem nawigować po Wikipedii. I napisał jeszcze Oskar drugi komentarz.
Majstrowałem przy dodatkach, nic z tego, restart komputera dopiero mi pomógł, więc takie ostrzeżenie.
Ja też to miałem. Ja też miałem taki problem i to chyba jest niestety za po jakichś aktualizacjach NVIDIA, to nie jest nic nowego.
Po prostu nie fokusują się żadne okna, to znaczy naciska się Alt-Tab, on niby czyta tytuł okna, ale jak się sprawdzi tytuł okna NVIDIA-T to dalej mamy tam pulpit czy eksplorator czy coś takiego.
Ja już troszkę potestowałem tą wersję beta i to, co mogę powiedzieć, to tak.
Remote oczywiście jest. Trzeba wejść do ustawień NVIDIA i tam jest taka nowa sekcja.
Nie wiem, jak ona jest przetłumaczona na polski, to jeszcze nie wiem.
Możliwe, że jeszcze nijak, bo tłumaczenia dopiero gdzieś tam myślę dotarły z czatem.
Natomiast tą opcję trzeba włączyć. Ona jest domyślnie wyłączona.
Wyłączona w sensie nie, że nie jesteśmy z nikim połączeni.
Cały moduł jest wyłączony, czyli te opcje do połączenia i te skróty klawiszowe, bo SOAC są skróty klawiszowe, one nam się nie będą pokazywały.
Dopiero jak zaznaczymy opcję włącz, to się pewnie jakoś będzie nazywało zdalny dostęp czy coś, to wtedy te opcje się pokażą, będzie można korzystać ze skrótów.
No i oczywiście tam mamy te rzeczy, które znamy z dodatku, natomiast do tych rzeczy są te skróty.
I tak np. NVIDIA Alt-R otworzy nam okienko właśnie to z połączeniem,
więc nie będziemy musieli chodzić po menu i szukać i tak dalej.
NVIDIA Alt-Tab przełącza między komputerem lokalnym a komputerem zdalnym.
Było F11 i nawet było NVIDIA F11, ale użytkownicy tej wtyczki do zasobnika
systemowego Systray List się zbuntowali i sobie zażyczyli, żeby ten skrót został
No i tutaj NV Access akurat w tej kwestii się ugięło i ten skrót został dodatnie zmieniony.
A w zdarzeniach wejścia można sobie to przestawić?
Tak, tak jak najbardziej.
A, no to okej.
Można.
Ale to chyba w ogóle mi się wydaje taki mimo wszystko lepszy trochę skrótem,
bo rzeczywiście F11 w różnych kwestiach może być potrzebny po prostu.
To też prawda, to też prawda, dlatego…
Mówisz pełny ekran?
No, dokładnie, dlatego ja nie uważam akurat, żeby to był jakiś bardzo wielki zarzut,
natomiast wiecie, jak się ktoś przyzwyczaił, no to fajnie, że może sobie to zmienić.
Natomiast to jest też skrót, który… Już się pewnie przepuszczę, tylko dokończę myśl.
To jest skrót, który po pierwsze się kojarzy, bo alt-tab przełącza przecież między oknami,
Więc tu przełącza między komputerem a zdalnym, a lokalnym, tylko z tym dodatkiem
NVDA i on jest bardzo wygodny do zrobienia jedną ręką, jeżeli używamy Caps Locka jako NVDA.
To prawda.
Natomiast jeszcze tak, właśnie dając trochę inspirację do tego changeloga, no to myślę, że to
jest dobry pomysł, żeby teraz pomyśleć o tym, dlaczego przestaliśmy używać jakichś
syntezatorów, które są na SAPI i sprawdzić, czy teraz nie byłyby one już dla
To jest okej, bo irresponsywność się podniosła i ten problem z zastopowaniem się po jednym zdaniu już został naprawiony i podkręcenie szybkości jest, więc może jakaś Agata na real speak’u, może jakaś Iwona, może jakiś vocalizer.
Wychodzi na to, że powrót do wcześniej przez nas używanych syntezatorów może zacząć mieć sens.
Druga rzecz, właśnie tak sobie myślałam, po cóż w sumie dodawać coś do NVDA, co latami było wtyczką i nikomu to nie przeszkadzało jakoś strasznie,
a nie jest jakakolwiek rewolucja, bo to jest po prostu zrzesznięcie kodu z wtyczki. Ale sobie tak teraz myślę, że jeżeli chcemy komuś pomóc,
albo szybko się dostać do swojego komputera z jakiegoś tam innego, no to to już jest faktycznie jakiś tam krok naprzód,
Bo to jest mniej pobierania, a dostęp jest błyskawiczny, więc może faktycznie to był dobry czas na to, żeby ten remote został zaimplementowany.
Nie wiem, jak to wpłynie na te wszystkie korporacyjne podejścia do używania NVDA na stanowiskach pracy.
Pamiętaj, Paulino, jeszcze o jednym, że generalnie jest na liście deweloperów NVIDIA, czy była jakiś czas temu,
że ten moduł zdalny został zaimplementowany w samym rdzeniu, no bo on będzie zawsze miał dostęp do wszystkiego,
a z czasem mogłoby się okazać, że na przykład jakieś alternatywne moduły takiego dostępu zdalnego będą miały z tym problem.
I zresztą też myślę, że jeżeli NV Access też chce wejść bardziej na ten rynek taki korporacyjny,
To celowo też ma tę jedną opcję właśnie do włączenia w ustawieniach NVDA, bo prawdopodobnie w przyszłości będzie to zdecydowanie łatwiej zablokować, np. włączenie przez odpowiednie jakieś tam ustawienia administracyjne, które da się wymusić, niż gdyby to ogarniać dodatkiem.
Tak, i to jest też plan NVIDIA, żeby wprowadzić te zarządzanie grupami polityk,
tak jak się to porządnie robi w systemach administrowanych,
żeby właśnie w środowiskach korporacyjnych, tam gdzie jest to niepożądane,
kompletnie tą opcję wyautować i dlatego ona też jest wyłączana.
Jedna rzecz jednak, która jest istotna w tym kontekście,
o którym Paulino mówiłaś, czyli pomaganie osobom trzecim,
Ja tu myślę bardziej o użytkownikach, którzy są na początku swojej podróży
i każda ściśnięcie strzałki w dół musi być autoryzowane przez osobę, która pomaga,
a pracowałem już z takimi osobami.
Ja też.
Tak, i tu bardzo przydałoby się, żeby to okienko z funkcjami zdalnymi,
z ustawieniami tych funkcji zdalnych, było do wywołania jednym skrótem.
Ja to zasugerowałem na repozytory, oczywiście oznaczając, że ja mam świadomość,
że to w jakiś sposób wprowadza kolejne ułatwienie do tego,
żeby tę funkcję włączyć sobie bez przypadek. No ale umówmy się,
kto by sobie przez pomyłkę nacisnął konkretną kombinację trzech
klawiszy, zaznaczył pole i nacisnął OK. To znaczy, są ludzie,
oczywiście ja nie tracę wiary i wiem, że niejedną sztuczką nas
jeszcze właśnie użytkownicy mniej zaawansowani potrafią
zaskoczyć. Natomiast jest to na tyle moim zdaniem znikome ryzyko,
że można by to w imię przyspieszenia tak naprawdę procesu udzielania komuś
wsparcia wprowadzić. Zobaczymy. Jutro rano będę patrzył w powiadomienia, czy coś się w tej
kwestii zmieni. Nie wiem, czy Paulino chciałaś o czymś jeszcze mówić, bo ja jeszcze jedną rzeczą się
bawiłem.
Jeszcze o jednym drobno, jeszcze jedna drobna.
W związku z tym R-H Voice’em to chyba od teraz się pojawił w add-on store’ze ten
stylogik do R-H Voice’a.
Jest w betach, więc teraz go przed chwilą właśnie zaktualizowałam.
Także działa i można sobie go update’ować.
Ja też mam w sumie jedno pytanie, bo nie testowałem jeszcze tej opcji,
ale czy da się własne serwery tam włączać w tej…
Tak.
Czyli wpisać, możesz wpisać.
Nie wiem, czy już ktoś przeportował ten komponent serwerowy,
który był dość często wykorzystywany de facto, wyjęty z dodatku,
ale myślę, że protokół nie zmienił się jakoś bardzo,
chociaż nie wiem, szczerze mówiąc, tu się nie znam.
I ciekaw jestem też, a propos początkujących użytkowników,
czy nadal domyślną opcją jest kontroli inny komputer?
Dobre pytanie. Teraz nie pamiętam.
Bo znowu to jest jakby kolejna opcja do przełączenia,
która dla początkujących użytkowników znowu tu, przełącz, bo co?
Tak, jest dalej tak jak była.
A to tobie się przydało rzeczywiście zmienić.
To można zasugerować. Może jutro nawet zrobię request.
To ja jeszcze o jednej szybko funkcji, którą przetestowałem w ramach pakietu
zmian, który w NVIDIA wsiadł. Oczywiście też pochwalam przyspieszenie syntezy.
To jak OneCore zaczął mi zasuwać dzisiaj na komputerze, ja się przestraszyłem.
Ja stwierdziłem, że chyba tych głosów będzie się dało wreszcie używać.
Chodzi mi o głosy Microsoftu, budowane, że nawet adaptery SAPI natural,
Mówię o tym adapterze do głosów naturalnych, że on może mieć sens, mimo że są streamowane z internetu, teraz przy tych zmniejszonych głosach naturalnych, które są streamowane z internetu, może to też zacznie się sprawiać sens.
Pawle, troszeczkę cię rwie. Nie wiem, czy masz możliwość jakoś zadziałać.
Nie, chyba nie. Czy jest lepiej?
Podobnie.
Jest podobnie. No okej, kontynuuj. Może jakoś damy radę.
Mówię o tym adapterze do głosów naturalnych, że on może mieć sens, mimo że są streamowane z internetu.
Teraz przy tych zmniejszonych opóźnieniach może do czegoś więcej się to nada.
Przekonamy się. Natomiast ja się bawiłem jedną jeszcze funkcją, a jest nią.
Po pierwsze zaznaczanie w Chromie, no to może jest nowego, ale wykrywanie
tekstów, fragmentów tekstów w przeglądarce. Już tłumaczę, jak to działa,
bo jest to przeciekawa funkcja. Żeby od razu przetestować, musimy połączyć siły
W Chromie wchodzimy na jakąś stronę, mamy przykładowo artykuł i ten artykuł sobie czytamy.
I chcemy na przykład znajomemu posłać jakiś fragment, wyszczególniając mu konkretne słowa w jakimś akacie.
Co robimy? Włączamy ten tryb zaznaczania natywnego, czyli NVA Shift F10.
Zaznaczamy ten tekst. To może być kilka słów, może być cały akapit, cokolwiek.
Wchodzimy w menu kontekstowe i tam jest taka opcja skopiuj link do zaznaczonego tekstu.
I teraz ten link można przestudiować. To jest adres tej strony, tak jak normalnie w pasku
adresu, po czym jest chyba znaczek tyldy, dwukropek i oddzielony proces dwadzieścia,
który symbolizuje jedno słowo od drugiego.
W momencie, kiedy my taki link wyślemy komuś, kto sobie go otworzy z NVIDIA w Firefoxie,
to nie dość, że zostaniemy przeniesieni do najbliższego nagłówka,
pod którym ten tekst występuje, więc jeżeli ten występuje gdzieś trochę dalej,
a ten nagłówek jest obszerny, to możemy troszkę sobie popijać,
ale już będziemy w tym obszarze, o który chodzi, to jeszcze na NVIDIA
przy tym dokładnie fragmencie, który ta osoba nam zaznaczyła w linku,
odczyta, że to jest podświetlone.
Także jest to spoko, jeżeli chcemy edytować coś, zwrócić uwagę na konkretny jakiś fragment,
podświetlać jakieś tam fragmenty.
Oczywiście można gdzieś tam potem zetalować na jakichś stronach, gdzieś tam mieszkać w czymś,
więc to otwiera znowu jakieś nowe możliwości autorom stron.
No a dla nas to jest taki ciekawy mechanizm, żeby się dzielić linkami do różnych rzeczy,
zwracając uwagę na konkretny fragment.
Tymczasem, tymczasem mamy komentarze, to ja może przeczytam to, co do nas piszecie jeszcze. Natalia do nas się odezwała.
Witajcie. Paulino, mam do ciebie pytanie. Kiedyś w Tyflo Przeglądzie wspominaliście, że na iPhonie da się na YouTubie przyspieszać odtwarzanie filmów.
Czy na Androidzie taka funkcja istnieje? Nie mogę jej znaleźć, a czasami by się mogła przydać. Pozdrawiam was wszystkich.
Muszę sprawdzić. Kojarzy mi się, że jest.
Za to ostatnio to się popsuło na iOS-ie.
I słuchajcie, jest na to metoda, ale bardzo karkołomna,
Żeby sobie z tym radzić, mianowicie trzeba włączyć rozpoznawanie ekranu,
poszukać jakiegoś elementu, który jest oznajmiany jako wybieracz
i w ten sposób jakoś tam kombinować i sobie z tym radzić.
Chyba, że ty, Piotrze, jeszcze znasz jakiś inny sposób.
No, w tym samym okienku, gdzie jest ten wybieracz, tam pod spodem
powinno też być widoczne kilka presetów na właśnie to 1.5, 2.0
i ja tak to robię.
Tak, tylko ty masz pewnie włączony język angielski.
A po polsku to tam nie ma nic poza wybieraczem i przyciskami, więc jeżeli ktoś ma język polski, to ma większy problem.
Generalnie to się popsuło, tak. No ale nawet po angielsku też rozpoznawanie ekranu musi być włączone.
Skoro rozmawiamy o błędach na YouTubie, to ja może szybko wrzucę jeszcze coś, co miało być w drobnych newsach, ale mogę tutaj powiedzieć.
Kolejna rzecz, która się popsuła. Gdybyście czegoś szukali na YouTubie albo po prostu przeglądacie, nie wiem, stronę główną, wasze subskrypcje,
Nie zdziwcie się, że YouTube przestał Wam czytać czas trwania danych filmów
albo to ile ma wyświetleń. Ja zawsze ten brak czasu trwania mnie irytuje,
bo nigdy nie wiem czy coś co kliknę ma 2 minuty czy 2 godziny.
To chyba jest cały czas wyświetlane, ale po prostu dla nas to się popsuło.
Najpierw to się popsuło w wyszukiwaniu, tam ludzie na audiogamesie o tym mówili,
ale wczoraj ja po prostu nagle dostałem taką niemiłą niespodziankę
I teraz to po prostu wszędzie nie jest czytane niestety.
Ale też szybko sprawdziłam i faktycznie Tomek miał rację.
Tam jest więcej opcji i jest szybkość odtwarzania.
No to jeszcze komentarz od Bartka.
Witam serdecznie. Ja dzisiaj prawdopodobnie tylko z krótką informacją
piszę w temacie, w którym dzwoniłem
do Was w zeszłej audycji. Obiecałem, że dam znać.
Temat dotyczył wiadomości na iOS.
Mogę powiedzieć, że udało mi się rozwiązać problem.
Zrobiłem manualną synchronizację i to pomogło.
Serdecznie Was pozdrawiam i życzę Wam zdrowych, radosnych oraz spokojnych Świąt Wielkanocnych.
Dziękujemy Bartku i wzajemnie. I super, że się udało.
I mamy jeszcze wiadomości głosowe od Sylwestra.
Jest nowa wersja Topek 15.2. Ja mam coś takiego podobnego. Podobny zegark mam.
Ja już go nie używam po prostu, bo baterie do mechanizmu,
To 2-3 lata trzeba wymieniać i ja tego nie używam.
Nie polecam tego zegarka.
A kiedy można doczekać się oficjalnej wersji NVDA 2025.1?
Ile to potrwa? Może dwa, może trzy tygodnie?
Raczej, tak jak mówiliśmy, to należy ten czas oczekiwania liczyć w miesiącach,
ale ja bym się tak nie spieszył z tą wersją, naprawdę.
Te wersje kolejne i to zwłaszcza takie, w których się dużo zmienia, to lepiej niech zostaną dobrze przetestowane, zanim zostaną rzucone użytkownikom, którzy nie zawsze mają doświadczenie.
Więc ja tu bym czekał spokojnie i na pewno się wszyscy doczekamy.
Jeszcze widzę, że Marek udostępnił nam link do tego zegarka, o którym mówił w rozmowie telefonicznej tu z nami.
Więc ja dorzucę go do notatek. Jeżeli będziecie zainteresowani, to będziecie sobie mogli z tego odnośnika skorzystać i o tym zegarku poczytać i też go sobie po prostu kupić.
No to w takim razie przechodzimy do następnej informacji. Twojej informacji na temat klawiatury, której nie wiem jak się czyta. Nawet szczerze mówiąc, bo ta nazwa jest dość nietypowa.
Hejbul, zdaje się, że tak tę klawiaturę się czyta.
Jeżeli chodzi o tę klawiaturę, to co to w ogóle jest, myślę, że warto by było powiedzieć.
Konkretnie mam tu na myśli klawiaturkę Hejbul Easy.
To jest urządzenie, które ma za zadanie ułatwić korzystanie z telefonów dotykowych
użytkownikom z pewnymi manualnymi problemami.
Jeżeli na przykład dla kogoś gesty są kłopotliwe, wykonywanie nawet i tych dosyć prostych gestów, to może sobie kupić taką klawiaturkę.
Ona kosztuje około 890 czy 885 złotych. Tak przynajmniej cena została przeliczona na stronie producenta.
Jak ona wygląda? Ona ma 8 przycisków i te przyciski pełnią rolę konkretnych gestów.
Zdaniem producenta, ona działa zarówno w iOS-ie, jak i w Androidzie, więc jest możliwe kontrolowanie tych dwóch systemów operacyjnych z użyciem tej klawiatury.
Ona nie jest, co ważne, ona nie służy do wprowadzania tekstu. To nie jest klawiatura, za pomocą której się pisze.
Pod tę klawiaturę, pod te klawisze są po prostu przypisane konkretne gesty.
Więc to jest bardziej właśnie dla seniorów na przykład albo po prostu tak jak wspomniałem dla osób, które mają jakieś problemy manualne.
No i doszły ostatnio nowe gesty, mianowicie gesty do przeskakiwania na górę i na dół okna.
Wystarczy w tym celu dłużej przytrzymać przycisk, który służy do przechodzenia do przodu albo do przechodzenia do tyłu,
to w zależności od tego czy chcemy przejść na dół czy na górę tego okna.
Doszedł też jeszcze jeden gest, mianowicie ten gest taki charakterystyczny, dwuklik z przytrzymaniem tak zwany, czyli po prostu rozwinięcie na przykład jakiegoś menu kontekstowego w iOSie albo przytrzymanie przycisku i to jest gest, który aktywujemy za pomocą takiego klawisza na tej klawiaturce, który służy do potwierdzania różnych czynności, po prostu trzeba go przytrzymać i w ten sposób
I ciekawe jest to, co możemy ten gest wywołać. Do czego może to się przydać? Twórcy tej klawiatury utrzymują, że na przykład może to ułatwić zdecydowanie korzystanie z Whatsappa.
Czy to na iOS czy na Androidzie, bo jest wtedy bardzo wygodne skakanie po oknie właściwie tego komunikatora i nagrywanie wiadomości oraz jej wysyłka.
Więc taka krótka ciekawostka.
I ciekawa to jest w ogóle klawiatura, no bo rzeczywiście ja naprawdę jestem w stanie wyobrazić, że mogą być osoby, dla których po prostu praca z gestami może być naprawdę problematyczna.
Stąd taka też popularność telefonów, typu Blind Shell na przykład. Oczywiście to jest jedno, to jest wprowadzanie tekstu jako takie, bo są też takie głosy użytkowników, że oni po prostu chcą szybko pisać
…i im się szybciej pisze właśnie na takiej klawiaturze T9, ale druga strona medalu to jest właśnie to, że są użytkownicy, którzy z różnych przyczyn po prostu sobie nie radzą z ekranem dotykowym jako takim, jako takim urządzeniem, no i z jednej strony oczywiście takim użytkownikom można mówić, a przyzwyczaisz się, no ale jak ktoś albo ma już swoje lata i się nie przyzwyczai, bo po prostu nie chce zmieniać swoich nawyków, albo z drugiej strony, jeżeli ma naprawdę jakieś problemy motoryczne,
I tu jest kłopot.
Taka klawiatura, co ciekawe, to potrafi nawet miesiąc działać na jednym ładowaniu.
Ona wykorzystuje ten mechanizm Bluetooth Low Energy, więc też jest to myślę, że dość fajne.
To prawda. A że akurat, jeżeli chodzi o pisanie, to klawiatur, klawiaturek w różnych rozmiarach, formatach jest bardzo dużo,
no to myślę, że to jest fajne, to jest ciekawe.
Przechodzimy do następnego newsa w takim razie.
I temat taki bardziej trochę rozrywkowy.
Jak zorganizować zabawę w polowaniu na jajkach?
Tak, i to w dostępny sposób.
To jest tradycja, która głównie ma miejsce w Stanach Zjednoczonych,
w kościołach, w lokalnych społecznościach,
ale u nas też się z tym spotkałem.
Rodzice też takie coś organizowali, ja za przewodnika miałem swoją siostrę,
z tego co pamiętam, zawsze w ogrodzie lubili nam coś zaszyć,
a w Stanach Zjednoczonych niewidome dzieci mają jajka, które piszczą.
I tutaj pewnie ktoś, kto lubi grać w gry audio, przypomni sobie taką grę jak Egg Hunt
i tutaj pewnie zapaliście lampkę.
No, w sumie ta gra miała swoją taką życiową genezę.
Ten pomysł nie wziął się z powietrza, z tymi pikającymi jajkami.
Wydaje mi się, że te prawdziwe jajka były pierwsze, a nie gra.
Natomiast to bym musiał jeszcze Liama Irwana się zapytać.
Natomiast taka akcja rozszerzyła się gdzieś o kolejny stan,
tym razem o Tennessee,
o Evernuke Center for Blind and Visually Impaired,
czyli taki ośrodek pomocy niewidomym w Evernook, do którego zgłosił się lokalny zespół saperów,
który dowiedział się, że w innych stanach tego typu ewendy są organizowane,
no i zaczęli się zastanawiać, czy mogliby po prostu jakoś im pomóc, żeby też coś takiego,
żeby takie jajka stworzyć.
No i kilka takich jajek piszczących powstało.
Nawet tutaj mamy próbkę.
Jeśli dobrze ustawiłem otwarcie, jeśli strona nam nie uciekła,
no to spróbuję teraz to puścić.
No właśnie, tutaj mamy też wersję audio tego artykułu.
Mam nadzieję, że było słychać w ogóle.
Jak najbardziej.
Okej, super. No tutaj możecie przeczytać więcej.
Generalnie tak jak tutaj powiedziała pani, która pomaga w organizowaniu tych wydarzeń.
Zasada jest bardzo prosta. Dzieci są puszczane na ten teren.
Nawet osoby dorosłe, bo tak naprawdę udział może wziąć każdy.
Jest docelowane na dzieci, ale też osoby dorosłe są nienawidziane,
rodzeństwa niewidome i widzące.
Tutaj w terenie są też opaski dostarczane.
No i po prostu muszą te jajka znaleźć.
Na ten moment organizacja dysponuje 50 takimi jajkami.
Tworzenie jednego kosztuje około 20 dolarów.
Zaczęli uczyć się już sami je konstruować.
Takie jajko kosztuje około 20 dolarów do zrobienia.
Pewnie prosta konstrukcja.
Samo to jajko jest drukowane drukarką 3D.
Kilka wzorów, nawet tak sobie wydrukowali.
Oczywiście w tym jajku są dziurki, które wyprowadzają dźwięk na zewnątrz.
Oraz sama elektronika.
Zastanawiałem się teraz też, jak ten pomysł rozszerzyć,
tak żeby np. też stworzyć, nie wiem, jajka wibrujące
dla osób, które mają jeszcze problemy ze słuchem.
Może jakieś światło dla osób słabowidzących,
żeby te jajka były też jakoś mrugały, były lepiej widoczne.
No, ciekawe, jak to jeszcze by można było rozszerzyć.
Natomiast sama zabawa jest po prostu… jest prosta, no chodzimy, nasłuchujemy i jeśli takie jajko znajdziemy tutaj, jak mówiła pani, bierzemy je do ręki, wyłączamy to piszczenie, chowamy do koszyka i kto znajdzie najwięcej jajek po określonym czasie, tam z reguły mają kilka minut, no to po prostu zabawę wygrywa.
Na początku jest w pewnym sensie trochę trudniej, bo te wszystkie jajka specjalnie są zrobione tak, żeby piszczały w ten sam sposób.
W sumie tam się po prostu tworzy taki hałas i są trochę trudniejsze do zlokalizowania.
Natomiast czasem, kiedy kolejne jajka są odnajdywane,
to jest tam po prostu łatwiej z jednej strony,
no bo możemy bardziej precyzyjnie usłyszeć, jeśli jakieś jajko gdzieś słychać,
no to będzie łatwiej je znaleźć. Z drugiej strony jest trudniej, no bo po prostu jest ich mniej,
więc ten dźwięk jest cichszy. Ale fajnie, że tutaj…
Tak, ta zabawa została zaadoptowana w dostępny sposób.
No i ciekawe, czy faktycznie jakieś kolejne innowacje
w tego typu zabawach będą się dalej pojawiać.
No ale jak się ktoś zastanawiał, jak można spędzać Wielkanoc,
jak można urozmaicić czas dzieciom i nie tylko,
no to tutaj taki ciekawy pomysł ze Stanów.
I ostatnia informacja pojedyncza,
Przynajmniej w tyflowieściach, ale chyba też w ogóle.
Dotyczy nowych okularów, które być może mogą stanowić konkurencję dla mety Ray-Ban.
Tak. Ja przede wszystkim mam nadzieję, że teraz już mój dźwięk się ustabilizował.
Wygląda na to, że tak.
Oj, dziękuję Ci, Michale, to jest porada, więc mam nadzieję, że tak się to utrzyma.
To jest produkt, o którym ja wspominam troszkę z uwagi na to,
że jest o nim dość duży szum medialny w anglojęzycznych mediach,
bo chyba już nie ma podcastu z tych większych,
które by o tym produkcie czegoś nie opowiedziały,
bo zarówno Carry on Accessibility,
a o tym godzinny odcinek,
gdzie jest wywiad z twórcami i troszkę prezentacji.
Był cały odcinek DoubleTap’a poświęcony,
no może w prawie całości,
pojawił się też AccessOn,
a chodzi o firmę Agiga
oraz okulary Echo Glasses.
I czym one są? To jest już pomysł, którego można było się spodziewać,
bo teraz z uwagi na rozwój generatywnych modeli sztucznej inteligencji i też na to
takie pragnienie, byśmy mieli to urządzenie noszone gdzieś tam, powstaje mnóstwo różnego
rodzaju okularów wspomaganych sztuczną inteligencją i każdy jakiś kawałek tego
totu chce sobie ukroić. No i tutaj gdzieś na czele jest Envision, przynajmniej najczęściej
jest wspominany jakość i meta Ray-Ban Glasses, które nadal w Polsce dostępne nie są.
Natomiast tutaj próbuje na ten rynek wejść sobie właśnie firma Agiga.
No i co oni mają nam do zaproponowania?
Ewidentnie do meta Ray-Ban Glasses tutaj nam urządzenie nawiązuje.
Choćby, że nie ma jakichś rozbudowanych menu, tak jak Envision.
Tam nie ma takiej opcji, żeby nawigować gdzieś i wchodzić do środka i wychodzić.
Tu jest taka zasada działania, że po prostu mamy okulary poniekąd przeciwsłoneczne.
W takim stylu one są zrobione i na obydwu tych skrzydłach, tych zgięciach są przyciski do aktywacji AI.
I panel dodatkowy, który ogranicza się do gestów stuknięcia. Stuknięcie pojedyncze, podwójne, a to z przytrzymaniem.
Tu jest wszystko jeszcze prototyp, więc jakaś sfinalizowana lista gestów nie istnieje.
Na razie autorzy podkreślają w różnych prezentacjach,
Także dzisiaj te gesty wyglądają tak, jutro mogą wyglądać inaczej.
Natomiast można po prostu za pomocą tych różnych kombinacji
wziąć różne tryby tego sprzętu. Jakież to są tryby?
Przede wszystkim okulary opisują nam otoczenie. Po prostu robimy zdjęcie
i tu jest nam to opisywane, to, co widać. Co ważne, przy opisywaniu ludzi
Okulary mogą się też nauczyć rozpoznawać konkretne osoby.
Opisywanych jest bardzo dużo szczegółów, np. postura danej osoby, np. rasa, kolor skóry.
Także te opisy zdają się być gdzieś tutaj bardziej szczegółowe i zwracać uwagę na te takie bardziej osobiste,
personalne szczegóły niż to mieliśmy do tej pory.
Mamy możliwość też przeczytania jakiegoś tekstu.
I teraz nie zrozumiałem do końca z tej demonstracji,
czy trzeba włączyć jakiś specjalny tryb, a chyba trzeba.
I to pewnie trzeba ten przycisk inaczej nacisnąć
albo jakiś gest wykonać. No i wtedy odczytywany jest tekst.
To, na co autorzy zwrócili uwagę, to to, że jest osobny moduł OCR,
że to nie polega wszystko tylko na generatywnym modelu,
który sobie będzie gdzieś tam coś czytał i opisywał,
tylko rzeczywiście jest OCR i ten OCR ma też działać jakoś w wersji
uproszczonej, uboższej, trochę może gorszej, ale offline.
No i tutaj mamy taką możliwość, natomiast w tej wersji pełnej on
wspomaga się tą sztuczną inteligencję i te teksty czyta.
No podobnie jak w przypadku Envision, czy też Ray-Banów, możemy zadawać pytania i tutaj też odpowiedni gest decyduje o tym czy najpierw zadajemy pytanie, potem w odpowiedzi na nie słyszymy ten tekst, czy jakąś jego obrobioną wersję, czy też najpierw usłyszymy tekst, a potem możemy zadawać pytania.
Jest też tryb opisywania i to jest to, czym teraz firma chwali się najbardziej, opisywania scen w czasie rzeczywistym, czyli włączamy ten tryb
I on, w miarę jak my obracamy gdzieś tam głowę i pozycja tej kamery się zmienia,
opisuje nam jakieś nowe szczegóły. My możemy z nim wtedy konwersować,
możemy np. przerwać jego monolog i zadać jakieś pytanie. Natomiast to,
co oni by chcieli wprowadzić, a tego nadal nie ma, to jest
takie reagowanie w czasie rzeczywistym proaktywne, czyli powiedzmy,
my mówimy tej sztucznej inteligencji, daj mi znać, kiedy przyjedzie moja tam taksówka
No i to jest coś, z czym dalej, zdaje się, OpenAI też walczy, bo filmiki
montacyjne były, no ale na razie…
Filmiki filmikami, a to, co rzeczywiście udało się z tego wykrzesać,
to jest inna sprawa.
To jest prawda. Tu jeszcze autorzy też tego jakoś nie mogli, natomiast
wiedzą, że ludzie tego chcą, więc będą chcieli się tym jakoś zająć.
Oprócz tego można te okulary sparować z telefonem.
Co ciekawe, telefon jest nam raczej niezbędny z tego, co znamy,
głównie do konfiguracji, czyli możemy połączyć, skonfigurować WiFi,
skonfigurować… i zapomnieć o tą aplikację.
Mamy tu nawet przykład, był podany, że możemy babci, dziadkowi skonfigurować
i w ogóle zapomnieć, że jakaś aplikacja była.
No ale kiedy już połączymy tak sobie te okulary z naszym smartfonem,
No to możemy też słuchać muzyki na przykład, czyli ewidentnie takie rzeczy,
które rejban, metarejbanglacy spotkają. Co jeszcze możemy? No możemy oczywiście
te sztuczną inteligencję odpytywać o takie bardzo ogólne rzeczy,
możemy wejść po prostu w spogawędkę, zadać jakieś pytania wiedzowe.
Możemy też zadać, to jest osobny chyba tryb, pytanie na temat transportu miejskiego,
czyli na przykład jak dotrzeć z kondyś do kondyś i on nam opisze w takich krótkich
Zdaje się, że prowadzenia jakiegoś stricte nie ma.
Takiego, że jakaś nawigacja krok po kroku i to jeszcze śledziłoby gdzieś tam, gdzie my teraz
jesteśmy. To chyba nie.
Natomiast to, co już jest na tym etapie, to jest Be My Eyes i Aira.
Czyli też autorzy są tu zainteresowani, twórcy współpracą z aplikacjami zewnętrznymi.
Całość jest w procesorze Qualcomm Snapdragon i wyposażona jest w 13-megapikselowy aparat.
Gdzie ten aparat jest umiejscowiony? Niestety nie wiem. Czy jest na środku, czy jest z boku,
podobnie jak w Envision Glasses, co nie jest najszczęśliwszym umiejscowieniem aparatu,
jak się przekonaliśmy na przykład w podcaście, który jakiś czas temu było wydane nagrać
…na temat tego urządzenia.
Pytanie też, jak tam z ceną, jak tam z dostępnością.
Gdzieś tam już jakiś termin testu, kiedy to miałoby zostać wysłane.
Natomiast może się to jeszcze przesunąć w czasie, bo tak odnoszę wrażenie,
jak słuchałem właśnie wywiadu z twórcami rozwiązania, że gdzieś tam jeszcze
finalizowane są pewne szczegóły, jak to ma wyglądać, jak to będzie wszystko działało
No więc tutaj może się to wydłużyć.
Wiem też, że są jakieś problemy z wejściem na rynek międzynarodowy.
No może zostaną one też wyjaśnione. Jak wygląda kwestia ceny?
Aktualnie trwa przedsprzedaż i w tej przedsprzedaży można te okulary nabyć za 450 dolarów.
To oznacza też, że jeżeli kupimy je w przedsprzedaży, to na zawsze będziemy mieli wieczystą subskrypcję
No bo niestety, jedna rzecz to kupić sobie sprzęt, a druga rzecz to czeka na nas subskrypcja na te różne usługi AI, co no jakąś nowością w takim układzie nie jest.
Ile będą kosztowały okulary poprzed sprzedaży? No 600 dolarów. Także no ryj bany zdaje się, że są tańsze, ale nadal nie jest to cena.
Gdzieś pomiędzy się to odnajduje.
Urządzenie jest rozwijane przy współpracy z osobami niewidomymi.
I taką osobą znaną w społeczności anglojęzycznej,
która w ten projekt jest też zamieszana, jest Kevin Chao.
Ktoś, kogo ja kojarzę z bardzo wczesnego okresu,
kiedy zaczęły się popularyzować iPony, iPody i różne dodatkowe sprzęty Apple.
To był człowiek, który gdzieś tam na Twitterze i pewnie nie tylko na listach
mailingowych, na lewo i prawo dzielił się swoją ekspertą w temacie i moim zdaniem
na ten czas, jedną chyba z bardziej znanych w tym roku 2010-2011,
które większość miały wiedzę nad tych urządzeń i gdzieś tam bardzo wtedy się
udzielał i na Apple Visa, w rozwój Apple Visa był bardzo gdzieś tam włączony i różniczy.
No także myślę, że mamy do czynienia z osobą, która wie co robi i konsultacje z tą osobą mogą tylko przyczynić się do pozytywnych rzeczy w rozwoju tego typu projektu.
No i to chyba tyle z informacji, które udało mi się na ten moment zebrać. Pożyjemy, zobaczymy. Na pewno tych urządzeń jest bardzo dużo.
I było to do przewidzenia, no bo urządzenie raczej pożądane.
Teraz rozwój sztucznej inteligencji też gdzieś zachęca do tego, żeby
eksperymentować. Ale mam wrażenie, że jest tego strasznie dużo i nie
ma takiego rozwiązania. Znaczy marketingowo są rozwiązania, które się
gdzieś na rynku bardziej wybiły od innych.
Tylko który jest tym najlepszym?
Który jest tym najlepszym i który jest tym, który rzeczywiście działa i nam
coś daje. Ja przeglądałem z Hacker News, a trafiłem na kolejny
artykuł, tym razem z magazynu Nature, gdzie było w ogóle takie podsumowanie,
że noszone kamerki pomogą i sztuczna inteligencja pomogą niewidomym.
I tam taki typowy artykuł popularnonaukowy, czyli podsumowane jest to, że pięć różnych
ekip naukowych próbuje temat zbadać. Przejrzałem też zresztą listę wystawców
na konferencję Site City i tam znowu dwie czy trzy kolejne firmy, które jakieś okulary
ze sztuczną inteligencją chcą nam zaproponować, także czy Agiga i ich
Echo Vision Glasses się jakoś wybiją na tle konkurencji?
Czas pokaże, no ale jako, że gdzieś tam się o tym mówi, no to
grzechem, a może i wstydem byłoby i tutaj o tym nie wspomnieć.
Swoją drogą, jak tak Pawle wspomniałeś o subskrypcji, to
od razu skojarzyło mi się to z najnowszym sezonem
Czarnego Lustra, który niedawno pojawił się na Netflixie i tam w pierwszym odcinku jest też temat subskrypcji.
No, polecam, polecam najnowszy sezon i zresztą w ogóle polecam cały Black Mirror, czyli Czarne Lustro,
a polecam też dlatego, że wszystkie sezony doczekały się audiodeskrypcji.
O kurcze, to nawet mnie zaskoczyłeś.
Więc jeżeli ktoś kiedyś na przykład coś o tym słyszał, że to jest fajne, bo to jest taki serial no rzeczywiście traktujący bardzo mocno o technologii i o tym jak ta technologia gdzieś tam wdziera się w nasze życie i co może i ile może namieszać,
Ale, no nie ukrywajmy, że bez audiodeskrypcji, czy bez osoby, która by nam opowiadała o tym, co dzieje się na ekranie, to traciliśmy bardzo dużo, szczególnie w niektórych odcinkach tego serialu.
Ale teraz, jeżeli macie ochotę, to możecie sobie obejrzeć wszystkie sezony, możecie sobie zbingzować, jak to się mówi, czyli po prostu obejrzeć cięgiem wszystkie, wszystkie sezony.
A naprawdę, no, ten nowy sezon jest bardzo ciekawy, więc ja bardzo serdecznie polecam.
Są odcinki lepsze i gorsze, ale ogólnie jest naprawdę fajnie.
Tymczasem mamy komentarze, mamy komentarze od Ani.
Ania pisze do nas tak.
Cześć, ja wrzucam na YouTube’a pliki mp4 renderowane w Reaperze i nie muszę dodawać żadnej grafiki.
Nie muszę też używać żadnej wtyczki w Reaperze.
Dziękuje za oglądanie i do zobaczenia w kolejnym odcinku.
Wszystko się zgadza, tylko ten plik mp4 to najpierw sobie trzeba czymś przygotować.
Czy w ogóle plik wyjściowy. I ja wspominałem o tym w kontekście takim, że to mp4,
które nam wychodzi z balabolki, no to niestety, ale nie jest takim plikiem,
który YouTube zaakceptuje. Bo próbowałem właśnie zrobić w ten sposób,
no i pojawił się błąd, błąd importu pliku, także wiem, że to nie działa,
Ale oczywiście, jeżeli komuś na przykład jest lepiej z Reapera skorzystać i rzeczywiście to w ten sposób działa.
A też kiedyś o tym słyszałem, że rzeczywiście Reaper jest w stanie generować takie pliki.
Chociaż skądinąd ponoć, jeżeli byście chcieli tworzyć, na przykład edytować jakoś materiały wideo
i tu już mówię nie z pustym obrazem albo z jakimś czarnym prostokątem,
Ale tak po prostu materiały wideo to Reaper renderuje dość kiepsko w porównaniu do innych narzędzi tego typu.
Tak słyszałem, oczywiście nie mam jak tego sprawdzić naocznie.
Natomiast no jeżeli ktoś na przykład woli w ten sposób to bardzo fajny pomysł i dzięki za te sugestie może komuś też będzie przydatna stworzyć sobie balabolkon,
coś a potem po prostu jeszcze wrzucić do Reapera i to przetworzyć, jeżeli ktoś tak woli.
Zostały nam, jak zwykle, drobne newsy, newsy na temat też gier, ale może zacznijmy od tych drobnych newsów.
Dobrze, no to w takim razie postanowiłem te mniej wesołe newsy dać na początek.
O jednym już mówiliśmy, czyli o YouTubie, więc to sobie opuścimy.
Natomiast powiem coś na temat najnowszej bety iOS-a 18.5 dla tych, którzy tę betę testują.
Powiem, że jest wśród słuchaczy trochę osób, które bierze udział w tych programach testowych.
Generalnie sama beta, jeśli chodzi o jakieś nowe funkcje, to w sumie chyba nic nie przyniosła,
natomiast już dążyła coś się popsuć. Mianowicie popsuła się klawiatura.
Przynajmniej tak można odnieść takie wrażenie po instalacji tego systemu.
Widziałem już kilka postów w mediach społecznościowych osób, które tą betę zainstalowały
i nagle okazywało się, że po strugnięciu w jakiejkolwiek pole tekstowe po prostu
Klawiatura się nie wyświetlała. Spokojnie, można to obejść w miarę łatwo, mianowicie musimy wejść w ustawienia voice-overa, następnie do sekcji Braille, a następnie musimy włączyć przełącznik pokaż klawiaturę ekranową. I to wszystko, jeśli to zrobimy, to jak się można domyślać właśnie z tego co powiedziałem, no po prostu klawiatura wtedy będzie wyświetlana.
Z jakiegoś powodu voice-overowi nawet wydaje się, że do urządzenia jest jakaś klawiatura podłączona.
Przepuszczam, że ten problem zostanie naprawiony zanim iOS 18.5 pojawi się w wersji stabilnej.
Natomiast na ten moment, dla tych, którzy mają tę wersję i poszukają tej klawiatury po prostu,
no to w ten sposób można ten problem naprawić.
A teraz przechodzimy do kilku nowości, np. Windows 11 w wersjach insiderskich ciągle rozwija narratora i tutaj pojawiła nam się kolejna nowość.
Ta nowość pojawiła się w kanale Canary i to jest wersja 2120.3873 i ta nowość jest całkiem ciekawa dlatego, że narrator doczekał się opisywania zdjęć sztuczną inteligencją używając lokalnych modeli na urządzeniu.
Microsoft zresztą też się chwali, że te opisy są bardzo szczegółowe.
Jeśli w tekście znajduje się jakiś tekst, jakieś liczby, jakieś wykresy,
to narrator będzie w stanie nam bardzo dokładnie podać taki opis.
Nawet mamy tutaj taki przykładowy opis.
Oczywiście to jest wszystko w języku angielskim.
Nie wiem, jak tutaj jest z bardziej innych języków.
Było zdjęcie, na którym był podany wykres i narrator opisał nam to rastabująco.
Obraz przedstawia wykres pokazujący wartość na giełdzie firmy Microsoft Corporation
na indeksach S&P 500 oraz Nasdaq.
Wykres pokazuje spokojny wzrost w cenie Microsoftu, wycenie Microsoftu nawet,
Od 18 do 23 czerwca, więc tego typu opisów możemy się spodziewać.
Brzmi fajnie? No, na pewno!
Niestety, ta funkcja na ten moment jest dostępna wyłącznie na urządzeniach Copilot PC,
czyli tych najnowszych komputerach i to nawet tylko Copilot PC wyposażonych w procesory ARM.
Chociaż Microsoft obiecuje, że za jakiś czas też powinna się pojawić
Dla tych, którzy mają nowe komputery z tym logo Co-Pilot PC, wyposażone w procesory Intel oraz AMD.
Gdyby ktoś to miał zainstalowane, no to do tych opisów dostajemy się skrótem narrator-ctrl-d.
Jeśli taki opis zostanie wyświetlony, to możemy mu dać lajka, możemy go polubić, możemy powiedzieć, że opis nam się nie podoba,
poprosić, żeby został wygenerowany jeszcze raz, a po prostu się wyświetli nam okienko dialogowe,
na którym te wszystkie rzeczy możemy zrobić.
Natomiast dla pozostałych osób będziemy dostawać takie krótsze opisy
i to już będzie z tego, co pamiętam, wysyłane do chmury.
Także fajnie, że w końcu
my też będziemy mieli jakieś korzyści z tych komputerów CoPilot.
Czy samo to spowoduje, że te komputery będą warte zakupu?
Nie wiem. Natomiast fajnie, że Microsoft jednak o narratorze nie zapomniał
i znów jakieś nowości do niego zaczęły być wprowadzane.
No i to całkiem przydatne, moim zdaniem, nowości.
Byłoby jeszcze lepiej, gdyby np. też udostępnili ten model
dla innych czytników ekranu, ale zobaczymy, co będzie w przyszłości.
Następnie coś dla osób, które tworzą muzykę lub są tym zainteresowane.
Jeden z producentów wirtualnych instrumentów,
Mianowicie The Crow Hill Company planuje wydać duże aktualizacje wszystkich swoich produktów.
Na razie tego nie ma dużo, to jest firma, która jest stosunkowo nowa na rynku.
Natomiast chcą zadbać o dostępność tych rozwiązań.
Nawiązali kontakt z Andrej Lewisem, którego myślę, że wielu z Was może kojarzyć.
Jest to osoba, która spopularyzowała tak naprawdę np.
Komplet Kontrol, zresztą też współpracował z Native Instruments nad jego dostępnością Abletona Move i wiele, wiele innych rzeczy.
I tym razem poprosili go, żeby podał do swoich mediów społecznościowych ankietę dla zainteresowanych muzyków,
w których możemy podzielić się naszym zdaniem, co dla nas jest ważne w dostępności instrumentów programowych audio wtyczek.
I ankieta jest po prostu formularzem Google, nawet tam nie potrzeba poddawać
naszego adresu e-mail, tylko po prostu wypełniamy ją anonimowo.
Składa się z tego z kilku w miarę prostych pytań dla tych, którzy chcieliby
sobie ją wypełnić, no to może szybko przeczytam te pytania.
Jak często korzystasz z komputera do komponowania muzyki?
Tutaj mamy skalę od 1 do 5, gdzie 1 to jest nigdy,
A5 to jest bardzo często.
Następne pytanie, czy korzystasz z wirtualnych instrumentów w swoich kompozycjach?
I tutaj znów skala od 1 do 5, gdzie 1 to jest rzadko, a 5 to jest cały czas.
Z jakiego systemu operacyjnego korzystasz podczas tworzenia muzyki?
No to nie możemy wybrać pomiędzy Maciem a Windowsem.
Jak często piszesz dla, produkujesz lub wchodzisz w interakcje
z instrumentami muzycznymi. Znów tutaj skala od 1 do 5, gdzie 1 to raz na jakiś czas, a 5 to codziennie.
Czy wiesz o Crow Hill Company? Tutaj wybieramy tak albo nie.
Czy słyszałeś o standardzie NKS? No jeśli słuchacie tych przeglądów i tworzycie muzykę, to prawdopodobnie słyszeliście.
Tutaj też po prostu wybieramy tak albo nie. Tak, nie albo może.
Jak często korzystasz z NKS podczas gry na wirtualnych instrumentach?
Tutaj znów Scara 1 do 5, 1 to nigdy, a 5 to jest bardzo często.
Czy dostępność, m.in. kompatybilność z NKS, ma wpływ na to, jakie instrumenty kupujesz?
No i tutaj możemy wybrać pomiędzy tak albo nie.
Czy zdedykowany tryb dostępności dla interfejsu użytkownika, np. kolory tłoczczy czarne na białym,
usunięcie jakichś zbędnych elementów, jakiegoś tła np., większa ścionka spowodowałyby, że łatwiej by ci było korzystać z instrumentu?
Tutaj też po prostu zaznaczamy tak, nie albo może.
Czy masz jeszcze jakieś inne komentarze dotyczące dostępności?
I to jest cała ankieta. Jest bardzo krótka. Po wypełnieniu ankiety dostaniemy
kod promocyjny bez ograniczenia na 20 funtów, który możemy wykorzystać
w sklepie CrowHeelCompany. I tutaj też producent obietuje, że za jakiś czas
mają pojawić się nowe wtyczki, które nawet będą kosztować mniej niż 20 funtów.
Więc będzie prawdopodobnie też możliwość, żeby coś nawet, no powiedzmy, za darmo dostać.
Także myślę, że warto tą ankietę wypełnić, jeśli tworzycie jakąkolwiek muzykę.
A my teraz chwilę porozmawiamy o czytaniu plików PDF na Macu w budowanej aplikacji
Podgląd, która, jak wiemy, czasami może powodować różne problemy.
Tutaj konkretnie chodzi o sytuację, kiedy próbujemy jakiś plik czytać, a czasami kursor voice overa nam przeskakuje strony.
Tak sobie czytamy, strona pierwsza, strona druga i nagle lądujemy, nie wiem, na stronie piętnastej.
To mi się zdarzyło parę razy i nie tylko mi, zresztą sądząc po komentarzach pod postem na AppleWiz, okazuje się, że jest na to proste rozwiązanie.
Mianowicie wystarczy w menu widok aplikacji podgląd przełączyć ten widok na tryb jednej strony.
Można to też szybko zrobić skrótem Command 2, tak żeby po prostu faktycznie plik nam się otwierał, otworzył jako jedna strona, a nie na przykład dwie strony koło siebie, co według autora tego postu powoduje, że voiceover zachowuje się bardziej przewidywalnie, no i wtedy powinniśmy w miarę spokojnie w stanie, jeśli oczywiście plik jest na tyle dostępny, sobie tego PDFa przeczytać.
I ostatnia nowość ode mnie, aplikacja M-Clock, o której mówiłem przy okazji ostatniego Tyfloprzeglądu, czyli taka prosta mówiąca zegarynka, została zaktualizowana nawet dwukrotnie.
Były poprawki błędów z niektórymi zegarami, ale też na przykład zostały dodane słowaki głośności, osobno dla skrótów klawiszowych, żeby nam godzina była przeczytana,
i osobno dla automatycznego raportu godzin oraz został dodany
globalny skrót klawiszowy na przeczytanie godziny.
To jest trzeba domyślić Ctrl Alt F12, bo ta funkcja działa tylko
niestety na systemie Windows i została dodana też możliwość zmiany tych skrótów
klawiszowych. Także gdyby komuś Ctrl Alt F12 nie pasowało, no to można też
z poziomu aplikacji ten skrót.
Tu jeszcze mamy chyba kilka newsów jeszcze od Pauliny i Pawła, zdaje się.
Pierwsze jest ode mnie.
I ten news jest ten temat automatycznego, jak to nazwać dobrze po polsku,
odnajdywacza, wyszukiwacza etykiet na stronach internetowych i programach.
Kilka dni temu taki człowiek, który zajmuje się tworzeniem dodatków do NVDA,
nazywa się Alberto Bufalino, opublikował na GitHubie taki moduł,
który może być wykorzystywany do tworzenia dodatków do NVDA,
które usprawniają dostępność pewnych programów albo stron.
No bo jeżeli na przykład mamy stronę, na której jest, dajmy na to,
formularz z danymi kontaktowymi i on wygląda w taki sposób,
że mamy imię, potem strzałka w dół i jest pole edycji na wpisanie imienia,
ale już jest niezaetykietowane. Potem nazwisko, strzałka w dół i polo edycji znowu.
No to jeżeli przechodzimy tabem po tych polach edycji, no to tak naprawdę nie czytane jest nam nic.
I ten moduł, widząc te etykiety, które są obok pól, ale nie jakby w samych nich,
będzie w stanie je odzyskać stamtąd i mówić się nam w momencie, kiedy będziemy
z fokusowaniem na tym polu edycji.
A drugi case, który może się
właśnie też przydać w programach, już wtedy, a nie w stronach,
to wtedy, kiedy etykieta znajduje się pod przyciskiem albo obok
w hierarchii obiektów. Czyli wtedy, kiedy np.
właśnie albo przycisk, albo jakieś pole edycji nie jest zaetykietowane,
ale ta etykieta występuje gdzieś w sąsiedztwie
Albo właśnie pod tym elementem w hierarchii obiektów.
I ma to też swoje implikacje, na przykład jeżeli są suwaki z niestandardowymi wartościami,
a mówi nam ich liczbowe wartości, takie zwykłe od 0 do 100, przynajmniej jeżeli to dobrze zrozumiałam.
Ale właśnie na ten moment jest to nie osobny dodatek, nie część NVDA, tylko moduł, który możemy zaimportować podczas tworzenia dodatku swojego.
Napisałam z pytaniem, dlaczego to nie może być moduł do NVDA, bo to by myślę zrewolucjonizowało sposób korzystania z niektórych programów.
I jeszcze czekam na odpowiedź. Natomiast co do tego, czemu to nie jest dodatkiem,
no to po prostu autor stwierdził, że wymagałoby to więcej prac
i tak już dużo czasu spędził nad tym, żeby to napisać,
więc na razie się publikuje to jako moduł. No ale gdyby na przykład właśnie spróbować
stworzyć dodatek, który odnosi się tylko i wyłącznie do jakiegoś programu,
Ale w sumie nie robię nic innego niż importowanie tego modułu,
to nawet już wtedy mogłoby się okazać, że ten program będzie działał lepiej.
Ja się tylko obawiam tego, że po coś, na przykład na stronach internetowych,
po coś jest to powiązanie etykiety z odpowiednim polem.
I ja jedynie zastanawiam się tylko, czy autor właśnie nie stworzył
tego dodatku ze względu na to, że jeżeli coś nie działa, to to niedziałanie może być na tyle różnych sposobów,
że po prostu on nie byłby w stanie tak do końca przetestować wszystkich przypadków i prawdopodobnie o to tu chodzi.
Tak samo jak w kontrolkach w jakiejś aplikacji. Te, jak sobie przejrzymy czasem nawigacją obiektową i to zwłaszcza tam,
Bo na stronach internetowych to jest jeszcze pół biedy, bo zazwyczaj ten tekst, który dotyczy danego pola, to jest albo nad nim, albo czasem pod nim,
bo też się tak czasem zdarza, że tekst jest pod. I teraz, wiesz, jak masz na przykład dwa teksty, to skąd wiedzieć, który tekst odnosi się do jakiego pola?
I taki dodatek w niektórych przypadkach to mógłby robić jeszcze więcej szkody niż pożytku, jeżeli ktoś by tylko na nim polegał.
A w przypadku aplikacji, które są, to jak sobie przejrzymy czasem tak po prostu to drzewko
hierarchii obiektów, to tamto się już w ogóle dzieją cuda dziwne i naprawdę czasem nie sposób z tej logiki
tych obiektów po prostu odczytać tego, co jest z czym powiązane i trzeba naprawdę bardzo często zgadywać.
I ja podejrzewam, że właśnie dlatego autor stwierdził, dobra, zrobiłem coś takiego,
Może komuś się to przyda, może spróbuje, może jakoś mu to ułatwi życie,
ale ja nie chcę brać odpowiedzialności za to, że ktoś potem będzie wypełniał za pomocą
takiego dodatku, którego ja do końca nie przetestowałem, formularze
i będzie mieć pretensje, że coś mu nie działa.
Znaczy, ja bardziej myślę o takim czymś, że jest wtyczka,
widzimy, że jakaś strona ma na przykład właśnie pod polami etykiety do tych pól
I wciskamy sobie skrót.
I jest jakiś taki panel ustawień, w którym deklarujemy, skąd mają być pobierane etykiety.
I tak na przykład w programach byłoby czy z nad obiektu, czy z pod obiektu, czy z lewej, czy z prawej strony.
No na stronach byłoby tylko, załóżmy…
Nad albo pod.
Czy z góry, czy z dołu, prawda?
Nie, no oczywiście, to coś takiego to byłoby, podejrzewam, do zrobienia.
Pytanie, jak wiesz, jak często masz takie formularze, czy nie byłby to trochę przerost formy nad treścią,
bo jeżeli już przejrzymy sobie tę stronę, nie? Bo ja rozumiem, gdyby to automatycznie jakoś wykrywało.
Ale jeżeli masz na przykład jakiś taki formularz, oczywiście, wiadomo, czasem zdarza się tak, że masz na przykład formularz
i kilkadziesiąt pól i wtedy to się opłaca taki dodatek sobie włączyć. Ale przeważnie jak to jest pięć pól,
Zanim ja ustawię ten dodatek, że on mi ma szukać informacji nad albo pod,
to ja już zdążę ten formularz wypełnić, bo go sobie przejrzę.
Nie, no to ja rozumiem, ale na przykład pracujesz gdzieś, gdzie dzwoni do ciebie klient
i musisz wypełnić formularz za niego, prawda, na linii.
Tak, wtedy tak.
Albo właśnie pracujesz z jakimś programem, który ma etykiety pod obiektem,
jakby z elementem interaktywnym.
No i wtedy ustawiasz sobie to raz i dla tego programu jest decyzja zapamiętana, więc za każdym razem, kiedy go odpalisz, to już nie mówi przycisk, przycisk, przycisk, tylko coś konkretnego, prawda?
Oczywiście, dlatego jako sam moduł, jako samo narzędzie, to uważam, że jest to bardzo fajna sprawa, natomiast próbuję tu tak trochę wejść w skórę tego autora
I zastanowić się, dlaczego on stwierdził, że po prostu, że nie będzie tego jednak tworzył, przynajmniej na razie jako jakiś taki konkretny dodatek, ale być może sam się wypowie i jeszcze coś doda.
Ja myślę, że taką funkcję ma też Joss w ogóle, nie? Joss z tego słynął chyba, że ma taką inteligentne etykietowanie formularzy i to potem, no, różne skutki rodziło, jak chodzi o to, skąd on to brał i czy to się zgadzało bardzo często.
Okej, czy my coś tu jeszcze mamy?
Tak, to znaczy z drobnych newsów ja znalazłem jedną rzecz i to już wspomniałem o Hacker Newsie dzisiaj.
I to jest właśnie z Hacker Newsa tą rzecz w mam.
A chodzi o aplikację Pocket Server.
To jest aplikacja na iPhona, która pozwala nam postawić serwer HTTP na iPhonie.
Co to oznacza i do czego to może być przydatne?
No to kilku rzeczy. Głównym założeniem aplikacji było to, że ona miała służyć
deweloperom po to, żeby np. zaserwować jakąś prostą stronę w HTML-u i żeby można
było tamtej stronie się przyjrzeć, ewentualnie nad nią jakoś współpracować.
Oczywiście serwer miałby działać w tle, jak wiele aplikacji na iPhone’a,
które takie rzeczy potrafią. Miałby być mały po to, żeby też dało się go szybko
Można go ściągnąć na gorszych gdzieś tam łączach i ma rzeczywiście chyba około jednego mega albo mniej niż jeden mega cała aplikacja.
Natomiast do czego on się może przydać przeciętnemu użytkownikowi? A no do udostępniania plików.
I tu mamy różne możliwości, bo możemy na przykład wystawić konkretny plik.
I to w tym momencie działa tak, że po prostu wchodzimy do aplikacji, klikamy udostępnij plik.
Otwiera się nam menedżer plików, ten iOS-owy.
My wybieramy sobie plik i tworzy się do tego pliku link na naszym urządzeniu,
czyli localhost.https://ip naszego iPhona.pl
I my ten link możemy wystawić gdzie chcemy, udostępnić konkretnej osobie,
która jest w tej samej sieci Wi-Fi, co my.
No i w tym momencie, jak ta osoba przejmie ten link, otworzy go sobie,
No to w idealnym założeniu po prostu ten plik się ściągnie, my możemy serwer zamknąć i koniec historii.
Ale możemy też uruchomić zasób WebDAV. No i tu już jest zabawa, bo tu można tworzyć użytkowników,
może się kilka osób, można różne uprawnienia nadawać, no i można się do tych zasobów potem z różnych urządzeń podłączać.
Także możemy zrobić sobie taki de facto serwer na iPhonie do wymiany większej ilości plików i folderów.
No i tym jakoś też zarządzać. Także no ciekawe, swoją drogą, ja mam jakiś problem
z tymi aplikacjami, które mają działać w tle, no bo one jakoś nie działają w tle.
Jakby autorzy zapewniają, że to w tle będzie działać, że to się nie wysypie,
że to będzie sobie stało i tam, nie wiem, pliki synchronizowało czy cokolwiek.
A testowałem to już z tą aplikacją Synctrain, która miała być do Syncthinga,
do synchronizowania na przykład plików między iPhone’em a komputerem.
Tak samo z tą aplikacją WebWatcher, która służy do śledzenia zmian na stronach UWW.
No i nie wiem, musiałbym jeszcze się przyjrzeć tej aplikacji.
Natomiast obawiam się, że może być podobny finał.
Czyli po prostu chwilę to podziała, po czym się gdzieś tam w tle,
bez mojej wiedzy zamknie i już działać nie będzie.
No niestety obawiam się, że to tak jest generalnie na iOS-ie z tymi serwerami.
Zresztą, skądś na przykład twórca Fubara
pisze wprost w komunikacie, kiedy uruchamiamy serwer FTP,
że najlepiej pozostawić okno tej aplikacji cały czas aktywne
w momencie transferów.
Tak, to właśnie autorzy aplikacji się chwalą, że to ma niby działać,
że oni użyli jakiegoś konkretnego uprawnienia
i właśnie, że działanie w tle, czy tam odświeżanie aplikacji w tle
To miało by zapewnić to, że to będzie działać nieważne co się dzieje, ale może niepotrzebnie zamykam te aplikacje z tego, z paska.
To jest też inna rzecz. Musiałbym się przyjrzeć kiedyś. Natomiast gdybyście chcieli w jakiś sposób, bo tych aplikacji do dostępniania plików jest trochę.
Jakieś local send, jakieś land dropy. Ja tego też używam czasem i jest to fajne. Natomiast wymaga to tego, aby obydwie strony miały tą samą aplikację.
A tutaj możemy w bardzo szybki, zdaje się, bezproblemowy sposób tak to udostępnić,
że każdy może sobie taki plik pobrać, czy tam do takich zasobów się dokopać.
Także, gdybyście potrzebowali, to jest.
I zanim jeszcze przejdziemy do newsów z gier, mamy wiadomości głosowe od Sylwestra.
Słuchajcie, a jak zaktualizować narratora w Windowsie i skąd pobrać najnowsze wersje narratora?
Druga sprawa, gdzie pobrać RH Voice’a, najnowsze wersje, skąd pobrać najnowsze wersje RH Voice’a na Windowsa, na NVDA?
Do NVIDIA i RH Voice’a na pewno można pobrać ze strony zlotowicz.pl
Ukośnik synteza, tak.
I tam można pobrać chyba silnik i głosy.
Natomiast słuchy mówią, że ma być powoli RH Voice w tym, jak to się nazywa?
W sklepie.
Faktem jest to, że już beta jest.
Beta, no właśnie. Więc to jest. Natomiast jeżeli chodzi o aktualizy narratora, to chyba nie da się zrobić bezpośredniej aktualizy narratora jako takiego.
On chyba przychodzi po prostu z kolejnymi wersjami Windowsa. Tak mi się wydaje, ale być może się mylę.
Tak, bo narrator jest integralną częścią systemu i jeżeli na przykład chciałbyś, Sylwestrze, używać najnowszego narratora,
To musiałbyś przejść na jakieś testowe kompilacje Windows. Tylko czy ma to sens, tak naprawdę to nie wiem, bo no wtedy są to jakieś wersje testowe i może to po prostu działać mniej stabilnie, więc no tu już musiałbyś zdecydować, czy na ile ten narrator i jego aktualność jest dla ciebie ważna.
A też nie ma gwarancji, że on byłby aktualizowany jakoś często i że dostawałbyś zawsze jakieś super nowe funkcje.
No, bo w tym narratorze jakoś bardzo wiele to też i się nie zmienia. Coś tam dochodzi oczywiście, nie o tym wspominamy co jakiś czas, ale czy ja wiem, czy są to tak rewolucyjne zmiany?
Ale właśnie najczęściej jak coś jest, to już o tym mówimy, bo tego jest na tyle mało, że w sumie jak się o tym raz na miesiąc spowie, to to jest tyle.
I mamy jeszcze wiadomość od Sylwestra.
Ja chciałem zapytać o klawiaturki na baterie. Na paluszek AA lub AAA.
Bo można zastosować akumulatory tego typu.
Druga sprawa, no słucham o tych jajkach w tej chwili. Zabawy z tymi jajkami.
No nie wiem, to jest jakieś dzieci narada w Ameryce.
Nie, nie, to jakieś dziwarstwo po prostu.
Pozdrawiam, życzę wszystkiego najlepszego, zdrowia, na święta,
bo ja się pewnie dziś nie będę odzywał. Dobranoc wam.
Znaczy, no to chyba jest w ogóle dla dzieci.
No dokładnie, przede wszystkim.
No to takie ma być.
I zresztą to nie jest tylko w Stanach Zjednoczonych. Na przykład w Niemczech też z tego co wiem dość często się dzieciaki tak bawią.
A i w Polsce jak słychać, tu Piotr mówił, też, też się zdarza.
Tak, także no dla niektórych to się rzeczywiście może wydawać takie nie bardzo poważne.
Ale z drugiej strony dzieci mają swoje potrzeby.
No i też warto gdzieś tam pomyśleć teraz o dzieciach niewidomych, które…
Także tak to jest.
Z dwóch wiadomości, które zostały od Sylwestra, udało mi się odtworzyć jedną,
ponieważ jedna wiadomość ma taki opis, że dostępna jest tylko na Twoim telefonie
i jest do wyświetlenia tylko raz.
Nie uda mi się je odtworzyć. Natomiast ostatnia wiadomość, już jak najbardziej mogę ją pokazać.
Ja mam tylko taką uwagę. Nie wiem co z tymi zegarkami, znaczy okularami.
To jest śmietnik po prostu z tymi okularami inteligentnymi.
To przychodzi to wszystko z Ameryki, z Anglii. Nie wiem, ja nie proponuję. Uważajcie z tymi okularami. To pieniądze wam wyłodzi, niewiele osób skorzysta. Ja takie coś miałem i niestety w śmietniku to wylądowało, a pieniądze straciłem.
Mała sprawa, natomiast no rzeczywiście tych okularów jest dużo różnych, tu tak jak Paweł też zresztą wspominał, sporo jest tych różnych modeli. Jak na razie to takimi okularami, które rzeczywiście no wiadomo, że działają i że działają dosyć fajnie, zwłaszcza w realiach niekoniecznie może polskich, to są te okulary Ray-Ban Meta.
Ale jak ktoś bardzo chce, to tak jak mogliście posłuchać w jednej z naszych audycji dostępnych na stronie tyflopodcast.net, no też można korzystać z tych okularów w Polsce, jak ktoś tam się odpowiednio postara.
To jest rzecz jedna, a swoją drogą, Sylwestrze, tak w ogóle dziękujemy za życzenie i wzajemnie wszystkiego, wszystkiego dobrego na święta.
I został nam jeszcze jeden kącik newsów, tym razem nowości z gier.
A tutaj przez tydzień działo się naprawdę dużo, słuchajcie, od nowych wydań, aktualizacji, premier i promocji i wszystkiego innego.
Więc może zacznijmy od nowości.
Od nowości w platformie Marvel Realm, o której zresztą chyba w zeszłym tygodniu opowiadał Patryk,
który sygnalizował nam, że pojawił się zwiastun tej gry. Zresztą jeśli ktoś obserwuje forum Audiogames,
no to na pewno informacje od Sonorous Arts prawdopodobnie widzieliście.
No i czekać już nie musimy, bo ta najnowsza gra już została nam udostępniona.
Zastępniona, nazywa się Downtown Demolition i naszym zadaniem jest po prostu, wcielamy się w snajpera, który musi spowodować jak największe spustoszenia w mieście, w którym się znajdujemy dzisiaj.
Tam jakieś samochody, które zresztą też nas próbują zabić, po prostu rozjechać. A naszym zadaniem po prostu jest ich trafienie.
Jednocześnie w połowie niebie lata helikopter,
który też będzie próbował w różne rzeczy niszczyć swoimi rakietami
i my możemy również, jeśli ten helikopter usłużymy, próbować go zestrzelić.
Jeśli nam się to uda, to dostaniemy duży zastrzeg punktów.
Tutaj w tej grze też zresztą jest wykorzystywany system celowania w górę i w dół,
który już znamy z poprzedniej gry, która się pojawiła na platformie Marvel Realm,
System, który zresztą działa naprawdę dobrze i on jest też wykorzystywany do zbierania
przedmiotów, które będą nam dawać różne bonusy, między innymi jakieś wybuchowe
pociski i inne tego typu rzeczy, bo te przedmioty po prostu będą spuszczane gdzieś z
powietrza i my musimy, żeby taki przedmiot zdobyć, my musimy tą rzecz zeszczelić.
No i jednocześnie nie dość, że będziemy musieli wycelować odpowiednio tak, żeby ten
No to też będziemy musieli odpowiednią wysokość naszej broni też ustawić, żeby ten przedmiot zestrzelić.
Oprócz tego, że ta nowa gra się pojawiła, to sama platforma też została przeceniona.
Mamy w tym momencie promocję do wydania następnej gry.
Kiedy następna gra zostanie wydana, nie wiem, ale myślę, że na pewno kilka tygodni powinniśmy mieć.
Na pewno myślę, że z tydzień, tak przypuszczam przynajmniej.
Jeśli ktoś będzie chciał zapisać się do platformy Marvel Realm m.in.
żeby tą nową grę spróbować, to abonamenty zostały trochę przecenione.
Jeśli zdecydujemy się na dostęp na trzy miesiące, no to ten abonament
został przeceniony o 40%, natomiast abonament miesięczny jest
O procent trzydzieści.
Także dla tych, którzy jeszcze nie
przetestowali tej platformy, a dużo ciekawych gier tam można znaleźć, o właśnie
takich, gdzie strzelamy w różne rzeczy, po takie, w których prowadzimy kawiarnie,
to myślę, że warto całym Marvel Realmem się zainteresować.
Następnie mamy grę taką bardziej na myślenie.
Mianowicie gra się nazywa Dice Factory i jest w pewnym sensie kontynuacją jednej z minigier dostępnych w Crazy Party.
Może kojarzycie taką grę, w której jesteśmy pracownikiem fabryki kości do gier i naszym zadaniem jest po prostu takiej kości tworzyć.
Wygląda to tak, że mamy koło siebie sześć bodajże w Crazy Party kości.
W tej grze na początku zaczynamy od czterech i gra nam będzie podsu…
To jest ta pięć, mi się wydaje.
A może i pięć, tak po środku. Tutaj, mniej więcej w tej grze, akurat zaczynamy od czterech, żeby było trochę łatwiej.
I gra nam będzie podsuwała różne cyfry.
Naszym zadaniem jest w te pięć kości prawidłowo stworzyć.
I na przykład, nie wiem, dostajemy dwójkę, dajemy nam na kość pierwszą,
Potem dodajemy czwórkę, no to też ją znów dajemy na kość pierwszą i na przykład gra nam znów podsunie dwójkę.
No to nie możemy tej dwójki dać na tą kość pierwszą, no bo ona już dwójkę mała, więc w tym momencie zaczynamy produkcję kolejnej kości.
Więc dajemy ją na kość numer dwa.
I po prostu musimy tak całą kość skompletować, tak żeby wszystkie, akurat tutaj tworzymy kości sześcienne, żeby taka kość była kompletna.
W tej odświeżonej wersji tej gry, tak jak wspomniałem, zaczynamy od kości czterech,
natomiast czasem będzie ich przybywać, ale też będziemy dostawać inne bonusy,
które na przykład pozwolą nam szybko wymazać wszystkie kości, gdybyśmy się naprawdę tak pogubili,
a nie chcemy stracić punktów lub podejrzeć, jakie cyfry już mamy na jakieś kości udostępnione.
I dodatkowe życie, no bo właśnie w tej grze, w Crazy Party, no po prostu traciliśmy punkty i to było tyle.
Natomiast w tej grze, jeśli źle stworzymy jakąś kość, no to tracimy życie.
Zaczynamy z pięcioma życiami, natomiast jeśli uda nam się trzy takie kości skompletować w pełni,
no to dostajemy jeden z tych bonusów i w ten sposób możemy sobie ewentualnie dodatkowe życie zdobyć.
Domyślnie gramy właśnie nie tyle na czas, co na życia, natomiast jest też dostępny tryb
Time Trial, gdzie gramy na czas. Tam akurat życia nie mamy, ale naszym zadaniem po prostu
jest stworzenie jak największej ilości kości w przydzielonym dla nas czasie.
Następnie mamy coś dla użytkowników iPhone’ów, a mianowicie kolejnego
Dzięki Matiusowi Reinowi, czyli tutaj znów użytkownik DRG powraca.
I tym razem skąd nawiązał kontakt z deweloperem gry Elder Myth.
I ta gra jest o tyle ciekawa, że według mojego appstora w polskim appstorze
zajmuje w tym momencie siódme miejsce w kategorii najlepszych gier typu puzzle.
No ciekawe, także dosyć popularna produkcja, przynajmniej tak można sądzić po tej informacji.
I jest to faktycznie gra całkiem ciekawa, bo wcielamy się w niej, w jednego z czterech potworów, czterech bestii.
Naszym zadaniem jest obrona naszej ziemi i tubeców, które na tej ziemi są, przed kolonistami.
Tam po prostu na tej planszy też mamy morza, generalnie to jest plansza pięć na pięć,
która jest rozpisana trochę tak jak na szachownicy, więc mamy A1 to jest lewy górny,
wróg A5 to jest prawy dolny.
Mamy też tam pola, gdzie znajduje się morze.
I co jakiś czas do naszej wyspy tak nawet będą przebywały statki, z których będą
schodzić różni ludzie.
To mogą być górnicy, którzy będą ziemię przygotowywać na budowanie.
Mogą to być łowcy, którzy po prostu nas stopią i tam jeszcze jeden albo dwa
…osób. I mogą też tam powstawać różne bodynki.
Naszym zadaniem po prostu jest ochrona tej ziemi tak długo, jak to jest możliwe.
Każda bestia ma unikalne umiejętności i może wykorzystywać specjalne ataki na
konkretnych miejscach. Na przykład tam mamy jakąś bestię, która jest jakimś
pustynnym smokiem, więc jeśli jest na pustyni, to tam może atakować kilka pól
Mamy jakąś, coś w stylu jakiegoś rekina chyba, który gdzieś lubi pływać po morzu jako jedyny, zresztą może przemieszczać się po tych wodnych polach.
No i tego typu rzeczy mamy. Umiejętności są różne, które potrafią zarówno właśnie atakować kilka pól naraz, niszczyć wszystkie budynki jednocześnie i wiele innych rzeczy.
Co ciekawe, umiejętności w każdym biegu odbogowujemy płacąc strachem.
Zdobywamy strach poprzez odniszczenie budynków i zabijanie tych osób, które
próbują do nas dotrzeć.
No i w ten sposób i później możemy je zamieniać na uaktywowanie tych różnych
umiejętności. Gra ma elementy roguelike’owe o tyle, że za każdym razem plansza, na
której będziemy grać, a co do tym idzie rzeźba terenu, będzie inna.
W grze też zmieniają się warunki atmosferyczne, co ma wpływ na naszą celność i inne efekty.
Między innymi tam mogą się pojawiać np. jakieś tornata, które też będą budynki niszczyć, albo jakieś deszcze i parę innych zjawisk powogodowych.
Wszystko jest zresztą w dokumentacji opisane, w dokumentacji, którą warto przeczytać.
Jeśli jeszcze chodzi o dostępność tej gry, no to VoiceOver generalnie wszystko czyta.
Natomiast mamy też do dyspozycji
Guest Magic Tab, czyli dwukrotne
słuchnięcie dwoma palcami, która nam
automatycznie po pierwsze przeczyta
wszystkie statystyki, czyli nasze życie
i nasz strach, ale też dostaniemy
informacje, jakie rzeczy znajdują się
na mapie, czyli będziemy, dostaniemy
informacje na przykład, że my jesteśmy
na polu B5, a jednocześnie na przykład
jakiś górnik coś robi na B2 i w ten
sposób wiemy, w którą stronę ewentualnie
Mamy iść. A propos chodzenia, to też istotna informacja, żeby poruszyć naszą postać, naszą bestię.
No to stukamy dwukrotnie i przesuwamy palcem w górę, w dół, w lewo lub w prawo, zależnie od tego, w którą stronę chcemy pójść.
Nie musimy robić tego na samej bestii, po prostu generalnie w każdym miejscu na ekranie możemy to zrobić.
Na samo przemieszczanie się dźwięku nie ma, natomiast dostajemy dźwięki na inne istotne kwestie,
jeśli sobie je w ustami jak włączymy. To też kolejna rzecz, którą warto sobie zrobić,
kiedy będziemy rozgrywkę zaczynać. I mam wrażenie, że o czymś jeszcze zapomniałem powiedzieć.
Aha, no generalnie autor też obiecuje, że kolejne poprawki dostępności będą wprowadzane,
Wszystkie informacje byłyby czytane jeszcze lepiej.
Może rzeczy byłyby czytane automatycznie,
bo na ten moment musimy za każdym razem ręcznie sobie ten gest znów wykonać,
żeby usłyszeć, jak w tym momencie wygląda plansza.
Natomiast gra jest całkiem ciekawa i nie jest jakoś bardzo komplikowana,
mimo to, że na początku wydaje się, że to na pewno…
Kiedy będziemy się uczyć tych mechanik,
No to wymyślimy jakieś strategie, natomiast sama rozgrywka jest w miarę prosta, jak i sama gra, która w App Store’ze u nas kosztuje 15 złotych.
Chciałabym w prawdziwym życiu płacić strachem.
No nie? Byłoby dużo łatwiej. Coś mam wrażenie w niektórych sytuacjach.
Co mamy dalej? Dalej mamy grę przeglądarkową i tym razem grę darmową, która w sumie pojawiła się nawet dwa tygodnie temu.
Natomiast ja jakoś tę informację przeoczyłem.
Gra nazywa się The Chronicles of Morvacker i to jest ciekawe gra
w pewnym sensie oparta na jakichś legendach, na
jakichś prawdziwych, powiedzmy, historiach, w której przenosimy się
do północnych Niemiec w wieku XIII.
Żeby przejść taką… takie RPG z elementami fantastyki, w których mamy takie dwa tryby fabuły.
Generalnie to jest gra typu Choose Your Own Adventure, gdzie podejmujemy różne decyzje i na tej podstawie fabuła będzie toczyć się dalej.
Swoją drogą fabuła ma cztery rozdziały i przejście całej gry nam powinno zająć od sześciu do ośmiu godzin.
Natomiast mamy też kilka zakończeń, więc grę można sobie powtórzyć.
Jest dostępna to równo w języku niemieckim, jak i angielskim.
No ale też przez to, że gramy w przeglądarce, no to można ją sobie przetłumaczyć.
Mamy też muzykę i oprawę muzyczną i dźwiękową.
No i wracając do tej fabuły.
Gra… no nie miałem dużo czasu, żeby tą grę dobrze ograć.
Jest o tyle ciekawa, że wcielamy się w postać, która potrafi
przemieniać się i kontrolować różne zwierzęta. Zbieramy takie
przedmioty, co są na początku, nam się wydaje, że to są czaszki, ale chyba do końca nie są czaszki.
To są bardziej jakieś figurki, właśnie jakichś króków, pszczurów,
jakichś wilków i innych rzeczy. I kiedy wchodzimy do walki z jednym
lub z kilkoma przeciwnikami, no to oprócz tego, że nasza postać dostaje różne umiejętności,
z domieszkiem takiej prawdziwej historii.
No to myślę, że warto też tą grą się zainteresować.
Też muszę pochwalić tę muzykę i dźwięki, które faktycznie też dodają trochę
do atmosfery tej gry.
I na koniec wracamy do gier mobilnych.
Mamy grę, która w tym momencie dostępna nie jest.
Natomiast od 17 kwietnia już ruszyła oficjalnie.
Przez weekend trwał otwarty beta-test, jest to gra od Prudence Interactive, czyli studia, które możemy znać m.in. z czytnika ekranu Prudence, ale też z kilku różnych gier.
I ta najnowsza produkcja nazywa się Call of Fate, autorzy nazywają ją grą karcianą. Ja bym się z tym nie do końca zgodził, tak jak tutaj poza anteną rozmawiałem z Patrykiem,
Który też tę grę testował.
No, karcianka to nie jest…
I który już czeka na wejście na antenę, to mogę zdradzić.
A to myślę, że też tutaj podzielić się wrażeniami z tej gry.
Natomiast to jest bardziej taki auto-battler, czyli…
No, nawet tutaj myślę, że do ustawek Hurstonowych to daleko.
Bardziej może do kilty, jeśli ktoś w kilta grał.
Natomiast mam wrażenie, że tutaj i tak też jest mniej do zrobienia.
Co mogę o tej grze powiedzieć z tych testów,
które chwilę udało mi się ograć.
Jest całkiem fajna oprawa muzyczna,
szkoda, że czasami muzyki się nakładają na siebie.
Dźwięki też są całkiem spoko.
Gra, fabuła jest przedstawiona głównie tekstem,
który jest przetłumaczony na język angielski.
I jeśli chodzi o samą rozgrywkę,
to to jest taka typowa tzw. gacha.
To są gry, które są bardzo popularne głównie w Chinach,
Tak, ale nie tylko. One są często tworzone przez chińskie i również japońskie, koreańskie studia,
które bardzo zyskują popularność na całym świecie, gdzie generalnie zdobywamy jakichś herosów.
Możemy im zwiększać ekwipunek, możemy im zwiększać poziomy.
Natomiast w samej rozgrywce ustawiamy ich w odpowiedniej kolejności i oni walczą za nas tak naprawdę,
Po czym my dostajemy różne waluty, jakieś kryształy, jakieś fragmenty kryształów, jakieś diamenty. Tam chyba trzy albo cztery różne waluty widziałem, teraz nie przypomnę sobie jak one wszystkie się nazywały.
Które potem możemy wykorzystać w różnych losowaniach, żeby albo to zdobywać lepszy ekwipunek, albo to kolejnych bohaterów.
Oczywiście też mamy mikropłatności, więc gdyby nam się grało za wolno, gdybyśmy nie mogli czegoś przejść,
No to możemy zapłacić, żeby zdobyć więcej danej waluty.
Mamy tam chyba też taki element tak zwanej staminy, gdzie pewnie po jakimś czasie musimy odczekać,
zanim będziemy mogli do gry wrócić, który pewnie też będzie dało się opłacić,
żeby przechodzić tą grę szybciej. No, na co procent nie wiem,
bo na czas beta testów, no to dostaliśmy bardzo dużo tych wszystkich walut,
więc można było po prostu, żeby to wszystko szybko przechodzić.
Natomiast kiedy gra już faktycznie ruszy, w czwartek, w piątek, pewnie u nas będzie to piątek rano,
no to coś czuję, że niestety już tak łatwo nie będzie.
No ale jeśli lubicie tego typu gry, no to sama gra jest darmowa, czy będzie darmowa.
Możecie ją sobie już ściągnąć, czy to na iPhone’a, Zapstora, czy to na Android’a.
I tutaj chyba nie tyle ze sklepu Play, co ze strony producenta możemy plik APK sobie ściągnąć.
No i to wszystko z mojej strony, jeśli chodzi o gry.
Myślę, że ten temat będziemy kontynuować.
Dzień dobry, dzień dobry.
Będzie na pewno o tej grze konkretnej, o której Piotrek powiedział.
Czyli o tej chińskiej.
Ja miałem okazję ją testować trochę dłużej pewnie niż ty, Piotrek.
Co mogę powiedzieć?
Jest to, tak jak już tutaj wspomniałaś, nie jest to dla mnie karcianka.
No chyba, że właśnie karcianką jest to, że zbieramy tych herosów.
A żeby zbierać herosów, to musimy zbierać tokeny, które mogą być, powiedzmy,
można nawet kartami, bo to jest zrobione w taki sposób,
Jeżeli chcemy konkretną herosa zdobyć, to musimy zbierać 10 kart odłamków tego herosa,
żeby złączyć w jednego. Najwyżej jest podobny jakiś element strategiczny,
bo tam ustawiamy tych przeciwników niby taktycznie,
Aczkolwiek ja ostatnio się w ramach grupy whatsappowej,
na której ten prudent nie zwał, tak się…
Wydałem się w ogóle w dysputę z jakąś randomową dziewczyną,
której w ogóle totalnie nie znam, a właśnie à propos tej gry.
No i żeśmy zaczęli się troszeczkę nabijać z tego wszystkiego,
że gdzie tutaj jest element strategiczny, zastanawialiśmy się właśnie
bo ci herosi mają swoje żywioły.
Są wojownicy ogniści, wojownicy czy tam magowie, wodni jacyś.
Ale żeśmy doszli do tego, że to tak naprawdę nie daje
kompletnie żadnego znaczenia, ten żywioł.
I pytanie, czy to będzie miało potem jakoś po fabule znaczenie,
Czy nie? Bo też są jakieś tam bonusy, tak jak w kilcie,
że tam jak ustawienie odpowiednich, odpowiednio daje jakieś tam bonusy do obrażeń.
No nie udało się nam nie tylko założyć, a jeszcze jest jeden bardzo ciekawy błąd,
a w zasadzie nieciekawy, który właśnie nasza dwójka doświadczyła z tą właśnie,
żeśmy się taką zmianę zrobili, to ta laska w ogóle nie wiedziała, co się stało.
I tak naprawdę ja dopiero uświadomiłem, co się stało.
Nasz Herod został ekwipunek, czyli sześć przedmiotów,
czyli cały gil składający się z sześciu przedmiotów.
to w tym momencie mogliśmy za srebro zrobić gear up, czyli upgrade tego ekipunku całego.
Bo w tej grze w zasadzie nie opłaca się już go wymieniać, bo to co mamy już zdobywamy,
to w zasadzie już zdobywamy i nie mamy po co tego zmieniać.
Problem polega na tym, że jeżeli użyjemy opcji upgrade,
To nie dość, że nam ta opcja zabierze srebro, to jeszcze nam zniszczy cały ekwipunek, jaki mamy.
Oczywiście to jest bug, to zostanie naprawione, ale…
No, niefajnie, niefajnie.
Także to takie spostrzeżenia o większości rzeczy Piotrek już powiedział.
To teraz odejdźmy troszeczkę od gier.
I pomówmy o Whatsappie, skoro już się pojawił.
W zasadzie o najnowszej rzeczy, która do Whatsappa doszła chyba dzisiaj.
Jeżeli chodzi o grupy i o powiadomienia tychże grup,
teraz możemy sobie w grupach whatsappowych ustawić,
jakie to powiadomienia mają być wyciszane.
I mamy tak naprawdę możliwość ustawienia sobie dla danej grupy,
że na przykład chcemy mieć wyciszone powiadomienia,
jeżeli chodzi o wiadomości głosowe.
A na przykład wiadomości tekstowe chcemy widzieć,
tu też chcemy widzieć powiadomienia o tych wiadomościach tekstowych.
To samo możemy zrobić z wiadomościami tekstowymi,
że np. nie powiadamiamy o wiadomościach tekstowych danej grupy,
ale można powiadamiać o wiadomościach, a nie o wiadomościach głosowych.
No i możemy oczywiście dla każdej z tych grup wybrać czas ciszenia,
czy to ma być tydzień, miesiąc, czy do momentu, aż nie włączymy tego z powrotem.
Także taka fajna rzecz doszła w Whatsappie.
I teraz pytanie takie do was. Jak wygląda sprawa jeżeli chodzi na stan, czy może wiecie, na 2025 rok, jeżeli chodzi o programy antywirusowe?
Bo skąd moje pytanie?
Patryku, to jeszcze zanim o antywirusach, to ja jeszcze o jednej rzeczy, skoro już tu mówisz o Whatsappie powiem.
Bo myślę, że dla niektórych może być to istotne. Ostatnio zauważyłem, że w końcu to zaczęło działać i mnie to bardzo cieszy.
Mianowicie WhatsApp pozwala na odtwarzanie wiadomości z przyspieszeniem. Uwaga na zablokowanym ekranie.
To nie działało kiedyś. Na zablokowanym ekranie dało się odtwarzać tylko wiadomości w normalnej prędkości.
A jeżeli miałaś włączone przyspieszenie, czy tam półtora razy czy dwa razy,
to w momencie odtwarzania takiej przyspieszonej wiadomości i zablokowania ekranu
wiadomość się wyłączała. Teraz w końcu to działa.
Zatem niepokojące raporty też nadchodzą, że ponoć jakość wiadomości głosowych wysyłanych
Z komputera ulega pogorszeniu, to znaczy kilka osób gdzieś tam ponoć już coś takiego dostało.
Miejmy nadzieję, że to jakieś testy AB i oby te testy AB nie przeszły na wszystkich.
No ale takie coś słyszałem, także raportuję dalej.
Też o tym słyszałem, zreblogowałem to nawet wczoraj, czyli dzisiaj na Masturdonie też ten wpis,
także też mogę potwierdzić.
Natomiast a propos antywirusów, dlaczego pytam?
Dlatego, że Windows Defender mi podniósł uciśnienie dzisiaj do 200, jak nie wyżej.
To, co ten antywirus dzisiaj odwalił, żeby nie użyć gorszego słowa,
to po prostu przekracza to wszelkie pojęcie.
Ja mogłem znosić różne jego dziwne false positives itd.
Natomiast Defender dwa razy po prostu przegiął.
O co mi chodzi? Grałem sobie po prostu The Last of Us Part II,
mając ZDSera po prostu włączonego.
No tak już sobie gram, trochę gram, chcę coś zrobić w domu,
jakieś obowiązki wzywają. No i chcę zobaczyć, która jest godzina.
Wciskam insert F12 i nie mam mowy.
I mówię, co jest grane?
ZDSR się zaciął, czy coś po prostu?
Nagle straciłem mowę.
Włączam tego ZDSR-a i wyskakuje mi…
w ogóle nie ma mowy zupełnie.
ZDSR w ogóle mi wariuje,
bo on z jakiegoś powodu zaczął mi
z słuchawek przechodzić na głośniki.
W ogóle zaczęły się jakieś dziwne rzeczy się dziać.
Nie wchodzę w tego ZDSR-a.
Okazuje się, że po pierwsze Defender mi zablokował sterownik odpowiedzialny za ZDSR-a,
mimo że po instalacji systemu dodałem cały folder z ZDSR-em do wyjątków Defendera.
Ponadto Windows Defender z jakiegoś nieznanego mi powodu sobie pliki z ZDSR-a postanowił
stwierdzić, że jest jakieś bardzo wysokie zagrożenie,
a jak jest bardzo wysokie zagrożenie, to jego wyjątki się nie imają,
co spowodowało, że ZDSR stworzył sobie, przełączył się na profil bezmowy
i nawet do tego stopnia stało się to problemem,
że ja nie mogłem nawet przełączyć profilu w ZDSR,
W związku z powyższym, dopiero usunięcie profilu bezmowy w ZDSR-ze pomogło mi, że ta mowa wróciła.
I ja musiałem w ustawieniach ZDSR Windows Defendera bawić się takim czymś, co się nazywa dozwolone zagrożenia.
I dopiero jak dodałem to do tych dozwolonych zagrożeń tak zwanych,
Odzyskał i zaczął gadać normalnie.
Sytuacja dzieje się też również z modem Balatro.
Mimo, że jest celefolder z Balatro dodany do wyjątków,
Nimbus Defender z jakiegoś powodu stwierdził mi ostatnio,
nie wiem, dwa miesiące temu, że jest jakieś bardzo wysokie zagrożenie
w tym jednym z plików z moda Balatro.
Musiałem go dodać do listy dozwolonych zagrożeń.
Chciałem włączyć Balatro po dwóch miesiącach i wrócić do tego.
Defender mi znowu wywalił ten plik, ponieważ wymyślił nowe zagrożenie,
które rzekomo ten plik będzie mieć.
I tak samo zmyślił mi zagrożenie, jeżeli chodzi o ZDSR.
Ja już nie mam siły do tego News Defender’a.
Albo go wyłączę całkiem, albo po prostu zainstaluję ESETa i kupię sobie licencję,
bo ESET Smart jest dostępny, jeśli to tam jest Gringer do wyjątków.
Natomiast próbowałem przed audycją program Bitdefender, tak z ciekawości.
I niestety on jest tak samo niedostępny jak ESET.
To znaczy, nie wiem czy w Bitdefenderze, może wy wiecie,
jeżeli doda się jakoś screener do wyjątków, czy wtedy Bitdefender
również by się nie stał dostępny. Niestety próbowałem z OCR-em to zrobić.
OCR czyta tylko zakładki tych ustawień. Nie czyta, co jest jakby w środku
wewnątrz ustawień, więc nie udało mi się dodać do wyjątków screenera.
I naprawdę nie mam pojęcia, jak z tymi antywirusami teraz jest. Natomiast ja z Defenderem po tym, co dzisiaj on wyczynił, ja będę szukał sposobów, żeby go wyłączyć, żeby on w ogóle przestał działać.
Ja wiem, że to nie jest dobry sposób, ale jeżeli ja mam mieć, które sobie wymyśla wirusy, których tak naprawdę nie ma w plikach, które już są w wyjątkach, no to sorry, ale ja czegoś takiego nie akceptuję.
Znaczy, przede wszystkim to myślę, że w ogóle warto by było, tylko pytanie gdzie, też nie wiem, jeśli mam być szczery, ale zgłaszać takie sytuacje do Microsoftu.
Ja nie wiem, czy to coś da…
To znaczy, wiesz, ktoś to myślę, że jednak przegląda te zgłoszenia i jakoś na to reaguje. Może nie z dnia na dzień, ale mam przynajmniej taką nadzieję, że to się dzieje.
Natomiast co do antywirusa, ja niestety nie znam odpowiedzi Patryku na Twoje pytanie. Nie wiem czy ktoś tu z Was coś będzie w stanie dodać do tego.
Podobno awast wyszedł jakoś na prosto i nawet jest dostępny z czytnikiem ekranu.
Sporo ludzi go polecało, bo ja jeszcze jak miałem NZN-a to tam widziałem, że sporo osób pisało o tym, a właściwie się dość dobrze o nim wypowiadało.
A jest darmowy.
Pytam, zdaje się, że ja pamiętam, że tam jakieś problemy związane z bezpieczeństwem i z kwestiami prywatności też były związane z Awastem, więc nie wiem czy bym go polecał. Ale może faktycznie ten asset.
No tak, chyba jednak będzie czas próbować, bo on jest na pewno dostępny.
Ale jak jest z GDAT-ą?
Bo wiem, że Tomek…
GDAT-a chyba jest testowa, nie?
Jest jakieś tam…
Jeszcze takie pytanie mam. Teraz mi się przypomniało, a propos Windowsa 11. Jak możemy sobie w Windowsie 11 teraz wybrać syntezator, który ma być używany w aplikacjach, a nie jest syntezatorem od Microsoftu?
No bo nie ma już tego rozpoznawania mowy,
który był w panelu sterowania, gdzie wybieraliśmy…
znotator SAPI.
Teraz tam tylko w ustawieniach to możemy zrobić,
ale tam tylko widać głos od Microsoftu.
Ta oglinę dawa i…
chyba, że mamy angielski język, no to…
jeszcze angielskie głosy.
Ale właśnie np. jak ja mam speak’a Jana, no to nie mogę go tam wybrać w Windowsie.
Czy jest gdzieś jeszcze ten stary moduł, który nam zapozwalał, czy jakiś e-speak, żeby można było go wybrać?
Czy tego już nie ma?
Ale chodzi o wybieranie domyślnego głosu w tym siłowniku i w programie, tak?
Gdzieś jest to chyba 64 chyba.
To trzeba i dla 32 bitowego i 64 bitowego głosu wybrać to.
Gdzieś to jest.
Tak ja już to znalazłem i teraz tak jeśli chodzi o głosy 64 bitowe to jest C
Windows System 32.
Speech, następnie Speech.UX
Speech.UX i mamy tutaj plik Sapi.cpl
to jest ten panel do mowy. Jak na to klikniesz to się to stary
taki stary panel mowy powinien tworzyć. Natomiast dla głosów
64-bitowych ścieżka jest podobna tylko tutaj mamy właśnie
C, Windows, SYSWOW64, później znów SPEECH, SPEECH.UX i też tutaj SAPI.CPL i tutaj będziesz miał wszystkie głosy 32-bitowe.
Z tego, co kojarzę, jak ustawisz 64-bitowy głosem panu na 64-bitowym, tak? Głos, który jest dostępny i jako 32-bitowy, 64-bitowy, to chyba to będzie działało wszędzie, ale głowy nie dam.
A Jan chyba jest 64-bitowy, z tego co pamiętam.
To jest tak, że jak chcesz mieć…
Różne apki mają różnie, bo na przykład jeżeli apka działa w architekturze 32-bitowej,
no to będzie korzystała z 32-bitowego głosu domyślnego. To chyba tak działa.
Więc jeżeli chcesz sobie skonfigurować, to najlepiej dla obydwu tych wersji,
Żeby mieć po prostu pewność, że będzie to działało się dobrze.
Okej, to dzięki w takim razie.
A Michale jeszcze a propos Czarnego Ostra, ta audiodeskrypcja jest po polsku?
Jest po polsku.
Przez kogo? Kto tam czyta?
Synteza. Jak w większości w dzisiejszych czasach na Netflixie.
Ale ważne, że jest. No ja chętnie wrócę.
No dobrze, to w takim razie ja chciałem życzyć wam wesołych świąt.
A propos szukania jajek, to u mnie w domu jest to co roku, że szukamy jajek czekoladowych.
Także mi się bardzo idea podoba, że w Stanach to jest.
To jest rzeczywiście fajna sprawa.
No, także większy…
A ktoś jakby właśnie chciał sobie jajek poszukać w grze komputerowej,
no to jest super, Egg Hunt nadal działa.
Nawet PLUS można sobie kupić.
I sporo godzin można na to poświęcić,
bo gierka posiada sporo trybów ciekawych.
które są opatrzone scenkami, nawet ponoć będzie jakaś aktualizacja.
Coś tam się szykuje. Kiedy się pojawi, nikt nie wie.
Ja wiem, co się szykuje. Ja przepisuję do NTLGT.
No ogólnie tak.
A propos czego się szykuje, to szykuje się gra wideo,
która będzie grą platformową i będzie miała dostępność dla niewinonych.
Słuchajcie, ma się to nazywać Gaia.
Ale kiedy to ma się pojawić na Steamie, tego jeszcze nie wiemy.
Natomiast jest, to się pisze G-I-A i jest już informacja na temat serwisie Steam.
Będzie to platformówka z dostępnościami dla osób niewidomych.
No to miło. Czekamy.
Czekamy, czekamy.
Okej Patryku, no to dzięki w takim razie za telefon.
Dzięki za życzenia i wzajemnie wszystkiego dobrego.
Wesołych świąt i smacznego jajka.
Do usłyszenia.
I tu jeszcze mamy komentarz w naszym panelu.
Ania jeszcze napisała.
Kontynuując temat MP4 dla YouTube’a,
to zgadzam się, że książkę trzeba przygotować balabolką,
Może być to w jakiś sposób dzięki za te sugestie.
Mamy kolejny telefon. Kto jest z nami tym razem?
Dobry wieczór, Paweł Podolski się kłania.
Dobry wieczór, Paweł.
Ja tak tylko na dwie sekundy w związku z problemami Patryka z antywirusami.
No, jest to niedobrze jeśli chodzi o dostępność właśnie tych programów.
Ja używam już od dłuższego czasu, kilku lat, spokojnie myślę czterech, GData, Internet Security i nie narzekam.
Jedyne tylko co trzeba to wyłączyć chyba keyloggery, bo on traktuje NVDA, że to jest keylogger i odcina nam klawiaturę.
Trzeba się trochę nakombinować.
To od razu zapytam, Pawle, a jesteśmy w stanie to wyłączyć zanim on nam ją odepnie?
Nie, nie jesteś w stanie, bo nie wyłącza jakby całości klawiatury, tylko część kombinacji.
Trzeba po prostu zainstalować sobie GDAT-e i wejść tam w ustawienia i to wyłączyć.
Ale to fajnie widzisz, że tu się nic nie zmieniło i, że dalej ten program jest dostępny. To może być…
No dziękujemy i wzajemnie. Wszystkiego dobrego.
I mamy jeszcze wiadomość, tak nado, od Bartka.
Witam ponownie. Jednak w międzyczasie jeszcze coś się przypomniało.
A propos Whatsappa, do Was właśnie takie małe pytanko.
Ostatnio na Whatsappie dostałem we wiadomości odnośnik do spotkania na Zoomie,
ale VoiceOver nie widział mi tego jako link.
I moje pytanie jest następujące. Czy to trzeba gdzieś ustawić indywidualnie,
czy po prostu to tak musi być?
Co znaczy być może ten link był źle w jakiś sposób sformatowany, może na przykład komuś się jakaś spacja wkleiła albo coś, bo z mojego doświadczenia to te linki do Zooma są zawsze widoczne, można w nie kliknąć i się wszystko otwiera bez problemu.
Jeżeli masz taki kłopot i jeżeli coś takiego się dzieje, to w takiej sytuacji najlepiej jest po prostu skopiować sobie taką wiadomość i otworzyć ją w Safari.
I wtedy jeżeli ta wiadomość będzie prawidłowym linkiem do Zooma, to dostaniesz pytanie, czy otworzyć aplikację Zoom, potwierdzasz i działa.
I tyle jeżeli chodzi o nasze tyflowieści i o Wasze wiadomości.
Zostały nam technikalia, a w technikaliach jeden wielki blok newsów od Pauliny,
czyli kącik newsów sztucznie inteligentnych.
Tak, zgadza się. Po przyjęciolsku dodam, że właśnie w technikaliach nie będzie już nic więcej
poza tymi moimi jedenastoma zebranymi dzisiaj newsami.
Więc jeżeli nie jesteście fanami AI, no to już możecie się z nami pożegnać.
Chyba, że jeszcze będą jakieś wiadomości od słuchaczy, ale…
Chyba, że tak.
No, ale tak na…
Jak na nasz jadłospisny, to to będzie tyle na dzisiaj.
Ale zaczynając pierwszy z tych wszystkich wniosków.
No to mamy zamieszanie znowu w modelach z rodziny Chad GPT.
I o ile Sam Altman dwa tygodnie temu, czy ileś tam,
Czy nawet trzy. Napisał na swoim Twitterze, że wie, że selektor modeli w czacie GPT jest dla ludzi kłopotliwy
i właśnie po to jest GPT 4,5, żeby móc wybrać sobie jeden model, który będzie integrował wszystkie inne modele.
To ja sobie myślę, kurcze Blady, przecież tego nie ma aż tyle, żeby się człowiekowi myliło, no bez przesady.
Nie ma, nie ma aż tak źle.
Ale teraz, Samuelson postanowił mi udowodnić, że jest źle,
wprowadzając do portfolio czata GPT-3 nowe modele.
Jest to czat GPT-4.1 zwykły, mini i nano.
A najlepsze jest to, że ten 4.1 jest następcą 4.5,
który zostanie wycofany z API,
ponieważ właśnie ma następcę w postaci 4.1.
I teraz, jest pewna rewolucja związana z tym, jak publikowane są te trzy nowe modele,
dlatego że one, odwracając tradycję związaną z publikacją modeli, trafiły najpierw do API.
Najczęściej było tak, że trafiały modele najpierw na stronę i można było się nimi bawić
przez interfejs zwykły czatek GPT, a potem dopiero trafiają do API.
Natomiast teraz one trafiają do API najpierw. Dlaczego?
Dlatego, że te modele są zoptymalizowane bardziej pod kątem wykorzystania agentowego.
Czyli to, o czym ostatnio cały czas ględzę i się zajawiam na to.
Czyli sztuczna inteligencja jako podmiot, który wykonuje pewne rodzaje zadań.
I jak się tworzy takie agenty, to najczęściej się im pisze coś w stylu
zachowuj się w taki a taki sposób, korzystaj z takich a takich danych,
unikaj, nie wiem, mówienia o tym, jakie są ceny naszych produktów,
wykonuj tylko i wyłącznie polecenia z listy predefiniowanej,
która zostanie załączona gdzieś tam później, itd., itd., itd.
I została podniesiona precyzja w wykonywaniu tych poleceń,
subordynacja tego czata, że on się mniej wyłamuje z tych naszych oków.
Okowów. Okowów. Okowów. Ok.
Także to jest podniesione.
Podniesiona jest też poprawa w zakresie kodowania.
O 21% w porównaniu z GPT 4.0 i o 27% w porównaniu z 4.5% są też właśnie pewnego rodzaju ulepszenia związane z grafiką, z rozpoznawaniem obrazów, ale do tego nie wiem jak tam dokładnie w benchmarkach to wychodzi.
Zobaczymy, jak to będzie już w produkcji, jeżeli programy dla nas zintegrują te modele w API.
No ale właśnie jest ten model nano, który też myślę, że może mieć bardzo fajne przełożenie na te właśnie jakieś szybkie akcje typu tłumaczenie,
typu jakieś szybkie podsumowywanie czegoś i tak dalej.
Także to są takie bardziej modele do API.
I jeszcze ze zmian w portfolio, no to 30 kwietnia zostanie usunięty ten staródki model chat GPT-4.
Ten taki najzwyklejszy.
No i cały czas trwają prace nad GPT-5.
Także to jest na tyle.
Natomiast jeszcze nie odchodzimy od czata GPT, ponieważ mamy nowość dotyczącą pamięci.
Ponieważ obecnie pamięć działa w taki sposób, że podczas konwersacji, jeżeli mam ją włączoną,
to ona wychwytuje pewnego rodzaju słowa-klucze, pewne fakty i nawet daje nam taki komunikat,
że zaktualizowano pamięć. I teraz już w tej pamięci jest to, że na przykład
Uczę się norweskiego.
No i spoko, bo wtedy na przykład, gdzieś tam w jakiejś losowej konwersacji,
człowiek się mnie zapyta, no a jak tam norweski?
Natomiast teraz, w sensie teraz dla świata, ale nie teraz, bo jesteśmy w Europie,
przypominam, pamięć ma działać w bardziej taki
inteligentny sposób i ma ona działać
poprzez przypominanie sobie przez czata historii konwersacji,
do których cały czas będzie miała wgląd.
Więc jeżeli ona będzie się zastanawiać nad tym,
jak nam odpowiedzieć na pytanie,
to będzie sobie analizowała to, jak wcześniej rozmawialiśmy,
o czym… czy coś powiązanego z tym moim pytaniem
padło wcześniej i tak dalej.
I na tej podstawie będzie też budowała swoją odpowiedź.
Ale tak jak mówię, jesteśmy w Europie, więc jeszcze sobie czekamy na zatwierdzenie w celu upewnienia się przez OpenAI, że są zgodni z ustawą o dostępności w Unii Europejskiej.
Czy sztuczna inteligencja zdała test Turinga?
Mamy taką publikację na Arxivie, związaną z premierą 4.5.
Zazwyczaj jak się pojawia jakiś duży model, to są ponawiane testy Turinga albo jest o nich wpisane.
No, ale ten 4,5 to wcale nie jest taki wki dmuchał, ponieważ…
Przeczytam ten abstrakt, który się pojawił właśnie w związku z tym badaniem.
Oceniliśmy cztery systemy. ELISA, czyli ten taki psychoterapeuta chatbotowy z lat 60.,
GPT-4.0, LAMMA 3.1, 405 bilionów parametrów oraz GPT-4.5
w dwóch randomizowanych, kontrolowanych i uprzednio zarejestrowanych testach Turinga,
przeprowadzonych na niezależnych grupach uczestników.
Dla wyjaśnienia, taki trójstronny test Turinga…
A nie, bo tutaj jest wyjaśnione, okej.
Uczestnicy prowadzili jednocześnie pięciominutowe rozmowy z innym człowiekiem
oraz z jednym z tych systemów,
A następnie oceniali, który z rozmówców, ich zdaniem, był człowiekiem.
A, który był człowiekiem.
Kiedy system GPT-4.5 został poproszony o przyjęcie ludzkiej tożsamości,
był uznawany za człowieka w 73% przypadków.
Znacznie częściej niż prawdziwy ludzki rozmówca.
System LAMA 3.1, przy zastosowaniu tego samego polecenia,
Był oceniany jako człowiek w 56% przypadków,
co nie było istotnie większą ani mniejszą wartością
niż w przypadku ludzi, z którymi go porównywano.
Modele bazowe ELISA i GPT-4O osiągnęły natomiast wyniki
wyraźnie poniżej poziomu losowości.
Odpowiednio 23% i 21%.
Wyniki te stanowią pierwszy empiryczny dowód
na to, że jakikolwiek system sztucznej inteligencji
Zdał standardowy trzyosobowy test Turinga.
Mają one również istotne znaczenie dla debat na temat rodzaju inteligencji
przejawionej przez duże modele językowe oraz ich potencjalnych skutków
społecznych i ekonomicznych.
No i tak jak widzimy, pierwszy raz chyba mamy taką przełamaną,
magiczną barierę, w której system sztucznej inteligencji został
Były częściej identyfikowane jako człowiek niż sam człowiek?
Co rodzi pewne obawy o podszywanie się, o zaufanie itd.?
Czy tak naprawdę to cokolwiek zmienia w kontekście rozwoju sztucznej inteligencji?
Owszem, możemy hamować i Europa to bardzo chętnie i ochoczo robi.
Ale co to zmienia w kontekście Deep Seek’a?
Co to zmienia w kontekście Alibaby?
W zasadzie nic poza tym, że tracimy kondycję, jeśli chodzi o wyścig sztucznej inteligencji,
w porównaniu do całego pozostałego świata.
Więc możemy sobie pogadać i możemy sobie porozmawiać,
ale to właśnie jest typowo luźny wątek, ponieważ dużo się o tym mówi,
a ja rzadko o tym mówię, dlatego stwierdziłam, że zasygnalizuję.
Drama prawdomoralna między OpenAI a jej byłymi pracownikami.
Też jest dużo dram prawnych w ostatnim czasie, jeśli chodzi o OpenAI i w ogóle o
osobistą inteligencję.
Teraz dwunastu byłych pracowników, w sensie pracowników OpenAI dołączyło do
Do pozwu Ilona Maska, związanego z tym, że OpenAI przeszło na działalność nastawioną na zysk, pomimo że gdzieś tam w swoich deklaracjach uznawano, że OpenAI właśnie ma działać na rzecz rozwoju ludzkości, na rzecz zrównoważonego rozwoju sztucznej inteligencji.
No ale właśnie tak się nie stało.
No i pracownicy są zanie… w sensie nawet jeśli byli pracownicy,
są zaniepokojeni tym, że również obietnice co do generalnej sztucznej inteligencji
mogą nie zostać spełnione.
I zamiast tworzyć tą ogólną sztuczną inteligencję
z poszanowaniem bezpieczeństwa, odpowiedzialności
tego, że nie powinno się dawać narzędzi do koncentracji władzy i tak dalej.
No tylko po prostu będzie ona rozwijana po to, aby firma zarabiała więcej,
aby akcjonariusze mogli zarabiać też na swoich akcjach i tak dalej.
No i cóż, w zasadzie OpenAI odnosi się do tego z takim trochę ironicznym sznytem.
Mówi o tym, że no fajnie, fajnie, że byli pracownicy nas pozywają, że jesteśmy organizacją nastawioną na zysk.
Jak przeszli do Antropic, które też jest nastawione na zysk, no i w sumie co z tego?
No tylko, że Antropik nie tworzyło w wizerunku Zbawcy Świata, więc…
I nie deklarowali od samego początku, że są otwarci.
Otóż to. Właśnie w ramach wizerunku Zbawcy Świata mieściła się deklaracja otwartości.
Natomiast jeszcze z takich właśnie prawnomoralnych dram i newsów, no to Financial Times raportuje, że ścięto w OpenAI deadline’y dla ekspertów od bezpieczeństwa na udzielenie opinii co do bezpieczeństwa nowo publikowanego modelu.
Paulino, może przetłumaczmy tę korponową mowę, bo ścięto deadline’y, czyli po prostu skrócono czas wykonania danego działania.
Deadline to jest po prostu ten czas, do kiedy coś ma być zrobione, czyli jak mamy deadline na piątek, to znaczy, że musimy coś wykonać do piątku.
A jeżeli się tego nie wykona, to w sumie trudno i zostanie to i tak opublikowane.
Więc nie wiem ile wcześniej było, co prawda, no ale sama ta informacja, że tylko kilka dni jest na to, żeby eksperci od bezpieczeństwa przetestowali model i wydali jakiś tam werdykt na temat tego, czy on się nadaje do publikacji, no to nie jest zbyt kojąca perspektywa.
Idąc dalej, Amazon Nowa od teraz ma wykrywać ton rozmówcy,
dzięki czemu Agenda AI zajmuje się bardziej naturalnie.
To jest taka informacja dla osób, które na przykład zastanawiają się właśnie nad
takimi konwersacyjnymi modelami tworzonymi za pomocą Amazon WebRock.
No to o ile kiedyś to po prostu było rozpoznawanie mowy i odpowiadanie na tekst,
który pojawił się w danych wejściowych dla czata, no to teraz ten ton też jest jakoś tam wykrywany
i jest nawet filmik, na którym pani zastanawia się, czy chce wybrać wycieczkę,
Ale w trakcie tej rozmowy otrzymuje sms od swojego kolegi, że to jest bardzo drogie.
No i ten Amazon Nowa, wykrywając jej zdenerwowanie czy też zaniepokojenie,
przybiera taki uspokajający ton, pomimo że to bardzo maszynowo brzmi,
ale według nich jest to ton uspokajający.
I sprawdza ceny, tak żeby wybrać dla niej jak najlepszą dostępną opcję.
Kolejna rzecz.
Microsoft wprowadza recall.
Chyba teraz już naprawdę.
Który to już raz?
Otóż to.
Co najmniej trzeci.
Bo chyba w…
w tamtym roku w grudniu
była ostatnia próba.
No, natomiast
w najnowszym…
chyba najnowszym wydaniu
Windows Insidera pojawiła się informacja,
którą przeczytam teraz w tłumaczeniu na język polski.
Recall, wersja zapoznawcza, nowość.
Ponieważ korzystasz z wielu aplikacji, stron internetowych i dokumentów,
łatwo zapomnieć, gdzie coś widziałeś lub co chciałeś odnaleźć.
Recall, wersja zapoznawcza, oszczędza twój czas,
oferując zupełnie nowy sposób wyszukiwania treści,
które wcześniej przeglądałeś lub robiłeś na swoim komputerze.
W sensie, powinno być wytwarzałeś albo coś takiego.
W bezpieczny sposób, dzięki możliwościom sztucznej inteligencji.
W komputerach Copilot Plus możesz teraz szybko odnaleźć
i wrócić do dowolnej aplikacji, strony internetowej, obrazu lub dokumentu,
po prostu opisując jego zawartość… zawartość.
Aby korzystać z recalla, musisz wyrazić zgodę na zapisywanie
Zdanie migawkowych zrzutów ekranu snapshots, czyli obrazów przedstawiających twoją aktywność, oraz zarejestrować się w systemie Windows Hello, który potwierdzi twoją tożsamość, tak aby tylko ty miał dostęp do zapisanych migawek.
Masz pełną kontrolę nad tym, które migawki są zapisywane. Możesz w każdej chwili wstrzymać ich zapisywanie podczas codziennego korzystania z komputera.
Komputera Copilot Plus.
Także, teraz już albo te normy bezpieczeństwa zostały zignorowane albo zaimplementowane, tego nie wiem, bo w niu się tego nie było, natomiast ten recall już gdzieś tam stopniowo do insiderów trafia.
Ja nie przetestuję, bo nie mam Copilot Plus PC,
ale jest tam też kilka nowości, np. ulepszone wyszukiwanie w systemie Windows
oparte na takich semantycznych jakichś strukturach.
Ale właśnie ten recall jest głównym tym, o czym się obecnie rozmawia
w kontekście rozwoju tych
komponentów sztucznej inteligencji w Windowsie.
Kolejna rzecz, którą też tylko sygnalizuję,
powstał otwartoźródłowy, humanoidalny robot.
I tu jakaś firma Furrier
zrobiła właśnie taki open source’owy…
Jakby to nazwać?
Zestaw, który możemy sobie z jednej strony po prostu używać tak jak jest, z drugiej
wdrażać pewne ulepszenia.
Ten robot właśnie jest i łatwy w montażu i łatwo tam coś wymienić.
No i właśnie to oprogramowanie, które jest do niego dołączone jest otwarte
źródłowo, więc możemy rozwijać je, zmieniać, wdrażać pewne jakieś poprawki itd.
Więc ciekawe, w jaką stronę pójdą programiści, którzy się za to wezmą.
A coś wiadomo, co w ogóle ten robot potrafi?
W zasadzie chyba niekoniecznie. To znaczy…
Czyli to taka jakby platforma, na której można dopiero coś tworzyć tak naprawdę.
Chyba tak. Chyba wróci w tę stronę, aczkolwiek nie wczytywałam się jakoś mocno.
Wiem, że tam on waży 38 kg, mierzy 1,3 m, jest w stanie biegać tam chyba 3, coś metry na sekundę, 3,5.
Ale tak, żebym wiedziała o tym, że ma jakieś tam konkretne już możliwości na starcie, no to się nie doczyta czego takiego.
Są jakieś filmy, które go prezentują, ale wiadomo jak to jest z filmami.
Ciekawe jaka cena takiego zestawu do samodzielnego montażu.
No to tego też nie sprawdzałam, ale link jest w komentarzu,
tak że można się zapoznawać.
Ofera amazonowa z hindusami w nowej odsłonie.
Co prawda nie w Amazonie, ale w takim start-upie,
który nazywał się Nate i został, no jak to nazwać,
Zapoczątkowany w 2018 roku, to był jakiś fintech i chyba jakby jedną z funkcji tego fintechu, albo właśnie głównym komponentem, była taka opcja kliknij i kup od razu.
I to działało w taki sposób, że na przykład znalazłam sobie coś fajnego na Allegro.
Dawałam tam link i po prostu od razu mogłam sobie kliknąć kup.
I sztuczna inteligencja, znając na przykład mój rozmiar, moje jakieś tam inne parametry,
czy kolorystyczne preferencje, czy coś tam, po prostu to za mnie kupowała,
ściągała mi pieniądze z karty i super.
No i inwestorzy na coś takiego wyłożyli 40 milionów dolarów.
Byli oszołomieni tym, że w zasadzie to jest niesamowicie wygodne,
bo już nie trzeba wpisywać, dodawać do koszyka,
nie wiadomo czego robić, potwierdzać, zastanawiać się,
podawać jakichś kodów, pinów, numerów i tak dalej,
tylko po prostu kup i koniec.
I wszystko byłoby cudownie, gdyby nie to, że zamiast szacuń inteligencji
zatrudnione były dziesiątki osób z Filipin.
I cóż, te pieniądze, które były od inwestorów, to szły tak naprawdę na to, żeby te osoby z Filipin klikały na tych stronach, w których trzeba było coś kupić.
No i teraz temu panu, który założył ten startup, grazi 40 lat więzienia, a inwestorzy zostali z niczym.
Kolejna rzecz, jak korzystać z modyfikacji w notatniku. Jakiś czas temu chyba sygnalizowałam o tym,
że notatnik otrzymuje te wszystkie opcje przepisywania tekstu, tudzież
modyfikowania jego.
I dzisiaj się natknęłam na to, że dostałam je, ale nie wiem właśnie, czy to dzisiaj
dostałam, czy już wcześniej.
Natomiast, żeby to sprawdzić, czy już je posiadacie, to trzeba nacisnąć Alt, tak
jakby się chciało wejść do menu, ale zamiast poruszać się pod nimi strzałkami,
nacisnąć TAB i tam powinno być taka kontrolka
Modyfikacja w wersji zapoznawcze, przycisk zwinięte.
Jak to się rozwinie spacją, no to jest przepis.
Uczyń krótszym ten tekst, wydłuż, zmień ton i zmień format.
Jak wejdziemy w zmień ton, no to to jest właśnie też takie rozwijane pod menu.
i strzałką w prawo, no to możemy sobie wybrać, czy formalny, czy taki zwykły, codzienny, czy inspirujący, czy humorystyczny.
A w formacie możemy sobie wybrać artykuł, lista, format biznesowy, akademicki, marketingowy i poetry, czyli poetycki.
I to wszystko w notepadzie.
Wszystko w notatniku, zwykłym notepadzie.
No tylko wiadomo, trzeba się zalogować do Microsoft…
Microsoft 365 i mieć opłaconą subskrypcję.
W sensie, no właśnie, trzeba się zalogować do konta Microsoft i mieć opłaconą subskrypcję na
Microsoft 365.
Także nie potestowałam, bo nie mam, ale…
ale sygnalizuję po prostu, jak się do tego panelu dostać.
YouTube wprowadza asystentom muzycznego
darmową platformę dla twórców
do generowania podkładów muzycznych do filmów.
I to działa mniej więcej tak,
że jak mamy ten taki jakby
ryneczek z muzyką
dla twórców YouTube w YouTube Studio,
no to teraz stopniowo pojawia się tam
asystent muzyczny, czyli takie jakby
a la suno.
Ale oczywiście nie wiem, na czym to jest oparte.
Może to jest YouTube’owy własny…
Google’owy własny algorytm.
No w każdym razie
działa to w taki sposób, że
wpisujemy jak…
jakiś tam nastrój,
może tempo, może
jakie instrumenty mogłyby się w tym pojawić.
Może po prostu jakiś taki
case, w którym chcielibyśmy
tego użyć. I jest
nam generowana, instrumentalna
No jakiś taki instrumentalny podkład muzyczny, który możemy wykorzystać za darmo do naszego filmu.
No i nie musimy się już martwić wtedy też prawami autorskimi.
O nie, 12 elementów ma ten mój newsownik. No okej, to skłamałam.
Eleven Loves uruchamia własny serwer MCP.
I o co z tym chodzi, to ja się też musiałam dowiedzieć dzisiaj.
Także na tyle, na ile to zrozumiałam, to teraz to opowiem.
Server MCP to jest jakby protokół między modelem, jakimś dużym modelem językowym,
a klientem, który ma dostęp do pewnych danych, pewnych, nie wiem,
plików, materiałów i tak dalej.
I na przykład, jeżeli tworzymy sobie…
administrujemy sobie bazę danych
i chcemy coś w niej sprawdzić,
no to jeżeli mamy środowisko programistyczne,
które wspiera serwer MCP,
czyli na przykład jakiś tam kursor Z
albo inne tego typu,
też JetBrains ma w najnowszej wersji mieć.
No to podłączamy sobie ten serwer MCP, podajemy klucz do API jakiegoś tam LLM-a,
podajemy, łączymy to z bazą danych lokalną albo w chmurze i możemy w języku naturalnym
pytać o to, na przykład, ile użytkowników wykorzystało kod promocyjny taki a taki.
I dzięki temu zostaje nam zwracany wynik
w formie zwyczajnej odpowiedzi, nie musimy pisać zapytań,
tylko po prostu sam LLM
odpytuje system w naszym imieniu
i zwraca tę odpowiedź jako naturalny, zwykły tekst.
I teraz właśnie Eleven Labs stworzyło tę swoją adaptację serwera MCP,
dzięki czemu jesteśmy w stanie właśnie mówić językiem naturalnym do Eleven Labsa.
Nie wiem dokładnie jak to działa, czy na przykład jesteśmy w stanie kazać mu
przetranskrybować na przykład wszystkie pliki z danego folderu,
albo powiedzieć wszystkie pliki z danego folderu jakimś tam głosem i umieścić to w jakimś innym folderze.
To nie wiem, ale są właśnie case’y takie, że jakiś tam jeden plik audio można sobie
stranskrybować i od razu go gdzieś tam umieścić, że można poprosić go o wychodzące połączenie,
które będzie miało na celu to, żeby zamówić tam pizzę i inne takie, ale myślę, że
Jeżeli by nad tym siąść i porozglądać się za przypadkami użycia,
to można byłoby zrobić z tego jakiś ciekawy programik.
I na koniec coś dla mnie i może też dla innych ludzi, którzy lubią
naukowe jakieś tam rozkminy.
ARCSIW pracuje nad stworzeniem swojego modułu Deep Research.
I co to jest Deep Research, to chyba nie muszę tłumaczyć.
To jest to głębokie badanie, to jest tworzenie raportu przez
sztuczną inteligencję w oparciu o źródła sieciowe.
Natomiast to jest ARXIV, to jest biblioteka, w której twórcy pewnych artykułów naukowych,
prac umieszczają je przed tym, jak otrzymają recenzje i pojawią się one w czasopismach.
Czyli możemy śledzić po prostu z minuty na minutę pojawiające się prace naukowe jeszcze
Przed tym jak przejdą redakcje, recenzje, iteracje poprawek innych, takich biurokratycznych czynności, które musi zachować czasopismo, aby wydawać artykuły.
No i właśnie ten ArXiv Deep Research może nam służyć do odpytywania go
na tematy, które nas nurtują.
Właśnie ze względu na to, że na przykład jeżeli byśmy się pytali
jakiegoś tam, jak to się nazywało, konsensusa,
no to tam pojawiają się artykuły tylko z czasopism.
No a w ArXivie właśnie są rzeczy najaktualniejsze z możliwych,
Więc jeżeli nasze pytanie jest takie nastawione na jak najnowsze informacje,
no to właśnie ten Archive Deep Research będzie dobrym wyborem.
O ile oczywiście zostanie opublikowany, bo na razie jest…
po prostu nad nim trwają prace i nie można z niego jeszcze skorzystać.
I gdyby ktoś pomyślał, że to już koniec naszej dzisiejszej audycji, to nie.
Bo mamy telefon.
A po drugiej stronie jest Maciek. Dobry wieczór.
Dobry wieczór, cześć wszystkim. Tak, pokrzyżowałem troszkę plany.
Natomiast tak, się postanowiłem dzwonić na sam koniec,
dlatego że parę rzeczy mam z postrzeżeń,
troszeczkę odniesień do też poprzednich audycji,
do poprzedniej i w sumie ostatniej,
a nie byłoby dane wcześniej zadzwonić.
W każdym razie zacznę może od czego?
No właśnie, a propos tego błędu z brakiem klawiatury i tak dalej na iOS-ie w ostatniej becie.
Kolejny dowód na to, że to po pierwsze dla cierpliwych gry, po drugie kreatywnych, a po trzecie dla tych, którzy też wiedzą co robią instalując bety.
No bo zdziwienie wczoraj moje było duże, jak zainstalowałem,
a tutaj się nagle okazuje, że tej klawiatury nie ma.
Przy czym, na szczęście, ja zawsze, i to był w sumie mój sposób,
przyznam, to mi uciekło, w jaki sposób wyście tutaj podawali,
jak można obejść problem. Natomiast ja z definicji,
jak sobie odblokowuję telefon Braille’em,
no to nawet, szczerze mówiąc, problemu nie zauważyłem.
Dopiero potem w wiadomościach, jak ja motkę chciałem wstawić chyba, to dopiero wtedy.
Natomiast dla tych, dla których choćby nawet wprowadzanie kodu do iPhone S,
takim podstawowym, za pomocą tej zwykłej klawiatury ekranowej jest codziennością,
to cóż, to może być trochę bitny, prawda? I gdzieś tam czy wpaść w panikę,
czy jeżeli to się nie… nie pojawi mu coś takiego, więc no…
No właśnie, to tak jest.
No trzeba, trzeba, trzeba w prawdę wiedzieć, co się robi, jak się instaluje bety,
żeby potem nie płakać, jak się coś posypie.
Druga rzecz to jest właśnie z poprzedniej audycji odnośnie gdzieś tam
tego poniekąd wykluczenia cyfrowego
i tego, że nie do końca
Czasem jest spore pole do popisu, jeśli chodzi o producentów,
żeby ten sprzęt był tak do ogarnięcia.
Po pierwsze, mam przykład z własnego szkoleniowego podwórka.
Powiedzmy taki, że mam po prostu osobę, która spokojnie mogłaby w sumie kupić sobie jakiegoś takiego blindshela, powiedzmy, czy…
No w sumie właśnie blindshela to jest gdzieś tam osoba, no już powiedzmy, że starsza, z różnymi problemami zdrowotnymi swoimi.
W tym troszkę takimi też poznawczymi, że mógłby ewentualnie ten blindshel ułatwić życie itd.
Natomiast, no nie może sobie do końca tego Blanchela kupić. A dlaczego? No bo właśnie, czy Blanchel ma NFC? No nie ma. Blanchel NFC nie ma.
A niestety tej pani ten NFC jest potrzebny do tych wszystkich systemów pomiaru cukru. No i co tu teraz zrobić? No tak naprawdę poniekąd…
Wiesz co, no tak, tylko to jest jakiś tam…
Ale i tak z młodość patrzy się Androida, który ma…
Więc też… dokładnie, więc też nie do końca.
No i co, no i ta pani w sumie, żeby był ten kompromis jako taki między
Między tym, czego jej potrzeba do życia codziennego, czyli jednak monitorować ten poziom cukru całodobowo,
no a jako taką względną wygodą, bo to niestety nie jest dla niej wygoda w sumie, no to jednak jest skazana na tego iPhona, nie?
To, co nam się wydaje takie od tak, nie?
Ciekawe, czy Maćku, czy ta klawiaturka, o której mówiłem, ten Hayball na przykład byłaby dla niej pomocna?
No w sumie trzeba by było też to sprawdzić.
Tak samo w sumie, chociaż ja przyznam szczerze, też tego nie testowałem, jeśli chodzi o ten tryb.
Jak to się nazywa w ustawieniach iOS-a?
Ten taki prosty tryb uproszczonego interfejsu, to ja to testowałem z myślą nawet do tej pani,
ale to jeszcze jak była beta iOS-a 18, zdaje się tam wprowadzali.
Ten tryb to jeszcze z voice-overem tak lubiło działać i nie lubiło tak naprawdę.
Będę się też musiał temu przywieźć, bo może to byłaby ewentualną jakąś alternatywą,
żeby ten system był jeszcze bardziej jednolity, że tam jedna aplikacja to wiadomości
FaceTime, telefon i coś tam. I żeby tego po prostu było mniej do ogarniania.
Będę się musiał temu jeszcze gdzieś przywieźć. Ale problem jest.
I to tak samo właśnie z komputerami. No dobra, mamy Guide Connecta
czy po prostu tego gajda, no tego Dolfina.
No ale to też, ktoś to musi komuś zainstalować, ktoś to musi i tak dalej.
I przede wszystkim pytanie, jak to działa w polskich realiach tak naprawdę, jakby ktoś chciał tego używać.
Bo to nawet załóżmy, że ktoś to wszystko spolszczy, ale podejrzewam, że do pewnych funkcji
to tam może być potrzebne nieco więcej niż tylko spolszczenie.
Czy ktoś to tak dogłębnie testował? Czy tylko sprawdził, że jakoś tam działa?
Diabeł niestety w tego typu rozwiązaniach tkwi w szczegółach, bo to dla użytkownika, który nie jest użytkownikiem zaawansowanym, to nie może być sytuacji, że wystąpił jakiś błąd.
Bo ten użytkownik to się po prostu zatnie na takim czymś.
No tak, no tak. I tak samo się właśnie mówiło marketingowo odnośnie tego trybu uproszczonego w iOS-ie na przykład.
No a już jak została wydana iOS, została wydana iOS 18.0, nawet 18.1 nawet, to były bety, to to dalej właśnie,
znaczy dla widzących może to działało, nie wiem, nie jestem w stanie sprawdzić.
Ale dla nas z voice-overem to to był z tym problem, tak żeby to bez awarii nie działało i tak dalej.
Może teraz już jest lepiej, tak jak mówię, trzeba wytestować.
No ale właśnie tak jak mówisz, diabeł w szczegółach.
No a już w ogóle jakby to, że dla Maca w sumie nadal nie ma czegoś takiego,
nie ma takiego powiedzmy bardziej uproszczonego trybu.
Więc tutaj w sumie też bym mogła popracować.
No, może Maco S16 się coś przyniesie.
Wszak dzień odnośnie świadomości o dostępności się nam zbliża,
więc może coś się pojawi.
Nie, do maja niedaleko.
Do maja niedaleko, właśnie.
Ale no, problem jest.
Problem jest i to duży.
Jeszcze poniekąd
oglądałem właśnie na
YouTube, na kanale
Komputer Świat, pan,
którego babcia
przez długi, długi czas sam używa sobie
jakiegoś tam starego, poczciwego tablecika
ze starą wersją poczciwego Androida.
No i dobrze jej się
tego używało, nie?
A tak naprawdę…
Słuchajmy, tak?
Cały czas.
Dobra, bo coś mnie tak jakby…
A tak naprawdę, znaczy tak, używała tego androida
i używało się go dobrze.
Wtedy wnuk jej kupił tableta nowego.
Wystarczyło, że się gdzieś tam leciutko dosłownie
układ interfejsu zmienił.
Że coś z lewej przeszło na prawą, że coś.
Po prostu ta pani już wymiękła.
Ta pani po prostu już nie mogła…
A on mówi, no ale babciu, no ale jak?
Przecież to jest wszystko proste.
W sumie masz dokładnie wszystko tak samo.
No ale dla tej pani tam poznawczo
coś się na tyle zmieniło,
że po prostu już ta pani
wiecie, nie mogła w ogóle sobie z tym poradzić.
Ale ja z naszego podwórka, Maćku,
też kojarzę osoby,
które się uczą obsługi komputera
na zasadzie
naciśnij ten klawisz,
naciśnij ten skrót, naciśnij pięć razy
Nie ważne jak ta opcja się nazywa. Ma być 5 razy strzałka w dół. Jak się menu zmieni, to już zaczyna się kłopot.
Tak. No to jest chyba jeszcze taka naleciałość z tego jak te screenery nie działały tak jakby trzeba, albo jak ich w ogóle nie było, prawda?
I to takie było patologiczne uczenie się na pamięć.
Zgadza się.
Co teraz jest błędem, no ale tak, są nieraz ludzie. Właśnie tutaj nawet jak się wdzwaniają czy coś, no to też…
Z drugiej strony, z drugiej strony kiedyś ile ja pamiętałem różnych takich rzeczy, pamięciowo też, ile ja przez telefon nie widząc ekranu byłem w stanie ludziom pomóc, po prostu mówiąc dokładnie gdzie wejść, w co kliknąć, no tylko że te systemy były prostsze i mniej kontekstowe.
W dzisiejszych czasach to się już tak nie bardzo da. Albo ja już po prostu się starzeję.
I to się też tak nie zmieniało z prędkością światła, bo w miarę to…
A tak, to już generalnie nie ma o czym mówić.
Ale z jednej strony może i dobrze, że dożyliśmy tych czasów,
bo o ile pamiętajmy, że odciążona od takich różnych,
można powiedzieć, na dzisiejsze czasy zbędnych informacji.
Natomiast to też pokazuje, że właśnie ten wnuk tej pani,
ten redaktor komputer świata, to tak skonstatował na koniec,
Tutaj też jeszcze ci wszyscy projektanci mają do zrobienia,
bo mówi się, powiedzmy, że o niewidomych i słabowidzących
i o różnych innych grupach ludzi, a zapomina się poniekąd
o osobach starszych, którzy jeszcze mają inne procesy poznawcze,
inne swoje potrzeby. I tutaj to jeszcze, że osoby starsze
są pod tym kątem, mimo szkoleń, mimo różnych kampanii, inicjatyw itd.,
że mimo wszystko to stara się z minimalizować gdzieś tam skutek wykluczenia, a mimo wszystko jeszcze jest dużo do zrobienia, jeśli chodzi o same projektowanie interfejsów.
Ja myślę, że to z czasem będzie się wszystko też rozwijało, choćby dlatego, że coraz więcej, to też mówiłem zdaje się ostatnio również, że coraz więcej osób, które wychowywało się już z technologią,
…to zacznie się starzeć i ci wszyscy, którzy teraz tak sobie świetnie radzą z różnymi rzeczami, po prostu za naście, dziesiąt lat przestaną sobie z tym radzić, a że część z tych osób będzie na odpowiednich stanowiskach, to zaczną wymagać.
Więc te naciski będą właśnie większe, no a procesy poznawcze się będą siłą zmieniały. No właśnie, więc może i tych czasów też dożyjemy, fajnie będzie.
No właśnie, ale a propos dostępności, no to YouTube YouTubem właśnie.
I błąd… właśnie, mówiliście tutaj o tym, że się YouTube, jeśli chodzi o tą
o apkę na iOS-a i ten, jeśli chodzi o ten regulator do odtwarzania sterowania
odtwarzaniem?
Tak, mówiliśmy, mówiliśmy.
I tym rozpoznawaniem ekranu.
Tak, dokładnie, dokładnie.
No dobra, właśnie, bo to też ja bym na to nie wpadł, a jednak to rozpoznawanie ekranu.
No i tak samo dostępność czata GPT, jeśli chodzi o… właśnie, obserwujecie też coś takiego, że teraz…
że teraz, no dobra, dynamiczne odpowiedzi są, znaczy tym… automatycznie odczytywane przez screenreader fajnie,
no ale żeby już się dostać do konkretnej odpowiedzi w sumie, to ja mam na przykład z tym problem,
że w sensie jest nagłówek czat GPT powiedział i tak naprawdę ja potem już nie mogę się dokopać do tego co on właśnie powiedział.
Nie, na webowym.
Po prostu ten czat GPT się zacina. Ja mu każę wygenerować jakąś odpowiedź i on pokazuje właśnie, czat GPT powiedział, ale tej odpowiedzi tam nie ma.
Jak ja mu napiszę, wygeneruj to jeszcze raz, to on nagle wygeneruje tę odpowiedź.
To po prostu jest coś po stronie serwera.
Ale wiesz co, bo to jest dziwne, dlatego że tak jak mówię,
on mi to, znaczy VoiceOver mi to na Macu dynamicznie w Safari
odczyta normalnie z automatu, całą odpowiedź,
a potem jak ja chcę tam po prostu przejść,
żeby sobie to jeszcze przeczytać, jakiś fragment powiedzmy skopiować,
cokolwiek z tym zrobić, to to już mnie w ogóle do tego przechodzić nie chce.
Znaczy, chat GPT powiedział, ale potem jest dobra odpowiedź,
zła odpowiedź, coś tam skopiuj, użyj polecenia w Canva, coś tam…
Nie ma tekstu, tak.
U mnie też to tak jest.
I u mnie się od czasu do czasu, tak jak mówię, takie coś dzieje, ale to jest
Widać ewidentnie po stronie serwera, że ten komunikat nie dociera, bo nawet sam z siebie czytnik ekranu nie wypowie tej odpowiedzi.
Także to jest inny problem niż u Ciebie. No Twój jest znacznie bardziej irytujący, oczywiście.
Właśnie, no i tak naprawdę nie ma co z tym zrobić. Zgłasza się… niby to przez ten platform z .openai.com to niby można zgłaszać,
ale oni potem i tak wymagają cudów na kiju, żeby z tego robić zrzuty ekranu i to totalnie jakby nie mają świadomości o dostępności.
Mimo, że ją robią jakoś tam i gdzieś tam dbają,
to te wszystkie boty albo ci konsultanci, nie wiem w sumie kto w końcu…
No i to tak chyba do końca nie jest rozwiązywane.
I nie mam do końca pomysłu w sumie, jak to zgłosić.
Im te problemy z dostępnością różne.
Bo aplikacja na Macu też woła o pomstę do nieba,
jeśli chodzi o nawet optymalizację i o takie różne rzeczy.
I nie do końca jest jak to zgłosić.
Średniowo.
A o tym, o generowaniu obrazów mówiliście?
A propos przez GPT ostatnio, jak się tam te tezne zmieniały, czy nie?
Bo chyba nie, nie?
Nie, nie. O generowaniu obrazów.
Nie, ale uznałam to, że mało przydatne po prostu.
To znaczy, powiem szczerze, że ja tam robiłem eksperymenty kiedyś
i robiłem eksperymenty teraz i to faktycznie gdzieś tam się poprawiło.
Mniej szczegółów tak naprawdę trzeba, mniej jakby tych…
Znaczy wiadomo, że trzeba to poddać, jeszcze ocenię osoby widzące i tak dalej,
ale już z testów zauważyłem, że dużo mniej tak naprawdę niż kiedyś.
Że on już sobie teraz dużo lepiej radzi od tego, kiedy to zostało wprowadzone,
miesiąc temu chyba? To naprawdę sobie zaczyna radzić z tym dużo lepiej.
Kiedyś jeszcze to się robiło tam, że otwór… ten…
Znaczy teraz, że tam ułożyj narzędzia i tam…
A propos, że czułam cztery o… z możliwością tworzenia obrazów, bla, bla, bla.
A teraz normalnie w prompcie można mu powiedzieć właśnie coś tam…
Tak, to ja właśnie ostatnio jak go prosiłem o to, żeby mi wygenerował jakąś taką przykładową okładkę,
kiedy na początku audycji opisywałem ten swój sposób z YouTube’em jako pseudo-voicedream’em,
To poprosiłem go po prostu w jednym prompcie, słuchaj, wygeneruj mi okładkę i podaj polecenie do Fmbega.
I od razu w kolejnej wiadomości, proszę bardzo, tu masz okładkę, jakąś tam przykładową,
łączę do tego, żeby pobrać plik na dysk, poniżej też polecenie konsolowe, które sobie mogę wkleić
i jeszcze w dodatku z nazwą pliku, z którą okładka została pobrana.
No właśnie, bo jak już mowa o czacie GPT, zresztą w wszelkich modelach językowych i a propos promptów, to też się ich warto nieraz zapytać w sumie.
Dobra, to w zasadzie czego ty potrzebujesz? Co potrzebujesz wiedzieć tak naprawdę, żeby mi odpowiedni prompt stworzyć?
To weźmy, pogadajmy o tym, stwórz mi najpierw odpowiedni prompt i tak dalej, no i potem zastanówmy się, czy to jest dobre, nie?
I wtedy on to faktycznie…
Znalazłem takie współpracę, że nie człowiek jako zleceniodawca
i generator promptów, który to podaje rzadowi,
ale też jako taki konsultant od promptów,
że słuchaj, podaj mi, jaki byłby efektywny ten prompt
i co on o tym myśli, wtedy to rozszerzać i wtedy to wyjdzie bardzo fajnie.
Ja z takiego przykładu, jeśli chodzi o obrazy…
Ja mam tak, powiedzmy, schowany trochę dom generalnie,
Tam by się cuda nie robiła, a i tak jak mieniają jakiś Uber podwozić,
to nie widzi za bardzo… Znaczy, nieraz widzą, nieraz nie widzą,
ale mojego domu i numeru domu.
No i sobie myślę, wygenerujemy tabliczkę gdzieś tam z napisem,
w sumie takim, żeby to potem jakoś tam wydrukować,
zalaminować, coś tam tego, żeby to jakoś tam na bramie przywiesić,
ewentualnie jakąś taką większą tą.
No i kiedyś to było z tym dramatu trochę,
Ten tekst nie był tak w języku polskim, tak jakby trzeba było.
A jak był, to nie tam, gdzie trzeba było.
A teraz sobie z tym skupaniec naprawdę lepiej radzi.
Więc tu potencjał też jakiś taki jest.
Nawet powiedzmy dla nas.
Chcemy wygenerować.
Żeby po prostu zwyczajnie kierowca wiedział, gdzie ma mnie wysadzić.
Wygenerujesz sobie i teraz to faktycznie już coraz lepiej działa.
A więc dlatego tak o tym nadmieniam, że rzeczywiście ten generator obrazów się znacznie poprawił, żeby można to było z powodzeniem wykorzystywać.
Swoją drogą tak mnie zastanawia, nie robiłem testów, ale aż się prosi, żeby robić testy wygenerowanych obrazów z użyciem AI, przez samo AI.
I też poinstruować go wtedy, żeby zwracał uwagę na jakieś nieprawidłowości.
Jestem bardzo ciekaw, na ile te dane wyjściowe, które on jest w stanie wypluć za pomocą tego modelu do generowania obrazka,
mają wpływ na to, jak on oceni to, co sam wygenerował.
Czy będzie w stanie stwierdzić, że słuchaj, na przykład nie wiem, ale ten człowiek ma sześć palców.
Albo jakieś inne takie charakterystyczne błędy, które tam się jeszcze pojawiają.
Ja powiem tak, ja to testowałem i powiem tyle.
Troszeczkę kolokwialnie, troszeczkę brzydko.
Temendy są ze sobą w zmowie.
Tak, bo generalnie to nawet jak ty go poinstruujesz,
to on i tak sobie będzie gładko obchodził,
bo chyba struktura, nie wiem, po prostu to w jaki sposób
on to generuje, jeśli chodzi o składnię, jeśli chodzi o…
To chyba gdzieś tam jest mu znana, więc a, to jest moje,
To znaczy, trzeba na to oko przymknąć, bo to jest moje, więc ten klient, znaczy się użytkownik, musi być święci przekonany, że to jest tak i jaśnie Panie i my tutaj nie kłamiemy nigdy w życiu.
Bo ja to robiłem na zasadzie po prostu generowania. Jeszcze wtedy, jak próbowałem różne abstrakcje typu, nie wiem, królik na grzbiecie psa i coś tam, że tam z uszami psa, że królik tam też ma mieć uszy.
Mam na myśli, że już się psa, pies, królik, a coś tego typu rzeczy.
No i jakby ja to robiłem w GPT normalnie, a potem przesyłałem do BMI AI,
no wiadomo, to też pod maską GPT siedzi.
Nie, no wszystko jest w porządku generalnie tutaj, prawda.
On mi ten opis podawał taki jasny, jaki miałem gdzieś tam, bym sobie życzył.
Natomiast potem, jak ja tak konsultowałem z osobą widzącą,
to z osobą widzącą to jakieś totalne brednie wychodzi.
Był jakiś kawałek psa, był jakiś kawałek królika,
było coś tam, ale tak naprawdę to nie było w ogóle to.
Więc no tutaj J.P. Dick lubił sobie kłamać.
Czy nawet jak tam kiedyś kazałem generować, powiedzmy,
ognisko w lesie na Polana,
a tam wokół ogniska dwa psy
i tam mniejsze o szczegóły,
ale chodzi o tabliczki z napisami też właśnie
z podpisami tych psów i coś tam.
To ewidentnie te tabliczki były nie takie jak trzeba.
Ale J.P.T. stwierdził, że nie, to wszystko jest okej.
Raz mnie wychwycił nieprawidłowość, to prawda.
I za to wtedy okrzaniłem, że mam mi to poprawić i tak dalej.
Ale wtedy już tak sknocił to zdjęcie.
Przy czym on potem stwierdził, że nie, no wszystko jest w porządku.
Ale jak dałem osobie widzącej not, to już kompletna klapa.
A teraz nie testowałem w sumie z innym modelem.
Znaczy, stwierdziłem, że z innym modelem.
W innej sesji, w innej konwersacji i tak dalej, w innym wydaniu.
Nie testowałem tego, bo wiedziałem, że on i tak może mnie jasno okłamywać,
ale faktycznie czytelność i tych tabliczek, bo też sobie robię takie testy od czasu do czasu,
i faktycznie to się poprawiło. I na wysokości tak jak trzeba, i w tle tak jak trzeba,
żeby widoczność była. Także to się faktycznie poprawiło, natomiast jeśli chodzi o takie testy
i o takie sprawdzanie, to on sam siebie tak czy inaczej sprawdza i wie, że jak on to zrobił,
To nawet jak zrobił źle, to użytkownik nie ma o tym wiedzieć, to wszystko jest dobrze.
Wszystko jest dobrze, zamiatamy tak, wybielamy, no.
Także, no niestety, w sumie spodziewałem się, że będą tego lepsze efekty, ale może to się kiedyś zmieni.
Może jak ten GPT tam powiedzmy pięć wyjdzie, czy coś, to może będzie trochę bardziej…
albo właśnie wręcz odwrotnie, jeszcze może bardziej, jakiś taki manipulansko-intryganski jakiś taki, nie wiadomo.
Co to ma być? Jeden model, prawda? Ujednolicony niby?
No, zobaczymy co to z tego będzie.
No i ode mnie chyba…
Właśnie, Michał, a tobie się sprawdza dalej ta automatyzacja?
Bo mówię, chyba się sprawdza, nie?
Tak, sprawdza się. Parę razy pojawił się błąd, że coś tam nie wyszło z aktualizacją,
No, ale generalnie, no to już teraz działa i zrobiłem sobie, żeby mnie tam powiadamiał i zawsze tam mam rano informację, że tak, że automatyzacja została wykonana i widzę, że to po prostu działa.
Właśnie my też przez pierwsze parę tam razy jak… znaczy nie to, że cyklicznie dzień po dniu powiedzmy z jakąś regularnością, ale widać, że oni chyba nad tym pracują,
Żeby to jakoś tam lepiej działało, nie wiem, czy po stronie Orange Telefon,
czy deweloperów, czy po stronie Apple i samego działania skrótów,
aplikacji skrót tego całego systemu automatyzacji, nie wiem.
Ale wiem, że kiedyś też takie właśnie problemy, o których wspominałeś,
drobne, że się tam nie chciało aktualizować i wypluwało od czasu do czasu
powiadomienia, że to nie do końca działało, a teraz działa.
No też tak miałem chyba ze trzy razy może.
Natomiast teraz też już w sumie wszystko jest w porządku, także fajnie, że to jest.
Chociaż, z drobnym wyjątkiem, bo jak przez ostatni okres, przez parę dni
pozostawałem połączony ze swoim VPN-em, to się gdzieś tam lubiło nie odświeżyć faktycznie.
Mało tego, nie powiadomiło mnie o tym, bo po co.
A to się potem okazało, że oj, tu faktycznie trwa aktualizowanie listy anty-spamu i że dopiero teraz jest aktualna.
Na to też uczulam, że jak jest VPN… Właśnie, VPN wszystkiemu winien, prawda?
Znamy już historię z VPN-em.
Z tym backupem, tak?
Dokładnie.
To ty byłeś z tym backupem. No właśnie, i iOS, a odtwarzaniem Skopii.
Gdzie szukać winowalicet? Tylko w VPN-ie.
Tak, jak coś z siecią nie działa, to warto zawsze sprawdzać, czy tam gdzieś nie jest połączony VPN,
Tak, pół żartem, pół serio, ale tak, bo też ja miałem przypadek, znaczy nie ja,
znaczy ja jestem jakby teraz troszkę przekazicielem tego przypadku, opowiadaczem o nim,
że właśnie miał jeden kolega zapiętego VPN-a na routerze po prostu zwyczajnie,
czyli jego cała sieć domowa, cała sieć Wi-Fi przechodziła przez VPN-a.
I coś mu tam nie działało, już teraz nie pomnę co, bo to dawno było.
Ale mi to wyglądało na taki klasyczny przypadek działania VPN-a.
Coś tam powodowało, że miało być coś z reklamami, a bez tego chyba to by nie działało,
bo to jakaś darmowa wersja była czegoś.
I po prostu mu tam się… czy logować to to nie chciało,
czy prawidłowo łączyć z tym serwerem jakieś aplikacje, nieważne.
Spróbuj się połączyć ze danymi sieci komórkowej, po prostu ze swoim operatorem z siecią mobilną.
No mówi, słuchaj, zadziałało. A ja mówię, no właśnie, trzeba pogadać z rodzicielami normalnie, żeby ci tego wypije na zdjęli albo coś z tego routera, no bo nie działało po prostu.
No niestety, tak się czasem zdarza, zwłaszcza jeżeli mamy do czynienia z jakimiś blokerami reklam, a odpalamy aplikację wykorzystującą reklamy i wyświetlającą.
Z reguły to Ci twórcy tych rozwiązań też starają się, żeby to nie było uciążliwe, to blokowanie reklam i żeby robiło to, co ma robić, a aplikacje działały.
No, ale twórcy niektórych rozwiązań próbują być sprytniejsi. Odwieczna walka trwa.
Tak, dokładnie. No, sobie z tym radzi rzeczywiście coraz lepiej. Także może i mogę polecić usługę.
Dobra, słuchajcie, chyba nas północ została, więc kończę. Dzięki za możliwość i na sam koniec.
Jeszcze minutka do północy.
Ale mnie tutaj już pora spać, upomina, że chyba pora spać faktycznie. Także, że będzie północ.
Także również zdrowych, spokojnych, wesołych świąt.
I wzajemnie.
Współczesnie ciepłych chyba i bez jakichś wahań bardzo pogodowych, żeby były stabilne, emocjonalnie pogodowo.
No tego byśmy sobie życzyli, chociaż jak zaglądałem do prognozy pogody, to ma być deszczowo, przynajmniej w moich stronach.
O nie, nie, nie, to tylko tak, żeby się wszystko, kwiatuszki ładnie rozwijały i serducho też, ale tak, żeby było w miarę ciepło.
Dzięki, pa pa, trzymajcie się, cześć.
Tak, to starczy mi ESPIC i RH Voice, czyli rzeczywiście Paulino, to o czym mówiłaś, tu warto testować te syntezatory, z którymi był kiedyś problem z najnowszą testową wersją NVIDIA, nomen omen, testową, tylko pamiętajcie, żeby jednak może stworzyć ją sobie jako taką wersję przenośną i posprawdzać te wszystkie dodatki, czy one Wam tam działają, czy nie macie jakichś kłopotów z nimi.
Tak, bo istotnie różnie można z tym być, zwłaszcza, że tutaj, jak słyszeliśmy, zmian sporo.
Tak jest.
Ostrożnie. Na Whatsappie też nie widzę żadnych nowych wiadomości, a zatem chyba pora się żegnać.
Przynajmniej w 278. odcinku Tyflo Przeglądu.
I życzę zdrowych i spokojnych świąt, które się zbliżają.
Dokładnie, tak. Przypomnę tylko, że Paulina Gajoch, Paweł Masarczyk…
Michał Dziwisz, Piotrek Machacz i ja, czyli Tomek Bielecki,
braliśmy udział w tym odcinku. I wy oczywiście, drodzy słuchacze,
za co bardzo dziękujemy. Jak już się rzekł, życzymy zdrowych, spokojnych świąt
i do usłyszenia. Do usłyszenia. Do usłyszenia. Dobrej nocy.
Był to Tyflo Podcast. Pierwszy polski podcast dla niewidomych i słabowidzących.
Program współfinansowany ze środków Państwowego Funduszu Rehabilitacji Osób Niepełnosprawnych.

Wszystkie nagrania publikowane w serwisie www.tyflopodcast.net są dostępne na licencji CreativeCommons - Uznanie autorstwa 3.0 Polska.
Oznacza to, iż nagrania te można publikować bądź rozpowszechniać w całości lub we fragmentach na dowolnym nośniku oraz tworzyć na jego podstawie utwory Zależne, pod jedynym warunkiem podania autora oraz wyraźnego oznaczenia sposobu i zakresu modyfikacji.
Przekaż nam swoje 1,5% podatku 1,5 procent Logo FIRR Logo PFRON Logo Tyfloswiat.pl

Czym jest Tyflopodcast?

TyfloPodcast to zbiór instrukcji oraz poradników dla niewidomych lub słabowidzących użytkowników komputerów o zróżnicowanej wiedzy technicznej.

Prezentowane na tej stronie pomoce dźwiękowe wyjaśniają zarówno podstawowe problemy, jak i przedstawiają metody ułatwienia sobie pracy poprzez korzystanie z dobrodziejstw nowoczesnych technologii. Oprócz tego, Tyflopodcast prezentuje nowinki ze świata tyfloinformatyki w formie dźwiękowych prezentacji nowoczesnych urządzeń i programów. Wiele z nich dopiero znajduje sobie miejsce na polskim rynku.

Zapraszamy do słuchania przygotowywanych przez nas audycji i życzymy dobrego odbioru!

Tematyka

Pozycjonowanie i optymalizacja stron internetowych