TyfloPrzegląd Odcinek nr 304 (wersja tekstowa)
Pobierz napisy w formacie SRT
Pobierz napisy w formacie VTT
Fundacja Instytut Rozwoju Regionalnego prezentuje
Tyflo Podcast
W tym tygodniu w Tyflo Przeglądzie
WISPERO ugina się w sprawie warunków abonamentu, przynajmniej w Niemczech
AudioCapture
Nagraj dźwięk z jednego lub kilku programów w systemie Windows
Czat GPT w wersji webowej jeszcze bardziej dostępny
VoiceDream Reader otrzymuje wsparcie dla AI w dokumentach.
E-Speak NG staje się kompatybilny z iOS-em 26.
Echobox 2 z obsługą książek Daisy i innymi poprawkami.
iOS 26.1 dodaje możliwość zmiany głosu gestem.
Prudent Screen Reader i V-Radio zniknęły ze sklepu Play.
Paperback otrzymuje wsparcie plików Word i kolejne poprawki.
Aktualizacja oprogramowania kontrolerów Native Instruments bardziej dostępna.
Zmiany w cenniku Eleven Reader.
Jak szybko pozbyć się dźwięku czy pnika ekranu podczas udostępniania w trakcie spotkań?
Nowości w dodatkach do NVDA.
Będą też nowości w grach.
ComicCast. Sztuczna inteligencja przeczyta niewidomym komiksy.
Kody na wilens pojawią się na liniach prowadzących w Japonii.
Amerykańska sieć sklepów wdraża pierwsze na świecie dostępne hasy samoobsługowe.
Aplikacje zewnętrzne w chat GPT. Co to takiego?
Allegro da przedmiotom drugie życie, a tobie pieniądze.
Kilka nowości od Google.
Pamiętajcie też o naszej ankiecie, ankieta.tyflopodcast.net.
Głosować możecie do końca roku. A teraz zaczynamy!
Tyflo Przegląd jest audycją prowadzoną na żywo, więc serdecznie zachęcamy Państwa do współtworzenia go razem z nami.
Oczekujemy na wiadomości głosowe na Whatsappie oraz połączenia telefoniczne pod numerem 663-883-600.
Powtarzam, 663-883-600.
Teraz będzie taki suchy, techniczny żart. Gdyby to była audycja 404, to moglibyśmy powiedzieć, że nas nie ma. Ale że to audycja 304, to jesteśmy.
I mamy się dobrze i rozpoczynamy właśnie trzysta czwarte wydanie Tyflo Przeglądu.
Za sto odcinków też będziemy.
Witamy was bardzo serdecznie.
Dziś sporo różnego rodzaju informacji, a dostarczą je wam Paweł Masarczyk, Maciek Walczak i Piotr Machacz.
Witajcie. Cześć, witajcie wszystkim.
Już do nas piszecie, już wchodzicie z nami w interakcje, to zobaczmy może na dobry początek
Pierwszą wypowiedź taką tekstową, tu Mariusz do nas napisał.
Dobry wieczór wszystkim prowadzącym. Z tej strony Mariusz.
Na sam początek chcę życzyć wszystkim nauczycielom,
tyflopedagogom wszystkiego najlepszego z okazji ich święta narodowego.
Oraz oczywiście dużo wszelkiego zdrowia i sukcesów pedagogicznych.
Oraz tego, aby wytrzymywali ze swoimi uczniami. No, też tego życzymy jak najbardziej.
Również życzę…
Dzień nauczyciela był przez Dzień Białej Daski, to może Dzień Teutona Pedagoga byłby gdzieś po środku.
A, to też prawda.
Na przykład.
Na przykład, na przykład. Czemu by nie?
Cóż to dalej jeszcze Mariusz do nas pisze?
Również życzę mnóstwo zdrowia wszystkim prowadzącym i abyście w ogóle nie chorowali i byli twardzi,
Bo jest w was wszystkich mocy, wiara oraz siła i przekazujecie mnóstwo dobrych i ciekawych informacji.
Ja jestem po.
No właśnie.
To się zdecydowanie przyda.
Tak jest.
Ale to nie koniec wypowiedzi Mariusza. Teraz temat iOS 26.0.1.
Po jakimś czasie jego używania i działania na nim odczuwam przyspieszenie iPhona 15
I brak jego nagrzewania się, nawet podczas cięższej pracy.
Standardowo przychodzę do Was z informacją, co prawda tym razem nie technologiczną,
lecz z bardzo ważną informacją, myślę, że o której już można śmiało i głośno mówić.
Mianowicie, jak pewnie wiecie lub nie wiecie, to w listopadzie będzie miał już 65 lat
główny dyrektor Tim Cook.
W związku z tym firma Apple już planuje jego następcę, bo to będzie oznaczało, że Tim Cook będzie powoli odchodził ze swojego stanowiska.
Jak dla mnie jest to smutna informacja, bo dobrze zarządzał tą firmą i dobrze się tam odnajdywał.
Oraz nieraz się wypowiadał na temat dostępności swoich sprzętów, czy na temat podchodzenia z dostępnością do osób niewidomych.
Ja mam takie wrażenie, że znacznie więcej o dostępności, jeżeli ja słyszałem w kontekście jakiegoś
managementu Apple, to bardziej jednak od Steve’a Jobsa niż od Tima Cooka, ale może nie wsłuchiwałem się.
I chyba ocena ogólna, tak jak czyta się różne nagłówki techniczne, jest też taka, że Tim Cook trochę stracił
tą duszę, którą w tej firmie zaszczepił Steve.
Ale to jest, wiecie, to jest też tak z drugiej strony, kiedyś to były czasy, teraz nie ma czasów.
Steve Jobs założył tą firmę, więc też ciężko wymagać od jakiegokolwiek następcy, żeby przebił twórcę, który miał konkretny zamysł i sprawił, że ta firma jest znana. Ona była znana ze Steve’a Jobsa przez wiele lat i z jego wizji.
Ale wiecie, jeszcze w tym pedagogicznym klimacie krążąc, to cóż to za uczeń, który mistrza nie przerośnie.
Jeśli chodzi o dostępność, to Tim Cook chyba najbardziej zapadł w pamięci fakt, że to jest trochę już stara sytuacja sprzed kilku lat.
Kiedy na jednej z rozmów z inwestorami też właśnie pojawił się jakiś temat na temat przychodów i zwrotów z inwestycji.
Jakiś kontakt dostępności się pojawił i pamiętam, że właśnie Cook coś powiedział w stylu, że my tak nie przejmujemy się w wersji cenzurowanej.
Pamiętam trochę mocniejszego słowa z tego co Pani tam użył, nie przejmujemy się zwrotem z inwestycji na przykład jeśli chodzi o dostępność, tak to po prostu powinno się robić.
No to akurat bardzo dobre podejście, chociaż też trzeba przyznać, że Apple jakoś tą dostępnością to nigdy też się tak nie chwaliło wprost.
To się zawsze okazywało przy okazji i w sumie tak trochę też dzięki temu wśród osób z różnymi niepełnosprawnościami,
bo podejrzewam, że nie tylko wśród niewidomych, ale chyba jednak wśród niewidomych tak najbardziej jest to widoczne,
a może to takie skrzywienie po prostu, że jednak w tym środowisku się obracam, to o tym najczęściej słyszę,
że po prostu osoby z niepełnosprawnościami, a z niepełnosprawnością wzroku w szczególności,
trochę takimi ambasadorami marki Apple się stały.
Apple Viz chociażby, tak? Oddolna inicjatywa, taka bardzo duża, która poświęcona jest produktom, a właściwie kiedyś była produktem jednej konkretnej firmy.
Którą jednak to Apple się też liczy gdzieś tam.
Tak, tak, dokładnie.
Ja ostatnio Apple Viz widziałem wspomniane w takich mainstreamowych, niemieckich co prawda, może w polskich też, bo to mignęło,
Wspomniane, bo a propos błędu voice-overa przy iOSie 26,
że tam czasami voice-over się po aktualizacji nie włączał,
no to dotarło to do mediów głównego nurtu, takich Apple’owych.
Chyba Mac und Ich, Mac und I, jakoś tak się nazywa ten portal niemiecki,
wspomniał o tym błędzie i właśnie jako źródło tej informacji podał Apple Visa.
No widzisz, no to rzeczywiście fajnie. Mamy dalszą wypowiedź od Mariusza. Był to człowiek o dużym spokoju, jest w sumie cały czas, spokoju w swoim głosie.
Wszystko kiedy zapowiadał na swoich WWDC czy swoich konferencjach brzmiało poważnie i nigdzie tam nie było żartów. To czy ja wiem, czy to tak dobrze? Nie wiem.
Ale czy tak też do końca było? To chyba też nie. No inna sprawa, że teraz te konferencje wyglądają zdecydowanie inaczej, od kiedy one są nagrywane na żywo.
Właśnie nie są na żywo, to jest całe sedno. Kiedy one były na żywo, to mam wrażenie, że jakiś taki wstawek żartów było może trochę więcej.
Tak. Dobrze, co my tu mamy jeszcze dalej? Bo to dalej jest wypowiedź Mariusza.
Zawsze czułem, jak to już kolejna osoba jest tak mocno oddana swojej firmie i jak dbała o jej dostępność,
Chciałbym, żeby jej produkty były dostępne dla każdego.
Wiem też, że dbały o to inne osoby na innych stanowiskach,
ale, Timku, kto był to ktoś taki, kto wszystkim tym nadzorował
i o to wszystko dbał.
Timie, dziękuję Ci za wszystkie lata w firmie Apple
i za Twój wspaniały i charyzmatyczny głos podczas swoich wystąpień.
Kurczę, a szkoda, że tego nie słucha teraz, nie?
No, właśnie.
Może my też się kiedyś tak przebijemy do mainstreamu?
Może jakiś adres e-mail można napisać do niego, chyba po prostu team małpa apple.com chyba?
Tak, tak. Ale Mariuszu, jakbyś chciał do teama napisać, to można.
Ja podejrzewam, że właśnie coś w rodzaju team małpa apple.com i całkiem możliwe, bo…
On więc nawet czasem odpisuje.
Tak, tak. I część tych maili to czyta nawet.
Więc Steve Jobs zresztą robił podobnie, że tam rzeczywiście można było do niego napisać.
A być może dzięki temu Apple Intelligence się w końcu doczekamy u nas?
No właśnie.
Może. A tak a propos Apple i dostępności i tak troszkę od drugiej strony, nie od strony teama, ale od strony inżynierów Apple.
Mam wrażenie, że oni często, gęsto, może nie często, gęsto, ale mają problem z, tak powiem, z czytaniem ze zrozumieniem i tego, co się do nich pisze.
Ja go ostatnio zgłaszałem chyba za trzy tygodnie temu albo miesiąc temu, nie, dłużej, ojej, nie pamiętam kiedy, we wakacje chyba jeszcze.
Zgłaszałem problem z tą nieszczęsną apką podcasty i ze zmienianiem prędkości do tych niby trzech razy.
Wprowadzili niby teoretycznie dwa tygodnie, czy tam trzy tygodnie temu poprawkę i się pytają, czy wszystko w porządku.
No, wszystko w porządku, tylko zostało niestety po staremu, nie? I nic tak naprawdę z tego nie zrobili.
Poza tym, że okej, da się na powrót wejść w to menu i do dwóch razy przyspieszyć prędkość, ale do trzech już nie.
Przepłyniałby do stosowania prędkości czy coś więcej prędkości.
Okej.
Niestety.
Teraz jeszcze Mariusz do nas tu pisze.
No zresztą w międzyczasie jeszcze też pytał nas właśnie o te nasze refleksje.
No to Mariuszu, o to i nasze refleksje.
A teraz jeszcze tu Mariusz w swojej wiadomości kontynuuje.
Teraz przechodząc już do technikaliów to mamy aktualizacje następujących aplikacji.
Aplikacja Messenger. Jest w nim poprawiona jakość audio oraz wysyłanie wielu zdjęć naraz.
Jakość audio gdzie? Rozmowy? Wiadomości?
No właśnie.
To jest mi ciekawe.
Ja mam wrażenie, że to audio to jak było w głosówkach, dobre taki jest nadal.
A na Whatsappie jak było złe, tak nadal jest.
Przeciętne może to być.
Tak, tak.
Za to Whatsapp chyba się dorobił. Nie wiem czy już ktoś was testował.
Tłumaczenie wiadomości?
Jeszcze nie czytałem coś o tym, ale jeszcze nie sprawdzałem.
Ja też jeszcze nie…
Pytanie, czy to po polsku działa.
Wiem, że na iOS działa, na Androidie jest jakoś języków mniej na start, to ciekawe.
Czyli pewnie używany jest jakiś ten Apple Tumor czy coś.
Pewnie tak.
Zapewne tak.
Chyba, że Metro AI.
Chyba, że Metro AI.
Ale Messenger na iOSie, no już nie ma tych milczących elementów, to jest draza,
ale tych podwojonych treści, w sensie nazwa profilu i wiadomość
I potem znowu za flikiem w prawo kolejny raz treść wiadomości, więc wow, udało im się naprawić, nie?
Kolejne aktualizacje od Mariusza.
Aplikacja Facebook działa szybciej i szybciej, odświeżają się w niej posty oraz już się nie zawiesza.
Czat GPT teraz już lepiej generuje swoje odpowiedzi, poprawki błędów i lepsze jego działanie.
Aplikacja Word otrzymała efekt Liquid Glass na iOS-ie 26.
Dużo aplikacji teraz.
W każdym razie da się wysyłać wiadomości prywatne, no ale to zawsze jakiś początek i miejmy nadzieję, że będzie to się rozwijało dalej.
Tyle jak na razie ode mnie i odezwę się jeszcze później. Miłej audycji i miłego wieczoru życzę wszystkim prowadzącym i całej wspaniałej ekipie.
Dziękujemy Ci bardzo, Mariuszu. A teraz jeszcze zanim przejdziemy do informacji i do tego, co mamy w notatkach, to odbierzemy jeszcze jeden telefon.
Patryk jest z nami. Dobry wieczór, Patryku.
Witam bardzo serdecznie.
Mam nadzieję, że mnie słychać dobrze, bo mówię do Was z Apple Watcha SE3.
No to tak a propos Apple’a i a propos pana Kuka, który właśnie zarządza wszystkim,
no to chciałem trochę powiedzieć na temat Apple Watcha właśnie.
Nie wiem czy pamiętacie, może taką dygresją wrzucę.
Pamiętacie takiego słynnego IOS-a w wersji 8,
który to ten IOS w wersji 8 miał bardzo dużo błędów,
to takich błędów, no, takich przeszkadzających w pracy codziennej,
takich już teraz ich nie pamiętam dokładnie.
Ja już myślałem, że Apple ma ten rozdział za sobą,
No, ale do momentu, kiedy nie zobaczyłem watcha SA26 na Apple Watchu SE3,
domyślałem, że to jest niemożliwe. No, jednak się okazuje, że takie błędy
jak najbardziej są możliwe. Nie wiem, czy używacie tutaj Apple Watcha,
czy są z Was osoby, bo ja będę mówić o błędach.
Po pierwsze, nie działa dyktowanie w języku polskim,
mimo że teoretycznie język klawiatury jest wybrany na język polski.
Próbowałem wielokrotnie przedyktować…
Mówię o oczywiście, o WatchOSie w wersji…
No to ciekawe, ja akurat też tego próbowałem.
WatchOS 26.0 jak był, czy to w betach, czy w wersji RC, no to działało elegancko.
No to ciekawe, bo Arek Świętnicki od swojej znajomej, która używało CZS-a,
ona również stwierdziła, że dyktowanie nie działa.
A ja właśnie, mi ono nie działa i mało tego, że dyktowanie nie działa w języku polskim,
tylko działa po angielsku. Jak próbujemy mówić po polsku, to wychodzą takie bzdury.
To jeszcze, mało tego, to jeszcze jak on rozpoczyna to dyktowanie,
to najczęściej voice over po prostu przestaje gadać kompletnie.
I ja niekiedy nie wiem w ogóle, że coś się wprowadza, że coś się wpisuje.
Nic, zero, nula, kompletnie nie wiem, co się dzieje.
To mogę potwierdzić, tak. I tam gdzieś na tym ekranie jest przycisk do zmiany języka.
Pytanie, gdzie ten przycisk jest. To będzie trochę lepiej.
No to jest wybrany język polski i nadal jest to samo.
No to u mnie to nie działa. Mało tego,
domyślnie włącza się jakaś klawiatura,
jak otwieram sobie pole edycji, to się włączy jakiś…
Nie wiem, czy ja to dobrze wymówię, jakiś widok pisma odręcznego.
Tak.
Co to jest?
To jest dokładnie to, tak jak to, co się nazywa…
Znaczy po angielsku to się ładnie nazywa scribble,
ale to jest dosłownie funkcja, która pozwala…
Jak ustawić normalną klawiaturę taką do wpisywania? Da się?
Tutaj pytanie podstawowe.
Maciek, może ty wiesz, czy na Watchu SE 3 też już ma być klawiatura?
To znaczy, właśnie ja chciałem o to Patryka zapytać w sumie, bo…
To ja, dobra, to ja rzucę inną sugestię. Spróbuj sobie ściągnąć datę Watchu SE 26.1,
bo tam się pojawiła polska klawiatura, bo wcześniej jej nie było.
I przynajmniej, ja mam akurat Watcha serii z 10, i u mnie ta polska klawiatura jest.
Wcześniej jej nie było i faktycznie na Watchu się otwiera.
Też nie ma. Ja mam akurat S2, więc nie mam.
Ale trójka chyba ma trochę większy ekran, więc już może być ta klawiatura.
Tak. No mniej więcej właśnie teraz od tego momentu będzie się wyświetlała klawiatura.
On powinien jakoś zapamiętywać ostatnią metodę wprowadzania.
Ja pamiętam, że mi przez jakiś czas się domyślnie włączało dyktowanie.
Nie pamiętam teraz jak to zmieniłem.
Mi się też to włącza, ale domyślnie była ta wprowadzanie ręczne.
A spróbuj Patryku, bo w polskiej wersji językowej tak de facto tego scribble całego chyba nie ma.
Tylko w angielskiej i tu mi śmierdzi błędem.
Jest chyba ten scribble, bo po polsku też mi się wydaje.
Nie wiem, bo ja go nie mam.
To się nazywa pismo odręczne. Widok pisma odręcznego.
Tak, no tylko tak jak mówię, ja tego na pewno nie mam.
Być może, bo nieraz na iPhone’ie dzieją się takie,
znaczy kiedyś działy się takie rzeczy,
że to dyktowanie sobie działało, nie działało, działało.
Na Watchu zresztą chyba też jeden…
Znaczy u mnie działa ewidentnie po angielsku,
bo nawet jak wejdę w ustawienia i tam, gdzie jest dyktowanie,
to nawet mam podane, że niby język angielski.
Tam coś pisze, że English i tam…
A wywal sobie cały układ klawiatury angielskiej.
A jak wywalić układ? Ja w ogóle wywaliłem cały język angielski.
Znaczy, no właśnie i układ też się powinien wywalić, ale…
Nie wywalił się.
Ja to zaraz sprawdzę, czy się da w sumie, bo wiem, że to z jednym kolegą…
Ale to dobrze, to zostawmy to, bo to jeszcze nie jest koniec błędów.
Kolejny błąd to jest, nie wiem co się dzieje, jeżeli chodzi o sieci WiFi.
Jak sobie wchodzę w listę sieci Wi-Fi i idę sobie flikiem w prawą stronę,
to pod flikami widzę jedną sieć Wi-Fi.
Tak jakby on widział tylko jedną sieć,
gdzie co najmniej tych sieci powinien mi wygryźć więcej.
A jak eksploracją sobie przejadę palcem gdzieś tam,
to nagle druga sieć mi się pokaże, ale już pod flikami tego nie ma.
i jak przewijam do góry ekran i np. mam stronę 1 z 3,
przewinę do góry i nagle się robi strona 3 z 3.
Strona 2 z 3 już nie ma.
I dalej po prostu widzę, tak jakbym widział, dwie sieci Wi-Fi,
gdzie powinno tych sieci się co najmniej pojawić więcej,
bo na iPhonie ich mam więcej.
Podam prosty przykład.
Mój iPhone, bo ja mam sieć, która się nazywa eurodomowa i np. mam tak,
eurodomowa 51 i eurodomowa 51 5G.
I do tego eurodomowa 5G jest podłączony mój komputer, mój telefon,
bo generalnie jestem blisko routera, a z jakiegoś powodu łączy się
z tą zwykłą siecią eurodomowa 51, bez tego 5G, on po prostu tej sieci
Przez bardzo długi czas Apple Watche nie miały pasma 5 GHz.
Pewnie Apple to uzasadniało tym, że Apple Watch tak dużej przepustowości nie będzie potrzebował,
a sieci 5 GHz mają trochę gorszy zasięg i chyba wymagają trochę więcej jej mocy niż sieci 2,4 GHz.
Może cały czas tak jest.
Przy czym od Watcha piątki bodajże albo szóstki właśnie od Apple Watcha z serii piątej albo szóstej wsparcie dla 5G i 5GHz jest.
Przy czym te SE nie miały tak naprawdę. Ani jedynka, ani dwójka nie miała i nie wiadomo czy w sumie trójka w takim układzie ma czego nie ma.
Tak samo jak namierzanie z bliskich odległości AirTagów na przykład czy coś, te czipy U1, U2.
Wodaj od Apple Watcha siódemki to jest, natomiast SE tego nie miały.
No nie zupełnie, bo na przykład jak sobie otwierałem notatki,
bo chciałem sobie otworzyć aplikację notatki,
no to słuchajcie, wczytywanie tych notatek,
no to sobie to tak z minutę musiałem poczekać,
bo było wczytywanie, wczytywanie.
I tak musiałem czekać minutę, aż w końcu się notatki wczytały.
Teraz jest jakby kolejna rzecz, której totalnie nie rozumiem.
Jest w VoiceOverze taka opcja, która się nazywa
Mów po wybudzeniu.
Ja tutaj nie rozumiem czegoś takiego,
bo czy to włączę, czy to wyłączę,
to jak nacisnę koronkę albo dotknę ekranu zegarka jednym palcem,
to i tak on czyta godzinę.
Czy ta opcja jest włączona, czy ta opcja jest wyłączona.
No tutaj pewnie to mogłoby być przetłumaczone lepiej,
bo po angielsku ta opcja nazywa się speak on wrist raise
i to już trochę więcej nam mówi,
Bo to mówi, w momencie, kiedy masz włączone ustawienie,
że ekran się budzi po podniesieniu nadgarstka i wtedy,
jak ta opcja jest włączona, to nie tyle, kiedy go wybudzisz ręcznie,
czy to przyciskiem, czy dotknięciem, bo on wtedy faktycznie godzinę mówi,
natomiast jeśli ta opcja jest włączona, to on też zacznie mówić,
kiedy podniesiesz nadgarstek do góry, bo nie zawsze możesz to chcieć,
dlatego jest do tego osobne ustawienie.
Aha, czyli to jest, no bo tak a propos też źle przetłumaczonych rzeczy na język polski,
no to mamy w opcjach VoiceOvera taką rzecz, jak się…
to się nazywa wyłącz intonowanie, intonację czy coś takiego,
czy wyłącz tony głosu.
A, zmianę tonu, we mnie o to chodzi.
Zmianę tonu i pod spodem jest napisane, że to sprawia, że iOS będzie wykrywał języki.
Tak jest napisane pod tą opcją.
Aha, no to nie.
Więc teraz pytanie, czy ta opcja wykrywalitowni właśnie to jest wykrywanie języków, czy jest etykieta, której nie ma.
Czy to jest odnoszenie do…
Opcja do wyłączenia zmiany wysokości na pewno jest.
Teraz nie pamiętam, czy też można na watchu wyłączyć wykrywanie języków.
Może jest tego opcja.
Ale no musiałbym sprawdzić, teraz nie pamiętam.
No to ja spróbuję w takim razie sobie zainstalować tą betę WatchOSA faktycznie, bo może faktycznie problem jest w przypadku WatchOSA, akurat SE3 z tą klawiaturą.
No całkiem być może, to zawsze warto sprawdzić.
No bo ja sobie generalnie spiąłem po prostu, położyłem dwa iPhone’y koło siebie, znaczy iPhone i Apple Watcha, no i w ten sposób
w ten sposób to po prostu wszystko zrobię.
I słuchajcie, jeszcze takie mam pytanie, bo tam…
Tak czy inaczej, spróbuj wywalić
klawiaturę angielską
z iPhona, bo one te ustawienia się
klonują. Ale właśnie nie wiem jak
wywalić klawiaturę, bo ja szedłem w opcję
regionu i tam miałem pełno języków.
Jakichś angielskich. Ale nie,
ale nie z Apple Watcha,
nie z aplikacji Watch,
tylko z ustawień
ogólnych, bodaj to w ogólnych jest
i tam jest klawiaturka. Ogólna klawiatura.
Ale poczekajcie, w ogólnych…
Ale iPhone’ową.
Na iPhone’ie?
Tak, tak.
Ale nie w aplikacji Watch?
Nie.
Tylko w ustawieniach systemowych iPhone’a.
Stricte iPhone’a, no.
Aha, bo nie wiedziałem, że to jest…
Bo tam sobie domyślnie jest ustawienie, że on sobie klonuje po prostu wszystkie ustawienia języka, wiesz?
Zarówno preferowane języki, jak i klawiatury.
W ogóle, słuchajcie, żeby było śmiesznie, jak wywaliłem sobie te języki w Apple Watch’u,
Słuchajcie, nie wiem dlaczego, ale głosem preferowanym,
który niby rzekomo ma mi mówić, jest jakiś Samanta angielski,
a głosem dodatkowym jest Zośka.
Tylko problem polega na tym, że Zośka sobie gada cały czas, a nie Samanta.
Ja ustawiłem po prostu za zgodą Arka Świetnickiego,
znaczy za jego przykładem, ustawiłem sobie po prostu Zośkę na pokrętle
jako głos do przekręcenia, żeby nie działy się jazdy typu właśnie…
Dzisiaj jak chciałem sobie sen sprawdzić i przeczytać godzinę snu,
no to zaczęło mi coś po angielsku tam beblać.
A więc ja to dlatego potem to sobie zmieniłem.
Natomiast to troszeczkę powiem o aplikacjach,
bo troszeczkę się rozczarowałem, jak otworzyłem aplikację Ether
na WatchOSa i zobaczyłem, jak ten Ether jest niedostępny.
Na pierwszy ekran to w ogóle nie wiem, do czego służy,
bo oni są jakieś dziwnie poetykietowane przyciski.
Na ekranie, gdzie mam ulubione, jak sobie np. włączę stację,
no to niestety nie mogę dwoma palcami,
stuknięciem dwoma palcami zapauzować tego, co się odtwarza,
tylko muszę aplikację po prostu ubić,
bo nawet nie mogę tak znaleźć pauzy.
I teraz jest pytanie,
czy aplikacja Eterna Watch OSA jest rozwijana,
Czy to jest po prostu coś, co ktoś zrobił i tam o dostępność nie zadbał?
To chyba trzeba by było zapytać autora, bo na iOS-a, no, dba raczej o dostępność.
Tak, więc myślę, że to jest kwestia napisania po prostu do nich.
No ja akurat za teraz nie korzystam. Ja, jeśli chodzi o radio, no to mogę polecić dwie aplikacje.
Po pierwsze aplikacja Broadcast i ona chyba na Watchu jest dostępna.
Ja mam tuninga i tuning jest fajny akurat.
Czy korzystaliście z VoiceDreama na Apple Watcha? Bo tutaj VoiceDream też jest jakiś dziwny, w sensie są strony, jedna strona z dokumentami, druga strona z ulubionami, tylko problem polega na tym, że tam nie ma nic do niego załadowanego i ja nawet nie widzę przycisków w tym VoiceDreamie, jak ja mogę dodać dokumenty. Ja myślałem, że to się jakoś z iCloudem zbierało.
Teoretycznie powinno się synchronizować samo, ja kiedyś, nie wiem, a to będzie z lata temu, trzy lub cztery próbowałem, szczerze mówiąc podobne odczucia miałem do twoich, więc sobie dałem spokój.
Ja też, zwłaszcza, że VoiceDream na Watchu, no to mamy dostęp na nim tylko do głosów, które są na Watchu. No dobra, teraz jest tego więcej. Kiedyś to była właściwie tylko jeden głos dla każdego języka.
No i kiedyś też dało się tylko słuchać na słuchawkach Bluetooth, także też dawno nie bawiłem, w ogóle teraz z VoiceDreama nie korzystam do swojego języka.
Jeszcze miałem, słuchajcie, jeden problem.
Dzisiaj chciałem sobie kupić aplikację jakoś do YouTube’a,
bo niestety YouTube’a nie ma na natywnego.
Ja znalazłem coś, co się nazywa Minitube.
Dwie aplikacje, które chciałem sprawdzić.
Minitube za tam 10 złotych i Watchtube,
o której słyszałem chyba u Pawła Masarczyka,
jak recenzował Apple Watcha.
Chciałem kupić. No i w tym momencie wchodzę sobie,
daję kup, tam cena i tak dalej.
i VoiceOver mi mówi, tutum, uwaga.
Ale nie wiem co uwaga, więc chodzę tą eksploracją
i znajduję stuknij dwukrotnie, żeby zapłacić.
No tylko stukam dwukrotnie, to znaczy tapię dwukrotnie
i nic się nie dzieje.
Próbuję wciskać boczny przycisk,
się włącza ekran przełączania aplikacji
i nic się nie dzieje.
No jeszcze nie wiem, czy może koronkę trzeba będzie wcisnąć,
Strzelam, że tutaj chodzi, tutaj też pewnie takie niewortunne tłumaczenie,
może chodzić o przycisk boczny dwukrotnie, czyli tak jakbyśmy płacili aplikację.
U mnie się to różnie fokusowało, naprawdę. Zdarzało się tak, że miałem już kontekst taki,
że miałem płacić, naciskam ten przycisk, nie dzieje się nic, bo coś tam, okienko się nie podświetliło.
Także tam jest chyba z tego co pamiętam jakiś z tym problem.
Plus ja bym jednak polecał Restube jak już coś, bo u mnie Watchtube nie bardzo chciał chyba działać.
No ale to jest… Arek Świetnicki mówi, że można kupować aplikacje przez iPhone’a na WatchOS-a.
No można.
Można. Oczywiście, to jest też…
Wyszukaj w AppStore, wyszukaj w tym… w AppStore chyba normalnym wystarczy, tak?
Znaleźć po prostu appkę, ona jest tylko na Watcha i ściągasz ją na iPhone’ie i ona się potem dosynchronizowuje na Watchu.
Dokładnie.
No, ale jest to też jednak błąd mimo wszystko.
Jeszcze jak?
No i czasami jest też tak, że powiadomienia nie są czytane.
W sensie, jak przyjdzie powiadomienie na zegarek i mam zablokowany ekran,
czasami są one mówione, czasami nie.
Też tak nie do końca wiem, o co to zależy.
No, dla mnie najgorszy problem właśnie to było z tą klawiaturą.
Aczkolwiek tutaj, Pawle, ja do ciebie mówię teraz,
Teraz, bo ty robiłeś recenzję a propos Apple Watcha dziesiątki
i miałeś problem z tym, jak wywołać klawiaturę z poziomu iPhone’a,
którą się używa, żeby wpisać na Apple Watchu,
bo tapałeś w powiadomienie i nic ci to nie działało.
No to ja ci prawdę powiem, że ja też tak robiłem,
ale doszedłem do tego, jak tą klawiaturę wywołać.
Jak wyskakuje ci to powiadomienie na ekranie,
że klawiatura Apple Watcha jest aktywna,
to przeciągasz palcem tam, gdzie ma… i na coś takiego jak więcej.
I jak klikniesz w to więcej, to w tym momencie
normalnie będziesz mieć klawiaturę
i będziesz mógł pisać po Apple Watchu za pomocą iPhona.
Okej, ale ktoś to nie w Ortunie zaszył.
I Braille wtedy też działa, tak?
Nie wiem jak to się nazywa.
O minidziesiąt.
Tak, tak, tak.
Ciekawe.
A jeszcze powiedzcie mi taką rzecz, bo ja teraz mówię z wami przez Apple Watcha i będę się chciał rozłączyć.
Jakoś tak stuknięcie dwoma palcami nie bardzo chce zadziałać.
Dwa razy dwa, no? Nie działa ci?
No, ja dzisiaj rozmawiałem i nie chciało zadziałać, również a propos błędów.
Wiesz co? Podświetl sobie najpierw może ekran.
W sensie stuknij jeden raz, żeby ekran Cię obudził i spróbuj.
I dopiero wtedy dwa razy dwoma.
Okej. No dobrze, słuchajcie, to wiecie co, ja przepraszam, że tak w sumie cały czas tak długo może gadam o tym,
ale po prostu dla mnie jest to nowy sprzęt i mimo wszystko jednak chciałbym, żeby tu wszystko działało jak trzeba.
Kto pytanie błądzi Patryku, a może te pytania też innym słuchaczom pomogą.
Może inni przyszli nowi potencjalnie użytkownicy.
To ja jeszcze Piotrze powiem o, nie wiem czy masz przygotowane, mówiąc o audycji, o grach.
O grze, która wyszła dzisiaj, czyli Blight Survival.
Miałem powiedzieć, że wyszła, natomiast jeszcze nie zdążyłem pobrać, więc jeśli…
Ja nawet też jeszcze nie zdążyłem kupić ani pobrać, więc też tylko mówię, że wyszła.
Okej, no to ja później jeszcze więcej coś powiem z opisu, to…
to będzie dzisiaj.
Okej Patryk, to w takim razie dzięki za telefon, za garść pytań i refleksji.
A jak coś jeszcze się pojawi, to dzwonię oczywiście.
A teraz spróbuj się rozłączyć.
No to uwaga.
Udało się! Sukces!
I wcale nie mówimy tego złośliwie, że sukces, że się słuchacz rozłączył.
Nie, nie. Dzwońcie, jeżeli macie tylko ochotę. Możecie też do nas pisać.
A propos rzeczy pisanych, to na przykład Sylwester napisał do nas, że wypełnił ankietę.
Bardzo dobrze, Sylwestrze. Cieszymy się niezmiernie.
Ankieta.tyflopodcast.net. Pamiętajcie, że jeszcze cały czas czekamy na Wasze głosy.
Tych głosów, jak ostatnio sprawdzałem, to było 47 na razie.
Jedni powiedzą dużo, inni powiedzą, że mało, więc jeżeli macie ochotę jeszcze swoje głosy dorzucić,
to bardzo serdecznie zapraszamy.
Do końca roku, a potem sobie poomawiamy to, co tam ciekawego wyszło z tej ankiety, a ciekawe rzeczy wychodzą, ale to o tym w przyszłym roku, że tak powiem.
A teraz, no to słuchajcie, w myśl pytania, które zadał Maciek w naszych notatkach. Co tam u nas?
Ja mogę się pochwalić dwiema rzeczami, które się ostatnio u mnie wydarzyły
i w sumie jakoś przez to fajniej w życiu.
Po pierwsze, wystąpiłem sobie publicznie,
jakieś kilka dni temu, w czwartek zeszły dokładnie,
na konferencji Wagtail Space.
I czym jest Wagtail Space?
Jest to konferencja skupiona wokół Wagtail CMS,
systemu do budowania stron, trochę jak WordPress, trochę jak te wszystkie
Drupale, Joomle i tak dalej. Tylko, że ten system, oprócz tego, że po prostu jest,
jest też open source, ma być dużo bardziej dostępny w administracji,
czyli gdybyśmy chcieli sami jakąś stronę mniejszą czy większą na czymś postawić,
no to Wagtail CMS miałby być czymś, co umożliwi nam to w dużo większym
stopniu niż inne CMSy. Sam jestem tego ciekaw, może kiedyś spróbuję
Będę mógł coś więcej wtedy o tym powiedzieć.
Natomiast na ten moment to wyszło trochę tak, że z koleżanką, która tu w Wiedniu
też zajmuje się dostępnością, wpadliśmy na pomysł.
Znaczy, ona wpadła na pomysł, ja go podpatrzyłem i stwierdziłem,
że mogę go rozszerzyć o jakieś swoje pomysły drobne.
I zrobiliśmy wystąpienie, które trwało 25 minut.
I polegało na tym, że przedstawialiśmy…
Puszczaliśmy kawałek czegoś, co czyta screen reader,
a zadaniem uczestników było odgadnąć, a jaki już to kod sprawił,
że screen reader tak, a nie inaczej coś powiedział.
Chodziło tam o HTML-a, chodziło tam o troszkę CSS,
chodziło z mojej strony o różne atrybuty ARIA,
które mogły być mniej znane i mniej wykorzystywane.
I wszystko było w oparciu o Pokemony, bo koleżanka wymyśliła taki temat,
Także mieliśmy pokemoniaste wystąpienie, leciały definicje Pidgeotto czy Arizarda,
jakieś tam przykłady z Charmanderem, także na Voice Overze, na NVIDIA, na JOS-ie,
także było po geekowsku jak trzeba.
Samo wystąpienie będzie opublikowane za około miesiąc na YouTubie,
na kanale Wagtail Space czy Wagtaila, zobaczymy jeszcze kto konkretnie to wrzuci.
No, świetnie się bawiłem przygotowując to, bo po raz pierwszy w życiu chyba pisałem tyle HTML-a z ręki w notatniku
i że ten HTML jeszcze działał, to jestem tym bardziej zdziwiony i ta cała aria.
Także okej, okej.
A wagtail to po polsku pliszka.
To nie ma nic wspólnego z marnaniem ogonem, to jest po prostu ptaszek zwany pliszką.
I to jest rzecz jedna.
A rzecz druga to, no jakoś tak jest, że się ostatnio przez Seeing Assistant Go
bawię trochę OSM-em, danymi OSM-em, no jakimś efektem tego było wrzucony tu
dodatek do Firefoxa, który się ze mną podzielił.
Arek Koziołżywek z Transition Technologies.
No i tak gadaliśmy sobie troszkę i tam zastanawialiśmy się, jakie jeszcze dane
Można by wyciągać z OSM. No i się okazuje, że jest coś, co myślałem, że tego nie ma, a jednak jest.
Czyli dla niektórych pomników i różnych miejsc pamiątkowych, tablic pamiątkowych,
punktów informacji turystycznej, graffiti i innego rodzaju sztuki uliczno-publicznej
są dostępne w OSM-ie inskrypcje. Czyli to, co jest napisane na danym pomniku,
a często są to jakieś historie związane z danym pomnikiem, legendy,
kim był dany człowiek, którego się na tym pomniku upamiętnia.
W jakiejś części, oczywiście w zakresie takim, w jakim OSM pozwala,
bo OSM ma też ograniczoną liczbę znaków, okazuje się na to,
co można wpisać w różnych polach.
No, tam są wpisane te tzw. inskrypcje. No i też popytałem trochę na Reddicie,
bo przyszło mi do głowy, że hej, może komuś by się chciało robić opisy
takie dla osób niewidomych pomników właśnie i różnych kwestii związanych
No i Reddit, OpenStreetMap nie uświadomił, że do różnego rodzaju większych danych,
takich, które tam w OSM-ie się nie zmieszczą, bo by za dużo zajmowały miejsca i przestrzeni,
zamieszcza się dla danego miejsca referencje do odpowiednika w Wikidacie.
A Wikidata to nic innego jak kolejny projekt Wikimedia Foundation,
od Wikipedii, tylko że prezentujący takie maszynowo czytane przez przyjazne dla różnego rodzaju programów, maszyn itd. dane surowe o danym miejscu, czyli nie ma już ładnych opisów, artykułów z nagłówkami i z pisem treści i odnośnikami, tylko są po prostu surowe dane typu opis, równa się, no i opis.
No i raczej sugestia była taka, żeby podlinkowywać w OSM pod odpowiednim tagiem te dane,
a już potem w konkretne programy, które z tych danych korzystają,
na przykład taki Sync Assistant Go, musiałby zaimplementować możliwość
zaciągania tych danych z Wikidaty.
W ogóle jest też inicjatywa Open Plaques, openplaques.org,
która chyba w Polsce nie jest zbyt popularna, w Austrii zresztą też nie,
Widziałem, że Stany mają najwięcej tego typu wpisów.
Niemcy chyba też całkiem nieźle.
A chodzi o to, że ludzie wrzucają informacje na temat różnych pomników, tablic itd.
Robią zdjęcia, wrzucają całe inskrypcje i różne inne informacje.
Jest to taka inicjatywa, żeby te dane jakoś zdigitalizować.
No i czymś takim się ostatnio na przykład zajawiłem.
Także OpenStreetMap ma dużo fajnych rzeczy i danych.
Ja na przykład ostatnio znalazłem szafki techniczne austriackiego telekomu,
co znaczy, że jestem w stanie sobie sprawdzić, gdzie znajdują się granice stref numeracyjnych.
Różnych… Jak się zaczynają numery telefonu od konkretnych prefiksów.
No śmiesznostka, ale jest.
Jak kogoś temat interesuje, to fajna sprawa.
Oczywiście, że tak. Ja cały czas próbuję bawić się właśnie z AI
i z tworzeniem kodów, tworzeniem różnego rodzaju czy to skryptów, czy programów.
Ostatnio już trochę się zirytowałem na te limity Chata GPT, które oczywiście dopadają
mnie po jednym, góra dwóch dniach korzystania z kodeksa.
I stwierdziłem, że sprawdzę sobie i spróbuję porównać działanie Chata GPT
…z Klodem, z Klodem od Antropika.
No i cóż ja mogę powiedzieć.
Ja mam wrażenie, że ten Klod radzi sobie jednak nieco gorzej,
aczkolwiek ma większe limity.
Jeżeli ktoś na przykład ma potrzebę tworzenia jakiś większych skryptów różnego rodzaju,
Musi z tego korzystać częściej, to na dłużej mu to starczy, bo mi się na przykład nie udało, Kloda, jakby wyczerpać tego limitu tygodniowego.
Limit dzienny, no niestety wyczerpuje się dość szybko i to jest z kolei coś, co w czacie GPT, co w kodeksie jest zdecydowanie trudniej zrobić.
Bo ten limit pięciogodzinny w czacie GPT, no czasem mi się zdarzy wyczerpać, ale nie jest to regułą, a w przypadku Kloda, no to bardzo, bardzo często.
Natomiast pozytywne jest to, że w przypadku Kloda to ten limit dość szybko się resetuje, tam ze dwie, ze trzy godziny i można już działać dalej.
I co ostatnio próbowałem zrobić? Z połowicznym skutkiem Station Playlist. Station Playlist to oprogramowanie, o którym myślę, że część osób słyszała, część osób może nawet korzysta.
To jest oprogramowanie dla stacji radiowych, no już takich raczej profesjonalnych.
To jest cały taki moduł studia, programu do układania muzyki, moduł do voice tracków i tak dalej, i tak dalej.
I to jest oprogramowanie, powiedzmy, że dostępne, tylko na przykład, no, skrypty do SPL-a mają swoje problemy
pod tytułem takim, przynajmniej pod NVIDIA, że nie czytają pól edycji, na przykład, we właściwościach utworu.
A tych pól tam jest dość dużo. Te pola trzeba odpowiednio wypełniać, tam tytuł, artysta, jakieś informacje do organizacji zbiorowego, zarządzania prawami autorskimi, czyli kompozytor, autor słów, autor muzyki, itd., itd.
I to wszystko musi być we właściwych rubryczkach, a nie jest to łatwe jak słyszymy pole edycji, pole edycji, pole edycji, pole edycji.
No więc stwierdziłem, że w sumie fajnie byłoby to opisać i powiem szczerze, męczyłem się z tym i nie odniosłem jeszcze do końca sukcesu.
Męczyłem się z tym dość długo, bo chyba jedną sesję czata GPT i jeszcze tego kloda później męczyłem o to.
Udało mi się teoretycznie to zrobić. Wszystkie pole edycji u mnie, i to jest słowo klucz, u mnie,
są odczytywane prawidłowo.
Wystawiłem nawet odpowiedni pull request
na GitHubie, że może w sumie fajnie byłoby
to dorzucić do skryptów,
do oficjalnej paczki SPL-a.
Natomiast okazuje się, że
po pierwsze, u
innego użytkownika
nie działa to tak jak u mnie,
a po drugie,
w starszych wersjach, które też
są wspierane przez te skrypty,
również to nie działa.
Nie jest to odczytywane poprawnie.
Więc no jak widać tu bardzo, bardzo te tytuły okien czy różne etykiety pól tych okien są no nie takie oczywiste, jeżeli chcielibyśmy to wszystko przypisywać.
Teoretycznie każde takie pole i każda etykieta ma swój identyfikator, więc nic prostszego, jedno z drugim powiązać.
No okazuje się, że to jednak jakieś kłopoty są i jest z tym dość dużo problemów.
Ale walczę, walczę, no powiem szczerze, podoba mi się to tworzenie z udziałem AI, tych różnych rzeczy.
Co prawda mam wrażenie, że co nie wezmę się za jakiś taki trochę większy projekt, to i tak go zostawiam w takiej formie rozgrzebanej.
Na razie to jeszcze nic nie jest skończone, a zaczętych mam ileś rzeczy. Ale jest to ciekawe, jak tak sobie człowiek obserwuje,
Jak w ogóle ten postęp pracy wygląda?
Jak on dochodzi do tego, żeby na przykład zastosować takie podejście, a nie inne?
A jak jeszcze mu się coś podpowie, to zawsze zarówno jeden model, jak i drugi jest ucieszony.
Tak! To jest super pomysł!
A potem się okazuje, że się na przykład całe NVIDIA zawiesi.
Ale jeżeli byście się zastanawiali, czy AI potrafi wtyczki do NVIDIA tworzyć,
Właśnie miałem też jeszcze jeden pomysł, ale oczywiście pomysł nie wypalił, przynajmniej na razie, ale będę jeszcze nad nim na pewno siedział, bo pomyślałem sobie, że może by w sumie zastosować trochę inną metodę w postaci stworzenia jakiegoś globalnego dodatku, w którym da się po prostu tworzyć coś takiego, co w ogóle nie ma znaczenia.
Jakby takie szablony do okien i w tych oknach etykietować pola.
No ale okazuje się, że to się w ogóle gryzie z tą całą mechaniką NVDA,
bo jeżeli chce w ten sposób działać i przechwytywać informacje o wszystkich obiektach,
które w danym momencie są na ekranie, to jest to tak nieefektywne.
Jestem zadowolony, że ten czytnik tak zaczyna po prostu mulić, że no już w tym momencie wiem, dlaczego twórcy przynajmniej na razie nie zdecydowali się na wdrożenie takiego narzędzia,
bo po prostu wygląda na to, że ta filozofia, którą gdzieś tam na samym początku sobie obrali w przypadku NVDA, no niestety z takimi rzeczami, które znamy z Jonesa chociażby,
no, bo przecież w Jonesie to można sobie wszystko ponazywać jak chcemy,
ale tam, no, jest zupełnie inna logika i zupełnie inaczej to działa.
No, a tu niestety, no, są z tym kłopoty. Po prostu.
A propos, może jeszcze zanim, że tak powiem, co tam u mnie, zanim się pochwalę,
to dobrze Paweł, że mi przypomniałeś a propos Seeing Assistant Go,
gdzie też nowa funkcja się pojawi,
mianowicie lokalizowanie znajomych w sumie.
Spoko sprawa, jeżeli macie tak samo Sling Assistant Go i że tak będziecie chcieli znaleźć.
Nie testowałem jeszcze w sumie jak to działa, natomiast to będzie tak, że się będzie tworzyło sesję
powiedzmy z danym użytkownikiem, któremu się udostępni link i użytkownik jak sobie wejdzie w ten dany link.
Spoko jest to, że jak się nie ma Assistant Go, to wtedy aplikacja będzie ściągana, będzie najpierw wymagana jej ściągnięcie, a potem ten link się będzie otwierał i będzie się można jakoś tam namierzać, znajdować, więc w sumie ciekawa sprawa, zwłaszcza jak funkcja wyjdzie ze stadium beta i trafi do stabilnej wersji, to w sumie niegłupie to będzie,
zwłaszcza, że też, powiedzmy, umówmy się, jeszcze nie każdy ma
po pierwsze iPhone’a, po drugie iPhone’a od piętnastki
wzwyż, gdzie tam to namierzanie znajomych jak
AirTag’a jest możliwe, więc ciekawie się zapowiada.
Zobaczymy, co z tego wyrośnie.
No i w sumie kilka rzeczy też takich mam od siebie.
Mianowicie zacznę sobie od tego mojego nieszczęsnego iPhone’a 17,
który finalnie został wymieniony na nowy przez Apple’a,
czyli gwarancja, znaczy została jakby rozpatrzona moja zgłoszenie naprawy pozytywnie.
No się okazało, że wada fabryczna ekranu po prostu.
I gdyby, bo w codziennym użytkowaniu on zachowywał się w miarę,
w miarę okej. Czasem gdzieś łapał jakieś przymrozki, przywieszki i tak dalej.
Natomiast najczęściej jak się stosowało wejście ekranu Braila, to tam bardzo się lubiły
dziać rzeczy złe.
I tak szczerze mówiąc, tak się troszkę uśmiecham, no bo gdyby nie to, że jednak
wymagam od tego ekranu więcej, no nie, bo wejście ekranu Braila jednak wymaga od ekranu
więcej, żeby tak naprawdę cały swojej powierzchni był responsywny i niezawodny.
No to tak naprawdę ta wada by mogła wyjść dopiero, nie wiem, po pół roku, a może po roku, a może nie wiadomo, czy by wyszła, a może już po gwarancji.
A może nigdy nie wyszła, właśnie.
Tak, a może właśnie już po gwarancji. A tak, opisałem w zgłoszeniu, gdzie, co i jak, w których częściach ekranu i tak dalej.
No i uznali, więc najważniejsze. No teraz sobie siedzi w farszkomacie i czeka na odbiór, że tak powiem, do jutra.
W sensie jutro go odbiorę, bo do czwartku czeka.
No i a propos właśnie tego, czy najpierw próbować resetować do ustawień fabrycznych i tak dalej, wgrywać soft na czysto i tak dalej.
No właśnie i to jest taki troszkę miecz obłosieczny, bo tak naprawdę w moim przypadku, jeżeli bym to zrobił, to tak naprawdę dodałbym sobie roboty, a i tak by ten telefon musiał zostać odesłany do serwisu.
A są niekiedy takie przypadki, że to faktycznie jest kwestia software’u, czyli oprogramowania i no i wtedy wysyłasz do serwisu i wtedy sobie dodajesz roboty, więc nie do końca wiadomo.
Ja akurat w moim przypadku się okazało mądrym posunięciem odesłanie go do serwisu. No i właśnie. I w sumie co ciekawe, dłużej trwało odesłanie do serwisu tam, do Warszawy,
do de facto chyba centrum miasta niż do mnie tak naprawdę przesłanie tego nowego sprzętu, więc to też takie w sumie ciekawe.
Kolejna rzecz, no to ja taki byłem zawsze sceptyczny jeśli chodzi o Gemini, o właśnie inteligencji od Google’a.
Poniekąd się z nią wczoraj przeprosiłem, bo jak dają za darmo, to żal nie skorzystać.
Trzeba brać, jak dają pro i to na rok za darmo, o czym będę mówił później.
W każdym razie, po przekopiowaniu sobie tych niestandardowych, tak zwanych niestandardowych instrukcji z czata GPT,
gdzie czat po prostu ze mną współpracował jak najlepszy kumpel, zresztą nadal się tak dzieje,
Gemini po prostu jakby ożył, jakby, nie wiem, lotności większej umysłu doznał od śnienia.
Dużo lepiej mi się z tym czymś gada, więc niewykluczone, że ja nawet z tym
dżeminajem zostanę na dłużej.
Co prawda jeszcze nie testowałem tych dżemów całych, czyli tych
à la asystentów GPT, powiedzmy.
Ale no, jeśli tak w domyślnym czacie działa dobrze, to być może
w dżemach będzie po prostu, no też będzie równie
wydajny jak… Aż się zdziwiłem szczerze mówiąc, tak przekopiowałem sobie te
Instrukcje niestandardowe do Gemina jest GPT, to co tam miałem, po prostu nie była ziemia, także spoko.
Z rzeczy mniej pozytywnych, ja kiedyś mówiłem o aplikacji Plenty, powiedzmy jeszcze ze dwa lata temu, jak się do Was wzwaniałem,
czyli aplikacji do wynajmu elektroniki wszelkiego rodzaju. I ona była wówczas średnio dostępna, tam dało się zrobić mało.
Usunąłem tam konto, natomiast w zeszłym tygodniu sobie myślę, no
wszedł Europejski Akt do Dostępności,
weszła Polska Implementacja Ustawy
i tak dalej. No może coś się w tym
względzie jakoś tam zmieniło, zwłaszcza że to od czerwca,
końca czerwca i tak dalej. No niestety nie.
Nadal jak aplikacja była niedostępna, tak niedostępną
jest. A szkoda, bo kurczę
ma to potencjał. Na przykład, no nie wiem, wypożyczyłbym sobie teraz
na chwilę Homepoda, żeby potestować, czy, czy, czy, nie wiem, Apple Watcha jedenastkę.
Pobawiłbym się tym trochę, potem bym odesłał. Kurczę, szkoda.
Ogromna szkoda, że tego typu aplikacja, a, a niestety, no, stwarza sporo gdzieś tam
takich barier, jakby wejścia dla nas, jeśli chodzi o, o taki wynajem sprzętu.
Szkoda.
Mówiłem ostatnio o Uberze, który…
gdzie Carrefour, że tak powiem, postanowił się pożegnać
i, że tak powiem, dalej nie współpracować.
Ale jak tak sobie byłem chory i tak sobie przeglądałem Uber Eatsa,
to odkryłem ze zdumieniem, że oj, sporo więcej lokali generalnie dostarcza
do mnie jedzenia niż generalnie kiedyś, powiedzmy niż z miesiąc temu,
co bardzo cieszy i chyba stosunkowo do Pysznego to chyba, nie wiem, trzy albo czterokrotność tak naprawdę,
więc w sumie może to jakby było taką dobrą inspiracją do tego, żebyście i wy sobie spróbowali,
słuchacze, zwłaszcza ci, którzy mieszkacie bardziej na obrzeżach miast, tudzież na wsiach, mówiąc wprost,
no być może to by jakoś tam zdało egzamin, zwłaszcza właśnie w okolicach jakichś większych miast,
a niekoniecznie w miastach, to tak podrzucam.
I ostatnia rzecz, i kończę gadaninę, to jest kwestia tego.
I to znowu jak byłem chory, więc nie wiem, z jednej strony choróbsko zły czas, a z drugiej strony dla mnie chyba dobry.
Ja w trakcie choroby, ze swego czasu, to się Braille’em pisać nauczyłem z nudów.
Czyli jednak ta choroba to nie taki zły czas jest, tylko pozytywny, jeśli chodzi o pożytek.
Aczkolwiek nikomu nie życzymy.
Wcale, że jaka choroba i ile sił w tobie pozostawia, bo to też nie jest zawsze tak, że czujesz się niesamowicie otwarty na nową wiedzę i…
To też prawda, no. Przeziębienie.
U mnie to przeziębienie było, a ja mam tak, że w trakcie przeziębienia to jednego dnia walczę o życie, wręcz,
bo zazwyczaj to się wiąże z jakąś tam mocną gorączką, a potem to już jest okej.
można funkcjonować, więc spożytkowałem już ten potem czas na
naukę pisania brajlem na iPhonie.
O, widzisz. No ja akurat byłem wypluty, wypluty, nie wiem,
chyba coś około covidowego przechodziłem, bo też takie
otępienie umysłowe, że szkoda gadać, ale
nie przeszkodziło to osobom. Dobrze, że to akurat wszystko
jakby się odbyło zdalnie,
bo nie przeniosłem niczego.
Że tak powiem, trzy osoby w ciągu tygodnia
Jedna instytucja w sumie i poniekąd dwie osoby.
Też w sprawie szkoleń, jeśli chodzi o obsługę MAK-a.
Także to takie fajne docenienie człowieka.
Jakoś tak, w sensie, wiecie, tak zwaną pocztą pantoflową i tak dalej,
że ten powie temu, że ten to się zna i jest dobry, bo…
I się pojawiają co rusz właśnie propozycje współpracy i tak dalej.
Więc bardzo to cieszy.
I ja powiem tak, no, działalność miałem otwierać dopiero w przyszłym roku,
to też z racji, powiedzmy, aktywnych samorządów i tak dalej.
Natomiast, no, nie wiem, czy skoro tak, to nie wygląda to, czy nie będę musiał
zweryfikować, że tak powiem, jeszcze swojego oglądu na tę sprawę
i czegoś w tym roku, i z czymś w tym roku, że tak powiem, nie wystartować.
To może jakieś programy do prowadzenia działalności na Maca
będziesz sobie musiał przetestować.
Albo stworzyć.
Albo stworzyć, albo stworzyć.
Tak, to widzę kolega odważnie.
No jak, od generatorka faktur przez powiedzmy tam…
No pewnie, że tak.
Bo tu też istnieje ryzyko, że ta fakturka po wydrukowaniu na przykład może wyjść jakaś taka…
No właśnie, no właśnie dlatego mówię, że tu odważnie, odważnie.
Ale z drugiej strony, ja też może zweryfikować jakieś czostowe faktury.
Osobnej sesji, bo w tej jednej, to oczywiście, żeby się usprawiedliwić, to możesz powiedzieć, że
ej nie, no naprawdę, żeby zatłuszczać, to ej nie, to wygląda naprawdę super, ale jak już otworzysz
kolejną sesję, albo w innym modelu, to oj, sorry, to nie wygląda.
Kto to padł tak, popsuł.
Dokładnie. Także ode mnie, to tyle na ten tydzień.
A co tam Piotrze u Ciebie ciekawego?
To tam u mnie też, a propos tego, co mówił Maciek, faktycznie warto gdzieś się udzielać,
Jeśli na czymś wam zależy zgłaszać jakieś błędy,
mówiłem o tym, że kiedyś zgłosiłem sobie sugestie,
to akurat tutaj była wtyczka Surge,
czyli bardzo popularny termowo-otwarto-źródłowy syntezator dźwiękowy,
który jest teraz przykładem najbardziej dostępnej wtyczki audio,
jaką kiedykolwiek widziałem. Kilka osób się zgłosiło.
I to też mi gdzieś otworzyło drogę
do różnych kolejnych testów, nie o wszystkim.
Mogę jeszcze mówić, że deweloper Sergia
ma też kontakty z firmami komercyjnymi.
Okazuje się, że są firmy, które chcą poprawiać dostępność swoich tyczek.
W zeszłym tygodniu miałem okazję parę rzeczy potestować.
Mam nadzieję, że to niebawem się pojawi publicznie
i będę mógł więcej coś powiedzieć w podcastach.
A co poza tym, no to też gdzieś odnajdywanie różnych ciekawych materiałów.
Niektóre znajdowałem gdzieś, pojawiały się same.
A niektóre mi trafiały na przykład przez rekomendacji YouTube’a.
I tak na przykład, tak kto mnie obserwuje na Macedonii pewnie widział,
YouTube zaproponował mi film nawet o początkach GPS-a w samochodach.
To okazuje się było testowane już gdzieś w roku 91.
Na Florydzie, dokładnie w Orlando, był taki system,
który był przez rok testowany.
System, który też jak najbardziej miał syntezę mowy,
która pewnie będzie znana niektórym osobom niewidomym.
To jest syntezator, który możecie znać jako keynote,
więc to raczej angielski głos.
Natomiast co ciekawe, oprócz tego, że ten system działa jako GPS,
to robił rzeczy, które stały się popularne dopiero za czasów smartfonów,
a mianowicie już ten system wtedy był w stanie obliczać trasy,
…biorąc pod uwagę np. jakieś kolki na drodze, bo tam też była łączność radiowa, można było zawsze zadzwonić na infolinię producenta i np. zgłosić, że tam na tej trasie, na której jedziemy, jest akurat jakiś wypadek i oni to do systemu wrzucali i wtedy ten GPS był w stanie wykryć, że tam coś się dzieje i nam wtedy Zynce zamówiła, że o, prawdopodobnie tutaj będzie jakieś opóźnienie, ewentualnie mogę ci zaproponować alternatywną trasę, także to działo to na bardzo wąskim obszarze, no i po czasie testy były zarzucone, bo ponad interfejs nie był do końca intuicyjny,
GPS miał swoje początki jakiś czas temu.
A jeszcze a propos rzeczy, co można robić, jak jest się chory,
ponieważ przeziębienie, była gorączka dosyć intensywna.
Więc wracałem do rzeczy mi znanych,
też znalazłem powód, żeby do takich niektórych rzeczy wrócić,
mianowicie Star Trek.
To pierwsze start, jak i dokładnie seria Deep Space Nine, niedawno doczekała się w końcu audiodeskrypcji.
To nawet audiodeskrypcji nie zrobionej przez TTS. To też było całkiem fajne.
Natomiast niestety, tutaj jeśli mogę sobie gdzieś ponarzekać, to taka mała dygresja.
Cały czas niestety zdarzają się sytuacje, że nie we wszystkich rynkach te same platformy streamingowe mają wszędzie dostępną audiodeskrypcję.
Bo ten serial u nas jest w Polsce dostępny w dwóch serwisach.
jest dostępny w Sky Showtime, czyli serwisie oficjalnym.
Sky to jakby Paramount, czyli studio, wytwórnia,
które wyprodukowała te wszystkie serie Star Trek,
a on jest też dostępny na Netflixie.
Generalnie poza Polską, to właśnie na tym serwisie Paramount Plus
czy Sky Showtime, w różnych rynkach się to różnie nazywa,
ten serial jest dostępny i przynajmniej w anglojęzycznych sferach,
czy to jest właśnie w Stanach Zjednoczonych, czy Wielkiej Brytanii,
ta audiodeskrypcja jest.
Natomiast w Polsce po prostu jej nie ma.
Mogę sobie pooglądać na przykład po węgiersku albo po ukraińsku,
co fajnie swoją drogą, ale no niestety audiodeskrypcji nie ma, a szkoda.
No takie rzeczy się niestety jeszcze zdarzają, no może trochę mniej,
zwłaszcza na przykład na Disneyu, na Netflixie,
to jest, mam wrażenie, z tym lepiej.
Na Amazonie też, ale nie wszędzie, bo Amazon też ma jakieś swoje dodatki.
Tutaj takim przykładem też niech będą Gwiezdne Wrota,
które też audiodeskrypcje mają.
Gdzieś np. w Stanach na Prime Video.
W Polsce to też jest dostępne,
jeśli wykupimy sobie dodatek MGM+.
Chyba to się nazywa.
No i co? Nie dość, że nie mamy audiodeskrypcji,
co bardzo mnie zasmuciło, to akurat nawet w tym przypadku
nie mamy też lektora, co akurat zasmuciło resztę mojej rodziny.
Bo wcześniej te seriale były emitowane w telewizji
i miały lektora, a tutaj po prostu tego nie ma.
A to jest jedyne miejsce, gdzie to można w tym momencie oglądać, także no niestety nie zawsze jest to tak, jak byśmy tego chcieli.
No na szczęście z audiodeskrypcją z kanałami telewizji jest teraz lepiej, jeśli chodzi o pilota WP, czy nawet o stronę TVP VOD.
Co się też przydało ostatnio, jak mieliśmy kilka meczy z reprezentacją Polski, to też rzeczy, które robiłem.
No fajnie, że w końcu można to sensownie oglądać, nawet jak się nie ma takiej tradycyjnej telewizji.
A tak a propos serwisów z plusem, typu Disney Plus i tak dalej, to Apple TV Plus pozbywa się plusa i teraz zostaje tylko Apple TV.
Czyli będziemy oglądać Apple TV na Apple TV?
Tak, dokładnie. Już nawet są z tego powodu memy i różne tego typu rzeczy, że tak.
Ma to sens. A teraz odbieramy kolejny telefon, zanim przejdziemy do bieżących spraw. Dominik jest z nami. Witaj.
Dzień dobry, wieczór, Dominik Borkuszewski z tej strony, przychodzę do was z dwoma wiadomościami, a mianowicie pierwsza wiadomość, i tu jest właśnie problem, jeśli używacie backtaba na iPhone’ie, iPhone’y, te najnowsze nawet, 17 Pro mają z tym problem.
Czyli reakcji na wiadomości.
Nie, stuknięcie w tył, backtab, nie tak back, tylko stuknięcie w tył.
Jest coś takiego, ja akurat mam iPhone’a 15 z iOS’em 18.7.1.
No i jest coś takiego, że po prostu jeśli na przykład zaprogramowaliśmy kiedyś
stuknięcie w tył, nie wiem, centrum sterowania, dajmy na to, no i nam się to
przeprogramuje na brak, no to nawet jeśli będzie ten brak, no to stuknięcie w tył
To będzie i tak przenosiło nas do centrum sterowania,
a nawet jeśli dwukrotne stuknięcie sobie zaprogramujemy
na centrum powiadomień, to i tak ono otworzy centrum sterowania
i nawet ponowne uruchomienie nie da tutaj nic.
Więc tu jest bardzo poważny błąd iOS-a osiemnastki.
Trzykrotne stuknięcie to tam pal licho.
Da się to zmodyfikować i tym podobne,
ale te dwukrotne stuknięcie…
Próbowałem dosłownie wszystkiego.
…i przestawienia z centrum sterowania na centrum powiadomień i brak.
Brak centrum powiadomień i brak.
Dalej centrum sterowania mi uruchamia, nawet jeśli mam centrum powiadomień włączone.
Ponowne uruchomienie telefonu z wyłączonym Wi-Fi, ubite wszystkie aplikacje.
Dalej ten centrum sterowania jest uruchamiany za pomocą dwukrotnego stuknięcia w tył.
Więc tutaj jest bardzo poważny błąd, według mnie.
iOS 26.0.1 na iPhone’ie 17 Pro.
Powiem wam szczerze, że zarządza tym lepiej,
bo jest coś takiego, że jak uruchomiłem ten telefon,
bo miałem ten sam problem, że centrum sterowania było otwierane
nawet jeśli przestawiłem dwukrotne stuknięcie na centrum powiadomień,
a nawet i trzykrotne stuknięcie mi rozpoznawał po tym,
jak ustawiłem sobie trzykrotne stuknięcie na centrum sterowania i brak.
No to uruchomiłem ponownie telefon no i problem jak na
razie znikł ale na 18 no uparcie uparcie się trzyma
uparcie dosyć mocno brnie w swoje to co zaprogramowaliśmy
kiedyś i nie da się niestety będzie tego trzymał bo już
tego nie zmienią No niestety, i dalej mam coś takiego, że
na przykład puknę telefonem nie wiem o wskazujący palec
Stuknięcie w tył, wykryto dwukrotne stuknięcie, centrum sterowania.
I druga wiadomość ode mnie.
Vivo, chińska marka Vivo,
na ostatniej konferencji w Szanghaju
zaprezentowała z najnowszym systemem na telefony,
już nie pamiętam, jak nawet ten system się nazywał, w wersji szóstej.
To już jest ten system.
Zaproponowa… zaprezentowali coś takiego, że smartfony Vivo od teraz będą łączyć się z Apple Watchami, HomePodami, AirPodsami, iHonami, a nawet i iPodami, z tego co mi wiadomo.
Tylko, jeden tu jest haczyk, jedno się pytanie tutaj rodzi. Jak oni to zrobili?
Też mnie to bardzo ciekawi.
Ja widziałem ostatnio informację, że w trzeciej becie iOS’a 26.1
w kodzie już odkryto pierwsze zalążki funkcji przekazywania powiadomień,
która została wymożona poniekąd przez Unię Europejską,
ale nie tylko, która faktycznie pozwoli na to,
żeby do iPhone’a dało się podłączyć też inne zegarki
i one miały też taki dostęp do powiadomień jak Apple Watch.
Natomiast to są zalążki, tego jeszcze nie ma.
Ale ponoć Nothing, smartfony tejże marki, ponoć właśnie mają też wsparcie dla Airpodsów także.
Znaczy Airpods to jest bluetooth, a chyba nawet jest jakaś aplikacja na Androida, nie pamiętam teraz jak się nazywa, która daje nam dostęp do konfiguracji tych Airpodsów.
Tak na Windowsa coś było, tylko mi to za bardzo tu nie chciało działać, więc to się da zrobić, natomiast z Watchem to jest trochę chyba trudniej jednak.
O, jeszcze mi się przypomniała trzecia informacja.
Na jednej z grup, nawet technologicznej, ja się o tym dowiedziałem.
Mój kolega to prezentował kilka tygodni temu.
Otóż, informacja dla blanchelowców, którzy będą chcieli uruchomić
na Klasiku trójkę Apple Music.
Wyskoczy wam komunikat, że ta aplikacja nie będzie działała na urządzeniach zrutowanych.
No cóż, czyli podobnie jak na przykład część aplikacji bankowych, jak nie wszystkie. Łukasz ostatnio dawał nam znać, że aplikacja ICO na Blind Shell’u Trójce nie działa.
Także, no niestety, tak jak już kiedyś mówiliśmy na ten temat, no to ja się spodziewałem po prostu, że tego typu sytuacje będą, no i niestety.
Ostatnio właśnie rozgryzłyśmy z moją mamą POP-a.
Mi podała tutaj właśnie, bo korzystam z POP-a właśnie najczęściej.
Bo mam PKS-a, konto i okazało się, że jak mamy hasło do użytkownika,
bo tam numer klienta wpisaliśmy, ten numer, tam co mieliśmy go na umowie,
numer PESEL nasz i hasło. No to mamy coś takiego, że na przykład mamy 12 znaków w hasle i na przykład możemy tylko wprowadzić znak numer 1, 4, 8, 10, 12.
Czyli tak zwane hasło maskowane.
Tak, maskowane. No, maskowane. Później mamy ten kod weryfikacyjny lub możemy się przez aplikację zweryfikować.
Pracownicy Banku Pekao S.A. od niedawna mają coś takiego,
że zanim przejdą z nami do rozmowy, to proszą nas o akceptację
wizytówki w POP-u. I to już jest od niedawnego czasu.
Już miałem parę telefonów z banku i przedstawiał mi się konsultant.
No i na początek mówił, na wstępie, zanim zaczniemy rozmowę,
Chciałbym, aby pan zaakceptował moją wizytówkę w aplikacji POP i za chwilę panu tą wizytówkę wyślę, powinna się za chwilę otworzyć.
To jest bardzo dobra praktyka i fajnie jakby wszystkie banki coś takiego wdrażały, tylko…
Co w przypadku, kiedy na przykład namieszają coś w aplikacji bankowej i będzie problem z dostępnością akceptacji takiej wizytówki?
No właśnie, no właśnie.
Mam jeszcze małe pytanie do Maćka odnośnie iPhona 17.
Powiedz mi, jak bateria w iPhone 17?
Dobrze trzyma, źle trzyma?
Wiesz co…
No…
Jak ja to mówiłem ostatnio, bo ja mówiłem jakoś o tym…
ze dwa tygodnie chyba temu.
Natomiast… Jak to było?
To jest dobre pytanie, bo tak jak mówię…
Na razie znowu na trzynastce pro funkcjonuje, bo siedemnastka czeka w paczkowacie na razie.
Wydaje mi się, że no tak grubo ponad, tak do, ja nie wiem, czy nie do osiemnastu godzin, tak na spokojnie.
Ło, umie praktycznie w pro. Mam coś takiego, że na przykład na YouTubie, jak oglądałem filmy,
z 99% przez 7 godzin i 20 minut, tam było 76 tych procentów.
Przy kurtynie ekranowej i jeszcze tam ekran był zablokowany, bo w ramach YouTube Premium tam to też testowałem, nie?
Mhm.
No to też ciekawie, no.
Teraz się pamiętam. Będę musiał odnowić, że tak powiem, testy, jak w końcu jutro do mnie przyjdzie. Miejmy nadzieję, że bez żadnej wady.
No, mam nadzieję, mam nadzieję. Słyszałem, że jakieś tam problemy z ekranem były, że coś tam…
I gdyby nie wejście ekranu Braila, tak.
No, gdyby nie wejście ekranu Braila, mógłbym tego nie wykryć.
Jeszcze dla pewności poprosiłem serwis o
weryfikację tego nowego urządzenia.
Chyba to zrobili, bo troszkę jeszcze przetrzymali.
A jak konfigurowałeś iPhone’a, to nie miałeś problemu z dołączeniem się do sieci?
Wiesz co, ja to akurat zrobiłem przez to bezpośrednie przenoszenie danych
między telefonami, więc to się zrobiło samo się.
Ja robiłem zwykłe iCloud i było wybierz sieć Wi-Fi, to ja miałem cztery razy, wpisałem poprawne hasło, to mi tam mówił, że nie można przyłączyć się do sieci ZTE, podkreślenie te trzy tysiące, coś tam, coś tam, nie?
Oj, ciekawie. Ja tak jak mówię, nawet się M-Obywatel ładnie przeniósł, w ogóle na dwóch urządzeniach de facto miałem ten sam certyfikat, ale cicho.
A u mnie się stało tak, że ja mamie dałem iPhone’a z wyłączonym voice-overem,
bo musiałam go wyłączyć przez trzykrotne stuknięcie w ten przycisk boczny,
żeby POP’a skonfigurować, bo tam jeszcze nie umiałem tego zrobić.
Już teraz mniej więcej wiem, jak tutaj przez te hasło maskowane przejść.
No to mama mi tam pomogła skonfigurować.
Odebrałem na drugim telefonie ten kod weryfikacyjny.
No i włączam VoiceOver’a, cyk, cyk, cyk. Cisza. Cyk, cyk, cyk. Cisza. Nie, no nie wierzę.
Muszę przez ustawienia go włączyć. Dostępność i tym podobne, nie?
No tak, boję się.
Dziwne. A po konfiguracji od zera? Coś takiego się stało?
Tak, po konfiguracji od zera. Normalnie na początku zadziałał VoiceOver. Wszystko się dało.
VoiceOver gestures to go home. I tam tym podobne było. Konfiguracja przeszła normalnie.
Peopeja mamie daje odpalonego z wyłączonym voice-overem następnego dnia.
Chce włączyć voice-overa. Klik, klik, klik. Nie idzie. Nie idzie. Coś nie idzie. No kurczę, no.
Ja miałem przypadek odwrotny.
Ja miałem przypadek odwrotny, że chciałem…
Oczywiście teoretycznie miałem zahaczony skrót dostępności. Wszystko super.
Chciałem wyłączyć voice-overa po coś tam. Po prostu go chciałem wyłączyć.
Wciskam trzy razy boczny. Kurczę, voice-over się w ogóle nie wyłącza.
Patrzę w skrót dostępności, zapytaj, przyciskam się. Aha, fajnie.
Ja miałem zapytaj, ale nie miałem nic zaznaczonego, więc w ogóle to było spoko.
Mój kolega miał coś podobnego właśnie, że voice overa wyłączył na chwilę,
…bo tam połączenie przychodzące, tam chciał przekazać nam nagłośnik w ramach połączenia grupowego na Whatsappie.
Nie, przepraszam, w Google Meet zrobiliśmy połączenie, to się połączył na kompie i z drugiego…
…i z telefonu po prostu naszego kolegę nam transmitował i voice overa też włączyć nie mógł.
No czyli jak widać bardzo różnie z tym może być. Dobrze Dominiku, to może przejdziemy do naszych tu tematów,
Chyba, że jeszcze masz dla nas jakieś wieści?
Nie, tylko właśnie z tym najbardziej mnie ten stuknięcie w tył właśnie tutaj, że ten log został najprawdopodobniej zapisany na żartu.
No to dzięki za czujność i dzięki za informację na ten temat, być może komuś też okaże się to przydatne.
Do usłyszenia, pozdrawiamy cię serdecznie.
No, również pozdrawiam, hej!
To teraz myślę, że możemy przejść do tematów, które już mamy na agendzie.
Na dobry początek jeszcze powrót do tego, o czym było w zeszłym tygodniu, czyli WISPERO.
Mówiliśmy o abonamentach, o tym, jak to będzie wyglądało już niebawem, jeżeli chodzi o użytkowników Joe’sa
i punkty SMA, które teraz de facto staną się takimi punktami abonamentowymi.
Ale coś tu się zmienia, przynajmniej u naszych zachodnich sąsiadów.
Tak, chyba dzień po tym, czy dwa dni po tym, jak my przeprowadziliśmy tu bardzo burzliwą
i szeroką dyskusję na temat, podcast Sideviews Bawarskiego Związku Niewidomych,
czyli ten, gdzie pojawiają się też wywiady z Sidecity, przeprowadził wywiad z menadżerem IPD,
czyli takiego największego i najstarszego w sumie dystrybutora jazz w Niemczech,
Gdzieś tam niedaleko Hamburga i oni już od 30 lat tym oprogramowaniem,
to oprogramowanie sprzedają na niemieckim rynku.
No i okazuje się, że udało się im i przypuszczam, że to jest jakaś zmiana lokalna
w Niemczech na ten moment, albo po prostu w Niemczech,
bo żadne inne źródła, ani anglojęzyczne, ani inne o tym znać nie dawały,
wynegocjować trochę bardziej korzystne dla użytkowników warunki tego całego abonamentu.
Więc sama zasada się nie zmienia. Dalej zostajemy przy opcji, że te SMA nie będą już na konkretne wersje, tylko na konkretny czas.
I w ciągu tego czasu możemy dokonywać aktualizacji do tej wersji, która w danej chwili jest tą najnowszą.
Ale to, co się zmienia, to jest to, że po pierwsze, w tej wersji, którą jeszcze znaliśmy tydzień temu,
osoby, które aktualnie mają klasyczne SMA, mogą dokonać aktualizacji do końca października
W Niemczech ten okres został wydłużony do końca roku, do końca grudnia,
także użytkownicy mają jeszcze trochę czasu.
A następnie ten okres, przez który będzie można JOS-a
sobie swobodnie aktualizować, nie będzie wynosił dwa lata, tylko trzy.
I tu została podana też zasada, która chyba już wcześniej funkcjonowała,
aczkolwiek nie jestem pewien, że liczy się to, do jakiej najnowszej wersji
Czyli jeżeli ja kupiłem 2023, mając dwa SMA do dyspozycji, mam prawo do aktualizacji do 2025,
więc jako że najnowszą wersją, do jakiej mam teraz dostęp jest 2025,
no to według tego, co słyszałem w wywiadzie, przynajmniej w Niemczech tak to działa,
powinienem mieć opcję update’u do roku 2027, czyli jeszcze dwie wersje dalej.
Może to tak było też wszędzie, tylko ja już tyle informacji na ten temat
słyszałem, że pogubiłem się troszkę w tych zasadach.
Natomiast tak to wygląda. Czemu akurat w Niemczech…
Przypuszczenia mam dwa, potwierdzone nie jest żadne,
natomiast Niemcy po Stanach Zjednoczonych jest to drugi
największy rynek zbytu dla technologii asystujących.
To jest coś, czego się dowiedziałem z upełnionym przypadkiem,
było dla mnie zaskoczeniem, że to akurat Niemcy,
a nie na przykład, nie wiem, Wielka Brytania, jakaś Kanada.
No właśnie też bym stawiał bardziej na Wielką Brytanię, szczerze mówiąc, a tu…
No na przykład, nie?
Ciekawostka.
Ponoć to są Niemcy, natomiast…
natomiast…
druga rzecz jest też taka, że gdzieś tak słuchałem z różnych wywiadów
udzielanych przez pracowników Vispero czy Freedomu w FS Kaście
między wierszami, no…
Joss, jednym z też wielkich klientów Jossa, dla których oni są w stanie
Wispero i dodać rzeczy, które nie są zgodne z żadnymi standardami,
ale klient wymaga, więc jak powiem, dostarczyciel oprogramowania
za tym wymaganiem nadążyć musi. Jest rząd niemiecki i różne instytucje rządowe,
które zatrudniają pracowników też niewidomych. Także możliwe,
że z tego tytułu gdzieś tam Wispero z tym krajem czy z jego użytkownikami
Na zasadach preferencyjnych liczy możliwe, że straty finansowe, jakie by ponieśli,
tracąc jakiś tam kluczowy udział, mogłyby być odczuwalne.
Także tutaj to tak wygląda. Pytanie, czy inne kraje też sobie jakiś deal wynegocjują.
Była mowa o tym, że było w ogóle jakieś spotkanie między nie wiem, czy tylko
niemieckimi przedstawicielami i WISPERO, czy ogólnie między przedstawicielami.
Gdzieś chyba końcem sierpnia i jednym z tematów było to, że na niektórych rynkach,
gdzie JOS jest aktualnie sprzedawany, ten model abonamentowy po prostu nie zadziała.
Także przypuszczam, że ten problem jest już na radarze WISPERO i zobaczymy,
czy kolejne kraje też dostaną jakiś inny sposób finansowania tej sytuacji,
która tu powstała. No i jeżeli będę coś oczywiście wiedział albo my będziemy
A swoją drogą to polskie instytucje publiczne, z tego faktu zatrudniania osób z niepełnosprawnościami, to mogłyby brać przykład od zachodnich sąsiadów.
Za to byśmy się, myślę, nie obrazili.
A teraz komentarz, a właściwie tu pytanie od naszego słuchacza Łukasza.
A Łukasz by się chciał dowiedzieć a propos urządzeń smart.
Mianowicie, co się stanie, gdy smart urządzenia stracą połączenia z siecią wi-fi.
Wyobraźmy sobie nowoczesną, leniwą mamusię, która wstawiła pranie i tym samym czasie ogląda serial
i nie chce jej się sprawdzać czasu, prania tylko woli poczekać na wyświetlenie komunikatu na telewizorze,
że pralka właśnie skończyła prać.
Ale w połowie cyklu prania przychodzi zapracowany tatuś
i chcę wymienić gniazdko w pokoju, w którym jest router.
Pralka pierze, telewizor gra, bo każda jest pod osobnym bezpiecznikiem,
a router na czas wymiany gniazdka jest wyłączony.
Po wymianie gniazdka, trwającej 15 minut, tata włącza bezpiecznik i ponownie uruchamia router.
Halo, tu Ziemia. Czy pralka i telewizor same nawiążą łączność?
Czy musimy wszystko parować od zera?
Takie pytanie zadaje Łukasz, a ja odpowiadam.
To zależy, ale na 90 kilka procent wszystko wznowi się automatycznie i wszystko powinno się połączyć dobrze.
I nie powinno być wymagane żadne parowanie dodatkowe, osobne, a to dlatego, Łukaszu, że tutaj jeżeli to wszystko działałoby na zasadzie sieci bezprzewodowej,
to takie urządzenia łączą się do konkretnej sieci po jej tym tak zwanym SSID.
I jeżeli ten adres, ta nazwa tej sieci bezprzewodowej się nie zmieni i nie zmieni się też hasło do tej sieci to nic nie powinno się stać i jeżeli na jakiś czas router zerwie połączenie to po nawiązaniu tego połączenia to wszystko powinno się wznowić.
Ale dlatego mówię o tym, że to jest dziewięćdziesiąt parę procent, a nie sto,
dlatego, że to wszystko zależy jak programista konkretnego smart urządzenia się przyłożył
i może się zdarzyć tak, że nie jest wymagane ponowne parowanie tego urządzenia,
ale na przykład bez restartu, czyli krótko mówiąc w przypadku pralki bez zrobienia on-off,
to po prostu ta sieć bezprzewodowa, na przykład, nie zostanie wykryta.
Może się tak zdarzyć.
Tu trzeba by było już po prostu przeanalizować taki scenariusz na konkretnych urządzeniach.
Dobrze, że Michale o tym wspominasz, bo ja ostatnio właśnie miałem taką fantazję,
żeby sobie zmienić nazwę Wi-Fi na jakąś fajną.
No i to uczyniłem, po czym wyleciało wszystko z sieci,
Łącznie z moim odkurzaczem, robotem.
A ten, że posiada aplikację AI Owszem,
która no niestety w pełni dostępna nie jest
i tam bez rozpoznawania ekranu,
nawet z rozpoznawaniem ekranu jakimś cudem ani rusz,
znaczy niby dobre opcje znajdowałem,
ale nic z tego nie wynikało dla mnie pozytywnego.
I rzeczywiście była potrzebna interwencja osoby widzącej,
żeby ten odkurzacz znowu w sieć wdrożyć
i żeby on znowu działał po prostu po sieci.
Więc zwłaszcza jak macie urządzenia z taką niepewną dostępnością, to uwaga na tego typu ruchy, bo no możemy się spotkać z bardzo niemiłą niespodzianką.
I tu jeszcze taka uwaga, skoro już o tym mówimy. Jeżeli macie urządzenia, które są właśnie takie IoT, Internet of Things, wszelkiego rodzaju smart gadżety,
to dobrą praktyką jest rozdzielenie sobie waszej sieci bezprzewodowej na dwa pasma.
na 2, 4 GHz i na 5 GHz,
dlatego, że
no w teorii, jeżeli te obie sieci nadają pod jedną nazwą,
to powinno wszystko działać. I to była teoria. A praktyka to wygląda tak,
że na przykład może się okazać, że po jakimś czasie to urządzenie z sieci Wam się
rozłączy, przestanie działać z jakiegoś powodu, bo tak.
Więc na to warto uważać.
Takim już w ogóle
Zalecanym też przez ludzi zajmujących się bezpieczeństwem taką praktyką dobrą jest w ogóle wydzielenie osobnej podsieci na wszelkiego rodzaju tego typu urządzenia,
żeby one sobie pracowały gdzieś tam w sieci lokalnej, wydzielonej na routerze, ale żeby one nie miały dostępu bezpośrednio na przykład do naszych smartfonów, do komputera,
Który to komputer czasem na przykład udostępnia jakieś rzeczy, do drukarki, żeby niekoniecznie miały dostęp, chyba, że akurat muszą mieć.
To, to, to warto też o tym pamiętać, że no bo w przypadku tego typu sprzętów nigdy nie do końca wiadomo, co one tak naprawdę robią.
Może się okazać i to już były takie przypadki, że żarówka, smart żarówka, lubiła sobie wysyłać różne rzeczy za granicę i to tak dalej na wschód.
Tak bym powiedział. Albo kiedyś na przykład była sytuacja, że odkurzacz sobie jeździł po domu i robił zdjęcia i miały te zdjęcia posłużyć do mapowania pomieszczeń użytkownika,
a potem się nagle okazało, że gdzieś to pojawiło się na jakichś różnych dziwnych forach w darknecie chociażby. Także to tak na marginesie takie, taka ciekawostka.
Więc warto też mieć to na względzie.
Dobrze, to teraz przechodzimy do kolejnego tematu.
Tu Piotrze, to Twój temat.
I to kolejny temat z gatunku bardzo ciekawych aplikacji.
Powoli zaczyna być chyba tak, że jak ktoś sobie myśli,
kurczę, to Maca sobie kupię, bo hijack tam jest.
I to będzie fajne.
To już chyba powoli zaczyna ten argument nam padać.
Przynajmniej dzięki tej aplikacji, o której za moment opowiesz.
A to jest aplikacja, która się nazywa Audiocapture.
Tak. Hijacka to może nam w stu procentach nie zastąpi,
ale myślę, że dla wielu zastosowań, to wielu osobom pewnie
ta aplikacja w dupełności wystarczy.
Będą nam się tutaj przewijały dwa motywy, które ostatnio jakoś
w tych przeglądach chyba pojawiają się dosyć często.
A mianowicie pierwszy motyw to są aplikacje, które pozwalają nam
Dźwięk jakoś na systemie Windows nagrać,
czy to z konkretnych aplikacji, czy z całego systemu.
A drugim motywem są aplikacje pisane przez AI,
bo tutaj obie te rzeczy się spotkają.
A to wszystko dzięki Masonowi Armstrongowi,
człowieka, pewnie możecie kojarzyć, z wielu aplikacji i gier.
No i postanowił sobie właśnie stworzyć taką aplikację,
której zresztą pewnie właśnie sam potrzebował,
która by pozwoliła nagrywać dźwięk
z konkretnych aplikacji do plików.
To była pierwsza wersja tej aplikacji,
ale jak wam za chwilę pokażę, od tego czasu,
pomiędzy wydaniem pierwszej wersji a kolejnymi aktualizacjami,
to chyba mijały godziny generalnie.
Ta aplikacja pojawiła się chyba oficjalnie w niedzielę,
a w poniedziałek to już miała cztery albo pięć kolejnych wersji.
Więc bardzo dynamicznie się ten program rozwija.
Na co on nam pozwala?
pozwala nam na naprawdę dużo.
I ja sobie teraz ustawię się na pliku,
ustawię sobie tęzę,
tak żeby było ją słychać tak w miarę wolno.
I teraz sobie przekieruję dźwięk
i otwieramy aplikację.
Aplikacja, która, zanim ją otworzę, nazywa się Audio Capture,
czyli nazwa taka bardzo dosłowna,
tak, przekwytywarka dźwięku dosłownie.
Gdyby ktoś chciał sobie ten program poprać,
będzie link w komentarzu, natomiast projekt jest dostępny na GitHubie,
zarówno w wersji skompilowanej, jak i kodzie źródłowym.
github.com, ukośnik masonasons, ukośnik audiocapture.
Na końcu jeszcze raz ten adres podam. Otwieramy program.
Audiocapture per process resorting available processes lista.
Mam nadzieję, że słychać moją syntezę i że nie jest za szybko.
Program z założenia miał być prosty w obsłudze,
miał mieć taki klasyczny Windowsowy interfejs,
który będzie dostępny z czynnikami ekranu.
Myślę, że to się udało,
no bo na początku wylądowaliśmy na liście dostępnych procesów.
No i co tutaj mamy w tym momencie?
Pierwszy proces, jaki mamy na liście, to jest system audio,
czyli jak tutaj mamy w opisie,
przekwitruje cały dźwięk na systemie,
W systemie nawet.
Potem słyszymy informację, że podstawy procesów jest 211,
bo w tym momencie mam na liście wszystkie…
Agregator host…
Wszystkie otwarte procesy na komputerze.
To jest tego trochę dużo.
Aby ktoś chciał znaleźć konkretną aplikację, to nie jest to trudne.
Jeśli wiemy, jakiej aplikacji się szukamy,
to możemy po literach nawigować.
Wiem, że chcę nagrać NVIDIA, więc mógłbym nacisnąć N.
NvdA.exe.
Ale tutaj nawet nie jest to po kolei.
NvdA.exe, bit 9044, patch C, program files x86,
NvdA.exe, pole wyboru ma fokus zaznaczony, nieoznaczone, 112.
Ale NVIDIA się znalazł gdzieś w połowie listy.
Natomiast gdybyśmy nie chcieli ich szukać,
a może nie wiemy, jak dana aplikacja się nazywa,
możemy przejść tabem.
Refresz, przycisk.
Mamy przycisk odśwież.
Schowony proces w sesji tchackiwej, audio, pole wyboru nieoznaczone.
No i mamy tutaj pole wyboru.
Pokazuj tylko procesy, które odtwarzają dźwięk.
I teraz cofniemy się do tej listy z powrotem.
No i teraz mam tylko dwa procesy,
bo mam tylko Firefoxa i mam NVIDIA.
W sumie też nie wiem…
Firefox akurat w momencie nie otwarza stricte dźwięku,
natomiast faktycznie te dwa procesy mam.
Ja sobie na razie zaznaczę tylko NVIDIA na próbę,
a my teraz będziemy rozglądać się dalej po tym opisu.
REFRESZ PRZYPSCHOFONY PROCES W SESWIT-HACKIWE AUDIOPOLE
WYPOPFORMAT LISTA ROZWIJANA WAW ZWINIĘTE
No to już dochodzimy do różnych ustawień konfiguracyjnych.
Możemy decydować, w jakim formacie mają te nagrania nam się zapisać.
I formatów do dyspozycji mamy naprawdę dużo.
No bo mamy oczywiście nieskompresowane pliki WAV.
MP3, OBUS, FLAT.
No i tutaj mamy zarówno pliki skompresowane, jak i nieskompresowane.
Mamy też nagrywanie beztratne do formatów FLAC,
co też myślę, że wielu możecie przeczytać,
gdybyście na przykład chcieli nagrać jakieś dłuższe audycje.
I zależnie od tego, jaki mamy format wybrany,
to będziemy mieli różne opcje konfiguracyjne.
Akurat w przypadku plików WAV żadnych wystawień nie mamy,
bo domyślnie pliki nam się będą nagrywały w stereo,
w takiej częstotliwości i próbkowaniu, jaką mamy ustawioną w systemie.
Dla aplików mp3.
Możemy sobie ustawić częstotliwość bitrate.
Od 128 do 380.
Podobnie.
Dla plików FLAC możemy ustawić poziom kompresji.
Ale my sobie na razie wrócimy do plików WAV.
Mamy pole wyboru Pomijaj ciszę.
To jest takie bardzo blogiczne.
Jeśli aplikacja wykryje ciszę,
to ta cisza po prostu nie zostanie nagrana.
Zauważyłem, że to nie działa ze wszystkimi procesami.
Nie wiem czemu, akurat jak nagrywałem np. samego MVDA
czy samego Firefoxa, to mi nie chciało zawsze działać.
Natomiast kiedy nagrywałem cały dźwięk w systemie,
ten procesem system audio, który wcześniej widzieliście,
to wtedy jak najbardziej mi to zadziałało
i ta cisza była pomijana.
Nie do końca to działa we wszystkich sytuacjach, ale czasami działa.
Monitor audio. Pole wyboru nieoznaczone.
Monitor audio. No bo aplikacja może pracować w dwóch trybach.
Możemy nagrywać to pliku albo możemy dźwięk monitorować.
Jeśli ja zaznaczę pole monitor audio…
Monitor dewice. Lista rozwijana. Realtek HD audio.
2ND output. Realteker audio. Default zwinięte.
To mogę zdecydować, na jaką kartę dźwiękową
ma nam ten dźwięk zostać wysłany.
To jest o tyle fajne, że po pierwsze,
Możemy nagrywać kilka procesów jednocześnie.
Widzieliście, że tam są pola wyboru, więc mógłbym sobie zaznaczyć,
że chcę udostępnić tylko np. Firefoxa i tylko NVIDIA,
albo jakąś grę, tak komuś pokazujemy jakąś grę,
więc wysyłamy naszą syntezę i tę grę,
ale nie chcemy, żeby inne dźwięki z powiadomień były wysyłane.
Mogę to sobie puścić na jakiś kabel wirtualny,
którym później ten dźwięk sobie wyślemy
na np. jakiegoś TimToka, na jakiegoś Zooma czy jakąś inną aplikację.
A teraz ktoś zapyta, no dobra, czyli tej aplikacji możemy sobie wysłać dźwięk
z aplikacji, ale co wtedy z naszym mikrofonem?
Nie ma problemu, idziemy sobie dalej.
Monitor only, no recording pole wyboru nieoznaczone.
Właśnie, mamy tutaj też pole tylko monitoruj,
więc moglibyśmy też zdecydować, żeby nic się nie nagrywało,
żeby tylko ta aplikacja służyła jako taki audio repeater,
żeby faktycznie tylko dźwięk aplikacji konkretnej
wysyłać na jakąś kartę dźwiękową, ale idziemy dalej.
Tutaj możemy zadecydować, jeśli mamy kilka zaznaczonych procesów,
jak te pliki, jak nagrania mają zostać zapisane.
Pierwsza opcja, możemy je zapisywać do osobnych plików,
czyli załóżmy, że bym nagrywał Firefoxa i NVIDIA,
to miałbym plik firefox.wave,
tam jeszcze data i godzina będzie oczywiście,
i NVIDIA jest znów data i godzina.
To jest fajne, gdybyśmy chcieli sobie jakość te nagrania obrobić
w jakimś edytorze audio, osobno przetworzyć te pliki.
Mamy też opcję jeden plik, czyli po prostu nam tutaj aplikacja połączy wszystkie te ścieżki, tak to nazwijmy, wszystkie procesy do jednego pliku,
więc po prostu na przykład nagrywamy komuś jakąś demonstrację jakiejś gry na przykład, no to tutaj też nagrywamy MVDA i dany program i to nam się po prostu zapisze do jednego pliku.
Ale mamy też opcję jedno i drugie i wtedy zarówno będziemy mieli taki plik, gdzie te wszystkie ścieżki są połączone, ale aplikacja nam też da osobne pliki.
Ja tutaj będę nagrywał akurat jeden proces, więc sobie zaznaczymy tą pierwszą opcję, czyli osobne pliki.
Mamy pole wyboru nagrywaj mikrofon.
No i właśnie tutaj zastanawialiśmy się, co w sytuacji z mikrofonem, gdybyśmy chcieli na przykład jakąś aplikację wysłać na jakiś wirtualny kabel,
no ale co wtedy z mikrofonem, bo aplikacja może nam też nagrać mikrofon.
Akurat tutaj w tym momencie nie mam żadnych urządzeń wejściowych, więc to pole odznaczę.
Natomiast nagrywanie mikrofonu jak najbardziej działa.
Ma ono też osobny suwak głośności.
Proces z wolunę, 79% suwak, 79.
No bo właśnie tutaj też możemy osobno zdecydować,
jaki poziom głośności mają mieć procesy,
a jaki poziom głośności ma mieć mikrofon.
Nie możemy, zanim ktoś zapyta, niestety,
ustawić osobnych poziomów głośności dla poszczególnych procesów.
Natomiast to jest coś, co możemy sobie później zrobić
właśnie w post-processingu.
Nagramy sobie te procesy do osobnych plików,
No i teraz możemy sobie później w aplikacji jakoś te poziomy dostosować.
Foldput folder, pole edycji zaznaczone C.
Tutaj możemy zdecydować, gdzie nam się zapiszą nagrania.
Profse, przycisk. Start Capture, przycisk.
No i mamy przycisk Rozpocznij nagrywanie.
Active records, lista.
I mamy listę aktywnych nagrań.
No, w tym momencie lista jest pusta, bo nic nam się nie nagrywa.
Ja sobie teraz zrobię próg na nagranie, więc upewnię się, że NVIDIA jest zaznaczone.
Refresh, przycisk.
I teraz sobie odznaczymy monitor,
Bo nie chcę, żeby nam się jakaś pętla zrobiła.
Multicapture mi proces swobodny.
I naciskamy przycisk Start Capture. Rozpocznij nagrywanie.
No i co się stało? Nie zmieniło się nic.
Ten przycisk cały czas jest dostępny,
bo moglibyśmy jednocześnie uruchomić kolejne sesje,
gdybyśmy chcieli jeszcze coś nagrywać.
Aplikacja jest pod tym względem bardzo wielozadaniowa.
Możemy też nagrywanie zatrzymać.
I mamy tutaj też listę ze wszystkimi aktywnymi nagraniami.
NVDA.exe bit 9044, odput file C.
Users Piotr Docunek, SaudioCapture,
SNVDA-20251014-214425.wav.
Data w listę 838 MB 1 z 1, NVDA.exe bit 9044…
Tutaj mamy informację, mamy jedno aktywne nagrywanie,
bo jest nagrywany jeden proces i tutaj nam też stopniowo rośnie licznik,
ile danych zostało zapisanych.
Gdybym miał kilka nagrań aktywnych,
gdybym na przykład nagrywał kilka procesów,
aby jeszcze nagrywał mikrofon i to do osobnych plików,
to tutaj miałbym jeszcze jeden przycisk, mianowicie Stop All Captures,
czyli zatrzymaj wszystkie nagrania.
No, przez to, że mam jedno, no to tego przycisku tutaj nie mam.
Natomiast jeszcze możemy pokazać, że ja mogę sobie tutaj wejść na pulpit
z powodu, żeby system mi dał jakiś dźwięk,
żeby pokazać, że ten dźwięk na opisie nie nagrywa.
No, ale sobie przechodzę do przycisku Stop.
Wciśnięty. Niedostępne. Avalable proces. Lista. NVDA.exe.
No i nagrywanie nam się właśnie zakończyło.
Ja sobie teraz przejdę do katalogu,
Gdzie to się zainicjuje?
Mam tutaj plik, który ma 26 MB.
Możemy go otworzyć i zobaczymy, co nam się nagrało.
Nawet słychać, już były dwa głosy.
Słuchaj, to wygrywanie dziś nie zadziałało,
ale samo nagranie jak najbardziej się udało,
bo słyszymy, że tutaj NVIDIA się odezwał.
Nie dzieje się jakoś bardzo dużo.
Ale widać, że nagranie jak najbardziej zadziałało
i dźwięki systemu też na tym nagraniu się nie nagrały.
Także aplikacja jak najbardziej robi wszystko, co zostało zareklamowane
i generalnie z tego, co widzę, robi to dużo.
Nie próbowałem jeszcze tworzyć jakichś bardzo długich nagrań,
więc nie wiem, czy tam nie ma jakichś przecieków,
ale myślę, że raczej nie powinno być.
Natomiast z tych wszystkich aplikacji, które pojawiły się niedawno,
jeśli ktoś nie chce bawić się w reaperze i tworzenie jakichś ścieżek,
jak to musieliśmy robić w przypadku tych wtyczek UpToClub,
po prostu chcemy faktycznie nagrać sobie kilka aplikacji,
albo stworzyć jakiś prosty właśnie podcast,
nagrać do siebie i rozmówce, albo na szmikrofon, na szczytnik ekranu,
najlepiej do osobnych plików.
Jak najbardziej takie rzeczy możemy w tej aplikacji zrobić.
Najlepiej korzystać z tej aplikacji na Windowsie 11.
Zależnie od tego, z jakiego systemu korzystamy,
ta aplikacja ma trochę różne funkcjonalności,
bo aplikacja działa od Windowsa 7 do Windowsa 8 i 1.
Tam możemy nagrywać tylko cały system.
Od konkretnej wersji Windowsa 10,
teraz nie pamiętam, jaki to jest numer kompilacji,
tam jest w dokumentacji to opisane,
została dodana możliwość nagrywania kilku procesów.
I to już od tych wersji działa.
Natomiast wiem, że tam były jakieś błędy,
jeśli nagrywanie było zatrzymywane, wyznawiane jeszcze raz.
Tam warto z aplikacji wyjść,
ale chyba tam też jakieś poprawki się pojawiły.
Nie miałem jak tego sprawdzić, bo akurat mam Windowsa 11 w tym momencie,
a na Windowsie 11 ta aplikacja powinna działać
bez większych problemów.
Tak że jeśli chcecie sobie coś nagrywać na komputerze,
Tak, żeby albo nie było słychać waszego czytnika ekranu,
albo odwrotnie, żeby było go słychać, ale nie było słychać innych dźwięków,
to ta aplikacja jak najbardziej nam w tym może pomóc
w takim naprawdę bardzo przyjemnym interfejsie.
Może jedyny minus tej aplikacji też jest taki, że nie ma skrótów klawiszowych.
Trzeba się namachać tabulatorem, przynajmniej w tej wersji wcale się nie zdziwię,
jeśli w kolejnej aktualizacji skróty klawiszowe nie zostaną dodane.
Natomiast do ostrzeg wszystkich aplikacji do nagrywania dźwięku z poszczególnych aplikacji, ta mi się wydaje taka najbardziej prosta w obsłudze, a jednocześnie funkcjonalna.
Więc jeśli szukacie takiego programu, no to myślę, że gorąco mogę ten program polecić.
Jeszcze raz na myśl, na koniec podam adres github.com, ukośnik masonasons, ukośnik audiocapture.
No ja też się mogę podpiąć do tej rekomendacji, bo już dzisiaj aplikację testowałem.
Co prawda w trochę chyba starszej wersji, bo moja wersja jeszcze ma listę,
gdzie mogę zaznaczyć na jednej liście jakby pola wyboru, czy chcę nagrywać do mp3,
czy puszczać mikrofonem, czy puszczać głośnikiem na przykład, tak?
Albo mam mikrofony chyba razem z procesami na jednej liście,
po prostu tak było to na szybko zrobione.
Skróty klawiszowe mi się przydały.
Fajnie, że jest opcja samego monitorowania, bo rzeczywiście można to wypchnąć na jakiś
Nie wiem czy Windows na to będzie pozwalał, ale coś można by w tę stronę, żeby obejść jakość potrzeby instalacji Virtual Audio Cable’a, żeby mieć coś takiego darmowego do tego.
Natomiast też się zastanawiałem, oczywiście nie wiem w jaką stronę ta aplikacja będzie rozwijana i tak dalej, ale może jakieś proste, takie quasi DJ-skie opcje.
Jakieś na przykład mikrofon z push-to-talkiem i jak nagrywam coś mikrofonem, to ścisz tam jakiś konkretny proces.
Ciekawe, na ile system tu pozwala na taką ingerencję w tego typu tematy.
Ale wydaje mi się, że może pozwalać na coraz więcej, no skoro mamy ten mikser dźwięku, tak?
Skoro tutaj możemy regulować głośność każdego procesu, czego jeszcze w tej aplikacji nie ma,
Ale w tym mikserze możemy to robić, więc podejrzewam, że jeżeli uda się autorowi wywołać to programowo, te suwaczki, to się też da.
No aplikacja jak widać rozwija się i dochodzą nowe rzeczy, wychodzą nowe wersje, no i oby tak dalej. Pozostaje życzyć powodzenia.
A teraz jeszcze tu a propos dźwięku, to taki temat ma Sylwester.
Michale, mam do Ciebie pytanie. Jak masz Maca, jeżeli opanowałeś Maca, to nie mógłbyś nagrywać, spróbować nagrywać jakąś audycję, czy nawet cyfrowy przegląd na Macu?
Bo ja chcę usłyszeć i zobaczyć, jaki jest dźwięk na Macu właśnie z podcastu. Ciekawy jestem, jak na Macu by się nagrywało właśnie dźwięk.
Chodzi o dźwięk, jakość tego dźwięku, bo ja chcę usłyszeć z Maca.
Sylwestrze, no tego Maca, którego ja mam, to już jest na tyle leciwy, że ten dźwięk w porównaniu do tego, na co pozwalają nowe komputery od Apple, to się diametralnie różni.
Także tu myślę, że to jest taka kwestia, że chyba nie warto by było. Ale jeżeli chcesz posłuchać, jak brzmi jeden z tych nowszych Maców, to chociażby audycja Dominika,
która była czy wczoraj, czy kilka dni temu, czy jakiś czas temu o pralkach na przykład.
Jak sobie chcesz posłuchać jak to brzmi, to Dominik właśnie mówi z Maca.
Ty, Maćku, zdaje się nie z wbudowanego mikrofonu, a z jakiegoś zewnętrznego, prawda?
Wiesz co, w większości tak, to iOS-ie, natomiast podcast o syntezie,
Uuu, stary podcaścik już w sumie się dezaktualizował.
Synteza w Mac OS Ventura, to tam akurat nagrywałem stricte z wbudowanego.
Skoro o takich rzeczach mówimy, to też mogę polecić swój podcast o MacBooku Pro,
który też chyba w zeszłym roku nagrywałem. Boże, jak ten czas leci.
Natomiast ten podcast też był po pierwsze nagrywany całkowicie
na wbudowanym mikrofonie właśnie, żeby jego jakość pokazać,
a też tam jest binauralna próbka głośników tego komputera.
Ja to akurat był MacBook z procesorem M3 Pro, natomiast mogę powiedzieć, że model następny, który ma procesor M4 Pro, brzmi chyba identycznie, więc możesz tam też posłuchać, jak ten komputer brzmi.
Tak jest.
Ja 2.22, także no jeszcze starszy ten podcast.
Zaglądam do waszych komentarzy, bo tu jeszcze do nas piszecie i Piotr na przykład do nas pisze.
Podajcie proszę modele telefonów dla seniorów z funkcją głosowego odczytywania SMS-ów. Dziękuję.
To chyba Blind Shell, taki w sumie najbardziej oczywisty w tym temacie, przynajmniej tak z naszego podwórka,
bo podejrzewam, że tych takich telefonów, które tam może coś mogą, to nawet jakieś, może jakieś MyPhony albo inne tego typu, ale…
A tak swoją drogą, a tak swoją drogą, ten dostęp wspomagany tzw. w iPhone’ie z voice-overem ktoś później jakoś testował?
Ktoś się tym bawił? Czy to z voice-overem się jakoś poprawiło? Bo ja pamiętam, że jak to wchodziło bodaj, kiedy to w iOS 18 wchodziło, czy 17?
Nie pamiętam, ale było tragicznie.
Ale w którychś z tych, w którychś z tych wersji, to pamiętam, że w betach, nawet chyba w RC, nie, wów, nawet w tym 17 albo 18.1 to się jeszcze jakoś bardzo gryzł voice-over z tym wszystkim.
Tak, tam w wersji stabilnej pamiętam, że bardzo dużo rzeczy było niezaetiketowanych, tam też był taki problem, że żeby wyjść z tego dostępu wspomaganego, to sobie on przyjmował skrót trzykrotnego naciśnięcia przycisku bocznego, więc tam jak mieliśmy to włączone, to wtedy też nie mogliśmy sterować voice-overem, więc warto o tym pamiętać, jakbyśmy chcieli komuś to skonfigurować, no to tak, najpierw musi być voice-over włączony.
Ale fakt, że funkcja dostępności w iPhone’ie też jest i jak się skonfiguruje, to tam są aplikacje też z unifikowanych wiadomości FaceTime i telefonowe wiadomości FaceTime chyba w jedną na przykład.
No i można w ogóle wybierać, znaczy wybierać jakie aplikacje w ogóle taka osoba starsza ma mieć widoczne i tamte ikonki też większe i coś tam tego typu rzeczy.
Natomiast inną kwestią wydaje mi się jest, to jest problem,
że takie najprostsze urządzenia nie mają żadnych takich funkcji.
Pamiętam z swojego czasu, że były jakieś podcasty o tych prostych Nokia,
które okazuje się jakieś udźwiękowienie miały.
Natomiast to udźwiękowienie miało dwie wady.
Po pierwsze, nie mówiło wszystkiego.
Po drugie, nie mówiło po polsku.
A to moim zdaniem jest problem, że faktycznie takim jedynym realnym urządzeniem,
które na coś takiego pozwala, które też by miało klawiaturę,
No jeszcze ewentualnie, ewentualnie jeszcze ten Smart Vision od Capsysa, ale to jest pełen Android, że tak powiem, w związku z czym i ta jego obsługa jest podejrzewam, że trudniejsza, zwłaszcza dla osoby, która może niekoniecznie aż tak bardzo chce się wgryzać w te tematy technologiczne.
Jest to uproszczone, jak się tylko da przez twórców,
natomiast no, jednak tam mamy dostęp do pełnego systemu
i użytkownik może sobie w coś wejść i gdzieś tam się pogubić, także…
Ja się tym Kaiser Access muszę pobawić na iPhone’ie teraz,
zobaczyć czy coś się zmieniło.
To pobaw się i daj znać, bo myślę, że może to
dla niektórych z naszych słuchaczy być ciekawą kwestią.
Od eksterminatora mamy wiadomość.
Witam, mam mały problem z Apple Watch.
Jak ustawić, żeby się nie wybudzał po dotknięciu?
Po dotknięciu. Czy to się da wyłączyć?
Chyba nie.
Po dotknięciu chyba nie.
No tylko połudzie się nadgarstka i jeszcze chyba jedna…
Aha, i żeby się nie oblokował po opuszczeniu nadgarstka, to tak, ale…
Po dotknięciu chyba się stricte zawsze wybudza.
No tyle, że nie voice over po jednokrotnym dotknięciu ekranu po wybudzeniu nie gada nic, ale cała…
Z reguły.
On się wybudza.
Tak, no zawsze można po prostu wyłączyć mowę, jak nie chcesz, żeby ci ten młodsz gadał, na przykład jak nosisz go do snu.
No bo faktycznie pamiętam, że on czasami lubił coś odezwać, no ale…
Można gestem, tak jak na iPhone’ie, dwukrotne stuknięcie trzema palcami wyłączyć mowę i…
I tyle. I jeszcze mamy tu wypowiedź od Łukasza.
Łukasz, dziękuję za odpowiedź i dodaję jeszcze, że na Blind Shellu udało się zainstalować aplikację HomeVis.
Założenie konta nie sprawiło żadnego problemu. Nie mam jeszcze konta, żeby nim…
Nie mam jeszcze żadnego sprzętu, bo założenie konta nie sprawiło problemu.
Nie mam jeszcze żadnego sprzętu, żeby nim zdalnie sterować, ale warto zapoznać się z interfejsem tego programu,
pobawić się nim i posprawdzać, czy wszystkie przyciski są prawidłowo czytane.
No Łukaszu, to ja tylko jeszcze tak na marginesie i tym wszystkim, którzy nie słuchali tej audycji,
kiedy to z Dominikiem właśnie prezentowaliśmy te aplikacje, to ja jeszcze tak tylko powiem,
Pamiętajcie, czy to w przypadku HomeWiz, czy WSYNC, czy innych takich aplikacji, że tak to ujmę, globalnych, to znaczy nie do obsługi jakiegoś konkretnego urządzenia, bądź grupy urządzeń,
a bardziej wszystkiego, co się tylko da jakichś tam różnych firm, to może być niestety tak, że ta dostępność różnych urządzeń będzie różna, bo to wtedy jest podejrzewam tak,
Tak, że twórca oprogramowania, czy jakiegoś takiego łącznika danego urządzenia z tą aplikacją ma wpływ na to, jak różne rzeczy są wyświetlane, no i niestety też jest to nie bez znaczenia dla dostępności.
I w efekcie tego może być tak, że mamy dwa urządzenia podpięte do jakiejś aplikacji. Jedno dostępne jest lepiej, drugie dostępne jest gorzej. I oby nie było tak, że trzecie nie będzie dostępne wcale.
Obym nie był złym prorokiem, ale może się tak zdarzyć, więc to po prostu już potem sobie trzeba indywidualnie testować.
No, ale wiadomo, to najpierw, żeby w ogóle cokolwiek testować, to trzeba konto założyć, zalogować się.
A skoro to się udało, to już jest jakaś tam część sukcesu.
A teraz przenosimy się do Japonii. Pawle, Japonię polubiłeś ostatnio. I znowu masz dla nas newsa z krajów kwitnącej wiśni.
Tak, nawet Wam opowiadałem jeszcze przed wejściem na antenę,
że być może wrócimy jeszcze do tematu tej ankiety,
którą tak żeśmy namiętnie analizowali tydzień temu,
bo transkrybuję sobie właśnie podcast,
który tą ankietę omawia i być może
okażą się jakieś nowe fakty, które rzucą trochę światła na to,
czemu te wyniki i takie wyszły, a nie inne.
Natomiast to, o czym dzisiaj chciałbym powiedzieć,
to w ogóle nie wiem, czy wiedzieliście, że to w Japonii
powstały pierwsze systemy linii prowadzących.
Ja coś o tym słyszałem, to zdaje się, ma związek z tym, że tam wielu niewidomych po Hiroshima i Nagasaki się pojawiło, tak? Czy to wcześniej jeszcze?
Nie, nie, to mogło tak być, bo to w jakimś 1967 roku były pierwsze instalacje i to jakiś niewidomy człowiek, który nie wiem, czy on się urodził niewidomy,
ale w 1926 urodzony, więc możliwe, że niestety, że tak powiem, był ofiarą wybuchu.
Natomiast tenji, tak nazywają się po japońsku, czy tam tenji bloks, tak nazywają się,
czy z taką nazwą się spotkałem, a w różnych angielskich przekazach odnośnie tychże,
ale z opisu wygląda dokładnie to samo, co my znamy, czyli są podłużne elementy,
Tak jakby paski, które prowadzą nas w konkretną stronę i tak jakby kulki,
które zaznaczają pole uwagi, czyli pewnie tam, gdzie te linie się rozdzielają
albo skręcają w inną stronę.
No tylko że teraz, jak już Japończycy wymyślili te linie i one są stosowane na
całym świecie, no to teraz trzeba by przejść do jakiejś technologii smart.
No a problem taki, jaki mamy z tymi liniami jest, że nie wiemy, co się za tymi
rozstajami kryje, czyli skręcamy…
Linie skręcają w prawo, ale dokąd one prowadzą?
Nie skręcają w lewo, ale gdzie to się kończy?
No i tutaj pierwsze japońskie miasta nawiązują współpracę z Navilence’em
i kody Navilence będą poprzyklejane na tych polach uwagi
i osoby niewidome będą mogły sobie zeskanować taki kod smartfonem.
No, Navilence, znamy temat, kody dużo większe niż zwykłe QR
i przez to, jak można wykorzystać różne sensory w aparacie,
jak już raz taki kod wykryjemy, to jest możliwość, żeby taka aplikacja,
która ten kod umie rozczytać, czyli właśnie aplikacja NaviLens,
umiała nas poprowadzić do tego kodu z powrotem albo gdzieś dalej,
w związku z czym filmik na YouTubie jest, widziałem, zresztą
Tam spodlinkowany będzie adres.
Można w ten sposób całe wskazówki nawigacyjne od jednej uliczki do drugiej, do wejścia do metra, do jakiegoś konkretnego peronu zaprogramować.
Zobaczymy. Wiem, że tu na Wilenstu pracuje też z inną europejską firmą, która…
Ja pamiętam, że oni samodzielnie tworzyli jakieś takie rozwiązania, żeby właśnie te linie prowadzące były takie bardziej smart,
ale to się chyba wtedy bardziej koncentrowało na lasce,
czyli laskom trzeba było gdzieś dotrzeć.
I moduł zamieszczony chyba w końcówce laski,
czy jakoś tak, jakiś tam odbierał sygnały
i generował nam komunikat audio, no tutaj będzie smartfon.
Mam nadzieję, że to zczytywanie aparatem tych kodów
rzeczywiście będzie się szybko odbywało,
no bo różnie to bywa.
Ja nawilęsy kiedyś testowałem i rzeczywiście był z tym jakiś momentami problem.
Zależy jakie duże to było i na jakiej powierzchni.
No jeżeli miałoby to być skanowane prosto pod naszymi gdzieś tam butami,
no to może jest jakaś szansa, że się uda w to trafić.
Ale to trzeba by zobaczyć jakieś konkretne implementacje.
No a tymczasem Japonia testuje, a my zobaczymy co z tego dalej.
Czas pokaże, no być może gdzieś tam i w innych miejscach też te znaczniki się upowszechnią.
Fajnie by było, żeby coś jednak takiego uniwersalnego w końcu się pojawiło, że gdzie nie jedziemy to mamy do dyspozycji właśnie coś co znamy, ale to pomarzyć można.
Dobrze, to w takim razie teraz już widzę, że prawie zmierzamy do…
A nie, jeszcze nie zmierzamy do naszych stałych kącików.
Natomiast, no tutaj dużo informacji ma dla nas Piotr.
Na dobry początek może kilka słów o komiksach.
Dobrze, no właśnie, komiksy. Coś, co dla nas niestety bardzo dostępne nie jest,
jest dlatego, że po prostu generalnie niestety
rzadko kiedy tworzy się dostępne komiksy, pojawiło się kilka takich komiksów audio,
gdzie te wszystkie panele, którzy nie wiedzą, jak taki typowy komiks wygląda,
to po prostu na każdej stronie mamy kilka paneli tak zwanych, gdzie jakaś sytuacja
jest, historia nawet jest opisywana, gdzie każdy panel przedstawia kolejną jakby
I z reguły to wygląda tak, że mamy jakąś narysowaną scenę,
mamy narysowane postacie, no i obok tych postaci pojawiają się
różne tzw. dymki dialogowe. Może widzieliście emotkę
dymek dialogowy, to często używa się tego emoji.
No i w tych dymkach właśnie są opisane dialogi.
Czasami jest też pisana jakaś anomatopeja, która opisuje jakieś dźwięki,
No tak na przykład postacie się biją, to właśnie będziemy jakieś trzaski
i tego typu rzeczy mieli w tych dymkach też zamieszczone.
No i tak generalnie cała fabuła jest opowiadana.
Jakby to nam można było udostępnić?
No może na przykład używając sztucznej inteligencji.
Przynajmniej z takiego założenia wyszedł Amazon,
który postanowił stworzyć aplikację,
która będzie używała generatywnej sztucznej inteligencji
do udostępniania osobom niewidomym komiksów.
Aplikacja nazywa się Comic Cast
i została stworzona przez Amazon Web Services,
czyli dostawcę chmurowych usług Amazonu.
No, między innymi humory takie można właśnie do AI wykorzystać.
No i postanowili nawiązać partnerstwo z firmą Dentsu Creative
oraz jeszcze kilkoma innymi firmami np.
IO Digital X, no co generalnie chyba są firmy, które też zajmują się
dystrybucją komiksów chyba też w wersjach cyfrowych, żeby udostępnić nam te
komiksy.
Aplikacja została zademonstrowana w Hiszpanii
podczas hiszpańskiej edycji konferencji
San Diego Comic-Con.
Jeśli interesujecie się jakkolwiek
uniwersami DC, czy Marvela, czy Anime,
to na pewno o Comic-Conie słyszeliście. To jest chyba taka największa konferencja
na której…
konferencja z lot nawet bardziej,
Na którym fani takich rzeczy się spotykają i mogą uczestniczyć w różnych panelach i zobaczyć wiele ciekawych rzeczy.
No i między innymi tam właśnie osoby niewidome z Hiszpanii mogły zobaczyć działanie tej aplikacji.
Bo właśnie pierwszy raz od 55 lat tych zlotów pojawił się on właśnie poza Stanami Zjednoczonymi.
bo właśnie miał miejsce w Maladze, w Hiszpanii.
I jak to działa? Działa to tak, że po prostu telefonem skanujemy stronę komisu,
który nas interesuje i modele w tej aplikacji, czy modele pewnie w chmurze,
gdzie ta aplikacja wysyła dane, zabierają się do pracy.
Jest stworzony opis sceny, aplikacja skanuje właśnie, co się dzieje
…na poszczególnych panelach. Jeśli są jakieś postacie, to co te postacie mówią, co się dzieje.
No, próbuję tutaj złożyć to w jedną, spójną całość, jak dana strona wygląda.
I na tej podstawie jest nam tworzone, no, muszę powiedzieć, coś w rodzaju słuchowiska.
Bo nie mamy takiego suchego opisu, jakby można było się spodziewać.
Nie wiem, panel lewy, górny, przedstawia nam taką postać, która jest zezłoszczona i na przykład mówi coś tam.
Tylko wygląda to tak, że na podstawie tego, co tam się dzieje,
są generowane efekty dźwiękowe, są generowane głosy.
Do generowania głosów jest wykorzystany model
od znanej chyba wszystkim firmy Eleven Labs.
I oprócz tego jest też jeszcze jeden głos, czyli głos narratora,
który uzupełnia jakieś graficzne detale,
które byśmy normalnie po prostu mogli nie wiedzieć.
No i w ten sposób aplikacja, jak tutaj jest napisane, ożywia nam te komiksy, no i dzięki temu możemy wiedzieć, co się na danym komiksie dzieje.
Oczywiście tutaj ta sztuczna inteligencja stara się odpowiednio dopasować tony głosów, tak żeby one emocjonalnie zgadzały się z tym mniej więcej, co się dzieje na danej stronie.
Dokładnie tutaj też, o jakim modelu jest zastosowane, to jest Cloud, na przykład, do przetwarzania tych danych graficznych wykorzystywany.
I w ten sposób właśnie te komiksy są dla nas czytane. Jak to działa w praktyce?
No niestety Wam nie mogę powiedzieć, no bo nie było mnie tam i też nie znam hiszpańskiego,
natomiast na stronie też jest zagnieżdżony film, można sobie posłuchać, jeśli znacie hiszpański, jak to wyglądało.
Pytanie, czy to się będzie rozwijało dalej,
czy ta aplikacja kiedyś zostanie nam szeroko dostąpiona.
Amazon ma w swoich ofercie, jeśli się nie mylę, dużo komiksów.
Jakiś czas temu wykupili jakąś aplikację,
na której można cyfrowe komiksy czytać.
Więc może kiedyś komikas doczeka się szerszej dystrybucji
i będziemy w stanie sobie w ten sposób komiksy czytać.
Czy osoby niewidome by wolały taki sposób czytania,
które zamienia komiksy w słuchowiska, niż np. taki może bardziej surowy opis.
Nie wiem, ale zapowiada się ciekawie.
Mam nadzieję, że to wyjdzie poza takiej akcji PR-owej,
może faktycznie tego typu technologia kiedyś pozwoli nam czytać komiksy.
Może też mangi w przyszłości, bo to jest coś,
co bardzo bym chciał kiedyś mieć do tego dostęp.
Na ten moment nie mamy.
Ale no fajnie, że ktoś o tym pomyślał.
Swoją drogą to kiedyś widziałem na YouTubie, że ktoś próbował tworzyć właśnie takie historie z polskich komiksów i opisywać to jakoś.
Właśnie też na zasadzie takich słuchowisk. Nie pamiętam jak ten kanał się nazywał, ale coś takiego gdzieś mi kiedyś mignęło.
Ogólnie tworzenie słuchowisk, komiksów to jest dosyć popularne, bo na przykład w Stanach Zjednoczonych, zresztą nie tylko.
Jak ktoś zna angielski, a chcielibyście się zgłębić w uniwersum Marvela czy Dizzy,
no to jest np. taka firma jak Graphic Audio, która stworzyła wiele słuchowisk
na podstawie różnych komiksów. Także to jak najbardziej, takie rzeczy można kupić.
Jasne. No to teraz idziemy na zakupy.
Tak, idziemy na zakupy, czyli przenosimy się do Stanów Zjednoczonych,
konkretnie przenosimy się do sklepów z sieci Target.
O której wiele osób mogło słyszeć, bo to jest bardzo duża sieć takich…
Myślę, można to nazwać takimi hipermarketami w Stanach Zjednoczonych,
w których można kupić praktycznie wszystko z tego, jeśli dobrze się orientuję.
I jest to sieć, która na sezon świąteczny postanowiła uruchomić,
jak mi się chyba wydaje, tak tutaj można wyczytać,
pierwsze na świecie w pełni dostępne kasy samoobsługowe.
Jak wygląda kasa samoobsługowa, to myślę, że wielu z Was może się orientować,
jeśli byliście w Biedronce, w Lidlu. W wielu sklepach takie urządzenia się pojawiały.
Pojawiają nawet cały czas urządzenia, które nawet coś mówią,
ale generalnie dla nas dostępne nie są,
bo w dużej części są operowane przez ekrany dotykowe.
No i tutaj Target właśnie postanowił coś w tej sprawie zrobić.
Nawet właśnie tutaj nie widzą mi pracownicy,
którzy zajmują się tak zwanym UXem, czyli User Experience,
oświadczeniem użytkowników,
jakby można było tutaj coś w tej sprawie poprawić.
No i właśnie rozpoczęło się wdrażanie w całej sieci
pierwszych na świecie dostępnych CAS samoobsługowych.
Jak takie urządzenia działają?
No właśnie pozwalają osobom niewidomym i słabowidzącym
w pełni takie urządzenie wykorzystać.
Czyli kiedy będziemy jakieś produkty skanować,
to jeśli włączymy odpowiedni tryb dostępności,
to urządzenie nam będzie na bieżąco podawało,
jakie produkty zostały zeskanowane, jaka jest kwota do zapłat.
Jeśli tam trzeba coś z menu wybrać,
to będziemy w stanie po tym menu nawigować.
No i będziemy mogli oczywiście później
zeskanowane przez nas towar zapłacić.
Co dokładnie możemy przeczytać o tych urządzeniach?
W ramach urządzenia zostały stworzone współpracy z National Federation of the Blind,
czyli znanym NFB, które też u nas często się pojawia.
Mieli tutaj duży wkład w to, żeby te urządzenia faktycznie były dla osób niewidomych
jak najbardziej dostępne.
Przy okazji to też poprawia dostępność dla innych niepełnosprawności.
Jakie funkcje mają te nowe kasy?
Możemy tutaj przeczytać,
że mamy tutaj ubrajlowione przyciski z wysokim kontrastem,
więc oprócz ekranu dodatkowego mamy tu też przyciski duże,
co pewnie nie tylko przyda się osobom niewidomym.
Tutaj też mamy informację dla osób z jakimiś problemami ruchowymi.
Pewnie też takie łatwiejsze do nacinięcia przyciski się przydadzą.
Mamy gniazdo słuchawkowe z konfigurowaną głośnością.
Tutaj ludzie się zaczęli pytać też na Mastodonie, czy też będzie jakiś port USB albo Bluetooth.
No, chyba będzie trzeba jednak mieć słuchawki, czy też urządzenia będą miały głośniki.
Też informacji o tym nie znalazłem, ale no to też ciekawe pytanie.
Natomiast w razie czego, po prostu można podłączyć słuchawki.
I będą też fizyczne przyciski nawigacyjne i dedykowany klawisz informacyjny.
I własnościowy dotykowy kontroler
stworzony przez Target i partnera,
który dostarczył technologię ekranów dotykowych,
czyli firmę Elo.
Nie znam tej firmy, no ale tutaj właśnie pomogli stworzyć
właśnie jakiś dostępny panel, który pozwoli nam,
pozwoli takie urządzenie stworzyć.
Mamy dużo takich właśnie informacji o tym, jak to faktycznie osobom pomaga.
Między innymi tutaj mamy właśnie zdjęcie pana Steve’a,
który właśnie był tym niewidomym pracownikiem Targeta,
o którym mówiliśmy, który ze swoją też słabo widzącą córką
dokonuje właśnie takiego skanowania towarów,
zapłacenia za ten towar.
No i dzięki temu właśnie,
mimo to, że sytuacja w Stanach pod niektórymi względami się zmienia,
To fajnie, że jeszcze takie pozytywne rzeczy związane z dostępnością ze Stanów przypływają.
I to na pewno też pomoże Targetowi pewnie sprzedać więcej produktów, jakby ktoś właśnie chciał z takich gaz korzystać.
Zresztą Target tutaj też zaznacza, że w innych działach też o dostępność dbają,
bo zarówno strona internetowa, jak i aplikacje mobilne, bo też można z tej sieci zamawiać przez Internet.
Dbają tutaj o dostępność tych usług, więc też osoby niewidome mogą z tych usług korzystać.
A kto wie, no może dzięki temu, że tutaj takie technologie już zostały wdrożone,
to może jakieś inne sieci, które też z takich urządzeń korzystają,
może też będą takie rzeczy wdrażać. Zwłaszcza, że przecież mamy
Tak jest. Swoją drogą, teraz jeszcze przypomniała mi się taka informacja, jaką zobaczyłem u siebie na feedzie na Facebooku jakiś czas temu.
Adrian Wyka podzielił się tą wiadomością i myślę, że może być ona dosyć interesująca dla tych wszystkich,
którzy czasem lubią, albo muszą, albo mają taką potrzebę wypełniania różnego rodzaju ankiet.
Ankieta.tyflopodcast.net, swoją drogą. To jeszcze tak przypominamy, że warto tam zajrzeć i warto ankietę wypełnić.
A propos Tyflo Przeglądu. Natomiast to nie o tę ankietę chodzi, a chodzi o web-ankietę, czyli o taki polski serwis do tworzenia ankiet i oczywiście do wypełniania ankiet.
On jest dość złożony, można tam tworzyć naprawdę skomplikowane ankiety, takie kwestionariusze, warunkowe.
Zdecydowanie można tam się bawić bardziej niż na to pozwala chociażby Google Forms.
No i okazuje się, że właśnie webankieta stała się dostępna.
No, prawie dostępna.
Bo jeżeli chodzi o interfejs do wypełniania ankiety, no to już jest dobrze.
Już jest dobrze i tam użytkownik nie powinien mieć problemu z wypełnianiem żadnych pól.
Nawet jeżeli to są jakieś macierze, jakieś inne rzeczy tego typu, to już tu użytkownik powinien sobie poradzić.
Natomiast użytkownik na razie jeszcze nie bardzo poradzi sobie ze stworzeniem takiej ankiety.
Ponoć jest to w planach i ten panel do wypełniania ankiety ma być również dostępny.
Tak przynajmniej deklarują twórcy, że mają to gdzieś na liście.
Czy tak się stanie i kiedy? Do tego to na razie nie wie nikt.
Ale jeżeli mielibyście kiedyś do wypełnienia coś ze strony webankieta.pl
i byście na przykład mieli kiedyś jakieś gorsze doświadczenia z tym serwisem,
no to teraz możecie śmiało klikać, wypełniać, bo się da.
A teraz odbieramy telefon. Kto jest z nami?
To ja, Patryk z tej strony.
Cześć Patryku, słuchamy.
To znaczy, ja poniekąd chciałem odpowiedzieć sobie na pytanie
a propos tej funkcji, o którą pytałem, czyli
mów przy obudzeniu.
To chyba jednak trochę jest tak, jak jest przetłumaczone,
bo ja to teraz sprawdziłem.
I ta funkcja działa w taki sposób,
że jeżeli my obudzimy zegarek,
no to działa to tak, że po prostu voiceover poczeka,
aż skończy mówić chwilę i dopiero się potem zablokuje ekran.
No i działa to też w taki sposób, że jak przyjdzie nam powiadomienie
i mamy zablokowany zegarek, to voiceover faktycznie jak się obudzi,
bo przy opowiadomieniu on również to powiadomienie nam przeczyta.
Po trzecie, jeżeli nawet użyjemy tej takiej dyskretnej funkcji czytania godziny,
czyli dwukrotne albo trzykrotne wciśnięcie, dostnięcie zegarka, to w tym momencie
voiceover też nam przeczyta godzinę. A jak ta funkcja jest wyłączona,
No to w tym momencie VoiceOver nam tej godziny nie przeczyta
i nie będzie nam czytał powiadomień, które się na ekranie pojawiają.
Także to tak działa, ta funkcja.
Jeszcze mam takie pytanie.
Jak mogę zgłośnić sobie Apple Watcha bez centrum sterowania?
Bo na razie jedyny sposób, w jaki zgłaśniam, to jest w centrum sterowania i stuknięcie w głośność.
A jest na to w ogóle jakiś inny sposób.
Stukasz sobie dwukrotnie z przytrzymaniem, oczywiście przy wybudzonym ekranie, dwoma palcami i ciągniesz w górę albo w dół.
Ten voiceover taki wyda, dźwięk taki…
Trochę jak… coś poniekąd jak etykietowanie tych…
Tak, jest. Nie wiedziałem co to jest.
Tak, i wtedy w górę, w dół sobie ciągniesz.
I on ci chyba, i on ci procenty elegancko mówi.
A jest w ogóle jakiś…
Możesz tym bardzo precyzyjnie sobie co 5%,
a możesz jak sobie ruszysz niczym w Formułą 1, to…
Dokładnie.
Nie wiem, jak działa domyślnie koronka,
kiedy mamy załączoną nawigację koronką i kręcimy,
będąc na ekranie głównym z aplikacjami.
Myślę, że koronka przewija kilka ekranów sama z siebie.
Dokładnie.
Generalnie podstawowa funkcja koronki to przewijanie różnych list.
Jak jesteś na ekranie wszystkich aplikacji,
A to lista się przewija, na ekranie ustawień też lista się przewija, na tarczy zegarka no to przewija ci do widgetów albo do powiadomień, zależnie czy przesuwasz na górę czy na dół.
No i teraz dalej, jeśli coś odtwarzasz, czyli albo po prostu słuchasz jakichś multimediów, albo właśnie tak jak teraz rozmawiasz przez zegarek, to koronka wtedy reguluje głośność.
Jeśli strugniesz na jakiś suwak, to wtedy reguluje ten suwak.
Generalnie to jest takie kontekstowe działanie, ale generalnie przewija listy,
ewentualnie zmienia głośność, jak coś jest utwarzane.
A powiedzcie mi, czy da się zrobić coś takiego, że na przykład słucham sobie
czegoś na iPhone’ie na przykład, nie wiem, YouTube’a, przypuśćmy,
albo w ogóle czegoś na iPhone’ie, czego na Apple Watcha nie ma na przykład.
Idę sobie na przykład jeździć, schodzę na dół, nie biorę za sobą telefonu i chcę kontynuować słuchanie tego, co słuchałem na iPhone’ie, na zegarku.
Da się tak?
Nie, możesz jedynie zegarka sterować tym, co jest otwarzane na iPhone’ie, natomiast nie ma opcji przesyłania dźwięku, niestety.
A jeszcze jedno pytanie a propos tarczy,
bo mam teraz taką domyślną tarczę ustawioną,
która się tam nazywa Flux bodajże,
ale ta tarcza, jak sobie wchodzę w tarczę,
to mam tylko jakieś tam ustawienia cyfry,
cyfry arabskie zachodnie, jakieś tam kolory.
A w jaki sposób do tarczy…
Ja chcę na przykład mieć tarczę taką,
że na przykład mam na górze godzina,
Pod spodem data, a pod spodem temperatura i takie króciutkie, jaka jest pogoda.
I jak dodać te komplikacje, czy jak to się tam nazywa?
Czy ja muszę szukać jakiejś tarczy, która obsługuje dodawanie tych komplikacji?
Czy jak to tam jest? Bo ta Flux tego nie pozwala na to.
Nie ma takiego czegoś jak dodaj komplikacje.
No to nie wszystkie tarcze w sumie obsługują.
I różne tarcze, różne ilości tych komplikacji obsługują.
Tak, dokładnie. I też różne tarcze w różnie dostępny sposób przedstawiają też te informacje, więc niestety.
A mógłbyś, Maćku, powiedzieć jakąś taką tarczę, która właśnie by robiła to, co ja teraz powiedziałem, że chce na górze godzinę, pod spodem datę…
Wiesz co, ja chyba używam…
Ja chyba, jak ona nigdy nie pamiętam jak się nazywa…
Modułowy chyba się nazywa?
Modułowy chyba…
Może modularny.
Ona chyba ma najwięcej…
To chyba z pięć można wrzucić tych komplikacji.
Tak, to jest chyba tak.
Ale jeszcze jest jakaś ta…
Tylko nie wiem czy SE3 to obsługuje, jak to się chronograf nazywa?
Jest, jest coś takiego.
To ona chyba do ośmiu komplikacji generalnie,
więc możesz się też tym pobawić.
Tutaj też jedna fajna rzecz, tak à propos, można mieć tarcz kilka i gestami przesuwania dwoma palcami w prawo i w lewo przesuwać się między tymi tarczami, więc możesz sobie na przykład zrobić tak, że no masz…
Ten gest jest niestety domyślnie wyłączony i trzeba sobie wejść w zegar, w sensie albo z poziomu watcha w ustawienia i tam w zegar.
albo z poziomu aplikacji Watch na iPhone’ie właśnie w zegar i tam chyba pierwszy przełącznik zdaje się, nie pamiętam teraz, ale przesuń, aby zmienić tarczę zegarka.
Jakoś tak to się nazywa, teraz nie pamiętam, mogę zaraz sprawdzić. W każdym razie on jest wyłączony. Jak sobie włączysz, to wtedy dwoma palcami w prawo, w lewo na tarczę zegarka będąc możesz je zmieniać.
I wtedy możesz mieć jedną tarczę, gdzie masz więcej takich komplikacji informacyjnych, typu pogoda i tak dalej, a na przykład możesz mieć inną tarczę, na której masz skrót do tyktafonu, do wiadomości, do telefonu, nie wiem, tego typu rzeczy.
Nawet widziałem z myszkami kina dole.
I nawet mówi.
Zamierzam sobie ją włączyć jak Paweł.
Tak, to jest bardzo, bardzo ciekawe tarcze.
Nie wiem, kaczora Donalda jeszcze nie ma, szkoda.
Była to historia, ale znikło.
Łączyły się 26, niestety.
Oj, szkoda, szkoda.
No nic, to już na pewno tyle.
Tak, a jeśli jeszcze chodzi o ten gest
dwukrotnego stuknięcia dwoma palcami,
to się generalnie polecam nim
pobawić wszędzie, gdzie możesz.
A propos dyktowania,
a propos dyktowania choćby nawet,
Zaczynać dyktowanie to nie wiem,
natomiast kończyć na pewno dyktowanie się da,
odbierać połączenia też się da,
w dyktafonie zaczynać nagrywanie też się da,
zatrzymywać chyba też.
No generalnie jest sporo opcji,
które umożliwia na iPhonie ten gest magic tap,
tego magicznego stuknięcia na watchu też działa,
no więc polecam się pobawić.
No dziękuję bardzo za wszelkie podały. Już jestem mądrzejszy.
No od czego macie tefloprzegląd?
Dziękuję i do usłyszenia.
Trzymaj się. To teraz z Apple skaczemy do Windowsa. Pod Windowsem mamy NVIDIA, a w NVIDIA nowe dodatki.
Tak, mam nadzieję, że już mnie słychać. Mamy dwa konkretnie dodatki, z którymi chciałbym się z wami podzielić.
Są to bardzo proste generalnie dodatki, natomiast myślę, że wielu osobom się mogą przydać.
Oba z tych dodatków nie są w sklepie, więc tutaj po prostu będziecie musieli je sobie ściągnąć ze stron, które są podlinkowane.
Pierwszy dodatek nazywa się Ad Favourites. Jest autorstwa Tylera Spawiego, więc znów tutaj osoba pewnie wielu osobom znana.
Jest to dodatek, który generalnie ma za zadanie przywrócić tworzenie zakładek tak, jak się to robiło kiedyś w Internet Explorerze.
Co mam na myśli? W Internet Explorerze, kiedy dodawaliśmy sobie jakieś ulubione z menu,
to po prostu w systemie mieliśmy katalog ulubiony, no i w tym katalogu mieliśmy pliki url.
I te pliki można było bardzo łatwo sobie po prostu przenosić.
Chcieliśmy zrobić kopię zapasową, nic prostszego kopiuj wklej, wklejaliśmy sobie na jakiegoś pendrive’a
i mieliśmy kopię zapasową. Chcieliśmy pozamieniać jakoś te zakładki, jakieś foldery potworzyć,
znów nic prostszego, po prostu mogliśmy sobie te pliki poprzenosić.
Każda przeglądarka teraz ma swój jakiś magazyn na zakładki.
Natomiast każda przeglądarka cały czas w systemie Windows
jest jak najbardziej w stanie takie pliki otworzyć.
Więc jak ktoś ma takie zakładki zapisane, to cały czas może z nich korzystać.
Problem zaczyna się z tym, jak takie ulubione sobie tworzyć.
I właśnie tutaj przychodzi z pomocą nam ten dodatek,
który po instalacji dodaje nam dwie rzeczy.
Po pierwsze dodaje swoją kategorię do ustawie NBDA.
Mamy kategorię Add Favourites,
gdzie musimy po prostu wskazać mu folder,
gdzie te zakładki mają się zapisywać.
Uwaga, jeśli wpisamy ścieżkę ręcznie, to ten folder musi być utworzony.
Jeśli nie jest, to dodatek nam wyrzuci błąd.
Musimy sobie najpierw ten katalog otworzyć,
ewentualnie użyć przycisku Przeglądaj
i tam po prostu z eksploratora sobie ten katalog utworzyć.
Natomiast, kiedy już to zrobimy, no to, żeby taką zakładkę dodać, nic prostszego.
Po prostu w dowolnej przeglądarce, sprawdzałem to w Firefoxie,
jak i w Edge’u akurat, i to zadziałało.
Na stronie, którą chcemy dodać, naciskamy Alt NVA.
Wyskoczy nam okno dialogowe z dwoma polami edycji.
Oba będą wypełnione, ale też możemy je zmienić.
Pierwsze pole tytuł, więc możemy wpisać, jak ta zakładka ma się nazywać.
Domyślnie będzie to tytuł strony, drugie pole to jest adres URL
i tutaj będzie wklejony domyślnie adres strony, na której jesteśmy.
Naciskamy OK, usłyszymy piknięcie.
Jak usłyszymy piknięcie, to znaczy, że zakładka nam się zapisała.
No i to tak naprawdę tyle.
Nie możemy taką folderu z zakładkami otworzyć z poziomu dodatku,
to już musimy sobie zrobić sami.
Np. dodając sobie skrót na fullpicie gdzieś, żeby do tego folderu przejść.
No i tam po prostu znajdziemy plik URL,
który będzie zawierał adres do tej strony, nazwą pliku będzie tytuł tej strony.
No i jak na nim nacisniemy Enter, no to po prostu ta strona otworzy nam się
w domyślnej przeglądarce.
Dodatek na ten moment też nie pozwala tworzyć podkatalogów.
Jak ktoś chce mieć te zakładki jakoś inaczej zorganizowane,
no to tym też już musimy później zająć się ręcznie,
ewentualnie sobie jakieś podkatalogi utworzyć.
Natomiast jakby ktoś chciał w ten sposób bardzo prosto sobie takie zakładki tworzyć,
żeby później nimi zarządzać,
Ewentualnie nawet później podzielcie się ze znajomymi,
bo nic nie stoi nam na przeszkodzie, żeby taki katalog sobie, nie wiem,
przechowywać w dropboxie na dysku Google,
wysłać komuś taki zestaw, taki zakładek.
Jak najbardziej można i w ten sposób
po prostu możemy sobie tymi zakładkami zarządzać.
Bardzo prosty dodatek i myślę, że wielu osobom
może taki sposób pracy się spodobać.
Nie musimy doinstalować jakichś rozszerzeń dodatkowych,
które by nam to gdzieś synchronizowały,
bo tylko po prostu mamy takie bardzo zwykłe pliki,
którymi po prostu możemy sobie zarządzać tak, jak chcemy.
No i to jest pierwszy dodatek.
A drugi to jest dodatek z kategorii
no, co można zrobić, używając AI.
I tak tutaj będziemy mówić o tym,
że NVDA czasami może na niektórych komputerach działać wolnie.
Zwłaszcza tutaj mówimy o laptopach,
które posiadają mobilne procesory,
…które generalnie bardzo szybko przechodzą w tryb oszczędzania energii,
który w niektórych sytuacjach powoduje, że MVDA nam może reagować wolniej.
Ma to miejsce zwłaszcza na przykład z nowszymi procesorami Intel w laptopach.
To są procesory od 12. generacji wzwyż, ale nie tylko.
Bo okazuje się, że nowe Ryzeny na laptopach, ale na przykład też na mini-PC
też często mają takie problemy,
Bo wględu do tego samego pomysłu doszły dwie osoby praktycznie równolegle,
bo podobny pomysł miał James Day,
czyli człowiek, który pomagał przez wiele lat nad stworzeniem NVIDIA
i też jest znany z wielu innych rzeczy.
A drugą osobą jest znany wszystkim Talon,
który wiele też gier audio i innych programów stworzył.
Obaj mają komputery z procesorami Ryzen, właśnie mobilnymi.
i odkryli, że kiedy w menadżerze zadań w Windowsie
wymuszają wyższy priorytet dla procesu NVDA,
dla nvda.exe ustawiali wysoki priorytet,
ale też, teraz nie wiem jak to po polsku jest przetłumaczone,
zmieniali tzw. affinity, czyli generalnie chodzi o to…
To się chyba koligacja nazywało.
Koligacja, dziękuję, okej.
Czyli generalnie chodzi o to, na jakim rdzeniu
ma dany proces być uruchomiony,
No to MVDA zaczął reagować szybciej.
Jest to spowodowane po części tym,
zwłaszcza, że właśnie na tych mobilnych procesorach
teraz często jest tak, i to pewnie będą znały osoby,
które mają Maci, bo na Macach to się pojawiło jako pierwsze,
ale nowe procesory x86 też już takie rzeczy mają.
Mamy często tak, że mamy kilka rdzeni energooszczędnych
i mamy kilka rdzeni wydajnościowych.
I system Windows w przypadku MVDA nie zawsze rozmieszcza
ten procesor właśnie na takich procesorach wydajnościowych
i to faktycznie ma często wpływ na wydajność,
podobnie zresztą jak ten priorytet.
I w tym celu Jamie stworzył wtyczkę,
którą można po prostu tam…
Trzeba kod źródłowy wkleić w odpowiednie miejsce.
Natomiast Talon po prostu trochę za moją poradą w sumie,
bo tak akurat rozmawialiśmy w momencie, kiedy on wspomniał,
że to za każdym razem musi po restarcie NBA
wchodzić do jego menadżera, zadań tam grzebać,
co za każdym razem, a ja tak pół żartem zasugerowałem,
Słuchaj, to może niech Claude ci coś zrobi, bo ostatnio to się Claude’a dużo bawił.
No dobra.
15 minut później wypluł gotowy i to w pełni działający dodatek jeszcze z dokumentacją,
która chyba właśnie najwięcej błędów miała dokumentacja, bo tam o GitHubie na przykład
jakieś rzeczy się pojawiały, gdzie akurat ten dodatek na GitHubie nie jest.
Natomiast dlaczego mówię o tym dodatku?
No dlatego, że on po prostu ma więcej opcji konfiguracyjnych.
Nazywa się CPU Affinity właśnie i w komentarzu znajdziecie dwa linki.
Pierwszy to jest po prostu link do dodatku gotowego,
a drugi link będzie do kodu źródłowego, czyli do strony na git’cie Talon’a,
gdzie też możecie całą dokumentację tego dodatku przeczytać,
bo dodatek dodaje swoją sekcję do ustawień MVDA,
gdzie po prostu mamy pole wyboru, które nam pozwala ten dodatek włączyć
I kiedy go włączymy, to mamy do dyspozycji dwa pola.
Mamy listę rozwijaną, na której możemy ustawić priorytet procesu NVDA.
Warto ustawić sobie priorytet wysoki,
bo wtedy to będzie działało trochę prawdopodobnie szybciej.
A drugie pola pozwala nam ustalić,
na jakim rdzeniu, na jakich rdzeniach NVDA ma być uruchomiony.
Co tutaj warto wpisać, będzie zależało od konkretnego procesora.
A to jest generalnie wszystko w dokumentacji opisane.
No to gdzieś na przykład można sobie to chyba w MS Info sprawdzić.
Też można to sprawdzić w internecie.
Generalnie, jeśli chodzi zwłaszcza o te nowe procesory Intel,
to z reguły pierwsze rdzenie są rdzeniami wydajnościowymi.
Więc na przykład jakby ktoś sobie pisał 1, 2, 3, 4,
czy właściwie 1, 3, 5, 7 na przykład,
no bo tutaj mamy też tam hyperthreading tak zwany,
gdzie jeden rdzeń ma kilka wątków.
Tak możemy wymusić, żeby NVDA był uruchomiony na tych rdzeniach szybkich.
Kiedy już prowadzimy zmianę, które chcemy dokonać,
naciskamy OK.
Musimy też następnie NVDA zrestartować,
bo zmiany są dokonywane właśnie po starcie NVDA.
Natomiast przez to, że dodatek zawsze będzie się z NVDA uruchamiał,
to kiedy go skonfigurujemy,
to już te nasze ustawienia priorytetów będą za każdym razem stosowane.
I wiem właśnie, że w przypadku przynajmniej tych dwóch osób
…to faktycznie to realnie ma znaczący wpływ na wydajność MVDA, zwłaszcza np. na stronach internetowych.
Ponoć to faktycznie powoduje, że MVDA jest bardzo responsywny, więc jeśli macie laptopa i zwłaszcza jeśli korzystacie z niego często w trybie np. oszczędzania energii,
gdzie generalnie zegary procesorów są zmniejszane, no to ponoć właśnie w tych sytuacjach, po dokonaniu tych zmian, MVDA będzie działał dużo rzwawiej,
Nawet właśnie jeśli system przechodzi w tryb oszczędzania energii, a jednocześnie nie ma to ponad jakiegoś bardzo negatywnego wpływu na żywotność naszej baterii.
Także zwłaszcza jeśli macie laptopy, to gorąco polecam sobie ten dodatek ściągnąć i go skonfigurować, bo faktycznie, realnie może mieć pozytywny, znaczący wpływ na to, jak MPI będzie działał.
No to rzeczywiście fajnie, że tego typu dodatki powstają.
Ja pamiętam, że też coś kiedyś kombinowałem z priorytetami uruchamiania NVDA na jakichś komputerach i to faktycznie pomagało.
Tylko warto mieć na względzie też to i sobie z tego zdawać też sprawę, że NVDA czasem, jeżeli na przykład coś tam w nim samym się nam będzie zawieszało,
To efekt tego może być taki, że mając wyższy priorytet w NVDA, to możemy skutecznie powiesić sobie cały komputer.
Bo nic innego nie będziemy w stanie uruchomić z narratorem włącznie.
Więc to tak coś za coś i trzeba też mieć to na względzie, że się tak może stać.
A teraz to w takim razie z racji tego, że jeszcze Piotr ma kącik z grami,
Do którego przejdziemy za moment. A tutaj zarówno Paweł, jak i Maciek też co nieco w drobnych newsach mają swoich tematów.
To może właśnie przejdźmy do tego kącika.
Pierwsza rzecz to czat GPT, który, no, w ostatnim czasie, to jest kwestia, nie wiem, ostatnich trzech, czterech dni może tak naprawdę,
Jego dostępność się polepszyła
o tyle, że już nie trzeba,
na przykład, nieraz mówiłem,
wspominałem, kiedy poruszałem kwestię
chata GPT, że aby dostać się
do menu profilowego, ustawień itd.,
należy zmaksymalizować ekran
przeglądarki z tą stroną,
żeby to w ogóle było możliwe.
No teraz już na szczęście nie trzeba.
Generalnie po wejściu na stronę główną czata mamy w tym momencie tam stronę główną, prawda,
wyszukaj czaty, który jest elementem klikalnym, dostęp do biblioteki naszych wygenerowanych
przez GPT zdjęć, dostęp do tychże, no i właśnie menu profilowe, no i właśnie te obie rzeczy były za kurtyną pełnego ekranu.
Teraz już nie są. Jeśli chodzi o menu profilowe, ono nadal nie rozwija się tak, jakbyśmy sobie tego życzyli, czyli pod preśnięciu, voice over spacją.
Niestety to się tak łatwo nie rozwija, nie wyskakuje to menu.
…ale jeżeli sobie strzałeczką w dół to rozwiniemy, no to już to menu raczej zachowuje się całkiem przystępnie, całkiem dostępnie.
Kursor, to znaczy wszystko już jest odczytywane raczej pod kursorem jak ma być, już nie trzeba dawać strzałki w dół po to, żeby potem jeszcze raz dać w górę, żeby to łaskawie dany element został nam odczytany.
Już raczej wszystko reaguje responsywnie, jak ma reagować.
I jesteśmy sobie w stanie normalnie przechodzić
Enterem do konkretnych rzeczy, konkretne rzeczy aktywować.
Mało tego, menu pomocy, które jest pod menu,
da się teraz rozwinąć strzałeczką w prawo.
Też się dało, tylko że elementy nie były czytane.
Z uporem maniaka to się w dziwny sposób odświeżało
I wracało do tego jakby menu głównego, rozwijalnego.
Teraz już, wow, brawo, o dziwo, wejść się da.
I sobie różne rzeczy podejrzeć, takie jak, nie wiem, informacje o wersji
tej aplikacji webowej, tego serwisu webowego,
jak listę skrótów klawiszowych, jak możliwość zgłoszenia błędu, wreszcie.
Także tutaj dostępność na plus.
To, co jeszcze jest na minus…
Aha, a nie, to, co jeszcze jest na plus w sumie,
to to, że niektórzy to lubią, inni mniej.
Kiedyś, pamiętam, z Pauliną mieliśmy tutaj dyskusję,
czy to fajne, czy to niefajne, jak voice-over
tudzież inny screen reader odczytuje treści dynamiczne
dynamicznie to, co czat generuje.
W minionym tygodniu wyglądało to tak, że działało sobie to różnie razy,
to się wyłączało, trzeba było sobie odświeżyć czata w sensie Command Rm,
przeładować stronę, żeby na nowo zaczęło się nam generować dynamicznie,
znaczy odczytywać dynamicznie. Ale był też problem taki,
że VoiceOver jakby urywał albo w połowie, albo przy końcu wypowiedź, zwłaszcza jeżeli to była lista punktowana.
I też jedynym ratunkiem było odświeżenie strony.
Natomiast teraz to już też zostało na szczęście zażegnane.
I czy jeszcze coś było z plusów? Teraz mi wyleciało.
Natomiast z minusów jeszcze jest to…
A druga rzecz, taka będąca i plusem i minusem, jest taka, że niektórzy lubią sobie tak zapuścić,
znaczy pisać tekstowo, ale odczytywać głosowo to, co GPT wypluł.
Tylko tam jest jeszcze niestety ten standardowy, obleśny tryb głosowy, ten wiecie,
wolny Amerykanin mieszkający, znaczy Połak mieszkający w Ameryce i tak dalej.
No.
Dalej to coś obsługuje odczytywanie głosowe, niestety.
Pomimo, że tryb ten standardowy został niby wyłączony 9 września, ale okej.
W każdym razie to się nazywało przeczytaj na głos przycisk, czy jakoś tak się ten
przycisk nazywał. Jego przez długi czas nie było.
I nie wiedzieć, gdzie on był. Natomiast teraz on jest.
To jest w sumie może uznajmy za plus.
Natomiast za minus uznajmy jego lokalizację, bo on się teraz znajduje pod przyciskiem
więcej działań i to jest dokładnie takie samo, więcej działań do każdej
wiadomości, do każdej wiadomości odpowiedzi GPT.
I to jest dokładnie takie samo menu jak mamy w właśnie menu profilowym, czyli też
nie rozwija się od tak, tylko jak przy wyłączonej szybkiej nawigacji
wyskakujemy sobie strzałką, znaczy rozwijamy strzałką w dół,
to tam dopiero będzie przeczytaj na głos. Będzie tam jeszcze jedna opcja,
teraz nie pamiętam jaka, ale przeczytaj na głos tam będzie
i aktywowanie jej enterem pomaga.
Kurczę, tak się rozgadałem w tym newsie, że mogłem to dać jako osobny w ogóle.
Natomiast kwestia minusowa
Jest taka, że modele nadal, te starsze modele, jeśli chcemy z nich korzystać,
nie jest to menu dostępne. Mamy nadal taką samą sytuację, jak mieliśmy dotychczas
z menu pomocy, co się na szczęście poprawiło. Ale te starsze modele, to jest również
pod menu. Tyle, że tam niestety nic nie jest odczytywane i tam niestety już kursor
z uporem topielca, niechcącego być zanurzonym i utopionym, wynurza nam się.
Wynurza nam się z tego podmenu niestety, więc modeli stricte wybrać sobie w stanie nie jesteśmy.
I druga minusowa, druga rzecz na minus, to są jeszcze niestety ustawienia GPT.
Jak sobie wejdziemy w te ustawienia z pozycji menu profilowego, to nadal te sekcje nam się
zmieniają dynamicznie.
Jeśli idziemy sobie z voice-overem
strzałeczką w prawo, tam ogólne
kontrolki danych powiedzmy tam i tam
różne bezpieczeństwo i tak dalej.
No wiecie, te sekcje dotyczące GPT
to one są nam wybierane
automatycznie.
Nie zaś…
Czyli jak kursor je podświetli, one się
automatycznie niestety zaznaczają.
Co powoduje, że jak chcemy na konkretne
ustawienie się przedostać, to
Musimy od razu literką H iść do konkretnego nagłówka danej sekcji, no i wówczas jesteśmy w stanie się do niej przedostać, bo tabowanie też nam, używanie klawisza TAB nam przechodzi między tymi sekcjami, to znaczy przełącza nam na kolejne sekcje.
Więc to jest rzecz odnośnie do GPT, których było, jak widać, sporo.
Druga, już obiecuję, będą teraz same drobne rzeczy.
Voice Dream Reader otrzymuje wsparcie dla AI, jeśli chodzi o podsumowanie treści
zaimportowanych dokumentów, ale też z tymi dokumentami można sobie gadać.
Czyli mamy tam chatbota w VoiceDream Readerze, który nam, no możemy sobie
zadawać pytania do tych dokumentów, do treści i tak dalej, żeby nam różne wnioski
wyciągał i tak dalej, tłumaczył, nie tłumaczył i czego tam sobie jeszcze nie
zażyczymy. No to jakbyśmy dodali po prostu dokument, nie wiem, do GPT powiedzmy
czy do Gemini to raczej ten sam efekt będzie. No i jeśli chodzi o podsumowanie
treści tychże dokumentów, to również nie bawiłem się tym. Szczerze, rzucam bardziej zajawkowo, że coś takiego się pojawiło dla, że tak powiem, informacji, kto bardziej aktywnie używa
VoiceDreama i będzie się chciał tym pobawić. Zostało dodane jakieś, nie wiem, ja dostałem te aktualizacje albo dwa dni temu, albo wczoraj.
A ty masz, Maćku, tak jeszcze od razu zapytam, ty masz te wersje abonamentową, czy te darmową, znaczy darmową?
Te dożywotnią, tak powiem.
Dożywotnią, tak, tak, tak.
Tak.
Okej. I to działa u ciebie?
Wiesz co, nie bawiłem się.
A, w ogóle.
Ja tak rzucam za Jarkowo.
Okej, dobra. Natomiast to jeszcze taka moja tylko refleksja a propos podsumowywania różnych dokumentów i tekstów.
To ostatnio, skoro już o tym mowa, to tak jeszcze powiem, że miałem okazję sobie potestować
notebooka LM i czata GPT na takiej typowo technicznej dokumentacji.
No i muszę powiedzieć, że notebook wygrywa tutaj.
Dlatego, że on zdecydowanie bardziej kojarzy całościowo to, co jest w tej dokumentacji.
Czat GPT działa tak trochę jak takie inteligentne kontrolew i na zasadzie znajdź pierwszy wynik i krąż wokół niego.
Notebook LM składa wszystkie puzzle i potrafi naprawdę zrobić syntezę.
Bo to jest to okno kontekstowe nieszczęsne, gdzie Gemini, no bo Google LM, no skoro Google LM, Notebook LM bazuje na Gemini’u,
No właśnie, GPT w płatnej wersji, jeśli chodzi o czata, o interfejs czatu, to ma jedyne 32 tysiące tokenów, także pozdrawiam.
No i to właśnie tak jest, że on sobie wtedy fragmentuje, jak masz większy plik, to on sobie go fragmentuje i właśnie go kroi,
tak jak mówisz, ala kontrol F powiedzmy i potem kontrol G, czy jak to tam się przechodzi w namaku command G i tak próbuje szukać…
I tak czasem po, po, po, po macku, nie, więc…
Tak, tak, tak. I niestety, skoro już jesteśmy przy tym, to zauważyłem, że na żadnym skąd nie mogę udostępniać publicznie notesów.
Bo to jest w wersji płatnej Gemini’a.
Z całego pakietu Google AI Pro, niestety.
Szkoda.
Tak.
Szkoda, bo, bo fajne i chciałem udostępnić.
Nawet jeżeli dałem komuś link do udostępniania, jakby, do tego swojego notebooka,
to on mógł poprosić mnie o dostęp, tylko ja go nie mogłem przyznać.
I to też takie w sumie głupie, że wyświetla się komunikat, że wystąpił błąd.
No, bardzo dużo mi to mówi. Wystąpił błąd.
Wystąpił błąd, bo nie opłaciłeś subskrypcji, Dżemina.
No właśnie, nie wiem dlaczego, po prostu, że wystąpił błąd i tyle.
I tu się jakby kończy cała historia. Szkoda, szkoda.
Ale jest to niewątpliwie fajna sprawa. To tak, na marginesie.
Chciałem zapytać, czy u was w aplikacji mobilnej do YouTube’a też zaczęły się w polskiej wersji pojawiać streszczenia filmów?
Nie.
To mi po angielsku zaczęły się pojawiać i to nawet w dwóch wersjach. Kiedyś te opisy były takie bardzo…
Słuchaj, ale to jeszcze miało ręce i nogi, bo np. miałem opisane np.
autor rozkładał na pierwsze części maszynę do liczenia banknotów.
Tutaj pozdrawiam wszystkich, którzy oglądają…
Kurczę, uciekło mi towary modne na YouTubie np.
No i to był taki bardzo krótki opis.
A w pewnym momencie ktoś powiedział, a niech to będzie bardziej jak reklama.
I teraz te opisy bardziej mają takie jakieś dodatki typu
Zobacz ekscytujące wrażenia, jak to tam wszystko wygląda i na opisach już nie wyglądają tak fajnie.
Oczywiście tam jest przycisk zdobyć się więcej o tych opisach. Można dać łapkę w górę albo w dół oczywiście, ale są też często zadawane pytania.
Czy można to wyłączyć? Nie.
Coś czytałem, że jakoś nie wiem, chyba z… nie wiem, około miesiąca temu chyba, że Google coś takiego ma właśnie wprowadzać.
Pewnie na ten dzień po polsku też się pewnie to pojawi.
Ciekawe jak będą podsumowywać nasze Tyflo przeglądy.
Jeśli się podejmie.
W końcu biedny zhalucynuje i będzie z tego nic.
Powodzenia, drogie Google.
Tak. A propos, właśnie jeszcze pozostając troszkę przy notebooku LM i halucynowania,
no to ja podziałem sobie bardzo ambitny cel, prawda, żeby na dostępnym Apple’u
zrobić notatnik dostępny Apple. Wszystko fajnie,
linka grupowiczą podałem,
wszystko super. No tylko jak się okazało,
bo teoretycznie,
to jeszcze jak miałem tę płatną wersję
Google AI Pro, to
kwestia była taka, że tam, bo w darmowej wersji
możesz dodać do 50 notatników, no do 50 źródeł
w danym notatniku, a w tej wersji płatnej
do 300. No tylko niestety
Ten problem pojawił się przy około 180 źródłach.
Czekaj… 180? Jakoś chyba tak.
W każdym razie…
No, po pierwsze, przeszukiwanie wszystkiego,
bo ja to chciałem zrobić, żeby na wszystkich źródłach bazował, nie?
Że baza wiedzy ogólnie, że o co go nie zapytasz,
a będzie to wiedział, będzie miał te źródła podane,
to, że to będzie przeszukiwał.
Po pierwsze, trwało… zaczęło trwać zbyt długo.
To coś chyba w stylu, nie wiem,
chata GPT chyba trójki albo trzy i pół mniej więcej,
albo nawet jeszcze… i to jeszcze przy obciążeniach na serwerach,
więc to troszkę sobie trwało. Ponadto zdarzały mu się już
pojedyncze halucynacje, więc no coś tam ewidentnie jeszcze było nie tak,
ale to ja to testowałem z pół roku to było chyba temu,
więc być może to już też się poprawiło, zwłaszcza, że i Gemini 2,5 Pro
Robił się aktualizacja jakichś tam Flash chyba też.
No plus to, że te wszystkie podsumowania wideo.
Mamy wideokasty, tak zwane, jak to tak coś nazywa, podcasty?
O wideo właśnie tego typu.
O wideo też są, tak, tak, teraz też.
Tak, to to być może, że to się jakoś tam poprawiło, ale działało dziwnie.
Jeszcze będę musiał do tego wrócić, bo z Google się przeprosiłem
i zobaczymy co z tego będzie.
Ale dalej, jeśli chodzi o drobne newsy. Unicredit, czytam Unicredit, jak to tam się czyta, to tak powiem nowy, stary bank na polskim rynku, a żeby było śmieszniej, dawniej to był Ion Bank.
No i, no i właśnie, Ion Bank szczucił się tym,
że jego proces weryfikacji tożsamości był dla nas całkowicie niedostępny,
bo super wideo weryfikacja, znaczy po pierwsze selfie,
a po drugie chyba zdjęcie, a po trzeci wideo weryfikacja,
gdzie trzeba było sobie elegancko, niewidzącymi ślipkami przeczytać
wyświetlany tekst, wyświetlane cyferki, nie?
Czyli bardzo dostępny proces, prawda? Znawia się ironia.
Niestety Unicredit, który bodajże to rebranding był chyba dwa tygodnie temu czy jakoś tak,
niestety nadal to pozostawił, mimo ich deklaracji dostępności.
Ale jak oni w deklaracji dostępności wybiegli, jak się Skubańcy zabezpieczyli?
Czyli, no owszem, aplikacja z VoiceOver i TalkBack jest dostępna, ale w ograniczonym zakresie.
Jak w ograniczonym zakresie, to szkoda gadać. Niestety.
Więc jeśli ktoś liczył na to, że po 28, czy tam 6 czerwca, 8 chyba,
gdzie ten akt do dostępności wszedł, europejski, potem nasza ustawa implementująca,
że proces weryfikacji będzie dostępny,
no to się grubo przeliczył, grubo pomylił,
teoretycznie jest dostępna, znaczy teoretycznie.
Mówią, że w razie czego jesteśmy tu,
aby Ci pomóc tam i czat i coś tam.
A gdzie tam guzik? Prawda, nie ma niczego takiego.
Mało tego, jak kiedyś z Aionem
próbowałem tej przygody, jak Aion wchodził na polski rynek.
Próbowałem tam się nieskutecznie zweryfikować.
To do mnie zadzwonili, to coś tam się zainteresowali, a teraz
niestety tak wcale, że wcale, więc
oferta wydaje się być w sumie całkiem
atrakcyjna, więc gdyby ktoś chciał, to
pisać na infomaupaunikredit.pl
szturmować ich o brak dostępności, znaczy
o dostępność, żeby była, procesu
weryfikacji, choćby nawet naszym m-obywatelem czy
moim ID, czym tam jeszcze, no bo
bo w tym momencie jawnie łamią prawo.
To już rewolut w sumie jest minimalnie bardziej dostępny.
Mi się za tym drugim razem udało zweryfikować za pomocą selfie
i o dziwo kodu z SMS-a, nie?
Więc tak to jest niestety z Unicreditem.
Zaufanie na kredyt i to bardzo mocno.
Dalej jeszcze dwie rzeczy.
A propos AirPodsów
i redukcji głośnych dźwięków w ustawieniach tychże AirPodsów.
Jeśli jesteś człowiecze niewidomy, raczej se to wyłącz,
bo to w zamyśle ma chronić nasz słuch.
Jeżeli pojawią się głośne dźwięki,
jesteśmy na jakimś koncercie, powiedzmy, czy coś,
no to ma się wtedy włączać lekkie ANC, też dostosować.
Coś jak tryb adaptacyjny, ale jednak mniej agresywnie.
No w każdym razie, to niestety też działa, przy nawet lekkim wietrze i już gdzieś tam nam to lekko ANC włącza,
plus kichnięcie potężniejsze na przykład, czy kaszynięcie i takie mniej inwazyjne dźwięki, jeśli chodzi o natężenie.
To niestety włącza. Mało tego ja odkryłem też coś takiego, że nie wiem na ile to jest moje słuszne
albo i błędne wrażenie, nie wiem.
Natomiast jak ja wyłączyłem te redukcje głośnych dźwięków,
to echolokację, że tak powiem, bardziej czuję.
To znaczy te takie, no, odbicia powiedzmy tych,
tych, tych, tych na jakby…
jakieś fotoakustyczne o takie, nie?
Że, że na, nie wiem, skronią czy czołem odbieram też różne rzeczy.
Jak miałem tą redukcję głośnych dźwięków włączoną,
to jakoś tak ciężej mi z tym było.
A teraz jakoś wyłączyłem też mnie z tym łatwiej, więc…
Więc dziwne rzeczy się dzieją, ale raczej ta redukcja hałasu…
yy, redukcja głośnych dźwięków. No nie, redukcja hałasu może pomóc.
Kontrolowana, ale redukcja głośnych dźwięków może jednak zaszkodzić.
I ostatnia rzecz z moich drobnych newsów.
Eleven Music w Eleven Labsie.
W sumie takie dosyć chyba nawiązanie. Piotrek potem będzie mówił o Eleven Labsie.
A ja powiem o Eleven Music i Eleven Labs, że to w końcu zaczęło działać.
Tam jest przycisk, jak wygenerujemy sobie już treść i jest content, odtwarzana treść.
Nadal on nie jest w sumie tak zaetykietowany, że jest na pewnik zaetykietowany,
ale od czego mamy inteligentne rozpoznawanie voice over,
że on tam mówi, że być może muzyka.
I jak sobie w to klikniemy, to możemy sobie właśnie wybierać poszczególne dźwięki
i regulować ich głośność.
Włączyłem sobie to w sumie na chwilę i powiem szczerze, bardziej chyba mi to
przeszkadzało niż pomagało.
Wiadomo, taka muzyczka, czy dźwięk w tle generalnie…
Ale ty mówisz o tej funkcji, jaką nazywasz, soundscape, tak, w Readerze.
Tak, tak, tak, tak. O, o, o, no, no, no, no. To to właśnie. Tak.
I to właśnie, wiem, bardziej mi to, mam wrażenie, przeszkadzało niż pomagało.
Z tego co pamiętam, bo się tym krótko bawiłem,
to jest chyba zapamiętywane do każdego wygenerowanego artykułu.
To znaczy, do nowych też. Jeżeli generujemy sobie nowe treści,
Importujemy i udostępniamy Eleven Readerowi, to tam wybrane przez nas dźwięczki się włączają i regulować głośność też możemy i tak dalej.
Ja to finalnie wyłączyłem, bo mi to bardziej przeszkadzało niż pomagało, no ale funkcja jest. Gdyby się ktoś chciał tym pobawić, to może, bo po pierwsze działa, po drugie stało się odrobinę bardziej dostępne.
No i to z mojej drobnicy tyle.
No dobrze, to ja może zacznę od końca w sumie, bo jak wywołałeś temat Eleven,
to możemy od Eleven Reader’a zacząć, bo ja tutaj dotarłem do informacji, że trochę
pozmieniało się to, jak wygląda cennik
tej usługi. E-mailem przyszło i powiadomienie też dostałem push,
bardzo im tutaj… Pamiętasz może jak to wyglądało do tej pory?
Bo chyba było drożej z tego, co ja rozumiem.
Chyba tak, chociaż no było drożej, to prawda.
Teraz nie pamiętam o ile, ale było drożej.
No to może ja po prostu powiem, jak jest teraz, bo mieliśmy wcześniej tak zwany plan Eleven Reader Plus.
Teraz się to nazywa Eleven Reader Ultra.
…
Żeby to nie powiedzieć…
Nie, teraz jest tak…
Ale w zasadzie to były oba, nie?
I ten ultra był jakoś droższy, a plus był tańszy i…
Tak, no teraz mamy…
Teraz generalnie mamy tylko dwa plany
i sytuacja generalnie wygląda tak,
że w planie darmowym
możemy słuchać dowolnych materiałów
przez 10 godzin miesięcznie.
Natomiast gdybyśmy chcieli słuchać więcej,
to teraz plan Ultra kosztuje 11 dolarów miesięcznie lub 99 rocznie.
I w tym planie mamy, jak tutaj jest napisane,
no, zielimitowane słuchanie.
Tam później mamy tutaj informację, że przynajmniej z takim uczciwym korzystaniem,
tak fair use tak zwane, więc nie wiem, jakie tam dokładnie pewnie będą limity.
Natomiast przypuszczam, że one powinny być
Dosyć, dosyć duże, no i to faktycznie generalnie będzie się opłacało bardziej.
I mamy tutaj różne informacje, jak teraz to się będzie rozwijało.
Dla tych, którzy też zdecydują się na ten plan nowy ultra,
no to między innymi tam niebawem pojawią się nowe funkcje,
na przykład zaawansowane funkcje importu,
które na przykład będą w stanie inteligentnie pomijać stopki i nagłówki
w różnych plikach, jakieś bardziej rozbudowane narzędzia importu.
Swoją drogą, zarąbiam do informacji, o tym nie wiedziałem,
że Eleven Reader’s Address jest też dostępny w wersji przeglądarkowej.
A to jest też fajne, zwłaszcza gdyby nasza pozycja się zsynchronizowała.
Też w tej wersji Ultra mamy trochę więcej dostępu do…
Potwierdzam.
Potwierdzam i ładnie się wszystko zsynchronizuje.
I biblioteka, i też postęp czytania.
No to bardzo fajna sprawa.
Nawet jeśli ktoś chciałby znaleźć fajne narzędzia do słuchania książek,
zarówno na komputerze, niezależnie od tego, czy jest to Windows, Mac czy coś innego,
a smartfonem, czy iOS czy Android, to może Eleven Reader.
Mamy informację, że niebawem pojawi się w Eleven Readerze
dostęp do najnowszego modelu syntezy, czyli Eleven Labs V3,
który pewnie będzie brzmiał lepiej.
Nawet jest link na tej stronie, która będzie podlinkowana.
No właśnie, łączę, żeby zapisać ją do wczesnego dostępu.
A może Wam się uda do tego dostać.
No i też w tym planie Ultra możemy więcej plików sobie pobierać offline.
Chyba tam jest do…
do chyba 10 miesięcznych, ale tutaj też nie chcę skłamać,
bo generalnie to wszystko jest na tej stronie opisane.
Jeszcze zostając przy motywach,
ja i Maciek wspominał o tym,
że w VoiceDreamie pojawiło się podsumowanie plików i z nimi czatowanie.
Speech Central też podobnej funkcji się doczekał.
Nie sprawdzałem, natomiast faktycznie taka informacja się od developera pojawiła,
że najnowsza wersja jest w stanie nam pliki,
które do tej aplikacji ładujemy, podsumowywać.
Dzieje się to poprzez Apple Intelligence,
więc tutaj są używane te same modele,
co na przykład w Safari do streszczenia tekstów.
A więc no może to niestety nam po polsku nie zadziałać, chociaż może.
Trudno mi powiedzieć, czasem system wykrywa język i nam nie pozwala,
ale czasami nawet to zadziała, więc myślę, że to pewnie będzie taka kwestia,
że po prostu będzie trzeba to spróbować.
A nóż zadziała z polskimi materiałami również.
Co mamy dalej? Zostajemy w klimatach iOS-owych,
bo użytkownicy eSpeak’a NG mają z czego się ucieszyć,
bo pojawiła się jego nowa wersja beta, która jest bardziej kompatybilna z iOS-em 26.
Będzie link do tej wersji beta.
Z tego, co wiem, jakieś błędy z tym eSpeakiem były na iOS-ie 26
i generalnie ta wersja te błędy rozwiązuje.
Natomiast jeśli macie Maca i na tym Macu korzystacie z eSpeaka,
to tej wersji beta nie instalujcie,
Dlatego, że po prostu ta wersja beta nie ma w wersji na Maca.
Coś jest zdanie, jeśli ją zainstalujemy,
to po prostu zainstaluje nam się wyłącznie wersja iOS-owa eSpeak,
a ona uruchomi się na Macu.
Wyświetli nam się główne okno aplikacji w emulatorze iOS-a,
natomiast te głosy w systemie nie będą widoczne.
A więc to jak najbardziej jest dosyć duży problem,
który już do autora zgłosiłem.
Miejmy nadzieję, że kiedy pojawi się kolejna wersja beta
albo kiedy ta aktualizacja już po prostu pojawi się w App Store,
no to ten problem będzie naprawiony.
Ale z dobrych wieści dla tych, którzy korzystają z eSPEEK-a na Macu,
to najnowsza beta macOS-a naprawia taki irytujący problem,
który niedawno się w eSPEEK-u pojawił na Macu,
mianowicie czasami ten eSPEEK po prostu lubił przyspieszyć.
Jak czytaliśmy na przykład kilka kolumn w tabeli, nie wiem, finderze,
tak, mieliśmy kolumnę nazwa i później tam rozmiar data i tak dalej,
no to nazwę nam przeczytał z taką prędkością, jaką ustawiliśmy.
Dla następnych kolumn ta prędkość tam kilkukrotnie się zwiększała i to brzmiało bardziej jak bulgot niż mowa.
No na szczęście beta najnowsza macOSa ten problem po prostu naprawiła, więc problem okazał się chyba nie do końca po stronie Nispeak’a, a po stronie systemu.
A więc nawet z tą stabilną wersją Nispeak’a, którą możemy pobrać z App Store’a, to po prostu w najnowszej becie macOSa 26.1 to po prostu działa lepiej.
A propos aktualizacji różnych aplikacji na iOS-a,
to aktualizację otrzymał program Echo Box,
który niedawno tutaj pokazywałem.
Taki bardzo ciekawy odtwarzacz autorstwa Oriola Gomeza,
który teraz doczekał się wersji 2.0.
I co w tej wersji 2.0 się pojawiło?
No, z takich najważniejszych zmian to mamy wsparcie książek Daisy,
bo okazuje się, że też hiszpańska biblioteka
która oferuje książki właśnie w tym formacie.
Akurat polski DZDN też.
A więc teraz, jeśli taką książkę pobierzemy i załadujemy do Echo Boxa,
to aplikacja będzie w stanie nam tę książkę załadować.
Możemy wtedy np. nawigować po rozdziałach
i sobie w ten sposób tę książkę czytać.
Mamy natomiast tutaj informację, że to tylko działa z książkami audio.
Nie mamy dostępu do tej warstwy tekstowej.
Natomiast a propos folderów, które mają stanowić jedną całość,
to teraz mamy w aplikacji bardzo łatwy dostęp do tego,
żeby dowolny folder skonwertować do jednego elementu.
Czyli jeśli załadujemy książkę, która nie jest książką Daisy,
ale mamy w folderze kilkanaście plików w MP3,
które stanowią jedną całość,
to teraz ustawiamy się na takim folderze w bibliotece,
kiedy już go dodaliśmy do aplikacji.
Na czynnościach wybieramy opcję
Skonwertuj do książki, chyba jakoś tak się to nazywa.
To po prostu aplikacja przekonwertuje taki katalog jako pozycję w bibliotece.
Będziemy mieli informację o całkowitym czasie trwania
wszystkich plików w takim katalogu.
Możemy sobie taki katalog jako jedną książkę odtworzyć
i wtedy mamy dostęp do nawigacji po różnych interfałach.
Tak pokazywałem, tymi gestami trzema palcami
możemy bardzo precyzyjnie po plikach nawigować.
Jeśli otworzymy listę rozdziałów, to każdy plik będzie jednym rozdziałem na tej liście.
Działa to tak, jak powinno. Bardzo fajnie to działa.
Poza tym mamy jeszcze nowe ustawienie, które można włączyć.
Po włączeniu, kiedy zatrzymujemy odtwarzanie,
automatycznie nam może wstawić zakładkę w miejscu,
gdzie znaleźliśmy przycisk pauza.
To jest coś, co może niektórym osobom się przydać.
po prostu program może automatycznie nam
takie zakładki tworzyć.
Co to mamy dalej?
No wracamy do tematów bad systemów Apple, bo iOS 26.1,
kiedy już pojawi się w wersji stabilnej,
przyniesie nam bardzo ciekawą funkcję i to myślę, że ucieszy wiele osób, które
na swoich urządzeniach pracuje z kilkoma językami jednocześnie, bo
dzięki tej opcji będziemy mogli wywalić kolejną rzecz z pokrętła, bo Apple
Dwa nowe polecenia, domyślnie one są nieprzypisane, które pozwolą nam zmienić głos.
Więc mamy polecenie następny głos i poprzedni głos.
I możemy sobie te polecenia po prostu przypisać, żeby szybko zmieniać głos.
Ja to zresztą mogę teraz demonstrować.
Może odblokuję sobie telefon.
W tym momencie mówi do mnie Elkwins.
Ale załóżmy, że chciałbym sobie przeczytać coś po polsku.
Więc teraz sobie użyję gestu przesunięcia czterema palcami w górę,
akurat sobie tak to przepisałem.
Cztery palce w górę, a dół, żeby zmieniać głosy.
I jeszcze raz. O, i proszę bardzo, mam głos Ewy.
No i mogę tutaj sobie tym głosem nawigować.
I teraz gdybym musiał wrócić do eloquence’a,
to teraz przechodzę czterema palcami w dół
i ten głos mi się zmienia z powrotem.
Tak że bardzo mnie to ucieszyło.
To jest kolejna rzecz, którą gdzieś mogłem usunąć
To jest pokrętła, która teraz ma naprawdę bardzo mało rzeczy dzięki temu.
No i właśnie, jeśli korzystacie z kilku języków na swoim iPhonie,
to pewnie was to też może ucieszyć, bo to jest bardzo fajna sprawa.
Był iOS, to może teraz coś o Androidzie.
Tutaj bardziej smutna informacja i bardzo krótka,
a mianowicie serwis Accessible Android donosi,
że dwie bardzo popularne wśród osób niewidomych aplikacji,
Mianowicie Prudence, Screen Reader oraz V-Radio zniknęły ze sklepu Play.
Miejmy nadzieję, że jest to tymczasowa sytuacja.
Obiecuję, że jeśli te aplikacje do sklepu Play powrócą,
to o nas o tym poinformują.
Natomiast na ten moment, gdyby ktoś chciał sobie
albo Prudence, albo V-Radio ze sklepu Play pobrać,
to niestety tego nie możemy zrobić, bo tych aplikacji tam nie ma.
Jeśli ktoś ma te aplikacje zainstalowane,
No to one cały czas będą działać, natomiast po prostu wszelkie aktualizacje nam się, przynajmniej na ten moment, nie pojawią, więc miejmy nadzieję, że tutaj Prudence Interactive i nie wiem, czy kto jest tutaj deweloperem, V-Radio, czy też właśnie Prudence, czy jakaś inna firma, upadają się z…
To jest aplikacja chyba widzącego dewelopera. To nie jest jakaś związana bardzo z naszym środowiskiem. To już długo, długo już jest na rynku.
Ale tutaj popularna właśnie też wśród osób niewidomych,
więc też tutaj na to Accessible Android zwrócił uwagę.
Miejmy nadzieję, że te aplikacje do sklepu Play wrócą,
zwłaszcza biorąc pod uwagę, co się z Androidem dzieje,
jeśli chodzi o sideloading niebawem.
Więc tak, to był Android.
A teraz Windows.
Znów Paperback się pojawi w drobnych newsach.
Ostatnio mówiliśmy o tym, że Paperback doczekał się dużej aktualizacji,
która dodała np. twarcie dla plików pomocy,
wiele innych ciekawych rzeczy.
No i doczekał się jeszcze jednej takiej równie dużej aktualizacji,
wersja 0.5,
znowu dostępna zarówno w wersji przenośnej, jak i instalacyjnej.
Ostatnio Defender mi instalator wywalił,
więc niestety nawet to już nie działa.
Po prostu musiałem ten instalator zezwolić
i potem udało się program zainstalować.
Natomiast ostatnio były pliki pomocy,
a teraz mamy kolejne dwa formaty,
które możemy w paperbacku otworzyć, mianowicie są to pliki Microsoft Word,
czyli pliki doki.exe oraz mamy też prezentację PowerPoint,
więc też możemy w bardzo łatwy sposób sobie w takim prostym widoku z polem
tylko do czytu prezentację czy pliki Word w bardzo łatwy sposób czytać.
Mamy też dużo poprawek, jeśli chodzi o znów otwieranie różnych formatów,
tutaj poprawki z ePubem, nowa biblioteka do otwierania plików zip,
…co powinno po prostu pozwolić na otwieranie większej ilości książek, które wcześniej nie działały.
Poprawki ze spisem treści w plikach HTML.
Ale z takich ważniejszych rzeczy.
Pliki HTML i Markdown teraz właśnie spis treści wspierają,
bo program po prostu automatycznie przeanalizuje wszystkie znagówki w pliku
i w ten sposób sobie zbuduje taki spis treści.
Tytuł dokumentów HTML będzie w oknie aplikacji wyświetlany, jeśli mamy tytuł dostępny.
Komunikacja z szczytnikami ekranu została zmieniona z używania biblioteki Universal Speech na obszar dynamiczny,
czyli tutaj w Windowsie też mamy tzw. live regiony, tak jak w ARRI w internecie.
No i dzięki temu po prostu Paperback teraz, jeśli będzie chciał jakieś komunikaty przez szczytnik ekranu podać,
to będzie działało z każdym szczytnikiem ekranu.
Między innymi jest wymieniony narrator, ale też DSR bez problemu takie obszary czyta.
Więc generalnie to po prostu będzie ze wszystkimi współczesnymi czytnikami ekranu działało.
I Dawid Oper nie musi tutaj długo łączać kolejnych bibliotek, które powodują, że program po prostu będzie większy.
W oknie, które pyta nas, w jakim formacie chcemy dany plik otworzyć, jeśli jakieś nieznane rozszerzenie otworzymy,
teraz możemy zdecydować, czy ten dany plik ma być otwarty jako plik tekstowy,
Mówiłem to chyba ostatnio, ale znowu się przychylę do tego komentarza.
To już jest naprawdę bardzo sensowna alternatywa dla Curida.
Powiedziałbym, że pod wieloma aspektami już go przewyższa.
Chyba jeszcze nie ma nawigacji po tabelach, ale wcale się nie zdziwię, jak lata dzień.
Pewnie coś takiego też w tym programie się pojawi.
I ostatni drobny news ode mnie.
Mianowicie tutaj coś dla muzyków, którzy korzystają z kontrolerów od firmy Native Instruments,
w których czasami trzeba też zaktualizować oprogramowanie.
Do tej pory robiło się to narzędziem, które było dla nas niedostępne,
a więc musieliśmy pomagać sobie OCR-em.
No, Andrej Lewis donosi, że to już jest nieaktualne,
bo narzędzie do aktualizowania, oprogramowania
dla tych urządzeń, przynajmniej dla tych najnowszych, Mark III,
po prostu dostępne już jest, zarówno na Macu, na Windowsie.
Andrej sprawdzał na Macu i zgłasza, że to działa.
Też sprawdzała to inna osoba na Windowsie.
Mamy informację, że na obu systemach to narzędzie do aktualizacji oprogramowania
jest już dla nas dostępne, co jak najbardziej może cieszyć.
Native Instruments ostatnio faktycznie o tą dostępność dba,
może z małym poślizgiem, ale faktycznie te nowe urządzenia
już dla nas też stały się dostępne.
To był ostatni drobny news ode mnie, ale to jeszcze nie jest koniec,
bo tutaj widzę, że Paweł też ma przygotowaną informację.
Tak, zgadza się. I tutaj mam pytanie, Michale, czy mogę prosić o udostępnienie ekranu?
A to chwila, moment.
Bo chciałbym coś z Wami przetestować, to znaczy ja już to przetestowałem w innej konfiguracji,
ale jestem ciekaw, czy Zoom, podobnie jak Jitsi, polubi ten mój nowy trik,
bo trik tyczy się tego, jak można by zrobić tak, żeby udostępnić ekran z dźwiękiem,
ale nie puszczać dźwięku screenreadera.
Albo puszczać tylko dźwięk screenreadera.
Bo zdarza się czasem tak, że chcemy coś udostępnić,
na ekranie jakąś prezentację chcemy pokazać.
Dziękuję.
Albo po prostu puścić jakieś nagranie.
U nas się to często zdarza.
Chcemy puścić jakieś nagranie konkretne
i ten czytnik ekranu nam się odzywa
razem z tym, co dziękujemy za to,
że w stosunku do mnie macie taką cierpliwość.
No ale gdybym mógł, to bym tego chętnie uniknął.
No i teraz spróbujemy.
I okazuje się, że słyszycie teraz dźwięk.
Na razie tak.
I zobaczmy teraz.
Czy teraz dalej słyszymy dźwięk?
Nie, nie słyszymy.
Nie słyszycie.
Teraz słyszycie.
Teraz tak.
Tak jest.
Podzielony dźwięk wyłączony.
No więc trick, jak widać, działa.
A trick polega na tym, żeby…
I na pewno działa to w NVIDIA.
Pytanie, jak to jest z…
Ja już zakończę udostępnianie, bo więcej nie potrzebuję.
Jak to wygląda w JOS-ie na przykład.
Jest taka funkcja, jak podział dźwięku.
Uaktywia się ją NVIDIA Alt S.
Czyli Insert lub Caps Lock Alt S.
I ona służy do tego, żeby rozdzielić tam po kanałach,
Gdzie ma być głos syntezy, a gdzie ma być dźwięk całej reszty programów, które mamy na komputerze.
No i ktoś na stodonie podrzucił, że to może działać, ale niekoniecznie musi i coś tam.
No i ja to postanowiłem sprawdzić dziś z moją koleżanką w pracy na GC, na Chrome’ie.
I rzeczywiście to zadziałało.
Trick polega na tym, ażeby NVDA wysłać do lewego kanału, a wszystkie inne dźwięki do prawego.
I tu jedna uwaga, to wszystko będzie fajnie,
dopóki nie będziemy udostępniać dźwięku stereo.
To prawda, też o tym pomyślałem, a teraz udostępnialiśmy w mono, tak?
Domyślnie zawsze jest w mono.
Możesz spróbować jeszcze, zróbmy test.
No dobrze, mogę to zrobić, to poczekaj.
Ja tu wymuszę…
dźwięk stereo.
I teraz?
A teraz nie.
A widzisz, ja przypuszczam, że tylko…
I teraz słyszę w jednym kanale taki dźwięk od NVIDIA, w prawym kanale.
Od Windowsa to chyba nawet.
To był Windows, ale nie słyszysz syntezy.
Nie słyszę syntezy, aczkolwiek obawiam się, że jak będziesz chciał nam udostępnić jakiś dźwięk, to będzie on tylko w jednym kanale.
No tak, jest taka opcja. Nie mam teraz pod ręką…
Nie, było takie pyknięcie w jednym kanale.
A to moment…
Było pytanie 3.
Tak, i jest w prawym kanale.
W prawym, no.
Okej, w porządku.
No dobrze.
Yyy…
To by…
oznaczało…
O, już.
Już ustawiłem.
To by oznaczało, że podział dźwięków działa w ten sposób,
że NVIDIA jest rzeczywiście jakoś odizolowany od reszty dźwięków.
Jest jakoś odizolowany od reszty dźwięków i to, co idzie na udostępnianiu ekranu,
czyli ten mixdown, to jest to, co jest wyrzucone na prawy kanał.
To jest jakby ten system output, a NVIDIA jest z tego system outputu odczepiony
I go nie słychać wtedy.
I pytanie się rodzi, czy ktoś byłby w stanie na bazie czegoś takiego napisać addon, który osiąga tylko to,
że odczepia się NVDA od systemowych dźwięków, ale niekoniecznie musi iść na jakiś tam inny kanał.
To jest dobre pytanie. Ktoś może chcieć się tym pokombinować. Ktoś nie musi chcieć.
Natomiast, no tak to działa, gdybyście potrzebowali na przykład szybko zmieniać czy NVIDIA czy inny czytnik ma być słychać, kiedy udostępniacie ekran, czy nie, no to możecie śmiało kombinować i gdzieś takie rzeczy robić, także…
A umówmy się, bardzo rzadko jest sytuacja taka na jakichś prezentacjach, tego typu spotkaniach.
Tak, no u nas to się przydaje, żeby ten dźwięk był stereofoniczny, kiedy robimy jakieś audycje.
Natomiast zwykle to nie ma takiej potrzeby, to mono w zupełności wystarczy.
To prawda. Także kiedy ja coś na przykład w pracy prezentuję, to najczęściej.
Znaczy no, na 100% tak w przypadku, bo ja nawet nie wiem, czy Chrome, bo zazwyczaj przez przeglądarkę, przez Chrome’a wchodzę,
czy Chrome nawet jest w stanie wysyłać w stereo, tak poprzez to standardowe udostępnianie ekranu.
No ale taką poradę podrzucam. To jest jedna rzecz, a druga rzecz to coś dla programistów,
bo na Uniwersytecie Santa Fe w Argentynie grupa naukowców stworzyła program w Javie
jako taki pewnie koncept, więc możecie się w sumie pobawić, zobaczyć, czy Wam się takie coś podoba,
który strukturyzuje kod, czyli oznacza początek i koniec różnych struktur w kodzie źródłowym,
który powstaje czy w C, czy w C++, czy w Javie, czy w Pythonie.
Sama aplikacja jest w Javie.
Można ją ściągnąć ze strony cimae.info.
Strona jest po hiszpańsku, program być może też.
I kto wie, jeżeli dużo osób się przekona do takiej formy prezentacji kodu,
to może dałoby się to zasugerować jako jakąś funkcję np. w ES Code.
Takie rzeczy, tego typu projekty często udowadniają, że jakąś funkcję da się wprowadzić, że ona może i nawet jest przydatna.
No ale żeby miało to szersze zastosowanie, to musiałyby to zaadoptować jakiś większy projekt, jakieś większe środowisko, w którym tworzymy.
I ja w tym miejscu się już raczej z Wami pożegnam.
Do usłyszenia znów, dzięki za Waszą obecność dziś.
No i do usłyszenia ponownie na antenie Tyflu Radia.
Z mojej strony audycja leci prawdopodobnie dalej.
No, witam Was.
Cześć Sylwestrze, słuchamy Cię.
Ja mam takie pytanie, już Paweł mnie uciekł, ale dobra.
Ja mam pytanie do tych streamerów, tych odtwarzaczy sieciowych.
Szukam odtwarzaczy takiego, żeby można było sterować za pomocą
Windowsa na PC, aplikacji na Windows, nie z pilota.
Czekam i nie mogę. Na YouTubie przekręcam, przewalam i nie mogę dojść do końca.
To jest też opcja sterowania przez stronę internetową, co można na Windowsie zrobić.
Ta strona już jest teraz bardziej dostępna niż kiedyś, więc tutaj Sonos obiecał, że poprawi tą dostępność.
Tylko pytanie, co dokładnie chciałbyś na tym urządzeniu wsłuchać?
Chciałbym wsłuchać podcastów czy radia internetowego.
No to spokojnie, Sonos obsłuży takie rzeczy jak najbardziej.
Natomiast jeszcze, jeszcze Sylwestrze, ewentualnie jeszcze wejdę tylko Ci w słowo. Zerknij sobie, ja w tym momencie nie pamiętam, jak to dokładnie jest, ale zerknij sobie na TyfloŚwiat, na taki artykuł, który tu bodajże Radek Morawski opublikował w TyfloŚwiecie, na temat streamerów Vim, a właściwie V, a nie V i i my, o tak to się pisze, V i i m.
Ja teraz nie pamiętam jak te streamery się zachowują i czy da się je sterować nimi z poziomu Windowsa, ale zerknij sobie na ten artykuł, no bo on opisuje te sprzęty z naszej perspektywy.
Więc myślę, że może być to dla ciebie jakaś podpowiedź.
A drugie pytanie, czy będę mógł urządzenie aploskie dostać
MediaExpert albo na Unecie, albo taki panu mnie tam blisko
z sieci komputerownik tam ma, znaczy pod szyldem prowadzi sklep.
Czy będę mógł dostać takie urządzenia?
To znaczy sprzęt EPU?
No nie powinno być problemu.
Tak, nie powinno.
Jeszcze, Michale, prośba do Ciebie, wyślij mi ten drive audycji.
Okej, postaram Ci się potem to podesłać.
Nie mam smutną taką informację. Umarł mi kolega Mariusz Śladzki.
On chyba pisał w pierwszych tylu podcastach, komentarze, do 19 roku pisał, aż po 20 roku już nic nie pisał.
Daje tak smutno, wiadomo.
Znaczy komentarze ten pisał. Coś tam na tym świecie coś tam pisał chyba, ale nie mogę tego przełamać.
Pierwsze chyba te odcinki.
No właśnie, uciekł mi Paweł, bo chciałem mu zadać pytanie, uciekł mi.
Dobra, ja z wami się pewnie pożegnam.
Dzięki za telefon, pozdrawiamy cię serdecznie.
Do usłyszenia. No dobrze, to teraz przejdźmy do gier.
A jeszcze zanim, to bym…
A propos jeszcze Eleven Readera i subskrypcji i godzin, które nam zostały na szczęście, w sensie godziny zostały, te 20 godzin do wykupienia za 15 złotych i 40 godzin za 30 złotych.
Ale żebyście się też nie nacieli, bo dawniej w godzinach niczego o subskrypcji raczej mowy nie było.
Natomiast teraz pierwszą opcją, i tą wybraną z tego co wiem,
w tych godzinach stricte nie w subskrypcji,
jest właśnie skrzętnie przemycona miesięczna subskrypcja.
Jakoś tam jest napisane, że słuchaj,
nielimitowanie czegoś tak,
24 na 7 za 90 zł.
No to właśnie, co to oznacza?
A no subskrypcję miesięczną za 90 zł, także jeśli nie preferujecie subskrypcji, a chcecie godziny stricte, to no to miejcie tego świadomość, że to jest zwykłe sobie jeść.
To jest w ogóle ciekawe, bo tutaj no mówią, że cena teraz 11 dolarów, a 11 dolarów to to to to to się nie równa 90 złotych, więc to w ogóle ciekawe.
Co to za subskrypcja?
Wiesz co, nie wiem, no w tym polskim na na koncie jest właśnie 90…
Może ta może ta nie jest na stronie?
Złotych miesięcznie, miesięcznie dobrze mówię.
999 rocznie.
Okej, to może jeszcze te plany nie wyszły, albo…
Bo to chyba takie ceny właśnie były, no.
Były, no właśnie.
Więc może one nie są jeszcze zaktualizowane.
Te ceny na stronie jest informacja, że obowiązują o 13 października,
więc no teoretycznie już te niższe ceny powinny obowiązywać.
No właśnie, więc no tutaj warto faktycznie się je naciąć.
A my teraz chwilę porozmawiamy o grach.
Akurat dzisiaj będzie krótko, bo ja mam dwie wiadomości,
też tutaj Maciek ma jedną.
O czym ja bym wam chciał opowiedzieć?
O grze, która wyszła tutaj już Patryk trochę wspomniał,
że coś się pojawiło. A co się dokładnie pojawiło?
Pojawiła się gra Blind Survival.
Pojawiła się ona zarówno na Steamie, jak i na portalu itch.io,
więc możecie kupić, jak kto woli.
Przypominam, że jeśli kupicie na itch.io, to mamy wersję
…bez jakichkolwiek zabezpieczeń i też wtedy deweloper dostaje trochę więcej, bo Steam bierze chyba trzydzieści, no, teraz nie pamiętam dokładnie ile, ale wiem, że generalnie na Itch.io deweloperzy dostają więcej przychodów z tego, jak my taką grę kupimy.
Natomiast o co chodzi w tej grze? Jest to gra przygodowo-strzelankowa, tak bym to nazwał, z opisu.
Bo gramy generalnie z perspektywy pierwszej osoby i musimy odnaleźć się w świecie, który został zaatakowany.
Czy w tym świecie pojawiły się jakieś zombie.
Byliśmy na jakimś obozie, na którym zgubiliśmy naszych znajomych.
I generalnie naszym zadaniem jest znalezienie tych znajomych i wydostanie się z tego miejsca, w którym jesteśmy uwięzieni.
Uwięzieni. I czego możemy się spodziewać według dewelopera?
Możemy spodziewać się gry, która jest w pełni dostępna dla osób niewidomych.
Zarówno używając API, jak i czytników ekranu.
Jest też niedawno dodany tryb NVDA, czyli tutaj moglibyśmy sobie teksty tłumaczyć.
Jest dźwięk binauralny, gra jest sterowana zarówno klawiaturą i myszką lub padem.
Gdyby ktoś chciał grać na padzie, to też jest taka możliwość.
No i co będziemy w tej grze robić?
No, będzie dużo eksploracji, właśnie z perspektywy trybu pierwszoosobowego.
Będzie walka z zombie i tutaj możemy to robić dowolnie,
bo mamy zarówno broń palną i możemy strzelać z dystansu.
Mamy też walkę w ręcz i mamy też skradanie,
więc możemy też zadawać krytyczne obrażenia,
skradając się do tych zombie i je atakując na różne sposoby.
Mamy też różne minigry.
Czasem nie będziemy musieli jakieś bąby rozbrajać,
ale też mamy informację, że jakieś inne niespodzianki w tej grze się pojawią.
Jakie? Nie wiem, bo po prostu tak wspominałem,
nie zdążyłem jeszcze tej gry ograć,
no bo pojawiła się dzisiaj.
I co to jeszcze?
Mamy jeszcze kilka trybów nieskończonych,
więc jeśli już przejdziemy całą fabułę,
a ponoć fabuła nie jest jakoś bardzo trudna do przejścia z tego,
co czytałem na forum,
to możemy po prostu sobie grać w trybie takim przetrwania.
Gdzie jesteśmy atakowani przez coraz większe ilości zombie
i po prostu musimy przetrwać jak najdłużej.
No i pewnie tam też mamy jakiś wynik, listę najlepszych wyników,
na którą możemy się wpisać.
Mamy też różne osiągnięcia i wyzwania,
które możemy sobie przechodzić i odblogowywać,
więc też nam to dodaje trochę grywalności do tej gry.
Gra, tak jak wspominałem, jest dostępna zarówno na system Windows,
jak i Linux.
Można ją zakupić zarówno na Steamie, jak i na itch.io i na kilka dni mamy zniżkę na start, która np. patrząc na Steamie, gdzie mamy ceny od razu podane z włodówka, to jest zniżka 20-procentowa.
I grę możemy kupić w tym momencie za około 37 zł, cena regularna to 45 zł.
I ta promocja kończy się 21 października, także jeśli lubicie takie klimaty trochę horrorowe,
no to myślę, że warto sobie tą grę sprawdzić.
I druga informacja ode mnie to coś dla tych, którzy lubią bijatyki,
natomiast tutaj jeszcze jest to gra, która musi się trochę rozwinąć.
Nawet dla osób liczących, ta gra jest w tzw. wczesnym zastępnie w wersji beta.
Mianowicie jest to gra, która albo będzie czytana po polsku 2XKO, albo po angielsku 2XKO.
Nie wiem, który sposób wymowy będzie tutaj w Polsce bardziej obowiązywał.
Natomiast jest to bijatyka, dodatkowo bijatyka darmowa, bo to jest gra typu free-to-play,
Osadzona w uniwersum League of Legends, więc jeśli ktoś kojarzy League of Legends, LOLa, może bo macie osoby, znajome osoby, widzące, które w to grają, albo na przykład oglądaliście fenomenalne seria na Netflixie, jeśli nie to gorąco polecam swoją drogą, no to mniej więcej wiecie o jakim uniwersum mówimy, no generalnie League of Legends sam w sobie jest wieloosobową grą, tak zwaną MOBA, to jest gra pierwszoosobowa, coś w stylu strzelanki, ale nie do końca, no więc niestety nie jest to gra dla nas bardzo dostępna.
No ale takie bijatyki 2D, czyli tutaj typu Mortal Kombat na przykład,
no to dostępne dla nas mogą jak najbardziej być.
Więc dużo osób czekało na tą grę, żeby się w końcu pojawiła.
No i gra się pojawiła. I co możemy o niej powiedzieć?
No to niespodzianka, bo Riot Games, czyli deweloper tej gry,
trochę pomyślał o Osobach Niewidomych, bo mamy tutaj nawet jakąś dostępność.
Mamy udźwiękowienie jakieś, które musimy sobie włączyć sami,
odpowiednio przechodząc do ustawień albo OCR-em,
albo np. czytając posty na forum Audiogames.
Ludzie generalnie znaleźli sposób, jak sobie to udźwiękowienie włączyć.
Natomiast niestety to udźwiękowienie na ten moment działa po pierwsze na samplach,
a więc nie mamy takiej typowej syntezy.
A co za tym idzie, bardzo dużo rzeczy w tym momencie czytane niestety nie jest.
Menu główne jest czytane, tam wiele podmenu też czytane jest, na przykład ustawienia.
Ale na przykład lista ruchów danej postaci, czy lista komposów tak zwanych,
to czytane w tym momencie nie jest, nie są czytane różne opcje.
Personalizacji naszej postaci, ekran wyboru postaci nie jest czytany,
więc trzeba się tego po prostu nauczyć na pamięć.
Ale to jest czysty dostęp, to jest pierwsza wersja beta.
Mam nadzieję, że do wersji finalnej ta dostępność będzie rozszerzona.
Zresztą też można do producenta zgłaszać sugestie i myślę, że to jest właśnie dobry moment, żeby ewentualnie takie sugestie zgłaszać,
bo myślę, że tutaj może być… Warto to zrobić, bo sama gra w sobie dostępna dla nas może być w przyszłości.
Ale jest też kilka innych braków z takich ważnych informacji. Sama instalacja nie należy dla najbardziej przyjemniejszych,
bo musimy pobrać własny tzw. launcher dla tej gry.
Trochę tak, jeśli ktoś kojarzy, dla Hearthstone’a mamy Battle.net’a,
no to dla gier z serii LoL też właściwie mamy chyba Riot Games Launcher,
że tak się to nazywa. I to sobie musimy najpierw pobrać.
Sam instalator z NVIDIA trzeba przejść OCR-em,
z DSR-em ponoć da się to zrobić bez OCR-a,
bo wyświetla się jako strona internetowa, którą można przejść.
Natomiast po instalacji gry musimy też zaakceptować licencję.
A żeby zaakceptować licencję, musimy ekran przewinąć do samego dołu.
I to też nie należy do najprzyjemniejszych.
Różne sposoby ludzie na to próbowali.
Tutaj na przykład z Patrykiem poza audycją
próbowaliśmy użyć do tego voice tanta,
o którym niedawno mówiliśmy.
No niestety z tym sobie też nie poradził.
Natomiast jak to zrobić najlepiej?
OCR-em sobie znajdujemy jakiś fragment tej licencji.
Przywołujemy myszkę i klikamy,
żeby myszka była w odpowiednim miejscu.
A następnie po prostu przewijamy albo rolką, jeśli mamy fizyczną mysz,
albo jakimiś gestami na gładziku, to z reguły przewijanie,
to są gesty dwoma palcami.
Ewentualnie NVIDIA czy ZSR też mają skróty,
które można sobie przepisać do emulowania tej rolki.
No i będziemy wiedzieć, że to działa, bo program ponoć się wtedy przywiesza.
Ale jak uda nam się całą licencję przewinąć do końca,
to gdzieś w tym oknie znajdziemy przycisk Zgadzam się.
Klikamy na ten przycisk i wtedy nam się gra sama uruchomi.
Kiedy już do gry wejdziemy, to też tam niestety jest jeszcze takie dwa problemy z dostępnością, które też fajniej byłoby, żeby były rozwiązane.
Po pierwsze postacie nie mają kroków, a więc jeśli nie atakują, to nie wiemy, gdzie dana postać stoi.
Nie mamy też dźwięków na kłócanie, co też może nam przystwarzać problemów.
No tutaj na przykład w Mortal Kombatzie mamy na to teraz dedykowane dźwięki, więc zawsze wiemy, gdzie dana postać jest.
A druga rzecz jest taka, że np. żeby uruchomić różne tryby wieloosobowe,
deweloper zdecydował się na taki mało wdzięczny dla nas sposób
na uruchomienie tych rzeczy, dlatego że tak zwane te lobby,
czyli to, gdzie łączymy się do trybu wieloosobowego,
są takim symulowanym salonem gier.
Mamy tam normalnie postać, z którą sobie chodzimy,
i mamy różne automaty.
I żeby np. wejść w tryb wieloosobowy,
Czy to grę na punkty, czy grę taką właśnie nie o punkty, tak zwaną grę casual.
Musimy do odpowiedniego automatu podejść i na nim nacisnąć przycisk odpowiedni.
My tych automatów nie widzimy, więc nie należy to do zadań przyjemnych,
bo musimy jakoś do nich nawigować.
Tutaj też coś, co zdecydowanie byłoby dobrze poprawić,
więc to jest też coś, na co ludzie zwracają uwagę,
żeby ewentualnie jakieś sugestie wysłać.
Bo jeśli ta dostępność będzie cały czas naprawiona,
jak pojawią się nowe dźwięki, może jakieś menu,
które by pozwoliło nam do tych wszystkich opcji się dostać,
no to myślę, że jest na co czekać, zwłaszcza, że gra
finalnie ma też być właśnie grą darmową, grą free to play,
czyli tutaj będziemy nie tylko płacić właśnie za jakieś nowe postacie,
tylko za różne jakieś przedmioty kosmetyczne,
takie jakieś stroje i tak dalej.
Więc tutaj to będzie gra, która prawdopodobnie może być dla nas bardzo grywanna,
ale za którą nie będziemy musieli zapłacić.
Więc jeśli to faktycznie będzie dla nas jeszcze bardziej dostępne,
no to myślę, że jak najbardziej będzie na co czekać.
No to wszystko ode mnie, jeśli chodzi o gry,
ale tutaj jeszcze Maciek przygotował informację dotyczącą Warshovel.
No tak, bo jeśli chodzi o gry, to ja równam się Warshovel właśnie
W dużej mierze.
No i co my tu mamy? Właśnie wczoraj lub przedwczoraj ukazała się nowa wersja gry w wersji 1.0.4.4.5 i dodano następujące zasadniczo ulepszenia.
Po pierwsze do Gildii, dla Gildii został dodany nowy budynek, mianowicie sanktuarium,
który oferuje 8 dodatkowych umiejętności sakralnych.
Tak to zostało, że tak powiem, napisane i przetłumaczone w sumie.
Jakie one by miały być, tego nie wiem,
Dla budynków obozu Gildii.
No właśnie. Często gęsto autor w swoim changelogu do gry pisze bardzo lakonicznie,
cokolwiek by to miało oznaczać, ale domyślam się, że może po prostu chodzić o to, że jeżeli
na przykład, nie wiem, jeden budynek generuje nam przyspieszenie do wykonywania danego
Przedmiotów czy materiałów dla członków gildi to, że po prostu to jeszcze bardziej zostało zwielokrotnione do rzadkości rzemiosła, do doświadczenia postaci zdobywanego i tak dalej, więc podejrzewam, że może tutaj o to chodzić.
To, na co czekaliśmy i się doczekaliśmy w końcu, to przyspieszenie czasu wytwarzania w rzemiośle dla towarzyszy,
że towarzysze teraz rzeczywiście istotnie wytwarzają szybciej materiały, co ważne, materiały rzemieślnicze, nie przedmioty, ale materiały.
Kolejna, jeszcze ważniejsza nowość to dodanie doświadczenia dla rzemiosła
wytwarzanego przez towarzyszy. I odbywa się to tak, że dopiero otrzymujemy to doświadczenie
w danym rzemiośle, jeśli już sobie odbierzemy materiały wytworzone przez towarzyszy,
To wtedy dodaje się dla nas, dla naszego fachu, dla naszego rzemiosła to doświadczenie zabrane przez towarzyszy.
Rozszerzenie mistrzostwa broni o redukcję obrażeń, czyli prawdopodobnie umiejętność polegająca właśnie na tym, że jeżeli władamy daną bronią,
To po prostu również obrażenia przeciwników będziemy w stanie skuteczniej bronią redukować.
No, zasłaniać się choćby nawet, czy właśnie parować ataki.
Wyłączenie aktywnej rekrutacji w nieaktywnych gildiach.
No właśnie, czyli jeżeli gildie jakieś nie wykazują się aktywnością,
przez dłuższy czas będzie można zarządzić wyłączeniem rekrutacji, czyli sorry, nowych członków nie przyjmujemy.
I tu jest ostatnia nowość, której nie rozumiem.
Zwiększenie ceny warsztatów dla broni dwuręcznej.
Być może chodzi o to po prostu, że ten koszt wytwarzania broni dwuręcznej się nam zwiększył chyba.
I mamy również dwa błędy dostępności, nie poprawki dostępności, nie, nie, nie, tym razem błędy.
A pierwszy z nich, wszędobylski czat na ekranie, na każdym z ekranów gry.
Ja to się troszkę na czacie globalnym gry śmiałem, że to może mieć zastosowanie Liquid Glass
i to, że autor dostosował grę do tego opływającego interfejsu
I to, że nie uwzględnił tam dostępności, ale że przystosował się grę do Liquid Glassa.
No i stąd, dosłownie wszędzie, a zwłaszcza jak na rynku mamy brak przedmiotów, to na przykład to…
Oj, bardzo trudno jest wyeksplorować cokolwiek innego poza czatem, niestety.
Na przykład takie się tutaj, tak to się objawia.
Drugi błąd, no to sporo milczących elementów generalnie.
Czy to w mieście, gdzie odbieramy materiały na przykład, czy to w postaci też
przy jakichś statystykach. Lubią te milczące elementy niestety się tam pojawiać, że
klikamy sobie w prawo, w lewo się przemieszczamy kursorem.
Dźwięk elegancko jest kliknięcie, ale voiceover nie ogłasza nam nic.
No bo tam w zasadzie elementów żadnych nie ma, więc coś się mocno tutaj autorowi
i rozjechało. I co? I chyba tyle. Mam nadzieję, że już mi się nic nie przypomni, bo no chyba tyle.
To skoro tyle, to odbieramy telefon. Wojtek jest z nami. Dobry wieczór. Był, ale…
Jestem, jestem, jestem, jestem, tylko…
Zasłuchałeś się.
Nie ma. No, szczerze powiedziawszy, to nie.
Ale każdy tutaj coś znajdzie w tej audycji i to też jest jej zaleta.
Ja mam do was takie pytanie, do użytkowników Maca,
ponieważ spotkała mnie taka przykra historia po aktualizacji do Mac OSA.
W aplikacji Mail jakby się mi rozindeksowało chyba z półtora roku poczty.
I próbowałem wszystkich trików, które były dostępne
przy prostych wyszukiwaniach po lat w internetach,
ale nic to nie zadziałało.
Już nie pamiętam nawet tych trików,
bo to już od kilku tygodni tak myślę,
że z czymś mam do was zadzwonić
i wciąż o tym zapominam.
Ale wciąż jest to mega irytujące,
jak nie mogę znaleźć maila z tą opcją wyszukiwania.
Tak że może macie jakiś pomysł, co zrobić,
żeby zindeksować tę przeklętą pocztę.
To jest dobre pytanie. W sumie…
Tam przebuduj skrzynkę, coś tam w menu pliknie.
Tak, było.
Próbowałeś, nie?
Było, było. To robiłem. Przebudowy, tak.
A CleanMyMac’a używasz?
Nie. Co to jest?
CleanMyMac’a? Do czyszczenia generalnie Maca,
zarządzanie Maciem, konserwacja, optymalizacja itd.
To tam jest coś takiego jak…
Znaczy reind… nie, czekaj.
Też coś w stylu, że można właśnie przebudować skrzynki i to on tam robi to też w jakiś taki chyba zdaje się swój sposób.
Ja myślę, że tutaj pytanie, jakby wymusić, żeby Spotlight jeszcze raz wszystko zaindeksował jeszcze raz.
Ja tutaj to spróbuję uważnie…
A też jest reindeksuj Spotlight, tak à propos.
No, to właśnie robiłem jakieś tam ze Spotlighta.
Coś tam, że się usuwało…
Już nawet tego nie pamiętam, bo nic to w ogóle nie dało.
A ten CleanMyMac to jest jakaś aplikacja, tak?
Tak, to jest aplikacja.
I to w App Store? To się kupuje za darmo?
Czy nie poza App Storem? Gdzie tego szukać w ogóle?
To jest poza App Storem, to generalnie można albo kupić osobno,
albo ewentualnie sobie z tego korzystać w ramach abonamentu Setup,
Jak tak akurat robię i no, generalnie to jest fajna aplikacja do wielu rzeczy, do…
Chyba było nie podcast, chyba.
A, no to, no to, to jest…
Tak, tylko tam się interfejs chyba przebudował, nie?
Tak, interfejs się trochę przebudował, natomiast, no, już jest dostępny.
Był moment, że tam były problemy z dostępnością,
ale na szczęście to już się stało.
Coś pewne rzeczy, typu podglądy plików tych, nie w plikoskopie, jak to się nazywa,
Czy tam jeśli chodzi o oczyszczanie plików i jeśli chodzi o rozmiary tych, znaczy generalnie o pliki na Macu, czy w chmurze się lokalnie, oj tam się VoiceOver lubi ciąć i tak jakbyś sobie zdartą płytę CD zaciął, zapuścił.
No.
Niestety.
Możesz ją kupić, właśnie tak jak Piotrek mówi inaczej, albo przez CETAPA, albo
ze strony Magpau, na ich stronie.
I możesz albo właśnie też w modelu subskrypcyjnym sobie kupić u nich tam.
I to jest chyba wtedy, nie wiem, 120 złotych chyba rocznie, czy jakoś tak wychodzi.
Nie pamiętam teraz.
Wiesz co, chyba właśnie cena ostatnio poszła do góry, dlatego ja bym…
A ta jednorezowa płatność to jest bardzo droga?
Jest.
Jeszcze niedawno była w każdym razie, czy jest?
Nie pamiętam, bo ja generalnie właśnie przez tego setup’a.
Tak, to też jest do rozważania. To chyba jedyna już taka szansa,
przebudowy to już wszystko co się dało to zaliczyłem niestety.
No ale tak to jest, my w ogóle używamy tych komputerów jakoś niemiłosiernie
i żyłujemy, tak mi się wydaje, z tymi voice-overami,
z tymi wszystkimi naszymi dostępnościowymi sprawami.
Dzisiaj robiłem właśnie zajęcia o azotero.
No to tak ładnie to z voice-overem poszło,
ale widać, że już ten sprzęt obciążony jest po prostu.
I to chyba nie dlatego, że jest stary,
tylko po prostu to dużo zabiera mocy, ta nasza praca.
No i cóż, i tak to jest.
No to fajnie, to dziękuję, to skorzystam chyba z tej propozycji, bo innych chyba opcji już mi nie przychodzi do głowy.
To taka półtora roczna dziura mi się zrobiła w tej skrzynce.
No to ewidentnie coś z indeksem jest nie tak.
Maila są, oczywiście, bo jak chodzę przez Gmaila, no to wszystko się wyszukuje, nie ma sprawy.
Na iPhone się wyszukuje, wszędzie się wyszukuje, tylko nie na Macu.
Tam, gdzie mi jest to najbardziej potrzebne, oczywiście.
Zawsze zostaje opcja, tylko teraz próbuję sobie przypomnieć, jak to zrobić,
żeby on wszystkie wiadomości pobrał jeszcze raz.
No, nuklearna.
Nuklearna, tak.
Ale czasami to też tak trzeba.
Ja, jak migrowałem pomiędzy starym MacBookiem R a MacBookiem Pro,
to np. mimo to, że otworzyłem kopię zapasową z Time Machine,
to mail mi się tak otworzył, że się nie otworzył, tylko był błąd
i musiałem właśnie tak zrobić.
No to pomyślę, pomyślę, ale może ten CleanMyMac to jest dobre wyjście, bo w sumie już po latach użytkowania przydałoby się go trochę wyczyścić.
Może nawet będzie szybciej chodził ten zetelo.
Zdecydowanie, ja powiem, że ostatnio sobie przypomniałem o czymś takim jak CCleaner na Windowsa,
Chociażby, to zapuściłem go na komputer, gdzie system reinstalowałem rok temu, to mi chyba wyczyścił z 30 giga śmieci. Wyobraźcie sobie.
Zwłaszcza, że wchodzę do tego właściwości tam storage, miejsce na dysku, no i system data to jest chyba ze 119 gigabajtów.
Tam przypuszczam, że mogą być duże cięcia.
To CleanMyMac podejrzewam, że będzie miał co robić.
Jeszcze ostatnio tu na naszej wewnętrznej grupie
podrzucałem darmowe takie narzędzie, open source,
które robi w zasadzie to samo co CleanMyMac,
chociaż tutaj, ty Piotrze, testowałeś to
i tam problem jest z wyborem, z dostępnością tego terminalu.
Tak, dlatego, że niestety to jest aplikacja terminalowa,
ale to jest aplikacja terminalowa, która ma graficzne menu
i tam odpowiednia opcja jest jakoś chyba podświetlona innym kolorem,
natomiast żaden czytnik ekranu na terminalu nie mówi nam, jak ten kolor się zmienia.
A to przykre.
Ale i tak muszę powiedzieć, że moje najnowsze doświadczenia z Windowsem,
bo troszkę tam się z Windowsem musiałem mieć i muszę mieć,
wskazują na to, że po prostu i tak jesteśmy w fantastycznej sytuacji pracując na tych Macach,
Bo to po prostu co ja przeżyłem, instalując różne rzeczy i kłócąc się z Windowsem o to, żeby zobaczył mi ten interfejs audio tego Behringera, sterowniki, które muszą zrestartować cały system, nie wiem, coś nadpisywać, jakieś się uruchamia, ten ten co ty Michale to powiedziałeś, to to oczywiście wyłączyłem.
BitLocker, BitLocker.
Tak, tak, że zaraz, zaraz mi po prostu zabierze dostęp do dysku, jak mi wpisze jakiegoś hasła. W sensie, kurde, ja to przypinam do tego Maca i on wszystko widzi.
Znaczy wiesz co Wojtku, ja mam takie wrażenie, sądząc po na przykład ostatnich twoich problemach z linijką brajlowską, o których mówiłeś.
że różnica między Maciem a Windowsem to jest generalnie trochę taka, że na Macu jak coś działa, to działa super i wszystko jest okej.
Pod Windowsem jak Ci coś nie działa i to się może zdarzyć pewnie częściej niż na Macu, to jak Ci coś nie działa, to możesz to próbować,
No tak.
No tak. I to już jest zamknięta sprawa ze strony…
I teraz… i to… i ja w tym momencie powiem tak.
I to się na pewno też gdzieś da zdiagnozować.
Bo na pewno gdzieś się logi jakieś odkładają.
Tylko, że MAC ze względu na to, że
Niektórzy użytkownicy są przyzwyczajeni do tego, że im po prostu wszystko działa, to nie są nauczeni szukania.
Tak trochę.
Może tak. Znaczy coś za coś, ale ja świadomy wybór podejmuję, że wolę to coś…
Jak ci działa, to super i o to chodzi właśnie.
Wiele rzeczy jest po prostu o wiele prostszych, tak bym to powiedział.
A propos właśnie logów, to muszę powiedzieć,
że w tamtym wypadku to Accessibility odpowiedziało,
ale jakoś tak niemrawo, że generalnie kazali mi się zgłosić
do producenta, któregoś tam wcielenie tej linijki.
Natomiast teraz postanowiłem, że skoro już znam ten mail,
to będę do nich pisał, bo trochę błędów dostępnościowych
różnych widzę. No i ostatnio napisałem im o tym,
że jak mam taką sytuację, że jak nie mam po prostu goły, że tak powiem, komputer,
to wszystkie te zoomy, inwersje kolorów, wszystko to działa. Podłączę zewnętrzny ekran,
a bardzo często, bo w pracy podłączam ten ekran chociażby, to też jeszcze działa.
Spróbuj tylko wyłączyć ten zewnętrzny ekran, to już wtedy zoom działa, ale wariuje,
natomiast inwersja kolorów w ogóle nie działa. Po prostu to, na czym wyłączyłeś, to to masz.
Czyli jak jest do góry nogami, kolory są, że tak powiem, odwrócone,
to zostajesz z tymi odwróconymi kolorami.
No i oni mi odpisali typowo po informatycznemu,
czyli u nas tak nie ma, ale następnie powiedzieli,
że dobrze, dobrze, no to my to sprawdzimy, bo musisz tam jakieś
logi nam wysłać i całą tę procedurę dali.
No tak w mało dostępny sposób, no bo jak mi mówią,
kliknij w trzy kropki w Activity Monitor,
No to jest mało dostępne, ale potrafi sobie znaleźć, co tam zrobić.
No i wysłałem im te logi, rzeczywiście to tam 300 MB zajmowało.
No i na razie czekam na odpowiedź.
Niech sobie szukają.
Może znajdą tam.
Każdego jeszcze godzinę podać, dokładną i minutę, kiedy wykonywałem tę funkcję.
Może coś znajdą. Słuchajcie, może coś z tego będzie.
No nie wiem, jest tyle takich drobnych, jakichś upierdliwych rzeczy.
No nie wiem, chociażby ta klawiatura, o której mówiłem.
Tak, ja też używam oczywiście do większości rzeczy wejścia ekranu braille,
ale czasem trzeba napisać OK, nie? I piszesz O i już K nie możesz znaleźć,
bo ono jest tam, gdzie A, na przykład. I to jest mega irytujące,
bo w sumie to po prostu powinno działać i już to, o czym mówiliśmy przed chwileczką.
A z takich innych jeszcze doświadczeń właśnie customer service’owych,
to mówiłem o tym M-Obywatelu, do dzisiaj nie rozwiązanie mojej sprawy,
Ale to zgłaszanie telefoniczne, to naprawdę, jeśli ktoś…
Ja tak żałuję, że to zrobiłem, bo chyba straciłem trzy tygodnie.
Tam jest taka opcja ponagli.
I w końcu wczoraj w tę opcję.
Mamy jakieś absurdalne zabezpieczenia,
jakieś tokeny, trzeba generować coś.
Jak zobaczyłem to zgłoszenie, to tam jest napisane tylko
problem z legitymacją osoby niepełnosprawnej.
To jest wszystko, co ta pani mi przez telefon wysłała.
Więc cały problem im jeszcze raz opisałem.
No i zobaczymy, czy w ciągu 30 dni, pewnie od nowa, sobie liczą te 30 dni.
Ja podejrzewam, że gdybyś tego nie zrobił, to ktoś, kto chciałby podjąć temat, to albo by zamknął, albo by napisał do Ciebie po pół roku,
proszę opisać szczegółowo, czego dotyczy problem.
I potem człowiek myśli, że ci ludzie, którzy tam się zajmują tymi problemami, to rzeczywiście nic nie robią albo ich nie rozwiązują albo coś,
ale jeżeli rzeczywiście jest to taki proces, że osoba, która zapisuje takie rzeczy w systemie, no nie przeprowadzi żadnej konkretnej ścieżki,
i nie opisze scenariusza, w którym dochodzi do jakiegoś błędu, no to potem ktoś dostaje to,
a nad tym pracuje zazwyczaj zespół cały, i ktoś dostaje taki task, no i co on ma z tym zrobić?
A ty się napocić, nagadasz, naopisujesz, a ta osoba…
Tak, tak, tak. Ona ci wpisze…
No, problem jest z LON, no i to jest wszystko.
I skąd ci biedni ludzie mają to wiedzieć, jak mawiał klasyk?
No a z kolei drugi przeciwny biegun,
no tak mi się jakoś zebrało z tymi już kontaktami,
jak dzwoniłem, to sobie pomyślałem, że wam to opowiem.
Drugi przeciwny biegun takiego customer care,
to jest Rogue Amoeba.
Ostatnio też do nich pisałem
i po prostu tak tacy sympatyczni, mili,
w ogóle jakaś taka sobota, godzina 21, aż nieprzyzwoite,
że to mi facet odpowiedział.
A miałem bardzo proste, może ktoś to ma, taki problem,
a może to tylko ja bezmyślnie tego nie zrobiłem.
Problem się w mig rozwiązał, bo pisze im, że słuchajcie,
bardzo dobry program, korzystam bardzo często,
ale wolno mi chodzi, kurczę, no i nie wiem, jestem bardzo zadowolony,
ale szkoda, że tak wolno chodzi.
A facet mówi, tylko mi zadał jednotrafne pytanie.
A ile nagrań zrobiłeś, skoro na zakładce nagrania
i się zawiesza ten program.
No i zobaczyłem, no, na jednym było tam, nie wiem, 700,
na drugim 300, no i rozwiązanie było oczywiste, tak?
Wykasować nie nagrania, tylko wykasować listę nagrań.
Tak, i to natychmiast, i od razu mu odpisałem w zasadzie,
no, wiesz co, zrobiłem to, co pewnie byś mi powiedział,
czyli wykasowałem tę listę tych nagrań
i natychmiast śmiga po prostu, jakby był nowy.
Może ktoś ma taki głupi problem, ale nie wpadło mi to do głowy,
że trzeba kasować co jakiś czas tę listę.
A działa to bosko, no po prostu.
Cała moja praca polega chyba na tym, także super.
Bardzo dziękuję Wam za wszystkie porady.
W takim razie cleanmymac, na tym będę się działał.
Tak, nawet cleanmymac.com się poleca.
No to super. To wielkie dzięki. No i cóż, życzę wam dobrej nocy, żeby jednak kiedyś nadszedł koniec i upragniony sen.
Kiedyś nadejdzie. Jeszcze chwilę tu posiedzimy, ale technikaliów dziś mamy niedużo. Dzięki Wojtku za telefon.
Dzięki wam piękne, pa.
Do usłyszenia, cześć.
To zanim przejdziemy do technikaliów, to komentarz, który już tu sobie czeka.
A to ja jeszcze tylko powiem, że swoją drogą CleanMyPC też się poleca.
Jakby ktoś chciał, w sumie firma też zrobiła ciekawie jak z dostępnością a propos.
A widzisz, bo to ta sama firma jak rozumiem i oni dla Windowsa też mają.
Muszę pochwalić, bo to była właśnie sytuacja z tych, że problem z dostępnością zgłosiłem dawno temu,
po czym kompletnie o tym zapomniałem. Z tym też było różnie, bo mnie akurat nieraz odpisali,
to jeszcze dali licencję na poprzednią wersję na rok, a inne osoby w ogóle odpowiedzi nie dostały.
I w ogóle nie odpisały dziady.
Tak, ja odpowiedź dostałem i nawet właśnie kiedy to ze mną się pojawiło, to tam no chyba minęło przynajmniej dziewięć miesięcy, ale pani znów się ze mną skontaktowała. Napisała, że tak w ogóle to faktycznie ze mną została wprowadzona, także…
No to fajnie, to rzeczywiście dobre podejście i to się chwali.
To jest fajna i proaktywna postawa.
Tak, dobrze. To teraz komentarz od Bartka, który napisał do nas tak.
Witam serdecznie, dzisiaj piszę do was z taką dostępnościową zagwostką.
Chciałem dzisiaj poczatować z konsultantem w aplikacji Play24.
Po otworzeniu czatu VoiceOver namierzył pole edycyjne do wpisania wiadomości,
ale po dwukrotnym stuknięciu pole nie chciało się aktywować.
Czy mieliście kiedyś podobną sytuację? Pozdrawiam.
Kiedyś coś takiego było. Ja miałem w paru aplikacjach taką sytuację. Czasem pomaga potrójne stuknięcie.
Albo stuknięcie z przytrzymaniem, żeby to pole się aktywowało tak trochę na siłę, żeby tam się coś rozwinęło.
I to czasem działa, ale też czasem nie. A czasem może być tak, że pole do wprowadzania tekstu będziesz miał, nie będziesz miał klawiatury, ale na przykład z jakiegoś powodu będzie tam się dało pisać brajlem.
To też pamiętam, że kiedyś to się bardzo zdziwiłem, że coś takiego jest i że coś takiego w ogóle zadziałało, ale może też warto wypróbować.
i może to pomoże, ale ten gest takiego potrójnego stuknięcia albo stuknięcia
podwójnego z przytrzymaniem to czasem ratuje sytuację.
Dobrze, Maćku, to technikalia są twoje, z tego co tu widzę.
To na dobry początek Allegro. Co tam u nich?
Tak, król technikaliów się kłania. Dzień, dobry wieczór.
Mowa o Allegro, które
da przedmiotom drugie życie, a nam pieniążki, tak?
Oczywiście. No to dobrze.
To już sobie otwieramy
i referujemy co następuje.
Mianowicie właśnie bodajże
w czwartek wystartowała sobie usługa
Allegro Odzyskaj.
No i polega ona ni mniej ni więcej jak na tym,
…że my, Allegro, za pośrednictwem dedykowanego formularza najpierw wstępnie zostaje nam wyceniony dany przedmiot, który chcielibyśmy im sprzedać.
No i po wstępnej wycenie danego przedmiotu, jeżeli nam ta wycena odpowiada, wysyłamy im takowy przedmiot.
zupełnie po naszej stronie za darmo.
No i Allegro wycenia
już po oględzinach własnych,
jak
właśnie na ile ostatecznie
ta wycena według nich miałaby wynosić.
No i jeżeli my akceptujemy te ich
te ich wycenę,
tych ofertę, no to no to
możemy właśnie
tam sfinalizować zakup, znaczy sprzedaż w zasadzie i dostajemy pieniądze w przeciągu
bodajże 14 dni na nasze konto bankowe.
Generalnie Allegro tam współpracuje z holenderską, z holenderskim partnerem,
holenderską firmą zajmującą się od lat właśnie odkupem uzywanego sprzętu.
W sumie teraz nie pamiętam jak się firma nazywa,
ale to też wszystko tam jest do sprawdzenia.
No i jeżeli chodzi o taką wysyłkę,
no to realizujemy ją za pomocą albo punktów,
tudzież też automatów paczkowych DPD.
Możemy to również zrealizować za pośrednictwem żabki,
jak i lewiatana.
No i generalnie jak już taki produkt sobie tam dojdzie,
No i jeżeli nam ta wycena odpowiada, no to tak jak mówiłem finalizacja następuje,
sprzedaży dla nich zakupu i dają pieniądze, a jeżeli jednak my stwierdzimy, no nie,
no dajcie spokój, to jest jednak o wiele za mało, no to ten przedmiot jest nam odsyłany
z powrotem, również na koszt Allegro, więc tak to działa. No i generalnie jak się do tego dostać, to generalnie wchodzimy sobie, logujemy się na konto Allegro i tam z menu moje Allegro, właśnie ważna uwaga, na razie usługa jest dostępna wyłącznie
wyłącznie w serwisie
transakcyjnym Allegro, w sensie tym
webowym.
Na razie tego nigdzie w aplikacji nie
widziałem.
No ale po zalogowaniu się wchodzimy
sobie właśnie w menu
moje Allegro.
Tam zakładka sprzedaż
i tam będzie
nagłówek
daj przedmiotom drugie życie
i link Allegro
odzyskaj.
No i jak już sobie tam wejdziemy, wyszukujemy model,
znaczy markę, najpierw typ urządzenia, co nas interesuje,
bo możemy tam w ten sposób obchnąć Allegro,
czy to smartfona, czy to smartwatcha, sprzęty audio,
zdaje się, że komputery chyba też, potem wybieramy właśnie markę,
co to ma być i model, no i później już w zależności od urządzenia np. jeśli to jest
smartfon, no to podajemy jego pojemność, tam zdaje się, że kondycję baterii też trzeba
podać. No i później już ogólny stan, w jakim znajduje się to nasze urządzenie.
I tam są w sumie trzy opcje, że urządzenie jest,
w zasadzie wygląda tak jakby było wyjęte z pudełka, że w zasadzie brak śladów
użytkowania, a później tam są, że jest, że jest tam, są drobne ślady użytkowania,
no i wtedy wiadomo ta wycena nam powiedzmy spada, że jest kilka rys, no i że to
urządzenie to jest bardzo, no właśnie porysowane i tak dalej.
Wybieramy też czy ono jest funkcjonalne, nadal sprawne, czy też nie.
No i na tej podstawie dokonywana jest wycena, bądź jeżeli to urządzenie jest
zbyt mocno wyeksploatowane, to pojawia się komunikat, że przepraszamy,
ale nie możemy wycenić tego urządzenia.
No i właśnie, tutaj wedle artykułu autor, którego właśnie przytaczam w tym momencie, postanowił wycenić swojego iPhone’a 15 Pro i wyszło mu 128 GB pamięci wewnętrznej z baterią poniżej 80%
I zaproponowano mu cenę 1726 złotych i 26 groszy.
No, a i tutaj też podaję, że cena takiego samego używanego na OLX to koszt około 2300 złotych.
Tyle, że tam kondycja była ponad 90%, 92% w zasadzie.
No i tutaj autor uważa, że ta wycena
wydaje się być bardzo w porządku.
Tutaj też autor porównuje to z programem
dedykowanym klientom Orange. Też Orange ma
swój tego typu program odkupu używanych urządzeń.
No tylko tam też się otrzymuje bon na inne
urządzenia itd. A tutaj bezpośrednio
wpływają pieniążki na
nasze konto.
I generalnie tutaj jeszcze kwestia jest dostępności w ogóle całego procederu,
bo no właśnie w różnych przeglądarkach działa to różnie.
W Chrome na Macu działało sobie to nawet całkiem powiedzmy, że fajnie.
Tyle, że jeżeli klikaliśmy w dany element, który VoiceOver roznajmiał, jak on reaguje na kliknięcie, to teoretycznie rozwijalne listy i coś tam, a w praktyce elementy klikalne.
I faktycznie VoiceOver pod Chrome widział to, że te elementy się rozwijały, tylko że VoiceOver wchodził w bezsensowny sposób w interakcję z tymi elementami
i do warstwy tekstowej, więc żeby można było się poruszać po tych elementach, to trzeba było raz wejść z interakcji w Voice Over Shift Gura i z tych, no i dopiero wtedy można było się poruszać po różnych tego typu opcjach, ale w zasadzie wydawało się to, powiedzmy, bo ja to testowałem zaraz w czwartek, całkiem dostępne, pod kromem, tak jak mówię, bo w Safari już to było bardzo
Dosyć karkołomne, bo trzeba było bardzo używać myszki voiceoverowej, to znaczy command voiceover shift dół i shift spacja, przepraszam, i tam po tych elementach sobie chodzić i potem dwukrotnie voiceover shift spacja spacja.
Tylko że był problem taki, że jak się za daleko w lewo przeszło do pierwszego elementu i chciało się wrócić,
to kursor potem jak pijany szalał po całej stronie i tak w zasadzie zabawa z każdym tego typu elementem była.
Więc Safari zdecydowanie gorzej sobie z tym poradziła, jeśli o to chodzi.
Ja finalnie nie wysłałem niczego.
Próbowałem w ten sposób obchnąć swoje AirPods’y trójki, tylko że trójki te zwykłe, douszne.
Tyle, że tam różne opcje testowałem, no i jakbym miał te AirPodsy w stanie, no takim, ledwo muśniętym przez życie, czyli że w zasadzie to je wyjąłem z pudełka, wycenili mi je na bodajże 159 złotych, czy jakoś tak.
Z lekkimi śladami użytkowania 112 złotych z hakiem.
No, a w przypadku głębszych rys, kilku i tak dalej, to już przepraszamy, ale nie możemy wycenić tego urządzenia i w zasadzie rać pan se i szukaj gdzie indziej.
Więc tak testowo to sobie, no, przeszedłem całe, powiedzmy, większość procesu.
No i jest dostępny, jeżeli używamy Chroma, tak jak mówię.
Tak jak mówiłem, urządzenie wysyłamy do 14 dni od tej wstępnej wyceny.
Firma weryfikuje w przeciągu 7 dni maksymalnie od otrzymania urządzenia
No i oczywiście tu jest zastrzeżenie, że jeżeli legalnie posiadamy to urządzenie, weszliśmy w jego nabycie, posiadanie, no to musimy zaakceptować, że nabyliśmy je legalnie itd.
W przypadku jakichkolwiek wątpliwości jeszcze Allegro poprosi o dosłanie odpowiednich dokumentów celem weryfikacji stanu prawnego urządzenia. Jakich dokumentów nie jest wspomniane, ale taka rzecz może się tu pojawić.
Pewnie jakaś faktura, rachunek?
Być może faktura.
Coś tego typu.
Dokładnie. No, więc, no, tak to z grubsza wygląda, zachęcam do potestowania, ciekawe jakie będą Wasze odczucia.
Zaglądam do Waszych wypowiedzi i do Waszych pytań. Na przykład tu Sylwester chciałby się dowiedzieć, skąd Paweł bierze te informacje o Japonii, bo nie zdążył go zapytać.
Z tego, co ja kojarzę, to właśnie z jakichś chociażby podcastów, jak dziś Paweł mówił. To też przesłuchiwał na przykład.
Ale być może więcej Paweł też nam powie a propos tego w przyszłym tygodniu.
Natomiast Sylwestrze, jeżeli interesują Cię te wyniki w formie tekstowej, to pamiętaj, że pod audycją na naszej stronie www.tyflopodcast.net
Pod poprzednim, trzysta trzecim tyfloprzeglądem, jest link do źródła.
Więc możesz sobie wejść, poczytać, łączyć tłumaczenie i skorzystać właśnie z tego konkretnego źródła, które podał Paweł.
A teraz przechodzimy dalej, przechodzimy do kolejnego tematu.
A, to było wyżej i gdzieś mi umknęło. A przecież jeszcze chat GPT i aplikacje zewnętrzne.
A no właśnie, bo GPT już od jakiegoś czasu w zasadzie wprowadził sobie coś takiego jak Apps and Connectors, aplikacje i łączniki.
A to nic innego jak otwarcie się GPT Integracja z aplikacjami tudzież usługami zewnętrznymi,
z którymi GPT sobie rozmawia na naszą oczywiście prośbę po odpowiednie,
po uprzednim zalogowaniu się, uwierzytelnieniu i tak dalej.
No i może na podstawie informacji uzyskanych wykonywać różne działania,
na przykład, no właśnie, jakie my mamy dostępne te łączniki,
bo tu należy podkreślić fakt, że takich stricte dostępu do powiedzmy aplikacji
takich jak mają dostęp w Ameryce to nie do końca mamy, chociaż też,
Ale to może po kolei. To co u nas mamy? Na pewno integracja z różnymi usługami Google,
na przykład Gmail czy Google Drive. Przy czym Gmail to tam w obrębie…
GPT może przeszukiwać nasze maile, może je odczytywać, ale z tego co wiem,
już w naszym imieniu tak za bardzo pisać nie może w sensie i ich wysyłać
No ale kto mu zabroni na podstawie maili uzyskanych z Gmaila stworzyć odpowiedź?
I my możemy sobie już taką odpowiedź wysłać. No generalnie właśnie odczytywać informacje
przede wszystkim może z maili. Tak samo kalendarze Google, tak samo Google Drive,
Właśnie Google Drive. Tutaj już jest i Deep Research, i tryb agenta, że
że w agent GPT i funkcja Deep Research może w oparciu też o te pliki z naszego
dysku Google, może tam przeszukiwać informacje, wyszukiwać i poszerzać je w
internetach i dostarczać nam dzięki temu bardziej kompleksowe informacji.
Ale też takie usługi chmurowe jak Box, jak Dropbox są obsługiwane, jest obsługiwany GitHub,
tak naprawdę, gdzie też może się komunikować z naszymi repozytoriami i odpowiednie poprawki
wprowadzać pewne pull requests i tego typu rzeczy.
Jest takie coś sobie jak intercom, pisane przez intercom.
Kalendarze Outlooka też jak najbardziej.
Intercom to zdaje się taki czat na stronach, na przykład można sobie
taki czat umieścić i się komunikować z klientami.
To pewnie, o to tutaj to jest duże pole do popisu
dla sztucznej inteligencji.
Tak, i co fajne właśnie, to tak jak mówię, działa w Polsce,
więc można sobie takiego intercoma podpiąć pod GPT czy tudzież GPT pod intercom.
Co mówiłem?
Kalendarz Google, znaczy wróć, kalendarz Outlooka również,
Notion, to taka też usługa, taki też inteligentny, bardzo rozbudowany
W sumie notatnik chyba, nie? Który ma takie dosyć poważne możliwości.
Tak jest. Taka baza wiedzy tak naprawdę. To może być tak.
Właśnie, tak. O kontaktach Google chyba już mówiłem. Linear też coś takiego jest.
Sobie. Poczta Outlook SharePoint do prezentacji.
W Office’ie 365 on tam też ma z tym integrację.
No i z Teamsami. Też może się integrować, też tam informacje z czatów i tak dalej zbierać.
To jest dostępne u nas w Polsce. A czego my nie mamy? No znaczy wróć.
Co mają Amerykanie? Wszystko co powyższe, co wymieniłem, plus mają dostęp do Slacka.
No i do niedawna był Zendesk, ale sobie wyleciał z niewiadomych przyczyn.
No i to są usługi…
Zendesk to, to też dodam, taki system ticketowy, właśnie taki system do wsparcia.
Bardzo często się go stosuje, że ktoś na przykład pisze do nas zgłoszenie,
coś nie działa i to właśnie trafia tam do Zendeska.
Bazy wiedzy też często na tym są takie publiczne.
Tak, więc Amerykanie mają ten czy ten
przywilej, że mogą sobie GPT pod to podpiąć.
No, ale Amerykanie mają jeszcze dostęp do do aplikacji,
takich jak znanym, znana wszystkim booking.com, prawda,
do rezerwacji hoteli slash, znaczy pokojów hotelowych,
slash apartamentów, mieszkań i tak dalej.
Faktycznie ponoć działa, jeśli chodzi o takie
Takie wyszukiwanie ofert, że my się logujemy kontem i tam on dodaje do naszej listy życzeń, czy tam jak to tam się nazywa, różne pozycje i faktycznie rezerwować chyba w naszym imieniu nie może, zdaje się, ale może sprawdzać w naszym imieniu różne rzeczy pod kątem kryteriów i tak dalej, w języku naturalnym oczywiście, jak to GPT, również Canva, to też zdaje się do prezentacji, tworzenia multimedialnych i nie tylko,
Coursera, Expedia, Figma.
Swoją drogą Figma to też chyba jakieś do projektowania różnych rzeczy, nie?
Interfejsów graficznych.
Zillow też ma dostęp w Ameryce.
Był do niedawna Spotify i jeden gość na YouTubie z kanału WebFlipAI
testował to ze Spotify’em, że kazał GPT po zalogowaniu się tam tworzyć
jakieś playlisty w oparciu o tam swoje kryteria i faktycznie otworzyło te playlisty.
Natomiast dzisiaj tego już nie widziałem.
I te
łączniki i aplikacje
są dostępne w planach płatnych. Chata GPT
w darmowych ich nie uświadczymy. Co jeszcze mamy w amerykańskiej
wersji, a co w polskiej nie mamy.
Mamy również zakładkę właśnie tam zamówienia i to jest zarówno w sekcji, znaczy w menu głównym, znaczy w menu profilowym, jak i w ustawieniach.
No tam mamy podgląd do, ja mówiłem ostatnio swego czasu, że GPT będzie nam umożliwiało zakup różnych przedmiotów, no i tutaj właśnie w tej zakładce jest podgląd,
śledzenie statusu tych zamówień, zarządzania nimi i tak dalej.
No ale jeszcze w tych łącznikach mamy ustawienia zaawansowane, a w nich tryb
programisty.
No polega to na tym, że poprzez tam też specjalny protokół MPC, tak się nazywa ten
protokół, MCP, właśnie tak, że dzięki któremu różne apki i też różne modele i tak
Tak dalej mogą się ze sobą komunikować no i dzięki temu możemy sobie podłączyć, zintegrować z GPT usługę, która nie jest wspierana, no robimy to na własną odpowiedzialność, ale różne usługi sobie dzięki temu też zewnętrzne możemy, możemy po prostu z takim GPT zintegrować.
To jest już wyższa szkoła jazdy, dlatego się nad tym nie będę rozwodził. No i chyba to tyle, jeśli chodzi o GPT.
To ja dodam jeszcze tylko jeżeli chodzi o AI tak w ogóle, że ostatnio w kolejnej wersji Microsoft Outlooka i mówię tu o Outlooku mobilnym, pojawiła się nowa zakładka, a zakładce tej najmie Copilot i już teraz można sobie z poziomu Outlooka rozmawiać z tym Copilotem.
Zadałem mu na razie, jak bawiłem się tym chwilkę, kilka takich bardzo ogólnych pytań, no i sobie z tym poradził, a że mam służbowe konto w ofisie 365, to będę go próbował trochę też pomęczyć o to, czy na przykład taki co-pilot odpalony z Outlooka będzie w stanie pogrzebać w mojej poczcie i coś mi na przykład odpowiedzieć na jakieś pytanie.
Z ciekawości. No po coś ta zakładka jest. Bardziej właśnie wydawało mi się,
kiedy ją zobaczyłem, że to będzie przede wszystkim właśnie służyło do zadawania
konkretnych pytań dotyczących poczty. A można zapytać o wszystko.
No, zapytam o pocztę. Nieciekawe czy uzyskam jakiekolwiek w ogóle informacje.
No dobrze. To na koniec gigant technologiczny kolejny,
o którym już tam wspominaliśmy dziś parę razy, Google.
I co tam u nich?
Google, Google, a no bo bardzo atrakcyjny się nam,
coraz bardziej atrakcyjny nam się staje on tenże w Polsce.
Bo po pierwsze, po pierwsze studenci trzymajcie się,
bo nastąpuje jazda bez trzymanki, a no to dlatego,
że Google AI Pro dostępny na rok sobie za darmo.
Od wczoraj chyba, pytajnik, tak, wydaje się, że od wczoraj, w każdym razie do 9 grudnia jest promocja, w której to kwalifikujące się jednostki akademickie, że tak powiem, mają, mogą, i ich studenci oczywiście, mogą brać udział w tym programie.
No i generalnie polega to na tym, tak jak w przypadku Ubera, dla studentów Uber One, tutaj także jesteśmy weryfikowani przez system ShearID, w każdym razie, co ciekawe z iPhone’a, jak próbowałem to zrobić, wywalało mi błąd, zrobiłem to z Maca, wszystko się udało.
Należy wyjść od tego, że wchodzimy sobie na stronę dedykowaną tej promocji.
No i ta strona nazywa się następująco, gmini.google.com
i tam informacje dostępne są, co nam daje ta usługa.
Ano, mówiąc w skrócie, Gemini Pro, oczywiście 2.5 Pro, dostajemy na rok, dostęp oczywiście do Deep Research, dostęp do notbuka LM w tej płatnej wersji 2TB, miejsca na Google Drive.
No i generalnie, no oczywiście zachwalando, prawda, czego to nie potrafi, że tam
przygotowywanie notatek, znaczy notatek na podstawie notatek, tam przygotowywanie
podsumowań, prawda, fiszek, testów, różnych quizów i tak dalej, pisanie esejów,
pomoc przy pracach domowych i, i, i, i, i tego jest mnóstwo.
No i sobie to oczywiście wykupiłem. Generalnie po zalogowaniu się tam
kontem Google’a. Weryfikujemy się właśnie tam.
Potwierdź prawo do abonamentu.
Się link nazywa, który nas przekierowuje właśnie na to
Sheer ID, gdzie wybieramy sobie uczelnię, na jakiej studiujemy w
Polsce. Cała, całkiem pokaźna lista.
Imię, nazwisko, maila uczelnianego.
I co ciekawe, nie trzeba już się tam
z mailami, z potwierdzeniem linków w mailu, ale jak system wykryje, że no faktycznie taka uczelnia sobie jest, przechodzimy tam przycisk dalej do potwierdzenia, do zalogowania się danymi naszymi uczelnianymi. Jak już to zrobimy, przekierowuje nas z powrotem do Google One, gdzie jak już jesteśmy zweryfikowani, to tam jest przycisk uzyskaj subskrypcję, czy uzyskaj subskrypcji.
Po jego kliknięciu następuje autoryzacja naszej karty dodanej do konta Google Play.
No i tak naprawdę możemy już się od tego momentu cieszyć usługą w darmowej wersji na rok.
Jak mówiłem, do 9 grudnia ta promocja jest, więc do tego czasu można to zrobić.
No i jeśli chodzi o to, to jest tyle, ale Google bardzo chętnie przeszkoli polskiego studenta właśnie w efektywnym używaniu AI, a co za tym idzie Gemini, czyli ich, że sztucznej inteligencji właśnie, jak również efektywnego, wydajnego używania notebooka LM w praktyce.
Również jest do tego link podany.
Będzie w komentarzu, bo tu już link jest trudniejszy.
Tam jest jakieś srsvp… coś tam.
Taki dziwny, więc nie będę go tutaj dyktował.
W każdym razie szkolenie odbędzie się 28 października
o godzinie 20.00 online
zupełnie online, więc też sobie z takiego szkolenia, studencie, możesz skorzystać, bo czemu nie.
No i to oczywiście na podlinkowanym, w linku też będzie więcej informacji, co to szkolenie tak naprawdę daje,
bo tam też bardzo fajnie Google marketingowo o tym wszystkim opowiada, ale tak jak mówiłem w skrócie,
Wykorzystanie praktyczne Gemini i notebooka LM.
Także jak ktoś poczuł się zachęcony, zapraszam.
Ja mam pytanie o sprawie tych znaczników czasu.
Kto wykonuje te znaczniki czasu?
I dlaczego ja ich nie umiem używać?
Jak to działa?
Czy jest jakiś skrót do używania tych znaczników czasu, które się na Waszej tej audycji pokazuje?
Nie wiem, czy by Michał coś na ten temat odpowiedział na to pytanie, jak używać tych znaczników czasu.
I kto je wykonuje?
Minął już czas, minął czas 10, już dziś koniec aktualizacji, już czas do archiwum przychodzi.
No, przechodzi i nie przechodzi, bo jeszcze jeżeli ktoś się zaloguje kontem Microsoft i zrobi backup bodajże, to jeszcze ma szansę na roczne, bezpłatne wsparcie.
Natomiast Sylwestrze, co do znaczników czasu, to sprawa wygląda tak, że w komentarzu na stronie pod tyfloprzeglądem
Masz, zazwyczaj to jest drugi komentarz, to są te znaczniki czasu.
I tam masz temat, a poniżej link z takim kodem czasowym.
Czyli tam np. intro to jest tam link 00.00.00.
Naciskasz ten link i zaczyna grać.
I to tyle. I nic więcej nie trzeba.
I możesz już z tego korzystać i przeskakiwać sobie
do tych elementów audycji, do których chciałbyś jeszcze wrócić.
No i dobrze. To wygląda na to, że to już wszystkie informacje na dziś.
Chyba, że jeszcze ktoś z Was coś w międzyczasie znalazł.
To znaczy mniej lub bardziej sprawdzone info, ale nie wrzuciłem tego w notatki, bo…
No bo to jeszcze jest bardziej w kwestii troszkę zapowiedzi, bardziej niż tego, że u nas w Polsce to jest.
Natomiast też Google wypuszcza, to znaczy zbliża się wielkimi krokami Google AI+, które jeszcze nie wiadomo ile ma w Polsce kosztować.
Na Ukrainie już jest. Źródło mówiło jedno, że w Rumunii, ale tam na stronie Google nie znalazłem, żeby było w Rumunii.
Natomiast jedyny europejski kraj, jaki udało się znaleźć, to właśnie Ukraina.
No i tam rzekomo też mają być większe limity do Gemini Pro 2.5 i 200GB w chmurze Google Drive.
No ale to jest taka na razie zajawka tego, co ma nadejść. Skoro Ukraina, to być może Polska też się doczeka w niedługim czasie.
O czym będziemy mogli powiedzieć w późniejszym czasie, jak to już faktycznie pojawi się w ocenach itd.
Natomiast pytanie jeszcze mam, bo też mówi się o tym, że ten tryb AI w wyszukiwarce Google’a,
że on niby już w Polsce jest dostępny.
Jedni twierdzą, że on już jest dostępny i że po polsku i że po prostu w Polsce,
a inni twierdzą, że tylko za VPNem.
Owszem, po polsku, ale za amerykańskim VPN-em.
I czy wy coś wiecie na ten temat? Czy jakoś wam się już to przewinęło i jesteście w stanie skorzystać z tego, czy nie?
U mnie to się jak najbardziej wyświetla i z dłuższego czasu, natomiast ja mam stronę ustawioną na język angielski.
U mnie co najwyżej to jest to tak zwane podsumowanie AI.
Jeżeli pytam o coś Google’a, to ten pierwszy wynik na samej górze…
Ten taki przegląd AI.
Tak, tak, taki przegląd od AI chyba nawet, właśnie, to się tak nazywa.
To jest jedyne, co gdzieś tam jest wyświetlane właśnie, związane ze sztuczną inteligencją.
Więcej nic nie mam.
Czyli z tym AI modem to takie troszeczkę jeszcze fejki póki co.
No i ja podejrzewam, że twórcy stron internetowych to się będą bardzo mocno teraz głowić, co tu zrobić.
Ja sobie teraz przeszłem na stronę Google, bo ja w sumie zawsze szukam z paska adresu i ja tutaj widzę ten link AI mode, tylko mówię, ja mam angielski język wybrany na koncie.
Aha, ale to jakby linka, w linka tam trzeba wejść, tak? W sensie to nie jest tak, że w polu wyszukiwania na stronie Google’a wpisujesz, tak?
Nie, znaczy ja jestem normalnie na stronie google.com i teraz tak, mam pole wyszukiwania, potem mam wyszukiwanie głosowe, search by voice, search by image, czyli wyszukiwanie grafice i potem mam link AI mode.
Dobra, bo ja też zazwyczaj spaszka i się dziwię, że tego nie ma.
No i co ciekawe, cały czas mam link szczęśliwy traf, który miał zniknąć.
No proszę.
Okej, aha.
Tryb Aja i Młody Cak po środku jakby tego.
Dobra, czyli do sprawdzenia i do ewentualnego podzielenia się w przyszłej.
No to dzięki.
Tak jest. A jeżeli wy coś wiecie więcej, bo u was się na przykład w Polsce to pojawiło,
to dajcie znać w komentarzach, skoro u Piotra…
A i na Safari Piotrek, tak?
Akurat Firefoxa teraz miałem otwarty, ale pewnie na Safari to już dzisiaj pojawi.
Skoro u Piotra szczęśliwy traf nadal jest, to my wam też szczęśliwego tygodnia życzymy, spokojnej nocy.
No i cóż, kolejny Tyflop Szagląd za tydzień. W składzie to się wszystko okaże.
Jakim dziś Piotr Machacz, Maciej Walczak, Paweł Masarczyk dostarczyli wam komplet interesujących wieści.
Do usłyszenia.
Tak jest.
Był to Tyflo Podcast.
Pierwszy polski podcast dla niewidomych i słabowidzących.
Program współfinansowany ze środków Państwowego Funduszu Rehabilitacji Osób Niepełnosprawnych.