TyfloPrzegląd Odcinek nr 300 (wersja tekstowa)
Pobierz napisy w formacie SRT
Pobierz napisy w formacie VTT
Fundacja Instytut Rozwoju Regionalnego prezentuje
Tyflo Podcast
W tym tygodniu w Tyflo Przeglądzie.
Jesteśmy z Wami już po raz trzysetny.
A o czym mówiliśmy w pierwszym odcinku?
NVIDIA 2025.3 wydany w wersji stabilnej.
Firefox 143 bardziej dostępny na Windowsie.
Castro otrzymuje precyzyjniejsze ustawienia prędkości.
TimTalk 5.20 naprawia błędy z poprzedniej wersji.
Fission 2.9 lepiej działa z voice-overem.
Pierwsze poprawki dostępności trafiają do Gemini CLI.
Aplikacja Pan Mareczek przeczyta książkę i zapisze do pliku MP3.
Talkback 16.1 wprowadza istotne nowości, w tym wsparcie języka polskiego w opisach Gemini.
Z kodeksa od OpenAI skorzystasz na płatnych planach czata GPT i warto to zrobić.
Nowości w grach.
Up2Clap, wtyczka dla programów do obróbki dźwięku pozwalająca na przechwytywanie dźwięku z dowolnej aplikacji.
Systemy 26 wydane, Apple Vis publikuje listę wykrytych błędów.
AudioPub chce być jak TikTok i dostaje widok strunienia.
Co jeszcze warto wiedzieć o nowym sprzęcie Apple?
Przenosisz się do Apple Music z innej usługi? Łatwiej zmigrujesz swoje dane.
Nowości w Spotify.
Ruszają testy wyszukiwarki Google w formie aplikacji pod Windows.
A na koniec obszerny opis zestawu do korzystania ze Starlinka od naszego słuchacza.
Wszystko to, a pewnie jeszcze więcej, już za chwilę.
Zaczynamy!
Tyfo Przegląd jest audycją prowadzoną na żywo,
więc serdecznie zachęcamy Państwa do współtworzenia go razem z nami.
Oczekujemy na wiadomości głosowe na Whatsappie
oraz połączenia telefoniczne pod numerem 663-883-600,
powtarzam, 663-883-600,
oraz zapraszamy Państwa do wyrażania komentarzy w formie tekstowej
poprzez formularz na stronie kontakt.tyflopodcast.net.
Odczytujemy również Państwa wypowiedzi zamieszczone pod transmisjami na Facebooku i YouTubie.
Staramy się też zaglądać na nasz tyflopodcastowy serwer Discorda.
No to co? Trzysetna audycja.
Tak jest.
300 odcinków za nami.
300 odcinków za nami.
Michał Dziwisz, Piotrek Machaczyja, czyli Tomek Bilecki.
Dzień dobry, dzisiejszej jubileuszowej audycji. Bierzemy udział.
I w ramach takiego czegoś, takiego bonusu, który z reguły mamy w tych naszych jubileuszowych audycjach,
to może przypomnimy sobie, o czym to w ogóle mówiliśmy w pierwszym tyfloprzeglądzie.
Bo kilka tego było. Tu Michał w naszych notatkach tutaj przygotował taki skrót wiadomości.
Zgadza się, zgadza się. Ja przygotowałem, a też pomógł mi w tym Piotr. Bardzo ci za to serdecznie dziękuję i sztucznej inteligencji od Google’a.
Tak, i jeszcze Whisper to mi po drodze też pomógł.
Także, słuchajcie, wspomagamy się nowoczesnymi technologiami, o których mówimy. Także my nie jesteśmy takimi teoretykami, że to tylko tam opowiadamy.
Przy okazji myślę, bo a propos, co tu robi sztuczna inteligencja z Google, chciałoby się zapytać.
I ja muszę, znaczy muszę, nie muszę, ale chciałbym powiedzieć o tym, jak mi na przykład Gemini,
ostatnio czar GPT, ale Gemini robi to lepiej, jak mi pomaga w tworzeniu rozdziałów do tyflo przeglądu,
bo od pewnego czasu ja się tym zajmuję.
Otóż, nawet jak mnie nie ma na audycji, no to gdzieś tam to robię.
I pewnego czasu jakiegoś temu postanowiłem wysłać taki transkrypt,
tylko że transkrypt z czasami tych wszystkich wypowiedzi,
czyli taki, w którym oprócz samego transkryptu jest również czas,
w którym dana wypowiedź się wydarzyła,
Jeminajowi i nagle go zapytać, czy mógłby podać mi rozdziały do tej audycji.
W taki sposób, żeby bloki odsłuchaczy były jednym rozdziałem, żeby każdy temat miał swój rozdział,
ten, który jest zapowiadany. No i Jeminaj chwilkę myślał i rzeczywiście dawał mi te rozdziały.
W większości przypadków, może nie to, że się w ogóle nie mylił,
bo się mylił, typu 10 sekund wtedy albo w drugą stronę,
czyli trzeba było trochę dokonać korekcji, jeżeli chodzi o te czasy.
Niemniej było to możliwe i całkiem miło się to czytało,
do tego stopnia, że zdarzały się wypadki, w których temat rozdziału
zaproponowany przez Jeminaja był taki fajniejszy od tego, co było w naszych
notatkach napisane. Czyli Jeminaj lepiej sobie poradził od nas, jeżeli chodzi o
zatytułowanie tego, o czym mówimy.
Jest kreatywniejszy.
Tak, to jest ciekawe.
Przy czym też jest ciekawe to, że on w ogóle nie robił takich clickbaitowych
tytułów. Rzeczywiście te tytuły bardzo często wyjaśniały o co chodzi w tych
w tych odcinkach, co też może być taką być może podpowiedzią dla kogoś,
bo ja sobie na przykład wyobrażam sytuację taką, w której zastanawiam się, czy chciałbym
obejrzeć jakiś film na YouTubie, czy posłuchać jakiegoś podcasta, który trwa,
nie wiem, dwie godziny. Przepuszczam go przez Whispera.
Teraz też różnych stron, na których można skorzystać z Whispera jest dość dużo.
Są czasami jakieś limity odnośnie czasu, często do pół godziny,
ale można teoretycznie pobrać taki plik, podzielić nawet na fragmenty.
Zapewne dałoby się to nawet zrobić jakimś skryptem jednym,
który to pobiera i dzieli.
I wysłać potem taki przewisperowany odcinek
czy nawet kilka odcinków do jakichś whisperów
i zapytać, o czym mówią w tym podcaście.
Jakie tam są tematy poruszane? I tak dalej, i tak dalej.
To można nawet jeszcze łatwiej, jeśli chodzi o YouTube’a.
Nie wiem, jak jest ze stroną Gemini. Może to w końcu działa.
Na pewno to działa po apie, więc jeśli ktoś na przykład ma
czy to Basiliska, LLM, czy Bold.ai,
trochę tych aplikacji omawialiśmy,
VOLA ma też, które wspierają Gemini,
to można po prostu sobie nawet wkleić link do filmu na YouTubie,
albo można pliki załączyć.
Nawet chyba w zeszłym tygodniu mówiliśmy o tym,
że aplikacja Gemini teraz też wspiera
do łączenia plików audio, natomiast wtedy też tam już są limity.
W wersji darmowej chyba jest co 10 albo 20 minut.
W wersji Pro, Google AI Pro, to są chyba trzy godziny.
Nie wiem, jak jest z YouTubem. Na pewno mogę powiedzieć,
no, ja dzisiaj też z tej możliwości korzystałem
podczas przygotowania się do audycji,
bo w komentarzu będzie na przykład z jednym ze źródeł
dzisiaj film na YouTubie, który chyba tam kilkanaście minut trwał.
I bez problemu właśnie po API,
tutaj akurat przez Bolt AI,
A jeżeli się boicie słowa API, bo to jest, ojej, to jest programowanie, to dzisiaj jeszcze będzie coś na temat takiego programu, który był właśnie pisany przez kogoś, kto jeszcze trzy lata temu nie bardzo wiedział, o co w tym chodzi. Ale nie uprzedzajmy faktów. Na razie przejrzyjmy się audycji numer jeden w Tyflo Przeglądzie.
Trzynasty dzień sierpnia.
Trzynasty, tak.
Mi ciągle nie może wyjść z głowy, no jak my się zastanawialiśmy,
czy na pewno co tydzień to w ogóle będzie o czym mówić w Tyflo Przeglądzie,
bo przecież ile to informacji można by ewentualnie znaleźć,
które jakoś tam, choć trochę będą przydatne osobom niewidomym.
No to teraz mamy po cztery godziny audycję i…
Niejednokrotnie witamy się z kolejnym dniem. A jeżeli chodzi o ten pierwszy Tyflo Przegląd, to m.in. w ogóle skład nasz to był, czekajcie, kto wtedy, jeszcze Robert Łabęcki był z nami i Mikołaj Hołysz był, czy go nie było?
Mikołaj Hołysz i chyba Piotrek Malicki był też na początku.
W pierwszej audycji go nie było.
Potem jeszcze Paweł Masarczyk do nas dołączył.
Tak, w kolejnej audycji był.
Kasia Ślipek też się pojawiła.
Zresztą osób, które się przez Tyflo Przegląd przewinęły, to było jeszcze kilka.
Co ciekawe, ta pierwsza audycja też miała dwóch słuchaczy, którzy się wydzwaniali.
I to są słuchacze, którzy są z nami do dziś i w sumie też nam umawiają te tematy omawiać,
bo mianowicie był to chyba pierwszy Patryk Mojsiewicz,
który się wydzwonił, oczywiście w sprawie gier, o tym chyba za chwilę też będzie,
a drugą osobą, to to już w ogóle osoba, która ostatnio awansowała, można powiedzieć,
to był Maciek Walczak.
Tak jest.
Którego akurat dzisiaj nie ma, ale tutaj też nam pomaga teraz stworzyć tę audycję.
Krótko mówiąc, sami swoimi.
Zresztą Maciek też miał pewien pomysł,
jak można uwiecznić i uświetnić ten nasz trzysetny odcinek,
Tak, ale chyba przełożymy sobie to na 301 i będziemy o tym was informować i będziemy do czegoś was zachęcać,
ale to sobie porozmawiamy o tym prawdopodobnie za tydzień, bo jeszcze konkretnych danych od Maćka nie dostałem,
więc tak pozwolę sobie na razie to bardzo enigmatycznie ująć.
W każdym razie, co my tu mamy, jaką mamy rozpiskę tematów, to oczywiście nie są wszystkie, bo to są takie najważniejsze punkty
I takie punkty, co do których możemy też się odnieść gdzieś tam, jak to wszystko się zmieniło i jak to się potoczyło.
No słuchajcie, pierwszy temat, który wtedy nas dopiero zaczynał gdzieś tam frapować, to pamiętam, że Robert był tak bardzo sceptycznie do tego nastawiony,
że teraz to się trzeba będzie autoryzować w banku, jeszcze dodatkowo uwierzytelniać za pomocą drugiego składnika,
Albo za pomocą SMS-a, albo za pomocą aplikacji bankowej. W tym przypadku to zdaje się, że wtedy ICO wprowadziło te funkcje, bo od września to już generalnie wszystkie banki były do tego zobowiązane.
No, w dzisiejszych czasach to jest sytuacja taka, że nie ma banku, który nie miałby czegoś takiego, bo po prostu przepisy są takie…
Ta wytyczna dyrektywa PSD-2 to się chyba nazywa, więc to po prostu być musi i tak jest.
Ale wydaje mi się, że nikomu się krzywda z tego powodu nie dzieje. Ja się osobiście czuję naprawdę zdecydowanie bezpieczniej,
kiedy oprócz podania hasła, które zawsze może gdzieś wyciec, to jeszcze muszę dodatkowo potwierdzić,
i że ja się chcę do tego banku zalogować i że to nie jest ktoś, kto miałby jakiś zły zamiar.
Był też wątek SMS-kodów, czy SMS-y znikną. Na razie mają się dobrze. Często są… nie są pierwszą metodą weryfikacji.
Na przykład w moim banku, czyli w Santanderze teraz w ogóle jest tak, że domyślnie, kiedy to nowa aplikacja się pojawiała,
no motyw w ogóle nowych aplikacji to też się przewijał wiele razy. Czasami było z nimi lepiej, czasami gorzej, ale no na szczęście prędzej czy później
Wcześniej te błędy były poprawiane, jeśli jakieś były, no mniej więcej po tej aktualizacji była wymuszona autoryzacja przez aplikację mobilną, natomiast jakby ktoś chciał do SMS-kodów powrócić, to da się ciągle to zrobić.
Tak, no i to jest po prostu backupem. Jeżeli na przykład zniszczy nam się telefon albo z jakiegoś powodu nie będziemy mieć dostępu do tej aplikacji mobilnej, no to zawsze możemy się przerzucić na korzystanie z tych SMS-ów,
ale potwierdzić jakoś w dodatkowy sposób tę naszą tożsamość musimy.
Kolejny temat i ten temat to mam wrażenie, że się naprawdę bardzo, bardzo rozwinął.
Bo tu mamy rozpoznawanie obrazów w przeglądarce Google Chrome.
Wtedy wspominałem o tym, że coś tam się zaczyna dziać,
że zaczyna pojawiać się ta funkcja, możemy ją włączyć.
Głównie działa jako OCR, czasem coś tam jeszcze jest w stanie rozpoznać.
I tak naprawdę, jeżeli chodzi o to, co mamy w Chrome’ie, to tu się niewiele zmieniło.
To jest jak było.
Częściej chyba te opisy może występują, ale one są nadal takie hasłowe, jednozdaniowe,
czy to nawet trudno nazwać.
Ale jaki to był wtedy efekt. Wow.
I to nie tylko Chrome to dodał, bo w ogóle pierwszy to chyba, nie pamiętam, był chyba któryś iOS 10 albo 11.
Właśnie, ja to dosyć dobrze pamiętam, że były takie niedostępne aplikacje jak Discord,
które były bardzo niedostępne, tam było dużo niezetykietowanych przysług.
To się też zmieniło.
Tak, to też właśnie.
A wtedy to, jak zacząłem mówić, że tu jest jakaś lupa, tu jest jakaś igolna osoby,
i tam już mogłem coś uaktywnić mniej więcej.
No, to było wow, do tego stopnia, że na przykład kiedy później pojawiło się
to słynne rozpoznawanie ekranu, czy też rozpoznawanie obrazków,
które no niestety do dziś cały czas nie działa po polsku, mówię tutaj o tych prostych,
W tych jednozdaniowych opisach zdjęć, które się pojawiły to ja zmieniłem iPhone’a na takiego, który miał na tyle nowy procesor, żeby to wspierać, bo to mnie tak zauroczyło gdzieś, a co mamy teraz to już w ogóle.
Przy okazji tego, jak można było sobie radzić ze zdjęciami z mediów społecznościowych,
To wspominaliśmy wtedy o stronie mfacebook.com albo mbasicfacebook.com.
No i tu się zmieniła ta historia tak, że tę stronę pożegnaliśmy już jakiś czas temu.
Ona już w ogóle nie jest dostępna i nie wiem jak wy.
Czy wy w ogóle byliście jakimiś użytkownikami takimi bardziej intensywnymi Facebooka?
Chyba nie, natomiast ja dość intensywnie z Face’a korzystałem.
To ja powiem szczerze, że moja aktywność na Facebooku znacznie zmalała, bo w tym momencie jedyną metodą sensowną na przeglądanie Facebooka to jest, jak dla mnie przynajmniej, aplikacja mobilna, ale z kolei na przykład wchodzenie tam w jakieś głębsze dyskusje, pisanie tego tekstu na…
Nawet brajlem. Dla mnie nie jest to wygodne. I mi się najzwyczajniej w świecie nie chce.
Więc ja po prostu… Więc kiedyś jak mogłem sobie spokojnie usiąść do komputera,
napisać jakiś komentarz, to bardzo chętnie sobie z ludźmi dyskutowałem na fejsie,
ale teraz to zwyczajnie nie mam do tego cierpliwości.
Tak, tylko teraz chyba część z tych facebookowych rzeczy to faktycznie się na Messengera przyniosło.
I ten Messenger to jeszcze jak cię tam nie mogę.
Wiesz co, to znaczy zależy o czym mówisz, bo Messenger dalej pozostał komunikatorem. Tam są jakieś takie czaty grupowe, ale te czaty grupowe to jest jeszcze większe zło niż strona Facebooka.
Bo z nich się bardzo źle korzysta.
Tak, grupowe tak, natomiast prywatnie, tak jak rzeczywiście się pisało kiedyś na Facebooku Facebooku i tutaj też następny punkt programu, czyli Miranda.
Oj tak.
Jeszcze się z tego wtedy korzystało. Teraz nie.
Chyba, że komuś to jakimś cudem jeszcze działa.
Teraz oczywiście Messenger, jeżeli już coś.
To były inne czasy w ogóle. Ten rok 2019 to jeszcze był czas, kiedy jeszcze te…
znów wracamy do tego słowa API, czyli sposób, w który aplikacje mogły łatwo,
łatwiejszy albo trochę trudniejszy sposób dobrać się do jakiejś strony.
Były bardziej popularne niż są teraz, bo to były czasy, kiedy jeszcze, w czasy dziewiętności, miał Twitter, teraz X przez aplikacje zewnętrzne.
Facebook api swoje już wtedy pozamykał, ale jeszcze tam Miranda jakoś działała, aczkolwiek już tutaj pomału zaczynało się blokowanie kont.
Może nie takie banowanie, co jeszcze nie.
Był Reddit, a teraz to są generalnie usługi, które dostęp taki zewnętrzny pozamykały.
I teraz właśnie chcemy gdzieś korzystać z jakiejś aplikacji czy do komunikacji, bo też Miranda była tyle fajna, że mogliśmy mieć kilka komunikatorów w jednym miejscu, tak?
Mieliśmy jedną listę kontaktów, gdzie mieliśmy na przykład listę z gadu-gadu, z Facebooka, może z jakiegoś Skype’a, bo też się dało to jakoś z innego.
Właśnie Skype jeszcze wtedy był dosyć popularny.
Właśnie był, był jeszcze. Wtedy w ogóle był.
Wtedy był, tak.
To jeszcze ten klasyczny Skype w ogóle, oj.
Dobre, dobre czasy.
Jeżeli o Mirandę chodzi, to ja Wam powiem, ja cały czas ją jeszcze mam zainstalowaną i czasem ją odpalam.
Znaczy odpalam ją, w zasadzie mam ją odpalaną cały czas, bo z systemem mi startuje.
Mam tam jeszcze skonfigurowane gadu-gadu, z którego naprawdę już bardzo, bardzo niewiele osób korzysta,
ale czasem się tam ktoś jeszcze odezwie. No i tak naprawdę to jest tyle.
Miranda to było centrum komunikacji w dzisiejszych czasach. Jak ta komunikacja przeszła na Whatsappa, na Messengera, a Whatsapp to nawet i z komputera to też jest całkiem fajna, dostępna aplikacja.
Nie ma z nią żadnych problemów większych, więc można. Messenger taki webowy się zrobił, ale też jak ktoś chce to jest w stanie z niego korzystać.
Tak więc, to poszło akurat do przodu.
No, tego nie można powiedzieć o Telegramie na iOS-ie.
Tak, Telegram na WiMesa to się popsuł.
Tak, bo mówiliśmy o problemach dostępnościowych na Telegramie
z Telegramem na iOS-ie w 2019 roku
i o tych problemach dostępnościowych mówimy nadal,
bo to po prostu w żaden sposób się nie poprawia.
Teraz chyba nawet jest, mam wrażenie, gorzej.
Tak, Mikołaj chyba wtedy wspomniał,
że to nawet jakoś działa na Androidzie, to działało świetnie
I tak zostało.
Tak, to prawda.
No niestety, dostępność.
Jakieś oszustwa inwestycyjne, którą próbowałem zgłosić jako spam, nie dało się.
Po prostu voice-over tego menu dodatkowych czynności nie widziało rozpoznawania ekranu.
Też nie za bardzo chciało kliknąć w te elementy.
No i to jest wierzchołek góry notowej, bo tam ludzie mają problemy z udostępnianiem materiałów.
Jeśli ktoś próbuje udostępnić do Telegrama, to tam nie działa.
Nawet z przewijaniem wiadomości, to tak różnie to działa.
I naprawdę, gdyby to działało na iOS-ie tak jak na Androidzie, albo nawet na komputerze.
Mamy dwa programy, które na Windowsach naprawdę dobrze działają, więc na iOS-ie się to jakoś nie udaje.
A szkoda, bo naprawdę Telegram ma kilka bardzo fajnych funkcji, których konkurencja nie ma.
Słuchajcie, Telegram jest przede wszystkim też, mimo tego jaką on ma złą sławę, bo tak ja się parę razy spotkałem na przykład gdzieś tam na YouTubie z takimi komentarzami.
Co wy tak tego Telegrama promujecie? To jest ruski komunikator i to jest w ogóle nic dobrego.
Generalnie Telegram nie ma jakiejś dobrej sławy, jeżeli chodzi o to, co tam można znaleźć.
Bo Telegram ze względu na to, a przynajmniej taką pozorną jego anonimowość i powszechność jednak,
że wiele osób to zna i dość szerokie też API dostawiania różnych botów,
to bardzo często jest wykorzystywany do różnego rodzaju oszustw.
I to jest prawda. Telegram, jak ktoś Was namawia, na przykład chce z Wami robić biznes i namawia Was na założenie w tym celu konta na telegramie,
to ja bym się dwa razy zastanowił, czy chciałbym to robić, bo to może być rzeczywiście jakieś oszustwo, ale sam komunikator jako taki naprawdę ma całkiem fajne możliwości,
daje sporo funkcji.
Chociażby, na przykład jak ja chciałem zintegrować publikacje
postów, wysyłki postów z Tyflopodcastu
na kanał telegramowy i na kanał Whatsappowy.
To na kanał Whatsappowy musiałem napisać sobie wtyczkę
i postawić jeszcze kontener z nieoficjalnym API.
Znowu to magiczne słowo.
żeby to wszystko zaczęło działać.
Natomiast w Telegramie to wystarczyło skonfigurować sobie bota
i zainstalować wtyczkę, która już była w WordPressie dostępna.
Więc, no, to jest ta skala i to są te różnice.
Tak, w Telegramie jeszcze Discord, tak, stoją tymi botami,
a WhatsApp, Messenger, no to tutaj oficjalnych api nie mają, znów to słowo.
To prawda. Co do WhatsAppa, to właśnie też wtedy były problemy z nim na Androidzie.
Tomku, a jak teraz jest w ogóle na androidzie z Whatsappem? Chyba nie jest najgorzej.
Nie jest najgorzej, ale szczerze mówiąc, niewiele się zmieniło od dwa tysiące.
To znaczy…
Ale jakieś czynności chyba są w końcu.
Jakieś czynności tam są, natomiast nadal przeglądanie wiadomości, tak żeby, nie wiem, przejrzeć 200 wiadomości na Whatsappie,
to nie jest najwygodniejsze, bo zwłaszcza w głosowych wiadomościach to trzeba kilka razy palcem przesunąć, żeby trafić na ten przycisk odtwórz.
Nie wiem jak teraz, swego czasu w komentary było z tym lepiej.
Choć było chyba lepiej dlatego, że tam się dało jakoś to skryptować i zrobić, żeby to jakoś lepiej działało.
Niemniej nadal Telegram jest tutaj niedościgłym wzorem.
Zresztą Telegram ma również czynności i te czynności miał jeszcze zanim to się stało.
No nie wiem, na ile modne, ale rzeczywiście z takich zmian, w ogóle czynności na Androidzie, zwłaszcza w tym roku,
no to rzeczywiście zaczęły się pojawiać w niektórych aplikacjach.
I to cieszy, bo…
W tym w sensie 25., nie 19.
Tak, w 25.
Okej, no w sumie szkoda, że nie w 19.
No 2019 rok to były czasy, kiedy Android jeszcze nie miał wielopalczastych gestów.
Tylko na Samsungach tych pierwszych to było.
To się chyba pojawiło rok później, bodajże, pamiętam, to była pandemia,
jak gdzieś znalazłem informację, że w końcu Talkback to zacznie wspierać.
Na początku tylko na pikselach, tam też były różne rzeczy z tym,
ale też w końcu już Talkback, jeśli nawet chodzi o te gesty,
to jest tego więcej po prostu.
Tak, bo to nawet nie to, że Android zaczął wspierać,
no bo chociażby przewijanie list, no to był gest dwoma palcami,
przerzucanie stron, ale nie było gestów takich,
No, które można sobie zagospodarować w TokBeku.
I kolejny temat to Piotrze, myślę, że twój ulubiony, bo nie jest tajemnicą, że tu to specjalistą od gier to jesteś ty,
bo bardzo często nas informujesz o tym, jakie są nowe tytuły, w co można sobie pograć i co się nowego i ciekawego pojawiło.
No i właśnie wtedy to mówiliśmy o grze Sequence Storm, która była dostępna dla osób niewidomych.
No to okej, ale był to tytuł taki mainstreamowy. To nie była tak zwana gra audio.
To było coś, co było zaprojektowane z myślą osobach widzących i po prostu też niewidomy mógł w to pograć.
Tak, i zawodowy przy okazji postanowił dodać dostępność do tej gry.
To był taki, jak to zresztą sam zaznaczyłeś w notatkach, taki trend,
to też Mikołaj na to zwracał uwagę, który wtedy dopiero się rozpoczynał.
I to była gra pod wieloma sensami rewolucyjna,
bo to była jedna z pierwszych gier, która była udźwiękowiona,
która miała, nazwijmy to audiodeskrypcją w czasie dialogów,
jeśli mieliśmy np. jakieś nowe postacie, które pojawiały się na ekranie,
Były one dla nas opisywane i to było fajne.
I generalnie wszystkie nowe mechaniki, które w tej grze się pojawiały,
były dla nas udostępniane.
Przez to, że to była gra rytmiczna, więc jej głównym celem jest to,
że musimy odpowiednio naciskać przyciski do rytmu,
żeby akurat w tej grze ścigamy się takim futurystycznym statkiem
po różnych planszach.
Musimy po prostu jak najlepiej grać, żeby ten wyścig dany wygrać i zdobyć pieniądze,
żeby przechodzić kolejne poziomy kampanii, bo tam jest taki tryb jednoosobowy,
w którym jest cała fabuła. Ale też użytkownicy mogą własne utwory tego tworzyć.
Gra też miała naprawdę fenomenalną muzykę. Jak wiele gier rytmicznych,
tam jest generalnie muzyka elektroniczna, ktoś lubi house, drum’n’bass
i tego typu klimaty. Jeśli jeszcze nie graliście, polecam.
Zwłaszcza, że gra ta teraz jest grą darmową.
Nie wiem dokładnie, jak teraz te płatności wyglądają,
ale wiem, że tam można coś potestować za darmo.
Wtedy to jeszcze była gra płatna.
Ona jakiś czas później zmieniła swój model dystrybucyjny.
I tak jak wtedy zaznaczaliśmy, to był początek trendu.
Trendu, który na szczęście cały czas postępuje.
To był początek, wydaje mi się, rewolucji,
bo kiedy to się pojawiało,
To były czasy, kiedy taki podstawowy problem był taki,
że ta gra, jak wiele gier dla widzących, pojawiła się na platformie Steam.
Steam to jest po prostu, jeśli ktoś nie zna,
to jest coś w stylu App Store czy Google Play dla gier na komputery.
I ta aplikacja była bardzo niedostępna w tamtych czasach.
Dało się z niej korzystać, nie było tak, że się nie dało,
ale byli w społeczności ludzie, którzy grali tylko w gry audio,
Bo tak się tego Stima bali, bo tam trzeba było trochę kombinować z wierszem poleceń,
z trybem podglądu w NVIDIA, z kursorem JAWS.
Nie było to za wesołe.
Trzeba było z poziomu strony trochę zdalnie tą aplikację sterować.
Teraz jest też ze Stimem dużo lepiej,
bo aplikacja przekształciła się praktycznie cała.
Widać stronę internetową,
która nawet w ramach ostatnich kilku miesięcy
doczekała się znacznych popraw dostępnościowych,
O którym dzisiaj zresztą też będzie, bo to cały czas postępuje.
A jeśli chodzi o same gry, to rok 2019 to były czasy,
kiedy mieliśmy właśnie tę grę.
Mieliśmy tam kilka gier komputerowych, które były jakoś dla nas dostępne.
Z konsol to chyba tylko Xbox miał narratora.
Natomiast rok później mieliśmy The Last of Us.
Ciągle do tej gry wracamy, ale to był naprawdę szandarowy przykład,
Jak zrobić grę dla widzących, która jest przy okazji też dostępna dla niewidomych.
Wyszedł nowy PlayStation PS5, który też doczekał się czytnika ekranu.
No i później z czasem kolejne konsole, które się pojawiały,
czyli kolejne modele Xboxa, Series X i S, też już dostały czytnik ekranu.
No i teraz znów nawet w tym roku Nintendo Switch 2 też w jakimś stopniu jest udźwiękowiona.
Takich gier wychodzi coraz więcej, zarówno od takich dużych firm,
ale też z deweloperów niezależnych.
Sequence Store był przykładem gry od twórcy niezależnego.
Ta gra była o tyle istotna,
że ten deweloper później miał kilka prelekcji
na różnych konferencjach dla ludzi tworzących gry.
Dzięki temu funkcje dostępności zaczęły się bardzo popularyzować
i takich gier, nie tylko rytmicznych, ale też rytmicznych, mamy coraz więcej.
Dużo modów zaczęło się pojawiać dostępnościowych.
Więc tutaj też zdecydowanie poszliśmy do przodu.
Za to mam wrażenie, że nie poszliśmy do przodu w kwestii kolejnej,
o której mówiliśmy, czyli wszelkiego rodzaju interfejsach dotykowych
i dostępności tychże w kontekście terminali płatniczych, domofonów
czy kiosków na przykład. Być może te ostatnie prawne zmiany
coś tu wymuszą, jeżeli chodzi o nowo produkowane sprzęty.
Natomiast, no, w przypadku domofonów, to jak był problem, tak jest nadal, jeżeli chodzi o terminale, no to można sobie radzić, tak jak sobie radziliśmy te 6 lat temu, czyli za pomocą Apple Pay i Google Pay.
I to już nie jest problem też, jeżeli chodzi o tego ostatniego, bo już on tam nie wymaga też bodajże autoryzacji tych płatności, bo kiedyś Google Pay to chyba jakoś do stówki miał limit. Teraz już…
Nie pamiętam kiedy ostatni raz płaciłem kartą.
Zawsze płacę telefonem od naprawdę długiego czasu.
I podejrzewam, że różnica polega ewentualnie na tym, że rzeczywiście
pewnie większy procent osób płaci tymi telefonami.
No i rzeczywiście to działa po prostu.
Teraz są jeszcze zegarki z funkcją też płacenia.
Ja się obawiałem tego, że procentowa ilość tych terminali płatniczych
z ekranem dotykowym wzrośnie i wydaje mi się, że jednak nie.
Nadal te terminale dotykowe są w mniejszości.
Jedyne z czym może być problem i co nas trochę w gorszej sytuacji stawia,
Jeżeli chodzi o takie płatności, to że my dowiadujemy się niejako po fakcie.
Jeżeli na przykład ktoś nabił złą cenę, bo w przypadku osoby widzącej, no to jest tak,
że zazwyczaj dostaje ten terminal do wprowadzenia PIN-u do karty i widzi.
I widzi jaka jest kwota, więc jeżeli coś jest nie tak, może zareagować.
Jeżeli my zostaniemy, ja już nawet nie chcę powiedzieć oszukani, ale po prostu rozliczeni w niewłaściwy sposób, bo się komuś coś źle nabiło, to my dopiero o tym się dowiemy, jak przeczytamy, że karta została obciążona taką i taką kwotą.
Oczywiście wiadomo, można to reklamować i tak dalej, ale tego wszystkiego można by było uniknąć już wtedy, gdybyśmy wiedzieli od samego początku, że coś jest nie tak i mogli zainterweniować.
Jeszcze coś tutaj chciałem powiedzieć.
Po pierwsze, tutaj też nie pamiętam, kto to powiedział,
ale chyba też z Mikołaja, może Robert, nieważne.
Ktoś w tej audycji powiedział, że w tamtym czasie producenci
za bardzo nie mieli na to pomysłu.
Teraz prawo ich dogoniło.
Niby jakieś pomysły są, ale to wdrażanie idzie bardzo powoli, niestety.
To jest jedno.
Mówiliśmy o terminalach, o kioskach, tam była mowa chyba o restauracjach,
ale to nie tylko w restauracjach typu McDonald’s czy KFC.
Takie kioski się pojawiają, natomiast też taki ogólny problem,
który niestety cały czas jest aktualny, nie nawet bardziej aktualny niż wtedy,
to coraz większe ilości ekranów dotykowych, które nas otaczają
i powodują problemy nie tylko z tymi kwestiami.
Niech tutaj dobrym przykładem będzie dyskusja,
która pojawiła się podczas podcastu o targach IFA i o piekarnikach.
To prawda, no prawda, bo to bardzo dużo tych ekranów dotykowych jest i w sumie,
jak widać, my nie mamy problemu z obsłużeniem takiego ekranu dotykowego,
jeżeli tylko mamy odpowiednie ku temu możliwości, czyli tak jak w przypadku
systemów mobilnych, no po prostu coś tam nam gada i informuje nas o tym,
jakie opcje mamy wybrane.
No a jeżeli jest cisza, no to, to nawet nie ma opcji, żebyśmy się nauczyli obsługi tego sprzętu w taki czy inny sposób, nawet jakoś pamięciowo.
Też poza tym, to ja sobie jestem w stanie wyobrazić, wiecie, taką sytuację i ona może być coraz częstsza. Dajmy na to, rezerwujemy sobie jakiś, no nie wiem, na przykład domek gdzieś.
Wyjeżdżamy sobie, są dwie osoby niewidome i wyjeżdżają sobie. Teraz jest coraz bardziej popularne te wszystkie systemy tam właśnie bookingowe, te booking.com i podobne, gdzie nawet właściciela nie ma, żeby nam przekazał klucze, są jakieś kody do wprowadzenia i zazwyczaj właściciel nam przekazuje jakieś takie kody.
No i teraz pytanie, jak, jeżeli byłaby sytuacja taka, że my dojeżdżamy do tego domku, czy do jakiegoś tam pokoju, czy czegokolwiek i musimy wbić ten kod na panelu dotykowym, to jest bardzo duży problem.
Zwłaszcza jeżeli to jest w takim miejscu, że no po prostu nie będzie miał kto nam pomóc.
Tak samo, no, chociażby kwestia tych restauracji, tak?
Jeżeli na przykład coś chcemy sobie zamówić, jeżeli do takiego tradycyjnego stoiska
na przykład jest duża kolejka, do automatu mniejsza, no to my też jesteśmy poszkodowani.
Nawet jeżeli ktoś może powiedzieć, że nas ktoś obsłuży.
I nie wiem, czy pamiętacie, że w którymś Tyflo Przeglądzie też,
znaczy w kilku chyba nawet była mowa o jakichś aplikacjach,
które teoretycznie mają w tym pomóc, ale to się na razie już chyba żadna nie się nie sprawdziła tak naprawdę, niestety.
No niestety, niestety. To jest cały czas… Jeżeli dane, jeżeli dany system nie będzie miał jakiegoś…
Albo właśnie, no znowu słowo klucz API, z którym, za pomocą którego będzie się można zintegrować z taką aplikacją.
Albo jeżeli nie będzie miał po prostu wbudowanego jakiegoś szczytnika ekranu, to ja to czarno widzę, żeby dało się to po prostu jakoś obsłużyć faktycznie.
Teoretycznie, przepraszam, że coś, mam jakiś nos lekko zatkany, nie wiem, coś tu się dzieje, w każdym razie, ja nawet jestem teoretycznie w stanie sobie wyobrazić jakieś rozwiązanie, natomiast byłoby to pewnie skomplikowane, bo nie wiem, czy pamiętacie, kiedyś było takie urządzenie Optacon, że kamerka i taki, powiedzmy, że wyświetlacz brailowski, ileś na ileś
I można było sobie sprawdzać, co, gdzie jest.
No, to problemów miało kilka, bo te punkty drgały,
wibrowały z bardzo taką dużą szybkością,
że aż to brzęczało tak dość wysoko.
Jest podcast zresztą Twojego autorstwa. Jeden z pierwszych.
Tak. I trzeba się uczyć na tym optakonie dość długo, żeby pracować.
Teraz w ogóle tego już nie ma, chyba nawet w Europie.
Ostatnio wpadła mi taka informacja, że człowiek, który się w Europie zajmował serwisem tych urządzeń,
już w ogóle przeszedł na emeryturę i się tym nie zajmuje.
Jedynie jeżeli na przykład chcielibyśmy korzystać z takiego optakona,
bo jakimś cudem jeszcze jesteśmy jego posiadaczami, bo to było urządzenie bodaj z lat 70.,
to jedynie trzeba do Stanów to wysyłać.
No i… ale no, teoretycznie pewnie dałoby się zrobić trochę podobne urządzenie.
No pewnie już dużo zgrabniejsze i bez tego ciągłego wibrowania tymi punktami,
bo to nie było takie przyjemne uczucie, bo no te takie wibrujące punkty,
no to tak… to takie mrowienie było rzeczywiście.
To trochę jakby palec zdrętwiał, tylko w taki sposób, że dało się teoretycznie
Gdzie to drętwieje, bo to troszeczkę podobne uczucie.
No w każdym razie, pewnie teraz dałoby się to zrobić lepiej,
ale o ile mi wiadomo, nikt tego nie robi.
No i nie ma tu żadnego na razie pomysłu chyba takiego sensownego na to.
A trochę szkoda, bo mogłoby być to ciekawe.
Ale słuchajcie, żeby nie było tak pesymistycznie,
to jeżeli chodzi o aplikacje kolejowe, to się poprawiło.
Oj tak.
Oj, bardzo, bardzo.
W ogóle, jeżeli chodzi o rozkłady jazdy, to się poprawiło.
No bo o wielu latach, choć liczyłem, że będzie lepiej, pojawił się mobile MPK na iOS-ach,
choć znowu to jest aplikacja, która lepiej, dużo lepiej działa na Androidzie.
Bo na iOS-ie tu ciągle są jakieś niepotrzebne rzeczy, trzeba ileś tych flików zrobić,
…żeby się dostać gdzieś dalej. Natomiast na Androidzie ja nawet mogę pokazać jak to wygląda.
Mobile MPK.
Wchodzę… aha, tutaj mamy jakąś nową wersję.
Tu akurat mam Poznań, co prawda, z jakiegoś powodu, ale tu zaraz sobie dam na Warszawę.
No i co? Mamy rozkład przystanku, rozkład linii.
Ja sobie wyłączyłem jakieś tam, bo są jeszcze jakieś rowery miejskie, coś.
No i znowu wchodzę, rozkład przystanku.
I pod kolejnymi flikami, najpierw ulubione.
Niech będzie na przykład prasowa, ciach.
Wchodzę na prasową.
No i znowu, prasowa 01, tylko ja może to jednak zwolnię.
No i proszę bardzo.
I znowu mogę wejść w kolejny autobus i widzę już…
I tak dalej, i tak dalej, więc jakby no niestety na iOSie tak ładnie to nie wygląda.
Zresztą w dowolny przystanek jeżeli wejdę,
Stuknę, no to…
Mogę jeszcze pokazać…
O, tu są jeszcze jakieś reklamy.
Mogę sobie pokazać, zdaje się,
wszystkie linie z tego przystanku,
które odchodzą.
Albo nie, ale kiedyś się dało.
Przystanek…
No w każdym razie sporo tutaj się da zrobić.
No i rzeczywiście na iOS jest niestety z tym nadal kiepsko.
No także trochę szkoda.
Ojej. Natomiast jest jeszcze oczywiście Time for Bus od jakiegoś czasu.
I Time for Bus zarówno na iOS, jak i na Androidzie praktycznie działa tak samo.
Na jednej a drugiej platformie są czynności.
No i rzeczywiście Koleo, które zrobiło się bardzo dostępne, łatwe.
Wybór miejsc nawet jest dostępny i też stosunkowo łatwy.
W pociągu można sobie sprawdzić, które miejsca są dostępne,
ile tych miejsc, wybrać sobie te miejsca.
Także całkiem przyjemnie to działa.
Zresztą to jest do tego stopnia nieraz ciekawe,
Problem polega na tym, ja bym chciał mieć możliwość zobaczenia sobie mimo wszystko, również czasami przynajmniej, tych zajętych miejsc.
Dlatego, że jeżeli kupuję bilet, mam wagon dwunasty i teraz ja nie wiem, czy to jest wagon jakiś skrajny, czy bliżej środka, czy który.
I nawet jeżeli pociąg przyjedzie w odwrotnej kolejności, ale widzę, że jest wagon dziesiąty, jedenasty, dwunasty, czternasty,
to wiem, że to jest wagon środkowy, ten dwunasty.
A jeżeli jest dwunasty, trzynasty, czternasty, siedemnasty, osiemnasty, dwudziesty pierwszy,
to prawdopodobnie będzie pierwszy, ewentualnie ostatni, ale na pewno nie środkowy.
Także to są takie rzeczy też, które nieraz warto wiedzieć i to się może nieraz gdzieś tam przydać.
Rzeczywiście tutaj się poprawiło.
Poprawiło się i to, i to bardzo, jeżeli chodzi o to. No i też w ogóle komfort pokazywania tych biletów, bo jeszcze ileś lat temu to pokazywanie biletu, no to była też loteria.
Że trzeba było go jakoś tam rozciągać, na przykład, żeby sobie konduktor mógł to zeskanować. A teraz, na przykład w Koleo, jak mamy te bilety w portfelu,
To ja nie miałem sytuacji, zwłaszcza jeżeli mamy je w portfelu, nie wszystkie pociągi pozwalają na zapisanie w portfelu Apple tych biletów, tylko Intercity i chyba jeszcze jakieś linie, ale przede wszystkim Intercity,
to ja się nie spotkałem z sytuacją, żeby mi konduktor powiedział, ale tu musi pan coś tam rozjaśnić, coś zrobić, coś przesunąć, bo jest nieczytelny ten kod. Nie, absolutnie.
A to prawda.
Teraz to naprawdę…
To po prostu działa.
Tak, to po prostu działa, ten kod się wyświetla, wystarczy wyłączyć voice overa i już.
No i jeżeli ktoś ma nową legitymację plastikową, osobno niepełnosprawnej, to również legitymację można w e-mobywatelu pokazać.
To prawda, chociaż są ponoć problemy z respektowaniem tejże przez pracowników PKP.
Z jakichś powodów, że nie mają przystosowanych jakiś tam, nie wiem, skanerów do zczytywania tych kodów.
No tak się tłumaczą. A jak to wygląda w praktyce? No oczywiście powinno to być realizowane i powinno to być respektowane, bo to jest taki sam dokument jak wszystkie inne, które mamy we mowy obywatelu.
Jeżeli na przykład mogą sczytać sobie nasz dowód osobisty, to dlaczego nie tej legitymacji? No ale to tak, to niestety takie informacje gdzieś do mnie dotarły.
No i jeszcze taki jeden temat, który był, który się pojawił wtedy i o którym mówiliśmy, to o podpisaniu przez prezydenta kwestii dotyczącej, ustawy dotyczącej 500 plus dla osób niezdolnych do samodzielnej egzystencji.
No i tak w sumie to te 500 plus było z nami przez tyle lat. Teraz ono się w większości, nie wiem czy jego już w ogóle nie ma,
Ale w większości przypadków, to te osoby, które pobierały to oświadczenie, to już go nie pobierają.
Tylko otrzymują ten dodatek, który jest dopełnieniem do najniższej krajowej doręty socjalnej.
Tak, to się nazywa dodatek dopełniający.
I tu jeszcze jedna taka kwestia, że ten dodatek i te kwoty, to 500+, to miało taką jedną bardzo fajną sprawę,
której ja się dowiedziałem zupełnie przypadkiem, kiedy o tym gdzieś tam czytałem, że to 500% było tzw. kwotą niepotrącalną.
Czyli, że jeżeli na przykład byłaby sytuacja taka, że ktoś by chciał od nas jakieś tam długi egzekwować i tak dalej,
to na pewno tego nie mógłby w ramach tego 500 plus nie mógłby od nas niczego ściągnąć.
Oczywiście wiadomo, że to tam też nie jest tak, że jeżeli na przykład komornik nam wchodzi, to to nam zabiera wszystko.
To też są tam jakieś te procenty i tak dalej, ale ta kwota 500 była kwotą niepotrącalną,
natomiast te dodatki to już taką kwotą nie są, z tego co kojarzę.
Więc to jest też taka różnica, gdy, to tak w ramach ciekawostki.
Piszecie do nas i chyba głosówki też nagrywacie, to ja może przeczytam, co do nas piszecie,
bo tu mam taki komentarz od Sebastiana.
Sebastian napisał do nas tak.
Witam, mam dwa pytanka.
Pierwsze, czy jest jakaś opcja na iPhone’ie,
aby monitorować zmiany w jakimś elemencie.
Przykładowo mam aplikację wagi kuchennej
i chciałbym, żeby VoiceOver sam odczytywał mi
zmianę wartości na wadze,
a nie, że muszę robić gesty w lewo, w prawo, co chwilę.
Czy ktoś was zmęczy?
Jest takie polecenie. Nie pamiętam, jak ono zostało przetłumaczone.
Pewnie to będzie przetłumaczone jakoś w stylu Obserwuj element.
Na pewno jest to gest, który domyślnie nie jest przypisany,
więc musiałbyś sobie wejść do ustawień voice-overa czy do ustawienia,
dostępność, voice-over, następnie polecenia i tam…
Albo najpierw sobie kliknąć w opcję Wszystkie polecenia
i tam w którejś z kategorii, teraz nie wiem, w której kategorii,
i będzie znaleźć to polecenie Obserwuj element.
I przypisać do niego jakiś gest.
Jest trochę wolnych gestów,
więc musiałbyś sobie wybrać taki gest,
który nie będzie ci kolidował z innymi funkcjami,
z których nie korzystasz.
No i po prostu, z tego, co pamiętam, to wtedy działa tak,
że ustawiamy się na elemencie, który chcemy obserwować,
wykonujemy ten gest,
no i od tego momentu VoiceOver będzie co jakiś czas czytał
zmianę tego elementu.
Nie wiem, czy to się zapisuje w momencie, kiedy wyjdziemy z aplikacji i do niej wrócimy, czy na przykład ją zrestartujemy.
Pewnie to nie działa przy zablokowanym ekranie, no bo wtedy jakby interfejs też jest zawieszony danej aplikacji.
Natomiast w momencie, kiedy po prostu okno danego programu jest otwarte, no to ta opcja powinna działać.
I jeszcze drugie pytanie od Sebastiana.
Czy myślicie, że za jakiś czas AI będzie potrafiło bezbłędnie rozpoznawać nuty ze zdjęć i PDF i konwertować je na formaty MusicXML lub MuseScore albo MIDI?
Pozdrawiam i gratuluję tylu odcinków. Dziękujemy bardzo.
Z AI-em to nigdzie nie wiadomo, co będzie, jak będzie, kiedy będzie.
Może Tomku, opiszesz tę swoją historię, którą…
A!
Bo to jest bardzo ciekawe.
Tak, to mało, a może średnio to merytoryczne jest, ale to tak gwoli jakiejś ewentualnej refleksji.
Bo jakiś czas temu zamawiałem obiad. Nie przyszło mi wszystko z tego, co zamówiłem
i chciałem się dowiedzieć, dlaczego nie przyszło. To znaczy, czy ja czegoś nie zaznaczyłem,
Czy to u nich był problem, czy co jeszcze?
No i razem z obiadem dostałem karteczkę,
na której zapewne było napisane być może właśnie to, co zamówiłem.
Tego nie byłem pewien, więc spróbowałem tych wszystkich OCR-ów
na Android, na iPhone’a, tych lookoutów, nielookoutów.
Coś tam było nawet czytane, ale bardzo słabo sobie radziły te programy.
No i spróbowałem w końcu bimaya jai.
No bo to jest sztuczna inteligencja, więc może to da radę.
I aż sobie zapisałem ten tekst, który dostałem, bo jest on bardzo znamienny.
Kartka w kratkę, leżąca na drewnianym blacie, zapisana jest ręcznie,
zapisana jest ręcznie, odręcznym pismem, a tekst jest odwrócony do góry
Odczytany tekst odwrócony prawidłowo.
Rurki Szus.
I tu są jakieś…
Kosińska 65 tysięcy,
coś tam…
PWL,
coś tam…
Jakieś takie rzeczy.
Jako żywo,
nie zamawiałem z restauracji ani rurek Szus,
ani niczym bardziej starej poduszki.
A tam placek był jakiś chociaż?
Nie.
Przepraszam, był.
Był placek. Chyba.
To chyba, że ta restauracja ma bardzo ciekawe nazwy dań.
Nie, no właśnie tam zamawiają jakieś tam zupa dnia schabowy, coś tam.
No, ale jak widać sztuczna inteligencja. I to, te wszystkie rzeczy, tak?
Stara podłóżka była normalnie, to nie było, że chyba, może, nie.
Po prostu idzie napewniaka, 1x stara podłóżka, tam 2x nakrętki z uszami.
Wszystko ładnie napisane.
No to przykład mojego życia z ostatniej niedzieli.
Testowaliśmy ze znajomymi aplikację.
Właściwie to była jakaś gra wieloosobowa.
I po każdej rundzie wysiadała się tablica najlepszych wyników.
No i my sobie używaliśmy chyba GPT.
Nie wiem, z czego tam znajomy używał akurat, ale chyba GPT,
żeby nam tą tablicę czytał.
Generalnie szło mu to dobrze.
…do momentu, kiedy w pewnym momencie nie zrobił zrzutu ekranu w momencie,
kiedy też na ekranie było widoczne okno pauzy, bo grę można było wstrzymać
i wtedy się wyswiatało takie okienko, tak, czy chcesz wyjść z gry.
I to okienko częściowo zasłaniało…
Ja myślałem, że to po prostu wtedy cały ekran zastąpiony. Nie.
Po prostu to okienko wyswiatało się nad polem gry, tak jakby tak częściowo je zasłaniało.
Problem był taki, że my o tym nie wiedzieliśmy. Zrobiliśmy to rozpoznanie.
No i on sobie zaczął tam mówić, najlepsze wyniki, jeden, Michał 3000, dwa, Piotr 2500, trzy, Tomek 2100.
I nagle pojawia się do czwartym miejscu jakiś Jan, na piątym miejscu jakaś, nie wiem, Krystyna, tutaj losowe imiona.
I tak myślę, no przecież nie ma nikogo o takim imieniu.
I na końcu mówi, a przy okazji część tekstu jest zakryta przez tą informację, ale mimo to sobie coś tam wymyślił.
Także słuchajcie, to myślę, że jest dobrym podsumowaniem tego, o co pytał Sebastian, jeżeli chodzi o te nuty.
Ja się wcale nie zdziwię, jeżeli AI nawet już w tym momencie jest w stanie coś tam rozpoznać,
Tylko, no to jest wszystko kwestia tego, ile przypadków na ile będzie to wynik prawidłowy.
Bo niestety, mimo tego, że cały czas te bodele są trenowane i gdzieś tam są ulepszane,
to cały czas zdarza im się ta halucynacja, cały czas one potrafią zmyślać.
I dlatego tym bardziej, no po prostu trzeba na to uważać i absolutnie nie zniechęcamy nikogo do korzystania z EI. Myślę, że jak nas słuchacie, to wiecie, że bardzo często mówimy o tym, że z EI korzystać warto, bo to rzeczywiście pomaga, to rzeczywiście usprawnia nasze funkcjonowanie na co dzień, ale krytyczne myślenie jest bardzo wskazane.
Poza tym też nie do końca, to znaczy inaczej, różnie ta sztuczna inteligencja jest wykorzystywana w procesie takiego OCR-a.
Niedawno czytałem o jakichś mikrofonach bezprzewodowych, takich malutkich, które można podłączyć do smartfona, coś tam.
I one między innymi mają funkcję, no, otrzumiania wbudowaną.
I to otrzymianie jest stworzone przez AI,
ale tam nie ma modelu sztucznej inteligencji w mikrofonach,
no bo nie bardzo dałoby się zrobić to w taki sposób,
żeby to parę godzin wytrzymało na jakiejś malutkiej,
wbudowanej baterii, tylko AI niejako przygotowało
taki zestaw instrukcji do jakby wbudowanego
jakiegoś małego procesorka, co jest głosem,
co jest szumem, ale nie działa tam bezpośrednio.
Tylko AI stworzyło algorytm odróżniający głos od szumu.
Być może w taki sposób udałoby się stworzyć taki algorytm,
który odróżnia, jak wyglądają nuty przy pomocy sztucznej inteligencji,
ale sztuczna inteligencja stworzy tylko ten przepis, ten algorytm,
Co jest nutą, co jest nienutą. Natomiast już sam ten algorytm być może będzie właśnie na przykład nie będzie zawierał sam w sobie żadnego sensu z tych modelów sztucznej inteligencji.
Więc ta AI może być na bardzo różne sposoby stosowana do bardzo różnych rzeczy. Niekoniecznie tak bezpośrednio do jakby w samym produkcie finalnym.
AI po prostu potrafi zrobić dużo rzeczy w dość szybkim czasie i nie wymaga jakby tego naszego nadzoru cały czas.
Można jej po prostu wrzucić te dane i ona je sobie przetworzy, no i mogą być z tego całkiem niezłe wyniki.
To tak samo jak w medycynie, jakieś tam analizowanie obrazów, różnego rodzaju tomografii i tak dalej, i tak dalej.
To też zresztą są przecież takie modele wyspecjalizowane, które naprawdę mają bardzo dobre wyniki w tej kwestii.
Odbieramy telefon. Kto jest z nami po drugiej stronie?
No z tej strony Patryk.
Cześć Patryku.
No ja tutaj mam taką podpowiedź, jeśli chodzi o właśnie rozpoznawanie przez aparaty naszych smartfonów.
A mianowicie, warto sobie wyrobić taki nawyk, żeby zawsze wziąć jakąś chusteczkę do okularów w chustecznym stylu i te obiektywy przetrzeć.
Bo ja ze swojego doświadczenia, jako osoba słabowidząca,
widzę, że ta sztuczna inteligencja zaczyna halucynować,
jak ona czegoś nie widzi.
I to są na przykład sytuacje, gdzie aparat jest na przykład rozmazany,
gdzieś tam palcami się to dotknie, no różnie,
w telefonie się używa.
Więc na to też warto zwrócić uwagę,
bo one właśnie zaczynają zmyślać,
tylko że to powinno być zrobione w ten sposób,
że jeżeli ta sztuczna inteligencja tego tekstu dobrze nie widzi,
No to powinno nas poinformować, nie wiem, jest tłuszczy aparat, czy tam brudny aparat, czy cokolwiek, tak?
No bo to widać po prostu, że ten obraz jest rozmazany na przykład. Więc ona mogłaby, a ona zaczyna wtedy zmyślać. I to jest fakt.
No tak, bo w ogóle rzeczy nie wiadomo…
Wiesz, być może to jest tak, że twórcy tych sztucznych inteligencji, zwłaszcza tych takich generatywnych i którzy po prostu…
Z tych aplikacji wykorzystujących tak generatywną sztuczną inteligencję wychodzą z założenia, że hej, to przecież użytkownik będzie wiedział, czy ma zabrudzony aparat, czy nie i nie trzeba mu o tym mówić, tylko np. w przypadku Be My Eyes to już taka informacja by się bardzo przydała.
Ale ja nie do końca się z tym zgodzę, dlatego że np. w Samsungach jest czasami taki komunikat,
jak robimy zdjęcia głównym aparatem, takim normalnie, no to dostajemy czasami komunikat,
jest brudny obiektyw, przetrzy i tam takie komunikaty się pojawiają.
To nie jest tak, że to jest okość czy coś takiego. Takie komunikaty są.
I faktycznie się przetrze ten obiektyw i automatycznie jest ostrość i w ogóle…
No i też zwrócić uwagę na oświetlenie, bo np.
Np. Gemini Live nie potrafi uruchomić latarki jak jest słabe oświetlenie.
Nie ma takiej możliwości, przynajmniej ja tego nie umiem zrobić.
I w momencie jak mamy słabe oświetlenie, on zaczyna zmyślać.
Ja to testowałem na różne sposoby, różnie też testowałem.
I to tak wychodzi, że gdy brakuje oświetlenia i mamy jakiś brudny obiektyw,
zabrudzony czy tłusty, zazwyczaj tłusty,
No bo to, wiadomo, gdzieś tam palec wyląduje czy cokolwiek i już obiektyw jest wtedy w mgiełkach i zaczyna zmyślać po prostu.
No i tyle. To jest taka moja, taka uwaga, że warto sobie taki nawyk wyrobić, że cokolwiek, czy robimy zdjęcia, bo to się też do tego odnosi,
no to warto, warto gdzieś ten obiektyw sobie zawsze przetrzeć, taki mieć nawyk.
A to bardzo, bardzo fajna uwaga i dzięki za te sugestie, bo no ja szczerze mówiąc nie pomyślałem o tym.
IOS 26 ma informować nas, kiedy warto byłoby to zrobić.
Pytanie, czy w każdej sytuacji, na pewno w aplikacji aparatu, pytanie jak to działa.
No to w Samsungach już to jest, w Androidzie to chyba nawet na S7 już było.
Swoją drogą w 2019 roku takiego telefonu używałem, bo tak właśnie zacząłem słuchać
i zaczęliście o tym mówić, od kiedy to się zaczęło, no to już trochę minęło.
Jaki ja telefon miałem w tamtych czasach? Galaxy S7.
Właśnie przechodziłeś z Galaxy S7 na Motorola One.
No to Samsungi wtedy były bardzo do przodu, jeśli chodzi o te wielopalczaste gesty.
Ja pamiętam, jak znajomy kupił sobie S6, to był pierwszy telefon, który miał tego,
to się nazywało wtedy asystent głosowy, ten voice assistant.
Voice assistant to się nazywało, tak, dokładnie.
To było takie wow w tamtych czasach.
Z jednej strony tak, z drugiej strony, no niestety, Tokbek…
Asystent był w kilku aspektach dość z tyłu za Androidem.
Chociażby sławetna kwestia Obszaru Powiadomień, który kiedyś Tokbek czytał jako jedną wielką ikonę
i po prostu wszystko jak leci było po kolei czytane, nie dało się po tym w żaden sposób poruszać.
Natomiast potem to zostało ogarnięte, no tylko że Samsung jeszcze trochę sobie musiał poczekać z jakiegoś powodu zanim to wdrożył.
Samsung ogólnie jest do tyłu z wersjami Talkbacka i trochę jest to tak jak u Apple, czyli że musi wejść cała aktualizacja systemu, żeby po prostu pojawiła się aktualizacja Talkbacka.
Tak, jest to w Apple, czyli że musi być cały iOS zaktualizowany, żeby po prostu poprawili gdzieś tam voice overa, bo to na takiej zasadzie działa.
Bo w innych Androidach, nie wiem jak to jest w Pixelach akurat, ale w innych tam Motorolach, no to po prostu TalkBack jest tam osobną aplikacją, gdzie on przez sklep Play jest aktualizowany, czyli pojawia się jakaś poprawka, a od razu jest to gdzieś tam aktualizowane.
Z tego co wiem, Samsung chyba jest jedyny, gdzie tak jest.
No więc właśnie, i to jest tutaj…
No bo gdzieś tam kiedyś, pamiętam, rozmawiałem z panem z infolinii,
bo to on tłumaczył jakimiś względami bezpieczeństwa, że oni to sprawdzają i w ogóle,
bo oni tam mają te swoje KNOX, czy jak to się za bezpieczenie nazywają,
i to wszystko musi spełniać te ich normy rygorystyczne,
dlatego to jest tak zrobione prawdopodobnie.
Ale to też pan tutaj zgadywał.
Tutaj nie jest taka 100% potwierdzona informacja.
No może to tak być, może to tak wyglądać.
Bo jednak te czytniki ekranu, nie oszukujmy się,
mają dostęp do wielu wrażliwych danych.
Oj, to prawda. Dostęp tak naprawdę do wszystkiego.
Gdyby ktoś miał dostęp do czytnika ekranu,
to jest w stanie wyciągnąć z naszego telefonu
absolutnie wszystko, może poza zdjęciem,
bo ewentualnie poza tekstowym jego opisem.
Prosty przykład, jak instalujemy sobie komentary na Androidzie, no to naprawdę do wielu rzeczy musimy je tam zezwolić.
W ogóle teraz ostatnio jeszcze w Samsungach jakaś automatyczna blokada się pojawiła. Coraz trudniej jest to instalować.
Podejrzewam, że niedługo dożyjemy takich czasów, że komentary nie zainstalujemy sobie.
Jeżeli nie dostanie podpisu, to od 2027 roku będzie z tym problem.
No będzie z tym problem prawdopodobnie.
Najnowsze informacje w tej sprawie mówią o tym, że prawdopodobnie będzie się mimo wszystko dało to instalować po ADB, ale no to…
Czyli po prostu, jak ktoś nie wie o czym mówię, będzie trzeba podłączyć telefon do komputera i przez komputer instalować.
Przez komputer instalować i podejrzewam, że też na przykład Samsung będzie miał jakieś takie zabezpieczenia, gdzie będziemy musieli to wyłączać, kombinować,
bo oni już tam mają, można tam wiele rzeczy włączyć i podejrzewam, domyślnie w nowych telefonach będzie powłączane,
że przez USB nic nie zainstalujemy, dopóki nie zainfigurujemy
gdzieś tam ustawienia, o których ludzie nie będą wytłumaczyli.
Ale z drugiej strony ADB ja sobie wyobrażam wtedy,
że będzie plik .exe na komputer,
który po prostu instaluje komentary i jeszcze je uruchamia.
I to, co się da zrobić przez ADB, to on to robi
i być może dostaniemy takie rozwiązanie.
Na przykład, tak sobie to wyobrażam,
podłącz telefon komputera,
uruchom plik .exe,
Poczekaj chwilkę i masz komentary, oczywiście na tych telefonach, na którym to ADB jest włączone.
No i to będzie ciekawe w ogóle.
Może będzie tak, że dożyjemy takich czasów, że talkback będzie na tyle responsywny, bo ja dalej mam do niego zastrzeżenia.
Niektórzy uważają, że się czepiam, ale nie działa to tak fajnie jak komentary jednak.
I może popracuję nad tą responsywnością, tylko po prostu nie wierzę w potrzeby.
A to właśnie zależy gdzie.
Ja powiem tak, słuchaj dalej, bo dzisiaj będzie o tym, w pewnym sensie, bo jest nowy talkback i tam coś ciekawego zostało dodane w tej sprawie.
W ogóle powiem wam taką ciekawostkę już na koniec, żeby tutaj nie przedłużać.
Ja mam osobiście Galaxy S24 Plusa i ten talkback tam działa jak działa, ale właśnie moja dziewczyna zakupiła S25 Ultra i ten talkback działa tam gorzej niż na moim S24 Plusie i ja nie wiem z czego to wynika.
Telefon został skonfigurowany ogólnie.
Telefon działa bardzo, bardzo ładnie i tutaj nie ma problemu.
Ale z Talkbackiem, no słabo to działa.
Dlatego, że Talkback, działanie Talkbacka zależy również od
czipu audio, od konfiguracji tego audio.
I to jest często zupełnie niezależne od telefonu.
U mnie na przykład na Motorola Moto G82 Talkback
ma lepszą responsywność niż komentary.
Możliwe, że sam sobie nie uwierzę, gdybym to powiedział, ale tak jest.
Ja bym chciał to zobaczyć, naprawdę.
Ja bym chciał to zobaczyć.
Ale autentycznie tak jest.
StockBank ma lepszą responsywność niż komentary.
Kilka razy to sprawdzałem, myśląc, że może to akurat kwestia chwilowa.
No nie, za każdym razem po prostu TokBek wygrał.
Bo komentary to normalnie działa jak iPhone.
Tu nieraz udowadniałem, ludzie po prostu się dziwi, że Android może tak działać.
Tak, może z TokBekiem, Android, topowy jakiś tam Samsung, czy inna Motorola, będzie działała tak jak iPhone, jeśli chodzi o responsywność.
Nawet nie koniecznie musi być topowa, bo to wcale właśnie nie zależy tak bardzo od procesora.
Przecież Motorola G82 to jest telefon po pierwsze ze średniej półki, po drugie sprzed trzech lat.
A tak właśnie, tak jeszcze a propos iPhone’a, no to wczoraj zaktualizowałem, bo mam iPhone’a 11,
Zaktualizowałem go do tego najnowszego iOS-a 26 i powiem wam szczerze, że działa to słabo.
Działa to słabo.
Znaczy, wolno?
Wolno. Ten telefon już naprawdę ma po prostu dość.
Już ta aktualizacja go dość mocno obciąża.
Telefon jest ciepły.
Te animacje, które tam się pojawiają…
11.
11, zwykła.
A, 11, słyszałem.
Bez pro.
Więc naprawdę już jak ktoś ma taką jedenastkę, to ja bym się wstrzymał jeszcze z aktualizacją.
Tak i prawdopodobnie za jakieś dwie, trzy wersje zostanie to poprawione, bo to zwykle tak jest.
Ja sobie to aktualizowałem, bo to jest mój telefon poboczny, mam kilka innych telefonów, więc ja sobie mogę na takie coś pozwolić.
Ale jeżeli ktoś korzysta jako główny telefon, poczekajcie, bo może być tak, że w ogóle nie będzie sensu tego aktualizować.
Bo to jest jednak duża aktualizacja, jeśli chodzi o iOS-a, od lat nawet taka.
Tak, to tam chyba 6GB miała w ogóle, a do instalacji wymagała 17.
Tak, tak. I w ogóle bardzo długo to się instalowało.
Telefon się dość zagotował, bym powiedział.
Więc w pewnym momencie mówię, co tu zrobić, bo to tak jakoś źle się zapowiadało.
Ale no, po jakimś bólach się to zainstalowało i uważam, że nie warto tego robić.
Ja muszę powiedzieć, że na mojej trzynastce z kolei nie mam problemów z nowym iOS.
A trzynastka to jest przepaść, jeśli chodzi o wydajność.
To jest w ogóle dalej telefon, który 80% telefonów na Androidzie do 2000 gniecie.
Nie oszukujmy się.
To prawda. Natomiast to tak, gdyby ktoś był ciekaw i się zastanawiał.
Na trzynastce u mnie problemów nie ma z wydajnością. Nie zaobserwowałem.
Jeśli chodzi o jedennastkę, to już jest jego ostatnia chyba aktualizacja.
Ostatnia? Chyba tak. Albo przedostatnia najnowsza.
Bardzo możliwe, że tak.
Dziesięć esej już nie dostały.
No to w takim razie to tu będzie ostatnia raczej.
No i swoją drogą ten telefon miał premierę w 2019 roku.
To jest telefon, który ma już swoje lata i teoretycznie możemy sobie uruchomić jakiś tam Gemini Life, gdzie w tamtych czasach, gdzie ten telefon został zaprezentowany, nikt nawet nie śnił, że takie rzeczy będą.
Co prawda.
Można tutaj się zastanowić.
A swoją drogą Patryku, tak na koniec jeszcze zapytam, a ty pamiętasz od którego Tyflo Przeglądu z nami jesteś? Od początku, czy gdzieś tam potem dołączyłeś?
Myślę, że nie, może nie od początku, ale ja tak wcześniej nie miałem czasu, nie śledziłem tego tak na bieżąco.
Ja sobie po prostu to słuchałem gdzieś tam po czasie, nie?
Bo to wiadomo, przez YouTube’a była możliwość, żeby sobie to słuchać, bo to się pojawiało.
Więc ja sobie to słuchałem w dowolnym tam czasie.
Jasne.
Nie byłem, nie byłem tak jak teraz, że sobie, o tutaj do was dzwonię, rozmawiam.
Po prostu nie było na tym kiedyś czasu. Teraz ma więcej czasu, więc…
Mi się ogólnie podoba, podoba mi się to wszystko, że tutaj można zadzwonić, podzielić się uwagami, można się coś ciekawego dowiedzieć, można się czymś podzielić. Uważam, że powinno to być w siłę.
Po to jesteśmy i staramy się, żeby te audycje niosły dla Was jakieś informacje, ale też czekamy na informacje od Was, bo ja zawsze powtarzam…
Tak, bo to mi się wydaje, że to jest słowo klucz, żeby ludzie też się dzielili. Jak mają coś ciekawego, to się warto podzielić, bo nieraz…
Ostatnio jeszcze taką wam ciekawostkę podam.
Jednej osobie kiedyś powiedziałem, że jest coś takiego jak wi-fi calling.
I wyobraźcie sobie, że ja tej osobie życie odmieniłem, nie?
No bo ta osoba wychodziła na dwór, gdzieś tam szukała zasięgu,
a wystarczyło włączyć wi-fi calling i siedzi w domu, rozmawia.
I nagle wszystko zaczęło działać.
Tak, nagle działa, siedzi tam, gdzie jej się podoba, może rozmawiać
i nie musi gdzieś tam jakichś cyrków odstawiać,
że musi biegać gdzieś tam po dworze, żeby szukać zasięgu.
W ogóle też od 2019 roku poprawiła się dość mocno jakość rozmów telefonicznych i ten wi-fi kolejny, czyli w KD Voice, czyli już nawet na lepsze technologie.
Nawet nie chcę KD Voice, ale kodek FOS został dodany.
Dokładnie i on już naprawdę pozwala na bardzo dobrą jakość rozmów i bardzo dobrej jakości dźwięku.
Nie zawsze to jeszcze działa, ale w Orange Flex jest problem z tym.
Dlatego, że jak mamy dodatkową kartę eSIM, jak ja mam w zegarku, to ten kodak EVS nie działa, jak ktoś do mnie dzwoni.
Jak ja do kogoś dzwonię, to jest okej. Ale jak ktoś do mnie dzwoni, to niestety jest to jakoś gorsze.
Tak, różnie właśnie to działa.
Natomiast taka jakość telefoniczna, jak to się kiedyś mówiło, te 8 kHz, to to się jeszcze do niedawna kojarzyło z telefonem.
No to teraz to już naprawdę trzeba dzwonić albo z jakąś firmą, gdzie jest postawiona jakaś centralka albo z jakimś numerem stacjonarnym, albo w niektórych… i to też nie zawsze, gdy dzwoni się za granicę.
To prawda. To się zdecydowanie poprawiło.
Ciężko, ciężko już tutaj właśnie zestawić takie połączenie, żeby było naprawdę bardzo źle.
No chyba, że tutaj Orange nasz wyłącza sieć 3G
i mamy słaby zasięg LTL, bo go wcale nie mamy
i wpadniemy w 2G, który jest przeciążony, no to mamy tak zwany bulgot.
Ten detaj jakoś jest tragiczny.
Tak, to się czasem zdarza, ale no to już…
No są takie miejsca, jest dużo takich miejsc jeszcze.
Jeszcze niestety mamy białe plamy i tutaj…
No ale to już schodzimy z tematu.
Będzie lepiej, tego byśmy sobie wszyscy życzyli.
Dzięki Patryku za telefon.
Dzięki również.
Do usłyszenia.
To jeszcze może na szybko przedstawię wiadomości z Whatsappa,
bo zwłaszcza Sylwester to się naczekał od początku audycji.
Audycja jeszcze dobrze się nie zaczęła, a Sylwester już do nas się nagrał.
Ja spróbuję te wiadomości streścić.
Sylwester w pierwszej powiedział, że ma problemy z pobieraniem
Czeszło komentary, Max, bo pod koniec pobierania serwer nagle, no, nie może się połączyć z serwerem i całość instalacji kończy się porażką.
To ja tylko powiem, że nie wiem, kiedy to próbowałeś pobierać, natomiast ja wczoraj miałem duże problemy z pobieraniem z GitHuba, akurat pobierałem inne rzeczy,
ale one pobierały się z prędkością, nie wiem, 100 kilobajtów na sekundę i to pobieranie się zrywało,
Więc może GitHub miał wtedy jakieś problemy z serwerami.
Ja bym spróbował jeszcze raz, po prostu.
W drugiej wiadomości, to była wiadomość, znaczy jest wiadomość do mnie,
pyta się, do której szkoły moje dzieci chodzą, czy do specjalnej, czy do masowej.
Na razie chodzą do przedszkola.
Natomiast temat tego, gdzie posyłać dzieci,
to potrafi naprawdę wywołać dyskusję pełną wrażeń, można powiedzieć.
i nie wiem, czy chciałbym takie dyskusje wywoływać, zwłaszcza publicznie.
Tak to może określę.
I jeszcze jest trzecia wiadomość.
To do Patryka, a propos też opuścinień, jeszcze jest Prudence z Glinderee,
żeby też można było go sprawdzić.
Bo podobno rzeczywiście też ten sklinder, u wielu, też kilka osób powiedziało, że ten sklinder ma też bardzo niskie te opóźnienia i dobrą taką responsywność, więc no być może jest to rzeczywiście dosyć ciekawa sprawa.
Piotrek nam gratuluje jubileuszu, bardzo dziękujemy.
Tu Oskar do nas pisze. Co do nowości w grach, Godot 4.5 się pojawił, jeżeli macie to w notatkach to więcej nic nie pisze.
Exterminator do nas pisze.
I mam tego Apple Watcha.
Dziękuję wam za pomoc.
Jest to Apple Watch SE 3.
Oskar pisze do nas z kolei.
Kolejna rzecz to wyłączenie klasycznego Gmaila.
Da się przez stronę działać,
ale chyba lepiej skonfigurować
na telefonie albo kliencie na PC.
No, też się z tym zgadzam.
To rzeczywiście…
Ja nigdy w ogóle jakoś
nie pałałem entuzjazmem
Do tych webowych interfejsów, nawet do klasycznego gmaila. Oczywiście dało się z niego korzystać, co nie znaczy, że jakoś lubiłem ten sposób korzystania z poczty elektronicznej. Zwłaszcza, że onie to skrzynka to jest ciężka. Bardzo.
A propos takich rzeczy, no to też coś na czym ja ubolewałem, to jest zniknięcie aplikacji poczta systemu Windows. Teraz mamy tego webowego outlooka, ale to jest zupełnie coś innego.
Ja już wiem, co zepsułem.
To jeszcze przeczytam wiadomości, bo jeszcze mamy kolejne wiadomości od Oskara.
Może to głupota, ale przez to, co się dzieje, skończyłem korzystać z Yandexa.
Fajnie ten dysk się obsługiwało, no ale coś za bardzo dzisiejszych niektórych rozwiązań się boję.
To znaczy z Yandexem, jeżeli chodzi o takie rzeczywiście realne kwestie związane z jakimiś problemami, to kwestia jest taka, że na przykład jeżeli hostujecie swoją pocztę elektroniczną na Yandexie, bo oni swego czasu mieli możliwość podpięcia na przykład swojej domeny, coś takiego co oferowało kiedyś Google, oni potem się z tej opcji darmowej wycofali,
Ale ja konfigurowałem kilka takich skrzynek pocztowych właśnie dla osób różnych w domenach ich na Jandeksie.
I to problem jest taki, już tam abstrahując od tego, czy ktoś was będzie podsłuchiwał czy nie podsłuchiwał,
bo to tam większość jakoś tę pocztę skanuje i czy to jest wschód, czy to jest zachód,
to wydaje mi się, że to jest jednak jedna chwała w tej kwestii.
Chyba, że ktoś planuje jakieś, nie wiem, informacje militarne przesyłać, ale to tacy specjaliści to u nas z Wirtualnej Polski korzystają.
Natomiast jeżeli chodzi o Yandexa, to po prostu ta poczta, która była tam wysyłana, miała problemy z docieraniem do tych skrzynek i w drugą stronę też.
Więc z tego powodu ja bym chociażby tego Yandexa nie używał, bo po prostu no jest kłopot, ale to jest generalnie kłopot z pocztą elektroniczną, jeżeli hostujemy ją gdzieś poza Googlem i Microsoftem wielkimi tego świata, bo cała reszta to albo będzie działać, albo nie.
Oskar. NVIDIA przeniósł się na nowszego Pythona. Nie wiem ilu to przeszkodziło, ilu chciało kombinować w pliku manifest.
No, NVIDIA się przeniósł i się przenosi dla tego Pythona cały czas, to co roku w zasadzie jest jakaś aktualizacja Pythona.
Oczywiście wiadomo, że z dwójki na trójkę to było wielkie przenoszenie, ale no teraz też już starają się jednak być na bieżąco z tymi wersjami Pythona.
I to są wszystkie wiadomości od Oskara.
Ale to nie są wszystkie wiadomości od Was, bo jeszcze są wiadomości na Whatsappie.
Jedna jest jeszcze wiadomość do odsłuchania,
no chyba, że w czasie tego słuchania coś jeszcze do nas napiszecie.
Ale wiadomość od Kasi brzmi tak.
Dobry wieczór, z tej strony Kaśka.
Słuchajcie, szukam jakiegoś fajnego czytnika, książek na Androida.
Takich, które by miały EPUB, HTML, TXT, WORDS,
ewentualnie, no wszystkie te formaty, no raczej te czytniki teraz mają.
Natomiast ja wcześniej używałam Ed Voice, ale on nie jest idealny czytnik.
Przede wszystkim nie jest fajny, jeżeli chodzi o nawigację po tekście.
Chciałabym czegoś takiego, co ma jakieś specjalne gesty do nawigacji
W jakiś sposób ułatwia wracanie do danych fragmentów tekstu.
Jeżeli na przykład chce się jakiś krótszy fragment powtórzyć,
do czegoś przeskoczyć, co jest dobre w składaniu tym tekście.
Byłoby fajnie, gdybyście mogli coś ciekawego polecić.
Dziękuję z góry. Bardzo pozdrawiam.
No głównie to chyba i Androida używam i czytam książki na Androidzie.
I tak szczerze mówiąc to czytam właśnie Voice Allowed Reader’em, bo nie znam lepszego oprogramowania.
Kiedyś był w… ojej, jak to się nazywało? To samo co było też na iOS’a…
Ledger? Ledger? Czy jak?
Chyba tak, to zmieniło nazwę na Androidzie, tak to co było w Voice Dream’a kiedyś, tak?
Tak, tak.
Natomiast u mnie to w ogóle nie bardzo chce nawet działać, tak szczerze mówiąc.
No, także tu chyba nie pomogę za wiele.
I to chyba wszystkie wiadomości, to znaczy Grzesiek nam jeszcze się nagrał,
natomiast nie zdążę tej wiadomości tutaj tak na szybko też przygotować do odtworzenia,
więc może zanim odtworzymy wiadomość, to można już przejść
Jeśli chodzi do jakiegoś tematu, to może zacznijmy od Talkbacka, skoro już byliśmy tak przy Androidzie i te wszystkie opóźnienia i tu coś Piotrek właśnie mówiłeś, że coś się dzieje w Talkbacku.
Coś się dzieje i to wydaje mi się, że dzieje się całkiem dużo i to dużo dobrego, bo pojawił się Talkback w wersji 16.1
I to jest dosyć duża aktualizacja, która jest wydaje mi się dosyć istotna z wielu powodów.
I tutaj tradycyjnie powołam się na artykuł z portalu Accessible Android.
Jest też artykuł na stronie Google w ich bazie wiedzy, natomiast ten artykuł jest bardziej taki zwięzły,
a tutaj autor tego artykułu na Accessible Android dużo lepiej to opisał.
I myślę, że tutaj kilka istotnych zmian zostało dokonane,
które m.in. poprawią komfort działania TalkBaka,
responsywność, ale też obsługę klawiatury brandowskiej.
Więc trochę tutaj się pozmieniało.
Pójdźmy po kolei, co tutaj w tej wersji się pojawiło.
To jest też aktualizacja, która, jak wiele aplikacji Google,
będzie wypuszczana stopniowo.
I tutaj tak, jak rozmawialiśmy na początku,
to wszyscy, oprócz użytkowników telefonów Samsung,
To jest pierwsza nowość, dotyczy opisów, które możemy sobie wygenerować używając Gemini.
No bo TalkBack od jakiegoś czasu pozwala nam z tej sztuki
korzystać z nią na kilka dosyć rozbudowanych sposobów,
bo oprócz tego, że na nowszych urządzeniach
jesteśmy w stanie wygenerować sobie opisy
modelem lokalnym na urządzeniu,
to możemy wysłać takie zapytanie od razu do Gemini w wersji internetowej,
ba nawet możemy zadawać dodatkowe pytania.
Natomiast do tej pory ta funkcja była ograniczona do języka angielskiego.
Bez większego zaskoczenia,
Tak często, jeśli chodzi o nowe funkcje od Google,
jest, że na początku one pojawiają się tylko po angielsku.
I zanim one pojawią się w innych językach,
to trochę czasu to zajmuje.
Natomiast właśnie w tej wersji z 16.1 Talkbacka
opisy oparte przez Gemline,
w tym funkcja tzw. follow-up,
więc to funkcja, która pozwala nam zadawać pytanie,
została rozszerzona o kilkanaście nowych języków.
Ja może nie będę czytał tej całej listy. Myślę, że najważniejszą informacją dla nas jest taka, że język polski jest na tej liście.
Także w końcu my też możemy z tej funkcji korzystać.
Możemy sobie KAS przypisać lub użyć menu lokalnego na jakimś elemencie i tam możemy albo wygenerować opis dla całego ekranu
lub dla elementów, które mamy podświetlone pod fokusem.
No i wtedy taki opis od Gemera dostaniemy.
Możemy też później się o jakieś szczegóły dopytać.
I też możemy wysłać Google’owi informację zwrotną.
Tak że gdyby nam wyszło po jakiejś kartce z zamówieniem,
że to są jakieś poduszki i nakrętki,
to możemy ocenić, czy odpowiedź była dobra czy zła.
Kiedyś to było tak, że obok każdej odpowiedzi idziemy,
mieliśmy dwa przyciski, przez które musieliśmy się przedrzeć gestami,
a teraz one zostały ukryte pod działaniami.
Czyli tutaj też, a propos tego, że tych czynności jest coraz więcej,
tutaj też właśnie pod czynnościami możemy oznaczyć,
że odpowiedź była dobra albo zła i w ten sposób ją ocenić.
I wtedy taka informacja zostanie do firmy Google wysłana
i to pewnie w przyszłości pozwoli na poprawienie jakości tych opisów.
I to jest, wydaje mi się, bardzo fajna zmiana.
Myślę, że wiele osób na to czekało.
I to jest coś, czego tak łatwo na iOS-ie na pewno nie możemy zrobić.
Czy np. Rzeszło ma jakieś swoje modele,
ale one chyba po polsku nie działają.
A tutaj teraz mamy to fajnie zintegrowane z systemem
w dowolnym momencie możemy z tego skorzystać.
Natomiast też tutaj Accessible Android wraca uwagę na to,
że cały czas nie wiemy dokładnie, jaki tam model jest wykorzystywany.
Próbowali się dopytywać, hakować ten model promptami.
Udało im się wycisnąć tylko tyle, że jest to jakiś Gemini Pro.
W której wersji nie wiemy, natomiast z tego, co wiem,
te opisy są generalnie na dosyć wysokim poziomie.
Tak że myślę, że spokojnie można z tej funkcji korzystać
i ona powinna być w miarę dokładna.
Druga nowość istotna i a propos responsywności zostały dodane nowe opcje,
które pozwalają nam zredukować opóźnienia.
O co chodzi?
W zaawansowanych ustawieniach zostały dodane dwa nowe suwaki.
Możemy zredukować suwak dla Focusa i dla Focusa na klawiaturze.
O co chodzi? Chodzi o opóźnienie, o ile TalkBack czeka w momencie,
kiedy położymy palec na ekranie i rozpocznie się albo eksploracja,
albo TalkBack wykryje jakiś gest.
Wiele osób uważa, że TalkBack generalnie jest mniej responsywny
niż np. GieSło czy Prudence.
I to może być jednym z czynników, dlaczego zwłaszcza podczas pisania
dużo osób komentowało, że TalkBack jest dużo mniej responsywny
niż voiceover na klawiaturze ekranowej.
Tu nie mówię o wprowadzeniu Brailowskim, bo to osobna kwestia.
No i co się okazuje?
Mamy teraz te dwa osobne słowaki, które sobie możemy ustawić.
To jest jakaś lista z opcjami.
I domyślnie talkback, kiedy położymy palec na ekranie,
zanim np. zczyta, co mamy pod palcem, albo rozpozna jakiś gest,
domyślnie czeka 0,03 sekundy.
Zarówno na klawiaturze, jak i dla innych kontrolek.
To jest dosyć długo. To jest prawie pół sekundy, to jest na pewno opóźnienie, które jesteśmy w stanie odczuć.
To 0,3 sekundy, nie 0,03.
Oj tak, przepraszam. Tak, 0,3. No właśnie, tak. 0,3 sekundy to byłoby całkiem fajnie.
No właśnie, ale można sobie teraz to zredukować. Najniższą opcją chyba jest 0,15.
Więc, no, znaczna redukcja, tak o połowę.
I z tego, co możemy przeczytać, to faktycznie ma istotne znaczenie.
Jeśli ktoś wykonuje gesty powoli, na przykład jakieś gesty dwuczęściowe,
no to może warto zostać przy tej wartości domyślnej,
bo jeśli to zmniejszymy, to faktycznie ten chłopak może trochę krócej czekać na to,
kiedy my jakiś gest wykonamy. Natomiast jeśli wykonujemy te gesty
dosyć zamaszyście, dosyć szybko, no to myślę, że warto sobie
…żeby wejść do tych ustawień zaawansowanych i te suwaki sobie zredukować.
Możemy to zrobić osobno dla klawiatury i reszty systemu,
czy dla innych kontrolek, więc można sobie tak zrobić tylko dla klawiatury,
jakby ktoś nie chciał wszędzie tego zmniejszyć.
I myślę, że możemy znacznie sobie komfort pracy z talkbackiem poprawić.
Ja nie mam telefonu z Androidem, żeby to sprawdzić,
ale śmiem przypuszczać, że to może znacznie zbliżyć,
To jest responsywność talkbacka do innych czynników ekranu, przynajmniej pod niektórymi kontekstami, tak to nazwijmy.
No to ja pewnie sprawdzę to za chwilkę, bo ja mam telefon z Androidem i na pewno to sprawdzę.
Jestem bardzo ciekawy twoich wrażeń w takim razie. Waszych też zresztą, możecie nam zostawiać wiadomości, jestem bardzo ciekawy, jak to będzie działało w praktyce.
Kończąc jeszcze myśl, no tutaj Accessible Android zwraca uwagę, to było testowane akurat na też telefonie z jakiejś średniej półki chyba to jest telefon, to jest Samsung Galaxy A55, nie wiem, który to jest dokładnie rocznik.
że na klawiaturze czasami mowa, jak ktoś bardzo szybko pisał,
czasami nie nadążała, były odważane tylko dźwięki,
natomiast tam pewnie jest kwestia syntezy, tam była synteza Google używana,
więc jeśli ktoś korzysta z RH Voice’a albo jakiegoś eSpeak’a,
to śmiem przypuszczać, że to pewnie będzie w ogóle działało bardzo responsywnie.
Jeszcze kończąc wątek tych zaawansowanych ustawień,
to właśnie też w tych zaawansowanych ustawieniach
teraz znajdziemy inne opcje związane z klawiaturą.
Tam też znajdziemy opcję z aktywacji jednym stuknięciem.
To taka stara opcja, kiedyś to samo się na Androidzie działało.
Żeby coś aktywować, wystarczyło stuknąć palcem raz.
To było takie eksperymentalne ustawienie, które każdy mógł włączyć.
Do teraz też zostało przeniesione do ustawień zaopatrowanych.
Podobnie jak…
Podobnie jak…
Jakie jeszcze ustawienia dotyczące tego, czy mamy stukać dwukrotnie,
czy puścić palec na każdym klawiszu, żeby ten klawisz pisać,
to też zostało przeniesione do ustawień zaawansowanych.
Jaki czas opóźnienia na przytrzymanie chyba też klawisza na klawiaturze,
żeby jakieś znaki alternatywne, to też było w innych ustawieniach,
a teraz to zostało przeniesione do ustawień zaawansowanych.
I jeszcze tutaj, kontynuując naszą eksplorację,
gesty dla ekranowego wprowadzenia Braille’a
możemy teraz sobie spersonalizować.
Kiedy mamy aktywną klawiaturę PL,
to możemy sobie praktycznie każdy gest zmodyfikować.
Gesty są podzielone na kilka kategorii.
Podstawowe sterowanie, poruszanie kursorem,
zaznaczanie tekstu oraz edycja oraz sprawdzanie pisowni.
Więc z każdej z tych kategorii znajdziemy różne polecenia
i możemy też je z ustawień zrezygnować,
Myślę, że byśmy za dużo sobie pozmieniali.
Niektóre gesty są przypisane do kilku poleceń na raz.
Jeśli zmienimy jedno z poleceń takiego gestu,
to zmieni się też to drugie działanie, tak jak o tym nas poinformuje.
W takich sytuacjach…
Możemy też gesty, których nie używamy, usunąć.
One wtedy będą nieprzypisane,
gdybyśmy coś aktywowali przypadkowo, więc możemy to zrobić.
Kiedy wybierzemy, że chcemy jakiś gest zmienić,
zostanie nam wyświetlony komunikat pomocy,
który nam tłumaczy, jak to działa.
Generalnie po prostu się nam tymczasowo ta klawiatura brailowska uaktywni.
Musimy dany gest wykonać, później tę klawiaturę zamknąć.
Generalnie TalkBack nam wytłumaczy, jak to zrobić.
I w ten sposób możemy sobie wszystkie gesty przepisać.
Działa to tak, że musimy ten gest, kiedy klawiatura się otworzy,
wykonać dwa razy.
Pierwsza stockback zapyta nas, czy chcemy tę zmianę dokonać.
I po prostu jeśli wykonamy ten gest jeszcze raz,
to zmiana zostanie zatwierdzona i klawiatura brailowska zniknie.
Jeszcze mamy informację, że gest przesunięcia trzema palcami
w górę i w dół nie może być zmieniony.
I mamy też coś, co pewnie pomoże osobom widzącym.
Niestety bardzo często jest tak,
Na przykład coś o notawach Talkbacka w Androidzie.
Powiedzmy, top 10 wyników to pewnie będzie,
jak wyłączyć Talkbacka? Mój telefon zaczął gadać.
I niektórzy producenci nawet już komunikaty dla osób widzących
dodali. OnePlus chyba był przykładem takiego producenta.
A teraz Google postanowiło dodać taki komunikat samo.
Kiedy pierwszy raz włączymy Talkbacka,
pewnie też po aktualizacji, przy pierwszym starcie
zostanie wyświetlony komunikat, który zresztą cały czas będzie
…wyświetlony na górze ekranu, tak że osoba widząca nie będzie w stanie go nie zauważyć.
My nie będziemy go dotykowo w stanie znaleźć.
On będzie przy pierwszym uruchomieniu TalkBaka, na przykład po restarcie telefonu, przeczytany.
Po prostu będzie informował, jak TalkBaka wyłączyć.
Został dodany do tego nowy, szybki gest.
Mianowicie, położenie i przytrzymanie na ekranie dwóch płaców przez pięć sekund.
Więc jakby ktoś widzący sobie niechcący talkbacka włączył…
Może przypisaliśmy jakiś gest skrót dostępności
na telefonie osoby widzącej, jakiegoś członka rodziny.
Ktoś sobie niechcący tego talkbacka włączy, nie wie, jak go wyłączyć,
to Google po prostu taki szybki skrót do tego dodał.
Gdyby ktoś tego komunikatu i tego skrótu nie chciał,
to po prostu korzystamy z talkbacka.
Nie potrzebujemy, żeby coś takiego nam się cały czas na ekranie wyświetlało.
No to też w ustawieniach TalkBaga możemy po prostu sobie to wyłączyć.
Jest to w sekcji ustawień ogólnych.
Jeszcze mamy kilka takich pomniejszych zmian.
Podczas czytania emoji, po każdym emoji,
właśnie będzie słowo emoji wypowiadane.
Swoją drogą, szkoda, że nie da się tego wyłączyć,
bo na iOSie to jest opcjonalne.
Ja akurat tego nie lubię, ale ktoś chce być pewny,
że coś, co słyszy, to jest emoji, a nie część tekstu,
to teraz Talkback będzie o tym informował,
jeśli korzystamy z syntezy Google.
To kolejna funkcja, podobnie jak ustawienia interpunkcji,
która z jakiegoś powodu jest dostępna tylko,
jeśli mamy włączoną syntezę Google.
Jeśli korzystamy z innego syntezatora,
to po prostu komunikat emoji nie jest czytany.
Jeśli zaznaczamy duży fragment tekstu,
to TalkPak, trochę tak jak MVDA, będzie nas informował o tym,
ile znaków zostało zaznaczone, ale w przeciwieństwie do MVDA,
oprócz tej informacji będziemy poinformowani
o pierwszych kilku słowach na początku i na końcu zaznaczenia.
Możemy się zorientować, gdzie takie zaznaczenie się rozpoczyna i kończy.
Bardzo fajny pomysł.
Myślę, że to jest całkiem sensownie rozwiązane.
I w ustawieniach klawiatury mamy teraz układ klasyczny.
Został usunięty, opcja zmiany układu klawiatury cały czas jest dostępna.
Natomiast jedyną opcją, którą tam znajdziemy, jest układ domyślny,
który jest cały czas aktualizowany w przeciwieństwie do układu klasycznego,
który pewnie wielu funkcji już nie miał
i dlatego Google po prostu zdecydowało się go usunąć.
I tutaj mamy właśnie informację, że niektóre funkcje…
Mamy kolejne funkcje, które wymagają syntezy Google.
Szkoda, bo wydaje mi się, że byłoby bardziej sensowne,
gdyby to działało ze wszystkimi syntezatorami.
Aktualizacje są tylko dla TalkBacka Google, tak jak wspominałem.
Jeśli ktoś ma telefon z Samsungiem
i nie pobieraliście ręcznie TalkBacka Google’owskiego,
to niestety będziecie musieli, tak jak mówił Patryk,
poczekać jakiś czas do aktualizacji One UI,
kiedy niektóre z tych funkcji się pojawią.
Natomiast tego, co wiem,
to Samsunga cały czas też nie ma opisów Gemini w jakimkolwiek języku,
a szkoda.
I jeśli jeszcze jakieś zmiany się pojawią tutaj,
autorzy obiecują, że ten post zostanie zaktualizowany.
Tak że warto sobie sprawdzić, czy już tej aktualizacji nie macie,
bo tutaj dużo ciekawego się dzieje,
zwłaszcza wydaje mi się, że warto sobie zajrzeć do tych ustawień opóźnień.
Jeszcze raz to jest w ustawieniach zaawansowanych.
No i jeśli chcecie sobie zdjęcia przez sztuczną inteligencję opisywać,
no to w końcu można to robić po polsku.
Prawdziwym sobie tego talkbacka jest tak… jakoś podobnie.
Zresztą opisy w obu tych polach do zaznaczania są takie same.
Więc albo tu jest jakiś błąd, albo… no nie wiem co,
bo w obu jest napisane, że chodzi o tutaj opóźnienie podczas pisania.
Teoretycznie, mimo że no jakby tytuł okna jest taki sam, ale w środku nadal jest
mowa o właśnie opóźnieniu podczas pisania, więc możliwe, że coś tu jest zepsutego
albo, no nie wiem, u mnie to jakoś nie ma jakichś tam większych zmian.
Inna rzecz, że nie używałem…
Znaczy ja używam klawiatury ABK, więc to nie jest takie standardowe pisanie.
Być może na krawatusze będzie jakaś różnica. Niemniej jakoś nie mam cierpliwości, żeby pisać w taki standardowy sposób, tylko rzeczywiście Braille’em.
Mamy pytanie od Sylwestra. Kiedy będzie prezentacja Starlinka? Na końcu.
Na końcu i ja dodam od razu, że to będzie opis zestawu. To nie będzie jeszcze test łącza, to nie będzie test aplikacji, konfiguracji.
To będzie opis po prostu tego, jak to wszystko wygląda, jak do nas to przychodzi.
To na razie tyle dostaliśmy od Michała Molka, którego bardzo dziękujemy za podesłanie tego.
I na razie tyle wyemitujemy. A w przyszłości być może będzie jeszcze więcej.
Tymczasem mamy telefon, więc ten telefon odbierzmy. Ktoś z nami po drugiej stronie?
Witam serdecznie, tak jak obiecałem, Bartek po tej stronie się kłania.
Cześć Bartku.
Wiem, że jeszcze o tym nie mówiliście i będzie chyba dość dużo o tym mówione, czyli o wczorajszym przełomie.
Czyli nowa aktualizacja, dość potężna, prawda, iOS-a 26.
Ale ja sobie oczywiście przeprowadziłem tą aktualizację zarówno i na 16, i na 13.
I już znalazłem pewne niedociągłości. Nie wiem, właśnie chciałbym się zapytać, jak jest u was.
A mianowicie chodzi mi tutaj o aplikację telefon.
Czy u was też jest takie coś, że nie możecie usunąć pojedynczo połączeń z zakładki odebrane?
Ostatnie, przepraszam.
Nie próbowałem chyba usuwać.
Bo zauważyłem bynajmniej zarówno i na szesnastce i na trzynastce ten błąd, że na czynnościach nie ma opcji usunąć.
Jest opcja kosz.
No właśnie, ale…
Czy to działa tak samo?
Pewnie tak. Pewnie tutaj jest jakaś etykieta ikony może, ale pewnie tak.
No dobrze, czyli ten problem jakby był rozwiązany.
Ale jeszcze dziwniejsza rzecz i tutaj świadkiem może być konsultant w Apple’u,
bo też dzwoniłem do nich dzisiaj w tej sprawie, zauważyłem bynajmniej taką jedną rzecz,
że aplikacje telefonowe zarówno różni się na 13, jak i na 16 tym, że są inne karty.
Tak, to się zgadza, bo teraz mamy dwa widoki telefonu.
Nie wiem, czy słychałeś audycji o nowościach w iOS-ie.
Nie, nie słuchałem, ale nie wiem, czy o to chcesz, Piotrze, zapytać,
ale tylko chciałbym nadmienić, że zarówno na jeden jak i na drugim
właśnie wybrałem tą niby próbną opcję nowego tego wyglądu.
I teraz jest pytanie, czy można w ogóle do tego starego wyglądu wrócić.
Tak, można. Właśnie o tym chciałem wspomnieć.
komu się ten nowy wygląd nie podoba, bo mi akurat też się jakoś średnio podoba.
Musisz nacisnąć na przycisk filtry, czy filtru i w prawym górnym rogu i tam
będzie opcja klasyczny.
Ale to muszę w ten przycisk wejść, czy muszę wykonać długie naciśnięcie?
Nie, ja musisz go nacisnąć, ten przycisk raz.
Aha, okej. I wtedy jakby ten interfejs się nam jakby wróci do poprzedniej wersji.
Wróci do poprzedniej wersji, on będzie zapamiętany.
Zauważyłem, że jak ten interfejs się ładuje, to tam przez chwilę etykieta
Kiedy zakładek się nie zgadzają, tam przez chwilę widzę tą zakładkę połączenia tego nowego interfejsu, ale tam po pół sekundy ona się zmienia.
Tak, i czasem jeszcze ktoś po angielsku potrafi zagadać. Jakieś call na przykład albo coś.
A to tego nie zauważyłem, bo mam system po angielsku.
A co może być powodem, że chociażby na przykład na trzynastce nie mam karty, poczta głosowa, a na szesnastce ona już jest?
To też pewnie jest kwestia tego nowego widoku, bo w tym widoku ujednoliconym, tak to Apple ładnie nazywa.
Poczta głosowa jest częścią tej sekcji ostatnie.
A w widoku klasycznym to chyba ona powinna być.
I jest, bo ja mam. Mam pocztę głosową.
Aha, czyli rozumiem, że wy się nie decydowaliście na ten nowy wygląd.
Nie, ja się nie decydowałem.
Sprawdziłem, ale tak, nie odpowiedziałem.
Ja trochę żałuję i dobrze, dziękuję ci Piotrze, że odpowiedziałeś mi na to pytanie,
bo nawet na infolinii Apple nie potrafili znaleźć odpowiedzi na to pytanie.
O, to ciekawe.
To w ogóle ciekawe, bo to pewnie też osoby widzące mogą mieć z tym kłopot w sumie.
Warto wiedzieć, bynajmniej w naszym środowisku. No dobrze, myślałem, że troszeczkę będę wam tu dłużej głowę zawracał,
a jednak się okazało, że krótko i na sam koniec oczywiście gratuluję.
Jeszcze nie pełne trzysta, ale już niedługo, jak skończy się audycja, to wtedy będziemy mogli odstukać trzysetną audycję.
Trzysta za nami, ale trzysetna trwa, trzysetna trwa.
Ale najważniejsze, że z sukcesem idzie.
Więc za niecałe dwa lata czterysetkę będziemy mogli świętować.
No i myślę, że w przyszłym roku to w ogóle, jak tak sobie szacuję ilości materiałów, jakie publikujemy,
to myślę, że w przyszłym roku w ogóle na stronie przekroczymy trzy tysiące Tyflo Podcastów jako takich.
No to będziemy mieli kolejny sukces. Gratuluję. I cóż, słucham was wtedy dalej.
Miejmy nadzieję, że do końca, bo jutro wcześniej mnie pobudka czeka.
Ale jakoś postaram się wytrwać.
Dzięki jeszcze raz Wam serdeczne i cóż, pozdrawiam serdecznie i do usłyszenia.
Dzięki bardzo za telefon. Pozdrawiamy i do usłyszenia.
Tematów przed nami jeszcze dość dużo.
I wiadomość Grzegorza, którą już przygotowałem do odsłuchu.
Zatem Grzegorzu…
Cześć Wam, z tej strony Grzegorz.
Gratuluję wam 300 już tyflo przeglądu. Ja tam jestem z wami od początku.
Każdy tyflo przegląd słuchałem, jak nie na zły czasem, to z podcastu.
A tak to, co tam mogę powiedzieć tak na dzisiaj. iOS, wszystkie macosy,
tam poaktualizowałem, bo jeśli chodzi o macosy, to tylko zaktualizowałem.
No i tyle. TVOS poszła aktualizacja, ale nie wiem, czy tam jakieś zmiany są, szczerze mówiąc.
Ale z kolei na iPhonie 15 Pro iOS 26 zauważyłem przynajmniej jeden błąd na ekranie blokady z powiadomieniami,
że jak się usunie się jedno powiadomienie, to jakoś fokus voiceovera nie przechodzi na kolejne połowę wiadomienia
i muszę odblokować iPhone’a, Face ID i dopiero wejść tam do tych centrum powiadomień i dopiero stąd.
Więc takie. Tydzień temu tam Paweł Masarczyk mówił o MyWay Pro na Androida.
No na iOS’a zainstalowałem, ale tam połowa chyba po niemiecku czy po jakiemuś tam.
Ale na Androidzie niestety nie jest dostępna w moim kraju.
No i sobie nie mogę sprawdzić. No dobra, to tyle. Pozdrawiam.
Tak wygląda wiadomość od Grzegorza. No i tyle, jeżeli chodzi o wiadomości,
które do tej pory do mnie dotarły. No to w takim razie przejdźmy sobie
do następnego tematu i chyba teraz ode mnie będzie temat na temat audycji,
na temat programu. W zasadzie już dwóch programów, jak się okazuje,
bo dosłownie w trakcie trwania audycji pojawił się drugi program z tej samej serii.
Mowa o programie, który nazywa się Pan Mareczek.
W tej chwili jest w wersji 1.3.
I jest również drugi program Pani Agniesia w wersji 1.3.
Ciężko mi tutaj dać link do pobrania tych programów,
dlatego że to są linki do Dropboxa.
Te linki pojawiają się na liście Tyflos.
Jeżeli ktoś jest na tej liście, to pewnie widział dyskusję,
Która trwa od kilku dni na ten temat.
I do czego to są programy?
To są programy, które neuronowymi głosami Microsoftu w chmurze
są w stanie przeczytać tekst i zapisać go do pliku mp3.
Okienko aplikacji jest bardzo proste.
A oprócz tego, że warto opowiedzieć o samej aplikacji,
to warto w ogóle powiedzieć o historii…
nie wiem czy jej pisania, ale pisania w ogóle tego typu audycji,
znaczy programów, bo jest to program napisany
z dużą pomocą sztucznej inteligencji.
I ten, kto pisał ten program, czyli Carol O’Leany,
pamiętam jak dwa czy trzy lata temu dyskutowaliśmy o tym w ogóle,
co umie ten czat, że on to chyba umie coś pomagać przy programach
I on by coś chciał napisać, tylko trochę nie wie w ogóle o co chodzi,
co to jest ten Python, jak się go tam uruchamia i w ogóle.
I w tym momencie jest na etapie, w którym pisze aplikację do czytania książek.
W tym aplikacja stara się czytać nie tylko format TXT, ale również EPUB, DOTS, PDF.
Tam jest kilka tych formatów, które wspiera.
Możliwe, że będą jeszcze jakieś tutaj poprawki,
bo tutaj są zgłaszane od czasu do czasu jakieś tam rzeczy.
Oprócz tego, że sam program jest w sumie dosyć ciekawy,
to jak się okazuje, można dzisiaj przy pomocy czata
zacząć wpisać programy w zasadzie nie wiedząc za wiele
w ogóle o programowaniu tak naprawdę.
To jest dosyć, moim zdaniem, dosyć ciekawa rzecz.
Tak, a o czacie GPT też mówiliśmy gdzieś tam w pierwszych Tyflo Przeglądach. Jeszcze o trójce.
Tak, w połowie. W połowie. Bo sto pięćdziesiąty trzeci to był whisper, a czas się pojawił troszkę po whisperze.
Było kilka miesięcy później, więc to mógł być jakiś sto siedemdziesiąty może, czy któryś taki.
Tak mi się wydaje, tyfro przegląd, może ktoś znajdzie.
Natomiast co do właśnie tego programu.
Ja tutaj sobie piję… o, chciałem zrobić, żeby było słychać,
ale nie jestem w stanie z jakiegoś powodu przekierować na Zuma systemu,
ale już wiem, co zrobię.
Zaraz zrobię tak, żeby było dobrze.
Po prostu przekieruję sobie NVDA, gdzie trzeba.
I już za chwilę…
O, jest już.
Dobrze, ja to trochę ściszę.
I zwolnię.
I teraz tak.
Mamy program Pan Mareczek i Pani Agniesia.
I teraz tak.
Jeżeli chcę jakiś plik przetworzyć, tekstowy,
to ten plik musi być w tym samym folderze, w którym jest program.
Ja tu sobie dodałem jakiś plik tekstowy,
który, o ile mi wiadomo, już nie ma żadnych praw autorskich.
Żeromski. Legenda o bracie leśnym TXT 2 z 3.
Nie ma tutaj, mam nadzieję, problemów z dystrybucją tej książki.
No i co? Najpierw uruchomię pana Mareczka.
Pan Mareczek. Start przycisk.
No i tu mamy w zasadzie przycisk start, to najważniejsze.
Jeszcze jeden plik, przycisk opcji oznaczone.
Książka cała może być nagrana albo do jednego pliku,
albo do wielu plików.
Liczba znaków, czyli ile znaków ma mieć jeden plik.
Tutaj podobno też jest uwzględnione to,
żeby taki plik kończył się na końcu zdania.
To jest mała książka, ale dobrze.
Niech podzieli po pięć tysięcy znaków.
Zmień prędkość. Pole edycji zaznaczone 1.
Zmień prędkość, no 1 to jest standard.
1,5 to będzie półtora razy większa prędkość i tak dalej.
Start przycisk.
No i start.
Wciśnięty. Niedostępne. Pole edycji tylko do odczytu liczba części. 0 z 15.
Mam jakieś 15 części. Nie wiem, o co chodzi,
bo to nie jest ilość plików, na której jest podzielony plik,
tylko jakieś części, które możliwe, że są wysyłane
No ale już się prawie cały plik zrobił.
On ma tam chyba 12 tysięcy znaków.
Gotowe. Dialog zakończono.
Liczba przetworzonych plików.
Jeden czas. 0,28. Ok. Przycisk. Wci…
Programy Pan Mareczek.
Tak. Żeromski Legenda o Bracie Leśnym TXT 2 z 4.
Pani Agnieś. Żeromski Legenda o Bracie Leśnym 4 z 4.
I tu mamy folder z tą książką.
I tu mamy trzy pliki. To zostało podzielone na trzy takie części.
Ja sobie tutaj jeszcze Fubara przekieruję na kartę. No i co? Odtwarzam pierwszy plik.
Stefan Żeromski, legenda o bracie leśnym Rudolf von Spierbach,
zatrzymał koniat już przy samej krawędzi Płaskowsgórza
i puściwszy z rąk lejce, wysłał oczy na zwiady w poprzek krajobrazu,
który się ustupił i go roztwierał.
Po lewej ręce wznosił się szczyt chohecyl.
No i jest. I działa.
Drugi plik.
Kiedy tak patrzał na nią z zachwytem,
nagle rzuciła się skokiem na niego,
złożywszy pięści, zwaliła go w piersi i pchnęła na posłanie,
a wraz z jednym podparciem ramienia…
No i to trwa koło tam niecałe 5 minut.
I dokładnie tak samo działa aplikacja Pani Agniesia.
Tylko prawdopodobnie będzie to głos najprostszy Agniesia.
To jest pierwszy raz, kiedy uruchamiam tę aplikację.
To jest aplikacja niepodpisana, w związku z powyższym…
Więcej informacji…
I tu działa dokładnie to wszystko tak samo,
no tym razem powiedzmy to zrobię do jednego pliku,
czyli po prostu naciskam Start.
Tyle, że wcześniej usunąłem folder.
Wydaje mi się, choć tego nie jestem pewien,
że jeżeli plik jakiś jest już przetwarzony,
to on nie będzie go przetwarzał po raz drugi.
No i tutaj mam dźwięk nie NVIDIA, bo mam zainstalowaną wtyczkę, która różne elementy wskazuje dźwiękiem.
O właśnie, gotowe. No i już.
Po lewej ręce wznosił się szczyt chohecel,
na prawo biegły garbaty ogniwa przełęczy,
w tyle murem stała świerkowa…
I tak dalej. Także jeżeli ktoś chce na szybko przerobić sobie jakiś tekst
głosami neuronowymi Microsoftu, można to zrobić.
Można oczywiście zmieniać prędkość…
Czy wiadomo coś o jakichś limitach?
Ile tam można wrzucić do tego?
Nie. Nic o limitach nie wiem.
Ja myślę, że w sumie na czas publikacji tej naszej audycji, jeżeli na stronie, jeżeli tam by się pojawiła jakaś nowa wersja, to fajnie by było jednak mimo wszystko gdzieś to podlinkować.
No nawet może i do tego Dropboxa, no bo nie wszyscy są na Tyflosie, więc fajnie będzie gdzieś tam te linki wrzucić.
Tak, tylko każda wersja programu to jest osobny link i my damy do wersji 1.3.
Tak, tylko na ten moment chyba nie mamy innej opcji za bardzo.
Ewentualnie jeszcze z Karolem można by tu się…
Można się z Karolem rzeczywiście skontaktować, natomiast rzeczywiście jeżeli damy link,
to prawdopodobnie będzie link do jakiejś konkretnej wersji.
Niekoniecznie najnowszej.
Więc to niekoniecznie musi być wersja najnowsza, tam się pewnie coś będzie zmieniać jeszcze.
No wiadomo, jak to wygląda.
Ale słuchajcie, takie rzeczy można zrobić z użyciem sztucznej inteligencji, jeżeli nawet nie potraficie programować.
To jest naprawdę coś. I coś już użytecznego.
Tymczasem mamy telefon, więc może odbierzmy. Kto jest z nami po drugiej stronie?
Rafał.
Słuchamy cię, Rafale.
Tak, mam takie pytanko. Od którego iPhona jest USB-C?
Aha, od każdej piętnastki, tak?
A który iPhone ma najlepszą baterię? Bo słyszałem, że szesnastka, tak?
Przez sieremnastki. Taką najlepszą.
No to pewnie będzie miało 17 Pro Max.
Natomiast to jest telefon większy, wiadomo.
Najdroższy.
Tak, jeszcze najdroższy właśnie.
Tak, natomiast nawet, powiedzmy, mniejsze iPhone’y, no to
17 Pro ma większą baterię, na przykład, od zwykłej sieremnastki.
Teraz nie pamiętam dokładnych parametrów tej baterii,
ale tak to wygląda.
No z poprzednich modeli, no to 16E,
Mhm. A na przykład od pozostałych tych starszych iPhone’ów to też lepsza bateria?
Czy jak to się ma się odnośnie pozostałych iPhone’ów?
To te wersje Pro i Pro Max to zazwyczaj to szło tak, że one miały najlepsze te baterie.
No zwłaszcza właśnie w tej edycji Max, tak? No bo są większe po prostu.
Większe rozmiarowo to i tam większe ogniwo można było wrzucić do tych telefonów.
Aha, w ogóle urządzenie jest większe, tak?
Dokładnie, dokładnie.
Tak, no bo…
W ogóle to urządzenie jest większe, w związku z tym, że urządzenie jest większe, to i bateria większa.
Dokładnie, no bo powiedzmy ten model 16, czy 16e ma 6,1 cali czy 16 pro, natomiast ten model Pro Max to już jest 6,7 cali.
W przypadku iPhone’a 17 to teraz to jest 6,3 cali, czyli to jest minimalnie większy, ale też ten model Pro Max to jest chyba 6,8, więc ten ekran jest większy.
Nie, bo gdzieś tam czytałam, że niby te szesnastki, te E właśnie słyszałam, że ponoć bardzo ma dobrą baterię, ale wyświetlacz coś tam nie tego.
Znaczy, to się zgadza. Ten wyświetlacz jakościowy minimalnie odstaje.
Teraz nie pamiętam w jakich parametrach.
Natomiast dla osoby całkowicie niewidomej, to generalnie ten model 16E jest bardzo dobry.
Znam osoby, które właśnie ten model niedawno się prześwietlały i są bardzo z niego zadowolone.
No bo wiadomo, bo jak się tam wyświetla, to czasami bilety, nie bilety dla konduktora czy coś.
Czasami trzeba tej idącej osobie coś tam pokazać, no nie?
A nie, no to z tym nie będzie problemu. To są jakieś naprawdę detale, które pewnie dałoby się zauważyć,
tylko gdybyś, nie wiem, oglądał jakiś film w bardzo wysokiej rozdzielczości.
Tam chyba szybkość odświeżania tego wyświetlacza nie jest tak konfigurowalna.
To są bardzo takie drobne kwestie.
Aha, czyli do takich podstawowych rzeczy to nie będzie zauważalne?
Okej, dobra, czyli USB-C jest od 15-ki, okej.
Bo to słyszałem, że to od 16-ki też.
No tak, tak, od 15-ki, ale słyszałem, że od 16-ki, a to jednak już od 15-ki to USB-C.
No to dobrze. Jeszcze mam takie pytanie, bo to słyszałam właśnie tej audycji, tej nowości i tak dalej.
I tam w liście o tej klawiaturze, tej jednorecznej i to wszystko pięknie i tak dalej. I wszystko fajnie.
I chciałam się dopytać, no bo to tam ponoć trzeba wszystko tam, wiadomo, po ustawieniach postawiać,
Czy to ma być tabliczka, czy to ma być, wiadomo, odwrotność tabliczki, czy tam lewa, czy prawa ręka, itd.
No fajnie, tylko jak się to wszystko postawia, no to co dalej? Bo to słyszałam, że jakiś trzeba włączyć monitor Braila, czy coś?
Dworęczne wprowadzanie brajla na ekranie.
Musisz stuknąć dwukrotnie i przytrzymać trzema palcami.
I wtedy niezależnie od tego, w jakiej orientacji masz ułożony telefon,
on się przełączy wtedy w orientację pionową,
bo on w takiej orientacji ma być, żeby to działało.
I wtedy ten tryb, który wybrałeś w ustawieniu,
czy to jest ta tabliczka, czy to jest prawa, czy lewa ręka, będzie aktywny.
A osobno cały czas możesz sobie takie klasyczne prowadzenie dwuręczne wywołać.
Czy to z pokrętła, czy to z dwukrotnym strugnięciem na brzegach ekranu?
Krótko mówiąc, mam włączyć najpierw tego brajla.
I kiedy włączę tego brajla, to mam jeszcze dwukrotnie…
Trzymam palcami, przy trzymanie to zrobię, tak?
Tak, dwukrotne strugnięcie trzyma palcami.
Nawet nie trzeba tego brajla najpierw włączyć.
To spowoduje, że ten brajl się włączy jednoręczny.
Czyli to nawet nie muszę włączyć.
Tylko wystarczy, że od razu tak zrobić i już się to tak uruchamia.
Aha, i ta orientacja się już też tak ustawi?
Dokładnie.
Aha, już to rozumiem i też będzie to zablokowane, nic nie będzie się tam przestawiać?
Tak, no bo to tylko w tej jednej orientacji może działać, więc…
No okej, okej. Proszę to powiedzieć, no i dobra.
No i jakbyś chciał mi jakieś tam literki stawić, to jak dalej?
Dobra, bo jak jest lewa ręka ustawiona, to ja wiem, że np. jak literka C, to trzeba, podejrzewam, że trzeba raz kliknąć dwa razy na pierwszy punkt, po chwili pewnie drugi raz kliknąć dwa razy na pierwszy punkt, to będzie wtedy się wbija pewnie literka C, tak podejrzewam.
Nawet nie tyle dwa razy, co raz.
Jakby ktoś był ciekawy, jak to działa, to odsyłam do naszej audycji o tych nowościach.
Natomiast jeśli chodzi o ten tryb i lewa ręka, czy prawa ręka,
to wygląda to tak, że najpierw wprowadzamy komórki z lewej strony,
czyli tak naprawdę byś musiał stuknąć palcem raz z lewej strony akurat.
Jeśli chodzi o punkt pierwszy, to z prawej ręki stukasz w lewej części ekranu
i to się wpisuje sam punkt pierwszy.
Potem stukasz jeszcze raz w tym samym miejscu,
tylko tym razem się wpisuje punkt czwarty.
Aha, wpisuje się punkt czwarty do tego pierwszego, tak?
Tak, ten tryb działa tak, że najpierw wystukujesz lewą część tej komórki,
czyli jakbyś chciał wpisać literkę G,
Musiałbyś stuknąć dwa razy dwoma palcami.
Pierwszy, drugi, wpisujesz punkt, puszczasz i jeszcze stukasz.
To wtedy się wpisuje czwarty, piąty.
No i okej, a jakbym chciał literkę wpisać, to jak?
Bo to jest jedna kolumna wtedy.
No to jak to zrobiliśmy?
No to wtedy zamiast tego drugiego stuknięcia,
to przesuwasz palca marsz w prawo.
A w prawo po prostu.
I on to wtedy akceptuje jako pustą komórkę.
Dokładnie, tylko jak byś chciał faktycznie spację zrobić, to musisz teraz dwa razy zrobić,
bo za pierwszym razem akceptujesz tę literę, a za drugim razem się spacja robi.
I w prawo, dokładnie.
Okej, no to o to mi chodziło.
A właśnie, no i dobra, i kto napisze, czy później z tego brajla, jak później wyjść, czy coś?
To jest jakoś groźne przetrzymanie trzyma palcami, czy…
Nie, nie, tradycyjnie potarciem, czy tam tym gestem szczypnięcia wychodzisz tak z normalnego wejścia brajla.
Aha, czyli tak jak sobie tam gesta ustawiłem do wskazania z brajla, to po prostu tak użyć.
Dokładnie.
Aha, no to dobra.
I ostatnia taka kwestia.
Chciałam powiedzieć, że ten problem, o którym mówiłam tydzień temu,
ono się tam, że mi się ekran logowania pojawia
i tak powiem, złącza mi, wygasza, no powiem, radio
i tu Michał mi zaproponował,
żebym zaisolował tego, no program ten
FUBUR, FUBARA
i faktycznie to problem się rozwiązało.
Ekran się logowania się pojawia, a radio dalej gra.
No tak obiecałem, że powiem, no to tak właśnie mówię, że jednak to dotrwiło to.
Ja również dziękuję, życzę też dobrej nocy.
Zapraszam was jeszcze raz ponownie. Ja jeszcze tylko z takim krótkim pytaniem
a propos tego wyglądu w aplikacji telefon, kiedy ustawimy na tryb klasyczny.
Zastanawia mnie jeszcze tylko jedna rzecz. A mianowicie, VoiceOver widzi sześć kart,
a pod palcem jest ich tylko pięć. Czy też u was jest podobna sytuacja?
Tak, i to jest błąd, który w kilku miejscach się pojawia. Generalnie te paski i karcie
To w takim razie przechodzimy do następnego tematu.
Tym razem od Michała. Temat na temat czegoś, co nazywa się kodeks, zdaje się.
Ale nie chodzi o kodeks, nie wiem, wykroczeń.
Tylko, no właśnie, kolejne ułatwienie, jeżeli chodzi o trochę pisanie programów,
ale i również ileś innych rzeczy, bo chodzi o taką integrację GPT,
również czata GPT, z naszym komputerem PC.
Tak, bo być może nasi stali słuchacze pamiętają, jak opowiadałem swoje wrażenia
dotyczące CLOD-a i rozwiązania od nich, które się nazywa CODE,
Czyli takiego rozwiązania, które jest w stanie korzystać z lokalnych plików, które mamy na naszym dysku,
które jest w stanie modyfikować te pliki, pisać kod, wykonywać komendy systemowe i tak dalej, i tak dalej.
I ja wtedy mówiłem o tym, że wielka szkoda, że czat GPT wymaga do użycia tego narzędzia, klucza API.
Czyli jeżeli mamy swój abonament, jeżeli opłacamy abonament na czata GPT,
to nie możemy korzystać z tego narzędzia tak standardowo.
Tylko możemy po prostu, tylko musimy kupić klucz API,
doładować sobie konto i wtedy to dopiero jesteśmy w stanie z tego korzystać.
No i sytuacja się zmieniła. Nie wiem dokładnie kiedy ona się zmieniła.
Dowiedziałem się o tym zupełnie przypadkowo kilka dni temu,
że do kodeksa można logować się za pomocą konta czata GPT.
No i oczywiście stwierdziłem, że ja sobie to sprawdzę.
No i za chwileczkę też pokażę Wam, jak można sobie to wykorzystać w praktyce, jak w ogóle to działa.
Bo jak przeczytacie opis na stronie OpenAI, że to dla programistów,
będziecie mogli kodować, jakieś takie naprawdę bardzo zaawansowane rzeczy,
Oczywiście jest to możliwe, natomiast to z naszej perspektywy, dla nas daje, mam wrażenie, że zupełnie więcej możliwości,
nie tylko dotyczących kodowania, ale dotyczących generalnie pracy z plikami, które mamy na naszym dysku twardym.
Bo możemy w tym momencie dać do nich dostęp kodeksowi i pozwalać na wykonywanie różnych poleceń w naszym systemie.
Więc na dobry początek o pierwszych wrażeniach, jak to w ogóle wygląda.
I tu mam dla was dobre wiadomości i złe.
Zacznę od złych. Pod Windowsem w terminalu jest jeden zasadniczy problem.
Przynajmniej na razie.
Otóż kodeksa da się zainstalować po prostu w środowisku Windowsa.
Natomiast kłopot z nim w tej konfiguracji jest taki, że nie możemy wprowadzać do niego polskich znaków.
Mianowicie nie możemy wprowadzać ich z prawym altem.
Czyli w ten taki najbardziej standardowy sposób, w jaki to robimy.
Niestety to po prostu nie chce działać.
Prawy Alt nie przepuszcza polskich liter,
nie przepuszcza Control i Alt Lewy.
Jedyne, co umożliwia wprowadzanie polskich znaków,
to ta metoda dla osób jednoręcznych,
czyli naciskanie klawisza Shift i akcentu,
czyli tego klawisza obok cyfry 1 na klawiaturze.
i następnie dobicie po prostu kolejnej literki, czyli na przykład A to ON.
To działa. No ale umówmy się, jak chcemy sobie pisać z tym kodeksem,
to raczej nie będziemy tego robić w ten sposób, no chyba, że ktoś jest przyzwyczajony.
Ja nie jestem. I chciałem sobie ułatwić zadanie i usprawnić tę pracę.
W związku z tym postanowiłem skorzystać z metody, którą zresztą OpenAI rekomenduje,
Bo kodeks jest tak bardzo oficjalnie już od jakiegoś czasu dostępny, zarówno dla użytkowników Maca, jak i dla użytkowników Linuxa.
Więc postanowiłem skorzystać z WSL, czyli tego wirtualnego systemu w Windowsie, który pozwala na uruchomienie Linuxa.
Ustawiamy, musimy to sobie, jak dobrze pamiętam, zainstalować, no i wtedy jak już sobie to zainstalujemy,
to możemy korzystać z jakiejś dystrybucji Linuxa, domyślnie jest to Ubuntu.
I za momencik Wam pokażę, w taki absolutnie bardzo prosty sposób,
do czego my możemy sobie tego kodeksa wykorzystać.
I, no, to jest, jak dla mnie, super sprawa.
Wczoraj już mi się przydała.
Przydało to rozwiązanie, które Wam pokażę za chwileczkę.
Teraz muszę sobie tylko przekierować odpowiednio kartę,
…żeby tutaj wszystko działało.
O, to może zrobimy tak.
O, dobrze. Mamy syntezę.
Mamy syntezę.
I teraz odpalamy sobie oczywiście na dobry początek.
O, właśnie. Uruchamiamy sobie WSL.
Czyli Windowser i wpisuję WSL.
No i tak dalej, i tak dalej. I tu, co mamy? No i mamy pusto. Generalnie odpaliło nam się Ubuntu.
I teraz, żeby pokazać wam to, co chcę pokazać, to teraz przejdę sobie na dysk D do katalogu zdjęcia.
W Linuxie to podobnie zresztą jak w wierszu poleceń Windowsa używamy do tego komendy cd
ale teraz z racji tego, że jesteśmy właśnie na Linuxie to musimy sobie przejść do katalogu
slash mnt slash d bo będę przechodził na dysk d slash zdj
i naciskam tab żeby mi dopełnił nazwę tego folderu.
Tak, no tu z jakiegoś powodu nie chciał mi tego przeczytać od razu, ale jest.
Dokładnie, jestem. I teraz na dobry początek, przyjrzyjmy się w ogóle temu.
To ja sobie odpalę, pozwólcie, Total Commandera, żeby wam pokazać,
co ja tutaj mam w tym katalogu zdjęć. Bo napisałem sobie już taki prompt
i to jest właśnie, to jest właśnie to, czym przede wszystkim ten kodeks
będzie się różnił od tego, co mamy w naszym czacie GPT.
Bo w czacie GPT to wszystko mamy wewnątrz naszej aplikacji.
Mamy te wszystkie instrukcje, mamy czaty.
A tutaj ten kodeks, kiedy go uruchomimy,
to jest on absolutnie bez kontekstu, żadnego.
Nie ma żadnego promptu, no prawdopodobnie jakiś ma, który twórcy
od OpenAI go tam napisali,
ale naszych żadnych informacji o nas nie ma.
Nie ma informacji jak się ma do nas zwracać, kim my jesteśmy, jakich informacji potrzebujemy i tak dalej, i tak dalej.
Ale daje nam to też dużo możliwości, bo w każdym katalogu na przykład możemy sobie stworzyć taki plik,
który się nazywa na przykład agents.md. W zasadzie to może być dowolny plik na przykład z rozszerzeniem md.
I możemy tu napisać prompt. Nawet możemy poprosić czata, żeby nam taki prompt napisał.
Ja jestem leniwy, ja postanowiłem poprosić czata, żeby zrobił to za mnie.
Więc teraz sobie zobaczmy, jaki to jest ten prompt.
…
I to jest cały prompt.
I teraz, co ja robię? Mam tu w katalogu jeden plik.
Czyli tak się wtrącę, bo ktoś to może nie rozumieć.
Ty poprosiłeś go, poprosiłeś Chata o instrukcję dla samego siebie.
Tak, dokładnie. Najpierw, ja może powiem, jak wyglądało to od samego początku.
Ja oczywiście mu napisałem jakiś taki pierwszy prompt, bardzo ogólny.
Co ja chcę, żeby on zrobił? Ale on na dobry początek, najpierw w ogóle,
czat stwierdził, że on absolutnie nie będzie rozpoznawał żadnych obrazków.
Ja mu powiedziałem, będziesz, bo umiesz. Tak? No dobra, umiem.
Ale ty musisz wyrazić zgodę na to, żebym ja to wysyłał do internetu.
Dobra, nie ma sprawy, wysyłaj to do internetu. Wyrażam na to zgodę.
Następna rzecz, to ja już właśnie zdecydowałem się na stworzenie takiego prompta,
bo za pierwszym razem on zrobił bardzo dziwną rzecz, mianowicie rozpoznał te obrazki
i udał, że je rozpoznał i wpisał po prostu jakieś bzdury. Gdybym ja nie wiedział,
że na tych obrazkach jest coś zupełnie innego, to po prostu nie wiedziałbym,
że, że to było złe. A potem okazało się, bo ja go zapytałem dlaczego on tak zrobił.
On powiedział, wiesz co, bo ja w sumie najpierw to nazwałem te obrazki i zrobiłem te opisy na podstawie
jakichś takich przykładów, które sobie wymyśliłem. Przepraszam cię, bardzo więcej tak nie zrobię.
Dobra. No to powiedziałem mu i wydałem takie poradzenie. Dobrze, to z tej naszej konwersacji,
którą my sobie tu zrobiliśmy, wygeneruj mi prompt i zapisz do pliku, no właśnie tego kropka md.
Ja już w tym momencie mam ten prompt w tym katalogu
i teraz będzie się to wszystko działo z tym zdjęciem,
które tu mam.
Słuchajcie, nic mi to nie mówi. Jakieś zdjęcie z Whatsappa.
Ale co to jest, to kompletnie nie mam pojęcia.
To teraz będę chciał się dowiedzieć.
I teraz przechodzę sobie do konsoli i wpisuję kodeks.
Przez X.
I tak dalej, i tak dalej.
I tu mamy takie proste konsolowe okienko.
To ja mu teraz napiszę.
Działaj.
Zgodnie.
…katalogu…
I już widać, że on coś zaczyna działać.
On sobie przeczytał…
Tu, na dole tak jeszcze w ogóle, mamy bardzo fajną rzecz.
Bo mamy informacje na temat tego, ile tokenów w danej sesji zostało zużytych.
Przy czym tu nie ma OpenAI na razie, nie daje nam limitu jakby na te tokeny,
za specjalnie. Tam jest informacja, że w czacie GPT+, możemy wysłać
od 30 do 150 bodaj wiadomości co 5 godzin i potem te efekty, potem to jest resetowane.
Więc i ponoć jest jeszcze jakiś limit tygodniowy, natomiast no ja tego jeszcze nie przekroczyłem
i mam nadzieję, że tego nie przekroczę. Ale warto, i to jest bardzo ważna kwestia,
warto sprawdzać ile nam jeszcze tego okna kontekstowego zostało.
Ile procent nam zostało tego okna kontekstowego.
Bo jak się zaczniemy zbliżać już do zera, to mogą się zacząć działać dziwne rzeczy i może po prostu przestać to efektywnie działać.
No dobrze, wróćmy do naszej konsoli.
O właśnie. I co my tu mamy? Teraz przechodzę sobie siódemką i dziewiątką i tu już mam opis.
Tak, jakiś tam opis.
No, daj znać, którą nazwę zaakceptować lub zaproponować, lub zaproponuj własną.
Jeżeli byłoby więcej, to tak naprawdę, to tak naprawdę można mu tu wpisać cokolwiek, można wpisać na przykład, żeby zawsze pierwszą nazwę, na przykład, więc wpisuję tutaj jedynkę.
Właśnie, tu jeszcze on powinien mnie zapytać o ten katalog.
Więc on pewnie mi to przeniesie do zrobione, bo nie podałem mu tu informacji, gdzie ma przenieść.
Tu tworzy ten mapping, czyli plik CSV z tym, żeby mu było potem łatwo, jeżeli na przykład będzie miał dużo tych obrazków, to żeby łatwo mu je było przenosić.
O właśnie! Zapytał jednak, do jakiego katalogu mam przenieść obraz i opis.
To ja mu wpiszę na przykład…
Pracę.
I czekamy.
I tu też jest ważna rzecz. On od razu pokazuje,
Na przykład jeżeli my będziemy chcieli wykonywać jakieś komendy systemowe, jeżeli będziemy chcieli zrobić coś poza naszym katalogiem, on będzie bardzo często nas pytał, czy my w ogóle zezwalamy na to, żeby taką komendę wykonać.
To się nie ma czego bać, że on nagle zacznie hulać po naszym komputerze i nam zrobi jakąś krzywdę.
Nie. On poza ten katalog absolutnie nie wyjdzie, chyba, że my mu o tym powiemy.
Że ma to robić, że my wyrażamy na to zgodę i tego bardzo tutaj OpenAI pilnuje.
Żeby… Aż, moim zdaniem, aż za bardzo, ale dobrze, niech lepiej to działa bezpiecznie,
niż potem ktoś ma narzekać, że czat GPT-u coś popsuł.
To rzeczywiście, ja sobie po prostu w prompcie na przykład napisałem, że ma wysyłać do internetu,
bo domyślnie to on nawet do internetu się nie połączy.
Jeżeli ja mu nie napiszę, że ma to robić, że ja nie mam nic przeciwko temu, że ja wyrażam absolutnie na to zgodę.
To też dlatego, no, że jednak to jest przede wszystkim narzędzie dla programistów.
Oni pracują z kodem. Ten kod nie zawsze chcą, żeby opuszczał ich repozytoria, ich dyski twarde,
Bo różne umowy ich wiążą, także no, to też jest takie dodatkowe zabezpieczenie.
No i co my tu mamy?
I okej, jeśli chcesz dodatkowe działania dać znać, mógłbym dalej z nim pracować,
ja nie chcę już z nim więcej pracować, to teraz sobie robię CTRL-C.
I tu mamy jeszcze takie podsumowanie, co tam się działo, jak to wyglądało, ile tych tokenów zostało zużytych.
Wychodzę sobie z WSL-a.
I teraz przechodzę sobie do katalogu prace.
I w katalogu prace mam…
ramkadrzewozmuchu.txt i…
I teraz naciskam sobie F4, żeby w Total Commanderze otworzyć ten plik.
I to jest cały opis. No, wiadomo, jeżeli na przykład chciałbym jakieś inne rzeczy dotyczące opisu tych zdjęć, to mógłbym sobie jeszcze dopieścić ten prompt i gdzieś tam powiedzmy to wszystko sobie poopisywać tak, jak byłoby to zgodne z moimi preferencjami.
Mi taki opis wystarcza. I teraz ktoś może powiedzieć, kurcze, długo to trwało, ja to zbijmy jajcem, to bym sobie zrobił zdecydowanie szybciej.
Okej. Szanuję. Tylko jeżeli mamy w katalogu jedno zdjęcie, to w ogóle nie ma o czym mówić.
Ale jeżeli w katalogu mamy na przykład kilkadziesiąt zdjęć, a już sprawdzałem to na takich zbiorach i on się nawet nie zgrzał zbytnio,
No, tam chyba z 30 czy 40 zdjęć to poszło bez problemu.
I przepuściłem to przez, właśnie przez, przez ten sam prompt.
I dostałem zdjęcie.jpg
i ten właśnie, tak odpowiednio nazwane.
I obok tego, przy każdym pliku, opis.txt.
Dodatkowo jeszcze z informacjami, co jest na tym zdjęciu.
Wczoraj na przykład musiałem wysłać kilka zdjęć
z mailem i dzięki temu byłem w stanie sobie po prostu wrzucić to do odpowiedniego katalogu,
sprawdzić, czy to są aby na pewno te zdjęcia, które chcę wysłać.
No i oczywiście mogłem wiedzieć, wiedząc co tam jest na tych zdjęciach.
No oczywiście wiadomo, to zawsze chat GPT może halucynować.
Tu chociażby przykład, który Tomek dziś podał.
No to wiadomo, że różne rzeczy dziać się mogą.
Natomiast, no, moim zdaniem to jest taki życiowy przykład, który pokazuje, że jest to narzędzie niekoniecznie tylko dla programistów,
czy dla tych, którzy w ogóle chcą tworzyć jakieś skrypty, jakiś kod.
Bo oczywiście, jeżeli chodzi o to, jeżeli chodzi o tworzenie kodu, to w tym momencie to zmienia się z mojej perspektywy wszystko.
Do tej pory to albo trzeba było kopiować kawałki kodu, które chatGPT podawał, zamieniać na przykład w jakichś funkcjach,
Jeżeli coś nie działało, albo na przykład czekać aż on wygeneruje ten kod i pobierać te pliki, zapisywać na dysku, zamieniać, albo jakoś tam pamiętać o wersjonowaniu.
Ja tutaj, korzystając z tego narzędzia, mogę mu kazać podłączyć się do mojego konta na GitHubie, stworzyć repozytorium i pamiętać o wypychaniu zmian, które on stworzy.
Jeżeli coś pójdzie nie tak, w jakąś złą stronę, ja mu mogę kazać to cofnąć, nie znając w ogóle poleceń gita, bo nie znam tych poleceń, a przynajmniej nie znam ich na tyle, żebym był w stanie się biegle gitem posługiwać, bo nie jestem programistą, a te wszystkie kody, które gdzieś tam tworzę, no to właśnie z pomocą takich narzędzi, bo na moje potrzeby jest to w zupełności wystarczające.
Więc tu rzeczywiście przyspiesza to pracę i daje też tam naprawdę duże możliwości.
To, że możemy sobie to zainstalować na każdym serwerze, bo możemy.
To głównie właśnie na serwerach też może sobie działać.
Czy na Linuxach tak naprawdę, na Linuxie, na Macu.
Odpalamy sobie to po prostu, łączymy z naszym kontem OpenAI
i możemy na przykład zlecać jakieś zadania administracyjne.
Chcemy, żeby skonfigurował nam… O właśnie, prosty przykład z dziś.
WSL domyślnie nie pozwala łączyć się z tą maszyną wirtualną za pomocą programu PuTTY.
A tu ten kodeks, w momencie kiedy mamy już dość dużo tej treści,
to w wierszu poleceń zaczął mi po jakimś czasie po prostu zamulać.
Zaczynało to już być dla niego chyba za dużo, no dla NVIDIA przede wszystkim.
Zaczynało być to za dużo treści, więc ja sobie chciałem to porównać, jak będzie mi się pracowało z programem PuTTY.
Więc, no, potrzebowałem jakiegoś dodatkowego portu.
Tak, to musiałbym szukać, jak to zrobić, jak przekierować port z WSL-a na Windows-a.
No, a tu napisałem.
Proszę cię, wypuść mi port, postaw mi SSH na dodatkowym porcie.
…innym niż 22, bo na maszynie z Windowsem mam już też serwer SSH na tym porcie, więc przekieruj mi jakiś inny port i pamiętaj o tym, że ten pierwszy port, którym łączy się WSL z wierszem poleceń, też ma działać.
Hasło administratora, no tego nie powinienem robić w ten sposób, ale to jest moja wirtualna maszyna, więc byłem w pełni świadom ryzyka, jest takie i takie, działaj.
Działał. Po dwóch minutach miałem skonfigurowane to, co chciałem.
Sprawdziłem i działa.
Więc to jest naprawdę bardzo fajna rzecz, jeżeli przekonuje Was właśnie taka praca na plikach,
na plikach na dysku Waszego komputera, czy jakaś pomoc w tworzeniu kodu,
albo po prostu w rozwiązywaniu różnych problemów, jakie macie.
Oczywiście, zaznaczam, warto zachować ostrożność i naprawdę myśleć, co się robi.
To myślę, że kodeks będzie narzędziem, z którego będziecie korzystać z przyjemnością.
Ja bardzo, bardzo polecam.
A teraz odbierzmy może telefon, o ile ktoś jeszcze z nami jest.
Dobry wieczór.
Cześć, dobry wieczór, Kasia z tej strony.
Cześć, Kasiu.
Gratuluję przesadznej audycji.
A dziękujemy bardzo.
Nagrywając się, jak gdzieś to umknęło.
Natomiast nie wracam na ziemię z tych tematów sztuczno-inteligentnych.
Chciałabym jeszcze na chwilkę wrócić do tematu pisania Braille’em,
bo Tomku wspomniałeś, że ty na androidzie też Braille’em piszesz.
Ja robiłam kiedyś, już bardzo dawno temu,
jakieś tam dłuższe podejście do tego tematu i było nieudane.
Natomiast bardzo mnie ostatnio denerwuje
słaba responsywność kredytowej Google i to, że muszę dyktować.
Generalnie jest tak, że zauważam to, że w braillu piszę się szybciej.
Natomiast mój problem polega na tym,
że pomimo tego, że stosuje się do tych instrukcji,
o których mówi Tokbek przy włączeniu klawiatury Braina,
czyli tam połóż telefon na kolanach czy na stole,
tak żeby tam z lewej strony było wejście USB-C i tak dalej,
to niezależnie od tego, ile razy ja bym konfigurowała
sobie te punkty przez przytrzymanie,
Motorycznie zdarza mi się tak, że wpisuję się nie do litery, które chcę wpisać.
Np. zamiast K wpisuję się B, albo wpisuję się H i chcę napisać A.
Mam napisać halo, a zamiast A wpisuję się cudzysłów.
Jakieś tego typu rzeczy, konsekwencją czego nie jestem w stanie się sprawnie tym posługiwać,
Ja to piszę co prawda szybciej, ale poprawianie tego, nie wiem,
jeżeli ja ten codyzum jest trzy razy usłyszę, w konsekwencji tak jest wolniej.
Więc pytanie jest, co robić źle, jak się zabrać do tego logicznie.
Ja zazwyczaj ustawiam sobie telefon w taki sposób, jak na nim będę później pisał.
Czyli jeżeli chciałbym pisać na nim, kładąc go na stole,
to rzeczywiście mogę go kłaść na stole, ale jeżeli na przykład ja najczęściej piszę na telefonie w taki sposób, że trzymam ten telefon
między jakby, między kiściami dłoni powiedzmy, czy środkiem dłoni tymi krótszymi, za te krótsze boki, palce mi sobie no niejako wiszą w pewnym sensie nad telefonem
I w takiej pozycji, jeżeli ja tak będę pisał…
Czukam i podpierasz telefon?
Tak, w takiej pozycji też dotykam tych punktów.
I wtedy dotykam to mniej więcej w takiej samej pozycji, jak potem będę na tym pisał.
Problem polega na tym, że nie jesteś pierwszą osobą, której to tłumaczę.
I nie tylko ja.
I niektórym z jakiegoś powodu to jakoś nie bardzo chce mimo wszystko zadziałać.
Nie wiem, co no właśnie robi się źle czasami.
No właśnie…
To właśnie moje też nie wiem właśnie, bo pisząc…
Jeżeli podłączam notatnik i mam przed sobą fizyczne klawisze,
to tego problemu nie mam. Normalnie się piszę, natomiast…
Nie wiem, czy to chodzi o to, żeby konkretnymi palcami tych punktów,
że właśnie, nie wiem, piąty to jest zawsze środkowy,
że to na tym się trzeba skupić, czy po prostu na tym sprawniejszy telefon, czy nie?
On się pamięta, ale to nie do moich palców.
Więc w początkowym, no właśnie wtedy, kiedy kalibrujesz te punkty,
to dotyka, że w tym miejscu chcesz, żeby był punkt pierwszy,
a w tym miejscu chcesz, żeby był drugi, w tym trzeci itd.
I jeżeli to ustawisz już w takiej pozycji, jak będziesz pisać,
no to teoretycznie za każdym razem pewnie będziesz miała te palce dość podobnie.
A jeżeli ty w zupełnie innej pozycji ustawiasz te punkty,
a potem bierzesz ten telefon w ręce i piszesz inaczej,
to jest duża szansa, że te punkty masz jednak trochę inaczej ustawione
niż na czteropalce, niż ustawiałaś sobie punkty.
Ja się staram je zawsze tak kalibrować jak sześciopunkty.
Zawsze staram się sobie wyobrazić, że mam je tak maszyny
i jak one by były, gdyby ta maszyna była.
Natomiast trzeba by je sobie rozstawić.
Najlepiej po prostu ustaw sobie telefon, jak chcesz na nim pisać,
już podczas kalibracji.
Mówią, dotknij punktu pierwszego, czy jaki tam jest komunikat, dotykasz.
Jakby w takim ustawieniu, jak już byś pisała.
Okej.
Właściwie wszystko, jeżeli już tutaj jestem,
to się jeszcze króciutko podzielę takim doświadczeniem
właśnie negatywnym moim à propos sztucznej inteligencji,
ponieważ oglądając ważną audycję,
wyłapałam…
Chodziło mi o to, że było pytanie, co jest w rytm na monecie,
dwueurowej monecie w Finlandii.
I oglądałam audycję po niemiecku, więc usłyszałam słowo,
którego nie zrozumiałam, które było dla mnie obce na tyle,
że zastanowiło mnie, co to jest za roślina tak naprawdę.
I wpisałam sobie to słowo w whatsappowego tego odmeta czata.
Bo zazwyczaj tak robię.
I okazało się, że gdyby nie fakt, że postanowiłam później sprawdzić sobie,
bo generalnie wybrał mi wynik, z którego byłam ogólnie zadowolona,
ale to męczyło mnie, jak się to słowo pisze, skoro już je poznałam.
I zaczęłam na ten temat googlować.
I googlując, doszłam do tego, że chodziło o zupełnie inną roślinę.
Jakby to totalnie dwa zbieżne rzeczy.
Tak i tutaj jeszcze, bo dość często mówicie pozytywnie o tej sztucznej inteligencji.
I też nie bez przyczyny, bo na pewno jest mnóstwo rzeczy, w których ona może pomóc.
Ale no naprawdę, gdyby nie fakt, że ten WhatsAppowy czat mi tego nie… jakoś tak mi to wypluł, że nie mogłam się po znakach po tym ponawigować
i to mnie skłoniło, żeby spooklować jak to się pisze, to w ogóle bym o tym nie czytała i przyswoiłabym sobie informację zupełnie niefraktiwą.
To ja już od razu powiem, że sztuczna inteligencja do sprawdzania takich różnych informacji, jeżeli chodzi o wiedzę,
to dla mnie osobiście jest akceptowalna tylko… Nie, nie, nie. Jest akceptowalna tylko wtedy, jeżeli podaje źródło.
A meta nie podaje źródeł. Bo meta nie ma dostępu do internetu.
Ten model, z tego co wiem i z tego co kojarzę.
Bo ja go testowałem i ja go…
Ale nie można powiedzieć, że Whatsapp ma postawę na internet.
Ale model, ale model.
Nie, nie, nie, bo co innego Whatsapp, a co innego model.
Dokładnie.
I generalnie rzecz biorąc, ja tak szczerze mówiąc,
no bardzo w ogóle przestrzegam przed traktowaniem
każdej sztucznej inteligencji, takiej generatywnej do tekstów,
czyli te wszystkich czatów GPT, Gemina i tak dalej, do wyszukiwania informacji.
Bo te nawet teoretycznie, jeżeli nawet podaje źródło, to i tak warto z tym źródłem się zapomnieć.
No właśnie, no właśnie po to ja zawsze od niego chcę tego źródła.
Bo może zdarzyć się tak, że on poda link, którego na przykład nie ma.
Więc sprawdzanie informacji w takich czatach GPT jest chyba jeszcze gorsze
Czemu nie sprawdzanie w wikipedii?
Przynajmniej ja mam takie doświadczenia, że naprawdę lepiej jest sprawdzić w ogóle.
Bardzo często mi się zdarza, że właśnie tym czatem od medy
sprawdzam sobie, na przykład jeżeli mam się udać jakąś stację metra,
to sprawdzam sobie, którym wyjściem mam się wydostać, żeby dotrzeć do tej i tej ulicy.
I to w bardzo dużym stopniu było okej.
Poza tym, to jest pracownia intuicyjna.
To jest generator tekstu.
To jest maszynka, która w dużym skrócie zgaduje, jakie słowo czy jaka nawet sylaba będzie po niej najbardziej prawdopodobna.
To jest coś do dokończenia tekstu, więc on nie ma, nie wiem, koncepcji filozoficznych, on nie ma świadomości, on nie ma niczego.
To jest maszynka do wymyślania słów.
To ja od razu powiem. Ostatnio w tym podcaście radionaukowe była taka dosyć ciekawa rozmowa.
Była.
A propos sztucznej inteligencji i a propos tego, jak to działa, co może, kiedy i czy w ogóle uda nam się sklonować ludzki mózg i że na razie mamy problem z jakimś robaczkiem, który ma chyba trzysta neuronów czy tam trzysta dwadzieścia.
Trzysta dwa chyba.
Tak, my mamy w mózgu miliardy neuronów, więc no skala jest nieprawdopodobnie większa, a na razie to nie udało się naukowcom sklonować nawet tego mózgu, tego małego robaka.
Nawet nie sklonować, tylko zasymulować jakby w komputerze.
Tak, tak, tak, zasymulować, dokładnie, dokładnie.
Więc no tutaj to, że się…
Ja, wbrew pozorom właśnie, ja takie materiały to szczególnie polecam sceptykom,
bo ja ostatnio mam takie wrażenie, że jest też z kolei taka moda
takiego bezrefleksyjnego hejtu na tę sztuczną inteligencję,
bo ona ma oczywiście swoje za uszami i to ma bardzo dużo, z różnych przyczyn.
Natomiast taki bezrefleksyjny hejt, że to, co myśmy stworzyli,
że to zaraz, nie wiem, zabierze wszystkim pracę, albo na przykład, nie wiem,
przejmie nad nami kontrolę, to jest bzdura. To jest bzdura.
Bo po prostu to absolutnie nie jest do tego zdolne, to nie ma świadomości,
to jest narzędzie. A każdym narzędziem, w większym lub mniejszym stopniu,
To prawda. Mimo tego, że on może nawet teoretycznie jakby udawać, że ją ma, ale te wszystkie jej ewentualne jakieś uczucia, czy nawet cele, to tak naprawdę my wymyślamy, bo nie jesteśmy przyzwyczajeni do tego typu narzędzi, które wcześniej były.
A to narzędzie, teoretycznie, w jakimś sensie udaje, że ma jakąkolwiek wiedzę.
Ono nie ma żadnej wiedzy, tak naprawdę.
Udanie to jest to podstawne, bo to naprawdę…
To była, jeśli chcę tutaj językowe kwestie wkładać, bo to nie o tym audycja,
ale to była naprawdę zupełnie, totalnie fachowa odpowiedź.
Ale oczywiście, że tak.
Ja bym w nią totalnie użyła, bo ja nie chciałabym…
o bananach w pralce, na przykład, czy coś, nieważne.
Jakby jemu wszystko jedno, bo to jest algorytm do wymyślania słów.
Znaczy, do sprawdzania i do, no właśnie, do sprawdzania, co tam najbardziej prawdopodobnego mogłoby być.
Tylko tyle, jak się okazuje, aż tyle.
Ja powiem tak, na przykład dzięki AI właśnie, dzięki tym modelom językowym,
Mamy o wiele łatwiejszy próg wejścia w różne takie dziedziny i zagadnienia, w których nie jesteśmy ekspertami.
Bo jak jesteśmy w czymś ekspertami, jak się w czymś specjalizujemy, to też tą inteligencję dość łatwo zagniemy.
Ale jeżeli potrzebne są nam jakieś informacje, jakieś takie ogólne, które nawet mogą być, to wiesz, zależy do czego jest ci to potrzebne.
Bo jeżeli na przykład jest Ci to potrzebne po prostu, żeby jakieś pewne rzeczy, no, podjąć decyzje jakieś konkretne,
to już wiadomo, że trzeba potem odrobić zadanie domowe i poczytać na ten temat i w konkretnych rzeczach.
Ale jeżeli chcesz się dowiedzieć tak po prostu pewnych kwestii bardzo ogólnie, to moim zdaniem to daje to bardzo dużo.
Bo w tym momencie nawet jeżeli coś tam co do szczegółów nie będzie się zgadzało,
No zarys tak, zarys tak.
No dobra.
To się jakoś do jakiegoś dobra przyczyniło, bo otrzymałam bardzo fajną apkę do tłumaczeń na Androida.
Apka się nazywa, tylko teraz już nie wiem, czy Context Reversed, czyli Reversed Context, ale nie mogę tego sprawdzić teraz.
I muszę poczekać, aż mi się skończy okres testowy,
Bo nie wiem, czy ta appka ma darmowe…
W każdym razie, jak dłużej ją potestuję, to może o niej opowiem coś.
Natomiast tak na razie tylko coś dobrego z tego wyszło.
Nie zajmuję więcej czasu.
I ja naprawdę, i ja bym, Kasiu, proponował Ci, przetestuj sobie inne modele,
chociażby tego czata GPT czy Perplex City, czy coś po prostu, co jednak jest w stanie
potwierdzać te pewne rzeczy tak, wiesz, źródłami w sieci, bo meta, ja to testowałem,
ja, no wysłałem do tego parę wiadomości i już widzę, że ja tego na przykład
bym nie używał do niczego poza właśnie jakimś generowaniem tekstu.
To się nadaje, moim zdaniem, ten model od Mety, żeby wygenerować komuś, kogo rok nie widzieliśmy, ale mamy taki nawyk, że wszystkim wysyłamy życzenia na urodziny, to życzenia na urodziny. I do niczego specjalnie więcej.
Do miłego dalszego, do zobaczenia.
Dzięki za telefon, do usłyszenia.
Mamy jeszcze wiadomość od Sylwestra, która…
No zresztą…
Jeszcze ty sami obśmiewacie tą sztuczną inteligencję.
Najpierw wychwalacie, a teraz obśmiewacie.
Ja nie wiem, w którą stronę idziecie.
I tu jest…
Ja nie wiem w takim razie co powiedzieć, dlatego że
ani my tego nie obśmiewamy, ani nie wychwalamy podniebiosa.
Przynajmniej tak mi się wydaje.
Po prostu jest to jedno narzędzie konkretne, jak każde inne.
I jak każde inne narzędzie ma to swoje zastosowania, w których jest dobre,
ma to swoje zastosowania, w których jest złe.
I tak samo jak młotek nadaje się do wbijania gwoździ,
ale niekoniecznie do przecinania desek,
tak samo sztuczna inteligencja,
Taka generatywna, sztuczna inteligencja tworząca teksty
nadaje się do pewnych rzeczy.
Na przykład do tego, żeby poprawić tekst.
Do tego, żeby napisać jakiś program.
Nie każdy, co prawda, ale do takich często rzeczy,
które jesteśmy błyskawicznie w stanie zweryfikować.
To znaczy, no właśnie mamy szereg jakichś, nie wiem, no właśnie kwestia z napisem jakiegoś skryptu, który ma nam działać.
I teraz odpalam ten skrypt i albo mi działa, jest okej, albo mi nie działa. Ja się tego błyskawicznie dowiem.
Jak nie działa, to trzeba poprawić po prostu.
Jeżeli ja znowu napiszę brudnopis maila, mail ma być delikatny w treści, bo na przykład to ma być kwestia jakiegoś wymówienia albo jakieś pismo do jakiegoś urzędu, które musi być po prostu napisane ładnie.
I jeżeli czat to napisze ładnie, no to ja już widzę, że to jest napisane ładnie lub nie.
My mu podamy temu czatowi w prompcie, w tym zapytaniu,
konkretne informacje, jakich ma użyć, więc on tam raczej nie zmyśli.
Tak. I będziemy w stanie to zweryfikować.
Natomiast do wiedzy, której nie jesteśmy w stanie zweryfikować tak natychmiast,
chociażby właśnie opisy zdjęć, to trzeba na to uważać.
I to mówiliśmy już od wielu, wielu, wielu audycji.
I naprawdę jeszcze raz chciałbym bardzo przestrzec przed używaniem tego czata
w zamian, jako zamiennika wyszukiwarki Google.
Bo to często, znaczy często, to zdarza się, że nie działa.
Ale są takie dziedziny, w których ten czat jak najbardziej pomoże.
No to są właśnie różne kwestie.
Najlepiej, żeby było coś takiego,
z czego będziemy mogli natychmiast zweryfikować,
czy to dobrze zrobił.
Mam znajomych, którym pomaga ten czas
przy tworzeniu jakichś opowiadań, nawet poezji,
bo on jest w stanie, nie wiem, poszukać jakichś rymów,
znaleźć coś, tylko że on też sam nie napisze dobrego wiersza,
przynajmniej po polsku, ale jest w stanie pomóc ludziom, którzy piszą te wiersze i powiedzmy
no nie mają aż tak dobrego warsztatu, żeby je pisać samemu. I wtedy rzeczywiście czat może pomóc.
Może pomóc również właśnie w innych kwestiach, no tylko właśnie nie we wszystkich.
Trzeba bardzo dobrze wiedzieć, w czym czat może pomóc, a w czym czat nie może pomóc.
Ja na przykład, jeżeli chodzi o tę wyszukiwarkę, to ja mam takie bardzo mieszane doświadczenia. Ostatnio mam takie wrażenie, że na przykład w Google jest coraz więcej śmieci, coraz więcej tego śmieciowego, tych śmieciowych treści.
Na samej górze są te treści sponsorowane i czasem, naprawdę, na pewne tematy, ja odpalam sobie czata GPT,
robię jakieś głębokie badanie, zajmuje mu to tam kilkanaście minut i dostaję raport z wynikami.
Ja sobie ten raport przeczytam, ale też klikam w te linki, które tam są.
I dzięki temu mam konkretną informację, nie musiałem tego nawet specjalnie szukać.
To się po prostu znajduje, to zwyczajnie mam. Kiedy wpiszę taką samą frazę na przykład w Google, zajmie mi wyszukanie tego zwyczajnie więcej czasu.
A czasem odwrotnie, to po prostu jest różnie. Ale warto pamiętać o tym, że teraz SEO, czyli to pozycjonowanie, też zmienia trochę reguły gry.
I coraz więcej stron pozycjonuje się właśnie na to, żeby być indeksowanymi przez boty, przez czata GPT, czy przez konkurentów tej usługi.
Bo po prostu też chodzi o to, jednym zależy na tym, żeby być w tych wynikach, innym nie, no, bo to też jest kwestia, że nie wszyscy chcą tam być indeksowani przez te czat-boty i żeby ich treści były przetwarzane.
Natomiast no, też to, to po prostu, to są pewne zmiany, które no, są, są widoczne coraz bardziej.
To prawda, no właśnie nieraz czat pomaga przeszukać jakieś ogromne zbiory tekstów, właśnie internet, ale to nie zwalnia nas przed weryfikacją tych informacji, czyli na przykład
OK, chcę znaleźć badania na temat ilości niewidomych gdzieś tam, powiedzmy w Polsce.
Przeszukiwanie internetu pod tym kątem może zająć dużo czasu.
Mogę wpisać to w czat, czat mi weźmie jakąś informację, że niewidomych jest tylu.
No dobrze, ale skąd to znalazł? I teraz zamiast szukać po kolei po każdej stronie jaką znalazłem w Google,
Mogę rzeczywiście odwoływać się do tych konkretnych źródeł,
które znalazł mi czat GBT.
Jest szansa, że w tych źródełch będą podane inne informacje,
ale jest szansa, że przynajmniej te źródła będą się odwoływać
do tych informacji, których poszukujemy.
I jest szansa, że pewne rzeczy znajdziemy szybciej.
Mi czat właśnie pisze jakieś skrypty proste, jakieś programiki proste,
których bez czata bym sam nie napisał.
Natomiast ja przynajmniej unikam jako ognia używania
chata jako zamiennika do Google’a, bo nie do tego on powstał.
Choć niestety coraz częściej jest marketing również
ze strony tych film, które tworzą na chaty, że on właśnie po to ma być
i trochę do tego ma służyć, ale to jest moim zdaniem wprowadzanie ludzi w błąd
wielki, który się może bardzo źle skończyć
Dla niektórych osób, które za bardzo zawierzyły TV.
Zwłaszcza jeżeli nie będziemy tego weryfikować.
Albo jeżeli będziemy właśnie tak robić…
Tu Kasia bardzo dobry przykład podała.
Bo czat tak powiedział.
Czat udzieli nam odpowiedzi absolutnie na każde pytanie.
Ale ta odpowiedź nie zawsze będzie prawdziwa.
Dokładnie. No i tyle po prostu.
Więc to jest, jak mówiłem, narzędnie, które w pewnych przypadkach
absolutną rewolucją, w innych przypadkach nie sprawdza się kompletnie.
I najważniejsze dzisiaj chyba, jeżeli chcemy korzystać ze sztucznej inteligencji
tego rodzaju, jest taka wiedza, kiedy z niej korzystać,
kiedy z niej nie korzystać, kiedy i w jaki sposób sprawdzać
te informacje, które nam podała. I to jest absolutnie najważniejsze
moim zdaniem, przy korzystaniu z tego typu narzędzi.
I wtedy ona może oddać przeogromne usługi, ale tylko wtedy.
Dobrze, to co, przejdźmy sobie do kolejnego tematu, tu widzę wiadomość, ale za
chwilkę ją jeszcze odtworzymy.
Co my tu jeszcze mamy?
To może iOS 26, który został wydany już nie jako beta, tylko…
Nie, nie tylko, bo te wszystkie systemy zostały wydane, nawet te wszystkie w wersji 26.
Przynajmniej już to trochę ułatwiło pisanie nagłówków, bo zawsze był z tym problem.
No na szczęście teraz wszystkie systemy, po prostu systemy Apple mają numerek 26
i w poniedziałek, tak jak to było zapowiedziane, tak się stało, te systemy się pojawiły.
O tym, co nowego w tych systemach jest, nie będę już mówił szczegółowo,
dlatego że mówiliśmy o tym przez prawie 8 godzin chyba.
Coś koło tego.
Odsyłam na stronę.
Są dwie audycje nawet poświęcone tym systemom.
Jedna całkowicie poświęcona iOS-owi,
a druga omawiająca pozostałe systemy,
czyli Maca, Watcha i TV i jeszcze iPada.
Więc ja tutaj skupię się na tym, o czym jeszcze nie mówiliśmy,
Dlatego, że tradycyjnie, kiedy te systemy się pojawiły,
to na łamach portalu AppleWiz pojawiła się lista błędów,
które zostały odkryte przez ludzi, którzy na tym portalu piszą,
ale też po raz pierwszy przez użytkowników.
Bo w tym roku, tak jak Maciek wspominał jakiś czas temu,
AppleWiz miało swój program na zgłaszanie błędów.
On polegał na tym, że musieliśmy najpierw jakiś błąd zgłosić do Apple’a.
To oczywiście dotyczyło beta testerów.
Ale też mogliśmy przy okazji podać nasz raport do AppleWiz
i oni też to u siebie też weryfikowali, też to zgłaszali do Apple’a.
No i ewentualnie jakieś błędy, które zostały w ten sposób zgłoszone,
nie zostały naprawione, no to po prostu na tej liście się znajdą.
I tutaj lista podziękowań, kto takie rzeczy zgłaszał, jest całkiem długa.
Więc ludzie faktycznie się przyczynili, żeby te listy były wmiany dokładnie.
Aczkolwiek mimo wszystko znalazły się tutaj rzeczy,
które np. my odkryliśmy z Arkiem, których tutaj nie ma
i też o nich tutaj wspomnę.
Ale, jak to zwykle bywa, są te błędy podzielone na trzy kategorie.
Poważne, tak najbardziej poważne,
średniego, w średniej krytyczności, tak to nazwijmy,
i błędy drobne.
Jeśli chodzi o iOS, bo pójdziemy sobie w takiej kolejności,
to krytyczny błąd jest jeden.
I to jest błąd, który w sumie nawet nas nie dotyczy,
Po prostu to dla osób, które chcą korzystać z dostępu brajnowskiego,
a konkretnie z funkcji napisy na żywo, która po polsku na razie nie działa,
nie wspiera wyświetlania napisów ani z połączeń telefonicznych,
ani z połączeń FaceTime.
Faktycznie, jeśli ma z tego korzystać osoba głuchoniewidoma,
to jest krytyczny punkt, zgodzę się z tym.
Więc jeśli ktoś na to czekał w językach, które są wspierane,
no to niestety przez FaceTime’a albo przez telefon sobie
z tą funkcją nie porozmawiamy.
Może tylko działać albo z mikrofonu urządzenia,
albo z dźwięku z dowolnych innych aplikacji.
To jest jedyny poważny błąd, przynajmniej według Apple Visa.
A jeśli chodzi o takie średnio poważne,
takie moderate, czyli średniej krytyczności błędy.
Znów tutaj mamy nawiązanie do Braila,
Podczas wprowadzenia klawiaturą typu Perkins, czyli tutaj chodzi o klawiatury na monitorach brailowskich, wpisywane znaki są czasami głupione.
Najczęściej zauważyli to w aplikacji Poczta.
Jak można problem obejść? No na przykład właśnie korzystając z dostępu brailowskiego, bo on ma swój własny schowek.
Możemy sobie wejść do tych notatek brajlowskich i tam coś napisać,
a potem możemy ten tekst zaznaczyć, skopiować do schowka systemowego,
bo tak mamy do schowka dostęp, my tego nie pokazaliśmy wtedy w audycji,
ale można w obie strony tekst skopiować
i on wtedy będzie przetłumaczony odpowiednio
przez odpowiednią tablicę brajlowską, jaką mamy wybraną.
No i po prostu możemy sobie taką dłuższą wiadomość skomponować,
napisać i ją zaznaczyć, wyciąć i wkleić później do pola edycji,
No i wtedy będziemy mieli pewność, że żaden znak nie zostanie zgubiony.
Kolejny problem, i to mogę potwierdzić.
W WhatsAppie, jeśli voiceover jest włączony,
menu akcji na wiadomości, czyli to jest to menu,
do którego możemy dostać się, używając czynności Zareaguj,
po prostu znika po kilku sekundach.
I to jest błąd, który ja faktycznie mogę potwierdzić.
Na początku ludzie myśleli, że to jest błąd,
który generalnie pojawił się w samym WhatsAppie,
bo niedawno mieliśmy problem ze znikającymi przyciskami
do wysłania wiadomości głosowych.
Natomiast po dłuższych testach okazało się,
że na iOS-ie 18 ten problem nie występuje.
Tak że jeśli często reagujecie na wiadomości na WhatsAppie,
to niestety na ten moment to się na iOS-ie 26 popsuło.
Więc tutaj faktycznie warto na to zwrócić uwagę.
Tutaj ktoś w komentarzach żartował, że czuje się jak swój tato,
który musi na wszystko odpisywać OK, zamiast jakąś amortyfikację wysyłać.
Mi się też zdarza gdzieś zareagować i miejmy nadzieję, że to zostanie naprawione.
Nie wiem, czy to będzie po stronie Apple czy po stronie Mety,
bo pewnie w obu stronach ten problem został zgłoszony
i myślę, że warto go zgłaszać, natomiast faktycznie na ten moment
mogę potwierdzić, że z tym jest problem.
Teraz idziemy dalej.
Jeśli ustawimy się na jakimś odcinku na stronie głównej aplikacji TV,
czyli tutaj chodzi o Apple TV,
strugnięcie dwukrotne na taki odcinek spowoduje otwarcie menu kontekstowego
zamiast rozpoczęcia odtwarzania.
Jak to obejść?
Musimy z tego menu wybrać opcję przejść do odcinka
i tam znajdziemy na główek, gdzie oglądać właściwie.
I tam musimy kliknąć na Apple TV i wtedy odtwarzanie się rozpocznie.
Drobny błąd, ale trochę spowalnia przejście do interesującego nas serialu.
Jeśli oglądacie coś na Apple TV, to coś takiego może mieć miejsce.
W aplikacji gry przyciski w sekcji kontroluj grę są niezatekietowane.
Też to możemy potwierdzić, pokazywaliśmy w audycji.
W tej aplikacji jest trochę źle zatekietowanych przycisków.
A propos takich rzeczy, coś czego nie ma w tym raporcie,
a na co też zwróciliśmy uwagę, to jest wydaje mi się jeszcze bardziej krytyczny błąd,
to niezaetykietowane przyciski w aplikacji skróty.
Tam też koło każdej akcji w skrócie jest trochę,
przynajmniej jeden niezaetykietowany przycisk,
więc tam niestety się trochę w skrótach dostępnościowo popsuło,
a tutaj w ogóle o tym słowa nie ma.
Czasami usunięte własne etykiety z voice-overa po prostu wracają.
Więc właśnie, w iOSie 26 dotarła dana opcja,
żeby te etykiety usuwać z ustawień szczegółowości.
Natomiast czasami one, bo one się gdzieś synchronizują przez iCloud,
czasami system je z powrotem pobiera.
Kiedyś podobny problem był z własnymi grupami wymowy interpunkcji.
I tutaj z etykietami też coś takiego ma miejsce,
więc jeśli źle coś zatygietowaliśmy, usuwamy to,
no to system czasami może nam, nie wiadomo z jakiego powodu, to pobrać z powrotem.
I niestety nie ma na to obejścia.
I problem, który tutaj już była zwrócona uwaga,
mianowicie, że voiceover nie zawsze czyta
na informacje o powiadomieniach na ekranie blokady, kiedy budzimy urządzenie.
To nie zawsze ma miejsce, czasami wystarczy ekran zablokować i ulubokować jeszcze raz i to wtedy zaczyna działać.
No tutaj właśnie też AppleWiz pisze, że to się czasami pojawia w losowych momentach.
Czasem, też na urządzeniach niektórych osóbaczkowych, to nawet nie jest nowy błąd w iOSie 26,
jeśli mamy złowojsowa rozkonfigurowanego tak, żeby nam powiadomienie czytał.
Kiedy ekran się zablokuje, to to czytanie jest czasami przerywane, ale nie zawsze i nie u wszystkich.
W ogóle dużo takich błędów niestety jest.
No więc faktycznie tam coś czasami z tym fokusem na liście powiadomień jest,
ale też osoby słabowidzące zwracały uwagę,
że wizualnie tam też czasami dziwne rzeczy się dzieją
za centrum powiadomień.
Nie zawsze chce się otworzyć prawidłowo
i tam też nie zawsze wszystko się wyświetla,
więc to może być po prostu z jakimiś błędami z interfejsem też powiązane niestety.
Po niektórych kwestiach ten wygląd iOS 26 jeszcze wymaga w niektórych miejscach dopracowania.
I drobne błędy.
Możemy wysypać dostęp brakowski, jeśli wywołamy polecenie przenieść do folderu, a nie utworzyliśmy żadnych folderów.
Kiedy mamy włączone zwagodzenie dźwięku w VoiceOverze, to nie działają dźwięki klawiatury.
I to też faktycznie wiele osób zwróciło na to uwagę,
więc jeśli dziwicie się, czemu wam klawiatura nie klika podczas pisania,
to to może być powód.
Jak to obejść? Musimy wyłączyć złagodzenie dźwięku.
Jeśli korzystamy z widoku Safari, gdzie zakładki mamy na górze ekranu,
to przycisk do otwarcia zakładek jest zetykietowany jako Zakładka,
a nie Pokaż zakładki.
To też drobny błąd, ale faktycznie tak jest.
W widoku dolnym ten problem nie występuje i tam przycisk jest etykietowany prawidłowo.
Jeśli korzystamy z trybu uśpienia, ustawiliśmy sobie budzik.
Mamy założony na nadgarstek zegarek i budzik nam się włącza na zegarku.
To równolegle też nam się obudzi iPhone i voiceover nam radośnie też odczyta godzinę.
Więc jeśli nie chcemy tego, na przykład żeby nam coś za głośno telefon czegoś nie mówił,
no to przed zaśnięciem po prostu musimy wyłączyć voice-overa,
ewentualnie wyłączyć po prostu mowę.
Nie jesteśmy też w stanie ukryć kontrolek na odtwarzaczu w aplikacji TV.
Okazuje się, że jest na to sposób.
Generalnie musimy gestami lewo-prawo znaleźć kontrolkę,
która jest czytana po prostu jako wideo i w nią stuknąć dwukrotnie.
Pewnie nie da się tego znaleźć eksploracją z jakiegoś powodu.
I wtedy też te kontrolki znikną.
I podczas dodawania lub edycji głosu na pokrętle
interfejs może czasami stać się mniej responsywny.
No i to też czasami z tą responsywnością faktycznie było różnie.
Jako obejście tutaj rekomendują skorzystanie np. z pokrętła
dla ustawień, które na pokrętło dodać można.
No, także ta lista jest dosyć długa.
nie zabiera wszystkich błędów, pewnie sami też odkryjecie jakieś rzeczy,
o których nam możecie dać znać, a najważniejszą rzeczą jest to,
żeby też o nich dawać znać Apple’owi,
bo w ten sposób możemy najszybciej jakieś błędy naprawić.
Natomiast generalnie, akurat jeśli chodzi o iOS-a,
no to pomijając te bubla, jeśli chodzi np. o skróty,
czy to o aplikację gry, czy o te problemy czasami z focusem,
aczkolwiek mam wrażenie, że z tym fokusem zawsze jakoś było różnie.
No to iOS 26, jak dla mnie przynajmniej, jest w miarę stabilny.
Jest kilka ciekawych nowych funkcji, jeśli chodzi o Braille,
a zresztą znów odsyłam do audycji.
Myślę, że można spokojnie aktualizować,
no chyba, że ktoś tutaj…
No chyba, że jeszcze wolicie poczekać,
no pewnie pojawi się wersja kropka 1,
gdzie pewnie te drobne błędy będą naprawione.
Jeśli chodzi o poprawki błędów,
to mamy poprawiony obuwający fokus na ekranie przełączania programów,
gdzie czasami voiceover zamknął nie tę aplikację, którą chcieliśmy.
Teraz to zostało naprawione i mamy też poprawkę błędu
z czytaniem przecinków przez syntezator Eloquent.
To może nas aż tak nie dotyczy,
ale jeśli ktoś z Eloquenta korzysta, to słowniki użytkowników społecznościowych
zostały zaktualizowane, to też fajna zmiana.
To był iOS, ale mamy też podobną listę, jeśli chodzi o Maca.
I tutaj błędów niestety jest trochę więcej.
Jeśli chodzi o nowości, to też odsyłam do audycji, więc nie będę zatrzymywał.
Ale…
Jakie błędy zostały naprawione?
Może zacznijmy od tego, tutaj mamy trzy rzeczy wymienione.
Też mamy poprawki z eloquentem.
Okienko pogody, które możemy np. z paska menu wywołać,
może być zamknięte klawiszem ESC.
I przycisk do wybrania własnej ikonki dla aplikacji web,
które sobie możemy dodać do doka, jest w Safari zaetykietowany.
Nowe błędy. Tutaj mamy kilka nowych błędów.
Popsyła się funkcja iPhone Mirroring, której w Europie nie mamy.
Natomiast jak ktoś tego korzystał, to przestało działać,
nie możemy po interfejsie nawigować.
Czynności przepisane do stron internetowych
nie są wczytywane automatycznie,
bo można sobie w ustawieniach VoiceOvera utworzyć ustawienia,
które mają być zastosowane dla konkretnych stron internetowych.
Ale ja mam wrażenie, że to nie działało już wcześniej.
Ale faktycznie cały czas w Macie 26 to jest niestety zepsute.
Kiedy funkcja tekst checker zidentyfikuje jakieś błędy,
to można sobie wywołać sprawdzanie tekstu
prawy klawisz OPTION D domyślnie.
W momencie, kiedy voiceover powinien przeczytać tylko jedno zdanie,
jako kontekst czyta cały tekst, to też nie jest nowy błąd.
To już było wcześniej niż w 26, natomiast tutaj zostało to wspomniane.
Podczas wpisywania jakiejś frazy do paska adresu w Safari, żeby uruchomić wyszukiwanie kursor czasami zostaje na pasku adresu i musimy przestać wyjść z interakcji, ręcznie przejść do zawartości internetowej.
Ja… tego chyba nie zauważyłem zawsze.
Aczkolwiek czasami faktycznie tak jest, że musimy ręcznie znaleźć obszar
strony internetowej i wejść z nimi w interakcję.
To ma miejsce tylko podczas wyszukiwania.
Jak wpisujemy konkretny adres, to generalnie działa bardziej systemowo,
kiedy np. podejmiemy konkretny adres strony.
Podczas wpisywania równań w kalkulatorze voiceover
przed przeładaniem wyniku zawsze mówi znacznik lewo na prawo,
co chodzi o kierunek pisania.
Też wszystkie cyfry są literowane zamiast czytania pełnych liczb.
To faktycznie też mogę potwierdzić, taki problem występuje.
Podczas funkcji czytaj wszystko czasami pauzy są dłuższe niż być powinny.
To jest problem, który występuje tylko w przypadku niektórych głosów angielskich.
Z wokalizerem akurat tego nie zauważyłem.
Czyli jeśli ktoś korzysta z Ewy, Zosi albo Krzysztofa,
to generalnie powinno być OK.
Z Eloquentem zresztą też nie zauważyłem, żeby ten problem był.
Jeśli skorzystamy z funkcji na terenie pisania,
czyli integracja ze sztuczną inteligencją,
VoiceOver nie zawsze odtwarza dźwięk, kiedy przetwarzanie zdanie jest zakończone,
tylko mamy komunikat zaznaczenie zastąpione.
Ostatnio nie go używałem z tych narzędzi, więc nie mogę potwierdzić,
ale możliwe, że faktycznie tak jest.
Kiedy przeglądamy dostępne kontrolki na tym nowym ekranie edycji narzędzi
w centrum sterowania, to te kontrolki są podwojone,
więc przy każdym przycisku widzimy go dwa razy.
I to też mogę potwierdzić, to było w audycji naszej zresztą widać.
I w aplikacji Poczta mamy grupę z widokiem aktywności.
Tam się będą wyświetlały jakieś komunikaty,
kiedy na przykład program pobiera wiadomości, wysyła jakąś większą wiadomość.
Generalnie ten offshore powinien się wyświetlić tylko,
jeśli faktycznie coś się dzieje, ale w tej wersji ta grupa zawsze tam jest dostępna.
Jeśli nic się nie dzieje, to po wejściu w tą grupę,
to mamy pasek postępu, który jest tam chyba na 0%,
więc to też jest taki drobny błąd.
I to są wszystkie błędy, na które zwróciło uwagę Apple Viz.
No, tutaj też pewnie znalazłoby się więcej.
Tak jak mówiliśmy, ten nowy Spotlight
na przykład mógłby działać trochę lepiej.
A więc tutaj pewnie dałoby się jeszcze parę innych drobnych rzeczy znaleźć.
No ale generalnie tutaj też nie ma aż tak krytycznych rzeczy,
które by spowodowały, że z Maca nie da się korzystać.
A kilka przydatnych rzeczy, też tak jak w aktualizacji się znalazło,
z takich bardziej ciekawszych, to myślę, że poprawki w Safari,
zwłaszcza w dokumentach Google, no i to zdanne sterowanie makami,
które stało się dostępne.
Też myślę, że może być bardzo przydatne,
jeśli mamy kilka komputerów albo chcemy komuś z komputerem pomóc.
Jeśli chodzi o Watcha i o tvOS-a,
No to tutaj Apple najmniej na nic nie zwrócił uwagi, jeśli chodzi o jakieś błędy.
Naprawione błędy, to zwracają uwagę, że przełączanie głosów teraz działa lepiej.
Zmiany z głosami też odpowiednio się synkronizują pomiędzy iPhone’em i zegarkiem,
jeśli coś dostosujemy w aplikacji.
Watch na iPhone’ie, to na zegarku to powinno zawsze się od razu wyświetlić.
Jeśli chodzi o błędy, to też mamy informację, że na Watchu akurat etykiety generalnie są w wielu miejscach lepsze.
Nie zauważyłem, żeby coś na Watchu się bardzo popsuło, co myślę, że jest informacją istotną.
Design niektórych aplikacji może się podobać, nie musi, tak jak rozmawialiśmy o aplikacji Training,
ale generalnie Watch OS też jest całkiem stabilny.
Nie mamy tutaj w ogóle informacji o iPadOSie, co ciekawe.
Natomiast jeśli chodzi o iPadOS-a, no to tak jak Arek wspominał,
i myślę, że warto o tym przypomnieć, jeśli nie słuchaliście tej audycji,
no to na iPadzie zostało zupełnie przebudowane to,
jak działa wielozadaniowość.
I niestety ta dostępność pod wieloma względami,
jak zarządzamy oknami na iPadzie w tym nowym systemie,
nie jest tak dobra jak kiedyś.
Więc jeśli korzystacie z iPada i zwłaszcza lubicie pracować
na kilku otwartych oknach jednocześnie,
to Arek odradzał aktualizację do iPadOS-a 26, przynajmniej na razie.
Warto poczekać może w wersji .1 albo .2.
To będzie z VoiceOver’em działało lepiej.
Apple, z tego, co wiem, jest świadome tego, że tam jeszcze są jakieś braki,
więc miejmy nadzieję, że te błędy zostaną naprawione.
Więc podsumowując, jakichś bardzo dużych błędów nie ma.
Jeśli ktoś się zastanawia, czy warto aktualizować, czy nie,
to znów odsyłam do naszej audycji.
Ale jeśli też jesteście osobami słabo widzącymi,
to warto sobie najpierw w internecie popatrzeć,
może jak ten interfejs wygląda,
bo wygląd tego interfejsu się znacznie zmienił.
Dużo mamy kontrolek przeźroczystych
i w wielu miejscach tekst może być mniej czytelny
i na to nawet zwracają uwagę osoby widzące.
Więc ten nowy design jest kontrowersyjny dla voiceovera,
Aż tak dużej różnicy nie zauważymy.
Tam niektóre przyciski są trochę przemieszczone na ekranie.
Natomiast jeśli zaktualizujecie systemy,
to warto sobie wejść do ustawień dostępności
i wtedy przeźroczystość zredukować,
żeby ten tekst był dla was zbyt mało czytelny.
Ale też zanim zrobicie aktualizację,
to warto w internecie zobaczyć zrzuty ekranu,
popatrzeć, czy będziecie w stanie
na tym nowym systemie komfortowo pracować.
A dla użytkowników VoiceOvera, no to z wyjątkiem iPada, to myślę, że można spokojnie aktualizować.
To zajrzyjmy teraz do Waszych wypowiedzi. Tu mamy kilka wiadomości od Łukasza, który się już pytał, nawet widziałem na Whatsappie, czy wiadomości na panelu kontaktowym dotarły.
Tak, Łukaszu, dotarły. Po prostu, no, musimy starać się jakoś, żeby nie tylko czytać Wasze wiadomości, ale też i opowiadać o tym, co mamy w notatkach.
A mamy tego jeszcze sporo. Tu jeszcze Wasze telefony i dywagacje i wszystko naraz.
Ale okej, już czytam to, co napisał do nas nasz słuchacz Łukasz.
Sto lat, sto lat, niech żyją, żyją nam wszystkiego najlepszego i wszystkiego dostępnego.
Mam na przyszłość pomysł na dwie ciekawe audycje.
Chciałbym, żeby powstał wywiad z twórcą demaskatorskiego kanału na YouTube o tytule
Jest to gość, który jeździ po przeróżnych zakładach od McDonalda przez spawanie laserem, aż po jazdę lokomotywą i wizyty w kopalni w węgla.
Poznaje on tam różne technologie, nakręca filmy i wrzuca na YouTube’a.
Jakim cudem zakłady go wpuszczają? To jest jedno z wielu pytań, które można by mu zadać.
Myślę, że można by było porozmawiać. Zastanawiam się, o czym jeszcze. Ale tak, mam takie wrażenie, że to wszystko, jeżeli chodzi o to, czemu zakłady go wpuszczają, to wynika z tego, że każdy taki zakład zazwyczaj ma osobę, która jednak jest jakimś rzecznikiem danej instytucji.
Większość tego typu, zwłaszcza większych firm, ma działy od Public Relations i też i takim miejscom zależy na tym, żeby jakoś pozytywnie się prezentować w sieci.
Tak, a zwłaszcza, że ten kanał, no jednak tych względów ma dość dużo. Zasięgi ma spore, to prawda.
Tak, więc to nie jest tak, że on tam sobie wchodzi, albo że jakoś na pewno w niektórych miejscach musi trochę ponegocjować,
…ale wydaje mi się, że to też i tym, przynajmniej części tych miejsc też zależy na tym, żeby się pokazać, żeby znaleźć pracowników, być może też i tak dalej, i tak dalej.
I teraz kolejne tutaj zdania od Łukasza.
Wiemy czym są komputery, telefony, a nie wiemy jak działają drony. Jakie podzespoły i jaki firmware, hardware i software się tam znajduje.
…że to ustrojstwo samo lata, a już słychać pogłoski, że nawet i pływa.
Jak to działa, że lot jest stabilny, a obraz przesyłany bez żadnych zakłóceń.
W okolicach Poznania znajduje się firma Ironsky, która szkoli operatorów…
…i sama organizuje niezwykle widowiskowe pokazy dronów na przeróżnych imprezach.
Można by przeprowadzić z nimi obszerny wywiad, jak ta fascynująca technologia działa.
A na koniec najśmieszniejsze słowo lub zdanie wypowiedziane w Tyflo Przeglądzie, według mnie, bezkonkurencyjnym hitem, są wypowiedziane przez Pawła w setnym odcinku tutki iPhoniasto makowe.
Dla Pawła gratulacje i dla wszystkich jeszcze raz wszystkiego najlepszego. Wasze zdrowie, dziękujemy ci bardzo Łukaszu, ale to nie jest twoja ostatnia wiadomość, bo to była właściwie pierwsza dopiero.
Cóż tu Łukasz nam pisze dalej?
Już patrzę.
Cześć! Największe marzenie wszechczasów zbliża się wielkimi krokami.
Już 23 września jadę zwiedzać Warsaw Tower,
największy budynek w Polsce i w całej Unii Europejskiej.
Wysokość do dachu 233 metry, wysokość całkowita z iglicą 310 metrów.
I jeszcze Łukasz do nas pisze.
Strona jest zaprojektowana na tróję z plusem, ale Blind Shell 3 spisał się na piątkę.
Zamówiłem bilety na kilkugodzinne zwiedzanie tarasu widokowego 230 metrów i High Garden Rooftop Lunch Baru 205 metrów.
Ciekawe jak tam będzie smakowało aromatyczne espresso, kremowe cappuccino czy szklaneczka wybornego ginu.
No to Łukaszu przekonasz się i na pewno, a przynajmniej mam taką nadzieję, podzielisz się z nami tą opinią.
Łukasz jeszcze do nas pisze, ale wycieczka do Warsaw Tower to przede wszystkim dokładne postawanie niezwykle innowacyjnej i pomysłowej konstrukcji budynku.
Miło będzie pobacać marmurowe ściany, słupy czy elementy ogromnych szklanych konstrukcji będących jednocześnie ścianami zewnętrznymi.
I ścianki działowe i elementy wyposażenia też wzbudzają ciekawość.
Fajnie też posłuchać zaprojektowanych indywidualnie dla tego budynku central wentylacyjnych,
sprężarek od klimatyzacji, trzy wycia silników wind pędzących z zawrotną prędkością 8 metrów na sekundę.
Brat od jednej koleżanki z roboty postara się załatwić indywidualną wycieczkę techniczną,
Żeby pracownik techniczny wszystko pokazał i opowiedział, jak poszczególne instalacje działają.
Budynek jest ogromny, więc pytań będzie setki.
A mama z zawodu, inżynier budowlany, porobi zdjęcia elementów konstrukcyjnych,
których nie da się dotknąć, np. belki, wiązary stalowe, silniki i prowadnice o super szybkich szklanych wind.
Więc trzymajcie kciuki najmocniej jak się da, żeby ten pomysł wypalił.
Wygląda na to, że szykuje się prawdziwa uczta dla wszystkich zmysłów.
No to Łukaszu, cieszymy się twoim szczęściem, a to nie ostatnia twoja wiadomość.
Warszawski wywczas potrwa trzy dni, planujemy też zwiedzić Q22,
czyli wieżowiec… wysokościowiec w kształcie kryształu kwarcu
z jedynymi w Europie podwójnymi windami firmy TKA Elevators.
W jednym szybie na wspólnych prowadnicach jeżdżą dwie kabiny windowe i każda ma swój silnik, a wszystkim steruje szybki komputer.
Jaki jest cel takiego wynalazku? Tego niestety nie wiem, ale budowlani youtuberzy zapewniają, że przejażdżka taką windą to niezłe przeżycie.
A na koniec budynek, który w tym roku skończył 70 lat, czyli wszystkim znany, ikoniczny Pałac Kultury.
Natomiast 26 i 27 września jadę na Windoglas Innovation, czyli pierwsze w Kielcach, a to chyba Windoglas, tak, Windoglas Innovation, czyli pierwsze w Kielcach targi przemysłu okienno-drzwiowego.
Miło poznać maszyny do produkcji okien, technologię łączenia profili szklanych w fasadach, czy nowe materiały i sposoby montażu.
Różnych rodzajów okien i drzwi.
Mam nadzieję, że będzie wspaniale. Pozdrawiam.
I kolejna wiadomość, ale tym razem od Pawła.
Gratuluję wam trzystu audycji. Życzę udanych…
Chciałem się zapytać o grę Transport World Simulator,
a konkretnie o trasę Poznań-Wrocław.
Nie udało mi się uruchomić pociągu i ruszyć w drogę. Poradzicie coś?
To Piotrze chyba do ciebie pytanie.
Jaki to był pociąg jeszcze raz?
To znaczy trasa Poznań-Wrocław.
Trasa Poznań-Wrocław. Jak to się teraz robiło?
Trzeba tak, T zasilanie włączyć,
W żeby włączyć bieg do przodu,
P żeby podnieść prowadnicy, ten pantograf cały,
V żeby włączyć wentylację
I co tam dalej?
Jeszcze U, żeby zwolnić hamulce.
I teraz… nie pamiętam czy tam jeszcze…
Może jeszcze też być hamulec ręczek, które trzeba zwolnić literą Y.
Dawno nie jeździłem, więc tak trochę z pamięci tutaj podaję kroki.
Nie dosłyszałem, czy jechałeś lokomotywem EP07 czy Vectronem,
bo w Vectronie tam chyba jeszcze trzeba było ustawić odpowiednie napięcie na linii.
To chyba się literami J i K robiło.
Tu nie widzę w tej wiadomości od Pawła konkretnego typu pociągu.
W EP08 chyba tego nie było, trzeba robić.
Jest też w dokumentacji procedura startowa do każdej dokumentywy jest opisana, więc ewentualnie możesz też sobie tą dokumentację przepuścić przez jakiegoś tłumacza.
I tam to też jest opisane.
To nie koniec wiadomości.
Sylwester się nam nagrał.
A ja zawsze używam przeprowadzić i mi zajmuje bardzo mało, 5-10 do 15 czasem do 20 minut, a te wszystkie czaty i te wszystkie modele to mi 2-3 godziny zajmowało i niestety ja muszę się pożegnać z tym.
Może nagrać audycję na temat tego, jak dobrze używać czata GPT, bo wydaje mi się, że dość dużo osób już tego używa, a być może właśnie jeszcze są takie osoby, które być może popełniają jakieś błędy, być może no właśnie jakoś nieefektywnie używają tego czata. Myślę, że jest to temat do zastanowienia.
Dokładnie, to trzeba będzie po prostu kiedyś, kiedyś o tym rzeczywiście pogadać, o jakichś strategiach, bo no prawda też jest taka, że każdy tego czata używa do tak diametralnie różnych rzeczy, że każdy podejrzewam, że ma jakąś swoją strategię.
Ja powiem więcej. Są ludzie, którym na przykład super działa jeden model, z innym się kompletnie nie potrafią, tu cudzysłów, dogadać.
Ja tak na przykład mam z Googlem. Z tymi modelami od Google’a jakoś w ogóle mi kompletnie nie idzie współpraca żadna.
A widziałem ostatnio, że się ludzie tak zachwycali, że tam nawet ktoś chyba sterownik napisał do karty dźwiękowej,
której już nie ma ileś lat na rynku i komuś to się udało i właśnie z Google’em, a ja zadałem mu kilka prostych zadań,
to wypluł mi kompletne bzdury, więc no… coś w tym jest.
No ja jakieś duże właśnie operacje na tekście, jak właśnie jakieś transkrypty, streszczenia, tłumaczenia, no to właśnie na Gemini’u robię.
Tak, jakoś ten Gemini jakoś sobie lepiej z tym radzi.
No duży kontekst ma, dwa miliony to jest jednak dużo.
To też, ale nie wiem czy też tylko o to chodzi. No w każdym razie…
To pewnie nie.
Radzi sobie, no trzeba będzie o tym pogadać.
Kasia jeszcze napisała.
Aplikacja, o której wspomniałem, nazywa się…
i teraz jest napisane RWEVERSO,
ale nie jestem pewien, czy to jest faktycznie RWEVERSO czy REVERSO,
dlatego, że tu jest jeszcze kilka takich literówek,
więc nie wiem. Przez W.
RWEVERSO czy REVERSO CONTEXT.
Tam też jest, co prawda, jakaś sztuczna inteligencja wbudowana,
ale te tłumaczenia w niej są dość rzetelne.
Inteligencja służy raczej do generowania kontekstów i przykładów.
I mamy jeszcze dwie wiadomości chyba Dominika,
to jest ten użytkownik, który się podpisał jako głośnik JBL.
Zdaje się, że Dominik ma na imię, tak mi się wydaje.
I nagrał nam wiadomości takie.
Witam serdecznie. Tutaj chciałbym skierować pytanie do posiadaczy macOS-a,
a mianowicie nagrałem plik w QuickTime Player dźwiękowy w formacie M4A Apple MPEG-4
i słuchacie, jak za pośrednictwem narzędzi systemowych czy natywnie da się
jakoś skompresować ten plik do MP3, po prostu przekonwertować go do MP3?
Używam obecnie macOS Monterey 12.7.4.
Macie jakieś rozwiązania, tipy lub porady?
Tak, tylko muszę sobie coś tutaj zobaczyć.
Wydaje mi się, że nawet domyślnie jakaś akcja była do konwersji,
która była w menu kontekstowym, w podmenu usługi.
Z encodu i z wybranej pliki audio.
Czy to pozwala na konwersję do mp3 czy tylko m4a?
Chyba niestety nie.
Okej, no to w takim razie pewnie
jedynym sposobem, żeby to zrobić narzędziami systemowymi
byłoby na przykład użycie skrótów.
Tylko musiałbyś sobie taki skrót stworzyć,
który przyjmuje pliki audio na wejściu.
I to po prostu można skonfigurować
w ustawieniach skrótu w sekcji właściwości.
Nie pamiętam, gdzie to się robi.
Można skonfigurować, jakie dane ma skrót przyjmować.
Jedną z akcji, którą możesz do skrótu dodać,
jest akcja Konwertuj pliki.
Tam można wybrać format MP3
i od razu wskazać, gdzie ten plik ma być zapisany.
To jest taki pierwszy pomysł, który mi przychodzi do głowy.
Natomiast można też na przykład… To druga rzecz, która mi przyszła.
Na przykład sobie załadować ten plik do garaż Wanda,
który za darmo teraz przychodzi z systemem.
I tam też na pewno funkcja eksportu do MB3 jest.
Natomiast to pewnie będzie miało sens tylko w przypadku pojedynczych plików.
Bo dla większej ilości plików
…by to działało trochę wolniej.
No ale generalnie w ten sposób da się to zrobić.
Oczywiście też są narzędzia do obróbki audio,
Reaper, nawet w sumie w wersji demonstracyjnej,
która nie ma ograniczenia,
dałoby się po prostu plik otworzyć i zapisać do MP3
czy nawet tym tak zwanym Batch Converterem,
czyli konwerterem sadowym kilka plików naraz przetworzyć
i w ten sposób też sobie to skonwertować.
Tak, ostatni koniec wiadomości od Dominika.
A tak zmieniając jeszcze temat, ostatnio aplikacja HomeWiz służąca do zarządzania urządzeniami AGD z grupy Arcelic, takich firm jak Beko, Grundig, Whirlpool, Indensit, Hotpoint od niedawna.
Altus, Arctic, Blomberg, Elektra, Bregenz.
Przeszła ostatnią aktualizację, w której ucierpiały niektóre nazwy programów,
mianowicie programów pralki. Nie wiem, czy to tyczy się dokładnie sterownika Wi-Fi
w pralkach, czy sama aplikacja tak ma to zaktualizowane, ponieważ nie sprawdzałem
ze sterownikiem bluetoothowym, a posiadam pralkę Beko,
więc za chwilkę na szybko to sprawdzę i dam Wam również znać. Otóż ostatnim razem,
jak nastawiałem pranie w mojej pralce Beko BPRO500, to niektóre nazwy programu zostały
pozmieniane, dokładnie nazwy takich programów jak bawełna, syntetyki oraz wirowanie
i odpompowanie. Wcześniej nazywały się te programy Bawełna,
syntetyki, wirowanie, znak plus pompowanie. Teraz te programy nazywają się Kotons.
Nie ma polskiej nazwy na Bawełnie, jest Kotons. Z syntetykami zamiast syntetyki,
trochę skopali tłumaczenie, a następnie wirowanie, znak plus pompa.
I to się tyczy głównie tych trzech programów. Zaraz sprawdzę, jak to wygląda przy sterowniku
No i sterowniki bluetoothowe też to dotknęło, więc wychodzi na to, że aplikacja po aktualizacji po prostu ma lekko pomodyfikowane nazwy niektórych programów.
w starszych pralkach, które mają sterownik bluetoothowy.
Mamy już polski program Delikatne, nie tak jak to było wcześniej Delicates.
Następnie mamy ten program Kotons, czyli bawełna i syntetykami, czyli syntetyki.
To wszystko, jeżeli chodzi o wiadomości, które wysłaliście na Whatsappie.
Jeszcze tu sprawdzam, bo coś tutaj mi uciekło, okno z wiadomościami,
I rzeczywiście to wszystko.
Dobrze, zostało nam jeszcze kilka wiadomości.
To może teraz moja wiadomość, natomiast takiej wtyczki
do programów typu REAPER i podobnych,
tylko że nie w formacie VST, tylko w formacie CLAP.
To jest dość nowy format wtyczek i instrumentów,
znaczy efektów i instrumentów wirtualnych.
który jest obsługiwany właśnie przez Reapera.
Nie wiem jeszcze, które programy dostępne dla nas wspierają ten format.
Audacity chyba go nie wspiera.
Gold Wave też nie wiedziałem, żeby go wspierał, ale tu się mogę mylić.
Chyba to jest tylko Reaper na ten moment, to też mnie ktoś pytał.
No tak, tylko Reaper.
I ta wtyczka jest bardzo moim zdaniem ciekawa,
ponieważ pozwala do Reapera wysłać sygnał
z dowolnego programu, a z Reaper’a pozwala wysyłać audio,
czy ze ścieżki, na której jest zapięta,
na dowolną kartę dźwiękową, systemową.
Czyli jeżeli na przykład, nie wiem,
oglądam sobie, nie wiem, gram w grę,
chcę zrobić z tej gry podcast,
w taki sposób, żeby na jednej ścieżce nagrywała się gra,
na drugiej mój głos,
A na trzecie jeszcze NVIDIA, bo czemu nie, żeby mieć to wszystko na trzech niezależnych ścieżkach?
No to teraz się to zrobić da.
Nie jest to całkowicie bezproblemowe, dlatego że najpierw trzeba uruchomić program, który chcemy nagrywać,
a potem dopiero uruchomić tę wtyczkę.
Więc jeżeli chcę nagrać grę od samego początku, od kiedy startuję, no to może być pewien problem.
Ale jak działa ta wtyczka?
Mam tutaj akurat już otwarty REAPER.
Zaraz sobie przestawię NVDA, żeby było słychać syntezator.
I tutaj wpisuję APP.
I mamy wtyczkę APP2CLAP, czyli aplikacja na CLAP.
I tutaj nie idę do tej listy parametrów,
tylko poruszam się tabulatorem,
jak jestem normalnie na otwartym efekcie od ścieżki.
Pole edycji Wielowie edit fx.com. Lista rozpresetant preparam. Przycisk 2. Odprzycij przycisk fx.
Adstryb pole wyboru oznaczony. App 2. Slab. Grupa. Sapture aspecific proces sonly. Przycisk opcji oznaczone.
I teraz tak. Można tutaj albo… no…
Sapture. Przechwyć konkretny proces. Jeden.
Sapture eweryt hindex cepta specific proces sprzyci.
Albo przechwyć wszystko oprócz jednego konkretnego procesu.
Na przykład rippera, żeby ripper sam siebie nie nagrywał.
W ten sposób można coś takiego zrobić.
Natomiast nie da się na jednej wtyczce przechwycić na przykład trzech procesów.
To trzeba dać trzy niezależne efekty na ścieżkę, żeby coś takiego się zrobiło.
Więc ja zrobię Capture a Specific Process.
Lista rozwijana, zwinięte.
I tu…
Mam listę wszystkich procesów, które mam w systemie.
Niekoniecznie tylko te, które wysyłają dźwięk, tylko wszystkie.
Więc jeżeli chciałbym wysłać jakiś konkretny,
no to mogę się oczywiście przegrzebać całą tę listę,
ale na przykład my tutaj jesteśmy na Zoomie,
Więc w filtr wpisuję zoom.
Tylko, że mamy trzy procesy zoom.
I ten. No to są jakieś trzy.
Który jest tym właściwym, no to musimy sprawdzić.
Wybrać na przykład ten pierwszy.
I Capture przycisk.
Żeby wcisnąć przycisk w Reaperze,
najlepiej użyć Shift Spacia.
Chyba, że to się zmieniło w najnowszej osarze.
No i mogę sprawdzić, jeżeli coś powiecie,
to być może będzie,
znaczy ja będę słyszał,
czy w tej chwili, no,
Zoom się nagrywa.
Znaczy, wchodzi na Reapera, bo tego teraz nie wiem,
bo na Zoomie jest cisza.
To ja coś powiem, to ja coś powiem.
I słychać. Wchodzi.
Wchodzi. Z opóźnieniem.
Ale wchodzi.
Więc teraz, żeby nagrywać tego
zooma, no to
muszę jeszcze przedstawić ścieżkę.
Dlatego, że to jest efekt na
ścieżce i żeby nagrywać
rezultat
danego efektu,
to muszę zmienić
to, z czego będzie się
nagrywało. Czyli naciskam na
Menu kontekstowe.
Nie.
Nie.
To.
Bez przesady.
Stereo.
I w tym momencie, jeżeli tę ścieżkę uzbroję i zacznę nagrywać,
no to będzie mi się nagrywało to, co wychodzi, że tak powiem, z efektu,
I ta ścieżka będzie nagrywała wyłącznie zooma.
Mogę to samo zrobić, dodać teraz kolejną ścieżkę.
Ścieżkę szóstą.
Znowu dodać.
HPP2slab.
I na przykład na drugiej ścieżce nagrywam sobie NVDA.
Szukam tutaj…
Filter. Wpisuję NVDA.
List NVDA EXE 1068. NVDA Helper Remote.
No to raczej NVIDIA.
Refresh, capture przycisk.
Add przycisk.
Wcisnę spację, a mam wcisnąć shift spację.
Wciśnięty.
I proszę bardzo.
Refresh przycisk.
I teraz słyszę kolejny raz NVIDIA.
6.
Na razie usunąłem tę ścieżkę z NVIDIA.
Usunę też ścieżkę z ZOOM.
A teraz, co w momencie, gdy chciałbym to, co mi wychodzi z Reapera,
wysłać na jakąś kartę dźwiękową. To się też czasami może przydać.
Na przykład w momencie, gdy streamuję sobie coś i chciałbym,
żeby mój głos był przetwarzany przez jakieś efekty na przykład Reapera.
Do tego chciałbym, żeby była słyszana, powiedzmy, ta hipotetyczna gra,
którą streamuję i coś tam jeszcze, coś tam jeszcze.
No, ładuję sobie wszystkie efekty, ładuję sobie różne rzeczy.
Ustawiam sobie cały ten dźwięk, tak żeby było dobrze.
I teraz, na tej ścieżce, którą chcę wysłać na kanał,
taki… no gdzieś na jakąś kartę,
ładuję efekt. Żeby to zrobić, naciskam albo F,
a jeżeli chcę wszystko z Reapera wysłać na daną kartę,
Ale to muszę ten efekt dodać na ścieżkę tak zwaną Master, Shift-F.
Tu akurat mamy załadowanego LoudMaxa, na w razie czego.
Już, bo Reapera używam do wysyłania mojej mowy na Zooma.
Mam tutaj włączone coś takiego, co mi alt-filtrowuje wszystko, co mową nie jest,
bo mi na przykład bardzo skrzypi fotel.
I żeby to nie wchodziło, no to…
No to mam właśnie taki, taki otrzumiacz.
I tu z kolei dodaję nie tę wtyczkę, tylko drugą.
Clap2App. Są dwie. App2Clap i Clap2App.
To się może mylić, ale app2clap, czyli najpierw jest aplikacja 2,
Tu do klap wtyczki, albo klap2up wtyczka do aplikacji.
Dodaję klap2up.
I co tu mam?
Wybieram kartę dźwiękową.
Nie wiem, czy to będzie dobrze, jak tutaj to dodam,
No bo może się zrobić źle.
Out 1, in noise. Out 1, 2, out się. Cable.
Ale mam jakąś wirtualną kartę.
Send przycisk.
I send przycisk.
Wciśnięty.
I w tym momencie mi się wysyła.
Wciśnięty.
Add, slap, 2, up, grupa. Send przycisk.
No i już. I to wszystko.
Out, flip, 2, param, precedent, per, lista, edit, fx, pole, edycji, list, 1, vst, 3, load, max, zoom.
I to wszystko.
Także… no wtyczka działa rzeczywiście.
Robi co ma robić.
Wtyczka po raz pierwszy ukazała się parę dni temu, więc to znowu jest bardzo nowa wtyczka.
Zobaczymy jeszcze, jak ta wtyczka będzie się z czasem zmieniać.
Na razie zostało dodane zapamiętywanie karty, na którą ma być wysyłane.
Czyli jeżeli zapiszę sobie taką instalację, to po jej uruchomieniu,
no przynajmniej część rzeczy będzie zapamiętana,
bo wcześniej był z tym problem z tego co wiem.
A czy jest w Tomku jakiś prosty sposób na to,
że jeżeli nagrywamy sobie te aplikacje
Ripperem, to żeby uniknąć tego, że słyszymy
te rzeczy podwójnie wtedy?
Odsłuch wyłączamy.
Aha, w ten sposób, po prostu.
Okej, faktycznie.
Tak, tylko że jeżeli chcesz to potem wysłać gdzieś, na przykład, no to jeżeli wyślijesz ze ścieżki master coś,
no to to, czego nie będziesz słyszał u siebie, no to siłą rzeczy też nie wyjdzie na kartę.
jest na to sposób i żeby do tego się dostać, no wystarczy…
to ja to też w takim razie pokażę, bo chodzi mi o sytuację taką,
że załóżmy, dobra, mamy sobie te kilka programów i rzeczywiście,
no, my je słyszymy, więc teoretycznie, no, żeby je nie słyszeć,
wyciszam mute, znaczy wyciszam ścieżkę na przykład, nie wiem,
wyłączam z niej, nie wiem, nawet można ją mute zrobić,
Tylko, że wtedy ona też nie będzie wychodziła na ścieżkę master.
Więc jeżeli wyślę to, co się dzieje na ścieżce master do jakiegoś programu,
na jakąś kartę, no to będzie problem.
I teraz, żeby to rozwiązać,
można ścieżkę master…
Zrobi się ten numer następujący.
Naciskam sobie Shift i…
Outputs for Master Trask Dialog.
Strona dbPan.
Wit.
Send Pan value.
Pole edycji.
Send volume.
Hardware.
Out 7.
Out 8.
Delete przycisk.
Tu akurat ma dodane jeszcze jedno wyjście.
Tego nie będziecie mieli.
Audio Hardware.
Strona dbPan.
Trask Pan.
Trask Volume.
Trask Han.
Trask Wit.
Value.
A nie.
To jest…
Dobra.
To jest jedno, bo tu ma po prostu dodane wyjście.
Audio Hardware.
Outputs.
Lista rozwijana.
Adne.
Hardware.
Out 7.
Out 8.
Delete przycisk.
Diamantu 7.8, tu prawdopodobnie będzie nazwane Wasza karta.
I no ten przycisk znowu trzeba wcisnąć.
I kiedy go wcisnę, no to
to, co wychodzi na ścieżkę Master przestanie być dla mnie słyszane, czyli nie będzie
tego podwójnego słyszenia. No i to jest jakieś rozwiązanie.
Oczywiście wtedy nie będę słyszał tego, co wychodzi z Reapera. Nic.
Więc na to też trzeba uważać.
Ale zapewne jest to jakieś rozwiązanie dla niektórych osób.
Generalnie tutaj to są po prostu wtyczki,
które zostały zrobione, które to umożliwiają.
Natomiast osobna kwestia jest konfiguracja Reapera
czy innego programu, który obsługuje wtyczki Club,
który ewentualnie pozwalałby na takie rzeczy.
Możliwe, choć w sumie ciekaw jestem,
Czy nie dałoby się stworzyć znowu z jakimś chatem GPT
jakiegoś narzędzia, które by umożliwiało takie przechwytywanie różnych programów
właśnie za pomocą tych wtyczek?
Na przykład, że coś co obsługuje wtyczki CLAP, może VST, nie wiem.
Rzecz do rozważania, być może dla kogoś to programuje,
może dla kogoś to dobrze się dogaduje z chatem GPT, nie wiem.
Ale na pewno jest wtyczka, która to umożliwia i no reszta należy do kreatywności
użytkowników tej wtyczki.
To teraz odbierzmy kolejny telefon. Kto jest z nami po drugiej stronie?
Dobry wieczór, Jacek z Krakowa. Witam, pozdrawiam. Życzę wszystkiego najlepszego
i co najmniej 300 kolejnych, a najlepiej dużo, dużo więcej.
Postaramy się.
Cieszę się, że nadajecie też na YouTube, bo ja tam najczęściej od was słucham.
Natomiast słowo się rzekło o tym czacie GPT, tu się coś powtarza.
Notabene ja nie słucham was od początku i oczywiście nie pamiętałem numeru do was,
więc go poprosiłem, żeby znalazł i znalazł.
Ale chciałem się odnieść do jednej kwestii, którą Tomek poruszył, żeby nie
traktować modelów językowych jak wyszukiwarki.
I to jest oczywiście bardzo ważne.
Natomiast chciałem zwrócić uwagę na jedną rzecz.
Nie wiem, czy zauważyliście, czy zdajecie sobie sprawę z tego,
jakie tempo dostępu do informacji mają ludzie widzący.
Jest potwornie szybkie w stosunku do tego, co my możemy.
Ja na przykład rozmawiam sobie w pokoju socjalnym, w przerwie w pracy
z koleżanką, która je obiad, opowiadam jej z jakimś przejęciem o czymś
I ona jedną ręką je obiad, drugą ręką wpisuje w trakcie kiedy ja mówię przeglądarkę kilka maźnięć palcem i ona to widzi. Ona o tym czyta, widzi zdjęcia, nie? Po prostu tempo jest…
Tak, jest ta wielozadaniowość.
Tak. Zanim ja znajdę Firefoxa na iPhone’ie, znajdę pole edycyjne.
Potem albo jadąc po klawiszach, wpiszę odpowiednie literki albo brajlem,
jeśli ja nie akurat nie potrafię, ale mogę jeszcze podyksować.
Czasem to trzeba jeszcze zgredytować. Potem po nagłówkach. Znajdę link.
Wejdę. Znowu muszę pół strony przewinąć. Znajdę dopiero tekst.
Dopiero wtedy mogę czytać. To jest niesamowite.
I teraz, kiedy mamy te modele językowe, akurat 4GPT u mnie siadł najbardziej,
No to trzeba pamiętać o tym, że jego trzeba sprawdzać,
że trzeba go pilnować, bo wiadomo, że jemu się zdarza halucynować.
I teraz to jest niesamowite narzędzie, które pozwala nam szybko dotrzeć
do jakiejś informacji, mało tego, pozwala nam np. dotrzeć do…
może nam opowiedzieć o tym, czy jaki produkt… bo tam jest np. najczęściej
np. toman, jest jakiś tam instrument, zdjęcie i właściwie opisu nie ma.
Jak gdybyśmy korzystali z przeglądarki. Natomiast on może nam opowiedzieć, jak to wygląda.
I teraz mam takie wrażenie, bo dużo się mówiło, że ta piątka to przełom, bo to kolejny rozwój i tak dalej.
Mam wrażenie, że on więcej halucynuje niż cztery oczy, cztery pięć, z którego korzystałem.
Nie wiem, takie mam wrażenie, że się zafiksował, bo ja mu kiedyś powiedziałem, jak mam na imię, jak się ma do mnie zwracać, jakie synonymy może używać.
Zawsze jak tą piątkę odpalę, to mówi, od razu jak ją odpalę, mówi, dobrze będę mówił do Ciebie Jacek, będę o tym pamiętał.
Mimo tego rozwoju, który mamy ciągle, zauważyłem, że ta piątka trochę mi słabiej funkcjonuje niż ta 4-5.
Ja na początku miałem podobne odczucia, teraz mam wrażenie, że już jest okej.
I tu Jacku poruszyłeś jeden bardzo ważny temat.
Mianowicie taki, że chat GPT też potrafi sięgać po źródła, do których my takiej oczywistej, oczywistego dostępu nie mamy.
To znaczy my do tych źródeł, jak bardzo byśmy się postarali, to możemy dotrzeć, ale jest to znacznie utrudnione, a mówię o wszelkiego rodzaju mediach społecznościowych.
Na przykład kiedyś chciałem sprawdzić, bo tam była jakaś aferka w internecie, coś tam się działo i chciałem się dowiedzieć w ogóle o co chodzi.
Ja wiedziałem o co chodzi, mniej więcej już, ale chciałem właśnie sprawdzić co mi ten czat GPT i skąd on mi będzie te informacje brał.
Okazało się, że jak były kwestie właśnie dotyczące takich rzeczy nazwijmy to pudelkowych,
To on potrafił sięgnąć i po Instagrama, jakieś profile ludzi na Instagramie, no bo te rzeczy są publiczne akurat, to z tym nie ma problemu.
Zajrzał sobie na Mastodona, chyba gdzieś jakieś na publicznie dostępne profile facebookowe.
I on po prostu z tego wszystkiego, nie wiem czy sięgnął po TikToka, mam wrażenie, że chyba tego nie, ale coś na YouTubie nawet jeszcze podrzucił.
I te rzeczy, które on podrzucił, ja potem sobie to sprawdziłem.
one tam faktycznie były. Jak ja bym miał się przedzierać przez Instagrama
z mnóstwem jakichś zdjęć, to ja bym sobie odpuścił to już na starcie.
A właśnie dzięki temu, że on odwalił za mnie ten kawał roboty,
to po prostu byłem w stanie zapoznać się z tym, czego rzeczywiście chciałem
i co mnie faktycznie interesowało. Więc tutaj, w tej kwestii właśnie dlatego ja cały czas mówię,
że to nie jest… Tu właśnie Tomek mówi, żeby tego w żadnym wypadku nie korzystać z tego jak z wyszukiwarki.
Ja bym… Ja właśnie tu mam nieco bardziej liberalne podejście.
I ja widzę dla tego zastosowania, ale zawsze będę to podkreślał, że jeżeli to są ważne kwestie, to to trzeba weryfikować.
Tak, trzeba to zawsze weryfikować. Natomiast jeszcze jest jedna taka kwestia, która myślę, że jest oczywista.
w tych modelek językowych, zwłaszcza w czasy, kiedy można było z nimi rozmawiać.
I oczywiście łatwo stwierdzić, kiedy słyszymy, to się na YouTubie porobiło
strasznie dużo różnych kanałów, historie jakieś, opowieści jakieś.
To wszystko jest prawdopodobnie kreowane przez AI i też czytane przez AI.
Od razu wiadomo, że to czyta AI, bo on się wykłada na liczebnikach,
Nie wiem, 474 rok przed naszą erą będzie zawsze wyłożył na tym.
To prawda.
Natomiast kiedy się rozmawia z Czotem GPT, to tak naprawdę przerażające jest to,
że można się zapomnieć, że się rozmawia z modelem językowym.
Bo on jest tak skrojony, żeby właśnie przypominać rozmowę z człowiekiem.
Jeśli ktoś nie ma cały czas za uszami tego, że rozmawia właśnie z jakimś
To można się łatwo wkręcić, zwłaszcza, że on wchodzi w bardzo delikatne różne kwestie,
typu na przykład psychiczne.
On tam ma wpisane, że nie jest terapeutą, ale zamiast ucinać,
wchodzi głęboko w te tematy różne, bardzo delikatne.
I wiem, że wielu ludzi… wielu ludziom zaciera się ta granica między człowiekiem a algorytmem, tylko że po prostu jest to ktoś, z kim rozmawia, tak jak się rozmawia przez telefon, nie widząc go, nie?
No to prawda, na to to już mam wrażenie, że niewiele jesteśmy w stanie poradzić, bo po prostu można co najwyżej przypominać
i mówić o tym, że jest to narzędzie i jest to tylko narzędzie.
Być może kiedyś się rzeczywiście doczekamy tej takiej inteligencji, która
będzie w stanie myśleć jak my i mieć tę świadomość, ale to…
To są bardzo… Jeżeli to w ogóle dojdzie do tego, to obawiam się, że nie za naszych czasów.
To myślę… Jak po prostu obserwuję, jak to w tym momencie działa,
Z jednej strony super, ale z drugiej strony, żeby to nas prześcignęło, to jeszcze bardzo, bardzo daleka droga.
To prawda, ale kończąc, muszę powiedzieć, że można bardzo fajne rzeczy na YouTubie znaleźć.
Między innymi znalazłem rozmowę z takim Polakiem, psychologiem, który pracuje w Stanach
i który kiedyś używał algorytmów, które pomagały mu badać ludzi,
A dziś używa sposobów do badania ludzi, żeby badać algorytmy.
Taka ciekawostka.
Od przewrotność losu.
Wszystkiego dobrego, pozdrawiam.
Dzięki Jacku za telefon, dobrej nocy, trzymaj się.
To co, przechodzimy do następnego tematu?
Myślę, że tak.
Dobrze. Patrzę, czy mamy tu jeszcze jakieś takie luźne, że tak powiem, tematy.
I mamy jeszcze jeden temat taki oddzielny, czyli audio, jak to się nazywa?
AudioPub.
Tak.
Chce być jak TikTok.
Tak. Czym jest AudioPub dla tych, którzy może zapomnieli?
Jest to strona, która w pewnym sensie trochę nawiązuje do takich stron Q-Audio,
które kiedyś było, czy Audioboom.
Jest to generalnie strona głównie, do której zaglądają osoby
Dzień dobry, witamy w tym momencie, gdzie każdy może założyć konto
i po prostu dzielić się z innymi, różnymi plikami audio.
Co tam ludzie wrzucają? Różne ciekawe rzeczy.
Od demonstracji gier, rzeczy, nad którymi pracują,
muzyki, zarówno takiej, którą skomponowali sami,
albo czasami też z pomocą AI.
Dużo, dużo ciekawych tam rzeczy generalnie się znajduje.
I bardzo ciekawie można sobie czasami tam zajrzeć, poprzeglądać,
Bo różne rzeczy tam można znaleźć.
Do tej pory ta strona działała tak, że możemy sobie na tę stronę wejść
i zajrzeć, co tam ludzie wrzucają ostatnie rzeczy.
Jeśli mamy konto, to też możemy zostawić komentarz.
Ostatnio strona została rozbudowana o dwie takie ciekawe funkcje.
Po pierwsze, mamy funkcje ulubionych.
Działa to w ten sposób, że możemy sobie dodać jakieś pliki,
jakieś nagrania, które zostały wrzucone do naszych ulubionych.
Spowoduje to, że ta osoba, która taki plik wrzuciła,
dostanie powiadomienie, że ktoś jej rzecz polubił.
A my też możemy sobie później do tych ulubionych zajrzeć
i odsłuchać to, co tam polubiliśmy.
Też łatwo można z tej strony, swoją drogą, te materiały pobierać.
Więc to jest też fajne.
A druga nowość to właśnie, jak tutaj napisałem na główku,
strona chce być trochę jak TikTok,
bo dorobiła się czegoś na kształt tego strumienia,
czy feeda, który mamy w TikToku.
Na ten moment, w przeciwieństwie do strony głównej,
która jest chronologiczna,
ten feed pokazuje nam nagrania w kolejności losowej.
Natomiast to, jak ktoś wykorzystał z TikToka czy z jakichś stron,
czy na przykład rolek na Instagramie, to wiecie mniej więcej, o co chodzi,
Wchodzimy na stronę i od razu nam zaczyna coś się odtwarzać
i możemy sobie przesuwać palcem i ładować kolejne rzeczy.
W przeglądarce działa to bardzo podobnie,
bo kiedy klikniemy na łącze quick feed,
bo tak się ta funkcja nazywa,
to od razu nam się zacznie coś odtwarzać.
Mamy na stronie przyciski i możemy zobaczyć, co oglądamy,
przejść ze strony danego klipu, od razu czytać komentarze.
Więc na TikToku też tak można nawigować.
Ale też mamy skróty klawiszowe, które na stronie są wymienione.
Mianowicie, spacja to play, pauza.
Strzałkami lewo, prawo możemy otworzony materiał przewijać.
Znak równości i minus to jest głośność.
Więc jakby nagrało za głośno, możemy łatwo ściszyć.
No i oczywiście warto byłoby też przeskakiwać do kolejnych materiałów.
To też można zrobić strzałkami góra, dół.
Jak nacisniemy strzałkę w dół, to przejdziemy do następnego klikpu.
I też autorzy strony zadbali o to, żeby te przejścia były płynne,
więc tam będzie słychać, że w pierwszym klipsie
bardzo szybko ścisza i kolejny zaczyna lecieć.
Nigdy nie mamy ciszy.
W przeciwieństwie do TikToka, te klipy nie są zapętlone,
więc jak jakiś klip się skończy,
to musimy z pacją sobie odtwarzanie wznowić.
I tam też był wcześniej błąd, nie wiem, czy cały czas jest,
Jeśli jakiś klip się skończy, a strzałką w dół przejdziemy do następnego, to otwarzanie się automatycznie nie rozpocznie.
Zgłosiłem to. Może to niebawem zostanie naprawione.
No mniej więcej, gdybyście nacisnęli strzałkę w dół, nic nie słychać, no to po prostu warto nacisnąć spację.
Jeśli jesteśmy zalogowani, no to mamy też jeszcze jeden skrót do dyspozycji,
mianowicie możemy literką F sobie dodać to, co akurat jest otwarzane do ulubionych też jednym skrótem.
I na koniec też strona została zoptymalizowana pod ekrany dotykowe,
tak żeby ktoś chciał sobie wejść na tą stronę z poziomu telefonu.
No to odtwarzać też nam zajmuje cały ekran,
bo tutaj będziemy musieli wyłączyć voiceovera czy talkbacka,
żeby korzystać z tego trochę tak jak na TikToku.
A jeśli to zrobimy, to po prostu przesuwając palcem do góry
możemy przeskakiwać do następnego klipu
i stukając ekran przełączamy odtwarzanie.
Także jeśli nie zaglądaliście na AudioPub’a, polecam, bo naprawdę ciekawe rzeczy czasami można znaleźć.
No a w tym widoku losowym, w tym strumieniu, to już w ogóle czasami można bardzo ciekawe rzeczy znaleźć,
no bo on nawet potrafi odkopać jakieś rzeczy, które już dawno temu na tę platformę były wrzucone.
A może znajdziecie właśnie jakieś ciekawe rzeczy, które będziecie chcieli sobie pobrać, polubić itd.
A może sami stwierdzicie, że chcecie waszymi kreacjami się na tej stronie podzielić.
Mówiłem tam wszystko, od muzyki, po jakąś poezję,
po jakieś sketche zrobione syntezatorami mowy,
demonstracje aplikacji i gier, takie krótkie podcasty.
Swoją drogą tam nawet nie ma jakiegoś limitu, jeśli chodzi o rozmiar pliku,
czy czas trwania, aczkolwiek generalnie tam nagrania są raczej krótsze.
To powiedzmy kilkunastu minut góra z tego, co zauważyłem.
Gdybyście też chcieli, oprócz podczasu, zachęcamy, żebyście nagrywali nam audycje.
Ale jakieś krótkie rzeczy, to też można sobie tam ewentualnie załadować.
I to wszystko, jeżeli chodzi o pojedyncze newsy.
Zostały jak zwykle nasze pakiety.
Zacznijmy może od nowości w aplikacjach.
I tutaj też dzieje się dużo.
Po części dlatego, że mamy aktualizacje związane z nowymi systemami Apple,
ale nie tylko, to nie będzie tylko właśnie o tych rzeczach,
bo np. NVIDIA 2025.3 już się pojawił w wersji stabilnej.
Co nowego w tej wersji?
No już nie będę mówił szczegółowo, bo omawialiśmy to,
kiedy pojawiały się pierwsze wersje beta,
natomiast generalnie jest to w porównaniu z aktualizacjami,
które mieliśmy niedawno, drobna aktualizacja,
która generalnie poprawia błędy,
bo co mamy?
Zmiany związane ze sklepem z dodatkami,
z nowymi funkcjami zdalnego dostępu,
czyli tym zintegrowanym NVI Remote’em,
poprawki związane z Braille’em
oraz z głosami SAPI5,
które też niedawno doczekały się przebudowy.
Sklep… Dodatki w AddOnStore
mogą być teraz sortowane
Po ostatniej testowanej wersji i dacie instalacji.
Mamy różne poprawki związane ze zdalnym dostępem,
m.in. polecenie do wysłania skrótu Ctrl-Alt-Delete,
gdyby nam się coś zawiesiło.
Mamy też poprawki błędów.
Pojawiło się też fajne ustawienie, które pozwala nam wyciszyć zdalną syntezę
w momencie, kiedy nie sterujemy zdalnym komputerem.
To też całkiem fajne rozwiązanie, jakby ktoś tego potrzebował.
Jeśli chodzi o Braila, to mamy bardziej inteligentne zawijanie wiersza,
lepsze zapamiętywanie w wybranej tablicy brailowskiej
podczas zmiany języka NVDA
oraz wykrywanie monitora DotPad, który jest podłączony do portu USB.
Mamy wiele poprawek związanych z głosami SAPI5,
m.in. jakieś cisze, które czasami gdzieś się tam wkradały,
przerwy między frazami, które czasami też się mogły pojawiać,
jakieś za długie były te pauzy,
i problemy z zawieszaniem się MVDA,
co czasami z niektórymi głosami też miało miejsce.
Mamy też aktualizację ESPICA,
mamy też aktualizację definicji Unicode,
czyli jakieś nowe emoji będą czytane przez MVDA.
A propos lokalizacji emoji,
to teraz jest ono dostępne w języku białoruskim,
I tutaj też NV Access rekomenduje, że po aktualizacji NVIDIA, gdyby coś nam nie działało, to warto po prostu zrestartować komputer.
Przez to, że jest to już wersja stabilna, to NVIDIA powinien was o tej aktualizacji powiadomić.
Gdyby tego nie zrobił, to po prostu można wejść na stronę albo po prostu przejść sobie do menu pomoc i tam sprawdzić, czy są jakieś aktualizacje.
Ta wersja generalnie nie będzie psuła żadnych dodatków, więc tutaj myślę, że spokojnie można aktualizować,
bo tutaj po prostu są różne poprawki błędów.
Nawet jeśli mieliście problemy z głosami z API,
to po prostu warto sobie tę nową wersję pobrać.
Następnie Firefox, który pojawił się w wersji 143.
I trafił tutaj do tej flowieści z jednego podstawowego powodu.
Mianowicie na systemie Windows
Wsparcia dostępności poprzez API.
Znów to słowo, co się ostatnio dużo się pojawia.
UI Automation.
W dużym skrócie jest to najnowszy system,
w jakim programiści mogą tworzyć
dostępne aplikacje pod system Windows.
Informować system o tym, jakie kontrolki są w danej aplikacji.
Na przykład narrator z tego API korzysta.
I zresztą MVDA w pewnym stopniu też.
Generalnie to zostało dodane nie tyle dla czytników ekranu,
co może bardziej… Dobra, dla narratora to w sumie tak.
Właśnie dla narratora między innymi,
ale też innych funkcji typu rozpoznawanie mowy,
generalnie inne zewnętrzne aplikacje, które potrzebują dostępności,
może nawet jakieś funkcje związane z AI w przyszłości,
bo często takie narzędzia też z takich rzeczy korzystają,
no to będą miały teraz dzięki temu lepszy wgląd
do tego, co się w naszym Firefoxie dzieje.
Czyli jeśli ktoś np. korzysta z narratora czasami,
to on też powinien z Firefoxem działać lepiej.
Ale oprócz tego tutaj też zostało dodane kilka fajnych rzeczy.
Na przykład, nie wiem, gdzie to jest, będę musiał poszukać tego,
ale możemy sobie dodawać dowolne strony do paska zadań w Windowsie,
co nam później pozwoli te strony otworzyć we własnym, dedykowanym oknie.
Rozumiem, że wtedy pozbawionym kontrola typu pasek, adresu itd.
Dzięki temu możemy taką stronę uruchomić z dodatkami, które mamy zainstalowane.
Czyli, jak jedno zastosowanie widzę, na przykład WhatsAppa dodać
z tymi skryptami dostępności, które się pojawiły.
Czy Telegrama na przykład, tam też jakieś skrypty nierealne się pojawiły.
To może być ciekawe.
Ale oprócz tego z takich rzeczy, które mogą być przydatne,
bo Firefox też ma swoją integrację z różnymi chatbotami,
I tam teraz z GoPilota można korzystać.
Mamy też jakieś poprawy związane z prywatnością.
Ale też jeśli pobierzemy jakiś plik w prywatnym oknie…
Możemy sobie uruchomić prywatne przeglądanie na jakiejś stronie,
gdybyśmy nie chcieli, żeby zapisała się tę stronę P-Story,
żeby ta strona nie miała dostępu do innych ciasteczek i danych,
które mamy zapisane.
Jakiś plik pobierzemy w takim oknie.
Podczas zamykania okna Firefox nas zapyta,
czy chcemy, żeby ten plik został usunięty.
To też fajna rzecz. Chyba Chrome czegoś takiego nie ma.
A to wydaje mi się całkiem logiczne,
że możemy ewentualnie coś takiego chcieć zrobić.
Ostatnią zmianą, o której pisze Mozilla,
jest wsparcie dla UI Automation, które będzie stopniowo wdrażane.
więc pewnie nawet jeśli tego Firefoxa zaktualizujecie,
to może jeszcze kilka dni, może tygodni minąć,
zanim ta funkcja u was się pojawi.
Co mamy dalej? Dalej mamy Castro.
Castro, które, jak wiele aplikacji,
doczekało się lekkiego odświeżenia interfejsu
związanego z iOS 26 i Liquid Glass.
Ale z takich ciekawszych informacji dla nas,
to, co mi się rzuciło w oczy,
to to, że aplikacja teraz nam pozwala bardziej precyzyjnie
wybrać sobie prędkość odtwarzanego podcastu.
Bo wcześniej dostępne mieliśmy poziomy…
Tam było 1,25, 1,5, później 2 i 3 bodajże.
A teraz ta skala jest dużo bardziej rozbudowana,
bo tak naprawdę na początku przeskakujemy o 1 dziesiątą,
więc 1,2, 1,3, 1,4, 1,5, 1,6, 1,8, aż do 2.
Z dwóch przeskakujemy na 2,5 i z dwóch i pół przeskakujemy na 3.
Tak że tych możliwości dostosowania prędkości jest znacznie więcej.
Więc jeśli ktoś miał problem, że powiedzmy 1,5 było za wolno,
ale 2 było za szybko albo 3 było za szybko, a 2 było za wolno,
to warto sobie gastro zaaktualizować.
To świetny klient do podcastów, o którym często mówimy.
i ta aktualizacja tylko jeszcze bardziej usprawnia działanie tej aplikacji.
To było Gastro, a teraz Discord.
Discord, o którym na początku trochę wspomnieliśmy,
jak to kiedyś było bardzo niedostępne,
teraz na szczęście już tak nie jest.
Może nie jest to idealna aplikacja,
ale generalnie jest dużo bardziej dostępna niż kiedyś
i cały czas deweloperzy zmiany związane z dostępnością wprowadzają.
Oprócz takich zmian też chwalą się tym,
że na jednym serwerze na Discordzie może być teraz 25 milionów użytkowników.
Bardzo dużo.
Mówią, że jakby ktoś potrzebował jeszcze większych serwerów
niż serwer, który jest w stanie pomieścić całą ludność Netherlandii,
bo akurat tyle ludzi tam mieszka, to żeby się z nimi skontaktować.
Ale pewnie trudno będzie do 25 milionów dobić.
Natomiast oprócz tego, jeśli chodzi o takie zmiany związane z dostępnością,
to np. będzie aplikacja teraz odtwarzała dźwięki
w momencie, kiedy włączamy lub wyłączamy kamerę,
co też jest fajne, bo będziemy wiedzieć czy właściwie słyszeć,
jeśli kamera została prawidłowo włączona lub wyłączona,
bo też są na to skróty klawiszowe.
Mieliśmy wcześniej dźwięki na wyciszenie mikrofonu oraz głośników,
i teraz jeszcze do tego mamy dedykowane dźwięki na kamerę.
Natomiast jeśli chodzi o inne aplikacje,
inne aktualizacje związane z dostępnością,
No to tutaj mamy generalnie kilka poprawek, jeśli chodzi o czytanie różnych elementów.
Między innymi ikony grupy użytkowników na ekranie wiadomości bezpośrednich
są teraz lepiej czytane.
W sekcji ustawień dostępności link DOWIEDZ SIĘ WIĘCEJ
teraz może prawidłowo przyjąć fokus i być przeczytany przez czytniki ekranu.
Na ekranie udostępnienia multimediów, na iOS-ie, czytniki ekranu,
czyli właściwie VoiceOver będzie w stanie dojść do przycisku
Przeglądaj zdjęcia, więc też istotna zmiana.
W nawigacji gestami na ekranie ustawy nie powinna teraz działać,
czyli tutaj chodzi o aplikację mobilną.
Podobnie na ekranie…
na zgłoszenie jakichś treści nieodpowiednich
…odpowiednich i złośliwych działań też po prostu generalnie na tym ekranie zgłaszania raportów w odpowiednie role i dane są teraz używane, więc jak chcesz jeść polem wyboru, to po prostu jesteśmy w stanie taki raport wypełnić.
Przycisk wyboru języka nie będzie teraz oznajmiany dwa razy.
Też będą prawidłowo czytać nazwę wątków
oraz liczbę wiadomości w danym wątku oraz rolę wiadomości,
czyli na przykład, czy wiadomość została przypięta.
Na ekranie subskrypcji serwera poprawiono w Focus
kolejność kontrolek podczas nawigacji Focusem.
Na sekcji ustawień moderacyjno-administracyjnych
W logach czytniki ekranu teraz powinny prawidłowo dojść do przycisku
o informacjach o profilu danego użytkownika.
I będą też prawidłowo czytać aktualny status,
kiedy dojdziemy do przycisku zmień status.
Czyli tak, dostępny, zaraz wracam, nie przeszkadzać i tak dalej.
Także to są zmiany z września.
Discord generalnie takie aktualizacje publikuje mniej więcej co dwa miesiące,
Więc jeśli jeszcze jakieś kolejne zmiany w dostępności się pojawią,
no to myślę, że też dam wam znać.
A teraz zostajemy w tematach aplikacji komunikacyjnych,
bo mamy nową wersję Team Talka.
Niedawno mówiliśmy o wersji 5.19,
a już pojawiła się kolejna, już miesiąc minął, okazuje się.
Team Talk 5.20.
I to jest drobna aktualizacja, która głównie poprawia różne błędy.
Jakie to błędy?
Myślę, że takim najważniejszym błędem, który został naprawiony,
to ten, o którym mówiłem na Maku.
Mianowicie, na Maku znów przestało być czytane drzewo
z kanałami i użytkownikami.
Generalnie inne drzewa w aplikacji, czyli lista serwerów,
ustawienia wydarzeń dźwiękowych i TTS.
Trochę drzewek w Team Talku jest
i wszystkie tak naprawdę stały się nierozstępne.
Jak problem został naprawiony,
to zaczęła się wrócona opcja, która była kiedyś
i potem została usunięta, bo problem zniknął.
Mianowicie w ustawieniach TTS możemy sobie włączyć
czytanie zaznaczonego elementu na drzewach.
Jeśli to włączymy, to po prostu wybrana przez nas synteza,
czy to będzie voiceover, czy to jeden z głosów,
które mamy w systemie, tam można sobie to skonfigurować,
po prostu będzie mówił, jaki element został zaznaczony.
Więc znów będziemy w stanie podczas nawigacji strzałkami
po prostu wiedzieć, na czym się ustawiliśmy.
Oprócz tego, z takich istotnych zmian…
mamy też poprawki wyświetlaniem z dzienników serwera na Macu
źle wyświetlającą się wiadomość statusu.
No właśnie w tej nowej wersji domyślnie nasza wiadomość,
nasz opis był ustawiany jako general podkreślenie status MSG.
I to ja faktycznie miałem do czynienia z tym,
Instalowałem świeżo TimToca na nowym komputerze
i po zalogowaniu się takie rzeczy się wyświetlały.
To już nie powinno mieć miejsca.
Poprawiono błąd, że odpowiadając nie na pytanie,
czy chcesz wyjść z aplikacji,
powodowało to rozłączenie od serwera.
To jest istotna poprawka.
Na Windowsie QT, biblioteka, która tworzy się interfejs,
została zaktualizowana.
Na Macu zresztą też,
Natomiast nie spowodowało to tego, że ten problem z czytaniem drzewka
został naprawiony.
Na Androidzie naprawiono problem z pływającymi oknami.
Na Androidzie 15 wzwyż.
I minimalna wspierana wersja Androida to teraz 5.0.
Więc i tak można Team Talka na całkiem starych urządzeniach,
gdyby ktoś chciał zainstalować.
I na serwerze więcej zdarzeń jest rejestrowanych.
Tak że jeśli korzystacie z Team Talka, zwłaszcza na Macu,
Warto sobie tą aktualizację ściągnąć.
A propos Maca, to tutaj jeszcze na chwilę na Macu zostaniemy,
bo Rogamiba aktualizuje swoje aplikacje głównie przez kompatybilność z nowymi systemami.
Generalnie wszystkie aplikacje są już kompatybilne.
Natomiast przy okazji też zaktualizowali m.in. aplikację Fission.
Fission to jest ich prościutki edytor audio,
który pozwala np. na beztratne przycinanie plików mp3.
Trochę tak jak Lossless Code na Windowsie.
Na Macu też mamy kilka alternatyw,
m.in. właśnie Fijżyna.
I m.in. w wszystkich innych zmianach,
to są drobne zmiany związane z wyglądem aplikacji,
mamy drobną, ale całkiem istotną poprawkę dostępności.
A mianowicie, kiedy używamy klawiszy I oraz O,
żeby zaznaczyć początek i koniec zaznaczenia,
to VoiceOver będzie nas informował o tym,
co w danym momencie robimy.
Czyli to jest, wydaje mi się, całkiem istotna rzecz.
Skoro jesteśmy przy edytorach audio, to tutaj dorzucę jeszcze jedną rzecz,
o której nie napisałam w notatkach, ale przypomniała mi się.
Już było dzisiaj o reaperze i nowych wtyczkach, które na reapera powstają.
Ale sama Osara znów została zaktualizowana
i przyniosła taką jedną ciekawą zmianę,
mianowicie jeśli zaktualizujecie sobie Osarę
i pozwolicie jej na podmienienie waszego keymapa,
czyli układu klawiatury,
to zostało zmienione to, jak działają klawisze
równa się i minus, które przybliżają i oddalają widok.
To ma wpływ na to, o ile jest przesuwany kursor,
kiedy chodzimy po pliku z czołgami lewo-prawo.
Wcześniej to się zmieniało na podstawie pikseli
i działało to dosyć wolno.
Wtedy Osara nas informowała o tym, ile pikseli to jest jedna sekunda.
Natomiast teraz, kiedy sobie tę Osarę zaktualizujemy,
to te klawisze będą to przybliżanie zmieniać na podstawie wartości milisekund.
Więc ile milisekund, czy ile sekund ma nasz przesunąć czałka prawo w lewo.
I te wartości zaczynają się od 5 milisekund,
więc bardzo, bardzo mikroskopijnej wartości,
tam 0,005 sekundy.
I oddalając się, to wchodzimy na 10, 20, 50, 100, 200…
Nie pamiętam, jakie tam wartości pośrednie są.
Ale to są zamienione skróty z oryginalnymi, bo to oryginalne, aha.
Tak, po prostu zostały podmienione.
Rzadko, ale zdarzało mi się, i tego mi będzie trochę brakować,
przesuwanie się z dokładnością do sampla.
No to będzie się dało pewnie zmienić.
Natomiast też z tego, co wiem, zostało to zrobione tak,
że zostały tylko podmienione klawisze równa się i minus,
natomiast plus, minus numeryczny na kawaturze numerycznej
zostały zostawione w stanie oryginalnym właśnie do takiej sytuacji.
Więc też można to w ten sposób zrobić.
A też po prostu, jak ktoś tego nie chce,
no to można podczas instalacji powiedzieć nie na pytanie,
czy podmienić skróty, ewentualnie po prostu sobie ręcznie
z powrotem później te akcje z powrotem przypisać.
I na koniec wracamy trochę do narzędzi związanych ze sztuczną inteligencją.
Widzę, że temat dzisiaj się przewija.
Michał pokazywał kodeksa.
Było wcześniej o Cloud Codzie, a Google ma swoje narzędzie, które działa bardzo podobnie.
To jest też takie środowisko programistyczne, które możemy uruchomić z wiersza poleceń.
No i podobnie jak te narzędzia, które były opisywane, pozwala nam w tym przypadku,
używając Gemini, pracować nad kodem źródłowym, nad dużymi projektami.
Narzędzie nazywa się Gemini CLI, Gemini Myślnik CLI.
No i pozwala właśnie na podobne działania.
I jest to narzędzie, które, jak coraz więcej aplikacji,
które działają w wierszu poleceń, używa różnych dziwnych szczuczek,
żeby uprzyjemnić osobom widzącym wygląd tego narzędzia,
które działa w wierszu poleceń.
Ale ma jakieś animacje, kręcące się kółka,
które sygnalizują, że coś się ładuje,
jakiś kwadracik jest rysowany wokół kursora,
rzeczy, które są dziwnie czytane przez szytnik ekranu.
Dużo osób prosiło o to, żeby były opcje, żeby te rzeczy jakoś powyłączać.
Podobnie jak aplikacja GitHub na wiersz poleceń
niedawno dostała taką funkcję,
to podobne rzeczy zaczęły pojawiać się w Gemini CLI.
Mianowicie mamy nową flagę,
którą możemy podać na wiersz poleceń podczas uruchomienia aplikacji.
Można klik konfiguracyjny je wyedytować.
Mianowicie ta flaga to jest myślnik, myślnik, stren, reader,
no właśnie jak screen reader, i jeśli ją włączymy,
no to te różne animacje zostaną wyłączone
albo zastąpione bardziej dostępnymi wersjami.
Wiem, że to jest dopiero początek prac.
W sytuacjach, kiedy aplikacja nas prosi, żeby coś z listy wywalać,
wiem, że tam jeszcze są jakieś zmiany, których developerzy chcą dokonać.
Natomiast takie najważniejsze rzeczy już zostały naprawione
i możemy spodziewać się kolejnych zmian,
które dostępność tego narzędzia mają dalej poprawić.
Jeśli ktoś korzysta z tego i macie jeszcze jakieś uwagi,
to też tutaj deweloperzy zachęcają, żeby na GitHub-ie
ewentualnie jakieś błędy czy sugestie do nich zgłaszać.
No i to wszystko przynajmniej, jeśli chodzi o aplikacje.
A mnie dopiero teraz słychać.
Patrzę, czy coś nie przyszło na WhatsAppie,
ale chyba na WhatsAppie nic nie przyszło,
Więc w takim razie został nam jeszcze jeden pakiet newsów.
Czyli znowu od Ciebie, Piotrze, nowości w grach.
Tak jest, nowości w grach. W zeszłym tygodniu mnie nie było,
ale tutaj Patryk dużo informacji podał, za co bardzo mu dziękuję zresztą.
Dzisiaj będziemy trochę kontynuować jedną rzecz uzupełnię,
a też parę innych drobnych rzeczy, które się pojawiło w międzyczasie wspomnę.
Mianowicie na przykład na platformie Marvel Realm pojawiła się nowa gra.
Gra nazywa się Zero Stealth. Gra, która zresztą była zapowiedziana.
Jest to gra, która w pewnym sensie buduje na tym,
co już udało się w tym silniku, tym deweloperom, osiągnąć,
bo jest to kolejna strzelanka.
Natomiast jest to bardzo dynamiczna strzelanka,
której wszystkie rozbudowane możliwości tego silnika,
w tym rozbudowane fizyka, jakieś rozbudowane tworzenie budynków,
są wykorzystane, żeby stworzyć nam bardzo dynamiczną grę,
w której wcielamy się w agenta, który musi wykonywać różne misje.
Przejmowanie budynków, niszczenie jej konkretnych celi.
I generalnie te misje stają się coraz bardziej trudniejsze.
I jak to możemy robić?
Po prostu możemy się poruszać, możemy zbierać różne bronie.
Ale na przykład też mamy plecak odrzutowy,
którym możemy skoczyć na dach jakiegoś budynku
i po prostu z tego dachu ewentualnie
…próbować do wrogów strzelać.
No i podobnie jak w innych grach od tego dewelopera,
no to też mamy różne bronie do dyspozycji.
Będą nas też oprócz ludzi atakować już jakieś śmigłowce oraz samochody.
Więc dużo generalnie się dzieje.
Ale oprócz tego mamy do dyspozycji bosaka,
którym możemy się przyczepiać do różnych rzeczy.
Np. jeśli jedzie jakiś samochód, możemy wyrzucić haki
i po prostu podciągnąć się na ten samochód.
Często możemy wtedy zdjąć jakąś osobę, która do nas z tego samochodu strzela
albo przejąć jej broń.
Na niektórych dachach są jakieś karawiny zamontowane.
Generalnie rozgrywka w tej grze jest całkiem rozbudowana
i ta gra jest całkiem dynamiczna.
Jest oferowana zarówno w ramach abonamentu Marvel Realm,
bo jest to usługa, która działa w ramach abonamentu,
natomiast podobnie jak gra Road to Sanctuary,
jest też oferowana w wieczystej licencji.
Jak ktoś nie chce płacić abonamentów, chcecie sobie tylko właśnie w tę grę konkretnie grać,
no to też po prostu można sobie kupić tylko na tą jedną grę licencję,
która nam nigdy nie wygaśnie, przynajmniej dopóki platforma Marvel Realm istnieje.
To jest Zero Self, ale zostajemy w pewnym sensie w takich klimatach okołowojennych,
bo kolejna gra, która się pojawiła tym razem na platformie Steam,
To gra z serii tak zwanych wizualnych noweli,
czyli gier, które generalnie czytamy
i tutaj jakiś czas podejmujemy różne decyzje.
Gra oparta na prawdziwych historiach, na faktach.
Nazywa się Survive, Resist, Collaborate.
I jest to gra, która toczy się
w ogłupowanej przez nazistów Holandii
podczas II wojny światowej.
I wcielamy się w młodego chłopca, który chyba na początku gry ma 11 lat.
I po prostu musimy odpowiednio decyzję podejmować, żeby przetrwać.
Jak przetrwamy? No to już od nas zależy, jak można się właśnie domyślić z nazwy,
czy po prostu chcemy przetrwać, czy będziemy walczyć w jakimś ruchu oporu,
czy po prostu będziemy współpracować.
I decyzje, które podejmiemy na początku gry będą miały wpływ na dalszą rozgrywkę,
która będzie nawet rozciągać się do okresu powojennego.
Gra generalnie jest dostępna tylko w języku angielskim,
natomiast wspiera czytniki ekranu i możemy skonfigurować grę tak,
żeby albo dialogi były czytane przez lektorów,
lub były czytane przez czytniki ekranu.
No i co do tym idzie, moglibyśmy sobie ewentualnie wtedy
przepuścić tekst z gry np. przez jakiś dodatek
to jakiegoś dodatku, który nam tę grę przetłumaczy.
Natomiast ciekawe, jeśli chodzi o głosy,
które zostały podłożone pod postacie,
to w opisie producent chwali się tym,
że głosy zostały zrobione przez prawdziwych aktorów.
Natomiast jeśli poczytamy dalej,
bo Steam też wymaga, żeby deweloperzy mówili o tym,
jeśli jakaś sztuczna inteligencja była wykorzystana do tworzenia gier,
Mamy informację, że po pierwsze gramatyka była dziś drobnie poprawiona przez AI,
ale fabuła była napisana przez ludzi,
ale wszystkie głosy zostały zrobione przez sztuczną inteligencję.
Tak że jak ktoś tego nie lubi, to zwracam uwagę,
że akurat taki zabieg w tej grze został zastosowany.
Natomiast sama fabuła, jeśli lubicie takie, trzeba powiedzieć sobie,
dosyć ciężkie klimaty, to jest jak najbardziej bardzo ciekawa.
Gra generalnie kosztuje 27,50 zł na Steamie, ale w tym momencie przez najbliższe kilka dni jest dostępna w 10-procentowej zniszcze i można ją dostać za około złotych 25-24,70 zł.
Oczywiście będzie do tego link, ale gdyby ktoś chciał coś znacznie lżejszego, no to polecam np. RPG AsmarQuest, o którym mówimy co jakiś czas.
Teraz natomiast mówiliśmy o nim w kontekście gry mobilnej,
bo generalnie Asmart Quest był grą mobilną,
dostępną zarówno na iOS-a i Androida.
Jest to gra z rozbudowaną fabułą, w której możemy sobie stworzyć postać,
która może mieć różne klasy, różne umiejętności
i po prostu pokonywać kolejne walki
w takim klasycznym turowym systemie RPG.
Chociaż co ciekawe, też mamy w tej grze tryb wieloosobowy,
gdzie możemy wspólnie ze znajomymi różne luchy sobie przechodzić.
Developer od jakiegoś czasu pracował nad komputerową wersją tej gry
i ta wersja komputerowa właśnie w zeszłym tygodniu się pojawiła.
Natomiast w przeciwieństwie do wersji mobilnej,
która jest darmowa, to mamy jakieś płatności w aplikacji,
Wersja na Steama jest płatna i kosztuje w tym momencie około 41 zł.
A normalnie kosztuje 1,46 zł.
Tutaj też mamy taką dziesięcioprocentową zniżkę na start gry.
Gra generalnie jest bardzo fajna.
Sama z czytnikami ekranu jest to strona internetowa,
więc czytana jest bardzo fajnie.
I mamy też skróty klawiszowe, które pozwalają nam na przykład szybko podejrzeć status,
Wszystkich wrogów, przeciwko którym walczymy,
to jest bodajże skróty od Jeren do F4,
a też cyframi od Jerenu do 4 możemy szybko
umiejętności naszej postaci uaktywnić.
Więc można też grać całkiem szybko.
A autor też planuje dodanie kolejnych skrótów,
bo cały czas na forum Audiogame stoczy się wątek,
co jeszcze by można było usprawnić,
więc pewnie jakieś kolejne aktualizacje się będą pojawiać.
Następnie gra Wrecking Ball, o tej grze mówił Patryk,
natomiast w momencie, kiedy on tutaj dzwonił,
to gra dopiero się pojawiła i nie było o niej za dużo informacji.
Ja teraz może powiem troszkę więcej.
Generalnie jest to bardzo prosta gra audio w klimatach halloweenowych,
w której po prostu musimy przetrwać jak najdłużej,
jednocześnie zabijając jak najwięcej potworów, które nas gonią.
Gonią nas jakieś takie zombie, jakieś takie stwory, nie wiem, co to jest.
Wydaje z siebie takie dosyć przerażające dźwięki.
Mamy kilka broni do wyboru, jakieś ostrzypło, jakieś karabiny.
Też na planszy będą pojawiać się różne przedmioty,
które pozwalają nam naszą postać ulepszać.
No i jeszcze jest generalnie gra z perspektywy pierwszej osoby.
Możemy naszą postać obracać.
A co za tym idzie, też mamy dźwięk binauralny,
który pomoże nam na planszy się odnaleźć tak,
żebyśmy właśnie w jakiegoś potwora nie wpadli.
No i a propos właśnie gier z dźwiękiem binauranym,
no to mówiłem jakieś czas temu o takiej wieloosobowej strzelance,
chociaż nie była to końca strzelanka, bo w klimatach średniowicznych,
mianowicie gra Blades of Glory, w której walczymy na właśnie miecze,
topory i tak dalej, natomiast wspominałem o tym,
że gra prawdopodobnie będzie z rynku się zwijać.
Przynajmniej tak zapowiedział autor, ale społeczność prosiła,
…żeby jednak gra pozostała na dłużej, no bo autor miał wrażenie, że generalnie oddźwięk od społeczności był dosyć negatywny.
Ale no, na tyle osób napisało, że jednak gra ma swoje plusy, z czym mogę się zresztą zgodzić.
No to tutaj autor też zmienił zdanie, no bo też problem był taki, że w tym momencie nie miał czasu na jakiś bardzo intensywny rozwój.
Natomiast jednak po prostu postanowił, że gra zostanie.
I nie dość, że zostanie, to nawet oczekała się drobnej aktualizacji, która troszkę poprawia balans gry,
czyli takie rzeczy, na które ludzie narzekali najbardziej.
I może, mimo to, na ten moment nie będzie jakichś dużych aktualizacji,
przez to, że autor zaczyna naukę,
to są plany, żeby gra cały czas, może trochę wolniej,
ale jednak cały czas będzie rozwijana.
Tak że jeśli jeszcze nie sprawdzaliście,
o bardzo ciekawe klimaty, unikalny pomysł na grę wieloosobową,
to polecam przynajmniej sobie ściągnąć i przetestować.
I na koniec wiadomości o grach.
Informacja może nie tyle o grach, co o aplikacji, a konkretnie o Steamie,
który, tak jak wspominałem na początku,
cały czas ostatnio doczekuje się kolejnych aktualizacji,
jeśli chodzi o dostępność.
Ostatnio duże aktualizacje dotyczyły trybu Big Picture,
czyli tego trybu zoptymalizowanego bardziej pod kontrolery.
Cały czas firma Valve rekomenduje, żeby z tego trybu korzystać.
to są aktywizacje, które są dostępne w wersji beta tego klienta,
czyli aplikacji Steam właściwie.
Natomiast nawet w wersji stabilnej, teraz we wrześniu,
pojawiło się kilka zmian dostępności z interfejsem tradycyjnym.
Mianowicie został dodany tryb wysokokontrastowy,
redukcja ruchu oraz kontrolki rozmiaru tekstu
I te kontrolki są dostępne też nawet w tym pełnym interfejsie,
właśnie nie big picture.
I też mamy informację, że zostały dodane anotacje
do wielu komponentów interfejsu,
czyli po prostu atrybuty aria zostały dodane.
Więc jeśli coś jest z przyciskiem, to będzie czytane jako przycisk.
Jeśli coś jest z polem wyboru,
to będzie czytane jako pole wyboru i tak dalej.
Generalnie ten interfejs po prostu będzie przez szczytniki ekranu
Czytany, dużo lepiej, co myślę, że wiele osób ucieszy.
Wiem, że obiecałem, że z nimi będzie podcast i postaram się, żeby za jakiś czas ta audycja się odbyła.
No to też myślę, że będziemy w stanie Wam jeszcze wytłumaczyć dokładnie, jak z tej aplikacji korzystać.
No i to wszystko, jeśli chodzi o grę.
W takim razie przechodzimy do technikaliów.
I tu może najpierw taki news, o którym trochę zapomniałem i dodałem go już w czasie audycji w zasadzie.
I dotyczy on targów IFA i IFA 2025, które się niedawno odbyły.
I tam były pokazywane różnego rodzaju sprzęty AGD.
W dużej części, znaczy nie wiem czy w dużej części, ale na pewno w jakiejś części
to były smart AGD, typu odkurzacze, roboty sprzątające i tak dalej.
Dlaczego o tym mówię? Dlatego, że pojawiło się tam kilka właśnie robotów sprzątających,
które są dosyć moim zdaniem ciekawe, jeżeli oczywiście wejdą do Polski.
Zobaczymy, które wejdą, czy wejdą i tak dalej, ale warto gdzieś tam moim zdaniem
Dlatego, że po pierwsze na tych targach pojawiły się odkurzacze, które teoretycznie wcześniej już były dostępne w sprzedaży, tylko że nie w Polsce, głównie w Singapurze, nie wiem czy nie w Korei jakiejś południowej, w Chinach, w krajach raczej nieeuropejskich.
I to były roboty sprzątające, które, znaczy sprzątająco-mopujące,
które nie używały takiego systemu, jak jesteśmy przyzwyczajeni od kilku lat przynajmniej.
To znaczy, że pod robotem jest szmata, która się albo kręci, znaczy obraca się,
albo drga w jakiś sposób. No i co zbierze, to zbierze, co rozmarze, to rozmarze i trudno.
Tylko jest wałek.
Wałek pokryty na przykład jakimś materiałem,
który jest namaczany wodą czystą.
Potem ten wałek właśnie…
ta część wałka jeździ sobie po podłodze,
potem jest wyrzymana, znowu namaczana
i to się tak dzieje w kółko.
Czyli po podłodze teoretycznie jeździ
dość czysty kawałek wałka
Zawsze.
Więc no ta podłoga jest teoretycznie myta przez cały czas czystą wodą.
Dodatkowo zawsze w takich robotach sprzątających problemem było, problemem była
siła ssania tych odkurzaczy.
To się podaje w paskalach i to było kilka tysięcy tych paskali.
Taki standardowy odkurzacz to ma trzydzieści kilka.
No i teraz te najnowsze, najdroższe, te flagowe roboty, które mają ten wałek namaczany wodą,
no to oprócz tego wszystkiego mają dwadzieścia parę tysięcy tych paskali,
czyli prawie taką siłę stanie, jak mają standardowe odkurzacze.
I jest szansa, że te roboty będą na tyle dobrze sprzątać i to odkurzać plus mopować,
No, że nie będzie za bardzo trzeba po nich będzie poprawiać.
Roborok na przykład, oprócz tego, ma jakieś takie ramię, które się wysuwa
i to ramię może podnieść, nie wiem co dalej się z tym dzieje,
ale może podnieść jakieś takie większe elementy, których sprzątać nie bardzo należy
albo nie bardzo jest jak, czyli na przykład buty, albo jakiś papier większy.
Czyli odkurzacz podnosi sobie coś, jeździ sobie tam, gdzie to coś było i odkurza i nie wiem, być może to potem odkłada.
Nie wiem, jak to dokładnie wygląda. Nie wiem, jak to działa. No, brzmi to ciekawie w każdym razie.
Roboty mają też coś takiego teraz. Zbiornik, jak zbiornik na wodę, zresztą tu miały coś wcześniej, zbiornik wody brudną, zbiornik wody czystej.
Te zbiorniki są nieraz dużo mniejsze niż były wcześniej,
ponieważ założenie jest takie, że robot dojeżdża sobie do stacji dokującej,
gdzie wymienia sobie wodę.
Nabiera sobie czystej wody, która natomiast jest podgrzana
do 40 stopni, 50, w zależności od robota.
Czyli nie tylko, że myje wałkiem z wodą, ale myje wałkiem z ciepłą wodą.
Jakby tego było mało, jak ten robot skończy odkurzać,
to te jego wałki, tudzież wałek, są myte często wrzątkiem.
Wodą 100 stopni.
Więc te wałki potrafią być bardzo, bardzo już rzeczywiście
dobrze zadbane przez tę stację dokującą.
Nie wiadomo, czy i który z tych najnowszych i najlepszych robotów będzie dostępny w Polsce.
W jakim będzie cenie dostępnych w Polsce? No mówi się około 6-7 tysięcy złotych prawdopodobnie.
W niektórych krajach dostępne są jeszcze stacje dokujące, które normalnie podłącza się pod ujęcie wody.
Czyli my nawet nie musimy w takich przypadkach tej wody wymieniać, bo ona jest wymieniana sama.
Po prostu pobiera sobie wodę, no, tak jak każde inne, nie wiem, każda inna, każdy inny sprzęt.
I jest spora szansa, że tych akurat stacji w Polsce nie będzie.
Ale być może właśnie będą to odkurzacze z tymi ulepszonymi wałkami.
Niektóre też odkurzacze zamiast wałków mają zopisywane jako taśmociąg.
Czyli też taką szmatkę, tylko że ona jest zaczepiona na właśnie dwóch takich wałkach.
Te wałki się obracają i dzięki temu jest większa powierzchnia tej szmatki,
która przemywa podłogę.
Więc jest rzeczywiście możliwość, że te roboty sprzątające będą dużo lepiej
radziły sobie z różnego rodzaju zabrudzeniami,
jakimiś, nie wiem, artykułami, które są rozsypane.
Ciągle są ulepszone kwestie
na przykład zbierania włosów,
plątania się włosów wokół tych szczotek.
Tam są różne też systemy, które mają się tego pozbywać,
które działają lepiej lub gorzej.
I no, po prostu warto trzymać rękę na pulsie,
Jeżeli ktoś by chciał sobie wymielić takiego robota albo kupić, bo do tej pory nie miał,
no to być może w Polsce niedługo będziemy mieli rzeczywiście takie roboty, których wcześniej nie było.
Tu się rzeczywiście dzieje dość dużo i tak jak np. standardowe odkurzacze, takie jak to kiedyś bywało.
Było duże coś, to duże coś podłączało się do prądu, była rura i się dym odkurzało.
No to w zasadzie od iluś lat to prawie się nie zmienia.
W pewnym momencie rzeczywiście, gdy weszły te europejskie normy zużycia prądu,
znaczy mocy w zasadzie, no to rzeczywiście ta moc tych odkurzaczy spadła.
Natomiast w zasadzie jakie one były 20 lat temu, takie są teraz.
Jakby tak z punktu widzenia takiego przeciętnego użytkownika,
znaczy nadal jest rura, nadal jest prąd.
Natomiast te roboty sprzątające rzeczywiście dość mocno się zmieniają.
I co ciekawe, to też pokazuje pewien trend.
Tak jak kiedyś się mówiło, że chińskie firmy to był taki synonim czegoś taniego,
marnej jakości i zasadniczo kilka poziomów niżej od produktów europejskich,
I to teraz, też gdzieś tarfię niedawno na jakiś artykuł,
w którym było opisywane, że jest duża szansa,
że produkty takich firm jak…
Teraz już, żebym nie przekręcił,
ale kilka firm takich rzeczywiście znanych w Europie,
które się kojarzą z takim sprzętem AGD dobrej jakości,
to tak naprawdę nie to, że jest tworzone w Chinach,
To jest tak naprawdę urządzenia chińskiej firmy,
które są licencjonowane naszymi europejskimi markami.
Tak naprawdę.
Więc i tak naprawdę większość teraz marek,
które pokazują te najciekawsze rozwiązania,
to są po prostu i zwyczajnie marki chińskie.
Także ten, podobno nawet Rumba teraz produkuje, są te rzeczy po prostu sygnowane marką Rumba, ale tak naprawdę to są projekty chińskich firm, w związku z powyższym robi się ciekawie na tym rynku.
No i cóż, jeżeli ktoś ma problem z tym, że np.
chińskie firmy mogą coś tam podsłuchiwać, podglądać czy cokolwiek innego,
to coraz trudniej będzie również w tych kwestiach związanych z AGD
obyć się bez tych firm na jakimś poziomie, bo to już nie tylko składane w Chinach,
ale cały projekt jest tak naprawdę chińskich firm i coraz mniejszy jest udział
firm europejskich, tych, które były jeszcze znane 10 lat temu z takiego porządnego sprzętu, który był po prostu, który miał swoją jakość, jak to się mówi.
Ja tylko dodam, że jeżeli chcecie też posłuchać o innych rzeczach związanych z targami IFA, no to w kolejce czeka do opublikowania audycja, którą w zeszłym tygodniu prowadziliśmy z Janem Gawlikiem.
Także Jan był na tych targach, też trochę różnych rzeczy oglądał.
Też właśnie między innymi to odkurzacze, ale też i inne sprzęty AGD.
No, tu w kwestii sprzętów AGD i ich dostępności dla nas to dobrych wieści nie miał.
Natomiast jeżeli chcecie posłuchać konkretów, to pewnie za parę dni.
Podejrzewam, że jak ta audycja okaże się na stronie, to kilka nagłówków wcześniej będzie już ta audycja o targach IFA.
Zapewne, tak?
No i to tyle, także…
No, nie wiem, czy da się to jakoś podsumować.
W każdym razie, no…
Odkurzacze pionowe tudzież, no bo to jest sprzątające,
się polecają.
Chińskie firmy pozamiatały.
Tak.
Dosłownie.
Tak.
Dobrze.
Piotrze, co jeszcze warto wiedzieć
o nowym sprzęcie Apple’a?
Tak, co warto wiedzieć?
Znalazłem bardzo ciekawy film na kanale Zolotech.
Swoją drogą, jeśli interesują was zmiany w wersjach beta,
może nie tyle z kąta dostępności, ale pozostałych kwestii,
to bardzo ten kanał polecam, bo tworzy to człowiek,
który wie o tym, że osoby niewidomego oglądają
i nawet jak opisuje nowe funkcje, to bardzo szczegółowo opisuje,
co robi, co jest na ekranie wyświetlane.
Ale też wyciąga takie bardzo ciekawe informacje,
o których niekoniecznie Apple od razu napisała.
Głównie z jego filmu, ale też z kilku innych źródeł
znalazłem kilka takich informacji, o które wydaje mi się
warto wspomnieć, odnoszące się do tego, o czym
w zeszłym tygodniu mówił Maciek, jeśli chodzi o
nowe urządzenia, które zostały przez firmę Apple
zapowiedziane i o rzeczach, które podczas konferencji
nie były powiedziane. Linki do tego filmu
do jeszcze jednego źródła będą w komentarzu.
Natomiast, co jeszcze właśnie warto o tych nowych sprzętach wiedzieć?
No, jeśli chodzi o iPhona 17, no to na przykład dowiedzieliśmy się,
że został on wyposażony w 8 GB pamięci RAM.
Do tej pory to chyba w 16 też było 8, teraz nie pamiętam,
wiem, że w 15 Pro to było chyba 6, a więc tutaj generalnie,
To się chyba względem szesnatki nie zmieniło,
natomiast w pozostałych nowych iPhone’ach, czyli w iPhone’ie R
oraz w iPhone’ie 17 Pro i Pro Max jest to już trochę więcej,
bo jest to gigabajtów 12,
więc tyle samo, ile np. w nowych pikselach, które się pojawiły.
Nawet Apple, które słynęło z tego,
że nie dorzucało jakoś dużo RAMu do swoich urządzeń,
to przez sztuczną inteligencję chyba też zmienili zdanie
i teraz tego RAM-u też zaczęli dokładać,
co pewnie przełożycie na to, że system będzie działał jeszcze płynniej.
Natomiast jeśli chodzi o iPhone’a R, tutaj napisałem 17R,
bo przez jakiś czas Apple chyba chciało go tak nazwać,
ale skończyło się na tym, że to jest iPhone R, po prostu, bez 17.
Czy warto po ten telefon ciągnąć, jeśli jesteśmy osobą niewidomą?
Ja bym powiedział, że w sumie tak jak dla osób widzących zresztą,
warto, ale tylko jeśli bardzo, ale to bardzo wam zależy,
na tym, żeby ten telefon był jak najbardziej cienki.
No bo owszem, pewnie 5 mm grubości, tam chyba 5,5,
pewnie robi wrażenie, na pewno w przypadku iPadów zrobiło na mnie wrażenie,
ale trochę kompromisów na tym urządzeniu przez tą grubość mamy.
No o mniejszej baterii to już wspominaliśmy i w wiele portali będzie wspominało.
Procesor akurat nie jest kompromisem, bo tutaj mamy najnowszy, topowy procesor A19 Pro, czyli ten sam, który też jest np. w iPhonie 17 Pro i Pro Max.
iPhone 17 zwykły ma jednostkę z poprzedniego roku, czyli procesor A18 Pro.
Natomiast czego ten iPhone Air nie ma?
Na przykład wróciliśmy do głośników mono.
Bo iPhone Air jest wyposażony tylko w jeden głośnik,
który znajduje się na górze urządzenia,
czyli tam, gdzie mamy słuchawkę, a nie na dole.
Nawet jeśli stereo w smartfonach
to średnio z reguły jest słyszalne,
chyba że trzymamy go blisko w odpowiedniej orientacji,
to to na pewno skutkowało tym, że ten telefon był głośniejszy.
co myślę, że dla nas może być czasami przydatne,
jeśli pracujemy w dużym hałasie,
tak jak jesteśmy w jakimś głośnym miejscu.
No to ten iPhone Air, przez to, że tutaj będzie tylko jeden głośnik,
no to pewnie będzie dla nas cichszy,
co pewnie będzie dla wielu osób miało znaczenie.
Mamy też mniej mikrofonów.
Nie wiem, czy to jest jeden mikrofon czy dwa.
Chyba będą dwa, natomiast tak jak na iPhonach 16,
oczywiście 17 Pro, Pro Max,
to te mikrofony pozwalają nawet na nagrywanie dźwięku przestrzennego,
co też w iOSie 26 zostało udostępnione deweloperom.
W przypadku iPhona Air nie mamy pełnego zestawu mikrofonów,
tylko mamy mikrofony…
Zostaje przy tym, że to będą mikrofony dwa.
Ciekawe, jak się to odbije na…
I te mikrofony, to też nie dodałem, będą oba rozmieszczone
na dolnej części telefonu.
Więc to też pewnie będzie miało wpływ na wydajność mikrofonów,
jeśli chodzi o redukcję szumów podczas rozmów.
I ciekawe też, jak to się przełoży na nagrywanie wideo.
Czy będzie stereo na tym iPhone’ie wspierane?
Jeśli tak, to jak to będzie wzięło w porównaniu do innej iPhone’ów?
W stereo na iPhone’ach zawsze brzmiało specyficznie.
A jeśli nie, to jak nas będzie słychać przy okazji rozmów?
Na pewno system po prostu nie będzie w stanie zbierać tyle dźwięku,
co na innych iPhone’ach, co potem może się przełożyć
właśnie nie tylko na jakość nagrań,
ale właśnie też, jak dobrze będziemy np. słyszali podczas rozmów.
Ładuje się też trochę wolniej, beztrzebowo,
bo tylko do 20 watów.
W furmaju modela Pro to nawet po kablu potrafią się ładować do 35,
co jak na iPhone’ie to jest naprawdę dużo.
I iPhone Air oraz iPhone 11 też, ich porty USB są ograniczone do prędkości USB 2.
Modele Pro to już jest USB 3, więc te transfery danych będą trochę wolniejsze.
Mamy też tylko jeden aparat,
czyli wielu tych bardziej rozbudowanych funkcji aparatu nie mamy.
To dla nas pewnie będzie miało mniejsze znaczenie.
Oczywiście też nie mamy funkcji LiDAR, ale to też wydaje mi się całkiem oczywiste.
Natomiast jeszcze wracając do modelu 17 Pro,
no to tutaj na przykład też mamy Bluetooth 6,
który może w przyszłości nam poprawić jakość połączeń Bluetooth,
pewnie z czasem, kiedy urządzenia korzystające z Bluetootha 6 się pojawią.
Mamy też Wi-Fi 7, ale nie we wszystkich pasmach,
ale w podstawowej wersji Wi-Fi 7 też ma być wspierane.
I co ciekawe, mamy nową funkcję dostępności,
która jest potwierdzona dla modelów Pro.
Ciekawe, czy też dla innych modelów z serii Sieren.
Właśnie tutaj Aeron nie dostał się do takich informacji.
Natomiast jeśli chodzi o ustawienie dostępności wyświetlacz,
to mamy opcję wyłączenia sterowania jasnością tego wyświetlacza
poprzez funkcję PWM.
Jak to prosto wytłumaczyć generalnie, żeby zmienić jasność wyświetlacza?
Działa to w ten sposób, że zasilanie jest szybko wyłączane i włączane.
Jak ktoś… Jeśli wiecie mniej więcej, jak działają na przykład dimmery do świateł,
które często powodują, że czasami to światło po prostu zaczyna bardzo szybko,
ale jednak mrugać. I to jesteśmy w stanie zauważyć, nawet usłyszeć czasami.
W przypadku wyświetlacza iPhona to tego nie usłyszymy, ale generalnie można,
jeśli się na tym skupimy, zobaczyć, że ten wyświetlacz bardzo, bardzo szybko,
I to okazuje się powoduje dla niektórych osób dyskomfort.
Jak ktoś jest wrażliwy na takie migotające światło,
to to, jak na iPhone’ach jest regulowana jasność,
mogło mieć negatywny na nas wpływ.
Jeśli tę opcję wyłączymy na tych nowych iPhone’ach,
to będzie wykorzystywana jakaś alternatywna metoda,
która już nie będzie powodowała, że ten wyświetlacz będzie mrugał.
Apple wtedy informuje, że wydajność wyświetlacza
wyświetlacza na niskich poziomach jasności może być nieco gorsza,
ale jeśli ktoś ma z tym problemy, jest wrażliwy na mrugający obraz,
to może nam to faktycznie pomóc.
Miejmy nadzieję, że to nie będzie ograniczone do modeli pro-iPhone’ów.
Jeśli jeszcze chodzi o iPhone’a pro, to też co ciekawe,
Apple wróciło do konstrukcji aluminiowych.
Wcześniej, w przypadku iPhone’a 15 i 16 Pro, był to tytan.
Tym razem tytan został zarezerwowany tylko dla iPhone’a R,
a w przypadku modeli Pro wróciliśmy do ramek aluminiowych,
co pewnie będzie miało leki, ale jednak wpływ na wagę urządzenia.
Zegarki, no tutaj krótko.
Mamy rozbudowane funkcje zdrowotne,
więc tutaj jak najbardziej są to zmiany na plus.
Natomiast co ciekawe, jeśli chodzi o procesor,
jaki w tych zegarkach został zastosowany,
w zegarkach z serii 11,
no to jest to cały czas procesor S10,
więc ten sam, który był używany w zegarkach z serii 10,
stąd nazwa tego procesora.
Podobnie zresztą w Watchu Ultra 3,
on też właśnie został, ten sam procesor, wyposażony.
I to też taka ciekawa rzecz,
na którą kilka pytali i zwróciło uwagę.
Na stronie Apple mamy informację,
że Apple Watch 11 ma dłuższy czas działania na baterii,
…bo zwiększył się niby z 18 godzin do 24.
Okazało się, że ma to miejsce nie tyle przez to, że bateria została jakoś bardzo zwiększona,
bo została zwiększona o jakieś może 10%.
Natomiast zmieniła się po prostu metodologia Apple’a,
która teraz bardziej przypomina to, jak ludzie korzystają tak naprawdę z watcha,
bo w działania tego zegarka zostało doliczone kilka godzin śledzenia snu,
co pewnie zużywa trochę mniej baterii.
I w ten sposób Apple’owi udało się dojść z 18 godzin
W praktyce pewnie będziemy właśnie w stanie przez takie używanie zegarka wyciągnąć z niego 24 godziny,
ale w porównaniu do poprzednich modeli Apple Watcha, to ta bateria nie jest jakoś dużo większa,
ale też na szczęście nie jest dużo gorsza.
Następnie AirPodsy nowe i tutaj też kilka takich informacji.
Precyzyjne lokalizowanie, które zostało dodane generalnie, no od jakiegoś czasu mamy funkcję
odnajdywanie AirPodsów poprzez czipy Ultra Wideband,
które trochę tak jak z AirTagami, jeśli mamy nowego iPhona,
pozwalają naszemu telefonowi precyzyjnie nakierować nas na to,
gdzie nasze etui ze słuchawkami jest.
Albo uchwaliło się tym, że w AirPods Pro 3
zasięg tej funkcji będzie zwiększony.
I owszem, ale tylko jeśli mamy iPhone’a 17.
Tam też ten czip chyba został zaktualizowany,
Więc nikt nie wie, dlaczego to akurat tylko z tymi modelami działa, ale po prostu tak jest.
W przypadku starszych modeli to cały czas te funkcje będą działały do tej pory,
ale po prostu będziemy musieli trochę się do naszych słuchawek zbliżyć,
żeby to precyzyjne lokalizowanie włączyć.
Natomiast to ciekawe też przez to, że tam jakiś nowy czip został właśnie w tym etui zastosowany,
to minimalnie zmniejszyła się bateria w samym etui.
Mamy taką ciekawą sytuację,
że działanie samych słuchawek zostało zwiększone o kilka godzin.
Po wyciągnięciu ich z etui
będziemy mogli na nich słuchać o kilka godzin dłużej.
Generalnie te słuchawki,
jeśli chodzi o aktywną redukcję szumu,
tutaj mamy znaczącą poprawę.
To śledzenie, monitorowanie tętna ponoć działa zaskakująco dobrze.
Pierwsze recenzje zaczęły się pojawiać.
Tutaj mamy fenomenalną poprawę.
No to bateria w E3 została minimalnie, ale jednak zmniejszona.
O ile? Około dwie godziny.
Tak jak wcześniej E3 nam było w stanie dać do 24 godzin,
w sumie tam kilku naładowań,
no to teraz jest nam w stanie dać godziny 22.
Więc jest trochę mniej, ale generalnie ogólnie te nowe słuchawki
wychodzą zdecydowanie na plus, jeśli chodzi o pozostałe nowości,
które zostały dodane, które są znaczące.
Natomiast jedną z tych nowości,
która zresztą też pojawi się w starszych modelach Airpodsów.
W Europie nie uświadczymy, przynajmniej na początku,
a mianowicie są to funkcje tłumaczące, które z jakiegoś powodu,
pewnie regulacyjne kwestie, ale Apple na razie nic oficjalnie nie mówi,
po prostu rynek Unii Europejskiej przynajmniej na start pominął.
Także nie zdziwcie się, jeśli szukacie tych funkcji tłumaczenia,
które zostały dodane. One też niestety nie wspierają polskiego,
Ale nawet jeśli chcieliście z nich skorzystać w innych językach, no to na razie tego nie zrobicie.
Jeśli albo fizycznie jesteśmy w Unii lub mamy konto Apple, które też w domyślnej regionie ma ustawiony na jeden z krajów właśnie w Unii Europejskiej.
A także kilka tutaj też takich właśnie różnych drobnych ciekawostek, jeśli chodzi o te nowe sprzęty Apple, które się pojawiły.
Teraz mój news dotyczący RegioJets.
Pociągów RegioJets, które wjeżdżają na polskie tory już od jutra.
Będą kursować na razie na trasie Kraków-Warszawa, Warszawa-Kraków.
Z Krakowa wyjeżdżają jakoś parę minut po ósmej.
Jadą trzy godziny z kawałkiem do Warszawy.
I z Warszawy wyjeżdżają też coś po 14.
I też chyba 3,5 godziny, czy nie, niecałe 3,5 godziny, 3 minuty i trochę są w Krakowie.
I teraz pociągi RegioJet, czyli zupełnie spółka nie związana w żaden sposób z Intercity.
W Intercity i w ogóle PKP zdaje się podkładać im wszelkie przeszkody
Przeszkody na każdy możliwy sposób, np. w żadnej aplikacji, chyba rozkładu jazdy, tych pociągów wypisanych nie ma.
Na razie na stronie jest napisane, że można kupić głównie przez ich stronę albo appkę.
Pobrałem appkę na Androida, wydaje się dostępna, chociaż nie kupiłem jeszcze biletu, ale kusi, bo ceny są dosyć ciekawe.
Sprawdziłem sobie ceny na poniedziałek najbliższy, 22 sierpnia.
Można wybierać ulgi ustawowe i teraz, co ciekawe, są tam trzy drugie klasy.
Spróbuję patrzeć, jak mu wygląda od 58 zł.
Oto ciekawe, bo wcześniej mi pokazywało od 30 zł, teraz od…
Aha, wiem co. Dlatego, że chyba dodałem dwie osoby, a nie jedną.
W każdym razie, są trzy…
Aha, tak, bo mam wybrany…
Dobrze, w takim razie usunę sobie dorosłego.
Usunąłem dorosłego i teraz będę mógł
sprawdzić dopiero ceny. Tak faktycznie.
Wygląda to tak.
Już moment.
Odjazd 22 września.
Sprawdziłem. Dobrze.
I szukaj. Na razie ta aplikacja jest dość prosta
i dość mało tutaj jest rzeczy.
Co ciekawe, ten pociąg jeździ w ogóle przez Zawiercie do Krakowa, więc tu znowu prawdopodobnie jakieś przeszkody przez PKP, PLK, czy nie wiem, tak mi się wydaje.
Aha, 14.44. Bardzo łatwa godzina do zapamiętania. I teraz osoba niewidoma jedzie od 19 złotych.
Więc, no, podejrzewam, że jeżeli te pociągi staną się bardziej popularne, to ta cena stanie się trochę mniej pewnie atrakcyjna, ale zapewne w związku z tym, że to są dopiero początki, no to te ceny są naprawdę atrakcyjne.
No 20 złotych, Warszawa, Kraków, to brzmi dobrze.
I teraz, dlaczego od 19 złotych?
Dlatego, że jak się rzekło, tu są trzy klasy drugie, jedna klasa biznes.
I na szczęście to wszystko jest opisane.
I teraz tak, low cost, druga klasa oczywiście.
Podróż najtaniej w przedziale lub w wagonie bezprzedziałowym.
I tu jest jeszcze więcej informacji.
Wolne miejsca 235, OK.
I co tu jest jeszcze napisane?
Podczas podróży można w prosty sposób zamawiać napoje i przekąski za pomocą aplikacji mobile.
Albo orzeźwić się darmową wodą rajec.
Bez gniazdka, darmowa woda, online zamawiany przekąsek, wi-fi, klimatyzacja.
Opłata rezygnacyjna więcej niż 15 minut przed odjazdem po ciągu 0%.
Mniej niż 15 minut nie można anulować.
Teraz, standard druga klasa.
Przestrzenny wagon bezprzedziałowy Astra lub przedział sześciomiejscowy.
Bezpłatna markowa kawa Ili lub woda marki Rajec.
Specjalny przedział dla dzieci i to kosztuje 24 zł.
Więcej informacji można sobie rozwinąć. Wolne miejsca 146.
Klasa standard to wybór miejsca w otwartej przestrzeni przestronnego wagonu Astra lub w zamkniętym sześcioosobowym przedziale.
Bezpłatna kawa marki Ili i woda Rajec oraz oferta przekąsek w menu pokładowego w korzystnych cenach.
Fotele w pociągu Astra są wyposażone w ekrany z portalem rozrywkowym.
Pasażerowie z małymi dziećmi z pewnością docenią specjalne przedziały dla dzieci,
przeznaczone za zabawy i rozrywki. No dobrze.
I tutaj mamy online zamawiający przekąsek, oczywiście darmowa woda.
Steward slash stewardessa, cokolwiek to znaczy.
Bezpłatny gorący napój, gniazdko, ekran dotykowy,
klimatyzacja, wi-fi, napoje i przekąski,
system rozrywki pokładowej.
Ciekawe, co tym ekranem dotykowym się robi.
Opłata rezygnacyjna.
I tak samo więcej niż 15 minut.
0% mniej niż 15 minut.
Nie można anulować przejazdu.
I jest jeszcze druga klasa.
Relax.
Przestrzenny wagon
ze skórzanymi fotelami,
bezpłatna markowa kawa
i woda marki Rajec.
do dyspozycji porta rozrywki, wi-fi
i to kosztuje
28 złotych.
Najpopularniejsza telefonowość jest napisane.
Wolnych miejsc 85
w tej klasie.
Klasa Relax to czysty relaks.
Wybór miejsca w przestrzennym wagonie
z wygodnymi, skórzonymi fotelami,
portalem rozrywki, no to wszystko, co już było
Opiekał stewardów przez całą drogę i oczywiście kawa, woda, atrakcyjna cenowo oferta z naszej dodatkowej karty dań i ciekaw jestem, czy to oznacza, że te ceny są troszkę niższe, czy jest tylko inaczej skonstruowany ten wpis.
Obsługa w pierwszej kolejności jest dodatkowo, cokolwiek to znaczy.
Wi-Fi, gniazdko, opłata, dokładnie tak samo.
No i w końcu biznes, jedna klasa, znaczy pierwsza klasa.
Maximum komfortu, ponadstandardowe wyposażenie wagonów,
fotele skórzane w pierwsza miejscowo obsłudze,
przez personel pokładowy, kawa i woda.
I tu 69 złotych, czyli nie mamy tutaj zniżki.
Niemniej 69 złotych bez zniżki za pierwszą klasę to brzmi dobrze.
Od jednej osoby.
Od jednej osoby. I wolnych miejsc 14.
No i znowu oczywiście mamy opis, że Klasa Biznes to podróż z obsługą premium i w maksymalnym komforcie.
ponad standardowym posażeniem, starszymi fotelami, portalem rozrywkowym,
Wi-Fi i pierwszeństwo w obsłudze.
Znowu kawa, woda i za darmo jeszcze jest sok.
Tu jest jakiś nieistotny opis.
No i reszta jest w zasadzie ta sama. Jeszcze jest napisane
Przedział cichy. Nie wiem, czy dla wszystkich, czy można po prostu jechać jako opcja.
Tego nie wiem.
No i we wszystkich klasach, oprócz najtańszej, jest dostępne też gniazdko.
Nie wiem jeszcze, jak zamówić poczęstunek, dlatego że, żeby mieć dostęp do tej sekcji,
Muszę mieć wykupiony bilet w aplikacji, a tego jeszcze nie mam.
No i też jest napisane, że na razie jeżdżą według jakiegoś indywidualnego rozkładu jazdy.
Jest dłużej, ale od 14 grudnia mają jechać według standardowego rozkładu jazdy i wtedy ma być ten czas przejazdu krótszy.
I ma być też jeszcze w przyszłości, bo jakaś trasa między innymi do Poznania?
Tak, do Poznania, wydłużona trasa chyba z Krakowa do Gdyni.
Ciekawe, czy się w Iławie będzie zatrzymywać swoją drogą.
Zobaczymy. W każdym razie z bólem, bo z bólem, ale te tory są jakoś tam otwierane na innych przewoźników.
Podobno te wagony są całkiem spoko. Nie wiem, nie widziałem, bo ten przewoźnik już kursuje, zdaje się, w Czechach.
W każdym razie, brzmi to całkiem ciekawie.
I chyba mają też być jakieś kursy do Czech tymi pociągami.
Także, tak jak mówiłem, zamierzam się wybrać.
Chociażby po to, żeby przetestować.
I pewnie wybiorę sobie dwie skrajne klasy.
To znaczy raz pojadę tą pierwszą, a raz pojadę tą najtańszą drugą.
I zobaczymy, jaka będzie różnica.
Więc spróbuję znowu ten pociąg gdzieś tam przejść, zwiedzić i być może jakaś relacja na
Tyflopodcast, może Tyfloprzegląd się pojawi.
No i zobaczymy jak to będzie wyglądało.
A jeżeli ktoś chciałby samemu się przejechać, no to trzeba pobrać aplikację RegioJet
i chyba przez stronę też można kupować.
Domyślnie ceny są pokazywane w koronach czeskich, ale można sobie w ustawieniach
przemoczyć na polskie złote. Także taka ciekawostka.
To teraz znowu Piotr i Apple Music, w zasadzie przenosiny z czegoś do Apple Music,
bo ma być łatwiej.
Tak i to nawet już chyba jest na szczęście, bo od jakiegoś czasu Apple testowało narzędzie
…do przesyłania danych z innych serwisów. Najpierw od Spotify, ale teraz chyba też jakieś inne popularne streamingi są przez to narzędzie wspierane.
Każdy wie, jak to jest, jak się przenosimy właśnie z jednej usługi do drugiej. Generalnie, no niby większość muzyki jest, ale generalnie żeby te wszystkie playlisty poprzenosić, to zawsze jest z tym trochę ból głowy, o czym co jakiś czas zresztą mówimy.
Mieliśmy też swoje z tym przejścia.
No i tutaj Apple postanowiło nam pomóc.
Funkcja jest już bardzo szeroko dostępna w wielu krajach,
w tym właśnie u nas.
I po prostu pozwala nam różne nasze informacje,
czyli informacje o artystach, albumach, utworach, które polubiliśmy,
oraz playlistach, wyjątkiem playlistów wygenerowanych przez dane usługi,
Czyli tutaj jakieś algorytmiczne playlisty typu, nie wiem,
odkrywaj codziennie, że ten radar premier na Spotify
po prostu są z tego wyłączone,
bo Spotify po prostu nie pozwala na przenosiny tego typu rzeczy.
No, a wszystko inne po prostu możemy sobie poprzenosić.
Jak to się robi? Generalnie prosto.
Wszystko zależy od tego, z jakiego urządzenia korzystamy.
Natomiast generalnie np. na urządzeniu mobilnym
musimy wejść do ustawień,
następnie do podsekcji aplikacje.
Tam szukamy aplikacji muzyka.
Na urządzeniu z Androidem też po prostu przechodzimy do ustawień,
otwieramy aplikację Apple Music, wchodzimy do menu i więcej,
tam przechodzimy do ustawień.
Następnie tam po prostu znajdziemy polecenie
przenieść muzykę z innych usług.
I tam po prostu wybieramy
usługę z
listy wspieranych, logujemy
się do tej usługi.
Potem wybieramy, co chcemy dokładnie przenieść.
Naciskamy
dodaj do biblioteki.
I po prostu potem musimy
czekać, aż Apple Music
dopasuje utwory.
I wtedy generalnie dostajemy
jedną z dwóch komunikatów.
Jeśli wszystko zostanie znalezione lub niektóre utwory wymagają przejrzenia.
I to po prostu znaczy tyle, że niektóre piosenki nie mogły zostać automatycznie odpowiednio dopasowane.
W takich sytuacjach po prostu będziemy dostawać propozycje i po prostu musimy ręcznie przejrzeć,
które utwór nam pasuje bardziej. Może jakaś drobna różnica w tytule,
może jakaś drobna różnica w wersji, to po prostu musimy ręcznie wybrać,
który utwór nam w danym momencie pasuje najbardziej.
Ewentualnie po prostu dostajemy informację,
że jakiegoś utworu w katalogu Apple Music może po prostu nie być,
co sporadycznie też się może zdarzyć.
Podobnie możemy też zrobić z wersji przeglądarkowej.
W tym celu wchodzimy na music.apple.com,
logujemy się, klikamy na zdjęcie profilowe,
Po prostu będzie przycisk z naszym imieniem prawdopodobnie.
I w tym menu znajdziemy opcję Przenieść muzykę.
Potem postępujemy analogicznie.
Logujemy się do innej usługi, wybieramy, co chcemy przenieść,
klikamy tutaj do oglądarki.
I tutaj też dostaniemy jedno z dwóch komunikatów,
o których mówiłem przed chwilą.
Mamy właśnie, że Apple mówi o tym,
Myślę, że mogą być różnice między katalogiem na Apple Music
a katalogami firm konkurencyjnych.
Ale generalnie powinno nam znacznie zadanie,
jeśli chcemy się do Apple Music przenieść, ułatwić.
To zostańmy sobie… Ojej, już nie lepiej słychać.
Zostańmy sobie w muzycznych serwisach i tym razem nowości w Spotify.
Ktoś z nich już było tydzień temu, ale nie jestem pewien.
A jeśli coś było, to przepraszam, bo też akurat tydzień temu mnie nie było.
Natomiast tutaj, jakby ktoś chciał zostać w Spotify’u, to będzie szybko.
W końcu pojawiła się Beztratna. Jakoś na Spotify’u było to od dłuższego czasu zapowiadane.
No i ostatecznie to się stało. Co ciekawe, ta jakoś Beztratna jednak nie jest
dostępna za dopłatą, tylko po prostu jest częścią pakietu premium,
Więc nie musimy jednak nic dopłacać, żeby tego mieć dostęp.
Natomiast jeszcze w Polsce tego nie mamy.
Jest to dostępne w kilku krajach europejskich,
ale już pierwsi użytkownicy zaczęli dostawiać powiadomienia.
I samo Spotify zresztą też zapowiedziało,
że do końca października ta funkcja będzie już szerzej dostępna.
Także jeśli czekaliście na bezstratną jakość do Spotify,
no to już na szczęście nie będziecie musieli czekać długo.
A druga nowość dotyczy osób, które nie mają Spotify Premium.
Macie po prostu darmową wersję Spotify’a,
ale chcielibyście szukać konkretnych utworów,
co wcześniej chyba w wersji mobilnej nie było dostępne,
bo wtedy Spotify odtwarzał stację radiową,
stację automatycznie wygenerowaną na podstawie danego utworu.
No, teraz to się zmieniło,
bo okazuje się, że dużo osób przez to sobie szukało muzyki na YouTubie.
Może teraz nie będą. Taką nadzieję przynajmniej pewnie ma Spotify.
Bo po prostu pozwala nam w wersji darmowej
posłuchać sobie dowolnego utworu.
Albo poprzez wyszukiwanie, albo poprzez przyjrzenie profilu jakiegoś artysty.
Możemy na jakimś utworze kliknąć i on zostanie odtworzony.
Natomiast mamy ograniczenie, że kiedy utwór się skończy,
Spotify będzie automatycznie dolosowywać różne kolejne propozycje,
co by tam mogło lecieć dalej.
Ale myślę, że jeśli macie darmowego Spotify,
to pewnie ta nowość was ucieszy,
jeśli nie planujecie wykupywać abonamentów premium.
Czasem się tak mówi, otwórz Google’a.
No to na komputerze będzie można faktycznie otworzyć Google’a,
a niekoniecznie otworzyć przeglądarkę, nie wiem, Chrome.
Tak, no tutaj taka zaskakująca informacja jest dzisiaj,
no to świeżynka.
Google testuje aplikację pod systemem Windows,
która pewnie prędzej czy później doczeka się Gemini.
Na razie o tym nie piszą. Natomiast to jest ciekawy pomysł.
Jak to Google sam pisze, to jest eksperyment.
Niezależnie od tego, gdzie jesteśmy, jak to pisze Google,
będziemy mogli nacisnąć Altspacja.
Kurczę, czemu wszyscy się tego skrótnie uczepili?
No ale dobra, naciskamy Altspacja i wyświetli nam się okienko,
które pozwoli nam przeszukiwać oczywiście Internet,
no bo przecież jest to Google.
Ale oprócz tego będziemy szukać informacji w plikach,
które mamy na komputerze, po zainstalowanych programach,
więc będziecie widziały takie okno uruchomienia.
I oczywiście też pliki, oprócz plików lokalnych,
wszystkie pliki, jakie mamy na dysku Google.
No i oczywiście, tak jak wspominałem, też Internet.
No, całkiem ciekawy pomysł, zwłaszcza jeśli w przyszłości
będą dane jakieś inne funkcje typu wyszukiwanie głosowe.
Może jakiś Gemini.
Będzie też dodany obiektyw Google, natomiast to pewnie dla nas dostępne
niestety z czynnikiem ekranu nie będzie.
A szkoda, już też mamy funkcję AI.
Oczywiście też mam informację, że te funkcje w podglądu AI i dodatkowe pytania
też już są dostępne, więc jak ktoś na to czekał, to też jest.
Natomiast żeby to przetestować, musimy zapisać się do eksperymentu
w ramach Google Search Labs i nie umiem powiedzieć,
jak to będzie udostępniane, czy to jest coś, co w ogóle działa w Polsce, w Europie.
Ja próbowałem na ten link wchodzić i dostałem komunikat,
że na moim koncie funkcja Labs w ogóle nie jest dostępna.
Może u was będzie. Będzie link w komentarzu, gdybyście chcieli to przetestować.
Czy to będzie dostępne? Nie wiem.
Szkoda, że ten skrót taki jest niefortunny.
Nie wiem, czy będzie możliwość, żeby ten skrót zmienić.
Czy to będzie rozwijane szerzej? To jest eksperyment.
Natomiast eksperyment moim zdaniem całkiem ciekawy,
Zwłaszcza, jeśli ta aplikacja będzie dla nas dostępna.
Oczywiście, że tak. Ciekawe w ogóle, jaka to będzie technologia. Czy to będzie kolejny elektron?
Przypuszczam, że tak, że to będzie… jeżeli nie cała aplikacja, to duże jej części będą wykorzystywać właśnie chromium.
I to będzie taka, tak naprawdę, aplikacja z dużą ilością elementów webowych w swoim interfejsie.
Niektórzy na to narzekają, ale na całe szczęście jest to dla nas dostępne. Da się z tego korzystać.
To prawda. No i to ostatni temat, który mamy w notatkach, ale to nie ostatni temat, który się dzisiaj pojawi, bo została jeszcze prezentacja.
Tak jest.
I tak chyba rekordowy ten typu przegląd.
Wydłuży.
Jest pierwsza dwadzieścia cztery, pięć i pół godziny prawie, a prezentacja jest nielicha, jeżeli chodzi o długość.
Jest nielicha. Michał nam przysłał materiał, który ma około czterdziestu minut, więc wszystkich nocnych Marków jeszcze bardzo serdecznie zapraszamy na kontynuację tej naszej dzisiejszej audycji.
No słuchajcie, trzysetny Tyflo Przegląd, to zobowiązuje. Coś specjalnego mamy dla was.
Musi być.
Tak, musi być. Mieliśmy na początku, podsumowaliśmy sobie pierwszy odcinek, jak to się zmieniło.
A teraz pod koniec tej naszej dzisiejszej audycji będziemy mówić też o technologii, o której też wspominaliśmy w Tyflo Przeglądzie,
bo o Starlinku niejednokrotnie mówiliśmy, nawet wtedy jak to był jeszcze taki eksperyment,
Potem jak się to zaczęło pojawiać, jakie tam prędkości i tak dalej, i tak dalej, a tu się okazuje, że Starlink to niedługo, to może być technologia
naprawdę dostępna dla każdego. Już tak naprawdę teraz jest, bo ten abonament na dzisiejsze czasy to okej, to się wydaje dość drogi, bo to tam się płaci chyba koło 215 złotych,
czy coś koło tego miesięcznie, ale jak się podpisze umowę lojalnościową, to sprzęt dostaje się za darmo.
Teraz, jeżeli mamy ten Starlink w wersji takiej stacjonarnej, czyli w jednym punkcie, nie jeździmy z tym, to nie mamy limitów transferów, więc jeżeli ktoś na przykład ma kiepski internet mobilny, nie ma za bardzo szans na dobry zasięg tego internetu z powietrza, że o kablach nie wspomnę, to taki Starlink to dla niego staje się coraz lepszą opcją.
Tak, tak. Szczególnie, że tam i pingi nie są jakieś bardzo wysokie. No, takie kilkadziesiąt milisekund to są najniższe pingi, więc to porównując do tego, czym kiedyś był internet satelitarny, to rzeczywiście się zmienia.
Tak, to taki, powiedziałbym, może nie najlepszy, ale też wcale nie najgorszy internet mobilny.
Bardzo, bardzo mobilny z wysokiej chmury.
Tak. No dobrze, to żeby nie przedłużać.
Wjeżdża prezentacja Michała, my się żegnamy.
No i do usłyszenia, miejmy nadzieję, za tydzień.
Cześć, z tej strony Michał Molek.
Chciałbym opowiedzieć nieco o modemie satelitarnym Starlink.
Konkretnie będę opowiadał o Starlink Mini,
głównie o… właściwie wyłącznie praktycznie o kwestii hardware’owej.
W tym przypadku nie będę opowiadał o instalacji, konfiguracji itd.
Chodzi raczej o to, co napotkamy w paczce po tym, jak dostaniemy przesyłkę.
Starlinki, satelitarne Starlink, występują w dwóch wersjach.
Znaczy, przynajmniej w dwóch wersjach jest ich więcej,
ale takie bardzo podstawowe rozróżnienie to polega na Starlink Standard,
który to jest anteną do zastosowań stacjonarnych,
posiada silnik, który kieruje płaszczyzną kontaktującą się z satelitą
w celu namierzenia poruszających się po orbicie satelit w sposób automatyczny,
jeśli to tylko jest możliwe i nic nie zasłania tej satelity,
jakieś gałęzie drzewcze czy budynki. Natomiast Starlink Mini…
Przepraszam, jeszcze do Star League Standard mogę dodać,
że antena również posiada podgrzewanie,
które eliminuje zamrażający śnieg na urządzeniu.
Nie wiem, czy to tylko i wyłącznie ochrona silnika,
czy ogólnie dotyczy wszystkiego, czy ochrona silnika
przed tym, żeby się nie zaciął.
W każdym razie jest to urządzenie dość dużych rozmiarów zastosowania raczej stacjonarne.
Starlink Mini jest urządzeniem powiedzmy wycieczkowym, plecakowym.
W każdym razie, jeśli nawet używam go bardziej stacjonarnie,
to tak czy siak jest urządzeniem, które jest małe i w związku z tym nie wszystko w nim się mieści.
Nie mieści się w nim silnik, który kieruje urządzeniem.
Urządzenie to trzeba samemu sobie nastawić ręcznie na satelitę,
złapać sygnał i jak zaniknie szukać go ponownie.
Dlatego najlepiej działa na otwartej jednak przestrzeni,
bo trudno gdzieś tam celować w tę satelitę,
Szukając małego skrawka między gałęziami drzew.
Więc na otwartej przestrzeni…
Czasem słyszałem o tym, że wystarcza położenie na desce samochodu.
To też już podobno wystarcza.
Natomiast ja nie zamierzam tego używać bezpośrednio w samochodzie.
Z przyczyny oczywistych nie jestem kierowcą,
Więc tu raczej będą zastosowania takie na podwórku, na dworze,
gdzie można złapać kawałek czystego nieba, żeby łatwo było złapać ten sygnał,
a jednocześnie łatwo spakować do plecaka i w podróży także nie tylko na terenie kraju,
ale na terenie tych wszystkich krajów, na których występuje usługa,
Korzystać z internetu bez konieczności szukania operatora.
No, internetu mobilnego innego operatora telefonii komórkowej.
Dobrze, nie przedłużając. Zawartość opakowania to jest samo urządzenie.
Przedłużacz, to znaczy przewód. Przewód zakończony wtyczkami.
Dwie okrągłe wtyczki. Więcej o nich za chwilę. Te wtyczki są takie same.
To znaczy na obydwu końcach jest taki sam wtyk.
Jest też zasilacz na 230, no i ten zasilacz również posiada otwór na jedną z końcówek tego przewodu.
I jest jeszcze uchwyt na maszt, do której jest takiej budowy, że trzeba go zaczepić na wierzchołku masztu, na szczycie.
Nie można tego rodzaju uchwytu zaczepić.
Nie wiem, w połowie wysokości masztu.
To musi być na czubku rury, która jest masztem.
Dodatkowo można to kupić w sklepie starlinkowym
lub tam, gdzie są dostępne akcesoria starlinka.
Uchwyty na dach i na ścianę.
Niestety nie wiem, jak wyglądają.
Być może jeden z nich to właśnie ten, który jest dołączony do zestawu, ale pewności nie mam.
Po prostu występują takie uchwyty. Nie kupowałem, nie wiem.
W tym opakowaniu to jest wszystko. Mam więcej opakowań, ale to za chwilę.
Teraz tak. Tak naprawdę mamy do wyboru dwie.
Dwa uchwyty w zestawie, tylko że jeden jest już podpięty do urządzenia, a drugi w opakowaniu leży luźno.
Kiedy otworzymy opakowanie, dla ustalenia uwagi,
połóżmy to urządzenie w sposób taki,
żebym mógł przekazać tę wiedzę jakoś sensownie.
Więc tak, urządzenie składa się z powierzchni takiej płaskiej
niczym ekran, która… ale to nie jest ekran,
Tylko to jest płaszczyzna zbierająca sygnał satelitarny, odbierająca,
prawdopodobnie również wysyłająca, z tym, że przede wszystkim myślę,
że płaszczyzna jest konieczna raczej do odbierania, no bo do wysyłania chyba,
no chyba, że się mylę, ale myślę, że wystarczy jakiś punktowy,
punktowa antena nadająca. Natomiast płaszczyzna jest,
którą szukamy satelity.
Urządzenie jest dość płaskie,
około 4 cm grubości w najgrubszym punkcie.
Na brzegach jest nieco cieńsze,
nie wiem, półtora centymetra, może dwa.
Wymiarów oficjalnych nie pamiętam dokładnie.
W opakowaniu leży to urządzenie
do góry nogami poniekąd.
Na tej płaszczyźnie, która odbiera sygnał, czyli docelowo ma być skierowana do nieba,
my widzimy tył urządzenia po otwarciu opakowania.
I ten tył opakowania wygląda w ten sposób, że na środku jest najbardziej wypukły
i posiada charakterystyczny, wycięty trapez ta powierzchnia.
Ten trapez, no to są rodzaj szyn takich dla uchwytu,
ale sam trapez, jego dłuższa podstawa,
jest poniekąd jednym z krótszych boków prostokąta,
którym to prostokątem jest tył urządzenia.
Czyli mamy tył urządzenia, ustawiamy do siebie
jednym z krótszych boków, od siebie jednym z dłuższych i po lewej i po prawej
mamy dłuższe boki prostokąta. Urządzenie leży właśnie na tej przedniej płaszczyźnie,
która powinna być skierowana do nieba. W tej chwili jest skierowana do powierzchni stołu
i do nas kierujemy dłuższą podstawą trapezu, który jest tutaj wycięty.
No i ta podstawa jest tuż przy krawędzi urządzenia.
Stanowi po prostu jeden z krótszych boków urządzenia.
Górna podstawa trapeza jest w pobliżu środka urządzenia,
a dalej już jest urządzenie bardziej wypukłe
i stopniowo ku krawędzi jest pochylnia.
To już jest taki też trapez, ale taki wypukły.
Więc nas interesuje, aby od nas był ten wklęsły trapez.
I teraz tak. W górnej części tego trapezu jest uchwyt.
Stanowi jakby rączkę zamykaną. Zawiasy tej rączki są dalej od nas,
a od naszej strony możemy chwycić tą rączkę i podnieść.
Ona się otwiera bezzaszlaskowo, luźno chodzi.
Bardzo cicho się otwiera. Nie bezszelestnie, ale bardzo cicho.
To jest płynny zawias. I tyle.
Unosimy, zaczynając od naszej strony i unosimy w górę na te zawiasy,
które są od nas dalej nieco.
No i w tej chwili mamy rączkę, za którą możemy chwycić niczym walizkę,
Tylko ta walizka jak gdyby jest dość nietypowa, ponieważ uchwyt tej walizki jest jak gdyby na środku największej ściany tej walizki.
Więc mamy tą rączkę, możemy za nią umieść, ale również możemy po przywróceniu urządzenia na pozycję do pracy,
Czyli kierując do nieba tą płaszczyznę kontaktującą się z satelitą.
Możemy postawić na tej rączce. To może być nóżka.
Równie dobrze. Nie musi być rączka, chociaż jest otwór na palce,
za który możemy chwycić, ale również to może być nóżka urządzenia.
No i po to, żeby urządzenie mogło być pochyłe,
to stawiamy na tej nóżce i przechylamy w kierunku którejś z krawędzi.
Aby względem nieba mogło być urządzenie, pochyba ileś tam stopni, jakąś tam korzystną wartość.
Jeśli otworzymy tą rączkę, to ta rączka, kiedy była zamknięta, kryła trzy ważne elementy.
Dalej od nas, czyli tuż przy zawiasach tej rączki, podniesionej w górę już teraz, mamy dwa otwory.
Lewy z tych otworów jest otworem okrągłym i to jest otwór na przewód zasilający.
Prawy z tych otworów jest w tej chwili zaślepiony czymś, co wygląda jak klucz sprzętowy do USB.
To znaczy wielkością swoją może przypominać taki klucz. Ja spróbuję teraz to wyjąć.
Aby zademonstrować, że to stanowi pewną trudność, ale nie należy się tym zrażać,
ponieważ klucz, znaczy klucz, no ta zatyczka stanowi pewien opór.
A dlaczego? Dlatego, że na tej zatyczce jest gumowa opaska, która uszczelnia ten otwór
i tą zatyczkę, znaczy uszczelnia otwór przy pomocy tej zatyczki
I przy pomocy tej gumowej opaski, opasce na niej, przed wilgocią, przed wodą, deszczem.
Nie wiem, jak by tu miała dolecieć woda, ale dla bezpieczeństwa jest to zrobione.
To podobnie, żeby jednak minimalizować możliwość spalenia się tych gniazd.
Myślę, że byłoby dość trudne, aby to się zalało.
No niemniej jest taka opaska.
W tej chwili trzymałam w ręku tą satyczkę.
To jest rzeczywiście coś w wielkości klucza USB.
Tą gumową opaską.
A ten otwór, z którego to wyjąłem, jest już nieokrągły, tylko taki…
No to nie jest kwadratowy, ale już jest taki bardziej kanciasty.
Owal, no coś takiego.
Zakrąglone dwie końcówki, górna i dolna ścianka otworu, są proste.
No i ten otwór jest po prostu gniazdem na wtyczkę RJ-45 dla kabla sieciowego.
Domyślnie jest ta wtyczka zamknięta.
Podpinanie tego kabla to jest funkcja bardziej zaawansowana i mniej niezbędna do pracy tego urządzenia.
Można równie dobrze pasować na sieci Wi-Fi.
Kiedy byśmy chcieli podpiąć mniej kompatybilne routery do urządzenia,
wtedy wykorzystujemy przewodowe połączenia,
Aby uzyskać jakiś tam mesh, nieco dalej od urządzenia, bezprzewodowy mesh, ale najpierw musimy od urządzenia wtedy pociągnąć przewód sieciowy.
Jednak jeśli kupimy ten kompatybilny router mesh dla Starlink Mini, no to wtedy wystarczy sieć bezprzewodowa i w ogóle żaden kabel sieciowy RJ-45 nie będzie potrzebny.
Wkładam z powrotem tą zatyczkę.
I teraz tak. Kabel sieciowy na tej końcówce, na tej wtyczce RJ45 nie posiada zatrzasku.
Tylko języczka charakterystycznego, który stanowi zatrzask wtyczek kabli sieciowych.
Po prostu ten kabel w gnieździe trzyma się na tej gubce uszczelniającej,
Ponieważ ta gumka uszczelniająca występuje na tym kaplu sieciowym, na tej końcówce właśnie od strony urządzenia, jak i na obydwu końcówkach kabla zasilającego, również jest ta gumowa uszczelka, czyli wszystkie kable, jakiekolwiek tu są dostępne dla tego urządzenia, posiadają uszczelnienie w postaci gumowej opaski przy wtyczce.
I trzeci element pod uchwytem jest takim, może nie kwadratowym,
ale niemalże prostokątnym, lekko trapezoatym oczkiem.
Jest on nieco bliżej nas niż gniazda.
Jeszcze dokończę o tych gniazdach jedną informację,
że gniazda są umieszczone poziomo.
Kiedy kabel z nich wystaje, to przewody kabla układają się płasko po obudowie urządzenia.
Nie odstają. Przestopadle, tylko równolegle do płaszczyzny urządzenia, do tej tylniej ściany urządzenia.
Poniżej, bliżej środka tego głównego, wyciętego trapezu, mamy i bliżej nas jednocześnie, mamy to oczko.
No to możemy je chwycić, przełożyć przez nie palec, unosimy lekko około 2-3 mm, dzięki czemu odchylamy na zasadzie sprężynującego plastiku.
Nieco siłą, ale z czuciem, żeby nie połamać.
Odchylamy w górę około 2-3 mm.
To co otrzymamy w palcu, to oczko ciągniemy w górę.
I pociągamy jednocześnie do nas.
Czyli jednocześnie ciągniemy w górę 2-3 mm, a do nas całkowicie.
Ile się da? Ponieważ to wyskoczy.
I mamy odpiętą rączkę.
W ten sposób zademonstrowałem, jak odpiąć rączkę.
No i teraz mamy taki dłuży, czysty, wycięty trapez.
I tylko wtyczki, przepraszam, gniazda na wtyczki zostały.
Jedno tu zaślepione, drugie okrągłe, czekające na przewód zaślający.
Wezmę teraz do ręki ten uchwyt na maszt.
Uchwyt na maszt jest jak gdyby na czubek masztu, czyli otwór na tą rurę masztową nie jest na przelot tego uchwytu, tylko z jednej strony posiada również od boku wchodzącą śrubę, którą można odkręcić oczywiście i należy odkręcić przed montażem i przykręcić kiedy uchwyt już jest na maszcie.
Klucz służący temu celu jest klucz w kształcie litery L.
Impuls ampul. No, taki sześciokątny.
Nie pamiętam nazwy. Impuls albo ampul.
Mylą mi się te nazwy, jak się prawidłowo powinno na to mówić.
W każdym razie sześciokątny klucz w kształcie litery L jest dołączony do zestawu.
Jest przypięty do tego uchwytu.
Odpinamy go, odkręcamy śrubę, montujemy na maszcie, przykręcamy i możemy schować ten klucz.
w to samo miejsce, albo zabrać do skrzynki jakichś narzędzi.
Ale myślę, że wystarczające jest, aby tu go umieścić ponad.
Ale ponieważ urządzenie w tej chwili leży na tej ścianie frontowej,
która ma być skierowana do nieba, a leży na stole,
no to jak gdyby ten otwór na rurę kieruje w górę, a nie w dół.
Masz tu przygotowanego, no to kieruje ten otwór okrągły w górę.
I ten uchwyt jest w kształcie trapezu.
Czyli jak gdyby stawiam w ten sam sposób, jak ten trapez wycięty.
Stawiam go na tym trapezie.
Ten trapez uchwytu jest nieco mniejszy niż ten trapez w urządzeniu.
Dłuższą krawędzią stawiam do mnie, krótszą ode mnie.
No i jak gdyby przesuwam w górę tego wyciętego trapezu,
Muszę przytrzymać urządzenie od góry, całe urządzenie od góry, żeby nie ślizgało się i nie spadło w ogóle ze stołu.
Drugą ręką dosuwam w górę uchwyt i się zakliknął o te 2 czy 3 mm, które wtedy odginałem przy pomocy tego oczka.
Ja wsuwałem w górę, a to się zakliknęło w dół, w jakiś tam otwór, zaczep.
W tej chwili są zasłonięte całkowicie dla dotyku gniazda przewody.
Dlatego trzeba je najpierw wpiąć, te przewody, ułożyć właściwie, żeby się nie przytrzosnęły tym uchwytem,
…uchwytem, a następnie wyprowadzić je tu przez…
Są tu takie miejsca, przez które można je wyprowadzić,
ale palcem nie sięgam do gniazd, ale przewód się zmieści.
Można je wyprowadzić na zewnątrz, no w celu zasilający, w celu podpięcia do zasilania,
a sieciowy ewentualny do kolejnego routera.
Odczepienie tego uchwytu. Ten uchwyt z kolei nie ma.
Oczka, przepraszam, na palec. Tu jest taki języczek wystający pod skosem z tego uchwytu.
Składam kciuk pod ten języczek, dam za trzy pozostałe palce.
Umieszczam w tym okrągłym otworze masztu. Równie dobrze pewnie mógłbym chwycić za jakiś inny element.
Tutaj umieszczony w ramach tego uchwytu.
Najpierw unoszę w górę kciukiem te trzy milimetry i pociągam do siebie ten uchwyt.
I już wyjąłem.
Jest to taka dość delikatna rzecz. Trzeba to robić z dużym wyczuciem.
Staram się to robić z wyczuciem dbałości o niepołamanie i estetykę,
żeby nie było urządzenie porysowane.
Dlatego wolę, żeby to trwało chwilę dłużej, a było wykonane dobrze.
Odpięty mam uchwyt na maszcie.
Teraz tak, w sytuacji, kiedy już będę miał zamontowany uchwyt na maszcie,
oczywiście będę ściągał urządzenie, a nie uchwyty z urządzenia,
Ja tylko będę z uchwytów ściągał urządzenie.
Więc oczywiście wtedy nieco inne gesty trzeba wykonać.
Ja po prostu tłumaczę, co należy odblokować, aby zdjąć w ogóle to urządzenie,
nie łamiąc i się nie stresując.
Dlaczego jeszcze nie schodzi?
Jednocześnie zdjąć skutecznie i bezpiecznie.
Teraz włożę ponownie ten uchwyt z rączką na zawiasach.
Ta rączka tak się odbieła oczywiście, że w ręku mam rączkę złączoną z zawiasami z tą częścią, która jest zaklikiwana w urządzenie, to wszystko trzymam w ręku, tak że zawiasy nie zostały w urządzeniu oczywiście.
Trzymam jak gdyby dwa kawałki plastiku połączone za jego samym.
No to ten dolni, właściwie obydwa kawałki tego plastiku są w kształcie trapezą,
ale naturalnie się wyczuje, że którą część należy postawić.
Właściwie najlepiej inaczej. Najlepiej zamknąć sobie tą nóżkę.
I już jest jeden trapez, kiedy jest zamknięta.
Teraz wkładę na środku tego trapezu wyciątego w urządzeniu.
I tak jak poprzednio. W górę, w górę, w górę.
Jak już jest blisko zakliknięcia, to przytrzymuję urządzenie od góry.
Tu tą drugą ręką dosuwam w górę. Kliknie.
Lżej klika, ponieważ ten plastik jest mniej masywny w tej rączce.
Po prostu jest mniejsza ta rączka, mniej użyto plastiku do wyprodukowania tej rączki.
niż ten uchwyt masztowy, ten uchwyt masztowy jest też plastikowy,
ale tam jest bardziej masywny.
I to wszystko. To było najważniejsze.
Co chciałem przekazać?
Skoro już w ogóle zdecydowałem się na to nagranie,
to jeszcze opowiem szybciutko o pozostałych kwestiach.
Ale to było najważniejsze, żeby po dostaniu paczki po pierwsze nie zniszczyć sobie urządzenia, a po drugie cieszyć się możliwością używania, a nie kombinowaniem jak wymieniać rączki urządzenia. W sposób właśnie bezpieczny.
Do urządzenia można dokupić dodatkowo, jako oddzielny produkt w sklepie, zestaw samochodowy.
Dostajemy wówczas przewód, który na jednym końcu ma dokładnie taką samą wtyczkę jak przewód pod 230, czyli tą do urządzenia okrągłą wtyczkę, oczywiście z tą gumką uszczelniającą, a druga końcówka jest USB-C wtyczka.
I dostajemy USB-C gniazdo do samochodowej zapalniczki.
Właściwie bardzo polecam ten zestaw.
Po pierwsze ze względu na przewód, który możemy wykorzystać przy samochodowej zapalniczce, jak i przy powerbanku.
Po prostu powerbanku na USB-C, a wtyczka zapalniczkowa samochodowa na USB-C.
Możemy ją używać po pierwsze do sterownika, po drugie do czegokolwiek innego, co potrzebujemy w samochodzie.
Sobie naładować, a mamy przewód USB-C do tego czegoś.
Jest wyjątkowo solidnie wykonana ta… no ten zasilacz, tak?
Do tej zapalniczki jest wyjątkowo solidnie wykonany.
Najbardziej solidnie ze wszystkich, które do tej pory nie mam okazji trzymać w rynku.
Także warto kupić to urządzenie z tych dwóch powodów.
Pierwsze ze względu na przewód uzyskujemy.
Po drugie będziemy używać, czy nie będziemy, to Starlinka,
ale uzyskujemy bardzo dobrej klasy zasilacz do zapalniczki samochodowej.
Bardzo polecam ten zestaw.
Wadą zarówno przewodów dołączonych do urządzenia Starlink mini,
jak i przewodów w zestawie samochodowym jest długość.
Jest olbrzymia długość. Niektóre z tych przewodów mają pięć metrów,
niektóre piętnaście.
Piętnaście metrów ma chyba kabel sieciowy,
Który nie jest w zestawie ani jednym, ani drugim.
To znaczy ani ze Starlinkiem Mini, ani w zestawie samochodowym do Starlinka.
Tylko go trzeba oddzielnie dokupić.
Kabel sieciowy po prostu do Starlinka Mini.
I on ma chyba 15 metrów.
Te przewody pozostałe, samochodowe i…
I na 230 do zasilacza. Mają po 5 metrów chyba.
No i ta długość wydaje mi się dość potężna,
to znaczy bardziej pasująca do urządzenia stacjonarnego
niż do urządzenia w plecaku.
No, dość ciężko się wlądać z pięciometrowym kablem,
który sobie rozwiniemy, a potem…
Trzeba schować plecaka, jeśli nam się rozplącza taki przewód.
Na szczęście posiadają te przewody rzepy, które ułatwiają zwijanie.
Niemniej bardzo szkoda, że nie ma krótszych kabli.
Być może są jakieś kable nieoryginalne, jakieś zastępniki,
Mówią, można alternatywnie do…
Przepraszam, to są krótsze, ale niestety jeszcze nie próbowałem szukać.
Myślę, że spojrzę na to, ponieważ bardzo by mi zależało na końcu.
Oczywiście nawet jest kabel do kupienia trzydziestometrowy któryś, chyba.
Być może, do wyboru wiele nie ma, albo kabel sieciowy, albo kabel zasilający,
Któryś jest trzydziestometrowy do dokupienia, gdyby ktoś potrzebował jeszcze dłuższy.
Ale tak jak mówię, to raczej w przypadku zastosowania stacjonarnego,
kiedy chcemy wyprowadzić Eda do domu, na balkon nawet.
Ale jeśli chcemy dorosić w becaku, to szkoda, że nie ma krótszych przewodów.
Do urządzenia można dokupić jeszcze dwie rzeczy.
Jedna z tych rzeczy bardziej ciekawa, druga mniej.
Obydwie są ciekawe, ale jedną bardziej polecam, drugą mniej.
Można to kupić router Mesh Wi-Fi do Starlinka Mini dedykowany.
On jest właśnie tej generacji wolniejszej.
Posiada w zestawie w pudełku zasilacz z oryginalnie złączonym przewodem.
Zasilanie już nie jest wyszukane. Zwyczajna wtyczka jak do routerów nie jest taka sama jak tutaj.
Nie w modemie samym satelitalnym, tylko w jakaś tam innej średnicy wtyczka i taki router posiada przy porzędku dwa gniazda RJ-45.
Przypuszczam w n1 drugie LAN.
Nie wiem czy można obydwa stosować jako LAN.
Jeszcze nie wiem, gdy jestem świeżo nabrał i przesył.
Jeszcze nic nie wiem na temat konfiguracji.
To będzie w przyszłości, ale nagrywam z intencją zaprezentowania hardware’u,
w szczególności wymian tych uchwytów, więc to na razie nie jest przedmiotem tego nagrania.
Druga rzecz, którą można dowiedzieć z ciekawych rzeczy, to jest etui,
Które niestety uważam za mocno przepasowe.
Tu wchodzi worek na samorządzenie Starlink.
Niestety kojarzący się z workiem na kapcie, zaciskany sznurkiem.
Takim do zaciągania i to właściwie tyle.
Całe to jest takie zapięcie. Być może z nieco lepszego materiału niż worek na kapcie, ale jednak…
No, po prostu worek jest to. Jest również saszetka, jak mnie mam, na przewody i na zasilacze.
No, fajna saszetka, ale chyba wyszło i tak drogo, bardzo drogo.
Jak za taką saszetkę? Myślę, że alternatywne saszetki tego typu,
być może niepodpisane z Starlinka, ale za to równie przydatne.
Można kupić chociażby w sklepach sportowych.
Wiem, że takie są na działach wędkarskich. Lepszej cenie.
Akurat etui jest, moim zdaniem, nie polecam ze względu na cenę.
Trzecim elementem w tym etui, co już wydaje się bardziej unikalne i przydatne,
w tym wypadku można się zastanowić, czy rzeczywiście może warto jednak polecić ten zestaw.
To jest ramka. Ramka wygląda w ten sposób, jakbyśmy mieli plecki do telefonu i byśmy całe plecki usunęli i zostawili na tylniej ściance telefonu, smartfonu, ramkę szerokości centymetra lub półtora centymetra.
I z przodu, od strony szkiełka,
do ekranu samego telefonu,
wystaje taka krawędź, kilkumilimetrowa,
aby chronić ekran telefonu.
A z tyłu jest taka łączutka ramyczka,
która jest nieco szersza niż z przodu,
dlatego nakładamy na telefon od tyłu tę etui,
Ale za to całe plecki są odsłonięte.
Teraz tak, przechodząc tą metaforą do Starlink Mini, nakładamy taką ramkę właśnie analogicznie.
Od tyłu urządzenia, czyli od tej strony, z której jest uchwyt, nakładamy tą ramkę.
No i z przodu, gdzie jest ta powierzchnia, którą kierujemy do nieba, zaczyna wystawać taka krawędź,
Dzięki czemu, kładąc na jakiejś względnie równej powierzchni,
ale jednak kładąc na osłoncie, kiedy przesuniemy to urządzenie,
to ta ramka wystająca z przodu chroni nam tę powierzchnię przed nią,
urządzenia, przed porysowaniem. Natomiast boki są chronione,
narożniki przede wszystkim, no i krawędzie też są chronione
Przed uderzeniem, bo są te krawędzie rzeczywiście opasane tą ramką.
No i właściwie tyle daje ta ramka. Ramkę zakładamy w ten sposób,
że cała ramka nie jest tak samo wyglądająca.
Kiedy przejedziemy po obwodzie ramki dłonią, w jednym miejscu,
na jednym z krótszych boków tej ramki jest taki języczek.
I tym języczkiem nakładamy w ten sposób, aby był on dalej od nas.
Czyli nie od strony tego trapezu, który jest wycięty tutaj, przez który zakładaliśmy te uchwyty,
tylko właśnie od drugiej strony. Od tej dalszej strony od nas jest ten języczek ramki,
a od strony tego trapezu ramka jest całkowicie prostą, ma krawędź, prostą linią jest.
No i tyle. Teraz tak. Urządzenie ma wymiar przypominający laptopa piętnaście… piętnaście sześć calowego.
Na szerokość jest niemal identyczny. Ten wymiar tej krótszej krawędzi, dłuższej krawędzi, mniejsze około osiem centymetrów, siedem, osiem centymetrów.
No i myślę, że dobrym pomysłem jest alternatywa w postaci zakupu tańszego etui na laptopa.
Zamiast etui dedykowanego do Starlink Mini.
Ponieważ jest szansa, że to będzie pasować dobrze.
Będziemy mieć etui, czyli urządzenie zabezpieczone.
Etui będzie takie same jak z laptopem, więc jeśli będziemy mieć w plecaku laptop i to etui, to po prostu będziemy mieć trochę więcej zawartości plecaku, ale o tych samych wymiarach kolejne urządzenie.
Poniekąd urządzenie może nie, ale etui o tych samych wymiarach, którym jest urządzenie nieco krótsze, o te 8 centymetrów, za to szerokość wypełni w sposób sztywny ten plecak.
No i chyba polecam to wypróbować, zanim skusimy się na to etui oryginalne.
Są je również do dokupienia oddzielnie w sklepie Starlink.
Uchwyty na ścianę i dach. Nie testowałem tego.
Również są zestawy do wiercenia w ścianach, do przytrzymywania przewodów.
Takie standardowe uchwyty. Jeden zestaw jest tańszy, drugi droższy.
Przepraszam, może ten tańszy jest pod zbiorem zawartości tego droższego zestawu.
Po prostu w tym droższym jest więcej.
Jest takie grube wiertło o średnicy około dwóch centymetrów, może półtora,
tak żeby się zmieściły przez taki otwór w ścianie przewody.
Być może nawet dwa, żeby przeszła wtyczka, np. kabla sieciowego, która jest szczególnie, wiem, duża.
I takie wiertło cienkie, które jest pilotem, który pokaże nam, gdzie taki otwór nam wyjdzie z drugiej strony ściany.
Jak wiadomo, zawsze warto najpierw wiercić pilotem, bo łatwiej w razie czego nakleić dziurę małą,
kiedy się okaże, że w błędnym miejscu wywiercona niż dużą.
A jak mamy już pilotem wywierconą mały otwór, no to wtedy wiercimy grubym wiertłem.
No, ale myślę też, że należy dobrze rozważyć, czy nie kupić takiego zestawu,
po prostu, jeśli nawet go potrzebujemy w ogóle.
No to raczej przy zastosowaniach stacjonarnych.
Czy nie kupić takiego zestawu w jakimś sklepie budowlanym,
z wiertłami, z uchwytami na przewody.
Więc tak, w szczególny sposób polecam samo urządzenie.
Mam nadzieję, że będzie się dobrze sprawować.
Bardzo polecam zestaw samochodowy, bo brzmi bardzo obiecująco.
Zarówno możliwość podczepiania w samochodzie, jak i podczepiania do powerbanków,
jak i wykorzystanie tego samego zasilacza do zapalniczki.
Do innych rzeczy, które potrzebujemy w samochodzie.
No i ten router, który jest dedykowany do tego urządzenia.
Wiadomo, że Starlink Mini jest urządzeniem mini,
czyli nieco słabsze, mniejsze, stacjonarny zestaw.
No, ale jeśli chcemy być mobilni, to chyba to jest dobry wybór.
Pozostałe rzeczy, takie jak etui, pozostałe uchwyty, trzeba kupować już bardzo według indywidualnych potrzeb.
Chyba to wszystko. Na pewno o czymś zapomniałem, ale to tak zawsze jest.
Myślę, że to co najważniejsze przekazałem.
W razie jakichś pytań, to zapraszam do komentarzy.
Więcej na razie nie wiem. Myślę, że najbliższe dni będą pełne testów,
pełne testów oprogramowania, testów konfiguracji tego urządzenia,
Tak, aby czekało ozbrojone na te wyjście i gotowe służyć w drodze.
W drodze, w plecach, gotowe na wyjście z domu, niezależnie od tego,
czy będę w Polsce, czy za granicą, czy w jakimś miejscu,
w którym nie ma zasięgu telefonii komórkowej.
Albo jest zasięg, a istnieje konieczność zakupienia karty SIM lokalnego
Oczywiście urządzenie jest ogólnie bardzo drogie i zakup warto, aby był poprzedzony bardzo okrętą analizą przydatności.
W tym nagraniu nie zajmowałem się taką analizą, tylko pokazałem,
Jak w sposób bezpieczny przystąpić do rozpakowania paczki, która przyszła i podpięcia wszystkiego, aby nie nastręczało stresu.
Pierwsze uruchomienia, abyśmy jak najszybciej mogli przejść do używania urządzenia.
Jeśli to komuś się przyda, będzie mi bardzo miło.
Pozdrawiam, no i do usłyszenia.
Pierwszy polski podcast dla niewidomych i słabowidzących.
Program współfinansowany ze środków Państwowego Funduszu Rehabilitacji Osób Niepełnosprawnych.