TyfloPrzegląd Odcinek nr 295 (wersja tekstowa)
Pobierz napisy w formacie SRT
Pobierz napisy w formacie VTT
Fundacja Instytut Rozwoju Regionalnego prezentuje
Tyflo Podcast
W tym tygodniu w Tyflo przeglądzie
Team Talk 5.19
Lepszy na Androidzie i Windowsie, gorszy na Macu
Piąte oraz szóste bety systemów Apple wydane
GPT-5 w PeakyBot
Nowa wersja Volany
Dwie zmiany w dostępności aplikacji Orange Flex.
Soundscape wydane na Androida.
Luomo Toolbox otrzymuje funkcję wykrywania świateł.
U-Block Origin Light dostępny na Safari.
Nowa wersja Omni Describera.
Dodatek Unspoken do NVIDIA powraca.
Powstaje wieloplatformowy, mobilny klient do NVIDIA Remote.
Ankieta dla użytkowników rejestratorów Zoom.
Cloud Code Notifier.
Dostępne powiadomienia w sytuacji, kiedy Cloud o coś nas pyta.
Chat GPT-5 wydany. Co to nam zmienia?
Grok 4 udostępniony za darmo dla wszystkich użytkowników.
Google udostępnia Google AI Pro dla studentów na całym świecie. Za darmo.
Klot otrzymuje własną pamięć, zupełnie jak czad GPT.
Roguebit Model S, smartwatch z kamerką i pełnym Androidem.
Użytkownicy wściekli na przeglądarkę Firefox, wszystko przez AI.
Perplexity zbanowane, miało potajemnie omijać blokady na stronach.
Wszystko to, a pewnie jeszcze więcej już za chwilę. Zaczynamy!
Tyflo Przegląd jest audycją prowadzoną na żywo,
więc serdecznie zachęcamy Państwa do współtworzenia go razem z nami.
Oczekujemy na wiadomości głosowe na Whatsappie
oraz połączenia telefoniczne pod numerem 663-883-600.
Powtarzam, 663-883-600.
Oraz zapraszamy Państwa do wyrażania komentarzy w formie tekstowej
poprzez formularz na stronie kontakt.tyflopodcast.net.
Odczytujemy również Państwa wypowiedzi zamieszczone pod transmisjami na Facebooku i YouTubie.
Staramy się też zaglądać na nasz tyflopodcastowy serwer Discorda.
Jeszcze tylko pięć odcinków i będziemy świętować.
Ale zanim świętujemy, zanim będziemy obchodzić trzysetny tyfloprzegląd,
to najpierw jeszcze audycja 295, potem 6, 7, 8 i 9.
A skoro o 295. audycji mowa, to właśnie ją rozpoczynamy.
Dziś skład po raz kolejny wakacyjny. Maciek Walczak, Piotr Machacz,
to oni dziś dostarczą nam bardzo wielu różnych informacji.
No i cóż, jeżeli macie ochotę się do tego przyczynić, to bardzo serdecznie
zachęcam, żeby się z nami kontaktować. Linie już są otwarte, zarówno te tekstowe,
A skoro o głosie mowa, to może na dobry początek kilka słów Piotrze o Tim Toku, czyli o komunikatorze, który z Tyflopodcastem, można powiedzieć, związany jest tak czy inaczej praktycznie od samego początku.
I ukazała się nowa wersja tego komunikatora, która to na jednych systemach działa lepiej, na innych zaś wręcz odwrotnie.
Tak, jest to wersja 5.19, także dla tych, którzy zastanawiają się,
czy Team Talk cały czas ma się dobrze i się rozwija. Jak najbardziej ma się dobrze
i się rozwija na niektórych platformach bardziej niż na innych,
ale cały czas nowe funkcje do Team Talka i do jego serwera wchodzą,
pojawiają się nowe wersje kodeków itd., natomiast w tej wersji akurat
chyba nowych wersji kodeków nie ma, ale mamy generalnie nowe funkcje.
I myślę, że zanim przejdziemy do tego, co jest lepiej, co jest gorzej,
to po prostu omówimy wszystkie nowości,
które zostały dodane do wszystkich wersji tej aplikacji,
a na końcu powiem, co tam dokładnie zostało popsute,
przynajmniej na jednej platformie.
Co mamy, jeśli chodzi o klienta desktopowego?
Czyli tutaj mówimy o Windowsie, Macu i Linuxie.
To jest oczywiście ten klient QT.
Już od dłuższego czasu nie mamy tej wersji tzw. Classic.
Mamy tutaj całkiem sporo zmian, konkretnie 14.
I np. Control-Shift-C może nam łatwo skopiować ostatnią,
czy właściwie zaznaczoną wiadomość do schowka.
Bo od jakiegoś czasu TeamTalk ma coś takiego,
że wiadomości możemy przeglądać albo w formie pola edycji,
tylko to czytuta, jak to mieliśmy do tej pory,
albo bardziej whatsappowo i unigramowo w formie listy.
No i jeśli mamy ten tryb listy, to kopiowanie wiadomości było dla nas utrudnione.
No już teraz nie jest, bo mamy do tego dedykowany skrót.
Mamy też drugi skrót, Ctrl-Alt-Shift-C,
który skopiuje nam całą historię, a nie tylko wiadomość, którą mamy zaznaczoną.
Tak że gdybyśmy chcieli całą historię skopiować sobie z jakiegoś powodu,
no to łatwo możemy to zrobić.
To nie jest koniec nowych skrótów, bo skrótem Ctrl-Shifter
Na maku dotekstów generalnie po prostu z klawisz kontrolu
zastępujemy komandem,
generujemy odnośnik tt, dwukropek, ółkośnik, ółkośnik
do bieżącego kanału.
W ten sposób możemy bardzo łatwo komuś wysłać link,
na przykład przyszedł jakiś komunikator do kanału, w którym jesteśmy.
To jest o tyle fajne, że takie linki generalnie później można łatwo otworzyć,
bo zarówno na komputerach, jak i na iPhonie i na Androidzie
Team Talk jest skojarzony z tymi linkami, więc jeśli w taki link wejdziemy,
wkleimy gdzieś do paska adresu przeglądarca, na przykład czy do okna,
uruchom, tak pod Windows 0, no to od razu aplikacja może zostać otwarta
i zalogujemy się do danego kanału.
Bitrate jest teraz ograniczane w oknie kanałów do
Sześć tysięcy pięciu set dziesięciu w oknie kanału.
Rozumiem, że tutaj…
Ja teraz nie przypominam sobie, czy tam ten bitrate się wpisuje w tysiącach,
czy w pełnych liczbach. Wydaje mi się, że w pełnych liczbach,
także trudno będzie coś tutaj…
Taki duży bitrate generalnie ludzie stosują raczej niższe bitrate,
jak 128, 192.
Generalnie Opus zachowuje się bardzo dobrze nawet na niskich bitrake’ach.
Wiadomość statusu jest wyświetlana w oknie preferencji,
czyli tutaj pochodzi o status naszego użytkownika.
Wiadomość statusu, którą możemy sobie wpisać.
Możemy zdefiniować osobne wiadomości statusu dla poszczególnych serwerów.
A to jest fajne. Możemy sobie jakiś cytat,
coś, co będzie kojarzone dla osób na serwerze, na którym akurat jesteśmy.
Możemy sobie osobne takie wiadomości wstawić.
Możemy też włączyć opcję pytaj przed zamknięciem aplikacji.
Fajna sprawa. Zdarzyło mi się parę razy w Alt F4,
w Team Talka, czy jakiś inny komunikator,
ubić w momencie, kiedy było aktywne połączenie
i tak bez pożegnania się rozłączyć.
No i teraz, jeśli wam to się zdarzy często,
to można sobie taką opcję włączyć i już takich sytuacji nie powinno być.
A przynajmniej będą one bardziej utrudnione.
Mamy poprawki dotyczące poleceń do czytania różnych statystyk,
czytaj informacji o kanale i tak dalej.
Chodzi o te skróty, które zostały dodane.
One teraz działają tylko w momencie,
kiedy tryb powiadomień mamy ustawiony na TTS albo czytnik ekranu,
a nie na tryb powiadomienia pushy,
bo też w czasie Team Talk można nam takie informacje wyświetlać
w formie takich dymków.
Poprawiono nie wpisującą się wiadomość statusu na czas nieaktywności
po tym, kiedy połączenie z serwerem zostało utracone.
To powinno po prostu już działać prawidłowo.
Poprawiono nietłumaczącą się historię czatu po zmianie języka,
więc jeśli zmienimy język, to komunikaty typu
użytkownik X dołączył do kanału itd. też będą prawidłowo tłumaczone.
Poprawiono opuszczanie okienka generowania adresu url
tego tt, o którym przed chwilą mówiłem, co się coś wysypywało jak wychodziliśmy z tego okna
teraz już się nie powinno wysypywać.
Poprawiono wysypującą się aplikację w oknie połącz do serwera na macOS 15
no i to faktycznie mogę potwierdzić, no ta poprzednia wersja też nie była idealna
bardzo lubiła się wysypywać, to jest faktycznie prawda i już się nie wysypuje
To się chwali, natomiast niestety zamiast za to dostaliśmy inny błąd,
o którym za chwilę powiem więcej.
Poprawiono wyświetlaną szybkość transmisji podczas transferu pliku
i aktualizację biblioteki Qt na Windowsie i Macu
konkretnie do wersji 6.10.0 beta 2.
To jest Windows, natomiast na Androidzie też mamy 14 zmian.
I np. mamy okno użytkowników online.
Możemy sobie listę zalogowanych użytkowników przejrzeć na Androidzie teraz.
Dodano nowe ustawienie, które zapobiega przenoszeniu użytkowników,
którzy coś mówią na szczyt listy użytkowników, na szczyt tego drzewka.
Jak ktoś tego nie chce, można to teraz wyłączyć.
Dodano możliwość opuszczania kanałów bez opuszczania całego serwera.
Dodano możliwość ustawienia wiadomości statusu.
Dodano opcję skontrolowania transmisji użytkowników,
więc nie wiem, czy chodzi o subskrypcję dla nas czy administratorów,
chyba że możemy kogoś wyciszyć, gdybyśmy potrzebowali.
Dodano ustawienie do automatycznego dołączenia
do głównego kanału po połączeniu.
Będzie podawany przez syntezę komunikator,
kto jest operatorem danego kanału.
Podobnie będziemy mieli komunikat,
kto został zaznaczony do przeniesienia do innego kanału.
Dodano możliwość otworzenia dźwięku,
kiedy aktywacja głosowa jest przełączana.
Podobnie możemy ustawić dźwięki na to,
kiedy przechwycenie różnych wydarzeń jest przełączane.
Możemy też takie informacje o zmianie stanu transmisji
czytać przez syntezę.
Oraz zmiany w innych subskrypcjach, czyli np. jak ktoś nas wyciszy,
to jak Team Talk nas może poinformować, że ten użytkownik po prostu nas wyciszył w tym momencie
i my będziemy o tym wiedzieć. Na komputerze taka opcja jest od jakiegoś czasu.
Naprawiono błąd nieczytania wiadomości statusu, kiedy była ona ustawiona na…
Zaraz wracam.
I minimalna wersja wspierana Androida to 7.0.
Także całkiem i tak, nawet jeśli macie całkiem stary sprzęt,
no to i tak spokojnie raczej na nim Team Talk powinien zadziałać.
I iOS tutaj mamy jedną zmianę.
Widać, które platformy bardziej kochają deweloperzy.
A mianowicie możemy sobie włączyć opcję,
żeby wszystkie komunikaty, które normalnie były podawane przez syntezę,
były anonsowane przez voice-overa,
a więc wtedy będą nasze ustawienia głosu na przykład używane.
To też myślę, że może być fajna sprawa.
I mamy też poprawkę w serwerze, która pozwalała niektórym użytkownikom nieprawowicie zostać operatorem jakiegoś kanału,
jeśli serwer przyznał mu taki sam ID wewnętrzny.
Czy tam czasami liczby były użyte dwa razy nie tak, jak powinno być.
No i to pozwalało niektórym użytkownikom dostać wyższe uprawienia, których nie powinni byli dostać.
Więc to generalnie to są zmiany na plus.
Ale mówiłem, że na Windowsie i na Androidzie jest lepiej.
No wiadomo, dlaczego. Słyszeliście sami, ile opcji zostało oddanych.
Na Macu z jednej strony jest lepiej, bo aplikacja faktycznie już się nie wysypuje,
a wcześniej wysypywała się bardzo często,
nawet jak tam jakieś drobne zmiany w interfejsie zachodziły.
Ale za to mamy inny problem, który też jest bardzo irytujący
i w pewnym sensie to nawet nie jest nowy problem,
bo Team Talk miał z tym kiedyś problemy,
one zostały naprawione, ale powróciły,
a mianowicie po prostu VoiceOver znów przestał nam czytać
…i listy w tym programie.
A dlaczego to jest problem?
No to wydaje mi się, jest kwestia oczywista,
bo na przykład nie możemy łatwo sobie przejrzeć drzewka z kanałami.
Jest listy użytkowników, listy serwerów nawet w okienku do łączenia.
Także jest to dosyć duży regres.
No w pewnym sensie możemy to zrobić,
bo jeśli dojdziemy do tego drzewka tabem
i później będziemy poruszać się po nim ściągami,
no to nie będzie anonsowane nic.
Możemy natomiast dojść do niego klawiszami WO,
czyli kontrolę opcją ściałki i wejść z nim w interakcję.
Natomiast wtedy też nie będzie za nami podążał focus,
więc gdybyśmy chcieli do jakiegoś kanału dołączyć,
no to w ten sposób tego nie zrobimy,
chyba że gdzieś, nie wiem, sprowadzimy myszkę i klikniemy.
Także zostało to niestety dość znacząco popsute.
Jeśli ktoś korzysta z TeamTalka na Macu i często przełącza się między kanałami,
może to być irytujące, więc wtedy warto sobie, nie wiem, zakładki zaktualizować.
Ewentualnie po prostu korzystać z wersji Team Talka na iOS.
Jeśli macie na tyle nowego Maca, że można to robić,
bo akurat tutaj Dziabłopręg nie zablokował tej możliwości.
Wiadomo, ten interference nie jest tak zoptymalizowany.
Nie mamy skrótów klawiszowych,
ale jeśli zależy wam na tym, żeby ta lista była czytana,
to na ten moment chyba najbardziej sensowny sposób
ewentualnie właśnie tutaj posilać się myszką,
może jakiejś OCR, żeby z tego korzystać.
No, ale niestety, jeśli zaktualizujecie tego TeamTalka do wersji 5.19 na Macu,
no to nie zdziwcie się, że takie rzeczy niestety będą miały miejsce.
No, ja często tej aplikacji używałem, kiedyś tam swego czasu jak używałem, to właśnie tej iOS-owej po prostu,
bo miałem tam okresowe problemy, że mi się w ogóle z serwerem gdzieś tam łączyć nie chciało.
Jakieś tam rzeczywiście były chocki, plocki z tym.
Kiedyś na Macu to Team Talk w ogóle działał tragicznie, to tam trzeba było naprawdę kombinować.
No jako miał swoje fazy. Było gorzej, potem było lepiej, tam raz później dodano opcję, żeby po prostu synteza czytała to drzewko,
potem ta opcja usunięta, no bo voiceover zaczął to drzewko czytać, no i było w miarę okej, chociaż wysypywało się bardzo dużo właśnie w tych najowszych wersjach,
no a teraz znów nie wysypuje się, ale to drzewko się powsuło.
Jeszcze pamiętam te czasy, kiedy najprostszą metodą na wejście na serwer TeamTalka
to było skonfigurowanie wszystkiego, czy w ogóle na jakiś kanał TeamTalka,
to było wpisanie wszystkiego w tych parametrach do łączenia się z serwerem,
łącznie z nazwą kanału. To było najprostsze, po prostu tam dało się to jakoś ogarnąć.
No bo tam było wszystko czytane, to było na edycji właśnie.
Dokładnie. A propos Maca. Mamy pytanie od Piotra.
Cześć, zdaje się, że wnioskując o MacBooka, w ramach aktywnego samorządu należy wskazać, kto będzie przeprowadzał szkolenie, z kim polecacie się skontaktować na potrzeby szkolenia z macOS.
Więc ja nic o tym nie wiem, żeby było takie wymaganie. To znaczy, możesz wnioskować, i to jest dodatkowa jakby rzecz, możesz wnioskować o szkolenie po prostu ze sprzętu, który zakupisz.
Ale to nie ma, Piotrze, absolutnie nic wspólnego z tym, czy to jest Mac, czy to jest PeCet, czy to jest jakiekolwiek inne urządzenie.
po prostu ty wnioskujesz o jakąś konkretną oszkolenie z tego sprzętu, który masz.
I w ten sposób możesz.
Ja tylko chciałem to potwierdzić, nie wiem z kim się skontaktować w sprawie szkoleń,
natomiast ja akurat w zeszłym roku właśnie wnioskowałem o MAC-a
i na pewno nie było takiej potrzeby i mój wniosek został rozpatrzony.
Tak, bo to jest tak po prostu, że jeżeli weźmiesz sobie tak naprawdę
te szkolenia, znaczy wnioskowanie o szkolenia służą temu, żeby no
Pefron dofinansował stricte szkolenia w zakresie obsługi danego sprzętu, ale tak naprawdę nie jest wymagane, bo możesz sobie wziąć po prostu sprzęt, a szkolenie własnym sumptem gdzieś tam, o, jak ci się zachce i jak uznasz, że to jest zastosowne, albo nie musisz w ogóle brać.
Ja na przykład nie biorę szkoleń, no bo nie są mi potrzebne zwyczajnie.
Ja też sobie tego nie wyobrażam na tym etapie, szczerze mówiąc.
Znam sprzęt, na którym pracuję i…
To by miało i nie miało sensu.
Tak, tak. I ja powiem inaczej, to w moim przypadku, zresztą Maćku, myślę, że w Twoim to ktoś by nawet mógł nabrać jakiś podejrzeń.
Zaraz, on tu bierze jakieś szkolenie, o co tutaj chodzi.
To znaczy, no jakbym tfu tfu, nie daj Boże, jakiejś amnezji kiedyś dostał, to być może, ale tak normalnie to nie.
Natomiast tak samo, jeśli chodzi o… też zależy powiedzmy, kto z jakiego źródła ten sprzęt bierzesz, bo też tak opcjonalnie
Tyflospecjaliści, tyflosprzedawcy mogą na przykład Ci zaproponować za dodatkową opłatą też od razu skonfigurowanie takiego sprzętu, postawienie go, więc tak naprawdę też.
Albo jak uznasz za stosowne, to się możesz na to zgodzić, no bo nie czujesz się pewien, bo chcesz, żeby ten sprzęt Ci gdzieś tam wstępnie powiedzmy, że działał, że śmigał.
A jak uznasz, że nie, bo ty to sobie zrobisz sam, bo ty to zrobisz sobie z kimś zaufanym, to też możesz i wtedy też wszystko śmiało, tak naprawdę wszystko w wolności, żeby też nie było, że ktoś ci ten sprzęt musi skonfigurować na przykład, bo coś tam, w ramach zakupu.
Tak, natomiast rzeczywiście, jeżeli nie czujesz się pewnie, Piotrze, w obsłudze tego sprzętu, który masz zamiar sobie kupić, to takie szkolenie zdecydowanie warto wziąć.
Coś warto skorzystać z takiej opcji, firm szkolących jest troszkę więcej i co niektórzy podejrzewam, że nawet i z nas tutaj gdzieś mieli okazję pod banderą takiej czy innej firmy po prostu działać i akurat, no ja miałem akurat okazję to już lata, lata temu, dawno, dawno temu, wiele lat temu nawet jako własna działalność takich kilka szkoleń zrobić.
Jest to ciekawe, jak powiem szczerze.
No właśnie, ja żałuję tego, że na razie, że tak powiem, sam siebie nie mogę polecić,
natomiast tutaj jest kwestia tego, że jednak, no tak, działalność gospodarcza jest wymagana
i tak dalej, jednak jest ta jednoosobowa działalność, żeby właśnie się zgłosić,
żeby tam można było PFRON-owi powiedzieć, że tak, ten pan może szkolić, więc no niestety.
To mnie tylko blokuje, na razie.
Dokładnie, tak. Ale tak to właśnie jest z tymi szkoleniami, tak to wygląda.
Skoro jesteśmy już w tematach nadgryzionego jabłka,
to się pokazały nowe wersje systemów. I co tam nowego, ciekawego?
No właśnie. I dlaczego piąte oraz szóste bety? No bo to było tak,
że w poprzednim tygodniu ukazały się piąte
I to chyba nawet bodajże też we wtorek, bo nie zdążyliśmy przetestować i niczego sprawdzić de facto.
Tak, to jakoś chyba godzinę przed audycją wyszło.
Chyba tak, no dokładnie. A w tym tygodniu, już wczoraj, i zdaje się, że już chyba zostanie, że w poniedziałki, chociaż kto to wie, ukazały się szóste bety.
tychże systemów. Już nie trzeba się silić z numerkami, bo
wszystkie mają numerek 26, beta 6
tego tygodniowa. No i generalnie co tam
co tam wprowadzono, co tam poprawiono, naprawiono i tak dalej.
Może tak naprawdę Apple już teraz zdaje się, bo do premiery
tych systemów już coraz bliżej, więc teraz zdaje się już
przechodzą na cotygodniowy cykl wydawniczy.
No i co, od Mac OSa sobie może zaczniemy, bo w sumie tam się najwięcej wydarzyło takiego z punktu widzenia dostępności,
tak naprawdę ważnego, poniekąd przełomowego dla nas, zależy jak na to spojrzeć.
No i tak, naprawiono problem z głosami, voice over, jeśli chcieliśmy się między nimi przełączyć.
czyli tej zeszłorocznej, była możliwość
tego, że gdy jest dysk zaszyfrowany, ażeby mieć polski głos,
tak samo w trybie rozruchu, w trybie odzyskiwania macOS,
żeby można było. W betach niestety tego nie mieliśmy.
Tam mieliśmy po drodze różne naprawdę przygody, przygody przez…
od Samanty amerykańskiej,
od tak naprawdę chyba trzech lat,
bo chyba zdaje się od Ventury, ma koleg z Ventura zdaje się, albo wydaje się, że tak.
Przez niemiecką Anę Compact w betach, poprzez to nawet, że w tamtym tygodniu wkradł się taki błąd,
że nie można, że totalnie się nie odzywało nic.
Zarówno w trybie odzyskiwania, jak i właśnie podczas logowania, gdy był dysk zetroferowany.
A teraz, w tej najnowszej becie, uwaga, uwaga, Polska zyskuje na znaczeniu, chyba,
Bo mamy ZOS-ie.
Mamy tą ZOS-ie, dokładnie tą, jak podczas konfigurowania Maca.
Ja tak naprawdę nie wiem, czy to jest kompakt, czy to jest ulepszony kompakt, ale jeszcze nie rozszerzona.
W każdym razie mamy ZOS-ie polską naszą.
I ona właśnie działa zarówno na ekranie logowania, jak i w trybie odzyskiwania.
Z pewnymi wyjątkami, to znaczy dla normalnego użytkownika ona po prostu w tym momencie działa.
Nadal w pewnych sytuacjach nie działa, ale…
No, to nie jest gdzieś tam do końca istotne w tym momencie, więc może nie będę o tym mówił.
Zwłaszcza jeżeli wiemy, że maka w tryb odzyskiwania, zwłaszcza tego z chipami M1, M2 i tak dalej,
wprowadzamy w ten sposób, że po wyłączeniu maka naciskamy i trzymamy włącznik i już tak powiedzmy przez nie wiem,
8-10 sekund to nam po prostu na bank zadziała.
Jest jeszcze drugi tryb powiedzmy taki, chyba bardziej stricte dla deweloperów,
gdzieś tam, że na coś taki bardziej awaryjny, że pozwala na gdzieś tam więcej rzeczy.
No i tam ten voice over się uruchamia, ale nadal jest Samanta i nadal jak się chce
gdzieś tam zmienić prędkości i tak dalej, no to się wysypuje równo i tak naprawdę
wtedy voice over jest nie do odzyskania, chyba że się uruchomi Maca ponownie
i wprowadzi w tryb, ale w tym normalnym trybie rozruchowym wszystko śmiga,
Wszystko działa. No może poza tym, że jeszcze prędkości sobie zmieniać nie można tak naprawdę
w voice-overa, bo ta Zosia do nas mówi sobie w ten sposób. A nie każdy, że tak powiem, chciałby.
Ale zasadniczy plus jest taki, że w końcu mamy tą polską mowę od lat. No i po prostu ona jest.
Więc dobrze pozostaje mieć tylko nadzieję, że ta prędkość też w kolejnych betach nam wróci.
Czyli nawet nie musi być, że tak powiem zapamiętywana, ale żeby sobie ją można było regulować, prawda, w momencie pracy w takowym trybie.
Dalej…
Naprawiono centrum sterowania w Makoesie, to znaczy od początku tego cyklu wydawniczego,
tegorocznych systemów. Był problem taki, że nie dało się wejść w bardziej szczegółowe opcje centrum sterowania.
To znaczy, jeżeli na przykład chcieliśmy sobie ustawić poszczególne tryby skupienia na przykład,
to nie dało się zupełnie tego zrobić. A teraz już to na szczęście jest możliwe.
Można już sobie wybierać zarówno konkretne tryby, jakie sobie skonfigurowaliśmy,
Poniekąd czas ich trwania i warunki pod jakimi mają się też wyłączać, więc to zostało naprawione.
Naprawiono też interakcję voice-overa w aplikacji Wiadomości i w App Store.
Jeśli chodzi o skrót voice-over shift w dół, voice-over shift w górę, czyli właśnie wchodzenie i wychodzenie z interakcji w poszczególne obszary ekranu,
To tam się działy różne rzeczy w tym względzie właśnie, zarówno w aplikacji wiadomości, jak i w App Store.
Teraz to na szczęście zostało poprawione. To gdzie nie zostało, to jeszcze w panelu Emoji, ale o Emoji to jeszcze zaraz powiem.
No, zaetykietowano, nie zaetykietowane przyciski w interfejsu w wiadomościach, w aplikacji wiadomości, bo tam parę takich przycisków gdzieś się nam po drodze pojawiło.
Teraz też usprawniono wykonywanie połączeń FaceTime zarówno audio jak i wideo z pozycji rozmowy z danym użytkownikiem, z danym kontaktem w wiadomościach.
To jest to, co udało mnie się wychwycić, co naprawiono w makoesie.
Natomiast jeśli chodzi o błędy, no to w piątej becie niestety błąd się wkradł i w szóstej nadal ma się dobrze.
Mianowicie, mimo, że mamy polski voiceover ustawiony…
Polski VoiceOver. VoiceOver swoją drogą, ale system też.
Emoji, nasze piękne emoji są odczytywane po angielsku.
Ich opisy są odczytywane po angielsku, no jak również właśnie panel,
podczas dodawania niestandardowych reakcji, reakcji w wiadomościach, tych tak zwanych
tagbaks, gdzie można sobie wybrać inne niż właśnie te standardowe,
czyli serduszko, wykrzykniki, znaki zapytania, czy śmiech,
Kciuk w górę, w dół, to można sobie np.
jak takie łzy radości, czy powiedzmy jakieś inne serce niż to klasyczne,
no to to już jest odczytywane po angielsku.
Tak samo…
Tak samo…
kwestia właśnie panelu emoji,
że też Voice Over nam notorycznie się wchodzi w interakcję z daną emoji
bardzo głęboko i żeby się między tymi emojis przełączać to trzeba za każdym przesunięciem się voiceovera w prawo kursora, voiceover podczas szybkiej nawigacji włączonej,
no trzeba każdorazowo wychodzić z tej interakcji, nawet chyba dwukrotnie voiceover shift góra, także strzałka w górę.
Także jest to takie uciążliwe i to sobie istnieje niestety.
Dobrze, o tym mówiłem. O, aplikacja wiadomości też zauważyłem w tej szóstej becie.
W piątej też znacznie częściej ulega awariom. Nie wiem, co jest tego przyczyną do końca,
ale na pewno jak ludzie mają taką manierę, że piszą na przykład po, nie wiem,
trzy wiadomości z prędkością światła albo cztery w ciągu, nie wiem, dziesięciu sekund
Piszą Ci trzy wiadomości, Ty chcesz jeszcze voice over, nie dość, że kursor wtedy skacze niemiłosiernie, Ty chcesz przejść na koniec tej konwersacji,
no to wtedy nam się aplikacja wspaniałomyślnie wywala. I to jest najczęstszy scenariusz właśnie z powodowania awarii aplikacji wiadomości.
No i jeśli chodzi o macOS-a, to mamy tyle.
Jeśli teraz przejdziemy sobie do iOS-a.
Tutaj dodano nowe dzwonki.
I te nowe dzwonki nam Piotrek zaprezentuje.
Nie wiem, czy chcesz Piotrek teraz?
Pewnie, myślę, że możemy. Skoro o tym rozmawiamy, to ja już sobie tutaj…
Dobra, bo to do macOS-a nie miałeś nic, nie?
Nie, do macOS-a akurat nic nie miałem.
Wszystko, wydaje mi się, powiedziałeś wyczerpująco,
chyba, że wy też coś zauważyliście.
Natomiast jeśli chodzi o nowe dzwonki,
to ewidentnie ktoś w Apple jest fanem tego dzwonka odbicie,
bo już w iOS-ie 17 ten dzwonek został odświeżony.
W poprzednich betach, nie pamiętam, w której becie,
został dodany jeden wariant tego dzwonka dodatkowy,
a w becie szóstej tych wariantów doszło całkiem dużo.
No, na tyle dużo, że teraz mamy ponad dwie minuty nowych dzwonków.
I oprócz tego jeszcze Jeren dostał dodany taki luzem dzwonek,
który też wam zademonstrujemy.
Ale zaczniemy sobie od tych nowych wariantów dzwonka odbicie.
Niektóre z nich, muszę przyznać, są naprawdę ciekawe.
Teraz mój ulubiony leci.
Tego dzwonka jest też bardzo fajnie zrobiona haptyka swoją drogą.
I to jest ten wariant, który już wcześniej słyszeliśmy.
Z tej poprzedniej bety.
I znów bardziej kreatywnie.
I to jest ten dzwonek już niezwiązany z odbiciami.
No i to są wszystkie nowe dzwonki.
Całkiem ciekawe, niektóre są może mniej kreatywne, ale na przykład ten
drugi variant, który pokazywałem w angielskiej wersji, który się nazywa Dreamer
no to, szczerze mówiąc, mi zaimponował.
Tak całkiem pozytywnie.
No, ja zauważyłem, że powiadomienia, jeśli mamy ekran odblokowany
i wyskoczy nam banner, no po prostu pojawi się
powiadomienie u góry ekranu
i usłyszymy dźwięk.
To VoiceOver wcześniej odczytywał z dużo większym opóźnieniem niż ma to miejsce właśnie w tej szóstej becie.
Jakby to opóźnienie zredukowano, zmniejszono, jest zauważalnie lepiej,
chociaż do tego co mieliśmy w iOS 18 to jeszcze nie jest to, ale widać, że tutaj progres jest.
Zauważyłem też, że znacznie lepiej mi bateria trzyma, jeśli chodzi o iPhone’a, mimo że ja już mam tego iPhone’a prawie trzeci rok, mam kondycja baterii 79% i zauważalnie w tej szóstej becie mi trzyma ta bateria dłużej.
Dalsze poprawki wizualne w całym designie, jeśli chodzi o ten cały Liquid Glass,
o którym niejednokrotnie już mówiliśmy, też użytkownicy donoszą, że animacje, aplikacje
się szybciej wczytują, animacje aplikacji właśnie szybciej się… podczas uruchamiania aplikacji,
więc co ma sprawiać wrażenie, że cały system działa płynniej?
I to jest to, co naprawiono, bo jakie mamy błędy.
Ano znikający przycisk w App Store, że na zakładce dziś znikający przycisk moje konto.
Na karcie szuka już działa, natomiast w tej zakładce dziś niekoniecznie zawsze pojawia się ten błąd bardzo nieregularnie.
Co go przesłania i tak dalej nie mam pojęcia, nawet nie do końca wiem jak go Apple’owi zgłosić.
Natomiast błąd taki sobie występuje i jak chcemy sobie zaktualizować, a to ma właśnie komplikacje takie, że jak chcemy sobie zaktualizować apkę, zaktualizować nasze aplikacje czy coś, no musimy się do tego przycisku dostać, więc najprościej chyba sobie właśnie tapnąć w zakładkę szukaj i tam ten przycisk już będzie zawsze i bezwarunkowo.
No i to się właśnie pojawiło teraz bodaj w tej szóstej mecie, w piątej chyba nie było.
A właśnie naprawiono i zepsuto regulowanie prędkości w aplikacji podcasty.
A o co chodzi? Dlaczego naprawiono i zepsuto?
Bo generalnie jak na WWDC zapowiedziano zwiększenie tych opcji dotyczących zmiany prędkości
odtwarzanych materiałów w podcastów, w podcastach.
No, do tej pory mieliśmy dwukrotnie, Apple obiecało, że będzie do trzech razy szybciej.
No i jest. W poprzednich betach, aż do tej, aż do piątej, było tak, że przycisk nam się elegancko dał kliknąć
i otwierało się menu. No tylko, że jak się dało dwa razy, powiedzmy, tą prędkość i chciało się dać trzeci,
Przesuń, aby dostosować prędkości.
Dosłownie tak ten komunikat został przetłumaczony.
Tyle, że nie dało się z tym totalnie nic zrobić.
Tak naprawdę nie dało się nic zrobić, ażeby nawet bodaj w tej pierwszej czy
drugiej becie konsultowałem się z osobą widzącą i też tam żadnych dodatkowych
prędkości nie było. No, a teraz w szóstej, jak się okazało, przycisk z
voice-overem w ogóle współpracować nie chce.
Czasem zadziała rozpoznawanie ekranu, czasami nie.
i wtedy się otwiera to menu,
gdzie jest wzmacnienie dialogi na przykład i te prędkości,
ale dalej mamy podobną sytuację, ale tak zupełnie
przypadkiem odkryłem, że to idzie poniekąd zmienić,
bo
jeżeli na danym przycisku stukniemy dwukrotnie z przytrzymaniem,
poczujemy haptykę na…
no haptykę urządzenia, haptyka iPhone’a
i jak nie oderwiemy palca i będziemy
ciągnąć palec w górę,
tak powolutku, powolutku, powolutku, to dyskretne takie punktowe haptyki
będziemy taką, informację haptyczną będziemy odczuwać. No i tak naprawdę to nam powoduje,
że zmieniona jest na wartość o 1 dziesiątą tak naprawdę, czyli powiedzmy tam,
jak jest domyślnie 1, no to 1, 1, 1, 2, 1, 3 i tak dalej razy szybciej.
No jeśli materiał jest odtwarzany, to w czasie rzeczywistym nam ta prędkość
rzeczywiście jest zmieniana.
No a jak nie, no to…
No i VoiceOver tego też nie anonsuje w ogóle nijak.
Tylko jeżeli chcemy wiedzieć, o ile mamy tą prędkość zmienioną, no to trzeba
sobie ponownie ten przycisk wyeksplorować po oderwaniu palca.
No ale finalnie do trzech razy można tą prędkość odtwarzanego materiału
przyśpieszyć. Tylko tak jak mówię jest problem jeszcze póki co z dostępnym zaimplementowaniem
tego przycisku i tej funkcjonalności.
Dlatego tak jak mówiłem i naprawiono, bo poniekąd umożliwiono, ale zepsuto, bo nie da się
wejść. W obszarze Picture in Picture, czyli w obraz w obrazie, jeżeli oglądamy
sobie, nie wiem, film na YouTube Premium, powiedzmy, w oficjalnej aplikacji na
iOS-a czy, nie wiem, Netflix, jakiś Kanal Plus i tak dalej.
To jeśli wyjdziemy z aplikacji, zminimalizujemy, przejdziemy sobie na
ekran główny iPhone’a, no to nam się pojawiła takie miniaturowe okienko obrazu
w obrazie, z którego też pozycji możemy sobie sterować poniekąd odtwarzaczem.
Możemy, prawda, i przewijać, i wstrzymywać,
i powrócić do pełnej aplikacji i tam zamknąć.
No i cały problem polega na tym, że owszem, no te przyciski są,
tylko nie da się po nich nawigować gestem prawo-lewo,
tylko należy to robić eksploracją.
No a ten obszar jest, powiedzmy, dosyć mały
i te przyciski takie też maciupeńkie,
więc gdzieś tam to problematyczne może być.
No i problem sobie występuje tak naprawdę chyba już od piątej,
albo czwartej nawet bety, nie wiem.
I to też może mieć związek poniekąd z Whatsappem.
Nie zweryfikowałem tego tak, ale wydaje mi się, że tak,
że właśnie w aplikacji Whatsapp w danym wątku,
czy to jeden na jeden, czy grupowym,
po przejściu, po dotarciu do końca listy wiadomości,
no również nie jesteśmy w stanie przejść na przycisk,
czy to na pole tekstowe tworzenia nowej wiadomości,
Czy na przyciski do dodawania multimediów, do nagrywania wiadomości głosowej i tak dalej.
Jeżeli już sobie aktywujemy pole tekstowe do tworzenia wiadomości, no wówczas gest prawo-lewej już działa.
I możemy do tych przycisków przechodzić, ale jeżeli tego nie zrobimy, to błąd sobie występuje.
Tak, emoji na iPhone’ie też nie są naprawione, jeśli chodzi o tamte nieszczęsne głowy ducha i tak dalej, które były, tak są nadal.
I wybór kategorii poprzez to też jest utrudniony, jeśli chodzi o emoji. Także jeśli lubicie emoji, no to na razie macie problem.
No i jeszcze tutaj Piotrek ma sztyw odnośnie iOS-a.
Takie pozytywne wiadomości na koniec, jeszcze apropos rzeczy, które się pojawiły.
Nowe funkcje w VoiceOverze jeszcze, dotyczące Brailla, o których jeszcze nie wspominaliśmy.
Ale w iOS-ie, bo jeszcze mamy WatchOS, a Michale także.
Tak. Natomiast zostając jeszcze przy iOS-ie, w opcjach Brailla.
Ostatnio mówiliśmy o tym, jak dla mowy możemy zdecydować, jak VoiceOver ma nam czytać,
gdzie jest kursor podczas nawigacji po znakach. Czy to ma być bardziej a la iOS,
że jest czytany znak, pod którym przechodzi kursor lub znak pod kursorem, czyli takie czytanie właśnie jak to w iPhone’ie i jak w innych systemach.
I teraz podobna opcja pojawiła się dla monitorów brailowskich w formie przełącznika, który bodajże będzie przetłumaczony jako pokaż podkreślony kursor.
I o co tutaj chodzi. Domyślnie na systemach Apple ten kursor w Playlu też wygląda trochę inaczej niż w czytnikach ekranu na przykład na Windowsie czy na Linuxie zresztą też.
Bo ten kursor w Playlu też jest taki, powiedziałbym, rozczepiony, że on nie zajmuje nam jednego znaku tak jak na Windowsie.
Mamy tak, że mamy ten punkt siódmy, ósmy jako jedno i ten punkt siódmy, ósmy nam muruga czy po prostu pokazuje się pod konkretnym znakiem.
Natomiast na platformach Apple mamy tak, że mamy ten punkt siódmy i punkt ósmy jest wyświetlony na znaku obok.
Więc faktycznie jest też pokazane, że ten kursor jest jakby między znakami, a nie pod konkretnym znakiem. Jest trochę większy.
Gdyby ktoś chciał, żeby ten kursor wyglądał tak jak na Windowsie, żeby po prostu był 1 lubiający punkt 7, 8 pod danym znakiem,
no to po prostu można sobie właśnie tę opcję pokaż podkreślony kursor włączyć i wtedy ten kursor będzie wyglądał i zachował się identycznie do tego, jak znamy na systemach innych niż systemy Apple.
I kończąc wątek dotyczący funkcji Brailla,
tryb Braille Access, czyli ten tryb ala notatnik braillowski,
doczekał się nowej funkcji.
Mianowicie została dodana do niego zegarynka,
czyli właściwie bardziej taki zegar.
I teraz ktoś zapyta, po co.
A no po to, na przykład, że kiedy ustawimy się na tym zegarze,
to podobnie jakbyśmy sobie wyświetlili zegar na przykład na,
Nie wiem, na linii Cejplerajdowskiej, ten zegar nam gdzieś się zmienił.
Więc jeśli mamy sytuację, że chcemy konkretnie sekundy sobie pokazać
i odliczać te sekundy, może dajemy jakąś prezentację,
musimy bardzo pilnować czas, no bo, nie wiem, na przykład w sytuacji,
jesteśmy gdzieś w radiu, no, musimy gdzieś ten czas bardzo pilnować,
no to możemy sobie włączyć ten tryb.
On teraz nam się nie wyświetla na ekranie, więc na komputerze
czy na telefonie możemy robić coś innego,
ale sobie ustawić na godzinę i wtedy będziemy widzieć co sekundę,
jak nam ta godzina będzie się zmieniała.
Swoją drogą, a propos tego trybu,
sprawdzając tę funkcję, odkryłem, że możemy przypisać skróty klawiszowe
do otwarcia tego trybu Braille Access do konkretnych trybów.
Ktoś chciał szybko wejść do tej godziny,
czy np. do notatnika, czy do tego kalkulatora matematycznego,
można sobie do tych konkretnych modułów skróty klawiszowe przypisać.
Czy to właśnie na linii zebradowskiej, czy to na klawiaturze, czy to nawet na ekranie dodatkowym, gdyby ktoś chciał.
Tak i…
Jeszcze…
Dobra, chyba się odciszyłem, jezu.
Tak, jeśli jeszcze chodzi o iOS-a, też kolejna pozytywna rzecz.
Niektórzy z użytkowników też dochodziły mnie prywatnie informacje.
Tak powiem z pierwszej ręki, że
wskaźnik na ładowanie baterii bardzo lubił szwankować
i nie do końca było wiadomo, czy ten iPhone się tak naprawdę ładuje, czy nie.
I często niby dźwięk ładowania się pojawiał,
ta bateria się nie ładowała. To lubiło dotyczyć
iPhone’ów na pewno SE
2020 oraz iPhone’ów
12, tudzież 12 mini.
Więc błąd takowy był, natomiast też w szóstej becie został on naprawiony.
A teraz WatchOS. Naprawiono centrum powiadomień, które lubiło sobie szwankować,
VoiceOver się lubiał zacinać jak zdarta płyta i powtarzać sobie komunikat
centrum powiadomień, centrum powiadomień z uporem maniaka.
Natomiast w piątej becie coś tam z tym próbowano zrobić, ale nie do końca jeszcze działało.
Teraz w szóstej becie już działa wzorcowo i nawet jak nie ma powiadomień i wejdziemy sobie do tego centrum powiadomień,
to nam kulturalnie VoiceOver powie, że brak takowych.
No i już nie ma problemu z wychodzeniem z tego centrum powiadomień.
A też były problemy, też się trzeba było troszeczkę fikołków narobić, żeby tam gdzieś z tego sobie zwycięsko wyjść.
Za to, żeby nie było tak wesoło,
popsu to nieco centrum sterowania,
albo to w trybie edycji
tegoż centrum sterowania.
Wojsowy róż nam niestety nie oznajmia,
jeśli dany element został przeniesiony,
jeśli wykonany czynnościem przenieść w lewo, przenieść w prawo itd.
W piątej już to nam elegancko oznajmiał.
Po polsku nawet w szóstej tego nie robi,
Więc my tak nie do końca wiemy i mało tego jeśli sobie eksplorujemy potem po wykonaniu takiej czynności to też ten kursor, znaczy ten element dla voice overa wszystko jest bez zmian.
Natomiast jeśli już sobie tam damy przycisk gotowy czy jak jego tam zwaną ten przycisk to no to się dopiero potem okazuje że ten dany element został w obrębie tego centrum sterowania przeniesiony.
Tak, i zdaje się, że jeszcze Piotrek ma tutaj informacje na temat Apple Watcha.
Tak, jedna nowość w ustawieniach voice-overa, nowość myślę bardzo przydatna dla tych, którzy cenią swoją prywatność i na przykład też pożywotność baterii.
Macie włączoną kurtynę na zegarku, ale jednocześnie lubicie korzystać z Apple Pay i gdyby…
Jeśli kiedyś napotkaliście się w sytuacji, że np. ktoś z obsługi myśli,
że wam zegarek nie działa, bo ekran jest wyłączony,
albo np. korzystacie z tego portfela, żeby wyświetlić np. jakiś bilet,
który posiada kod QR, no to Apple dodało funkcję,
która myślę, że wam się może bardzo przydać,
a mianowicie możemy sobie ustawić teraz kurtynę tak,
aby ona była tymczasowo wyłączana, jeśli korzystamy z Apple Pay.
Więc to bardzo mała funkcja, w sensie prosta,
Wystarczy sobie to po prostu włączyć, jeśli chcemy, ale też bardzo przydatne, tak?
No bo nawet jeśli mamy kurtynę włączoną, ale sobie wywołamy portfel i na ekranie wtedy
ekspedient np. widzi po prostu obrazek karty czy bilet, który trzeba zeskanować
i wtedy nie musimy się martwić, żeby tą kurtynę ręcznie wyłączyć,
a potem żeby o tym zapomnieć, np. nie wiemy, że nam się coś na ekranie wyświetla.
No, teraz już o to się martwić. Nie musimy, wystarczy sobie tą opcję włączyć
i później już beztrosko z kurtyny możemy sobie korzystać.
I aż by się prosiło, żeby coś takiego wprowadzono też na iPhone’a.
Czy to do Apple Pay, ale w ogóle jeśli, nie wiem, wyświetla się na tym iPhone’ie
kod QR, jakikolwiek, nie wiem, jakiś rzut ekranu, fotografia, cokolwiek.
No to znaczy, że chyba raczej chcemy to okazać.
To niechże sobie jest po prostu.
To znaczy tak, ja myślę, że do Apple Pay’a tak, do zdjęć na pewno wolałbym,
żeby to było konfigurowane, bo możemy mieć sytuację, że np. chcemy jakieś zdjęcie wysłać do AI, tak, może, albo opisać w jakiś inny sposób.
Ale jeśli powiedzmy kody QR jakieś gdzieś tam, w jakichś aplikacjach czy coś, to by spoko było, nie?
No kody QR to tak, zdecydowanie.
Bo to wtedy czy karty lojalnościowe, gdziekolwiek, nawet nie w Apple Pay’u, tylko gdzie indziej.
No i…
Swoją drogą, czy kurtynę można przypisać do czynności?
A szczerze mówiąc…
Nie sprawdzałem, bo jeśli tak, to byłoby jakieś rozwiązanie,
a jeśli nie, to myślę, że warto to zasugerować, bo to by problem, myślę, rozwiązało.
A no, w sumie tak. I sobie pokonfigurować poszczególne aplikacje, no.
I tak samo tylko wtedy pytanie, czy jasność ekranu automatyczna, powiedzmy, żeby to tam jeszcze…
no, bo to tak też lubi działać.
A to można skrótami rozwiązać na pewno, jasność zmienić, więc tutaj ewentualnie można ci skrótami pomóc.
To może ewentualnie, aha.
No ale tak czy inaczej, jakby to gdzieś tam systemowo.
Usprawnienia też doszły nam w AirPodsach, jeśli chodzi o…
Do tej pory w tych… do powiedzmy piątej bety mieliśmy tak, że…
czy nawet do czwartej? Nie, do piątej. Do czwartej.
Że jeżeli AirPods zostały naładowane, etui zwłaszcza,
no to powiadomienie, jak w przypadku Apple Watcha też,
nam się na ekranie pojawiało, że AirPods zostały naładowane.
Teraz doszło również, jeśli etui jest na wyczerpaniu, to oprócz tego dźwięku, który też mamy, to jest możliwość, że nas też powiadomi, jeśli etui się rozładuje.
No i jeszcze był jeden taki błąd w piątej, który został naprawiony w szóstej.
Dla nas, jeśli chodzi o iPhony, to nie był tak irytujący, ale na tvOS-ie już troszkę bardziej.
Mianowicie tam, gdzie mamy zakładki na dole ekranu,
to tam powiedzmy zakładka, nie wiem, karta 1 z 5 i tak dalej, 2 z 5 i tak dalej,
to on nam tych liczb nie czytał, zamiast tego nam czytał spacja,
no a w Apple TV było to o tyle irytujące, że często gęsto nam nie mówił.
Po prostu to też jakoś tam było traktowane i zamiast, nie wiem,
Kolejnego odcinka na liście w Chodźmy Najwyższą Polsat Box Go.
To też nam z uporem czytał Spacja, też się trzeba było mocno nagłówkować,
żeby się dowiedzieć, jaki mamy kolejny odcinek.
Dało się to zrobić, ale to było takie mało przyjemne.
Inne treści właśnie też były spacjowane. Błąd naprawiony na szczęście.
No i pytanie teraz, dla kogo w sumie te bety?
Tak żeśmy wczoraj sobie rozmawiali z jednym właśnie człowiekiem.
Sobie rozmawiałem. No i się pyta czy już można instalować czy nie.
No ja powiem tak. W sumie jeśli lubisz bardzo emoji i chcesz je stosować na
potęgę to może jeszcze nie to się może warto wstrzymać a tak to w sumie można
instalować. Tak sobie myślę na ten temat i to by było tyle jeśli chodzi o te
nowości. Tym razem już naprawdę tyle jeśli chodzi o iOS, o nowości w systemach
To ja teraz pozwolę sobie
przejść do sekcji komentarzy.
Mieliśmy telefon nawet w międzyczasie,
ale się słuchacz rozmyślił.
Nie chciał tyle czekać,
ale jeszcze można oczywiście.
663-883-600.
Linia jest otwarta
i do Waszej dyspozycji.
A tymczasem komentarze,
jak wspomniałem.
Od Lorda Killera na dobry początek
Cześć, przy logowaniu w becie zmiany prędkości też nie działają.
A co do szkoleń, ja w zeszłym roku też kupowałem Maca z aktywnego samorządu i nie miałem szkolenia.
Skonfigurowałem sobie sam i uczyłem się albo tak, albo Maciek mi pomagał.
Pozdrawiam Maćka bardzo serdecznie, miłego prowadzenia audycji i jak coś to się jeszcze odezwę później w trakcie.
I LordKiller przechodzi od słów do czynów, bo pisze nam kolejną wiadomość.
W piątej becie iPadOS, gdy przy konfiguracji po instalacji damy, że chcemy mieć wiele okien aplikacji
i wiele przestrzeni, czy coś takiego, to system się crashuje.
Nie wiem, czy to wina voice-overa, czy sam system, ale wysłałem opinię do Apple.
Muszę zaktualizować iPada, tylko nie wiem jak w tym stanie.
To ja myślę, że mogę tutaj pomóc, bo o problemie słyszałem nie mam osobiście iPada, żeby to osobiście potwierdzić.
Natomiast z tego co wiem, problem występuje tylko dla użytkowników VoiceOvera i tylko w sytuacji, kiedy w ustawieniach,
teraz nie pamiętam gdzie to jest, tam gdzie się konfiguruje doca generalnie, musimy do doca dodać tą opcję pokazuj bibliotekę aplikacji.
Bo jeśli tego nie zrobimy i mamy włączonego VoiceOvera, to system się crashuje.
Nie wiem, czy to zostało naprawione w wecie 6. Jeśli nie, to może się uda jakoś przez Siri szybko przejść do ustawień, wtedy włączyć voice-overa, żeby tą opcję tymczasową sobie włączyć, a jeśli nie, no to tutaj pomoc osoby widzącej.
Na pewno wiem, że jak to się włączy, to problem już nie występuje. Ale tak a propos, kto powinien to instalować, a kto nie?
To dobrze, że wspomniałeś o iPadach, bo iPadOS 26 dużo zmienia,
jeśli chodzi o działanie wielozadaniowości na iPadach.
Właściwie kompletnie te wszystkie systemy, które znaliśmy do tej pory,
tak Slideover, Splitview, te wszystkie tryby już nie istnieją,
tak jakby mamy taką bardziej komputerową metodykę zarządzania oknami.
Natomiast z tego, co słyszałem znów, informacje z drugiej ręki,
No, bo osobiście nie mam iPada, ale słyszałem, że na razie te kontrolki na VoiceOver’a też nie są jakoś za dobrze zaetykietowane.
Więc jeśli ktoś bardzo polega na iPadzie do wielozadaniowości, to może też bym się jeszcze wstrzymał.
I tu jeszcze taką sugestię miał LordKiller, że na przykład może by mogło pomóc, tak się zastanawiał,
wyłączenie VoiceOvera i poproszenie Siri o apkę ustawień i zaktualizowanie, czy mogłoby pomóc.
No jeśli beta 6 to poprawia, to teoretycznie tak.
Tak. Następna wypowiedź od Lorda Killera.
Co do dzwonków, ja nadal używam tych starych, bo z nowych jedynie podoba mi się odsłona,
a reszta jest dla mnie słaba, niektóre nawet okropne. No, rzecz gustów.
I mamy komentarz od Piotra.
Myślę, że szkolenie mi się przyda, ponieważ umie tylko obsługiwać Windowsa wzrokowo, a chce się nauczyć obsługiwać macOS bezwzrokowo.
Czy powinienem coś wiedzieć pod kątem wyboru MacBooka pod pracę bezwzrokowo?
Wygodniej większy czy mniejszy model pod względem ilości cali?
Takie ma pytanie Piotr.
Hmm, no generalnie wielkościowo to teraz te MacBooki są podobne,
bo nawet MacBooki Air już teraz mają przekątą 14 cali minimalnie.
Co wiem na pewno, to to, że ekrany w MacBookach Pro
mimo wszystko mają większą rozdzielczość trochę i są jaśniejsze,
co może mieć wpływ na czytelność tekstu, ale ja tutaj wzrokiem nie pracuję,
Więc tutaj też mówię to, o czym słyszałem, no ale generalnie teraz, czy to będzie MacBook Air, czy MacBook Pro, to można je dostać w wersji 14-calowej.
Są też większe, natomiast ich ceny są…
Też większe.
Tak, że tam na przykład, żeby kupić Maca i jeszcze szkolenie, to nie wiem, czy zmieścisz się w progu wtedy, by trzeba było dopłacić chyba.
No więc taka to kwestia z Macami.
A poza tym, warto Piotrze też zajrzeć do naszego tyflopodcastowego archiwum,
bo jeszcze całkiem aktualne są te materiały, które Mikołaj Hołysz nagrał
na temat pracy w Makoesie, także warto, warto zajrzeć.
No i też co do takich drobniejszych porad, oczywiście nasze archiwum też się poleca,
ale no tutaj bardzo dużo też Piotr Witek w serwisie mojaszuflada.pl
publikuje takich różnych drobniejszych trików, różnych rzeczy.
Tam naprawdę warto też się udać i sprawdzić, jak to wygląda,
co tam ciekawego Piotr ma do zaoferowania.
No bo tego jest bardzo, bardzo dużo i zarówno w formie tekstowej,
jak i w formie takich krótkich materiałów na YouTubie.
Teraz…
Ale ewentualnie dostępne Apple Groupa też się poleca, jeszcze i komercie Facebooka.
Poza tym też, Piotrze, w sumie, tak sobie myślę intensywnie, jeżeli będziesz chciał ewentualnie i Facebooka masz, Messengera masz, to ewentualnie możesz mnie upolować, oficjalnie pozwalam ci na to, że tak powiem.
I może jakoś tam coś wspólnie podziałam, może jakoś tam będzie też mi się udało, uda mi się, może być może to mi pomóc, jeśli taką potrzebę będziesz miał także.
Tak, tylko ciebie, Maćku, zdaje się na Facebooku to jako, ty jesteś jako Maciek, czy jako Maciej.
Tak, tak, tak.
Maciek, jako Maciek, tak, tak, bo to tak tylko warto gdzieś tam doprecyzować.
Okej, i następna wypowiedź, tym razem od Oskara.
Cześć, wiem, że jest kolejny Linux w telewizorach. Czy miał ktoś do czynienia z VidaOS i telewizorami Hisense?
Jest coś w stylu czytnika, czy zostaje mi tylko Tizen i Android?
O telewizorach Hisense słyszałem, bo oni też produkowali telewizory z Androidem chyba.
Natomiast o tym konkretnym systemie nie słyszałem. Teraz próbuję go szybko wygooglować.
Jeśli to jest coś sprzedawane w Europie i to są sprzęty produkowane w tym momencie,
No to teoretycznie powinne coś mieć, natomiast wiadomo, jak to jest teoria, praktyka.
Jeśli ten system pisze się przez V i przez D, bo tak pisałem,
to na razie żadnej informacji nie mogę znaleźć.
Vida przez dwa A. Vida OS.
Natomiast też możesz spróbować zrobić tak,
że spróbuj znaleźć w internecie
Potręcznik użytkownika dla danego modelu telewizora, bo tam najszybciej znajdziesz jakieś informacje.
Jeśli będą jakieś informacje o funkcjach dostępności, no to one prawdopodobnie będą tam.
Dobra, no na ten moment żadnych informacji nie mogę znaleźć, jeszcze spróbuję pogrzebać.
I tu jeszcze taka ciekawostka od Oskara.
Aha, jeżeli komuś nie zależy na kupnie nowego auta, to może sobie chyba sprowadzić nowego Samsunga 115 cali i wydać ponad 100 tysięcy.
Zaraz spróbuję znaleźć tego newsa i wrzucić link. No to ciekawostka. Telewizor jak rozumiem. 115 cali, bo chyba nie telefon.
Tak mi się wydaje. Trochę ciężko byłoby z nim chodzić.
Dobrze, mamy głosówkę tym razem. Głosówkę na Whatsappie. Roberto się do nas odzywa.
Cześć wam, Robert Urombino z tej strony.
Mam taką ciekawostkę dla tych z was, którzy zamawiają jedzenie przez różne aplikacje.
Może wiecie, że Volt, Uber Eats, Bolt już też,
chociaż tam to najmniej wpływa, ale Bolt…
ale przepraszam, Volt i Uber Eats mają subskrypcje,
które jak sobie wykupimy, to mamy często darmowe dostawy.
Glovo też to ma. No i Pyszne od niedawna prawdopodobnie zaczęło coś testować,
W aplikacji na zakładce nagrody, u niektórych już się pojawiła taka informacja, że można zamówić darmowe dostawy przez trzy miesiące za 9,99.
To się nazywa pyszne.pl+. Ja wiem, że ta firma w innych krajach to już miała. Just Eat Plus, czy tam chyba Liferanto Plus i tak dalej.
No to w Polsce teraz też to wchodzi. Zamawiamy w ten sposób, jakby wykupujemy, że podczas składania zamówienia tam w opcjach dostawy trzeba wybrać.
Właśnie zamiast opłaty za dostawę to trzeba wybrać to Pyszne.pl Plus i potem dolicza nam 10 złotych do zamówienia.
No chyba, że dostawa tyle samo kosztuje, bo często tak jest, no to wtedy mniej więcej bez różnicy cena.
No i ponoć to ma działać, tak ja na razie tego nie testowałem, bo nie jestem w Polsce jeszcze,
że przez trzy miesiące mamy dostawę z większości lokali za darmo.
Jeśli w aplikacji Pyszne.pl macie już na zakładce nagrody tą informację, że Pyszne.pl Plus jest dostępne,
to to znaczy, że będziecie mogli to kupić.
Jeśli nie, to chyba musicie jeszcze poczekać na aktualizację aplikacji.
I ciekaw jestem, jak będzie to ewoluować, bo myślę, że cena może się podnieść za jakiś czas, no ale na razie mamy co mamy,
więc jeśli lubicie zamawiać jedzenie częściej, a mieszkacie gdzieś, gdzie to pyszne, ma dużo różnych lokali,
to moim zdaniem warto sobie to wykupić, o ile już w aplikacji wam to się pojawia.
Pozdrawiam.
Dzięki Roberto za te informacje. No u mnie akurat lokali z pysznego zbyt wiele nie ma, ale…
U mnie jedynie pyszne tak naprawdę to jest jedyna opcja i tych jest w sumie sporo, więc dzięki Roberto tak samo.
To się może przydać, tak, w takich, w takich sytuacjach, więc zdecydowanie fajnie, że się tą informacją z nami podzieliłeś.
O AI będzie dużo dziś, bo się dzieje, ale najpierw w takich kwestiach dostępnościowych może nieco bardziej, trochę nowości dotyczących różnych aplikacji, które nam współpracę z różnymi sztucznymi inteligencjami poprawiają. I o tym Piotr.
A ja bym miał jeszcze zagwozdkę, jeśli mogę.
Znaczy pytanie, bo mam zagwozdkę, a propos aktualizacji.
I być może Lordowi Killerowi też się może to przydać.
Czy jeżeli takiego iPada podłączymy sobie do Maca tak naprawdę
i tam wymusimy sprawdzanie aktualizacji, to czy on, jeżeli my mamy włączone…
Bo szczerze mówiąc nie testowałem, nie próbowałem tego nigdy.
Nie wiem, czy ty Piotrek wiesz. Czy wtedy też normalnie jakby on jest w stanie
sprawdzić dostępność najnowszych bet, czy tylko stabilek?
Wiesz coś może o tym?
Możesz powtórzyć?
Że jeśli chodzi o bety i podpięcie iPada do Maca czy iPhona, to jesteś w stanie…
Czy wiesz może, czy on jest w stanie sprawić też dostępność bet, czy tylko stabilek?
To jest dobre pytanie. Kiedyś był w stanie. Jak jest teraz, nie wiem. Na pewno można sobie…
Tak, ja też już długie parę lat tak nie robiłem tego przez komputer.
Natomiast zawsze zostaje opcja pobrania tego pliku IPSW tak zwanego.
I na pewno te pliki można ci znaleźć w internecie dla wersji beta.
I wtedy jak już mamy taki plik pobrany i mamy podłączone urządzenie przez kabel,
czy to w Finderze, czy to w iTunesie, MedLine’ie, na Windowsie,
szukamy przycisku aktualizuj.
Trzymamy na nim Shift albo klawisz Option i Spację.
Teraz nie pamiętam, chyba Shift to był.
I wtedy wyskakuje okienko, możemy na ten plik wskazać i on wtedy tą aktualizację wykona.
Więc to w razie czego ewentualnie jest ta opcja.
Podobnie zresztą można powrócić do poprzednich wersji.
Jakby coś się stało, to też jest właśnie sposób na przywrócenie systemu.
Póki są te tak zwane certyfikaty, tak?
Bo to potem też tylko przez określony czas jest coś takiego możliwe.
Natomiast podczas fazy beta, gdyby ktoś chciał wrócić do 18-tki, to w ten sposób można to spokojnie zrobić.
I psw.me chyba to jest, zdaje się.
No jest trochę tych stron, także to…
Jeszcze zanim aplikacje AI, to ja tutaj jeszcze też już miałem się podleć i powiedzieć, że nieciekawie to wygląda z tym VidaOS-em,
natomiast znalazłem informację na stronie amerykańskiej Hisense, że funkcje dostępności są.
Nie ma informacji o żadnych skrótach dostępności, niestety.
Natomiast jest informacja, że powinny być ustawienia dostępności
i tam jakiś szczytnik ekranu, czy jak to oni to nazywali, narrator,
powinien być.
Co on potrafi, co czyta, czego nie czyta,
czy obsługuje język polski, nie wiem.
Nigdzie informacji o tym nie ma.
Więc zanim się zdecydujesz na taki telewizor,
to ja polecam ściągnąć sobie instrukcję obsługi,
jeśli Hajsens taką instrukcję udostępnił.
Jeśli nie, no to ewentualnie nawet przejść się do sklepu po prostu i zobaczyć gdzieś tam model,
czy jakby się dało tak poprosić, żeby zobaczyć ustawienia, czy takie funkcje są.
Bo gwarancji niestety dać nie mogę.
Dobrze, no to były telewizory, to teraz sobie porozmawiamy o aplikacjach do AI,
do obsługi różnych modeli sztucznej inteligencji, bo tutaj trochę się działo ostatnio.
Głównie przez to, że pojawił się nowy model od OpenAI, czyli GPT-5.
O tym Maciek później powie więcej w technikaliach.
Natomiast dla tych, którzy będą chcieli z tego modelu korzystać
wewnątrz różnych aplikacji, to spokojnie deweloperzy bardzo szybko
wypuścili aktualizacje, które ten model dodają.
Którzy deweloperzy? Na przykład deweloper PeakyBota, który już też
doczekał się obsługi GPT-5 do opisywania zdjęć i filmów,
No bo do tego PeakyBot akurat służy, jak napisał pan Martin van der Speck na swoim Facebooku.
PeakyBot właśnie doczekał się wsparcia GPT-5. Użytkownicy wersji Pro mogą wybrać pomiędzy modelami GPT-5 Nano, Mini, GPT-5 oraz GPT-5 Pro.
Pisze osobiście, że są nawet dobrze działające do opisywania zdjęć,
tak zaskakująco dokładne.
Model Nano, co ciekawe, tutaj warto uwaga,
na przykład generuje bardziej zwięzły opisy.
Jak ktoś woli takie bardziej zwięzłe opisy,
no to tutaj poleca właśnie z tego korzystać.
Ponadto aktualizacja na iOS-a pozwala na kopiowanie
i wklejanie zdjęć do ich opisu.
I tutaj Martin sugeruje, że to nam może przydać
W sytuacji kopiowania obrazku, opisywania obrazków z Facebooka.
No bo gdzieś z poziomu Facebooka, nie wiem czy to jest na ekranie udostępniania,
można zdjęcie skopiować i później z poziomu piggybota takie zdjęcie można wkleić po prostu.
I dzięki temu nie musimy już się bawić w robienie screenshotów, zrzutów ekranu,
bawić się w jakieś udostępnianie ekranu, zapisywanie do rolki aparatu.
Tylko możemy po prostu obrazek skopiować do schowka i później z poziomu piggybota
…na taki obrazek z Facebooka, czy jakiejś innej aplikacji,
która może niekoniecznie pozwala na udostępnienie zdjęcia na zewnątrz,
to może pozwoli na jego wklejenie, skopiowanie nawet,
będziemy w stanie takie zdjęcie opisać.
Tak że to jest coś, co pewnie wielu użytkownikom ułatwi pracę.
Natomiast Marcin cały czas sugeruje,
że jeśli dana aplikacja oferuje opcję udostępnienia,
to lepiej z tej opcji skorzystać, bo wtedy opisy będą bardziej dokładne.
A na przykład w przypadku YouTube’a, no to nie zapominajmy, że PeakyBot jest w stanie czy z Instagrama chyba zresztą też zdjęcia pobierać, jeśli po prostu mu udostępnimy link.
Także tutaj ta aplikacja pod tym względem jest naprawdę rozbudowana.
Następnie przechodzimy do komputerów, a tutaj zaktualizowała się nam Volama, czyli program zarówno na Windowsa i na Maca.
taki alternatywny klient do rozmawiania z różnymi modelami AI od Chikima.
I tutaj standardową nowością w wersji 0.5,
bo tutaj zresztą Volama nawet oczekała się dwóch aktualizacji
w ciągu ostatniego tygodnia.
Jest właśnie wsparcie dla GPT-5,
ale to nie jedyna nowość, bo co jeszcze zostało dodane?
Jeśli używamy funkcji Dołącz URL,
możemy wskazać bezpośredni link do jakiegoś obrazka
i on zostanie nam dołączony w pole na prompt.
Akceptuje zarówno Shift Enter, jak i Ctrl Enter,
aby wstawić nowy akapit.
Zmieniono nazwę polecenia SpeakResponse na ReadResponse w menu chatu.
Dzięki temu teraz w Windowsie
dostało derygowane skrót kawiszowy, czyli literkę R,
więc możemy łatwiej sobie włączyć lub wyłączyć syntezę.
I to jest wersja 0.5.
Natomiast w wersji 0.6
Na Windowsie aplikacja może do nas mówić przez czytnik ekranu zamiast syntezą.
I to też znajdziemy w menu chat. Możemy tam się przełączyć z SAPI na czytnik ekranu.
Na Macu aplikacja teraz korzysta ze starszego API NS Speech Synthesizer.
To po prostu powoduje tyle, że aplikacja teraz będzie używała naszego domyślnego głosu
ustawionego w systemie, a nie jakiegoś losowego głosu.
Niestety w tym nowym API są problemy, których Apple jeszcze niestety też nie rozwiązało,
więc tutaj Volama po prostu obeszła ten problem.
Jeszcze też na Macu głosy zostały zorganizowane do podmenu.
Dodano opcję zresetowania wszystkich ustawień w menu zaawansowane.
Dodano ostrzeżenie, kiedy resetujemy jakieś ustawienia niekomandybilne z bieżącą wersją.
I komunikat powitany będzie odczytywany tylko, jeśli mamy włączoną opcję czytania odpowiedzi.
Więc jeśli mamy to wyłączone, to nie będzie Dona Sapi czy Skinner mówił,
wola ma uruchomiona. Także tutaj też po prostu będzie takich komunikatów mniej.
Zostając jeszcze przy wątku aplikacji, które GPT-5 wspierają, to nie jest koniec,
bo generalnie wszystkie popularne aplikacje, które pozwalają na korzystanie z różnych modeli,
Już to GPT-5 dostają i to są takie pomniejsze funkcje.
To są aplikacje takie jak Bolt.ai na Macu.
Bolt.ai pozwala z GPT-5 korzystać.
To zarówno w wersji oficjalnej, jak i dostępnej w ramach setupa.
PalChat. Podobnie, tym razem jest to aplikacja na iOS-a,
w której możemy własne klucze API wkleić i korzystać z różnych modeli.
Tutaj też GPT-5 już się pojawiło,
Więc możemy z niego korzystać.
I też kolejny alternatywny klient,
taki bardziej zautomatyzowany dla osób niewidomych,
czyli Basilisk LLM.
On też już doczekał się GPT-5,
natomiast niestety tutaj znów mamy taki problem o tyle,
że ten GPT-5 jest dostępny wyłącznie w kodzie źródłowym.
Więc gdyby ktoś chciał z GPT-5 w Basilisku korzystać,
no to na ten moment jeszcze zobaczy,
Czy może w międzyczasie nie pojawiła się nowa aktualizacja?
Musimy korzystać po prostu z wersji nieskompilowanej.
I niestety faktycznie tak jest.
Jeśli chcemy korzystać z GPT-5 w asylisku,
to lepiej go po prostu z kodu uruchomić.
Może zanim opuścimy wątek AI,
podrzucę jeszcze jedną rzecz, która była właściwie w drobnych newsach.
Ona jest ściśle związana z AI.
A więc może, żeby tak nie zaśmiecać tych drobnych newsów,
w których spoiler będzie dzisiaj trochę dużo,
to damy ją tutaj, a mianowicie OmniDescriber,
czyli program do opisywania filmów poprzez…
używając Gemini, o którym mówiłem dosyć dużo ostatnio,
doczekał się dużej aktualizacji,
która generalnie ma za zadanie poprawianie błędów.
I takich błędów istotnych,
które na szczęście generalnie już poprawione zostały.
I takim najważniejszym błędem, który został poprawiony w wersji 1.1,
a właściwie 1.2, bo w międzyczasie jeszcze się Hotfix do tej wersji pojawił,
jest nowy odtwarzacz wideo.
Jak wspominałem, kiedy tę aplikację omawiałem po raz pierwszy,
to ten odtwarzacz był bardzo kapryśny, nie wszystkim chciał działać,
nie wspierał wszystkich filmów.
Czasami to wyglądało tak, że po prostu filmy się nie odtwarzały.
To mogliśmy wygenerować opisy, natomiast sam ten odtwarzacz,
który mówi przez czytnik ekranu, nie działał.
Ten odtwarzacz został przeprojektowany od zera,
teraz korzysta z VLC w tle
i dzięki temu generalnie powinien działać wszędzie i działać stabilnie.
Mogę to potwierdzić, bo ta najnowsza wersja
np. na mojej wirtualnej maszynie Windowsa ARM
działa już normalnie, wszystko działa tak, jak powinno,
gdzie poprzednie wersje się wysypywały,
przynajmniej ten komponent odtwarzacza nie działał,
Otóż w tej najnowszej wersji ten problem został naprawiony.
Swoją drogą, może kiedyś pojawi się natywna wersja na Maca,
ale nie wie kiedy, bo jest użytkownikiem Windowsa,
ale takiej możliwości nie wykluczył.
W międzyczasie możemy po prostu z tej wersji korzystać.
Ale to nie jedyna nowość, która się pojawiła,
bo poprawiono niektóre niedziałające nowe języki,
…które nie działały z audiodeskrypcją i w poprzedniej, tej głównej wersji,
no to właśnie mamy ten nowy odtwarzacz.
Możemy korzystać z 32-bitowych głosów SAPI.
Domyślne ustawienia zostały bardziej zautomatyzowane
pod lepszą jakość audiodeskrypcji.
Pobieranie z YouTube’a powinno działać bardziej stabilnie.
Teraz będzie mniej prawdopodobne, że napotkamy jakieś błędy.
No właśnie, tutaj wymieniono odtwarzacz,
komponent utwarzaża, który powinien po prostu działać lepiej.
Dodano wsparcie dla większej ilości formatów wideo.
Funkcje eksportu zostały skonsolidowane do jednego okna dialogowego,
więc powinny być łatwiejsze do znalezienia.
Jeśli wyeksportujemy film do pliku .txt, to zostanie nam wygenerowany
sam opis, same audiodeskrypcje bez informacji o czasie danego
W opisie mamy opcję eksportu SRT, więc zawsze do tego opcja jest.
Jeśli korzystamy z funkcji glosariusza imion postaci,
to ten glosariusz będzie aktywny w trybie eksploracji scen,
o którym mówiłem.
Możemy sobie rozglądać się strzałkami po scenie
i sprawdzać różne obiekty.
Będą też identyfikowane imiona postaci, jeśli je wpisaliśmy.
Jeśli Gemini nie wygeneruje nam opisów, a to się zdarza często,
bo filtry bezpieczeństwa Google są dosyć aktywne,
to komunikat błędu, który dostaniemy teraz,
będzie bardziej szczegółowy i nam podpowie prawdopodobnie,
co się stało i co ewentualnie możemy zrobić,
żeby spróbować ten problem obejść.
Program jest też dostępny teraz w języku włoskim.
Możemy też korzystać ze starszych wersji modelów.
Wtedy musimy w ustawieniach włączyć segmentowanie filmów,
bo starsze modele nie są w stanie pouknąć całego 20-minutowego filmu
jak ten najnowszy model Gemini, więc warto o tym wtedy pamiętać.
I mamy aktualizację dokumentacji.
I też edytor opisów został zaktualizowany
i pozwala nam ręcznie wprowadzić zmiany nie tylko do danego opisu,
ale też możemy zmienić czas, w jakim ten opis ma się pojawić.
Więc jeśli mamy jakiś opis, który jest czytany za późno
albo za wcześnie, nie wiem, sekundę, dwie,
to możemy sobie ten opis przesunąć w czasie,
zanim wykonamy eksport lub ręcznie jakieś opisy do filmu dodać.
Różne komunikacje błędów powinny być bardziej opisowe.
Kilka dodatkowych dźwięków zostało dodanych,
informujących nas o postępie działania aplikacji
Mamy też przekład na język francuski, na język arabski, na język portugalski,
poprawki do eksploratora scen i dużo różnych poprawek, błędów z odtwarzaczem,
z eksportem do MP3, który nie wszędzie działał, z pobieraniem z YouTube,
eksportem napisów i poprawki wydajności.
Także cały czas też Omni Describer się rozwija.
Jeśli ta aplikacja Wam w tej poprzedniej wersji nie działała,
a wiem, że u wielu osób, zwłaszcza ten otwarasz,
powodował, no, nierada, problemy,
no to popiszcie sobie tą najnowszą wersję jeszcze raz.
Będzie link w komentarzu,
bo naprawdę warto i ta najnowsza wersja
już powinna generalnie działać bardziej stabilnie
na praktycznie każdym komputerze.
No i to wszystko.
A teraz słówko od Was,
a konkretnie od Sylwestra.
Dobrze, że jest Timtok na Androida i na Windowsa. Dobrze, że jest.
A jeżeli chodzi o aplowskie urządzenia, to trzeba się zgłosić do Apple’a i do producenta Timtoka,
żeby coś tam zrobili, żeby to grało z aplowskimi urządzeniami.
Patryk z tej strony.
Tym razem krócej czekałeś.
Tak, bo po prostu to się działo z tąd, że ja musiałem gdzieś po prostu pójść i dlatego się rozłączyłem.
A moi rodzice wyjeżdżają jutro, więc musiałem jeszcze kilka spraw ustalić.
Natomiast ja chciałem tutaj poruszyć kilka spraw.
Pierwsza sprawa, jaką chciałem poruszyć, to jest to, że przegrałem z Apple Intelligence.
I to przegrałem w zasadzie, można powiedzieć, że na pełnej linii,
ponieważ próbowałem robić wiele testów z tym, żeby w ogóle cokolwiek z tego przetestować,
zarówno na iOS-ie 18.4, jak i na betach iOS-a 26. Już mówię, o co chodzi.
Czyli próbowałem w języku zarówno angielskim, USA jak i UK.
Wszystko w porządku, jakby było w sensie modele sztucznej inteligencji,
model się ściągnął.
Natomiast w zasadzie nie mogłem z żadnych z tych funkcji skorzystać,
czyli na przykład nie działo mi podsumowanie powiadomień,
mimo że miałem po prostu powłączone to wszystko.
Natomiast rzecz, która mnie totalnie dobiła,
To jest podsumowanie stron internetowych.
Próbowałem na wielu artykułach angielskich stron,
np. Appleviews, z jakichś tam wywiadów, różnych artykułów.
I o co mi chodzi?
Kiedy sobie otworzymy w Readerze taki artykuł,
no to mamy na samej górze, pod nagłówkiem z artykułem,
przycisk Summarize, czyli po polsku to nazywa się streść.
No i tak, po kliknięciu w ten przycisk, ten przycisk Summarize,
dosłownie w sekundę, zmienił mi się na przycisk Summary.
Summary się pisze, czyli jakby już, żeby to strasznie pokazać.
Nawet nie miałem od przeglądarki w przeglądarce z awarii żadnej informacji,
że coś się robi, że on coś w tym momencie przetwarza,
że coś się dzieje, nic kompletnie, po prostu w sekundę po kliknięciu
ten przycisk sobie zmienił swój stan. Problem polega na tym,
że w ten przycisk summary ja mogę sobie po prostu klikać, klikać,
klikać, klikać, klikać i nic się nie dzieje.
Klikam sobie w niego i nadal strona w safari pozostaje tą stroną z safari,
Z wywiadem nie pokazuje się żadne okienko, żadne powiadomienie.
Ać bym przytrzymywał ten przycisk, robił na nim cokolwiek. Nic.
Tak samo przy pisaniu wiadomości Riding Tools rzekomo miałoby mi się pokazywać nad klawiaturą,
żeby AI podsumowało, co chce napisać. Nic. Również to nie działa.
Podsumowanie powiadomień. Raz mnie grzecznie sztuczna inteligencja zapytała,
czy ma podsumowywać powiadomienia z Discorda. Mogą wystąpić błędy.
Kliknę przycisk Continue Summarizing. Problem polega na tym, że nic,
żadnego podsumowania powiadomień nie dostawałem, ani na ekranie blokady,
ani nigdzie indziej. A ja próbowałem już z tą sztuczną inteligencją
Robić wiele rzeczy, wymuszać, wyłączać ją, włączać, pobierać ponownie, zmieniać języki.
To angielski UK, to angielski US, zmieniać region na angielski.
I nic. I ja się zastanawiam teraz, bo ja mam iPhona 16e.
Czy to po prostu nie jest tak, że po prostu Apple uleci ze mną w kulki?
Bo mimo tego, że mogę pobrać teoretycznie wsparcie dla sztucznej inteligencji,
to nie mogę tego używać.
Chociaż ja widziałem na stronie, że 16 i 16e są wspierane,
natomiast też czytałem na Redditzie,
że sporo osobom też ta sztuczna inteligencja nie działa.
Nawet na AppleWiz też ktoś pisał.
Tak że najlepszej funkcji podsumowanie stron internetowych
Nie wiem czemu to się nie chce klikać. Może ja czegoś nie umiem używać. Nie wiem. Nie mam pojęcia. Także przegrałem to już.
Może byście mieli coś, co byście mi poradzili. Czy po prostu nie ma co się tym zadręczać. Nie ma co testować.
Lepiej testować jakiegoś czata GPT czy inne takie rzeczy.
Wiesz Patryku, z drugiej strony może pojawi się rozwiązanie tego problemu, kiedy iOS ujrzy stabilną wersję.
Może wtedy się rozwiąże kwestia.
Czy ktoś z Was testował to podsumowanie i jak to powinno się zachowywać?
To znaczy, no ja na pewno, ja na pewno
na Mac OS jeszcze w Mac OS 15
jak, jak, jak ta inteligencja wchodziła.
No tyle, że ja to testowałem, ja to testowałem po niemiecku i
i to mi generalnie działało, więc jestem zdziwiony
tym, że to by to się działać nie chce, bo
zobaczcie i język systemu miałem ustawiony na niemiecki i Siri
na niemiecki i te modele pobrałem.
Elegancko działało wszystko, wszystkie…
Znaczy model, jak w temacie…
To samo pobierało.
To po prostu tam było downloading support
for Apple Intelligence i tyle.
Tam nie było można wybrać, jaki się model chce.
Wiesz co, nie, nie, nie.
Tylko ogólnie to, że te modele, żeby te generalnie się tam pobierały.
Bo tam jest Apple Intelligence i Siri.
Tam chyba zdaje się można było sobie…
Jeszcze raz nie pamiętam, ale włączyć i wtedy on sobie te modele w tle pobierał.
Można to było gdzieś tam ogarnąć.
Mi to właśnie zastanawia, czy faktycznie ten iPhone 16e jest wspierany.
Wiesz co, powinien być, bo tak naprawdę od 15 pro, więc wszystkie szesnastki, włącznie z 16e.
Zwłaszcza, że wiesz, że jeżeli w ustawieniach masz Apple Intelligence i Siri,
To mam.
A ja mam to.
A to podsumowanie się pojawiło w Safari?
Kurcze i to działa i podsumowanie też.
Ale gdzie to się pojawia?
Co się dzieje?
Bo jak ty klikniesz ten…
Ja nie wiem czy to przypadkiem nie jest taki jakby osobny…
Znaczy na Makutach wygląda tak jakby
osobne takie…
poniekąd okienko, takie…
kolejne jakby w…
taki…
nie wiem, taka jakby… coś jakby wycina
jakby kolejnej stronie coś takiego.
To może się coś pojawia, tylko voice over nie jest w stanie z tym…
Nie wiem, no ja to na Macu, tak jak Ci mówię, testowałem, działało wszystko.
Włącznie z tym, że zdaje się, nawet powiadomienie miałem, kiedy też to zostawało zakończone,
zwłaszcza przy korekcie, przy przeformułowywaniu różnych rzeczy, bo też to sobie testowałem,
więc tak… Powiadomień niestety nie mogłem wytestować nijak, ale…
ale to tak i to mi działo wówczas w Mac OS-ie 15 tam chyba…
A Ty, Piotrze, coś próbowałeś też z tym?
Na iOS-ie, żeby ewentualnie…
To znaczy, wiesz, no, jak mówiłem, Apple Intelligence po prostu działało.
Więc nie myślałem, że…
Czy próbowałeś podsumowania strony robić?
Stron chyba akurat nie.
Natomiast, no, na pewno mi działa cała reszta, więc opowiadomienia w poszcie mi też
do podsumowania działają, w wiadomościach też parę razy widziałem.
Więc, no, nie wiem.
Co byś mi mógł poradzić? Poczekać, czy po prostu, nie wiem…
My chyba teraz tutaj w sumie nie rozstrzygniemy w tym momencie, no bo to jest…
Bo to jest o tyle…
To też jest niestety prawda taka, że co użytkownik, powiedzmy, to może mieć różne inne, nietypowe błędy.
I tak naprawdę sekcję w opinii, w sensie w aplikacji opinia dotyczącą Apple Intelligence masz, więc
w sumie wiesz, opisz to tam też bardzo konstruktywnie, szczegółowo,
Najlepiej sobie to jeszcze próbuj wytestować,
żeby to się znalazło wszystko w plikach diagnostycznych,
które też są automatycznie zbierane.
Wyślij im feedbacka, po prostu niech wiedzą.
Te modele są też po prostu pobierane,
one co jakiś czas się aktualizują.
I mi się zdarzały sytuacje,
akurat nie tyle za Apple Intelligence,
ale na przykład z rozpoznawaniem obrazków w VoiceOverze,
że czasami były takie sytuacje, że nie wiem,
jak były jakieś aktualizacje tych modeli,
to VoiceOver, po prostu ta funkcja przestawała działać.
Ja wtedy musiałem wejść do ustawień i co wtedy pomagało, to wyłączenie i włączenie tej funkcji.
Wiem, że ty już akurat próbowałeś to reinstalować, natomiast no tam różne dziwne rzeczy się dzieją w tle.
Więc tutaj wracamy do tego, co powiedział Maciek, tak?
No tutaj można próbować, nie wiem, na przykład przywracać skopii zapasowej i czyści cały system,
ale czy Apple Intelligence jest z tego warte, nie wiem.
Arek Świdnicki tydzień temu próbował i powiedział, że nic mu nie działa również.
Więc może faktycznie coś jest na rzeczy.
Natomiast teraz jeszcze chciałem się zapytać a propos Face ID,
ponieważ jest rzecz, która mnie po prostu irytuje,
a którą bardzo bym chciał zmienić, a nie mogę tego nigdzie znaleźć.
Czyli to, że Face ID jest jakby twarz skanowana w momencie kiedy
przyjdzie powiadomienie i wyskoczy na ekranie blokady powiadomienia
Po drugie, kiedy wcisnę przycisk boczny.
Bo czasami na przykład dzieją się dziwne sytuacje z tym związane,
że czasami, nie wiem, telefon sobie gdzieś leży, wyskoczy mi powiadomienie
i w pewnym momencie ja tego telefonu nawet nie podnoszę, wyskakuje powiadomienie,
słyszę urywek powiadomienia, więc spróbuj ponownie.
I ja nawet dzisiaj miałem sytuację taką, że ja sobie po prostu smacznie spałem,
mi jakieś tam powiadomienia przychodziły.
On teoretycznie próbował mi z twarzy zeskanować.
Obudziłem się i chciałem sobie tam zobaczyć coś,
no i musiałem wpisać PIN, bo on sobie akurat już te
trzy czy cztery próby nieudane zeskanowania twarzy zrobił.
I po prostu chodzi mi o coś takiego,
czy dałoby się jakoś ustawić to w taki sposób,
powiem, że kiedyś się chyba dało, jak miałem iPhone’a X,
żeby on rozpoznawał tą twarz w momencie, nie kiedy ja nacisnę przycisk boczny,
tudzież wtedy, kiedy mi wyskoczy powiadomienie na ekran blokady,
tylko w momencie, kiedy ja przesunę ten pasek blokady do góry
i on wtedy będzie skanował twarz.
Wiecie o co chodzi? Żeby to nie działo się natychmiast.
Czy to się jakoś da? Bo ja patrzyłem…
Słyszę, że mówiąc nie wiem, czy to się da. Natomiast co ja bym ci jeszcze, Patryku, zasugerował, to może spróbuj zrobić taki eksperyment i trzymać iPhone’a jakby tym elementem Face ID, jak na przykład gdzieś tam on leży obok ciebie,
to spróbuj trzymać go tym elementem, właśnie tą kamerką do Face ID jak najdalej od Ciebie.
Bo on prawdopodobnie wtedy nie będzie Cię łapał.
Ja dziś zauważyłem i tak sobie pomyślałem, bo Ty o to już nas pytałeś.
Ale ja czasami nawet… Michale, ja czasami nawet chcę sprawdzić procent baterii eksploracją
i dotknę tym palcem tego miejsca i on mi próbuje rękę zeskanować jako twarz.
Otóż właśnie chcę powiedzieć, bo on wyczuwa, mam wrażenie, ciepło.
I ja na przykład dziś tak się zastanawiałem, o co mu chodzi,
bo też mi parę razy skanował, czy tam próbował skanować,
ale próbował mi po prostu zeskanować łokieć,
bo leżał sobie ten telefon obok mojej ręki.
Ja sobie siedziałem przy komputerze, coś tu pisałem na klawiaturze, przyszło mi jakieś powiadomienie
i nagle on próbuje skanować. Myślę, aha, on próbuje po prostu, on wyczuwa ciepło.
I wtedy się uruchamia. Więc takim, powiedzmy, obejściem tego problemu to byłoby
to, gdybyś trzymał go jakby trochę odwrócony na przykład, żeby ta kamera
gdzie tam jest prawdopodobnie też jakiś czujnik, była dalej od Ciebie.
Ale już wiem, co zasugerować Apple’owi.
Żeby właśnie pochodzili.
Dokładnie, dokładnie. Tak, tak, tak.
A jeśli na to chodzi o powiadomienia podczas snu, to w ogóle kolejny taki pro tip,
to po prostu warto telefon odwrócić ekranem do dołu.
No chyba, że korzystamy z Siri, no to wtedy tam w opcjach dostępności
jest opcja, którą tam trzeba zaznaczyć, żeby to polecenie
Hej Siri działało, nawet kiedy telefon jest obrócony.
Bo to jest o tyle fajne, że wtedy nawet nam
voiceover się nie odezwie, bo telefon wie, że jest do dołu ekranem
i cały czas będą działać dźwięki, będzie działać haptyka,
ale po prostu ekran nam się nie włączy.
Okej, to okej, rozumiem. To w jakim razie…
To dzięki za te porady, ale już też będę mieć jakby do Apple’a
taki feedback, żeby po prostu coś takiego wprowadzić i żeby właśnie po przesunięciu on to skanował.
Myślę, że to jest jak najbardziej do zrobienia.
W opcjach dostępności w sumie, bo tam jest sekcja Face ID, być może jak to odpowiednio uzasadnisz,
dlaczego w sumie, to może kto wie.
Natomiast ja jeszcze chciałem dosłownie zapytać o jedną rzecz, żeby już też Was dłużej
Chciałem się Michale ciebie zapytać o program Becki,
ponieważ to jest ostatnio mój, że tak powiem, program,
jeżeli chodzi o pocztę, od niedawna i bardzo go polubiłem.
Dlaczego w programie Becki nie można mieć ustawionego
takiego widoku html, żeby w tym widoku html się wiadomości pojawiały?
Bo jeśli to mamy, to w tym momencie on nie dość, że tego nie czyta,
Takie dziwaczne przyciski. Dopiero jak ustawimy to jako plain text i załączniki jako HTML, no to w tym momencie jest w tym plain text pod strzałkami normalnie te wiadomości są czytane. Czy to jest jakiś problem z dostępnością w Beckim?
Dokładnie. To jest problem dostępnościowy. Jeżeli bardzo Ci zależy na tym, to pozostaje Ci zgłaszać to do twórcy.
Może będziesz miał więcej szczęścia niż ja i ci odpiszę. Istnieje taki ktoś, komu ponoć odpisał.
Arek Świętnicki deklaruje, że udało mu się nawiązać z nim jakąś korespondencję.
Mi na przykład, a pisałem do niego kilka razy. Nie udało się nigdy uzyskać żadnej odpowiedzi.
Ale wiesz co, nie przeszkadza mi to, ponieważ zawsze wiadomość pod tabem w formie html się pojawia jako załącznik.
Tak i można sobie to otworzyć dokładnie w przeglądarce. Ja tak robię.
Jeżeli już koniecznie chcę wiadomość w html-u, albo na przykład wiadomość nie ma zawartości tekstowej,
Dla mnie najważniejsze w wiadomościach, jeżeli coś mają takiego klikalnego, co jest mi potrzebne, to są linki. A wtyczka Łukasza Golonki do Becki działa dalej.
A co to za wtyczka? Nie słyszałem w ogóle o czymś tym.
Jest wtyczka. Co prawda ona tam już ma ileś wersji NVDA do tyłu i trzeba podnieść tę wersję wspieraną, bo nie wiem czy Łukasz jeszcze ją rozwija czy już nie, ale jest wtyczka do beki i ona na pewno pozwala na klikanie w linki enterem po prostu.
Chyba jeszcze pozwalała na przejście na listę załączników w edytorze wiadomości.
Zdaje się, że był do tego jakiś skrót. Ale przede wszystkim ta wtyczka mi daje klikanie w linki.
Bo bez tego to trzeba, wiadomo, sprowadzać wskaźnik myszki do punktu uwagi.
U mnie w ZDSRze pomogło, po prostu ustawienie się na początek linku, na pierwszą literę i kliknięcie tak zwanym elementerem numerycznym.
A jak w Beckim zrobić, żeby na liście wiadomości pokazywały się polskie znaki, bo mam ustawione tam Unicode i to co tam trzeba,
A wiadomości na jakby na liście, bo jakby wewnątrz wiadomości już jest dobrze, ale lista wiadomości pokazuje zepsutek.
Chyba muszę wrócić do audycji o Beckham.
Czy za którymś razem mi to zadziałało, czy ja to osłownikowałem w końcu?
Wiesz co, nie pamiętam, naprawdę.
Ale wiem, że chyba była audycja obecnie.
Tak, tak, była, była.
No to jeszcze tak króciutko, że dzisiaj przed audycją dosłownie kupiłem Polsat BoxGo abonament na rok
i przetestowałem aplikację Polsat BoxGo.
No i muszę powiedzieć, dzieje się, dzieje się.
Jest piękny dostęp w samym interfejsie, jeżeli chodzi o listę kanałów,
listę seriali, które możemy oglądać. Wreszcie ta lista kanałów jest naprawdę dostępna.
Nawet są podpowiedzi dla voice-overa. Co ciekawe, jak kupujemy abonament,
jesteśmy na liście tych ofert, to np. mamy podpowiedzi voice-overa w stylu,
Jak np. ja tam sobie wybrałem ofertę Starter, to miałem np. tam oferta Starter.
Kliknij dwa razy, żeby zaznaczyć, a następnie kliknij przycisk dalej.
I to była podpowiedź dla VoiceOvera.
O proszę, no to fajnie.
I w momencie, kiedy coś zaznaczyłem, to było powiedziane, że zaznaczono.
I po kliknięciu dalej mogłem bez problemu tą subskrypcję sobie kupić.
Sam odtwarzacz Polsat BoxGo, no niestety on się ukrywa na samym początku.
Jak włączymy film, on nam powie, tam zamknij przycisk.
Ale nie ma się czego bać, my nie zamkniemy sobie tego.
Tylko w momencie, kiedy klikniemy w odtwarzacz, on nam się pojawi.
No i tam mamy przyciski typu pauza, przewijanie.
Jeśli oglądamy kanał na przykład z tych polsatowskich rzeczy czy TVP2 czy Polsat,
mamy jakiś materiał, możemy kliknąć nawet, żeby nam odtworzył się od początku.
I to też możemy zrobić. Możemy pauzować. Nie sprawdziłem, czy działają dwa palce.
Stuknięcie dwoma palcami. Natomiast w czym jest problem?
Na przykład na Polsacie, jeśli klikniemy sobie w ten przycisk
przycisk ustawienia dźwięków i napisów,
no to niestety po kliknięciu w ten przycisk nie stanie się nic.
On się po prostu nie kliknie.
I na wszystkich polsatowskich programach typu Polsat, TV4,
Polsat 2.0 mam ten pakiet Starter,
no to jest ten przycisk, natomiast on nie robi nic.
Natomiast na kanałach typu TVP2, TVP1, TVN
w ogóle nawet nie ma tego przycisku.
Albo coś się ruszy jeszcze,
albo po prostu jeszcze nie wszędzie ta audiodeskrypcja jest.
No właśnie, pytanie ze 100 punktów.
Pytanie ze 100 punktów, czy to jest tak jak w filocie WP,
że po prostu tego nie było i musieli to dodać,
dlatego po prostu nic się nie wyświetla,
czy mamy jakiś błąd dostępnościowy?
Bo ja wiem, że nawet kiedy jestem w stanie odpalić sobie te ustawienia
i tam mam póki co tylko napisy, jeśli chodzi stricte o seriale kanałów, szczerze mówiąc, nie testowałem, ale…
Aha. Natomiast Polsat BoxGo już też dołączył do tego grona, którzy coś robią, także chwała im za to. Ja lubię Polsat, więc…
Niech robią i niech robią jak najwięcej.
Zauważyć na szczęście tak, no.
Dobrze, to tyle ode mnie w takim razie.
Jeszcze a propos Face ID może powiem, bo to tak a propos różnych tego co on łapie w zasięgu, to też staraj się nie mieć w polu widzenia, nie wiem, jakichś butelek na przykład, czy mikrofonów, czy czegoś.
Zdarzyło mi się za dwa razy, że raz mi właśnie złapał mikrofon chyba, mimo że mnie nie było przy iPhone’ie, w ogóle byłem sobie gdzieś w drugim końcu pokoju,
No a drugim razem moją, moją cudowną butelkę filtrującą, także
o której swego czasu też była zresztą audycja tam o butelkach filtrujących
i stąd mam butelkę filtrującą. No, ale, ale też mi złapał.
Okej, to dziękuję w takim razie za…
Dzięki Patryku. Do usłyszenia.
Do usłyszenia.
W sumie, cześć Patryku. Odnośnie jeszcze właśnie Polsat BoxGo.
W apce, fajnie, że się dzieje. Na stronie jeszcze nie do końca,
Jak też ostatnio pakiet kupowałem, to kwestia była taka, że dawniej tego w ogóle przycisku do zaznaczania checkboxa jako checkboxa nie było, tylko to było klikalne coś, co w sumie się nie chciało klikać.
Kiedyś to był w ogóle tekst, potem się zrobiło klikalnym, co się nie chciało klikać, teraz się zrobiło checkboxem, który nie do końca się jeszcze chce zaznaczyć.
Natomiast, to znaczy ani wospacją, ani spacją, ale co ciekawe, jak się tam troszeczkę potabuje, poshiftabuje i jeszcze gdzieś tam się na ten, na ten checkbox natrafi, da się enter, nam akurat return, to to się wtedy zaznacza, co ciekawe, więc taki protip, jakby ktoś sobie chciał przez stronę kupić i mniej, troszkę zapłacić mimo wszystko, tak że to działa, a player, no cóż, no, za player to się jeszcze póki co należy modlić jak za TVP, bo tam jeszcze jest totalny, ja sobie w ogóle pakietu nie mogłem w ogóle kupić na TVP,
Nawróć na playerze. Znaczy zrobiłem to w ogóle w sposób
google’owy, wejścia w ofertę, coś tam dopiero po zalogowaniu.
A tak? Nie, w ogóle gdzie tam, nie da się.
A TVP.pl też jakkolwiek stronę poprawiło, także jak ktoś potrzebuje VOD i TVP.pl
tam można coś zrobić.
Nawet czasami bardzo ciekawe opisy alternatywne dostajemy na te takie duże
ilustracje produkcji, co chyba pierwszy raz się z czymś tak nie spotkałem w sumie.
W końcu się zaczyna działać. Niech żyje Unia.
Tak i oby właśnie, oby w tę stronę to szło. Czekamy aż wszyscy dołączą do tego peletonu dostępności.
Odbieramy kolejny telefon. Kogo witamy tym razem?
No witam tym razem głosowo Bartek po tej stronie w tym tygodniu się kłania.
Cześć Bartku.
No czuję się troszeczkę jakby wywołany do tablicy, bo przed chwilą Patryk wspominał
Pierwsza odpowiedź, którą mogę Patrykowi udzielić.
Gest, niestety, dwa razy dwa palce nie działa na odtwarzaniu,
bynajmniej na programach telewizyjnych.
Nie wiem, jak jest w materiałach filmowych.
Jeżeli wyszukamy coś w aplikacji, to sobie to odtworzymy.
Też niestety nie.
Też mi się wydaje, że to może być połączone ze sobą.
To akurat prawda.
I teraz taki mały apel i prośba może do Patryka,
bo ostatnimi czasy zauważyłem, że bynajmniej w Polsat Box Go
na pełnym internecie, jakby to powiedzieć tak,
czyli podczas kiedy telefon jest podłączony do stacjonarnego, stabilnego Wi-Fi,
ta aplikacja po prostu zaczyna się ciąć.
Czyli jest odtwarza, odtwarza i nagle przestaje.
I pokazuje nam się ładowanie i przycisk zamknij.
Lub nie odtwarza i po chwili pokazuje nam się po prostu błąd i możemy albo to odświeżyć, albo wyjść.
Czyli można powiedzieć, że sytuacja i tak na jedno wychodzi. I teraz właśnie tutaj taki apel, żeby Patryk po prostu zaobserwował,
czy ta sytuacja się tylko dzieje u mnie, czy też może to jest bardziej globalny, że tak powiem, problem.
bo ja odezwałem się tutaj na skrzynkę mailową do Polsat Box Go.
Zalecali i polecili mi zrobić screen ekranu, w ogóle zaczęli od tego pytania,
jak mi powiedzieć, w jaki sposób jestem zalogowany, więc ja tutaj powiedziałem,
że zostałem zalogowany za pomocą Apple ID,
ale co dziwnego, nie wiem czy wiecie, czy w każdej takiej z aplikacji,
kiedy logujemy się Apple ID, to rzeczywiście ten nasz
adres e-mail jest ukryty i każda aplikacja generuje jakby
taki swój własny adres e-mail.
Podczas rejestracji możesz zdecydować o tym.
Tak.
Dla każdej aplikacji osobno.
No właśnie, bo tutaj zauważyłem, że jak wszedłbym
w polsabox.gov, w zakładkę com, to adres ten mailowy był zupełnie jakiś taki wyrwany po prostu z kontekstu.
De facto końcówka była com, ale to nic nie było z tym związane, więc czy ewentualnie spróbować się wylogować
i zalogować jeszcze raz Apple ID, ale tym razem, żeby adres był odsłonięty?
Raczej to już ci nic nie da, bo po prostu Apple będzie pamiętała, że ty już założyłaś konto dla tej usługi i po prostu wtedy cię zaloguje.
Generalnie, gdybyś chciał mieć nad tym kontrolę w przyszłości, to wygląda tak, że jak pierwszy raz klikasz zaloguj się przez Apple i Apple wykryje, że nie masz konta w danej aplikacji, w danej usłudze,
to tam się wyświetli, na dole okna jest zawsze przycisk kontynuuj,
więc informacja, załóż konto, używając swojego Apple ID,
czy właściwie konta Apple teraz się to nazywa.
I tam będą dwie opcje, domyślnie jest właśnie zaznaczona opcja
ukryj mój adres, będzie napisane, gdzie wiadomości mają być przekazywane,
a pod spodem będzie przycisk pokaż e-mail, tam możesz to zaznaczyć
i wtedy w aplikacjach dostanie twój prawdziwy adres.
I też sobie można to konfigurować, wybrać,
Jeśli masz więcej niż jeden podpięty do Apple ID,
nie tylko główny, ale kilka różnych, to wtedy te adresy też…
Który sobie zaznaczysz, ten będzie wtedy do aplikacji podany.
Czyli tak reasumując, tak naprawdę to im nie pokaże tego adresu,
bynajmniej, chociaż mam ten adres ukryty,
to czy oni dojdą do tego, jak im wysłałem tego skriona z tym adresem,
który mi się wyświetlał w zakładce konto?
Wiesz co, moim zdaniem tak, bo oni to właśnie ten adres widzą.
O ten adres im chodzi prawdopodobnie, bo ten adres jest przypisany do Twojego konta.
Dokładnie.
No i właśnie tutaj, Patryku, jeżeli ewentualnie przez najbliższe dni byś mógł to zaobserwować
i dać ewentualną odpowiedź w przyszłym tygodniu, to byłoby fajnie,
bo ostatnimi czasy właśnie chyba dość od tygodnia zauważyłem,
że właśnie zarówno na danych komórkowych, jak i na stabilnie liczni
ta aplikacja zaczęła mi szwankować.
I to zarówno na iPhone’ie 12, jak i na 13, więc…
Bo takie epizody już były niestety i generalnie nawet to miało
swoje odzwierciedlenie w App Store, w sensie w recenzjach
użytkownicy też się gdzieś na to mocno skarżyli.
Potem problem ustąpił. Ja nawet jakiś czas temu na Apple TV z tą apką też miałem chwilowe problemy, ale znacznie mniejsze.
Teraz już ich w zasadzie nie doświadczam, ale jeżeli na iPhonie ich nadal doświadczasz, no może być problem generalnie.
Chociaż tutaj jeszcze taka informacja też dla Patryka, bo Patryk powiedział, że wykupił sobie ten pakiet Start, tak, jak dobrze zrozumiałem.
To jeżeli chodzi o programy telewizyjne, to tak naprawdę te polsatowskie programy typu Polsat Sport 1 i tak dalej, to niestety trzeba wykupić już osobno.
I z tego co zauważyłem, to chyba jest subskrypcja miesięczna, z tego co wiem, i tak naprawdę jeżeli chodzi o kwestię ekonomiczną,
wydaje mi się, że jeżeli nie interesujemy się daną dziedziną, to tych kanałów po prostu w ten sposób chyba nie opłaca się wykupywać.
Ale jak najbardziej właśnie, czy Polsat, TV4, Puls, Jedynka, Dwójka, TVNT, te programy są jak najbardziej dostępne.
No właśnie, już gorzej w stanie polsatowskim i typu Polsat News, Polsat Sport i tak dalej.
Ale ogólnie sama aplikacja jest dostępna, bo jak tutaj też Patryk chyba o tym też mówił,
Jak mamy odpalone jakieś wideo, to po dwukrotnym wciśnięciu pokazuje nam się to okno z takim playerem, można powiedzieć, że można zarówno zamknąć aplikację, jest przycisk pauza, przycisk 10 sekund wstecz do przodu, więc to jest w miarę dostępne.
Tylko on pojawia się i znika tak naprawdę po paru sekundach.
Tak, po paru sekundach on znika. To prawda, więc tego też trzeba pilność.
Tam chyba jest 10 czy 15 sekund chyba jest tego czasu, z tego co tak można oszacować.
A propos aplikacji Polsat BoxGo, tak troszeczkę się tutaj pochwalę.
Będę miał okazję ją sprawdzić na iPhone 16, gdyż dziś, że tak powiem,
już podpisałem umowę na tego iPhone’a, więc na dniach on do mnie przyjdzie
i chyba od razu go skonfiguruję, więc zobaczę jak tam się będzie
się te aplikacje sprawować.
Zobaczycie…
Dziękuję serdecznie.
Zobaczymy w ogóle jak on będzie się
sprawował ogółem.
I to wy raczej nie powinien
mieć problemu.
Powinna być Wawa, tak?
Tutaj wiadomo, głównie ze względu na
moją eksploatację, biorę tego
iPhone’a, no bo jednak ja go używam
praktycznie do wszystkiego, tutaj on
służy mi nie tylko jako telewizja
czy muzyka, ale również jak
Wszystkim, chociażby do samej nawigacji, prawda?
No trzeba aplikacja bankowa.
Mimo tego, że będzie go trzeba spłacać przez trzy lata, jednak wydaje mi się, że to jest bardzo dobra inwestycja.
Tak mniej więcej orientujecie się, po ile teraz stoi? Bo chciałbym tak mniej więcej wiedzieć, ile ewentualnie tutaj dopłacę biorąc u operatora.
Oj, to chyba nikt z nas nie ma cennika.
Bo ja wam mogę powiedzieć, z tego co dzisiaj czytałem tutaj w dokumentacji,
to ja chyba za niego 3800, więc nie wiem czy w tej chwili jakoś tak
mniej więcej w tych samych cenach można go nabyć?
Nie wiem czy nie drożej przypadkiem nawet.
Tak naprawdę…
Bo ja wziąłem tą wersję klasyczną i 128 GB pamięci, więc…
Może dlatego jest ta cena.
To jest podstawowa w tym momencie pojemność.
On chyba jest między 1700 i 1900.
Ja nie myślę, żeby był droższy ani tańszy.
Jakoś tak te widełki się kształtują.
Jeszcze drugie pytanie, z którym chciałem pisać,
ale skoro tutaj już dzwonię.
To Michale, chyba pytanie do Ciebie, bo w kwestii Windowsa i dodawania języków klawiatury, nakierujesz mnie, w którym miejscu to się konkretnie robi, bo zarówno sprawdzałem i ustawienia, i panel sterowania.
A chciałbym dodać chociażby język niemiecki na próbę, bo tutaj będę, że tak powiem, chciał coś sprawdzić.
Bartku z pamięci, to też nie powiem Ci, w ustawieniach klawiatury to nie jest przypadkiem gdzieś?
Patrzyłem w ustawieniach i tam jest język i data. Jak wejdziemy w ustawienia, jak to się nazywa?
Tak, czas i język. Jakoś tak. Wydaje mi się, że to jest właśnie tam.
Ja pamiętam, że to było w Windowsie 10, w Windowsie 11 i mimo wszystko ten ekran ustawień się troszeczkę zmienił.
No właśnie, ja korzystam z jedenastki, więc…
Tak, tak, kojarzę właśnie.
Jak wpiszesz pod Windows i język, to ja mam na przykład tu taką opcję
edytuj opcję języka i klawiatury. I wchodzę sobie w to.
Sekundeczkę pozwolisz Michale, ja tu sobie to odpalę.
Zresztą ta wysłuchiwek jest bardzo fajna, bardzo pomocna tam pod tym Windows i.
Zwłaszcza w tych nowych ustawieniach, które są w jednym wielkim apilarnym.
Dajcie mi dosłownie sekundkę, dobrze? Bo jednak potrzebuję do tego dwóch rąk.
I mówisz, żeby wpisać w wyszukiwarkę język?
Tak.
Tak, ja bym tak…
I jest tu link. Dodawanie nowej opcji języka klawiatury. Jak wejdę sobie w te ustawienia,
to wchodzę sobie w dodawanie nowej opcji języka klawiatury.
I tutaj tabulatorem, tak? Rozumiem odstawić go. Idziemy?
Wiesz co, nie słychać swojej syntezy.
A nie, tu mi się otworzyła pomoc.
Już, już, już, sekundeczkę, bo ze względu na to, że do Was dzwonię, akurat zrobię im ciszej.
To o co Tobie, Michale, chodziło, tak?
Myślę, że tak.
Myślę, że tak.
Dobrze.
Teraz spróbuj przejść tabem. Tutaj gdzieś powinien być przycisk dodaj.
No właśnie, cały czas idę tabulatorem i mam region, format regionalny.
To właśnie widziałem już w tej zapadce język i region.
Pokaż więcej ustawień i co jest zwinięte.
Powiązane ustawienia grupa. Data i godzina grupa, strefy czasowe.
Data i godzina grupa, sprawodzanie pisowni, autokorekta.
Administracyjne ustawienia języka grupa.
Administracyjne ustawienia języka, przycisk odpuść.
Okej, może trzeba nacisnąć więcej opcji tam, gdzie jest język polski wybrany.
Generalnie wiem, że tutaj gdzieś powinna być lista.
Czyli kliknąć na ten język polski, rozumiem, tak? Co było?
Tak, tam gdzie był język polski, więcej opcji na początku okna.
Okej. I teraz próbuj przejść tabem.
I teraz więcej opcji.
I o, i właśnie tu nam się wyświetla jakby…
Poczekaj. I tabem teraz?
Może, albo strzałką w dół bardziej, bo to chyba jakaś linijka gdzieś w menu.
No właśnie tutaj mamy strzałkę góra-dół.
No?
Ale jak kliknąłem tab, to nic się nie dzieje.
A strzałką?
Strzałkami góra-dół teraz też się nic nie dzieje.
O…
Jeszcze raz, więcej opcji.
O.
Jak wychodzę strzałkami, góra-dół, lewo-prawo, nic się nie dzieje. I tabulatorem to samo.
Ja sobie tutaj to…
Genialnie. Trzeba przejść shift tabem od języka polskiego. Tam powinien być przycisk dodaj.
Aha, w momencie, czyli…
Czyli jak mamy Polski zaznaczony, czyli Shift A, Shift C.
A jest, dodaj język.
Kto to dał przed tą listę, to ja nie wiem.
A i tutaj jak przejdziemy tabulatorem do listy, wybieramy ten język, który chcemy sobie użyć.
Który chcesz dodać, tak.
Tak jest. I następnym kroku…
Wtedy jak użyjemy skrótu Alt, Shift, to wtedy będziemy już przemieszczać się między tymi klawiaturami?
Bardziej współczesny skrót to jest Windows Spacia, ale tak.
Dzięki Piotrze też za ten skrót, bo na pewno taka informacja też mi się przyda,
jeżeli tamten skrót by nie zadziałał.
Jasne. To tak od razu jeszcze uzupełnię, że jak już masz ten język dodany,
gdyby ta klawiatura się nie pojawiła, to wtedy możesz nacisnąć na tym niemieckim
więcej opcji i tam będzie kilka różnych opcji. Z tego miejsca możesz na przykład
pobrać sobie syntezę niemiecką, niemiecki OCR, gdyby był ci potrzebny
i tam też właśnie będą opcje klawiatury.
Aha, okej, dobrze. To na tą chwilę wtedy dzięki Wam serdeczne i jeszcze raz tutaj…
No, ustawienia nowych Windowsów nie są, nie należą do logicznych.
Ale tu Piotrze się z Tobą zgadza, że ten przycisk jednak powinien być dalej niż wcześniej, prawda?
Za tą listą, a nie przed.
Dokładnie.
Kto by na to w ogóle wpadł, że ten przycisk jest akurat w tym miejscu?
No pewnie jakbyś przeszedł całe okno, to prędzej czy później byś go znalazł, ale…
Prędzej czy później to tak.
Nie, no właśnie, to jest zletka Microsofta zwykle.
No to dzięki tutaj serdeczne za naprawdę wielką pomoc, bo tutaj bym naprawdę się chyba z tym męczył i przepraszam, że zająłem aż tak długo, że mnie aż tutaj moją syntetyczną amplifię nie było słychać.
Polecamy się Bartku.
My niewidomi zawsze się dogadamy.
Dzięki wam jeszcze raz serdeczne, także trzymam, pozdrawiam właśnie was serdecznie, słucham dalej, dzięki jeszcze raz, do usłyszenia, będę się odzywał na pewno.
Do usłyszenia, trzymaj się, pozdrawiamy i przechodzimy do drobnych newsów.
A tak jeszcze a propos playera i… znaczy playera, wróć.
Poza odbox go i odtwarzania, znaczy wstrzymywania odtwarzania, gest dwutapu to co prawda nie działa.
Natomiast na AirPodsach normalnie jesteśmy, jeśli mamy w słuchawkach innych,
sobie to wstrzymać i wznawiać, natomiast co ciekawe na playerze nie, więc to tak też a propos
jakby komuś się nudziło i chciał zgłosić błąd do playera, to można, bo nie działa to.
Ok, no to co, to drobne newsy. Maćku, ty tam chyba na początku miałeś coś a propos Orange Flexa.
O Orange Flexie, no, widać, że szkoda, że nie piszą wprost o tym, że tam się przyczyniają w służbie dostępności, ale działają, na pewno.
Jedną z rzeczy, która nie była dostępna podczas audycji dedykowanej Orange Flexowi właśnie,
To był wybór numeru podczas wybierania nowego planu.
Czy to zupełnie nowego numeru telefonu jakby podstawowego czy dodatkowego i tak dalej.
Teraz jest, można to zrobić już i co ciekawe, znaczy inaczej, numer jest normalnie
prezentowany tekstowo, ale zrobili to w postaci słuchaczka, regulatorka i tamtych
numerów jest paręnaście.
W każdym razie, normalnie palcem góra, dół, jeżeli sobie będziemy przeciągać, to numery będziemy zmieniać i potem wybierz przycisk, jest elegancko zrobiony.
Tak samo tam była kwestia aktywowania numeru, już po wyborze planu i różne tego typu rzeczy były tam niedostępne, jak być powinny teraz już są.
I to jest rzecz jedna. A gdyby ktoś pytał, to jeszcze niestety SI ma na jednym telefonie, nie dodamy. No chyba, że ten kod QR zeskanujemy jak będzie wyświetlany na innym urządzeniu, ale tego jeszcze nie testowałem, więc nie wiem.
Natomiast kolejna, aha, z poprawek jeszcze, to te wszystkie polecaj i zarabiaj i tak naprawdę i tam kluby flex i tego typu rzeczy też tam poprawki dostępności weszły, jeśli chodzi o wyświetlanie środków, premium. Tam gdzieś jedne środki nie do końca były dostępne, bo tam coś tam było, coś tam amount, coś tam, coś tam, coś tam, podkreślnik.
To też zostało naprawione, jeśli chodzi o właśnie wyświetlanie wszelkiego rodzaju kwot, środków i tak dalej w całej aplikacji, więc to naprawili.
No i nie wiem dlaczego, ale zakładki teraz to są przyciski tak naprawdę, więc jak powiedzmy mamy zakładka 1 z 4, przycisknie, więc tak śmiesznie rolę przemianowali tego.
I z błędów takich jeszcze jednych, nienaprawionych, to…
A! Nie, jeszcze naprawionych. Jak już mamy kartę SIM, znaczy w obrębie danego,
jednego swego numeru, to karty SIM już są elegancko ponazywane.
Tam już nie jest SIM-CART, SIM-CART, SIM-CART i SIM-CART,
jak to mieliśmy prezentowane w audycji, ale już jest karta główna
i co oferuje, że LTS-5G i tak dalej. Karta dodatkowa Apple Watch,
Tak jak w moim przypadku lts-5g.
To wszystko już jest ładnie czytane.
Tylko jeżeli mamy numery dodatkowe,
to tam też jakieś family… family…
pagemember, coś tam, coś tam, bla bla bla, jakieś…
jakieś jeszcze dziwne tego typu pozostałości zostały,
ale widać, że panowie z…
i panowie i panie z Orange Flexa się mimo wszystko starają i…
No i ta dostępność, no mimo wszystko postępuje.
I jak mówiłem w zeszłym tygodniu, że sklep wyeliminowali, to być może dlatego, że był na tyle niedostępny, że trzeba go przeprojektować od zera, zaprojektować od zera i być może go wprowadzą, bo to fajna rzecz była w sumie.
I to co jeszcze… Aha, artykuły pomocy, dalej linki, które są… to znaczy tam gdzie są linki, to dalej tych linków tak naprawdę dla nas nie ma.
No, zobaczymy. Wprowadzają, reagują na sugestie, także wszyscy, którzy
czujecie potrzebę napisania do nich
obecni klienci na czacie, to co śmiało, bo
i proście o, że tak powiem, rozmowę z żywym człowiekiem, bo tam się od razu bot odzywa.
Oczywiście jak to dzisiaj w dobie AI, ale można.
I wtedy rzeczywiście oni te błędy prędzej czy później…
Czy to jest Max czy jakiś inny bot?
Biorą pod uwagę. Wiesz co, szczerze mu…
Teraz nie pamiętam nawet jak się nazywa. Nie, to nie jest Max, na pewno.
A jak się nazywa, to nie wiem, ale nie mam.
To już było czystej ciekawości. Dobrze, to jeśli chodzi o moje drobne newsy,
to tutaj trochę tego się nazbierało. I to generalnie same dobre wiadomości,
chociaż raz. Zaczniemy sobie od czegoś, co pewnie ucieszy użytkowników Androidów,
którzy interesują się różnymi aplikacjami do nawigacji. Ostatnio mieliśmy dosyć
Głośną premierę Seeing Assistant’a Go,
który też ma konkurencję, pokazuje się.
Chociaż aplikacja trochę inna, a mianowicie Soundscape.
Lepiej późno niż wcale, tak myślę.
Jeśli ktoś pamięta, Microsoft Soundscape to była bardzo ciekawa aplikacja,
która pozwalała nam nawigować, używając dźwięku binauralnego.
Nawet komunikaty o skrzyżowaniach, o obiektach
były podawane nam przez dźwięki binauralne.
i mogliśmy sobie ustawiać różne…
Mogliśmy sobie tworzyć takie trasy à la LoadStorm,
dodając własne punkty, które też później były oznajmiane przez różne dźwięki.
Aplikacja cieszyła się dużą popularnością,
natomiast Microsoft niestety zarzucił jej rozwój,
ale poprzedził to udostępnieniem kodu źródłowego.
Dzięki czemu powstało kilka projektów, które aplikacje kontynuują.
No i zostały tak naprawdę dwa.
Została VoiceVista, która rozwija się bardzo prężnie na iPhonie.
No i jeszcze został właśnie po prostu Soundscape od The Scottish Army,
czyli to był inny projekt Otwarcie Głowy, który złączył się z jeszcze innym projektem.
Tam też chyba udziela się jeden z deweloperów, który kiedyś nad Soundscape’em pracował,
jeśli się nie mylę. No to jest aplikacja, która pod niektórymi względami
jest mniej funkcjonalna niż VoiceVista. Nie wiem, czy tutaj mamy na przykład
tak rozbudowane funkcje automatycznej nawigacji, bo VoiceVista to nawet jest nam w stanie
Trasy generować teraz.
Niemniej jednak, tutaj ten Soundscape ma pewnie też swoich użytkowników, ma swoich fanów.
No i teraz też jest jedyną wersją Soundscape’a, która pojawiła się na telefony z Androidem.
Można go sobie po prostu pobrać ze sklepu Play, zupełnie za darmo.
Nawet też kod źródłowy jest otwarty, gdyby ktoś chciał sobie podejrzeć,
czy na przykład zgłosić jakieś błędy, zasugerować, to to wszystko generalnie jest na GitHubie.
I co możemy wyczytać z listy zmian?
No to generalnie aplikacja ma jeszcze jakieś swoje bolączki w wieku dziesięcego,
no bo Androida dopiero została wypuszczona.
Natomiast najważniejsze funkcje, w tym oczywiście sam dźwięk wideorany,
wszystkie funkcje, gdzie jestem, sprawdzanie okolicy są zaimplementowane.
Tryb eksploracji innej ulicy, czyli taki tryb, gdzie sami wybieramy jakąś inną ulicę
i sobie po prostu po niej chodzimy.
Jeszcze wymaga dopracowania. Już mniej więcej działa, ale jeszcze ma swoje braki w porównaniu do wersji na iOS-a.
Ale już jakieś punkty własne można dodawać, to wszystko działa.
Podstawowe ustawienia oraz funkcja sterowania przez słuchawki pilotem na słuchawkach też już została zaimplementowana,
więc tam też możemy włączać i wyłączać różne sygnały dźwiękowe, wydawać jakieś proste polecenia przez wirtualne menu.
To już też zostało zaimplementowane, więc jeśli macie telefon z Androidem
i ciekawiło was, jak ta aplikacja działała,
no to w końcu możecie się sami przekonać, pobrać sobie Soundscape’a.
A kto wie, może nawet wam się spodoba.
Zresztą też można do tej aplikacji udostępniać linki.
Jeśli klikniemy na link, możemy udostępnić np. adres map Google
czy z jakichś innych map i Soundscape jest w stanie takie adresy też zaakceptować
i otworzyć się i np. nas do danego miejsca w jakiś sposób odprowadzić
albo uruchomić właśnie wirtualną eksplorację.
Także będzie link w komentarzu, ale też jak wpiszecie sobie
Soundscape do Wyszukiwarki, no to może się znajdzie.
Jeśli nie, to będzie link w komentarzu bezpośredni do sklepu Play,
gdzie będzie można ten program pobrać.
Zostajemy w świecie aplikacji mobilnych i to nawet jeszcze w świecie nawigacji,
bo niedawno mówiliśmy o tym, jak to aplikacja OCO,
czyli program, który używa sztucznej inteligencji do wykrywania świateł
Informowanie na skrzydze światła, czy są czerwone, czy zielone.
Został udostępniony za darmo.
Po tym, jak został przejęty, nie wiemy, co się z aplikacją będzie działo.
Gdyby coś niedobrego się z nią stało,
albo gdybyście szukali jakiejś alternatywy,
to z pomocą przychodzi Alek Świętnicki
i reszta zespołu pracująca nad Luomo Toolboxem,
który doczekał się kolejnej aktualizacji.
To jest rozbudowany program, który potrafi nam czytać teksty,
rozpoznawać PDFy, ma jakieś funkcje AI.
No i teraz też do tych funkcji zalicza się nowość, która została dodana zupełnie za darmo, więc do tej funkcji nawet nie potrzebujemy subskrypcji do aplikacji.
A jest to właśnie rozpoznawanie świateł.
Aplikacja jest w stanie rozpoznać światła, które są czerwone, pomarańczowe, żółte oraz zielone i działa bardzo responsywnie.
Tutaj Arek pisze, że chyba na iPhonie 16 mamy dwa tryby działania.
Mamy tryb HD i SD.
W trybie HD mamy responsywność na poziomie 16 milisekund,
a na poziomie SD jest to 30 milisekund,
a na poziomie SD jest to 16 milisekund.
To jest bardzo małe opóźnienie.
Na świecie audio to całkiem przyzwoicie.
Powinno być to responsywne.
Aplikacja też działa na kilku trybach powiększenia,
natomiast tutaj deweloperzy sugerują nie korzystać z większego zooma niż 2x,
dwukrotnego, dlatego że w kolejne tryby w większości telefonów będą włączały zoom programowy,
który może rozmyć obraz i zmylić aplikację.
Więc to jeśli nam na zoomie jednokrotnym nie działa,
możemy sobie spróbować ten zoom zwiększyć, jeśli światło nie zostanie wykryte.
W końcu to powinno zadziałać i aplikacja z tego co rozumiem działa podobnie jak oko,
więc po prostu będzie nas informowała o tym, czy jakieś światło jest czerwone, żółte czy zielone.
Na tej podstawie możemy ocenić, czy możemy przejść.
Natomiast warto też oczywiście rozejrzeć się, posłuchać, czy nie jadą jakieś samochody,
też wykorzystać nasze uszy, żebyśmy nie weszli w jakąś niebezpieczną sytuację.
Zostajemy jeszcze przy aplikacjach mobilnych, ale w sumie nie tylko.
Bo teraz wchodzimy w sferę urządzeń Apple.
Rozszerzenie uBlock Origin.
Oczywiście konkretnie wersja Lite tego rozszerzenia
pojawiło się na urządzenia z programarką Safari.
Więc zarówno na Maca i na iOS,
a zresztą to rozszerzenie było już dostępne od jakiegoś czasu w App Store,
natomiast jeszcze nie w Polsce.
Ale od jakiegoś czasu to już się zmieniło
I teraz też w Polsce możemy sobie to rozszerzenie pobrać.
Nie jest ono tak potężne jak np. uBlock na Firefoxa,
który może korzystać z pełnych ap i doplokowania reklam.
W innych przeglądarkach wielu tych funkcji nie ma.
M.in. dlatego, że Google stwierdziło, że dostarczają dużo na reklamach.
Mówi się, że chodzi o nasze bezpieczeństwo nieoficjalnie,
pewnie nie tylko.
Więc w Firefoxie uBlock Origin jest najbardziej efektywny.
Natomiast dla innych przeglądarek jest rozwijana ta wersja Lite,
która jest nieco okrojona, ale i tak powinna nam oferować
całkiem skuteczne blokowanie reklam.
I gdyby ktoś chciał korzystać z takiego bardzo cenionego
i otwartość źródłowego rozszerzenia,
gdzie wiemy, że nie będzie przepuszczało niektórych reklam,
na które ktoś np. zapłacił,
no to można sobie teraz tego u-bloga pobrać.
Domyślnie mamy włączone filtry najbardziej standardowe,
To jest Easy List, Lista Petera, Lowa, najbardziej popularne listy do blokowania reklam.
W ustawieniach można włączyć listy tematyczne,
m.in. listy dla języka polskiego.
Więc jeśli ktoś zdecyduje się tego u-blocka sobie pobrać,
czy to na iPhone’a, czy na Maca,
to warto sobie wejść do ustawień tego rozszerzenia
i te filtry później sobie jeszcze dostosować.
I jak też pisze autor, no przez to, że rozszerzenie to korzysta z API oferowanych przez samego Apple’a,
no to samo blokowanie reklam dzieje się na poziomie przeglądarki,
bo to rozszerzenie tylko mówi przeglądarkę, co ma być przepuszczone, a co nie,
a co za tym idzie też nie ma w ogóle wpływu na zużycie zasobów.
Nie będzie nam przeglądarka przez to pobierała więcej pamięci czy zużywała więcej procesora.
Wręcz przeciwnie, pewnie zużycie procesora spadnie, bo już nie będą się różne reklamy,
Jakieś filmy i tego typu jakieś skrypty śledzące ładować,
więc pewnie każda strona powinna działać znacznie szybciej.
Jak ktoś nie korzysta z jakiegokolwiek blokera reklam
na jakiejkolwiek przegonarce, to naprawdę polecam to zrobić.
Będzie wam się pracowało lepiej, zwłaszcza nam z szczytnikami ekranu,
bo te reklamy mają to do siebie, że są mało dla nas dostępne,
a mogą często niefajne rzeczy robić, czy to z responsywnością,
czy to z tym, jak na szczytnik ekranu różne rzeczy czyta.
Zostajemy w świecie Apple, jeszcze tym razem coś dla tych,
którzy coś robią z dźwiękiem na swoich Macach,
bo mamy rzadkie zdarzenie, które myślę, że wiele osób może ucieszyć,
a mianowicie mamy promocję od Rogue Amoeba,
czyli producenta wielu bardzo lubianych, popularnych aplikacji,
o których często mówimy w podcastach.
Już pojawiło się parę audycji na ich temat,
czyli na przykład jest to fenomenalny audio hijack
służący do nagrywania dźwięku,
ale też robienia na nim różnych rzeczy,
m.in. dzięki Hijackowi teraz mnie słyszycie
z mniejszą ilością pogłosu, m.in.
Więc do wielu zastosowań Hijack się przydaje.
Mamy też wirtualne kable audio, czyli Loopback,
inne aplikacje, które nam pozwalają różne rzeczy z dźwiękiem zrobić,
zmieniać szybką głośność różnych urządzeń,
zmienić naszego Maca w głośnik AirPlay
albo wysyłać dźwięk z dowolnej aplikacji na inny głośnik AirPlay,
Trochę aplikacji w ofercie Rogomiba jest i do końca sierpnia możemy te aplikacje zdobyć z 15-procentową zniżką.
Wystarczy w przykazie wpisać kod HRIS-ROCKS.
HRIS wpisane przez CH, to jest wszystko jednym słowem, dużymi literami.
No i do końca sierpnia ten kod nam da właśnie tą 15-procentową zniżkę.
Zniżka została wprowadzona z okazji rocznicy pracy pana HRIS-a.
Barayasa, który jest szefem odsparcia w Rogue Amoeba.
Właśnie skończył piętnastoletni staż w firmie,
dzięki czemu też w ogóle cały post na blogu Rogue Amoeba,
gdzie chwalą się, jaką nagrodę dostał.
Jak to często w firmach takich dużych pracownicy
otrzymują jakieś zegarki pamiątkowe.
No, Chris też dostał zegarek.
Dostał Apple Watcha, co ciekawe.
Natomiast nie tego Apple Watcha, o którym pewnie myślicie,
bo okazuje się, że Apple miało
swojego czasu, w latach 90. jakiś zegarek,
który miał aktualne w tamtym czasie Macintoshe.
Właśnie taki zegarek z dedykacją Chris dostał.
To też w ogóle ciekawa historia.
No, ale…
No, Rogue Amoeba naprawdę robi świetne, bardzo dostępne aplikacje,
a też ich wsparcie techniczne jest na bardzo wysokim poziomie.
Więc jeśli zastanawialiście się,
że może nadzorowałem jednej z ich aplikacji,
no to warto teraz właśnie się na to zdecydować,
no bo po prostu możemy to zrobić tani.
A teraz przechodzimy do Windowsa,
Konkretnie do NVDA i dodatków do tegoż screenreadera powraca Unspoken, czyli dodatek, który informuje nas o typie kontrolek, m.in. ich stanie dźwiękami.
W pewnym sensie ktoś zapyta, czemu ktoś by miał się tym dodatkiem zainteresować, jeśli np. mamy bardzo kwalony przeze mnie dodatek Earcons.
To są w pewnym sensie pod niektórymi względami podobne dodatki,
Dźwiękiem o kontrolkach, ale robią to trochę w inny sposób i każdy z nich ma swoje wady i zalety.
Co jest główną zaletą Onspoken’a? Czego nie robi Ircons?
No Onspoken te dźwięki odgrywa binauralnie, a więc jeśli jakiś przycisk jest po lewej stronie na górze ekranu,
no to usłyszymy ten dźwięk z lewej strony nad nami. Jeśli jest na dole ekranu po prawej stronie,
no to usłyszymy go, zgadliście, z prawej strony na dole.
I bardzo osób właśnie ten dźwięk binauralny ceni,
bo słyszymy, czy ten dźwięk jest właśnie gdzieś,
z której strony konkretnie ten dźwięk jest.
To nam pozwala trochę przestrzennie sobie wyobrazić,
jak dana aplikacja, jak dana strona internetowa na przykład wygląda.
Więc bardzo dużo ludzi, mimo to, że właśnie mamy dodatki,
które teoretycznie mogą nas poinformować o większej ilości zdarzeń dźwiękami,
jednak wracało do Unspokena właśnie przez to,
że on ma ten dźwięk binauralny.
No i ten dodatek ma to do siebie,
Pojawia się i znika z różnymi bibliotekami z czasem kiedy pojawiają się nowe wersje NVDA.
Natomiast ta najnowsza wersja ma chyba największy szansę utrzymania się,
bo korzysta z bardzo współczesnej biblioteki do generowania tego dźwięku bitauralnego.
Mianowicie jest to biblioteka Steam Audio, która oferuje dźwięk bitauralny na naprawdę wysokim poziomie.
Ponadto mamy też moduł pogłosu, więc możemy też ten dźwięk umieścić w takim pomieszczeniu
I na dodatek możemy sobie precyzyjnie dostosować parametry tego pogłosu.
Możemy też zdecydować, jak to miały poprzednie wersje Unspokena,
czy NBA ma również czytać typ kontrolki, czy nie z tym dźwiękiem.
Możemy zdecydować, że będziemy słyszeć, nie wiem, OK przycisk
i oprócz tego będziemy słyszeli dźwięk na przycisk
czy po prostu mamy słyszeć OK, bez tego słowa przycisk,
bo w zupełności nam wystarczy dźwięk.
Chyba jakiś skrót klawiszowy też jest do tego, żeby to zmienić.
Natomiast ten dodatek ma też swoje wady.
Jeśli ktoś zastanawia się, czy wybrać to, czy Ircons,
taką największą wadą w tym momencie jest to,
że nie informuje nas on o…
nie odważa dźwięków na kontrolki
podczas przeglądania stron internetowych w trybie przeglądania.
Wcześniej to miało miejsce dzięki temu,
Wcześniej mówiłem, że MVDA przestruwał Focus w momencie,
kiedy my nawigowaliśmy po stronach,
ale od jakiegoś czasu ta funkcja została wyłączona,
bo developerzy stwierdzili, że jest to za trudne do implementacji
i nie chciało się im tego utrzymywać.
No ale Onsvokan akurat na tym polega
i przez to, jeśli mamy włączony tryb przeglądania,
to tych dźwięków na ten moment nie będzie.
Natomiast autor bieżący, developer, który się tym dodatkiem zajmuje,
obiecał, że zbada i jakby ten problem naprawić
może właśnie przez to, jak działa Ircons,
Zrobić coś, żeby też w trybie przeglądania
informacje, dźwięki o kontrolkach, były otwarzane tak, jak powinny być.
Możemy spodziewać się, że za jakiś czas pojawi się aktualizacja,
która ten problem naprawi.
Generalnie mamy mniej zdarzeń na dźwięki,
bo skupiamy się na kontrolkach.
Nie możemy ustawić dźwięków na poziomy główków czy zmiany w ksiągach.
Ale jeśli komuś zależy najbardziej na dźwięku binauralnym,
no to warto sobie tą nową wersję tego dodatku ściągnąć,
no bo po prostu działa ze wszystkimi najnowszymi wersjami MVDA.
A skąd ją ściągnąć? Z linku pod komentarzem.
To jedna opcja, a drugą opcją jest po prostu add-on store,
bo w sklepie też już ten dodatek się pojawił,
więc wystarczy przejść do add-on store’a, zmienić narzędzia.
Następnie do zakładki odkrywaj dodatki
i tam w polu wyszukiwania wpisać unspoken
i ten dodatek powinien się pojawić.
Wystarczy go sobie ściągnąć,
on już przychodzi do nas ze wszystkimi dźwiękami,
Więc zaraz po instalacji po prostu wszystko powinno działać.
Zostajemy jeszcze w temacie NVDA.
Mamy małą zapowiedź, bo jeden z bardziej aktywnych deweloperów na Macedonie
podzielił się bardzo ciekawym nagraniem dźwiękowym.
I tak naprawdę mamy tylko to nagranie, jego post.
Mianowicie pracuje on nad nowym mobilnym klientem do NVDA.
Mamy klip, który pokazuje, jak ten klient działa na Androidzie i na ten moment właśnie wiemy to, że można się połączyć z komputerem.
Jest ekranowa klawiatura w jakimś stopniu dostępna i słychać, że mowa działa, to co mówi NVIDIA jest czytane przez TalkPaka.
No i mamy więcej informacji od tego autora. Właśnie mamy takie, myślę, najważniejsze informacje są takie, że ten klient ma być wieloplatformowy,
Więc zarówno Android, jak i iOS, to myślę, że wiele osób ucieszy,
no bo mamy teoretycznie aplikację na iOS-a,
ale ona jest bardzo słabo rozwijana i ma swoje bolączki.
I ma właśnie wspierać zarówno fizyczne klawiatury,
jak i klawiatury ekranowe, więc będziemy w stanie po prostu…
I ta klawiatura ma być sensownie stworzona pod NVIDIA,
więc tam będziemy np. mieli delegowany przycisk do Gapslocka,
czy właściwie do klawisza NVIDIA,
A więc będziemy w stanie sobie ten klawisz nacisnąć
i on zostanie do naszego fizycznego komputera przesłany.
A więc jeśli będzie jakaś sytuacja,
w której będziemy chcieli skorzystać z naszego komputera
z poziomu smartfona i coś na nim zrobić,
to miejmy nadzieję, że ta aplikacja się pojawi,
bo taki współczesny i dobrze działający klient do NVIDIA Remote,
zarówno na iOS-a jak i na Androida,
jak najbardziej będzie mi nawidziany.
Natomiast to jest jeszcze wczesny stadium rozwoju. Gdy będziemy odwiedzić coś więcej, kiedy ten kliencie pojawi gdziekolwiek, czy to w App Store, czy w sklepie Play, to na pewno tam wam znać, bo też z zainteresowaniem temat obserwuję.
A propos takich projektów, to nie wiem Piotrze, czy ty widziałeś z kolei takie pytanie, to bardziej badanie rynku przez jednego użytkownika Mastodon, a nie pomnę w tym momencie kto to był.
Pytał, czy ludzie byliby zainteresowani kupnem sprzętowego kontrolera do NVDA Remote.
Chyba coś było, tak.
To miało bazować na, zdaje się, jakimś Raspberry Pi’u, brailowskiej klawiaturce, no i wiadomo, jakieś oprogramowanie wewnątrz tego.
Byłoby to, wydaje mi się, też naprawdę interesujące.
Myślę szczególnie, że NVIDIA Remote sam w sobie ma ten protokół sterowania bardzo lekki i to na naprawdę słabych łączach miałoby rację bytu, szczególnie, że synteza byłaby generowana lokalnie, więc my przesyłamy bardzo niewielkie porcje danych.
No właśnie, także to ma prawo działać na bardzo słabych łączach też. Ciekawe czy ktoś na przykład na jakimś Edge’u albo 2G próbował NVIDIA Remote.
No, powinno zadziałać teoretycznie.
Dobrze, co mamy teraz?
Mamy ankietę znów. Ostatnio mamy dużo ankiet, ale znów mamy ankietę krótką.
I to będzie bardziej informacja dla tych, którzy nas słuchają teraz na żywo,
bo ankieta trwa do 15 sierpnia, więc zanim ta audycja pojawi się na stronie,
to zostanie już zamknięta.
Natomiast myślę, że jeśli ktoś korzysta z rejestratora Zoom serii Essential,
a więc tych udźwiękowionych,
no to warto sobie tę ankietę wypełnić,
bo firma po prostu chciałaby dowiedzieć się,
czego właściwie oczekujemy od tych urządzeń.
Planują rozwój oprogramowania i pytają po prostu nas,
co chcielibyśmy w tych rejestratorach zobaczyć.
Ankieta jest dostępna w kilku językach.
Polskiego niestety nie ma, natomiast nie jest jakaś bardzo trudna.
Natomiast gdyby ktoś chciał,
no to możemy ją wypełnić w języku angielskim, japońskim, hiszpańskim,
francuskim, niemieckim lub włoskim. Ewentualnie można się posłużyć
tłumaczem, więc ja tutaj się posłużę wersją angielską.
I tak naprawdę mamy trzy pytania.
Mamy po prostu pytanie. Przekaż nam swoje sugestie i pomysły
dotyczące urządzeń z serii Essential.
Jeśli mamy jakieś sugestie,
co byśmy chcieli w tych urządzeniach zobaczyć w oprogramowaniu,
to tutaj możemy się rozpisać.
Następne pytanie pyta nas, z jakich urządzeń korzystamy.
I tutaj mamy pola wyboru HRN Essential, H2, H4 i H6 Essential.
Mamy też pole edycji,
w jakich projektach, w jakich sytuacjach korzystamy z urządzeń z serii Essential.
Możemy to napisać, do czego tych urządzeń korzystamy.
I ostatnie pytanie.
Które z tych opcji opisuje ciebie najbardziej?
Mamy tutaj muzyk, filmowiec, podcaster
lub osoba tworząca inne treści, content creator.
Tak ładnie się dzisiaj na to mówi.
I to jest wszystko, co musimy wypełnić w tej ankiecie.
Tak że jeśli z tego urządzenia korzystacie, macie jakieś sugestie,
to myślę, że warto tę ankietę sobie wypełnić.
Jest to link w formularzach Google.
Ma ta ankieta też swój hashtag,
hashtag voice4essential,
może tak będzie też łatwiej tę ankietę ewentualnie znaleźć.
I ostatni, drobny news, tutaj znów wchodzimy w klimaty AI.
Dla tych, którzy korzystają z Clouda Code, o którym Michał ostatnio mówił,
jest to narzędzie, które czasami potrzebuje trochę czasu,
żeby sensownie jakiś projekt stworzyć.
No i są sytuacje, w których może po jakimś czasie zadać nam jakieś pytanie.
I my po prostu możemy tego nie zauważyć,
zwłaszcza jeśli to zajmie gdzieś trochę więcej czasu.
Z tym problemem zmagał się też Yukio Onozawa, którego pewnie znacie, zwłaszcza jeśli gracie w różne gry, bo wiele ciekawych gier Audio stworzył.
No i postanowił problem rozwiązać, tworząc narzędzie Cloud Code Notifier.
Czy to narzędzie jest jego autorstwa, czy autorstwa samego Clouda?
Bo jak sam pisze, to narzędzie zostało w pełni vibe codowane,
Czyli właśnie po prostu poprosił Clouda, żeby coś takiego stworzył i on to zrobił faktycznie w stu procentach i to działa sensownie, no to już kwestia, kto jest właścicielem praw tego kodu już zostawia mądrzejszym ludziom.
Ja tylko powiem, że narzędzie dźwiękami oraz domyślnym głosem Savi poinformuje nas właśnie, jeśli dany projekt zostanie już zakończony,
Jeśli pojawi się jakiś błąd lub kiedy Cloud ma do nas jakieś pytanie, na które musimy odpowiedzieć, aby działanie zostało wznowione.
Wszystko jest opisane, jak to skonfigurować. Generalnie tam musimy do pliku konfiguracyjnego Clouda dopisać parę linii, które po prostu wywołają ten program.
A jeśli chodzi o sam program, to jest dostępny zarówno w wersji już skompilowanej, więc wystarczy sobie go pobrać.
Oraz w formie kodu źródłowego, gdyby ktoś chciał sobie go skompilować ręcznie i zobaczyć jak on dokładnie działa.
Także, no jak korzystacie z Cloda, to myślę, że jest to bardzo przydatne narzędzie.
A właśnie jeszcze nie dodałem chyba, narzędzie oczywiście pod system Windows.
I to wszystko z mojej strony, jeśli chodzi o drobne newsy.
No to teraz myślę, że możemy sobie przejść do technikaliów i to przejść gładko,
Bo Piotrze, ty zakończyłeś informacją dotyczącą Kloda, a my teraz o konkurencji, o której ostatnio głośno czat GPT. Wersja piąta. Maćku.
Zdecydowanie. Wydana 7 sierpnia bieżącego roku, czyli w zeszły czwartek. No i tak, istotnie głośno.
Trochę bliżej mikrofonu, Maćku, jakbyś mógł.
Jak to podczas takich premier było wielkie wow, wielkie zamieszanie, wielkie oczekiwania?
No właśnie, ale co mamy? Tak naprawdę co nam się udało?
Co Altmanowi się udało, prezesowi OpenAI?
Udało się jemu zrobić jeden słuszny, słuszny nie słuszny, ale model GPT-5
Jak niejednokrotnie twierdził, nawet my w OpenAI nie lubimy selektora modeli, no i dopięli swego,
gdyż teraz w tym wyborze modeli w menu tak naprawdę mamy GPT-5, GPT-5 Thinking, czyli model rozumujący,
No i dla płacących użytkowników wersji Pro jeszcze jest GPT-5 Pro.
A wszystkie modele, które znaliśmy do tej pory, czyli 4.0, 4.5, 4.1, również rozumujące O3, O4 mini,
No, można by rzec, że tak jakby odeszły sobie do lamusa, jeśli chodzi o zwykłych śmiertelników, bo tak naprawdę w API jeszcze się daje gdzieś tam odgrzebać, ale to… no właśnie, można.
Natomiast w tym momencie mamy tak, że mamy jeden ten model.
No i coś takiego, co się nazywa real-time router, czyli właśnie taki jakby właśnie taki mechanizm,
który odpowiada za to, który model nam zostanie poniekąd automatycznie do danego zadania dobrany.
Znaczy, decyduje po analizie pytania o jego złożoności i wówczas zaprzęga do tego odpowiedni model.
Z tym jest w praktyce różnie, w sumie, natomiast są pewne rzeczy, które sprawiają, że możemy nim poniekąd sterować.
I to o tym też było, ta prezentacja w ogóle, na której był poruszany temat GPT-5 trwała sobie chyba grubo ponad godzinę.
Tam ponoć, nie wiem, nie oglądałem, ale padło właśnie coś takiego, że można właśnie sobie sterować.
Po pierwsze, jak ten czad ma odpowiadać, czy ma odpowiadać bardziej zwięźle, czy właśnie bardziej szczegółowo.
No i też, w którym stopniu ma myśleć, rozumować, przez jaki czas.
A generalnie, że niby coś takiego istnieje, można sobie w tym prompcie wpisywać, no i wówczas też to będzie brane pod uwagę.
A propos właśnie promptowania, to teraz ponoć ten GPT-5 ma trzymać się zdecydowanie lepiej, zdecydowanie bardziej restrykcyjnie ma przestrzegać instrukcji.
zarówno użytkownika,
jakie użytkownik zdefiniował,
ale też prompty systemowe.
Prompt systemowy też został bardziej
dopieszczony, czyniąc teoretycznie
ten model, te jego odpowiedzi bardziej
zoptymalizowane.
Prompt systemowy nawet gdzieś wyciekł na GitHub’ie
jest dostępny. Tak, jest. Nawet o tym jest
To jest szczegółowy artykuł i to w niejednych mediach, no, lubiany przeze mnie iMagazine choćby nawet też przytacza.
Ja dzisiaj się zdecydowałem tego nie robić, bo to jest artykuł dosyć duży.
To znaczy nie ma sensu tego prompta cytować. Kto chce to sobie go przeczyta.
Mnie tam tylko zwróciło uwagę tylko dwie rzeczy.
Po pierwsze nie generuj tekstów, piosenek i innych rzeczy chronionych
prawem autorskim, to jest rzecz jedna, na jaką zwróciłem uwagę.
A druga rzecz, bardzo często jest podkreślane,
nie generuj odpowiedzi użytkownikowi jako JSON.
Czyli taki specjalny format wiadomości,
czy w ogóle specjalny format tekstu,
stosowany bardziej w programowaniu, w jakichś plikach konfiguracyjnych, tego typu rzeczach,
który dla użytkownika jest czytelny,
ale może no nie najfajniejszy, jak się nam coś takiego wyświetli, więc chyba było z tym dużo problemów.
Może to, że jakieś aplikacje się wysypywały, jeśli tam jakiś JSON się zagnieżdżał, tak, bo to tak generalnie API odpowiada, tak.
No, coś Piotrek jeszcze…
Natomiast skoro tak tutaj rozmawiamy właśnie o tym, a propos tego, jak ten prompt ma być restrykcyjny,
Pierwsze komentarze użytkowników były mieszane,
jeśli chodzi o to, jak ten ChargePG 5 działa w praktyce.
Jestem ciekawy, jakie ty będziesz miał wrażenie,
bo chyba więcej z niego korzystałeś.
Ale generalnie taki…
Zauważyłem się nad nim dosyć konkretnie.
No to ja powiem tak, na co ludzie zwróciły uwagę,
że on na pewno nie jest już taki przyjazny do użytkownika.
To ma swoje plusy i minusy, na pewno jest bardziej zwięzły.
Natomiast też spotkałem się z bardzo ciekawym porównaniem
Ja bym też GPT-5 porównał do przepracowanej sekretarki.
Że on czasami jest dla nas wręcz niemiły.
Takie słyszałem też opinie.
Na pewno mniej opiera się o emocje.
I to okazało się dla niektórych osób problemem.
To było w pewnym sensie założenie,
natomiast chyba OpenAI nie spodziewało się tego,
jak wiele osób będzie polegało na tym,
Myślę, że jednak ten GPT-4 był dostępny do tego stopnia, że owszem, dla użytkowników darmowych w interfejsie czata GPT mamy tylko dostępny tryb GPT-5, natomiast…
Tak, ten Thinking też nie, on tylko dla użytkowników Plus.
Tak, natomiast właśnie w planie Plus 4 wrócił.
Tak, ale trzeba sobie w opcji…
Bardzo fajnie schowane, ukryte.
Starsze modele i tak naprawdę pokazuje tylko ten 4.5.
Tylko 4.0.
4.0.
Jest Legacy Models, chyba nie zostało to przetłumaczone na polski jeszcze póki co
i tylko właśnie w webie na Macu, w wersji webowej, na stronie,
to Legacy Models niby się rozwija, ale tam w sumie nic nie jest czytane.
Pewnie jakby się przytupnęło w Enter to by się model wybrał,
W każdym razie pozostałe opcje menu, czyli właśnie GPT-5 i Thinking
akurat to już są tajemniczo czytane, no bo to nie jest też pod menu,
a tutaj GPT gdzieś tam ma z tym problem większy.
No i tak, właśnie odnośnie do tej emocjonalności, to znaczy właśnie
ja sobie z definicji założyłem, no bo ja sobie jestem takim człowiekiem,
że ja lubię właśnie dużo luzu generalnie w atmosferze
mega pozytywnej, przyjaznej i tak dalej.
I ja jemu wcześniej, dużo wcześniej jeszcze,
jak nie było GPT-5, ja mu powiedziałem,
słuchaj, ty masz po prostu na pełnym luzie do mnie,
bo ja tutaj jestem od tego, co tam skraca dystansy
i buduje pozytywną tą atmosferę i po prostu masz mi tutaj być takim, wiesz.
No i ja tej zmiany aż w takim stopniu nie odczułem tak naprawdę.
Fakt, może trochę jest mniej emocjonalny,
Ale jak mu jeszcze raz gdzieś tam przekazałem, słuchaj, na pełnym luzie komunikacja, to on u mnie, mało tego, w trybie głosowym wczoraj wyczyniał takie rzeczy, że myśmy z mamą mieli taki z niego polew, mówiąc kolokwialnie, że po prostu dawno, mama mówi, nawet sama stwierdziła, że pierwszy raz w ogóle słyszy czata w ogóle w takim stanie normalnym, jakbyś czegoś napił, nie, więc…
A ja powiem więcej. Ja teraz mam wrażenie, że on ten, tą swoją taką luzackość dostosowuje per rozmowa.
Ja z GPT-5 prowadzę od wczoraj bardzo intensywny dialog, bo próbuję go zmotywować do stworzenia aplikacji takiej wieloplatformowej,
żeby sprawdzić w ogóle, jak bardzo jest to możliwe, aplikacji okienkowej i no tam piszę do niego bardzo luźno i w tym czacie, bez jakiegoś tam sugerowania, jak on mi ma odpowiadać, on dostosował się do mojego tonu.
I też jest, rzeczywiście na takim luzie te odpowiedzi przychodzą.
Także ja mam wrażenie, że tu po prostu on bardziej wsłuchuje się w to też, jak my piszemy
i w jaki sposób się do niego zwracamy. Kiedyś tego chyba aż tak nie było.
Nie. I to też by potwierdzało, bo też jeden filmik widziałem na YouTube, gdzie
Gość jakby zalecił chatowi coś takiego, że on ma być dla niego tłumaczem, asystentem, jeśli chodzi o tłumaczenia, że on tam sobie jest w Londynie i że on tam, żeby sobie zasymulować rozmowę, że jest nowy w tym Londynie i tak dalej.
Autentycznie mu się przełączał między angielskim, polskim, tak jak jeszcze nigdy dotąd, więc też coś w tym jest, że on ten kontekst w tym momencie jeszcze bardziej łapie.
W ogóle ten prompt systemowy też w teorii, choć ja też sobie to zmodyfikowałem podczas przygotowywania się do studiów czy do egzaminów,
że omawiamy jeden temat, ale on ma mi jeszcze… to znaczy jeszcze mi zadaje na końcu, nie wiem, takie jakieś pytanie uzupełniające.
Ja akurat to lubię. Czy chcesz, żebym jeszcze, powiedzmy, zgłębił ten temat, żebym zrobił coś takiego, żebym jeszcze…
A może to, bo słuchaj, z Tobie jeszcze z tego można było wyciągnąć to i tamto, nie?
I tak naprawdę on mi teraz to robi.
I się bardzo restrykcyjnie tego trzyma, czasami aż za bardzo.
Natomiast w systemowym prompcie
ponoć właśnie jest tak, że on ma być bardziej zwięzły,
mniej tych pytań zadawać różnego rodzaju.
Tak więc widzimy, że on tutaj
z jednej strony prompt systemowy okej,
ale też nie jest to dla niego świętość, bo jednak
Instrukcje użytkownika też są dla niego mega ważne, ale to co jest dla niego,
a przynajmniej stara się być świętością, to ta zdolność do halucynacji.
I ja w piątek… oj…
No bo właśnie, mówiłem, że bez problemów się niestety nie obyło.
Na przykład w piątek przestało zupełnie przez bodaj 7 czy 8 godzin.
Media donoszą, że dla darmowych użytkowników, ale dla mnie niestety też.
Mianowicie, wiesz, przeszukiwanie sieci w ogóle przestało działać.
A ja tutaj kulturalnie chciałem się upewnić, co do Airpodsów, do tam powiedzmy pewnych dat, do pewnych wydarzeń jeszcze, wersji i tak dalej.
Nie, gdzie tam, nie przeszukiwał mi internetu, bo narzędzie mu nawaliło, bo coś tam, bo sugerował różne inne obejścia problemu.
Natomiast trzeba mu przyznać to, że fakt, faktem ciśnienie to mi podniósł jak dawno już nikt, a nie nic.
Natomiast nie halucynował, nie zmyślał mi, nie próbował tego tematu obchodzić i ściemniać.
Nie podawał też niedziałających linków, jak już mu, a swoją drogą po audycji, zaraz po audycji
sprawdziłem, wyszukiwanie wstało, także o ironią.
W każdym razie, zarówno jak testowałem w czwartek, w dniu premiery, jak i po audycji,
linki, które mi podawał, zasadniczo były działające.
I sam OpenAI twierdzi, że w tym modelu no stricte nierozumującym, nie w tym thinking,
zredukowano zdolność halucynowania o jakoś tam w granicach 40 procent chyba, natomiast w tym
modelu rozumującym o około 80 procent.
Więc coś w tym jest. Raz może, czy dwa mu się zdarzyło, że faktycznie gdzieś tam pomylił fakty w trybie tekstowym, bo w trybie głosowym niestety to nadal jeszcze nie jest to.
I w trybie głosowym to on nadal sobie gada co chce, łączy, skleja co chce. Więc tryb głosowy jeszcze zdecydowanie do perfekcyjnych nie należy.
A ja bym tu przy tej okazji chciał przestrzec przed jedną rzeczą, a propos korzystania z GPT-u.
W ogóle w trybie tekstowym to też jest… cechuje tym, że ten model odpowiada szybciej.
On rzeczywiście mi odpowiada znacznie szybciej niż odpowiadał 4.0.
No, ja bym tak powiedział, jakieś, nie wiem, 40% szybciej. 50?
A ja bym tu przy tej okazji chciał przestrzec przed jedną rzeczą a propos korzystania z GPT-5, bo ja jestem skłonny uwierzyć i zrozumieć ludzi, którzy będą teraz bardzo często mówić, słuchajcie, ten GPT-5, to on się popsuł.
On teraz takie bzdury wypisuje i tak w ogóle ignoruje to wszystko, o co my prosimy, że to jest jakaś masakra.
I w tym momencie tu kłania się to, o czym właśnie ty Maćku wspomniałeś, że teraz to ten model, to jest de facto takim tak zwanym routerem.
Czyli on będzie przekazywał nasze zapytanie do konkretnego modelu, który będzie realizował odpowiedź.
I jeżeli my go o coś zapytamy, albo go o coś poprosimy i nie wskażemy, że my na przykład odczekujemy dokładnej, precyzyjnej odpowiedzi, albo jakiegoś precyzyjnego zadania,
To on odpowie szybko i może być tam po prostu i może nam wypluć śmieci.
A o co chodzi? Jak nie wiadomo o co chodzi, to chodzi o pieniądze.
To zresztą sam Altman o tym pisał, że użytkownicy nawet płacący…
I tak będą mieli limity.
Nie, to nawet nie o to chodzi.
I tak nie wykorzystywali w znacznej mierze tych różnych modeli, które OpenAI oferowało.
Bo użytkownicy najzwyczajniej w świecie nie potrafili sobie pokojarzyć tego.
I ja bez bicia się przyznaję, też zawsze miałem z tym problem.
Który model do czego jest dobry? Z czego użyć najlepiej?
w jakiej sytuacji, to ja też bardzo często leciałem na tych domyślnych ustawieniach, na jakimś domyślnym modelu.
Natomiast teraz widzę, że jak my mu zadamy pytanie i nie każemy odpowiadać na przykład szczegółowo,
nie każemy sprawdzać, weryfikować, bardzo często może być tak, że dostaniemy szybką, krótką i zupełnie nic nie wartą odpowiedź.
Natomiast jeżeli my mu każemy pomyśleć albo go ochrzanimy, to on się posłucha i zdecydowanie nie ma już takich problemów, że na przykład po jakimś czasie te odpowiedzi tracą na wartości, albo że zaczyna to działać gorzej.
No tu jest to większe okno kontekstu, chociaż klot dostał milion teraz, zdaje się, kontekstu.
Tak, w porównaniu GPT-5 i to, że tym chwaliło OpenAI, to jest bodajże 400 albo 300, chyba 400 tysięcy.
400 tysięcy, tak, tak.
Gemini to jest 2 miliony.
No, więc tak czy inaczej jest tutaj, jest tutaj lepiej, jeżeli chodzi…
I tak chyba po API, nie? Ten, ten, ten, w sensie, bo w czacie chyba gdzieś tam jeszcze, czy co, jakieś tam są jeszcze mniejsze te limity, nie? Tego kontekstu, wydaje mi się.
Szczerze mówiąc, nie wiem, jak to wygląda.
No, ale w każdym razie…
No, ale w każdym razie, w każdym razie na to trzeba zwracać uwagę, bo po prostu, no, naprawdę, ja jak zacząłem gadać z tą piątką, to przez chwilę pomyślałem, że chyba ta opcja plus gdzieś mi wygłasła,
Bo czułem się, jakbym gadał z jakimś totalnie darmowym modelem,
który totalnie ignoruje to, co ja do niego piszę.
Ale potem, jak sobie pogadaliśmy chwilę,
to naprawdę zaczęło to działać sensownie i teraz rzeczywiście widzę ten progres.
Ale pamiętajcie…
Tego Michał testowałeś od dnia premiery, od czwartku też?
Wiesz co? Tak bardziej intensywnie zacząłem go testować
od poniedziałku.
Aha, nie, bo to też była kwestia tego, że nawet właśnie sam Altman
przyznał, że właśnie w czwartek tamten przełącznik po prostu,
który miał automatycznie ten router po prostu, że on się zepsuł.
W sensie nie dobierał, tak jak trzeba, tych adekwatnie do złożeń,
do pytań, do odpowiedzi do tego, co się od niego wymagało i no i
I ponoć to też spłynęła fala krytyki, taka dosyć konkretna właśnie przez…
Tak, no użytkownicy, którzy mieli jakieś prompty spreparowane,
to mieli z tym problemy.
Jeśli może jeszcze dodając, przy tych wątkach halucynowania,
faktycznie jest z tym lepiej.
Na pewno też dużo lepiej sobie radzi w programowaniu.
I to, że zostało potwierdzone, no to już zaczyna gonić Clouda czy Coda.
Właściwie jest z tym lepiej.
Nawet podczas demonstracji było zrobione takie demo,
Pani potrzebowała wytłumaczyć chyba synowi albo córce,
jak samoloty latają, odpowiednie prawa fizyki.
Poprosiła, żeby odpowiednie demo webowe GPT-5 napisał.
I to demo nawet jakoś działało, natomiast okazało się potem,
że to nie do końca było o to prawo fizyki chodziło,
że tam to źle zostało demonstrowane.
Natomiast ponoć dużo osób w internecie właśnie źle o tym pisze.
Więc to może niekoniecznie musiała być halucynacja,
aczkolwiek tutaj znów warto czasami takie rzeczy weryfikować.
Ale summa summarum, doprogramowanie, jeśli ktoś chce,
nie chce korzystać z clouda, tak, GPT-5 jest lepszy.
Nie jest może to rewolucja,
ale zdecydowanie jest to ewolucja, krok naprzód.
Więc śmiało można, też już wiem,
że użytkowicy z tego zaczynają korzystać,
już tworzyć różne rzeczy tym modelem.
I faktycznie to wychodzi lepiej.
Co ja zauważyłem od Ciebie, ja znów do testowania GPT podeszłem trochę z innej strony, czyli ze strony API,
ze strony API, akurat w tym przypadku w Bolt.ai, bo też już do API jest GPT-5 zastępny.
I co ciekawe, ten model, przynajmniej na ten moment, wymaga zweryfikowania naszej organizacji,
czyli naszej firmy, jeśli chcemy mieć włączone streamingowanie.
Właśnie do tego jest wymagane wysłanie do OpenAI skanu naszego dowodu
i nie wiem, czy wtedy też nie musimy mieć faktycznie firmy zarejestrowanej.
Można to wyłączyć, natomiast wtedy po prostu to wygląda tak,
że jeśli mamy… Jeśli aplikacja ma to streamowanie
i to generalnie aplikacje to wspierają, Basilisk, Olama to…
Wolama, przepraszam, to wspiera.
To po prostu w momencie, tak jak on nam generuje odpowiedź,
to ta odpowiedź będzie się wyświetlała od razu, czyta
i też będzie czytana przez czytnik ekranu w momencie,
Przynajmniej tak to wygląda w przypadku Volamy czy Basiliska.
Natomiast kiedy zrumieniowanie jest nierozstępne,
to cały czas możemy z tego modelu korzystać,
tylko musimy tę opcję wyłączyć.
Generalnie aplikacje na to pozwalają.
Bolte.ai i Basilisk mają tego opcję.
No to po prostu wtedy odpowiedź zobaczymy dopiero w momencie,
kiedy ona będzie wygenerowana w stu procentach.
Więc też taka zmiana.
Nie wiem, czy na stałe, ale coś takiego ma miejsce.
Jeszcze może o tym kodowaniu słów kilka.
A no właśnie też parę filmików, parę z testami oglądałem i dotychczas było to tak, że on powiedzmy sobie, że z tym kodowaniem jakoś tam radził,
ale interfejsy przeważnie nie wyglądały, no nam to może małą różnicę, no ale w większości jednak tak i ponoć te interfejsy nie wyglądały.
No, Google Gemini tutaj z Claude’em przodowały, a teraz, że podobno i właśnie te interfejsy projektowanych przez GPT APEC nawet już sensownie wyglądają, to jest raz.
I to, że… no, na ten moment, podkreślam, na ten dzień dzisiejszy, 12 sierpnia, bo to za miesiąc znowu będzie co innego, na pewno.
Klasyfikacja ponoć wygląda tak, że GPT trzyma w miarę mocną pozycję, bo jest gdzieś tam powiedzmy na tym drugim miejscu.
CLOT to nieznacznie wyprzedza, pod pewnymi detalami jeśli chodzi właśnie o ten kod.
A Gemini, które niejednokrotnie przodowało w sumie, teraz jest na trzecim miejscu.
Więc dzieje się tutaj, zdecydowanie dynamicznie się tu dzieje.
No i ciekawe, co czas przyniesie w odnośniu kodowania.
A jeszcze w kontekście zdrowotnym, powiedzmy,
ten GPT teraz też ma być bardziej odpowiedzialny za to,
co mówi. Po pierwsze właśnie, być może też ta
mniejsza emocjonalność, to, że on bardziej taki sztywny jest,
taki troszkę zdystansowany domyślnie, no bo tak jak mówię,
instrukcji użytkownika też przestrzega. Coś my z Michałem też dowiedli.
To jednak mniej stara się właśnie
zchlebiać, mniej jest właśnie taki pochlebczy, mniej nam
teoretycznie stara się przytakiwać i tak dalej.
Ponoć też badania zaczęto przeprowadzać, że u ludzi,
którzy mieli bardzo intensywny kontakt ze wszelakiego rodzaju chatbotami,
w tym właśnie z chatem GPT ale i Gemini i innymi AI, to niestety jeśli byli podatni,
są podatni na… no po prostu, nie wiem, jakieś towarzyszą im zaburzenia powiedzmy
psychiczne, czy nawet choroby, to, no niestety, taki kontakt z chatbotami te wszystkie objawy różniste nasilał.
No i tu psychiatrzy bili na alarm, biją zresztą nadal i ponoć OpenAI coś ma z tym zrobić, ten GPT już teraz nie będzie…
Będzie nas bardziej konfrontował, teoretycznie, niż…
Nie będzie nam tak przytakiwał bezrefleksyjnie.
w sumie będzie nam tak przytykiwała się niż utwierdzał, nie, więc…
A druga rzecz jest taka, że też
jeśli zbyt długo intensywnie czatujemy,
no to, chociaż to powiadomienie jeszcze nas bardzo wkurza i szkoda, że
tego nigdzie wyłączyć nie można póki co, a może zrobisz sobie przerwę
i wtedy dynamiczne komunikaty nie są oczytywane, bo…
A możesz zrobić sobie przerwę i zamknij przycisk, nie?
No, więc, ale to w trosce o nasz dobrostan.
To ja jeszcze nie miałem takiego powiadomienia.
O nasz dobrostan czy o pieniądze OpenAI?
No właśnie.
Teoretycznie to właśnie o nasz dobrostan.
Ja tam się trzymam oficjalnie.
W każdym razie, jeśli chodzi o wszelkie porady medyczne to też bardziej sugeruje
mimo wszystko skontaktowanie się też z lekarzem i tak dalej, że jednak żywy człowiek i tak dalej.
No mniej podsyła różne niesprawdzone informacje, bardziej się to stara też wszystko weryfikować, szukać i tak dalej, więc w tych kwestiach zdrowotnych też się stara.
Co my tu jeszcze mamy? No integrację z Gmailem i z kalendarzem Google’a też se można podpiąć i on tam też może nam przypominać o różnych rzeczach, jeśli są wydarzenia i tak dalej.
i też może te maile sprawdzać, podsumowywać, więc i GPT się tego, tej integracji doczekało.
Swoją drogą z powiadomień, właśnie z poziomu czatu, jeżeli czegoś szukamy,
to możemy mu zlecić tworzenie tych tak zwanych tasków.
Tasków, zadań.
Tak, że on po prostu będzie realizował takie zadanie cyklicznie i próbował czegoś się dodzielić.
Czas się potem w formie jakiegoś przycisku zedytować sobie możemy.
Tak naprawdę i ten cały harmonogram w sumie chyba dostępne to było na app.
Gdzie ja to testowałem? Nie pamiętam, ale zdaje się, że było to dostępne całkiem fajnie.
No na razie jeszcze, że tak powiem, jestem w trakcie testowania.
Zobaczymy na ile to serio działa, bo wcześniejsze iteracje, to był to był to był
To był jeden wielki dramat tych tasków właśnie, zwłaszcza w kontekście newsów, znajdowania, podsumowania i tak dalej, więc zobaczymy jak to będzie się…
W każdym razie jest, mamy na to wszystko limity, żeby tak kolorowo nie było.
I wygląda to tak. Znaczy fajne jest to mimo wszystko, że darmowi użytkownicy dostali sobie do tego dostęp, tak samo, ale…
Pełen GPT-5 jest dla użytkowników darmowych dostępny.
Zazwyczaj jest 10 wiadomości. Zdaje się resetowanych co 5 godzin.
Więc po 5 godzinach ten limit się resetuje.
No ale co w momencie jak przekroczymy limit tych 10 wiadomości?
A no spadamy na GPT-5 mini, bo takowy został również sobie wydany.
My go nie możemy sobie tak wybrać.
No chyba, że API, ale o tym też zaraz, myślę, powiemy bardziej.
I będzie odpowiadał jeszcze szybciej, ale te odpowiedzi mogą być bardziej płytkie,
jeszcze mniej, bardziej ogólnikowe, mniej szczegółowe, więc no tak jest.
Pomyśl dłużej w narzędziach też się da wybrać i jest ta opcja pomyślenia dłużej,
No ale dla darmowych użytkowników jest, to zdaje się, jedna taka wiadomość, jedno takie zapytanie na dzień, więc troszeczkę mało.
No i co? W trybie głosowym, tryb głosowy swoją drogą podstandardowy, ten wiecie, ten taki z Amerykanin, z tym takim jakby bardzo dobrze mieszkający Polak, mieszkający w Ameryce, który mówi dobrze po polsku, nie?
On ma być do 9 ponoć września, a potem ma zostać wyłączony.
I ma być już ten zaawansowany, niby bardziej naturalny, niby bardziej ludzki.
W sumie różnie mu to wychodzi. Natomiast ten podstawowy ma zniknąć.
I co za tym idzie też te limity zostały sporo zwiększone,
bo teraz darmowi użytkownicy chyba godzinę dziennie
Mają, gdzie wcześniej to było, ojej, teraz nie pamiętam, ale wiem, że teraz mają godzinę.
A użytkownicy plus parę godzin, to na pewno. Ile? Właśnie na dzień. Ile? To teraz nie pamiętam,
ale sporo więcej. No, a Pro zdaje się, mają w ogóle bez limitu ten zaawansowany tryb głosowy,
więc tutaj te limity podskoczyły. Jeśli chodzi o tryb tekstowy,
o tekstową interakcję z GPT-5 to tutaj też są limity 80 godzin, dla użytkowników plus 80 wiadomości w tym modelu standardowym na 3 godziny i co 3 godziny ten limit się resetuje i dla użytkowników Pro też są limity, a jakże, ale tam jest 200 wiadomości i po tych 200 wiadomościach się ten limit tam resetuje, już teraz nie pamiętam po ilu.
No w każdym z tych przypadków skakujemy na model mini, ten mniejszy, ten jeszcze szybszy i tak dalej, no ale za to mniej dokładny.
Tyle, że użytkownicy płacący zawsze mogą się ręcznie przełączyć na właśnie thinking, GPT-5 thinking i wtedy jest w stanie myśleć, jest w stanie mimo wszystko dłużej się nad danym zagadnieniem zastanowić.
A jeśli chodzi o te wszystkie, nie wiem, uczyj i przyswajaj wiedzę, to też jest.
Mało tego, właśnie teraz w tych narzędziach można poprosić o wygenerowanie,
co się teraz śmiesznie nazywa, bo o wygenerowanie chyba innej odpowiedzi,
czy jakoś tak, no de facto generuj ponownie, ale też tam możemy,
niekoniecznie musimy pisać w prompcie, pomyśl dłużej, nie wiem,
albo właśnie żeby było bardziej szczegółowo, ale też możemy go poprosić,
Z tego menu w ogóle narzędzi możemy wybrać czy ma bardziej szczegółowo, czy ma bardziej zwięźle,
więc tych zmiennych takich dużo jest.
No i tak, i generalnie jeszcze kwestia taka…
Aha, właśnie, o tych problemach mówiliśmy, o tym jak przywrócić też.
Chyba nam jeszcze tak naprawdę została omówienia kwestia API, no nie?
Tak naprawdę, co dostajemy i tak dalej, nie wiem.
Piotrek, chcesz o tym powiedzieć ty, czy ja kontynuować w sumie?
Możesz kontynuować, Arlo.
Po prostu jeśli chodzi o API, to to właśnie, co ja zwróciłem uwagę na to,
to jest ta kwestia streaminiowania, tak? Ale no…
Tam dostajemy w każdym razie trzy te modele, między którymi się możemy przełączać.
Ty, zdaje się, o tym mówiłeś przy PeakyBocie,
że jest piątka, jest mini i jest nano i tak naprawdę właśnie tak to jest obserwować i on podobno za milion tokenów tam się dolara płaci, więc ponoć jest taniej.
Natomiast jeśli chodzi właśnie o piki buta i te doświadczenia,
to też powiem, że on tak naprawdę w tym trybie standardowym piątki
generuje strasznie dużo i przy tej samej długości,
gdzie miałem ustawione cztery o, to to, ja powiem tak,
tak, żeby to trwało, żeby to rozpoznawanie trwało krócej i te opisy były
no, mimo wszystko nie aż tak rozbudowane, tylko trochę zwięzłe i krótkie,
to albo sobie przełączyć właśnie na mini, albo na nano i też tam ustawić,
tam jest ten parametr długości w tym, w PeakyBocie i też sobie tak zmniejszyć,
powiedzmy, do 30-20, bo tak to naprawdę zostaniemy zalani ścianą tekstu.
Więc samo to świadczy o tym, że no ten model jest, jest, jest zauważalnie tańszy
Tak naprawdę, jeśli chodzi o NoApi, nie?
No i co? Chyba tak naprawdę tyle. Nie wiem, czy jest coś jeszcze więcej sensu mówić o Piątce.
Chyba tak naprawdę tyle. Dajcie znać, jeżeli korzystacie, jeżeli testowaliście albo macie zamiar.
A tymczasem wiadomość głosowa od Sylwestra.
Nie będę tak poddawać tej sztucznej inteligencji. Ja jestem po prostu już zniechęcony.
To dla młodych, tych co mają 20-25 lat, niech sobie bawią. A ja już jestem po 45, już mi się nie chce się bawić.
Po prostu nie mam chęci. Ja bym tą sztuczną inteligencję najchętniej bym kopnął w tyłek, bo już mi się nie chce.
Jestem zniechęcony. Właśnie, a to może pół roku, rok, półtora roku, dwa lata i nic nie można z tego osiągnąć, nic.
Trzeba to tak dusić, a strata będzie większa niż pożytek. A nawet jeden mi kolegów powiedział, że trzy lata na to stracił,
na te bawienie dzisiaj i żadnego skutku nie osiągnął.
No cóż, chyba my, Maćku, mamy lepsze osiągi niż kolega Sylwestra.
Zdecydowanie, to my podkreślamy nieraz Sylwestrze, że to jest sztuka promptowania i komunikacji przede wszystkim, wiesz.
Jak się umiesz… to tak naprawdę, wiesz, to ma być jak najbardziej naturalna ta komunikacja.
i jak ona jest, i jak… Nie to, że…
Ale to jest też prawda, że ludzie mają często coś takiego, że
powie coś, ale drugi nie do końca wie, co tamten miał na myśli, prawda?
I jeżeli należymy do tego typu właśnie osób, z tego typu przypadłościami,
to może być problem, bo tutaj sztucznej inteligencji trzeba
jasno i wprost określić, czego my od niej doczekujemy, po prostu.
A jak nie wiemy, to też zapytać, jakby była na to… Zresztą cała audycja o tym też jest, więc podobnie zachęcam.
Natomiast, no, pierwsza i podstawowa zasada, no jasno, i konkretnie formułować mu te, jej te instrukcje, nie?
Dokładnie. I wtedy będą efekty i wtedy to, czy 20, 25, czy 40, czy więcej lat, to myślę, że każdy coś osiągnie ciekawego.
Dobrze, Maćku, to pidon za ciosem. Co tam jeszcze w sztucznej inteligencji?
Aha, no dobra, no to skoro pidon za ciosem, no to Elon Musk też nie pozostał dłużny,
dlatego że też za darmo i dla wszystkich użytkowników, i to też w Polsce.
Zdaje się z niedzieli na poniedziałek, ale tego teraz nie potwierdzę.
W każdym razie udostępnił, udostępnił swój GROK 4, swój model.
Też za darmo. Generalnie włącznie tam z generatorami wideo, bo też tam swego
czasu jest, też jakby do dedykowanego dla GROKA 4 właśnie.
No i model w skrócie polega na tym, poniekąd po tym samym, też ma tak naprawdę
określić złożoność pytania.
trudność i też automatycznie gdzieś tam
dobierać, czy to ma być ten lżejszy
powiedzmy model, czy model
bardziej rozumujący, bardziej
zaawansowany.
Więc no tak to.
Tutaj Elon Musk.
I tak samo Google, bo co tu w sumie
dłużej o Groku 4 mówić.
Tak naprawdę chyba tyle.
Poza tym, że ponoć
limity są sporo
Właśnie tutaj Elonowi przede wszystkim chodzi o to, żeby w całym tym ferworze i tej uwadze poświęconej GPT też przyciągnąć tak naprawdę użytkownika, więc podobno te limity są, mimo że za darmo, to tak naprawdę są znacznie wyższe i dzięki temu użytkownik sobie może pokorzystać z tego jeszcze zgrabnień.
Google też poszło za ciosem poniekąd, bo wszystkim studentom na całym świecie to na razie nie jest w Polsce dostępne.
Być może będzie, ale na razie nie jest. W każdym razie swój plan udostępnia Google AI Pro,
Gdzie mamy dostęp do GPT, wróć, do Gemini,
właśnie tego, jak on tam się teraz nazywa?
Wcześniej był Advanced, chyba teraz właśnie Pro.
Jest te dwa terabajty w chmurze Google’owej i tak dalej.
To wszystko ma zostać udostępnione studentom zupełnie za darmo.
Właśnie w tym VO3, ten model do generowania wideo
długości 8 sekund z dźwiękiem,
więc to jest
Google.
Więc to jest Google.
Jeszcze
w Gemini Live, swoją drogą,
też staje się
dla nas poniekąd asystentem,
Bo też można mu tam…
On też się integruje z Gmailem, z zadaniami googlowskimi, z kalendarzem.
Też może i tworzyć wydarzenia, przypominać nam o różnych rzeczach właśnie w trybie głosowym.
O mailach z nim można dyskutować, wywoływać różne aplikacje właśnie z trybu głosowego.
No było wcześniej OK. W trybie tekstowym można to było robić.
No, a teraz jest to właśnie możliwe od teraz w trybie Gemini Live, czyli trybie głosowym.
Co jeszcze mamy?
Ano plum, w sensie polską sztuczną inteligencję, polski model językowy.
Generalnie wchodzi do fazy testowej.
Wchodzi do, no stricte do produkcji tak naprawdę, tak.
W Częstochowie, Urząd Miasta w Częstochowie właśnie będzie pierwszym beneficjentem
tejże sztucznej inteligencji, tegoż PLUMA. To jest ta sama sztuczna inteligencja,
która ma zasilać w przyszłości M-u obywatela i nam, zwykłym śmiertelnikom,
odpowiadać na różne pytania, pomagać pisać pisma i sporządzać właśnie pisma i tak dalej.
No i na razie, póki co, właśnie dla urzędników to też ma być taka dla nich pomoc, takie odciążenie.
Przede wszystkim właśnie z sporządzaniem pism. Jakie są jakieś większe zawiłości prawne,
gdzie wymagana jest jakaś bardziej zaawansowana interpretacja różnych przepisów i tak dalej.
Poporność, ten plum ma w tym pomagać.
Automatyczne streszczanie obszernych dokumentów, zanalizowanie pytań, przebiegu informacji od obywateli.
Tylko kiedy on ma… Generalnie zostały już ustalenia podjęte.
Właśnie między wicepremierem Gawkowskim a władzami decyzyjnymi miasta Częstochowy.
I tylko nie mogę teraz się dogrzebać, kiedy to wchodzi.
Dobra, to może tego nie będę teraz przytaczał, żeby nie przedłużać.
Natomiast coś takiego staje się faktem.
Kolejna rzecz odnośnie AI, no to Claude.
I Claude, który uczy, który też tak samo dostaje pamięć jak chat GPT.
Generalnie, że będzie się na podstawie naszych instrukcji, ale też zapisanych rozmów,
będzie się odnosił właśnie do historii wcześniejszych rozmów.
Na tej podstawie też się będzie uczył stylu, będzie nam odpowiadał w sposób taki, jaki my chcemy.
No i jakkolwiek w GPT część z tych funkcji dostajemy za darmo.
W Clodzie, żeby coś takiego mieć, to trzeba już sobie kupić po prostu płatny plan.
No i wówczas dostajemy do tego dostęp.
Co ja tu jeszcze mam?
A! YouTube.
YouTube, który…
AI pomoże YouTube’owi
wykryć, które konta są, należą do użytkowników
niepełnoletnich.
I nałoży na nie automatycznie ograniczenia.
Generalnie to zdaje się, że od tego miesiąca już będzie respektowany.
Na razie nie wszędzie, ale zacznie się to zapewne rozprzestrzeniać.
No jeśli YouTube właśnie wykryje, że konto należy do niepełnoletniej osoby,
no to nałożę, ponakłada te wszystkie filtry, które powinny mieć osoby niepełnoletnie.
No i… a co w momencie, jeżeli taka interpretacja AI będzie błędna i jednak użytkownik będzie pełnoletni, a niedawno w sumie skończył te 18 lat.
No to wtedy będzie się można zweryfikować, powiedzieć halo, ale sorry, ja tu jestem pełnoletni.
No wówczas będzie wymagane przesłanie skanu dowodu osobistego lub zaraz, albo zalogowanie się właśnie z użyciem dowodu lub podanie numerów, podpięcie karty zdaje się czy coś takiego i wtedy ta blokada to zostanie zdjęta z takiego konta.
No i ostatni cykl, ostatnią wiadomością odnośnie do newsów z tego tygodnia,
to jest wiadomość, na którą się natknąłem wczoraj, przeglądając sobie Google Newsa.
No i chodzi mniej więcej o to, że właśnie pewien sześćdziesięciolatek
starał się dowiedzieć, co by tu zrobić, żeby całkowicie wyeliminować sól
ze swojej diety. Chlorek sodu, prawda? No i cóż, testował na sobie,
testował przez trzy miesiące dosyć restrykcyjną dietę, którą mu GPT położył.
Mianowicie, bardzo, że tak powiem, karmił się zamiast solą, to się karmił bromem,
jakoby to można było zastąpić, prawda. No i efekt był tego taki,
mówiąc w skrócie, że ten pan zaczął mieć różne problemy neurologiczne,
stany psychotyczne, był bardzo odwodniony.
Generalnie było naprawdę bardzo ciężko z tym panem.
No i to leczenie trwało na zamkniętym oddziale, bo ten pan się doprowadził do takiego stanu, że trzeba było go po prostu na zamknięty oddział psychiatryczny.
No trzy tygodnie i jeszcze na… generalnie tam z nerkami jakich miał, też problemy i tak dalej.
No bo się właśnie konsultował z czatem GPT generalnie odnośnie tej diety. On się konsultował w wersji 3.5 jeszcze swego czasu.
No i co? No po tych trzech tygodniach…
Właśnie ten pan był odwodniony, ale mimo że był odwodniony,
odmawiał też przyjmowania płynów i naprawdę różne tam się z nim akcje działy,
włącznie z tym, że chciał z tego szpitala uciec i różne właśnie urojenia przy okazji.
Halucynacje. No ale po tych trzech tygodniach szczęśliwie,
jak już lekarze go ustabilizowali, no to wyszedł ten pan.
Chciałoby się rzec na wolność, ale ze szpitala…
No i co? Próbowano potem na GPT-5 tego typu właśnie praktyki zastosować,
czyli zadano mu te same pytania tak naprawdę, które ten pan zadał czatowi w wersji 3.5.
No i tutaj już reakcja była zdecydowanie bardziej odpowiedzialna, bo w ogóle pomijając,
że ten 3,5 nie wyczaił, że chodzi o spożycie.
Bo tak naprawdę, jeśli chlorek sodu, czyli właśnie sól kuchenną,
zastosować chlorkiem bromu, czyli generalnie do czyszczenia
różnych rzeczy, powiedzmy, no to wtedy tak, ale GPT sobie
nie pokojarzył faktów, no i panu zalecił taką dietę.
A tutaj już GPT-5 stwierdziło, że tak nie do końca można
to wyeliminować, podmieniać biologicznie różnych rzeczy
To też jest nam potrzebne, traktowane jako elektrolit poniekąd i że w rozsądnych ilościach to w sumie sól to jest nawet wskazana i tak dalej.
Żeby mimo wszystko skonsultował się też powiedzmy z człowiekiem, nawet też mu zalecił.
Natomiast rzeczywiście już był bardziej odpowiedzialny i też starał się dociekać,
Dlaczego on tą dietę tak naprawdę chce, co mu tutaj też w tym przeszkadza.
Bo o tym też nie powiedziałem, że jeżeli się czatowi GPT napisze i wykryje, że człowiek jest w jakimś takim rozstroju emocjonalnym,
to też się gdzieś tam będzie starał alternatywy podawać, a nie jemu tam przytakiwać i go utwierdzać.
I tutaj tak samo w tym przypadku się stało, że redakcji portalu, z którego artykułu przytaczam,
no już ten czat nie był aż tak…
To po prostu zachował się bardziej odpowiedzialnie.
No i jeśli chodzi o news tego tygodnia, to w sumie…
Jeszcze poniekąd będzie zaraz, ale to by było na tyle.
A my tymczasem odbieramy telefon, bo słuchacz czeka, czeka i się doczeka w końcu.
Kogo witamy po drugiej stronie?
Halo?
A!
Albo i się już…
Albo i słuchacz już nie chciał czekać.
Wygląda na to. No okej.
To w takim razie myślę, że możemy…
Albo dobra, jeszcze zajrzyjmy, bo to pewnie w tym temacie…
Inny słuchacz do nas się nagrywa na Whatsappie.
Słuchacz Sylwester jeszcze ma nam coś do powiedzenia.
O tego groka, jak to się pisze ten grok, bo ja pierwszy raz słyszę o tym od Ilona Maska,
właśnie ten model, czyli na PC tam można ściągnąć i potestować, bo on jest darmowy, mówicie.
Jak to jest? Ciekawe jest to, bo ja tego jeszcze nie miałem, nie słyszałem.
Jakiś suplementów, jakieś tam sztuczną inteligencję, nie polecam tego.
i przestrzegam ostrożnie z tym, jak ten facet tak zrobił, że on złożył sobie uliczyć, to kurcze, takie śmieszne, no, zasmieszyliście mnie.
Dobry wieczór, może tym razem się uda.
O wspaniale, witajcie. Paweł Podolski się kłania z tej strony.
Chyba mi się mikrofon wyciszył, a ja tego nie zauważyłem.
A całkiem możliwe, no bo nie słyszeliśmy cię.
Tak, tak, dobrze.
Odnośnie tutaj chciałem się odnieść troszkę wiadomości z Sylwestra,
który właśnie tutaj jest tak negatywnie nastawiony do sztucznej inteligencji.
Z jednej strony jakby rozumiem, każdy ma oczywiście swój odbiór świata,
swoje tam przyzwyczajenia i myślenie, ale chciałem powiedzieć tak,
jako użytkownik troszeczkę początkujący tej technologii,
no to zacząłem się troszkę tym interesować.
I zaczęło się od takich prostych zapytań do czata GPT,
Tam jest taki tryb wyszukań, on działa jak wyszukiwarka.
Jeżeli np. w Google wpiszemy jakąś prostą frazę,
typu kontakt do jakiejś tam przychodni czy innego miejsca,
to Google nam rzuci link na stronę.
Strona czasami bywa niedostępna.
Albo zanim znajdziemy ten numer telefonu,
czy co nam to trzeba, to troszkę mija.
A jak się rzuci właśnie taką frazę w to szukaj GPT,
no to dostajemy jakby esencję, czyli miejsce jakieś tam,
którego szukamy, podany telefon, adres, to, co jest potrzebne.
Żadnych linków, niczego takiego.
No i zacząłem się interesować, co by ta sztuczna inteligencja
która mogła dla mnie więcej zrobić.
I natrafiłem na YouTube, na kanał, który się nazywa Startuj.ai.
Oni mają jakby dwojako to zrobione.
Mają oczywiście płatny kurs, który można u nich wykupić.
Mają ileś tam lekcji, gdzie wszystko jest wytłumaczone.
Ale nawet jeżeli się skorzysta z tego, co oni oferują darmowo,
to oferują tak zwany asystent do pisania promptów w czacie GPT.
A ja mam też wiadomość, taką instrukcję, którą można przekleić gdziekolwiek,
do Perplexity, do Gemini, że właśnie tam jesteś asystentem do pisania promptów
i tak dalej, i tak dalej. Jest tam to wszystko powiedziane, co on ma robić.
Jak się mu napisze jakieś zapytanie, to on je poprawia, tak żeby sztuczna inteligencja udzieliła nam dokładniejszych odpowiedzi.
Ja mogę Ci, Michale, jutro, powiedzmy, wysłać tego linka do tego… bo to jest darmowy ten popradać tych promptów.
Więc myślę, że no właśnie tym się chciałem z Wami po prostu dzisiaj podzielić.
Różnicy mają różne strategie, ale ja tak trochę testując inne narzędzia i czata GPT, też przy okazji, ja mam takie odczucie, zresztą w sumie to jest logiczne,
ale że najlepiej, bo czasem się ktoś pyta, co najlepiej działa? Jaka sztuczna inteligencja działa najlepiej?
Ja mam taką refleksję, że sztuczna inteligencja najlepiej działa ta, po pierwsze, za którą płacimy, no bo to jest jasne, ale po drugie, której często używamy, bo ona się nas naprawdę uczy i zapamiętuje różne rzeczy.
Na przykład ja się zastanawiałem, ileś razy słyszałem, że klot jest dobry w pisaniu polskich tekstów.
Jako parę razy poprosiłem o to, żeby mi coś napisał, właśnie na darmowym koncie.
To, jak dla mnie, to była tragedia.
Chat GPT radzi sobie zdecydowanie lepiej,
Ale prawdopodobnie dlatego, że no z czata GPT korzystam jako z wersji płatnej, to jest po pierwsze.
Ale po drugie też, ja już sporo różnych treści przez niego przemieliłem i on się gdzieś tam mnie też tak czy inaczej nauczył.
Więc takie moje refleksje a propos tego. A oczywiście dobry prompt naprawdę też daje dużo, także…
Jeszcze chciałem wam powiedzieć a propos właśnie jak ktoś lubi testować różne modele sztucznej inteligencji.
No bo czat GPT to on kosztuje tam powiedzmy 23 euro miesięcznie.
A ten właśnie co ja mówię to jest Abacus AI. Abacus się pisze.
I on za 10 dolarów ma ileś tych modeli w wersji Pro.
Testowałem to, testowałem to. Ja muszę powiedzieć, że interfejs Abacusa mi się średnio podobał.
Aha, czyli niedostępny dla nas.
Taka webowa… to znaczy nie, nie, że niedostępny, ale w porównaniu do czata GPT korzystało mi się z niego gorzej.
Dużo jakichś takich klikalnych elementów. Jak coś chcesz to zrobisz, ale Abacus na przykład też ma jakieś możliwości integracji usług zewnętrznych ze sobą teoretycznie,
Ale mi to w ogóle nie chciało działać, nie byłem w stanie tego jakby wymusić, więc to takie…
No bo ja na co dzień właściwie to korzystam albo z Gemini’a, bo on umożliwia darmowe, mnóstwo tych zapytań, tam nie ma limitów niczego.
Natomiast z GPD też zacząłem właśnie od dzisiaj korzystać, ale no mówię, to wszystko jak masz dobrze napisany prompt,
I trzeba mu tam mówić, ulepsz tą instrukcję, popraw mi to, no chciałbym mieć to jeszcze. Dopiero jak się czegoś nauczy, tak po polsku mu po prostu pisać, to on to robi, no.
A w ogóle, to z tego co słyszałem, to najlepsze prompty tworzy się w języku angielskim.
No dobrze, to tyle co chciałem wam przekazać. Miłego prowadzenia audycji.
Swoją drogą, chyba jakaś znowu afera jest z Grokiem. Zaczął jakieś różne dziwne rzeczy robić, ale teraz nie mam czasu, żeby to jakoś bardziej zgłębić, ale chyba coś znowu się dzieje.
Ale grok.com też, grok przez k na końcu, kropka.com.
Kropka.com.
Wchodzi, no.
Dobrze, Piotrze, to teraz Twój temat. Twój temat o zegarku, ale takim nietypowym.
Bardzo nietypowym. Czy on jest dla nas w pełni dostępny? Nie wiem, ale sygnalizuję, że coś takiego jest,
bo myślę, że to może być dla nas ciekawe urządzenie.
Jest to mianowicie smartwatch, ok, na razie nic dziwnego, z Androidem, no w sumie też, aczkolwiek to jest pełny Android, więc tutaj wchodzimy w kategorię sprzętu, która jest rzadziej spotykana, ale to też nie, ale też można czasami takie urządzenia spotkać.
Ale jeszcze ten zegarek ma dodatkowo jeszcze kamerkę. No to już się robi, wydaje mi się ciekawie, zwłaszcza dla nas, no mogę sobie parę zastosowań wyobrazić.
O jakim urządzeniu tutaj mówimy?
Mówimy o urządzeniu Rockbit Model S.
I tak dosłownie się to urządzenie nazywa.
Jego model to właśnie Model S.
Pisane z odstępem pomiędzy Model i S.
Pisze o nim serwis tabletowo.
Tutaj też z tej strony będę brał większość specyfikacji,
bo sama strona producenta jest średnio dostępna.
To drugi raz się z czymś takim spotykam,
jeśli chodzi o chińskich producentów,
Wiem, że zamiast takiego opisu tekstowego, tu mamy tylko jakieś zdjęcia,
z którymi to GPT-5 nawet sobie poradził,
ale nie powiedział mi wiele więcej niż to, co pisze tabletowo.
Więc tutaj po prostu skupię się na tym,
co znajdziemy na stronie tabletowej.
Oczywiście będzie podlinkowane.
I na co tutaj myślę warto zwrócić uwagę,
to to, że właśnie na urządzenie ma pełnego Androida
I jeszcze jedna rzecz, właściwie taka dosyć unikalna, to taka, że to jest też fajny zegarek dla ludzi, którzy chcieliby też z zegarka dzwonić i to nawet z dala od telefonu, bo do tego urządzenia możemy włożyć kartę SIM.
Tutaj podkręciłam właśnie słowo włożyć, bo generalnie nowe smartwatche, nawet te, które mają funkcję łączności,
czy to są Apple Watche, czy najbardziej jakieś Samsungi Galaxy Watch, które mają modemy,
no to generalnie są urządzenia, które korzystają raczej z kart eSIM, kart elektronicznych.
A tutaj na tym zegarku po prostu możemy sobie zwykłą kartę nanoSIM do tego urządzenia włożyć,
więc jeśli chcemy mieć jakiś inny numer, no generalnie po prostu wystarczy,
że do niego tę kartę włożymy, co mi stoi na przeszkodzie,
żeby ten zegarek cały czas był wodoodporny,
bo wodoodporny jest do IP67 według producenta,
więc no może nie będziemy mogli z nim jakoś długo pływać,
ale spokojnie możemy jakiś prysznic wziąć z tym urządzeniem
i nic się nie powinno stać.
Ciekawe funkcje tego urządzenia to jest właśnie
obecność karty SIM, ale idąc tutaj dalej.
Smartwatch wyposażono w 2,4-calowy ekran o rozdzielczości 720×720,
więc to 720p to w pewnym sensie jest nawet nie do końca,
no ale widać, że też mamy tutaj do czynienia z ekranem kwadratowym.
Dosyć dużym jak na Watcha, no ale z drugiej strony, jeśli mamy tam mieć pełnego
Androida, to większy ekran się pewnie przyda.
Ekran, który podkreśla producent, zapewnia wysoką szczegółowość i żywe kolory.
Możemy dodatkowo spersonalizować czytarcze, są różne skórki, motywy, dostępne w systemie zegarka.
Mamy, jak wspominałem, na tym urządzeniu pełnego Androida.
Niestety nie wiem jakiej wersji, nigdzie do tego nie udało mi się dokopać.
Natomiast wiem, że urządzenie ma sklep Play,
więc będziemy mogli na nim instalować dowolne aplikacje.
A też firma Rockbit postanowiła też postawić na AI
i z urządzeniem dostajemy preinstalowane aplikacje do czata GPT
oraz do DeepSeeka.
Tak że już tutaj mamy urządzenie przygotowane do tego,
żeby sobie z czatem GPT porozmawiać.
Nawet nie musimy nic instalować.
Gdyby ktoś chciał coś innego, to nic nie stoi na przeszkodzie,
…żeby do tego sklepu Play wejść i sobie jakiegoś innego asystenta, czy to Gemini,
może Gemini też jest zbudowany w sumie, no jeśli tutaj mamy sklep Play,
to jest to bardzo prawdopodobne.
Urządzenie jest wyposażone w 3 GB pamięci RAM oraz 32 GB pamięci na dane.
Cały czas też nie wiemy o tym, jaki tam jest procesor,
Natomiast na takie podstawowe aplikacje i nie tylko powinien raczej wystarczyć.
Chociaż dużo, jak na współczesne czasy, to to nie jest,
ale pewnie nie będziemy na zegarku jakichś wymagających rzeczy robić.
Natomiast wracając do tego aparatu, bo wydaje mi się, że to jest ciekawa rzecz,
m.in. właśnie do takich zastosowań AI.
Aparat jest chowany w koronkę, możemy go z koronki wysunąć.
I kiedy to zrobimy, dostaniemy 5-megapikselowy aparat.
o kącie widzenia 180 stopni,
więc możemy sobie wewniętrznego jakoś obrócić.
Ten aparat pozwala na nagrywanie zdjęć, nagrywanie wideo
i prowadzenie rozmów wideo bez potrzeby używania telefonu.
Tak że gdyby ktoś chciał BMI skorzystać,
skierować ten aparat do przodu,
np. musimy odpowiednio rękę trzymać, ale mamy drugą rękę wolną,
to może nawet być w jakimś stopniu
Całkiem wygodne, tutaj właśnie jakiś OCR czy coś w tym stylu pewnie będzie całkiem możliwe.
Trochę jak akcesorium dla szpiega jakiegoś właśnie. Ta kamera w koronce.
Trochę. Ciekawe jak to wygląda, jak to schowane.
Co jeszcze wiemy o tym urządzeniu? Oczywiście mamy rozbudowane funkcje fitness,
w tym na przykład też mierzenie poziomu tlenu w krwi, więc takie bardziej nawet zaawansowane funkcje.
Jak na zegarek, który, jak zaraz dowiecie się, wcale nie jest taki drogi.
Natomiast też mamy taką informację,
że zegarek może działać w dwóch trybach.
W trybie Bluetooth, w którym jest połączony ze smartfonem,
oraz w trybie pełnego Androida.
I teraz tutaj zastanawiam się, jak to będzie dla nas wyglądało,
czy ten tryb Bluetooth korzysta z bardziej okrojonego systemu.
Może być tak, że wtedy ten zegarek dla nas dostępny w tym trybie może nie być.
Ale tutaj też głowy nie dam, nie wiem dokładnie, jak to zostało zrealizowane.
Natomiast, no, warto też to mieć na uwadze, jeśli na taki zegarek się zdecydujemy.
Nie wiem, czy będziemy mogli, przynajmniej w oficjalny sposób, dostawać powiadomienia,
ale może będzie do tego jakaś możliwość.
Natomiast nawet jeśli korzystamy z tego trybu Androida,
zegarek jest wyposażony w baterię 1500 mAh, a więc chyba całkiem sporo jak na zegarek.
Co, jak zapewnia producent, pozwoli nam nawet na działanie na tym zegarku przez cały dzień
bez konieczności ładowania. W trybie Bluetooth to nawet 10 dni czuwania,
natomiast my pewnie będziemy najwięcej z niego korzystać w tym trybie pełnym.
I to nawet właśnie, jak będziemy korzystać z tej karty Steam, z 4G, no tutaj 5G nie mamy,
ale LTE jak najbardziej jest, więc powinien być w stanie całkiem szybko pobierać.
I co jeszcze warto powiedzieć, oczywiście jest GPS, o tym chyba jeszcze nie wspomniałem, więc oprócz tych funkcji fitness jest GPS, więc tutaj jakieś aplikacje do nawigacji powinny działać.
I jeszcze też ważna informacja, zegarek jest dostępny w dwóch kolorach, jest to Aurora Gold oraz Shadow Black, więc tutaj możemy trochę wyobrażać sobie, jakie to są kolory.
W cenie niedużej, bo 109 dolarów, około 405 zł na dzisiejszy moment w oficjalnym sklepie producenta.
Widziałam tam na stronie, że np przez Apple Pay można zapłacić, gdyby ktoś chciał.
Może pewnie Google Play też będzie wspierane, coś przepuszczam.
Generalnie nie powinno być problemu z dokonaniem zakupu.
Jest to koperta około 47-8 mm,
to przynajmniej GPT podpowiedział,
też chyba jeszcze o tym nie wspomniałem.
Więc całkiem niedrogo.
Czy bym to urządzenie polecił?
Może, gdyby ktoś chciał.
Natomiast warto zwrócić uwagę na jedną rzecz
i tutaj nie mam niestety odpowiedzi.
Może być tak, że sami tego urządzenia
nie skonfigurujemy,
bo z takimi urządzeniami z obecnością Talkbacka
na tych urządzeniach jest różnie.
Bardzo często było tak,
Także producenci usuwali go z wbudowanego oprogramowania,
więc może być taka potrzeba,
że będziemy potrzebować pomocy osoby widzącej,
żeby sobie TalkBacka, ewentualnie syntezę
albo inny czynnik ekranu pobrać, włączyć go.
Dopiero wtedy będziemy mogli z tego urządzenia korzystać.
A może nie, a może TalkBack zadziała i będzie już wbudowany w system.
Nie mamy wszystkich informacji.
Wydaje mi się, że to urządzenie może niektóre osoby zainteresować, bo wiem, że są wśród nas osoby, które chcą na zegarkach robić dużo.
A urządzenie wyróżnia się na pewno, między innymi właśnie tym, że ma pełnego Androida, ma fizyczny slot na kartę SIM, to może niektórym osobom się spodobać.
No i właśnie ta kamerka, kto wie, może to mieć jakieś ciekawe zastosowanie.
Zgadza się. Zaglądamy teraz na nasz panel kontaktowy, tu mamy kilka wiadomości.
Jeszcze raz serdeczne dzięki. Udało się dodać kolejny język klawiatury, chociaż trochę muliło.
I jeszcze takie małe pytanko. Czy w aplikacji Messenger na iOS zniknęła Wam karta Relacje?
Jeszcze raz serdecznie pozdrawiam. Zniknęła!
Tam teraz jest zakładka chaty i zakładka menu.
I to są dwie karty, które są obecnie w Messengerze.
LordKiller do nas pisze.
Szczerze, ja tą starą appką zepsułem koledze komputer, że chyba Enter mu nie działał, czy coś dziwnego.
Bo ją na Macu miałem.
No właśnie, ciekawe, czy to będzie na Maca.
Co myślicie, bo twórca może na to pozwolić w App Store.
Tylko o jaką appkę tu chodzi…
to nie wiem.
Natomiast kolejna wypowiedź od Łukasza.
Cześć, witajcie.
Co to jest ten tajemniczy model rozumujący? Jak to wszystko działa, że on potrafi myśleć?
Czy to może działać lokalnie na naszym komputerze, czy na serwerach w Stanach Zjednoczonych?
A my tylko wysyłamy zapytania i otrzymujemy odpowiedzi. Pozdrawiam.
No, modele rozumujące też jakieś tam zdaje się są, które możemy odpalić lokalnie.
No właśnie, tylko problem jest w tym, że trzeba mieć odpowiednie zasoby, żeby to uruchomić.
Także tu upatrywałbym ewentualnych kłopotów, natomiast no te modele rozumujące, one po prostu pokazują nam też bardzo często jak dochodzą do danego zagadnienia.
Także można sobie to na przykład prześledzić. To potem ułatwia
chociażby debagowanie tego, dlaczego AI wypluło nam taki, a nie inny wynik.
Na przykład.
Kolejna wiadomość od Lorda Killera.
A czy Grok 4 Heavy też jest darmowy, czy to zwykły Grok 4? Maćku?
Item Heavy już jest w tym planie płatnym, niestety, więc ten darmowy to de facto no umożliwia między wyborem tym automatycznym tak jak GPT i tym tak zwanym trybem eksperta, ale to też przez określony czas tak naprawdę, no a Heavy to już jest płatny.
I tu jeszcze LordKiller dopowiada, że to z zepsutym Enterem i jabłką na Maca to pytanie o NVIDIA Remote.
Aha, raczej aplikacje nie psują komputerów. To by było bardzo dziwne, więc to może jakiś zbieg okoliczności po prostu.
No dobrze, to następny temat. Teraz takie bardziej rzeczy ciekawostkowe.
iPhone. iPhone chciał latać i poleciał.
iPhone chciał latać, poleciał, o dziwo nie był w…
Chociaż może i był w trybie samolotowym, kto go tam wie.
Ale w każdym razie…
Powinien być.
Ale w każdym razie poleciał, zleciał, wylądował i przeżył.
A wszystko rozbija się o pewną konserwatorkę przyrody,
jednocześnie podróżniczkę pani sobie chciała polatać nad Niemcami.
No i nagrywać wszystko z lotu ptaka.
Pani Ashley, jak on tam się nazywała? Zaraz to będzie też… no, Prang chyba.
W każdym razie nad Renem się to stało w Niemczech.
I chciała, tak jak mówiłem, pofilmować sobie.
I przy większym podmuchu wiatru iPhone wziął tej pani i brutalnie uciekł.
Wyrwał się jej z rąk i spadł.
To było około 800 metrów nad ziemią.
No i przeżył. Gdyby tak naprawdę nie to, że ta pani tam…
Bo ona miała etui ochronne generalnie, które też poniekąd bardzo uchroniło,
ale to etui też było jednocześnie portfelem.
No i miała tam swoje karty kredytowe, różne cudownie,
wideodokumenty i tak dalej, prawda? Więc jednak jej zależało na tym,
żeby ten telefon chociażby znaleźć po to, żeby te dokumenty sobie stamtąd odzyskać.
No i jakie było jej zdziwienie, jak włączyła sobie aplikację Znajdź na innym swoim urządzeniu.
Co ona tam miała, to w sumie nie wiem.
Natomiast, natomiast włączył…
Tak, no i odkryła, że ten telefon cały czas żyje.
No, postanowili przeszukać
teren, gęsty las, bo to grzmotnął w las,
więc też może dlatego przeżył, bo tam i drzewa,
i być może ściółka i coś tam. Jakaś ściółka, tak.
Tak, więc ewentualnie może dlatego. Chociaż historie też były
takie, że iPhone X swego czasu pół roku
gdzieś tam w jeziorze i on też przeżył, więc… No, ale
tutaj chodzi o tą panią, o upadek z wysokości
iPhone’a. Po kilku godzinach
W tymże Gęstym Lesie pani odnalazła ten swój telefon, który był w idealnym stanie.
Był całkowicie pełnosprawny, bez ani jednego uszczerbku na zdrowiu, a bez ani jednego pęknięcia ekranu.
I właśnie ta pani przyznaje, że ten telefon przetrwał być może dzięki temu, że po pierwsze…
Znaczy konstrukcja urządzenia solidna, no tak, ale też dobry etui ochronny,
Wszystkich tych, którzy nie mają jednak, są zwykli do, niezwykli do noszenia
iPhona w etui, to może jednak wartołoby, bo można też łatwo załatwić
swój telefon. W każdym razie tam zareklamowała konkretną markę właśnie,
że to pomogło. No i tak naprawdę umieściła tą pani ten swój, ten cały przelot
tego biednego telefonu.
No kadr nie był naj…
najbardziej atrakcyjny, ale to podobno
wszystko można na jej Instagramie
zobaczyć, ciekawe swoją drogą.
Jakby to AI opisało wszystko,
w każdym razie…
koziołkujący telefon, można
zobaczyć. Muszę pochwalić tutaj
autorkę tego artykułu
za jego tytuł, bo
mamy AirDrop w prawdziwym życiu.
Tak, tak, tak.
Jakby nie patrzeć.
A pani Sarafinowicz to w ogóle fajnie, fajnie pisze, więc no, tak.
No, to rzeczywiście, pogratulować twórcom iPhone’a, ale i producentom etui też.
A może i twórcom tych kart?
Swoją drogą, jak to się, Bellroy chyba, o tak Bellroy się to etui nazywa.
Ciekawe w sumie wziąć, wytestować, sprawdzić.
Ciekawe czy teraz będą się tak reklamować, na ich miejscu bym tego nie robił.
No, oby nie.
A mówiliście o nowym telefonie Androida, czy nie? Bo ja pół godziny nie słuchałem was w ogóle.
Dwa tematy nam zostały.
Też około AI, powiedzmy.
Tak, też około AI-owe.
Firefox.
Użytkownicy ostatnio się zeźlili
na tę przeglądarkę, bo im zaczęła
chyba zamulać, prawda?
Zaczęła przeglądarka
zamulać od
wersji
141.
No, właśnie wszystko przez AI.
Dlaczego przez AI? Ano, bo
Podążając za trendami, chciano uczynić grupowanie kart inteligentniejszymi, właśnie opartym na lokalnym modelu AI.
To wszystko generalnie miało się odbywać na urządzeniu, ponoć w przeciwieństwie do Chroma, które wysyła wszystko jak leci na serwer.
A to podobno miało być stricte na urządzeniu.
No i niestety urządzenie poniekąd przypłaciło, bo zaczęło mocno się przegrzewać.
Tenże komputer, wiatraczki, to wszystko procesor na najwyższych obrotach, RAM zawalony, drenaż baterii przy okazji też.
No i użytkownicy się bardzo na to zeźlili, no bo jakże to tak.
I generalnie analiza menadżera zadań tam ujawniła właśnie proces odpowiedzialny za ten stan.
Inference właśnie się nazywa proces, który jest za to odpowiedzialny za działanie lokalnych modeli w przeglądarce.
No i oni bardzo się ześlili, użytkownicy, prawda, że nie chcieli, żeby im cokolwiek wysadzało, procesora i tak dalej, bez ich wiedzy, zgody i tak dalej.
No i argumentem takim koronnym było to, że zadaniem przeglądarki jest renderowanie stron, a nie podążanie za modą AI, no i jak się też nie wie, jak tego robić, to lepiej, że może się za to nie brać.
I generalnie można to wyłączyć, wpisując właśnie w pasku na adresu about2.config i tam sobie dwie flagi wyłączyć.
Może ja tego nie będę przytaczał szczegółowo, które te flagi, natomiast w podlinkowanym artykule,
Gdyby kogoś taka przypadłość dopadła i by mu Firefox straszliwie zamulał, no to można sobie to wyłączyć, wersja 141, być może nie warto aktualizować, no.
No i ostatni temat, też około AI-owy, ale tym razem już nie lokalny, a zdalny.
A zdalny.
Perplexity.
która bardzo się nalaziła Cloudflare’owi,
bo generalnie chodziło o to, że wszystkie strony,
znaczy strony generalnie, które Cloudflare blokuje,
które stoją za tym Cloudflare’em, które nie miały być indeksowane
tak naprawdę przez żadne boty i tak dalej, przez Perplexity,
indeksowane były. No i tak mówiąc w skrócie,
jeśli to zostało… w momencie, gdy to
zostało wykryte.
Perplexity zostało, mówiąc wprost,
bana generalnie została usunięta
z wyjątków Cloudflare’a.
I teraz za sprawą tego, tam gdzie
będzie wykorzystywany Cloudflare,
no to nawet jeśli, nawet jeśli nie będzie żadnych blokad i tak dalej, no to przeglądarka, znaczy to Perplexity niestety nie będzie mogła sobie skorzystać z tego.
O, czyli z Tyflopodcastu nie skorzysta na przykład.
A widzisz, czyli z Tyflopodca, a no, ojej, no to teraz będzie…
to tym bardziej większy troszkę problem. No i też zabezpieczyli to i też
Cloudflare poszło do tego, posunęło się dalej. Jeśli jakiekolwiek w ogóle
podejrzane zachowanie będzie wykrywane w ruchu na stronie, no to wtedy po prostu
będzie bezwzględnie też usuwana jakby i też nie będziemy mogli korzystać
Dana przeglądarka danych, bo dane cokolwiek i to jest zarówno dla płatnych posiadaczy,
dla płatnych subskrybentów Cloudflare’a, jak i dla też darmowych. Także to tak.
A ja jeszcze powiem troszeczkę z innej beczki. A propos tej mody, jeśli chodzi o AI,
od wprowadzania tych modeli,
znaczy tych trybów study and learn,
czyli tak ucznie przysyłają wiedzę w GPT,
to jest rzecz jedna i to niby tutaj też właśnie
i pedagodzy, i dydaktycy, i metodologii i tak dalej.
A wy jakbyście do tego przyczyniali różne racje eksperci.
A Google też ma swoje,
też wprowadzone, teraz nie pamiętam,
A Guided Learning chyba się to nazywa, no i właśnie to też, to też w ramach tego planu dla tych studentów.
To swoją drogą będzie dostępne właśnie na początku w USA, Japonii, Indonezji, Korei Południowej i Brazylii,
a potem to się ma właśnie rozszerzać na, na te dalsze. No, także, także już chyba rzeczywiście tyle.
Tu jeszcze Oskar nas pyta, jak wygląda sprawa Kanal+, przez stronę i aplikację.
Idzie oglądać, przez aplikację na pewno. Była ostatnia audycja, jej jeszcze nie ma na stronie,
ale może nawet jutro się pojawi, także przez stronę na pewno, przez aplikację na pewno,
na pewno na iOS-ie się da. Na Androidzie chyba też nie jest z tym najgorzej.
No dawno przez stronę nie testowałem, ale na pewno udało się i przez apkę jak najbardziej, zarówno tą właśnie na iPhone’a i jak się ma też Maca z procesorami M, znaczy Apple Silicon, czyli Mkami właśnie tak zwanymi, to też elegancko, bo deweloper pozwala, można sobie oglądać też tak.
Okej, no to w takim razie tradycyjne pytanie, czy jeszcze ktoś coś chciałby dorzucić?
Z mojej strony wszystko.
A zatem kończymy dzisiejsze dwieście dziewięćdziesiąte piąte wydanie Tyflo Przeglądu.
Kolejne za tydzień. Dziękujemy bardzo za uwagę.
A dziś informacje przekazywali wam Piotr Machacz i Maciej Walczak.
Do usłyszenia.