TyfloPrzegląd Odcinek nr 293 (wersja tekstowa)
Pobierz napisy w formacie SRT
Pobierz napisy w formacie VTT
Fundacja Instytut Rozwoju Regionalnego prezentuje
Tyflo Podcast
W tym tygodniu w Tyflo Przeglądzie.
Jak w Korei Południowej podchodzi się do dostępności kiosków cyfrowych?
Agent odczata GPT i jego problemy z dostępnością.
Łoca postatecznie kończy z natywną aplikacją pod Windows.
Wszyscy dostaną interfejs przeglądarkowy.
Na co pozwala niewidomemu AI?
A choćby na rozwiązywanie zagadek dotyczących teledysków.
Twórcy komunikatora Element obiecują kolejne poprawki dostępności.
GNOME Kalendar staje się bardziej dostępny.
Czy Orbit Player pozwoli na instalację innych aplikacji i syntezatorów?
Ciekawe odkrycia użytkowników.
Przestała Ci działać nawigacja po słowach Visual Studio Code?
Jest na to rozwiązanie.
Pierwsze publiczne bety nowych systemów Apple wydane.
Z Wizards zarezerwujesz lot, ale czy w sposób intuicyjny i dostępny?
Unwatched for YouTube. Alternatywny interfejs do YouTube’a na iPhona i Maca.
Spraw związanych z Uberem ciąg dalszy.
Nowości w grach.
Nie zainstalujesz już własnego Androida w nowych Samsungach.
Firma usuwa możliwość odblokowania bootloadera.
Jukebox, sprawiedliwe zarządzanie imprezową playlistą.
Zamień gładzik MacBooka w wagę.
WhatsApp testuje przypominanie o wiadomościach.
Wszystko to, a pewnie jeszcze więcej już za chwilę.
Zaczynamy!
Tyflo Przegląd jest audycją prowadzoną na żywo,
więc serdecznie zachęcamy Państwa do współtworzenia go razem z nami.
Oczekujemy na wiadomości głosowe na Whatsappie oraz połączenia telefoniczne
pod numerem 663-883-600, powtarzam 663-883-600
oraz zapraszamy Państwa do wyrażania komentarzy w formie tekstowej
poprzez formularz na stronie kontakt.tyflopodcast.net.
Odczytujemy również Państwa wypowiedzi zamieszczone pod transmisjami na Facebooku i YouTubie.
Staramy się też zaglądać na nasz Tyflo podcastowy serwer Discorda.
Po raz 293 spotykamy się z Wami w ramach Tyflo Przeglądu, czyli naszej cotygodniowej audycji technologicznej.
Głównie skupiamy się tu na tematach dotyczących osób niewidomych bezpośrednio,
ale też i w technikaliach zajmujemy się tym wszystkim, co pośrednio może być dla nas ciekawe.
A dziś w składzie wakacyjnym, jak najbardziej nieco uszczuplonym, bo Tomka nie ma, Pawła nie ma, ale jest Maciek, Walczak jest, Piotr Machacz, witam was bardzo serdecznie.
Ja również jestem na stanowisku, melduje się Michał Dziwisz, będziemy tu razem przez najbliższe, no to myślę, że spokojnie mogę powiedzieć, że godziny.
Jesteśmy my, jesteście też i wy. Zaczynamy od pierwszej wiadomości, która pojawiła się na Whatsappie, od Szarlotki.
Witajcie. Ja przychodzę dzisiaj do Was z rozwiązaniem problemu,
jeżeli ktoś z Was ma taki problem. Ja taki problem między innymi miałam
przez trzy lata się z tym problemem borykałam. A mianowicie chodzi o
system macOS i ekran logowania, gdzie synteza odzywała nam się
w języku angielskim. Nie było to może jakieś bardzo kłopotliwe,
niemniej bywało, że uprzykrzało trochę życie, już nie mówiąc
o odzyskiwaniu systemu. Otóż okazuje się, że jest na to rozwiązanie.
Michał na stronie Piotra Witka o tym wspomniał, że on wykonał w zasadzie
kilka czynności, ale wydaje mi się, że wystarczy tylko jedną czynność
w zasadzie zrobić. A mianowicie, co należy zrobić? Należy wejść sobie
do ustawień systemowych, ekran blokady i na końcu się przewinąć tam do ustawień
dostępności, wyłączyć by VoiceOver się uruchamiał wraz z systemem, tam właśnie
w tych ustawieniach dostępności, dać przycisk gotowe, zrestartować system macOS
na zasadzie wyłącz, włącz.
No i później tam akurat Michał zalecał, że można, bo nie był pewien,
czy ma na to wpływ czy nie, żeby usunąć wszystko, co jest związane
z językiem angielskim, żeby pozbyć się po prostu syntezy
angielskiej, niemieckiej czy jakiejkolwiek innej w narzędziu
VoiceOver. Niemniej dostałam potwierdzenie, że najwyraźniej
I akurat to nie ma wpływu, no ale nieważne.
I gdy już to uczynimy, to na nowo włączamy w ustawieniach dostępności,
tam w ustawienia ekran blokady, ustawienia dostępności.
Uruchamiamy sobie właśnie tego voice overa, zaznaczamy go, żeby był włączony.
No i od tej pory synteza zaczyna nam mówić na ekranie logowania po polsku.
Ale to nie wszystko, bo okazało się również,
że w odzyskiwaniu systemu synteza zaczęła nam również mówić po polsku.
I to mnie już najbardziej zadziwiło.
Niemniej muszę tutaj podkreślić, że na systemie beta,
bo mam zainstalowaną betę na drugim woluminie,
niestety tego problemu nie udało mi się naprawić.
Zadziałało to tylko na stabilnej wersji i ja mam szczerą nadzieję,
że jeżeli zainstaluję już na mój dysk główny system macOS 26,
to że ta metoda jednak też będzie działała, bo naprawdę jest to wspaniałe,
zwłaszcza odzyskiwanie systemu, gdzie już wszystko jest czytane po polsku.
I zaraz to zademonstruję, żeby pokazać, że nie rzucam słów na wiatr,
Wyłączę sobie tutaj system i pokażę, że mam nadzieję, że będzie cokolwiek słychać, że system odzywa się w języku polskim.
Uruchomię teraz system.
O i właśnie.
I jak słychać, mam nadzieję.
Spróbuję pokazać, że dalszy ciąg też jest po polsku.
No, nieważne, w każdym razie nie wybrałam tej opcji,
nie wybrałam tej opcji, co trzeba, ale żeby już nie przeciągać,
no w każdym razie wszystko działa, wszystko jest po polsku,
także jeżeli macie ten sam problem, no to bardzo polecam skorzystać
z tej metody, zwłaszcza, że bardzo prosto to wykonać, a może
pomóc, przynajmniej na stabilnej wersji, bo na systemie beta,
Nie działa. Natomiast mam nadzieję, że będzie to dalej działać i że po
zainstalowaniu tej stabilnej wersji będzie dalej działać.
Także pozdrawiam i mam nadzieję, że się komuś to rozwiązanie przyda, bo mnie
się bardzo, bardzo przydało.
Za to tutaj Michałowi bardzo, bardzo dziękuję.
Ale zanim…
W becie macrose’a tak czy inaczej nie działa, no to w sumie dobrze, że ten
feedback poszedł, że go wysłałem jednak.
No dokładnie, dokładnie.
Ale zanim będzie o Whatsappie, to myślę, że sobie porozmawiajmy o tym, co tam w Korei Południowej.
Tak, żeby nie pomylić. W Korei Południowej. Na północy to oni tam mają dużo więcej różnych problemów.
Natomiast na południu są kioski informacyjne. Jak tam wygląda, Piotrze, dostępność tych kiosków?
Tak, mamy tutaj artykuł od The Paciello Group, który w pewnym sensie jest trochę chyba reklamą Joe’sa dla kiosków,
Bo tak, jest coś takiego zarówno na kioski z Windowsem i z Androidem.
Ale tutaj przy okazji dowiadujemy się kilku ciekawych rzeczy,
jak poszczególne kraje podchodzą do tematu.
Co wydaje mi się, jest dla nas może o tyle ciekawe,
że Europejski Akt o Dostępności
też próbuje wprowadzić dostępność na takich urządzeń.
Zostaje oczywiście pytanie, jak ewentualnie zachęcić producentów,
…żeby zachęcić producentów,
oprócz tego, że są kary, o karach możemy rozmawiać.
Ale często te sprzęty, które są używane, są może stare,
mają stare oprogramowanie, to też stanowi problem,
bo to oczywiście też są duże koszty.
Mówiąc o kioskach, rozumiem, że wszystkie elektroniczne urządzenia
wyposażone w ekrany dotykowe,
które albo właśnie nam mogą podawać jakieś informacje,
nie wiem, jakieś mapki cyfrowe,
informacje o przylotach na lotnisku, nie wiem, takie rzeczy.
Ale oczywiście też często pełnią rolę sklepu, tak?
W takim sensie, że na przykład w restauracji składamy jakieś zamówienia,
pobieramy miejsce przy okienku.
No, w wielu miejscach tego typu urządzenia
się coraz częściej pojawiają i pełnią różne role,
więc jak najbardziej mogą nam stanowić
I tutaj przechodzimy do tego, co się dzieje właśnie w Korei Południowej.
My mamy Europejski Akt Odostępności i jego polski odpowiednik,
a w Korei Południowej mamy Akt Prohibicyjny na dyskryminację osób z niepełnosprawnościami.
Tak się ten akt nazywa, więc tutaj można się domyślić, o co chodzi.
Akcja dołącza poprzednie akty, które były wcześniej prowadzone, które generalnie mają za zadanie uregulować dostępność w Korei Południowej.
Włącznie też z ich odpowiednikiem przepisów, czy właściwie WCAG, czyli dostęp na naszym internecie.
Oni mają swoją wersję KWCAG, która generalnie jest bardzo podobna, troszkę zlokalizowana na koreański rynek cyfrowy.
Ale też oprócz stron internetowych bierze pod uwagę aplikacje mobilne i inne cyfrowe usługi.
Więc troszeczkę ma tutaj szerszy zakres.
Natomiast wracając do tego aktu przeciwko dyskryminacji, tak już to może skróćmy,
generalnie ma on bardzo podobne zadanie do tego, co znamy w Europie.
Wszelkie publiczne usługi muszą być dostępne.
Jeśli jakieś informacje są przekazywane, to muszą być przekazywane w dostępny sposób.
I tutaj zarówno mówimy o tym, żeby np. filmy były wyposażone w audiodeskrypcje, w napisy itd.
Ale też oczywiście, jeśli mówimy tutaj o aplikacjach, stronach internetowych,
no to one muszą być dostępne.
Dla firm publicznych, dla rządowych instytucji publicznych, spółek rządowych jest to wymagane.
Prywatne firmy nie mają obowiązku, żeby do tych norm spełniać,
ale, jak tutaj pisze TPG, jest dobrze, gdyby jednak też brali to pod uwagę,
bo to może nawet poprawić wyniki sprzedaży itd.
Bo w poprzedniej akcji dostępności w Korei brały pod uwagę tylko dostępność
np. budynków, ale nie brały pod uwagę dostępności cyfrowej.
I to jest właśnie ten najnowszy akt, który został prowadzony.
Ma to zmienić, jeśli jakaś firma się nie udostępni,
to oczywiście są kary,
włącznie nawet z karami kryminalnymi,
jeśli jest udowodnione, że ktoś umyślnie tutaj stwierdził,
że nie chciał czegoś udostępnić.
Oczywiście to też ma być dostępne w bibliotekach,
Więc biblioteki też powinny w mianę możliwości swoje materiały dostępniać.
No i wracamy do kiosków.
Jak to ułatwić firmom, które chcą taką dostępność prowadzić,
żeby na przykład nawet stare sprzęty ulepszyć, żeby po prostu były dla nas dostępne?
Rząd postanowił dopłacić do tego.
Powstał program wart 9,2 biliony łonów, czyli około 6 milionów dolarów i jego zadanie było kilka.
Były konsultacje dla ponad 50 małych producentów tego typu urządzeń, jak taką dostępność stworzyć.
Były właśnie dopłaty do łatwego wdrożania nowego sprzętu, nowszego oprogramowania.
Więc jeśli jakaś firma ma przestarzałe kioski,
chciałaby tę cenność prowadzić, to rząd koreański dopłaci do tego,
żeby takie zmiany mogły być prowadzone szybciej.
Priorytet jest kładziony na sklepy samoobsługowe,
czy miejsca takie samoobsługowe.
To też wydaje mi się logiczne.
Bardzo często w takich miejscach tego typu urządzenia się pojawiają.
I wsparcie przez projekt Smart Store dla małych przedsiębiorców,
Także na pewno myślę, że to może mieć pozytywny wpływ na to,
no bo porównując sytuację w Europie, tutaj też mamy taki wymóg,
ale przynajmniej na ten moment nie słyszałem, żeby jakiś kraj wpadł na podobny pomysł.
A wydaje mi się, że to może realnie zwiększyć szanse tego,
że te urządzenia mogą być bardziej dostępne.
A bardzo często firmy, które tego typu sprzęt produkują,
działają też na rynku globalnym.
Zresztą tutaj przecież reklamuje się firma amerykańska,
jeśli chodzi o JOS-a akurat.
Ale mogą być też inne sposoby na udostępnienie tego typu urządzeń.
Więc może nie bezpośrednio, ale wydaje mi się,
że jak najbardziej biorąc pod uwagę to, co się dzieje tam
i to, co się dzieje u nas w Europie,
to pośrednio powinniśmy za jakiś czas zobaczyć,
Myślę, że tego typu urządzenia będą bardziej dla nas dostępne.
Tego moglibyśmy sobie życzyć i mieć taką nadzieję.
Ja tu jeszcze w międzyczasie wysyłam wiadomość do naszego słuchacza Sylwestra,
który bardzo chciał poznać piosenkę, która się pojawiła przed momentem, przed audycją.
Proszę bardzo, już wysłałem i mam nadzieję, że jesteś usatysfakcjonowany.
A teraz temat po trosze mój, po trosze Maćka, bo do nas trafiła w końcu ta wyczekiwana nowość, czyli agent od OpenAI, agent do czata GPT, dokładnie zgadza się.
Tak, to oni jakoś tak pewnie wypuszczali, chociaż okazuje się, że dostałem takie sygnały, że niektórzy użytkownicy w Polsce dostali to nawet i troszeczkę wcześniej.
Na YouTubie materiały też się pojawiały w Polsce.
Tak. Mieliśmy prawdopodobnie do czynienia z tak zwanym rolloutem, czyli po prostu stopniowym wypychaniem tej funkcji, żeby wszyscy nie rzucili się na nią nagle i naraz.
Żeby po prostu można było to jakoś w miarę lekko przyjąć od strony użytkownika, a właściwie też od strony administratorów tych wszystkich serwerów, od OpenAI.
Dlatego też być może VPN, jak się łączyłem z VPNem, to też nie zadziałało, no.
No to Maćku, to skoro jesteśmy dwaj, którzy testowali czata GPT, tego agenta od czata GPT,
to zapytam się ciebie, na dobry początek może tak, zanim przejdziemy do jakichś takich kwestii dostępnościowych.
Jak twoje wrażenia?
Jak moje wrażenia?
Takie wrażenia troszkę takie, że
po pierwsze generowane pliki, jak już mu kazałem tam
wygenerować pliki, a tak troszeczkę od końca,
to formatowanie niby było w porządku,
bo mu kazałem wygenerować HTMLa.
Ja to zresztą potem zademonstruję, ale to jakby
przejdę do tego może na końcu.
W każdym razie, choćby nawet te podziały na paragrafy, na przykład, czy odczytywane różne dziwne symbole w trakcie w ogóle rozpraszające uwagę użytkownika, to jest jedno, ale zdarza mu się też niestety halucynować, no jak to AI-owi, mimo że, no mimo że to jest, jak żeśmy wspominali, to jest Deep Research połączony tak naprawdę z tą…
Z przeglądarką wirtualną.
Z wirtualną maszyną tak naprawdę.
Maszyną tak naprawdę, terminalem i tak dalej.
I taką, można by rzec, autonomią, nie wiem na ile w pełnym znaczeniu tego słowa, no ale
no to mimo wszystko zdarza mu się jeszcze gdzieś tam przyhalucynować.
Ja, szczerze mówiąc, dopiero dzisiaj testowałem i kazałem mu generalnie zebrać
informacje o lotach do Mediolanu, powiedzmy tam od 1 do 7 października,
Jak tam ceny, żeby też lot nie odbywał się w miarę możliwości w nocy, tylko może w dzień.
Żeby jednak te bilety były możliwie tanie, tam dla dwóch osób dorosłych.
I przyznam szczerze, że… no tam jeszcze inne rzeczy mu w prompcie zadałem, no ale to może…
Tak naprawdę jeśli o te loty chodzi, ja sprawdzałem wczoraj, jeśli chodzi o te ceny tak normalnie,
swoją drogą polecanej swego czasu apce Piotra Witka,
znaczy przez Piotra Witka aplikacji polecanej.
Articates chyba się nazywała. Nazywa, bo jeszcze jest,
bo jeszcze jest w App Store. I te dane mi się niestety,
no ale nie zgadzały w sumie z tym, co aplikacja,
chociaż ona tam przeszukiwała i Skyscanner chyba,
i tam jeszcze inne portale, więc może tam coś było więcej,
nie wiem, ale mam wrażenie, że i z cenami sobie gdzieś tam
razy jej się zdarzyło przyhalucynować, to jest jedno.
A drugie, jeśli chodzi o pory lotów i on też…
Mamy w ogóle podgląd tego, co on sobie myśli, co on sobie wyobraża,
czego on szuka.
Więc na początku to stwierdził, że nie, tak naprawdę to nie ma żadnych lotów
w jednym z tych dni, potem w drugich, potem… A jednakże są te loty.
No i tam próba otwarcia. On nawet z Kubany twierdził, że próba otwarcia
Wiesz, może jakaś wersja tak zwana Headless, bo są takie wersje przeglądarek, zarówno Chroma, jak i Firefoxa, że po prostu można to odpalić w terminalu i coś tam robić z tym, tak że ta strona się nie wyświetla jakby na ekranie, no bo nie ma jak, ale kod HTML możesz zaczytać, no więc on prawdopodobnie mógł też go w jakiś sposób zinterpretować.
Ale to też jest ciekawe, że na początku, bo to jest tak, że jeżeli my mu wyślemy prompta, dane instrukcje, to w momencie jak on sobie pracuje grzecznie, to my możemy mu tam jeszcze dopisywać.
Cały czas my mu możemy dopisywać, tylko że tutaj jest drobna uwaga.
Odpowiedź i czy plik wynikowy operacji będzie jeden.
Natomiast no siłą rzeczy…
Bo to jest tak, że dostajemy 40 zapytań miesięcznie w tym planie plus
i 400 pro za jedyne 200 złotych, tak jak żeśmy mówili, miesięcznie.
Tylko że…
200 dolarów?
200 dolarów. A przepraszam, tak.
Całe pieniądzysięć złotych, dolarów, tak.
I kwestia jest po prostu taka, że jeżeli my…
No bo możemy edytować wiadomość w trakcie jak on robi
i wtedy prawdopodobnie się te zapytania nie będą zużywały,
bo to będzie jako jedna wiadomość chyba,
chociaż nie jestem tego pewien,
ale na pewno jeśli dopisujemy w tym polu tam
wpisz wiadomość, nie, jak to tam się nazywa?
To w każdym razie w tym polu dopisywanie wiadomości.
W tym momencie można po prostu tak wpisywać odpowiedź,
to chyba nawet jakoś ty wpisz odpowiedź, czy jakoś tak.
Tak, to są zużywane wtedy…
I tym sposobem ja, bo tam wpisałem kilka, żeby zobaczyć, czy on to jakby
złączy, czy on zaczai. Miałem raz, że zatrzymano rozumowanie,
to chyba, on chyba wtedy sobie jakby potem przetwarza już te dane i tak dalej.
Ale miałem parę razy, że tam, nie wiem, utracono połączenie z siecią,
a coś tam spróbuj ponownie. W każdym razie zostało mi, bo tak jak mówię,
dopiero dzisiaj zacząłem i na tą jedną, na tą tak naprawdę finalnie jedną operację
straciłem tak naprawdę 7 promptów, w związku z czym zostało mi 33 jeszcze na miesiąc.
Także, no dobrze jest sobie zrobić jednego prompta solidnego, konkretnego, zastanowić się wcześniej,
a nawet o tym z GPT pogadać po prostu tak, tak, tak, tak, no tak po prostu,
żeby gdzieś tam nawet tego prompta stworzył, ale żeby obgadać najpierw temat,
a potem jakby kazać agentowi działać, nie? Bo wtedy się te prompty nie będą tak zużywały nam.
I co ciekawe, jak zacząłem wpisywać kilka tych
tam potem jeszcze doprecyzowujących, uzupełniających
odpowiedzi, to nagle sobie zaczął myśleć po angielsku.
Także na początku zaczął po polsku, potem po angielsku.
I…
zainicjowałem tak naprawdę
w App-ce na iOS-a, no gdzie tam tak
w sumie chyba większej filozofii nie ma, chociaż na początku
był jakby taki sobie pusty, zupełnie milczący, nieoznajmiany
Znajmiony przez VoiceOvera Element. Nawet nie wiem do końca co.
Czy on wtedy, że tak powiem, z martwych wstawał i do akcji się próbował nieśmiało zabrać?
Nie wiem. Natomiast po paru minutach, jak odpaliłem
z interfejsu webowego ze strony,
no to z historii czatów, no to to wtedy wszystko było
znacznie bardziej dostępne, więcej informacji tam można było
ułożyskać, tam podglądać też sobie źródła, w które on tam
sobie analizuje.
No i…
No i się generalnie da, zarówno na iOS-ie,
jak i na… w aplikacji tej
mobilnej, jak i w interfejsie webowym.
No aplikacji na macOS-a nawet nie śmiałem testować.
Wiem, że jest, jest przycisk tryb agenta, ale…
No, apka na macOS-a to jest…
Do szczytu dostępności to jeszcze brakuje, więc…
Szczytem dostępności ona nie jest, więc…
To teraz ja się może podzielę swoimi refleksjami,
bo mam też kilka.
Po pierwsze mam wrażenie, że ten tryb agenta to jest takie trochę danie nam zajrzeć przez dziurkę od klucza do tego, jak nasza praca będzie wyglądała w przyszłości.
Bo moim zdaniem, jeżeli ta technologia zostanie dopracowana, to będzie ona nam oferowała naprawdę niesamowite możliwości, żeby naszą pracę zautomatyzować
…i żeby z internetu wygrzebywać różnego rodzaju informacje na dowolny temat, jakie nas interesują, w dowolny sposób kompilować te raporty zbiorcze, czy realizować jakieś różne zadania, musi to po prostu jednak dobrze działać.
To jest podstawowy warunek. Na razie nie działa to ani dobrze, ani nie działa to wydajnie, ani nie działa to też jakoś bardzo sprawnie.
Czy czad GPT jest szybszy od człowieka?
Śmiem twierdzić, że na chwilę obecną nie.
Ja dałem mu nieco bardziej złożone zadanie niż ty, Maćku.
I stwierdziłem, że trochę go pomęczę,
ale pomęczę go takim realnym przykładem z mojego życia,
co do którego nigdy nie mam czasu się zabrać,
a kiedyś wypadałoby go po prostu skończyć.
No i fajnie by było, żeby udało się to kiedyś zrealizować.
Mam ja sobie taki arkusz Excelowy z pewną bazą danych.
To jest baza danych, która jest zaciągana tak naprawdę,
która jest skompilowana z danych publicznie dostępnych.
Nie ma z tym najmniejszego problemu.
To nie są żadne dane połówne, więc ja się tą bazą z chatem GPT
mogę jak najbardziej podzielić.
Wczytałem mu tę bazę.
Ta baza, ona jest dość duża, bo tam jest rekordów około, no, trzy tysiące, jak nie pięć.
Problem tylko jest w tym, że te rekordy nie są kompletne.
W części rekordów brakuje takich informacji, w części rekordów brakuje takich informacji.
No więc wypisz, wymaluj, propozycja dla czata GPT.
Kolego sympatyczny, pobaw się, uzupełnij proszę mi tę bazę.
Poszukaj i zrób to.
No i czy on to zrobił? Częściowo tak. Natomiast, szczerze powiedziawszy, jak ja miałbym takiego współpracownika, który co kilka rekordów, a ja przypominam, że rekordów do uzupełnienia jest kilka tysięcy, on te wszystkie rekordy widział, ale jak ja miałbym takiego współpracownika, który co kilka rekordów pyta mnie, czy to, aby on dobrze robi, czy na pewno, czy tak, czy wszystko okej, czy mogę iść dalej?
Odpisałem mu, nie pytaj mnie więcej, czy możesz iść dalej, po prostu to rób.
Będziemy się martwić, jak zrobisz źle.
Dobrze, dobrze, minęło 20 minut i dostałem kolejnych 5 rekordów.
No słuchajcie, człowiek wyposażony w przeglądarkę internetową
to spokojnie przez 20 minut uzupełniłby tych rekordów kilkadziesiąt.
Tylko jest to po prostu nudna, żmudna i powtarzalna robota, którą bardzo chętnie sceduję na sztuczną inteligencję.
No tylko, żeby ta sztuczna inteligencja chciała ze mną współpracować i rzeczywiście, żeby chciała to robić tak, jak ja bym sobie tego życzył.
On nawet te dane wygrzebywał poprawne, więc tu akurat nie miałem do czynienia z jakimiś halucynacjami.
I co więcej, ja mógłbym zadbać o aktualność tych danych, bo nie wiem, czy ty Maćku widziałeś, że razem z tym agentem mamy coś takiego jak harmonogram.
I jeżeli stworzymy sobie taki prompt, takie zadanie, i jeżeli ono nam się wykona, to możemy zlecić powtarzanie tego zadania w jakichś tam zadanych interwałach czasu.
Ja to akurat uruchamiałem z poziomu aplikacji Chata GPT na Windowsa i niestety tam dostępność jest problematyczna, jeżeli chodzi o wybór tego okresu, co ile czasu ma być to wykonywane.
Tam tylko miesiąc dało się zaznaczyć, nie dało się zaznaczyć nic innego, ja nie byłem w stanie dotrzeć w ogóle do niczego innego poza tą opcją miesiąca.
Więc to, no, wyglądało cokolwiek dziwnie, więc na razie ten czat GPT moim zdaniem do jakichś takich poważniejszych zadań, takich, które wymagają jednak nieco więcej pracy, ale takiej rzeczywistej pracy, to on się nie nadaje.
Ale to, jak ja widzę, jak on działa i jeżeli OpenAI go dopracuje, to ja naprawdę już się cieszę, że będę mógł na niego scedować takie zadania, których ja absolutnie nie chcę robić, które są nudne, które są powtarzalne, które są po prostu takie, które trzeba zrobić,
Ale jakby, no po prostu nie mam najmniejszej ochoty się nimi zajmować, bo wolałbym poświęcić czas na coś zdecydowanie bardziej kreatywnego.
Więc to jest coś, co naprawdę budzi moje duże zainteresowanie, natomiast no tu trzeba będzie jeszcze na to poczekać.
A myślę, że trochę jeszcze poczekamy, no w sumie oni, bo to jest tak naprawdę pokłosie operatora,
To operator, który był dostępny w wersji Pro, powiedzmy tam bodaj chyba od lutego.
Teraz dokładnie nie pamiętam, natomiast no niby był testowany od tamtego czasu, pod tym kątem, no użytkownicy Pro mogli go testować.
No i skoro na razie mówi, że to tak na razie wygląda, no to pewnie nam jeszcze przyjdzie poczekać.
Ale tak jak mówię, to jest wiesz, to jest takie zerknięcie na przyszłość, jakby ktoś tam uchylił lekko drzwi
I powiedział, patrzcie, tak będzie w przyszłości wyglądała praca.
Zlecasz coś maszynie, ona po prostu to za ciebie wykonuje i dostajesz raport
i ty po prostu masz to przejrzeć i sprawdzić, czy to, co ta maszyna wypluła jest wiarygodne.
Musisz po prostu jednak wykazać się tym jakimś takim krytycznym myśleniem
Albo jakąś taką weryfikacją pewnej próbki, też być może za pomocą innego LLM-a, albo za pomocą jakiegoś innego promptu.
To już trzeba będzie pomyśleć w przyszłości, jak takie wyniki pracy takiego czata też weryfikować.
Natomiast…
Ja szczerze mówiąc, to chyba trwało, nie wiem, jakieś 10 minut chyba, jak on mi to zrobił.
W sensie, bo ja mu tam kazałem najpierw te loty porównać i zoptymalizować, żeby od lotniska…
Znaczy, od którego lotniska będzie mi najbliżej,
możliwie najbliżej do Centrum Mediolanu, nie?
Też takie rzeczy, żeby mi to gdzieś tam poobliczał.
Powiedzmy tak samo, czy są jakieś dla nas
gdzieś tam dostępne atrakcje do zwiedzania na przykład,
czy polecane knajpy, jakieś tam tego typu rzeczy.
No uporało mi się z tym w miarę, powiedzmy, więc ciekawe.
Nie wiem, czy mogę jeszcze w sumie tak dosłownie
na chwilę tam ten ekran udostępnić, pokazać ten raport,
Ja myślę, że tak, tylko jeszcze chciałem powiedzieć o kilku rzeczach, jeżeli chodzi o tego czata GPT i o Agenta.
Tu podziękowania dla naszej słuchaczki Magdy, która zwróciła uwagę na jedną istotną kwestię dostępnościową,
mianowicie taką, że na iOS-ie, jeżeli mamy do pobrania plik, to tego pliku pobrać z voice-overem się nie da.
W taki, no prosty sposób.
Ale znalazłem na to obejście i tym obejściem zaraz się z Wami podzielę.
Bo jeżeli ten plik będzie jakby elementem wiadomości,
jak nam czat GPT w tym agencie coś tam napisze, że tak, gotowe, proszę bardzo,
zapisałem Ci ten raport do dokumentu Microsoft Word, proszę bardzo, oto on.
I tam jakaś ikonka kartki papieru, czy czegoś podobnego.
No to niestety w to się nie da wklikać z voice-overem.
Ja nie byłem tego w stanie zrobić. Magda zresztą też potwierdzała, że nie jest w stanie tego uruchomić.
Natomiast, słuchajcie, jest na to obejście i tu wystarczy po prostu z czatem GPT odpowiednio pogadać.
Wystarczy mu napisać w prompcie
podaj mi bezpośredni link do pliku,
nie pisz kolejnej wiadomości,
nic więcej, chcę tylko link.
Jak napiszemy taką wiadomość,
to dostaniemy link,
który już możemy kliknąć,
który voiceover bez problemu widzi,
to będzie coś tam storage,
ukośnik, coś tam, coś tam, coś tam.
Jakiś taki długi ciąg znaków.
I jak sobie w to stukniemy dwukrotnie,
to bez problemu otworzymy
taki dokument, będziemy mogli go
…zapisać w plikach cokolwiek.
Pod Windowsem z kolei w aplikacji
czata GPT
też wygląda to dosyć
ciekawie, bo
tam będziemy
mieć trzy przyciski, jak dobrze
pamiętam. Trzy nieopisane
przyciski. Na przykład, w przypadku
Excela chociażby. Jeden z tych
przycisków to
jest
przycisk, który
robi tyle, że wyświetla się
Przynajmniej u mnie tak było, że jakiś tam problem z jasonem, coś, wyświetlił się taki komunikat, no po prostu ten pierwszy przycisk spowodował wyświetlenie błędu, nic więcej.
Drugi przycisk to był chyba jakiś podgląd tego arkusza, natomiast dopiero ten trzeci nieopisany przycisk spowodował, że wyświetliło się też takie jakby natywne okienko zagnieżdżonego w środku arkusza excelowego z koroszytu
I był tam przycisk, co ciekawe, to tak bardzo nowocześnie i mobilnie się wyświetliło, bo było udostępni i kiedy kliknąłem w ten przycisk udostępni, to pojawiło się standardowe okienko, chyba już wtedy pojawiło się to okienko zapisz jako, albo trzeba było jeszcze coś tam kliknąć, już teraz dokładnie nie pamiętam, ale ten trzeci przycisk spowodował, że byłem w stanie ten plik zapisać dopiero na dysku twardym swojego komputera.
Niestety to nie działa tak jak w przypadku standardowego czata GPT.
Kiedy z nim rozmawiam i proszę go o przygotowanie jakiegoś pliku i on mi dostarcza po prostu link.
Klikam w link, otwiera się okienko zapisu pliku i gotowe.
Tu jest ten interfejs jakiś taki bardziej nowoczesny.
No i z tą nowoczesnością to my mamy jednak pewne problemy.
Maćku, to teraz…
A na webie próbowałeś?
Nie, nie próbowałem, nie próbowałem.
Wiesz co, ja nie próbowałem na webie, dlatego że web to jest akurat ostatnia rzecz,
jakiej ja używam, bo mam czata GPT po prostu pod skrótem klawiszowym.
I wiesz, to jest ostatnia rzecz, od której myślę, jak mi coś już ewidentnie nie działa
na Windowsie, pod tą aplikacją, no to wtedy dobra, no to już tam wejdę sobie w tego czata
na stronie internetowej i sprawdzę, bo może zadziała i tam.
Ale to sprawdzałem akurat z poziomu aplikacji.
Kurczę, jak ja zazdroszczę, bo ta appka na Windowsa,
jak mówisz, że jest taka spoko, a ta na Maca taka…
Wiesz co, ona jest taka… ona też ma swoje problemy.
To nie jest tak, że ona jest idealna.
Są ludzie, których ta aplikacja irytuje, na przykład.
Ale ja się nauczyłem z nią jakoś współdziałać
i naprawdę, no, korzystam z czata GPT.
Teraz to mogę, myślę, powiedzieć, że codziennie.
Codziennie korzystam.
Ileś tam tych różnych zapytań, mam swoje na przykład projekty porobione, w które sobie wchodzę i tam mam pogrupowane te czaty, i jestem w stanie z poziomu aplikacji na Windowsa spokojnie wszystko zrobić.
No właśnie, to przynajmniej działa też, a mówię na Macu, to jest totalny kipisz. No ale, a jeszcze a propos właśnie webówki, webowej wersji, to tam właśnie jest osobny element, który jest…
Nie wiem, jak on jest tam oznajmialny, czy klikalny, czy nieklikalny, w każdym razie on jest i jak sobie w niego klikniesz, aktywujesz to, no to się pobiera po prostu.
Na Macu przynajmniej tak jest, w każdym razie nie wiem jak na Windowsie, ale na Macu tak. A teraz, dobra, to pokazuje.
Jest? Jest. Dobra, głośność też jest okej, czy ściszeć w głośności?
Chyba wiesz co, chyba będzie w porządku.
Dobra, prędkość też, dokładam.
Safari, przewodnik podróżny, Kraków, Mediolan, 1.07.2025, okno, przewodnik podróżny,
przygotowany przewodnik ma pomóc w zorganizowaniu tygodniowego pobytu w Mediolanie w pierwszym tygodniu października 2025 dla dwóch osób.
Zawiera on informacje o tanich przelotach z Krakowa, listę atrakcji przyjaznych osobom niewidomym,
wskazówki dotyczące zamówienia asysty na lotnisku oraz propozycje miejsc,
w których można zjeść włoskie dania w przyjemnej atmosferze i za niewielkie pieniądze.
No właśnie.
A…
Tego nie będę pokazywał, bo w sumie to, powiedzmy, jest…
To, co pokażę w sumie i też będę…
O co mi z tym formatowaniem chodzi?
Aha, tylko…
No, może to pokażę. To tak trochę jest…
Właśnie o to mi chodzi. I to jest… I cały czas jako jeden element, wiesz. Nie ma tutaj, że podpunktów i coś tam tak domyślnie. Może jakbym mu kazał, tylko że też mi troszkę promptów było szkoda.
Punktor ostatnia wieczerza w Santa Maria delle Grazie. Punktor oryginał Leonarda Vinci można oglądać wyłącznie po wcześniejszej rezerwacji.
Obiekt jest wyposażony w windę dla osób o ograniczonej mobilności 776 milionów 96 miliardów 688 milionów 83 tysiące dwieście trzydzieści siedem milionów…
Pomyślałbym, że to jakiś telefon.
Jakiś linki, co to jest?
Nie wiem, szczerze mówiąc, bo to jest w ogóle traktowane jako jeden element, więc…
Wiesz co, ja bym spróbował, jeżeli zależy Ci na takich rzeczach na przykład, to ja bym mu spróbował,
chociaż dziś, dziś po prostu walczyłem i myślałem, że zaraz mu powiem jakieś coś niemiłego,
Bo czasem czata GPT trudno namówić na to, żeby odpowiadał w formie czystego tekstu.
Ja sobie teraz trochę przygotowuję np. takich promptów typowo np. radiowych
do prowadzenia raczej takich audycji, no niekoniecznie tyfloradiowych,
tylko bardziej takich powiedziałbym komercyjnych, nieco bardziej.
I po prostu mam tam przygotowane różnego rodzaju takie zapytania
I chcę, żeby on pisał mi czystym tekstem, krótko, i tak po prostu, żebym dostał to, co ja chcę,
i żebym mógł się skupić na przykład tylko na animowaniu tego w postaci jakiegoś wejścia antenowego.
No i po prostu, dziś miałem z nim przeprawę, ileś razy kazałem mu wypisywać to w czystym tekście.
W końcu, za którymś razem mu się udało to zapamiętać, więc jeżeli wam nie działa to za pierwszym, za drugim, za trzecim, nawet razem, to spróbujcie tak może do piątego.
W końcu on to zapamięta i zatrybi i będzie już działał jak trzeba.
Tak, i potem rzeczywiście on to robi jak chce, chociaż i tak mu się zdarza, a jak się go pytam wtedy, słuchaj, wszystko jest w porządku, ale co tu zawaliłeś?
A on, o ja cię nie mogę, zapomniałem, że miałem do ciebie pisać czystym tekstem, ja cię przepraszam, no już nadrabiam coś tam.
No tak, tak, tak.
Jeszcze pokażę Ci jedną tutaj rzecz, bo ja też autentycznie myślałem, że to jest telefon.
O, tu.
Znaczy, bo ja mu generalnie kazałem wygenerować to po prostu w HTML-u, żeby mi się to przeglądało właśnie w ten sposób.
No tylko nie sądziłem, że on mi tutaj tak zrobi i nie będzie jeszcze podlist tych list zagnieżdżonych tak zwanych.
Nie?
Kanary nie lotnicze świadczą bezpłatną usługę MEPiVAS SIST dla pasażerów z niepełnosprawnościami.
Procedura rezerwacji jest podobna u większości przewoźników.
Lista trzy rzeczy.
O!
Punktor VIS-R, punktor przewoźnik oferuje usługę punktor MEPiVAS SIST, punktor pracownicy lotniska pomagają pasażerowi w odprawie, przejściu przez kontrolę bezpieczeństwa, wejściu do samolotu i umieszczeniu bagażu podręcznego.
To jest przepisy, tak? To są chyba tak. To są przepisy. To są przepisy prawdopodobnie.
28 godzin wcześniej i dostarczyć certyfikat potwierdzający status psa asystującego 304 880 dni.
Być może, no. I tak dalej. Więc, no, brzmi ciekawie.
Cztery tanie i smaczne jedzenie w Mediolanie. Poziom nabówka.
To może nie. Jeszcze zakończenie pokażę, bo też w sumie zrobił takie…
bo ja mu kazałem być takim… po prostu w takim stylu przewodnikowym, nie?
Ostatni nabówek. Pięć poruszanie się po Mediolanie i dodatkowe wskazówki.
Poziom nabów. Lista cztery rzeczy. Punktor. Punkt. Punkt. Koniec. Lista.
Dobrze, może to pominiemy.
O, to mi się spodobało.
Tak, więc no, zrobiłbym sobie coś z tego.
Tam, tak jak mówię, te ceny lotu troszeczkę
przyhalucynował w pewnych miejscach.
A i to nie mam tak do końca pewności, czy
też był taki, powiedzmy,
takie pewne jedno zdanie, które
No troszeczkę mi jakby pozwala poddać troszeczkę wątpliwość, czy aby na pewno te atrakcje wszystkie i tak dalej, czy on to prawidłowo wszystko sobie przetworzył, zebrał te informacje i tak dalej, nie? Ale no…
Zamknij ekran, podłącz się do Zooma.
To już…
Zoomus, Zoomus.
To już… No dobrze, to się podłączyłem do Zooma, zatrzymuję ekran.
Okej, to ja jeszcze tylko dopowiem a propos tego, o czym ty Maćku mówiłeś, że on tak lubi sobie zjadać te przydzielone nam zapytania do agenta.
No i niestety potwierdzam, potwierdzam. Ja myślałem, że jeżeli ja mu otworzę jeden czat i będę pisał z nim o jakimś jednym konkretnym zadaniu,
To, że będzie po prostu on pracował w obrębie tego jednego kredytu. A w ten sposób, jak on mi się zatrzymywał po kilku rekordach i ja go poganiałem, no ale działaj dalej, działaj dalej, no pracuj.
No to okazało się, że też mi zeżarł kilka, jak nie kilkanaście tych zapytań. No i niestety, no tak to działa. Ja się domyślam, że to wszystko jest kosztowne, jeżeli chodzi o prądożerność,
Nie wiem, czy to jest jakoś tam nawet w ogóle zasobożerność tych serwerów.
Natomiast no myślę sobie, że jeżeli OpenAI chce, żeby ta usługa była taką realną opcją dla użytkowników,
to oni muszą coś z tym zrobić, bo z jednej strony wygląda to naprawdę, no, imponująco.
Tak jak widzę, jakie on ma możliwości i że on naprawdę potrafi pracować na tych danych,
…że on potrafi sobie to uzupełniać. Ja już po prostu, ja już bym mu to chciał dać, a tak to muszę jeszcze czekać, no bo na ten moment, na tę chwilę, to sobie nie wyobrażam tej pracy i też nie wyobrażam sobie tej pracy ze względu na to, że ja go muszę cały czas pilnować, no to nawet człowiek, który przyjdzie na praktyki do jakiejś firmy, to po jakimś czasie, jak mu będę, tak, jak mu będę pisał, że no, ale słuchaj, czy mówił, słuchaj, jest dobrze, dobrze,
Co ty robisz? Rób tak dalej, jak będziesz miał faktycznie jakiś problem, to się zgłoś.
Albo zrób najpierw te, z którymi nie masz problemu.
Potem pogadamy o jakichś bardziej problematycznych opcjach.
No a on niestety… To jeszcze nie jest ten etap.
Także tutaj…
To znaczy, bo OpenAI…
OpenAI powie Ci jedno, no kup Pan Pro.
Ale wiesz co, to nawet Pro mi nie rozwiąże tego problemu, jak ja mam…
Z jednej strony tak, ale masz jednak…
No więcej tych zapytań.
No dobra, ale i tak muszę nad nim cały czas stać i go poganiać, żeby on szedł dalej.
Tylko wiesz, bardziej o kwestii zapytań, nie?
Tak, tak, tak.
Że normalnie więcej nie musisz się szczypać, że jednak kurczę zaraz się skończą, bo on nie ogarnia, tak?
Dokładnie, dokładnie. A te zapytania naprawdę szybko można wykorzystać, jeżeli będziemy chcieli o coś dopytać,
jeżeli będziemy chcieli coś tam dalej robić z tymi rzeczami, jeżeli będziemy potrzebowali, żeby on coś jeszcze dodatkowo wykonał.
Jeszcze jedna ważna sprawa, jeżeli chodzi o te kwestie związane z takimi stronami, na które się trzeba zalogować.
To ja testowałem na naszym wewnętrznym serwisie do notatek, które mamy i kazałem mu podsumować.
I na przykład ostatnią audycję. I podałem mu login i hasło i on był to w stanie zrobić.
My mamy to akurat zabezpieczone tak zwanym mechanizmem Basic OAuth, więc takim bardzo prostym, że przeglądarka jakby obsługuje te metody autoryzacji.
To nie jest jakiś formularz logowania. Na takie rzeczy nie miałem za bardzo gdzie pozwolić mu się testować.
Natomiast takie proste metody autoryzacji on jest w stanie obchodzić.
Jest w stanie się zalogować, jest w stanie gdzieś tam wejść i coś zrobić, gdyby ktoś tego potrzebował.
To tak jeszcze nawiasem mówiąc.
Ja jeszcze może powiem, zanim odbierzemy telefon.
To powiem tak, że… Właśnie, bo smutne jest to, że w apce na iOS-a nie można tak prosto sobie tych limitów sprawdzić, jeżeli w ogóle.
Ile nam jeszcze zapytań pozostało?
W apce na Windows-a nie wiem, natomiast w interfejsie webowym, tam gdzie jest przycisk z narzędziami,
I teraz nie pamiętam, jak on się nazywa, tam dodaj narzędzie, przycisk czy tam narzędzia, coś takiego.
I jak sobie rozwiniemy to menu, to wtedy czy przy Deep Research, czy przy właśnie Tryb Agenta,
będziemy mieli ile nam pozostało zapytań i kiedy nam się zresetuje.
W aplikacji pod Windowsem jest dokładnie tak samo, no bo ta aplikacja to jest nic innego jak taki elektronowy interfejs do czata.
Więc tu mamy to samo.
Ja bardzo żałuję jednej rzeczy i mam nadzieję, że OpenAI kiedyś to zrobi.
Chociaż podejrzewam, że jak nie wiadomo o co chodzi i dlaczego oni tego jeszcze nie zrobili,
to chodzi tu wybitnie o pieniądze, bo ja chciałbym mieć taką funkcję, którą mi
oferuje Klod, że nie muszę wykupywać API, a mogę z poziomu tego Kloda właśnie
działać w kodzie, w tej aplikacji, o której mówiłem, jeżeli chodzi o wiersz
Mogę się tam zalogować i mam jakieś tam kredyty, które mogę wykorzystać.
Nie muszę korzystać z API, żeby w ten sposób pracować.
No OpenAI daje niby kilka tam tych tokenów, ale to jest tylko jednorazowo, to się nie odnawia.
Oni chcą jednak, że jeżeli ktoś pracuje w ten sposób, to…
Bo jest taki agent też od OpenAI, który można sobie uruchomić w wierszu poleceń.
On też nie działa na Windowsie, on działa tylko na Linuxie, no ale od czegoż w USL?
I możemy sobie też w ten sposób działać, ale niestety, no tu już trzeba doładowywać sobie to konto.
Dobrze, odbierzmy może telefon. Kogo witamy po drugiej stronie?
No z tej strony Patryk.
Cześć Patryku. Jak tam testy routera?
No właśnie, no tak, właśnie w tej sprawie dzwonię.
No bo dokładnie jutro mija tydzień, odkąd go dostałem.
No i ogólnie efekty są bardzo, ale to bardzo ciekawe.
Pierwsze testy były w domu, bo w środę akurat tydzień temu dość mocno lało,
więc nie było możliwości gdzieś tam biegania i instalowania tego na zewnątrz.
I już pierwsze testy właśnie w domu, gdzie ten modem sobie leżał gdzieś tam za telewizorem,
już były obiecujące, bo tak naprawdę telefony praktycznie bez zasięgu.
No tutaj udało się uzyskać tam prędkość 50 megabitów na 2-3 wysyłania.
No łączność już była.
No w czwartek zainstalowałem go już w docelowym miejscu.
No i ostatecznie jest tak, że prędkość w godzinach wieczornych,
teraz 150 megabitów pobierania na 15-20 wysyłania jest bez problemu do osiągnięcia.
Ale no dodam, że lokalizacja jest bardzo, ale to bardzo trudna.
Gdzie taki np. iPhone 16e z tym modemem C1 praktycznie nie ma zasięgu,
to ten modem jest w stanie zostawić połączenie ze stacją bazową odległą o 9 km
i trzymać je przez tydzień czasu. Już mówię, prawie tydzień.
Trzyma bardzo ładnie połączenie i nawet teraz rozmawiam właśnie przez Wi-Fi Calling,
właśnie przez ten modem.
Czyli co, zostaje?
Zostaje. Zostaje. Tym bardziej, że sytuacja jest rozwojowa,
Tak, ja ostatnio zauważyłem, że mi się trochę zasięg oręża polepszył.
Właśnie są po to, żeby gdzieś tam w windach mieć zasięgi w takich miejscach trudniej dostępnych.
Ale jeśli chodzi o ten właśnie modem, no to powiem, że bardzo fajna sprawa.
Na przykład jak ktoś mieszka w mieście, wynajmuje mieszkanie i nie chce gdzieś tam się wiązać umowami z operatorem,
a ma gdzieś tam słabszy zasięg w bloku, no to wystawienie takiego czegoś gdzieś tam na przykręcenie tego do balostrady,
Różne są takie sposoby.
W domu mamy wtedy zwykły router, dowolny, jaki tam mamy z portem WAN.
Bo to wiadomo, do czego jeszcze trzeba mieć router jakiś, nie?
Bo to, co ja mam, to jest tylko jednostka zewnętrzna.
No tak, to jest modem.
To jest tylko modem.
Teoretycznie też jest to router, bo jeżeli on wykryje, że połączymy go z laptopem,
to też zestawi połączenie.
Mamy przewodowe połączenie.
A jeżeli połączymy go z routerem,
To on wykrywa automatycznie, że jest połączony z routerem i od razu przełącza się w tryb mostka, nie?
I on jest wtedy przezroczysty, jakby jest typowo modemem, nie?
Więc to też jest fajne, że nie musimy tam grzebać w ustawieniach, tak naprawdę.
Po prostu jest na tyle inteligentne urządzenie, że tutaj nie musimy nic skombinować.
Z ciekawości Patryku, jaki maszt, jakiej wysokości ten maszt u Ciebie jest?
Powiem tak, około 12 metrów jest nad ziemią, bo to jest jeszcze na dachu, na kominie zamontowane.
Też oczywiście nie przeginam z wysokością, bo wiadomo, może coś trafić.
Są pioruny, więc tu nie można przyginać.
Ja mówię, u mnie jest lokalizacja bardzo trudna. W domu kompletnie nie ma zasięgu, muszę się wspomagać.
Wi-Fi Calling, więc ta łączność musi być w marę stabilna, bo Wi-Fi Calling jest takie kapryśne.
Ono potrafi się rozłączać w niektórych momentach.
No tutaj na razie nie zaobserwowałem takich sytuacji.
Testujemy, ale na 99% zostaje, bo nie mam innego wyboru.
No to prawda, te 150 na 50 to już jest taki internet, na którym i Netflix pójdzie i da się pogadać.
Tak, ale też chodzi o tą stabilność.
Właśnie, że tam nawet jak Speedtest pokazuje i tam jest ten wykres, że na przykład trzy gry wideo na ile, no to tu praktycznie wszystko pięć na pięć pokazuje, więc myślę, że ta stabilność też jest okej, nie? Ten ping tam 25, 19, no wiadomo, to zależy też od serwera, tak?
No to też jest ładnie, to też jest ładnie.
Także, no tu jeśli chodzi o to fajna też jest, jak ktoś nie chce gdzieś tam wiercić, kombinować.
W zestawie mamy taki płaski kabel i bez problemu możemy gdzieś tam sobie go przez okno.
Jest 10 metrów kabla w zestawie zwykłego, takiego sieciowego.
I bez problemu gdzieś tam sobie przeprowadzimy to przez okno, przytaśniemy, nic się nie powinno stać.
Myślę, że to też jest ważna rzecz.
Tak, te płaskie kable, one w ogóle są fajne. Ja sobie ostatnio właśnie zacząłem takie kupować,
bo je się wygodniej i łatwiej układa w różnych miejscach.
One nie są takie odporne na zagięcia, właściwie oporne na zagięcia.
Tak, no i ten kabel też jest, to jest moim troszkę zdaniem wada.
On jest jakby zintegrowany z klapką, pod którą mamy właśnie kartę SIM
i właśnie ten port RJ-45 to wszystko.
On jest właśnie, ten kabel jest zintegrowany z tą klapką.
Więc to jest taki delikatny minus.
No ja tutaj jakby w to miejsce, bo ja nie chciałem tego kabla używać,
bo już mam swój poprowadzony,
więc właśnie musiałem kupić konektor taki 20-centymetrowy,
który by umożliwił mi podłączenie mojego kabla,
którego już mam wcześniej, nie?
No bo nie możemy, musi być ta część, taka klapka,
która właśnie, bo to wiadomo, jest wszystko uszczelnione.
Tam jest chyba norma IP66, jak się nie mylę, coś takiego,
bo to przecież montujemy na zewnątrz, więc tam są różne uszczelki.
To musi być szczelnie skręcone,
bo skręcamy właśnie imbusem tą klapkę na dwie śrubeczki.
To przypomnij jeszcze, jaki to jest modem i jaki jest jego koszt.
Jest to modem ZTE MC889 PRO.
Koszt tego modemu to jest jakieś… no różnie… 1400-1500 zł.
Też są jeszcze zestawy z routerem w domu, żeby był komplet.
Tam już bliżej 1800 zł.
Ja już mam swój sprzęt, z którego korzystam.
Nie potrzebowałem routera wewnętrznego, tylko chodziłem o jednostkę zewnętrzną.
Jest jeszcze wersja bez pro tego modemu. Ona kosztuje w zależności od sklepu 1100 zł.
Moim zdaniem jest trochę mniej przyszłościowa i ma trochę mniejszy zysk anten.
Jednak ta wersja pro jest bardziej kierunkowa i to jest też istotne.
Jak ktoś zakupi tego typu urządzenie, to troszeczkę musi się doedukować
Zobacz, jeśli chodzi o interpretowanie parametrów sygnałów,
bo tam mamy RSRP, RSSI, SIN i te różne takie parametry.
I warto właśnie się najpierw doedukować, troszeczkę poczytać,
zapytać chata GPT i w ogóle na co zwrócić uwagę.
No i wtedy jakby zalogować się,
podając adres IP routera w przykładartkę na przykład
i możemy sobie precyzyjnie, jeśli chodzi o nadajnik, ustawić.
Żeby te osiągi były jak najlepsze, bo to jest urządzenie jednak kierunkowe.
Nie możemy sobie tak dowolnie gdzieś tam rzucić. Musimy w miarę to ukierować.
I też podejrzewam, że tu jest kwestia też tego taka, że jeżeli ktoś na przykład
będzie miał internet zdecydowanie bliżej siebie, to nawet bez sensu w ogóle,
żeby kupował takie urządzenie. To jest do zadań specjalnych.
Zgadzam się.
Zgadzam się.
To jest urządzenie ogólnie…
To jest tak jakby przeniesienie punktu poboru tego internetu na dwór.
No bo to nieraz nawet w miastach jest problem, że gdzieś mieszkamy na parterze
i tego zasięgu nie ma, tak?
No i ogólnie trzeba gdzieś tam kombinować.
No to to jest jakby też dla tych osób urządzenie.
Na przykład w mieście to bym kupił to tańsze urządzenie,
No bo ono ma mniejszy rzyskantem, ale gdzieś zamontowane na zewnątrz, no to wiadomo, nie byłoby problemu, tak?
Ono tam trochę mniej pasmo obsługuje i w ogóle…
No tutaj też jest fajne, że możemy sobie konkretnie komórki blokować,
czyli nawet jeżeli byłaby taka sytuacja, jak mieszkamy gdzieś pod miastem,
jest sporo nadajników blisko siebie, no to urządzenie mogłoby gdzieś tam pomiędzy nimi skakać
i wiadomo, transmisja mogłaby gdzieś tam się zatrzymywać, no to możemy sobie konkretnie nadajnik nawet zablokować.
konkretne pasma można sobie zablokować.
Ja akurat mam tak zrobione, że mam zablokowane pasma 1800, 2100 i 2600.
Te niskie pasma po prostu wyrzuciłem, bo one jakby zwalniały,
bo są dość mocno obciążone, więc nawet takie rzeczy możemy tutaj robić.
Za coś się płaci.
Oczywiście jest to dostępne z VoiceOver’em, bo sprawdziłem,
z TalkBack’iem, akurat na komputerze nie sprawdzałem,
Ale jeśli chodzi o Android i iOS, to jest to jak najbardziej dostępne i jest wszystko po polsku.
Czasami takie tłumaczenia są zbyt dosłowne.
Na przykład operator zamiast być orange to jest napisane pomarańczowy.
To jest zbyt dosłowne takie tłumaczenie tego menu.
Ale urządzenie naprawdę godne polecenia jest zastosowany modem Qualcomm Snapdragon X65.
Więc to jest naprawdę, w iPhone’ach chyba 14-15 ten modem był stosowany na przykład.
Więc tutaj naprawdę jest to dobrej klasy modem i faktycznie to działa.
No mogę powiedzieć, no jedyna jakby wada to cena.
No to cena.
Cena jest zaporowa, jest moim zdaniem zaporowa, ale no niestety nie miałem wyjścia.
Ale właśnie, czasem jak po prostu nie masz wyjścia, a chcesz jednak z tego internetu korzystać,
to po prostu trzeba zacisnąć zęby i te świnki z karbonkę rozbić.
Tak, tym bardziej nie bawiłem się w półśrodki, dlatego że to urządzenie będzie bardziej przyszłościowe.
Czyli jak tych pasm 5G będzie więcej, no to ono obsługuje chyba do trzech pasm jednocześnie 5G.
To tam nawet teoretyczna prędkość jest do 4,5 gigabita. To w ogóle są jakieś kosmiczne prędkości.
No i też, co ważne, jest port 2,5 gigabita, więc tutaj nie będzie ograniczenia,
bo przeważnie w tego typu sprzętach jest jednogigowy port.
No tak.
A tutaj mamy 2,5 gigabita portu i to jest też moim zdaniem bardzo istotne,
bo te prędkości z czasem będą się zwiększać.
Oczywiście, oczywiście.
Więc sprzęt tutaj jest przyszłościowy.
Dobra, to myślę, że ten temat już wyczerpaliśmy.
Ja tutaj jeszcze chciałem się podzielić takim newsem,
że na moim zegarku właśnie się pojawiła aktualizacja na Galaxy Watch 7,
jeśli chodzi o Gemini.
Działa bardzo fajnie w ogóle, że takie też się pojawiło na zegarku.
Więc to też myślę taki news warty, żeby się podzielić.
Pewnie, że tak.
No jeszcze tak na koniec, bo już tutaj was męczę tak długo.
Takie mam przemyślenia na temat iPhona 16e.
Bo miałem okazję się nim tutaj pobawić w międzyczasie przez kilka dni.
Generalnie stwierdzam, że to jest taki telefon typowo dla osoby niewidowej.
Dlatego, że tak. Dużo mocy, bardzo dobra bateria i z tych małych iPhone’ów
to chyba nie ma nic lepszego w środzie o baterie.
No ten pojedynczy aparat robi, co ma robić, tak się rozpoznaje wszystko.
Myślę, że tutaj się nad tym nie będę rozwodził, ale takie mam przemyślenia,
jeśli osoba słabowidząca by chciała go kupić, jak ja na przykład,
no to kompletnie się to nie nadaje ze względu na ekran.
Jest tak słabej jakości, znaczy nie tyle, że słabej jakości może,
tylko po prostu w warunkach typu duże nasłonecznienie jest bardzo ciemny.
Po prostu tam jest chyba 800 nitów jasności,
To jest naprawdę, jak na dzisiejsze czasy, bardzo mało.
I to tak, jakby ktoś tak chce kupić i jest właśnie osobą słabowidzącą,
no to warto, warto gdzieś to sprawdzić, bo może się rozczarować.
Porównując to do…
A ten ekran z iPhona 16e, to do jakiego telefonu wcześniejszego, jeżeli chodzi o Apple, byś porównał?
Myślę jakieś tam dwunastki, trzynastki.
Aha, bo to jest trzecie zdanie.
Myślę, że nawet trzynastka będzie jeszcze jaśniejsza, tak mi się wydaje.
Tak mi się dwunastki tak nie kojarzy, trzynastkę gdzieś tam miałem w rękach,
ale myślę, że nawet trzynastka jest jaśniejsza.
No tutaj nawet ten wygląd tego wyświetlacza jest podobny,
ten noci, w ogóle nie mamy tutaj dynamicznej wyspy.
No trochę zawód, jeśli chodzi o właśnie ten ekran,
bo już się nawet nie będę wyzwłaszczał na to, że jest to 60 Hz,
bo nie o to chodzi, ale no ta jasność powinna być jednak dużo lepsza.
Porównując to do mojego Galaxy S24+, to nie ma co porównać.
To jest miazga, to jest przepaść.
Niektóre osoby, zwłaszcza słabowidzące, mogą mieć problem z odczytywaniem treści,
gdy jest duże nasłonecznienie.
Od razu mi się to rzuciło w oczy, więc wolę najpierw z tym podzielić.
Ale generalnie, jeśli chodzi o baterie, to tutaj super.
W jeden dzień, żeby go rozładować, to trzeba się mega postarać, moim zdaniem.
To jest właśnie telefon typowo zrobiony dla osoby niewidomej, bo te rzeczy, które przeszkadzają osobom widzącym, to niewidomym kompletnie nie przeszkadzają.
Telefon jest mały, poręczny, lekki, w ogóle jest bardzo lekki.
Porównując do innych modeli, to jest jakoś tak nienaturalnie lekki, jak nie iPhone. Takie mam odczucie.
Tańsze modele z dobrą materią.
Tak i to jest fajne. Ten modem tam jest, bo też sobie właśnie porównywałem ten Apple C1.
Myślę, że jeszcze też wymaga poprawy, no bo nawet do samsungowego Exynosa, jeśli chodzi o zasięg, to tak nie bardzo.
Moim zdaniem najgorzej to wypada. To bynajmniej w moich warunkach.
Wiadomo, każdy ma inne warunki. Ja testowałem to, co miałem. W moich warunkach jednak wypada tak średnio.
To też myślę warto odnotować.
Dobrze, to z mojej strony to chyba tyle.
Więc nie będę Was już tu więcej męczył.
Tak jak słucham dalej.
Do usłyszenia.
Maciek nam w międzyczasie zniknął z radaru, ale miejmy nadzieję, że wróci za moment i że będziemy mogli kontynuować jego informacje.
A teraz Piotrze, od Ciebie informacja o Whatsappie, bo mówiłem, że o Whatsappie jeszcze dziś będzie.
No i w sumie nie wiadomo, czy to się martwić, czy to się cieszyć z tych zmian, które nam Whatsapp zaoferuje już niedługo.
Czy martwić się? Myślę, że tragedii może nie ma, ale na pewno będą zmiany i do zmian będzie trzeba się przyzwyczaić.
i tak to, myślę, możemy podsumować, no bo co się zmieni?
Zmieni się to, o czym w sumie mówiliśmy już kilka razy,
bo od tak naprawdę już maja chyba niektórzy użytkownicy
w wersji beta aplikacji WhatsApp na system Windows
nagle dostali nie lada niespodziankę,
kiedy aplikacja nagle zaczęła wyglądać jak strona internetowa.
No bo WhatsApp na Windowsie od kilku lat dobrych
był w pewni natywną aplikacją pod nowe Windowsy,
tworzony w podobnej technologii jak Unigram, jeśli ktoś korzysta.
Zresztą wyglądowo to są komunikatory,
więc dosyć podobne są te aplikacje do siebie.
No i dużo osób tę aplikację ceniło, do tego stopnia,
że wiem, że trochę osób nawet na wirtualnych maszynach,
na Macach, tego WhatsAppa Windowsowego odpalały,
no bo to jest, była niestety fajna aplikacja.
No, niestety, tak jak mówiłem,
Coraz więcej osób widziało te interfejsy przeglądarkowe,
ale potem zniknęły, po czym wróciły z zdwojoną siłą.
I to ja jeszcze też dostałem komunikat, że 15 lipca
mój interfejs na Whatsappie, cały czas mówimy o wersji beta,
nie wiem, kiedy się pojawi wersji stabilnej, ale pewnie niebawem,
będzie wyglądał inaczej.
No i faktycznie, mamy artykuł z portalu The Verge,
Ale nie tylko, bo akurat o tym pisali wszędzie.
Nawet chyba na tabletowo-polskim też w artykuł się pojawił,
że WhatsApp po prostu zrezygnował z natywnej wersji na system Windows.
Dlaczego? Żeby zoptymalizować koszty, po prostu.
Aplikacje mobilne mają na tyle dużą bazę użytkowników,
że tam telefony słabo potrafią…
Aplikacje webowe, więc lepiej pisać natywnie.
Aplikacja na Maca, można powiedzieć, w pewnym sensie może być stworzona za pół darmo,
dlatego że może dzielić bardzo dużo kodu z iOS-em i z iPadOS-em,
a tam mamy teraz wszędzie te same aplikacje, więc wątpię, żeby na Macu coś podobnego miało miejsce.
Natomiast aplikacja na Windowsie to już była osobna baza kodowa, która tak naprawdę działała tylko tam,
Nawet nie już tylko na telefonach, no wiadomo, telefonów z Windowsem nie ma dłuższego czasu.
No i ktoś w mecie stwierdził, że tutaj pewnie dałoby się trochę zaoszczędzić,
jednocześnie dodając funkcje, których na Windowsie brakuje, jak na przykład kanały, których nie było.
Więc postanowiono wyrzucić tą natywną bazę kodową i przesiąść się na widok strony internetowej.
Nie jest to do końca Electron, jest to widok Edge WebView, pewnie ChargeGPT też z tego korzysta.
A to jest po prostu ten komponent chromowy wbudowany w system,
więc teoretycznie zużycie pamięci powinno być trochę niższe niż w elektronie,
ale pewnie dopiero co nie będzie dorastało, jeśli chodzi o aplikację natywną.
Ale jak jest dostępnością tej aplikacji?
Bo tutaj dużo osób zaczęło się niepokoić,
pojawiło się dużo postów od osób, które tej aplikacji wręcz nienawidzą.
Dużo się rozpisało na temat tego, jak mu to popsuło produktywność.
To nie jest apokalipsa. Zacznijmy od tego.
Bo Whatsapp Web już był wcześniej dostępny i cały czas jest dostępny.
Jest zresztą oczywiście też na Macedonii.
Cały czas udzielał się pan Drew Moczak,
który jest ekspertem od spraw dostępności właśnie w Whatsappie
I mówił, żeby ludzie zgłaszali, jeśli mamy jakieś faktycznie problemy, takie konstruktywne sugestie i błędy,
to jak najbardziej, żeby to zgłaszać, bo oni będą starać się je naprawiać.
Natomiast sam interfejs webowy jest dostępny. To trzeba sobie powiedzieć.
Od procesu logowania, który wspiera też logowanie przez numer telefonu cały czas,
także to nam nie zniknęło, w przeciwieństwie do wersji na Maca, która cały czas tego nie ma.
Nie wiem, czemu. Mniej więcej kiedy już się zalogujemy.
To jest aplikacja z typu tych aplikacji, w których warto sobie włączyć tryb formularzy,
wyłączyć wirtualny kursor, zależy kto z jakiego czytnika ekranu korzysta
i po prostu poruszać się po niej kablem, strzałkami i ewentualnie innymi skrótami klawiszowymi,
Które, i tutaj też warto zwrócić uwagę, trochę się zmieniły względem wersji Windowsowej.
Dlatego, że były pisane podprzeglądarki, które niektóre skróty blokują np. Ctrl-N,
żeby utworzyć nowy czat, jak to było wcześniej na Windowsie.
Teraz to jest Ctrl-Alt-N.
To chyba z literką N nam nie koryduje, także tutaj nie musimy się o to martwić.
Takich zmian jest więcej, jak to często bywa w przypadku takich webowych aplikacji.
Jeśli naciśniemy w głównym oknie znak zapytania,
to nam się wyświetli okienko, gdzie wszystkie skróty będą rozpisane.
Jeśli chodzi o samą nawigację, to ona jest podobna do tego,
co znaliśmy wcześniej.
Mamy pasek boczny, gdzie mamy kilka głównych sekcji aplikacji,
czaty, kanały, ustawienia, profil i chyba pomoc, nie pamiętam,
ale generalnie to są najważniejsze sekcje.
No i później mamy listę z czatami i listę z wiadomościami.
Jeśli chodzi o listę czatów, to jedna dosyć istotna różnica,
o której myślę, że warto wiedzieć, zwłaszcza jeśli rozmawiamy
z osobami widzącymi, jest taka, że w wersji Windowsowej WhatsAppa,
kiedy nawigowaliśmy po liście czatów, to ten czat, na którym się ustawiliśmy
szałkami, nie był ładowany do momentu, kiedy nie nacisnęliśmy Enter.
Nie pamiętam teraz, czy w polu edycji, czy na pierwszej niewyczytanej wiadomości.
Chyba w polu edycji, tak?
Mnie się wydaje. Więcej na Maku korzystam z tej aplikacji.
Albo tu, albo tu.
Ale ten czat się nie ładował do momentu, kiedy nie nacisnęliśmy Enter.
Natomiast w interfejsie webowym możemy cały czas nacisnąć Enter na czacie
i trafimy do pola edycji.
Także tutaj nic się nie zmieniło.
Natomiast w momencie, kiedy my po tej liście się poruszamy,
to w tle ten czat, na którym się ustawiliśmy, jest uładowany.
To skutkuje dwoma rzeczami.
Minimalnie czasami może to działać wolniej.
Mam wrażenie, że mniej responsywna jest niestety ta aplikacja.
A po drugie, jeśli w jakimś czacie mamy wiadomości nieprzeczytane,
to one zostaną oznaczone jako przeczytane.
Tak że jeśli dostaliśmy wiadomość,
której nie chcieliśmy koniecznie jeszcze przeczytać,
Nie mamy czasu odpowiedzieć albo nie przeczytaliśmy wiadomości.
Kilka, ale przeszliśmy przez tę konwersację na liście.
Musimy mieć pod uwagę, że jeśli mamy włączone raporty,
to wiadomość zostanie oznaczona jako przeczytana.
Możemy nawet nie wiedzieć, że może się tym osobom wydawać,
że już wiadomości przeczytaliśmy.
To jest jedna rzecz.
A druga rzecz, zarówno jeśli chodzi o listę czatu,
Listę czatów i listę wiadomości,
po której też poruszamy się ściałkami góra-dół,
więc bardzo podobnie, jak to było do tej pory,
zmienił się sposób, w jaki dostajemy się do innych opcji,
które mamy na wiadomościach.
Dobrym przykładem tutaj niech będą wiadomości…
W ogóle na każdej wiadomości
nie możemy otworzyć menu kontekstowego z krótem Shift w 10.
Nie wiem, czemu to nie chce działać.
Jak to zrobiłem na tej aplikacji webowej,
to aplikacja wysypała się z tego stopnia,
że mnie wylogowało z wszystkich urządzeń na całym Whatsappie,
oprócz telefonu.
Nawet nie wiedziałem, że tak można.
W interfejsie webowym ten skrót nie robił nic.
Natomiast jak dostajemy się do menu kontekstowego?
Zarówno na liście czatów i wiadomości,
przesuwamy się szczątkami w prawo lub w lewo.
I tak dojdziemy do przycisku menu kontekstowego,
tak samo też dojdziemy do przycisku reakcji,
Odpowiedź, która jest w każdej wiadomości.
I tak generalnie dostajemy się do praktycznie wszystkich elementów.
To też ma miejsce w przypadku wiadomości głosowych.
Nie możemy nacisnąć Enter na wiadomości, żeby ją odtworzyć,
co przynajmniej w tym momencie niestety nie działa.
Jeśli chcemy wiadomość głosową odtworzyć,
to musimy przejść strzałką w prawo, znaleźć przycisk Otwórz
i nacisnąć go. I dopiero wtedy wiadomość nam się zacznie odtwarzać.
Gdybyśmy chcieli przewinąć tę wiadomość lub zmienić jej szybkość,
no to znów tutaj chodzimy szałkami prawo-lewo.
No i co ciekawe, nawet w przypadku tego suwaka, żeby przewijać wiadomość
i w pierwszej chwili myślałem, że się nie da, bo tabem do tych dodatkowych przycisków nie dojdziemy.
To, o czym też jeszcze nie wspomniałem. Bierz instek, nacisnąć tabulator, żeby znaleźć przycisk play.
Z jednej strony fajnie, że tego nie ma pod tabem, no bo dzięki temu na przykład
szybciej możemy dojść do pola edycji, ale z drugiej strony to może być rozorientujące,
No bo musimy po prostu strzałką w prawo do tych przycisków dojść.
No i tym sposobem właśnie też, żeby wiadomość przebinać,
ustawiamy się na suwaku, strzałkami prawo-lewo, naciskamy Enter
i wtedy strzałki prawo-lewo pozwolą nam ten suwak przesuwać.
Jest to logiczne, ale na pierwszy rzut oka może się wydawać nieintuicyjne.
Ja to tak odkryłem, że można, tylko po prostu to się robi inaczej.
Ale cały czas też mamy dostęp do regulacji szybkości.
Nawet mamy skróty klawiszowe do tego,
shift, kropka i przecinek, których wcześniej nie było,
przynajmniej w aplikacji na Windowsa, także tutaj nawet jest na plus.
Ale faktycznie ten interfejs jest inny.
O tym będzie po prostu warto pamiętać.
Czy jest lepiej?
Nie wiem. Jest na pewno inaczej.
Wydaje mi się, że w pewnym sensie jest mniej responsywnie,
na co na pewno mogą narzekać niektóre osoby.
To, jeśli korzystacie intensywnie z jakichś skryptów lub dodatków.
Pewnie dlatego tutaj Brian Hargen bardzo narzekał na ten nowy interfejs,
no bo Whatsapp jest dobrze oskryptowany w JOS-ie,
zarówno w samym JOS-ie, jak i przez LIS-i.
Mamy dodatki do MVDA, które dodają dużo skrótów klawiszowych do tego Whatsappa.
Te wszystkie skrypty, te wszystkie dodatki
przestaną działać z tą nową webową wersją.
Czy będzie dało się zrobić nowe?
Pewnie dla JOS-a tak.
Nie wiem, jak łatwo oskryptowuje się strony internetowe w MVDA.
Jakoś rzadko z tym się spotykałem.
Natomiast jeśli przyzwyczailiśmy się do tego,
że korzystamy z tego typu narzędzi,
to one nam, niestety, działać przestaną.
I pewnie też, jeśli ktoś ma starszy, słabszy komputer,
to te różnice w wydajności tej aplikacji też będą większe.
Wtedy ta aplikacja nowa niestety pewnie będzie działała wolniej.
Ale generalnie, jeśli ktoś polega na tym,
że ma dostęp do Whatsappa z poziomu komputera,
to generalnie Apocalypse to nie jest aplikacja,
czy właściwie strona, tak ją można nazwać,
jest cały czas dostępna,
ale na pewno będzie trzeba się trochę przestawić,
nauczyć się nowego sposobu pracy, nowych skrótów.
Jak wspominałem na początku,
nie traktujcie tej aplikacji w sumie jak stronę internetową
i w takim sensie, że warto sobie wyłączyć te przeglądania
i po prostu tabem z ciałkami do wszystkiego dochodzić.
No i jeśli chcecie zrobić coś z wiadomością,
czy to właśnie otworzyć wiadomość głosową
lub znaleźć jakieś inne opcje, no to tutaj też nie tabulator,
a z ciałkami lewo, prawo do tych wszystkich opcji
możemy się dostać.
I uważajcie na menu kontekstowe, przynajmniej na razie,
bo z tego, co mówił Piotr, to
bardzo ciekawe rzeczy się tam dzieją, kiedy
uaktywnimy te kombinacje.
Aż tak, żeby się wysypać.
No właśnie. A może to it’s not a bug, it’s a feature.
Taki wiesz, przycisk paniki tak zwany.
Albo boski, boski.
No to też była wirtualna maszyna, więc może na to można zwalić.
A to może też, ewentualnie.
Ja jeszcze nie dostałem, słuchajcie, bo ja mam i betę Whatsappa zainstalowaną
i mam zainstalowaną wersję taką standardową
i w żadnej z nich, a aktualizuję co chwilę,
Nie przyszła mi jeszcze ta webowa wersja. Ciekawe, Ty Piotrze już ją masz?
Tak, to znaczy na jednym komputerze to już miałem fizycznym, a na wirtualnej właśnie, gdzie Whatsappa nie miałem, ale teraz na potrzeby audycji sobie go ściągnąłem, to od razu dostałem tą wersję webową.
Bardzo to ciekawe, bo rzeczywiście ten Whatsapp co jakiś tam czas dostaje aktualizację w sklepie, ale u mnie cały czas jest ta wersja klasyczna.
Zobaczymy jak się zaktualizuje to. Jestem też bardzo ciekaw jak mi się będzie z niej wygodnie korzystało.
Natomiast Maćku…
A propos Whatsappa jeszcze to ja Wam powiem. Ostatnio takie apogeum różnych dziwnych przykrych zdarzeń, prawda?
To prawda.
To wiadomości głosowe, ale pojawiła się też niechlubna wersja na Maca, na MacOSa Whatsappa,
Gdzie w zależności, już nieważne jaki był język preferowany, ustawiony, czy preferowany drugi,
powiedzmy, czy systemowy, aplikację mieliśmy jakiś czas po angielsku, także jak ktoś w pewnym momencie
sobie WhatsAppa zaktualizował przez Mac App Store, to się mógł grubo zdziwić, że aplikacja zaczyna do niego
gadać po angielsku. Tak było przez chyba, nie wiem, pół tygodnia, czy troszeczkę może dłużej.
Fix został wydany i już ponownie po polsku jest, ale w takie drobne wtopki i wtopeczki mniej lub
Bardziej mające na znaczeniu, no, się coś ostatnio WhatsAppowi przydaje, mecie przydarzają, jeśli chodzi o WhatsAppa, nie?
Tak, a propos dostępności, a propos różnych poprawek, no to Ty, Maczko, masz dla nas informację na temat kolejnej aplikacji i to chyba na plus. Kanal Plus.
Kanal Plus, tak. Generalnie ten news już jakoś tak sobie przeleżał z racji mnogości w ostatnich, w ostatnim czasie, to już nie chciałem, tak powiem, dokładać kolejnego.
Natomiast tak, nowy odtwarzać, oni bardzo się tym chwalą, że nowy odtwarzać jest.
I powiem szczerze, że no właśnie, na plus. Bo wcześniej, żeby tak móc się przełączyć
do poprzedniego i następnego kanału, na przykład, czy zamknąć sobie bardzo prosto
odtwarzać, to z tym zamknięciem chyba tak prosto właśnie się nie dało jak teraz.
W sensie, był tam przycisk, ale z tym przyciskiem i z przyciskami w ogóle bywało różnie.
Jeśli chodzi o dłuższe przebywanie na odtwarzaczu, to lubił się voice-over nam zapętlić
i trzeba było albo wyłączać voice-overa, albo minimalizować i ponownie otwierać appkę.
Przy czym nie zabijać, tylko ją minimalizować.
I wtedy te przyciski nam wchodziły.
Teraz to się na szczęście zmieniło.
Widzący mają ponoć tak, że tam przesuwają palcem, tam prawo, lewo chyba, na modłę społecznościowych różnych tam, nie wiem, tiktoków, innych rzeczy i im się te kanały zmieniają, a u nas to w bardzo fajny sposób właśnie rozwiązali, a no jak, a no na czynnościach, stare, dobre czynności, na pokrętle, jeżeli ustawimy się na tym obszarze wideo, gdzie on tam nam powie, że wideo, no to też nam,
zaanonsuje dostępne czynności.
No i wówczas mamy tam takowe jak
właśnie następny kanał, poprzedni
kanał.
Parafrazuję teraz, bo nie pamiętam,
ale coś takiego, albo przejść do
następnego, poprzedniego, nie
pamiętam.
Jest też zamknij i
chyba o pełnoekranowym
od… tym odtwarzaniu też jest.
Tego teraz nie pamiętam.
To ja powiem tylko, wejdę Ci Maćku w
słowo i powiem, że jeżeli chcecie
usłyszeć dokładniejszą prezentację
tych nowości w aplikacji
i Kanał Plus, to zapraszamy już w najbliższy poniedziałek
po godzinie dziewiętnastej z Patrykiem Faliszewskim
będziemy te aplikacje testować i testować
i sprawdzać, co tam nowego, ciekawego i jak to w praktyce wygląda.
O proszę, no to fajnie.
Czyli taka aktualizacja poniekąd?
Właśnie, bo tam jak z Wojtkiem Dulskim, zdaje się, była audycja, to tam też
było Kanał Plus i chyba tak, nie?
W każdym razie fajnie, że fajnie, że będzie.
I co jeszcze warto tu podkreślić? Dużo ostatnio mówiliśmy o WP-Pilocie i ich audiodeskrypcji.
Znaczy, ich audiodeskrypcji. Co znaczy, dostępnie do tej audiodeskrypcji w tej aplikacji.
I co jest warte podkreślenia, że WP-Pilot, tak w każdym razie wynika z doświadczeń moich
i chyba, i nie tylko, że nie są niestety te ustawienia co do kanałów zapamiętywane.
Czy tam ma być audiodeskrypcja? Jeśli jest.
Dany program nadawany ze ścieżką audiodeskrypcji.
No to niestety te ustawienia nie są zapamiętywane.
Szkoda, że nie respektuje tych ustawień systemowych.
Dostępności, tak, ale no tutaj to chyba większość aplikacji…
Co ciekawe, ja ostatnio zupełnie przypadkiem, robiąc audycję z Krzyśkiem Bruzdą,
to się przekonałem, że audycja, że audiodeskrypcja, że ta funkcja dostępna jest też w Androidzie.
O, a to mi chyba jest. No coś chyba kojarzę ze swoich testów, jeśli chodzi o tego Samsunga i na Androidzie pięknasce chyba.
Bardzo fajnie, że to wdrożyli.
Tak, no tylko tak mówię, że szkoda, że tak jak mówisz, że nie respektuję apka, ale na szczęście, no właśnie,
WP Pilot nie zapamiętuje tych ustawień, a Kanal Plus właśnie, co ciekawe, tak?
I kwestia jest taka, że jeżeli, no wiadomo, jeżeli programu z audiodeskrypcją nie ma,
no to on jeszcze póki co nam AI nie wyczaruje na żywo w telewizji.
Ale jeżeli na danym kanale w pewnym momencie ta audiodeskrypcja się pojawi,
to my, nie wiem, ubijemy aplikację, zamkniemy, przełączymy się na inny kanał,
wrócimy i akurat będzie program z tą audiodeskrypcją.
to no to ona po prostu normalnie
będzie nam z definicji włączona.
No i tak samo jeśli chodzi o te napisy
na żywo, znaczy napisy na żywo, o te
napisy do filmów
czy seriali jeśli chodzi o te dla
niesłyszących. Też bardzo fajnie jest to
odwzorowywane, także też jest to
czytane przez Voice Overa?
Jest to fajnie czytane przez Voice
Over.
Jeśli opisy multimediów na
pokrętle mamy na na mowę
tudzież na mowę Braila, tudzież na
samego Braila, zależy jak chcemy.
Jest to czytane, mało tego, w WP Pilocie też, no więc nam się zaczyna robić dostępność,
także no, fajnie jest. Tylko jeszcze, żeby te aplikacje respektowały te ustawienia dostępności.
No ja, tak jak mówiłem jeszcze swego czasu, ze starych, nowych czasów słuchaczych,
kiedy Was bardziej słuchałem niż prowadziłem, to no, swego czasu TV Trwam, swego czasu miała
na WP Pilocie, ni tak, nic gruchy, nic pietruchy, to mam dyskrypcję i akurat wtedy
To respektowało te ustawienia dostępności, więc to ciekawa w ogóle ta sprawa.
No może jakieś testy robili, więc ciekawe.
Pozostaje mieć nadzieję, że ta dostępność będzie postępować,
że będzie progres, a nie regres. A teraz zaglądamy do Waszych
wiadomości głosowych na Whatsappie. Teraz mamy wiadomość od Kasi.
Dzień dobry, z tej strony Kaśka. Tutaj mówicie o Whatsappie i niedawno
Było to całe nieszczęście z tymi wiadomościami głosowymi.
A ja na jednej z grup niemieckich usłyszałam niedawno informację,
z tym na pewno nie potwierdzoną, bo jakaś dyskusja rozgorzała.
Jednym to działa, drugim to nie działa.
Natomiast chodzi o to, że teraz w iPhone jest tak,
że ponoć zniknął faktycznie ten przycisk wyślij,
ale że jest zrobione tak, że jeżeli zaczynamy nagrywać wiadomość głosową,
to potem wystarczy tapnąć dwoma palcami, tak samo jak wstrzymujemy media,
czy tam zatrzymujemy coś i podobno ta wiadomość się wysyła.
Ale tak jak mówię, nie chciałabym. Ja sama nie mam iPhona, jak już tutaj wspomniałam i jakby nie chcę tutaj do końca potwierdzać, ale może się na komuś taka informacja przyda.
Pozdrawiam.
To jest bardzo ciekawe.
Powiem szczerze, oby nie. Oby tak tego nie zrobiono, dlatego że ta funkcja stuknięcia dwoma palcami, ona lubi być przejmowana przez różne aplikacje i usługi systemowe.
Chociaż to teraz można sobie wyłączyć w iOSie 26, chociaż no to też nie jest znowu aż tak wygodne wtedy, jak się to wyłączy mimo wszystko.
Natomiast ja ze swojej strony powiem tak, ja u siebie nie zauważyłem, żeby ten przycisk zniknął.
Ja też nie.
Ale gdyby faktycznie ten Magic Tab, bo tak to się ładnie nazywa, robił to, że faktycznie ta wiadomość jest zatrzymywana, no to super.
Szczerze mówiąc tego nie sprawdzałem głównie…
Trzeba przetestować.
No właśnie, ja też nie testowałem, bo kiedyś to nie działało, tak.
W sumie mogliby zrobić też, jak już mamy taką książkę życzeń i zażaleń do WhatsAppa,
ja bym się na przykład nie obraził, jakby zrobili coś takiego, co w Telegramie
mi się to całkiem podobało. I zresztą w iMessage też można tak zrobić,
że kiedy przykładamy telefon do ucha, to ta wiadomość się nagrywa.
No, w sumie… Chociaż odsłuchuje, jak się… Wiesz, dobry pierwszy krok jest,
no bo jak odsłuchujesz, to jak przyłożysz do ucha, to już ci się przy uchu odtwarza.
Tak, tak, tak.
Więc, no, ale
doszły też,
jak już mówimy o Whatsappie jeszcze,
nie wiem na ile, bo teraz też tych wersji chyba
ze dwie wyszły
od czasu tej feralnej
i Roberto Lombino
odkrył,
mówił o tym, że
te przyciski dla voice-overa
są trochę gdzie indziej,
a wizualnie trochę jakby
gdzie indziej, w sensie
Teraz dokładnie nie pamiętam jak, ale teraz zdaje się, że jest przycisk…
Jak idziemy sobie eksploracją, to po lewej stronie u dołu ekranu,
eksplorując ekran, mamy przycisk anuluj, czyli jakby się nic nie zmieniło.
Natomiast zdaje się, że wtedy właśnie dla voice-overa idąc od lewej jest wyślij,
potem jest wstrzymaj chyba, a potem jest anuluj.
Czyli te przyciski jakby zostały dla voice-overa zamienione,
Dla flików prawo, lewo, a dla… a wizualnie wyglądają tak, jak były, więc ciekawe.
Ciekawe. Zmienia się ten WhatsApp i zmieniają się różne aplikacje.
AI też się zmienia, słuchajcie. I znowu będziemy mówić o sztucznej inteligencji,
ale tym razem taki przykład z życia pozwolę sobie przytoczyć,
bo takie przykłady działają najlepiej.
I ja sam wczoraj byłem zaskoczony tym, na co sztuczna inteligencja mi pozwoliła.
No, sobie za chwilę możemy o tym powiedzieć, czy to w sumie dobrze, że na coś takiego pozwala, czy nie.
Ja się osobiście ucieszyłem, bo to takie miłe było, ale do rzeczy i za moment wyjaśni się, o co chodzi.
Otóż, mój znajomy, pozdrawiam cię Marcinie serdecznie.
Wczoraj postanowił na antenie prowadzonej przez siebie stacji poprowadzić konkurs.
Konkurs, który kiedyś rozpoczął na Facebooku, na swoim prywatnym profilu.
Kilka już lat temu udostępnił takiego posta, napisał o tym, jak wyglądał pewien teledysk.
No i ten to właśnie teledysk był w dwóch wersjach.
On opisał, co w tym teledysku się dzieje, jaki on jest, jakie tam są obrazy,
itd., itd., jak to wszystko wygląda. No i pytanie było proste,
ale jak się okazało, bardzo skomplikowane dla ludności,
bo chodziło o to, jaka to piosenka, do której jest ten teledysk.
No i wśród znajomych Marcina nie było nikogo, kto dałby poprawną odpowiedź.
Ja zresztą też się wtedy tym tematem niespecjalnie zajmowałem,
ale wczoraj właśnie zauważyłem, że postanowił zrobić konkurs
na antenie prowadzonej przez siebie stacji.
I takim punktem, który mnie szczególnie zafrapował była taka wzmianka,
No, tam jedna ze słuchaczek próbuje rozgryźć to za pomocą sztucznej inteligencji.
A z racji tego… ej, sztuczna inteligencja podejdź sobie nie radzi.
Z racji tego, że ja z tej sztucznej inteligencji to jednak trochę korzystam
i jakoś chyba się z nią nieźle dogaduję,
to stwierdziłem, że to może i ja popróbuję szczęścia.
W końcu jakby Niewidomy wygrał konkurs, w którym jest mowa o teledyskach,
Tak to byłoby to rzeczywiście, no, coś ciekawego.
No to pomyślałem, jak pomyślałem, tak zrobiłem.
Opis był dość długi. Nie będę już tego posta całego cytował,
natomiast był on dosyć szczegółowy. Ja stwierdziłem, że nie chce mi się
w ogóle jakimś być kreatywnym, bo pewnie i tak mi nic z tego nie wyjdzie,
i tak tego nie wygram, i tak w ogóle nie znajdzie ten czat GPT
W końcu ktoś to już próbował, więc po prostu skopiowałem ten post, który Marcin na fanpage’u swojej stacji radiowej umieścił i wkleiłem go do czata GPT.
No to pierwsze podejście, standardowy model ten domyślny, który oferuje obecnie czat GPT.
No, załamał się. Powiedział nie, sorry, ja tego nie odgadnę.
Tu jest za dużo różnych rzeczy, na które trzeba by było zwracać uwagę.
No niestety, to może jakbyś powiedział jaki to gatunek muzyczny,
czy z jakiego okresu, z jakich lat, to może coś by się udało, ale tak to sorry, nie, poddaję się.
Ale z racji tego, że korzystam z czata GPT w wersji plus,
to postanowiłem użyć tej funkcji tak zwanej zbadaj głęboko,
I słuchajcie, jakież było moje zdziwienie, kiedy po wklejeniu tego opisu, po dosłownie kilku minutach, dostałem po pierwsze bardzo szczegółowy opis tego teledysku.
Odnosił się do tych podpowiedzi, które zostały udostępnione w treści posta.
Bardzo szczegółowy opis tych dwóch wersji tego teledysku, bo jeden teledysk został nakręcony na Europę,
drugi został nakręcony na Stany Zjednoczone, to była tak w ogóle piosenka Basi Trzeczylewskiej,
New Day for You, bardzo sympatyczny utwór zresztą z lat osiemdziesiątych.
No i co? I tak sobie przeczytałem ten opis i pomyślałem, że jeżeli on nie halucynuje,
a tu jest ryzyko, że to robi, no to to naprawdę chyba będzie rzeczywiście to.
Wklejam odpowiedź na Facebooku i tak piszę zresztą w ogóle, że to będzie ślepy strzał,
Ale może to jest właśnie to. I jakież było naprawdę, słuchajcie, moje zdziwienie, jak po kilku minutach okazało się, że to właśnie było to.
I jako jedynej osobie, która absolutnie nie miała prawa po prostu odgadnąć tej zagadki, no bo skąd, no bo jak,
Jakim cudem ja miałbym okazję dowiedzieć się na temat tego, jakie były te teledyski, nawet gdybym to z kimś kiedyś obejrzał.
To i tak bym tego nie zapamiętał. Nie byłoby w ogóle szans na to.
Natomiast tu okazało się, że po prostu wspólnie z chatem GPT udało się rozwiązać tę zagadkę.
Inni podawali jakieś swoje typy. No, wygląda na to, że po prostu ten czat GPT już naprawdę jest w stanie bardzo, ale to bardzo nam pomagać.
Oczywiście, to zawsze trzeba się liczyć z tym, że on może halucynować, że on może zmyślać, że on może podawać nieprawdziwe informacje.
Natomiast to, że ja w tym momencie za jego pomocą i po prostu, no, ktoś mógł powiedzieć, no w sumie to, w zasadzie to ten czat wygrał nie ty, z drugiej strony trzeba było wiedzieć jakiego narzędzia użyć, trzeba było wiedzieć jak go tam zapytać, ewentualnie jak go może trochę podprowadzić.
Tu akurat się nie wykazałem specjalnie, bo to była po prostu metoda kopiuj-wklej i nic więcej.
To moja tylko w tym głowa, że użyłem tego konkretnego narzędzia i zadałem mu to pytanie.
Natomiast to, że w tym momencie udało mi się taki konkurs rozwiązać,
oczywiście napisałem później, że rozwiązałem to wspólnie z chatem GPT
I że to absolutnie tutaj nie ma w tym jakiejś mojej zasługi, bo nawet nie miałbym szans zobaczyć tego teledysku, bo po prostu od urodzenia nie widzę kompletnie nic.
Natomiast, no, jest to jednak coś, co rzeczywiście, jak tak dziś rozmawialiśmy sobie o tym agencie Chata GPT, który to na razie pomocą dla nas jest, powiedziałbym, średnią albo marną,
ale z drugiej strony to głębokie badanie, z którego ja niejednokrotnie już korzystałem i dało mi naprawdę bardzo fajne wyniki.
To jest dla nas pomocą bardzo dobrą. Szczególnie, i tu też warto o tym pamiętać, że nasze różne media społecznościowe, to z ich dostępnością jest jak jest.
A w przypadku badania głębokiego, deep researchu, możemy poprosić czata GPT, żeby szukał też w mediach społecznościowych.
Na pewno jest w stanie wyszukiwać na Facebooku w jakimś tam stopniu. No, pewnie na fanpage’ach bardziej niż na profilach użytkowników.
Ale do fanpage’y to on jest w stanie się dobić. Na YouTubie na pewno. Na Mastodonie też.
Nie wiem jak z Xem. Tu podejrzewam, że Grok może sobie zdecydowanie lepiej radzić.
Ale jeżeli interesuje nas na przykład jakaś historia, która się ostatnio wydarzyła i jesteśmy też ciekawi
Jaki jest jej wydźwięk w mediach społecznościowych, to możemy też o to ta GPT w ramach tego głębokiego badania zapytać i on nam coś tam będzie też w stanie powiedzieć na ten temat, bo ostatnio sobie też taki testowy research robiłem na temat jednej historii i rzeczywiście były tam różne wypowiedzi użytkowników mediów społecznościowych.
Także słuchajcie, no, jest to coś, jest to jakiś taki kolejny krok. Z czatem GPT możemy brać udział w konkursach, w których mowa o obrazie.
I możemy przynajmniej próbować. No, albo się uda, albo nie.
A tak z ciekawości uznali Ci to jakby w sensie?
To znaczy, tak, to…
Czy potem oczywiście napisałeś, że z GPT to zrobiłeś?
Nie, no oczywiście, uznali, uznali. To była, wiesz, to była po prostu zabawa.
Na zasadzie takiej, że tam nawet nic nie było do wygrania.
Słuchaj, gdyby było coś do wygrania, to myślisz, że ja bym się przyznał?
Ale wiesz co, ale powiem szczerze, Deep Research swoją drogą,
ale te, modele rozumujące choćby nawet, wiesz, no bo 4O domyślny,
no to on tam może gdzieś tam mieć jakieś ON, jak to się mówi,
potocznie, że tak powiem, kolokwialnie i nie do końca się, że tak powiem,
Garnąć do roboty, ale choćby nawet czy ten…
O4 mini, który też mają użytkownicy z darmowi.
Ale ja najczęściej używam do różnych rzeczy, właśnie nie tak deep researchu,
chociaż pewnie jakoś żal mi tych 25, że tylko tyle na miesiąc.
Wiesz co, ja lubię, to nie tak, że używam go jakby codziennie
i do wszystkiego, ale ja lubię, bo on mi naprawdę jest w stanie,
jak wiesz o co go zapytać, jak potrzebujesz skompilować sobie
Albo z O4mini, tak sobie porównać, wiesz.
Ale wiesz co, mi bardziej chodzi o to, że on w tym Deep Researchu, on bazuje na konkretnych źródłach.
I jakby wtedy wiesz z czego on to bierze. A te wszystkie modele, jak pytasz ich o konkretne rzeczy,
to jest duże prawdopodobieństwo, że one będą jednak bazować na tej swojej wewnętrznej wiedzy,
Która jest trochę przestarzała. To wszystko zależy do czego.
Jeżeli ja na przykład, a zazwyczaj tego Deep Researcha używam do tego,
żeby zgromadzić konkretne informacje, to jednak mi zależy na tym, żeby on wszedł na konkretne strony,
powołał się na te konkretne strony, na informacje zawarte na tych konkretnych stronach
i żeby on to rzeczywiście zrobił i skompilował w jakiś taki konkretny sposób.
Także dlatego, ale mi jakoś te modele rozumujące tak zwyczajnie, ja z nimi próbowałem coś też działać, ale jakoś mi ten sposób pracy z nimi nie podszedł.
To pewnie jakaś taka osoblicza kwestia po prostu. Jakoś, jakoś nie byłem zadowolony z tych ich efektów. One niby myślały, rozumowały, próbowały jakiegoś takiego wnioskowania, ale jakoś nie byłem zadowolony z tego, co, jakie były efekty.
Aha, a ciekawe czy nowym, teraz dosłownie, bo ja sprawdzałem jeszcze, bo jak mówiłeś o deep research’u,
dostępności tego i tak dalej, i jeszcze w kontekście agenta, to mi podsumowałeś pomysł, żeby sprawdzić,
czy w momencie używania agenta, zużywają się też nasze deep research’e, nasze zapytania w tym zakresie?
Chyba nie, chyba nie.
I właśnie, i właśnie się zużywają.
Tak?
bo, no domyślnie jest 25, nie, tych Deep Researchy na miesiąc, a ja teraz dostałem, znaczy mam komunikat, że 24 jakby mi zostało, więc jeden, na szczęście tylko jeden się zużył.
Ale to widzisz, to jeden, to jeden, być może, tak, być może w ten sposób…
Więc ten jeden się zużyje.
Tak, to całkiem możliwe, że to w ten sposób działa, bo ja aż tak bardzo nie liczyłem, ile tam tych Deep Researchy spożytkowałem,
Zwłaszcza, że akurat tak mam, że po prostu jeszcze z paroma osobami współdzielę to konto swoje, więc to też jest taka kwestia.
Natomiast, no, jest… Nie zwróciłem tak na to uwagi. Na pewno nie jest tak, że jak zapytasz go o coś, tego agenta, to w kolejnych wiadomościach to po prostu spada Ci ten depreaser, bo to bym na pewno zauważył.
Mhm. No, na szczęście jeden tylko się wykorzystuje i on w obrębie gdzieś tamtego sobie już aktualizuje, więc jest spoko.
Ale ciekawe, dosłownie jak to sprawdzałem,
i ciekawe, czy to rozwiązanie, że tak powiem,
jakoś tym bardziej nam pomoże.
Bo pojawiło się mianowicie w tym menu
na Wybierz Narzędzie coś takiego jak…
czekajcie…
Ucz się i przyswajaj wiedzę.
Jakieś takie nowe…
Coś chyba pokroju klodowego
takiego odkrywacza, że tak to się wyrażę.
Bo jest coś takiego jak…
nie wiem…
Pomóż mi z zadaniem domowym.
Ucz się i przyswajaj wiedzę.
Twój prowadzony krok po kroku w zakresie przyswajania wiedzy.
Skorzystaj, rozwiązuj złożone problemy z pomocą przystępnych wyjaśnień.
Przygotuj się na testy, sprawdź swoją wiedzę na różny temat z pomocą quizów.
Wiesz co, ja mam wrażenie, że…
Dosłownie teraz mi się to pojawiło.
Ja mam wrażenie, Maćku, że OpenAI na różnych grupach użytkowników
Użytkowników testuje różne opcje. Ja na przykład tego nie mam. Słyszałem, że się pojawiło u niektórych jakaś taka opcja. Ona się chyba coś nazywa, coś w rodzaju rozumuj dłużej, czy pomyśl dłużej.
To jest tylko, to znaczy to jest to, o czym ja mówię, jeśli chodzi o darmowych użytkowników i o ten model, o 4 mini, ten rozumujący.
że jeśli sobie to włączysz, dobra, wyłącz, wyłącz,
ucz się, wyłącz, ucz się, usuwam to.
W każdym razie, właśnie to jest to, że Ci się wtedy odpala ten model
o cztery mini.
A widzisz, a ja tego nie mam z jakiegoś powodu w menu.
Nie, nie, bo Ty jesteś plus.
A, to dlatego, okej.
Bo Ty jesteś plus.
Okej, no to…
Ale jak w modele sobie wejdziesz, to byś miał o trzy, o cztery mini.
Tak, tak, tak, tak, tak, tak, to się zgadza, to się zgadza.
No, w każdym razie taka to wczorajsza historia. Wychodząc z założenia, że historie najlepiej przemawiają do wyobraźni, to myślę, że jest to coś wartego wzmianki.
Swoją drogą, w Tyflo Świecie, to już jakiś czas temu się pojawił ten tekst Huberta Mayera,
a propos tego, jak to sztuczne inteligencja pomogła mu zlokalizować naklejkę na kamerze laptopa bodajże.
Nikt z widzących tej naklejki nie widział, bo była tak jakoś po prostu wkomponowana wręcz,
no a kamera nie działała i zastanawiał się dlaczego. A sztuczne inteligencja to chyba od Google’a nawet,
Ale teraz już nie pomnę. Pozwoliła na rozwiązanie tej zagadki i ta właśnie sztuczna inteligencja zlokalizowała tę naklejkę. Także słuchajcie, to są takie…
Jak to przeczytałem, to aż mięciary przeszły, nie?
No, to są takie historie, że jakby człowiek nie przeżył, to by nie uwierzył po prostu, że tego typu rzeczy się dzieją.
Niemniej jednak, słuchajcie, cały czas warto mieć gdzieś tam z tyłu głowy,
że sztuczna inteligencja to jest narzędzie. Traktujcie to zawsze jak narzędzie,
które to Wam ma być pomocne i Wam ma służyć. I pamiętajcie, że to narzędzie,
jak każdy program komputerowy, popełniać może błędy.
No i dlatego też Hubert, przezornie, nie wierząc własnym uszom,
no, dopytywał, dopytywał po kilka ładnych razy o to.
Ale gdzie ta naglejka? Jak? No, tak, dokładnie, dokładnie.
I czy jesteś pewien, że tamten…
Warto weryfikować. Swoją drogą też taka historia, skoro już jesteśmy w tym temacie,
wczoraj też rozmawiając ze znajomym, wspominał mi o tym, że ostatnio
miał potrzebę stworzenia aplikacji, takiej wieloplatformowej aplikacji,
Która to nie była jakaś bardzo skomplikowana.
Zwrócił się o jakby wycenę do jednej z firm,
które tworzą takie aplikacje do firm tak zwanego Software House’u.
Otrzymał wycenę 18 tysięcy.
To stwierdził, że go nie stać i że on sobie zrobi te aplikacje sam.
I jeszcze pracuje nad nią, ale jest już blisko.
Wydał tam kilkanaście euro na różne modele, bo podzielił sobie te prace na etapy
i tworzy sobie te aplikacje trochę z Klodem, trochę z chatem GPT,
trochę z Gemini od Google’a, czy nawet z GPT nie, a tylko z Klodem i z Gemini’em.
W każdym razie aplikacja powolutku, powolutku się wykluwa.
Tak, powolutku się wykluwa. Co prawda na razie to ta aplikacja jest zupełnie niedostępna, bo testowałem, ale obiecał dostępność dorobić. Także miejmy nadzieję, że się uda. Trzymam kciuki.
Dobrze, to proponuję, żebyśmy przeszli dalej do naszych kolejnych tematów. O, Maćku, to tu twoja informacja, informacja od ciebie o aplikacji VDScan.
I też będzie o sztucznej inteligencji, ale chyba trochę gorszej.
Oj, niestety. A szkoda, bo naprawdę, w dobie XXI wieku roku 2025 drugiej połowy zasadniczo
zdawałoby się, że opisywanie obrazów, bo o tym mowa, jeśli zostanie dodane do kolejnej aplikacji wsparcie
dlatego, że funkcjonalność i to, że mimo wszystko, to będzie się zachowywało byle jak, ale się będzie zachowywało.
Ale to, co niestety to robi, generalnie to, jak VDScan, czy VDScan w sumie, Old Voice Dreama,
deweloper tak naprawdę tej aplikacji, jak tam nie była aktualizowana od bodaj roku, tak, w końcu jak się
Zaktualizowała to z przytupem nieco marnym.
Mianowicie wersja 2.1.0 się ukazała parę dni temu.
No i dumnie ogłaszają, że w tej aktualizacji wprowadzają
funkcję Opisz obraz.
Najnowocześniejszy model języka wizyjnego do aplikacji, dzięki czemu może opisać
kluczowe cechy dowolnego obrazu oraz odpowiedzieć na pytania na jego temat.
Wystarczy dotknąć opisz obraz lub użyć magicznego dotknięcia dostępności na żywo.
Tak, czyli najprawdopodobniej MagicTap. No nie działa mi z MagicTap akurat.
Ponieważ model działa całkowicie na urządzeniu, nawet offline bez połączenia z internetem.
Ponadto obrazy pozostają prywatne.
Wymagania iPhone 12 Pro, iOS 17 lub nowszym.
Czekamy na Twoją opinię.
info.małpa.vdscan.app
Także można opinie słać, bo słuchajcie…
Ja przepraszam, ale z takim poziomem absurdu, jeśli chodzi o halucynacje i zawodność,
to ja się nie spotkałem, naprawdę.
Robiłem ja sobie, bo dzisiaj sobie to testowałem, mówiąc szczerze.
Wcześniej jakoś nie miałem ku temu okazji. No i był sobie tam posiłek.
Taki polski, swojski, prosty posiłek. Szybka kolacja tak zwana.
Tam powiedzmy parę kromek chleba, kawałek kiełbaski podbawelskiej,
prawda, jakiś tam kubeczek z herbatą. Słuchajcie. No jajka, no.
To były jajka. Najpierw właśnie, że tam jakieś jajka, kilka jajek
leżących na talerzu, że coś tam.
Potem jakieś ziemniaczki jeszcze mu się w to w ogóle wkręciły.
Nie wiem w ogóle, co on sobie myślał, ale coś tak w ten sposób wymyślił.
A potem ja mu mówię, słuchaj, ale ty masz być, bo tam można zadawać pytania.
Więc ja mu napisałem, słuchaj, ale bądź ty na 100% pewien, jak najbardziej
pewien tej swojej odpowiedzi, co tam jest.
A no, no zgadza się.
To jest jajko jeden, coś tam, które jest w jakiejś tam cienkiej skorupce go okalającej, coś tam, bla bla bla.
No i generalnie, że drugie jajko, prawda, które też tam sobie leży.
Dobra, no nic widzę, że z tego nic nie wyciągnę.
To stwierdziłem, że ja go jeszcze raz zapytam, że jeszcze raz go gliśtam.
Słuchajcie, ja wam pokażę, co on z tego zrobił.
Co on w ogóle zrobił?
Będzie?
Głośność jest w centrum?
Tak. I wyraźnie jest, tak? Dobra.
Jest okej.
Oj, ale niestety mi zabiło aplikację.
A szkoda. Dobra, to zrobimy nowe, bo on powiedział coś tam
czerwone, czarne, czerwone, czarne, czerwone, czarne, czerwone,
czarne, czerwone, czarne, w czarnym, czerwone, czerwone, czerwone, czarnym.
A to ja widziałem, że Fajsower czasami tak lubił, powiem.
I się zaciął, ale nie, wiesz co? Ja to sprawdziłem jakby na tym.
A teraz, to w takim razie, skoro to się zaciął, znaczy wywaliło mi,
zrobię na szybko klawiaturkę Maca.
Powiedzmy i zobaczymy, co on nam tutaj powie.
No, co tekst?
Dobra. Nie wiem, co on tu zrobił. Dobra, spróbuję mikrofon zrobić.
O.
W ogóle…
Ja może…
Zatrzymam Pana Krzysztofa.
A, bo on się jeszcze w ogóle…
przywiesił się generalnie i nie chciał jakby rozpoznawać.
Samo to tłumaczenie nawet tego jest jakieś naprawdę dziwne.
Tłumaczenie to jest bardzo, bardzo dziwne, tak.
I też w ogóle z ustawień, znaczy z menu, tam jest menu,
gdzieś tam, w ogóle przed latarką, a za tymi wszystkimi
Są niby ustawienia aplikacji. Tam głosu, który to będzie czytał, nie ma.
Nie można wybrać. Tylko dopiero jak się otworzy ten panel, jak już się chyba zdaje się,
to zdjęcie zrobi i tak dalej, to dopiero głos można ustawić.
Ale co on nam o tym mikrofonie powiedział?
Także pytanie, czy miałeś to dobrze oświetlone?
Wiesz co, ale on tu sobie latarkę włączył.
Chyba z tego, co wiem.
Jeszcze mogę dla pewności zobaczyć, czy ta latarka jest.
Oj, wyłączona. Dobra.
A to jeszcze raz sobie zrobimy. I tak nic z tego nie będzie.
Dobra, tak jest dobrze. Okej.
Dobra, zobaczymy.
O!
O! Tylko po angielsku zaczął go opisywać.
Ale coś tam sensownie mówi.
Tak, że mikrofony…
Ale już zaczął sensownie?
Tak.
Co teraz?
Teraz jeszcze, ale po polsku.
Cicho.
O!
…ten obraz przedstawia małą, białą mikrofon kontrolerową, która jest skupiona na przedniej krawędzi.
Stop, przecież… Stop.
VoiceOver, niech to nam przeczyta.
Ten obraz przedstawia małą, białą mikrofon kontrolerową, która jest skupiona na przedniej krawędzi.
Mikrofon jest wzmontowany na twardym, bruzowym stojaku, który stanowi podstawę dla mikrofonu.
W tle widoczna jest czarna, pionowa klawiatura komputera.
Mikrofon posiada dwa otwory, z których wyjściem wydrukuje dźwięk.
Na mikrofonie znajduje się czerwony, prosty, pionowy, czerwony oznakowany punkt.
W lewym dolnym rogu widoczna jest czerwona. Prosty, biełnowy, czerwony, oznakowany punkt.
Obraz ten może być używ. Obrazek.
Tak.
Możesz pokazać ten angielski opis?
Tylko teraz…
Może być… może przydać…
Aha, a to już… aha, a to nie ma historii.
On sobie nadpisuje, no.
A, to dobra, to dobra. Ok, ja myślałem, że to jest historia taka.
Nie, niestety. No. Więc…
Ale nawet jeśli to tłumaczenie i w ogóle to… kurczę, co to w ogóle ma być?
To znaczy, że z tym mniejszym model, no to z tymi tłumaczeniami generalnie nie jest gorzej.
Pamiętam, Envision miał kiedyś ten sam plan.
Chyba teraz jest lepiej, ale kiedyś Envision też podobnie po polsku pisał.
Wiecie co?
Ja spróbuję klawiaturę Maca jeszcze ogarnąć, żeby…
Na przykład…
O, raz jaśnię mu tutaj jeszcze klawiaturę Maca.
Boże, nie klawiaturę, tylko ten, co ja powiedziałem, ekran chcę.
Żeby…
Nawet angielski opis, żeby zobaczyć, co on…
Bo może znowu będzie po angielsku.
O.
Cicho, dobra.
Także jest grubo. Nawet jak ja bym to kazał po angielsku,
to by była też totalna głupota, prawda?
No pytanie, czy aby na pewno warto jest temu rozwiązaniu zaufać w 100%?
Wiecie co, ja mam takie, w ogóle taką refleksję, bo my teraz zachwycamy się bardzo tymi wszystkimi modelami typu OpenAI,
które no rzeczywiście dają takie imponujące wyniki i jak zderzamy się z tymi tak zwanymi modelami działającymi lokalnie,
To niestety, to trzeba też sobie zdać sprawę z tego, jak wiele mocy obliczeniowej potrzeba jest takiemu czatowi GPT, czy Clodowi, czy, czy Geminiowi chociażby od Google’a,
na wygenerowanie tego, co nam generuje i na uzyskanie tak dobrej jakości odpowiedzi. No oczywiście wiadomo, że tam te modele też na pewno są odpowiednio dostrojone,
…odpowiednio trenowane i tak dalej, i tak dalej.
Natomiast ja ostatnio tak próbowałem się trochę pobawić, tworząc sobie jakieś takie lokalne środowisko we współpracy z chatem GPT,
na przykład po to, żeby stworzyć jakąś taką lepszą wyszukiwarkę, lepszy indeks dla Tyflopodcastu.
On mi zaproponował w ogóle całą infrastrukturę do tego, jak można by było to zrobić,
Właśnie modeli lokalnych, żeby on przetwarzał np. audycję i potem na podstawie tego, co przetworzy, generował chociażby podsumowanie, wyodrębiał słowa kluczowe, na podstawie tego, co mu tam podam z whispera, tak? Rozpoznam treści audycji, które są rozpoznane.
No i stwierdziliśmy, wspólnie z chatem, że to najpierw trzeba te pliki odpowiednio przygotować, potem przepuścić je przez jakiś lokalny model, który będzie generował te podsumowania.
Słuchajcie, jak ja dostałem kilka tych podsumowań, to ja po prostu to zarzuciłem, bo to były takie bzdury, on sobie kompletnie z tym nie radził,
W ogóle nie był w stanie wygenerować w żadnym przypadku sensownego polskiego podsumowania,
a mimo tego, że Czad na przykład twierdził, że te modele, których używałem, to są w ogóle przystosowane do mowy polskiej,
do polskich tekstów i powinny na tym pracować, więc…
Pytanie, czy nie halucynowałem.
Więc być może, wiecie…
Ja myślę, że tutaj też była kwestia tej wielkości kontekstu,
który dla lokalnych modeli jest bardzo mały.
I nie wiem jak mały, ale ja miałem podobny problem,
kiedy poprosiłem lokalny model, żeby mi przetłumaczył tekst.
I on na siłę próbował, zamiast tłumaczyć po angielsku,
mówił mi, jak bym mógł sobie ten tekst poprawić,
mimo to, że o to w ogóle nie prosiłem.
Ale to był też tekst na 20-30 tysięcy znaków,
także tutaj też pewnie zderzyłem się z tym kontekstem.
Jeśli chodzi o opisywanie zdjęć, to też się sprawdza, że to taki ilustracyjny przykład od najprostszych tych modeli pierwszych, które były, czyli Lava, gdzie na zdjęciu mi opisywał.
Zdjęcie przedstawia dwie osoby z dzieckiem przy jakimś staro wyglądającym budynku, na jakimś staro wyglądającym placu.
O co właśnie mówiła ta Lava. Ona nawet nie potrafiła z tego co pamiętam i to na polski powiedzieć.
Po już taki lepszy model jak ten najnowszy, czyli GEMMA, czyli najnowszy lokalny model Google’a,
w takiej wersji trochę pomniejszonej, która ma chyba trzynastomiliardowe parametry,
ta wersja, no ona to się spokojnie właśnie mieści, jak ktoś ma MacBooka,
który ma 16 albo 24 GB RAM-u, więc do iPhone’a to na pewno się w życiu nie zmieści.
Ewentualnie jak ktoś ma kartę graficzną mocną, to też. On chyba 7 GB RAM-u potrzebował,
Możemy się zmieścić do tego.
Tam ten opis był już bardziej sensowny.
Cały czas coś mi mówił o dziecku, że tam były dwóch mężczyzn i dziecko.
Ale pamiętam, że pojawiła się informacja,
że to jest prawdopodobnie w Krakowie zrobione zdjęcie.
Już tam informacji było więcej.
No i szar GPT, to już wiadomo, to w ogóle było powiedziane,
że tak, było zdjęcie w Krakowie na tle sukiennic.
A to dziecko to tam faktycznie było,
Ale to było jakieś dziecko, które szło sobie w tle z jakąś kobietą, a nie na pierwszym planie.
Tak, także wiecie, to jak będziecie słyszeć, bo też się pojawiają takie informacje i zresztą bardzo dobrze, że też ten ruch działa,
ale jak będziecie słyszeć, że tak, że w sumie tam do czata GPT, no to nie ma co, bo to niebezpieczne, bo dzielimy się swoimi danymi,
I oczywiście trzeba bardzo brać pod uwagę to, jakie rzeczy udostępniamy i np. pewnych rzeczy po prostu, no, nie można udostępniać tym dużym modelom językowym, jeżeli np. pracujemy z jakimiś danymi poufnymi.
Są oczywiście sposoby, potem na anonimizowanie tego i tak dalej, i tak dalej, to…
Ten… trzeba czatać czymś tymczasowego czy coś, ale…
Wiesz co? Ale…
Ale to też nie… Nie.
Ja na przykład nie ryzyk… Ja nie ryzykowałbym.
Prędzej właśnie robiłbym jakąś anonimizację tych danych wejściowych,
bo czasem po prostu, no nie potrzebujemy przetwarzać na przykład czyichś imion i nazwisk,
albo innych danych tego typu, tylko wystarczy tam na przykład to zamaskować w jakiś sposób,
a potem sobie to zdekodować ponownie, bo potrzebujemy jakieś inne rzeczy tam przetworzyć.
No ale to już bardziej zaawansowane rzeczy, o których mówimy. Natomiast jeżeli właśnie też usłyszycie o tym, że tak, że to nie, bo nie ma co, bo to zabiera nam prywatność, to podobne efekty uzyskacie korzystając z modeli lokalnych.
No nie, no nie.
To trzeba mieć naprawdę potężny sprzęt, podejrzewam, żeby uzyskać efekty zbliżone do tego, co mamy.
Tak jak mówiłem, no przynajmniej tak, to właśnie ta dżema do takich sensowniejszych opisów,
czy na przykład streszczania krótkich tekstów, ale tutaj mówię, to kilku tysięcy znaków, jak najbardziej.
Ale jakieś bardziej złożone teksty, to jeśli zaczynały schody.
Dokładnie, także…
Jak oni tak bardzo chcą lokalnie i prywatnie, w sensie, no…
VoiceDream, znaczy ten deweloper, żeby to był model lokalny.
Ja tak szczerze mówiąc na początku myślałem, że to będzie ten…
Jak ta inicjatywa Apple się nazywa? Apple Foundation Framework? Coś tam?
To wchodzi dopiero o 26.
No właśnie, o 26, tak.
Ale właśnie, żeby ta ichniejsza AI, nie?
Żeby… to jest właśnie przetwarzanie na urządzeniu i tak dalej, nie?
No to już może ich na coś takiego namówić, bo jak oni tak chcą prywatnie…
Co na razie jest słabe po prostu.
Bo to jest na razie… i nie wiem, czy będzie lepsze, bo…
A też pytanie na przykład, no bo ja mam jednak tego iPhona 13 Pro też,
który tego, zwyczajnie tego wsparcia dla AI nie ma i tak dalej.
Ciekawe, czy gdybym miał nowszy model, powiedzmy ten 15 Pro,
tam 16 powiedzmy, czy 16E, czy Pro, czy Pro Max,
to ciekawe w sumie, czy te opisy też by były lepsze.
Trzeba by sprawdzić. Kogoś, kto by mógł przetestować kiedyś tam, nie?
Dokładnie, bo może też będą inne wyniki.
Też może.
Okej, słuchajcie, to teraz proponuję, żeby kilka różnych drobnych newsów,
bo tak nam się tu kolejność ułożyła z racji tego, że Ty, Piotrze, masz trochę tych treści,
a potem jeszcze masz informacje dotyczące gier, to może lepiej nie rzucać tego obok siebie,
żebyś też mógł sobie odpocząć.
No pewnie. Trochę mamy drobnych newsów faktycznie. Generalnie są to wiadomości pozytywne,
bo będziemy głównie mówić o aktualizacjach, które poprawiają to i owo,
ale zaczniemy od ankiety. I spokojnie, to nie będzie ankieta z serii.
Przez następne 20 minut będziemy czytać wszystkie pytania,
bo tutaj po prostu tych pytań tak dużo nie ma. Są trzy i to są bardzo krótkie pytania.
Mianowicie jest to cykliczna ankieta od NV Access,
czyli ankieta satysfakcyjna dla użytkowników NVDA.
Będzie link w komentarzu, natomiast adres jest bardzo prosty.
nvaccess.org
ukośnik SURVEY, przez V pisane.
Jeśli wejdziemy na tę stronę,
to zostaniemy przekierowani do formularza Google,
w którym możemy podzielić się z NVDAccess
tym, jak bardzo jesteśmy zadowoleni z NVDA
czy właściwie, bo tak jak mówiłem, mamy pytania trzy.
Pierwsze pytanie.
No to wiadomo, w skali od 0 do 10 możemy odpowiedź wybrać,
a drugie pole po prostu proszą nas o to, żebyśmy naszą wypowiedź uzasadnili.
I tutaj też na tej stronie nv.access pisze, że gdyby ktoś chciał dostać odpowiedź,
Jakbyśmy chcieli uzyskać odpowiedź, możemy też swój adres e-mail zostawić.
Jeśli nie chcemy, to nie musimy. Wtedy nasza odpowiedź jest anonimowa.
I trzecie pytanie jest też proste.
Czy korzystamy z MVVA głównie do testowania dostępności?
Czyli jeśli ktoś jest bardziej osobą widzącą, testerem dostępności,
to zaznaczamy tak albo nie.
Raczej wy będziecie zaznaczać tutaj odpowiedź nie.
I to jest cała ankieta. Myślę, że warto ją wypełnić,
bo pewnie na podstawie tego typu ankietach
później są planowane następne kroki.
Widzieliśmy, jakie plany ma NV Access na przyszłość.
Jeśli komuś coś z tych planów się nie podobało,
uważacie, że powinni skupić się na czymś innym,
to może być dobry moment, żeby takie informacje przesłać.
Ankieta jest po angielsku.
Natomiast tutaj wracając do wątku, który ciągnie się przez ostatnią godzinę, chyba ponad,
są sposoby, m.in. używając AI, żeby sobie pomóc w przetłumaczeniu takiej wiadomości,
gdyby ktoś chciał napisać po polsku. Także to polecam sobie tą ankietę wypełnić.
Nie opuszczamy jeszcze wątków w AI, bo następny drobny news też dotyczy sztużnej inteligencji,
konkretnie aplikacji, która pozwala nam w łatwy sposób z niej korzystać.
Jakby komuś nie pasował interfejs webowy chat do GPT,
albo Gemini, albo Clouda,
albo chcielibyście mieć fajny interfejs do modeli lokalnych
lub możliwość szybkiego przełączenia się między modelami podczas rozmowy.
Czasami taka możliwość może się przydać.
Jest do tego trochę aplikacji fajnie dostępnych.
Jedną z tych aplikacji, akurat na system Windows,
jest Basilisk LLM.
Aplikacja, o której mówiliśmy jakiś czas temu,
została stworzona przez osobę,
która na początku stworzyła dodatek MVA OpenAI.
To był dodatek, który dawał nam dostęp m.in. do opisywania zdjęć przez GPT,
ale też miał bardzo fajnie rozbudowane okno rozmowy,
które też wspierało…
Po prostu w rozmowę mieliśmy dźwięki, kiedy GPT nam odpisywał
i kiedy odpowiedź już przyszła cała.
Było wsparcie do Whispera.
Mogliśmy też z tego dodatku sobie transkrybować pliki
przez chmurę OpenAI, chyba nawet nie tylko.
Natomiast on po jakimś czasie, w sensie ten autor, stwierdził,
że dodatek w pewnym sensie zarzuci jego rozwój
na rzecz wyłączenia tych funkcji do dedykowanej aplikacji,
która już w tym momencie nie byłaby od MVDA zależna,
więc działa z każdym czynnikiem ekranu, już nie tylko MVDA.
I właśnie tak zrobił.
Aczkolwiek dodatek cały czas jest, jakby ktoś chciał sobie zdjęcia,
np. dopisywać obiekt pod nawigatorem MVDA,
jest dodatek towarzyszący, który można sobie zainstalować.
No i w tym momencie, kiedy ta aplikacja się pojawiła,
to już nie było tylko GPT,
bo tutaj też pojawiło się wsparcie dla Gemini,
dla Clouda chyba w jakichś poprzednich wersjach.
No i ta aplikacja sobie była.
Ostatnia stabilna wersja pokazała się w listopadzie zeszłego roku,
a później od tego czasu w kodzie źródłowym doszło dużo nowych funkcji.
Zapisywanie rozmów, wsparcie dla kolejnych modeli,
m.in. modeli lokalnych,
Clouda właśnie, Groka, innych modeli od XY AI,
bo tak się ta gałąź nazywa, która się tym zajmuje.
Natomiast to wszystko nie było dostępne w wersji skompilowanej.
Ja akurat ostatnio znów się zainteresowałem aplikacją,
bo przygotowuję tekst dotyczący takich aplikacji,
jakby ktoś był ciekawy, z czego można korzystać, oprócz strony.
Niedługo na łamach Tyfla Świata taki tekst się pojawi.
No i sprawdzałem, czy nie dałoby się
takich zmian włączyć do takiej wersji skompliowanej.
Okazało się, że nie byłem jedyną osobą, która o to prosiła.
W maju już ktoś taką prośbę wysłał, ja się po prostu do niej dopisałem.
I kilka dni później autor po prostu się przychylił do tego
i mamy nową wersję, która generalnie po prostu
aktualizuje wszystkie komponenty.
Co za tym idzie, mamy dostęp do wszystkich najnowszych modeli
od wszystkich firm, więc czy to jest GPT-4.1,
czy to jest Gemini 2.5 Pro i Flash i tak dalej.
Łącznie z możliwością szukania w internecie.
To jest coś fajnego, możemy sobie z poziomu tego zaznaczyć,
żeby Gemini miał dostęp do internetu.
Cloud też, zresztą GPT niestety tego przez API nie oferuje,
więc tam tej funkcji nie mamy.
Ale mamy model na liście z dopiskiem Web Search Preview,
więc może oferuje tylko, że trochę w inny sposób.
Tak że jeśli komuś te interfejsy nie podobają,
wolicie sobie wpisać własny klucz API,
to można z tego korzystać.
Aplikacja jest naprawdę świetna, ma dużo skrótów klawiszowych,
które pozwalają skakać po wiadomościach,
wyświetlać je w widoku HTML, gdybyśmy chcieli,
bo jeśli nie, to normalnie się wyświetla jako pole edycji,
tylko to czytu, więc można bardzo fajnie sobie kopiować.
Można dołączać pliki, i to nawet nie tylko zdjęcia,
bo na przykład jeśli pracujemy z Gemini,
to możemy też pliki audio i wideo dołączać
czy podać mu adres do filmu na YouTube i o filmy się pytać.
Załadowałem mu przykładowo taki plik audio,
który miał chyba jakieś 30 megabajtów, też trwało około pół godziny,
bez problemu mi stresił ten plik audio,
więc do takich zadań Gemini naprawdę sprawdza się świetnie.
między innymi, i to właśnie z poziomu Basiliska, nie musiałem wchodzić na stronę,
żeby z tego korzystać. Także jeśli korzystacie z Windowsa,
szukacie takiej fajnej aplikacji do rozmowy z AI, która jest naprawdę prosta w obsłudze,
no to gorąco polecam sobie tego Basiliska pobrać. Będzie link oczywiście w komentarzu.
Dobrze, na razie opuszczamy fontki AI i przejdziemy do komunikatorów.
I w pewnym sensie przecież kontynuujemy wątek zmian,
w pewnym sensie podektowanym Europejskim Aktem Dostępności.
Bo kolejną firmą, która postanowiła trochę tempo takich zmian
poprawiających dostępność przyspieszyć,
jest firma…
Chyba się nawet nazywa Element, ale mogę się tutaj mylić.
Generalnie jest to firma,
Mała przerwa, która głównie zajmuje się rozwojem aplikacji Element,
czyli takiego głównego komunikatora działającego na bezpiecznym,
decentralizowanym protokole Matrix.
Tak, protokole Matrix, czyli takiej alternatywie dla typowych komunikatorów
typu WhatsApp albo nawet Signal. No, generalnie to jest aplikacja
tego typu, która też jest coraz częściej używana w niektórych
rządowych sprawach,
Na przykład w Niemczech i chyba we Francji też.
A więc ostatecznie idzie, jeśli ktoś pracuje w takiej rządowej spółce,
w jakiejś roli, to musi mieć dostęp do tego typu usług.
Pewnie to trochę podyktowało to, że w końcu byłoby dobrze
dostępność tej aplikacji zarówno na urządzenia mobilne,
jak i wersję komputerową slash przeglądarkową,
bo tutaj też mamy do czynienia z interfejsem przeglądarkowym,
żeby ją trochę poprawić.
I tutaj zaczęły pojawiać się znaczące zmiany,
przynajmniej tak tutaj obiecuje producent.
Między innymi mamy informację, że struktura wiadomości na czatach
jest bardziej dostępna i różne tzw. okna modalne
czy takie wyskakujące okienka dialogowe
powinny teraz lepiej działać z klawiaturą.
Poprawiono, źle zatykietowane przyciski i obrazki w różnych miejscach.
To jest o tyle ciekawe, że ja stwierdziłem, że ściągnę sobie najnowszą wersję rozwojową.
Byłem ciekawy, jak to jest z tą dostępnością.
I pierwsze, co znalazłem, to w ustawieniach 12 zakładek ustawień po prostu obrazki.
Karta 1 z 12, karta 2 z 12.
Jeszcze muszą nad tym popracować. Dobrze, że tytuł okna się zmienia.
Więc można to ogarnąć.
Ale jeszcze jest trochę do zrobienia, ale fajnie, że coś tutaj się dzieje.
Poprawa działania reakcji z czytnikami ekranu,
bo tak jak było na Whatsappie czy innych komunikatorach,
możemy na wiadomości reagować.
Poprawiona struktura widoku wiadomości i okien modalnych.
Tutaj jest jeszcze trochę do zrobienia.
Największą rzeczą, której mi w elemencie brakuje,
jest to, że niestety po tej liście wiadomości
nie możemy chodzić z ciałkami cały czas,
tak jak w Whatsappie czy Discordzie.
To jest na liście, tam cały mechanizm wyświetlenia tych wiadomości
ma być przeprojektowany.
Miejmy nadzieję, że wtedy też będziemy mieli skróty,
że będziemy mogli kształkami na jakąś wiadomość dotrzeć
i później innymi skrótami coś z nią zrobić.
A tak na ten moment musimy używać skrótów
oferowanych przez nasz czytnik ekranu, żeby te wiadomości czytać,
co teraz też powinno być trochę łatwiejsze.
Mamy też drobne poprawki błędów.
Czasami jakieś sekcje strony, które były niewidoczne,
mogły dostać fokus, więc mogliśmy do nich dotrzeć z klawiatury,
to już zostało naprawione.
I to przygotowało też aplikację na kolejne poprawki dostępności,
które mają być.
Też takich ważnych zmian, które mają się niebawem pojawić,
to ma być poprawione automatyczne czytanie
przychodzących wiadomości na komputerach,
no bo w tym momencie też to działa średnio,
No bo cały obszar wiadomości jest takim jednym obszarem ARIA Live,
co teoretycznie nie jest pomysłem dobrym,
ale nie do końca, bo jeśli tych wiadomości jest za dużo,
to tam nie jest zawsze wszystko czytane, tak powinno być.
A też ten obszar lubi się przewijać,
kiedy np. skaczemy do poprzednich wiadomości,
a kiedy to się dzieje, to mamy podobną sytuację,
jaką mieliśmy np. z Messengera,
że nam czytnik ekranu zaczyna jakieś stare wiadomości czytać,
bo to się przewija i zawartość się zmienia
i jest to zrobione po prostu źle.
Ma to być rozwiązane lepiej.
Poza tym ma być też poprawy dla obsługi z klawiatury ekranu,
dodawania naklejki, emoji.
Uproszczone komunikaty błędów.
To nawet nie tylko chodzi o osoby nieewidomenne,
ale bardziej czytelne błędy są dobre dla wszystkich.
Lepszy proces weryfikacji urządzeń, kwestie bezpieczeństwa.
Bardziej dostępny system ankiet,
bo też można w elemencie dodawać ankiety do wiadomości,
które są słabo dostępne.
No i właśnie lepsze komunikowanie nowych wiadomości
na komputerze i na stronie internetowej.
No i tutaj też mamy prośbę, żeby zgłaszać jakieś błędy
związane z dostępnością, najlepiej na GitHubie,
dołączyć do pokoju związanego z dostępnością na Matrixie.
Są linki do tego wszystkiego w tym poście.
Jeśli chodzi o sam post, to oczywiście będzie link do niego w komentarzu.
Zostaniemy w klimatach open source,
tylko tym razem przenosimy się w świat Linuxa graficznego.
I będziemy mówić znów o środowisku GNOME,
które dostarcza nam sam pulpit
…i większość takich aplikacji wbudowanych w systemy najbardziej popularne linksowe łącznie z czytnikiem ekranu orka.
Ostatnio tam dzieje się bardzo dużo dobrego w różnych sferach dostępności w Linuxie.
No i nie inaczej jest z różnymi aplikacjami.
Kolejną aplikacją, która dostała takie poprawki dostępności jest aplikacja, która wydaje mi się jest dla nas jak najbardziej istotna.
Zwłaszcza na przykład w pracy, bo jest to po prostu kalendarz wbudowany w środowisko GNOME.
Więc aplikacja nazywa się właśnie po prostu Gnome Calendar.
I była to aplikacja, która do tej pory była praktycznie niedostępna tak naprawdę.
I rozpisuje się tutaj jeden z osób,
którzy nad tą aplikacją planuje.
Osoba podpisująca się jako The Evil Skeleton na swoim prywatnym blogu.
Jakie zmiany zostały wprowadzone i jakich zmian jeszcze możemy się spodziewać?
Zmiany jest dużo i są to jak najbardziej zmiany na plus.
Bo…
Co zostało zmienione?
Po pierwsze, mamy bardziej widoczne obramowanie fokusu.
Jeśli chodzimy tabulatorem plus z ciałkami,
to jest bardziej widoczne, gdzie ten fokus się znajduje.
Mamy bardziej przyjazną nawigację z klawiatury po siatce kalendarza,
Więc też tutaj bardzo istotna kwestia.
Wcześniej ta nawigacja nie działała. Czasami się zapętlał fokus.
Czasami wychodził nam z tego kalendarza i przechodził tam, gdzie nie powinien.
Też na przykład z tabem wcześniej przechodziliśmy po każdym dniu, po kolei,
a teraz po prostu tabem wchodzimy na siatkę
i później po tej siatce nawigujemy strzałkami, co jest bardziej dostępne.
Fokus nam właśnie wychodził z tej siatki, kiedy nawigowaliśmy szczałkami.
To było wszystko naprawione.
Ten fokus powinien zachowywać się już prawidłowo.
Lista dostępnych kalendarzy, gdzie możemy poszczególne kalendarze pokazywać i ukrywać.
Tam też były problemy zarówno z klawiaturą, jak i z czytnikiem ekranu,
bo osobno były widoczne same kalendarze, jak i pole wyboru do ich wyłączania.
Tym razem trzeba było chyba do niej jakoś strzałkami, też tabem dotrzeć.
Teraz to po prostu działa lepiej.
Orka od razu mówi, czy jakiś kalendarz jest wyświetlony lub nie.
No i możemy spację ich stan przełączyć.
No i taką najważniejszą zmianą jest dodanie dostępności
dla poszczególnych kontrolek.
Najbardziej ważną kontrolką jest kontrolka reprezentująca
poszczególne wydarzenia na tym kalendarzu.
bo ona wcześniej była jakimś bardzo niestandardowym tworem,
no bo kalendarz często może wyświetlać dziesiątki, jak nie setki kontrolek,
no i co za tym idzie, nie miała w ogóle dostępności zaimplementowanej.
Teraz już ma, więc powinniśmy być w stanie
bez problemu z tego kalendarza korzystać.
Podobnie jak do kontrolek wyboru daty,
konkretnie do wyboru miesiąca i roku,
tam też one były jakoś specyficznie zrobione,
przez co czytniki ekranu Orka nie widziała tych kontrolek prawidłowo.
Teraz już to wszystko powinno działać.
I to jest dopiero początek. Tutaj też mamy informację, że możemy się spodziewać
kolejnych poprawek w tym kalendarzu. Gdyby ktoś chciał to potestować,
to te zmiany będą dostępne w GNOME 49, w 39. wersji całego środowiska.
Natomiast też możemy sobie po prostu ściągnąć wersję nightly,
wersję rozwojową tego kalendarza, z jego repozytorium Flatpak.
To jest też wszystko podlinkowane w tym poście.
Więc jeśli ktoś korzysta z Linuxa i szukacie dostępnego kalendarza,
chcielibyście sobie to przetestować,
no to łatwo można sobie tę nową wersję ściągnąć.
No i tutaj też podzielić się z autorami informacjami,
jak to z tą dostępnością będzie.
Następnie coś dla tych, którzy lubią sobie poczytać i posłuchać urządzeniem z przyciskami,
bo wracamy do wątku OrbitPlayera, o którym mówiliśmy już jakiś czas temu.
Jest to urządzenie, które generalnie jest otwarzaczem książek mówionych
i nie tylko, generalnie konkuruje z Orionami, SensePlayerami, Victor, Streamami
i tego typu urządzeniami. Jest to urządzenie, które generalnie powstało na rynek indyjski,
Takich urządzeń nie było do tej pory, które wspierałyby ich języki i biblioteki,
a jednocześnie też nie były przesadnie drogie.
Natomiast firma Orbit Research też stwierdziła, że urządzenie może być jak najbardziej interesujące
dla osób na rynku globalnym.
No i postanowili to urządzenie wypuścić.
Konkurencyjnie, cenowo, to jak najbardziej wypada, przynajmniej w porównaniu
do tych innych urządzeń, bo za 300 dolarów dostajemy urządzenie,
…której jest wyposażone w ośmiordzeniowy procesor w Androida.
Potrafi czytać książki, zarówno tekstowe, audiobooki, jak i DAISY.
Może otwarzać podcasty, w tym z obsługą rozdziałów.
Oczywiście możemy zmieniać prędkość. Jest radio FM, jest tyktafon.
Są nawet inne aplikacje typu kalkulator, nawet jakiś menadżer kontaktów,
bo urządzenie też ma pełną klawiaturę numeryczną.
Radio FM, jest Wi-Fi, jest Bluetooth, są głosy Vocalizer i głosy Google na pokładzie.
No i tyle generalnie o tym urządzeniu, wiemy, wiedzieliśmy na ten moment.
W Polsce ono, co ciekawe, pojawi się we wrześniu.
Dziękujemy skrótowi dostępności za tę informację.
Prawdopodobnie firma Lumen będzie Orbit Layera w Polsce sprzedawać.
I czy jest na co czekać?
Jeśli ktoś szuka takiego taniego urządzenia do słuchania książek,
to myślę, że warto, zwłaszcza jeśli nie robimy vocalizera.
Ani syntezy Google.
Dlaczego to mówię?
No bo w Stanach Zjednoczonych
pierwsi użytkownicy zaczęli
swoje Orbit Playery dostawać
i coraz to bardziej techniczni
użytkownicy.
No i jedna z takich osób
postanowiła w mediach
społecznościowych podzielić się
informacjami z innymi
osobami, co w tym urządzeniu
ciekawego możemy
znaleźć. No i co się dowiedzieliśmy?
Dowiedzieliśmy się, że urządzenie jest wyposażone
w tani, ale jak na to
urządzenie całkiem sensowny procesor,
bo jest to Mediatek MT6765,
bo także to jest chyba Helio P30 albo 35.
Ma dwie nazwy, ten procesor.
Jest to generalnie jednostka ośmiordzeniowa,
która na nagraniach…
To urządzenie wydaje się być naprawdę responsywne.
Ale co się okazało?
Okazało się, że to urządzenie możemy podłączyć do komputera
i ono wyświetli nam się jako dysk.
Normalnie możemy sobie wtedy pliki kopiować,
ale okazało się również, że urządzenie daje dostęp do powłoki ADB,
czyli narzędzi dewodoperskich androidowych.
Co nam to pozwala zrobić?
Pozwala nam to generalnie tym urządzeniem zarządzać.
Tam jest normalnie Android.
A co za tym idzie, możemy różne rzeczy sobie instalować.
I tym sposobem dowiedzieliśmy się,
że można teoretycznie sobie zainstalować TalkBacka i go włączyć.
i po urządzeniu nawigować, natomiast musimy wtedy mieć podłączoną klawiaturę,
bo oprogramowanie nie pozwala oficjalnie wyjść spoza tego interfejsu odtwarzacza.
Więc tutaj to jest mało praktyczne, nie tak jak w SensePlayerze,
gdzie to jest faktycznie od początku tak projektowane,
że można tym instalować zewnętrzne aplikacje.
Aczkolwiek, co ciekawe, okazuje się, że chociaż urządzenie nie ma certyfikatu,
tam się wyświetlają jakieś błędy,
…to tam pełny sklep Play już jest zainstalowany.
I jakby ktoś chciał,
bo dałoby się jakieś aplikacje dodatkowe zainstalować.
Może firma Orbit Research… Zresztą nie zaprzeczali tego.
Może w przyszłości pozwolą nam na instalację dodatkowych aplikacji
do jakichś innych usług na przykład. Kto wie.
Ale nawet jeśli ktoś by aplikację instalować nie chciał,
to ma to jeszcze jedno zastosowanie.
Mianowicie, moglibyśmy sobie zainstalować jakąś alternatywną syntezę,
która nie jest implementowana standardowo.
Ta osoba, przez to, że ten procesor nie jest najnowszy,
tutaj to ma o tyle swój plus,
że była w stanie zainstalować sobie Eloquence’a,
który oficjalnie wspierany nie jest.
I co ciekawe, to zadziałało.
Do tego stopnia, że wybór syntezatora w tym oprogramowaniu wbudowanym
zobaczył tego Eloquence’a i ten użytkownik był bez problemu w stanie się na niego przełączyć
i po prostu sobie z tego Eloquence’a korzystać.
Tak że jakby ktoś wolał eSpeak’a albo RehaVoice’a,
to myślę, że jak najbardziej dałoby się na tym urządzeniu to zrobić,
zainstalować sobie ten głos, ewentualnie podłączyć teatrę na chwilę,
żeby go skonfigurować, ewentualnie jakieś pakiety pobrać,
ale kiedy już to zrobimy, możemy po prostu przełączyć się
na tę syntezę alternatywną i sobie z niej korzystać.
A kto wie, czy w przyszłości po prostu firma Orbit Research, jeśli poprosimy o to,
nie pozwolą nam z poziomu urządzenia RH Voice’a i ich poszczególnych głosów
instalować. No bo ewidentnie oprogramowanie na to jest już przygotowane,
a nawet jeśli nie, no to jest bardzo możliwe, że jak ktoś będzie bardzo chciał,
no to będzie na to łatwa możliwość. Urządzenie zapowiada się ciekawie,
może niebawem dowiemy się o nim jeszcze więcej, coraz więcej osób je dostaje,
No i my w Polsce też niebawem będziemy mieli możliwość sobie taki odtwarzacz kupić.
Swoją drogą, to tak sobie myślę, że fajnie by było jakby na przykład polski dystrybutor w ogóle miał taką opcję, możliwość, żeby RH Voice’a skorzystać.
No bo my tych polskich głosów jednak kilka mamy i fajnie by było móc ich używać.
No można o to poprosić. Myślę, że jak najbardziej są podstawy.
I oprogramowanie ewidentnie jest do tego przystosowane.
Dobrze. I jeszcze jedna wiadomość ode mnie, może już trochę mniej wesoła,
ale na szczęście z happy endem w pewnym sensie.
Visual Studio Code, czyli bardzo popularny edytor do kodu źródłowego
i nie tylko, ma znów drobne, może nawet nie takie drobne problemy
Co ciekawe, teraz dowiedziałem się,
objawiają się trochę różnie na różnych systemach operacyjnych.
Bo na Windowsie użytkownicy zaobserwowali to,
że czasami nawigacja po słowach, zwłaszcza zaznaczenie po słowach,
nie działa tak, jak powinno, zwłaszcza kiedy nawigujemy w lewo.
Czemu? Nie wiem. Czasami po prostu kursor gdzieś się zacina,
nie przechodzi tam, gdzie powinien.
Dziwne rzeczy się z tym kursorem działy.
A na Macu, co ciekawe, problem jest jeszcze bardziej poważny,
bo teraz mi się też ten VSCode zaktualizował,
to jest wersja stabilna.
I VoiceOver, kiedy nawigowałem po wierszach nawet,
nie tylko po znakach, a po wierszach,
po prostu czytał pojedyncze znaki.
Więc samoewidentnie coś się popsuło.
Problem już został zgłoszony do Microsoftu
i zresztą będzie link do tego raportu,
możecie sobie tam poczytać,
jak idzie naprawianie tego problemu.
Natomiast tam też znaleziono tymczasowe rozwiązanie na ten problem,
bo to jest spowodowane nową obsługą edytora,
która została zaimplementowana,
która ma przyspieszyć wydajność aplikacji,
ale dla nas powoduje problemy z dostępnością.
Na szczęście można sobie to wyłączyć.
Jak? Wchodzimy do ustawień.
Na Windowsie i na Macu jest to skrót command lub control.
Szukamy sobie pola wyszukiwania do przeszukiwania ustawień
i tam wpisujemy
I w wynikach powinniśmy znaleźć jedną opcję właśnie
Editor Context, tak to się to będzie nazywało.
To pole będzie domyślnie zaznaczone.
Odznaczamy to pole, zamykamy okno ustawień
i problem po prostu powinien już nie występować.
Warto sobie ten problem, ten raport zaobserwować,
no bo prawdopodobnie to zostanie naprawione.
Tam też w ustawieniach widziałem ciekawe inne opcje,
które teoretycznie mają pozwolić czytnikom ekranu
na zobaczenie tekstu z formatowaniem,
czego WSKO wcześniej nie pozwala,
być jakieś, nie wiem, linki na główki może.
W przyszłości będą na ten sposób dostępne,
więc może w tą stronę to idzie,
więc no, kiedyś pewnie ta opcja będzie przydatna.
Natomiast na ten moment ona, no,
to powoduje ewidentnie nam więcej błędów niż pomaga,
więc warto sobie to ustawienie na razie wyłączyć.
I kiedy to zrobimy, zarówno na Windowsie, jak i na Macu,
te problemy, o których mówiłem, zarówno nawigacją po słowach
i po prostu z czytaniem wierszy przez voiceovera,
powinny już nie występować.
No i to wszystko ode mnie, ale to jeszcze nie koniec.
Drobnik Newsów.
Tak, nie koniec Drobnik Newsów, ja tam
jeszcze udało mi się coś wykrzesać.
Wszystko na Apple’owo, ale drobnica, bo
dlaczego? No mianowicie
w zeszły czwartek zostały wydane pierwsze
publiczne bety systemów
Apple w wersji 26
do publicznego przetestowania.
No i bardzo dobrze, że
zostały wydane publiczne bety,
…i że niezastany był stan taki, jak były wersje developerskie.
I to jest właśnie to, dlaczego nie do końca należy instalować wersji developerskich,
jak się nie chce mieć bardzo uprzykrzonego życia.
Mianowicie, o co chodzi? Wersje developerskie zostały wydane we wtorek, zeszły.
I miały jeden, zasadniczy, irytujący błąd.
Mianowicie taki, choć to mi nie wszyscy potwierdzali,
natomiast niektórzy tak,
że iPhone się samoczynnie restartował.
Nawet nie to, że się restartował, to były symptomy troszkę restartu.
System w pewnych swoich częściach ulegał awarii,
co skutkowało tym, że aplikacje,
wszystkie, które sobie działały, się ubijały.
Jeśli się iPhone ładował, przede wszystkim jeśli się ładował,
To nastąpiły, następowały te awarie i wtedy jakby tracił też iPhone na chwilę napięcie i się jakby zaczął restartować, znaczy ładować jakby od nowa.
Optymalizacja też była, mówiąc delikatnie, taka sobie. VoiceOver też ucinał początki wyrazów i różne naprawdę rzeczy się na tym moim telefonie działy.
Natomiast w czwartek wyszła wersja publiczna. W zasadzie wyszły wersje publiczne tych wszystkich systemów.
No i na iOS-ie te wszystkie niedoskonałości na szczęście poprawiły.
No i co jeszcze warto o czym wspomnieć, naprawiono też aplikację pogoda w tym zakresie,
że wcześniej mieliśmy wyłącznie godziny i przyciski, czyli można było sobie zmienić warunki na wykresie itd.
Te przyciski to nam powodują, zresztą w iOS-ie, a w iOS-ie 18 również.
Natomiast w tej najnowszej publicznej becie warunki również były odczytywane, przyporządkowane odpowiednio do godzin.
Są już odczytywane. No i to tyle jeśli chodzi o iOS-a. Na WatchOSie wreszcie centrum sterowania jest możliwe, że tak powiem, do obsłużenia z naszym wspaniałym voice-overem,
bo w całej drugiej becie przez cały okres wydania drugiej bety niestety nie było to możliwe.
Na szczęście już jest. Edytować też elegancko w sobie wszystko można.
Wszystkie wiersze i kolumny i komunikaty, gdzie zostały przesunięte dane elementy w tym centrum sterowania już po polsku na szczęście są czytane, więc można wszystko.
Ponadto mam wrażenie, że trochę ta responsywność z voice-overem przyspieszyła nawet. Wydaje mi się, że też.
i też jeśli chodzi o Zosię Kompakt, tą domyślną
i też tam miała swoje ścinki, głosek różnych troszeczkę.
Czasami, znacznie rzadziej niż iPhone, a teraz już jest dobrze.
Na Macu większych zmian niestety nie odnotowałem. No dlaczego niestety?
A przecież nie, naprawili panel emoji poniekąd, że VoiceOver nie anonsował ich po znaku
typu, nie wiem,
E-U-Z-Y-R-A-D-O-SIE-C-I, coś tam, coś tam…
B-U-Ś-K, i tak dalej.
Tylko już na szczęście to działa poprawnie,
ale cała reszta gdzieś tam zgłoszonych rzeczy,
no, według mnie, nie została naprawiona.
Dalej też nawet bug jest z głosami,
które nie działają nadal,
jeśli chodzi o voice-overa.
Centrum sterowania też jeszcze nie jest naprawione,
tam wchodzenie w szczegóły, powiedzmy, trybu skupienia, i tak dalej.
Więc, no, te wszystkie inne rzeczy zgłoszone…
się akurat nie zostały naprawione.
Natomiast,
natomiast,
natomiast, no, no taki po prostu mamy stan jaki mamy.
Zostały też, a dzisiaj to jest, no, dzisiaj, bo po pierwsze
publiczni beta-testerzy z zeszłego, z zeszłego czwartku, że tak wyrażę, też
zyskali dostęp do oprogramowania dla AirPodsów, dla tych
dostęp do tej funkcjonalności właśnie trybu, tryb studyjny czy
co tam było, sterowanie tym aparatem i tam powiedzmy te,
wstrzymywanie po zaśnięciu w aplikacji podcasty,
no to publiczni beta-testerzy też do tego dostęp zyskali.
Natomiast dzisiaj wyszła sobie nowa wersja
AirPodsów, tak, oprogramowania dla AirPodsów,
o wersji,
Czyli poprzednia była 8A308B, a teraz mamy 8A324B, czyli tam te numerki się zmieniały z 308 na 324.
Także można też sobie to pobrać.
Tylko tutaj jedna drobna uwaga, ważna przy okazji. Nie wiem dlaczego, ale jeżeli już pobierzemy jedną z wersji tego oprogramowania układowego dla Airpodsów,
no to niestety przełącznik w ustawieniach właśnie do tego dostępu do oprogramowania beta do tego kanału, nam się każdorazowo wyłącza ten przełącznik i go sobie trzeba włączyć.
Wysyłanie danych analitycznych o korzystaniu z Airpodsów nie,
natomiast ten przełącznik umożliwiający w ogóle pobranie,
znaczy jakby włączenie możliwości ewentualnego pobrania
aktualizacji właśnie z tego kanału beta,
każda razowo się wyłącza, więc tutaj jest taka niedogodność.
No i co jeszcze? Coś powiedzmy bardziej dla ludzi stabilnych, że tak powiem,
dla ich urządzeń stabilnych, wersje też stabilne zostały wydane, czyli iOS również dzisiaj,
iOS 18.6, macOS 15.6, watchOS 11 i tak dalej i tak dalej. Ja myślę, że warto zaktualizować,
Jeśli nie testujecie bety, choćby właśnie na to, że różne ciekawe łatki bezpieczeństwa, tak ponad 20, z tego co MacGrumors pisze, zostało dodanych, właśnie poprawek bezpieczeństwa ponad 20, gdzieś tam w różnych obszarach, więc przezorny, ubezpieczony, warto aktualizować, bo ubezpieczony to zabezpieczony, prawda.
No i to chyba wychodzi na to, że koniec drobnych wniosów.
Okej, no to teraz przechodzimy do kolejnej informacji, tym razem Piotrze od Ciebie, a to będzie też informacja z gatunku jabłkowego, bo o alternatywnym interfejsie do YouTube’a na urządzenia Apple.
Tak, i to jest taki bardzo specyficzny interfejs, bo to nie jest koniecznie aplikacja, która ma nam zadanie całkowicie YouTube’a zastąpić.
Aczkolwiek myślę, że dla niektórych osób to spokojnie może to zrobić.
Jest to aplikacja, której wiedziałem od jakiegoś czasu,
natomiast ona, kiedy ją pierwszy raz próbowałem,
miała problemy z dostępnością
i ona sobie trochę na moim telefonie przeleżała
i jak to zwykle bywa, sobie aktualizowałem wszystko na App Store.
No i patrzę, w Change Logu pojawiło się zdanie
VoiceOver Improvements, czyli poprawki związane z voiceoverem.
No to od razu tematem się z powrotem zainteresowałem.
No i faktycznie trzeba powiedzieć, że deweloper poprawił.
Aplikacja w ogóle jest dostępna na pewno na iOS-a, Mac-a i iPadOS-a.
Nie wiem, czy też nie na Apple TV, ale na pewno na iOS-a i pochodne
oraz na Macu tę aplikację możemy pobrać.
Nazywa się On Watched for YouTube.
Jest aplikacją zupełnie darmową.
Oczywiście będzie link w komentarzu.
Natomiast gdyby ktoś chciał sobie ją znaleźć szybciej,
no to UnWathed, przez ch pisane w App Store,
powinno program znaleźć.
I jest to aplikacja, która generalnie ma nam ułatwić zarządzanie
kolejką filmów, które chcemy obejrzeć.
I gdybym miał tę aplikację bardzo prosto opisać,
jeśli chodzi o jej interfejs i koncept działania,
to bym powiedział gastro, ale dla YouTube’a.
I dlaczego tak mówię?
Bo aplikacja generalnie w pewnym sensie korzysta z naszego konta,
ale nie do końca, bo tak naprawdę nie musimy się zalogować
do naszego konta Google, żeby z aplikacji korzystać.
Co nie znaczy, że nie możemy mieć subskrypcji.
Tylko że aplikacja z subskrypcjami zarządza sama.
Możemy sobie subskrypcję z konta zaimportować.
Robi się to poprzez stronę Google Takeout,
tam generalnie musimy na stronie się zalogować i wyeksportować nasze dane.
Albo możemy sobie po prostu kanały wyszukiwać ręcznie.
Wygląda to tak, że kiedy klikniemy sobie szukaj na YouTubie,
otworzy nam się widok przeglądarkowy
i tam możemy wyszukiwać pojedyncze filmy, które chcemy dodać do kolejki
lub całe kanały, które możemy zasubskrybować.
Możemy też po prostu wpisywać adresy RSS do poszczególnych kanałów,
bo tak, YouTube cały czas oferuje kanały RSS dla każdego kanału.
Nawet aplikacja nam później pozwala takie subskrypcje wyeksportować
do pliku OPML lub zaimportować, gdyby ktoś chciał w ten sposób działać.
Natomiast kiedy już sobie kanały posubskrybujemy, dodamy jakieś filmy,
to co mamy do dyspozycji?
Mamy do dyspozycji trzy zakładki, takie podstawowe.
Mamy zakładkę Inbox, czyli skrzynkę odbiorczą.
Mamy zakładkę Queue, czyli naszą kolejkę.
I mamy zakładkę Library, czyli biblioteka,
gdzie później nasze filmy, które obejrzeliśmy, będą trafiać.
No i tak jak wspominałem, idea bardzo przypomina Castro,
bo wygląda to tak, że kiedy już jakieś kanały sobie dodamy,
to wszystkie filmy od tych kanałów będą pojawiać się w skrzynce odbiorczej.
I faktycznie VoiceOver nam pięknie to wszystko czyta.
Jeden flik to jest jeden film.
Mamy informacje o orientacyjnym czasie trwania filmu,
o dacie publikacji, oczywiście tytuł, nieodbiorcę,
no i autora danego klipu.
No i oczywiście mamy czynności.
A na czynnościach możemy stuknąć wyklucznie w jakiś film,
co spowoduje, że zostanie on od razu odtworzony.
Możemy go przenieść do kolejki, możemy go usunąć ze skrzynki odbiorczej.
Akurat dany film nas nie interesuje, więc nie chcemy, żeby nam zawadzał oczy.
I mamy też opcję show description, czyli pokaż opis filmu.
Jeśli w to klikniemy, to wyświetli nam się opis.
Wszystkie linki będą klikane
i możemy sobie ten opis przeczytać, ewentualnie w jakiś link kliknąć.
W tym widoku opisu mamy jeszcze jedną ciekawą rzecz.
Czyli to jest znów nawiązanie do Castro w sumie,
bo od razu też zobaczymy wszystkie rozdziały.
Też mamy dostęp od razu do transkryptu.
I podobnie jak w Castro, możemy sobie poszczególne rozdziały wyłączyć.
Jeśli jest jakiś rozdział, który nas nie interesuje,
możemy znaleźć w nim jakiś bardzo długi film,
jakieś zestawienie, które długo trwa,
no to możemy odznaczyć elementy, które nas nie interesują,
na przykład jakieś bloki sponsorskie,
które są często oznaczone jako rozdziały.
A gdyby nie były, to w ustawieniach możemy włączyć integrację
ze sponsor-blockiem, czyli rozszerzeniem do blokowania
właśnie bloków sponsorskich w filmach na YouTubie.
No i wtedy aplikacja sobie jeszcze te dodatkowe rozdziały
szczyta i wtedy na pewno będziemy widzieć na tym ekranie,
gdzie takie jakieś właśnie reklamy się będą pojawiać.
Natomiast nie widziałem, żeby dało się od razu je pominąć,
ale jeszcze muszę się tą aplikacją pobawić,
otworzyć jakieś filmy, które faktycznie mają jakieś informacje sponsorskie.
Natomiast tak generalnie wygląda ta skrzynka odbiorcza.
Dodajemy sobie filmy, które chcemy obejrzeć.
Później sobie możemy przejść do kolejki i rozpocząć odtwarzanie filmów.
Odtwarzanie odbywa się poprzez webowy odtwarzacz na YouTubie,
Więc jeśli klikniemy na jakiś film, to nam się otworzy.
I co ciekawe, według autora,
i przynajmniej z moich testów to też miało miejsce,
nawet kiedy nie byłem zalogowany,
nie mieliśmy w ogóle reklam.
I autor zresztą pisze, że to jest spowodowane z jakichś powodów technicznych.
Nie wiem, jakich, ale na pewno, zwłaszcza jeśli ktoś nie ma YouTube Premium,
to na pewno się ucieszycie z tego powodu.
Natomiast też prosi, że jeśli komuś się jakiś kanał spodoba,
to warto wtedy ten kanał w jakiś inny sposób wesprzeć.
Ale faktycznie ja reklam też nie miałem.
Gdyby kiedyś się pojawiły,
to możemy też się po prostu w aplikacji zalogować przez wyszukiwarkę.
Ona wtedy nie szczyta automatycznie subskrypcji,
ale kiedy będziemy zalogowani,
to na pewno te wszystkie benefity premium będą aktywne,
więc na pewno wtedy nie będziemy mieli reklam.
Ale też nasza historia się powinna wtedy synchronizować,
co może być istotne, gdybyśmy chcieli
i na przykład później wznowić odtwarzanie na komputerze.
Pomiędzy Maciem i iPhonem mamy synchronizację po iCloud,
o czym chyba jeszcze nie mówiłem.
Natomiast jakby ktoś chciał z Windowsem zsynchronizować,
to można się zalogować i wtedy ta pozycja powinna się zsynchronizować.
Co możemy zrobić na odtwarzaczu? Możemy zmienić szybkość.
I co ciekawe, ta regulacja szybkości jest zrobiona świetnie
w porównaniu do aplikacji oficjalnej, bo mamy ją na ekranie odtwarzacza
i jest to suwak, więc nie musimy wchodzić w żadne podmenu.
Ja akurat szybkość zmieniam dosyć często, więc to jest fajna opcja.
Możemy tutaj też przeskakiwać między rozdziałami,
przyciskami, które są zawsze widoczne.
Tego też nie mamy w oficjalnej aplikacji,
tam trzeba to menu rozwijać z rozdziałami.
Jest sleep timer, można sobie ustawić, jakby ktoś chciał.
I można nawet utwarzać w tle,
znów nawet jeśli ktoś nie ma wersji premium.
Trzeba to zrobić trochę na okrętkach,
bo musimy nacisnąć przycisk Enable Picture-in-Picture,
co spowoduje, że wyświetli nam się ten widok, obraz w obrazie,
takie pływające okienko. Natomiast teraz możemy aplikację zminimalizować,
zablokować ekran i cały czas nasza kolejka będzie odtwarzana,
więc myślę, że to jak najbardziej też jest coś,
co może wielu osobom się spodobać.
To jest tak naprawdę wszystko, co ta aplikacja potrafi.
Jest to inny sposób pracy niż oficjalny YouTube,
ale w pewnym sensie może się podobać, zwłaszcza jeśli ktoś ma dużo subskrypcji.
Ja akurat trochę subskrypcji mam, może sobie wszystko spróbuję zainportować,
zobaczę, jak mi to będzie działać, no bo nie oglądam wszystkich tych filmów.
A tutaj mógłbym sobie, myślę, całkiem sporo życie ułatwić.
A zwłaszcza dla osób, które nie mają YouTube Premium,
drażnią was reklamy, drażni was brak możliwości otwarzania w tle,
no to myślę, że warto sobie tą aplikację ściągnąć,
Czy to na iPhone, czy to na Maca, na obu systemach aplikacja działa sensownie.
Na Macu mamy skróty klawiszowe.
Chociaż nie mamy regulacji głośności na Macu.
To może być minus, to będzie trzeba to autorowi zgłosić.
Strzałki owszem działają, ale strzałki góra-dół…
Nie wiem, czemu autor stwierdził, że będą regulować szybkość odtwarzania.
Więc to taki minus, jeśli chodzi o wersję na Maca.
Natomiast poza tym zarówno na Macu i na iPhone jest wszystko dostępne.
Wszystko działa tak, jak powinno, z tego co zdążyłem zauważyć.
Więc zwłaszcza jeśli nie macie YouTube Premium,
a nawet jeśli macie, podoba wam się ten koncept skrzynki odbiorczej
On Watched for YouTube UnWatthed,
pisane przez CH w App Store.
Warto sobie ściągnąć i przetestować.
Czy z komandem nie działa?
W sensie, jak ściągasz komandę góra-dół, tak jak w App Store Muzyka?
Nie, nie, sprawdzałem nieco.
O, to niedobrze.
Dla Maca… w App Store’ze też, z Macowem, tak?
Tak.
Dobry wieczór, Paweł Podolski, Środkowania z tej strony.
Ja pozwolę się zapytać o dwie rzeczy.
Pierwsza rzecz, no to jak ściągnąć to oprogramowanie do AirPodców,
o którym Maciek mówił. Ja mam dwie pary słuchawek AirPodców,
No to tutaj niestety nie ściągniesz, dlatego że ja zrozumiałem, że masz Airpocy dwójki dołuszne i trójki dołuszne, tak?
A to jest niestety dla dwójek pro, czyli tych dokanałowych z gumkami i do Airpoców dołusznych, ale czwórek.
A to są jakieś nowsze, wyszły z nowych?
Czwórki tak. Czwórki wyszły z ANC, czyli właśnie z tą aktywną redukcją hałasu otoczenia i bez ANC.
Dwa marionety wyszły ich.
Ja mam takie właśnie te douszne, co one mają.
ANC na to może i to i czwórka po prostu.
Chyba, że czwórki to są.
Bardzo możliwe. Już po prostu nie kojarzę.
Jakoś się może z pół roku temu je kupiłem.
No to jeżeli pół roku temu…
Nie, no to na pewno będą czwórki.
To będą czwórki.
To będą czwórki, tak.
No to pewnie tak jest.
Tak, no to… tylko też pamiętaj…
należy pamiętać, że żeby sobie to oprogramowanie nowe ściągnąć,
to też musisz mieć zainstalowane na iPhone’ie,
względnie na Mac’u, bo to też jest możliwe,
No to wchodzisz sobie w ustawienia w Twoje AirPodsy i tam dosłownie pod nagłówkiem informacji o urządzeniu, tam w zasadzie na samiuśkim końcu będzie taka pozycja jak oprogramowanie… coś z wersją beta na pewno będzie.
Tam sobie wchodzisz i tam będzie przełącznik do…
Zresztą zaraz, jak chcesz, to ci to mogę na szybko sprawdzić, bo sam nie pamiętam tak dokładnie, ale już ci sprawdzam.
Więc tak, to jest dosłownie uaktualnienia beta słuchawek Airpods, wchodzisz i masz opcję…
Dobra. I jest opcja właśnie tożsama.
Nazywa się uaktualnia beta słuchawek AirPods.
Jest przełącznik wyłączony. Jak sobie go włączysz to będzie.
Jeszcze jest druga opcja.
Dane analizy AirPods. I to też możesz wtedy zawsze przy…
zawsze przy wysyłaniu do Apple feedbacku, opinii w aplikacji Opinia.
Te dane wtedy będą wysyłane, jeżeli się na to zgodzisz, że to będzie włączone.
Z tego jak używasz słuchawek, jakie tam interakcje zachodziły, jakie błędy, co tam się działo.
Wszystko tam będzie odnotowane.
A mam jeszcze takie pytanie. Czy te AirPodsy czwórki, one obsługują ten kodek beztratny lossless w Apple Music, czy nie?
To chyba tylko jest obsługiwane, jeśli byś się łączył z AirPodsami, ale z tymi ichniejszymi goglami Apple Vision Pro.
To wtedy tak, a jeśli chodzi o inne urządzenia Apple’a, z tego co mi wiadomo, na ten moment niestety nie.
To ewentualnie jakbyś miał AirPods Max i jeszcze się połączył kablem i czymś tam, no to wtedy…
No to te wszystkie słuchawki są beztratne.
Tak, dokładnie.
Jasne, to dziękuję serdecznie za odpowiedź.
A jeszcze chciałem się zapytać odnośnie właśnie tego Whatsappa na Windowsa.
No bo jak dla mnie, to on jest zupełnie nieużywalny.
Co z tego, że mam w miarę dostępną listę tych czatów i wiadomości w czacie,
jak tak naprawdę jeżeli mamy czat mieszany, czyli wiadomość tekstowa, głosowa,
i on nam się zatrzyma, to nie da się łatwo po tym chodzić,
żeby ustalić, co żeśmy przesłuchali, co żeśmy nie przesłuchali.
W tym WhatsAppie niewebowym było to dużo prostsze.
A teraz po prostu ja nie umiem z tym zupełnie pracować.
Mówisz o tym, że po prostu cały czas się oznacza,
jako przeczytany, tak?
Tak, właśnie.
Też nie da się ustalić, co żeśmy przesłuchali, a czego nie.
Tak, dokładnie. No i jak mamy wiadomości pomieszane ze tekstowymi, z głosowymi,
to nie da się tak łatwo po tej liście wiadomości przemieszczać po kolei.
Dawniej to chodziło się strzałką i dało się jakoś za tym spokojnie nadążyć.
A teraz w tym interfejsie webowym, to nie wiadomo kiedy po prostu trzeba wyłączyć ten tryb przeglądania w NVDA, kiedy trzeba go włączyć.
To najlepiej, żeby cały czas był wyłączony, tak. Cały czas był w trybie formularza najlepiej.
Aha. Dobrze, to dziękuję serdecznie.
Dzięki Pawle. Dzięki, pozdrawiamy.
Trzymaj się również, dobrej nocy, pozdrawiamy cię serdecznie.
No dobrze, to teraz myślę, że możemy przejść do kolejnego tematu, który mamy na naszej liście, ale nie.
Zanim jeszcze przejdziemy do tematu, to mamy jeszcze, skoro Paweł poruszył temat Whatsappa,
to na Whatsappie dwie wiadomości głosowe nagrał do nas Sylwester.
Ja się nie bawię z tych kanałów kluczy, główek piloty i te inne aplikacje i te audiodeskrypcje.
Ja się nie bawię z tym, mnie to denerwuje strasznie.
Niestety, jestem zawiedziony po prostu tą AI, tym chatem GPT, tym OpenAI.
Niestety, mi to przeszkadza. Nie pomaga, tylko mi to przeszkadza.
Nie jestem w stanie tego obsługiwać. Po prostu jestem tym zawiedziony.
To mnie bardziej denerwuje brak audiodeskrypcji.
To nawet trochę Sylwestra rozumiem, przynajmniej pamiętam kiedyś, że też jak tych treści z audiodeskrypcją w zasadzie nie było, czyli lata, lata temu,
to tak człowiek mówi, no jakiś tam jeden film, jeden serial z audiodeskrypcją, coś tam jest, to jeszcze pamiętam, o, chyba twierdza szyfrów, co była oferowana przez PZN
I tam trzeba było jakoś w ogóle te licencje zaczytywać ze strony internetowej i wtedy można było sobie to oglądać.
Znaczy ta biblioteka swego czasu, nie?
Tak, tak, tak, tak.
Właśnie.
No, natomiast to tak sobie wtedy właśnie też tak mówię, to jedna jakaś produkcja z audiodeskrypcją i tak wszystko jest bez i tak sobie człowiek jakoś radzi.
Ale w dzisiejszych czasach, no ja powiem szczerze, że mi się optyka zmieniła diametralnie.
Ojej.
Ja raczej też pomijam, no.
Ja pomijało, no.
bo kiedyś sam też takie miałem. Natomiast Sylwestrze, ja zachęcam, żebyś jednak trochę popróbował sobie tej audiodeskrypcji.
Oczywiście wiadomo, nic na siłę i możesz w dalszym ciągu gdzieś tam, powiedzmy, trwać przy swoim stanowisku,
bo to absolutnie nie mam zamiaru nikogo do niczego przekonywać, bo każdy ma swój rozum i wie, co, powiedzmy, co jest dla niego okej,
A co dla niego jest nie okej? Natomiast no, ja zdecydowanie zachęcałbym, żeby się jednak z tym trochę bardziej zapoznać, bo zwłaszcza w nowych produkcjach i ja mam wrażenie, że to się też zmieniło.
Kiedyś w filmach czy serialach było zdecydowanie więcej dialogów, różnych efektów nawet akustycznych, po których można było wywnioskować, co tam się właściwie na tym planie dzieje.
Natomiast teraz bardzo często jest tak, że nie mamy jakichś tam efektów, tylko na przykład jest po prostu dynamiczna albo spokojna albo jeszcze jakaś inna muzyka i tak powiedzmy przez kilkanaście albo kilkadziesiąt sekund i w zasadzie no nie wiesz co się dzieje na tym ekranie, nie wiesz co tam się pojawia.
Albo zbyt szybka akcja i zbyt zmieniające się sceny w małej ocenie.
Tak, zależy co kto lubi oglądać, no bo faktycznie są takie gatunki, gdzie tej akcji jest więcej.
Ja pamiętam taki na przykład jakiś odcinek Black Mirror, czyli Czarne Lustro, Czarnego Lustra na Netflixie, który w zasadzie dla nas bez audiodeskrypcji byłby nie do oglądania.
Bo po prostu tam było bardzo mało dialogów, było bardzo dużo różnej scenerii, jakiegoś takiego chyba pościgu, że tam ktoś kogoś gonił.
…przez długi, długi czas, a że ta osoba uciekała jakoś tam samotnie, no to do kogo miała gadać? Nie było sensu.
Więc taki materiał dla nas na przykład z audiodeskrypcją to, no, zbawienie, bo po prostu bez tego to nie bylibyśmy w stanie wywnioskować z tego absolutnie niczego.
I byłby to dla nas film totalnie, czy serial totalnie nie do obejrzenia, przynajmniej ten odcinek.
Natomiast co do czata GPT, co do OpenAI i co do tej sztucznej inteligencji, no gdybyś mógł troszkę jednak rozszerzyć kwestię tego, co cię denerwuje, z czym masz problem, może będziemy w stanie jakoś pomóc, bo to się niby też takie łatwe wydaje, że ten czat GPT to w zasadzie tam się do niego tylko pisze i jak się do niego napisze, to on coś odpowie,
Ale jednak to też jest kwestia tego, że no trzeba odpowiednio do niego pisać.
Odpowiednio szczegółowo trzeba wiedzieć, co się od niego chce.
No i wtedy jest szansa uzyskać naprawdę fajne efekty.
Więc ja też polecam się nie zniechęcać, bo myślę, że…
Ale odsłuchać naszej audycji z bodaj miesiąca temu.
Dokładnie, dokładnie, tam…
Sporo o tym mówimy.
Tak, sporo o tym jest, sporo, sporo treści.
Michałem Kasperczak i Kamilem.
Także warto posłuchać.
A jeżeli będziesz miał jeszcze jakieś konkretne pytania,
no to myślę, że jakoś tu postaramy się pomóc,
albo przynajmniej coś podpowiedzieć.
Maćku, ty się chyba w jakąś podróż wybierasz,
bo tak przed momentem, kilkoma godzinami,
nam tu plan podróży naszkicowałeś do słonecznej Italii,
A teraz będziesz nam opowiadał o zakupie biletów.
Tak, istotnie. Jakoś, nie wiem, tak mnie coś właśnie kusi, żeby wreszcie tym samolotem,
i żeby wreszcie gdzieś tam do Włoch, i żeby sobie ten Apple Store w Mediolanie tam zobaczyć.
No i tak, i żeby jeszcze, żeby aż tak gorąco nie było, no to po prostu październik.
No i tak, tak sobie testowałem właśnie Wizzera i Ryanaira.
Znaczy Ryanaira to tak bardzo pobieżnie, więc o nim nie będę w stanie aż tak powiedzieć,
poza tym, że mi się spodobało, że akurat w Ryanairze, jeśli chodzi o wybór dat,
to tam miesiące są fajnie pooddzielane nagłówkami i potem idąc w prawo
można sobie wybierać dni, ale w sumie to tyle o Ryanairze.
Dlatego, że potem jeśli chodzi o te daty, to się dosyć mocno zamotałem.
Zwłaszcza jeśli coś nie do końca mi się wybrała data…
jakby data powrotu gdzieś tam mi się chciała wybrać wcześniej chyba,
niż data wylotu, plus jeszcze to nie był ten dzień.
W ogóle coś się tam dziwnego zadziało.
A że to było w nocy i potem już mi się nie chciało
i znowu do tego wracać, więc bardziej się skupiłem na tej…
na Weezerze.
No i
jest jest parę rzeczy w sumie, o
których warto wiedzieć, bo
jak pierwszy raz odpalamy apkę
i klikniemy sobie w loty, czy
tam wyszukaj lot, to tam nie
do końca się cokolwiek dzieje.
To znaczy nawet jeżeli sobie
wybierzemy z
i wybierzemy sobie potem tam do.
Co swoją drogą nie jest
To jest niejak oznajmiane, co znaczy to jest po prostu dla voice-overa zwykły, powiedzmy, tekst.
Nie żaden przycisk, ani pole tekstowe, ani nic takiego.
Ale po wejściu otwiera nam się już zgrabna wyszukiwareczka, w której sobie tam możemy podpisywać wszystko.
No tylko, że potem jak tam damy wyszukaj loty, co już jest na szczęście przyciskiem,
to nie dzieje się w sumie nic i należy sobie zdawać sprawę, że wtedy sobie trzeba wejść w menu,
które jest też jakoś tak śmiesznie oznajmiane.
Może w sumie to tak na szybko pokażę,
jak to ogarnąć, tak, bo mówię, to są…
To są po prostu…
Ty, gdzie ja mam…
Perfidnie mi się wywaliła, znaczy, dobra.
Dobra.
I o co mi tutaj chodzi?
O, właśnie w to należy kliknąć, w Icon Menu Cobalt.
I tam wybrać sobie coś takiego jak…
Zarezerwuj loty. O, właśnie tutaj.
I wówczas…
Tak, ja już tutaj mam wstępnie powpisywane, sobie wpisałem.
No tak teoretycznie jak chciałem.
No, no, tu mi się ładnie wszystko pozapisywało. Ci pasażerowie, to też niby tam jest jakiś regulator, ten suwak,
ale to nie do końca chce działać, ale plus i minus też są przyciski, więc też działają, więc może nie będziemy tu wchodzić.
I rzeczywiście się to zwiększają, zmniejszają ci pasaże, liczba jest okej.
No i wyszukaj loty. Ten przycisk, szczerze nie wiem, być może tam czyści te preferencje.
Nowe wyszukiwanie, tak, jeśli chcemy rozpocząć całkiem nowe.
Fajnie, ale może przejdziemy sobie do…
O, może jeszcze tak. Przejdźmy sobie do tych dat, bo tutaj jest też taka ciekawa sprawa.
Tu niestety tych nagłówków nie mamy.
Natomiast…
Aha.
A ten przycisk służy chyba do zamiany powrotu do tych stacji generalnie,
celu z punktem startowym.
Czekajcie.
Tu.
I teraz, niestety tutaj nie ma nagłówków jak w Ryanairze.
Niestety, to jest… Aż chciałoby się, ale…
No i tu musimy się bardzo eksploracją posiłkować, nie?
No bo nie zrobimy nic.
28, 20, 14, 8, 1, październik 2025.
O, tu mamy tak… Jakbyśmy chcieli inne miesiące, no to…
Prawda, ekran w górę trzema palcami, żeby na przykład na listopad.
2, grudzień 26, 4, 12, 13, 6…
O, tutaj troszkę przeholowaliśmy z…
I w górę cały czas ciągle tym palcem…
No ten kalendarz, on jest właśnie taki nijaki, ale…
Ale jest.
Tu na przykład zmienimy sobie na…
Jak jesteśmy na tym październiku, idziemy sobie elegancko w prawo.
Ja na przykład zmienię na…
szóstego.
A, bo nie, na piątego października.
O! Teoretycznie skoczył do trójki,
ale się wybrała… ten drugi komunikat
to jest odnośnie do…
Rzeczywiście się wybrała piątka.
I teraz co my mamy, jak idziemy sobie
na górę ekranu?
To się nam ustawił wylot.
I to nie do końca tutaj jest
oznajmiane nam, co tutaj właściwie mamy, nie?
Więc spróbujmy wybrać tę piętnastkę
i zobaczycie, co się stanie.
O, piętnastka się wybrała.
No tylko my tak naprawdę nie wiemy.
O, i już wiemy. Tak naprawdę. Czyli wystarczy sobie…
Bo ja jeszcze myślałem, że trzeba sobie wybrać…
najpierw… najpierw…
wylot, przylot. Jeżeli byśmy chcieli znowu zmienić datę,
na przykład wylotu, bo stwierdzimy, a nie, my nie chcemy tego,
który ja tam wybrałem, piątego, czyli jednak w sumie ósmego, bo coś tam,
To znowu sobie musimy kliknąć u góry ekranu w wylot i wtedy nam znowu zostanie podświetlony tak naprawdę ten wylot, który nie jest niejako znajmiany.
I co? No i możemy te datę zmienić, ale żeby nie chcemy zmienić, tylko OK przycisk.
No…
No i…
I tutaj wyszukaj loty, też to jest fajnie zrobione.
No, czyli mamy tutaj jeden lot.
Po wejściu w niego…
Niestety nie dostajemy informacji o odświeżeniu,
o tym, że się otworzyło coś nowego, ale się nam na szczęście wybrało.
Dobra, może… o, tak.
Ale nie jest wybrane. To powinno być oznajmione jako wybierz. I wtedy jakby sobie to wybierzemy, to wtedy nam się ten pakiet wybierze. To co jest na pewno wybrane, to ten Basic.
Zaraz, dojdę do tego.
Wiadomo, ceny wzrostowe bardziej i tak dalej.
O, kontynuuj do. Czyli tak naprawdę to jest przycisk… znaczy tylko przycisk.
Informacja, jakby kontynuuj wybór pakietu Basic, czyli tego, który tak naprawdę się nam tu wybrał domyślnie.
Można zmienić, można…
Travel light, basic.
I tak dalej.
No i co? Gdzie tutaj tak naprawdę to zatwierdzić? Gdzie to zmienić?
Ano.
Dobra.
Nawet jak klikniemy sobie ze złotówy tutaj.
Też tak można. Ale jak ja dałem, to kontynuuj do…
Tylko, że to nam tutaj nic nie daje, nie?
No, więc trzeba sobie dopiero w ogóle kliknąć w to, co było to kontynuuj do.
Idę w lewo. Puk.
O.
A teraz…
O. I jak dałem to kontynuuj do, to dopiero miałem ten przycisk dalej.
To gdzieś on się nagle pojawił, tak?
U dołu, tak.
I to jest wybrany ten lot pierwszy.
A teraz ten drugi lot.
I wybieramy dokładnie to samo analogicznie do tego drugiego lotu.
I tam już potem no się będę musiał zalogować i tak dalej,
Więc tak naprawdę nie pokażę dalej, bo też konta na razie póki co nie mam.
Natomiast kwestia jest taka, że…
Bo swego czasu pamiętam jak…
Jeszcze, o, ale gest przycisku wróć działa elegancko.
A też już, tutaj już nie.
Że Mikołaj Hołysz swego czasu mówił o tym,
że problem duży, bardzo duży,
z dostępnością tych wszystkich usług jest.
Ja potwierdzam, aplikacje lotnicze, wszelkiego rodzaju, to jest dramat, jeżeli chodzi o kwestie dostępności.
Ale tu chciałem pokazać, że się da, no bo w Ryanairze, mówię, zamotałem się totalnie.
Ale czy Ty, Maczku, bo mówisz, że się da, czy Ty już te bilety kupiłeś?
Wiesz co, jeszcze nie. Ale to był wybór z takimi problemami, jak wybór daty, jak wybór pasażerów.
Wiem, wiem, ja wiem. Tylko jestem ciekaw, jakie problemy będą jeszcze dalej. Bo ja akurat, jak ostatnio kupowałem bilety, to kupowałem za pomocą takiej aplikacji, ona się nazywa Kiwi.
I to jest nadal tam możliwe?
Wiesz co, no właśnie chciałem o tym powiedzieć, że dostępnościowo to jest też dramat i kiedyś było odrobinę lepiej, ale te bilety kupowałem z dość dużym wyprzedzeniem.
W międzyczasie zdarzyło się jeszcze bardziej popsuć, więc teraz to też bym tego kiwi nawet nikomu nie polecał. Jest taka aplikacja, ona się nazywa Skyscanner.
I ta aplikacja jest nawet w miarę dostępna.
Powiedziałbym obsługiwalna. Tylko, że ten skyscanner to jest tak naprawdę pośrednik,
który i tak odsyła nas do jakichś tam innych stron linii lotniczych.
A wstępnie wypełniony już masz?
Tak, tak, tak, tak, tak. Dokładnie tak jest. Dokładnie tak jest. I trzeba po prostu i tak już tam potem dokonać tego zakupu, ale być może to jest jakaś opcja.
Też jakiś czas temu to Arek Świętnicki wspominał, że on na przykład kupuje przez Booking.com, bo Booking.com też ma bilety.
Też w sumie ma lotnicze.
Tak. I tam ponoć jest to całkiem, całkiem dostępne. Pytanie, no jak to cenowo wychodzi, to też trzeba by było porównać z innymi…
z innymi ofertami. Natomiast no jest…
Mówi się, mówi się generalnie, że najlepiej właśnie u przewożnika, nie?
Także…
Wiesz co, teoretycznie tak, w praktyce bywa z tym bardzo różnie,
bo ci pośrednicy typu właśnie jakieś Kiwi albo inne, to oni też potrafią mieć
te cedy nawet takie nienajgorsze. Także no to już jest wszystko kwestia
po prostu tego, co kto tam upoluje.
To są porównania wszystkiego, nie?
No, no, kwestia, kwestia, naprawdę.
Jakby bardziej chciałem pokazać to, że ten wybór i taryfy jest możliwy… czy intuicyjny?
No nie bardzo. Dlatego chciałem pokazać, jak to gdzieś tam obejść i tej daty, nie?
Jak to sobie tam ogarnąć. No potem już stricte zakup. W sumie, nie wiem, no podejrzewam,
że po zalogowaniu się, no to tam pewnie, co jeszcze? Bo tam tak naprawdę to był trzeci krok z pięciu.
Tam czwarty, to po zalogowaniu, to pewnie tam jeszcze podsumowanie tej płatności, tak samo.
No i jeszcze pamiętaj o odprawie.
I odprawa, tak, no.
Odprawa, czyli podanie tych wszelkich danych, data urodzenia na pewno, dane z dowodu tudzież paszportu, w zależności od tego, gdzie tam będziemy chcieli lecieć.
No i te formularze też dobrze, żeby były dostępne.
I to też trzeba sprawdzić, czy to jeszcze będzie dostępne.
Tak, bo to jest akurat, ja w tym kiwi miałem akurat ciekawą też historię, jeżeli chodzi o zamawianie tych biletów, bo no się zagapiliśmy i nie wpisaliśmy z moją drugą połówką swoich podwójnych imion, że tak powiem.
A tam jest taka wyraźna adnotacja, że musi być zgodnie z tym, co jest w dowodzie, no bo to będzie sprawdzane.
I w jedną stronę to wpisaliśmy dobrze, ja potem patrzę, kurcze, a w drugą stronę wpisane są tylko pierwsze imiona.
No i co trzeba było zrobić? Trzeba było się odezwać do tych, którzy tam operują tym kiwi, żeby to poprawili.
No i cóż, miałem wtedy przyjemność porozmawiania z chatem jakimś GPT albo podobnym, który był tłumaczony na język polski przez DPL-a, jeszcze żeby było ciekawiej.
Tam chyba dwa po prostu narzędzia ze sobą korespondowały.
No i zajęło mi… ta zmiana tych danych zajęła mi chyba z tydzień.
Dlatego, że oczywiście ten automatyczny bot, konsultant twierdził, że on już eskalował to dalej, że przekazał to do jakiegoś tam kolejnego działu i że będzie to rozwiązane.
Ja w końcu napisałem, proszę cię, połącz mnie z człowiekiem. No i wtedy jakoś to wszystko przyspieszone zostało i zaczęło to działać, więc…
No taka to, taka to też historia, ale to, to trzeba też mieć na uwadze, żeby te wszystkie rzeczy i dlatego też zwracam uwagę, że fajnie jakby to było wszystko dostępne,
bo te wszystkie rzeczy, no, warto wypełniać tak, jak to powinno zostać wypełnione i wszystko powprowadzać, bo co prawda na terenie Unii Europejskiej to raczej nie będzie to nigdy jakiś tam problem,
Jak co tydzień, Bartek po tej stronie się kłania. Witajcie.
Cześć Bartku.
Michale, najpierw mam taką sprawę do Ciebie. A propos aplikacji IKOI, tego asystenta głosowego.
Czy on jest w ogóle dla nas dostępny, bo dzisiaj podczas konfiguracji,
bo dzisiaj po raz pierwszy chciałem z niego skorzystać,
żeby uzyskać jedną informację.
Konkretnie numer klienta, chciałem to po prostu sprawdzić,
bo dzwoniąc na infolinie chciałem się dowiedzieć właśnie,
czy w aplikacji ICO w ogóle tą informację można uzyskać.
I informację zwrotną dostałem taką, że za pomocą tego asystenta głosowego.
I podczas konfiguracji dostałem informację,
że ten asystent głosowy jest dostępny z voice-overem,
Wiem, że tam jest przycisk mikrofonu, ale po pierwsze nie mogłem go w ogóle znaleźć na stronie głównej aplikacji, a kiedy już znalazłem, to VoiceOver w ogóle przestał działać.
I tych przycisków w ogóle nie było.
Powiem Ci tak, on mi jakoś zniknął, ale ja nie wiem czy ja go…
Jeżeli chodzi o tego asystenta głosowego, to powiem Ci Michale, że ja go też znalazłem nad kartami.
Wiesz co, ja nie wiem, bo ja pamiętam, że ja sobie trochę przestawiałem tych różnych kafelków w aplikacji.
Część rzeczy sobie powyrzucałem. Nie pamiętam, czy asystent był osobnym kafelkiem, bo może tak się u mnie stało.
Ale ja za nim nie tęsknię, bo ja tak jak mówię, ja go po prostu nie używałem, jakoś nie mam…
W zasadzie ja też go nie używam, tylko do tej jednej informacji, żeby rzeczywiście to sprawdzić.
Tutaj też właśnie ten kolega, zresztą niewidomy, nie ma dostępu do swojego numeru konta w formie papierowej.
I skoro pojawiła się taka możliwość, to właśnie chciałem to przetestować u siebie.
Ale mówię, jakby to, co pisali podczas tej konfiguracji, by na mnie się nie sprawdza,
Bo nie wiem czuć tą haptykę, ale dopiero jakby pomaga zamknięcie aplikacji bez wylogowania, więc nie wiem czy w ogóle rzeczywiście to była prawda, co pisali.
Wiesz co, to trzeba w takim razie zgłosić po prostu…
No tak jak z tymi bankomatami zgłosiłem. Zobaczymy teraz na efekt de facto. Będziemy czekać pewnie troszeczkę czasu, bo zanim się za to zabiorą, zanim rozpoczniemy to linię trochę czasu.
Jeszcze znowu powrót do zeszłotygodniowego tematu.
A propos tego konta Microsoft, o którym tutaj wam wspominałem.
Rzeczywiście dodałem to drugie swoje konto Microsoft,
ale dodam jeszcze tylko na marginesie, że do tego aktualnie zalogowanego
jakimś cudem naprawdę udało mi się to hasło odzyskać,
bo kiedy próbowałem odzyskać w sposób klasyczny, klikając przyciski,
z przyciski, że nie mam dostępu do tych urządzeń, czyli ani do numeru telefonu,
ani do tego adresu e-mail, znaczy się, nie, przepraszam, do tego samego numeru
telefonu, to raz, że z tą zagadką dźwiękową było ciężko, bo tam jest
niżej niż 8 kHz bodajże, te, te słowa są wymawiane, które później trzeba
wpisać, a dwa, nie przeszła forma, że trzeba było tam jeszcze wpisać
…tematy i chyba adresy e-mail ostatnio wysyłanych wiadomości.
W ogóle też nie wiem, na czym to miało polegać.
Ale jakimś cudem to hasło udało mi się odzyskać.
Tylko, że jak już mam jakby skonfigurowane te dwa konta,
to jakby nie mogę się przyłączyć na to drugie.
I żeby to pierwsze, na które było wcześniej zalogowane, usunąć.
Ale czy jak zamykasz komputer, to nie masz czegoś takiego,
Nie, to właśnie nie jest w formie użytkownika, tylko właśnie dopiero w ustawieniach, jak mamy zakładkę konta i tam jest zakładka konta i adresy e-mail.
Jeżeli dobrze pamiętam, to tam to dodałem. I dzisiaj jeszcze to samo konto, to swoje dodałem w miejscu użytkownicy innych.
Kont coś takiego jakoś tak to się nazywało. To jest tam dwa tabulatory dalej w zakładce konta. Ale sytuacja jest ta sama.
No jakby musiałbyś dodać sobie użytkownika w systemie. Być może ty dodajesz gdzieś jako jakieś, nie wiem, konto pocztowe albo coś.
Najprawdopodobniej tak właśnie może być. Tylko wtedy, gdybym zrobił drugiego użytkownika, to wtedy przez tego drugiego użytkownika rzeczywiście byłaby możliwość usunięcia tego pierwszego konta Microsoft.
Okej, to jeżeli możesz mnie tylko Michalina kierować, bo jeszcze sam tego nie robiłem w którym miejscu, to to już w zakładce konta?
Panel sterowania konta i tam…
Aha, w panelu sterowania i w ustawieniach. Okej, no dobrze, no to jeszcze wtedy…
Spróbuj tam, spróbuj tam, może to rozwiąże twój problem.
No dobrze, no to nie zabieram pan dalej czasu antenowego, bo północ już niedługo, a jeszcze gry…
A tematów jeszcze, tak, tak, tak.
Więc może dzisiaj znowu będziecie szli na rekord.
Do usłyszenia, a ja w razie co też trzymam rękę na pulsie i pewnie za tydzień znowu się usłyszymy znowu z jakimś tematem.
Jeszcze raz Michale, tutaj dziękuję za wskazówki, ale oczywiście pozdrawiam Was wszystkich serdecznie.
I cóż, do usłyszenia.
Dzięki Bartku za telefon, dobrej nocy, pozdrawiamy Cię serdecznie.
No to skoro Piotrze zostałeś wywołany do tablicy a propos tych gier, no to co tam nowego?
W co można pograć?
W co można pograć? Dzisiaj będzie na szybko w sumie, bo mam tylko dwie informacje,
ale raczej informacje pozytywne. Będzie o aktualizacji i będzie o nowej grze,
o której niedawno się dowiedziałem. Zaczynając od aktualizacji,
dawno nie słyszeliśmy nic o Hearthstone, a konkretnie o ustawkach.
No i to się zmieniło, bo przygotuje nam się kolejny sezon.
Co będzie w tym sezonie?
No, jak to przystało na nowy sezon w Herbstonie?
Zmian będzie dużo.
No, wiadomo, zostanie usunięte to, co mieliśmy w sezonie bieżącym,
czyli to były anomalie, były to ozdoby.
I taką pierwszą dużą zmianą będzie rotacja stronników.
Jak to zwykle bywa, kiedy mamy nowy sezon,
to bardzo często pojawiają się nowi stronnicy,
Czasami też jacyś stronnicy, którzy byli kiedyś, są często przywracani i tak teraz też będzie.
Generalnie będzie ponad 100 zmian, jeśli chodzi o stronników, także całkiem dużo.
Włącznie z tym pojawi się nowe słowo-klucz, który dostaną niektórzy stronnicy.
Będzie to słowo-natchnienie.
Będzie to generalnie polegało…
Będzie to działo w ten sposób, że kiedy jakiś stronnik atakuje,
no to powoduje, że albo on, albo ci inni stronnicy mają jakiś efekt.
Na początku będziemy to widzieli, jeśli chodzi o smoki i kołcowie,
że tam będzie najwięcej natchnień, co nie znaczy, że nie pojawią się
W innych miejscach, bo na przykład upiorna ara dostanie też to słowo klucz.
Ona generalnie właśnie tak wcześniej działała.
Więc tych zmian będzie więcej.
Oprócz tego, że mamy właśnie stronników, mamy słowo klucz, natchnienie.
Będzie nowy bohater, który będzie pozwalał na szybkie odkrycie
z natchnieniem, więc tak z reguły też jest, że pojawi się jakiś nowy bohater,
który wykorzystuje daną nowość i tak jest tym razem również.
No i oprócz tego piraci też dostaną nowe zaklęcia,
mianowicie będą to zlecenia i zlecenia pewnie będą wymagać od nas wykonania
jakiegoś zadania. Jeśli to zadanie wykonamy, no to dostaniemy ładną nagrodę
w postaci chyba złota, jeśli dobrze zrozumiałem. Także coś, co jak najbardziej
W rozgrywce może przydać.
I ponad to wszystko jeszcze wracają do gry zadania, które zresztą też wróciły do tradycyjnego Hearthstone’a,
no bo zaginione miasto Ungoro też na zadaniach polega głównie, zadania powróciły.
No i Blizzard tutaj postanowił podobnie poczynić w ustawkach, z tym, że tutaj też mamy kilka zadań, które wróciło,
ale też pojawiają się nowe zadania.
Jak ktoś nie grał, wyglądają tak, że na czwartej turze
wszyscy gracze dostają trzy albo cztery zadania do wyboru.
Teraz nie pamiętam.
Generalnie każde zadanie będzie od nas wymagało jakiegoś celu
albo wydania określonej ilości złota, zagranie stronników konkretnego typu,
zaatakowanie jakąś ilość razu.
Różne generalnie te zadania są i też są różne nagrody
Zależnie od tego, co lubimy, jakimi stronikami lubimy grać,
co nam gra to proponuje, to musimy odpowiednie zadanie dobrać
i je wykonać, żeby tę nagrodę zdobyć,
która, miejmy nadzieję, pomoże nam w rozgrywce.
Więcej informacji będzie w podlinkowanym poście na blogu Blizzarda.
A nowy sezon rozpocznie się w przyszłym tygodniu, 5 sierpnia,
kiedy patch 36.2 pojawi się oficjalnie.
i ten nowy sezon ustawek się rozpocznie.
Przepuszczam, że mod Hearthstone Access
też będzie zaktualizowany w tym samym czasie,
więc nie powinniśmy mieć problemu z tym,
żeby sobie w te nowe ustawki pograć.
I jeszcze jedna nowość.
Coś dla fanów zapasów.
Wszystkich różnego rodzaju od wrestlingów,
jakichś freefightów, tego typu generalnie dyscyplin.
Jeśli was takie rzeczy interesują i zastanawialiście się,
czy poradzilibyście sobie w zarządzaniu federacją wrestlingową,
no to pojawiła się bardzo ciekawa gra, która pozwoli wam się w tym sprawdzić.
Gra nazywa się Grunt The Wrestling Game.
Gra jest zupełnie dostępna, zupełnie za darmo,
na portalu itch.io na system Windows.
Opis gry generalnie ewidentnie był napisany przez AI,
No ma trochę dostępnych opcji, bo możemy tak naprawdę zarządzać wszystkimi aspektami naszej federacji.
Tworzyć nowych zapaśników, którzy będą walczyć ze sobą.
Mogą nawet między nimi tworzyć się jakieś rywalizacje.
Możemy tworzyć różne wydarzenia z dodatkowymi elementami.
Różne typy walk są wspierane.
A może po prostu pozwolić, żeby gra więcej stuleci stworzyła sama.
Ale też ci zapaśnicy mogą mieć własne jakieś ataki, które też możemy sami stworzyć.
To też tam mamy rozbudowany system statystyk, który tym wszystkim zarządza,
więc to nie jest też tak, że to po prostu jest jakiś tekst,
tylko tam faktycznie system walki ma takie trochę elementy RPG,
bo tam są jakieś kości rzucane, są obliczenia robione,
możemy różne prawdopodobieństwa ustawić.
Są różni sędziowie, którzy różnie podchodzą do różnych ataków,
różnych sytuacji.
Jeśli lubicie takie rzeczy, to nie jest tutaj co robić, mam wrażenie.
Gra jest zupełnie darmowa i co ciekawe, jest grą tekstową.
Otwiera nam się okienko wiersza poleceń
i po prostu sobie nawigujemy takim tekstowym menu.
Generalnie wygląda to tak, że wpisujemy odpowiednie litery,
żeby nawigować po różnych menu w tej grze.
I mamy też taką delikatną oprawę dźwiękową
Podczas takiej walki mamy głos komendatora, który tam co jakiś czas będzie różne rzeczy mówił.
Także całkiem ciekawa gra. Jeśli lubicie zapasy, to myślę, że warto się nią zainteresować.
Będzie oczywiście link w komentarzu, a pewnie do tematu gier jeszcze wrócimy w przyszłym tygodniu,
no bo będzie koniec miesiąca, więc tutaj pewnie jeszcze nowości i aktualizacji pojawi się więcej.
Ale nie to wszystko z waszej strony, bo cały czas do nas dzwonicie. Mamy kolejny telefon. Ktoś z nami tym razem?
Dobry wieczór. Jeszcze raz Paweł Podolski się wkłania. Tym razem pytanko króciutkie odnośnie Hearthstone’a.
A mianowicie chciałem się zapytać, co się stało z Aleną? Ona zniknęła? Co się tam w niej pozmieniało i przestała być dostępna?
Czy ona wróci? Kiedy wróci?
Czy może można coś, nie wiem, potestować?
Potestować?
Tak, tam coś się faktycznie z tą areną zmieniło,
co wymusiło na developerach Harrison Accessa jakieś zmiany.
Kiedy te zmiany zostaną wprowadzone?
Nie wiem, szczerze mówiąc, nie dostałem żadnej informacji.
Czy to będzie zrobione?
Myślę, że tak, ale obserwuję tutaj serwer na Discordzie
I żadnych informacji w tej sprawie na ten moment nie dostałem.
Czyli nie wiadomo, kiedy będzie dostępne.
A jeżeli chodzi o ustawkę, to 40. poziom to jest maksymalny, tak?
Potem to już nie ma sensu.
Chyba tak, 40 albo 50, teraz sobie nie przypominam.
Dobrze, to dzięki serdeczne.
Dzięki. Pozdrawiamy.
Pozdrawiamy Cię Pawle.
A tymczasem z wiadomości, które nadsyłacie do nas innymi kanałami,
Wiadomość tekstowa, tym razem LordKiller do nas pisze tak.
Mam pytanie, które kieruję szczególnie do Piotrka.
Chodzi o grę Sound RTS Ultimate.
Nie wiem, jak tam używać tych nowych funkcji, na przykład tryb FPS itd.
Ani kampania, ani readme nic o tym nie wspomina.
Jak można się nauczyć tych nowych rzeczy?
Albo jak wiesz, jak to się robi?
Chodzę, nie wiem, że w trybie pierwszoosobowym strzałki
Ale wolę standardowe, bo oni tam przechodzą przez przeszkody i w ogóle.
Ale dawałem spację, że niby atak na przykład i cisza, żadnej reakcji albo zmiany.
Jak to działa? Z góry dziękuję za odpowiedź. Miłego prowadzenia audycji dla Was wszystkich.
Przejrzyj sobie pierwszy post na wątku, gdzie autor to wszystko opublikuje,
bo tam jest cały rozpisany dziennik zmian i generalnie to wygląda tak, że jakaś nowa funkcja jest wprowadzona,
która dodaje nowe skróty klawiszowe,
to on w tym changelogu, w tej liście zmian, te skróty podaje.
Więc sobie możesz ten pierwszy post przetłumaczyć.
Ewentualnie autor jest Chin, więc angielski jest trochę łamany,
więc nawet jak ktoś zna angielski, to się ciężko czyta.
Ale można generalnie zrozumieć, jakie tam skróty są używane.
Ja teraz nie pamiętam, jak się to dokładnie robi.
W międzyczasie kolejne aktualizacje się pojawiły.
Ale generalnie pierwszy post w wątku,
Dlaczego tak późno tę aplikację lotniczą prezentujesz? Nie mogłeś dwa, trzy lata temu o tym powiedzieć. Dopiero dzisiaj prezentujesz aplikację lotniczą. Maćku, dlaczego tak późno?
Maćku, dlaczego tak późno?
Dlaczego tak późno? No dlatego, że tematem się zainteresowałem tak bardziej na poważnie, dopiero teraz to jest raz, a dwa…
Ja się wcześniej przymierzałem nawet do tego, ale ta dostępność była zwyczajnie jeszcze gorsza i tam się coś poprawia, więc uznałem, że nie będę pokazywać czegoś…
Dlatego między innymi Ryan’a Rania pokazałem, przy którym się mocno zamotałem, no bo to by była tym bardziej strata czasu.
No a, że wiem, że tu przynajmniej datę bez problemu, znaczy z problemami, ale się wie jak, można wybrać i tak dalej, no to dlatego też dzisiaj ta taka decyzja zapadła z mojej strony, że prezentuję.
Dziękujemy Sylwestrze za pytanie. Mamy nadzieję, że rozwialiśmy Twoje wątpliwości. Maciek tu odpowiedział szczegółowo i konkretnie. Ale Baćku, skoro jesteś przy głosie, to proszę bardzo, co tam z Uberem?
Tak, skoro w ostatnim tyfloprzeglądzie mówiłem, że do nich napisałem, powiedziałem jak, jak to zrobić i gdzie i tak dalej, no i zastanawiałem się, kiedy oni mi, szanowni, odpiszą, bo przez cały dzień nic, ale się okazało, że w środę, czyli dzień po tyfloprzeglądzie, zlitowała się jakaś dobra dusza, w sumie to chyba nawet dwie, no i mi odpisała.
Najpierw, zdaje się, mój imiennik był, jakiś tam w sobie.
No i stwierdził, że na tą moją postulat, odnośnie do Braila,
tego, że to jest niedostępne, to wpisanie do kierowców,
stwierdził, że oczywiście oni przekazują sprawę do odpowiedniego zespołu,
ale że z racji, że to jest bardzo rzadki przypadek,
nie wie jeszcze jak i kiedy dostanę odpowiedź,
w razie czego to będą aktualizować ten wątek itd.
No to ja się troszeczkę zirytowałem,
delikatnie rzecz ujmując, no bo niezwykle rzadki przypadek.
Jakby firma nie miała świadomości o czymś takim jak dostępność,
więc napisałem do nich, że ten niezwykły przypadek nazywa się
dostępność, po angielsku accessibility,
żeby nie było wątpliwości. No i napisałem im tam, że generalnie
Tak duża i poważna firma, prawda, działająca na skalę międzynarodową, no to właśnie dzisiaj no jednak powinna mieć świadomość o tym, czym jest ta dostępność i jak ją zapewniać.
I przede wszystkim, że mamy ADA w Ameryce. Tutaj IEA się nam zrobił. Akty Europejskie Dostępności, prawda?
No gdzieś tam, że zwłaszcza też jak działają na terenie Unii, że to jednak, no mają obowiązek, żeby ten zespół jednak do spraw dostępności
mieć, żeby tam zgłaszali, żeby można było zgłaszać te różne rzeczy i tak dalej.
Żeby te aplikacje jednak działały i tak dalej.
Żeby usługi były dla nas dostępne i tak dalej i tak dalej.
No i napisał, a w tym…
Potem już chyba odpisała sympatyczna Justyna, że okej, że oni to przekazują.
Też do tego zespołu, że bardzo dziękują i tak dalej.
No i ja tam jeszcze między innymi postulowałem i też zresztą zachęcam innych w sumie,
żeby w tej sprawie pisali.
Skoro już wiecie jak,
jak to zgłaszać, na iOS-ie przynajmniej,
to żeby właśnie pisać o to,
co mają w Ameryce, w sumie czego nie mamy my.
Czyli m.in. ta opcja zwolnienia
z opłaty za czas oczekiwania, o której swego czasu
jakiś czas temu mówił Mikołaj też.
No i o różnych innych rzeczach,
których byśmy chcieli.
Nie wiem, czy Mikołaj czy ktoś inny mówił też o tym, że jeżeli pies-przewodnik to, że tam w Ameryce są zwolnieni z tej opłaty za Uber Pets, tylko płacą za Uber AX, czyli tą najtańszą taryfę, najtańszy plan.
Napisałem im właśnie, że dobrze by było, żebyśmy tutaj mieli też w Polsce możliwość przesłania tak naprawdę skanu orzeczenia o stopniu niepełnosprawności.
żeby to nas też uprawniało do zwolnień z tych opłat dodatkowych.
Czy to, żebyśmy dzięki temu sobie mogli w profilu ustawić,
czy się poruszamy sami, czy z psem przewodnikiem asystującym,
czy to jesteśmy niewidomi, czy potrzebujemy jakiejkolwiek pomocy,
czy biała laska i tak dalej, żeby to już kierowca miało.
Skoro kierowca ma wpisane, że jest kierowca niesłyszący,
komunikuje się wyłącznie za pomocą tekstu i pasażer to wie,
No to, żeby kierowca też to miał. No, też zasugerowałem, że jeżeli mamy to orzeczenie, to żeby nas nie obowiązywały te felerne punkty odbioru, które są w większych miastach, w bardziej zabytkowych częściach, np. miasta jak Kraków, Stare Miasto, Kazimierz itd., gdzie te punkty odbioru też są niedokładne, to znaczy może i nawet dokładne, tylko aplikacja też często gęsto szwankuje.
No jest problem z tym odbiorem i jak się pisze w wiadomości do kierowcy adres, no a teraz to jest też trudno napisać jak brail nie działa, tak jak trzeba.
No i ten kierowca musi tam się, prawda, pieklić i troić, dwojlić, żeby sobie tam ten adres wpisać, żeby dojechać i ten…
A tak to by miał bez większego zamieszania. Tego typu właśnie postulaty też wystosowałem. Zobaczymy dalej co z tego będzie.
Ja też zachęcam wszystkich pozostałych korzystających z Ubera, no żeby tego typu do nich prośby kierować.
Janusz, może w końcu się doczekamy tych czasów, że tak naprawdę kierowcy będą od samego początku poinformowani,
że my nie widzimy i że siłą rzeczy ich nie znajdziemy i tak dalej, żeby nie trzeba było do nich pisać i tak dalej.
Po prostu, żeby nas prawilnie odebrali, prawda, i tak naprawdę z adresu, stricte z adresu.
Nawet jeżeli jest zakaz wjazdu dla zwykłych aut, a tam, gdzie taksówki mogą podjechać,
to żeby też podjeżdżali, żeby się nie bali.
W tym momencie, jak jadą po, prawda, niewidomego pasażera, też są jakby niepatrzeć, uprzywilejowani,
zwłaszcza jeśli ten dany pasażer jest tym kierowcą i w razie czego może wytłumaczyć co i jak, nie?
Zobaczymy, co z tego wyjdzie, czy Uber się do tego wszystkiego ustosunkuje.
Ja aktualizowałem aplikację, bo wyszła aktualizacja.
I dla Was wszystkich chciałem przetestować, czy działa ten nieszczęsny Braille.
No jeszcze niestety nie działa. Nie jechałem nigdzie, ale zamówiłem sobie po chamsku tego Ubera.
I próbowałem wpisać do kierowcy.
Nie dało się, chciałem tylko sprawdzić, czy błąd naprawiono. Nie naprawiono, więc przejazd anulowałem sobie elegancko.
Zobaczymy. Ja w każdym razie będę informował na bieżąco, się będę dzielił tym, co tam w Uberze piszczy.
No i cóż, jeszcze raz apeluję, piszcie i zgłaszajcie.
Tak, bo im więcej takich zgłoszeń, tym prawdopodobnie zostaną one poważniej potraktowane.
My opuszczamy tyflo aktualności, przechodzimy do technikaliów, a na dobry początek smutna informacja dla posiadaczy telefonów Samsung.
Tak, dlatego że mówimy co jakiś czas o tym, jak to iOS był tym systemem zamkniętym, Android był tym systemem bardziej otwartym, który pozwalał nam na zrobienie więcej z naszym telefonem.
Ale z czasem ten Android też zaczął się pod niektórymi aspektami zamykać.
Jedną z rzeczy, na które pozwala wiele telefonów z Androidem,
jest podmienienie całego systemu, bo tak można to robić
i w ten sposób powstała cała społeczność ludzi,
którzy tworzą tak zwane custom romy.
Od powodów może być wiele, od tego, żeby ci zachować bardziej prywatność,
do bardziej prozaicznych, żeby np. stary telefon
…dostawał nowsze wersje systemu, nawet po tym, kiedy producent wizualnie to zaprzestanie.
Żeby taki telefon właśnie bardziej zabezpieczył, żeby łatwiej bezpieczeństwa przeportować.
Albo nawet, żeby dodawać różne funkcje.
Co dla nas może być też o tyle istotne, że na przykład możemy na telefonie, który ma stary system,
sobie wygrać jakiś system nowszy, który jest dla nas bardziej dostępny.
Generalnie wygląda to często tak,
że żeby taki inny system zainstalować,
to musimy na to, na naszym urządzeniu, zezwolić.
Bo generalnie dzisiaj współczesne komputery i telefony
są zabezpieczone przed wgrywaniem złośliwego kodu,
tak zwany bootloader, czyli to, co się uruchamia.
Pierwsze sprawdza, czy nikt w tym systemie
na tym niskim poziomie nie grzebał
i po prostu takie modyfikacje blokuje.
Dużo producentów pozwala nam w legalny sposób te zabezpieczenia obniżyć, odblokować bootloader, tak to się nazywa.
I to nie jest tak, że to mógłby nam zrobić każdy w zdanie tak, żeby np. wykraść z naszego telefonu jakieś dane.
No to są ewentualnie prostsze sposoby, ale generalnie, żeby coś takiego wykonać z reguły,
To musimy albo podać jakiś nasz adres, numer e-mail,
albo coś, co się wpisywało o numer seryjny urządzenia,
albo po prostu wydać jakieś polecenie, zaznaczyć odpowiednie pole.
Właśnie w tych nowych urządzeniach Samsung to wyglądało,
że musieliśmy chyba w ustawieniach deweloperskich
odpowiednie pole zaznaczyć i ta blokada była zdejmowana.
Natomiast generalnie to często jest też zrobione tak,
że kiedy tę blokadę ściągamy, to telefon wykonuje fabryczny reset.
Właśnie żeby zabezpieczyć przed ewentualnym wykręceniem
Więc to generalnie robi ktoś, kto wie, co robi, więc dlatego musimy się przygotować na to, że wtedy nasze dane są skasowane, no ale wtedy możemy z tym telefonem zrobić więcej.
Tak przynajmniej było do tej pory, jeśli chodzi o Samsungi.
Natomiast niestety w najnowszej wersji beta 1.UI.8 dla Galaxy S25
oraz też na tych nowych Z Fold i Z Flip 7, które się pojawiły,
to pole wyboru, żeby odblokować bootloader po prostu zniknęło
z tych najnowszych wersji beta.
I na początku ludziom wydawało się, że to może było tymczasowe.
No bo wcześniej to Samsung nawet zrobił tak w Stanach Zjednoczonych, w Europie akurat nie.
Ale okazuje się, że prawdopodobnie to tymczasowa zmiana nie jest,
bo ludzie bardziej zorientowani w temacie sprawdzili kod źródłowy.
I okazuje się, że nie dość, że po prostu to pole wyboru zostało usunięte,
ale kod odpowiedzialny za wykonanie tego blokowania też został usunięty.
Więc prawdopodobnie to była zmiana umyślna,
która i tak by nie dotykała większości użytkowników,
ale tym, którym na coś takiego mogłoby zależeć,
to niestety straciliśmy bardzo ciekawą możliwość.
Bo przez to, że nie możemy tego bootloadera odbukować,
to nie możemy podmienić całego systemu, gdybyśmy chcieli,
i nie możemy też telefonu zrootować.
Większość osób tak nie robi, tak jak wspominałem,
ale to może naprawdę znacznie wydłużyć działanie jakiegoś telefonu,
jeśli poświęcimy czas, żeby odpowiednie oprogramowanie sobie znaleźć
i ewentualnie je wgrać.
Ja swojego czasu na przykład w ten sposób na Samsungu Galaxy S25,
który oficjalnie dostał Androida 6,
byłem w stanie zainstalować Androida 9, nawet jedenastka na niego była.
I podobnie było z kolejnymi modelami,
No i co, naprawdę można, jak ktoś chciał, przez naprawdę długi czas
sobie cały czas telefon aktualizować i dzięki temu dostawać kolejne funkcje
dostępności, znaleźć sobie system, który nam będzie bardziej odpowiadał,
może będzie bardziej dostępny pod różnymi powodów, dlaczego ludzie się
na takie rzeczy interesują. Było dużo, no ale niestety Samsung postanowił
przynajmniej przy swoich nowych urządzeniach taką możliwość zablokować.
No i niestety, raczej małe szanse, że przywrócą coś takiego w przyszłości.
Chyba, że może, tak jak na Apple Unia Europejska wymusza pewne zachowania,
to może i tu coś się w tej kwestii zadzieje.
W każdym razie teraz z weselszych tematów, jeżeli szykujecie jakąś imprezę
I chcecie, żeby na dobór muzyki na tę imprezę mieli wszyscy, to sposobów jest trochę.
Na przykład Spotify pozwala na tworzenie takich wspólnych playlist,
ale można też użyć zupełnie darmowego serwisu, którego adres to ukeboxhq.com.
Ta strona jest bardzo prosta, nawet będę, myślę, w stanie ją bardzo szybko pokazać, jak to w ogóle się zachowuje.
Teraz sobie tylko uruchomię syntezę.
O, mamy.
I jestem już na stronie głównej tej usługi.
Teraz nie muszę zakładać żadnego konta, tylko po prostu szukam sobie po przyciskach.
Pierwszy z brzegu.
Create jukebox.
Wybieram ten przycisk.
I wpisuję sobie nazwę tej mojej playlisty.
Wpiszemy sobie tyflopodcast.
I naciskam Enter.
I teraz w pasku adresu…
Właśnie, pojawiła się taka inna już zupełnie ścieżka i zupełnie inny adres.
Warto sobie ten adres gdzieś tam zapamiętać, albo przynajmniej go nie wyrzucać,
bo teraz on nam się przyda, kiedy będziemy chcieli to, co stworzymy, odtwarzać.
Teraz przechodzę sobie i trochę się rozejrzę po tej stronie, która się tu pojawiła.
O, widzę, że ktoś do nas dzwoni na Whatsappie.
To może sobie odbierzemy to Whatsappowe połączenie, ale to za chwileczkę zobaczymy,
cóż my tu, cóż my tu mamy.
Teraz kontynuując…
Właśnie, Sonic, Spaceship, Tyflo Podcast. Tutaj jest nazwa mojego użytkownika.
Jeżeli udostępnię ten link komuś, w innej przeglądarce na przykład,
no to wtedy ten użytkownik dostanie swoją nazwę.
On ją będzie mógł nawet zmienić.
No właśnie, mam tu ustawione. Przestawię sobie. I mam copy.
I ten przycisk po prostu klikam i udostępniam komuś. Zresztą chyba nawet dlatego jest ten
Coś tam… dlatego, że nie usunąłem tego… tej treści, bo tam pewnie było to wpisane.
To hejs, nawet cała nazwa playlisty.
Właśnie. Mam tu informację, że nie ma żadnych piosenek.
Nie ma sprawy.
I działa to bardzo prosto.
Mam pole edycji. Wpisuję tu na przykład…
Co by tu wpisać?
Na przykład Tina Turner The Best. Enter.
Wychodzę sobie z tego pola.
Clear input.
O! I mam przycisk ADD.
Klikam sobie ten przycisk.
I już jest dodane.
I teraz mogę sobie poszukać na przykład jakiejś innej piosenki.
Na przykład, no nie wiem, jakoś tam…
Cóż, cóż by tu jeszcze…
Toto Afrika, powiedzmy.
Będąc w tych klimatach lat 80.
I teraz ADD, bo tutaj też widzę, że mam.
To w Afryka, Official i tak dalej.
Też sobie klikam add.
I teraz mam to wszystko.
Mam stworzoną playlistę.
Jeżeli dodałbym do…
Jeżeli dałbym ten link komuś
i on by zaczął dodawać te piosenki,
te swoje, to te piosenki,
które on doda, wejdą pomiędzy te moje.
Jeżeli dodamy jeszcze kogoś
I damy jeszcze ten komuś link, to te piosenki, które on doda, też wejdą pomiędzy, więc nie będzie tak, że tylko jednej osoby piosenki będą grane,
tylko po prostu ta playlista, algorytm tej playlisty, będzie sprawiedliwie rozdzielał to, kto w ogóle będzie mógł tutaj sobie porządzić i w takiego imprezowego DJa się pobawić.
Mam tu Clear Input, to wyczyszczę sobie to pole.
Mam tu na główek playlist.
O właśnie, mnie już nawet zapamiętał, że Michał, bo już kiedyś tam chyba dodawałem coś.
I dlatego to po prostu działa.
I tu mam tę playlistę.
I to jest, że tu status jest, że zakolejkowane.
I gdzieś tu powyżej…
Tu najgorzej. To właśnie najgorzej niestety działa,
bo przyciski do odtwarzania są nieopisane.
Nie, nie są opisane.
Też nie są opisane, ale ten przycisk, ten środkowy spowoduje, że zacznie grać.
Teraz u mnie to było słychać, u was tego nie było słychać, bo mam to na innej karcie.
A ten kolejny przycisk, to powinien…
O właśnie, ten kolejny nieopisany przycisk, czyli ten trzeci od góry,
To po prostu powoduje przejście do następnego utworu.
Czyli jeżeli cała nasza ekipa oficjalnie stwierdza,
coś ty tu dodał, weź to dalej, no to można sobie też spokojnie kliknąć dalej
i przejść do następnego utworu.
Także taka prosta aplikacja webowa, nie trzeba zakładać żadnego konta,
a można sobie jakąś tam playlistę wspólnymi siłami na domówkę
Dobrze, tyle jeżeli chodzi o zabawowe klimaty.
A teraz odbieramy kolejny telefon. Kogo witamy?
Sylwestrze.
Cześć Sylwestrze.
Słuchamy.
Mam… Michale, wysłałeś na Whatsapp’a mnie tą piosenkę,
ale tam mi tylko numerki jakieś się pokazały.
Sylwestrze, umówmy się, że po audycji, dobrze?
Tak, żebym Ci wysłał na maila. Wyślę Ci to na maila. Wyślę Ci na maila informację, co to jest za piosenka.
Tak, dobrze. Nie ma najmniejszego problemu.
Także to tylko tyle. Chciałem tylko przypomnieć o tym, bo ja jestem ciekawy.
Okej, to po audycji, to po audycji Ci to wyślę.
Dobrze.
Dobrze, dzięki, do usłyszenia.
Dzięki, dobra noc.
Cześć, dobra noc.
Dobrze, to teraz przechodzimy do następnych tematów
i tu już do końca antena w ręce Piotra,
właściwie mikrofon nawet.
Na dobry początek informacja o narzędziu,
Tak, ja też nie mogę uwierzyć, że coś takiego powstało, a okazuje się, że można, bo od chyba 2016 roku, generalnie w momencie, kiedy Apple na rynek prowadziło tak zwaną funkcję Force Touch, gładziki na Macu są w stanie wyczuć, jak mocno przykładamy palec do ekranu.
Coś, co w iPhonach nie przyjęło się, ani na Watchu, czyli tę funkcję 3D Touch, której nie ma.
Na Macu cały czas ma się świetnie i generalnie jest używane do otwierania jakichś dodatkowych opcji.
Czasem aplikacje wykorzystują tę możliwość w ciekawe sposoby,
na przykład chyba w tym Final Cut’cie chyba można szybciej albo wolniej przewijać materiał,
zależnie od tego, jak mocno naciśniemy przycisk przewijaj. To też ciekawe.
Albo właśnie, tak jak tutaj wspomniałem na główku,
możemy wykorzystać ten gładzik jako wagę.
Bo okazuje się, że wewnętrznie te wartości, które są podane,
są pogadowane w gramach, więc nawet obliczenia są stosunkowo proste.
I ktoś postanowił stworzyć aplikację, żeby to pokazać.
Aplikacja nazywa się TrackWeight.
Można ją sobie ściągnąć za darmo z GitHuba, ewentualnie z Homebrew.
jest aplikacją podpisaną, także tutaj nie musimy martwić się o jakieś błędy.
No i po prostu w używającej aplikacji możemy sobie zważyć coś,
co możemy położyć na gładziku naszego Maca.
A gładziki w nowych Macach są teraz dosyć duże i spokojnie można
na nich zmieścić całkiem sporo.
Co możemy położyć? To generalnie, jak tutaj można się spodziewać,
po prostu lepiej działa z małymi przedmiotami,
bo większe przedmioty po prostu mogą nam się nie zmieścić.
Bardzo duże przedmioty mogą po prostu nam nie podać prawdziwych wartości.
Tutaj też jest jakiś maksymalny limit,
który tam będzie może 200 gramów, 100 gramów.
Trudno mi powiedzieć, jaki tam będzie maksymalny limit.
Mogę powiedzieć, że plastikowy bidon to było za dużo
I tam mi wychodziło, że on waży 60 g, co nie jestem w stanie uwierzyć, zwłaszcza, że tam była woda.
Ale takie mniejsze rzeczy, jak np. jakiś taki plastikowy pilot do wiatraka,
czy taki drewniany bączek, który można obrócić,
i on się będzie kręcił, no to też jak najbardziej zadziałało.
I zresztą myślę, że możemy to w ten sposób pokazać.
Nie mam teraz jak łatwo udostępnić dźwięk,
więc po prostu wytłumaczę, jak to wygląda.
W pierwszym otwarciu aplikacji mamy kreatur,
który nam mówi, jak to działa.
Mamy też informację,
że przedmioty zrobione z metalu lub z magnetycznych
mogą nie zadziałać.
Gdybyśmy chcieli zmierzyć coś metalowego,
to autor radzi owinąć ten przedmiot jako ściereczkę,
żeby ten metal nie dotykał bezpośrednio kładzika.
to po prostu może nam coś zostać źle sczytane.
Mamy na widoku, generalnie mamy w aplikacji dwa tryby.
Mamy tryb wagi, tryb scale, który jest zaznaczony domyślnie.
Na górze mamy taki pasek na zięci, trzy karty, właśnie mamy scale.
Guided, czyli taki prowadzony tryb i ustawienia.
Tam ustawień jak nic w sumie nie ma.
No, w tym trybie wagi kładziemy palec na kładziku
i od razu nam się zaczyna ta waga wyświetlać.
I wtedy po prostu kładziemy jakiś nasz przedmiot,
odrywamy palec
i generalnie ten obraz powinien się nie zwiększyć.
Z tym jest różnie w tym widoku wagi,
więc ja generalnie wolę korzystać z trybu prowadzonego,
które jest oznaczone jako eksperymentalne,
ale mam wrażenie, że dla mnie działa lepiej.
I w tym trybie działa to tak, że naciskamy znów Begin
i najpierw aplikacja prosi nas, żebyśmy położyli palec
na gładziku przez trzy sekundy.
Mamy odliczanie tutaj, generalnie voice overa,
możemy tego dojść, nie jest to niestety czytane automatycznie,
ale da się to zrobić.
I ona wtedy zmierza, jaką siłą trzymamy palec na gładziku,
żeby później odpowiednio zrobić obliczenia.
Po trzech sekundach drugą ręką, możliwie nie ruszając tej pierwszej,
kładziemy na gładziku przedmiot, który chcemy zważyć,
a następnie musimy cały czas trzymać palec, żeby mak widział,
że tam cały czas jest jakiś palec położony, bo inaczej to przestanie działać.
Musimy, trzymając cały czas ten palec, go delikatnie oderwać,
żeby jak najmniej naciskał na gładzik, ale nie odrywając go całkowicie.
No i po kilku sekundach zostanie nam wyświetlony pomiar.
Ja sobie wziąłem tego drewnianego bączka.
O właśnie, słychać taki mały.
Kładę palec na gładziku, czekam trzy sekundy, trzy.
Położyłem go na gładziku, teraz delikatnie puszczam palec prawą ręką,
sobie sprawdzam ekran.
Trwa ważenie, trwa ważenie.
I… to mi się zaczęło stabilizować.
Dwanaście, piętnaście gramów.
Trochę tutaj coś się nie chciało ustabilizować, natomiast wcześniej wyszło mi, że wyszło mi około 20 gramów.
Pewnie tutaj też ten punkt styku akurat w tym przykładzie jest trochę mniejszy, no przez to, że to jest bączek,
więc ten czubek pewnie bardzo delikatnie naciska. Może spróbuję położyć na płasko.
O.
No i od razu mi wyszło około 25 gramów.
Także to jest trochę bajer, bardziej taka zabawka,
ale jest to ciekawe zastosowanie gładzika na Macu.
Także jeśli macie Macbooka i zastanawiacie się,
co możecie zrobić z tym gładzikiem,
oprócz tego, że używać go z dwójsobwarem,
no to ciekawy pomysł, może na imprezę,
żeby pokazać znajomym, co można zrobić z Macbooka.
Ciekawe, czy by tak iPhona zważył, w sensie pewnie raczej tak, nie?
W sensie na długości.
No musiałbyś go włożyć w coś tak, żeby nie dotykała kamera na przykład, ale…
Właśnie, w sumie. No a jeszcze MagSafe przy okazji, nie?
A, no tak. No ale jak byś zawinął w coś, to…
Ciekawe.
Pewnie przeszło.
Tyflo Podcast podaje kompletny przepis na domówkę.
Playlista z jukeboxa, dodatkowa atrakcja, waga w postaci gładzika,
A o terminie tej imprezy wkrótce będzie mógł przypomnieć nam WhatsApp.
Tak, i tutaj też krótka informacja na koniec.
Serwis WA Beta Info, który często lubi grzebać w wersjach beta WhatsAppa,
żeby zobaczyć, co tam ciekawego nam meta przygotowuje,
w tym przypadku na bazie kodów w wersji na Androida
odkrył ciekawą funkcję, która w WhatsAppie ma się pojawić,
a mianowicie będzie aplikacja w stanie nam przypominać o wiadomościach.
I będzie to działało na dwa sposoby.
Po pierwsze, mamy funkcję, którą możemy kojarzyć z aplikacji do poczty
czy np. z iMessage, bo…
Chociaż czy w iMessage taka możliwość jest?
No dobra, nieważne.
W poczcie jest na pewno i generalnie możemy sobie na jakimś wątku,
na jakiejś wiadomości, otworzyć menu kontekstowe
i nowa tam się pojawi opcja, przypomnij mi.
Możemy tam sobie ustawić termin, tam będzie kilka propozycji,
czy np. jutro, czy dzisiaj wieczorem.
lub będziemy mogli sobie wprowadzić własną datę i po prostu,
kiedy ta data nadejdzie, no to zostanie nam wyświetlone powiadomienie.
Ta wiadomość znów nam się pojawi jako nieprzeczytana,
zostanie podkreślona z linką kod dzwoneczka,
żeby powiedzieć nam, żebyśmy sobie do tej wiadomości znów zajrzeli.
Bardzo praktyczna funkcja. Jeśli chodzi o pocztę,
to ja z tego korzystam namiętnie, bo to bardzo się przydaje,
żeby właśnie o czymś nie zapomnieć.
Więc jak najbardziej, coś takiego w Whatsappie też się może przydać,
jeśli np. chcemy później na coś odpowiedzieć, albo ktoś nam wysłał jakiś link,
coś, do czego chcemy później wrócić, no to będziemy mogli przynajmniej.
Na razie jeszcze niestety tego nie mamy dostępnego.
Będziemy mogli sobie to ustawić.
A druga nowość będzie bardziej proaktywna,
więc pewnie tutaj jakieś AI może będzie wykorzystane, albo jakieś algorytmy przynajmniej.
A mianowicie będziemy też mogli sobie skonfigurować powiadomienia automatyczne.
I według serwisu WA-BetaInfo będzie to wyglądało w ten sposób,
że WhatsApp po prostu wyśle nam powiadomienie,
jeśli przegapimy jakąś wiadomość od osoby czy czatu,
z którym generalnie wchodzimy w interakcję.
Więc jeśli mamy jakiś moment, że byliśmy zajęci,
a jednocześnie nam wszystkie konwersacje, w których uczestniczymy,
nagle zaczęły wysyłać dużo wiadomości,
A w międzyczasie jeszcze ktoś do nas napisał.
I my tego po prostu nie zauważyliśmy.
Zajęliśmy się tymi innymi konwersacjami.
Potem na Whatsappa nie patrzyliśmy.
Zdarza się, mi to się czasami zdarzyło.
I następnego dnia po prostu możemy dostrzec powiadomienie.
Hej, słuchaj, ta osoba, z którą piszesz,
dosyć często wysłała ci wiadomość,
której jeszcze nie przeczytałaś.
No i po prostu będziemy mogli sobie wejść do tej konwersacji
i tą wiadomość zobaczyć.
Jeśli to będzie działało sensownie i faktycznie będzie nas powiadamiało
o wiadomościach od osób, z którymi faktycznie wchodzimy kontakt,
a nie np. jak Facebook, który lubi czasem jakieś posty sprzed X lat wyciągać,
nie wiadomo po co,
to jak najbardziej, tak jak wspominałem,
to też może być coś, co może się jak najbardziej przydać,
zwłaszcza w sytuacji, kiedy faktycznie dużo się z naszym WhatsAppem dzieje,
kilka wątków uaktywnia się jednocześnie,
to może się zdarzyć, że coś wtedy przeoczymy,
że wyczyścimy powiadomienia w telefonie i coś nam się zgubi.
Dzięki tej funkcji, jeśli to faktycznie będzie działało, tak jak to zapowiada Meta,
no to myślę, że to jak najbardziej może nam się przydać.
A tak to się potrafi dziać.
Bardzo dobrze, jeśli chodzi o tę drugą proaktywną funkcjonalność w tym zakresie.
No i tak samo na Whatsappie z kolei by się przydało planowanie wysyłania wiadomości,
bo tego nie ma.
Co panie jest? W sumie edycja jest, a tego nie ma, no i ale za to co? No w poczcie, w poczcie przypominanie jest i w iOSie 26, jeśli chodzi o nieodebrane połączenia, to też sobie będzie można ustawić przypomnienie o fajnych mesajach, tego nie ma, ale w telefonie jak najbardziej, więc no zawsze coś.
No na naszym Whatsappie Tyflo-podcastowym czasem jest niezłe zatrzęsienie wiadomości, które do nas wysyłacie i to ogarnąć wszystko,
Jeszcze mówiąc do Was i przeglądając inne miejsca, gdzie również możecie komentować, to czasem jest wyzwanie.
No ale dziś było w miarę spokojnie, ale byliście tak czy inaczej aktywni.
Za tę aktywność Wam bardzo serdecznie dziękujemy.
I co? I chyba dzisiejszy Tyflo Przegląd 293 już w środę przechodzić będzie powoli do historii.
Chyba, że jeszcze o czymś chcielibyście na koniec powiedzieć?
Chyba nie.
No to okej, to kończymy.
To kończymy dzisiejsze wydanie Tyflo Przeglądu.
Dziękujemy bardzo, Maciej Walczak, Piotr Machacz
i mówiący te słowa, Michał Dziwisz.
Dobrej nocy, do usłyszenia.