TyfloPrzegląd Odcinek nr 284 (wersja tekstowa)

Pobierz napisy w formacie SRT
Pobierz napisy w formacie VTT
Fundacja Instytut Rozwoju Regionalnego prezentuje
Tyflo Podcast
W tym tygodniu w Tyflo Przeglądzie.
Co nowego w 12. wersji Dolphin Easy Readera?
Narzędziem WinUtil możesz przyspieszyć pracę z czytnikiem ekranu.
Erana wiązuje współpracę z Google i rozpoczyna testy pomocy opartej o AI.
JAWS jako pierwszy wykorzysta wielowierszowe monitory braillowskie.
WhatsApp w końcu pojawił się na iPadzie.
A skoro już o WhatsAppie mowa, to przetestowaliśmy jego nową funkcję czatów w czatach.
Bolt AI. Wszystkie modele sztucznej inteligencji w jednej natywnej aplikacji na Maca.
Co jeszcze Google zaprezentowało podczas konferencji AIO?
Wszystko to, a pewnie jeszcze więcej już za chwilę. Zaczynamy!
Tyflo Przegląd jest audycją prowadzoną na żywo, więc serdecznie zachęcamy Państwa do współtworzenia go razem z nami.
Oczekujemy na wiadomości głosowe na Whatsappie oraz połączenia telefoniczne pod numerem 663-883-600, powtarzam 663-883-600
Wtorek, 27 dzień maja w kalendarzu, godzina 28 minut na zegarach, więc zaczynamy kolejne, już 284 wydanie audycji
I tyflo przegląd audycji, w której zaglądamy we wszelkie technologiczne miejsca i opowiadamy Wam o tym wszystkim, co może być istotne dla osób niewidomych i słabowidzących.
Tydzień temu byliśmy w tej audycji wspólnie z Pawłem Masarczykiem. Dziś też skład taki raczej uszczuplony, bym powiedział, bo dziś Piotr Machacz wspólnie ze mną poprowadzi tę audycję.
Witaj Piotrze. Jesteśmy oczywiście na żywo, więc czekamy na Wasze wypowiedzi.
Ja już mogę zdradzić, że pierwsze wypowiedzi mamy, ale zanim te Wasze wypowiedzi odtworzymy,
to najpierw opowiedzmy o pierwszym temacie, które dziś Piotr przygotował.
I to muszę powiedzieć, że Piotr przygotował znaczną większość materiałów do dzisiejszej audycji.
A na dobry początek Dolphin Easy Reader i to już wersja 12.
Co tam nowego i dobrego?
Tak, Dolphin Easy Reader, aplikacja dla tych, którzy może np. nie słuchali podcastu
o Easy Readerze, który jakiś czas temu się pojawił na naszej stronie.
Jest to w pewnym sensie konkurencja dla np. Voice Dream Readera,
chociaż sama aplikacja na rynku chyba była nawet dłużej,
bo ona wcześniej była tylko na systemie Windows.
Natomiast jej współczesne wersje są dostępne na wszystkie tak naprawdę platformy,
…bo tutaj jest właśnie Windows, ale też iOS, Android, Mac, nawet Amazon Fire, czyli te tablety Amazona.
Jest to aplikacja, która pozwala nam czytać książki czy inne materiały tekstowe.
Książki możemy do niej dodawać po prostu ładując pliki.
Jeśli jesteśmy w szkole, no to ona nawet się integruje z Google Classroom.
Tutaj właśnie taki mały spoiler do wersji 12.
Ale też wspiera różne biblioteki dla osób niewidomych, m.in. wspiera nasz DZDN.
Wspiera też np. bibliotekę Calibre, do której stosunkowo łatwo można się z Polski zapisać,
gdyby ktoś chciał poczytać coś w języku angielskim.
Także nawet do tego ta aplikacja może być nam przydatna.
Ma też swoje głosy Nuance Vocalizer, jakby ktoś chciał sobie do czytania takiej głosy
dokupić, ale też wspiera wszystkie głosy, które mamy zainstalowane w systemie.
No a wersja 12 dodaje do tego jeszcze kolejne dodatkowe nowości.
W dużym uproszczeniu ta wersja 12 to jest właśnie uproszczony interfejs.
Mamy kilka też udogodnień dla czytników ekranu, no i domieszka AI, no bo jakby
inaczej. W ogóle dzisiaj trochę AI będzie, to też taka informacja dla tych, którzy
może za takimi wątkami nie przepadają, trochę tutaj AI będzie się przewijać
dzisiaj. Natomiast zaczynając właśnie od tej wersji 12 EasyReadera, która jest
Jest dostępna na wszystkie platformy, czytając z informacji, które nam dał Dolphin.
Pierwszym takim podpunktem jest fakt, że aplikacja jest łatwiejsza w użyciu.
Teraz bardziej przyjazna użytkownikowi niż kiedykolwiek.
Wersja 12 ma większe przyciski, czytelniejszą nawigację i uproszczony układ przycisków.
Oferuje użytkownikom łatwiejsze sposoby nawigowania po książkach i przeglądania materiałów.
Niektóre przyciski zostały przeniesione, aby były łatwiejsze do znalezienia.
Mamy też takich istotniejszych rzeczy, no poza tym, że generalnie ten układ został troszkę uproszczony,
Przeciski są bardziej czytelne, kolory.
Mamy też tryb pełnoekranowy,
który możemy uaktywnić po prostu
zrukając w zawartość książki.
I to spowoduje po prostu, że wszystkie kontrolki znikną
i wtedy mamy widoczny sam tekst książki.
Ukrywa wszystkie elementy sterujące,
które pozwalają nam skupić się na czytaniu.
Natomiast dla użytkowników niewidomych mamy teraz też nowy widok czytnika ekranu.
I tutaj możemy się zastanawiać o co w tym chodzi.
I Dolphin opisuje to tak.
Wersja 12 aplikacji EasyReader wprowadza innowacyjny widok czytnika ekranu.
Zaprojektowany w celu ulepszenia wrażeń z czytania dla czytników z wadą wzroku.
zapewnia liniowy tryb czytania
zoptymalizowany dla…
zoptymalizowany dla czytników,
tutaj mam tłumaczone Google, dla monitorów brailowskich
i czytników ekranu.
Chodzi tu pewnie o to, że generalnie
wizji readerzy czytniki ekranu widziały książkę jak
stronę internetową, więc po prostu
Z tego, co pamiętam, bo dawno nie korzystałem z tej aplikacji, zwłaszcza na komputerze,
tam było tak, że nie widzieliśmy całej książki od razu i to też miało taki efekt uboczny,
że nie zawsze mieliśmy łatwy sposób, żeby zapamiętać naszą pozycję.
Dlatego np. taki Qureed czy Bookworm dla nas wyświetlały te książki w takim zwykłym polu edycji,
tylko to czytu, które może gubiło wszelkie formatowanie,
Ale zapewniało to, że zawsze w tej książce się znajdziemy.
I tutaj też właśnie mamy informację, że ten nowy widok czytnika ekranu
pozwala łatwo swoje miejsce znaleźć.
No i w sytuacji, gdybyśmy chcieli zobaczyć znów ten widok
strony internetowej, no bo np. jakaś książka ma jakieś tabelki,
jakieś linki, które chcielibyśmy kliknąć, jakąś właśnie tabelkę,
którą chcielibyśmy przejrzeć skrótami nawigacji po tabelach
naszego czytnika ekranu. Możemy w każdej chwili się do tego trybu z powrotem
widoku strony przełączyć. Rozumiem to tak, że wtedy nasza pozycja jakkolwiek
też będzie wtedy zachowana. Natomiast takiego ciągłego właśnie czytania,
gdzie mamy ten tekst na linijce i po prostu sobie ciągle go przewijamy do przodu,
do przodu albo, nie wiem, używamy funkcji czytaj wszystko w naszym czytniku ekranu,
no to warto się wtedy przełączyć w ten nowy widok i wtedy ta książka będzie czyta
i rozumiem, że po prostu nasza pozycja wtedy będzie też lepiej zapamiętana.
Mamy też funkcję zakładek, będziemy mogli sobie zakładki dodawać i między
nimi się przemieszczać i to też będzie dobrze działało z tym widokiem czytników
ekranu.
I mamy też informację znalazła, że pamiętaj, że do korzystania z tej funkcji nie
jest konieczny czytnik ekranu, czyli to jest coś zbudowane w aplikacji, a nie w
konkretne czytniki ekranu. Następna nowość, to tutaj wchodzimy właśnie w tą domieszkę
AI, bo mamy szczegółowe opisy obrazów. I tutaj można się już domyślać o to tutaj,
czego się tutaj możemy spodziewać. Osoby niewidome mogą teraz jednym dotknięciem
uzyskać bardziej szczegółowe, generowane przez sztuczną inteligencję,
opisy obrazów w książkach i dokumentach. Zintegrowana technologia AI umożliwia Ci po prostu
stuknięcie w obraz w dowolnej książce, którą czytasz w aplikacji EasyReader, a obraz zostanie opisany.
Jeśli chcesz ozyskać bardziej szczegółowy opis, po prostu zadaj więcej pytań, a zostanie on natychmiast dostarczony.
Mamy tutaj informację, że jest to dostępna płatna funkcja, więc mamy do niej dostęp tylko wtedy, kiedy faktycznie wykupiliśmy sobie abonament EasyReader, albo ten personal, albo jest jeszcze jakiś drugi abonament tutaj, przepraszam za tło, pozdrawiam pieska swojego.
Natomiast tutaj jest taka informacja dla tych, którzy mają tą aplikację dzięki na przykład swojej szkole, aczkolwiek w Polsce z tego zawiątego nie mamy.
No, mniej więcej, jeśli macie wykupiony abonament EasyReader,
no to będzie można z tych funkcji AI skorzystać,
jeśli w jakiejś książce będzie jakiś nieopisany obrazek,
który chcielibyście opisać, no to wewnątrz aplikacji
będziemy mogli sobie go opisać.
Ponownie, podobnie z sekcją pomocy,
do której też została dodana funkcja AI,
będziemy mogli zadawać pytania dotyczące samej aplikacji,
no i chat pod, wykorzystując bazę wiedzy,
Dokumentacja będzie w stanie nam odpowiedzieć, jak dane zadanie w Easy Readerze wykonać.
No już jakiś czas temu podobne funkcje zostały dodane, np. do Super Nowy, o czym mówiliśmy.
I tutaj po prostu podobna funkcja została dodana. Mamy sekcję Nową Zadaj Pytanie.
Możemy w tej sekcji zadać jakieś pytanie i chatbot spróbuje nam na to pytanie odpowiedzieć.
Biorąc pod uwagę właśnie pomoc, ale też jakieś archiwalne szkolenia, które zostały opublikowane.
Ponadto funkcje biblioteki zostały rozbudowane.
Możemy książki organizować, możemy je oznaczać różnymi kolorami.
Tutaj bardziej jest funkcja dla osób słabowidących, na przykład możemy sobie jakieś książki,
nie wiem, po tym, że coś jest do szkoły, coś sobie czytamy do przyjemności, możemy sobie różnie te książki
pokolerować.
Oprócz tego
możemy eksportować notatki, które
dodaliśmy do naszych książek.
Mamy
integrację z Google Classroom, o czym już
wspominałem, więc jeśli jakaś
szkoła korzysta albo uniwersytet z Google Classroom
i nauczyciel czy wykładowca
doda jakiś materiał, który
mamy przeczytać, no to w EasyReader
jesteśmy w stanie po prostu się do naszego
I ten materiał zostanie automatycznie nam wyświetlony w Bibliotece Easy Literat.
To jest też, wydaje mi się, całkiem fajna sprawa.
Też a propos biblioteki, na liście książek teraz też będziemy mieli informację,
ile procent danej książki przeczytaliśmy.
Więc też taka, myślę, mała zmiana, ale też przydatna.
Oprócz tego mamy aktualizację biblioteki MatCat do obsługi matematyki
poprzez mat.ml i to tutaj wsparcie dla kilku nowych języków.
Niestety polskiego jeszcze nie ma, natomiast z mat.cata możemy cały czas
na przykład po angielsku korzystać.
Mamy bardziej bezpieczną metodę zapamiętywania pozycji otwarzania,
więc aplikacja nie powinna tak często gubić miejsca podczas otwarzania.
Wsparcie dla biblioteki Calibre Audio, czy Calibre właściwie, zostało
przepisane, dzięki czemu po prostu powinno działać.
I zostały dodane wsparcie dla kolejnych nowych bibliotek na całym świecie, tutaj Dolphin się po prostu tym cały czas chwali, więc mówią tutaj, że cała aplikacja cały czas się rozwija.
Dla tych, którzy sobie tą aplikację wykupili, albo nie, dla tych, którzy chcą po prostu tą aplikację przetestować, wersja 12 jest aktualizacją darmową.
Na systemie Windows, ale też na aplikacjach mobilnych, na systemach mobilnych mamy taką
ograniczoną wersję darmową, z tego co pamiętam, przynajmniej na Windowsie jest jakiś okres
próbny, natomiast na Macu, gdyby ktoś chciał tą aplikację przetestować, tam już
musimy mieć wykupiony abonament do EasyReadera, ja w tym momencie nie pamiętam ile on
kosztował, nie wiem czy ty, Michał, kojarzysz.
Oj, nie pamiętam niestety.
No więcej więcej, jeśli ktoś by chciał tą aplikację na Macu przetestować, no to tam
Musimy mieć już abonament wykupiony wcześniej, natomiast generalnie po prostu aplikację można ściągnąć albo ze strony dolphin.com dla systemów typu Windows, natomiast dla Maca, dla iOS i Androida po prostu ten Easy Leader znajdziemy w sklepie odpowiednim z aplikacjami, czyli App Store albo Google Play.
No to w takim razie teraz zajrzyjmy do tych wiadomości, o których wspominałem, że już do nas wysyłacie.
Są to wiadomości głosowe przynajmniej na razie, chociaż jakieś tekstówki też się znajdą.
Ale zacznijmy od wiadomości głosowych, które wysłał Mariusz.
Cześć, z tej strony Mariusz. Witajcie wieczorową porą.
Zwracam się do was z takim pytaniem, ponieważ…
Czy wiecie może, czy jest jakiś newsletter od firmy Mety,
gdzie można by śledzić na bieżąco wydarzenia, które się dzieją w firmie Meta?
Jak wiemy od Facebooka, Whatsappa, Messengera, Instagrama,
czyli od nowego komunikatora ich Tweets oraz od komunikatora Edits.
To jest jedno pytanie. A drugie pytanie, czy wiecie może,
czy gdzieś jest obecna strona czy jakiś newsletter, gdzie można śledzić,
jakie funkcje są np. wprowadzane do Messengera.
No bo kiedyś, jak pamiętam,
a od dłuższego czasu już używam iPhone’a, od wielu, wielu lat,
jestem użytkownikiem iOS,
to kiedyś, jak dobrze pamiętam, jak się patrzyło na historię aktualizacji cenowego,
to były konkretnie opisane,
oprócz numeru, wersji,
konkretne informacje, co zostało wprowadzone.
To było dawno, dawno temu.
Kilkanaście lat temu.
A później od jakiegoś czasu została jedna i ta sama informacja i tyle.
Więc czy wiecie jakoś, gdzie i czy w ogóle można śledzić takie rzeczy?
I właśnie czy firma Meta ma swój własny newsletter?
Bo ja jestem jednak tą osobą, która lubi zapisywać się na różne technologiczne newslettery.
No i przy okazji, jakie newslettery może wy używacie?
Albo co byście polecieli? Zasubskrybować sobie w skrzynce mailowej.
To są takie moje pytania. No i jeszcze jedna informacja, tak dla przypomnienia,
że jest już możliwość zapisania się na poszczególne wydarzenia w czerwcu,
jak wiemy, bo 9 czerwca jest WWDC, 9 czerwca o godzinie 19 czasu polskiego,
a w Kalifornii, w Schupertino, to będzie godzina dziesiąta rano.
No i na stronie Apple Developer jest już cały harmonogram
poszczególnych wydarzeń, sesji, które się odbędą,
więc śmiało już można sobie się zapisywać
i dodawać sobie to do kalendarza, te wszystkie poszczególne informacje.
No i myślę, że większość z nas będzie śledziła,
jak to wszystko będzie prezentowane, jak to wszystko będzie wyglądało.
No i oczywiście w najnowszym Tyflo Przeglądzie będzie o tych wszystkich nowościach,
które przygotowała dla nas firma EPU.
Także to tyle ode mnie.
Pozdrawiam wszystkich bardzo gorąco, serdecznie.
Życząc przyjemnego i miłego wieczoru.
No i również zachęcam do słuchania Tyflo Radia, słuchania Tyflo Podcastów,
Tyflo Przeglądów.
Bo naprawdę warto.
Jeszcze raz witajcie, dobry wieczór, z tej strony Mariusz, to znowu ja.
Zapomniałem jeszcze dodać taką informację, właściwie taką moją propozycję,
myślę, że też dla tutaj całej społeczności Tyflo Radia i Tyflo Podcastów,
ale tutaj dla szczególnie prowadzącego Michała.
Mianowicie, Michale, taka propozycja i takie zapytanie,
Czy byś był w stanie technicznie ogarnąć i stworzyć gadał nadawczy w Messengerze,
również o nazwie Tyflo Przegląd?
No i tam byś zamieszczał różne zawsze linki pod audycją i różne ewentualnie linki
do jakichś artykułów, które były omawiane w Tyflo Przeglądzie.
I myślę, że taka grupa również by się dobrze przyjęła na Messengerze,
no bo jak wiemy, mamy na Messengerze tę funkcję, która nazywa się kanały nadawcze,
I tam mogą użytkownicy tylko reagować, a administratorzy takiego kanału mogą tam
zamieszczać różne informacje przydatne. Także myślę, że to by była taka dosyć
ciekawa nowość, a też mi się tak wydaje, że im większy zakres dotarcia z tyflopodcastami
i tyfloprzeglądami, tym lepiej. Nie wiem, jak teraz obecnie z dostępnością tych kanałów
…na Messengerze, bo przecież co chwilę otrzymujemy aktualizację Messengera.
No ale myślę, że tutaj Michał byłby w stanie podobać takiemu czemuś takiej sprawie
i myślę, że technicznie dałby radę to prowadzić, ogarnąć.
I to by było też coś ciekawego jako dla użytkowników słabo widzących
i użytkowników niewidomych.
Linki też można zamieszczać w takich kanałach nadawczych spokojnie,
bo testowałem i można, można jakieś pliki w formatach mp3 zamieszczać,
a nawet gdzieś ktoś zamieszczał jakieś filmiki, więc to wszystko się da robić.
Tylko pytanie, czy tutaj nasz główny, współprowadzący, nasz realizator,
który wszystko ogarnia, w Tyflo Radiu, który jest odpowiedzialny,
żeby tutaj wszystkich było dobrze słuchać w Tyflo przeglądach i Tyflo podcastach,
to czy by był w stanie właśnie ogarnąć to wszystko. Ale mam nadzieję,
Mam nadzieję, że nasz dzielny Michał sobie z tym poradzi
i że nie z takimi rzeczami się już w życiu uwyjął.
To tylko taka propozycja ode mnie.
Nie wiem, co na to tutaj reszta prowadzących tyfloprzeglądów,
tyfloradia, tyflopodcastów, ale myślę, że też byliby zaciekawieni czymś takim
i taką nowością.
Taka mała propozycja właśnie technologiczna ode mnie.
Jeszcze raz wszystkiego dobrego, miłego, przyjemnego i spokojnego wieczoru.
Wszystkim prowadzącym życzę.
Michałowi, Pawłowi, Paulinie, Tomkowi Bileckiemu.
Wszystkim przyjemnego wieczoru i dużo zdrowia oczywiście.
Trzymajcie się cieplutko. Pozdrowienia prosto z Warmii i Mazur.
Dobrego i spokojnego wieczoru i miłego również prowadzenia Teflo Przeglądu. Pa, pa.
Dzięki Mariuszu za te wiadomości. To ja się może odniosę na dobry początek do tego kanału nadawczego Messengera.
Muszę zbadać ten temat, ale ja tu od razu chciałbym zrobić takie zastrzeżenie, że bardziej prawdopodobne jest, że się to pojawi.
Jeżeli da się to w jakiś w miarę prosty sposób zintegrować z WordPressem,
czyli z naszym silnikiem tyflopodcastowym,
bo na przykład bardzo fajnie działa publikacja informacji o nowych audycjach chociażby
na Telegramie, bo dzieje się to po prostu z automatu.
Jest wtyczka, która jest podpięta, która jest zintegrowana z WordPressem
I która wysyła te informacje na…
na, na, na, na… Telegrama właśnie.
Więc no odchodzi mi na przykład konieczność kopiowania, wklejania.
Tak samo jest zresztą na Facebooku, tam też mam zrobioną taką integrację,
że te informacje o audycjach wysyłają się automatycznie.
A cała reszta, no to jest niestety też robienie takiego żmudnego kopiu i wklej.
Teraz właśnie sobie uświadomiłem, że znowu zapomniałem wkleić informacji na Whatsappa.
o audycjach na ten tydzień, to tak, gdyby ktoś pytał. No i to są, widzicie, właśnie potem takie rzeczy, że wrzuca się te informacje
w jakieś miejsca się wrzuci, w inne się nie wrzuci i potem jest z tym problem. Więc ja wolałbym sobie nie dokładać więcej tych źródeł do publikacji.
Chyba, że uda się to zautomatyzować, to wtedy bardzo chętnie to będę robił, bo po prostu oczywiście ja się zgadzam, że
Im więcej źródeł, z których możecie czerpać informacje na temat audycji, tym lepiej.
Natomiast co do informacji dotyczących Whatsappa? Nie, Messengera.
No to właśnie, serwis o Whatsappie to znam. To jest www.wabeta.info.com.
To jest taki największy serwis poświęcony właśnie tej aplikacji i tam dużo jest informacji na temat właśnie Whatsappa.
O Messengerze jakoś nie znam takiego serwisu, który by podobnie się odnosił właśnie do tego, co oni tam nowego tworzą.
Natomiast, w myśl zasady pod latarnią najciemniej, to ja proponuję Ci, Mariuszu, żebyś zapisał się po prostu na newsletter Mety.
Beta.com, jak sobie wejdziesz na tę stronę, to tam będziesz miał na stronie głównej takie pole edycji do zapisania się na newsletter.
Więc jeżeli interesują Cię informacje takie oficjalne, nie jakieś przecieki, bo to raczej nie tędy droga będzie,
ale jeżeli interesują Cię właśnie informacje oficjalne dotyczące tego, co tam ciekawego w mecie nowego,
No to myślę, że to właśnie jest to miejsce, do którego należałoby się udać i na newsletter, który można by się było zapisać.
Natomiast co do w ogóle takich newsletterów, to ja powiem szczerze, ja nie jestem jakimś miłośnikiem właśnie tego typu odbioru treści w skrzynce pocztowej.
Może dlatego, że za dużo mam tych maili, tak czy inaczej w mojej poczcie.
Ja osobiście bardziej wolę kanały RSS, które można sobie zasubskrybować i można sobie czytać na bieżąco różnego rodzaju aktualności dotyczące technologii.
I to, żeby wymienić kilka pierwszych z brzegu, takich portali technologicznych, które dość dużo piszą na tematy technologiczne, takie ogólne, że głóbym,
To jest chociażby antyweb spiderswebchip.pl
Kiedyś już losy tej gazety komputerowej były niemal przesądzone,
bo wydawnictwo bodajże Burda, które kiedyś wydawało właśnie Chippa,
postanowiło zamknąć to czasopismo, ale potem się okazało, że kilka osób,
które kiedyś pracowało w redakcji Chippa, przejęło domenę i uruchomiło serwis,
Serwis, który od iluś lat działa całkiem prężnie i też całkiem fajne technologiczne informacje można sobie na ich stronie poczytać.
To teraz będzie informacja ode mnie, to taki krótki suplementik do tego, o czym mówiliśmy wczoraj z Patrykiem Faliszewskim.
Narzędzie WinUtil, WinUtil, o którym wczoraj była cała, calutka audycja.
I po co ja do tego w ogóle wracam, skoro jest podcast?
Słuchajcie, dlatego, że ja się wczoraj jeszcze tym narzędziem pobawiłem, zachęcony przez kolegę Patryka.
I okazało się, że znalazłem kilka tych tak zwanych, tych ulepszeń, które to są w stanie po prostu nieco przyspieszyć działanie systemu Windows.
Szczególnie z NVDA, być może z innymi czytnikami nie będzie to tak spektakularne.
Zdjęcia z NVIDIA mi Windows naprawdę przyspieszył.
Jeżeli sobie wyłączymy kilka elementów dotyczących tego tak zwanego przyciągania okien.
Ja sobie wyłączyłem opcje, które się nazywają Snap Window, Snap Assist Flyout i Snap Assist Suggestion.
I jeżeli to wyłączymy, tam się potem przelogujemy, wylogujemy, zalogujemy podobnie, to no z mojej perspektywy ten komputer nasz z NVIDIA zaczyna działać po prostu szybciej, sprawniej, mówię to z perspektywy używania Windowsa zarówno 11 jak i 10, bo przetestowałem sobie to zarówno na komputerze stacjonarnym jak i na laptopie i dalej stoję na stanowisku,
…że z takimi narzędziami to lepiej postępować ostrożnie i jak ktoś teraz słucha tej audycji, to uprzejmie informuję, że wszelkie zmiany, czy to za pomocą WinUtila, czy jakiegokolwiek innego narzędzia robi na własną odpowiedzialność, ale ja zrobiłem i mi to rzeczywiście pomogło, przyspieszyło działanie komputera.
Jeszcze trochę różnych innych rzeczy tam zastosowałem sobie, ale no te ewidentnie po prostu czuć, że system działa sprawniej, a no Windowsy wiadomo bywają teraz ociężałe i nie chcę to wcale działać jakoś tak bardzo responsywnie,
więc jeżeli można sobie przyspieszyć, no to czemu by z tego nie skorzystać.
To tak tylko na marginesie, jeżeli jesteście ciekawi tego całego narzędzia, no to możecie sobie na przykład na Facebooku już teraz odsłuchać audycji, a ona będzie na naszej stronie dostępna za kilka dni, więc też spokojnie, cierpliwości, wszystko będzie w swoim czasie.
Teraz kolejny temat, temat dotyczący aplikacji, której w naszych polskich realiach nie potestujemy za bardzo, przynajmniej po polsku.
Kiedyś były problemy poważne w ogóle z zarejestrowaniem się tam i z korzystaniem z Polski.
I nie wiem, szczerze mówiąc, jak w aplikacji ERA, tudzież AIRA jest teraz, czy trochę to złagodzili, czy dalej są takie kłopoty, że tam trzeba amerykański numer telefonu, więc no w każdym razie na pewno na razie po polsku to nie działa, ale zaczyna działać z kolejnym partnerem i jest to partner duży, bo są to Google.
Tak, tak jak obiecałem, będzie dużo AI dzisiaj i to jest druga właściwa informacja, o której AI się pojawi.
Napomnieliśmy teraz konferencję Google AI, o samej konferencji więcej powiem później w technikaliach,
natomiast przy okazji tej konferencji Aira też opublikowała informację o tym, że rozpoczyna się nowy test
w programie Zaufanych Testerów, który oni tam oferują użytkownikom, którzy już konto mają,
W którym będzie można przetestować rozmowę opartą o AI, konkretnie opartą o coś, co Google nazywa projektem Astra.
O projekcie Astra mówiliśmy chyba dawno temu, kiedy Google o nim mówił wcześniej.
Była to w pewnym sensie odpowiedź na zaawansowany tryb głosowy chata GPT i tutaj ktoś się może zastanawiać
No ale chwila przecież, no my już mamy, nawet w Gemini mamy teraz ten tryb na żywo, który nawet teraz trafił do iOS-a,
chociaż u mnie jego cały czas nie ma, ale generalnie on powinien się pomału u użytkowników pojawiać.
No w sumie nawet będzie można, bo u mnie akurat jest na jednym skąd, więc może nawet potem zrobimy jakąś krótką demonstrację tego, jak to działa.
Myślę, że można, bo to jest też taka nowość w Google IO, pewnie, więc myślę, że można to pokazać.
Natomiast projekt Asra to, mówiąc takim współczesnym językiem,
może nawet kolejny level wyżej, w takim sensie, że to jest jeszcze bardziej
stworzony taki model wirtualnego asystenta, który jest optymalizowany
pod takie rozmowy na żywo, oparte zarówno właśnie o obraz, o dźwięk,
który jest w stanie bardzo szybko informacje przetwarzać, odpowiadać
…na pytania zadawane przez użytkownika i jak to często bywa,
jak fajnie znaleźć dane treningowe dla tego typu usług, to może takiej
dużej kooperacji w tym pomóc.
No pewnie dlatego Google postanowiło spartnerować się z AIROM przy
testowaniu ich usług, co też w ogóle swoją drogą jest o tyle ciekawe, że
jeśli te informacje, o których jakiś czas temu mówił Paweł, że to miało
Mała najpierw pojawiła się w aplikacji Be My Eyes, tam też miała taka funkcja się pojawić.
Tam jest jakiś ponad zgrzyt z komunikacją z nimi i z OpenAI.
Natomiast tutaj w międzyczasie konkurencja nie śpi jak widać i Aira faktycznie dodaje to swoje AI w nazwie do aplikacji.
Znaczy AI w Airze już było jakiś czas, natomiast to było coś co znamy bardziej z Be My Eyes,
gdzie mogliśmy przesłać zdjęcie, dostać opis, zadać pytanie.
Tam, co było o tyle przydatne, ciekawe,
dlatego ludzie to sobie cenili,
że w tej aplikacji możemy w każdej chwili
poprosić, żeby ten opis zweryfikował człowiek, tak?
No bo nie zapominajmy, iRat, dla tych, którzy nie wiedzą,
jest to usługa, w której płacąc niemały abonament,
ewentualnie też będąc w miejscu, które opłaca
taki specjalny abonament właśnie dla firm,
to są jakieś duże, nie wiem, lotniska, sklepy, głównie
w Stanach Zjednoczonych i czy w Anglii na przykład,
Możemy połączyć się z przeszkoloną osobą widzącą, która jest w stanie nam w jakiejś sprawie pomóc.
Też może się połączyć z naszym komputerem i na komputerze nam pomóc coś na przykład wypełnić, coś kliknąć.
No w różnych sytuacjach, w których pomoc osoby widzącej może być przydatna.
Nawet w takich sprawach bardziej poufnych, na przykład w firmie, tam można osobno podpisać jakieś dokumenty na przykład.
Do takich zastosowań generalnie ludzie AIRE wykorzystują.
No i można tutaj już się domyślać, w jakich sytuacjach taki tryb rozmowy na żywo z takim asystentem AI może nam się przydać.
W wielu takich prostszych sprawach faktycznie taka sztuczna inteligencja może nam wystarczyć.
Tutaj sama Aira nam podaje przykłady odnajdywania jakichś przedmiotów, które nam spadły, gdzie mi spadły kluczyki.
Pytając się na przykład, czy mleko, które wyciągnęliśmy z lodówki już nam nie siadło,
Czy tata ważności nie minęła jakiegoś produktu?
Tutaj miałbym nadzieję, że to AI nie zahalucynuje nam.
No więc do tego typu zastosowań, od rzeczy, które się zmieniają,
jak ktoś wychodzi z kadru na przykład.
Nawet były podane przykłady czytania tekstu, tutaj też bym uważał,
ale do tego typu zastosowań, jak mówią na stronie,
ten model, to AI po prostu powinno działać tak,
że możemy z nim rozmawiać jak z człowiekiem, pytać o co chcemy i powinniśmy dostać dobrą w miarę odpowiedź.
Natomiast, podobnie jak to teraz ma miejsce np. w przypadku tzw. robo-taksówek,
czyli samochodów, które są sterowane przez AI, o nich też kilka razy chyba mówiliśmy w tych przeglądach,
np. też firma związana z Googlem takie testy w Kalifornii prowadzi, teraz nie przypominałem sobie jak ona się nazywała.
Tak, Waymo. Właśnie.
No w tych tasówkach generalnie to wygląda tak, że AI prowadzi ten samochód.
Natomiast w dowolnej sytuacji, gdyby tam też jest człowiek, który na tym czuwa,
jeśli zauważy, że coś jest nie tak, to może w każdej chwili przyjąć kontrolę.
I przynajmniej podczas tej fazy testów tego asystenta opartego o Astrę,
w Airze będzie to wyglądało podobnie.
Więc podczas naszej rozmowy, ta rozmowa będzie monitorowana też przez osobę widzącą.
I gdyby coś się stało, albo gdybyśmy wyczuli, że coś jest nie tak i poprosimy tą sztuczną inteligencję,
wiesz co, jednak chciałbym to zweryfikować z człowiekiem, no to jeden z pracowników AIRA,
czyli z właśnie jeden z tych przeszkolonych osób, może tą rozmowę przejąć i w takiej sytuacji danej nam pomóc.
Na ten moment testy oczywiście są dostępne wyłącznie w Stanach Zjednoczonych,
co też zirytowało na przykład osobę w innych anglojęzycznych krajach, gdzie AIRA jak najbardziej jest dostępna,
No ale na razie testować tej nowej funkcji nie mogą, no i też mamy dużo ostrzeżeń.
Nie powinniśmy tego wykorzystywać przechodząc przez ulicę do rzeczy, do pracy z jakimiś
informacjami poufnymi, chociaż mówi się, że to wiadomo te dane będą wykorzystywane do
uczenia tych modeli i to jest jawnie powiedziane.
Natomiast informacje poufne mają być usuwane, ale AIRA raczej prosi, że jeśli ktoś chce tą
usługę do tego wykorzystywać,
żeby raczej tego nie robić i nawet
wcale się do tego programu
nie wpisywać.
Podaję tę informację bardziej jako
ciekawostkę, żeby pokazać
Wam, w jaką stronę ta technologia
idzie, jak to dobrze będzie
działo w praktyce, będzie Wam
musieli zobaczyć. Jest to bardzo
ciekawe, jak to będzie działało
w porównaniu np. właśnie do
takiego Gemini’a, czy tego
trybu zaawansowanego głosowego
w czacie GPT, no bo można tutaj
Po pierwsze, jeśli ten projekt Astra faktycznie ma być jeszcze lepiej
zoptymalizowany po takie zastosowanie, a po drugie, można się domyślić też, że
ten model będzie bardziej dostosowany pod pomoc osobom niewidomym.
Na pewno tam będzie jakieś konkretne instrukcje będą mu podane, jak się ma
zachowywać, jak bardzo to wpłynie na skuteczność tej usługi w praktyce.
Będziemy musieli poczekać, jak ludzie dostaną to do swoich rąk.
Aha, no właśnie, jeszcze ta usługa na ten moment jest dostępna niestety tylko na smartfonie,
więc jeśli ktoś na przykład lubi korzystać z AIR-y przez smartokulary, na przykład tematy,
no to na razie się nie da. Wyłącznie to działa tylko na iPhone i na Androidzie.
No ale zobaczymy, jak ludzie zaczną to testować, czy to faktycznie się sprawdzi.
No i zobaczymy, czy w końcu podobne funkcje nie trafią do usług konkurencyjnych.
Mamy komentarz od Mariusza.
Michale, dziękuję za wszystkie pomocne podpowiedzi. Z kolei moje pytanie jest do was następujące.
Posiadam aplikację mobilną mObywatel. Będę sobie zakładał profil zaufany i tzw. podpis elektroniczny.
Z kolei chciałem dzisiaj sobie w mObywatelu zeskanować dowód osobisty i jak mam go sobie zeskanować na iPhonie, żeby on mi go zeskanował.
Próbowałem tam, gdzie jest ta antena NFC i telefon mi go nie potrafił zeskanować.
Starałem się go ułożyć tak, jaką miałem, ale wciąż nie udało mi się go zeskanować i zrobić e-dowodu.
Jestem osobą całkowicie niewidomą i mam tylko poczucie światła.
Jakie macie na to rady i zastosowania?
Posiadam iPhona 15, jestem użytkownikiem systemu iOS.
To tu się zatrzymamy. Mariuszu, a czy Ty jesteś pewien, że masz dowód tzw. z warstwą elektroniczną?
Bo jeżeli masz dowód z warstwą elektroniczną, to Ty już jakby to powinno…
Inaczej, ja nie bardzo rozumiem, dlaczego chcesz skanować dowód w aplikacji M-Obywatel.
Czy chodzi Ci o podpisywanie dokumentów tym dowodem, czy w jakim celu?
Bo jeżeli chcesz korzystać z e-dowodu, to po zalogowaniu się do aplikacji M-Obywatel, to ty dane swojego dowodu już tam masz.
Więc trochę nie rozumiem, jaki tu jest dokładnie problem i co próbujesz zrobić, bo w aplikacji mamy zarówno te nasze dane z dowodu,
Mamy dane M-dowodu, czyli tego takiego elektronicznego dowodu i tu nie wymagane jest, przynajmniej z tego co wiem, skanowanie dowodu osobistego w żaden sposób.
Oczywiście, jeżeli chcesz na przykład podpisać jakiś dokument cyfrowo i się uwiarygodnić E-dowodem, to jak najbardziej.
Być może też, ja akurat tego nie robię, ale być może chodzi Ci o logowanie się do M-Obywatela.
A może tam jako login wykorzystujesz dowód. Być może o to tutaj chodzi.
Ale to, tak jak mówię, ja nie korzystam akurat z tej metody, więc ciężko mi powiedzieć.
Mamy, zdaje się, telefon, więc odbierzmy telefon, skoro ktoś do nas dzwoni.
Kogo witamy po drugiej stronie?
Witam, z tej strony Patryk.
Cześć Patryk.
Ja tutaj chciałem troszeczkę powiedzieć o Gemini, bo korzystam od miesiąca, akurat jeśli chodzi o tą kamerę.
Mam swoje takie przemyślenia. Na iPhone’ie jeszcze chyba tego nie ma, bo tam podobno jest zapowiedziane, że mam starego iPhone’a.
Jest, ale nie we wszystkich, na wszystkich kontach to działa. To tak jak Piotr powiedział.
Tak, u mnie to już działa, z tego co wiem, ja akurat wykorzystuję jedno konto z G Suite’a z tego, czy to teraz tam Workspace się bodajże nazywa, ale z tego co wiem niektórzy użytkownicy po prostu Gmail’a też już to mają.
No właśnie, bo ja nawet nie mam, bo wcześniej było to w tej właśnie opcji Advance, trzeba było po prostu za to płacić.
Ja tą subskrypcję włączyłem właśnie ten miesiąc temu
i testowałem to już na Galaxy S24 Plusie, którego posiadam.
No i takie mam przemyślenia, jeśli chodzi o halucynacje,
bo to pewnie ciekawi większość osób.
Jeśli chodzi o jakieś daty ważności tego typu sprawy,
to bym nie uchwał, od razu mówię.
Czyli halucynuje.
Halucynuje, tak. Wymyśla jakieś rzeczy.
Jeżeli ją poprawimy na przykład, bo ja jestem osobą słabo widzącą,
ja jestem w stanie gdzieś to tam zweryfikować, jeżeli ją poprawimy
i zapytamy na przykład za 10 minut, no to ona już powie prawidłowo, tak?
No.
Ale na przykład pieniądze, banknoty, to tutaj nie widziałem sytuacji,
żeby po prostu gdzieś tu się pomyliła.
Myślę, że tam w 90% przypadków można zaufać.
Jeśli chodzi na przykład jeszcze, taki prosty przykład z życia.
Po prostu wyskoczył w pralce jakiś błąd.
I tutaj był jakiś problem z wyważeniem bębna.
I tutaj Dżemina bez problemu rozczytała ten błąd
i od razu w internecie znalazła informację
i podała ładnie, co jest grane.
I jeśli chodzi o takie rzeczy, to działa.
Także myślę, że można to użyć.
Też jest fajny tryb.
Nie wiem, czy to na iPhone’ie też jest, ale wnymi na Androidzie działa udostępnianie ekranu.
No to tam też bardzo to fajnie działa. Można na przykład, jak teraz jest problem na Allegro na przykład z komentarzami na Androidzie,
że na przykład syntezatory żadnej ich nie czytają, no to Jemina i bez problemu to odczytuje.
Możemy ją poprosić o to, żeby przeczytała jakiś tam komentarz czy coś. Nie ma z tym problemu.
Tutaj też jakichś halucynacji nie ma.
Wiesz co, ja też nie testowałem tego akurat, ale jest opcja udostępniania ekranu.
Więc można, więc można udostępnić ekran z jakiejś tam aplikacji, czy też chyba po prostu z iPhona jako takiego?
No tutaj na Androidzie bynajmniej działa to w ten sposób, że globalnie udostępniamy ekran. Robimy sobie cokolwiek.
Znaczy, no mówię, dla mnie jako dla osoby słabowidzącej jest to super sprawa, bo jakiś artykuł do przeczytania czy coś mogę po prostu powiedzieć, przeczytaj mi ten artykuł i ona mi czyta.
Nie muszę tam uruchamiać talkbacka czy komentary.
No jasne.
To jest mega sprawa.
Jakieś tam, mówię, rośliny, to też prawdopodobnie rozpoznaję prawidłowo.
No naprawdę zastosowań jest mnóstwo.
Na przykład też testowałem coś takiego.
Taka sytuacja.
Mamy telewizor bez udźwiękowienia.
No i nie wiemy, co jest napisane na ekranie.
Bez problemu odczyta.
Na przykład wchodzimy w menu telewizora
I idziemy kursorem, no to możemy pytać, co jest teraz, gdzie jest kursor.
Pytamy na przykład Dziemina i on bez problemu nam tutaj odczytuje, gdzie jest kursor.
I taka jedna też moja uwaga, że to działa bardzo szybko.
To w porównaniu do czata GPT działa naprawdę zaskakująco szybko.
Bardzo szybko. Tutaj ja jestem po prostu pod wrażeniem.
Ja nie wiem… i to nie ma znaczenia nawet internet, bo ja tutaj u siebie
w mojej miejscowości mam dość słaby internet i naprawdę działa to mega szybko.
Jeśli chodzi o same telefony, na jakich to działa, to działa to na Samsungach od S21 w górę, które ja osobiście mogłem zweryfikować i na których to testowałem.
Czyli na S21 testowałem, na S23, mój S24 Plus wiadomo.
Na jakichś takich słabszych modelach nie miałem możliwości sprawdzić.
Na pewno działa to na pikselach, a inne marki to w sumie nie wiem.
A jeszcze na tablecie mi też działa. Galaxy S9 FE też działa.
Myślę, że jakieś moje przemyślenia mogą się przydać.
Ale to się też moim zdaniem cały czas będzie uczyło, że za rok, za dwa
to będziemy w całkiem innym miejscu.
To prawda.
Więc to jest przewaga tego AI, że to się będzie uczyło.
Czyli my będziemy pokazywać jakieś daty, na przykład. Będziemy móc zwracać uwagę, że coś jest właśnie, na przykład, że ta data ważności jest nieprawidłowa, czy coś. Ona się nauczy w końcu tego, że to, co my mówimy, będzie coś mniej halucynowanego. Tak mi się wydaje.
Ta sztuczna inteligencja generalnie mam wrażenie, że naprawdę idzie cały czas do przodu, dlatego że chociażby ja ostatnio, no to już z takich bardziej zaawansowanych rzeczy, miałem potrzebę, żeby napisać pewien program.
I to taki program, który teoretycznie jest prosty, natomiast w praktyce miał tam parę takich różnych udziwnień, bo np. pobierał sobie dane z pliku w Microsoft Wordzie,
odpowiednio je parsował według zadanych kryteriów i wypluwał jako wynik też do Microsoft Worda. No więc trochę tam zabawy miał pod maską.
A ja napisałem mu specyfikację tego, jak to ma się zachowywać w jednym prompcie.
W drugim, w ramach odpowiedzi, dostałem działający idealnie skrypt, który po prostu ruszył.
Wystarczyło tylko odpowiednie moduły doinstalować. On tak naprawdę się jedynie pomylił w module,
jaki miałem zainstalować, bo po prostu złą komendę mi podał, którą powinienem wykonać,
A potem to już po prostu jak napisałem mu, że jest taki i taki komunikat, no tak, sorry, pomyliłem się.
Trzeba tu zainstalować inny moduł i to po prostu zadziałało.
Kiedyś, jeszcze parę miesięcy temu, to trzeba było naprawdę długo z nim pracować nad tym, żeby taki efekt osiągnąć.
A teraz…
Nie no, jest super. Nawet jeszcze takie przykłady podam, bo też właśnie Google zapowiedziało,
że to ma się pojawić na zegarkach, właśnie, Jeminaj,
to ja nie ukrywam, czekam, bo to na zegarku to będzie super sprawa.
To prawda, to prawda.
I że ja w tym momencie korzystam sobie z asystenta Google, na przykład,
tylko że, no mówię, przy asystencie Google trzeba być bardziej precyzyjnym,
czyli na przykład, jak ja mam wzmacniacz Harman Kardon Amp,
i on jest po prostu zintegrowany z Google Home,
Mogę mu przez asystenta Google powiedzieć, żeby na przykład włączył jakiś utwór,
a przy Jeminaj to mogę powiedzieć, słuchaj, jest mi smutno,
włącz mi jakąś taką smutną muzykę i ona to rozumie i ona to zrobi.
Albo jestem w sypialni, kładę się do snu, mam inteligentne lampki,
mogę powiedzieć, słuchaj, ja już jestem w sypialni, kładę się do snu
i ona wtedy do mnie mówi, że no to ty idź spać, a ja przyciągnę ci powoli światło.
Ja będę zasypiał, a to światło będzie coraz ciemniejsze, coraz ciemniejsze i się wyłączy.
Tak jak przykład. Że to jest bardziej ludzkie. Po prostu. O to w tym chodzi.
Aczkolwiek jeżeli chodzi o wiedzę, taką typowo wiedzę, to ja złapałem Jeminaja na przekręcaniu faktu.
A to ja też. To też.
To jeszcze z tym trzeba uważać. Rozmawiałem z nim przez chyba pięć minut na temat głosu Ameryki.
Co się teraz dzieje z głosem Ameryki? Polecam. Jestem bardzo ciekaw, czy wam też powie, że głos Ameryki to cały czas nadaje i tylko nadaje dla jakichś tam krajów, w których są problemy demokratyczne, bo głos Ameryki bodaj od 15 marca zaprzestał w ogóle produkcji swoich programów.
A on bardzo, bardzo usilnie nie chciał powiedzieć o tym, że ten głos Ameryki już nie nadaje.
Taka to ciekawostka.
On nawet potrafiło się wywalić na takich rzeczach, że nie wiem, pytam go na przykład o Samsunga Galaxy S25.
A ona mi wyjeżdża z tekstem, no jeszcze nie mamy wszystkich informacji, bo przecież ten smartfon nie był zaprezentowany.
Jak nie był zaprezentowany, jak on już jest pół roku prawie na rynku, tak?
Tak, czasem trzeba zmusić, żeby szukało to w internecie, gdzieś tam się odwołało do internetu, aczkolwiek jeżeli chodzi o Tyflopodcast na przykład, no to aktualne dość miał informacje,
żeby najprostszą metodą, żeby sprawdzić jaka jest aktualna wiedza takiego modelu, jest zapytać na przykład, jaki jest najnowszy odcinek na stronie tyflopodcast.net i on wtedy potrafi powiedzieć na przykład,
Mi akurat powiedział od Tyflo o przeglądzie 282 bodajże, była już kolejna audycja opublikowana,
więc widać, że tam z jakimś opóźnieniem on sobie to pobiera, te informacje.
Natomiast to były w miarę nowe informacje.
Ale tak jeszcze wrócę do tego trybu kamery.
No to też mnie zaskakuje to, że na przykład jak mamy jakiś tekst do czytania, jakiś dokument,
to nie ma znaczenia czy on jest odwrotny czy coś, po prostu go czyta prawidłowo.
Musimy się zastanawiać, czy jest tutaj…
On po prostu przeczyta i tyle.
Możemy też… Ostatnio byłem u lekarza, u okulisty
i wyjąłem telefon i z jakiejś ciekawości
mówił, jak ciekawe, czy mi wskaże, gdzie jest gabinet numer 2.
No i bez problemu, nie?
Jesteś w odległości tam jednego metra,
skieruj się bardziej na prawo, coś takiego.
I bez problemu tutaj nie halucynował.
albo nie wiem, pokaż mi gdzie jest wieszak.
No i ona mówi na przykład, ty skieruj telefon w inną miejsce,
bo w tym miejscu, w którym pokazujesz, nie ma wieszaka.
Skierowałem bardziej na lewo, tu jest wieszak.
Idź prosto, nie? Także…
Super.
To jest super sprawa, tylko po prostu mi brakuje pomysłów,
jak to możesz natestować, ale no mówię,
jak ktoś ma możliwość, testujcie, bo to zmienia jakby…
to zmienia wszystko moim zdaniem.
I jeżeli to jest coraz dokładniejsze, to tutaj coraz to się uczy, im więcej danych dostaje. I to przede wszystkim też jest cierpliwe.
Prędzej my cierpliwość stracimy, jak zacznie nam ściemniać.
Ostatni przykład podam też, bo przebiłem koło ostatnio w tandemie i zapytałem go o właśnie rower, no to on mówi, że widzę rower typu tandem.
W czym mogę Ci pomóc?
Ja się pytam, czy z tym rowerem jest wszystko w porządku?
A ona do mnie mówi, tylne koło wygląda na to, że jest puste.
Nie powiedziała, że przebite, ale jest puste.
To już widziała, że coś jest z nim nie tak.
No i ja mówię do niej, że po prostu te koło już przebiłem drugi, trzeci raz.
I ona mi mówi rozwiązania, jakie możemy tutaj zastosować, żeby po prostu tą usterkę…
I to mówi prawidłowo akurat, jeśli o to chodzi.
To prawda, marki samochodów to bezbłędnie. Nie było sytuacji, żeby się tutaj… Nawet takie egzotyczne, jakieś takie dziwne samochody też pokazywałem i nie ma tutaj problemu, tylko to jest ciekawostka.
Super, coraz ciekawiej się robi, a szczególnie, że mamy coraz więcej różnych modeli do wyboru i jeżeli jakiś jeden nam nie pasuje, to zawsze możemy się przyłączyć.
No i też mało tego, jak używamy Androida, bo przy iPhonie to pewnie nie może działać,
chociaż tam podobno ma się coś zmienić, że Unia Europejska tam wymusza,
że po prostu na iOS-ie też mają mieć wybór domyślnego asystenta w telefonie.
No to też by jakby dużo zmieniło. No to możemy jakieś tam notatki zapisywać
bez problemu, jakieś SMS-y sobie pisać z gminy, czy coś tam.
No naprawdę multum tego rzeczy jest, bo na iPhonie to chyba raczej nie działa.
No tych aplikacji domyślnych, które już na iPhonie można zmienić, to jest coraz więcej, słuchajcie, ja ostatnio tam zajrzałem i tam tak mówiło się np. o przeglądarce, o programie do poczty, o mapach, ale np. można sobie wybrać domyślny menedżer haseł.
Tak, tam chyba przeglądarkę można też wybrać.
Tak, przeglądarkę to już od jakiegoś czasu można wybrać.
Warto, słuchajcie, do użytkowników iPhone’a taka informacja, że przejrzyjcie sobie tę listę tych programów domyślnych w ustawieniach, bo tamtego jest coraz więcej i nie o wszystkim się mówi, tak mapy, dokładnie.
Tak, tłumacze już mówili, że Google i tłumacz Google można sobie ustawić.
Dipla też na przykład, jak ktoś ma.
Jeśli chodzi właśnie o samego Apple’a, to oni jakby…
Jeśli chodzi o AI, to nic nie ma.
Nie ma, nie ma.
Nie istnieją, tak?
I tutaj niektórzy ludzie się drażnią, denerwują Ci to.
Gdzieś tam kupują iPhone’y i…
Moją prawo, natomiast też mówi się o tym,
że prawdopodobnie Apple pozwoli nam na zintegrowanie się
z tych narzędziach systemowych, też właśnie z modelami Gemini.
Ponoć trwają rozmowy, już to można zrobić z chatem GPT, można się zalogować i tam
jeśli sobie otworzymy te narzędzia pisania, no to jest na czynnościach jakieś, tak sobie
na przykład 2.io się zaznaczymy, no to tam możemy albo właśnie skorzystać z tych
modeli lokalnych, które naszego języka nie wspierają, ale tam też mamy przycisk, żeby
od razu się odwołać do czata GPT i tam w którejś niedawnej wersji iOSa, nie wiem czy to
było 18.3.4 może, została dodana opcja, że oprócz tych takich sztywnych przycisków,
które mieliśmy tam, streszć, tak, zrób listę.
Mamy też po prostu pole edycji i możemy wpisać, co chcemy,
żeby on nam z tym tekstem zrobił.
No ale mówię, no tutaj poczekajmy, bo mi się wydaje, że będzie ciekawie po prostu.
Ciekaliśmy tyle lat na Sfiri,
no to chyba bodajże 2011 roku, chyba że się mylę.
No długo, długo.
No długo, ale tak mi się wydaje, tak strzelam po prostu.
No i po prostu może być tak, że
Po prostu Google nas wyręczy i będziemy mieli Jemina jako domyślnego asystenta na iPhonie, który będzie robił to samo co na Androidzie, albo prawie to samo.
Ja się wcale nie będę upierał, żeby to musiał być asystent od Apple. Niech będzie jakikolwiek, ale skutecznie działający.
Tak, bo tym bardziej, że Google ma fajne te rozwiązania, są coraz lepsze i tyle. I tu nie ma co protestować, nie ma co się też zamykać właśnie na te aplikacje Apple’owe i jak to wszyscy…
Szczególnie, że po prostu to nie zawsze w naszych polskich warunkach najlepiej działa.
iPhone jest naprawdę fajnym telefonem i ten system operacyjny działa naprawdę okej,
natomiast pod względem dostępności szczególnie, ale to nie znaczy, że Apple jest lekiem na wszystko
i że to po prostu tylko aplikacje od Apple. Ja powiem więcej.
Ja właśnie staram się pozbywać domyślnych aplikacji tam, gdzie ma to sens, jeżeli chodzi o Apple na przykład.
No ja jako domyśleń aplikacji chociażby do poczty używam outlooka od Microsoftu, bo mi to działa najlepiej.
Ja te aplikacje najbardziej lubię, a poczty iOS-owej nie lubię po prostu.
Tak, ja znowuż powiem, że ja używam aplikacji Google’owych, no bo mam i Androida i iPhone’a i to wszystko ze sobą tam.
Czy tam karty w Chromie, czy coś to się synchronizuje fajnie i tak naprawdę, czy wezmę iPhone’a, czy wezmę Samsung’a, no to bez problemu.
To będzie działać, oczywiście.
Będzie działać i tutaj nie ma problemu, nie?
Więc tutaj też myślę, żeby było fajnie i dlatego ja się wstrzymuję przed zakupem nowego iPhone’a, bo tak naprawdę, mówię, jeżeli tu się nic nie zmieni, no to bez sensu.
No ja na Androidzie mam tyle możliwości, to też tak myślę, taka uwaga moja do ludzi, którzy mają iPhone’y i się zastanawiają, nie zastanawiajcie się, kupujcie jak macie możliwość, testujcie te Androidy,
To jest to, co Dzieminaj potrafi z aplikacjami na Androidzie, czyli tam w gmailu, czy tam jakieś notatki zapisywanie, wysyłanie smsów.
Możemy zapytać, znajdź mi najbliższy sklep i wyślij jego adres do Ani, czy tam do Pawła, czy do kogokolwiek. Ona to zrobi bez problemu.
A ja tak przewrotnie powiem, a ja mając w perspektywie zakup nowego telefonu to bym jednak mimo wszystko poczekał
Czy nie opłaci się kupić tego iPhona, jeżeli ten iOS jeszcze bardziej się otworzy?
Bo wtedy jak będzie można sobie zintegrować różne rzeczy z Google, które naprawdę działają fajnie
i mieć to na iOS-ie, czyli mieć dwie rzeczy, które po prostu działają naprawdę dobrze,
no to wtedy to już zaczyna być to bardzo fajnym rozwiązaniem.
Tylko, że mówię, no te androidy też są teraz inne i np. taki Google Pixel ostatnio bawiłem się w sklepie, no bardzo fajnie, pomimo tego, że trochę już odbiegam od tematu, ale no naprawdę bardzo to fajnie działa.
I ten talkback mam wrażenie, że jest tam lepszy niż na Samsungu, który pomimo, że mówią, że jest szybszy, wydajniejszy, ma lepszy procesor, ale to nic nie znaczy. Po prostu ten talkback na Pixelu i tak działa lepiej.
Jasne.
Tak to wygląda.
Ok Patryku, to dzięki za tę wypowiedź, na pewno bardzo cenną.
To są moje miesięczne testy, więc mówię, no tutaj…
No ja się od niedzieli mam okazję bawić właśnie Geminiem.
Ale to jest właśnie plus posiadania dwóch systemów.
Jeżeli się pojawia coś na Androidzie, a zwłaszcza…
Ja w ogóle jeszcze tak na koniec powiem, ja trochę nie rozumiem podejście Google’a,
Mając taką przewagę, jeśli chodzi właśnie o tej, pchają się w iPhone’y.
Przecież to by mogło napędzić sprzedaż, nie wiem, Pixeli na przykład i w ogóle.
Oni chyba zarabiają więcej na usługach, tak jak mówisz.
Dzieje się tak z systemami, ja mam wrażenie, że z tą otwartością to mamy taką trochę mijankę, bo kiedyś to mówiło się o tym, że Android jest tak super otwartym systemem.
Teraz nagle się okazuje, że w Androidzie jest coraz trudniej różnego rodzaju rzeczy zrobić, bo po prostu Google musi to wszystko uszczelniać, uszczelniać, uszczelniać.
A iOS, no ja nie powiem, że z własnej woli. Przypuszczam, że nie.
Że nie z własnej woli, z woli twórców Apple.
Pod naciskami Unii Europejskiej chociażby musi się coraz bardziej otwierać.
Ale iOS ma solidne fundamenty, na których stoi dobry i przede wszystkim bezpieczny system operacyjny.
Bo jest zaprojektowany pod konkretne sprzętowe rozwiązania, więc no tym wygrywa iOS.
Ale oczywiście fajnie, że jest wybór i fajnie, że Android też działa.
Tak, ale to już mówię, tutaj też jest ta mijanka właśnie, bo Android też się robi coraz szczelniejszy.
Telefony są coraz dłużej aktualizowane.
I tutaj, no ja nie miałem jakiejś takiej sytuacji.
Jeżeli oczywiście nie kombinujemy, bo Android daje nam to możliwość, że…
Że można kombinować.
I możemy przekombinować, ale jeżeli będziemy korzystać z niego tak jak z iPhona,
Mamy aktualny system, no to ja moim zdaniem na 99,9% nie widzę żadnego zagrożenia, bo nie da się.
Nawet ostatnio była aktualizacja na Samsungach do właśnie Androida 15, no i tam wprowadzili też takiego jak blokada automatyczna,
czyli dopóki jej nie wyłączymy, nie zainstalujemy żadnej aplikacji spoza sklepu Play. Koniec, kropka.
Od razu nam to wyskakuje i tutaj nie ma możliwości.
No cóż, dobrze, że jest wybór w każdym razie i dobrze, że to wszystko zaczyna działać coraz lepiej.
Natomiast ja, tak jak mówię, ja czekam, czekam, aż ten iOS się jeszcze bardziej otworzy.
Tyle czasu się naczekałem, to jeszcze trochę poczekam i myślę, że będzie.
Ja wtedy może sobie kupię nowszego iPhone’a. Jeżeli to się otworzy, okej.
Wtedy tę ósemkę wysłużoną wymienię na jakiegoś tam, nie wiem, piętnastkę, szesnastkę.
I w ogóle, tak jeszcze abstrahując, to te ceny tych iPhone’ów w porównaniu do Android’ów, one są konkurencyjne.
No tak, bo flagowce wcale nie są tanie, czy z jednej, czy z drugiej strony.
Po prostu iPhone’y nigdy nie były tanie, Androida można mieć za kilka stówek nawet,
czy tam u operatora w jakiejś promocji, tylko pytanie, co dostaniemy.
Podejrzewam, że nic fajnego.
No nic nie jest fajnego.
Przynajmniej w części przypadków.
Dobrze, Patryku. Mamy jeszcze trochę tematów, więc bardzo serdecznie Ci dziękujemy za telefon.
Pozdrawiamy, do usłyszenia.
Do usłyszenia.
Cześć.
Dobrze, to teraz jeszcze zajrzyjmy do Waszych wypowiedzi, Waszych komentarzy,
bo tutaj mamy trochę wypowiedzi.
Sylwester napisał, że napisał komentarz pod audycją.
No to już komentarz pod audycją jest, Sylwester ostrzega przed jednym z banków, austriackich bodajże, a za chwilę zajrzę do tego komentarza dokładnie, więc przytoczę.
Też mam swoją teorię na ten temat, to się przy okazji nią podzielę, ale na razie jeszcze przeczytam, co tu mamy od Sylwestra, jakie komentarze.
Proszę pozdrowić Kamila Kaczyńskiego. Kupiłem radio Sharp DRP420. Wczoraj kurier mi przywiózł i testuje. Zadowolony jestem do Michała.
Proszę pozdrowić Kamila Kaczyńskiego ode mnie. I Sylwester jeszcze napisał, że wyłączył Gemini na Samsungu S21, bo mnie wnerwiał.
No cóż, no okej, no skoro cię wnerwiał Sylwestrze, to…
Znaczy, ja myślę, mam nadzieję, że już czasy tego, że jak prosiliśmy Jemena na przykład, żeby nam TalkBacka wyłączył, on mówił, że nie umie, albo coś tam wyszukiwał w internecie, to już mamy za sobą.
On faktycznie kiedyś odbiegał od asystenta pod względem funkcjonalności, ale pewnie to będzie się zmieniało.
Dokładnie, no by tak było.
I mamy tu jeszcze taki komentarz od Sylwestra pod audycją, którego odczytanie prosi.
Trezbank, mam nadzieję, że to jest dobra nazwa, Trezbank Austriacki oszukał 25 znajomych, stracili pieniądze z kont bankowych.
Taka informacja od Sylwestra. Sylwestrze, a ja się tak zastanawiam tylko, czy przypadkiem aż tyle osób, które padły ofiarą właśnie takiej sytuacji,
To nie padło ofiarą jakiegoś generalnie oszustwa. Tego jest naprawdę dużo. My o tym też mówimy w audycjach.
I ja przy tej okazji jeszcze raz Was uczulę, moi drodzy. Jeżeli do Was dzwoni ktoś, kto obiecuje Wam jakieś inwestycje,
kto Was namawia na to, żeby zainstalować jakąś aplikację, kto Wam na przykład mówi, że jest, że macie jakieś konto handlowe,
którego nie przypominacie sobie, żebyście aktywowali i żebyście w ogóle cokolwiek w jakichś inwestycjach robili,
to pamiętajcie, że po prostu z takich telefonów, z takimi połączeniami najlepiej się od razu rozłączać i blokować takie numery.
Bo to są oszuści, którzy próbują wyłudzić od Was pieniądze, którzy mogą wprowadzić Was jeszcze na jakieś miny
pod tytułem kredyty na kilkadziesiąt tysięcy, którzy mogą Wam wyczyścić konta.
Bank, i to każdy bank, bez znaczenia czy będzie to bank polski, czy bank zagraniczny,
jeżeli nie będzie go obowiązywało w danym przypadku jakieś prawo bankowe,
które jest ściśle regulowane, to Wam po prostu tych pieniędzy nie odda.
To będą lata gdzieś tam użerania się i z bankiem wtedy, i chodzenia na policję, wizyt w prokuraturze, żeby takie pieniądze odzyskać, także słuchajcie, uważajcie na to, bo można naprawdę bardzo dużo pieniędzy stracić.
Ja już kiedyś mówiłem, aplikacja Orange Telefon na Androida i na iOS-a.
Zainstalujcie sobie to, ustawcie sobie blokowanie tych wszystkich połączeń,
aktualizowanie bazy danych i wtedy też nie macie stuprocentowej pewności,
że nie będą do was jacyś spamerzy dzwonić,
ale macie przynajmniej trochę więcej szans na to,
że coś takiego zostanie zablokowane.
Też jeżeli dzwoni do Was ktoś, kto podaje się za pracownika banku
i mówi, że na przykład nastąpiło włamanie na Wasze konto,
bank nie będzie do Was dzwonił.
A jeżeli będzie, to pamiętajcie, że jest opcja
w większości aplikacji bankowych do weryfikacji takiego kogoś
w tej właśnie aplikacji,
że to jest połączenie z banku.
A najlepiej w takiej sytuacji się rozłączyć,
Znaleźć w internecie numer telefonu na infolinie banku, nie odzwaniać na to połączenie, tylko znaleźć w internecie numer telefonu do Waszego banku, zadzwonić i zapytać. I w ten sposób to powinno działać.
Także uważajcie i to naprawdę nie ma znaczenia w jakim banku macie konto, bo w każdym banku, jeżeli wykonacie jakiś przelew, na przykład, to może być już po prostu koniec waszych oszczędności i niekiedy oszczędności życia.
Dobrze, tyle ostrzeżeń, to teraz może coś optymistycznego.
Chociaż no właśnie, kogo będzie na to stać?
Na wielowierszowy monitor Brailowski?
Bo Jones się chwali, że będzie w pełni w stanie taki monitor wykorzystać.
Tak, dokładnie. I pierwszym monitorem, jaki będzie wspierany to,
i tutaj bez większego zaskoczenia, będzie to monitor Monarch
od American Printing House, który gdzieś tam już pomału zaczyna do
różnych szkół w Stanach Zjednoczonych trafiać.
Taniu nie będzie.
Taniu nie będzie.
Pamiętam, kiedyś sprawdzałem to na polskie, to ten monitor chyba 70 tysięcy kosztował.
Oczywiście złotych i to pewnie teraz te ceny zmieniły jeszcze.
Natomiast gdzieś trzeba zacząć, a pewnie takich monitorów będzie więcej.
No na przykład tutaj w tym Flipschagondzie był opisywany taki trochę tańszy monitor od Orbita.
Orbit Slate bodajże to był.
To też jest monitor wielowierszowy, ale trochę mniejszy,
bo jeśli mówimy tutaj o monarchu, to jest to monitor,
który jeśli wyświetla nam tekst,
a tutaj będziemy mówić raczej o tekście,
to jest w stanie wyświetlić 10 wierszy po 32 znaki.
Tak że całkiem niemało, może taka pełna 40-znakowa linia to nie jest,
ale nie jest źle.
I tak jak mówiliśmy, tak jak wtedy było mówione w tym podcaście,
Czytniki ekranu jeszcze nie nadążyły za rozwojem technologii, jeśli chodzi o wielowierszawego Briana.
No bo tutaj moglibyśmy się spodziewać, chcielibyśmy czytać po kilka stron naraz, przeglądać sobie tabelki.
No i właśnie dlatego sam Monark ma dużo wbudowanych aplikacji.
W ogóle niedawno dowiedziałem się, że na tym urządzeniu jest zainstalowany zwykły Android.
No o tym akurat wiedzieliśmy, że to jest system na bazie Android i ma np. aplikację do przeglądania internetu klienta pocztowego.
…ale tam też można instalować inne aplikacje i okazuje się, że one nawet są dostępne, więc on nie jest jakoś bardzo poblokowany, okazuje się.
Natomiast jeśli chodzi o pracę z komputerami, no to przez czetniki ekranu tego typu urządzenia były traktowane albo jak po prostu taka zwykła linijka aparelowska, że mieliśmy jedną linijkę,
albo taka bardzo przerośnięta linijka aparelowska, która ma tych znaków 200 albo 300, ale cały czas z tam wielobierczowego brajla,
Pierwszym czytnikiem ekranu, który jakkolwiek się deklarował na wsparcie wielowierszowego Braille’a, był voice-over w iOS 18.
Najpierw to w ogóle mieliśmy wyświetlanie grafiki, a potem mieliśmy wielowierszowego Braille’a.
Natomiast przynajmniej ktoś, kto właśnie na tym Orbit Slate’ie testował, to nie działało.
A tutaj już mamy jasną deklarację. Zresztą to jest coś, co m.in. na niemieckim SiteCT, z tego co wiem,
jest pokazywane, więc może też Paweł o tym więcej coś powie,
może w jakichś niemieckich podcastach ktoś to przetestował
i podzieli się z nami większą ilością informacji.
Trasa konferencji tyfla informatycznych dopiero się zaczyna,
no bo teraz mamy lato, więc będzie konferencja NFB, ACB i wiele innych,
więc tego typu rzeczy będzie przybywać jeszcze więcej.
No i właśnie na te wszystkie konferencje szykuje się WISPERO,
czy Freedom Scientific oraz American Printing House i HumanWare,
przygotowując to wsparcie dla wielowiecznowego Brailla,
które dla użytkowników JAWS-a pojawi się w wersji beta później tego lata.
I czego się możemy z tego wsparcia wspierać?
Jak mówi Greg Stilson, czyli osoba odpowiedzialna m.in.
za rozwój technologii, rozwój monarcha w American Printing House,
Będziemy mieli na początek do dyspozycji dwa tryby pracy takich wielowierszałek monitorów wejdowskich.
Będzie to tryb zawinięty i tryb przycięty.
I jak to tłumaczy Greg, jeśli chodzi najpierw o ten tryb przycięty?
Do tej pory użytkownicy czynników ekranu nawigowali po tabelach z tabulatorami,
Tutaj właśnie mówimy po prostu o tabelach, w takim tekście ta pozycja w fionie jest też ułożona.
Nawigowali po nich bez zrozumienia orientacji przestrzennej, czyli nie mieliśmy tej informacji jak ten tekst był wobec siebie ułożony.
Tryb przycięty pozwala na czytanie sformatowanych tabelek z JOS-em,
Zrzostem zoptymalizowanym
pod tabelę w Wordzie,
w dokumentach Google, Excelu
oraz tabelach
na stronach internetowych.
Tryb przycięty pozwala
na to, że wszystkie tabele,
wartość wszystkich tabel
jest ułożona odpowiednio
w formie tabeli.
Przestrzeń nie pozwala
to użytkownikowi nawigować
Zobaczyć po tabeli i zobaczyć pełny jej obraz, czyli tak jak ktoś widział tabelki na przykład w podręcznikach brailowskich, jeśli mamy, nie wiem, pierwsze co mi przychodzi do głowy, nie wiem, tabelka w sklepie na przykład, tak, nazwa produktu, ilość cena na przykład, no to będziemy widzieli tą całą tabelkę i możemy sobie po prostu palcem wyczuć, gdzie te kolumny są i po nich czytać, czy na przykład właśnie skupić się na jednej konkretnej kolumnie.
To faktycznie może nam znacznie nawigację ułatwić,
zwłaszcza jeśli tak czasami mamy w sytuacji w internecie gdzieś tabelki,
mamy jakieś hulmy, które są dłuższe, krótsze,
czasami ta nawigacja nam nie działa tak, jak powinna.
Jeśli to będzie faktycznie nie działało tak dobrze, jak deklaruje producent,
no to w niektórych sytuacjach może to nam jak najbardziej pomóc,
zwłaszcza jeśli mamy do czynienia właśnie z jakimiś
bardziej skomplikowanymi tabelkami.
I o właśnie sytuacjach trybu Excel, już nie wspominając, pewnie tamto będzie jeszcze bardziej pomocne nawet.
Natomiast, oprócz czytania taberek i arkuszy kalkulacyjnych, mamy też tryb zawinięty.
Jeśli chodzi o tryb zawinięty, mamy tutaj informację, że tryb zawinięty optymalizuje zawartość tak, aby zawijała się od wiersza do wiersza,
…zapewniając, że żadna treść nie jest przycięta i treść jest zoptymalizowana na całe dostępne miejsce na monitorze prędowskim.
Tryb przycięty jest zoptymalizowany na ułożenie w pionie, które się przydaje m.in. podczas czytania arkuszy i tabel.
Natomiast tryb zamknięty działa w taki sposób, że po prostu wypełnia nam
maksymalnie, jak to jest możliwe, zawartość monitora tekstem.
Czyli z tego trybu byśmy skorzystali w sytuacji, kiedy np.
otworzyliśmy sobie, nie wiem, jakiś terminal, jakiś dokument tekstowy po prostu
i chcemy, żeby te całe 10 wierszy po 32 znaki nam było wypełnione tekstem, tak?
Nie zależy nam na tym, że jeśli tam mamy jakieś minimalne wcięcia, no chociaż
dobra, wcięcia pewnie będziemy jakoś widzieć.
Natomiast głównym zadaniem tego trybu jest właśnie to, żeby zawsze każda linijka była możliwie do końca wypełniona,
tak żebyśmy nie musieli jakoś dużo tego monitora wypełnić.
I jak zapewniają tutaj producenci, to jest dopiero początek. Mają tutaj nadzieję, tutaj znów wracamy do komentarzy Grega.
Ma nadzieję, że w przyszłości będziemy mogli też tak oglądać interfejsy, żeby ktoś na przykład mógł sobie zobaczyć,
jak graficznie prezentuje się jego pulpit albo menu start, a to może też mieć swoje plusy.
Paweł nierawno opowiadał o tym, jak to jest dotknąć ekranu akurat smartfona w tym
przypadku po raz pierwszy, a nie zapominajmy też, że Monarch jest urządzeniem dotygowym.
My możemy też każdy ten punkt dotknąć, więc to też może mieć swoje plusy, jeśli
chodzi nawet później o aktywowanie rzeczy w ten sposób.
Jeśli zapamiętamy, gdzie coś jest, no to moglibyśmy teoretycznie
No właśnie, w niektórych sytuacjach korzystać z komputera trochę tak jak ze smartfona z ekranem dotykowym po prostu dotykając coś,
tym razem nawet nie tyle coś, co najpierw znajdziemy przez czytnik ekranu, ale dotykając coś, co nie jesteśmy w stanie po prostu wyczuć.
No także zapowiada się ciekawie. Fajnie, że JAWS jako pierwszy tego zadania się podjął.
No i nie zapominajmy, że inne czytniki ekranu też nie zostają duże, no bo VoiceOver też już coś dostał.
No a NBVA, jeśli pamiętacie naszą audycję o ich planach na przyszłość,
no to tam m.in. wsparcie wielowierszowego brajla też było ujęte,
więc pewnie można się spodziewać, jeśli ktoś bardzo nie chce z JOSA korzystać,
no to NBVA pewnie w przyszłości też takie funkcje dostanie.
No i miejmy też nadzieję, że po prostu z czasem będą pojawiać się
tańsze konstrukcje, które też pozwolą nam na korzystanie z takiego
wielowierszowego brajla.
Tego byśmy sobie wszyscy życzyli, bo na pewno będzie dawało to bardzo dużo nowych możliwości.
Tymczasem napisał do nas Łukasz. To wersja tekstowa tym razem wypowiedzi.
Gorące pozdrowienia z czasów w busku zdroju. No takiemu to dobrze.
Łukaszu, pozdrawiamy cię serdecznie. Miłego wypoczynku. Łukasz tu też jeszcze napisał.
Jeszcze ciekawostka, pod jednym ze sklepów widziałem automat paczkowy z firmy DPD.
Nie wiem jak się go obsługuje, ale co najważniejsze miał fizyczne przyciski.
Pozdrawiam, dzięki za te informacje.
A jeżeli ktoś może ma jakieś doświadczenia z automatami firmy DPD no to dajcie znać,
bo może coś tam można poczarować za pomocą tych przycisków.
Chociaż chyba najlepiej to Impost i aplikacja do zarządzania tymi paczkomatami, to chyba po prostu wszystko działa jednak najlepiej.
A przynajmniej działało kiedyś. I oby tak zostało.
Teraz przechodzimy do technikaliów, bo już wszystkie tematy z Tyflo Aktualności mamy za sobą.
A w technikaliach, na dobry początek, Whatsapp.
Dobry początek Whatsapp i to informacja, która ucieszy tych, którzy czekali na to już 15 lat.
Bo 15 lat temu pojawił się pierwszy iPad. Przypomnę, że wtedy Whatsapp już był dostępny.
Natomiast nie miał swojej wersji na iPada. No i tej wersji na iPada nie miał bardzo, bardzo długo,
bo tak naprawdę aż do dziś. No dobra, były wersje beta, których nie liczę, bo jak ktoś zdążył
zapisać się do testflighta, który co jakiś czas się otwierał,
no to miał to go WhatsAppa na iPadzie.
A jak ktoś nie zdążył, no to za dużo możliwości nie miał.
Tak naprawdę jedyną dostępną opcją jest korzystanie z WhatsAppa
z przeglądarki. Ja niedawno pomagałem znajomemu
iPada skonfigurować, który miał zastąpić nawet komputer.
I w jego przypadku to się nawet właśnie udało.
To była osoba widząca akurat.
No i potrzebował go do arkuszy, do pracy biurowej, to spokojnie, wszystko się dało zrobić.
W jakiejś konferencji online na Teamsach to też działa, są Teamsy na iPadzie.
No ale jeszcze Francisz korzystał z Whatsappa.
I do wiadomości to nawet się jeszcze da z tego korzystać,
no bo możemy właśnie wejść na tego Whatsappa web w Safari,
możemy go nawet sobie dodać później do ekranu głównego jako aplikacja
i to nawet, powiedzmy, działa podobnie, bo nasze dane się zapisują,
Więc później możemy sobie z ekranu głównego słuchnąć tego WhatsApp’a
i możemy z niego korzystać.
Dla nas, jako użytkowników voice-overa,
to na pewno nie będzie działało tak fajnie jak natywny WhatsApp,
dlatego że jednak te gesty nawigacyjne nie będą tak fajnie zrobione.
WhatsApp w przeglądarce to jest OK,
bo mamy tą nawigację z klawiatury zrobioną sensownie,
są skróty klawiszowe,
ale na ekranie dotykowym np. tutaj już nie mamy czynności
i nie mamy tych wszystkich elementów uporządkowanych.
Drugim istotnym problemem tego rozwiązania jest to, że WhatsApp w przeglądarce nie obsługuje połączeń, ani rozmów głosowych, ani rozmów wideo, w ogóle chyba do rozmów głosowych jeszcze wrócimy za chwilę.
Tak, zgadza się, a ostatnimi czasy to mam wrażenie, że z WhatsAppem w przeglądarce jest coraz gorzej, bo WhatsApp w przeglądarce nawet przestał obsługiwać rozmowy głosowe, a właściwie wiadomości głosowe, przynajmniej w Firefoxie.
A to niedobrze. Ciekawe czemu. Coś tam się może z kodekami zmieniło?
Być może, być może. Ja mam cały czas nadzieję, że to jest jakiś wstęp do lepszej jakości. Ale chyba na razie nie.
Miejmy nadzieję. Swoją drogą dużo osób na Windowsie, którzy korzystają z wersji beta, mówią, że coś tam im… ta aplikacja została zastąpiona przez WhatsAppa web.
Że ta aplikacja znowu wygląda jak strona internetowa.
Nie chcę jeszcze straszyć, bo nie wszyscy to potwierdzają, natomiast takie informacje do mnie docierają, że może coś tam się zmienić, niestety.
Ale wracając do iPada, no właśnie, nie mamy obsługi połączeń i tego za bardzo nie dało się obejść i to była największa bolączka użytkowników, którzy chcieli gdzieś z tego WhatsAppa korzystać na iPadzie.
Inna kwestia to powiadomienia. Nie wiem czy WhatsApp Web na iPadzie to wspiera.
Safari od jakiegoś czasu wspiera tzw. system Web Push dla aplikacji webowych, ale nie wiem czy Whatsapp kiedyś to dodał.
Natomiast na szczęście to wszystko dzisiaj się zmieniło, bo po cichu pojawił się Whatsapp na iPadzie.
Wygląda to tak, że po prostu została zaktualizowana aplikacja Whatsapp na iOS-a.
Numerek wersji to jest 25 kropka.
Teraz sobie nie przypomnę co.
Generalnie w sekcji tonowego nie mieliśmy informacji,
że coś takiego miało miejsce.
Natomiast dużą różnicą w tej aktualizacji jest to,
że po prostu jeśli ktoś sobie wejdzie na App Store’a w iPadzie,
wpisze WhatsApp na zakładce Wyszukaj,
no to już taką oficjalną aplikację bez problemu znajdziemy.
I kiedy ją sobie już zaktualizujemy,
no to spotkamy się z aplikacją,
która jak najbardziej pod iPada jest zoptymalizowana.
Mamy tutaj w pełni wykorzystany ekran,
no bo jak ktoś korzystał z iPada, to wiecie, że generalnie to wtedy wygląda tak, że
z lewej strony mamy listę konwersacji wszystkich, a z prawej strony nam się
wyświetla konwersacja, którą zaznaczyliśmy.
Gdzieś tam u dołu mamy pozostałe zakładki i tak to na iPadzie nie zostało zrobione.
Mamy dostęp do wszystkich funkcji, łącznie właśnie z rozmowami.
Możemy spokojnie na WhatsAppie rozmawiać zarówno przez rozmowy głosowe, jak i
I mamy też pełne wsparcie dla wszystkich trybów wielozadaniowości
na iPadzie, o których swojego czasu Arek Świętnicki opowiadał w podcasie,
więc możemy sobie tą aplikację WhatsApp zmniejszyć na przykład
i jednocześnie sobie przeglądać jakąś stronę internetową, jednocześnie
czytając wiadomości, które przychodzą albo wklejając informacje,
które chcielibyśmy udostępnić.
Ten tryb slide over, picture in picture, jeśli rozmawiamy,
No to okienko rozmowy może nam po ekranie pływać, możemy też je sobie ułożyć w dowolnym miejscu dogodnym dla nas.
Także w końcu ten Whatsapp się pojawił. Kiedy już się pojawił, no to bardzo dobrze zinterakuje się z systemem.
W dużej mierze jest to aplikacja oparta o kod w wersji na iOS. Ja akurat Whatsappa na iPadzie nie testowałem.
Natomiast patrząc na przykład na to, jak on działa na Macu, tam też jest w większej części kod wykorzystany.
To raczej myślę, że nie macie czego się obawiać.
To będzie działało bardzo podobnie, czyli tutaj wszystkie czynności,
to jak VoiceOver czyta, czy to rozmowy, czy lese rozmowy, czy same wiadomości.
Tutaj wszystko powinno działać bardzo podobnie, a więc naprawdę bardzo sensownie
ta aplikacja będzie dla użytkowników VoiceOvera, myślę, zrobiona.
Także jeśli macie iPada, czekaliście na to, może męczyliście właśnie się z tą przeglądarką,
A to możecie tą ikonkę sobie usunąć, otworzyć App Store’a, wpisać Whatsapp i już tą oficjalną wersję sobie ściągnąć i korzystać z niej.
To prawda, a teraz skoro jesteśmy już w temacie Whatsappa, to myślę, że warto powiedzieć o nowej funkcji,
jaka być może również u Was się pojawiła, jeżeli jesteście członkami różnego rodzaju czatów na Whatsappie,
Czyli jeżeli macie, jesteście na jakichś grupach i tam się rozmawia, no to być może u was się pojawiła taka funkcja, taki przycisk jak rozpocznij czat głosowy.
To jest… ja to zresztą może pokażę i myślę, że możemy to nawet jakoś praktycznie spróbować teraz zademonstrować i zobaczymy co nam się z tego uda w ogóle osiągnąć.
To jest na samym dole listy wiadomości. Mamy wiadomości, tak, tu mamy komunikat, że Robert chciał porozmawiać, ale to już jest po prostu wiadomość, a tu mamy przycisk Rozpocznij czat głosowy.
I jeżeli klikniemy ten przycisk, to pojawi się informacja u osób, które mamy na czacie, tym konkretnym Whatsappowym,
…że po prostu mamy chęć porozmawiać.
My mamy taką naszą tyfloprzeglądową wewnętrzną grupę.
Więc ja teraz kliknę. Rozpocznij czat głosowy.
Kliknę ten przycisk. I co się w tym momencie dzieje?
Na razie to jeszcze nic.
Właśnie. Mamy tu rozpocznij czat głosowy w tej grupie.
Ja połączę sobie, żeby nie przeszkadzać.
Ja kocham wstęp po angielsku, ale chcę pokazać, co się stanie.
I teraz tak. Tu mamy jakiś nieopisany przycisk.
Zdaje się, że ten nieopisany przycisk służy do aktywacji tego czatu.
Spróbujmy.
Właśnie.
Nie wiem, czy przyszło powodowienie, teraz nie przyszło.
Kto z murę?
O, ale poczekaj, poczekaj, bo jeszcze mam tu taki guzik.
O, może teraz Ci przyjdzie.
Tak, przyszło, nie wiem czemu nie było dźwięku.
O, było, ale wyciszyłem niechcące. Natomiast jest na to unikalny dźwięk.
Ja teraz mam komunikat.
Michał chce porozmawiać, dołącz do rozmowy.
Więc ja sobie się myślę tutaj wyciszę i dołączę do tej rozmowy.
Dokładnie. I zobaczymy, co nam z tego wyjdzie, jak to będzie słychać.
Zaraz zobaczymy, jak Piotr dołączy.
Ja cię powiem tutaj na ekranie, teraz mi się otworzyło takie okienko.
Mam przycisk dołącz i zamknij, tutaj zamknij arkusz, tak jak Michał przed chwilą pokazywał,
więc nacisnę teraz dołącz.
O, i teraz usłyszeliśmy, że aktywny czat głosowy. Mam nadzieję Piotrze, że Ty mnie słyszysz.
Tak, słyszę.
I ja Ciebie też i nasi słuchacze też słyszą Cię z poziomu Whatsappa. Jakość jest, jak sami słyszycie, no typowo Whatsappowa.
To nie będzie nic lepszego. I ja w ogóle mam takie wrażenie, bo testowaliśmy to też z Michałem Kasperczakiem
I ja mam wrażenie, że im więcej osób, tym ta jakość potrafi być różna dla różnych osób, bo np. ja Michała słyszałem gorzej, jak dołączył się Piotr, to Michała zacząłem słyszeć lepiej, natomiast Piotra słyszałem gorzej, więc to takie jest ewidentnie bardzo, bardzo eksperymentalne.
Co my teraz tu w ogóle mamy w tym okienku?
Przejść do najnowszych wiadomości. Aktywny czat głosowy. Przycisk. Aktywny czat głosowy. Ukryj. Przycisk. Tyflo przegląd. Na główek. Ukryj. 1.53. Rozwij listę osób. Przycisk. Tak, rozwij listę osób. K. J. Machacz. Pomachaj wszystkim. Przycisk.
Tak, mogę pomachać wszystkim, ale to wszystkim co? Na czacie czy wszystkim teraz tutaj? Błośnik. Przycisk. Pomychaj wszystkim. No to czekaj, pomacham. Pomachaj wszystkim. Wygaszony. Pomachałem.
Ja nie słyszałem, więc nie wiem, może znowu wszyscy dostali kolejne powiedzenie.
Takiego pinga, tak, że on teraz chce gadać.
Jest przycisk głośnik. Przycisk głośnik nie ma żadnego stanu i przełącza między słuchawką a faktycznym głośnikiem,
więc jeżeli jesteście na przykład, jeżeli Wam rozpoczęła się rozmowa na słuchawce, że musicie trzymać telefon przy uchu,
A tego nie chcecie, to wystarczy kliknąć ten głośnik i to wam po prostu przeskoczy.
Więc taki dwupozycyjny przełącznik.
Wycisz. Przecisz.
Wycisz. To wycisza nasz mikrofon. Ja teraz spróbuję to zrobić.
Wyłącz wyciszenie.
O, właśnie. O, a tu?
I działa. Ja teraz mogę sobie mówić. Słyszę, że Michała już nie słyszę w telefonie.
A wy słyszycie, jaka jest jakość tego dźwięku. No, jest trochę odczumiania i to słychać.
Ja u Michała też to słyszę i wy pewnie teraz też to słyszycie.
O, więc ja się już tu aktywuję.
O właśnie, ktoś do nas tu chyba albo dzwoni, albo wysyła wiadomość,
więc zaraz zobaczymy o co chodzi.
I teraz tak, przyciski wycisz, opuść.
Ja na przykład w pewnym momencie nie miałem tego przycisku opuść.
Ty też zdaje się, że nie mogłeś go znaleźć.
No właśnie ja też, więc to ciekawe, a ja akurat miałem telefon,
kiedy próbowałem się rozłączyć, a ja nie mogłem znaleźć tego przycisku,
a potem po prostu miałem telefon, więc rozłączyło się wszystko samo.
No dobrze, myślę, że nie będziemy Was męczyć tą jakością.
Ja zrobię teraz opuść.
Ja u siebie usłyszałem taki charakterystyczny dźwięk, że ktoś opuścił tą rozmowę.
Ja też u siebie nacisnę ten przycisk.
I już ten czat został zamknięty.
Tak jest. I w ten sposób to działa.
Słuchajcie, jeżeli na przykład jesteście na jakiejś grupie, to jest myślę, że dosyć fajne,
jeżeli grupa jest liczna i jest ktoś, kto chce sobie tak po prostu pogadać.
To absolutnie nikomu nie przeszkadza, bo nie dzwoni do wszystkich, tylko jest takie powiadomienie, że o teraz tam ktoś wszedł i chce pogadać.
No to dobra, jak ktoś wszedł i chce pogadać, to zawsze można do niego dołączyć, pogadać sobie, w dowolnym momencie wyjść, czyli takie połączenie konferencji z rozmowami głosowymi.
Myślę, że na niektórych grupach, w niektórych społecznościach whatsappowych może się to bardzo przyjąć, chociaż jakość tego jest…
Oj, oj, słaba, słaba. Dobrze, to teraz może zajrzyjmy do waszych wypowiedzi, bo tu wysyłacie komentarze, np. Patryk, właściwie Patrikus, do nas pisze.
Witam, jest jakaś apka do Blue Sky dla Androida? Pisałem na YouTubie, nie wiedziałem, że tam mnie czytacie. Czytamy Patryku, czytamy, tylko czasem po prostu nie zajrzymy od razu.
Spokojnie, dotarłoby, też, albo przynajmniej powinno dotrzeć.
Natomiast, no, czy my coś w stanie jesteśmy podpowiedzieć Piotrze?
BlueSky na Androida?
Ja pomysłu niestety nie mam, oprócz tego, że może po prostu wejdź do sklepu Play
i nawet wisz BlueSky, zobacz czy są jakieś alternatywne aplikacje,
a nóż trafisz na coś fajnego i będzie można polecić, ewentualnie może jakaś aplikacja
Od jakiegoś mniejszego dewelopera, do którego będzie można napisać na przykład, poprosić, żeby jakieś działanie dostał.
No bo na iOSie mamy aplikację Skiz i nie jesteśmy pierwszą osobą, która szuka fajnej aplikacji BlueSky na Androida, więc może coś się uda znaleźć.
Oby się udało. Powodzenia życzymy.
A teraz przechodzimy do kolejnego tematu.
No i jeszcze tutaj kilka ich mamy.
Teraz będzie o AI-u i o Mac-u.
I o aplikacji, która jedna by wszystkie połączyć.
Te modele AI, jeżeli mamy ochotę je na Mac-u odpalać.
A propos fajnych aplikacji.
To znajomy mi wczoraj podrzucił późnym wieczorem.
Aplikacja, która jak on mi powiedział i od tego myślę, że zaczniemy.
Powiedział, że to jest po prostu natywna aplikacja
No i to mnie zaciekawiło, zwłaszcza, że jak słyszę natywna aplikacja, to teoretycznie z reguły oznacza, że jest dużo bardziej dostępna.
A wiemy, jak to jest z dostępnością tych aplikacji, tych stron internetowych, gdzie mamy te czaty.
Z tym jest różnie, czasem lepiej, czasem gorzej. Z tymi oficjalnymi aplikacjami jest podobnie.
Więc aplikacja, która pozwoliłaby mi obsłużyć i czata GPT i Gemina i może nawet też te modele lokalne,
no bo ostatnio też zacząłem więcej korzystać z na przykład modeli Lama czy Gema, tych lokalnych, które mamy,
no to byłoby coś jak najbardziej fajnego.
Mamy alternatywne aplikacje do tego.
Taką najbardziej popularną jest chyba Volama, która jest stworzona dla osób niewidomych.
Tutaj mówię głównie o Macu.
Na Macu ta aplikacja działa fajnie, natomiast wadę ma jedną taką, że nie wspiera na przykład wszystkich najnowszych modeli od Google, to po pierwsze.
A po drugie jest to aplikacja, która nie została skompilowana pod Apple Silicon, jest to aplikacja Intelowa i uruchamia się bardzo długo.
Nawet na Macbooku z procesorem M4 Pro, więc zdecydowanie szybkim, no to trzeba pół minuty poczekać, żeby ta wola mały startowała.
Więc zawsze gdzieś rozglądałem się nad czymś, co mogłoby ewentualnie nam
wolamy zastąpić, może nawet dodając jakieś ciekawe funkcje.
I słuchajcie, to może być to, bo jest to aplikacja, która
jeśli chodzi o to, jakie modele wspiera, to tak jak wspominałem, wspiera wszystko.
Bo oczywiście mamy wszystkie wersje chata GBT, łącznie ze wsparciem trybu
głosowego, jakby ktoś chciał sobie włączyć, można.
Działa to w oparciu o nasze klucze API, tutaj też od razu informuję, więc jest to aplikacja, do której dodajemy sami sobie klucze API, chyba że korzystamy z setupa, bo w setupie ta aplikacja też jest dostępna, o tym za chwilę powiem więcej.
Więc właśnie, jest ShareGPT, jest Google, czyli wszystkie modele Gemini, jest Cloud, jest Grok, teraz nie pamiętam czy tam przez K czy przez Q, nie zwróciłem uwagi, ale też jest.
Jest Open Router, czyli taka strona, gdzie mamy dostęp do wielu modeli otwarto-źródłowych,
no i jest pełne wsparcie dla modeli lokalnych, na przykład właśnie uruchomionych przez środowisko OLAM-a na naszym komputerze.
I aplikacja nam pozwala na naprawdę dużo, bo po pierwsze możemy prowadzić kilka rozmów jednocześnie
i mamy w takich aplikacjach rozmów, mamy taki pasek boczny, na którym mamy wszystkie nasze rozmowy
No i możemy normalnie do dowolnej z tych rozmów sobie wrócić,
ba, nawet możemy z np.
Clouda czy z naszego czata GPT rozmowy do tej aplikacji zaimportować.
Aplikacja, w ogóle nie wiem, czy wspomniałem,
w ogóle nazywa się Bold.ai i można ją sobie ściągnąć ze strony
bold.ai.com, bold.ai.com.
Tam możecie o tej aplikacji poczytać więcej i ją sobie sprawdzić.
Mamy, mamy właśnie wsparcie dla rozmów,
Więc aplikacja nam może zapamiętywać wszystkie nasze polecenia.
Możemy też ją sobie przygotować pod różne zastosowania.
Mamy tutaj po pierwsze bibliotekę promptów, więc możemy szybko sobie wkleić
jakiś często używany prompt.
Nie wiem, opisz mi to zdjęcie, bo jestem osobą niewidomą.
Ale mamy też coś takiego, co się nazywa asystenci.
I asystentów też możemy wywoływać albo z pola edycji od razu, albo naciskając
I asystent to połączenie wybranego przez nas modelu i odpowiednio dobranego prądu.
I np. moglibyśmy sobie stworzyć asystenta, który np. używa nam GPT z odpowiednim prądem,
tak żeby nam właśnie jak najbardziej szczegółowo opisywał zdjęcia.
Ale jeśli np. lubimy bardziej programować cloudem, bo cloud generalnie słynie z tego,
że bardzo dobrze pisze kod źródłowy, to możemy mieć osobnego asystenta,
który jest konfigurowany tak, żeby działał nam właśnie przez clouda
i miał inny prąd, który jest właśnie bardziej zoptymalizowany.
Podpisanie kodu źródłowego.
Podobnie tak na przykład można sobie stworzyć asystenta do tłumaczenia tekstu.
No tutaj wiele zastosowań na tej funkcji można by znaleźć.
Ponadto aplikacje możemy wywołać praktycznie z każdego miejsca,
bo mamy dwa takie tryby pracy w trybie inline,
Po pierwsze, możemy zaznaczyć dowolny tekst w dowolnym miejscu, wywołać skrót.
Domyślnie jest to Control Spacia, ale wszystkie skróty w aplikacji możemy zmienić.
I możemy sobie wybrać jedno z predefiniowanych poleceń.
I tutaj znów polecenia można sobie skonfigurować w ustawieniach
i one też mogą mieć osobny model wybrany.
I tutaj znów na przykład można by sobie stworzyć polecenie do tłumaczenia tekstu,
do streszczenia, do przepisania i jednym skrótem,
i wybierając później odpowiednią pozycję z listy,
Możemy sobie takie zapytanie wywołać i ono zostanie nam od razu wklejone.
Mamy tryb inline, który powoduje,
że aplikacja wykonuje jakieś zdanie na podstawie tego, co jest na ekranie.
Tego jeszcze do końca nie zrozumiem, jak to działa,
natomiast dopiero korzystam z tej aplikacji od wczoraj,
więc jeszcze muszę trochę ją potestować.
Natomiast co jeszcze mamy?
Możemy oczywiście dołączać do naszych wiadomości dokumenty i zdjęcia.
po prostu nawet klejąc je do pola edycji.
I to jak najbardziej też działa, możemy wtedy się o te, o zawartość tych plików pytać.
Możemy też korzystać z różnych wtyczek.
I te wtyczki mogą robić naprawdę różne rzeczy, od wsparcia tzw. wtyczek MCP,
które pozwalają modelom AI przejąć kontrolę nad różnymi usługami,
po wtyczki, które przychodzą z aplikacją.
A z aplikacją przychodzą wtyczki takie jak przeglądanie stron internetowych,
Wyszukiwanie w internecie i tutaj też musimy sami sobie odpowiednie API skonfigurować.
Mamy wtyczkę do Google’a, wtyczkę do Brave’a, wtyczkę do Kagi, do różnych silników generalnie do szukania.
Mamy wtyczkę, która wywołuje różne skrypty, która wywołuje nam narzędzie FFmpeg, więc tych wtyczek jest dużo
i pewnie z czasem tych wtyczek będzie przychodziło jeszcze więcej i to też po prostu działa.
Jeśli mamy odpowiedni model, który wzbiera tzw. wywołowanie funkcji,
No to możemy na przykład włączyć wtyczkę przeglądania internetu i poprosić nam, żeby z internetu jakieś informacje pobrał.
I to wszystko jest w takim naprawdę natywnym interfejsie macowym.
Można… jest parę tam przycisków, które mogłyby być zaetykietowane lepiej.
Ja myślę, że za chwilkę tą aplikację pokażę, tak pokrótce pokażę, co ona jest w stanie nam zrobić.
…na przykład. Natomiast faktycznie to jest natywna aplikacja. Mamy tutaj same przyciski, rozmowa, to jest po prostu jedna wielka tabela.
Domyślnie każda odpowiedź asystenta wyświetla się w widoku HTML, dlatego że domyślnie aplikacja nam renderuje markdown,
czyli jak ktoś ma być na główkiem, jest na główkiem itd. Natomiast jeśli to wyłączymy z menu widok, no to te widoki HTML znikają
i te odpowiedzi po prostu są w tej tabelce widoczne i czyta się to naprawdę świetnie.
Ja myślę, że teraz zrobię szybką demonstrację, a po czemu nie.
Mam nadzieję, że słychać moją syntezę?
Słychać jak najbardziej.
Super. To jeszcze ją sobie zwolnimy.
I myślę, że próbę…
A, nie jest otwarta. Dobra, otworzymy sobie tą aplikację.
I tutaj mamy właśnie przykład takich przycisków, które mogłyby być zatykietowane lepiej,
bo mamy tutaj na górze taki pasek boczny.
Tutaj mamy przyciski otwarzania, gdyby nam aplikacja coś otwarzała, jakiś plik audio,
bo tak aplikacja też może nam czytać, niestety nieautomatycznie.
Ben tutaj do dewelopera pisał z kilkoma naprawdę drobnymi sugestiami,
ale generalnie to aplikacja jest naprawdę prosta,
bo na górze mamy pasek narzędzi.
I mamy tutaj na przycisk nowa rozmowa.
Tutaj mamy właśnie te przyciski.
Sterowanie, odtwarzanie.
Mamy tu pole wyszukiwania, jakbyśmy mieli tutaj całą bazę różnych rozmów,
projektów tak zwanych, bo też te rozmowy możemy organizować też do folderów,
gdyby ktoś chciał.
I mamy tabelkę. Wejdźmy sobie do tej tabelki.
Ja tutaj mam rozmowę, którą wcześniej prowadziłem.
I mam tutaj kilka przykładowych rozmów.
Tutaj mamy przykład korzystania z modelu do generowania zdjęć, doli.
No właśnie, przeglądanie internetu. Tutaj generalnie mamy równe rozmowy.
Ja nacisnę Command N, żeby sobie utworzyć kolejną pustą rozmowę.
Mamy też skróty, żeby na przykład z menu plik możemy otworzyć rozmowę tymczasową.
Gdybyśmy nie chcieli, żeby nam dana rozmowa była zapamiętana,
bo chcemy coś na szybko zapytać, taka opcja też jest.
Natomiast ja sobie zacznę nową rozmowę.
Słyszeliśmy, że został dodany kolejny wiersz do tej tabelki
i Focus teraz mi wylądował w polu edycji.
Ja to widzę na monitorze węglowskim, że jestem już w pustym polu edycji.
Ustawienie aplikacji możemy domyślnie wybrać,
jaki ma być domyślnie użyty model.
Jeśli sobie tutaj pójdę, to takiego paska bocznego z półkątem.
O właśnie, tutaj mamy w formacie jest nowa rozmowa, która na razie nie ma tytułu.
Domyślnie aplikacja sama nazywa te czaty, ale też możemy ten tytuł sobie zmienić.
Przez to, że w ustawieniach sobie zmieniłem, jaki ma być domyślny model.
Tutaj mi się zaznaczył właśnie model GPT.
Mamy tutaj skrót do ustawień.
O, i tutaj mogę sobie wybrać, z jakiego modelu chcę korzystać.
I domyślnie mam wybrany model setupa, bo setup od jakiegoś czasu ma takie plany AI.
I działa to generalnie tak, jakby ktoś nie chciał sobie wykopywać własnych kluczy API,
że setup daje właśnie dostęp do kilku modeli GPT i DOLI.
DOLI to jest model do generowania zdjęć.
Ma takie zasadzie, że dostajemy kredyty.
W przypadku takiego planu standardowego tych kredytów chyba jest dziesięć.
Natomiast w planie, mamy teraz taki plan AI Plus,
chyba on się nazywa, to tam tych kredytów jest już 150.
Jeden kredyt to jest około 1000 tokenów, więc to nam starczy na powiedzmy
od kilku do kilkunastu wiadomości, taki jeden kredyt nam starczy
zależnie od tego, z jakiego modelu korzystamy.
Jeśli ktoś z tego korzysta dużo, no to pewnie bardziej będzie się opłacało
po prostu wykupić sobie własny klucz API i go wpisać.
Ja zresztą do testów właśnie też tak zrobię, bo chciałbym też skorzystać z nowszego modelu GPT,
którego w setupie jeszcze nie ma. Ja sobie rozwinąłem to pierwsze menu i tutaj mam
wszystkie modele, które sobie sam skonfigurowałem.
Więc wybiorę sobie OpenAI i w tym drugim przycisku mogę sobie, tutaj mam kolejne menu
rozwijane, wybrać, z jakiego modelu chcę skorzystać.
No dobrze, wybierzmy sobie model 4.1 mini, czyli ten najnowszy.
Następny przycisk pozwala mi włączyć lub wyłączyć jedną z tych wtyczek, o których mówiłem.
Jeśli jakaś wtyczka ma być wykorzystana, to ten model AI zrobi to automatycznie.
Ja sobie wejdę do tego, bo chciałbym sobie włączyć wtyczkę do przeglądania Internetu.
Tutaj mogę to pofiltrować, czy chcę widzieć wtyczki wszystkie,
które przechodzą z aplikacji, czy tylko wtyczki MCP.
Ja to pominę, wchodzę do listy.
O, mam tutaj pole wyboru dla wtyczki do przeglądania internetu.
Mam tutaj opis tej wtyczki, gdybym szedł dalej.
Mam tutaj pamięć.
Właśnie tutaj mamy wtyczkę pamięci, bo jeśli korzystamy z czata GPT
przez API, to tutaj tego trybu pamięci nie mamy, więc ta wtyczka nam pozwala
coś podobnego osiągnąć, tylko też z każdym modelem.
Tutaj możemy właśnie wywołać różne skrypty,
powłokę, czyli polecenia linusowe,
i wiele więcej. Ja sobie włączę ten pierwszy,
Przeglądarkę.
Naciskam Escape, żeby zamknąć tę wtyczkę,
bo możemy mieć kilka wtyczek aktywnych jednocześnie.
Gdybym chciał.
Więc na przykład mógłbym sobie włączyć wtyczkę do przeglądania internetu
i na przykład to powłoki poprosić, żeby mi jakiś klik poprał.
Dałoby się tak zrobić pewnie.
No mam pytanie, jak mogę ci pomóc?
Tutaj mogę wybrać jednego z moich asystentów.
…asystentów. Też to można wywołać z poleceniami z pola edycji.
Tak wspominałem, do czego nam asystenci się mogą przydać.
Ja tutaj akurat asystenta nie będę korzystał.
Mam tutaj siatkę z przykładowymi promptami.
To też można skonfigurować jak wiele innych rzeczy w tej aplikacji.
Mam przycisk dodaj do dołączenia różnych plików.
Biblioteka promptów zapisanych i mam pola edycji, w którym mógłbym pisać.
Oprócz tego mam przycisk mikrofon.
Mam tryb głosowy też.
I tutaj pod spodem też mam kolejne ustawienia rozmowy,
gdybym coś chciał, na przykład zmieniać rzeczy typu temperaturę,
takie zaawansowane parametry tych modeli, czy na przykład otworzyć tę rozmowę.
W dedykowanym nowym oknie na to też są skróty klawiszowe,
jakby ktoś nie chciał takiego jednego dużego okna.
Też można. No ale dobrze, mamy pole edycji.
I ja myślę, że zrobimy ten eksperyment, o którym mówił przed chwilą Michał.
Natomiast biorąc pod uwagę to, że ta sztuczna inteligencja
będzie miała dzięki tej wtyczce dostęp do internetu.
Więc poproszę go wejść na www.tyflopodcast.net.
Powiedz, o czym jest najnowszy odcinek.
Naciskam Enter.
I tutaj nie będziemy mieli informacji, że coś się zakończyło.
Jeśli pójdę w prawo, tutaj mam przycisk Stop.
Mógłbym w każdej chwili zatrzymać to generowanie.
Już skończył. Buton przycisk Stop mi zniknął.
Ja zanim przejdę dalej, wejdę sobie do menu Widok.
I wyłączę ten podgląd Markdowna.
Ja to się zapisuję, więc wystarczy zrobić tylko rację,
a to wcześniej sobie włączyłem na chwilę do testów.
I teraz idę w lewo od tego pola edycji.
I mam tabelkę. Po co do tej tabelki?
Wejdź na www.tyflopodsast.net i powiedz, o czym jest najnowszy odcinek.
Finis headbrowsing.http://
I tutaj mam kilka informacji.
Wystarczy, że ja teraz sobie wejdę jeszcze z tym w interakcję.
Wejdź na www.tyflopodsast.net
I co mam tutaj? Po pierwsze, mam moje pytanie.
Icą gpt4. I masz globę, i masz finis headbrowsing.
Http://www.tyflopodsast.net
Mam informację, że została wykorzystana wtyczka przeglądarki
i przeglądanie się zakończyło, nie było błędów.
Mam przycisk zobacz wyniki, a pod spodem dostajemy odpowiedź już od samej sztucznej inteligencji.
I jest to najnowszy odcinek.
Tak, czyli on ewidentnie tą informację sobie znalazł.
Ja jeszcze może na próbę sobie ten tekst skopiuję i jeszcze pokażę jak działa
ta praca z dowolnego miejsca.
Więc sobie skopiowałem ten tekst, otworzyłem sobie pusty dokument
w tekstedicji na przykład. Sobie to wkleję.
Też są skróty, żeby na przykład ostatnią odpowiedź skopiować jeszcze raz,
Wrócę na sekundę do aplikacji.
Mam tutaj pod spodem dodatkowe przyciski.
Ja tutaj widzę przycisk wygeneruj jeszcze raz.
Tutaj też powinna się pojawić na przykład opcja do czytania na głos.
Ja tego nie widzę, nie wiem czy tutaj pole jest zaznaczone,
nie wiem w jakich sytuacjach się to pojawia.
Natomiast gdyby mi ta odpowiedź nie pasowała,
też mogę poprosić, żeby została wygenerowana jeszcze raz.
Mogę oczywiście też kontynuować dyskusję.
Mogłabym zapytać, czy ten odcinek ma jakieś komentarze.
I on, mając w pamięci zawartość strony,
byłby pewnie w stanie mi podać taką informację.
Natomiast wracam do tego tekstu, który sobie skopiowałem.
I zaznaczyłem sobie ten tekst i nacisnę teraz Control, Space.
Wyskutek.
I wyskutek.
Mam tutaj pole wyszukiwania, bo tutaj mamy 38 wbudowanych poleceń,
to też można sobie to zastosować, wpisywać własne polecenia.
Rozszerz.
Popraw w pisowni.
Ja tutaj sobie znajdę polecenie, które mi zrobi z tego lista,
bo wiem, że takie polecenie długo…
Wytłumacz.
Podsumuj.
W sumie tutaj mamy pole wyszukiwania, więc wpiszę list.
Po prostu mam polecenie lista. No dobrze, wybierzmy to polecenie lista.
I co się teraz stało? Uruchomiło się polecenie.
Widzę tutaj przycisk stop. To się przetwarza.
Między nami…





No, proszę bardzo. Wziął to, o co go poprosiłem i to zostało wyświetlone.
W tym skrócie Command, Shift, Enter, teoretycznie powinienem być w stanie jakoś też to wkleić do aplikacji, nie wchodząc z tego okna rozmowy.
Natomiast jeszcze mi to nie chciało działać, ale może tutaj coś źle skonfigurowałem, bo aplikacja jest naprawdę rozbudowana.
Samo okno ustawień, którego już nie pokazywałem, ma 8 zakładek, niektóre z tych zakładek mają jeszcze kolejne podkategorie,
więc jeśli ktoś lubi grzebać, naprawdę siedzi w tych tematach różnej inteligencji,
No to jest co w tej aplikacji zmieniać.
Na koniec jeszcze może powiem coś o cenniku.
Normalnie aplikacja kosztuje, no w sumie nie mało, bo 60 dolarów.
Jest też wersja pro za dolarów 100,
która nam daje dostęp do tego trybu głosowego m.in.
Natomiast kiedy tą aplikację pobrałem,
zanim dowiedziałem się, że ona jest w setupie,
to nie widziałem, żeby coś w tej aplikacji było ograniczone.
Na stronie też nigdzie nie znalazłem informacji, jak działa demo.
Jeśli jakieś demo w ogóle jest, więc nie wiem, jak to wygląda.
Natomiast jest też dostępna zniżka edukacyjna.
Jeśli ktoś ma konto pocztowe w domenie edu,
działa to tak, że developer prosi po prostu, żeby do niego z tej domeny napisać,
powiedzieć, że jesteśmy zainteresowani zakupem aplikacji,
on nam po prostu wyśle kod promocyjny na zniżkę 50%.
Ale też aplikację możemy sobie pobrać w ramach usługi Setup.
Nie musi to być jeden z planów AI.
Aplikacja nas o to zapyta, natomiast możemy też po prostu powiedzieć,
że nie chcemy korzystać z tych funkcji setupa, wpisać własne klucze
albo nawet korzystać z tych funkcji równolegle,
tak jak ja to tutaj zrobiłem.
Mam to skonfigurowane, ale też wprowadziłem swoje klucze.
Wszystko zostaje na urządzeniu.
Nasze klucze są zapisywane w pęku kluczy w systemie,
a nasze zapytania są po prostu wysyłane do konkretnych modeli bezpośrednio.
Więc tutaj też jest kolejny atut, za jakim myślę, że warto się zainteresować.
A jeśli szukacie takiej naprawdę rozbudowania aplikacji do używania AI,
no to myślę, że nawet za te 60 czy 30 dolarów, jeśli korzystacie z tego
typu usług dużo, no to Bolt AI może być, myślę, warty polecenia.
No, rzeczywiście aplikacja ma naprawdę ciekawe możliwości i bardzo przyjazny
interfejs. To się zgadza.
Odbieramy kolejny telefon. W takim razie teraz Maciek się naczekał, ale się doczekał. Dobry wieczór.
Cześć wszystkim, dzielnie na posterunku na Warcie stoję i czekam i czekam i dobrze.
W każdym razie… Piotrek, jak ta aplikacja Bolt się nazywa? W sensie Bolt AI, jak ten Bolt od przejazdu?
Tak, Bolt AI, jednym słowem.
I dobrze zrozumiałem, że zarówno możesz korzystać po API z kluczy,
jak i logować się do swoich kont w usługach, czy jak?
To znaczy, jeśli masz tą aplikację w ramach setupa,
to setup ma swój dostęp do AI, natomiast jeśli kupujesz aplikację osobną,
no to własne klucze API, ewentualnie modele lokalne.
Aha, czyli generalnie z tymi usługami chmurowymi
Nie, no to działa to wyłącznie po API.
To jest chyba jedyny minus tej aplikacji. Wielka szkoda, że właśnie nie ma jakiejś takiej możliwości. Ja rozumiem, że oczywiście integracja po API jest rzeczą najprostszą, ale gdyby na przykład OpenAI zaoferowało coś takiego dla aplikacji właśnie takich klienckich, że można w ramach tego swojego abonamentu, który na przykład płacimy, korzystać z tego, co już mamy, tylko po prostu za pomocą zewnętrznego klienta.
No byłoby to super. Podejrzewam, że przede wszystkim niewidomi by z tego korzystali, bo mogliby mieć łatwiejszy interfejs, a tak no niestety nie ma takiej prostej opcji w przypadku chyba żadnego modelu takiego sieciowego, żeby zapłacić raz i używać cały czas, albo płacić co miesiąc jakąś określoną stawkę.
Na ten moment chyba tak najtaniej to wychodzi Gemini, bo tam możemy nawet klucz
sobie wygenerować za darmo. Natomiast musimy wtedy pamiętać, że Google wtedy
nasze dane, i to jest powiedziane w polityce prywatności, będzie wtedy
wykorzystać do trenowania tego modelu.
No właśnie, bo to każdy ma swoją taką bogatą historię, czy to w OpenAI,
czy to w Gemini i tak dalej. Ale może się zainteresuje.
Możesz czaty sobie zaimportować. Chociaż tyle.
A, no to może tym bardziej się pobawię rzeczywiście.
No to dzięki, to będę patrzył. A ja do was dzwonię tak poprawdzie
z kilkoma niepokojącymi wieściami i kilkoma optymistycznymi.
Zacznę może od tych niepokojących w sumie.
A propos Ubera, inni użytkownicy swego czasu na dostępnym aplumie się na to skarżyli.
Natomiast ja tego nie doświadczałem, najlepsze przez kilka ładnych tygodni,
aż mnie w końcu dopadła Uberoza, niedostępnioza niestety, jeśli chodzi o wpisywanie do kierowców wiadomości
przy pomocy wejścia ekranu Braila. Niestety z klawiatury ekranowej jak najbardziej się da.
Z dyktowaniem nie próbowałem, pewnie też się da.
I się pewnie da wtedy kontrolować ten tekst.
Natomiast brajlem się niestety i u mnie nie da.
Więc jeśli komuś się pojawiła aktualizacja aplikacji Ubera do wersji 3.
Oni mają takie kosmiczne numeracje.
3.671.100.1
Nawet 0.1.
Tak, już fajny numer telefonu nam się robi z tego.
To niestety…
To żeby nie było, że nie ostrzegałem, zwłaszcza jak ktoś korzysta z brajla.
To jest rzecz jedna, jeśli chodzi o Ubera.
A druga, którą zaobserwowałem.
Napiwki, jeśli chodzi o pochwalenie kierowców, też się doczekały lekkiego regresu,
bo wcześniej to był suwaczek, którym się wybierało kwoty, z tego co pamiętam.
A nawet jeśli nie, to dało się wiedzieć, że się wybrało daną kwotę.
A teraz generalnie to są nie dość, że przyciski, to jak się wybierze daną kwotę, to to zupełnie nie jest niejak anonsowane, że ten dany przycisk jest wybrany.
To jest raz. A dwa w ogóle nie ma łącznych kosztów i tak dalej tego przejazdu, czyli tak naprawdę wybierzemy sobie jakąś kwotę i tak de facto nie wiemy tak naprawdę jaką żeśmy wybrali.
Więc takie dwa regresje dostępności Ubera z kolei.
Co do Whatsappa, też się cieszę bardzo, że ta apka na iPada jest.
W sumie nie testowałem jej, bo nie miałem, że tak powiem, jak.
Na mojej mamie jako króliczku doświadczalnym będę testował jutro.
Natomiast opis zachęca, że tak.
W sumie chyba rzeczywiście i tak na Macu, czy tak jak wiadomości na iMessage,
że lewa kolumna to są wątki, prawa to jest lista wiadomości.
No i pewnie to pole do wpisywania wiadomości pewnie gdzieś tam na środku, na dole będzie, zakładając.
No, w każdym razie nie testowałem jeszcze nigdzie.
Ale zapowiada się fajnie. I nie wiem, Piotrek, ty wspominałeś, jaka to jest wersja tego WhatsAppa?
Czy nie mówiłeś?
Bo to jest dwadzieścia pięć… szesnaście kropka osiem… osiemdziesiąt jeden. Jak coś.
To Piotr nie wspominał, jaka to jest wersja, zdaje się.
Zresztą chyba Piotr nam zginął na moment gdzieś.
Tak, przepraszam, już jestem.
I tym sposobem mamy aplikacje już wszędzie, prawda, i na Macu, i na iPadzie, i na iPhone.
A żeby się w sumie teraz prosiło, żeby na Watcha zaczęli, chociaż jak Messengera wycofali,
no to pewnie apliki na Watcha nie wprowadzą.
Aplikacja Apple Invite zaproszenia, w sumie też pojawiła się dzisiaj aktualizacja, wersja 1.2.
W sumie 1.0.1 była, prawda, była tam 1.1, małe tam poprawki błędów i coś tam,
a dzisiaj doszły, powiedzmy, nowe drobne i niedrobne rzeczy.
Zależy, jak na to spojrzeć, bo doszła możliwość tworzenia,
Zdaje się, że twórca wydarzenia może dodawać takie linki a kafelki tzw. do linków
do planera podróży takiego, że tam sobie mogą uczestnicy danego wydarzenia
tworzyć wspólny plan podróży. Chociaż mam wrażenie, że to już było,
ale może nie. Ale na pewno nie było czegoś takiego jak swój udział w posiłkach,
że generalnie można się zdeklarować w takim wydarzeniu,
do którego się dołączyło, co kto na daną imprezkę przyniesie
do tak zwanego żarełka slash pićka.
Więc generalnie też wtedy każdy z uczestników ma podgląd na to,
co kto przyniesie i tak dalej, żeby tu się nie zazębiać i tak dalej.
No i też tam jest lista prezentów, chyba jak ktoś, tylko nie wiem właśnie, no chyba tak, że twórca chyba też jakby dodaje tak danego wydarzenia, co by sobie na przykład życzył…
Na urodziny na przykład.
Na urodziny, prawda, czy jakieś śluby, czy coś, jak na zaproszeniach teraz się, prawda, jak się pisze, że to cuponiglotto, a to wino, a to coś tam.
No to tutaj można właśnie sobie w ten sposób zrobić taką listę prezentów.
Więc taki sobie sympatyczny dodatek dodano do dzisiejszej aktualizacji właśnie Apple Invites w wersji 1.2.
Co do Gemini’a, to dobrze, że w sumie Patryk zadzwonił i się podzielił swoimi refleksjami,
bo ja też miałem dzwonić i bardzo gorąco przepraszać za pewne rzeczy,
Przepraszam, teraz nie będę, bo wygląda na to, że na Androidzie to działa lepiej niż na iOS-ie.
Bo z tego co zrozumiałem, Patryk mówił, że a propos tego wieszaka, jak go gdzieś tam prowadził,
to że jak on skierował kamerę w lewo, znaczy telefon w lewo, to że mu ten Gemini sam powiedział,
że o tu już widzi wieszak i tak dalej. Więc jeżeli by to tak działało, bez jakiegoś tam…
jakby to działało rzeczywiście tak proaktywnie, no to ze strony Gemini’a to by było naprawdę super.
No to niestety to tak różowo nie wygląda.
Na iOSie to tak naprawdę wygląda tak jak w czasie GPT,
że on i tak sobie robi fotkę i potem z tego, co widzi przed kamerą,
mi potem opisuje. W sumie teraz nie wiem, gdzie jest szybciej,
w tym momencie, jak na ten moment, czy w Gemini’u, czy w czasie GPT,
jak z moich obserwacji, nawet teraz w sumie nie wiem.
Natomiast wiem, że GPT zdarza się mniej halucynować pod tym kątem.
Jak sobie testowałem w kuchni otoczenie i tam stół opisywał mi i tak dalej to
GPT bezbłędnie ponazywał przedmioty i tak dalej, co gdzie stoi i tak dalej.
Natomiast Dżeminajowi się zdarzało nazmyślać, że tam cukierniczkę nazwać
z bankiem i inne tam rzeczy, sobie pomyślać. Natomiast generalnie działa
sobie to całkiem fajnie, zwłaszcza w porównaniu do…
Dawno nie testowałem tego rozpoznawania właśnie z czatem GPT.
Muszę do tego wrócić. Jak mówisz, że teraz działa to lepiej, mniej zmyśla i działa porównywalnie jeżeli chodzi o prędkość. To trzeba będzie się pobawić.
No moim zdaniem działa to naprawdę spoko. I nawet jeśli chodzi o ten model Flash od Gemini, to rzeczywiście błyskawicznie odpowiada.
A GPT, nieważne w sumie, czy to jest 4O, czy to jest O4 mini, kurczę, jest zauważalnie wolniej.
Jest zauważalnie wolniej w sumie, niż nawet, niż było. Zwłaszcza w tych takich godzinach szczytu, powiedzmy 16-17,
kiedy i Polacy, i Amerykańcy się świetnie bawią i korzystają, kiedy jak jest ruch wzmożony, to faktycznie działa to zauważalnie wolniej.
Natomiast ten Gemini działa naprawdę mega szybko. I co jeszcze do tego powiem?
Jeszcze dwa lub trzy miesiące temu, to ten Gemini to była taka troszeczkę…
ale może nie będę mówił brzydko co, ale działało to dosyć pokracznie,
dosyć nieudanie, tak powiedzmy, że jakby to był ktoś średnio rozgarnięty generalnie.
A teraz, powiedzmy w przeciągu dwóch miesięcy, to naprawdę skoczyło to bardzo do przodu.
I ja się poważnie zastanawiam w sumie, czy za GPT sobie rzeczywiście płacić,
A Geminiem, jak mi się skończy wersja testowa,
Advanced’a, a teraz też jest w sumie AI Pro,
chyba czegoś tam. No, to czy po prostu
się tym nie podpierać w wersji darmowej,
bo nawet te deep research’e wychodzą,
te głębokie badania, nawet temu Geminiowi
całkiem, całkiem nieźle. Więc, no, to wszystko…
Tego jeszcze nie testowałem
i nie porównywałem tego z czatem GPT.
Ale, jak mówisz, że to porównywalne jest,
no to…
Zawsze mniej źródeł chyba tak naprawdę daje i jakby mniej gdzieś tam tych cytowań, ale tak naprawdę informacje myślę, że zbiera całkiem fajnie, kompleksowo.
W sumie w dwóch przypadkach mi się dosyć sprawdził, powiedzmy, więc warto i przetestować w sumie to rozglądanie.
Google LM. Michale, ty jesteś wybawicielem i cudzotwórcą. Ja się tobie poskarżyłem tu na telewizji publicznie, że mi to nie działało, że to mnie nie lubi i tak dalej.
A parę godzin po skardze, że tak powiem, to mnie zaczęło lubić.
Zaczęło działać.
Tak, zaczęło działać.
Super.
I teraz bardzo ubolewam nad tym, że notatniki, które tworzymy, nie da się ich udostępniać jeszcze publicznie.
Że trzeba dodawać adresy mailowe i dopiero na tej podstawie użytkownicy zyskują notatki.
No tak, tak.
Bo to by było bardzo…
Słuchajcie, ile ja się napracowałem nad tym…
No powiem szczerze, skoro to tak fajnie działa,
mam tego Advance’a na razie, no to 300 źródeł,
no to zobaczymy, czy wyczerpię temat.
Zacząłem generalnie sobie robić coś takiego,
jak dostępny Apple, w sensie zbierać różne artykuły
z różnych źródeł, te co bardziej ambitne,
te co bardziej fajne, napisane fajnym językiem itd.
i po prostu do tego dodawać, nie?
No i liczyłem po prostu bardzo na to w głębi serducha, że moja praca nie pójdzie na marne, a póki co to częściowo poszło na marne właśnie przez niemożność tak udostępniania publicznie.
Natomiast ja jestem cały czas otwarty i wiem, że jeżeli to się kiedyś zmieni, bo feedback do Google poszedł, zobaczymy w sumie co z tym zrobią,
no to ja się z tym będę rzeczywiście w stanie podzielić i generalnie o 70%, 80% przypadków on sobie radzi z odpowiedziami na te pytania.
Mam wrażenie, że gdzieś tam gubi kontekst,
że tych źródeł może już być mu troszkę za dużo
i pewnych rzeczy nie jest w stanie jakby
ogarnąć i spamiętać.
Natomiast jest to obiecujące, w sumie działa
i… no i można się tym bawić.
No tylko, tylko
niestety na razie jeszcze nie publicznie.
Tym, którym już udostępniłem
na maile, no to
mówią, że nawet to, co działa, więc zobacz,
jeszcze to będę ulepszać, w sumie poprawiać,
dodatkowe rzeczy dodawać,
więc no zobaczymy. W każdym razie,
To też będę dawać znać.
I generalnie dostępne to jest właśnie też całkiem spoko.
Tak samo pod Maciem, pod Safari.
Tylko to, o czym trzeba wiedzieć, ja tak się troszeczkę nieraz
z tymi Google’owymi interfejsami siłowałem.
Pod Safari tak nie do końca mi to chciało działać.
Jeśli właśnie jeśli chodzi o listy, o wybory opcji właśnie
z różnych list, to należy wiedzieć, że nie dość, że na liście
to dopiero jak się człowiek jeszcze wejdzie w interakcję
Voice over shift, strzałka w dół
i przy szybkiej nawigacji wyłączonej
strzałką w dół dopiero te opcje się będą zmieniać.
Oni tak to bardzo fikuśnie zrobili.
Niestety, jeśli chodzi o tę dostępność
i wybór tych opcji też stricte returnem, w sensie enterem
po windowsowemu. No i wtedy rzeczywiście
wszelkie opcje, które my tam sobie zażyczymy będą wybierane jak trzeba.
A tylko po prostu trzeba o tym wiedzieć, że najpierw wospacja na danej liście,
a potem interakcja w tą daną listę, przy szybkiej nawigacji strzałeczki góra-dół,
wybieramy Enter i wtedy to nie ma bola, musi zadziałać.
Także to gdzieś tam kolejny taki pro-tip dla tych zastanawiających się, jak to zrobić.
Chyba nie wiem, czy mówiłem o YouTubie i o iOS-ie i o stronie internetowej,
gdzie tam pewne regresy dostępności były.
Teraz już na stronie Popsafari są czytane czasy trwania danego filmiku.
Mogę potwierdzić, tak.
Tak, to w końcu działa od tam jakiegoś czasu.
Co prawda nazwa kanału nie jest czytana od razu i kiedy został filmik, a może to i dobrze,
bo w sumie najważniejsze jest dowiedzieć się w sumie, co za filmik i ile trwa.
A jak przenawigujemy sobie z wow prawo, to jesteśmy w stanie sobie dojść do tych informacji,
także bardzo in plus.
A na iOS-ie już nie musimy się bujać z rozpoznawaniem ekranu, jeśli chodzi o zmianę szybkości mowy.
Chociaż dziwnie to zrobili, bo jest chyba regulacja, zdaje się, że jest suwak i tam można sobie to zmieniać.
Ale też są przyciski generalnie, tak jak było powiedzmy chyba dawniej, że tam to 0,25, 1 razy, 1,25, 1,5 raza itd.
I to się zmienia od razu.
I generalnie możemy sobie w ten sposób w locie regulować to, jak nam ta prędkość pasuje.
Czy taka, czy jeszcze zwiększamy.
Jak nam się wszystko spodoba, to na samym dole mamy przycisk zamki.
No i generalnie w końcu to działa jak ma działać.
No właśnie, chyba mam wrażenie, że to działa w końcu jak ma działać.
Chat GPT i jego dostępność w wersji webowej z Safari na macOS-ie również tam się dzieje,
zwłaszcza w ostatnich dniach. Ała, szalało aż miło wszystko,
bo od niedostępności chwilowej paska bocznego całego z historią,
z menu profilowego, tam gdzie się wybiera ustawienia,
gdzie się wybiera modele, nie, modele gdzie indziej.
W każdym razie tam, no i pomocy, jeśli chodzi o skróty klawiaturowe,
to chwilę nie było dostępne. W ogóle jakieś dziwne akcje,
jeśli chodzi o pola do wpisywania promptów, zapytań naszych,
to się na szczęście znów zmieniło na lepsze, do tego stopnia,
że teraz jesteśmy w stanie już normalnie sobie te nieszczęsne
pod tych odpowiedziach nieszczęsnych nawigować.
Nadal nam na szczęście czyta dynamik…
Ja akurat lubię to dynamiczne odczytywanie, jak mnie odczytuje.
Ale można też sobie już normalnie nawigować.
Niemal wszędzie z listami.
Jeszcze jest standardowo problem.
Standardowo i niestandardowo.
Dlatego, że za jednym razem jak są źródła,
gdzie on jakieś źródła cytuje,
to ta lista jest normalnie dostępna
i jest to wszystko ładnie czytane.
Innym razem nie.
Za to jest czytane, jak nie ma żadnych źródeł.
Więc cały czas tam się coś dzieje, cały czas oni tam coś naprawiają i psują,
ale już na szczęście mam wrażenie, że bardziej naprawiają niż psują.
I taki jeszcze protip odnośnie właśnie tego, że jeżeli chcemy się dostać
do tego menu profilowego… A, i jeszcze ta rzecz, że jak wciśniemy Enter
czy też Return tak naprawdę, to raz nam wstawia nowy wiersz, normalnie tak,
jakbyśmy chcieli formatowaną treść pisać, a raz nam z tego nizowego wysyła
A od czego to zależy? Od czegoś konkretnego, czy to po prostu przypadek?
Wiesz co? Częściowo chyba przypadek.
Nawet słuchaj jak to brzmi. Częściowo chyba przypadek, no właśnie, bo to jest aszak losowe.
Ale też w zależności od tego, czy masz zmaksymalizowane okno, czy nie.
A, takie było.
Więc, tak.
Więc, no właśnie a propos tego menu profilowego, żeby tam się dostać.
I to jeszcze nie czyta tak fajnie jak w Chrome, że jak naciśniesz w ospację,
to on cita od razu menu, gdzie to niby jest rozwinięte i tak dalej.
Tylko w ogóle nie anonsuje niczego, ale przy nawigacji szybkiej wyłączonej,
strzałką w dół, wtedy dopiero to menu się rozwija.
I to też jeszcze nie jest tak odczytywane, jakby trzeba było,
ale nie dostaniesz się do tego inaczej, jak właśnie przez maksymalizację okna.
Co ciekawe, jak to okno sobie znowu zminimalizujesz w sensie Command, Control, F,
to raz to menu się pojawia profilowe, a raz nie.
Więc tam jest naprawdę jeszcze jazda bez trzymanki, huśta w kalory,
kostę w wykonaniu pana Altmana i ekipy.
Ale dzieje się im plus. Napisałem tam strasznie długiego feedbacka
I chyba jeszcze jest miernocina w sumie, jak była, jeśli chodzi o dostępność,
ale miejmy nadzieję, że tego też tam doczekamy.
Aha, i wybór narzędzi teraz jest dokładnie na stronie webowej, tak jak na iOS,
w sensie tam jest przycisk Wybierz narzędzie czy Wyboru narzędzia.
Jakoś tak się przycisk nazywa.
I też mamy albo Przeszukaj sieć, albo Przeprowadź głębokie badanie,
nawet to się teraz nazywa, albo Stwórz obraz.
Pisz i koduj i tak dalej, i tak dalej.
Więc widać, że się ten interfejs ujednolica tu i tam.
Tak, to jeśli chodzi o GPT, to jest tyle.
Jeszcze taka ciekawostka prawie na koniec,
bo na koniec będzie coś znowu optymistycznego.
Natomiast jeśli chodzi o PZU, słuchajcie,
chciałem sobie wczoraj wykupić tam ubezpieczenie,
bo sobie jadę w Tatry Słowackie, no i jak bym chciał skakać na główkę i tak dalej,
to żeby nie trzeba było za to płacić, prawda?
Bo tam to niestety jest słonopłatne wszystko.
No to niestety, słuchajcie, na…
Znaczy i tak mi się tego nie udało zrobić, bo formularz w sumie niedostępny, tak jak bym chciał.
Natomiast, co ciekawe, na safari coś byłem w stanie zrobić,
tam datę byłem w stanie wybrać, liczbę osób, coś tam.
Natomiast, jeśli chodzi o kroma, to w ogóle tam, że ja zupełnie nie mogłem nic zrobić,
więc to jest pierwsza taka moja sytuacja tak naprawdę, gdzie na safari
byłem w sumie w stanie coś zrobić, a na kromie pod makiem nie.
A chyba jest tak, że bardziej się testuje pewne rzeczy dostępności pod kromem itd.,
a tutaj widać, nie testują w ogóle nijak, więc to nie polecam.
I ostatnia rzecz z Krakowa, słuchajcie.
Już będę się zamykał.
Natomiast kwestia nowej strony MPK,
Miejskiego Przedsiębiorstwa Komunikacyjnego,
gdzie jeżdżą nasze wspaniałe autobusy i tramwajki.
No i co?
Bo spotkała mnie dzisiaj taka sytuacja,
że tam motorniczy się tam zachował niezbyt elegancko
i przez to też mi i tramwaj zwiał, i różne rzeczy, nieważne.
W każdym razie, bo by długo trwało, w każdym razie zadzwoniłem sobie na infolinię,
poskarżyłem się tam i powiedziałem, żeby to tam odnotowali.
W każdym razie z rozmowy wynikło, że mają nową stronę,
że prawdopodobnie kapczy nie ma, że można już normalnie wysyłać te formularze
ze skargą i tak dalej. I słuchajcie, istotnie, normalnie piekło zamarzło.
MPK ma rzeczywiście nową stronę w Krakowie.
I teraz można i się skarżyć, i chwalić ich działania, i wysyłać zapytania ogólne.
I w razie gdyby ktoś był sygnalistą i chciał zgłaszać jakieś niebezpieczne incydenty, to też już może.
Więc tak dla naszego wspólnego dobra tutaj bardziej apeluję do krakowiaków i okolic,
i okolicznych mieszkańców, że generalnie wcześniej to rzeczywiście nie było dostępne.
Tam była kapcza, tam trzeba było przepisywać, tam trzeba było łapać panią z Paragwaju, jeśli chodzi o Be My Eyesa i wolontariuszy, żeby mi kapczę przeczytała.
Teraz jest rikapcza. To może jeszcze nie jest taki hiperszczyt dostępności, jeśli ktoś tam tym angielskim nie w ząb nie włada, no bo wiemy jak rikapcza, ta googleszka działa.
Lepsze by było to od Cloudflare’a. Swoją drogą na przykład Urząd Miasta Warszawy wdrożył ostatnimi czasy też jakieś takie rozwiązanie pokroju kapczy od Cloudflare’a, ale open source’owe.
I jesteśmy nawet właśnie jako Warszawa wymienieni na stronach twórców tego rozwiązania,
że właśnie Urząd Warszawski to jest jedna z instytucji, która to wdrożyła.
I działa to jeszcze ciekawiej ponoć, bo zadaniem tego mechanizmu zabezpieczającego
To jest nakazanie przeglądarce przeliczanie jakichś dość skomplikowanych rzeczy z użyciem Javascriptu.
No oczywiście wiadomo, że jak ktoś nie będzie tego miał, nie będzie miał włączonego Javascriptu, to będzie miał problem.
No ale kto w dzisiejszych czasach, tak? I boty po prostu na tym się wykładają, bo nawet jeżeli bot ma włączoną obsługę Javascriptu,
No to ten bot musi bardzo dużo zdziałać różnych operacji naraz i taka kapcza go po prostu będzie blokowała, on się podda, nie będzie tego liczył, bo mu się to nie opłaca, on woli lecieć dalej. To taka ciekawostka, ostatnio o tym czytałem.
O to też warto wiedzieć. No właśnie, może ja też do nich napiszę, skoro już mają tę nową stronę. Ciekawe, czy im się będzie chciało wdrażać Cloudflare’a, jak stronę z od niedawna jest Google.
No, w sumie już lepsza taka recapcza niż te durne kapcze tak naprawdę.
Oczywiście, oczywiście.
Bo prawda, zawsze coś się… a może przypadkiem, a się jednak wpisze coś zbliżonego do tego, co oni tam chcą.
Tak już jest o niebo lepiej, ale może i w sumie do nich napiszę. Zobaczymy, co się z tym stanie zrobić.
A odpowiadając, Michale, na pytanie, kto w dzisiejszych czasach nie używa Javascripta itd.
Jak gdzieś byłbyś bardzo aktywnym użytkownikiem Darknetu, siedziałbyś za torem i miałbyś ekstremalnie tor browzera na ten najbezpieczniejszy tryb itd.,
to tam jest wyłączony akurat Javascript, więc wtedy by akurat nie zadziałał.
No to wiesz, to w torze to okej, natomiast poza torem to pewnie i tak bym używał tego Javascriptu w jakiejś innej bezpiecznej przeglądarki.
Pewnie tak, bo to jest niewygodne i interaktywnie się wszystkie elementy aktywują dalej.
Przede wszystkim to jest kwestia taka, że w dzisiejszych czasach pozbawiając się Javascriptu, no to pozbawiamy się wielu różnych funkcji na stronach internetowych.
Bo w dzisiejszych czasach to po prostu przeglądarka, to nie jest tylko rozwiązaniem do wyświetlania strony, ale to jest nierzadko i coraz częściej też narzędziem, które obsługuje część logiki tej strony, część mechaniki.
Czasem to jest nawet tak, że po prostu pliki są tylko zaczytywane z serwera, a wiele różnych obliczeń, wiele różnych jakichś operacji to dzieje się po stronie użytkownika.
No można na to narzekać, może nam się to nie podobać, bo to nie jest moim zdaniem jakoś bardzo optymalne, bo serwer jest zawsze wydajniejszym komputerem, więc czemu on by sobie nie mógł tego w wielu przypadkach wykonywać?
I w niektórych przypadkach to jest po prostu to, że programista zrzuca to na użytkownika, a wcale by nie musiał, ale tak po prostu jest i tego nie przeskoczymy.
No właśnie, no właśnie.
A, jeszcze zupełnie na sam koniec, z rzutem na taśmę, bo bym zapomniał.
Wczoraj, dosłownie wczoraj, a w sumie to taka inicjatywa też społeczna jest, tak naprawdę.
A skoro tak, to może i warto o tym mówić. A dlaczego?
No bo po pierwsze już technikalia, po drugie apka całkiem dostępna,
a po trzecie wśród nas na pewno jest jakaś tam spora część niewidomych rodziców,
tudzież nauczycieli i wychowawców, nie wiem.
Natomiast powstała sobie aplikacja Kids Alert.
Generalnie, która mogłaby być troszkę lepiej faktycznie dostępna.
Może i tak, ale w sumie to jest taka stricte informacyjna apka
właśnie odnośnie najnowszych trendów, zagrożeń, oszustw
generalnie czyhających na młodzież i dzieci w internecie.
I dostajemy właśnie tam alerty, to jest rzecz jedna.
Natomiast drugą rzeczą to jest to, że drugą zakładką…
Nie są to oznajmiane jako zakładki, niestety,
ale da się tam przejść, więc najważniejsze.
Jest mapa pomocy i generalnie tam tych numerów troszkę mamy.
To jest cały czas w organizacji, w budowie.
Tam jest zastrzeżenie, więc numerów będzie przybywać.
Ale na ten czas mamy takie numery, jak numer do infolinii zaufania,
telefon zaufania do Fundacji Dajemy Dzieciom Siłę na przykład,
116 chyba, czy jakoś tak, teraz nie pamiętam, ale chyba jakoś tak,
do Rzecznika Praw Dziecka na przykład na infolinię zaufania,
jakby ktoś potrzebował.
Dla niebieską linię też tam mamy, generalnie dla dorosłych,
Telefon jakiś tam właśnie też związany z kryzysem psychicznym, jeśli chodzi o depresję i tak dalej.
Więc tych numerów troszkę mamy. 112 oczywiście też mamy, bo czemu nie?
No i dla osób właśnie też taki telefon zaufania, tylko że dla osób dorosłych właśnie w kryzysie emocjonalnym, psychicznym,
jak ma jakiś problem prawny tak samo, to taki telefon zaufania też tam jest do znalezienia.
Co ciekawe, jak się też właśnie kliknie stricte w numer, w sensie nie w opis, co ten numer, do czego służy, to znaczy z kim nas kontaktuje, tylko w sam numer stricte jak się kliknie, od razu mamy normalnie ten iOS-owy taki połącz i można połączyć, anulować.
No więc tak podrzucam, jakby ktoś gdzieś potrzebował, no zwłaszcza trzeba chronić interesy też naszych najmłodszych, prawda?
Zdecydowanie.
Więc aplikacja jest. Co ciekawe na iPhone’ie i na Mac’u ją można odpalić. Na iPad’zie nie wiem, chyba nie.
Ale wydaje mi się, że na Mac’u też ją można odpalić na tych klockach z M1 i tak dalej.
Więc to tak to. Dzięki wielkie za możliwość podzielania się tymi wszystkimi rzeczami.
I że tak powiem ja już sobie zmykam. Co złego to nie ja. I trzymajcie się.
Dzięki Maćku za telefon. Pozdrawiamy Cię serdecznie i do usłyszenia.
My się powolutku zbliżamy też do końca naszej dzisiejszej audycji,
ale zanim powiemy wam papa, to jeszcze newsy prosto z Mountain View,
bo ostatnio odbyła się konferencja Google I.O.
No i co tam ciekawego jeszcze pokazali, Piotrze?
Całkiem dużo, zresztą już trochę o tematy Google I.O. zahaczamy,
bo tak naprawdę konferencja miała miejsce w zeszłym tygodniu
Nawet w zeszłym tygodniu, z tego co widziałem w audycji,
no to niektóre tematy były poruszone. Zresztą nawet przez całą audycję
tak naprawdę poruszamy niektóre z tych tematów, jak np.
w kwestii tego, że funkcja Gemini Live w końcu trafiła też do użytkowników iOS-a.
Ale tak jak niektórzy się śmiali, że równie dobrze ta konferencja mogłaby się
teraz nazywać Google AI, a nie Google I.O., to można się tutaj domyślać,
że tego typu informacji było znacznie więcej.
Jeśli mówimy o Gemini, to może przy Gemini jeszcze na sekundę zostańmy.
I jeśli jeszcze chodzi o Gemini,
no to kolejną ciekawą nowością, która została zapowiedziana,
to kolejne miejsce, do którego Gemini ma zawitać.
Mamy Androida, to takie oczywiste, mamy iOSa,
No ale z jakichś jeszcze popularnych aplikacji od firmy Google ludzie korzystają.
Mamy na przykład przeglądarkę internetową, tak?
I właśnie do Chroma Gemini też zawita.
I tak naprawdę zawitał dla użytkowników, którzy sobie pobiorą przynajmniej wersję beta,
a ewentualnie nawet wersję jeszcze bardziej rozwojową, czyli wersję Canary,
którzy mają wykupiony abonament AI Pro lub AI Ultra.
AI Ultra, swoją drogą, to taki najbardziej wypasiony plan z funkcjami AI od Google,
który chyba tam kosztuje 100 albo 200 dolarów miesięcznie. Tam np.
dostajemy nowy model do tworzenia wideo, który jest też w stanie do tego wideo
dogrywać ścieżkę dźwiękową, czyli dialogi, jakieś dźwięki tła i tam inne rzeczy.
Natomiast też w tym planie AI Pro, który chyba właśnie ma zastąpić Gemini Advanced,
ale głowy nie dam, ta funkcja w Chromie będzie dostępna. Możemy ją wywołać
Skrótem, Ctrl, Alt, G, może działać w dwóch trybach.
Mamy tryb tekstowy, gdzie możemy po prostu pisać z tym asystentem.
On ma dostęp do, w tym momencie, do tej karty, na której jesteśmy.
Nie jest w stanie sam za nas nawigować po stronach, ale jest w stanie czytać zarówno teksty i zdjęcia.
Będzie też pamiętał, na jakich stronach byliśmy wcześniej, więc możemy np. nawiązać do naszej rozmowy.
Tak na przykład przeglądamy różne produkty i chcemy je w jakiś sposób może sobie porównać.
Czy tutaj dla osób niewidomych, może prosimy o opisy zdjęć tego produktu,
no to można tak zrobić i na przykład poprosić, żeby produkty z dwóch różnych stron,
które otworzyliśmy, porównał.
Ale tekst to jedna dopiero połowa sprawy, bo oczywiście też mamy rozmowę głosową
i tutaj też po prostu mamy dostęp do trybu Gemini Live,
A więc możemy sobie taką luźną rozmowę z tym asystentem prowadzić,
przeglądając Internet. I tutaj znowu po prostu ma dostęp do tej karty,
którą mamy w tym momencie otwartą, na której wywołaliśmy tego asystenta.
No i też możemy pytać się dowolnie o zawartość strony, o zdjęcia i tak dalej.
Tutaj na przykład to może się przydać, nie wiem, w sytuacji, gdybyśmy chcieli
przynajmniej jakąś cząstkową deskrypcję jakiegoś filmu dostać,
bo przepuszczam, że w takiej sytuacji to by zadziałało, przynajmniej w przypadku
filmów, które nie mają zabezpieczeń DRM, czyli na przykład
analityczne, to nam pewnie nie zadziała.
To od razu mówię, tak swoją drogą Signal na przykład zabezpieczył się
przed tą funkcją Recall w Windows 11, bo tylko tam, gdzie jest DRM, to
ten asystent nie robi zdjęć.
No właśnie, to jest na ten moment dostępne dla użytkowników tej wersji
beta lub nowszej, natomiast tutaj nie mamy chyba ograniczeń krajowych, więc
Więc jakby ktoś chciał sobie w Polsce to przetestować, nie, nie ma, z tego co tutaj widzę, to można, wystarczy sobie ten abonament wykupić, zaktualizować, czy właściwie ściągnąć Chroma w wersji beta, bo te wersje mogą być zainstalowane koło siebie, z tego co pamiętam, i po prostu można sobie to zalogować do naszego konta i tego asystenta sobie wywołać i pytać się o różne informacje strony internetowej.
W planach mamy bardziej zaawansowane funkcje.
Między innymi organizowanie kart, również wypełnianie formularzy,
więc będziemy mogli poprosić, żeby Dzieminaj nam pomógł
jakiś formularz wypełnić, ale plany Google
na tego typu funkcje są jeszcze bardziej rozbudowane,
równolegle jest rozwijany. Inny projekt, który był zaprezentowany
tutaj od zespołu DeepMind, ta struktura zespołów, które zajmują się AI
w Google jest skomplikowana.
Oni zajmują się projektem Mariner i ten projekt ma już za zadanie stworzyć takiego asystenta,
który jest w stanie w ogóle, zupełnie autonomicznie, przeglądać internet i wykonywać dla nas różne zadania,
ale to jest odrębna sprawa. A tutaj po prostu możemy sobie z poziomu chroma wywołać.
Oprócz tego sam Gemini znów został zaktualizowany do wersji 2.5.
Mamy do dyspozycji zarówno wersję Live, jak i Pro, która jest o 20% bardziej wydajna, w takim sensie, że zapytania będą zużywały 20% mniej tokenów, ale zachowując cały czas tą wydajność, którą znamy z modeli Gemini, ono jest dostępne zarówno w wersji Flash i Pro, oprócz tego Google zaprezentowało też kilka nowych modeli, pozostał zaprezentowany model
Imagine, nowy do tworzenia obrazów.
Wypuścili też nowy model Virya do tworzenia muzyki.
Natomiast tego modelu nie udało mi się uruchomić, chociaż jest teoretycznie
dostępny na stronie AI Studio, ale niestety nie udało mi się go uruchomić.
Natomiast też zostały zaprezentowane nowe modele do syntezy mowy, właśnie oparte
o Gemini 2.5, one się nawet nazywają Gemini 2.5 TTS
w wersji Flash i Pro.
Wspierają 24 języki, w tym
polski. Mamy do dyspozycji 30
głosów, które mają bardzo
ciekawe
nazwy.
I co ciekawe,
jeśli chodzi o
ten model, to
on jest w
stanie dostosowywać
ją do naszego promptu.
Możemy go poprosić o to, żeby
nam tekst, który
Wpiszemy lub podamy poprzez API, bo oczywiście to są też funkcje, które są dostępne dla deweloperów,
żeby nam został w wybrany przez nas sposób przeczytany.
Fakt, że ten model, zwłaszcza Pro, jest faktycznie wolny i może być tak, że będziemy musieli kilkadziesiąt sekund nawet poczekać,
żeby ta mowa została wygenerowana.
Różnica między tymi modelami Flash i Pro w jakości dźwięku jest.
Ja myślę, że może to spróbuję pokazać, natomiast to mi może sekundę zająć.
Właśnie przez to, że ten bolda się generuje długo,
ja sobie w tle uruchomiłem generowanie syntezy
na tekście, który nam podsumowała wcześniej aplikacja Bold.ai,
bo akurat miałem w schowku.
I poprosiłem, żeby głosem takim niskim,
głosem, który nazywa się bodajże Encylabus,
te głosy w ogóle mają bardzo ciekawe imiona
i są opisywane…
opisywany różnie energetyczny,
lekko zachrypnięty, tego typu możemy znaleźć opisy.
Wybrałem sobie taki głos, poprosiłem, żeby przeczytał mi ten tekst
jak speaker radiowy.
No i to teoretycznie mi się tutaj generuje.
Przynajmniej mam taką nadzieję.
To się będzie generowało i jeśli mi się to wygeneruje,
To za chwilkę puszczę Wam próbkę, a my w międzyczasie przejdziemy do kolejnych aktualizacji, które mogą zainteresować większą grupę użytkowników, a mianowicie tych, którzy mają np. Androida, czy np. korzystają z aplikacji Google Wallet, czy z zegarków z systemem Wear OS.
Sam Android miał osobną konferencję o Androidzie 16.
Sam system dużych zmian nie dostał.
Mamy trochę odświeżony design graficzny, który jest taki bardziej animowany.
Ma generalnie wszystko być bardziej żywe.
Rzeczy mają się ruszać, ma być więcej haptyki.
Takie drobne zmiany zostały wprowadzone.
Jedną z takich większych nowości jest coś, co znamy za jasne tak naprawdę,
…na kształt live activities, czyli powiadomień, które pojawiają się nam na ekranie blokady tymczasowo w sytuacji, kiedy coś się dzieje.
Na przykład, kiedy czekamy na taksówkę, na dowóz jedzenia, czy na przykład aplikacje mogą wyświetlać te różne powiadomienia podczas gdy odbywa się jakaś dłuższa czynność.
…to wykorzystali, żeby wyświetlać wyniki meczy sportowych na stało czy np.
w użyciu zasobów urządzenia.
To są takie monitory zasobów, które w ten sposób działają.
Na Androidzie na ten moment to zostało ograniczone tylko do konkretnej, do
konkretnych aplikacji.
Konkretnie na razie są to właśnie aplikacje związane z dowozem jedzenia i są to
aplikacje związane
właśnie z dowodem jedzenia oraz z taksówkami
i aplikacjami też do nawigacji.
I też dowiedzieliśmy się, że te aktywności,
takie nazwijmy, pojawią się również na zegarkach z Wear OS-em.
Czyli tutaj podobnie jak zresztą na Apple Watchu też niedawno te powiadomienia
zawitały, no to tutaj jeśli ktoś ma zegarek z systemem Wear OS,
to też będziemy mieli
do tego dostęp.
Poza tym aplikacja Google Wallet,
chociaż podobnie jak Wallet,
czyli aplikacja portfel na
iPhonie, będzie w stanie nam
automatycznie wyświetlić powiadomienie
i odpowiedni, odpowiedni bilet,
na przykład odpowiednią przepustkę,
kiedy znajdziemy się w odpowiednim
miejscu, czyli na przykład jeśli
mamy dodane do portfela bilet
lotniczy, dochodzimy na lotnisko,
no to
Automatycznie ten bilet nam zostanie wyświetlony na ekranie blokady.
Będziemy mogli w niego sobie po prostu stuknąć i to zostanie uaktywnione.
To będzie też działało w innych miejscach, więc jeśli mamy jakąś kartę lojalnościową,
jakąś mamy dodaną na przykład kartę członkostwa w siłowni,
jakiejś właśnie karty lojalnościowej w sklepach, to też będzie dostępne.
W kolejnych Stanach Zjednoczonych i w kolejnych krajach zostało dodane też wsparcie dowodów osobistych.
No w Polsce na razie tego nie mamy na ten moment.
I też taką ciekawą nowością jest to, że będziemy mogli poprosić w sklepie Play,
żeby jakaś inna osoba zapłaciła za nas za jakąś aplikację czy inną usługę.
To jest coś, co było na początku testowane w Indiach.
Teraz testy zostały rozszerzone na Stany Zjednoczone, na Kanadę i na Meksyk.
Pewnie z czasem dziś te testy będą rozszerzane jeszcze bardziej.
Usługa, która może być przydatna,
no właśnie na przykład myślę, że przy okazji dzieci to może być przydatne,
działa to w ten sposób, że…
O, i nam się wygenerowała…
Wygenerowała się nam synteza, która mi się zaczęła otwarzać.
Za chwilkę do tego przejdziemy, do tego dokończę myśl.
Działa to w ten sposób, że w sklepie Play, kiedy klikniemy w odpowiedni przycisk, to po prostu będziemy mogli udostępnić jakiejś osobie, dowolnej osobie, link.
I jeśli ta osoba w ten link kliknie, no to będzie mogła za nas, za dany zakup zapłacić.
I to są takie duże nowości, które zostały zaprezentowane na Google I.O.
Wydaje mi się, że niczego nie pominąłem, ale jeszcze się może upewnię.
Jeszcze mówiło się o tych okularach od Google’a, ale czy to oni zaprezentowali tam?
Chyba w jakimś stopniu tam. Nie wiem, czy to było na konferencji.
Na pewno jacyś dziennikarze to testowali.
Generalnie Android faktycznie przygotowuje się na urządzenia tego typu, co się nazywa chyba Extended Reality, czyli to ma być właśnie konkurencja dla Apple Vision Pro.
Apple też, mówi się swoją drogą, że za rok, za dwa lata też ma swoje jakieś okulary wypuścić, bo to o czym tutaj mówimy, jeśli chodzi o Google, to też nie jest sprzęt, który można sobie kupić.
Na razie to są właśnie jakieś egzemplarze urządzenia testowe, więc to nie jest produkt, który możemy sobie kupić. Ciekawe, kto będzie pierwszy jednak, czy Apple?
No właśnie.
Jeszcze tutaj jeśli chodzi o Androida 16, no to Google i Samsung pochwaliło się tym, że jeśli ktoś ma przystawkę Google TV, czy nawet telewizor firmy Samsung, to Androida 16 wspiera nowy kodek audio, on się nazywa Ellipse.
Jest to otwarta źródłowa alternatywa dla kodeków takich jak Dolby Atmos, czyli to jest taki bardzo rozbudowany dźwięk przestrzenny, który oprócz tego, że jest w stanie nam pokazywać, że coś jest za nami,
to dostosowuje się do tego, ile mamy głośników, czy np. wirtualnego dźwięku przestrzennego, jeśli mamy słuchawki założone, żeby nam ten dźwięk wydobywał się np. nad nami, pod nami,
Jesteśmy lepiej w stanie ten dźwięk zlokalizować.
Kwestia jest taka, że oczywiście firma Dolby czy np. DTS, czyli główny konkurent,
wymagają niemałych opłat, żeby z tych kodeków korzystać,
więc tutaj kilka firm informatycznych, m.in. Google i Samsung,
I Samsung postanowili stworzyć własny kodek,
który jest otwarto-źródłowy
i co za tym idzie, po prostu będzie dostępny
na otwartej licencji, więc teoretycznie powinien być łatwiejszy
do zaimplementowania dla deweloperów.
Okej, teraz pokażę wam, jak brzmi ten nowy
Syntezator, przynajmniej jeden z jego głosów.
Natomiast mi to jeszcze sekundkę zajmie, dlatego że…
Bo generalnie, gdyby ktoś chciał sobie to przetestować,
można to zrobić na stronie AI Studio.
Wchodzi się na aistudio.google.com
ukośnik generate myślnik z pech.
I na tej stronie możemy sobie wpisywać.
Mamy nawet tryb dwóch rozmówców.
Mamy też tryb jednego rozmówcy.
Mamy po prostu pole audycji, w którym wpisujemy np.
przeczytaj tekst, jak speaker radiowy czy bardziej podeekscytowanie.
Możemy jakiś prompt temu modelowi podać.
I wpisujemy tekst, klikamy przycisk Run,
co spowoduje, że wytwarzanie tej mowy się rozpocznie.
Jak słyszeliście, to trochę potrwało, odkąd powiedziałem,
że kliknąłem ten przycisk, a powiedziałem później,
że to zaczęło mi się odtwarzać.
I to się na stronie wyświetla jako zwykły odtwarzacz.
I jak to testowałem w Firefoxie wcześniej,
no to tam miałem przycisk pobierz w menu kontekstowym na tym odtwarzaczu.
Jak teraz chciałem zrobić to samo w Safari, to ten przycisk zniknął.
Nie wiem, że… Chociaż normalnie Safari też coś takiego oferuje.
Nie wiem, czy Google coś tutaj zmienił w międzyczasie,
czy jest jakaś różnica z Safari.
Natomiast przez to muszę szybko sobie dźwięk Safari udostępnić,
co mi sekundę zajmie.
Mamy telefon, więc może odbierzmy ten telefon, bo się już ktoś naczekał, a kto jest z nami?
To znowu Patryk. No, naczekałem się prawie 20 minut, ale chciałem tu sprostować a propos Jemina i o tym wieszaku, o którym mówiłem.
Bo nie dawało mi to spokoju. Mówię, będę cierpliwie czekał.
Jeszcze raz opowiem tą sytuację, bo tutaj chyba zostałem trochę źle zrozumiany albo źle się wyraziłem.
Mniejsza o to, ale chcę, żeby była jasność.
Po prostu jeżeli na przykład poprosimy o ten wieszek,
zapytamy, czy on tu jest i ona nam powie, że go nie ma,
ale na przykład skieruj telefon w inną miejsce,
na przykład skierujemy telefon w inną miejsce,
to nadal musimy zapytać, czy tutaj jest ten wieszek.
Czyli ona sama z automatu tego nie powie.
Tylko jeżeli zapytamy jeszcze raz, czy jest ten wieszek,
No to ona wtedy na przykład powie, nie?
Ale no musimy jakby faktycznie, za każdym razem, jeżeli skierujemy w innym miejscu, musimy się zapytać, bo ona z automatu tego nie zrobi.
Bo ja przypuszczam Patryku, że to też działa tak jak ChatGPT, czyli że nie ma stałej analizy tego wideo, ale on też robi sobie zdjęcie.
Znaczy, nie wiem czy robi zdjęcie, no bo jakby z perspektywy osoby widzącej ten obraz jest jakby cały czas udostępniony.
Jest kamera, ale czy ona robi zdjęcie? Nie wiem jak to wygląda, ale no musimy zapytać po prostu.
Czy widzisz tu wieszak? No i na przykład ona jeżeli nie widzi, ale na przykład jeżeli już skierujemy i zapytamy ponownie
i powie, no to wtedy powie ci konkretnie wskazówkę, czy jest na wprost, czy bardziej w prawo, czy w lewo,
W obrębie tego, można powiedzieć, zdjęcia, które ono sobie teoretycznie zrobi.
Chciałem, żeby była jasność, żeby to było wyjaśnione.
Dobrze, że powiedziałeś i że doprecyzowałeś.
Tak, właśnie o to mi chodziło, żeby ktoś sobie tam nie pomyślał, że to jest jakieś takie…
Że to taka magia.
Tak, niestety, nie jest to taka magia.
Tak samo jak podawałem przykład z telewizorem.
Za każdym razem muszę pytać, gdzie jest kursor.
I ona mówi, kursor jest na przykład na opcji dźwięk.
I znowu, pójdę strzałką niżej, no to ona nie śledzi tego kursora, tylko znowu muszę zapytać, gdzie jest kursor?
No to ona wtedy mówi, kursor jest na tam opcji obraz, tak? Taki przykład, nie?
Musimy za każdym razem go jednak pytać.
Żeby człowiek miał taki sprzęt, jak komputery naprawiał.
Ja jestem bardzo ciekawy, czy ten projekt Astra faktycznie coś w tej sferze zmieni, no bo
To pierwsze demo, to właśnie coś takiego pokazywało, takiego proaktywnego.
A tutaj jednak faktycznie mamy taką sytuację, że musimy się dopytywać.
Ja to testowałem akurat na rozumieniu ekranu i też miałem podobnie.
Tak, no bo to tak działa, ale generalnie i tak to jest, uważam,
level wyżej niż to, co mieliśmy do tej pory.
Tutaj nie ma co ukrywać, bo naprawdę możemy zapytać sobie,
jak podawałem przykład roweru, no to nie dość, że ona widzi rower,
nawet kolor roweru rozpozna.
No to jeszcze można na przykład…
Nie wiem, też naciągałem łańcuch na przykład.
Też mi wytłumaczyła, jak to zrobić.
I prawidłowo mi to wytłumaczyła.
Co mam odkręcić, co podnieść, co obniżyć.
Także myślę, że do takich rzeczy to jest naprawdę…
Tylko jeszcze taka moja na koniec uwaga ode mnie,
że przy takich właśnie dżemina
i tych innych takich rzeczach
fajnie mieć fajne słuchawki
z dobrą redukcją szumu,
…żeby jednak korzystać sobie ze słuchawek, bo jeżeli jesteśmy w zatłoczonym miejscu i dużo ludzi gdzieś tam rozmawia,
no to wtedy telefon głupieje i jakby nasłuchuje co chwilę i jest to bez sensu.
A jeżeli mamy, mówię, dobra, ja akurat tutaj używam Galaxy Buds 3 Pro, one naprawdę bardzo dobrą mają redukcję rzymów.
No jeżeli ktoś ma iPhone’a, no to wiadomo, AirPods’y tam, to chyba to jest jasne.
Ja tyle ode mnie mówię, to chciałem sprostować.
Okej, to dzięki Patryku w takim razie za sprostowanie i do usłyszenia.
Do usłyszenia.
Dobrze Piotrze, to co? Możesz myślę zademonstrować tę syntezę.
Mamy tutaj 49 sekund dokładnie jak jest czytany opis poprzedniego Tyflo Przeglądu.
Najnowszy odcinek Tyflo Przeglądu, który ukazał się 27 maja 2025 roku, odcinek numer 283,
omawia nowości w aplikacji Be My Eyes, stronę Playzin oraz potencjalnie ciekawe okulary z Rumunii.
Poruszane są także aktualizacje w programach NVDA i Joe’s 2025, nowe funkcje oparte na sztucznej inteligencji,
Co zauważyłem, że on radzi sobie, mam wrażenie, trochę lepiej ze zmianą języka.
Tak, to na to by to wskazywało. Chociaż oddechy cały czas są strasznie sztuczne.
No pewnie, no tak, pewnie dlatego, że też poprosiłem, żebym mówił w speaker radiowym i tak to mówił wolno.
Ale wiesz co, zauważyłem, że synteza naprawdę ma bardzo duży problem. Która by to nie była.
Jeżeli jakaś właśnie próbuje symulować te oddechy, to wszystko to brzmi strasznie sztucznie.
To prawda.
Eleven Labs też ma z tym duże kłopoty. To brzmi nienaturalnie.
No faktycznie te prompty działają. Inny test, który robiłem akurat, nie mam tego przed sobą, żeby wam pokazać.
Podałem mu przykładowy tekst, który miał symulować komentatora sportowego.
Wygenerowałem mu locowy tekst, jakby Lewandowski strzelał bramkę.
I no, co mi zaimponowało, to faktycznie jakby trzeba było krzyknąć gol i to tak dłużej, no to krzyknął.
Więc te prompty faktycznie mają wpływ na to, jak ten tekst jest generowany.
Jakbym poprosił, żeby czytał szybciej, bardziej dynamicznie, może jakąś reklamę,
no pewnie bym tak przeczytał. Nie powinno być z tym problemu.
Ale faktycznie trochę dogenerowanie trwa.
My tu się już zbliżamy teoretycznie do końca naszego programu, a w praktyce do nas dzwonicie.
No to my też w praktyce odbieramy. A kogo witamy po drugiej stronie?
Po krótkiej przerwie Bartek się kłania po tej stronie.
Cześć Bartku, słuchamy.
Po tygodniowej przerwie, tak można powiedzieć.
Pierwsze pytanie tutaj do Piotra. Czy Piotrze jesteś mi w stanie tak nakierować, bo rzeczywiście ta strona tyflotechnia.net zadziałała, tylko co ewentualnie po tym adresie wpisać, żeby bezpośrednio ten dodatek pobrać?
Okej, ja sobie na tą stronę wejdę. Tam chyba jest generalnie tylko jeden link, na który trzeba wejść.
Bo tak naprawdę ta strona jest po hiszpańsku i to jest chyba największą przeszkodą, tak mi się wydaje na tą chwilę, bo ja aktualnie nie posiadam żadnego translatora, żeby ją tutaj przetłumaczyć ewentualnie.
Spróbuj sobie wejść na, może, jeśli, może, widzę tutaj w ogóle, że faktycznie, jeśli wchodzisz na
tiflotecnia.net, to jest strona po portugalsku konkretnie, bo to jest firma portugalska.
O, widzisz, a my jesteśmy tu w hiszpańskim.
Tak, natomiast jak wejdziesz na stronę tiflotecnia.com, to tam już mamy stronę po angielsku
i jeśli chodzi o wybieranie, to na tej stronie mamy nagłówek Download i pod tym
Link tutaj.
Rozumiem, że to jest bezpośredni odnośnik?
I to zarówno silnik, jak i same głosy?
Takie same jak w poprzedniej wersji, czyli praktycznie tam chyba były…
Jak dobrze pamiętam, to były wokalizery chyba?
Tak, tak, to cały czas wokalizery.
Zosia chyba i Ewa, tak?
Ewa, Krzysztof i Zosia, dokładnie.
Okej, w porządku. To takie moje pierwsze pytanie.
A drugie pytanie a propos Dimajajs i konkretnie historii.
Czy ewentualnie można tą historię wyczyścić?
No, ona jest generalnie kasowana po 30 dniach, z tego co pamiętam.
Ale tam chyba jest opcja usunięcia tych konkretnych czatów.
No właśnie, pytanie gdzie, bo interesuje mnie właśnie, tak jak Michale przed chwilą powiedziałaś,
tak jak w przypadku iOS-a mamy w przypadku SMS-ów.
Jak wejdziemy w edycję, to mamy usunięć wszystkie wiadomości.
To wtedy on nam usuwa wszystkie ostatnie.
To chodzi o to, żeby całą historię jakby na bieżąco usuwać.
Chodzi Ci o to, że chcesz po prostu wszystko za jednym razem.
Tak, tak. Wszystko za jednym razem, żeby wyczyścić.
No właśnie. A jeżeli chodzi o to, co wspominałeś Michale, to w którym miejscu?
To znaczy to się samo będzie czyściło. Po 30 dniach to Ci zniknie.
Jak dobrze pamiętam. Jest tam opcja, żeby zachować jakieś konkretne czaty,
ale domyślne zachowanie aplikacji jest takie, że ona po jakimś czasie
będzie te czaty sama usuwać.
W porządku. To tutaj to ewentualnie mamy załatwione.
To jeszcze, co chciałem tu was zapytać. Przepraszam, bo sekundkę tutaj sobie tylko przypomnę.
Jeżeli chodzi o aplikację Koleo, czy w ostatnim czasie nabywaliście jakieś bilety na Intercity? Może?
Nie. W ostatnim czasie, w ciągu kilku dni ostatnich, nie.
Kupowałem bilety i wybrałem opcję przedziałową, jakby to powiedzieć,
czyli preferencję przedziałów, ale tam nie miałem możliwości wyboru miejsca.
Może Wy do tego doszliście, jak te miejsca ewentualnie wybrać.
Bo jak ja tylko wybiorę opcję wagon przedziałowy i zaakceptuję,
Czyli zrobię przycisk zapisz, to on losowo te miejsca wybiera.
A mnie tak konkretnie by interesowało, żeby może tak powiem w konkretnym miejscu te miejsca były.
Jasne. No nie testowałem tego, przyznam szczerze, a poza tym jeżeli o mnie chodzi,
to bardzo rzadko zdarza mi się jechać w wagonach przedziałowych.
Mam wrażenie, że ostatnio… albo po prostu tak mi się trafia, ale zdecydowanie częściej trafiają mi się te bezprzedziałowe.
Bo tutaj rozumiem, Michale, jak wybierasz ze schematu, tak? Mówimy?
Wiesz co, tak mówię ogólnie. Tak mówię ogólnie. Ja się bardzo rzadko skupiam na tym, żeby wybierać konkretne miejsce.
No bo tutaj to uważałem, jak wybieramy ze schematu, to chyba najczęściej nam pokazuje te bezprzedziałowe.
Tak bynajmniej mi się wydaje, ale nie wiem, czy to akurat jest prawda.
Ciężko mi powiedzieć, bo naprawdę…
Bo jak zauważyłem, że tutaj jest miejsce przy oknie, miejsce…
Pośrodku?
Pośrodku to by akurat świadczyło o tym, że to jest przedział, a tu mi, że korytarz, więc od razu świadczy, że to jest bezprzedziałowy.
I właśnie ciężko tutaj też wybrać ten wagon chociażby właśnie przedziałowy, bo to nie jest właśnie tutaj pokazane,
Który wagon jest przedziałowy, który bezprzedziałowy.
Jeżeli mam być szczery, to naprawdę nie pamiętam, kiedy ostatnio jechałem w przedziałowym, tak Ci powiem.
W porządku, no to tą opcję jeszcze będę musiał w najbliższym czasie rzeczywiście sam tutaj zobaczyć, jak ona wygląda.
No i ostatnia wiadomość, bo wiem, że skończycie niedługo de facto, dzisiaj troszeczkę taki ubogi skład, jakby to powiedzieć, no ale no…
Każdy potrzebuje wolnego, prawda?
Oczywiście, że tak.
Oczywiście. Więc tutaj tylko mogę powiedzieć, że w najbliższych dniach,
najdalej za dwa tygodnie, tak mogę Wam luźno na razie obiecać,
że będę wiedział a propos tej sprawy, z którą dzwoniłem jakiś czas temu,
a mianowicie chodzi o załatwianie zlecenia na Białą Laskę
Oraz rozliczanie się z tego spita, więc będę w przyszłym tygodniu bodajże realizował takie zlecenie, więc będę miał okazję przy okazji się zapytać w sklepie medycznym, czy rzeczywiście taka możliwość istnieje.
To daj znać Bartku.
I oczywiście, i przy okazji też załatwiam końcówkę wymienną do białej laski, więc przy okazji też z tego zapytam się, czy można się rozliczyć.
No jasne.
No dobrze, wiadomo, że już niedługo weekend, więc wszystkiego dobrego.
Bardzo niedługo.
No niedługo, no jest środa i czwartek i w końcu piątunia, jak to powiedziałeś na samym początku.
Tak jest.
Do zobaczenia i trzymajcie się serdecznie. Dzięki serdecznie Piotrze za tą informację, zaraz od razu zobaczę.
Trzymaj się Bartku.
Pozdrawiamy.
Trzymajcie się serdecznie, pa pa.
Dobrej nocy.
To teraz w takim razie zaglądamy do waszych wiadomości, bo tu mamy wiadomości od Maćka Sztuk dwie, więc posłuchajmy.
No witajcie, dawno mnie tu nie było, ale mam jeszcze pytanko do ciebie Michale, bo zapomniałem w tym swoim słowotoku.
Mianowicie odnośnie do tego Gemini’a, którego ty testowałeś i ten strumień wideo tak zwany.
Powiedz mi, to ty masz dostęp do tego w darmowej wersji GPTK, czy…
Boże, GPTK.
Jeminaja, czy kupowałeś sobie Advanced, albo…
Tak, tak, ja dostałem w czwartek do tego dostęp, w ogóle.
Taki jeden, właśnie jeden kolega też dostał w czwartek.
Natomiast on ma darmową wersję i myśmy obaj dostali właśnie w tym samym czasie na…
Ja relotkowym, na relotkowym koncie sobie wykupiłem, znaczy wykupiłem,
na razie mam okres trudny, tak jak mówiłem, do potestowania sobie.
I w czwartek dostaliśmy właśnie z Kubą dostęp, tyle że on w tym darmowym wariancie.
A co ciekawe, ja na swoim drugim gmailowym koncie…
Nie mam do tego nawet w ogóle dostępu.
Czy bym nie był po VPNie połączony, czy w amerykańskim,
czy tutaj, legalnie w Polsce sobie przebywać, to dalej tego nie ma.
Ciekaw jestem, czy ty masz w tym darmowym wariancie i o co tu właściwie chodzi
z tym wrzucaniem do różnych kąt, jeśli chodzi o użytkowników,
jeśli chodzi o rozprzestrzenianie tej funkcjonalności.
Jestem bardzo tego ciekaw.
No i plus jest generalnie taki, że dzięki Patryku też za wyjaśnienie.
OK, teraz już wiem. No właśnie, bo to marketing marketingiem i to, jak oni to zapowiadali, tak zapowiadali,
a rzeczywistość jednak mimo wszystko jest inna, choć jest to niebywałe, znacznie ogromne ułatwienie tak naprawdę tego życia,
bo nie ma co tu kryć. Rzeczywiście jest. Natomiast też z kolejnych plusów to to, że robi się konkurencja,
że Gemini to wprowadza. Umówmy się szerzej. I to jeszcze prawdopodobnie właśnie w tej darmowych też kontach użytkowników,
Gdzie no za GPT-ka, czy OpenAI cały czas sobie każe za to płacić, więc no tutaj jest niewątpliwy plus, jeżeli to miało by działać na tych danowych kontach, nie?
Maćku, odpowiadając na twoje pytanie, to jeżeli chodzi o Gemini’a, to ja na swoim Googlu nie mam.
Ja mam na jednym z kont z G Suite’em czy Google Workspace, jak to zwał, tak to zwał, ale w każdym razie tak to właśnie jest.
I ja myślę, że to jest dobry moment, żeby spróbować Wam pokazać, jak to działa.
Jeżeli u kogoś to jeszcze nie działa, to spróbuję narobić smaka i pokazać.
Mam nadzieję, że to, że jestem połączony w tym momencie do miksera przez urządzenie bezprzewodowe
nie spowoduje tego, że nie zechcę to współpracować, ale zaraz zobaczymy.
Jest okazja, żeby się pobawić, słuchajcie.
Dobrze, tu mam oczywiście, wita mnie Gemini.
Tak, i tu mam te przykładowe prompty, ale mnie interesuje coś, co znajduje się w prawym dolnym rogu okna.
Właściwie nie, nie w prawym dolnym, bo tu jest klawiatura, ale powyżej tej klawiatury.
Mam rozpocznij chat live.
I teraz szukamy…
Nie!
Powiedz mi, co widzisz teraz.
A możesz spróbować zerknąć jeszcze raz?
Ech, muszę w takim razie iść zapalić światło.
Zobacz mapę Olsztyna. Czego konkretnie szukasz?
No nie, nie przeglądam mapy Olsztyna. Zerknij teraz.
Aha, to wygląda na sprzęt muzyczny. Czy szukasz jakiegoś konkretnego sprzętu?
Nie, po prostu opisz mi, co w tym momencie widzisz o, na przykład teraz.
Będziemy teraz korzystać z takiego skutku,
Mamy tutaj wpis na przykład,
co my w tajemnicy mamy?
Mamy tutaj typowe postacy,
Można używać tej postaci,
które możemy podlatować przy nakładaniu
wойsk do naszego reżysera.
Mamy tutaj handlon,
Mam palec, teraz.
I tak to działa.
I tak to działa, o właśnie.
Mógłbym tu testować to oczywiście dalej.
Teraz też oczywiście trochę było to o tyle problematyczne,
Problematyczne, że z jednej strony było ciemno, z drugiej strony po zapaleniu światła cały czas odwoływał się do sprzętu, który widział, nie zauważył kota, który cały czas leży przy sprzęcie. To ciekawe.
To jest umiejętność kotów.
W sumie mogę go spytać jeszcze raz.
O, zablokował się.
I chyba nie będę w stanie go tak łatwo odblokować,
ale zaraz to spróbuję zrobić.
I jeszcze raz zapytam go, czy widzi kota.
Tylko muszę wpisać kod.
Kod przez D, żeby nie było.
Dobra, ja was przepraszam tak w ogóle za ten przester, który być może słyszycie.
No niestety problem jest taki, że te poziomy dźwięku się bardzo, bardzo zmieniają,
kiedy się połączymy, ale to zresztą na Whatsappie też tak było.
No to próbujemy.
Ta, muszę kontynuować rozmowę.
Wstrzymaj rozmowę, włącz udostępnianie ekranu, włącz strumień wideo, przycisk, wyłącz strumień wideo.
A powiedz mi, co widzisz teraz?
Teraz widzę głównie różne kable i sprzęt muzyczny. Czy jest coś konkretnego, co mam opisać?
A nie widzisz tu gdzieś kota?
Och, jaki słodziak. Tak, widzę tam kota. Wygląda na to, że jest bardzo zainteresowany tym, co robisz.
Czego potrzebujesz?
A co konkretnie robi?
Wygląda na to, że obwąchuje kable.
Może jest zaintrygowany ich zapachem albo szuka ciepłego miejsca?
A nie próbuje ich gryźć?
Wygląda na to, że je obwąchuje, ale nie jestem pewna, czy próbuje je gryźć.
Czy masz jakieś obawy związane z tymi kablami?
No, zdecydowanie mam obawy związane z tymi kablami,
No i więc może sprawdź jeszcze raz czy ich nie gryzie.
Na całe szczęście kot nie podgryza tych kabli.
To mogę was uspokoić.
Kot kabli nie podgryza.
Teraz, o, zakończę rozmowę.
Kot kabli nie podgryza, aczkolwiek kiedyś próbował. Prawdopodobnie dlatego
Geminaj stwierdziła, że jednak podgryza, bo jest parę śladów kocich zębów na tych kablach.
Ale na całe szczęście tylko śladów, a kotek już tego więcej nie robi.
No i tak to wygląda, tak to działa, słuchajcie. Geminaj, jak słychać, odpowiada naprawdę szybko.
To, ta prędkość jest bardzo, bardzo imponująca.
I też, no też fajnie, że mamy te informacje dźwiękowe, kiedy ona jakby kończy nasłuchiwać.
I tu też mam wrażenie, że no jeżeli o to nasłuchiwanie chodzi, to jakoś lepiej wychodzi Jeminajowi
wychwytywanie tego, kiedy ja kończę mówić.
Oczywiście wiadomo, no w tym momencie to miało z tym duży problem dlatego, że prowadząc audycję, no to staram się jednak mówić cały czas.
Radio wszak nie lubi ciszy, ale w takiej standardowej konwersacji to wygląda to naprawdę całkiem nieźle. I ta konwersacja naprawdę wygląda na to bardzo dobrze.
I on też przerywa. Zresztą jak zjąłeś słuchawki i poszłeś załapalić światło i nawet coś mówiłeś tam gdzieś z daleka, ja ledwo słyszałem, że coś mówisz.
No to wychwycił.
No proszę.
I o coś tam mówił, przerwał i no właśnie potem zaczął o tej mapie mówić.
Tak. Nie wiem skąd on wziął mapę Olsztyna, może gdzieś tu mam, a o tym nie wiem.
Albo z jakiejś w ogóle innej, nie wiem, czy pamięci, czy z lokalizacji, czy z czegokolwiek ją sobie wziął.
A być może gdzieś mam tu mapę Olsztyna.
I się czegoś nowego dowiedziałem.
No w każdym razie tak właśnie to działa. Jeżeli macie konto Google, jeżeli na przykład macie konto firmowe, to dobrze jest sprawdzić, czy macie dostęp do Gemini Live, bo na moim prywatnym gmailu tego nie było, a na jednym z kont, gdzie mam to wszystko włączone, to po prostu to zadziałało.
No, natomiast nie jest to absolutnie regułą, ale pozostaje mieć nadzieję, że Google będzie to wszystko uruchamiał sukcesywnie i że będzie to zwyczajnie dla coraz większej liczby użytkowników dostępne.
Jeszcze tak już rzutem na taśmę zaglądam, co do nas piszecie.
Sylwester pyta, kiedy będą podcasty Kamila Kaczyńskiego i Roberta Łabęckiego?
Jak nagrają, to będą w sylwestrze.
I to jest ostatnie pytanie, jakie macie do nas w dzisiejszym 284 wydaniu Tyfla Przeglądu.
My słyszymy się za tydzień w jakim składzie, to się wszystko okaże, dziś skład Piotr Machacz, Michał Dziwisz.
Dziękujemy Wam bardzo za uwagę i do usłyszenia.
I w tym samym składzie słyszymy się w czwartek.
O Braille Emotion będziemy sobie rozmawiać.
Do usłyszenia.
Był to Tyflo Podcast.
Pierwszy polski podcast dla niewidomych i słabowidzących.
Program współfinansowany ze środków
Państwowego Funduszu Rehabilitacji Osób Niepełnosprawnych.

Wszystkie nagrania publikowane w serwisie www.tyflopodcast.net są dostępne na licencji CreativeCommons - Uznanie autorstwa 3.0 Polska.
Oznacza to, iż nagrania te można publikować bądź rozpowszechniać w całości lub we fragmentach na dowolnym nośniku oraz tworzyć na jego podstawie utwory Zależne, pod jedynym warunkiem podania autora oraz wyraźnego oznaczenia sposobu i zakresu modyfikacji.
Przekaż nam swoje 1,5% podatku 1,5 procent Logo FIRR Logo PFRON Logo Tyfloswiat.pl

Czym jest Tyflopodcast?

TyfloPodcast to zbiór instrukcji oraz poradników dla niewidomych lub słabowidzących użytkowników komputerów o zróżnicowanej wiedzy technicznej.

Prezentowane na tej stronie pomoce dźwiękowe wyjaśniają zarówno podstawowe problemy, jak i przedstawiają metody ułatwienia sobie pracy poprzez korzystanie z dobrodziejstw nowoczesnych technologii. Oprócz tego, Tyflopodcast prezentuje nowinki ze świata tyfloinformatyki w formie dźwiękowych prezentacji nowoczesnych urządzeń i programów. Wiele z nich dopiero znajduje sobie miejsce na polskim rynku.

Zapraszamy do słuchania przygotowywanych przez nas audycji i życzymy dobrego odbioru!

Tematyka

Pozycjonowanie i optymalizacja stron internetowych