TyfloPrzegląd Odcinek nr 279 (wersja tekstowa)

Pobierz napisy w formacie SRT
Pobierz napisy w formacie VTT
Fundacja Instytut Rozwoju Regionalnego prezentuje Tyflo Podcast.
Wtorek, 22 dzień kwietnia 2025 roku, to w kalendarzu 20.10, no prawie 11 na zegarze.
No i jak tam po świętach żyjecie? Objedzeni czy niekoniecznie?
Ja chyba objedzony. Dużo ciasta było.
Ja w zasadzie też, chociaż nie zjadłam jakoś dużo, ale czuję przesyt.
A ja czuję, że rzeczywiście też pojadłem, także wszyscy żołądki mamy pełne.
Jest gwarancja, że Wam tu nie uśniemy w 279 już wydaniu Tyflo Przeglądu.
Dziś skład taki rzeczywiście trochę poświąteczny, bo mało nas, ale jesteśmy
I mamy wam do przekazania to i owo Paulina Gajoch, Piotr Machacz i mówiący do słowa Michał Dziwisz.
Witamy was bardzo serdecznie i zaczynamy. A o czym dziś? No to już wam opowiadam.
W tym tygodniu w Tyflo Przeglądzie.
Drobne aktualizacje bety NVIDIA oraz Joe’sa.
Tech Assistant, nowa aplikacja dla niewidomych na Androida.
Tyflonews, nowy kanał na YouTubie dotyczący niewidomych, nowości w grach.
Holorode, polskie inteligentne okulary na abonament.
McWhisper, dostępny na iPhonach i iPadach.
Jak skutecznie nagrywać rozmowy na telefonach z systemem Android?
Potrzebujesz opinii anonimów z internetu? Jest do tego strona.
Meta wykorzysta dane Europejczyków do trenowania AI, ale można się z tego wypisać.
Będzie też kącik newsów sztucznie inteligentnych.
Wszystko to, a pewnie jeszcze więcej już za chwilę. Zaczynamy!
Tyfo Przegląd jest audycją prowadzoną na żywo, więc serdecznie zachęcamy Państwa do współtworzenia go razem z nami.
Oczekujemy na wiadomości głosowe na Whatsappie oraz połączenia telefoniczne pod numerem 663-883-600, powtarzam 663-883-600 oraz zapraszamy Państwa do wyrażania komentarzy w formie tekstowej poprzez formularz na stronie kontakt.tyflopodcast.net.
Odczytujemy również Państwa wypowiedzi zamieszczone pod transmisjami na Facebooku i YouTubie.
Staramy się też zaglądać na nasz tyflopodcastowy serwer Discorda.
Mam okulary Envision, Glasses, mam OpenAI, mam Metereybana i mam N-Glasses.
I niestety to wszystko nie działa. I chcę powiedzieć, nie będę już wyrzucał, tracił pieniędzy.
Ja za te pieniądze bym kupił porządny AmpliTuner, bo mam takie odczucie,
Ja bym za Amble Junior dał te pieniądze i bym dużo lat korzystał.
W kontekście właśnie jednych z okularów, ale o tym za moment.
Ja proponuję, żebyśmy dziś zaczęli tak trochę od końca, bo zwykle blok zatytułowany Drobne Newsy
no to towarzyszy nam po czasie jakimś, ale tak się złożyło, że nasz dzisiejszy system rozłożył ten blok tak,
że pojawił się na samym początku, a że system całkiem fajnie nam te wszystkie informacje porozkładał,
No to proponuję, żeby rzeczywiście zacząć od tego, co tam drobnego w technologiach.
No to ja mam drobne newsy dwa. Wiem, że tutaj Paulina też coś przygotowała.
Ja dzisiaj będę mówił o czytnikach ekranu na system Windows,
bo zarówno NVDA i JAWS dostały drobne aktualizacje.
Jeśli chodzi o NVDA, to akurat aktualizacja dotyczy tych osób,
Które zdecydowały się na zainstalowanie wersji beta NBDA 2025.1.
O tej wersji mówiliśmy w poprzedniej audycji
i w tym poprzednim cyfroprzeglądzie, który już jest na stronie,
obszernie omawialiśmy wszystkie zmiany, które w niej zaszły.
Zmian tych jest dużo. Są to głównie zmiany pozytywne.
Przypominam, że niektóre dodatki mogą z tą wersją nie działać.
Natomiast dla tych, którzy zdecydowali się tę aktualizację zainstalować,
No to warto sobie faktycznie te automatyczne aktualizacje zostawić włączone,
no bo to jest ten moment, kiedy wszelkie jakieś błędy są w szybkim tempie naprawiane.
I tak już mamy drugą PETA, MVDA 2025.1, w której to zostały zaktualizowane tłumaczenia
i wydaje mi się, że w tym będzie też tłumaczenie polskie,
bo wiem, że tam nie wszystko było na początku jeszcze zintegrowane,
Ale wiem, że zmiany nad tym postępowały np. w dokumentacji,
więc tutaj strzelam, że w to już też zostało właśnie dodane.
I oprócz tłumaczeń mamy drobną poprawkę błędów dla głosów SAPI 5,
w których włączyliśmy sobie podkręcanie prędkości.
Także jeśli korzystaliście z tej funkcji albo próbowaliście z niej skorzystać,
natomiast to Wam z Waszym ulubionym głosem SAPI nie chciało zadziałać,
No to po zainstalowaniu tej aktualizacji po prostu działać to już powinno.
Natomiast jeśli chodzi o JOS-a, tutaj też mamy wersję 2025, natomiast to już jest wersja stabilna.
Pojawiła się aktualizacja, która tak naprawdę przynosi jedną zmianę.
Jest to poprawka błędów dla użytkowników przeglądarki Google Chrome,
czy pewnie też Microsoft Edge’a, wszystkiego generalnie oparte o silnik Chromium.
Dotyczy ona zaznaczenia tekstu z formatowaniem,
co JAWS w przeciwieństwie do MVDA wspierał od jakiegoś czasu.
MVDA właśnie doczekał się tej funkcji w Chromie w wersji 2025.
Natomiast JAWS to już wspierał czas dłuższy.
Natomiast przez zmiany, które zostały wprowadzone
właśnie czy to w Chromie, czy to w Edge’u,
ta funkcja przestała działać.
I ta aktualizacja JAWSa, która właśnie się pojawiła,
ma jedno zadanie, po prostu tę funkcję naprawić.
Także jeśli korzystacie z JOS-a i potrzebujecie tej funkcji przenoszenia, kopiowania tekstu zachowując wszelkie formatowanie, czyli jakieś linki, jakieś tabelki, jakieś grafiki, no to teraz to w JOS-ie z Chrome’em powinno ponownie po prostu działać.
I zdaje się Paulino, że ty też masz dla nas tu w drobnych piosach jakąś informację.
Właśnie też dwie.
Pierwsza informacja to jest o aplikacji Tech Assistant, czyli nowej aplikacji na Androida.
To jest jakaś taka apka hinduska, więc jest tam na przykład funkcja sklepu, ale podejrzewam, że nie da się z niej skorzystać.
Ogólnie zaraz mogę przeczytać opis tej aplikacji, ale sama nie przetestowałam jej,
Mam informację, że jest niezgodna z moim urządzeniem, więc podejrzewam, że też wiele z Państwa się natknie na ten problem.
Pomyśl o tym jako o swoim przyjacielskim, inteligentnym towarzyszu.
Odblokuj moc AI. Nasza aplikacja jest wyposażona w inteligentne funkcje obsługiwane przez Tech Assistant AI, które upraszczają twój dzień.
Twój towarzysz na czacie AI. Masz pytania? Po prostu zapytaj. Rozmawiaj z Tech Assistant AI o wszystkim.
…otrzymuj szybkie odpowiedzi, zagłębiaj się w tematy, a nawet pytaj o przesłane pliki.
Możesz zrobić zdjęcie bezpośrednio w tym samym oknie czatu, aby uzyskać natychmiastową analizę.
Zobacz za pomocą o.i.
Ciekawi cię zdjęcie. Nasza sztuczna inteligencja może przeglądać obrazy i informować cię, co się na nich znajduje.
Przedmioty, ludzie, sceneria itd.
Zrozumienie filmów.
Analiza wideo.
Przeszli film, a sztuczna inteligencja go rozbije,
opisując elementy wizualne i interpretując dźwięk,
aby uzyskać pełną historię.
Analiza dokumentów.
Z łatwością obsługuj pliki PDF, nawet trudne i niedostępne.
I pliki txt.
Uzyskuj szybkie podsumowania lub szczegółowe informacje z treści.
Analiza dźwięku.
Szybciej uzyskaj sedment dowolnego pliku audio,
dzięki inteligentnym podsumowaniom opartym na sztucznej inteligencji.
Rozumie nawet różne języki, oferując jasne tłumaczenia lub streszczenia.
Narzędzie OCR.
Potrzebujesz tekstu z obrazu menu lub zdjęcia dokumentu.
Skorzystaj z naszego dedykowanego narzędzia Image OCR.
Zrób nowe zdjęcia bezpośrednio lub wybierz je z galerii i natychmiast wyodrębnij tekst.
Pozostałe narzędzia w asystencie.
Mówiący kalkulator obliczaj liczby bez kłopotów. Wybieraj spośród wielu opcji obliczeń i wyraźnie wymawiaj wszystkie przyciski i wyniki.
Idealne do szybkiej i przystępnej matematyki.
To nie wiem, czy się dyktuje to, czy po prostu, że jest dostępne.
Może ten kalkulator po prostu wymawia jakoś fajnie te różne obliczenia.
Ja się trochę obawiam, że tam są jakieś sample, no ale okej.
Ja też, właśnie. No ale tak to jest z automatycznie tłumaczonymi treściami.
Ale już kończę.
Szybki tłumacz. Przełam bariery językowe szybko i dokładnie.
Tłumacz tekst na wiele języków.
Zamiana tekstu na mowę.
Daj odpocząć oczom. Konwertuj tekst pisany na wyraźnie naturalnie brzmiący dźwięk.
Analizator tekstu. Masz długie artykuły lub dokument?
Błyskawicznie odzyskuj kluczowe punkty i podsumowania.
Bądź na bieżąco i kupuj mądrze.
Sekcja trendy w aplikacji Tech Assistant.
Sprawdzić, co jest na topie w świecie technologii i co słychać w społeczności użytkowników.
Wyselekcjonowany sklep zatrzyma niekończące się poszukiwania.
Nasza sekcja sklep zawiera starannie wybrany…
Aha, wybrany wybór, okej.
Najlepszych i najbardziej dostępnych produktów technologicznych, co pozwala zaoszczędzić czas i wysiłek.
I tak dalej, i tak dalej. W sensie już to jest tyle o funkcjach.
Natomiast przeglądałam sobie szybko ten sklep.
No i tam są właśnie jakieś smartfony, jakieś głośniki, słuchawki, mikrofony itd.
Więc tak naprawdę wszystko co możemy kupić również w zwykłym sklepie z elektroniką.
Także jeżeli aplikacja Tech Assistant jest zgodna z waszym urządzeniem i chcielibyście potestować
To dajcie znać, jak działa mówiący kalkulator, bo to mnie najbardziej chyba ciekawi z tych wszystkich narzędzi.
I może jeszcze, czy da się czymś fajnym mówić w tekstu speech.
Bo może mają podłączone jakieś api do Eleven Labs albo do czegoś.
No a jeżeli nie, to niewiele pewnie stracicie.
Natomiast druga aktualizacja, w sensie drugi drobny news.
Jest nowy OCR w Windowsie i taka oto wiadomość na Tyflosie jest związana z tym tematem.
Witam, w moim Windows 11, wersja 24h2, kompilacja systemu operacyjnego 261203380.
W aplikacji zdjęcia pojawił się nowy przycisk skanu i tekst, który błyskawicznie, super dokładnie rozpoznaje tekst ze zdjęcia.
Jak skorzystać?
1. Otwieramy zdjęcie w aplikacji zdjęcia, np. naciskając Enter na pliku zdjęcia w Eksploratorze.
Klawiszem Top, szybciej będzie Shift-Top, szukamy przycisku Skanuj tekst i wciskamy Enter lub Spację.
Po usłyszeniu komunikatu wykryto tekst. Możemy go zaznaczyć Ctrl-A i skopiować do schowka Ctrl-C.
Działa błyskawicznie, bardzo dokładnie.
Jak dla mnie super. Szkoda tylko, że nie ma jeszcze tej funkcjonalności w aplikacji skanowania, ale może jeszcze na to nie wpadli.
Ja u siebie tej funkcji nie mam, ale jeżeli ktoś ma taką kompilację, albo po prostu chciałby sprawdzić, czy taka funkcja występuje, no to też zapraszamy do wyrażenia opinii na ten temat.
Jeżeli macie, to koniecznie podzielcie się z nami waszą opinią, waszymi refleksjami, bo być może coś tam już testowaliście i na przykład porównywaliście to z jakimiś innymi narzędziami OCR, z których korzystacie na co dzień.
A tymczasem do naszego wirtualnego studia zawitał Marcel Kardasz. Marcelu, cóż nam ciekawego przynosisz tym razem?
Dobry wieczór, dobry wieczór wszystkim.
Dobry wieczór.
Mam nadzieję, że jestem usłyszalny jakkolwiek rozsądnie.
Tym razem już nie będzie może wpadki z nieoryginalnym dźwiękiem.
Jest wszystko okej.
Ja właśnie miałem dwie rzeczy.
O jednej była właśnie przed chwilą mowa,
czyli właśnie o tym OCR-ze z Windowsa 11.
A to przepraszam.
Bo byłem właśnie ciekaw ogólnie, czy komuś to działa,
bo brzmi całkiem obiecująco.
Plus kwestia jest też taka,
że ponoć ten OCR, jak wyczytałem właśnie na Tyflosie bodajże,
nawet radzi sobie jakoś z pismem odręcznym, co jest w ogóle ciekawe.
Natomiast druga kwestia, o której chciałem powiedzieć dziś,
to jakby mój projekt.
Stworzyłem niedawno wtyczkę do NVDA, oczywiście z chatem gpt,
ponieważ po prostu Pythona nie lubię, ale dość to sobie dobrze
oprogramowałem w chacie, żeby on mi tworzył rozsądnie te wtyczki
Stworzyłem sobie wtyczkę do pogody.
Wiadomo, jest Weatherplus.
To jest też wtyczka, którą chyba zna większość osób,
bo jest i w oficjalnych repozytoriach,
no i jest też w polskiej wersji językowej.
Jeśli dobrze pamiętam, było to kiedyś tłumaczone.
Natomiast ta wtyczka pobiera dane…
w sumie nie wiem, skąd ona dokładnie je czerpie.
Natomiast mój projekt jest skupiony typowo na pogodzie dla Polski.
WCYŚKA się nazywa Polska Pogoda i umożliwia na obecny moment
sprawdzanie aktualnej pogody dla wybranego miasta.
Czyli otwieramy sobie okienko dialogowe, gdzie możemy sobie miasto wybrać.
Bądź też możemy zdefiniować takie miasto w ustawieniach tak,
jak to jest również w Wetterplasie.
Tam są niestety tylko duże miasta i to nie wszystkie.
Ponieważ moja WCYŚKA korzysta z danych pogodowych
od IMGW, Instytut Meteorologiczny, ten polski.
Stwierdziłem, że napiszę to sobie dlatego, że po prostu
chciałbym mieć jak najbardziej aktualne, jak najbardziej zbliżone do prawdziwych
dane pogodowe.
No to rzeczywiście bardzo fajnie. A jakie informacje na temat pogody
i z jakiego zakresu ta twoja wtyczka pokazuje?
Zaraz mogę nawet tutaj pokazać.
O, byłoby super.
Momencik. Tylko sobie muszę zmienić syntezator
na jakiś rozpoznawalny dla ludzi.
Jasne.
Okej. Mam nadzieję, że teraz…
zaraz będzie.
Tylko muszę sobie jeszcze po prostu
tutaj wszystko przeprocedować.
Bardzo cicho to słychać, wiesz?
O! Już jest lepiej.
Teraz tak. Otworzyłem notatnik, żeby po prostu
coś było, żeby sobie wyregulować.
No i tak. Wtyczka w zasadzie
Na obecny moment ma dwa skróty klawiszowe.
Ctrl-NVDA-W, czyli dla tych, którzy używają inserta, no muszą to zrobić na dwie ręce.
Natomiast wybrałem ten skrót trochę pod siebie, bo ja używam osobiście klawisza Caps Lock jako klawisza,
modyfikatora NVDA, jak to się tak ładnie nazywa.
I wtedy można sobie w zasadzie trzema palcami, bądź nawet, no tak, trzema palcami lewej ręki kliknąć wszystko.
Po naciśnięciu skrótu Ctrl N, V, D, A, W otworzy nam się następujące okienko.
I tutaj mamy listę miast.
Dla ciągu, że to jest pole edycji, ponieważ kiedy była zwykła lista rozwijana,
gdy zaczynaliśmy uzupełniać, w zasadzie można było nawigować tylko po jednej literze.
Jako, że ja się znajduję blisko Poznania, mógłbym wybrać Poznań,
ale wybierzmy sobie np. Warszawę. Wystarczy, że napiszę WA
i już mi się zaznaczenie skasowało. Dam sobie strzałkę w dół.
I już mamy wybrane to konkretne miasto.
Interfejs jest bardzo prosty. W zasadzie wystarczy nacisnąć tabulator
i otworzy nam się kolejne okienko.
Dlaczego to jest pole do odczytu? Ktoś by się mógł zapytać.
Czemu tu nie wyskakuje po prostu okienko ze zwykłym OK przycisk?
Otóż czasami chciałoby się jednak tą pogodę jakoś skopiować,
gdzieś wysłać konkretny, konkretny parametr sobie, nie wiem…
Albo na spokojnie się z nią zapoznać po prostu znak po znaku,
chociażby, albo wyraz po wyrazie, jak byśmy tam sobie chcieli.
A takie okienko dialogowe, w którym wszystko by było czytane naraz,
no to nie zawsze jest najlepszy pomysł po prostu.
Tak z tego założenia wyszedłem.
Chociaż parę osób zgłaszało mi, że jednak woleliby okienko na raz
i trwają prace nad tym, żeby przynajmniej dla aktualnego,
ustawionego sobie wcześniej miasta w ustawieniach,
dało się jakby odczytać pogodę bez w ogóle pojawiania się okienka.
Jeden skrót klawiszowy i po prostu przez funkcję speech jest wszystko zapowiadane.
I mamy tutaj tak.
Pogoda dla Warszawa, temperatura 16,2 C, wilgotność 66,7%, wiatr 3 km H, kierunek 300, opady 0 mm, opady 0 mm.
I to jest wszystko. No niestety, żeby zamknąć, musimy albo kliknąć OK, albo nacisnąć Z4.
Escape z jakiegoś powodu, mimo że był oprogramowany, działać nie chciał, więc dałem sobie z nim spokój.
Ale teraz, przechodząc do tego, że możemy sobie zdefiniować miasto.
Wchodzimy w ustawienie NVDA.
Ustawienia i przechodzimy sobie do zakładki, można powiedzieć.
Chociaż to nie jest zakładka, ale wiadomo o co chodzi.
Polska pogoda.
O właśnie, z tego słowa mi brakowało.
No i tutaj mamy do wybrania miasto.
Ja mam wybrany Poznań, dlatego jakby on się automatycznie ustawia na ostatnim wybranym elemencie, na którym zostawiliśmy okienko, zapisaliśmy zmiany.
Są na przykład takie rzeczy.
I tak dalej. Skupmy się na Poznaniu. Możemy zatwierdzić OK, bądź anulować, po prostu zrezygnuj zwyczajnie, jak to jest w NVDA.
No i wówczas naciskając skrót NVDA CTRL SHIFT 2, to oczywiście definiujemy tylko raz.
Domyślne miasto definiujemy po prostu na początku, kiedy zechciałem używać tej wtyczki.
Później po nacisnięciu CTRL SHIFT 2, od razu dostajemy po prostu okienko z pogodą dla tego konkretnego miasta.
Oczywiście skróty nie każdemu muszą pasować.
Żeby je zmienić wchodzimy w menu NVDA, przechodzimy na zdarzenia wejścia.
I tutaj również mamy kategorię…
I mamy do zdefiniowania dwa skróty.
No to jest jeszcze do poprawki słownej.
W sensie nie każdy się domyśli o co chodzi.
Ale też dla wszystkich, którzy gdzieś tam
nie zanotują sobie jak to zrobić,
gdzie co jest, to oczywiście jest również
Dla dodatku można ją sobie wywołać z menu narzędzia
addon store zainstalowane dodatki POM
tam polska pogoda i pod tabulatorem wchodząc
w dodatkowe opcje można zarówno odwiedzić stronę internetową
która linkuje akurat do mojej angielskiej podstrony
nie do tej strony cytyczką to jest też głupi błąd
można powiedzieć wynikąc przyzwyczajenia
to zostanie naprawione w wersji 0.2
i w wersji 0.2 również pojawi się opcja
…prognozy pogody, czyli tego, co większość jednak może interesować bardziej.
Czyli takie informacje na przyszłość, bo jak rozumiem, ta pogoda, którą wyświetla w tym momencie ten dodatek, to jest pogoda aktualna.
To jest pogoda aktualna na obecny moment. Znaczy, no mogą być różnice kilku minut.
Tam nie wiem, jak to dokładnie sobie, co ile minut jest dokonywany pomiar, ponieważ polska pogoda korzysta właśnie, tak jak mówiłem, z IMGW,
Instytut Badań Meteorologicznych, który udostępnia API pozwalające na pobieranie aktualnej pogody z rozmieszczonych w różnych częściach kraju stacji pogodowych.
No i tak samo jak i w przypadku tych ustawień, czyli jak już sobie ustawiliśmy tutaj miasto domyślne, to z domyślnego miasta będziemy mogli sprawdzać sobie pogodę.
Mógłbym niby zrobić osobny wybór, ale to już jest troszkę, no troszkę
przerost formy nad treścią myślę, bo raczej ktoś, kto ustawi sobie domyślne
miasto chciałby raczej głównie dla niego sprawdzać tą aktualną pogodę, a jeżeli
gdzieś tam nagle będzie musiał wyjechać w inne miejsce na jeden dzień z
komputerem, to równie dobrze może sobie to raz na chwilę przestawić.
To też nie jest myślę problem.
Jedynym problemem, który będzie dla użytkownika końcowego jest fakt, iż ta
Prognoza pogody nie będzie już pobierana z IMGW, ponieważ oni, jak szukałem, no chyba, że wy wiecie, w sensie słuchający, jeśli ktoś słyszał o API IMGW umożliwiającym pobieranie prognoz, to będę bardzo ukontentowany, bo jednak najlepiej byłoby oprzeć wszystko na jednym.
No ale ja takiego API się nie doszukałem, dlatego będzie to korzystało z strony nazywającej się Dobra Pogoda.
Jedynym ich wymogiem jest to, żeby uzyskać sobie token.
Ja teoretycznie mógłbym wrzucić token tutaj.
Natomiast ten mój, który wygenerowałem.
Natomiast jakby trochę nie o to chodzi, bo nie wiem na ile to
zda egzamin, czy nie ma jakiegoś limitu itd.
Jak nagle z 20 osób by chciało sobie pobrać pogodę
i zwróci błąd, że jednak nie można.
Ta generacja jest bardzo prosta. W zasadzie strona jest
bardzo łatwa w obsłudze. Wystarczy wprowadzić adres e-mail,
kliknąć wyślij i otrzymujemy od razu poniżej
jakby czystym tekstem token, który
będzie należało wkleić do aplikacji, w sensie do wtyczki w ustawieniach.
Będzie tam opcja wprowadź token dla prognoz pogody i będzie przycisk
uzyskaj token.
I po wprowadzeniu takiego tokenu będziemy mogli sobie te prognozy sprawdzać.
No to rzeczywiście bardzo, bardzo fajnie.
Tak Paulino?
Jeden taki malutki błąd chciałabym zgłosić, ponieważ
Jak pokazywałeś, to zwróciłam uwagę na to, że jak są ustawienia i jest ten wybór domyślnego miasta, to ta lista rozwijana nie ma etykiety, a można mogłoby zrobić, żeby miała jednak.
Powiem Ci szczerze, że to wynika z mojej beznadziejnej umiejętności pisania w Pajtonie i tego, że w zasadzie musiałem to robić czatem.
To wynika z tego, że ja po prostu nie… Dlaczego ja właśnie sam nie napisałem? Ja po prostu nie umiem we wcięcia. Ja lubię języki bez wcięć.
No jednak wtyczki do NVIDIA nie da się w niczym innym napisać.
Mogę pomyśleć, popatrzeć, czy jest jakaś opcja zaetkietowania.
Na pewno jakaś opcja będzie.
Nie wiem, czy nie w naszej jakiejś wtyczce, czy tam nie było przypadkowo.
Jest w Dice Rollerze.
Jest?
W tym samym…
Jest?
W samym etykietowaniu.
W Dice Rollerze, tak.
W tym samym takim, taka jeszcze jedna drobna zwykacja.
Generalnie pomysł na dodatek świetny, bardzo mi się podoba.
Ale też myślę, że fajniej byłoby ten kierunek wiatru też podawać jednak jako kierunek.
Ja akurat to mogę sobie skonwertować, jak 300 stopni to jest, powiedzmy, północny zachód,
no ale chyba byłoby bardziej intuicyjnie, gdyby tam faktycznie pisało, że ten wiatr
po prostu wieje na północny zachód.
Zgadzam się i od razu dziękuję za feedback, bo w zasadzie jakoś mi to umknęło,
nie pomyślałem nawet, jakby nad kierunkiem wiatru nigdy się nie skupiałem.
Dalej to go wziąłem po prostu. Nie wiem tylko, czy oni udostępniają taką możliwość,
Pewnie musiałbyś sobie jakąś procedurkę napisać.
Jeśli Python będzie umiał coś takiego w domyśle, bez jakiejś głębszej kombinatoryki, to postaram się to wprowadzić.
Nie wiem, czy w wersji 0.2, bo w wersji 0.2, tak jak mówię, chcę się na razie skupić na tej prognozie pogody.
Mam nadzieję, że mi się uda, że w ogóle z tym API to zadziała.
Jeśli nie, to będę szukał innego.
Bądź po prostu wtyczka zostanie sobie do aktualnej pogody.
Mam jednak nadzieję, że po prostu uda mi się to ogarnąć.
Tak, jeżeli da się to…
Tak odpowiadając po kolei, jeżeli da się zaetykietować te pola,
a już wiemy, że się da, to w najnowszej wersji
następnej postaram się to zrobić.
Jeśli chodzi właśnie o
kierunek wiatru, sprawdzę, jak się to API nie podaje,
W formie czytelnej dla użytkownika.
Bo jeśli podaję, to oczywiście to również zrobię.
Jeśli nie podaję, to pewnie zejdzie nad tym trochę więcej myślenia i kombinatoryki.
Bo tak jak mówiłem, w Pythonie po prostu nie potrafię pisać,
więc działam bardziej na zasadzie logicznego myślenia.
Czyli o, ale ta funkcja w sumie trochę źle działa,
to wykorzystajmy inną i gdzieś tam doczytuję ewentualnie,
podając jakby to można rozwiązać.
Już program robi to za mnie.
No i właśnie tak to wszystko na obecny moment wygląda.
To skąd można tę wtyczkę pobrać?
Wtyczkę można pobrać z mojej oficjalnej, polskojęzycznej strony.
To jest pixel-pl. To się pisze P jak Paweł, I jak Irena, X jak…
Jest coś na X po polsku?
Xantypa chyba. Tak to się oznacza.
P jak Paweł, I jak Irena, X jak Xawery,
E jak Ewa, L jak Leopold, D jak Dawid, A jak Adam, S jak Stanisław, H jak Henryk.
No i .pl oczywiście. No i tam jest zakładka programy, można również po prostu po slashu sobie dopisać ukośnik programy.
Ja oczywiście linka gdzieś tam tutaj też prześlę Wam. Tutaj na Zoomie to nie wiem gdzie się da, więc po prostu pójdzie prywatnie.
Jeśli proszę na właśnie jakąś dobię na przykład, żebym mógł sobie to do notatek dorzucić albo na nasz panel kontaktowy.
Żeby można było to wrzucić jakby w linkach po audycji.
Jasne. Oczywiście, że tak.
Standardowo.
Więc fajnie będzie, jak to właśnie podrzucisz, to na pewno wkleję.
Okej, to w takim razie co? Czy coś jeszcze, czy to tyle?
Tylko dosłownie jedno zdanie a propos tego Tech Assistant.
Ja już tutaj szukam tego TechAssist, szukam tego po sklepie Play i trochę nie mogę trafić na konkretnie tę aplikację.
Właśnie strasznie trudno jest znaleźć tę aplikację tak zwyczajnie.
Stąd pytanie, czy wiesz, jaki to jest deweloper? Jakby, kto to wydał? Bo tak będzie łatwiej.
Okej, bo ja sprawdzę, czy to się da, czy to się da zainstalować. U mnie jeśli się da, to się oczywiście pobawię i też z jakimiś informacjami do Was przyjdę.
Pewnie w przyszłym tygodniu, chociaż w przyszłym tygodniu mogę mieć trochę inne rzeczy do ogarnięcia.
O, to mój SMS, oczywiście. Ten stał mu od nastu lat.
Pozdrawiamy.
W każdym razie, tak jak słuchałem tego twojego, Paulino, początkowego opisu,
to mi się to skojarzyło trochę z takim projektem, jaki kiedyś robiłaś,
tak zwanym Blind People Helper.
Część z tych opcji on chyba umiał i w ogóle zastanawiam się,
Myślę, że to nie jest przypadkiem u nich tak, że oni sobie zbazowali to typowo na czacie GPT,
któremu dali pewne opcje.
Oczywiście. To nie może być inaczej. W sensie to, co na pewno zbudowali, no to wiadomo, że jakiś OCR,
jakiś tam tekstospój i tak dalej, ale pewnie większość tych wszystkich podsumowań, nie wiem…
Tego wszystkiego to jest generowane, nie?
Zdjęć i tak dalej, no to jest po prostu zwykły czat.
Mi się w ogóle trochę wydaje, tak jak słuchałem opisu, że ta appka to za dużo nowości nie wprowadza w tym, co już mamy.
To jest jakby zebranie trochę Be My Eyesa, trochę Lookouta czy Envisiona, którego ja akurat wolę od Lookouta.
I po prostu strzelenie tego w jedność.
Nawet nie, bo Lookout potrafi zdecydowanie więcej niż to, jeżeli chodzi o rozpoznawanie rzeczy.
Tylko wiesz, to się pojawiło niedawno, więc może się okazać, że to się jeszcze rozwinie.
Może tak. Właśnie dlatego podrzucam, bo sygnalizuję, jeżeli ktoś chce testować, no to…
To zawsze jest taka możliwość, o ile zadziała.
Tak. Ja się tym będę bawić, jeśli to pójdzie na moim telefonie, ale mam piętnastkę Androida, więc powinno jakoś to zadziałać.
No to czekamy, Marcelu, w takim razie na jakieś wieści, czy zadziałało, czy nie zadziałało.
No i cóż, dzięki w takim razie za informację i za wtyczkę, bo myślę, że niejednej osobie ona może być przydatna.
Dzięki i do usłyszenia.
Do usłyszenia.
A ja tymczasem zaglądam do naszych wiadomości, które wysyłacie do nas.
Mamy na przykład wiadomość od Łukasza.
I Łukasz napisał do nas na Whatsappie tak.
Cześć, witajcie na Blind Shellu Classic 2 i 3.
Pojawiła się aplikacja Czytnik RSS.
Na zdjęciu widoczne jest okno z brązową ramą w niebieskim murze zasłonięte białymi firankami z wzorem.
Pod oknem rozciąga się pas żwiru, a na nim leżą drewniane elementy.
Dalej rozciąga się trawnik z zieloną trawą.
Elementy układają się warstwami ściana, żwir, trawa.
I jeszcze jeden opis.
Na zdjęciu widzimy zbliżenie profilu głowy mężczyzny.
Ma on krótkie siwe włosy i założony na ucho czarny zestaw słuchawkowy z niebieskimi elementami mocującymi.
Mikrofon zestawu znajduje się blisko jego policzka. W tle widać ściany w odcieniu fioletu.
Mężczyzna ma na sobie niebieską koszulkę. No jak na offline, to te opisy są niezłe, jeżeli to rzeczywiście działa offline.
To naprawdę fajnie.
No i fajnie, że jest ten czytnik RSS-u, bo to jednak też na takim prostym urządzeniu może nam się naprawdę przydać, bo w ten sposób dostajemy tak naprawdę dostęp do wiadomości z jakiegokolwiek tematu, jaki nas interesuje.
Czy to są jakieś wiadomości sportowe, polityczne, technologiczne, czy co tam jeszcze. Tak naprawdę mamy kanały RSS do wszystkiego tak naprawdę.
A przy okazji nie karmimy swoimi zainteresowaniami różnego rodzaju algorytmów, bo sami sobie dobieramy te źródła informacji.
I też dzięki temu możemy czerpać z różnych źródeł, a nie tylko z tego, co nam algorytm podsunie.
Ja polecam, polecam RSS, chociaż niestety problem jest taki, że coraz to mniej serwisów tym RSS-em się chwali.
To jest jedno, ale niestety też problem jest taki, że nie wszystkie serwisy te kanały RSS mają,
bo bum na RSS to już rzeczywiście minął i o ile sporo jeszcze serwisów po prostu nawet jeżeli nie publikuje wprost informacji o kanałach RSS to ma gdzieś tam zaszyte w źródle te kanały i jak ktoś wie jak to jest sobie w stanie je bez problemu wyciągnąć, ale część serwisów to po prostu tych RSS-ów nie ma i to jest problem.
Natomiast, jeżeli nie jest dla Was problemem przyswajanie różnych informacji, to polecamy bardzo serdecznie nowy kanał na YouTubie, który się pojawił i dotyczy informacji różnego rodzaju dla osób niewidomych i słabowidzących, czyli no coś takiego jak my tu robimy, na przykład w Tyflo Przeglądzie.
Aczkolwiek kanał, który nazywa się Tyflonews, mam wrażenie, że nie jest aż tak bardzo skupiony na technologii.
Zajrzałem tam na ten kanał. Jak na razie ma dwa odcinki. Kilka dni temu został opublikowany najnowszy odcinek.
Te odcinki mają po kilkanaście minut, więc coś dla tych, którzy lubią raczej krótsze niż dłuższe treści.
Rafał Kondraciuk, na co dzień tyflospecjalista w biurze Regionalnym Fundacji Szansa, jesteśmy razem w Zielonej Górze, to właśnie on z pasją, doświadczeniem i ogromnym zaangażowaniem dostarcza Wam aktualnych i rzetelnych informacji z tyflo świata.
Subskrybuj, włącz powiadomienia i bądź na bieżąco z tym, co naprawdę ważne w życiu bez barier.
Więc jeżeli macie ochotę, to dajcie suba, bo na razie tam Rafał na YouTubie ma tych subskrybentów niewielu, ale jeżeli interesują Was, tak jak mówię, no tu jest informacja, że będzie, że będą te informacje dotykały także technologii, trochę tych informacji technologicznych jest, na pewno jest sporo informacji na temat tego, co słychać w Fundacji Szansa, no w myśl zasady bliska koszula ciału, tak.
Rafał pracuje w Fundacji Szansa, więc też nic dziwnego, że informacje o tym, co w Szansie publikuje, no ale też nie tylko, więc jeżeli macie ochotę, no to zasubskrybujcie i myślę, że to zawsze kolejne warte źródło informacji, a pod względem technicznym, no to naprawdę te informacje są zwyczajnie dobrze zrobione, jak taki nowoczesny radiowy serwis informacyjny.
Także myślę, że posłuchać warto.
A teraz kolejne informacje, kolejne wieści, tym razem dotyczące gier.
Tak, i dzisiaj mam dla Was dwie takie gamingowe informacje.
Pierwszą jest nowa gra, która niedawno się pojawiła.
Pojawiła się kilka dni temu.
Gra nazywa się Constant Motion
i w takim dłuższym skrócie można powiedzieć,
że jest to zestaw minigier, w których cały czas biegniemy przed siebie.
Więc można powiedzieć, że jest taki zestaw endless runnerów,
jak to ładnie się ten gatunek nazywa.
Ktoś zaraz zapytał, jak można zrobić taki zestaw,
który w tym momencie składa się z gier 14.
Plan jest taki, żeby tych gier było nawet 20.
I od razu też mogę powiedzieć, że nie jest to projekt darmowy,
bo w tym momencie kosztuje dolarów 15 i to jest cena obniżona.
Finalnie będzie kosztować bodajże chyba 18 dolarów, tam 17,99.
Natomiast trochę tutaj płacimy też w pewnym sensie za jakość,
bo autorem tego zestawu jest nikt inny jak sam Tupi,
czyli człowiek, który odpowiada za wiele cenionych gier audio
od swojego czasu w Survive the Wild czy Red Spot,
A w dzisiejszych czasach nad silnikiem NVGT, o którym bardzo często tutaj wspominamy.
Na tym silniku bardzo dużo gier ostatnio powstaje, łącznie z tą oczywiście.
I widziałem taki komentarz, że przychody właśnie z tej gry będą wykorzystane do finansowania dalszego rozwoju NVGT.
Także wydaje mi się, jeśli ktoś by się zastanawiał.
Cena może nie jest mała, tutaj z tym się też mogę zgodzić,
Jak na takie proste gry, to 15 czy 18 dolarów to trochę wyższa cena,
natomiast faktycznie tutaj mamy bardzo dobrze zrobioną uprawę dźwiękową
i faktycznie wydaje mi się, że te pieniądze będą w dobry sposób wykorzystane.
No i w tych gier jednak mamy całkiem dużo
i dla tych, którzy zastanawiają się, co można z takim konceptem zrobić,
No to myślę, że możemy sobie tutaj przeczytać wszystkie gry, które są dostępne.
Możecie sobie wejść na stronę, oczywiście strona będzie podlinkowana,
jest też wątek na forum Audiogames, gdzie znajdziecie link do tej strony.
I mamy wszystkie te gry opisane z krótkimi demonstracjami audio,
więc możemy sobie posłuchać jakichś klipów, które wszystkie z tych gier pokazują.
I tak, mamy grę, w której unikamy ściał,
które są w naszą stronę strzelane.
Robimy to po prostu naciskając strzałkę w lewo, w górę lub w prawo,
zależnie od tego, z jakiej strony leci do nas strzała.
Więc akurat to jest gra dosyć prosta.
Następnie mamy grę Endless Cave,
czyli jaskinia bez końca,
w której przeskakujemy przepaści,
kłócamy, żeby uniknąć ataku nietoperzy,
A też czasami musimy klawiszem Enter zniszczyć jakieś skały,
które stoją na naszej drodze.
Mamy też taką grę, w której uciekamy i biegniemy
przez właściwie taką górkę, z której toczą się głazy,
które też musimy unikać.
Tutaj przypomina mi się taka minigra z Crazy Party.
Tam też była taka minigra.
No i tutaj właśnie musimy nawirować między tymi głazami tak,
żeby nic z nas nie uderzyło.
Natomiast oprócz tych głazów też będziemy czasami napotykać
takie nieruchome ściany, które będziemy musieli też unikać.
Mamy grę, która się nazywa Zygzak.
I tutaj dosłownie też, jak możemy przeczytać w opisie,
jesteśmy szczurem laboratoryjnym,
czy właściwie bierzemy udział w jakimś eksperymencie,
w którym musimy odpowiednio wchodzić do otwartego miejsca
na płotach, które stają przed nami.
Jeśli tego nie zrobimy, to po prostu uderzymy głową o ten płot
i gra się zakończy.
No i jak można domyślać się po nazwie,
to te przestrzenie będą albo z lewej, albo z prawej strony.
Następnie mamy grę Electrified Acid,
czyli zelektryzowany kwas.
I kolejny eksperyment.
Musimy tutaj też unikać odpowiednio,
tutaj też między przeszkodami.
Mamy grę Fire Escape i tutaj,
tak jak poprzednie gry testowały nasz czas reakcji,
to ta gra testuje to, jak szybko możemy naciskać krawisze,
bo tutaj unikamy goniącego nas pożaru
i musimy jak najszybciej naciskać zarówno strzałkę w prawo,
Jakieś spacje można naciskać, albo tylko jeden z tych klawiszów, albo dwa naraz, wtedy będziemy biec jeszcze szybciej.
Mamy grę, w której musimy szybko otworzyć bramy, które stoją przed nami, żeby się przez nie przedostać, naciskając odpowiednie przyciski.
Gdybyśmy jakiś przycisk przekapili, to niestety po prostu brama się dla nas nie otworzy i też nam gra się po prostu skończy.
Mamy grę, która nazywa się Spell Shield, czyli tarcza przeciwko zaklęciom.
I tutaj mamy trochę takie nawiązanie do gry, w której unikaliśmy ściału,
ale też do takiej gry jak Audio Wizards, jak ktoś grał,
w której przeciwnicy będą wciskać w nas zaklęciami różnych żywiołów.
Czy to będzie ziemia, czy to będzie woda, czy to będzie ogień,
czy to będzie elektryczność. I my musimy tą tarczę ustawić odpowiednio tak,
żeby wszystkie z tych zaklęć zniwalowały.
Czyli np. jeśli leci w nas ogień,
to musimy uaktywnić sobie wodę, żeby to ogniste zaklęcie ugasić.
Mamy grę, w której płyniemy pod wodą,
w jakimś eksperymentalnym skapandrze,
w którym jeden z pędników się popsuł
i przez to cały czas płyniemy do przodu
i musimy po prostu jakoś zachować kontrolę nad naszą postacią.
Na szczęście możemy skakać, możemy też zbierać zbiorniki zarówno z tlenem,
jak i z ciekłym azotem, który jest wykorzystywany przez nasze pędniki,
tak, żeby tutaj też po prostu wytrzymać jak najdłużej.
Constant Christmas, czyli mamy nawet grę świąteczną w maju,
zaraz po Wielkiej Nocy, ale akurat jakoś tak wyszło.
Ta gra, z tego, co wiem, jest rozwijana od dłuższego czasu,
więc może stąd się ta świąteczna gra tutaj wzięła.
I wcielamy się w świętego Mikołaja, który podczas lotu rozdawania prezentów
został zaatakowany przez jakieś nietoparze.
Przez to jego sanie spadły na ziemię i wszystkie prezenty wypadły.
Naszym zadaniem jest pozbieranie z powrotem tych prezentów,
wjadąc na naszych saniach, jednocześnie unikając różnych przeszkód,
np. budynków, drzew i innych rzeczy, które możemy napotkać na ulicy.
I musimy jednocześnie też oddawać nasze prezenty.
I tutaj też jest ta gra całkiem rozbudowana,
bo musimy odpowiednio długo przytrzymać spację,
żeby wznieść się ponad dach danego domu i wtedy możemy ten prezent zrzucić.
Także tutaj rozgrywka jest nawet rozbudowana.
Następna, która w sumie też jest dosyć skomplikowana,
Diffusal to the Death, czyli gra, w której cały czas ciągle biegniemy do przodu.
Musimy rozbrajać bomby.
Będziemy te bomby słyszeć, musimy taką bombę wziąć do ręki
i odpowiednio zgadnąć kombinację, która tą bombę rozbroi.
Na poczęszenie powiem, że kombinacja składa się tylko z trzech cyfr,
Więc po prostu musimy kombinować, aż bombę uda nam się rozbroić.
No i wiadomo, z czasem będziemy mieli po prostu mniej czasu, będzie pojawiać się więcej bomb.
I po prostu musimy je wszystkie rozbrajać.
Następna gra polega na tym, że jesteśmy rolnikiem, uprawiamy sobie kukurydzę.
Natomiast nasze pole z jakiegoś powodu się zapaliło i naszym zadaniem jest jego ugaszenie.
Więc musimy nabrać wodę do wioderka, po lewej stronie naszego pola cały czas biegnie strumek,
którym możemy to wioderko napełnić, no i po prostu podchodzimy do jakiegoś miejsca,
które się pali w jakiejś kukurydzy i ją po prostu gasimy.
Jeśli tego nie zrobimy, to ten połogień będzie się rozprzestrzeniał
No i wiadomo, też musimy uważać, żebyśmy też sami się nie zapalili.
Następna gra to Color Collection.
To kolejna gra, która jest całkiem rozbudowana,
bo podczas naszego biegu zbieramy monety.
Natomiast monety są w trzech kolorach –
zielone, czerwone i niebieskie, bodajże.
I kiedy te monety zbieramy, no to słuchając ich dźwięku
musimy nacisnąć odpowiedni klawisz, żeby te monety pozbierać.
Dlaczego musimy to zrobić w ten sposób?
Bo kiedy już kilka takich monet nazbieramy,
będziemy czasami też napotykać kasy,
do których musimy te monety wrzucić.
Jeśli zebraliśmy te monety w odpowiednich kolorach,
w odpowiednim miejscu, to nic się nie stanie.
Dostaniemy z niej punkty.
Natomiast gdyby się okazało, że zebraliśmy monetę
nie do tego koloru, gdzie trzeba,
to ta kasa po prostu wybuchnie i nas zabije.
I na końcu mamy grę Constant Destruction,
w której musimy zniszczyć ogromne betonowe ściany,
które pobują naszą drogę.
Co ciekawe,
mamy różne przedmioty, których możemy wykorzystać,
albo jakieś tarcze.
Mamy też przedmioty, które mają mniejsza, powiększe pole rażenia,
więc musimy odpowiednio te przedmioty dobrać tak, żeby te ściany zniczyć,
ale też jednocześnie, żeby siebie nie zabić, używając przedmiotu,
który ma duże pole rażenia.
Swoją drogą, taka ciekawostka, już takie rzeczy nawet istnieją w realu.
Ostatnio widziałem na Facebooku, to w Warszawie się takie miejsce ogłaszało,
To, że oczywiście za odpowiednią opłatą, i ta opłata nie jest wcale aż taka bardzo niska, ale jak na przykład już znane są te tak zwane escape roomy, gdzie rozwiązujemy różnego rodzaju zagadki, żeby się z danego miejsca uwolnić,
to są miejsca, w których możemy po prostu wyładować swoją jakąś tam energię negatywną, frustrację wraz ze znajomymi na przykład, bo to można sobie jakąś tam grupkę znajomych zaprosić.
I po prostu udać się na wspólne Destroy Party.
Mamy do dyspozycji różnego rodzaju sprzęty, jakieś elektronikę, jakieś tam meble nawet.
No i oczywiście odpowiednie narzędzia w postaci jakichś siekier i innych takich,
za pomocą których można przeprowadzać taką masową destrukcję.
Także jeżeli ktoś nawet by chciał i w ten sposób, to już fizycznie można takich doświadczyć bodźców, że tak powiem, i coś takiego przeżyć.
Ale jak się nazywa taka instytucja w ogóle? Distroy Room?
Wiesz co, nie wiem jak ona się nazywa, widziałem opis, widziałem opis po prostu tego. Nie wiem, czy jest to jakoś bardzo popularne.
Jak na razie wyskoczyła mi reklama jednego takiego miejsca, no i to w Warszawie, więc być może na razie dopiero testują taki pomysł.
No, jakby ktoś nie chciał do Warszawy jechać, to można po prostu sobie tą grę, po prostu tutaj constant motion ewentualnie ściągnąć. Natomiast pomysł na rozrywkę ciekaw, zdecydowanie.
Ja się zastanawiam, jak ci ludzie, którzy tworzą ten przybytek, umieszczają właśnie jedną tą minigierkę jako wirtualny spacer dla osób niewidomych.
Tak.
Jeszcze na koniec dodam, że gra też ma swoją wersję demo.
Także zanim ktoś decyduje się na zakup, to można sobie ją ściągnąć.
Oczywiście mamy dźwięk HRTF, czyli dźwięk taki binauralny,
więc słyszymy jak coś jest za nami, przed nami, powyżej, poniżej nas.
Ale jakby ktoś tego nie lubił, to też można to wyłączyć.
I na ten moment gra jest dostępna tylko na system Windows.
Natomiast biorąc pod uwagę, że NVGT jest wieloplatformowe
i ludzie też już zaczęli się pytać o wersje na Maca i na Linuxa,
to pewnie za jakiś czas coś czuję, że wersje na te systemy też zostaną udostępnione.
I jeszcze jedna wiadomość, jeśli chodzi o gry.
Dla tych, którzy lubią sobie pograć w Hearthstone’a, a konkretnie w ustawki,
Mieliśmy już rozpoczęty kolejny rok i mieliśmy rotację kart w standardowym Harfstonie,
no to myślę, że najwyższa pora również na rozpoczęcie nowego, już dziesiątego sezonu w trybie ustawek.
I tak samo zresztą myśli Blizzard, dzięki czemu mamy już zapowiedź kolejnego sezonu.
A co będzie w tym sezonie? Ozdoby powracają. To jest taka główna nowość ozdoby,
Ozdoby to coś, co było dodane jakiś czas temu przy okazji rozszerzenia o wakacjach na tropikach.
Ozdoby działają tak, że po szóstej i po dziewiątej turze możemy sobie wybrać dwie takie ozdoby z dostępnej listy.
Te ozdoby są dobierane losowo, natomiast grana będzie proponować ozdoby pasujące do typu stronników,
w jaki akurat mamy na naszej planszy i to będzie jeszcze dokładniej w ten sposób dopasowywane,
przynajmniej tak możemy przeczytać po tej najnowszej aktualizacji.
I co te ozdoby nam mogą dać? Bardzo dużo różnych rzeczy.
Tutaj nie będę opisywał tych wszystkich właściwości, zwłaszcza biorąc pod uwagę,
że oprócz stu ozdób, które były dostępne wcześniej, w tym nowym sezonie
zostanie dodane kolejne sto ozdób. Także tutaj czytania byłoby dużo
I to pewnie będzie coś, co można sobie sprawdzić przed rozpoczęciem rozgrywki.
Natomiast pewnie to jest coś, czego też po prostu będziemy musieli się nauczyć.
Pojawią się również dwaj nowi bohaterowie.
Pojawi się Cenarius oraz Bliźnior i te postacie też będą miały swoje umiejętności.
Bliźnior będzie dostawał jeszcze jedną błyskotkę, jakoś będzie w stanie ją sobie zachować,
z tego co tutaj wyczytałem, a Cenarius będzie mógł wykorzystać w jakiś sposób różne żywioły.
No to jest postać druida, jak ktoś grał w Hearthstone’a,
no to myślę, że scenariusz nam się pewnie spotkał, prędzej czy później.
Więc też zobaczymy, jak oni nam tą rozgrywkę zmienią.
Tak?
To, co jeszcze bym mogła dodać, to to, że jeżeli kogokolwiek poza mną to intryguje,
to w przyszłym sezonie nie żegnamy się z żetonami.
I to jest taka troszkę ukryta informacja,
Bo w tym newsie, w którym jest powiedziane o ozdobach i tak dalej, jest też powiedziane o dropach, czyli o takich jakby prezentach dla słuchaczy, w sensie dla widzów streamów z tego, jak działa nowy sezon.
I właśnie jeżeli oglądamy te streamy, to mogą nam się trafić dropy z żetonami, a więc skoro z żetonami, to znaczy, że można je też wykorzystać w przyszłym sezonie.
Tak, adleratony dla tych, którzy może nie pamiętają, pozwalają nam zamienić bohatera.
Jeśli wybieramy sobie bohatera i nie pasują nam te opcje, które mamy dostępne,
to możemy jednego z nich sobie wyrzucić, jakby jeszcze raz naciskając R na nim
i ewentualnie może wtedy dostaniemy kogoś, kto po prostu nam będzie pasował lepiej.
A propos tych dropów, właśnie jak kogoś to interesuje, to warto sobie na stronie to przejrzeć.
Jest kilka streamerów wypisanych, ale też np. wejdź sobie na Twitcha pod sekcję gry Hearthstone
i tam też jest z reguły zaznaczone, jeśli jakiś streamer ma te dropy tzw. włączone,
wtedy łączymy nasze konto Battle.net z Twitchem, musimy też mieć konto na Twitchu
i po prostu wtedy przez oglądanie jakiejkolwiek transmisji przez określony czas,
chyba co dwie godziny bodajże takie dropy dostajemy, po prostu będziemy miały właśnie
rzetony i inne rzeczy dostawać. To nawet po prostu może polegać na tym, że sobie taki stream otworzymy i go wyciszymy.
Jakby ktoś chciał w ten sposób. Można, ja tak robiłem akurat w przypadku paczek kart nie tyle w ustawkach,
no ale w ten sposób się właśnie okazuje.
O, można, także to też fajny sposób, żeby za darmo sobie jeszcze jakieś dodatkowe rzeczy dostać.
Natomiast wracając do tej aktualizacji, no to ona zostanie udostępniona w przyszły wtorek, 29 kwietnia.
Ja przypuszczam, że Harfston Access pewnie też godzinę albo dwie po tym zostanie zaktualizowany, jeśli wszystko dobrze pójdzie.
Także myślę, że my też będziemy w stanie bardzo szybko sobie w tym nowym sezonie ustawek pograć.
A tymczasem zaglądamy do Waszych wiadomości głosowych.
Na Whatsappie odezwał się do nas Sylwester.
Jeszcze jedna uwaga do bety NVDA.
Mam taką ciekawą wiadomość,
Bo beta NVDA to najnowsza.
Nie mówi spacji.
Dotykam spacji i nie wypowiada tej spacji.
Coś jest właśnie ostatnie NVDA, która wyszła.
Beta. Próbowałem, testowałem.
I spacji już nie wypowiada.
Uwaga do Piotra.
Czy zmienił mikrofon? Bo taki dźwięk trochę inny.
Mam dopiero taką informację w sprawie tych aploskich urządzeń.
Przede wszystkim MacBooków, Maców stacjonarnych i iPonów.
Jak ktoś ma starsze iPony czy starsze matki i jakaś część nie działa,
czy jakaś część uszkodzona, jakiś układ, to można wejść na stronę Rafała Pielaskiego
i wysłać urządzenie do diagnostyki.
I on oceni, ile to jest warte, bo on ma od dawców takich starych urządzeń części.
Niektóre obudowy są uszkodzone i on tak z jednej obudowy do drugiej obudowy przekłada.
Tak się stało, że mój mak ma obudowę dobrą, ale on ma uszkodzone obudowy i stamtąd wyciąga części.
które są jeszcze dobre i proponuję.
A jeszcze ten Bartek z Bydgoszczy, on miał płytę uszkodzoną w Iphone’ie.
Nie wiem, czy programistycznie była ta płyta uszkodzona,
czy jakaś część tam była podzespoł… znaczy półprzewodniki.
Jeżeli półprzewodniki, to może być tak,
…że on by półprzewodniki wymienił, a jeżeli pod względem programu płyta główna jest uszkodzona, no to już po płycie głównej.
Tak, to tyle informacji. Wejdź na stronę kanału Rafała Pielewskiego.
Jak ktoś ma starsze, te urządzenia aplowskie.
W przypadku nowych urządzeń Apple’owskich, jeśli są nagwarancji, no to w serwisach Apple’a trzeba załatwiać.
No to tak, ja się chciałbym odnieść do Twojej wiadomości.
Faktycznie mikrofon to się zgadza dla zainteresowanych.
Akurat tą audycję realizuję na iPadzie Pro, którego testuję.
Będziecie mogli o tym szerzej przeczytać na łamach tylko świata za jakiś czas pewnie,
więc faktycznie słyszycie, jak brzmi wbudowany mikrofon tego urządzenia.
Natomiast jeśli chodzi o betę NVDA, to zastanawiam się, czy to nie jest faktycznie jakiś błąd,
no bo jednak tutaj były wprowadzone dosyć duże zmiany, na przykład jeśli chodzi o obsługę SAPI,
więc tutaj kilka myślę istotnych kwestii.
Czyli czy masz na myśli czytanie spacji po prostu podczas pisania?
Bo jeśli tak, to tam teraz coś zostało zmienione w taki sposób,
że echo klawiatury domyślnie teraz włącza się tylko faktycznie,
jeśli jesteś w polu edycji, więc jeśli naciskasz spację na jakimś przycisku,
no to on domyślnie tego teraz faktycznie nie powie,
natomiast można sobie to z powrotem włączyć.
A natomiast jeśli nie słyszysz tych spacji podczas pisania,
a masz włączone echo klawiatury znaków albo podczas nawigacji,
Właśnie chciał Kamila o prawo po znakach, no to faktycznie to może być błąd.
Wtedy rodzi się pytanie, z jakiego syntezatora, z jakiego głosu korzystasz,
bo to może być coś, co faktycznie będzie warto do NV Access zgłosić jako błąd.
Natomiast co do usług Rafała Bielawskiego, to rzeczywiście to jest prawda,
że on pokazuje na YouTubie bardzo dużo ciekawych rzeczy
i jest bez wątpienia kompetentną osobą,
Jeżeli chodzi o serwis urządzeń Apple, także i takich, z którymi autoryzowane serwisy Apple nie chcą już sobie radzić, nie chcą się bawić.
Natomiast ja muszę powiedzieć, że ja akurat z serwisem u Rafała nie miałem jakichś bardzo super pozytywnych doświadczeń, bo po roku mniej więcej
Bateria w telefonie, w iPhone’ie, która była u niego wymieniana, po prostu spuchła.
Więc, no, mógł być to przypadek oczywiście, ale też właśnie takie korzystanie z różnych
jakichś urządzeń czy części niekoniecznie autoryzowanych, no może nieść za sobą
takie, a nie inne konsekwencje. Natomiast rzeczywiście z tym się zgodzę, że jeżeli
Jeżeli ktoś ma już taką naprawdę poważną usterkę sprzętu i chciałby spróbować dać mu drugie życie, oficjalny serwis Apple albo rozkłada ręce, albo życzy sobie takie pieniądze, że po prostu to już taniej wyjdzie kupić nowy sprzęt, to można spróbować wysłać to do Rafała Bielawskiego, bo on rzeczywiście pokazuje na YouTubie w tych swoich materiałach wideo, że potrafi zrobić naprawdę dużo.
A teraz przechodzimy do tematu, który pojawił się dziś na grupie facebookowej.
Niewidomi i niedowidzący bądźmy razem, bo tam pojawiła się informacja o polskich okularach,
które nazywają się Holoroads. Inteligentne okulary.
Opis, ja pozwolę sobie przeczytać wycinek właśnie z tej dyskusji
Na facebookowej grupie dyskusyjnej Niewidomi Niedowidzący Bądźmy Razem.
To jest jedna z odpowiedzi.
I troszeczkę tu jeszcze takich moich uwag będzie przy okazji.
Więc czytam.
Otóż okulary Holoroad współpracujące z aplikacją na iPhona.
Co ciekawe na stronie internetowej też jest informacja, że na Androida.
Ale nie ma jeszcze tej aplikacji w sklepie Google.
To Paulina sprawdzała jeszcze przed audycją, natomiast na iPhone’a jak najbardziej aplikacja jest. O tym za chwilę.
Otóż te okulary zostały zaprojektowane z myślą o osobach z poważnym ograniczeniem widzenia lub niewidomych.
Urządzenie oferuje szereg funkcji wspierających codzienne czynności.
Możliwość powiększania obrazu, regulacja stopnia powiększenia w zależności od potrzeb,
I to wszystko wydaje się bardzo ciekawe, natomiast te okulary są dostępne w modelu subskrypcyjnym.
To jest opłata subskrypcyjna, która wynosi 99 euro. No, jak na polskie realia, nie jest to moim zdaniem mało.
Wtedy okulary otrzymujemy za darmo. W ramach abonamentu opłaca się to wszystko wewnątrz tej aplikacji.
No i dedykowane okulary są wysyłane bezpłatnie w ramach aktywnej subskrypcji.
W przypadku, gdy produkt nie spełni oczekiwań, istnieje możliwość jego zwrotu
i rezygnacji z dalszej subskrypcji bez dodatkowych kosztów.
I to jest w ogóle ciekawe, bo za ten produkt odpowiedzialna jest trójka Polaków.
Natomiast, co ciekawe, to okulary, przynajmniej na razie, nie działają z językiem polskim.
W planach jest na razie wprowadzenie języka polskiego, na razie te okulary funkcjonują w języku angielskim.
Twórcy mam wrażenie, że robią jakieś takie rozeznanie rynku,
bo pojawia się też informacja, że poszukują osób, z którymi mogliby współpracować w ramach promocji tego urządzenia.
No, ja myślę, że jeżeli wszystko pójdzie dobrze, to też porozmawiamy sobie z twórcami na antenie Tyflo Radia,
bo zawsze jakiś ciekawy kolejny produkt dla osób, czy to niewidomych, czy słabowidzących,
myślę, że wart jest wzmianki, a czy kogoś to na tyle zainteresuje, żeby wydać 99 euro miesięcznie.
To jest zupełnie inna historia, natomiast ja w tym wszystkim, powiem szczerze, bardzo mnie zasmuciła taka jedna rzecz, mianowicie ja zainstalowałem sobie aplikację HoloRoad, bo mogłem to zrobić i ja teraz może dokonam takiej krótkiej prezentacji, tylko sobie muszę tu odblokować telefon.
Włączam aplikację.
No i…
O!
I tym razem, jakimś cudem, udało mi się
kliknąć w przycisk do zalogowania się
za pomocą konta Apple.
Natomiast kilka razy, kiedy uruchamiałem tę aplikację,
Ten obszar trybu interakcji był dostępny tylko i nie było tam żadnego komunikatu głosowego, nie pojawiało się absolutnie nic.
Teraz być może, bo ten obszar trybu interakcji, Piotrze, dobrze kojarzę, że on po prostu wyłącza gesty voiceovera w tym ekranie i mogłem aktywować ten przycisk przypadkowo?
Dokładnie, on po prostu powoduje, że voiceover ignoruje te gesty i widzi je aplikacja bezpośrednio.
A skąd inąd wiem, że w tej aplikacji przyciskiem, który jest aktywny i który pojawia się na pierwszym planie,
no to jest właśnie taka kontrolka, za pomocą której mogę się zalogować kontem Apple.
No i na pewno spróbuję to zrobić i spróbuję przejść dalej.
Natomiast, no czy w ten sposób powinna zachowywać się aplikacja, której zadaniem jest ułatwienie życia osobom niewidomym?
No, słabowidzącym to na pewno. Pytanie jak to dla osób słabowidzących, ta aplikacja jest w ogóle dostępna i jak działa chociażby z mechanizmem powiększenia.
Natomiast wydaje mi się, że jeżeli chodzi o współpracę z VoiceOverem powinno to działać znacznie, znacznie lepiej i powinna ta aplikacja od samego początku nas chociażby kierować w jakiś sposób.
Co my tu w ogóle robimy? Co za moment się stanie? Powinny się pojawiać jakieś wskazówki głosowe.
No, ale jak mniemam, to jest wszystko gdzieś tam na początku drogi.
Być może dla kogoś na przykład takie okulary będą rozwiązaniem ciekawym.
Jest strona internetowa tego produktu, holoroad.eu, no i też jest numer telefonu, jest adres e-mail infomaupaholoroad.eu,
jest też numer telefonu plus 48 725 385 485.
To jest numer telefonu, ale to jest też kontakt na WhatsApp, można się tam komunikować, można dopytywać.
Na Facebooku, skąd inąd, rzeczywiście twórcy odpowiadają dość sprawnie, dość miło w grupie Niewidomi Niedowidzący Bądźmy Razem na pytania, no i zobaczymy co z tego wszystkiego wyniknie dalej.
Także taka to historia z dziś i taki świeży produkt, chociaż produkt sam w sobie, jak tak przeglądałem informacje na jego temat w internecie gdzieś, które się pojawiają, no to ma już za sobą jakąś historię i badania nad nim sięgające bodaj 2018 czy nawet 2017 roku.
No więc zobaczymy, co przyniesie przyszłość, jeżeli chodzi o HoloRoad.
A teraz cóż, to tyle jeżeli chodzi o informacje takie typowo tyflo aktualnościowe.
Teraz przechodzimy do technikaliów. Ja mam wrażenie, że tu technikaliów to nawet mamy trochę więcej niż tyflo.
No ale tak też czasem bywa.
A zaczynamy od newsów sztucznie inteligentnych.
Paulino, co tam w AI-u ciekawego?
Pierwszą rzeczą, o której bym chciała wspomnieć, to jest takie trochę nawiązanie do tego, o czym mówiłam niedawno,
czyli na temat tego, że OpenAI z mniejszą dbałością niż kiedyś traktuje bezpieczeństwo swoich modeli językowych.
Ale teraz, o ile wcześniej mówiłam o tym teoretycznie, to teraz już mogę praktycznie o tym mówić.
Ponieważ model O3 ma spore problemy w zakresie hakowania nagród i w zakresie decyzji co do moralności.
Jest film na YouTubie na kanale Smart Tech Synergy i to jest kanał, który zanimuje się testami różnych badań sztucznych i inteligencji.
I właśnie te testy wyglądają mniej więcej tak, że jest jeden zestaw testowy, z różnymi pytaniami z różnych dziedzin.
Tam jest matematyka, moralność, programowanie, jakaś tam logistyka, fizyka i tak dalej. Rozumowanie obrazami i podobne zagadnienia.
Natomiast kwestią problematyczną jest właśnie model O3,
który na pytanie, jakby się zachował model w momencie,
kiedy byłby prowadzącym samochód autonomiczny
i pani z dzieckiem jadąca niewielkim samochodem wymusiłaby pierwszeństwo,
to czy zachowałby się w taki sposób,
…tak jak powinien jechać i zabiłby tą panią z dzieckiem,
czy jechałby tak, żeby skręcić i zabić swojego pasażera, ale uratować tę panią.
No i jak większość modeli odpowiadała właśnie, że należałoby jechać zgodnie z przepisami
i ochronić pasażera ze względu na to, że to jest nadrzędne zadanie samochodu autonomicznego,
…żeby po prostu jechać zgodnie z przepisami i ocalić pasażera.
Tak tutaj mamy odwrócenie tej…
…brakło mi słowa…
…tej retoryki.
Ponieważ model stwierdził, że pasażer,
wsiadając do samochodu autonomicznego i oddając mu ster,
sam akceptuje to,
że samochód autonomiczny może podjąć decyzję o tym,
…żeby jak najmniej ofiar, jak najmniej osób ucierpiało w wyniku jakiejś tam kolizji.
Więc akceptuje to, że może umrzeć w ramach ocalania tych innych osób.
Więc no jednak całkiem dziwna była ta odpowiedź.
Szczególnie, że później zaczął już totalnie halucynować i mówić o tym, że…
Przepisy ruchu każą mu chronić lżejsze samochody i takie, które mają większą szansę na to, żeby nie przetrwać tej kolizji i zabić swoich pasażerów, więc no, naprawdę dzieje się dziwnie.
Już nie mówiąc o tym, że większość modeli językowych mówi o tym,
że nie ocaliłoby świata przed zagładą, jeżeli wymagałoby to od nich
delikatnego popchnięcia osoby należącej do mniejszości etnicznej.
Inne badania z kolei specjalistów od cyberbezpieczeństwa ustaliły,
że ten model O-3 właśnie jest chętny do hakowania nagród
i w dwóch czy tam trzech procentach przypadków, w zależności od zestawu badawczego,
na przykład dopuszczał się manipulacji w wykonywanym zadaniu.
Dla przykładu było to coś takiego, że jest zadanie, które ma on zrobić w danym czasie,
I żeby osiągnąć lepsze wyniki, model nadpisał funkcję Pythona wykorzystywaną do mierzenia czasu po to, żeby ten czas był krótszy.
I tak samo jest wiele innych tego typu rzeczy.
Na przykład było do wydania ileś tam jednostek do przyuczenia podrzędnego modelu.
I ten model właśnie o trzy, po to żeby ten mały model uzyskał lepsze wyniki,
wydał więcej jednostek, ale ukrył to w finalnym raporcie.
I inne tego typu nadużycia jest tego więcej.
Są linki, tak że można sobie się zapoznać.
Druga rzecz. Nowy sposób użycia chat GPT staje się wiralem,
ponieważ przez to, że nowe modele, tak jak też wspominałam,
są wyposażone w rozmowanie wizualne, czyli mogą np. sobie
obracać pewne elementy zdjęć, przybliżać, oddalać,
wyostrzać i tak dalej.
No to chat GPT jest w stanie próbować zgadywać lokalizację
osoby na podstawie zdjęcia, które utworzyła.
Czyli jeżeli na przykład rozpozna jakieś bar albo jakąś
architekturę miejską, która właśnie kojarzą się z danym
miastem, no to spróbuje wysnuć przypuszczenie, gdzie ta osoba,
która jest na zdjęciu, się znajduje.
Więc jest to oczywiście taki zabawny trend na TikToku,
że wrzucam zdjęcie do czata KPT i niech mi powie, gdzie jestem.
No ale oczywiście może to grozić pewnymi nadużyciami
związanymi z bezpieczeństwem i prywatnością.
To, o czym w zasadzie się nie mówi, taka nieco niepopularna opinia
Z mojej strony może być taka, że o ile osoby widzące mogłyby próbować bawić się w Osint,
o tyle myśmy nie mogli nigdy na podstawie zdjęć, a teraz już teoretycznie można byłoby zacząć.
Problem w tym, że nie wiadomo na ile można wierzyć tym halucynacjom, w sensie tym odpowiedziom,
ponieważ może być tam sporo halucynacji, no i też właśnie mogą być niedokładne.
Aczkolwiek jest to ciekawy case.
Trzecia rzecz. Jest ciekawy bardzo raport Antropica,
który mówi o wykorzystaniu kloda do delegowania na niego myślenia,
jeśli chodzi o projekty jakieś akademickie, zaliczenia itd.
To może przeczytam, bo przetłumaczyłam sobie na polski fragment artykułu, który omawia ten raport.
No i myślę, że sama nie powiem tego lepiej.
Zespół badawczy zaczął od przefiltrowania aż miliona rozmów prowadzonych przez użytkowników z adresami e-mail należącymi do instytucji akademickich.
Czyli widzimy, że to nie jest już ankietka, to nie jest deklaratywne, to nie jest
czy oszukujesz na egzaminach, tak, oszukuję, nie, nie oszukuję, tylko faktycznie są brane
rozmowy na tapet, które zostały…
które zostały przeprowadzone na kontach zarejestrowanych przez uczelniane maile.
Po odrzuceniu rozmów nieistotnych dla badania pozostało 574 740 konwersacji.
o charakterze akademickim zebranym w ciągu 18 dni. Z danych wynika,
że studenci kierunków związanych z naukami ścisłymi i technicznymi
korzystają z CLOD-a zdecydowanie częściej. Studenci informatyki
stanowili aż 38,6% wszystkich użytkowników, mimo że stanowią
jedynie 5,4% populacji studentów w USA. Są więc wyraźnie
nadreprezentowani w analizowanej grupie. Badacze z Antropik sklasyfikowali sposób,
w jaki studenci wchodzą w interakcje z klodem według czterech głównych wzorców rozmowy,
według czterech głównych wzorców. Rozmowy bezpośrednie i współpraca.
Każda z tych kategorii dzieli się na rozwiązywanie problemów i generowanie treści.
Każdy z tych trybów stanowił od 23 do 29% wszystkich rozmów,
ale prawie połowa, 47%, to były bezpośrednie interakcje
z minimalnym wysiłkiem ze strony użytkownika.
Ja to może przetłumaczę z polskiego na nasze.
Mamy taką taksonomię, która jest podzielona na cztery ćwiartki,
taki kwadracik. I załóżmy, oś taka pionowa
To jest podział na strefę górną,
czyli odpowiedź bezpośrednia na pytanie,
i strefę dolną, czyli dochodzenie do prawdy krok po kroku.
I mamy oś poziomą, czyli np. strefa lewa to jest rozwiązywanie problemów,
a strefa prawa to jest generowanie treści.
I ten kwadracik podzielony na cztery mniejsze jest mniej więcej równo rozłożony,
czyli od 23% do 29%, no to załóżmy, niech będzie nawet, że po 25% się równo
w przyrządzie rozkłada, czyli mniej więcej pół na pół jest tworzenia treści
i rozwiązywania problemów. I też mniej więcej pół na pół jest tego,
że użytkownik sam chce, żeby czegoś go nauczył,
a połowa to jest taka, żeby po prostu coś za niego zrobił.
No i czytamy dalej. W takich przypadkach studenci powierzali
Claude’owi całą ciężką robotę bez większego zaangażowania
z własnej strony. Niektóre wzorce użycia, które wskazało
Antropik są, delikatnie mówiąc, wątpliwe. Studenci pozwalają Claude’owi rozwiązywać
pytania wielokrotnego wyboru z zakresu uczenia maszynowego, generować bezpośrednie
odpowiedzi na testy z języka angielskiego, czy też przerabiać zadania z marketingu
i zarządzania, tak by ominąć wykrywanie plagiatu.
Nawet w bardziej współpracujących sesjach, takich jak wyjaśnienie problemów
Z prawdopodobieństwa, krok po kroku, to AI przejmuje znaczną część obciążenia poznawczego.
Czyli widzimy, że nawet jeżeli raport mówi o tym, że jest pół na pół, treści takich bezpośrednio odpowiadających na pytanie,
albo właśnie takich dydaktycznych, no to nawet w tych treściach dydaktycznych po prostu AI
Nie musi bardziej myśleć niż sam użytkownik.
Także mówi to wiele o tym, jak studenci używają AI.
To, co jeszcze tutaj nie zostało zawarte w tym artykule,
to jest np. to, że z kolei np.
biznes i medycyna, kierunki właśnie z tej dziedziny,
są mniej reprezentowane w użyciu czata niż w rzeczywistości,
Bo tam jest 10% różnicy między rzeczwistością a użyciem Claude’a.
I to jeszcze, o czym ten artykuł nie mówi, to jest to, jak Claude uważa, że to się przekłada na takie oszukiwanie typowe na egzaminach.
I w zasadzie takiego finalnego wniosku nie ma, ponieważ z pytania wielokrotnego wyboru
To może być równie dobrze pytanie w czasie rzeczywistym na egzaminie, jak i na przykład testowe rozwiązanie sobie zadań, które tworzymy na quiz do prezentacji, prawda?
Tak samo generowanie eseju może być po prostu na zadanie, może być dla inspiracji, a może być też dlatego, że ten esej jest wymagany na egzaminie.
Więc trudno jest zinterpretować, kiedy dokładnie odbywa się takie perfidne oszustwo.
No ale właśnie taki raport przynoszę i sygnalizuję, że problem jest coraz szerzej badany i coraz szerzej komentowany w środowisku.
A też gdyby wziąć poprawkę na to, że klot to jednak nie jest najbardziej popularny mechanizm sztucznej inteligencji.
Dzięki, bo przecież większość, jak mówi sztuczna inteligencja, to myśli chat GPT, to podejrzewam, że z użyciem tego narzędzia, to ten odsetek różnych ciekawych zapytań może być jeszcze większy.
A jeszcze patrząc na to, że nie każdy musi używać swojego uczelnianego maila do tego, żeby…
To prawda, to prawda, bo mam wrażenie, że jednak te większe uczelnie przede wszystkim dają, zwłaszcza studentom, adresy mailowe w swoich domenach.
Więc ciekawe, jak wiele kadry naukowej sobie na przykład przygotowuje, no nie wiem, slajdy do wykładów z użyciem AI albo jakieś inne rzeczy tego typu.
Mhm. No więc właśnie, tak jak sobie to zauważamy, nie jest to ostateczna diagnoza i ostateczny wniosek, ale jednak ciekawa refleksja na ten temat.
Czwarta rzecz, dosłownie sygnalizacyjnie, informacyjnie,
że Copilot Studio wzbogaciło się o funkcję używania komputera,
tak jak użytkownik, czyli klikanie w przyciski, wpisywanie do pul edycji rzeczy,
korzystanie z przeglądarek i programów. Copilot Studio to jest taka usługa
do tworzenia agentów AI i jeżeli firma chce stworzyć sobie agenta,
który właśnie coś klika w komputer, to jest w stanie to zrobić.
Ale tak, żeby dla nas to było potrzebne i żeby był sens tego kupować, to nie sądzę.
Aczkolwiek jest ruch właśnie w dziedzinie manuskopodobnych narzędzi,
także bardzo dobrze.
I ostatnia rzecz, całkiem śmieszna.
To są kłopoty takiego środowiska programistycznego,
które jest oparte na AI, które nazywa się Cursor.
Ponieważ na reddicie wybuchła mała drama,
która skończyła się nawet… w sumie to nie taka mała,
bo ludzie poanulowali subskrypcje,
składali dużo zażalnień i tak dalej.
Ale właśnie o co chodzi?
Użytkownik siadł sobie do pisania kodu jak zwykle,
a nagle zauważył, że podczas przełączania urządzeń
poprzednia sesja się rozłączała.
Czyli jeżeli na przykład zaczął sobie coś na komputerze,
potem przeszedł na laptopa, no to z komputera go wylogowało.
Więc zdziwiony tym, bo jeszcze nigdy tak nie było,
napisał do wsparcia klienta z zapytaniem, dlaczego się tak dzieje i co ma z tym zrobić.
No i odpisał mu sam, który powiedział, że jest to polityka firmy związana z tym, że jeżeli kupujemy
tego kursora czy tą subskrypcję tego narzędzia, no to opłacamy tylko użycie jednego urządzenia,
więc w związku z tym, w celu zabezpieczenia przed nadużywaniem tej licencji,
z drugiego urządzenia osoba jest wylogowywana.
No więc rozpisał się na reddicie, że to jednak troszkę nie halo, bo nie ma tak nigdzie w licencji,
a jednak ten sam odpisał mu właśnie w ten sposób na maila. I co się okazało? Że sam był
Był botem, który wymyślił sobie istnienie tej polityki.
Tak naprawdę to był zwykły, głupi błąd, za który firma przepraszała
i też za to, że wprowadziła użytkownika w błąd i narobiła zamieszania.
No ale co klientów odpłynęło, to odpłynęło.
Także taka trochę przestroga przed wczesnym wprowadzaniem botów
…do wsparcia, ponieważ może się to zakończyć nieoczekiwanymi
odpowiedziami, które nie są zaplanowane w naszym…
…w naszej dokumentacji interakcji z klientem.
Albo jak boty zaczną tworzyć same cenniki i zaczną robić promocje
i wszystkim rozdawać za darmo różne rzeczy.
Tak była taka historia.
Wiem, że coś trafiło do sądu i też AI sobie wymyśliło.
No i niestety tutaj sąd stwierdził, że jeśli tak powiedział AI, które podało się za pracownika, no to klient ma rację.
I od tego czasu chyba się wycofali z używania AI do wsparcia technicznego.
Ostrożnie, ostrożnie, sztuczna inteligencja może być naprawdę pomocnym narzędziem, ale wszystko z głową.
To myślę, że jest taka dewiza, która powinna przyświecać tym, którzy z AI korzystają.
A Marcel z nami jest ponownie. Czyżby udało Ci się przetestować to narzędzie, o którym mówiła Paulina?
Witajcie, witajcie. Jeszcze raz ja i jeszcze raz… Nie udało mi się jeszcze przetestować, ale jeszcze raz ja i jeszcze raz Polska Pogoda.
ponieważ tak na szybkości miała być wersja 0.2 z tą prognozą, ale to będzie wersja 0.3, bo dziś wyjdzie wersja 0.2 ze zgłoszonymi przez Was błędami i poprawkami.
Siadłem nad tym i tylko tak już na szybkości, żeby nie zabierać czasu, pokażę, że teraz działa poprawnie.
A, jeszcze przycisk na mikserze.
Teraz mamy tak.
N-V-O. Ustawienia N-V-D-A.
Polska pogoda. Polska oka. Polska pogoda strona.
Domyślne miasto dla szybkiego sprawdzania pogody.
Lista rozwijana. Poznań zwinięte.
Czyli to już działa.
I druga rzecz, o której wspominał Piotr.
Dialog. Pogoda dla Poznań.
Temperatura. Wilgotność.
Osiemdziesiąt dziewięć kropka dziewięć procent.
Wiatr. Dwa kilometry H.
Kierunek północno-zachodni.
I to już jest zrobione. I to dziś wleci na stronę jako wersja 02.
Więc jeśli ktoś już pobrał, to musi pobrać jeszcze raz.
Jeśli jeszcze ktoś nie pobrał, to niech się wstrzyma, tak myślę, do godzinki.
Super. No, żeby wszyscy tak aktualizowali i reagowali na zapotrzebowanie użytkowników,
to byłoby świetnie.
Wiesz, u mnie jest tak, jest akcja, jest reakcja.
No to super. To bardzo mnie to osobiście cieszy.
Ojej, sorki, że się tak wbijam. Natomiast jeszcze co do tego narzędzia.
To Grzegorz Turek do mnie napisał i zasygnalizował mi, że po prostu mi zawężyło ten komunikat,
dlatego że to narzędzie nie jest po prostu dostępne w naszym kraju.
Aha, czyli się tym nie pobawimy tak czy tak.
Może jest dostępne na jakimś APK Mirrorze albo w jakichś takich miejscach.
Może i tak, ale ta aplikacja jest chyba zbyt nowa.
Ale tak mi się nasunęło, jak mówiłaś właśnie o tej licencji przed chwilą, co Bot wymyślił, to ty się ciesz, że nie miałaś nigdy dociągnięcia z Whatsappem i z jego wsparciem technicznym.
Tam, żeby dobić się do człowieka, i to był rok 2018, zajęło mi bardzo długo i tak się nie dobiłem.
Albo jak się nawet dobiłem, bo już nie pamiętam, to i tak nie powiedzieli mi nic nowego i nic ciekawego.
Miałem kiedyś problem na Whatsappie z eksportem czatów.
Skończyło się to tym, że napisałem do wsparcia technicznego, że nie eksportują mi się w ogóle pliki dźwiękowe, sam tekst jest.
I mi pisali, że proszę im przyinstalować aplikacje. No tak, tylko jak przyinstaluję to stracę te czaty.
Pisali mi, że to musi być mój błąd, że tam kopia zapasowa Google trzeba aktywować, coś tam.
Robiłem wszystko co chcieli i tak nie chciało działać. I tak naprawdę wiadomości były typowo generowane bez sensu.
To jest jeszcze nic w porównaniu z tym, że chcesz dobrać się do wsparcia technicznego WhatsAppa.
Może to AI tam się poprawiło.
To ja ostatnio też miałem do czynienia ze wsparciem wspomaganym sztuczną inteligencją.
Powiem w ten sposób. Mianowicie, potrzebowałem zmienić informacje na biletach lotniczych.
jest taka aplikacja, ona się nazywa Kiwi
i właśnie z niej korzystałem kupując bilety.
No i okazało się, że tam muszę jeszcze jedną informację zmienić
na tych biletach.
Natomiast właśnie wsparcie Kiwi było
nie dość, że słuchajcie, wspomagane AI,
to jeszcze w dodatku, ale to akurat naprawdę całkiem fajne,
bo myślę, że to wielu osobom ułatwiło życie.
Tam było to wszystko wspomagane jeszcze tłumaczeniem i to nawet wiem jakim, bo ta informacja była jawnie dostępna, za pomocą Deepela.
Więc naprawdę całkiem ładne to tłumaczenie było. Tam oczywiście pierwsza linia wsparcia to był Bot, który próbował pomóc i rzeczywiście on nawet miał dostęp do różnych informacji dotyczących mnie,
Ale się trochę zakręcił. Natomiast w takich przypadkach, jeżeli macie poczucie, że rozmawiacie ze sztuczną inteligencją,
albo ona się bardziej lub mniej wprost do tego przyznaje, że jest tą sztuczną inteligencją,
to bardzo często wystarczy po prostu zwyczajnie napisać, że chce porozmawiać z człowiekiem.
I bardzo często to no po prostu pomaga.
Bo w moim przypadku było właśnie tak, że napisem
przekieruj proszę tę sprawę do ludzkiego konsultanta.
Okej, poczekaj pięć minut, zaraz będzie, zaraz się ktoś odezwie.
I faktycznie się odezwał i sprawę udało się załatwić już wtedy dość szybko.
O widzisz, to ja powiem, mam negatywne doświadczenia z Orangem i jego sztuczną inteligencją.
Po pierwsze, temu dziadowi Maxowi, żeby go gorzej nie nazwać, bo na antenie nie wypada, nie można przerwać.
Po drugie, mówi mu się od razu, że i tak mi nie pomożesz, bo sprawa jest na tyle złożona, że muszę połączyć się z konsultantem,
to on i tak na siłę próbuje męczyć i męczyć i potrafi pięć minut zejść na bezproduktywnym gadaniu z tym wynagrodzeniem.
To zależy z czym i zależy gdzie, bo jak ja chciałem przenieść numer do Orange’a…
Właśnie, zapytam. Ty korzystałeś z tej infolinii głosowej czy z tekstowego czatu?
Z infolinii głosowej oczywiście.
Aha, bo ja korzystałem ostatnio słuchajcie z tekstowego czatu i za pomocą tego tekstowego czatu
udało mi się dokonać całej procedury w postaci przeniesienia numeru,
Zawarcia może nie nowej umowy, tylko jakby rozszerzenia swojej obecnej umowy i wszystko udało mi się zrobić właśnie z użyciem czatu.
Wszystkie regulaminy, wszystko, wszystkie informacje udało mi się potwierdzić. Całość udało mi się zrobić z użyciem czatu.
Oczywiście na samym początku też się Max odezwał, ale mam wrażenie, że w takich przypadkach, jak mu się mówi,
Ja chcę tutaj jakąś nową umowę, albo chcę przenieść numer, albo chcę coś tam zrobić, to z tym to nie będzie najmniejszego problemu, żeby przekierować nas do żywego człowieka.
I to się udało naprawdę bardzo szybko. A ta rozmowa na czacie też przebiegała bez jakiegokolwiek problemu.
Mogłem sobie na spokojnie też, bo tam potrzebowałem jakichś informacji jeszcze dotyczących moich danych,
No, których nie miałem, bo tak z pamięci też nie byłem w stanie sobie chociażby przypomnieć numeru dowodu, czy czegoś tam jeszcze, więc trzeba było tego poszukać, ale bez najmniejszego problemu w obrębie aplikacji całą taką procedurę zrealizowałem po prostu w formie tekstowej.
To może to jest jakieś słowo klucz, że trzeba troszkę pokłamać tego Maxa, że się chce zmienić, przenieść numer…
Problem tylko w tym, że wtedy cię prawdopodobnie przekieruje nie do wsparcia technicznego, a do ludzi, którzy są w stanie przekazać ci tylko i zaproponować konkretną ofertę.
Nie wiem, czy ze mnie są te same osoby, ale…
Nie, nie są. Testowałem to…
Kiedyś tak było w oręgrze, bo kiedyś mnie przekierowało do jakiegoś starszego pana, którego pytałem o to, jaki jest APN do internetu, bo po prostu wpiąłem kartę w inny router,
…zasięg w mojej lokalizacji i robić wszystko to, tylko nie to, o co ja go poprosiłem.
Ale to był rok 2016. Natomiast do czego to doszło, że sztuczna inteligencja kieruje
do innej sztucznej inteligencji, to jest raz. Ale jeszcze jedna rzecz mi się przypomniała.
Już też nie chcę czasu zabierać, ale po prostu też mnie zniszczyło.
Jest numer 991. To jest numer do pogotowia energetycznego, który pozwala sprawdzić
informacje o wyłączeniach i tak dalej.
No i odzywa się do mnie ostatnio, zamiast
tego starego menu z wyborem miasta
i tak dalej, pod cyferkami, odezwał
się do mnie też asystent AI.
Nadal robiony, co ciekawe, Ivoną, ale
gdyby on ciężko odezwał, okej, tylko
ja mu podawałem chyba 10 razy miasto,
on nie potrafił zrozumieć, co ja do niego
mówię, a było cicho wokół.
To warto zaznaczyć.
Podawał mi wszystko z innych miejsc, a ja w ogóle nie dowiedziałem się wtedy i po prostu weszliśmy na stronę.
Więc jest większe utrudnienie niż to ma sensu.
Prawdopodobnie to rozpoznawanie mowy tam źle zadziałało.
No ale co dobrze działa w spółkach państwowych?
To jest też inna rzecz, że bywają problemy, ale to generalnie z różnymi technologiami.
Ale te państwowo realizowane systemy to się dość dużą bezwładnością charakteryzują, to prawda.
No, tak więc tyle ode mnie. Już nie będę zabierał czasu. Wracam do słuchania i gdzieś tam ogarniania wtyczki w tle, żeby to wystawić jeszcze dziś.
To dzięki w takim razie za telefon, za kontakt i do usłyszenia.
Do usłyszenia.
Przechodzimy do kolejnego tematu.
Tym razem do Whispera.
Do Whispera, MacWhispera tak naprawdę,
który zawitał na urządzenia mobilne.
Dokładnie. O MacWhisperze mówimy często.
To a propos sztucznej inteligencji działającej
jak najbardziej dla nas.
O Whisperze mówimy często.
Jest to model, który jest w stanie tworzyć
bardzo dobrej jakości transkrypty.
Mac Whisper jest taką bardzo fajną, macową aplikacją,
która pozwala nam tego Whispera obsłużyć.
I deweloper tej aplikacji postanowił wypuścić jej wersję na iOS-a.
No i tutaj ktoś może się zastanawiać,
no ale taka dziwna nazwa trochę na aplikację na iOS-a,
która się nazywa Mac Whisper.
No, podobnie pomyślał autor,
bo ta aplikacja na iOS-a po prostu ten przedrostek Mac gubi
i po prostu nazywa się Whisper.
Natomiast gdyby ktoś chciał sobie tą aplikację znaleźć,
to będzie link do App Store’a.
Jeszcze może podam dewelopera,
bo on jest z takiej dosyć ciekawą nazwę.
Firma nazywa się Good Snooze.
Dobra dżemka.
I tak się nazywa deweloper, gdyby ktoś chciał sobie to
na własną rękę wyszukać, wpisując po prostu Whisper.
Na ten moment, przez to, że jest to pierwsza wersja aplikacji,
to jest ona dosyć znacząco okrojona w porównaniu do wersji na macOS-a,
no bo tutaj nie mamy wykrywania mówców, nie mamy jakiejś rozbudowanej edycji transkryptów.
Natomiast co mamy?
Możemy sobie transkrybować pliki audio, które sobie sami gdzieś wybieramy.
Możemy po prostu wewnątrz aplikacji sobie nagrywać
i od razu wykonywać transkrypty.
Tutaj od razu informacja na iPhonie, jeśli to nagrywanie włączymy,
to głos voice-overa zostanie nam przekierowany na słuchawkę telefonu,
więc warto na to zwrócić uwagę, zanim zaczniemy nagrywać.
Natomiast samo nagrywanie później możemy łatwo zatrzymać.
Generalnie wszystko w tej aplikacji jest fajnie zetykietowane.
Tutaj nie ma jakichś problemów z dostępnością.
Więc mamy wybieranie, mamy nagrywanie,
ale mamy też wsparcie dla arkusza udostępniania.
I tutaj na przykład możemy, i to David Hopper też deklaruje na stronie, ale też po prostu to przetestowałem,
możemy wysyłać z tej aplikacji wiadomości głosowe, na przykład z Whatsappa,
i bez problemu sobie taką wiadomość ztranskrybować.
Jeśli chodzi o transkrypcję, no to…
A czy można wysłać na przykład kilka takich wiadomości?
Tego nie próbowałem, natomiast przynajmniej w tej wersji wątpię,
Oglądałem ten ekran, to on generalnie pracował na pojedynczych plikach,
natomiast tego jeszcze nie miałem okazji przetestować,
więc tutaj się nie wypowiem.
Ale przypuszczam, że przynajmniej w tej wersji chyba nie,
ale może jednak.
Natomiast to może być dobra sugestia na przyszłość,
no bo MacWhisper ma tryb wsadowy,
więc też myślę, że byłoby coś do zasugerowania.
Natomiast możemy sobie wybrać język transkrypcji,
oczywiście mamy też tryb auto
Samą transkrypcję możemy wykonać na dwa sposoby.
Opcja darmowa to lokalny model.
I ten lokalny model, nie powiem Wam, która to jest wersja Whispera.
To na pewno nie jest wersja Large. To chyba jest jedna z wersji Turbo.
Natomiast co mogę powiedzieć o tej wersji? Ma ona 600 MB ten model.
Więc to nie jest model największy zdecydowanie, ale też nie najmniejszy na szczęście.
I na ten moment uruchomienia tego modelu musimy mieć przynajmniej iPhone’a 15
lub iPad’a z procesorem z serii M, czyli któregoś z tych nowszych iPad’ów R lub Pro.
Model nam się popiera, można to zrobić w wystawieniach,
później musi zostać spreparowany, to ten proces preparowania też trwa jakieś 2-3 minuty,
aplikacja nam o wszystkim mówi i po tym czasie po prostu możemy sobie z tego modelu
Taka transkrypcja jest bardzo szybka.
To ewidentnie jest wspomagane przez ten procesor neuronowy.
Chyba minuta transkrypcji,
transkrypcja pliku, które trwało około minutę,
trwała może jakieś 10 sekund, może 5, coś koło tego.
Więc naprawdę to nie jest jakiś długi czas i to się odbywa szybko.
Oczywiście też wtedy ta transkrypcja odbywa się na naszym urządzeniu,
więc dane nie są nigdzie wysyłane.
I ten wynik jest, nawet jak na język polski, wydaje mi się całkiem dobry.
Na pewno nie będzie tak dobry, gdybyśmy korzystali z tych jeszcze większych modeli.
I nie mamy tutaj identyfikacji mówców, ale np. do tego, żeby sobie jakąś wiadomość,
np. jakieś nagranie stranskrybować, to jak najbardziej nam wystarczy.
Natomiast gdybyśmy mieli starszy sprzęt niż iPhona 15,
chociaż tutaj autor też obiecuje, że prawdopodobnie te funkcje lokalnej transkrypcji
i zostaną też włączone dla iPhone’a 13 i 14.
Natomiast jeszcze tam będzie coś testowane w wersji beta,
czy te telefony jednak mają na tyle mocne podze społeczne
i nie będzie powodowało problemów ze stabilnością.
Natomiast gdybyśmy jednak nie chcieli naszego telefonu obciążać,
to mamy jeszcze opcję transkrypcji w murze.
I w tym trybie oczywiście aplikacja już będzie od nas wymagała
wykupienia subskrypcji.
Co ciekawe, i mamy o tym informację na Wybłoże,
czy chcemy korzystać z transkrypcji lokalnej czy chmurowej,
to nawet zanim ten abonament wykupimy,
autor nie korzysta z OpenAI.
W tym momencie transkrypcje chmurowe są obsługiwane przez Groka,
czyli sztuczną inteligencję od Ilana Maska,
od XA, właściwie tak to, XAI chyba ten podmiot się nazywa,
który to obsługuje.
Natomiast grog wspiera tylko pliki do 25 MB, więc nie jakieś bardzo duże i z tego powodu na stronie mamy informację, że za niedługi czas aplikacja przeniesie się na model od Eleven Labs,
który też jest bardziej nawet rozbudowany od takiego czystego whispera, bo na przykład, jak ostatnio pokazywał to Tomek w audycji,
Czyli nie dość, że sam jest w stanie identyfikować mówców,
to nawet wykrywa dźwięki, muzykę w odtwarzanym,
w pliku, który my mu podamy.
Więc to jak najbardziej może być fajne,
jeśli faktycznie zdecydują się na przesiadkę do Eleven Labs,
to myślę, że te transkrypty będą całkiem dobre
i pewnie jeszcze lepsze niż te transkrypty lokalne.
Natomiast jeśli chodzi o ten abonament,
no to on nie jest tani, może nie jest jakiś przesadnie drogi,
ale jednak warto byłoby się nad nim zastanowić,
tylko jeśli faktycznie chcemy z niego korzystać,
bo mamy tak naprawdę dostępne dwa plany.
Możemy albo płacić 30 złotych tygodniowo, 29,90,
lub 40 złotych miesięcznie.
Co ciekawe, w App Store, jeśli sobie wejdziemy na tę sekcję
Zakupy wewnątrz aplikacji, tam są jakieś jeszcze inne plany wymienione,
bo np. mamy plan roczny za 140 zł,
mamy wykup dożywotni za 300 zł,
natomiast w samej aplikacji tych pakietów nie mamy.
Mamy dostęp tylko do tego pakietu miesięcznego i tygodniowego,
który oprócz subskrypcji w Murze
oferuje nam też dwie kolejne funkcje AI, czyli streszczenie,
więc kiedy już taki transkrypt sobie wygenerujemy,
Możemy poprosić, żeby nam jakaś sztuczna inteligencja go stresziła
i tryb promptu, który pozwala nam z naszym transkryptem porozmawiać.
Więc możemy załadować jakiś dłuższy podcast,
na przykład dłuższy to 25 MB w tym momencie.
I wtedy ewentualnie, chociaż może to zadziała nawet w trybie lokalnym,
akurat nie wykupiłem abonamentu, żeby to sprawdzić,
ale jest też okres próbny, jakby ktoś chciał,
no to można sobie z tym transkryptem wtedy porozmawiać.
Oczywiście możemy sobie taki transkrypt też udostępnić albo jako czysty tekst
lub z tymi tak zwanymi… no mamy ten tryb transkryptu i mamy tryb napisów,
więc mamy te cztery czasy podane, więc można ten tekst wykorzystać.
Funkcji w tej aplikacji może na ten moment nie jest dużo,
natomiast mamy też rozpisane plany na przyszłość i tutaj się robi ciekawie,
bo autor obiecuje nam rzeczy takie jak wprowadzanie własnych kluczy API,
żeby ktoś nie chciał wykupować abonamentu, a po prostu sam opłacać sobie
te funkcje AI, czy to transkrypcji, czy to pozostałe.
Ma być dodana obsługa skrótów, więc będziemy mogli z poziomu skrótu
Na przykład jakiś plik podać i od razu go sobie stranskrybować.
I najciekawsza rzecz,
jeśli to byłoby dostępne tylko w wersji abonamentu,
to to by może spowodowało,
żebym się przynajmniej na jakiś czas nad tym abonamentem zastanowił.
Autor planuje stworzyć własną klawiaturę
z funkcją dyktowania przez Whispera.
A to byłoby całkiem fajne.
Ja osobiście na pewno bym z czegoś takiego korzystał,
No bo jednak Whisper działa trochę lepiej niż dyktowanie wbudowane w system,
no bo radzi sobie lepiej z naszym językiem, radzi sobie lepiej z interpunkcją i tak dalej.
Więc tutaj faktycznie, jeśli ten iPhone Whisper, tak go nazwijmy, dostałby taką funkcję,
no to by to na pewno nakłoniło mnie do zainteresowania się dziesiętymi wersjami płatnymi.
No chyba, że to będzie zadane w tej wersji darmowej, no kto wie.
Mniej więcej aplikacja jest sama dostępna za darmo,
jak i transkrybowanie lokalne, więc jeśli ktoś tego potrzebuje,
żeby sobie sporadycznie jakąś dłuższą wiadomość głosową przetłumaczyć,
to nie musimy tutaj żadnego abonamentu kupować.
I co ważne, mam wrażenie, że ta aplikacja w porównaniu do iCo,
która też była darmową aplikacją,
ja do tej pory właśnie z iCo korzystałem w takich sytuacjach,
to Whisper działa o wiele szybciej.
Tak o kilka, jak nie kilkanaście razy szybciej te transkrypty są generowane.
Więc jeśli czasami potrzebujecie takich funkcji, no to warto sobie tą aplikację ściągnąć.
Oczywiście będzie link w komentarzu.
A Whisper może nam się przydać chociażby do transkrybowania rozmów telefonicznych,
które na Androidzie kiedyś nagrywało się łatwo.
Teraz jest z tym większy problem, ale jeszcze nadal się da.
I więcej na ten temat wie Paulina.
To prawda, ponieważ dzisiaj znalazłam aplikację, która umożliwia sprawne nagrywanie rozmów.
Co prawda nie interesowałam się tym tematem wcześniej,
ale akurat zobaczyłam artykuł, który mnie zainspirował do tego, żeby sprawdzić,
czy w ogóle się da w dzisiejszych czasach, jeżeli nie ma na to wybudowanej funkcji.
No i właśnie okazuje się, że się da.
Pomimo, że właśnie są osoby, które testowały kilkanaście czy kilkadziesiąt
nawet podobnych narzędzi bez efektu, to mi się udało.
Ale aplikacja, o której mówię, czyli Cube ACR, ma swój arkusz w Google,
w którym możemy sobie podejrzeć listę modeli urządzeń oraz wersji Androida,
na których aplikacja działa, z zastrzeżeniem, że też pomimo, że jest w arkuszu Google
adnotacja o tym, że na danym urządzeniu wersja Androida działa, no to u nas może nie działać,
więc nie warto jeszcze kupować wersji premium, zanim nie przetestujemy wersji podstawowej,
bo właśnie taki jest model biznesowy tej aplikacji, ponieważ właśnie z podstawowej wersji
w wersji da się normalnie korzystać i jeżeli nam podstawowa nie działa to premium nic nam nie da.
Natomiast jakie to są funkcje? Oczywiście nagrywanie automatyczne
i wychodzących i przychodzących połączeń tak się dzieje domyślnie.
Jest co prawda nagrywanie z innych aplikacji niż telefon. Tam jest Signal, Telegram,
Messenger i nie wiadomo, ile jeszcze innych.
Google Meet, jakieś Kakao i Multum.
Ale jak testowałam Telegrama, no to nie zadziałało mi to,
więc nie wiem, czy po prostu ja coś mam nie tak,
czy jednak niezbyt dobrze są dopracowane te funkcje.
Automatyczne nagrywanie rozmów z wybranymi kontaktami.
To mnie właśnie niezbyt… nie wiedziałam w ogóle,
Chciałabym, żeby taka funkcja była, takiej białej listy, że tylko wybrane kontakty są nagrywane.
Ale następna funkcja, czyli lista wyjątków, czyli kontaktów, które nie będą automatycznie nagrywane, oczywiście jest.
Jest funkcja nagrywania ręcznego, czyli w trakcie trwania połączenia można sobie wcisnąć przycisk,
po którego aktywacji nagranie się rozpoczyna.
Sterować nagrywanie można albo z poziomu powiadomienia, albo z poziomu widżetu,
dla którego też należy nadać osobne uprawnienia.
Jest wbudowana przeglądarka tych nagrań,
żeby można było sobie szybko odtworzyć i sprawdzić, co to była za rozmowa.
Inteligentne przełączanie głośnika, czyli po prostu, że jak się przystawi do ucha,
No to wtedy się przełączę na słuchawkę.
Oznaczenie nagrań gwiazdkami.
No czyli wiadomo, tak jak w mailach, żeby po prostu szybciej odnajdywać jakieś ważne nagrania.
Odzwanianie i otwieranie panelu kontaktu bezpośrednio z poziomu aplikacji.
I funkcje premium.
Kopię zapasową w chmurze.
Tam jest dysk Google, ale też widziałam, że jest chyba OneDrive,
Bo coś w część logu było pisane o tym, że trzeba się przelogować, bo są jakieś tam usprawdzenia.
Blokada kodem PIN aplikacji.
Więcej formatów audio. Można nagrywać się w MP4 i zmieniać jakość.
Zapisywanie na karcie SD oraz ustawienie tej karty jako domyślną ścieżki zapisywania plików.
Wstrząsanie, aby oznaczyć ważny fragment podczas rozmowy.
I tam jest taka funkcja nawet, że może nas poinformować wibracją,
że to wstrząśnięcie się udało, bo czasami tak to jest,
że nie wykryje nam aplikacja tego potrząśnięcia.
I jest też suwak do regulacji czułości, żeby np. sobie dostosować,
Żeby na przykład nam nie wykryło, jak będziemy zwyczajnie nie chodzić,
albo po prostu zmieniać położenie telefonu tego potrząśnięcia.
Automatyczne usuwanie starych, nieistotnych nagrań i nie zapisywanie krótkich połączeń.
Akcje po zakończeniu połączenia, czyli można natychmiast odgrywać,
udostępniać lub usuwać nagrania po zakończeniu rozmowy.
No i mamy też informację, że ta aplikacja działa na tabletach.
Jest też taki disclaimer, że jeżeli nie działa aplikacja na urządzeniu,
czyli np. słyszymy tylko swój głos albo nie słyszymy nic,
to można spróbować zmienić źródła nagrywania w ustawieniach
albo skorzystać z trybu automatycznego włączania głośnika.
I to może pomóc.
Aplikacja wymaga wielu różnych uprawnień.
Jest m.in. uprawnienie do ułatwień dostępu,
więc jeszcze raz przypomnę, jak mantrę,
procedurę tego przyznawania uprawnień dostępności.
Należy najpierw wejść w ułatwienia dostępu,
Tam wejść w obronę aplikacji i odnaleźć Cube ACR Helper, bo też aplikacja w trakcie ustawienia poprosi nas o zainstalowanie tej aplikacji pomocniczej.
Więc trzeba ją odnaleźć, uzyskać komunikat, że są tu ustawienia z ograniczonym dostępem, wyjść z tego, wejść w manager aplikacji, znaleźć aplikację Cube ACR Helper,
wejść w więcej opcji,
zezwolić na ustawienie z ograniczonym dostępem,
a następnie z powrotem wrócić
do ustawień o ułatwieniu dostępu
i przyznać KubeACR Helperowi
te nasze uprawnienia
do pełnej kontroli nad urządzeniem.
I w sumie z funkcji niewymienionych,
które jeszcze mi się rzuciły w oczy,
jest geotagowanie połączeń,
Czyli możemy uzyskaliwać informacje o tym, gdzie byliśmy wtedy, kiedy dzwoniliśmy do danej osoby, albo kiedy dana osoba do nas dzwoniła.
A więc rzeczywiście całkiem sporo różnych ciekawych możliwości. To teraz ode mnie taka krótka informacja na temat dosyć interesującej strony.
Tak powiedziałem, w tych naszych zapowiedziach tyfloprzeglądowych, że jeżeli potrzebujecie opinii anonimów z internetu,
Tutaj do tego jest strona, i rzeczywiście jest do tego strona, strona, która nazywa się
jiridao.k… już Wam mówię, jaki jest dokładny adres, .app, czyli jurynow.app.
O co tu chodzi? Otóż podajemy pytanie, które nas dręczy, no i możemy uzyskać
około dwunastu odpowiedzi od użytkowników,
którzy także przeglądają tę stronę.
Jak to działa?
Wpisujemy na stronie pytanie
i możemy podać tam
dwie odpowiedzi. Odpowiedź A
lub odpowiedź B. No i
użytkownicy, którzy również
tam się znajdą, będą
sobie wybierać, czy
bliższa ich sercu jest
odpowiedź A, czy też bliższa jest odpowiedź
B. A w jaki sposób będą
to robić? O tym za moment. Jeżeli
chodzi o te odpowiedzi, to
To nie muszą one być w formie tekstowej, mogą to być też odpowiedzi, do których będą ilustracje w formie obrazków, to niekoniecznie może być to dla nas akurat najbardziej atrakcyjne, ale taka odpowiedź i możliwość istnieje, przy każdej odpowiedzi jest przycisk przeglądaj i możemy sobie tam jakąś grafikę wczytać.
A teraz, jak w ogóle dzieje się to, że ktokolwiek nam na te pytania odpowiada?
A, w bardzo prosty sposób.
Kiedy zadamy to nasze pytanie, co możemy zrobić bez rejestracji?
Jest też opcja założenia konta, natomiast jedno pytanie można sobie zadać bez rejestracji.
No i polega to na tym, że kiedy my czekamy na odpowiedź na nasze pytanie,
Dostaniemy do rozwiązania też trochę innych ludzkich dylematów.
Po prostu one nam się będą wyświetlać, a my będziemy proszeni o wybranie właściwej odpowiedzi.
No i niestety problem w tym jest taki, że jeżeli ktoś wrzuci jakieś te pytania w formie graficznej,
a właściwie odpowiedzi na swoje pytanie w formie graficznej, a już miałem parę takich pytań,
Na przykład było pytanie, jaka sofa bardziej Wam się podoba, czy jaka tam kanapa bardziej Wam się podoba.
No to dwa zdjęcia. Wybrałem coś tam, bo nie da się tego pominąć, ale raczej nie było to najbardziej wiarygodna odpowiedź, jaka mogłaby być.
Natomiast odpowiadamy sobie na kilka takich pytań, no a potem dostajemy nasz werdykt.
Ja przed momentem zapytałem iOS czy Android, odwieczne pytanie, tak na szybko, no i chyba osiem osób odpowiedziało, że iOS, cztery odpowiedzi padły na zielonego robocika.
Natomiast jak testowałem po raz pierwszy tę stronę, to zadałem pytanie, czy Sens mają podcasty o technologiach dla niewidomych.
No to 11 osób odpowiedziało, że tak, a jedna, że nie.
No tak swoją drogą. Oczywiście wiadomo, że to należy traktować z przymrużeniem oka,
bo nawet nie wiemy, kto na te pytania odpowiada i jakie kompetencje ma,
żeby rozstrzygać cokolwiek, ale jeżeli macie jakieś takie dylematy,
które chcecie wrzucić na forum publiczny bez ujawniania jakichś informacji o sobie,
No to jest taka strona jurynow.app, można sobie wejść i się tym po prostu pobawić, natomiast ja rzeczywiście jako zabawkę, zdecydowanie jako zabawkę radziłbym to traktować, a nie używać tego w żadnym wypadku do rozwiązywania jakichś swoich poważnych problemów.
No i przechodzimy do kolejnego tematu, do tematu związanego ze sztuczną inteligencją.
Dokładnie. Informacja, która jest zwłaszcza istotna dla tych wszystkich, którzy są w Unii Europejskiej, m.in. właśnie np. w Polsce, bo do Unii Europejskiej pomału zaczyna trafiać meta-AI.
Na razie to trafiło w wersji tekstowej do niektórych aplikacji.
Powinno to być generalnie wszędzie, już w Messengerze, w Whatsappie.
Ja w Whatsappie akurat jeszcze tego nie znalazłem.
Natomiast pomału gdzieś ta ekspansja AI mety na Europę się zaczyna.
Nawet niedawno tutaj dowiedziałem się, że okulary Ray-Ban już można w Polsce oficjalnie kupić,
chociaż tych funkcji AI jeszcze nie mamy, ale pewnie to też za jakiś czas się pojawi.
No ale co za tym idzie, meta chciałaby cały czas te swoje modele AI rozwijać.
A żeby rozwijać jakąkolwiek sztuczną inteligencję,
potrzebujemy danych treningowych.
Na przykład danych treningowych od użytkowników
znajdujących się w Unii Europejskiej, w tym oczywiście, w Polsce.
Natomiast biorąc pod uwagę,
że Europa ma dosyć rygorystyczne prawa dotyczące prywatności,
no to meta nas zapyta tutaj o naszą zgodę.
No, w pewnym sensie, bo tak naprawdę jest to kolejna sytuacja tak zwana opt-out, a nie opt-in,
więc wygląda to tak, że kiedy to trenowanie na danych z użytkowników z Unii się rozpocznie,
to ci, którzy się nie wypiszą, po prostu ich dane publiczne będą w to trenowanie włączone.
Mówimy tutaj o danych użytkowników Facebooka oraz Instagrama,
którzy skończyli osiemnaście lat.
I są to takie informacje jak nazwa takiej osoby,
czy właściwie tutaj chyba chodzi o imię, nie wiem dokładnie,
nazwa użytkownika na Facebooku i Instagramie, zdjęcie profilowe,
aktywność na Facebooku, w grupach publicznych
…oraz na publicznych kanałach.
Publicznie dostępna zawartość i tutaj wchodzą takie rzeczy jak komentarze na Instagramie czy na stronach na Facebooku,
recenzje na Facebooku czy na Marketplace i generalnie inne publicznie dostępne jakieś informacje
oraz awatary, czyli też kolejne zdjęcia profilowe.
Meta oczywiście mówi o tym, że prywatne jakieś rozmowy np. na Messengerze
nie będą brane pod uwagę w tych danych treningowych.
Natomiast jeśli publikujemy czasami jakieś publiczne zdjęcia,
jakieś publiczne komentarze i nie chcielibyśmy, żeby one były wykorzystane
do trenowania sztucznej inteligencji od Mety, to możemy się wypisać.
Proces wygląda tak, że po prostu będziemy o tym zapytani,
zarówno poprzez wiadomość e-mail, jak i komunikat w aplikacji
W sekcji powiadomień ja takiego maila już otrzymałem, chyba przedwczoraj,
więc prawdopodobnie, jeśli wy tego nie dostaliście jeszcze,
to pewnie za jakiś czas dostaniecie. Sam proces wypisania się wygląda tak,
że po kliknięciu w to powiadomienie, czy w mailu będzie odpowiedni link,
otworzy nam się po prostu formularz na stronie internetowej,
gdzie nasz adres e-mail będzie już wypełniony. Możemy też wtedy podać powód,
Dlaczego chcemy się z tego wypisać, ale nie musimy, nie jest to wymagane.
No i po prostu wystarczy, że klikniemy przycisk wyślij i po minucie powinniśmy dostać e-maila,
który potwierdzi to, że zostaliśmy z tego trenowania AI wypisani.
Swoją drogą, pamiętacie, jak latały po sieci takie łańcuszki?
Użytkownicy Facebooka wklejali sobie je na oś czasu,
A było też tak.
Ale legenda głosi, że ta funkcja właśnie przez te łańcuszki została stworzona.
A kto wie?
A mniej więcej jeśli powiadomienia czy maila jeszcze nie dostaliście, to możecie takiego powiadomienia się spodziewać.
Zaglądam teraz do waszych wypowiedzi, bo mamy tu jeszcze to i owo.
Łukasz do nas się odezwał ponownie.
Łukasz pyta nas, jak działają drony oprócz silniczków.
To z jakich bebechów się składają? Jaki protokół komunikacyjny występuje pomiędzy dronem a pilotem zdalnego sterowania, że on sam nieomylnie leci tam, gdzie chcemy?
Jak odpala się kilkaset dronów naraz i każdy wie, gdzie ma polecieć. Z góry dzięki za odpowiedź.
I dodam jeszcze, że w sobotę Kancelaria Premiera organizuje ogromny pokaz dronów
z okazji Tysiąclecia Państwa Polskiego, no to Łukaszu…
Prawdopodobnie będzie w niedzielę.
Prawdopodobnie będzie w niedzielę, tak, bo w sobotę będziemy mieli żałobę narodową
i te wszystkie uroczystości, koncerty, no będą przesunięte na niedzielę.
Także to taka jeszcze informacja.
A za pomocą czego steruje się tymi dronami?
Ja mam wrażenie, że to jest chyba różnie po prostu,
ale to jest raczej jakaś łączność bezprzewodowa, no przede wszystkim.
Tak, pewnie to z reguły jakieś 2-4 GHz, natomiast są też drony, które sterujemy przez aplikację w smartphonie,
więc tam one albo łączą się po Bluetoothie, ale też słyszałem o takich dronach, nawet chyba swojego czasu opisywaliśmy taki dron,
który był w stanie nas sam obserwować, żebyśmy zawsze byli w kadrze widoczni.
I on chyba miał swoją sieć Wi-Fi, którą sobie tworzył i telefon łączył się z tą siecią i w ten sposób ta komunikacja przebiegała.
Jak mamy takie duże skupiska dronów, to tam pewnie jest jakaś komunikacja.
Komunikacja peer-to-peer, że one też jakąś sieć wewnętrzną pewnie tworzą, żeby zwiedzić, gdzie każdy dron jest, oczywiście tam oprócz liczów, no to mamy jakieś akcelerometry, jakieś żyroskopy, jakieś urządzenia, które mierzą wysokość, teraz nie pamiętam, jak się to urządzenie nazywa, no ale tego typu sensory na pewno też są w takich urządzeniach instalowane.
No i też prawdopodobnie, jeżeli na przykład mamy jakieś drony, które są takimi dronami już profesjonalnymi, dalekiego zasięgu,
No to też to zupełnie inaczej wygląda, tam jakaś może i łączność mobilna, jakieś karty SIM albo inne mechanizmy tego typu, no tu ciężko powiedzieć, bo akurat co do dronów, no to chyba nikt z nas nie ma takiego urządzenia, a tym bardziej nie ma takiego profesjonalnego, więc już w ogóle ciężko tu cokolwiek z własnego doświadczenia powiedzieć.
Cóż my tu jeszcze mamy? Mamy jeszcze wiadomość głosową od Sylwestra, więc posłuchajmy tej wiadomości tak na koniec.
Słuchajcie, jeżeli chodzi o wymianę baterii w urzędzeniach aploski, to on niechętnie wymienia baterie,
tylko wysyła do innego serwisu, który się zajmuje wymieniami, wymianą akumulatorów baterii.
On wysyła, on niechętnie to robi.
Także Michale, on niechętnie wymienia baterie. Niechętnie.
No to całkiem możliwe, że po tych różnych takich przygodach, jakie ja m.in. miałem,
to, że jest to niechętnie przez Rafała, tak a nie inaczej to wygląda.
Widzę, że ktoś tu jeszcze do nas dzwoni, więc proponuję, żebyśmy ten telefon…
Odebrali, tak jest. To już w zasadzie rzutem na taśmę.
O, i już odbieramy. Kogo witamy po drugiej stronie?
Cześć Bartku.
Na sam początek Michale chciałbym Tobie podziękować, bo akurat ta wiadomość
w poprzedniej audycji na koniec nie została przeczytana. Dzięki serdeczne
Dziękuję bardzo za tą podpowiedź z Zoomem. Sposób się sprawdził, więc na przyszłość już będę pamiętał, że taki myk będę mógł wykonać.
Dzięki. A teraz czym do Was dzwonię? Może zacznę najpierw od pytania. Czy ktoś z Was korzysta z aplikacji Lidla, czyli Lidl Plus?
Ja swego czasu gdzieś tam oglądałem te aplikacje, ale regularnie nie.
Nie korzystasz regularnie, tak?
Czyli prawdopodobnie nie pomożecie ani nie wskażecie mi, że tak powiem, problemu, z którym tutaj dzwonię.
Chociaż nie nazwałbym tego problemem, tylko takim, nie wiem, ubytkiem, nie wiem, brakiem,
bo to właśnie jakby się stało po zainstalowaniu, skonfigurowaniu tej aplikacji na tej 12,
O której już tydzień temu wspominałem, że musiałem ją nabyć po tej,
na razie bynajmniej nieodwracalnej, awarii tej mojej trzynastki,
a mianowicie chodzi o to, że w aplikacji Lidl Plus mam skonfigurowaną
również opcję Lidl Pay i po uruchomieniu tej karty Lidl Plus,
Po wklepaniu tego kodu PIN-u zabezpieczającego,
karta się wyświetla, ale nie wyświetlają się dane,
które, że tak powiem, w tej karcie są zawarte,
czyli imię i nazwisko i numer karty.
Tylko jest jakieś dziwne pole edycji zabezpieczone,
którego nawet nie mogę edytować.
I się właśnie zastanawiam, co to może być.
Bo po zdezaktywowaniu opcji LegalPay
I te dane się pojawiają.
No to niestety.
Obawiam się Bartku, że nie pomożemy.
No właśnie.
Tylko dla uzupełnienia, jeszcze przed telefonem tutaj do was
usunąłem swoją kartę płatniczą i dodałem ją jeszcze raz,
no ale sytuacja niestety się nie zmieniała, więc dlatego tutaj do was
uderzyłem jako osób niewidomych, bo nie wiem jak tutaj
osoby widzące by to widziały.
Czy takie pole edycyjne w ogóle by było widoczne? Jak to w ogóle wygląda?
Wiesz co no Bartku, ja proponuję po prostu wyłączyć kurtynę w voiceoverze i pokazać komuś ten telefon i wtedy będziesz wiedział.
Tak, tak, wtedy ewentualnie. Ale jeszcze spróbuję tutaj do samego Lidla może uderzyć na infolinię. Może oni też, że tak powiem, coś tutaj mnie nakierują. No trudno.
Ale i tak tutaj dziękuję za sugestię Michale.
W takim razie, dobrze pewnie mówię, że wstrzyliłem się w sam koniec.
Pewnie już wszystkie newsy zostały zaprojektowane.
Dokładnie, dokładnie tak.
Okej, to dobrze, że słucham na bieżąco.
A przy okazji, jak już uda mi się komputer zdobyć,
to ten dodatek do Pogoda Polska, to się nazywa,
Chętnie przetestuję, bo tutaj słyszałem prezentację od Marca i zapowiada się całkiem nieźle.
No to… polecamy.
A jeszcze takie małe pytanie à propos NVDA. Czy w tej najnowszej wersji głosy wokalizera będą działać, czy nie?
Będą, będzie konkretnie działał dodatek od firmy cyflotechnia, ten najnowszy.
Aha, czyli rozumiem, że jak już pojawi się NFPA 2025.1, tak?
Dobrze mówię? To wtedy będzie trzeba ten dodatek jeszcze raz ponownie pobrać.
A wtedy co z głosami, Piotrze?
Powiedz mi, czy ty sobie, rozumiem, zakupiłeś ten dodatek wcześniej?
Znaczy się, mogę powiedzieć, on jest nieoficjalny.
Okej, no to w takim razie tutaj pewnie będzie kwestia społeczności. Coś czuję, że społeczność też swojej zrobi.
Także po prostu będzie trzeba temat obserwować.
Ten oficjalny dodatek będzie mniej więcej zaktualizowany, natomiast jeśli mówimy tutaj o dodatku oficjalnym,
no to tylko ta najnowsza wersja, którą można pobrać ze strony tiflotechnia.net.
Natomiast jeśli ktoś wcześniej zakupywał czy dodatek Vocalizer, czy dodatek Vocalizer Expressive,
czy ten dodatek od Code Factory, bo tutaj trochę tych dodatków było przez te lata,
to dla tych wszystkich osób można sobie kupić taki upgrade, który chyba 40 euro bodajże kosztuje.
To jest taka tzw. wieczna subskrypcja wtedy, dożywotnia?
Tak, no chyba, że zdecydują jakąś większą aktualizację wydać.
Natomiast tak, to nie jest subskrypcja, to się po prostu wykupuje…
To jest zakup, no mówiąc po prostu.
To jest zakup, normalnie. To nie jest subskrypcja, tak.
Złego słowa po prostu, że tutaj, przepraszam, okej.
No dobrze, no to fajnie, że po świętach znowu się słyszymy.
I cóż, do usłyszenia w przyszłym tygodniu.
Na pewno na antenie ja was będę słuchał.
Nie wiem, czy ja się do was z czymś odezwę.
Ale pozdrawiam serdecznie i spokojnej nocki.
Do usłyszenia. Trzymajcie się, hej.
Dzięki Bartku za telefon, pozdrawiamy cię serdecznie. Do usłyszenia. Ja tu jeszcze widzę, że się jakieś połączenia pojawiają. Rozdzwoniliście się na sam koniec. No i dobrze, odbieramy kolejny telefon. Kto jest tym razem z nami?
Sławek, cześć. Odnośnie technologii. Jedna rzecz, o której chciałem wspomnieć, kiedyś o tym wspominałem.
Taka rzecz, która może się wielu osobom przydać,
mianowicie jest taki kontroler nożny.
On się nazywa EarnTerm Bluetooth.
I on jest tak, dwuprzyciskowy, cztero albo sześcio,
ma sześć przycisków, które można sobie dowolnie modyfikować.
Działa na kilku protokołach.
I tutaj to jest dla nas fajne,
bo jedna to jest protokół HIT, czyli przejmuje komendy z klawiatury komputerowej.
Drugi to jest MIDI. No tutaj to jest bardzo szerokie wtedy zastosowanie,
bo to może się przydać i realizatorom, i muzykom, i ludziom z branży radiowej,
i tak samo. Trzecia to jest AirDirect, ale to się już nam nie przyda,
bo to jest do aplikacji, które są związane z tą konkretną firmą.
To głównie chodzi o aplikacje do prezentacji i do nut.
I czwarta to jest przejmowanie kontroli nad myszą
poprzez właśnie ten nożny kontroler,
gdzie mamy prawy, lewy przycisk i jeszcze przewijanie myszą itd.
I to sobie możemy wszystko dowolnie programować.
To działa pod Windowsem, pod Maciem, to działa na Androidzie, to działa na iOSie.
Tak jak mówiłem, jest kilka tych kontrolerów do wyboru, od dwóch przycisków do sześciu.
No i potem są jeszcze oczywiście inne, które na przykład,
to się niespecjalnie przyda, ale dla perkusistów nawet jest taki kontroler,
które gdzieś tam mogą sobie z boku przy perkusji zamontować.
I w momencie, jak np. mają nuty na ekranie, to on tylko pałeczką,
bo tam jest piezoelektryczny taki czujnik,
on tylko pałeczką uderza w to i mu się strona z nutami zmienia na ekranie.
Też fajna rzecz.
Tak, to jest bardzo fajne, bardzo na pewno przydatne.
Działa to wszystko po bluetoothie.
I jeszcze te kontrolery nożne mają wejścia na footswitcha,
na przykład pedał ekspresji, pedał głośności.
Więc jak się na przykład używa to w midi,
no to można sobie właśnie tam też sterować głośnością,
czy gitarową kaczką, czy tak samo można tym pedałem ekspresji
różne rzeczy wykonywać, bo to można i tam przewijać też
bardzo precyzyjnie jakieś teksty.
Rzecz bardzo fajna, też tutaj mam, to działa.
To jest też fajne dla muzyków, którzy chcą się uczyć, żeby np.
nie odrywać rąk w ogóle od klawiatury czy od skrzypiec, gitary.
No bo to naprawdę jest dość męczące.
Jak ktoś się uczy, uczy, uczy, to wie, o co chodzi, że ciągle musi spację
naciskać albo tatnąć coś na ekranie.
Tutaj tego w ogóle nie musi robić.
Po prostu jest skoncentrowany tylko na tym, żeby uczyć się grać.
Jak najbardziej, dlatego że on ma taką funkcję menadżer i tam w tym menadżerze, ten menadżer się instaluje zarówno na Androidzie, jak i na iOSie, jak i na PC czy na Macu.
I w tym menadżerze sobie wybieramy tryb pracy, czyli protokół.
Tak jak mówiłem, Hit, Midi, AirDirect albo mouse.
I wtedy sobie konfigurujemy, możemy sobie zapisać różne ustawienia, presety.
Potem przechodzimy już do konkretnej aplikacji, obojętnie czy to będzie PowerPoint,
czy to będzie, nie wiem, Reaper, czy coś innego, w zależności co tam sobie chcemy ustawić.
Niesamowita rzecz. Bardzo dobrze działa.
Ten bluetooth jest na ponad 100 metrów,
także to nie jest jakieś tam bledzmo.
Nawet w terenie otwartym to świetnie działa.
I w zamkniętym oczywiście bateria też na bardzo długo starcza,
zanim się rozładuje. To tam są setki godzin.
To jest jedna rzecz. A druga, a propos sztucznej inteligencji,
To bardzo chciałem pochwalić Groka od X,
bo Grok w tej chwili ma już tryb głosowy
i można sobie z nim rozmawiać.
Co mi się wcześniej podobało i co go moim zdaniem odróżniało,
być może, że tutaj się nie zgodzicie,
ale te odpowiedzi jego były za każdym razem znacznie szersze,
znacznie bardziej obszerne w stosunku do Gemini
Co tam ja jeszcze próbowałem? Co-pilota na przykład.
Co-pilot to tak dość zwięźle odpowiada i trzeba go, mówiąc kolokwialnie, ciągnąć za język.
A on tutaj rzeczywiście tak w punktach i dość obszernie odpowiada.
Może to kogoś denerwować, ale dla mnie jest ok.
Natomiast jeśli chodzi o ten tryb mowy, to czasami on się zapomina
I zaczynam coś gadać po włosku, po słowacku i trzeba mu powiedzieć
ej, ej, ej, po polsku, po polsku, a tak, tak, przepraszam, przepraszam,
no, no, już się poprawiam. I wtedy po polsku mówi, no trochę się gubi
w licznikach, trochę się gubi w trudniejszych słowach, troszkę ma
problemy z akcentem, ale, ale co odróżnia go na wielki plus,
Nie ma tam cenzury prewencyjnej. To jest po prostu wreszcie coś,
gdzie możemy się czuć swobodnie, normalnie, a nie jak dzieci w piaskownicy,
które zaraz dostaną po łapach. To jest kapitalne.
Pełna swoboda jest. Można rozmawiać o wszystkim, można dowcipkować
na różne tematy, co z reguły się kończy w innych czatach tym,
że niestety to narusza standardy naszej społeczności.
Z ciekawości, próbowałeś jakichś takich ekstremalnych przypadków,
typu nie wiem, podaj mi przepis na bombę atomową, albo coś podobnego?
Ja już nawet tam nie będę wspominał, ale wiesz, cała, że tak powiem,
jakieś dowcipy pikantne, cała erotyka, prawda? Wszystko to jest dostępne,
normalnie się rozmawia, nikt cię tu nie ogranicza.
To jeszcze nic, ale on na przykład potrafi odpowiadać w bardzo różnych stylach.
Na przykład powiesz, weź tak mów, jak taki młody koleś, taki hiphopowiec,
a on zaczyna używać takiego slangu, klnie. To jest coś, co w ogóle mnie zaszokowało.
To nie jest tak, że ja tęsknię za tym, żeby używać takiego języka.
Ja słyszałem, że ten tryb głosowy jest taki bardzo ekspresywny w tym roku.
Ja akurat się nim nie bawiłem, ale właśnie słyszałem takie komentarze.
Tak, zgadza się. Natomiast co tutaj fajne jest, że możesz cały czas sobie go jakby dostrajać.
Mówisz, ej, ej, nie tak emocjonalnie, spokojnie.
On dobrze, dobrze, no i tak zaczyna mówić bardziej takim językiem formalnym.
Jak nie chce, żeby oficjalnie mówił, no to zaczyna mówić tak bardziej swobodnie.
Może mówić na przykład z różnymi intonacjami, bardziej właśnie emocjonalnie, mniej emocjonalnie.
I co też jest fajne, że na przykład może mówić bardzo szybko, może mówić bardzo wolno.
A ja pamiętam, że ostatnio w Dżeminaj mówię, weź mów szybciej, bo przez to męczy.
Nie, nie mogę mówić szybciej.
No to Czart jest się w stanie dostosowywać do takich rzeczy, ten zaawansowany tryb głosowy.
Nawet czasami potrafi gubić słowa po drodze, jak się mu każe za szybko gadać.
Natomiast co do jeszcze takich właśnie mało cenzuralnych treści,
no to też na czata dobrze działają różne tak zwane j-brake’i,
czyli teksty, które wkleja mu się na przykład w pierwszej wiadomości
albo po prostu w jakiejś takiej… w takim bardziej instruktażowym tonie,
które mają pozwolić na to, żeby on był bardziej wyluzowany.
No i właśnie jeżeli potrzebuje jakiegoś takiego wyluzowanego tonu
bardziej w konwersacji głosowej, to po prostu zaczynam sobie
od tekstu, który mu wklejam, żeby on mniej więcej wiedział, czego od niego oczekuje.
I potem wchodzę w tą konwersację z telefonu i przełączam się na tryb głosowy.
No i właśnie uzyskuję mniej więcej ten sam efekt.
Znaczy, no nie wiem, czy dokładnie ten sam co w roku, bo właśnie on mnie denerwował
takim zbytnim rozpisywaniem się i tym, że przez to długi czas schodził na to,
żeby on wygenerował tą wiadomość do końca.
Ale podejrzewam, że jednak większość tych zachowań jest się również w stanie osiągnąć przez prompting.
No tak, ale to znowu jest właśnie to, że trzeba coś wpisywać, a tutaj masz to po prostu na dzień dobry.
Chcesz rozmawiać, to rozmawiasz mniej formalnie, bardziej formalnie.
Natomiast co do takiego rozpisywania się, mi się osobiście to podoba,
bo rzeczywiście po zadaniu jakiegoś konkretnego pytania, czy to z mojej branży,
Czy zupełnie na jakiś inny temat.
On to w dziesięciu, piętnastu punktach porządkuje.
I rzeczywiście jest to bardzo fajnie podane w formie takiego krótkiego niemalże wykładu.
Aczkolwiek potrafi zmęczyć, bo nie ma tam żadnego lania wody.
Tam jest rzeczywiście taka esencja, ale nieprawdopodobne.
A próbowałeś właśnie porównywać te informacje, takie już typowo merytoryczne, dotyczące jakiejś konkretnej wiedzy, na przykład w zakresie tego, co wygeneruje GROK i co wygeneruje chociażby czat GPT? Który bardziej zmyśla, który mniej?
Moim zdaniem Grok mniej zmyśla i mam wrażenie jakby miał większą bazę, Michał, bo tak robię też, tak jak mówiłeś. Staram się te same pytania, dosłownie co do słowa, zadawać kilku czatom i rzeczywiście tutaj Grok wypada bardzo dobrze.
No jeszcze ma ten, jak to się nazywa, Deep Search chyba, czy tak?
No to tak, to teraz większość tych czatów ma to głębokie badanie, tak.
Tak, tak. No to akurat to trochę jest takie aż, powiedziałbym, za zbyt głębokie,
bo tak jak się zaczyna czytać to wszystko, to już przesada.
No ale tego nie używasz na co dzień, tylko jeżeli na przykład chcesz, powiedzmy,
No to wtedy, na przykład jaką masz w jakiejś branży, dajmy na to, konkurencję albo jakieś inne takie bardziej złożone rzeczy, to to głębokie badanie do tego to może się sprawdzić całkiem fajnie.
Ok, natomiast nie wiem, czy jest już jakiś czat, który ma taką, przynajmniej dla nas tutaj dostępny w Polsce, żeby miał te funkcje wideo w czasie rzeczywistym, czy jeszcze nie ma?
Bo póki co to było tak, że on musiał rozpoznać najpierw, tak jak w Be My Eyes, tak? Czy jest już coś takiego?
No w zasadzie czat coś takiego ma.
I Gemini Live chyba też jest.
Chociaż o Gemini to nie wiem, czy jest w Polsce.
Natomiast czat na pewno jest.
Z tym, że mi to działa na tyle niestabilnie
i na tyle…
po prostu nie wiem.
I miesza języki.
I mówi to samo trzy razy.
I…
po prostu nie chcę tego używać.
Ale też zdaje się, że to nie jest tak, że on cały czas wysyła.
Tak, on co jakiś czas robi sobie klatkę.
No okej, czyli klatkę robi, bo mi chodziło właśnie o taką interakcję, tak jak rozmawia się z nimi w życiu.
jakiegoś tam zdania, to wtedy on sobie, dajmy na to, robi zdjęcie, no i wtedy, i wtedy robi, i wtedy analizuje to zdjęcie i jest w stanie Ci odpowiedzieć na to pytanie.
Tak z mojej perspektywy to jest czasem nawet i mniej wygodne niż to, jak robię zdjęcie na przykład BMI i AIM, dlatego że ja nie wiem do końca, w którym momencie on to zdjęcie zrobił.
I jeżeli na przykład, powiedzmy, no nie mam takiej wprawnej ręki do robienia tego zdjęcia, to nie jestem w stanie się w tym momencie do tego przygotować, że o, w tym momencie trzymam telefon nieruchomo, tak?
Żeby go gdzieś tam nie przesunąć. I żeby zrobić najlepszy wynik. To w takiej sytuacji też może być to problematyczne.
A jeszcze jedno, to chciałem pochwalić właśnie ten Be My Eyes za tych wolontariuszy,
bo właściwie nigdy z tego nie korzystałem, ale ostatnio mówię, zadzwonię, zobaczę.
I odebrał człowiek i mówię, czy mógłby pan mi tutaj przeczytać, nie wiem, czy to się da przeczytać w ogóle,
bo to tak małe. To była taśma miernicza taka, na której już zaznaczyłem, bo ją zastopowałem.
Jakiś wymiar był pokazany, ale ja chciałem wiedzieć jaki dokładnie.
No i okazało się, że się da. On mówi, a pan pokaże tutaj.
Nie, z drugiej strony 1,88m. Byłem w szoku, że to po prostu aż tak widać
i że to tak można pomóc. Fantastyczna rzecz.
A od tego cała zabawa z aplikacją Be My Eyes się zaczęła przecież właśnie
od widzących wolontariuszy.
Tak, tak i to jest kapitalne. No to jest właśnie, to jest to, co na przykład jest świetne, jeżeli chodzi o, no dajmy na to, jakąś pracę w kuchni, jak się wykonuje i ma się problem z różnymi, z odnalezieniem przypraw, czy jakiś puszek, prawda, z jakimiś, czy pomidorami, czy fasolą, czy czymś innym, to ten Be My Eyes z jakimś wolontariuszem jest najszybszy.
I właśnie dlatego pytałem was o te wideoczaty, czy one mają taką funkcję, żeby w czasie rzeczywistym to robić.
Bo jak się BMI… żeby zrobić zdjęcie, to on to analizuje i analizuje i zanim człowiek się dowie, że to jest papryka wędzona, to…
No chwilę czasu to potrwa, tak.
Dobra, dzięki. Wtedy pozdrawiam was.
Dzięki Sławku, do usłyszenia.
Widzę, że się rozdzwoniliście, więc pytanie, czy ktoś jeszcze do nas zadzwoni
dzisiejszego wieczoru i będzie się chciał czymś podzielić. Zaraz się to okaże.
A ja w międzyczasie zapytam, czy jeszcze może macie jakieś informacje.
No cóż, tak żeby zapełnić czas i a propos tego, że tworzymy sobie jakieś wtyczki
ten VDA, to tak troszkę mogę zdradzić.
Chociaż nie planowałam w sumie o tym mówić, że pracuję tak sobie z chatem też
nad wtyczką o nazwie Label Magic, czyli
znajdowanie etykiet do jakby w programach i na stronach na podstawie tego modułu,
o którym mówiłam w zeszłej audycji.
I mam już nawet prototyp, tylko że nie działa mi on zbyt dobrze, bo
Przypisuję złe etykiety poszczególnym
polom formularza.
Czyli to jest trochę to, czego ja się obawiałem, mówiąc dlaczego autor
nie zdecydował się, bo sięgnięcie właśnie po to rozwiązanie.
Ale próbuję nad tym pracować dalej,
ponieważ chcę dopisać jakby jeden
submoduł, który będzie po prostu wyciągał
wyciągał tę etykietę z hierarchii obiektów, po to, żeby nie sugerować się odległością,
dlatego, że odległość może być mylna, tylko żeby sugerować się tym, że na przykład coś jest
potomkiem albo przodkiem z hierarchii obiektów i dzięki temu będzie można tę etykietę nadawać.
No ale wiadomo, na razie się bawię, na razie próbuję, ale już jakoś to zaczyna działać,
więc jest możliwe, że uda mi się to wydać.
No to czekamy w takim razie i trzymamy kciuki, a tymczasem odbieramy kolejny telefon. Kto jest z nami?
Cześć Rafale, słuchamy.
Mam takie pytanie, a ta rozmowa, co tam właśnie…
Tomek dzwonił, czy tam… nie pamiętam, chyba Tomek dzwonił.
Odnosi się tam właśnie, że tam właśnie facet mu powiedział,
co tam pisało na tej taśmie i tak dalej.
To normalnie tak po polsku ten z tym wolontariuszem się łączył?
Tak, tak, to Be My Eyes przecież ma też polskich wolontariuszy.
Tam sobie wybierasz język.
Z tego co wiem, że na początku było chyba po angielsku.
Nie, to już dawno.
W ustawieniach można wybrać, w jakich językach chcesz się porozumiewać i po prostu wtedy można takie połączenie nawiązać sobie.
Muszę sobie to otworzyć, to jest generalnie kwietniowa aktualizacja.
Pojawiają się uroki ekranu dotykowego. Chyba tak na szybko tego nie otworzę.
Natomiast jeśli wejdziesz sobie na stronę Freedom Scientific,
na stronę What’s New in JAWS,
czyli co nowego w JAWSie, to tam ta informacja się znajdzie.
Też przepuszczam, że po prostu w menu pomoc i pod sekcją
sprawdź aktualizację, ta aktualizacja powinna po prostu się za jakiś czas pojawić.
Nie wiem, jak to jest w polską wersją,
Czy takie drobne łatki też szybko się w polskiej wersji pojawiają?
Wiem, że sam JOS-2025 jest dostępny w polskiej wersji,
natomiast nie wiem na 100% jak to jest z tą aktualizacją.
No to najnaczej jak chodzi o aktualizację, no to wiadomo,
to te wszystkie polskie wersje, no to spalsza ten Altix.
No i prawdopodobnie to też chwilę będzie musiało potrwać.
Dotarłam do tego numeru.
No właśnie, niestety ostatnia aktualizacja, to jak właśnie nawet weszłam na stronę Altyksu,
no to jest wersja, którą posiadam, czyli to jest wersja chyba 12.50.
Zdaje się, Paulino, ty znalazłaś ten numer, tak?
Tak, to jest 2025-1204.89.
No to na Altiksu nie ma.
Nie ma. To na naszej Altiksu jeszcze tej strony nie ma.
Pozostaje czekać pewnie, kiedy tylko się pojawi, to dostaniesz powiadomienie o tym, że nie jest.
Tak, bo to jest drobna akualizacja. Adam akurat nic nie zmienia w tekście, więc myślę, że to w miarę szybko powinno się pojawić.
Po prostu się posugerowałem temu, że pomyśleliście, że wyszła oficjalna, to że dobra no, to na Altiksie też będzie, że już będzie podpuszczone i wszystko tego.
A to takie trochę rozczarowanie, że…
No pozagorowałem się tym, że powiedzieliście właśnie, że oficjalna wersja, że wyszła.
To szkoda, że tego nie dodaliście, że nie u nas.
Nie, to właśnie o te dwie kwestie mi chodzi.
Ja również życzę dobrej nocki.
Z fizycznej klawiatury, ekran dotykowy. Jak obejść ten problem? Czy Apple Pay to dobre rozwiązanie?
Bardzo dobre. Tak, to krótka odpowiedź tak.
To po prostu zadziała. Zresztą Google Pay chyba też tak naprawdę, w zależności od tego, czego używasz, ale…
Chyba tak, to nawet działa chyba do tego stopnia, że po prostu przez to, że się uwierzytelniamy…
A, słyszę, chyba telefon mamy.
Tak jest.
Że się uwierzytelniamy palcem, ewentualnie twarzą, to nawet wtedy nie ma tego wymogu,
Jesteśmy o kod PIN proszeni.
Także to jest bardzo dobry sposób, żeby takiej kwestii obejść.
Dobry wieczór, Paweł Podolski się kłania na zakończenie, myślę, pewnie audycji.
A chciałem się podzielić z Wami taką historią z naszego, właściwie, życia
Be my I see.
Kiedyś ja po prostu na co dzień tak nie miałem potrzeby
korzystania z tej aplikacji, aż któregoś właśnie
pięknego dnia spadł żonie pierścionek, próbowałem go
znaleźć no i nie udała się mi ta sztuka i stwierdziłem, że
no cóż tu zrobić z korzystami z be my I see, a nóż się
No i zadzwoniłem, odebrała sympatyczna pani.
Na początku to wyglądało trochę tak nieskoordynowanie,
ale jakieś było moje zdziwienie, jak po, powiedzmy,
dwóch, trzech minutach operowania telefonem
i słuchania wskazówek ze strony właśnie tej osoby widzącej,
udało się znaleźć ten pierścionek.
Pokazałem do kamerki, wszystko się udało znaleźć.
Warto naprawdę czasami się zastanowić i na co dzień po prostu spróbować skorzystać, bo to jest bardzo fajna inicjatywa.
A propos właśnie sztucznej inteligencji, to miałem taką sytuację, że na moim Xiaomi, po prostu przestał działać ten asystent Google w prybie live.
Pojawiał się czarny ekran, jak się wywołało tą funkcję live i nic się nie stało.
Właściwie nie można było zrobić.
Akurat stwierdziłem, że spróbuję sobie bez miesiąca darmo
ten model ich płatny.
Jakież było moje zdziwienie, jak na właśnie pomoc od Google
odpowiada jakaś sztuczna inteligencja.
Jest to tłumaczone jakimś tłumaczem maszynowym,
Właściwie to efekt tego był żaden, tej konwersacji z tym czymś. No i to mnie właściwie zniechęciło do tej sztucznej inteligencji, zamiast przekonać.
Ale wiesz, z drugiej strony, gdyby odpowiedziała na twoje pytanie właściwie i konkretnie, to efekt byłby zupełnie inny.
Ja mam wrażenie, że to jest właśnie problem też ze sztuczną inteligencją, że nie zawsze odpowiada poprawnie, bo to też nie jest tak i to też sporo osób zarzuca tym narzędziom,
no że nie odpowiada, nie udziela prawidłowych odpowiedzi, ale to też nie jest tak, że to narzędzie zawsze i wszędzie domyśli się o co nam tak naprawdę chodzi.
Jasne.
Do widzenia.
Do usłyszenia.
To wszystko.
Wszystko. Trzymajcie się.
Do widzenia.
Cześć, witajcie. Chciałem się dopytać, bo nie wiem czy mi nie umknęło, kwestia tej aplikacji na Androida.
Coś było o rozmowach, o telefonach, że można…
jakaś aplikacja, tylko teraz mi umknęła nazwa.
Prosiłbym o przypomnienie. Sławek Klawinowski.
Weź mi przycisk.
Co, jaka to była aplikacja?
To jest aplikacja CubeACR.
I to jest do nagrywania rozmów.
Dzięki Paulino. Odbieramy telefon w takim razie.
Teraz… już.
Bardzo kogo witamy po drugiej stronie?
Cześć wam.
Cześć Grzegorzu.
Znowu cześć. No tak właśnie o tej sztucznej inteligencji no też może trochę powiem.
No jak miałem doświadczenie z meta.ai, no bo jest też taka strona meta.ai.
No i jak tam, kiedyś VPN-y były normalne za darmo,
bo teraz jest z VPN-ami taki problem, że nie można normalnie krajów wybrać,
tylko po prostu losowo się gdzieś łączy w ogóle, nie tam, gdzie się chce,
więc teraz VPN-a nie używam, bo używam Protona, co nie,
Ale jak kiedyś, jeśli chodzi o Meta.ai, to jest w ogóle śmieszne, bo wtedy to działało po polsku.
Oczywiście tam był taki komunikat, że jeszcze nie rozumiem języka polskiego, ale odpowiadało po polsku.
No a teraz jak wszedł ten metra AI, w sumie też do Messengera przynajmniej, tam jest.
I ja piszę, ten zadaje pytanie po polsku, a ten wypluwa komunikat, że jeszcze nie mogę rozmawiać w języku polski,
Powiadomimy cię wiadomością, jak tego będziemy mogli.
To jest za zastanawiające, bo też dostałem tą wiadomość od Facebooka,
że będą te dane trenować. No dobra, niech sobie trenują.
Ja tam się nie będę wypisywał. Ale to jest w tym wszystkim dziwne,
To, że jak nie było w Polsce tego META-AI, to przez VPN, no to działało po polsku.
A teraz jak weszło do Polski, to po polsku nie.
Prawdopodobnie ze względu na jakieś regulacje, bo skoro teraz jest to dostępne na terenie
państw członkowskich Unii Europejskiej, no to musieli to odpowiednio zabezpieczyć,
No i tym bardziej śmieszne to jest, że właśnie Rajbany są, te okulary.
No właśnie.
Właśnie ten x-kom chyba to sprzedaje i chyba jeszcze, tak?
Chyba x-kom i jeszcze jakiś tam sklep.
To jest właśnie dziwne.
Zobaczymy, no. Ale to w ogóle śmieszne, bo komunikat, że nie rozumiem tam w języku polskim, no to napisał tak, no, że nie, po polsku, że nie rozumiem w języku polisz i że…
Pozostaje po prostu poczekać i podejrzewam, że za jakiś czas dostaniemy też możliwość.
No tak, a co do tego, Gemini Live to jest w Polsce.
Na Pixelach i Samsungach, ale tam Google powiedziało, że to te wideo
I tam z ekranu też te konwersacje, to za niedługo to ponoć UN udostępnią.
Na razie to jest na pikselach i na samsungach.
ten tryb wideo i z ekranu, co jest na ekranie,
udostępnione, i tam można się pytać,
albo co jest na ekranie telefonu, albo przez kamerę.
To na razie jest w pikselach i samsungach.
I taka trzecia, że coraz częściej na YouTubie w sugerowanych mi wyskakują.
Tam są różne nefsy na temat sztucznej inteligencji.
I teraz jest taki trend, że robotyka…
To już tak coraz bardziej wchodzi, że już i ta sztuczna inteligencja, i roboty humanoidalne, które tam będą za nas sprzątać, śmieci wynosić i kawę robić.
Z drugiej strony pytanie, czy rzeczywiście ta humanoidalność to jest akurat najbardziej odpowiedni kształt dla takich robotów, bo przez tyle lat właśnie takim wyobrażeniem to zawsze były te roboty przypominające człowieka, ale tak naprawdę pierwsze roboty, które się w naszych domach pojawiły, jak chociażby te odkurzacze samojezdne, no to zdecydowanie one nie przypominają człowieka,
Może to do tego, że pod świadomem marzymy o tym, żeby mieć niewolnika.
Tak, a jak się z nami buntuje, no to będzie terminator.
No ale dla mnie to jako… w sumie fajny motyw mieć takiego asystenta na przygodę,
bo z ludźmi to jest czasem różnie,
Ale ja bym to widział to bardziej w formie niejako człowieka,
bo w sumie nawet jak gdzieś tam pokazują ten atlas,
czy figur, czy inne już są takie…
Polacy nawet też jakiegoś robota humanoidalnego
Wiesz, Grzegorzu, prototypów i takich pomysłów to jest wiele i o tym się bardzo dużo słyszy. Pytanie, co przejdzie do takiego mainstreamu. Ja pamiętam, że już w roku 2011 czy 2010, będąc na targach w Hanowerze, na targach CeBIT, to już tam były roboty humanoidalne, które sobie na przykład grały w piłkę.
Więc wiesz, tego typu technologie to już są z nami od lat. Tylko pytanie, jak to zostanie wykorzystane na masową skalę, bo prototypów nie brakuje.
No to znaczy, to jest takie roboty można kupić tak za jakieś… od 20 tysięcy dolarów do…
No, to grosze.
No, ale ja to bym bardziej widział nie humanoidalne, tylko jeżeli chodzi taki tam zamiast tam, no bo też słyszałem o jakichś robopsach w przewodnikach. No i też nie wiem czy to jest takie optymalne.
Dla mnie to chyba najbardziej optymalny był taki robot w stylu R2D2 z Kwiecnych Wojen.
Czyli taka puszka na kółkach, którą można normalnie trzymać za rączkę wysuwaną.
To jeździ na kółkach, powiedzmy na takich większych terenowych, po schodach czy coś.
No i tam miał te swoje czujniki, lidary, jakieś tego, sztuczne inteligencje.
No, on ma, że to też będzie w Polsce.
Okej Grzegorzu, to czy coś jeszcze chciałbyś dodać?
No w sumie to już wszystko.
Mini 2.5 Pro jest, to chyba wiecie, ten flash wyszedł z tego.
To chyba to, no to chyba wszystko będzie.
Okej, to w takim razie dziękujemy Ci bardzo za telefon.
Do usłyszenia, dobrej nocy.
Cześć.
Jeszcze mamy wiadomość na Whatsappie od Bartka, więc posłuchajmy.
Tutaj drobna poprawka. Bardziej wydaje mi się, że do tego będzie się bardziej nadawał Sing A.I. niż Be My Eyes.
Ale do czego? To jest pytanie. No ale w każdym razie taką informację od Bartka dostaliśmy.
A teraz odbieramy jeszcze jeden telefon. Kogo witamy?
Dobry wieczór po raz trzeci.
Cześć Marcelu.
Ja się tak jeszcze w zasadzie cofnę do początku audycji w tym momencie, bo jak Grzegorz wspomniał o Mecie i jak Grzegorz wspomniał o VPN-ach, to mi się dodało 2 do 2 i przypomniało mi się to co zapomniałem, a konkretniej chciałem się odnieść bodajże do wiadomości Sylwestra,
Który mówił, że w sumie to za tyle, za ile pokupował sobie te okulary, które nie działają, mógłby kupić amplituner.
Popieram, to jest lepsze. Ale tak ogólnie.
Chciałem powiedzieć, że jest jeden sposób na przynajmniej okulary od Mety.
Przynajmniej widziałem gdzieś w internecie taki filmik, już jakiś czas temu,
że teoretycznie, jeżeli sparujemy sobie te okulary, wszystko tam pokonfigurujemy
Tak, to się zgadza.
To się zgadza. I wtedy to nam zadziała.
Tak, i to potwierdzał Marek Tankielun, który u nas okulary od Mety pokazywał w audycji w Tyfloradiu.
I ona jest dostępna zresztą w Tyflopodcaście. Także to się wszystko zgadza.
Jeszcze druga kwestia, co do aplikacji Cube ACR, tej do nagrywania rozmów.
Paulina tutaj, jak czytała opis tej apki i jakie uprawnienia należy jej nadać itd.,
to mnie tak trochę zaniepokoiło, w sensie zaniepokoiło mnie pod tym kątem,
że jednak nie musi to działać na wszystkich telefonach, bo tak jak było powiedziane,
że generalnie ludzie szukali setek tych apek, żadna nie działała,
A jej pierwsza z brzegu, czy tam ta właśnie, zadziałała po prostu.
Niekoniecznie musi wynikać nawet z faktu, że ta apka jest tak dobra i obchodzi zabezpieczenie Androida.
Jakby, ja na przykład mam Asusa Zenfona, który ma nagrywanie rozmów wbudowane w siebie samego.
I teraz pytanie, czy ta aplikacja działa, bo producent telefonu, który posiada Paulina, nie zablokował po prostu tego, tak jak robi większość.
Czy też faktycznie działa tak jak trzeba na wszystkim?
Bo ja na przykład miałem…
O ile to jest dla ciebie wyznacznik,
to moduł do nagrywania rozmów w Amazing MP3 Recorder mi nie działa,
więc wychodzi byłoby na to, przynajmniej według mnie,
że chyba jednak ta funkcja jest po prostu zablokowana,
a ta apkę umieją omijać.
W sensie to zablokuje bezpieczenie.
To już jakby wskazuje faktycznie na to, że możesz mieć rację i jakby jestem w stanie się ku temu przychylić.
Natomiast powiem wam tak, miałem aplikację na starym Androidzie, jeszcze naprawdę starym, dawno temu, z jakichś 6 lat będzie, w LG K8 i ona działała w pełni, faktycznie.
Ta sama aplikacja nie działała na Huawei’u na przykład.
I na Huawei’u nie działała żadna aplikacja dostępna wówczas, która była jakby do tego celu.
Stąd przydałoby się to przetestować na kilku telefonach, które teraz nie mają.
Bo jeśli tak, jeśli to faktycznie wygrywa z topornością obecnego Androida i robi to co ma robić,
To jest naprawdę Game Changer.
Ja sobie myślę, że odgrzebię chyba faktycznie siła wejścia z szafki i to przetestuję.
W sensie, nie będę używał tego telefonu, bo już po prostu od lat go nie używam.
Natomiast jestem po prostu ciekaw, czy faktycznie da się obejść nawet tam.
Bo, mówię, może być tak, że któryś telefon mniejsze restrykcje na to daje.
No, to jest do sprawdzenia.
No to jak przetestujesz, to daj znać. Ja się też aż tak na tym nie znam, bo najpewniej nie będę tego używać tak bardziej niż do potestowania.
Ale oczywiście, jeżeli będziesz miał już jakieś wyniki tych swoich testów, no to daj nam znać.
To mnie po prostu ciekawi, czy faktycznie ktoś wymyślił skuteczny w stu procentach sposób na obejście przed ich blokad.
Z ciekawości testowałaś to na której wersji Androida, to jest piętnastka czy czternastka?
Ja mam piętnastkę akurat i w ogóle piętnastki nie polecam, bo są różne dziwne chocki, klocki.
Chociażby taka drobna rzecz, a wkurza.
Aplikacje już nie mogą pisać o całym systemie.
Ja rozumiem, że to jest bezpieczeństwo, niebezpieczeństwo.
Sam jestem fanem bezpiecznych rozwiązań raczej.
Natomiast fakt, że tak jak kiedyś z takiego hiku mp3 recordera
mogłem sobie wejść w folder recordings bezpośrednio w pamięci telefonu
A teraz muszę wejść w jakieś Android, media, data, coś tam, setki podfolderów. Powoduje u mnie ochotę do sprawdzenia czy telefon dobrze lata w trybie samolotowym.
No już byłoby wszystko. Już chyba dzisiaj limit wycierpałem z tych informacji i zapytań.
Dziękujemy za telefon, pozdrawiamy do usłyszenia. Tu widzę, że jeszcze ktoś. Ale się dziś rozdzwoniliście. No ale okej, tak też czasem po prostu bywa.
I spróbujmy odebrać jeszcze w takim razie połączenia. Kto jest z nami z drugiej strony?
Bartek ze Sprostowaniem.
Słuchamy Bartku.
Bo aż dziwię się, że ta pierwsza wiadomość się nie odtworzyła, bo wysłałem do was dwie wiadomości.
A mianowicie, bo tutaj jeszcze a propos tej aplikacji Lidl Plus, tutaj co Michale mi też zapodałeś pomysł,
przyszło mi jeszcze do głowy takie coś, że może spróbuję przy zdezaktywowanej kurtynie zrobić zrzut ekranu
i po prostu rozpoznać tą aplikacją SingleAI.
Też można.
Bo w pierwszej właśnie wiadomości nagrałem, że może Be My Eyes, ale po chwili sobie przecież przypomniałem,
O ile dobrze wiem, BMI nie ma możliwości importu zdjęć z biblioteki, więc…
Tak, tak, ale to robimy z poziomu aplikacji BMI?
Ale z poziomu aplikacji chyba też jest jakiś przycisk do…
Jak wejdę w aplikację zdjęcia, otworzę to zdjęcie i wtedy…
I udostępniasz, tak jakbyś chciał komuś wysłać.
Aha, tak, rozumiem, czyli przycisk udostępnił.
Tak, dokładnie.
Okej, w porządku. No widzicie, tego nawet nie wiedziałem, bo nigdy jeszcze tak nie robiłem,
więc jak to fajnie chociaż tutaj mieć takie osoby, które naprowadzą na dobrą drogę
i zawsze czegoś nowego nauczą.
Staramy się.
Naprawdę, świetnie wam to wychodzi, a to słowo możecie sobie sami dopasować, co chciałem, że tak powiem, powiedzieć.
Dzięki bardzo w takim razie.
Teraz już na pewno miłej nocki, bo dobiliście do trzech godzin, ale wydaje mi się, że to i tak jedno z najkrótszych audycji, więc oby jak najwięcej.
Trzymajcie się, do usłyszenia, trzymajcie się, hej, pa.
Dzięki, cześć, pozdrawiamy serdecznie.
I Ty, Paulino, zdaje się już tak zupełnie na koniec masz dla nas jakąś niespodziankę.
Zgadza się, ponieważ uznałam, że kontynuując starą tradycję Pawła, jeżeli jest taka jakaś nietypowa audycja, to należy się słuchaczom bonus.
No i właśnie dlatego dzisiaj tak stwierdziłam, że skoro już przez długi czas nie mówimy żadnych newsów, żadnych nowych tematów, nie poruszamy sami z notatek,
Tylko cały czas są telefony.
No to dla osób, które cały czas tutaj są jako słuchacze, należy się niespodzianka.
I teraz właśnie będę starała się udostępnić.
Ponieważ jednemu użytkownikowi reddita przydarzyła się bardzo śmieszna rzecz.
Ponieważ czat GPT w trybie głosowym zareagował tak, jak czasami reagują te takie głosy neuronowe w jakichś dziwniejszych warunkach.
Czyli zaczął deformować się głos i już w pewnym momencie brzmi dość śmiesznie.
I stwierdziłam, że ogłoszę taki malutki konkurs, że jak komuś uda się podobny efekt albo jeszcze bardziej spektakularny osiągnąć po polsku i nagrać, to mogę postawić tej osobie kebaba.
No, idzie wszystko dobrze.
Możemy znaleźć czas rozdzielając całą liczbę danych przez prędkość.
1 mln megabitów rozdzielonych przez 40 megabitów na sekundę to około 25 tysięcy sekund.
Aby dostać bardziej intuitywną liczbę,
skonwertujmy 25 tysiąc sekund w godzinach.
Są 36 tysiące sekund w godzinie,
więc 25 tysiąc rozdzielonych przez 36 tysiące sekund to około 6,9 godzin.
Więc zajmuje to około 6 godzin, by dodać 125 gigabitów w godzinie przez 40 megabitów.
I tym optymistycznym akcentem możemy zakończyć dwieście siedemdziesiąte dziewiąte
wydaniem Tyflo Przeglądu.
Paulina Gajoch, Piotr Machacz i mówiący te słowa
Michał Dziwisz, dobrej nocy, póki nam głosy nie siadają.
Trzymajcie się.
Był to Tyflo Podcast.
Pierwszy polski podcast dla niewidomych i słabowidzących.
Program współfinansowany ze środków Państwowego Funduszu Rehabilitacji Osób Niepełnosprawnych.

Wszystkie nagrania publikowane w serwisie www.tyflopodcast.net są dostępne na licencji CreativeCommons - Uznanie autorstwa 3.0 Polska.
Oznacza to, iż nagrania te można publikować bądź rozpowszechniać w całości lub we fragmentach na dowolnym nośniku oraz tworzyć na jego podstawie utwory Zależne, pod jedynym warunkiem podania autora oraz wyraźnego oznaczenia sposobu i zakresu modyfikacji.
Przekaż nam swoje 1,5% podatku 1,5 procent Logo FIRR Logo PFRON Logo Tyfloswiat.pl

Czym jest Tyflopodcast?

TyfloPodcast to zbiór instrukcji oraz poradników dla niewidomych lub słabowidzących użytkowników komputerów o zróżnicowanej wiedzy technicznej.

Prezentowane na tej stronie pomoce dźwiękowe wyjaśniają zarówno podstawowe problemy, jak i przedstawiają metody ułatwienia sobie pracy poprzez korzystanie z dobrodziejstw nowoczesnych technologii. Oprócz tego, Tyflopodcast prezentuje nowinki ze świata tyfloinformatyki w formie dźwiękowych prezentacji nowoczesnych urządzeń i programów. Wiele z nich dopiero znajduje sobie miejsce na polskim rynku.

Zapraszamy do słuchania przygotowywanych przez nas audycji i życzymy dobrego odbioru!

Tematyka

Pozycjonowanie i optymalizacja stron internetowych