TyfloPrzegląd Odcinek nr 256 (wersja tekstowa)
Pobierz napisy w formacie SRT
Pobierz napisy w formacie VTT
Fundacja Instytut Rozwoju Regionalnego prezentuje Tyflo Podcast.
Dzień dobry, dzień dobry.
Dwieście pięćdziesiąta, chyba szósta audycja Tyflo Przeglądu.
Ja jestem Tomek Bilecki. Dzisiaj wraz ze mną Michał Dziwisz, Paweł Masaczyk i Paulina Gająch.
Witajcie.
No i oczywiście jak zwykle zaczynamy od tego, co dzisiaj będzie się działo,
A to, co się dzisiaj będzie działo, jak zwykle przedstawi Michał.
Wakacje składkowe w ZUS, a refundacja składek z PEPHRON.
NVIDIA 2024.4 wydany.
Nowości w systemach Apple.
ECOVISION. Kolejne inteligentne okulary dla niewidomych.
Nowości od Clouda.
Sztuczna inteligencja może już obsługiwać komputer tak jak człowiek?
Konwerter tekstu na wydarzenia do kalendarza.
Nowy voice design w Eleven Labs.
Apple zaprezentowało nowego Maca Mini.
Wszystko, a pewnie jeszcze więcej już za chwilę.
Zaczynamy!
Tyfo Przegląd jest audycją prowadzoną na żywo,
więc serdecznie zachęcamy Państwa do współtworzenia go razem z nami.
Oczekujemy na wiadomości głosowe na WhatsAppie
oraz połączenia telefoniczne pod numerem 663-883-600.
Powtarzam, 663-883-600.
Oraz zapraszamy Państwa do wyrażania komentarzy w formie tekstowej poprzez formularz na stronie kontakt.tyflopodcast.net lub z poziomu aplikacji stworzonej na system Windows przez Dawida Piepera.
Odczytujemy również Państwa wypowiedzi zamieszczone pod transmisjami na Facebooku i YouTubie.
Staramy się też zaglądać na nasz tyflopodcastowy serwer Discorda.
No i zaczynamy. Będzie troszeczkę dzisiaj zmieniona kolejność, bo Paulina tutaj ma troszeczkę, no musi nas wcześniej pożegnać. I zaczynamy od właśnie newsów od Pauliny, czyli od nowości w dodatkach do NVDA.
Zgadza się, znalazłam dwie
takowe nowości, które mnie zaciekawiły i przyciągnęły moją uwagę.
Tak jak mówił Michał w swoim podsumowaniu, a w zasadzie zapowiedzi naszego dzisiejszego TVPrzeglądu.
Pierwsza rzecz to jest wtyczka
otyłocząca przy pomocy modeli sztucznej inteligencji.
To się nazywa AI Translator, ale właśnie przez ER na końcu.
Jest dostępna na githubie, link będzie w komentarzu.
No i cóż, na ten moment to jest wtyczka taka dość prymitywnowa, bo mamy tylko skrót do tłumaczenia zawartości schowka.
I ta zawartość jest nam przetłumaczona do osobnego okienka dialogowego.
No ale przeglądałam sobie właśnie ten kod, żeby sprawdzić tak jak ta wtyczka w ogóle wygląda.
No i okazuje się, że tak w zasadzie to mamy nagoło podane klucze do API, do tych modeli.
Ale właśnie zastanawiam się czy nie siąść i nie spróbować trochę może przy pomocy czata,
trochę może przy jakichś tam
podglądaniu wtyczki od
Janika Placciarda albo od
Aleksa Samosa, żeby czytać, żeby
działała ona tak jak te wszystkie inne wtyczki tłumaczące, czyli że
przełączamy sobie takim jednym skrótem i
wszystko to, co czytamy, to jest nam tłumaczone przez model językowy.
No aczkolwiek właśnie
To jest zjawisko, które już gdzieś tam poruszałam na
chyba w jednym z moich kącików wniosków sztuczno-inteligentnych,
że w kodach programów, które wykorzystują AI
na goło potrafią się trafiać klucze do tych modeli
i ludzie robią sobie z nich nieprawidłowe użytek.
Więc trochę zastanawiam się nad tym, czy człowiek po prostu nie wyłączy tego
w bardzo niedługim czasie
i obawiam się o to,
aczkolwiek, no, podmienić sobie wkładzie
kluczy na swój własny, to też nie jest jakiś
duży problem. Zawsze można sobie wygenerować
i będzie działało. Tak, więc
nawet jeżeli podmieni, no to w zasadzie
nic nie stoi,
nic nie stoi na
przeszkodzie, szkodzi na przestoju
przejeżdżenie, żeby
sobie swój własny
wprowadzić.
Natomiast druga rzecz
o której chciałabym słowo rzec, to jest
leciutko ulepszone z Pitch History
jest
w zasadzie tylko na jakimś
freeboxie
nie wiem co to jest, jakiś hosting plików czy coś
ale link też będzie
jest umieszczona wtyczka, ulepszona przez kogoś kto podpisuje się jako Alex
i tam
Mamy jeden dodatkowy skrót, czyli Shift F10, czyli to jak Shift F11 i F12 możemy sobie przechodzić po historii i F12 kopiować, to jeszcze mamy Shift F9 i to jest taki skrót, który pozwala nam przeglądać wszystkie elementy naszej historii w okienku dialogowym,
którym możemy przeszukiwać, możemy je całe kopiować.
Więc przydatna nowość, jeżeli lubimy sobie zbierać dużo elementów do historii
i szukamy czegoś konkretnego, wtedy już nie musimy
scrollować tego jednym tym skrótem, 6F11,
tylko właśnie bierzemy sobie całe okienko
i przeszukujemy je jak zwykły plik tekstowy na przykład w notatniku
albo stronę w przeglądarce.
Drugi news od Michała dotyczy też niejako czegoś, co nam będzie coś czytało, ale tym razem chodzi o mapy Google, bo do tej pory mapy Google, jeżeli ktoś używał, no to mówiły do nas głosem nagranego lektora, były sample i teraz to się zmienia.
Tak, teraz to się zmienia. Jarosław Juszkiewicz pożegnał się na Facebooku z użytkownikami Map Google.
Zamiast jego głosu pojawiła się synteza mowy generowana w czasie rzeczywistym.
Albo prawie rzeczywistym, no bo to ciężko stwierdzić.
Chociaż myślę, że jednak to jest generowane na żywo przez Google i nam podsyłane.
Na temat jakości tej syntezy, no to sporo głosów krytycznych się pojawiło, ja mogę powiedzieć, że o ile rzeczywiście barwa tego głosu, jego jakość, czyli chociażby odpowiednia ilość wysokich tonów, nie jest najgorsza, o tyle intonacja i sposób jak ten głos mówi jest bardzo ponury.
no nie jest to najlepsze, co mogliśmy i czego mogliśmy sobie życzyć w mapach Google,
a z racji tego, że większość osób korzystających z tej nawigacji to nie byli niewidomi,
a są to osoby widzące, to też się podniosły protesty.
Zresztą już jakiś czas temu te protesty się pojawiły,
bo już tak jej zamysł Google miało, zdaje się, dwa lata temu, kiedy to…
Ale nie wiesz, czy to jest ten sam głos, co w Google’ach mówi, niektórzy go mają…
Wiesz, to mam wrażenie, że to jest jakaś bardzo podobna rzecz. Tak, tak.
Czyli ja mogę pokazać ten głos, bo może nie każdy zna ten głos.
No to jeżeli masz możliwość szybkiego pokazania, to…
Mam, tylko to będzie z głośnika smartfona.
No jasne, ale no powinno być.
Pogoda w Warszawie.
W Warszawie mamy 13 stopni i zachmurzenie.
No, także tak to brzmi i podejrzewam,
jeżeli to jest ten sam głos, no to on jest faktycznie taki.
No taki sposób, taki sposób mówienia
a daj mi spokój.
Dokładnie tak.
Czego ty ode mnie chcesz?
Także, jeżeli on ma
skręć w lewo, no to…
No nie jest to, powiedzmy sobie szczerze, nie jest to najlepsze co Google mogło dać użytkownikom, zwłaszcza użytkownikom widzącym, którzy nie są przyzwyczajeni do tego, że synteza im w jakiś tam sposób mówi.
Ja napisałem zresztą nawet takiego posta na Facebooku, że ja tam za Jarosławem Juszkiewiczem w nawigacji Google absolutnie nie płaczę i zresztą zaraz powiem dlaczego.
Natomiast reakcje użytkowników portalu Marka Zuckerberga były bardzo różne. Większość jednak płacze.
I większość rzeczywiście jest niezadowolona z tego, że ta zmiana nastąpiła, natomiast ja powiem pokrótce dlaczego ja nie i uważam, że to w konsekwencji i w dłuższej perspektywie przyniesie, zwłaszcza niewidomym, albo inaczej może przynieść niewidomym, zdecydowanie więcej dobrego niż złego.
Przede wszystkim pamiętajmy o tym, że te sample, które pojawiały się w nawigacji Google, to był jakiś skończony, ograniczony i nagrany bardzo dawno temu zestaw komunikatów.
Ten zestaw po prostu cały czas się pojawiał i nic innego nie mogliśmy usłyszeć z samej nawigacji.
Oczywiście wiadomo, zawsze możemy się wspierać voice-overem, no ale zdecydowanie fajniej, gdyby ta nawigacja do nas przemawiała i z siebie generowała odpowiednie komunikaty.
Które to zresztą wcale nie były jakieś bardzo intuicyjne, no bo na przykład słynny komunikat kieruj się na południe, no okej, może niektórzy potrafią i szybko odnajdować kierunki geograficzne na zawołanie,
Ja nie mam tych zdolności i zdecydowanie wolałbym, żeby zawsze nawigacja mówiła mi skręć w lewo, skręć w prawo, a nie kieruj się na południe.
A potem mówi, tak? Tylko…
Nie, no tak, tylko wiesz, to znaczy, ja mam wrażenie, że mówi tak bardzo różnie. Czasem powie ci skręć w lewo, skręć w prawo i to jest okej, a czasem powie ci kieruj się na północny wschód.
No i w takiej sytuacji…
na początku albo jak się rusza po jakiejś dłuższej przerwie, bo nie wiadomo jak te…
No bo problem cały polega na tym, że jak tu skorzystać z kompasu, kiedy nie
wiadomo jak jest telefon zorientowany w stosunku do kierunku jazdy, więc na
początku trochę nie wiadomo o co mu chodzi.
Tak.
Pytanie, czy nie ma tego napisanego, że jest na jakimś ekranie właśnie kompas,
jest wyświetlony, że północ jest tu, a ty się kieruj tu.
O ile wiem, to nie, chociaż mogę się w tej kwestii mylić,
na pewno nie jest to dla nas tak prosto dostępne.
Więc tu jest podstawowy problem, który, żeby nie było,
w tym momencie nie jest rozwiązany. Tak generalnie to praktycznie
nic nie jest rozwiązane, ale rozwiązany być może,
bo teraz synteza jest generowana po stronie serwerów Google, a już nie trzeba nikogo prosić o nagranie dodatkowych komunikatów,
które będzie można wrzucić do tych map i cieszyć użytkowników.
No słynne chociażby zjeść z ronda na drugim zjeździe w nawigacji pieszej.
Też na przykład taki typu komunikaty się pojawiały.
no to nie jest też coś, czego ja bym
sobie jakoś tam życzył, skoro jest
nawigacja piesza, no to fajnie, żeby to jednak w inny sposób było
podawane.
Ale ja mam jeszcze jeden, no, taki, taką nadzieję
troszeczkę, zobaczymy, czy to będzie
jakoś tam. W każdym razie
mam trochę, no, taką właśnie nadzieję, że
być może ten głos się poprawi.
że on nie będzie taki ponury, no bo przecież w gruncie rzeczy, na przykład to co oferuje Microsoft jako marek, gdyby głos Marek z Microsoftu mówił skręć w prawo, to nie byłoby to złe tak naprawdę.
Oczywiście, że tak i Google potrafi.
Więc da się zrobić głos, który jest okej i Google mógłby, tylko z jakiegoś powodu nie robi.
Ja myślę, że to jest wszystko kwestia czasu, oni to na razie po prostu użyli to, co mają i gdzieś tam ewentualnie jest na jakiejś mapie rzeczy do zrobienia.
Dobra, poprawmy Polakom syntezę. Kiedyś.
Tylko, że zastanawiam się, skoro już ta synteza jest w Google, to czy oni będą chcieli cokolwiek z nią robić, no bo w sumie co?
Skoro wrzucili ten produkt, który jechał gotowy do Google, a to nie jest żadna beta, żadna, nie wiem, nic, co ma kilku użytkowników i tyle,
no to chyba już, chyba już trochę uważają to, że zrobione.
Wiesz co, tylko, że Google cały czas pracuje nad syntezami.
I oni cały czas rozwijają tę swoją platformę.
Co prawda niestety nie jest to widoczne w przypadku polskiej mowy,
ale bardzo, no może nie bardzo często, ale dość regularnie
widzę jakieś informacje o projektach badawczych, także oni mają zespół,
który rozwija syntezę, więc ja podejrzewam, że jest to jakiś tam
no efekt, który być może za jakiś czas nas czeka, natomiast wiecie co, ja bardziej jednak liczyłbym na to, że ta synteza zacznie do nas mówić komunikaty, które będą jeszcze bardziej użyteczne i to jest moje największe rozczarowanie tym, co obecnie oferuje nam nawigacja od Google’a,
bo w tym momencie, to absolutnie poza tym, że wyrzucono ludzkiego lektora to nie zmieniono tych komunikatów.
Dalej są zjazdy na rondzie w nawigacji pieszej, dalej są te kierunki geograficzne, które niewiele nam mówią w czasie tej pieszej nawigacji.
Jedna jest zmiana, mianowicie jeżeli na przykład mamy jakiś obiekt, do którego nawigujemy i on jest zamknięty, to pojawia się taki komunikat, który kiedyś był widoczny tylko w wersji tekstowej, że ten i ten obiekt jest zamknięty i kiedy do niego dotrzesz, no to może jeszcze być zamknięty.
Więc to jest jedyna zmiana, która na ten moment miała miejsce.
Nie uważam, że ona jest jakaś spektakularna, natomiast po prostu pozostaje czekać, aż zostanie to jakoś rozwinięte i mam nadzieję, że rzeczywiście to nastąpi.
No możliwości teraz są, kiedy mamy syntezę zamiast sampli.
No to jest taki efekt uboczny, który tu powstał, uboczny jak uboczny, myślę, że najbardziej zamierzony z naszej perspektywy uboczny, bo nas najbardziej interesuje oczywiście język polski, natomiast dużo nowych języków doszło, gdzie wcześniej Google się jakoś nie postarało o to, żeby wynająć lektora, takim przykładem, który wyczytałem na Astrodonie w tym tygodniu jest język grecki, gdzie ta synteza też, z tego co pisze jeden z użytkowników, jest jaka jest, ale jakaś jest.
Dokładnie. Też pojawiły się głosy, że dlaczego nie sklonowano głosu lektora Jarosława Juszkiewicza?
Czemu nie poszło Google tą drogą? Tylko tak z drugiej strony ja wiem, że Google to jest firma, którą stać praktycznie na wszystko,
ale ktoś tam jednak, mam wrażenie, też siedzi z arkuszem i odpowiednio przelicza, a tych głosów to było, myślę, całkiem sporo jednak.
I teraz chcąc zapłacić wszystkim za to, że mogę używać waszych głosów w swojej aplikacji,
to na pewno nie byłaby ta cena, którą płacono za nagranie kilku komunikatów.
To zdecydowanie większe pieniądze, a jeszcze niektórzy by się nie zgodzili.
Tu się już myśli w takich sytuacjach jednak globalnie, a nie lokalnie.
Dokładnie. Poza tym, jak nie wiadomo o co chodzi.
Oczywiście, to chodzi.
Najczęściej, więc to naprawdę może być kwestia jakichś umów, czegoś, jednak synteza to jest coś, co oni mają pod kontrolą, a nie jakieś sample, które być może ktoś by coś chciał, bo to też nie wiemy, na przykład czy nie było jakiejś afery w jakimś kraju, która doprowadziła do czegoś takiego, albo ktoś tam coś chciał z umową i Google, nie wiem, to tak możemy sobie gdybać, ale nie wiadomo.
Tymczasem mamy telefon, więc odbierzmy telefon od Mateusza.
Dobry wieczór Mateuszu.
Dobry wieczór, witam serdecznie w Tyflu Przyglądzie.
Ja tak chciałem jeszcze zahaczyć o parę poprzednich audycji związanych z ESEC-em.
W jednej audycji kilka tygodni temu mówiłem o ESEC-ie i o niedostępności.
No, raczej się to nie zmieniło, to znaczy ISET jako taki program antywirusowy tudzież pakiet ochronny, on jest w miarę dostępny, nie jest różowo, ale obsłużyć się da, czy to z NVIDIA, czy z DOS-em, czy z DSR, z każdym czytnikiem ekranu to jakoś chodzi i jest obsługiwane.
Natomiast już Wam przekładam na ludzki język, co się zmieniło w ISET-cie w wersji 1801, która się we wrześniu ukazała.
Mianowicie zmieniło się to, że po prostu ISET po wykryciu przez instalatora, że korzystamy z NVDA, z JOS-a lub z narratora,
Importuję regułę HIPS, która pozwala nam na wejście screenreadera do tego systemu HIPS, który nas chroni przed, że tak powiem, niebezpiecznymi wykorzystaniami z klawiatury, wykorzystywaniami klawiatury jako kilogerami i możemy bez problemu już przy instalacji korzystać z tego systemu.
interfejsu, który nam importuje regułę z XML-a, z plików tymczasowych bezpośrednio do program Files.
I to są te poprawki dostępności, bo w część dogu jakoś to enigmatycznie zostało napisane,
więc śpieszę z wyjaśnieniem, o co w tym chodzi.
Dostępność jest na takim samym poziomie jak była, nie jest to najgorsza dostępność, ale do takiej najlepszej dostępności jeszcze jej brakuje, co nie znaczy, że programu nie da się obsłużyć, to taka pierwsza myśl, a druga myśl, która mnie troszeczkę rozczarowuje,
No to mówiłem, ten iSET VPN jest w ogóle niedostępny dla czytników ekranu,
chociaż producent zapewnia mnie, nie wiem, czy to jest rzeczywiście,
czy rzeczywiście producent się z tego wywiąże,
że jakby dostępność tego VPN-a,
bo dodajmy, że ten VPN jest podnajmowany przez firmę Winescribe Limited,
limit, będzie zrobiona, że tak powiem postarają się na
przyszły rok to zrobić na rok, 2025 A przypomnijmy Jakie to
jest, WPN.
To jest, Winescribe, więc 3B limited to można na YouTube
wpisać ja wpisywałem, Jegor przez Y, Egor Sack, Jegor Sack
To jest Białorusin, który ma, znaczy Kanadyjczyk w zasadzie, jego rodzice są Białorusinami, wyemigrowali do Kanady i po prostu ISEP jego usługi wynajmuje.
Oni nie mają swojego VPN-a, tylko oni od niego wynajmują VPN-a.
W sumie nie wiem, bo dla nich to jest za drogie, nie mają pewnie własnej infrastruktury, chociażby było ich na to stać.
nie wiem może globalnie ich na to to już wiesz myślę, że to
jest akurat mało istotne kwestia jest po prostu taka
, że dla nas ten VPN na razie nie jest nadal dostępny tak
chociaż no właśnie właśnie chodzi o to, że trochę głupio
, że i set nie szanuje, no już klientów konsumenckich no
to tam powiedzmy pol go sześć bo dopiero od niedawna weszło
do nas do Polski to rozwiązanie i set security ultimate
które zawiera tego VPN-a, bo to w ogóle rozwiązanie na całym świecie było dostępne w listopadzie,
ale głupio trochę, że inset nie szanuje klientów biznesowych.
To się zgadza. Natomiast Mateuszu, czy tu jeszcze coś a propos tych rzeczy, bo ty o tym mówiłeś już.
Tak, chciałam powiedzieć, że właśnie inset, z tego co ja wiem, zapewni nas, że to będzie w 2025 roku.
Ja jeszcze ich cisnę jako Dagma i jeszcze będę to z Isetem o tym rozmawiał na ten temat.
Natomiast Paweł tutaj wspominał o ekspresie Jura, że jest to aplikacja dostępna.
Znaczy mają być poprawki związane z dostępnością.
Tak się składa, że ja korzystam z ekspresu do kawy namiętnie, z Jury.
I chodzi o to, że aplikacja jest dostępna, można zrobić praktycznie większość kaw
tą aplikacją i kawy cold brew, znaczy z wyjątkiem kawy cold brew, czyli przyrządzanej na zimno,
z wyłączeniem grzałki, prawda, z pominięciem grzałki zapażyjącej,
tudzież bloku zapażyjącego, ale tutaj w tej dostępności
to Pawłowi chodziło o to, podejrzewam, że Express,
jeżeli to się potwierdzi, co Paweł mówi i na antenie Oxytude,
co było mówione, to Express będzie można za pomocą tej aplikacji
odkamienić, tudzież oczyścić z olejków kawowych,
tudzież inne czynności konserwacyjne zrobić,
bo dodajmy, że osoba niewidoma nie jest w stanie
w ogóle z wyświetlacza tych czynności konserwacyjnych zrobić.
I oto pewnie były prośby i protesty, żeby osoba niewidoma
większość czynności jednak mogła tych konserwacyjnych
zrobić przy pomocy ekspresu także tutaj jednak no Pawłowi o to chodziło a Jura jest
naprawdę jeśli chodzi o ekspresy premium to jest jedna z renomowanych mark
tak jak WMF, tak jak Scherer, oni mają praktycznie te same części bo części są
sprowadzane najprawdopodobniej z Niemiec a montowany jest ekspres w Szwajcarii
przynajmniej te modele Z8, J8, J6, te najwyższe, są montowane w Szwajcarii,
a modele ELNA w Portugalii, także to są ekspresy marki premium.
Ekspresy Jura kupują nie tylko konsumenci, ale i restauracje różnego rodzaju,
jakieś bary gastronomiczne, gdzie ich stać na to, żeby kupić ekspres wysokiej klasy.
No tak, bo te ekspresy nie są tanie.
I naprawdę zaświadczam wam, że mój A-Express, oczywiście ja go kupiłem zupełnie nowy, z fabryki, nie psuje już mi się od trzech lat i mam go na gwarancji, bo miałem bardzo dużą promocję, że do 2025 roku, do 26 lipca jeszcze mam gwarancję na A-Express.
i myślę, że po gwarancji będziemy długo i długo służył.
Nic w nim się nie zepsuło, poza tym, że go trzeba było przejrzeć
i tam dogłębnie wyczyścić przez człowieka tam do loty w samym środku ekspresu,
bo po prostu mi tam mleko skisło.
Ale poza tym, że mi mleko skisło,
Ekspres naprawdę sprawuje się bez zarzutu.
Ja nie mogę na Ekspres narzekać.
No czego o firmie DeLonghi i o firmie Philips nie mogę dobrego słowa powiedzieć, bo mi się te ekspresy zepsuły.
Jeden mi się po pięciu latach zepsuł, Saeco, a drugi po dwóch.
Także strzelam za słowo firmy Jura. Myślę, że poprawią te błędy i naprawdę te ekspresy dla niewidomych będą coraz bardziej dostępne.
No i że dodadzą też kawę cold brew do aplikacji, bo na razie z poziomu aplikacji kawę cold brew nie można zrobić, ani również odkamienić ekspresu zarówno, tudzież wyczyścić go z olejków kowowych.
Ale myślę, że te błędy zostaną niedługo naprawione.
Dobrze Mateuszu, to w takim razie dzięki Ci za te informacje, też byśmy sobie tego życzyli.
Teraz myślę, że przejdziemy dalej. Jeżeli będziesz miał jeszcze jakieś tematy, to zadzwoń do nas potem, bo jeszcze…
Nie, na pewno nie, nie będę, bo to są tylko tyle tematów, które chciałbym poruszyć, a nie przeszkadza mi Wam, przejdźcie sobie dalej. Pozdrawiam.
Dobrze, dziękujemy Ci bardzo za telefon, do usłyszenia.
Tak trochę tutaj gonię, bo wiem, że Paulinę też goni.
Ja może tylko powiem, że ja nie miałem nic konkretnego do myśli podając tego newsa, ja czytałem to co przetłumaczyłem, więc bardzo możliwe, że czegoś w tłumaczeniu nie wychwyciłem, ja też tego ekspresu nie posiadam, więc temat typowo podałem z drugiej ręki, no ale miejmy nadzieję, że sytuacja się potoczy tak właśnie, że właściciele tych ekspresów będą zadowoleni.
Ja to zinterpretowałem, że chodziło o dostępność, ale skoro aplikacja już jest w pełni dostępna, tylko funkcji jej brakuje, no to tutaj nad osobami widzącymi, w stosunku do osób widzących, na straconej pozycji nie jesteśmy.
No i teraz właśnie to małe zachwianie, że tak powiem, newsowe. Kącik newsów sztuczno-inteligentnych jest z reguły u nas w tej już części typowo technologicznej, w technikaliach.
No ale dzisiaj Paulina właśnie musi wcześniej z nami się pożegnać, więc cóż, Paulino, dzisiaj dla nas przygotowałaś.
Duży kącik to i duże zachowanie, ale no w sensie no nie takie duże jak czasami, ale no myślę, że kilka fajnych rzeczy i spostrzeżeń wyłowiłam z internetu z tego tygodnia, także zapraszam.
Pierwsza rzecz
o której dzisiaj opowiem to są newsy ze
Seni Antropic, czyli
dewelopera modelu Clod.
Jest
zaktualizowany model 3.5 Sonnet
który
nie jest dostępny w
bezpłatnym planie
przynajmniej dla mnie nie był
jak sobie chciałam go sprawdzić
i dostałam komunikat, że
tylko, że Sonneta
aktualizowali. O tym mówię, że on był, ale go teraz odświeżyli.
I teraz
dostałam komunikat, że nie są w stanie
z tym obciążeniem obecnym, które teraz jest, no bo wiadomo, ludzie testują,
zapewnić wszystkim ludziom tego 3.5 Soneta, więc przełączyli mnie na coś, co
nazywali 3.5 HIQ i to jest też jakiś taki nowy model.
Który, no podejrzewam, że to jest coś mniej więcej jak cztery Omini.
Oni uważają, że to jest mniejsze głowy, ale szybsze.
No i w zasadzie inteligencją i jakimiś takimi jakością odpowiedzi
dorównuje temu staremu Opusowi.
Więc gdzieś tam sobie rozwijają.
Ale to, co mnie zaciekawiło najbardziej,
Ale to czego jeszcze niestety nie jestem w stanie przetestować, to jest to, że udostępniono API dla programistów, które jest w stanie interagować z kontrolkami systemu komputerowego tak jak człowiek, czyli klikać przyciski, wpisywać tekst z przeciąganiem i upuszczaniem jest jeszcze trochę problem,
ale tam przewijać, nie wiem, coś zaznaczać i tak dalej.
A co jeszcze ciekawe, ludzie robili sobie testy i sprawdzali,
co się stanie, jak połączą po jakimś tym biurze czy innym
narzędziu do zdolnej kontroli iPhona i każą mu coś na tym iPhonie klikać.
No i faktycznie obeszli to, że na telefon takiej funkcji nie ma,
no ale zdolnie łącząc go z komputerem byli w stanie
nie przymusić model do pracowania z telefonem.
Więc myślę, że otwiera się dla nas spora furtka.
Jeszcze co prawda właśnie mało osiągalna, bo z jednej strony są tylko te API i nie
możemy tak sami bez znajomości programowania
zasięgnąć tego zasobu, a z drugiej strony jest to jeszcze mocno nie
przetrenowany i podejrzewam, że
tak naprawdę więcej niż my jesteśmy w stanie zrobić,
no to ten model też nie będzie w stanie, bo ani jakieś przeciąganie, upuszczanie,
ani podejrzewam, że nie byłby w stanie obsługiwać
jakichś ręcznie malowanych interfejsów czy czegoś w tym stylu
i na to będziemy pewnie musieli poczekać.
Z drugiej strony skoro był w stanie obsłużyć
iPhona połączonego po zdalnym TeamViewerze,
to może i, no nie wiem w sumie, ale, no ale jest to coś co warto obserwować.
Coś co może nam np.
pomóc z niedostępnymi aplikacjami, z graniem w gry, z automatyzowaniem rzeczy
które są dla nas trudne, bo np.
trzeba, nie wiem, zapamiętywać który niepodpisany przycisk to jest ten do
zrobienia tej rzeczy i tak dalej, więc no myślę, że może to być dla nas jakaś tam
rewolucja, jeżeli już będziemy mogli mieć do tego szerszy dostęp.
Natomiast druga rzecz od Entropica, już taka trochę mniejsza,
na którą trafiłam przed chwilą, to jest taka, że
dostaliśmy jako feature preview,
czyli właśnie jakąś taką betę, narzędzie do analizy,
w którym możemy sobie uruchamiać kod Javascriptu
i poza tym, że możemy współpracować nad kodem Javascript i on będzie uruchamiany i sprawdzany,
to możemy też wysyłać jakieś pliki PDF z danymi, albo jakieś inne pliki z danymi
i w Javascriptcie model będzie pisał kod, który pozwoli na tworzenie jakichś talentów, wykresów kołowych
i innych reprezentacji tych danych, wizualizacji itd.
Pytanie w sumie jak to nam się przyda, ale no myślę, że najsensowniej byłoby to sprawdzić z tym płatnym planem, a zamiast kupować płatny plan to sobie poczekam aż firma mi go wdroży do mojego pakietu, więc jak już będę mieć to podzielę się jakimiś spostrzeżeniami.
Ale to, co mnie naprawdę zaciekawiło i to chyba będzie dla mnie gamechanger, byliby mi tego nie wyłączyli, bo takie rzeczy lubią szybko padać, to jest coś, co nazywa się Agenda Hero Magic.
I to jest taka, no też jakaś sztuczna inteligencja na pewno musi za tym stać, że wchodzimy sobie na tą stronę, która jest podana, czyli agendahero.com.magic
Wpisujemy sobie jakiś tekst albo dodajemy jakiś plik, dajemy tam make a magic, czy jak to się tam nazywa ten przycisk
i dostajemy po prostu z tego tekstu wyodrębnione wydarzenia, które możemy sobie wszystkie za jednym machnięciem,
za jednym kliknięciem zaimportować do na przykład naszego Google’a, do naszego Outlook’a
Albo też widziałam funkcję adder, tylko że ona mi nie chciała zadziałać.
To pewnie jakiś plik ICS będziemy w stanie sobie stamtąd wyjąć.
No bo właśnie jak to działa? Działa to tak, że wrzucamy jakiś tekst i są tam informacje o tym,
gdzie jest jakie wydarzenie, kiedy, o czym ono jest, kiedy się kończy.
No i na tej podstawie są tworzone wydarzenia na podstawie tych szablonów takich,
które już są ustandaryzowane dla Google’a, dla Outlook’a, dla formatów iCall.
I dzięki temu jesteśmy w stanie sobie szybko, nie wiem, wrzucamy jakiegoś maila,
w którym mamy, że no to cześć, zapraszam Cię na to wydarzenie, na to wydarzenie,
jeszcze na to. No i cóż, zamiast się bawić w ręczne tworzenie wydarzeń,
to po prostu wrzucamy je na tą stronę tego maila i mamy wydarzenie już od razu gotowe.
To, co mnie od razu tak jakoś troszkę zniechęciło, to było to, że był link podany w wydarzeniu,
ale nie był on zawarty w location, czyli na edycji lokalizacja zostało puste,
No ale wiadomo, da się to edytować, więc na upartego mogłabym po prostu przekopiować to do tego pola i dopiero wtedy wyeksportować do Google’a.
No ale to jest coś, co chętnie bym zobaczyła, więc pewnie będę się do nich odzywać, żeby to wprowadzili.
I to naprawdę może być fajne, jeżeli macie np. na jakiejś swojej uczelni, w jakiejś szkole
Wydruk, albo plik PDF, albo plik Excela
Z planem zajęć, z jakimiś spotkaniami w pracy, z jakimiś innymi rzeczami, których coś wam po prostu wypisał w tekście
A lubicie flow kalendarza, no to to jest narzędzie dla was
I na ten moment już jest jakkolwiek używalne
Mogłyby być lepsze, ale jak na to, że jest darmowe, jak na to, że jest bez rejestracji, jak na to, że jest szybkie, proste i dostępne, no to dla mnie to jest super.
Nowy voice design w Eleven Labs.
Miałam o tym zrobić jakąś dłuższą prezentację, miałam zrobić taki jakiś Halloweenowy głos, który będzie reklamował na Sztyfla Przegląd, ale powiem wam, że to jest dla mnie do kitu, bo tak naprawdę o co chodzi?
Chodzi o to, że Eleven Labs zrebrandował swój voice design.
Jeżeli pamiętacie, to kiedyś było tak, że wybierało się akcent, wybierało się wiek, wybierało się płeć, no i się dostawało głos.
No i w zasadzie tyle można było z tym zrobić.
Natomiast teraz jest bardzo pięknie, wchodzimy sobie w ten voice design, oczywiście musimy być użytkownikiem alfa.
I wchodzimy sobie w ten voice design i dostajemy pole edycji.
Co prawda ono jest takie troszkę mało dostępne, w ogóle cały ten interfejs jest trochę mało dostępny.
O ile ten filmik marketingowy naprawdę bardzo mi się podobał.
Tam człowiek sobie wpisywał, i to naprawdę, w sumie dostępne te filmiki marketingowe robią.
Człowiek sobie wpisywał złośliwy ogr, czy tam wkurzony ogr.
I mu wyskakiwał taki naprawdę głos, taki gruby, taki tego.
Taki właśnie typowo ogrowy, bajkowy.
Potem jakąś myszkę i taka podobna jak myszka Miki się wygenerowała.
Natomiast no ja to testowałam. Właśnie chciałam zrobić jakąś taką
jakąś prezentację, no ale w ogóle
no słabo, słabo to wygląda.
Tak, też mam podobne odczucia.
Po pierwsze te głosy bardzo łatwo się nawet na
nawet na preview, które miało z 500 znaków
to już zaczął mi się ten głos tak, nie wiem jak to nazwać ładnie po polsku, ale zaczął po prostu mieć artyfakty już pod koniec, te takie stare, które znamy z tych starych modeli głosowych, tego V1, czy jak to się nazywało, to właśnie mi się to przypomniało słuchając tych głosów.
Druga rzecz jest taka, że w zasadzie pomimo, że pisałam po angielsku te prompty, oczywiście nie żeby po polsku, bo po polsku to bym testowała dopiero jak, jakbym sprawdziła, że to dobrze działa po angielsku, a nawet po angielsku to nie chciało działać dobrze, bo wpisałam jakąś śmiejącą się wiedźmę i w ogóle dwa z tych nagrań to były nagrania męskie i jakby jeden to był taki nerd z otrzymaczem, taki po prostu, a drugi to był taki zwykły gość z grubym głosem, który
głosem. To nie były w ogóle w żaden sposób przerażające
głosy, a napisałam, żeby to był przerażający
głos, więc to w ogóle
według mnie nie chce działać zbyt dobrze.
Nawet takie bardzo zdawałoby
się standardowe rzeczy,
na przykład niski,
zadowolony głos, dobry do reklam
czy jakoś coś tego typu,
to też mi wygenerował
kogoś z jakiegoś
mikrofonu komputerowego
go wcale nie miał niskiego głosu i wcale on nie był radosny, tylko jakiś taki zwykły, więc to mam wrażenie, że im nie wyszło, bo nawet do takiego bardzo, do takich standardowych właśnie rzeczy, typu
jakieś intro, jakiś głos w jakimś filmiku z prezentacją, to nawet do tego to się nie nadaje, ten nowy voice design, moim zdaniem.
No a trzecia rzecz, że to jest naprawdę słabo dostępne, testowałam i z Chrome’em i z Firefox’em, żeby wam powiedzieć jak to działa, no i na Chrome’ie jest taka rzecz, że jak wchodzimy w create a new voice, to zostajemy tylko z opcją voice design, więc nie możemy sobie sklonować głosu tak jak kiedyś, jeżeli nie mamy linka.
Yy.
Jedyne jak się da do tego wejść,
to jest OCR.
A pod klawiaturą, no chyba, że ja nie umiem
używać czytnika ekranu, ale
ani tabem, ani obiektówką,
ani pełny
ekran, ani nic nie dawało, po prostu,
żeby móc wybrać tę,
wybrać te pozostałe opcje.
Więc zostaje nam tylko ten nowy voice design.
No i co?
Wchodzimy sobie w niego.
Mamy dwa pola edycji.
Jedno to jest prompt, a drugie to jest to, co te głosy mają wypowiedzieć, czyli preview.
I co ciekawe, ten preview może już być po polsku.
Tak, to prawda. I to też miałam w sumie powiedzieć, ale zapomniałam, także dzięki.
I ogólnie jest tak, że po tych polach edycji bardzo słabo się nawiguje,
bo jak się czyta strzałkami góra-dół, to jest czytany tylko pierwszy znak,
A jak się chodzi lewo-prawo, to jest czytane całe pole edycji i jesteśmy albo na jego
początku, albo na jego końcu, więc bardzo słaba jest nawigacja po niewidomemu, więc
najłatwiej jest, jeżeli piszemy te preview takie dłuższe, to wpisywać je sobie w
notatniku i kopiować tam dopiero.
Natomiast kolejna rzecz jest taka, że ja się złapałam na to, że po prostu napisałam
sobie w preview jakieś w stylu to jest test, zobaczymy jak to działa.
Ale nie spełniło to wymogu, żeby wpisywać
w preview tekst, który ma od stu do tysiąca
znaków, tylko że w żaden sposób nie zostało mi to zakomunikowane do screenreadera,
bo tak naprawdę przycisk generate voice, czyli stwórz głos,
Jest dostępny, jak dla mnie, tylko wtedy, kiedy mamy w trybie formularza
na szczytnik ekranu nasze NVDA i tabem najedziemy na ten przycisk.
Natomiast spod strzałek, spod nawigacji po przyciskach on nie jest dostępny.
No a właśnie co gorsza, możemy sobie czekać w nieskończoność,
jeżeli nie wstrzeliliśmy się w ten limit znaków, bo nie zostanie nam to w żaden sposób ogłoszone.
Jedyne gdzie się z tego dowiedziałam to przez OCR, ale jak już nam się uda wstrzelić w limit znaków, no to poczekamy chwilę i pierwszy głos nam powie to co wpisaliśmy w to pole edycji, no i też przemieszczamy się tabem i mamy głos 1, głos 2 i głos 3, przyciski opcji, które możemy sobie przełączać żeby słyszeć, żeby słyszeć te podglądy, no i później mamy przycisk, no zrób ten głos,
czyli wtedy nam się on pojawi na liście, jeżeli już wiemy finalnie, że będziemy chcieli go testować.
Więc to jest to. Jeśli chodzi o koszta, no to są pobierane nasze znaki za jeden podgląd,
czyli za tyle znaków, ile napisaliśmy w podglądzie do głosu.
Głosy generują się trzy, ale jest to pobierane raz.
I to jest tak naprawdę tyle co mogę powiedzieć przy okazji jak już patrzyłam na Eleven Napsa to sobie skorzystałam z tego conversational AI, ale to nie wiem czy nie było opisywane kiedyś już, bo to jest nie taka nowa funkcja.
To chyba wszystko.
Znaczy nie, bo zapytałam się, czy było opisywane i nikt nie odpowiedział.
Ja próbowałem tam wejść jeszcze raz w tego Eleven Lapsa, bo ja aż takich problemów nie miałem.
I nie wiem, czy to zostało pogorszone później, czy to zostało poprawione, bo nie wiem, kto z nas sprawdzał później te funkcje.
Ja sprawdzałem dzisiaj.
Aha, to ja znaczy wcześniej, więc to chyba musieli pogorszyć.
Ja sobie nie pamiętam dokładnie problemów, na które się nacknąłem, ale nie kojarzę, żeby one były aż tak duże, jak opisujesz.
Okej.
No, natomiast, a w sumie nie powiedziałem jeszcze o Firefoxie, że w Firefoxie jest jeszcze lepiej, bo jak się da create a new voice, to mamy tak naprawdę pustą, niedostępną stronę.
I tylko OCR-em jesteśmy się w stanie wklikać w tą opcję, która nas interesuje, albo tylko bezpośrednim linkiem.
Więc to to już jest kompletnie skopane.
Natomiast ten Conversational AI, który sobie przetestowałam dzisiaj, on już jest od jakiegoś czasu,
ale nie wspiera polskiego i w sumie jest słaba jakość z tego modelu, więc nie zachwyciło mnie to.
I to jest w sumie koniec newsów o Eleven Labsie.
Natomiast mamy jeszcze dwa newsy.
Pierwszy news jest o aferze w Offradio Kraków, którą nazwałam sobie roboczo offerą.
A mianowicie o co chodzi?
Offradio Kraków w tamtym tygodniu postanowiło przebranżowyć się w celach eksperymentalnych
na radio tworzone niemal w całości przez sztuczną inteligencję.
Zatrudniło sobie w cudzysłowie, w cudzysłowie znaczy się,
trzech prezenterów.
Był tam
Jakub Kuba Zieliński, który
pasjonował się nowinkami technologicznymi i produkcją dźwięku.
Była Emilia Emi Nowak, która pasjonowała się popkulturą i
No i taka po prostu, taka po prostu zwykła dziewczyna powiedziałabym i jeszcze Alex i to była osoba, która przybliżała kulturę queer i była aktywistą co do spraw społecznych, równości, płci i tak dalej.
No i o co chodzi? Chodzi o to, że ludzie podnieśli larum na to, że radio publiczne pozwala na to, żeby działała się manipulacja i żeby sztuczna inteligencja przejmowała stery tam, gdzie liczy się rzetelność, głęboka przekazu.
Ja myślę, że tu nawet nie o manipulacje chodziło, tu bardziej larum podniesiono dlatego, że sztuczna inteligencja zastępowała defektor ludzi.
To tak naprawdę przede wszystkim tu był problem, bo jeszcze o tej dezinformacji to tak naprawdę trochę później można było się przekonać.
Ale to pewnie do tego dojdziesz.
Tak, tak. Właśnie miałam to sobie ładnie, spójnie zgrać, dlatego w takiej kolejności to mówiłam.
No ale właśnie przede wszystkim chodziło o to zastępowanie pracy i był taki post Mateusza Dębskiego o tym, że kilkunastu ludzi mediów, osób twórczych, dziennikarzy, dziennikarek itd. straciło pracy.
dosłownie było powiedziane, że wyleciało z pracy w Ofradiu Kraków w związku z tym, że postanowiono oddać sterę sztucznej inteligencji.
No i właśnie on był takim przewodnikiem tego larum, mam wrażenie, tworzył petycję, pod którą podpisało się kilkadziesiąt tysięcy ludzi,
i żeby zrezygnowano z tego eksperymentu, że przez to, że to są media publiczne,
to w ogóle nie powinno się tak dziać, że jedna osoba sobie decyduje o tym,
że ludzie zastępowani są przez sztuczną inteligencję i z dnia na dzień tracą pracę.
Natomiast w oświadczeniu było napisane, że tak naprawdę
słuchalność offradia Kraków była bliska zeru,
A ludzie, którzy stracili pracę, no to tak naprawdę została z nimi rozwiązana umowa o współpracę.
A czy nie przedłużona jej?
Nie przedłużona, nie przedłużona, tak.
I w zasadzie było tam zlecenie na jedną audycję w tygodniu, po jednej audycji prowadzili sobie ci ludzie.
więc mówienie o
mówienie o tym, że ludzie wylecieli z pracy jest według mnie dość
przerostem formy nad treścią dość mocnym.
Dlatego, że jeżeli z jednego zlecenia na jedną audycję w tygodniu
człowiek piszący tego posta uczynił pracę, czyli umówmy się
człowiek jak słyszy, że ktoś wyleciał z pracy to ma takie aha, czyli teraz nie ma za
zażyć, nie ma swojego głównego źródła dochodu i jest zostawiony na lodzie tylko
dlatego, że jeden człowiek zdecydował sobie o tym, że zatrudni się do
inteligencji. Natomiast jeżeli off-radio Kraków pokrywały się tematycznie z
Radium Kraków Kultura i z Radium Kraków, słuchalność miało no właśnie niemalże
zerową i głównie była tam po prostu muzyka,
No to nie uważam, że właśnie to, że to jest medium publiczne, no to właśnie tym bardziej powinno zobowiązywać, żeby nie zostały wydawane pieniądze na coś, z czego ludzie nie korzystają.
tak, więc ci ludzie zostali, no nie zostały przedłużone umowy, no i cóż, zaczęła się era sztucznej inteligencji,
chociaż to jest troszkę na wyrost, były tam jakieś komentarze, że jest to otwarcie bramy do świata pozorów i manipulacji,
nie wiadomo czego jeszcze, no tylko że właśnie kto bardziej manipuluje, czy AI,
które tak naprawdę jest zwyczajnym…
jest zwyczajną barwą głosu, właśnie nie modelem językowym.
Nie modelem językowym, bo…
Tak, ale kto tam przygotowywał te rzeczy do…
Skrypty były przygotowywane
przez ludzi, którzy tam pracowali.
I tu właśnie zmierzamy, słuchajcie,
do sedna tego tematu,
do sedna sprawy, przynajmniej jednego wątku.
Zresztą my już na temat off-radia też rozmawialiśmy w ostatnim wydaniu RTV,
też myślę, że warto, żebyście sobie również i tej audycji posłuchali,
natomiast tak streszczając jeszcze tutaj i odnosząc się do tego, słuchajcie,
jeżeli rzeczywiście sztuczna inteligencja miałaby zawładnąć anteną radiową
i jeżeli rzeczywiście miałoby to mieć na celu optymalizację kosztów
i tanim kosztem chciano by dać słuchaczom naprawdę ciekawy produkt to ta sztuczna inteligencja tych trzech wirtualnych prezenterów powinno prowadzić ten program 24 godziny na dobę.
A tak naprawdę prowadziło przez sześć godzin dziennie, czyli po dwie godziny miał każdy z tych prezenterów.
mnie tylko zastanawia, ile czasu tak naprawdę trwało wygenerowanie skryptów
i poprawianie tego, żeby to jakoś sensownie brzmiało i żeby to rzeczywiście było
w miarę fajne i w miarę ciekawe.
Wcale się nie zdziwię, jeżeli przygotowanie takiego programu trwało dłużej,
może nie niż dwie godziny, tak, na jednego prezentera,
ale myślę, że człowiek, który by miał usiąść i nagrać tzw. voice tracki,
czyli po prostu wejścia wkomponowane w muzykę, pomiędzy muzykę, zrobiłby to sprawniej?
Być może, tylko trochę nie wiadomo. Ja mam jeszcze taką też kwestię, być może tutaj będę tutaj trącał jakieś, nie wiem, teory spiskowe, być może dla niektórych, być może, nie wiem,
Ale też mi się wydaje, że tutaj każdy dba o swoje, to znaczy, jeżeli sztuczna inteligencja, nawet nie sztuczna inteligencja, ale jeżeli do sklepu wchodzą, nie wiem, kasy samoobsługowe, kioski, które jednak sprawiają, że pracowników fizycznych potrzeba coraz mniej, jeżeli w magazynach jest coraz więcej też robotów, komputeryzacji, tego wszystkiego, co się już od dawna dzieje.
to media zazwyczaj nie podnoszą tutaj głosów takich, że, znaczy nie krzyczą, że ojej, źle się dzieje, bo tutaj jest zasada, tylko mówią, że no fajnie, bo teraz będzie szybciej.
Tak, no postęp, tak, będzie lepiej, fajniej.
Tak, natomiast jeżeli to wchodzi w działkę mediów, no to dziennikarze, no piszą, że no to już jest niefajnie, bo to dotyczy ich osobiście.
Dokładnie. I tu, Tomku, ja się absolutnie z tobą w pełni zgadzam, bo tak naprawdę, okej, to jeszcze nie jest ten moment, żeby sztuczna inteligencja była w stanie poprowadzić samodzielnie program w takim radiu, nawet komercyjnym.
Ja nie mówię już o audycji na miarę radia publicznego, która to jednak bardzo często jest zdecydowanie bogatsza w treść, jest lepiej przygotowana, no kilka osób czuwa nad taką audycją.
Ja nawet bym już tu postawił temat tej sztucznej inteligencji w takim radiu komercyjnym, żeby to były jakieś krótkie wejścia o niczym, która jest godzina, jakie radio i tak dalej i tak dalej.
Nawet tak proste skrypty, na chwilę obecną, ktoś musi przygotować, ktoś musi jeszcze przeczytać, sprawdzić, wygenerować, to się nie dzieje automatycznie i jeszcze takich narzędzi nie ma.
Być może, ale ja naprawdę czekam na radio, w którym będzie można, nawet niech to będzie przygotowywane, ale masz ileś muzyki do wyboru, jakby czego chcesz słuchać, masz ileś głosów do wyboru, którymi chcesz to mówić, ileś, powiedzmy, tematów, tak, bo nie wiem, kiedy chcesz mieć wiadomości, tak mniej więcej, i jak często, i jak długie, tak?
Chcesz mieć wejścia i na jaki temat, na przykład co piosenkę, co dwie, co trzy, jaka to ma być muzyka, jaki ma być, nie wiem, ten prezenter, czy jakiś taki stateczny, czy jakiś taki wesoły itd., itd.
Naprawdę, gdyby to było takie proste, to podejrzewam, że Spotify czy inne platformy streamingowe to już dawno by to zrobiły, żeby uatrakcyjnić słuchanie swoich produktów.
Proste to proste, ale też pytanie, no bo wiesz, to zawsze jest jak zwykle jak nie wiadomo o co chodzi, no bo wiesz, taki produkt musi się też spiąć finansowo, no bo jak się okazuje Spotify zrobi sobie playlisty wygenerowane i już, i tak ma słuchaczy, i tak dużo osób w samochodach teraz słucha za tego Spotify’a,
Więc być może niedługo nadejdą właśnie jakieś takie produkty, no zobaczymy, ale wydaje mi się, że jest na to szansa, znaczy mi się jakoś dziwnie wydaje, że…
Natomiast wiecie, jeszcze tylko nawiążę do jednego tematu, Radio GPT, to jest taka oferta dla amerykańskich rozgłośni radiowych, jak na razie i oni mają takie swoje radio demonstracyjne,
które ma pokazać, co to może.
I rzeczywiście brzmi to dosyć atrakcyjnie.
O, to naprawdę wejścia częste, muzyka i tak dalej, i tak dalej.
Tylko ja sobie tego posłuchałem i sprawdziłem,
jak to się ma do czasów, w których te wejścia były przygotowywane.
I słuchajcie, tam te wejścia są sprzed kilku, a nawet kilkunastu miesięcy.
a to miało być zawsze aktualne, więc to nie jest jeszcze tak, że sztuczna inteligencja jest w stanie przygotować sam program w całości, program radiowy.
Nie, jest w stanie wypowiedzieć oczywiście różne frazy, jest w stanie wygenerować tekst, który będzie miał jakiś tam sens,
ale do tego wszystkiego, żeby to spiąć jako jeden konkretny produkt,
to na razie cały czas jest jeszcze potrzebny człowiek.
No i dlatego też bardzo często to powtarzamy, nie tylko my zresztą,
że sztuczna inteligencja jest przede wszystkim wsparciem człowieka,
a nie zastępuje go całkowicie.
Przynajmniej na chwilę obecną.
Okej, no i to jest tyle z tego newsa, natomiast został mi jeszcze jedno należycie.
No jeszcze, jeszcze Paulino, tutaj taki jeden wątek z tego Offradia.
Wisława Szymborska, tak?
A, no w zasadzie tak. Tu jeszcze taki wątek, że jedna z tych prezenterek, czyli Emilia,
dostała za zadanie stworzyć wywiad z Wisławą Szymborską.
Przypomnijmy, że jest to nieżyjąca nasza nablistka, która zmarła 12 lat temu.
No i cóż, rozmawiały o tegorocznej Nagrodzie Nobla, o literaturze koreańskiej,
o Oldze Tokarczuk, o Instagramie, o rzeczach, których jednak siłą rzeczy Wisła Waszymborska nie może znać.
No i też właśnie było to bardzo kontrowersyjne, no bo nigdy nie wiadomo,
czy na pewno tak Wisława Szymborska
wypowiedziałaby się na te tematy, o których rozmawiała jako swój awatar.
Natomiast Fundacja Wisławy Szymborskiej zgodziła się na to, żeby tak
na to, żeby taki wywiad został przeprowadzony. Widzieli ten tekst.
Konsultowany był ten tekst.
Tak, był konsultowany i wyjaśnienie było takie, że w zasadzie Wisława Szymborska
osobom bardzo wesołą, pozytywnie nastawioną, żartobliwą,
więc na pewno nie miałaby nic przeciwko, gdyby dowiedziała się, że takie coś istnieje.
Ale wiecie co, to jeszcze tak à propos, ostatnimi czasy Facebook atakuje mnie taką jedną reklamą
pewnego serwisu, to też trochę tak w kontekście zbliżającego się
dnia, kiedy będziemy wspominać nieżyjących naszych bliskich.
Otóż reklamuje się tam pewien serwis, zdaje się, że za około tysiąc złotych możemy sobie stworzyć za pomocą sztucznej inteligencji awatara naszego bliskiego zmarłego,
stworzyć oczywiście o nim jakąś tam biografię z użyciem tej sztucznej inteligencji.
i im więcej treści tam wrzucimy, to oczywiście tym lepiej i jeżeli mamy jakieś próbki mowy,
co w dzisiejszych czasach jest coraz częstsze, że będzie można, powiedzmy, po naszych bliskich jakieś takie dźwiękowe pamiątki gdzieś tam wrzucić,
no to będzie można sobie koniec końców, po pierwsze, stworzyć awatara i z nim rozmawiać,
Teoretycznie właśnie w taki sposób, jak ta nasza bliska osoba rozmawiałaby z nami.
Oczywiście wiadomo, że to można tylko domniemywać, że to tak by było, bo nigdy tego nie wiemy z pewnością.
A jeszcze w dodatku będzie sobie można wygenerować kod QR, umieścić na grobie i wszyscy zainteresowani będą sobie mogli z tym naszym bliskim
porozmawiać, pobierając odpowiednią aplikację, no także słuchajcie, to już idzie w tę stronę.
Nie testowałem, jest jakaś nawet wersja demonstracyjna, że sobie z jakimś takim losowo wygenerowanym
awatarem można porozmawiać. Nie testowałem tego, ale no ciekawe. Myślę, że kiedy my będziemy
znikać z tego świata, to już to spokojnie będzie. To już, to tak, to już po sobie coś zostawimy.
To jest całkiem możliwe.
Chyba został Ci jeszcze jeszcze jeden news.
O tak! Jeden news jeszcze został właśnie.
Ale malutki, także zapomniałam.
W grudniu OpenAI ma wypuścić swój model Orion.
I to jest chyba jakieś rozszerzenie tego co teraz znam jako o jeden preview.
Tylko, że nie ma tego wypuścić tak jak zwykle wypuszcza swoje modele.
czyli od razu do ludzi przez stronę czata.gpt.
Tylko pierwsze mają go otrzymać firmy, które współpracują z OpenAI,
które ściśle współpracują z OpenAI, dodajmy.
Natomiast, przepraszam, natomiast myślę, myślę, że
przynajmniej takie są spekulacje, że na początku przyszłego roku może to
pozostać wydane jako czatki pt5 do publicznej już wiedzy i wyglądu.
Natomiast w listopadzie mają się pojawić, ma się pojawić ten model w ażurze.
No i cóż, z tego co można się spodziewać,
no to będzie jeszcze lepiej wnioskował, lepiej liczył, programował i tak dalej.
Natomiast pewnie na usprawnienia kreatywne takie większe i solidniejsze będziemy musieli poczekać jeszcze.
No i to tyle z obecnych newsów.
Mamy kilka wiadomości na Whatsappie i przynajmniej część z nich będę w stanie odtworzyć.
Mam wiadomość od Sylwestra. Zaraz ją odtworzę. O, już mogę ją odtworzyć.
NVDA 1024.4 i działa spokojnie.
Mam do Was pytanie w sprawie tego odtwarzacza książek mówionych Daisy Orion Plus,
bo tam okrojone podcasty, nie ma tyflopodcastów w zestawie,
Tak samo radia internetowe. Też chyba okrojone częściowo. Nie ma Tyfloradia w zestawie. Jak to jest? Co to jest? Proszę mi odpowiedzieć na to pytanie.
Ja myślę, że to jest pytanie, które należałoby zadać przede wszystkim producentowi, dystrybutorowi tego urządzenia.
Ewentualnie, jeżeli istnieje tam możliwość dodawania własnych podcastów i stacji radiowych, to nic nie stoi na przeszkodzie, żeby taki strumień,
Tyfloradia czy adres do kanału RSS Tyflopodcastu dodać.
To jest w ogóle ciekawe, bo z tego co wiem, to przynajmniej w tym Orionie,
który był dystrybuowany przez ECE, to zarówno Tyflopodcast,
jak i Tyfloradio są.
Ja też kojarzę, że chyba gdzieś tam z kimś rozmawiałem,
Ja wiem, kto kiedyś testował tego Oriona i tam dało się coś wyszukiwać.
Ja nie wiem, czy to nie jest kwestia jakiegoś tam potem dotarcia do katalogu.
Może trzeba wejść jakoś osobę w katalog, ale chyba coś tam się dało wyszukać.
Mam nadzieję, że nie mylę teraz tego z jakimś innym urządzeniem, bo swego czasu
trochę się nasłuchałem takich różnych informacji.
Mamy jeszcze wiadomość od Mileny.
Tylko, że nie słychać, ale już.
Witajcie, z tej strony Milena. Pierwsze pytanie. Zastanawiam się często, bo Paulina tutaj podaje, że też zaglądacie na typopodcastowy serwer Discord.
No tylko jak podajecie na przykład jakieś formy kontaktu tam później i powtarzacie je,
to już na przykład o tym Discordzie nie wspominacie.
Nie wiem dlaczego. To jest pierwsza sprawa.
Druga sprawa, posiadam aplikację Bitcoin Bilety i często kupuję w niej bilety.
I czasami mam tak, że jak kupuję bilet i przychodzi Pan Konduktor, mi go będą sprawdzić,
no to normalnie zeskanuję tym swoim urządzonkiem i bez problemu idzie.
Wszystko widać i tak dalej. No i super. Ale czasami się zdarza tak, że
Pan Konduktor mówi, że po prostu jest za ciemny ekran i należy go rozjaśnić.
Czy też z takim czymś się spotykacie? Jeżeli tak, to jaki macie na to sposób?
No bo ja wchodzę w ustawienia i tam ustawienia ekran i jasność i to rozjaśniam, ale to nic nie daje.
Nadmieniam, że używam trybu ciemnego. Nie wiem, czy to też jakiejś różnicy nie ma.
To jest druga sprawa.
Trzecia kwestia, to jest taka, słuchajcie, mam plik audio w formacie mp3, jest to tzw. relaksacja i jak to sobie wrzucę na Oriona, no to troszkę jest mi to za cicho, wiadomo.
Jak zgłoszę tam na poziom 7 czy 8, no to jest okej, ale mam pytanie, czy da się jakoś, bo pewnie się da,
czy da się jakoś, jeżeli tak, to czy da się jakoś ten plik zgłośnić? Jeżeli tak, to jak i jakim programem?
to to i mam taką małą prośbę. Jak są prezentowane podcasty np. Arka Świętnickiego,
no to nie dość, że on mówi razem, no głównie z voice-overem, np. jak pokazuje coś tam na Maku,
no to jeszcze ten wojskowy strasznie szybko mówi.
Czy po prostu dałoby radę, jeżeli osoby prezentujące pokazują coś,
czy by po prostu zwolniały te swoje gadacze.
No bo wiadomo, nie każdy rozumie, co jest wypowiadane,
jeżeli jest mowa szybko ustawiona.
Pozdrawiam i będę słuchać dalej.
Jeżeli o Discorda chodzi, to tu jest po prostu kwestia taka, że ten serwer jest dosyć mało uczęszczany i najzwyczajniej w świecie dlatego jakoś specjalnie nie podajemy jego adresu.
Myślę, że można by było coś z tym w przyszłości zrobić, żeby trochę ten serwer rozruszać i to jest rzeczywiście fakt.
Co do bilkoma, ja akurat z bilkoma nie korzystam, natomiast używam zazwyczaj Coleo i tam przeważnie wystarczy, ja po prostu wyłączam voice overa na czas pokazania biletu i to dosyć często rozwiązuje problem, ale tu rzeczywiście może być kwestia tego trybu, tego trybu ciemnego, który jest włączony.
Zdaje się, że aplikacja PKP Intercity, ta nowa, która jest jaka jest, ale jest, ma przycisk w ogóle na ekranie rozjaśni ekran, tam gdzie się pokazuje bilet, z tego co pamiętam, więc można kliknąć i to się od razu gdzieś tam robi.
Bo to też różne bilety różnych przewoźników, mam wrażenie, się w różny sposób zachowują.
Z Intercity ja nigdy nie miałem problemu, ale już na przykład z Regio to bywało,
że konduktor miał problem ze skanowaniem tego biletu z telefonu.
Nie wiem od czego to zależy, natomiast no takie są moje obserwacje.
A jeżeli chodzi o podcastarka i to, co tam się dzieje, jeżeli chodzi o syntezę,
no to jest odwieczny problem. Jednym jest za wolno, innym jest za szybko.
Tutaj myślę, że postaramy się coś z tym zrobić, aczkolwiek nie w każdej audycji,
no nie w każdej audycji też ma to aż taki duży sens, żeby tę syntezę aż tak bardzo zwalniać,
Szczególnie jeżeli tych opcji i tych ustawień jest naprawdę dużo, bo wtedy to one by się rozciągały jeszcze do naprawdę dużo i objętościowych materiałów.
Czy coś jeszcze? A! Głośność pliku.
W przypadku mp3, tu pewnie Ty Tomku też coś polecisz, natomiast najprościej i bez strat można sobie taki plik podgłośnić, jeżeli to jest mp3, aplikacją mp3 gain.
Starym dobrym mp3 gainem na jego temat jest podcast sprzed lat wielu, ale ta aplikacja się nie zmienia.
Ona jaka była, taka jest. Robert Łabęcki, jak dobrze pamiętam, tego MP3 Gaina pokazuje, więc za pomocą jej można coś takiego zrobić.
To znaczy czasami jest też tak, że to jest owszem ciche, ale jeżeli się to przygłośni, to być może może dojść do mimo wszystko jakichś przesterowań gdzieś.
bo po prostu być może to jest źle jakby zmasterowane nagranie i wtedy może być coś takiego.
Ale być może faktycznie mp3 gain sobie z tym poradzi.
Tylko ja uczulam od razu, że domyśle ustawienia mp3 gaina generują dosyć ciche pliki.
Tam trzeba trochę poeksperymentować z tymi właściwymi ustawieniami, jeżeli chcemy uzyskać naprawdę fajną głośność.
No i posłuchać podcastu też warto.
Tak, a ja niestety nie znam takiego programu, który by się po prostu uruchamiało, by mu się mówiło zrób głośniej, by zrobił głośniej, tak, no bo można oczywiście w Gold Wave przygłośnić, w paru jeszcze innych rzeczach, natomiast no tu zawsze może rzeczywiście gdzieś tam troszkę popsuć ten dźwięk, no ciężko, ciężko tak sprawdzić.
Ja zazwyczaj robię to Audacity w ten sposób, że zgłaśniam całą ścieżkę, to jest skrót Alt Shift i strzałki góra-dół manipulują tą głośnością i to jest o tyle fajne, że ja mogę sobie to robić na podglądzie, czyli słucham pliku, znaczy słucham sobie tego co chcę zgłośnić i to nastawiam po prostu tym skrótem i jak osiągnę już tą głośność, którą chcę, oczywiście słyszę to w danej chwili, więc być może nieumyślnie wybije jakieś głośniejsze dźwięki na jakiś niewyobrażalny, przesterowany poziom.
Ale raczej mi się to jeszcze nie zdarzyło, no to jak osiągnę tą spodziewaną głośność, to eksportuję ten plik i tak to robię.
No może, tylko właśnie tutaj kwestia jest tych ewentualnych przesterów.
Mamy jeszcze wiadomość tekstową od Bartka.
Witam serdecznie. W zeszłym tygodniu dzwoniłem do was w sprawie zmiany hasła na mojej porcie Outlook.
Z przyjemnością mogę poinformować, że problem udało mi się rozwiązać, sprawa wydaje się dość troszeczkę dziwna, okazało się, że przycisk reset hasła był zdublowany, kiedy kliknąłem w ten drugi przycisk, przeniosło mnie do następnego etapu, o dziwo udało się to zrobić na Firefoxie, pozdrawiam Bartek.
I mamy jeszcze dwie wiadomości.
Ja z reguły te wiadomości staram się odrobinkę tutaj czyścić z jakiejś tam, z jakiejś takich, nie wiem, z ciszy,
ale w tej wiadomości z jakiegoś powodu nie udało mi się tego zrobić, więc można powiedzieć jest jak zostało nagrane.
Witam serdecznie, no po tej stronie oczywiście ja i w swoim imieniu Marcin, tak jak od czasu do czasu piszę, no to teraz dzwonię, tak teraz postanowię napisać.
Mam dla Państwa bardzo dobrą informację, właściwie nie wiem o ile to u Państwa, u Was ci, którzy właściwie testują Sumo.ai i tak dalej od zawsze na zawsze i tak dalej.
Dostałem taką informację na Discordzie, że Sumo.ai powoli i powoli udostępnia swoją oficjalną aplikację do Pobrana iOS z App Store’u
dla krajów ogólnie, poza USA i mam dobrą informację, w związku z tym sprzedam
Państwu, że tak powiem, bombę, dlatego że u mnie pojawiło się to w App Store
i, no, byłem bardzo ucieszony tym, że w końcu to trafiło do Polski.
Także jeżeli będziecie chcieli, no to proszę sobie sprawdzić, wpisać sobie suno.com slash iOS w Google i wyjdzie Państwu na główek suno make music on apps to apple itd.
To o ile będziecie w ogóle Państwo to mieli, bo ja to miałem, to jeżeli będziecie mieli ochotę przetestować tą aplikację, no z dostępnością nie jest tak do końca może super, ale jakąś obsługiwać się da.
Ale jeżeli będziecie chcieli to przetestować, jak najbardziej polecam.
Czego brakuje w Sumo.ai webowym, a czego brakuje w Sumo.ai jako aplikacja oficjalna?
Przede wszystkim tak, nie widzę w aplikacji możliwości kontrolowania utworu od któregoś punktu,
O którejś minuty i tak dalej, o którejś tam, no właśnie, o którejś tam sekundy, minuty i tak dalej.
No tego nie widzę, tego niestety nie widzę i to mi trochę utrudnia rzecz taką, że można sobie jakoś zrobić utwór.
Ale za to jest inna rzecz, która jest tutaj w SummaryEye.
Stworzenie utworu na podstawie zdjęcia lub nagrania jakiegoś pliku wideo.
Ale jak już załadujemy plik wideo lub zdjęcie, tu niestety jest zgrzyt.
Dlaczego? No nie do końca jest to dostępne.
Pola edycyjne mamy kilka, żeby wprowadzić jakieś informacje typu co chciałbym powiedzieć o tym, o tym, o tym utworze,
jaki ma być stylu, co w tej scenie jest i tak dalej, ale to jest gzit.
I nie wiem czy to nie przyda się eksploracjom po ekranie, dlatego że będą Państwo mieć utrudnienie,
Bo w momencie, kiedy Państwo się przesuwają po ekranie, zmienia się nazwa i tytuł pola edycyjnego,
a to się wiąże z tym, że w ogóle się zmienia pole edycyjne i nie ma możliwości wypełnić wszystkiego naraz z tych pol edycyjnych,
tylko po prostu jest, no tak się po prostu zmienia, przeskakuje jakby kursor.
Nie wiem do końca, by wytłumaczyć to fachowo, ale no mówię jak jest, jak jest.
Także proszę mieć to na uwadze, ale póki co aplikacja jest.
Aplikacja działa na takich samych procedurach, zasadach i tak dalej.
Mamy 600 ileś tam kredytów, 700 dziennie, no 50 dziennie niby, ale tam jest chyba i 600 ileś tam za każdym razem, gdzie wejdzie na stronę.
Są pakiety pro premier, są pakiety roczne, miesięczne. Jak najbardziej jest wczesny dostęp do nowych funkcji, chyba tak.
No i co? No to byłoby dla mnie na tyle, jeżeli chodzi o słów nominalne.
Widziałem, a propos nowego designu V11 appsie, widziałem to osobiście.
Jeszcze nie testowałem, ale oglądałem filmik na bazie tego.
Będzie o tym oczywiście w audycji.
No i powiem tylko tyle.
Robi wrażenie, nie zawsze, ale czasem robi naprawdę dobre wrażenie.
Można naprawdę pogłówkować, żeby ten głos sobie stworzyć.
Jeszcze tego nie testowałem, ale tą informacją się podzielę.
Może w następnej audycji, jak ja to rzeczywiście ogarnę.
Na razie póki co, żegnam się z pamięcią, bo tu mam telefon od kolegi.
Kolega do mnie dzwoni. Jeszcze mu tam wysłałem parę utworów,
zrobionych na Logiku i na Snow.
Kogoś w audycji pokazać niestety nie mogę.
Tymczasem mamy telefon, kogo witamy po drugiej stronie?
Halo?
Halo?
Sławek z tej strony.
Cześć Sławku, słuchamy.
Witam Sławek z tej strony.
Ja chciałem powiedzieć
o takiej rzeczy, ja
zwróciłem uwagę na przykład jak
była na początku mowa o
tych właśnie nawigacjach, o webach Google,
to na przykład jak miałem
zainstalowane Lazarillo, to był problem na przykład takiej
sytuacji, takiej kwestii, że mówiło mi na przykład, że coś
jest za mną z tyłu, a było z przodu, coś jest po prawej,
a było po lewej stronie, tak nie wiem, czy to miało związek
z tym, że szedłem inną trasą niż on mi proponował, czy co,
nie wiem, a, druga sama, dotycząca.
Tych czytników, ekranu tych, skrzynizerów różnych na
przykład, nie wiem bo ja słuchałem tych podkazów
zapomniałem, że są już starsze podkazy, to już pewnie
też inaczej ale, takie czytniki ekranu jak,
przykład, czy, czy tam właśnie czy, bo też był
swego czasu prudenc ale chyba zniknął na razie nie wiem.
Jeżeli chodzi o Shine Plus to na pewno już go nie ma a z Prudencem jak ta sprawa wygląda?
Wróciłem to się wypowiem.
Prudence w zasadzie zniknął ze sklepu Play, ale gdzieś tam jest chyba dalej rozwijany z tego co wiem.
Nie jestem jego użytkownikiem więc nie wypałem się na ten moment.
Natomiast jest grupa na Telegramie są jakieś różne czaty na jego temat więc na pewno on jakoś tam żyje.
To jest tak naprawdę tyle, co mogę o nim mówić.
Ze sklepu Play chyba właśnie zniknął, tak.
Proszę?
Ze sklepu Play właśnie chyba zniknął.
Tak, tak.
Tak, ze sklepu Play zniknął.
Ale życie żyje.
No to by było na tyle, co bym chciał się zapytać.
Jak coś tam jeszcze mi się…
Przypomnij, to będę się kontaktował.
Jasne. Dzięki za telefon. Pozdrawiamy serdecznie.
Dzień dobry, pozdrawiam.
Tymczasem mamy jeszcze wiadomości na Whatsappie.
Na razie odtworzę jedną, przygotuję pozostałe i potem odtworzę te pozostałe.
A to URL czy URL? Jak to się pisze?
Taka króciutka wiadomość.
To się pisze URL, jeżeli o tym samym myślimy oczywiście.
Po prostu chodzi o adres. URL to jest ni mniej, ni więcej jak adres internetowy.
To ja będę przygotował sobie odtwarzanie wiadomości, które tutaj nadeszły, kilka mamy.
A może tymczasem Pawle, co tam na wystawy SideWorld w Tokio?
No więc dalej jesteśmy w fazie przedwystawowej, czyli są kompletowane wywiady z wystawcami, którzy dopiero się pojawią, bo przypomnijmy, Sight World, czyli japońska wystawa technologii dla osób z dysfunkcją wzroku, odbędzie się właśnie w ten weekend, kiedy my mamy wolne, kiedy właśnie wspominamy naszych zmarłych.
Japończycy zbierają się na konferencję, niewidomi przynajmniej, ci którzy są zainteresowani i różne cuda tam pewnie zobaczą.
Przypuszczam, że będzie też wtedy więcej materiału z samej konferencji, już nie tylko takie wywiady przed, ale będzie troszeczkę już relacji z samego wydarzenia.
Mamy na ten tydzień przynajmniej udało się przygotować kolejne dwa wywiady i to są dwa ostatnie jakie na razie są dostępne w JBICD czyli w japońskim podcaście który tę konferencję relacjonuje.
Są to mianowicie firmy Auto Technique i firma Foraker Japan.
Auto Technique jest to firma, która od lat 80. zajmuje się kontrolą jakości przy produkcji samochodów, różnymi takimi procesami motoryzacyjnymi, a dla osób z dysfunkcją wzroku przygotowują dwie rzeczy.
Po pierwsze pracują nad konceptem czegoś, co ma osobę niewidomą ostrzegać przed nadjeżdżającym samochodem elektrycznym i tutaj znowu mamy do czynienia z prototypem, więc wszystko na razie jakoś ewoluuje.
Na razie jest to urządzenie, ale nie do końca jeszcze wiadomo jak wygląda, w jakiej będzie formie, bo to prototyp i to taki we wczesnej fazie rozwoju, ale docelowo pewnie będzie to aplikacja mobilna na smartfona.
A więc na razie tutaj firma jeszcze się zastanawia jak tutaj to poprowadzić.
Ma ona za pomocą wibracji informować o tym, że na nas jeżdża samochód elektryczny, a ma to być rozpoznane na podstawie dźwięku, który takie rozwiązanie ma rzekomo wysłyszeć z dalszej odległości i dużo lepiej niż my, zwłaszcza w jakimś hałasie, gdzie te dźwięki dużo cichsze jednak samochodów elektrycznych gdzieś tam zanikają.
Pomysły są różne. Pomysł jest taki, żeby ta wibracja była, na razie jest jednolita, czyli po prostu podjeżdża samochód, ale są pomysły, żeby była kierunkowa, czyli wibracja nadchodziła z tego kierunku, z którego nadjeżdża samochód, żeby była różna w zależności od odległości
i żeby rozpoznawała z 30 metrów, że my niby słyszymy z 5-10, a to rozwiązanie ma potencjał informować nas o nadjeżdżającym samochodzie. Z 30 metrów. No także zobaczymy jak to się rozwinie.
Tutaj ponoć inspiracją było to, że pracownicy tej firmy kiedyś w rozmowie z osobą niewidomą przekonali się, że co prawda te samochody mają nawet prawnie jakiś obowiązek emitować specyficzny taki dźwięk z głośnika specjalnego, który jest umieszczony na zewnątrz, żeby nas informować o tym, że taki samochód nadjeżdża, ale te dźwięki nie zawsze są rozpoznane jako takie, do czego zresztą za chwilkę przejdę.
A po drugie, nie wszystkie samochody je mają, w związku z czym już zdarzały się wypadki, gdzie ktoś został przez taki samochód potrącony.
No i to inżynierom z Auto Technik dało do myślenia, że może coś z tym warto byłoby zrobić i nad takim rozwiązaniem aktualnie pracują.
Druga firma to firma Foracare i jest to firma zajmująca się produktami medycznymi dla właśnie szpitali, dla klinik, różnego rodzaju sprzęt badawczych, jakieś termometry, pulsoksymetry i co tam nie jeszcze.
Tam jakieś ponoć były z rządem Tajwanu układy, że tam gdzieś były eksportowane czy importowane ich produkty, więc taka firma, która sobie całkiem dobrze na tym rynku przynajmniej azjatyckim radzi.
Natomiast mają też oni dwa typy produktów dla klientów indywidualnych i są to pulsoksymetry oraz termometry bezdotykowe.
No i czemu oni się pojawili na targach?
No po pierwsze, bo mają już od kilku lat na rynku pulsoksymetr, który jest wyposażony w aplikację mobilną.
Można się przez Bluetootha z takim pulsoksymetrem połączyć i na bieżąco sobie w aplikacji czytać wyniki.
czyli takiego badania utlnienia krwi i tutaj zaproponowali użytkownicy, bo już zdaje się, że aplikacja w wersji takiej dostępnej dla czytników ekranu była dostępna rok temu, więc firma się już pojawiła, no i się dowiedzieli od użytkowników, że w sumie to przydałaby się funkcja automatycznego odczytywania tych wyników za pomocą syntezy, czyli niezależnie od czytnika ekranu,
Fajnie jakby synteza była w stanie nam czytać na bieżąco wyniki jak tam się pojawiają.
No i taką funkcję też wbudowano i można z takich pulsoksymetrów skorzystać.
One są przynajmniej na rynku japońskim dostępne bez problemu.
Może u nas da się to przez jakieś Aliexpress czy inne
serwisy gdzie raczej takie produkty z rynku azjatyckiego są dostępne dostać.
Natomiast druga rzecz to są właśnie termometry i tutaj też termometr bezdotykowy taki jakie można spotkać czasem w przychodniach lekarskich, że gdzieś tam przy
wejściu można od razu zbadać temperaturę i one też będą miały wsparcie aplikacji tak żeby można było odczytywać wyniki ale też będą miały one same w sobie opcje
informowania dźwiękowego i to będzie można w ogóle w aplikacji skonfigurować, żeby taki termometr w zależności od osiągniętej tam liczby stopni odgrywał różne dźwięki.
Że tam jakiś poziom jest przekroczony, jakaś temperatura jest za wysoka albo, że jest w normie albo jak tam gdzieś jest poniżej to w ogóle, że odczyt został zarejestrowany.
I tego typu urządzenie producenci twierdzą, że dedykują użytkownikom z dysfunkcją wzroku, którzy prowadzą swoją własną jakąś praktykę medyczną.
Myślę, że tu może chodzić głównie o masaż, no chyba, że ktoś pracuje w jakiejś rejestracji i zajmuje się jakąś rejestracją przyjmowaniem pacjentów.
No także tego typu nowości na razie z SideWorld, ale liczę na to, że do przyszłego tygodnia coś się zacznie jeszcze pojawiać, więc myślę, że z tym wydarzeniem póki co się nie pożegnamy.
I mam już przygotowane wiadomości, które nam nagraliście.
Jest wiadomość od Sylwestra.
Dystrybutorem Oriona Plus jest Artix, chciałem powiedzieć wam.
Pytam się, jak plik url, skąd pobrać? Jak go wkleić? Na jakiej zasadzie?
No url to jest plik, czy to jest w zasadzie adres?
To znaczy, to trzeba by było przede wszystkim zobaczyć w instrukcji Sylwestrze, w instrukcji do Oriona,
bo ja tego urządzenia nie mam, więc nie jestem w stanie powiedzieć, jak dodaje się adresy kanałów.
Tu dwie rzeczy. Jeżeli chciałbyś mieć Tyflo Podcast w Orionie, to prawdopodobnie musiałbyś dodać tzw. kanał RSS.
To jest coś po prostu, co pozwala na subskrybowanie różnych podcastów i tej informacji musisz poszukać sobie w instrukcji.
Jeżeli natomiast chodzi o ten adres URL do radia, do Tyflo Radia, no to też trzeba by było poszukać informacji, w jaki sposób dodać ten konkretny adres,
jak to zrobić, żeby osiągnąć ten efekt.
No i tyle tak naprawdę. Wszystkie adresy są na naszej stronie internetowej na tyflopodcast.net.
Tam na stronie głównej masz kanał RSS, masz też na takiej podstronie, która się nazywa, posłuchaj, tyfloradia.
to tam znajdziesz adres właśnie Tyflo Radia też do wklejenia, ale gdzie, co i jak to musisz już dowiedzieć się z instrukcji obsługi Oriona.
Tak jest. Panie koniec wiadomości. Mamy jeszcze wiadomość od Mileny. Tylko, że ta wiadomość się nie odtwarza, ale teraz już będzie w porządku.
Witajcie tu jeszcze raz, Milena. No to tak, co do kwestii podgłośniania kliku, to sprawdzę ten mp3 game i zobaczę też Audacity, może faktycznie mi się to uda, a co do bilku bilety, to ja zawsze właśnie voice overa wyłączam, ale właśnie też spróbuję faktycznie przestawić ten tryb ciemny na jakiś inny, na jasny, albo jakoś inaczej to ogarnąć.
No zobaczymy, co z tego wyjdzie, będę dawać znać. Pozdrawiam.
I ostatnia wiadomość od Rafała. Nie, nie ostatnia wiadomość.
Dobry wieczór. Po drugiej stronie Rafał.
Mam do was 3 sprawy. Pierwsza sprawa jest taka typu.
W iPhone jest ten czujnik światła.
No wiadomo, czujnik światła wiadomo co robi.
Raz jasnie robi, tak powoduje, żeby ekran świecił raz jasnie, raz ciemnie, zależy od pory gniazda, a szczególnie tak się wydaje.
Chodzi o to, że tutaj chodzimy o te bilety też.
I w ogóle skanowanie rzeczy z telefonu.
Czy to nie ma też wspólnego, ten czujnik światła, że na przykład telefon raz jest racjonalizowany bardziej, a raz nie, bo tryb ciemny to tryb ciemny, to jest jakby, może jedna kwestia, no ale myślę, że to nie jest to, no bo bilet się normalnie wyświetla, tak, wszystko jest widać, tak, no, tylko właśnie to, że ten, że jest właśnie bardziej, jest bardziej, a bo ten bilet się nie wyświetla, tak, wszystko jest widać, tak, no, tylko właśnie to, że ten, że jest właśnie bardziej, jest bardziej, a bo ten bilet się nie wyświetla, tak, wszystko jest widać, tak, no, tylko właśnie to, że ten, że jest właśnie bardziej, jest bardziej, a bo ten bilet się nie wyświetla, tak, wszystko jest widać, tak, no, tylko właśnie to, że ten, że jest właśnie bardziej, jest bardziej, a bo ten bil
wyświetlony raz jaśniej, raz ciemniej, więc myślę, że to ten czujnik świata nie ma
jakiegoś tam wpływu i może jakby się wyłączyło ten czujnik i to miałoby jakieś…
by problem rozwiązał, tak powiem.
Co sądzicie na ten temat? To jest sprawa pierwsza, a druga jest sprawa…
Czy macie taki problem, bo właśnie zainstalowałem tą iOS-a wersję 18,
to zobserwowałem, że pomimo, że mam włączone automatyczne wykrywanie języków, to się odzywa…
tam czasami lubi się odzywać angielskie głosy, angielska synteza, pomimo, że mam ustawioną polską i tak dalej, tak dalej, tak?
A tu się wkradłem, przeczytałem po angielsku. Czy też takie macie problemy?
Wcześniej to właśnie jak tych profili nie było, no to było tam inaczej ustawione.
Był tam polski, polska i polski tam, domyślny i polsko, polsko, domyślny i sam polski, tak?
I jak się ustawiło na polski, no to wtedy ten automatyczny wykryw, no wtedy w ten sposób było wyłączone te wykrywanie języków, tak?
Jak się ustawiło na polski, na sam polski.
No a teraz właśnie wiadomo, tego nie ma, jest zastawione inaczej, bo są profile i tak dalej.
No, ale jest wyłączone wykrywanie, tak powiem, języków automatyczne i tak się wypowiada, bo był włączony.
To jest druga sprawa. Sprawa trzecia jest taka. Czy znacie jakiś program? Czy jesteście w stanie polecić?
Czy znacie taki program do kopii zapasowej? Zobaczę zrobić kopię zapasową systemu Windows.
Ja wiem, że jest wbudowana taka opcja, która robi kopię zapasową z systemem Windows,
no ale to chyba, nie wiem, czy jest wygodne polecenie i czy tak robi jak należy tą kopię, tak?
Bo chciałbym po prostu zrobić kopię systemu, wiadomo, z ustawieniami, z programami, z tym wszystkim.
Czym jest najlepiej i w jaki sposób.
Słucham Was dalej. Pozdrawiam.
albo coś tego typu zrobić.
Ciężko stwierdzić,
no bo ja nie korzystam z bilkoma.
To jest rzecz jedna. Co do aplikacji,
do backupu, to na przykład
Arek Świętnicki pokazywał swego czasu taką
aplikację jak Image for Windows
i polecał to narzędzie do robienia kopii zapasowej
całego systemu. Ja szczerze mówiąc
z kopii zapasowej systemu jako takiego nie robię.
Raczej kopiuję sobie zwyczajnie dane, które są mi niezbędne,
żeby potem móc przywrócić taki obraz w miarę sprawnie.
Dlatego, że tak naprawdę robiąc kopie całego systemu,
to zatrzymujemy się na jakimś pewnym etapie pracy tego naszego systemu.
Więc te kopie, to trzeba by było robić dosyć regularnie.
Ja zamiast tego, to jednak mimo wszystko wolę sobie kopiować konkretne dane,
które w razie potrzeby będę mógł przywrócić.
Takie jest przynajmniej moje podejście, natomiast być może Rafale właśnie
Image for Windows to będzie to czego szukasz.
Mamy jeszcze dwie wiadomości, w tym jedną tekstową, może zacznę od tej tekstowej.
Natomiast w momencie, gdy będę przygotowywał wiadomość głosową,
bo zdaje się, że mamy słuchacza.
Zgadza się.
To za chwilkę odbierzemy.
To ostatnią wiadomość
tekstową przeczytam
i za chwilkę się połączymy
ze słuchaczem.
Cześć, witajcie.
Jak wygląda i jak działa ta tajemnicza
inteligentna maszyna, która
sama obsługuje komputer? Czy możecie to
wytłumaczyć nieco dokładniej?
Czy jest to urządzenie fizyczne?
Czy jest to program zdalnej obsługi
komputera. Coś na kształt rim. Z góry dzięki za odpowiedź i pozdrawiam.
Jest jeszcze uśmiechnięta buźka wklejona.
To chyba to jest pytanie do mnie.
I to jest pytanie o to, o czym mówiłam, czyli o tym klodzie.
Generalnie to jest model językowy, który może być
spięty poprzez API, czyli taką jakby, jakby to nazwać.
Taki zestaw comment różnych poleceń.
Taki zestaw comment dla programistów, o właśnie,
który pozwala
na to, żeby spiąć właśnie
nasz komputer z tym modelem językowym i na przykład
możemy mu kazać, no to dobra
to teraz znajdź
ten przycisk, kliknij
w niego i potem otworzy Ci się takie
pole edycji i wpisz w nie
to co Ci tam wcześniej mówiłam,
że
wszystkie informacje o wydarzeniu,
które masz z naszej wcześniejszej
i konwersacji i tak dalej, i tak dalej, i tak dalej.
Tylko że teraz to jeszcze nie jest dostępne dla wszystkich użytkowników,
tylko to jest dostępne właśnie dla programistów, którzy chcą
zaprogramować sobie możliwość
automatyzacji pewnych procesów, taką, która pozwala na to, żeby
klikać przyciski, edytować pole edycji i tak dalej.
Ale właśnie jest jeszcze problem z przeciąganiem, upuszczaniem jakimiś
z takimi bardziej zaawansowanymi akcjami.
Więc podejrzewam, że za jakiś czas, jeszcze nie teraz, ale za nie wiem, może pół roku
my jako niewidomi będziemy mogli cieszyć się tym, żeby
ten model sobie przetestować, żeby się nim pobawić itd.
I żeby móc go wdrażać w nasze codzienne
obowiązki, żeby rozwiązywały nasze problemy z dostępnością i tak dalej.
Natomiast teraz podałam to typowo jako
ciekawostkę, że coś takiego jest robione i że to może być dla nas przełom.
I tyle.
I została ostatnia wiadomość o skróciu Teńka, to może ją mimo wszystko odtworzę.
Myślę, że odpowiedź też na nią będzie krótka i za chwilkę połączymy się z słuchaczem.
Jaki to jest krótki stoport kartu? RSS czy RLS?
RSS. RSS. Rzeczywiście krótka odpowiedź. Dobry wieczór Bartku.
Witam was serdecznie. Przed tydzień was troszeczkę tutaj nawiedzam. Już wam napisałem wiadomość tekstową, że ten problem z outlookiem pomyślnie udało się tutaj rozwiązać.
Szczerze powiedziawszy, nawet bym na to nie wpadł, bo tylko wam poniekąd tutaj troszeczkę zobrazuję, jak to wyglądało.
Po odpaleniu Excela wyskoczył właśnie mi komunikat, że chyba tam próbowałeś ingerować w konto.
Mniej więcej o to chodziło i wtedy właśnie przekierował mnie przez Firefoxa do strony zmiany hasła czy logowania.
Wiadomo, wprowadziłem login, później właśnie wprowadziłem to nowe hasło,
powtórzę nowe hasło i strzałkami góra-dół właśnie zauważyłem,
że ten przycisk się zdublował. Tylko dlaczego NVDA to tak dziwnie czytał
na to pytanie, niestety chyba nikt nie jest w stanie odpowiedzieć,
ale koniec końców najważniejsze, że się udało, bo nie z tym tematem
oczywiście dzwonię. Ale mam najpierw do was takie pytanie,
czy ostatnimi czasy ktoś z was korzystał z refundacji na Białą Laskę?
Cisza. Nie.
Bo chciałem tylko się tak zapytać, bo chociaż widzę, że nie uzyskam odpowiedzi,
jako że ja już rzeczywiście mam do odebrania to zlecenie na Białą Laskę,
ale byłem może nieprzekonany, ale miałem tą nadzieję, że znajdę to też
w aplikacji M-Obywatel i w sekcji e-recepty.
Ale niestety tutaj się zawiodłem i właśnie chciałem się też was zapytać,
czy wy tylko dostawaliście to w formie papierowej,
że musieliście, że tak powiem, pofatygować się do własnej przychodni
i odebrać to osobiście?
No, jeżeli tego nie masz w formie elektronicznej,
to wygląda na to, że to tak niestety jest.
Ewentualnie jeszcze, skoro nie masz tego WM Obywatelu, tak dla stuprocentowej pewności,
czy nie ma tego, aby gdzieś elektronicznie, to ja bym jeszcze sprawdził w aplikacji moje IKP.
Okej, a akurat jeszcze tej aplikacji nie ściągnąłem. Przybliż mi tylko, Michale, czym tam się loguje.
Polecam.
Okej.
Jak większość to profil zaufany.
Profil zaufany, dokładnie.
Czyli jeżeli zakładaliśmy to przez bank czyli tak samo tak samo dokładnie dokładnie tak.
Tak naprawdę polecam aplikację bo tam rzeczywiście są.
Dziwne bo w wiadomości.
Skierowania są zdaje się poprzednie.
Chociaż nie pamiętam czy są poprzednie.
W wiadomości i mailu również podałem swój numer telefonu i byłem też święcie przekonany że to tak jak ze standardową receptem przyjdzie kod SMS ale niestety.
Takie coś się nie stało, więc powiedzmy, że moja cierpliwość dobiegła końca,
bo było napisane w wiadomości automatycznej zwrotnej, że w ciągu 7 do 10 dni roboczych
zlecenie zostanie wystawione. I czas mijał, czas mijał i nic nie przychodziło.
Zadzwonię do swojej przychodni i się okazało, że to zlecenie nam nie czeka,
więc tak właśnie chciałem was tutaj podpytać, czy rzeczywiście też z czymś takim,
żeście się spotkali może, dlatego tutaj do was uderzam w tej sprawie.
No ale tutaj widzę, że może przyszłość jeszcze, że tak powiem, pokaże jak będzie to w waszym przypadku.
Dokładnie.
Ok. I jeszcze takie w międzyczasie, jak tutaj czekałem na antenie, przyszło mi jeszcze jedno takie pytanie a propos jeszcze Apple’a do głowy.
bo ostatnio mój znajomy musiał, że tak powiem, wymienić kartę w banku,
a w międzyczasie miał wykupioną subskrypcję na pakiet iCloud
i jako płatność miał zaznaczoną Apple Pay.
No i wiadomo, że kiedy ta karta stara została usunięta z portfela,
została dodana nowa, to ta subskrypcja automatycznie nie została wznowiona.
na i teraz tylko moje pytanie jest następujące Czy to
trzeba jeszcze raz wtedy tą subskrypcję wykupić czy
jeżeli, przepraszam czy jak wejdziemy w ustawienia imię i
nazwisko i tam w sekcję subskrypcję to ta subskrypcja
widoczna będzie ale ona nie będzie aktywna powinna być
widoczna jako nieaktywna po prostu i wtedy w tym miejscu
z automatu możemy ją wznowić tak dokładnie i wystarczy ją
po prostu ponownie wybrać jeszcze raz ewentualnie tą
formę płatności tak? Powinno to tak zadziałać.
No właśnie bo to oczywiście mówię tutaj z czystej tylko ciekawości.
No dobrze bo zaraz 22 a pewnie też
macie jeszcze chyba trochę tematów więc nie będę już wam przeszkadzał
także dzięki serdeczne tutaj za informację i rzeczywiście
z tą aplikacją moje ikp tak? Tak moje ikp.
Okej bo zawsze tutaj na dole i tak jest nawisane
Internetowe konto pacjenta, Bartku, to jest rozwinięcie tego skrótu.
O tak, tak, to wiem, wiem. Tylko jeszcze powiedzcie mi, czy jakbyśmy weszli na pacjent.gov.pl to tak samo trzeba by było się załogować?
Tak, to jest dokładnie mobilna aplikacja tego portalu.
Dzięki serdeczne, dobrze, do usłyszenia i słucham was dalej. Pozdrowienia przesyłam oczywiście dla całego zespołu i dla Piotra, którego chociaż dzisiaj nie ma.
A, Piotr do nas wróci za tydzień.
Okej, to się trzymacie serdecznie, do usłyszenia.
Dzięki za telefon, dobrej nocy, pozdrawiamy serdecznie.
I zostamy, można powiedzieć, w tematach około takich formalno-rządowych.
Teraz Michał Twójnius, który jest zatytułowany mniej więcej w taki sposób
Wakacje składkowe w ZUS, a refundacje składek z PFRON-u.
Zgadza się. To jest informacja przede wszystkim dla tych, którzy prowadzą swoją działalność gospodarczą,
bo PFRON jest nam w stanie w takiej sytuacji zrefundować składki, ale trzeba pewną rzecz wyjaśnić.
Więc ja może po prostu zacytuję przynajmniej fragment komunikatu PFRON-u dotyczącego wakacji składkowych.
Od 1 listopada tego roku przedsiębiorcy będą mogli składać do Zakładu Ubezpieczeń Społecznych
wnioski o zwolnienie ze składek na ubezpieczenia społeczne za wybrany miesiąc.
To oznacza, że za miesiąc objęty ulgą wakacje składkowe refundacja składek emerytalnej i rentowej z PFRON nie przysługuje.
Możemy bowiem zrefundować wyłącznie składki opłacone do ZUS przez przedsiębiorcę.
Zgodnie z nowymi przepisami przedsiębiorcy mogą raz w roku za wybrany miesiąc nie płacić za siebie składek na ubezpieczenia społeczne.
W 2024, czyli bieżącym roku, przedsiębiorcy mogą skorzystać z wakacji składkowych tylko za grudzień,
a wnioski o tę ulgę do zakładu ubezpieczeń społecznych powinni składać w listopadzie.
Dlatego jeśli skorzystacie Państwo z tej ulgi w związku ze składkami należnymi za grudzień 2024,
to nie składajcie Państwo do PFRON-u wniosku o refundację składek ZUS za grudzień 2024.
No wydawałoby się, że logiczne, ale widocznie tu Fundusz jednak woli po prostu uprzedzić.
I informuję dalej, że taka sama zasada będzie dotyczyć okresów, za które w ZUS skorzystacie Państwo z wakacji składkowych w kolejnych latach.
Składki, których przedsiębiorca nie opłaca, nie podlegają refundowaniu przez PFRON.
I jeszcze tu jedna ważna informacja. Ja już tu nie będę cytował tej całej informacji, natomiast jeden ważny punkt.
Wakacje składkowe od ZUS to tak zwana pomoc de minimis, ponieważ składki te zostaną sfinansowane z budżetu państwa, więc jest to po prostu państwowa pomoc, ona tak się nazywa.
Dlatego w kolejnym wniosku po otrzymaniu tej pomocy, wniosku do PFRON-u, trzeba podać funduszowi wymagane informacje i na stronach PFRON-u jest dokładna informacja, co należy wpisać, jak to należy wpisać, żeby po prostu tych wszystkich formalności dopełnić i żeby można było z tego wniosku prawidłowo skorzystać
i żeby on rzeczywiście został wypełniony zgodnie z tymi wszelkimi procedurami.
Tak jak mówię, to jest informacja, która przede wszystkim tu będzie dotyczyć przedsiębiorców,
ale być może osoby, które gdzieś tam prowadzą jakąś swoją działalność gospodarczą też nas słuchają
i warto też, żeby o tym wiedziały.
Dwie wiadomości mam przygotowane.
Jedna to jest wiadomość od Mileny.
To ja już od razu powiem, tu jeszcze raz Milena, że w mojej IKP tego skierowania na Białą Laskę też nie będzie.
To niestety trzeba iść do przychodni i dostajesz to w formie papierowej, nie inaczej.
Bo jak ja się starałam o to, to właśnie w takiej formie tylko to dostałam, w formie papierka.
I wiadomość od Rafała.
że jest wyłączona opcja automatyczna wykrywania języków iOS 18.
Czy macie taki problem czy nie?
I jeszcze jedna sprawa, jak ten program do kopii zapasować je?
Pisze i czy jest płatny do telefonu?
Rafale, już odpowiadam na twoje pierwsze pytanie związane z językiem.
Po aktualizacji iOS do 18.1 rzeczywiście ten problem do mnie wrócił, bo on już był w osiemnastce.
Ja rozwiązałem go tak, że po prostu dodałem sobie w osiemnastce drugi profil z Zosią i w ten sposób po prostu udało mi się to obejść.
Bo niestety, ale rzeczywiście tak jest, i w iOSie 18.1 też na domyślnym głosie niestety ten problem występuje.
Też mam wyłączone wykrywanie języków, no a niestety Zosia przełącza się na inne języki, synteza domyślna.
Więc spróbuj dodać sobie po prostu drugi profil i powinno to rozwiązać Twój problem.
Jeszcze tego na osiemnaście jeden nie próbowałem, bo nie miałem na to specjalnie czasu, ale na osiemnastce problem właśnie to rozwiązywało.
Z tego co pamiętam, Image for Windows i Magę for Windows jest programem płatnym.
A teraz odbieramy kolejny telefon. Ktoś do nas dzwoni. Kogo witamy po drugiej stronie?
Cześć Sławek, z tej strony.
Cześć Sławku, słuchamy.
Witam, chciałem cię zapytać, bo jakoś rozmawiamy też u, właśnie, ludzie zwiążą z różnymi zapytaniami, to chciałem cię zapytać właśnie o te trzy pliki, bo wiadomo, jest Jones, jest NVIDIA, a chciałem się zapytać o trzy pliki właśnie, screenreadery na Androida, to jest, no wiadomo, jest Talkback, jest gdzieś łaski NVIDIA, czyli komentary dawne i jakieś jeszcze, czy?
No jest jeszcze ten Prudence, o którym wspominałeś. Na przykład telefony Samsung mają swoją modyfikację Talkbacka.
Tak, Voice Assistant.
I tak naprawdę to jest chyba tyle, aczkolwiek ja nie jestem użytkownikiem Androida, może tutaj Tomek, Paulina, może wy coś jeszcze dodacie?
Chyba nie.
To są różne jakieś eksperymenty.
Były jakieś modyfikacje Tokbeka różne
właśnie Prudence to tak trochę
niektórzy się zastanawiają czy nie pochodzi.
Właśnie między innymi jak
był gdzieś tam podcast
to też się skończył.
Od dawna korzystam z
takiego
ja mam teraz Infinix’a
ale tak to
wcześniej miałem Blind Shell’a też
i
A ten transfer z tygodniowego koniecznika to też się uczyłem właśnie.
No jest na przykład też Corvus, ale to jest słowacki screenreader i on chyba nawet nie bardzo jest w ten moment jakoś tłumaczony sensownie,
no ale coś tam się na świecie rozwija różne rzeczy, natomiast dla nas chyba taki najbardziej osiągalny jest Talkback i Gescho.
No i Prudence, jeżeli ktoś ma dostęp tam wewnętrznie do tych wersji, które wychodzą.
Trudno, bo prójdę z czasem, jak rezerwy się zniknąły czy ze względu na Play, nie mogę nawet za bardzo chyba z kogoś pobrać w tych filmach, bo przynajmniej ze sobą pełna pewność, że z kogoś można już nie pobrać, co nie wiem, bo przyznam się, że nieoszukanie idzie, prawda.
Sławku, jeszcze masz jakieś pytania?
To by było wszystko, to by było na końcu wszystko.
Okej, no to dzięki za telefon w takim razie, dobrej nocy, pozdrawiamy.
Dzięki, pozdrawiam.
Zgadza się. Ja tutaj spojrzę, co my tu mamy. Mamy NVIDIA. NVIDIA 2024.4. Tu już Sylwester wspominał o tym w swojej wiadomości. Wyszło jak najbardziej, natomiast my już też mówiliśmy o tym, co się w tej wersji zmieniło z bardzo dużą ilością szczegółów, więc teraz tylko, żeby przypomnieć, mamy dużo poprawek w Ofisie, w Braillu, w formatowaniu dokumentów itd.
Więc na przykład teraz możemy nacisnąć w Wordzie i w Excelu skrót klawiszowy do odczytywania komentarzy, czyli nvda.alt.c, żeby odczytać komentarz w okienku takim, no polu edycji do odczytu, tak?
Że można było sobie przejrzeć strzałkami, tam coś wykopiować, wyerytować itd.
Można użyć opcji kursora przeglądu, żeby zaznaczyć sobie tekst w Firepoint.
Jeżeli używamy starego tego modelu obiektu, czyli nie UIA, tylko tego starego wyświetlania w Wordzie, no to poprawnie wyświetlane są już nagłówki, kolumn i wiersze w tabelach, ale w Braille’u.
Można teraz osobno ustalać, czy atrybuty czcionki mają być przez NVIDIA anonsowane mową i Braille’em.
Możemy ustawić czas oczekiwania, po ilu sekundach ma być traktowane naciśnięcie kolejne jako nowe naciśnięcie, a nie jako drugie naciśnięcie tego samego skrótu.
Czyli przykładowo mamy insert F12, który raz naciśnięty odczytuje czas, dwa razy datę, więc ile ma czasu minąć, żeby jeszcze było rejestrowane to drugie naciśnięcie.
To jest zwłaszcza przydatne dla osób, które mają gdzieś tam ograniczenia sprawności ruchowej i nie bardzo mogą odpowiednio szybko ten skrót na klawiaturze nacisnąć.
Można skonfigurować wyświetlanie formatowania tekstu w braillu oraz znaki początku akapitu w braillu.
Jeżeli przywołamy na monitorze braillowskim klawiszami routingu kursor do pozycji konkretnego znaku, to ten znak może być teraz też odczytywany mową.
To jest zwłaszcza przydatne, jak uczymy się języka obcego i jakąś tam literkę chcemy zidentyfikować, która się w tym języku pojawia.
Dodano też wsparcie dla przycisków routingu w prezentacjach PowerPoint i stabilność tego routingu też została poprawiona.
Jeżeli korzystamy z wieloliniowego monitora brailowskiego, to już powinny być wykorzystywane wszystkie linie.
Też NVIDIA jest już jakieś niestabilne po automatycznym skanowaniu Bluetooth i wykrywaniu monitora brailowskiego.
No i też tutaj po Edit 350 jest minimalną wersją, która jest wymagana, żeby współpracować dobrze teraz z tą nową wersją NVDA.
Język falerski i szekszan, ksekstan w ESP-ku dodane.
Międzynarodowy grecki brail i tajski brail dodane w Libluise.
No i dużo poprawek, śledzenia myszy w Firefoxie i trybu mowy na żądanie.
Także to są tutaj takie rzeczy, które się pojawiły.
Natomiast jeśli chodzi o Apple’a, to już mówiliście też o iOS-ie 18.1,
więc jest dużo różnych wydań też MacOS-a, tvOS-a, AppleWatchOS-a.
I co my tu mamy? Mamy nowe błędy niestety.
Mamy tu z jednej strony poprawki błędów, które były zgłaszane,
ale też niestety nowe błędy jak chodzi o VoiceOvera w iOS-ie.
No i jakie błędy są znane redakcji portalu AppleVis?
No na przykład są problemy z przenoszeniem aplikacji na ekranie głównym do folderów, używając przeciągania i upuszczania.
Czyli nie jeżeli używacie tych czynności na pokrętce, tylko po prostu stukniecie z przytrzymaniem i zaczniecie przesuwać aplikację.
Tak, czyli jeżeli wybieracie folder, do którego chcecie aplikację wrzucić, to ona ląduje dokładnie na lewo od tego folderu.
Czasami da się to obejść wchodząc do folderu i upuszczając aplikację tam, ale to też nie zawsze działa.
Czasami jest czytane, że folder jest otwarty, ale tak naprawdę nie jest, tylko dalej poruszamy się gestami po ekranie głównym.
No więc wtedy to opuszczenie aplikacji nie zadziała.
No i jest to poważny problem.
Podsumowania generowane przez Apple Intelligence nie są w pełni dostępne.
Chodzi tu o streszczanie tekstu.
Na przykład
czegoś co napisaliśmy w notatkach albo
wiadomości w poczcie.
No i niestety z testów
wynika to,
że teksty nie są odczytywane.
Teksty tych streszczeń, które są
generowane, nie są czytane przez
VoiceOver. No to nas na razie ten problem
nie dotyczy. Nie dotyczy
to podsumowań powiadomeń i podsumowań
w mailach i w wiadomościach.
Bardziej chodzi o tekst, który my sami napisaliśmy.
Tekst jest czytany po prostu jako
Kupa niezidentyfikowanych znaków i to można potwierdzić nazikując pokrętłem znak po znaku.
I ten sam problem jest kiedy dotrzemy do obszaru gdzie jest tekst podsumowany np. z notatek.
Ale naprawiono też pewne błędy. No i jakie to błędy naprawiono w iPadOS 18.1?
Jeżeli mamy włączone skróty brajlowskie na monitorze brajlowskim, no to wszystkie powiadomienia z voice overa, ogłoszenia,
czyli te wiadomości takie, które wyskakują na chwilkę i znikają, są poprawnie wyświetlane tym pismem skróconym.
Jeżeli pisaliśmy na klawiaturze w stylu Perkins, w aplikacji odpowiadając na maila,
to czasami były pomijane litery bezpośrednio po naciśnięciu spacji. To już jest naprawione.
Focus VoiceOver był bardzo powolny przy nawigacji po wykresach w aplikacji pogoda.
Było tak wcześniej w wersji 18, że na kontakcie w historii połączeń w aplikacji telefon była czynność na pokrętle zadzwoń.
Teraz to usunięto i jest tak jak było kiedyś, czyli podwójne stuknięcie w kontakt, od razu do niego dzwoni.
Można już przesuwać aplikację pokrętłem na pozycje nieregularne, czyli takie nie w prostej linii, tylko tak, żeby stworzyć ten taki okrągły, czy jaki tam tylko chcemy, nieregularny układ ikon na ekranie. Możemy to robić.
Po przestawieniu pokrętła na głosy, tak jak byśmy się tego spodziewali, jest odczytywana nazwa głosu.
Etykietki elementów na ekranie blokady już nie zawierają słowa wyłączone.
Przyciski menu kontekstowego tworzenia widgetów na ekranie głównym mają teraz prawidłowe etykietki.
Apple bardzo się stara, żeby zaetykietować przyciski w aplikacji zdjęcia.
Tutaj mamy całą listę zmian dotyczących głównie sztucznej inteligencji.
Można się zapoznać z całym artykułem na stronie Apple Vis.
Natomiast jeśli chodzi o WatchOS’a, tu jest jeden konkretny problem z głośnością w 11.1.
Tu się zepsuły gesty głośności, zaraz o tym przeczytam.
Zmieniło się to jak działa pokrętło głośności w VoiceOverze.
Po zaktualizowaniu do WatchOS’a 11.1 użytkownicy mogą stwierdzić, że zmniejszyła się głośność w stosunku do 11.0.
To zwłaszcza na Apple Watchu serii 10 było przez zespół testujący odnotowane, gdzie zostały bardzo poprawione głośniki.
Zespół tu sugeruje, że nową głośnością bazową może być 50% w 11.1, a było 80 kiedyś.
I żeby było bardzo skomplikowane, to kiedyś na pokrętle głośność w watchOS-ie modyfikowała głośność wszystkiego, czyli i dźwięków i voiceovera, a aktualnie jedynie dostraja to głośność voiceovera.
No i niestety, jedyny sposób jak to ustawić po staremu, to jest używając Siri i prosząc ją o ustawienie głośności na konkretny poziom.
Jeśli chodzi o poprawki w stosunku do poprzedniej wersji
to komplikacja odpowiadająca za te wartości
witalne
na modularnej tarczy
jest odczytywana już przez VoiceOvera poprawnie.
Żadnego nowego błędu nie znaleziono.
Mamy też tu maka Sequoia.
Mamy tutaj pewne nowe błędy.
Na przykład są poprawki, żeby iPhone Mirroring był dostępny, już powoli, ale nadal jest dużo jeszcze do skończenia i na razie Mirroring ma następujące błędy.
Przy próbie nawigowania po ekranie przełączenia aplikacji w zmirrorowanym iPhonie na Macu nie są odczytywane nazwy aplikacji.
Jest tylko odczytywane, że aplikacja jest aktywna, ale nie jaka to nazwa, więc nie da się na razie tego specjalnie używać.
Nie da się przy wybieraczach tak zwanych, czyli przy tych suwakach takich pionowych, niestety wybierać wartości za pomocą skrótów klawiszowych, po prostu to nie działa.
Nie da się w nie wejść i wybierać ich wartości.
Nie ma po prostu żadnych wartości do wyboru.
Zespół AppleWiz namawia, Apple zachęca do tego, żeby się pochylili nad problemami.
Następujące błędy zostały naprawione.
VoiceOver już nie wysypuje się podczas używania na Macach z procesorami Intel.
VoiceOver czyta teraz nazwy współdzielonych grup aplikacji hasła.
VoiceOverJ już teraz bez problemu otwiera informacje dla danego konta, jeżeli na nazwie konta naciśniemy ten skrót w aplikacji hasła.
I można używając standardowych komend VoiceOvera kliknąć w Safari przyciski menu strony i pokaż opcję personalizacji czytnika.
A, i przy zaznaczeniu opcji oznajmiaj grupy, ponoć naprawione zostało odczytywanie treści matematycznych w MathML-u, no to też super.
I też są w 15.1 nowe błędy i niestety dostępności, które zostały wykryte, a mianowicie jeżeli dotrzymamy jakichś alert,
typu na przykład budzik lub alert z kalendarza
to mimo, że on jest wyświetlany
w centrum powiadomień, to naciśnięcie VoiceOver N
czyta nam, że nie ma żadnych powiadomień.
Jest dużo nadmiarowych reakcji TabBack
jeżeli naciśniemy sobie VoiceOver i Spacje na wiadomości w aplikacji
Wiadomości. No i to jest tyle co wiemy o Macu.
Także to jest jeżeli chodzi o
Apple’a. Jeżeli macie jakieś jeszcze inne uwagi
obserwacje, to się z nami dzielcie, a ja opowiem wam jeszcze o nowej aktualizacji 1.4
oprogramowania w Victor Reader Streamie.
I tu będę czytał troszeczkę z telefonu tym razem, takie trudności techniczne.
Zaktualizowano acapelle do wersji 12.1 i doszedł nowy kanadyjski głos, zarówno Melanie jak i Melanie
dla angielskiego i dla francuskiego, kanadyjskiego, no i głosy już nie powinny się zacinać i jąkać.
Rozszerzono wsparcie różnych profili bluetooth, tak aby działały przynajmniej niektóre aparaty słuchowe.
Dodano opcję kategoryzacji nagrań.
Jeżeli robimy sobie nagrania głosowe, tzw. notatki, to możemy je dodawać do różnych kategorii.
Domyślnie wszystkie lądują w kategorii domyślnej, ale można również tworzyć własne kategorie.
Można teraz tworzyć nagrania w pamięci wewnętrznej, więc już nie jest wymagana karta pamięci, żeby tworzyć nagrania.
Na liście stacji internetowych, radiowych także przycisk Gdzie Jestem, czyli chyba piątka, działa tak jak w starych Victor Reader Streamach, czyli raz naciśnięta podaje informację o aktualnie granym na przykład utworze, a podwójnie naciśnięta daje informacje na przykład o bitrate i różnych technicznych danych danego nadawcy, danej stacji.
Podczas instalacji głosów będzie podawane w procentach, ile się już pobrało.
Zmodyfikowano rozmiar książek, które będzie można poprawiać z Bookshare’a.
To będzie jeszcze dalej poprawiane.
Tune-in, o ile jesteśmy zalogowani, będzie pamiętał naszą pozycję w podcastach i audiobookach.
Dodano opcję włączania i wyłączania odgłosów wydawanych przez przyciski, czyli tych piknięć.
Jest opcja włączone, wyłączone albo tylko piknięcie, czyli rozumiem, że mowa będzie wtedy wyciszona.
Przywrócono możliwość skakania po 10 elementów na liście przytrzymując czwórkę i szóstkę.
Można wpisywać własną wartość dla trybu uśpienia od 0 do 99 minut.
Przejście do trybu uśpienia ręcznie wyłączy wszystkie aktywne usypiacze.
I mamy też poprawki.
Poprawiono wsparcie dla nowych odcinków podcastów.
Zapętlanie działa we wszystkich półkach na książki.
Naprawiono przejście do czasu oraz gdzie jestem w książkach z NLS, z Narodowej Biblioteki Amerykańskiej.
Obniżono głośność piknięcia towarzyszącego włączeniu urządzenia.
Przycisk info działa prawidłowo na stworzonych przez nas playlistach.
Piknięcia podczas wyłączenia urządzenia powinny teraz grać w sposób bardziej przewidywalny.
Playlisty wybierane przez radio internetowe będą lokalne, a nie międzynarodowe. Nie wiem do końca o co tutaj chodzi.
Przyciski przewijania do przodu i do tyłu działają w podcastach TuneIn.
Do przodu przewija o 30 sekund, do tyłu o 10.
Naprawiono nawigację od końca książki w książkach Daisy.
Aplikacja podcastowa wysypywała się przy kanałach RSS zakodowanych w ASCII.
Nie można było stworzyć wyróżnienia zakładki po jej usunięciu. To też zostało naprawione.
Na liście języków dla syntezy English North America, czyli Ameryka Północna, został przekształcony na angielski.
Stany Zjednoczone, na US.
Naprawiono gdzie jestem w książkach, w podcastach, w niektórych książkach i w półkach o Deeble.
Naprawiono przejście do czasu.
Naprawiono wysypywanie podcastów po zaimportowaniu.
Naprawiono wysypywanie się podcastów, kiedy przeskakiwało się o 30 sekund.
Naprawiono błąd, który polegał na tym, że duża ilość plików muzycznych spowodowała zniknięcie playlisty cała muzyka.
Naprawiono błąd polegający na zatrzymywaniu całego dźwięku, kiedy wstrzymywaliśmy nagrywanie radia internetowego.
Naprawiono błąd polegający na tym, że radio internetowe przyspieszało po zablokowaniu klawiatury.
Naprawiono błąd nie pojawiania się książek na półce z pewnej, jednej z bibliotek francuskich.
I to wszystko, co w tym programowaniu wprowadzono, no i to też wszystko, jeżeli chodzi o moje aktualizacje na ten tydzień.
Ale to nie wszystko, jeżeli chodzi o zarówno tematy, które mamy przygotowane i wiadomości, które nam wysłaliście.
Bo na przykład napisał do nas Piotrek. Tylko muszę, coś mi ta wiadomość nie chce się pokazać, ale już się pokazała.
Cześć, jako słabofidzący i niewidomi mamy dostęp do darmowych audiobooków w ramach DZDN.
A czy mamy może darmowy dostęp do jakichś innych katalogów, na przykład zagranicznych?
Pozdrawiam, Piotrek.
To znaczy tak, nie tak bezpośrednio, teoretycznie tak powinien działać Marrakesz i można próbować się na ten Marrakesz powoływać w różnych bibliotekach gdzieś tam zagranicznych.
Czyli ten traktat z Marrakeszu.
Traktat z Marrakeszu, tak, przepraszam, bo tak bardzo skrótowo poleciałem. Chodzi o to, że jest ustawa, która nakazuje poniekąd podmiotom, różnym tworzącym literaturę dostępną, żeby tą literaturą się międzynarodowo wymieniać.
Natomiast była do niedawna dostępna biblioteka brytyjska Calibri.
Piotr chyba o tym mówił gdzieś z rok temu, że ona już dla nas dostępna tak o nie będzie.
Ona jest dostępna chyba w sposób płatny teraz.
Tak, tak, tak. Bardzo możliwe.
Natomiast można z różnymi bibliotekami dla niewidomych w różnych krajach próbować negocjować.
czy nie udałoby się na polskie orzeczenie o niepełnosprawności nas tam wpuścić.
Wiem, że taki trik działał z biblioteką niemiecką.
Ktoś chyba też próbował z rosyjską.
Nie wiem, jak tam jeszcze inne kraje.
Wiem, że my z zagranicy nie wpuszczamy.
Jest nawet oświadczenie na stronie, chyba, że coś się zmieniło.
Więc warto pisać do tych bibliotek i próbować negocjować,
bo wiem, że takie pojedyncze są przypadki, że to się udawało.
I mamy jeszcze wiadomość od Bartka, tym razem wiadomość głosową.
Witam. Tu jeszcze raz Bartek. Przepraszam, że będę drążył ten temat,
ale wydaje mi się, że jednak troszeczkę powinno się to nagłośnić,
więc zwracam się jeszcze do Was z takim pytaniem.
Gdzie można byłoby zwrócić się z tym problemem, żeby to zlecenie na Białą Laskę również było dostępne w aplikacji M-Obywatel oraz w mojej IKP?
Z góry dzięki za odpowiedź.
Bo ja wiem.
To jest dobre pytanie, to znaczy no podejrzewam, że Ministerstwo Zdrowia po prostu.
Może.
Pytanie, czy powinniśmy zgłosić, czy jakaś petycja, czy czym najlepiej uderzać, żeby to miało jakikolwiek sens, żeby to jakoś efektywnie…
Najpierw myślę, że warto zacząć od pytania i jakąś odpowiedź się uzyska, a wtedy na podstawie tej odpowiedzi można będzie przedsięwziąć jakieś odpowiednie dalsze działania,
bo to na ten moment w zasadzie nie ma żadnej oficjalnej informacji dlaczego to nie jest dostępne w tej, w aplikacji.
No właśnie, no bo jeżeli to jest recepta, no ale może ktoś wie, może ktoś napisze, no bo z jakiegoś powodu tak to właśnie działa.
Michale, Echo Vision, kolejne okulary inteligentne dla niewidomych.
Tak, ostatnio tego coraz więcej mamy i mamy tym razem taką korporację amerykańską chociaż składającą się tak naprawdę z dwóch osób o bardzo azjatycko brzmiących nazwiskach, tak to powiem, wydaje się, że to są panowie chińczycy albo koreańczycy, ale chyba bardziej chińczycy.
W każdym razie firma z Doliny Krzemowej, start-up wspierany przez aniołów biznesu.
No i ma do zaoferowania niewidomym okulary. Okulary Echovision.
Tak one się nazywają i teraz kilka słów na ich temat.
Bo słuchajcie, można je kupić, co prawda na razie sprzedaż jest realizowana w Stanach Zjednoczonych.
Ale żebyście wiedzieli co tracicie, no to kilka słów na ich temat.
Więc tak, zacznijmy od specyfikacji, bo to myślę, że jest najistotniejsza kwestia.
Procesor w specyfikacji jest wymienione, że to jest Qualcomm Snapdragon.
Żadnej tu konkretnej więcej informacji nie ma.
Za to już na temat kamery jest nieco więcej.
Tutaj 13 megapikseli ta kamera ma w tych okularach.
Głośniki stereofoniczne, nie zasłaniające uszu,
więc będzie można się w tych okularach przemieszczać
i słyszeć co się wokół nas dzieje, a przy okazji słyszeć z nich dźwięk.
Wielokierunkowy mikrofon z redukcją szumu, to na wejściu.
Bluetooth 5.3 BLE, czyli ten Low Energy, mamy też łączność bezprzewodową 2, 4 GHz i 5 GHz, sterowanie głosem, dwa fizyczne przyciski oraz touchpad.
No brzmi to wszystko znajomo, tu żadnej Ameryki twórcy nie odkryli.
A co mamy dalej?
No mamy opisywanie scen z użyciem AI, bo teraz AI jest wszędzie. Jakie to AI? Tego nie wiadomo.
Możliwość łączenia się z wolontariuszem, obsługa np. przez ERE albo Be My Eyes, ale tutaj zaczyna się to co mnie w ogóle zainteresowało w tych okularach.
No bo kolejne okulary ze sztuczną inteligencją i tak dalej i tak dalej to nie jest jakaś tam powiedzmy żadna rewelacja,
ale twórcy zapewniają, że platforma będzie otwarta i dzięki temu będzie można sobie instalować różnego rodzaju aplikacje.
Czyżby to były jakieś okulary po prostu z Androidem?
Może.
Niestety no ta specyfikacja techniczna jest dosyć skąpa, więc wiele więcej nie wiadomo na ich temat.
Funkcje OCR także będą w tych okularach lekkie i modnie wyglądające.
Tak przynajmniej zapewniają twórcy.
I ile to będzie wszystko kosztowało?
449 dolarów w przedsprzedaży.
Można już od teraz je kupować, od 15 października są w tej przedsprzedaży.
Działa ta przedsprzedaż dosyć ciekawie, bo najpierw trzeba uiścić taki depozyt 90-dolarowy, a potem nam z karty pobierze całą resztę.
Natomiast cena regularna to będzie 599 dolarów.
I teraz zajrzyjmy sobie do najczęściej zadawanych pytań, a przynajmniej do niektórych z tych pytań na stronie.
Co my tutaj mamy? No kiedy mogę rozpocząć składanie zamówień? No to już wiemy, że od 15 października.
Kiedy okulary zostaną wysłane po ich zamówieniu? To jest myślę, że dosyć interesująca rzecz.
Jeżeli ktoś by te okulary rzeczywiście jakoś tam sobie kupił, no to może się ich spodziewać w drugim kwartale 2025, czyli przyszłego roku.
Wcześniej twórcy być może dostarczą klientom jakieś egzemplarze testowe, nie jest to wykluczone.
Kolejna kwestia to czy istnieje okres próbny.
Tak, po otrzymaniu urządzenia obowiązuje 30-dniowy okres próbny, jeśli nie jesteś zadowolony możesz zwrócić urządzenie w celu uzyskania pełnego zwrotu w kosztu w tym okresie,
chyba, że jest to zamówienie specjalne np. z soczewkami na receptę, o tym będzie za momencik.
Czy istnieje gwarancja? Gwarancja? Istnieje 12-miesięczna gwarancja na ten sprzęt, więc no to tak nie za dużo powiedziałbym,
a wziąwszy pod uwagę, że to będzie jednak coś, co nosimy na sobie, to tym bardziej.
Czy okulary będą nadal aktualizowane, czy muszę płacić za aktualizację?
I to jest myślę, że dosyć istotna rzecz.
Będziemy nadal aktualizować oprogramowanie okularów, aby poprawić komfort użytkowania
i dodać funkcje, za te aktualizacje nie są pobierane żadne opłaty.
No w przeciwieństwie do Envision Glasses chociażby.
Czy mogę otrzymać soczewki na receptę do okularów?
Tak, można, wystarczy podać nam swoją receptę na stronie albo przez maila
i wyślemy do Ciebie okulary EcoVision z soczewkami na receptę spełniającymi Twoje wymagania.
Czy mogę wybrać kolor soczewek?
Oczywiście masz możliwość wyboru spośród przezroczystych i przyciemnianych.
Dodatkowo oferujemy klipsy do okularów przeciwsłonecznych jako opcję alternatywną.
Jeszcze tu jest taka informacja.
Wysyłka to na razie informacja, że tylko w Stanach.
Jakie języki obsługuje Echovision?
Na razie angielski, ale pracują ponoć nad tym, żeby było tych języków więcej.
Czy Echovision jest kompatybilne z aparatami słuchowymi?
no to twórcy informują, że odnieśli pewne sukcesy w zakresie kompatybilności aparatów słuchowych z ich okularami.
Ponieważ jednak aparaty słuchowe różnią się znacznie pod względem modeli i marek,
konieczne mogą być dalsze testy w celu zapewnienia szerokiej kompatybilności.
Jeśli mógłbyś podzielić się marką i modelem swojego aparatu słuchowego
i wysyłając te informacje na naszego maila kontaktmałpaagiga.ai
no to potraktujemy te informacje w priorytetowy sposób.
Czy do korzystania z EcoVision potrzebny jest telefon?
No jest potrzebny, będzie aplikacja na iOSa i Androida.
Czy EcoVision potrzebuje planu transmisji danych do działania?
Oni tu napisali, że nie, ale potrzebuje jakiegoś łącza internetowego, więc będzie to działało na podobnej zasadzie co właśnie chociażby okulary od Envision, czyli po prostu zestawiamy sobie hotspota z naszym smartfonem, no i w ten sposób korzystamy z tych okularów.
Czy systemy iOS i Android są obsługiwane? Tak i to jest tyle tak naprawdę.
Jak dla mnie to najbardziej ciekawe z tego wszystkiego jest to, że po prostu te okulary są otwarte.
Przynajmniej tak deklarują ich twórcy.
Natomiast jak to będzie w rzeczywistości działało, no to bardzo ciężko powiedzieć,
bo te informacje są bardzo, ale to na bardzo dużym stopniu ogólności, więc ciężko powiedzieć, co tam będziemy mieli, a jeżeli chodzi o funkcje, no to niczym się to nie wyróżnia w porównaniu do innych urządzeń tego typu.
No, ale może ta otwartość to będzie coś, co…
Chodzi dość taniej, co jak na takie sprzęty.
Tak, to prawda. Ta cena też nie jest jakaś taka wygórowana.
Więc tutaj może, no…
Może ktoś kupi, przetestuje.
No zobaczymy.
Zobaczymy.
I został nam w zasadzie ostatni news,
również twój, na temat tego, że
Apple zaprezentował nowe
Mac i Mini.
Zgadza się.
I tu mamy
informację od Apple’a.
Ja akurat będę się posługiwał Geek Weekiem od Interi, oni tu trochę opisali co my tu mamy.
Nowy Mac Mini tak naprawdę z dwoma procesorami Apple M4, zarówno M4 jak i M4 w wersji Pro.
One się różnią przede wszystkim wydajnością no i też oczywiście ceną.
Jak czytamy, Maca Mini najnowszego zamknięto w obudowie o bardzo kompaktowych rozmiarach, to sprawia, że można go zmieścić w wielu miejscach.
Jego wymiary to zaledwie 12,7 centymetra na 12,7 centymetra na 5 centymetrów, więc to jest rzeczywiście maleństwo.
Z przodu komputera umieszczono dwa złącza USB typu C.
i port słuchawkowy, natomiast z tyłu mamy kolejne interfejsy USB-C, HDMI i Ethernet i ten Ethernet to jest w ogóle ciekawa rzecz, bo domyślnie jest gigabitowy, natomiast jakby to nam było za wolno, no to możemy sobie zażyczyć interfejs o prędkości 10 gigabitów.
To się wydaje, że jest na wyrost, ale skoro domowy użytkownik może już mieć światłowód o przepływności dwóch gigabitów, chociażby na downloadzie,
a w niektórych miejscach w Polsce to i dziesięciu, oranż robi jakieś takie testy, no to te dziesięć gigabitów Ethernetu to wcale nie jest jakaś taka wygórowana prędkość.
nie mamy czytnika kart pamięci i tradycyjnych złączy USB typu A.
No szkoda, bo jednak wydaje mi się, że trochę jednak tego sprzętu mamy jeszcze na USB typu A.
Ja zdecydowanie mam w większości różne podzespoły na USB A, a nie na USB C,
więc trzeba by się było bawić z przejściówkami albo wszystko wymieniać.
Cóż my tu jeszcze możemy sobie wyczytać?
No, że nowy Mac Mini jest dostępny z dwoma procesorami do wyboru.
To jest podstawowy układ M4 oraz M4 Pro.
W ofercie mamy konfigurację z maksymalnie 14-rdzeniowym procesorem
i 20-rdzeniową kartą graficzną,
a jeżeli chodzi o pamięć operacyjną RAM,
no to najmniej mamy szesnaście, a najwięcej sześćdziesiąt cztery gigabajty.
Natomiast na dane przeznaczono dysk SSD o pojemności nawet do ośmiu terabajtów.
A zaczynamy od dwustu pięćdziesięciu sześciu gigabajtów.
To jeszcze dodam.
No i tu mamy informację, że komputer jest mały, drzemie w nim spory potencjał, duża wydajność,
że chip M4 zapewnia wsparcie dla Apple Intelligence, no bo teraz oni się bardzo tym wszem i wobec chwalą.
No to teraz myślę, że warto tu powiedzieć też o cenach, bo oczywiście wiadomo, że tutaj jeszcze kwestia jest wydajności.
To zawsze Apple też się tym dość mocno chwali.
Natomiast jak to wygląda jeżeli chodzi o ceny?
Apple obecnie pozwala składać zamówienia na Maca Mini z czipami M4.
Pierwsze dostawy do klientów planowane są na 8 listopada
i ceny w Polsce prezentują się następująco.
Mac Mini z Apple M4 to jest 2999 złotych i to jest najniższa konfiguracja, czyli 16 GB RAM-u i 256 GB dysk twardy.
Tam jak zapłacimy tysiąc więcej, tysiąc więcej to mamy zdaje się 512 dysk twardy SSD i to jest myślę, że ta konfiguracja, która ma sens, bo te 256 to jest chyba jednak troszeczkę za mało.
Natomiast Mac Mini z Apple M4 Pro od 7 499 zł, więc tu już jest znacznie więcej, znacznie drożej, jak na komputer, który jest de facto taką kostką, do którego trzeba podłączać wszystkie peryferia.
Ja bym się bardzo mocno zastanawiał czy w to iść, bo ten Mac Mini z tym podstawowym procesorem za powiedzmy 4 tysiące mieć komputer Apple’a, no to myślę, że jest to coś co można rozważyć.
Nie wiem czy dla każdego będzie to rzecz fajna, ale ja podejrzewam, że jeżeli kiedykolwiek jeszcze pójdę w ekosystem od Apple’a jeżeli chodzi o komputer,
to właśnie pójdę w Maca Mini, nie w żadnego MacBooka, tylko właśnie w Mini, żeby sobie po prostu równolegle postawić go obok mojego komputera stacjonarnego i żeby mieć takie środowisko pracy, że tu mam peceta, tu mam Maca, obsługuję to wszystko jedną klawiaturą i wtedy rzeczywiście będzie miało to sens.
No, też się właśnie zastanawiam, no ale jeszcze troszkę czasu przede mną.
I to wszystko, co dla was przygotowaliśmy. Sprawdzę jeszcze, czy nie mamy jakichś nowych wiadomości, ale nie widzę nic nowego.
A czy pojawiło się komuś z was jakieś jeszcze newsy, na przykład w trakcie audycji?
Ja się trochę jeszcze doniosłam i mam trzy newsy, więc jeżeli mogę to je zaprezentuję.
W sumie wszystkie one są drobne, ale myślę, że podobnie ważne.
Pierwsza rzecz to jest taka, że dotarłam w końcu do strony, która pozwala na przegląd wszystkich narzędzi i sposobów na to, żeby pozbyć się permanentnie nowego Outlooka.
Śledzę temat bardzo intensywnie, bo nie cierpię tego i chcę przywrócić pocztę i kalendarz, więc jak tylko też coś macie, to dawajcie znać, bo jestem zagorzałym przeciwnikiem tego programu, ponieważ jest webowy, powolny, nie pozwala na wszystkie personalizacje, o które mi chodzi.
no a po prostu ta posta jest i kalendarz, ta stara, bardzo fajnym i wygodnym narzędziem.
No i znalazłam taki artykuł na Microsoft Learn, który daje instrukcję jak włączyć z powrotem przełącznik
wypróbuj nowy Outlook, bo mi się już ten przełącznik nie pojawia i jest klucz w rejestrze,
który przywraca ten element interfejsu, że możemy sobie kliknąć to, żeby już nie
chcieć outlooka, a nie musimy tego wyklikywać z ustawień.
Kolejno jest polecenie w PowerShellu na to, żeby permanentnie odinstalować outlooka
i nie pozwolić mu na ponowną reinstalację po restarcie systemu.
Nie wiem jak z aktualizacjami, ale po restarcie on mi się znowuż pojawiał, więc to jest komenda,
której jeszcze nie testowałam, bo nie restartowałam systemu, ale mam nadzieję, że mi zadziała.
I jest jeszcze klucz rejestru, który nie zezwala na auto-update outlooka.
I podobno to też jest potrzebne w starszych wersjach systemu, żeby pozbawić się tego outlooka na stałe.
I to są wszystkie te narzędzia, które myślę, że mogą nam pozwolić na to, żeby się go pozbyć już na dłuższy czas.
I to jest jeden news.
A dwa pozostałe newsy są bardzo podobne.
Dlatego, że zarówno Google Chrome w wersji 131, jak i zdjęcia w wersji insiderskiej otrzymały OCR.
Z tym, że Google Chrome ma automatyczny OCR plików PDF i jest to podobno przeprowadzane narzędziami od Google, ten OCR.
Ja sobie na chwilę zainstalowałam Chroma, żeby to przetestować i miałam komunikat, że w sumie to plik nie jest dostępny,
ale nie mamy teraz plików, które pozwalają na wyodrębnianie tekstu z plików, więc spróbuj później.
A że to było tylko dla testów, to od razu tego chroma odinstalowałam.
Ale na Altenie jest wątek, w którym użytkownik chwalił się, że mu to działa,
więc pewnie jak już macie ten update 131, no to będziecie mieli tą opcję.
I to jest automatyczne, tam nic nie trzeba włączać, nic nie trzeba ustawiać.
Natomiast w zdjęciach jest OCR właśnie dla zdjęć, z tym, że on jest taki troszkę słaby, bo jest z kopiuj cały tekst, jest taki przycisk, nie mamy żadnego, żadnej możliwości szybkiego podglądu tego co jest na zdjęciu, po prostu trzeba kopiować i czytać schowek, ale zawsze to jakaś tam opcja, żeby w miarę szybko dowiedzieć się co jest na danym zdjęciu.
No i tyle newsów ode mnie.
A ja mam dwa drobne jeszcze. Po pierwszej to pewnie Piotr będzie omawiał za tydzień bardziej szczegółowo. Wyszła nowa gra na iPhona ze stajni Oriola Gomeza. Jest to gra Round Logic i jest to gra logiczna, taka puzzle układanka, w której musimy przeskakiwać przez okręgi, zrzucając je z planszy przy okazji.
plansza jest cała pokryta okręgami, zostaje tylko jedno puste pole i naszym celem jest te okręgi jakoś tak pozrzucać, żeby cała plansza została pusta, jeżeli dobrze rozumiem, myślę, że Piotr to za tydzień jeszcze lepiej opisze.
Gra dostępna za 15 zł w języku angielskim i hiszpańskim na ten moment, aczkolwiek znając Oriola te gry pewnie będą kiedyś tłumaczone.
A druga rzecz, może ci z Was, którzy używają cinkciarza, się zorientowali, że wyłączono nam dostęp do kart oraz do przekazów pieniężnych i do wymiany walut.
Pewnie też już czytaliście, jaka jest sytuacja. Cinkciarz aktualnie jest w kłopotach wynikających z tego, że trochę osób się zgłosiło, że nastąpiło oszustwo z ich strony,
że nie realizowali przekazów, że nie realizowali wymian, że się tłumaczyli jakimiś usterkami, które mieli wyeliminować, nie eliminowali ich.
No więc aktualnie tam kręci się Centralne Biuro Śledcze, Komisja Nadzoru Finansowego, odebrała im licencję.
Cinkciarz też walczy w ogóle z wszystkimi możliwymi bankami w Polsce, że tam nie chcieli jakoś pozwolić na otwieranie kont, coś tam.
i bardzo się tam dzieje dużo dziwnych rzeczy.
W związku z czym na ten moment wiele usług w cięgciarzu po prostu nie działa.
Czy się z tego podniosą? Dobre pytanie. Nie wiadomo.
Więc może nadszedł czas, żeby znowu wrócić do rewoluta.
No ale zobaczymy, jak się sytuacja rozwinie.
Ja tu jeszcze mam komentarz od naszego słuchacza Krzysztofa.
Strona Prudence, na której oprócz screenreadera są także jakieś gry wydane przez tę grupę, to appshubforvisuallyimpaired.com, długi adres, ale będzie w linkach, także spokojnie, już sobie dorzuciłem do notatek, więc będzie na pewno ten adres, jeżeli jesteście zainteresowani.
I tu jeszcze Krzysztof napisał, dodam jeszcze, że na Samsungach już dawno nie jest instalowany Voice Assistant, a zmodyfikowany przez Samsunga TalkBack.
No mi się zawsze wydawało, że Voice Assistant to też był zmodyfikowany TalkBack, ale widocznie oni teraz nawet i po prostu już nie używają tej nazwy.
To rzeczywiście dzięki Krzysztofie za to wyjaśnienie.
Jeszcze Krzysztof tu dopisuje, że ja sobie za pomocą oprogramowania ADB Control wyłączyłem talkbacka samsungowego
i korzystam z talkbacka od Google, ponieważ ten od Samsunga nie ma rozpoznawania ekranu przez Gemini.
Pozdrawiam. I my też pozdrawiamy, dziękujemy za komentarz.
No i to chyba wszystko co mamy przygotowane w takim razie na dzisiaj.
W związku z tym nie pozostało mi nic innego jak się pożegnać.
Przypomnę tylko, że dzisiaj w audycji brali udział Mauli Nagajoch, Paweł Masarczyk, Michał Dziwisz i ja, czyli Tomek Bilecki.
No i do usłyszenia, miejmy nadzieję, za tydzień.
Był to Tyflo Podcast. Pierwszy polski podcast dla niewidomych i słabowidzących.
Program współfinansowany ze środków Państwowego Funduszu Rehabilitacji Osób Niepełnosprawnych.