TyfloPrzegląd Odcinek nr 202 (wersja tekstowa)
Pobierz napisy w formacie SRT
Pobierz napisy w formacie VTT
Fundacja Instytut Rozwoju Regionalnego prezentuje Tyflo Podcast.
Dzień dobry, dzień dobry. Taka spokojna muzyczka nam przed chwilką grała.
Dzisiaj mamy 20 września i 202 audycję Tyflo Przeglądu.
Jest parę minut po 20, konkretnie 5 minut, trochę ponad 5 minut po 20.
Dzisiaj jesteśmy w składzie w miarę dużym, jak na ostatnie warunki,
to znaczy jest Paweł Masarczyk, jest Piotrek Machacz,
Witajcie.
Taki męski skład.
Nawet na żywo jesteśmy.
Takie jaja.
Ostatnio to jakoś tak nie zawsze to się zdarza.
Dzisiaj tak jest i miejmy nadzieję, że tak będzie coraz częściej.
Za tydzień jeszcze nie, ale potem już myślę, że nic się więcej dziać nie będzie.
Ale słuchajcie, to jest i tak fajnie, że ten nasz zespół,
mimo tego, że nie zawsze jesteśmy w stanie pojawić się na żywo,
to jest w stanie wam dostarczyć praktycznie co tydzień porcje wieści.
I to znów trzygodzinne, bo to zeszły tygodnie trzy godziny.
Bo jest audycja offline.
Także słuchajcie, jeżeli jeszcze tam nie zaglądaliście na stronę Tyflo Podcastu,
to zajrzyjcie koniecznie, posłuchajcie sobie,
ale to może po tym jak skończymy tę audycję,
jak skończymy 202, to wskoczcie na 201.
Ja tylko pamiętam jak na samym początku się zastanawialiśmy,
czy to na pewno robić co tydzień, może co miesiąc,
bo przecież co tydzień to my znajdziemy newsy na, nie wiem, 5 minut.
Tak, tak to wygląda właśnie.
Oczekiwanie, rzeczywistość, rzeczywistość nas przerosła po prostu.
Natomiast słuchajcie, skoro tak jeszcze przed naszymi informacjami w skrócie,
to a propos jeszcze strony Tyflo Podcastu,
to ja jeszcze tylko dodam, że jeżeli korzystacie na pewno z aplikacji Apple Podcasty,
jeżeli by się tak zdarzyło, że wam po prostu z tych Apple Podcastów zniknęliśmy,
to spokojnie, to nie jest tak, że Apple nas nie lubi,
tylko trzeba było zrekonfigurować kanał RSS.
No niestety, jak się ma ponad 2000 elementów w tym kanale RSS,
to serwer tego nie lubi i trzeba było zdecydowanie ograniczyć.
Teraz nasza strona Tyflo Podcastowa działa zdecydowanie szybciej,
zdecydowanie żywiej i już nie powinno być jakichś takich problemów,
że coś tam się nie wczytuje, że czasem po prostu nie można na tę stronę wejść.
Teraz naprawdę wszystko, jak to kolokwialnie mawiają gra i bucy.
Natomiast jeżeli stało się tak, że wyleciała wam subskrypcja Tyflo Podcastu,
no to po prostu poszukajcie nas, zasubskrybujcie jeszcze raz i będzie wszystko okej.
A w RSS-ie ile jest teraz elementów?
Teraz 10. Teraz 10.
Tylko nie 10 ostatnich.
Tak standardowo.
Miałem skonfigurowane to w naszym WordPressie, żeby był miliard,
więc przekonaliśmy się, jakie są konsekwencje naszych działań.
Zalecamy taką postawę życiową.
Dwa tysiące ponad elementów.
Kto by się spodziewał 15 lat temu?
Dokładnie.
No i właśnie z tą myślą, bo to też były inne czasy, słuchajcie.
Przecież wtedy korzystanie ze stron internetowych może nie było jakieś bardzo skomplikowane,
ale różnie to bywało i ludzie zdecydowanie chętniej korzystali z jakichś takich klientów podcastowych.
Klango przecież jeszcze wtedy było.
Tyflo Podcast przecież powstawał wtedy, kiedy chyba najwięcej osób to słuchało nas przez Klango,
którego już nie ma.
Więc no wtedy też trzeba było to trochę inaczej o tym myśleć.
Teraz mamy aplikację.
W aplikacji na przykład te Windowsa wszystkie materiały są.
To tak gdyby ktoś pytał, to nie jest tak, że na przykład zniknęły.
No i nie ma z tym problemu, żeby to jakoś źle chodziło.
No dobrze, to po takim trochę dłuższym wstępieniu standardowym może faktycznie opowiedzmy o tym,
co się dzisiaj będzie działo i dzisiaj już Michał, prawdziwy Michał zapowie to, co trzeba.
W tym tygodniu w Tyflo Przeglądzie.
Bimajaj ponownie opisuje ludzi.
Firma odniosła się do problemów.
iOS 17 wydany.
Mamy listę błędów i poprawek w dostępności.
Nowa wersja Twistcake.
Kill NVIDIA remotely.
Narzędzie do zdalnego restartowania NVIDIA.
Dzięki aplikacji Cornok wyłączysz gładzik MacBooka.
Live Reader.
Narzędzie udostępniające Ableton Live.
Powstaje wieloplatformowa biblioteka do syntezy mowy.
Podstawowy widok HTML w Gmailu zniknie w przyszłym roku.
Selfie Stick może się przydać też niewidomemu.
Starostwo powiatowe w Lubinie, bardziej przyjazne niewidomym.
Math Tic Snip.
OCR do treści matematycznych.
Mortal Kombat 1 oficjalnie wydany.
Kolejna duża aktualizacja Hearthstone.
Wybory naprawdę dostępne.
Zaproszenie na konsultacje społeczne.
Nowa wersja ZDESER.
AirPodsy noszone na ubraniu?
Apple ma na to patent.
Google Bart może teraz przeszukiwać Twoją pocztę i pliki.
Free Music Demixer.
Wyodrębnianie wokali z piosenek w przeglądarce.
Gdzie da się jeszcze kupić muzykę?
Jak wyłączyć skróty do aplikacji Office w Windowsie?
Wszystko to a pewnie jeszcze więcej już za chwilę.
Zaczynamy!
Zapraszamy więc do kontaktu.
To jest chyba dla wytrwałych raczej taki materiał.
A zacznijmy od tematu jeszcze z poprzedniej audycji.
Be My AI, który raz opisuje twarze, raz ich nie opisuje.
No znowu coś tam zaczyna zopisywać.
Na pewno odniósł się do tego, że taka właśnie sytuacja następuje.
I odniósł się do tego dość, no w taki dość jasny sposób.
Jeżeli chodzi przynajmniej o ich jakby stanowisko w tej sprawie.
Piotrze.
Dokładnie, no właśnie a propos rzeczy, które raz są, raz ich nie ma.
No to właśnie jest to rozpoznawanie różnych detali dotyczących osób na zdjęciach.
Ona właśnie raz jest, raz ich nie było.
Po prostu te osoby były zakrytywane.
Potem całe zdjęcia nie były rozpoznawane.
No a teraz z powrotem są.
Niektórzy mówią, że troszeczkę mniej gdzieś detali jest rozpoznawanych.
Ja tego jakoś nie zauważyłem, ale…
Tak, ja się z tym zgadzam.
Moim zdaniem jest mniej detali.
Gdzieś tam te opisy są krótsze, ale…
Ale są.
Ale są, to jest jedna rzecz.
I druga, jak dopytamy BMI AI, to on nam te opisy bardzo chętnie rozszerzy.
On w tym pierwszym swoim opisie nie ujawnia jakby wszystkiego,
bo ja na przykład ostatnio robiłem sobie zdjęcie tak do testów
i była informacja na przykład, że jestem w jakiejś tam koszulce z napisami.
No okej, ale jakie to są napisy?
Zapytałem o te napisy i na przykład kiedyś to miałem takie wrażenie,
że jeżeli on coś pisał takiego właśnie bardzo ogólnego,
że coś jest z napisami, to że on ma problem z tym,
żeby te napisy po prostu zinterpretować.
Kiedyś próbowałem go bardzo nakłonić do tego,
żeby on coś powiedział więcej na przykład o napisach,
to jakoś z trudem coś od niego wydobyłem,
ale to też było takie bardzo niewiadome.
Natomiast teraz jak zapytałem go o konkretne napisy, które tam są,
no to nie było najmniejszego problemu, on wszystko powiedział, jakie te napisy są.
Ale w tym pierwszym rzucie mam wrażenie, że te opisy są troszeczkę uszczuplone,
chociaż nie jakoś bardzo.
Nie jakoś bardzo, no właśnie ja też sobie takie selfie zrobiłem
i też mi ogólnie opisało, że po prostu tam siedzi jakiś mężczyzna
i to zdjęcie było tak zrobione, że górę mu trochę ucięło,
no i faktycznie tak sobie to zdjęcie jakoś zrobiłem.
Ale jak dopytałem się o tam szczegóły właśnie twarzy,
no to już mi więcej wtedy powiedział kolor oczu i takie różne cechy,
więc da się jak najbardziej to jak na razie uzyskać.
No ale właśnie co napisała firma Be My Eyes,
no bo oni tutaj współpracują z OpenAI,
no i ludzie się zastanawiali, co się z tym dzieje.
No i w końcu mamy oficjalne stanowisko.
W dłuższym skrócie, tak jak przepuszczaliśmy,
jak mówiliśmy w ostatniej audycji, no to są kwestie prawne.
To prawo się dynamicznie zmienia.
Jonathan Mosen w swoim podcastie mówił,
że tam prawdopodobnie jakieś sprawy się toczyły w stanie Illinois w Stanach Zjednoczonych
i tutaj OpenAI czegoś się przestraszyło.
Nie wiem, czy tam jakieś pozwy były,
nie udało mi się do bardziej szczegółowych informacji znaleźć,
natomiast coś tam się działo, no nie tylko tam, zresztą,
więc tutaj sytuacja się dynamicznie zmienia
i to samo powiedziała firma Be My Eyes i OpenAI.
No i krótkotrwale napisali tak,
że może nie są w stanie przywrócić pełnej możliwości opisywania twarzy,
no ale długotrwale będą pracować zarówno oni i OpenAI z różnymi rządami,
żeby kiedy będą jakieś powstawały prawa,
które będą regulowały sztuczną inteligencję,
żeby właśnie takie tematy były gdzieś brane pod uwagę,
bo jak oni tutaj zaznaczają,
to nie chodzi o identyfikowanie twarzy,
identyfikowanie konkretnych osób, a opisy.
Opisy dla między innymi właśnie osób niewidomych,
ale nie tylko, może jakieś inne,
bo po prostu chodzi nam o cechy danej twarzy,
może jakaś firma, która by produkowała jakieś kosmetyki,
jakieś inne produkty,
by chciała takie opisy też do innych rzeczy wykorzystać,
więc tutaj myślę, że to jest taka kwestia,
która na pewno musi być doprecyzowana.
Natomiast na razie to zaczęło działać
i tutaj też Be My Eyes zasłoniło się taką informacją,
że w czasie tej bety zarówno oni i OpenAI
mogą dokonywać jakichś zmian
i ta aplikacja czasami może działać inaczej,
działać lepiej, przestać działać.
Myślę, że w tym czasie mieliśmy okazję zobaczyć
wszystkie te scenariusze,
dlatego tak sytuacja wygląda.
Na razie to działa,
więc jeśli chcecie sobie jakieś zdjęcia może z wakacji
albo zdjęcia, które wam znajomi wysłali opisać,
to może być dobry moment
i miejmy nadzieję, że przynajmniej na następne kilka dni,
a może nawet więcej, tygodni, miesiące,
to będzie nadal działało tak fajnie jak do tej pory.
Natomiast naprawdę akurat w bardzo złym momencie
się to opisywanie popsuło,
bo akurat miałem dwadzieścia parę zdjęć
z moich wakacji, które chciałem wrzucić na fejsa.
No i jak to tak bez opisów alternatywnych?
No trochę słabo,
więc trzeba było te opisy robić ręcznie,
bo jak za którymś razem,
jak wrzuciłem któreś kolejne zdjęcie
i bimajajaj odpowiedział mi,
że tu znajduje się informacja,
że to zdjęcie zawiera dane wrażliwe
albo może zawierać dane wrażliwe
i nie rozpozna mi tego w ogóle,
no to po prostu było to dosyć irytujące,
więc mam nadzieję, że zostanie to tak jak jest
i że nie będzie z tym większych problemów.
Swoją drogą, czy wy się orientujecie,
czy na przykład ktoś już zaczął tworzyć może jakieś skróty,
żeby te zdjęcia łatwiej było do tego bimajajaj wysyłać?
Ja głównie mam na myśli kwestię zdjęć z Facebooka,
bo to jest moim zdaniem największy problem niestety
na chwilę obecną,
że po prostu z Facebooka zdjęcia do bimajajaj
nie da się bezpośrednio w żaden sposób przesłać.
Jedyne co, to można je zapisać w bibliotece zdjęć,
a potem wysłać do bimajajaj
i to też niestety pojedynczo.
Nie patrzyłem, natomiast pewnie tam będzie kwestia taka,
że może jeśli Facebook może chociaż jakiś link udostępnił,
to po prostu trzeba byłoby to jakoś pobrać,
a chyba do tego kiedyś były jakieś skróty,
to w poraniu wtedy to wysłać.
Bo nie wiem, czy chyba skróty nie mają jak nawet zrzutu ekranu zrobić prostego.
Bo mnie to naprawdę zastanawia,
dlaczego można zdjęcie zapisać w bibliotece,
a dlaczego nie da się wysłać go bezpośrednio
po prostu z Facebooka, z poziomu Facebooka do innej aplikacji.
Tu mam wrażenie, że to też jest kwestia jakichś ustawień prywatności,
bo na przykład niektóre zdjęcia można udostępnić
do innej aplikacji, ale w BeMyEye się tego zrobić nie da.
To znaczy ja sobie mogę klikać, że tam opisz za pomocą BeMyEyes,
ale to i tak nic nie daje, to się po prostu nie uruchamia w żaden sposób.
No pytanie, co tutaj wysyła Facebook do tego udostępniania,
czy jakiś link, czy to pewnie nie są po prostu dane obrazkowe,
więc dlatego to by się nie wyświetlało.
Znaczy najlepiej to by w ogóle było, gdyby dało się po prostu,
bo przecież zdjęcia można kopiować, nie tylko tekst można kopiować,
można kopiować też zdjęcia.
No właśnie, do schowka.
I by było super, gdyby to się po prostu dało.
Ja mam nadzieję, że oni to dopracują, bo narzędzie jest potężne
i generuje naprawdę bardzo fajne opisy.
I szczególnie jak my wiemy, co było na tym zdjęciu,
a po prostu potrzebujemy kilku zdań do tekstu alternatywnego,
to to jest super, no tylko ta procedura cała,
jeszcze można by to było skrócić.
No właśnie.
To w takim razie przechodzimy do następnego newsa.
iOS 17 został wydany, zawiera poprawki, zawiera też błędy jakieś.
No i jak to wygląda, jeżeli chodzi o kwestię dostępności?
Dokładnie, no bo tak jak wspominaliśmy też w tej poprzedniej audycji,
jeśli jej nie słuchaliście, no to jak tutaj skończycie słuchać nas teraz,
to gorąco zachęcam do posłuchania sobie i zresztą też poprzednich podcastów,
bo był podcast, który z Arkiem Świętnickim robiliśmy o nowościach w iOS 17.
Natomiast w poniedziałek, tak jak wtedy mówiliśmy,
że ta wersja się już stabilnie ukaże dla wszystkich,
no ona się właśnie ukazała.
No i co za tym idzie, jak co roku portal Applebiz zborządził listę
wszystkich błędów, które oni znaleźli, które niestety gdzieś pojawiły się w tej wersji finalnej,
ale nie tylko błędów, no bo też różnych poprawek.
I jako jedyny poważny błąd, który tutaj wspominają,
to jest coś, co ciekawe nie dotyczy wszystkich,
bo to jest coś, co gdzieś jakąś losową, to chyba nawet mniejszą liczbę osób spotyka.
Ja na przykład tego problemu nie mam.
Mianowicie o co chodzi?
VoiceOver po prostu czasami nie rozpoznaje prawidłowo dwukrotnych stuknięć.
Zachowuje się tak jakbyśmy, kiedy dotniemy ten ekran drugi raz,
zamiast aktywowania elementu, który był poświetlony,
to po prostu przenosi nam kursor w to miejsce, gdzie akurat był palec,
jak drugi raz stuknęliśmy.
To się nie zdarza u wszystkich.
Są informacje, że jeśli Was ten problem dotyka,
to można pobawić się tym czasem opóźnienia na stuknięcie dwukrotne,
które można sobie w ustawieniach VoiceOvera skonfigurować.
Na przykład Jonathanowi Mozenowi to działa i tam kilku innym osobom.
Są też osoby, które mówią, że to im nie pomaga,
ale też w większości osób też ten problem po prostu nie występuje.
Więc nie wiem, czy to jest kwestia modelu urządzenia, co tutaj odgrywa rolę.
Mozenowi dało to jako poważny błąd, dlatego że chodzi tutaj głównie o nowych użytkowników.
Może ktoś sobie akurat kupił nowego iPhona, uczy się dopiero tego systemu,
ściągnął sobie tą najnowszą wersję i nagle mu ten bardzo podstawowy gest nie działa,
tak jak powinien, dlatego to zostało uznane jako błąd poważny.
Natomiast nawet jeśli Was to spotka, to za drugim, za trzecim razem ten gest zadziała.
To jedna rzecz, a druga rzecz, zawsze można pomóc sobie tym drugim gestem,
gdzie trzymamy jeden palec na kontrolce, którą chcemy uaktywnić,
a drugim palcem stukamy raz, to też wtedy nam ten element uaktywni.
Następnie mamy błędy z takim średnim priorytetem.
Po pierwsze mamy problemy w aplikacji pogoda.
Focus czasami się zacina, czasami przeskakuje elementy, których nie powinienem przeskakiwać.
A więc tutaj najlepiej eksplorować tą aplikację palcem na razie,
żeby znaleźć wszystkie informacje, faktycznie ta aplikacja została przebudowana,
natomiast też można pomóc sobie aplikacjami firm trzecich albo po prostu eksploracją.
Czasem niestety ta eksploracja nie działa, mam wrażenie.
Jeżeli chodzi o gesty, to można sobie przejść o kilka elementów,
na przykład sprawdzić tam powiedzmy na kilka godzin do przodu tę pogodę,
potem nam ten focus ucieka i niestety z eksploracją jest to jakoś gorzej, mam wrażenie.
Ja mam w ogóle jakiś taki dziwny problem, że mi nie bardzo pokazuje opadów.
Jedna raz pokazuje temperaturę, okej, ale opady już nie bardzo.
Zatem mamy wykres temperatury audio, nie wiem czy widzieliście.
Tak, i to już wcześniej chyba też było nawet.
To w szesnastce chyba doszło, to w szesnastce się chyba pojawiło,
tam też można sobie zmieniać, właśnie podglądać inne wartości właśnie opady, wiatr.
To chyba co ciekawe w sieremnastce mam wrażenie działa trochę lepiej niż w szesnastce,
bo w szesnastce to się jakoś nie chciało odświeżać, ale to jest fajna sprawa faktycznie.
Nie wiem jak się na przykład odświeża, żeby inny witek był oglądany.
Tam jest taki przycisk, który takie menu otwiera, teraz nie powiem ci dokładnie gdzie on jest,
ale to jest na tym samym ekranie, gdzie jest ten wykres gdzieś na górze.
Tak było przynajmniej wcześniej.
Ja sobie powiem szczerze, dodałem widget pogodowy do ekranu blokady.
Ja też.
I to, żeby tak oczywiście sprawdzić coś bardzo na szybko, jak to obecnie wygląda
i jakie są przewidywania, no to spokojnie się nada, bo to jest bardzo krótka informacja,
to jest informacja typu…
No tutaj najważniejsze informacje są.
Czy pada, czy nie, czy jest słońce, ile stopni, jaka ma być maksymalna, minimalna temperatura.
Ja właśnie też najczęściej sprawdzam sobie widget.
Też mam na ekranie blokadę na zegarku, mam to też i właśnie tak też działam.
Następnie mamy problem z konfigurowaniem ekranu początkowego.
Jeśli korzystamy z akcji czynności do przeciągania aplikacji,
one niestety nie działają zawsze tak jak powinny.
Mianowicie problem pojawia się, kiedy sobie przenosimy jakąś aplikację
i używamy akcji, żeby ją opuścić przed lub za jakąś aplikacją.
I zamiast po prostu przeniesienia tej aplikacji tak jak to powinno być,
to VoiceOver czasami po prostu tworzy z tymi dwoma aplikacjami folder,
więc tutaj też źle ta aplikacja jest przenoszona.
To jest jeden problem.
A drugi problem jest taki, że czasami kiedy wchodzimy do jakiegoś folderu,
czasami ta czynność, żeby dodać jakąś aplikację do folderu znika.
Mi się to raz w wersji beta zdarzyło.
Potem jak to sobie przenosiłem ikonki, to już mi zaczęło działać tak jak powinno,
natomiast jakiś problem faktycznie się pojawił.
Kolejny problem, kiedy rozmawiamy przez telefon i zakończymy rozmowę,
to na jakiś czas możemy czasami stracić mowę.
No to wtedy ta mowa znika na jakieś 30 sekund.
To jest coś poniekąd związane z tym jakiego syntesatora korzystamy,
bo z doświadczenia zauważyłem, że z Eloquentem to się dzieje częściej niż z Vocalizerem,
więc teoretycznie my w Polsce powinniśmy być troszkę bezpieczniejsi,
natomiast chyba mi się też parę razy to z Vocalizerem zdarzyło
i nie tylko podczas rozmów telefonicznych.
W niektórych aplikacjach, na przykład w Dice Worldzie,
gdzieś mi ta mowa lubiła uciekać.
Zauważyłem, że jeśli czasami szybko zmieniam ekrany w jakiejś aplikacji
i próbuję coś szybko nawigować, to ta mowa ma większe tendencje do tego,
żeby gdzieś zaginąć.
Nie wiem czemu tak jest.
Można wtedy odczekać te 30 sekund lub wyłączyć włącznie VoiceOvera.
To też zazwyczaj powinno pomóc.
Następnie mamy problem, o którym już chyba wspominaliśmy.
Przy okazji nowości w powiadomieniach.
Kiedy przychodzą nam powiadomienia i mamy ustawionego VoiceOvera tak,
żeby nam te powiadomienia czytał, a w międzyczasie na przykład
nawigujemy gdzieś albo czytamy jakiś dłuższy tekst,
to powiadomienie nam mowe przerwie.
Jak to obejść?
Albo wyłączamy sobie czytanie powiadomień i ręcznie sprawdzamy ekran,
gdybyśmy jakiś dźwięk usłyszeli.
Albo na czas jakiegoś dłuższego czytania wyciszamy telefon na ten czas,
bo teraz też się pojawiła opcja, żeby VoiceOver nam przy wyciszonym
telefonie powiadomień po prostu nie czytał.
Następnie mamy problem związany z nowymi opcjami,
które zostały dodane do ustawień szczegółowości,
a mianowicie ustawień, które mają zdecydować,
czy VoiceOver ma czytać, kiedy pojawiają się sugestie,
jak mamy autokorektę włączoną, więc jakieś dokończenie zdań
czy wyrazów oraz kiedy one są wpisywane.
W niektórych aplikacjach, i tutaj jest podany przykład aplikacji Poczta,
nie zawsze działają tak, jak sobie to ustawiliśmy.
Na przykład właśnie w aplikacji Poczta, nawet jeśli mamy to wyłączone,
czytanie autokorekty, no to dla niektórych osób to po prostu i tak się zdarza
i ona jest czytana.
Kolejna kwestia to jest coś, co też napotkałem,
nie wiedziałem, że to był błąd, który się w sieremnastce pojawił.
Myślałem, że po prostu zapomniałem, jak to się robi.
Kiedy wchodzimy w ekran edycji tego ekranu udostępnienia,
na przykład żeby sobie dodać Be My AI na górę listy,
ja właśnie tak chciałem zrobić, nie możemy dodać sobie jakiejś opcji
do ulubionych, dlatego że tam są dwa elementy.
Jeden przycisk pozwala nam jakąś rzecz po prostu dodać
lub mamy przełącznik, że dana aplikacja się wyświetla lub nie
na ekranie udostępnienia, a obok tego powinien być przycisk,
który pozwala nam ją dodać do ekranu ulubionych,
do najczęściej ulubionych, czyli tam na górze ekranu.
Natomiast VoiceOver po prostu te obie opcje czyta jako jeden element,
jako ten przełącznik, więc możemy sobie jakąś aplikację dodać
lub usunąć ogólnie z ekranu udostępnienia,
natomiast nie mamy jak teraz sobie ustawić,
które z aplikacji są dla nas ulubionymi,
a no właśnie na przykład w przypadku Be My AI to by się mogło przydać.
I teraz mniejsze błędy.
VoiceOver nie czyta nam godzinę, jeśli mamy jakieś powiadomienia
na ekranie blokady, jeśli mamy to tak skonfigurowane,
można to tak obejrzeć, możemy sobie te wszystkie opcje,
co ma VoiceOver nam czytać na ekranie blokady powyłączać
no i wtedy nawet jeśli mamy jakieś powiadomienia,
to nam tą godzinę odczyta.
Więc jeśli zależy nam bardziej na tym, żeby zawsze słyszeć godzinę,
a nie ile mamy nieprzeczytanych powiadomień,
to można to w ten sposób obejść, natomiast miejmy nadzieję,
że to zostanie poprawione.
Następnie ekran wyszukiwania z monitorem braillowskim,
czyli skrót W-O-F, nie działa zawsze skrót Entera,
skrót punktu ósmego.
Możemy to obejść naciskając punkty drugi i siódmy
i dopiero potem punkt ósmy jako Enter.
Nie wiem, czy to będzie też dotyczyło nas, czy to jest bardziej problem
z angielskim brajem skrótowym.
W ogóle w polskim braju to Enter to jest spacja i punkt ósmy,
więc nie wiem, czy tutaj to też może się u nas zdarzać.
Jeśli tak, to tak to można obejść.
Następnie w angielskim systemie w aplikacji Pocztaj,
kiedy oznaczamy jakąś wiadomość jako przeczytaną z czynności,
to VoiceOver nam nie czyta tego tak, jak powinien.
Tam są jakieś dziwne fonemy podawane do syntezatorów
i eloquent sobie z tym radzi, ale na przykład inne głosy i głośnienie
po polsku to działa prawidłowo.
Kiedy ustawiamy głośność centrum sterowania gestami przesuwania
palcem w górę, w dół na subwaku, no to VoiceOver czasami nam
nie będzie podawał tej wartości, która została ustawiona,
a wartość, która była wcześniej.
Więc jeśli mamy głośność na 20%, zmniejszymy ją do 10%,
no to VoiceOver nam przeczyta 20%.
Kiedy edytujemy zakładki w Safari,
wszystkie ikonki są czytane jeszcze ze słowem Usuń,
jakbyśmy zaraz chcieli jakąś zakładkę usunąć,
ale tak naprawdę tak nie jest i możemy spokojnie sobie w dane zakładki
stuknąć i one się otworzą.
Stukając dwukrotnie w folder na ekranie edycji zakładek,
niechcący, tutaj mamy obrotną sytuację, tutaj uaktywniamy przycisk Usuń
zamiast wchodząc do tego folderu.
Można to obejść używając menu kontekstowego,
więc trzymamy palcem na tym folderze i tam znajdziemy opcję edytu
i w ten sposób możemy dojść tam, gdzie chcemy.
Niektóre osoby mogą zauważyć, że opisy etykiet w centrum sterowania
na przełącznikach są mniej opisowe.
Na przykład zamiast przełącznika za boku i orientacje możemy po prostu
usłyszeć zablokowane.
Ja tego u siebie nie zauważyłem i tutaj też jest napisane,
że to nie jest tak u wszystkich i też nie wiadomo czemu tak jest.
Niektórzy mówią, że to może być kwestia używanego głosu,
ale też nie wszyscy, więc to jest też taki dziwny błąd,
który nie dotyczy wszystkich.
No i na koniec problem w aplikacji wiadomości, który niestety
nas poniekąd nie dotyczy, bo po polsku to nie działa jeszcze chyba.
A mianowicie aplikacja wiadomości może nam teraz przygotowywać
transkrypty wiadomości głosowych, ale to chyba po polsku nie działa,
natomiast z voice overem one są nierozstępne.
Voice over zawsze mówi, że transkrypt jest niedostępny,
mimo to, że na ekranie on się bez problemu wyświetla.
I tutaj jeśli chodzi o poprawki, tutaj użytkownicy na Apoviz
zastanawiają się, czy problem próbującego fokusu został poprawiony.
Trudno to ustalić, niektórzy mówią, że tak, niektórzy mówią, że nie,
a ci, co tego problemu nie mieli, cały czas go nie mają, więc…
Ja generalnie powiem tak, bo iOS o 17 testuje już kilka miesięcy
i generalnie ten system działa, no faktycznie czasami tracę mowę
i to mam nadzieję, że zostanie poprawione,
ale u mnie to działa całkiem stabilnie.
Ja nie napotkałem na wiele tych błędów, które tutaj są opisywane
i to jest, mam wrażenie, taki motyw w tym wydaniu.
Jakieś błędy są, ale z jakiejś przyczyn nie dotyczą wszystkich użytkowników,
więc nawet te błędy, które są gdzieś uznawane jako poważne,
z tym stukaniem dwukrotnym na przykład, no to one gdzieś dotykają
bardzo małą ilość użytkowników.
Tak samo, tego akurat na tej liście nie ma,
ale w komentarzach też się to pojawiało,
problemy z łącznością niektórych monitorów braillowskich.
Generalnie to zostało poprawione, bo tam na przykład z Mantisami,
z innymi monitorami nowymi, HID, były problemy.
One zostały poprawione, generalnie to działa lepiej,
natomiast na przykład użytkownicy niektórych monitorów HIMS
cały czas się skarżą, że jakieś tam jeszcze błędy są,
ale tutaj znów nie dotyczą wszystkich, więc miejmy nadzieję,
że takie błędy też gdzieś zostaną poprawione.
One są zawsze trudniejsze do naprawienia,
więc jeśli macie iOS-a 17, znajdziecie jakiś problem,
no to zgłaszajcie go do Apple’a, bo właśnie jak widać,
zwłaszcza takie błędy, które nie dotyczą wszystkich,
mogą być trudniejsze do złapania, więc jeśli poproszą Was o jakieś
wysłanie np. danych diagnostycznych, no to w takich sytuacjach
to faktycznie może pomóc.
To teraz kilka komentarzy, które już do nas spłynęły.
Pierwszy komentarz, a właściwie prośba o pomoc
od kogoś, kto podpisał się MM.
Witajcie, mam następujący problem z iPodem Nano piątej generacji.
Po naciśnięciu przycisku zasilania nie uruchamia się tak jak zawsze.
Ładowałem go całą noc i jest to samo.
Na ekranie nic się nie pojawia, nic się nie odzywa.
Co mogło się stać i co można zrobić?
Dodam, że kabel i ładowarka są sprawne.
Powiem szczerze, nie wiem.
Ja bym spróbował podłączyć go pod komputer.
Może iTunes go jakoś tam wykryje i coś spróbuje z nim zrobić, poratować.
No właśnie, bo to jest dość stary sprzęt, więc nie wiem,
czy tam po prostu coś mogła bateria i mnie zabieść.
Też się tak mogło stać albo po prostu jakaś elektronika
tak najzwyczajniej w świecie.
Ale ja bym spróbował właśnie odpalić iTunesa, podłączyć
i zobaczyć co się stanie.
Może jakoś tam jednak jeszcze zresetuje ten system, przywróci go
albo zrobi z nim cokolwiek.
Kolejne pytanie, kolejna wypowiedź, kolejny komentarz od Mateusza.
Witajcie. Co do opisywania zdjęć w Be My Eyes?
Czy ta funkcja jest już dostępna publicznie?
Nie mam jeszcze aplikacji, a na grupach dostępnościowych słyszałem,
że warto sobie zainstalować tę aplikację choćby dla tej funkcji.
Pozostając jeszcze w temacie sztucznej inteligencji,
dostałem dzisiaj maila od Google, że ich Bart też potrafi już opisywać zdjęcia,
ale nie udało mi się go do tego nakłonić.
Podobno wykorzystuje aplikację Google Lens.
Z góry dzięki za odpowiedź.
No to nie jest tak Mateuszu, że wszyscy dostali już dostęp do tej funkcji
Be My Eyes, która się nazywa Be My AI,
ale jeżeli zainstalujesz sobie aplikację i zgłosisz chęć korzystania z tej funkcji,
to prędzej czy później ona zostanie ci udostępniona,
bo oni udostępniają ją tak partiami.
Więc ci, którzy już tam kiedyś zapisali się na listę,
to dostali jakiś czas temu,
a teraz kolejni użytkownicy po prostu są sukcesywnie wpuszczani.
Kolejny komentarz od Grzegorza.
Cześć Tomek.
Fajnie, że zainteresowałeś się systemem Home Assistant.
Sam go używam na Raspberry Pi 4.
Jak coś to możesz mnie pytać w tej sprawie,
choć super ekspertem nie jestem, ale coś tam wiem.
Na tę chwilę mogę powiedzieć, że apka na Androida i iOS jest dostępna,
przynajmniej na tym co używam, czyli iOS 17 i Android 13.
Mogę ci jeszcze polecić dodatkowo dongla USB Home Assistant Sky Connect.
Pozwala na łatwą integrację urządzeń korzystających z protokołu Zigbee i Mater.
Kosztuje gdzieś 150-200 zł.
Z Bluetoothem jest problem, ale to wiadomo od dawna
i jak na razie problem nie został rozwiązany.
Pytanie w jaki sposób zainstalowałeś Home Assistant.
Jeśli jako samodzielny system to dobrze,
gdyż będziesz miał dostęp do dodatków i modułu HATS do dodatkowych integracji.
Poza tym BART pozwala na rozpoznawanie zdjęć.
Pewnie będziecie o tym mówić.
Oczywiście nie rozpoznaje osób, a jak wymusimy rozpoznanie
to gada nam bzdury od czapy.
I kolejny komentarz.
Chyba, że Tomku tu chcesz coś dodać?
To znaczy w ogóle chyba o systemie można długo, długo, długo gadać.
Podejrzewam, że gdybyśmy się tym zajęli.
Poza tym u nas to jest teraz troszeczkę Sodoma z Gomorką w domu, także tak.
No to za chwilę, a właściwie pod koniec audycji
najwyżej jeszcze wrócimy do tego tematu.
Teraz Aga do nas napisała.
Witajcie.
Co prawda nie mam jeszcze zainstalowanego iOS-a 17
w oczekiwaniu na nowy telefon iPhone 15 Pro,
ale jest jeszcze jeden sposób na ten problem z dwuklikiem
i gdy voiceover działa nadresponsywnie.
Jeśli ten z wydłużeniem czasu dwukliku nie działa
to warto sobie wejść do ustawień,
kolejno dostępność, dotyk oraz tam udogodnienia dotyku
i włączyć opóźnienie rejestracji.
I gdy się to uruchomi dać sobie tam wartość koło 0,25 sekundy.
To pomaga.
Mojej znajomej ta metoda bardzo pomogła.
Pozdrawiam serdecznie.
I kolejny komentarz od Romana.
Jak voiceover zamilknie to można też raz stuknąć dwoma palcami.
I tyle jeżeli chodzi o komentarze na chwilę obecną.
Ale to dopiero początek jeżeli chodzi o niosy
i zaczynamy od takiego i takiej informacji,
że selfie stick może się przydać również niewinomym.
Owszem, może się przydać i to do kilku rzeczy tak naprawdę.
No przede wszystkim oczywiście jeżeli mamy ochotę sobie po prostu zrobić zdjęcie
no to zdecydowanie też jest łatwiej.
Ja ostatnimi czasy właśnie zakupiłem do nas do domu takiego selfie sticka
i on, ja powiem szczerze, wcześniej nie korzystałem z tego typu rozwiązań,
ale zainteresował mnie opis.
Dla tych wszystkich, którzy w ogóle nie wiedzą jak coś takiego wygląda,
no bo może tak się zastanawiają, a w sumie po co mnie to, skoro ja i tak nie widzę,
to może kilka słów w ogóle jak coś takiego wygląda.
To jest taki, no jak sama nazwa wskazuje, kijek.
To jest taki kijek, taki statyw, na którym mocujemy telefon.
Ten konkretny, który ja tu mam przed sobą,
to oprócz tego, że ma taką, takie ramię,
które możemy sobie odginać pod różnymi kątami,
ma tutaj takie jeszcze dodatkowo łapki, które mi przytrzymuje telefon,
to ma jeszcze jedną bardzo fajną rzecz.
I tego chyba wszystkie selfie sticki nie mają.
I w naszym przypadku wydaje mi się, że warto się właśnie w taki konkretnie model zaopatrzyć.
Ja szukałem takiej wersji, która będzie obsługiwać iPhona przede wszystkim.
I znalazłem właśnie wersję, która, no zdaniem przynajmniej twórców,
tam pasuje do jedenastki, trzynastki, czternastki,
ale ma jedną bardzo fajną rzecz, mianowicie pilot zdalnego sterowania bezprzewodowy.
I jak to wygląda?
To jest po prostu takie małe urządzonko, które z tego selfie sticka wyjmujemy,
bo ono jest, no w nim jakby schowane w jego obudowie.
Jak rozkładamy ten cały kijek, bo on oczywiście ma też regulowaną wysokość,
to tak wygląda jak taka antena teleskopowa,
sobie wyciągamy taki pilot, to jest bardzo malutkie urządzenie.
I teraz działa to w ten sposób, że przytrzymujemy przycisk,
wchodzimy do ustawień bluetootha i sobie po prostu tam ten pilocik łączymy.
W moim przypadku absolutnie nie miało to żadnego wpływu na działanie voice overa,
nic się z tym złego nie stało, no po prostu zostało sparowane urządzenie z iPhonem.
I teraz otwieramy sobie telefon, właściwie aplikację aparatu w telefonie,
ustawiamy sobie tego selfie sticka, rozkładamy go i możemy dzięki tym informacjom,
które nam iPhone generuje, że tam twarz na środku, twarz przy lewej krawędzi,
górnej przy prawej i tak dalej i tak dalej,
to możemy naprawdę całkiem nieźle zrobić sobie całkiem niezłe zdjęcie.
Oczywiście wiadomo, nie będziemy mieli wpływu na to,
czy nie robimy jakiejś dziwnej miny, czy gdzieś tam powiedzmy coś złego się jeszcze nie dzieje,
na przykład czy nie mamy czegoś, czego byśmy wcale nie chcieli mieć na tym zdjęciu,
to warto sobie oczywiście wcześniej sprawdzić,
natomiast dzięki temu, że to stoi stabilnie i nie drży nam w żaden sposób ręka,
to to zdjęcie można wykonać całkiem dobre, więc to jest rzecz naprawdę fajna.
Oprócz tego oczywiście, jeżeli byśmy chcieli wykorzystać to jako statyw,
na przykład do zeskanowania jakichś dokumentów, to też można,
aczkolwiek z takich moich obserwacji zdecydowanie lepiej,
jeżeli ten telefon, który umieścimy na tym selfie sticku będzie w pozycji pionowej,
bo poziomo niestety po prostu przeważa ciężar telefonu tego selfie sticka,
mimo tego, że można go tak ustawić, można go ustawić w ten sposób,
że jest to ramię, które przytrzymuje telefon w takiej pozycji,
że ten telefon będzie poziomo, ale no niestety jego ciężar może spowodować to,
że nam się to wszystko przewróci.
Chyba oczywiście, że możemy też regulować to pod kątem,
bo to nie jest tylko tak, że to może być albo w górze, albo w dole,
to działa w ten sposób i możemy sobie tutaj ten kąt regulować.
Całość jest naprawdę niewielkich rozmiarów, można to sobie bardzo wygodnie
gdziekolwiek przenieść. Nie próbowałem jeszcze za pomocą tego, powiem szczerze,
skanować na przykład jakichś dokumentów i robić czegoś takiego,
ale myślę, że też mogłoby być prościej, no przede wszystkim dzięki temu,
że nie trzymamy telefonu, że po prostu stawiamy sobie to na stole,
na jakiejś powierzchni i podchodzimy do tego i nawet nie musimy dotykać
tego aparatu, wciskamy ten jeden przycisk na pilocie zdalnego sterowania,
robi się zdjęcie i te zdjęcia można naprawdę robić dosyć szybko,
więc jeżeli ktoś potrzebuje czegoś takiego, to jak się okazuje nie tylko
do gdzieś tam powiedzmy dla tych, co robią sobie zdjęcia na Instagramie
albo na Facebooku i bardzo mają dużą potrzebę, żeby swoje fotki
publikować w sieci, ale też i nam się w różnych sytuacjach coś takiego
może przydać, a tak jak mówię, jeżeli czymś takim będziecie zainteresowani,
to szukajcie sobie przede wszystkim właśnie z takim pilotem zdalnego sterowania,
dzięki czemu no jest, macie wolne ręce wtedy, a to jest bardzo malutkie,
ten pilocik jest bardzo mały i dzięki temu też go łatwo zgubić,
to jest inna rzecz, więc lepiej go później za każdym razem umieścić
z powrotem w tym selfie sticku. Co do pilota, to powiem szczerze
jeszcze nie odkryłem sposobu, w jaki go można rozebrać,
żeby wymienić baterię, według producenta około tysiąc zdjęć
da się tym zrobić, no ale ten tysiąc no to kiedyś wiadomo się skończy
i mam nadzieję, że tam jest jakaś wymienna bateria i można sobie ją
po prostu kupić i taki pilocik będzie nam służył dalej.
No więc tyle, jeżeli chodzi o tego selfie sticka, ja generalnie polecam,
bo wydaje się być to rozwiązaniem dosyć ciekawym, a nie jest to drogie,
bo to jest tam kilkadziesiąt złotych, ja zdaje się zapłaciłem na Allegro
około sześćdziesiąt czy siedemdziesiąt złotych.
No teraz coś dla mieszkańców Lubina, dlatego że w Lubinie
starostwo powiatowe zaczęło być bardziej dostępne,
a co to znaczy Piotrze, bardziej dostępne?
Co to znaczy? No właśnie, informacja gdzieś z mojego podwórka
można powiedzieć, która dzisiaj rano pojawiła się na właściwie
stronach powiatu i w lokalnej na Facebooku też, no i co zostało zrobione?
Myślę, że po prostu przeczytamy artykuł, który na stronie się pojawił.
Osobom niewidomym i nierowidzącym będzie teraz łatwiej załatwić
swoje sprawy urzędowe. Starostwo powiatowe w Lubinie wprowadziło
właśnie nowe udogodnienia dla nich.
I tutaj mamy cytat. Staramy się stale poprawiać dostępność
naszych usług dla mieszkańców ze szczególnymi potrzebami,
w tym dla osób z niepełnosprawnościami, przyznaje starosta lubiński Paweł Pleszcz.
Co tutaj się zostało zrobione?
Na wszystkich drzwiach zamontowano właśnie tabliczki z informacjami
z napisem Arzy z Braille’em, więc tutaj mamy wszystkie gabinety opisane.
Natomiast w najbliższych dniach jeszcze w tym tygodniu przy wejściu głównym
i na poszczególnych piętrach pojawią się tryflomapy, czyli będziemy mieli
też dotykowe plany poszczególnych pięter, więc też nam będzie łatwiej
poruszać się po departamentach i załatwiać sprawy.
Specjalne oznakowanie zostało zainstalowane również w Windach.
Przeciwieńcie zostało zrealizowane w ramach projektów Dostępny Samorząd
realizowanego przez Państwowe Fundusze Habitacji Osób Niepełnosprawnych.
To nie jest zresztą pierwsze ułatwienie, bo dwa lata temu w powiacie też
została sprowadzona pętla indukcyjna dla osób z problemami słuchowymi
i też gdzieś jest umowa podpisana z tłumaczem języka migowego,
więc jeśli mamy też jakieś sprawy, jakieś osoby głuche potrzebują też coś załatwić,
to tam też takie usługi są oferowane. Myślę, że fajnie, że tak się dzieje.
Miejmy nadzieję, że gdzieś też inne powiaty, inne urzędy będą takie
udogodnienia gdzieś właśnie w swoich budynkach instalować,
bo one po prostu mogą być przydatne.
No byle tylko nie czerpały te urzędy, inne instytucje z przykładu
Dworca Włocławskiego.
A no właśnie, tam też te tabliczki pojawiły.
O tym to ostatnio dużo się mówiło.
Tak, tam jeszcze ktoś nie wiedział, ktoś sobie wymyślił, że dobrym pomysłem
byłoby wydrukowanie Braila, to znaczy zrobienie Braila całkowicie płaskiego,
który jest podobno, ja tego nie widziałem osobiście, ale tyle osób
o tym pisało. Ja wiem, to tak czasami się mówi.
Ja w starostwie nie byłem, ale wiem, że tutaj Brail jest wypukły.
To tam jest całkowicie płaski i nie do przeczytania.
Nie idźcie drogą Dworca we Włocławku w razie czego, jeżeli ktoś chciałby
jakieś rzeczy w Brailu drukować. Brail musi być wypukły.
Jeżeli nie jest, to my go niestety nie przeczytamy.
Witamy. Mamy słuchacza na linii, tylko słuchacz jeszcze musi sobie
mikrofon odciszyć. Konkretnie Witolda witamy, a zanim jeszcze…
Halo.
O, jesteś, witaj. Słuchamy.
Dobry wieczór.
Dobry wieczór.
Chciałem poruszyć kilka spraw.
Pracuję tutaj w przychodni i tam jest program Medicus
do wprowadzania danych pacjentów. On jest niedostępny i zastanawiam się,
czy nie można by tego po prostu rozwiązać formularzami Google
lub czymś takim, tylko właśnie myślę, że na pewno można,
tylko jak to by było z kwestiami prawnymi jeszcze, nie?
To znaczy Witoldzie, to ja już odpowiadam.
To ja już odpowiadam. Przychodnia zapewne ma jakiegoś specjalistę
tak zwanego IOD, Inspektora Ochrony Danych Osobowych,
więc musisz zwrócić się w tej sprawie do niego, bo to jakby on
wydaje opinię i albo na coś zezwala, albo nie.
Generalnie, jeżeli przychodnia miałaby konto Google, ale nie Gmaila,
bo to jest niestety bardzo ważne w tym przypadku, to nie może być Gmail,
to musiałby być G Suite, czyli to konto, które jest płatne,
konto googlowskie, to coś takiego przynajmniej w pewnym stopniu
powinno być możliwe, jeżeli chodzi o ogromadzenie danych osobowych.
Oczywiście tu wchodzimy też w kwestię, jakie to są dane,
bo przychodnia, ja podejrzewam, że zbiera dość dużo tych danych
i to niekiedy mogą być dane dość wrażliwe, więc tu my absolutnie
nie będziemy w stanie powiedzieć ci, czy ty to możesz zrobić, czy nie.
Masz swojego inspektora danych osobowych, to musisz go pytać.
IOD, tak?
Tak, inspektor ochrony danych osobowych.
Generalnie ktoś, kto w twoim zakładzie pracy zajmuje się tak zwanym RODO.
Tak, a sobie pomyślałem, może, bo ty jesteś Michał ekspertem do spraw dostępności,
może tym, nie wiem, chciało się z nimi skontaktować, czy coś tam,
czy oni by nie chcieli jakiejś współpracy podjąć i to zrobić.
To znaczy, ale jakby co…
Od tego medikusa.
Wiesz co, powiem szczerze tak, to bardzo chętnie, natomiast ja nie znam tego programu
i raczej nie mam możliwości, żeby sobie na nim popracować.
Oczywiście, jeżeli na przykład gdzieś tam powiedzmy, ja proponuję,
żeby ta kwestia wyszła od ciebie jako użytkownika,
żebyś im zgłosił kwestię problemów z dostępnością,
a potem, jeżeli będą potrzebować jakichś konsultacji dalszych w kwestiach dostępnościowych,
to oczywiście, czy to w ramach fundacji, czy to w ramach Utility,
moglibyśmy takie konsultacje przeprowadzić.
To jest wszystko kwestią do ustalenia.
Natomiast jakby ty mówisz, Witoldzie, że jest niedostępny.
No, kwestia teraz tego, co tam jest niedostępne, to wiesz, to nie jest taka prosta sprawa.
Niedostępne jest czytanie tych danych.
To znaczy niektóre przeciwki się da tak zrobić normalnie z tabulatora,
znaleźć, ale nie chcę czytać tych danych, trzeba wjechać tam myszką.
Ja na razie nie umiem manipulować tą myszką NVDA.
Obiektową, nawigacją obiektową, tak?
Mhm, tak.
Także nie wiem, czy…
Jakie tam jest…
Czy to jest strona, czy to jest aplikacja na desktopie?
To jest aplikacja.
Bo jak tam próbowałem po nagłówkach czy innym, to nie znajdowało nic.
Ja proponuję, Witoldzie, no pierwsza, ty jesteś użytkownikiem tej aplikacji,
no przede wszystkim warto skontaktować się z producentem
i zobaczyć w ogóle, jakie jest ich podejście do tego,
bo to jest jak rozumiem jakaś firma prywatna, która coś takiego tworzy,
ale faktycznie może równolegle też warto przemyśleć kwestie formularzy Googla,
natomiast no ja tu nie jestem specjalistą od prawa
i absolutnie nie mam zamiaru mówić ci, czy ty to możesz zrobić, czy nie.
Od tego jest twój specjalista od RODO w zakładzie pracy.
Bo tak praktycznie to jest szyfrowane, hasło tam jest,
jakaś weryfikacja nawet dwuetapowa jest.
Tak, ale to jest przetwarzanie danych gdzieś na zewnątrz
i tu już mamy problem.
To musi być, zdaje się, ta ubowa powierzenia danych itd.
To są, wbrew pozorom, to są dość skomplikowane sprawy,
więc jakby ja się nawet nie chcę specjalnie w to zagłębiać,
no bo nie zaradzimy tutaj.
Oni się kontaktowali i z tego co mi mówili,
to ci od Medikusa powiedzieli, że oni są pierwszą taką instytucją,
która właśnie im zwraca na to uwagę i oni tego nie będą robić.
Może oni się po prostu boją, że to jest jakieś super drogie czy coś tam
i by się przydało jakoś.
No to jakby, wiesz, kwestia jest po prostu taka rzecz,
no jeżeli tam nie ma chęci, to jest problem.
Tak powiem ci szczerze.
Bo pomóc można wtedy, kiedy ktoś chce.
Albo kiedy ktoś musi.
Bo jeżeli jest to, wiesz, jeżeli jest to instytucja publiczna, no to musi.
A tu jest instytucja prywatna, więc obawiam się, że niestety
to zależy tylko od ich widzimisię.
Tak. A jeszcze mam temat odnośnie właśnie Be My Eyesa.
Dostałem dzisiaj dostęp.
No i rozpoznałem sobie i bardzo ładnie, uważam, to zrobił.
To było jeszcze zdjęcie robione ze złym oświetleniem,
praktycznie bez oświetlenia, nie, a było ciemno już.
No gdzieś było 19.
I rozpoznał mi na przykład, że brązowe pianino z otwartą klapką,
nie na zdjęciu. I ja tam sprostowałem, że to jest nakrywa klawiatury.
To się tak fachowo nazywa właśnie.
Nie wiem, czy to przechodzi tam i czy oni wprowadzają jakoś te zmiany,
albo czy to się samo uczy, że jak później zobaczy takie pianino,
to czy to dobrze się interpretuje.
Jakieś niektóre zdjęcia pewnie są.
Zresztą ja dzisiaj po otworzeniu aplikacji dostałem komunikat,
że regulamin się zmienił i tam właśnie była informacja,
że niektóre materiały czasami mogą być przekazane do trenowania.
Więc które i jak to pewnie jest jakoś losowo robione, nie wiem.
No ale czasami może tak być.
Aha. I panele rozpoznał mi też jako parkiet.
No cóż, to jest właśnie to, że to nie zawsze jest idealne.
Niestety.
Mi się podoba, jeszcze nie wiem, czy Witoldzie też takie doświadczenia
poczyniłeś, jak on fajnie kontekstowo dopasowuje tekst.
Że przykładowo ja robiłem zdjęcie strony menu restauracyjnego
i on mi powiedział, że jest to menu restauracyjne,
to jest jakby jasna sprawa, ale też wiedział jak ten tekst sformatować.
I tak jak klasyczny OCR, jak mu się uda, to fajnie.
Jak tam ma jakieś w miarę rozwinięte rozpoznawanie tabel,
no to tam na przykład rzeczywiście przyporządkuje danie do ceny.
Ale tutaj do tego stopnia się postarał i testowałem na dwóch menu.
Jedno było takim wielkim rozświetlonym neonem,
który reklamował troszkę restauracje.
I to było najlepiej, bo tutaj powiedział mi, że to jest menu
i wymienił mi te dania, które tam były, łącznie z cenami,
jako takie osobne, pewnie w jakimś HTML-u to były jakieś paragrafy,
natomiast tutaj wynik był taki, że po prostu wypluł mi to
jako osobne elementy listy i ja mogłem sobie w prawo przesuwać
jedno danie, drugie danie, trzecie danie, czwarte danie.
Prawdopodobnie dlatego, że była to pierwsza wiadomość.
Już kolejne wiadomości, gdybym zaczął pisać z BeMy.ai,
nie byłyby tak fajnie formatowane, a tutaj bardzo ładnie,
bardzo wygodnie się nawigowało po tym menu.
A to było zdjęcie rozpoznane przez AI, także super.
No i drugi przypadek, to już było bardziej klasycznie na papierze
i tutaj też bardzo sobie ładnie poradził.
Nie zrobił mi już tak ładnie, ale można było przekręcić sobie rotor,
znaczy pokrętło na wiersze i nawigować i rzeczywiście to się zgadza
z rzeczywistością, a ktoś inny zrobił sobie zdjęcie, nie wiem,
Power Banka, bo też taką historię słyszałem, no i była informacja,
że wygląda jak Power Bank z ekranem, z wyświetlaczem,
na którym napisane jest 90%, co może oznaczać stan naładowania,
więc on akurat takie rzeczy tekstowe, zwłaszcza po angielsku,
tak się obawiam, bo z polskim miałem troszkę mniej szczęścia,
dlatego tutaj chyba taka uwaga do osób, które są w tej becie,
piszcie jak najwięcej po polsku, żeby on się uczył po polsku.
Nawet jak znacie angielski dobrze, no to właśnie tutaj już trochę mniej
sobie radził, jakoś urywał ten tekst, jakieś już halucynował coś tam,
no a po angielsku bardzo ładnie sobie z tym akurat z tekstem
i z takim kontekstowym przyporządkowaniem tekstu sobie radził.
No to ja też taki podobny przykład, jak podajemy, ktoś na Relicie
wrzucił infografikę, która przedstawiała jak ceny iPhone’ów zmieniały się
z inflacją, na przykład była podana cena oryginalnego iPhone’a
w roku 2007, ile by kosztował dzisiaj.
Przecież na początku mi bardzo ogólnie to podał po prostu,
co ta infografika przedstawia, tam jakieś modele były wymienione,
ale poprosiłem go powiedzmy teraz ile te iPhone’y kosztują.
No i generalnie właśnie tak jak to już nie była lista,
ale to było też bardzo ładnie uporządkowane, był w stanie mi podać właśnie
te ceny pierwotne i dzisiejsze powiedzmy, więc no właśnie takich
zastosowań, właśnie jakieś tabelki.
Też testowałem to, kiedy omawiałem akcje rynków cyfrowych,
gdzie byli ci strażnicy dostępu wymienieni.
Tam ktoś, kto te dokumenty przygotowywał, niestety się nie postarał,
bo tam była jakaś grafika, która przedstawiała te filmy i niestety
to nie miało ani tekstu alternatywnego, ani tabelki, więc tutaj
ktoś się w Urzędzie Unii Europejskiej nie postarał.
Natomiast właśnie tego sobie to wyrzuciłem i tutaj już sobie nie poradził.
No powiedział mi, że tam jest takie fajne logo robocicha,
nie wiem czy tam było logo Androida, czy po prostu jakaś taka stylizowana
grafika była przedstawiona, chyba tak, tak się domyślam i tam
ja już teraz nie pamiętam co było nie tak, ale tam już było coś nie tak.
Ale generalnie radzi sobie z takimi rzeczami.
Aha, a wiecie może jaki ogólnie tam jest ten OCR?
Czy na przykład taki jak w Adobe Reader?
To nie jest OCR stricte i dlatego to czasami takie dziwne rzeczy wychodzą.
Ale ogólnie lepiej to rozpoznaje, to znaczy, czy robiliście może
takie testy, żeby wrzucić jedno zdjęcie do Adobe WinReadera,
Thinkeye’a i tego Be My Eyesa?
To znaczy to jest nieporównywalne.
To jest nieporównywalne z kilku powodów.
Dlatego, że jeżeli funreader, czy tam jakikolwiek tam OCR taki klasyczny
ma problem z rozpoznawaniem tekstu, to próbuje się domyślać
kształtu liter, czegoś jeszcze.
Natomiast to coś, gdy ma załóżmy problemy z rozpoznawaniem liter,
to próbuje wymyśleć na zasadzie na takim a takim tekście to było to.
Więc tu może to też jest to samo.
Z drugiej strony, co to znaczy, że ma problemy z rozpoznawaniem liter?
To jest zawsze generalnie kwestia prawdopodobieństwa, więc czasami
on może dobrze przeczytać, ale mu się wydaje, że no nie,
tu powinno być chyba napisane co innego.
Ja chyba źle przeczytałem.
To wiecie, to jest trochę tak.
Nie wiem, czy mieliście takie kiedyś do czynienia z człowiekiem,
który coś tam lisnął angielskiego i wam czyta jakiś komunikat
i przekręca słowa, bo mu się wydaje, że to tak powinno być.
To Be My Eyes mam wrażenie robi coś podobnego.
Że to chyba powinno być trochę co innego niż jest, bo ja chyba źle przeczytałem.
Więc on ma zupełnie innego rodzaju błędy.
To na zasadzie takiej, żeby podać jakiś konkretny przykład,
bo akurat właśnie mi się przypomniał, jakby na przykład ktoś w angielskim
coś kojarzył, że C czyta się jak K.
I teraz mamy przycisk cancel, który piszemy cancel,
to on nie przeczyta go cancel, tylko przeczyta kankel.
No bo C jak K.
Tak.
Coś tego typu.
Na przykład, ale tu jakby ja myślę o czymś innym.
Te klasyczne zielony przycisk OK, czerwony anuluj.
Ktoś to zamieni i ktoś może, no ten zielony, to tym trzeba potwierdzić.
I AI może zrobić w jakiejś sytuacji jakby podobnego typu błąd.
Zignoruje to, co jest napisane faktycznie, tylko wymyśli sobie,
co tu powinno być napisane, bo mu się to bardziej zgadza
z jakimś szerszym kontekstem.
I mimo, że tu jest napisane OK, ale jest czerwone,
to przeczytaj na przykład anuluj.
Tak, powiesz, że to jest przycisk, który prawdopodobnie anuluje operację.
To niekoniecznie tak może być.
On może na przykład napisać, że to jest czerwony przycisk
z napisem OK, równie dobrze.
Jest to trochę niewiadomo, natomiast w związku z tym,
że to, co on czyta, to nie ma czegoś takiego,
że on zacznie pisać jakieś dziwne rzeczy.
Zawsze to, co on pisze, będzie miało, jakby to będzie wyglądało
bardzo prawdopodobnie właśnie dlatego, że te wszystkie algorytmy
sztucznej inteligencji właśnie tego typu jakby są uczone na tekstach,
które mają sens. I on nie zrobi jakiejś rozsypanki literowej,
chyba że ta rozsypanka literowa dla niego ma sens, że tak powiem.
To trochę trzeba go traktować jako takiego człowieka,
który jest średnio rozgarnięty, ale strasznie wam chce pomóc
i będzie wymyślał za was, co tu trzeba zrobić, co tu jest napisane.
Wiecie, są czasami tacy ludzie, którzy chcą pomóc
i przez to sobie za wiele próbują wnioskować,
to bardziej przeszkadzają niż pomagają.
Czasami taki jest AI.
Mam takie wrażenie.
Witoldzie, to w takim razie czy coś jeszcze?
Tak, jeszcze dalej odnośnie tych aplikacji.
Do SYNC.AI, no to ostatnio właśnie skanowałem coś
i mini wykrywał nagłówki i bardzo ładnie teraz skanuje,
nawet pismo ręczne wykrywał całkiem dobrze.
Nie wiem, jakby sobie poradził z jakimś menu czy tabelą teraz,
nie testowałem.
I tak ogólnie, czego wy używacie właśnie SYNC.AI
czy jakiegoś tego SYNC Assistant Home, tak to się nazywa?
Zależy do czego.
Do skanowania dokumentów?
Tak.
Czy do rozpoznawania w czasie rzeczywistym?
Bo krótkie teksty, no to teraz ciężko powiedzieć.
Chyba ten BIMAI.AI szczerze mówiąc,
chociaż on nie wykrywa w czasie rzeczywistym,
ale już chyba wolę nim coś sprawdzić niż SYNC.AI,
który się na przykład nie odzywa,
albo wszystkim innym, które czyta jak leci,
po prostu dużo, ale krzaki.
Na przykład wystarczy, że coś zobaczy chwilkę,
nie do końca wie jak to zinterpretować,
ale wydaje mu się, że to jakieś literki, cyferki
i zacznie to opowiadać.
I niestety na to cierpi większość tych offline’owych takich OCR-ów,
czyli Envision, czyli tamte inne jakieś,
chyba SYNC Assistant Home też gdzieś tam to ma.
Natomiast do skanowania dokumentów,
to ten SYNC.AI nie jest zły, Envision nie jest zły.
Wszystko, co jest dostępne w tym momencie,
jest podobnie.
Tylko z drugiej strony, wiecie,
problem tego, tej sztucznej inteligencji,
polega na tym, że nigdy nie wiadomo,
czy on sobie czegoś nie zmyśli,
a to jego zmyślenie będzie naprawdę bardzo prawdopodobne.
I pół bidy, jeżeli on nam się pomyli,
że to jest ulotka firmy tej,
a to jest ulotka firmy innej.
Gorzej, jak się pomyli w nazwie leku,
a to się naprawdę może zdarzyć.
Niejasne.
W dawce się akurat może pomylić wszystko,
ale ten SYNC.AI naprawdę może się pomylić
właśnie w kwestiach takich bardzo ważnych.
Bo jeżeli pomyli się jakiś program typu SYNC.AI,
to będziemy wiedzieć, że to jest źle przeczytane.
To jakby nie będzie coś takiego,
że on chyba dobrze przeczytał,
ale w sumie to nie wiem, czy on dobrze przeczytał.
Może tam powinno być zupełnie co innego.
Nazwijmy to w sprzątku BMI,
to ja takiej pewności żadnej nie mam.
I okej, niech 95% tych tekstów skanuje dobrze,
ale jeżeli wszystko, co sprawdzam,
jest dla mnie ważne,
to 5 na 100 tekstów przeczyta źle.
Które to jest te 5 tekstów na 100?
Tak, to jest prawda.
A on w bardzo prawdopodobny sposób nam to przeczyta,
więc łatwo jest nam uwierzyć w to,
że wszystko, co mówię, jest prawdą.
Natomiast szczerze mówiąc, do krótkich tekstów
naprawdę nie wiem, co polecić,
bo ja nie mam jakiegoś szczęścia
do tych offline’owych mechanizmów.
On po prostu zacznie mi czytać 0, 0, 0, a, a, a i tak dalej.
Jeżeli ktoś ma androidać,
to też polecam Lookout,
bo mam teraz dwa telefony
i ich porównuję sobie dość często na Motorola.
To jest telefon ze średniej półki Motorola G5G Plus
i telefon iPhone SE 3,
więc w sumie to też jest telefon ze średniej półki,
jeżeli chodzi o podzespoły.
Niektóre przynajmniej.
W każdym razie Lookout na Motorola
wychodzi lepiej niż Thinkei i Envision
na iPhone’ie.
Więc jeżeli ktoś ma,
to naprawdę też mogę go polecić,
to jest program darmowy,
bardzo szybko rozpoznaje i tak.
Teraz tam się zmienił model,
niektórzy mówią, że jest bardziej dokładny,
inni, że jest mniej dokładny.
U mnie się sprawdza lepiej,
natomiast też trzeba pamiętać,
że to dość dużo też zależy od warunków oświetleniowych.
Jeżeli ktoś ma ziemno w domu,
to może być większy problem.
Z drugiej strony, jeżeli jest jasno w domu
i na przykład patrzę telefon w stronę słońca,
bo ustawiamy się na przykład tak,
że stoimy sobie w taki sposób,
że mam na przykład telefon w prawej ręce,
dokument w lewej,
a za dokumentem jest okno,
czyli jakby telefon patrzy, że tak powiem w stronę okna,
to też telefon może widzieć bardzo dużo słońca.
Z tego co wiem, to lepiej się ustawić w taki sposób,
żeby było najpierw okno,
potem telefon i potem dokument,
z tego co wiem.
Także to też takie coś, co słyszałem.
W ogóle myślę, że przydałby się jakiś artykuł,
jak właśnie skanować takie szybkie teksty,
bo było o tym,
że trzymać telefon 20 centymetrów,
choć mam wrażenie, że teraz te wszystkie telefony,
kierują raczej wyżej niż 20 centymetrów.
Jak miałem skanowanie automatyczne takiego formatu A4,
to było to w okresach 30 centymetrów bardziej,
nawet paru nad kartką niż 20,
więc to się jakoś zmienia z czasem.
Natomiast oprócz właśnie tego samego ułożenia,
też chyba warto sprawdzić,
jak wygląda właśnie kwestia oświetlenia,
bo różnie to niestety z tym jest.
No dobrze Witoldzie, to w takim razie,
bo wiesz, jakby mamy jeszcze sporo tematów,
które chcielibyśmy omówić, słuchaczy w kolejce,
więc ostatnia kwestia.
Jeszcze chciałem powiedzieć,
że właśnie skanowałem z Finkajerem kiedyś całą książkę,
jaką jest Błędne Ognie,
ze Stojaka i tam jeszcze jedną,
nawet Bund Barbarzyńców dla kogoś
i dobrze to działało.
No i używam go do właśnie,
tylko jego praktycznie do takich krótkich tekstów
i jak nie mówi,
czy tam się zawiesi tak ta mowa,
no to wystarczy zasłonić ręką kamerę,
odsłonić i już jest dobrze.
I jeszcze mam pytanie,
jak się nazywało to takie do NVDA,
co opisywało ten dodatek?
Expose Image Captioner,
to jest teraz też w sklepie,
więc jeśli masz tą najnowszą wersję,
to tam to też znajdziesz.
Jeszcze chciałem zapytać odnośnie Overfilesa,
czy macie też taki problem,
że na dysku Google ten odtwarzacz audio ładnie działa,
wszystko się przerzuca,
a w pamięci wewnętrznej to się nie przerzuca
i cały czas ten sam plik odtwarza
i te przyciski poprzedni, następny,
jak się wciska to tylko chwilka przerwy
i znów ten sam się odtwarza plik?
Będzie musiał potestować,
bo wiem, że to ja tą aplikację przedstawiałem,
All Files.
Bardzo fajna.
Jak ją sprawdzę, to dam znać,
bo nie miałem ostatnio takiej potrzeby odtwarzania,
ale mam akurat jakieś nawet tyfloprzeglądy
na moim iPhonie,
więc mogę spokojnie nimi tam coś porządkować
i sprawdzić.
Ja właśnie pisałem do nich.
Jeszcze chciałem go polecić,
powiedzieć, że testowałem odtwarzać muzyki.
Flagbox i on jest ciekawy,
ma dużo ustawień ogólnie
i wydaje się być dostępny,
tylko trochę dziwnie się odtwarza,
bo te pliki się nie chcą układać w kolejce.
Można je przestawiać.
Tak, to nie wiem, czy nasz kolega redakcyjny Edwin
kiedyś tego nie testował
i nie wysypywało z tego co pamiętam,
ale jeżeli ty masz z tym dobre doświadczenia,
to tylko się cieszyć.
Dobre tylko, że te pliki jakoś tak nieładnie ustawia,
a ręcznie to ustawiać we właściwej kolejności
to nie robota.
Dobrze, już więcej nie wyjmuję
i dziękuję.
Dzięki Witoldzie za telefon.
Pozdrawiamy cię serdecznie.
Do usłyszenia.
Ja tak trochę Witolda tu poganiałem,
dlatego, że jeszcze mamy słuchaczy w kolejce,
to jest jedna rzecz,
a druga rzecz, że mamy jeszcze kilka komentarzy,
więc teraz te komentarze.
Od Romana na przykład mamy komentarz.
iOS 17, nie wiem czy błąd, czy zamierzone,
ale z listy dostępnych dźwięków dla SMS
zniknęły dodane własne dźwięki.
I tam w ogóle się jakieś teraz takie inne
dźwięki na powiadomienia pojawiły.
Tak, i my o tym też, chyba Piotr o tym mówił tydzień temu,
że nie da się już zmieniać dźwięków powiadomień na własne.
To znaczy, jeżeli mieliście ustawiony jakiś własny
przed updatem do 17, to on zostanie,
ale moment, w którym zmienicie na jeden ze standardowych,
to już tej możliwości z powrotem nie dostaniecie
i to jest niestety, it’s a feature.
To jest zamierzone działanie firmy.
Nie jest to niestety, zdaje się…
To znaczy, nie wiemy, czy to jest zamierzone, czy nie.
Natomiast w ogóle ta aktualizacja w ogóle spowodowała,
że po raz pierwszy osoby widzące zaczęły rozmawiać o dzwonkach.
Bo tak rozmawialiśmy, że dużo osób ma wyciszone.
Może i tak jest, ale też okazuje się, że równie dużo osób
też komentuje, bo też o tym rozmawialiśmy ostatnio,
że ten nowy dźwięk na powiadomienia domyślne aplikacji,
bo on też się zmienił, jest za cichy.
I nagle ludzie zaczęli prosić o możliwość
zwrócenia starego dźwięku, czy po prostu zmienienia go,
więc kto wie, co za jakiś czas się stanie.
Bo może się nic nie stać, a może w końcu
dostaniemy jakąś opcję do tego.
Kolejny komentarz tym razem pochodzi od Grzegorza.
Cześć wam, czy macie problem z Mona i iOS 17 na iPhonie 11?
Dodatkowo VoiceOver i Speak.
Jak w całym systemie wszystko chodzi dobrze,
to w Mona jest gdzieś sekundowe opóźnienie,
gdy poruszamy się po postach gestami lewo, prawo.
Ja mam jeszcze siedemnastki, więc nie wiem.
Zastanawiam się, czy ja generalnie z Mony
korzystam codziennie i zastanawiam się,
czy zauważyłem, czy tam jakoś wolniej mi to działa.
Inna sprawa, że ja mam trzynastkę akurat,
ale chyba nie zauważyłem, że to jakoś działa wolniej,
no to się nie używam iSpeak’a akurat.
No to następny jeszcze komentarz od Romana.
U mnie ta sztuczna inteligencja kota rozpoznała jako psa.
No to ciekawe.
U mnie akurat kota rozpoznała jako kota,
ale nie rozpoznała rasy.
To akurat fakt.
Dobrze, to ja myślę, że odbierzemy teraz jeszcze jeden telefon.
Miaufon, tak się ktoś tu do nas zgłasza,
pod takim nikiem, zobaczymy,
ale w oczekiwaniu, aż się tutaj ktoś ujawni, kim jest,
to jeszcze przeczytam jeden komentarz od naszego słuchacza Łukasza.
Witam w poniedziałek.
Na Blind Shellu pojawiła się nowa wersja Messengera.
Responsywność mogłaby być nieco lepsza,
ale poza tym wszystko działa.
Pozdrawiam, my też cię pozdrawiamy, Łukaszu.
Ja miałem o tym mówić w drobnych newsach,
ale dzięki Łukaszu.
Messenger jest, ponoć wszystkie funkcje są,
naklejki są czytane,
baterii ponoć za to nie zżera jakoś strasznie,
tak przynajmniej donosi nasz słuchacz Dawid.
Whatsapp też się zaktualizował.
Jest to już pełny Messenger,
tylko pełny, taki pełny, pełny Messenger.
A kto jest z nami?
Halo?
Cześć, halo, słychać mnie?
Słychać się, słychać.
Cześć, a co nie jestem podpisany, że tak się pytasz, kto jest z nami?
Jesteś podpisany jako miaufon.
Miaufon.
O, miaufon, tak, to jest, tak, ale przez meof,
bo moja małżonka ma przez my i au.
Okej.
Więc z tym się odróżniam.
Okej, cześć Wojtku.
Cześć, cześć.
Więc tak trochę strygerowaliście różnymi tematami.
Co do tego RODO i Google tutaj, o czym Witold mówił,
to mogę opowiedzieć doświadczenia z mojej wspaniałej organizacji.
Wyglądało to tak, że Zoom na przykład bardzo długo był wrogiem publicznym nr 1
i te dane tam w ogóle miały winąć i nie wiadomo do kogo trafiać.
Wszystko uspokoiło się w jednym momencie,
kiedy uczelnia podpisała liability agreement z Zoomem
i odpowiedzialność przeszła na Zooma za wszelkie wycieki.
I nagle okazało się, że jest superbezpieczny
i wszyscy możemy z niego korzystać.
Tak, ale właśnie to jest to, o czym ja też mówiłem Witoldowi,
że absolutnie samemu do takich rzeczy nie można robić.
Zawsze w każdej instytucji jest człowiek od RODO,
a przynajmniej być powinien i to on, no chcemy czy nie chcemy,
no do jego decyzji musimy się stosować, bo to on za to odpowiada.
On jest inspektorem ds. danych osobowych, ochrony danych osobowych
i po prostu w tych kwestiach to jego słowo to jest święte
i tego się trzeba słuchać.
A nawet jest czasem tak, że jest więcej tych inspektorów.
U nas właśnie jest ten ogólny, ale jeszcze też właśnie tu siedzieliśmy
z Kamilą i powiedziałem jej, słuchaj, a nasza koleżanka Dorota
kiedyś u nas na wydziale była LODO, bo była lokalnym inspektorem danych osobowych.
O, jeszcze lepiej.
Tak że tak się ładnie zawsze przychodziłem do niej i się witałem.
Cześć LODO!
Tak, bo to od niej wszystko zależało i tam szkolenia jakieś zaliczałam.
Także tak, także czasem to potrafi być takie rozbudowane,
więc trzeba wiedzieć do kogo trafić.
Druga sprawa, taka myślę bardzo ważna dla nas wszystkich,
to są te eksperymenty ze sztuczną inteligencją do opisywania obrazów.
Ja muszę powiedzieć, że często to robię i eksperymentuję,
bo mam taką studentkę na seminarium, która bardzo się do tego zapaliła.
Ona chciała od początku coś o audiodeskrypcji pisać,
ale jak zobaczyła, że może być coś takiego, to powiedziała,
no czy ja mogę napisać coś takiego?
No i mówię, no wie pani, no jeszcze tego nie ma w ogóle.
Tylko podcast był wtedy z tym Jonathanem, ale teraz jak już wyszło,
to mówię dobra, piszemy, bo jest o czym pisać teraz.
I bardzo ciekawe są takie wyniki naszych wstępnych obserwacji,
które tutaj czyniliśmy, że np. myśmy porównywali tego czata Bing
z tym mechanizmem BIM-AI i zdawałoby się intuicyjnie,
że ten BIM-AI będzie lepszy. Otóż często tak nie jest.
I nawet nie tylko dlatego, że on tam zasłania te twarze,
zresztą teraz to już do obsłudu naprowadził,
bo ostatnio sfotografowałem podłogę w naszej kuchni
i powiedział, że niestety tutaj są dane wrażliwe i nie powiem.
Wojtku, ale to już naprawili, przynajmniej na razie.
Od wczoraj, słuchaj, od wczoraj działa i już opisuje twarze,
także może nie jakoś bardzo wiele tych szczegółów,
ale już się nie zasłania, że to są dane wrażliwe itd., itd.
Jakby nie mógł tego, tak jak już mówiłem,
nie mógł zrobić tego w zeszłym tygodniu,
kiedy miałem dwadzieścia ileś zdjęć do opisania.
No więc pytanie jest od, ale ciekawe, czy też do, na przykład.
Za dwa dni ciekawe, czy nie zmieniam zdania.
Teraz napisali w oświadczeniu, że może tak być.
Że może to różnie działać, że może działać lepiej, gorzej.
Wszystko to dla was, drodzy użytkownicy.
To muszę szybko pisać do tej mojej studentki,
że szybko teraz robimy zdjęcia wszystkim twarzą i badamy,
co on tam wypluje.
Bardzo to jest ciekawe, bo na przykład ten Bing,
ona dała, bo tam we Włoszech była na wakacjach
i dała mi mnóstwo jakichś zdjęć właśnie z wakacji.
I ciekawe było to, że o ile ten Be My AI
to pisał tam jakieś zdjęcie, tam jakaś rzeźba smoka była,
no to on właśnie opisał, że tam jest uliczka,
że jest tam jakaś metalowa konstrukcja,
że przypomina rzeźbę tak bardzo, jakbyśmy to powiedzieli
w tym świadku audiodeskrytywnym, obiektywnie.
Tak zwana szkoła białostocka to opisał,
że to można tak interpretować, ale nie trzeba.
No i oczywiście ona się pytała, to było też śmieszne,
jak ona się pytała właśnie o tę interpretację,
że nie, że nie możesz tak interpretować.
Sztuka współczesna to jest pole do różnych interpretacji.
Ty możesz mieć swoją, ale ja tylko obiektywnie się wypowiadam
o tym, co widzę. Także tak te czaty są też pouczone,
ale ciekawe było to, co zrobił Bing, bo Bing powiedział,
że jesteśmy we Włoszech i to jest tam rzeźba gdzieś i gdzieś.
I druga rzecz, która już zupełnie mnie w fotel po prostu wpędziła,
ponieważ zrobiła ta dziewczyna zdjęcie muralu z piłkarzem.
No i oczywiście nasz ten open, nie, Boże, ten BMI,
to oczywiście zrobił coś takiego, że powiedział,
że tam gdzieś tam nie widać twarzy, no bo jest tam niebieski kwadrat,
no to wiadomo, ale że jest piłkarz i ten, no się ona go pyta,
no dobrze, ale co to jest, że piłkarz, kto to jest?
Nie, nie, nie, nie potrafię, tylko 10 numer na koszulce.
A ten Bing Chat zrobił coś fajnego,
mianowicie powiedział jej coś takiego, że to jest koszulka numer 10
i on ma napisane tam Milano czy Milan na tej koszulce.
Według mojej wiedzy tę koszulkę nosił Diego Maradona,
bo potem jak Diego Maradona ustąpił z tego stanowiska,
to już nikomu nie dali tej dziesiątki, więc to musi być Diego Maradona.
Także jest bardzo mądry i właśnie wcale intuicyjnie by się wydawało,
że ten nasz Be My AI będzie mądrzejszy, a ten wcale nie jest taki zły.
Także polecam eksperymenty z różnymi.
To jest ciekawe.
Ja się tak tylko zastanawiam, czy akurat to, o czym mówiłeś,
to jest trochę zrobione celowo.
To znaczy ja szczerze mówiąc wolę, żeby on się nie domyślał za dużo,
bo się czasem może domyślić czegoś, czego bym się nie chciał,
żeby on się domyślił.
Wiecie, to jest trochę to, co mówią o tych ludziach,
którzy nam chcą pomóc.
Konfiguruje sobie jakiś sprzęt.
Dobra, to teraz tu naciśnij.
I naciska człowiek za mnie.
Lubię to, bo chciałem zrobić coś zaawansowane.
I wiecie, im mniejsze ten czas będzie domyślał,
tym ja będę miał większą szansę, że to, co on mi powie,
to będzie to, co ja chcę się tego dowiedzieć.
Ja na przykład próbowałem go z moimi zdjęciami z Grecji,
bo niedawno byłem i wróciłem.
I ja pamiętam, że jak Jonathan to testował,
to on na zdjęciach z Londynu dostał odpowiedź wtedy jeszcze.
Oczywiście musiał go ponaciskać, że są w Londynie
i on tam wtedy się domyślił, co to może być.
Natomiast ja wrzuciłem zdjęcie z Akropolu,
byłem sobie pod chyba jedynym funkcjonującym jeszcze
amfiteatrem na Akropolu.
I Herodion, czy jakoś tak się nazywa ten amfiteatr.
Niedługo ma tam być jakiś koncert gotycki, taka ciekawostka.
Natomiast wrzuciłem to zdjęcie.
Ono ponoć jest dość artystycznie wykonane,
tak twierdzi osoba, która mi je robiła.
I ponoć bardzo ładnie tam wyglądam.
W ogóle sam ten widok jest też bardzo fajnie, dobrze ujęty.
No więc nie ma problemu z jakością zdjęcia.
No i zapytałem, znaczy dostałem jakiś wstępny opis.
Zapytałem go, okej, a czy jesteś w stanie domyślić,
czym jest budynek?
Czyli jakby dałem mu zezwolenie na to, żeby się domyślał
dla samej zabawy.
No nie, nie jest w stanie.
Okej, jesteśmy w Grecji, co to może być?
No Grecja jest domem wielu ciekawych obiektów
i bogatej architektury takiej jak Akropol itd., itd.
Ja mówię, no dobrze, jesteśmy na Akropolu.
Aha, Akropol, no nie wiem co to może być,
ale na Akropolu są takie jak tam Parthenon,
coś tam, coś tam.
Ja tak, okej, dobra, to już z tego nic nie wyciągniemy.
Czyli stracił tę możliwość, którą miał jeszcze
w pierwszej becie domyślania się.
Chyba, że tylko na Londyn działa.
Nie wiem, na jakieś Stany, Anglię, itd.
To jest w ogóle wszystko ciekawe,
bo to jest niby wszystko ten sam model teoretycznie.
Bo zarówno Bing i BeMy.ai, no to korzystają z modelu chat GPT.
Natomiast pewnie może są jakoś inaczej aktualizowane.
Inne promty mają, ale też nie wiem,
czy Bing w jakimś tam stopniu nie ma teraz
dostępu do internetu.
Szczerze teraz nie pamiętam.
Wiem, że jakieś plany na jakieś rozszerzenia były.
I tutaj się zastanawiam, czy tutaj Bing
nie pomaga sobie w internecie,
a może też właśnie po prostu ma inny prompt,
że jednak ludzie mu będą podsyłać zdjęcia
jakichś zabytków może właśnie z takimi pytaniami,
żeby jakoś te informacje wyszukiwał.
Natomiast podbijam absolutnie uwagę co do OCR-a.
Nie wierzcie mu.
Bo ja staram się tego też korzystać
do różnych takich rzeczy codziennych.
Na przykład mieliśmy coś na balkonie, coś białego.
Nie wiedziałem, czy to…
Może być to ptasie gówno.
Więc tak sobie pomyślałem,
no nie będę tego dotykał ręką.
Sprawdzę zdjęcie, wyślę i niech powie.
O, coś jest, jakiś biały obiekt.
Jakiś tam może folia, może torebka, może coś.
No ale w końcu się go zapytałem.
To też jest…
Uwielbiam tę jego grzeczność.
Uwielbiam jego kajanie,
jak na XX zjeździe tego KPZT po prostu.
Czyli grzeczność to jest tak.
No ja mu piszę, no ale dobrze.
Czy myślisz, że to może być ptasie gówno?
A on mi odpisuje, nie, nie, nie.
To nie mogą być odchody ptaka.
No i rzeczywiście miał rację.
W sensie, że to był jakaś tam worek,
czy folia, coś takiego.
I to wziąłem i zgarnąłem.
Już mamy po sprawie.
Innym razem z kolei testowałem to
na warzywach na patelnię.
No to postawiłem mu to opakowanie.
No to pierwsze oczywiście podejście.
Powiedział, że no on widzi,
że tutaj jest sposób przygotowania.
Wszystko zresztą jeszcze wtedy tłumaczył
z polskiego na angielski i z powrotem.
To też ciekawe.
No ale dobre.
W końcu pan powiedział, że dobra,
to składniki to są gdzieś tutaj.
Chcesz, to zrób zdjęcie jeszcze tamtego odcinka.
Opakowanie.
Dobra, zrobiłem zdjęcie
i zadałem mu jedno proste pytanie.
Czy jest tam taka saszetka z przyprawami?
No bo wiadomo, że to akurat jest bardzo ważne,
no bo wysypujesz to na patelnię,
no to wolisz tam,
albo to będziesz mocniej monitorować,
czy tam jest ta saszetka, czy nie.
No i on powiedział, nie, nie, nie, nie ma,
no bo tu jest napisane wyraźnie,
że nie ma w tej instrukcji.
No dobrze, okej.
No to tam wysypuję na patelnię.
Oczywiście była.
No i zrobiłem sobie,
ponieważ opakowanie nie wyrzuciłem,
zrobiłem z linka jajem.
Oczywiście tam jest jak byk napisane,
że jest ta saszetka.
No więc i tu mnie koleżanki pouczyły,
że nie wolno,
bo ona kiedyś będzie rządzić światem.
Napisałem, kłamiesz.
Inna aplikacja powiedziała, że jest,
a ty mnie wprowadzasz w błąd.
No i zaczęło się właśnie kajanie,
że bardzo cię przepraszam,
że nie chciałem,
że naprawdę jest mi bardzo przykro,
ale naprawdę tam widziałem,
że tego nie ma.
No i potem ja mówię,
no widzisz, ale jest.
I to było bardzo ciekawe,
takie, no moje informacje mówią,
że nie ma, ale jest,
skoro to masz,
no to znaczy, że tam jest.
Strasznie zabawne są te konwersacje
z nim czasem.
Trzeba było mu napisać,
że zranił twoje uczucia.
To mogło być ciekawe.
Następnym razem to sprawię.
Może będzie odpowiedź,
I’m sorry that I made you cry.
Jest opcja.
Może się nauczę śpiewać,
ale no właśnie,
o czym ja chciałem tutaj powiedzieć,
no że z tym tekstem
ja też miałem przeboje.
To zresztą Piotr tu wspominał
jeszcze chyba w pierwszym odcinku,
jak Be My AI był dostępny,
że fotografowałem butelkę wody mineralnej
i no woda miała napisane
pij tylko najlepsze minerały
czy coś takiego,
a on sobie napisał,
że na etykiecie jest napisane
pij mądrze.
I zacząłem się zastanawiać,
na czym to było trenowane po polsku,
że takie napisy się nauczył czytać
na butelkach.
Jakieś głupi to pisze o mądrości.
I trzecia sprawa już poza czatowa.
Ogromne dzięki dla Pauliny.
Nie wiem, czy tam gdzieś z wami jest,
ale jakby tego odsłuchała,
czy tam jest,
to ogromne dzięki za te wszystkie
różne linki do różnych mechanizmów.
Tam pojawiło się w ostatnim,
w swoim poprzednim nagranym przeglądzie,
bo nie ostatnim na pewno,
pojawiła się taka fajna informacja
o takiej wyszukiwarce dla badaczy
i ja z tego rzeczywiście próbowałem korzystać,
a z zupełnie innego źródła też wiem
o czymś takim,
co się nazywa chyba elicit.org.
I to trzeba się tam potem zarejestrować
a jedno czy dwa to sobie można promty wpisać.
No i fajne to jest,
fajne, fajne.
Ja to jeszcze będę testował.
Czasem takie bzdury zupełnie wywala,
ale myślę, że warto takie rzeczy testować.
Jak to przejdzie jakoś pomyślnie,
pierwsze sito moje,
to może nawet studentom będę udostępniał,
żeby sobie ułatwiali ten przegląd literatury.
To nawet już ma swoją nazwę LBD.
Takie mechanizmy się nazywają
i one ułatwiają właśnie ten przegląd literatury.
To nie służy do tego, żeby coś napisać,
bo on pisze tak od rzeczy w jednym schemacie,
ale czasem jakieś fajne linki do paperów znajduje.
Także mogę to polecić.
Oczywiście jak zawsze trzeba korzystać z tego z głową
i nie przepisywać byle jak tego, co tam będzie,
bo to są rzeczy, które muszą przejść przez sito ludzkie,
ale na pewno on będzie mieć lepszą pozycję do tego,
żeby szukać w pewnych dziedzinach artykułów naukowych niż my.
I na pewno otworzy to jakieś tam nowe, ciekawe perspektywy.
Podobno nawet, i to już czytałem właśnie w ekonomiście na ten temat,
skąd mam tę wiedzę na temat tej wyszukiwarki,
że ona nawet potrafi połączyć się z badaczami czy badaczkami,
którzy zajmują się podobną dziedziną co ty
na podstawie tych właśnie zapytań, promptów.
To już bardzo ciekawe, to się będzie rozwijało i ja to się cieszę.
Za jakiś czas jakąś sieć społecznościową stworzą z tego.
No wiesz, to są wymierne korzyści.
Oczywiście.
Bo z kimś się łączysz, więcej właśnie możesz robić projektów,
różne rzeczy robić.
Ja widzę to w bardzo optymistycznych barwach, bo…
Taki LinkedIn dla naukowców.
Znaczy to już oczywiście jest, tam jest kilka tych portal,
jest ResearchGate, jest Akademia,
ale ja myślę, że to jest bardzo dużo tutaj dla nas korzyści.
No to, że będą te prace pisane czatem GPT.
Tak, tak, no na pewno już są.
No i tego nie wykryjesz żadnym antyplagiatem,
które i tak były do bani, więc to tam już żaden żar dla mnie.
No ale myślę, że bardzo dużo możemy skorzystać
i dowiedzieć się, po prostu wyjść poza te nasze takie sztywne ramy
jakiejś dziedziny czy dyscypliny i dowiedzieć się różnych ciekawych rzeczy,
co inni badają, no poprzez takie zautomatyzowane wyszukiwania.
Z drugiej strony ja tak sobie myślę, że my coraz mniej zaczynamy tracić czasu
po prostu dzięki tym narzędziom na takie działania podstawowe,
które oczywiście fajnie, jak się umie i jak się wie jak.
Natomiast zajmuje to zawsze tyle czasu,
a tak to ten zaoszczędzony czas można spożytkować albo po prostu na coś innego,
albo na rozwijanie jakichś swoich badawczych działań.
I jeszcze jedna rzecz, bo też jakby już od jakiegoś czasu
się gdzieś tam mówi w różnych miejscach.
Nie wiem czy takich bardzo naukowych, być może też.
Ja nie mam styczności z takim, że takim środowiskiem,
w żaden sposób nawet, nie wiem, internetowy.
W każdym razie podobno teraz jest problem nadmiaru prac
we wszelkich dziedzinach w zasadzie, prawie że.
I jest bardzo duży problem ze znalezieniem konkretnego materiału,
bo jest zalew teoretycznie wszystkiego o wszystkim.
Te prace się bardzo często powtarzają
i można być ekspertem w szukaniu ogromnym,
a mimo to po prostu zakopać się w jakichś materiałach
i ileś czasów sprawić na to, żeby znaleźć po prostu coś ciekawego,
coś to połączy, nie wiem, jakieś rzeczy.
Także tutaj też jest z tego zawiązane coś, o czym też się mówi,
że najlepsze rezultaty ma sztuczna inteligencja plus człowiek.
Nie sama sztuczna inteligencja, nie sam człowiek,
tylko właśnie duet, sztuczna inteligencja plus człowiek.
Tak, jest taka mantra w nauce od bardzo wielu lat,
publikuj albo ginj.
Więc nic dziwnego, że skoro ludzie są zachęcani,
od tego zależą ich etaty bądź ich brak i różne inne rzeczy,
to publikują tego na potejny.
Po prostu jest tyle rzeczy, że nikt nie jest w stanie tego ogarnąć
i mam nadzieję, że AI też nam w tym pomoże.
I jeszcze ostatni temat AI-owy
i już obiecuję zejść z anteny za dwie minutki.
Mianowicie zrobiłem sobie profil głosowy w iOS 17
i pierwszy telefon, który wykonałem, to był do mojej mamy.
Ona akurat tam gdzieś była na zewnątrz.
No to mówię bardzo dobrze, okej, puszczę ci coś.
No i puściłem tam kilka tych fraz.
No i powiedziała, że nie poznała.
Teraz jakoś tak myśli, że jak jej powiedziałem co to jest,
nie poznała, więc radzę wszystkim,
rzeczywiście jeśli to możecie zrobić,
to taką edukację z seniorami prowadzić,
bo myślę, że już podobno się pojawiły te na wnuczka,
deluks, oszustwa, że właśnie ktoś używa tych głosów syntetycznych.
Zwłaszcza osoby, które tak jak my wszyscy, jak tutaj jesteśmy,
nasze głosy bez problemu są dostępne,
żeby sobie stworzyć taki głos.
Oczywiście, to nawet w sumie, ja bym nawet zasugerował,
załóżcie sobie konto na Eleven Labs, sklonujcie głos swój
i nawet tak spróbujcie.
Nawet lepiej, nawet lepiej, tak.
No i oczywiście wyłączyłem sobie pierwsze co,
to wyłączyłem sobie opcję mój głos jest moim hasłem,
którego nie muszę pamiętać w banku.
No tak.
No właśnie.
No to tu będzie bardzo duży problem
i miejmy nadzieję, że te banki,
które zdecydowały się na wprowadzenie czegoś takiego,
to jak najszybciej zaczną to domyślnie wyłączać,
bo jest to zagrożenie.
Tak, no ja już im to zgłosiłem
i to rzeczywiście, no teraz po prostu aplikacja
i uwierzytelnianie tylko na telefonie.
Swoją drogą ciekawe, może ktoś mógłby sobie,
tak zanim to wyłączy i jeżeli miałby jakiś swój model głosowy,
na przykład na Eleven Labsie,
to przetestować to, czy się uda.
No tak, tak, tak, to by było rzeczywiście ciekawe,
ale wiecie, bo teraz jak my rozmawiamy,
to pewnie jakbym wam puścił to,
to byście poznali, że to nie ja.
Ale w tym tam ośmiokilobajtowym,
czy kilobitowym, czy jak tam, ile to ma jakości,
połączeniu telefonicznym, w życiu tego nie poznasz.
W życiu.
Dokładnie, dokładnie.
To naprawdę musisz, musisz po prostu…
Bo synteza to jest jedno, ale osobną sprawą
to jest to tak zwana konwersja mowy na mowę.
To znaczy ja mówię swoim głosem,
a swoją intonacją mogę sobie zaakcentować,
co chcę, jak chcę.
Mogę jakby mówić to w taki sposób,
w jaki rzeczy się konwersuje,
ale zamienić swój głos na głos kogoś innego.
I to znowu, w dobrej jakości można to rozpoznać,
ale jeżeli się mówi przez telefon,
no to myślę, żeby to spokojnie przeszło, coś takiego.
Oczywiście to nie jest ani łatwe,
to nie jest tak, że każdy to może zrobić,
ale z drugiej strony ja się naprawdę nie zdziwię,
jak są usługi gdzieś poukrywane w jakichś głębokich internetach
czy jakichś takich dziwnych obszarach,
gdzie właśnie robi się jakieś takie usługi,
że tutaj mi podaj, tu my robimy jakąś usługę, coś tego.
Ty se mów przez mikrofon, my się połączymy już z kim trzeba,
ty nadaj jakąś próbkę głosu i tak dalej, i tak dalej.
Tak, tak.
A drugą osobą, do której zadzwoniłem,
był mój kolega, z którym dziesiątki godzin przepracowałem prawidłowo
i ocenił ten głos.
No też on się zajmuje takimi sprawami tam sztuczno-inteligencji,
jakiejś przyszłości tłumaczeń ustnych.
On to widzi zresztą bardzo ciemno,
ale powiedział, że bardzo, bardzo dobrze.
No oczywiście da się poznać, ale on, który ze mną długo pracował
i długo mnie słuchał, powiedział i tak wyraźnie mnie po prostu słuchał,
no bo na tym polega nasza praca, że się słuchamy nawzajem.
To nawet on powiedział, że no po angielsku dobrze pewne takie cechy
mojego głosu oddał.
Także strzeźcie się i na pewno wyłączcie sobie tę biometrię głosową w bankach,
bo to już naprawdę zaczyna być niebezpieczne.
Cieszę się, że mój bank nawet nie zdążył tego wdrożyć.
Słusznie.
Mi to zaoferowali kiedyś, ale jakoś nie wiem, po prostu nie miałem chyba czasu,
bo nie chciałem tego wyłączać.
To było jakiś czas temu i teraz w sumie się też cieszę z tego powodu.
Ja tylko mam tak, pociesza mnie to, że ponieważ tutaj jak jesteśmy,
jak słuchacze, słuchaczki nas słuchają, to jesteśmy wszyscy doinformowani,
więc może jakoś tam bierzemy teraz taką szczepionkę, że nikt nas tak nie oszuka.
Może jakoś inaczej nas oszuka ktoś, ale nie tak przynajmniej.
Oczywiście, że tak, a przy okazji warto sobie na przykład na YouTubie
taki kanał jak Poszukiwacze Okazji zaśledzić.
Oni też akurat ostatnimi czasy w ten sposób się bawili.
Jest jeszcze taki kanał nie dla skamu, to dla tych wszystkich,
którzy się interesują tymi wszystkimi telefonicznymi oszustwami,
gdzie to dzwonią ludzie zazwyczaj z wschodnim akcentem i oferują nam
niebotyczne sumy, które możemy uzyskać, jak tylko wpłacimy tam jakiś depozyt
w wysokości na przykład tysiąca złotych.
Ja nie wiem, czy wy wiecie, ale ja miałem sporo kryptowalut
i brakowało tylko jednego hasła, żeby mnie wyciągnął.
Ja też nie wiedziałem, ale się dowiedziałem.
Aha.
Bo tu pan zarobił pan dużo.
Tylko właśnie, tylko prosimy o podanie jakiegoś tam hasła.
Najlepiej tego do pana banku, żebyśmy od razu mogli przelać środki.
Tak jest. Trzymajcie się. Dzięki jeszcze raz.
Trzymaj się Wojtku. Dzięki za telefon.
200 kolejnych. Dzięki.
Postaramy się.
Próbujemy.
To może teraz kolejny komentarz, bo mamy.
Piszecie, dzwonicie. Fajnie, fajnie.
Aga do nas ponownie napisała.
Co do Be My Eye, to jeszcze napisze, że raz bardzo mnie zaskoczył,
gdy dałam mu do rozpoznania zdjęcie, które zrobiła koleżanka.
Na tym zdjęciu był telewizor, a na jego ekranie wyświetlała się scena jakiegoś filmu.
Jak go zapytałam, co to za film, to on rozpoznał, że to jest Kevin sam w domu
i kto jest na ekranie, i że był Kevin, kto go gra, jaki aktor.
No to mnie zaskoczyło. Wszystko się zgadzało.
Co do Joty.
Muszę na Star Trek’u i na anime jakieś potestować w sumie.
No, albo wiecie, ale słuchajcie, mi przyszła do głowy jeszcze jedna myśl
i to muszę potestować. Robienie zrzutu ekranu na przykład z jakiegoś filmu
albo z jakiejś apki, która odpala powiedzmy coś telewizyjnego, tak?
Jakieś tam streaming telewizyjny, jak nie wiemy co się dzieje i chcemy się dowiedzieć.
Oczywiście wiadomo, że to jest tylko jedna klatka, jedno ujęcie,
ale ciekawe, bo nie testowałem tego jeszcze.
W ten sposób.
Też może być fajne.
Może.
No to może przejdźmy już do kolejnego komentarza, czyli do OCR-a,
bo znowu będzie rozpoznawanie. Rozpoznawanie tekstu działa.
Rozpoznawanie zdjęć, jak widać, jak tam mówiliśmy, różnie to z tym bywa.
Rozpoznawanie matematyki, treści matematycznych, to coś nowego.
Ja osobiście nie testowałem, więc nie powiem jak precyzyjnie to działa,
natomiast ostatnio troszkę artykułów się o tym rozwiązaniu pojawiło.
Rozwiązanie MathPix Snip.
Ogólnie MathPix to jest chyba taka firma, która oferuje różne produkty
właśnie rozpoznawania treści matematycznych przez rzekomo sztuczną inteligencję.
No i MathPix Snip to jest takie najbardziej chyba narzędzie,
które by nas interesowało, bo ono pozwala na wyodrębnienie z obrazka,
z zdjęcia, treści matematycznej i przekonwertowanie jej,
przeOCR-owanie na MathML, czyli już na taką formę, którą za pomocą takich rozwiązań
jak MathPlayer czy MathCAD jesteśmy w stanie bez problemu czytać.
No i mamy takie rozwiązanie. Instalujemy je sobie.
To jest dodatek do Worda. Ono się instaluje w tej naszej ofisowej wstążce.
Wchodzimy sobie na nie, importujemy tam jakiś obrazek,
na którym jest jakieś tam równanie matematyczne.
Zaznaczamy na tym obrazku ten fragment, który chcemy wyodrębnić,
na którym jest rzeczywiście to równanie.
No i zaczyna się zabawa.
Wyodrębniona treść, potem te surowe dane są na zakładce Data.
I my możemy to skopiować, wkleić.
Jeżeli jest MathPlayer, to się nam odezwie, że to ma być jako MathPlayer przepuszczone.
No i już możemy taką treścią się jako osoby niewidome cieszyć.
Pewnie rozwiązanie bardziej dla osób, które przygotowują jakieś materiały,
na przykład na studiach.
Zwłaszcza ta część z zaznaczaniem fragmentu może być dla nas dość kłopotliwa.
Natomiast na pewno warto się tym zainteresować, chociażby jak działa.
A da się sprawdzić, jak działa, bo jest wersja darmowa,
która pozwala miesięcznie na pięć takich rozpoznań.
Tam też jest opcja skanowania plików PDF pod kątem treści matematycznej.
Tutaj mielibyśmy, zdaje się, 10 stron.
Jeżeli mamy adres akademicki jakiejś uczelni,
to możemy też skorzystać z wersji darmowej dla studentów.
I wtedy nam tu podskakuje do 10 rozpoznań miesięcznie i 20 stron.
No a wersja Pro, jeżeli nam się rzeczywiście rozwiązanie spodoba,
kosztuje zaledwie 5 dolarów miesięcznie.
No a jeżeli się zdecydujemy na cały rok, to 50.
Czyli dwa miesiące dostajemy gratis, co jest dość popularne w takich subskrypcjach.
I mamy wtedy 5 tysięcy takich rozpoznań.
Stron PDF-ów już teraz nie pamiętam, ale już dość dużo.
I to miesięcznie takich rozpoznań.
Więc myślę, że jest to bardzo ciekawe rozwiązanie,
zwłaszcza jeżeli interesuje Was matematyka, studiujecie ją,
jest ona częścią Waszej pracy, Waszych zainteresowań akademickich,
czy też prywatnych, to warto się gdzieś takim rozwiązaniem zainteresować.
Teraz news od Michała.
Coś, co nazywa się Wybory Naprawdę Dostępne.
I to jest zaproszenie na konsultacje społeczne.
Zgadza się, to jest zaproszenie na konsultacje społeczne,
które organizuje Fundacja Instytut Rozwoju Regionalnego.
I teraz pozwolę sobie treść tego ogłoszenia przeczytać.
Zapraszamy na konsultacje społeczne projektów rozwiązań ustawy
wdrażającej konwencję o prawach osób niepełnosprawnych.
Konsultacje społeczne w Warszawie odbędą się 2 października,
to jest w poniedziałek w godzinach 11.15.
Temat spotkania Wybory Naprawdę Dostępne.
Propozycje zmian w prawie wyborczym.
A ekspertem będzie dr Jarosław Zbieranek.
Zapraszamy do zapisów.
Zmieniajmy razem świat na lepsze.
Ilość miejsc ograniczona.
Uwaga! Osobom, które zapiszą się poprzez formularz i otrzymają potwierdzenie,
udział w konsultacjach, zostanie wysłany mail
z dokładnym wskazaniem miejsca spotkania.
Tu oczywiście będzie link w komentarzu pod transmisją i pod audycją.
Jeżeli ktoś będzie miał ochotę się zapisać, będzie link do formularza.
Natomiast ten link dostępny jest już teraz na naszej stronie internetowej www.firr.org.pl
Konsultacje odbywają się w ramach projektu pod tytułem
Opracowanie projektu ustawy wdrażającej konwencję o prawach osób niepełnosprawnych
o proponowanej nazwie ustawa o wyrównywaniu szans osób z niepełnosprawnościami
wraz z oceną skutków regulacji i uzasadnieniem, jak też propozycji zmian legislacyjnych
podążających za nową ustawą realizowanego w ramach programu operacyjnego
Wiedza, Edukacja, Rozwój 2014-2020
Działanie 2.6, czyli wysoka jakość polityki na rzecz włączenia społecznego i zawodowego osób niepełnosprawnych
współfinansowanego z Europejskiego Funduszu Społecznego.
Więc ja bardzo serdecznie zapraszam, jeżeli macie ochotę wziąć w takich konsultacjach udział
no i nie chcecie na przykład czekać, aż udostępnimy ten link
no to wejdźcie koniecznie na naszą stronę, na stronę fundacji www.firr.org.pl
Tam jest już formularz, on jest takim formularzem standardowym, formularzem Googla
więc nie powinniście mieć żadnego problemu z jego wypełnieniem.
W ogóle nie wiem, czy widzieliście, że artykuł z Tyfloswiata właśnie dzisiaj,
przynajmniej tak na Mastodonie, dzisiaj został polecony osobie z zagranicy
jako sposób na zrobienie sobie NVIDIA, takiego pliku z instalatorem NVIDIA,
który go jakby rozpakuje i uruchomi jakby nas.
Notabene ja go pisałem, tylko że to już dawno, dawno temu było
i mam nadzieję, że to w ogóle jeszcze działa w ten sposób.
W każdym razie on został polecony właśnie komuś z Beznajomości Polskiego
z takim czymś, że no tu masz fajny artykuł, tylko sobie go przetłumacz,
jakimś tłumaczem i rzeczywiście mówił podobno, że fajnie, że to jest opisane jak trzeba.
Także tutaj Tyfloswiat jak widać poleca się nie tylko lokalsom, nam.
Z obu stron my czerpiemy bardzo chętnie z zagranicznych źródeł,
których nie rozumiemy.
Nie tylko w tę stronę to działa.
Jesteśmy też zagranicznym źródłem dla kogoś i jak widać to jest okej.
Zresztą to tutaj nasz dawny troszkę eks kolega redakcyjny Mikołaj tutaj zapadał,
co też trochę oznacza, że to jest dobry przewodnik.
W sensie na tle również takim międzynarodowym.
Także no tutaj też muszę opowiadać.
Mówię, jakby się wszystkie kraje świata połączyły to byłoby dla niewidomych super państwo
pod względem dobrych praktyk i pod względem też wymiany informacji, bo każdy robi coś.
Tak, ja kiedyś komuś nierawno wysyłałem swój przewodnik po paralelcie na Macu,
gdzie opisałem, bo tam trzeba od zera na początku wykorzystać.
To się bardzo fajnie przetłumaczyło swoją drogą.
Nie pamiętam, czy o Google to tłumaczyłem.
Tylko nie wiedzieć czemu Google w pewnym momencie stwierdził,
że w sumie sobie przetłumaczy moje imię na Peter Waving,
co mu się nigdy wcześniej nie zdarzyło, ale poza tym fajnie się przetłumaczył.
Znaczy on takie artykuły, które są pisane takim formalnym językiem,
tłumaczy naprawdę fajnie.
I Google, i Deeple to takie rzeczy.
Przynajmniej z angielskiego na polski tłumaczy na tyle fajnie.
Ja sobie to naprawdę czytam, bo nie będę ukrywał,
miałem angielski to znam jakoś tam.
Także, także tak.
No także taka ciekawostka.
No to tak a propos różnych takich międzynarodowych wynalazków,
no to nowa wersja DSR-a się pojawiła.
Dokładnie, wersja cały czas jesteśmy w roczniku jesiennym 2023.
To jest konkretnie wersja 1.6.5.1.
No i tutaj a propos tłumaczenia, właśnie ten changelog był w języku chińskim,
ja sobie go przetłumaczyłem Deeple’em na polski,
ale właśnie też całkiem fajnie się przetłumaczył.
Co tutaj się pojawiło?
Dodaną obsługę Microsoft Terminal.
Tutaj chodzi o tą aplikację Windows Terminal,
chyba właściwie ona się nazywa,
no jest to taki bardziej współczesny wiersz poleceń,
który ma kartę i więcej ustawień,
no i fajnie, bo NVIDIA już jakiś czas z nim działa,
więc tutaj ZSR też doczekał się tej obsługi.
Dodaną interfejs UIA dla obsługi Worda.
Czyli tak, też znów tak jak NVIDIA czy JAWS od jakiegoś czasu
z tego nowszego API korzysta,
to powinno sprawić, że ZSR pewnie będzie jeszcze szybszy niż był,
Ulepszenia do Adobe Audition 3.0.
Usunięto logo klipu, tutaj szczerze nie wiem o co chodzi,
ale następne wiadomości już są bardziej czytelne.
Dodano powiadomienie o całkowitej liczbie klipów
podczas przełączania ścieżek,
czyli tutaj jakieś podzielone kliki audio,
numer pliku i stan wyciszenia
podczas przełączenia między ścieżkami oczy
podczas przeskakiwania między znacznikami.
Dodano odczyt działania suwaka,
czyli tutaj pewnie jakieś różne suwaki w aplikacji.
Dodano pole wyboru dla obsługi efektów,
czyli też tutaj coś z interfejsem.
Dodano odczyt operacji raka masteringowego,
czyli tutaj chodzi o pewnie efekty,
które są na tej głównej ścieżce
i listy efektów właśnie.
To chyba już nie dotyczy Adobe Audition,
ale też nie wiem, gdzie to będzie się pojawiło.
Może tutaj ktoś coś więcej powie.
Dodano menu scramble,
szybkie przełączanie wierszy i kolumn.
A chyba tu może chodzić o to,
że do menu szybkich ustawień
dodano opcję, żeby zaraz czytał lub nie czytał pozycji
w tabelkach w internecie.
Chyba o to może chodzić.
Poprawiono czytanie listy plików skrótami menadżera schowka,
więc tam możemy sobie właśnie przeglądać,
co mamy w schowku.
No i m.in. jak mamy pliki jakieś,
to właśnie możemy sobie też te pliki przeglądać
z każdego miejsca.
Naprawiono błąd nawigacji niektórych liter
w nowych wersjach przeglądarki Firefox,
czyli tutaj skróty nawigacyjne na stronach internetowych
teraz działają lepiej.
Tak samo mamy poprawki na niektórych stronach internetowych
Chrome, które też nie działały prawidłowo.
Poprawki w ZSR API, czyli w bibliotece,
dzięki której deweloperzy mogą się komunikować z ZSR-em.
I ulepszony OCR.
Tutaj taka uwaga właśnie a propos tego OCR-a.
W tej aktualizacji popsuł się
wbudowany OCR w Windowsa 10,
bo tam jest kilka tych silników OCR.
Mamy też silniki Baidu lokalne i chmurowe,
ale też m.in. możemy wykorzystywać silnik w Windowsie,
który np. może się przyczytać nam do języka polskiego,
no bo te inne silniki polskiego nie wspierają.
No i on niestety w tej aktualizacji się zepsuł.
Natomiast już autorzy wiedzą o tym błędzie
i niedługo ma się pojawić patch, który to poprawi.
No a na aktualizacji możecie sobie ściągać
i już też działa to wbudowane sprawdzenie aktualizacji w ZSR,
które ostatnio też nie chciało pobierać tych aktualizacji.
No ale to też zostało poprawione,
więc możecie sobie po prostu z menu pomoc
tą nową wersję bezpośrednio z programu ściągnąć.
Teraz news od Pawła na temat zaproszenia
na spotkanie z pełnomocnikiem rządu
do spraw osób niepełnosprawnych.
Tak, zaproszenie jak najbardziej.
Zaproszenie w imieniu Polskiego Związku Niewidomych
i to chyba zaproszenie dla Warszawy z tego co rozumiem,
bo informacja brzmi tak.
2 października o godzinie 14 w siedzibie
Polskiego Związku Niewidomych przy ulicy Konwiktorskiej 9 w Warszawie
odbędzie się otwarte spotkanie z ministrem Pawełem Tuwikiem,
pełnomocnikiem rządu do spraw osób niepełnosprawnych.
Podczas wydarzenia będzie możliwość zadania pytań
lub podzielenia się refleksjami na tę aktualnie prowadzoną
polityką społeczną wobec osób z niepełnosprawnościami.
Serdecznie zapraszamy.
Poniżej publikujemy treść zaproszenia
przygotowaną przez pana ministra Pawła Wdówika.
Drodzy koledzy i przyjaciele, ponad 3 lata temu,
kiedy obejmowałem funkcję pełnomocnika rządu
do spraw osób niepełnosprawnych,
otrzymałem od was wiele wsparcia.
To wsparcie dodało mi sił, których potrzebowałem,
aby podjąć to ogromne wyzwanie,
jakim jest kierowanie polityką społeczną
w obszarze osób z niepełnosprawnościami.
Od tego czasu wiele się zmieniło.
Po pierwsze kwoty, jakie ze środków państwa
wydaje się na wsparcie osób z niepełnosprawnościami,
sięgnęły rekordowych 40 miliardów złotych.
Ponadto przy współpracy z samorządami
i organizacjami pozarządowymi
stale rozwijana jest opieka wytchnieniowa
i usługi asystenckie.
Jako prezes Rady Nadzorczej PFRON
kieruję ten fundusz na nowe tory.
Dokładam starań, aby jego działania
obejmowały kolejne ważne obszary życia
osób z niepełnosprawnościami,
czego przykładem może być pakiet programów
Samodzielność, Aktywność, Mobilność,
który został tak przygotowany,
aby zwiększyć niezależność i samodzielność
osób z niepełnosprawnościami.
To jeden z kierunków we wszystkich moich działaniach.
Obejmując swoją funkcję,
w naszym środowisku osób z niepełnosprawnościami
wiele obietnic.
Część z nich udało się już spełnić,
inne dopiero zostaną zrealizowane.
Mając na uwadze podjęte zobowiązania
i odpowiedzialność za rozbudzone nadzieje,
podejmuję się dalszej pracy
dla dobra publicznego
na rzecz osób z niepełnosprawnościami.
Dzięki uprzejmości
władz Polskiego Związku Niewidomych
już wkrótce mogę spotkać się ze wszystkimi,
którzy chcieliby osobiście zadać mi pytania
lub podzielić się refleksjami
nad aktualnie prowadzoną polityką społeczną
wobec osób z niepełnosprawnościami.
Spotkanie odbędzie się
2 października o godzinie 14.00
w siedzibie PZN
przy ulicy Konwiktorskiej 9
w Warszawie.
Zapraszam z wyrażaniem szacunku
Paweł Wduwik,
pełnomocnik rządu
do spraw osób niepełnosprawnych.
Wybory się zbliżają,
więc myślę, że jest to dobry moment,
jeżeli macie możliwość
tam w Warszawie być i na takie spotkanie się wybrać,
żeby podzielić się
swoimi uwagami
na temat tego, co zaobserwowaliście,
na temat,
no, jak wam się żyje
w tym kraju jako osobom
z niepełnosprawnością wzroku.
Więc warto z takich spotkań, myślę, korzystać.
No i teraz nasze
maratony newsowe.
Najpierw
proponuję może drobne newsy,
takie po prostu drobne newsy.
Pierwsze od Piotrka, potem jeszcze będą od Pawła.
Dokładnie.
I tutaj jak zwykle mamy trochę aktualizacji
i takich ktoś mniejszych nowości,
które tutaj się
gdzieś pojawiły.
Zaczynając od Twistcake’a,
który doczekał się po już
dosyć długim czasie kolejnej wersji.
To jest wersja 0.16.3.
I tutaj głównie mamy poprawki
w Mastodonie, ale zaczynamy od tego,
że na Macu, gdyby z jakiegoś
powodu inicjalizowanie
mowy przez voice-overa
się nie powiodło, a tak na przykład było
podczas bety macOSa 14, ale czasami
też to się lubi po prostu
zepsuć, no to
wcześniej było tak, że po prostu aplikacja się
zamykała, był błąd, że mowa nie
mogła zostać zainicjalizowana,
a teraz po prostu będzie nam ładnie mówiło
w takiej sytuacji głosem systemowym
zamiast voice-overem, więc aplikacja
powinna nadal działać, gdyby nawet coś się
zepsuło.
No a teraz Mastodon. Dodano
bufor wzmianek.
No i co za tym idzie, wzmianki już teraz
nie będą włączane do
bufora powiadomień, teraz to po prostu będą dwa
oddzielne bufory. Jeśli już macie
jakieś wzmianki w tym
buforze po aktualizacji, no to
możecie sobie ręcznie ten bufor powiadomień wyczyścić,
jeśli ich nie chcecie, no ale
też jak go nie wyczyślicie, to
nic się nie stanie, one tam po prostu będą sobie
wisieć.
W domyślnym szablonie,
czyli szablon decyduje
co jest nam czytane, kiedy chodzimy sobie po
postach, jest teraz też podawana
informacja o
widoczności postu, czy jest publiczny, czy jest
tylko dla obserwujących, czy to jest jakiś
post bezpośredni i tak dalej.
No i jeśli
zmieniliśmy sobie szablon,
to możemy sobie ręcznie go zresetować,
albo po prostu możemy sobie
też sami
szablon zmodyfikować.
Następnie
dodano wsparcie dla
ustalenia języka postów.
Możemy to zrobić
z ekranu pisania postów, tam
pojawił się nowy przycisk na ustawienie języka.
Domyślnie
jest zaznaczony język
angielski. Ja się zastanawiam, czy
na przykład jeśli…
Twisscake nie ma tłumaczeń,
czy ma?
Chodzi o
tłumaczenie postów, tak?
Chyba nie.
Na interfejsy, na inne języki nie.
No i tutaj domyślnie jest ustawiony
język angielski. Szkoda, że tutaj nie jest
honorowane nasze ustawienie, które mamy
na profilu, bo tam też się da
ustawić domyślny język i na przykład z tego, co
pamiętam Mona to honoruje.
Więc jeśli piszemy głównie po polsku, to
coś czuję, że mimo wszystko będziemy…
Niestety nasze posty będą takowane jako
angielskie, ale może się mylę.
Może to jest gdzieś zapisywane. Jeśli tak, to
możecie śmiało dać znać, że
źle to
interpretuje. Kiedy wysyłamy
jakieś właśnie posty,
które są zarejestrowane tylko do konkretnych osób,
mają widoczność ustawioną właśnie na
tylko wspomniane osoby, no to
będziemy teraz słyszeć dźwięk
schematu, który tam jest na
wysyłanie wiadomości bezpośrednich.
I poprawki dla
bufora zagładek i ulubionych.
Tam coś nie
działało, ale teraz powinno to działać lepiej.
I
powinniśmy mieć możliwość
wysłania właśnie wzmianki
do różnych osób
z powiadomień. Więc jeśli mamy jakieś
powiadomienie na przykład, że ktoś
nas zaobserwował i chcielibyśmy do tej
osoby napisać, no to teraz to powinno
działać i po prostu powinniśmy
bez problemu mieć możliwość to
zrobić. To jest
Twist Cake.
A teraz mamy narzędzia.
Pierwsze narzędzie
może przydać się osobom, które
często korzystają z NVDA
remote’a w właśnie jakichś znanych miejscach,
gdzie nie mają dostępu do komputera.
Jak wiadomo z komputerami czasami
mogą być jakieś sytuacje, kiedy
coś z tym komputerem się stanie
i np. właśnie NVDA nam się z
jakiegoś powodu zawiesi.
No i jeśli jesteśmy gdzieś daleko od tego komputera,
no to możemy przez to mieć problem,
bo nie mamy jak tego systemu
np. zrestartować. No i tutaj
Queen
napisała nową
nową aplikację
Kill NVDA Remotely. To jest właściwie
zestaw dwóch aplikacji,
klienta i serwera.
To działa w ten sposób, że na komputerze,
którym chcemy zdalnie sterować
instalujemy sobie
serwer.
Tam możemy sobie zdefiniować na jakim porcie to
ma działać. No i ten serwer
sobie po prostu cały czas działa,
więc możemy go sobie też najlepiej dodać np.
do autostartu w systemie, żeby
on zawsze nam, nawet po aktualizacjach Windowsa
się uruchamiał.
No i oczywiście też wtedy warto
skonfigurować sobie NVDA Remota
tak, żeby automatycznie po starcie
tą sesję nam uruchamiał.
No i klienta
zabieramy ze sobą. Tam jest plik
BAT, plik wsadowy, w którym
musimy wyedytować i
podać adres IP
komputera, do którego chcemy wysłać
polecenie restartu. To jest wszystko
opisane w dokumentacji z tym
programem. No mniej więcej gdyby
przyszło do sytuacji, że
sterujemy tym komputerem, no ale
NVDA nam przestaje mówić, nie możemy,
system przestaje nam odpowiadać,
no to możemy użyć właśnie
tego aplikacji klienta,
żeby wysłać polecenie
do naszego komputera, żeby
NVDA się zrestartowało,
no i dzięki temu odzyskać
do niego dostęp. Bardzo proste narzędzie,
myślę, że może być przydatne, jeśli faktycznie
dużo korzystamy dziś z komputera
poza domem.
Następnie mamy
aplikację Kornok, chyba tak to
się czyta, jeśli nie, to mnie Arek tutaj
poprawi, jeśli nas słucha, bo to
jest właśnie aplikacja od Arka Świętnickiego.
To jest aplikacja dla
użytkowników Maca i
pozwala nam po prostu
zablokować gładzik.
Jeśli tą aplikację uruchomimy, to ani
gesty, ani klikanie
na gładziku po prostu nie będzie robiło nic.
Te polecenia będą blokowane,
co na przykład zapobiega
temu, że podczas pisania niechcący
klikniemy gdzieś, a to się dosyć często zdarza,
zwłaszcza w tych nowych Macach, gdzie
te gładziki są dosyć duże.
A aplikacja w tej
wersji jest bardzo prosta, nawet nie ma
właściwie swojej strony.
Tutaj macie, w komentarzu będziecie mieli
bezpośredni link
do strony Arka, gdzie możecie
sobie tą aplikację pobrać.
Ona też nie jest w tym momencie podpisana,
więc zanim ją uruchomicie, musicie
z menu kontekstowego finderze kliknąć,
tam na to zezwolić, a później jeszcze
dać jej dostęp do
łatwiej dostępu, no bo ona musi przejąć
kontrolę nad naszą myszką.
No i kiedy aplikacja jest otwarta, no to po prostu
myszka czy gładzik
jest blokowana, chyba że
używamy poleceń gładzika z voice overem,
one będą cały czas nam działać.
A jeśli
chcemy mieć dostęp do
myszki, no to po prostu aplikacja
sobie siedzi na pasku
i możemy do niej wejść, tam jest opcja po prostu
wyjść, jeśli zamkniemy aplikację,
no to myszka znów zacznie
działać normalnie.
I rozmawiałem z Arkiem,
jeśli chodzi o różne sugestie, żeby
aplikacja np. była na tyle mądra, żeby
sama się wyłączała, kiedy voice over
jest wyłączony, może jakieś skróty klawiszowe dodać.
No Jarek mówił, że
zobaczy co się da zrobić, więc pewnie
to narzędzie będzie rozwijane
w następnych wersjach, pewnie będzie
potrafiło
zrobić więcej, będzie bardziej konfigurowane.
Następnie
coś dla muzyków. A propos
takiej aplikacji
Ableton Live, czyli to jest taka
aplikacja głównie do tworzenia
muzyki, my co jakiś czas o niej
wspominamy, m.in. dlatego, że w końcu
jej producent pracuje nad
oficjalną dostępnością,
ale zanim to się stanie,
inni już też coś próbują
robić. Powstaje
taka aplikacja, która nazywa się Live Reader
i to jest aplikacja, która
buduje jakiś kontroler, bo to generalnie działa
po MIDI, po instalacji aplikacja
sobie otwiera wirtualny kabel
MIDI i w ten sposób z tym
Abletonem się
komunikuje.
No i mamy tutaj skrypt, który
teoretycznie powinien nam
pozwolić bezwzrokowo
uruchomić tą aplikację, bo on sam zmodyfikuje
nam ustawienia, skonfiguruje odpowiednio
te porty, żeby to
działało. Mamy tam spis
skrótów klawiszowych, no i w tej wersji, która
jest teraz, no to pozwala nam na jakąś
prostą nawigację po osi czasu,
po klipach, jakąś
prostą edycję
MIDI, czyli jakieś nut, które
mamy na danych ścieżkach,
przeglądanie
wtyczek różnych, zmienianie
ich parametrów, no takie rzeczy
wynikają przynajmniej
z listy
skrótów klawiszowych, które są dostępne
na stronie, bo niestety nie miałem
okazji tej aplikacji przetestować, no bo
musimy mieć do tego właśnie
Ableton Live 11 i na razie
też aplikacja działa
tylko na Macu. Developer
mówi, że dałoby się ją zrobić na Windowsa,
natomiast jeszcze tego nie zrobił.
No zobaczymy, czy to
narzędzie będzie się jeszcze rozwijało,
zwłaszcza, że też Ableton pracuje nad
natywną dostępnością, która
pewnie będzie działała lepiej, bo tutaj na przykład też
zresztą autor pisze, że
są rzeczy, które nie są w tym momencie czytane,
nie ma z nimi okno ustawień i w ogóle
jakieś okna dialogowe w tej aplikacji,
więc
pewnie no ta funkcjonalność jest w jakiś
sposób ograniczona, natomiast
jeśli jesteście ciekawi na przykład jakie
dźwięki są wbudowane w tym Abletonie,
jakoś chcielibyście
chociaż trochę zobaczyć
jak to działa
i macie Maca, tutaj jest na razie wersja
tylko na Intela, ale przypuszczam, że na
Macach z procesorem M1 to też powinno
zadziałać,
więc można w ten sposób
jakoś to testować, nie wiem też jak z rejestracją
tego Abletona, bo to też nie jest
aplikacja darmowa, nie wiem
tutaj też nie jest napisane jak sam proces
instalacji wygląda, czy da się go
przeprowadzić w dostępny sposób, no ale jak ktoś chce
spróbować to też znajdziecie link
do GitHuba, tam gdzie jest
projekt, tam jest też skompilowana
wersja, którą możecie
sobie przetestować.
No i a propos GitHuba,
kolejne narzędzie, które
przyda się bibliotekach, która może się przydać
programistom, a mianowicie rozpoczął się
projekt biblioteki
pozwalającej nam na
syntezę mowy na różnych platformach
i to jest coś, co się może
przydać np.
osobom, które piszą jakieś
aplikacje,
które z jakiegoś powodu muszą mówić
przez syntezator, czytą
gry, czy to właśnie jakieś aplikacje
dla niewidomych bardziej.
Każdy system gdzieś ma do tego
swoje biblioteki, Windows ma swój
syntezator, Maki mają swój syntezator.
No a tutaj mamy
bibliotekę napisaną w języku C,
z którą możemy komunikować się właściwie
z praktycznie każdego języka programowania,
która nam to jakoś ułatwia.
Mamy jeden zestaw funkcji,
którymi możemy mówić zarówno
na Windowsie i na Maku. Na razie
to jest
wersja jeszcze pre-alpha, jak to napisał
autor, jest jeszcze dużo
planów na zmiany.
Na razie to po prostu
pozwala nam to wymówić jakiś tekst,
zatrzymać mowę i sprawdzić, czy akurat jest
coś czytane. Finalnie ma być dodane
więcej funkcji, zmiana
głosu, ustawienie prędkości itd.
No i też w przyszłości wsparcie
dla Linuxa.
Więc myślę, że warto
obserwować ten projekt, a może
jeśli znacie C++ i chcielibyście
wesprzeć autora,
to też można się
po prostu zainteresować.
Nazywa się VoxBoss
i też znajdziecie do niej
link.
I na koniec ode mnie
przynajmniej taka smutna informacja,
bo chyba może wśród
naszych słuchaczy jeszcze znajdą się
osoby, które
z tego korzystają,
a mianowicie Gmail. Gmail
pozbywa się niestety podstawowego
widoku HTML, no bo tam
na tym interfejsie webowym
mamy ten współczesny interfejs, który
jest dostępny, ale
działa dosyć topornie. On jednak
dużo ładuje tych skryptów, więc na jakichś
starszych, wolniejszych komputerach to pewnie
nie działa najszybciej.
No i te jego skróty klawiszowe,
można się ich nauczyć, ale one są bardzo
specyficzne i niepodobne do niczego tak naprawdę,
więc po prostu tego trzeba się nauczyć,
więc
to nie jest jakoś
bardzo popularne rozwiązanie.
No ale od
początku właściwie istnienia tej usługi, Gmail
miał taki bardzo prościutki interfejs
HTML, który praktycznie w ogóle nie
wymagał skryptów,
ładował się bardzo szybko wszędzie
i też nie zmieniał się od tych nastu
lat, no i niestety pewnie dlatego
przyszedł czas, żeby się
go pozbyć. I tutaj
na masę do niej ktoś wrzucił informację, którą dostali
prawdopodobnie administratorzy
usług G Suite. Nie jest powiedziane,
czy to też będzie miało wpływ na
prywatne konta,
ale przepuszczam, że tak, no i to jest
po prostu powiedziane, że
z początkiem stycznia 2024
roku
podstawowy widok HTML na Gmailu
nie będzie już dostępny
i użytkownicy korzystający z tego
widoku zostaną po prostu automatycznie
przełączeni na ten
współczesny
widok, który już będzie teraz od tego
momentu jedynym.
Więc no jeśli korzystacie
z tego widoku, to może
otwórzcie sobie też ten współczesny,
przetestujcie go,
zobaczcie, czy wam będzie odpowiadał.
Jak nie, no to niestety będzie trzeba
rozejrzeć się albo nad jakąś aplikacją
do poczty, albo ewentualnie
nad przeniesieniem konta do
jakiejś innej usługi.
No i to…
To teraz ja pewnie będę…
To ja może taki mały
przerywniczek zrobię.
A propos tego, jak zastanawiałem się,
czy można by było
Bima Jaja używać do
zrzutów ekranu
z jakiejś aplikacji,
które na przykład
odtwarzają filmy, próbowałem na
Kanal Plus i oni chyba mają
zablokowane generalnie robienie
zrzutów, mam takie wrażenie.
Bo niestety
za bardzo się to nie udało,
ale na przykład odpaliłem sobie jakiegoś tam
pierwszego, lepszego z brzegu
szorca z YouTube’a, zrobiłem mu
screen, no i
patrzcie, wygląda to tak.
…
…
…
…
…
…
…
…
…
…
…
…
…
…
…
…
…
…
…
…
…
…
…
…
…
…
…
…
do tutaj naszych newsów drobnych, o Blind Shellu i o Messengerze, Whatsappie już mówiliśmy.
Tak, bo to już Łukasz nam pisał, tak i Dawid, więc mamy tutaj wiernych użytkowników Blind
Shella, którzy piszą. Swoją drogą w Stanach ruszył program mentorski, gdzie firma Blind
Shell USA stawia na wsparcie oferowane użytkownikom przez użytkowników.
Nie wiem, czy to znaczy, że tam jest problem z tym, żeby oficjalne wsparcie techniczne
załatwiało wszystkie problemy, czy po prostu tak bardziej chcą połączyć ludzi.
Natomiast ja tu już widzę kilkoro kandydatów na taki program, gdyby w Polsce on tak działał,
więc firma Lumen i chyba Altyx, która też chyba sprzedaje Blind Shell, ale bardziej Lumen.
Jest o czym myśleć.
Są jak najbardziej tutaj, jest kapitał ludzki do wykorzystania.
Natomiast fajnie, że działa Wam WhatsApp i Messenger.
Natomiast na iPhone’ie Zoom uzyskał aktualizację, w której poprawiono błąd, jeśli chodzi o
dostępność z etykietkami na obrazie wideo.
Gdzieś tam coś było, czy na przycisku, czy na obrazie, były jakieś etykietki źle podpisane.
Już to zostało poprawione.
W ogóle fajnie, że oni tak to wszystko ładnie podpisują.
W ogóle a propos iOS’a, to dużo teraz wyszło przy okazji iOS’a 17 aktualizacji.
Oczywiście większość się skupiała na tych nowych funkcjach, które zostały zaoferowane,
gdzie królują oczywiście interaktywne widżety.
Teraz każdy odtwarzacz podcastów ma interaktywne widżety, odtwarzacz do radia już powoli
zaczyna je mieć. W ogóle wyszło Triodę 2.0, gdzie Triodę nie było dawno rozwijane, więc nie
mam pojęcia, co się nagle teraz obudzili, ale na przykład można za pomocą Siri wywoływać
dowolną stację, więc jeżeli szukaliście aplikacji do radia, która obsługuje Siri i też ma
katalog radio browzera, no to jak najbardziej można tutaj się zainspirować.
Broadcast też miał aktualizację, w ogóle jakaś nowa, przepisana aplikacja na Apple Watcha,
oczywiście widżety i Nearby Share taki osobisty, czyli stykamy telefony ze sobą i Nearby Share
robimy i możemy sobie z drugą osobą tej samej stacji radiowej posłuchać, więc no fajnie.
Właśnie widać, że tutaj deweloper tej aplikacji bardzo chce wdrażać te nowe funkcje iOS, które
iOS nam oferuje.
Też w sumie EasePeak, NG w App Store wreszcie został zaktualizowany, doszły te suwaki do tych
przerw SSML.
Ja mówię wreszcie, bo niedawno wygasła beta EasePeak, gdzie te suwaki były dostępne i
pewnego dnia się obudziłem z Zośką po prostu, w sensie z syntezą na telefonie i ciężko było
cokolwiek z tą sytuacją poradzić.
No na szczęście już oficjalnie w App Store wersja została zaktualizowana.
Są jakieś drobne artefakty, jak się szybko przemieszcza, ale ja jestem w stanie z tym żyć.
To jest też niestety ogólnie błąd iOS-a, bo to też występuje z allocuencem na przykład.
I zresztą z Zośką też potwierdzam, takie jakieś dziwne trzaski, czasem jakby coś mówił z
poprzedniej wypowiedzi, jakieś takie fragmenty.
No to się niestety zdarza, aczkolwiek mam wrażenie, że ta synteza jest generalnie bardziej
responsywna.
A siedemnastka też to ma właśnie?
No właśnie tak, to się w ogóle zaczęło troszkę szybciej, chyba tam w szesnaście coś, pięć albo
sześć, ale niestety w siedemnastce też to cały czas występuje.
Czego właśnie nie zauważyłem, a też już widziałem takie wpisy użytkowników, którzy sobie
ostatnio zaktualizowali do ostatniego iOS-a szesnaście i już mieli ten problem.
Ja dopiero zaobserwowałem to w siedemnastce.
Ciekawe. No trzeba będzie zobaczyć, jak to się dalej rozwinie.
Tak jeszcze idąc wątkiem aplikacyjnym, no to się objawił nam nowy dostępny klient
Mastodona na Androida tym razem i super, bo tam była trochę posucha, jakby jest taski i długo,
długo, długo nic.
A teraz jest pachli, pachli przez ch, p-a-c-h-l-i.
No i też jest to taki klient Mastodona, wspiera akcje talkbackowe, wszystko jest ładnie
podpisane, także można korzystać.
No i też PZN dalej testuje.
Było ostatnio kolejne spotkanie z firmą Includo, która w Polsce zajmuje się jakby
testami i wdrożeniami NaviLens technologii, no i były testy znowu z nowej, nowszej
wersji, nowszej niż te testy, o których kiedyś mówiliśmy w cyfloprzeglądzie.
No i jest zainteresowanie, ponoć opinia osób, które w tych testach brały udział była
pozytywna. No i czas pokaże, czy uda się w różnych przestrzeniach publicznych te
kody NaviLens zaimplementować.
Poniekąd powiązane z aplikacjami, ale też nie do końca.
I tutaj moja wielka radość, bo ukraińscy niewidomi otrzymają pierwszą ukraińską
bibliotekę cyfrową.
O tym, jakie to jest ważne, myślę, że mogę wspomnieć słów kilka.
Jeżeli słuchaliście naszej audycji z Saszą i z Igorem z NIKC, tej słynnej audycji
właśnie o wojna oczy ma niewidomych, czy wojna oczy ma osób z dysfunkcją wzroku,
z 24 lutego, to jednym z wątków, które Igor poruszył na antenie był fakt, iż do 24
lutego 2022, czyli do wybuchu wojny, specjalnie nie robiło to wielu osobom
różnicy w Ukrainie niewidomym, że korzystają z technologii rosyjskiej w dużej części.
Czyli programy nie były tłumaczone w dużej części na język ukraiński, no bo
wystarczało, ten rosyjski był taką lingua franca, trochę jak dla nas, powoli staje się
gdzieś tam, czy dla wielu osób jest angielski, do tego stopnia, że jak tam jakiś program
nie jest zbyt skomplikowany, a nie jest przetłumaczony na angielski, to my sobie
jakoś z nim radzimy, no tam było jeszcze lepiej, bo ten rosyjski jednak wiele osób
dość płynnie znało. No ale stało się, co się stało, i do wielu osób dotarło, że
no ten maryjasz ukraińsko-rosyjski, jak chodzi o technologie wspomagające i o to,
że te języki nawet tam są znane, znaczy rosyjskie w Ukrainie, no to to dłużej
nie pociągnie, trzeba się uniezależnić, trzeba zacząć samemu tworzyć technologię
w języku właśnie ukraińskim. No i o ile jeszcze z przetłumaczeniem programu
problemu nie ma, o tyle problem na przykład był z biblioteką, bo przez wiele,
wiele lat sprawdzała się ta infrastruktura, o której ty chyba Michale
mówiłeś, była taka rosyjska biblioteka AW73, coś tam, coś tam, taka biblioteka
dość duża, znana, internetowa, rosyjskojęzyczna, i tam były książki
w języku ukraińskim. No i przez to, że infrastruktura była gotowa i tak ludzie
korzystali często z tych materiałów rosyjskojęzycznych, no to nie było potrzeby
zakładać nic nowego, zwłaszcza że no finansowo też nie jest to tania zabawa
i tam jeszcze kwestie pewnie jakichś praw autorskich, załatwiania tego wszystkiego
od nowa przez nową instytucję i tak dalej. No więc pozwolono na to, żeby książki
w języku ukraińskim były dostępne przez bibliotekę, no, na terytorium Rosji.
No i w sumie wiele się nie zmieniło, bo wiele osób jest tak pogoprzyzwyczajonych
i używali tej biblioteki. No, ale no sytuacja jest jaka jest, no i nie dla
wszystkich jest to takie OK. Pomijając już to, że różne jakieś problemy bywały,
jakieś blokowane dostępy, no bo tam też ze strony ukraińskiej jakieś, były takie
decyzje, że czasem jakieś rosyjskie usługi były blokowane przez dostawców ukraińskich.
No zaczęło to wszystko coraz mniej funkcjonować i długo, długo dyskutowano
nad tym, jak to w końcu przepchnąć. No i jak widać się udało i rusza powoli
cyfrowa Biblioteka Ukraińska ze stroną internetową, z aplikacjami mobilnymi
na platformy mobilne, z dostępem do książek w języku ukraińskim właśnie
przez Bibliotekę Centralną Utosu, czyli Ukraińskiego Związku Niewidomych.
Premiera ma się odbyć o godzinie 17.00 czasu ukraińskiego w Radiu Homer,
gdzie będzie przedstawione właśnie, kto przyczynił się do tego, czy technicznie,
czy finansowo, jak uzyskać dostęp, jak to ma wszystko działać, więc szczegóły będą
dostępne w piątek, ale ura, ja bardzo tutaj niewidomym ukraińskim gratuluję,
bo wiem, jaki to był, obserwowałem dyskusję w grupach, wiem, jaki to był
ciężki temat do ugryzienia i fajnie, fajnie, że są na swoim, ciekaw jestem,
ile pozycji będzie tam dostępnych, czy jakby komplet tego, co było w Bibliotece
Rosyjskiej, czy jednak trochę mniej, czy jednak trochę więcej.
No pożyjemy, zobaczymy, natomiast ja się, ja się bardzo cieszę i życzę wam jeszcze
traktatu z Marrakeszu, żebyśmy mieli też dostęp do tych rzeczy tutaj w Polsce,
gdyby ktoś chciał z literaturą ukraińską, czy w języku ukraińskim się zapoznać.
No i też na sam koniec Firefox taką nowością gdzieś ostatnio się pochwalił,
a że, no, będzie możliwość, na razie jest to testowane, jest to ukryte pod
odpowiednią flagą w about config, czyli w tym takim, w tej takiej przestrzeni,
gdzie włącza się różne eksperymentalne funkcje, które jeszcze nie powinny być dla
całego świata dostępne, bo jeszcze mogą być niestabilne, jest możliwość
instalowania rozszerzeń z Chroma do Firefoxa.
I zanim się wszyscy ucieszymy, że to tak super, że teraz już można jedną
przeglądarką ogarnąć wszystkie rozszerzenia, no nie jest tak fajnie, bo po
pierwsze jest to proces importowania rozszerzeń z naszej już istniejącej
instalacji Chroma i żeby z tego skorzystać należy posłużyć się kreatorem
importowania i zaimportować sobie ustawienia z Chroma i zaznaczyć rozszerzenia.
Po drugie to też nie działa tak, że on sobie wszystkie nasze rozszerzenia
zaimportuje, które my tylko tam mieliśmy i jakoś tam możemy ich używać.
Tylko po prostu są stworzone pary i Firefox będzie szukał odpowiednika tego, co my
mieliśmy w Chromie w sklepie z dodatkami Mozilli.
No i jeżeli już taki odpowiednik zostanie znaleziony, to zostanie on
zainstalowany. Co więcej, no na ten moment chyba takie najpopularniejsze tylko
rozszerzenia są dostępne, bo jest uBlock, Origin, jest 1Password, parę jakichś
takich właśnie VPN-owskich rozszerzeń chroniących nas jakichś od haseł, od
reklam. Na razie tych dodatków jest liczba 73, z czasem pewnie będzie więcej.
W sumie szkoda, że to tak zostało rozwiązane, bo jakby nie było, to co oferuje
Chrome jest rozwiązaniem w jakiś sposób, jest standardem, chociaż to też nie można
tak mówić, bo standard standardem, ale poza Firefoxem tak naprawdę, chociaż Safari
też wspiera te rozszerzenia, a jest na swoim własnym silniku, ale tak poza tym
reszta przeglądarek to są tak naprawdę nakładki na Chroma, na Chromium i tam
wiele adaptować nie trzeba, więc pytanie czy Firefoxowi uda się kiedyś dotrzeć do
tego, żeby jakkolwiek ten standard rozumieć i te dodatki instalować.
Natomiast na razie jest tak, czy będzie lepiej kiedyś, no to zobaczymy, ale
Firefox z takich jeszcze pozytywnych wiadomości to się szykuje do tego, żeby
już jakieś tam plany wstępne interfejsu są w tych narzędziach do obróbki PDF-ów,
które są gdzieś tam wbudowane, dać opcję nakładania tekstów alternatywnych na te
PDF-y, także myślę, że ci, którzy tworzą dokumenty będą mieli co robić, ale
przede wszystkim będą mieli czym robić i to jest też ważne.
To teraz garść komentarzy, które się pojawiły i za moment myślę, że odbierzemy
kolejny telefon, bo już widzę, że czekacie.
Bartek to pierwszy autor komentarza.
Witam. Dziś również chciałbym krótko się wypowiedzieć.
Po pierwsze, jeżeli chodzi o iOS 17 to zauważyłem jeden mały, ale według mnie
istotny błąd.
Przy usuwaniu połączeń w aplikacji telefon nie ma informacji o usunięciu danej
pozycji. W moim wypadku ta informacja jest ważna, ponieważ już kilka razy przy
usuwaniu połączeń, kiedy z opcji czynności wybrałem usuń i zatwierdziłem, to zaczął
wybierać ten numer czy kontakt, który chciałem usunąć.
Druga drobna informacja to zmieniła się nazwa zasobnika aplikacji.
Po drugie, w ostatnim Tyflopszak Blondzie na żywo pisałem Wam, że NVIDIA nie czyta
mi zaznaczonego tekstu w Excelu.
Tak jak zalecaliście skorzystałem z opcji uruchom narzędzie naprawiania błędów
rejestracji. Niestety bez zmiany.
Po trzecie, mam małe pytanie dotyczące aplikacji M-Obywatel.
Czy można za pomocą M-Obywatela rozliczać PIT?
Pozdrawiam. No nie, raczej nie można, nie można i jeszcze raczej długo nie będzie
można. Podejrzewam, no bo tu musiałoby to się jakoś z ZUSem integrować, z tym
portalem ZUSu, który być może za pomocą M-Obywatela, w sumie nie sprawdzałem, bo
przepraszam, nie ZUSu tylko Urzędu Skarbowego oczywiście, Urzędu Skarbowego.
Być może tam da się jakoś logować za pomocą M-Obywatela albo da się w przyszłości
logować za pomocą M-Obywatela, ale nie sądzę, żeby w najbliższej przyszłości była
możliwość rozliczania PIT-u bezpośrednio z aplikacji.
Generalnie, no z tej aplikacji, z poziomu tej aplikacji to tak zrobić, to można jeszcze
stosunkowo niewiele, a w sumie szkoda, że na przykład nie ma tam całego ePUAPu
zaprzęgniętego, że nie można sobie właśnie z poziomu mobilnej aplikacji na przykład
wypełniać jakichś wniosków, obsługiwać tej naszej skrzynki odbiorczej w ePUAPie.
No to by było fajne, ale podejrzewam, że na to to my sobie jeszcze długo poczekamy.
Aga napisała kolejny komentarz.
To ja jeszcze tylko dodam, że można też wykorzystać Be My Eye do rozpoznawania
niezaetykietowanych przycisków w aplikacjach.
Próbowałam, to działa.
Wystarczy najechać na przycisk, który nie jest oznajmiany i zapytać co wskazuje
obramowanie i on nam to powie.
Jak opisze nam ikonkę jak ona wygląda, to możemy się teoretycznie domyślać co ona
wskazuje. Fajna sprawa uważam.
Też fajne, nie wpadłbym na to, ale dzięki Aga za taką propozycję.
Właśnie ja czekam na taki teraz wysyp najbardziej kreatywnych zastosowań tego.
Dokładnie.
A w sensie jak wysyłać przyciski do…
Nie, robisz screena, robisz screena, podświetlasz przycisk, więc Wojcowy robi ramkę.
Tak, robisz screena i puszczasz do Be My Eye.
Tak, faktycznie.
Więc jeżeli macie jakieś takie kolejne kreatywne pomysły to koniecznie dawajcie
znać. Mamy telefon.
Krzysztof jest z nami.
Witamy.
Witajcie, witajcie. Po długiej nieobecności, ale jestem.
No właśnie podczas tego przeglądu, ponieważ od paru dni zapisałem się do beta testów
właśnie Be My Eye i właśnie sobie testuję słuchając w uchu tyfla przeglądu
i testuję właśnie aplikację robiąc zdjęcia otoczeniu, które mam w pomieszczeniu,
tym przedmiotom, które mam w pomieszczeniu i osobom.
I powiem wam, że z ciekawych rzeczy się dowiedziałem jakiego koloru mam i łóżko
i jakąś tam ufę i co w telewizorze nawet też powie nam jak się program ogląda.
Co jest wyświetlane nawet jak osoby, które są w telewizji są ubrane i jakiego
koloru jest studio, więc to jest bardzo kreatywnie to się zaczyna rozwijać, bo
dopiero przed tytułem zostałem.
Ja mam taką refleksję Krzysztofie wejdę ci słowo, ale tak teraz o tym pomyślałem,
że jeżeli tak zaczniemy naprawdę intensywnie korzystać z takich narzędzi typu właśnie
Be My Eye czy jakichkolwiek wykorzystujących sztuczną inteligencję do serwowania nam
opisów, to mam wrażenie, że my też możemy z czasem zacząć podświadomie zwracać
uwagę i pytać o znacznie więcej różnych ciekawych szczegółów.
Mam tu na myśli osoby, które nie widzą od urodzenia, bo do tej pory to tak
naprawdę o opisanie czegokolwiek to trzeba było się prosić i trzeba było kogoś
angażować. Słuchaj, powiedz mi jak to wygląda, jak wygląda tamto, jak wygląda
coś. Czasem po prostu najzwyczajniej w świecie albo nie mieliśmy kogo o to
poprosić, albo nie chcieliśmy jakoś nadmiernie często kogoś angażować.
Teraz, a też do końca, Michał Leszczak, jeżeli ci wejdę w słowo, ja się z takimi
sytuacjami spotkałem, jeżeli chodzi o moje doświadczenie o opisywanie przedmiotów
przez kogoś czy czegokolwiek, że te opisy były nie do końca dla mnie wystarczające.
Wiesz o co chodzi, że ktoś opisał tak dosyć lakonicznie, a taki opis suchy dał,
wiecie o co chodzi, a jednak czasem chciałoby się więcej szczegółów i ktoś nie zawsze
miał ten czas, żeby poświęcić na dokładniejszy opis danej sytuacji czy danej
sceny. I też cierpliwość, ja pamiętam, ja np.
bardzo żałuję, że nie miałem tej aplikacji gdzieś tam powiedzmy za dzieciaka,
kiedy to człowiek jest jeszcze bardziej ciekawy świata, a często po prostu jest
gdzieś tam zbywany, no coś tam jest, jakiś taki krótki opis, a tak to można by było
już sobie od razu gdzieś tam powiedzmy jakieś takie nieco bardziej
rozszerzone opisy i ewentualnie dopytać już o jakiś konkretny szczegół, którego ta
sztuczna inteligencja nam nie jest w stanie przekazać, no bo oczywiście wiadomo, że
ona nie ma monopolu na prawdę, tak.
Mnie fascynuje, dlaczego iOS ma monopol na te funkcje.
A właśnie mam do was pytanie a propos iOS-a, bo ja wiem, że tam Piotr Witek na swoim
kanale dawał filmik na ten temat
mówienie na żywo, czy coś takiego w tym iOS-ie 17 jest?
Powiedz i mów, czy coś takiego?
Wskaź i mów, tak.
No właśnie, wskaź i mów. I co, jak to działa?
Próbowało ktoś z was?
Wiesz co, ja próbowałem i mi to działało średnio.
Ja teraz też opisywałem właśnie nowości w iOS-ie średnio, właśnie Tyflo Świato, to
chyba jeszcze się tekst nie pojawił, natomiast co mogę powiedzieć, no
próbowałem to np.
na ekspresie swoim, ale też np.
na keyboardzie od Complea, bo tam jest dużo takich podobnych do siebie przycisków
i tam to nawet trochę działało, natomiast największy problem miałem z tym chyba, tak
mi się wydaje przynajmniej, żeby to odpowiednio ukadrować i odpowiednio parec
ustawić. Ja do końca nie wiem, czy ja po prostu źle trzymam telefon, czy
ta funkcja jest bardziej dla osób słabowidzących może, które jednak widzą gdzieś,
widzą wizjer na ekranie i po prostu wtedy im łatwiej nawet palcem właśnie na coś
wskazać. Na ekranie komputera, gdzie miałem po prostu, zrobiłem zdjęcie swojego
Maca i tam jeździłem palcem nad ekranem, to fajnie, wszystko czytał, ale w takich
sytuacjach, kiedy to by mi się naprawdę mogło przydać, no to nie chciało tak fajnie
czytać. Tam są dźwięki, te dźwięki czasami robią się wyższe niż jakby on mi próbował
jakoś naprowadzić, ale natomiast nie ma nigdzie informacji, czy te dźwięki
mówią, że mam gdzieś, nie wiem, przesunąć wyżej, niżej.
No właśnie czasem mi powiedział, że palec zasłania ten tekst, albo że telefon jest za
blisko, ale no nawet jak oddaliłem wtedy ten telefon, no to i tak to
nie chciało działać jakoś fajnie.
A to muszę się tym pobawić, bo powiem ci, że kupię sobie no men o men
kapsułki do ekspresu właśnie, które żeśmy robili w Halle.
Się skończyły i sobie właśnie kupię i spróbuję przetestować właśnie tą funkcję w
iOS-ie, jak on rozpozna z tych kapsułek z tej folijki, co tam jest
napisane, jaka to kawa.
Ciekawe, czy on to rozpozna, bo ta folijka jest dosyć taka śliska i on
ciekawe, czy sobie z tym poradzi.
No teraz to naprawdę można testować i można się bawić, byle tylko mieć cierpliwość i ja
naprawdę mam nadzieję, że jeszcze jakoś zostanie uproszczony ten proces wrzucania
różnych zdjęć.
Przodu iOS-a 17, jak wszyscy tu mówimy to wszyscy,
to powiem wam, że bardzo fajnie podoba mi się ta haptyka, że jeżeli coś robimy
flikami czy cokolwiek, to on fajnie nam wibruje, to to akurat jest fajną opcją.
Stał się bardziej rzeczywiście responsywny i czasami wydaje mi się, że więcej gada niż
gadał. Nie wiem, czy macie takie wrażenie.
I ten ekran stał się taki bardziej chyba czuły też i gdzieś
tak. Takie moje odczucia też są odnośnie WatchOS-a też.
Nie wiem, czy to moje, tylko jakieś mylne, czy?
Ja nie zauważyłem, żeby jakoś ekran był bardziej lub mniej czuły, natomiast niektóre osoby
na Buwisie miały różne dziwne rzeczy z fokusem, więc może faktycznie
gdzieś tam coś było pozmieniane.
Czy jest bardziej gadatliwy? Tego też jakoś nie zauważyłem, ale co do haptyki to się zgadzam z
tobą w stu procentach. Fajnie, że tam więcej tych dźwięków zostało dodane np.
na zablokowanie ekranu.
Ja to od jakiegoś czasu miałem ten dźwięk wyciszony, a teraz to w ogóle i tak mam haptykę,
jak ekran mi się blokuje, więc to mnie bardzo cieszy.
A i co zauważyłem i tutaj może niektórzy słuchacze też potwierdzą.
Ciekawe, czekam w komentarzach też, że jak dzwoni ktoś do nas i odbieramy
tym magicznym stuknięciem dwukrotnie dwoma palcami w ekran, to
niestety nie słyszymy rozmówcy.
Nie wiem dlaczego, ale jeżeli sobie najedziemy na
przycisk odbierz i tapniemy w niego, to wtedy się nam odbierze.
Jakby to wyciszało dzwonek zamiast odbierać.
Dokładnie, znaczy wyciszać, wiesz, rozmówcę w słuchawce jakby, nie?
Dziwna sprawa, ale tak jest.
Myślę, że chyba tyle.
Jeżeli coś będę miał jeszcze to w komentarzach albo jeszcze się dzwonię, jak
będziecie do północy albo do rana.
Zobaczymy.
Dzięki za telefon.
Pozdrowienia i jestem na nasłuchu.
Ej.
No to w takim razie drugi maraton newsowy, tym razem dotyczący
gier.
Dokładnie.
Tutaj to są właściwie dwie informacje, natomiast takie dosyć pokaźne.
Pierwsza to oczywiście Mortal Kombat, o którym już jakiś czas mówimy, no ale
w końcu gra już się oficjalnie pokazała dla wszystkich.
Pokazała się we wtorek, więc w mój wieczór właśnie tak
wyglądał, że były testy.
I nie tylko ja zresztą testowałem, więc wiem, że dużo osób też
z Polski nie tylko testowało tą grę.
I co mogę powiedzieć? No o Mortal Kombatzie i dostępności, który się w nim
pojawił już mówiliśmy dosyć dużo, jak były wersje beta i tak dalej.
Natomiast już mamy też oficjalny artykuł w bazie wiedzy WB Games,
który opowiada jakie mamy funkcje dostępności dostępne w tej grze.
Znajdziecie do niego link.
Co mogę powiedzieć? No w porównaniu do wersji beta
wszystko, wiele rzeczy, które tam nie były czytane prawidłowo, np.
mniej po walkach, już są czytane prawidłowo, więc widać, że
ktoś nad tą dostępnością pracuje.
Niestety nadal mamy ten głos, co był i nadal niestety on jest dostępny tylko
w języku angielskim, więc jeśli mamy grę ustawioną na język polski, no to
będziemy mieli wszystko czytane tym angielskim syntezatorem i z tego co wiem
nie da się tego w żaden sposób zmienić.
No ale bez problemu sobie grę skonfigurujemy na PlayStation.
Teraz już cały czas ten screenreader będzie wydobywał się po prostu z głośników
telewizora. Przy pierwszym starcie, tak jak to było zapowiedziane, po prostu on się
do nas odezwie i zapyta nas czy włączyć mowę to jest czytane to menu pierwsze.
Jeśli powiemy tak, to tam będziemy pytani jeszcze o inne ustawienia dostępności,
o głośności i tak dalej.
Możemy to wszystko sobie skonfigurować.
Co dalej mogę powiedzieć?
Jest audiodeskrypcja, jest ona też w trybie fabularnym, więc ten cały tryb
fabularny, gdzie właśnie oglądamy fabułę gry, w większości właśnie oglądamy i
tymczasami po prostu musimy jakąś walkę wygrać, no to podczas tych scenek jest
audiodeskrypcja, która w ogóle nawet też jest w logo gry, więc jak grę sobie
otwieramy, no to takie pierwsze intro, które się wyświetla zanim pojawi się menu
też ma audiodeskrypcję, więc tutaj bardzo fajnie to zostało zrobione.
To też jest oczywiście w języku angielskim, jak i cały dubbing w grze, tam nie ma
polskiej wersji językowej, jeśli o to chodzi.
Natomiast są jeszcze braki.
Braki, które z tego co wiem będą rozwiązane, bo…
Przepraszam, tak przerwę, z czystej ciekawości, no bo tam z tego co wiem, te
sceny są takie dość, tam dużo się dzieje różnych rzeczy.
Czy to jest wszystko mówione takim głosem spokojnym, narracyjnym, czy to jakoś tam
się wczuwa ten lektor?
Nie, wiesz co, to jest taki, to jest, to czyta jakaś kobieta i to takim dosyć
głosem neutralnym powiedział.
Mówi dosyć szybko, no bo tak jak powiedziałeś, tam się dużo dzieje, ale tak
dosyć, dosyć spokojnie.
Tam czasami trochę emocji gdzieś tam słychać, ale generalnie to jest spokojnie.
Lektorzy się chyba w ogóle nie wczuwają w tego typu scenach.
Ja kiedyś widziałem kawałek piły z audiodeskrypcją i tam też ten lektor bardzo
spokojnym głosem opisywał te sceny.
To, to dużo zależy od firmy, która tą deskrypcję tworzy.
Wiem, że są dwa obozy i tak właśnie jedni wolą tak, inni wolą…
Ojej, racja. Gwiezdne wojny były bardzo wczute, jak tak słyszałem, dlatego…
Tak i oni zresztą nawet nagrodę za to wygrali.
No, tak.
…nośnego widma, to tam, tam wręcz przeskakiwali się w tych już, znaczy nie się, tylko
ten lektor już tam leciał poza skalę z tymi emocjami, momentami w moim odczuciu.
Też ten serial Gwiezdne Wojny, które są na Disneyu też tam, znaczy tam też nie jest jakaś
przesadzona ta emocja, te emocje, ale tam też jednak gdzieś trochę emocji jest włożone.
Więc no tutaj akurat to jest bardziej neutralnie.
Zresztą tak samo jak w, teraz ta własna deskrypcja też była takim dosyć neutralnym
głosem czytana z tego co pamiętam, więc no to jest ten obóz powiedzmy.
A wracając jeszcze do samej gry, jest kilka błędów, które z tego co wiem będą
poprawione. Firma o nich wie.
Ludzie bardzo chcą to poprawiać, zwłaszcza, że to jest kolejna gra, która jest można
powiedzieć taką bardziej usługą, że ona będzie przez jakiś czas jeszcze nowe
aktualizacje z nowymi postaciami, nowymi zawartościami otrzymywać.
I o czym warto wiedzieć?
No na przykład samouczki, które myślę warto przejść jeśli zaczynamy dopiero
rozgrywkę. Same samouczki są czytane i są czytane fantastycznie.
Mamy wszystkie polecenia, które mamy zrobić odczytywane.
Nawet mamy skrót, który pozwala nam powtórzyć co mamy zrobić.
Wszystkie kombinacje przycisków są czytane.
Natomiast samo menu i wyboru lekcji, którą chcemy zrobić nie jest czytane.
Mamy na początku takie główne kategorie podstawy, ruchy ofensywne, ruchy obrona,
ruchy defensywne i tak dalej.
To jest czytane, ale jak już wejdziemy do jednego z tych rozdziałów, na przykład
podstawy, no to to pod menu na razie nie jest czytane.
To o tyle nie jest problem, że kiedy już wejdziemy do jakiejś lekcji, to już wszystko
jest czytane, a też kiedy daną lekcję skończymy, to tam mamy po prostu opcję
kontynuuj, więc możemy sobie kliknąć na pierwszą opcję i później już automatycznie
gra nam będzie przechodziła do drugiej, do trzeciej lekcji i tak dalej, aż skończymy
cały samouczek.
Też tam w jednym miejscu, kiedy mamy tłumaczone podstawy wykonywania tzw.
kombosów, czyli ruchów, które wykonujemy po sobie, żeby więcej obrażeń zadać, na
przykład przyciski, które mamy nacisnąć nie są prawidłowo czytane.
Można sobie z tym poradzić w ten sposób, że kiedy zaczynamy takie kombo wykonywać
prawidłowo, mamy dźwięk, więc po prostu możemy spróbować wszystkie przyciski po
kolei. Kiedy usłyszymy ten dźwięk, wchodzimy w pauzę, robimy pauzę w grze, otwieramy
dostępne ruchy, bo to w menu pauzy możemy zrobić, tam jest to czytane i tam wszystkie
kombosy danej postaci są wyświetlone, no i szukamy takiego, które od tego przycisku,
który właśnie nacisnęliśmy, zaczęliśmy.
Takiego kombo szukamy i w ten sposób możemy sobie tą jedną lekcję przejść, a z
pozostałymi nie ma problemu, możemy ten samouczek sami bez problemu przejść.
Co jeszcze nie jest czytane?
Nie jest czytane na razie menu dostosowania postaci, tam na przykład możemy sobie
różne skórki zakładać, bo każda postać ma różne kostiumy i tak dalej, to się ładnie
wszystko nazywa skórki.
Też nie jest sklep czytany, w którym znów możemy właśnie takie rzeczy kupować i jest
jeszcze jeden tryb, tryb inwazji tak zwanej, to jest też taki tryb jednoosobowy, w którym
chodzimy po planszy i musimy, to jest troszeczkę coś w stylu Slay the Spire, o tyle że
chodzimy po planszy i tutaj mamy taką funkcję asystującą, którą możemy sobie
włączyć, która nam będzie dawała dźwięki informujące nas co jest przed nami, bo to na
szczęście jest taki system, gdzie możemy iść po prostu albo do przodu, do tyłu, w lewo lub w
prawo, tam nie musimy się obracać i będziemy słyszeć dźwięki, które nas będą
informować co jest z każdej z tych stron, czy tam jest ścieżka, która nas prowadzi do
wyjścia z danego poziomu, czy tam jest coś, po prostu jakieś przejście, czy tam jest coś
zablokowane, jakieś na przykład drzwi, które musimy otworzyć, znaleźć klucz i w ten
sposób możemy po tym nawigować, natomiast kiedy staniemy na jednym z tych pól, no to
tam oczywiście jest wyświetlane co musimy zrobić, czy jest jakaś walka, którą musimy
pokonać, czy jakieś inne wyzwanie i to w tym momencie nie jest czytane, więc musimy
tutaj sobie na przykład OCR-em pomóc, żeby zobaczyć co, no bo po prostu na ślepo
naciskamy przycisk tam potwierdzenia, czy X, czy A, zależy od tego czy gramy na
konsoli, na komputerze, no i po prostu w ten sposób to zrobić i też kiedy jakieś
wezwanie pokonamy, wyświetlają się też ekrany, na których widzimy co zdobyliśmy, bo tam
są monety między innymi, które możemy w sklepie wykorzystać i inne rzeczy
odblokujemy, ten ekran w tym momencie też na razie nie jest czytany i znów musimy
tutaj się OCR-em posilić, ale to też ma być poprawione, nawet wiem, że ludzie akurat
z tym też bez większego problemu, znaczy no z problemami, ale można sobie z tym
poradzić po prostu OCR-em sobie pomagając.
Czy grę polecam?
Tak, jak najbardziej. Wydaje mi się, że to jest najbardziej dostępny Mortal Kombat,
tutaj może być jednak trochę kwestia tej bariery językowej, zwłaszcza, że ta synteza
używana w tej grze jest dość specyficzna, ale sama gra jest naprawdę świetna, dźwięki,
muzyka, ta audiodeskrypcja i fabuła jest naprawdę świetnie zrobiona.
Właśnie teraz tą fabułę najpierw sobie przechodzę i gra się w to fantastycznie.
Możemy oczywiście też grać przeciwko innym graczom, jest multiplayer, tam też jest
wszystko fajnie czytane, dostępne bez większych problemów.
No a te błędy, które są, będą na 90% naprawione, więc po prostu musimy zachować
cierpliwość. Jeśli nie chcemy bawić się OCR-em, no to za jakiś czas po prostu
będziemy mogli sobie do tego trybu inwazji, to jest taki bardziej tryb RPG, bo tam
możemy zdobywać różne przedmioty, które potem możemy założyć na naszą postać,
które tam będą zmieniać niektóre atrybuty, ale też możemy odblokowywać inne rzeczy
do naszej głównej gry, na przykład właśnie nowe skórki, nawet możemy zdobyć nowych
komentatorów, bo jak np.
nie podoba nam się jak gra np.
mówi, nie wiem, Fatalities, takie słynne, chcielibyśmy, żeby ktoś inny nam to czytał,
to tam też można takie rzeczy odblokować, więc są takie typowo kosmetyczne rzeczy, tak to się
mówi. No to ten tryb też za jakiś czas będzie dostępny, a gra jest jak najbardziej
warta polecenia, jeśli interesują was właśnie gry typu bijatyki.
I to jest Mortal Kombat, a jeszcze jeśli chodzi o gry, to mamy jeszcze jedną rzecz, bo w
zeszłym tygodniu pojawiła się kolejna aktualizacja do Hearthstone, które ostatnio dużo
dostaje tych aktualizacji, ostatnio mieliśmy anomalie do ustawek, czyli to są takie
locowe zdarzenia, które nam zmieniają jak rozgrywa się, jak odbywa się rozgrywka w
danej turze, no i te anomalie pojawiły się też w takim właśnie tradycyjnym Hearthstone,
czyli w tej grze, gdzie budujemy sami własne talie i po prostu gramy przeciwko innym
osobom, takim właśnie w tak zwanym tradycyjnym Hearthstone i tutaj też się pojawiły
anomalie, które na początku będą pojawiały się w każdej walce, z czasem ta liczba będzie
zmieniona i aż do następnego dużego patcha one po prostu gdzieś tam w 25 procentach
gier się będą pojawiać. One też mogą mieć różne efekty, np. tutaj patrzę się w
każdej turze gracz, jaką pierwszą dobiera kartę, na którą ma wystarczającą manę,
więc no to już czasem mamy więcej many i tak będziemy karty dobierać. Obaj gracze
zaczynają grę z przekładnią w ręce, to jest taka karta, która nam pozwala dobierać karty
z stali. Tutaj jest 20 tych anomalii, one mają różne efekty i poza tym została dodana
nowa miniseria, więc tutaj mamy 30 kart, które możemy sobie zdobyć. To jest właśnie
miniserie, to są takie paczki, których zawsze mamy te same karty, więc jeśli nie chcemy
bawić się w losowanie, kupowanie paczek i mając nadzieję, że trafimy to co chcemy,
tutaj wiemy co dostajemy od początku. Miniseria nazywa się Upadek Ulduaru i jest
dostępna w sklepie zarówno za prawdziwe pieniądze, jak i wirtualne złoto, które
możemy zdobywać poprzez zdobywanie kolejnych poziomów. Tutaj właśnie mamy 30 nowych
kart, nowy tytan jeden jest, więc dosyć ciekawie to się zapowiada. No i jak zwykle
mod Hearthstone Access bardzo szybko został zaktualizowany, bo całe chyba jakąś godzinę
albo dwie po tym jak ta aktualizacja wczoraj się pojawiła, więc tutaj bez większych
problemów możecie sobie Hearthstone’a zaktualizować, później aktualizujemy moda i
bez problemu możemy grać. Tak samo jak to już było wcześniej w ustawkach, w trybie
tradycyjnym też naciskając literę O będziemy słyszeć jaką anomalię akurat mamy w danej
grze. No i też ta dostęp do menadżera kolekcji, który pojawił się w ustawkach, to
wcześniej była taka osobna wersja testowa, to już zostało zintegrowane z tą wersją
stabilną, więc już po prostu jak zaktualizujecie sobie tego moda tej powiedzmy
oficjalnej wersji, no to już dostęp do kolekcji też będziecie mieli, nie musicie
jakoś osobnej wersji ściągać, żeby sobie w tą kolekcję przeglądać.
To przechodzimy w takim razie do technikaliów i pierwszy news dosyć ciekawy, bo Apple ma
patent na AirPodsy noszone na obraniu.
Tak, bardzo tajemniczo jak zwykle brzmią patenty Apple’a, ale się okazuje, że są dwa
nowe dotyczące dźwięku, no i ten pierwszy mówi o urządzeniu słuchawce, urządzeniu z
głośnikiem dookoła usznym lub nadusznym, chodzi o słuchawki, który to, które to
urządzenie nie musi być właśnie zawieszone na naszym uchu, ale może transmitować dźwięk za
pomocą jakby zestawu głośników przez powietrze z perspektywy innego, z innego obiektu, na
którym leży i tutaj było podany przykład, że właśnie można by taką słuchawkę np.
przyklipsować do ubrania albo do innego, do innego obiektu np.
do poduszki albo gdzieś tam na stole położyć.
I przez te głośniki będzie możliwość, żebyśmy i tak słyszeli, to jest skierowane na nas
gdzieś tam w taki sposób, że my będziemy ten dźwięk słyszeć, a tu się za chwileczkę dokształcę
jeszcze jak konkretnie się nazywa ten zestaw głośników.
Natomiast wiem też, że mikrofon ma być taki też wiązkowy i z takiej odległości powinien być w stanie
również zbierać dźwięk, żeby nas było znowu dobrze słychać, także pomysł jest taki, żebyśmy nie
blokowali sobie kanałów usznych ani okolic uszu tymi właśnie słuchawkami.
Natomiast druga rzecz to mają być etui na te AirPods, które również mają być w formie jakiejś
noszonej. Nie jest to jeszcze precyzyjnie określone, czy to będzie jakaś bransoletka, czy to
będzie jakoś na ubraniu też zawieszone, czy jakoś jeszcze inaczej, natomiast też teoretycznie
moglibyśmy jednocześnie te AirPods nosić, nie wiem czy również ich słuchać, ale też ładować.
Także jest to bardzo ciekawe.
Natomiast parametryczny, tak parametryczny zestaw głośników, tak jest to napisane, Parametric
Array of Speakers, także jest to bardzo ciekawe, co oni tutaj planują i co oni tu jeszcze
kombinują. Niby mają ludzie tego nie słyszeć dookoła jak ten dźwięk będzie nam tak przesyłany,
natomiast wiele tych projektów, znaczy patentów Apple, no to lata są zanim to wejdzie jeszcze do
produkcji, niektóre szybciej, niektóre wolniej, więc na razie wiemy, że coś kombinują, czy
schowają to do szuflady, czy wyjdzie z tego nowy komercyjny produkt, no trzeba będzie się z
czasem przekonać.
To zajrzyjmy może teraz do kolejnej porcji komentarzy.
Tu mamy pytanie od Iwo.
Michale, czy jest opcja dodania twojego głosu do Voice Dreama?
No, na Androidzie?
Tak, na iOSie na razie nie, bo nie ma Rh Voice’a, przynajmniej z polską syntezą.
To znaczy jest, no właśnie, ale nie ma.
No tak, jest Rh Voice, ale nie ma polskiej syntezy, więc też i tego mojego głosu nie ma.
No i w Voice Dreamie też nie ma jako takiego, a w Voice Dreamie, no to na iOSie jest ten
problem, że tam można korzystać tylko albo z głosów zainstalowanych, albo jeszcze
ewentualnie z tych, które tam oferuje twórca, oferuje producent Voice Dreama.
W Androidzie tu mamy większy wybór jednak też tych głosów systemowych.
Ale może się w końcu Rh Voice pojawi i na iOSa w pełnej krasie.
Jeszcze jeden komentarz od Agi.
No dobra, to już mój ostatni komentarz na dziś, ale jeśli chodzi o tę kreatywność
wykorzystania tej sztucznej inteligencji Be My Eye, to znajomy mój zrobił coś takiego,
że zrobił zdjęcie tego, co jest przed nim i kazał mu powiedzieć, jak ma do tej rzeczy
dojść. I on mu dał wskazówkę, jak ma to zrobić.
Coś w rodzaju takiej nawigacji.
Ja sama tego nie próbowałem.
No i też jestem bardzo ciekaw i tu może być też niebezpieczeństwo pewne.
Jeżeli na przykład powiedzmy Be My Eye dałby taką wskazówkę dotarcia do czegoś
pomiędzy nami, a czym znajduje się coś niebezpiecznego, no to co przychodzi mi do
głowy to chociażby jakaś ulica, gdyby nam kazał ją jakąś tam, a tak przejdź sobie po
prostu. No oczywiście wiadomo, że każdy kto posługuje się jakkolwiek chociażby słuchem
no i też jakimś zdrowym rozsądkiem, to będzie wiedział, że należy tam uważać z tą
ulicą, ale też to różnie może być.
Jestem bardzo ciekaw, jak na przykład ta sztuczna inteligencja by się zachowała, czy
tak po prostu by nam tych wskazówek udzieliła, jeżeli to by coś było, co wymagałoby
przejścia przez to jakieś skrzyżowanie przez ulicę, czy jednak by się poddała w tym
miejscu.
No ja na przykład próbowałem zdjęcia, żeby mnie pokierował, jak mam usadowić
telefon, żeby zrobić lepiej zdjęcie, żeby tam ten napis, którego nie było widać, on mi
lepiej przeczytał i nie poradził sobie z tym zadaniem.
Nie powiedział mi co mam, jak mam telefon przesunąć konkretnie, żeby ten napis było
bardziej widać w stosunku do poprzedniego, jeszcze prosiłem go o odniesienie do
poprzedniego zdjęcia, nie, nie dał rady.
No dobrze, to może przejdziemy sobie do kolejnego newsa i tak zastanawiam się, czym
by się tu zająć, ale już chyba wiem.
Piotrze, jak wyłączyć skróty do aplikacji Office w Windowsie?
Może zacznijmy w ogóle od tego, o czym mówię, bo może nie wszyscy wiecie, że coś
takiego jest. Ja się o tym dowiedziałem przez przypadek i no i to jest coś, co myślę, że
może nas zdenerwować, zwłaszcza, że korzystamy z, niektórzy z nas przynajmniej, z
aplikacji, które często używają wielu globalnych skrótów klawiszowych, te aplikacje
pokroju Twiscake’a na przykład, gdzie mamy skróty Windows Alt Shift na przykład z
takimi kombinacjami. O co chodzi?
Microsoft do niektórych swoich komputerów i klawiatur dodał klawisz Office.
Co ten klawisz robi? No poszli poniekąd na skróty i kiedy naciskamy ten klawisz, no to do
systemu dochodzi polecenie naciśnięcia skrótu Control, Windows Alt i Shift.
Jeśli naciśniecie go teraz na swoim komputerze, czy to jest Windows 10 czy 11, to
niezależnie od tego, czy macie zainstalowany pakiet Office, czy nie, to coś wam się otworzy.
Może to być wersja webowa Office’a, a może to być któraś z aplikacji, też są skróty do
konkretnych aplikacji W, do Control Alt, Windows Shift W do Worda, L do portalu
LinkedIn, O do Outlooka i tak dalej i tak dalej.
No ale jeśli nie chcecie tych skrótów, no bo właśnie może korzystacie z takich
aplikacji i naciskacie ten skrót jakoś przez przypadek.
Mi się to parę razy zdarzyło.
I zastanawiacie się jak to wyłączyć, przynajmniej w Windowsie 10, nie wiem czy to działa
w 11. Jest na to sposób, po prostu musimy dodać odpowiedni
klucz do rejestru.
Jaki? No do tego znajdziecie informację w linku, który znajdziecie w komentarzu, to jest
na portalu Microsoftu, gdzie ktoś o to zapytał i pracownik Microsoftu podał polecenie,
które musimy wkleić sobie do wiersza poleceń, które w odpowiednim miejsce
doda nam ten klucz.
Więc otwieramy sobie okienko uruchom, albo wchodzimy w domenie Windows X, o którym
jakiś czas temu mówiłem i tam jedną z opcji będzie albo wiersz poleceń, administrator lub
PowerShell administrator.
Jedną z tych dwóch opcji szukacie.
Jak nacisniecie, no to wyświetli wam się komunikat kontroli kontroli użytkownika.
Musimy na niego zezwolić, otworzy nam się wtedy takie okienko, w którym możemy wpisywać
tekst. No i wtedy szukamy sobie tego polecenia na tej stronie i po prostu
przeklejamy je. Wtedy zostaniemy zapytani, czy chcemy dodać ten klucz do rejestru.
Naciskamy tak i później po restarcie systemu te skróty już nam nie powinny
przeszkadzać. A może właśnie dowiedzieliście się o skrótach, które wam się przydadzą.
Jeśli tak, no to możecie śmiało po prostu sobie z nich korzystać i w ten sposób mieć dostęp
do aplikacji Office’a z dosłownie każdego miejsca na komputerze.
I teraz kolejny news od Pawła.
Gdzie chce się jeszcze kupić muzykę? To jest takie pytanie jakoś przyszłego miesiąca.
No tak, no to jest dobre pytanie, bo teraz streamujemy namiętnie muzykę z różnych
portali i jest to wygodne. Ja sam przyznaję się, jestem winny, głównie słucham muzyki ze
streamingu. Natomiast ma to swoje niestety też wady i jedną z tych
wad na przykład jest to, że chociażby to, że label’e, producenci muzyczni,
wydawcy wydawnictwa podmieniają utwory i jako, że nie posiadamy tego utworu na
własność, to z tym utworem może się stać wszystko, może zniknąć, może pojawić się w jakiejś
nowej wersji. To chyba takim przykładem słynnym jest Crazy Frog, to chyba Piotrze ty
odkopałeś, tak, że Axel F, słynny utwór Crazy Froga, czy jak tam, który ja jeszcze
jako dziecko, no dziecko, już taki wczesny nastolatek pamiętam w tej słynnej wersji.
On jest na Spotify, ale w jakimś takim przerobionym intro.
Tam teledysk też został ocenzurowany, bo to żabka z ogonkiem, tylko nie wiecie czemu ten
ogonek z przodu, to są wspomnienia naszego dzieciństwa.
No a teraz już współczesne dzieciaki tego nie zobaczą.
My za to nie odzobaczymy, natomiast no nie ma już i że tak powiem, jest to zamienione.
Niektóre utwory znikają, niektóre są gdzieś tam wyrzucane, różne rzeczy się mogą dziać w
streamingach i to, że dzisiaj do czegoś mamy dostęp nie oznacza, że mamy ten dostęp
jutro. Do tego jeszcze się okazuje i to coraz więcej gdzieś takich niezależnych
artystów podnosi ten głos, że no jak się jest właśnie niezależnym artystą, niezwiązanym
z jakimś wielkim studio muzycznym i się chce po prostu tworzyć tę muzykę i na niej
zarabiać, no to z tych streamingów się za wiele nie zarobi.
Ponoć, ponoć i te prowizje i to właśnie ile sobie zwłaszcza Spotify ponoć lubi brać,
bo Apple Music niby jakoś tam mniej, ale to jest wszystko gdzieś tam w tych kwestiach
prawdopodobnie jedno i to samo.
Zabierają tyle, że taki artysta nawet na dużej ilości odtworzeń sobie po prostu no za wiele
nie zarobi adekwatnie do tego ile osób tego utworu słuchało.
No do tego jeszcze dochodzi kwestia odtwarzania na czym tylko chcemy, na jakich tylko
urządzeniach, z jakich tylko nośników i tak dalej.
No i powstają, powstaje wiele powodów, żeby jeszcze sobie muzyczkę kupić i mieć na niej
dostęp. W ogóle też ostatnio jakiś taki raport gdzieś się pokazał, widziałem taki
artykuł, że ponoć ta jakość muzyki nam serwowanej na streamingach się pogarsza.
Ja nie mam takiego słuchu, żeby to stwierdzić.
No natomiast wątpię, że to są jakości jakieś bezstratne.
Niektóre streamingi się chwalą, że bezstratną jakość oferują, ale no właśnie, czy tak
naprawdę dalej jest i czy kiedyś to się nie zmieni, no różnie bywa.
No więc co my możemy zrobić, czy my jeszcze w ogóle możemy gdzieś muzykę kupić, bo no
kwestia okazuje się niezbyt prosta.
Ja kiedyś kupowałem na Google Play Music, bo tam z trudem, coraz trudniej, coraz trudniej, ale
dało się jeszcze mp3 wyciągać.
No niby, że iTunes jest, ale iTunes nam sprzedaje jakieś m4a, czyli aac-ki de facto, jeszcze
z nałożonym DRM-em.
Nie, już nie ma DRM-u, nie, nie, to są po prostu czyste pliki m4a, tam nie ma
zabezpieczeń. Filmy, filmy z iTunesa są zabezpieczone, a muzyka nie.
No ale mimo wszystko, trzeba mieć iTunesa, żeby takich zakupów dokonywać, chyba, z tego co mi
wiadomo.
To się chyba zgadza, tak.
Tak, więc tutaj ja, no ja również nie bardzo jestem fanem tego, żeby instalować iTunesa, w
ogóle do czegokolwiek, ale po to, żeby, przede wszystkim po to, żeby, żeby muzykę
ściągać tylko i wyłącznie, potem ją wydłubywać gdzieś tam z czeluści jego plików.
No jest Amazon teoretycznie, nie wiem, na Amazonie, na Amazonie nic nie kupowałem, odkąd Amazon
jest w Polsce. W złotówkach można kupować potwory?
Nie wiem, ktoś próbował? Albo albumy cyfrowe?
Nie, bym nie patrzyła, szczerze mówiąc.
Okej. No i my w Polsce mamy Mpik, czy też Plus Music, jeżeli ktoś da w namu zadajnia,
jeżeli ktoś jest w Plusie, a jak nie, no to Mpik, Mpik pozwala mp3-ki 256 chyba nam kupić.
Więc, no ale też okazuje się nagle, że nie wszystko tam jest i już, już mi się zdarzyło,
że chciałem coś kupić, a nie było i to nawet polscy artyści, o tutaj taki przykład
Wona i Weber, gdzie starsze albumy w Mpiku kupimy jako mp3, sezonowsze
przestreamujemy w streamingach.
Nie umieli jakoś dość długo zgrać chyba tutaj, nie wiem na czym polega problem.
Natomiast, no czy da się jeszcze gdzieś indziej kupić?
No jest spis takich serwisów, nie ukrywam, on nie powstał w Polsce i się okaże to ważne za moment.
Ktoś taki jak ja, jasonnab, taki ktoś się podpisuje, stworzył sobie na Codebergu, czyli na takiej
platformie również do wymiany kodem, no taki spis serwisów, w których można jeszcze kupić
muzykę, no i tu zostało postawione trochę wymagań, które musi spełnić serwis, żeby się na takiej
stronie znaleźć, no i jednym z tych wymagań jest to, że muzyka musi być oferowana w jakości
bezwtratnej, drugie, że nie może być chroniona DRM-em.
No i po tak rygorystycznym przesiewie mamy do dyspozycji serwisów aż, uwaga, dziewięć.
I to też nie jest tak do końca, że dziewięć, bo zapoznajmy się z tą listą i zaraz się przekonamy, jakie tutaj panują warunki.
Otóż pierwszym z tych serwisów jest 7digital, a drugim jest 7digital Kanada, a drugim jest 7digital USA.
No też zdradzę Wam, że jest też 7digital Niemcy, 7digital UK, Wielka Brytania, jeszcze parę krajów.
Ale nie Polska. No więc my na takim 7digitalu sobie raczej bez jakichś VPN-ów, no nie
pokupujemy z tego, co mi wiadomo.
Okej, no to skoro 7digital mamy skreślony, to co mamy, no Bandcamp, no Bandcamp fajnie, Bandcamp jest spoko.
Jeżeli kupujemy muzykę bardzo niezależnych i bardzo niszowych artystów, wielkich jakichś tam
labeli i tak dalej nie znajdziemy, no to jest też taki serwis, który wspiera niezależną muzykę i fajnie taką
muzykę kupić. Swoją drogą Bandcamp mógłby się bardziej postarać, bo odtwarzanie muzyki na Bandcampie z
komputera, zwłaszcza z Windowsem, no nie należy do najprzyjemniejszych.
Wręcz jest to z moich jakichś obserwacji prawie niemożliwe.
Chyba, że z jakimiś dodatkami bawimy i klikaniem z nawigacją obiektową, coś tam, ale można kupić sobie i wielu
artystów też ma taką zasadę, że wpłacamy przysłowiowe co łaska, czyli ile uważamy, że dany album czy utworek jest
wart, za tyle możemy go kupić.
No i dużo ciekawej muzyki na Bandcampie takiej niezależnej jakiejś na pewno jest.
Natomiast no właśnie nie ma tych bardziej znanych rzeczy.
Potem mamy Beatport, no Beatport to znowu jest bardziej taka konkretnie nakierowana na muzykę klubową usługa, bo tam można
kupować sety DJ-skie, właśnie muzykę z pokrajnicza gdzieś EDM-u, różnego rodzaju właśnie takich klubowych klimatów,
trance, hands up, jakieś tam dance’owe rzeczy.
No jeżeli to jest wasz gatunek muzyki, no to pewnie Beatport, ale jeżeli szukacie czegoś innego, no to właśnie, co nam jeszcze
zostaje? Jest Bleep, nie znałem tego serwisu, tu jest napisane, że sprzedajemy produkty w Wielkiej Brytanii i na całym
świecie, poza miejscami, gdzie nie jesteśmy w stanie dostarczać naszych produktów.
Tak jest to napisane, jakby była mowa o płytach fizycznych, ale widzę, że jest tutaj losless, jako losless, jako formaty
bezstratne podane FLAC i WAVE.
No nie wiem, czy ktoś kiedyś to skupował na Bleepie, muzykę, ja nie i też nie wiem jak, czy to jest właśnie ogólnie do muzyki, czy
jakiś znowu konkretny gatunek.
I 16 bity i przy WAVE’ach 24 bity, jak chodzi o głębię.
Mamy też HD Trax, HD Trax, byłem na tej stronie hdtrax.com, no i rzeczywiście można kupować, wiele płyt jest dostępnych w jakichś
różnych formatach, tam właśnie 24 bity, jakieś tam 16 bitów MQA, natomiast kupujemy w dolarach.
Nie ma wielu polskich rzeczy, poszukałem pierwszy polski artysta, jakim przyszedł do głowy Taco Hemingway, to jakieś kolabo
znalazłem Taco Hemingway’a z kimś tam, a tak samego Taco, no nie znalazłem, może jeszcze muszę poszukać, czy jakieś inne polskie
utwory się tam znajdą, czy polska muzyka tam w ogóle jest, natomiast poszukałem też innych rzeczy, jakiś Rammstein Linkin Park
znalazło, jakiś najnowszy Rammstein 15 dolarów, Linkin Park One More Light, czyli ostatnia ta płyta studyjna 19 dolarów, no więc można, tylko że
się kupuje w dolarach i niekoniecznie wszystko, niekoniecznie wszystko jest, no ale są jak najbardziej te rzeczy też bezstratnie dostępne.
Mamy też Juno Download, no i tutaj geograficzne restrykcje, Kanada, US, UK, no to pokupowane.
Aha, no i jeżeli już raz ściągniemy utwór, to znika nam opcja do powrania ponownie.
I jest Kuboz, no ponoć w Unii Europejskiej da się kupować, no ja nie próbowałem, więc nie wiem nawet jaka waluta, nie wiem nic, i Loslesy są, Flagwave i inne formaty i 16-24 bity do 192 kHz, takiej jakości.
No i to by było na tyle, był Tidal, wiem, że kiedyś wam o Tidalu mówiłem, no i Tidal się niestety w zeszłym roku, czy dwa lata temu, nie w zeszłym roku jakoś pod koniec zamknął i już z Tidala muzyki kupować nie można.
Streamować prawdopodobnie nadal tak, ale kupować już, tak jak kiedyś wam opowiadałem, że się dało, no to się już niestety nie da.
No i tak to wygląda, więc no nie jest dobrze, jak mam być szczery, bo ja też już miałem taki problem, gdzie ja mam teraz kupować muzykę?
No i wygląda na to, że jest coraz ciężej kupić muzykę, bo streamingu jest mnóstwo, streamingi nie pozwalają od siebie kupować, no więc co począć?
No jeżeli wy macie jakieś sklepy, z których kupujecie muzykę, no to się podzielcie, ja chętnie przyjmę.
A teraz jeszcze takie dwie informacje ode mnie na ten temat chyba troszkę.
Gdzieś mi się rok, czy dwa lata temu przewinął taki news, że Spotify to tak ledwo dziuła.
To się to tak mówi, że o, to za darmo, muzycy nic nie dostają, ale okazuje się, że ten Spotify to w sumie też niewiele zarabia, podobno.
I to wcale nie jest tak, że tutaj ktoś tu zbiera kokosy i się he he śpi.
To znaczy być może ktoś, pytanie właśnie kto?
No bo to wszystko gdzieś idzie, te reklamy tam się wyświetlają i teraz no właśnie ciekaw jestem, jak to wygląda i jak to wyglądać będzie w jakiejś tam przyszłości bliższej lub dalszej.
Co ciekawe, moja mama pracuje w takim sklepie, tam są różne, trochę defocjonaliów, trochę coś i są między innymi płyty z muzyką, taką religijną.
Wydawałoby się, że ludzie, którzy słuchają takiej muzyki to niekoniecznie są ludzie, którzy powiedzmy są jakoś bardzo rozwojowi, jeżeli chodzi o takie najnowsze technologie, nazwijmy to w ten sposób.
Znaczy wiadomo, to są często ludzie starsi i mimo to mało kto kupuje teraz te płyty, dlatego że nawet ci ludzie często słuchają muzyki przez smartfon.
Nie wiem czy w streamingach, ale w każdym razie nie na płytach, więc generalnie przemysł taki płytowy się zwija, muzyki takiej kupowanej nie ma i te streaminki się okazuje, że to też jakoś nie wiadomo co to będzie dalej.
A czy Spotify podwyższa opłaty, póki co, przynajmniej podwyższą.
My uniknęliśmy tego, w sensie Polska.
Tak, Polska uniknęła, natomiast pytanie czy na następstwie przyjdzie pora.
Pewnie tak, prędzej czy później.
No i tak, ciekawe co będzie dalej.
A teraz jeszcze do tego wszystkiego powoli zaczynają dochodzić.
Co prawda to raczej będzie muzyka, która jest wykorzystywana jako muzyka raczej taka, powiedzmy ilustracyjna, czyli muzyka taka do wykorzystywania gdzieś tam w jakichś filmach, w czymś, która jest generowana i można sobie wygenerować.
Z drugiej strony, no już widziałem model sztucznej inteligencji, w którym wpisuje się tekst, wpisuje się styl, w którym ma to się wygenerować i on to generuje.
Oczywiście średnio się to nadaje do tego, żeby to puścić, no ale co będzie dalej, no to zobaczymy.
To dopiero początki.
Więc no tu może to też troszeczkę wpłynąć, chociaż nie wiem czy tak dużo, ale jednak może troszeczkę na to wszystko, co się dzieje w muzyce.
No i zostały jeszcze nam dwie w zasadzie, no nie wiem czy dwie informacje, no dwa.
Jeden to jest mini kącik newsów sztuczno-inteligencji, newsów AI i to chyba faktycznie mini, tam są chyba dwie informacje wpisane.
Dokładnie i zaczniemy od Googla, bo pojawiło się trochę nowości w Bardzie.
Ktoś z Was pisał na początku jakoś, że coś z maila dostaliście, bo faktycznie taki mail przeszedł, ale nie tylko, bo też pojawił się post na blogu Google.
I co tutaj zostało wprowadzone?
Jeśli pamiętacie jak jeszcze temu opowiadałem, że też właśnie to się nazywało bodajże duet, czyli coś jak Bard, tylko właśnie bardziej do zadań biurowych pojawia się w Google Workspace.
I tam właśnie to narzędzie miało nam pomóc pisać dokumenty, przygotowywać prezentacje i tego typu rzeczy.
No i teraz powiedzmy użytkownicy prywatni będą mieli podobne możliwości właśnie dzięki Bardowi, który doczekał się rozszerzeń, właściwie integracji tutaj z innymi usługami Google.
Na początek jest to Gmail i Google Drive chyba, czy Google Docs, które właśnie z tych usług są powiązane ze sobą.
Z czasem też tego będzie więcej, będą mapy, będzie YouTube i tak dalej.
Natomiast co to nam pozwoli, jeśli włączymy sobie to wszystko, no i tutaj firma mówi, że to będzie oczywiście zachowana prywatność, że nawet jeśli jakieś osoby będą przeglądać naszą rozmowę w celach sprawdzania jakości i treningu,
no to naszych poufnych danych nie będzie widać, one będą wykluczane.
No i też właśnie do tych danych treningowych, mimo to, że on gdzieś będzie miał do nich dostęp na czas wykonania polecenia dla nas, no to one nie będą zapisywane.
No ale właśnie, co będziemy mogli zrobić? Będziemy mogli go po prostu o coś poprosić.
Może chcemy znaleźć jakąś informację w naszej poczcie, no to możemy tutaj o to go poprosić, albo tutaj jest podany taki już bardziej ekstremalny przykład, jak to będzie mogło wyglądać w przyszłości.
Że będziemy mogli powiedzieć, że chcemy gdzieś polecieć na wakacje i wtedy Bart nam może przejrzeć pocztę, zobaczyć kiedy mamy wolny kalendarz, kiedy nie mamy jakichś spotkań zaplanowanych.
Potem automatycznie gdzieś połączyć się z Google Flights i zobaczyć dostępne loty i nam je wyświetlić.
Jednocześnie pokazać nam coś na mapie, a jeszcze na YouTubie pokazać film, co możemy zrobić, jak już tam dolecimy.
I to wszystko z poziomu jednej rozmowy.
Też będziemy mogli poprosić, żeby nam jakiś dokument zaczął pisać.
Tutaj pewnie też moglibyśmy się odnieść do naszej poczty, więc nie wiem, moglibyśmy tutaj poprosić.
Podobna sytuacja, tak jak tam było w tym przypadku, może prace zrobione, że musimy jakąś prezentację przygotować na podstawie data, które sporządziliśmy.
I chcielibyśmy sobie na podstawie jakichś dokumentów, które napisaliśmy przygotować prezentację.
To też będzie można zrobić.
Ponadto rozszerzenia, które były dziś dostępne w języku angielskim mają być dostępne w 40 nowych językach.
Tutaj między innymi właśnie chodzi o Google Lens o rozpoznawanie zdjęć, które może już teraz działa też w języku polskim.
Szczerze nie wiem, nie testowałem.
Wiem, że tutaj też właśnie ktoś z Was pisał, że to Wam nie chciało działać, więc nie wiem, czy język polski jest też na tej liście tych 40.
Też te integracje z aplikacjami Google też są na razie tylko po angielsku.
I została dodana jeszcze jedna rzecz, mianowicie kiedy pytamy Barta o jakieś informacje, to on jest jakoś w stanie wykryć, że ten model coś źle uzyskał.
Jakieś złe informacje nam próbuje podać i używając Google wyszukiwarki po prostu się jakoś skoryguje.
To jest ciekawe, że Google sam siebie koryguje, ale to też właśnie na początku będzie dostępne.
System tagów podejrzewam już zautomatyzowany od wielu lat, czyli o czym mniej więcej ten tekst jest.
Podejrzewam, że jakiś taki system wyciągania słów kluczy i może to właśnie działać na tej zasadzie, że z tej odpowiedzi on też wyciąga słowo klucza i sobie pewnie jakoś to porównuje.
Czy to jest to samo?
No właśnie.
Ale to takie, ale jakby wyobrażam, że to jest też możliwe, więc no ciekawe.
I to może być rzeczywiście fajne, bo jeżeli by to działało z Gmailem, czyli z miejscem, na które nam przychodzą po pierwsze różne maile, po drugie no jeszcze jakaś tam część z nas, z niewidomych,
korzysta z list dyskusyjnych, na których się czasami dzieje dużo i można by się dowiadywać, co tam dzisiaj na listach, kto mi coś napisał, czy mam jakieś ważne, taka sekretarka by się z tego zrobiła.
To rzeczywiście mogła być taka, no kolejny taki trochę etap rewolucji.
To mi się zawsze kojarzą książki Agaty Christie, jak ten Hercules Quorra miał swoją sekretarkę, którą dzieliła listy na te do przeczytania, do odłożenia i do wyrzucenia.
No tak.
No ciekawe, czy kiedyś nie dożyjemy takich czasów, że każdy z nas będzie miał taką sekretarkę sztuczną.
Ale wiesz co, podsunąłeś mi fajny pomysł, powiedzmy pojawia się jakaś nowa aplikacja, nowa funkcja i ludzie właśnie o tym piszą i chcielibyśmy zapytać, jakie jest ogólne wrażenie ludzi.
Jeśli mamy 20 wiadomości z jakiejś listy, no to już jakieś wnioski pewnie dałoby się wyciągnąć, jakieś podsumowanie.
Tak, bo to ktoś zapyta, ktoś powie, że fajne i w sumie szybciej by przeczytać taki skrót niż czytać ileś wiadomości.
Żeby to 20×80 i jeszcze 6 pobocznych wątków.
Tak, dokładnie.
Ja jeszcze doczytałem jak to, ta weryfikacja wyników będzie wyglądała, to też możemy wywołać ręcznie.
Kiedy pytamy się jakieś, zadajemy jakieś pytanie.
Nie wiem, czy sztuczna inteligencja halucynuje?
No i on nam powiedzmy daje jakąś odpowiedź, możemy na nią sobie kliknąć, ona będzie jakoś podświetlona.
I wtedy on, dopiero wtedy wykona wyszukiwanie i jeśli zobaczysz, że wyniki np.
nie no jak, halucynował, ja zawsze mam rację i klikniemy, żeby on to wyszukał w internecie i powiedzmy
wyszło mu, że tak, zdarza się, że modele językowe potrafią wymyślać informacje.
No to on by nam tutaj podkreślił, że tutaj są informacje sprzeczne.
Tak więc możemy z poziomu tej konwersacji już sobie jakieś informacje weryfikować.
Więc tak to będzie wyglądało.
No i to jest Bart, a jeszcze pojawiło się takie małe narzędzie.
To może nie jest poniekąd nowość, bo takie narzędzia już w różnych wersjach były.
Ale o co chodzi?
To jest narzędzie, które nazywa się Free Music Demixer i to jest zresztą adres tej strony.
Bo po prostu możemy wejść sobie na freemusicdemixer.com i co możemy na tej stronie zrobić?
Możemy załadować sobie jakąś piosenkę i podzielić ją na czynniki pierwsze.
Na wokale, no właśnie na różne ścieżki, na wokale, na bas, na perkusję itd.
Co jest ciekawego w tej stronie?
No takie strony już powstawały, natomiast w większości one działały w ten sposób,
że gdzieś były wysyłane do jakiegoś mocniejszego komputera.
Dzięki czemu te wyniki były dużo lepsze i dużo szybciej je dostawaliśmy,
no ale one właśnie gdzieś były wysyłane.
Są też wersje tych narzędzi, które możemy sobie postawić na komputerze.
One trochę wymagają wiedzy, bo to jest często praca z wierszem poleceń,
instalowanie Pythona najczęściej, różnych tego typu rzeczy.
No ale jeśli nie chcemy się w to bawić, a też nie chcemy gdzieś tych rzeczy wysyłać,
no to ktoś stworzył taką stronę, która działa w 100% w przeglądarce.
Ona ładuje nam te modele i na naszym urządzeniu,
czy to może być komputer albo nawet smartfon,
tutaj jest powiedziane, że to na smartfonach też powinno działać,
no z poziomu przeglądarki sobie coś takiego zrobić.
I jakie wrażenia?
Długo się robi.
Długo.
Właśnie mamy dziewiątkę.
No i efekt taki bez szału, więc ja sobie wyobrażam, że rzeczywiście to jest do tych ścieżek.
To się może przydać rzeczywiście w tych przypadkach,
gdy bardzo nie chcemy, żeby to wyszło gdziekolwiek na zewnątrz
i nie umiemy zainstalować jakiegoś tam demuksa, czy co tam jeszcze jest.
No to w takich przypadkach to rzeczywiście może się ewentualnie przydać,
aczkolwiek efekt nie jest jakiś oszałamiający.
To z myśli jakości tego splittera, jeżeli ktoś słuchał podcasta
albo widział to gdzieś na własne…
No coś w tym stylu, nie wiem czy nawet mnie trochę gorsza.
Natomiast splitter potrafi robić to jednak znacznie szybciej.
Ja to testowałem przecież na komputerze stacjonarnym z 2014 roku
i to chodziło naprawdę szybko.
I to jest aplikacja, którą można sobie zainstalować na własnym komputerze
i też się to robi lokalnie.
W sumie nie wiem, jakoś nie zrobiło to na mnie wrażenia.
No sam fakt, że to działa w przeglądarce, ale generalnie zgodzę się z tym,
co powiedziałeś, ja to też testowałem.
Może powiem jak to wygląda, ale jak wejdziemy sobie na stronę,
w której mamy próbkę, pod spodem mamy nagłówek Demixer Apps.
Tam są dwie wersje, tego jest wersja Singletrack i jest wersja Batch,
w której możemy kilka ścieżek naraz załadować.
W obu tych przypadkach najpierw musimy nacisnąć przycisk Download Weights,
to nam załaduje plik do pamięci.
Kiedy to już się skończy, to pod spodem będziemy mieli przycisk Browse,
który wtedy stanie się dostępny.
Tam wskazujemy na plik audio i pod spodem klikamy na przycisk Load Audio and Demix.
I wtedy to się nam zaczyna mielić.
To jak Tomek powiedział, trwa bardzo długo.
Nie mamy też jakiegoś paska postępów, więc po prostu musimy mieć stronę otwartą
i w pewnym momencie będziemy mieli, pod spodem jest taka sekcja Demix Outputs
i tam z czasem pojawią się linki, które pozwolą nam te poszczególne ścieżki ściągnąć.
No i faktycznie, tak jak Tomek powiedział, wyniki nie powalają.
Ja to testowałem akurat, miałem piosenkę Queenu pod ręką
i tam na ścieżce z wokalami perkusja przeciekała do tych wokali,
więc mogłoby to działać lepiej.
Natomiast narzędzie darmowe, proste, działające w 100% w przeglądarce,
więc jeśli ktoś chciałby sobie na iPhone’ie czymś takim się pobawić,
to w ten sposób można to bardzo łatwo zrobić.
Chyba jeszcze jeden news widzę.
Tak, to mój news i tu chodzi o narzędzie przycinania.
Narzędzie przycinania w Windows, które zyskuje nową funkcję
i tą funkcją jest wyodrębnianie tekstu ze zrzutów ekranu.
Ciekawa funkcja, domyślam się niestety, że to ze zrzutów, które my robimy,
więc to też nie jest tak, że my sobie weźmiemy zrzut, który nam ktoś przysłał
i będziemy mogli sobie pewnie ten tekst wyodrębniać,
bo to byłoby dużo ciekawsze, ale tutaj też nie jest to pewnie złe,
zwłaszcza, że możemy za pomocą tego mechanizmu, z tego co rozumiem,
pewne informacje sobie z tego zrzutu wykasować, jakby ukryć,
żeby nie było widać na nim na przykład jakichś naszych tam wrażliwych danych.
No więc tutaj może się to gdzieś przydać,
no ale taką funkcję dodaje Microsoft, więc taki bardziej drobny newsik na koniec.
No i to wszystko jeżeli chodzi o informacje.
Zostało to moje odnośnie Home Assistant
i powiem tak, nie chciałbym zniechęcać ludzi,
bo to podejrzewam, że ma dużo różnych ciekawych rzeczy,
natomiast póki co trochę potykam się o własne nogi w tym systemie.
A jakbyś Tomku w ogóle mógł tak na dobry początek powiedzieć,
bo może nie wszyscy wiedzą do czego to się może przydać.
Co to jest?
To znaczy tak, dużo pewnie osób będzie to mieniło z asystentem Google
albo z Google Home, nie ma to nic wspólnego ani z jednym, ani z drugim.
To jest zupełnie osobny produkt, zupełnie różnych ludzi, zbieżność nazw,
o tyle przypadkowo, że to są dwa różne produkty,
a człowiek służy do tego samego, więc to często te różne nazwy będą dość podobne.
I to jest takie środowisko, które pozwala na integrację różnych systemów
inteligentnego domu i robienie nawet dość zaawansowanych,
bardzo zaawansowanych automatyzacji właśnie w obrębie tego wszystkiego.
Czyli mamy jakieś inteligentne włosniki światła i tymi włosnikami światła włączamy,
no dobra, światło to jakby dość jasne, ale można sobie zrobić po zachodzie słońca zapal światło
i nie wiem, czujnik nie wygrywa ruchu przez jakiś czas, zgaś światło.
Przykładamy telefon do jakiegoś kodu NFC, to muzyka, którą akurat jest włączona,
to niech gra gdzieś tam, nie wiem, w pokoju, w którym jesteśmy.
Zamykamy drzwi wejściowe, to niech nam się powłączają wszystkie urządzenia,
które są jakby nieużywane przez nas.
Wracamy do domu, bo mamy sobie zaznaczone, że z reguły w pracy wracamy do domu o tej godzinie.
Jeżeli na mapach nie ma informacji, że nie ma korków na drogach,
to niech nam się 15 minut przed planowanym przyjazdem do domu zaczną włączać,
nie wiem, klimatyzacja, cudzisz ogrzewanie i niech się jeszcze włączy ekspres do kawy.
Przychodzimy, mamy świeżą kawę i mieszkanie w odpowiedniej temperaturze.
I jakieś tego typu różne rzeczy.
Tylko cały problem polega na tym, że w związku z tym, to ma mojej zdaniem wszystkie bolączki,
absolutnie wszystkie bolączki, czy może inaczej, takie typowe bolączki
przeciętnego programu otwartość źródłowego.
Dokumentacja jest jakaś, to nie jest coś na zasadzie, zobacz, to się robi tak, to się robi tak,
tu masz przykład jeden, drugi, trzeci i se to zrób.
Interfejs też jest taki jakiś, jest na początku, zostajemy rzuceni w milion różnego rodzaju określeń,
wyborów, począwszy od tego, że trzeba wybrać wersję, którą można zainstalować.
Są cztery warianty do wyboru, niektórzy proponują coś w rodzaju piątego.
Znaczy ten cały system można zainstalować albo jako system operacyjny,
na przykład na komputerze typu Raspberry, albo można to zainstalować tak zwanym dockerzem,
albo można to jeszcze na dwa jakieś inne warianty zainstalować, już nie pamiętam,
w wersji core, czyli takiej bardziej light, takiej bardziej podstawowej i tam czwartej,
super wise to chyba się nazywa, no i czytam, no to pierwsze moje pytanie,
a czym to się różni wszystko, dla takiego przeciętnego uczestnika,
który nie wie o co jeszcze w tym chodzi.
No nawet dostałem jakąś tabelkę, no i sprawdziłem sobie, że najbardziej mnie interesują
te dwie pierwsze opcje, w sensie te rekomendowane.
Dobra, no to mówię, chętnie wybrałbym to w tym tak zwanym dockerze,
czyli w czymś w rodzaju takiego częściowo wirtualizowanego środowiska
i jakie tam są ograniczenia?
Nie ma supervisora, do czego służy supervisor?
No to jest, tam są jakieś konserwacje, uaktualnienia systemu, tam coś jeszcze.
Dobra, no bo w takim przypadku użytkownik musi sam dbać o system,
sam go aktualizować, sam instalować w biblioteki, no okej, dobra, biorę to na klatę,
bo jeszcze nie wiedziałem w co się pakuje.
Instaluje, odpalam, niby wszystko fajnie.
Na początku to naprawdę wyskakuje, że nie można się z bluetoothem dogadać,
bo tam nie ma czegoś, już nie pamiętam czego.
Dobra, potem się tym zajmę, na razie w ogóle muszę ogarnąć to całe szaleństwo
od absolutnych podstaw, co tu się w ogóle robi.
No tak czytam, co tam w ogóle można zrobić?
No, że zainstaluj dodatek i coś tam jeszcze i coś tam jeszcze.
Dobra, no to patrzę różne rzeczy po kolei.
Nie widzę na razie dodatków, ale mówię, dobra, poczekamy, zobaczymy.
Na razie mam inne rzeczy na głowie.
Albo można przez dodatek na przykład zainstalować Samba,
czyli to, żeby można było widzieć w tym o tak zwanym otoczeniu sieciowym
pliki z tego systemu i ładować sobie z Windowsa fajnie, nie wiem, konfigurację,
bo to będzie potrzebne.
Okej, mówię, ja mam to w tym tak zwanym dockerze, ja to mogę zrobić inaczej
przez Faizille Pro, bo mam.
No i okej, dobra, działam sobie i w pewnym momencie musiałem jakąś tam
inną wtyczkę zainstalować.
Gdzie są wtyczki? W menu.
Nie, nie ma w menu.
Powinny być, no u mnie nie ma.
No i tak szukam, szukam, a może ty masz dockerze?
No mam.
No to wtyczek to ty nie będziesz miał, dlatego że supervisor oprócz tego,
co tam wszędzie napisali, to jest odpowiedzialny również za wtyczki.
Dobra, no to co mam zrobić?
No albo se tu zrób to ręcznie, jak umiesz w te tak zwane dockery,
bo tam dla każdej wtyczki trzeba instalować dockera, trzeba je jakoś ze sobą
komunikować i tak, że my nie umiemy.
To se przeinstaluj od nowa jako system.
No cóż, docker miał ułatwiać działanie i rzeczywiście uruchomienie czegoś
z dockera, czyli z takiej, i tu biorę to w bardzo duże cudzysłów, maszyny
wirtualnej, to jest generalnie proste.
Problem właśnie jest w tym Tomku, o czym mówisz, jak tam trzeba coś zmienić.
Słuchaj, bo okazuje się, że dodatek, że każdy dodatek, to jest program
uruchomywany w osobnym dockerze i te dockery wszystkie muszą się komunikować.
Tak, wiem o co chodzi.
I o to trzeba dbać i to trzeba zrobić samemu.
Potem się okazuje na przykład, że aby widać było bluetooth, to trzeba go trochę
inaczej uruchomić niż jak tam uruchomiłem z jakimś tam…
Innym parametrem.
Jakiś inny sposób. Compose’a ja go uruchomię jakoś tam inaczej.
No w każdym razie, no u mnie to tak średnio to chciało to działać.
Ale okej, uruchomię, ten bluetooth nawet jakoś tam zaczął funkcjonować.
Ale no summa summarum, dobra, instaluję jako system operacyjny,
dobra, zainstalowało się.
Tylko, że oprócz tego systemu, ten system nie będę miał.
To znaczy nie będę miał na przykład oryginalnego systemu, ten Raspberry OS,
żeby tam sobie zainstalować te rzeczy, które no się zainstaluje na Raspberry,
no bo czasami chciałoby się mieć jakieś linuksowe pakiety.
Ja bym przynajmniej chciał.
Więc teraz mam głównie tego, ten Home Assistant OS.
W międzyczasie jak tam ktoś, jest taki człowiek na YouTube,
który robi jakieś szkolenia z tego systemu,
który mówi, że no w ogóle to można zrobić na zasadzie w ogóle maszyny wirtualnej,
takiej pełnoprawnej maszyny wirtualnej i wtedy mamy na Raspberry system operacyjny,
potem mamy maszynę wirtualną i w niej siedzi sobie ten Home Assistant OS.
I że on to w ogóle poleca.
Mówię, na razie mam dość.
Na razie robię to, co tu, a jak mi będzie coś potrzebnego, to zrobię coś więcej.
Dobrze.
No to bym chciał na przykład, nie coś takiego, bo mi tego rzeczywiście często brakowało
w tych asystentach i różnych aplikacjach do pomiarów różnych i do urządzeń inteligentnych,
żeby móc dane z czujników eksportować do pliku typu CSV,
dlatego, że mogę w nim, mogę w ogóle tej historii się dowiedzieć,
dlatego, że tak w ogóle to jest obrysowane, są wykresy, które są niedostępne dla nas zupełnie.
No dobrze.
Podobno Home Assistant taki otwarty, można wszystko zrobić.
Zawsze można, jak się umie pisać programy.
Domyślnie Home Assistant nie umie eksportować historii do CSV,
ale można mu to poniekąd napisać, dodatek.
To znaczy, ktoś zrobił rzeczywiście coś, co to robi, tylko że robi to po pierwsze,
to znaczy ja sobie biorę i mówię, teraz chcę wyeksportować na przykład plik z czujniku,
załóżmy z użycia prądu, ale gdybym chciał to na przykład powiązać ze stanem działania klimatyzacji,
to muszę osobny plik wyeksportować z tym, kiedy na przykład jest klimatyzacja włączona,
wspomina fakt, że nie mam klimatyzacji, ale załóżmy, że bym miał, czy tam jakieś inne urządzenia,
nie wiem, pralka, suszarka, czy tam cokolwiek innego i to już będzie problem,
dlatego, że to już jest inny czujnik, inne jakieś tam rzeczy
i musiałbym potem osobnym programem połączyć te dwa pliki w jeden.
Tak. Poza tym domyślnie takie czujniki, które się zmieniają szybko, ta baza danych w Home Assistant
tam są tylko te dane trzymane przez 10 dni i w ogóle ludzie nie zalecają, żeby robić to,
bo to można sobie zmienić, ale żeby nie robić więcej niż 30 dni.
Niektórzy dawali radę utrzymać to przez trzy miesiące, ale generalnie im dłużej, tym to jest wszystko bardziej instabilne i to się sypie.
Pomijam fakt, na razie przynajmniej, że sama karta pamięci,
czyli ten nośnik, do którego Raspberry jest zaprojektowany tak podstawowo, żeby się uruchamiał,
mało co, znaczy wytrzymuje dość krótki czas takiego sposobu działania, jaki proponuje jej ten system na Raspberry.
Te wszystkie pliki bazodonowe są zapisywane na karcie co chwila.
U mnie na razie to są małe, to są po 10 mega, ale podejrzewam, że gdybym tych urządzeń tam dodał kilkanaście czy kilkadziesiąt jak niektórzy,
to podejrzewam, że ten plik był dużo większy.
W związku z czym ten plik jest zapisywany co chwila na tej biednej karcie pamięci, która w ogóle nie jest projektowana do tego typu rzeczy.
Ale a propos tych określeń, mamy encje, urządzenia, integracje, wtyczki, dashboardy, już nie pamiętam co tam w tej chwili jeszcze jest,
usługi, domeny, platformy, masę, masę różnego rodzaju określeń, które ciężko tak zrozumieć od samego początku, do czego to wszystko służy.
Trzeba się przekopywać trochę przez dokumentację.
Na szczęście do tej pory większość problemów, które miałem, to jakby nie miałem czegoś takiego, że ja coś mam, czego w sumie inni nie mają.
Tylko często niestety jest tak, że inni to mają, ale nikt nie znalazł na to rozwiązania.
Bo ten problem z eksportem, który ja mam, to też wiele osób chciałoby mieć coś takiego, że można by było eksportować sobie plik z danymi na przykład
i sobie te dane gdzieś tam potem na spokojnie obrabiać.
I to na przykład to nie jest z roku, bo chciałbym sobie sprawdzić, ile na przykład przez rok zużyłem prądu, no bo na przykład,
tak jak w tamtym roku weszło, wszedł u nas ten przepis, że 2 tysiące kilowatów na rok, no teraz 3 tysiące.
Ale chciałbym sprawdzić, na ile ja się w tym mieszczę, albo co mi zużywa najwięcej prądu, żeby zminimalizować ryzyko, że się nie zmieszczę w przyszłym roku.
No i gdybym miał od początku tylko 10 dni, to nie ma szans, żebym to sprawdził, a nigdy nie wiadomo, co kiedy wejdzie i co mi się kiedy przyda.
Więc na dobrą sprawę fajnie by było móc przynajmniej część danych zapisywać bardzo często, z dużą, no ciągle przynajmniej, tak mi się wydaje.
I tu jest jakiś problem.
Sporo rzeczy trzeba, na przykład jest taka integracja, czyli powiedzmy integrację to jest to coś, co pozwala na to, żeby jakieś kolejne rzeczy były, żeby Home Assistant był kompatybilny z czymś tam,
związanymi na przykład jakiejś firmy. No i jedną z tych integracji takich domyślnych jest, to się chyba nazywa system monitor, czyli żeby monitorował zużycie procesora, zużycie pamięci, temperaturę, zużycie dysku,
jakieś takie rzeczy, żeby wiedzieć czy ten mój biedny mały komputerek w ogóle jeszcze daje radę, to mówię zainstaluję to. Tego się nie da zainstalować, musisz wpisać w pliku konfiguracji następujące rzeczy.
I piszą, co mam wpisać, żeby mieć temperaturę, co mam wpisać, żeby mieć tam procesor, co mam wpisać, żeby mieć coś tam jeszcze. Ja to wszystko sobie wpisuję i mówię, no kurczę, ja to pierwszy raz edytuję, a to jest główny plik konfiguracyjny tego całego Home Assistanta, a co będzie jak ja to wpiszę i to mi się nie uruchomi.
Ok, teraz ja uruchamiam to po raz pierwszy i w sumie nic tu nie mam, jak to tu będę musiał jeszcze raz zainstalować. No to w sumie trudno, człowiek się uczy, ale na przykład gdyby to było za rok i na szczęście się tu okazuje, że jest jakieś takie narzędzie do weryfikacji konfiguracji.
Zdaje się sprawdza te wszystkie integracje i inne takie rzeczy, które ta konfiguracja otwiera. Czy to w ogóle pozwoli na uruchomienie tego systemu? No pozwoliło, więc sukces. I rzeczywiście to zadziałało.
Do tej pory mogę to sobie na razie tylko czytać w zasadzie i teraz rzeczywiście wiem, że ma na przykład temperatura procesora to jest 44,8 stopnia i 3% wykorzystania procesora, więc ten komputer to w sumie odpoczywa.
Czym ja to sprawdzam? Twiscajkiem, bo Twiscajk ma rzeczywiście obsługę home assistanta i to jest w ogóle fajne, dlatego że w Twiscajku mogę te wszystkie czujniki, które mam sprawdzać, w tej chwili tych czujników mam 47,
jedyne co tam zrobiłem to… to myśl jest w ogóle dodane informacji o wschodzie i zachodzie słońca w miejscu, w którym jestem i o pogodzie w miejscu, w którym jestem. To znaczy on na początku się pyta, gdzie ja w ogóle mieszkam?
Oczywiście jak chce i to nawet jest dostępne, to wykorzystuje OpenStreetMap, no i na tej podstawie on potem sobie pobiera, nie pamiętam skąd, prognozę pogody i informacje o wschodach i zachodach słońca, bo to się często w automatyzacjach przydaje.
I to działa chyba, znaczy w Twiscajku mi pokazuje kiedy będzie świt, kiedy będzie zmierzch następny, kiedy będzie noc, kiedy będzie dzień, jakieś takie rzeczy związane właśnie z oświetleniem i właśnie podaje prognozę pogody,
znaczy aktualną pogodę, przepraszam, nie prognozę, chociaż to chyba też można. Zainstalowałem aplikację na iPhona i mam tutaj też ileś informacji o moim telefonie, mam moją lokalizację iPhona, mam informacje jakie mam karty z nim zainstalowane, mam informacje, że jestem połączony przez Wi-Fi,
mam ten sit jest pokazany, mam napisane ile mam miejsca zajętego, ile wolnego i to mi czyta SwissCake. Ile kroków mi ten iPhone wykrył, czy mi się ładuje, czy mi się nie ładuje, procent baterii, średnia prędkość, ile poziomów przeszedłem, podejrzewam, że takich pięter jakby, tak mi się wydaje.
Ile w sumie przeszedłem, czy jestem teraz w ruchu, czy stoję chyba i moja małżonka też tam dodała swoją aplikację i też widzę te same rzeczy u niej, przy czym to też jest dość ważne, że każde z tych rzeczy można, to nie jest tak, że aplikacja już ma dostęp do wszystkiego i chce pokazywać wszystko, to na wszystko można się zgodzić, można się nie zgodzić.
Nie tylko jakby z poziomu iPhone, ale z poziomu też aplikacji, które parametry ma wysyłać, których parametrów ma nie wysyłać. I wszedłem w ogóle sobie w te, o Jezu jak to się nazywa, integracje, żeby sprawdzić w ogóle ile tam jest tych rzeczy.
Czyli ile jest jakby tych systemów, firm i różnych usług, do których on się może podpiąć. Około dwóch tysięcy, tego jest bardzo dużo, dziewięćdziesięciu paru procent nie znam, przy czym tam jest na przykład, nie wiem, norweski system transportu publicznego gdzieś tam.
Węgierski system jakiegoś tam oszczędzania wody, nie pamiętam, no były jakieś tego typu rzeczy. Kurs Bitcoina, jakieś garaże w Amsterdamie, nie wiem dokładnie o co chodzi, bo ja pewnie wczytywałem się w to.
Więc tam są najprzeróżniejsze usługi, z którym on się może połączyć. Ale to nie koniec, bo jest jeszcze coś takiego, co można zainstalować, co nazywa się Home Assistant Community Store, czyli wtyczki, przepraszam, nie wtyczki, tylko integracje i różne rozszerzenia wyglądu, tworzone przez użytkowników.
Nie wiem ile tam tego jest, ale tam chyba tego jest jeszcze więcej. I sobie to wszystko przejrzałem. Jest na przykład RH Voice, można mieć RH Voice’a w systemie, co pozwala na przykład na to, że jakiś parametr może być RH Voice’em odczytywany na jakichś głośnikach moich domowych albo zapisany do pliku jakiegoś tam.
Więc no różne, różniste rzeczy są możliwe. Telegram jest na przykład, można mieć boto na telegramie i tam pewnie coś tam też z tą drogą.
Powiadamiać pewnie nas może na przykład o czymś. Albo może i w drugą stronę jakieś komendy.
Znaczy bot to bot. Boty działają w dwie strony. Na Whatsappie też można coś robić. Na Messengerze. Tych systemów klimatyzacji to tam w ogóle jest bardzo dużo. Nie to, że wszystkich. No mówię, dziewięćdziesięciu paru procent nie znam tych wszystkich usług, które tam są powymieniane.
Tam są najprzeróżniejsze firmy. No i co, na razie trochę jestem na samym początku tego wszystkiego. Nie wiem tam co do czego służy jeszcze za bardzo. Natomiast to na pewno nie jest tak tego rodzaju system, że wchodzimy, tam instalujemy to, robimy sobie z palca 17 różnych automatyzacji i działa.
Absolutnie to tak nie jest. Chciałem sobie na przykład dodać nasze urządzenia inteligentnego domu. Pralkę, zmywarkę, odkurzacz. Akurat tak się składa, że my te urządzenia mamy w kilku różnych filmach. Odkurzacz Rumba, pralka Samsung, suszarka LG, zmywarka Bosch. To są wszystko różne chmury.
Dobrze, jak dodać na przykład LG. LG to jest tylko ta stworzona przez społeczność, tego jeszcze chyba nie próbowałem akurat. Nie pamiętam dlaczego, tam był jakiś problem. Ale Home Connect, czyli Bosch.
Wchodzę na stronę Boscha, trzeba utworzyć konto deweloperskie. Aha, wiem co było na LG. Na LG było tak, że nie można, jeżeli się miało konto założone przez profil społecznościowy, to to nie będzie działać.
Trzeba założyć nowe konto, odpiąć ze starego urządzenia, przepiąć na nowe, tworzone jakby nie przez profil społecznościowy i dopiero cokolwiek robić. W Home Connect trzeba było utworzyć to konto deweloperskie, tam się pisało na przykład jakieś doświadczenie programistyczne, coś tam jeszcze, w jakim projekcie się bierze udział.
I na koniec kapcza. Bez alternatywy jakiejkolwiek innej. Nie było u mnie nikogo kto by widział, więc na razie zrezygnowałem. Dwa urządzenia mamy. Nie pamiętam co było z Samsungiem, tam też był chyba jakiś problem.
Na deser została rumba, bo rumba została, o wykryliśmy, że masz rumbę, naciśnij przez 20 sekund przycisk do sprzątania i to się powinno dodać. Dobra, skoro to takie łatwe, to już lecę. Poleciałem, nacisnąłem, coś zagrało, wracam.
Nie można było uzyskać hasła, więc je wpisz. No dobra, podobno to jest jakby dość bezpieczne, więc spoko, wpisuję, ale nie to hasło.
To się okazuje, że to jest specjalne hasło, które trzeba sobie wygenerować. A w jaki sposób? Trzeba sobie zainstalować skrypt Pajtonowski z GitHuba, w tym skrypcie wpisać nazwę użytkownika i hasła i on wygeneruje taką nazwę użytkownika, hasło specjalne do odkurzaczy.
Bo to jest w ogóle jakieś nieoficjalne wszystko, iRobot tego nie udostępnia i w ogóle, i w ogóle. Jeszcze tego nie robiłem. No i co zostało? Głośnik Google Home, który on się lubi wykrywać we wszystkim, bo on chce, żeby przez niego różne rzeczy odtwarzać, więc w ogóle on się na dzień dobry wykrył.
Jest, jest, Google Home, czy chcesz go użyć? Tak. No to możesz. Co mi jeszcze zostało? Zostały mi jeszcze jakieś FUBAR, VLC, które on tam wykrywa, bo mam serwer DLNA do FUBARA zainstalowany, to go wykrył.
Też VLC Core, jak on jest uruchomiony na komputerze, to go wykrył, że jest takie rzeczy multimedialne. No i Spotify. Spotify to właśnie udało się. Rzeczywiście podłączyłem, też trzeba było otworyć konto, ale to zrobiło się bez problemu.
No i na przykład mogę sobie teraz Twiskake’a, którego dodałem, tam trzeba było utworzyć token, to trochę jak na Twitterze. Tworzyło się token, tylko to jest taki token dla konkretnej aplikacji, wkleja się ten token do Twiskake’a i to działa.
Rzeczywiście w Twiskake’u po pierwsze widzę te wszystkie urządzenia, po drugie jak jest na przykład głośnik, to mogę go zmniejszać, zwiększać głośność. Na Spotify’u mogę poprzedni, następny utwór sobie włączać i w sumie na razie tyle, bo jeszcze nie mam za dużo innych urządzeń, bo się potykam o różne rzeczy.
Natomiast to na razie tak wygląda, że to połączenie z różnymi aplikacjami, to nie jest tak, że to się po prostu klika i to jest, tylko właśnie tam trzeba robić różne rzeczy.
Tworzenie tych automatyzacji to też na przykład jak są jakieś przykłady jak to zrobić, nawet taki prosty przykład, no na początku tam wybierz encję czy coś, w którym ma to dotyczyć, my wybierzemy, załóżmy coś, więc wpisujemy w skrypt to i to.
A gdzie ja mam to znaleźć? No pewnie gdzieś indziej to napisali, ale gdzie to nie wiem do tej pory. Może gdzieś to widziałem, ale już nie pamiętam, bo po prostu jest tyle tych różnych tam rzeczy, że póki co nie pamiętam, gdzie można to wszystko sprawdzać.
Być może właśnie jest jakieś miejsce, być może też jest tak, że są jakieś do tego, nie wiem, może nie dotarłem do jakiegoś podręcznika do tego, to też jest możliwe, może to gdzieś jest, ja o tym nie wiem i potykam się o własne szturówki, bo nie zrobiłem jakiejś elementarnej rzeczy, to też być może.
Ale wydaje mi się, że to właśnie nie jest tak, że to trzeba trochę nad tym posiedzieć, trochę pomyśleć i nawet właśnie taki użytkownik, nie chcę o sobie powiedzieć, że jestem jakiś mega zaawansowany, ale też nie jestem takim użytkownikiem, który w sumie włącza komputer, umie na nim zrobić trzy rzeczy i tyle.
No bo gdybym był takim użytkownikiem, jakbym zobaczył to, co trzeba zrobić w Home Assistant’cie, to bym powiedział i bym to wyłączył, bo to niestety tak to wygląda, przynajmniej z perspektywy człowieka niewidomego, bo czasami też są na YouTubie jakieś tam przykłady, gdzie jest to pokazane.
Zainstalujcie sobie to i tu macie coś takiego, tu sobie kliknijcie, jakby standard. Także nie wiem, być może jest gdzieś społeczność niewidomych użytkowników Home Assistant’ego, nie wiem jeszcze. Tam są właśnie te skórki, znaczy skórki, rozszerzenia widoku.
I co ciekawe, ta historia, z której można wyeksportować to do CSV, to jest rozszerzenie widoku, więc te rozszerzenia mogą być dość, mogą mieć bardzo, to nie są tylko kwestie dotyczące widoku, ale one mogą robić konkretne operacje też na dysku, na plikach, na tych wszystkich obiektach.
Więc różne rzeczy tam mogą dużo w obrębie tego Home Assistant’a, to pewnie też dlatego to jest tak pozamykane w formie systemu operacyjnego, żeby te wszystkie rzeczy nie mogły za dużo nam z komputerem zrobić.
Bo gdyby ktoś niefajnie nam zaczął pisać, nie wiem, coś, co ma by nam wykradać jakieś hasła, podsłuchiwać wszystko w domu, no to byłoby pewnie niefajnie. Choć nie wiem, czy nie można tak mimo wszystko zrobić. Też tam ludzie mówią, żeby robić jakieś ograniczone sieci na takie właśnie asystenty i różne rzeczy, żeby w razie…
Jakąś wydzieloną najlepiej.
Jakąś mieć wydzieloną sieć, żeby nie było z tym problemów. Także to jest z tym troszkę zabawy i to trzeba trochę posiedzieć, nawet właśnie, gdy się jest takim użytkownym.
Podejrzewam, że są ludzie, którzy by to zrobili szybciej niż ja. Na pewno są ludzie, którzy by to zrobili szybciej niż ja i się mniej potykali. Natomiast na pewno wiem, że są ludzie, którzy by sobie z tym nie poradzili.
A z drugiej strony to dla nas naprawdę jest duża szansa na udostępnienie różnych rzeczy, dlatego, że po prostu spora jest niestety szansa na to, że jakieś urządzenie, które mamy będzie miało niedostępną aplikację.
Także…
Albo, że będą jakieś zmiany w tej aplikacji, że ona nagle przestanie być dostępna. Kiedyś to urządzenie kupiliśmy z myślą, że coś będzie.
Na przykład już są chociażby Samsung na iOS-ie, który od niedawna ma duże, znaczy duże, konkretne problemy z dostępnością. Właśnie Home Assistant ma swoją aplikację na iPhony i Androidy.
Póki co aplikacja iPhone, o to też w sumie warto o tym opowiedzieć, zawiesiła mi się w najdziwniejszy sposób, jaki widziałem. Słuchajcie, nie wiem, czy wy mieliście coś takiego, nie wiem, czy to w ogóle jest możliwe.
Pewnie jest, ona sobie gdzieś zapisuje stan, w którym jest. W każdym razie, w pewnym momencie gdzieś mi się ta aplikacja chyba… Nie, nawet nie zawiesiła.
Wszedłem sobie gdzieś, w jakiś dodatek, w jakiś opis dodatku, wyszedłem z aplikacji, no bo akurat mi było potrzebne coś innego, zapomniałem o tym wszystkim.
Wchodzę następnego chyba dnia w aplikację, nadal widzę, że jestem w opisie tego dodatku. Dobra, to chcę wyjść wstecz.
Klikam wstecz raz, drugi, trzeci, czwarty, nie działa.
Potarcie ekranu też nie działa.
Znajduję przycisk na ekranie, wyłączam voiceover, też nie działa.
Zamykam aplikację, w sensie dwa razy home i home assistant zamknij.
Otwieram z powrotem, jestem w tym samym miejscu.
Uruchamiam ponownie iPhona, też jestem w tym samym miejscu i nie mogę nacisnąć przycisku wstecz.
I do tej pory nie wiem, co z tym zrobić.
Mam dziwne wrażenie, że pomogłoby co najwyżej usunięcie danych tej aplikacji.
Czego się nieraz robi, czyli właściwie trzeba zainstalować od nowa.
A, bo tu nie da się jak w androidzie, że usuń dane.
A próbowałeś np. wyłączać internet cały na telefonie? Gdzieś się stan zapisał tej aplikacji.
Jakiś dziwny sposób.
No tak, można by przejść w tryb samolotu.
W tryb samolotu, włączyć software i jakiś error wyskoczy.
Mogę się obawiać, że lokalnie.
No w każdym razie, tam w ogóle jest np. tak, że jak naciskam…
Czasami jak w niektórych miejscach naciskam wstecz w przeglądarce, to przeglądarka mi się sypie.
I muszę wejść do przeglądarki, czy przywrócić strony.
Tak, jestem na tej samej stronie.
I muszę wtedy inaczej jakby wychodzić np. wchodząc do menu, bo wstecz wywala przeglądarkę.
Także to są różne takie dziwne rzeczy w tej aplikacji.
Zresztą w ogóle jest np. tak, że jedno menu jest zrobione inaczej, drugie jest zrobione inaczej.
W sensie jedno to jest lista. Enter, wchodzę na listę i sobie wybieram rzeczy.
Potem druga, inny rodzaj menu jest wybierany jako…
To jest okłaszane rzeczywiście jako elementy menu i nie trzeba wychodzić z typu przeglądania.
Tam widziałem gdzieś jeszcze zakładki, więc tam są różne elementy takie powiedzmy à la menu,
które są zupełnie różne, ogłaszane przez czytnik ekranu.
Strona główna to też jest ileś różnych rzeczy, z którymi w sumie nie wiadomo,
czy coś można zrobić, czy coś nie można zrobić, czy czegoś nie można zrobić.
Tam się mieszają informacje.
Wschodzie, zachodzie słońca jest.
Taka też strona demonstracyjna, gdzie jest po prostu ileś różnych rzeczy na jednej stronie.
Światło, zgaź, zapal, temperatura wewnątrz, wschód słońca o tej i o tej, żaluzje, odsłoń, zasłoń, coś tam jeszcze,
stań czegoś tam, potem jakiś telewizor i to wszystko po prostu jest wymieszane na stronie głównej.
Ani nie ma nagłówków, ani nie ma niczego.
Dość trudno się po tym wszystkim poruszać.
To wszystko można sobie konfigurować.
Tylko znowu, typ widoku, tych typów widoku jest ileś.
Są jakieś karty, jest coś tam jeszcze, jakaś kamera, którą się nie wiem, chyba jeździ.
Są ustawienia tych kart, jest ileś różnych rzeczy, które oczywiście pozwalają na to, żeby to wszystko sobie skonfigurować.
Natomiast nie widzę póki co takiego jakiegoś fajnego miejsca, w którym można było to wszystkim poczytać,
sprawdzić, gdzie to się robi, jak to się robi, co to de facto zmieni, zwłaszcza dla niewidomych.
A jeszcze w tym wszystkim są te rozszerzenia, których jest też kilkaset chyba różnych.
Oczywiście w żadnym nie jest napisane, jak to będzie działało z czytnikami ekranu.
Więc tu trochę nie wiadomo, gdzie się ruszyć, bo wszędzie jest ileś różnych menu, zapytań, terminów nieznanych.
Gdzie nie wejdę, to w zasadzie muszę zrobić stop, teraz Google, szukamy.
Także tak, już w pewnym momencie mówię a propos tego eksportu do TSV.
Dobra, poproszę chata QPT, żeby mi to napisał.
Zobaczymy czy napisze, bo możliwe, że się uda.
Czat napisał, piękny program, w konfiguracji masz w razie czego do ustalenia jakie sensory, jakie coś, jak to się robi, ile ma to zapisywać, ileś różnych fajnych rzeczy było.
Super, jeszcze mi dał instrukcję, ten plik wklej tu, tamten plik wklej tam i w ogóle będzie super.
Wklejam, rzeczywiście są te rzeczy, gdzie on mówi, to one tam są.
Wklejam, uruchamiam, sprawdzam poprawność konfiguracji.
Nie działa, bo tam w linii 23, to tam platform, nie wiem, coś, jest jakiś błąd.
No to piszę chatowi, że tu jest błąd, mi pokazał w konfiguracji.
Albo ten skrypt to sobie robi swoją platformę i jak on to tak robi, to nie można wtedy dodawać czujników z platformy typu system.
Aha, to co zrobić?
No ja ci pokażę, on mi coś tam pokazał, że trzeba było zdefiniować jakieś sensory w skrypcie, jak to mam zrobić?
No to w zależności od typu sensora, który chcesz zrobić, bo to się różni dla różnych.
Aha, no to już podziękowałem, bo jak już mi zaczął takie rzeczy robić, to ja nie wiem, ile tam jeszcze błędów by było po drodze.
W każdym razie w tę stronę też się nie udało.
Być może dlatego, że ja mu to tak napisałem z marszu, być może ja mu powinienem to rozbić na szereg podproblemów,
tylko nie umiem, bo nie wiem jakby z której strony to ugryźć.
Czy to pisać jako integrację? Czy to pisać jako coś jeszcze innego?
Jak to powinno być napisane? Jako skrypt, automatyzacja, scena, integracja, co?
No i takie mam na razie historie.
Ten Home Assistant mam od kilku dni, przy okazji też mam Raspberry Pi od kilku dni.
Dzisiaj mi przyszła obudowa, ja w ogóle też się bałem na przykład, że nie będzie można włożyć za bardzo po niewidomemu tego komputera do obudowy,
że tam w ogóle będą z tym same problemy, ale na szczęście akurat, jeżeli o to chodzi, to jestem pozytywnie zaskoczony,
bo to jest mniej więcej ten poziom, co wkładanie dysku do obudowy.
Są cztery śrubki, te śrubki trzeba przynajmniej w tej mojej obudowie.
Są cztery śrubki, jest taki kawałek taśmy dwustronnej i to jest taki termiczny kawałek, żeby na chłodzeń to się nakleja.
Domyślałem się, że to co się nakleje to jest procesor, bo to jakby można włożyć tylko w jeden sposób do obudowy,
bo po prostu tam są wycięte złącze na USB, na port, na jakieś takie rzeczy.
Po prostu mam dwie części obudowy, jakby górę i dół, wkładam sobie dysk jakby w jedną z nich,
ja włożyłem akurat w górę, włożyłem śrubki tak, żeby one przeszły przez otwory też w dysku.
W dolnej części były też otwory na śrubki, to trzeba było skręcić tymi czterema śrubkami w dwóch rogach i w dwóch,
no nie środkach, tylko tak, nie wiem, może w jednej trzeciej obudowy, tak mniej więcej i już. I to wszystko.
Także to jest naprawdę…
W porównaniu do home assistanta to był łatwiejszy kawałek drogi.
Tak, to w ogóle, no wziąłem się do myśli, że to pewnie tak trzeba zrobić i to zrobiłem.
No to jest naprawdę, ja się naprawdę bałem, że to będzie coś skomplikowanego, wkładanie jakiejś obudowy, zakładanie coś,
może jakieś, nie wiem, nie wiem jak te obudowy trzeba będzie składać, co będzie trzeba wkładać jakoś, nie wiem, nie wiem co z tym robić.
Okazuje się, że nie.
Tam jest no w ogóle złące czterdziestopinowe, tak wcześniej myślałem dla niewidomych, to to będzie w ogóle niepewnie do obsługi,
te piny malutkie, pewnie nie będzie można tego za bardzo wyczuć.
Nie, okazuje się, że te czterdzieści pinów jest w dwóch rzędach po dwadzieścia, to wszystko ma centymetrów, no ja wiem, pięć, sześć, więc ok,
z jednej strony dwadzieścia pinów na pięciu centymetrach, no to mamy co 0,25 milimetra średnio taki pin,
ale z drugiej strony, jak sobie tak powoli jadę sobie jakimś czymś, albo nawet teoretycznie delikatnie paznokciem po pinach,
to mogę sobie polić jeden, drugi, trzeci, czwarty, piąty, powiedzmy.
One są w dwóch równoległych rzędach i to jakby jest możliwe, więc tutaj mam nadzieję, że nie powinno być większych problemów.
Nie wiem, co prawda, ale chyba pozwala ten Home Assistant na wykorzystywanie tego złącza wielopinowego,
już widziałem, że są jakieś, że są bramki tej łączności Zigbee, bo te wszystkie też urządzenia można na kilka standardów jakby łączyć,
można je połączyć jako do Wi-Fi po prostu, tylko że Wi-Fi to też nie jest przystosowane do dużej ilości urządzeń, które pobierają bardzo mało danych.
Wi-Fi z tego co wiem, to jest do małej ilości urządzeń pobierających dużo danych, albo i mało, ale w każdym razie małej ilości urządzeń.
Tak, bo się robi śmietnik potem w powietrzu, niestety.
Jeżeli się ma powiedzmy jakieś przełączniki ścienne, piloty, żarówki, to tych urządzeń podobno spokojnie można pod 50 sobie mieć w domu.
50 urządzeń Wi-Fi to zatka każdy router podobno, a w każdym razie dużo routerów, a na pewno nie będzie to tak zupełnie bez problemu.
W każdym razie ten protokół Zigbee podobno właśnie jest projektowany do tego typu zastosowań, to w ogóle jest jakoś pomyślane z tego co wiem w taki sposób,
że te różne urządzenia, które są zasilane na prąd to bardzo często są czymś w rodzaju takich repeaterów, czy takich przekaźników sygnału.
Jeżeli router nie starczy na całe mieszkanie, to jeżeli sobie zamontuje po żarówce w każdym pokoju, to ta żarówka z przekaźnikiem tego sygnału i wtedy jest podobno całkiem nieźle,
jeżeli chodzi o ten zasięg i te wszystkie różne drobne elementy się tam łączą ze sobą.
Jest tylko jedna bramka, którą się łączy z Wi-Fi, czy tam, no właśnie, są podobnie takie bramki, które w ogóle się łączy nie z siecią, tylko z pinami wraz z pery.
I wtedy one są, w ogóle jakby nie zajmują tego połączenia. Bardzo to są ciekawe kwestie.
No i tak, tam są, nie wiem jak to się łączy, czy to się lutuje, czy tam są jakieś kabelki, które się jakoś wpina, nie wiem.
Bo te piny tak wystają z tego Raspberry na, nie wiem, centymetr, może niecały. One są takie dość długie.
Także, no, ciekawe to wszystko jest, natomiast no rzeczywiście, no to z tym roboty to trochę jest. No zobaczymy co powiem po miesiącu lub po roku.
No to słuchajcie, to jeszcze tak zupełnie zmieniając temat na koniec, w końcu zakładka, ta pierwsza chyba w Whatsappie, ten status cały,
może nam się zacząć do czegoś przydawać, powolutku, do czegoś sensownego, dlatego, że przynajmniej u mnie, nie wiem jak u was, ale zaczęły się pojawiać kanały.
W Whatsappie.
O, nie widziałem, nie widziałem jeszcze na przykład, ale jaki przykład, jaki kanał tam?
Wiesz co, na przykład z polskich, to znaczy z polskich, to szczerze powiedziawszy, tam specjalnie na razie jeszcze nie widziałem niczego sensownego.
Tak globalnie to na przykład zasubskrybowałem sobie Netflixa. Ktoś z Polski był związany chyba z piłką nożną.
Jeszcze nie widziałem opcji tworzenia tych kanałów jako takich i to się chyba w klienckim Whatsappie nie da tego nawet zrobić, z tego co czytałem,
a będę chciał się tym pobawić, bo wygląda na to, że tu trzeba jednak mieć konto Whatsapp Biznes.
Biznes.
Tak i tu dopiero będzie można w jakiś sposób z tego skorzystać, no ale tak czy inaczej, no wygląda na to, że będzie to jakoś też i w Polsce ruszać.
Wygląda to tak jak taki standardowy czat w Whatsappie, tylko, że oczywiście tam są wiadomości wysyłane do nas, są wysyłane wiadomości, jakieś obrazki.
No i tyle na chwilę obecną mogę stwierdzić, żebyśmy w ogóle mogli zacząć z tego korzystać, to musimy zaakceptować regulamin.
Ale jest na razie w pistach tych kanałów.
Wiesz co, to jest kilka rzeczy, które można sobie zaśledzić, jest jakaś wyszukiwarka nawet tych kanałów i można się tam jakoś porozglądać.
Na razie, tak jak mówię, zasubskrybowałem sobie jeden i jakoś specjalnie tego tematu jeszcze nie zgłębiałem, ale widzę, że jest, widzę, że to się pojawiło, no i co dalej to zobaczymy.
Ciekawe, czy na przykład udałoby nam się jako Tyflopodcast.
No to może być kolejne fajne medium, tak na przykład wrzucać informacje o nadchodzących audycjach.
No właśnie, właśnie taki mam pomysł, więc będę chciał się spróbować przynajmniej z tym jakoś zmierzyć, a czy cokolwiek się uda to zobaczymy.
Jasne. No to w takim razie, żeby tradycji stało się zadość, ja mam dla Was dźwięczek, bo przekroczyliśmy 4 godziny.
No to Pawle co?
No proszę o prawo do transmisji dźwięku. Ja myślę, że ten dźwięk nawet Was zaskoczy, bo on mnie też zaskoczył, kiedy go pierwszy raz usłyszałem.
Jest to niesamowicie ciekawa sprawa, no bo mówiłem Wam, że byłem w Grecji i z tym jest poniekąd związany jest ten dźwięk.
Udostępnianie. Uwaga. Oto dźwięk.
No i jakiś ptaszek.
Potrzeba jeszcze raz.
Brzmi jak ten wistel taki.
Tak, już woda się nalewa.
Tak, blisko, blisko, blisko. No bo to taka jest zasada działania tego, co ja pokazuję.
Właśnie przez wodę, napełniane wodą, tak jak ten ptaszek, napełniany wodą, taki gwizdek.
A był to pierwszy w starożytności powstały alarm przeciwłamaniowy.
Tak, właśnie taki system, takich ptaszków tam było, takich naczyń połączonych.
Dużo, dużo, dużo zainstalowanych przy drzwiach i one były oczywiście jakimiś sznurami.
To było mega prymitywne i tak dalej.
To było ze sobą jakoś tam powiązane, że kiedy złodziej chciał się wkraść na przykład do jakiejś świątyni któregoś z bóstw greckich,
no to otwierał drzwi, pociągał za sznurki i zaczynało ćwierkać.
I to jest zasłyszane w Muzeum Technologii Starożytnej Grecji.
Muzeum, w którym pokazywane są takie różne wynalazki starożytnych Greków.
Na przykład ja dźwigałem ciężki kamień za pomocą takiego pierwszego dźwigu,
który jest po prostu serią tak naprawdę drewnianych jakichś w ogóle bali,
jakiegoś tam odlewanego z czegoś odważnika, którym się mocowało w ogóle ten kamień linkami.
No naprawdę było lekkie w transporcie, jak się rzeczywiście ciągnęło taki kamień,
ja wcale nie odczułem tego ciężaru, a wytaszczyłem cały kamień gdzieś tam na górę.
Także było to niesamowite.
Widziałem też pierwszą fontannę, to co Grecy uznawali za magiczną fontannę.
Pierwszy automat na wodę, czyli taki też system, gdzie drachma spadała po różnych tam blaszkach w środku,
znaczy no blaszkach, no po jakichś tam metalowych czy konkretnych jakichś,
może nie metalowych, ale konkretnych jakichś tam już kondygnacjach
i uruchamiała też jakiś system, że z kranu poleciało nam trochę wody do kubeczka
i tak mogli Grecy kupować wodę za pieniądze.
Były też instrumenty muzyczne, lira na przykład, jakieś bębny
i to ponoć był dopiero mały, mały odsetek tego, co my widzieliśmy w tym muzeum
i słyszeliśmy i mogliśmy przetestować, a ja miałem okazję też troszeczkę właśnie ponagrywać.
Jest też sklep z suwenirami, można sobie kupić takiego ptaszka na wodę,
jako taki mini, mini alarmik antywłamaniowy, więc jest tam też,
można było tam też zobaczyć sobie jakieś artefakty związane z tym pierwszym komputerem greckim,
to co ostatnio, to się jakoś nazywał ten system, ten mechanizm,
teraz to z Lego stworzono jakby replikę tego, ostatnio czytałem.
No było to bardzo ciekawe miejsce, zwłaszcza, że sami Grecy go nie znali,
Greccy niewidomi, w ogóle jak rozmawiałem z znajomymi w Grecji o tym,
to tak mało kto o tym wiedział, że to istnieje.
Oni też nie wiedzieli w muzeum, oni byli otwarci na niewidomych,
ale zasadniczo nie mieli jakichś doświadczeń wielkich.
No i się okazało, że im się tak spodobała nasza wycieczka,
że chcą z nami dalej rozmawiać, jak można by jeszcze dostępność ulepszać
i no odkryliśmy bardzo fajne miejsce w Atenach, więc gdybyście chcieli odwiedzić,
to na ulicy Pindaru w dzielnicy Kolonaki jest Muzeum Starożytnej Technologii.
Pięknie, to ciekawe rzeczywiście co mówisz.
W życiu powinienem patrzeć do alarmu.
Moje skojarzenie było zdecydowanie bardziej radiowe, bo tak mi się kojarzyło to,
jak kiedyś były te różne stacje, które miały sygnały takie,
zanim rozpoczynała się transmisja, to takiego ptaszka to miało zdaje się raj,
kiedy jeszcze mieli polską sekcję.
Nie znam tego sygnału, ale rozumiem.
Pewnie nie do końca takiego, ale właśnie mniej więcej podobny dźwięk.
Mówimy, że kos był chyba z sygnałem wywoławczym w stacjach numerycznych,
ale Rumunii, z tej rumuńskiej stacji numerycznej,
więc gdzieś tam ten motyw ptasi się gdzieś tam w tych rejonach przewijał.
Tam chyba utwór, który się akurat tak nazywał.
O, racja. Nie było tam odgłosu gdzieś coś tam w tle?
Nie, chociaż ciekawe, ostatnio obserwuję taki kanał na YouTubie,
radiowto z Anglii i ktoś ze stacji kubańskich ostatnio przez przypadek
zaczął puszczać jakieś dźwięki ptaszków pod swoimi transmisjami
i się zastanawiałem czemu.
O, ciekawe.
Tu się może umówili na jakieś ptaszki.
Może. No dobrze, słuchajcie.
Mamy nowy dzień od 20 minut.
To chyba najwyższa pora, żeby kończyć.
Też mi się tak wydaje, chyba, że ktoś coś znalazł jeszcze.
Ale chyba nikt nic nie znalazł.
To w takim razie ja tylko przypomnę, że dzisiaj Paweł Masarczyk,
Piotrek Machacz, Michał Dziwisz i ja, czyli Tomek Bilecki
byli z nami w audycji.
Numer 202 zdaje się.
No i dobrej nocy i do usłyszenia.
Za tydzień na pewno nie na żywo.
Zobaczymy, czy uda nam się coś stworzyć, że tak powiem, z puszki,
ale na pewno za dwa tygodnie na żywo będziemy.
Także do usłyszenia.