TyfloPrzegląd Odcinek nr 199 (wersja tekstowa)

Pobierz napisy w formacie SRT
Pobierz napisy w formacie VTT
Fundacja Instytut Rozwoju Regionalnego prezentuje Tyflo Podcast.
199. audycja Tyflo Przeglądu. Wielka, wielka gala, można powiedzieć, zbliża się wielkimi krokami.
Jeszcze nie wiemy co się będzie działo.
Coraz bliżej 200.
Tak jest. Jeszcze nie wiemy co się będzie działo na 200. audycję Tyflo Przeglądu, ale jeżeli byście mieli jakiś pomysł, to zapraszamy do przedstawienia jakichś propozycji w komentarzach na Facebooku, na YouTubie, gdzie jesteśmy.
Dzisiaj skład raczej skromny.
To jest Piotrek Machacz, Michał Dziwisz i ja, czyli Tomek Bilecki. No i chyba czas przedstawić co się dzisiaj będzie działo, co uczyni jak zwykle Michała.
W tym tygodniu w Tyflo Przeglądzie.
Canute Console, komputer z wielowierszowym monitorem brajlowskim.
Inteligentna opaska pomoże niewidomym pływakom.
Dwa nowe moduły do Hammer Spoon ułatwiające pracę z Maciem.
Do 15 września gminy składają wnioski w programie asystenta osobistego.
Mówiący i niedrogi voltomierz.
Wirtualny wolontariusz w Be My Eyes zaczyna się pojawiać wśród polskich użytkowników.
Brajlowskie klocki Lego ogólnie dostępne.
From Your Eyes, kolejna aplikacja opisująca zdjęcia.
Arxiv testuje publikowanie prac w formacie HTML.
Członkowstwo w Calibri Audio od września płatne.
Nowa wersja skryptów do Reapera dla Joes.
Firefox 117 poprawia ładowanie zawartości na YouTubie.
Wyszukiwanie tekstu na Mastodonie bierze pod uwagę również teksty alternatywne na obrazkach.
Przeprojektowany WhatsApp na Maca dostępny dla wszystkich.
Warpshare, implementacja AirDrop na Androida.
FFmpg Explorer, kolejna strona ułatwiająca obsługę tego narzędzia.
Sztuczna inteligencja trafia do Google Workspace.
Apple zapowiada prezentację nowego sprzętu 12 września.
YouTube pozwoli szukać piosenek nucąc.
Facebook, Instagram i TikTok pozwolą Europejczykom wyłączyć algorytmy.
Wszystko to, a pewnie jeszcze więcej już za chwilę. Zaczynamy!
I zaczynamy od ciekawej nowości, czyli od komputera z wielowierszowym monitorem brajlowskim.
To Piotrek dla nas przygotował. W ogóle dzisiaj Piotrek będzie miał dużo informacji.
Dokładnie, więc właśnie zacznijmy od tego urządzenia, które nazywa się Kanyoot Console.
I tutaj już nazwam Wam, może coś mówić, może pamiętacie nazwę Kanyoot,
bo to jest właśnie monitor brajlowski, który już kilka dobrych lat się rozwija.
No i to jest właśnie urządzenie, które potrafi wyświetlać wiele linii brajla jednocześnie.
Dokładnie, to jest 10 linii, czy 9, teraz się pewnie pomyla o tym jedną linię, ale dobra.
To jest urządzenie, które odświeża się dosyć wolno, no ale właśnie pozwala nam takich linii 40 znakowych wyświetlać.
No i dzięki temu oczywiście możemy czytać sobie dłuższe teksty, ale też przedstawiać różne informacje graficzne.
I dlatego właśnie między innymi powstało to urządzenie.
Urządzenie właśnie nazywa się Kanyoot Console i to jest połączenie właśnie tego monitora Kanyoot 360,
no bo ma w sumie 360 komórek, z wysuwaną klawiaturą, z 13-calowym ekranem, z głośnikami.
A sercem całego urządzenia jest Raspberry Pi 400, czyli to jest po prostu Raspberry Pi 4 w obudowie z wbudowaną klawiaturą QWERTY.
No i co to urządzenie nam pozwala?
No oczywiście przez to, że ma ten monitor brajlowski i nie tylko, no to właśnie może nam wyświetlać różne informacje graficzne.
I tutaj też się na pewno rodzi pytanie, po co nam też właśnie oprócz tego monitora brajlowskiego jeszcze taki zwykły 13-calowy ekran.
No tutaj producent tłumaczy, że przez to, że urządzenie ma mieć takie zastosowania też edukacyjne,
to generalnie oni to nazywają jako stacja robocza dla studentów na przykład,
że możemy jednocześnie pracować właśnie osoba niewidoma z osobą widzącym,
no i obie te osoby mogą dosłownie oglądać to samo.
No i dlatego właśnie to urządzenie ma ekran,
tutaj można sobie przełączać między brajlem komputerowym i brajlem takim książkowym, literackim.
No i oczywiście to wszystko działa w środowisku Linux,
dokładnie to jest nawet w ogóle Linux działający z terminala, z wiersza poleceń.
Może to być bardziej skomplikowane, natomiast zostało to urządzenie,
zostało zintegrowane z różnymi aplikacjami autorskimi i nie tylko.
Właśnie tak, to jest wszystko na podstawie systemu Raspbian,
czyli tego systemu, który jest tworzony dla Raspberry Pi,
ale oprócz samego tego systemu,
oczywiście jest zainstalowany czytnik ekranu BRL-TTY,
czy Braille Teletype właściwie, to się tak tą nazwę rozwija,
i to jest właśnie czytnik ekranu na Linuxa, który działa z monitorami brajlowskimi,
w tym właśnie wierszowymi, nierawno mówiliśmy o tym zresztą w FIFLO przeglądzie,
że też wspiera ostatnio te monitory dotpad, więc to już było zrobione.
No i też będzie miał wbudowane kilka aplikacji autorskich, o której za chwilę.
Jeśli chodzi o to Raspberry Pi 4, to jest czterorzędniowy procesor
o taktowaniu 1.5 GHz, 64-bitowy, 4 GB pamięci RAM,
Wi-Fi, Bluetooth, Internet, no i mamy też dostęp do tych gniazd GPIO,
więc jakbyśmy chcieli jakieś inne urządzenia do tego podłączyć,
jakieś szujniki, czy bawić się bardziej tak elektroniką,
no to możemy też to zrobić.
Ale co też czyni to urządzenie takim właśnie ciekawym,
no to są te aplikacje, które będą w niego wbudowane,
i są to między innymi Mikro.
Mikro to jest akurat edytor tekstu, edytor właściwie,
no taki prosty notatnik działający w wierszu poleceń,
ale co ciekawe on wykorzystuje takie skróty klawiszowe
bardziej przypominające takie edytory tekstu w systemach graficznych,
więc jak ktoś kiedyś bawił się edycją tekstu w konsoli,
nie wiem, może znacie takie edytory jak Vim czy Nano,
które mają zupełnie inne skróty, nawet o tym jak wyjść z Vim,
a to są memy w internecie, no to z Mikro już korzystamy
bardziej tak jak z jakiegoś programu na Macu, czy na Windowsie,
więc możemy trzymając Shift zaznaczać tekst,
Control N to nowy plik, Control S zapisuje itd.,
więc z tego można spokojnie się nauczyć,
bez problemu, jeśli nawet nie znamy wiersza poleceń,
natomiast tutaj jest napisane, że oczywiście inne edytory
też są dostępne, no bo to jest po prostu Linux.
Ale teraz mamy kolejne ciekawe aplikacje,
na przykład jest dużo takich gier, które wykorzystują ten fakt,
że to urządzenie może nam jakąś grafikę wyświetlać,
i na przykład to jest gra Cities Through Braille,
która pozwala nam eksplorować prawdziwe miasta.
I dostajemy jakieś zadania, żeby znaleźć jakąś konkretną ulicę,
no i musimy rozejrzeć się po tym urządzeniu na mapie
i znaleźć dane miejsce.
Mamy tutaj symulację piłki nożnej,
i też możemy sobie przeglądać grę,
i to nie wiem, czy to jest po prostu symulowane,
że wybieramy sobie jakiś klub i grę,
i to jest po prostu jakoś symulowane przez jakichś graczy komputerowych,
czy można jakieś prawdziwe zapisy gier z internetu ściągać,
no mniej więcej coś takiego też jest.
Tutaj mamy też komentarze w Braillu,
oprócz tego widoku graficznego.
Mamy węża, z którego możecie pamiętać z klasycznych telefonów Nokia,
tylko tutaj mamy go w wersji dotykowej.
Dynamic Braille Sheets, czyli aplikacja,
która będzie nam pozwalała wczytywać i przeglądać arkusze kalkulacyjne,
i tutaj zarówno będą wspierane arkusze LibreOffice,
czyli oczywiście tego otwartego pakietu biurowego,
ale też na przykład z Excela,
więc będziemy mogli sobie zawładować coś,
co było przygotowane w ofisie i też sobie zobaczyć.
Flow, czyli to będzie nam pozwalało otwierać i tworzyć wykresy,
i sobie te wykresy przeglądać, tworzyć nawet,
no i właśnie wtedy się nam może przydać ten ekran,
bo osoba niewidoma może taki wykres przygotować,
czy nawet jakieś diagramy na przykład,
no i wtedy osoby widzące na tym ekranie tego urządzenia
mogą go też później zobaczyć.
Trains2, to jest też właśnie używającej aplikacji
do tworzenia tych diagramów mapek,
będzie wyświetlało nam mapy systemów kolejowych danych rajw.
Oczywiście tutaj zaczęli od Wielkiej Brytanii,
no bo firma jest z Bristol,
ale tutaj jest powiedziane, że łatwo byłoby załadować dane dla innych krajów.
Tutaj jest właśnie podane, że będziemy mogli sobie w tej aplikacji
wybrać stację początkową i docelową,
no i sobie przestrzennie zobaczyć później jak ta sieć kolejowa wygląda,
no i jak konkretnie dotrzeć do tego miejsca,
do którego chcemy się dostać.
No i przy okazji możemy też zobaczyć jakieś inne połączenia,
które z danego miejsca są, no i jak to wszystko się rozchodzi.
Następnie mamy Dungeon Explorer,
która jest aplikacja, która będzie nam pozwalała przeglądać sobie mapy lochów.
Często jest dużo takich gier tak zwanych roguelike’ów,
które gra się w konsoli, ale one wyświetlają dużo takie mapy
w taki sposób bardzo graficzny,
ale że tutaj mamy taki wielowierszowy monitor,
no to możemy sobie te informacje fajnie zobaczyć i w takie gry grać,
ale to też może się przydać.
Producent pisze np. jeśli tworzymy mapy do gier stołowych tak zwanych,
tak lochy i smoki np. jeśli ktoś grał Dungeons & Dragons,
no to można sobie takie mapy też przeglądać.
Maths Pretty Print to będzie nam pozwalało władować i wyświetlać równania napisane w latechu,
więc tutaj też na pewno równania matematyczne czyta się łatwiej,
jeśli widzimy je w brajlu przestrzennie,
no i tutaj będziemy mogli w łatwy sposób sobie dowolne równania oglądać.
SVGout, tutaj będziemy mogli ładować sobie pliki SVG,
to są takie specjalne pliki graficzne, które też są często stosowane w internecie i nie tylko,
no i wyświetlać je w dotykowy, dostępny dla nas sposób.
Zresztą podobnie za pliki będzie wykorzystywało urządzenie Monark,
o którym mówiliśmy niedawno.
Później mamy aplikację FreeDraw, która będzie nam pozwalała co ciekawe rysować po prostu
i oczywiście to co narysujemy możemy sobie dotknąć,
ale też osoby widzące też to na ekranie będą widzieć.
Word Search Generator to jest aplikacja, która będzie nam tworzyła takie krzyżówki,
takie zagadki, w których musimy znaleźć słowa.
Nie wiem czy kiedyś się z czymś takim spotkaliście, ja w szkole na pewno,
na przykład w niektórych lekcjach językowych, gdzie mieliśmy w podręczniku taką krzyżówkę,
były rozsypane litery i mieliśmy podaną listę słów, które gdzieś są ukryte w tej krzyżówce
i one mogły być ułożone albo poziomo, pionowo, czasami nawet na ukos
i musieliśmy te słowa po prostu sobie znaleźć
i to urządzenie będzie nam pozwalało takie krzyżówki sobie tworzyć i oglądać.
Następnie Present, aplikacja, która będzie nam pozwalała…
Będziemy mogli sobie tworzyć i oglądać w taki wizualny sposób,
tak samo jak osoby widzące, prezentacje.
Tutaj też znów jest używany pakiet LibreOffice, ale też Pandoc,
więc tutaj pewnie byśmy też mogli sobie na przykład albo sami tekstowo prezentację stworzyć,
a potem ją obejrzeć zarówno graficznie i dotykowo,
ale też moglibyśmy załadować prezentację, którą ktoś nam wysłał,
stworzoną właśnie w LibreOffice czy w PowerPoint,
bo LibreOffice też to wspiera,
no i sobie zobaczyć jak te slajdy, jak te elementy na tych slajdach są ułożone.
No i na końcu producent pisze, no i te wszystkie pozostałe aplikacje działające w wierszu poleceń,
które wyświetlają informacje więcej niż jednej linijce.
Jest dużo takich aplikacji, które wyświetlają jakieś tabelki,
z tym się często możemy spotkać, jakieś statystyki komputera,
nie wiem, uruchomione procesy, no dużo tych aplikacji jest,
no i tutaj jak to napisał producent, że takie aplikacje są dużo łatwiejsze w obsłudze,
jeśli możemy faktycznie takie informacje w formie tabelki sobie ogarnąć.
No i myślę, że z tym bym się zgodził.
Na urządzeniu też będą dostępne źródła do tych wszystkich aplikacji,
więc jeśli ktoś chciałby zobaczyć jak one zostały stworzone,
no to będzie można je sobie zobaczyć, nawet zmodyfikować bez większych problemów,
no i to ma pomóc nam, żeby nauczyć się programowania, no i też jak wykorzystać to urządzenie.
I tutaj producent też zresztą szuka zainteresowanych developerów do tworzenia różnych aplikacji
i gier na to urządzenie, właśnie żeby jeszcze bardziej pokazać to, na co je stać.
No i na koniec co możemy powiedzieć, urządzenie jest pokazywane na różnych konferencjach,
teraz widziałem na Macedonie, stąd się o tym urządzeniu dowiedziałem,
byli gdzieś w Anglii właśnie to urządzenie pokazywali, no i można je już sobie kupować.
Tutaj zainteresowanie jest ponoć dosyć duże, możemy to zrobić na dwa sposoby.
Jeśli już mamy to pierwszy monitor Kanyu 360, no to możemy sobie po prostu to urządzenie
zaktualizować, ulepszyć do tej wersji Kanyon Console i to nas kosztuje 775 funtów, ale to bez VAT.
A jeśli chcemy sobie kupić takie całe urządzenie, no to już nas będzie kosztowało 1900 funtów też bez VAT.
No i tutaj firma mówi, że urządzenia są produkowane ręcznie, więc jeśli sobie to kupimy w takiej przedsprzedaży,
no to zbudowanie takiego egzemplarza dla nas może trochę potrwać, no ale dla zainteresowanych już można sobie coś takiego kupić.
A teraz coś dla niewidomych pływaków. Zdaje się, że kiedyś w Tyflo przeglądzie było na ten temat,
być może jakieś inne było rozwiązanie, nie pamiętam szczerze mówiąc, ale coś mi się kojarzy takiego.
W każdym razie opaska, która ma sygnalizować kilka różnych rzeczy przydatne podczas pływania głównie na basenie.
Zgadza się, głównie na basenie i to ma być przydatne zarówno dla tych, którzy pływają amatorsko, tak po prostu rekreacyjnie,
jak i zawodowo, jeżeli ktoś bierze udział w zawodach pływackich, no to szczególnie jest to dla niego istotne,
żeby po prostu unikać różnego rodzaju przeszkód. To jest jedno, chociaż zazwyczaj te tory chyba są proste,
szczerze mówiąc nigdy nie pływałem jakoś tak zawodowo, to i nie wiem jak to wygląda, ale nie sądzę, żeby było jakoś inaczej
niż w przypadku takiego rekreacyjnego pływania, z którego ileś razy zdarzyło mi się z przyjemnością skorzystać.
Natomiast kiedy jest istotna dla nas jak największa szybkość, no to fajnie, żebyśmy gdzieś tam nie uciekali na boki w tym torze,
na tym torze, na którym sobie płyniemy i właśnie to ma nam ułatwić opaska, którą produkować chyba dopiero będzie,
bo to na razie wszystko jest w formach takich zapowiedzi.
Izraelski startup, który nazywa się iCan, z tym, że i to piszemy nie jak i, tylko jak eje, jak oko, oko morze,
tak można przetłumaczyć z angielskiego na nasze nazwę tego startupu.
No i co ta opaska ma właściwie robić? Otóż jest ona wyposażona w kamerę, której zadaniem jest skanowanie
zarówno dna basenu, jak i tego, co znajduje się przed nami.
Oprócz tego mamy dwa elementy, które będą do nas wysyłać informacje poprzez przewodnictwo kostne.
Ja tu wyczytałem, że mają być to wibracje, natomiast wydaje mi się, że to równie dobrze mogłyby być nawet jakieś informacje dźwiękowe,
takie typowo audio z użyciem tego przewodnictwa kostnego, bo wibracje no to w sumie mogą być wysyłane jakkolwiek.
No w każdym razie opaskę będziemy nosić na głowie i tak ona będzie się z nami komunikować i będzie informować o tym właśnie,
czy trzymamy się prosto tego toru, czy nie uciekamy gdzieś tam na lewą lub prawą stronę oraz czy przed nami nie ma jakiejś przeszkody.
Więc no dwie chyba najistotniejsze informacje, jeżeli chodzi o pływanie bez wzroku.
Jeżeli chodzi o tę opaskę, to z większą ilością informacji można się zapoznać na stronie projektu ikan.elcan.tech.
Natomiast tak jak mówię, jest jak na razie tam dużo takiego bardzo marketingowego podejścia do sprawy.
Nawet są jakieś wypowiedzi osób niewidomych, które to testowały, które miały okazję pływać z tą opaską, jest też zachęta do kontaktu.
Nie ma żadnej informacji odnośnie ceny, przynajmniej ja się nie dokopałem takiej informacji.
Nie ma też konkretnej informacji na temat tego, kiedy taka opaska mogłaby wejść na rynek.
Natomiast jest za to trochę takich informacji np. gdzieś tam powiedzmy w liczbach, że bardzo dużo niewidomych np. w Stanach Zjednoczonych pływa.
Jak istotna jest technologia dla osób niewidomych, więc tu ewidentnie jest to takie działanie startupowe, które szuka, mam wrażenie, inwestora.
No i oby znaleźli, bo to rzeczywiście może być przydatne rozwiązanie dla niewidomych pływaków.
A zanim Tomku zapowiesz kolejny temat, to ja przeczytam jeszcze komentarze, które do nas przyszły.
Mojsior do nas napisał tu z propozycją tego, co byśmy mogli zrobić na odcinek numer 200.
Jak będzie 200 odcinek, to zróbcie tę muzyczkę, która jest użyta do prezentacji tego, co będzie w odcinku na jakieś fanfary.
No, czyli trzeba by było coś tam skomponować, to tu w tym momencie uśmiecham się do Tomka.
Jak pozwolą okoliczności.
Natomiast mamy tu jeszcze zalew komentarzy, bo aż trzy komentarze od Borysa.
Witam, mam pytanie, czy istnieje sposób, aby wygodnie odtwarzać MPEG-GO na moim głośniku Sonos One, kiedy Airplay nawala?
Czy istnieje możliwość na przykład jailbreakingu w celu dodania tego serwisu?
Obawiam się, że to chyba tak nie zadziała.
Piotrze, czy ty coś więcej?
Ja akurat tej aplikacji nie korzystam, no ale zawsze jeśli Airplay nie działa, no to jest, a nie, bo Sonos One nie ma Bluetooth, a to nie.
No, czyli Airplay właściwie zostaje.
No, a jak Airplay nawala, to chyba tego Airplaya trzeba będzie jakoś spróbować naprawić.
Restart routera, restart iPhona, restart Sonosa, głośnika, no i chyba nic lepszego nie poradzę.
Tak jest. Tu pytanie kolejne od Borysa, odnośnie tej informacji, którą przytaczałeś przed momentem, czyli dotyczącej tego komputera Brailowskiego.
Czy będzie on w stylu Windowsa, czyli można będzie przełączyć między oknami tak jak w Windowsie, czy to jest jak iOS, że tylko jedno okno i jeden proces może wyświetlać tylko jedno okno?
No generalnie terminal to działa w takim systemie, że jest jedna aplikacja na raz widoczna, więc raczej…
Są mechanizmy terminalowe, które pozwalają na wyświetlanie gdzieś tam, powiedzmy jest ten chyba Encurses.
To się nazywa i tam pozwala na przykład wyświetlanie kilku rzeczy, ale szczerze mówiąc ja wątpię, żeby oni…
Ale to jest i tak jedna aplikacja, co się wtedy w menu takiej aplikacji wyświetla i przepuszczam, że takie menu to by się fajnie pracowało właśnie na tym urządzeniu z takim czymś,
no bo po prostu widzimy te wszystkie opcje i która jest podświetlona, no ale tak żebyś miał dwie aplikacje otwarte na raz chyba nie ma,
chociaż z drugiej strony, kto wie, jeśli byłoby coś, co by działało w trybie tekstowym, no to pewnie to by się dało obsłużyć.
Czy przypadkiem screena na przykład nie da się podzielić na pół?
No właśnie, jak nie screena, to może T-Max to takie drugie narzędzie, które też podobne rzeczy robi.
To może właśnie w ten sposób by się dało coś zrobić.
Bo to jest normalny Linux, tak?
Ja z tego nigdy nie korzystałem, szczerze mówiąc, no bo z czytnikiem ekranu to słabo się to obsługuje, natomiast mieć pod palcami na przykład dwie aplikacje wyświetlone, no to…
Czemu nie?
Czemu nie, dokładnie.
I jeszcze komentarz Borysa.
Czy istnieje taki program działający na takich samych zasadach na Apple Watch, ale jaki?
Nie wiem.
Właśnie, jaki, Borysie?
Bo pamiętaj, i to w ogóle taka uwaga do wszystkich naszych słuchaczy, że jeżeli coś piszecie do nas, to piszcie proszę, tak żebyśmy to zrozumieli i żeby było jakoś tak kontekstowo.
Bo my tych komentarzy nie czytamy zawsze bardzo na bieżąco, czasem wracamy do nich po jakimś momencie, więc może się zdarzyć tak, że jest już zupełnie inny temat i nawet sami nie bardzo wiemy do czego w tym momencie się odnosicie z tym pytaniem.
Więc bardzo prosimy formułować swoje zapytania tak nieco bardziej precyzyjnie.
To przechodzimy teraz do kolejnego zagadnienia.
Tym razem coś dla użytkowników macOS-a, bo pojawiają się dwa nowe moduły do Hammer Spoon.
To ewentualnie dla tych, którzy jeszcze nie wiedzą czym jest Hammer Spoon i jakie te dwa moduły.
No to zacznijmy od tego czym jest Hammer Spoon.
Hammer Spoon to jest aplikacja, która pozwala w bardzo łatwy sposób skryptować maga.
To jest coś jak taki magowy odpowiednik autoida, czyli narzędzie, które daje programistom bardzo łatwy dostęp do niektórych rzeczy w systemie.
To są rzeczy takie jak np. dodawanie globalnych skrótów klawiszowych, mówienie syntezatorem czy voice overem, dostęp do otwartych aplikacji, okien i ich zapartości, otwarzanie dźwięków.
W tym narzędziu zostało stworzone bardzo wiele ciekawych modułów, które różne rzeczy nam pomagają zrobić.
To są często kopie rzeczy, które możemy znaleźć jako dodatki w NVDA i jedna z tych rzeczy to właśnie jest taka kopia.
Ale co się pojawiło do tego Hammer Spoona?
Pierwszy dodatek, który się pojawił nazywa się Menu Ext.
Stworzyła go użytkowniczka Queen i co on nam pozwala zrobić?
Daje nam globalne skróty klawiszowe, które nam przeczytają pierwsze dziesięć ikonek, które znajdziemy w tej części po prawej, po lewej stronie.
Nie, one są wizualnie po prawej stronie, przepraszam.
Po prawej stronie paska menu, czyli to jest magowy odpowiednik zasobnika systemowego.
Tam znajdziemy aplikacje takie jak Dropbox, Google Drive, Discord, komunikatory, Time Machine.
Wszystkie jakieś rzeczy, które są cały czas uruchomione w tle i coś robią i nam wyświetlają jakiś stan.
No i tym dodatkiem możemy sobie naciskać Option Shift 1, 2, 3 aż do zera i po prostu VoiceOver nam przeczyta status każdej z tych ikonek.
Więc tak jak w NVDA mamy jakieś pojedyncze dodatki do konkretnych aplikacji typu Dropbox czy coś w tym stylu,
no to tutaj mamy uniwersalny moduł, który będzie działał ze wszystkimi aplikacjami, które są teraz,
no i z takimi, które mogą się pojawić w przyszłości.
To jest pierwszy moduł, a drugi moduł to jest coś, co ja napisałem,
bo ostatnio mówiliśmy w tyfloprzeglądzie o takim dodatku do NVDA typing settings,
który pozwala zrobić nam kilka różnych rzeczy, m.in. daje nam takie delikatne, ciche dźwięki podczas pisania w polach tekstowych.
I mi się to całkiem spodobało i jak pracowałem na swoim Macu,
no a na swoim Macu pracuję dość często, no to brakowało mi tych dźwięków,
więc stwierdziłem, że stworzę coś takiego, co by nam właśnie na Macu też na coś takiego pozwoliło
i tutaj też właśnie używając narzędzia Hammer Spoon mogłem to w bardzo łatwy sposób zrobić.
No i mamy taki malutki moduł, który po włączeniu po prostu będzie nam dawał takie delikatne dźwięki,
przypominające takie dźwięki, które słyszymy na iPhonie np. podczas pisania
i mamy dźwięki, które się różnią od siebie, jeśli piszemy małe i duże litery i interpunkcje i spacje,
więc możemy usłyszeć, czy niechcący np. napisaliśmy, nie wiem, jedną dużą literę za dużo,
albo, że mamy CapStock włączony.
Mamy też dźwięki na naciskanie Entera i Backspace, więc też jak na telefonie po prostu mamy dźwięk,
kiedy jakieś znaki są kasowane.
No i te dźwięki działają tylko, kiedy Focus jest w polu edycji,
no a gdzieś indziej np. nie wiem, sobie przeglądamy w stronie internetowej,
naciskamy H, żeby skakać po nogówkach, no to nie będziemy tych dźwięków słyszeć.
Też mi na tym właśnie zależało, żeby to w ten sposób się zachowywało, tak jak dodatek w NVDA.
Oba te moduły są darmowe, znajdziecie je na GitHubie, będą linki do obu w komentarzu,
tam też są instrukcje, jak je zainstalować.
Akurat instrukcje są po angielsku, ale generalnie, jeśli chcecie poznać,
jak pracować z modułami Hammerspoon, no to też na łamach tylko świata napisałem szczegółowy artykuł.
Artykuł dotyczył strony Mac Accessibility Hub, ale tam też właśnie było dużo modułów Hammerspoon
i tam podałem szczegółowe instrukcje, jak takie moduły do Hammerspoona się ładuje po polsku,
więc możecie się z tym zapoznać, a potem myślę, że bez problemu uda wam się te nowe moduły zainstalować.
To w takim razie teraz coś…
Chociaż nie no, dobra, nieważne.
W każdym razie Asystent Osobisty to jest taki program, w którym można sobie rzeczywiście złożyć takie podania,
żeby można było mieć kogoś do pomocy w różnego rodzaju czynnościach.
Gminy mają czas na to, żeby ze swojej strony, można powiedzieć, ubiegać się o udział w tym programie?
Tak, o udział w tym programie, o środki finansowe do 15 września,
dlatego jeżeli jesteście zainteresowani braniem udziału w tym programie w edycji na 2024 rok,
a w tym razem dla osób niewidomych ze znacznym stopniem niepełnosprawności,
no to można tych godzin mieć naprawdę całkiem sporo w skali roku,
więc rzeczywiście, jeżeli macie taką potrzebę, to warto z tego skorzystać.
No i tak jak wspomniałeś Tomku, gminy mają czas do 15 września,
więc zazwyczaj jest to zdecydowanie krócej dla użytkowników, takich końcowych, dla beneficjentów tego programu.
Więc jeżeli chcecie skorzystać, to kontaktujcie się z instytucjami realizującymi ten program w waszym mieście,
na przykład z mopsami, bo to chyba właśnie mopsy bardzo często realizują ten program,
asystent osobisty osoby niepełnosprawnej, no i pytajcie po prostu o to, żeby otrzymać stosowne wnioski,
żeby to wypełnić, zanieść, no i skorzystać.
To teraz Waldomierz, który jest niedrogi i jest mówiący.
Dokładnie, to może nie jest dla niektórych nowość.
Ja pamiętam jak jeszcze temu Mikołaj chyba na łamach Tyflo Przeglądu opowiadał, że było takie urządzenie,
to był właśnie też Waldomierz, który był dla osób niewidomych dostępny przez to,
że działał w współpracy z aplikacją na Bluetooth, ale kiedy producent się o tym dowiedział,
że niewidomi z niego korzystali, to jakoś wycofali go z sprzedaży, przestraszyli się tego,
no i myślałem, że od tego czasu trudno było o taki sprzęt.
A tutaj na Macedonie pojawiła się informacja,
która właściwie dotarła na początku na liście niewidomych użytkowników Raspberry Pi,
będą to osoby, które często mogą też się bawić w różne rzeczy związane z prądem,
że powstają też urządzenia, które są po prostu udźwiękowione.
To są urządzenia, które przechodzą do nas z Chin.
Konkretnie ta osoba, która o tym napisała, kupiła sobie urządzenie od firmy Aneng.
Był to model M109.
Znajdziecie tutaj dwa linki.
Jeden link to będzie do dwóch postów na Macedonie, tam jest wątek,
w którym ta osoba wrzuciła kilka linków i demonstrację głosową tego urządzenia.
Co ciekawe, już jak na urządzenie, które pojawiło się w Chinach,
to już wiemy, że są przynajmniej dwa warianty tego urządzenia,
które mają dwa różne głosy.
Urządzenie generalnie mówi po angielsku, ale z chińskim akcentem,
więc to jest coś, do czego będzie trzeba się przyzwyczaić.
Tam też niektóre komunikaty są taką bardzo złamaną angielszczyzną podane.
Na szczęście najważniejsze informacje takie jak,
no oczywiście co takie urządzenie może mierzyć.
Może mierzyć napięcie, natężenie prądu, opór rezystorów.
Możemy z takimi urządzeniami pracować.
Możemy sobie też sprawdzić w ten sposób, czy mamy odpowiednie rezystory,
czy jakaś bateria jest naładowana, czy daje odpowiednie wartości woltów.
Więc takie urządzenie może się też nam przydać.
Są dwa warianty, o których wiemy, które mają ten sam model,
ale oba na szczęście są udźwiękowione i mówią wszystkie potrzebne nam informacje.
No i ta osoba podała nam link, gdzie to urządzenie można kupić
w producenckim sklepie na Amazonie amerykańskim.
I tam to urządzenie kosztuje 20 dolarów plus 12 z przesyłką do Polski.
No ale ja stwierdziłem, że jeśli tutaj jest podany model, firma jest Chin,
no to może uda je się kupić gdzieś indziej.
Więc poszukałem trochę i jak najbardziej.
Firma ta ma też swój sklep na portalu AliExpress
i znajdziecie tutaj też link właśnie w komentarzu do strony tego konkretnego produktu na AliExpress.
I tutaj on już nie kosztuje 20 dolarów, a 29 złotych.
Więc to dużo mniej.
To urządzenie wcale nie jest drogie, więc przynajmniej tak mi się wydaje.
Jeśli chodzi o takie, no gdyby ktoś zrobił, powiedzmy taki Tyflo Voltamierz,
to by kosztował jedno zero więcej, coś czuję jak nie więcej.
Więc tutaj nawet gdyby coś się popsuło, to pewnie dałoby się spokojnie kupić drugie takie urządzenie.
No ale te osoby, które z tego korzystają właśnie są zadowolone.
Fajnie, że takie sprzęty powstają i jeśli ktoś takiego urządzenia potrzebuje,
a może chce sobie właśnie po prostu kupić, bo nie wiadomo co się może przydać.
Nawet na przykład, żeby sprawdzić stan ładowania baterii.
Takie zastosowanie praktyczne, które widzę dla każdej osoby na przykład.
Ale nie tylko, może interesuje Was elektryczność, chcielibyście bardziej się takimi rzeczami bawić.
Tylko tutaj oczywiście trzeba uważać, żeby nie zrobić sobie krzywdy,
zwłaszcza jeśli pracujemy z prądem gdzieś z gniazka.
No to takie urządzenie można sobie w całkiem łatwy sposób zakupić nawet u nas w Polsce.
To ja zaglądam teraz do naszych komentarzy, bo piszecie do nas.
Borys sprecyzował swoje pytanie.
Chodziło mi o to, czy istnieje program na Apple Watch działający jak ta opaska pomagająca w pływaniu.
Ja nic o tym nie wiem i obawiam się, że byłby problem, żeby to działało z Apple Watchem w ten sposób.
No bo Apple Watch nie ma przecież kamery.
Więc no mógłby być tu kłopot.
Mamy jeszcze komentarz od Borysa jeden.
Witam. Czy ktoś coś wie, czy nowy Mortal Kombat będzie w Game Passie?
Nic takiego nie słyszałem. Przepuszczam, że jeśli będzie to nie od razu.
No i jeszcze jeden komentarz, tym razem garść wiadomości od Nuna, czyli od Arka Świętnickiego.
Po pierwsze, nowe bety iOS, iPadOS i WatchOS.
Poprawiono błąd z czytaniem powiadomień, jeżeli mamy włączone wysyłanie powiadomień na monitor brailowski.
Poza tym nadal mamy na końcu literkę A, czyli jednak się pomyliłem.
I do wersji Release Candidate jeszcze trochę.
macOS nadal jest w dwutygodniowym cyklu wydawniczym, czyli nowej Sonomy jeszcze nie ma.
Druga informacja ciekawa, aplikacja na Maca, czyli Kinda, a właściwie Kinda Vim.
Dodaje do całego systemu wimowskie skróty nawigacyjne, czyli to Piotrze wspominałeś już o Vimie.
Jak ktoś lubi tak pracować, ja z Vima to pamiętam Escape 2.Q, wykrzyknij kto było wyjście.
Dokładnie, ja zawsze w Nano bardziej.
Ja też, ja też w Nano właśnie bardziej.
Ale są Vimowcy, pozdrawiamy tych wszystkich, którzy i Maxa używają też pozdrawiamy.
Zresztą nie będziemy tu w żadnych wojnach uczestniczyć, a kiedyś to były.
Jeżeli ktoś lubi ten edytor tekstu, to będzie w siódmym niebie.
Deweloper tej aplikacji wie o dostępności, ponieważ już pracowaliśmy nad dostępnością aplikacji Wooshy.
Następny news od Arka, nowy firmware do AirPods Pro, poprawiono błąd z niekontrolowanym przełączaniem się słuchawek
między urządzeniami i jeszcze poprawki w tej funkcji conversational awareness.
Prudent Screen Reader to kolejny temat, będzie właśnie ten czytnik ekranu, Prudent Screen Reader niedługo po polsku.
Tłumaczenie jest bardzo mocno robocze, niestety nie mamy wersji do testów, dlatego proszę o zgłaszanie błędów i literówek.
Następny news, nowa wersja Iceberg Game Editor, bardzo dużo zmian, dodano struktury, wielokrotnie zagnieżdżone warunki i system skryptowania.
I to jest tyle, Arku bardzo ci serdecznie za garści newsów dziękujemy.
Ja tylko jeszcze może szybko dodam, że dosłownie na 20 minut przed rozpoczęciem naszej audycji pojawiła się nowa beta Mac OS-a,
no ale nic więcej nie wiem, bo dopiero się pojawiła, nie miałem czasu jej przetestować.
To teraz kolejna aplikacja do rozpoznawania zdjęć, From Your Eyes, zdaje się, że ta aplikacja ma już tam parę tygodni chyba, albo więcej,
bo ja ją zdaje się mam u siebie na którymś z telefonów, teraz mam dwa, w każdym razie ta nazwa jakoś nie jest mi obca,
ale sama aplikacja z tego co pamiętam jest dosyć ciekawa.
Tak, aplikacja jest dosyć ciekawa, aplikacja pozwala na rozpoznawanie zdjęć za pomocą sztucznej inteligencji,
to jest rzecz jedna, natomiast jest jeszcze jej druga funkcja, mianowicie jeżeli na przykład uznajemy,
że to zdjęcie, które nam rozpoznała sztuczna inteligencja nie przedstawia dla nas takiej aż wartości na jaką liczyliśmy
i wiemy, że coś tam powinno być więcej w tym opisie, to możemy poprosić kogoś, żeby ten opis uzupełnił, żeby ten opis poprawił.
I ponoć tam ludzie są, którzy się tym zajmują, ja próbowałem zgłosić taką prośbę, nie dostałem do teraz żadnej informacji
i żadnego ulepszonego opisu zdjęcia, zresztą w ogóle sama aplikacja też ma troszkę błędów,
przede wszystkim mimo tego, że generalnie ma interfejs angielski, to niestety, ale zdarzają jej się tureckie opisy różnych elementów interfejsu,
na przykład przycisków, bądź też zakładek. To jest taka rzecz, która może być myląca, opisy, które generuje sztuczna inteligencja są w języku angielskim,
w ustawieniach można sobie wybrać teoretycznie język, nie wiem czy to język interfejsu, czy język właśnie tych opisów,
natomiast nie ma tam języka polskiego, jest troszeczkę kilka innych języków, ale polskiego nie ma, a szkoda.
Też w żaden sposób nie możemy wejść w interakcję z tym opisem, nie możemy na przykład dopytać o szczegóły, tak jak to jest w przypadku Be My Eyes,
o którym też dziś będziemy mówić. Skoro już mowa o Be My Eyes i o tym mechanizmie, który jest tu używany w aplikacji From Your Eyes,
no to mam wrażenie, że troszeczkę na innych rzeczach się skupiają te silniki, które opisują te zdjęcia.
Na przykład Be My Eyes, wrzuciłem to samo zdjęcie do Be My Eyesa i do tej aplikacji, no i ta aplikacja opisała mi zdecydowanie więcej rzeczy z tła,
a Be My Eyes skupiło się na głównym elemencie, który się znajdował w tej aplikacji, czyli to był konkretnie monitor komputerowy i interfejs jakiejś aplikacji.
Natomiast w aplikacji From Your Eyes, to dowiedziałem się, że mamy jeszcze tu jakieś tło, że tam jest komputer, że jest laptop, że to jakiś pokój,
gdzie ktoś się zajmuje technologią najprawdopodobniej. Takich dużo mam wrażenie nieco zbędnych i wydłużających to wszystko opisów.
Interfejs tego programu, którego zdjęcie testowałem, no nie został mi dobrze opisany. Be My Eyes zrobił to zdecydowanie lepiej i zdecydowanie więcej mogłem się dowiedzieć.
Chociaż a propos Be My Eyesa to jeszcze też za chwileczkę sobie powiemy o problemach.
Jeżeli chodzi natomiast o From Your Eyes, to jest jedna bardzo ciekawa rzecz, a przynajmniej w teorii, bo w praktyce mi to nie działa.
Mianowicie jest w większości tych wszystkich programów, które pozwalają opisać jakość zdjęcia, rozpoznać co jest na nich za pomocą sztucznej inteligencji,
zazwyczaj taki problem, że możemy jednorazowo przesłać tylko jedno zdjęcie.
Tu teoretycznie da się wysłać tych zdjęć więcej. No i to jest teoretycznie. Ja się bardzo ucieszyłem, bo sobie chciałem wrzucić kilka albo nawet kilkanaście zdjęć.
Rozpoznaj mi to proszę, bo fajnie by było się dowiedzieć co tam jest i gdzie.
No i tu moja radość się skończyła, bo o ile mogę rzeczywiście tych kilkanaście zdjęć wysłać, to aplikacja się po prostu zawiesza.
Ona cały czas pokazuje, że wysyła, wysyła, wysyła, wysyła i tak może to trwać nawet kilkadziesiąt minut.
Najdłużej czekałem, niestety nie dzieje się nic. Nie wiem jaki jest dolny margines tego, czy można wysłać chociaż dwa zdjęcia.
Jeszcze w trakcie naszej dzisiejszej audycji spróbowałem wysłać pięć zdjęć, bo na początek wysłałem ich chyba ze trzydzieści.
No i też nie zadziałało, więc może, no nie wiem, jakbym wysłał dwa to by się udało, ale coś się obawiam, że po prostu tu ktoś zaprojektował ten interfejs tak,
że może w przyszłości będzie możliwe wysyłanie wielu zdjęć naraz, co bardzo by było fajną opcją, no ale na razie to jakoś działać nie chce.
Tutaj w ogóle też w tej aplikacji jest taki trochę system grywalizacji, bo jest nawet jakaś lista rankingowa w programie,
gdzie mamy dziesięć osób, które chyba udostępniły najwięcej zdjęć. Tam ktoś chyba około setki udostępnił najwięcej.
To na razie jest taki rekord. Co jeszcze? Aplikacja wymaga założenia od nas konta i chce trochę dużo informacji, natomiast w żaden sposób nie jest to weryfikowane.
Nie są te informacje weryfikowane, więc można podać cokolwiek, bo mamy do podania numer telefonu, mamy do podania adres e-mail, no wiadomo tam login, hasło.
Natomiast ani na maila, ani na numer telefonu nie dostałem żadnej wiadomości weryfikacyjnej, więc tak naprawdę można by było, podejrzewam, tego nie podawać,
albo nie podawać właściwych danych i też by przeszło. Także to taka ciekawostka, podejrzewam, że takich aplikacji pojawiać się będzie coraz to więcej.
No i dobrze, bo naprawdę fajnie jest sobie tak porównać te opisy generowane przez sztuczną inteligencję na różnych narzędziach tego typu, bo można się dzięki temu na przykład wielu ciekawych rzeczy dowiedzieć.
Tak jak myślałem, że na przykład na tym zdjęciu, które tam testowałem to był akurat jakiś program emisyjny radiowy, to nie wiedziałem, że ktoś zrobił to zdjęcie po prostu fotografując ekran komputera.
A myślałem, że ktoś po prostu zrobił zrzut ekranu, a to się okazało, że nie, że to ktoś tak zrobił po prostu telefonem fotkę tego ekranu, a tej informacji nie miałem.
Natomiast no właśnie, co narzędzie to jednak troszeczkę inaczej to wszystko rozpoznaje i przetwarza. Nie ma informacji jakiego silnika to narzędzie przetwarza, to używa,
więc no cóż, też podejrzewam, że jakiegoś GPT, być może jest tam inny prompt zadany niż w przypadku Be My Eyes, no może właśnie na tym polega różnica, a może jeszcze na czymś innym.
W każdym razie potestujcie, dajcie znać jak wam się podoba aplikacja From Your Eyes.
O klockach LEGO chyba raz mówiliśmy w Tyflo Przeglądzie. No to powiemy raz jeszcze, to znaczy Piotrek powie.
Tak, no i dlaczego o nich mówimy? No mówimy o nich, bo faktycznie one już zostały stworzone trzy lata temu. Dobra, klocki LEGO to w ogóle powstały kilkadziesiąt lat temu, ale my tutaj konkretnie mówimy o klockach, braillowskich klockach LEGO, które właśnie przedstawiają alfabet Brailla.
No i one zostały faktycznie stworzone jakieś, no około trzy lata temu, wtedy chyba ich pierwsza wersja gdzieś została pokazana. No i co takie klocki przedstawiają?
No właśnie przedstawiają cały alfabet Brailla, ale też mają na sobie, na tych klockach też nadrukowane litery zarówno właśnie w braillu i w czarnodruku, więc można się nimi bawić zarówno, no właśnie mogą dzieci czy osoby widzące i niewidome bawić i w ten sposób właśnie uczyć się alfabetu Brailla.
No i one właśnie powstały ogólnie trzy lata temu i były gdzieś za darmo przez LEGO dystrybuowane do organizacji zajmujących się edukacją czy pracą właśnie z osobami niewidomymi.
No ale odzew właśnie osób, które miały styczność z tymi klockami był tak fajny, a tutaj konkretnie nawet często chodzi o odzew dzieci, które gdzieś może w szkole widziały takie klocki, potem wróciły do domu, pewnie się gdzieś chwaliły rodzicom, że to chciałyby takie klocki mieć w domu też, albo może właśnie żeby pokazać rodzeństwu.
No i firma LEGO stwierdziła, że można by je wprowadzić ogólnie do sprzedaży, no i to właśnie się stało. Od 24 sierpnia można je sobie kupić przed sprzedażą, a od września rozpocznie się ich wysyłka.
Na razie to jest wszystko po angielsku i po francusku i one ogólnie są dystrybuowane właśnie w Kanadzie, we Francji, w Anglii, w Stanach Zjednoczonych i chyba w Irlandii. Ale przypuszczam, że gdyby ktoś już tę wersję chciał kupić, no to można. W przyszłym roku też mają się pojawić inne języki.
Na razie tutaj nie jest napisane, że pojawi się język polski, natomiast kto wie, czy w przyszłości tego nie będzie. Bo co jest w takim zestawie? Nie tylko same klocki. Taki zestaw zawiera 287 klocków w pięciu kolorach.
Żółtym, zielonym, czerwonym i niebieskim. Wszystkie klocki są kompatybilne z innymi klockami LEGO, więc jak ktoś by chciał sobie wybudować zamek i na przykład sobie napisać gdzieś nazwać ten zamek w Railu, to dałoby się to zrobić.
No i właśnie te wypustki na tych klockach są ułożone właśnie w taki sposób, żeby tworzyć litery i cyfry w alfabecie Raila. No i pod spodem znajdziemy drukowaną wersję tego symbolu.
W opakowaniu też dostaniemy dwie plansze, takie tabliczki, na których możemy te klocki sobie układać. No i opakowanie też będzie obrailowione, więc już przy samym rozpakowaniu tego zestawu już możemy się ucieszyć, że tutaj jest jakiś brail, który dziecko może sobie przeczytać.
Będą jeszcze przygotowane jakieś elektroniczne zestawy na lego.com, które będą pokazać nam jak ułożyć te klocki w odpowiedni sposób, żeby tworzyć różne słowa na przykład.
Ale też pozwolą nam grać w znane i ulubione gry takie jak kamień, papier, nożyce. Szczerze mówiąc nie wiem jak by się w taką grę grało klockami. Sam jestem ciekawy jak by to miało wyglądać.
No ale właśnie to jest coś, czym może się bawić cała rodzina i tutaj nawet mamy na tej stronie, gdzie firma się tym chwali kilka zdjęć właśnie takich rodzin z bardzo szczegółowymi opisami, ale też mamy wideo z audiodeskrypcją, w którym mamy pokazane właśnie taką jedną dziewczynkę, która gdzieś miała styczność z tymi klockami gdzieś wcześniej w szkole, wróciła do domu.
Dziewczynka niewidoma i chciała pokazać alfabet Braila swojej młodszej siostrze i dzięki temu, że te klocki już się pojawiły w ogólnej sprzedaży, to już każdy może je dostać i zabrać to doświadczenie do domu.
No i właśnie generalnie o to tutaj chodzi. Bardzo fajnie, że takie rzeczy się pojawiają, takie pomoce, które są bardziej ogólnie dostępne i dzięki temu nawet właśnie naukę Braila możemy gdzieś wynieść ze szkoły nawet do domu.
Ja pamiętam, że bardzo lubiłem w dzieciństwie układać klocki, więc myślę, że to naprawdę jest całkiem fajny pomysł. Fajnie, że takie rzeczy powstają. No i dla zainteresowanych znajdziecie link do strony LEGO, gdzie możecie przeczytać jeszcze więcej informacji.
Przechodzimy do następnej informacji. Be My Eyes, Be My Eye, zaczyna pojawiać się w Polsce, czyli no sztuczna inteligencja, która ma nam w Be My Eyes rozpoznawać obrazki, o czym zresztą już Michał wspomniał. No to Michale kontynuuj, bo to Twój news.
Tak, to jest mój news, natomiast zdaje się, że Ty Piotrze też testowałeś, nie wiem jak Ty Tomku, czy Ty się już doczekałeś?
Nie, niestety nie, właśnie tak się śmiałem, nie wiem czemu oni mnie tak nie lubią, natomiast gdzieś wiele osób z mojego kręgu znajomych, zarówno tego bliższego i dalszego też testowało, więc też jakieś wrażenia niebezpośrednie też mam o tej usłudze.
Natomiast tak, jeżeli w ogóle zapisaliście się na listę oczekujących, to przede wszystkim warto wspomnieć o tym, jak wygląda cała procedura, że już na tę listę się dostaliście.
Przede wszystkim dostaniecie maila, dostaniecie maila i też dostaniecie, no też zmieni się zakładka, bo nie będzie już tego Virtual Volunteer Access Pending, tylko pojawi się nowa zakładka, w którą wystarczy wejść i można już korzystać z sztucznej inteligencji, która nam będzie opisywać zdjęcia.
Można te zdjęcia wysyłać dwojako, po pierwsze, no to można oczywiście zrobić fotkę za pomocą aparatu, można też wysłać zdjęcie z galerii, no i tak jak to mówiłem już przy okazji tej aplikacji poprzedniej, From Your Eyes, no niestety tu można wysłać tylko jedno zdjęcie, na dany moment więcej zdjęć wysłać się nie da, klikamy, wysyłamy, czekamy.
Oczywiście otrzymujemy też cały czas powiadomienia dotyczące tego, jak to zdjęcie jest procesowane, co tam się dzieje, że coś się w ogóle dzieje, czasem na przykład jest taka informacja, że to trwa dłużej niż zwykle, no i że prosimy o cierpliwość, a kiedy już odpowiedź zostanie wygenerowana, no to po prostu zostanie nam odczytana.
Mamy poniżej wtedy też klawiaturkę i pole edycji i możemy wpisać jakieś dodatkowe pytania dotyczące tego zdjęcia, jeżeli na przykład opis nas nie satysfakcjonuje.
I tu pierwsza rzecz, opis domyślnie jest zawsze w języku angielskim, natomiast to absolutnie nic w niczym nie przeszkadza, tylko wydłuża po prostu cały proces, bo jeżeli życzycie sobie, żeby ten opis został odczytany w języku polskim, to wystarczy BMI.ai o to poprosić.
No i w takiej sytuacji już kiedy napiszecie coś w rodzaju napisz ten opis, ale po polsku, no to dostaniecie ten opis w języku polskim i możecie dalej już ze sztuczną inteligencją rozmawiać właśnie w tym języku.
Tu nie ma absolutnie z tym żadnego problemu. Natomiast problem jest niestety od czasu do czasu z długością tych opisów. One się po prostu nie mieszczą w jakimś limicie wysyłanych znaków do nas.
I czasem już zdarzyło mi się kilka razy tak, że po prostu dana odpowiedź, dany opis urwał się w jakiejś tam części. Natomiast jest też na to dość prosty trik, bo wystarczy po prostu napisać, no kontynuuj w czacie.
Mi to zadziałało. I ten opis był kontynuowany, rzeczywiście dostałem kolejne informacje na temat tego zdjęcia, nie zostało nic powtórzone, po prostu dokończyła się myśl tej sztucznej inteligencji.
Mamy w tym tak zwanym arkuszu udostępniania możliwość wysłania zdjęcia z dowolnej aplikacji do Be My Eyesa. To jest bardzo fajne, natomiast no niestety nie z wszystkim to chce działać.
Ja testowałem z Facebookiem, bo na Facebooku tak trochę na okrętkę, ale jakoś tam to zdjęcie da się wyeksportować niby do innej aplikacji, ale do Be My Eyesa nie udało mi się go wyeksportować.
A powiem szczerze, że najbardziej właśnie liczyłem na to, że będę mógł sobie rozpoznawać zdjęcia z Facebooka za pomocą tej sztucznej inteligencji w prosty sposób.
Oczywiście mogę, natomiast niestety, ale problem jest taki, że muszę je najpierw zapisać w pamięci telefonu, co powoduje, że robi mi się śmietnik w galerii i już mi się w zasadzie zrobił.
Więc niestety to też mogłoby działać lepiej. I to takie moje uwagi co do samego działania tej aplikacji.
Jeżeli natomiast chodzi o opisy, to są one dość szczegółowe, ale moim zdaniem nie aż tak bardzo rozwlekłe.
Inna rzecz, że ja robiłem jak na razie zdjęcia kilku typom, że tak powiem, różnych obiektów.
Przede wszystkim to były raczej sceny, to nie były zdjęcia na przykład jakiegoś urządzenia, gdzie prosiłbym o to, żeby mi opisał jak to urządzenie wygląda, co tam jest, jak mogę z tego urządzenia skorzystać.
Tego nie robiłem, tego nie próbowałem. Rozpoznawałem jakieś zdjęcia z galerii, rozpoznawałem zdjęcia właśnie z mediów społecznościowych, z których chciałem się dowiedzieć o co tam chodzi.
Rozpoznawałem, bo na przykład też gdzieś na Facebooku było pytanie, czy jest w stanie opisywać memy.
Też kilka memów jakiś tam znalazłem, no i jakoś to opisał, muszę powiedzieć. Nie było może jakoś bardzo śmiesznie, ale może po prostu nie trafiłem na śmieszne memy.
Też tak mogło być. Więc ja powiem szczerze, jestem dość zadowolony z tego.
A, jeszcze jedna ciekawostka. Bo też się pojawiło takie pytanie, czy w ogóle z tą sztuczną inteligencją da się porozmawiać o czymkolwiek.
Tak. Można. Tylko trzeba ją zachęcić jakąś fotką. Jeżeli ta fotka zostanie rozpoznana, to potem w zasadzie możecie rozmawiać z czatem GPT o czym tylko chcecie,
zadawać pytania i on będzie na nie odpowiadał. Także jeżeli na przykład chcielibyście wykorzystywać w ten sposób Be My Eyes, no to też można,
aczkolwiek nie wiem, czy jest to najfajniejsza opcja. Przypomnę, czat GPT ma swoją aplikację, na iOSa można jej używać, na Androida chyba też już jest.
A przynajmniej jakaś była lista do zapisów, więc mam nadzieję, że już się wszyscy, którzy się zapisywali to się doczekali aplikacji czata GPT na Androida,
więc myślę, że to w ten sposób najlepiej z tego korzystać. No Piotrze, a jakich ty różnych refleksji się dosłuchałeś?
A jakich refleksji się dosłuchałem, no to generalnie ludzie są zadowoleni, natomiast ta aplikacja czasami potrafi, no aplikacja Bot, no nazwijmy to już aplikacją,
dobra trzymamy się tego określenia, robi czasami błędy, które mogą być mniej lub bardziej istotne. Ja myślę, że taka najważniejsza rzecz, o której warto powiedzieć,
to mówiliśmy kilka razy, ale warto to powiedzieć jeszcze raz, tego typu modele nie radzą sobie bardzo dobrze z tekstem. Nie wiem, czy też coś testowałeś właśnie, gdzie był jakiś tekst?
No właśnie testowałem, no właśnie testowałem i ja byłem akurat bardzo zadowolony z wyniku.
No widzisz, to by to się udało, może dlatego, że tekst był bardziej czytelny, natomiast słyszałem już o sytuacjach tutaj, osoba zrobiła zdjęcie na przykład, no to był pewnie mniejszy tekst,
ale dla osoby widzącej on byłby czytelny. Było to zdjęcie przesyłki i na przesyłce była oczywiście etykieta, która mówiła, gdzie ta przesyłka jest zaadresowana.
No i tak jak niektórym osobom, jak były takie informacje małe, czytelne, po prostu powiedział, że nie mógł się ich rozczytać, tak na przykład Paweł, którego z nami dzisiaj nie ma, robił testy na butelce wody
i tam na początku właśnie mówił, że generalnie ta etykieta była nieczytelna, no to tej osobie powiedział, że jak najbardziej etykieta była czytelna, no ale wymyślił całkowicie zmyślone dane adresowe.
Więc nie próbowałbym tego na przykład, jeśli chcemy na przykład dowiedzieć się o informacje o na przykład lekach, no nie wiem czy by czegoś tutaj nie wymyślił, zwłaszcza jeśli chodzi o informacje o spożyciu.
Nazwę to może jeszcze, mimo to jednak bym też to gdzieś zweryfikował, więc tak to wygląda. Raczej do tekstu, no to czasem to zadziała, a czasem nie.
No i tutaj pytanie, z jakim tekstem pracujemy, gdzie musimy być… Jeśli to jest coś bardzo dla nas ważnego, gdzie nie możemy zrobić błędu, to lepiej tego nie robić.
Jeśli to jest jakiś zrzut ekranu gdzieś, który nam ktoś wysłał na mediach społecznościowych, to myślę, że można próbować, ale no właśnie jakieś takie informacje, które naprawdę musimy dobrze mieć przeczytane, to lepiej chyba użyć jakiejś innej aplikacji.
Czasem gdzieś mylił kolory, tutaj miałem przykład, tutaj osoba zrobiła zdjęcie swojego ogrodu, gdzie tam miała jakiś posąg smoka, no i powiedział tej osobie, że ten posąg sobie gdzieś siedział na huśtawce, mimo to, że tam żadnej huśtawki nie było.
No właśnie tam czasami też lubił dorabiać jakieś elementy tła, których nie było, a nie, to było coś innego, ale tutaj też czasami jakieś takie minimalne szczegóły mogą się różnić, to jest jedna rzecz, no a druga rzecz, też już o tym wspominaliśmy kilka razy, ale myślę, że warto też to przypomnieć jeszcze raz.
Na razie dasz już na inteligencja, mimo to, że kiedyś to działało, ale to później zostało zmienione w celach ochrony prywatności, nie będzie nam podawała żadnych informacji, jeśli chodzi o twarze osób.
Po prostu będzie nam mówiła, że ta twarz jest zakryta prostokątem, bo pewnie zanim ten chat GPT to takie zdjęcie dostanie, tam pewnie jest przepuszczane przez jakieś rozpoznawanie twarzy, która po prostu jak leci, wszystko zakryła, więc on nam mówi, że po prostu widzi prostokąty, no bo pewnie tylko prostokąty dostał.
Więc będziemy dostawać informacje, jeśli zrobimy zdjęcie jakiejś osoby, no to pewnie dowiemy się, w co jest ubrana, czy ma na przykład jakieś zegarki, też takie przygody słyszałem, ale jeśli chodzi właśnie o twarz tej osoby, no to już tutaj żadnych informacji o nich niestety na razie nie dostaniemy, mimo to, że kiedyś to działało, no tutaj też zdania są podzielone, czy tak to powinno być.
Jonathan Moulton jest bardzo rozczarowany, bo jak powiedział, no osoba widząca popatrzy się na kogoś, no to jakieś ogólne cechy tej twarzy zobaczy, a my tutaj niestety nie możemy, chociaż to kiedyś działało, to działało bardzo fajnie, no ale tutaj firma boi się, żeby kogoś jakoś nie obrazić, no i niestety jest jak jest.
Natomiast ludzie są zadowoleni generalnie i to jest naprawdę potężne narzędzie, ale tak myślę najlepszym podsumowaniem jest to, że właśnie trzeba mimo wszystko uważać i jeśli właśnie są jakieś sytuacje bardzo krytyczne, gdzie nie możemy zrobić błędu, no to lepiej wtedy pomóc sobie jeszcze innym narzędziem, czy nawet zadzwonić do wolontariusza widzącego, bo przecież w aplikacji też taką możliwość mamy, no i zresztą z tego ekranu u szatu
też da się to zrobić.
Tak, bo to jest w ogóle teraz bardzo fajne narzędzie, bo łączy dwie rzeczy, łączy zarówno tę pomoc wykorzystującą sztuczną inteligencję, jak i pomoc wolontariuszy, których naprawdę jest wielu i powiem szczerze, ja już dawno akurat nie miałem potrzeby korzystania z pomocy widzącego wolontariusza Be My Eyes,
ale kiedy miałem taką potrzebę, to niezależnie o której godzinie bym nie dzwonił, a dzwoniłem naprawdę o bardzo różnych porach, często gdzieś tam jakichś późno wieczorno nocnych, to udawało mi się to, że ktoś odebrał ten telefon i to była osoba rozmawiająca po polsku, więc naprawdę fajnie, fajnie warto z tej aplikacji korzystać.
Tak, bo tam jest chyba kilkaset tysięcy wolontariuszy z tego, no nie wiem czy to jest kilkaset, ale chyba sto tysięcy kiedyś przekroczyli, więc trochę osób jest zapisane, nie wszyscy, są takie osoby, parę razy spotkałem się z postami na przykład na Redditzie, że nie wiem, mieli aplikację zainstalowaną rok, czekali aż wyjdzie ten telefon, no i w końcu kiedyś ten telefon przyszedł, no i byli bardzo zadowoleni, że w końcu mogli jakiejś osobie niewidomej w jakiejkolwiek sprawie pomóc, więc to jest takie fajne.
A tymczasem mamy słuchacza na linii, konkretnie jest z nami Grzegorz, więc Grzegorzu prosimy Cię o włączenie mikrofonu, no i słuchamy.
Przypominam, że też możecie pisać do nas na YouTubie, na Facebooku, no i na kontakt.tyflopodcast.net, akurat na kontakt dziś wyjątkowo aktywnie piszecie, bardzo fajnie, cieszy mnie to, no a Grzegorzu jak tam? O, już jesteś, jesteś, słychać Cię, no i słuchamy.
Tak, właśnie też testowałem tego Bima Ice’a, tą nową sztuczną inteligencję, no bo pisałem o tym tam o spadzeniu też, więc kto tam mnie śledzi, no to ja tego też tak jakby pobieżnie, ale no właśnie, co zauważyłem?
Długość odpowiadania, no czat GBT to robi szybciej po prostu jak się coś do niego napisze, a ten Bima Ice, no to trochę wolniej.
Pierwsza odpowiedź, a to jest zawsze po angielsku i trzeba mu odpisać, żeby po prostu napisać po polsku i on to przetłumaczy to co po angielsku, żeby napisał po polsku.
No i tak na Iphone’ie 11 to testowałem, bo mam wypożyczony.
Zapytam Grzegorzu, no bo to o tym już mówiliśmy właśnie, o tych różnych takich niuansach, a zapytam Cię o samą dokładność tych opisów, czy te opisy, które wygenerował dla Ciebie Bima Ice, no to były dla Ciebie jakoś użyteczne, czy to na razie tak nie miałeś okazji wykorzystać tego rzeczywiście nigdzie w praktyce, czy po prostu tym się bawiłeś?
Nie bawiłem się tak z domu gdzieś tam, ale opisy no po prostu szczegółowe były i nawet prawdziwe z tego co ja widzę, więc nawet tutaj spoko.
Te wszystkie logouty, te wszystkie same-time, no to po prostu nie umywają się.
Radzą sobie gorzej. A powiedz mi, testowałeś to właśnie na jakimś tekście, bo tu wspominał Piotr na przykład, że spotkał się z tym, że radził sobie gorzej z tekstem. U mnie nie było tego, a jestem ciekaw jak na przykład u Ciebie, jeżeli testowałeś.
Nie, nie testowałem na tekście, tylko po prostu zdjęcia, no na przykład głośników zrobiłem, bo mam dwa głośniki od Google’a i od Amazon’a, no to rozpoznał, że dwa głośniki, tam mam położoną szaszetkę, coś tam jeszcze, coś tam jeszcze, podkładkę pod mysz, takie różne rzeczy.
No ale zapytałem się go jakie to są marki tych głośników, no to powiedział, że nie widzi nazwy marek i nie może mi powiedzieć co to za marka. Zrobiłem zdjęcie siebie, no to wszystko opisało poza moją twarzą.
No tak, bo pewnie było coś, że twarz jest zasłonięta jakimś tam blokiem albo rozmazana albo coś tam.
W koszulce, w jakichś tam kolorach, coś tam tego, no ale samej twarzy już, czy ile mam lat, czy ile co, jakie włosy, jakie to jest, no to już nic.
Rozumiem. No okej Grzegorzu, to dzięki w takim razie za podzielenie się swoimi refleksjami, no i cóż, udanego korzystania ze sztucznej inteligencji.
Właśnie czekam na androidę, bo właśnie w tym mailu co dostałem, dostałem dosłownie kiedy to było?
Wczoraj chyba nawet.
Tak, wczoraj to tego maila dostałem. No i żona iOSa już jest, no a androida będzie do końca roku.
Ta sztuczna inteligencja, więc myślę, że warto czekać, bo to.
Okej.
Rozpoznawania to jest dużo lepsze niż te wszystkie logouty, nawet z Facebooka te opisy to są po prostu.
No nie, no to są bardzo, bardzo proste opisy.
Nawet iOS sobie lepiej radzi niż Facebook, szczerze mówiąc.
To się ewentualnie może nadawać do rozpoznawania tekstu.
No tak.
Na Facebooku.
I kotów ragdolli.
Akurat koty, rasy kotów rozpoznaje.
Dobra, dzięki Grzegorzu, pozdrawiamy cię serdecznie i do usłyszenia w takim razie.
I teraz jest taki wniosk, który w sumie nie bardzo wiem jak zapowiedzieć.
Jak to się czyta?
Okazuje się, że Archive.
Okej.
Też nie wiedziałem, żeby nie było.
Sprawdziłem właśnie też.
No właśnie, o co chodzi?
O co chodzi? Może zacznijmy od tego, co to za strona jest Archive.
Archive, na pewno jeśli ktoś się studentem pewnie prędzej czy później się z tą stroną spotkał.
Albo jeśli czytacie Hacker Newsa, czy jakieś media społecznościowe związane z informatyką.
To jest po prostu otwarta strona, na której naukowcy mogą publikować swoje prace naukowe.
No i te prace najczęściej są publikowane w formacie PDF, bo po prostu wtedy łatwo je się drukuje, one wtedy się nie zmieniają.
No ale jak wiadomo, pliki PDF nie należą często do najbardziej dostępnych.
A zwłaszcza jeśli chodzi o prace naukowe w przedmiotach ścisłych, na przykład matematyka, czy nawet informatyka.
Często jakieś takie właśnie tematy bardziej programistyczne, gdzie mamy do czynienia z jakimiś równaniami, diagramami.
No to one najczęściej wtedy w takich plikach PDF są praktycznie w ogóle niedostępne.
Więc fajnie, że właśnie w celu poprawienia dostępności strona Archive zaczęła publikować takie prace w formacie HTML.
Na próbę na razie to jest tylko kilkadziesiąt takich prac, ale znajdziecie link, na którym możecie znaleźć sobie te prace, które już zostały w ten sposób skonwertowane.
Miejmy nadzieję, że tego będzie więcej.
No i tutaj mamy prace z dziedzin takich jak fizyka, matematyka, nauka komputerowa, biologia, finanse, statystyka, inżynieria elektryczna, ekonomia.
No i właśnie ta strona generalnie takimi przedmiotami ścisłymi się zajmuje.
No i co nam taki format HTML daje?
To, że taka praca jest dla nas dużo bardziej dostępna.
Ładuje się szybciej, po prostu ładuje nam się to w przeglądarce.
Mamy ładnie wszystko na główki.
I co najważniejsze, tutaj na próbę sobie otworzyłem kilka właśnie prac, głównie związanych z matematyką, gdzie możemy spotkać się z różnymi równaniami.
No i te równania właśnie są wyświetlane w formacie MatML.
Więc jeśli mamy odpowiednie wtyczki lub na maku, to po prostu działa samo siebie, nie musimy nic robić.
No to te równania są dla nas bardzo fajnie dostępne.
Możemy sobie w nie wejść, eksplorować dokładnie, przeczytać.
No i właśnie dlatego to jest tak ważne.
Format PDF nie jest dla nas najbardziej przyjazny.
Da się z niego korzystać, ale nie należy to do czegoś bardzo przyjemnego.
Więc można mieć nadzieję, że po pierwsze właśnie na archiwie będzie więcej takich prac w formacie HTML się pojawiać.
No i może gdzieś jakieś inne strony, które też takie materiały dystrybuują, też kiedyś zdecydują się na taki krok.
No bo po prostu to jest dla nas dużo bardziej dostępne.
I następny news.
I tu w sumie już do końca.
Przydanie tyfrowyści to będzie już twój.
No to będziesz miał głos.
Członkostwo w Kalibr Audio od września płatne.
Dokładnie. Może zaczniemy od tego czym w ogóle jest ten Kaliber.
I jeszcze byłoby fajnie jakby mi się otworzyła ta strona, którą chciałem.
Ale jak ja sobie to otworzę, to już w tym czasie powiem jeszcze raz co to jest ten Kaliber.
To jest coś o czym Mikołaj mówił jakiś czas temu w tym przeglądzie.
To jest generalnie brytyjska fundacja, właściwie brytyjska biblioteka, która dystrybuuje audiobooki dla osób niewidomych.
One są dystrybuowane na dwa sposoby.
W formie cyfrowej jako pliki mp3, aczkolwiek to są pliki zabezpieczone i musimy je sobie słuchać.
Albo na stronie, albo w aplikacjach, które to wspierają.
Na pewno wspiera je na przykład aplikacja EasyReader i nie wiem czy też otwarza się dla niewidomych.
Niektóre tej strony też nie wspierają.
Ale co jest dla nas takiego fajnego z tą stroną?
No to jest to, że to jest jedna z niewielu stron, która po wejściu w życie traktatu Mary Cash,
czyli to jest ten traktat, który daje osobom niewidomym dostęp do zasobów bibliotek z krajów, które w ten traktat wchodzą.
Tutaj właśnie Polska, w ogóle cała Unia Europejska i w tym właśnie Anglia, bo jeszcze wtedy byli w Unii i właśnie Polska, ale też Stany Zjednoczone wchodzą.
No i dzięki temu właśnie, że ten traktat jest, no to każdy może się do Caliber Audio zarejestrować.
Rejestracja jest bardzo prosta, tam nawet nie trzeba wysyłać orzeczenia.
Tam generalnie po prostu w formularzu rejestracji podajemy właśnie imię, nazwisko, chyba kraj się podaje, adres e-mail.
No i po prostu zaznaczamy pole wyboru, które mówi, że potwierdzam, że jestem osobą niewidomą i to mnie uprawnia do dostępu do tej biblioteki.
No i to wszystko po jakimś czasie, bo to jest ręcznie tworzone przez człowieka.
Dostaniemy maila, kiedy nasze konto będzie gotowe, wtedy dostaniemy unikalny numer i hasło, którym będziemy się logować.
No i tutaj możemy sobie spokojnie wtedy już się zalogować i z zasobów tej biblioteki korzystać, a tego jest naprawdę bardzo dużo.
Tutaj mamy zarówno książki czytane przez ich wolontariuszy, to są generalnie bardzo fajne nagrania, ale też tam pojawiają się często jakieś komercyjne nagrania, które generalnie w Polsce są trudniej dostępne.
Więc jeśli szukacie książek po angielsku, trochę nawiązując do tego, o co byliśmy pytani w zeszłej audycji w sumie, zapomniałem właśnie, że przecież jest jeszcze Caliber, no to warto się do Calibra zarejestrować.
Mimo to, że wcześniej dostęp do tego był całkowicie darmowy, teraz już niestety tak do końca, przynajmniej na jakiś czas nie jest.
Dlaczego tak jest? No bo po czasach pandemii, kiedy dużo rzeczy się przewracało do góry nogami na świecie, niestety Fundacja straciła niektóre ze swoich źródeł dotacji.
No i zaczyna im brakować pieniędzy po prostu, żeby tą całą infrastrukturę utrzymać, no bo oprócz tego, że oczywiście nagrywają jakieś te książki, utrzymują serwery, no to w Anglii jeszcze takie książki można zamawiać na pendrive’ach.
To tego chyba można się nieraz zrobić, ale nawet w tych wersjach cyfrowych, no to wiadomo, właśnie utrzymanie serwerów, tego rzeczy też kosztuje.
Tutaj jest wyliczone konkretnie, że kosztuje ich 85 funtów urocznie dla jednego członka utrzymanie tej strony.
No i z tego powodu dla osób dorosłych, bo to właśnie do tego dotyczy osób dorosłych, jeśli nie macie 18 lat, a zarejestrujecie się na tej stronie, bo możecie, nie ma tam chyba jakiegoś wymagania, żeby też dostać zgodę od rodzica na przykład, no to członkostwo dla was będzie darmowe.
Natomiast dla osób dorosłych od sierpnia w Anglii to już zostało wprowadzone i tam już osoby musiały zapłacić, a od września, czyli od piątku ten obowiązek też wejdzie dla osób, które są spoza Anglii, a mają w tym serwisie konto.
Ile to nas będzie kosztowało? No niedużo. Ja myślę, że tutaj, jeśli znacie angielski, chcielibyście poczytać książki po angielsku, a może właśnie dzięki temu chcecie się lepiej nauczyć tego języka, no to warto się tym zainteresować, bo członkostwo będzie nas kosztowało 3 funty miesięcznie lub 30 funtów rocznie.
To nie jest bardzo dużo, a naprawdę jakość tych książek jest fajna, no i przy okazji wspieramy fundację, która właśnie pomaga osobom niewidomym uzyskać dostęp do materiałów, które są dla nich dostępne.
No i to jest taka jedyna biblioteka, która pozwala nam w naprawdę taki łatwy sposób dostać materiały niedostępne poza granicami kraju, w którym powstała. No bo np. do takiego Bookshare’a, czy do amerykańskiego BARDA, który tam ma jeszcze bardziej rygorystyczne zabezpieczenia, już nie jest tak łatwo się dostać.
Nie możemy po prostu sobie wejść na BARDA, mimo to, że Stany Zjednoczone są też w tym traktacie i po prostu założyć sobie konto jako Polacy, więc tym bardziej warto moim zdaniem się tą stroną zainteresować.
Może o niej nie słyszeliście, no to teraz możecie sobie wejść. Adres, jeśli ktoś by chciał sobie zobaczyć, to jest calibreaudio.org i tam możecie sobie właśnie założyć konto, no i później zalogować się zarówno z przeglądarki na komputerze, możecie sobie przez internet słuchać tych książek, albo na wspieranych aplikacjach lub urządzeniach,
czyli no właśnie EasyReader na iPhonie i na Androidzie na przykład, czy niektórych odtwarzaczach później takie książki słuchać. A przepraszam, tylko jeszcze raz adres podam calibreaudio.org.uk i tam możecie właśnie założyć konto lub poczytać o tej stronie więcej.
I jeszcze zostały drobne newsy, a tych drobnych newsów jest troszeczkę.
Co tam tym razem nam ciekawego powie. Na razie czekamy. No to jest właśnie zawsze ten moment. No i na razie Bartosz chyba z dźwięku się, no nie doczekamy. To może już powoli zacznijmy ten temat newsów, a najwyżej zrobimy sobie jakąś tam krótką przerwę, kiedy nasz słuchacz się upora.
Ok, dokładnie. Te newsy są właśnie bardzo krótkie, więc myślę, że nie powinno być problemu, żeby sobie taką fajną pauzę gdzieś zrobić. No i co mamy tutaj w dobrych newsach. Zaczniemy od skryptów do Reapera dla Jossa, no bo oprócz tego, że Reaper sam w siebie jest dostępny z dodatkiem Osara, no to użytkownicy Jossa mogą, a właściwie powinni jeszcze sobie zainstalować skrypty,
które sprawiają, że ta aplikacja działa lepiej, ale też dają dodatkowe funkcje, np. dzięki tym skryptom mamy bardzo fajnie używane linijki brajlowskie, tam możemy sobie np. poziomy audio monitorować i wiele więcej. Te skrypty mają bardzo dużo funkcji, no i są zupełnie darmowe, więc jeśli korzystacie z Reapera i Jossa, no to warto je sobie ściągnąć.
No i pojawiła się nowa wersja tych skryptów, wersja 67, która generalnie przynosi poprawki błędów, m.in. klawisze shift-spacia i shift-strzałki lewo-prawo już są przekazywane do aplikacji. To się np. przydaje w edytorze midi, to pewnie nam pozwala, no shift-strzałki lewo-prawo to pozwalają nam nuty zaznaczać np., więc to fajnie, że to już powinno działać.
Dostaliśmy też opcję dodania symbola oszczegawczego na linijce brajlowskiej, jeśli monitorowanie, nagrywanie jest wyłączone, więc jeśli coś nagrywamy, zastanawiamy się czemu nic nie słyszymy, a chcielibyśmy być pewni, że coś się nagrywa, to też po prostu te skrypty nas oszczegą na linijce, że nagrywa się tak, ale po prostu wyciszyliśmy sobie odsłuch tego.
I jakieś mniejsze poprawki, tutaj Brian Hudgens zwrócił uwagę np. na to, że te skrypty m.in. dodają opcję, która pozwala nam wyłączyć informowanie nas o numerze ścieżki, co generalnie tak Osara robi na początku, nam podaje numery ścieżek, ale jeśli ktoś tego nie chce, to te skrypty pozwalają nam to wyciszyć.
To się z jakiegoś powodu zepsuło, ale w tej najnowszej wersji to już zostało naprawione, więc jeśli macie Reapera, macie Jossa, no to wciągnijcie sobie te skrypty, bo naprawdę warto. I chyba mam wrażenie, że już Bartek się uporał z dźwiękiem.
Zgadza się.
Tak, zgadza się, witajcie serdecznie. Słuchajcie, dzwonię do Was, prawdę mówiąc, z dość dziwnym tematem na sam początek, bo dopiero dzisiaj zauważyłem bardzo dziwną rzecz, m.in. w moim komputerze.
Zastanawia mnie jedna rzecz, mianowicie dlaczego z funkcji wyłączania komputera zniknęła mi opcja zamknij oraz uruchom ponownie.
To jest rzeczywiście ciekawe.
Bo zazwyczaj jak robimy Alt F4, pierwsza zaznaczona pozycja to jest właśnie zamknij. Ja, wiadomo, to kwestia przyzwyczajenia, jak to od razu to okno się pojawi, to klikamy Enter i już mamy tą pewność, że komputer zaraz się zamknie.
A dzisiaj spotkałem się z takim przypadkiem, że zamknąłem komputer w ten sam sposób, odłączyłem wtyczkę, de facto powiedział, że ładowanie rozłączone, ale to wiadomo, że jeszcze mógł być proces zamykania.
Ale następnym razem jak otworzyłem komputer, to dziwne, bo on w ogóle był jakby na ekranie logowania.
No dobrze, ale Wartku, czy ty potem sprawdzałeś pod strzałkami, że tej opcji tam faktycznie nie ma?
Tak, tak, tak. Idąc od góry jest przełącz użytkownika, wyloguj i uśpij. Nawet przed chwilą to sprawdzałem, zresztą ja mam komputer polonego, tylko zrobię ciebie, że tak powiem, misalę głośniej.
I proszę bardzo, Alt F4 na pulpicie.
Zamykanie systemu Windows dialog przełącza użytkowników bez zamykania aplikacji. Jaką czynność komputer ma wykonać? Lista rozwijana, przełącz użytkownika, zwinięte Alt plus J.
To jest pierwsza opcja na liście, gdzie zawsze pierwszą zaznaczoną było zamknij. Druga.
Wyloguj. Uśpij.
I uśpij. Idę strzałką w dół, nic więcej nie ma.
No powiem szczerze i ani uruchom ponownie też nie ma?
Też nie ma, ani uruchom ponownie ani.
A w górę jak pójdziesz?
A w górę jak pójdę to jak znajdujemy się teraz na uśpij, w górę mam wyloguj, przełącz użytkownika, strzałki lewo, prawo działają na tej samej zasadzie.
A jak pójdziesz jeszcze w górę to nic nie ma?
Nic nie ma.
I pod tabulatorem jest ok, anuluj i pomoc. A później wracamy do listy.
Powiem szczerze, nie spotkałem się nigdy z czymś takim.
Nie spotkałem się też z tym. Z tego co wiem to chyba administratorzy w tych group policy mogą wyłączyć użytkownikom możliwość wyłączania komputera, więc jak dla mnie to mam wrażenie jakby jakiś plik gdzieś się uszkodził, który po prostu to zablokował.
Tylko teraz pytanie czy w menu start widzisz to samo czy też w tym, bo to jest Windows 10, tak?
No właśnie Piotrze to jest zagadkowe, bo to jest Windows 11.
To jest Windows 11, no to mniej więcej wejdź sobie, zamknij to okno, naciśnij Windows X, to się takie menu z różnymi opcjami otworzy, tam też jest pod menu wyłącz komputer, zobacz czy tam masz te opcje.
Windows X.
X.
I idź do góry teraz.
Aha i to on, tak?
No.
Ale tutaj widzę mamy właśnie, ale jest aktualizuj.
Może dlatego to zniknęło, bo jest jakaś aktualizacja, którą on musi, chociaż to też się tam wtedy powinno wywieźć.
Dokładnie, tam wcześniej zawsze było zaktualizuj i uruchom podobnie lub zaktualizuj i wyłącz.
W przypadku Windowsa 10 było tak samo, jeżeli pojawiła się jakaś tam powiedzmy aktualizacja, bo dziwne było w moim przypadku chociażby właśnie jeszcze w poprzednim Windowsie 10,
chociaż powiem, że nie planowałem na 11 aktualizować, ale to można powiedzieć, bo troszeczkę nie było świadomie, to nawet jak zrobiłem zaktualizuj i zamknij, to po ponownym uruchomieniu znowu było zaktualizuj i zamknij.
Jakby ta poprzednia aktualizacja była wycofana, wycofywana.
Bo czasem tak się zdarzy, że coś tam wycofa te aktualizacje, bo coś pójdzie nie tak.
Ale tutaj to jest właśnie zagadkowe to, że tutaj tego nie ma, w tym głównym oknie.
Myślę, że można tutaj prostą rzeczą po prostu spróbować, zrób tą aktualizację i zobacz czy ta opcja wróci wtedy.
Dokładnie, bo być może jest właśnie tak, że teraz, że to jest jakieś nowe zachowanie Windowsa i że to już tak będzie.
Że jak mamy aktualizację, to nie mamy opcji zamknij.
No to dziwne, ale ktoś zrozumie logikę Microsoftu momentami.
Tak naprawdę to teraz troszeczkę żałuję, że zrobiłem tą aktualizację na jedenastkę,
bo nie wiem czy to jest właśnie przez tą aktualizację, bo chociażby jeżeli na co dzień korzystam z Excela i z połączeniem z NVDA,
to po jakimś czasie on zaczyna mulić na Excelu.
Wiesz co Bartku, akurat Excel z NVDA to ja też miałem takie epizody.
Co prawda już teraz mi się na szczęście to unormowało i to też kwestia chyba po prostu komputera,
że jednak teraz mam zdecydowanie bardziej żwawy niż ten poprzedni.
Natomiast u mnie też Excel potrafił bardzo z NVDA momentami się zacinać.
Tylko, że po restarcie NVDA i Excela on de facto wracał.
Tak i po chwili, dokładnie, dokładnie.
To jest w ogóle dziwna sprawa tak naprawdę.
No dobrze, no to jeżeli chodzi o tą kwestię, to tutaj, że tak powiem, no propozycja jest.
Zobaczymy zaraz jak to, że tak powiem, tutaj rozwiąże nam ten problem.
W przyszłym tygodniu postaram się dać odpowiedź.
Druga sprawa to prośba praktycznie dla Was wszystkich, bo nie wiem kto, że tak powiem, pierwszy tutaj zabierze głos w tej sprawie.
I tu mamy potwierdzenie, tu mamy potwierdzenie od Roberta i to jest ciekawa rzecz w ogóle.
Napisał do nas Roberta tak.
Cześć, info dla Bartka. Opcje zamknij i uruchom ponownie znikają mi na Windows 10 i 11, kiedy są do zainstalowania aktualizacje wymagające restartu.
Wtedy trzeba zrestartować komputer przez ustawienia, tam Windows Update i pod tabem znajdziesz przycisk uruchom ponownie.
Ale to jest dziwne, bo ja mam…
Kiedyś tak na pewno nie było.
Kiedyś tak na pewno nie było.
Tak.
Być może to jest jakaś kwestia jakiejś gdzieś jeszcze opcji.
Ja ostatnio zacząłem korzystać z tego menu Windows X właśnie i tam na szczęście te opcje są i w Windows 11 też na szczęście one są.
Więc to też może być po prostu rozwiązanie, raczej z tego korzystać.
No ale dziwne, bo to kiedyś na pewno też tam było.
Dzięki Piotrze za tą kombinację tutaj, bo jedyne rozwiązanie, które mi pozostawało, to dobrze, że ja tego nie miałem wyłączonego, czyli wyłączenie z zasilania.
Czyli po prostu przytrzymać przycisk zasilania i tam miałem zrobione, żeby wyłączył.
Więc to mnie w tej sytuacji jedynie ratowało.
No zobaczymy, co przyniesie ta aktualizacja, o której tutaj Roberto też pisał.
Dokładnie.
No powinno wrócić teoretycznie, jeśli tak powiedział, więc…
Na własnej autopsji się przekonamy.
Okej.
Druga sprawa, bym was tylko poprosił, byście mi przypomnieli adres strony, z której można było pobrać Pontes Media Downloader.
Pontes.ro, jak dobrze pamiętam.
Tak.
A, okej.
Bo po prostu tutaj chcę jeszcze raz instalkę pobrać, a poprzednią niestety usunąłem, więc chciałem jeszcze raz ją odzyskać, a niestety strony nie pamiętam.
W porządku.
I jeszcze takie pytanie do Ciebie, Michale.
Jakiś czas temu nie miałeś może problem z aplikacją ICO i robieniem przelewów, ale ze zmienioną datą?
Że chciałeś po prostu zlecić przelew na inny dzień?
Wiesz co, no ja takiego problemu zdaje się, że nie miałem.
Nie, jakiś czas temu nawet coś tam robiłem z tego typu i nie, nie, pojawił mi się taki problem.
Ja taki problem miałem dokładnie 12 sierpnia, bo to akurat będzie pamiętliwa data, bo to była sobota, a wiadomo, że na sobotę przelewów niestety zlecać nie można.
Ale on sam sobie wtedy datę zmieni.
A ja wybrałem z tego pokrętła na pierwszy dzień powszedni, czyli to był 14 i chciałem zrobić przycisk wyślij i w żaden sposób ten przycisk nie chciał mi załapać.
Wiesz co, nie, to ja takiego problemu nie miałem, ale ja też, jeżeli ja chcę wysłać przelew z jakąś przyszłą datą konkretną, no to zazwyczaj są to zlecenia stałe.
Nie są to jakieś tam takie przelewy, bo tu mogę polegać na tym, że on to automatycznie zrobi.
Jeżeli nawet jest data powiedzmy sobota, kiedy tych przelewów, kiedy one nie są realizowane, no to się to po prostu samo przestawia.
Tak, a tutaj mówimy właśnie o jednostkowym przypadku, bo de facto jak mówiłem, ten przycisk wyślij mnie zadziała, to jedyne co mi pozostało to zalogować się do serwisu internetowego i tam zlecić się na ten konkretny dzień.
Ale też nie wiem, czy to czasem nie jest właśnie kwestia tego problemu z iPhone’em, o którym już kilka tygodni temu mówiłem, co podczas ładowania te gesty coś szwankowały.
One szwankują nadal.
Tak naprawdę jeszcze nie wiem, czy to jest problem kabla, chociaż podejrzewam, że mogą być jakieś głębsze problemy, bo właśnie a propos tego przycisku wyślij w aplikacji ICO,
później jak próbowałem zadzwonić z kontaktów, to jak próbowałem kliknąć na przycisk połącz, to była ta sama sytuacja, zero reakcji.
I teraz się zastanawiam, czy to rzeczywiście coś może być z panelem dotykowym?
No to by była najprostsza diagnoza, powiem szczerze.
Tak naprawdę ja już rozważam, żeby go rzeczywiście oddać na tą naprawę, żeby po prostu ten problem zaniknął, bo tak jak poprzednio wam mówiłem, wydaje mi się, że to jest jednak wątpliwe, żeby to była wina ładowania.
Ale wiesz, zawsze najlepiej spróbować przynajmniej wyeliminować te rzeczy, które nie będą nas jakoś kosztowały dużo, bo no niestety wybiana panelu dotykowego to będzie jakiś tam koszt.
Znaczy się, jeżeli iPhone jest na gwarancji, to wydaje mi się, że gra ma gwarancję.
A jeżeli jest na gwarancji, to nie powinno być problemu.
Może żeby było śmiesznie, on ma pięć miesięcy dopiero.
A, rozumiem. No to rzeczywiście pech.
Dobrze, no to w takim przypadku jeszcze raz dzięki serdeczne tutaj za wskazówki i mówię w przyszłym tygodniu, bo zapewne będziemy się słyszeć przynajmniej przez radio, to napiszę wam, czy rzeczywiście ta kwestia z Windowsem i zamykaniem zadziałała.
Ja zaraz zabieram się za tą aktualizację i wtedy się odezwę.
Dobrze, to dzięki za telefon Bartku, pozdrawiamy.
Również pozdrawiam, do usłyszenia.
No i tutaj taki standardowy przykład to jest YouTube, kiedy sobie przeglądamy na przykład wyniki wyszukiwań, ale nie tylko, bo na przykład też naszą stronę główną czy komentarze.
No to jak dojdziemy do dołu strony, to ona ładuje po 10 albo po 20 filmów.
No i później jak dochodzimy do tego 20 filmu, no to to ma wyglądać tak, że on sobie po cichu załaduje następne 10 czy 20.
Ale strona nie przewijała się tak jak powinna, kiedy korzystaliśmy z klawiatury, czy to był czytnik ekranu, czy nawet gdybyśmy przechodzili sobie po stronie tabem.
Natomiast firma Mozilla znalazła na to rozwiązanie i to rozwiązanie na początku było testowane w wersjach niestabilnych, w wersjach nightly.
Natomiast właśnie pojawił się Firefox 117 i on tą poprawkę już w sobie ma.
Więc możecie sobie po prostu wejść do menu pomoc i Firefoxa zaktualizować, jeśli on już tego nie zrobił wam automatycznie, bo Firefox jak i inne przeglądarki dzisiaj generalnie aktualizuje się w tle.
Zawsze możecie sobie też w menu pomoc sprawdzić jaką macie zainstalowaną wersję.
No i właśnie na YouTubie, ale pewnie nie tylko też na innych stronach, które działają w taki sposób, to powinno wam już działać dużo lepiej i dalsze wyniki powinny po prostu się zacząć ładować automatycznie.
No i a propos internetu, następnie mamy Mastodona.
Mastodon, pojawiła się jego nowa wersja, wersja 4.2, czyli tej aplikacji właśnie, którą uruchamiamy na serwerach.
No i dużą nowością w tej wersji jest wyszukiwanie po tekście.
No bo generalnie Mastodon, wyszukiwanie na Mastodonie, jak wspominaliśmy kilka razy, generalnie w przeciwieństwie do Twittera, czy właściwie teraz X, działa po hashtagach i po użytkownikach.
Więc jeśli chcemy, żeby nasze posty były łatwe do znalezienia, to trzeba stosować hashtagi.
Nie wszyscy chcą właśnie, żeby dało się ich posty szukać po prostu po ich pozostałej zawartości.
Natomiast są też osoby, które tego chcą.
No i Mastodon taką funkcję dostał, ale żeby zachować prywatność użytkowników, to jest coś, co każdy, kto chce być w ten sposób znaleziony, musi sobie włączyć.
No i jeśli nasz serwer tą najnowszą wersję wspiera, to znajdziemy to w swoich ustawieniach prywatności.
To już jest na oficjalnej instancji Mastodon Social i Mastodon Online.
Nie wiem, jak jest na przykład z dziesiątkami.
To pewnie będzie stopniowo się pojawiało na innych instancjach, stopniowo jak one będą się aktualizować.
Instancje dla osób niewidomych korzystają w ogóle z forka Mastodona, który pewnie to zajmie jeszcze więcej czasu, zanim on zostanie zaktualizowany.
Natomiast obserwujcie, co piszą właśnie administratorzy, jeśli chodzi o aktualizację.
Ale a propos tego wyszukiwania, coś na co kilka osób zwróciło uwagę, to to, że oprócz tekstu postów, to jest też indeksowany tekst, który wpisujemy jako opisy alternatywne do zdjęć i multimediów, które mamy do tego postu załączone.
To jest bardzo fajne, bo to między innymi też pozwoli nam znaleźć takie posty.
To też nie działało na Twitterze. Twitter nigdy nie pozwalał na szukanie tekstu, szukać po tekście alternatywne.
Więc jeśli mieliśmy jakiegoś tweeta, który nie miał sam sobie tekstu, ale miał jakieś fajnie odpisane obrazki, to byśmy ich po słowach klucz nie znaleźli.
No a tutaj bez większych problemów znajdziemy.
Więc tutaj kolejny argument, który możecie dać osobom widzącym, dlaczego powinni swoje zdjęcia opisywać.
No bo po prostu jeśli chcą być znalezione, to to spowoduje, że będzie jeszcze łatwiej ich znaleźć i posty będą jeszcze lepiej na Mastodonie odkrywane.
I na koniec tej części przynajmniej mamy Whatsappa.
Wspominaliśmy też, kolejna rzecz, która poniekąd wraca, to mówiliśmy, że Whatsapp pracuje nad nową wersją aplikacji na Maca.
No bo tak jak na Windowsie już od jakiegoś czasu mieliśmy aplikację, która spełni natywną taką aplikację Windowsową.
To na Macu generalnie stabilne Whatsapp, które pobieraliśmy, to po prostu była opakowana wersja w elektronie prawdopodobnie Whatsappa Web, czyli tego Whatsappa, który jest przeglądarca.
On jest bardzo fajnie dostępny, ma dużo skrótów klawiszowych, no ale jednak to jest aplikacja webowa, która będzie nam pożerała więcej materii.
Może działać wolniej, zwłaszcza na starszych komputerach, więc tutaj firma pracowała na czymś bardziej natywnym.
No i dzięki systemowi Catalyst, który pozwala na łatwe portowanie aplikacji z iPhona i iPada na Maca, to już takie prace jakiś czas trwały i zresztą zainteresowane osoby mogły sobie tę wersję beta ściągnąć.
Co mogę o niej powiedzieć?
No to jest generalnie wersja dosłownie z iOS-a do tego stopnia, że w niektórych miejscach np. na wiadomościach głosowych, na przycisku do nagrywania wiadomości głosowych mamy cały czas komunikaty w stylu
stukni dwukrotnie i przytrzymaj, aby rozpocząć nagrywanie, mimo to, że tak naprawdę musimy po prostu ten przycisk raz nacisnąć, żeby to nagrywanie rozpocząć i drugi raz, aby zakończyć.
No ale faktycznie ta aplikacja działa bardzo szybko, czasami gdzieś Focus na morze uciec i trzeba przewijać listę do dołu, żeby się gdzieś w konwersacji odnaleźć.
No ale to jest faktycznie teraz natywna aplikacja, przynajmniej natywna aplikacja z iOS-a.
Ona wcześniej była dostępna jako wersja beta, ale teraz jest dostępna, a właściwie będzie pomału udostępniana jako aktualizacja wersji stabilnej.
Najpierw na stronie Whatsapp.com, bo tam możemy sobie Whatsappa na Maca ściągnąć, ale z czasem też pojawi się jako aktualizacja wersji dostępnej w Mac App Store, bo tam też Whatsappa możemy sobie ściągnąć.
I trudno mi powiedzieć, jeśli macie tą wersję elektronową, czy ona sama się zaktualizuje, jeśli macie ją pobraną spoza App Stora, czy nie.
Natomiast możecie to zrobić ręcznie.
A jeśli za jakiś przyczyn ta nowa wersja Wam się nie podoba, wolelibyście wrócić do tej wersji webowej, no to jak to nazwa wskazuje, wersja webowa też jest dostępna w internecie i to cały czas będzie.
Możemy sobie wejść po prostu na web.whatsapp.com i tam z tego korzystać.
Swoją drogą już kilka osób tą wersję stabilną testowało i niestety cały czas nie mamy tej opcji, która została obiecana i właśnie na stronie Whatsapp Web wprowadzona, mianowicie logowanie się kodem, a nie skanowaniem kodu QR, ale pewnie za jakiś czas to się pojawi.
No i to były drobne newsy. Przechodzimy dalej, czy tak? Czy ktoś coś napisał?
Podejrzewam, że tak. I jeszcze mamy jedno pytanie. Mamy jedno pytanie, niech tylko ja tu sobie też odnajdę. O, Borys do nas napisał. Czyli, bo nie do końca zrozumiałem, czy Kaliber będzie za darmo dla niepełnoletnich przed osiemnastym rokiem życia?
Tak, dokładnie. Tam chyba na tym formularzu rejestracji, teraz nie pamiętam, ale tam chyba się gdzieś podaje, albo wiek, albo datę urodzin, pewnie na tej podstawie oni po prostu będą wiedzieć właśnie jaki mamy wiek i na tej podstawie to będzie ustalane. Jeszcze coś mamy?
Nie, na razie nic.
To w takim razie przechodzimy do technikaliów. I tak się zastanawiam, żeby troszeczkę wsiadłem, chwilkę odpoczął, bo mi się akurat tutaj trafił news już w trakcie audycji, to myślę, że można coś o tym, dosłownie kilka słów powiedzieć,
dlatego, że Eleven Labs przeprojektowuje powoli swoją bibliotekę głosów i mam wrażenie, że Eleven Labs będzie chciało tę bibliotekę głosów traktować dość priorytetowo. Biblioteka głosów, przypomnijmy, to jest coś takiego, co pozwala po pierwsze ludziom, którzy sklonowali swoje głosy już w ten sposób profesjonalny, udostępniać te głosy.
Póki co za używanie tych głosów ci użytkownicy, którzy udostępnili ten swój głos mają dodatkowe znaki, które mogą wykorzystać w Eleven Labs.
Natomiast zdaje się, że firma myśli o tym, żeby mimo wszystko jakoś były z tego pieniądze takie prawdziwe za używanie. Nie wiadomo co z tego będzie, nie wiadomo czy coś w ogóle z tego będzie, ale wydaje mi się, że ten voice library to ma być coś takiego, co ma się rozwijać i tam podobno plany mają duże.
Póki co to jest lekko przeprojektowane. Przeprojektowanie polega na tym, że trochę więcej jest informacji na temat danego głosu i tu nie chodzi tylko o te głosy sklonowane profesjonalnie, ale również te głosy, które każdy może wrzucić do biblioteki, to znaczy głosy te wygenerowane w losowy sposób.
I to są głosy, które można wygenerować i każdy może wygenerować. Są wytyczne na temat tego jak te głosy powinny być nazwane, żeby trafiły do tej biblioteki głosów.
Można wyszukiwać teraz te głosy, tam jest taki zestaw tagów, które pozwalają na to, żeby wyszukiwać głosów, które mają jakieś konkretne zabarwienie, są jakieś narracyjne, albo spokojne, albo wręcz przeciwnie i tak dalej i tak dalej.
Chodzi o to, żeby jak najprecyzyjniej móc znaleźć głos dla siebie, bo tych głosów w tej bibliotece jest u, u, u i jeszcze trochę. Jeżeli chodzi o te głosy oczywiście generowane, bo głosów tych sklonowanych profesjonalnie to jest tam kilka, nie wiem, z 10 może w tej chwili.
Więc ludzie bardzo niechętnie dzielą się tymi modelami, które wytworzyli jakby profesjonalnie. No zobaczymy co będzie dalej, z drugiej strony też firma pisze i być może słusznie zobaczymy, że im wcześniej ten głos będzie udostępniony, tym on może być potem wyżej na liście głosów.
Jeżeli wejdzie jakaś rzeczywiście opcja wow, to być może jeżeli teraz udostępni ktoś swój głos profesjonalnie, być może ktoś z niego tak czy inaczej skorzysta i być może on już będzie miał jakiś prioryzat potem na tej liście głosów, bo ona jest domyślnie sortowana od głosów popularnych.
Eleven Labs u nas gdzieś tam gości, bo akurat dali tutaj newsa w trakcie trwania Tyflop przeglądu, zresztą to nie jest pierwszy raz, lubią w środę, wieczorem mam wrażenie publikować newsy.
Czemu nie fajna strona, tak?
No to przechodzimy do technikaliów i pierwszym takim newsem to są dwa takie ułatwienia jak udostępniać pliki między systemami.
Konkretnie między Androidem i iOSem, bo to może być problematyczne.
Nazywa się Warpshare i możecie sobie ją ściągnąć. On chyba nie jest w sklepie Play, natomiast na GitHubie jest plik APK, więc można go sobie ściągnąć i to jest implementacja systemu Apple’owskiego AirDrop na Androida.
No i właśnie dzięki temu narzędziu Warpshare możemy używając AirDrop, a normalnie nasz Mac będzie widział urządzenie przez AirDrop, możemy wysyłać pliki.
Wykorzystuje protokół AWDL, czyli to jest bezpośrednie przesyłanie plików po Wi-Fi między urządzeniami, które Apple wymyślił, no i właśnie pomiędzy Maciem a urządzeniami Apple.
Musimy na Macu ustawić widoczność AirDrop na opcji wszystkie, bo jeśli mamy to ustawione na trybie tylko kontakty, to chyba nasz Android nie miał wtedy jak tego Maca znaleźć.
No i możemy znaleźć pliki z Androida do Maca, które mają maksymalnie 4 giga, więc są to jakieś spokojnie duże pliki, książki na przykład całe, czy jakieś nagrania dłuższe bez problemu można wysłać.
Tutaj mamy ograniczenia, no właśnie niestety tylko z Androida na Maca.
Jakość kodu może być nie najlepsza, bo tutaj ta osoba się coś uczy tych protokołów.
I tutaj autor mówi, że to niestety nie działa na niektórych modelach, nie jest powiedziane na jakich, ale też trudno tutaj to rozwiązać, no bo nie ma dostępu do tych konkretnych telefonów.
No i jeśli mamy, możemy dostać ostrzeżenie od Play Protect, no bo aplikacja nie jest w sklepie Play, więc tutaj trochę tak jak na Windowsie czy na Macu jak instalujemy aplikacje niepodpisane gdzieś spoza oficjalnych źródeł, no to tutaj możemy dostać ostrzeżenie, ale spokojnie to aplikacja jest bezpieczna.
Można ją sobie wstrzągnąć po prostu, albo nawet skompilować z kodu jeśli nie jesteśmy pewni.
I to jest jedno narzędzie, ale możemy też pójść w drugą stronę.
Jeśli nie chcielibyśmy korzystać z systemu aplowskiego AdJob, no to możemy skorzystać z systemu, które oferuje nam od niedawno Google, a mianowicie Nearby Share.
Nearby Share to jest usługa, o której też mówiliśmy.
Ona pozwala właśnie generalnie na wysyłanie plików czy nawet całych folderów pomiędzy urządzeniami z Androidem i komputerami z systemem Windows.
Google na razie nie wypuściło aplikacji obsługujących Nearby Share na inne systemy, mimo to, że sama aplikacja chyba powstała w jakimś silniku wieloplatformowym, ale aplikacja jest ograniczona do Windowsa.
Więc tutaj osoba stwierdziła, że może jakoś spróbuje rozgryźć ten protokół i stworzyć implementację tego narzędzia na Maca.
No i co właśnie stało zrobione?
Aplikacja będzie właśnie nam siedziała na tym pasku menu, o którym wcześniej wspominałem, no i będzie zapisywać pliki automatycznie do katalogu pobranej.
No i tutaj też niestety na razie mamy ograniczenia.
Możemy tylko odbierać pliki, bo autor tutaj nie znalazł sposobu, żeby odpowiedni komunikat nadać po sieci.
Wi-Fi, który na Androidzie spowodowałby, że urządzenie wyśle nam po WDM, że ktoś wysyła nam plik.
Działa to tylko po Wi-Fi i po lokalnej sieci, więc nasz telefon i Mac muszą być na tej samej sieci.
Implementacja Google wspiera różne protokoły, nawet tutaj bezpośredni transfer Wi-Fi pomiędzy dwoma urządzeniami.
Hotspot, Bluetooth, jeszcze coś po 5G podobno, ale na razie autor tutaj udało się…
Nie udało się jeszcze, autor robi to rozgryźć, no a bezpośredni Wi-Fi nie działa, no bo Apple ma ten swój protokół właśnie do AirDropa, o którym mówiliśmy wcześniej.
No i też tutaj widoczność naszego Maca zawsze będzie ustawiona na widoczność dla wszystkich, dlatego że ustawienie tej widoczności na np. tylko kontakty wymaga komunikacji z serwerami Google.
A ustawienie, że jesteśmy tymczasowo widoczni też wymaga wysłania jakiegoś sygnału, którego też autor niestety na razie nie rozgryzł.
No i to instalacja wygląda podobnie jak instalujemy każdą aplikację na Maca.
Mamy plik zip, rozpakowujemy go, przenosimy aplikację do katalogu i tutaj też aplikacja jest niepodpisana, więc pierwszy raz jak ją uruchomimy system nam ją zablokuje.
Spróbowaliśmy uruchomić aplikację, która nie może być sprawdzona pod kątem złośliwego oprogramowania, bo nie została zweryfikowana.
Naciskamy OK, później szukamy znów tej aplikacji, z menu kontaktowego wybieramy opcję otwór i wtedy możemy ją sobie otworzyć.
No i wtedy już możemy sobie np. dodać ją do elementów, które uruchamiają się systemem.
No i wtedy bez większych problemów z naszego telefonu z Androidem na Maca po właśnie systemie Nearby Share pliki wysyłać.
No i kto wie, może za jakiś czas autorowi uda się zaimplementować możliwość działania w drugą stronę i łatwy sposób wysyłania plików na nasz telefon z poziomu komputera, bo to też by się przydało np. do przesyłania książek.
Zwłaszcza na Macu, gdzie ten protokół MTP, po którym telefony z Androidem działają nie jest tak fajnie wspierany jak na Windowsie.
Tak na Windowsie to się wyświetla wszystko w eksploratorze, na Macu no to niestety potrzebujemy do tego zewnętrznych narzędzi, więc fajnie, że tutaj deweloperzy szukają sposobów jak przesyłanie plików ułatwić.
I kolejny news, chyba znowu tak od Piotrka.
FFmpeg Explorer, czyli kolejna strona ułatwiająca obsługę tego potężnego narzędzia.
W sumie narzędzia rzeczywiście FFmpeg, przypomnę to jest takie bardzo zaawansowane narzędzie do ogólnego działania na plikach multimedialnych, audio, wideo, można je konwertować.
Różne różności można z tymi plikami robić tym narzędziem.
No właśnie, bo to niedawno Paweł mówił o narzędziu, które też właśnie pozwala nam okiełznać to łatwiej, bo to jest narzędzie terminalowe, które nawet jak na takie narzędzia bardzo skomplikowano składnie.
Każdym razem jak chciałem coś z tym narzędziem zrobić, to właściwie zawsze gdzieś musiałem albo mieć otwartą dokumentację, albo po prostu szukałem gdzieś na Stack Overflow, czy tego typu stronach jak konkretną rzecz wykonać.
Bo oprócz tego, że to narzędzie może nam pliki skonwertować, to może nam je w jakiś sposób obrobić.
Nie wiem, mamy plik audio i chcemy sobie do niego dołączyć np. jakiś obrazek, czy jakiś tekst, może jakąś wizualizację, zrobić z tego film.
Ale też możemy dodawać do naszych plików różne efekty, zarówno audio i wideo.
No i powstała strona właśnie FFmpeg Explorer.
Adres w sumie jest prosty, więc mogę go Wam podać.
FFmpeg.love.io
Tutaj możecie sobie wejść i co znajdziecie na tej stronie.
Na górze mamy składnię, którą musimy do terminala wpisać, a pod spodem mamy interfejs, który nam pozwala sobie taki łańcuch przetwarzania audio stworzyć.
I to działa bardzo podobnie w sumie do Hijacka, czy do np. Rippera, gdzie dodajemy różne efekty.
Bo możemy sobie taki łańcuch efektów stworzyć.
Tutaj nawet mamy na tej stronie załadowany przykładowy materiał filmowy, który nam pozwoli przetestować to narzędzie.
Mamy załadowany plik wideo, który też ma dźwięk.
Możemy sobie to wszystko pozmieniać i mamy na górze strony przycisk Render Preview, który pozwoli nam po prostu przetestować nasze efekty.
No i pod spodem właśnie tego przycisku mamy listę rozwijalną, która pozwala nam zdecydować, czy szukamy filtrów audio, czy wideo.
No i pod spodem mamy dostępne filtry.
I tych filtrów jest dużo. Ja może kilka przeczytam.
Zobaczycie, że to naprawdę nie jest tylko konwerter, bo mamy kompresor.
Mamy w sumie nawet dwa kompresory.
Mamy echo.
Mamy złagodzenie, delikatne przechodzenie między jednym a drugim źródłem.
Mamy Beat Crusher, czyli taki efekt, który nam powoduje, że ten dźwięk jest taki retro, taki zniekształcony.
Mamy od usuwania trzasków.
Ja nawet nie wiedziałem, że FFMP takie narzędzia miały.
Były oczywiście jakieś redukcje szumów.
Korektory oczywiście.
No jest tego dużo i to są tylko efekty audio, a jeszcze mamy dużo właśnie efektów wideo.
Są tutaj nawet efekty wizualizacyjne.
Więc jak np. stworzyliśmy piosenkę, chcielibyśmy ją gdzieś wrzucić.
Nie wiemy jaki dodać obraz, to moglibyśmy sobie np. jakąś falę naszej piosenki dodać jako materiał video.
I w ten sposób sobie to zrobić.
No tych efektów nawet samych audio jest ponad 30.
W bardzo fajny sposób możemy sobie przetestować i dodać.
Tak np. dodajmy sobie jakiś efekt.
Ja sobie np. nacisnę na limiterze, czyli czymś co będzie nam zabezpieczało przed przesterowaniem.
Ja sobie ten limiter dodałem i on na górze strony nam się dodaje jako nagłówek.
Tutaj mamy link do dokumentacji.
No i pod spodem mamy parametry danego filtru, bo to FFM to wszystko nazywa filtrami.
No i tutaj możemy podać poziom na wyjściu, ustalić poziom na wyjściu.
No i tutaj niestety to nie jest podawane w decybelach, tylko to są jakieś takie wartości wewnętrzne.
Bo tutaj poziom na wyjściu jest podany od 0 do 64 jak normalnie się podaje w decybelach.
Nie wiem jak to się wszystko różni.
Limit później ustalamy też osobno od 0 do 1.
No tutaj pewnie mimo wszystko trzeba byłoby przeczytać sobie dokumentację.
No to później mamy atak, release to już takie normalne parametry.
I tutaj chyba faktycznie są milisekundy co ciekawe.
No tutaj faktycznie przydałoby się jeszcze sobie dokumentację przeczytać.
Natomiast to pozwala nam w bardzo interaktywny sposób stworzyć sobie taki łańcuch do przetwarzania efektów,
który potem moglibyśmy sobie do jakiegoś pliku wsadowego dodać,
jeśli szybko odszumić, czy właśnie dodać jakiś limiter czy inne efekty.
Na wielu plikach jednocześnie.
Może nie kupiliśmy sobie jakiegoś narzędzia typu Reaper.
A chcielibyśmy jakieś takie efekty dodać, czy właśnie skonwertować plik wideo do audio,
czy do jakiegoś pliku audio właśnie dodać jakieś grafiki w łatwy sposób.
No to jest kolejna strona, która może nam znacznie ułatwić obsługę tego narzędzia.
To co? Pora na następny news.
A następnym newsem znowu od Piotrka.
Sztuczna inteligencja trafia do Google Workspace.
No właśnie, ta sztuczna inteligencja pojawia się w wielu miejscach.
Jakiś czas temu mówiliśmy o tym, co zapowiedział Microsoft w tej dziedzinie,
bo w ofisie ta sztuczna inteligencja jak najbardziej się pojawia.
Microsoft to nazwał co-pilotem, czyli takim właśnie drugim pilotem,
a Google też wymyślił na swoją alternatywę bardzo wdzięczną nazwę,
a mianowicie to się wszystko nazywa Duet.
No i gdzie będzie ten Duet?
No będzie w pakiecie Google Workspace.
To jest właśnie webowy zestaw aplikacji biurowych,
które zainteresowane firmy mogą sobie wykupić.
I właśnie ten Duet to jest też coś, co nasza firma musi sobie wykupić.
Tam jest na stronie link, żeby poprosić o darmowe demo.
Natomiast do demo też tam właśnie trzeba podać e-mail firmowy itd.,
więc taki zwykły użytkownik nie może sobie niestety tego,
nie wiem, we własnych dokumentach Google przetestować, a szkoda.
No i to narzędzie jest dostępne właściwie we wszystkich narzędziach
z tego pakietu Workspace i w każdym narzędziu właściwie robi
troszeczkę coś innego odpowiednio do danego narzędzia.
I tak np. w tych pakiecie Google Sheets, Slides i Docs
może nam np. tworzyć gotowe dokumenty.
Tu jest podany taki przykład, że jest 12 w nocy,
nagle dostajemy telefon od naszego szefa, że potrzebuje prezentacji
z wynikami finansowymi firmy za trzeci, kwartą roku.
No i my zaczynamy panikować, no bo tu teraz trzeba wszystko
przeglądać, sobie to przejrzeć.
No a tutaj możemy poprosić np. właśnie w aplikacji Slides
duet o pomoc, napisać mu, żeby nam takie podsumowanie przygotował.
I on wtedy sobie automatycznie pobierze arkusze z poprzednich miesięcy,
pobierze sobie jakieś maile z Gmaila, jest na tyle mądry, że sobie to znajdzie.
No i na podstawie tych wszystkich danych przygotuje nam ładną prezentację
z tabelkami, z wykresami, ze wszystkim będziemy mogli sobie
po prostu przygotować taką prezentację, wysłać szefowi
i z minimalnym wkładem pracy własnej właśnie taką prezentację
sobie przygotować.
Następnie co nam może pomóc w Google Meet, czyli w spotkaniach.
Jeśli mamy dużo spotkań, w których musimy brać udział,
tak jak tutaj pisze firma.
Mogą być momenty, kiedy trudno nam daną osobę zobaczyć czy usłyszeć.
Złe oświetlenie, zła jakość mikrofonu.
To jest napisane, że będzie poprawa właśnie obrazu i dźwięku
od moduły Studio Look, Studio Light i Studio Sound.
Natomiast niestety nie jest powiedziane, co te moduły mają robić.
Więc pewnie jeśli chodzi o dźwięk, to pewnie będzie jakieś otrzymanie.
Może coś więcej, jestem ciekawy czy jakość, znaczącą jakość dźwięku
się wtedy poprawi.
Natomiast to nie jest wszystko, bo będzie też dostępne
automatyczne tłumaczenie napisów.
Więc jeśli mamy włączone napisy, jesteśmy powiedzmy na spotkaniu,
w którym wszyscy generalnie mówimy po polsku, ale jest jakaś prezentacja
po angielsku powiedzmy i my nie rozumiemy, co jest mówione.
A mamy włączone napisy, no to Google Meet automatycznie wykryje,
że ta osoba nie mówi po polsku.
No i automatycznie najpierw sobie rozpoznawanie mowy przetworzy to,
co jest mówione.
A potem jeszcze tłumaczem to przetłumaczy.
No i my już będziemy dostawali napisy po polsku,
mimo to, że ta osoba mówi po angielsku.
Szczerze mówiąc, czy język polski jest już wspierany czy nie,
no ale taki tutaj przykład.
Następna rzecz, którą ta sztuczna inteligencja, ten duet w aplikacji Meet
może zrobić, to może nam takie spotkanie podsumować.
Możemy go po prostu poprosić, żeby nam sporządził notatki ze spotkania
i on po prostu będzie wtedy słuchał tego, co się dzieje
i jakoś taki główny punkt spotkania nam automatycznie podsumuje.
Kiedy spotkanie się skończy, to każdemu z członków tego spotkania
wyślę maila z takim streszczeniem,
ale też powiedzmy dla kogoś, kto spójnie się na to spotkanie.
Nie wiem, może po prostu nie zdążył wrócić do domu,
coś się stało z internetem, to już pierwsze 20 minut go nie było.
Po zalogowaniu się to ten duet może mu wysłać
o to, co przegapiłeś przez te ostatnie 20 minut,
że nawet jeśli ktoś się spóźni, to będzie wiedział o czym jest właściwie mówione.
A jeśli my coś przygotowaliśmy sobie, ale nagle okaże się,
że nie możemy naszych pomysłów sprezentować,
no to duet może to zrobić za nas.
Możemy mu zostawić jakieś informacje.
Będzie funkcja attend for me, czyli weź udział za mnie.
Nawet pamiętam, były jakieś eksperymenty na YouTube,
gdzie ktoś wrzucał jakieś deepfake’i swoje na spotkanie i to nawet jakoś działało.
To jest bardziej inteligentne,
bo będziemy mogli temu duetowi zostawić wiadomość,
którą chcemy, żeby została zostawiona.
No i w odpowiednim momencie ten duet po prostu naszą wiadomość otworzy.
Nie wiem, czy tutaj będziemy mówić tekst, czy jakoś się nagrywać.
Chyba tak, będziemy po prostu nagrywać się jakoś.
No i po prostu w odpowiednim momencie nasze nagranie zostanie puszczone,
a potem duet nam wyśle podsumowanie.
Tak jak wcześniej mówiłem, no to podsumowania będą.
No i one faktycznie będą.
I na koniec tutaj, co nie jest tyle związane ze sztuczną inteligencją,
ale to jest powiedziane.
Google Chat dostał nowy interfejs.
Google Chat, jeśli nie wiecie o co chodzi, spokojnie,
Google co chwila wymyśla nowe aplikacje do komunikacji,
co chwila zmienia ich nazwy.
To jest coś, co kiedyś było aplikacją Hangouts.
No i generalnie w dużym skrócie, co się stało,
będzie nowy ekran główny, który będzie nam jakoś dokumenty podsumowywał,
pokazywał nam, jakie wiadomości przegapiliśmy.
No i też będzie funkcja łatwego utworzenia pokojów głosowych,
i chcemy szybko zalogować się do rozmowy głosowej,
które mogą szybko być skonwertowane na takie całe spotkania w Google Meet.
Więc to będzie to samo, ale generalnie z tego, co czytałem,
ta aplikacja bardzo upodobniła się do Teamsów Microsoftowych.
Więc te wszystkie aplikacje generalnie wyglądają coraz bardziej podobnie,
robią to samo, no ale tutaj zależy, kto w jakim ekosystemie po prostu siedzi.
No i tutaj chodzi o to, żeby nawet te osoby po prostu w danej usłudze utrzymać.
No i tutaj jest obiecane, że to wszystko będzie zabezpieczone.
Oczywiście też w Gmailu już wcześniej pojawiła się sztuczna inteligencja,
która nam pozwoli ładne odpowiedzi na wiadomości stwarzać.
Możemy mu powiedzieć, jak chcemy odpowiedzieć jednym zdaniem,
bo on nam to rozpisze na dłuższą wiadomość, może przetłumaczy nawet,
więc to też się może przydać.
No i tutaj właśnie ma być nasza prywatność zachowana,
no i zainteresowane firmy mogą już się zgłaszać, żeby tą usługę przetestować.
No ale tutaj, jak mówiłem, to już musimy faktycznie mieć do tego firmę.
Jeszcze a propos sztucznej inteligencji od Google’a,
wiem, że jest testowany notatnik ze sztuczną inteligencją,
o co się teraz nie pamiętam, jak to nazwali,
podaje się po prostu notepad.ml i tam też to wygląda tak,
że podajemy mu dane źródłowe w tej wersji alfa wczesnej,
do której dziennikarze mieli dostęp.
Tam można było chyba do pięciu dokumentów podać.
To mogą być prezentacje, to mogą być strony internetowe, dokumenty,
a potem możemy po prostu sobie z tym dokumentem rozmawiać.
Więc możemy mu jakiś materiał źródłowy podać,
no a potem poprosić, żeby mu nam coś streścił,
odpowiedział na jakieś pytania po analizie tekstu.
No i ponoć to działa bardzo fajnie, zwłaszcza, że nie ma takich tendencji do halucynacji,
bo skupia się generalnie tylko na tym, co my mu damy.
Więc jeśli zapytamy o coś, co nie jest gdzieś powiedziane w tekście,
który mu daliśmy, to on powie, przepraszam cię,
ale w tekście, który mi podałeś, tej informacji nie ma.
Tam jakieś ograniczone wyszukiwanie w internecie też jest,
ale to jest właśnie bardzo ograniczone, żeby jakichś złych informacji nam nie podało.
To jest stworzone bardziej po to, żeby nam było łatwiej pracować z własnym tekstem.
No i ostatni, no nie to, że news.
Po co znowu zestaw newsów, czyli drobne newsy technologiczne
i jakby się nie zdziwić, no z Piotrka.
No a tutaj faktycznie będą dosłownie drobne newsy.
Po pierwsze, tutaj bez większego zaskoczenia,
Apple już oficjalnie potwierdziło, że 12 września odbędzie się następna konferencja,
bo także nazwa taką będzie, to jest Wanderlust.
No i co będzie zapowiadane? Nowy sprzęt.
Co jeszcze spodziewamy? Nowych iPhone’ów, iPhone’ów 15, nowych zegarków.
No generalnie chyba tutaj o tym się mówi najbardziej.
Może jakiś nowy iPod, ale generalnie głównie tutaj będą iPhone’y i zegarki.
Może jakieś nowe Mac’i, ale tutaj głównie będzie chodziło raczej właśnie o iPhone’y.
Więc to będzie 12 września, to będzie wtorek, pewnie o godzinie 19 jak to zwykle bywa.
Raczej będzie audiodeskrypcja.
No i na pewno jak już to spotkanie się odbędzie,
to powiemy Wam dokładnie co zostało ogłoszone.
Nowe iPhone’y zapowiadają się dosyć ciekawie,
no bo na przykład mogą mieć porty USB-C, o tym się mówi.
iPhone’y Pro 15 pewnie będą miały nowy przycisk, o tym też już wspominaliśmy.
Zobaczymy co tu będzie się działo.
Teraz wracamy do konkurencji, bo będziemy mówić o Google’u,
a mianowicie Google w aplikacji YouTube, tylko na Androidzie na razie,
testuje nową funkcję, która myślę może się Wam spodobać,
bo pozwoli nam szukać piosenek poprzez nucenie lub puszczenie fragmentu.
Czyli to co mieliśmy wcześniej w asystencie Google na przykład.
Czy w Shazamie, no ale teraz to będzie gdzieś dostępne na YouTubie.
Pewnie gdzieś obok przycisku wyszuka i tak mamy ten przycisk wyszukiwanie głosowe.
Może tam to po prostu będzie, jeśli nic nie powiemy,
a zaczniemy po prostu sobie śpiewać czy nucić coś,
to on inteligentnie nam po kilku sekundach wykryje o jaką piosenkę nam chodzi
i po prostu od razu wyświetli nam filmy na YouTubie, które mogą nas zainteresować.
No i myślę fajna funkcja, na razie to jest tylko na Androidzie testowane,
ale mam nadzieję, że to będzie gdzieś bardziej szerzej dostępne
i nie tylko na Androidzie, i nie tylko dla nielicznych,
bo wydaje mi się, że funkcja wygląda bardzo ciekawie.
Wiele osób niech szuka jakiejś piosenki,
no to zazwyczaj swoje poszukiwania właśnie zaczyna od YouTube,
więc mam nadzieję, że to dziś będzie szerzej dostępne.
I na koniec tutaj taka informacja,
bo niedawno pojawił się w Unii Europejskiej,
wszedł tak zwany Digital Services Act
i to jest taki dokument, który wymaga kilka rzeczy od dużych firm,
technologicznych, m.in. zgłaszanie nieopowiednich treści,
czy nielegalnych treści,
ale też powinien dawać użytkownikom informacje skąd dane reklamy się pojawiają
lub dlaczego widzimy dane treści,
a także możliwość wyłączenia algorytmów,
które właśnie mogą być gdzieś jakoś kontrolowane przez reklamę.
No i tutaj duże firmy, które polegają na algorytmach
dodają dzięki temu opcję wyłączenia tych algorytmów.
I tak takie trzy największe usługi,
które głównie właśnie opierają się na algorytmach,
to jest Facebook i Instagram od Mety i TikTok
za jakiś czas zaoferują użytkownikom w Unii Europejskiej
możliwość wyłączenia całkowicie sobie algorytmów.
I wtedy jeśli to wszystko powyłączamy,
to będziemy widzieli takie stricte chronologiczne osie czasu.
No a na innych stronach już takie rzeczy były dostępne,
na X to już jakiś czas było dostępne,
jeszcze zanim to był X,
no ale Facebook, jest tam sekcja ostatnie na Facebooku,
gdzieś tam ukryta, czasami mniej, czasami bardziej,
ale ona mimo wszystko czasami też mi wysiadała jakieś treści,
gdzieś, nie wiem, post z dwóch godzin temu,
a potem nagle post z dwóch dni temu,
więc tam mimo wszystko jakieś algorytmy jeszcze działały,
no a teraz będziemy gdzieś mieli możliwość całkowitego tego wyłączenia.
No to jest jedna z rzeczy, które właśnie ten dokument
jako użytkownikom nam daje.
No i pytanie, czy ktoś z Was coś jeszcze znalazł w trakcie audycji.
Z mojej strony to wszystko.
Chyba nie.
Mi się też nie udało niczego znaleźć,
też nie widzę, żeby jeszcze jakieś komentarze do nas przychodziły,
jeszcze sobie tu wszystko odświeżę, jak dla pewności,
ale chyba nie, nic więcej nie mamy.
No to w takim razie to już dzisiaj wszystko
i do usłyszenia w takim razie w dwusetnej audycji Tyflo Przeglądu,
miejmy nadzieję za tydzień,
miejmy nadzieję w nieco większym składzie.
Dzisiaj Piotrek Machacz, Michał Dziwisz i ja, czyli Tomek Bilecki.
No i dobranoc, do usłyszenia.
Dobranoc, do usłyszenia.
Dobrej nocy.
Był to Tyflo Podcast.
Pierwszy polski podcast dla niewidomych i słabowidzących.
Program współfinansowany ze środków
Państwowego Funduszu Rehabilitacji Osób Niepełnosprawnych.

Wszystkie nagrania publikowane w serwisie www.tyflopodcast.net są dostępne na licencji CreativeCommons - Uznanie autorstwa 3.0 Polska.
Oznacza to, iż nagrania te można publikować bądź rozpowszechniać w całości lub we fragmentach na dowolnym nośniku oraz tworzyć na jego podstawie utwory Zależne, pod jedynym warunkiem podania autora oraz wyraźnego oznaczenia sposobu i zakresu modyfikacji.
Przekaż nam swoje 1,5% podatku 1,5 procent Logo FIRR Logo PFRON Logo Tyfloswiat.pl

Czym jest Tyflopodcast?

Tyflopodcast to zbiór instrukcji oraz poradników dla niewidomych lub słabowidzących użytkowników komputerów o zróżnicowanej wiedzy technicznej.

Prezentowane na tej stronie pomoce dźwiękowe wyjaśniają zarówno podstawowe problemy, jak metody ułatwienia sobie pracy poprzez korzystanie z dobrodziejstw nowoczesnych technologii. Oprócz tego, Tyflopodcast prezentuje nowinki ze świata tyfloinformatyki w formie dźwiękowych prezentacji nowoczesnych urządzeń i programów. Wiele z nich dopiero znajduje sobie miejsce na polskim rynku.

Zapraszamy do słuchania przygotowywanych przez nas audycji i życzymy dobrego odbioru!

Tematyka

Pozycjonowanie i optymalizacja stron internetowych