TyfloPrzegląd Odcinek nr 218 (wersja tekstowa)

Pobierz napisy w formacie SRT
Pobierz napisy w formacie VTT
Fundacja Instytut Rozwoju Regionalnego prezentuje Tyflo Podcast.
Dzień dobry, dzień dobry.
218. audycja Tyflo Przeglądu.
Dzisiaj w dość dużym składzie jest Piotrek Machacz, Paweł Masarczyk.
Witajcie.
Dzień dobry, wieczór.
No i oczywiście zacznijmy sobie od tego, co dzisiaj się będzie działo,
to co przedstawi jak zwykle Michał.
interesowanych uczeniem maszynowym.
Przestrzegamy przed aktualizacją Outlooka na iOS.
Nowa wersja ma poważny błąd.
Nadchodzi Project Tapestry,
uniwersalna oś czasu dla wszystkich istotnych informacji.
Powstaje CTR to Voice,
urządzenie udźwiękawiające niektóre radiostacje.
Duża aktualizacja Speech Central.
Voice Vista z poprawionym spolszczeniem
i integracją z Apple Watchem.
Nowy międzynarodowy serwer Discord zrzeszający osoby z dysfunkcją wzroku.
Jak może wyglądać Internet, czyli co wprowadza specyfikacja ARIA 1.3?
Audible Sight, sztuczna inteligencja tworząca audiodeskrypcję.
Jupiter usprawnia nawigację klawiaturą.
Co nowego w testowych wersjach Windowsa 11?
Opuł otwiera się na zewnętrzne sklepy z aplikacjami i inne silniki przeglądarek.
Philips rezygnuje z Androida na nowych telewizorach.
W podcastach Opuł pojawią się automatycznie generowane transkrypcje.
Fossil kończy z produkcją smartwatchy.
Wszystko to, a pewnie jeszcze więcej już za chwilę.
Zaczynamy!
I ja tradycyjnie przypomnę nasze namiary 663883600 to jest nasz numer telefonu, możecie dzwonić, możecie nagrywać wiadomości głosowe na Whatsappie, możecie kontaktować się z nami przez Facetime’a, do tego bardzo serdecznie zachęcamy.
Też forma pisemna kontaktu jest jak najbardziej możliwa. Za moment nasz panel kontaktowy zostanie uruchomiony kontakt.tyflopodcast.net.
Natomiast już teraz działają YouTube oraz Facebook, tam w transmisjach na żywo macie sekcję komentarzy, możecie wpisać wasze przemyślenia.
Ja tam będę zaglądał od czasu do czasu i będę to wszystko czytał.
Oczywiście aplikacja na Windowsa, którą stworzył Dawid Pieper i aplikacja na iOSa, którą stworzył Arkadiusz Świętnicki również się polecają i na was czekają.
A na was już nie czekają newsy, co prawda jeszcze newsy, które mają jakieś tam, że tak powiem, korzenie w poprzedniej audycji, bo tutaj mamy dwie audycje, znaczy dwie informacje, dwie, trochę być może trzy, ale zobaczymy.
Bo najpierw o Menus4All i Castro, które jednak nie znikną.
Dokładnie, czyli jeśli chodzi o menus for all, to tak w uzupełnieniu o to o czym mówiliśmy w zeszłym tygodniu, o czym mówił Michał, a mianowicie aplikacja, która na terenie Stanów Zjednoczonych i Kanady dawała nam dostęp do menu w restauracjach, których restauracji było tam dużo, no i niestety twórcy tej aplikacji nie byli w stanie znaleźć inwestorów, żeby ona po lutym działała dalej, natomiast okazuje się, że jakoś im się to udało, udało im się podpisać,
pisać jakieś nowe umowy z dostawcami treści do tej aplikacji.
Na ile, na jakich zasadach, do takich informacji nie dotarłem i dowiedziałem się
o tym tylko z Mastodona na AppleVisie, nie widziałem żadnych komentarzy na ten temat.
Natomiast jeśli słuchacie nas stamtąd, a może sobie jakoś inaczej tą aplikację
ściągnęliście, żeby się w niej rozejrzeć, no to ona jeszcze będzie działać dłużej.
To jest jedno, a drugie, co już może być nam bardziej przydatne, to jest też
dziś odniesienie do tematu, który kilka audycji temu się pojawił, ale
jest aplikacja, która myślę u nas może mieć dużo swoich fanów.
Mianowicie jest to klient do słuchania podcastów Castro, który ma kilka takich
ciekawych funkcji. Samo to jak zarządzamy tymi podcastami, mamy taką skrzynkę
odbiorczą, której możemy sobie poszczególne odcinki po prostu usuwać z tej skrzynki
odbiorczej, jeśli nas nie interesują, a te które chcemy odsłuchać po prostu sobie
odsłuchujemy to trochę wygląda jak taki widok subskrypcji na YouTubie np.
aplikacja, która była bardzo popularna wśród niewidomych.
Później stała się trochę mniej dostępna, potem trochę bardziej.
No a pod koniec to już miała dość duże problemy
z… dość duże problemy z działaniem po prostu przez to, że…
przez to, że firma, która była właścicielem
tej aplikacji, jakoś nie była ją zbytnio zainteresowana, miała być całkowicie zamknięta.
Później pojawiły się informacje, że szukali nowego właściciela dla tej aplikacji.
Potem nagle po prostu wszystko zniknęło, łącznie ze stroną, adresy e-mail przestały działać, aplikacja zniknęła.
Ale po kilku dniach wróciła.
A kilka dni temu na blogu aplikacji Castro pojawiła się informacja, że udało się nowego
właściciela znaleźć, jest to mniejsza firma, która zajmuje się rozwojem niezależnych
aplikacji, firma, która już wcześniej rozwijała swój klient do słuchania
podcastów, ale na konkurencyjnym systemie, bo na Androidzie, który co ciekawe
też zostanie zrebrandowany właśnie na Castro, więc tutaj ewidentnie marka Castro
jest bardziej popularna, a jeśli chodzi o aplikacje na iPhona, no to na razie
nic się nie zmieni, tam będą poprawiane jakieś rzeczy na serwerze, a ten serwer
faktycznie ostatnio był niestabilny, a później jakieś nowe funkcje będą planowane.
Zobaczymy jak będzie z dostępnością.
Miejmy nadzieję, że nowi właściciele tej aplikacji będą dbać o to tak samo jak to
było kiedyś. Czas pokaże.
Natomiast użytkownicy aplikacji Castro nie musicie się o nic nie bać, no bo aplikacja
po prostu będzie. Koszty subskrypcji też się nie zmienią, generalnie po prostu wszystko
powinno.
nie spadną bo tam już też widziałem na stronie w takiej sekcji najczęściej
zadawanych pytań, że nie lubię płacić za subskrypcję, czy coś się tu zmieni?
No niestety nie, to nadal ma być ich model biznesowy.
Tak, po prostu nie widzą innej opcji.
No ale szczęście też na razie, przynajmniej tam też jest napisane, że na
razie nic nie podróżeje, więc spokojnie można z Castro dalej korzystać.
A dla tych, którzy może tej aplikacji jeszcze nie przetestowali, a byli
ciekawiej. Ja szczerze mówiąc właśnie miałem od jakiegoś czasu zamiar to
zrobić, no to myślę, że też spokojnie można sobie Castro poprać, tam też
niektóre funkcje są z tego co pamiętam dostępne za darmo, więc można sobie po
prostu tą aplikację potestować.
I to jest pierwsza informacja.
Druga informacja dotyczy również iOS-a, no błędu, który się na iOS-a
wrócił, że tak powiem.
Tak, no bo w zeszłym tygodniu rozmawialiśmy o tym, że iOS 17.3 się pojawił, czy zaobserwowaliście jakieś błędy, jakieś poprawki, no kilka poprawek zauważyliśmy, ale ja wtedy powiedziałem, że ja osobiście żadnych błędów nie zobaczyłem.
do następnego dnia, dosłownie, bo przyszłem sobie do pracy, w której mam głośnik
bluetooth, a dla tych, którzy nie wiedzą, jeśli system wykryje jakieś urządzenie
jako głośnik, a nie słuchawki, to zresztą można sobie też dla poszczególnych
urządzeń dostosować, no to robił coś takiego, że muzyka jaką sobie puszczamy
z jakiejś aplikacji, czy jakaś inna multimedia, to może być spotify,
jakiś podcast, coś na YouTubie, jakiekolwiek multimedia, lecą z tego
głośnika, ale voiceover, dźwięki powiadomień i alerty i inne tego typu rzeczy
wydobywały się cały czas po prostu z głośnika naszego iPhone’a i to było fajne, no bo
wiadomo, łatwiej nam wtedy tą mowę jakoś usłyszeć.
Mamy wtedy mniejsza opóźnienie i myślę, że to jest też dla nas istotna kwestia.
Natomiast przez długi czas, przynajmniej kilka wersji iOS’a, chyba w 15-16 już to było,
To powodowało jeden irytujący problem, że głośność voice overa lubiła bardzo podskakiwać i to do tego stopnia, że ona powiedzmy jeśli mieliśmy nawet ją na nie wiem 20% tak generalnie cicho, no to na chwilę telefon nam mówił z pełną głośnością.
W iOS 17.2 chyba i może nawet jeden już, to zostało poprawione w końcu i to się sporadycznie jeszcze zdarzało np. jak telefon się odblokowywał Face ID np. nie wiem czemu akurat wtedy, ale generalnie kiedy sobie po nim nawigowaliśmy no to tego problemu nie było.
No i słuchajcie, w 17.3 niestety ten problem powrócił, nie tylko ja to zresztą zauważyłem, bo dzisiaj też ktoś na portalu Apowiz zamieścił podobną informację, że też ten błąd zauważyli.
Nawet to jest, mam wrażenie, o tyle bardziej uciążliwe, że tak jak kiedyś to było tak, że ta głośność podskakiwała tylko na chwilę, ale generalnie ten telefon mówił z tą głośnością, którą my ustawiliśmy i dało się to też troszeczkę złagodzić,
wyłączając dźwięki albo ustawiając nasz głośnik bluetooth jako słuchawki, no ale wtedy cały głos
voice overa też się przez ten głośnik wydobywał, a nie wszyscy to chcieli.
No to teraz to u mnie przynajmniej wygląda tak, że jeśli na głośniku otwarzamy jakiś materiał,
no to voice over po prostu cały czas praktycznie mówi z prawie maksymalną
głośnością, więc to jest dość uciążliwy problem.
Czy jest na to obejście?
No chyba właśnie to co powiedziałem, musimy sobie przestawić nasz głośnik jako może nawet nie słuchawki,
a na przykład tam jest jakaś jeszcze inna opcja, bo jeśli włączymy sobie słuchawki, no to też nam system
zacznie mierzyć poziomy głośności i może nam próbować chronić słuch i ściszczać nam głośność, a to niekoniecznie
musi być coś czego chcemy.
W przypadku głośników, tam jest też jeszcze jedna opcja, teraz zupełnie nie pamiętam, głośnik samochodowy
jakoś tak to się nazywa?
Tak, zestaw samochodowy.
zestaw samochodowy, no to myślę, że bezpiecznie można tego używać, co da nam podobny efekt bez tych zabezpieczeń na słuch.
To zanim jeszcze przejdziemy do tematów bieżących, to ja sobie pozwolę przeczytać tutaj dwa komentarze, które się pojawiły pod najnowszą audycją,
pod najnowszym poprzednim Tyflo przeglądem.
Michał Molek napisał tak a propos oczyszczania linków
i a propos tego serwisu, który pomoże nam linki oczyścić.
Z oczyszczaniem linków proponuję zoomiarem,
jednak najlepiej ręcznie lub kodem samodzielnie napisanym
albo przez osobę zaufaną.
99 razy można link oczyścić ze śledzenia reklamami,
a setny raz oddać w odkład internetu token do bezsesyjnego logowania na jakieś konto.
Pewnie znajdą się osoby, które pomyślą, że niewiele trzeba, żeby paranoik bezpieczeństwa znów się odezwał,
ale nic na siłę podpowiadam zainteresowanym, że oddawanie wszystkich linków jak leci do zewnętrznego oczyszczania
teoretycznie umożliwia wykorzystanie tego w złym celu, a jednocześnie wszystko co jest sens czyścić łatwo jest wykonać ręcznie
i sprowadza się zwykle do usunięcia wszystkiego od znaku zapytania do końca.
Zwykle inne elementy albo są przydatne, użyteczne, albo wysyłanie takiego łącza do zewnętrznej usługi
i mija się z zasadami bezpieczeństwa
i umożliwia atak z użyciem informacji zakodowanej w linku.
Zostaliście ostrzeżeni, a teraz up to you.
I tu jeszcze Michał się uśmiechnął na koniec.
No rzeczywiście coś w tym jest,
ale to ja oczywiście też tak sobie myślę,
że warto po prostu wiedzieć jakie my linki chcemy gdzieś tam oczyszczać
i jakie chcemy w ogóle wysyłać do takiego serwisu.
Fakt faktem jest, że niektóre usługi wysyłają nam takie linki, na przykład jeden z hostingów, z których korzystam, pozwala na zalogowanie się za pomocą takiego właśnie bezpiecznego linka, który dostaję na pocztę.
Muszę najpierw podać swój adres mailowy i na ten adres mailowy przychodzi mi tam za jakiś czas link do zalogowania się do panelu administracyjnego.
Więc gdybym taki link wysłał do jakiejś usługi niekoniecznie bezpiecznej, no to rzeczywiście mogłoby być to proszeniem się o kłopoty.
Więc tu słusznie też Michał zwrócił uwagę. No po prostu trzeba wiedzieć co można, a czego nie gdzieś wysłać w świat.
Znaczy ja też udostępniając ten serwis, w ogóle pierwszą myślą jaką miałem było to, że raczej udostępniamy i chcemy oczyszczać linki,
które puszczamy dalej znajomym, czyli jakieś artykuły znalezione z internetu i takie rzeczy najczęściej nam wychodzą z jakimiś trakerami.
Natomiast też pod kątem iPhona, gdzie jednak ta nawigacja po tekście, ona oczywiście jest możliwa i my możemy sobie na pokrętle zaznaczyć gdzieś tam od któregoś tam end aż do końca.
No ale o ile prościej jest po prostu udostępnić to do skrótu i dostać już taki link wymiśkowany z tego wszystkiego.
Ale dzięki, że zwracasz uwagę, bo jest to bardzo cenne.
Fajnie, że tu czuwasz nad naszym bezpieczeństwem.
Ale właśnie mi się tak skojarzyło, że nie wiem jaki link musiałbym chcieć udostępnić publicznie, żeby on zawierał jakieś moje prywatne tokeny.
Wiesz co, ja raczej myślę, że Michał Naso to nie podejrzewa bardziej, po prostu zwraca uwagę tym użytkownikom, którzy być może nie do końca mają tę świadomość, no bo my raczej wiemy i część z naszych słuchaczy podejrzewam, że wie, czego może się spodziewać po jakichś linkach, natomiast nie każdy ma tego świadomość i nie każdy zdaje sobie z tego sprawę, co w takich linkach może siedzieć.
Tak, racja. Też nie ma chyba takiej edukacji a propos tego, jakie linki warto w ogóle odczyszczać, bo to też, jeżeli nie wiem, że mam się spodziewać jakiegoś trackera, to w jakiej sytuacji mam w ogóle go użyć, takiego odczyszczacza.
No dokładnie. I jeszcze tu mam taki jeden komentarz, DJ Mieszko do nas napisał.
W audycji rok 2023 w Tyflo Informatyce była wzmianka o tym, że trzeba pojedynczo aktualizować dodatki NVDA za pomocą nowego sklepu.
a wystarczy tylko wcisnąć CTRL A na liście dodatków z możliwą aktualizacją
oraz z menu kontekstowego wybrać aktualizuj,
a następnie wystarczy zamknąć sklep klawiszem ESC.
Pozdrawiam, a bardzo ci serdecznie dziękujemy.
Tak i jeszcze, no właśnie, mówiłem, że być może będzie trzecia informacja,
bo nie byłem, co prawda nie uczestniczyłem w audycji tydzień temu i chyba nawet też dwa tygodnie temu, ale tej audycji słuchałem.
Przynajmniej na początku, potem jakiś problem z YouTubem.
No i ktoś się chyba, Patryk, zastanawiał, pytał, czy chciał zapytać o Whisper X.
Tylko już nie pamiętam dokładnie o co chodziło.
Więc gdybyś, Patryku, chyba Patryku, mógł pytanie jeszcze raz zadać, to będę wdzięczny.
Chyba generalnie chodziło o instalację tego Whispera i o plik wykonywalny, że czy tam jest plik wykonywalny do tego.
Tak, tam jest, bo teraz w ogóle dość, jest często taki, taka, taka jakaś moda się zrobiła na instalowanie różnych rzeczy przez ten cały PIP, to Python Index Package, czy jakoś tak to się nazywa.
Już nie pamiętam dokładnie, jak jest rozwinięcie tego.
Tak, no taki menadżer pakietów dla Pythona po prostu.
To jest zasadniczo raczej dla Pythona, ale takie rzeczy jak WhisperX dokleja się do tego wszystkiego, PreCheckExe, który jest uruchamiany z wiersza poleceń i on się instaluje tam, gdzie te wszystkie właśnie Pythonowe historie.
Więc on jest osiągalny z całego systemu, bo zdaje się, że te rzeczy, które się przez ten pip instalują, one się dodają do tej ścieżki zmiennej środowiskowej, która powoduje, że można do tych plików odwoływać się z całego systemu.
Więc można wpisać WhisperX w wierszu poleceń albo w pliku BAT i potem te wszystkie przełączniki, które określają ten model, plik do przerobienia i tak dalej.
No i wtedy można z tego skorzystać. Ewentualnie zdaje się minus help, to pokazuje jakie są opcje, co tam można zrobić, więc w taki sposób można to zrobić.
i generalnie coraz częściej robi się właśnie tak, że właśnie takie rzeczy jak Whispered albo inne tego typu bibliotekoprogramy,
których mogą używać tacy, mogą chcieć używać tacy zwykli ludzie, no to często tam jest dodawany też właśnie plik exe,
żeby po prostu ułatwić życie takim ludziom,
powiedzmy, może trudno to nazwać zwykłym programem,
takim, może inaczej, trudno nazwać łatwym programem,
no bo to jest program nadal konsolowy,
więc to wszystko się wpisuje ręcznie,
no ale już nie trzeba do tego angażować Pythona,
tylko jest tam egzek, zobaczymy jak to się będzie rozwijać dalej.
A tymczasem mamy telefon, więc odbierzmy,
Kto jest z nami po drugiej stronie? Halo?
Halo, halo, dobry wieczór wszystkim. Marzena Luk z tej strony.
Dobry wieczór Marzeno, słuchamy.
Ja mam takie, nawet nie wiem jak to nazwać, komunikat, prośbę, nie wiem.
Do naszych znajomych we Lwowie trafił młody człowiek z wojny, żołnierz.
Po wojnie, po wypadku, trudno nazwać jak.
stracił wzrok, słuch na jedno ucho, jednej ręki nie ma zupełnie,
druga jest do łokcia, czyli jakby został ten malutki kawałek,
gdzie się tam zgina ręka. No i teraz pytanie jest takie do wszystkich,
kto w ogóle mógłby cokolwiek wymyślić, jak mu pomóc, nie wiem,
w życiu codziennym, cokolwiek, burzą łzbów. Staramy się tą informację
rozpropagować jak największej ilości ludzi.
Jaki macie kontakt z ukraińskimi strukturami, jak chodzi o Związek Niewidomych, UTOZ, NIKC itd.?
Nie, tu w ogóle nie ma żadnego… UTOZ w ogóle nie ma z tym nic wspólnego.
To jest wolontariat. To są nasi znajomi, którzy jakby jutro go odbierają ze szpitala
i gdzieś tam będą go u siebie mieć.
W sensie, bo jeżeli… bo ja wiem kto tam się zajmuje, przynajmniej z Kijowa,
szkoleniami komputerowymi dla takich osób.
I w tej sytuacji można by skierować, ale rozumiem, że ten człowiek będzie gdzieś w Polsce, tak?
Nie, na razie jest we Lwowie. Jutro trafia do Lwowa.
Do Lwowa, okej. Wiesz co, bo zawsze możemy kwestie omówić gdzieś tam na priw i zobaczyć.
Natomiast co można zrobić? No na pewno screen reader i prawdopodobnie switch,
czyli takie urządzenie, które pozwoli, taki jeden przycisk, który pozwoli na sterowanie telefonem
w sytuacji, kiedy nie ma się kończyn albo jakoś ten…
Sterowany głową na przykład.
Głową, językiem, dmuchaniem.
Tak, ale mnie bardziej chodzi o życie codzienne.
Wiecie, przepraszam, trzeba się ubrać, umyć, zjeść.
Znaczy no chyba nikt z nas tutaj w tym
momencie nie ma takiego doświadczenia, więc teraz ciężko sądować.
Dlatego też wspomniałem o strukturach, bo
Bo są tam osoby przeszkolone, które wiedzą jak do tego tematu podejść, które już mają też doświadczenie.
Nawet z pomocą takim osobom.
Ja myślę, że Kijów już był poinformowany. Dlaczego ta informacja dotarła do nas, do Polski?
No bo myślę, że Kijów jakby nic z tym nie zrobił.
Powiem inaczej.
Powiem inaczej. Moje zadanie jest takie, żeby jakby poszło w świat, może ktoś cokolwiek, no nie wiem, nie mam pomysłu, bo dla mnie to jest, dla mnie osobiście to jest ciężkie.
Kto jest poszukiwany? Czy jest poszukiwana organizacja bądź osoba, która, nie wiem, zjawi się w tym Lwowie i jakoś poradzi, czy konkretne porady, czy czego potrzebujemy?
Burza mózgów, cokolwiek, burza mózgów, to znaczy jakiekolwiek pomysły, nie wiem, na usprawnienie życia,
czy może jakaś organizacja, która okaże, okazuje się, że w jakiś sposób może pomóc, no nie wiem, nie mam pomysłu.
Czyli po prostu puszczamy komunikat w świat, no bo szczerze mówiąc tak, bo my tu, no poza jakąś taką podpowiedzią w tej kwestii bardziej technicznej
i technologicznej, to niestety w takich czynnościach życia codziennego, w takiej sytuacji, no nikt z nas nie był i chyba też, no nie mamy tutaj takiego też praktycznego doświadczenia, tak, jak, w jaki sposób takie sytuacje rozwiązać, ale być może ktoś, kto nas słucha, wie i podpowie i w takim razie Marzeno, to od razu pytanie, jeżeli ktoś w tym momencie nas słucha, albo będzie słuchał tej audycji,
W jaki sposób może się z Tobą skontaktować, żeby jakiejś takiej podpowiedzi udzielić?
Może z redakcją Tyflo Podcastu i wtedy może, nie wiem, może wtedy…
A czy możesz na przykład podać jakiegoś Twojego maila chociażby, żeby ktoś po prostu mógł, wiesz,
już od razu bezpośrednio, żeby nie tworzyć też łańcuszka pośredników,
bo tu tak naprawdę jest istotny też czas.
No jasne. No więc marzena.lux pisane przez ks małpagmail.com.
Marzena.lux małpagmail.com.
Gdyby komuś przyszło cokolwiek do głowy, będę wdzięczna.
Okej, no to dobrze, to miejmy nadzieję, że komuś się, ktoś kto nas słucha będzie w stanie pomóc.
Przypomnijmy jeszcze raz, maila marzena.luks, l-u-k-s, małpa.gmail.com.
Tak jest.
Tak, więc czekamy, no i cóż, dziękujemy Ci bardzo serdecznie za telefon.
Dziękuję również, do usłyszenia.
Do usłyszenia, pozdrawiamy.
Do usłyszenia.
Jak sami widzicie, w różnych sprawach można do nas dzwonić, a my cóż, nawet jeżeli nie jesteśmy w stanie
bezpośrednio podpowiedzieć, to przynajmniej tyle, co możemy, jesteśmy w stanie puścić tę wiadomość w świat,
a nóż komuś uda się coś mądrzejszego podpowiedzieć i jakiejś tutaj wskazówki udzielić.
Tymczasem mamy kolejnego słuchacza na łączach.
Tym razem jest z nami Patryk.
No Patryk jeszcze chyba walczy z mikrofonem i miejmy nadzieję, że się za moment uda.
Jestem?
O, jesteś.
No to tak, to ja się chciałem tutaj zapytać o tego Whispera właśnie.
Mhm.
No bo właśnie ja nie umiem znaleźć tego pliku wykonywalnego, bo tam na jabie Whispera X w releases jest tylko source code gztar i source code zip.
Bo to się instaluje przez ten tak zwany PIP, czyli tam jest chyba nawet w README napisane, żeby to zainstalować, to wpisz PIP odstęp coś tam, coś tam, tylko ten PIP trzeba mieć na, musi być zainstalowany, on się instaluje, zdaje się, generalnie z Pythonem.
I wtedy jak zainstalujesz ten PiP z Pajtonem, no to znaczy PiP z Pajtonem, no Pajtona z PiPem, to wtedy będzie można tym poleceniem, które oni tam podają, zainstalować tego właśnie Whispera, Whisper X i wtedy będzie można wywołać te aplikacje.
Z konsoli.
Z konsoli.
Aha, w ten sposób.
Tak.
No dobrze, to ja w takim razie mam kilka informacji.
Zacznę od rozrywki, a zacznę od osób, które lubią seriale oglądać,
w zasadzie lubią seriale detektywistyczne, a które mają HBO Max.
Dlatego, że w serwisie HBO Max jest serial, który się nazywa Detektyw.
Co ciekawe, to jest serial amerykański, który nie dość, że ma oczywiście polskiego lektora, to ma polską audiodeskrypcję.
No proszę, a z ciekawości, czy to robi jakiś syntezator, czy człowiek?
No heeej, ja to jakiś głos
jakiś głos obiecy to jest?
Nie wiem, czy to synteza, czy człowiek
ale…
No co by nie było, to jest duży plus dla HBO Max, które
jakieś ostatnio
tego szukałem, często ma takie sytuacje, że seriale, które na amerykańskim
Maxie audiodeskrypcję mają, to w Polsce czasami nie miały
więc no fajnie, że coś tutaj zmienia i to aż w tą stronę.
No, nie wiem czy wszystkie sezony to mają. Pierwszy na pewno ma. Nie wiem ile jest teraz tych sezonów.
No i warto się rozglądać, no bo może coś się pojawić więcej w tej materii.
Ja wykupiłem sobie HBO Max i na pewno będę temu przyglądał.
Tym bardziej, że HBO Max to nie jest drogie, bo tam jak kupujemy,
ja akurat kupowałem przez iPhone’a, czyli przez Apple’a,
no to miesięcznie to jest 29 złotych rocznie.
Nie pamiętam teraz ile to kosztuje.
Gdzie tam na Netflixach chyba jest drożej, mi się wydaje.
No więc tutaj mamy taniej.
To jest jedno.
Teraz jeszcze chciałem powiedzieć o kilku grach.
W zasadzie o jednej grze,
która, nie wiem czy to było wspominane,
Granblue Fantasy Relics.
To jest taki japoński RPG, gra video, która bazuje na anime
o takiej samej nazwie.
Ta gra już miała kilka swoich odsłon.
Była wersja przeglądarkowa Granblue Fantasy, jedynka, która jak się poległ,
po staro była grywalna, natomiast ostatnio wyszła, wyszła plika tych części na PC,
jak i na PlayStation 5, które grywalne nie były, natomiast dla Granblue Fantasy Lyrics,
który miał wczesny dostęp na konsolach tylko PlayStation 5,
doczekał, miał demo na początku i co sprawia, że ta gra jest grywalna?
Na fascist, który działa w taki sposób, że naciskamy sobie kółko, znaczy nie kółko, bo nie pamiętam teraz tych oznaczeń playstationowych, bo ja mam akurat xboxowego kontrolera, więc tutaj nie jestem trochę zaznajomiony z tymi oznaczeniami.
co jest kółkiem, co trójkątem, co A i B i tak dalej.
Natomiast jak wścigamy jakiś tam przycisk,
tam na Audio Games Network jest napisane, który to przycisk.
Jeżeli będziemy mieli jakieś questy do zrobienia,
to nasza postać będzie nawigowała z automatu poniekąd do questów.
No i ostatnio pojawiła się we wczesnym dostępie pełna wersja tej gry na PlayStation 5.
Znaczy pełna jak pełna w częstym dostępie, która ma, która też jest rywalna,
natomiast ta love assist nie działa w mieście.
Jak trafiamy do miasta, no to dlatego nie działa,
bo musimy sobie sami poniekąd odkrywać kwesty poboczne.
Natomiast muszę przyznać, że to jest całkiem rywalne,
dlatego że to miasto sobie żyje swoim życiem,
tam słychać ludzi, tam w zasadzie jak jest kuźnia, to słuchać gdzie ta kuźnia jest.
Słychać na przykład ludzi, którzy sobie coś tam opowiadają, którzy sobie coś tam rozmawiają.
Także to miasto generalnie żyje, jesteśmy sobie w stanie poniekąd poradzić właśnie.
Wymaga co cierpliwości, natomiast jesteśmy w stanie sobie z tym poradzić,
tych NPCów poznajdować. Co ciekawe, jak już poznajdujemy jakieś zadania poboczne,
Możemy z menu bezpośrednio się teleportować od razu do miejsca gdzie te zadania poboczne trzeba zrobić, więc to też jest bardzo ciekawe.
Gra jest takim RPGiem, gdzie mamy cztero teamowe, taki team czterech osób i każda z tych osób ma swoje jakieś tam moce różne.
Jedna walczy magią, druga walczy czymś tam.
Generalnie zaczyna się cała fabuła na statku i żeby z tego statku się wydostać to też musimy to robić poniekąd na słuch, bo tu też na fascist nam nie zadziała, też musimy pogadać sobie ze wszystkimi ludźmi na tym statku, co jest poniekąd możliwe,
bo możemy sobie chodzić po tym inaczej, a wciskać interakt i po prostu będziemy sobie gadać, OCR działa, przynajmniej działa, jeżeli mamy Playstation 5 i mamy jakiegoś Capture Carda, ale mówię o tym dlatego,
że za parę godzin, za chwileczkę, za momencie impreza się rozkręci i wersja, gra wyląduje na Steam, a zarazem wyjdzie z fazy wczesnego dostępu.
No wymagania to też będzie trochę miało, no bo tam 16 giga RAMu, RTX, karta graficzna, takie trochę wymagania jak Forza Motorsport to będzie miało, a jeżeli to PlayStation 5 jest jakby priorytetem dla twórców, no to mogą być problemy z optymalizacją, natomiast ja na pewno to kupię i się temu przyjrzę.
Pytanie, czy będzie demo, też w tej wersji na Steam’a, bo wersja PlayStation ma demo.
Demo jest pozbawione miasta, o którym mówiłem. Miasto jest w pełnej wersji.
Także będę na pewno o tym mówił, bo jest to fajna rzecz, fajna gra całkiem.
Kolejna rzecz, o której chciałem powiedzieć, to o modzie The Factorio, o którym już tu wspominałem.
a wspominam o nim nie bez powodu.
Powody są dwa.
Pierwszy powód,
Faktoria dostał dostęp,
zasparcie dla lokalizacji
i dzięki temu dowiedziałem się,
że Faktoria ma polską wersję językową,
więc po zaktualizowaniu moda do wersji 7.0
co mamy?
Mamy Faktorię po polsku,
aczkolwiek pewne rzeczy,
które będziemy znajdować na ziemi,
czyli jakiejś tam bryłki, żelaza czy czegoś,
no bo to już wspominałem, czym jest faktorem,
więc nie chcę tego robić, żeby nie przedłużać audycji.
Kto się chce czegoś więcej dowiedzieć na ten temat,
to zachęcam do audycji o grach, która już jest w LePodcaście.
Natomiast mamy po polsku jakby już maszyny,
które tworzymy, sobie już będą nazwane po polsku.
Ale co jeszcze?
Jest tutoriala, słuchajcie.
Tutorial, który może nas nauczyć podstaw, o jak zacząć, jak stawiać maszyny.
No i tak naprawdę dzięki temu tutorialowi ja poniekąd zaczynam ogarniać o co w tej grze chodzi.
Jak, w ogóle co, który klawisz, od czego jest.
I wywołujemy go klawiszem H.
I jak już naciśniemy H, tylko ważne jest, żeby sobie wybrać domyślną mapę.
Ona się chyba Kompas Valley nazywa, z tym, że jak będziemy grać po polsku, to niestety w konsolce będziemy mieli coś takiego na zasadzie select map i będziemy mieć na przykład jeden unknown language, chwilę, coś tam, coś tam, Kompas Valley.
No to dlatego się tak dzieje, bo ten mod jeszcze nie wspiera polskiego języka, więc takie rzeczy mogą być.
Natomiast jak już sobie będziemy na tej mapie i wciśniemy tam, żeby się ta gra rozpoczęła,
naciskamy sobie H i dostaniemy instrukcje, które będą nam mówić, jak z tego tutoriala korzystać.
Bo to jest taki tutorial tekstowy, taki manual, gdzie się przemieszczamy po nim i wykonujemy różne kroki,
które nam tutaj każą zrobić.
Mod w ogóle będzie wspierany, ponieważ nadal, ponieważ Factorio ma tzw. Story Mode, czyli taką kampanię, która dostępna jeszcze nie jest, bo kilka rzeczy w modzie wymaga udostępnienia, ale już za chwilę, za momencik będzie wszystko dostępne, więc będzie ta kampania już dostępna z tutorialem.
Myślę, że warto się zapoznać z tym, że okazuje się, że link do kupowania mody jest na githubie.
Jeżeli googlujemy sobie Factorio Access, bez problemu powinno nam wyskoczyć Factorio Access github.
W ogóle powinna nam się pojawić strona internetowa z projektem, gdzie będziemy mieć instrukcję, jak zainstalować wszystko, co zrobić.
i też będzie tam link do Discorda, ja wiem, że obiecałem, że podam to w komentarzu,
natomiast nie podałem dlatego, że na stronie GitHubowej w tym takim readme na nagłówku jest link do Discorda.
Ja się boję, że jeżeli ja bym podał link, to niestety z tymi linkami z zaproszeniami jest tak,
że one wygasają jak to poda użytkownik, który nie jest adminem,
więc ja się boję podawać linki sam na własną rękę.
Natomiast pamiętam, na tej stronie githubowej jest tam link do Discorda.
Chociaż jeżeli moda można pobrać z githuba, to w sumie nie widzę aż takiej potrzeby,
żeby tego Discorda korzystać, bo na githubie też można zgłaszać błędy.
Myślę, że nawet dla autora będzie to lepiej niż jakiś tam Discord.
To jest Factorio, natomiast jeszcze jutro jest 1 lutego, Rokoko, audio game Fantastic Fae i do tego dnia jest we wczesnym dostępie, czyli do 1 lutego, a do 2 lutego gra wychodzi z wczesnego dostępu i będzie droższa, czyli dostanie 9 dodatkowych leveli.
No ja jeżeli mogę sobie wyrazić opinię na ten temat, ja tej gry nie kupuję,
nie dlatego, że nie podoba mi się sama gra, tylko po prostu nie podoba mi się muzyka w tej grze,
która jest akurat kluczowa, że tak się wyrażę, ryje mi banię.
Więc po prostu denerwuje mnie ta muzyka tam i taka jest, no ja nie przepadam za elektroniczną muzyką akurat.
wyjątkiem jest Sequence Storm, bo tamta muzyka akurat jest całkiem fajna dla ucha, natomiast moim zdaniem w tym roku kook audio game.
To jest taki typowy chiptune, taka w ogóle muzyka retro.
Taka ośmiobitowa, tak? Jak ze starych komputerów albo starych konsol.
Nie, to nawet nie to, że ona nie jest… Ja taką ośmiobitową lubię właśnie z takich Mario, takich rzeczy. Nie, to zupełnie inaczej jest moim zdaniem.
Znaczy to jest troszeczkę zmodernizowane, ale to takie właśnie się na to mówi chiptune, takie trochę
ośmiobitowe z jakimiś lekkimi elementami współczesności, ale
generalnie nawet sam autor tak to nazywa, więc.
Mi to nie odpowiada, ale mówię jeżeli ktoś z was chce sobie sprawdzić czy to odpowiada
to jest demo i demo będzie.
Także można sobie to w dalszym ciągu pobrać i
i przetestować, i ewentualnie zdecydować czy kupić jeszcze, macie na co dwa dni, żeby uzyskać to w cenie niższej niż oryginał później.
No tutaj wypowiedziałeś Piotrze o Dawncasterze, grałem i gram zresztą nadal i polecam.
Ja też.
Natomiast jest błąd, na który muszę uczulić dostępnościowy, w przypadku jeśli chodzi o przeciwnika, jak np. blokujemy się tarczą i np. przeciwnik nas uderza, to nam mówi, że uzdrowiliśmy się 0 HP, że healed, you healed 0 HP, gdzie tak naprawdę powinien być komunikat, że otrzymałem, you take, 0 damage, a tam jest you healed.
No takich kilka błędów jest zresztą jak przeciwnik się leczy, a to się czasami też zdarza, to gram mówi, że dostał obrażenia, tak naprawdę on się uleczył, natomiast to o tyle nie jest problem, że mamy dźwięk na to, taki bardzo charakterystyczny, więc wiadomo czy się leczy, czy faktycznie dostał jakieś obrażenia.
Natomiast jest to bardzo dużo dźwięków takich, które nam mówią o tym, co się dzieje.
Właśnie a propos Landlorda się chciałem ciebie zapytać, Piotrze, bo niestety muszę powiedzieć,
że niestety u mnie wciśnięcie klawisza F3 przez te 5 sekund, jak był Tworek, Tomak Tworek, to było za mało.
Ja musiałem co najmniej 20 sekund przytrzymać, żeby to zadziałało i niestety tu muszę was uczulić,
nie będziecie mieć dźwięku na to, że ta opcja się włączyła niestety.
Także nie będziecie.
I pytanie czy to się włącza też na etapie jak jest pierwszy wybór języka, bo mi
nie zadziałało to. Na szczęście system Enter i pierwsza opcja to był angielski.
Natomiast przy tobie Piotrze to zadziałało na tym.
Wiesz co, nie jestem pewny, bo ja też na początku to mi nie zadziałało i też próbowałem to drugi raz po wybraniu języka, tak jak ty, no wiadomo posilałem się OCR-em, żeby mniej więcej wtedy orientować się co się dzieje.
A tam OCR działa bardzo źle.
No właśnie zadziałało na tyle, że po prostu mi coś odczytał, że byłem w weni głównym i tam spróbowałem jeszcze raz, no i wtedy to już zadziałało.
Ale no ja myślę że to można podsumować tak spróbujcie to od razu po starcie wtedy można spróbować całkowicie w dół w górę się przemieścić po menu albo po prostu nacisnąć Enter to wtedy wybierzemy język przytrzymać ten klawisz drugi raz i jeśli już wtedy nam zacznie działać no to wtedy już możemy sobie zejść do
to włączyć sobie jakiś dodatek.
Znaczy ja akurat z tym mam problem, bo ja mam ZDS-era
i ZDS-er po prostu wydaje sam z siebie dźwięk kiedy cokolwiek się do
słuchawka kopiuje.
To też jest fajną funkcją.
Tak mamy kilka dodatków jest auto clip chyba jeszcze clip speak kilka
tych dodatków jest więc.
Ja mam taki do NVIDIA co się wciska insert się wska.
Nie wiem jak on się tam nazywa ten dodatek ale.
Kopiuje właśnie.
Natomiast to jest dla mnie niejasne.
Tutaj brakuje niestety loga, który mówi o poniekąd w grze, co się zadziało, kiedy obróciliśmy tym.
Mamy na początku coś takiego, że przypuśćmy wybieramy sobie tam symbol, jeden z trzech do wyboru.
Co ciekawe, możemy to zrobić klawiszami od 1 do 3.
No i mamy coś takiego jeszcze, jak to nam mówi, wybierz przedmiot, bo symbole a przedmioty to są jakby dwie różne rzeczy.
No i te przedmioty, ok, no dobra, wybieramy go, no i wybieramy Enterem, no i spacja to jest jako obrót, żeby obrócić tym, natomiast później nie rozumiem, bo np. wybiorę sobie jakiś kolejny symbol,
przypuśćmy od 1 do 3, np. naciskam dwójkę i wtedy pojawia mi się inna zupełnie lista i to jest chyba lista tych wszystkich kart, które jakby do tej pory mam w deku, tak mi się wydaje.
I przypuśćmy, jest na przykład sytuacja, że wybrałem sobie sejf jako symbol i miałem wcześniej wybrany wytrych.
I na przykład wybieram sobie sejf i chodzę sobie strzałkami i na przykład dochodzę do tego wytrycha i na przykład zauważyłem,
i co się wtedy dzieje, jeżeli ja na przykład kursorem najadę na tego wytrycha, który już wcześniej był i nacisnę spację, żeby obrócić,
to ten wytrych się obróci i on
jakby zadziała na ten, na ten save.
Czy to jest losowe na zasadzie, że on
obraca się ten bęben i w tym momencie,
bo nie do końca wiem jak to działa
przez to, że nie mam żadnego loga.
Z tego co ja rozumiem, to ja nawet nie
wiedziałem, że tam się coś da cyframi
wybrać. Ja generalnie wszystko robiłem
z czałkami
i słyszałem dwie wersje.
Generalnie z tego co ja to zrozumiałem
to wiele z tych symboli właśnie jak
wytrychy uaktywniają
się automatycznie,
ale też słyszałem takie
taki komentarz widziałem na forum, że
na przykład te symbole, które nam pozwalają coś zniszczyć
takie sąsiednie symbole
to można je uaktywnić ręcznie
najeżdżając na nie ściałkami i to chyba… no ja próbowałem naciskać Enter
więc jak to jest do końca
to też tutaj 100% pewności nie mam
czyli, ale jakby na przykład po wybraniu symbolu
to to jest ta lista, która się pojawia
to jest lista tych wszystkich kart, które jakby mam w deku
tak, które jakby do…
Już wcześniej wybrałem symbola
po wybraniu symbolu wracasz do rozgrywki
i na ekranie rozgrywki po prostu widzisz akurat na jakich symbolach wylądowała ta
maszyna.
Rozumiem czyli to dobra czyli jak na przykład jakiś przedmiot który coś niszczy no
to mogę niby enter nacisnąć tak i wtedy tak.
No właśnie chyba tu właśnie brakuje też nie jestem pewny.
Brakuje właśnie takiego informowania właśnie, co się…
W niektórych rzeczach brakuje informowania, może jakieś dźwięki
tutaj by też coś pomogły, no może autor będzie
skłonny jakieś jeszcze rzeczy do tej gry dodać.
Od Tomka Tworka wiem, że trwają prace nad dźwiękami.
A, no to może to już wtedy będziemy też coś więcej wiedzieć może.
A do jakiej stawki ci się udało dojść, bo do mnie
450 jak miałem zarobić, to tylko zarabiałem jakieś
200 coś i koniec. No ja doszłem do
jakiejś stół z hakiem, dlatego, że też to grałem krótko, no przygotowywałem się wtedy do audycji, więc dużo czasu tam mi też nie poświęciłem.
To słuchajcie, jak sobie już tak tu o grach radośnie rozmawiamy, to zapytam, czy ktoś z was pamięta albo kojarzy, jak w nowym Euroflyu właściwie w tym momencie można się zapoznać z konkretnym zadaniem?
co my właściwie mamy zrobić w trakcie tego treningu, bo kiedyś to były jakieś konkretne takie naprawdę zadania, że mamy przelecieć tu, gdzieś tam, a teraz to chyba działa w ten sposób, że musimy jakiś tam odpowiednio duży nalot zrobić danym samolotem.
Te pierwsze treningi to generalnie z tego co ja się orienczuje
Nie wiem gdzie to się sprawdza w ogóle
No właśnie
Z tego co ja wiem to po prostu to akurat nie
Gra nam po prostu
Możemy sobie lecieć gdzie chcemy generalnie
Tylko gra nam automatycznie będzie sortowała
Wyświetlała tylko te lotniska, które spełniają wymogi tego treningu
Czyli pierwsze treningi no to są takie
Gdzie lecimy do lotnisk, które nawet nie mają pasa sortowego
I nam gra automatycznie tylko takie lotniska wyświetli
Więc możemy sobie wybrać to co nam się
Tak, tylko pytanie ile tego my właściwie mamy zrobić i kiedy będziemy, żeby wiesz, żeby był jakiś progres.
A czy to się jakoś da sprawić? Wiem, że pierwszy trening to jest 10 lodów i 1000 kilometrów, drugi to jest…
No ale gdzie to można sprawdzić? Właśnie ile przele…
No właśnie, może we właściwościach pilota.
Bo pamiętam, że raz mi się do tego kiedyś udało dostać, ale już później nie byłem w stanie, więc…
A jest tu jakiś skrót do sprawdzania profilu pilota?
To szczerze mówiąc jest też skrót w czasie lotu.
Teraz nie pamiętam jaki to jest, ale mamy ALT-H.
Może tam.
Okej, to będę jeszcze tego szukał, bo już w końcu udało mi się opanować lądowanie,
które też jest zupełnie inne niż kiedyś.
Tak, bo kiedyś to po prostu lecieliśmy nosem w dół,
A teraz na 20 metrów wysokości czy tam troszeczkę mniej niż 20 z podniesionymi klapami po prostu trzeba wyprostować i będąc nad lotniskiem trzeba wyłączyć silnik i on sobie wtedy wyląduje.
Ja Ci polecam używać Michale Przecinka, bo ten przecinek pokazuje.
Tak, to jest ta bezpieczna, bezpieczny ten krąg, tak, żeby tam sprawdzać.
Ja zawsze się kieruję tymi bezpiecznymi kręgami i po prostu sobie
nie patrzę się na wysokość nad ziemią, bo to potrafi zmylić.
Ja zawsze się patrzę na wysokość pod Y, to nad poziomem morza naszą.
Tak, tak, tak, to się zgadza.
To się zgadza, na to warto sprawdzać, bo
no bo kropka, no to jest ta nasza taka wysokość faktycznie nad ziemią.
A ona się może zmieniać.
Nagle lecimy sobie tam powiedzmy
no nie wiem, 150 metrów, a za chwilę się okazuje, że lecimy
no nie wiem, 100, bo wyrosła nam jakaś górka, tak, teren się pojawił.
I ważne tutaj taka komenda, o której powiedział właśnie taki jeden użytkowników Eltena, czyli Żywek.
Ja o nim w sumie nie wiedziałem, ale w ogóle jego bloga polecam, bo on właśnie pokazuje bardzo fajnie, w jaki sposób można latać.
I on tam pokazuje takie trzy, powiedzmy, jak sobie tam wylądować.
Jest taki skrót kontrol średnik.
I ten skrót pokazuje co jest aktualnie przed nami.
Czy to jakaś przeszkoda, czy to jakaś, nie wiem, ściana budynku, czy coś.
I na jakiej wysokości nad poziomem morza to jest.
Jak daleko od nas, no i właśnie najbliższa przeszkoda, która jest bezpośrednio przed nami.
Także jak macie Eltena to polecam użytkownika właśnie Żywka i jego blog.
Bo tam ktoś, ja się bardzo, ja po przesłuchaniu jego od kilku nagrań z lądowania wylądowałem.
Także gościu umie dobrze tłumaczyć.
No to polecamy bardzo serdecznie. Szczególnie, że treść jest po polsku. Ja akurat korzystałem z tych filmów, które się pokazały na Kissofcie na YouTubie.
Ale jeżeli jest materiał po polsku to rzeczywiście pewnie dla co niektórych będzie to fajniejsze, żeby sobie skorzystać.
A propos jeszcze Eurofly’a to dążymy do tego żeby Eurofly trójka współpracował z czytnikiem ekranu ZDSR tym bardziej, że ZDSR, ty Piotrze będziesz wiedział o tym na pewno, że ZDSR ma możliwość tych kanałów, że można sobie na przykład ustawić jeden kanał, nie wiem, żeby czytał mapy, a drugi kanał żeby tam czytał wysokość, to właśnie to chcemy zrobić.
A propos ZDS-era to nie wiedzieć czemu ale mod do Factorio współpracuje z ZDS-erem nie wiem kto to zgłosił.
Wiesz co tam jest tam jest launcher w Pythonie a Python znów w większości aplikacji korzysta z modułu Accessible Output a on jakiś czas temu dostał aktualizację która ZDS-era wspiera więc tutaj z automatu Twiz, Cake, jakieś gry audio które w Seu korzystają to po prostu mają to otwarcie.
A skoro o ARK-u mówimy, to Tyflopodcast, aplikacja mobilna na Was nie czeka na razie, bo ta aplikacja by wygasła.
A znowu TestFlight wygasł, okej. No ale być może już niedługo nie będzie z tym problemu, może uda się ją jakoś pchnąć do któregoś ze sklepów i…
No zobaczymy co to będzie.
Tak, zobaczymy co to będzie, dokładnie. Dobrze Patryku, czy jeszcze jakąś sprawę masz do nas, bo mamy kolejny telefon, powiem Ci.
No to odbierzcie ten telefon, to już z mojej strony wszystko.
Okej, to dziękujemy Ci bardzo za to, że do nas zadzwoniłeś i podzieliłeś się z nami ciekawymi, growymi nowościami.
I przypuszczam, że nasz słuchacz Bobo też w sprawie gier do nas dzwoni, tak?
Halo?
Tak.
Słuchamy.
Jak zmienić język w Eurofly?
Halo?
Jak zmienić język w Eurofly?
W ustawieniach?
Tak, w ustawieniach. To jest jedna z pierwszych zakładek.
Nie pamiętam teraz, która tam to była zakładka, natomiast od razu uprzedzając, nie ma polskiego.
Jeszcze.
Problem w tym, że niechcący gdzieś tam mi się na jakiś arabski ustawił.
Co ja teraz mogę zrobić?
No cóż, domyślam się, że masz już jakiś progres i nie chciałbyś tego tracić wszystkiego.
I prośba w ogóle, jeżeli dzwonisz do nas, wyłącz radio, bo w tym robisz tam się zwrotka.
Nie mam progresu, ale mi się to chyba przez dwie godziny instalowało.
Bo najprościej to by było po prostu usunąć i zainstalować jeszcze raz.
Ale jeżeli nie…
Ustawienia usunąć po prostu.
Dokładnie, tylko w jakim to punktu.
One się zapisują, bo ja mam akurat wersję przenośną.
Ja też.
Więc tam to po prostu jest w katalogu z grą.
A to jest albo w moich dokumentach, albo w tym katalogu updata
teraz nie pamiętam czy tu, czy tu
może ktoś z naszych słuchaczy wie
to możecie
ja mam wersję instalowalną
no tak
jeszcze tutaj jedna podpowiedź
ewentualnie możesz się pościlić jakimś dodatkiem
do tłumaczenia np. w MVDA
czy w ZDSR zależnie
przecież
menu czyta innym głosem
a no tak bo menu
jest czytane
samplami
Ale w tym menu to tam za dużo opcji nie ma.
Ustawienia to jest takie chyba w miarę podobne jak
polskiej nastrojki. Jak to będzie
podsłowane? No nie no, po arabsku to nie wiem.
Po arabsku to chyba nie. A to jest, a to, a to Eurofly
jest po arabsku? Okej. No sobie nasz słuchacz
gdzieś tam przestawił jakiś język, ale wiesz
ja bym… Gdzieś tam niechcący chciałam English
ale gdzieś mi się coś listo zlagowała
Powiem Ci tak, ja bym po prostu próbował po kolei, no pierwsza opcja to jaka? Czekajcie, zresztą może nawet…
Ja bym nawet poszedł od końca w sumie.
Dokładnie, może nawet mi się uda jakoś tak na szybko odpalić Euroflya.
Nawet jak nie mamy profilu utworzonego, tam w ogóle nie ma jakoś dużo opcji, tam jest tylko właśnie to menu profile, eksploracja mapy, test głośników i ustawienie…
Zresztą zaraz sobie odpalę, mam nadzieję, że to się w miarę, o, on teraz mi się jeszcze tu chce coś chyba aktualizować, chociaż nie.
Ja akurat mam launcher niezaktualizowany, więc ja tego nie, szybko nie.
Dobra, welcome to Eurofly i teraz niech się to tylko odpali.
I teraz tak, mamy training, to jest pierwsza opcja.
Druga opcja to będzie world map exploration.
Profiles to jest trzecia.
Speaker test to jest czwarta.
I settings to jest piąta, czyli cztery razy strzałka w dół, na to by wyglądało.
Nawet jak bez profilu jestem, to tak samo będzie wyglądać?
Jeżeli bez profilu, to nie wiem.
To po prostu nie będzie tej opcji training, z tego co pamiętam, czyli trzy razy.
Czyli po prostu trzy razy, okej.
Jak trzy razy nie zadziała, to cztery, no w końcu ci okienko dialogowe wyskoczy,
który będzie wiedział, że w dobrą stronę się kieruje.
to będą opcje.
Tak.
Dziękuję za pomoc.
No, czasami
takie przypadki się zdarzają.
Ile ludzi sobie Steama przedstawiło,
czy inne systemy, to jeszcze
trzymamy kciuki, że się uda
ustawić z powrotem.
No.
Ja też mam nadzieję,
bo w ogóle ten launcher jakoś
dziwnie działa.
Ja zauważyłem,
Może coraz lepiej, bo on się tam aktualizuje co chwilę.
On się tam aktualizuje, tak, na szczęście, więc…
Ale Lander jakoś dziwnie działa, w sensie, że przy tym okienku po instalacji Choose Language
nie wyświetla się w ogóle lista, jak ja próbuję Enter, to błąd, że jakiś obiekt tam nie jest ustawiony.
A, to w ogóle tam są jeszcze błędy, jak ustawiamy na kontrolę nie lotniska,
tylko tam powiedzmy polską kontrolę lotów, to jak jest ta dana częstotliwość,
jak ją sobie ustawimy, to się pojawia komunikat o błędzie i wysypuje się cała gra, tak?
I to jeszcze nie jest naprawione, tak, chociaż problem jest od dwóch tygodni, czy tam od tygodnia,
tak jak ta gra się pojawiła.
Więc na razie tej powinni…
Czyli nie da się latać.
Nie no, da się latać, tylko po prostu nie kontaktujesz się z kontrolą narodową,
a wszystko inne działa.
Z konkretnymi lotniskami musisz się kontaktować.
Ok, to dziękuję za ostrzelenie.
Ok, no to dzięki za telefon w takim razie. Do usłyszenia, pozdrawiamy cię.
I jeszcze jedna wiadomość, skoro już tak odtwarzamy te wszystkie wiadomości, odsłuchujemy i zaglądamy do tego, co do nas piszecie, to też do nas się nagrywacie.
i mamy tu wiadomość od Marty.
Witajcie, mam takie pytanie
o powiadomienia na zegarku.
Chodzi mi, że mój zegarek jakoś się dziwnie do mnie zwraca,
bo generalnie powiadomienia
świetny dzień, hole,
nie zwraca się do mnie moim imieniem.
Normalnie na przykład jest, że
świetny dzień, Paweł, tak to się robi, a on jest tak.
No właśnie, a ja nie chciałabym być cholę jakąś, nie wiem, dziurą czy czymkolwiek takim,
co byście mi doradzili w ustawieniach iCloud
i wszystkich innych mam normalne swoje dane, czyli Marta. Może ktoś ma jakiś pomysł.
Jak dla mnie, to niestety po prostu wygląda jak błąd lokalizacyjny, że tam ktoś źle coś uzupełnił, no i przez to po prostu system zamiast zwracać się do nas po imieniu, to po prostu zrobi coś takiego.
Ja u ciebie, u siebie przepraszam, czegoś takiego nie zauważyłem, natomiast ja mam system po angielsku, więc może to być przyczyną tego.
Tutaj by mi to sugerowało, że tutaj faktycznie gdzieś jest jakiś błąd w lokalizacji systemu, no i co z tym zrobić?
No do Applea napisać chyba po prostu. Lepszego pomysłu niestety nie mam, bo on bierze gdzieś tą imię, no chyba z imienia na naszym Apple ID w sumie, nie wiem.
No właśnie, jest jakiś błąd chyba po prostu.
To co, przechodzimy chyba już do newsów na ten tydzień, do tematów audycji na ten tydzień.
I zaczynamy od poprawek dostępności w LibreOffice 20… nie, 24.
Tak, ja się zastanawiałem, czy to jest 2024, czy tylko 2024, tylko 2024.2 konkretnie.
Co ciekawe, to jest chyba pierwsza wersja, kiedy LibreOffice właśnie przeszedł na taki schemat wersji, bo wcześniej to były po prostu, chyba wersja wcześniej była 3.7.
A teraz postanowili przejść na taki właśnie model, gdzie pierwszą liczbą jest rok, a drugą liczbą jest numer wersji, chociaż tutaj nie wiem czemu zaczęli od wersji 2, a nie 1, ale to już zostawiamy.
LibreOffice, czyli darmowy pakiet biurowy na wszystkie systemy operacyjne, najbardziej popularny poniekąd na Linuxie, bo często z tymi Linuxami przychodzi do nas, czy to z Ubuntu, czy jakaś inna dystrybucja.
ale jest dostępny też na innych platformach, jak najbardziej możemy go sobie ściągnąć na Windowsie czy na Macu i ten pakiet jest dostępny.
Czy tak dobrze dostępny jak Office? Nie wiem, chyba nie, Office Microsoftowy, natomiast jak widać Libre Office Foundation pracuje nad tym, żeby to zmieniać,
nie tylko oni zresztą, bo tutaj pojawiło się kilka zmianek nawet w tej notce o tym, co się zmieniło w tej wersji,
że m.in. pracują z twórcami MVDA, np. żeby wszystko działało fajnie.
Dużo się pozamieniało w tej wersji, ja pozwolę sobie skupić się tylko na tym co jest opisane właśnie konkretnie w sferze dostępności,
bo i tego mamy całkiem sporo.
I tak zaczynając od tego, że kontrolka widoku drzewa, która jest np. wykorzystywana w okienku dialogowym ustawień zaawansowanych, eksperckich,
czyli jakieś flagi, coś tego typu jest już teraz dostępna.
Wcześniej nie była, no teraz czytniki ekranu będą sobie z nią radzić.
Jeśli mamy włączone ustawienie w systemie, żeby system nam nie wyświetlał tylu
animacji i zredukowanie liczby animacji, no to na Windowsie i na innych
sietach teraz wyłączy nam animacje, kiedy kopiujemy dużą ilość komórek,
Jakieś mrówki nam zaczęły chodzić po ekranie, które pokazywały, że to się wykonuje zadanie.
Teraz już to będzie wtedy wyłączone na Windowsie, na Linuxie, na Macu to już ponad było wcześniej dostępne.
A następnie mamy poprawki w tym, jak LibreOffice zgłasza czytnikom ekranu, gdzie jest myszka.
I to na przykład powoduje, że teraz MVDA będzie sobie radził z czytaniem komórek w warkuszu kalkulacyjnym,
kiedy chodzimy sobie po nim myszką, więc tutaj osoby słabo widzące się pewnie ucieszą.
Różne menu kontekstowe, np.
podczas wybierania stylu obramowań
czy wybór koloru czcionki
są teraz dostępne,
dostępne używając MVDA.
Kontrolka ściatki jest teraz
jest prawidłowo reprezentowana w drzewie dostępności
no i dzięki temu tutaj znów MVDA będzie sobie z nią radził podobnie
jest z kontrolką wiele wierzchowych pól edycji, które jest na przykład stosowane
w okienku sprawdzania aktualizacji i tutaj też MVDA powinien sobie teraz z nim radzić
Nie będą wysyłane jakieś niepotrzebne zdarzenia
kiedy coś się zmieni na liście rozwijanej, która akurat nie ma focusa
W pewnym momencie to też powodowało, że NVIDIA się gubił w niektórych sytuacjach.
Niektóre role okienek dialogowych będą teraz czytane bardziej prawidłowo jako ramki na Windowsie.
Paski statusu dostały odpowiednią właśnie rolę paska statusu.
Dzięki temu na przykład skrótkawisza do czytania paska statusu w NVIDIA będzie już z
to wcześniej nie działało.
Jeśli otworzymy sobie okienko
dialogowe statystyki słów
MVDA będzie teraz jego zawartość
czytał automatycznie, więc nie będziemy musieli
jakoś po nim nawigować, tylko od razu
te informacje usłyszymy.
Atrybuty tekstu na Windowsie są
teraz prawidłowo wysyłane do czytników
ekranu, no i
to nam
daje dosyć dużo, bo
np. NVIDIA będzie nas informował o błędach w pisowni.
Czy tutaj coś jeszcze?
Oprócz, nie no znaczy tutaj wspomniane chyba tylko o błędach w pisowni akurat, no ale
generalnie atrybuty będą teraz lepiej czytane.
No właśnie, nie tylko błędy w pisowni, bo jeszcze wyrównanie tekstu.
A propos błędów w pisowni, w okienku dialogowym sprawdzenia pisowni, pola wyboru
Teraz możemy przełączać klawiszem spacji.
No i kolejne poprawki w oznajmieniu atrybutów, tym razem dla bloków
cytatu, które też mają odpowiedni atrybut teraz wysyłany do czytników ekranu.
Teraz coś na Maca.
VoiceOver nie będzie nam czytał niepotrzebnie zwinięte kiedy jakikolwiek
przycisk na pasku narzędzi dostaje fokus.
Przełączniki mogą być przełączane akcją dostępności, czyli na przykład
gdybyśmy nacisnęli na skrótem voice overa czy MVDA i nawigacją obiektową,
no to możemy teraz przełączniki w ten sposób przełączać.
Jeśli mamy nagłówki, wiersze i kolumn w aplikacji Calc, no to te nagłówki
też będą wysyłane odpowiednio
używając specyfikacji
aria to na przykład jest wykorzystywane
przez orkę na linuxie
więc jeśli sobie odpowiednio
oznakujemy te nagłówki
w naszym arkuszu no to orka nam będzie je
automatycznie czytać kiedy będziemy
chodzić po tej tabelce
orka też będzie
nas informowała o stanie przyciska
podkreślenia na pasku narzędzi
no i to wszystko
Ale jak widać, jeśli chodzi o zmiany dostępności, jest tego dużo i to są takie faktycznie istotne zmiany, jeśli chodzi zwłaszcza o np. czytanie tych atrybutów.
Miejmy nadzieję, że takich zmian będzie więcej.
No i fajnie, że tutaj twórcy i tego programu, i NVDA współpracują ze sobą, oby tak dalej po prostu.
Ja się zwłaszcza tutaj cieszę z tych zmian na główków kolumni wierszy, bo po pierwsze sam z tego korzystam.
My skorzystamy z LibreOffice’a w pracy i tam np. nasza ewidencja czasu pracy tak wygląda, że jest to po prostu jeden wielki, gigantyczny arkusz w kalku i odczytywanie tych nagłówków bardzo by się przydało, żeby się łatwiej po tym arkuszu odnajdować, a też jeden ze słuchaczy mnie prywatnie zaczepił o to, czy ta funkcja jest gdzieś planowana i do kogoś najlepiej zgłosić, żeby to przepchnąć.
Ciekawe jestem, czy to zadziała od razu, czy NVIDIA będzie musiał coś jeszcze doimplementować, bo już coś czytałem, że te kolumny to nawet i jakoś były.
To jest wspominane tylko w kontekście orki, więc no akurat osobiście nie korzystam, więc pytanie, no właśnie.
Obawiam się, że tu NVIDIA jeszcze musi jakiś ruch wykonać.
Trzeba by sprawdzić na GitHubie NVIDIA właśnie, czy już coś jest na ten temat, czy nie.
Jest ticket, znaczy jest ticket, tylko jeszcze nie wiem, czy on uwzględniał zmiany, które się pojawiły, bo to jest dość świeża sprawa.
Ja o tym czytałem, może ten ticket, przeglądałem to zgłoszenie jakoś tydzień temu,
czy w zeszłym tygodniu, no a w międzyczasie się pojawiła ta nowa wersja LibreOffice’a,
więc nie wiem, może teraz ten ticket jakoś ruszy w górę.
Miejmy nadzieję, że to się zmieni, bo to by był…
Jeśli nie, to warto po prostu też zapytać.
Tak, tak.
To teraz jeszcze kilka wypowiedzi od was.
Jarosław do nas napisał, mam pytanie do Piotra.
jaką wybrać klawiaturę podczas zakupu Macbooka?
Ja myślę, że najprościej po prostu odpowiedzieć jaką klawiaturę wolisz,
bo generalnie mamy dwie klawiatury do wyboru, tak zwaną klawiaturę ISO,
czyli znaczy gdzieś, nie wiem jak to się może nazywać podczas wyboru,
klawiaturę właśnie ISO europejską, polską, nie wiem jak to można nazwać
i to jest generalnie taka klawiatura właśnie z układem europejskim.
Co to znaczy dla nas?
Znaczy dla nas to tyle, że mamy taki charakterystyczny, duży klawisz Enter zawinięty,
ale mamy też opcję wyboru klawiatury amerykańskiej, której klawisz Enter
już nie jest długi i zawinięty, tylko jest gdzieś takiej samej wielkości co
klawisz prawego shiftu, więc te klawisze są obok siebie.
Tutaj też mamy różnicę tego, gdzie znajduje się
klawisz backslash, no bo on na klawiaturze europejskiej, ja akurat z takiej klawiatury
wykorzystam, no to jest na lewo od Entera, a w klawiaturze amerykańskiej on jest
bezpośrednio nad Enterem i też jest taki troszkę większym klawiszem, gdzieś
takiej samej wielkości, może troszkę mniejszy od
od klawisza Backspace, ale jak kiedyś widziałeś dwa typy klawiatur właśnie z
takim podłużnym Enterem i takim zawiniętym Enterem, no to właśnie to jest ta różnica.
Zawiniany Enter to jest układ europejski, układ ISO, a taki podłużny Enter to jest
jest układ amerykański. On też ma
ma dłuższy klawisz lewy shift
i zaraz na prawo tego shifta jest
od razu literka Z
a w układzie europejskim tam jest jeszcze dodatkowy
klawisz, który generalnie nam działa
przynajmniej na klawiaturze wakowej
jako klawisz akcent
który się często w terminalu na przykład przydaje
Ok, to jeszcze mamy tutaj kilka wypowiedzi, z tego co widzę mamy, o na przykład od Mirka, dwie wypowiedzi, Mirek napisał do nas tak.
Ja w sprawie filmu na HBO, detektyw senzimowy, to jest audiodeskrypcja i czyta ją lektor człowiek.
I jeszcze jedna wypowiedź od Mirka, a co do Eurofly 3, to jest beta i błędów i niezainplementowanych rzeczy jest dużo,
A wiem coś o tym, bo jestem w grupie spolszczającej.
Tak, Mirku, to wiemy, że to jest beta, ale tyle się wszyscy naczekali na tę nową wersję Euroflya,
że no tu bardzo mocno, jak widać, ludzie to eksplorują.
No ale fakt faktem, my to już też o tym mówiliśmy, że jest to beta i przypominaliśmy, że jest to beta,
że no w takiej sytuacji też warto mieć na uwadze to, że później te wszystkie nasze rangi będą zresetowane,
Kiedy już Eurofly wyjdzie ze stadium bety, więc każdy gra na własne ryzyko i musi liczyć się z tym, że będzie musiał jeszcze potem swoje odpracować.
Teraz drugi news, już z tych newsów na dziś można powiedzieć.
News mój dotyczący rejestratorów audio.
Firma Zoom znana od lat wielu produkująca rejestratory audio.
czyli takie dyktafony na sterydach,
no w końcu wypuściła nowe wersje swoich rejestratorów H1, H4, H6.
I tu są dwie takie nowości, które nas mogą zainteresować,
bo po pierwsze, no Zoom w tych swoich rejestratorach ma udźwiękowienie.
Do tej pory jedyną chyba firmą, która miała udźwiękowienie w rejestratorach to był Olympus.
No to teraz Zoom. I co w ogóle ciekawe, to i bardzo mnie to cieszy akurat, że o tym udźwiękowym to nie jest napisane gdzieś półgębkiem, gdzieś trzeba się dokopać do tych informacji, absolutnie nie.
Niedawno sobie oglądałem materiały takiego, jest takie coś jak Sonic State, to jest taki portal dotyczący, znaczy zajmujący się muzyką elektroniczną, znaczy powiedzmy narzędziami do tworzenia takiej muzyki, nagłośnienie, realizacją dźwięku i tak dalej.
No i oni mają też kanał na YouTubie i teraz mieli niedawno szereg filmów z targów muzycznych nam, które się w tej chwili odbywają.
No i właśnie na tych targach był między innymi Zoom, no i tam nagrywali wywiad z jednym, no z kimś, z jakimś reprezentantem tej firmy.
co nowego, no że właśnie nowe rejestratory, że coś tam i co prawda na końcu, ale jednak wspomnieli właśnie o tym, że jest udziękowienie, że to jest dla osób z, ojej, coś mi się dzieje z dźwiękiem, nie wiem czemu, ale chyba już nie jest lepiej, no nic, w każdym razie, że to jest dla niewidomych i z problemami ze wzrokiem, że jest, no że właśnie jest menu udziękowione,
Więc to nawet jakby w tego rodzaju materiałach, które trwają po pięć, sześć minut, na jedną filmę nieraz, to nawet w takich materiałach pojawia się ta informacja, że ten rejestrator ma udźwiękowienie dla użytkowników niewidomych, co cieszy rzeczywiście.
Natomiast drugą taką nowością w rejestratorach, która chyba równie mnie cieszy jak udźwiękowienie, to jest nadal to ciągnięcie 32-bitowego nagrywania.
32-bitowe nagrywanie, czy w zasadzie format 32-bitowy, to jest taki format, którego de facto nie bardzo da się przesterować.
Znaczy, okej, wszystko się da, tylko że, no, prędzej spalimy urządzenie niż przesterujemy format 32-bitowy, który tam można zastosować.
Podejrzewam, że można tam nagrywać też w standardowym, w standardowych wavach 30, znaczy 16 albo 24-bitowych, no ale nagrywając właśnie w takim formacie 32-bitowym,
mamy pewność, że nic się nie przesteruje, jeżeli chodzi o nagrywanie.
Trochę inaczej to potem będzie wyglądało, jeżeli chodzi o odtwarzanie
i możliwe, że trzeba będzie podczas odtwarzania zadbać o to, żeby ten poziom dźwięku nie był zbyt wysoki.
Choć o to na przykład Windows dba, no i te pliki będą większe.
godzina stereofonicznego materiału 32-bitowego to podejrzewam będzie jakiś trochę ponad gigabajt, giga 200, giga 300, już nie pamiętam dokładnie jak to wygląda.
W każdym razie są tabliki dość duże, z drugiej strony te rejestratory teraz obsługują karty pamięci do jednego tera.
A że te karty są generalnie dość tanie, 128GB można kupić teraz naprawdę za kilkadziesiąt złotych, więc nawet nagrywając w tym formacie 32-bitowym, mamy bardzo dużo miejsca i bardzo dużo czasu na nagrywanie, a potem można na komputerze ewentualnie te pliki jakoś uczłowieczyć w taki sposób, żeby nie było problemów z ich późniejszym odtwarzaniem.
I są trzy rejestratory z tej serii, H1 Essential, H4 Essential i H6 Essential, czyli po prostu te pierwsze, to znaczy H1, H4, H6 to już pojawiały się wcześniej, tylko teraz jest doklejony ten Essential, czyli Essential pisane, ta końcówka.
I tam są właśnie te dwie rzeczy, znaczy więcej niż dwie rzeczy, które dodałem.
No bo tak, oprócz tego rejestratury mają USB-C złącza, więc kolejne urządzenia z tym gniazdem,
co mnie cieszy akurat, no bo nie jest to takie złe złącze,
No a przede wszystkim jest używane już w coraz większej ilości różnego rodzaju urządzeń, więc nie trzeba tutaj dodatkowych kabli kupować.
Oprócz tego, co jest chyba takiego, co jest we wszystkich, chyba jest to, że można jednocześnie używać tych urządzeń jako karty dźwiękowej i jednocześnie można na nich nagrywać też na karcie pamięci.
Co też się może komuś ewentualnie przydać.
No a teraz czym się różnią te rejestratory i ile to wszystko będzie kosztować?
Ile będzie kosztować to trochę nie wiadomo.
Mają się pojawić sprzedaże zdaje się w drugim kwartale tego roku.
Jest chyba kilka sklepów, gdzie jest to dostępne w jakiejś sprzed sprzedaży,
ale nie widziałem póki co żadnego polskiego sklepu, który by taką możliwość oferował.
Podejrzewam, że Zoom H1 Essential będzie kosztował około 500, 550, może 600 złotych, nie wiem dokładnie, bo różne tutaj mam informacje.
Pan z Zooma powiedział, że na rynku amerykańskim będzie to kosztowało 99 dolarów.
Natomiast czy to do Europy będzie trafiało właśnie ze Stanów, czy jeszcze skądś, czy jakiś cło, VAT będzie od tych 99 dolarów?
Ja słyszałem o 99 euro nawet, z innej strony.
Czyli powiedzmy, nawet niecałe 500 złotych by wtedy wychodziło.
Może nawet 450 złotych.
Być może.
Także no zobaczymy, jakie tu będą ceny.
Ale myślę, że powiedzmy między 450 a 600 złotych.
No to tak myślę, że warto to liczyć.
I teraz ten rejestrator ma mikrofony troszkę ponoć ulepszone do tego co było w tej starszej serii,
które mogą rejestrować dźwięk do 120 decibeli, to dość dużo i raczej nie powinno to być problemem z przesterowaniem nawet dość głośnych dźwięków.
Natomiast gdyby komuś tego było, a i mają też mini jack, czyli mały jack gniazdo mikrofonowe i gniazdo słuchawkowe.
I teraz ten jack mikrofonowy obsługuje to zasilanie co się nazywa plug in power i jeszcze niedawno w rejestratorach standardem było 5V.
Teraz Zoom oferuje 2,5V i podejrzewam, że większość mikrofonów nie będzie miała z tym problemu.
Natomiast może się zdarzyć, że tak niskie napięcie może powodować troszkę zmniejszoną czułość niektórych mikrofonów,
czyli one będą troszeczkę bardziej szumić niż w przypadku 5V.
Nie wiem dokładnie jak to wygląda, nie wiem czy tak rzeczywiście będzie.
No, ale jest taka możliwość.
Potem H4 Essential, 200 dolarów, więc podejrzewam, że możliwe, że 200 euro, czyli powiedzmy raczej 850 tys. złotych, tak można to liczyć, być może więcej.
To jest już rejestrator i teraz nie wiem czy on ma jeszcze ten mikrofon z 120 decybeli,
czy ma ulepszony mikrofon, który rejestruje dźwięk do 135 decybeli.
135 decybeli to już jest na tyle głośno, że można stanąć myślę przy głośniku na koncercie
i nagrać ten koncert bez przesterowania.
I to jest rejestrator, który ma już gniazda XLR-owe mikrofonowe, czyli do tych mikrofonów bardziej profesjonalnych, zasilanie Phantom, podejrzewam, że 48V, chociaż nie jestem pewien, czy nie na przykład 24V.
No i najwyższy model, czyli H6, który ma 4 gniazda mikrofonowe XLR plus wbudowane mikrofony, które można zamienić na przykład na dodatkowe 2 gniazda XLR i mieć tych gniazd wtedy 6.
I zdaje, i tu już na pewno jest ta ulepszona kapsuła mikrofonowa, która nagrywa do 135 decybeli dźwięk bez przesterowania,
więc tu już naprawdę można zaszaleć i nagrywać chyba wszystko co można słyszeć bez uszkodzenia słuchu,
bo dźwięki głośniejsze od 135 decybeli to już są groźne dla naszego słuchu zasadniczo.
No i ten rejestrator będzie kosztował właśnie w Stanach 300 dolarów, 300 chyba 300, no więc jeżeli 300 euro, no to 1300 złotych, ale może być 1500, może być 1600, nie wiem.
No zobaczymy jak to będzie wyglądało, no w każdym razie wszystkie te rejestratory mają mieć odziękowienie, wszystkie te rejestratory mają mieć to 32-bitowe nagrywanie,
Obsługę dużych kart z pamięci USB-C i być może coś jeszcze. Jeszcze nie wiem, bo na razie nie widzę na przykład instrukcji obsługi na stronie Zooma, więc nie wiem czy tam nie ma jakichś kwiatków dziwnych i jakichś rzeczy drobnym dróżkiem pisanych. Może ty Piotrze coś znalazłeś?
Jeśli jeszcze co ja zauważyłem na to myślę warto zwrócić uwagę zarówno H4 i H6 też będą wspierać ten adapter bluetooth, który można sobie dokupić i wtedy można też tym sterować z poziomu iPhone’a czy Android’a, chyba na Android’a też jest aplikacja czy nie, bo w sumie nie jestem pewny.
Nie wiem.
Bo o iPhone’ach to słyszałem, a mniej więcej będzie można tym sterować.
A druga, też taka myślę ważna rzecz jest taka, że na pewno to udźwiękowienie nie będzie po polsku, tam będzie sierem języków, czyli te najbardziej popularne, ale no kiedyś Olympusy też były tylko po angielsku, więc no…
No zobaczymy, bo na przykład w Olympusach to w ogóle były pliki chyba w webach, czy jakieś takie?
Chyba tak.
I można było to sobie ewentualnie udziękować samemu, więc być może, jeżeli tutaj będzie coś podobnego, to może, może udałoby się zrobić jakieś spolszczenie, nie wiem, społecznościowo, ale zobaczymy.
Zobaczymy, czy to będzie jakaś synteza, czy to będą sample, czy nam pozwoli to ustawić na tej godzinie, czy nam poda poziom baterii. Myślę, że to są takie istotne kwestie.
Gdzieś się dokopałem, teraz nie pamiętam czy to było powiedziane w którymś filmie, czy gdzieś na stronie, że na ustawienie poziomów np. głośności w słuchawkach to będziemy mieli jakieś piski, a na inne rzeczy to będą udźwiękowiane. Zobaczymy w jakim stopniu.
Zobaczymy rzeczywiście, bo z tego co wiem, to tutaj dość dużo osób ze środowiska jest zainteresowanych, więc myślę, że wcześniej, raczej wcześniej niż później, jakieś recenzje się tego urządzenia pojawią.
No oczywiście, no w momencie, gdy będzie można to kupić, także ja zresztą też jestem dość mocno zainteresowany tym rejestratorem, nie wiem jeszcze którym, ale prawdopodobnie któryś będę chciał sobie kupić, także no możliwe, że też w Twój podcasie pojawi się recenzja któregoś z rejestratorów.
A tymczasem mamy kolejną wiadomość na Whatsappie, tym razem jest to wiadomość od Rafała.
Nagrywanie bez przetrzymania. Wyślij przycisk.
Mam sprawę i zarazem prośbę.
Sprawa pierwsza jest taka.
Chodzi mi o, poszukuję dokładnie, nie wiem, czy dekoder, czy bądź telewizor.
który obsługuje audiodeskrypcję.
Wiem, że to są takie telewizory i dekotery,
ale nie wiem, jakie to marki dekotery czy telewizory obsługują tą audiodeskrypcję.
Czy to telewizja solitarna, czy to naziemna.
Jakby w sumie nie gra LOLi jako taką, no bo zorganizuje sobie tą telewizję jakby, no.
No to każdemu muszę wiedzieć jaki telewizor i jaki tamty gotel. Najlepiej telewizor, wiadomo.
bo jak będzie telewizor, to już niezależnie, jaka będzie telewizja,
to będzie zawsze działać.
No. To jest sprawa pierwsza, a sprawa jest druga.
To jest taka, że mam prośbę, czy mógłbym podrzucić, nie wiem,
link do wtyczki do afonda, do tej sztucznej inteligencji, która tam opisuje zdjęcia, tak?
Wiem, że tam jakoś tam…
Aj, czy jak tam…
Nie zapomniałem, jak ona się tam nazywa.
Eee…
No, wiem, że to w których tam tyfloprzeglądzie mówiliście,
ale nie pamiętam w którym.
I fajnie, bo jakbyście podrzucili link bądź powiedzieli których to w Tyflo przyglądzie było,
to ja sobie to pobiorę.
Dziękuję za wszelką pomoc.
I oczywiście za tą ptyczkę działającą, bo wiem, że są dwie.
I wiem, że też powtarzaliście w tym, w Tyflo,
Jak to mówiliście, było omawiane w tyfloinformatyce na rok 2023, no to tam, no, ale no, to się tak to wygląda. Do usłyszenia.
Do usłyszenia, Rafale. Dziękujemy za wiadomość.
Jeżeli o telewizor chodzi, to tak naprawdę audiodeskrypcje w dzisiejszych czasach powinna odtwarzać większość odbiorników,
ale wydaje mi się, że jeżeli chciałbyś korzystać z telewizora, to fajnie byłoby też mieć do niego przewodnik głosowy.
I tu pytanie do Was, jakie urządzenie Wam się sprawdza, bo ja szczerze mówiąc jeszcze się nie zaopatrzyłem w żaden sprzęt z przewodnikiem głosowym.
No ja mam doświadczenie wyłącznie tak naprawdę z telewizorami Samsung i co mogę powiedzieć, no sam przewodnik, ja też nie miałem okazji tego wykorzystać w pełni, tak naprawdę nigdy,
bo najpierw mieliśmy telewizję od Kanal Plus z zagoderem, który był nierozstępny,
więc no to jedyny odzobitym przewodnik wtedy po wejściu do HDMI 1 Kanal Plus.
Natomiast jeśli chodzi o telewizję naziemną, to wiem, że tam generalnie wszystko jest dostępne.
Audiodeskrypcja działa, natomiast tam trzeba coś w ustawieniach teraz zmienić.
O tym Patryk mówił na końcu audycji, w której rok podsumowaliśmy,
więc tutaj myślę, że warto by się do tego odnieść.
Samsung jest o tyle fajny, że tam możemy w 100% sami sobie ten przewodnik głosowy włączyć,
bo po prostu przytrzymujemy na pilocie przycisk do wyciszenia, około sekundy i wtedy nam wyskakuje menu skrótów dostępności.
To menu zawsze jest odczytywane, no i pierwszą opcją jest właśnie przewodnik głosowy, więc naciskamy na nim OK.
On się wtedy włącza i możemy z tego menu wyjść tam później sobie w ustawieniach możemy zdecydować jaką to ma mieć prędkość,
poziom złagodzenia dźwięku, bo teletelewizor też złagodza dźwięk, kiedy ten przewodnik mówi.
Jeśli chodzi o dostępność aplikacji zewnętrznych, no to w skrócie mogę powiedzieć tak.
Zagraniczne aplikacje działają generalnie, lokalne aplikacje chyba nie znam żadnej, która by działała
niestety. Tutaj mamy z tym duży problem, jeśli chodzi o te platformy.
Co dalej? LG też przewodnik głosowy ma.
Ja nie mam z nim osobiście doświadczenia, natomiast tego co na przykład mi kiedyś Mikołaj Hołusz mówił, który ma taki telewizor w domu, no to mówił, że owszem, wbudowane te wszystkie funkcje działają, z zewnętrznymi aplikacjami jest podobnie jak na Samsungu, czyli zagraniczne działają, lokalne już nie, ale na LG jest taki problem, że sami sobie tego przewodnika nie włączymy,
bo tam takiego skrótu z tego co mi wiadomo niestety nie ma.
W zagranicą można sobie pomóc sterowaniem głosowym, a w Polsce no po pierwsze to jest
nierozstępne po polsku, a po drugie nawet jeśli chcielibyśmy sobie to po angielsku
włączyć, no to za pierwszym razem jak to naciskamy to nam wyskakuje jakaś prośba o
przetwarzanie danych, no wiadomo kwestie RODO czy coś, które musimy w Europie
zaakceptować, no a tego sami nie zrobimy, więc do LG byśmy potrzebowali pomocy osoby
widzącej. Są telewizory oparte na Android TV, czy tam Google TV nawet. No i tutaj kilka filmów jest, no był Philips, ale Philips się wycofuje z tego, o tym powiem później. Xiaomi cały czas z tego korzysta, TCL i, no to są te dwie firmy, które mi, Sony jeszcze, Sony też.
Sony, a Panasonic, jak tam Panasonic ma?
Nie, bo też mają coś swojego.
Ale jakieś odcinkowe nie mają też chyba, nie?
Chyba tak, ale jak to wygląda teraz, to nie wiem.
Tam chyba z aplikacjami lokalnymi jest trochę chyba lepiej, ale tutaj też nie mam osobiście doświadczenia.
Jeśli chodzi o dekodery, to było tutaj parę, Orange chyba ma dostępne, tak?
Kto jeszcze?
Wiem, że coś jeszcze ktoś testował, chyba z Playa?
Coś było tak, to Wojtek Dulski opowiadał o Playu, ale tamto, zdaje się to różnie wyglądało i on nie był z tego jakoś bardzo zadowolony.
Polsat ma Linuxa, jakiś autorski system, więc tam na pewno ich dekodery nie są dźwiękowione.
Kanal Plus ponoć ma tego dekodera oparte na Androidzie, ale nie znam nikogo kto by to testował, nie wiem czy tam się Talkbacka włączy, szczerze mówiąc.
Mamy też przystawki dedykowane właśnie do Google TV czy Apple TV i tam też już te lokalne aplikacje i nie tylko są i no wiadomo czy to właśnie Google TV czy Apple TV to tam już mamy czytniki ekranu i one są dostępne.
No i chyba tyle co mogę powiedzieć, jeśli chodzi o audiodeskrypcję, to ona będzie dostępna wszędzie, a jeśli chodzi o przewodniki głosowe, to z tym miałem doświadczenie i to tyle mogę powiedzieć, a jeszcze jeśli mogę chwilkę w przegłosie zostać, jeśli chodzi o te dodatki, no to można je ściągnąć ze sklepu, jeśli masz nową wersję MVDA, to po prostu wejdź sobie do sekcji sklepu,
Przejdź na zakładkę dostępnych dodatków i tam sobie znajdź dodatek
AI Content Describer, a i Content Destriber.
Jak przejdziesz sobie na ten widok listy z dodatkami, wpiszesz AI,
no to generalnie Focus powinien na niego od razu trafić
i bezpośrednio z poziomu NVDA po prostu możesz sobie ten dodatek ściągnąć.
I teraz jeszcze news od Pawła. To znaczy, to jest w ogóle ciekawy napisany tutaj tytuł, jak może wyglądać internet, czyli co wprowadza specyfikacja ARIA 1.3.
Zgadza się. ARIA, czyli taka kolejna warstwa tego, co się dzieje w kodzie na stronie internetowej, która jest takim interfejsem pomiędzy stroną internetową, przeglądarką, a naszym czytnikiem ekranu.
To jest taki specjalny zestaw ról, właściwości, różnych rzeczy, które się wpisuje, żeby nasz czytnik lepiej potrafił zdefiniować takie rzeczy, które gdzieś tam proste nie są.
Czyli powiedzmy ktoś nie używa standardowych przycisków, które są zadeklarowane w kodzie jako przyciski, no to możemy Ion zrobić tak, żeby wyglądały jak przyciski, żeby czytnik je postrzegał jako przyciski.
Nie wiem, potrzebujemy, żeby nam coś automatycznie przeczytała strona, no to tworzymy ten taki widok Arial Live, obszar, który jak tylko coś się w nim zmieni, to czytnik nam sam od razu o tym da znać.
No i to jest wszystko skodyfikowane w specyfikacji ARIA, która jest gdzieś tam ustalana przez grupy robocze w ramach inicjatywy W3C, World Wide Web Consortium.
No i od trzech ponad lat, jak nie czterech, pracuje się nad kolejną wersją, bo do tej pory działaliśmy na wersji 1.2.
A teraz jest już pierwszy szkic roboczy 1.3, który do końca lutego jeszcze przyjmuje jakieś poprawki, ale już takie największe nowości to my znamy.
I co my tu mamy? Doszło kilka nowych ról, na przykład Suggestion, Comment i Mark.
Mark, ja myślałem, że już działa, bo Mark, aha, okej, jako aria, bo jako HTML to już było, mniejsze mark większe, jakiś tam tekst, mniejsze slash mark większe, można było w ten sposób tekst podkreślać.
NVIDIA jako HTML to obsługuje, czyli mamy podkreślenie, coś tam, coś tam, coś tam, koniec podkreślenia, czy tam wyróżnienie, podkreślenie chyba mówi.
I rzeczywiście to już widziałem na jakichś tam przykładowo DQ University, czyli mój ulubiony kurs dostępności cyfrowej, on już stosuje mark i tam rzeczywiście jak jest jakieś słowo, które musi zostać podkreślone, to jest ten mark użyty i rzeczywiście NVDA to oznajmia.
No gdyby z jakiegoś powodu programiści stwierdzili, że nie chcą używać tego HTML-owego sposobu, bo sobie jakoś tam po swojemu pokolorują, podkreślą, pogrubią, to zawsze można jeszcze nadrobić aria-roll-mark i wtedy tekst będzie tylko dla czytnika ekranu w taki natywny sposób podkreślony.
No dobra, okej, mamy to. Co mamy jeszcze? Mamy Suggestion, to jest głównie do różnego rodzaju edytorów tekstu, tam gdzie jest tekst edytowany, gdzie współpracujemy nad tekstem,
gdzie kilka osób coś tam wprowadza, różne zmiany, no to powstała rola, która pozwoli nam odnotować miejsce na stronie, gdzie jest wstawiona jakaś sugestia i z tego co czytałem w specyfikacji,
Jest to rola tak zwana rodzic, czyli powinna mieć też swoje dzieci. To oznacza w praktyce, że będzie można rozwijać tą sugestię.
Domyślam się, że czytniki ekranu jakoś to zaimplementują, że na tej sugestii się naciśnie Enter i ona pokaże co jest w środku,
albo to się jakoś zwinie w trybie formularza, nie wiem. Natomiast efekt będzie taki, że będzie można podejrzeć wstawione, usunięte.
Bo Aria już wspiera coś takiego jak Dell i Inns, być może już znaleźliście coś takiego na niektórych stronach, że wam mówi, nie wiem, wstawione coś tam, ale usunięte coś tam, np. jakaś cena w sklepie, że wstawiona cena jakaś tam, usunięta cena jakaś tam.
No to tutaj będzie też taka seria wstawień i usunień schowana właśnie pod takim rozwijalnym, pod taką rozwijalną rolą jak sugestia poprawy, suggestion.
No i rola comment i tu się bardzo cieszę i jestem bardzo ciekaw jak to zostanie wykorzystane i przez kogo, bo to jest rola, która pozwala nam przechodzić od treści, którą czytamy, czyli od roli artykuł do roli komentarzy i to jest do różnych rzeczy.
Ja myślałem na początku, że to jest też do tekstu, na zasadzie, że komentarze do tego edytowanego tekstu, ale nie, to mogą być komentarze do różnego rodzaju artykułów, do różnego rodzaju tekstów, do różnego rodzaju treści, tak naprawdę, na stronie i powinna być teoretycznie możliwość szybkiego przejścia od treści do komentarzy, ale też nawigowania po strukturze komentarzy.
Więc jeżeli komentarze mają odpowiedzi, a te odpowiedzi mają dalej odpowiedzi, to my będziemy mogli również wedle specyfikacji mieć dostęp do całej tej hierarchii, jak głęboko wchodzimy w te komentarze, bo teraz w internecie dyskutuje się w sposób wątkowany.
No więc tak to wygląda i tu jestem bardzo ciekaw, jak to czytniki ekranu zaimplementują.
Mamy też nowe atrybuty, aria-description, czyli po prostu opis danego elementu, to jest to co zazwyczaj jest odczytywane, jest nie wiem, coś tam, coś tam, pole edycji, jakieś wielowierszowe z autouzupełnianiem, coś tam i jeszcze jakiś tekścik i to jest najczęściej to.
Ja znałem to w formie aria-describedby, czyli wskazuje się w kodzie identyfikator elementu, który opisuje, czyli to może być jakiś tekst umieszczony gdziekolwiek na stronie, który służy jako opis dla tego pola.
To tu jest description, czyli można na sztywno wpisać jakiś tekst. Nie trzeba się powoływać na zewnętrzny element.
To jest ukłon w stronę użytkowników monitorów braillowskich, którzy bardzo lubią różne skrótowce, różne skróty.
Przykładowo nie mamy całego napisu PRZYCISK, tylko mamy zwyczajowo z angielskiego skróty BTN od Button.
TBL to jest tabela i tak dalej.
No, ARIA charakteryzuje się tym, że daje nam możliwość tworzenia własnych kontrolek,
które nazywają się po swojemu i obsługuje się też po swojemu w sposób niestandardowy.
No i czytnik ekranu do tej pory mógł nam przeczytać tego typu informacje mową.
No a w Braillu trzeba było się zgodzić na to, że po prostu te długie różne opisy będą tam też umieszczone.
No teraz już nie trzeba, bo można osobno zaimplementować opis roli i jej nazwę dla mowy.
A teraz też osobno dla Brailla, więc będzie można wprowadzać różne skróty dla kontrolek,
które tylko sobie twórcy stron wymyślą, żeby były o ile zaimplementują arię,
To będzie można też mieć na brajlu skrócone.
No i że ARIA Details może teraz też odwoływać się do większej ilości identyfikatorów.
To są na razie plany. Po pierwsze najpierw standard musi się stać standardem.
Rzeczywiście musi przejść przez ten cały proces edytorski, autorski i tak dalej.
Ale nawet jak już stanie się oficjalną specyfikacją, no to muszą to wprowadzić przeglądarki, muszą to wprowadzić czytniki ekranu, no i muszą zacząć to stosować twórcy strony internetowych.
Więc zanim to wszystko zacznie się zgrywać, to może trochę potrwać, zważywszy zwłaszcza na to, że nawet dotychczasowe te różne role i właściwości ARIA nie są tak naprawdę w pełni wspierane nawet przez czytniki ekranu, przez NVDA czy przez JOSA.
W związku z czym, no, zanim my te wspaniałości zobaczymy w praktyce, może trochę czasu upłynąć.
Ale miejmy nadzieję, że w końcu się doczekamy, a tymczasem doczekaliśmy się kolejnego telefonu,
od słuchacza, który już był z nami, który już z nami rozmawiał.
Bobo, jak tam? Udało się z Eurofly’em?
Chciałam sprostować jedną rzecz co do LD.
A słuchamy.
Ta głosowa, no, głosowy asystent wspiera Polski.
Okej.
Tak, wspiera.
No to super.
Owszem, trzeba tam zaakceptować, ale Polski normalnie jest wspierany, my możemy do niego mówić po polsku, a on do nas też odpowie po polsku.
Ok, czyli jeśli już sobie to zaakceptujemy, powiedzmy mieszkamy z osobami widzącymi, no to możemy sobie później ten, nie wiem jak to się tam nazywa, czecin ekranu, przewodnik głosowy wyłączyć później tym asystentem.
No włączyć.
Ale co do tych zagranicznych aplikacji to nie jestem taki pewien czy one wszystkie działają.
Bo jeżeli na przykład chcielibyśmy odpalić sobie GeForce Now na telewizorze,
no bo ktoś jest taki, ktoś tak woli na przykład, no to nie.
No to jest akurat taki bardzo specyficzny przykład no to akurat tego na Samsungu nie próbowałem natomiast próbowałem Twitcha więc jakby ktoś chciał sobie zobaczyć Twitch na przykład Spotify też na Samsungu nie działa.
Ja głównie tutaj mówiłem o takich najbardziej popularnych aplikacjach streamingowych pokroju YouTube, Netflixa, Disney Plus, HBO no to to generalnie działa.
To akurat się zgodzę, to akurat się zgodzę, Disney Plus nawet działa dobrze, dobrze to działa, normalnie da się zmienić profil, da się wszystko, no wszystko się da w tym Disney Plusie, tam jest też audiodeskrypcja, da się włączyć odpowiednio, testowałem.
Już jakieś polskie tytuły w Disney Plusie z audiodeskrypcją się pojawiają? Z polską audiodeskrypcją?
Nie wiem, nie patrzyłem.
Ale no, może pójdą śladami HBO, słuchajcie.
Może.
To się w końcu też nie pojawi.
Fajnie by było.
Byłoby fajnie, tak.
Tak jest.
Właśnie nie, nie pojawiają się z polską audiodeskrypcją. Nie.
No to szkoda, no ale…
Przynajmniej z tego, co wiem, mniej.
No nie.
Okej, to w takim razie
czy jeszcze masz dla nas jakieś
wieści?
Już
wszystko. Już wszystko. No to dzięki
za telefon, w takim razie pozdrawiamy.
Tu jeszcze widzę, że
na Whatsappie
Sylwester nam nagrał
kilka wiadomości,
więc zobaczmy. Czyli ewidentnie się udało
naprawić problem z przyciskiem.
Chyba się udało, zobaczmy, bo mam
wpisane, że to
Sylwester, ale nie pamiętam, czy to ten
sam, ale chyba tak, no zobaczmy.
Dzisiaj na liście.
Wyślij przycisk. Kliknij przycisk.
Chcę uaktywnić. Wyświetlam elementy od jednego do dwóch.
Rozmawialiście
na temat rejestratorów Zoom?
Jakieś nowe
rejestratory, które są
udźwiękowane.
Wyślij przycisk.
Klik dzisiaj na liście, wyślij przycisk poza listą kilkukrotnie, by uaktywnić.
Ja mam prośbę do was na temat rejestratorów Zoom.
Nowe, co rejestratory, udźwiękowione.
Czy byście mi je wytłumaczyli?
Wyślij przycisk.
No o rejestratorach Zoom to już rozmawialiśmy i tu już Tomek opowiadał o tym, natomiast zdaje się, że to jeszcze nie wiadomo do końca, jak to udźwiękowienie będzie wyglądało, co tam będzie, na ile i czy będzie po polsku, więc na to trzeba pomyśleć.
To znaczy oficjalnie po polsku nie będzie.
Oficjalnie nie będzie, ale nie wiadomo co tam będzie udźwiękowione, tak dokładnie.
Znaczy, jest napisane, że menu, więc zobaczymy jak to będzie wyglądało, bo w ogóle do tej pory było tak, że H1 takiego klasycznego menu nie posiadał, więc prawdopodobnie albo teraz on menu posiadać zacznie.
Wiesz co, ten H1n już coś takiego miał, na przykład wybór formatu pliku, kiedyś to był przełącznik na tym pierwszym H1n, później na tym H1n już jakieś takie pseudo-menu, coś tam już było z tego co wiem.
No to w każdym razie na razie niewiele wiadomo, bo one będą dopiero w takiej sprzedaży faktycznej, no to podejrzewam dopiero na wiosnę, raczej, grze. Zobaczymy.
No dobrze, to przechodzimy może w takim razie do kolejnego newsa, sztuczna inteligencja już czeka i sztuczna inteligencja będzie, czy już w zasadzie, teoretycznie tworzy audiodeskrypcję do filmu i to w dodatku może stworzyć do dowolnego filmu audiodeskrypcję. Piotrze.
Tak, czyli co, zaczęło się od czata, potem synteza mowy, potem rozpoznawanie zdjęć, no to następny krok w ewolucji to właśnie audiodeskrypcja filmów, no nie?
I już jakiś startup się tym zajął, mianowicie tutaj firma nazwała się Audible Site, taka fajna nazwa, dosyć, no i portal wystartował niedawno, bo 25 stycznia w zeszłym tygodniu.
No i co on nam pozwala?
Pozwala nam stworzyć audiodeskrypcję do dowolnego materiału wideo.
Wygląda to generalnie tak, że wysyłamy sobie do tego serwisu film.
Ile to wszystko kosztuje, to powiem później.
Wysyłamy sobie ten film, on się przez sztuczną inteligencję na stronie przetwarza,
a potem możemy sobie tą deskrypcję wyedytować.
To trochę wygląda z tego co się orientuję trochę tak jak to wygląda w tym narzędziu, które stworzył Amazon jakiegoś swojego czasu do tworzenia audioreskrypcji syntezomowej, tylko wiadomo tam to mimo wszystko, wszystko musiał wpisać człowiek, ale to wyglądało tak, że widzieliśmy film na osi czasu, mogliśmy sobie w odpowiednich miejscach wstawiać właśnie takie wstawki z audioreskrypcją i po prostu to powodowało, że to co my tam napisaliśmy było czytane.
przez syntezę, jak to wyeksportowaliśmy, no to nam tworzył się plik wideo po prostu z tą
audio-deskrypcyjną ścieżką. To wygląda bardzo podobnie, bo też mamy taki edytor, który
pozwala nam sobie tą deskrypcję wpisywać. Może ona być czytana też przez syntezę,
tam jest głosów 60, to jest jakieś AI. Nie powiem wam jak jeszcze,
bo więc nie poznaję tych głosów. To są generalnie głosy angielskie,
te deskrypcje też wychodzą po angielsku. Co ciekawe możemy sobie też zaznaczyć,
że jakiś fragment ma być tak zwaną deskrypcją rozszerzoną, która spowoduje to,
że po prostu film nam na chwilę się zatrzyma.
Jeśli coś się zmienia bardzo szybko, a bardzo chcemy, żeby coś było opisane,
to możemy poprosić system, żeby w tym miejscu nam film na chwilę zatrzymał,
żeby ta deskrypcja się do końca otworzyła.
No ale gdzie jest to AI?
To AI jest tutaj od początku tak naprawdę, bo kiedy my sobie ten film załadujemy,
No to ta sztuczna inteligencja, która jest w tym serwisie, po prostu automatycznie nam jakąś deskrypcję wygeneruje.
Możecie sobie wejść na stronę tej platformy audiblesight.ai
Oczywiście też będzie link w komentarzu, tam też możemy sobie założyć konto, żeby to przetestować za darmo,
ale też jest kilka filmów demonstrujących, to te opisy są generalnie takie krótkie
I to wygląda tak, że kiedy my sobie ten film załadujemy, mi to się udało po kilku próbach.
Nie lubił plików webem, to była moja pierwsza próba, to bezpośrednio pobrałem coś narzędziem
YouTube.pl z YouTube’a.
Film wykrył odpowiednio długość filmu, ale on się nie chciał ładować.
Zmieniłem format na mp4 i wtedy od razu się załadować udało.
I kiedy otwieramy sobie ten edytor, no to domyślnie to wygląda tak, że wszystkie te
opisy wygenerowane przez sztuczną inteligencję
są dodane do tej ośli czasu, ale są wykluczone z tego opisu, więc
generalnie to jest zrobione też na takiej zasadzie, że po takim wygenerowaniu
takiego opisu, mimo wszystko człowiek jakiś powinien sobie to przejrzeć i
odpowiednio popatrzeć, co tam trzeba pozmieniać, co tam trzeba uzupełnić, a co
po prostu można włączyć.
Oczywiście ta strona jest też bardzo fajnie dostępna z czytnikami ekranu, więc
Jeśli chcemy zobaczyć, jak nam to będzie wyglądało, to możemy sobie ręcznie to wszystko, co nam to
AI wygenerowało, powłączać i sobie taki opis wygenerować.
Natomiast jak te opisy wychodzą?
Film demonstrujący to na stronie jest taki prosty, to generalnie sobie ludzie rozmawiają o tym, jak to
fajnie się wspina w górach.
No i te opisy tam generalnie były takie bardzo proste, tam były sceny, gdzie ludzie sobie po
rozmawiali, więc mieliśmy informacje typu kamera pokazuje po prostu jakiś budynek od zewnątrz, jest mężczyzna taki, tak obrany, grupa ludzi wjeżdża na górę schodami ruchomymi.
Ja sobie załadowałem coś co wydawało mi się, może czasami jakaś osoba niewidoma poprosić, czego jest dużo w internecie, czy jakieś śmieszne filmiki ze zwierzętami.
i sobie załadowałem taką krótką kompilację
i
te opisy, generalnie jeśli
ten system wykrył te wszystkie sceny
osobno, a akurat to mu się udało
no to te opisy były takie bardzo statyczne
przypominały mi troszeczkę
opisy, które możemy spotkać, nie wiem
na iPhone na przykład w tym
rozpoznawaniem ekranu, które jest
wbudowane w voice overa.
Piesek siedzący sobie na podłodze
koza
siedząca sobie gdzieś
za płotem, dwa koty siedzące gdzieś koło siebie, więc te opisy były takie bardzo statyczne
no i tam ewidentnie to detale najbardziej istotne były pominięte, czego nie udało mi się
sprawdzić, bo skończyły mi się kredyty o kredytach za sekundę, to to czy na przykład to
narzędzie by sobie radziło z filmami, gdzie się wyświetla nam jakiś tekst, nie wiem, napisy,
które mówią, które po prostu pokazują nam jak jakaś osoba mówi w jakimś innym języku, ale to nie są takie napisy standardowe na YouTubie
lub jeśli mamy jakiś na przykład tutorial, w którym normalnie leci sama muzyka i tak naprawdę poza tą muzyką nic nie wiemy
no jeśli w takich sytuacjach to narzędzie by coś nam istotnego powiedziało, no to już jakiś by to miało większy sens
no tutaj z cenami dynamicznymi na razie jest problem, no pewnie po prostu ta technologia
jeszcze nie jest na tyle rozwinięta.
No i co, na koniec jeszcze może powiem ile to kosztuje i niestety zabawa nie jest tania,
przynajmniej dla nas, bo to wszystko opiera się o kredyty.
Jeden kredyt to jest jedna minuta i to jest wszystko zaokrągalne do góry.
Więc jeśli ja na przykład załadowałem film, który miał tam powiedzmy
minutę i 20 sekund, no to z kontami zostały ściągnięte dwa kredyty.
Jeden kredyt kosztuje dolarów 16, złego możemy powiedzieć 16 dolarów za minutę.
To jest o tyle dobrze zrobione, że płacimy za samo załadowanie filmu i wygenerowanie
deskrypcji. Jeśli później wprowadzimy jakieś zmiany do tego, zmienimy głosy,
no to za to już nie płacimy, płacimy za to pierwsze załadowanie filmu i wygenerowanie
opisu, a później już jeśli chcemy kilka razy materiał eksportować, coś w nim zmieniać, no to już
za korekty na szczęście nie płacimy.
Natomiast jeśli chodzi o to, ile te pakiety kredytów kosztują, no to ewidentnie one są
zrobione bardziej po, no właśnie jakieś firmy, po jakiś biznes, bo najmniejsze pakiet, jaki
możemy kupić, daje nam 30 minut, no w 30 razy 16 można sobie policzyć, wychodzi około 500
dolarów, czyli 180 dolarów.
Tanio nie jest.
Nie, tanio nie jest.
To nie jest tak jak OpenAI czy jakiś Eleven Labs, gdzie taka prywatna osoba, no chyba, że ktoś to nie wygasa, więc teoretycznie ktoś mógłby sobie doładować na konto i żeby mu te kredyty leżały, ale na jakość tego to chyba się nie opłaca moim zdaniem.
Są jakieś jeszcze wyższe pakiety, gdzie dostajemy jakieś promocje na te kredyty, ale no najmniej zapłacimy te 500 dolarów, więc myślę, że o tych większych pakietach nawet nie będę wspominał.
Tanio nie jest, chyba poniekąd to jest nawet, nie wiem, jak wszystkie firmy, gdzie ludzie generują tą deskrypcję.
Gdzieś kiedyś czytałem, że któraś z wiodących amerykańskich film też sobie liczy 15 dolarów za minutę.
Teraz nie wiem, wydaje mi się, że to była sama deskrypcja bez nagrania przez lektora, więc no tutaj może wyjdzie trochę taniej.
Czyli stworzenie skryptu jakby samo, tak?
Tak, stworzenie skryptu, tak.
No tutaj ten sklep, który dostajemy nie jest jakiś porywający, więc no, natomiast myślę, że każdy z nas mógł się domyślić, że prędzej czy później taka technologia zacznie powstawać, no i już coś powstało.
Czy to zastąpi pełni ludzi? Pewnie jeszcze nie, aczkolwiek pewnie jakieś firmy może zacząć z tego narzędzia korzystać.
Miejmy nadzieję, że faktycznie tam ktoś te filmy zobaczy i ewentualnie jakieś zmiany dokona,
bo raczej z tego, co zauważyłem, no to generalnie jakieś zmiany w tych deskrypcjach będą potrzebne.
Następnym newsem jest news od Pawła o tym, że Jupyter usprawnia nawigację klawiaturą.
Tak, zgadza się. Jupyter Notebooks, czyli takie narzędzie również chyba programistyczne, taki
serwis, gdzie można, no nie wiem, czy wy wiecie, może tak to konkretnie, co tam…
To jest, jeśli dobrze, to rozwinięte środowisko, generalnie, w którym
uruchamiamy większość modeli sztucznych inteligencji, takie te notebooki, Google
Colab chyba też na tym działa, jeśli dobrze się orientuję.
Ja to jakoś z Pythonem kojarzyłem bardziej.
Bo to jest, no bo tam generalnie często to jest Python, gdzieś się uruchamia.
Okej.
Zaczęli działać w kwestii dostępności i na ten moment zlikwidowali problemy z klawiaturą, bo jak wiele tego typu narzędzi jest to bardzo rozbudowane, składa się z wielu menu, widżetów, przycisków, elementów.
No i ciężko tą całą strukturę jakoś ogarnąć, na razie tabulatorem można się przesuwać między paskiem menu, paskiem zakładek i paskiem narzędziowym, a w ramach tych pasków chodzić strzałkami.
Wiem, że mają też być prace nad tym, żeby wygodniej dało się też pisać ten kod z perspektywy osoby z potrzebami dostępności.
No i też jakieś usunięte blokady i pułapki na klawiaturę czyhające w notatniku samym, w redagowaniu notatnika.
No więc jeżeli korzystacie z Jupiter Notebooks to dajcie znać czy rzeczywiście się wam poprawiło.
No sama ekipa też jest otwarta na jakiekolwiek uwagi, więc można zgłaszać no i liczyć na to, że zostaną one w przyszłości uwzględnione.
Zostały jeszcze dwa poniekąd newsy, pierwszy, znaczy w tyfrowiesiach oczywiście, pierwszy dotyczy poprawek w narratorze i w ogóle tego co nowego w testowych wersjach Windowsa 11.
Tak jest, bo pojawiła się kolejna duża kompilacja MW11 w tym kanale, takim najbardziej niestabilnym kanale Canary.
To jest kompilacja 26040 i ona przynosi całkiem sporo nowości, które pewnie za jakiś czas do normalnego, pełnoprawnego MW11 trafią w następnych aktualizacjach.
Jakie to są nowości?
Może o dostępie natychmiastowym do zdjęć z urządzenia mobilnego to tak długo nie
będziemy mówić, ale o tym, że do Windowsa trafia redukcja szumów do mikrofonów oparta
na sztucznej inteligencji to myślę, że już wspomnieć możemy, bo to jest coś, co
technologia nazywa się Voice Clarity, chyba niezwiązane z tym, co oferuje firma
Waves, o podobnej nazwie, ale pewnie na podobnym działaniu.
To było wcześniej dostępne na laptopach Surface od Microsoftu, a teraz to będzie
dostępne na każdym komputerze, który uruchomi Windows 11.
No i co tutaj można powiedzieć?
No to jest po prostu taki, jak to firma opisuje, bardzo dobrej jakości
algorytm redukcji szumów, właśnie oparty o modele uczenia maszynowego, jakąś
sztuczną inteligencję, który będzie działał z każdą aplikacją, a przynajmniej z każdą
aplikacją, która działa trybu przetwarzania sygnału komunikacyjnego.
Czyli to nie są te, jeśli ja to dobrze czytam, to nie są te efekty, które możemy sobie
włączyć lub wyłączyć w ustawieniach nagrywania.
To konkretne aplikacje, tutaj jest np.
na przykład powiedziane, że Teamsy i Whatsapp to włączają podczas rozmowy, że mikrofon jest używany w celach komunikacyjnych i dopiero wtedy tam jest jakiś inny algorytm produkcji szumów stosowany i właśnie wtedy ta produkcja oparta w sztuczną inteligencję będzie używana automatycznie.
Natomiast zawodowcy też dostaną nowe API, które pozwoli im do aplikacji dodać
przełącznik, który pozwoli użytkownikom zmieniać między tym modelem nowym
właśnie, a starszymi, tam jeszcze kilka różnych modeli sztucznej inteligencji
dostępnych będzie. Szkoda, że to nie jest bardziej globalne, bo chętnie bym sobie to
potestował w takich warunkach bardziej, no jakieś właśnie aplikacji do nagrywania
Ja się wcale nie dźwięk, jak ktoś stworzy po prostu aplikację do nagrywania właśnie z tymi trybami, ja się naprawdę nie dźwięk jak jakiś Gold Wave czy inny program.
Może nawet chatem GPT by można było jakąś taką prostą aplikację sobie wygenerować.
Pewnie tak, pewnie to jest kwestia odpowiedniego otwarcia sesji audio i pewnie to się będzie dało wykorzystać.
Kreator pierwszej konfiguracji został jakoś odświeżony, nie jest napisane jak, mamy wsparcie nowego standardu USB, który wspiera 80 gigabitów na sekundę, tak po prostu nazywa USB 80 GBPS, nie wiem czy to jest wersja 4, co? USB-C.
ale tutaj kolejna nowość, która już jak najbardziej też nam się może przydać, mianowicie poprawione wsparcie dla czytania obrazków w narratorze i tutaj mamy dwie nowości.
Po pierwsze, w trybie skanowania możemy w trybie skanowania możemy chodzić sobie po grafikach, tutaj skrót chyba nikogo nie zdziwi i shift G następny lub poprzedni obrazek.
i mamy skrót do opisywania zdjęć, który już w narratorze był jakiś czas
dostępny, został poprawiony i teraz lepiej sobie radzi z rozpoznawianiem
tekstu łącznie z pismem ręcznym oraz z obiektów i innych rzeczy, czyli tutaj
pewnie jakiś, nie wiem czy charGBT czy coś będzie używane, pewnie tak, wcale
by mnie to nie zdziwiło.
To jest cały czas dostępne pod skrótem narrator ctrl D, kiedy focus jest
na jakimś obrazku i tutaj firma informuje, że oczywiście do tego będzie
dostępne, musi być połączenie internetowe i musimy sobie odpowiednią
opcję w ustawieniach narratora włączyć, która pozwala narratorowi na
właśnie pozyskiwanie tego typu informacji z internetu.
Mamy tutaj kilka takich zmian administracyjnych, to sobie zostawimy,
Ale takie jeszcze ogólne zmiany, niestety system będzie nam, tak jak mówiliśmy, że WordPad będzie usuwany i np. nowe instalacje tego WordPad’a już mieć nie będą, to nawet po tej aktualizacji po prostu system nam sam tego WordPad’a będzie usuwał.
To szczerze mówiąc mi się nie podoba, nie lubię jak system jakieś sam komponenty sobie usuwa kiedy chce, no ale Microsoft tak lubi.
Ostatnio w ogóle w Edge ludziom zaczął się otwierać temat Chroma i nawet importować im wszystkie otwarte karty w tym samym stanie w jakim one były w Chromie,
więc no ciekawe rzeczy, ciekawe eksperymenty się dzieją w Microsoftie, ale o WordPadzie już kiedyś mówiliśmy.
Mamy zmiany, gdzie się ikonka co-pilota wyświetla, ale w eksploratorze plików, odnosząc się do tego, co zostało dodane jakiejś systemu, gdzie eksplorator wspiera otwieranie różnego typu archiwów, nie tylko plików zip, no to teraz będziemy mogli sobie pakować pliki do innych formatów, nie tylko zip.
Będzie można kompresować pliki do formatu gzip i nie tylko, ale też będziemy mogli do istniejącego archiwum na przykład dopakować kolejne pliki, więc jeśli zapomnimy sobie coś dodać, to będzie można taki archiwum otworzyć, no i tak jak na przykład właśnie w aplikacji 7zip czy winrar, po prostu jakieś kolejne pliki do archiwum dodać.
Dla aplikacji, które otwierają okienko udostępniania systemowe, domyślnie będzie nam się wyświetlało kilka nowych skrótów do stron takich jak whatsapp, gmail, x, czyli dawny twitter, facebook i linkedin.
I nawet będą się nam wyświetlać też aktywne czaty i grupy w Teamsach, jeśli jesteśmy zamkowani, więc też będzie można łatwo do Teamsów różne rzeczy udostępniać.
No i mamy poprawki w narratorze i też jest ich kilka.
W Wordzie Narrator będzie nas informował o komentarzach, które są kopiami roboczymi,
komentarzach, które już zostały rozwiązane, więc ktoś nam wysłał jakąś sugestię, którą albo zaakceptowaliśmy, albo nie.
I to będzie oznaczone jako rozwiązany komentarz.
O zagładkach będziemy informowani oraz o sugestiach dotyczących dostępności podczas czytania dokumentu.
Narrator będzie teraz też lepiej współpracował z funkcją Voice Access, czyli tym nowszym rozpoznawaniem mowy, które pomału to stare zaczyna wypierać, ale też już to starsze rozpoznawanie mowy będzie usuwane.
Ciekawe jak wtedy będzie to z dostępem do panelu sterowania SAPI swoją drogą, bo on generalnie, no oprócz tego skrótu, który można wchodzić ręcznie i to pewnie będzie cały czas działać, no wchodziło się do tego właśnie przez ustawienie rozpoznawania mowy oficjalnie, więc też ciekawe co będzie.
Mniej więcej narrator nas będzie po prostu więcej informował o tym, co się z tym voice accessem dzieje i ponadto będziemy mogli wydawać polecenia dotyczące konkretnie skrótów narratora, więc będziemy mogli poprosić system o to, żeby nam narrator na przykład przeczytał bieżącą linię albo obiekt pod focusem jeszcze raz, albo przeszedł do następnego nagłówka itd. i narrator to po prostu zrobi.
Czyli zapowiada się taka trochę uboga, bo uboga, ale alternatywa do tego, co ma Joss we współpracy z Dragonem, to, co Brian Hudgen rozwija, te skrypty, takie dość zaawansowane i też kosztowne, bo to wszystko, żeby kupić, to i skrypty swoje kosztują, i Dragon kosztuje, i Joss kosztuje.
Dokładnie, a tu będziemy może mogli z tego jakoś korzystać nawet i zupełnie za darmo w ramach systemu.
Tak, no miejmy nadzieję, że to się też kiedyś po polsku pojawi.
Na iOSie i na macOSie zresztą ta funkcja sterowania głosowego też wspiera polecenia VoiceOvera,
więc tutaj fajnie, że Microsoft też w tą stronę poszedł.
Ale to jeszcze nie koniec poprawek, bo narrator teraz nam będzie prawidłowo czytał
zaznaczony element na listach rozwijanych.
Jeśli używamy skrótów kontrol strzałka w górę i w dół.
Czasami narrator źle nam czytał jakieś tytuły starych okien dialogowych, kiedy
przechodziliśmy do jakiegoś innego, nowego okna na niektórych stronach
internetowych.
I narrator czasami nie czytał roli kontrolki, która była zagnieżdżona
w jakiejś tabelce na stronach internetowych, kiedy używaliśmy skrótów nawigacji po tabelkach, to też zostało poprawione.
W Excelu czasami narrator nie czytał listy autosugestii, autosupełnienia, kiedy pisaliśmy jakąś formułę.
I poprawiono problem, że narrator czasami nie czytał stanu niektórych elementów menu w niektórych aplikacjach takich jak manager urządzeń.
I jeszcze jedna poprawka, narrator już nie będzie czytał zarówno wartości zaznaczonej i wartości niezaznaczonej w polach takich jak pola daty.
i elementach, które są sformatowane jako tabelki, więc czasami kiedy focus nam się przesuwał, to narrator
najpierw mówił co zostało odnoszone, a jaka opcja ten focus dostała, więc jak widać narrator cały czas się
rozwija, no i w ogóle sam Windows, dużo zmian na plus generalnie, więc kiedy ta wersja pewnie za parę
miesięcy ukaże się finalnie, no to myślę, że jest na co czekać, zwłaszcza ta redukcja szumów, jestem bardzo
ciekawy jak to się sprawdza.
Swoją drogą, to nie wiem czy wiecie, ale Zoom też doczekał się jakiejś takiej inteligentnej redukcji szumu, ja widziałem jakiś czas temu taki jeden z tych trybów, który można sobie tam włączyć, nie testowałem tego szczerze mówiąc, bo nie było mi to do niczego potrzebne, ale jest jakaś taka opcja, właśnie redukcja szumów specyficzna dla danego użytkownika,
Czyli, że on się teoretycznie uczy tych naszych różnych hałasów, dźwięków otoczenia, jest w stanie jakoś to doprecyzować.
Teoretycznie jest to wszystko robione lokalnie, nie opuszczają te próbki naszego komputera i na podstawie tego tworzony jest jakiś taki model naszego pomieszczenia
i dzięki temu ta redukcja szumów jest dostosowywana do naszych potrzeb.
Więc jeżeli ktoś korzysta z Zooma i ma potrzebę używania tego trybu,
to może warto tam zajrzeć do ustawień dźwięku.
I zostały nam już drobne newsy.
Drobnych newsów jest troszeczkę.
Są newsy od Piotrka i od Pawła, to może w związku z tym,
że Piotrek teraz mówił, to może dajmy głos Pawłowi.
Nie ma sprawy.
Nie, czy dobrze myślę, dwa newsy?
Tak, staje się, że nawet jakiś trzeci się znajdzie.
Tylko tak, no na pewno Wojswista jest newsem.
Wojswista rozwija się nadal w najlepsze.
No a dlaczego postanowiłem o niej wspomnieć?
A no z tego powodu, iż no praktycznie chyba w 100%.
Możliwe, że są jeszcze miejsca, gdzie to nie jest do końca faktem,
ale zostało stworzone już nie automatyczne, a ludzkie spolszczenie.
Tutaj Przemek Rogalski, podziękowania dla niego,
bo to on właśnie wyczyścił tą lokalizację z różnych baboli pokroju blisko,
czyli close, zamknij, tak, albo różnego rodzaju jakieś tam spać,
jakieś bezokoliczniki, jakieś dziwne słowa nie w tym kontekście co trzeba.
Tu już to wszystko powinno być okej. No i też VoiceVista doczekała się integracji z Watchem i na tym Watchu można sterować, co prawda tą VoiceVistą na telefonie i pewne informacje pozyskiwać.
No ale jest to już dostępne, także jest też to wszystko tutaj dostępne.
No o tym parę innych rzeczy też doszło, jak to co tydzień dochodzą różne rzeczy.
Mi się najbardziej spodobało już to, że jest podawany numer telefonu i strona internetowa
dla znalezionego miejsca w miejscach w pobliżu.
No i za moją sugestią też w następnej wersji autor rzekomo chciałby dodać opcję wykonania telefonu pod ten podany numer lub otwarcia tej strony do pokrętła na danym miejscu, czyli coś co już robią mapy Google na przykład.
Jest to bardzo poręczne jeżeli chcemy na przykład potraktować taką nawigację jako książkę telefoniczną, jako taki katalog firmy.
Także no czekajcie na najbliższe aktualizacje, bo może być ciekawie.
No i też istnieje nowy serwer na Discordzie, International Blind Café 18+.
Serwer, który zrzesza osoby niewidome.
Nie wiem, co tam ogólnie się dzieje, bo jeszcze mnie tam nie było,
natomiast jedną z zorganizowanych aktywności w soboty są quizy,
gdzie można publicznie brać udział w takich jakby milionerach
i się integrować.
Pewnie inne aktywności są również zaplanowane.
W komentarzu będzie link do tego serwera, więc będziecie mogli sobie go dodać.
No i trzeci news ode mnie drobny.
Był wywiad w ostatnim odcinku Living Blindfully, bo Jonathan Mosen już wrócił do nagrywania odcinków.
Wakacje w Nowej Zelandii się skończyły.
I przeprowadził wywiad z menedżerem produktu w PISPERO.
Na temat tego właśnie, co aktualnie jest planowane w Josie.
Tam różnych ciekawych rzeczy można się dowiedzieć.
Na przykład stanowisko tego szpana na temat AI jest takie, że no AI przynajmniej na ten moment to się może przydać w czytniku ekranu na przykład do wyszukiwania treści na ekranie, ale nie żeby przejęło kompletnie kontrolę.
Ale co ciekawe padło pytanie o to, czy Vispero jakoś się ustosunkowuje do tego, że no właśnie konkurencja już dawno miała albo ma jakąś formę sklepu z dodatkami, jakiegoś centralizowanego repozytorium.
No GW Micro miało to, w Window Eyesie już było repozytorium skryptów.
To Script Central to się nazywało chyba?
Czy jakiś GW Central?
Coś takiego.
Script Central, Centrala Skryptów po polsku to było przetłumaczone.
Tak, no NVIDIA od ostatnich wersji ma NVIDIA Add-on Store.
No i co JAWS?
No i tu zdradził nam menadżer, że są jakieś przemyślenia na ten temat.
że coś, coś myślą, jakiś jakoś temat jest dla nich bieżący, no więc może w jakiejś…
Tyle się tak zastanawiam w sumie, jak wielki jest akurat w przypadku Jossa sens tworzenia takiego centralnego repozytorium,
wziąwszy pod uwagę fakt, że być może ja czegoś nie wiem, bo też jakoś tak bardzo tego nie śledzę,
ale wydaje mi się, że większość takich dodatków do Jossa to są rzeczy jednak jakoś tam płatne.
To też było poruszane w tym podcastie, akurat też tego słuchałem i tam się zastanawiali czy np. nie zrobią kiedyś tak, że np. autorzy takich płatnych skryptów by mogli coś po prostu sprzedawać przez ten sklep i wtedy Whisper o jakiś procent by od tego miał.
Chyba, że tak.
Więc też ten temat był poruszany, no myślę, że coś takiego pewnie by się przydało, bo jeśli chodzi o Juasa, to jest bardzo porozrzucane, no i też te skrypty nie mają często mechanizmów sprawdzania aktualizacji, pewnie niektóre mają, ale na przykład skrypty do Reapera już nie i widziałem już parę sytuacji, że przez to ludzie potem mieli problemy, bo nie mieli najnowszych wersji tych skryptów, które są fajne, ale trzeba je aktualizować z Reaperem, no i pewnie jest taki gabigacjik, że nadal…
No nie.
No to tyle jeżeli chodzi o moje drobne na dziś.
Okej, no to teraz przejdziemy do
moich, a zaczniemy sobie od czegoś
co może zainteresować tych, którzy
jakkolwiek są zainteresowani
wszelkiej maści sztuczną inteligencją,
między innymi właśnie pracą z
stronami typu Google Colab, gdzie
właśnie mamy te Jupitery, o których
Paweł wcześniej mówił.
Bo oto jedna
osoba, która jest tym bardzo zainteresowana, wrzuciła na GitHub takie małe
repozytorium z przydatnymi rzeczami do pracy właśnie z tymi stronami.
I na przykład co my tutaj możemy znaleźć?
No możemy na przykład znaleźć kilka samouczków jak właśnie z tym collabem
pracować na podstawie projektu, które tutaj nam autor proponuje, ale mamy też
kilka przydatnych bibliotek, które możemy zastosować zarówno po tej stronie
powiedzmy Pythona, kiedy piszemy jakiś model, jak i po tej stronie HTMLa, bo
często te modele np.
podczas trenowania wyświetlają nam różne rzeczy, często jako wykresy np.
No i można te narzędzia zastosować, żeby takie informacje były i dla nas
dostępne. I tak np.
mamy bibliotekę do tworzenia wykresów audio i te wykresy możemy sobie eksplorować zarówno z poziomu klawiatury i myszy zresztą na tej stronie jest taki próbny wykres możemy sobie przetestować jak to działa ono też ta biblioteka może też nam tworzyć taki wykres w formie pliku dźwiękowego gdzie to jest animowane ten wykres po prostu jest automatycznie
przechodzony od lewej strony do prawej, więc możemy sobie właśnie w ten sposób, jeśli jakiś taki model tworzymy,
no to zrobić tak, żeby on był dla nas taki wykres bardziej dostępny.
Mamy też bibliotekę Colab A11y Utils, czyli bibliotekę, którą możemy zaimplementować, to jest właśnie w Pythonie,
Kiedy piszemy sobie taki, taki notes, taki notebook, która nam kilka dodatkowych dźwięków da, które nam pomogą lepiej diagnozować co się dzieje z danym modelem.
No niestety nie możemy sobie jakoś tego wgrać do wszystkich modeli, przynajmniej z tego co ja widzę, z których byśmy chcieli pracować.
No większość z nich jest otwartą źródłową, więc pewnie jakoś by się dało jej gdzieś dokleić po prostu.
Natomiast będziemy mieli informacje, kiedy jakiś następny krok w tym notesie jest wykonywany.
Dwa sygnały, kiedy zakończy się z powodzeniem oraz inny taki brzęczek, kiedy coś pójdzie nie tak.
Będziemy też mieli dźwiękowe paski postępu.
Tutaj coś pokroju tego co w MVDA czy w ZSR-ze mamy, więc rosnące dźwięki będą nas informowały o postępie.
I jakaś prosta funkcja, która zamiast po prostu wysyłania tekst na ekran będzie od razu coś tam czytała.
Nie wiem czy Arion, czy jakąś syntezą to nie jest powiedziane, natomiast możemy sobie też taką funkcję wykorzystać.
I tutaj też mamy taki przykładowy notas, który pokazuje jak te funkcje działają.
Mamy też tak zwany user script do rozszerzeń typu Thumper Monkey w Chromie czy Grace Monkey w Firefoxie, który nam właśnie poprawia coś w tym collabie.
Co dokładnie nie wiem, tutaj na stronie niestety nie jest napisane, ale tutaj jakieś dodatkowe skróty i trochę upraszcza nam tą stronę, no bo to jest faktycznie taka dosyć strona skomplikowana.
skomplikowana. I tutaj właśnie mamy kilka, kilka samouczków właśnie jak z takich
modeli korzystać. Tutaj mamy na przykład regresję linearną, rozpoznawanie mowy
i no właśnie takie mamy dwa samouczki i jeszcze dodatkowe jakieś zasoby, które
nam pomogą w sobie z takimi narzędziami radzić.
Jest tutaj co czytać i jest co wykorzystywać jeśli ktoś jest zainteresowany.
Następnie ostrzeżenie dla tych, którzy korzystają z Outlooka na iPhonie.
Jestem ciekawy Michał, czy ty się z tym błędem spotkałeś, bo wiem, że to intensywnie dosyć korzystasz.
Właśnie tak zastanawiałem się o jaki błąd chodzi, bo ja mam najnowszą aktualizację Outlooka
i jest jedna rzecz, która mnie zirytowała, ale to za chwilę.
No to ja powiem to, co przeczytałem na Mastodonie na przykład.
Problem jest po prostu taki, nie wiem jak to się objawia dokładnie,
ale dostałem taką informację, że po prostu pisanie odpowiedzi
i nowych wiadomości chyba też jest po prostu z voice overem po tej aktualizacji
niemożliwe. Microsoft o tym wie i obiecał poprawki, natomiast
ponoć po prostu najnowsza wersja Outloka na iPhone jest zepsuta i tyle więcej.
A to ciekawe, bo ja nie potwierdzam,
Mam najnowszą wersję Outlooka, przynajmniej stan na dziś, jeszcze sprawdzałem przed audycją, żadnej nowej nie było i dziś akurat pisałem odpowiedź na maila, pisałem ją Braille’em, więc byłem w stanie bez problemu napisać tę wiadomość.
Natomiast, wspominałeś Piotrze, że Microsoft sobie lubi zmieniać domyślne przeglądarki i linki, na przykład czy tam karty otwierać w Edge’u.
No jak się okazuje, nie tylko na Windowsie, ja dziś ze zdziwieniem zauważyłem, że mail z Outlooka, a właściwie link z tego maila otworzył mi się wedżu.
Mam go zainstalowanego, ale tak tylko dla testów jakoś nie przypadła mi do gustu ta przeglądarka, korzystam z Safari, ewentualnie z Chrome’a.
Natomiast ze zdziwieniem właśnie rano patrzę, co jest grane, w czym mi się to otwiera.
Okazało się, że po aktualizacji najnowszej Outlooka, no właśnie się to przestawiło.
I w tym momencie linki otwierają się w Edge’u.
Natomiast można to łatwo w ustawieniach zmienić.
Co ciekawe jest otwieraj albo w właśnie Edge’u jako osobna pozycja, albo w domyślnej przeglądarce systemu.
więc można sobie wybrać i można sobie wrócić do naszej domyślnie używanej przeglądarki, to nie jest problem, gdyby komuś się tak zrobiło, a nie byłby z tej zmiany zadowolony, to spokojnie można to przestawić.
Czyli jak widać na Was, jeśli jesteśmy na Windowsie, to czasami takie zmiany mogą nas spotkać.
A co to będzie dopiero za jakiś czas, jeżeli o Apple’a chodzi? To się okaże.
Tak, zobaczymy.
Dobrze, co mamy dalej?
Następnie zostajemy
w tematach aplowskich poniekąd,
bo nadchodzi nowa
aplikacja, nazywa się Project
Tapestry, czyli pewnie po prostu Tapestry
to się będzie nazywało.
To jest na razie kampania crowdfundingowa,
która jest na Kickstarterze,
natomiast ona w dwa dni już zarobiła
ponad 70,
chyba już nawet 5% celu,
to jest za 50 tysięcy dolarów,
a no właśnie już nazbierała.
O!
No właśnie.
Mniej więcej to jest aplikacja.
Dlaczego?
Dlaczego powinniśmy się nią zainteresować?
No to jest aplikacja od firmy Icon Factory, która może być wam znana
na przykład chyba najbardziej z aplikacji Twitterific, czyli świetnego, bardzo
dostępnego klienta do Twittera, który był najpierw na iPhonie, później też na
Macu, no i cechował się bardzo fajnie zrobioną dostępnością i personalizowalną.
No wiadomo, kiedy Twitter zamknął się na zewnętrzne aplikacje, no to Twitter
przestał działać. Firma cały czas na rynku jak najbardziej jest.
Ona zajmuje się też tworzeniem aplikacji też dla innych firm, a też designem
interfejsów mają też taką prostą aplikację do tworzenia notatek, ale też
ich głównym źródłem dochodów jest aplikacja, która co miesiąc oferuje nowe
tapety dla użytkowników iPhone’ów, więc nam to się może nie przyda, no chyba że dla
kogoś słabowidzącego, to możecie sobie tą aplikację podejrzeć.
Natomiast zaczęli pracować…
Też Triod, Triod.
A tak, oczywiście, jak mówiliśmy o nim w ramach aplikacji radiowych w tej audycji.
No właśnie i to też jak najbardziej nam się może przydać i to jest kolejny przykład takiej bardzo dostępnej aplikacji zarówno na iPhone’ie i na Mac’u.
No ale co to jest to Tapestry?
No to jest aplikacja, która ma za zadanie nam dać jedną łość czasu dla wszystkich informacji, które nas interesują niezależnie od tego z jakiego źródła one będą pochodziły.
Będziemy mogli sobie wejść szczegóły z jakiegokolwiek z tych postów, będzie zapamiętowana pozycja, no i właśnie będziemy mogli sobie dodawać różne źródła i będziemy też mogli pisać własne wtyczki, tu jest napisane, że te wtyczki będą jakimiś prostymi skryptami w javascriptie.
będzie wsparcie dla iPhone’a i iPad’a, no i wsparcie dla wszystkich funkcji dostępności, w tym dynamiczne rozmiary
ściąki, no i oczywiście wsparcie na voice-overe, więc już tutaj w tekście tej kampanii jako podstawowy cel
będzie to, że aplikacja ma być jak najbardziej dla nas dostępna. Są też już tak zwane stretch goal’e, co będzie
Kiedy cel zostanie osiągnięty i uda się trochę więcej zarobić, to będzie wsparcie dla filtrów,
zmiany motywów, zadawanie zakładek, filtry, wyszukiwanie powiadomień, a kiedy oś czasu nam się zaktualizuje,
udostępnianie tych zewnętrznych wtyczek i wersja na Maca, która myślę też byłaby fajna.
Tylko, bo też o tym czytałem i tu dla mnie z jednej strony super,
fajnie, świetnie po prostu, cieszę się, no tylko taka aplikacja, która okej, będzie na pewno Mastodona wspierała, będzie wspierała RSS-y,
ale nigdzie nie wyczytałem i zresztą mnie to wcale nie dziwi, bo i szanse byłyby na to znikome, żeby w ogóle jakkolwiek było to możliwe,
ale nie będzie miała wsparcia raczej dla Iksa i dla Fejsa, więc tak naprawdę dwie duże platformy, w których mamy naprawdę dużo treści, już nam odpadają, więc aplikacja wszystko mająca tak trochę traci.
No tak, to jest zresztą też na tej kampanii napisane, bo mamy listę usług, które będą wspierane i usług, które na pewno oficjalnie przynajmniej wspierane nie będą przez to, że one po prostu są zamknięte, to jest właśnie wspomniany Facebook, Instagram, Threads i właśnie X.
Natomiast tak jak powiedziałeś, będzie Mastodon, oczywiście, będzie Tumblr, będzie Blue Sky, będzie mikro blog, będą kanały RSS, informacje o trzęsieniach ziemi w Stanach i o pogodzie, Go Comics, nie znam przeze mną z tej strony i wiele więcej.
Oczywiście tutaj będzie można te wtyczki tworzyć, więc ja tutaj widzę, że możliwość, że ktoś sobie doda właśnie pogodę, może jakieś nieoficjalne wsparcie dla Facebooka, chociaż to się pewnie będzie ciągle zmieniało, więc to będzie pewnie kwestia wyścigu kotka i myszki, przepraszam, ale może coś się uda zrobić, no i ciekawe jakie inne serwisy ludzie w jakiś sposób będą do tego dodawać.
Ja tutaj jakieś pomysły widzę, bo nie wiem, na przykład integracja kalendarza, byśmy od razu mogli zobaczyć, co nam się pojawi.
Może jakieś informacje giełdowe, sportowe, nie wiem, kto co lubi czytać.
No pogodę na pewno, zebrano kawy, sprawdzamy.
Może jakiś podcast, ulubione kanały na YouTube, ale nie tylko, bo na przykład jeśli obserwujemy, jeśli na przykład wspieramy kogoś na Patronie czy tego typu serwisach,
to one mają zazwyczaj jakieś osobne kanały, no to fajnie byłoby sobie to jakoś
zcentralizować.
No pomysłów na to może być wiele, zobaczymy jak to będzie w praktyce.
Jeśli ktoś chce sobie to potestować szybciej, no to można projekt tutaj
wesprzeć i wtedy mamy m.in.
dostęp do wcześnich wersji beta, no a jeśli nie, no to planowane data wydania
to jest koniec tego roku, a więc tutaj aplikacja ma być dopracowana.
Zobaczymy ile się do końca roku też może zmienić na
arenie właśnie informacji.
No więc zobaczymy. Myślę, że to jest coś warte obserwowania zwłaszcza, że
deweloperzy od początku obiecują dostępność.
No i myślę, że to raczej dostępne biorąc pod uwagę jak jak dostępne były
ich inne aplikacje no to raczej dostępne powinno być.
Dobrze kojarzę, że oni też chcą wspierać blogi w jakiś sposób śledzenie
blogów oczywiście rozumiem że RSS ale poza tym jakoś no to jest powiedziane np.
ten serwis mikro kropka blog a to jest ok ale to jest wersowy taki mikro blog a mi
chodziło bardziej że blogi takie w internecie coś typu WordPress no nie
bo jak z WordPress jest Tumblr więc tam też ludzie jakieś takie blogi stawiają
pewnie jakieś substaki też by się dało na tym obserwować.
Fajnie jakby był WordPress, na przykład komentarze, bo można by wtedy fajnie śledzić dyskusję pod podcastami.
Ja wiem, że jest kanał RSS do wszystkich komentarzy, ale gdybym chciał dla wybranych postów na przykład mieć
powiadomienia o komentarzach pod konkretnymi odcinkami, na przykład tam, gdzie ja jestem współprowadzącym,
żebym mógł odpowiadać na pytania naszych słuchaczy i wiedzieć po prostu, że coś piszecie, bo…
No to byłoby fajne.
No, no, może ktoś zrobi wtyczkę, a może, może jak się wpłaci dużo na kampanię, to zrobią wordpressa.
Można sugerować, więc no właśnie, kto wie, jak ktoś prowadzi własnego boga, to w sumie faktycznie taki, dodać sobie takiej osi czasu komentarze, no to też jakiś sensowny pomysł.
Dobrze, co teraz? Teraz coś dla tych, którzy są zainteresowani krótkofalarstwem, bo powstaje urządzenie, które nam może udostępnić całkiem sporo radiostacji.
Próbowałem się w temat wczytać, mogę tutaj jakieś detale źle wytłumaczyć, no oczywiście każdy może sobie wejść, będzie link do filmu na YouTubie, na którym to urządzenie, o którym za chwilę powiem, jest opisywane.
też jest link do strony autora tego, gdzie możemy więcej poczytać.
Generalnie chodzi o to, że wiele
radiostacji, które są wykorzystywane nie tylko w Stanach, też na całym świecie,
mają jakieś wejście, to często działało na porcie średniowym,
nawet od ostatnich 30 lat, nawet do dziś,
które można te radiostacje jakoś programować.
Ten standard, tam wejście było takie samo, protokoły się minimalnie różniły,
ale tutaj da się to ogarnąć i taki jeden krótkofalowiec w Stanach Zjednoczonych
stworzył sobie takie urządzenie, najpierw to się nazywało CT-R2 Mini,
potem powstała tego mniejsza wersja, wersja CT-R2 Micro,
która ma jeszcze więcej funkcji, jest mniejsza i tańsza,
które do tych radio stacji się podłącza i tam możemy sobie od razu też mikrofon podłączyć,
możemy kilka stacji naraz sterować,
jeśli chcemy kilka kanałów naraz monitorować,
na przykład możemy dużo rzeczy sobie tam poustawiać i ten pan dowiedział się też, że
wielu jest niewidomy krótkofalarze no i co zrobił?
Zrobił jeszcze jedno urządzenie, tutaj mamy taki trochę łańcuszek, mamy radio, do tego
radia podłączamy ten CTR-mini, a do tego CTR-mini będziemy mogli podłączyć jeszcze
moduł CTR-2 Voice, który będzie działał po Wi-Fi jakoś.
No i to jest urządzenie, które po prostu ma wejście słuchawkowe, też ma swój głośnik.
Ma oczywiście gałkę, żeby ustawić głośność, ale generalnie komunikuje się z tym urządzeniem do serowania radia i po prostu je udźwiękawia.
No i w tym urządzeniu już możemy sobie posłuchać jak to brzmi.
Możemy sobie chodzić po menu, ustawiać częstotliwości i to wtedy nam mówi na jakiej częstotliwości jesteśmy.
Oczywiście prędkość, głośność tego głosu możemy sobie ustawiać, jakieś inne zaawansowane funkcje przeglądać, bo tam to urządzenie też może na przykład
decodować różne systemy, bo oczywiście zaczęło się od alfabetu Morse, ale też można jakieś sygnały binarne wysyłać po falach i sobie po prostu pisać ze sobą nawet w ten sposób.
I to urządzenie też to nam będzie wspierało.
No więc kolejne narzędzie, które nam pozwoli dużą część różnych radiostacji udostępnić.
Pewnie jakieś bardzo drogie to nie będzie, tak mi się wydaje, bo samo to urządzenie, to sterowanie tymi radiami kosztuje złożone,
bo można sobie kupić to tak, żeby to złożyć samemu, a można też kupić złożone.
To złożone kosztuje niecałe 50 dolarów, no wiadomo bez wysyłki, ale no to chyba generalnie jakoś bardzo drogo nie jest.
natomiast no też nie wiem ile tego typu urządzenia normalnie kosztują,
ale to może być jakiś sposób, żeby jakieś bardziej zaawansowane radio sobie
ogarnąć, więc myślę, że jeśli ktoś jest zainteresowany, to warto tym projektem
się interesować, zasubskrybować kanał, no i śledzić temat.
I na koniec jeszcze jedna aktualizacja, duża aktualizacja aplikacji Speech Central.
No od jakiegoś czasu mówiliśmy, że ma powstać nowa generacja tego. To się rozwijało. Były testy beta, które ja akurat nie testowałem, natomiast Paweł testował i mówił, że jakoś dużo w swoim zdaniu się nie zmieniło.
No właśnie nie widziałem jakoś wielu zmian. Autor też z jednej strony pisał, przynajmniej w notatkach dla wersji beta, o wielkiej rewolucji, że żadna aplikacja do czytania książek nie dostała tylu nowych opcji co teraz.
Za dużo, żeby wymienić changelogu, no i jak tak spoglądałem, to nie widziałem za wiele nowości.
To może stwierdził, że po prostu nic nie będzie wymieniał.
No może, no.
Sprawdźcie sobie.
Natomiast nowa wersja…
No to ja się na temat problemów nie wypowiem, natomiast nowa wersja się pojawiła.
I w tej nowej wersji pojawiła się niespodzianka, o której testerzy nie wiedzieli.
bo jest w aplikacji sztuczna inteligencja, ale ona nie działa tak jak moglibyście się tego spodziewać.
Tam jest jakieś chyba wsparcie do głosów angielskich, tam chyba można sobie jakiś klucz wpisać, nie wiem.
Natomiast jest tam jakiś nowy model, który po pierwsze może nam tę syntezę przyspieszyć czterokrotnie,
ale też może po prostu jej dodać więcej emocji.
Mamy nawet dwa klipy na stronie.
Jeden jest pokazany na przykładzie głosu angielskiego Ewa,
który jest tam w systemach iOS domyślnie i drugi to jest głos
Microsoftu, no i on faktycznie tam troszkę tych emocji do tego
tekstu dodaje i jak to sobie generalnie radzi, nie wiem, musiałbym
to sprawdzić, tutaj rozmawialiśmy jak to sobie, jak to się na
przykład sprawdzi, nie wiem, z e-speakiem czy z eloquentem,
więc no jeśli ktoś chce sobie potestować, to można i jak to
sobie będzie radziło z innymi językami niż angielski, też
Nie wiem, natomiast jeśli jesteście ciekawi, bo aplikacja dla użytkowników VoiceOvera przynajmniej wcześniej była darmowa, chyba nic się nie zmieniło w tej sferze, no to jak ktoś chce sobie sprawdzić, no to z Pitch Central można sobie z App Store’a ściągnąć i testować.
No i to wszystko ode mnie.
A tymczasem mamy trochę wiadomości od Was, więc będzie czego słuchać przez najbliższe minuty.
Taka przerwa między tyflo aktualnościami, a technikaliami.
Najpierw zaczynamy od wiadomości od Wojtka.
Cześć. Dzisiaj ode mnie dwa tematy.
Pierwsza sprawa to taka prośba o poradę.
Mianowicie dzisiaj będąc w pracy tłumaczeniowej troszkę sobie z różnymi tam rzeczami eksperymentowałem.
Bo chcę zrobić tak, i to jest oczywiście świetnie do zrobienia przy pomocy Maca i Hijacka i karty dźwiękowej, żeby wysłać sygnał z konsoli na słuchawki OpenMove Aftershocks.
Dlaczego? Dlatego, że częstym takim problemem u tłumaczy konferencyjnych jest to, że
no jakby chcą mieć też odsłonięte ucho, jedno co najmniej, jeśli nie oba.
No i słuchawki kostne są super rozwiązaniem, rzeczywiście świetnie się z tym pracuje.
Po prostu się to robi, no bo taka konsola to ma tam trzy wyjścia, ma duży dżerek, mały dżerek
Jeszcze chyba, no taki jeszcze bardzo stary, taki na, na ten pięciobolczasty chyba, albo chyba pięciobolczasty mam tu wyjście.
No w każdym razie, biały kabel Jack-Jack, podłączam to do marusinki karty dźwiękowej na USB-C, no do wejścia, to podpinam do Maca,
na hijacku to przechwytuję i przerzucam albo na OpenMovie, albo na inne słuchawki albo na to i na tamto, tak naprawdę to nie ma znaczenia.
Po drodze mogę sobie nagrać ten sygnał, po drodze też mogę go wpuścić na przykład do Worda, żeby robił mi transkrypcję z tego, co tam się dzieje i mówią.
Dla mnie to akurat nie ma zbyt wielkiego znaczenia, no bo nie skorzystam po niewidomemu z tej transkrypcji.
No ale tu koleżance właśnie z kabiny taką pomoc też świadczyłem, jak ona pracowała.
Chociaż powiedziała, że jej to bardzo rozpraszało tak naprawdę.
Ale jaki problem?
Problem jest taki, że to wszystko pięknie działa do momentu, kiedy podłączysz laptopa do przedłużacza.
Niestety wtedy tak brumi i to oczywiście nie zawsze tak jest, bo już tam kilka razy próbowałem.
No czasem takie, że to nie brumie, a czasem jest, że strasznie brumi, się to jakoś spina.
Więc pytanie do Was, czy wiecie, czy jest coś takiego, żeby można było jakoś to brumienie usunąć?
Czy są, nie wiem, jakieś możliwości, pewnie techniczne, pewnie coś trzeba by było kupić, żeby ograniczyć.
ograniczyć. Raz coś mi się zdarzyło, coś takiego, że w ogóle nawet podłączenie bez
zasilania i tak powodowało gdzieś jakieś tam sprzężenia i w rezultacie ten
sygnał był bardzo słaby. Ten, który docierał do komputera i potem do słuchawek,
bardzo był taki właśnie zaszumiony, taki buczący. Także nie wiem, może są jakieś
jakieś filtry czy coś, co by się dało jakby podłączyć gdzieś do tego Jacka na przykład.
No nie wiem, jeśli macie jakiś pomysł, poradę, to chętnie przyjmę.
To jest pierwsza sprawa.
A druga sprawa to jest kwestia audiodeskrypcji w Netflixie,
bo się jakoś tak wciągnęliśmy w to.
I tak jak powiedziałem, że ten syntezator mowy to generalnie okej,
chociaż jednak ta uśmiechnięta pani chyba z Eleven Labs,
no to jest chyba słaby pomysł jednak,
bo często są jakieś sceny smutne i ona dalej się pięknie, szeroko uśmiecha.
No ale dobra, to już wszystko dałoby się przeboleć,
gdyby nie to, że naprawdę jakość tych audiodeskrypcji robionych
no, przez właściwie już można by było powiedzieć
takie osoby, które dla mnie są na czarnej liście.
Zwłaszcza taki pan i taka pani o dwóch nazwiskach.
Pan Marek Kotula i pani Joanna Worwanowocin.
To jest dla mnie po prostu synonim braku profesjonalizmu i żenady tej audiodeskrypcji.
No i to jest jakaś lista wstydu, po prostu to, co oni robią.
Uważam, że gdzieś fajnie by było kiedyś podjąć ten temat i, nie wiem, może napisać do Netflixa,
że po prostu to, że ci ludzie dostają pieniądze za to, że robią te skrypty,
to jest jakieś nieporozumienie po prostu.
to jakość tego urąga w ogóle naszej inteligencji
i jakiemukolwiek rozeznaniu w ogóle, w czymkolwiek jakie mamy.
To czasem nawet przeszkadza po prostu ten skrypt bardziej niż pomaga.
No i oczywiście połowę rzeczy się nie dowiemy z tego
i potem ktoś mi mówi, że na tym filmie to było ciekawe jeszcze to i to i to.
bo kompletnie nie było tego, można rozeznać z audiodeskrypcji.
To już jest zwłaszcza smutne, jak jest już nagrany lektor,
taki profesjonalny, nie ten głos syntetyczny,
że na to się wydaje pieniądze, wydaje się pieniądze na ten skrypt,
a właściwie jakość tego jest po prostu żenująca.
Żenująca.
Tak że może jak i Aper, może ktoś by chciał,
ja też po prostu zastanawiam się, czy czegoś takiego nie zrobić,
żebyśmy może pisali do Netflixa z tym, że po prostu jakość tego jest naprawdę dramatyczna.
Bo mówię, ja przeciwko syntezie mowy nie mam za dużo i też chyba zrozumiałem wreszcie, o co chodzi z tym,
że zobaczcie, że tam są przeważnie te studia nagrań czy też te firmy, które to robią,
to są jakieś Ajuno Polska, no to prawdopodobnie to jest tak, że dostaje to jakaś firma, nie wiem, z Kanady czy ze Stanów
i oni to wysyłają do rozrobienia komuś tutaj lokalnemu, temu Kotuli czy tej Joannie w Orwie Nowocin, czy komuś jeszcze innemu
i oni to robią i ten skrypt do nich wraca, no ale oni w tych Stanach czy w Kanadzie, no nie będą mieli oczywiście polskiego lektora
Może nawet lepiej, żeby tam nie szukali.
No i dla nich jest prościej robić syntezę mowy, te teksty.
Tak że myślę, że to jest taki bezpośredni powód.
Nawet nie to oszczędzanie pieniędzy
na wynajmienie studia tutaj w Polsce i lektora,
tylko to, że po prostu robi to jakiś taki agregator, nazwijmy to tak,
jakaś taka firma, która po prostu robi pewnie,
zleca tych audiodeskrypcji w dziesięciu językach w różnych krajach.
No i oni nie będą mieli tam w Stanach, czy w Kanadzie, czy w innym jakimś kraju daleko od nas
możliwości wynajęcia lektora do każdego z tych języków.
To tyle chyba ode mnie.
Dzięki i do usłyszenia.
Cent, przycisk.
Dzięki Wojtku. No to w takim razie po kolei najpierw pierwsza kwestia, kwestia brumienia.
Tomku, coś byś podpowiedział tutaj?
No tu jest generalnie problem, rumienie to jest zawsze problem, teoretycznie no profesjonaliści radzą D-box, ale to jest kolejne urządzenie, kolejne kable.
No i pytanie właśnie, bo też mi przyszedł do głowy D-box, ale czy są D-boxy, które w ogóle dałoby się wpiąć powiedzmy małego jacka, zwykle to raczej.
To by raczej przez przejściówki trzeba było z XLR-u, więc z XLR-a i to na duży jack, z dużego na mały, więc tych przejściówek to by było strasznie dużo i to by było pierwsze coś, co by się psuło z reguły.
A ja się zastanawiam, ja się zastanawiam, czy nie dałoby się odfiltrować tego na poziomie samego audio hi-jacka na przykład jakoś.
No tam jest ten klocek D-Hum i tam po prostu się ustawia odpowiednio, w ogóle tam jest kilka klocek, które można by przetestować, no bo mamy właśnie ten D-Hum, który jest właśnie konkretnie od buczania, tam się ustawia częstotliwość, czyli tutaj pewnie będzie jakieś 50 Hz, strzelam, i spróbować na tym, jest redukcja szumu, nawet jest ich kilka tak naprawdę, bo możemy zastosować, no bo się po prostu nazywa D-Noise, to jest jakiś starszy izotop,
chyba. Jest chyba w sekcji zaawansowanych klocków, klocek noise suppression, tam już jest jakieś AI stosowane, może to coś pomoże.
No a jeśli to nic nie da, to zawsze można próbować wtyczkami, bo w hijacku wtyczki zadziałają, no to tutaj jest ten super tone clear, który niestety już tak tani jak kiedyś był, nie jest.
Ale jest też Waves Clarity, który też nie jest jakoś bardzo drogi, ale wiem, że tam z Waves-em-
40 dolarów, czy już nie pamiętam.
No właśnie, bo Superton teraz chyba już ze stówy nawet doszedł.
Kiedyś był tani jak były bety.
Ale też nawet
niedawno
Native Instruments coś nowego wypuścił też na bazie technologii iZotopa.
Nie wiem czy to tam też jest jakieś
słuszna inteligencja używana, to też chyba 30 dolarów kosztuje.
Podobno nie testowałem.
Ja też jeszcze nie, dlatego tutaj nie wypowiem się więcej.
Natomiast ja bym na pewno zaczął od tych wbudowanych efektów hijacka.
No, jest jeszcze efekt aplowski, który troszeczkę nam góry ściągnie,
więc ten, no trochę będzie ten dźwięk, będzie słychać, że tam jest jakaś redukcja.
Natomiast to też jest z sekcji audio units i to jest, to przychodzi z systemem,
co się nazywa sound isolation albo voice isolation.
Teraz nie pamiętam, natomiast to jest ta redukcja szumów,
która jest na przykład podczas rozmów używana
i to też można tym spróbować. To jest bardzo agresywne, więc to na pewno jeszcze tego buczenia pozbędzie,
natomiast, no mówię, to wtedy będzie trochę słychać, że tam coś jest zrobione, no ale kilka opcji jest.
Tak, natomiast co do Netflixa i co do jakości audiodeskrypcji, ja słuchając też kilku tych audiodeskrypcji,
Z kolei miałem inną teorię, też troszeczkę poniekąd zbieżną z tym, o czym ty Wojtku mówiłeś i z czego może to wynikać.
Ja miałem wrażenie, że ta audiodeskrypcja jest przygotowywana gdzieś, już przez kogoś, być może właśnie na etapie tej firmy zagranicznej,
Ale to, co jest robione w Polsce, to jest robione tłumaczenie i zastanawiam się, jak bardzo ono jest weryfikowane w ogóle pod względem jakiejś takiej sensowności.
Prawdopodobnie jakoś jest, no bo ktoś tam pod tym się podpisuje. Natomiast zastanawia mnie, czy nad tą audiodeskrypcją, jako audiodeskrypcją, jako konkretnie tym rzeczywiście ktoś czuwa.
I tu by się przydało porównać np. jakąś ścieżkę audiodeskrypcji w języku angielskim,
która być może jest zrobiona dobrze do tego co mamy po polsku i czy przypadkiem by się właśnie nie okazało,
że tam po prostu to nie jest robota w żadnym razie audiodeskryptora tylko po prostu tłumacza
i to mocno wspomagającego się jakąś maszynką pokroju Dipla
robiącego większość pracy, a tam ktoś tylko to tak sobie przeczyta, a dobra, no zgadza się, zgadza się, okej, mniej więcej jest sens zachowany, no to lecimy dalej.
Taka jest moja teoria po przejrzeniu iluś tych różnych audiodeskrypcji, ale oczywiście mogę się mylić, no a ciekawe jak jest w rzeczywistości.
To nie są jedyne wiadomości, to nie jest jedyna wiadomość, która do nas spłynęła, mamy na przykład jeszcze wiadomości od Sylwestra.
Ja mam taką prośbę, bo mi internet by waliło. Ja nic nie słyszałem na temat rejestratorów.
I ja mam taką prośbę, no to ja posłucham może, a jeżeli chodzi o bluetooth 4.0, to on działa linijka, tylko że gorzej, ale działa.
Bo jeszcze mam takie pytanie, czy telefonem w modzie można sterować te zoom rejestrator przez bluetootha?
Zdaje się, że mówiliśmy, że ma być aplikacja.
H4 i H6 chyba można sterować, tak mi się wydaje. W ogóle w sklepie Toman pojawiły się te rejestratory, cóż też miałem o tym mówić.
Bo tak sobie tutaj przeglądam różne rzeczy jeszcze po drodze, no i mamy ceny w niemieckim sklepie, więc podejrzewam, że w Polsce będą te sklepy być może, te ceny może troszeczkę wyższe, ale no na podobnym poziomie.
I jeżeli chodzi o Zuma to Zoom H6 Essential, czyli ten najdroższy, kosztuje 1444 zł w Tomanie, czyli to jest Zoom, który ma 6 kanałów, czyli 4 wejścia mikrofonowe na XLR plus kapsułę 135 dB.
Zoom H4 Essential, czyli wbudowany mikrofon plus dwa wejścia XLR można nagrywać z jednego i z drugiego jednocześnie do dwóch niezależnych plików, kosztuje 958 złotych.
i Zoom H1 Essential, czyli ten, który ma małego jacka, jest najmniejszy, kosztuje 477 złotych.
Także niecałe 500 złotych, tak że myślę, że naprawdę nie jest źle.
To tak tylko gwoli przypomnienia, rejestratory, które mają wbudowane udźwiękowienie
i rejestratory, które mają wbudowany format nagrywania 32-bitowy,
To oznacza, że te rejestratory nie da się przesterować tych wejść w takim sensie programowym, to znaczy oczywiście da się je przesterować tak fizycznie, że one po prostu będą miały z przepchnięciem przez siebie dużego prądu,
Natomiast format jako taki przyjmie niemalże wszystko, niemalże bo prędzej spali mnie urządzenie niż doprowadzimy do przesterowania formatu 32-bitowego.
W każdym razie wszystkie te trzy urządzenia mają dźwiękowienie.
No i już. Także więcej nie bardzo wiadomo. Teraz jest chyba jakaś przedsprzedaż, tak mi się wydaje, chociaż zaraz zobaczę, czy tam jest coś na temat dostępności.
Aha, dostępny za 10-13 tygodni, czyli rzeczywiście jakieś…
3 miesiące.
powiedzmy. I patrzę, czy tu wszystko tak. Zoom H1, Zoom H6 i Zoom H4 też dokładnie to
samo. Dostępne jest 10-13 tygodni, także 2-3 miesiące jeszcze spokojnie sobie
poczekamy na te rejestratory.
Ale czekać chyba warto.
A i jeszcze mamy jedną wiadomość, no to posłuchajmy Rafał tym razem.
Nagrywanie bez przytrzymywania, wyślij przycisk.
Dziękuję za odpowiedź i za pomoc.
Ja tylko dodam, że szkoda, że ta audiodeskrypcja nie jest wysyłana na WP Pilot.
Szkoda, że nie jest na WP Pilot wysyłana. Szkoda bardzo.
Bo jakby problem się rozwiązał.
6 i okazuje się, że podczas pierwszego uruchomienia będziemy pytani, czy chcemy używać tego przewodnika dla niewidomych, natomiast na razie nie, sama instrukcja jest pisana w taki średnio dostępny sposób, typu jest napisane, naciśnij, aby potwierdzić, ale co, pewnie jakiś obrazek jest, ale tekstowej wersji póki co nie ma, no zobaczymy, czy ten przewodnik nie zostanie
jakoś tam zaktualizowany, no bo miejmy nadzieję, że jeżeli kilka osób jeszcze niewidomych przeczyta to i napisze, że no oferujecie dostępność, ale fajnie by było, gdyby również podręcznik użytkownika był dostępny, no ale zobaczymy.
Miejmy nadzieję, że rzeczywiście ten podręcznik użytkownika również tę dostępność zyska, bo na razie są z nim pewne problemy,
bo akurat jeżeli chodzi o np. Native Instruments to ich przewodnik na temat Komplita zawiera informacje, które konkretnie przyciski trzeba wcisnąć, żeby włączyć funkcję dostępności i tam jest taka specjalna zakładka na temat dostępności.
Także no gdzieś tam troszkę liczę na to, że coś takiego się pojawi również w przypadku Zooma, no ale zobaczymy.
To co przechodzimy do technikaliów, chyba przechodzimy do technikaliów i zaczniemy od informacji, że Apple otwiera się na zewnętrzne sklepy z aplikacjami i inne silniki przeglądarek internetowych, ale tylko na iPhone i tylko w Europie.
Tak, to będzie temat dosyć duży, skomplikowany, ja po prostu postaram się przedstawić fakty.
No to co, zacznijmy od tego, co się dzieje.
Dzieje się dyrektywa o rynkach cyfrowych, o której już wspominaliśmy kilka razy.
Tak zwane gatekeeperzy zostali wyznaczeni, między innymi właśnie to był Apple, to był Microsoft.
To była meta, każda z tych firm coś tam musi ze swoimi usługami zrobić.
Microsoft na przykład pozwala nam różne rzeczy powyłączać, podoinstalować z systemu.
Meta pozwala nam teraz rozłączyć nasze konta na Facebooku i na Instagramie,
czego wcześniej się nie dało zrobić i na Messengerze.
W Whatsappie ponoć gdzieś już w wersjach testowych się pojawiła jakaś sekcja
alternatywnych komunikatorów, która na razie nic nie robi, ale już tam jest jakiś
kod przygotowywany.
A co musiał zrobić Apple?
No Apple musiało zrobić kilka rzeczy.
Głównym problemem, na który zwróciła uwagę Komisja Europejska jest to, że na
iPhonie jedynym słusznym sklepem z aplikacjami jest App Store, jedyną słuszną
metodą płatności w tym sklepie jest to, co oferuje nam firma ze swoimi prowizjami,
a jedyną słuszną przeglądarką internetową jest Safari, nawet jeśli to jest Firefox
czy coś innego, czy Chrome, no to jest i tak tak naprawdę Safari.
No więc Apple miało czas do marca, żeby się do tego dostosować.
Oczywiście były jakieś odwołania i tak dalej, no ale przed tym wszystkim w ogóle iOS 17.4, który właśnie to będzie miał, on się chyba właśnie jakoś ukaże w marcu, ale już to jest wszystko testowane i te zmiany zostały zapowiedziane, pięknie pokazując jak można po prostu zrobić coś tak, żeby przestrzegać prawa, a czy to coś zmieni w praktyce, no zobaczymy.
Co postanowiło zrobić Apple?
Jeśli chodzi o alternatywne metody instalacji aplikacji, no to takie metody się pojawią.
Każdy będzie mógł sobie taki sklep alternatywny założyć.
Oczywiście on będzie podlegał weryfikacji, ale jest jeszcze kilka innych warunków.
Głównym takim, który
jest taki istotny,
że takie sklepy będą musiały dostarczyć Apple’owi dowód wypłacalności w postaci akredytywy o wartości.
czyli milion euro, musi taki sklep pokazać Apple’owi, że ma milion euro w razie czego na jakiejś, jakiekolwiek kwestii finansowe, jeśli jakieś aplikacje, jakieś będą zwroty potrzebne, wsparcie techniczne, że dany sklep ma zaplecze finansowe, więc to raczej będą takie sklepy, które zakładały duże firmy, na przykład po kroju Microsoft’u, który tam się zapowiedział, że coś tam z grami chce otworzyć, czy Epic Games, podobnie, no od Epic Games się zaczęło,
no bo oni pozwali Apple’a w kwestii Fortnite’u jakiś czas temu, czyli gry, w której chcieli mieć swoje płatności.
Oczywiście Apple się na to nie zgodziło, no i to była taka trochę prowokacja, co trafiło do sądu i od tego się zaczęło generalnie.
Więc oni takie sklepy planują, taka firma będzie mogła sobie taki sklep otworzyć, no i później każdy developer
będzie mógł do takiego sklepu aplikację wysyłać.
I uwaga, tutaj pierwsze ograniczenie takie, przez co jak to prawo zostało skonstruowane
i to się będzie pojawiało kilka razy, te sklepy alternatywne będą dostępne tylko na iOS-ie, czyli tylko na iPhone-ach.
Jeśli chcemy sobie strząnąć jakąś alternatywną aplikację na iPadzie, no to tego nie zrobimy, bo iPady działają na iPadOS-ie.
To jest wszystko podobne, niby App Store jest jeden, ale no tutaj był iOS gdzieś chyba w tych dokumentach uwzględniony,
no i jakie ma być iOS, no to jest iOS.
Takie aplikacje nie będą podlegać tak ścisłej weryfikacji jak to jest w App Store.
Będą podlegały procesowi notoryzacji, czyli to jest automatyczny skan, czy tam jest
jakieś złośliwe oprogramowanie, jakiś minimalny, jakiś człowiek to też będzie
minimalnie sprawdzał, ale to tylko pod kątem tego, czy to faktycznie jest to, co jest
napisane w opisie, natomiast jakieś inne regulacje, które są w App Store już nie
będą obowiązywać, więc nie wiem.
Jeśli ktoś chce sobie zrobić aplikację do pobierania torrentów na przykład, no to
będzie mógł. Czy aplikacje, jakieś emulatory starych komputerów, jakieś wirtualne
maszyny, to są rzeczy, które tradycyjnie się nie dało wcześniej wpuścić na App
Store, no to teoretycznie w takim alternatywnym sklepie coś takiego będzie się dało
O ile oczywiście ten właściciel sklepu na to pozwoli, bo to jak rozumiem tu jeszcze każdy właściciel takiego sklepu skoro wykłada milion euro to też ustala swoje zasady.
Tak, no ustala swoje zasady, natomiast też jedną z zasad takich alternatywnych sklepów jest to, że one nie mogą tylko oferować aplikacji z danej firmy, czyli Microsoft nie może sobie zrobić sklepu Microsoftu,
gdzie sobie ściągniemy Edge’a i tylko Edge’a, Teams’a i Outlook’a i coś tam jeszcze.
Tylko muszą też pozwolić innym firmom na dystrybuowanie swoich aplikacji.
To jest też jeden z innych wymogów, więc muszą być takie sklepy otwarte.
Wiadomo, jeśli chodzi o płatności, no to wtedy unikamy tej płatności Apple.
Musimy i tak zapłacić za konto deweloperskie, bo te aplikacje muszą być cały czas
podpisane. Natomiast jeśli mamy aplikację płatną czy nawet darmową, no to nie musimy
tutaj jest zapłatna aplikacja, nie płacimy tej prowizji 30%.
Te prowizje się tam pozmieniały, bo w App Store też możemy korzystać z alternatywnych
metod płatności, wtedy te prowizje są niższe, to jest chyba procent 17.
Teraz nie pamiętam.
Natomiast jeśli dystrybuujemy aplikację nawet poza App Storem
i ta aplikacja przekroczy milion pobrań
i to niezależnie czy to jest aplikacja darmowa czy płatna, czy to są aktualizacje,
no to wtedy musimy zapłacić.
Płacimy Apple’owi za jedną instalację od tego progu miliona, około 50 euro centów.
Tutaj deweloperzy już sobie policzyli, że to takich bardzo…
Apple powiedziało, że to generalnie bardzo mała część firmy to musiała zapłacić,
natomiast te duże firmy, które z App Store’em miały właśnie problemy pokroju Microsoftu,
właśnie Epica czy Spotify, no to to się bardzo szybko zmienia.
to jest tak zwana opłata na podstawowe technologie, no i to właśnie
deweloperzy będą musieli taką opłatę uiść, oczywiście takie sklepy
też muszą Apple’a informować ile instalacji dana aplikacja miała, więc
to jest kolejne ograniczenie, no aplikacje mogą być takie, no sklepy
muszą jakieś zaplecze finansowe mieć, ale to nie jedyne zmiany, które
zostały wprowadzone, bo jeśli chodzi o samego App Store’a, tutaj też się
trochę pozmieniało, a aplikacje mogą nam teraz właśnie w App Store
oferować alternatywne metody finansowe.
Oczywiście wtedy dostajemy jakieś różne ostrzeżenia, że Apple wtedy nie
ma wpływu na to, co się z naszymi pieniędzmi stanie.
Możemy też sobie ustawić jakąś inną aplikację jako domyślna metoda płatności.
Nie wiem, czy to by nam na przykład pozwoliło tym dwukrotnym kliknięciem
otworzyć naszą aplikację banku, żeby gdzieś blikiem zapłacić.
Teoretycznie chyba o to chodzi, ale jest też kilka, jeszcze jedna rzecz,
na którą właśnie Apple się zgodziło, a mianowicie dopuszczenie innych silników
przeglądanych internetowych do App Store’a.
I tutaj znów tylko na iOS-ie, więc na iPadzie innych silników przeglądania
nie ma, bo po prostu tutaj w iOS-ie było w przepisach mowa.
No i to też jest wszystko bardzo skomplikowane, to już Mozilla i Microsoft
i Google zresztą też się do tego ustosunkowały.
Google ponoć już na czymś pracuje.
Natomiast problem jest taki, że nawet jeśli jakaś firma zdecyduje się powiedzmy na wypuszczenie Firefoxa, który ma faktycznie silnik Firefoxa w Europie na iPhone’y,
no to i tak gdzieś musi równolegle rozwijać aplikacje na rynki pozostałe, które cały czas bazuje po prostu na tym silniku Safari i to też się deweloperom generalnie nie podoba.
Apple oczywiście tłumaczy się tym, że takie alternatywne sklepy czy inne przeglądarki mogą spowodować, że szybko zainstalujemy się jakieś złośliwe oprogramowanie i będziemy narażeni na jakieś większe czy mniejsze oszustwa i dlatego zrobili to tylko w Europie i tylko na iPhone’ach tak jak to nakazuje prawo.
Więc czy jakieś alternatywne przeglądarki się pojawią?
No zobaczymy.
Też jest kwestia web developerów, którzy też się martwią, bo powiedzmy, jeśli
jakiś developer ze Stanów czy spoza Europy chciałby sobie przetestować coś na
Firefoxie, na iPhonie, no to na razie nie ma na to sposobu.
Nie da się jakoś skonfigurować tego, żeby jakieś konkretne konto Apple ID miało
dostęp do tego europejskiego App Store, a tam jest jakiś skomplikowany system.
To nie jest tak, że sobie zmienimy region w ustawieniach na Polskę czy jakieś inne kraje europejskie i to nam zacznie działać, tam będzie kilka rzeczy sprawdzane, lokalizacja, pewnie operator, tam jest jakiś skomplikowany system, który będzie nad tym czuwał, który już wcześniej był stworzony właśnie do tego typu celi, wcześniej nie był używany do niczego, teraz już wykorzystywany być właśnie zaczyna.
Ale swoją drogą ciekawe, co będzie w sytuacji, kiedy ja na przykład mieszkając w Polsce, aktywuję sobie iPhona, odpalę sobie wszystko, skonfiguruję ustawie i wyjadę powiedzmy do Stanów Zjednoczonych na jakiś czas.
To jak rozumiem, w tym momencie kiedy ja jestem w Stanach, to ja nie mogę instalować tych aplikacji.
Wiesz co, ja myślę, że pewnie przez jakiś czas nic się nie zmieni, tam pewnie nie są jakieś zabezpieczenia, że tutaj ktoś sobie jedzie na wakacje czy coś, no to na początku nic się nie zmieni, nie wiem co się stanie po kilku powiedzmy tygodniach czy miesiącach, albo jakbyś ten telefon sobie zresetował.
No to jest pytanie za 100 punktów, pewnie dużo takich sytuacji będzie.
Bo być może, być może deweloperzy będą po prostu próbowali używać albo jakichś VPNów, albo po prostu robić sobie takie wycieczki do Europy.
No tak. Zobaczymy, też inne kraje zaczynają się nad takimi rzeczami zastanawiać, no w Stanach cały czas temat jest laukowany, w Japonii szykuje się podobne prawo, z tego co słyszałem, więc bardzo możliwe, że też stopniowo coraz więcej kraj będzie takiej możliwości miało.
Myślę, że możemy gdzieś kierować się w stronę podsumowania, czy to coś zmieni, zobaczymy, na razie deweloperzy nie są zadowoleni, już są obiecywane jakieś pozwy, żeby właśnie regulatorzy to jeszcze sprawdzili, czy to do końca jest to o co chodziło, więc jak to wszystko będzie wyglądało w praktyce zobaczymy jak to wygląda teraz, jak to będzie wyglądało jak iOS 18 się pojawi, czy jakieś sensowne alternatywne sklepy się pojawią.
No iOS 17.4 pewnie się pokaże na wiosnę, może wtedy też już jakieś sklepy zaczną się pojawiać,
jakieś alternatywne przeglądarki, czy inne jakieś aplikacje, które z tych nowych możliwości
będą wykorzystywać, a może nie.
No po prostu będziemy musieli zobaczyć jak to się wszystko zmieni.
Na pewno nie będzie to tak szybko, jak by się niektórzy mogli spodziewać, no ale z drugiej
strony jakoś ja osobiście nie jestem zdziwiony, że to jest robione tak, no bo
i do tego chyba nas Apple przyzwyczaił.
No i jeżeli też ktoś myślał, że będzie tak, że będzie mógł sobie pobrać dowolny plik z aplikacją, wrzucić do aplikacji pliki,
stuknąć dwa razy, czy chcesz zainstalować, uważaj, bo aplikacja pochodzi z zewnętrznego źródła, tak, ignoruj, ostrzeżenie, instaluj,
No to na pewno tak nie będzie, to już w tym momencie wiadomo.
Kolejna wiadomość do nas przyszła i to kolejna wiadomość od Wojtka.
Cześć, to jeszcze raz.
Ja bardzo dziękuję za te pomysły dotyczące programowego radzenia sobie z tym problemem brumienia.
No, wiadomo, że to jest wieczny problem, ale jakoś zupełnie o tym nie pomyślałem.
Także bardzo dzięki na to inne spojrzenie, które jest bardzo fajne.
jeżeli chodzi o tę audiodeskrypcję, to rzeczywiście byłby to chyba idealny problem do rozwiązania w ramach jakiejś pracy dyplomowej.
Natomiast myślę, że tak często jest, znaczy tak czasem jest, na przykład jest bardzo zabawne to, że jest audiodeskrypcja do Znachora,
po polsku oczywiście jest, ale jest też hiszpański-meksykański i ten hiszpański-meksykański to na pewno jest tłumaczenie,
bo są właśnie te same beznadziejne błędy zrobione w tej odredyskrypcji
i wszystko jest oczywiście syntezatorem mowy nagrywane.
Natomiast są takie skrypty, które po prostu na pewno nie są tłumaczone.
Chociażby to świadczy o tym, że padają te wspaniałe nazwiska
z czarnej listy na samym końcu.
No oczywiście możemy założyć, że to jest taka postedycja, tak?
Że oni tak naprawdę nic nie robią, tylko to postedytują.
do zbadania, ale ja tak kilka filmów tak wyrywkowo sobie sprawdziłem, no i nie.
I po prostu te skrypty są inne, ale może właśnie trzeba było jakąś większą próbę wziąć,
także to na pewno ciekawy taki problem w ogóle badawczy.
Także dzięki za podsunięcie inspiracji również i w tym zakresie.
Trzymajcie się, dobranoc.
No to w takim razie chyba przechodzimy do następnego newsa.
Może tym razem do Newsa Pawła przejdziemy, bo w podcastach, a planuwa się a propos deskrypcji, no to pojawiają się właśnie automatyczne generowane transkrypcje.
Tak, zgadza się. Znaczy jeszcze się nie pojawiły, pojawiają się gdzieś tam w iOSie 17.4. Na razie dla nowo wrzuconych odcinków, podcastów w językach angielskim, francuskim, niemieckim i hiszpańskim.
odcinki starsze mają się pojawić z czasem, no i rzeczywiście w aplikacji podcasty ma być możliwość czytania tych transkrypcji oraz śledzenia ich w czasie rzeczywistym, czyli moment, w którym słuchamy podcastu, te transkrypcje są aktywowane i my możemy wtedy przeglądać sobie i patrzeć słowo po słowie, jak one są podświetlane, akurat aktualnie wymawiane słowo będzie podświetlane.
Będzie można podcasty przeszukiwać pod kątem słów kluczowych,
będzie można klikać w konkretne słowa, żeby uruchomić podcast od danego momentu,
a twórcy będą mogli poprawiać te transkrypcje.
Gdzieś też wyczytałem, że te transkrypcje będzie można udostępniać
i to byłoby w sumie super, no bo wtedy można zawsze takie transkrypcje przerzucać
do DPL-a albo jakiegoś innego serwisu tłumaczącego,
co mi na przykład byłoby bardzo na rękę.
Ja w ten sposób, tak jak już wspominałem wielokrotnie, zapoznaję się z materiałami w językach, których nie znam, żeby móc je Wam potem w tyfloprzeglądzie zreferować.
No i myślę, że dla wielu osób, które uczą się gdzieś języków obcych, to może być fantastyczna funkcja.
Oczywiście, że dla osób niesłyszących, to jest jasna sprawa, ale jeżeli chodzi o osoby, które podcastów zazwyczaj słuchają w sposób tradycyjny,
to tutaj jeżeli uczymy się języka, no to taka możliwość śledzenia słowa pisanego i synchronizowania tego ze słowem mówionym,
jeżeli oczywiście to byłoby w miarę dokładne takie, te takie transkrypcje, no to byłoby naprawdę nie do przecenienia, myślę.
No i wtedy można by zacząć Wam już polecać na przykład jakieś niemieckojęzyczne podcasty.
Czemu nie? Parę fajnych mam, także zobaczymy jak to wszystko w praktyce wyjdzie.
To jeszcze może a propos nowości w iOS-ie 17.4, taka szybka nowość, która też niestety po polsku nie jest i bardzo mi tego szkoda, bo to się ucieszyłem jak przeczytałem, że Siri dostała możliwość czytania wiadomości w innych językach, które sobie trzeba ręcznie dodać i no było wszystko fajnie, dopóki nie przeczytałem.
już też ktoś się na
subreddicie bet Apple’a zapytał
o polski, no i ktoś inny
wrzucił zrzut ekranu, no i
niestety, mimo to, że faktycznie Siri
nam wykryje smsy, czy
wiadomości na innych komunikatorach, w innych
językach, na przykład jeśli mamy AirPodsy,
on nam wtedy czyta, to mieliśmy taki ładny komunikat,
że ktoś wysłał ci wiadomość, która
nie jest po angielsku, czy tam w jakim
języku mieliśmy Siri. Można
sobie inne języki dodawać, natomiast
na razie ta lista jest ograniczona
tylko do tych języków, w których jest wspierana Siri, co mnie szczerze mówiąc dziwi, no bo przecież w systemie jest kilkadziescia, przepraszam, nawet syntezatorów w różnych językach, a no tutaj jest takie szczerze mówiąc głupie ograniczenie. No ale co zrobić?
No to w takim razie przechodzimy teraz do chyba już dwóch newsów, które zostały od Piotrka, czyli Philipsa, który rezygnuje z Androida na TV i w sumie go troszeczkę podobny news w tematyce, bo Fossil kończy z produkcją smartwatchy.
Tak, które też były na Androidzie swoją drogą, no to to będą krótkie informacje, no zacznijmy od Philipsa, który właściwie jest tak naprawdę tylko marką, bo chyba jedyne co faktycznie taki Philips dzisiaj produkuje z tego, to kiedyś wyczytałem, to są sztuteczki Sonicare’a, tak naprawdę inne urządzenia tej marki to są jakieś inne firmy, jeśli chodzi o telewizory, to tą marką Philips, telewizorami marki Philips zajmuje się firma TP Vision
i postanowili po wielu latach korzystania z Android TV czy później Google TV na swoich telewizorach
na przesiadkę na coś innego, na alternatywny system.
System tworzony ponoć w Europie przez firmę, która nazywa się po prostu Titan.
System się nazywa Titan OS.
Mało o nim wiadomo.
Wyczytałem jedynie, że firma została założona przez ludzi, którzy kiedyś pracowali w Disneyu,
w Rakutenie, czyli to też taki inny serwis streamingowy w firmie ROKU, czyli firma
tworząca przystawki głównie na rynek amerykański, która też ma swój rynek z
aplikacjami, no i stworzyli taki system właśnie w Europie na platformy Smart TV.
Dlaczego by się na coś takiego zdecydowali?
No trochę tak jak to jest z iPhone’ami, no to Google bardzo kontroluje Google TV.
A jeśli chodzi o to, jakie mamy funkcje personalizacyjne, jak wygląda ekran.
No jak wiadomo, filmy lubią wiedzieć jak najwięcej o tym, co ich użytkownicy oglądają i tak dalej.
Lubią wrzucać reklamy tam, gdzie popadnie. LG ponoć bardzo z tego słynie.
Nawet na ekranie głównym tam jakieś reklamy się zaczęły pojawiać.
Więc no przyszłe telewizory smart firmy Philips właśnie już nie będą na podstawie
Androida, a na podstawie Titan OS-a, mimo to, że na Titan OS-ie dużo aplikacji firm
takich lokalnych na razie nie ma. Są tylko te duże, jakieś Disneya, Netflixy, HBO, ale na
przykład właśnie aplikacji lokalnych z tego co wyczytałem nie ma i bardzo możliwe, że
przez kilka lat nie będzie, jeśli w ogóle, bo tutaj nawet u nas w Polsce najbardziej
popularne to jest Samsung, czyli system Tizen, no ale mniej więcej, no czasami jakieś informacje o
dostępności tego nie ma, próbowałem się do czegoś dokopać, no znalazłem stronę Titan OS-a, ale tam na
pierwszym miejscu dosłownie jest nawet nie link jakiś o nas czy coś, tylko link o platformie reklamowej,
czyli widać, że to jest system właśnie stworzony pod personalizację, żeby sprzedawać miejsca reklamowe,
No i to jest chyba główna strategia i dlatego tutaj Philips, czy właściwie marka TPVision
na coś takiego się zdecydowała.
Więc jeśli szukacie nowego telewizora smart, który właśnie ma przewołodnik
głosowy i nie zastanawialiście się nad Philipsami, no to wczytajcie się w
specyfikacji, czy to jest jeszcze jeden z modeli, który ma jeszcze tego Androida,
bo jeśli to jest jeden z tych nowszych, no to myślę, że warto znaleźć coś innego.
Chyba, że się okaże, że ten Titan OS jest dostępny, no to w sumie byłoby fajnie, ale mówię, na razie, niestety, o niczym takim nie wiemy.
No i na koniec Fossil. Fossil, który swojego czasu był chyba jednym z głównych partnerów Google, jeśli chodzi o zegarki z, co się wtedy jeszcze nazywało Android Wear.
Później to był Wear OS, no i to przez dobre parę lat właśnie powstawały takie zegarki, które nie dość, że naprawdę wyglądały ładnie,
bo generalnie firma Fossil zajmowała się wcześniej takimi klasycznymi zegarkami, no właśnie wyglądały ładnie, ale też po prostu działały całkiem fajnie,
No i dało się na nich uruchomić TalkPek’a, miały one swoich fanów.
Natomiast od jakiegoś czasu nowe zegarki, nowe smartwatche właśnie od firmy Fossil się nie pojawiały.
Firma mówiła, że czekała wtedy na nowe procesory, bo faktycznie nie był taki czas, że na tyle szybkich procesorów długo brakowało.
Google tak trochę nie interesowało się smartwatchami.
do momentu kiedy nie zaczęli nagle agresywnie współpracować ze Samsungiem.
Wtedy nowe procesory się pojawiły, nawet Fossil coś w roku 2022 zapowiedziało o po trzecim,
natomiast to się nigdy pojawiło.
Temat ucichł, no a teraz właśnie pojawiła się informacja, że po prostu firma postanowiła zmienić strategię
i wychodzi z tego rynku smart będzie się skupiać na po prostu zegarkach klasycznych,
A właśnie produkcję smartwatchy po prostu już została zaprzestana i nowe modele nie będą sprzedawane ani wypuszczane.
Więc jeśli szukacie zegarka, który by dobrze Wam działał z Androidem, no to myślę, że tak naprawdę dzisiaj no piksele, które niestety w Polsce sprzedawane nie są,
więc jak Wam się uda zaimportować, no to można, no bo ewentualnie Samsungi, które faktycznie ten system Wear OS mają i udźwiękowi one jak najbardziej są.
no i Google z Samsungiem w tym momencie bardzo ściśle nad tymi smartwatchami pracuje.
I to chyba wszystko, co tutaj widzę przynajmniej w notatkach.
Pytanie, czy coś się u was pojawiło jeszcze w trakcie audycji?
Ale chyba nie.
Nie, nie dzisiaj się pojawiło.
No i jak na ostatnie czasy dość szybko kończymy, 3,5 godziny niecałe.
No w każdym razie dzisiaj Paweł Masarczyk, Piotrek Machacz i ja czyli Tomek Bilecki braliśmy udział w audycji.
No i do usłyszenia.
Do usłyszenia.
Za tydzień.
Dobrej nocy.
Był to Tyflo Podcast.
Pierwszy polski podcast dla niewidomych i słabowidzących.
Program współfinansowany ze środków Państwowego Funduszu Rehabilitacji Osób Niepełnosprawnych.

Wszystkie nagrania publikowane w serwisie www.tyflopodcast.net są dostępne na licencji CreativeCommons - Uznanie autorstwa 3.0 Polska.
Oznacza to, iż nagrania te można publikować bądź rozpowszechniać w całości lub we fragmentach na dowolnym nośniku oraz tworzyć na jego podstawie utwory Zależne, pod jedynym warunkiem podania autora oraz wyraźnego oznaczenia sposobu i zakresu modyfikacji.
Przekaż nam swoje 1,5% podatku 1,5 procent Logo FIRR Logo PFRON Logo Tyfloswiat.pl

Czym jest Tyflopodcast?

Tyflopodcast to zbiór instrukcji oraz poradników dla niewidomych lub słabowidzących użytkowników komputerów o zróżnicowanej wiedzy technicznej.

Prezentowane na tej stronie pomoce dźwiękowe wyjaśniają zarówno podstawowe problemy, jak metody ułatwienia sobie pracy poprzez korzystanie z dobrodziejstw nowoczesnych technologii. Oprócz tego, Tyflopodcast prezentuje nowinki ze świata tyfloinformatyki w formie dźwiękowych prezentacji nowoczesnych urządzeń i programów. Wiele z nich dopiero znajduje sobie miejsce na polskim rynku.

Zapraszamy do słuchania przygotowywanych przez nas audycji i życzymy dobrego odbioru!

Tematyka

Pozycjonowanie i optymalizacja stron internetowych