TyfloPrzegląd Odcinek nr 184 (wersja tekstowa)
Pobierz napisy w formacie SRT
Pobierz napisy w formacie VTT
Fundacja Instytut Rozwoju Regionalnego prezentuje Tyflo Podcast.
Dzień dobry, dzień dobry. Audycja Tyflo Przeglądu nr 184.
Dzisiaj skład nieco mniejszy niż zwykle, chociaż ostatnio niestety troszkę te składy są takie mniejsze.
Skład jest płynny.
Tak, tak jest. Paweł Masarczyk, Mikołaj, nie, Piotrek Machacz, cały czas jakoś się zakręcam.
Michał Dziwisz, ja czyli Tomasz Bilecki, dzisiaj bierzemy udział w Tyflo Przeglądzie.
No i Michał Dziwisz jak zwykle zapowie co dzisiaj w Tyflo Przeglądzie, o czym będziemy mówić.
Tymczasem
W tym tygodniu w Tyflo Przeglądzie.
Wrażenia sklonowania głosu mechanizmem od Acapelli.
Apple ujawnia nowe funkcje z okazji Globalnego Dnia Świadomości i Dostępności.
Międzynarodowy turniej szachowy osób z dysfunkcją wzroku w Wiedniu.
Powstaje bazowy czytnik ekranu dla FreeBSD.
Mistrzostwa Polski w blind tenisie oraz konferencja o druku 3D.
Sąd Parysa, poznaj lepiej wierzenia Greków.
Draconis Entertainment powraca.
Eurovision Described, podcast dla niewidomych fanów Eurowizji.
Aktualizacje Remote Incident Manager dla Maca dodają kolejne brakujące funkcje.
Komunikator Signal dostaje poprawki dostępności w wersji komputerowej.
Dodatek Resource Monitor dla NVIDIA potrafi monitorować sieć bezprzewodową.
NVIDIA jednak nie przyspieszy tak mocno jak planowano.
Duża aktualizacja Survive the Wild.
Jam Sandwich, nadchodzi dostępny Eurorack Sequencer.
Co nowego w dostępności Androida?
Low Vision Charts, lista przebojów tworzona przez osoby z dysfunkcją wzroku.
Starcia, nowy tryb rozgrywki dostępny z Hearthstone Access.
Aktualizacja oprogramowania Brailsense 6 i 6 Mini.
Mona i Spring otrzymują aktualizację działania z VoiceOver.
Sync AI z usprawnieniami.
Brytyjski Vogue od teraz wychodzi w Braillu i w wersji audio.
From Your Eyes, połączenie AI z pomocą wolontariuszy w aplikacji na Androida.
Bing Chat dostępny dla prawie wszystkich.
Nowości z Google I.O. 2023.
Wszystko to, a pewnie jeszcze więcej już za chwilę.
Zaczynamy!
I zaczynamy od informacji z poprzedniej audycji, bo Piotrek tutaj zapowiadał,
że spróbuje sklonować swój głos w acapelli, to znaczy w tej usłudze acapelli,
którą umożliwia właśnie to klonowanie głosu i to się częściowo udało.
Tak, udało się w 50%, tak można powiedzieć, bo po angielsku się to udało,
a po polsku myślałem, że się uda, ale na razie jeszcze mój głos niestety do studia nie dotarł.
Może dotrze w czasie audycji, zobaczymy.
Mniej więcej faktycznie przeszłem przez ten proces klonowania, o którym już troszeczkę wspominał Michał.
Ja odkryłem jedną taką ciekawą rzecz, jeśli chodzi o problem z otwarzaniem próbek,
który był dosyć istotny, bo te próbki pomagają nam w łatwy sposób ustalić,
które zdanie właściwie mamy czytać, bo strona wyświetla nam bodajże trzy zdania jednocześnie.
No ale Michałowi te próbki nie działały, mi te próbki też nie działały,
ale tylko podczas nagrywania języka polskiego.
Nie wiem, czy tutaj jest kwestia, że ktoś coś przeoczył, czy może dlatego, że zarówno ja i Michał zaznaczyliśmy,
że będziemy tworzyć głosy męskie, a acapella ma tylko żeński głos polski
i nie mieli jak tych próbek nagrać, bo te próbki są nagrane ich głosami.
Mniej więcej najpierw właśnie zrobiłem klon po angielsku
i tutaj te próbki działały jak najbardziej, były czytane męskim głosem
i to było całkiem fajnie zrobione, dlatego że ta nagrywarka, którą używamy do tworzenia tego głosu
jest bardzo fajnie wyposażona w skróty klawiszowe.
Tam na początku się wyświetla okienko, w które musimy wejść, bo focus tam do niego nie ląduje,
które nas pyta czy chcemy dodać dodatkowe wiadomości.
To są takie nagrane frazy, które zawsze są po prostu nagrywane sampli,
czyli takie jak może pamiętacie poprzednie starsze wersje Ani w acapelli
reagowały tak bardzo emocjonalnie na niektóre frazy, tak jak cześć,
czy takiego typu rzeczy, więc my też sobie takie frazy możemy nagrać.
Ja akurat tego nie robiłem.
Mniej więcej jak już to zamkniemy, to jesteśmy proszeni o zrobienie kalibracji mikrofonu,
po prostu odliczamy do czterech, nam dostosowuje głośność,
a potem zaczynamy nagrywanie zdań i tutaj jest dostępne pole wyboru,
które powoduje, że ta strona automatycznie czyta nam próbkę zanim rozpocznie się nagrywanie,
więc jeśli te sample działają, to po angielsku to fajnie wygląda,
bo możemy zaczynać zatrzymać nagrywanie spacją, więc naciskamy sobie spację,
strona otwarza nam zdanie, które mamy przeczytać, po kilku sekundach
słyszymy sygnał dźwiękowy, mówimy nasze zdanie, naciskamy spację
i nagrywanie się zatrzymuje i strona automatycznie przechodzi nam do następnego zdania.
Możemy sobie po tych zdaniach chodzić strzałkami lewo, prawo i wtedy po prostu otwarzać sobie te próbki.
Możemy też strzałką w górę, a Enterem możemy odtworzyć nasze nagranie,
więc jeśli chcemy zobaczyć jak nam coś wyszło i jeśli nam coś nie pasuje,
no to możemy nagrać jakieś zdanie.
Jeszcze raz. No i tak to zrobiłem.
Zdań było 50, co są bardzo krótkie zdania.
Chodzi o to, żeby zabrać jak najwięcej fonemów.
One są bardzo różne, zarówno po angielsku i po polsku.
Dużo jest czytania np. z książek kucharskich, co ciekawe.
Więc tak to jest.
Samo nagrywanie, nie wiem, zajęło mi może 15-20 minut.
Kilka zdań nagrywałem.
No i jak już to wszystko się zakończyło,
to znów jesteśmy pytani czy chcemy dodać te dodatkowe sample.
Jeśli się nie zgodzimy lub zgodzimy i dodamy je,
no to strona nam zaoferuje możliwość wysłania głosu do utworzenia.
Jak już to zrobimy, to stawiamy komunikat,
że tworzenie głosu może zająć kilka dni.
Po zakończeniu tego jesteśmy poinformowani w mailu.
W przypadku głosu angielskiego to zajęło kilka godzin.
Ja to zrobiłem jakoś po południu, a w nocy przyszedł do mnie e-mail,
że mój głos, przynajmniej ten angielski, został utworzony.
Po czym możemy sobie wejść na stronę lub ściągnąć aplikację na iOS i Androida
i w tych aplikacjach w wersji offline ten głos testować.
Niestety nie da się ściągnąć wersji na Windowsa bez wykupienia sobie tego głosu.
A strona też niestety pozwala na wpisanie tylko 300 znaków,
więc nie jakoś bardzo dużo, ale takie przetestowanie wystarczy.
Możemy sobie też dostosować prędkość i wysokość tego głosu.
A jak to wyszło, przynajmniej po angielsku, no to wyszło tak.
Witam słuchaczy. To jest wersja syntetyczna Piotra.
Głos został stworzony z 50 krótkich słów, które zajęło około 20 minut.
Co myślisz? Brzmi to jak prawdziwe mi?
Witam słuchaczy.
Trochę jak ja tutaj wcześniej przed audycją mówię, taki trochę brzmi znudzony.
Może poniekąd to jest kwestia zdań, jakie musiałem przeczytać, nie wiem.
No ale mniej więcej barwa głosu jest zachowana.
Tak, barwę sklonował dość wiernie.
Tak, no tak wyszedł ten głos po angielsku.
No ale teraz tak, jeśli nie mamy tych sampli, to jak uporać się z tym w języku polskim?
Ja na to znalazłem sposób.
I on po prostu polega na tym, że musimy sprawdzić sobie formatowanie tekstów.
To zależy, każdy czytnik ekranu ma do tego skrót.
W MVDA to jest MVDA i literka F.
I na to musimy zwrócić uwagę.
Zdanie, które mamy akurat przeczytać, będzie napisane na biało.
I MVDA to jak najbardziej widzi.
Zdania, które są po prostu wyświetlone poniżej i powyżej są napisane na szaro bodajże.
Więc tutaj spokojnie można sobie sprawdzić, które zdanie mamy czytać i je tak ponagrywać.
Ja właśnie sobie tak te zdania przedwczoraj nagrałem.
Też wysłałem głos do utworzenia, ale niestety jeszcze, jak już wspominałem, na początku się nie pojawił.
Mam nadzieję, że może w czasie audycji jeszcze się coś ukaże.
Monitoruję skrzynkę odbiorczą.
Gdyby ten głos dotarł, to jeszcze w tej audycji postaram się go Wam pokazać.
Ale jeśli nie dotrze, a sami chcielibyście tę usługę przetestować,
to mimo to, że w tym momencie jest taki błąd z tymi próbkami,
to jak najbardziej da się to zrobić.
Za chwilę przejdziemy do kolejnych newsów.
Ale na początku, zapomniałem w zasadzie na początku powiedzieć o tym,
że jesteśmy do Państwa dyspozycji na Zoomie, jeżeli chodzi o kontakt.
Jesteśmy na YouTubie, jesteśmy na Facebooku i jesteśmy w Tyfloradiu, jeżeli chodzi o odsłuch.
Dodatkowo na YouTubie i chyba na Facebooku też można do nas pisać komentarze.
No i można też do nas pisać w aplikacji Dawida Piepera
i w aplikacji Arka Świętnickiego na system iOS.
Aplikacja Dawida jest na Windows.
To przechodzimy teraz już do rzeczy, które są u nas nowe w audycji.
I zaczynamy od drugiego newsa, bo tutaj Piotrek już coś mówił,
teraz od newsa może Pawła na temat Międzynarodowego Turnieju Szachowego w Wiedniu dla osób niewidomych.
Tak, taki turniej się odbędzie.
Odbędzie się on w dniach 3 do 9, jeszcze tu sprawdzam, lipca.
Więc jeszcze dwa miesiące są.
Tak, zgadza się, cały ten tydzień w domu Ludwika Braila, Louis Brailhaus w Wiedniu.
I jest to turniej, który składa się z siedmiu rund.
Różne grupy wiekowe są tam, mile widziane od młodzieży, przez osoby dorosłe, po tak naprawdę seniorów.
I można się zgłosić.
Turniej będzie rozegrany w trybie, czy w konwencji szwajcarskiej.
Jest tu podanych dość dużo informacji takich technicznych a propos długości rund, systemów międzynarodowych, wedle których te zasady będą rozgrywane.
Natomiast jako, że ja muszę przyznać, nie znam się za bardzo na szachach, nie chciałbym podać tu informacji fałszywej.
Ja mogę oczywiście tego maila na życzenie osób zainteresowanych gdzieś dalej przekazać.
Podkleiłbym jego treść w komentarzu, zobaczymy jeszcze jak to rozegramy.
Natomiast są tu podane dane kontaktowe również osób, z którymi można się skontaktować, żeby się tutaj, prawda, zarejestrować.
Ponoć tutaj z tego co czytam 25 euro dla osób dorosłych.
To jest opłata rejestracyjna, troszeczkę mniej dla dzieci.
I to tam też do 15, z tego co pamiętam, czerwca.
I właśnie, teraz przeczytam adres mailowy może do rejestracji.
To pan sędzia turnieju, pan Werner Stubenwoll.
I jego adres to werner.stubenwoll.at
Oczywiście jest też numer telefonu, ale myślę, że lepiej będzie rzeczywiście te dane tutaj podkleić.
Tu jest oczywiście, jedzenie jest zapewnione w bufecie.
I nagrody są również i są bardzo ciekawe nagrody, bo za pierwsze miejsce jest to nagroda w wysokości 200 euro, za drugie miejsce 150 euro, trzecie 100, a czwarte 50.
Są też kategorie dodatkowe i tutaj 40 euro dla najlepszej osoby poniżej 18 roku życia, 40 euro dla najlepszego seniora, 60 plus, dla kobiet również 40.
No i właśnie, tutaj te rundy będą się codziennie gdzieś tam odbywać.
Po zakończeniu rundy 30 minut będzie ceremonia wręczenia nagród, już w ostatni ten dzień.
O, 15 euro kosztuje dla osoby młodszej poniżej 18 roku życia, czyli 25 dla osoby dorosłej, 15 dla młodzieży.
Co tu jeszcze można, co tu jeszcze, no myślę, że w dużym skrócie to jest tyle i życzę powodzenia, gdybyście chcieli się zapisać, jeżeli zdecydujecie się wziąć udział, no to wszystkiego dobrego i ciekawych, wielu zwycięstw i nagród życzymy.
No a przede wszystkim dobrej zabawy, bo to jest w tym wszystkim tak naprawdę najważniejsze.
No właśnie, czego możemy się spodziewać w tym roku, jeśli chodzi o nowe funkcje w dostępności Apple?
No pokazano tutaj kilka nowych funkcji, które dotyczą właściwie różnych niepełnosprawności, bo pierwszą rzeczą, o której wspomina Apple jest tak zwany tryb wspomaganego dostępu.
To jest coś, o czym już mówiono parę miesięcy temu właściwie w przeciekach, bo wyszły jakieś przecieki, że iPhony mają doczekać się jakiegoś uproszczonego interfejsu, uproszczonego ekranu głównego, uproszczonych aplikacji.
No i teraz Apple już to oficjalnie potwierdziło.
To jest widok, który upraszcza aplikacje i interfejsy do ich najważniejszych elementów.
Tutaj ta funkcja została stworzona w współpracy z osobami, które mają jakieś problemy z obciążeniami poznawczymi.
Ale myślę, że te funkcje też się mogą przydać osobom np. starszym albo tym, którzy nie chcą się uczyć jakichś bardziej skomplikowanych interfejsów, bo też te kontrolki będą większe.
Głównie tutaj chodzi o pięć aplikacji, które zostały w ten sposób uproszczone.
To jest aplikacja zdjęcia, aplikacja aparatu, interfejs połączeń.
Tutaj chodzi o to, że nie ma osobnej aplikacji telefon i Facetime, tylko jest jedna aplikacja połączenia, która jest uproszczona, aplikacja muzyki i uproszczona aplikacja wiadomości.
Każda z tych aplikacji może być dostosowana do potrzeb indywidualnych takiej osoby.
Możemy np. jakieś ulubione kontakty wybrać w aplikacji wiadomości, skonfigurować ją tak, aby nie otwierała domyślnie klawiatura, a po prostu np. tylko wybór emoticon.
Jeśli ktoś ma jakieś problemy komunikacyjne i łatwiej mu po prostu wysłać emotkę albo nawet wiadomość wideo, więc ta aplikacja może się tak otwierać.
Aplikacja muzyka też jest uproszczona, łatwiej można ulubionych playlist lub artystów wybrać i w ten sposób można komuś telefon bądź iPada uprościć.
Myślę, że to się może przydać nie tylko osobom z niepewnościami różnymi intelektualnymi, ale też np. osobom starszym i nie tylko.
Następnie mamy konwersję mowy na tekście rzeczywistym i synteza własnego głosu.
No i tutaj znowu wracamy do tematu, który już dzisiaj się pojawił.
Właściwie ostatnio jakoś wraca jak boomerang, bo nie tylko acapella będzie nam pozwalała na sklonowanie własnego głosu.
To jest funkcja, która najbardziej zaciekawiła media technologiczne, bo wiele z nich zaczęło wypuszczać właśnie artykuły, które na tej funkcji się skupiają.
Bo o co tu chodzi?
Przynajmniej w języku angielskim nasz iPhone bądź iPad lub Mac będzie w stanie sklonować nam nasz głos.
Więc jeśli mamy sytuację, w której wiemy, że ten głos stracimy, to poniekąd temat, który już poruszaliśmy w przypadku acapelli.
No to tak samo jak właśnie w przypadku acapelli, przez czytanie zdań na urządzeniu, tutaj Apple mówi, że to potrwa około 15 minut, urządzenie będzie w stanie sklonować nam nasz głos.
Tylko w tym przypadku to się wszystko, jak to często w przypadku wszelkich technologii, które oferuje Apple, będzie miało miejsce wyłącznie na naszym urządzeniu.
Te dane nigdzie nie będą wysyłane, więc tutaj nasza prywatność jest zachowana.
A tak z ciekawości, ciekaw jestem czy Apple przewiduje coś takiego, że ktoś chciałby się podzielić z kimś swoim głosem?
Mówiono o tym, że jakoś będzie można, nawet o tym wspominałem kiedyś, że będzie można do znajomych taką próbkę głosów wysłać i później Siri by ich głosem te wiadomości czytało.
Czy to się pojawi? Nie wiem, czy w tej pierwszej wersji, czy może w późniejszych. Będziemy musieli zobaczyć jak to będzie.
Natomiast co będziemy z tym głosem mogli później zrobić?
Kolejna funkcja, która trafi do iPhona pozwoli nam po prostu mówić syntezą albo tą wbudowaną w urządzenie, albo właśnie tym naszym głosem.
Albo podczas rozmowy telefonicznej lub FaceTime, czyli będziemy mogli po prostu pisać i ta osoba po drugiej stronie będzie słyszała nasz głos.
Albo po prostu będzie ta mowa puszczana przez głośnik.
Będzie można sobie jakieś ulubione zdania, frazy zapisywać i puszczać jednym przyciskiem, więc tutaj to się też może po prostu przydać nam w życiu codziennym.
Jeśli będziemy chcieli z kimś porozmawiać, a nie możemy sami coś powiedzieć, no to naszym telefonem też będziemy mogli nasz głos puścić.
Będziemy musieli zobaczyć jak ten głos będzie brzmiał po sklonowaniu, jak pierwsze bety iOS 17 się pojawią, no to na pewno będziemy mogli coś więcej o tym powiedzieć.
A teraz następna rzecz, która może bardzo przydać się nam, bo tutaj znów kłania się czujnik lidar, bo to jest funkcja, która z tego korzysta.
Funkcja wskazywania i odczytywania, jak to wdzięcznie zostało przetłumaczone, to jest coś, co trafi do aplikacji Loopa, którą możecie pamiętać, bo w zeszłym roku na przykład trafiło do niej wykrywanie drzwi, które też z czujnika lidar korzystało.
A co da nam ta funkcja wskazywania i czytania?
Będziemy mogli skierować telefon na jakieś urządzenie, które może mieć przyciski, o których my nie jesteśmy pewni.
Mogą to być jakieś przyciski dotykowe, może być jakaś mikrofalówka, jakaś klimatyzacja, coś co chcemy obsłużyć, ale nie znamy układu przycisków tego urządzenia.
No i później, gdy będziemy kierować telefon na to urządzenie, a drugą ręką przesuwać palcem po tych przyciskach, albo może minimalnie nad nimi, no to po prostu VoiceOver nam będzie czytał, jakie przyciski mamy pod palcem.
Będzie tutaj stosowany OCR i dzięki temu OCR-owi urządzenie będzie mogło nam powiedzieć, używając tego czujnika lidar, żeby wykryć nasz palec, jaki przycisk mamy pod palcem.
No na razie taki największy minus tej funkcji jest taki, że ona niestety nie będzie dostępna w języku polskim.
Tutaj są wymienione te wszystkie języki, w których jest dostępny OCR w aplowski, czyli to jest angielski, niemiecki, francuski, ukraiński, hiszpański, no te wszystkie najbardziej popularne języki, ale niestety polskiego na razie nie ma,
więc przepuszczam, że jeśli ktoś będzie chciał z tej funkcji korzystać, no to będzie trzeba albo przełączyć cały język urządzenia, albo przynajmniej język VoiceOvera.
Natomiast myślę, że jeśli ktoś będzie chciał to przetestować, to będzie się dało to zrobić.
Jeszcze jedna kwestia, o której wspomina portal ApoVis, jest taka, że ta funkcja będzie rozpoznawała tylko tekst, a nie symbole.
I tutaj może być problem w przypadku niektórych urządzeń. Będziemy musieli zobaczyć jak to działa, jak ta funkcja się będzie sprawdzać.
Na przykład jeśli w jakichś urządzeniach będzie jakiś przycisk może odpowiedzialny za włączenie, wyłączenie alarmu z ikonką dzwonka, na przykład, bo to tak często jest, no to może ta funkcja tego nie wygryź.
Zobaczymy jak to będzie wyglądać, natomiast to jest coś, co wydaje mi się może być bardzo przydatne, zwłaszcza, że takich urządzeń z panelami dotykowymi jest coraz więcej.
Jestem ciekawy jakie to będzie miało mieć zastosowanie. Na pewno kolejna rzecz, którą wiele osób będzie chciało przetestować, kiedy pierwsze wersje beta się pokażą, więc na pewno do tematu wrócimy.
To są takie trzy najważniejsze funkcje, o których wspomina Apple, ale jest jeszcze kilka takich mniejszych nowości.
Między innymi wszystkie aparaty słuchowe made for iPhone, które mają takie dodatkowe funkcje, które możemy z poziomu iPhone sterować.
Możemy teraz podłączyć również do Maców i też mieć dostęp do tych wszystkich dodatkowych funkcji.
Funkcję sterowania głosowego będzie mogła nam sugerować teraz sugestie podobnie brzmiących słów.
Ta funkcja nie jest dostępna w języku polskim, ale w innych językach takich słów faktycznie jest dużo, na przykład pierwszy przykład, który mi przychodzi do w języku angielskim słowo to.
Jest kilka słów z różną pisownią, ale taką samą wymową, więc tutaj w takich przypadkach funkcja sterowania głosowego.
Jeśli będziemy pisać takie słowo, to nam podłowie wszystkie wersje tego słowa i po prostu będziemy mogli wskazać o co nam dokładnie chodziło.
Dla osób, które korzystają z funkcji przełączników, więc można sobie z telefonem sparować przełączniki, to też chodzi o osoby z niepełnosprawnościami ruchowymi.
Te przełączniki teraz będą mogły służyć jako kontrolery do gier, więc w jakiejś grze taki przełącznik może być widziany jako kontroler.
Dzięki temu takie osoby będą mogły w takie gry zagrać.
Osoby słabo widzące na Macu będą mogły łatwiej dostosowywać rozmiar tekstu w niektórych budowanych aplikacjach na Macu.
Tutaj jest podany finder wiadomości, mail, kalendarz i notatki.
Myślę, że takim osobom słabo widzącym to się może spodobać.
Automatyczne zatrzymywanie ruchomych obrazów, czyli tutaj chodzi o zatrzymywanie gifów np. na stronach internetowych w Safari lub w aplikacji wiadomości.
Czasami niektóre strony oferują to jako funkcje, ale nie wszystkie, więc to też może być fajne dla osób, których ruch takich rzeczy może utrudniać przeglądanie.
Kiedy korzystamy z czytnika ekranu VoiceOver, Siri brzmi naturalnie na szybszych prędkościach.
Tu przypuszczam, że chodzi o to, że w VoiceOverze będą stosowane te wyższe jakości neuronowe głosy Siri.
Bo w którejś betach, na Macu przynajmniej to jakiś czas było dostępne i te głosy brzmiały troszeczkę naturalniej, ale były mniej responsywne.
Natomiast po jakimś czasie to zostało wycofane i VoiceOver korzysta z troszeczkę innych wersji tych głosów niż kiedy korzystamy z opcji czytania ekranu lub rozmawiamy z Siri.
A propos Siri, też fajna funkcja. Będziemy mogli w końcu dostosować szybkość mowy Siri, bo możemy mieć VoiceOvera ustawionego dużo szybciej niż cały system.
No ale Siri zawsze mówi swoim dosyć wolnym tempem. To jest akurat bardzo fajne, bo w przypadku innych asystentów głosowych, czy to Amazona, czy Google, można tą szybkość dostosować.
I to myślę wielu osobom się spodoba, bo wydaje mi się, że większość z nas jednak tę mowę ma często przyspieszoną.
No i to są wszystkie nowości, które w tym momencie zapowiedziało Apple, ale to jest pewnie wierzchołek góry lodowej.
To są takie informacje, które są takie najbardziej chwytliwe dla mediów, no już wspominałem tutaj o tym klonowaniu głosów.
Tego na pewno będzie więcej, tak na pewno było w zeszłym roku, bo jeśli pamiętacie, w zeszłym roku właśnie wcześniej została ogłoszona funkcja wygrywania drzwi na przykład, czy to narzędzie sprawdzania tekstu na Macu, czy nowe głosy.
Ale jak już pierwsze wersje beta się ukazały, no to tych opcji było dużo więcej.
Na przykład na Macu doszły dźwięki wcięć, doszły nowe skróty klawiszowe, doszedł ten system tworzenia własnych głosów, który m.in. E-Speak z powodzeniem wykorzystuje, czy R-H Voice pomału.
Więc tego będzie na pewno więcej. Dużo osób też się martwi, że nie zostało nic powiedziane o poprawkach błędów.
No to po prostu nie jest chwytliwe niestety, ale przepuszczam, że na pewno jakieś poprawki błędów mogą być i bardzo jest możliwe, że VoiceOver zarówno na iPhonie, jak i na Macu, sporo poprawek błędów w iOS-ie 17, czy Macu 14, czy WatchOS-ie na pewno dostanie.
Więc po prostu musimy poczekać. Na początku czerwca będzie konferencja WWDC, po czym wejdą pierwsze wersje beta systemów i wtedy na pewno dostaniemy więcej informacji i tych funkcji związanych z dostępnością pewnie będzie znacznie więcej.
A ja dodam, że jeżeli chodzi o Światowy Dzień Świadomości Dostępności, to w Polsce też różnego rodzaju wydarzenia będą miały miejsce. Ja ze swojej strony polecam serdecznie to, co jutro organizować będzie Państwowy Fundusz Rehabilitacji Osób Niepełnosprawnych.
To wydarzenie będzie miało miejsce na platformie Zoom, ale też z tego co wiem będzie transmitowane na Facebooku, na profilu facebookowym Pefronu. A dlaczego polecam? A polecam dlatego, że tam w tym wydarzeniu pojawią się moi koledzy z pracy, z Fundacji Instytut Rozwoju Regionalnego oraz z Utility oraz również ja. Będziemy mieli okazję się usłyszeć w dosyć ciekawym materiale.
W takim? No to niech będzie niespodzianką. Jeżeli macie ochotę to zajrzyjcie jutro na Facebooku Pefronu. Tymczasem komentarze do nas spływają, witacie się z nami, witamy was również bardzo serdecznie, ale oprócz powitań piszecie do nas np. tak jak napisał Łukasz.
Witajcie, polecam plugin VST Goyo Voice Separator. Póki co wersja beta, ale jest za darmo. Oparty na sztucznej inteligencji potrafi otrzumiać, usuwać pogłos, wydobyć lub usunąć wokal. Działa w stereo i mono. Dzięki Łukaszu za to polecenie. My tu się już bawiliśmy troszeczkę tą wtyczką i rzeczywiście ona jest wtyczką VST.
Można ją sobie chociażby w Reaperze użyć i całkiem dostępnie działa. Wszystkie parametry tej wtyczki są dostępne. Jak na darmowe, tak jak rozmawialiśmy poza anteną jeszcze przed audycją, jak na darmowe narzędzie to całkiem nieźle.
Tak, jak na płatne. Ja mam np. Waves Clarity wtyczkę, która ma usuwać wszystko co nie jest głosem, czyli to jest jedna z tych rzeczy, którą ma robić ta wtyczka Goyo. I mam wtyczkę Akon The Reverb to chyba się nazywa z tego co pamiętam. Czyli to jest ten drugi proces, który ma robić, czyli usuwanie pogłosu.
Natomiast tu są dwie wtyczki do jednej, która robi jedno i druga, która robi drugie. Natomiast Goyo ma robić jedno i drugie naraz. To znaczy to sobie można wyłączać, wyłączać, regulować głośność każdego z tych rzeczy.
I powiem tak, chciałbym zrobić jakiś post pewny na blogu eltenowym, gdzie spróbuję pokazać i porównać te procesory. I zobaczymy właśnie w jakie będzie cenie oczywiście docelowo ten Goyo. Na razie to jest rzeczywiście za darmo, więc warto testować póki się da.
I chyba ta wtyczka nie ma jakiegoś, a przynajmniej nie wygląda, żeby miała jakieś zabezpieczenie, że na przykład jeżeli skończy się ta wersja beta, to już nie będzie można z tego korzystać. Być może na przykład ta wtyczka zostanie jakoś dopieszczona, zostanie poprawiona i wtedy…
Albo ma jakiś mechanizm, że na przykład ma działać dodaty…
Też możliwe.
Ona w ogóle do inicjalizacji wymaga połączenia z internetem. Ona później działa bez internetu, ale jeśli nie mamy internetu, jak ją załadujemy na ścieżce, to po prostu wyświetla się komunikat, że musimy mieć internet.
A więc widocznie jakiś proces aktywacji jednak tam jest.
Pewnie tak.
No dobrze, to przechodzimy do następnej nowości, którą jest bazowy czytnik ekranu dla FreeBSD.
Tak, dla FreeBSD ja zupełnie przypadkowo natknąłem się na tę informację. Ten czytnik ekranu powstaje już od zeszłego roku i co ja mogę powiedzieć? W ogóle czym jest system FreeBSD?
To jest system, który przede wszystkim jest instalowany na serwerach. To jest też system taki typowo tekstowy, a przynajmniej w ten sposób zazwyczaj się go używa.
Jedni lubią Linuxa, inni lubią FreeBSD, na przykład ludzie z FreeBSD korzystają dlatego, często też administratorzy, bo temu systemowi przypisuje się taką dość legendarną stabilność.
Że to jest jeszcze stabilniejsze środowisko od Linuxa i jak tam już po prostu się ten serwer postawi raz, to on może działać wiele, wiele, wiele lat.
No ale to wiadomo, to podejrzewam, że większość serwerów, o które administrator dba, to mogą w ten sposób funkcjonować.
Natomiast problem był taki, że przez wiele lat administratorzy niewidomi nie mieli dostępu do tego serwera w żaden inny sposób niż poprzez dostęp zdalny za pomocą SSH.
Bo oczywiście w ten sposób jak najbardziej można korzystać. Możemy się na taki system zalogować i tam sobie pracować.
Są czynione jakieś podstawowe działania odnośnie tego, żeby taki prosty czytnik ekranu, który będzie odczytywał tekstową konsolę FreeBSD, stworzyć.
I już nawet zostało coś stworzone. Jest kilka elementów, z których ten czytnik się składa. Trzeba je doinstalować, trzeba skompilować i zainstalować najnowszą wersję Kernela do FreeBSD.
No i po prostu potem jeszcze dociągnąć kilka elementów, które zostaną wskazane. Ja podlinkuję informacje na temat tego czytnika ekranu.
No i cóż, jeżeli chcecie, jeżeli macie na tyle cierpliwości, żeby się z tym zmierzyć, to będziecie mogli sobie to potestować.
Ja się trochę obawiam, no bo ten czytnik ekranu wygląda przynajmniej na razie, że to jest jakiś taki element, który sobie gdzieś tam trzeba doinstalować i z tego skorzystać w późniejszym czasie.
Na razie wygląda na to, że cały czas jest problem z instalacją FreeBSD, taką poprzez syntezę, tak jak chociażby jest to zrobione w Debianie, że tam sobie odpalamy serwer z jakiejś płytki czy nośnika USB i jeżeli tylko mamy kartę dźwiękową, no to możemy skorzystać.
A tutaj działa to w ten sposób, że ten czytnik ekranu doinstalować możemy później. Mówi do nas ispeakiem też to tak a propos, ale to nie jest nic dziwnego, bo jest najbardziej rozpowszechniony taki otwarto źródłowy syntezator.
Więc jeżeli temat was zainteresował, to zachęcam do jego zgłębiania. Być może na tym się nie zakończy. Co ciekawe, w ten proces jakoś jest zaangażowana NVIDIA, która jakieś tam środki dorzuciła do rozwoju tego czytnika ekranu.
A teraz przechodzimy do nowości od Polskiego Związku Niewidomych, które przygotował dla nas Paweł. No kilka tych właści jest.
I mamy tu informację taką. W weekend 20 do 22 maja, no to już teraz w ten weekend, w Toruniu odbędzie się czwarta edycja ogólnopolskiego turnieju w blind tenisie oraz debata o wyzwaniach dla kultury w wykorzystanie druku 3D w przygotowaniu pomocy dotykowych.
W sobotę 20 maja toruński Mosir stanie się areną zmagań niewidomych i słabowidzących tenisistów z całego kraju. Turnieje ogólnopolskie, a także międzynarodowe w tej dyscyplinie odbywają się regularnie już od kilku lat, ale ten po raz pierwszy uzyskał oficjalną rangę Mistrzostw Polski i zostanie rozegrany pod egidą Polskiego Związku Tenisowego.
Zanim na toruńskich kortach rozdzwonią się specjalne dźwiękowe piłki do tenisa, zabiorą głos pracownicy kultury oraz eksperci od nowych technologii. Dyrektorzy muzeów, kuratorzy wystaw oraz inni przedstawiciele instytucji kultury będą mogli zapoznać się z metodą druku 3D i dowiedzieć się więcej o procesie produkcji nowoczesnych pomocy dotykowych.
Wydarzenie odbywa się w ramach ogólnopolskiego projektu Postępność Postęp Dostępność. Celem projektu jest przygotowanie replik rzeźb, makiet budynków lub innych pomocy dotykowych w technologii druku 3D dla wybranych instytucji kultury w każdym województwie.
Organizatorzy będą drukować modele i konsultować ich przydatność bezpośrednio z osobami z dysfunkcją wzroku, aby wypracować najlepszy standard przygotowywania takich rozwiązań. Osoby niewidome będą testować m.in. modele stworzone na podstawie ekspozycji Muzeum Okręgowego w Toruniu, które organizatorzy wydarzenia chcieliby przekazać do kolekcji instytucji.
Spotkanie w ramach projektu Postępność odbędzie się 20 maja o 10 w budynku Mosir ulica Szosa Chełmińska 75B w Toruniu. Więcej informacji na stronie widzimyinaczej.org.pl a także na www.postępność.pl oraz na Facebooku.
Tu jest link do fanpage’a Postęp w Dostępności Kultury.
Kontakt, biuro widzimy inaczej.org.pl i numer 605-368-660.
I to jest pierwsza informacja, więc jeżeli jesteście w Toruniu i chcielibyście wziąć w tym wydarzeniu udział, to możecie.
No a druga nowość pochodzi od stowarzyszenia De Facto, ponieważ tam wkrótce zostaną oddane audiodeskrypcje obrazów, które nawiązują do czterech religii.
I tutaj pierwszy z nich, czyli wierzenia starożytnych Greków na podstawie obrazu Sont Parysa.
I czytamy tak.
W ramach projektu realizowanego przez stowarzyszenie De Facto zostaną udostępnione w wersji audio cztery publikacje odnoszące się do obrazów poświęcone czterem religiom.
Będą to kolejno Sont Parysa Peter Paul Rubens Wierzenia Greków, Róże Helio Gabala Lorenza Alma Tejdema Wierzenia Rzymian, Próby Mojżesza Sandro Botticelli Chrześcijaństwo i Żydowska Narzeczona Rembrandt van Rijn Judaizm.
Jak pisze w publikacji autorka Anna Cirocka, aby zrozumieć czym był Sont Parysa i dlaczego tak bardzo inspirował artystów należy sięgnąć do najdawniejszych źródeł greckich.
W starożytności przyjęło się uważać, że konkurs piękności, w którym sędzią był książe Parys, a uczestniczkami boginie rozpoczął wojnę trojańską, zaś Helenę uznano za przyczynę tej wojny.
Wierzono, że ludzie są pionkami w rękach bogów, więc nie ponoszą odpowiedzialności za to, co zostało im przeznaczone.
Zainteresowani mogą wziąć udział w spotkaniu online z autorką publikacji, Anną Cirocką, które odbędzie się 18 maja o godzinie 20.
Na wydarzenie można zapisać się pod linkiem i tutaj jest link do festiwal.defacto.org.pl i tam za slashem.
Oczywiście wszystko jest w artykule na stronie PZN i warto się pospieszyć, bo to już jutro i prawdopodobnie też z uwagi na Światowy Dzień Świadomości o Dostępności.
Może też dlatego jest to spotkanie zorganizowane jutro, a może nie.
Natomiast warto myślę się zapisać, jeżeli interesuje Was ten temat.
No i to wszystko, jeśli chodzi o nowości Polskiego Związku Niewidomych na ten tydzień.
Draconis Entertainment powraca, czyli deweloper gier audio, ale to już więcej Piotrek na ten temat.
Tak, deweloper bardzo kultowy gier audio, którego historia właściwie sięga 20 lat do tyłu, tak jak w najnowszym właśnie artykule, o którym za chwilkę powiem.
Pierwsze ich gry powstawały w czasach, kiedy Xbox pierwszy, nie ten najnowszy, dopiero wchodził na rynek.
Jeszcze Nintendo 64 było popularne, więc to są przez te lata dwutysięczne.
Możecie ich pamiętać z gier takich jak Alien Outback, czyli taka gra, w której strzelaliśmy w obcych różne stoły do pinballa.
Monkey Business, Change Reaction, czyli taka gra, w której wybuchają monety, układamy monety w rzędy.
Coś jak Nawiedzona Fabryka poniekąd, tylko troszeczkę w innym stylu.
No i ta firma przechodziła wiele inkarnacji.
Ta najnowsza właśnie, Draconis Entertainment, miała właściwie trzy.
Pierwsza to właśnie był czas, nie wiem, rok 2005-2006, kiedy te gry wszystkie jeszcze powstały.
Po czym było jakiś czas cisza i w roku 2012 albo 2013 firma powróciła.
Główny założyciel tej firmy, Josh DeLioncourt, w międzyczasie przestawił się na platformę Apple.
On też bardzo udzielał się w innych, właśnie w środowisku dostępności Apple.
Jeszcze przed Apple Visa może pamiętacie taki podcast jak Maccessibility.
On w tym się bardzo udzielał, promował tę technologię Apple wśród niewidomych.
I kiedy ta firma powróciła, no to właśnie z naciskiem na platformę Apple.
Gra Change the Action została wypuszczona ponownie na App Store, najpierw na Macu.
Później też powstała gra Silver Dollar, takich kilka minigier w takim salonie na Dzikim Zachodzie,
który w wielu ich grach się pojawiał, bo i w Magii Business i w tych pimbalach był stół.
Dwa nawet stoły na bazie tego miasteczka na Dzikim Zachodzie, więc to taki motyw,
który lubił powracać.
No ale te gry, było widać, że one najpierw powstawały na platformy Apple,
tam po jakimś czasie, bodajże nawet po roku chyba, okazały się wersje na Windowsa.
No ale było widać, gdzie jest serce tak naprawdę tego autora.
No właśnie w międzyczasie Josh tam później zajmował się innymi rzeczami,
on też jest autorem, napisał kilka książek.
No a przedwczoraj pojawiło się nagle ogłoszenie na stronie firmy,
że Draconics Entertainment powraca z Przebudzenie Smoka,
dosłownie tak można przetłumaczyć tytuł tego artykułu.
No i czego możemy się dowiedzieć?
Po pierwsze tutaj producent mówi, że świat idzie naprzód
i powiedzieli, że wszystkie swoje gry i nowe będą pojawiały się na iPhone’ach.
To jest tutaj nacisk tworzenia tych gier właśnie będzie na iPhone’a,
ale też na inne platformy Apple.
Tutaj firma mówi, że dzięki temu, że na iPhone’ach znajdziemy czytnik ekranu VoiceOver,
większość ludzi teraz ma iPhone’y, tutaj mówi właśnie Overwhelming Majority,
czyli taka właśnie znaczna większość, no może w Stanach, w innych krajach to jest myślę bardziej podzielona,
ale tutaj właśnie mówią, że dzięki temu większość osób ma dostęp do przynajmniej jednego z systemów Apple
i tutaj właśnie jest powiedziane, że te gry będą pojawiać się na iPhone’ie zwłaszcza
i tutaj jest jakieś dodatkowe sterowanie akcelerometrem,
czy nawet na kontrola, które możemy podłączyć.
Te gry mają wykorzystywać wszystkie API, które ostatnio Apple zaczęło oferować,
więc tutaj zaawansowana haptyka, dźwięk przestrzenny i tak dalej.
No i właśnie dlatego zdecydowali się pisać swoje gry na iPhone’a.
No ale tutaj rodzi się pytanie, bo przecież przez kilkanaście lat te gry też powstawały na Windowsa,
no i co z tymi grami?
No niestety okazuje się, że wsparcie dla Windowsa zostało porzucone.
Właśnie tutaj producent generalnie cieszy się z tego, że dzięki temu właśnie,
że nie musi pisać na Windowsa, przynajmniej nie chce,
to może wykorzystać w pełni te wszystkie API, które firma Apple oferuje,
ale też mówi, że koszt utrzymania tych gier na Windowsa już był po prostu za duży.
Tutaj zarówno chodzi o serwery aktywacyjne, które były potrzebne do tych nowych gier,
czyli właśnie Silver Dollar’a i Change Reaction, tej nowej wersji,
ale też systemy generujące klucze produktu do tych starszych gier,
które też już zostały pisane 20 lat temu w językach programowania,
które tak naprawdę już nie są wspierane i błędy się pojawiały.
Tak na przykład jak Windows Vista wyszedł, to był taki okres, kiedy wiele z tych gier przestało działać,
no więc tutaj się skupili wyłącznie na platformach Apple.
Pierwsze dwie gry, które dostaną takie aktualizacje to jest właśnie Silver Dollar i Change Reaction.
Silver Dollar już wyszedł na App Store, nowa wersja,
która dodaje wsparcie dla procesora Apple Silicon, to jest na razie tylko na Macu.
Jakiś ulepszony dźwięk, chociaż szczerze mówiąc ja osobiście nie zauważyłem,
żeby ten dźwięk się jakoś zmienił, a testowałem tę grę.
I wsparcie dla kontrolerów i to właściwie wszystkich,
bo kontrolery na Macach i iPhonach są wszystkie nowe wspierane,
zarówno te z PlayStation, Xboxa, Nintendo Switch czy jakieś inne.
Tutaj nie ma problemu i faktycznie można teraz z kontrolerem w tą grę zagrać.
Change Reaction ma się pojawić niebawem i kiedy się pojawi,
cena tej gry zostanie zredukowana do 5$, bo ona wcześniej kosztowała bodajże 20$.
Więc jak ktoś będzie chciał sobie na Macu na razie tę grę kupić, no to będzie mógł.
A jeśli ktoś chciałby kupić sobie jedną ze starszych gier na Windowsa,
no to niestety nie będzie mógł.
Producent oferuje na stronie specjalną sekcję Legacy Downloads,
gdzie możemy pobrać instalatory do wszystkich starych gier na Windowsa.
I można jeszcze na razie prosić o nowe klucze produktu,
jeśli kiedyś jedną z ich gier kupiliśmy.
Ale tu jest sygnalizowane, że prędzej czy później te pliki z tej strony mogą zniknąć,
więc warto sobie zrobić kopię zapasową.
Na szczęście jeśli chodzi o te gry, to te klucze produktu są bardzo proste,
nie wymagają połączenia z internetem, a przynajmniej te starsze gry,
na przykład Pinball czy Monkey Business czy Alien Outback.
Te klucze są proste, to jest po prostu imię i klucz,
więc można je sobie po prostu zapisać i w każdej chwili na dowolnej liczbie komputerów aktywować.
No ale warto sobie to wszystko zapisać, bo za jakiś czas te gry po prostu mogą zniknąć.
Czy to dobrze? Zdania społeczności są podzielone.
Dużo osób chciałoby, żeby jednak te stare gry zostały nawet jako freeware udostępnione,
bo właściwie abandonware, jeśli producent nie chce ich wspierać,
to jest powiedziane właśnie, że generalnie wsparcia dla tych starszych gier nie będzie.
Nawet jeśli te gry kiedyś pojawią się z ulepszeniami na iPhone’y,
nie wszyscy mają iPhone’y ani Mac’i.
Myślę, że tak.
Nie sądzę, żeby to jakoś miało bardzo negatywny wpływ na sprzedaż tych wersji na iPhone’a.
Raczej jeśli ktoś by chciał sobie taką nową wersję kupić z ulepszonymi dźwiękami,
to i tak kupi.
No a trochę jest osób właśnie z komputerami z systemem Windows,
które myślę chciałoby sobie te starsze wersje tych gier zagrać.
Mniej jednak.
Jestem ciekawy, co pokażą, bo na przykład taki Pinball na iPhone jest z Hapticom,
albo na przykład ich Tenpin Alley, czyli gra, w której po prostu rzucamy kręgle.
Gdyby na przykład do takiej gry trafił multiplayer przez internet,
bo ta gra miała multiplayer, ale tylko lokalny,
raz mi się udało zaprosić drugą osobę i zagrać w to lokalnie.
No ale gdyby dało się tak zagrać ze znajomymi przez internet,
czemu nie?
Jestem ciekawy, co pokażą jej jednak, jeśli chcecie zagrać w te starsze gry,
albo je kiedyś kupiliście, warto sobie je ściągnąć,
zapisać w wasz klucz, bo za jakiś czas po prostu może zniknąć.
Tymczasem zaglądamy do komentarzy.
Mamy komentarz od Natalii.
Witajcie! W wielu miejscach w Tyflopodcastie, czy to w Tyfloprzeglądach,
czy w innych audycjach pojawiło się wiele wzmianek o aplikacjach nawigacyjnych
i kolejowych dla niewidomych, zarówno na Androida, jak i na iOS.
Czy moglibyście zrobić jedną taką audycję tematyczną
dotyczącą takich rozwiązań, takich aplikacji?
Na razie mam wrażenie, jak wspomniałem wyżej,
że wiele informacji na ten temat jest porozmieszczanych w wielu audycjach.
Miło by było, gdyby spis takich aplikacji był dostępny w jednym miejscu.
Pozdrawiam!
Natalio, jeżeli chodzi o aplikacje kolejowe,
to jakiś czas temu w Tyflopodcastie pojawiła się audycja
i ona jest na stronie głównej.
Ona zatytułowana jest
Aplikacje do sprawdzania rozkładów jazdy pociągów
i zakupu biletów w systemie iOS.
Natomiast my tam z Wojtkiem Dulskim też odnosimy się do Androida.
Demonstrujemy te aplikacje na iOS.
Natomiast o Androidzie też troszeczkę mówimy.
Tam jest pokazanych kilka aplikacji.
Nie pokazaliśmy wszystkich, ale przynajmniej część jest pokazana,
więc jeżeli interesuje Cię ten temat od tej strony,
to zachęcam do posłuchania tej audycji.
Chociaż tak naprawdę, ja powtórzę to, o czym mówiłem w audycji poprzedniej,
tej właśnie, którą prowadziliśmy z Wojtkiem.
W zasadzie w dzisiejszych czasach, w większości przypadków,
wystarczy nam jedna aplikacja, która nazywa się Coleo.
Swoją drogą to znowu taka ciekawostka a propos Coleo,
bo chyba jeszcze o tym nie mówiliśmy.
Coleo oprócz Apple Walleta obsługuje teraz też Google Wallet,
więc na Androidach, podobnie jak w przypadku iOSa,
możemy sobie dorzucić zakupiony bilet do portfela
i w bardzo prosty sposób pokazać go konduktorowi.
Też myślę, że warto wspomnieć, bo tutaj Natalia prosi o spis aplikacji,
że istnieje katalog aplikacji Stowarzyszenia w Labiryncie,
gdzie jest tak naprawdę w jednym miejscu pozbierana lista
takich najważniejszych aplikacji z różnych kategorii,
ale też nawigacji, z tego co widziałem,
właśnie w jednym miejscu dla różnych platform.
iOS, Android, Windows i tam można sobie spokojnie te aplikacje przejrzeć.
No a co do podcastu zbiorczego,
to znaczy mówimy o bardzo dużej kategorii aplikacji,
bo z jednej strony aplikacje podróżnicze, takie kolejowe do zamawiania biletów,
a z drugiej strony nawigacyjne.
Chyba trochę ciężko byłoby…
Ale z drugiej strony, bo jak się mówi o aplikacjach nawigacyjnych,
to się pokazuje wszystkie opcje, których z reguły jest dużo.
To jest dobry pomysł, myślę, żeby zrobić rzeczywiście taką audycję
na temat takich najczęściej wykorzystywanych opcji w tych wszystkich aplikacjach.
To znaczy aplikacja tam jakaś, po włączeniu, jak to najlepiej skonfigurować,
w sensie jakie opcje, bo ustawia, żeby to działało,
nie wygłębiając się nawet jakoś w szczegóły.
No i nie wiem, powiedzieć, wyznaczanie z punktu A do punktu B,
rozglądanie się po okolicy, sprawdzanie gdzie jestem.
To są chyba trzy najważniejsze rzeczy, których się wykorzystuje w takich aplikacjach.
No i właśnie, gdyby w każdej aplikacji pokazać takie rzeczy, jak to się robi,
no to już, to chyba by było.
I wtedy można by zrobić kilkanaście minut o jednej z tych aplikacji,
plus właśnie pokazać te aplikacje typu Move It, Time for Buzz,
Mobile MTK na Androida.
Inna rzecz, że te aplikacje w większości, oczywiście wiadomo,
że nie w najnowszych wersjach, ale mają swoje audycje dedykowane,
poświęcone konkretnemu narzędziu, więc jeżeli interesuje Cię
na przykład jakaś konkretna aplikacja, bo to…
Tak, to się często tam niewiele zmieniło.
Tak, ale to z czym mówił Paweł, to się akurat tutaj zgadzam,
że gdyby chcieć to tak szczegółowo omówić, to faktycznie jest tego
dosyć dużo na jedną audycję i to chyba jedynym rozwiązaniem
tego problemu byłoby to, co proponuje Tomek.
Natomiast, no, większość tych aplikacji została już omówiona.
Ja zachęcam do korzystania z wyszukiwarki na naszej stronie.
My mamy ponad 2000 audycji, więc po wpisaniu na przykład
jakiejś nazwy aplikacji, istnieje dość duże prawdopodobieństwo,
że audycja na jej temat została zrobiona.
Inna rzecz, jak ona jest aktualna, ale przynajmniej nawet jeżeli
ona nie jest jakiejś pierwszej młodości, no to można się
w miarę poglądowo zapoznać z tym, jak ta aplikacja działa,
co oferuje i jakie są jej możliwości. Do tego zachęcam.
A jeszcze proponuję zajrzenie sobie na bloga
nawigacja.s.elten.blog. To jest blog prowadzony przez Kamila Miedzio
i to jest blog bardzo świeży, więc tych wpisów tu nie jest dużo,
ale tam są właśnie takie różne wpisy, nie wiem, na temat
Todd Walkera, Singus i Sandmova. Być może będzie więcej tych programów.
W każdym razie to są takie rzeczy, które rzeczywiście gdzieś tam
są wykorzystane przez nas. No i Kamil nawet niedawno napisał,
że ostatnie wspominki tutaj na Tyflo Przeglądzie
gdzieś tam zmotywowały go do tworzenia zawartości.
Także tutaj dziękujemy za miłe słowa.
No i w związku z tym kierujemy też tutaj na tego bloga.
No i podejrzewam, że tam z czasem będzie rzeczywiście
jakoś tam więcej treści różnych.
Jeszcze mi przyszedł w głowę tak, że można by spróbować
pokusić się o taką koncepcję, że zasymulujmy sobie jakąś podróż
i co robisz po kolei wyruszając w podróż. Nie wiem, biorę telefon,
muszę najpierw sprawdzić rozkłady pociągów.
Dobrze, sprawdziłem. Muszę kupić bilet.
Mogę jeszcze sobie sprawdzić na przykład,
chcę się dostać z A do B, więc dojadę tam na miejsce
i sobie już sprawdzę przedtem rozkład autobusu,
czy mogę gdzieś tam na moje miejsce docelowe podjechać,
ewentualnie jakąś trasę pieszą. I potem co robię?
No kupuję ten bilet, kupiłem go, dobrze, to idę na dworzec.
Jak to robię? Ja wiem, że to nie ma sensu w takim sensie,
że to nie jest uniwersalne, bo każdy ma jakieś inne miasto,
inne rodzaje transportu, ale taki symulator jakby,
jakie funkcje wykorzystuję planując i przeprowadzając podróż.
Wsiadę do pociągu, przejadę tym pociągiem
i po wyjściu z pociągu co robię?
Sprawdzam rozkład autobusu, sprawdzam, nie wiem,
przypuszczam, że na dworcu są staczniki Toto Point.
No to, że sprawdzam sobie, gdzie tam Toto Point, jak dojść do wyjścia.
Włączam nawigację i co w tej nawigacji konkretnie włączam?
No nie wiem, rozglądam się po okolicy, czy wytyczam trasę?
A jak wytyczam trasę, to na jakich warunkach?
Można by spróbować taką koncepcyjną audycję?
No tylko wymagałoby to oczywiście przemyślenia pewnie,
jak do tego się mądrze zabrać.
No w każdym razie mamy jakiś ewentualny pomysł
albo kilka pomysłów na audycję.
No będziemy na tym myśleć, żeby coś z tego zrealizować,
bo myślę, że temat jest ciekawy, bo rzeczywiście mam wrażenie,
że temat orientacji przestrzennej, a w zasadzie wykorzystania
smartfonów w orientacji przestrzennej jest często traktowany
po macoszemu przez różne, no przez instruktorów powiedzmy
orientacji przestrzennej. To się podobno zmienia,
ale no podejrzewam, że nadal jest trochę ludzi, którzy
dobra, smartfon, to tam może smartfon,
ale to laska jest najważniejsza, smartfon to tam nie wiem,
może ktoś, może coś. To może przejdźmy do następnego tematu,
czyli podcasta, podcasta dla miłośników Eurowizji niewidomych.
Tak, bo Eurowizja właśnie się zakończyła w zeszłą sobotę,
nie wiem jak wy, wiem, że nie wszyscy się interesują,
ale ci z was, którzy oglądają, jak się czujecie
z powstwem Szwecji, bo ja średnio bym powiedział, średnio.
Wolałem Finlandię.
Ja nawet wykibicowałem z Tobą.
Ja różne miałem typy, Chorwacja była ciekawa,
Czechy były ciekawe.
Jeżeli o tym mówimy, to moim absolutnym faworytem była Słowenia,
ale tak wiesz, mówiąc o tym, kto ewentualnie mógłby wygrać,
to jakbym miał wybierać między Szwecją a Finlandią
zdecydowanie głos na Finlandię.
Tak, ja za chwilę też powiem dlaczego,
bo właśnie te elementy wizualne okazały się też nie bez znaczenia
w przypadku fińskiego reprezentanta, Karie,
ale zawsze jak Eurowizja powraca, to co roku powracają te same kwestie.
Po pierwsze, co tu robi Izrael i Australia?
Po drugie, no jak to jest, że jest wielka piątka jakaś,
która może sobie bez wchodzenia przez półfinały od razu wystąpić w finale?
Po trzecie, a to i tak wszystko jest przekupione?
A po czwarte, co to za konkurs piosenki, jak liczy się bardziej taniec?
A z drugiej strony, no przecież to się nazywa Eurowizja, a nie Eurofonia.
No i rzeczywiście jest tak, że to co dzieje się na scenie
poza tą warstwą muzyczną, no nie jest bez znaczenia,
a nawet robi 75% roboty, 90 może nawet parę.
I tak naprawdę to jest to wokół czego się kręci całe zainteresowanie
wszystkich, którzy przyszli to wydarzenie obejrzeć.
I ja się o tym przekonałem, rozmawiając z moją koleżanką,
osobą widzącą w pełni, która też jest fanką
i tego na dokładkę śledzi jeszcze i się udziela
w przeróżnych społecznościach eurowizyjnych, fanowskich online.
No i przykładowo dowiedziałem się, że kompletnie mylnie zinterpretowałem
treść kilku utworów i że wydawało mi się, że są o czymś,
natomiast scenografia wskazywała na coś zupełnie innego.
No i tu właśnie dowiedziałem się też na przykład,
że fiński reprezentant w ogóle był już wcześniej znany na TikToku
i on sobie zaskarbił przychylność społeczności internetowej właśnie tym,
że cokolwiek by nie robił, to jest w tym wszystkim taki autentyczny,
tak widać, że z pełnym spokojem to robi, że się dobrze bawi,
robiąc tą swoją twórczość i rozwijając się muzycznie,
że bardzo fajnie podtrzymywał interakcje z widzami,
słuchaczami, z fanami, z publicznością,
nawet podczas właśnie koncertu już finałowego.
Cały czas właściwie, cały Liverpool właściwie kibicował mu.
Tak było słychać, jak były czytane wyniki,
to jego imię było po prostu wykrzykiwane dosłownie przez widownię.
Tak i czacza, czacza, czacza, czacza, to też chyba było dość mocno wykrzykiwane hasło.
Więc porwał tłumy, natomiast właśnie to są te rzeczy,
które mi gdzieś uciekły, bo ich nie widzę.
I oczywiście jest paru nadawców w Europie, tutaj Niemcy są przykładem,
Austria też, nie wiem czy któryś jeszcze, czy Włochy chyba?
Wiem, że któreś kraje jeszcze prowadzą transmisję Eurowizji z audiodeskrypcją.
No Polska jeszcze się tam nie znalazła, miejmy nadzieję,
że to się za jakiś czas zmieni, bo to chociażby do punktacji
tych nieoznajmianych przez jury konkretnych państw się przydaje.
Natomiast oczywiście też…
Jeśli mogę…
Jeśli mogę tutaj coś podpowiedzieć, no przynajmniej finał, ja się o tym dowiedziałem.
Ja myślałem, że to było tylko tak w tym roku, ale też dowiedziałem się,
że to jest co roku i to w każdym finale podobno.
Jeśli znacie angielski, to BBC Radio 2 transmituje finał Eurowizji
i tam troszeczkę można się właśnie takich rzeczy dowiedzieć.
Między innymi właśnie punkty były czytane.
Tak, no i właśnie dobrze Piotrze, że do BBC zmierzasz,
bo BBC i tutaj nie wiem, czy to jest inicjatywa podjęta tylko w tym roku
z uwagi na to, że właśnie Liverpool gościł konkurs,
czy to będzie gdzieś kontynuowane.
W ramach BBC i tego, że w tym roku Eurowizja się odbyła w Wielkiej Brytanii,
na platformie BBC Sounds, czyli taka to jest platforma,
nie wiem czy dobrze kojarzę, z jakimiś podcastami, słuchowiskami,
ale takimi różnymi materiałami audio, właśnie różnych rozgłośni
dotyczących to BBC, różnych programów, kanałów,
postanowiła powołać coś takiego jak Eurowizjon,
Road to Eurowizjon, jest to w każdym razie taka seria podcastów
Celebrating Eurowizjon, jest to BBC Sounds Celebrating Eurowizjon,
taka seria podcastów w różny sposób, z różnych aspektów
podchodząca do tematów Eurowizji, mamy tam wywiady na przykład
z obecnymi uczestnikami, jest wywiad już z Lorraine,
są wywiady z byłymi uczestnikami, chyba brytyjskimi, takie wspominkowe,
no i jest też seria Eurowizjon Described, jest to seria,
którą prowadzi Lucy Edwards, niewidoma prezenterka BBC Radio 1
i osoba, tak wspomniałem, niewidoma, ale też w internecie się udzielająca,
która stwierdziła, że jako, że ona już od 10 lat nie widzi,
a bardzo lubiła oglądać Eurowizję, kiedy jeszcze widziała,
no to zorientowała się, że dużo traci, nie wiedząc właśnie,
co się dzieje w scenografii, w ruchach tanecznych, w choreografii
i podjęła współpracę z drugą prezenterką i razem dyskutują właśnie
na temat różnych graficznych elementów występów eurowizyjnych,
jak się okazuje, no niekoniecznie tegorocznych,
widziałem tam różne wzięte na warsztat występy z lat ubiegłych,
widziałem tam występ któryś islamski, który na pewno nie był tegorocznym,
widziałem też występ kogoś takiego jak Scooch,
to jest jeden z byłych reprezentantów Wielkiej Brytanii,
nie wiem, który rok, ale nie kojarzę, więc pewnie wtedy nie śledziłem Eurowizji,
no i można tam w takich, no około 20-minutowych odcinkach właśnie
posłuchać sobie jak te dwie panie ze sobą w formie takiego podcastu,
takiej pogadanki rozmawiają, opowiadają o tych elementach i oceniają
na ile im się to podoba, więc jeżeli Eurowizja to jest coś,
co was interesuje, jeżeli znacie język angielski, no to tego typu treści
jak właśnie Eurowizja i Skype.
Albo macie Whispera.
Albo macie Whispera, chociaż nie wiem,
chociaż nie wiem czy to jest tak łatwo pobrać z BBC Sounds,
bo na razie ja miałem problem odtworzyć i sterować odtwarzaczem,
tak szczerze mówiąc, jeszcze play, klikałem tabem w trybie formularzy,
to jakoś dotarłem, ale…
Ciekawe czy tam człowieka nie ma transkrybentu,
bo ja na BBC to raczej…
Można być, trzeba by poszukać, natomiast właśnie takie treści
są tam publikowane, no więc jest to coś dla was,
jeżeli chcielibyście z takiej innej perspektywy spojrzeć na ten konkurs
i z tą nową, świeżą wiedzą dać komuś nowemu 12 punktów.
Drobne newsy to jest już taka tradycja tyflo przeglądu
i tym razem drobne newsy od Piotrka.
Tak, i jak zwykle też tradycyjnie dużo aktualizacji,
takich mniejszych i większych,
jedna nawet jest bardzo duża, tak dosłownie piszę,
ale zacznijmy od Rima, Rima Namaka,
który, jak już kilka razy o nim wspominaliśmy,
pojawił się w wersji beta na początku.
Niektórych funkcji Namaku nie miał, które były dostępne na Windowsie,
ale firma Numa Solutions sukcesywnie te braki uzupełnia.
W ciągu poprzedniego tygodnia dwie takie aktualizacje się pojawiły,
które wprowadziły całkiem, wydaje mi się, przydatne funkcje.
Po pierwsze, już działa przesyłanie schowka w obie strony
i w przeciwieństwie do tego, jak działa w NVDA, remote tutaj,
to się po prostu dzieje samoistnie,
jeżeli skopiujemy coś z komputera, którym sterujemy,
to ten schowek zostanie przeniesiony na nasz główny komputer
i vice versa, jeśli zminimalizujemy sesję,
wrócimy do naszego systemu i z niego coś skopiujemy,
to to się automatycznie skopiuje na schowek komputera zdalnego.
Wyjątkiem tego są pliki, ale pliki też można przesyłać,
tylko musimy to zrobić ręcznie.
Mianowicie, na naszym komputerze skopiujemy jakiś plik do schowka,
potem wchodzimy do menu RIM i tam jest opcja prześlij plik.
Kiedy to naciśniemy, to na zdalnym komputerze otworzy się okienko
z paskiem postępu, ten plik się zacznie pobierać.
Kiedy już się pobierze, on jest tam zapisywany w tymczasowym katalogu,
ale otwiera się, ja akurat to testowałem z Windowsa na Macu,
bo są nowości, które na Maca trafiły,
to się otworzył w takim katalogu tymczasowym Finder,
ale ten plik tam był poświetlony, więc można go było spokojnie
skopiować gdzieś indziej, czy po prostu coś z nim zrobić.
No i doszła funkcja zdalnego restartu.
To jest fajnie zrobione, bo czasami są jakieś sytuacje,
w których musimy komputer, którym sterujemy, zrestartować,
może jakiś program instalujemy albo coś usunęliśmy
i po prostu ten restart jest potrzebny.
Możemy go wywołać z poziomu RIM-a i jeśli to zrobimy,
mamy dwie opcje, możemy zrobić taki normalny restart,
jeśli komputer zachowuje się prawidłowo,
no i po prostu wtedy system pomału się zamyka,
wszystkie aplikacje dostają sygnał, żeby zapisać swoją pracę,
no i komputer jest restartowany, ale też możemy wykonać
restart awaryjny, to jest po prostu taki wymuszony,
więc system dostaje, gdyby coś się nam zawiesiło,
wchodzimy sobie do menu RIM, wymuszamy restart,
no i jeśli coś się nie zawiesiło, no to po prostu
ten restart zostanie wymuszony.
Co ciekawe, jeśli ten komputer się zrestartuje
i musimy się zalogować, to to nie jest zautomatyzowane,
no ale automatyczne logowanie można sobie ustawić,
więc jeśli ustawiamy sobie zdalny dostęp,
a nas nie ma w domu, to można sobie to obejść,
ale normalnie to ta osoba, której pomagamy,
musi się zalogować do komputera, wpisać swoje hasło,
ale kiedy to zrobi, to jeśli ten restart właśnie został
zrobiony, no to połączenie automatycznie zostanie wznowione,
nie musimy znów wpisywać naszego słowa klucz,
tylko ta sesja zostanie automatycznie wznowiona
i możemy dalej pracować.
A propos wznowienia sesji, też został poprawiony taki błąd,
czy brak też, jeśli zablokujemy ekran,
bo druga osoba to zablokuje, no bo system sam zablokuje ekran,
to jeśli go odblokujemy, to dźwięk na mnie wracał,
a teraz zarówno dźwięki, jak i udostępnianie ekranu
już powinny bez problemu wrócić,
więc jeśli z jakichś przyczyn właśnie komputer został zablokowany,
przeszedł na ekran blokady Mac,
no to bez problemu będziemy mogli wrócić do tej sesji
i korzystać z tego komputera.
Następna aktualizacja, wydaje mi się, że już poniekąd chyba
Paweł coś o tym wspominał, ale teraz już ta,
jeszcze chyba kolejne aktualizacje się pojawiły,
mianowicie chodzi tutaj o komunikator Signal,
który głównie jest dostępny na telefony, na smartfony,
ale ma też swoją wersję komputerową, która staje się coraz bardziej dostępna
i tutaj bardzo takie fajne rzeczy przychodzą.
Na razie to jest wersja beta, będzie link, w którym możecie sobie
więcej przeczytać i po prostu przejść do strony, gdzie można ją ściągnąć
zarówno na Windowsa, na Maca, jak i na Linuxa,
to jest aplikacja elektronowa, więc tutaj z dostępnością raczej
nie powinno być problemu.
A co tutaj mamy? Między innymi dostajemy dźwięki na przychodzące wiadomości
w bieżącym oknie, więc jeśli po prostu mamy tą aplikację otwartą,
przyjdą nowe wiadomości, no to mimo to, że ta aplikacja nie jest zminimalizowana,
to dostaniemy dźwięki do tego.
Wiadomości są teraz elementami listy, więc możemy łatwo sobie po nich
skrótami MVDA na przykład skakać.
Są również artykułami, więc możemy sobie tutaj przepisać skrót
do przemieszczania się po artykułach.
Możemy też po nich chodzić czołgami à la Discord.
Jest jeszcze niestety błąd, że tabulator przechodzi przez każdą
wiadomość po kolei, to jeszcze musi zostać poprawione, więc tutaj
trzeba by się wspomóc czytnikiem ekranu lub skrótami klawiszowymi,
które zostały dodane, bo to kolejna nowość.
Mamy kilka nowych skrótów, mianowicie taki, który pozwala nam przejść
do najstarszej nieprzeczytanej wiadomości, więc tutaj bardzo przydatny skrót.
Do pola edycji wpisywania wiadomości, więc tutaj też przydatne.
I do nawigacji po poszczególnych sekcjach aplikacji, więc takie
najważniejsze kwestie, wydaje mi się, tutaj zostały wzięte pod uwagę,
nawet takie, których inne aplikacje nie mają, na przykład
WhatsApp czy Discord nie mają takiego skrótu, który nas by szybko
przeniósł do pierwszej nieprzeczytanej wiadomości, a wydaje mi się,
że to jest coś, co często by się akurat mogło przydać.
Więc jeśli chcielibyście korzystać wygodniej z Signala na komputerze
lub może zastanawiacie się, z jakiej takiej bezpiecznej platformy
do komunikacji korzystać ze swoimi znajomymi, no to warto się tą
nową wersją Signala zainteresować.
Teraz kilka wiadomości o NVDA.
Po pierwsze, dodatek Resource Monitor, który jest jeden ze starszych
i takich bardziej lubianych dodatków, który pozwala nam uzyskiwać
różne informacje o zużyciu zasobów naszego komputera, baterii,
procesora, pamięci RAM, dysków.
Doczekał się nowej wersji, która potrafi nam teraz powiedzieć
coś więcej o stanie sieci Wi-Fi.
Naciskając NVDA Shift 8 usłyszymy, do jakiej sieci jesteśmy połączeni
i siłę sygnału.
Dostaniemy również dźwięki, które będą nas informować, kiedy komputer
połączy lub rozłączy się z siecią Wi-Fi.
Natomiast jest dosyć istotny błąd.
Dla tych, którzy mają komputery stacjonarne bez karty Wi-Fi,
tak mi się wydaje, że to jest przyczyna tego błędu, bo ja sobie ten
dodatek zaktualizowałem, po czym w skróty przestały mi działać.
Weszłem sobie do konsoli NVDA i okazało się, że dodatek Resource Monitor
wyrzucił błąd, bo próbował skontaktować się z jakąś usługą w Windowsie
i dostawał komunikat, że ta usługa nie jest uruchomiona.
Przepuszczam, że to jest właśnie usługa odpowiedzialna za połączenia Wi-Fi,
że mój komputer jest połączony przez kabel, przez Ethernet,
no to ta usługa faktycznie nie jest uruchomiona, ale dodatek po prostu
zamiast dać komunikat, jeśli naciśniemy ten skrót, że po prostu
takiego połączenia Wi-Fi nie ma, no to po prostu się wykrzacza
i nie przestaje całkiem działać, więc to jest błąd, który będę musiał
zgłosić. Przepuszczam, że po prostu wszyscy, którzy to testowali,
musieli akurat to robić na laptopach i nie wiem, nikt chyba nie przewidział,
że taki problem może się pojawić niestety, więc jeśli macie komputery
stacjonarne i nie aktualizowaliście tego dodatku, to może na razie tego
jeszcze nie róbcie, a jeśli macie laptopy, a taki skrót by Wam się przydał,
no to polecam sobie ściągnąć.
Albo jeżeli macie komputery stacjonarne z kartą bezprzewodową,
bo ja na przykład taką mam u siebie.
A próbowałeś instalować ten dodatek w najnowszej wersji?
Chyba jeszcze nie, jakieś tam aktualizacje dodatków mi przyszły,
ale to chyba jeszcze nie był ten…
To jest wersja 2023.05 bodajże.
A nie, mam, to jest… to się odczytuje teraz z ósemką chyba.
Tak, i to Ci działa, rozumiem.
Tak, działa, właśnie sprawdzam.
Tak, siła sygnału 85%, nazwa sieci, jest, działa, działa.
Ale ja mam właśnie kartę bezprzewodową.
No właśnie, czyli jeśli macie Wi-Fi w komputerze czy właśnie
kartę wbudowaną czy na USB, no to możecie śmiało instalować.
Jeśli nie, no to warto się na razie wstrzymać.
Ja ten problem zgłoszę po audycji.
Jeśli dodatek zostanie zaktualizowany, ten problem zostanie naprawiony,
to dam znać, bo akurat to jest myślę bardzo przydatny dodatek,
więc postaram się tutaj zgłosić problem.
A propos NVDA, wspominałem ostatnio o kilku poprawkach,
które trafiły do wersji alfa, które mają NVDA przyspieszyć.
Były takie trzy poprawki.
Niestety, jedna z nich, chyba ta najbardziej istotna,
która powodowała, że NVDA szybciej reagował na zmiany focusa
po prostu w kontrolkach lub w foliach edycji,
musiała zostać wycofana w poniedziałek,
ponieważ okazało się, że powodowała problemy
z obsługą ekranów dotygowych.
Znowu tutaj przypadek funkcji, która może nie zapsuła się dla wszystkich,
ale były osoby, u których to powodowało problemy.
Niestety, Jamie nie miał na razie czasu,
żeby dokładnie problem zdebugować.
Na pewno do tematu wróci, ale w międzyczasie,
żeby to po prostu w NVDA dalej działało na urządzeniach,
które obsługują ekrany dotygowe,
ta poprawka została wycofana.
Dużo osób, niestety, to lamentuje,
bo faktycznie przyspieszenie jest dosyć istotne
i te pozostałe poprawki, czyli wsparcie dla WhatsApp
i niezawieszanie się, kiedy jakaś aplikacja przestanie odpowiadać, zostały.
Ale jeśli chcecie mieć najszybszą wersję NVDA,
a nie macie ekranu dotygowego,
to mogę podpowiedzieć, że ostatnia wersja alfa,
która jeszcze ma tę poprawkę,
to jest wersja alfa 28193.
Ona jest wydana w piątek zeszły
i na stronie snapshots.org
jeszcze ją możecie pobrać,
albo po prostu możecie trzymać do tej wersji stabilnej, wiadomo.
To są właśnie wersje alfa,
takie rzeczy czasami mogą się zdarzyć,
to są funkcje, które są testowane
i jak widać, nie zawsze też trafiają do wersji finalnej,
a przynajmniej jeszcze nie teraz,
bo tutaj było zapowiedziane zarówno przez Jamie’ego
i przez pozostałych programistów w NV Access,
że do tematu wrócą, bo tutaj akurat były istotne zmiany
i na pewno da się to wszystko pogodzić,
tylko po prostu nie było na to jeszcze czasu.
A na koniec coś dla tych, którzy lubią sobie pograć.
W zeszłym tygodniu wspominaliśmy o grze Survive the Wild,
gdzie się szukowały dosyć duże zmiany,
tutaj Tomek o tym mówił,
no i kilka dni później ta nowa wersja już się ukazała.
Zmian jest naprawdę dużo,
znajdziecie w komentarzu link, który przeniesie was do postu,
który wymienia te zmiany.
W dużym skrócie co się stało,
autor przepisał grę,
ona wcześniej była stworzona w języku BGT,
który jest taki dosyć znany język do tworzenia gier audio,
ale on był na kilka sposobów ograniczony
i nie był rozwijany, co bardziej istotne.
On po prostu przepisał silnik od zera,
wykorzystując komponenty do skryptowania,
których BGT używał,
dzięki czemu dużo części tego kodu mogła zostać,
ale też bardzo dużo rzeczy,
zwłaszcza jeśli chodzi o obsługę sieci,
bo to jest gra sieciowa,
zostały zaktualizowane silnik audio,
gra wykorzystuje Steam Audio,
więc tutaj mamy dźwięki binauralne, efekty,
więc bardzo fajne wrażenia.
Jest ułatwiona aktualizacja świata,
tutaj osoby, które tworzą treści do tej gry,
jakieś nowe zadania,
nowe postacie,
nowe miejscówki,
do których możemy się dostać,
będą mogły jeszcze bardziej ją skryptować
i to bez potrzeby restartowania serwera,
więc więcej treści do gry
mogło się szybciej pojawiać.
Więc to jest dużo zmian pod maską,
dużo pomniejszych zmian przedmiotów,
wszedł nowy system śledzenia przedmiotów,
który możemy sobie spersonalizować tych zmian.
W tym changelogu jest chyba ponad 100 na pewno,
ja ten changelog długo czytałem
i nie doszłem do końca.
Jeśli interesuje Was taka gra
w świecie postapokaliptycznym,
w którym po prostu musimy przetrwać dzicz,
dosłownie jak ta gra się nazywa,
po prostu zbierać zasoby,
polować na zwierzęta,
żeby po prostu coś zjeść,
palić ogień,
żeby nie zmarznąć w nocy,
no to warto się tą grą zainteresować,
zwłaszcza w tej najnowszej wersji,
która po prostu powinna działać
szybciej i sprawniej.
No i to wszystko.
Teraz coś takiego,
co zostało znalezione przez Pawła,
natomiast temat jest to bliski memu sercu,
czyli muzyka, sprzęt do tworzenia muzyki.
Słychać, ale dość cicho.
A, jasne.
Nie, bo ja się myślałem,
że jeszcze się może wetnę
z moimi drobnymi newsami,
jak jesteśmy przy tym.
I potem byśmy mogli przejść.
Ja też mam dosłownie kilka.
Po pierwsze, wypuszczona została
nowa aktualizacja oprogramowania
dla BrailleSense’ów 6 i 6 mini.
I tutaj dwie takie ważne zmiany.
Po pierwsze, aplikacja mailowa
otrzymuje wsparcie dla nowego
radiosensora.
Więc te nowsze konta Office 360
mogą działać.
A po drugie,
radio też zostało,
tak jak w SensePlayerze,
przestawione na katalog
radio browzera.
Więc od teraz rzeczywiście
można z tego korzystać.
Przebudowano pod tym kontem
też aplikację radiową.
No więc macie teraz w BrailleSense’ach
też dostęp do takiego katalogu,
który po jego, po dodaniu stacji
radio-profesor.info
tam pojawi się wtedy
ta stacja już w tym katalogu
i prawdopodobnie też w aplikacji,
bo domyślam się, że
dostęp do listy stacji
następuje po API.
Więc, no,
będzie to dość szybko następowało.
Po drugie, wyszła aktualizacja
zarówno Mony, jak i Springa,
czyli klientów odpowiednio
Mastodona i Twittera,
właśnie dla iOS-a, Maca.
I doszło tam parę poprawek
odnośnie VoiceOver.
Pewne rzeczy mają być lepiej czytane
albo troszkę inaczej.
Natomiast jedna zmiana,
która przykuła moją uwagę
to możliwość personalizacji tego,
co dzieje się po użyciu
magicznego stuknięcia,
czyli dwa razy dwoma palcami
na ekran.
I do tej pory zawsze było tak,
że otwierało się okienko
utworzenia nowego wpisu.
Więc czy ma być standardowe działanie,
czyli po prostu ma sobie działać
jako play, pauza.
Czy ma, tak jak to do tej pory było,
otwierać się okno tworzenia nowego posta.
Czy ma otworzyć się wyszukiwanie,
czyli przeszukiwanie właśnie
Mastodona pod kątem wpisów,
czy też Twittera.
Albo ma się otworzyć przełączanie kont.
No więc tutaj taka ciekawa,
bardzo, myślę, przyjemna zmiana.
Po trzecie, w ogóle,
jeśli mówimy też o Mastodon,
o Fediversum,
to pewne usprawnienia dostępności
też otrzymuje cały czas
taki nowy projekt Kalki.
Chyba tak się to czyta.
Jest to też taka platforma
oparta o Fediversum,
która jest taką trochę bardziej
platformą,
coś między mikroblogiem a blogiem.
Chyba dalej tam są wpisy
takie długości mikroblogowej.
Natomiast tam już jest
jakiś specjalny markdown.
Tam jest wszystko tak naprawdę.
Tak?
No właśnie.
To możesz powiedzieć,
bo ja nie wiem specjalnie
za wiele o tym.
Ja się tym zacząłem bawić
poniekąd troszeczkę.
To jest temat, który na pewno
będę musiał jeszcze zgłębić,
jeszcze jakieś poprawki
dostępności dodam.
Ale tam właśnie możemy pisać
posty takie jak w Mastodonie.
Zresztą one w innych aplikacjach,
które korzystają z ActivityPub
się wyświetlają.
Tylko tutaj możemy też oczywiście
podbijać, odpowiadać, cytować.
Tutaj mamy natywne wsparcie
dla cytowania.
Możemy, ale też właściwie
możemy reagować na ich różne
sposoby. Możemy różnymi emotkami
reagować, dowolnymi tak naprawdę.
Więc to jest coś, czego w Mastodonie nie ma.
Więc tutaj możemy tak bardziej
w negatorach po prostu reagować
różnymi buźkami.
Możemy tworzyć
sobie tak, ale właśnie
tak jak powiedziałeś, możemy też
sobie pisać tak zwane
wycinki, klipy.
I to zresztą mogą być dłuższe posty.
Możemy sobie ze wszystkiego właściwie
wycinki robić. One mogą być
publiczne lub prywatne, więc można
by to wykorzystać jako bloga.
Możemy pisać strony, które inne
osoby mogą też sobie
podglądać. Mamy nawet dysk.
Możemy do niego różne pliki
ładować i po prostu później
załączać albo zagnieżdżać na
tych stronach lub na tych wycinkach.
Więc tutaj można by sobie na przykład
audio, bo jak najbardziej pliki
audio są wspierane i się
wysiedlają po prostu podczas
nawigacji. Jest czat.
Możemy czatować z innymi
osobami na pewno na naszej
instancji. Nie wiem czy pomiędzy
różnymi instancjami. Tego akurat
nie testowałem, ale są rzeczy,
których na takim Mastodonie się
nie ma. To jest coś jak takie
własne osi czasu w innych
klientach. Możemy sobie
zaznaczyć z czego on ma posty
czerpać, czy z innych instancji,
czy z naszej lokalnej i nawet
sobie słowa kluczowe. Każdej z
tych anten możemy przypisać
ustawienia powiadomień i co
ciekawe to jest coś, co
myśleniowi się spodoba.
Mamy różne dźwięki. Każda
instancja może mieć swoje
dźwięki. Możemy je personalizować
i poustawiać na różne
z konkretnych anten, które
ustawiliśmy. Więc platforma
ma całkiem duże
możliwości.
A to może zastosować dźwięki też
z innych instancji?
Tego nie wiem. Wydaje mi się, że
to po prostu musi administrator
załadować tak jak
emotki niestandardowe na
Mastodonie można ładować.
Myślę, że z dźwiękami jest
podobnie.
A to klienty też mogą wspierać
te dźwięki? Jest jakieś
API pod to? Czy to tylko na
tej stronie?
Tego nie wiem. Ja tego testowałem
na stronie. To jest jedna
z rzeczy, które na razie jest
brakujące. Tak naprawdę
z tego co widziałem to
aplikacja wspierająca
kalki to jest jedna
na iOS i ona jest bardzo
słabo dostępna.
Natomiast projekt pracuje nad
apliką kompatybilną z
Mastodonem.
OK. To już by dużo
pomogło.
No i tak właśnie wygląda
Fediverse. Można takie różne
rozszerzenia sobie tworzyć
i projekty, które
naprawdę różne ciekawe rzeczy
też takie gadżeciarskie
robią. Fajnie, fajnie.
Zobaczmy jak to się jeszcze
dalej
rozwinie.
Natomiast tak.
Seeing AI również wypuściło
aktualizację.
Usprawnienia pod każdym
względem jak pisze
Microsoft w kwestii sztucznej
inteligencji, która aplikację
zasila.
Bo z jednej strony tryb
krótkiego tekstu powinien
od teraz lepiej odczytywać
tekst nawet jak go nie widać
w całości w obiektywie jak
jest pod jakimś dziwnym
kątem.
Testowałem.
U mnie dalej to nie działa.
Nie wiem na czym polega
ostatnio problem Seeing AI,
że on bardzo mało czyta
w tym trybie krótkiego tekstu.
Że mi nie czyta prawie
nic i to nie jestem
jedną osobą, która tak
ma, że po prostu
mogę tym aparatem
wisieć nad danym
opakowaniem, obiektem.
Mogę machać, przesuwać
wolno, szybko.
Nie jest czytane nic.
Oświetlenie też tu nie gra
roli.
Nie wiem.
Coś ta aplikacja jest
jakoś ostatnio nie chce
współpracować.
Ponoć też w trybie dokumentów
usprawniono wykrywanie
właśnie tabel,
nagłówków, innych elementów
formatowania.
Też w wykrywaniu
scen
i w opisywaniu zdjęć
te opisy obiektów powinny być
dużo bardziej
szczegółowe.
I rzeczywiście udało mi się
już jakieś
elementy z tekstem, że
przeczytał mi ten tekst.
Nie wiem, czy to wcześniej
robił.
Mam wrażenie, że rzeczywiście
są bardziej pogłębione
te opisy.
Teraz nie mam żadnych
przykładów pod ręką,
ale
wiem, że jakoś bardziej poszedł
w takie specyficzne
słownictwo.
Też w trybie wykrywania
kodów kreskowych
powinno to wszystko
lepiej działać.
Więc no tutaj
można potestować
Seeing AI,
bo aktualizacja się ukazała.
Po czwarte.
Brytyjska edycja magazynu
modowego Vogue
ukazała się w Braillu
i w wersji audio.
I ponoć od teraz
tak ma już wychodzić.
W maju postanowiono
wypuścić taką specjalną edycję,
gdzie na okładce
będą przedstawione
osoby ze świata mody,
które mają przeróżne
niepełnosprawności.
No i ponoć tutaj nawet
sam redaktor naczelny
jest z tego bardzo zadowolony.
No i od tego momentu
będzie można spodziewać się,
że właśnie Vogue brytyjski
będzie wychodził
w Braillu i audio.
Bardzo ciekawe,
czy inne edycje,
w tym i Polska,
też gdzieś tam podążą.
Po piąte.
Aplikacja androidowa.
To tutaj może ktoś będzie
w stanie przetestować.
From Your Eyes.
Aplikacja założona
przez programistkę z Turcji
o imieniu Zulay,
jeżeli dobrze pamiętam,
która jest jakoś
powiązana z Microsoftem.
Jest ambasadorką Microsoftu.
Ona też pomogła wtedy,
kiedy Seeing AI
miał taką aktualizację,
która bardzo gdzieś się tam
zintegrowała z Turcji.
W takim sensie,
że cała baza produktów tureckich
się pojawiła w opcji
rozpoznawania produktów,
że jakieś tam zostały
nawiązane umowy
z tureckimi operatorami,
że za ruch wygenerowany
aplikacją Seeing AI
nie będzie się płaciło.
Więc ona też jakoś
się w tym udzielała
i bardzo ona jakoś
z Microsoftem jest gdzieś związana,
chociaż nie pracuje chyba
dla nich jeszcze.
No i stworzyła wraz
ze swoimi programistami
aplikację From Your Eyes,
czyli aplikację do rozpoznawania,
oczywiście do opisywania obrazów
sztuczną inteligencją.
My takiej aplikacji
podajemy obraz
i ona zwraca nam
długi, szczegółowy,
taki dokładniejszy opis
wygenerowany przez
sztuczną inteligencję.
My sprawdzamy,
czy ta aplikacja,
czy ten opis nam się podoba.
Jeżeli nie,
to klikamy w odpowiedni przycisk
i taki opis jest
oraz zdjęcie są przesyłane
do wolontariuszy, którzy
i teraz nie do końca wiem,
czy oni mogą się też zarejestrować,
czy może się zarejestrować
w tej aplikacji,
czy po prostu
jest to ktoś zatrudniony
przez twórczynię tej aplikacji.
W każdym razie
taki wolontariusz otrzymuje
obraz i ten opis
i jest w stanie
nanieść jakąś poprawkę
i po pierwsze
taki poprawiony opis
jest odsyłany
do osoby niewidomej,
która o taki opis poprosiła,
a po drugie
jest to przesyłane
jako materiał treningowy
dla algorytmów
sztucznej inteligencji,
żeby te opisy
na przyszłość były lepsze.
Ponoć jest tam zaimplementowany
jakiś system tłumaczeń,
więc zarówno nasze zapytania
do wolontariuszy,
jak i odpowiedzi
są tłumaczone
na nasz język,
więc bardzo możliwe,
że te opisy obrazów też.
Aplikacja z tego co widzę
jest w Polsce dostępna,
można ją zainstalować
i się nią bawić.
Aplikacja jest darmowa,
może kiedyś się pojawi
na iPhona
i na razie nie ma planów,
żeby
użytkownicy końcowi
coś płacili.
Jakieś są pomysły różne
na modele biznesowe,
ale na razie nie jest to
obciążanie użytkowników.
Pobrałem aplikację
i będę testował.
Dobrze, no to czekamy
na wrażenia.
No to teraz właśnie
ten news
na temat
jam sandwich.
Tak, tak.
W zeszły weekend
odbyła się konferencja,
nawet nie konferencja,
tylko takie targi
wszelkiego rodzaju
syntetycznych instrumentów,
syntezatorów
w Berlinie.
Nazywa się to
Super Booth Synth Messe
i była tam moja znajoma
Niki Matita.
Swoją drogą wygooglujcie sobie,
bo jest to bardzo ciekawa osoba.
Jest artystką dźwiękową.
Jest to osoba widząca,
która tak bardzo weszła
w dźwięk jako medium.
Jest DJ-ką,
jest autorką
audycji radiowych,
które są grane
właśnie w berlińskich
tych wolnych
rozgłośniach radiowych.
Coś, co się na przykład
nazywa
La Passante Ecoutante
und Spazieren
po niemiecku,
czyli to słuchając
i spacerując
po prostu audycje,
w których
obiera ona sobie
jakiś motyw
i pod ten motyw
tworzy nagrania.
Gdzieś spaceruje
po jakimś mieście,
po jakimś kraju
i nagrywa po prostu
dźwięki ulicy
z minimalnym
bardzo komentarzem.
Więc
wiedząc jaki ma być motyw,
można po prostu
się wsłuchać
i sobie wyobrazić
jakby dźwiękowo
to miejsce,
w którym ona przebywa.
Czasem posłuchamy
jakichś ulic Pragi,
czasem posłuchamy
jakichś cmentarzy
ofiar Holokaustu,
czasem posłuchamy
jeszcze jakichś innych.
Raz mieliśmy odcinek właśnie
bo w ten sposób
się poznaliśmy w Innsbrucku.
Więc gdzieś na Mixcloudzie
to jej audycje są.
Warto sobie
w ogóle wygooglować
jej twórczość.
I jest to właśnie osoba,
która przez te zainteresowania
takie radiowo-dźwiękowe
również bardzo, bardzo
często myśli
o osobach niewidomych.
A jako, że się znamy,
no to podsyła mi czasem
przeróżne
takie ciekawostki
dźwiękowe
i rzeczy, które mogłyby
nam się przydać.
Więc tutaj wielkie dzięki.
I właśnie teraz
będąc na targach
trafiła na stoisko
firmy ElectroJam,
gdzie jej założyciel
Brett Humphrey,
który sam jest
bardzo mocno schomowidzącym
albo wręcz już nawet
niewidomym muzykiem,
postanowił stworzyć
sobie sekwencer,
tak zwany euro-rock
sekwencer,
czy tam euro-rock,
groovebox,
to się chyba też nazywa.
Nie, to znaczy
ja o tym przeczytałem
już na stronie.
Tak, to może Tomku
ty powiedz, czym jest
samo urządzenie,
bo ja wiem tylko,
że ono mówi,
jak się ustawia
pewne parametry,
że ma kartę pamięci,
ma jakiś interfejs
chyba nawet webowy
do sterowania tym,
coś tam.
To znaczy tak,
o webowym interfejsie
nie słyszałem,
natomiast
chodzi o
systemy modularne.
Te systemy modularne
są w kilku różnych
formatach, jakby
podmiary tych modułów,
które się łączy.
To znaczy,
chodzi o to,
że normalny syntezator,
no to jest jedno pudełko,
w którym jest,
jeżeli mowa o
syntezatorach analogowych,
no to są oscylatory,
filtry,
jakieś LFO,
obwiednie,
i tak dalej,
i tak dalej,
i klawiatura.
Natomiast systemy modularne,
to jest,
to są takie,
no to jest coś takiego,
co budujemy sobie
syntezator
z takich powiedzmy
klocków.
Jeden klocek
to jest filtr,
inny to jest oscylator,
jakiś LFO,
jakiś
generator obwiedni,
coś tam jeszcze.
To wszystko się łączy
odpowiednio.
Jeszcze wzmacniacz,
żeby podłączyć to
przynajmniej pod głośniki,
słuchawki,
wszystko jedno.
No i jednym z tych
elementów
takiego systemu modularnego
może być
sekwencer.
I większość takich
elementów
systemów modularnych
jest dla niewidomych
dość dobrze
dostępna,
dlatego, że
tam jest z reguły
kilka pokręteł,
kilka przycisków,
no bo taki
pojedynczy oscylator,
no to ma na dobrą sprawę
dosłownie kilka parametrów,
które można zmieniać.
Więc tam niepotrzebne
jest żadne menu,
niepotrzebne są
ekrany dotykowe,
chociaż nie wiadomo,
co będzie
kiedyś,
ale na razie
póki co
jest dużo
przynajmniej takich
oscylatorów,
które nie mają
żadnych
niedostępnych dla nas
elementów.
Najgorsze
jak tłumaczył
właśnie ten
założyciel
tego
tej firmy,
dla niewidomych
są sekwencery,
dlatego, że one
często mają jakieś
menu,
jakieś
tego typu
różne rzeczy
i no
dość trudno
jest się przez to
jakoś tam
prze
jakoś przeklikać
bez wzroku.
No i on stworzył
urządzenie
typu właśnie
sekwencer
zdaje się,
że on jest
on ma chyba
16
kroków
dość mało
jak na
dzisiejsze
standardy
no i
ten sekwencer
ma
osobne
wyjście
na to,
żeby
mówił
co w tej chwili
wciskamy
i co się wtedy
w związku z tym
dzieje.
To jest
generalnie
sekwencer właśnie
do sterowania
takimi bardzo
analogowymi systemami,
więc on
nie ma chyba
wyjścia nawet
MIDI
tylko tak zwane
wyjścia CV
czyli
no to są
takie
to jest taki
analogowy sposób
sterowania
różnymi
syntezatorami,
który był
wynaleziony
i używany
jeszcze przed
MIDI
jeszcze w latach
siedemdziesiątych
no i
no
mamy
znaczy mamy
mamy miedź
jeżeli to
rzeczywiście
zostanie
gdzieś tam
jeżeli to będzie
w sprzedaży
no to
będziemy mieli
dostęp
jeżeli ktoś
robi takie rzeczy
jak
jak korzystanie
z
czy muzykę na
syntezatorach
analogowych
modularnych
no to
będzie tam
można skorzystać
z tego
z tego
sekwencera.
Na stronie jest
podanych
na razie kilka
danych,
że to ma
szesnaście
wyjść,
dość dużo
CV właśnie
i jakichś
jakichś
syntezatorów
analogowych
no i
no i tyle.
Na razie wiem,
że to jest takiego
bardzo szybkiego
przeglądu
strony,
który zrobiłem
gdzieś tam
tuż
przed audycją.
Tam na stronie
jest film
demonstracyjny
też jeśli ktoś
by chciał posłuchać
jak to brzmi
tam autor
z tego urządzenia
właśnie pokazuje
jak to urządzenie
jest podłączone
do różnych
modułów
odpowiedzialnych
na różne
wymienienia
parametry
można usłyszeć
jak to wszystko
współgra ze sobą.
Tak.
Zakres cenowy
jakby półka cenowa
w którą tu autor
celuje to
między 400
a 800 dolarów
no i na ten moment
urządzenie jest
z bardzo
wczesnym prototypem.
Pod koniec roku
twórca
byłby otwarty
na to
żeby
do jakichś
10-20 osób
które się zgłoszą
udostępnić
jakieś prototypy
takie już
bardziej zaawansowane
no i początek
przyszłego roku
to byłoby
wejście
już na rynek
komercyjny
z produktem
więc warto się tam
zwrócić do niego
i przez tą stronę
skontaktować
bo może to
wy będziecie
tymi osobami
Znaczy tak
tylko, że
tutaj warto mieć
jakiś syntezator
który będzie
wspierał
chociażby tego rodzaju
sterowanie
jak wejście
z CV
a to wcale nie jest
takie oczywiste
bo to mają właśnie
jakieś syntezatory
analogowe
czyli systemy modularne
a to już
zdecydowanie
nie są
tanie zabawki
Tak
a z drugiej strony
mogę tylko podsumować
jeszcze całe targi
że ten sprzęt
się bardzo
na tych targach
z tego co mi
Niki mówiła
wyróżniał
bo większość
innych sprzętów
nie wiem czy też
sekwenserów
czy innych komponentów
tych syntezatorów
właśnie już miała
ekrany dodatkowe
i ten to był
jedyny taki
rzeczywiście
który tą dostępnością
się gdzieś
wyróżniał
Syntezatorzy
jak
jak patrzyłem
to
pisały
przynajmniej niektóre
portale takie
technologiczne
znaczy
technologiczno-muzyczne
które
właśnie często
piszą o
różnych
wydarzeniach
muzycznych
jeżeli są jakieś
targi muzyczne
to też piszą
o różnych rzeczach
które się tam pojawiły
i
no o tym też
napisali
więc
dla mnie
to już tam
abstrahując od tego
czy to się uda
czy to się nie uda
to jest po prostu
kolejny produkt
który może
nawet jeżeli
nie wyjdzie
to być może
ktoś
z branży
w ogóle
pomyśli
o tym
że
również są takie
osoby
niewidome
które
tworzą muzykę
i możliwe
że coś tam
można by
dla nich zrobić
ja to trochę
też mam taką
nadzieję, że
bo
w ogóle od kilku
lat
robi się taki
wysyp
można powiedzieć
przynajmniej
może nie wysyp
ale przynajmniej
no coraz więcej
się mówi o
nowościach
muzycznych
dla niewidomych
i tak jak
jeszcze
kilka lat temu
to powiedzmy
był jeden
news
na 2-3 lata
że ktoś
coś zrobił
dla niewidomych
i
to było
no to było
bardzo szeroko
komentowane
gdzieś tam w środowisku
tak teraz
rzeczywiście
tylko jakiś czas
tu jakiś
juice
czyli ten
interfejs do tworzenia
wtyczek
VST
teraz
Native Instruments
kolejne produkty
udostępnia
i tak dalej
no jeszcze tam
kilka
kilka newsów
Ableton
tak
Ableton
Ableton
no właśnie
więc teraz
no sporo jest
tych
tych newsów
muzycznych
i też mi się wydaje
że to może mieć
jakieś
przełożenie na to
że
ci ludzie
którzy
zaczynali
tworzyć muzykę
elektroniczną
w latach
70
oni wtedy byli
dość młodzi
no teraz to są ludzie
po 70
czyli
no to jest ten okres
kiedy
szwankuje
wzrok
słuch
pojawiają się
jakieś inne
niepewnosprawności
a jeszcze by się
chciało
a jeszcze by się
chciało było
nie było
coś jednak robić
więc
no i te wszystkie
wartości
przecież
Jean-Michel Jarre
no dobra
Wangelis już nie żyje
ale Jean-Michel Jarre
właśnie jakiś
nie wiem
gitaro chyba jeszcze żyje
no no
jest kilku
kompozytorów
takich znanych
na całym świecie
muzyki elektronicznej
którzy jeszcze są
między nami
i właśnie
oni zaczynali
w tych
w tych latach
70
i być może
będą mieli jakiś wpływ
na to
co się teraz
w którym kierunku
to będzie
szło
i właśnie
tych newsów
związanych
z tworzeniem muzyki
które było
nie było
może nam
zapewnić
jakąś pracę
która nam przyniesie
jakieś dochody
no będą miały miejsce
tak
oglądam na
naszą poczekalnię
na zoomie
i widzę, że tu
mamy słuchaczy
którzy chcieliby
z nami
porozmawiać
jest
Borkow
czyli jak dobrze pamiętam
z poprzedniej audycji
nasz słuchacz
Borys
witamy Cię
tylko jeszcze
włącz sobie mikrofon
żebyśmy mogli
porozmawiać
z Tobą na antenie
a to nie jest
ostatnia osoba
która czeka
żeby tu z nami
pogadać
więc jeszcze chwilę
szansa dla naszego
słuchacza
a jeżeli się teraz
o
udało się
witaj
halo
witaj
mam opinię
co do STW
ten stary system
według mnie był
wygodniejszy
o ciupinkę
STW czyli
Survive the Wild
dla osób, które
mogłyby się nie zorientować
okej
tak
że to jest
ten system
śledzenia przedmiotów
jest
ten starszy jest
o
wygodniejszy bo
tam wystarczyło, że
naciśniesz
jeden klawisz
a już masz
odpowiednią kategorię
a tu
trzeba jednak się
przemieszczać
troszeczkę
więcej
okej
to może gracze
się dowiedzą
którzy grają
tak
za
kilka dni
kiedyś mówiono
w marcu o grze
World Empire
2027
i teraz
wprowadzą
online multiplayer
a już jest na
androida
dołączcie na
discord
za to
zobaczycie link
i też
wrzucę w komentarzu
postaram się
pewnie
trzecia
sprawa
pytanie
czy ktoś wie
jak budować
budynki w
Stardew Valley
to jest temat
którym muszę się
jeszcze zainteresować
właśnie Stardew
to jest gra
którą znajomi mi mówią
od miesięcy
żebym w końcu
w końcu zagrał
ale jeszcze
niestety nie miałem czasu
żeby tego moda
zgłębić
okej
czy coś jeszcze?
no w sumie nie
i
ostrzeżenie
które było tydzień temu
nadal obowiązuje
okej
jak rozumiem dotyczące
tych zakupów
tak?
tak
na konsoli
więc uważajcie
okej
dzięki w takim razie
za telefon
pozdrawiamy
i odbieramy
tymczasem
kolejnego
słuchacza
tym razem
jest z nami
Krzysztof
no więc Krzysztof
jest zapraszany
i witamy
witajcie, witajcie
dawno mnie nie było
ale jestem
no ja tutaj się chciałem
włączyć do dyskusji
którą
Pawle ty wywołałeś
odnośnie
Sing
Singaia
no niestety jestem
kolejną osobą
która potwierdza
to co ty mówiłeś
że niestety
nie działa
to rozpoznawanie
tekstu tak dobrze
jak powinno
ostatnio
chciałem sobie rozpoznać
właśnie
słuchajcie
kapsułkę do
w ekspresie
którą mam do kawy
nie?
jaką mam kawę w kapsułce
a ta kapsułka
w ekspresie
Chibo
wygląda mniej więcej
jak
te śmietanki
takie
jednorazowe
które kupujemy
zafoliowane
te takie mleczka
do kawy
okrągłe
mniej więcej tego kształtu
i ona ma taką folijkę
na
brązową
podobno
z napisem
jaka to kawa
no i oczywiście
Singai tego nie rozpoznał
pomimo że
tym telefonem
różne
że tak powiem
wigibasy robiłem
to to to
to nie zadziałało
i tutaj
podziękowania wielkie
kieruję do
Piotra Witka
który mi
na pryw
polecił
Sing Assistant
Home
bo ta aplikacja
powiem wam
jestem w szoku
pozytywnym
bardzo się
poprawiła
jeżeli chodzi o rozpoznawanie
szybkie tekstu
jest haptyka
podczas
rozpoznawania
tekstu
i
taka delikatna muzyczka
też
ale rzeczywiście
szybciutko rozpoznało
co to jest
za kawa
że to jest
espresso
barista
i
caffissimo
więc
polecam
wszystkim
Sing Assistant
Home
na
iOS
bo
naprawdę sobie
świetnie radzi
tak samo ze skanowaniem
dokumentów
też są
podpowiedzi
VoiceOvera
i
polecam
Czy mówisz Krzysztofie
to rozpoznawanie
tych kapsułek
przeprowadziłeś przez
rozpoznawanie
tekstu czy
kodów
tekstu
bo to są
ok
i powiem ci
że bez
problemu
mało tego
pochodziłem z nim
po kuchni
i nawet nie wiedziałem
że mamy w domu
MasterCook
co przeczytał
to bez problemu
że
MasterCook
jeszcze jakieś inne urządzenia
mi zaczął odczytywać
jak
nazwę film
tak że naprawdę
no
jestem pod wielkim wrażeniem
tego
tej aplikacji
bo
bo naprawdę
wcześniej sobie to nie radziło
natomiast
teraz
jest o wiele lepsza
od SingAja
także
polecam
Co jeszcze?
Tutaj do Natalii
która
mówiła odnośnie tych
aplikacji
Coleo
i do nawigacji
to
to jest właśnie tak
w zależności
kto do czego
jaką aplikację
do nawigacji
potrzebuje
to jest to co mówiliście już
tutaj i fajnie by było
też w sumie to jakby
w jedną całość
taką zebrać
jakby
na tej zasadzie
co ty Pawle mówiłeś
żeby
żeby pokazać
jadę do tego miejsca
z tego punktu A
do punktu B
i tak dalej
natomiast ja
używam osobiście
i bardzo sobie
ochwalę
Lazario
do takiego
poruszania się
na przykład
nie wiem
wsiadacie z autobusu
jedziecie gdzieś
i chcecie wiedzieć
jakie są naokoło
nas punkty
żeby wiedzieć
gdzie wysiąść
albo do busa
jak gdzieś jedziemy
gdzieś busem
no to też
też fajnie się sprawdza
bo do nawigacji
pieszej to
szczerze mówiąc
tam jest
niby to wyznaczanie
trasy
ale nie wiem
czy ktoś z Was
spróbował
jak ona to działa
czy nie
w Lazario
to jakoś bazowało
na mapach Google
mi się nie udało
z tego efektywnie
skorzystać
nie mówię, że to jest złe
mi się nie udało
jakoś
kiedy ja to
ostatni raz testowałem
te jego wskazania
były tak jakoś
mało precyzyjne
raz mówił na południe
wiem, że to zależy
od opcji
od jakichś tam
ustawień
od jakichś
konkretnych uwarunkowań
ale on czasem
używa kierunków świata
czasem kierunków
zegarowych
mam wrażenie, że
siedłem zgodnie
ze wskazaniami
a on nagle
stwierdzał, że w ogóle
jestem z innej strony
niż powinienem
więc
jakoś nie mogłem
się temu zauważyć
ale też nawet nie próbowałem
czyli nie tylko takie chodzki
klocki ja miałem też
bo też próbowałem
Pawle i też mi tak właśnie
pokazywała
na tej nawigacji
pieszej
więc tak dziwnie
trochę działało
no bo
Sing Assistant Move
to ja
musiałbym
ktoś to pokazać
i przejść ze mną
trasę
namacalnie
pokazać
jak się właśnie
tą aplikacją
obsłużyć
bo szczerze mówiąc
poległem
i
może jestem
za mało zaawansowany
do niej technicznie
ale po prostu
no
nie umiem jej ogarnąć
jak rozumiem
słuchałeś Krzysztofie
podcasta tego długiego
który zrobiliśmy
z Sławkiem
tak
no
to jest aplikacja
taka już naprawdę
dla trochę grzebaczy
trochę takich
użytkowników
którzy wiedzą
czego chcą
od nawigacji
i umieją sobie to ustawić
natomiast właśnie
Kamil też bardzo
dużo tłumaczy
różnych zagadnień
Kamil Midzio
a propos
seeing assistanta
mów również
więc
warto śledzić ten blog
o którym mówił Tomek
i
tam będą się pewnie pojawiały
jakieś materiały
dotyczące
konkretnych zagadnień
Także
jakby coś
to sobie to Natalio
przetestuj
Lazalio też
polecam
bo fajnie działa
gdzie jesteśmy
w przestrzeni takiej
gdzie
potrzebujemy wiedzieć
co jest dookoła nas
i jakby
gdzie wysiąść to
ona w czasie rzeczywistym
też
też nam mówi
i tak samo
podobno jak
NaviOpta
z tego co słyszałem też
ale nie wiem czy ona jeszcze
jest aktualizowana
ale wiem, że jest
też
Tam chyba się dzieje
minimalnie
ostatnio nawet parę osób
to testowało
Paulina zdaje się
która dzisiaj z nami nie ma
jakoś tak sobie
upodobała tą aplikację
też chyba
chyba tak
Tak
a jeszcze co do
Eurowizji
i takie moje pytanie
czy
no bo tak też
o Eurowizję śledziłem
no niestety
myśmy wylądowali
gdzieś my wylądowali
no to dziewiętnaste miejsce
no
mogło być lepiej
no ale cóż
Też byłem zdziwiony
bo utwór był
nie dość, że promowany
przez wiele stacji radiowych
nie tylko w Polsce
i do tej pory jest grany
nawet dzisiaj
i jest wpadający w ucho
więc
Tak, mnie też zdziwiło
to, że
żeblanka aż tak nisko
Tak
Nie spodziewałem się wygranej
nie, nie, nie
zdecydowanie nie
Oczywiście, że nie
ale
ale my ustawialiśmy
dwunaste miejsce
najdalej czternaste
tak wewnętrznie
jak oglądaliśmy
A też trzeba przyznać, że
oczywiście ja tego wizualnie nie ocenię
ale ponoć dużo pracy było włożone
w jej choreografię
No właśnie
Tego też nie wiem
Tego też nie wiem
Właśnie
Aha
Między kwalifikacją było bardziej
Przepraszam
Mhm
No
I pytanie, czy była na przykład
przez TVP audiodeskrypcja
Nie
No nie
Właśnie nigdy nie ma
to jest ten problem, że
inne kraje robią
tą audiodeskrypcję
my jeszcze jej nie robimy
do Eurowizji
I powiem szczerze
te komentarze
które teraz
są realizowane przez
Aleksandra Sikorę
i Marka Sierockiego
no w porównaniu do tego
jak komentował kiedyś
Artur Orzech
Nie
Są zdecydowanie
mniej informacyjne
One w zasadzie nie mówią nic
Panowie po prostu mówią o tym
że mają nadzieję
że będzie dobrze
mają nadzieję, że będzie fajnie
Z wypowiedzi Artura Orzecha
to można było poznać jakąś historię
zdecydowanie więcej różnych
ciekawych informacji
też często była mowa
na temat tego
jaka jest punktacja
jeżeli ktoś na przykład
nie był w stanie czegoś zrozumieć
i no tu naprawdę
mimo tego, że ich jest dwóch
to radzą sobie gorzej
od Artura Orzecha
który był jeden
i musiałbym pomóc
To się Michale zgodzę z Tobą
Wracam do tego co mówię
jeśli znacie angielski
naprawdę gorąco
polecam BBC Radio 2
na przykład można przez stronę oglądać
nie było blokady
Bałem się, że to będzie
jakaś gałoblokada
ale nie
na szczęście nic nie było
Tam to prowadzi
Scott Mills
i jeszcze jakiś
jeden znany DJ
ale tam właśnie dużo
takich komentarzy było
właśnie na temat tego
jak takich ciekawostek
na temat tych różnych
artystów
ale też jak był
ten
to show
podczas głosowania
kiedy to wyszli
reprezentaci poprzednich lat
w Eurowizji
tam było dużo opisywane
nie powiem, że wszystko
bo potem jeszcze
oglądałem to z siostrą
i ta siostra jeszcze to powiedziała
ale dużo, dużo
byłem w stanie sam wiedzieć
przynajmniej na przykład
kto wychodzi
bo to też nie było
tak oczywiste
lub tam była taka sytuacja, że
była zaproszona osoba
tam przed 30 lat do tyłu
która reprezentowała
Anglię
chyba właśnie ktoś z Liverpoolu
i tam napisy się wyświetlały
na scenie
i to na przykład
było przeczytane
przez
pana Millsa
w BBC
więc no tutaj
no i punktacja też
właśnie jak były te
niższe punkty
od jury
rozdawane
przy każdych połączeniach
to on też to czytał
No tak, jeszcze nie ma
osobista audiodeskrypcja
Dopóki BBC nie weźmie do radia
Grahama Nortona
to
to taki
dla osób, które nie wiedzą
prezenter właśnie
BBC, który Eurowizję
w telewizji przedstawiał
brytyjskiej
ale
znany był z bardzo
sarkastycznego takiego
poczucia humoru
naszemu
Arturowi Orzechowi
też się zdarzały
żarciki
przeróżne
i to potem się gdzieś cytowało
ale on ponoć
bardzo, bardzo na tym
się wybił, że dość
sarkastycznie
i stał się taką legendą
Eurowizji w Wielkiej Brytanii
jak Brytyjczycy
Eurowizji
na ogół
raczej nie śledzą
tak, Graham Norton
jest właśnie taką postacią
dla której te półfinały
i finał się ponoć ogląda
no on teraz był zaproszony
akurat jako gość
jako część
występu
w Liverpool
No tak, ale słuchajcie
swoją drogą
to
TVP się promuje
że robią audiodeskrypcję
do filmów
wiadomo
ojciec Mateusz ma audiodeskrypcję
jakieś jeszcze inne filmy
no to
takie wydarzenia
jak Eurowizja
według mnie
mecze mają audiodeskrypcję
no to
to też powinno mieć
no bo to
to też jakby
świadczy o stacji
znaczy
wiadomo
jak jest
jak jest
nie będziemy tu wchodzić
w jakąś tam politykę
ale po prostu
no
sami wiecie jak jest
No byłoby też fajnie jakby
zaczęli o dostępności
aplikacji swoich
bo nie każdy ma
telewizję do ziemi
No i tak
I dostęp
i dostęp
ale to już możemy
temat rzeka
archiwalnych materiałów
z audiodeskrypcją
czyli film poleciał
gdzieś
on jest dostępny
w jakimś VOD
niech on będzie też
swoją ścieżką deskrypcyjną
Tylko że no
dokładnie
też nie ma na VOD
z audiodeskrypcją
także szkoda
ale no
może coś się zmieni
no nie nam
musimy czekać
i zobaczymy
To chyba tyle
ode mnie
na dziś
bo żadnych
wniosków na razie nie mam
Ok Krzysztofie
no to dzięki za telefon
w takim razie
Dzięki
Trzymajcie się
Hej
Cześć
No to w takim razie
nowy temat
czyli co nowego
w dostępności Androida
Tak jest
bo odbyła się
konferencja
Google I.O.
ona właściwie
odbyła się w zeszłym
tygodniu
w środę
już troszeczkę
wspomnieliśmy o tym
bo ona się
odbywała
równolegle z tym
jak my
prowadziliśmy
tyflo przegląd
no ale właśnie
przy okazji tego
po takiej
głównej konferencji
o której
powiemy troszeczkę
później
była osobna
osobny
materiał
What’s new
in Android
Accessibility
będzie link do tego
będziecie mogli
sobie
obejrzeć
to jest krótki
20 minutowy materiał
podzielony taki
na dwie części
w pierwszej części
o takie ogólne
nowości
dla powiedzmy
użytkowników
a w drugiej
nowości
dla programistów
opowiem o obu
bo wydaje mi się
że obie są
dosyć istotne
po pierwsze
jeśli chodzi o
samego
samego
Androida
tutaj trochę rzeczy
było wspomniane
które wcześniej się
pojawiły
bo tutaj
Nimer Jaber
wspominał na przykład
o tym że
Talkback
dostał uproszczony
dostęp do czynności
poprawianie pisowni
w polach edycji
ale na przykład
jeśli chodzi o
obsługę Brailla
to mało
pojawiają się
sterowniki
do nowych
monitorów
które korzystają z
tego standardu
HID
niestety nie
mogą tego
zrobić dla
nas
pojedynczo
są dodawane
sterowniki
na początek
zostały na przykład
dodane do
monitora NLS
eReader
to jest
linijka
która jest
dystrybuowana
przez
amerykański
odpowiednik
naszego
DZDN
więc no
akurat może
dla nas nie jest
tak istotne
ale na przykład
inne monitory
które z tego
standardu
korzystają
to są na przykład
nowe
które działają
na USB
jeszcze nie działają
z bluetoothem
ale właśnie
te sterowniki
do bluetootha
są pomału
dodawane
to jest jedna
nowość
a zostając przy
Braillu
to klawiatura
braillowska
doczeka się
skrótów
które pozwolą nam
zaznaczać
tekst i
poruszać
kursorem z
poziomu
klawiatury
braillowskiej
w Talkbacku
która też
wspiera
język polski
braillowskie
na androidzie
też takie funkcje
miały
nie wiem czy ktoś
z was wie
mniej więcej
Talkback
takie funkcje
też będzie oferował
tutaj było właśnie
pokazane jak
Nimer
pracował nad
listą zakupów
tam niechcący
coś dwa razy
wpisał
mógł sobie
kursor
w odpowiednie miejsce
przenieść
zaznaczyć tą
linijkę
i skasować
bez opuszczenia
tej klawiatury
braillowskiej
więc myślę
że tak
jest
i dlatego
też wiele osób
na androidzie
nie chciało
korzystać
albo niechętnie
korzystać z tej
klawiatury
Talkbacka
wbudowanej
bo właśnie
nie ma tych
gestów do
nawigacji
manipulacji
tekstem
a teraz
nie będą.
No właśnie
będą i będą
w Talkbacku
14 ale to
nie będą
ograniczone
do Androida
14 więc tutaj
spokojnie
jeśli chodzi o nowości
w dostępności
w Androidzie
bo np. dla
osób
nierozsłyszących
np. pojawiło
się wsparcie
tak jak
iOS już długo
takie funkcje
oferował
na lepszą
współpracę
z aparatami
słuchowymi
tak jak na
iPhonie
będziemy mogli
z poziomu
Androida
sobie sterować
tymi urządzeniami
lepiej
będziemy mogli
sterować
jaki dźwięk
ma być wysyłany
w jakieś
sytuacje
gdzie dźwięki
powiadomień
będą wychodziły
na głośnik
telefonu
rozmowa
na nasz
aparat słuchowy
a muzyka
na głośnik
bluetooth
więc będziemy
mogli
sobie ten dźwięk
rozdzielać
lepiej
a też
jeśli nie
będziemy
słyszeć
tych powiadomień
też
będziemy
mogli
sobie
włączyć
opcję
żeby lampa
mogła
wyłączyć
dźwięk
na
nasz
aparat
z
poziomu
Androida
14
to jest
poziom
api
34
i to
nas jak
najbardziej
może
dotyczyć
bo
pojawiły
się takie
trzy
nowe
api
które
mogą być
istotne
po pierwsze
do wykonania przelewu
no i niestety
często
jakieś złośliwe
oprogramowanie
na Androidzie
wykorzystywało
api
dostępności
żeby
po cichu
sobie z naszego
konta
jakieś pieniądze
przelewać
co będziemy
mogli
zrobić
w Androidzie
14
będziemy
mogli
oznaczać
całe
widoki
lub
poszczególne
kontrolki
więc nawet
jeśli
mamy
w
Androidzie
14
to
możemy
w
Androidzie
13
w
Androidzie
13
w
Androidzie
13
w
Androidzie
13
w
Androidzie
13
w
Androidzie
13
w
Androidzie
13
w
Androidzie
13
w
Androidzie
13
w
Androidzie
13
w
Androidzie
13
w
Androidzie
13
w
Androidzie
13
w
Androidzie
13
w
Androidzie
13
w
Androidzie
13
w
Androidzie
13
w
Androidzie
13
w
Androidzie
13
w
Androidzie
13
w
Androidzie
13
w
Androidzie
13
w
Androidzie
13
w
Androidzie
13
w
Androidzie
13
w
Androidzie
13
w
Androidzie
13
w
Androidzie
13
w
Androidzie
13
w
Androidzie
13
w
Androidzie
13
w
Androidzie
13
w
Androidzie
13
w
Androidzie
13
w
Androidzie
13
w
Androidzie
13
w
Androidzie
13
w
Androidzie
13
w
Androidzie
13
w
Androidzie
13
w
Androidzie
13
w
Androidzie
13
w
Androidzie
13
w
Androidzie
13
w
Androidzie
13
w
Androidzie
13
w
Androidzie
13
w
Androidzie
13
w
Androidzie
13
w
Androidzie
13
w
Androidzie
13
w
Androidzie
13
w
Androidzie
13
w
Androidzie
13
w
Androidzie
13
w
Androidzie
13
w
Androidzie
13
w
Androidzie
13
w
Androidzie
13
w
Androidzie
13
w
Androidzie
13
w
Androidzie
13
w
Androidzie
13
w
Androidzie
13
w
Androidzie
13
To ja teraz zaglądam do naszych komentarzy.
Już jakiś czas temu pojawiła się u mnie
prywatnym kanałem wiadomość od naszego słuchacza Dawida,
który przysłał mi informację na temat aktualizacji BlindShell’a,
która u niego pojawiła się dziś około godziny 19.
I są tu pewne nowości.
Na ekranie głównym mamy teraz informację o stanie naładowania baterii.
Oprócz tego mamy wsparcie dla klawiatur zewnętrznych, klawiatur bluetooth.
No i jeszcze, z tego co napisał Dawid Messenger,
kiedy otrzymujemy wiadomość, oprócz tego, że dostajemy powiadomienie syntezą mowy,
też oznajmiam nam ten fakt za pomocą tego swojego charakterystycznego
i znanego myślę, że większości dźwięku.
I jeszcze mamy jeden komentarz, tym razem z YouTube’a.
Magdalena napisała, w Seeing AI często warto użyć trybu rozpoznawania produktów
zamiast rozpoznawania tekstu i wtedy są lepsze efekty.
A to dziękujemy bardzo za tę odpowiedź.
To zależy też, jaki produkt i co i w ogóle.
Po pierwsze, ja zasadniczo lubię ten kanał,
bo wtedy rzeczywiście jest skanowany kod, porównywany jest to z bazą
i dostajemy dokładnie nazwę produktu.
I to jest fantastyczne jak działa.
Gorzej jak nie działa i mi się już na przykład zdarzyło,
że produktów po prostu nie ma, zwłaszcza polskich takich typowo.
Jak one jeszcze są, chociaż teraz jest dużo lepiej niż było kiedyś,
ale jak to są produkty jakichś firm zagranicznych,
to one się pojawią bez problemu.
Jak są to produkty firm polskich, to na dwoje babka wróżyła.
A zdarzało mi się też, że skanowałem produkty zagraniczne
i wydaje nawet, że jakieś dość popularne,
a wyskoczyło mi coś kompletnie innego.
Jakiś w ogóle produkt z innej działki.
Ja wybrałem produkt spożywczy, jakiś słodycz był czy napój,
a zwracało mi jakieś urządzenie przykładowo.
Więc też w ten sposób gdzieś tam się zdarzyło mi naciąć,
ale zasadniczo tak.
To jest fajny kanał wtedy, kiedy on rzeczywiście działa.
To przechodzimy w takim razie do newsa
na temat listy przebojów tworzonych przez osoby niewidome,
czy tam w ogóle z wadą wzroku.
Tak, Low Vision Charts i jak słyszycie Low Vision,
to możliwe, że już wiecie do czego to nawiązuje,
no i się nie mylicie, do konkursu, który my transmitowaliśmy w zeszły piątek
i się on odbył, International Low Vision Song Contest.
Jeżeli jeszcze nie słyszeliście tej transmisji, to zachęcamy,
bo przez około 3 godziny tłumaczyliśmy to wydarzenie dla was na język polski.
Byliśmy świadkami zwycięstwa Ukrainy.
Mieliśmy możliwość też porozmawiać z naszą reprezentantką Zuzią Mulec
i z Rokiem Mulcem, który również ją w tworzeniu jej piosenki konkursowej wspierał.
Właśnie od Zuzi mamy tą poradę i informację o tej inicjatywie,
którą właśnie teraz podrzucam, czyli Low Vision Charts.
Parę osób, które nie do końca jestem teraz pewien,
czy związane były z samym konkursem, czy po prostu chętnie go obserwowały,
właśnie w Niemczech, doszły do wniosku, że dużo jest fajnych piosenek,
że ten konkurs i te eliminacje narodowe do tego konkursu ukazują wiele ciekawych utworów.
Nie każdy utwór może wygrać i reprezentować kraj,
ale co się usłyszało, to się już nie odusłyszy.
I warto taką muzykę też pokazywać i promować.
I postanowiono stworzyć coś na kształt właśnie listy przebojów.
I rzeczywiście jak wejdziemy sobie na stronę lvcharts.de,
najlepiej ukośnik en, żeby wyświetliła się nam strona w języku angielskim,
bo taka też jest, no to zobaczymy tam notowania tej listy
i który to utwór w danym miesiącu, bo to co miesiąc jest nowe notowanie,
zajął które miejsce.
I rzeczywiście jest to bardzo ciekawa sprawa,
bo można w ten sposób odkryć wiele wykonawców i wiele utworów,
głównie niemieckich, bo nie ma co ukrywać,
ale inicjatywa jest również otwarta na wpisy i na utwory z innych krajów.
Bo można odkryć je zarówno poprzez notowania
i przejrzeć sobie jak się prezentowało notowanie,
ale są też po prostu listy i archiwa piosenek,
które się pojawiały w przeszłości.
Jest nawet cały alfabetyczny wykaz wszystkich utworów,
które się kiedykolwiek pojawiły.
Jest wykaz piosenek z danego notowania, alfabetyczny
i można też przejść gdzieś tam, zdaje się, na YouTube’a i wysłuchać.
Można głosować i głosowanie, zdaje się, jest też możliwe w języku angielskim.
I właśnie te notowania list przebojów Low Vision Charts
są transmitowane co miesiąc w wybranych,
głównie z tego, co widziałem, internetowych rozgłośniach radiowych.
Również lista tych rozgłośni oraz terminarz, kiedy te audycje się odbywają,
jest rozpisane na stronie Low Vision Charts.
Więc ciekawa inicjatywa.
Z jednej strony warto sobie posłuchać,
przyjrzeć się jakie to piosenki powstają właśnie z inicjatywy
osób z dysfunkcją wzroku,
ale z drugiej strony może to wy tworzycie jakąś muzykę
i chcielibyście się nią podzielić z szerszym gronem
i chcecie może być usłyszanymi
i zająć jakieś miejsce w tej liście przebojów.
Więc zawsze tam można się też gdzieś skontaktować i utwór podesłać.
Ja widziałem tam trochę nazwisk, które ja kojarzę,
bo troszkę znam to niemieckie środowisko,
ale z takich nazwisk bardziej znanych szerszemu gronu
jest na przykład Joanna Cymer,
którą my kojarzymy z utworu I Believe,
który jak najbardziej w mainstreamowych rozgłośniach radiowych
był grany w okolicach roku 2006.
Zdaje się wtedy wyszedł właśnie single I Believe,
albo był to 2005 rok, teraz nie pamiętam.
Na pewno 2005 albo 2006.
I bardzo, bardzo mocno czy RMF FM czy Radio Zed grały,
ten utwór, a grały.
No a pani Joanna Cymer nie poprzestała na tym
i dalej sobie tworzy swoje albumy i swoje nowe utwory,
więc też jej utwór, któryś był widziany w tej liście przebojów.
Ale nie tylko.
Tacy wykonawcy trochę mniej znani,
troszkę powiązani ze środowiskiem ośrodka w Marburgu na przykład,
też gdzieś tam się przewinęli.
Trochę związane z Deutsche Pop,
czyli taka akademia muzyczna,
ale skoncentrowana na tworzeniu muzyki takiej,
która właśnie ma trafić do radia.
Gdzieś tam w Kolonii jest taka akademia.
Też tam się przewinęły,
więc warto myślę się przyjrzeć.
No a może tak jak mówię wy,
też staniecie się często częścią tej listy przebojów.
I kolejny news.
Dotyczy gry Hearthstone
i kolejny tryb w tej grze
jest dostępny dla nas, dla osób limitowych.
Dokładnie.
To nie jest może nowy tryb w samej grze,
ale dla nas jak najbardziej.
A konkretnie chodzi tutaj o tryb starć.
To jest coś, na czym już prace trwały od kilku tygodni.
Jeśli ktoś śledził Discorda Hearthstone Accessa,
to można było zobaczyć tutaj intensywne prace.
Kilku programistów się w to wcieliło.
No i pierwsza wersja ze wsparciem na tego trybu
ukazała się w poniedziałek albo we wtorek,
nie pamiętam mniej więcej.
Możecie sobie po prostu Hearthstone Accessa
zaktualizować do najnowszej wersji
i w menu inne tryby,
ten tryb starć się pokaże.
On jest dostępny w dwóch wersjach.
W trybie normalnym,
to jest takim, że po prostu możemy sobie grać
i tutaj nie ma żadnych konsekwencji.
Oraz w trybie heroicznym.
No i w trybie heroicznym, tak jak z trybem areny,
musimy wpłacić za wejście,
musimy albo wykorzystać bilet.
Bilety możemy zdobyć w różnych zadań,
jak na przykład albo po prostu sobie wykupić.
No ale dzięki temu,
jeśli pójdzie nam dobrze,
no to dostaniemy nagrody.
W tym razie niestety mod obsługuje tylko tryb normalny,
ale to już nam pozwala zobaczyć,
jak ten tryb wygląda.
No i później, na pewno w przyszłej aktualizacji,
ten tryb heroiczny też się stanie dostępny.
A czym to się różni od takiej normalnej gry?
Zaczynamy od wyboru jednej z sześciu postaci.
Każda postać reprezentuje jedną z klasy w grze.
One są losowo wybierane.
Możemy sobie po prostu jedną z nich wybrać.
Po czym?
Jest taka nowość, której nie ma w takiej normalnej grze Hearthstone.
Możemy wybrać sobie jedną z trzech mocy.
To są też losowo wybierane.
Każda klasa ma pulę różnych dostępnych mocy.
Wybieramy sobie taką, która nas interesuje.
Po czym wybieramy sobie skarb.
Skarb to jest karta,
która będzie nam dodana do talii.
Wiele z nich ma bardzo duże możliwości.
Są bardzo silne.
Nawet się ulepszają stopniowo z czasem naszej rozgrywki.
Wybieramy sobie jedną z trzech,
która nam gra zaoferuje.
Po czym budujemy sobie talie.
Talie to są karty, które mamy dostępne.
Niektóre karty są ograniczone w tym typie,
więc nie możemy ich wybrać.
Zależnie od klasy, którą wybraliśmy,
tworzymy sobie talie.
Ale talie tworzymy z szesnastu kart,
a nie trzydziestu jak w tradycyjnym Hearthstone.
Każda karta może wystąpić w naszej talii tylko raz,
a nie dwa razy.
Legendarne karty też mogą w tradycyjnym Hearthstone być tylko raz.
Wszystkie karty na początku są ograniczone do jednej kopii.
Tworzymy sobie talię z szesnastu kart.
Gramy sobie przeciwko innej osobie,
która tak samo jak my musiała sobie stworzyć talię.
Na początku mamy dwadzieścia pięć punktów zdrowia,
a nie trzydzieści tak jak to normalnie jest.
No i walczymy.
Musimy naszego przeciwnika pokonać.
Rozgrywka kończy się po tym,
jeśli wygramy dwanaście pojedynków lub przegramy trzy.
To oznacza wtedy koniec gry.
Mniej więcej niezależnie od tego,
czy wygramy lub przegramy.
Po zakończonej walce, jeśli to nie jest koniec gry,
dostajemy nagrody.
Możemy sobie znów wybrać kolejny skarb.
W rundzie trzeciej i piątej dostajemy jeszcze skarby pasywne.
To są jakieś umiejętności,
które na początku się automatycznie uaktywnią.
Będziemy mogli sobie jeszcze kolejne karty skarby dodać,
które zostaną nam dodane do talii.
A oprócz tego dostajemy trzy różne wiaderka kart
z różnych zestawów.
One są losowo generowane w jednym wiaderku.
Są trzy karty.
Możemy jedno z tych trzech wiaderek wybrać sobie.
Możemy się pomiędzy nimi przemieszczać tabem.
To nie jest chyba nigdzie udokumentowane w modzie.
To jest takie mało oczywiste,
ale jak gra nas prosi o wybór wiaderka,
po prostu przemieszczamy się pomiędzy dostępnymi tabem.
Wtedy możemy szczelkami przejrzeć karty,
które w danym wiaderku są dostępne
i zetwierdzić wybór, który chcemy.
I tak możemy sobie tę talię powiększać
do tych tradycyjnych 30 kart,
ale też w pewnym momencie będziemy mieli opcję,
że nie chcemy więcej dobierać kart do naszej talii.
I w ten sposób możemy sobie dodatkowe kopie jakichś kart
na przykład zdobyć, czy jakieś inne karty.
To jest po prostu wszystko losowe.
I cała strategia polega na tym,
że na początku mamy kontrolę nad tym,
jakie karty dodajemy,
ale potem po prostu musimy umiejętnie wybierać
to, co nam gra zaoferuje
i tak te karty jakoś dodawać ze sobą.
To jest tak troszeczkę podobne do tego,
jak się gra na przykład w Slayer Spire,
gdzie gra nam rzuca losowe karty
i my po prostu musimy zdecydować,
które z tych kart, które akurat nam zostaną zaoferowane,
będą nam najbardziej przydatne.
No i na tym generalnie to polega.
Po prostu stopniowo powiększamy swoją talię,
pokonujemy przeciwników.
No i jeśli gramy w tym trybie heroicznym,
który miejmy nadzieję niebawem się pojawi,
no to dzięki temu, jeśli dobrze nam pójdzie,
to będziemy mogli zdobyć różne nagrody.
To może być złoto,
to może być pył,
który możemy wykorzystać do stworzenia kart sobie
lub paczki,
które też możemy sobie po prostu później otworzyć.
Ciekawy tryb, gra się na pewno inaczej
niż taki tradycyjny Hearthstone.
Mi się osobiście bardzo podoba.
Chyba nawet bardziej niż tryb areny.
Myślę, że warto się zainteresować.
Zobaczymy jak szybko pojawi się ten tryb heroiczny.
No i wtedy będziemy mogli po prostu już
o jakieś nagrody sobie zagrać.
No ale w międzyczasie możemy już sobie zobaczyć,
jak to wygląda.
I osobiście gorąco polecam.
I ostatnim chyba newsem…
No nie, to już byłyby…
No to już jest ostatni news,
oczywiście jeżeli chodzi o rubryki Tyflowieści,
bo została jeszcze rubryka Technikalia.
I tutaj mamy dwa newsy.
Pierwszy jest od Pawła,
dotyczący konferencji Google.
Tak, i widzę, że ty Piotrze
też masz jakieś swoje notatki,
więc pewnie też jakieś przemyślenia.
No AI, tak? Google AI.
Wszyscy to już w takim…
Moje przemyślenie to jest taki krótki,
15 sekundowy klip, który chciałem puścić,
który krążył na Mastodonie,
który po prostu, to ładnie się nazywało,
właśnie podsumowanie…
Podsumowanie Google AI 2023.
I to mniej więcej wyglądało tak.
AI, AI, AI, AI,
Generative AI, Generative AI,
Generative AI, AI, AI, AI,
AI, AI, AI, AI,
AI, AI, AI, AI,
It uses AI to bring AI, AI, AI,
AI, AI.
Ale tak szczerze mówiąc…
AI, AI, AI, AI,
Freddie Mercury na koncercie poczytał EO, nie?
Takie przesłania też na kilku
YouTube’owych kanałach słyszałem, także…
To ktoś jakiś dziennikarz
chyba 100 razy naliczył to słowo
w konferencji.
Może stworzymy kolejne AI,
które będzie wyłapywać wszystkie zmianki o AI.
No nie, było tego rzeczywiście dużo
i oczywiście w centrum tego wszystkiego
jest Bart.
Tak jak już zdążyliśmy w ostatniej audycji wspomnieć,
ma trafić do wszystkich 180 krajów,
gdzie większość usług Google działa.
Ma być też dostępny w języku polskim.
Czy od razu?
Na ten moment jeszcze nie jest to faktem,
bo Kanada chyba i Unia Europejska
nie mają tego jeszcze odblokowanego.
Jakieś, nie wiem, czy kwestie regulacyjne,
które muszą zostać dograne,
czy po prostu Google się jeszcze nie zdecydował.
Wszak na Nearby Share też trochę Unia Europejska
poczekała pewne…
odczekała troszkę opóźnienia,
ale nie było to opóźnienie długie.
Najważniejsze, że plany są,
żeby nasz język wspierany był
i nasza lokalizacja.
No i cóż ten Bart będzie w stanie robić?
Ono będzie w stanie pracować
dość mocno z obrazem.
W ogóle ten model,
jak oni to nazwali, rozumowania
jest ulepszony.
Będzie zdolny do działań matematycznych i kodowania
na jakimś skomplikowanym poziomie
i będzie też mocno działał z obrazami,
czyli generowanie obrazów,
tekstu z obrazów.
Dla mnie jest to ostatecznie
zaznaczone, że tu chodzi o opis
taki typowy dla osób z dysfunkcją wzroku.
Bardziej, że na podstawie zdjęć
będzie generowany jakiś tekst,
taki kontekst, że to będzie wspomagało
jakieś wyszukiwanie, czy interakcje,
czy jakieś interakcje ze znajomymi.
Właśnie tutaj
współprowadząca podcast
Blind Android Users Podcast
zarzuciła, że tyle się
nagadali o AI, w czym oni
tego nie wykorzystają,
a w czasie
konferencji, czy powiedzmy
slotu poświęconego dostępności
zero wzmianek o tym.
Tu jakieś gesty, które są ważne na klawiaturze brailowskiej,
tu jakieś API, które są
szalenie ważne, ale
skoro Be My Eyes ma wirtualnego
wolontariusza na GPT,
to czemu tu nie ma
lookouta, który by wspierał Barda?
Na przykład.
Więc
o tym tutaj w kontekście dostępności nie było
powiedziane bezpośrednio i wprost
nic.
Znając Google’a,
może porzucić lookouta
na poczet innego rozwiązania,
które z Bardem już jak najbardziej
zintegrowane będzie.
No tak, albo będziemy się bawić w obiektyw Google,
albo jakieś inne
rozwiązania dla osób widzących, które przy okazji
gdzieś tam coś tam…
Ja bym tak pomyślał, że ci się będzie dało pewnie, jak się w mów pisze
ktoś jako osobie niewidomej, to pewnie coś
zwróci. Na pewno będę ciekawy,
jak to się kiedyś może u nas pokaże,
to na pewno przetestuję.
Natomiast
same narzędzia google’owskie będą tym Bardem
też wspomagane, bo przykładowo
wyszukiwarka, to wszyscy
mogliśmy się tego spodziewać.
Skoro Bing ma czata GPT
i ten czat GPT
na pytania nasze
odpowiada i generuje jakieś odpowiedzi
obok tradycyjnych wyników
wyszukiwania, to tak samo też
zrobi i Bard.
Tutaj też integracja będzie
Barda z zewnętrznymi
usługami. Na razie są podane
takie znane bardziej w Stanach, czyli
Kayak, wyszukiwarka lotów i taki
planer podróży. Zipline,
czy Zip Recruitment,
taka właśnie
też wyszukiwarka ofert pracy.
Instacart, który jest
definitywnie usługą do zamawiania zakupów
w Stanach.
No, jeszcze parę innych
usług, jakiś tam Adobe, coś z Adobe.
I
będzie też
integracja z zakupami,
jeżeli będziemy chcieli kupić,
wiadomo, Google ma swoją bazę produktów.
Kiedy my szukamy jakiegoś produktu,
to pewnie widzimy od razu nazwa produktu,
coś tam na główek i to jest właśnie podpowiedź
z Google zakupów, bo Google też
indeksuje produkty w różnych sklepach
internetowych. No więc tu będziemy mogli
Barta poprosić o to, żeby nam doradził.
A jaki tutaj podany
przykład, rower elektryczny mogę kupić
na trasę pięciokilometrową,
gdzieś tam. Więc tutaj będzie
też Bart naszym doradcą zakupowym.
Też
zestaw narzędzi do dokumentów
i do tej współpracy takiej
w ramach Workspace
będzie udostępniony pod nazwą
Duet AI. I tutaj
możemy się spodziewać
pomocy w redakowaniu maili, dokumentów,
podsumowań danych statystycznych
właśnie z arkuszy
i podsumowanie spotkań w Google Meet,
czyli no takie rzeczy, które już też w ofisie
gdzieś się za sprawą
GPT
albo pojawiają, albo mają pojawić.
Też zdjęcia
i mapy. Mapy mają
dostarczyć nam bardziej realistycznych
obrazów, które powstaną
właśnie z kolażu troszeczkę
różnych wersji zdjęć z Street View
ze zdjęciami lotniczymi.
Ale to niestety tylko wybrane miasta
i żadne z tych miast nie jest miastem polskim.
To gdzieś Niemcy, Włochy,
Stany Zjednoczone, właśnie
Japonia.
To bardziej na razie Polska jeszcze,
nie?
No i też zdjęcia doczekają się
takiej usługi jak
Magic Editor.
Doczekamy się,
tam będzie bez znajomości Photoshopa
możliwość na przykład przemieszczania
efektów na zdjęciach, albo generowania nowych,
albo klonowania tych, które już są.
Więc takie, bardzo właśnie widać, że te
generatywne, ten generatyw AI, o którym
mówił właśnie, to chyba tak
Sondar Pichai?
Dobrze poznałem po głosie? Chyba tak,
że CEO Googla
w tym klipie, który Piotr tutaj puszczał.
Tak, tak.
Natomiast
jeśli chodzi
jeszcze o
Magic rzeczy,
które będą magicznie pojawiać się
za pomocą magicznego AI,
to aplikacja wiadomości również się
doczeka Magic Compose, czyli
wspomaganych sztuczną inteligencją
właśnie szybkich
odpowiedzi na
wiadomości.
No dużo tego AI.
Zobaczymy, jest teraz też otwarta platforma,
jak to się nazywa? Google Kitchen Hub?
AI Kitchen Hub?
Chyba Google Kitchen,
chyba tak.
Ciekawe, czy będzie tłumaczenie na polski, że
Kuchnia Google, tak jak jest Ryneczek Lidla.
Nie wiem, ciekawe.
Natomiast właśnie tam też
powoli ruszają testy otwarte
bardziej, też oczywiście
z listą zapisów tego AI
do generowania muzyki.
No więc zobaczymy, jak to się będzie sprawdzać.
No i nie obyło się
bez takich drobniejszych nowości.
Tam Bagatela, no Pixel 7a wyszedł,
Pixel Fold składane
i Pixel Tablet, ale kogo by
to interesowało, skoro wszędzie jest
AI?
No właśnie.
Ja myślę, że to można troszeczkę
tutaj rozwinąć. Tutaj też patrzę,
jest taki post na blogu
100 rzeczy, które zostało ogłoszone.
Większość tutaj była powiedziana.
Ale na przykład takich
ciekawych informacji,
niekoniecznie związanych z AI, ale może
zacznijmy od tego, tutaj jeśli chodzi o prywatność,
no to na przykład Google wymyśliło
algorytm, który potrafi
wykryć właśnie
sztucznie wygenerowaną
mowę w 99%,
na przykład, co ciekawe.
Ale też na przykład
i tutaj jest współpraca z Applem
i to myślę, że jest akurat fajna sprawa,
telefony z Androidem będą
mogły też wykryć jakieś niezidentyfikowane
urządzenia śledzące,
czy nawet Artagi na przykład.
Tutaj było właśnie powiedziane, że to był
duży problem, że Artagi mogą
być używane do stalkingu.
Bo załóżmy, że nasz partner właśnie
my mamy iPhona, a to druga osoba,
którą stalkujemy miała telefon z Androidem,
no to teraz też taki Artag powinien być
wykryty na przykład.
Więc fajnie, że tutaj producenci współpracują,
bo to też inne firmy takie urządzenia
produkują, Samsung, jest taki Tile
na przykład, więc no fajnie, że
tutaj coś się dzieje.
No i jeśli chodzi o te urządzenia
właśnie, te piksele,
co ciekawe, na przykład tablet
piksel, który też właśnie powstał,
wszystkie mają ten sam
procesor, więc są
dosyć fajne urządzenia. Ten piksel 7a
na przykład właśnie z tej średniej półki
dostaje bardzo dobre oceny.
No ale ten tablet na przykład,
co ciekawe, jest
w zestawie, przychodzi z dokiem
ładującym z głośnikami, które
powodują, że dźwięk z tego tabletu
jest jeszcze lepszy. Ale też jeśli
ten tablet jest zadokowany
w tej ładowarce, to przekształca się
w taki smart wyświetlacz. Działa jak taki
hub do naszego
smart domu, więc będą się na nim wyświetlała
właśnie pogoda, różne informacje,
jakieś kontrolki, które nam pozwolą szybko sterować
nie wiem, klimatyzacją,
oświetleniem, takimi różnymi rzeczami.
Tutaj właśnie czytałem takie artykuły,
że to urządzenie troszeczkę może
zabić
rynek inteligentnych wyświetlaczy,
które Google coś tam próbowało,
ale ponoć te oferowanie,
te urządzenia, które oni oferowali,
to miały ostatnio dużo
błędów, no a te firm czesik,
jak na przykład od Lenovo, niedawno właśnie
przez Google straciły wsparcie.
Więc tutaj jest takie połączenie
tabletu i smart wyświetlaczy,
więc możemy sobie właśnie…
A, i właśnie przez to, że on jest
zadokowany w tym toku,
jest duży,
11-calowy wyświetlacz, jest taki większy tablet,
też działa jako urządzenie
Chromecast, więc możemy sobie na przykład
z telefonu taki troszkę większy ekran
jakieś obrazy przesyłać
w ten sam sposób, więc poszli
tutaj w tą stronę.
I ostatni news
ode mnie, też
związany ze sztuczną inteligencją,
bo Chat Bing dostępny jest
napisem dla prawie
wszystkich, bo
nie każdy musi się chcieć
godzić na warunki, na jakich
został udostępniony ten Chat Bing.
Trzeba mieć konto Microsoft
i trzeba mieć,
no trzeba to otworzyć w przeglądarce Edge.
Na to ostatnio podobno
są różne obejścia,
jakieś wtyczki do Chroma
i innych przeglądarek, nie wiem, nie testowałem.
Jestem przecież
nieużywany, trzeba przynajmniej w Chatie Bing.
Natomiast, no, konto Microsoft
podejrzewam, że rzeczywiście trzeba mieć.
Też nie wiem, może ktoś tu
znajdzie jakieś też obejście i na to,
ale oficjalnie jest tak,
że trzeba mieć właśnie
konto Microsoft,
które można sobie założyć za darmo
no i trzeba używać
Edge’a. No i podobno
Chat Bing jest dostępny dla każdego.
Chat Bing, o tym też już
rozmawialiśmy, coś co jest
teoretycznie na GPT-4, aczkolwiek
chyba Microsoft wszelkimi siłami
chce ograniczyć
te funkcje, które
są podobne do Chata GPT,
czyli na przykład, żeby on nie mógł
generować
takich rzeczy jak Chat GPT,
na przykład, żeby wpisać
do Binga, żeby
no nie wiem, napisał wiersz
na temat jakiś tam, no to
Chat Bing chyba teraz już
za wszelką cenę usiłuje znaleźć to w internecie
i zinterpretować
wyniki znalezione w internecie,
a nie samemu coś stworzyć.
Mam takie wrażenie.
Ale to są jakieś takie króciutkie testy,
być może akurat mi się to tak przytrafiło.
Nie wiem.
No i to tyle, jeżeli chodzi o newsy, które
tutaj w notatkach. Pytanie, czy
ktoś znalazł coś
jeszcze?
Ja znalazłem, czy w sumie miałem to już
wcześniej, tylko zapomniałem dodać,
ale dorzuciłem, więc link będzie w komentarzu.
Whatsapp
szykuje się do wprowadzenia
zabezpieczonych czatów. Będziemy mogli sobie
pewne czaty, które są dla nas szczególnie
wrażliwe, schować do takiego
zabezpieczonego folderu, to trochę jak ukryte
zdjęcia w iCloud, albo
bezpieczny folder Galaxy w Samsungach
i dostęp do tych
czatów będzie blokowany albo pinem,
albo biometrią. No i
jeżeli z takiego czatu otrzymamy
powiadomienie, to nie
będzie widać ani nadawcy, ani treści.
Będziemy tylko wiedzieli, czy przyszła wiadomość.
Ukryte czaty w Whatsappie
już teraz, jak dobrze pamiętam,
są, tylko, że
one nie są w żaden sposób dodatkowo
zabezpieczone.
No to teraz będą.
No i też różne funkcje z tym powiązane
nadchodzą, czyli generowanie haseł
różnych dla różnych urządzeń, które mamy
podłączone do konta Whatsappowego.
No właśnie, te czaty.
Będzie bezpieczniej, jeżeli byście
chcieli
w jakiś tak poczatować
w sposób bezpieczny. No i taka drobna
rzecz na koniec, teraz Amazon przedstawił też nowe
głośniki Echo.
Jest głośnik Echo Pop, jakiś w ogóle
nowa kategoria.
Głośnik taki półsferyczny, taka półkula,
która rzekomo
ma być do różnych takich pokojów typu
salony, za 40 dolarów
taki głośnik.
Nowa edycja Echo Show
i też jakieś budżetowe
słuchawki.
Swoją drogą, a propos Amazona,
to oni już jakiś czas
temu w tej swojej
usłudze Prime
wdrożyli
taką funkcję,
która myślę, że może się szczególnie
przydać tym, którzy
mają albo problemy ze słuchem, albo po prostu
nie podoba im się sposób
masteringu dialogów
w filmach.
To się zdaje się Voice Boost nazywa.
Tak. I dzięki
temu możliwe jest
połączać właśnie też za pomocą sztucznej
inteligencji, co w dzisiejszych
czasach nie jest napędzane sztuczną inteligencją.
Jeszcze my.
Ale pytanie jak długo.
Natomiast dzięki
tej opcji możliwe jest
dodatkowe zwiększenie
głośności dialogów
w stosunku do tła.
Więc jeżeli ktoś tam narzeka,
na przykład, że słabo słyszy
to co się dzieje w filmie, nie do końca
rozumie mowę,
no to może sobie to w ten
sposób ustawić,
włączyć i już. To by się przydało
do niektórych polskich filmów. Oj tak.
Oj tak, to prawda.
U nas jest z tym problem z głośnością
dialogu względem ścieżki, ale też
wychodząc trochę za nasz kraj,
ja bym tego chętnie użył do oglądania
filmów po angielsku, bo
ja język znam i jak
ja na
słuchawkach sobie słucham, to rozumiem wszystko
z takich filmów, ale jak oglądam z kimś i to leci
z głośnika i te postaci też
mówią w taki niedobry sposób,
tak jakbym żyć im się nie chciał,
a jeszcze do tego leci muzyka
i jakieś efekty dźwiękowe. To już jest gorzej.
To właśnie nie tylko u nas chciałem powiedzieć, bo dużo osób na to
narzeka właśnie, że muzyka jest za głośna
w dzisiejszych filmach.
Tak, ja nie będąc native speakerem,
zwłaszcza jak uczyłem się gdzieś
angielskiego i na zajęciach
zdarzało nam się oglądać jakieś filmy
tak całą grupą, czy seriale jako
materiał ćwiczebny, to
naprawdę miałem duże problemy zrozumieć.
I no, muszę przyznać,
że dopiero jak zacząłem
oglądać sam, ale no wiadomo, to
żadna frajda czasem oglądać coś samemu, tak?
Chciałoby się z kimś. Tylko wtedy już się przestaje
rozumieć dialogi. No może by wtedy pomogło.
I to chyba tyle. O ile
rzeczywiście będzie tak, że
o pytanie, jak oni oddzielają
te dialogi, czy mają w nią już
coś jak te wszystkie
oddzielacze bazujące
na sztucznej inteligencji, czy mają osobną
ścieżkę rzeczywiście dialogów i
osobną ścieżkę tła.
Tego nie wiadomo.
Ja raczej wątpię, żeby wytwórnie
takie rzeczy im dostarczały. Ja przypuszczę, że to jest
coś w rodzaju tego, co
na przykład patrzy ta wtyczka
Gojo, o której Łukasz
mówił. Podejrzewam,
że jeżeli to tak wygląda,
to jak będzie już taki
naprawdę dialog, który bardzo
słabo słychać na,
no w tle, gdzieś się tam kryje,
no to może on
się już nie bardzo
ładnie dać wyciągnąć.
Ale zobaczymy.
Może ktoś z was już to testował.
Jeżeli tak, to dajcie znać.
Bo też może być
tak, i często
chyba jest trochę tak,
że te dialogi są tylko
w tym kanale na przykład centralnym.
A całe tło jest umieszane gdzieś
nam dookoła i być może, no
też można z tego skorzystać.
Czasami się da.
Pamiętam kiedyś sobie
z ciekawości przeanalizowałem
kilka filmów
właśnie pod kątem tego, co słychać
w różnych kanałach
i czasami dało się coś takiego
zrobić.
Swoją drogą tutaj, skoro rozmawiamy,
ja bardzo żałuję, że
przynajmniej na iPhonie i na
Macu chyba też zresztą,
że Amazon, jeśli przełączymy się
na audiodeskrypcję, niestety oferuje
ją tylko w stereo. Więc jeśli mamy AirPods,
chcielibyśmy sobie, nie wiem, dźwięk przestrzenny
przetestować, no to niestety
nie przetestujemy. Tak, to jest znany problem.
I to nie tylko Amazon, ponoć wiele streamingów
tak to niestety robi. Apple jest tym
najlepsza ponoć, bo oni oferują Atmos.
Netflix przynajmniej oferuje 5.1.
Więc to jest.
Disney, różnie.
Niektóre seriale są w stereo, niektóre filmy,
ostatnio pierwszą część Avatara oglądałem, bo
niedługo wyjdzie druga, to to było.
Też pamiętam, dźwięk przestrzenny działał,
ale nie ze wszystkimi serialami tak
jest niestety.
No to faktycznie
chyba to by było na tyle,
jeżeli chodzi o audycję
dzisiejszą.
No, ja przypomnę tylko,
że dzisiaj w udział
brali Paweł Masarczyk,
Piotrek Machacz,
Michał Dziwisz i Jadrzej Tomczyński.
Dobrej nocy.
I do usłyszenia, miejmy nadzieję, za tydzień.
Był to
Tyflo Podcast.
pierwszyPolski Podcast dla niewidomych
i słabowidzących.
Program
współfinansowany ze środków
Państwowego Funduszu Rehabilitacji
Osób Niepełnosprawnych.