TyfloPrzegląd Odcinek nr 253 (wersja tekstowa)

Pobierz napisy w formacie SRT
Pobierz napisy w formacie VTT
Fundacja Instytut Rozwoju Regionalnego prezentuje Tyflo Podcast.
Ósmy dzień października, wtorek, godzina dwudziesta, chwilę temu minęła, zatem zaczynamy po raz dwieście pięćdziesiąty trzeci Tyflo Przegląd na antenie Tyflo Radia.
Dziś Paweł Masarczyk, Piotr Machacz będą opowiadać o tym, co ciekawego w technologiach.
Ja też od czasu do czasu będę się tu wcinał, Michał Dziwisz witam bardzo serdecznie,
ale zanim przejdziemy do spraw bieżących, to o tych sprawach bieżących w telegraficznym skrócie słów kilka.
W tym tygodniu w Tyflo Przeglądzie Ableton Live 12.1 wydany.
Pipilol, nieco inny klient Feviversum na iOS.
Kolejna ankieta dla użytkowników NVDA, tym razem na temat obsługi Braila.
Ósmy odcinek EBU in action.
BenVision, nawigacja z użyciem muzyki.
Syntezator Vocalizer na Androida dostaje aktualizację.
Pomoc nawigacyjna trafia do Diablo 4.
Synteza mowy na Linuxie będzie lepiej działać z Pipewire.
Beta iOS 18.1 trochę poprawia, ale i trochę psuje w dostępności.
Ciekawe narzędzie do robienia zrzutów i nagrywania ekranu na Maca.
Szykują się duże zmiany na Facebooku.
Wszystko to, a pewnie jeszcze więcej już za chwilę.
Zaczynamy!
Tyflo Przegląd jest audycją prowadzoną na żywo, więc serdecznie zachęcamy Państwa do współtworzenia go razem z nami.
Oczekujemy na wiadomości głosowe na Whatsappie oraz połączenia telefoniczne pod numerem 663-883-600, powtarzam 663-883-600
oraz zapraszamy Państwa do wyrażania komentarzy w formie tekstowej poprzez formularz na stronie kontakt.tyflopodcast.net
lub z poziomu aplikacji stworzonej na system Windows przez Dawida Piepera.
Odczytujemy również Państwa wypowiedzi zamieszczone pod transmisjami na Facebooku i YouTubie.
Staramy się też zaglądać na nasz tyfopodcastowy serwer Discorda.
Nasz panel kontaktowy jeszcze co prawda nie działa, ale za moment działać będzie
i będziemy również i tam oczekiwali na Wasze wiadomości tekstowe,
a skoro o wiadomościach mowa, to mamy wiadomość głosową na Dzień Dobry,
albo Dobry Wieczór od Mileny na Whatsappie.
Witajcie, tutaj Milena.
Słuchajcie, zainstalowałam sobie dwie aplikacje, Bolt i Uber.
No i mam na nich tam, wiadomo, zlogowałam się i tak dalej.
I zastanawia mnie,
gdzie w tych aplikacjach mogę umieścić informacje
na temat, że jestem osobą niewidomą.
Pytam o to, dlatego że chciałabym, żeby taki dany kierowca,
który jedzie do mnie, tak,
to żeby on z automatu wiedział, że ja jestem osobą niewidzącą.
Czy można to jakoś tak zrobić, gdzieś to wpisać w tych dalszych profilach,
w tych dalszych aplikacjach, czyli w Uberze i w Boltcie?
W której z tych aplikacji dało się, jak dobrze pamiętam,
oznaczyć się odpowiednią ikonką, prawda?
Tak był to Bolt i jest to emoji oko co ciekawe właśnie oko a nie biała laska ponieważ
oko jest z jakiegoś powodu lepiej widoczne wizualnie ta ikonka bardziej wpada w oko jak ktoś tak
pobieżnie dużo tego oka w tych scenach moich jak ktoś pobieżnie sobie przegląda te zapytania od
pasażerów i patrzy na imię nazwisko i tak dalej kierowcy zresztą Bolta zostali przeszkoleni no
Przeszkolenie wyglądało w praktyce tak, z tego co już tu opisywaliśmy, że dostali
powiadomienie w apce po prostu i niektórzy tych powiadomień raczą nie czytać,
więc to wszystko zależy jak bardzo kierowca sumiennie się przykłada do
swojego wyszkolenia i do swojej pracy.
Natomiast Bolt szkolił kierowców w ten sposób właśnie, że ikonka oka oznacza
osobę z dysfunkcją wzroku, więc możesz sobie ją dodać w polu tam gdzie masz swoje imię.
Czy Uber przyjmuje białą laskę?
Ja zawsze zapominam, bo któreś apki to przyjmowały, któreś nie chciały.
Możesz spróbować, czy da się jakąś ikonkę, czy oko, czy człowieczka z białą laską
dodać do twojego imienia w aplikacji.
No a jeśli nie, to zawsze pozostaje wiadomość do kierowcy.
To nie jest standardowe, ale…
Bo te aplikacje mają funkcję czatu i na Bolcie, bo akurat to na Bolcie
miałem okazję sprawdzić swego czasu, to ta funkcja czatu jest naprawdę fajnie
dostępna, działa to bardzo sprawnie i można do kierowcy po prostu napisać jeszcze tak dodatkowo, żeby się upewnić i mieć większą pewność, że on po prostu no zareaguje jakoś tak.
Możemy na przykład jeszcze mu coś tam dodatkowego napisać, gdzie mniej więcej jesteśmy, albo żeby po prostu dał znać, jak już podjechał, żeby łatwiej się było odnaleźć,
więc tego typu uwagi można zawsze też po prostu do kierowcy napisać.
No z moich obserwacji, co prawda może nie jakichś specjalnie dużych,
bo w moim mieście nie ma Bolta, więc w innych lokalizacjach korzystałem z tej aplikacji,
no to z tych moich niewielkich obserwacji to oni czytają to, co się do nich pisze.
Także rzeczywiście warto z tego korzystać.
A teraz już przechodzimy do tematów bieżących,
oczywiście cały czas oczekując na wiadomości od was, zarówno te głosowe, jak i tekstowe.
W międzyczasie odpaliłem nasz panel kontaktowy, to tak na marginesie.
Piotrze, pierwsza informacja jest od ciebie, a dotyczy nowej wersji Abletona.
Tak jest. Jeśli pamiętacie, mówiliśmy jakiś czas temu, kiedy pojawiła się wersja 12 Abletona Live,
czyli bardzo popularnej aplikacji do tworzenia muzyki, do nawet grania muzyki na żywo,
kiedy już sobie jakiś utwór skomponujemy, do tworzenia setów DJ-skich, no generalnie
to jest tak zwany DAW, czyli aplikacja podobna do Reapera, po prostu aplikacja, która
zajmuje się obróbką dźwięku w jakiś sposób, aczkolwiek dużo bardziej niż Reaper
nastawiona właśnie na muzykę przez jej wygląd i funkcjonalność.
Ta wersja była dla nas o tyle istotna, że była pierwszą wersją, która była dla nas
jakkolwiek dostępna. Wcześniej aplikacja była w ogóle niedostępna, a teraz działa
naprawdę całkiem przyzwoicie.
Są jeszcze jakieś braki, czasem lubi się wysypać, ale faktycznie widać, że
deweloperzy chcą o tą dostępność bać.
No i teraz pojawiła się pierwsza duża aktualizacja tej 12.
tej odsłony, aktualizacja, która jest dla wszystkich użytkowników darmowa
i przyniosła ona całkiem sporo istotnych zmian dostępnościowych i nie tylko,
plus jedną zmianę, która poniekąd została opóźniona, ale jeśli wiecie gdzie
szukać, to można ją sobie też włączyć i o tym też za chwilkę powiem.
Ale zaczynając od takich ogólnych zmian, no bo akurat tak to jest tutaj wymienione,
Pojawiło się kilka nowych urządzeń, urządzenia w Abletonie to po prostu wtyczki, tak jak w innych aplikacjach to są wtyczki, a w Abletonie oni postanowili je nazwać urządzeniami.
No i pojawiło się nowe urządzenie, nazywa się AutoShift i to jest po prostu korekcja tonu, czyli taki tak zwany autotune, więc jeśli ktoś nie śpiewa dokładnie w tym tonie jak powinno być,
Możemy to gdzieś delikatnie poprawić, albo bardziej ekstremalnie, żeby uzyskać taki efekt jak, nie wiem, T-Pain, albo Cher, no wiecie jak autotune brzmi w wielu gatunkach muzyki elektronicznej, to jest efekt, który jest bardzo słyszalny.
No i teraz z Abletonie też takie narzędzie dostaliśmy, bo wcześniej okazuje się po prostu tego nie było.
No i jak na taki rozbudowany efekt wypadałoby, on ma całkiem dużo funkcji.
Może po prostu gdzieś korygować nam ten ton na podstawie skali, którą ustawiliśmy albo w samym urządzeniu, albo w naszym projekcie, bo właśnie też w wersji 12-tona zostało dodane wsparcie dla różnych skali muzycznych, ale też możemy nim sterować przez MIDI, więc jeśli będziemy grać jakieś konkretne nuty, no to nam ta wtyczka, to to urządzenie będzie korygowało głos do tej nuty.
Możemy nawet grać akordy i wtedy nam pomoże tworzyć harmonię z tych dźwięków, więc jest nam w stanie też wtedy pomóc.
Mamy też dwa tak zwane LFO, więc możemy takie lekkie vibrato, efekt vibrato dodać, no bo ludzki głos, kiedy śpiewamy, no to generalnie gdzieś tam delikatnie drży.
I ta wtyczka też może nam pomóc taki efekt dodać mniej lub bardziej ekstremalnie, jeśli tworzymy coś bardziej eksperymentalnego i chcemy jakoś zmodulować ten głos.
albo jakieś inne parametry, no to ta wtyczka ma do tego wsparcie.
Pojawiło się również, jeszcze jedno pojawiło się urządzenie, a mianowicie
drum sampler i to jest właśnie sampler, który jest szczególnie dostosowany
do efektu, do sampli perkusyjnych, kiedy sobie tworzymy jakąś perkusję
i dodajemy do niej różne sample.
One wcześniej z reguły były ładowane do Simplera, czyli takiego uproszczonego samplera,
który był w stanie ładować jeden dźwięk na raz.
Natomiast on nie miał wielu wbudowanych efektów,
a Drum Sampler właśnie przez to, że jest przysozowany bardziej do perkusji,
no to już trochę efektów ma.
Wbudowanych efektów, które możemy modulować automatycznie,
na przykład na podstawie tego, jak mocno naciskamy dany klawisz,
to możemy też różne rzeczy zmieniać.
Mamy wbudowane filtry, które akurat w Simplerze też były, ale tutaj też mamy różne efekty
takie jak Beat Crusher, Saturację, Punch, czyli taki nie wiem, ekstremalny kompresor,
można powiedzieć, jakieś transienty, żeby były bardziej słyszalne, żeby ta perkusja
bardziej przebijała się w naszym miksie.
Mamy Time Stretch, mamy Ring Modulation, czyli taki też efekt, który zmienia nam
dźwięk tej perkusji.
No i te wszystkie efekty właśnie możemy przepisać sobie albo właśnie znów do
jakichś LFO, żeby one nam się zmieniały same podczas projektu, albo właśnie
przepisać do tego, jak mocno naciskamy np.
dany klawisz i w ten sposób sobie możemy stworzyć taki bardziej ekspresyjny
zestaw perkusji. I możemy też konfigurować Abletona tak, że jeśli właśnie tworzymy
sobie w tak zwanym urządzeniu DrumRack, czyli właśnie w takim miejscu, gdzie
gdzie możemy załadować kilka sampli w celach perkusyjnych, żeby one domyślnie nam się właśnie w tym nowym drum samplerze ładowały.
Te obie wtyczki są bardzo fajnie dostępne, no bo to zostały napisane już po tym, jak w Abletonie pojawiła się dostępność.
No więc nie ma z nimi największego problemu, gdybyśmy chcieli je sobie z czytnikiem ekranu skonfigurować, no to spokojnie można.
Został też zaktualizowany limiter, tam interfejs troszeczkę został odświeżony i on po prostu powinien działać trochę lepiej.
Podobnie saturator, też dostał jakieś małe aktualizacje związane z jego wyglądem i działaniem.
Co tutaj jeszcze mamy jeśli chodzi o takie ogólne nowości?
Na przykład w edytorze midi możemy teraz filtrować lub zaznaczać konkretne nuty.
I tutaj możemy zdecydować, żeby Ableton nam zaznaczył automatycznie nuty na
podstawie ich wysokości, czasu, głośności, czasu trwania i nawet ilości nut.
Także kilka tych filtrów jest nawet według skali i w ten sposób możemy różne
czynności na tych nutach wykonać.
Narzędzia do pocinania klipu MIDI też zostały ulepszone, więc jeśli mamy np. jakąś jedną długotrwającą nutę, którą chcemy rozbić np. na ósemki, na ćwiartki, co byśmy tam chcieli, no to to narzędzie powinno być teraz łatwiejsze w obsłudze.
Kilka nowych narzędzi MPE zostało też dodanych, natomiast MPE jeszcze w Abletonie
udostępnione nie zostało dla nas, więc myślę, że to na ten moment możemy pominąć, ale na
szczęście to też nie jest coś, co jest bardzo często wykorzystywane.
Ale a propos skali, przez to, że mamy efekt autoshift, no to wcześniej mogliśmy
ustawić skalę dla poszczególnych plików audio,
do plików MIDI, przepraszam, to teraz właśnie też możemy to zrobić dla klipów audio,
no bo możemy właśnie mieć na przykład załadowany jakiś wokal,
na którym dodaliśmy sobie tego autoshifta, no to możemy też Abletonowi powiedzieć,
że ten konkretny klip, no to jest na przykład, nie wiem, C-dur, no i wtedy nam Ableton
będzie odpowiednio w działanie wtyczek, które o tą informację poproszą,
on będzie w stanie zmienić.
Mamy też historię cofania na przykład,
czyli coś, co znają użytkownicy Reapera, w Reaperze też mogliśmy od jakiegoś czasu
zapamiętać się tej historii wszystkich operacji, które cofnęliśmy na liście i
możemy sobie po prostu z tej listy wybrać punkt, do którego chcemy się cofnąć i
nacisnąć Enter i się cofniemy. Ableton też właśnie takiej funkcji się doczekał.
Mamy też automatyczne tagowanie
sampli, które sami dodamy do przeglądarki, czyli to jest taka
baza danych, wszystkich dźwięków, wszystkich sampli, które mamy ściągnięte.
No i ono teraz będzie w stanie analizować po prostu dźwięk tych sampli
i na tej podstawie po prostu nam je tagować.
Więc jeśli wyczuje, że coś jest topą, że coś jest werblem,
że coś jest jakimś innym efektem, jakimś talerzem,
no to po prostu będziemy mogli po tych słowach klucz sobie ten sample
wyszukać, nawet jeśli jego nazwa pliku by w ogóle na to nie wskazywała.
Podobnie będzie to działo z wtyczkami VST, tutaj bardziej na podstawie metadanych,
pewnie jakichś kategorii, więc jeśli mamy jakąś wtyczkę, która jest, nie wiem,
pianinem, jakimś syntezatorem, no to Ableton też będzie w stanie tą wtyczkę
umieścić w odpowiedniej kategorii w przeglądarce.
No i mamy ulepszenia funkcjonalności i tutaj przechodzimy do tematów związanych
z dostępnością i tutaj pojawiły się takie trzy znaczące zmiany.
Po pierwsze, jeśli jeszcze chodzi o właśnie przeglądarkę i te automatyczne tagi i funkcje filtrowania,
no one zostały po prostu nam udostępnione dla czytników ekranu.
Powszechnie cała sekcja filtrów po prostu była dla nas nierozstępna, nie dało się do niej dojść tawem,
a nawet jeśli ją znaleźliśmy voice-overem, to tam po prostu była pusta grupa,
więc jedyne co mieliśmy do dyspozycji, no to właściwie było pole wyszukiwania,
no i te kategorie, które mieliśmy na tym drzewku.
Ale jeśli chcieliśmy jakieś dodatkowe filtry sobie włączyć, no to się tego nie dało zrobić,
albo zresztą dodać własne filtry, bo też można, no to się na szczęście zmieniło.
Ta sekcja po prostu jest dla nas dostępna, czy to na Windowsie, czy na Macu.
Po prostu czytniki ekranu będą w stanie do niej dotrzeć i czytać nam co mamy pod fokusem.
Możemy chodzić po niej tabem, szczałkami, kursorem voiceovera.
Po prostu to wszystko teraz nam działa.
Podobnie jak interfejsy użytkownika urządzeń MaxForLive.
MaxForLive to jest takie środowisko programistyczne, które pozwala użytkownikom pisać własne wtyczki, głównie właśnie pod Abletona.
Czyli to jest coś podobnego jak np. efekty JS w Reaperze, jeśli ktoś kojarzy.
Tam też właśnie można w takim specjalnym języku oprogramowania wtyczki pisać.
No i Evil Town ma coś podobnego i wiele z nawet wybudowanych wtyczek z tego środowiska korzysta i te wtyczki były dla nas do tej pory kompletnie nierozstępne, no bo miały zupełnie graficzny interfejs, no a okazuje się, że dało się go stosunkowo łatwo udostępnić, bo w tej najnowszej aktualizacji większość kontrolek w tych wtyczkach po prostu nie jest dla nas dostępna i tak na przykład jeśli załadujemy sobie, no nie wiem, wtyczki z serii
Drumsynth, czyli taki syntezator elektroniczny
perkusji, który wcześniej był dla nas zupełnie niedostępny, jeśli chcieliśmy
jakieś parametry sobie tych wtyczek dostosować, nie dało się.
No to teraz ładnie, niezależnie od tego jakiego czytnika ekranu używamy, możemy
sobie przejść tabem, kursorem voiceovera i będziemy wszystkie te słowaki widzieć i
wszystkie skróty klawiszowe, które znamy gdzieś z innych kontrolek będą nam
działać i możemy te parametry sobie zmieniać.
Nie wszystkie jeszcze kontrolki zostały tak udostępnione.
Na szczęście te najczęściej używane, czyli właśnie jakiś suwaki, jakieś
przełączniki, pola wyboru, to wszystko działa, więc większość wtyczek powinny być
w miarę dostępne. Jeśli jakaś wtyczka korzysta z jakichś bardzo graficznych
kontrolek, może jakichś przycisków do nagrywania, to na ten moment one dostępne
Jeszcze nie są, ale przypuszczam, że to z czasem też będzie się zmieniało, a to i tak jest bardzo duży krok w przód, jeśli chodzi o tą dostępność.
No i zostały dodane skróty do powiększania i pomniejszenia interfejsu.
Mianowicie CTRL plus i minus, CTRL równa się i minus pozwoli nam po prostu przybliżyć lub oddalić ją od interfejsu użytkownika.
Także to jest też myślę, że coś, co może się zwłaszcza dziś osobom słabo widzącym przydać, które by chciały jednak na ten, a po prostu interfejs popatrzeć.
Mamy jeszcze inne drobne poprawki.
Poprawiono czytanie przeglądarki przez czytnik ekranu w Windowsie.
Poprawiono czytanie, kiedy poruszaliśmy się pomiędzy pola edycji i sygnatury czasu w ustawieniu, jak też drobne poprawki dostępności były wprowadzane.
Natomiast to są trzy sztandarowe zmiany, które się pojawiły związane z dostępnością, ale zdradzę Wam tajemnicę, bo tam jeszcze miała być czwarta zmiana,
która podczas publicznej fazy beta była testowana i ona działała bardzo dobrze.
Zresztą jeśli ktoś chce się zapisać do publicznej bety, a macie wykupionego Abletona,
to można, jest po prostu formuła szczury, się wypełnia i po 24 godzinach po prostu
dostaje się dostęp do tej publicznej bety.
No jeśli ktoś z tej bety korzystał, no to pewnie zobaczył, że tam była dodana jeszcze
jedna dosyć znacząca poprawka, która była jedną z głównych rzeczy, które na start
w Abletonie dostępne nie były, a mianowicie to było, to był dostęp z
klawiatury do automatyzacji.
Coś co jeśli tworzyliście jakąkolwiek muzykę, ale zwłaszcza muzykę elektroniczną
no to będziecie wiedzieli, że to jest bardzo znacząca rzecz, bo automatyzacja
pozwala nam zmieniać różne parametry naszego projektu, jakiegoś instrumentu
podczas jego trwania.
Czyli jeśli kiedyś słyszeliście, że jakaś piosenka na sam koniec się ścisza.
Prawdopodobnie to właśnie była automatyzacja.
Ktoś zautomatyzował głośność całego projektu.
Jeśli słyszeliście, że piosenka zaczyna się tak, że ten dźwięk jest taki stłumiony i
z czasem po prostu robi się taki pełny, jakby ktoś drzwi otworzył, no to
to prawdopodobnie ktoś zautomatyzował jakieś filtry.
Automatyzacja jest wykorzystywana do różnych efektów tak naprawdę
i my do tej pory wejmu to nie dostępu do niej nie mieliśmy.
Mogliśmy sobie nagrywać coś, mogliśmy sobie do kontrolera jakiegoś mili
przepisać jakiś parametr i to nagrać, ale to było tyle.
Gdybyśmy później chcieli jakieś zmiany wprowadzić, no to się nie dało.
W czasie publicznej PET-y została dodana implementacja tego z klawiatury.
Ona działała bardzo podobnie do tego, jak działa dodawanie i usuwanie znaczników
ogólnie w Abletonie, gdzieś w innych miejscach, na przykład na osi czasu
podczas edycji pliku, czyli generalnie chodziliśmy po osi czasu z czałkami,
naciskaliśmy Enter, żeby jakiś znacznik dodać, czyli akurat punkt
automatyzacji, no i jeśli jakiś punkt był zaznaczony, to mogliśmy z czałkami
góra-dół go zmieniać, klawiszem Delete go skasować,
więc to było takie intuicyjne, natomiast podczas testów Devonoperszy znaleźli kilka błędów, które ich zdaniem trzeba było naprawić, może aplikacja gdzieś się wysypywała,
no były jakieś niedociągnięcia, które chcieli poprawić i uznali, że ta funkcja nie jest jeszcze gotowa, żeby ją do tej pierwszej wersji 12.1 dodać,
czyli pewnie będzie udostępniona oficjalnie w 12.1.pewnie coś.
Natomiast nie została ona usunięta całkowicie z Abletona, bo podobnie jak
na przykład przeglądarki internetowe, w Abletonie mamy coś porównanego do flag
przeglądarcy, czyli jakichś ukrytych opcji i preferencji, które użytkownik sobie może
włączyć na własne ryzyko.
No i podobnie właśnie jest w Abletonie, tyle że w Abletonie takie flagi konfigurujemy
dodając w odpowiednim miejscu plik opcji options.txt i w tym pliku wpisując
odpowiednie flagi, które chcemy włączyć i właśnie pod taką flagą w tej pierwszej
wersji 12.1 te funkcje dostępu do automatyzacji zostały umieszczone i w
komentarzu oprócz tego głównego linku, gdzie znajdziecie wszystkie notki o tej
najnowszej wersji, znajdziecie drugi link, w którym znajdziecie informację jaką
konkretnie flagę trzeba wpisać i w którym miejscu trzeba wkleić ten plik, no bo on na
Windowsie i na Macu jest trochę w różnych miejscach, na Windowsie jest w katalogu
AppData, w Roaming, pod katalogu Ableton, a na Macu jest w katalogu Library, jest to
wszystko opisane na stronach bazy wiedzy Abletona.
Jeśli umieścimy ten plik w tym miejscu, no to te funkcje zostaną nam włączone.
Ja je trochę testowałem i jakichś błędów nie zauważyłem, to znaczy aplikacja lubi się wysypywać, ale to chyba z automatyzacją nie jest związane.
To jest generalnie problem z tą aplikacją i ja to potwierdzam.
Niestety, Ableton nie należy do najstabilniejszych programów. Nie wiem czy tak w ogóle, nie podejrzewam tego.
Chyba nie.
Bo przecież to jest narzędzie wykorzystywane także w trakcie różnego rodzaju występów na żywo,
więc ja sobie nie wyobrażam sytuacji, w której ktoś daje koncert czy jakieś inne show i nagle po prostu mamy ciszę i nie jesteśmy w stanie nic zrobić,
bo trzeba program uruchomić na nowo, no w ten sposób to na pewno nie może działać, więc podejrzewam, że tu kwestia współpracy czytników ekranu i Abletona ma znaczenie.
Dokładnie, także jeśli chcecie z tej aplikacji korzystać to po prostu też warto zapisywać co kilka minut swoją drogą, no ale właśnie jeśli chcecie tą automatyzację przetestować można sobie tą flagę włączyć na własne ryzyko, ale też jeśli macie Abletona i chcecie z tych funkcji korzystać no to też warto zapisać się do tego programu publicznych beta testów, akurat na ten moment następnej bety nie ma, no bo właśnie ukazała się kolejna wersja stabilna, no ale przypuszczam, że za tydzień lub za dwa
jakieś bety zaczną się pojawiać i już deweloperzy z działu dostępności zapowiedzieli,
że to wsparcie automatyzacji będzie ulepszane, jak i gdzieś inne,
jeszcze jakieś braki, które w Abletonie pozostały.
Także jeśli chcecie z tej aplikacji korzystać, no to też myślę,
że warto do tego programu beta się po prostu zapisać.
Pojawiają się wiadomości głosowe, wiadomości tekstowe i telefon.
Kogo witamy po drugiej stronie?
Witajcie, witajcie, Robert z tej strony, po raz kolejny dzwonię, już kiedyś dzwoniłem do Was.
I kilka rzeczy mam właśnie. Najpierw aplikacja PeakyBot, którą sobie niedawno kupiłem.
I teraz jak daję udostępni na przykład na zdjęciu na Facebooku, na Messengerze,
to pojawia się pole edycji i nic się nie dzieje. Pole edycji niby do wpisania.
Dajemy wyjście i nic się nie dzieje. Czy wy też takie coś macie?
Czy ktoś korzysta z was, z PeakyBota?
No nie, ja nie mam pełnej wersji na pewno, więc też dawno tego nie testowałem.
Tam były ostatnie aktualizacje, dużo aktualizacji, więc może warto zrobić update do tej najnowszej, jaka wyszła, bo tam ostatnio mam wrażenie, że kilka wyszło aktualizacji.
I nic to nie daje właśnie. Takie mam wrażenie, że to nie działa jak powinno.
Także właśnie tak.
Druga sprawa to radio DHT, bo mam wrażenie, że ono się nie aktualizuje w MixCloud.
Bo jak ja daję archiwum radio DHT, to mi się pojawia pierwszy odcinek, to ten 168, nie najnowszy.
Jeżeli chodzi o RTV, Robercie, to tutaj taka wskazówka, sprawdzaj sobie te linki do odcinków RTV na naszym, na Tyflopodcaście,
dlatego, że niestety, ale Mixcloud pozwala już tylko na 10 odcinków na darmowym koncie, w związku z tym, że my po prostu nie chcemy ponosić dodatkowych kosztów,
bo na razie z Mixclouda nie korzystamy jakoś bardzo mocno,
no to co, te 10 odcinków, tworzymy nowe konto
i linkujemy bezpośrednio ze strony Tyflopodcastu do tej audycji,
też z Facebooka na przykład.
W takim razie, jak wejdziemy w RTV, to gdzie potem trzeba wejść?
Tam jest link Archiwum Radia DHT i wystarczy w to kliknąć i to tam będzie.
Ale to pod danym odcinkiem?
Tak, dokładnie, dokładnie.
Czyli muszę wejść, kliknąć w dany odcinek RTV,
i tam będzie aktywum Radia DHT.
Tak jest, i tam znajdziesz po prostu bezpośredni link do tego konkretnego odcinka RTV.
Mhm, bo już kiedyś się właśnie nagrywałem na innej audycji,
chyba też Tyflo Przegląd, ale chyba ta wiadomość zaginała właśnie.
Całkiem być może.
Od men, tak.
No i jeszcze trzecia sprawa, ale to już bardziej taka informacyjna.
Mam wrażenie, że beta.ios18.01, chyba, przynajmniej takie moje spostrzeżenie,
naprawia problem z tymi powiadomieniami, które się nie pojawiały od czasu do czasu.
Będziemy o tym dziś mówić.
Ale mogę to potwierdzić.
Tak? O, jednak. No to dobrze, to dobrze.
No i czwarta rzecz, tutaj była mowa o duolingu w kolejnych audycjach.
no to ja używam Duolinga i Mądlego.
Na Duolingu angielski, a na Mądlym włoski akurat.
Uczę się, akurat mam wersję premium Duolinga, nie?
Bo jest jeszcze Max, a ja mam wersję premium, nie?
No, i używam.
No dobra, to tyle.
Okej, Robercie, to dzięki w takim razie za telefon.
Pozdrawiamy Cię serdecznie.
To skoro już jesteśmy przy Waszych wypowiedziach,
to może jeszcze posłuchajmy wiadomości głosowej, którą wysłał do nas już chwilę temu, jeszcze przed audycją, Andrzej.
Dzień dobry, ja w kilku sprawach, Andrzej z tej strony.
Po pierwsze chciałem powiedzieć odnośnie wczorajszej audycji,
że udało mi się zarejestrować w aplikacji Frisco
i faktycznie mi jest to jednak wygodniejsze z poziomu
przeglądarki, czy to Safari,
czy Firefoxa lub Chroma.
W każdym razie udało się to osiągnąć i dzięki za zajęcie się sprawą.
Po drugie,
chciałem zapytać, czy macie doświadczenia jakieś już z tymi,
wydaje mi się, że to się nazywa oświadczenie wyrównawcze.
To zaświadczenie, o którym tak było głośno przez jakiś czas w naszym środowisku,
że tam trzeba będzie stanąć na komisję, że w zależności od punktów,
które uzyskamy, dostaniemy stosowną wielkość tego świadczenia.
Ja się, Michale, Ci wypytałem w SMS-ie, czy można by zrobić o tym…
I brata, teraz, i brata, mój dobry brat.
…jak można by się było zarejestrować w tej kwestii,
wypełnić ten wniosek umożliwiający później wezwanie na komisję
i złożenie stosownych zaświadczeń,
złożenie stosownego wniosku o doświadczenie do ZUS-u.
To jest druga kwestia.
A propos historyjek śmiesznych z AI, to mam jedną, w moim przypadku, w moim
mniemaniu przynajmniej śmieszną, bo jest taka aplikacja AI Chat i tam są różne,
no tak można by to określić, boty, z którymi można by było porozmawiać
na różne tematy. Tam jest prawnik, jakiś współtowarzysz zdrowia psychicznego czy coś takiego,
którym można by było porozmawiać o naszym samopoczuciu, jakieś porady w nim ewentualnie uzyskać,
jakby ktoś chciał się w to przez chwilę pobawić. No i jest tam coś takiego jak humanizator.
A opis tego brzmi w ten sposób, spraw, żeby twoje teksty brzmiały bardziej
jak pisane przez człowieka niż tworzone przez sztuczną inteligencję.
A ja jakiś czas temu z narzeczoną widzieliśmy takie creepypasty dla niewtajemniczonych,
co są takie przeważnie krótkie historyjki dosyć, przynajmniej od tego się zaczęło,
no takim elementem dreszczowym, takim mini horror, coś takiego.
I te historyjki tworzone przez sztuczną inteligencję są nawet śmieszne,
tylko że czasami mają takie wpadki językowe, że naprawdę całą powagę
Teraz przypomnienie dziennika, uchwyt swojej myśli.
… sytuacji rozbija jakiś błąd językowy, rażący błąd językowy.
I w jednej z takich historii było, czułem, że coś było nie tak, głęboko nie tak.
No to jednak jest trochę śmieszne, bo raczej by się po polsku powiedziało
bardzo nie tak, niż głęboko nie tak. A ja później w tym AI-chacie,
w tym bocie nazwanym przez nich humanizatorem, wkleiłem to zdanie,
znaczy napisałem to dokładnie, to zdanie od początku, że czułem,
że coś było nie tak, głęboko nie tak i byłem ciekawy, jak to przekształci.
I przekształcił w ten sposób, czułem, że coś było nie w porządku, głęboko nie w porządku.
Przepraszam, że się śmieję, ale naprawdę myślałem, że jeżeli już coś poprawi w tym zdaniu,
to będzie to słowo głęboko, w sensie głęboko nie tak.
Poprawi to na bardzo nie w porządku na przykład, ale nie, że poprawi,
że czułem, że coś było nie w porządku, głęboko nie w porządku.
Także to są wszystkie tematy ode mnie i pytania.
Pozdrawiam, życzę miłej audycji, będę słuchał
i do usłyszenia może jeszcze w trakcie z czymś zadzwonię.
Dzięki Andrzeju za te wiadomości.
Jeżeli chodzi o ten wniosek, o świadczenie wspierające,
bo zdaje się, tak to świadczenie się nazywa, o którym mówisz.
Wiesz co, wydaje mi się, że tu może być jeden podstawowy problem
z pokazaniem tak dokładnie wypełniania takiego wniosku,
że w tego typu sytuacjach to podajemy dość dużo swoich danych osobowych.
Więc pytanie, czy ktoś by się na to zdecydował.
Ja myślę, że ewentualnie jeżeli ktoś już zmierzył się
z takim kompletem dokumentów i wypełniał tego typu wniosek, to fajnie by było, żeby zadzwonił do nas, albo na przykład może podzieli się taką refleksją w komentarzu, albo gdzieś w wypowiedzi pisemnej,
czy i jak jest to skomplikowane i na co tam ewentualnie można trafić, na jakiego rodzaju problemy.
Jeżeli ktoś chciałby się tym podzielić taką informacją, to ja bardzo serdecznie zapraszam do kontaktu, jesteśmy tu i możemy się wzajemnie takimi różnymi informacjami i taką wiedzą wspierać.
Jeszcze tutaj widziałem jeden komentarz, tak trochę przedłużam dlatego, że usiłuję do tego komentarza dotrzeć.
O właśnie, mamy. Od Eweliny to jest wypowiedź.
Cześć, mam problem z voice-overem, który nieprawidłowo
oznajmia na przykład godzinę.
Siódma trzydzieści dziewięć.
Proszę o poradę.
Ale w czym jest problem z tą godziną?
Że chodzi o to, że mamy dwunastogodzinne formaty?
To jest moje pierwsze skojarzenie.
że jest dziewiętnasta, tak? Teraz jest dziewiętnasta,
nie, jest dwudziesta czterdzieści jeden.
To ósma, powiedzmy, by była, tak?
Tak, tak.
Jeżeli o to chodzi, to no to daj znać, Ewelino.
Tak, to ustawienia pewnie tam daty i godziny, nie?
Albo daty i godziny, albo języka i regionu, teraz nie pamiętam.
Albo tu, albo tu.
I jest jeszcze coś takiego, takie pytanie od Eweliny.
Powiedzcie proszę, gdzie można znaleźć tryb interpunkcji.
Tryb interpunkcji, no możesz sobie go dodać
albo do wokrętła, albo do ekranu szybkich ustawień, a generalnie on jest w ustawieniach
VoiceOvera, teraz nie pamiętam czy w sekcji mowa, czy w sekcji szczegółowość, chyba szczegółowość.
Teraz myślę, że możemy przejść do kolejnej informacji, to jest informacja od Pawła, a dotyczy
klienta na iOS i klienta Fediversum konkretnie na iOS, ale jakiegoś takiego nietypowego.
Tak, Pipilo, bo o takiej aplikacji mowa, to dzieło polskiego programisty Łukasza Rutkowskiego, którego odkryłem zupełnym przypadkiem, znaczy ja zapostowałem coś na tym, na Salonie, podhasztagowałem, tam też chodziło o kwestię rozwijania apek na iOS, no i Łukasz polubił zdaje się mój post, czy podbił, i mnie też zaśledził, więc zaciekawiłem się czym się Łukasz zajmuje.
No i w jego bio znalazłem link do Pipilo, postanowiłem przetestować, bo zauważyłem, że w liście zmian również, że wprowadzał on poprawki pod kątem voice-overa.
Ja zawsze takich aplikacji jestem ciekaw.
No więc okazuje się, że Pipilo jest klientem Fediverse’u, bo nie tylko Mastodona, który pokazuje nam posty w widoku osi przewijanej poziomo.
No i ja się tak zastanowiłem, a jak to wygląda pod voice-overem, no bo voice-overem to ja zazwyczaj nawiguję poziomo gestami lewo-prawo.
I jak on to w sumie mi uczyni różnicę, w sensie co to mi da, że trochę inaczej wygląda nawigacja.
No ja już wam pokażę jak ta nawigacja wygląda.
Bo mam pipilo otwarte.
No właśnie, widzimy już od razu, to jest główny ekran aplikacji, to nie jest tak, że ja wszedłem w jakiegoś posta, bo w takiej typowej aplikacji, w typowym kliencie jakiejś sieci społecznościowej, no zazwyczaj wygląda to tak, że mamy ekran główny, na którym jest lista jakichś tam postów, czy to są posty z osi głównej, czy to są jakieś powiadomienia, czy jakaś tam lista, czy oś czasu konkretnego użytkownika.
No tutaj nie, tutaj mamy pokazany od razu konkretny post wraz z całym kontekstem, czyli odpowiedziami, kto podbił, czy jakiś tam jeszcze ktoś się do tej dyskusji podłączył, czyli mamy od razu cały przegląd, możemy sobie przeczytać od razu całą konwersację wokół tego posta.
A jak się między takimi postami przełączamy?
Ano mamy, tu gdzieś u dołu ekranu.
Mamy suwak i suwakiem jedziemy sobie w górę, w dół.
Pozostało 566 postów, pozostało 565 postów, pozostały 564 posty.
Pozostało to znaczy, że jestem na tam
564 poście od dołu.
Trochę tak jakbyśmy byli w buforze jakiegoś
Twizzcake’a i on by nam mówił, że tam jeden z iluś tam.
No i teraz jestem sobie w tym
wątku.
Przesunąłem na któregoś tam posta.
Cztery palce do góry.
No zgadzam się zresztą z panem Adrianem Rossellim. Rola menu aria nie jest od tego, żeby robić menu nawigacyjne na stronach, ale nie o tym jest ta wypowiedź.
Bardziej chodziło mi o to, że przesunąłem się na konkretnego posta i teraz mogę nawigując w prawo, prawdopodobnie jakieś tu interakcje przejrzeć.
O, mam od razu link, w który mogę kliknąć, żeby sobie przejść na podlinkowaną stronę.
O, tu kolejny link.
Gdyby ten post miał jakieś odpowiedzi, zaraz zobaczymy czy taki znajdę.
Pozostałe 563 poste.
Krawwrit. Hopping do Headscota Korkpia.
O, tu jest jakaś…
Adam Linnea. Krawwichony Areju Gatfing.
I jest go.
O, i tu mamy na przykład odpowiedź na tego posta.
Krawwrit. Adam Linnea.
I tu sobie znowu odpowiadają.
Adam Linnea. Krawwichony Areju Gatfing.
Pozostałe 563.
I jestem na suwaku do przełączania postów.
No prosiłoby się.
I to już jest zgłoszone.
I Łukasz odpisał, że to zrobi.
i w ogóle będę dodany do TestFlight’a aplikacji i będę to testował, żeby ten suwak nie mówił tylko tam pozostało ileś tam postów, pozostało ileś tam postów, ale żeby od razu po przesunięciu przeczytał całego tego posta, którego właśnie podświetliłem i wtedy ja suwakiem mogę sobie pstrykać, czytam posty przesuwając się suwakiem góra-dół, a jak mnie jakiś post zainteresuje to wystarczy, że sobie przeflikuje w lewo
mogę sobie klikać w linki, przeczytać wszystkie odpowiedzi, sprawdzić czy ktoś to podbił i tak dalej i tak dalej.
Także no taki pomysł na przeglądanie Fediverse’u, jeszcze wam tu powiem dla kompletności naszych archiwów jakie konkretnie jakby projekty
fediwersowe są wspierane.
Współpracuje z
Mastodon, PixelFed,
Pleroma, Akoma,
Frendica, FireFish,
Sharky, Katodon,
IceShrimp i GoToSocial.
No czyli w większości są to
Mastodono podobne mikro blogi,
ale np. Pleroma to jest już taka
typowo bardziej blogowa platforma,
gdzie się pisze takie raczej dłuższe
wypowiedzi z jakimś chyba też
tytułem.
Nie wiem czy Akoma też nie jest podobna, Friendica to taki Facebook, gdzie się też tam dodaje znajomych, zakłada grupy i tak dalej, Pixelfed to taki Instagram, więc możemy przeglądać sobie zdjęcia, o ile ktoś dodaje w nich opisy alternatywne, no także nie najgorszy klient, ma powiadomienia push w wersji płatnej, którą można sobie wykupić, dużo innych jeszcze funkcji tam gdzieś w wersji płatnej się pojawia,
Także myślę też z uwagi na to, że aplikacja w ogóle jest w języku polskim i to nie takim tłumaczonym maszynowo jak Mona, tylko rzeczywiście autorem jest Polak, więc też interfejs po polsku skonstruował sam od podstaw.
Warto się aplikacją myślę zainteresować, zwłaszcza, że tak jak wspomniałem, autor w tą dostępność trochę pracy wkłada.
I oby wkładał te prace w dostępność dalej, żeby ta dostępność w aplikacji się rozwijała, tego myślę, że wszyscy byśmy sobie życzyli.
Tymczasem mamy kolejne wypowiedzi od Was. Mamy na przykład wypowiedź tekstową na Whatsappie od Piotra.
Cześć, z tej strony Piotrek. Tracę wzrok, w związku z czym coraz trudniej mi się czyta.
Jeśli mam długi artykuł w internecie, to korzystam z przeglądarki Microsoft Edge i wybieram opcję czytaj na głos.
Czy jest podobne narzędzie do czytania e-booków? Korzystam z iPhona. Z jakich aplikacji korzystacie przy czytaniu e-booków?
Pozdrowienia! No na pewno VoiceDream albo Speech Central, to takie moje dwa pierwsze typy.
Tak, przy czym VoiceDream, trzeba pamiętać, jest aktualnie usługą subskrypcyjną dla nowych użytkowników.
Zdaje się, że tak, bo ktoś ostatnio mówił, że ściągnął sobie od nowa i nie miał tej subskrypcji, więc czuję się trochę zagubiony.
Ale może dlatego, że kiedyś już go kupił.
Możliwe.
Możliwe.
Więc no tutaj wchodzi w grę abonament, natomiast Speed Central jak najbardziej.
Tak, dla użytkowników voiceovera jest darmowy.
Tak, ale myślę, że też tutaj jeszcze warto wspomnieć o Eleven Labs Readerze, no bo też o tym o nim mówiliśmy, no on nie zawsze czyta po polsku, to są modele sztucznej inteligencji, ale jeśli odpowiadają Ci te głosy z Edge’a, które jednak są chyba trochę bardziej ludzko brzmiące, no to Eleven Labs Reader też może być ciekawą propozycją.
Słuchajcie, tak a propos Eleven Lapsa, głosów generowanych właśnie przez Eleven Lapsa i też trochę creepypasta, o których wspominał Andrzej w swojej wypowiedzi głosowej na Whatsappie nagranej,
to coraz więcej treści na YouTubie, na różnego rodzaju kanałach jest generowanych właśnie przez sztuczną inteligencję, jeżeli chodzi o głosy, głównie przez Eleven Laps.
I ostatnio właśnie trafiłem na jakiś taki kanał z jakimiś creepypastami, to takimi typu, nie wiem tam, godzina mrocznych opowiadań dotyczących autostrad, godzina mrocznych opowiadań dotyczących zimy, czy tam jakichś mrocznych historii.
Zabawne jest to o tyle, że mam wrażenie, że ktoś kto generuje te wypowiedzi to nie przesłuchuje później tego, a przynajmniej nie zawsze, bo czasem ten Eleven Labs potrafi się przełączyć na zupełnie inny język i generować wręcz jakieś po prostu śmieci przez kilka minut.
ostatnio na coś takiego trafiłem, także to taka myślę, że podpowiedź dla tych wszystkich, którzy no generują sobie takie treści rzeczywiście Eleven Lapsem i chcą, żeby później ludzie tego słuchali, to no zwracajcie uwagę co tam się dzieje później w tym materiale, bo potem się może okazać, że najbardziej przerażający z tej historii jest ten bełkot syntezy, która się odezwie.
Ja może jeszcze dorzucę jedną podpowiedź, jak teraz pomyślałem, też nie
doprecyzowałeś Piotrze, czy na razie korzystasz jeszcze po prostu z
powiększenia czy z czynnika ekranu, natomiast jeśli głównie jeszcze bazujesz
na powiększonym tekście, to w iPhone’ie warto sobie włączyć jeszcze jedną rzecz w
ustawieniach dostępności, to jest ta w tej podsekcji mowa, a mianowicie to jest ta
funkcja move ekran i kiedy ją sobie włączymy, to w każdym miejscu, nawet w
aplikacji, nie wiem, iBooks na przykład, czy Kindle, nie wiem jak to zadziała z polskimi
aplikacjami do czytania niestety, ale jakbyś sobie jakiś plik ePub załadował do iBooks,
no to to zadziała na pewno. Z dowolnego miejsca, kiedy przesuniesz
dwoma palcami w dół, no to po prostu ci iPhone zacznie zawartość ekranu czytać.
I to się też wtedy wyświetli na ekranie blokady jako takie normalne kontrolki
odtwarzania. Będzie też takie pływające okienko na ekranie, którym możesz sobie
prędkość dostosować, to się nawet może przydać użytkownikom voiceovera.
W sumie z voiceoverem to uaktywniamy dotykając najpierw paska statusu i dopiero
potem używając tego gestu dwoma walcami w dół, ewentualnie możemy sobie też skrót do
tego przepisać, bo no właśnie to działa nawet jeśli ekran jest zablokowany, więc jeśli
mamy jakiś dłuższy artykuł i co chwila gdzieś dotykamy ekranu i nam to czytanie się
przerywa, a chcemy go sobie spokojnie przeczytać, no to można się wtedy tą funkcją
posilić. Tak przy okazji.
Zajrzyjmy teraz do wypowiedzi głosowych. Na Whatsappie mamy dwie wiadomości od Mileny.
telefoniczna, a nie mam tej klawiatury z emotikonami, nie wiem, właśnie. Przynajmniej tak w BOLC-ie jest.
Więc nie mogę tam żadnej emotki oka niestety wkleić.
Jeszcze dodam, tu Milana jeszcze raz.
Jeszcze tylko dodam, że owszem, czat jako czat jest dostępny, jak chodzi o BOLC-a,
bo fajnie się na nim pisze, tylko ja potem nie widzę odpowiedzi, jak ktoś mi odpowie.
Nie wiem, gdzie ona kurczę jest.
Nie mogę do tego dojść.
Tak jeszcze w woli wyjaśnienia odnoszę tego czatu, bo do tego się
póki co nie odniosłam.
No to tyle, jak coś to w kontakcie.
Wyślij.
A to jest bardzo ciekawa historia z tym czatem,
konkretnie z historią czatu, bo ja ją po prostu widziałem powyżej wiadomości,
być może coś, powyżej tego pola z wiadomością, być może coś się popsuło w ostatniej wersji Bolta,
to no niestety, to tak, to tak jest. A co do tej emotki, też ciekawa sprawa, być może gdzieś koło liter
jest jakiś dodatkowy przycisk do wprowadzenia tej, tej emotikony, tak, no to by trzeba było po prostu
jeszcze dokładnie sprawdzić w tej aplikacji, jeżeli o to chodzi, tak mi się po prostu wydaje, no bo na ten moment, nie wiem,
ty Pawle na przykład, albo Piotrze, korzystaliście ostatnio właśnie z Bolta, udało wam się jakoś te emotki wprowadzić, czy nie,
bo ja powiem szczerze, akurat nie wprowadzałem tej emotki, bo profil zakładałem znacznie wcześniej niż ona była,
a jakoś zapomniałem, żeby ją sobie zaktualizować, żeby zaktualizować profil na tę emotkę.
Ja niestety też tego nie robiłem, natomiast myślę, to zawsze można, jeśli to po prostu jest zwykłe emoji Okan, to może wkleić z notatek na przykład,
bo może funkcje edycji na pokrętle powinny być dostępne.
Też inne pytanie, bo nie wiem jaki masz telefon, natomiast pamiętaj, że w tych nowszych iPhone’ach, nie wiem, po prostu z tym większymi ekranami,
nie wiem, 12 nawet już te modele mini też, ten klawisz emoji jest zawsze minimalnie pod
klawiszem litery i cyfry i wiem, że na początku jak ja zmieniałem telefon, przechodziłem
z iPhone’a SN na 13 akurat, no to na początku zastanawiałem się, kurczę, gdzie to emoji
mi się zgubiło, a ono po prostu jest na samiutkim dole lewym dolnym rogu ekranu.
Mamy jeszcze kolejne wiadomości, na przykład mamy wiadomość od Roberta.
Nagrywanie bez przytrzymywania. Wyślij przycisk.
Witajcie, witajcie. Tu znowu Robert z tej strony.
Tym razem się nagram. Rzeczywiście to, co mówiliście o tym archiwum Radio DHT zadziałało.
Także pozdrawiam. Dzięki za podpowiedź.
Ale jakby ktoś z tym piki botem wiedział, bo mi się tam pojawia to pole edycji
i nawet jak się da wyślij, to się nic nie dzieje.
Jakby ktoś coś wiedział, no to chętnie się po informacji dowiem, czy to w ogóle działa na Messengerze i innych właśnie portalach, niż tylko galeria zdjęć, bo trochę szkoda, że to jest tak zubożałe, bo inne aplikacje sobie radzą bez problemu, a ta to niestety widać wtedy, by była zubożała.
No to pozdrowionka i miłego wieczoru.
Jeżeli ktoś będzie wiedział to zatem zachęcamy do kontaktu możecie na WhatsAppie się nagrywać możecie też do nas pisać czekamy a teraz czas na kolejną informację tym razem informacja dla użytkowników NVIDIA bo twórcy tego czytnika ekranu chcą dowiedzieć się tego i owego szczególnie od użytkowników Braila.
Dokładnie, i pamiętam jak ostatnio rozmawialiśmy o ankiecie od NV Access, to tak stwierdziliśmy, że ona jest taka mało szczegółowa, tak? Zbyt otwarte te pytania były.
No, tym razem tego powiedzieć myślę nie możemy, bo faktycznie pojawiła się kolejna ankieta, tym razem skierowana do użytkowników Braila.
No właśnie na podstawie tego, że w poprzedniej ankiecie dużo osób zwracało uwagę na to, że NVDA w obsłudze Braila ma jednak braki,
Więc MVI Access po prostu chciałoby się dowiedzieć dokładnie o jakie braki chodzi.
Więc wyruchomili kolejną ankietę.
No i tym razem tak jak poprzednio ta ankieta miała chyba po prostu jedną stronę.
Tym razem stron mamy pięć i to już są konkretne szczegółowe pytania.
W większości to są po prostu przyciski optik, które możemy zaznaczać.
Także można tą ankietę bez problemu sobie np.
z tłumaczem wypełnić.
Oczywiście tam jest też kilka takich pytań otwartych, no to też możemy się
ewentualnie tłumaczem posilić, lepiej pewnie będzie odpowiadać w języku angielskim.
Natomiast jeśli faktycznie korzystacie z NVDA,
z monitorem Brightowskim, to myślę, że warto tą ankietę wypełnić.
Twórcy piszą, że ona powinna zająć około 10 minut do wypełnienia i myślę, że
Tradycyjnie już w tym poprzeglądzie jak omawiamy jakieś ankiety no to mówimy wam co tam możecie spotkać to myślę, że też po prostu sobie przez tą ankietę przejdziemy i powiemy wam jakie pytania napotkamy.
Na pierwszej stronie pierwsze pytanie jak często korzystamy z MVDA i tutaj mamy odpowiedzi od codziennie, co tydzień, co miesiąc, rzadko i nigdy i to jest jedyne pytanie na pierwszej stronie przechodzimy na stronę drugą.
I na drugiej stronie mamy Braille kontra mowa.
Kiedy korzystasz z MVGA? Czy bardziej korzystasz z mowy czy z Brailla?
I mamy tutaj odpowiedzi. Korzystam tylko z mowy.
Korzystam bardziej z mowy niż z Brailla.
Korzystam porówno z mowy i z Brailla.
I bardziej polegam na Braillu.
i ostatnia możliwość, tutaj korzystam wyłącznie z Briana.
To jest strona druga.
Na stronie trzeciej sprzęt i satysfakcja.
Z jakiego monitora Brianowskiego korzystasz w kombinacji z NVDA?
I tutaj mamy pola wyboru.
Modele, które zostały nam zaprezentowane są ciekawe.
Ja przypuszczam, że one zostały wzięte pod uwagę, nie wiem, ze statystyk, które NVDA się zbiera.
No te modele są takie ciekawe, bo mamy tutaj Humanware Brilliant BIBI, nie jest napisane która generacja.
Mamy Focusa Blue 40, mamy Focusa Blue 80, Kims Braille Sense Polaris, Alva BC 680,
Namywa się Eurobrail, OrbitReader20, OrbitReader40 i inne.
Więc jeśli korzystamy z jakiegoś innego monitora, to tutaj też możemy po prostu wpisać z jakiej linijki korzystamy i po prostu na to pytanie odpowiedzieć.
Następne pytanie, jak bardzo jesteśmy zsatysfakcjonowani z obsługi Braila w NVDA?
I mamy tutaj skalę od 1 do 5, gdzie 1 to bardzo niezsatysfakcjonowany, a 5 to jest bardzo zsatysfakcjonowany.
Następne pytanie, tutaj też w skali od 1 do 5, jak naszym zdaniem łatwo jest skonfigurować Braila w NvDA?
I tutaj też 1 to jest bardzo trudno, a 5 to jest bardzo łatwo.
Następne pytanie, jak łatwo naszym zdaniem są w użyciu funkcje związane z Braille’em w MVDA?
No i tutaj też właśnie od 1 do 5.
Następna strona, na następnej stronie mamy problemy i zadania.
Jesteśmy, wiemy o następujących problemach związanych z Braillem.
Jak ważne są te błędy dla Ciebie?
I tutaj mamy skalę od NA, czyli nie dotyczy.
Mild, czyli takie mało dla mnie istotne, średnio istotne i bardzo poważne.
Jakie tutaj błędy mamy, jakie tutaj mamy wymienione błędy?
to nawet mamy w nawiasie konkretne numery tzw. ticketów issues na githubie, więc
gdyby ktoś chciał sobie też później poczytać konkretnie, jeśli jakieś rozmowy
się toczą na temat tych błędów, a to jest też fajne dla tych, którzy na githuba
nie zaglądają, no bo on nie jest najłatwiejszy w obsłudze, a tą ankietę
wypełniają, no to o czym nvaccess już wie.
Ponowne połączenie niektórych monitorów regowskich wymaga restartu nvda.
Znaczniki zakończenia tabeli nie są prawidłowo wyświetlane w braillu w Microsoft Word 365.
NVDA nie wyświetla nic sensownego w braillu dla emoji.
No i faktycznie domyślnie emoji w braillu w ogóle nie są wyświetlane.
Natomiast tutaj też warto wspomnieć o tym, że jeśli komuś na tym zależy,
A myślę, że to jest akurat dosyć ważna kwestia dzisiaj, no to dodatek Braille Extender akurat pozwala ten problem rozwiązać, ale faktycznie domyślnie w MVGA emoji w Railu nie są wyświetlane, a na przykład na Macu, czy w Joshie ostatnio też to już działa.
Kursor nie wyświetla się w Railu podczas wypełniania formularzy PDF w Adobe Acrobat.
To jest kolejny błąd.
Braille nie działa w bezpiecznych pulpitach, kiedy normalna kopia MVDA jest uruchomiona, czyli np. kontrola konta użytkownika, kiedy się otwiera.
Mova i Braille nie są niezależnie konfigurowane.
Przepraszam, że tutaj chodzi o formatowanie dokumentów, np. co ma być czytane, a co nie.
No bo faktycznie na ten moment, jeśli np. wyłączymy oznajmianie o nagłówkach, linkach, no to po prostu to jest wyłączane i w Mowie i w Brainu, a z formatowaniem to było jeszcze gorzej, w najnowszej wersji to zostało nieco poprawione i teraz też jeśli nasza tablita brainowska nie wspiera atrybutów formatowania, no to też MVGA mimo wszystko może je nam wyświetlać, ale to jest cały czas też powiązane chyba z Mową niestety.
Nic nie jest wyświetlane w Blindu podczas pisania i edycji tekstu w polach edycji w aplikacji Zoom, więc to jest coś, co ja jak najbardziej zauważyłem.
NVDA nie wyświetla żadnych informacji podczas bezpośredniej edycji w komórkach.
Nie wiem czy tutaj chodzi ogólnie o komórki w tabelach wszędzie, czy tutaj chodzi o Excela, nie jest doprecyzowane, musiałbym wejść na ten błąd na GitHubie, akurat z Excela nie korzystam na tyle, żeby tutaj się wypowiedzieć.
Wyświetlanie w brajlu MVDA jest zbyt gadatliwe, zbyt szczegółowe lub jego kolejność jest mało intuicyjna, więc jeśli, nie wiem, nie podoba nam się, jak niektóre rzeczy są gdzieś długo,
wyświetlane, może w nie takiej kolejności, jak byśmy chcieli, bo tutaj chodzi konkretnie o to.
Też coś, co możemy sobie Braille Excenderem bardziej spersonalizować.
NVD nie wyświetla w brajlu informacji o błędach pisowni lub numerach stron.
To jest kolejny błąd.
No i na końcu, także tutaj dla każdego z tych błędów możemy zaznaczyć jak one są
naszym zdaniem ważne.
Następne pytanie, tutaj jest poniekąd takie bardziej pytanie otwarte, ale też ukierunkowane.
Opisz jakiekolwiek błędy, które zauważyłaś, zauważyłaś związane z Braille’em,
jeśli korzystasz z MVDA i wykonujesz następujące zadania.
Jeśli unikasz konkretnych zadań przez błędy w MVDA czy wsparciu Braille’a w MVDA,
no to proszę też daj nam tutaj znać.
I mamy tutaj pytania takie jak programowanie i testowanie oprogramowania.
Tutaj też taka uwaga, w Firefoxie nie wiem czemu wszystkie pole edycji w formularzach Google są oznajmiane jako nierozstępne,
ale one dostępne jak najbardziej są, także jak usłyszycie nierozstępne, spokojnie można pisać.
Wykorzystywanie programów do edycji tekstu, na przykład Microsoft Word.
Używanie arkuszy kalkulacyjnych np. Excel, korzystanie z programów do poczty np. Outlook,
branie udziału w spotkaniach online np. Zoom, Microsoft Teams, nawigowanie po stronach internetowych,
media społecznościowe, zakupy online, banki, przeglądanie i zarządzanie plikami,
czytanie książek czy innych elektronicznych publikacji, korzystanie z platform edukacyjnych
Moodle, Blackboard i to jest ostatnie pytanie.
Na tej stronie mamy jeszcze jedną stronę.
Czy korzystasz z funkcji Brailla w innych czytnikach ekranu i tutaj też mamy po prostu
pola wyboru, JAWS, Dolphin, Screen Reader, Narrator, VoiceOver na Macu, VoiceOver na
iPhone i iPadzie, TalkBack, ChromeVox, Orca, BRLTTY poza NVDA, no bo BRLTTY to jest
linuxowy czytnik ekranów, głównie dla terminali w braillu, ale też na Androidzie
działa i inne.
Jeśli korzystasz z innych czytników w ekranu, w brajlu, jak twoim zdaniem to wsparcie jest porównywane do NVDA?
Czy są jakieś funkcje związane z brajlem w tych innych czytnikach ekranu, z których korzystasz, a które chciałbyś, żeby pojawiły się w NVDA?
I na końcu mamy też takie otwarte pytanie, czy masz jeszcze jakieś informacje, które chciałbyś nam przekazać, które nie były umieszczone w poprzednich pytaniach.
No i to jest ostatnia strona.
Mamy stronę jeszcze jedną, gdzie możemy podać adres e-mail, gdybyśmy chcieli, żeby NVAccess ewentualnie się z nami w przyszłości skontaktowali, gdyby mieli do nas jakieś jeszcze pytania.
Także to jest cała ankieta. Trzeba przyznać bardzo szczegółowo i faktycznie te błędy, które są dziś tutaj podane są istotne i to są rzeczy, na które ludzie zwracają uwagę,
więc pewnie na tej podstawie Envy Access będzie priorytetować na czym w obsłudze Braille będą się skupiać w przyszłości,
zwłaszcza, że tam gdzieś były informacje na tych klonach na przyszłość, o których mówiliśmy przed ostatniej audycji,
no to będą pewnie nasze odpowiedzi brane pod uwagę.
Także jeśli korzystacie z Braila, korzystacie z NVDA, będzie nam w komentarzu warto sobie tę ankietę po prostu wypełnić.
Bo rzeczywiście obsługa NVDA, jeżeli chodzi o Braila, no troszkę do życzenia pozostawia i tak chociażby porównując do Josa,
więc pozostaje mieć nadzieję, że faktycznie ta ankieta i wnioski, które twórcy NVDA z niej wyciągną,
no po prostu pchnie rozwój obsługi Braila w NVDA dalej.
Zaglądamy do waszych wypowiedzi. Kolejna głosówka na Whatsappie, tym razem od Roberta.
Dobry wieczór, Roberto Lombino z tej strony. Najpierw co do pytania Mileny i Ubera i Bolta.
Tak jak mówiliście, nie tylko dokładnie, w Bolcie, w polu imienia, bo tylko tam chyba są emotki akceptowane,
Można dodać do imienia właśnie, bez odstępu, bez czegokolwiek, emotkę oka, tak jak Paweł mówiłeś.
Ja mam Roberto oko i to jest po prostu jedno słowo.
A w Uberze się tego nie da zrobić i warto w związku z tym pisać zawsze do kierowcy
Dzień dobry, jestem niewidomy, niewidoma
albo jestem osobą niewidomą
i czekam z białą laską
ewentualnie gdzieś tam
myślę, że tej białej lasce warto to dopisać
zwłaszcza, że teraz już
i do tego chciałem dojść głównie
Uber i Bolt ma już teraz
automatyczne tłumaczenie czatu
czyli kierowca może zobaczyć naszą wiadomość w swoim języku
i my możemy normalnie pisać po polsku
tak robię. Odkąd to tłumaczenie jest, to nie miałem problemu i kierowcy dosłownie zawsze nawet podchodzą do mnie, szukają mnie i jak jestem w jakimś bardziej skomplikowanym miejscu, to mnie przeprowadzają przez ulicę i tak dalej. Także polecam.
A druga rzecz, to chciałem Was zapytać, czy macie doświadczenie, pewnie zwłaszcza Ty, Paweł, z takim narzędziem, które się nazywa Teacher AI.
To ma być sztuczna
inteligencja służąca
do nauki języków, którą opracowało
kilku albo kilkoro, nie wiem,
poliglotów znających się na
nauce języków.
Nie sprawdzałem jeszcze jak to jest
dostępne,
więc jestem ciekaw czy właśnie
ktoś z Was może wie o tym.
Jest to albo powinno być to bardzo
rozbudowane, ale są też jeszcze błędy, które no warto zgłaszać.
Ja mówię, nie wiem jak wygląda interfejs, ale jest to na razie beta, jest oficjalnie
napisane, że jest to beta, albo jakby wersja jeszcze nie taka stabilna pierwsza.
Ponoć, to jest informacja sprzed kilku tygodni, także ciekaw jestem czy coś wiecie.
I jeszcze trzecia sprawa jest aktualizacja aplikacji My Way Pro na iOS-a i ciekaw jestem, czy sprawdzaliście to już w praktyce, bo ja na razie tylko widziałem changelog i gdzieś tam jest to rozbudowywane, ale miałem wrażenie, że nie było przynajmniej wspomniane o żadnym z tych błędów, które wymienialiśmy w tyfloprzeglądach.
Było tylko napisane na końcu, że różne usprawnienia, tak to było coś o kolejach szwajcarskich, było coś o jakichś trasach na podstawie beaconów na bluetooth i chyba tyle, ale nie jestem pewien i właśnie było też, że różne usprawnienia.
No, miłego wieczoru Wam życzę i do usłyszenia.
Do usłyszenia Roberto, dzięki za wiadomość Pawle, czy coś chciałbyś do tej wiadomości się odnieść?
Nie testowałem Teacher.ai, w ogóle pierwszy raz o tym słyszę.
Natomiast to co zwróciło moją uwagę to to, że to już jest kolejne rozwiązanie do nauki
języków tworzone przez poliglotów.
No nie jest to z jednej strony nic dziwnego.
Któż jak nie oni.
Ale z drugiej strony to pierwsze rozwiązanie, o którym słyszałem wcześniej, czyli
Speakly, jest dość mocno reklamowane przez YouTuberów, więc
ciekawe jestem czy Teacher.ai też będzie gdzieś tam po YouTubie krążył.
Ale jak będziesz Robert to mam już jakieś wyrażenia konkretne, to się podziel, bo zawsze chętnie o czymś takim tu usłyszymy.
No z MyWay’em podobnie, używam prawie codziennie, teraz tak jakoś wychodzi, ale aktualizacja wyszła dziś, a dziś nie miałem jeszcze potrzeby nawigować gdzieś, gdzie nie wiem jak się idzie.
No myślę, że tu głównie na tym, że ta aktualizacja wyszła, zaważyło to, że był ten błąd z ucinaniem mowy w MyWay’e 18 i chyba to zostało naprawione.
Natomiast tak, wiem, mam dalej cały czas na radarze, jakoś się przez lato kwestia rozmyła, pogadać z osobą tam odpowiedzialną za apkę i się umówić na jakieś ewentualne ulepszenia z tych, które my wykryliśmy, żeby się przydały.
I mamy jeszcze kolejne wiadomości, wiadomości od Mileny.
Nagrywanie bez przetrzymyku wyślij przycisk.
Tutaj odpowiedź do Piotrka od Mileny.
Tak, ja wiem gdzie te emotiki się znajdują, bo też właśnie mam trzynastkę.
I wiem właśnie gdzie ten przycisk do emotikony jaki jest.
Ale właśnie w tym bolcie, w tej aplikacji, właśnie go sprawdzałam chwilę temu
i teraz właśnie tego tam nie ma.
Właściwie pod spodem jest, pod literami, jakby jest właśnie ta klawiatura telefonu.
Spróbuję w notatkach właśnie sobie tę emotkę oka znaleźć i po prostu to, tak jak mówicie,
zaznaczyć i wyciąć i wkleić w taki sposób. Może mi się uda.
Pozdrawiam.
Tu jeszcze raz Milena, no to tak, znalazłam emotkę Olczy będąc w notatce i sobie tam do notatki ją wkleiłam, potem zaznaczyłam, wyciąłam i weszłam do Volta, tam w moim profilu, za nazwiskiem wkleiłam tą emotkę, jak dałam zapisz, no to się zapluło, że to jest niedopuszczalne.
nie dozwolony element, czyli nie można emotek wklejać, jak chodzi o profil, przynajmniej przy imieniu i nazwisku.
Mileno, Mileno.
Wyszli.
Tu jeszcze raz Milena chyba ostatnia
wiadomość.
Jeden plus ten
przycisk do emot ikonek
w tym bolcie znalazłam
tam w tych polach imienia i nazwiska.
No to to się wyjaśniło chociaż.
Wyszli.
No właśnie miałam mówić bo odpaliłem
specjalnie bolta i też widzę
tutaj w polu imię.
Przycisk zaktualizuj swoje imię na
Spisz swoje imię i nazwisko w takiej formie, jaka widnieje w Twoim dowodzie tożspole tekstowe, edycja, Paweł, tryb znaków.
Tu jest moje imię i emoji jest. Także dobrze, że już znalazłeś Milena, jakby ktoś szukał po prostu w imieniu. Da się wpisać emoji.
Tak, tak jak Roberto zresztą też powiedział, tam po prostu w imię, nie w nazwisko właśnie, tylko w imię wprowadzamy tę emotkę.
A skoro, Pawle, już włączyłeś mikrofon, to teraz jeszcze go nie wyłączaj, a poopowiadaj nam, co tam ciekawego w najnowszym EBU In Action.
My wychodzimy z EBU In Action za trzy miesiące, więc w sumie mimo, że odcinek jest najnowszy i ukazał się jakiś tydzień temu, tydzień albo dwa nawet już,
no to temat już trochę przegrzany i którego czas trochę minął, bo wróciliśmy w ósmym już wydaniu
EBU in Action, czyli podcastu Europejskiej Unii Niewidomych do tematu minionych igrzysk paraolimpijskich
w Paryżu. Temat zewsząd ważny poniekąd też dlatego, no nie tylko dlatego, ale też dlatego, że aktualny dyrektor
generalny IBU jest osobą niewidomą i jest również biegaczem i biega maratony.
Także temat jest temu człowiekowi bardzo bliski.
Natomiast też warto takie inicjatywy gdzieś tam promować zobaczyć jak są rozgłaszane w mediach.
No i my przeprowadziliśmy to znaczy nawet nie my jako my bo ja i współprowadzący Neven
Mili Wojewicz. Bardziej prowadziliśmy dyskusję nad wywiadów które przeprowadził nasz
menedżer do spraw komunikacji czyli Nacho Lopez z kilkoma bardzo ważnymi osobami.
Przede wszystkim mamy wywiad z paraolimpijczykiem z niewidomym Judoką z Włoch
Dong Dongiem Kamanim.
Bardzo ciekawa historia.
Polecam wysłuchać w całości, no bo chłopak swoje przeżył.
On urodził się w Chinach, natomiast kiedy się jego rodzice dowiedzieli, że dziecko nie widzi, to niestety go porzucili.
Porzucili go w klasztorze i po około roku zgłosiła się włoska rodzina, która Dong Donga zaadoptowała.
I on już w bardzo młodym wieku gdzieś tam odkrył sport, że to jest jego pasja.
Zaczął od pływania, no a z czasem stworzył gdzieś, wyrobił w sobie miłość dla judo.
No i już był na wielu różnych zawodach.
Paraolimpiada to jest chyba jego pierwsza albo druga.
No i mówi, że to kompletnie inne uczucie niż te wszystkie zawody,
które do tej pory, w których miał do tej pory okazję brać udział.
Mamy też niewidomą dziennikarkę dla Radia France, która relacjonowała i
komentowała zawody igrzyska paroolimpijskie.
Mamy też osobę, która członkinię komitetu organizacyjnego.
No i myślę, że tych wszystkich wywiadów.
Aha i mamy też przedstawiciela Vision Ireland, organizacji osób niewidomych w
Irlandii, dawniej NCBI, która też trenuje niewidomych zawodników, mają swoją sekcję
sportu i też z ramienia tej organizacji wyszło trochę osób, które brały udział w
igrzyskach paraolimpijskich.
Oni zresztą ostatnio wydali chyba jakąś nawet książkę, którą gdzieś tam w Bukszerze i w
Amazonie, w paru innych miejscach można ją wypożyczyć lub zakupić, no i poznać
historię wielu irlandzkich
zawodników paraolimpijskich
i myślę, że może to być też
gdzieś tam ciekawa lektura.
Także po ósmy odcinek
EBU Access Cast.
Boże, nie powinienem był takiej
pomyłki zrobić.
EBU In Action.
EBU Access Cast to
przeszłość już zamknięta,
się ukazał i myślę, że
a zresztą pokażę wam niedługo
jeszcze w innej sekcji tego
Tyflo Przeglądu,
tylko w pewien sposób, jak możecie, nie znając do końca angielskiego się z tym, o czym mówiliśmy w tym podcaście zapoznać.
Więc będzie na pewno warto, jeżeli kogoś zwłaszcza interesują tutaj, no chociażby właśnie tematy sportowe.
Mamy kolejne wiadomości, wiadomości od Sylwestra tym razem i to takie bardzo króciutkie.
Piotrze, u Ciebie jakieś głosy w tle.
Sylwestrze, no jakby to powiedzieć, my nadajemy z własnych naszych domów i czasem tak się zdarza, u mnie na przykład czasem miauczy kot, u Piotra zresztą też czasem gdzieś tam pies się odezwie, zresztą Piotr to nam chyba zniknął w tym momencie,
przynajmniej na razie, więc miejmy nadzieję, że Piotr do nas wróci za chwileczkę i będzie dalej opowiadał o różnych tematach.
Natomiast teraz akurat temat jest mój, chociaż tu będzie akurat informacja dość krótka, dlatego że, a zresztą nie uprzedzajmy faktów.
Najpierw w ogóle kilka słów o tym, co to właściwie jest i o czym będę chciał mówić.
A będę chciał mówić o aplikacji, która nazywa się BenVision.
Dziś to znalazłem. Jest to, właściwie ma być to aplikacja, która pomoże nam jeżeli chodzi o kwestie nawigacyjne.
Natomiast twórcy tej aplikacji podeszli do tematu w dosyć nietypowy sposób.
Mianowicie ta aplikacja ma dostarczać nam informacji takich nawigacyjnych w formie muzyki.
I ta muzyka dzięki temu, że może składać się z różnych dźwięków, z różnych elementów,
ma być po pierwsze przyjemna w odbiorze, że to nie mają być jakieś takie oderwane od siebie dźwięki, jakieś piszczenie, czy inne tego typu rzeczy,
a ma to wszystko komponować się w taką przyjemną muzykę, która będzie nam grała w słuchawkach i my za pomocą tych informacji akustycznych,
które będą dobiegać z naszych słuchawek, będziemy mogli się poruszać, nawigować do różnych rzeczy.
Jak na razie to ten projekt jest w fazie bardzo wczesnych wersji testowych.
Ja dziś nawet próbowałem się zapisać do tego projektu i zapisać mi się udało,
natomiast nie udało mi się pobrać aplikacji.
Aplikacja przynajmniej w teorii dostępna jest na TestFlight’cie.
Otrzymałem link do tego TestFlight’a w mailu powitalnym od załogi BenVision.
Natomiast no niestety po kliknięciu w ten link otrzymałem wiadomość, że link po prostu nie działa.
Więc wielka szkoda, bo brzmi to obiecująco, to co udało mi się znaleźć to jest filmik taki demonstracyjny na stronie projektu BenVision.
Więc teraz postaram się przynajmniej jakiś tam niewielki fragment tego filmu Wam zademonstrować, żebyście w ogóle mogli sobie posłuchać jak to brzmi i ocenić czy w ogóle chcielibyście z czymś takim nawigować.
Co robimy teraz w BenVision, to próbujemy stworzyć język muzyczny, który może być przetransferowany do osób o niebezpieczeństwie wizualnym.
Jest dużo przełomu kognitywnego, jeśli chodzi o wynik z wypowiedzi.
W BenVision próbujemy komunikować informacje o specjalnym zrozumieniu w najbardziej efektywną sposób.
Z muzyczką możemy dać więcej informacji użytkowi,
włączając pozycję obiektów,
rozmiar obiektów i tekstury obiektów.
My myśleliśmy, że jeśli umysł człowieka jest już w stanie
wykorzystać technikę ekolokacji,
to pewnie uda nam się dotrzeć gdzieś po połowie
z tą niesamowitą techniką w rękach
i pozwolić ludziom wyrównać różnorodne znaczenie od muzycznych klawiszy audio-spacjalnych.
I wiesz co? Mieliśmy rację.
Simulacja CGI kobiety używającej aplikacji BEN, aby zobaczyć świat przez muzykę.
Osoba aplauduje za BENVISION po zwycięstwie w MIT Reality Hack 2023.
Chris McNally, judż za MIT Reality Hack 2023.
emulować, która była w tle. Jeżeli to istotnie miałoby tak działać, no to z jednej strony jest to ciekawe, z drugiej strony mam wrażenie, że wymagałoby to jednak zdecydowanie większego treningu niż na przykład coś, co po prostu będzie nam się odzywało albo w jednej, albo w drugiej słuchawce, byłyby to jakieś konkretne tony, no a tutaj, jeżeli rzeczywiście miałoby się to układać w jakąś melodię, to jest druga strona medalu,
moglibyśmy za pomocą tej muzyki, za pomocą tych dźwięków, przekazać znacznie więcej informacji.
Więc są tego dobre i złe strony.
Pytanie jak bardzo skomplikowana jest ta aplikacja.
Na razie, z tego co wiem, to ma ona służyć do nawigacji wewnętrznej.
I to przede wszystkim właśnie z wykorzystaniem kamery ma na przykład za pomocą tych dźwięków
doprowadzić nas do jakiegoś konkretnego obiektu,
którego będziemy poszukiwać na przykład do jakiejś drzwi, albo innej przestrzeni, tego typu, no widać, że to jest taki bardzo projekt laboratoryjny.
Koncepcja ciekawa, ale czy na dłuższą metę i gdzieś tam powiedzmy faktycznie w takim codziennym życiu chcielibyśmy korzystać z takiej nawigacji?
No to jest pytanie. Nie wiem, dla was jest to coś interesującego?
Mi się przypomina ta aplikacja WaveOut, też o niej tu mówiłem, pokazywałem nawet jak to wygląda i rzeczywiście tam bardziej jest kwestia tego stereo, ale ten dźwięk, który się rozlega jest też taki bardzo melodyjny, to jest jakaś tam sekwencja, która jest konkretną jakąś melodią wygrywaną przez aplikację.
Brzmiało to oryginalnie na pewno i tak przyjemnie, miła odmiana od tych wszystkich takich komputerowych bipów, blipów i innych dźwięczków.
Pytanie jak ten system w praktyce będzie wyglądał, czego trzeba będzie się nauczyć, na pewno uważam za bardzo korzystne to, że jest cały czas feedback, w sensie ja myślę, że podstawą dobrej nawigacji zwłaszcza dla osób początkujących jest to, żeby w czasie rzeczywistym móc ocenić, czy my zbaczamy z trasy, czy na niej dalej jesteśmy.
To prawda, to prawda, więc rzeczywiście, no tak jak mówię, ma to swoje, jakiś tam potencjał jest.
Swoją drogą zaobserwowaliśmy właśnie genialny przykład tego, jak nie robić audiodeskrypcji, bo ktoś nałożył audiodeskrypcję w czasie, tak.
Tak, to prawda.
Nie robimy tak.
Dokładnie. Nie idźcie tą drogą. Piotr w międzyczasie do nas powrócił i tu teraz akurat mamy kącik drobnych newsów.
Tu zaczynamy akurat od Pawła. Nie wiem Piotrze, czy ty tu coś będziesz miał tym razem?
Nie, to jest trochę pomylone, bo ja przez przypadek przekręciłem, że to moje newsy.
To oboje mamy, chyba moje były tam pierwsze wpisane, także…
No to antena wasza.
Dobrze, to może zaczniemy od kolejności w notatkach,
od informacji, która myślę wiele osób ucieszy,
przynajmniej użytkowników Androida,
a mianowicie aplikacji Vocalizer na Androida.
Bo, o dziwo, sklep Play
jest jeszcze bardziej agresywny jeśli chodzi o ubijanie nieaktualizowanych aplikacji niż
App Store, nawet do tego stopnia, że Google po czterech latach nieaktywności zamyka ludziom
konta deweloperskie.
Ponoć aplikacje dzisiaj chyba po dwóch latach są usuwane, więc gdzieś od tego czasu nie
był aktualizowany vocalizer na Androida, co mogło jak najbardziej być niepokojące.
Bo to jest jednak aplikacja, z której wiele osób korzysta, bo
Vocalizer generalnie jest bardziej responsywny niż np.
głosy Google.
Nie każdy pewnie lubi RH Voice, a Vocalizer też ma więcej języków obsługiwanych.
No także byłoby szkoda, gdyby zniknął.
Tego mogliśmy się spodziewać, no bo np.
The Code Factor zarzuciło wsparcie Eloquence’a dla MVD i w ogóle ponad
całkowicie licencję do Elegance’a stracili, tak teraz gdzieś wyczytałem.
Więc to zastanawiali się ludzie co będzie z Vocalizerem, no spokojnie.
Kiedy świat ich potrzebował najbardziej powrócili, można tak powiedzieć, bo
oto Code Factory wypuściło aktualizację aplikacji Vocalizer TTS
na Androida. Aktualizacja podnosi wersję aplikacji do
wersji 3.8.2.
I co możemy wyczytać w changelogu.
Aplikacja zaktualizowana, żeby wspierać Androida 14.
Także już jak najbardziej najnowszy, publicznie dostępny system.
Chyba 15 gdzieś tam dopiero zaczyna wchodzić.
Także myślę, że tutaj możemy być na jakiś czas spokojni.
Zaktualizowano bibliotekę odpowiedzialną za billing, za rachunkowość.
Więc jakieś płatności wewnątrz aplikacji powinny działać.
Stary kod jakiś został usunięty, no i poprawki błędów.
Także jeśli korzystacie z Vocalizera albo na przykład, nie wiem, bierzecie to pod uwagę
podczas decyzji jaki telefon kupić w przyszłości, bo może no właśnie
zastanawiacie się czy chcecie jakiegoś nowego Androida czy nie, ale jednak
gdzieś tutaj kwestia syntezy była dla was ważna, no to spokojnie Vocalizer
zostaje i na szczęście ma się dobrze, także no jeśli macie to możecie
spokojnie sobie go aktualizować, a jeśli nie zastanawialiście się, czy go w ogóle
warto jakieś głosy kupować, ściągać, no to myślę, że spokojnie można powiedzieć, że warto.
To jest Vocalizer, teraz jeden temat związany z grami, mianowicie Diablo 4
pojawiła się aktualizacja duża październikowa, skórą to pojawiło się też nowe
rozszerzenie, natomiast rozszerzenie nie jest potrzebne, żeby skorzystać z tej jednej
rzecz, o której chcę powiedzieć związanej z tą aktualizacją, a
mianowicie w końcu pojawiło się coś, co było jakiś czas temu testowane.
To chyba był przełom maja, jakoś chyba to było na wiosnę testowane.
Mianowicie została dodana taka mała pomoc nawigacyjna dla osób niewidomych,
przynajmniej w tak zwanym overworldzie, czyli po prostu tak jakby na świecie,
kiedy, nie wiem, przemieszczamy się między miastami na przykład, żeby dojść
do następnej misji, to możemy w grze, jeśli wskażemy właśnie jakiś cel na mapie no to gra nas
z dźwiękami może doprowadzić do tego miejsca.
Jak to działa i jakie to ma ograniczenia, o tym mówiliśmy już poprzednio, ja to sobie
sprawdziłem, konkretnie mówiliśmy o tym w odcinku 238, więc jeśli chcecie więcej
posłuchać o tym jak to działało to odsyłam was do tego odcinka, tam właśnie
opisywałem teoretycznie jak to działa, a później jeszcze w praktyce pamiętam
zadzwonił Patryk i opisał jak to wygląda.
Natomiast w dużym skrócie, jeśli ktoś już jest na tyle cierpliwy, że grał sobie
wcześniej w Diablo 4, a są osoby, które już się dobrze wbiły z tą grą,
no to to się nam przyda.
Natomiast ta funkcja ma jeszcze swoje ograniczenia.
Nie mamy nadal dźwięków, które by nam pomogły dotrzeć do różnych
postaci NPC, tak zwanych, czy jakieś właśnie postaci, nie wiem, doprowadzi
nas ta nawigacja do jakiejś, nie wiem, karczmy, gdzie może być jakaś misja, ale
później, żeby znaleźć osobę, z którą musimy porozmawiać, no to musimy pomóc sobie
sami i podobnie w lochach, też nie mamy informacji o tym, gdzie są na przykład
jakieś drzwi, no tego typu rzeczy, no tam nawigacja gdzieś jest, no może o tyle
utrudniona, że to mają być lochy.
Natomiast wiemy też, że Blizzard nad nawigacją w lochach też pracuje.
To jest zostało oficjalnie potwierdzone i biorąc pod uwagę, że już były znaczące poprawki do dostępności prowadzone,
mimo to, że pewnie chciałoby się, żeby to było szybciej, bo dla mnie na przykład to jest nadal za mało,
no ale mimo wszystko widać, że jednak coś tam jest robione i pewnie kolejne zmiany związane z dostępnością w Diablo 4
pewnie będą w przyszłych aktualizacjach wprowadzane, także temat warto obserwować.
A jeśli już gracie, podobało Wam się to co było wcześniej, testowaliście gdzieś przez ten tydzień, dwa tą nawigację, kiedy ona była dostępna,
no to w najnowszym patchu, w najnowszej aktualizacji ona po prostu już jest oficjalnie dostępna i z gry raczej już nie powinna zniknąć.
Także oby to było jeszcze ulepszane.
To jest Diablo.
Następnie Linux.
Linux i dostępność graficznego Linuxa, chociaż w sumie może nawet nie tylko graficznego.
A mianowicie, jeden z bardziej aktywnych, niewidomych użytkowników, ale też
deweloperów, który korzysta właśnie z Linuxa, postanowił zająć się tematem,
wydaje mi się dla nas dosyć istotnym, a mianowicie dodał do serwera, do
modułu Speech Dispatcher, czyli to jest ta część Linuxa odpowiedzialna za
syntezę mowy, no to odpowiednik sapi na Linuxie tak, na przykład Orka czy jakieś inne
aplikacje rozmawiają ze speech dispatcherem, a speech dispatcher wie jakie mamy na komputerze
zainstalowane głosy, w jakich językach i po prostu on później komunikuje się z tymi
głosami i wysyła mowę na kartę dźwiękową.
Także no to narzędzie dostało natywne, przynajmniej w takim fazie na razie bardzo
testowej rozwojowej dostało wsparcie dla systemu audio PipeWire na Linuxie, a PipeWire to jest
najnowszy sterownik dźwięku na Linuxie, jaki może, jaki powstał.
Dźwięk na Linuxie to jest temat skomplikowany w czasie istnienia tego systemu, zwłaszcza
gdzieś w wersji graficznych, no to już chyba 3 albo 4 takie środowiska powstały i one
generalnie gdzieś się na siebie nawarstwiały.
Przez dłuższy czas najbardziej popularnym był taki system Pulse Audio, który fajnie
działa dziś z aplikacjami graficznymi i właśnie z tego wcześniej korzystał Speech
Dispatcher. Natomiast on jest bardziej zoptymalizowany pod stabilność, a nie
koniecznie pod opóźnienia, więc gdzieś te opóźnienia są trochę większe, co jeśli
no nawet korzystamy właśnie z czynników ekranu, chcielibyśmy, żeby jednak ta mowa byłaby
jak najbardziej responsywna, to nie jest fajne, ale też gdybyśmy chcieli korzystać z
aplikacji związanej z dźwiękiem, może grać jakąś muzykę, jakąś obróbkę dźwięku, no to wtedy
też chcemy, żeby te opóźnienia były jak największe.
Jak największe, Boże, co ja mówię.
No i właśnie dlatego powstał nowy system do obsługi dźwięku, ale też nie tylko, bo też
nagrywanie wideo.
System nazywa się PipeWire i on generalnie ma za zadanie połączyć wszystkie najlepsze rzeczy z tych systemów, które były właśnie.
I ten w dużym skrócie system jest zarówno stworzony tak, żeby dobrze działać z graficznymi aplikacjami, ale też żeby mieć jak najniższe opóźnienia jak to jest możliwe.
Więc to, nie wiem, porównując to, to bliżej mu do ASIO na przykład, na Windowsie, niż do
do Direct Sound na przykład, to co kiedyś było korzystane z tych pierwszych systemów
audio na Windowsie, więc on ma minimalne opóźnienia, powinien być stabilny,
przynajmniej jeśli aplikacje są pod niego
dostosowane, a nie wszystkie są.
No i w takich sytuacjach jest tam warstwa kompatybilności, która emuluje właśnie ten
poprzedni standard Pulse Audio.
Natomiast jeśli jakieś aplikacje z niego korzystają, no to wiadomo, to później aftery się zwiększają, bo PipeWire tam próbuje coś, że po prostu działa tak, żeby gdzieś ten dźwięk był stabilny, nic się nie zrywało, a czasami on nawet po prostu lubił się zrywać.
Dlatego użytkownicy Linuxa, zwłaszcza ci korzystający z czytników ekranu, często mieli ten dźwięk mniej responsywny.
On lubiał trzeszcze, zwłaszcza w wirtualnych maszynach, no problemy z nim były.
No i to pomału powinno się zmieniać dzięki tym poprawkom, które zostały wprowadzone.
Przygoda była niemała ponoć, no bo tutaj był niskopoziomowy kod w C.
Często też przez to ten dźwięk się psuł, były jakieś dziwne trzaski, ale ponoć było warto,
bo nawet według autora tych poprawek, to może być najbardziej responsywna synteza na jakiejkolwiek platformie.
Nie testowałem osobiście, ale jestem w stanie uwierzyć, więc miejmy nadzieję, że to zostanie gdzieś ustabilizowane
i faktycznie trafi do przyszłych wersji Pipewire, właściwie Switch Dispatchera, który gdzieś z połową zacznie trafiać do kolejnych repozytoriów,
No bo to jest jednak przyszłość, przyszłość, która właśnie jest bardziej
responsywna, a zwłaszcza jeśli ktoś chce pracować z dźwiękiem, no to właśnie jak
najniższe opóźnienia są dla nas bardzo ważne, więc fajnie byłoby faktycznie
jednak z tego Pipewire korzystać, a nie instalować starsze biblioteki, co było
poprzednią rekomendacją, także oby to jak najszybciej było właśnie
dopracowane i trafiło do wszystkich użytkowników Linuxa.
do dziś jest kolejna rzecz, która po prostu na tym systemie powinna działać lepiej.
I ostatni drobny news ode mnie, o którym już króciutko było w sumie.
Mianowicie bety iOS-a 18.1.
Tutaj Robert bodajże odzywał się i mówił o powiadomieniach, coś co zostało właśnie
poprawione i to prawda, bo w poprzedniej becie iOS-a pojawił się taki dosyć
irytujący błąd, który nie pozwalał nam z voice-overem dotknąć wyskakujących
powiadomień, więc jeśli pojawiło nam się jakieś powiadomienie, voice-over nam nie
przeczytał, dotykaliśmy góry ekranu, no bo chcieliśmy sobie w to powiadomienie
wejść, nie dało się po prostu.
Voice-over tego powiadomienia nie widział, mimo to, że ono było czytane, także trzeba
było poczekać aż ono zniknęło i dopiero wtedy mogliśmy otworzyć centrum
powiadomień i je znów odnaleźć.
To na szczęście zostało naprawione, ale przy okazji Apple popsuło coś innego, także przypominamy, wersję beta instalujemy na sprzęcie do testu w miarę możliwości, bo różne dziwne rzeczy mogą się dziać i teraz stało się coś, co może mieć wpływ zwłaszcza na tych, którzy lubią sobie pograć albo korzystać też z innych aplikacji, które z trybu interakcji bezpośredniej korzystają, nie wiem, np. z jakichś aplikacji do tworzenia muzyki, może ktoś z Embrayla korzysta,
korzystają jeszcze, niektóre aplikacje z tego trybu do tego czy innego celu korzystają.
Tryb bezpośredniej interakcji pozwala aplikacjom przekwitywać wszystkie gesty.
Także właśnie jeśli jakaś gra ma swój czytnik ekranu, tutaj gry w Unity,
tak robią QuizWanie, Doncaster, wiele działa w Unity na przykład, one z tego korzystają.
Ale też GarageBand, różne aplikacje muzyczne mogą oznaczyć jakieś obszary ekranu
w taki sposób, że właśnie tam mają gesty być po prostu przepuszczone dalej.
A co się dzieje w najnowszej becie?
VoiceOver niby widzi, że tam mamy obszar interakcji bezpośredniej i faktycznie
gesty przepuszcza, ale aplikacja ich nie otrzymuje.
Także właśnie jeśli jesteśmy w jakiejś takiej grze, możemy sobie wykonywać różne
gesty i będziemy słyszeć, że VoiceOver nic z nimi nie robi, ale dana aplikacja też
ich nie otrzymuje. Także jeśli korzystamy z takich aplikacji, no akurat w przypadku gier Unity to wystarczy wyłącznie
VoiceOvera i one wtedy przechodzą na syntezę systemową, więc można to obejść w taki sposób, no mało wygodny, ale da się to zrobić.
Natomiast w przypadku innych aplikacji, gdzie gdzieś może ten obszar nie zajmuje całego ekranu, no to już może stanowić większy
problem. Także jeśli korzystacie z tego typu aplikacji i zależy Wam, żeby VoiceOver działał z nimi dobrze, no to może warto
jeśli macie bety to do tej najnowszej bety nie aktualizować, a jeśli już
aktualizowaliście no to wyjaśniam skąd ten problem się pojawił.
No w takim przypadku też po prostu trzeba do firmy Apple to w aplikacji
Feedback po prostu zgłaszać.
No i to wszystko jeśli chodzi o moje drobne newsy, ale to jeszcze nie koniec.
Tak zgadza się, bo ja dla was też kilka drobnych newsów mam.
No i po pierwsze ten, który nie tak aż dawno zapowiedziałem, czyli no to jest
coś na co można też wpaść pewnie, więc może już niektórzy z Was połączyli
kropki, ale gdyby ktoś potrzebował jednak troszeczkę porady i takiego pomysłu na
to jak można pewne rzeczy razem wykorzystać, no to ja ostatnio sobie opatentowałem
sposób, przynajmniej na niektóre podcasty obcojęzyczne, jak je można tłumaczyć
sobie na język dla siebie zrozumiały.
No i o co chodzi?
No o to chodzi, że od iOS-a 17
któregoś podcasty Apple
oferują w kilku językach wybranych
transkrypcję podcastów,
czyli konkretny odcinek sobie
wybieramy.
On tam sobie jest po angielsku,
czy francusku, czy niemiecku
i możemy sobie czytać linijka
po linijce co tam zostało powiedziane.
Oczywiście to wszystko się odbywa przy pomocy sztucznej inteligencji i te podcasty, to znaczy te transkrypcje, wychodzą całkiem nieźle z tego, co tu widzę.
Można je przeszukiwać, one też stają się interaktywne, więc można kliknąć w konkretne zdanie i zostanie puszczony podcast od danego momentu, ale my dzisiaj nie do końca o tym.
Kto jest stałym czytelnikiem mojej szuflady, czyli bloga Piotra Witka, zorientował się, że ostatnio Piotr zamieścił taki poradnik i też skrót, który pozwala na tłumaczenie dowolnego tekstu na ekranie.
To się odbywa troszkę pośrednio, bo tam trzeba najpierw tę ostatnią wypowiedzianą przez VoiceOvera rzecz skopiować do schowka, potem trzeba osobnym skrótem uruchomić to tłumaczenie, czy też gestem, tak że nie jest to takie pewnie jednolite i w jakiś sposób przyjemne do używania jak mogłoby być, gdyby skróty aplowskie mogły bezpośrednio korzystać z tego co mówi VoiceOver,
ale jednak, mimo wszystko, da się osiągnąć cel.
No i ja Wam zademonstruję pokrótce, jak to działa.
Otóż, ja już zdążyłem sobie w międzyczasie
wyszukać zarówno podcast EBU in Action,
o którym mówiłem przed chwilą, jak i jego najnowszy, ósmy odcinek.
Ten właśnie o Igrzyskach Paraolimpijskich.
No i jestem teraz na ekranie odtwarzacza, no i przesuwam palcem w prawo.
Zachowaj odcinek. Wyłączone. Przypobierz. Przycisk. Więcej. Przycisk. Grafika. Obrad. Grafik. 25 września. Episode 8. Ebuinacion. Znów. Przycisk.
No bo tu zacząłem odtwarzanie.
The Paris 2020. Fortermore.
I tu mamy opis odcinka.
Strona internetowa, odcinek, zapis, automatyczna transkrypcja, przycisk, nagłówek.
I mógłbym przesunąć w prawo i wtedy zacznie mi czytać całą transkrypcję od początku do końca.
Wyliczamy to anioł epizodę of the European Blinks Unions, zapis.
Ale mi nie jest to potrzebne, bo ja nie chcę wszystkiego naraz. Ja bym chciał po kolei.
Więc pukam tutaj.
Tak, i tu już są jakieś konkretne linijki tekstu, akurat ta jest moja, no i teraz przykładowo coś co ja jeszcze zrobię, pójdźmy jeszcze krok dalej, wyszukam sobie, bo tu jest opcja przeszukiwania tego transkryptu, więc wyszukam sobie ten wywiad z Dong Dongiem Kamanim.
Wyjście ekranu Braille’a, N, G, wynik jeden z jedenaście.
I chat de hance to to kto a bling fiu domon ktoming,
from Italia cerlete donk donk ca manni.
G, najpopularniejsze wyniki.
Zatrzymuj opcję wylcometre donk donk.
Po lęgu szukiw biech, a site indej okej.
So let’s endim radeforation okej.
Transkrypcja biech, i chat,
hel i chat de hance to to kto a bling fiu domon ktoming,
No i tu na przykład mamy już pierwsze zdanie tego wywiadu, no i ja go kopiuję sobie voice-overem do schowka i 4 razy 4 palce, tak jak Piotr sugerował we wpisie na blogu, mam przypisane do skrótu tłumaczącego.
Podcasty Shortcut z Epis…
I pojawiło mi się u góry ekranu…
Miałem okazję…
Miałem okazję porozmawiać ze ślepym mnichem judo pochodzącym z Włoch o imieniu Dong Dong Chamanny.
Podzielił się swoją bardzo inspirującą historią i osobistą historią oraz podróżą do zostania jednym z włoskich przedstawicieli w dziedzinie judo paraolimpijskiego.
I bez dodawania chciałbym po prostu podzielić się z naszymi drugimi słuchaczami jego historią.
Myślę, że jak najbardziej zrozumiały tekst.
To jeszcze może jedną wypowiedź Dong Donga przetłumaczymy.
I had the hand, hello, donk, donk, thank you, hello, and thank you for this inovitation.
Paralympic Games is a party to learn, but Paralympic Games are really different.
I like it, but Paralympic Games is a party to learn, so I think it’s different from every Paralympic…
Tak, tutaj coś donk, donk powiedział o Paralimpiadzie, więc tłumaczymy.
Myślę, że Igrzyska Paraolimpijskie to szczególny konkurs. Różni się od każdego konkursu, w którym uczestniczyłem wcześniej. Brałem udział w wielu konkursach, takich jak w Kazachstan, jak w Kazachstanie, w Kalari, w Birmingham.
No właśnie. No i w ten sposób, jeżeli nie rozumiecie podcastu w danym języku, a Apple oferuje transkrypcję, no po prostu może ten podcast ma też swoją transkrypcję, tak jak nasz Tyflo podcast, na przykład na stronie swojej internetowej, to można bez…
I to mnie cieszy najbardziej chyba, że już nie muszę korzystać z Whisper’a tak naprawdę i zużywać tutaj nie wiadomo ilu godzin, spędzać na to, żeby mi się przerobił podcast, jak ja potrzebuję tylko jakiegoś jednego wycinka, żeby jakąś informację tam zweryfikować, tylko po prostu jest to już gotowe od Apple i mogę od razu na iPhone’ie takiego tłumaczenia dokonać.
Bardzo fajna sprawa. Trochę, mam wrażenie, mniej zrozumiale wyszedł francuski, jak był tłumaczony na polski, a nie wspominam o tym bez powodu, ponieważ właśnie tą metodą opracowałem następny drobny news, który chciałbym Wam przedstawić.
Mianowicie dzięki ekipie z francuskiego podcastu Oxitude możemy się przekonać, iż poprawia się dostępność aplikacji do sterowania ekspresami do kawy firmy Jura.
Ja o tej firmie wcześniej nie słyszałem, ale Kawosz ze mnie żaden, kawę pije bardzo rzadko, więc na ekspresach się też nie znam i okazuje się, że jest taka firma, firma ze Szwajcarii, która ma do niektórych modeli swoich ekspresów, które są wyposażone, ten moduł chyba też się dokupuje osobno, w moduł Wi-Fi Smart Connect.
Aplikacja J-O-E pisaną z kropkami J-O-E i jest to aplikacja do sterowania właśnie z tymi ekspresami i tam jeden z członków społeczności niewidomych, przypuszczam, że w Szwajcarii, tej francuskojęzycznej, zgłosił się do firmy, coś tam z nimi porozmawiał i efektem ma być bardziej dostępna aplikacja do sterowania właśnie tymi ekspresami.
Trochę się zagubiłem w wyjaśnieniu tego, czy te ekspresy są, czy chodzi o ekspresy, bo firma Jura ma dwa rodzaje ekspresów, ekspresy takie domowe i ekspresy tak zwane specialty coffee machines.
Jak rozumiem to są takie bardziej rozbudowane do biura, gdzieś tam firmowe i nie wiedziałem do końca o które chodzi, ale zdaje się, że te domowe też,
przynajmniej na stronie w Polsce, jak patrzyłem, gdzie można kupić, to były one wymienione jako coś, co można kupić z tym modułem Smart Connect.
No i aplikacja pozwala nam sobie kawę zrobić i nie tylko, natomiast impreza jest dość droga, bo taki przykładowy Express kosztuje około 6 tysięcy złotych.
Nie sądzę, że każdy się na taki zakup zdecyduje, w pełni to rozumiem. Sam gdybym pił kawę to poważnie się zastanawiał czy aż tak drogi ekspres jest mi potrzebny.
Natomiast jeśli chodzi o jeszcze inne newsy, które tutaj zostały to nie są wpisane, natomiast nie jest zbyt pewna przyszłość firmy SpeedDots, może kojarzycie takie dyskusje z około roku 2011-2012 na Tyflosie,
że pewna amerykańska działalność tworzyła sobie takie szkła, powiedzmy ochronne folie, ochronne na iPhone’a, które miały nadruki w brajlu i można było dzięki temu sobie troszkę bardziej zwizualizować klawiaturę na iPhone’ie.
Ja taką folijkę posiadałem na moim iPhone’ie czwórce. Temat co jakiś czas wracał, do kolejnych iPhone’ów powstawały tego typu folie.
Okazuje się, że z powodów zdrowotno-osobistych założycieli tej firmy, firma już dalej pod tymi skrzydłami nie pociągnie i jest na sprzedaż, więc jeżeli znajdzie się kupiec, to ktoś przejmie produkcję tych folijek, a jeżeli nie, to prawdopodobnie biznes gdzieś tam zginie, a szkoda.
Również teraz przed chwileczką pojawiła się wiadomość, że firma Herbtech, ta niemiecka firma od monitorów braillowskich, zaprzestaje wsparcia i produkcji i uważa za produkt porzucony modele Braille Star i Braille Evolution, czyli taki modularny monitor braillowski.
A z kolei najnowsza aktualizacja acapelli na androida, to jak już Piotr mówił o vocalizerze, ja powiem o acapelli.
Nie współpracuje już i nie będzie się odzywać jeżeli będziemy używać, nawet mieć zainstalowane, bo to chyba nawet nie chodzi tylko o podpięcie.
Ale oni też wykrywają i chyba nie odzywają się jak jest zainstalowany ten taki uniwersalny silnik wielojęzyczny multi TTS,
czyli rozwiązanie, które pozwalało nam wybrać dla każdego języka inną zupełnie syntezy i inne tej syntezy ustawienia.
Szkoda, że konkurencja tak się wygryza, no ale cóż poradzić.
Przepuszczam, że pewnie jakieś błędy musiało to powodować i ich wsparcie techniczne było oblężane.
Przepuszczam, że tutaj jakiejś chyba złości nie było.
Okej, no to może się przekonamy, może to będzie w następnej aktualizacji naprawione.
Wiem, że trochę osób swego czasu z Multi-TTS-a na Androidzie korzystało, no to taka tutaj adnotacja.
No i to wszystko jeśli chodzi o drobne newsy z mojej strony.
W międzyczasie na Whatsappie nagrała się Milena z wiadomością, że już temat rozwiązał się.
Jeśli chodzi o Bolta i wstawienie emot ikonki oka, no to się bardzo cieszymy, że udało się problem rozwiązać.
Roberto, dzięki tutaj też za Twój głos w dyskusji, a tymczasem odbieramy telefon.
Ktoś z nami po drugiej stronie?
Hej, z tej strony Patryk.
Ja tutaj chciałem się wypowiedzieć na temat Vocalizer’a,
no bo tutaj słuchając Waszej audycji,
zainstalowałem to z ciekawości i działa naprawdę świetnie.
Dodam, co też może istotne, jest to zainstalowane na Galaxy S24 Plusie
od Samsunga.
I naprawdę jest mega super bo tej
apki w ogóle nie było przez jakiś
czas
w sklepie play ale się widać
pojawiła i naprawdę jest
mega.
No to super to dobrze że działa.
Tak tak tak to właśnie tak chciałem
powiedzieć no tam jest chyba bodajże
trzy albo cztery głosy nie wiem ile
tego było wcześniej bo nie pamiętam
czy się coś zmieniło w tej kwestii czy
nie ale ale są
3 ale generalnie w ogóle głosów w
same to tam jest chyba ponad 70
w różnych językach, ale tak, polski mamy w trzech głosach.
Tak, w różnych językach, ale mówimy o języku polskim, nie?
Tak, to w trzech głosach.
No i tak właśnie tutaj chciałem się z tym podzielić,
bo może akurat ktoś gdzieś tam będzie chciał próbować
i może by się bało, że coś tam nie działa czy coś,
ale jest pewne, sprawdziłem, to tutaj działa,
także naprawdę jest fajnie.
Okej, Patryku, to dzięki za informację.
W takim razie czy jeszcze coś masz dla nas?
No ogólnie nie wiem, jak już tutaj się dodzwoniłem, to tak jeszcze à propos tego mojego telefonu mogę powiedzieć, że jeżeli ktoś szuka takiego dobrego telefonu z Androidem, to tego mojego Samsunga naprawdę można polecić.
No jest to naprawdę dość dobre urządzenie i pojawia się w fajnych cenach, że jeżeli ktoś poluje na właśnie jakiś telefon z Androidem, to uważam, że ten Samsung jak najbardziej dobry wybór.
Tym bardziej, że oni teraz wydłużyli wsparcie tych aktualizacji, że przez 7 lat można gdzieś tam używać bezpiecznie tych telefonów, więc ja ze swojej strony polecam.
Galakcja S24, tak?
S24+, bo to jest istotne, że on jest po prostu większy i wersja plus ma więcej pamięci RAM, jest to 12 GB.
To wiesz co, to ja Cię podpytam od razu o taką rzecz, bo jeszcze nie ukazała się na stronie Tyflo Podcastu, ale jakiś czas temu robiliśmy audycję, gdzie Miłosz i Robert opowiadali o ekosystemie Samsunga,
Ale chciałbym cię podpytać a propos AI w tym Galaxy S24, bo tam jest trochę tych różnych rozwiązań opartych o skuteczną inteligencję i jak z dostępnością tego? To się przydaje nam?
Ogólnie tak, ja ten telefon mam od lipca, nie mam go od premiery, mam go od lipca.
Na samym początku po prostu nie wszystko było dostępne, ale w Samsungu jest coś takiego jak aplikacja Samsung Members.
I tam można zgłaszać różne błędy, które tam występują i panowie tam bardzo na to reagują.
i wszystko zostało tam załatane i jest to, no tak uważam, w 90% dostępne, czyli ta cała transkrypcja tych nagrań na tekst, to wszystko działa po polsku.
Uważam, że jest to bardzo fajne rozwiązanie i warto by było też pokazać, uważam, gdzieś tam, gdzieś tutaj na Waszej audycji, z chęcią bym obejrzał i posłuchał.
A może chciałbyś pokazać?
No nie wiem, nie wiem czy gdzieś tam, podejrzewam, że bardziej ktoś kompetentny by się znalazł, ale uważam, że…
Ale wiesz co, odezwij się gdzieś tam do mnie, to może coś ustalimy.
Jeszcze jedna rzecz, też nie było wspomniane, uważam, że jest niedoceniona aplikacja w Samsungach jak Bixby Vision.
Tam jest tryb dostępności, no i tam jest rozpoznawanie tekstu, koloru i w ogóle i też uważam, że bardzo fajnie to działa.
Do takiego na przykład, nie wiem, przeczytania tekstu w stylu, nie wiem, co pisze na jakichś kroplach do oczu czy coś.
Bardzo fajnie się to sprawdza. Korzystam z tej aplikacji, nie wiem, od półtora roku, bo jeszcze na poprzednim Galaxy S21 też z tego korzystałem.
Więc to też jest fajne i uważam, że można by było to też pokazać.
O, super. No to dzięki za informację w takim razie.
Proszę bardzo. No mówię, no teraz tak naprawdę, tak zważając na AI, no bo Apple tutaj się nie popisało jak wiemy.
No zwłaszcza w Polsce czy w ogóle w Europie.
Tak, ale to już tam wiadomo, ten Apple to nie wiadomo czy będzie w Polsce, ale nawet patrząc na inne firmy, bo tak samo Google też nie do końca jakby mają po polsku tutaj te AI, a Samsung jednak to co wdrożył w całości to mamy to wszystko w Polsce jakby od premiery, nie?
Więc jakby warto ich za Tobą pęść tak naprawdę.
To prawda.
Uważam.
Ja ogólnie korzystam też ze smart tagów.
To też uważam.
To są urządzenia w stylu R-Tag’ów od Apple.
No i uważam też, że to są bardzo fajne urządzenia, też to testuję już od roku.
Mam też tablet Samsung, słuchawki i zegarek.
Do zegarka mam trochę zastrzeżenia a propos mowy, bo właśnie przydałoby się
na przykład, żeby dało się to tak gdzieś tam zainstalować.
Gdzieś tam to jest mój zarzut największy do zegarka, nie?
Ale no mam taki ekosystem zbudowany i korzystam.
I sprawdzasz je. Jak rozumiem korzystasz z Talkbacka, tak?
To Talkbacka i komentary.
Aha.
Bo takie jest jakoś wygodniej.
Chociaż też trzeba odnotować, by Talkback naprawdę przyspieszył.
Nie wiem czy to jest kwestia po prostu tych telefonów, że one są teraz
mega wydajne, czy to jest po prostu kwestia też optymalizacji.
Zresztą podejrzewam po trochę jedno i drugie, ale uważam, że gdzieś to gdzieś to tam
naprawdę panowie śledzą i pracują, bo jakby Samsung ma trochę, on jest trochę do tyłu
z tym talkbackiem, ale myślę, że to też w pewnym stopniu ma efekty, że oni bardziej
jakby może to optymalizują pod te swoje telefony, nie, no bo te wersje są inaczej,
bo tak mi się wydaje, że oni gdzieś tam optymalizują to bardziej pod te sprzęty.
Jasne. Okej Patryku, no to dzięki za telefon w takim razie i za te spostrzeżenia, jeżeli chodzi o Samsunga.
No ja uważam, że mówię warto. Warto mówić, bo gdzieś tam parę osobom poleciłem i sprawdza się.
A zawsze warto mówić o tym, co się sprawdza. To w pełni się zgadzam. Okej. Dzięki, do usłyszenia.
Dzięki, do usłyszenia.
No to teraz skoro tyflo wieści już za nami, czas abyśmy przeszli do technikaliów.
Na dobry początek kilka słów o domenach IO.
W dzisiejszych czasach dość popularne domeny jeżeli chodzi o produkty technologiczne zwłaszcza,
no bo to się tak kojarzy technologicznie właśnie input output, wejście wyjście
i niektórzy sobie właśnie takie domeny wykupują, a może się okazać, że za czas jakiś przyjdzie nam się z nimi pożegnać.
Dokładnie, bo faktycznie domen jest dużo. Są bardzo popularne domeny, bardzo popularna domena dla startupów, ale nie tylko,
bo na przykład each.io, github.io, czyli strona internetowa na githubie, dużo projektów z tego korzysta.
Różne usługi AI, chociaż też mamy domeny AI, no właśnie samo Google też korzysta z tych domen.
Trochę tego jest, no ale warto się zastanowić nad tym, skąd to IO się wzięło.
No bo generalnie tak zwane domeny TLD, czyli top level, czyli to właśnie ta ostatnia część po kropce,
że właśnie jakieś właśnie io, jakiś com, net, pl i tak dalej, skądś się bierze.
I akurat to io wzięło się z domen pod konkretne kraje, czyli
te kody krajów są też ustalane przez organizację ISO i to właśnie różne
standardy wymyślają, więc stąd właśnie mamy te różne dwu-, trzyliterowe skróty
dla poszczególnych krajów, z którymi się pewnie spotykaliście.
PL dla Polski, DE dla Niemiec, NL dla Niderlandów w Holandii, UK dla Wielkiej Brytanii, US dla Stanów Zjednoczonych i tak dalej.
I.O. to skrót od brytyjskiego terytorium na Oceanie Indyjskim.
Konkretnie to terytorium jest malutkie, bo to terytorium znajduje się na terenie tak zwanych Wysp Chagos,
na których to jakieś 50-60 lat temu w latach 60-tych Stany Zjednoczone i Wielka Brytania postawiły ważną dla nich bazę militarną.
Niestety sąsiadujący kraj, wysp Mauritiusa sprzedziwiał się temu, że ich zdaniem to terytorium, te wyspy powinny należeć do nich.
No i gdzieś to wszystko się walkowało przez te lata, aż do dziś, kiedy, może słyszeliście o tym informację gdzieś w ogólnych wiadomościach, bo było o tym mówione.
że Wielka Brytania z wyspami Mauritiusa z Argentyną, bo to jest jakaś powód Argentynę,
dogadali, żeby właśnie wyspy Chagos Mauritiusowi przekazać.
Już odpowiednie dokumenty zostały podpisane albo zostaną podpisane na ten moment.
No i wtedy te wyspy zostaną wpłynięte.
Zamian będą mogli sobie wynająć teren tej wyspy, więc ta baza cały czas też będzie tam mogła sobie być.
Natomiast no brytyjskie terytorium na Oceanie Indyjskim już przestanie być brytyjskim terytorium Oceanów Indyjskich, a tu za tym idzie ten kod I.O. po prostu przestanie obowiązywać, no bo już takiego kraju po prostu nie będzie.
I stąd przechodzimy do tematu co się może stać z domeną .io, no bo to nie jest pierwszy raz kiedy jakiś kraj po prostu przestał istnieć.
No bo kiedy nawet internet zaczął dopiero powstawać, była wtedy organizacja IAN, a teraz to jest ICAN czy ICAN, nie wiem jak tutaj to właściwie prawidłowo przeczytać.
Oni ustalali te adresy, no i taki adres na przykład nawet dostał Związek Sowiecki.su, była taka domena, nawet właściwie ta domena jest.
Mimo to, że tą domenę dostali rok przed upadkiem Związku Radzieckiego,
natomiast Eurasia poprosiła, że dobra, my weźmiemy kontrolę nad tą domeną.
Wtedy to wszystko dopiero było świeże.
No i Jana powiedziała, a dobra, tylko proszę was, wyłączcie ją za jakiś czas.
No i powiedzieli, dobra, wyłączymy.
30 lat później SU sobie jest i generalnie tam różne jakieś treści propagandowe
Teraz są hostowane jakieś dark web, ponoć to jest taki dziki zachód internetu, jak tutaj jest to napisane w artykule, który tutaj czytam, więc no mało ciekawe rzeczy tam są i Jana z tego zadowolona raczej nie jest, ale jeszcze wtedy nauczki nie dostali, ale to nie był jedyny taki przypadek, no bo mieliśmy później też sytuację z upadkiem Jugosławii,
gdzie mieliśmy połączone kraje Czarnogóry i Serbii, które stwierdziły, że one chcą się nazwać federacją Republiki Jugosławskiej.
I kiedy były przyznawane domeny, to oni stwierdzili, że oni by chcieli przejąć kontrolę nad tą domeną kropka YU, która wtedy była.
Sprzeciwiła się temu na przykład Chorwacja i Słowenia, no bo oni po prostu gdzieś nie chcieli być tego częścią.
I co ciekawe, tutaj był też ciekawy zabieg dokonany, bo dwa lata później, rok 1992, kilku naukowców pojechało sobie do Belgradu, do Serbii, do Uniwersytetu,
gdzie wszystkie dokumenty były, wszystkie komputery odpowiedzialne za utrzymywanie tej domeny i po cichu po prostu jakoś te dokumenty wywieźli do Słowenii.
I tym sposobem Słowenia przejęła kontrolę nad domeną .yu przez dwa lata.
Było ciekawie, tutaj autory tego artykułu napisał, że odmawiali Serbii jakikolwiek prośbę na zakładanie nowych adresów pod tą domeną.
Było nieciekawie i tak gdzieś to wszystko trwało, aż do roku 2006, kiedy Czarnogóra stała się krajem niezależnym.
Wtedy do tematu wrócono i wtedy IKAN już postanowił dać Czarnogórze i Serbii nowe domeny, .rs dla Serbii i .me chyba dla Czarnogóry.
Natomiast był formułek 1.Y musi przestać istnieć.
No i przestało istnieć.
Przestało istnieć 4 lata później, w roku 2010.
Natomiast to już była druga taka sytuacja, która pokazała tej organizacji, że warto byłoby jednak mieć jakieś zasady
i co z takimi domenami robić, bo mogą być różne dziwne rzeczy się z nimi dziać.
No i wtedy takie zasady zostały nakreślone i mówią generalnie tyle, że jeśli jakiś kraj po prostu przestaje istnieć z tego czy innego powodu, no to jego domena generalnie też.
W ciągu od 3 do 5 lat ta domena ma być pomału po prostu wygaszana,
jeśli tam są jakieś jeszcze rzeczy hostowane w tych domenach,
no to one pomału powinny być przeniesione w inne miejsca,
aż do momentu, kiedy ta domena po prostu przestanie istnieć.
Więc to jest najbardziej prawdopodobne w tym momencie los.io.
Ale czy tak się stanie? Trudno na ten moment powiedzieć.
Wiele osób mówi, że to jest dobrze, bo generalnie te wyspy Chagos
no powinna faktycznie należeć do Mauritiusa.
Ponoć tutaj ludzie, którzy mieszkali na tych wyspach
w ogóle nic nie dostawali z wszystkich domen, które były na tych wyspach hostowane.
One gdzieś trafiały do jakiejś prywatnej chyba amerykańskiej firmy.
Tu też pamiętam parę lat temu była taka głośna akcja, żeby nie kupować raczej domen
a starać się gdzieś swoją stronę stawiać gdzieś indziej, między innymi z tego powodu.
Więc co będzie teraz, no już jest kilka, najbardziej prawdopodobnie jest właśnie ten, który nakreśliłem teraz, więc nie wiem, za trzy, pięciu lat, do pięciu lat może być tak, że po prostu te serwisy przeniesą się gdzieś indziej.
Natomiast to też spowoduje, że bardzo dużo linków, odnośników po prostu przestanie działać, więc może jeszcze być, mogą być jakieś też inne sytuacje.
może Jana pozwoli jednak, czy i kan właściwie, przejąć tą domenę jakiejś firmie
prywatnej. Może po prostu Wyspy Chagos przejmą nad tą domeną, bo jednak
trochę, no trochę stron na niej jest.
To byłoby też w jakimś stopniu możliwe, musieliby jakąś firmę wynająć, która
pomogłaby im tą domeną zarządzać, natomiast to jest też możliwe.
A co się stanie tak naprawdę, tego na ten moment nikt nie wie, pewnie do tematu wrócimy, bo jeśli jakieś oficjalne decyzje zostaną podjęte, no to już na pewno portale technologiczne będą o tym pisać.
Na ten moment o tym nie pisał tak naprawdę nikt, no właśnie oprócz tych informacji oficjalnych o tym, że te wyspy zostają przekazane, no to na razie te portale technologiczne tematu nie podchwyciły,
Ale bardzo możliwe jest, że za jakiś czas coś się zmieni, jeśli faktycznie jakieś decyzje zostaną podjęte.
No ale będzie trzeba się z tym liczyć, że faktycznie może domena I.O. po prostu przestanie istnieć.
Teraz już pytanie ile startupów musiałoby zmienić nagle nazwy, bo przecież wiele takich działalności sobie ułożyło całą nazwę pod to, że mają domenę I.O.
To prawda, natomiast też wydaje mi się, że jednak to co było kiedyś w kwestii tych domen najwyższego poziomu, czyli tych domen TLD, to też wyglądało zupełnie inaczej niż to co mamy teraz, bo kiedyś rzeczywiście to było tak, że domeny były związane z jakimś konkretnym krajem, w tym kodzie ISO zazwyczaj,
Ewentualnie no właśnie te takie ogólnego przeznaczenia typu net, org, gov, com, edu i tak dalej i tak dalej.
Natomiast teraz no to przecież tych różnych domen to mamy no zatrzęsienie.
Kilkadziesiąt chyba jak nie kilkaset tych domen najwyższego poziomu pokroju jakiegoś nie wiem od blog do porn wręcz.
i jeszcze wiele różnych innych tego typu domen mamy, mamy tych końcówek do wyboru do koloru, więc jest to wydaje mi się całkiem prawdopodobne, że ktoś po prostu może tą domeną się jakoś tam zaopiekować.
No prawdopodobnie rzeczywiście, tak jak Piotrze powiedziałeś, mamy tutaj kwestie do dyskusji, może jakieś petycje, które będzie gdzieś tam apel aby podpisywać. Kto wie, różnie to wszystko wyglądać może.
Swoją drogą też trzeba uważać trochę, jakie i skąd domeny się kupuje, bo to się potem różnie może kończyć i np. znana jest historia pewnej instancji mastodonowej, która sobie wykupiła domenę w Afganistanie z końcówką AF, bo im akurat pasowało tam do jakiejś, nie wiem, nazwy czy do…
To było Queer AF jakoś tak, nie?
Chyba tak. I nagle się okazało, że domeny AF, czy nie wiem, czy wszystkie domeny pod tą, czy tą
konkretną przejął sobie tamtejsze, tam rządzący talibowie przejęli sobie i po prostu
tego typu rzeczy się naprawdę dzieją i domenę dzisiaj masz, a jutro państwo, u którego
tą domenę wykupujesz, no stwierdza, że z jakichś tam przyczyn to sobie zabierze.
No więc nawet jak to fajnie wygląda, to warto pomyśleć na ile stabilna politycznie może być to inwestycja.
Państwo zabierze, to jest jedna opcja, a też warto pamiętać, że to może działać i w drugą stronę,
czyli jakieś różnego rodzaju kwestie geopolityczne związane z blokowaniem różnych treści.
i kto wie, czy na przykład kiedyś nie będzie blokowane to, jeżeli na przykład jakiś kraj tak jakoś dziwnie, wydaje mi się, że może być to na przykład w bardzo ostatecznym przypadku Rosja podpadnie jakoś tak do tego stopnia,
że będzie wycinany na jakichś tam ogólnych tych globalnych serwerach, tych tzw. root serwerach DNS, że np. będą wycinane wszystkie domeny z danego kraju.
To też jest jakaś ewentualność, więc takie domeny powiedziałbym dyskusyjne w tych kwestiach właśnie geopolitycznych i tego co mamy obecnie i różnych konfliktów
to też trzeba po prostu bardzo uważać, bo rzeczywiście może się np. okazać, że albo będzie problem potem z opłaceniem takiej domeny,
bo jesteśmy w kraju, do którego środków tak łatwo się nie przetransferuje, albo po prostu sami np. w pewnym momencie dojdziemy do wniosku,
że nie chcemy wspierać jakichś tam np. działań reżimowych chociażby i tego typu kwestii.
Więc no, różnie to wygląda i dlatego podejrzewam, że nigdy na przykład nasze koleje nie doczekają się adresu p.kp.
Dla tych wszystkich, którzy nie wiedzą, to kp, domena kp, to jest Korea Północna po prostu.
Swoją drogą, kiedyś widziałem cennik rejestracji tych domen, to grube tysiące tam się płaciło za taką domenę.
Ale myślę, że niewielu by chciało.
Natomiast teraz przechodzimy do kolejnego tematu. Tematu związanego z pierścieniami, które badają stan naszego zdrowia i dostępnością tych urządzeń. To Pawle, twoja działka.
Tak, bo ostatnio to jest za dużo powiedziane, ale jakoś w tym roku już trafiłem na drugie źródło, jak chodzi o różne blogi poświęcone technologiom, które są dla nas dostępne bardziej lub mniej, które wspominało o właśnie inteligentnych pierścieniach.
Czym są inteligentne pierścienie?
To, co w nazwie słyszymy, czyli pierścień zakładamy na palec i jest w nim masa różnych czujników,
które badają nasze różne czynności życiowe i parametry.
Możemy sobie potem takie odczyty analizować w dedykowanych aplikacjach producenta danego pierścienia.
Jakież to parametry?
bardzo często utlenienie krwi, temperatura, ciśnienie, może nie, ale właśnie takie czynności związane ze snem, fazy snu, na przykład pomiar bezczynności, czyli ile godzin w stanie stojącym spędzamy.
No to właśnie tego typu parametry i potem te dane są spisywane po to, żeby właśnie analizować nasz sen, nasze jakieś tam ćwiczenia, jakiś poziom stresu, poziom tlenienia krwi, więc takie różne rzeczy można sobie badać tego typu urządzeniem.
No i się okazuje, że tych pierścieni jest mnóstwo, w różnych cenach, od 50 euro, czyli gdzieś ponad, pewnie około 220-230 zł, po takie gdzie to podchodzi pod euro 500, także jest, że tak powiem, to kolor do wyboru.
No ja czytałem doświadczenia użytkowników produktów firmy Aura, pisane Oura, fińska firma, oraz Ringcon i o ile Aura, nie dotarłem do tego czy sama aplikacja jest w stu procentach dostępna.
Wiem, że były z nią jakieś tam problemy typu niepoetykietowane pola przy zakładaniu konta, ale sama firma się chwali, że stara się aby ich sklep internetowy, ich strona przynajmniej była dostępna.
Także tutaj jak najbardziej myślę, że dostępność nie jest im obcym tematem, natomiast Ringcon, który ostatnio był testowany przez słowacką blogerkę niewidomą Michała Redlchą na technologię bez zraku, nie wypadł za dobrze.
Ich aplikacja dostępna nie jest, natomiast na pocieszenie taki pierścień można też przynajmniej na Androidzie podłączyć do aplikacji Google Fit.
Ponownie wszystkie dane mogą być wtedy dostępne, które pierścień jest w stanie pobierać, ale zawsze to coś, a zawsze można sobie wybrać jakiś też inny produkt.
Nie wiem czy z aplikacją zdrowie na iPhonie tego typu urządzenia również są kompatybilne, ale chciałem zarzucić temat, bo może ktoś z Was się tym interesował.
Nie wiem też jak to wypada w porównaniu z takim Apple Watchem, czy te czujniki w tego typu pierścieniach są bardziej dokładne, potrafią więcej, bo niektóre z tych pierścieni cenowo podchodzą pod jakieś tańsze modele Apple Watcha, więc pytanie, co tu się bardziej komu opłaca.
Natomiast, no może po wysłuchaniu tego fragmentu tylko do przeglądu stwierdzicie, że chcecie zostać władcą pierścieni.
No nie podpowiem wam, który jest tym jednym, by wszystkimi rządzić, ale może macie swoje doświadczenia i czymś się podzielicie.
Jest za to jeden, by robić zrzuty konkretnie na MAK-u i to mowa o pewnym programie, który teraz będzie nam polecał Piotr.
Tak, no i tutaj pewnie pojawi się pierwsze pytanie, no ale po co narzędzie do robienia zrzutów ekranu, jeśli macOS ma do tego skróty?
No zaraz wam powiem dlaczego warto się może nad taką aplikacją zastanowić, bo może być kilka sytuacji kiedy coś innego może nam się przydać.
No ja ostatnio tych zrzutów w ekranu robię dosyć dużo, w różnych celach,
ale też dużo nagrywam i ostatnio też przyszło mi nagrać taki dłuższy klip.
No generalnie to było związane też właśnie z dostępnością.
Chciałem programiście pokazać błędy dostępności w jego aplikacji, jaka to
była wtyczka audio, no i chciałem nagrać zarówno dźwięk z komputera, jak i mój głos.
No i też być pewnym, że nagra mi się tylko to, co chciałem.
Jest OBS, oczywiście, którego da się skonfigurować, natomiast to na Macu też nie jest tak intuicyjne jak na Windowsie i też, no ale da się to zrobić, natomiast to na pewno nie jest najbardziej intuicyjna aplikacja.
Jest budowane nagrywanie w systemie, które działa, ale niestety na dźwięku nie nagrywa systemu, tylko nagrywa mikrofon.
Dziwne, czemu na iOSie to działa od lat, na Macu, mimo to, że już stosowne API w systemie są.
Apple jakoś jeszcze z nich nie korzysta, trudno mi powiedzieć, więc no tutaj też musimy się posilać hijackiem i tego typu rzeczami.
Więc postanowiłem sprawdzić zewnętrzne narzędzie, które jest chwalone przez osoby widzące,
które też jest dostępne w ramach abonamentu Setup, który posiadam i co jakiś czas ukrywam coś nowego,
co gdzieś utwierdza mnie w tym, że naprawdę to jest jedna z lepszych subskrypcji, które utrzymuję,
bo jej wartość wbrew pozorom właśnie rośnie, zauważyłem niż maleje,
bo co chwila coś nowego znajduje, co mi się przydaje w pracy.
Ale też aplikację oczywiście można kupić osobno, natomiast nie ma wersji próbnej.
Co ciekawe, chociaż sam setup ma, więc to może być też sposób na jej sprawdzenie.
A mówimy o aplikacji CleanShotX.
Adres strony jest prosty CleanShot.com,
www.cleanshot.com
stąd tą aplikację możemy sobie ściągnąć
jeśli macie setupa no to w aplikacji setup
po prostu ją sobie pobieramy
bez setupa aplikacja do najtańszych nie należy
ale też do najdroższych chyba też nie
bo kosztuje 30$ i za te 30$
dostajemy darmowe aktualizacje
na rok. Gdybyśmy chcieli dostawać kolejne aktualizacje
to później sobie takie rozszerzenie tej aktualizacji kupić za 20 dolarów.
No a na Setupie to po prostu aplikacja jest częścią naszego abonamentu.
Mamy też autorską chmurę, bo też Developer’ów pozwala nam nasze zrzuty i nagrania ładować do ich chmury.
Z naszą subskrypcją dostajemy 1GB za darmo, w pakiecie może nawet na Setupie.
Można też tam sobie miejsce dokupić, jeśli ktoś by chciał z tej chmury korzystać, więc to tak się zapowiada cennik.
Natomiast jeśli chodzi o samą funkcjonalność, no to na co nam ta aplikacja pozwala?
No oczywiście możemy robić zrzuty ekranu, całego ekranu.
Możemy robić zrzuty ekranu zaznaczonego obszaru, co nam będzie zrobić ciężko, bo po prostu musimy myszką coś zaznaczyć.
ale też możemy zrobić zrzut ekranu aktywnego okna i do tego możemy sobie
przypisać globalny skrót klawiszowy i to już się nam jak najbardziej może przydać.
Możemy zrobić też tak zwany scrolling screenshot, czyli zrzut ekranu, który się
przewija. To jest taki bardziej jakby gif powiedzmy, gdzie nawet jeśli nam cała
strona się na tym zrzucie nie zmieści, możemy sobie uruchomić właśnie taki
taki przewijający się zrzut.
On się nam zacznie nagrywać, my sobie stronę przewiniemy, zatrzymujemy nagrywanie i wtedy osoba widząca dostaje taki właśnie zrzut, który też się przewija i gdzieś więcej tej strony jest widoczne.
Możemy oczywiście nagrywać i tutaj znów możemy zdecydować, czy chcemy nagrywać cały ekran, czy chcemy nagrywać zaznaczony obszar, czy chcemy nagrywać wybrane okno.
I to nagrywanie jest o tyle fajne, że aplikacja wspiera nagrywanie dźwięku z
całego systemu oraz naszego mikrofonu.
Możemy to nagrywanie uruchomić jednym skrótem
i możemy nawet je ustawić tak, żeby nasz mikrofon i dźwięk systemu
nagrywały się na dwóch różnych ścieżkach.
W Reaperze jakoś to
musimy wykorzystać jakąś akcję konkretną, żeby te ścieżki rozdzielić od siebie.
jak gdybyśmy chcieli zażądać tymi ścieżkami osobno.
Natomiast nawet bez tego, kiedy takie nagrywanie skończymy, to w budowanym
aplikacji, to nazywa edytorem wideo, aczkolwiek tam tak naprawdę obróbki nie
możemy robić, tylko możemy różne parametry ustawić, no to właśnie dostajemy
osobny słówak dla głośności systemu i dla głośności mikrofonu.
I to jest bardzo fajne, bo możemy sobie po prostu posłuchać, czy nam się wszystko
wszystko nagrało tak jak chcemy, czy coś się nie przesterowuje, czy nas słychać, czy nas nie słychać.
Jeśli nie, no to możemy przed zapisaniem tego
nagrania stosownie te słowaki ustawić, możemy też z poziomu tego okna ustawić.
Rozdzielczość, mamy też słowak do jakości i kiedy my ten słowak manipulujemy, to nam
aplikacja też od razu mówi jak duży będzie końcowy plik.
Pliki zapisują się w MP4 kodekiem H264, więc to jest taki dosyć wydajny kodek wideo,
Aczkolwiek wiadomo, wideo też małe nie jest, zwłaszcza jeśli nagrywamy w wysokich rozdzielczościach, więc to też po prostu warto sobie odpowiednio ustawić.
No ale właśnie samo to, że też możemy sobie te poziomy ustawić przed tym nagraniem, jest naprawdę bardzo fajne.
Mamy też dużo ustawień. Możemy właśnie wszystkie skróty klawiszowe spersonalizować.
Aplikacja może sobie siedzieć w docku lub na pasku menu albo ani tu ani tu i może po prostu być uruchomiona w tle, co też, myślę, dla nas może być fajne.
Możemy sobie nawet zmienić dźwięk, który słyszymy podczas robienia tego zrzutu.
To już jest taki bajer, ale co bajerem jak najbardziej nie jest, to też możemy zdecydować jak będą nazywane pliki.
W ogóle możemy zdecydować co się stanie, kiedy dany zrzut zrobimy, bo domyślnie on się wyświetli w takim pływającym
okienku, którym możemy tam jakoś rysować na tym zrzucie, czyli podobnie jak na iOSie.
My raczej z tego nie będziemy korzystać, ale możemy też zdecydować, czy ten plik ma
od razu być wysłany do tej chmury producenta, skopiowany do schowka, zapisany po prostu do
wybranego przez nas katalogu, czy ma nam się wyświetlić po prostu okienko zapisywania,
gdzie sami wskażemy, gdzie chcemy, żeby na ten plik się zapisał, co też może być
przydatne. Ale jeśli ustawimy, żeby nam ten plik się zapisywał automatycznie,
to możemy też ustalić jego nazwę i tutaj możemy bardzo fajnie to zrobić, nawet wykorzystując różne
zmienne, które nam oferuje aplikacja.
No wiadomo, tutaj mamy datę, godzinę, takie standardowe rzeczy, ale mamy też np.
takie zmienne jak nazwa aplikacji, okno, tytuł okna aplikacji, a to myślę, że nam jak
najwyższa może się przydać, no bo jeśli tych zrzutów mamy kilka, no to nie musimy np.
chodzić z OCR-em, sprawdzać czy to jest ten zrzut, który chcemy.
No bo aplikacja nam może po prostu po tytule okna np.
będziemy widzieć, że to jest zrzut z tej strony, z tej aplikacji.
No to już nam gdzieś da jakiś obraz, co na tym zrzucie jest.
Jest w aplikacji też OCR i nawet podczas nagrywania,
odtwarzania tego nagrania później to VoiceOver nam jest w stanie czytać zawartość
tego OCR-a, więc tutaj automatycznie też możemy sprawdzić, czy faktycznie nagrało się
to co musieliśmy i jeśli tam są jakieś łącza to nawet można w niej klikać
natomiast pewnie my do OCRa jednak będziemy narzędzie VOCR wykorzystywać
bo no po prostu do tych celi jest dla nas bardziej wygodne
no ale w razie czego tutaj CleanShot OCRa też nam oferuje.
Także tych funkcji jest dosyć dużo.
Na ten moment aplikacja ma jedną wadę i będę tutaj pisał do autorów
zobaczymy czy mi odpowiedzą, mianowicie są to etykiety przycisków, których w wielu miejscach po prostu niestety nie ma.
Samo okno ustawień jest bardzo fajnie dostępne, więc ze samą konfiguracją właśnie gdzieś nazwy plików, tych skrótów klawiszowych, z tym nie ma największego problemu.
Jeśli mamy skróty przypisane, to też bez problemu sobie wszystko zrobimy, natomiast jeśli aplikacja nam wyświetli jakieś wyskakujące okienko,
a to się zdarza dosyć często, najbardziej ekstremalny przykład to jest podczas nagrywania ekranu wyświetlają się trzy.
Jednym ustalamy czy nagrywamy w jedno okno cały ekran,
w drugim zaznaczamy lub odznaczamy czy chcemy żeby nam się mikrofon nagrywał, jeśli tak to jakie urządzenie ma być mikrofonem,
a w trzecim okienku mamy przyciski nagrywaj, zatrzymaj i tak dalej.
no to te wszystkie okna, wszystkie te przyciski w tych oknach po prostu są dla
nas niezetiketowane. Nawet jeśli chodzi np.
o wybór urządzeń, no to tam znajdziemy też kilka obrazków, które jakieś etykiety
mają, jakieś elementy tekstowe, które nam coś podpowiedzą.
No ale gdzieś w innych przypadkach też jeśli skończymy, jeśli zrobimy jakiś zrzut
ekranu i korzystamy z tego pływającego okienka, gdzie mamy też przyciski właśnie
zapisz, usuń i tak dalej, no tamte przyciski też niestety zaetykietowane nie są, także mam nadzieję, że tutaj deweloperzy nam pomogą i po prostu zaetykietują je odpowiednio, ale nawet bez tego myślę, że zwłaszcza dla tych, którzy w miarę często muszą właśnie jakieś nagrania wykonywać,
jakiś zrzut ekranu do pracy, to może być coś, czym warto się zainteresować.
Czy warto tą aplikację kupić samemu za te 30$?
No to już każdy musi odpowiedzieć sam.
Jeśli macie setupa, no to bym się nie zastanawiał, bo faktycznie to
fajna aplikacja, która może w wielu sytuacjach się przydać.
Może jeśli zastanawiacie się nad tym, czy ją kupić, czy nie,
no to może też po prostu warto się nad setupem zastanowić,
bo to jest usługa, której temat wraca co jakiś czas,
bo w niej jest bardzo dużo innych fajnych aplikacji,
na przykład Voicedream tam niedawno trafił,
jest UlistSes, czyli fenomenalny edytor tekstu,
o którym też był podcast,
CleanMyMac to jest takie fajne narzędzie gdzieś do
czyszczenia dysku komputera,
to na przykład jeśli szukamy jakichś dużych plików,
jakichś plików tymczasowych,
które gdzieś się nam walają po systemie,
takie kilka praktycznych modułów,
które nam pomagają gdzieś w komputerze posprzątać, aplikacje też zaktualizować.
Różne menadżery plików też są, klienty FTP w tym, w setupie.
No i też właśnie doszło o kolejne narzędzie, które ono już tam chyba jakiś czas było,
no ale ja teraz postanowiłem je sprawdzić.
CleanShot, jeszcze raz myślę, że jest warte sprawdzenia.
Jeśli developersze faktycznie jakieś zmiany dla nas wprowadzą, no to myślę, że też do
do tematu wrócę i dam Wam znać, bo będę do nich pisał.
Wspomniałeś Piotrze o menedżerach plików, o klientach FTP, to ja a propos klienta FTP,
którego używam osobiście, czyli FileZilli w wersji pro mam taką informację i myślę,
że ona może okazać się istotna dla części z naszych słuchaczy, którzy być może tak jak
ja ten program swego czasu kupili. No i słuchajcie, tu sytuacja jest dosyć ciekawa, ja przez dość długi okres czasu FileZilli, przyznam się szczerze, nie aktualizowałem.
Nie aktualizowałem jej dlatego, że w zasadzie, no, działało wszystko to, co miało działać, a nowa wersja FileZilli, którą kiedyś zaktualizowałem,
po prostu miała jakiś taki problem, że tab grzęznął gdzieś w tym interfejsie i nie bardzo dało się z niego wyjść z tego obszaru, gdzie ten klawisz tab po prostu był blokowany.
Teraz już zostało to poprawione, natomiast Filezilla w wersji pro, bo pamiętajcie oczywiście, że są dwie edycje Filezilla.
Jest FileZilla darmowa i FileZilla wersji pro, która to ma wsparcie dla różnego rodzaju usług chmurowych.
No ja szczerze mówiąc właśnie dlatego kupiłem swego czasu to narzędzie w wersji pro i FileZilla zmieniła model licencjonowania, zmieniła sposób rejestracji.
Otóż kiedyś nie było w żaden sposób sprawdzane na ilu komputerach mamy zarejestrowaną naszą aplikację, a teraz no niestety już tak łatwo nie jest i musimy pamiętać o tym, żeby file zille, kiedy na przykład będziemy zmieniać komputer, albo przeinstalowywać system operacyjny, albo robić jeszcze coś innego, żeby te file zille wyrejestrować.
Oczywiście, jeżeli zrobimy sobie backup, to podejrzewam, że ta FileZilla tak czy inaczej będzie nam działać, jeżeli ją ponownie uruchomimy i przywrócimy, natomiast problem zacznie się w momencie, kiedy będziemy chcieli pobrać aktualizację do FileZilli.
I ja miałem właśnie taki kłopot. Otóż chcę pobrać aktualizację, pojawia mi się informacja, że aby pobrać aktualizację do FileZilla musisz podać swój numer seryjny albo dane rejestracji, czyli zdaje się maila i numer zamówienia.
No i podaję te informacje, podaję numer seryjny, no i wyskakuje mi informacja, że Filezilla jest zainstalowana na zbyt dużej liczbie komputerów, że po prostu to mi nie pójdzie, nie zadziała w żaden sposób.
Co zrobiłem? Otóż napisałem do twórców Filezilla z prośbą o działanie i dostałem taką odpowiedź, oczywiście problem mój rozwiązali, natomiast tam wyraźnie zostało powiedziane,
Ja szczerze mówiąc nie kupuję trochę tego tłumaczenia, że ze względu na prywatność to oni już w tym momencie nie są w stanie wycofywać tych poprzednich autoryzacji komputerów,
bo teraz to jakby spoczywa na użytkowniku. Konieczność dezaktywowania tej fajlzili, jeżeli na przykład właśnie zmieniamy komputer.
No ale dobra, co w przypadku, jeżeli np. mój komputer ulegnie awarii i nie będę miał fizycznie możliwości, żeby ten program zdezaktywować,
bo np. padnie dysk, albo stanie się coś jeszcze zupełnie innego.
No to takie dosyć nieciekawe działanie.
Oczywiście dostałem odpowiedź, że dla Twojej wygody dodaliśmy możliwość aktywacji FileZilli, którą kupiłeś na jeszcze jednym urządzeniu.
co zrobiłem i oczywiście mi to zadziałało, natomiast no trzeba tu pamiętać, że jeżeli kiedykolwiek będę zmieniał komputer albo nawet reinstalował system, no to muszę jednak mimo wszystko te file zille zdezaktywować, wycofać te autoryzacje z mojego komputera i dopiero potem ten program aktywować ponownie na świeżo zainstalowanym systemie albo po prostu na innej maszynie.
Pamiętajcie o tym, bo no wiem, że FileZilla cieszy się gdzieś tam popularnością wśród użytkowników niewidomych, bo jest to naprawdę fajny program.
W większości podejrzewam, że ta darmowa wersja w zupełności wystarczy, ale jeżeli ktoś ma wersję Pro, jeżeli ktoś za nią zapłacił, to pamiętajcie, że jeżeli coś Wam przestanie działać, to po prostu kontaktujcie się z twórcami tej wersji Pro.
Oni, no może niezbyt chętnie, ale Wam pomogą.
Tylko, no wiadomo, trzeba do nich będzie po angielsku napisać.
I ostatni temat, przynajmniej ostatni temat w naszych notatkach się znajdujący.
Zmiany na Facebooku. Co tam Zuckerberg i spółka zmienia, Pawle?
Ja może przeczytam artykuł i od tego zaczniemy naszą dyskusję za serwisem Telepolis.
Botelepolis napisał co następuje, a raczej autorzy dla tego portalu pracujący.
Facebook zmienia wizję funkcjonalności swojej platformy społecznościowej.
Najnowsze zapowiedzi mogą nie spodobać się wielu użytkownikom,
chociaż mają też szansę zaskarbić sobie sympatie.
Meta. Właściciel portalu Facebook eksperymentuje z kilkoma nowymi funkcjami,
które mają na celu zwiększenie aktywności użytkowników.
Facebook pokaże więcej treści odkąd których nie śledzisz, taki nagłówek teraz.
I kontynuacja tego co wyżej napisane.
Jeszcze więcej reklam?
Nie, już czytam.
Wśród tych zmian jest nowa zakładka odgry, Explore po angielsku,
która personalizuje zawartość dla każdego użytkownika z osobna,
wyświetlając w nim wpisy, zdjęcia oraz filmiki od kont, których nie śledzimy.
Algorytm tej zakładki często jest oparty na zainteresowaniach użytkowników
i mogą się pojawić tam zawartości od zwykłych użytkowników,
jak i z grup pasjonatów bardzo konkretnych dziedzin.
No i tu nie wiem, czy to jest kwestia tego, że teraz mi zacznie proponować modelarstwo,
żeby mnie zainteresować modelarstwem, bo cały tytuł artykułu brzmi
Facebook wypycha nas z bańki.
No okej, ale co to oznacza?
Że ja teraz zacznę widzieć posty o pszczelarstwie?
Czy że on będzie bazując na moich
jakichś zainteresowaniach wypychał mi jakiś
człowieka, o którym w życiu nie słyszałem,
który pisze na temat jakiejś tam, no nie wiem,
mój, ale z innej perspektywy?
Ja myślę, że właśnie to drugie, tylko zastanawia mnie w tym
kontekście to,
czy to będzie miało rację bytu, dlatego że większość użytkowników, którzy publikują cokolwiek na Facebooku, to publikują to dla grona znajomych.
Jeżeli ktoś publikuje publicznie, oczywiście można to robić, to w żaden sposób nie jest zabronione, natomiast te wszystkie przeglądy prywatności,
które zostały wprowadzone jakiś czas temu przez Facebooka, to jednak trochę nas nakłaniają do tego, żeby sobie to tam odpowiednio poustawiać.
I trzeba to naprawdę bardzo intencjonalnie zrobić, żeby dany materiał był publiczny.
Chyba, że sobie ustawimy na przykład, że wszystkie nasze posty będą publiczne, bo też tak oczywiście zrobić można.
Natomiast no to jest coś, co raczej jest dedykowane dla stron.
Czyli jeżeli chcesz pisać dla ogółu, no to bądź stroną i publikuj jako jakaś tam powiedzmy strona, jako tego typu profil, no a tego typu właśnie gałąź profili to jest typowy biznes, więc Facebook tu ogranicza przecież zasięgi niż wypycha do użytkowników.
No więc zobaczymy też, że te grupy są tu myślę kluczowe, że zaczną być proponowane jakieś grupy pasjonatów rzeczy.
One w sumie już są proponowane, grupy dyskusyjne różnego rodzaju, no posty z grup też kwestia jak kto ustawi grupę i jej prywatność.
Ponadto Facebook zamierza pogrupować całą zawartość wideo, zarówno długich jak i krótkich rolek, w jedno miejsce, dodając nową zakładkę na tego typu treści.
Algorytm rekomendacji ma według Facebooka być turbo doładowany, a więc należy się spodziewać bardzo częstego odświeżenia treści skrojonych pod nas.
Według Meta młodzi dorośli spędzają 60% swojego czasu na Facebooku właśnie oglądając filmiki.
Młodzi dorośli, to mi się wydaje, że już coraz bardziej idą w inne miejsca niż w Facebooku.
No właśnie, ja też, ja nie ukrywam, że czytałem ten artykuł po raz pierwszy po angielsku, chyba nawet ten źródłowy, który tu jest podlinkowany z The Verge’a i tam tytuł był zupełnie inny,
czyli Facebook dostosowuje się do pokolenia Z, do Gen Z.
I to już w ogóle ma zupełnie inny wydźwięk, no bo Facebook coraz bardziej
gdzieś w świadomości społecznej się wrywa jako portal pokolenia
moich rodziców.
Nie wiem czy 40 plus to już to jeszcze nie za…
No słyszałem, że tutaj ktoś rzuca pokolenie boomerów, więc może.
Nie chciałem piętnować i cechować na to miasto.
Ale takie nagłówki były.
Przecież wyrażenie nie dla każdego musi być jasne i spójne.
Jeżeli chodzi o boomerów, to to jest w ogóle ciekawa rzecz.
Ja mam wrażenie, że to jest taki, że Facebook to może być coś co łączy boomerów i ewentualnie X,
czyli to pokolenie X, ale już Zetki.
To nie sądzę, żeby korzystały z Facebooka.
To prędzej TikTok i może Instagram?
Bardziej Tik Tok. Nawet czytałem, że Gen Z to nawet po prostu zamiast Google to szuka informacji na Tik Toku.
Oj.
No, ale no więc możliwe, że też ten nacisk na te rolki jest położony.
No aczkolwiek też gdzieś na przykład to źródło oryginalne podkreślało, że kwestie lokalne są też właśnie ponoć bardzo ważne,
więc tutaj Facebook będzie rozbudowywał, o tym przeczytam za chwileczkę, właśnie teraz.
Oprócz tego inną nowością jest zakładka lokalne, która agreguje zawartość z marketplace’u,
lokalnych grup oraz wydarzeń.
Na razie ta funkcja jest testowana w 10 miastach USA, w tym w Nowym Jorku i Los Angeles.
No też coś, o czym nie jest tu napisane, no to, że będzie też ulepszony mechanizm jakiejś interakcji między sobą w lokalnych społecznościach w razie zagrożeń, no kryzysów żywiołowych.
Z tą lokalnością to to rzeczywiście ma sens, bo jak na przykład ostatnio widziałem taki wątek na reddicie, na Air Polska, gdzie ktoś pytał, do czego wy korzystujecie jeszcze Facebooka?
Chociaż tam właściwie to bardziej chodziło o to, czy jeszcze ktoś na poważnie korzysta z Facebooka.
O, to chyba nawet tak było.
I no Reddit, jeżeli chodzi o Air Polska, to tak mam wrażenie pokolenie osób 20-30-letnich to jest tam max.
I tam pojawiła się taka informacja i takie komentarze, większość, że jeżeli już ktoś korzysta z Facebooka,
faktycznie, z tych młodszych osób, to właśnie ze względu na społeczności lokalne, czyli jakieś spotted, jakieś grupy typu, nie wiem, tam uwaga, śmieciarka jedzie i tu nazwa jakiegoś miasta, podobne rzeczy, więc ta lokalność to jest jeszcze coś, co i w polskich realiach podejrzewam, że Facebook może ugrać.
To i Messenger.
Tak, no Messenger to swoją drogą, tylko że Messenger to jest akurat coś, co możesz wykorzystywać bez Facebooka.
No tak, to prawda, ale do Messengera właśnie chciałem przejść.
Poza tym Messenger również ma się zmienić otrzymując funkcję Messenger Communities, która pcha ten komunikator w stronę Slacka czy Discorda.
Idea polega tu na tym, że można stworzyć jedną większą społeczność, a następnie zagnieździć mniejsze podkanały tematyczne w ramach tejże społeczności.
Plusem takiego rozwiązania jest to, że nie trzeba tutaj zakładać osobnych grup na Facebooku, zapraszać użytkowników i tak dalej.
Facebook nie był zbyt szczególny w swoim ogłoszeniu, ale wygląda na to, że opisane wyżej funkcje są już częściowo testowane przez użytkowników.
Jedna rzecz, o której jeszcze nie napisali i tu, czy to musiało dojść do tego, żeby w końcu coś zrobiono.
W grupach ma się pojawić AI, które pomoże nam w przeszukiwaniu treści zamieszczanych w grupach.
No w końcu, ale wiecie co, grupy jak grupy, te czaty grupowe na Messengerze, które są te czaty społeczności,
Nie wiem czy wy z tego korzystacie, ja tam się zapisałem do kilku, ale jak jest tam jakaś taka rozbudowana dyskusja, to czytanie tego i śledzenie tych konwersacji to jest naprawdę ciężka sprawa.
No ja już przypuszczam, tak tego typu podejrzenia miałem korzystając z klasycznych czatów grupowych, to nie jest dobre konieczne.
No, nie. Więc ja mam nadzieję, że tutaj też zostanie coś przeprojektowane, jeżeli chodzi o użyteczność, bo po prostu korzysta się z tego źle.
I zdecydowanie bardziej wolę już grupy na telegramie, które sobie przeglądam unigramem, czy nawet grupy whatsappowe, w których też ta komunikacja jakoś tam w miarę płynie,
aczkolwiek no jakoś najwygodniej to mi chyba z Unigrama korzystać,
a już w ogóle Reddit no to jest dzięki Lumie.
Gdzieś na Discordzie, na Slacku też można w każdej chwili
podczas konwersacji utworzyć wątek.
Oczywiście.
Ja bardzo lubię wątki w Slacku.
Nie wiem, w Discordzie jakoś… a w Discordzie to tak samo.
Nie działa, że też się wprawo rozwija i…
No nie, niestety z klawiatury to nie działa tak fajnie.
Po prostu mówiłem o samej funkcjonalności, że ona po prostu jest.
Interfejs do wątków, zwłaszcza w takich skomplikowanych apkach webowych, żeby on był dostępny trzeba naprawdę z głową przemyśleć, chociaż to jest prosty patent, właśnie rozwijanie w prawo, zwijanie w lewo, co Slack naprawdę fajnie zrobił.
Ja bardzo mi się, jestem na jednej społeczności Slackowej i bardzo przyjemnie mi się z tego korzysta, czego niestety nie mogę powiedzieć o matermałości, którego używamy w pracy i tutaj niestety byłem zmuszony wyłączyć wątki po prostu.
Znaczy widzę odpowiedzi oznaczone jako tam reply to i tak dalej, ale nie jest to pogrupowane w wątki, bo
bardzo niewygodnie bym się z tego skorzystał, musiałbym tap, tap, tap, tap, tap naciskać cały czas i tam przeskakiwać.
No to nie jest wygodne, to zdecydowanie.
Mamy jeszcze telefon, zbliżamy się już do końca naszego dzisiejszego spotkania, ale jeszcze Sylwester się do nas dodzwonił.
Dobry wieczór.
Ja chciałem tylko informację, bo tam któryś tam na początku się zgłaszał z sprawą tego świadczenia wspierającego.
Słuchamy.
Ja, tak, wniosek trzeba z internetu pobrać z Urzędu Wojewódzkiego,
tam zespołu, później, bo moja siostra tak zrobiła, wydrukowała,
później wypełniła, bo ja nie byłem w stanie tego zrobić do końca,
wysłać tam do tego Wojewódzkiego zespołu i wysłała, tak.
i wtedy płonicznie mnie poinformowali o ustaleniu terminu i został ustalony termin, pojechałem, byłem,
później czekałem chyba miesiąc na pismo z orzeczeniem tym i to orzeczenie chyba elektronicznie do ZUS-u.
A czy próbowałeś to orzeczenie wysyłać samodzielnie właśnie elektronicznie, czy nie?
Nie, bo siostra mi to robiła i jakoś to poszło.
Rozumiem, rozumiem, okej. No to okej, to dzięki w takim razie za informację.
To może naszemu słuchaczowi Andrzejowi w jakiś tam sposób będzie pomocne.
Jeżeli ktoś próbował coś bardziej elektronicznie podziałać no to też będziemy wdzięczni za jakąś informację zwrotną Sylwestrze czy jeszcze masz dla nas jakieś informacje.
Jak się pisze Ableton czy Ableton nie wiem.
Ableton.
Ableton tak?
Tak.
Dobrze to tyle.
Ok, to dzięki w takim razie za telefon. Pozdrawiamy i do usłyszenia.
Spoglądam na nasze drogi kontaktu, ale nie widzę już żadnych waszych wypowiedzi, więc tradycyjne pytanie na koniec.
Czy jeszcze macie coś, o czym chcielibyście w dzisiejszej audycji powiedzieć?
Czy coś może, kolokwialnie mówiąc, doszło w międzyczasie?
Chyba nie?
Chyba nie.
Okej, no to w takim razie 253 Tyflo Przegląd przechodzi już do historii.
Paweł Masarczyk, Piotr Machacz dziś przekazywali Wam większość informacji.
Ja też dziękuję za uwagę.
Michał Dziwisz, do usłyszenia.
Do usłyszenia.
Był to Tyflo Podcast. Pierwszy polski podcast dla niewidomych i słabowidzących.
Program współfinansowany ze środków Państwowego Funduszu Rehabilitacji Osób Niepełnosprawnych.

Wszystkie nagrania publikowane w serwisie www.tyflopodcast.net są dostępne na licencji CreativeCommons - Uznanie autorstwa 3.0 Polska.
Oznacza to, iż nagrania te można publikować bądź rozpowszechniać w całości lub we fragmentach na dowolnym nośniku oraz tworzyć na jego podstawie utwory Zależne, pod jedynym warunkiem podania autora oraz wyraźnego oznaczenia sposobu i zakresu modyfikacji.
Przekaż nam swoje 1,5% podatku 1,5 procent Logo FIRR Logo PFRON Logo Tyfloswiat.pl

Czym jest Tyflopodcast?

Tyflopodcast to zbiór instrukcji oraz poradników dla niewidomych lub słabowidzących użytkowników komputerów o zróżnicowanej wiedzy technicznej.

Prezentowane na tej stronie pomoce dźwiękowe wyjaśniają zarówno podstawowe problemy, jak metody ułatwienia sobie pracy poprzez korzystanie z dobrodziejstw nowoczesnych technologii. Oprócz tego, Tyflopodcast prezentuje nowinki ze świata tyfloinformatyki w formie dźwiękowych prezentacji nowoczesnych urządzeń i programów. Wiele z nich dopiero znajduje sobie miejsce na polskim rynku.

Zapraszamy do słuchania przygotowywanych przez nas audycji i życzymy dobrego odbioru!

Tematyka

Pozycjonowanie i optymalizacja stron internetowych