TyfloPrzegląd Odcinek nr 194 (wersja tekstowa)

Pobierz napisy w formacie SRT
Pobierz napisy w formacie VTT
FUNDACJA INSTYTUT ROZWOJU REGIONALNEGO PREZENTUJE
TYFLO PODCAST
26 dzień lipca 2023 roku, w kalendarzu godzina 20 na zegarze z drobnym haczykiem,
rozpoczynamy 194. wydanie Tyflo Przeglądu.
Witamy Was bardzo serdecznie, Paweł Masarczyk, Piotr Machacz.
Witajcie.
I mówiący te słowa Michał Dziwisz.
Zapraszamy na kolejną dawkę technologicznych wieści.
Na pewno będzie ich sporo.
No a jakie konkretnie one będą?
Posłuchajcie sami.
W tym tygodniu w Tyflo Przeglądzie.
Co nowego w czwartych betach systemów Apple?
Hapti Braille Communicator ułatwi komunikację z głuchoniewidomymi.
Nowy aparat od Sony pomoże słabowidzącym robić lepsze zdjęcia.
Z kolei o tym, co jest na zdjęciach opowie mobilny Bing.
Najnowsza wersja Mony for Mastodon bardziej przyjazna klawiaturom.
Chat GPT na Androida dostępny.
Firefox będzie lepiej działać z YouTubem.
Nowa wersja BRL-TTY.
Xanagrams, nowa gra słowna na iOS.
Sound Echo i Mathematicus Parvus dostają z polszczenia.
Powstał przewodnik po Street Fighterze 6 dla niewidomych.
Nowości dostępności w VS Code.
Poprawki tłumaczeń wymowy w Blind Shell Classic.
Radiant. Kolejny dostępny klient Mastodona.
Dostępność Reddita się pogarsza.
Wiemy więcej o przycisku akcji, który ma się pojawić na iPhone’ie 15 Pro.
AhaMusic. Jak Shazam, ale w przeglądarce.
To początek końca Twittera. Zamiast niego będzie… X.
Wszystko to, a pewnie jeszcze więcej już za chwilę. Zaczynamy!
W Tyflo Przeglądzie jesteśmy zawsze otwarci na Państwa pytania, uwagi oraz newsy.
Zapraszamy na stronę kontakt.tyflopodcast.net, gdzie można uzyskać szczegóły na temat połączenia na Zoomie oraz napisać do nas wiadomość.
Można to zrobić także z poziomu transmisji na Facebooku, YouTubie oraz aplikacji na iPhona od Arkadiusza Świętnickiego i na Windowsa od Dawida Piepera.
Czuwamy także na tyflopodcastowym serwerze Discorda. Zapraszamy więc do kontaktu.
No i jeżeli chodzi o aplikację na iOS-a, to ma ona chwilowy przestój, bo w TestFlight’cie wersja do testowania właśnie wygasła, ale mam już informację od Arka Świętnickiego, że niebawem poleci nowa jej wersja, nowa aktualizacja i to nawet nie tylko będzie taka aktualizacja z jakimiś tylko uaktualnieniami numeru wersji,
ale też będą tam konkretne poprawki, myślę, że poprawki szczególnie, które ucieszą tych, no co to dużo telefonu używają i o baterie dbają,
bo mają być takie właśnie poprawki oszczędzające baterie wprowadzone w aplikacji Tyflo Centrum.
Więc czekamy, pozdrawiamy przy okazji Arka.
No a teraz rozpoczynamy już naszą dzisiejszą audycję, jeszcze co do tych tematów, które mamy gdzieś tam w komentarzach
i co do tego o czym było poprzednio, no kilka głosów się też pojawiło odnośnie problemu Bartka z dotykiem
i okazało się, że ja myślałem, że ta kwestia związana z ładowarką, z kablem, z kostką to jest taka egzotyka,
a tymczasem okazuje się, że nie, że nasi słuchacze też mieli takie problemy i dzielili się też takimi swoimi postrzeżeniami.
Tu taka dosyć ciekawa wypowiedź jednego z naszych słuchaczy, bodajże Krzysztofa, ale teraz akurat nie mam tych komentarzy otwartych,
więc mogę nieprecyzyjnie tu powiedzieć, kto to napisał, że osoby widzące mniej zwracają uwagę na problem z dotykiem,
dlatego, że zazwyczaj korzystają z gestu poruszania się jednym palcem, przewijania, stukania itd.
My jednak częściej wykorzystujemy te gesty, które zmuszają nas do położenia kilku palców na ekranie
i jest to dla nas bardziej odczuwalne.
No to jest rzeczywiście coś, co może być na rzeczy.
A i tak właśnie, a propos urządzeń firmy Apple, no to przechodzimy do tematów związanych z Apple, bo się pojawiły kolejne wersje testowe, to już czwarte wersje testowe systemów Apple, no i jak zawsze z nowościami. Piotrze, co tam ciekawego?
A całkiem sporo. Mieliśmy taki mały poślizg, bo generalnie te wersje bety pojawiają się co dwa tygodnie, tym razem Apple zrobiło sobie tydzień przerwy, dlatego w zeszłym tygodniu nie mówiliśmy o tym, no bo po prostu tej bety nie było, ale wczoraj, tak wczoraj, wczoraj wieczorem te bety cztery dla właściwie wszystkich platform, czyli iOS-a, watchOS-a, macOS-a się pojawiły i co w nich możemy znaleźć.
Po pierwsze, użytkownicy Maców na pewno ucieszą się z tego, że obsługa VoiceOvera przez AppleScript znów działa,
więc narzędzia typu VOCR czy Twiscake czy jakieś inne skrypty, które mówią przez VoiceOvera używając właśnie skryptów,
powinny znów działać, więc bardzo fajnie, że to zostało poprawione.
Później w Eloquence pojawił się przełącznik, który pozwala nam włączyć lub wyłączyć ten słownik społeczności, który jakiś czas temu się pojawił.
Niestety cały czas nie mamy ani możliwości załadowania własnych słowników, ani podobnych opcji dla pozostałych sensatorów, a szkoda cały czas na to, myślę, czekamy w Vocalizerze, ale na razie się nic takiego nie pojawiło.
Dużo ciekawych rzeczy dzieje się na iPhonie jeśli chodzi o to jak VoiceOver ma czytać nam powiadomienia.
Bo pamiętacie, że w poprzednich wersjach systemów iOS 16 mieliśmy po prostu przełącznik zawsze mów powiadomienia,
który decydował czy VoiceOver ma nam czytać wszystkie przychodzące powiadomienia na ekranie blokady czy nie.
No teraz tego przełącznika nie ma, ale w opcjach szczegółowości pojawiło się dużo nowych ustawień, które pozwalają nam osiągnąć to samo, ale też jeszcze więcej, bo dla ekranu blokady możemy osobno zdecydować, czy mają być czytane same powiadomienia, liczba powiadomień, czy to się ma nam w brailu wyświetlić, czy ma nic nie być czytane, a dla banerów, czyli tych powiadomień, które wyświetlają nam się, jak telefon jest oblokowany, no to też możemy zdecydować, czy powiadomienia mają być
czytane, wyświetlane w Braille’u czy nie.
No i jeszcze możemy sobie tak włączyć taką delikatną haptykę
kiedy VoiceOver zacznie takie powiadomienie czytać.
To jest jedno.
A drugie, możemy teraz ustawić jak VoiceOver ma się zachowywać
jeśli chodzi o czytanie tych powiadomień
i kiedy mamy włączone wyciszenie tym przełącznikiem z boku.
No bo wcześniej nawet jeśli mieliśmy telefon wyciszony
to VoiceOver cały czas sobie szczęśliwie te powiadomienia czytał
czytał, niezależnie od tego, czy telefon był zablokowany, czy odblokowany.
No a teraz możemy to wyłączyć, zresztą domyślnie tak to jest ustawione, że kiedy
telefon jest wyciszony, to voiceover nam tych powiadomień nie będzie czytał.
Natomiast z tym przełącznikiem jest błąd, ale o tym za chwilę.
Jeszcze dokończymy omówienie, myślę, nowych funkcji najpierw.
A propos wyciszenia.
Pojawiła się ta funkcja kurtyny dźwiękowej, o której już jakiś czas mówiliśmy,
mówiliśmy, że ona była bardzo dziwnie zaimplementowana, no i zastanawialiśmy się po co komuś taka opcja może być potrzebna.
No i doszliśmy do wniosku, że pewnie to ma służyć osobom głuchoniewidomym, którzy korzystają głównie z linijek braillowskich.
No i wydaje mi się, że chyba tak jest, dlatego że w najnowszej wersji systemu ten przełącznik już nie znajduje się w ustawieniach audio,
a w ustawieniach brajla, bo od teraz kurtyna dźwiękowa włączy się tylko, jeśli mamy do
iPhona podłączony monitor brajlowski, jeśli ten przełącznik jest włączony, no i jak tylko ten
monitor zostanie rozłączony, no to dźwięk nam wróci, to jest jedno, a nawet kiedy tą opcję sobie
włączamy, a nie mamy linijki podłączonej, no to dostajemy już takie ostrzeżenie, które mówi nam,
że ta opcja wyciszy nam cały dźwięk na urządzeniu i całą haptykę, więc
jeśli linijka jest jakaś podłączona brajlowska, więc tutaj już nasz system
na szczęście ostrzega, co ta funkcja robi, ale teraz też trudniej nam jest
tą mowę utracić, bo to wszystko działa tylko faktycznie, kiedy mamy
podłączoną linijkę brajlowską.
A propos czego, w ustawieniach brajla pojawiła się jeszcze jedna opcja.
Ona wcześniej się wyświetlała jako taki komunikat, kiedy pierwszy raz
podłączyliśmy jakąś linijkę do naszego urządzenia, ale teraz możemy sobie to ręcznie jeszcze włączyć lub wyłączyć, a mianowicie
VoiceOver może nam pilnować tego, żebyśmy przez przypadek nie wyłączyli sobie bluetootha, kiedy VoiceOver jest włączony i linijka
perlowska jest podłączona, żebyśmy przez przypadek tego połączenia nie stracili. I to są wszystkie nowe funkcje, natomiast jeszcze
Wrócę na chwilkę do tematu błędów, bo właśnie z przełącznikiem wyciszającym błąd się pojawił, a mianowicie z nieznanych dla nas przyczyn, jeśli voice over jest włączony, no to ten przełącznik po prostu nie działa.
Możemy sobie go przełączać, ale ani nie dostajemy haptyki, ani ten dźwięk się nie wyciszy, no i są dwa sposoby jak to obejść.
Po pierwsze możemy zrestartować telefon i wtedy ten przełącznik będzie ustawiony w takiej pozycji, w jakiej on jest ustawiony, więc jeśli chcemy wyciszyć sobie telefon, to musimy przełączyć ten przełącznik, zrestartować telefon i on będzie wtedy wyciszony lub skonfigurować sobie wyciszenie na jakąś inną funkcję.
I tutaj użytkownicy na Apple Visie sugerują tą funkcję backtap, klepania w plecki telefonu, którą możemy sobie w ustawieniach dostępności skonfigurować.
Tam też między innymi właśnie pojawiła się opcja wyciszenia, więc jeśli sobie to tam ustawimy, no to wtedy ta funkcja będzie działać.
Ale spokojnie, jak iOS 17 się oficjalnie ukaże, to ten problem na pewno będzie naprawiony.
No ale to wszystko w tych wersjach, całkiem sporo się pozmieniało, zobaczymy co nas jeszcze czeka zanim iOS 17 pokaże się ostatecznie już w wersji publicznej.
Czekamy, czekamy, no i pewnie się jeszcze doczekamy niejednej zmiany, a tymczasem zaglądam do waszych komentarzy, bo już się dwa pojawiły na naszym panelu kontaktowym.
Obu, autorką obu tych komentarzy jest Aga, no i napisała do nas tak.
Witajcie. Możliwe, że takie pytanie już padło na Tyflo przeglądzie,
ale poszukuję jakiejś fajnej aplikacji na Maca, która umiałaby pakować,
rozpakowywać pliki oraz dzielić je na woluminy.
Coś takiego jak 7-zip na system Windows.
Czy moglibyście coś fajnego i dostępnego polecić?
Bardzo mi zależy, aby dzielić te archiwa na mniejsze.
Pozdrawiam i będę wdzięczna za jakieś porady.
Piotrze, podpowiesz coś?
Jest taka, była taka fajna, darmowa aplikacja,
która bazowała na bibliotekach 7zipa,
która nazywała się keka i ona była darmowa z tego, co pamiętam.
Zobaczę, że ona jeszcze jest dostępna.
To jest taka najprostsza aplikacja,
bo tam możemy sobie ją po prostu otworzyć
i wtedy możemy sobie wybrać pliki,
które chcemy skompensować i ustawić format, parametry tego.
Coś takiego jak manager plików z 7zipa, tak?
Tak, coś takiego nawet jeszcze prostszego właściwie, bo tam chyba nawet
tam po prostu się otwiera okienko dialogowe i możemy wskazać, jakie pliki chcemy
dodać i później pojawia się
kolejne okno, w którym możemy parametry tego archiwum ustawić.
Jasne.
Nie pamiętam, czy tam jest funkcja dzielenia niestety.
To jest jedna opcja, a druga opcja jest taka, że większość alternatywnych managerów pliku to już są bardziej zaawansowane aplikacje, takie aplikacje, które Findera zastępują, mają funkcję pakowania i tutaj co mogę wymienić, to już są aplikacje płatne, to jest na przykład Commander One, to jest Forklift, Forklift chyba jest taki najprostszy z tych aplikacji, on jest bardzo podobny do Findera Interface, czy Max Commander, chyba który jest zresztą polskiej produkcji, one też potrafią do różnych typów archiwów,
wpakować i tam też się da to skonfigurować.
Tylko ja sobie jeszcze patrzę na tą kekę.
Ona jest w App Store, ale co ciekawe tutaj kosztuje 5 dolarów,
ale pamiętam, że ją się też dało chyba z tej strony producenta ściągnąć.
Ja myślę, że jeszcze spokojnie sobie tutaj poszukam informacji
i dokładnie jeszcze powiem, jak to wygląda.
I teraz jeszcze jeden komentarz Agi do tematu,
który będziemy poruszać za jakiś czas,
ale pozwolę sobie przeczytać go już teraz.
Również dzisiaj chciałabym się z wami podzielić swoją opinią na temat rozpoznawania zdjęć przez AI od Microsoftu,
czyli tej aplikacji Bing.
Otóż jestem naprawdę bardzo zaskoczona, jak to wszystko pięknie działa,
a samo AI naprawdę rzadko się myli.
Konsultowałam to z osobami widzącymi.
Do tego stopnia to jest dobre,
że rozpoznaje na zdjęciu potrawę, którą przyrządziła koleżanka mojej mamy,
a była nią lasagna.
Jedyne, co sobie dorobiła, to fakt, iż z niej podobno unosi się para
i dlatego wygląda ona na świeżo przygotowaną,
a pary tam nigdzie nie było widać.
A opis brzmiał tak.
Na zdjęciu widać talerz lasagni.
Lasagna jest pokryta białym sosem i ma warstwę mielonego mięsa
i pokrojonych pomidorów na wierzchu.
Talerz jest biały i po lewej stronie znajduje się widelec.
W tle widać żółty obrós w kratkę.
Lasagna wygląda na świeżo przygotowaną
i jest jeszcze gorąca,
co widać po unoszącej się z niej pary.
Wygląda pysznie.
I tu emotka,
tak zwana twarz delektująca się pysznym jedzeniem.
Jezus, spaka nam akwasy.
Do tego rozpoznała mój rowerek stacjonarny, którego nie umiała rozpoznać aplikacja od Seeing AI, myląc go z prysznicem, no i rozpoznała rolety, które były zasunięte i to naprawdę dla niej szacun.
Cieszę się, że od teraz mogę zapoznawać się bardziej ze zdjęciami, które będę otrzymywać od znajomych oraz rodziny.
Rzeczywiście, nie da się ukryć, że to jest dla nas bardzo, bardzo duża wartość dodana.
Jeszcze o Bingu sobie dziś na pewno porozmawiamy, więc cierpliwości, cierpliwości.
A jeżeli wy już się zdążyliście pobawić Bingiem i rozpoznawaniem przez niego zdjęć,
to dajcie znać, jak wam się to podoba.
Ja jeszcze, zanim przejdziemy dalej, to w międzyczasie już sobie tą grę sprawdziłem
I tak, można ją sobie ściągnąć albo właśnie z App Store’a jeśli chcemy wesprzeć projekt, ale też można ją za darmo sobie pobrać ze strony autora.
Adres jest bardzo prosty keka.io
Tam mamy dwa linki download. Pierwszy właśnie prowadzi nas do Mac App Store, a drugi pisze download version 1.3.2 w tej chwili.
I ten plik nam po prostu bezpośrednio pobierze archiwum zip, które możemy sobie przenieść do katalogu aplikacji i stamtąd otworzyć.
I tak aplikacja wspiera funkcję podziału plików, więc myślę, że tutaj spokojnie powinna wystarczyć.
A teraz przechodzimy do ciekawego rozwiązania technologicznego, o którym dziś sobie przeczytałem.
Mianowicie o urządzeniu Hapti Braille Communicator.
To urządzenie produkuje firma 4Blind, 4Blind.com, taki jest ich adres.
To zdaje się, jak tak przeglądałem stronę internetową ich, to są ci sami, którzy stworzyli swego czasu Bright Guida, czyli ten klient dla nas, który działa na bazie Telegrama i który ma być niby to takim dostępnym klonem tego Telegrama, taką nakładką powiedziałbym, albo alternatywną aplikacją Telegrama.
No niestety ten projekt, mam wrażenie, że ewidentnie został porzucony.
Oni po prostu zajmują się czym innym.
Pozostaje zatem mieć nadzieję, że to urządzenie jest bardziej dopracowane.
Tak bym sobie tego życzył i myślę, że wszyscy ci, którzy chcieliby z niego korzystać,
bo potencjał jest naprawdę moim zdaniem spory
i faktycznie myślę, że dla części osób może być to rozwiązanie bardzo interesujące.
zarówno dla samych głuchoniewidomych, jak i też instytucji, w których to takie osoby się pojawiają.
Bo jak to w ogóle ma działać? Otóż z jednej strony będzie możliwość komunikacji za pomocą brajla.
To urządzenie jest wyposażone w sześciopunktową brajlowską klawiaturę
i osoba głuchoniewidoma może po prostu tym brajlem coś napisać.
to z jednej strony, i jak ta osoba coś napisze, to zostanie to odczytane z użyciem mowy syntetycznej.
No to działa w jedną stronę.
I teraz zasadnicze pytanie, ale okej, jak to będzie działało w drugą stronę,
bo przecież komunikacja, no to jest zazwyczaj dialog,
więc jak ta osoba, która będzie na przykład obsługiwała taką głucho niewidomą osobę,
no sobie z tym ma poradzić.
I okazuje się, że tu wymyślono w całkiem sprytny sposób,
bo tu nie ma monitora Brajlowskiego.
Tu, w tej klawiaturze sześciopunktowej,
w każdym klawiszu zamontowany jest wibracyjny silniczek.
I teraz, kiedy my coś powiemy do tego urządzenia,
to zostanie to przełożone na szereg takich wibracji,
które osoba głuchoniewidoma będzie miała pod swoimi palcami.
I, co ciekawe, urządzenie rozpoznaje różne języki.
Tych języków tam było wymienione całkiem sporo.
No, w tym też polski.
Więc myślę, że to tym bardziej dla nas gdzieś tam ma potencjał.
Oprócz tego może pracować w kilku trybach,
szczególnie jeżeli chodzi o te wibracje,
bo można tam regulować intensywność tych wibracji, to jest raz,
a dwa, można wybierać sobie w jaki sposób dokładnie będą one wysyłane.
Czy to będą jakieś na przykład sekwencje,
że na przykład będzie nam wibrowała najpierw jedna kropka,
czy jeden punkt brajlowski, potem drugi, potem trzeci
i w ten sposób będziemy składać litery,
czy na przykład od razu, powiedzmy, wszystkie punkty z danego znaku.
No, jest trochę możliwości konfiguracyjnych tego sprzętu.
Ponoć dla osób widzących ma być korzystanie z niego bardzo, bardzo proste.
Jest też jakaś aplikacja do zarządzania tym.
Aplikacja, przynajmniej jak słyszałem w filmiku promocyjnym, na Androida.
Czy coś jest na iOS-ie? Tego nie wiem.
Natomiast jeżeli chodzi o cenę, bo to myślę, że wszystkich może zainteresować, są dwie opcje.
Pierwsza opcja to jest 1398 dolarów i to jest jednorazowa płatność, płacimy mamy.
Druga opcja natomiast to jest opcja tak zwanej subskrypcji, czyli w praktyce jest to po prostu płatność ratalna.
58 dolarów w 24 ratach sobie płacimy, kiedy decydujemy się na zakup tego urządzenia to po prostu już po tej pierwszej płatności urządzenie dostajemy.
Jeżeli w ciągu tych 24 miesięcy stwierdzimy, że nam się do niczego nie przyda to możemy je zwrócić, no podejrzewam, że pieniądze raczej wtedy nie zostaną nam zwrócone,
natomiast gdzieś tam jednak urządzenie, no już nie zapłacimy więcej, tak, jeżeli na przykład uznamy, że to nie jest dla nas.
Ciekawe to jest wszystko i myślę, że jest naprawdę fajną sprawą.
Teraz twórcy tego urządzenia, z tego co widziałem na ich stronie, jeżdżą po świecie, bo ich gdzieś byli w Japonii, byli w Stanach Zjednoczonych.
Jak dobrze kojarzę, to oni chyba pochodzą z Rosji, bo tam też jest jakieś dofinansowanie do tego projektu rosyjskiego jakiegoś instytutu,
więc obawiam się, że w Europie, przynajmniej na razie, to z dystrybucją tego mogą być pewne kłopoty.
Natomiast, no co by nie mówić, technologia sama w sobie jest interesująca i rzeczywiście dla osób głuchoniewidomych może okazać się przydatna,
no pod warunkiem, że będzie to wszystko odpowiednio działało i że będzie to działało zgodnie z oczekiwaniami i założeniami.
A teraz przechodzimy do tematu zdjęć, bo tu Piotrze, ty masz dla nas informację o urządzeniu od Sony, które to jest, no myślę, że dość ciekawe, tym razem coś nie dla niewidomych, ale raczej dla słabowidzących.
Dokładnie, o Sony i aparatach dostępnych już jakiś czas temu było, bo pamiętam, że firma wypuściła aparat, który był w jakiś tam sposób udźwiękowiony, a tym razem mamy do czynienia z trochę innym typem dostępności, który wydaje mi się całkiem ciekawy.
Mianowicie Sony zmodyfikowało jeden ze swoich aparatów, konkretnie tutaj chodzi o model DSC Myślnik HX-99.
To jest model, który już ma kilka lat, bo pojawił się pierwszy raz w 2018 roku, ale to jest bardzo malutki aparat, który potrafi kręcić filmy 4K nawet,
ma 18 megapikselową kamerkę i może ma 20-krotny zoom, więc tutaj pewnie można bardzo szczegółowe te zdjęcia robić.
On nie jest jakiś duży, waży 240 gramów, no ale co tutaj zostało zrobione?
Został stworzony dodatkowy moduł tego aparatu, który zastępuje nam na nim wizjer.
I ten moduł został stworzony w współpracy z japońską firmą QD Laser.
I co ten moduł robi?
No właśnie używając jakiegoś lasera obraz tego wizera bezpośrednio jakoś nam przekazuje do naszej siatkówki.
Dzięki czemu ten obraz powinien być lepiej widoczny dla osób słabo widzących,
no bo takie kamery generalnie, takie aparaty nie są bardzo duże,
ekran, ekrany na nich no też nie są, dzięki czemu mogą robić bardziej szczegółowe zdjęcia.
Co ciekawe, ten aparat nie jest jakoś bardzo drogi, bo kosztuje około 600 dolarów, czyli tyle samo,
ile kosztował ten model, kiedy pierwszy raz się pojawił tutaj.
Autor tylko sugeruje, że tutaj Sony bardzo dużo dokłada od siebie za te modyfikacje.
Natomiast jeśli chcemy sobie taki aparat kupić, to musimy do firmy napisać lub zadzwonić pod odpowiedni numer.
Tutaj jest poddany numer w Stanach, więc nie jestem pewny jak byłoby z dostępnością tego sprzętu w Europie.
No ale jak ktoś jest zainteresowany, jest adres e-mail, myślę, że można by napisać, no bo w Polsce też są przecież centra Sony.
Może by się dało coś zorganizować.
To mniej więcej wygląda tak, że najpierw właśnie umawiamy się na spotkanie, przechodzimy sobie, żeby ten aparat zobaczyć, przetestować, czy to by nam pomogło jakoś.
czy dla nas by się nadawało, no i jeśli tak, no to wtedy możemy sobie taki aparat kupić.
Fajnie, że Sony cały czas właśnie inwestuje w dostępność, to dosyć, myślę, ciekawy pomysł,
nie wiem na ile praktyczny, no ale na pewno wygląda całkiem ciekawie.
Zdecydowanie tak, a teraz myślę, że możemy przejść do kolejnego tematu, też związanego ze zdjęciami,
Mianowicie, jeżeli chodzi o Binga, bo oto okazuje się, że już od jakiegoś czasu
mobilna aplikacja Bing doczekała się też możliwości analizowania zdjęć.
Bo Piotrze, ty testowałeś, ale zdaje się przez stronę, prawda?
To znaczy, próbowałem to znaleźć na stronie, bo widziałem, że ludzie to testowali
na Mastodonie, natomiast ja niestety tej opcji nie widziałem.
Nie wiedziałem, że ona się pojawiła.
A, rozumiem.
W sensie, dowiedziałem się o tym dzisiaj.
Tak, ja to przetestowałem za pomocą mobilnej aplikacji, szczerze powiedziawszy z kolei nie testowałem tego na stronie,
natomiast trzeba będzie się tym również pobawić i w ten sposób.
Ja myślę, że możemy zrobić sobie jakąś taką małą demonstrację.
Otworzę sobie teraz Binga i pokażę jak to wygląda.
Taka w ogóle ciekawostka, to przez pewien moment w aplikacji Bing zniknęła mi ta zakładka czatu, ale już w całe szczęście wróciła i chyba dlatego właśnie dawno tu nie zaglądałem.
Natomiast, proszę bardzo, mamy zakładkę chat, a to proszę bardzo, to proszę bardzo, słuchacze słyszeli, na całe szczęście, tylko wy nie słyszeliście, bo nie skierowałem tego w odpowiednie miejsce, ale już jest.
I teraz, mamy standardowe okienko czatu bingowego, gdzie możemy coś tam sobie napisać.
To mamy jakieś takie coś, co nie wiadomo czym jest.
Ale mamy tu przycisk, który najbardziej nas interesuje, mianowicie wyszukaj przy użyciu obrazu.
Wchodzimy w to i teraz, no tu dostępnościowo to tak może niekoniecznie jakoś bardzo super,
bo mamy przyciski opisane w polskiej aplikacji.
Smart Camera Search Plus, przycisk. Smart Camera Rotate, przycisk.
Tak, czyli to jest obróć. Domyślnie tylni aparat jest wybrany.
Smart Camera Flash Off, przycisk. Tu mamy lampę błyskową.
Samolot. Tak, tak, tak, super.
Smart Camera Search More, przycisk. Tu jest więcej.
I to więcej to służy tak naprawdę tylko do wystawienia jakiejś oceny,
bo się rozwija w coś takiego.
Tu jest przycisk do zrobienia zdjęcia i tu mamy bibliotekę zdjęć, więc możemy zarówno zrobić zdjęcie, jak gdzieś jesteśmy i od razu przesłać Bingowi z prośbą, żeby nam to spróbował opisać, no ale możemy też przeglądać naszą bibliotekę zdjęć i sprawdzać, co tam mamy.
No właśnie, kot się odzywa, kot chyba bardzo chce zostać sfotografowany, ale Bing akurat się nie popisał w opisie mojego kota, bo uznał, że jest kotem syjamskim, a to jest Ragdoll, tu Facebook sobie lepiej z tym radzi, chyba za mało zdjęć słodkich kotków zostało wrzuconych do treningu tego modelu, ale dobrze, spróbujmy zrobić zdjęcie, ja może włączę lampę błyskową.
I zrobię zdjęcie tego co jest przede mną, więc tu trochę różnych sprzętów, różnej elektroniki, zobaczymy jak on sobie z tym poradzi i czy sobie poradzi.
No to proszę bardzo, take photo, ciach.
Ciach.
Camera, search, takie, foto, iluminator, wybierz, zapytaj usługę Bing, wielowierszowe, tekstowe, zadaj mi pytanie, wielokropek, punkt wstawienia na końcu.
Zapytaj usługę Bing. Samego zdjęcia nie da się wysłać, bo trzeba jeszcze zlecić, co ma z tym zdjęciem zrobić.
Błędnie, z, edyc, rozpoz, je, wybór, wejście ekranu, braille, orientacja zablokowana, położenie kropek skalibrowane, o, p, i, s, z, spacja, z, d, j, p, c, i, e.
Napisz zdjęcie.
Orientacja pionowa, obrazek, przycisk, trzynaście, ukośnik, dwa tysiące.
Tak, to jest, że tu trzynaście znaków, a dwa tysiące mogę wpisać.
Wyszukaj przy użyciu obrazu, prześlij, przycisk.
I mamy prześlij, no więc wysyłam.
Użyj mikrofonu, lotwij animacjon.
Analizowanie obrazu, rozmycie prywatności, ukrywa twarze przed czatem, bing.
I niestety to jest problem, bo jeżeli wrzucicie jakieś zdjęcia ze swojej galerii
będą tam ludzie, może być z tym kłopot i może odmówić w ogóle rozpoznania jakiegokolwiek, o.
No właśnie. I też się tak czasem potrafi zdarzyć, niestety, ale spróbujmy może zrobić jeszcze raz.
Albo zobaczmy, co mamy w historii, na przykład.
Na zdjęciu jest kot siedzący na szarej kanapie.
Kot jest syjamski, ma białe ciało i brozowo twarz, uszy i ogon.
Kot siedzi z wyciągniętymi przednimi łapami i rozłożonymi tylnymi łapami.
Kot patrzy w lewo, ma zamknięte oczy i wystawiony język.
Zdjęcie jest robione w naturalnym świetle, a słońce świeci na twarz kota.
Mam nadzieję, że to pomogło uśmiech, roześmiane oczy i zarumienione policzki, buźka.
I to jest jeden z opisów, które po prostu stworzyłem, no użyłem zdjęcia z galerii, teraz akurat się nie udało, to się czasem udaje, czasem nie, na przykład robiąc zdjęcie powiedzmy w łazience, on był na tyle dokładny, że akurat też a propos kota, to skierowałem aparat tak, że był, że była widoczna tam kocia kuweta, to on mi nawet powiedział jakiej marki jest ta kuweta, jeszcze w dodatku zauważył w łazience stojący środek,
czyszczący, to też podał markę tego środka czyszczącego, także no jest to takie naprawdę dość mądre, ale jeżeli są jakieś właśnie zdjęcia z twarzami, no a też często robimy jednak, czy sobie, czy swoim bliskim zdjęcia w galerii, to mogą być z tym kłopoty i on po prostu może zaprotestować i powiedzieć, że nie, ja nie, nie, nie, zanalizuję tego zdjęcia i go nie rozpoznam, a gdzieś na Facebooku
Widziałem, że jedna z użytkowniczek którejś z grup tych naszych środowiskowych zrobiła zdjęcie psu i tam było jeszcze lepiej, co do prywatności, że twarz psa została zamazana ze względu na jego prywatność.
Więc okazuje się, że Bing chroni prywatność nie tylko ludzi, ale też i zwierząt.
A na przykład twarzy kota nie zamazał, także, nie wiem, to jakieś takie nierówne traktowanie.
Protestuję.
W każdym razie działa to rzeczywiście fajnie i tu muszę się z Agą zgodzić.
Ja tylko odczuwam taki pewien niedosyt, jeżeli chodzi o Be My Eyes.
Bo jak wejdziemy sobie w Be My Eyes, to virtual access cały czas wyświetla się jako pending i wszyscy to już dostali, a my jako najbardziej potrzebujący tego, nie otrzymaliśmy tego jakoś wcześniej.
Oczywiście wiadomo, że wybrani to dostali, pozostaje mieć zatem tylko nadzieję, że kiedy już to się odblokuje w Bimajajsie,
no to będzie to dla nas jakoś albo lepiej dostępne, albo będzie ten proces przyspieszony, jeżeli chodzi o rozpoznawanie,
albo może na przykład jeszcze bardziej szczegółowe będą te opisy zdjęć, czy może coś jednak zostanie utworzony dla nas,
jakiś wyjątek związany z tymi twarzami.
Może niekoniecznie, żeby tam nam
identyfikował, kto to jest, ale żeby on
takich aż tak bardzo nie wycinał, bo
czasem zdjęcia, na których znajduje się
twarz, jednak może być
ważne dla nas i chcielibyśmy się
dowiedzieć, co na tej fotografii się znajduje.
A teraz…
No ja jeszcze może tylko się wetnę szybko, bo
akurat miałem takie zastosowanie, gdzie
rzeczywiście potrzebowałbym takiego opisu,
bo mam zdjęcie mieszkania, które sobie oglądam na wynajem.
Otrzymałem dzisiaj rano zdjęcia
no i postanowiłem jedno takie zdjęcie testowo wrzucić,
zobaczyć, co mi tam ciekawego Bing o tym zdjęciu opowie.
Ono jest dość rozmyte, więc nie sądzę, żeby tam algorytm mógł sobie,
gdyby ktoś się martwił, przypasować gdzie to, co to, skąd to, czyje i tak dalej.
Więc tu myślę, że żadnej szkody nie poczyniłem właścicielowi mieszkania.
Natomiast oto jaki otrzymałem opis
i on, z tego co wiem, rzeczywiście w dość dużym stopniu przynajmniej
pokrywa się z tym, co opowiadała mi dziś rano osoba widząca,
która na to samo zdjęcie patrzyła.
A opis brzmi tak.
Zdjęcie przedstawia pusty pokój z białymi ścianami i drewnianą podłogą.
Pokój ma pochylony sufit z jednym wiszącym źródłem światła.
Na ścianie znajduje się jedno gniazdko elektryczne.
Podłoga jest wykonana z drewnianych desek o nakturalnym wykończeniu.
Ściany są pomalowane na biało i są gołe.
No i rzeczywiście tak to jest, bo z tego, co wiem, jest to nieumeblowane pomieszczenie.
Domyślam się, że jakiś taki salon, salono, sypialnia.
Rzeczywiście nie ma tam lamp, jest po prostu żarówka na druciku.
Z tego, co słyszę, no i rzeczywiście ukośne takie okna dachowe, ukosy,
czyli prawdopodobnie jakieś mieszkanie na poddaszu.
No i drewniana podłoga, więc to się pokrywa z tym, co osoba widząca mi opisywała.
Nie wiem, macie jakiś pomysł, o co jeszcze mógłbym zapytać w kontekście,
dodatkowe jakieś pytanie zadać o to mieszkanie?
Czy o ten konkretny pokój na zdjęciu?
Czy wygląda czysto, czy jest kurz? Coś takiego może?
Aha, no zobaczmy.
Aha, nie mogę, mam zablokowane pole edycji.
Nie wiem, czy mogę zadawać tylko jedno pytanie?
No, to wygląda dziwne.
To znaczy tak, niestety ja to też zauważyłem,
że jeżeli wyślemy zdjęcie i zadamy jakieś dodatkowe pytanie,
to to już jakby on zapomina to zdjęcie.
On zaczyna wyszukiwać, bo na przykład zrobiłem dziś sobie zdjęcie tego, co jest przede mną,
czyli właśnie no to, co próbowałem zrobić przed momentem,
no to tutaj właśnie powiedział mi, że jest widoczne studio,
że sprzęt różnego rodzaju, wszystko połączone kablami i tak dalej, i tak dalej.
Zapytałem go w takim razie, czy może opisać, co konkretnie się znajduje.
Jaki to jest sprzęt, czy może podać jakąś markę.
To zamiast tego jakiejś informacji, że no nie mogę, za mało danych, nie wyświetla się to logo nigdzie,
no nie widzę takich informacji, no to dostałem taką, po prostu dostałem informację,
że on próbuje w tym momencie wyszukać najczęstszy sprzęt studyjny.
No i mi wyświetlił tam jakieś miksery, mikrofony i tak dalej, i tak dalej.
Ale to już nie miało związku z tym zdjęciem.
Aha, a to ja właśnie teraz wysłałem i otrzymałem odpowiedź,
nie jestem w stanie stwierdzić, czy mieszkanie jest czyste i wysprzątane na podstawie zdjęcia.
Ja jeszcze zapytam, czy na zdjęciu
Widoczne są drzwi prowadzące do innych pomieszczeń.
Bo tu mieliśmy taką wątpliwość, czy w tym mieszkaniu, aby nie jest tak to rozmieszczone,
że ma mi jedno pomieszczenie, salon, sypialnia i wszystko naraz,
tylko po prostu trochę większych rozmiarów.
Czy to nie jest tak, że mam po prostu jedną jakby izbę i kuchnię, więc zobaczmy tutaj.
Widoczne, o, drzwi innych pomieszczeń, hop, i on powinien odebrać wiadomość i powiedzieć mi sam, tak, odebrano wiadomość, coś tam, no na razie nie mówi nic, to chyba muszę sprawdzić niestety sam.
To czasem trochę dłużej trwa, niestety.
Aha, no może.
No to zobaczmy.
Na zdjęciu nie widać drzwi prowadzących do innych pomieszczeń.
A, czyli jednak z tobą chciał bardziej gadać niż ze mną.
No to tutaj takie ten.
Ja jeszcze zapytam z ciekawości, to jest głupie pytanie,
bo to jest raczej oczywiste, jakiego typu jest gniazdko elektryczne znajdujące się na ścianie.
To będzie dość łatwe do zgadnięcia, nawet gdyby…
To nie jest jakieś bardzo skomplikowane pytanie, podchwytliwe.
Tu wysyłam. No i czekamy, czy nam wygeneruje, czy nam się przyzna do tego.
Bo mogłyby być jakieś tam brytyjskie, włoskie, inne dziwne, ale nie sądzę.
to będzie raczej takie typowo europejskie.
Nie jestem w stanie powiedzieć jakiego typu jest gniazdko na ścianie
na podstawie zdjęcia, czy mogę pomóc w jakikolwiek inny sposób.
Ja się powoli zaczynam zastanawiać, czy on ma to zdjęcie dalej jeszcze w pamięci.
O co ja go mogę jeszcze zapytać?
Czy na zdjęciu widać jakieś meble?
To była jedna z propozycji,
które mogą sobie wybrać za pomocą przycisku,
ale zapytam go tak i poczekamy.
Pewnie nie, bo on mówił wcześniej, że jakby puste mieszkanie, znaczy pusty pokój.
Ale, ale domyślam się, że sprawdzę tylko, czy po prostu dalej pamięta zdjęcie.
O, na zdjęciu nie widać mebli.
Osiągnięto limit konwertacji na dziś.
Aha, no zaloguj, chciałbym kontynuować. No, no dobrze.
Czyli pięć, tak jak było do tej pory, pięć zapytań i koniec.
Potem już logowanie kontem Microsoft chyba.
A na koncie Microsoft jest jakiś limit?
Trzydzieści.
Trzydzieści? Dziennie?
Tak, tak.
Jak przynajmniej mi się wyświetla,
szczerze powiedziawszy, nie przekroczyłem jeszcze tego limitu.
A to jest w ramach jednej konwersacji, czy to jest ogólnie?
Nie, to jest chyba w ogóle, po prostu trzydzieści.
Ach, a w ramach konwersacji nie ma dziesięciu przypadkiem?
A nie, tutaj zadałem, mam wrażenie, pięć pytań.
A, to może, może jakoś to…
I mnie wyrzucił. Może przy zdjęciach jest inny limit.
No, ale tak to działa.
No dobrze, zaglądamy na YouTube’a, bo tu mamy komentarz od słuchacza Łukasza.
Witajcie kochani! W soboty o 12 w Radiu Piekary audycję prowadzi sztuczna inteligencja Basia.
Tak, ja też o tym słyszałem, to temat bardziej podejrzewam na RTV,
ale ja sobie muszę posłuchać tej sztucznej inteligencji.
ponoć jakoś się bardzo wiele nie odzywała w tej swojej pierwszej audycji,
bo ona była, zdaje się, że ta pierwsza audycja była, no, w minioną sobotę.
No bo staram się w tym tygodniu posłuchać i coś tam powiedzieć na ten temat,
bo to rzeczywiście jest interesujące, chociaż ja czekam z niecierpliwością,
kiedy stacje radiowe, sztuczną inteligencję zaczną zatrudniać na nocki,
Na przykład, tam gdzie nie ma prezenterów. To by było, myślę, dosyć fajne.
Tam chyba jest taki plan później. Na razie to tak gdzieś czytałem, Marcinie, że to jest na testy teraz właśnie podczas wakacji na paśmie porannym, ale jeśli to się przyjmie, to właśnie nad tym się zastanawiają.
To znaczy, ja czytałem o jakichś bardzo wczesnych porankach, tam chyba między czwartą, a szóstą, albo piątą, a siódmą, jakoś tak, że chcą to, chcą tę sztuczną inteligencję wykorzystać.
Ale wiecie, stacje radiowe bardzo często wieczorami i w nocy tych prezenterów już nie mają, bo przyczyny ekonomiczne.
A fajnie byłoby gdzieś tam sobie wieczorem coś robiąc, słuchając radia jeszcze, żeby ktoś się odezwał co te parę piosenek.
A sztuczna inteligencja myślę, że potrafi jakieś przynajmniej takie w miarę fajne wejścia sklecić,
sklecić, jeżeli się jeszcze tego odpowiednio dopilnuje, to już w ogóle myślę, że efekty mogą być całkiem interesujące.
Chociaż, no wiadomo, do prezentera takiego skrywi i kości to jeszcze jej daleko, chociaż ja sobie tak od czasu do czasu podsłuchuję
Radio GPT i widzę postęp, na przykład sztuczna inteligencja już się ładnie wyrabia w tak zwanych intrach, czyli tych częściach piosenek,
gdzie jest sama partia instrumentalna i gdzie wokalista jeszcze nie zacznie śpiewać.
To jak ktoś to potrafi, zwłaszcza bez programu, który mu to odlicza,
to jest jeden z takich wyznaczników umiejętności rzemiosła prezenterskiego.
A sztuczna inteligencja jest sobie to wszystko w stanie fajnie wyliczyć, więc też to robi.
i tu wystarczyło po prostu technicznie to wszystko zgrać.
Teraz przechodzimy do serii drobnych, drobnych informacji, drobnych newsów.
Tu zarówno Piotr, jak i Paweł co nieco mają, więc oddaję wam głos.
No, jak zwykle trochę różnych rzeczy się u nas bierało, jeśli chodzi o zarówno aplikacje, gry i inne rzeczy.
Zaczniemy sobie od mony, która często się u nas pojawia.
No i tak samo jak właśnie wczoraj wyszły nowe wersje systemów iOS, to pojawiła się właśnie nowa wersja Bonnie, która zresztą była zapowiedziana kilka dni wcześniej przez autora, bo wiedział, że będzie aktualizacja, która przyniesie jeszcze jakieś poprawki dostępności.
No i co się w tej wersji 5.7 zmieniło?
Zoptymalizowano nawigację z klawiatury w systemie Mac OS XIII i nowszych i tutaj faktycznie jest duża poprawa, bo wcześniej kiedy chodziliśmy po tych tabelach, po osiach czasu z ciałkami, no to aplikacja działała dosyć wolno, mieliśmy komunikaty, ładowanie, zanim voiceover się nam odezwał to mijała sekunda lub dwie, no i szybciej było nawigować skrótami voiceovera, no a w tej najnowszej wersji już
niezależnie od tego, czy chodzimy sobie po prostu strzelkami zwykłymi, czy skrótami voice overa,
aplikacja jest naprawdę teraz… ona już była wcześniej szybka, no a teraz to już w ogóle naprawdę śmiga.
I jeśli ktoś wcześniej czuł, że mona była dla niego wolna, no to warto sobie tą aplikację jeszcze raz przetestować,
bo teraz naprawdę w ogóle działa jeszcze lepiej.
Ponadto, to nie jedyna rzecz, która została dodana, bo aplikacja teraz automatycznie…
bo mija powtarzające się tematy, oszczerzenia o treściach, więc jeśli mamy jakiś długi wątek, który cały jest objęty jakimś ostrzeżeniem, jakąś uwagą
i sobie ten wątek otworzymy, no to VoiceOver poinformuje nas o nim już tylko raz i nie będzie nam co chwila tego samego oszczerzenia czytał.
Fajnie, że coś takiego zostało dodane, ale jeśli dla kogoś to byłoby i tak za dużo, no to dodano opcję, żeby w ogóle czytanie tych oszczerzeń wyłączyć.
Tutaj tylko autor oczeka, że jeśli ten czołącznik sobie wyłączymy, no to w ogóle VoiceOver nie będzie o nich nas informował,
więc myślę, że ta opcja przyda się tylko dla osób, które mają automatyczne rozwijanie takich postów włączone, co też można sobie zrobić.
Na Macu pojawiła się opcja, która zawsze będzie wizualnie podkreślać linki.
Tutaj też nowe rzeczy jeśli chodzi o tworzenie motywów wizualnych, ale na ekranie profilu jakiegoś użytkownika pojawiła się nowa czynność, która na nas będzie dostępna z pokrętła, wyślij wiadomość i będziemy mogli sobie bezpośrednio z ekranu profilu jakiejś osoby przejść do konwersacji z tą osobą.
Pojawiły się też skróty klawiszowe, kiedy mamy otwarty profil jakiś to mamy teraz skrót klawiszowy do zaobserwowania tej osoby, do wysyslenia wszystkich linków, które są na tym profilu i do napisania wiadomości do tej osoby.
Kiedy przeglądamy lokalną lub federowaną oś jakiejś instancji kliknięcie na właśnie te przyciski lokalna lub federowana oś spowoduje, że te listy przewiną się na samą górę tak jak to się teraz dzieje jeśli klikniemy sobie na kartę, na której już jesteśmy.
Na ekranie, na którym widzimy wszystkie zdjęcia, które są dołączone do jakiegoś postu,
teraz ten ekran może wyświetlać więcej niż cztery.
No i jeszcze jakieś tutaj mniejsze poprawki błędów autor informuje.
Fajnie, że aplikacja cały czas się rozwija.
Ja wiele razy ją polecałem, ale to tutaj nic się nie zmieniło.
Cały czas naprawdę ta aplikacja jest po prostu fantastyczna.
Następnie coś, co może się przydać programistom,
a mianowicie portal Forgeo.
To jest taki github, który możemy postawić na własnym serwerze,
jeśli chcemy mieć pełną kontrolę nad tym, gdzie trzymamy nasz kod źródłowy,
chcemy pracować z właśnie narzędziami git,
ale zarazem dać użytkownikom dostęp do takiego portalu właśnie jak github,
gdzie takie osoby mogą nam zgłaszać błędy, wysyłać tak zwane pull requests,
jeśli chcemy współpracować na kilka osób nad jakimś projektem wiki sobie postawić,
no to Forgeo właśnie pozwala na coś takiego nam postawić.
I ta platforma doczekała się kolejnych poprawek dostępności.
Tam co chwilę jakieś poprawki się pojawiają, co cieszy.
A co się pojawiło w tej najnowszej wersji?
Między innymi ekran, taki główny pulpit został poprawiony.
Tam wcześniej było dużo jakichś nieodpisanych obrazków,
które generalnie pełniły tylko funkcje jakieś dekoracyjne.
Linki nawigacyjne, które pozwalają nam przechodzić między repozytoriami zostały udostępnione, listy rozwijane działają lepiej i pojawiły się też poprawki w edytorze, tam jest taki właśnie edytor do tekstu sformatowanego, który m.in. jest wykorzystywany, kiedy pracujemy z wiki, chcemy sobie jakiś repozytorium wiedzy, jakiś wiki postawić,
no to teraz możemy to w bardziej dostępny sposób zrobić.
Więc jak ktoś jest zainteresowany, to 4GA można sobie za darmo ściągnąć
i postawić na własnym serwerze, nawet na takim Raspberry Pi.
To jest bardzo zoptymalizowana aplikacja, która generalnie działa dosłownie wszędzie.
A propos sztucznej inteligencji, chat GPT, który już wcześniej doczekał się
oficjalnej aplikacji na iOS-a, o której mówiliśmy, pojawił się również na Androidzie.
Na razie jeszcze nie w Polsce, pojawił się w Stanach, w Brazylii, chyba jeszcze w jakimś
jednym kraju. Natomiast firma OpenAI już mówi, że za kilka dni ta aplikacja pojawi się w wielu
innych krajach. Pewnie jeśli to będzie tak szybko się rozwijało jak aplikacja na iOS-a, to myślę,
że za kilka dni w Polsce powinna się pojawić.
Natomiast użytkownicy w Stanach już zaczęli tę aplikację testować pod kątem dostępności i generalnie jest fajnie, aplikacja jest dostępna, niestety nie mamy haptyki, kiedy ten chatbot myśli i pisze do nas i nie dostajemy komunikatu, kiedy skończy myśleć i wyśle nam wiadomość, musimy sobie ją ręcznie przeczytać, ale poza tym nie ma problemu, TalkBack wszystko fajnie czyta i możemy z tą aplikacją bez problemu pracować.
Następnie przechodzimy do Firefoxa. W Firefoxie, na razie w tej wersji Nightly, został poprawiony taki dosyć irytujący błąd, który mogą kojarzyć użytkownicy, którzy kiedykolwiek byli na YouTubie i sobie przewijali jakąś dużą ilość materiału, czy nasze subskrypcje, czy może szukaliście jakiegoś filmu.
YouTube ostatnio działa, tak jak wiele stron, w ten sposób, że kiedy my sobie
przeglądamy te filmy i dochodzimy do końca, powiedzmy ładowane jest pierwsze
10 filmów, a kiedy przewiniemy stronę do tego dziesiątego filmu, no to ta
strona w tle nam załaduje kolejne 10 i to się dzieje, powinno się to dziać w
taki sposób, że my nawet o tym nie wiemy.
Natomiast niestety użytkownicy czechniku ekranu często mieli z tym problem.
Jeśli chodziliśmy po tej stronie tałem, albo nawet po nagłówkach np. w NVDA to w pewnym momencie mogliśmy dojść do momentu, kiedy naciskamy H i słyszymy komunikat, nie ma nagłówka, mimo to, że kolejne filmy są, ale one po prostu się nie załadowały i trzeba było wchodzić w tryb formularza, nacisnąć strzałkę w dół parę razy, żeby tą stronę przewinąć i wtedy kolejne filmy były ładowane.
natomiast w Chrome’ie ten problem nie występował.
I tutaj Jamie Tay i inne osoby pracujące nad Firefoxem znalazły na to
rozwiązanie, które już jest testowane i pomału będzie się właśnie najpierw pokaże
w tej wersji nightly eksperymentalnej, ale z czasem też pojawi się w stabilnym
Firefoxie, no i wtedy YouTube i pewnie może jeszcze jakieś inne strony, które w ten
sposób uładują treści, powinny zacząć nam działać dużo lepiej z czytnikami ekranu.
Teraz przechodzimy do Linuxa, ale nie tylko, bo narzędzie braille teletype, chyba tak się ten
skrót rozwija, to jest narzędzie, które daje nam dostęp do, zaczęło się od terminali
linuxowych z poziomu linijki braillowskiej, ale ono też między innymi może być wykorzystywane
przez NVDA czy przez narratora na Windowsie, żeby dać nam dostęp do wielu monitorów brailowskich.
Tutaj w NVDA to są często nawet takie starsze monitory, które nie mają już oficjalnie dostępnych
sterowników na przykład, a z tym narzędziem działają, ale też to narzędzie jest na Androidzie
dostępne. No i pojawiła się jego nowa wersja, wersja 6.6.
Tam jest dużo, dużo takich pomniejszych zmian technicznych, nowe zmiany w tablicach
braillowskich, nowe przełączniki w tej wersji linuxowej, które powinny sprawić,
że ta aplikacja będzie działała lepiej z terminalami, ale np. z takich ciekawszych
rzeczy pojawiło się wsparcie dla monitora braillowskiego DotPad.
To jest jedno z tych nowych urządzeń, które jest takim graficznym monitorem
braillowskim, który oprócz samego brailla może nam wyświetlać też grafikę.
I jeśli używamy go właśnie z Braille Teletype, no to po prostu dostajemy wielowieczowy monitor węglowski, więc jeśli mamy otwartą jakąś aplikację na Androidzie na przykład, czy terminal w Linuxie, no to będziemy widzieli kilka linijek na razie i będziemy mogli sobie jakoś po nich nawigować.
Jestem bardzo ciekawy jak to działa.
Fajnie, że już pojawiają się narzędzia, które takie monitory obsługują.
Miejmy nadzieję, że za jakiś czas też będą one dostępne szerzej dla użytkowników po prostu.
A teraz kilka tematów związanych z grami.
Po pierwsze pojawiła się nowa gra na iOS, gra Xanagrams,
którą stworzył ktoś, który podpisuje się jako Dark Horse Game Studios.
To jest osoba, która straciła wzrok niedawno, ale właśnie wtedy zauważyła, że
niestety wiele rzeczy jest dla nas nierozstępne, no ale postanowiła przez to
nauczyć się programowania i zacząć tworzyć gry dostępne zarówno dla niewidomych
i widzących na iPhone’a i pierwszą taką grą właśnie jest Xenograms, który możemy
sobie pobrać za darmo, ale tam w sklepie dodatkowe później zagadki sobie dokupowywać.
A o co w tej grze chodzi?
No to jest fajna gra, która może pomóc nam przećwiczyć język angielski,
bo w tej grze rozwiązujemy różne zagadki słowne.
Coś w stylu krzyżówki.
Dostajemy podpowiedzi na jakieś hasło i mamy rozsypane cząstki różnych słów,
które musimy odnaleźć i które składają się z dwóch z trzech liter.
Coś w stylu gry Letter Runes, o której też jakiś czas temu mówiłem.
Nie, Subwords, przepraszam, to są dwie gry tego samego autora.
Mniej więcej tak ta gra wygląda i możemy sobie właśnie te
zagadki w ten sposób rozwiązywać i ćwiczyć nasze słownictwo.
Ale jeśli język angielski nas nie interesuje,
a chcielibyśmy właśnie znaleźć coś co jest dostępne w naszym języku, to dwie gry od
Christopha zostały z tłumaczenia na 22 języki, w tym język polski.
Mówimy tutaj o dwóch grach.
SoundEcho to jest taka gra pamięciowa, w której znajdujemy dźwięki pasujące do siebie na planże.
Musimy dwa identyczne dźwięki znaleźć, coś w stylu pirackiej pamięci na przykład.
I Mathematicus Parvus, czyli gra, która pozwala nam poćwiczyć rozwiązywanie działań matematycznych w pamięci.
Dodawanie, mnożenie, dzielenie i odejmowanie.
No i teraz ta gra jest też dostępna w języku polskim, obie te gry.
To tłumaczenie jest generalnie dobre, natomiast jest, widać, że tam chyba jest robione maszynowo,
jest takie kilka rzeczy, które są trochę dziwnie przetłumaczone, natomiast nie ma jakichś bardzo dużych tam błędów
i można spokojnie sobie po polsku w te gry grać i sobie bez problemu z nimi poradzić.
Szkoda tylko, bo ja zainstalowałem sobie te obie gry i szkoda, że w tym matematikus parvus ta klawiatura, za pomocą której wprowadzamy odpowiedzi,
no to jest jakaś taka klawiaturka zewnętrzna, nie taka typowa numeryczna z naszego iPhona, bo przez to nie mamy niestety zachowanego tego trybu wpisywania.
Nie możemy na przykład wpisywać bezwzrokowo, tylko trzeba za każdym razem stuknąć dwukrotnie w daną cyfrę.
Tak, i tam chyba też w Prailu pewnie wpisywanie też nie działa, bo chyba to nawet nie jest podtekstowe.
Tego nawet nie testowałem, szczerze mówiąc, ale ta klawiatura mnie trochę zniechęciła.
No ja też nie testowałem, natomiast tak jak mówisz, to tak jest. Te gry też nie są darmowe.
W przypadku Mathematicus Parvus mamy pięć gier próbnych, po czym musimy chyba 15 złotych zapłacić,
A Sound Echo daje nam 10 prób, a później musimy zapłacić 25 złotych, no i te dźwięki są takie niektóre dosyć głośne, no ale mówię, może komuś się spodobają, no to można sobie ściągnąć i za darmo przetestować.
Jeszcze a propos gier, pojawił się przewodnik po Street Fighter 6, gra, o której mówiliśmy, gra, która ma kilka funkcji dostępności, które pozwalają nam lepiej podczas walki sobie radzić, natomiast sama gra niestety nie ma czytnika ekranu, więc jeśli chcemy nawigować po menu w tej grze, to musimy się ich nauczyć, natomiast jeden z użytkowników te menu najbardziej potrzebne nam rozpisał, menu i samouczki, jak te funkcje dostępności sobie powołać.
No i znajdziecie w komentarzu link do strony, na której ten przewodnik znajdziecie i nie tylko zresztą on, bo tam na tej stronie jest całkiem sporo przewodników do różnych gier dla widzących, które właśnie są dla nas dostępne, no ale wymagają trochę od nas nauczenia się na pamięć, gdzie poszczególne opcje są.
To wszystko ode mnie, ale teraz jeszcze oddaję głos Pawłowi.
I tu ja przechodzę z gier do takich rzeczy bardziej programowych znowu, bo ostatnio ukazała się nowa wersja VS Coda, czyli środowiska programistycznego, edytora kodu.
I nie tylko kodu, bo teraz ja będę się też temu tematowi przyglądał. Podobno jest z tego potężny edytor Markdowna.
Markdowna, wersja 1.8.0, która wprowadza różne rzeczy,
oczywiście największą nowością gdzieś tam jest co-pilot,
czyli wsparcie ze strony GPT we wszystkim,
w jakimś tam podpowiadaniu i funkcji, i w funkcjach programu,
i w programowaniu samym i tak dalej.
No i tutaj tej funkcji chyba najwięcej poświęcono
usprawnień dostępności, bo mamy dostęp do nowej, kontekstowej pomocy
pod skrótem Alt F1, która otwiera się, no w zależności od tego, co mamy otwarte,
czy właśnie panel czatu z GPT, czy jakąkolwiek inną funkcję,
no to tutaj otworzy nam się pomoc odnośnie dostępności tej konkretnej funkcji.
To już działało wcześniej, zdaje się, w terminalu,
a teraz działa na przykład w tych zeszytach, w tych projektach,
w tych notebookach, też właśnie w panelu czatu
i w kilku innych obszarach będą się te strony pomocy otwierać,
no, dla tej konkretnej funkcji, którą mamy.
Znowu dla F2 dodano, właśnie chyba w odpowiedziach czatu co-pilot
i w paru innych miejscach, możliwość przeglądania
w takim chyba tradycyjnym polu edycji,
po znakach, po słowach, po liniach i tak dalej,
treści pewnych elementów, które zostały tam przedstawione jako,
nie wiem, elementy listy, czy jakieś powiedzmy takie,
Elementy, których tradycyjnymi skrótami klawiszowymi przejrzeć się nie da po znakach czy słowach, ani z nich wykopiować.
No i oczywiście jest pełne wsparcie przy czytniku ekranu dla Co-Pilota, czyli wsparcie dla pisania, czytania czatów.
I mamy też komunikaty, znaczy te dźwięki, powiadamiające nas o tym, jak tam przebiega nasz proces.
że wysłaliśmy wiadomość, że generowana jest odpowiedź, my na nią czekamy i że odpowiedź właśnie nadeszła.
No więc tutaj jeśli chodzi o VS Code’a to o dostępności Copilot’a myślano już od początku.
Tutaj mamy wiadomość od naszego słuchacza Dawida, który dziś nie mógł z nami być.
Dawidzie pozdrawiamy Cię, fajnie, że nas słuchasz i podsyłasz nam różne wiadomości.
Tym razem chodzi o telefon BlindShell Classic
i była drobna aktualizacja ostatnio, która wprowadziła poprawki
w tłumaczeniach wymowy. Rozumiem, że tutaj
synteza pewne rzeczy zaczęła lepiej czytać albo i
pewne rzeczy zostały lepiej przetłumaczone. To może
użytkownicy BlindShella się wypowiedzą.
Tutaj moja własna kolejna wiadomość, moja własna obserwacja.
Coś się dzieje z YouTubem na iOS-a niedobrego.
Nie wiem, czy też zauważyliście.
Oglądaliśmy sobie jakiś film i chcemy zobaczyć następne filmy, które są nam podpowiadane.
To kiedyś było bardzo fajnie, bo jeden flik, jeden filmik, a teraz trzy elementy.
Tak, potwierdzam, ja też.
I coś się też kursor lubi przyciąć wokół tych filmików, trzeba czasem ręcznie tam trzyma palcami góra-dół
przesunąć. I to już nie tylko wokół reklam, ale wokół tych typowych filmów też, więc coś tu się
ewidentnie niestety rozpadło.
Lipcowa aktualizacja JOS-a 2022, tym razem aktualizacja dość drobna, tylko sześć elementów na liście zmian i głównie są to poprawki związane z obsługą internetu.
Są to poprawki związane z Chrome’em, tam były problemy z otwieraniem menu kontekstowego, zdaje się na linkach, też na niektórych stronach ponoć JOS coś przycinał tekst, który był czytany
i dużo, dużo poprawek odnośnie zachowań przy ARIA Live,
czyli przy tych automatycznie odczytywanych komunikatach,
które są przez strony gdzieś tam podawane,
które się pokazują w obszarach właśnie zaznaczonych jako ARIA Live,
czyli te, które się automatycznie aktualizują
i czytnik ekranu powinien nam je czytać.
W różnych sytuacjach zostało poprawione ich odczytywanie.
Gdzieś tych komunikatów było za dużo,
gdzieś ich w ogóle nie było.
No tutaj te rzeczy będą od teraz już lepiej czytane.
Vibrate the time. Użytkownicy Apple Watcha zawsze chwalą się tym i cieszą się z tego, że ich zegarek to potrafi bezgłośnie podać nam godzinę, a to w taki sposób, że właśnie ją wywibrowuje.
No i tutaj użytkownicy zegarków google’owych z systemem Wear OS też by tą opcję chcieli mieć. Ponoć zegarki Samsunga to mają i chyba teraz ten nowy Pixel Watch również.
Natomiast jeżeli ktoś posiadał jakieś jeszcze starsze zegarki z Wear OS, na przykład 2, albo zegarki, które po prostu tej funkcji nie mają, jakiś jeszcze innych producentów,
no to powstała dla nich teraz aplikacja Malcolma Bryanta, dewelopera, który jest w kontakcie z osobą niewidomą, z członkiem listy Blind Android Users List.
No i na prośbę tego użytkownika poniekąd czy po konsultacjach taką aplikację stworzył, aplikacja nie ma żadnego interfejsu ponoć, po prostu ją otwieramy i ona wibruje nam czas, możemy też ją uruchomić jako usługę w tle i wtedy będzie ona informować nas regularnie lub po dwukrotnym, no w ustalonych odstępach czasu, a ustalamy odstępy czasu, jak intensywność wibracji poprzez towarzyszącą aplikację na smartfony z Androidem,
No a z kolei możemy też ustawić aby aplikacja tą godzinę wibrowała nam zawsze po dwukrotnym przekręceniu koronką.
Tutaj już deweloper informuje z góry, że będzie takie działanie aplikacji w tle pochłaniać troszkę więcej baterii.
No ale jeżeli nie mieliście wcześniej takiej funkcji na waszym zegarku androidowym to teraz możecie ją mieć.
Mamy też nowy dodatek do NVDA, Custom Notifications.
Pozwala on na to, żeby spersonalizować w dość ograniczonym w porównaniu np. do JOS-a zakresie,
ale jednak, jak mają być odczytywane powiadomienia, które z różnych aplikacji na Windowsie przychodzą
i do wyboru mamy opcję, żeby była odczytywana jedynie nazwa aplikacji lub żeby odczytywane było wszystko.
Wszystko? Można też kontrolować ucinanie powiadomienia i to jest według jakiegoś schematu.
Rozumiem, że schemat jest taki dość prosty, bo domyślnie wpisane mamy przecinek i spacja.
I to oznacza prawdopodobnie, że czytaj do przecinka, czyli wtedy jest sama nazwa aplikacji.
No i dalej już nie mamy informacji o tym, co w tym powiadomieniu się znajduje.
Czy można to jakoś bardziej personalizować?
Ciężko mi powiedzieć. Prawdopodobnie nie działają tam żadne wyrażenia regularne, przynajmniej nic o tym nie wiadomo.
Można też spersonalizować, czy powiadomienie ma być odczytywane mową czy wyświetlane na monitorze brailowskim.
Każde z tych opcji można konfigurować niezależnie, bo są to pola wyboru.
No i mamy też pole edycji do przetestowania jakimś tam testowym powiadomieniem,
czy zachowanie, które skonfigurowaliśmy nas satysfakcjonuje w ustawieniach.
Może wtyczka się jeszcze rozwinie, no ale na ten moment taką wtyczkę mamy.
stworzyła ją hiszpańska społeczność użytkowników NVIDIA.
Już wiele dobrych wtyczek, z których wszyscy korzystamy,
prawdopodobnie ze stajni tej społeczności wyszło.
No i to wszystko, jeśli chodzi o odrobne newsy na ten tydzień.
Ale Pawle, mikrofon cały czas twój, bo teraz masz dla nas
informację o nowym kliencie Mastodona.
Zgadza się. Radiant for iOS, Radiant for Mastodon,
Radiant, tak piszemy nazwę tego klienta.
Jest to nowy klient Mastodona, który ma być takim klientem prostym, ale jednocześnie funkcjonalnym i klient ten, no, niedawno ukazał się, zdaje się, na rynku, a już zyskuje na dostępności i to dzięki komuś z Polski, dzięki naszemu, zdaje się, nawet słuchaczowi, użytkownik, który podpisuje się nikiem Pax, jest testerem dostępności tej aplikacji,
Zdaje się, że w prywatnych jakichś testach na TestFlight i jest w stałym kontakcie z osobą, która tą aplikację tworzy.
No i dzięki działaniom Paxa mamy już wiele udoskonaleń dostępności.
Ja może pokrótce opiszę jak aplikacja troszeczkę wygląda, bo my możemy sobie ją otworzyć, zalogować się oczywiście na naszą instancję i na nasze konto.
No i co my mamy? Mamy przycisk, który służy do wpisania nowego posta.
Mamy przycisk do przełączania zdaje się kont, z tego co pamiętam i tutaj już się pojawia pierwsza rzecz, którą można wykupić, bo można wykupić też opcję Prime w Radiance i wtedy za 5 zł miesięcznie lub za zdaje się 50 rocznie, czy 40 parę rocznie możemy odblokować pewne funkcje, takie jak właśnie przełączanie między wieloma kontami,
czy też powiadomienia push, takie działające w tle,
kiedy aplikacja jest po prostu zamknięta.
No natomiast dalej po tym przycisku mamy przycisk przełączania
między różnymi osiami czasu.
No i są tam osi lokalna, znaczy nasza domowa, lokalna, globalna,
wiadomo też i teraz trendy, nie wiem jak działają do końca trendy,
ale mogę się domyślić, że prawdopodobnie jest to jakiś misz-masz postów,
które są najmocniej prawdopodobnie podbijane wśród naszych znajomych.
No i co my mamy dalej?
Mamy możliwość personalizacji również tego, co na naszej osi,
danej tą, którą aktualnie wyświetlamy, będzie się pokazywało,
czy będą to wszystkie posty, czy będą to tylko posty podbite,
czy będą to linki, czy będą to posty zawierające linki,
czy będą to posty zawierające multimedia.
No kilka takich opcji, filtrów mamy.
No i potem mamy już oś czasu, na której jedno fliknięcie, jeden post.
Wszystko ładnie pogrupowane.
Chociaż nie wiem, czy nie jest też tak, że
posty podbite są jakoś dziwnie na ten moment czytane.
Tak jakby były one postami osoby, która podbiła.
Tak dziwnie, że jest osoba podbijająca.
I od razu treść, tak odniosłem wrażenie,
chociaż nie jestem pewien, muszę jeszcze przetestować.
No i mamy na pokrętle, no takie najpopularniejsze czynności,
jak odpowiedź, podbij, polub, nie wiem, czy tam dodać do zakładek, chyba tyle.
No i mamy przeróżne, mamy też opcję odkrywaj, tam możemy sobie na przykład
przejrzeć najbardziej, najczęściej dyskutowane linki z naszej osi czasu,
osoby, które warto śledzić i tutaj mamy to zrobione w ten sposób, że po prostu
są to, mi np. proponowane są domyślne konta jakby aplikacji Radiant,
jeżeli chcielibyśmy śledzić rozwój aplikacji oraz osoby, z którymi ostatnio prowadziłem interakcję.
Więc w taki prosty sposób jest to zrobione.
No i mamy też powiadomienia, mamy wiadomości prywatne i mamy ustawienia.
No i w ustawieniach możemy skonfigurować wiele,
bo możemy dla naszego konta pewne rzeczy pokonfigurować,
na przykład hasztagi, które śledzimy,
no język, w którym najczęściej piszemy posty, domyślnie piszemy posty.
Jest też przekierowanie do ustawień w internecie, na stronie naszej instancji,
Ale mamy też możliwość skonfigurowania takiej osi czasu, która łączy w sobie wiele hasztagów, czyli jak śledzimy dostępność, to możemy zrobić sobie hashtag dostępność, hashtag accessibility, hashtag a11y, hashtag dostępność,
Chociaż chyba w przypadku Mastodona brak lub obecność polskich znaków nie czynią różnicy.
No ale już na przykład, nie wiem, możemy zrobić sobie zakładkę technologia.
No i tutaj sobie zrobimy hashtag Apple, hashtag Android, hashtag iPhone, hashtag, nie wiem, GPT, cokolwiek.
I możemy sobie w ten sposób zrobić taką spersonalizowaną oś czasu.
Jest dość dużo takich typowych opcji wyglądu, zachowania aplikacji, ale mamy też opcje dotyczące dostępności.
Czyli tu na przykład możemy w pewnym dość ograniczonym,
ale jednak zakresie, ustawić sobie w jakiej kolejności
mają być odczytywane różne informacje na osi czasu.
Czy data ma być odczytywana na początku, czy na końcu,
czy ma być odczytywana nazwa wyświetlana,
czy nick mastodonowy osoby,
powiedzmy, czy cały adres mastodonowy osoby,
od której właśnie czytamy post.
No parę aspektów możemy sobie tam spersonalizować.
Możemy też odfiltrować emoji w nazwach użytkowników,
w treściach postów, terminologię, możemy też wybrać, czy ma nam VoiceOver czytać o, nie wiem, postach, podbiciach i jakichś tam lajkach, czy o tutach i tam jakichś reblogach i tak dalej.
Możemy sobie spersonalizować właśnie tutaj z kilku opcji, wybrać preferowaną terminologię, no, więc opcje są bardzo ciekawe.
Auto jest też otwarte i prosi o to, żeby kontaktować się w sprawie
jakichś jeszcze obszarów, które no nie są do końca dostępne.
Ja widzę taką jedną dość oczywistą wadę, aplikacja,
jeżeli mamy włączony język, automatyczne wykrywanie języka na pokrętle,
no to nam się domyślnie włącza po angielsku z angielską syntezą.
No, podczas gdy my prawdopodobnie większość postów będziemy czytali
tak czy siak jakąś naszą preferowaną, no polską czy jakąś inną.
A czy jeśli jest jakiś post po polsku, to wtedy się język zmienia?
Niestety nie. Przynajmniej ja trafiłem na post, nie wiem jakie było ustawienie osoby, która postowała.
Post był ewidentnie po polsku.
No i tutaj niestety nie przełączył się język.
Możliwe, że ta osoba miała coś poustawiane w kliencie, że ten język był ustawiony na angielski czy coś.
Ale post polski został odczytany jak najbardziej angielską syntezą.
Też myślałem, że tu będzie jakoś to mądrzej zrobione, ale chyba niestety nie.
No i tak, ale jakbyście chcieli kolejnego klienta Mastodona, takiego dość prostego, a darmowego w większości funkcji poza właśnie wieloma kontami i powiadomieniami, gdzie autor o dostępność dba, no to Radiant, czyli Radiant, tak jak się pisze, się poleca.
No i jeszcze raz podziękowania dla PAX-a za testy i cierpliwość w przekazywaniu uwag.
Tak jest, przyłączamy się do podziękowań, jak najbardziej, a teraz jeszcze jeden komentarz od Agi a propos Binga.
Michale, to u mnie tej zakładki czat nigdy nie było, ja muszę kliknąć w tę zakładkę Bing i tam dostaję się do czatu, tak dziwnie, a no to widzisz, to ciekawe, czy ja sobie gdzieś to jakoś wywołałem, a nie pamiętam,
Próbowałem nawet teraz to sprawdzić w ustawieniach aplikacji i tam pewne rzeczy można przypinać, ale jakoś tego czatu nie widzę, żebym na przykład mógł go teraz odpiąć, więc być może po prostu to jest tak, że u różnych użytkowników różne rzeczy są poprzypinane do tego ekranu głównego.
U mnie jakiś czas temu tej zakładki na pewno nie było i się właśnie tak już zastanawiałem, co się z nią stało, gdzie ona się podziała, a teraz, proszę bardzo, jest.
No to teraz przechodzimy do następnych tematów, tu klient Mastodona kolejny i to całkiem dostępny, a jeżeli chodzi o Reddita, no to Piotrze, coraz gorzej jeżeli chodzi o dostępność.
Niestety źle się dzieje, tutaj będziemy bazować na poście, który został właśnie wczoraj też napisany na subreddicie airblind, został przyklejony na główną stronę jako kolejne ogłoszenie sagi, co się dzieje z tym subredditem, no i generalnie z dostępnością strony.
No i co, czego możemy się z niego dowiedzieć?
No niestety w czerwcu pojawiły się aplikacje do, pojawiły się aktualizacje do aplikacji mobilnych Reddita na iOSie i na Androidzie, które jakieś zmiany przynosiły, ale też osoby widzące też nie są do końca zadowolone z tych aktualizacji.
A jeśli chodzi o nas, no to niestety, mimo to, że Relic obiecywał, że jakieś przyciski zostaną zaetykietowane i ponoć jakieś zostały, no to niestety dużo innych przycisków te etykiety straciły, ponadto są problemy z kolejnością kontrolek dla czytników ekranu, że ten focus gdzieś ucieka, problemy ze stabilnością, no i oczywiście z wydajnością tutaj, w sensie jak szybko można po tej aplikacji chodzić, więc tutaj niestety jest problem.
A propos aplikacji, akurat tego nie ma w tym ogłoszeniu, ale w subrelicie dystopii napisała osoba, która miała taki problem, że próbowała dołączyć do jakiejś społeczności, z której została zbanowana z powodu unikania jakiegoś banu.
To się okazało, że ostatnio Relit wprowadził jakąś funkcję, która pozwala moderatorom zobaczyć jakąś liczbę, którą platforma ustala na podstawie pewnie jakichś algorytmów.
Jak duże jest prawdopodobieństwo, że to jest prawdziwa osoba, czy bot?
No i tutaj się ludzie zastanawiają, czy korzystanie właśnie z dystopii, czy innych tego typu aplikacji może nam tą liczbę zmniejszać.
To nie jest, to jest coś co moderatorzy mogą sobie podglądać, więc no czy to nam będzie robiło problemu pewnie będzie zależało od społeczności, natomiast ani Autodystopii, ani sama firma się do tego niestety nie ustosunkowała, a szkoda, bo no wydaje mi się, że to jest dosyć, może być istotny problem, zwłaszcza, że aplikacje oficjalne zarówno na iOS-ie i na Androidzie, no jak widać niestety, nie dość, że już wcześniej były słabo dostępne, no to stają się jeszcze mniej dostępne.
A jeśli chodzi o moderację Reddita, czy w ogóle kontakt z firmą, jeśli chodzi o kwestie dostępności, no to tutaj też są niestety problemy.
Pojawił się jakiś formularz, który zainteresowani mogli wypełnić, żeby spotykać się jakoś z ludźmi z Reddita na żywo.
Tutaj większość osób z Airblind Moderatorów to wypełniła, ale nie dostali odpowiedzi.
W międzyczasie też były problemy ze zgłaszaniem błędów dostępności, bo firma nie miała żadnego adresu e-mail, prosiła o wysyłanie zrzutów ekranu i nagrań przez narzędzia moderacyjne, które nie pozwolały na dołączenie plików wideo, więc to też było ciekawe.
a w międzyczasie też stały się kompletnie niedostępne
i po miesiącu w końcu udało się wywagać, że
adres accessibilitymapareddit.com
powstał, natomiast osoby, które na ten adres pisały
na razie jeszcze żadnej odpowiedzi
niestety nie zostały,
więc tutaj narzędzia moderacyjne też stają się niestety coraz
mniej dostępne, przez co
siostrzany subreddity
slash blind surveys, gdzie zainteresowani badacze mogli wrzucać ankiety, jeśli chcieli zapytać osoby niewidome o różne tematy.
Tam to było ściśle sprawdzane, czy też była chyba z tego co pamiętam prośba, żeby takie badania raczej były płatne.
No niestety ten subreddit przestał istnieć, został przedstawiony na prywatny, co generalnie spowodowało tyle, że do niego już nie ma dostępu.
no bo po prostu moderatorzy już nie mają jak nim niestety zaczątać.
Więc tutaj jak na razie są jakieś minimalne kroki do przodu,
ale równie tyle samo jak nie więcej niestety kroków w tył.
Mam nadzieję, że to się za jakiś czas zmieni.
Tutaj osoby te znów wracają do kwestii takiej,
że Reddit powinien po prostu mieć kogoś zatrudnionego na stałe,
który będzie się dostępnością zajmował.
Tak jak to było za czasach świetności Twittera,
No i tam faktycznie były tego efekty widziane, czy nawet powiedzmy, że w mecie też, chociaż tam to już zależy od konkretnych, niestety, usług tej firmy, no ale to już, no to są inne usługi, niestety, a no, jak widać z Relitem, niestety nie dzieje się najlepiej.
Powoli zbliżamy się do końca TyFlo aktualności, technikalia jeszcze przed nami i za moment do nich przejdziemy, ale ostatnia jeszcze informacja, a przynajmniej ta, która jest w naszych notatkach Piotrze, to też jest informacja od Ciebie, a dotyczy pewnego błędu voiceovera na Macu i tego jak można sobie z nim poradzić.
Tak jest, to jest coś, o co ja na pewno na to zwracałem uwagę, a jeszcze wcześniej na to Arek zwracał uwagę wiele razy, on miał ten problem wcześniej.
Mianowicie, w wszelkich sytuacjach, kiedy voiceover zmieniał wysokość syntezatora, np. czytanie dużych liter, kasowanie tekstu, czy jak ustawiliśmy sobie, żeby voiceover nam błędy pisowni czytał niższym tonem,
Jemu to przestało działać, mi to działało jakiś czas, ale ostatnio też mi przestało działać, zarówno na wersji stabilnej, jak i w tej wersji beta i przez przypadek odkryłem, jak ten problem można na ten moment obejść i wiem też od Arka, że u niego to też naprawiło ten problem, więc to na szczęście wydaje się działać.
To jest spowodowane, co ciekawe, formatem liczb, bo jeśli mamy ustawiony nasz
region w systemie na polskę, no to wykorzystujemy polski format liczb w systemie,
który używa spacji jako separatora liczb tysięcznych, ale tutaj chyba co jest
bardziej istotne, przecinka, który oddziela nam końcówki reszty w liczbach,
bo Stanach Zjednoczonych to jest kropka i na Windowsie już spotkałem się kilka razy, że niektóre aplikacje nie radziły sobie z tym.
No i ja tutaj kompletnie przez przypadek musiałem sobie ten format liczby, chciałem sobie zmienić, żeby mi angielskie syncetatory lepiej właśnie czytały duże liczby
i nagle okazało się, że wysokość mi zaczęła znów wdziałać na tej wersji beta.
No i właśnie wtedy skojarzyłem, że może to być od tego.
Więc jeśli nie przeszkadza wam to, że system wam będzie podawał duże liczby z kropką na końcu, a nie przecinkiem, a chcielibyście żeby jednak te zmiany wysokości wam działały, a przestały z jakiegoś powodu działać, no to możecie wejść sobie do ustawień systemowych, do sekcji ogólne, później język i region i tam jest taka lista rozwijana formatu liczb, z której musicie wybrać ten format amerykański powiedzmy,
który będzie zakończony właśnie kropką, tam jest podana przykładowa liczba w milionach, która ma w środku przecinek jako separator liczb tysięcznych i na końcu kończy się właśnie kropka 89.
Jeśli wybierzecie sobie ten format, no to przynajmniej u mnie, u Arka i też jeszcze u jednej osoby na Apple Visie, która korzysta z systemu po duńsku, gdzie też jest używany właśnie przecinek do takich dużych liczb,
To pomogło i wtedy VoiceOver znów zaczął zmieniać wysokość głosu, więc na razie w ten sposób ten problem możemy obejść.
No i też jeśli u was ten problem występuje, to powinniście napisać do Apple albo w aplikacji Feedback, jeśli korzystacie z wersji beta lub po prostu na adres Accessibility, jeśli nie.
No i zgłaszać ten błąd, żeby on już został tak jak trzeba poprawiony, żeby to po prostu działało niezależnie od tego jaki mamy w systemie format wybrany.
Jeśli to zostanie poprawione, to oczywiście damy wam znać.
I to tyle, jeżeli chodzi o Tyflo aktualności.
Chyba, że jeszcze ktoś z was chce coś dorzucić do tego działu.
No nie, ja już nic nie mam.
No dobrze, to przechodzimy w takim razie do technikaliów.
Tutaj kilka zaledwie informacji, ale myślę, że dosyć ciekawych.
Na dobry początek słów kilka o iPhone’ie 15 Pro,
który to ma być wyposażony w dodatkowy przycisk.
O tym co nieco Piotr.
Dokładnie, już wspominaliśmy o tym chyba Paweł jakiś czas temu mówił,
że pojawiły się przecieki, że iPhone 15 Pro,
tylko wersja Pro, nie ta wersja iPhone 15,
ma się pozbyć przełącznika, który nam pozwala ten telefon wyciszyć.
Co ma być zamiast niego?
Ma być po prostu duży przycisk.
Coś na kształt przycisku action, przycisku akcji, który pojawił się na zegarku Apple Watch Ultra.
No i ten przycisk, tak jak na zegarku, możemy sobie zaprogramować, który by nam otwierał różne aplikacje, może uruchamiał skróty, zatrzymywał treningi, odtwarzanie muzyki.
No i a propos wersji beta iOS 17, w tej czwartej wersji beta zaczął się pojawiać jakiś kod źródłowy, który zaczyna te informacje poniekąd potwierdzać,
bo już mamy jakieś informacje, co ten przycisk będzie mógł nam robić.
Na razie mamy tylko tego nazwę, więc nie wiemy dokładnie, jak to będzie wyglądało.
Natomiast co znaleźli programiści, którzy grzebali w kodzie w iOS-a 17?
Co możemy sobie do tego przycisku przypisać?
Dostępność, więc możemy sobie tutaj ustawić pewnie różne funkcje dostępności, w tym
voice overa.
Czy to miałoby zastąpić trzykrotne naciśnięcie przycisku zasilania?
Wątpię. Wydaje mi się, że to są dwie osobne rzeczy, natomiast będziemy mogli sobie to ustawić.
Skróty. Będziemy mogli sobie dowolny skrót ustawić.
Wyciszenie. No tak, jeśli nie mamy przełącznika do wyciszenia, to będzie pewnie
też dostępne w centrum sterowania, bo też coraz więcej osób idzących właściwie ma na
stałe telefon wyciszony, więc może też dlatego Apple się na coś takiego zdecydowało.
Natomiast jeśli ktoś będzie chciał mieć szybki do tego dostęp, no to będzie można
sobie ten przycisk sobie po prostu do tego skonfigurować.
Aparat będzie można sobie, właśnie aparat otworzyć łatwo.
Latarkę włączyć lub wyłączyć, włączyć któryś z trybów skupienia.
Otworzyć aplikację loopy, która jeśli też mogę przypomnieć dla nas też jest jak
najbardziej przydatna, bo to właśnie w aplikacji loopa znajdziemy wygrywanie
drzwi, wykrywanie ludzi, czy te nowe opcje czytania tekstu pod palcem, jeśli mamy 15 pro, tam akurat lidar jak najbardziej będzie dostępny.
Szybkie otworzenie aplikacji tłumacza i szybkie uruchomienie dyktafonu.
To są te funkcje, które będą oficjalnie dostępne.
Co się jeszcze pojawi zobaczymy, natomiast w Watchu programyści mają do tego przycisku dostęp,
co pewnie deweloperzy będą mogli jeszcze do swoich aplikacji dostosowywać.
Pewnie jakieś może push to talk w komunikatorach,
zatrzymywanie, rozpoczęcie odtwarzania w jakichś aplikacjach to jedno.
A druga rzecz jest taka, że wcale się nie zdziwię, gdyby ten przycisk też nie był
dostępny w ustawieniach voice overa, żebyśmy mogli sobie skonfigurować ten
przycisk na któryś z dostępnych gestów.
Może też będzie kilka wariantów na pojedyncze, podwójne, potrójne,
naciśnięcie tego przycisku.
Tego dokładnie nie wiemy.
Jak to będzie wszystko wyglądało oficjalnie, to się okaże jesienią,
kiedy te nowe iPhony już zostaną oficjalnie zapowiedziane
i trafią w ręce pierwszych osób, które ten sprzęt będą miały okazję przetestować.
Czas na kolejną informację, tym razem od Pawła,
a będzie dotyczyła dosyć ciekawego serwisu,
bo Shazama wszyscy znamy.
No ale Shazam to aplikacje mobilne przede wszystkim.
Gdzieś tam na stronie internetowej możemy się dostać do wyników,
ale żeby tak sobie odpalić z poziomu przeglądarki takie rozpoznawanie niczym w Shazamie,
no to przynajmniej za darmo tego nie dało się zrobić, ale to się zmienia.
Tak, a to za sprawą serwisu Ahamusic, który jest sobie pod adresem aha, przez samo ha, aha, myślnikmusic.com.
No i to jest właśnie taki serwis jak Shazam, tylko jest kilka istotnych różnic.
Po pierwsze możemy z niego, już tak jak Michał wspomniał, korzystać w przeglądarce.
I tam mamy taki typowy przycisk, nawet nie zaetykietowany niestety,
ale po jego naciśnięciu jesteśmy proszeni o udzielenie zgody na korzystanie z mikrofonu.
No i możemy wtedy tradycyjnie z naszego mikrofonu komputera puścić jakieś źródło muzyki,
nawet możemy zdaniem strony zanucić jakąś melodię.
No próbowałem już wszystko, od jakichś zapomnianych utworów z gatunku hensa,
które mi gdzieś czasem latają po głowie, bo kiedyś w czasach ten gatunek się cieszył
dużo większą ekspozycją w mediach
głównego nurtu, to jakieś melodie
mi pozostały w głowie, ale nie mam
pojęcia co to za wykonawcy
ani tytuły, więc zacząłem sobie nucić
i niestety nic z tego nie wyszło.
Po Stevie’ego Wondera
i I Just Hope To Say I Love You
nie, nic nie rozpoznał z mojego nucenia,
śpiewania i tak dalej. To jest swoją drogą bardzo ciekawe,
bo wiele aplikacji gdzieś tam
reklamuje się tym, że no rozpoznamy
utwór jak go zanucisz. Nigdy żadna
z tych aplikacji mi nie zadziałała jakoś poprawnie,
Bo ani SoundHound, który się tym szczycił, ani rozpoznawanie przez asystenta Google, no nie, po prostu to się nie działo.
Natomiast ja też sobie wyobrażam, że to można by bardzo fajnie zastosować po prostu używając stereo mixa lub mixera i puszczając coś z naszej karty dźwiękowej.
Jeżeli w jakimś programie, czy w jakiejś konferencji, czy gdzieś tam usłyszeliśmy jakąś muzyczkę, czy coś i chcielibyśmy ją zidentyfikować.
No ale, i tutaj bardzo fajna rzecz, możemy również załadować już nagrany wcześniej plik dźwiękowy i tutaj selekcja formatów jest dość duża i rozmach,
bo zarówno mp3 nam wejdą, jak i flaki, bo też testowałem,
więc nie wiem, czy tam jeszcze jakieś wawy ogg, m4a i tam przeróżne inne,
aac, aac chyba działa, ty Michał.
M4a, m4a na pewno zadziała, bo to właśnie testowałem,
no to jest właśnie aac, tam jest audio kodowane aac.
I tu od razu muszę powiedzieć, że jeżeli np. macie jakąś dłuższą audycję,
kilkugodzinną, bo limit wysyłanego pliku to jest 50 megabajtów.
Ty Pawle, też wspominałeś coś, że jest limit,
również jeżeli chodzi o ilość przesyłanych plików, zdaje się tam kilka.
Tak, 10 rozpoznań dziennie, tak słyszałem.
Jeszcze tego nie potwierdziłem nigdzie na stronie, ale no taki jest ponoć limit.
Natomiast ja mogę od razu powiedzieć, że spokojnie testowałem
rozpoznawanie na pliku przekonwertowanym do AAC, 48 kilobitów, dał radę.
Więc jeszcze myślę, że tym się pobawię i spróbuję mu dać takie naprawdę jakieś trudne zadanie,
może na przykład przekonwertuje coś do najniższej wartości, jaką mogę uzyskać w AACu
i zobaczymy co on wtedy powie na to, ale 48 kilobitów, no spokojnie sobie poradził,
który rozpoznał wszystko, co było w tej audycji, a ta audycja miała dwie godzinki mniej więcej i rzeczywiście zajęła prawie te pięćdziesiąt mega.
Ja na przykład testowałem na plikach, które były w ogóle nagraniami z telefonu.
Ktoś sobie zgrał jakieś tam akurat melodie z automatycznych systemów odpowiedzi z IVR-ów.
Zadzwonił gdzieś pod jakiś tam numer specjalny i się odezwała muzyczka na powitanie.
No i zostało to nagrane, co prawda w pliku FLAC, no ale to nic nie daje, bo i tak jest to zgrane z telefonu,
czy tam z jakiegoś VoIPa, więc jakość jest no taka telefoniczna 8 kHz.
No i taki plik również został rozpoznany prawidłowo, ta muzyczka została zidentyfikowana.
Swoją drogą, tam gdzie Shazam, to też a propos nagrań różnych właśnie dziwnych melodyjek, centralek itd.,
tam gdzie Shazam strzelił coś na głupa, po prostu jakiś rzucił tytuł czegoś bardzo podobnego,
no to tam AHA Music się przyznało od razu, że nie, sorry, ja to nic nie rozpoznaję.
Więc tyle dobrze, że przynajmniej są uczciwi.
No i co, jak rozpoznamy sobie taki utworek, powiedzmy taki plik audio,
no to otrzymamy ładną tabelkę z wszystkimi rozpoznanymi w ramach tego pliku utworami,
z oznaczeniami na jakiej długości pliku, czyli od której minuty, sekundy,
sekundy, do której minuty, sekundę dany utwór występuje w pliku.
Powiem szczerze, że tu właśnie zacząłem żałować, że NVIDIA nie ma możliwości
zaznaczania kolumnowego. To znaczy, że na przykład jak mam tę tabelkę, że nie mogę
sobie zaznaczyć, dajmy na to, dwóch kolumn z tej tabeli albo trzech i tylko
tego sobie gdzieś wykopiować, bo tam jeszcze w jednej kolumnie opisanej bodajże
jako Action, jest taki link przy każdym rekordzie, opisany jako chyba More albo View More,
gdzie po prostu otwiera nam stronę z jakimiś bardziej szczegółowymi informacjami
dotyczącymi tego nagrania, typu jakiś tam rok wydania, chociaż ten rok wydania
to zdaje się nawet chyba jest tutaj, ale na przykład…
Tak, tytuł albumu to jest rzecz, której nie mamy w tej takiej standardowej tabelce, więc to nam otwiera, no tylko jeżeli sobie to gdzieś skopiujemy, no to na przykład do notatnika, no to nie mamy już tego, tylko mamy te wszystkie kolumny, więc szkoda.
I to jest ciekawe, bo na stronie tej opcji nie znalazłem, znalazłem ją w dodatku do przeglądarek i o dodatku do przeglądarek za chwilkę powiem, czyli eksport do CSV.
O, i to by było super.
No ale właśnie w dodatku ten link jest, on jest niestety nieopisany, a w przeglądarce on, ja go nie widziałem.
Ciekawe, czy na przykład nie można czegoś, wiesz, w tym linku powiedzmy dopisać, żeby w pasku adresu jakiegoś parametru, żeby to się zapisało do CSV.
No to jest dobre pytanie, bo niestety link w dodatku powoduje po prostu automatycznie pobranie, więc nawet nie jesteśmy w stanie zaintropować.
A z dodatku nie da się skopiować, jak rozumiem, prawym i…
Nie próbowałem jeszcze.
Aha.
Trzeba by zobaczyć.
Ciekawe, ciekawe.
Natomiast dodatek.
Wspominamy o tym, że jest dodatek.
Dodatek jest jedynie do Chroma i Edge’a,
czyli do chromiastych przeglądarek,
do Lisca nie ma, do Firefoxa.
Dodatek, który pozwala nam na kolejną fajną rzecz,
czyli rozpoznaje nam utwory
w aktualnie w danej karcie odtwarzanym audio.
Ja to przetestowałem krótko przed audycją.
Zawsze zanim wejdziemy na antenę, Michał włącza jakąś taką muzyczkę wprowadzającą nas niekoniecznie w klimat audycji, ale jakkolwiek w to, że za chwilkę będziemy z wami.
I ja puściłem sobie w Chrome nasz stream radiowy, no i udałem się na pasek, tam gdzie są moje różne podpinane dodatki, otwarłem Aha Music, no i rozpoczęło się automatycznie rozpoznawanie.
No i po chwilce otrzymałem ładnie wykonawcę i tytuł utworu.
Ponoć nawet się zgadzał.
Także tutaj jest taka możliwość,
więc gdybyście np. odtwarzali sobie jakąś transmisję
czy jakikolwiek materiał z występującą muzyką
gdzieś w przeglądarce,
no to również tu możecie sobie szybko
za pomocą dodatku rozpoznać co to.
Cały ten serwis jest wspierany przez taką usługę jak ACR Cloud i tutaj ty Michale chyba wiesz więcej o co w tym chodzi, bo to jest całe rozbudowane jakieś takie rozwiązanie dla stacji radiowych.
Tak, przede wszystkim dla stacji radiowych, przynajmniej ja to znam ze stacji radiowej, konkretnie z radia Caroline.
Oczywiście w dzisiejszych czasach większość stacji radiowych gra z komputera i te wszystkie utwory w takim przypadku są opisane i nie ma jakiegoś większego problemu, żeby wyświetlać informacje o nich w streamie czy np. żeby na podstawie takiej playlisty sporządzić jakieś raporty dla organizacji zbiorowego zarządzania i się potem z nimi rozliczać z emitowanych utworów.
Bo stacje są do tego zobligowane w większym lub mniejszym stopniu, jeżeli chodzi o kwestie formalne.
Bo różne te raporty w różnych krajach są wymagane.
Czasem wystarczy w niektórych przypadkach tylko właśnie na przykład tytuł i wykonawca utworu,
który został wyemitowany, a już te organizacje sobie wszystko tam popodpinają.
W Polsce to tak nie działa, bo w Polsce to trzeba całe raporty skomplikowane pisać.
wszystkich tam kompozytorów, autorów i tak dalej wymieniać, ale do rzeczy.
Otóż w Radiu Caroline, którego dość często słucham,
no sytuacja wygląda tak, że tam prezenterzy jeszcze czasem grają
z różnych nośników, grają z płyt, czy kompaktowych, czy nawet winyli czasem.
No i siłą rzeczy informacja o takich nagraniach
nie jest wysyłana w żaden sposób na serwer, a przynajmniej nie była wysyłana.
Bo od kilku lat właśnie Radio Caroline współpracuje z ACR Cloudem
i to jest usługa oczywiście płatna i ten serwis 24 godziny na dobę
przez 7 dni w tygodniu monitoruje stream tego radia,
sprawdza co tam jest odtwarzane w danym momencie,
No i jak rozpozna, no to wrzuca te informacje na zarówno stronę internetową, jak i do odtwarzaczy,
które są gdzieś tam podpięte i z których możemy słuchać,
typu jakiś Winamp, Fubar, albo jakakolwiek inna aplikacja,
to są te tak zwane metadane wysyłane w strumieniu.
Więc to w ten sposób działa i ja już to kilka lat temu widziałem,
rzeczywiście sprawdza się całkiem fajnie.
Można tam nawet wysłać jakąś informację zwrotną,
że jeżeli piosenka została nieprawidłowo rozpoznana
i ktoś na to zwrócił uwagę, to można też zgłosić to twórcom.
Więc fajnie, że znalazła się jakaś darmowa implementacja tego narzędzia.
Ja jestem tylko ciekaw, na ile taki ACR Cloud,
skoro on chyba się koncentruje raczej na tym amerykańskim rynku,
chociaż nie wiem, może nie, na ile on sobie będzie radził z egzotyką,
bo Shazam, no to potrafił czasem rozpoznać rzeczy tak nietuzinkowe,
ja już nie mówię tu o muzyce polskiej, bo oczywiście też,
ale jak ktoś sobie lubił posłuchać z jakiegoś bardzo odległego kraju,
włącznie z jakimiś byłymi republikami radzieckimi,
jakieś Kyrgizstany, Tadżykistany i to jakaś klasyka jeszcze w ogóle
z tamtych krajów, bo nawet nie utwory grane teraz radiowo,
tylko jakiś albo folk bardzo niszowy, albo jakieś rzeczy właśnie klasyczne i tak dalej, takie dawne.
No to Shazam potrafił sobie z tym dobrze poradzić.
Teraz pytanie, czy ACL Cloud ma też taką, aż tak dużą bazę tych utworów, żeby bezpłętnie je rozpoznać.
No bo ja na razie trafiałem w same jakieś, no może nie, że amerykańskie, ale no rzeczy, które mogłyby gdzieś tam w Stanach.
Powiem ci od razu, ma, bo ja sprawdzałem to na jakiejś swojej archiwalnej audycji,
którą prowadziłem, tam było coś polskiego, też rozpoznał bez problemu,
ale też było kilka na przykład rosyjskich utworów i też sobie z tym poradził.
Okej, no to super, to trzeba się tylko cieszyć, że mamy dostęp do takiego serwisu.
Tam jeszcze był jakiś bot na Twitterze, ale no Twitter teraz to już tak nie bardzo,
by kogoś interesował prawdopodobnie, no i tak to wygląda, więc AHA Music, gdybyście potrzebowali w jakiś inny sposób niż telefonem rozpoznać sobie jakieś utwory, no to jest to bardzo fajny serwis.
Tak jest. Teraz mamy komentarz od Agi.
Chciałem bardzo podziękować za polecajkę tej aplikacji do rozpakowywania i dzielenia plików.
Ta aplikacja keka spełnia moje oczekiwania, bo już sobie ją przetestowałam.
Także Piotrze, poleciłeś dobrą aplikację.
No i teraz, cóż, twój temat.
Paweł wspomniał, że na Twitterze to tak już nie mamy za bardzo czego szukać.
a niedługo to będzie można mówić, na jakim Twitterze, bo już Twittera nie ma.
No właśnie, jakoś ostatnio nam fajnie przejścia wychodzą między tymi tematami, no bo to właśnie nagle,
dokładnie to było w poniedziałek, właściwie już przez weekend, Elon Musk ogłosił chyba w niedzielę to jakoś było,
W sumie to Twittera nie będzie i on sobie zrobi rebranding, to teraz będzie X czy X, nie wiem dokładnie jak to będzie czytane, no zapuszczmy, że X, no bo jesteśmy w Polsce.
Co ciekawe, to jest coś, co Elon Musk już próbował robić dwadzieścia parę lat temu, to był jego pierwszy startup i to miało być coś, co się zaczęło od banku, to była właśnie domena x.com.
nie mylić z grą x-kom, ani z polskim sklepem x-kom, które to tam inaczej się pisze i inne strony.
I to miało być na początku bank, ale to też miała być właśnie taka usługa do wszystkiego, to też miał być taki sklep à la Amazon
i wiele innych rzeczy. Coś, co udało się m.in. zrobić w Chinach w aplikacji WeChat, która generalnie to jest komunikator,
Ale to jest też właśnie aplikacja, której możemy płatności dokonywać, ona ma sama w sobie różne aplikacje, łącznie ze sklepem Apple, co ciekawe, Apple na takie rzeczy nie pozwala, to w Chinach to nie tylko, że pozwolili, to jeszcze mają swoją aplikację wewnątrz tej aplikacji, więc to tam do tego stopnia jest popularna rzecz.
No i właśnie ta pierwsza inkarnacja tego serwisu x-kom ostatecznie połączyła się z czymś, co my znamy do dziś, czyli serwisem Paypal.
Właśnie dzięki temu, że pozwalała wysyłać pieniądze użytkownikom po adresach e-mail.
Później Elon Musk z tej firmy został wyrzucony, ale 20 lat później, jak widać, chciałby kiedyś do tej idei wrócić.
Marzenia z młodości trzeba realizować.
Dokładnie, no i właśnie stwierdził, że Twitter może być właśnie fajną wyskocznią do czegoś takiego. Czemu?
Nie wiem, ale właśnie już logo stare Twittera, czyli to był taki właśnie ptaszek, został pomału zastępowany taką półgrubioną właśnie matematycznym symbolem litery X.
X, co ciekawe, kiedy to logo było ściągane z siedziby firmy w San Francisco, nie zostało to dokończone do końca, bo okazało się, że firma nie miała pozwolenia na dźwig.
Tam w połowie to logo zostało, nie wiem, czy już dokończyli rozbiórkę, czy nie.
Czyli co, trochę ptaszka, trochę X-a.
No chyba tak. Tak to wygląda.
Wymowne.
wymówne, tak. Mniej więcej adres x.com już ma na stronę Twittera przekierowywać, ale stopniowo ta zmiana też będzie zmieniana.
Już na przykład oficjalne konto Twitter, mapa Twitter, które kiedyś wysyłało nam aktualizację, co się dzieje ze stroną, zostało zamknięte.
Jeśli wejdziemy na profil ten, no to będziemy mieli komunikację, żeby teraz obserwować konto X, po prostu literka X.
I co tutaj powiedziała właśnie, co, jak to będzie wszystko wyglądało, do czego ta platforma będzie służyła.
Szef firmy Twitter, czy właściwie teraz X’a, powiedział, powiedziała właśnie, to jest jakaś pani,
że X reprezentuje przeszłość nieskończonej interaktywności na dźwięk, wideo, wiadomości i płatności,
Tworząc globalny rynek na pomysły, no takie bardzo tutaj ambitne słowa.
Cokolwiek to znaczy.
Cokolwiek to znaczy. Generalnie z tego co czytałem, idea jest taka, żeby właśnie zrobić coś w rodzaju WeChata, czyli takiej super aplikacji do wszystkiego.
Czy to się uda? Nie wiem. Zobaczymy. Mniej więcej nie zdziwcie się, kiedy jeśli nagle wasza ikona aplikacji Twittera w App Store czy Google Play,
Jeśli jeszcze aplikację macie zainstalowaną, nagle zmieni nazwę na x czy właśnie jakieś inne strony, gdzie jakieś posty, które do końca właśnie też nie wiemy jak się będą nazywały, czy to będą cały czas tweety, czy posty, czy x, czy coś innego, jak to się będzie nazywało.
Najwięcej kto wie, czy w przyszłości w Tyflop przeglądach nie będziemy mieli kącika z archiwum x.
Ja się boję o trochę inną rzecz, że np. przykładowo w jedną stronę jakiejś firmy i oni będą mieli swoje konto właśnie w serwisie X
no i nieumiejętnie podpiszą sobie ikonkę, opisem alternatywnym link grafika X.
Ja nie będę wiedział czy tym się zamyka jakiś pop-up, czy tym się wchodzi na ich konto X.
No nie jesteś jedyną osobą, która to zauważyła. Już też właśnie takie komentarze widziałem.
Ja też gdzieś widziałem, że na przykład to dosyć ciekawie będzie wyglądało we Francji, bo u nich właśnie jedną literą X określa się produkcję porno.
A nie trzema? A czekaj, to znaczy było trzy.
No właśnie, ale wiesz, to w Francji jedno.
Ale wiecie co, w ogóle nawet dwadzieścia parę lat temu, kiedy, bo właśnie ta Platforma X, Maska i właśnie Paypal, którego stworzyła inna osoba, obie wymyśliły właśnie to samo, wysyłanie pieniędzy po adresach e-mail, no jak te firmy się połączymy, to Mask bardzo właśnie naciskał, żeby to, żeby ta nazwa właśnie została X, a nie Paypal, mimo to, że wszyscy wokół już dwadzieścia lat temu mówili mu, że to jest bardzo zły pomysł i tam jakieś badania były robione i niestety już terytorycznie
to było źle kojarzone, no dziś teraz są właśnie takie komentarze, że ta nazwa jest taka sobie, ładnie mówiąc.
Na pewno trzeba przyznać, domena jest krótka i jednoliterowe domeny to jest rzadkość.
Ciekawe, czy ona była w posiadaniu Ilona cały czas, czy musiał za nią zapłacić, no inna rzecz, że go stać, ale…
Ja już widziałem pomysły, żeby w momencie, kiedy Twitter wygaśnie, zaczalić się na domenę, kupić ją i postawić tam instancję Mastodona.
Bardzo dobry pomysł.
Tak, też mi się podoba.
Czemu nie?
No i słuchajcie, takim to właśnie x-em, jakąś klamrą spięliśmy ten nasz dzisiejszy Tyflo Przegląd.
Tradycyjnie pytanie, czy jeszcze coś tam na koniec, jakieś informacje do was dotarły?
Mi nic nie wpadło.
No to okej, to kończymy nasze dzisiejsze spotkanie.
Kolejny Tyflo Przegląd już za tydzień, a tymczasem za uwagę dziękuję Piotr Machacz, Paweł Masarczyk i mówiący te słowa Michał Dziwisz.
Do usłyszenia za tydzień.

Wszystkie nagrania publikowane w serwisie www.tyflopodcast.net są dostępne na licencji CreativeCommons - Uznanie autorstwa 3.0 Polska.
Oznacza to, iż nagrania te można publikować bądź rozpowszechniać w całości lub we fragmentach na dowolnym nośniku oraz tworzyć na jego podstawie utwory Zależne, pod jedynym warunkiem podania autora oraz wyraźnego oznaczenia sposobu i zakresu modyfikacji.
Przekaż nam swoje 1,5% podatku 1,5 procent Logo FIRR Logo PFRON Logo Tyfloswiat.pl

Czym jest Tyflopodcast?

Tyflopodcast to zbiór instrukcji oraz poradników dla niewidomych lub słabowidzących użytkowników komputerów o zróżnicowanej wiedzy technicznej.

Prezentowane na tej stronie pomoce dźwiękowe wyjaśniają zarówno podstawowe problemy, jak metody ułatwienia sobie pracy poprzez korzystanie z dobrodziejstw nowoczesnych technologii. Oprócz tego, Tyflopodcast prezentuje nowinki ze świata tyfloinformatyki w formie dźwiękowych prezentacji nowoczesnych urządzeń i programów. Wiele z nich dopiero znajduje sobie miejsce na polskim rynku.

Zapraszamy do słuchania przygotowywanych przez nas audycji i życzymy dobrego odbioru!

Tematyka

Pozycjonowanie i optymalizacja stron internetowych