TyfloPrzegląd Odcinek nr 260 (wersja tekstowa)

Pobierz napisy w formacie SRT
Pobierz napisy w formacie VTT
Fundacja Instytut Rozwoju Regionalnego prezentuje Tyflo Podcast.
Dzień dobry, dzień dobry. Ja nazywam się Tom Gwilewski. Wtorek mamy dzisiaj 26 listopada, 20.04, więc jak na nas to nawet dość wcześniej wystartowaliśmy.
Zgadza się.
Piotrek Machacz, Paweł Masarczyk, no i oczywiście ja. Dzisiaj będziemy w Tyflo Przeglądzie brać udział i oczywiście, jeżeli będziecie chcieli, to drodzy słuchacze na żywo, przynajmniej wy również, no i zaczynamy oczywiście od tego, o czym dzisiaj będziemy mówić, o czym z kolei powie Michał.
W tym tygodniu w Tyflo Przeglądzie.
No a czad, przetestuj jak działałby Biped w swoim Whatsappie.
Nowości dostępnościowe w najnowszej becie iOS 18.
Jeśli działa Ci mobilna wersja strony Facebooka, to prawdopodobnie już niedługo.
Startupy zaprezentowane podczas pierwszej edycji gali Envision.
Document Formatting Rotor – łatwa konfiguracja tego, co ma czytać NVIDIA w dokumentach.
Nowości z konferencji SideWorlds.
News Explorer na iPhonie i Fantastical na Windowsie otrzymują poprawki dostępności.
Nowości w monitorze Mantis Q40.
WhatsApp wdraża transkrypcję wiadomości głosowych.
Wszystko to, a pewnie jeszcze więcej już za chwilę.
Zaczynamy!
Tyflo Przegląd jest audycją prowadzoną na żywo,
więc serdecznie zachęcamy Państwa do współtworzenia go razem z nami.
Oczekujemy na wiadomości głosowe na Whatsappie
oraz połączenia telefoniczne pod numerem 663 883 600.
Powtarzam, 663 883 600.
Oraz zapraszamy Państwa do wyrażenia komentarzy w formie tekstowej
poprzez formularz na stronie kontakt.tyflopodcast.net
lub z poziomu aplikacji stworzonej na system Windows przez Dawida Piepera.
Odczytujemy również Państwa wypowiedzi zamieszczone pod transmisjami na Facebooku i YouTubie.
Staramy się też zaglądać na nasz Tyflo podcastowy serwer Discorda.
Noa Chat? Co to jest?
To ja i to mój niós.
Noa Chat, czym jest Noa Chat?
Pewnie kojarzycie, że nieraz mówiliśmy w ramach Tyflo przeglądu o takim urządzeniach Biped.
Czyli szwajcarski wynalazek, który nosimy sobie na szyi, ma mnóstwo czujników, kamer i można za jego pomocą gdzieś tam lokalizować przeszkody, wyznaczać sobie trasę.
Tam jest oczywiście jakaś sztuczna inteligencja, głośniki, system nas o wszystkim informuje, o odległości od pewnych przeszkód, o zakrętach i też nam jest w stanie pewne rzeczy o tej naszej trasie opowiedzieć.
i właśnie ta część, w której on opowiada o tych różnych rzeczach została zamieniona w takiego bota, którego można wywołać na Whatsappie.
Będzie podlinkowany artykuł w komentarzu, w którym będziecie mogli sobie kliknąć w odpowiedni link i przeniesie on was do waszego Whatsappa, gdzie połączycie się z botem.
I teraz bot zada wam dwa pytania, będzie można na nie odpowiedzieć i potem już zacząć z nim współpracę.
I co on robi? On odbiera od nas zdjęcia lub filmiki, my możemy tam sobie nakręcić filmik, zrobić zdjęcie, wysłać to mu i on nam może odpowiedzieć na jedno z wielu pytań.
W czym on się specjalizuje? No w różnych rzeczach, które nam się przydarzą na ulicy, czyli powinien rozpoznawać numery pojazdów komunikacji miejskiej, powinien być w stanie opisać jak skonstruowane jest skrzyżowanie,
czy jak wygląda, gdzie jest przejście, czy światło jest czerwone, czy zielone,
jak to wszystko wygląda po drodze, nie wiem, czy tam takie szczegóły,
jak nie wiem, wysepki, pod jakim kątem trzeba przejść i tak dalej.
Natomiast tego typu informacje. No i ogólny opis sceny również.
Co po prostu się znajduje, przy uwzględnieniu oczywiście rzeczy,
które są jakoś tam istotne w orientacji w przestrzeni,
więc to nie będzie taki typowy opis, że malowniczy krajobraz
rozciąga się nad wyżynami miasta, tylko bardziej będzie zwracał uwagę na rzeczy, które mogą nam pomóc w samodzielnym poruszaniu się.
No i teraz tak, bot jest darmowy do trzech wypróbowań w tygodniu, do trzech różnych materiałów, które można zeskanować i można zadać mu do dziesięciu pytań.
Można sobie wykupić subskrypcję tego za 11 dolarów, czyli przypuszczam, że gdzieś około 55-60 zł.
Będzie to kosztowało miesięcznie, więc nie mało.
I wtedy mamy ten dostęp nieograniczony.
Ja tego jeszcze nie testowałem, zamierzam przetestować i podzielę się wtedy na pewno też wrażeniami.
Po prostu dowiedziałem się o tym w niedzielę i od tamtego czasu jeszcze nie miałem okazji na dłużej po prostu wyjść sobie z domu i chociażby przejść się na przystanek i to przetestować.
Dlatego też nie wiem czy działa to w języku polskim. Ale do czego bym tego nie używał? Na pewno bym tego nie używał do przechodzenia przez ulicę albo do czekania na autobus,
bo on, no zanim my zrobimy ten filmik, zanim my go prześlemy, zanim on nam odpowie,
no to ten autobus zdąży odjechać, światło się zdąży zmienić i tak dalej.
Natomiast to też chyba nie do tego trochę jest. To jest bardziej taka pokazówka,
żebyśmy mogli się przekonać na ile efektywne jest to, co jest w samym urządzeniu.
Że gdy już kupimy, czy zdecydujemy się na zakup pełnego urządzenia,
to będziemy wiedzieli do czego zdolne jest to AI, które jest tam na pokładzie tego czata.
Także no tu myślę, że można się pobawić, potestować i sobie wyrobić pewną opinię, nawet jeżeli nie interesuje nas sprzęt, to jak daleko już tego typu technologia się posunęła.
Także polecam przetestować, jeżeli będziecie mieli jakieś własne doświadczenia, to się z nimi, to się nimi z nami podzielcie.
IOS 18.2 nas ciąga, może już nas ciągną, nawet nie wiem szczerze mówiąc, ale nowości dostępnościowe ta wersja posiada. Piotrze, jakie?
Tak, nadciągną dla patatesterów. Oficjalnie ma się pojawić niedługo, w sumie w grudniu, teraz nie pamiętam czy na początku czy pod koniec, natomiast zbliżamy się pomału do tej oficjalnej premiery.
I ogólnie iOS 18.2 to jest dalsze implementowanie funkcji związanymi z Apple Intelligence w tym systemie ze sztuczną inteligencją w różnych jej odcieniach.
Tym razem taka funkcja może mniej przydatna nam, bo w tej wersji pojawiła się taka aplikacja jak Image Playground, która pozwala na tworzenie różnych gamotek, ale też różnych grafik.
No w sumie może to się czasami osobom niewidomym przydać.
To jest jakkolwiek dostępne z tego co wiem, ale ja nie o tym chciałem tutaj rozmawiać,
bo Apple nas troszeczkę zaskoczyło, oczywiście pozytywnie na szczęście tym razem,
bo generalnie w tych mniejszych aktualizacjach iOSa, tych .1, .2,
no to nie dostajemy takich dużych zmian związanych z dostępnością, jeśli chodzi o
czytniki ekranu. Mamy jakieś poprawki z reguły, ale nowe funkcje no to generalnie
raczej jest domena wersji takich nowych, dużych, tak 18, 19 i tak dalej.
Natomiast tutaj Apple nas troszkę zaskoczyło, dodając w ostatniej wersji
beta, która pojawiła się w zeszłym tygodniu, dwie takie ciekawe nowości, które
myślę, że mogą jak najbardziej wiele osób ucieszyć.
Pierwsza dotyczy tego, jak konfigurujemy nowe zwagodzenie dźwięku, bo jeśli
pamiętacie nasze podcasty, artykuły, które pojawiały się kiedy iOS 18 się
pojawił, Apple dodało nam więcej opcji, które pozwalają nam zarządzać, jak to
zwagodzanie dźwięku działa.
Możemy teraz sobie skonfigurować, żeby to zwagodzanie było aktywne zawsze, czyli
kiedykolwiek VoiceOver jest włączony to pozostały dźwięk jest ciszony lub tylko
kiedy VoiceOver mówi, czyli tak jak to było wcześniej.
Ale drugą taką bardziej istotną nowością
jest to, że dla samego zmagadzania dźwięku pojawił się suwak głośności, który
pozwalał nam zdecydować jak bardzo inne dźwięki były ściszane względem mowy
voiceovera. I to zostało rozwiązane tak, że tak naprawdę mieliśmy jeden suwak
głośności, który normalnie dochodził do 100%, to była głośność po prostu
voiceovera. I jeśli mieliśmy zmagadzanie dźwięków włączone, no to ten suwak
mogliśmy jeszcze zwiększać powyżej 100% aż do 199.
I to powodowało tyle, że o ile procent zwiększyliśmy ten słówak, to o tyle
procent pozostały dźwięk w systemie się ściszał.
Więc jeśli słówak był ustawiony, nie wiem, na 150%, no to o połowę pozostały
dźwięk był ściszany, kiedy voiceover coś mówił.
175% no to trzy czwarte, a przy 199% no to praktycznie oprócz voiceovera nic nie
było słychać. Natomiast wiele osób uważało, że to było bardzo mało intuicyjne.
Wiele osób, mimo to, że gdzieś te informacje były w sieci, to nie rozumiało, jak to działa.
Bo kiedy też to złagodzenie wyłączaliśmy, to ten cuwak po prostu nagle wracał do poziomu
100%. To ustawienie się zapisywało, także nic nie było w takiej sytuacji tracone.
Natomiast to mogło działać mało intuicyjnie.
Ludzie o tym pisali na przykład na portalu Apple News, ale nie tylko.
Więc w najnowszej becie iOS 18.2
Apple postanowiło to w bardzo logiczny sposób uprościć
i teraz po prostu mamy dwa suwaki.
Mamy suwak głośności, tak jak dotychczas,
który teraz kontroluje wyłącznie głośność samego voiceovera
i tutaj też uwaga, kiedy tę wersję beta sobie zainstalujecie,
ten suwak głośności się Wam zresetuje do poziomu 80%,
także gdyby Wam mowa nagle stała się głośniejsza albo cichsza
od tego, co mieliście ustawione wcześniej, no to nie bójcie się.
Prawdopodobnie to się stało właśnie z tego powodu.
Wystarczy sobie wejść do tego słowaka głośności, czy to na pokrętle, czy w szybkich
ustawieniach, czy w ustawieniach voiceovera, bo ten słowak sobie można dodać gdzie chcecie tak
naprawdę i zresetować go do tego poziomu, który chcecie.
Natomiast nowością jest drugi słowak, który został dodany i jest to słowak
ilość złagodzenia dźwięku.
Gdzie go znajdziemy?
Znajdziemy go znów w trzech miejscach tak naprawdę.
Znajdziemy go w samych ustawieniach złagodzenia dźwięku,
które są w ustawieniach voiceovera w sekcji dźwięki i haptyka.
I on się pojawi tylko wtedy, kiedy to złagodzenie mamy włączone,
czyli mamy je ustawione albo na tryb zawsze lub kiedy voiceover mówi
i wtedy pod spodem tych ustawień znajdziemy ten słówak.
Możemy go też sobie dodać do pokrętła. On domyślnie na pokrętle nie jest, ale po prostu w ustawieniach pokrętła możemy sobie go zaznaczyć, no i wtedy z pokrętła będziemy mogli sobie tą ilością kontrolować.
No i możemy go też dodać do ekranu szybkich ustawień, gdzie on domyślnie chyba jest włączony. No ale też gdyby ktoś tego nie chciał, albo na pokrętle, albo na szybkich ustawieniach, no to możemy sobie to skonfigurować.
Działa to bardzo logicznie, ten suwak akurat działa od 1% do 99%, no i tak jak poprzednio, o ile ten suwak ustawimy, to o tyle pozostały dźwięk względem voice overa zostanie ściszony.
Także gdybyśmy sobie ustawili tą ilość złagodzenia na, nie wiem, 50%, no to wtedy kiedy voice over mówi lub zawsze kiedy voice over jest włączony, zależnie od tego jak sobie to złagodzenie skonfigurowaliśmy, pozostałe dźwięki o tyle zostaną ściszone.
Także dzięki tej zmianie wydaje mi się, że to będzie działało bardziej logicznie na pewno.
Już nie będzie takiej komplikacji, że trzeba wiedzieć jak te słuchawki działają.
To wcześniej było też logiczne, ale ktoś nie wiedział czego się spodziewać,
no to teraz to jest bardziej przejrzyście, no bo wiemy czy regulujemy samą głośnością mowy,
czy głośnością pozostałych dźwięków.
Po prostu sobie możemy ten drugi słuchawki do złagodzenia dodać jako osobną,
dedykowaną opcję.
To jest pierwsza nowość, a druga nowość dotyczy Brailla i to jest ciekawa
zmiana, która w sumie byłaby moim zdaniem jeszcze bardziej przydatna na Macu,
natomiast ona na ten moment na Macu się nie znalazła.
Jest dostępna wyłącznie na iPhonie, a jest to związane z wprowadzaniem Brailla,
czy to poleceń, czy to akordów, czy po prostu znaków braillowskich z poziomu
klawiatury gwerdy.
Możemy sobie to ustawienie włączyć w sekcji wprowadzania brailla i kiedy je włączymy, jeśli mamy podłączoną do telefonu klawiaturę QWERTY, czy to na bluetooth czy na usb, jeśli mamy np. ipada z podłączoną klawiaturą, no to możemy wprowadzać braillowskie akordy, braillowskie polecenia z voice overa takim standardowym systemem, którym możemy znać jak z reguły wpisuje się brailla z takiej klasycznej klawiatury komputerowej.
czyli naciskamy spację, a następnie możemy wprowadzać punkty, gdzie F, D, S, A to jest punkt 1, 2, 3, 7, a J, K, L, średnik to jest punkt 4, 5, 6 i 8.
No i do czego nam się to może przydać? No może nam się to przydać w sytuacji, kiedy chcemy wykonać jakieś polecenie voice overa.
Może nauczyliśmy się pracować z voice-overem wyłącznie z poziomu linijki
playlowskiej. Mamy wszystkie akordy wykute na pamięć, wiemy co jest do czego, jakim
akordem przejść w odpowiednie miejsce, które akurat nas interesuje, no ale z
jakiegoś powodu pracujemy z klawiaturą QWERTY, po prostu chcemy więcej tekstu
napisać, piszemy szybciej niż w takiej tradycyjnej klawiaturze, no ale nie znamy
poleceń voice-overa, albo gdzieś nie chcemy tych palców przesuwać, chcemy je
pozostawić w takiej konfiguracji jakbyśmy pisali, no to można być
wygodniejsze, gdybyśmy chcieli jakieś polecenie voice-overa wykonać.
Nie musimy palców przesuwać, tylko naciskamy, trzymamy spację i wykonujemy
te polecenia voice-overa po prostu tak, jakbyśmy je wykonywali na linii
timeplayer’owskiej.
No i jest jeszcze jedno polecenie.
Ja teraz nie przypomnę sobie jaki to jest akord, które pozwoli nam również
wpisywać dowolne znaki player’owskie.
Także jak byśmy chcieli coś wpisać w braillu, może jakiś diakrytyk z innego języka, może właśnie jakiś braill-unicode, no bo VoiceOver też ma taką tablicę braillowską,
no to możemy też wpisać odpowiedni akord, aby wejść w tryb wprowadzania brailla z klawiatury, no i wtedy już nie trzymając facy i tymi punktami, literami F, D, S, A, J, K, L, średnik możemy dowolne znaki braillowskie w jakimkolwiek polu tekstowym wprowadzać.
Także to jest taka druga nowość, na ten moment to jest dostępne wyłącznie na Iphonie, podobnie zresztą jak zmiany w złagodzaniu dźwięku, może kiedyś to na Maca też zabita, byłoby fajnie szczerze mówiąc, ale na ten moment jeśli korzystacie z Iphone’a, czy Ipad’a zresztą, kiedy otrzymacie iOS’a 18.2, no to będzie można z tych opcji korzystać.
Skoro już rozmawiamy o iOSie, to pojawiła się też taka jedna drobna poprawka, która mnie osobiście bardzo ucieszyła, to nie było w tej becie najnowszej, tylko jeszcze chyba jedną albo dwie wersje do tyłu, a mianowicie problem, który był w wersji 18.0 oraz 18.1, problem, który pokazywaliśmy w podcaście, to Arek konkretnie pokazywał, a mianowicie w aplikacji telefon, gdzie została dodana bardzo fajna nowość, a mianowicie wyszukiwanie T9,
gdzie możemy wpisywać na zakładce klawiatury używając cyfr po prostu pierwsze kilka liter kontaktu, który nas interesuje metodą T9 i potem stuknąć w kontakt, który nas interesuje.
Te wyniki wyszukiwania były niezatykietowane, a więc nie wiedzieliśmy na 100% w jaki kontakt stukamy do momentu, kiedy tego nie zrobiliśmy, co skutkowało tym, że wtedy jego numer telefonu się tam wyświetlał.
No teraz na szczęście ten problem też już został naprawiony i VoiceOver, kiedy położymy palec w odpowiednim miejscu, już nam te wyniki wyszukiwania będzie od razu automatycznie czytał.
Piszecie do nas, mamy wiadomość od Łukasza, tutaj Blind Cell nam się będzie przewijał.
Cześć, witajcie. Czas na wstępną, świeżutką recenzję Blind Seller Classic 3.
Telefon wygląda w 100% tak, tak samo jak jego poprzednik.
Bateria jest taka sama, więc można podmieniać.
Jakość dźwięku też fajna, słuchawał własnej roboty, przyjemnie cieszy ucho.
Sprzęt ma kolor granatowy, a pod maską dużo się zmieniło.
Wydajniejszy procesor, więcej RAMu i więcej pamięci na dane.
Netflix, Prime Video i Storytel działa bez najmniejszych problemów.
O programy do nawigacji Sync Assistant Move i DotWalker też działają, ale nie testowałem ich w terenie.
Automaty paczkowe też możemy otwierać, ponieważ appka Odnim Postu działa, a teraz trochę minusów.
Cache Reader nie działa, a ICO działa w ograniczonym trybie.
Jest problem z wysłaniem kodu identyfikującego urządzenie mobilne.
Jest druga wiadomość kończąca.
A na koniec najlepsza wspaniałość.
Na sprzęcie możemy pracować przy całkowicie zgaszonym ekranie,
więc nikt nam z boku nie będzie zaglądał na telefon.
Sprzedawca był pod wrażeniem.
powiedział, że jestem pierwszym klientem, który tak sprawnie obsługuje telefon, przyznał, że on sam nie umie tyle, co ja, a na pożegnanie dali w prezencie firmowy kubek z kruszkami na powrotną drogę.
Jak macie jakieś pytania, to dawajcie śmiało, chętnie odpowiem. Pozdrawiam.
Tutaj, zdaje się, Paweł też coś…
Tak, to znaczy ja szerzej o moich doświadczeniach krótkich, bo krótkich z Blind Shellem, ale jakichś opowiem w piątek, bo konferencja INSPO, która odbyła się w miniony weekend w Pradze, miała tam jako jednego z wystawców Blind Shella i tam spędziłem chyba najwięcej czasu ze wszystkich wystawców, nawet mam pewne nagrania poczynione.
Jestem świadkiem.
Tomek jest świadkiem, bo udało nam się uruchomić Team Talka na przykład i na Team Talku nawet jakieś nagrania porobić, także mamy też nagrane, jak brzmi mikrofon tego urządzenia w trochę mniej kontrolowanym trybie niż ma to miejsce w przypadku takiego wbudowanego dyktafonu.
Trochę się bawiłem X-Clean Readerem, trochę znajomy się bawił tym asystentem Luna, bo byłem tam z drugim niewidomym znajomym i no, spodobało mi się, znaczy jakby, tak, ja powiem więcej, mówię, myślę, że żeby nie zaspamować już tak powiem audycji wątkiem za bardzo, to rozwlekę się na temat w piątek demonstrując też nagrania i opowiem trochę więcej,
ale w dużym skrócie myślę, że to jest urządzenie, z którego ludzie, którzy byli zadowoleni z dwójki, mogą być również zadowoleni, bo dostaliście wreszcie aplikacje i trochę rzeczy dodanych.
Nie wiem jak działał Smart Vision 3 dla porównania, ale ten Blind Shell oczywiście ma swoje błędy, o których powiem, ale muszę przyznać, że mimo tych błędów wydaje mi się, że dużo będziecie mogli z tego telefonu wyciągnąć.
No na pewno fajne jest to, że w końcu działają na nim też chyba zewnętrzne aplikacje, nie wiem czy wszystkie, ale to przynajmniej jakieś…
Tak, tylko, znaczy nie wiem czy da się zainstalować APK, ale to co z tej Aurora da się ściągnąć to tak.
Jak widać tu po słowach Łukasza, który do nas się odezwał, no jest problem z aktywacją na przykład aplikacji ICO.
No i to już potwierdza, że będą z tym albo mogą być z tym kłopoty w kwestii właśnie takich aplikacji bankowych, bo jeżeli SMS z kodem aktywacyjnym nie przechodzi, to tak naprawdę ta aplikacja jest w zasadzie w ogóle bezużyteczna.
No to prawda. Pytanie jak z innymi bankami.
Pytanie właśnie jak z innymi bankami, a myślę mi Tomku, że można by też od razu wyemitować może tę wiadomość od Michała, którą mamy, żeby ten wątek jakby nam tu się spiął.
Dobrze, jeszcze tylko…
Dobrze, w takim razie posłuchajmy co mówi na ten temat Michał.
Dobry wieczór, chciałem powiedzieć, że mam przyjemność dzięki firmie Lumen Michał Kijewski testować telefon BlindTrell 3.0.
Będzie o nim na pewno w połowie grudnia podcast, kiedy to Darek Marciniszyn będzie na temat telefonu się wypowiadał nieco szerzej, nieco głębiej niż ja.
Moje teraz tylko wstępne uwagi po dosłownie kilku godzinach używania telefonu.
Takie moje, moje, moje, to nie znaczy, że one, one teraz na dzień dzisiejszy, na te pierwsze kilka godzin są takie, a potem oczywiście mogą być inne.
Telefon jest właściwie taki sam, ja nie odróżniam, nie odróżniłbym dwójki od trójki.
Mikrofon, głośnik mniej więcej taki sam.
No głośnik jest rzeczywiście bardzo
głośny, taki bardzo, bardzo i ten
telefon to jest taki rzeczywiście
telefon dla seniora w rozumieniu
takim, że ma
jeden z tyłu,
że nie zupełnie na tylnej ściance,
ale, ale na tym
boku, gdzie jest port USB, czyli
za klawiaturą, za zerem, tak z tyłu
ma głośnik, głośnik, który jest
taki, no taki
z epoki niesmartfonowej, o tak to
ładnie ujmijmy.
Jest wyraźny, jest
czysty, ale to są wysokie tony.
To jest bardzo, no takie, no
jesteśmy do czego my, smartfonowcy
jesteśmy przyzwyczajeni do czegoś
innego.
Obsługa taka jak była i
naprawdę to pisanie, tworzenie
wiadomości, SMS, w ogóle
nawigacja z czałkami OK,
anuluj.
To jest owszem coś jak Dolphin Guide,
coś jak Klango.
Mi to się bardzo podoba i
coś się stało, że wylogowałem się z
Whatsappa, o czym później, więc musiałem
się logować na iPhonie, wpisywanie
klawiatury i to na pewno przyspieszyło.
Rzeczywiście pisanie tych wiadomości
przyspieszyło,
dyktowanie też jest bardzo szybkie
i to jest, to są na pewno plusy tego
telefonu. Ja się ciągle, o ile nie mam
problemu z obsługą iPhona, to się obsługuje
bardzo lekko, bardzo płynnie i pewnie
nowych Androidów raczej podobnie,
to choć BlindShell ogólnie
rzeczywiście przyspieszył, no to ta synteza Google jest jaka jest i
to jest taki gdzieś tam, być może mankament, ale pisanie przy pomocy klawiatury
tej
T9, klawiatury numerycznej, no dla mnie to jest rewelacja.
To znaczy, to jest coś takiego, czego
no mnie używanie iPhone’a, kiedy na przykład jak potem się logowałem na
WhatsAppie, musiałem coś, musiałem przejść tam z jednego pola na drugie wpisać,
pojawiła się klawiatura, musiałem wpisać co trzeba, nacisnąć OK, znaleźć to.
Mnie to dekoncentruje. Ja to oczywiście umiem, ja to robię, ale nie jest tak, że się
nie mylę i to po kilkunastu latach używania iPhona, jakby dla mnie to jest,
mnie to męczy, ja to oczywiście zrobię i nawet pewnie czasem szybko to zrobię
całkiem, ale ja, no mnie to
naprawdę mnie to męczy i nie dam sobie
powiedzieć, to znaczy w sensie takim, że
jakby rozumiem, że kogoś to nie męczy, ale
dla mnie to jest jakiś problem.
Oczywiście nie taki, żeby teraz
rezygnować z iPhona i przechodzić na
Blanchella, absolutnie nie, no niestety to
jednak jest za mało, ale dla mnie to
jakiś jest problem, także jestem sobie w
stanie wyobrazić, że
jest pewna grupa ludzi, która
tego nie czuje, zupełnie nie czuje
technologia, nawet jak czuje, to czuje tyle, ile musi, nie chce w ogóle się tego
nowych rzeczy uczyć albo jakoś jest to dla niej, nawet jakby mogła, no to jakoś tam
jest tak, że nie chce i rzeczywiście dla nich ten Blind Shell jest rozwiązaniem bardzo
dobrym, przy czym no pewnie im bardziej chcemy używać tych aplikacji
zaawansowanych, tym jednak jest problem.
To jest tak, że oni bardzo chcą tego Blind Shella
jakby doprowadzić do takiego momentu takiego, do jakiego ja bym chciał i w sumie
za to jestem im, czyli twórcom
Blanchella, wdzięczny, tak, bo
że gdzieś tam im się chce,
że coś, coś, coś, coś wymyślają na
nowo albo nie na nowo, że
modyfikują swój, swoje urządzenie.
Ale no szkoda, że idzie
to w taką stronę, a nie inną, tak?
To znaczy, że
nie ma, chociaż może po prostu oni
wiedzą, że takich osób, power userów,
którzy by przeszli na Blanchella,
przeszli albo znaleźli dla niego
jakieś zastosowanie, bo pewnie nie
przeszli całkowicie.
No nie jest dużo, ale ja uważam, że mimo wszystko szkoda, że nawet ten BlindShield 3, zostawiliby BlindShield 2, byłby BlindShield 3, który byłby jeszcze droższy, ale na przykład miałby rzeczywiście głośniki stereo, miałby więcej, o wiele pamięci, miałby szybszy procesor, miałby coś tam jeszcze, coś tam jeszcze, lepszy mikrofon, to chyba mówiłem, czytnik linii papilarnych i może wtedy jako taki audiobook player, plus ten nieco bezpieczniejszy Android, bo tutaj przypomnę jest Android
Android 10.0, o czym pewnie będzie w audycji albo będzie w piątkowej audycji.
Mam nadzieję, że za dużo nie, no trudno mówić, żebym zdradzał, bo to w
technologiach to tak jest, że po prostu informacje, informacje krążą i na to, na to
nie ma siły.
I gdyby to był taki Blancher, to ja pewnie byłbym, nie wiem czy pierwszy, ale bym
myślał, czy nawet go kiedyś nie kupić jako takie urządzenie dodatkowe z
pewnymi funkcjami, bo ono,
ta klawiatura, naprawdę logowanie się
przy pomocy takiej klawiatury to jest
przyjemność, bez łączenia dodatkowej
klawiatury po bluetooth, bez jakichś
klawiatur brailowskich, które, do
których ja się dotykowych i nie tylko
przekonać powiedzmy średnio mogę.
No ale to też temat na kiedy
indziej być może.
Co mi się na pewno w Blind Shellu
podoba? Podoba mi się,
jest tak na szybko niezły Spotify,
jest niezły YouTube, chociaż to już YouTube był, jest niezłe radio, ale radio
internetowe też już było, czytnik dokumentów całkiem okej i tych, i
odtwarzacz audio.
Zaskoczył mnie, aha, lista zadań i notatki bardzo przydatna, spróbujemy
sobie coś tak zupełnie na szybko.
No niestety te powiadomienia są też takie, synteza i powiadomienia to jest chyba
jedno i to samo, czyli nie można
głośności, ale może się mylę,
samej syntezy, chociaż tu jeszcze to
sprawdzę.
O, to jest WhatsApp.
No nie, ten głośnik jest, tak jest.
Utwórz notatkę.
Dodaj notatkę.
Lista notatek. Dodaj notatkę.
No dobrze, będziemy się przygotowywać do
kolejnego wydania Tyflo Przeglądu.
Kropka. Nawet może do nich
zadzwonię i wyemitują
w audycji moją wypowiedź.
No dobrze, będziemy się przygotowywać do kolejnego wydania tytułu przeglądu.
Nawet może do nich zadzwonię, gdyby emituję w audycji moją wypowiedź.
Tu zrobiłem błąd, bo to dyktowanie nasłuchuje tak trochę jak w klawiaturze Google.
Gdybym nacisnął przycisk, to by było szybciej.
No dobrze, teraz postaram się już ewidentnie szybciej mówić.
Kropka.
Szkoda, że ten głos asystenta Luna,
który zresztą średnio mi działa i wywoływania dyktowania,
jest taki bardzo głośny przecinek, bardzo, bardzo niedyskretny, kropka.
To naprawdę jest denerwujące, kropka.
No dobrze, teraz postaram się już ewidentnie szybciej mówić.
Szkoda, że ten głos asystenta Luna, który zresztą średnio działa
i wywoływania dyktowania jest taki bardzo głośny.
Bardzo, bardzo niedyskretny, to naprawdę jest denerwujące.
Notatka zapisana, dodaj notatkę.
No i mam zapisane.
Lista notatek. No dobrze, będziemy się przygotowywać.
httppress.p. No dobrze, będziemy się przygotowywać.
Edytuj. Udostępnij notatkę.
Użyj informacji w tekście. Usuń.
Wyczyść wszystko, edytuj. Wyczyść wszystko, usuń.
Wyczyść wszystko to usuwa wszystkie notatki.
Nie jak myślałem, że usuwa treść z notatki.
Użyj informację w tekście. Brak pozycji.
Brak pozycji?
To on tu parsuje.
Edytuj, wyczyść wszystko, usuń.
Użyj informacji dostępnej i notatkę.
Użyj w aplikacji wiadomości. Użyj w aplikacji e-mail.
Użyj w aplikacji Telegram. Użyj w aplikacji translator.
Użyj w aplikacji WhatsApp. Użyj w aplikacji wiadomości.
Użyj w aplikacji e-mail.
Wczytywanie. Odbiorcy.
Temat. Tekst. Temat.
Odbiorcy. Dodaj odbiorcę.
Dodaj odbiorcę.
Wybierz z kontaktów. Wpisz adres.
Wybierz z kontaktów. Wpisz adres.
No i tak to się obsługuje.
Adres e-mail.
Mniej więcej.
Mógłbym teraz pisać na przykład.
M. I. A. C. G.
K. K. L.
Spacja.
x, y, z, w, h, i, x, y, z, spacja, dziwisz, adres e-mail, Michał Dziwisz.
No akurat tu tak sobie tylko wpisałem, byle wpisać coś, tak?
Dobrze, nie będę zakłócał, to tylko była taka mini demonstracja.
Jeszcze może na koniec, no jak ktoś, aha, to musiałbym wyjść.
Tak powinna u nas działać Siri, no na razie nie działa,
ale gdyby się chciało pisać na jakiś tam SMS określony numer
przy pomocy właśnie dyktowania, to też oczywiście jest możliwe.
Napisz SMS na numer 514-285-380.
Tekst.
No okej, tutaj będę coś pisał i zaraz możemy wysłać wiadomość.
Pewnie powinna zaraz dojść, kropka.
No okej, tutaj będę coś pisał, zaraz możemy wysłać wiadomość, pewnie powinna zaraz dojść.
Wysłać wiadomość. Zapisz jako wersję roboczą.
Wiadomość została zapisana jako wersja robocza.
No, tak że ewidentnie jest tak, że on pewne rzeczy umie
robić bardzo dobrze, szybko, a pewne rzeczy nie.
Natomiast są też podcasty, ale to może o
podcastach to kiedyś pewnie mogę zrobić osobny materiał,
bo aplikacja podcasty w Blind Shellu wygląda bardzo…
A, no dobrze, niech już będzie.
Podcasty.
Najnowsze odcinki, zasubskrybowane podcasty.
Ja już tu robiłem wcześniej coś w podcastach.
Przepraszam za jakieś hałasy ze ściany.
O.
Gratka 382, które momenty będziesz wspominał do końca życia.
Jak dożyć 100 lat Mateusz Kuszniewicz.
Przemyk. Głodówka, skuteczna dieta czy trend żywieniowy?
Nauka to lubię. 17 października 2024 roku.
Wczytywania.
Nie ma naukowych dowodów, czy jednoznacznych dowodów na to,
że ODD przerywany jest skutecznym środkiem prewencyjnym i chroniącym…
Przyspieszamy. 7-9.
…słabienie rozsiane, problemy sercowo-naczyniowe, czy nawet demencja.
Odczuwanie głodu jest czymś zupełnie normalnym.
Organizm domaga się w ten sposób niezbędnych do życia…
Głośność 7.
Czasem jednak człowiek wybiera głód, żeby…
Szczegóły. Pobierz odcinek.
Usuń z historii.
Prędkość odtwarzania, szczegóły, pobierz odcinek, zatrzymaj.
Głodówka, skuteczna dieta, wczytywania.
Żeby uzyskać konkretny cel, czasem jest to cel religii.
Co minutę?
Organizmie w naszym ciele czynowym.
Tekście braku dostępności jedzenia, założeń wyznawanej religii
czy chęci utrzymania zdrowia albo chęci wrzucenia kilogramów.
Takie próby poprawy kondycji zdrowotnej przez post wcale nie są nowe.
Można przeczytać o nich już w tekstach za czasów Hipokratesa,
który zalecał wstrzemięźliwość od pokarmów w przypadku zróżnych ostrych chorób.
Było to już na przełomie jakiegoś 1957.
I tak dalej, i tak dalej.
Także takie pierwsze wrażenia.
Telefon nieoczywisty, może się komuś do czegoś przydać,
no a ciąg dalszy testów nastąpi.
Przeglądarkę jeszcze sprawdzałem, no ale muszę tutaj powiedzieć, że…
że chyba dobrze nie jest.
O, tak powiedzmy, ale to jestem bardzo na razie ostrożny.
Dziękuję.
No rzeczywiście, to co szybko chodzi, to faktycznie szybko chodzi.
To znaczy, ja bym w ogóle chciał, żeby była możliwość zainstalowania
przynajmniej części ekosystemu z Blind Shella na dowolnym telefonie,
bo mając powiedzmy coś takiego na jakimś tam innym telefonie,
Niechby to było tam ileś płatne, mając coś takiego na jakimś dowolnym telefonie, czy gdyby to było w formie powiedzmy jakiegoś lunchera nawet na telefon albo aplikacji, którą można by sobie uruchomić.
I gdyby tam rzeczywiście można było sobie jakimś gestem odpalać załóżmy tego asystenta do szybkiego pisania wiadomości, no bo pewnie dałoby się to zrobić.
No ciekawe by to mogło być, no także…
No czymś takim miał być chyba projekt Voxmate, który niestety jakoś ostatnio o nim słuch ucił.
No tak, to z Blind Shella, no to już jest jakby gotowe, to już jest, działa.
Wiesz co, z jednej strony jest gotowe, z drugiej strony pytanie ile tam pod maską jest modyfikacji,
które mogłyby potencjalnie być problematyczne do przeportowania na jakiś inny system.
Oczywiście, że tak, ale z tego co wiem to chyba, nie wiem w końcu jak to, czy w jakiejkolwiek formie to działało, czy na osobnym urządzeniu, czy nie.
Tak, to była aplikacja na dowolnego Androida, jakby to można było zainstalować, to było środowisko self-voicingowe, ja to nawet testowałem jakiś czas.
gdzie po prostu palcem góra, dół, przesunięcia to była poprzednia, następna pozycja, w prawo się rozwijało, w lewo się zwijało, tak jakby okej, właśnie cancel, okej, wróć.
I to szło, a tam nawet jakiś telegram, nie wiem czy był, był chyba nawet, ostatecznie, ale nigdy go nie odpaliłem.
Działał, ale ciekawe co by powiedział producent na takie coś.
Znaczy, wiecie w ogóle, że Blind Shell zaczynał jako aplikacja?
W sensie to był jakiś rok 2014, 2015, ale oni zaczynali od tego, że byli takim luncherem trochę na Androida z własnymi aplikacjami.
Ja to kiedyś nawet instalowałem na Galaxy S4 jeszcze, ale cały telefon się zawiesił i taki był koniec mojej historii z tym sprzętem, z tym oprogramowaniem akurat.
No ciekawe, czy co by teraz powiedzieli na takie coś, no ale no to jakby jest kwestia, pewnie niekoniecznie, żebyśmy tutaj o tym sobie tylko tak sami dla siebie.
Natomiast mamy jeszcze wiadomość od użytkownika exterminator. Wiadomość dotycząca poprzedniego tyflu przeglądu.
Piotrze, tydzień temu chodziło mi o gry wideo dostępne dla nas, takie jak Hades 2, Doom Heretic, Mortal Kombat 1, The Last of Us, Parts 2 i Stardew Valley, które jest połączeniem symulatora farmy i z grą akcji.
Trochę tego powstaje, ale to i tak za mało gier, o których mówiłeś w poprzednim Tyflo Przeglądzie, nie nazwałbym grami akcji, tylko strzelankami wieloosobowymi.
Z tym się nie mogę nie zgodzić. Na pewno byłoby fajnie, gdyby tego typu gier było więcej. Swoją drogą Stardew Valley to też raczej nie jest gra akcji.
Ale nie, zgadzam się z tobą w stu procentach, sam bym chciał, żeby takich gier było więcej, nie tylko my zresztą, ludzie, obserwując wątki, które pojawiają się w momencie, kiedy jakaś nowa gra, zwłaszcza taka gra akcji pierwszoosobowa, gdziekolwiek by się pojawiała, to dużo niewidomych osób chce więcej takich gier.
Natomiast z reguły dostępność do takich tytułów, no to sprowadza się bardziej do dostępności dla osób słabowidzących, ewentualnie innych niepełnosprawności, czyli jeśli jest jakieś udźwiękowienie, no to jest tylko udźwiękowienie, nie mamy jakichś dodatkowych funkcji nawigacyjnych.
Sam bym chciał, żeby to się zmieniło. Czy to się będzie zmieniać? No trudno mi powiedzieć, miejmy nadzieję.
A no inną kwestią gdzieś są
deweloperzy gier audio, którzy no też gdzieś pracują nad swoimi rzeczami.
Czy będzie więcej takich gier akcji będziemy musieli zobaczyć.
No ci twórcy od Marvel Realm coś zapowiadają, taką typową strzelankę,
ale taką chyba jednoosobową z tego co zrozumiałem,
bo tam nie było mowy o takich komponentach multiplayerowych.
Jest nawet tego odwiazd tune audio, już można to kupić za pośrednictwem Paypala,
na tą platformę, no nie jest jakoś bardzo droga, mogę potwierdzić, że tam nowa metoda działa, chociaż zajęło im to kilka tygodni, żeby wysłać mi odpowiednie dane, ale sam proces po dokonaniu płatności trwał kilka minut akurat, więc to wszystko działa tak jak powinno, także jeśli będzie się tego typu gier pojawiać więcej, no to na pewno będę was o tym informował.
A tymczasem mamy jeszcze jedno pytanie i to też wygląda na to, Piotrze, że do Ciebie.
To jest pytanie od słuchacza.
Witajcie. Chciałem zapytać, czy można zmienić skróty do rozpoznawania ekranu dla aplikacji VOCR na Macu.
Chodzi o te dwa skróty typu CTRL, CMD, SHIFT, W oraz CMD, CTRL, SHIFT i V.
może by dało za pomocą automatora jakoś albo jakiegoś skryptu.
Moja koleżanka ma duży problem z ruchomością palców dłoni
i bardzo chciałbym jej móc jakoś pomóc.
Dlatego pytam was, bo macie ogromne doświadczenie.
Jeśli się da, to prosiłbym o jakąś instrukcję
lub na kierowanie mnie jak to zrobić.
Pozdrawiam serdecznie i życzę wszystkiego dobrego.
A można i na szczęście nawet nie trzeba do tego automatora,
po prostu funkcja jest wbudowana w samego VOCR-a i już tłumaczę jak to się robi.
Musisz znaleźć ikonę VOCR w tej sekcji menu statusu, czyli to jest ta sekcja, do
której dochodzisz naciskając CTRL-OPTION-M dwa razy szybko czy gapstokem i szukasz wtedy ikony
VOCR, naciskasz na nią, rozwija się menu, w tym menu szukasz podmenu settings, czyli
ustawienia i w tym podmenu wybierasz opcję Shortcuts, czyli skróty
klawiszowe, które wyświetli się okienko z tabelą i w tej tabelce są te skróty,
o które pytasz.
Nawet pierwszym skrótem, który jest wyświetlony jest OCR Window.
Databanka jest podzielona na dwie kolumny.
W pierwszej mamy nazwy skrótów, czyli nazwy poleceń, a z prawej
strony mamy przyciski.
Przycisk będzie wyświetlał bieżący ustawiony skrót.
Wystarczy na któryś z tych przycisków nacisnąć.
Ja sobie na przykład ustawiłem się na skrócie OCR Window.
Naciskam na nim Wospacja.
Nie słyszę żadnego komunikatu.
Natomiast wtedy po prostu mogę nacisnąć jakiś nowy skrót.
Ja nawet nacisnę na próbę samo CTRL W, no bo skróty z kontrolem sama w sobie na maku raczej nie są używane.
I skrót mi się od razu zmienił.
Też nie usłyszałem komunikatu, że ta zmiana została wprowadzona.
Natomiast teraz nacisnąłem kontrol W jeszcze raz, czyli ten nowy skrót, który sobie
ustawiłem i on działa.
Także można to po prostu z poziomu samego VOCRa sobie dostosować.
No to w takim razie Facebook.
Facebook, który wyłącza swoją mobilną stronę, już ją PonyCon wyłączył, a teraz
wyłącza tylko że bardziej?
A przynajmniej wyłącza kolejnej porcji
użytkowników, bo wygląda na to, że
te wyłączenia mbasic albo
mfacebook.com to są takie wyłączenia falowe,
bo część użytkowników
z tego co wiem, to już nie ma
dostępnej tej strony. Ja na przykład jeszcze ją
dostępną mam, ale
No, kiedy ostatnio udało mi się tam zajrzeć, to przywitał mnie taki komunikat informujący o tym, że będę ją miał tylko do 3 grudnia.
To już miało być w październiku wyłączone i to teoretycznie wszyscy mieli mieć wyłączone te funkcje, zresztą nawet przez chyba jakieś dwa dni to faktycznie ta strona mobilna u mnie nie działała.
Potem jakoś wróciła i na razie jeszcze jest.
Jest to kolejna informacja ze strony Facebooka, że ta strona zostanie wyłączona.
Natomiast pytanie czy faktycznie zostanie.
Podejrzewam, że prędzej czy później tak.
Szczególnie, że ta strona pozwala już na coraz mniej.
Gdzieś tam jeżeli chcemy przejrzeć sobie jeszcze jakieś posty, komentarze
To można, natomiast no nie nadaje się ona już do takiego pełnego korzystania z Facebooka i do dłuższego czasu, więc po prostu przyjdzie nam się z nią powoli żegnać.
Z tego co wiem u osób, które już zostały pozbawione dostępu do tej strony, to nawet wpisanie albo m.facebook.com albo mbasic.facebook.com
powoduje automatyczne przekierowanie na tego tak zwanego dużego Facebooka.
Nie ma już żadnego komunikatu, że nie znaleziono tej strony,
tylko po prostu wyświetla nam się taka standardowa strona Facebooka,
więc zobaczymy jak to na początku grudnia u mnie będzie wyglądało.
Czy również to nastąpi i czy rzeczywiście już teraz to będzie ten ostatni moment,
ostateczny, żeby się ze stroną Facebooka pożegnać.
Czy jeszcze jednak na jakiś czas on znowu przesunął te wyłączenie?
Co rzeczywiście to się okaże.
Tymczasem Envision,
odbyła się pierwsza edycja gali Envision i tam zostały zaprezentowane
między innymi startupy.
Paweł śledzi temat.
Pawle, co żeś wyśledził?
Tak, więc Envision postanowiło po raz pierwszy zorganizować takie wydarzenie,
w czasie którego przedstawione zostaną z całej puli zgłaszających się do nich start-upów 11 start-upów, które ich zdaniem najbardziej idą w stronę jakichś innowacji dla osób z niepełnosprawnościami.
Ja samej transmisji wydarzenia nie oglądałem, można było się zarejestrować, to tam było jakoś początkiem miesiąca, nie pamiętam teraz czy to było 11 listopada, ale już minęło.
No i jest już opublikowana jakby lista innowacji, które w ramach tego zostały nagrodzone, czy po prostu wyróżnione, że postanowiono o nich wspomnieć w osobnym artykule, no i myślę, że warto nad przynajmniej niektórymi z nich się pochylić.
I co my tu mamy?
SpeakSee, Conversations Made Accessible.
I to jest startup, który stworzył narzędzie CaptionCast,
narzędzie stworzone dla osób głuchych, niedosłyszących
i osób, które w danym języku nie mówią,
jako w swoim języku ojczystym,
czyli powiedzmy się uczą albo gdzieś tam mówią
na trochę gorszym poziomie.
I to jest technologia, która transkrybuje i tłumaczy mowę do ponad 40 języków, co pozwala na prowadzenie rozmów albo na naszych własnych urządzeniach,
albo na wyświetlaczach dostarczanych w miejscach różnych wydarzeń.
Spixy też zapewnia bezproblemową integrację w szkołach, w kościołach, co ciekawe to też wymienione zostały, i w miejscach prowadzenia różnego rodzaju wydarzeń na całym świecie.
No i tu jest filmik na YouTubie, więc nie wiem czy to jest jakaś aplikacja, którą można sobie ściągnąć, czy to musi dostarczyć tego typu technologie dane miejsce, w którym przechodzimy na jakieś wydarzenie, ale coś takiego stworzyli, można sobie filmik obejrzeć.
Sensotec, Hearing Your Surroundings. Sensotec to jest firma z Belgii, oni między innymi byli współodpowiedzialni do spółki z NFB, zresztą, za aplikację KNFB Reader.
A w międzyczasie zajmują się przeróżnymi innymi produktami, głównie właśnie na rynek belgijski, niderlandzki i tym razem mają urządzenie Nira, o którym ja już też mówiłem, ono się już zdążyło pojawić na Sight City na przykład, na różnych innych też targach, czyli swego rodzaju okulary, które nasze otoczenie tłumaczą, w jakiś sposób przedstawiają w formie dźwięku 3D.
I to jest chyba urządzenie, które się wywodzi w ogóle z Hiszpanii, ale jakoś zostało celem dystrybucji na dalsze rynki podjęte przez Sensoteca w Belgii, także bardzo jestem ciekaw co tu dalej się wydarzy.
Rozpoznaje obrazy, kształty, informuje o odległości do tych urządzeń i ma też pilot, który pozwala na komfortowe sterowanie urządzeniem.
No i oczywiście są też, jest też filmik na YouTubie, jak to sobie brzmi.
OORION, wykrywanie obiektów precyzyjnie, to jest francuski startup, o tym ja już kiedyś
czytałem, ale nie testowałem jeszcze.
Zdaje się, że to jest aplikacja w ogóle na smartfona.
Aplikacja wspomagana przez sztuczną inteligencję, która pomaga osobom niewidowym i
słabo widzącym lokalizowanie i identyfikowanie obiektów.
Używając kamer aparatów czy też kamer w smartfonie, aplikacja przesyła użytkownikom piknięcia oraz opisy, takie jak na przykład czerwona butelka, co zapewnia dokładność i niezależność, więc dużo takiego marketingowego bla, bla, no ale też jest filmik.
Smart AIs i to jest aplikacja wykrywająca przeszkody, która używa telefonu wystawionego np. w takich szelkach, jak my tu nieraz prezentowaliśmy, żeby kamera była wystawiona do przodu i słuchawki z przewodzeniem kostnym i aplikacja będzie nam podawała wskazówki
dźwiękowe, żebyśmy mogli bezpiecznie podróżować z pewnością siebie.
Tu już wideo nie ma na przykład.
Touchpulse to jest aplikacja, która łączy w sobie znowu sztuczną inteligencję
i dane, które można pozyskać na temat otaczającego nas świata,
żeby dać nam interaktywne głosowe wskazówki w nawigacji.
Mamy sobie to wyobrazić jako bardziej inteligentne mapy Google, które są w stanie odpowiedzieć nam na pytania typu, gdzie jestem i co muszę zrobić dalej, żeby gdzieś dotrzeć.
Ponoć jest to świetne rozwiązanie na skomplikowane budynki takie jak dworce kolejowe.
Na ten moment, w tym roku odbywają się testy w mieście Eindhoven w Holandii, no ale w przyszłym roku ma być już pełne wydanie tej aplikacji, także zobaczymy do czego to będzie zdolne.
Biped to o tym urządzeniu już mówiliśmy dzisiaj.
Resolve Medical to jest urządzenie,
które nazywa się RISE i to jest orteza zakładana na kostkę i stopę,
które pomaga w nawigowaniu osobom o ograniczonej mobilności.
Sir Passport to jest rozwiązanie, gdzie po prostu mapowane są dostępne różne trasy i ścieżki i atrakcje. To już takich rozwiązań, gdzie były takie zbiory punktów dostępnych
głównie dla osób z niepełnosprawnością ruchową. To trochę już takich inicjatyw było.
I WISP to jest znowu rozwiązanie, które tłumaczy czy wzmacnia mowę szeptaną, czyli jeżeli ktoś gdzieś tam szepcze w nagraniach albo ktoś mówi do nas szeptem, jest to podbijane tak, żeby można było taką mowę bez problemu zrozumieć.
Lighthouse Tech stworzył TAMI i TAMI to jest urządzenie noszone na oczach, taka opaska na oczy, która wykrywa przeszkody na wysokości głowy, tam gdzie laska nie dociera.
Mamy sensory, które wyposażone jest w urządzenie, czujniki różne i na wysokości twarzy otrzymujemy wibracje, które pomagają nam wyminąć różne przeszkody i rusza to w przyszłym roku i w tym roku już jest przedsprzedaż.
I na koniec Ally, czyli nowy asystent, który już jest dostępny w ogóle, żeby było ciekawie, na okularach Envision Glasses.
Jest to osobisty asystent AI, który też jest dostępny oprócz oczywiście okularów Envision Glasses na smartfonach z Androidem i iPhonem.
Jest to asystent, którego sterujemy za pomocą komend głosowych i jest nam w stanie pomóc zawsze i o każdym czasie. Pomaga nam w nawigacji, w czynnościach dnia codziennego i o uzyskiwaniu informacji, dostępu do różnego rodzaju informacji.
Wszystko to robimy za pomocą intuicyjnych komend głosowych.
Mamy wiele głosów i osobowości.
To nie jest na skalę to samo co Envision Assistant, ale brzmi bardzo podobnie.
Także no nie wiem, do końca czy…
On mi się z tym kojarzy.
Tak, ale to jest jakaś inna osoba, która w ogóle to przedstawia.
To jest niby że osobny startup.
Także no nie wiem.
Chyba, że coś zmienili w ostatniej chwili nazwę i się nie przyznają.
No to może chodzić o to samo. Trzeba będzie poszukać tej aplikacji w App Store i przetestować.
Ewentualnie, bo to jest coś takiego, co wydaje się taką rzeczą, która chyba wielu osobom się kojarzy.
Powiedzmy, no może niewidomymi, ale w ogóle jakby różnymi osobami, że zrobić asystenta na sztucznej inteligencji,
który po prostu odpowiada na pytania, jeszcze można wybrać sobie głos, no to jest jakby, mam wrażenie, taki pomysł, który chyba mógłby wielu osobom wpaść do głowy, mam takie wrażenie.
Na pewno. Tak, to tak jak jest teraz multum narzędzi do robienia wszystkiego AI, typu czytanie tekstów, rozpoznawanie, opisywanie zdjęć.
No właśnie o to chodzi, ja nie wiem co to jest.
Takie wszystko i nic. No i to tyle na ten moment, jeżeli chodzi o wydarzenie właśnie Envision.
Mamy wiadomość i w zasadzie jedną chyba tylko wiadomość od Sylwestra.
Niestety chłopczy, słuchajcie, ja próbowałem wszystkich metod, żeby wrzucić cyfloporkast do Oriona Plus.
Niestety się skończyło tą porażką. Znalazłem instrukcji, na dole instrukcji jest taki link do pobierania strumieni tych radiowych i podcastów, bo jest.
Nie mogłem się ani zalogować, ani zarejestrować.
Problem z tym zarejestrowaniem, ale chyba jest ta strona już do kitu.
Prawdopodobnie nic już nie mogłem zrobić.
Prawdopodobnie oprogramowanie już jest nieważne.
Ten folder czy podcast o Orionie Plus jest tak jakby uszkodzony.
Jeszcze co gorsze, jest zmieniony produktem tego urządzenia.
Kiedyś to był WinVision Technology, a teraz to jest
AWS International Limited.
Zmieniony jest producent i to już prawdopodobnie po wszystkim.
Mam do Was pytanie, czy jest jakiś odtworzec, nawet w książkach mówionych, niekoniecznie na systemach Android.
Bo tam może być przyglądarka i tam mogą podcasty działać w takim urządzeniu.
Bo ja niestety zawiedziony jestem tym urządzeniem, które mam i już się poddałem po prostu.
Także, a co do SZDSR-a? No pobrałem, tylko jednej rzeczy brakuje.
Wsparcie dla monitorów, takich jak POKUS czy innych.
To tylko tyle chciałem powiedzieć.
Niby dobry jest ten SZDSR.
Chciałem powiedzieć Piotrowi jakby coś.
I tak, no jestem zniesmaczony tym wszystkim.
Może jak wiecie, jak jest jakiś androidowi odtwarzać książek,
może jakiś niedrogiej, to bym prosił jakieś informacje do Was.
Oriona? Dobrze pamiętam cienniki? Czy mi się to myli, czy podobne są?
Orion, Orion zdaje się, że był najtańszy.
Tych Orionów to chyba też jest kilka.
Tak, jeśli chodzi o te firmy, to ja tutaj mogę
chociaż to wytłumaczyć, mianowicie z tego, co ja się orientuję.
Może ja tutaj też coś mylę, ale tak jak przeglądałem stronę
oryginalnego producenta tego,
tych urządzeń, czyli to jest Evo, czy nawet
Brown, czasami tak to tłumaczą, więc to jest
Mniej więcej chińska, przepraszam, firma.
WinVision to zresztą było chińską firmą.
Mianowicie od początku to produkcją tych urządzeń zajmowała się ta firma Evo, takich
już nazwijmy, bo to jest łatwe do wymówienia.
I WinVision zajmowało się generalnie międzynarodową dystrybucją.
I tak jak sami wspomnieliście, tych Orionów to wyszło dużo, natomiast to jest wszystko, to jest
to wszystko jedno urządzenie, które jest dostosowane na różne rynki międzynarodowe.
Niektórzy je sprzedają cały czas pod nazwą Evo, E10 tak na przykład jest w Anglii, w Stanach Zjednoczonych, tak jest na Węgrzech na przykład, bo oni też mają swoją wersję tego urządzenia, no i w Polsce nawet dwa razy to urządzenie się pojawiło.
Natomiast Winvision i Evo po prostu się połączyły, więc ta firma, która ten sprzęt produkuje też zajęła się dystrybucją międzynarodową, a przynajmniej gdzieś przygotowaniem tej dystrybucji.
I oni zresztą na stemce tego urządzenia, nawet bazującego na Androidzie, stworzyli.
Jest to model E16, nawet mówiłem o nim kilka albo kilkanaście tylu przeglądów temu.
Natomiast czy on kiedykolwiek wyjdzie poza rynek chiński, bo na ten moment on jest dostępny wyłącznie w Chinach
i na co to pozwoli tak naprawdę to nie wiem, bo chyba nie można na tym instalować aplikacji
i tak jak to jest możliwe na przykład na SensePlayerze.
No ale pytanie, czy to się kiedyś zmieni?
No i mówię, czy ten najnowszy model kiedyś pojawi się poza tym rynkiem chińskim?
Tego rzeczywiście nie wiadomo.
Ale skoro, Piotrze, jeszcze jesteś w przygłosie, to wtyczka do NVDA
dla tych, którzy lubią sobie szybko zmieniać to, co jest czytane w trakcie formatowania,
Znaczy, a propos formatowania tekstu, no powstała taka.
Dokładnie. Jest to wtyczka od pana Derrica Dreamera, który już dużo stworzył różnych
wtyczek do MVDA i ta najnowsza nazywa się Document Formatting Rotor, czyli dosłownie
pokrętło do formatowania dokumentów.
Wtyczka jest dostępna w sklepie z dodatkami, jest też na GitHubie, będzie link, ale jeśli
chcecie sobie ją potestować teraz.
No to nie jest prostszego, przechodzimy do addon store z menu narzędzia, czyli do sklepu z dodatkami, przechodzimy na zakładkę dostępne dodatki i po prostu w polu wyszukiwania możecie sobie tą nazwę wpisać, on jest dostępny w wersji stabilnej, więc nie trzeba tam przełączać kanału na beta, po prostu w wersji stabilnej już się pojawił.
Dodatek ma proces zadanie pozwolić nam właśnie w łatwy sposób skonfigurować, które atrybuty ma nam MVDA automatycznie czytać podczas czytania czy to dokumentów, czy to stron internetowych, jakiegokolwiek sformatowanego tekstu, bo tych ustawień jest dużo.
Mamy to okienko dialogowe formatowania dokumentów, w którym to elementów jest kilkadziescia.
i może nam się nie chce przejść do tego elementu, który nas interesuje.
Taki prosty przykład z życia, wypełniamy jakiś formularz w internecie
i wyskakuje nam komunikat, że coś wypełniliśmy źle.
Nieprawidłowo wprowadzone dane są oznaczone na czerwono.
Wszystko fajnie, tylko że my nie widzimy co jest na czerwono,
a autor tego formularza akurat nie dodał odpowiednich atrybutów.
ARIA np. w MBDA nam nie powie, że któreś pole ma nieprawidłowy wpis.
Można wtedy posilić się oznajamianiem kolorów, co jest opcją w MBDA, natomiast
domyślnie to jest raczej coś, co będziemy mieli wyłączone, no bo generalnie to by
nam bardzo przeszkadzało, bardzo spamowało, no bo tekst w internecie i nie tylko
zresztą jest bardzo kolorowy i te kolory się zmieniają bardzo często, także z
były informacje o właśnie kolorze tekstu, o atributach, czyli czy jest pogrubione, czy nie,
jaką czcionką jest napisane, to jest wszystko powyłączone, ale mogą być sytuacje, kiedy
redagujemy jakiś tekst i możemy chcieć te ustawienia sobie przełączyć.
Gdyby ktoś często redagował takie teksty i może mieć potrzebę częstych zmian tego typu
ustawień, no to ten dodatek może się naprawdę przydać, zwłaszcza jeśli nie
robimy tego na tyle często, że gdzieś nie pamiętamy tych skrótów na pamięć, a chcemy
sobie jakoś pomóc.
Niestety na ten moment dodatek nie jest przetłumaczony na polski, co skutkuje tyle
tym, że na ten moment lista tych wszystkich ustawień jest wyświetlana po angielsku.
Natomiast może przez to, że dodatek został już gdzieś dodany do systemu,
No to może zostanie niewawem przetłumaczone.
Jak on działa?
Dokument WordPad Okno.
Ja sobie przeszłem teraz do WordPada i sobie napisze na przykład,
ja jeszcze mam WordPada, bo mam Windowsa 10, napisze sobie to jest test
i sobie słowo jest na przykład pogrubimy.
Naciskam Ctrl B, żeby tekst mi się pogrubił.
Nic nie słyszę.
Spacja. J. Salibli 11. 0 punktów. Domyślny kolor. Czarny w tle. Domyślny kolor. Białe pogrubienie. Wyrównanie do lewej.
Teraz sobie sprawdziłem atrybuty tego jednego miejsca i wiem, że to się mi pogrubiło.
Natomiast jeśli ja sobie teraz przeczytam linię, to tylko słyszę, tu jest test, nie wiem, co tutaj zostało pogrubione.
Więc chcę sobie to przełączyć, no bo akurat tego potrzebuję.
Domyślnie dodatek wywołujemy skrótem NVDA-G, natomiast ja sobie ten skrót zmieniłem,
dlatego że NVIDIA G też jest wykorzystywane np. przez dodatek OpenAI do wywołania okna rozmowy.
Więc jeśli macie ten dodatek, no to będziecie musieli sobie ten skrót zmienić.
No nie jest problem. Dodatek się dodaje do ustawień i pokazuje teraz jak to wygląda.
Mamy taki dosyć długi komunikat,
natomiast on sprowadza się do tego, że
strzałkami Prawo-Lewo wybieramy kategorie ustawień, które chcemy zmienić.
Strzałkami Góra-Dół przełączamy się pomiędzy wszystkimi dostępnymi ustawieniami.
Z Pacją przełączamy ustawienie, na którym jesteśmy.
Enterem zapisujemy zmiany i możemy również wpisywać jakieś słowa-klucz,
co spowoduje, że dodatek nam we wszystkich kategoriach będzie dane ustawienia przeszukiwał.
Więc może najpierw przejdźmy się po tych kategoriach.
Kategorie, co ciekawe, są przetłumaczone, więc pewnie są gdzieś pobierane z samego MVDA.
Domyślnie jesteśmy na kategorii czcionka i co my tutaj mamy?
Nazwa czcionki, rozmiar, atrybuty.
Zaraz sobie to właśnie przełączymy.
Kursywa, podkreślenia, podświetlony tekst, styl, kolory.
I to jest wszystko w kategorii ksiąga, komentarze i notatki, zakładki, rewizje, zmiany, błędy ortograficzne, błędy pisowni, numer strony, numer linii, raportowanie wcięcia i tutaj nawet możemy sobie ustawić czy to mają być dźwięki, czy to ma być mowa.
Ignoruj puste linie przy raportowaniu wcięcia akapitów, wielkość odstępu między wierszami i wyrównanie.
Informacje o samoraportowaniu tabel, czytanie nagłówków, tutaj mamy wiersze i kolumny,
Spółrzędne tabeli i informacje o stylu obramowaniu.
Elementy, nagłówki, łącza, obrazy, listy, cytaty blokowe, grupy, punkty orientacyjne, regiony, artykuły, czyli też właściwie te punktów orientacyjnych, ramki, klikane elementy, to też możemy chcieć czasami przełączyć jeśli mamy jakąś niedostępną stronę.
I to wszystko. Ja chcę sobie przełączyć akurat atrybuty i akurat wiem czego szukam, więc tutaj mogę zacząć pisać aty.
I on mi zaczął to przeszukiwać. Teraz mogę spację sobie przełączyć.
Akurat dla tego ustawienia mogę skonfigurować czy to ma być czytane mową, ma być wyświetlane w braille lub zarówno mową i braille.
Mogę też cały czas gdzieś pisać, tutaj napisałem literę, której nie było, więc mówi mi, że nie ma takiego elementu.
Mogę oczywiście backspace’em kasować, a na przykład gdybym chciał przełączyć sobie też elementy klikane, to na przykład mogę napisać CYL.
No i tutaj sobie też zaznaczę, klikam na elementy, no i skończyłem konfigurację, naciskam Enter.
Mam komunikat, że ustawienia zostały zapisane.
I teraz kiedy nawiguję po znakach, to mam informację, że słowo jest pogrubione.
Szczerze mówiąc jestem zaskoczony, że NVIDIA nie czyta tego podczas nawigacji po liniach.
Mam wrażenie, że to jest jakiś błąd w polach edycji z formatowaniem,
natomiast mało pracuje na Windowsie ze sformatowanym tekstem,
więc może to jest akurat normalne.
Natomiast sam dodatek zrobił to, co miał, czyli przełączył mi to ustawienie.
Może już nie będziemy szukali klikanego tekstu na jakiejś stronie internetowej,
ale śmieję przepuszczać, że to też zostało przełączone
i w taki łatwy sposób mogłem sobie interesujące mnie ustawienie,
a faktycznie tych ustawień, co ma być czytane w dokumentach, przełączyć, no jest tego trochę i to jest całkiem wydaje mi się sensowny sposób, żeby jakoś te wszystkie ustawienia okiełznać, nie dodając masy skrótów klawiszowych, które też może być nam trudno zapamiętać.
Także jeszcze raz dodatek, nazywa się Document Formatting Rotor i jest dostępny za darmo w sklepie z dodatkami.
To jest też fajne narzędzie dla audytorów dostępności stron internetowych, tak teraz sobie uświadamiam, bo w naszej pracy często się pojawia potrzeba sprawdzenia właśnie formatowania tekstu pod kątem na przykład takich rzeczy, jest takie kryterium, znaczy może nie całe kryterium, ale jest jedna z takich zasad dostępności, na przykład, że linki w tekście powinny być podkreślone.
I tu chodzi o to, żeby one były, oprócz tego, że mają inny kolor, żeby były przez ten krój czcionki bardziej widoczne dla osób, które na przykład są daltonistami, nie odróżniają kolorów.
I tutaj na przykład jest to tak samo, na przykład tagi m, że m fascis, to nie jest jeszcze, to jest niby tak w HTML-u, ale to nie jest jeszcze przez czytniki ekranu jakoś specjalnie czytane,
że tam słowo jest jakoś tam, jest na nie położony większy nacisk,
ale jest to interpretowane przez NVIDIA jako tradycyjne pogrubienie.
Tak samo na przykład pogrubiony tekst bardzo często może oznaczać nagłówek,
więc w ten sposób możemy zidentyfikować, czy tekst wizualnie ma być nagłówkiem, czy nie.
To nie jest stuprocentowo skuteczna metoda, ale daje nam to jakieś wyobrażenie
i można sobie zasugerować w raporcie, że taki nagłówek też powinien być semantycznie,
że H1, czy H2, czy H ileś, no ja z takiej metody dość często korzystam, pomijając to, że czasami rzeczywiście te różne rzeczy są naprawdę tylko kolorem, czy krojem czcionki zaznaczone i mi już się zdarzało szukać mieszkania na przykład i patrzeć po kolorach, czy dana cecha w mieszkaniu jest, czy nie ma, czy jest balkon, czy go nie ma, czy jest internet w cenie, czy nie ma i to było tylko i wyłącznie pokazywane kolorem, także no takie rzeczy się przydają.
A ja jeszcze, skoro jesteśmy przy temacie NVIDIA, to chciałbym się podzielić takim małym trikiem, który dzisiaj przez przypadek odkryłem.
Otóż NVIDIA ma opcję, która z jakiegoś powodu, czego kompletnie nie rozumiem, bo w żadnym zgłoszeniu na GitHub nie byłem w stanie znaleźć jakiegoś logicznego uzasadnienia takiej decyzji,
A jest to opcja odznajmiania artykułów. Czym są artykuły?
To jest znowu w HTML-u taki kod, ale żeby was technikami nie zanudzać, takim znacznikiem artykułu oznacza się dany link, nagłówek, cokolwiek, który jest tytułem jakiegoś artykułu.
czyli mamy po prostu jakąś listę newsów na przykład na jakimś blogu czy na jakimś portalu i te wszystkie newsy, te tytuły, te nagłówki mają ten atrybut, że to jest artykuł, czy są oznaczone tym znacznikiem.
I co nam to daje? No po pierwsze będzie odczytane, że to jest artykuł, to jest ta mniej ekscytująca powiedzmy informacja, bo wiemy, że jest i tyle,
ale można też w zdarzeniach wejścia w ustawieniach NVDA przypisać skrót do następnego i poprzedniego artykułu.
I tu się zaczyna dopiero ciekawie, bo dzięki temu możemy skakać jednym skrótem pomiędzy artykułami na stronie.
Ja to właśnie przetestowałem, chyba któreś nowsze instalacje WordPressa, jak się przy nich za dużo nie grzebie,
domyślnie, jak się robi taką tradycyjną sekcję newsową,
aktualności czy nowości, taki zwykły blog, oznacza każdy nagłówek
z takim nowym wpisem jako artykuł, więc ja mogę być sobie na początku strony,
przypisałem sobie na przykład teraz do tego przycisku, do tego klawisza akcent,
do tej tyldy, która jest przed jedynką, ten prim to się nazywa też chyba,
to co przed jedynką jest na klawiaturze, ten taki klawisz, to i to z shiftem,
żeby wszystko skakiwało mi do następnego i poprzedniego artykułu i byłem sobie na pewnym blogu, który miał tam jakieś trzy newsy na stronie.
No mógłbym to pewnie zrobić też nagłówkami, tylko nagłówkami to bym przechodził jeszcze po, nie wiem, nagłówku powitalnym, po może jakiejś nawigacji, zależy jak blog jest skonstruowany, po różnych rzeczach.
A tym skrótem nacisnąłem sobie właśnie ten akcent, bach, wylądowałem na pierwszym artykule od razu na nagłówku z artykułem.
Kolejnie akcent, akcent, akcent i po prostu skakałem po tych artykułach, a shift akcent z powrotem.
No także jeżeli często przeglądacie, wiem że też niektóre portale społecznościowe tak implementują, że Facebook chyba w ten sposób ma statusy oznaczone.
Reddit też komentarze na przykład, to też się przydaje.
Mastodon, nie wiem czy oficjalny, czy Pinafor.
Pinafor na pewno, nie wiem jak z oficjalnym.
No chociaż na Pinaforze można też z strzałkami chodzić, bo to jest zwykła lista.
No nie wiem, X na przykład też chyba to jeszcze ma. Może tego Elon nie skasował. I różne portale takie właśnie, gdzie jest trochę jakichś wiadomości, jakichś tam takich treści okołoniusowych.
Ma to poimplementowane i można dzięki temu skrótowi po prostu skakać sobie bezpośrednio od razu z początku strony do tej listy artykułów i po konkretnych artykułach. No także macie się czym pobawić.
O, już mnie słychać. Konferencja w Tokio, o której Pawle mówiłeś tydzień temu, no coś jeszcze chyba z niej zostało do powiedzenia, bo przynajmniej mamy tutaj wpisane w dodatkach, że coś jeszcze tutaj jest ciekawego.
Tak, jak najbardziej. Mam przygotowanych na dzisiaj pięć stanowisk z tej wystawy, bo wywiady w ramach podcastu JBI City wpływają nadal i myślę, że jeszcze troszkę będą wpływać, więc troszkę będziemy mieli tu takie omówienie jak w przypadku Site City.
I co mogę powiedzieć o tymże wydarzeniu. Te wywiady, które przygotowałem wam, czy postarałem się jakoś opracować na dziś, są z pięcioma firmami, tak jak wspomniałem.
I pierwszą z nich jest firma Amedia. Firma Amedia ma taki produkt, to jest chyba oprogramowanie na komputer, które nazywa się, jeżeli dobrze tutaj tłumacz i transkrypcja sobie poradziły,
Pamiętajcie, że to jest japoński, więc tam fonetyzacja tych łacińskich nazw anglojęzycznych plus tłumaczenie, pisanie tego pismem jakimkolwiek japońskim plus potem przełożenie tego na angielski, tam mogło się dużo rzeczy wysypać, ale z tego co, tak jak moje tłumaczenie to przygotowało, to produkt nazywa się 4X i jest to, z tego co zrozumiałem, oprogramowanie na Windows, które za pomocą sztucznej inteligencji pozwala nam na oceerowanie różnych rzeczy.
więc mamy tam rozpoznawanie tekstu, możemy ten tekst dać podsumować, możemy ten tekst również sobie, co ciekawe, pod kątem artykułów właśnie w gazecie podsumować,
czyli że on przeskanuje na przykład stronę gazety, tam będzie powiedzmy kilka nagłówków, jakieś tam tytuły takie główne tych wiodących artykułów itd.
i on może nam wymienić te artykuły, a my możemy go poprosić o jakieś tam rozwinięcie któregoś konkretnego.
Jest też opisywanie zdjęć, jest opisywanie wykresów, także w tą stronę to idzie, to są jakieś funkcje, które zostały wprowadzone w tym roku, to jest też trochę niewdzięczna robota, muszę wam się przyznać, relacjonowanie konferencji z takich krajów, o których w ogóle nie mam pojęcia jak chodzi o rynek, bo osoby prowadzące ten podcast znają się na tym sprzęcie i nie robią jakiegoś wprowadzenia szerszego, że mamy do czynienia z programem, który coś, tylko oni już znają od lat te produkty.
No więc wchodzą tylko po to, żeby o jakichś nowościach porozmawiać, więc moją rolą jest się w tym momencie domyślać, czy to jest program na PeCeta, czy to jest aplikacja mobilna, czy sprzęt, co to umie do tej pory, co jest nowe, co jest stare, no i to tak potem wygląda.
No tutaj ma być wprowadzona opcja na przykład transkrypcji, więc z jednej strony transkrybowanie nagrań, z drugiej strony dyktowanie naszych różnych tam myśli i notatek.
Wręcz tam reklamowali to w ten sposób, że będzie można nasze myśli różne głosowo dyktować i z tego robić jakieś notatki, że to tak kiedyś jakiś tam poeta czy inny był znany z tego, że dyktował jakiemuś swojemu tam skrybie czy pisarzowi swoje różne tam przemyślenia i z tego powstawały jakieś tam jego książki czy wiersze,
rzeczy, czy zbiory, no to oni chcą coś takiego zrobić w formie komputerowej.
No więc życzymy im powodzenia.
Prawdopodobnie najważniejsze jest to, że to tam obsługuje język japoński.
Nie wiadomo, czy będzie jakaś ekspansja na rynek międzynarodowy.
Drugie urządzenie to jest urządzenie, o którym my chyba już, to chyba ty Michale
mówiłeś w tym stoprzeglądzie, czyli wkładka do butów Ashirase.
Tak, oni zdaje się jakieś finansowanie z Hondy dostali.
Tak i oni też robili Kickstartera i ten Kickstarter został zebrany i w ciągu ostatniego pół roku było chyba z 35 aktualizacji i to się dalej rozwija.
Jest nowy model New Steps 2, który i tutaj troszkę tłumaczenie się posypało, bo stwierdziło, że zostanie wprowadzony w październiku 2024 roku.
Także nie wiem czemu ten czas przyszły i czy to coś tam się wysypało z tłumaczeniem, czy to dopiero wejdzie, czy już weszło.
Natomiast dokonano trochę zmian, bo ta wersja pierwotna, dość dużo użytkowników miało dość dużo skarg na to jak to jest skonstruowane, więc dokonano kilku różnych ulepszeń.
Tak na przykład ta wkładka do buta jest dużo bardziej miększa po prostu, bo wcześniej była dość twarda i wiele osób odczuwało jakieś tam dyskomforty.
A przypomnijmy, jest to wkładka do buta, która wywibrowuje nam kierunek, w którym mamy iść, w tym się oczywiście da połączyć też aplikacją, czyli podobne założenie jak w przypadku pasa nawigacyjnego Feelspace, tylko że mamy to w bucie.
I tutaj jest to właśnie ta miękka konstrukcja, więc to dużo wygodniej stopa na tym leży i też zmienił się troszeczkę kształt, bo z kwadratowego stał się taki jakby trochę zaokrąglony.
Też dodano temu urządzeniu jego własny GPS, bo okazało się, że zwłaszcza starsze iPhone’y, a trochę osób to ma, przez starsze ma się na myśli starsze niż iPhone 14 i tam te wersje Pro, czyli dużo osób, które korzystają jeszcze z SE i tak dalej,
no te dane lokalizacyjne nie były aż tak dokładne, jak producent by sobie tego życzył.
Więc wprowadzono GPS-a, żeby trochę skompensować, ponoć nowsze iPhone’y już dużo lepiej sobie radzą, więc nie odczuwa się aż takiej różnicy, ale i tak jakaś poprawa, nawet jeżeli używamy przy współpracy z nowszymi iPhone’ami, tego ich GPS-u, tego ich odbiornika jest.
Oczywiście to wpływa na zużycie baterii, więc tak jak kiedyś prognozowano, że będzie 12 godzin stałej nawigacji, tak teraz jest 10, ale też zoptymalizowano pod tym kątem, że jeżeli urządzenie nie nawiguje, to praktycznie tej baterii nie zużywa, więc to takie przeciętne używanie powinno to działać od 3, w zależności od częstotliwości korzystania, od 3 do 10 dni.
Też wprowadzono tam opcję rejestrowania własnych tras i to jest ciekawe, bo z jednej strony używa to oczywiście GPS-a, ale też używa to konta pod jakim skręcały nasze stopy,
więc on sobie pamięta jak i w jaką stronę my robiliśmy kroki i na podstawie tego on będzie starał się zarejestrować trasę, żeby można jej było znowu potem użyć.
Więc to może być dość ciekawe.
Też dodano ICOSupport, jakiś rodzaj takiego asystenta ludzkiego, z tego co rozumiem,
który gdzieś tam można się z nim połączyć, jeżeli będziemy chcieli uzyskać jakąś bardziej szczegółową informację,
typu, gdzie znajdują się drzwi wejściowe, albo tam, gdzie znajduje się bramka do metra
i tam jakiś pracownik nam pomoże.
Tutaj nie do końca rozumiem, jak to działa, bo nie wiem, czy ty, Michale, pamiętasz,
to urządzenie miało jakiś swój zestaw kamer?
Czy kamer? To nie wiem. Na pewno miało mieć jakiś zestaw czujników.
Tak.
Ale o kamerach to już nie pamiętam. Bardziej mam wrażenie, że to jakieś
rzeczy pokroju radar, lidar i inne tego typu.
Ale samo połączenie to ze smartfona będzie szło.
Właśnie tutaj nie do końca zrozumiałem, czy to mają być kamery z samego urządzenia,
bo to byłoby trochę dziwne, bo to jest w półcie, więc co miałoby tu widzieć,
albo gdzie miałyby być te kamery. Z drugiej strony może rzeczywiście
chodziło o smartfona. No więc tutaj jakaś opcja połączenia jest,
aczkolwiek oni bardzo idą w jakąś współpracę z firmami zewnętrznymi,
więc zdaje się, że chcieliby nawiązać współpracę z jakąś już istniejącą usługą, czy to będzie Be My Eyes, czy Aira, konkretne nazwy nie padły, ja też nie znam na tyle, w ogóle nie znam, rynku japońskiego, może tam są jakieś lokalne usługi, które są tam bardziej akceptowalne na rodzimym rynku i bardziej znane rodzimym użytkownikom.
Jak to będzie działało?
No i też ma być jakaś współpraca z istniejącymi rozwiązaniami odnośnie nawigacji wewnątrzbudynkowej, czyli różnego rodzaju bikony, wi-fi i tak dalej, więc tam też nad tym się pracuje.
No i nad jakąś też opcją wrzucania jakiegoś rodzaju opisów różnych miejsc, czy na przykład, nie wiem, tam był podany fajnie taki lokalny przykład sklepu z ramenem.
I czy ten sklep z ramenem ma jakiś, nie wiem, modny wystrój czy raczej staroświecki, czy tam oprócz ramenu coś jeszcze znajdziemy, czy można płacić kartą i tak dalej, godziny otwarcia, więc teraz nie wiem czy to jest coś na co będzie odpowiadało AI, czy tam bardziej pójdą w jakość robienia własnej bazy tych różnych miejsc z tego typu informacjami i potem ta aplikacja będzie w stanie to pobierać.
Mają oczywiście plany ekspansji na rynki międzynarodowe, wspominali na razie Wielka Brytania, Hiszpania i tak dalej, więc przypuszczam, że do Europy będą chcieli gdzieś trafić, więc może się pojawią na jakimś side city, może jeszcze w paru innych miejscach, więc w przyszłym roku myślę, że będziemy obserwować czy się istotnie pojawią.
Jak chodzi o ceny, to trochę nie, tutaj tłumaczenie mnie zawiodło, bo oni z jednej strony mówili, że zaczynali od ceny 88 tysięcy jenów, potem zeszli jakoś do 50 tysięcy, ale to jest z jakimś tam podatkiem, więc ostatecznie płaci się 4 tysiące, więc zaoszczędza się 34.
Trochę nie rozumiem jak to ma działać, bo tutaj tymi cenami dość mocno szafują, ale nawet gdyby to urządzenie było jakieś tam tańsze, może chodzi tu o jakąś formę dofinansowania, które można w Japonii otrzymać, to to nam też niewiele radości daje, bo potem urządzenie będzie wymagało subskrypcji i będzie subskrypcja miesięczna w wysokości 550 jenów lub roczna w wysokości 6000 jenów.
Zobaczymy co im to wszystko przyniesie.
Natomiast jest to na pewno jakieś kolejne urządzenie, które może coś ciekawego wnieść.
Ja sobie szybko przewalutowałem te ceny tak orientacyjnie i w najgorszym wariancie 90 tysięcy
Pienów to jest około na ten moment 2400 złotych, a ta subskrypcja w wariancie rocznym to jest koszt około 160 złotych, więc powiedzmy, że droga aż tak nie jest ta subskrypcja, natomiast sam Sprint tak bym powiedział nie jest drogo bardzo, ale też tanio nie jest.
Także trzeba będzie trzeba będzie zobaczyć jak to się wszystko gdzieś tam skończy.
Więc tutaj to tutaj to tak wygląda.
Potem była firma chyba KKS albo KGS i to jest znowu jakiś japoński producent
monitorów braille’owskich o którym nie miałem pojęcia że w ogóle istnieje.
Nazywa się to
Braille Memo Smart Air 16 lub 32 znaki.
Przepraszam, 16 lub 40 znaków.
I jest jeszcze jakiś Next Touch.
Kompletnie nie znam tej linii produktów, więc nie wiem czym się różnią,
a zaznajomieni już z produktami prowadzący podcastu nie raczyli nas w to wprowadzić.
Dość powiedzieć, że Next Touch jest chyba jakimś nowym produktem.
I tu dowiedzieliśmy się tylko, że nastąpiły zmiany takie,
że te monitory otrzymały możliwość odgrywania utworów muzycznych,
podobnie jak te handytechy niemieckie, zresztą handytechy niemieckie też się powołali, że testowali podobne rozwiązanie właśnie niemieckiej firmy.
Jest jakiś tam język zbliżony do MusicML, zdaje się, czy do jakiegoś tam bardziej znanego formatu, którym można zapisywać nuty, całe partytury i potem można to sobie odczytywać, śpiewać.
Z tego nawet były już jakieś nawet wydarzenia, gdzie niewidomi japońscy kompozytorzy, czy też
wykonawcy się spotykali i śpiewali ze swoich partytur właśnie zapisanych na tych monitorach.
Natomiast jest też opcja odgrywania tego dźwięku jakoś tam, nie wiem czy w midi, czy jakoś inaczej pewnie w midi.
Natomiast co ciekawe, to tutaj się zainspirowali bardzo mocno Jossem, do czego się zresztą przyznali, tylko w drugą
stronę i stworzyli coś takiego.
że można wziąć dwa monitory, np. 16 i 40, jeden podłączyć na USB, drugi podłączyć na Bluetooth i tak je ze sobą połączyć,
że screen reader widzi to jako jedno urządzenie i wykorzystuje przestrzeń obu monitorów do wyświetlania i wtedy mamy 56 znaków.
Stwierdzili, że na ten moment screen readery żadne, które są na rynku nie mają takiej opcji, żeby tekst puszczać na dwa monitory naraz,
więc trzeba było zrobić takie obejście techniczne, że te dwa monitory się ze sobą łączą i identyfikują się przed systemem jako jeden.
No i w ten sposób można pokazywać różne treści na tak szerokim wachlarzu.
Coś mówili też o rozdzielaniu, trochę jak w JOS-ie, że można jedne treści tu, jedne tam, ale nie bardzo wiem, jakby to miało wyglądać.
Rozdzielanie tego po stronie screenreadera, co ma gdzie lądować.
Znaczy może z Jossem to by było fajne, bo można podzielić to jakoś tam równo na pół i jak jest 56 znaków, no to 28, 28, czyli nie wiem jakby to miało działać między 40, znaczy no pewnie część na jednym monitorze, a część na jednym i na drugim, bo Joss chyba nie może, bo Joss może tylko się rozdzielać równo na pół, nie można zrobić czegoś takiego, że ustalamy mniejszą przestrzeń na coś, a większą na coś.
No w każdym razie można się tak tym bawić i gdzieś tam wydaje mi się, że jest to takie śmieszne, takie ciekawe, mam nadzieję, że im to tam służy.
Może kiedyś zobaczymy monitory tej firmy też w Europie. Pożyjemy, zobaczymy.
Firma Daihatsu Motors, która zajmuje się produkcją oczywiście samochodów, jak to Motors, ale też stwierdzili, że chcieliby zrobić coś dla niewidomych.
No i stworzyli coś podobnego do bipeda, bo stworzyli urządzenie naramienne w kształcie litery U, czyli od tyłu zakładamy to sobie tak, że na ramionach leżą nam te jakby odnogi tej litery U i po lewej stronie mamy wtyczkę na zasilacz, po prawej kamerkę, która patrzy sobie przed nami i w dół i mamy po obu stronach przyciski do sterowania i też bardzo blisko nas, blisko naszych uszu są głośniki, które pozwalają nam gdzieś tam wysłuchać tego,
co urządzenie ma nam do powiedzenia, a urządzenie służy do wykrywania przeszkód i na ten moment wykrywa osiem typów tych przeszkód.
Są to ludzie, rowery, motocykle, ciężarówki, zdaje się, że jakieś samochody też po prostu, różnego rodzaju słupy, czy to telefoniczne, energetyczne,
czy ostatnio popularne, przynajmniej w Japonii, słupy, które uniemożliwiają samochodom wjazd na chodnik.
Takie się pojawiły i też to dla niewidomych jest dość duża gdzieś tam przeszkoda.
No i różnego rodzaju jakieś tam elementy budowy, czyli jakieś tam pewnie rusztowania i tak dalej.
No i w miarę jak kamera wykryje to taką przeszkodę to wydaje dźwięk na początku niższy, a w miarę jak to się zbliża to wyższy.
no i też głosowo nas informuje o tym, co przed nami się znajduje, czy to człowiek, czy to budowla, czy to słupek.
Kamera widzi na odległość 3-4 metrów. Jest to na razie prototyp. Nie wiadomo jeszcze, kiedy wejdzie na rynek, ani ile będzie kosztował.
I też nie do końca wiadomo, czy taka będzie jego ostateczna forma, bo jest to prototyp i możliwe, że użytkownicy jeszcze zgłoszą jakieś swoje zastrzeżenia.
Na razie zgłaszają, że chcieliby wykrywanie przystanków autobusowych, szyldów z informacjami i tak dalej, schodów.
Tam niektóre z tych rzeczy ponoć są trudne do wykonania techniczne, ale firma się coś tam będzie starać.
No i SmartWalk urządzenie się nazywa.
No i ostatni wywiad, który przygotowałem to firma Nippon Telesoft, czyli producent monitorów Seica,
które już czasami się w naszych audycjach gdzieś tam pojawiają i przewijają.
I co Seika ma nowego? Seika ma jakieś takie lupy powiększalniki inteligentne.
To jest ciekawe, bo mają powiększalnik Luna S, lupę elektroniczną z funkcją radia FM.
Nie wiem, czy w Japonii radio jest aż tak popularne, jakby dużo bardziej popularne
niż w Europie czy w Polsce, nie mam pojęcia, ale jest to ciekawa,
Taka losowa bardzo funkcja jak na lupę elektroniczną.
I jakieś też wprowadzanie po angielsku.
Rozumiem, że chodzi o to, że po prostu angielskim alfabetem się wprowadza
alfabet łaciński. Nie wiem, możliwe, że coś takiego.
Ale główną gwiazdą tutaj show był, było urządzenie, które nadal jest w fazie
rozwoju, a jest to notatnik brailowski wielkości sejki mini.
Nie wiem ile sejka mini miała znaków, czy 16, czy jakoś tak.
Chyba 16.
Tak jest to urządzenie z Androidem
nie wiadomo którym. Nie możemy
porównać sobie z Blind Shellem.
Ale dlaczego o tym mówię.
Bo do tego urządzenia również
będzie można włożyć kartę SIM
i po podpięciu słuchawek bluetooth
wprowadzić z niego rozmowy
telefoniczne.
Także no tutaj
takie urządzenie ono gdzieś powstaje
bo Seika próbowała się już znaczy
Nippon Telesoft próbował się już
przymierzać do takiego bardziej
smart urządzenia.
Zdaje się, że już kilka lat temu, ja pamiętam jeszcze w 2017 chyba na Site City już coś o tym była mowa.
Tutaj w wywiadzie jest napisane, że dwa lata temu ktoś się tym bawił.
Próbowali zrobić taki minikomputer z Windowsem, chyba jeszcze 10, no i się okazało, że to za duże, za ciężkie,
użytkownikom się nie spodobało, nie bardzo dało się coś z tym zrobić w ramach tych gabarytów, które były dostępne.
No więc niestety ten projekt zarzucono i teraz jest podjęta znowu próba zminiaturyzowania tego i wrzucenia na to androida.
Zobaczymy jak się to firmie powiedzie. Przy okazji się dowiedzieliśmy, że Yen tak nisko stoi, że bardzo podrożały te różnego rodzaju sprzęty,
a subwencje dofinansowania gdzieś tam póki co nie bardzo się podniosły, także i Japończycy mają aktualnie problemy.
Znaczy, no Japończycy mają aktualnie problemy z dofinansowaniem sobie tych różnych sprzętów, no i to na ten moment wszystko co przygotowałem w ramach tej wystawy SideWorld, a pewnie jeszcze więcej w przyszłym tygodniu.
Mamy wiadomość od Łukasza, tylko z jakiegoś powodu mi ta wiadomość uciekła, ale już ją mam.
Witam jeszcze raz. Co do IKO na Blindshell, to nie wiem czy problem leży po stronie telefonu, czy nie czasem po stronie serwerów PKO.
Kod identyfikacyjny próbuje być przesyłany Whatsappem, ale telefon odpowiada, że numer telefonu nie jest zarejestrowany w Whatsapp, co nie jest prawdą.
Pamiętam jak logowałem się na kapsy Smart Vision 3, to tam kod był czytany przez bankowy syntezator i trzeba go było wpisać w takie okienko i też nie działało to zbyt płynnie. Poszło dopiero za trzecim razem.
To znaczy na pewno nie wysyłamy tego kodu przez Whatsappa, to jeżeli tak się dzieje, jeżeli Whatsapp jest wywoływany, to to jest ewidentnie błąd i jak ja pamiętam aktywację aplikacji ICO, to używamy do tego po prostu zwykłej wiadomości SMS.
Więc w takim przypadku myślę, że trzeba by było po prostu może skopiować na przykład ten kod i spróbować wysłać go za pomocą SMS-a.
Może o to tutaj chodzi, może wtedy by to po prostu zaczęło działać.
Być może. To co? Przechodzimy do newsa, w zasadzie do stałego punktu programu. Jakim są oczywiście drobne newsy? Tych newsów jest chyba trzy, jeśli dobrze myślę.
Chyba nawet cztery, ale to są na szczęście same dobre drobne newsy, czasami jakieś mamy negatywne wiadomości, tym razem jakoś fajnie się ułożyło, że same pozytywne wiadomości się pojawiły, rozpoczynając od aplikacji, które dostały aktualizacje, które poprawiają ich dostępność.
Pierwszą z nich jest aplikacja, o której mówiłem tydzień temu, więc nie będę znów się powtarzał, mianowicie jest to News Explorer, czyli taki bardzo fajny czytnik RSS na systemy Apple, zarówno na iPhone’y jak i na Android’y.
aplikacja doczekała się znaczącej aktualizacji, która dodała kilka naprawdę fajnych funkcji, których wiele aplikacji nie ma.
Nie wiem czy to nie jest jedyna aplikacja, która ma wszystkie te funkcje.
W dużym skrócie nowa wersja pozwala nam na filtrowanie naszych kanałów RSS.
Możemy sobie zrobić tak, żeby nam aplikacja pobierała tylko te artykuły, które zawierają słowa,
klucz, które my wpiszemy lub vice versa, nie pobierała artykułów, które jakieś słowa pobierają,
które jakieś słowa zawierają, więc możemy sobie tak filtrować nasze kanały RSS
podobnie jak media społecznościowe, no i też możemy tworzyć własne foldery i filtry
dodając różne reguły, także moglibyśmy sobie na przykład zrobić folder,
który nam wyświetla tylko wszystkie wiadomości dotyczące, nie wiem, firmy Apple
ze wszystkich kanałów technologicznych, które obserwujemy na przykład.
Co ta nowa wersja niestety popsuła to to, że tutaj w zwłaszcza wersji na iPhona wiele przycisków straciło swoje etykiety, były zaetykietowane dziwnie nazwami plików graficznych, które te przyciski, które przedstawiały ikony tych przycisków, a na liście artykułów, artykuły były rozbite na kilka elementów, więc kiedy chodziliśmy sobie gestami lewo, prawo, no to mało przyjemnie się po tym chodzi.
Problem zgłosiłem jak tylko nową wersję zaktualizowałem, dlatego że to dosyć intensywnie korzystam z tej aplikacji.
Developerzy obiecali, że problem zostanie naprawiony, no i dzisiaj rano trafiła do mnie kolejna aplikacja
w liście zmian, w której było napisane, że pojawiły się poprawki dostępności, no i faktycznie mogę potwierdzić
przyciski są znów zatykietowane tak jak powinny być, a każdy artykuł jest jednym elementem,
Także gestami lewo, prawo od razu przechodzimy z jednego artykułu od razu na drugi.
Małą łyżką w tej aktualizacji jest to, że teraz pierwszym elementem, który jest czytany jest data publikacji tych artykułów, a nie ich tytuł,
więc to też gdzieś pewnie zwrócę uwagę na to, że dałoby się może jeszcze przyspieszyć, żeby to było czytane gdzieś później,
co zresztą było właśnie tak czytane w poprzednich wersjach,
ale poza tym faktycznie każdy artykuł na liście to już jest jeden element,
no i te wszystkie przyciski, które były wcześniej dziwnie zatekietowane
już tam bardzo fajnie przez voice-overa czytane.
Więc jeśli szukacie takiej aplikacji, która pozwala na takie zaawansowane
filtrowanie czy kategoryzowanie postów i parę innych ciekawych funkcji,
no to warto News Explorer czy to na iPhona, czy to na Maca,
Czy to nawet na Apple Watcha, bo aplikacja też ma wersję na zegarki.
Warto sobie w App Store zajrzeć, bo myślę, że warto.
A druga aplikacja to coś, co też w sumie może ucieszyć osoby, które mają iPhone’y,
ale mają też komputery z systemem Windows i szukają fajnego kalendarza.
Mianowicie mówię tutaj o aplikacji Fantastical, która to jest takim bardzo
popularnym, alternatywnym kalendarzem na platformy Apple, bo przynajmniej tak było do tej pory.
On się cechuje tym, między innymi, że ma rozbudowane funkcje tworzenia wydarzeń,
wyświetla nam pogodę do lokalizacji, do której dojeżdżamy i ma taką zaawansowaną,
zaawansowany tzw. parser do tworzenia wydarzeń językiem naturalnym,
Czyli po prostu kiedy naciskamy nowe wydarzenie, wyskakuje nam pole edycji i możemy sobie ręcznie różne rzeczy ustawiać, ale też możemy po prostu wpisując, na przykład nawet na testów wpisałem dywno przegląd, co każdy wtorek o godzinie 20 i automatycznie aplikacja mi wypełniła pole powtarzanie, pole godziny i tak dalej i mi odpowiednio wszystko to poustawiała.
Niestety ten parser nie wspiera języka polskiego na ten moment, także to jest pewnie jakiś minus tego.
Dałoby się to o tyle obejrzeć, że można po prostu pisać gdzieś po angielsku, ale wpisując po polsku nazwy wydarzeń i pewnie dałoby się w ten sposób to zrobić.
Też oczywiście możemy ręcznie te bona sobie poustawiać, a cieszyć się z innych funkcji tej aplikacji, jak na przykład bardzo fajne skróty klawiszowe i bardzo dostępny interfejs.
a przynajmniej za jakiś czas, bo aplikacja niedawno pojawiła się na systemie Windows
i tutaj warto zauważyć, że wersje zarówno na iPhone’a jak i na Mac’a są bardzo
dostępne i są często podawane jako przykład jak robić takie naprawdę
przemyślane, bardzo fajnie dostępne aplikacje na platformy Apple.
Więc kiedy dowiedzieliśmy się, że ma
Fantastical się pojawić na systemie Windows, no to oczekiwania były wysokie.
Niestety, w praktyce okazało się, że aplikacja była bardzo słabo dostępna, było bardzo dużo słabo zaetykietowanych elementów, wiele rzeczy nie było czytane tak jak powinno być, natomiast kiedy ludzie zaczęli pisać do twórców tej aplikacji, do firmy FlexiBeats, m.in. Jonathan Mosen, który też później na Mastodonie pisał o tym, że nawiązał kontakt z deweloperami, no to bardzo szybko przeprosili i obiecali, że jakieś poprawki będą.
może to zająć trochę czasu, dlatego że musieli też skontaktować się z firmą Microsoft i na parę rzeczy ustalić, poprosić ich o pomoc, bo napotkali jakieś problemy.
Natomiast pierwsze owoce ich pracy już możemy sami testować na własnych komputerach z systemem Windows, bo pojawiła się aktualizacja, która już jakieś znaczące poprawki do dostępności przynosi.
o tym zresztą sam Jonathan Mosen znów napisał, tym razem z profilu podcastu
Access On, o którym rozmawialiśmy jakoś niedawno.
I co mogę powiedzieć?
Ciągnąłem tą aplikację na próbę i faktycznie już na ten moment mogę powiedzieć,
że interfejs jest przejrzysty.
Jest dużo skrótów klawiszowych.
Wszystko generalnie jest czytane bardzo fajnie.
Wydarzenia możemy sobie przeglądać w takiej bardzo prostej liście.
Natomiast napotkałem takie dwa problemy, które mi się gdzieś od razu rzuciły.
Po pierwsze, podczas nawigowania, zwłaszcza kiedy przeskakiwałem bardzo do przodu w przyszłość
i nawigałem po liście wydarzeń, gdzie one były pogrupowane według data,
ale to po prostu była jedna długa lista, to aplikacja reagowała wolno.
Nie wiem, czy to było spowodowane tym, że dopiero ją zainstalowałem, tam jeszcze w tle coś się z iCloudu akurat pobierało, czym to było spowodowane, ale trochę muriło.
Natomiast samo czytanie było naprawdę fajne, a drugim problemem było to, że kiedy dodawałem nowe wydarzenie, to kontrolki wyboru daty i godziny nie były tak fajnie dostępne, jakby być mogły.
to znaczy one były czytane jako przyciski i sam wybór daty działał, no to wybór
godziny przez czytniki ekranu, czy to przez MVDA, czy np.
przez narratora, no już nie były czytane tak jak powinny.
Można było z czałkami sobie tę godzinę zmieniać, natomiast nie dostawaliśmy
komunikatów po pierwsze, czy jesteśmy na polu godzina, czy minuta i to czy to
jest, czy to jest początek, czy koniec, akurat wiedzieliśmy, bo to było czytane
taki jeden duży przycisk, który czytał nam i datę i godzinę i później tałem
przechodziliśmy pomiędzy tymi polami daty i godziny i właśnie wtedy nie czytane było nic.
Także tutaj trzeba albo posilić się nawigacją obiektową, albo ewentualnie użyć
właśnie tego pola inteligentnego dodawania i w ten sposób przepłacać dane, daty,
godziny i tak dalej i później sobie weryfikować czy system nam ustawił to tak jak
powinien i w ten sposób dało się ten problem obejść.
Także widać, że jeszcze są rzeczy, które muszą być dopracowane, ale dla tych, którzy
szukają fajnego, dostępnego kalendarza, który jest w stanie zaimportować nam kalendarze
z różnych źródeł, który jest natywną aplikacją i nie jakimś interfejsem webowym, który
ostatnio Microsoft nam na siłę proponuje w przypadku Outlooka, zarówno tego klasycznego,
jak i tej aplikacji Poczta i Kalendarz, no to Fantastical może być bardzo ciekawą opcją.
No niestety opcją, która dla wielu osób może być, no może trochę kosztować, bo to jest aplikacja, która jest objęta abonamentem, natomiast abonament obejmuje aplikacje na wszystkie platformy, także jeśli mamy i iPhona i komputer z Windowsem, no to na szczęście płacimy tylko raz i też mamy wersję darmową, która nam takie podstawowe zarządzanie kalendarzem nam pozwala, więc jeśli ktoś chce sporadycznie sobie coś do kalendarza dodawać, no to myślę, że też ta wersja darmowa też powinna w zupełności wystarczyć.
No to Fantastical w sklepie Microsoft możecie sobie tą aplikację ściągnąć i przetestować.
On wspiera generalnie wszystkie najbardziej popularne platformy do kalendarzy,
więc czy to jest iCloud, czy to jest Google, czy to jest jakiś kalendarz firmowy
Microsoftu, czy prywatny na koncie Microsoft, czy to jest chyba nawet jakiś
Facebook, jakiś firmowy kalendarz, że generalnie wszystko to powinno z tą
aplikacjom nam zadziałać.
To były aplikacje.
A teraz chwilę porozmawiamy.
Moment, jeżeli mówisz, że Google
to znaczy, że Fantastical działały z
kalendarzem Google?
Możesz się zalogować do konta Google i
ci wtedy będzie ten kalendarz
w stanie zarządzać.
Okej.
Dobrze, to były aplikacje,
a teraz będzie krótko o
rozrywce. Mamy jedną wiadomość, która wydaje mi się dosyć ciekawą dla tych, którzy
lubią gry, a mianowicie jest to informacja, że gra 1428 Shadows Over Silesia
dostała pierwsze swoje rozszerzenie DLC. Rozszerzenie, które nie jest jakieś
przesadnie drogie, bo kosztuje około 40 zł, no 37 zł, także nawet niecałe 40.
I jest to rozszerzenie, które przeniesie nas w taki klasyczny turniej rycerski.
Może dla tych, którzy jeszcze nie grali, tak warto by zacząć, bo gra nie jest nowa, bo pojawiła się dwa albo trzy lata temu.
Jest to gra z perspektywy pierwszej osoby, gra przygodowa, w której przenosimy się na Śląsk w czasach średniowiecznych.
średniowiecznych, tutaj mamy też takie elementy fantastyki, wcielamy się w młodego rycerza
Hynka i musimy rozwiązać, no jesteśmy wysłani na misję i w międzyczasie okazuje się, że tam
różne rzeczy się dzieją, jakieś demony się zaczynają pojawiać, no i musimy zorientować się
co się dzieje, jednocześnie wchodząc w taki naprawdę klasyczny, taki klimat właśnie
średniowieczny, który jeszcze dziś ma elementy typowe dla naszego regionu,
tutaj właśnie dla Śląska między innymi.
Gra jest o tyle też fajna, że jest dla nas bardzo fajnie dostępna.
Oferuje nam mnóstwo pomocy dźwiękowej, które pozwalają nam po tym świecie
nawigować.
Mam audiodeskrypcję.
Mamy nawet czytane napisy, bo mimo to, że gra nie ma polskiej wersji językowej,
to ma wersję małodźwiękowej zarówno po angielsku i po czesku.
Ma napisy, nie wiem czy doczekała się spolszczenia w sumie, wiem, że takie plany były, natomiast nawet jeśli nie, no to możemy sobie napisy wysłać do naszego czytnika ekranu, a tam już ewentualnie tłumaczem sobie je przetłumaczyć, gdyby ktoś chciał w ten sposób sobie grać, no i właśnie mamy audiodeskrypcję, mamy dźwięki i w ten sposób możemy sobie tą grę, czy to z poziomu klawiatury i myszki, czy to z poziomu kontrolera przechodzić.
No i to rozszerzenie przynosi nas do, już tutaj sobie wyświetlę opis tego DLC tak zwanego, przynosi nas w świat turnieji rycerskich, będziemy mieli okazję wziąć udział w różnych pojedynkach, w walce wręcz, w łucznictwie.
i wykonać tajemniczą misję, która nad zawsze odmieni życie Henka, czyli naszego głównego bohatera.
Co ciekawe, mamy taką informację, że oprócz tego pojedynku w tej grze będziemy mieli cykl dnia i nocy,
gdzie będziemy mogli wykonywać różne zadania w ciągu dnia i w nocy.
W ciągu dnia odbywają się właśnie te turnieje, o których wspominałem
I tutaj też warto dodać, że różne snomołóczki w grze zostały zaktualizowane o informację jak te nowe zadania wykonywać właśnie używając dźwięków asesujących.
Więc czy byśmy chcieli właśnie wypróbować łucznictwo na przykład czy pojedynki, gdzie jeździmy przeciwko innemu rycerzowi na koniu, używając kopii i próbujemy się zwalić.
no to jest to wszystko udostępnione dla nas też na stronie blind.shadows1428.com
Mamy też samouczki audio, one też zostały zaktualizowane o instrukcje jak te nowe minigry, tak sobie to nazwijmy, przechodzić.
No to wszystko jest dla nas dostępne, więc w ciągu dnia mamy te wszystkie turnieje, a w ciągu nocy no mamy misję, którą sobie możemy przechodzić.
Ale gdybyśmy chcieli po prostu chłonąć ten klimat, no to możemy sobie np. zająć się innymi zadaniami.
Możemy sobie dziś stanąć przy ognisku, posłuchać występów błaznów, występów trubadurów i w ten sposób poczuć ten klimat takiego prawdziwego średniowiecza.
Także jeśli sama gra wam się podobała, no to warto sobie to rozszerzenie kupić.
Dla tych, którzy tej gry jeszcze nie mają, to jest też dostępny cały zestaw, w którym możemy kupić samą grę, jak i właśnie to nowe DLC oraz ścieżkę dźwiękową całej gry, także jeśli Wam się muzyka z tej gry podobała też, no to można sobie ją też za kilkanaście złotych jeszcze kupić, żeby dostać pliki mp3, które później możemy sobie gdzieś skopiować do jakiegoś utwarzacza, który nam się podoba, albo na jakieś urządzenie i słuchać wtedy.
Kiedy chcemy.
No i teraz na koniec trochę jeszcze porozmawiamy o sprzęcie brailowskim.
Jakoś dzisiaj dużo informacji o monitorach brailowskich w tefloprzeglądzie.
No i mamy tutaj kolejną informację o sprzęcie, który chyba jest nam jednak troszeczkę bardziej bliski,
a mianowicie monitor Mantis Q40.
Doczeka się bardzo ciekawej aktualizacji.
Ona jeszcze nie jest dostępna publicznie,
ale firma Humanware jak i American Printing House for the Blind zapowiadają, że powinna być publicznie udostępniona w grudniu
i ta aktualizacja przynosi takie trzy duże nowości.
Taką pierwszą sztandarową nowością jest to, że urządzenie będzie w stanie nam otwarzać dźwięk.
Pytanie jak? No bo Mantis akurat głośnika nie ma.
Znaczy ma taki głośniczek, który może z siebie wydawać jakieś proste piski, ale do takiego typowego głośnika do otwarzania dźwięku,
czy można bardziej takiej karty dźwiękowej, to tak nazwijmy, no tego urządzenie nie posiadało, ale jednak osoby prosiły, żeby jakoś dodać do niego
syntezę mowy, może jakieś odważanie plików audio, jakichś audiobooków, no i postanowiono jakoś ten problem rozwiązać.
Jak? No bardzo prosto, przez to, że urządzenie ma już przecież bluetooth, no bo jest monitorem brainowskim.
no to właśnie ten bluetooth został użyty do tego, żeby ten dźwięk wysyłać.
Także możemy połączyć się, czy to z głośnikiem, czy słuchawkami bluetooth.
Możemy mieć kilka takich urządzeń sparowanych i kiedy sobie takie głośniki lub słuchawki sparujemy,
no to urządzenie będzie w stanie do nas mówić.
Będzie mówić do nas głosami acapella, można sobie będzie te głosy ściągać dowolnie,
te które nam się podobają, będą wszystkie te najnowsze głosy dostępne,
więc dla polskiego to będzie Ania i Piotr.
Będzie możliwość wybrania innego głosu
dla czytania interfejsu, a innego głosu do czytania treści.
Będzie można mieć kilka profili językowych,
znaczy opcje profili już były i pozwalały nam wcześniej
tablice brajlowskie sobie ustawić,
no a teraz też dodatkowo będziemy mogli sobie
głosy też przypisać do tych profili.
Oprócz czytania samego tekstu będziemy mogli też
odtwarzać pliki audio, które skopiujemy sobie na kartę SD.
Na ten moment urządzenie nie ma wsparcia dla bibliotek online, które oferują
audiobooki, ale to będzie dodane w kolejnych aktualizacjach, bo to będzie
wersja 2.4, a ma się później też pojawić wersja 2.5, no i wtedy gdzieś
bezpośrednie pobieranie audiobooków z urządzenia będzie właśnie wtedy
dodane. Także jeśli ktoś by chciał sobie tak audiobooków czy książek jakichś
tekstowych posłuchać na tym urządzeniu, no to będzie do tego możliwość, ale to nie
jedyna nowość, która się pojawiła, no bo a propos obsługi książek i to jest też
coś, co mnie bardzo cieszy, bo Mantis dołącza do urządzeń, które będą w stanie
otwierać nam pliki EPUB.
Do tej pory tego nie było w stanie zrobić, a właściwie jedyne urządzenie, które to mogło zrobić to były odtwarzacze od Himsa czy np. linka Bailymotion.
No a teraz Mantis też będzie w stanie przynajmniej pliki bez zabezpieczeń EPUB w wersji 2 bez problemu otworzyć.
Czyli wszystkie książki, które gdzieś można w Polsce np. kupić, które nie mają zabezpieczeń no to bez problemu będziemy mogli na tym urządzeniu sobie otworzyć.
i wtedy, czy to przeczytać na linijce, czy odsłuchać właśnie syntezą używając
słuchawek bluetooth, będziemy mogli to sobie zrobić.
A gdybyśmy chcieli sobie jakąś informację sprawdzić podczas czytania, może
znajdziemy jakieś słowo, którego nie rozumiemy, chcemy coś przeczytać więcej,
no to też zostanie dodana funkcja sprawdzania informacji w źródłach
internetowych. Konkretnie będzie to Wikipedia, będzie to Wikisłownik oraz
Teraz będzie to dla osób, które chciałyby coś sprawdzać bez połączenia z internetem, słownik WordNet.
WordNet, nie wiem, czy chyba jest wyłącznie słownik w języku angielskim, więc tutaj nam będzie może mniej przydatny,
no ale Wikipedia i Wikisłownik jak najbardziej są dostępne też po polsku, także jeśli będziecie chcieli sobie coś sprawdzić, no to będzie można.
Także aktualizacja powinna niebawem się pojawić, gdzieś w grudniu.
Kiedy to się stanie, jeśli dostaniemy o tym informację,
no to oczywiście damy Wam znać, kiedy już będzie można tą aktualizację sobie ściągnąć.
I na koniec w podcasie DoubleTap pojawił się wywiad z Adin Kushnirem z Orbit Research i AccessMind,
z którym jeden z prowadzących miał okazję porozmawiać chyba podczas SiteVillage,
więc to też stało się jakieś czas temu, dopiero teraz ten podcast się pojawił.
Natomiast była rozmowa o kilku produktach, nad którymi Orbit pracuje.
Oczywiście głównym tematem dyskusji była Optima.
Dla tych, którzy nie pamiętają, Optima to jest laptop z wbudowaną linijką relaksową,
której jest pozbawione ekranu.
Jest to generalnie laptop od firmy Framework, czyli taki modularny laptop, gdzie
możemy sobie osobno dziś procesor, pamięć, dysk dostosować do indywidualnych potrzeb.
Więc to takie urządzenie, które jak najbardziej może nam długo służyć.
No i dzięki temu, że to jest taki tradycyjny laptop, no to tam możemy mieć trzy
Windowsa, no raczej pewnie większość ludzi będzie Windowsa na tym instalować, ale
jakby ktoś chciał Linuxa to pewnie też by się dało.
No i robić z nim wszystko co możemy zrobić na takim tradycyjnym komputerze.
A przez to, że na świecie jest niespokojnie, w Izraelu rozpoczęły się kolejne konflikty,
no to prace nad tym urządzeniem się opóźniły.
Natomiast Adi zapewniał, że nie zostały zarzucone.
Wszystko trwa dalej. Już finalny wygląd urządzenia został zaakceptowany.
Urządzenie będzie posiadało przyciski takie duże do przewijania na kciuki,
tak zwane takie przyciski, które są dziś znane z urządzeń właśnie HumanWare.
Będzie też miało z lewej i prawej strony monitora trzy przyciski.
Wcześniej to był taki pasek, który można było albo nacisnąć do góry lub do dołu,
a teraz to zostało zmienione na trzy osobne przyciski,
więc będzie też je można przypisać do różnych funkcji.
Oczywiście mamy klawiaturę, klawiaturę z takimi wklęsłymi klawiszami,
bardzo ponoć są one wygodne no i zostało też wyposażone w czytnik linii papilarnych
także jeśli ktoś nie będzie chciał wejść swojego hasła kodu pin jakiegoś wpisywać
a wole się logować po prostu ociskiem palca no to używając Optimy będziemy tak
mogli się do systemu Windows czy na przykład też później do różnych kont w
internecie przez ocisk palca logować.
Wiemy też że trwają nadal prace nad oprogramowaniem które z tym urządzeniem
ma przyjść, bo urządzenie też będzie wyposażone w różne rzeczy, np.
jakiś program do czytania książek, do pisania dokumentów brailowskich, do
czytania książek w plikach tekstowych i parę gdzieś innych tego typu narzędzi.
Co ciekawe, też dowiedzieliśmy się, że te narzędzia prawdopodobnie będą wydane
też dla wszystkich. Także jakby ktoś chciał sobie te orbitowskie, to tak
nazwijmy, oprogramowanie z Optimy zainstalować na dowolnym komputerze,
No to będzie do tego możliwość, zresztą już w jakimś stopniu to się stało, bo nie zapominajmy, najnowsza wersja z syntezatora Vocalizer dla NVIDIA, która jest sprzedawana przez firmę Tyfloteknia, to jest tak naprawdę oprogramowanie, które właśnie zostało zaprojektowane przez firmę AccessMine, czyli firmę Adiego, która nad Optimum pracuje, no a przez to, że Code Factory w międzyczasie się z tego wycofało, no to właśnie ich oprogramowanie jest tak naprawdę jedynym sposobem tak na ten moment
w jaki ktoś na Windowsie, przynajmniej do MVDA, może sobie
vocalizera dokupić.
No i dowiedzieliśmy się, że
bardzo prawdopodobnie pozostałe oprogramowanie, które powstanie
głównie na potrzeby Optimy, pewnie też będzie dostępne
w sprzedaży dla każdego, kto chciałby je przetestować, no i to prawdopodobnie
stanie się zanim jeszcze sam sprzęt się pojawi.
No także będziemy musieli poczekać.
Nie została podana jakakolwiek data.
tutaj też Adi nie chciał gdzieś konkretnych dat podawać, ale zapewniał, że sprzęt jak najbardziej jest, rozwija się i za jakiś czas powinniśmy go gdzieś na rynku zobaczyć.
No i to wszystko jeśli chodzi odrobinę nim z mojej strony przynajmniej.
A tymczasem odbieramy telefon, bo mamy na linii słuchacza. Kogo witamy po drugiej stronie?
Dobry wieczór, kłania się Paweł Podolski z tej strony.
Dobry wieczór Paweł.
Zacząłem poruszyć tutaj wątek Blanchella, dobrze mówię, i logowania do IPC-O.
A właściwie do aplikacji ICO.
Tak, o tą aplikację mi właśnie chodzi.
Wydaje mi się, bo tam jakby to logowanie jest dwuetapowe.
Pierwsza rzecz to jest taka, że aplikacja w pewnym momencie prosi nas o przyznanie uprawnienia do odczytu wiadomości.
Tam jest taki komunikat, że aplikacja wyśle SMS-a do banku, jest ten SMS pokazany, jak on wygląda, jego treść.
Tak, tam jest taki długi kod, długi ciąg znaków.
Tak, nie zmienia, nic nie modyfikować i po wysłaniu tego SMS-a dostajemy odpowiedź
i aplikacja sobie ją powinna wyciągnąć z naszej księgi odbiorczej.
I kolejnym etapem uwierzytelniania jest przepisanie kodu,
gdzie system bankowy do nas dzwoni, podawany jest nam chyba sześciocyfrowy kod
i musimy go w odpowiednie pole edycyjne w aplikacji wprowadzić.
Natomiast z tego opisu Pawle, który podał Łukasz, to wygląda na to, że już jest problem na tym pierwszym etapie,
bo on chce wysyłać, bo on co ciekawe chce wysyłać ten kod, ale przez Whatsappa.
No i wyrzuca informację, skądinąd pewnie słuszną, że ten numer nie jest zarejestrowany w systemie Whatsapp,
No bo raczej nie podejrzewam banku PKO, żeby numer do autoryzacji aplikacji rejestrowali w Whatsappie, bo niby po co?
No tak, no ale to teraz wychodzi na to, że to jest błąd po stronie producenta Blanchera.
No prawdopodobnie, prawdopodobnie tak.
A ten telefon, czy on ma w ogóle jakieś czy tydzień niepapilarnych albo coś takiego, bo wydaje mi się, że kupując takie urządzenie sobie strasznie zamykamy zupełnie świat nowoczesnych technologii.
Co znaczy wiesz co, też mam takie obawy i też mam w ogóle obawy jeżeli chodzi o instalowanie tam jakichś takich aplikacji, które rzeczywiście są dla nas szczególnie ważne i zawierają jakieś dane poufne.
Pytanie czy my w ogóle będziemy w stanie to zrobić, no bo tu na przykład aplikacja bankowa, już z nią pojawiają się jakieś problemy.
Ciekawe jak na przykład z aplikacjami innych banków, to trzeba by było potestować, no ale właśnie, no tu też podniosłeś słuszny wątek i myślę, że o tym więcej sobie będziemy też rozmawiać przy okazji audycji poświęconej najnowszej wersji tego telefonu, bo ja też mam pewne obawy, właśnie związane chociażby z bezpieczeństwem.
Oczywiście. Natomiast inna rzecz, Pawle, czy grupa docelowa tego telefonu się tym przejmuje? To jest takie moje pytanie.
To znaczy powiem tak, znam osoby na przykład, które muszą używać tego typu urządzeń ze względu na choroby.
Na przykład mam znajomego, który ma cukrzycę w stopniu bardzo zaawansowanym
i nie jest w stanie czytać palcami już brajla, ani telefony mu nie reagują za bardzo na dotyk.
I tutaj takiej kapsy z tym Lancel jakoś coś mu daje.
Może zadzwonić, ma jakiś kontakt ze światem.
Natomiast to urządzenie kosztuje tak dużą ilość pieniędzy,
że powinno dopuszczać nam korzystanie
ze wszystkich możliwości, które nam oferuje technologia.
Przecież aplikacja bankowa to jest dzisiaj podstawa.
Płacimy telefonem wszędzie.
że mamy dostęp do swojego konta i to, że ktoś ma, nie wiemy, z osobą starszą i nakłoni się go na zakup takiego urządzenia,
no to przecież ja znam osoby, które mimo swojego zaawansowanego wieku, właśnie dzięki smartfonowi tak naprawdę,
Poznały, co to jest Allegro, poznały banki, nie wiem, Koleo, wszystkie te aplikacje, które na co dzień nam w jakiś sposób pomagają czy ułatwiają różne rzeczy, prawda?
To się zgadza. No, wiesz…
Ja powiem, Pawle, tak, wiesz co, mi się wydaje, że osoba o sobie nierówna i im bardziej obserwuję różnych ludzi, których znam, to powiem ci, że dochodzę do wniosku, że
osoby niewidome dzielą się na różne grupy pod kątem tego, jaką umiejętność samodzielnego życia wybiły sobie do perfekcji.
Tak odnoszę wrażenie. I tak jak są ludzie, którzy na przykład genialnie orientują się w przestrzeni, żaden zakręt, żadne przejście dla pieszych nie jest dla nich, wiesz, tajemnicą.
Są, wysłyszą sobie jak samochód jedzie, mają pięknie rozwinięty zmysł przeszkód i słyszą budynki i tak dalej.
Są osoby, które świetnie gdzieś tam gotują. Są osoby, które łączą te niektóre umiejętności i są też ludzie, którzy tak bardzo się w technologiach wyszkolili.
I nie mówię tu o programistach czy ludziach, którzy grzebią nocami po jakichś serwerach i administrują,
Tylko ludzie, którzy na tyle opanowali nawigację po stronach internetowych,
jakiegoś tam ofisa, nawigację po smartfonach, że wręcz sobie nie wyobrażają,
że można zejść na jakiś poziom niżej i używać jakiegoś tam ograniczonego,
starego Blind Shella, który ma niby apki, ale nie ma tego, tamtego.
A z drugiej strony są na przykład osoby, i ja znam takich ludzi, młodych w moim wieku,
którzy, słuchaj, doktoraty piszą, więc też ogarnięci ludzie,
którzy z technologii komputerowej korzystają bez problemu, tutaj skanują jakieś materiały,
transkrybują, przetwarzają, więc wykonują dość skomplikowane operacje, ale jednak
ten dotykowy smartfon po prostu im nie leży. I po prostu ta filozofia, co ja też trochę
rozumiem, tego, że każdy jeden interfejs, czyli strona główna iPhona, czyli typowa
aplikacja, nawet strona ustawień wygląda jak strona internetowa, że masz jakieś nagłówki,
przyciski, jakieś łącza, to tak bardzo do nich nie trafia,
że oni muszą mieć taki system, gdzie strzałka, opcja, strzałka, opcja, okej.
I to brzmi bardzo archaicznie, ale do nich trafia taki sposób przekazu.
I chyba im bardziej poznaję różnych ludzi, tym mniej jakoś to komuś wytykam,
bo ktoś znalazł coś, co mu działa, nie?
Nie neguję tego typu urządzeń, ani jakby nie umniejszam, że ktoś ma to jakoś sobie gorzej radzi, prawda?
Tylko mi chodzi o to, żeby te urządzenia mimo swojej prostoty, mimo takiego właśnie tradycyjnego interfejsu klawiaturowego,
no umożliwiały jakieś rozsądne minimum, czyli miały, nie wiem, czytki linii papilarnych, żeby można było jakąś chociaż apkę bankową zainstalować, czy coś uwiarygodnić przecież.
To znaczy, wiesz Pawle, problem jest w tym, że takie urządzenia tworzy się, mam wrażenie, dla konkretnej grupy użytkowników
I ja przynajmniej chcę wierzyć w to, że producent zrobił jakieś badania, rozeznanie rynku i określił, co tak naprawdę tym użytkownikom będzie potrzebne i na ile im będzie to potrzebne.
I teraz jeżeli masz jakiś produkt, to masz jakiegoś takiego standardowego, masz jakiś model takiego użytkownika, dla którego go tworzysz.
I wydaje mi się, że tu po prostu, no, producent wymyślił sobie to w taki, a nie inny sposób.
My się możemy oczywiście tu dyskutować i z tym zgadzać, z tym nie zgadzać.
Natomiast, no, prawda jest taka, że jeżeli ktoś, jeżeli dla kogoś Blind Shell to jest za mało
i ja myślę, że jak tu jesteśmy, to w większości będziemy w stanie powiedzieć, że dla nas to,
to to, co oferuje ten telefon, to jednak jest za mało, to mamy alternatywę i będą jacyś użytkownicy, którzy takim telefonem się zadowolą, którzy będą z niego zadowoleni, którym nie będzie przeszkadzać to, że on ma takie, a nie inne ograniczenia.
My co najwyżej po prostu możemy o tym powiedzieć, że jest tak, to na tym telefonie uda nam się zrobić, to tego na tym telefonie nie uda nam się zrobić.
Jeżeli ktoś powie, to nie jest potrzebne, ja tam będę się do banku logował na przykład przez…
Tak, żeby to jasne było po prostu powiedziane.
Do banku będę się na przykład logował przez stronę internetową, tak? No bo można.
Bo każdy bank ma stronę internetową, też możesz tam sobie sprawdzić różne rzeczy.
Więc jeżeli dla kogoś to nie jest problemem, okej, po prostu warto gdzieś taką informację puszczać w świat, co to może, czego to nie może, jakie są plusy, jakie są minusy.
Bez wątpienia będą tacy, dla których klawiatura, dla których prostota to będzie rzecz najważniejsza.
No bo tak naprawdę w przypadku tego ICO, jakby to uprawnienie aplikacji zostało przyznane do akcytus jakby skrzynki odbiorczej na telefonie z wiadomościami, to myślę, że ta aktywacja by właściwie przeszła.
Prawdopodobnie tak.
To jest pewnie coś, co da się w sofcie naprawić.
Ja też myślę, że tworzenie telefonów komórkowych, w ogóle smartfonów, nie wiem jak wyglądają w Europie warunki, troszeczkę ostatnio miałem na Mastodonie dyskusji z amerykańską społecznością niewidomych,
no i w Stanach na pewno jest obłożone tak potężnymi i tak kosztownymi regulacjami, że to jest bardzo niewdzięczny rynek, gdzie można tworzyć urządzenia.
Jakby stworzenie odtwarzacza mp3 takiego typu jakiś Orion czy coś, no to to wrzucasz jakiegoś Linuxa,
którego jakoś spersonalizujesz do czegoś w rodzaju Raspberry Pi,
co połączysz z odpowiednią obudową i przyciskami.
I powiedzmy, no bardzo uprościłem ten proces, ale no mniej więcej jest to jakoś tam wykonalne.
Natomiast telefon to już kwestia jakiejś homologacji, certyfikacji.
Certyfikacji FCC, zawsze w instrukcji jest taka informacja, tak, że to ma jakieś tam konkretne certyfikaty dane urządzenie.
I bez tego nie jesteś w stanie tego wprowadzić na konkretne rynki.
Tak. I teraz pytanie, czy gdyby zacząć dodawać do tego urządzenia jeszcze właśnie,
jak kosztowne jest stworzenie urządzenia na tak niszowy rynek, tak?
Jak osoby, osoby niewidome, które potrzebują telefonu z przyciskami i jeszcze z opcjami smart.
Więc to już jest jakiś bardzo, bardzo konkretny wycinek społeczeństwa.
Więc tutaj pytanie, tworzenie takiego urządzenia, na ile jest kosztowne?
I teraz, o ile te koszty są teraz podbijane, jak zaczniemy tam dobudowywać konkretne elementy,
że jakiś większy RAM, jakaś większa pamięć,
jakiś czytnik linii, a może Face ID, a może coś jeszcze.
NFC, też nie ma NFC na przykład.
I tu się zaczynam właśnie obawiać,
że to się zacznie rozbijać o koszty potem produkcji telefonu
z takimi, a nie innymi komponentami.
A warto pamiętać, że producent prędzej czy później
to chce zwyczajnie po prostu na tym zarobić.
No, producent nie działa charytatywnie.
On ma co miesiąc jakieś tam koszty, które musi ponieść
i nawet jest w stanie zainwestować początkowo jakieś tam pieniądze, czy za pomocą kredytów, czy jakichś innych instrumentów finansowych,
ale no każdy, kto prowadzi własną działalność, to ma pewne koszty stałe, ale też oprócz tych kosztów stałych, to najzwyczajniej w świecie robimy coś po to, żeby zarobić.
Po prostu mamy takiego klienta i już.
Tylko chodzi mi o to, żeby odbiorca końcowy takiego urządzenia, który zdecyduje się na zakup, miał jastą informację, co może zrobić, czego nie może i albo się godzi na ograniczenia, nie wiem, wynikające z powodu braku czytnika, linii papilarnych czy NFC, no albo nie, no.
Także to…
I tu pełna zgoda.
Tak, z naszej strony możemy tylko zaoferować tyflopodcast.
No powiem wam, że ja znam właśnie mnóstwo osób,
którym nawet jak wspomnę o tyflopodcastie,
to jakby to powiedzieć,
ktoś woli, żeby nie wiem, przyjść do niego,
rozwiązać mu jakiś tam problem,
coś mu tam wytłumaczyć, niż np. słuchać podcastu dwugodzinnego na jakiś tam powiedzmy temat.
A ja sobie np. przegląd cenię za to, że mam tam chwilę, popatrzę sobie, co było po rozdziałach,
jak nie mam czasu słuchać i przesłucham to, co mnie interesuje, prawda?
więc każdy ma to inny odbiór.
Tak, tutaj też w gestii myślę osób szkolących i doradzających w tych sprzętach, żeby rzetelnie doradzać i informować o wadach i zaletach.
Tak, to jest właśnie podstawa przy takim właśnie sprzęcie, żeby ktoś miał tą świadomość, czego nie może, a co może.
No dobrze Pawle, czy coś jeszcze?
Tak, trzymajcie się ciepło, wszystkiego dobrego życzę, do widzenia.
Dzięki i do usłyszenia. Miłego wieczoru.
Czy jeszcze jakieś tam są znaki www?
Być może ten link trzeba by było wkleić i zobaczyć, jeszcze spróbować.
www.tyflopodcast.net
Nie no tyflopodcast.net nawet bez www powinno zadziałać.
I ten kanał RSS no to tak jak mówiłem
feed po prostu f e e d to jest adres
kanału RSS czyli tyflopodcast.net ukośnik f e e d
Franek, Ewa, Ewa, Damian.
I przechodzimy chyba do rubryczki naszej technikalia.
I zaczniemy sobie od newsa a propos Whatsappa,
który wdraża transkrypcję wiadomości głosowych do tekstu, na tekst.
Zanim będą to asty, no to od razu powiem, w języku polskim to nie działa. Chciałem powiedzieć, że na razie, ale no nie wiadomo. Na razie nie działa w każdym razie, ale czy będzie to działo, to nie wiadomo. Mówią oczywiście, że usługa będzie poszerzana o kolejne języki, natomiast czy i kiedy będzie język polski, no to nie wiadomo.
Na pewno obecnie obsługiwane języki to jest angielski, portugalski, hiszpański i rosyjski.
I teraz tak, żeby to wyłączyć, bo to jest domyślnie wyłączone, trzeba, przynajmniej tak jest to napisane na stronie, ja jeszcze nie próbowałem tego włączać,
Trzeba wejść w ustawienia, potem chaty, transkrypcję wiadomości głosowych i tam można to włączyć.
A żeby stranskrybować konkretną wiadomość, trzeba zrobić dwuklik z przytrzymaniem na wiadomości, następnie kliknąć przycisk transkrybuj.
Co ważne, transkrypcja zdokonywania na urządzeniu, więc to w ogóle jakby nie wychodzi do serwerów whatsappowych, więc być może stąd jest tutaj ta kwestia języków, no bo
wcześniej myślałem, że to dzieje się po stronie serwerów, no i że tam jest jakiś, nie wiem, pewnie whisper, czy coś.
Tylko w takiej sytuacji to szyfrowanie kompletnie by nie działało.
To prawda, więc robi się na urządzeniu, więc
podejrzewam, że muszą tam taki algorytm wymyślić, tego rozpoznawania, który będzie
działał na smartfonie, a że WhatsApp jest popularny również
w krajach trochę słabiej rozwiniętych, gdzie
niekoniecznie sprzedają się same tylko flagowce, ale
To są pewnie w dużej części telefony raczej ze średniej lub tańszej półki, więc o odpowiednio słabszych parametrach.
No i tam też raczej musi ta transkrypcja chodzić.
No i tyle chyba na temat tej transkrypcji. Ja tego jeszcze nie testowałem,
Jak mówiłem, bo też nie jestem zapisany do żadnej grupy, która byłaby w tych językach, które są w tej wiadomości, znaczy w tym artykule, które są tam wspomniane, w związku z tym czekam na język polski, ale być może spróbuję się zapisać na jakąś anglojęzyczną grupę, bo są takie dla niewidomych i zobaczymy.
być może będzie to rzeczywiście jakoś działało i ostatni news to jest chyba taki news, który jak mi się wydaje jest w ogóle bardzo świeży, dotyczy firmy NVIDIA, która zaprezentowała model sztucznej inteligencji do generowania i manipulowania dźwiękiem.
Tak, to jest świeżynka news, który znalazłem dzisiaj rano, który prezentuje bardziej w formie ciekawostki, dlatego że to jest kolejny przykład, kiedy jakaś duża firma wprowadza nowy model związany ze sztuczną inteligencją, który na ten moment publicznie dostępny nie jest, ale pochwalili się tym, co potrafi, także myślę, że możemy takim lekkim tematem
dzisiejszy
dzisiejszy flop przegląd zakończyć.
Akurat tak się fajnie złożyło, że
ten temat się pojawił na końcu.
Więc o co w tym
modelu chodzi?
Model nazywa się Fugato,
pisane przez 2T.
Będzie link do tej strony z
przykładami w komentarzu.
Jest to model, który
został wytrenowany na
ponad 50 tysiącach
godzin nagrań
w taki sposób, aby mógł też z tymi nagraniami różne rzeczy skojarzyć.
Jakie rzeczy? No na przykład kiedy występują jakieś nuty, jaki to może dawać nastrój,
żeby potrafił rozróżnić jak ktoś mówi coś uśmiechnięte, a kiedy mówi coś smutne,
żeby był w stanie rozumieć czynności i przedmioty, które jakieś dźwięki wydają.
A to służy mniej więcej temu, żeby kiedy mu podamy jakieś polecenie, żeby stworzył jakiś dźwięk no to był w stanie nam taki dźwięk stworzyć lub nawet zrobić coś co w świecie realnym tak nazwijmy jest po prostu fizycznie niemożliwe.
I tak na przykład możemy go sobie zastosować do tworzenia muzyki takiej typowo, do na przykład tworzenia wokali do jakiejś muzyki.
Tutaj pierwszy przykład mam nadzieję, że będzie słychać, jak nie to dajcie mi znać.
Podłożyli mu taką muzyczkę.
Słychać?
Jak najbardziej.
Okej. No i poprosili żeby nagrał jakiś rap.
Rozumiem, że tekst był podłożony.
Tutaj była też informacja, że akurat ten przykład dziś był troszkę zmontowany.
Mniej więcej to jest taki typowy, takie zastosowanie.
Oczywiście mamy modele typu Suno i Udio, które pozwalają nam tego typu rzeczy robić, to nawet lepiej.
natomiast on jest jeszcze ciekawszy w sytuacjach, kiedy robimy z nim
bardziej niekonwencjonalne rzeczy i na przykład tutaj mamy
przykłady text to audio, czyli zamiana tekstu na różne dźwięki i
i tak na przykład na polecenie, żeby wygenerował muzykę elektroniczną,
w której mamy szczekające psy i miauczące koty
mniej więcej gdzieś do rytmu tej muzyki.
No i nawet mu to wyszło.
Banjo w deszczu.
No i tutaj jest podany dlaczego taki przykład,
no bo generalnie no gdzieś w nagraniach
takiego przykładu nie było,
więc on to musiał sam sobie stworzyć.
Jakieś takie nieśmiałe to banjo, ale jest powiedzmy.
Perkusja z tykającym zegarem i to jest też ciekawe.
Mimo to, że sam przykład może nie jest jakiś imponujący, natomiast możemy też temu
modelowi podawać istniejące dźwięki i prosić go, żeby on coś z tymi dźwiękami zrobił.
I tam był podany taki przykład, że możemy poprosić, żeby nam do brytmu, który np. w danym pliku już jest, dołożył nam jakieś dodatkowe dźwięki, czyli np. jakbyśmy mieli jakąś gotową właśnie melodię i chcieliśmy właśnie, żeby dodał nam dźwięk tykającego zegara, który jest dopasowany idealnie do brytmu, no to ten model będzie nam w stanie coś takiego zrobić.
Jakiś przemysłowy sprzęt w fabryce, krzyczący w agonii jak człowiek.
No wiadomo, sprzęty nie potrafią krzyczeć.
No ale…
Było takie polecenie.
No i coś takiego nam wyszło.
Stwórz maszynę do pisania, która siepcze każdą literę, którą ktoś wpisuje.
Słychać, że te dźwięki są faktycznie jakieś takie ciche.
Swoosh, taki pejzaż składający się z chórów tworzących takie skomplikowane melodie, ale te chóry to mają być jakieś wyjące syreny.
No i to się robi nawet ciekawie, no faktycznie to tak jakoś brzmi, no słychać, że to jest generowane sztucznie.
Mamy tutaj też takie przykłady, gdzie nie wychodziło mu tak dobrze, nie wszystko tutaj też tak wychodzi wydaje mi się fajnie, natomiast na przykład tutaj była prośba, żeby przeczytał tekst jakby to mówił szczekający pies.
Potrzebuję wiedzieć, kto pozwolił na wyjście psa!
na przykład
No próbuje
Podobne przykłady były
też, próby były
robione na przykład z
saksofonami
To jest czekający saksofon
Jakby ktoś chciał widzieć
Nie wiem, gwizdek lokomotywy
No tak
To jest miauczący saksofon
No ciekawe, o tutaj mamy wiolonczelę płaczącą, śmiejącą się jak dziecko, no tutaj w ogóle jakieś ciekawe rzeczy się dzieją, ten głos tak się zmienia chwilami, to faktycznie brzmi bardziej jak dziecko.
Mamy, tutaj mamy też takie kombinacje, na przykład jakaś perkusja i flety, tutaj jest bardziej taka akustyczna sztuka, tak to nazwali patacze, no generalnie może różne dźwięki tworzyć.
Ale na przykład, może był taki przykładowy plik mu podany, i tutaj było wykorzystane,
żeby ten głos sklonować i coś zaśpiewać jest też w stanie przyjąć melodię z pliku midi na przykład
tutaj był taki plik zapodany to był to był plik midi i został poproszony
żeby zaśpiewał z takim stylem operowym
Tutaj bardziej w stylu rockowym
A troszkę tutaj sobie wymyślił coś swojego
Tak, zmyślił
Też próbowali podawać konkretne słowa
Tutaj też sobie trochę pozmyślał
A tutaj poprosili żeby stworzył
jakiś taki znowu pejzaż dźwiękowy
jakby jakaś maszyna się budziła
jakieś mają być głębokie basy
to już mało już tej melodii słychać
no i tutaj mamy kolejne
przykłady konwersji
konwersji
na
może sobie to zatrzymamy
konwersji midi na audio
zdecydowamy ten przykład
może sobie wejdziemy
inną melodię
No i tego typu zadania ten model może generować, może nawet generować mowę ludzką, to też zresztą
słyszeliśmy, mimo to, że na mowie stricte trenowany nie był. Można te różne parametry konfigurować.
No i co ciekawe, tutaj chwalą się tym, i to też niestety nie było podane jako przykłady, ale teoretycznie
ten model może być w stanie na podstawie dźwięków, które my mu podamy, no to zresztą mieliśmy okazję widzieć, że on reaguje na to, co my mu podamy,
możemy go poprosić na przykład, żeby dany dźwięk, na przykład dany tekst był wypowiedziany weselej albo smutniej.
Jeśli mamy do czynienia z muzyką, to możemy poprosić, żeby na przykład jakiś instrument był zastąpiony innym instrumentem i on będzie w stanie coś takiego zrobić.
Może nawet zmienić tempo w sumie, kto wie czy by nie dało się czegoś takiego zrobić.
W zwiastunie wideo, bo też jest na stronie taki zwiastun wideo, był podany też przykład, gdzie ten modet był użyty do odizolowania wokalów z jakiegoś utworu.
To jest o tyle w ogóle ciekawe, że to można by wykorzystać do odizolowania innej rzeczy, niekoniecznie tylko wokali.
na przykład jak byśmy mieli jakieś nagranie na przykład tła jakiegoś, a my chcemy, żeby z tego były tylko odizolowane same dźwięki ptaków na przykład.
No to teoretycznie ten model byłby w stanie coś takiego nam stworzyć.
Także w tą stronę idą badania jeśli chodzi o sztuczną inteligencję i generowanie dźwięku i muzyki.
Na ten moment ten model nie jest nigdzie publicznie dostępny.
Czy kiedyś będzie? Nie wiem.
Trudno powiedzieć, bo też pewnie mogłoby się znaleźć jakieś złe zastosowania na tę technologię.
Natomiast przepuszczam, że NVIDIA nie jest jedyną firmą, która nad czymś takim pracuje.
Także jak widać, nie tylko obrazami człowiek żyje.
Powstaje dużo modeli, które tworzą obrazy.
ale jak też pokazujemy wam w Tyffel przeglądach powstawały już wcześniej modele,
które były w stanie na podstawie tekstu tworzyć dźwięki, tworzyć muzykę,
coverować muzykę, a nawet teraz równolegle trwają badania nad modelami,
które też będą w stanie coś z dźwiękiem, które my mu podamy, coś po prostu zrobić.
No i mamy jeszcze jeden telefon, tak już zupełnie na koniec naszego dzisiejszego programu.
Bartek jest z nami. Dobry wieczór.
Dobry wieczór, witajcie serdecznie.
Fajnie, że mi się udało do was dodzwonić,
no nieważne, że nawet na sam koniec,
ale dzwonię z pewnymi rewelacjami,
bynajmniej z jedną, na sam koniec audycji.
I bynajmniej ta rewelacja,
jako że już powiedziałem, że jest,
to jest dobra wiadomość,
a wiadomość dla użytkowników aplikacji ICO,
więc między innymi dla ciebie, Michale, również.
Bo wydaje mi się, że o tym nie mówiliście
ani tydzień temu, ani dwa tygodnie,
ani nawet trzy tygodnie temu, bo dzwoniłem tydzień temu na infolinie PKO z jedną sprawą
i m.in. wypytałem o tą sprawę i okazało się, że od 5 listopada w aplikacji ICO
już możemy odczytać sobie numer swojej karty.
O, to bardzo dobra wiadomość.
Bardzo dobra i jest jeszcze ciekawostka, de facto tego nie testowałem,
bo nie miałem jeszcze takiej potrzeby, a zaraz jeszcze powiem dlaczego.
Ten numer karty można skopiować, bo jest przycisk kopiuj, również dostępny na VoiceOvera.
A czy można inne dane też odczytać?
I teraz właśnie, Michale, jeszcze druga ciekawostka jest taka.
Jest numer CVV bądź CVC, zależy jak to jest odczytywane,
bo VoiceOver zarówno czyta nam i CVV, slash CVC bodajże,
ale co ciekawe, w aplikacji ICO ten numer co jakiś czas ulega zmianie.
Bo pokazuje nam datę ważności tego trzycyfrowego numeru
i bodajże, albo teraz nie pomnę, bo sprawdzałem to jakąś godzinę temu
i wypadło mi to z głowy, wybaczcie, albo on jest pod tym numerem, albo nad nim.
I tam jest podana ta data, to kiedy ten aktualnie wyświetlany numer jest ważny.
Aha, okej, no czyli możemy odczytać tak naprawdę z poziomu aplikacji ICO wszystkie dane dotyczące naszej karty.
Tak, tak, bo ta opcja weszła tu bodajże nie tylko dla nas, dla niewidomych użytkowników, ale również dla pozostałych użytkowników aplikacji ICO.
Tak jak wcześniej wspomniałem, od 5 listopada bodajże z ostatnią aktualizacją.
A to bardzo cieszy.
To jest bardzo dobra wiadomość, sama mi przyznacie tutaj, prawda?
Oczywiście, że tak, to ja jeszcze taką ciekawostkę wrzucę.
Co prawda to jest ciekawostka, właśnie i w takich kategoriach należy ją traktować,
ale PKO Bank Polski gdzieś tam miał jakieś posiedzenie zarządu swojego,
tam władze się zmieniły jakiś czas temu, no i też dotyczyło to spotkanie
prawdopodobnie jakichś tam planów związanych z marką Inteligo,
bo no ta marka miała być wygaszana.
Generalnie już pewne procesy nawet tam nastąpiły
i teraz to już w Inteligo nie da się założyć w ogóle konta.
Ja cały czas jeszcze mam i oczywiście korzystać z tego konta można.
Natomiast no jak były za poprzedniej władzy banku
plany, żeby tę markę całkowicie zlikwidować, to w tym momencie ponoć mają na to jakiś pomysł, zobaczymy co z tego będzie i w którą stronę to pójdzie, ale w każdym razie na razie jeszcze żadne decyzje wiążące nie zostały podjęte, to bodaj jakiś czas temu serwis cashless o tym pisał,
Także, no, dosyć myślę wiarygodne źródło. Mnie to osobiście bardzo cieszy, bo serwis Intelligo, przez to, że tam się bardzo mało dzieje, to od wielu, wielu lat jest naprawdę bardzo fajnym, takim przyjaznym serwisem, nawet jeżeli jakieś tam problemy dostępnościowe były, bo on ma też swoje za uszami, to jak się człowiek raz nauczy, jak z tym serwisem postępować, to w zasadzie tej wiedzy nie musi aktualizować, no, przez wiele, wiele lat.
A tak Michale, jeżeli właśnie a propos InteliGo, jeżeli mogę podpytać,
jakby to wyglądało, gdyby rzeczywiście to zostało całkowicie wygaszone,
co wtedy byś jako ty, klient, tego typu konta musiał zrobić?
Czy to z automatu by przeszło na PKO?
Prawdopodobnie zostałaby mi przedstawiona oferta migracji do PKO BP,
zresztą co jakiś czas pojawia mi się taka propozycja, żeby się tam zmigrować.
Tak, no bo skoro doszły ciebie takie informacje, no to tak naprawdę teraz wystarcza, musimy poczekać na rozwój wydarzeń.
Dokładnie, dokładnie.
Jak to się wszystko potoczy.
Dobrze, druga sprawa, z którą dzwonię, taka można powiedzieć ciekawostka, może nie z ostatniej chwili, ale z dzisiaj, ale to będzie wiadomość do użytkowników Androida i aplikacji mObywatel,
bo dzisiaj akurat mama, że tak powiem, tą ciekawostką
troszeczkę tutaj mnie zainteresowała,
bo wie, że ja z tej aplikacji korzystam,
ale się okazało, że niestety ta wiadomość niestety zła,
dotyczy tylko użytkowników Androida
i użytkowników Androida poniżej wersji 8.
Niestety z wersją M obywatela
bodajże 4.47 użytkownic Androida poniżej wersji 8 nie będą mogli już z tej aplikacji korzystać,
bo ta wersja Androida już z tej aplikacji powyżej 4.7 nie będzie wspierała.
Okej. No cóż, czyli na Blind Shellu będzie jeszcze działać, o ile ją się da zainstalować z tego sklepu Aurora.
Właśnie tutaj a propos Blentschela, bo tutaj ten temat troszeczkę można powiedzieć zdominował dzisiejszą audycję, bo słucham od początku.
I tutaj tak ten komentarz Łukasza mnie tak zastanawia, bo tutaj jeżeli dobrze odczytałem, on chciał zarejestrować aplikację i miał problem z wysłaniem tego SMS-a, tak?
Na to wyglądało.
Bo jego przekierowywało do…
Do Whatsappa.
od zapach, a jako, że jestem człowiekiem dociekliwym, bynajmniej za takiego siebie uważam, to zastanawia mnie taka jedna rzecz, czy on to robił z zamontowaną kartą SIM?
No, to jest ciekawe, nic Łukasz na ten temat nie pisał.
Bo ja właśnie nie wiem jak to jest w przypadku Blencha i też tak między słowami powiem, że żałuję, że nie mam do testów chociażby tego najnowszego Blencha, żeby na własnej skórze się przekonać, ale jedyne takie najbardziej rozsądne rozwiązanie, które mi przychodzi, no to to mogło być prawdopodobieństwo, że tam nie było karty SIM, dlatego wybrał formę alternatywną.
No chyba, że tak, ale to już musielibyśmy…
Takie strzelanie w ciemno, jak to się mówi, prawda?
Tak, to już musielibyśmy dostać jakąś informację zwrotną.
Spotykam się, żeby przekierowywał nas do Whatsappa.
Ja mam znowu inną teorię, mianowicie, bo w Androidzie mogą aplikacje się ustawiać
jako domyślne aplikacje do SMS-ów. A co jeśli ta blind chillowa aplikacja do wiadomości
została gdzieś tak zaprogramowana, że nie jest widziana przez system
jako aplikacja, która może wysyłać sms-y.
Bo tam coś było
nieprzetestowane.
Pozostaje się tylko
spekulować, skontaktować z producentem
bądź z dystrybutorem na początek.
Dokładnie.
No miejmy nadzieję Łukaszu, tutaj też
do ciebie apel, że w
najbliższym czasie dasz wiadomość, czy
się udało to rozwiązać,
bo sam jestem ciekaw, jak
w ogóle tak na przykład można by było korzystać
na Blind Shell z aplikacji, tylko
to chociażby jeżeli odczytać po cyfrze, no nie wiem, chociażby stan konta to wtedy, nie wiem, czy orientujecie się, czy będzie, znaczy czy jest możliwość poruszania się po znakach czy słowach, żeby to wybrać?
Zdaje się, że jest, ale no ja tego telefonu…
Właśnie też tego nie miałem w ręku i nie jestem w stanie tego stwierdzić.
A mam małe doświadczenia z Blanchellem i mówiąc szczerze to była pierwsza wersja,
więc tam od tego czasu mogło bardzo dużo ulec zmianie.
Bartku, na pewno będzie audycja poświęcona nowemu Blanchellowi.
To znaczy nie, w piątek będziemy tu podsumowywać konferencję,
na której był Paweł i tam widział też Blanchella,
więc na pewno o tym Blanchello trochę sobie porozmawiamy,
ale będzie jeszcze osobna audycja.
A mniej więcej wiecie kiedy może, bo z ciekawości chciałbym też wysłuchać.
Na pewno będzie w grudniu i na pewno będziemy publikować zapowiedzi.
Okej, w porządku. To jeszcze takie małe pytanie praktycznie do wszystkich
a propos tego wybierania jakby z telefonu metodą T9 tych kontaktów.
Bo ja właśnie próbowałem i de facto te przyciski są zanetykietowane,
ale zastanawia mnie właśnie np. jak wpisać literę N, bo ja np. próbowałem na M,
więc wklepałem raz w szóstkę było piknięcie, drugi raz w szóstkę było drugie piknięcie
i na górze wyświetliło mi dwa niezetykietowane przyciski.
A np. jakbym chciał wklepać N, to jak to wtedy zrobić?
Nie, po prostu wpisujesz jedną w szóstkę i on będzie wszystkich kontaktów szukał,
które od tych liter się zaczynają.
Czyli powiedzmy, nie wiem, gdybyś miał w kontaktach Maćka i Natalię,
Jakbyś pisał po prostu 6-2, no to on ci zarówno znajdzie Maćka i Natalię, tak?
No bo pod szóstką jest zarówno M i N.
I ewentualnie, gdyby nie znalazł tego, czego szukasz, to po prostu dopisujesz kolejne cyfry.
Okej, no bo właśnie tutaj zastanawiam się, bo wklepałem dwa razy tą szóstkę, czyli jakby według mnie to by było albo M-M, albo N.
A to bardziej byłoby na przykład, nie wiem, jak M-O, jak Monika na przykład, tak?
Tak. Rzeczywiście mamy na pewno jeden kontakt na MO, ale to drugie to by mogło być ukreskowane wtedy, bo też pan muł przy początkiem?
Może, albo mógłby być przycisk, teraz nie pamiętam, tam jest chyba przycisk, żeby wyświetlić więcej wyników, bo on tam generalnie tylko wyświetla dwa wyniki i tam później jest przycisk, żeby tą listę rozwinąć i jest obok też przycisk utwórz nowy kontakt,
Dlatego teraz nie pamiętam czy on się wyświetlał jako niezatykiadowany przycisk czy nie.
No to teraz tak naprawdę też trzeba nam czekać na iOS 18.2.
Mówiliście, że to gdzieś będzie w grudniu, tak? Dokładnie nie wiemy.
A z moich takich nieoficjalnych informacji wynika, bo z Apple’em też się kontaktowałem,
że może to nagrywanie będzie dostępne od kwietnia, ale to jest wielka niewiadoma.
No jest to tyle prawdopodobne, że wtedy ma w Europie się Apple Intelligence pojawić.
Także jest to możliwe.
Pożyjemy, zobaczymy jak to mówią, w porządku, dobrze, że dziękuję wtedy, że mogłem się podzielić na początek tą, myślę, że dobrą informacją, zarówno tą złą, dziękuję, że mogłem się jeszcze na sam koniec tutaj wstrzelić i wypowiedzieć na te tematy, które tutaj mogłem, życzę wam spokojnej nocy i do usłyszenia, miejmy nadzieję za tydzień, trzymajcie się serdecznie, pozdrawiam was serdecznie, hej.
Nie widzę tutaj ani w wiadomościach. Jeszcze zobaczę tutaj w ostatniej chwili. Nie, nie widzę żadnych wiadomości. Czy jeszcze ktoś znalazł jakieś ciekawe informacje z was np. w trakcie audycji?
I chyba nie. W związku z powyższym, no czas zakończyć tyfloprzegląd.
Dzisiaj stosunkowo krótko jak na tyfloprzegląd, nawet 3 godzin nie było.
No ale tak to, tak to się zdarza. Także to ja jestem Tomek Bilecki, a dzisiaj wraz ze mną Paweł Masarczyk i Piotrek Machacz.
Dobrej nocy. Do usłyszenia.
Do usłyszenia.
No i do usłyszenia, miejmy nadzieję, za tydzień.
Był to Tyflo Podcast.
Pierwszy polski podcast
dla niewidomych i słabowidzących.
Program współfinansowany
ze środków Państwowego Funduszu Rehabilitacji
Osób Niepełnosprawnych.

Wszystkie nagrania publikowane w serwisie www.tyflopodcast.net są dostępne na licencji CreativeCommons - Uznanie autorstwa 3.0 Polska.
Oznacza to, iż nagrania te można publikować bądź rozpowszechniać w całości lub we fragmentach na dowolnym nośniku oraz tworzyć na jego podstawie utwory Zależne, pod jedynym warunkiem podania autora oraz wyraźnego oznaczenia sposobu i zakresu modyfikacji.
Przekaż nam swoje 1,5% podatku 1,5 procent Logo FIRR Logo PFRON Logo Tyfloswiat.pl

Czym jest Tyflopodcast?

Tyflopodcast to zbiór instrukcji oraz poradników dla niewidomych lub słabowidzących użytkowników komputerów o zróżnicowanej wiedzy technicznej.

Prezentowane na tej stronie pomoce dźwiękowe wyjaśniają zarówno podstawowe problemy, jak metody ułatwienia sobie pracy poprzez korzystanie z dobrodziejstw nowoczesnych technologii. Oprócz tego, Tyflopodcast prezentuje nowinki ze świata tyfloinformatyki w formie dźwiękowych prezentacji nowoczesnych urządzeń i programów. Wiele z nich dopiero znajduje sobie miejsce na polskim rynku.

Zapraszamy do słuchania przygotowywanych przez nas audycji i życzymy dobrego odbioru!

Tematyka

Pozycjonowanie i optymalizacja stron internetowych