TyfloPrzegląd Odcinek nr 232 (wersja tekstowa)
Pobierz napisy w formacie SRT
Pobierz napisy w formacie VTT
Fundacja Instytut Rozwoju Regionalnego prezentuje Tyflo Podcast.
Dzień dobry, dzień dobry i witamy w końcu online można powiedzieć i miejmy nadzieję, że dzisiaj bez żadnych problemów technicznych.
Tak słuchajcie, ostatnio to ja od razu mogę powiedzieć w trakcie montażu jednego łącza internetowego u sąsiadów przerwali kabel od mojego łącza.
Także tak się nieładnie zachowali, ale już działa, już jest okej i miejmy nadzieję, że rzeczywiście tak zostanie.
Uroki montowania internetu. Tak jest.
Dzisiaj wraz ze mną w studiu Paweł Masarczyk, Wiotrek Machacz, Michał Dziwisz, a ja jestem Tomek Bilecki.
No i zapraszamy jak zwykle na Tyflo Przegląd, na 232. audycję Tyflo Przeglądu.
I zaczynamy jak zwykle od tego co dzisiaj, o czym dzisiaj będziemy mówić, a o tym powiem jak już zwykle zresztą Michał.
Sezator Vocalizer dla Androida zniknął ze sklepu Play.
Vimware Fusion i Rockstation stają się darmowe dla użytku domowego.
Nowa seria minikart w Hearthstone.
Nowe wersje Forzy Motorsport i Transport World Simulator.
Tegoroczni wystawcy na Side City.
Jakie nowości w dostępności pojawią się na urządzeniach Apple?
OpenAI zaprezentowało kolejną wersję modelu GPT.
Czy czeka nas kolejna rewolucja?
Pojawiła się pierwsza wersja beta NVIDIA 2024.2.
Nie chcesz podawać znajomym hasła do Wi-Fi?
Użyj kodu QR.
CLOUD – konkurencja dla czata GPT w końcu dostępny w Europie.
Sztuczna inteligencja trafi do każdego produktu Google.
Za zakupy w sklepie Play zapłacimy blikiem. Wszystko to, a pewnie jeszcze więcej już za chwilę. Zaczynamy!
Tyfo Przegląd jest audycją na żywo.
O, a co to się stało?
Nie wiadomo.
Nie wiadomo.
Myślałem, że internet znowu…
Nie, nie. Po prostu nasza technika nie polubiła Pauliny tym razem, ale to w takim razie skoro tego dźwięku z jakiegoś powodu nie ma,
Naprawdę nie wiem jak to się wydarzyło, to no po prostu dodam 663-883-600 to jest telefon do nas, można dzwonić, można się nagrywać na Whatsappie, bardzo serdecznie zapraszamy, można za pomocą zwykłego, tradycyjnego telefonu dzwonić, można też po prostu na przykład na Facetime’ie do nas się próbować wdzwonić.
Jest kontakt.tyflopodcast.net, jest YouTube, jest Facebook, to dla tych, którzy wolą do nas pisać, niż z nami rozmawiać.
Wszystkie drogi kontaktu już czynne, no i na Was czekają.
A gdyby ktoś czekał na wrażenia z nawigacji, to już za chwilkę, no bo Paweł tutaj testował, tak, MyWay Pro.
Tak, ale zanim przejdę do tego, to jeszcze chciałbym się odnieść do jednego z komentarzy.
który pojawił się pod poprzednią audycją, pewną kwestię krótko wyjaśnić i też troszkę
przeprosić, bo istotnie tutaj pewna kwestia leży po mojej stronie.
Komentarz się pojawił od jednego z naszych słuchaczy, czy to jakaś premedytacja
wydawnicza, że te przeglądy wychodzą zawsze tydzień po emisji oryginalnej audycji.
Otóż nie premedytacja, po prostu ja muszę znaleźć wolną chwilę, żeby dodać znaczniki
i czasu, i żebyście mieli rozdziały w tych odcinkach. No i tu się przyznaję, istotnie
czasem ten czas gdzieś znajdował się bardzo późno, też w kropie różnych tu aktywności,
gdzieś między moją aktualną pracą, a różnymi aktywnościami w czasie wolnym,
próbuję ten czas zawsze jakoś znaleźć, a chwilkę muszę, no bo poprzewijać ten plik,
poznajdować te miejsca, jeszcze też się upewnić, że was ujmę w tych rozdziałach,
Wasze wypowiedzi, które tą naszą audycję zawsze jakoś tam wzbogacają,
bo też zasługujecie na swoje własne miejsce, moim zdaniem, w znacznikach,
no i dlatego też staram się Was ująć, czasami grupowo, ale jednak.
No i tak to wyglądało, jak wyglądało.
Postaram się robić to szybciej, tak żeby ten odcinek do Was docierał,
no miejmy nadzieję, tak szybko jak to gdzieś możliwe.
Oczywiście też konkurencja jest duża, bo materiałów jest dużo i to też staramy się tak to prowadzić, żeby np.
jeden Tyflo Przegląd nie leżał nad drugim, albo żeby jeżeli wpadła jakaś nowa audycja w międzyczasie, żeby też
miała swoje pięć minut na tej głównej stronie jako ten pierwszy element.
Na topie.
Tak jest.
Natomiast postaram się robić to gdzieś tam sprawnie i natomiast minimum do weekendu trzeba będzie poczekać, bo ja też
Mam swoją pracę poza Tyflo Podcastem i też czasami mam ochotę sobie odpocząć.
Także spróbujemy się poprawić. To tak jeśli chodzi o techniczną kwestię.
To wiesz co Pawle, to może zanim przejdziesz do kwestii nawigacji,
to odbierzmy telefon, bo już pierwszy telefon mamy.
Ktoś do nas się dodzwonił. A kto?
No pierwszy telefon oczywiście, gdyby nie słyszała inteligencja
to oczywiście to być może by nie ja, byłem przy sprawie,
to postaram się bardzo szybko, żeby nie absorbować
tutaj czasu. Pierwsza sprawa, chciałem pojawomyć Państwa,
nie wiem czy Państwo wiecie, że wyszedł logic pro jednostka.
Może jeszcze ja przedstawię się z imienia, bo może nie wszyscy
słuchacze rozpoznają głos. Tak, oczywiście zapomniałem,
Zobaczymy to z tej strony Marcin Sierżęga z Wingiem 2.
3 razy, Przepraszam za jaką taką pomyłkę, wyszedł logic
progresja 11, 11 a skoro tutaj mowa o logicu pro 11 to
szósta inteligencja wchodzi do logika.
Po pierwsze, pojawiły się tak zwane 3 nowości, funkcja
ten klasyczny player zyskał jakby trzy opcje.
Była już dziesięć lat temu pojawiała się funkcja Drummer w Jigu,
gdzie można było sobie tam jakoś wyzwalać,
jakby jak to powiedzieć, śluby perkusyjne, coś takiego,
no też można jakoś z tymi dźwiękami perkusyjnymi,
czy jakimiś tam rezmami manipulować, z jakimiś warancjami i tak dalej,
Ale pojawiły się także keyboard player i chyba bass player, podobno do drummera.
Można dzielić tak naprawdę, oddzielać słuszeń inteligentnie, wokale od instrumentów.
Robić tak zwane stemsy, jak z aplikacji Moises, bodajże, czy Stems, jak ona się nazywała.
Tomek Bielecki orientuje się, o co chodzi.
No i przede wszystkim jeszcze jedna rzecz, taka wtyczka pojawiła się, ona się nazywa Puma Glow.
Tak, jeszcze dodam, że te stemmy, o których mówisz, to teraz jest dość sporo takich serwisów.
Jest na przykład Moises, jest Demux, to można u siebie zainstalować na komputerze.
W niektórych programach DJ-skich to już jest.
Ale czekajcie, to co to są właściwie te stemsy?
Czy to jest to, że można podzielić utwór na jakieś jakby
konkretne części składowe?
Tak, na bębny,
bębny, to tak, z reguły to są bębny, bas, wokal i reszta.
Niektóre, niektóre algorytmy, na przykład Lai,
mają jeszcze tam gitarę, fortepian,
coś tam jeszcze.
W Logiku chyba są te cztery.
W Logiku chyba są cztery, tak.
Tak.
U mnie pojawiła się jeszcze jakaś styczka do kręcenia dźwięków na bazie sztucznej inteligencji
oparcią o klasyczne instrumenty i tak dalej, żeby można było sobie tam dobrudzać, dobarwiać, ocieplać to brzmienie.
Nie wiem jak to się robi, ale jestem trochę taki mało, średnio początkujący, że tak powiem, w dawach.
Kładę nadzieję na sztuczną inteligencję i wspomnieć o tworzeniu muzyki.
Natomiast jest jedna rzecz, która okazuje, że problem, ponieważ Logica korzystam tak naprawdę 2-3 lata i mogę śmiało odpowiedzieć, że poruszanie się po brzmieniach jest trochę takie koślawie moim zdaniem, dlatego że do niektórych brzmieni mogę się dostać, bo są poruszania się po patchach, kanyli, slipsach itd.
Ale jednak teraz jest takie coś jak uploops.
I w tych uploopsach
tak naprawdę słyszę tych dźwięków zdecydowanie więcej i one się gdzieś w głębi znajdują.
Logic ma to do siebie, ma taki minus, że żeby się dostać do takim…
Ja mam takie wrażenie, nie wiem czy ja jestem tym wdzielony,
że żeby dostać się do pewnych dźwięków, trzeba pokombinować trochę
albo czemuś z tipsami, albo z czymś innym, o czym ja nie wiem.
I tutaj się kłania pomysł Sonka Gileckiego przyjmiał wątpię,
bo Tomek z którejś tablicy powiedział, że Ludzikiem się nie bawił.
Niestety tutaj nie będzie tu nic w tej kwestii działać.
Bo chodzi o to, że niektórych brzmienia odtwarzam na klawiaturze,
a teraz będę niektórych brzmień musiał być jakoś dziwnie dostać,
bardzo w głąb programu
i po tym co ja słyszę w Apple Loops
orientuję się, że słyszę w dźwięku więcej
i naprawdę są fajne sample
Ale twój problem jest taki, że
jak masz ten Apple Loops załadowany
to nie możesz grać z nimi na klawiaturze, tak?
Tak, znaczy
To brzmienie, które mi zaproponowano
nie mogę go znaleźć poruszając się po patchach
albo w ogóle po dźwiękach
To jest podstawowa różnica
między takimi patchami Apple Loops. Apple Loops to są po prostu sample, to są zapętlone jakieś klipy, które możesz w swojej…
Tak, i w ogóle to można chyba nawet w przeglądarce po prostu, w plikach znaleźć jakąś…
Tak, dokładnie, one nie są w żaden sposób zaszyfrowane, chyba nawet Reaper potrafi przeczytywać też ich metadane, jakby ktoś chciał w Reaperze z nich korzystać, więc…
Tak, chodzi mi o to, żeby znaleźć właśnie sample midi, brzmienie midi, które słysząc Apple Loopsa nie mogę znaleźć…
No to nie zawsze się da.
No da się.
To zależy od rodziny.
Logic jest w ogóle takim trochę dziwnym programem.
Niby dostępny w ogóle dla obywateli,
a tak naprawdę z tą dostępnością
troszkę mi się zależało kuleje.
Takie mam wrażenie, że…
No to jest skomplikowana
aplikacja. Na pewno
ja osobiście z Logica nie korzystam,
ale znam ludzi, którzy korzystają.
To jest na pewno skomplikowana aplikacja.
Warto zastanowić się
nad potworzeniem sobie hotspotów do miejsc, które korzystasz często.
Wiem, że Andrzej Lewis chwalił sobie hotspoty voice’owe, że pozwalają nam zapisać dziesięć takich miejsc,
do których możemy dostać się jednym skrótem.
To jest aplikacja, której trzeba się na pewno nauczyć.
Ludzie też stworzyli skrypty, taki skrypt, który przypominam sobie, nazywał się Logic Keys.
To chyba był skrypt do programu Keyboard Maestro, który tam też…
Właśnie wymyśliłem jakiś błąd, a drodzy nie przychodzą, tutaj nie mam absolutnego czasu.
Mam dwie sprawy, jeszcze jedna.
Chciałem państwu opowiadomić, że do Elevena wskracza tekst na muzykę.
I to słyszałem osobiście parę demówek na YouTubie i to już trąbią kilku dni o tym,
że się pojawi na Elevenapcie generator muzyki, ale jeszcze Elevenapcie jakby nie wypuścił
tego, tak jak w przypadku sound efektów, kwestionariusza tutaj
do wypełnienia, żeby dostać się do takich właśnie
do zastosowania music generatora od Eleven Labs, ale zapowiada się
bardzo realistycznie i muszę powiedzieć, że te utwory, które opublikował Eleven Labs
na swoim kanale na YouTubie, brzmią bardzo, bardzo i to bardzo realistycznie.
Jest obiecujące, tak naprawdę brzmi to obiecująco.
Także proszę się przygotować na to, że będzie rewolucja w ile wylacze.
Będzie dodatkowa rzecz.
Jeżeli będziecie chcieli kiedyś sobie na to przyczekać,
jeżeli będziecie chcieli mieć jakieś kredyty do skorzystania itd.,
będziecie mieli fundusze, to radzę sobie przyczekać itd.
Jeżeli będzie taka rzecz, no to…
Jeżeli ktoś wie oczywiście o tym, że się tak pojawi, no to zapraszam do dzielenia się tymi opiniami i tak dalej.
Wiecie coś o tym, że ma się pojawić muzyka na E-Level Up’cie? Czy jeszcze nikt was nie słyszał o tym?
Że ma się pojawić, to ja już słyszałem, natomiast żadnej konkretnej daty to jeszcze nie ogłoszono.
Po prostu trzeba czekać.
Trzeba czekać i tyle. Ja informuję o tym, że to ma się pojawić.
A teraz, któryś z drugiej, chyba poprzedniej, jeszcze poprzedniej audycji,
mówiliście o aplikacji udio.com,
z której ja też mam przyjemność sobie tam pokorzystać od jakiegoś czasu.
Oczywiście jak się zarejestrowałem na stronie udio.com, to musiałem półtora dnia czekać,
Znaczy cały dzień od wieczora do popołudnia następnego dnia trzeba oczywiście na weryfikacji konta.
No i korzystam z tego audio.
No jakby można powiedzieć, że ta jakość tej muzyki jest jaka jest,
ale muszę powiedzieć, że to odróżnia ją sumą.
Niestety nie mamy możliwości takiej, żeby zrobić dwu czy trzy minutowego klipu,
w jednym tym, w jednym wygenerowaniu, czy jednym z dwóch wygenerowań,
tylko on właśnie robi te utwory tak od końca, od środka,
tak jakby to UGIO robi te aranżacje.
A z plusem tego UGIO jest fakt,
że bardzo dobrze sprawdza się muzyce, której ja się obracam ostatnio.
Właściwie dobrze zaczyna się sprawdzać
I muszę powiedzieć, że zaczyna się naprawdę działać, jeśli chodzi o sztuczną inteligencję.
Mówię tu o muzyce hard dance, hardstyle, niekiedy hardcore, niekiedy wczesne brzmienia tego typu muzyki od 2003,
któregoś tam roku chyba w początku tego wieku lub w końcu lat 90-tych do dzisiaj.
Zaczyna się naprawdę dziać, jeśli chodzi o Udo.
Ale mam wrażenie, że czasem on sobie coś dopowiada,
kiedy ja wpisuję jakiś tekst, piosenki i niby śpiewa po polsku,
a tak naprawdę wychodzi mi niby jakiś słowiański akcent.
I to jest minus tego udziału.
No cóż, no to po prostu trzeba obserwować, porównywać sobie te różne modele, które są.
No i pewnie jedne będą lepsze do pewnych gatunków muzycznych, inne do jeszcze jakichś tam.
Odnoszę wrażenie, że mam małą bazę tych uforów, tych gatunków wytrenowaną,
ale, już powoli no od dnia na dzień mam tam parę
zasubskrybowany kanał na YouTubie także tak, że jakby
można powiedzieć jestem troszkę troszkę na bieżąco
z tymi z tymi tematami ale co na tych kanałach Marcinie
jest czy to jest tak, że ludzie wrzucają tam po prostu
swoją twórczość, jakieś aktualizacje testują
wczesne aktualizacje, kiedy mogą, prezentują co tam
jakiejś możliwości wpisywania promptów, nie promptów i tak dalej, jak to oni robią.
Gatunki pokazują muzyki, jak wpisywać, jak jakieś sztuczki robić przy wpisywaniu promptów.
Rzeczy takie robią, które powinny się
człowiekowi przyda przy generowaniu takiej muzyki, ale to są oficjalne kanały.
Myślę, że to są kanały, które
które jak ludzie prezentują, w ogóle opowiadają o tym,
to myślę, że po pierwsze robią to profesjonalnie, a nie kiedy na ludzie.
Można powiedzieć.
Dobrze. Nie będę zaabsorbował czasu.
Myślę, że przekazałem wszystkie informacje.
Macie 100 kolejnych telefonów.
Tyle tematów, dużo tematów do omówienia,
także jak będę coś miał do przekazania,
może w następnej audycji będzie coś ciekawego,
to po prostu zadzwonię i z chęcią porozmawiamy.
Okej, dzięki Marcinie za telefon, miłego wieczoru.
Miłego wieczoru, dobranoc, do usłyszenia.
Do usłyszenia. No to Pawle, co z tą nawigacją?
A, no z nawigacją jest dość ciekawie, bo
jest, chyba to jeden z ciekawszych programów,
które ostatnio widziałem na iPhona, jak chodzi o nawigację.
Taki, który najbardziej mi przypomina DotWalkera.
Przy czym warto wspomnieć, że zanim się jeszcze podekscytujemy, że wielu rzeczy tam brakuje, więc to na pewno nie jest odkrycie stulecia, aplikacja, która bije na głowę wszystkie inne, no i tysiąc peanów można by bić, ale no nie trzeba jeszcze.
Zwłaszcza, że aplikacja od gdzieś ponad roku nie ma aktualizacji, a o czym ja w zasadzie mówię?
Ano mówię o aplikacji My Way Pro, aplikacja, która wcale taka nowa nie jest, aplikacja w ogóle produkcji szwajcarskiej i co ciekawe z podgidy szwajcarskiego Związku Niewidomych, bo wyobraźcie sobie, że szwajcarski Związek Niewidomych, jeden z, bo to nie jest jedna organizacja tego typu w Szwajcarii, ta o której ja mówię, tworzy swoje własne aplikacje i to jest fenomen jak dla mnie, bo tego typu organizacje nie kojarzyły mi się jakoś z produkcją własnego oprogramowania.
a jednak w Szwajcarii jest trochę inaczej i tam jest cały oddział, powiedzmy, zajmujący się technologiami, z jednej strony oczywiście jakąś tam pewnie ich ewaluacją, ocenianiem, testowaniem, co by się nam przydało, a co mniej, no ale też rozwojem i tworzeniem własnych jakichś aplikacji.
No i efektem tego jest MyWay Pro, który już jakąś dobrą dekadę temu pojawił się na iPhonie jako MyWay Classic, czy też po prostu MyWay.
No i to była taka nawigacja, którą na początku trochę gdzieś tam testowano, ona miała być takim nowym lodestone, coś tam miało się dziać, no i potem jakoś słuchaniej zaginął.
No a w międzyczasie okazuje się, że powstała wersja PRO, czyli następczyni tej klasycznej, którą znaliśmy z roku 2012-2013.
No i co aplikacja nam oferuje?
Aplikacja, zacznijmy od tego, jest płatna, ale wiadomości są też dobre, bo zarówno jest opcja wykupienia licencji wieczystej, która kosztuje jakoś ponad 100 zł, jak i możliwość wykupienia abonamentu, który kosztuje 5 zł na miesiąc, więc nie jest to jakaś wielka kwota, jeżeli ktoś uzna, że aplikacja jest użyteczna.
Moim zdaniem warto ją mieć i czekać na rozwój wydarzeń, no bo co mam?
Ja mogę pokrótce zademonstrować, jak to działa.
Środa, 11 maja, dwa powiadomienia, YouTube, testek, wejście ekranowej, Leapory, igry, Myłaj Pro.
Otwieram Myłaj, orientacja pionowa, Myłaj Pro, pełen monitoring, off, przycisk.
Też na prośbę słuchaczy troszeczkę ustawiłem sobie Zosię, już nie ispika.
Przepraszam was za tego ispika, wiem, że to jest taki
Smak i gust, który to trzeba nabyć. Jedni lubią drudzy, drudzy nie lubią, Zosia jest taka bardziej neutralna i uniwersalna i przede wszystkim też bardziej osłuchana, więc zostańmy przy niej.
Otwiera mi, co ja tu mam. Mam POI Monitoring Off, czyli mogę śledzić i dostawać w czasie rzeczywistym informacje o tym, jakie mijam punkty.
No i jestem na stronie głównej, tutaj mogę sobie sprawdzić mój adres, i tu mogę wybrać czy chcę podać najbliższe punkty POI w formie listy, w formie mapy, to bardziej dla osób słabowidzących.
I tu już zaczynają się punkty, czyli to jest w nawigacji pierwsza zaleta, że po pierwsze my możemy od razu załadować aplikację i nie wchodząc w żadne jakieś kategorie, zakładka punkty, zakładka to od razu widzimy najbliższy punkt.
To jest super jak chcemy podejrzeć tak na szybko co jest dookoła nas.
I tu mamy na przykład ATM, czyli aplikacja jest po angielsku, czyli bankomat.
Bankomat jest niedaleko mnie, istotnie, w sklepie SZPAR zresztą, który też już został zapowiedziany.
No i mamy tak całą listę, listę, listę, listę, ciągnie się lista punktów.
No i na przykład podajemy też kategorię, czyli jest szpar, że jest to supermarket, no i to się też odświeża na bieżąco ta lista, czyli w miarę jak ja zmieniam nie wiem, kierunek, albo się oddalam, przybliżam, to ta lista się też automatycznie filtruje i aktualizuje.
No nie ma tu przeglądania według kategorii, takie że mogę wejść sobie w same bankomaty albo same supermarkety, no to jest pierwszy problem, ale za to jest pewna inna przydatna funkcja, którą miała GRMapa w ogóle, żeby było ciekawiej i nie ma tego żadna mobilna nawigacja, a mają właśnie MyWay Pro.
Przykładowo wejdę sobie w…
To jest skrzyżowanie ulic.
Dwóch.
Ja sobie w to wejdę.
I co my tu mamy?
Tu możemy nawigować, jasna sprawa.
Informacje, że jest to skrzyżowanie.
No i tu nic nie ma, ale pomyliłem z czym innym, ale to może inny punkt.
Przykładowo mamy tutaj fryzjera, tu jest adres, godziny do otwarcia, no i informacje, że w poniedziałek zamknięte, wtorek do soboty, ósma do dziewiętnastej zdaje się, dziewiąta do osiemnastej, zgadza się.
No i tyle. To by nie było nic zasadniczo wyjątkowego, no bo Todd Walker na przykład już pokazywał takie informacje, ale na przykład
mamy przejście dla pieszych, mamy światła na przejściu dla pieszych. No i wchodzimy tu,
Czy rozsinki trafią w nawigacjach? Czy rozsinki trafią w sygnałach?
Wibracje? Tak.
Dźwięk? Tak.
Przejścia na przejściu? Tak.
Wódka? Tak.
Rozumiem, ale domyślam się, że…
To też pytanie, skąd biorą te informacje.
Z OpenStreetMap.
Nie no, okej, tylko jakby czasami OpenStreetMap pozyskuje te informacje jakoś hurtowo,
a czasami po prostu ktoś je dodaje, no bo trzeba pamiętać, że OpenStreetMap jest darmowy
i każdy tam może dodać, w związku z czym możliwe, że ktoś tam dodał info
i tam wpisał, że no jest chyba wibracja przycisku non, nie widzi, więc chyba nie ma.
Chyba, że to jest tak zinterpretowane, że dla osób widzących przycisku, bo zazwyczaj osoby widzące też muszą nacisnąć przycisk.
Może to jest takie panel dotykowe i być może on mógł…
Tak, i tego nie ma.
Przycisku jako takiego nie ma.
Nie ma, ale dla niewidomych przycisk od dołu jakby skrzyneczki jest, który służy do tego, żeby włączyć to udźwiękowienie jakby, że te światła mają piszczeć szybciej jak będzie zielone i wibrować.
To trzeba włączyć ręcznie i do tego jest przycisk.
Czy jest wysepka?
No nie ma.
Tak, bardzo zaznaczone.
I to tyle.
Co to jest?
No to są tagi OSM.
I gier mapa te tagi pokazywała.
W tych tagach, no tam się znajdują najprzeróżniejsze, dziwne informacje,
które czasem się mogą nam przydać, czasem mniej.
Tak, na przykład ilość pięter w budynku, jakieś ograniczenia szybkości.
Natomiast fajnie, że to pokazuje, dlatego że tam chyba w ogóle
można sobie czasami wpisywać różne rzeczy w tagach, jakieś własne.
własne, w związku z tym bardzo fajnie, że ta aplikacja ma, bo jakkolwiek nie musi ich umieć
interpretować, ale wystarczy, że po prostu w gier mapie dojdzie jakiś nowy standard,
coś tam będzie uzupełniane, to nie musi aplikacja aż tego wspierać, nie musi prosić
autora, żeby coś tam, tylko po prostu mamy i komu to potrzebne, no to potrzebne,
komu niepotrzebne, no to jakby nie musi czytać, tak?
Dokładnie. Ja już tam nawet widziałem kiedyś, pamiętam, że sprawdzałem chyba
przystanek kiedyś tramwajowy, czy były nawet tory tramwajowe zaznaczone na mapie
gdzieś tam na Śląsku i oni podawali na przykład tam napięcie tej linii trakcyjnej.
Takie dane.
No proszę. No tak, no dla małpników pewnie czy coś.
Tak, na ogół nam się mogą nie przydać, ale jak ktoś bardzo lubi komunikację miejską
i się nią pasjonuje, no to może się do takich informacji gdzieś tam dokopać.
Poza tym nigdy nie wiadomo, co się okaże, na przykład, że, nie wiem,
mamy jakieś tramwaje udźwiękowione, ale ktoś powie,
no bo one mogą pracować tylko z tym napięciem.
Dobra, tu widzę, że jest inny, więc tu nawet nie ma co,
na przykład, liczyć na takie rzeczy.
Nie wiem, no tak wymyślam, tak?
No, tak.
Masa takich rzeczy może być, które po prostu niby nie mają znaczenia,
ale gdzieś tam nagle się okaże, że jednak się przyda.
Jak to mówią, od przybytku głowa nie boli i tu się to sprawdza po prostu.
Dokładnie, więc to jest właśnie jedna z takich funkcji.
No co my jeszcze możemy? Możemy wyznaczyć nawigację do…
W ogóle możemy projektować swoje trasy z punktów
i importować, zdaje się, nawet z plików GPX.
Ja o tym wspominałem przy okazji mojego raportu ze Szwajcarii,
jak byłem tam gdzieś chyba dobre dwa miesiące temu prawie,
prawie dwa miesiące temu.
że tam jest możliwość pobrania tras wędrówkowych po Szwajcarii.
Ta opcja nie chciała działać, mi się ta aplikacja po prostu na tych trasach wykrzaczyła.
Natomiast zdaje się, że pliki GPX można tu importować.
No i oczywiście można nawigować do dowolnego punktu wedle wskazówek nawigacyjnych.
No i ja spróbuję taką nawigację sobie tu wytyczyć.
Nawigację.
Przecisk.
Przecisk.
Start. Przecisk.
Mogę od razu uruchomić.
Oczywiście ja mogę też
przejść sobie na zakładkę navigation,
tam wybrać nawigacja według adresu
od do
i wypełnić dwa pola. Mogę wpisać
adres początkowy, adres końcowy
i on mi przekalkuluje
trasę i pokaże dokładnie to samo
okno, które mam teraz.
Chrome App Center to Emsger. Distancja 157 metrów.
Tak, czyli od punktu startowego do końcowego. Ile tam mamy odległości.
GPS got atsuracji 6 metrów.
Dokładność GPS-u.
Zaznaczone. List, przycisk, map, przycisk, cockpit, przycisk.
I mogę sobie tutaj zaprezentować jakby te moje poszczególne zakręty na trasie w formie listy, mapy lub tak zwanego kokpitu,
czyli kokpit to jest taki moment, w którym on pokazuje tylko aktualną wskazówkę i są przyciski poprzedni, następny.
Zobaczmy na razie jak to wygląda, jak jest lista.
DISTANCJA TO TARGET 114 METR NAKOŁÓWEK
Okej, i co tu mamy?
P1 12 METRAT 7 ZLOT SKRÓZ POCZNIJ NA WRACH KASY
O, nawet po polsku wygenerował mi nazwy punktów, wykrył, że tutaj po polsku.
Czyli 12 metrów stąd mam rozpocząć na tej ulicy, z której startuję.
To jest P1, czyli punkt pierwszy.
P2, 45 m, a do 10 w locku, skręć w prawo, w nim wzrost trasy.
Tak.
P3, 114 m, a do 12 w locku, przybycie do celu.
No. No i na przykład coś takiego mam.
To ciekawie brzmi, nazwy angielskie, komunikaty polskie, skręć w prawo, a metry i kierunki w angielsku.
Tak, ale to chyba…
Znaczy, my jesteśmy przyzwyczajeni, bo
Toad Walker jest przetłumaczony, czy Seeing Assistant Move jest przetłumaczony,
ale jak pobiera te wskazówki z API zewnętrznego,
no to kieruje się językiem urządzenia, nie?
Nie no, oczywiście, tylko chodzi mi o to, że jakby mieszkasz w takim miejscu,
że tu trzy języki się jakby spotykają się.
Tak, nazwy ulic są po niemiecku, to też prawda, no.
A jak w kokpicie mapy nie będę nawet pokazywał, bo to tu dla nas nic nie ma ciekawego, ale kokpit.
Aha, no i mamy pokazane tylko takie najważniejsze, czyli aktualne, nie ma listy całej wszystkich może zakrętów, tylko jest obecny punkt i następny punkt, tutaj, taki wypisany tekstowo. No i tu mamy przyciski.
Ale da się gdzieś obejrzeć w ogóle trasę w całości?
No przed chwilą wam pokazywałem, te trzy punkty, które były, to była całość trasy, bo to niedaleko, to jest tam 110 metrów ode mnie, przejście dla pieszych.
Można sortować, jeżeli oczywiście mamy tutaj punkty.
No właśnie, no i można by dodawać do ulubionych te trasy i eksportować, gdyby to była trasa zrobiona z normalnych punktów, a nie wygenerowana tak.
No więc to tak wygląda. Mamy też zakładkę nawigacja.
to są moje trasy, które sobie stworzyłem sam, to są te trasy, które można pobrać z internetu, czyli na ten moment też szwajcarskie trasy wędrówkowe, a tu nawigacja od adresu, zabierz mnie do domu, nawiguj do adresu i tyle.
No czego aplikacja nie ma? Na pewno aplikacja nie ma typowego określenia punktów, czyli nie można sobie stworzyć bazy, jak na przykład w Seeing Assistant mówię.
Można za to, ja tu już tą aplikację może wyłączę, bo nic więcej pokazywał nie będę. Można za to stworzyć trasę i na tej trasie dodawać punkty.
Czy można tą trasę robić jakoś tak, żeby ona była po prostu zbiorem punktów, a nie ciągiem łączącym jeden punkt z drugim?
Nie wiem, ale wątpię szczerze mówiąc. No i aplikacja również nie ma łatwego wyszukiwania punktów, czyli jak teraz nam na przykład pokażę na głównym ekranie 5 tysięcy tych punktów,
no to nie ma też żadnej opcji ani jak te punkty przefiltrować, ani też znaleźć punkt, który jest gdzieś tam daleko od nas przez wyszukiwarkę. Nie ma po prostu takiej opcji.
Nie ma też w symulacji tras. Coś, co można zrobić, no to oczywiście można, szukując nawigację do adresu,
wyszukać sobie konkretny punkt, wpisując w pole do, zamiast konkretnego adresu, no to jakąś tam nazwę,
jakiś sklep, jakiś tam, no sklep, ostatnio szukałem jednego supermarketu, jak się wpisze, to on też nam to znajdzie,
więc tu jakby nie ma problemu, nie musimy znać dokładnych adresów, miejsc, żeby rozpocząć do nich nawigację,
ale nie da się tak znaleźć punktu, gdzieś go tam dorzucić do trasy, zasymulować i tak dalej.
Także jest to w tej kwestii dość uproszczone, natomiast słyszę takie głosy czasem jak pokazujemy różne,
dość skomplikowane aplikacje, zwłaszcza nawigacyjne, a nie mogłoby być coś takie proste.
Przecież widzący mają tak prosto, że wyciągają telefon, otwierają tam Google Mapy,
wpiszą sobie jakiś tam cel, kliknął nawiguj i działa.
No to My Way Pro to chyba jest dość blisko tego konceptu.
Taka druga obok Lazario, wydaje mi się.
Tak, przy czym właśnie te wskazówki nawigacyjne są takie dla mnie bardziej zrozumiałe
i bardziej przypominają właśnie czy dodd walkera, czy ceiling assistanta,
że ja po nich umiem trafiać. Ja wiem, co on ode mnie chce.
No i fakt, na trasie dosyć prostej konstrukcyjnie znalazłem to, czego szukałem.
I on mi te instrukcje podawał, zawsze na czas, zawsze tam jakieś dawał powiadomienia, że się już zbliżam.
Mogę też ustawić co ile sekund on ma mnie informować o tym, gdzie aktualnie jestem, jak tam aktualnie jestem ustawiony.
No także jest z czego wybierać i fajnie, że to na iPhona jest taka aplikacja, bo Android ma tych aplikacji, mam wrażenie, trochę więcej albo trochę takich więcej sprawdzonych,
albo i do Dworker i jak ktoś lubi i się przyzwyczaił do Seeing Assistant Move’a, to też jest całkiem fajnie.
No Lazario wiadomo, tam parę jeszcze jakichś innych, no a na iOS jakoś tak zawsze jest coś jest, ale coś jest, ale brakuje czegoś, coś jest, ale nie ma tamtego.
No i w ten sposób myślę, że MyWay Pro może być fajnym dodatkiem do waszej tej skrzynki z narzędziami, którymi posługujecie się na co dzień,
kiedy wasz telefon po prostu ułatwia wam życie.
Jeżeli byście mieli jakieś sposobności, żeby to testować, to dajcie znać.
Tak jak mówiłem, aplikacja od ponad roku nie widziała aktualizacji,
co troszkę mnie martwi, natomiast będę w kontakcie z…
już wiem z kim się skontaktować w Szwajcarskim Związku Niewidomych,
żeby otrzymać informacje, czy coś w tej sprawie będzie się działo.
Także jak tylko będę coś wiedział, to oczywiście wam znacie.
Mamy słuchacza na antenie, ale zanim oddamy mu głos,
to chociaż ze dwa komentarze, które przybyły do nas w formie tekstowej.
Matt do nas napisał.
Witam, aktualizuję Zooma na stronie zoom.jp
ukośnik helpcenter, firmware ukośnik en.
Proszę o info, czy to dobra i oficjalna strona,
bo tam nic się nie dzieje, w sensie nowych aktualizacji brak.
Tomku, jak to jest z tym?
Zaraz wyszukam adres strony, z której ja aktualizuję. Ona jest na pewno inna.
Przepuszczam, że ta strona na pewno nie jest urządzeniem.
To jest japońska strona.
Tak, dokładnie. Może tam po prostu nie zaktualizowali tego z niewiadomych przyczyn.
Okej, to już masz, tak?
zoomcorp.com
slash en slash us slash handheld
minus recorders slash
już handheld
minus recorders znowu? Dziwne. No tak.
slash h1essential, pisane razem, slash i tu znowu h1essential minus support i tyle.
Dobra, to teraz jeszcze jeden komentarz od kogoś, kto się podpisuje.
Aha, i tam jest coś takiego, że jak się wejść na tę stronę, to oni najpierw mówią,
że no w sumie to masz stronę Zooma bardziej europejską i w sumie to na nią przejść.
Naciskam tam Escape i jestem na tej stronie głównej.
Być może na tej europejskiej też by było to samo, ale ja pobierałem akurat z tej strony US i to działa.
Teraz komentarz od kogoś, kto się podpisał Warden Darzywrzask.
Cześć wam. Drobna, choć istotna nowość w TokBeku.
Tokbek dostanie opisywanie obrazów za pomocą Gemini od Googla, tego modelu, więc to rzeczywiście fajna sprawa.
Dzięki za te informacje, zresztą w ogóle teraz z każdego konta Google będzie sztuczna inteligencja wychodzić,
o tym będziemy jeszcze mówić, a tymczasem odbierzmy telefon od naszego słuchacza Sylwestra, który się naczekał,
a się w końcu doczekał. Witaj.
Witam, ja mam taką informację w sprawie tych ładowarek, ładowarek do telefonów iPhone’owych i podobno stara, najstarsza ładowarka, która trochę dużo wolniej ładuje, ale podobno nie robię błędu w tej trzynastce, o którym Bartosz mówił, ale ja tak sprawdziłem, bo ja mam sześć tych ładowarek i jedną taką wybrałem i jest dobra.
W ogóle z ładowaniem iPhone’ów to jest ciekawa sprawa, ja np. słyszałem dużo informacji na temat tego, że istotny jest kabel jakim ładujemy.
A właśnie kabel nie robił mi problemu, podobno jakaś zwariowana ładowarka była problemem i okazało się że ładowarka, która jest starsza i która wolniej ładuje,
ale nie robi błędów w nawigacji, tam kursorze i tak dalej.
A co do MyWay Pro. Słyszę o tej aplikacji.
To dobra jest wiadomość, tylko pytanie, czy jest wersja próbna?
Pawle?
Czasem mogę jeszcze raz prosić pytanie, bo tutaj coś mi się…
Czy jest wersja próbna?
My Way. Niestety nie, to znaczy płaci się od razu te 5 zł za miesiąc. Ja myślę, że to jest fajna wersja próbna,
jakkolwiek ironicznie to nie brzmi. Zapłacić 5 zł za pierwszy miesiąc i jeżeli aplikacja się nie sprawdzi,
anulować subskrypcję.
Tak, ale jest wersja jeszcze wieczysta, tak? Rozumiem.
Jest, jest, jest, jest, jest, jest. Ona tam 100 ileś złotych kosztuje,
natomiast myślę, że te 5 złotych za miesiąc to jest na tyle mała kwota,
że idealna, żeby sprawdzić, czy aplikacja działa.
Ale czy na terenie Polski będzie działać w ogóle?
Tak, ona korzysta z OpenStreetMap, czyli tych samych map, z których korzysta,
czy Seeing, AssistantMove, czy DotWalker.
Musisz się tylko liczyć z tym, że interfejs jest w języku angielskim.
po angielskim, tak.
Więc będzie taki miks po prostu pewnych rzeczy po polsku, pewnych rzeczy po angielsku.
No niestety.
Tak trochę jest.
Jak o kogoś poproszę, to może mi wykupi.
Jasne.
No to powodzenia.
I na razie tyle, bo ja na razie nic nie mam.
No jak uda mi się znać, kiedy tam…
co tu…
nie wiem, na razie nic nie mam.
Okej, to dzięki Sylwestrze za telefon, pozdrawiamy Cię serdecznie i miłego wieczoru życzymy.
Zanim przejdziemy dalej, to jeszcze może garść komentarzy od Was, bo się rozpisaliście.
Audycja na żywo nie była przez tydzień i się chyba stęskniliście za kontaktem z nami.
Mat do nas ponownie pisze.
Witam, jaka jest przewaga Zooma H1e nad nagrywaniem z iPhona?
Jak tak słucham, to w Zoomie są większe szumy niż w iPhone’ie.
Jest to możliwe czy tylko mi się wydaje?
Tomku.
Jest. Jest. Z dość prostego powodu.
Albo może z dwóch.
Po pierwsze iPhone nie ma tych mikrofonów złych.
Po drugie, ja tam się nie zdziwię,
jak tam jest mimo wszystko jakieś
jakieś dopalenie tego wszystkiego.
To znaczy, no być może jest jakiś odszumiacz,
jakieś inne tego typu coś.
Choć nie wiem, ale bym się nie zdziwił, bo to generalnie jest dość często, tylko że w iPhone jest to zrobione dość dobrze i to jest troszeczkę tak jak z aparatami.
To znaczy w smartfonie te aparaty się sprawdziły i się ludziom sprawdzają, dlatego że one, jak się okazuje, algorytmy są w stanie z tych aparatów, podobno rzeczywiście nawet z nie najlepszych aparatów, zrobić całkiem dobry użytek.
I troszkę podobnie może być z dźwiękiem i jak się to dobrze zrobi, to jest naprawdę fajnie.
Tylko problem polega na tym, że mało kto robi to dobrze, natomiast w rejestratorach nie ma żadnych upiększeń, dlatego tak to wygląda.
Z drugiej strony rejestratory pozwalają mimo wszystko na nagrywanie takie surowe, to znaczy jeżeli ktoś nie chce tego poprawiania dźwięku,
no bo ono czasami może rzeczywiście być troszkę, troszkę irytujące w pewnych
sytuacjach, no to tu tego nie ma, to znaczy jakby firmy, które produkują takie,
takie rzeczy, no jakby zakładają, że no coś użytkownik będzie wiedział na temat
tego dźwięku. Ja bym w sumie chciał, żeby powstawały takie telefony, ale to raczej
jest marzenie, tylko to zostanie w sferze marzeń, żeby trochę był język jak z
aparatami, to znaczy, że można sobie wybrać jakiś tryb zdjęcia, coś tam
jeszcze, to tak samo tryb nagrywania i żeby to było jakoś fajnie robione.
Natomiast nie wiem, czy się tego doczekam, raczej nie.
No i dla jefona jest problem z podłączeniem mikrofonów zewnętrznych.
No a tutaj jest też sporo do zrobienia, bo na przykład nagrywanie binauralne.
Oczywiście są Sennheisery do iPhona, tak, tylko że one już nie są wspierane.
Więc pytanie, ile będzie takich Sennheiserów jeszcze na stanie?
Kiedy to się skończy?
Kiedy one z jakiegoś powodu przestaną być kompatybilne?
No i teraz zaczynają być iPhony z USB-C, czyli trzeba przejściówkę z Lightning’a na USB-C.
A z przejściówkami to może być tak, że ona np. nie będzie chciała działać z tymi słuchawkami albo teraz, albo za jakiś czas, bo to jest kolejne ogniwo w łańcuchu.
To się zgadza, poza tym działać to działać, ale po prostu któraś z tych rzeczy może się zwyczajnie wypiąć z telefonu, albo przejściówka, albo Sennheiser z przejściówki.
Także no, tu są takie rzeczy, które oczywiście niektóre nie przeszkadzają, no bo jeżeli powiedzmy ktoś chciałby sobie iść i sobie coś nagrać, to jakby nie ma problemu.
No gorzej właśnie w sytuacji, przepraszam, w której to nagrywanie jest mimo wszystko dość ważne i dobrze by było, żeby było jakieś właśnie zewnętrzne urządzenie, które po prostu zajmuje się tylko tym,
A nie to, że no w sumie to jest telefon i w sumie ktoś zadzwoni i teoretycznie można włączyć w tym samolot, ale no, no różne telefony mają czasami, czasami rzeczy i wszystko jedno iPhone, nie iPhone, no to, to jakby różnie to tak naprawdę wygląda.
Mamy kolejne komentarze, tym razem od Witolda.
Cześć, wiecie co zrobić, żeby wrzucane do Apple Music utwory nie zapisywały się jako oddzielne albumy?
Chodzimy o wersję na Windowsa.
Klikam Ctrl-O i włącza się okienko importowania, można też to zrobić z paska narzędzi, opcja importuj pliki lub podobnie,
ale nie mogę folderów wrzucić, a każdy plik jest osobnym albumem.
Czytałem w necie, że można, że robi się dokładnie tak samo, tylko trzeba folder, a nie plik otworzyć,
Jednak nie ma takiej opcji, no chyba, że czytnik czegoś nie widzi, ale w tym przypadku jakoś mało prawdopodobne mi się to wydaje.
Jakie z playlistami VLC na iPhonie zapisują się gdzieś w appce w specjalnym formacie i niedostępnym miejscu,
czy na przykład w przypadku podłączenia dysku Google można mieć zwykły plik PLS.
Chodzi mi o to, żeby na komputerze je wygodnie zrobić, na przykład w LTNie programem playlist,
a później na telefonie odtwarzać, żeby się to ładnie zsynchronizowało.
Najprościej by było, gdyby do Apple Music dało się wrzucać normalnie pliki,
bo jeszcze dochodzi udostępnianie playlist.
Co do pierwszej części pytania, to nie wiem.
Może ty Piotrze, coś?
Tak, ja w międzyczasie próbowałem rozejrzeć się po aplikacji Apple Music na Windowsie,
bo generalnie korzystam z Maca, natomiast faktycznie jest osobna opcja do dodawania folderu.
Znajdziesz ją w pasku menu aplikacji, którego bardzo intuicyjnie wchodzi się naciskając Alt M i M.
Jeszcze raz, jest też do tego przycisk.
Natomiast tam jest właśnie pod menu biblioteka jest właśnie opcja dodaj plik, tak jak już opisywałeś,
a pod nią jest opcja dodaj folder, która też ma skrót Ctrl Shift O, więc spróbuj tę opcję.
Natomiast Witoldzie, co do drugiej części Twojego pytania, zainteresuj się programem Flagbox, o którym z Edwinem Tarką nagraliśmy jakiś czas temu podcast.
Ta aplikacja powinna przynajmniej w jakimś tam stopniu spełniać Twoje oczekiwania, przynajmniej od pewnego czasu, bo obsługuje playlisty, więc jest szansa, że uzyskasz tam właśnie to, czego byś chciał.
My jeszcze w trakcie tej audycji nie omawiamy tego,
bo jeszcze wtedy playlisty nie były wspierane,
natomiast dosłownie kilka dni czy tygodni po wypuszczeniu tego podcastu
ta funkcja się pojawiła, więc myślę, że warto spróbować.
A teraz odbieramy telefon. Patryk jest z nami. Witaj.
Witam bardzo serdecznie.
Słuchamy.
Okej, bo nie wiedziałem czy mnie słychać.
Pierwsza rzecz, oczywiście mam tutaj do uzupełnienia informacje o HTS-ie drugim,
o którym tu już było powiedziane, ale to sobie zostawiłem na koniec.
Natomiast pierwsza rzecz, to jest, którą chciałem powiedzieć
dla tych osób, które używają programu TuneIn Radio
i dla tych osób, które logowały się do TuneIn za pomocą Facebooka.
Nie wiem co się stało, ale od jakiegoś czasu w TuneIn Radio nie można się zalogować za pomocą Facebooka.
Po prostu kiedy się otwiera ta strona facebookowa z logowaniem,
to się pokazuje, że logowanie z pomocą konta Facebook jest niemożliwe,
czy coś takiego i po prostu się tego zrobić nie da.
Mam nadzieję, że to zostanie poprawione, że to jest jakiś błąd po stronie TuneIn.
Natomiast, no, ja akurat straciłem dostęp, bo ja się zawsze tak logowałem, także zobaczymy, co z tym będzie, na razie logowanie Facebooka po prostu nie działa.
A jeżeli byś spróbował zrobić, zapomniałem hasła i podać swój mail do Facebooka? Być może wtedy przyjdzie ci link do odzyskiwania hasła i będziesz mógł się logować po prostu swoim adresem, e-mail i hasłem.
Spróbuję, to dzięki w takim razie. Postaram się tak zrobić. Natomiast mam tutaj do poruszenia bardzo poważny błąd w iOS-ie, o którym ja zapomniałem, ale który się ciągnie już przez wiele systemów iOS, to jest iMessage.
Sytuacja, która zdarza mi się bardzo często,
kiedy na przykład piszę z osobą, ostatnio z mamą pisałem,
która była gdzieś za granicą, nawet nie za granicą,
była w Bieszczadach, w miejscu, gdzie Internetu nie miała.
Wysłałem do niej wiadomość iMessage.
Normalnie pokazywał mi iOS, że wysyłam wiadomość iMessage.
Była to dość ważna wiadomość.
Okazało się, że mimo że iMessage pokazał mi,
i że wiadomość została dostarczona.
Mama niestety tej wiadomości nie otrzymała.
W momencie, kiedy nie dawała mi długo znać,
ja stwierdziłem, no pokazuję, że jest dostarczone.
No i tam po przeciągnięciu na wiadomości palcem w dół
było coś takiego, wyślij tą wiadomość jako SMS.
I dopiero kiedy to zrobiłem, ta wiadomość iMessage,
która nie doszła, została wysłana jako wiadomość i wtedy
mama tą wiadomość dostała, natomiast jest to nie pierwszy
raz coś takiego, co się dzieje, że właśnie kiedy ja mam
internet, a druga strona nie ma internetu, te wiadomości
iMessage się nie wysyłają, co więcej jest w opcjach
wiadomości coś takiego, próbuj wysyłać SMS, jeśli nie
można wysyłać iMessage i to mam zaznaczone, a mimo to po
po prostu nie działa, ja na przykład przez to, przez te problemy, że nie mogłem się ze mną skontaktować, wyłączyłem na siłę z ustawień iMessage, no i wtedy mogłem normalnie wysyłać wiadomości, no także ja nie mam pojęcia w ogóle, ja uważam to za, nie wiem jak wy, ale ja uważam to za bardzo krytyczny błąd w iOSie.
No jest to spory, jest to spory problem, chociaż z drugiej strony to, no ale tak, to i tak nie rozwiązywałoby skorzystanie na przykład z jakiegoś alternatywnego komunikatora.
Ja tak, no tak, jeżeli nie ma internetu, no to nic to nie da.
Najgorsze jest to, że na przykład ja nie wiem kiedy mama ten internet straci, bo na przykład jak gdzieś jest na jakimś tam, no wieszczadach, gdzie może ten zasięg stracić, no to ja będę wiesz, wiesz Michale, no będę chciał wysłać smsa.
Wiem, wiem, wiem, więc w takiej sytuacji to chyba ja bym rzeczywiście się tego, jeżeli ma być to częstra sytuacja, to generalnie chyba w ogóle pozbyłbym się tego iMessage’a w takiej sytuacji, a do komunikacji internetowej używał na przykład Whatsappa, no bo tam wszystko fajnie widać, tak, czy wiadomość została wysłana, to jest właśnie na Whatsappie jest to tyle fajnie, że tam mamy trzy statusy wiadomości.
wiadomość wysłana, dostarczona, wyświetlona.
Więc w takiej sytuacji, no to jest jasny komunikat.
No właśnie, czy ktoś dostał
tę wiadomość, ale po prostu jej jeszcze nie przeczytał, czy
ta wiadomość została od nas wysłana, ale jeszcze gdzieś się zatrzymała
na serwerach mety i po prostu nie dotarła do odbiorcy.
Więc no to jest, to chyba ja bym w ten sposób zrobił.
Tym bardziej, że ten, no powiedzmy sobie szczerze, no ten iMessage tak naprawdę w przypadku, jeżeli ktoś nie ma Maca, tylko ma segmowy iPhona, no to co on tak naprawdę nam daje, poza tym, że mamy jakieś reakcje, które możemy dawać na wiadomości, no poza tym, że możemy sobie głosowe wiadomości wysyłać, to dla kogoś, kto wysyła SMSy, to ja uważam, że ten iMessage, no nie daje chyba tyle, poza tym, że jeżeli wysyłamy iMessage, to chyba nie płacimy za operatora.
To chyba to tak działa, że i to nie jest traktowane jako SMS, więc w razie czego jak mamy płatne wiadomości SMS, no to chyba nam operator nie liczy.
To wszystko zależy od tego, czy płacimy za internet.
Tak, to zależy od tego, co jeszcze dostajemy. No wiadomo, to też dostajemy w innych komunikatorach, więc to nie są jakieś funkcje wow.
Natomiast mamy, bo wedle mnie jak gdyby ktoś pisał, mamy wyższą jakość wysyłanych załączników.
Tutaj mówię głównie o zdjęciach i materiałach wideo co może czasem być istotne
więc też warto o tym pamiętać więc wtedy po prostu lepiej z innego komunikatora
skorzystać.
No i mam integrację z różnymi aplikacjami iMessage natomiast nie zdarzyło
mi się jeszcze żeby jakaś aplikacja mi się w życiu przydała która z iMessage
korzysta.
Jeszcze taka informacja a propos iOS a iOS a no to mamy w tym tygodniu
wyszedł iOS 17.5 w wersji oficjalnej, który między innymi wprowadza te zmiany europejskie,
o których tutaj mówimy, czyli obsługę sklepów.
Ponadto, jeżeli instalujemy w App Store w ogóle jakąś nową aplikację,
to klikiemy zainstaluj to dodatkowo pojawia się nam jakiś taki dodatkowy monit,
że ta aplikacja będzie mieć takie a takie uprawnienia i tam są one wszystkie wymienione,
czyli musimy dwa razy klikać zainstaluj, bo tam są takie dwa monity.
Ja tego tam nie czytałem, ale mniej więcej coś takiego jest,
że tu nam App Store informuje jakby co ta aplikacja będzie robić,
jakie będzie mieć uprawnienia i tak dalej,
także Apple nas też informuje o tym, iOS i 17.5.
Okej, to tyle takich informacji związanych z aplikacjami.
No to przejdę teraz do Hadesa 2, bo tutaj nie chwaląc się, jestem testerem modów Hadesa 2 od momentu, kiedy te mody zostały publicznie na świat wypuszczone.
No i generalnie o samej grze mogę powiedzieć tylko tyle, że tak naprawdę może być wrażenie, że jest to Hades 1.
Poza tym, że nie gramy już panem Zagreusem,
a tylko gramy panią Melinoe.
Jak wiecie z mitów greckich jest to córka naszego tatusia Hadesa,
którego mieliśmy w jedynce i siostra Zagreusa.
No i okazuje się, że tutaj zaginął nam Bóg Kronos.
Bog Czasu postanowił rozwalić chatę Hadesa i porwać Hadesa i Zagreusa.
Oni zaginęli przez Boga Czasu i nasza pani Melinoe musi się zemścić na Kronosie,
żeby odnaleźć swoją rodzinę.
I muszę przyznać, że jest trudno, przynajmniej dla osoby niewidomej.
Ale trudno dlatego, że bardzo nam przeciwnicy utrudniają życie na początku.
Nasza postać ma 30 HP, tylko jeżeli nie uważamy i nie jesteśmy szybciej, to możemy w pierwszym pokoju zginąć.
Co ciekawe, co doszło w ogóle i uważam, że jak na wczesny dostęp, to HDS2 naprawdę ma bardzo dużo.
że tam chyba jest wszystko zrobione, z tego, co gdzieś słuchałem wywiadu
z jednym z twórców Hadesa, no to pan ten powiedział,
że zakończenie do Hadesa w zasadzie jeszcze nie jest napisane do dwójki.
Że tak naprawdę ta gra się gdzieś kończy,
ale jeszcze w zasadzie zakończenia nie mają napisanego.
Natomiast tak naprawdę co mamy? Mamy manę, słuchajcie.
Możemy używać ataków podstawowych i ataków tzw. omega, które są mocniejsze i które nam tutaj zużywają manę,
więc warto też o tej manie pamiętać, żeby ją sobie regenerować.
Ona się nam regeneruje, kiedy wyjdziemy do pokoju.
Mamy surowce, mamy coś nowego.
Surowce, które możemy wydobywać i za te surowce ulepszać sobie różne rzeczy.
którzy do wydobywania tego służą odpowiednie narzędzia, które pozyskujemy.
No tutaj teraz lustro, które używaliśmy do odblokowywania talentów,
nam się zmieniło w ołtarz, gdzie mamy arkany do odblokowywania.
Arkany to są po prostu karty, które odsłaniamy i te karty możemy aktywować
albo deaktywować, co nam oczywiście służy do ulepszania naszej postaci.
To ile możemy aktywować kart zależy od tego jaką mamy zdolność opanowania,
którą też zdobywa się podczas rozgrywki.
No ja tak naprawdę wiele nie udało mi się w tej grze osiągnąć.
Natomiast co do samych modów, mody jak najbardziej działają podobnie jak w Hadesie 2.
Jest link do GitHuba, gdzie należy sobie z repozytorium odpowiednie pliki skopiować.
Tym, że uczula Was tutaj tych, którzy by chcieli testować, nie ma w tym repozytorium kilku ważnych rzeczy.
Po pierwsze nie ma czegoś, co się nazywa modutility i to sobie trzeba dociągnąć z GitHuba.
i nie ma mod importera i mod importer sobie należy pobrać ze strony z Nexusa, czyli z takiego repozytorium modów.
Gdyby był problem to piszcie gdzieś tam w komentarzach, to ja to gdzieś wrzucę,
bo to jest plik EXE, który się po prostu uruchamia i on sobie importuje.
Mówiłeś Piotrze o tym, że czytnik ekranu, że jakaś synteza być może się pojawi.
Tak, testowałem i dzisiaj muszę powiedzieć, że pojawiła się publiczna, oficjalna wersja wsparcia dla czytników ekranu,
czyli jest SAPI i NVDA.
No i to wsparcie obsługuje podstawowe menu plus opcje.
Jedyne czego to menu nie czyta, no to nie są czytane te takie menu door menu,
door menu, shop menu, czyli tych wszystkich rzeczy, które mod obsługuje,
czyli tam listy nagród i tak dalej, to nie jest czytane.
Natomiast czytane są wszelkiego rodzaju dary, które dostajemy.
Co ciekawe, zresztą nawet sam OCR już, jeżeli mamy opis darów,
OCR rozpoznaje teraz to bardzo dobrze, bo wszystko jest w jednej linijce napisane, co dany dar robi,
więc nawet jeżeli czytnik ekranu nie, no to można sobie też OCR-em i OCR ładnie to teraz rozpoznaje.
Mam nadzieję, że Super Jump Games tego nie popsuje.
Natomiast jest wsparcie upublikowane na wątku audiogames.net New Revisions Room HDS2
przez Tomka Tworka, jest link do Google Drive, gdzie można pobrać odpowiednie pliki
i tam jest napisane w tym poście, ja może postaram się napisać na Whatsappie,
który to jest numer posta na audiogamesie i prześlę link do Google Drive,
gdzie można pobrać właśnie te odpowiednie pliki.
Tam też właśnie to będzie, także postaram się to wam wrzucić.
Także to wyglądało, że Hades 2, jak ktoś chce, można kupić.
Właśnie, cena Hadesa 2 została obniżona na Steamie ze 130 zł do 100 zł, a to dlatego, nie wiem czy ktoś z was czytał, ale pojawiła się, słuchajcie, polska społeczność, łowcygier.pl podniosło rwetest, że gry na Steamie są w porównaniu z całym światem zdecydowanie za drogie, no i sporo gier się obniżyło, w tym Hades również.
Co ciekawe ja dostałem zwrot do portfela z tym 20 zł więc.
No to rzeczywiście miły miły miły gest.
Także tutaj Polacy walczą o to żeby te ceny były niższe i ta
cena jest również niższa a co do cen to gra Warsim o które
jest wspominana do końca przyszłego tygodnia, kosztuje
23 złote.
I co ciekawe ja ją sobie słuchajcie kupiłem za te pieniądze
które dostałem właśnie za zwrot z Hadesa.
No i super czyli jak widać przydało się.
Normalnie bym tej gry nie nabył ale skoro już ją skoro już ją tak nabyłem
to się nią zainteresuje obawię się nią.
Widać sytuacja z Hadesem rozwija się dynamicznie tak wspominałem że tak może
być i fajnie że społeczność.
Tu się chciałem Piotrze, chciałem się odnieść do wypowiedzi, którą mówiłeś w poprzednim tytulu o przeglądzie.
No bo powiedziałeś, że ten mod jest do Hadesa, że on też dodaje jakieś dźwięki.
Bo tak żeś powiedział, nie, mod do Hadesa nie dodaje żadnych dźwięków, on tylko dodaje właśnie te listy różnych rzeczy.
Listy nagród, listy obiektów.
A nie było tak w tym pierwszym Hadesie, że mod dawał dźwięki tam na różne nagrody?
Tak, to był taki prototyp tego moda, ale to potem zostało zmienione i teraz mod po prostu teleportuje nas do poszczególnych obiektów i tych dźwięków tam nie ma.
Także to w ogóle polecam Hadesa, jeśli nie grałeś ani w jedną, ani w drugą część to polecam, bo warto.
Także myślę, że to na razie tyle z mojej strony, właśnie nie wiem Michale jak zrobić, czy podesłać ten link z tym, czy po prostu podesłać jaki to jest numer wątku.
Wiesz co, to podeślij może ten link, to wrzucimy to do notatek, do komentarzy później.
Bo tam chodzi o to, że jest pod spodem opis jakby pod tym linkiem, jakby w tym poście konkretnym, co z tym trzeba zrobić.
A jesteś w stanie, nie jesteś w stanie podesłać linka do konkretnego postu?
No nie wiem czy na audiogamesie tak się da Piotrze, ty się orientujesz czy można na audiogamesie jakby w kompletnie do konkretnego posta?
Do danego postu jak najbardziej, zauważ, że link, że miejsce gdzie się wyświetla data danego postu jest linkiem.
I jeśli skopiujesz sobie ten link to focus powinien się w odpowiednim miejscu ustawić.
Warto mimo wszystko podać numer postu też obok, bo na przykład na Windowsie to generalnie działa fajnie, ale na przykład jak ktoś by na to wchodził z iPhone’a, czy czasami też na Windowsie, to po prostu może nie przenieść nas tam, tam gdzie trzeba.
Ale generalnie taka możliwość jest.
Potrzuć to w każdym razie Patryku na Whatsappie i wrzucimy to do naszych notatek.
Ja to akurat tutaj, bo ja Whatsappa akurat w momencie nie mam, mogę to wrzucić przez iMessage właśnie, o którym mówiliśmy?
Dobrze, dobrze.
Okej.
Dobra, no to dzięki w takim razie za telefon.
Do usłyszenia. Pozdrawiamy cię serdecznie.
To zanim przejdziemy do następnego tematu, to jeszcze posłuchajmy jednej wiadomości,
która się już trochę naczekała na jej odtworzenie.
Milena do nas nagrała wiadomość i proszę bardzo teraz tej wiadomości posłuchajmy.
Witajcie, z tej strony Milena. Nie wiem, czy moja wiadomość została odtworzona w poprzedniej audycji, czy po prostu już nie.
Wprawdzie chciałam powiedzieć o Josie taką kwestię, bo jak pewnie kojarzycie, jakiś czas temu się nagrywałam właśnie w sprawie Josa,
że mam problem, nie mogę się połączyć za pomocą DOSa Tandem,
bo po prostu nie był generowany ten kod, żeby go druga osoba wklepała,
bądź jak ja wklepywałam kod, który dostałam od drugiej osoby,
to nie łączyło się, no ale sprawa się wyjaśniła.
Kwestia była tego typu, że po prostu do wyjątków gdaty
trzeba było dodać ten adres ich serwera.
No i jak to zrobiłam, no to po prostu teraz już wszystko działa jak należy.
To tyle, pozdrawiam. Miłego prowadzenia audycji.
I to tyle, przynajmniej na razie.
No to w takim razie przechodzimy do następnej nowości, jednej z pierwszych.
No tutaj sporo, tutaj mamy wypowiedzi od Was, ale to cieszy.
To w takim razie Centrum Emilia Ludwika Braila.
Tutaj podnąć sporo nowości.
Michale.
Tak jest.
Centrum imienia Ludwika Braila to jest
projekt realizowany przez nas,
czyli przez Fundację Instytut Rozwoju Regionalnego.
Jest on dofinansowany
ze środków PFRON-u
i tu rzeczywiście sporo
w ramach tego projektu się dzieje.
Są jeszcze wolne miejsca,
więc jeżeli ktoś miałby ochotę
z czegoś skorzystać,
to zapraszamy bardzo serdecznie
Na naszej stronie internetowej www.firr.org.pl znajduje się informacja na temat tego projektu, a teraz ja pozwolę sobie przeczytać informację jego dotyczącą.
Na chwilę obecną zapraszamy uczestników z województwu łódzkiego, kujawsko-pomorskiego, śląskiego, mazowieckiego, warmińsko-mazurskiego, świętokrzyskiego.
Zainteresowanych udziałem w projekcie prosimy o wypełnienie formularza zgłoszeniowego i ten formularz oczywiście będzie podlinkowany.
A jeżeli chodzi o to co w ogóle jest oferowane w ramach projektu to tak w ramach projektu oferujemy następujące formy wsparcia.
Po pierwsze pogotowie technologiczne, indywidualne zajęcia komputerowe.
Po drugie, wsparcie psychologa i psychodietetyka to zajęcia indywidualne.
Po trzecie, wsparcie prawnika, zajęcia indywidualne.
Po czwarte, zajęcia zwiększające samodzielność beneficjentów,
orientacja przestrzenna oraz czynności życia codziennego.
Po piąte, indywidualne konsultacje w zakresie autoprezentacji,
ubioru, postawy ciała, wyglądu.
Po szóste weekendowe grupowe warsztaty z zakresu wykorzystania orientacji przestrzennej i mobilności elementów echolokacji oraz nowoczesnych technologii.
To warsztaty tylko dla osób z niepełnosprawnością wzroku.
Po siódme, weekendowe grupowe szkolenia z umiejętności miękkich np. szkolenie z kompetencji społecznych, szkolenie z wizażystką i fryzjerem.
Po ósme, weekendowe grupowe warsztaty z zakresu rozwoju umiejętności manualnych np. dekupaż, rękodzieło.
Po dziewiąte mamy kurs języka obcego, konkretnie język angielski, zajęcia grupowe w formie stacjonarnej lub zdalnej.
No i następny punkt, dziesiąty, intensywne, wyjazdowe, grupowe warsztaty i szkolenia z zakresu rozwoju umiejętności miękkich,
kompetencji społecznych i rozwoju osobistego przez ruch, to jest szkolenie pięciodniowe.
Ale to nie wszystko, bo mamy punkt jedenasty, intensywne wyjazdowe warsztaty z zakresu rozwoju umiejętności manualnych i rozwoju osobistego przez ruch, to jest też szkolenie pięciodniowe.
Mamy następne warsztaty, to są warsztaty wendo-grupowe, warsztaty tylko dla kobiet, szkolenie samoobrony, to jest kolejna oferta, no i zapraszamy serdecznie, żeby dołączać, żeby dołączać, tu 13 rzeczy mamy w ramach Centrum im. Ludwika Braila, dla tych wszystkich, którzy mają ochotę dołączyć.
No i oczywiście spełniają warunki projektowe, bo jest to projekt dofinansowywany, więc tutaj te warunki też trzeba spełniać.
No jest to projekt adresowany do osób z niepełnosprawnością wzroku przede wszystkim, no i mamy tutaj konkretne województwa,
z których musicie być, żeby w tym projekcie wziąć udział, ale rzeczywiście jest z czego korzystać.
Tak jest. Czy możemy, Piotrze, do Twoich wniosków?
Tak, tak, już możemy.
Dobra, no to co tam w JOS-ie nowego?
Co tam w JOS-ie? Pojawiła się majowa aktualizacja JOS-a 2024, więc tutaj widać, że firma Vispero cyklicznie co te dwa miesiące wypuszcza nową aktualizację, tak jak to było obiecane.
A przypomnijmy, że ta marcowa aktualizacja była dosyć ciekawa, bo jak tego można było się spodziewać do JOS-a, też doszła sztuczna inteligencja.
konkretnie, opisywanie zdjęć oparte o kilka chmur właściwie, bo zarówno o
Chata GPT, jak i o Google Gemini.
No i po dwóch miesiącach pojawiła się kolejna aktualizacja, która
wprowadza kolejne zmiany właśnie z tym związane między innymi.
Po pierwsze ta funkcja, która nazywa się Picture Smart AI jest teraz opcją
domyślną, bo wcześniej to było tak, że to było coś, co musieliśmy sobie
włączyć w tej sekcji Labs, czyli tej sekcji gdzie różne funkcje są testowane
zanim zostaną udostępnione szerzej, ale no to już według firmy było na tyle
przetestowane i było na tyle dużo informacji pozytywnych, że po prostu
postanowili to włączyć dla wszystkich.
I teraz żądz domyślnie, kiedy włączymy sobie tę funkcję PictureSmart, które
pozwalają nam zrobić zrzuty i poprosić o opis kilku rzeczy, bo zarówno możemy
robić zdjęcia z kamery czy skanera podłączonego do komputera, zawartości
schowka, dowolnego pliku, kontrolki pod kursorem całego okna lub całego
ekranu, no to domyślnie już będą wysyłane do AI.
Jeśli ktoś by chciał skorzystać z tego starszego PictureSmart, który korzystał
z takiego prostszego rozpoznawania zdjęć, tych poprzednich technologii, co
To czasami może się przyczytać, tutaj Vsphere podaje przykład, że te starsze funkcje są troszeczkę lepsze, jeśli chodzi o rozpoznawanie tekstu, bo tam jest taki klasyczny OCR, który raczej nie będzie nam halucynował, no to możemy do naszego skrótu dołożyć klawisz CTRL, więc na przykład jeśli rozpoznajemy CTRL-kę, no to naciskamy JAWS SPACE, a później P, żeby wejść do tej warstwy PICTURE SMART, no i zamiast C, naciskamy CTRL-C i to wtedy zostanie wysłane do tego starszego
mechanizmu, gdzie ten tekst będzie troszeczkę lepiej rozpoznany, a generalnie
po prostu będziemy już teraz dostawać opisy od sztucznej inteligencji.
Ponadto będziemy mogli zadawać dodatkowe pytania.
I tutaj jest podany taki przykład, gdybyśmy np.
zrobili sobie opis do jakiegoś wykresu, na którym są różne rzeczy opisane.
tutaj jest przykład podany składu urzędów w danej firmie.
Kto czym się zajmuje.
Na początku osoba dostała taki ogólny opis,
ale używając właśnie tego linku Zadaj Pytanie
jesteśmy w stanie dopytywać się o konkretne szczegóły danego zdjęcia.
I to działa bardzo fajnie, bo po prostu wystarczy w ten link kliknąć,
pojawi się pole edycji, wpisujemy nasze pytanie,
naciskamy Enter, będziemy wtedy słyszeć dźwięk w czasie kiedy słuszna inteligencja myśli i analizuje to o co zapytaliśmy
i kiedy pojawi się odpowiedź no to JOS przeczyta ją automatycznie, a kursor wróci do pola edycji
gdybyśmy chcieli pytać coś jeszcze, ale oczywiście też możemy w każdej chwili wrócić do tego wirtualnego kursora
i sobie tą odpowiedź przeglądać bardziej szczegółowo.
Mamy też nowe polecenia głosowe z tym związane dla asystenta głosowego JOS-a
No niestety on cały czas po polsku dostępny nie jest, więc to nas nie dotyczy.
Natomiast mamy dosyć istotną zmianę, jeśli chodzi o jakie usługi są do tego
używane, bo JAWS zawsze generował krótki i dłuższy opis i to wyglądało tak, że
krótki opis był wcześniej generowany przez system Gemini od Google, bo to trwało
po prostu, bo ten model jest dużo szybszy, natomiast faktycznie te opisy były mniej
szczegółowe były krótsze, ale mogliśmy też poprosić o opis dłuższy używając
czata GPT albo linkiem na ekranie wyświetlającym ten krótszy opis lub
dokładając klawisz shift do naszych skrótów.
A teraz do tych krótszych opisów będzie wykorzystywana inna chmura, już nie
będzie Google, a będzie model Cloud od firmy Anthropic AI, o którym będziemy
później mówić. To jest też taki podobny model językowy, który też jest w stanie rozpoznawać zdjęcia i według wielu osób jest w stanie to robić na pewno lepiej niż Gemini i porównywalnie myślę z chatem GPT też chyba niektórzy uważają, że nawet lepiej, więc no generalnie jakość tych opisów po prostu będzie dzięki tej zmianie lepsza.
To wszystko jeśli chodzi o sztuczną inteligencję, natomiast to jeszcze nie jest koniec nowości w tej majowej aktualizacji, bo na przykład użytkownicy monitorów braillowskich ucieszą się z tego, że JAWS jest w stanie wyświetlać nam emoji w braillu.
Emoji w internecie jest coraz więcej, możemy się z nimi spotkać praktycznie wszędzie, więc fajnie, że użytkownicy, którzy korzystają z Brailla będą w stanie ich opisy uzyskać, bo mało czytników ekranu jest w stanie to zrobić, a MVDA domyślnie nie jest, no chyba, że zainstalujemy odpowiedni dodatek.
Można też na iPhone i na Macu z voice-overem dostawać opisy emoji w braillu, ale poza tym chyba żaden inny czytnik ekranu takich funkcji nie oferuje.
Jost do tej pory też, więc emoji, mimo to, że były odczytywane przez syntezę, w braillu wyświetlały się jako po prostu znaki zapytania najczęściej.
A propos emoji, to ja tylko wejdę Ci w słowo, Piotrze, i powiem, że emoji to już nawet zawitało do firm,
bo nie wiem czy zauważyliście, jeżeli nie macie poczty służbowej na platformie Microsoftu, to z tego akurat za bardzo nie skorzystacie,
ale w Outlooku, szczególnie tym mobilnym, jest coś takiego jak selektor reakcji i tam można dodawać do maili, które do nas przychodzą
i które są właśnie obsługiwane przede wszystkim przez Microsoft, można dodawać reakcje.
Więc oprócz tego, że gdzieś tam powiedzmy te emotikonki no to już w internecie są powszechne, że reakcje za pomocą różnych ikonek są też powszechne w sieciach społecznościowych, to też nawet i w poczcie już można dać lajka.
No proszę, więc jak najbardziej funkcja się przyda, a jak działa?
No w dosyć ciekawy sposób, bo domyślnie emoji po prostu będziemy
widzieli jako ośmiopunkt, po prostu będziemy widzieli znak, który
ma wszystkie osiem punktów wyświetlone i jeśli chcemy uzyskać
jego szczegółowy opis, no to po prostu naciskamy przycisk przywołania
kursora, czyli ten kursor router na tej komórce i wtedy Joss używając
wiadomości błyskawicznej wyświetli nam tekstowy opis tego emoji tak
jak byśmy to słyszeli z syntezą.
Ja bym chciał tu mimo wszystko zobaczyć jakąś opcję, żeby dostosować jak to ma być
wyświetlane, czy to faktycznie ma działać tak, bo to może się przydać w ten sposób,
albo żeby te opisy były gdzieś zdomyślnie rozwijane, bo tych emoji jest jednak dużo
i to właśnie mogą być różne reakcje, właśnie kciuk w górę i w dół.
I za każdym razem byśmy musieli klikać, żeby to rozczytać, a na innych czynnikach
ekranu takiej potrzeby po prostu nie ma. Z drugiej strony pewnie są osoby, które
faktycznie chciałyby, żeby takie jedno emocie nie zajmowało nam pół albo nawet
całego monitora, bo niektóre z tych opisów są faktycznie, mogą być długie.
To się zgadza, natomiast jestem bardzo ciekaw, jak wygląda kwestia np.
opisu tych
tych emotek typu klawisz jeden.
Czy np. tam będzie jedynka zwykła wyświetlona, no bo to jest jakby dość
praktycznie tak, zwłaszcza, że tego się często, znaczy często, niektórzy wykorzystują,
na przykład gdzieś widziałem jakiś, jeszcze wtedy tweet, że tam w mieście
jakimś tam mamy już klawisz jeden, klawisz sześć, czegoś tam.
Przepuszczam, że to będzie działało w ten sposób na ten moment tak, że to po prostu
będzie widoczne jako, no właśnie jako te ośmiu punkty tak, więc byśmy musieli pod
każdym tym klawiszem nacisnąć ten przycisk, więc tutaj kolejny powód dlaczego to powinno
być rozszerzane, natomiast to się wtedy będzie wyświetlało właśnie jako słowo
klawisz pewnie, więc tutaj kolejny krok mógłby być zrobienie jakiegoś słownika,
które by takie emoji właśnie niektóre zastępował po prostu danymi liczbami,
więc no to już gdzieś kolejny krok dalej.
No więc no na pewno funkcja, którą można by jeszcze rozbudować, nie zmienia to jednak
faktu, że fajnie, że w Joshie też już te emoji w braillu w jakikolwiek sposób da
się wyświetlać.
I jeszcze nie kończymy tematu brajla, bo tryb podzielonego brajla, czyli
przypominam, jeśli ktoś nie wie, to jest ta funkcja, która pozwala nam podzielić
nasz monitor brajlowski na pół i oprócz tego, że JOS nam wyświetla to, co mamy
akurat pod fokusem na komputerze, możemy sobie wyświetlać różne inne rzeczy od
zawartości jakiejś strony internetowej lub dokumentu, jakichś dodatkowych
informacje o formatowaniu, czy historii czatu np. w Teamsie możemy sobie pisać jakąś
wiadomość i na jednej połowie linijki widzimy to co my piszemy, a na drugiej możemy
sobie cofać się w historii czatu.
Więc funkcji jak to można zastosować jest dużo i pojawiła się teraz obsługa tej
funkcji dla monitorów serii Alva BC, serii Alva BC, które no bo domyślnie nie
Wszystkie monitory miały skróty klawiszowe do tego przypisane.
Można było to zrobić ręcznie, no ale jeśli korzystacie z monitorów Alva BC
to już tego nie będziecie musieli zrobić, bo już takie skróty zostały
przepisane i to są takie skróty jak
otwarcie okna konfiguracji podzielonego brajla, to jest F2 i F5.
Przełączenie trybu bufora tekstu F2 i F6.
Przełączenie odświeżenia bufora tekstowego po nadciśnięciu klawisza ENTER to jest F2 i F4.
Poprzedni wiersz w tekście F10.
Następna linia F11.
Przesuń w lewo to klawisz Braille Left.
Przewiń w prawo to jest klawisz Braille w górę.
przewiń w lewo, to jest brail w dół i przesuń w prawo, to brail w prawo i jeśli chodzi o, to jest, to były skróty do tego naszego głównego braila, czyli do przycisku, którymi zawsze chyba przewijamy braila na tych monitorach, a na tym ekranie podziału, więc tam gdzie mamy na przykład jakiś plik załadowany, no to tam
Poprzednia linia to jest F12, następna linia F13 i no właśnie następna linia to jest F13.
Następnie mamy poprawki dla nowego Thunderbirda, czyli Thunderbirda Super Nowa.
Poprawiono odczytywanie alertów, które czasami były powtarzane kilka razy,
na przykład jeśli Thunderbird blokuje jakąś zawartość wiadomości, e-mail.
Jeśli podczas prowadzenia adresu do pola DO, Joss nie zawsze automatycznie czytał adres po naciśnięciu TAB, aby go uzupełnić, to już zostało poprawione.
I komunikaty o nowych wiadomościach będą czytane tylko raz, a nie kilka razy jeśli Thunderbird nam wysyła jakieś powiadomienia.
Mamy kilka poprawek w internecie.
Joss nie zawsze prawidłowo czytał pola listy, kiedy mieliśmy wirtualny kursor włączony to już zostało poprawione, nie czytał też pol listy, które też były dodatkowo oznaczone jako tylko do czytu, atrybutem aria to też zostało poprawione, porwiono problem, że z klawiszem szybkiej nawigacji nie działały przeglądarce Chrome po tym jak zablokowaliśmy i odblokowaliśmy nasz komputer.
Poprawiono błąd, że Joss podzielał elementy w niektórych listach na kilka akapitów, jeśli były wykorzystane tagi paragrafu, tagi akapitu nawet.
Poprawiono problem, że Joss zawieszał się na niektórych listach rozwijanych, na niektórych polach kombi.
Kiedy poruszamy się po siatce, na której znajdują się jakieś pola wyboru, które możemy zaznaczać i rytualny kursor jest wyłączony, poprawiono problem, że Joss nie zawsze informował, że dany wiersz jest zaznaczony.
Poprawki w Braille’u. Poprawiono problem, że Braille podzielony czasami aktywował się sam z siebie w Excelu.
Program Libluise do tłumaczenia Braille’a został zaktualizowany do wersji 3.29.
JAWS będzie teraz automatycznie wykrywał monitory HIMS, więc już nie będzie trzeba ręcznie portów wybierać, pewnie z ustawień.
W Wordzie poprawiono błąd, że przyciski przywołania kursora nie zawsze przywołały kursora w odpowiednie miejsce.
Jeśli dokument zawierał jakieś skomplikowane formatowanie, to myślę, że też wiele osób ucieszy.
Ogólne poprawki w Josie. Znaczna poprawa wydajności w Polak Edycji, zwłaszcza w Outlooku.
Joss powinien też startować szybciej, dla nowych instalacji Jossa ikona FS Readera już nie będzie umieszczona na pulpicie, FS Reader cały czas będzie instalowany, ale po prostu ikona do niego znajdziemy tylko w menu Start, natomiast dla tych którzy Jossa aktualizują to ta ikonka nie zniknie, także jeśli ktoś chce żeby ten FS Reader był na pulpicie to ta ikonka cały czas będzie.
Poprawiono błąd, że czasami automatyczna zmiana języka syntezatora i tak się aktywowała, nawet jeśli sobie tą opcję wyłączyliśmy.
To głównie był problem, który pojawiał się w językach innych niż angielski.
Mamy poprawki w asystencie głosowym w języku francuskim i holenderskim.
I poprawiono błąd, że Jot nie zawsze startował na ekranie logowania Windows.
I mamy jeszcze inne poprawki. Dodano skrypty do aplikacji BartExpress, czyli aplikacji do pobierania książek z amerykańskiej biblioteki dla niewidomych.
Poprawiono działanie funkcji do łączenia plików w skrótem Alt-X w Whatsappie.
I poprawiono nawigację do niektórych pól w formularzach zawartych w plikach PDF jeśli korzystamy z Adobe Readera DC.
No i to wszystko jeśli chodzi o tą majową aktualizację, natomiast jak widać tych zmian jest całkiem sporo i myślę, że wielu osobom się spodobają, zwłaszcza jeśli chodzi o tego asystenta, fajnie, że można się o różne rzeczy dopytywać, to jest coś o co wiele osób prosiło.
No i fajnie, że faktycznie firma Vispero sugestii posłuchała.
Zaglądamy do waszych wypowiedzi, bo są kolejne.
Mat na dobry początek.
Witam. Czy jest jakiś sprawdzony sposób, żeby wiedzieć czy Zoom H1E nagrywa czy nie?
Oto Tomku.
No jeżeli masz podłączone słuchawki, no to na przykład można nacisnąć
Któryś z tych czterech przycisków i wtedy on stawiał marker, zresztą tak, chyba tak, to był chyba taki sposób.
Gorzej, gdy korzysta się z wbudowanego głośnika w Zooma, no bo wtedy rzeczywiście, no jest to o tyle problem,
że wtedy jest dość ograniczona mowa przez ten głośnik i ja na razie nie widzę takiego sposobu, żeby sprawdzić na przykład, czy mamy baterie jakieś tam wyczerpane.
To, co zrobiłem, to podpiąłem sobie jakieś słuchawki koreczki do Zooma i po prostu mam je podpięte ciągle i po prostu na chwilkę sobie je daję do ucha.
Nawet nie to, że przez cały czas mam je w uchu, tylko co jakiś czas sprawdzam sobie, czy wszystko się nagrywa, natomiast w momencie, myślę, że gdybym chciał mieć taką stuprocentową pewność, że na pewno się wszystko nagrywa, no to po pierwsze bym włożył nowe baterie do Zooma, po drugie w związku z tym, że Zoom może być teraz zasilany z, znaczy teraz, chyba od jakiegoś czasu te urządzenia mogły być zasilane z powerbanków, natomiast chyba Zoom teraz o tym jakoś pisze.
to nie wiem, czy ja w ogóle czegoś takiego nie zrobię, że kupię sobie jakiś taki niezbyt duży powerbank do zasilania właśnie zooma głównie, jakiś nie wiem, 5 tysięcy, 10 tysięcy, jakiś nie jakiś taki bardzo duży i po prostu w momencie, gdy mam jakieś szczególnie ważne nagranie i mogę tak zrobić, no bo znam naszą osobę, która nie może skorzystać z powerbanka,
no to po prostu bym zaopatrzył się w nowe baterie jakieś sprawdzone, tudzież akumulatory, no i włączam nagrywanie,
bo włączanie nagrywania jest sygnalizowane dźwiękiem, blokuje klawiaturę, no i wtedy jest troszkę lepiej.
Aczkolwiek rzeczywiście mi brakuje takiego stuprocentowego sprawdzenia, że na pewno się nagrywa.
Oczywiście no bez angażowania jakiegoś OCR-a, no bo jakby to jest wszędzie taki sposób, zapewne jakoś tam się sprawdzi.
Natomiast no miło by było, gdyby można było jakoś to sprawdzić tak w stu procentach.
Na razie chyba nie można, przynajmniej ja nie znam takiego sposobu.
To jeszcze jedno pytanie od Mateusza tym razem i myślę, że tutaj też może coś Tomku powiesz.
Witajcie, co myślicie na temat dostępności aplikacji w Thermomixie i Lidlomixie lub ewentualnie innych robotów z funkcją gotowania?
Zdaje się, że ty coś tam testowałeś, prawda?
Miałem, to znaczy mam robot TVA, natomiast tak, podobno Thermomix słabo, Lidlomix chyba też, ale nie jestem pewien.
Te nowe termomiksy w ogóle mają zdaje się ekran dotykowy, więc dla nas to tym bardziej niezbyt fortunne rozwiązanie.
I teraz tak, nowe te fale chyba też mają w ogóle jakiś dotykowy, tylko nie wiem czy to są przyciski dotykowe i to by się jakoś dało.
Czy to jest ekran dotykowy, bo trzeba niestety brać pod uwagę to, że coraz więcej urządzeń ma ekran po prostu dotykowy,
na którym te lokalizacja przycisków może się zmieniać, natomiast my mamy te fala, który jeszcze jest niedotykowy i to w ogóle jest aplikacja dosyć specyficzna,
dlatego że tą aplikacją nie da się, to znaczy nie no, jeżeli mamy przepis, to rzeczywiście da się wysłać do robota jakby polecenie następny krok.
Natomiast jeżeli mam go w trybie ręcznym, to nie mogę na przykład z aplikacji ustawić temperatury, ale mogę te temperatury ustawić na urządzeniu i ta temperatura czy czas czy obroty będą wyświetlane w aplikacji.
Natomiast właśnie rzeczywiście jak mam jakiś przepis z aplikacji ich tam jest coś w tej chwili koło tysiąca, no to rzeczywiście mam po prostu przycisk następny i chyba włączyć z tego co pamiętam muszę już w urządzeniu przyciskiem.
Natomiast na pewno właśnie ten następny krok mogę sobie zrobić w aplikacji i mogę sobie przejrzeć listę i aplikacja jest generalnie dostępna i dość przyjazna.
Okej, no i jeszcze jedna informacja tekstowa, bo mamy jeszcze wypowiedź. Mamy informację od wiernego słuchacza.
Witajcie, chciałbym się podzielić informacją, że specjalny ośrodek szkolno-wychowawczy w Łodzi
prowadzi nabór na kurs kwalifikacyjny z zakresu tyfloinformatyki.
Trwa on półtora roku i umożliwia przystąpienie do egzaminu kwalifikacyjnego dla zawodu technik tyfloinformatyk.
Szczegóły pod poniższym linkiem, tu jest adres blind.edu.pl, ukośnik strona, ukośnik kurs minus kwalifikacyjny.
Taki adres, ale myślę, że uda nam się go również wrzucić do naszych notatek, ja już sobie go tutaj też odhaczam, żeby starać się o tym pamiętać.
No to dobrze, to teraz jeszcze posłuchajmy jednej wiadomości głosowej, która do nas w międzyczasie przybyła, a jest to wiadomość od Rafała.
Nagrywanie bez przytrzymywań. Wyślij przycisk.
Dobry wieczór. Mam takie pytanko do was. Trochę chyba nietypowe.
Chodzi mi, czy znacie takie urządzenie, albo urządzenie, chodzi mi po prostu o klawiaturę brailowską do, w jaki sposób ona będzie tam działać, czy tam na bluetooth, czy na usb, to troszkę nie ma to dla mnie znaczenia.
Chociaż bym wolał bezprawodową, ale wiadomo, ale ostateczności nie ma znaczenia.
Wiem, że monitory brailowskie takie coś mają, ale czy oprócz monitorów brailowskich, czy coś takiego jest?
No, wiem, że eBay miał, ale no, mnie wstydza eBayus, no, od iPhone’a 13 to tak działa źle, żeby nie powiedzieć, żeby nie powiedzieć, że tragicznie.
Więc pytam, czy nie znacie jakiegoś takiego, innego urządzenia, bądź najlepiej, żeby to była typowa klawiatura.
Żeby nie było to urządzenie, no wiadomo, że gdyby było, to by było, ale jakby była sama klawiatura, to by było najlepiej.
Dziękuję, pozdrawiam.
Jest jeszcze Orbit Writer, który chyba jest tańszy, bo on chyba jakieś koło 100 euro kosztował, nie wiem czy on jest w Polsce sprzedawany.
Właśnie to jest mój problem, że te urządzenia nie są w Polsce, no.
Też podstawowa różnica między Hable a Orbita, bo też ludzie się na tym zastanawiali i też dotarł do takiej informacji.
Orbit to jest taka tradycyjna klawiatura w takim ugadzie Perkinsa jak na maszynie, a Hable co ciekawe jest chyba trochę mniejszy,
ale te klawisze ma ułożone tak jak na tabliczce, to znaczy tak byśmy pisali w wejściu Braille’a ekranem od siebie, tak, trzymamy to urządzenie w ten sposób.
Czyli ta klawiatura jest w kształcie sześciopunktu tak jakby, tak?
Tak, dokładnie, dokładnie.
Coś co też możesz zrobić, tylko to musiałbyś znaleźć sobie, bo prawdopodobnie nie posiadasz, no chociaż może posiadasz, skąd wiemy,
Drukarkę 3D i też umiejętności, żeby to samodzielnie poskładać, jest urządzenie OSCAR względnie Metabraille, bo to różne ma nazwy, od naszego tutaj hackerspace’u lokalnego z Wiednia, Metalab,
gdzie na stronie projektu są zarówno pliki, otwarte źródłowe wzory do drukarek 3D, jak to wydrukować, wszystkie części oraz informacje, całe wiki, jak tylko w języku angielskim, jak to wszystko poskładać razem, żeby działało, no właśnie, to jest wersja zrób to sam.
Ale gdybyś na przykład potrzebował pomocy w tym zakresie, to podejrzewam, że można by na przykład się spróbować zwrócić do prowadnicy.
Może oni by pomogli ze stworzeniem tego. Jeżeli byłbyś, Rafale, zainteresowany w ogóle tego typu urządzeniem, no jest, jak widać, trochę różnych rozwiązań.
No to przechodzimy chyba do następnego newsa, zresztą właśnie od Pawła. Być może też pojawi się na Sight City jakiś urząd zajętego typu, a tymczasem mamy listę wystawców na tych targach.
Tak, bo od dziś, od 15 maja do 18 maja, te targi odbywają się, jak to zwykle, we Frankfurcie.
Największe targi sprzętu asystującego, no i nie tylko, targi w ogóle dla osób z dysfunkcją wzroku w Europie.
No i jak co roku postanowiłem przyjrzeć się liście wystawców i stworzyć bardzo subiektywną listę tego, na co warto zwrócić uwagę.
Mówię bardzo subiektywną, bo tu zastosowałem kilka filtrów. Po pierwsze skupiłem się bardziej na wystawcach nowych, takich których nazwy mi nic nie mówiły.
No bo wystawcy starzy, no to na tyle raczej śledzimy w ciągu roku to co się dzieje w technologiach, że o wielu rzeczach wiecie, tak?
o Envision wiecie, o Brailsensach, Emotionach i tak dalej wiecie, o Humanware’ach wiecie,
no te typowe firmy różne, które się pojawiają wszędzie na świecie.
Natomiast te firmy takie mniejsze, jakieś startup’iki, które przyjechały po raz pierwszy, albo firmy z jakichś egzotycznych krajów.
O tym na co dzień wiemy troszkę mniej.
Więc tutaj fajnie było zapoznać się z tym, co nowicjusze mają do zaproponowania.
Oczywiście to, co teraz Wam wymienię, to też nie będzie wszystko prawdopodobnie co do Side City.
W najbliższych tygodniach ja się spodziewam, że opublikowane będą podcasty w ramach
chociażby podcastu Sideviews, Bawarskiego Związku Niewidomych,
gdzie pan Christian Stahlberg co roku prowadzi wywiady z wystawcami,
więc domyślam się, że jeżeli tam coś jeszcze, znaczy jeżeli coś bym miał znaleźć
jeszcze à propos Side City, co by się miało wydarzyć z takiego
rewolucyjnego, no to znajdę to tam. Pewnie kilka innych podcastów też coś
będzie o tym mówić, więc myślę, że spokojnie możemy
liczyć na te materiały, ale na razie taka lista. Ja też wspomniałem o kilku wystawcach starszych,
więc złamałem troszkę tą zasadę, że przedstawiam samych nowych, no z tego powodu,
żeby wspomnieć o kilku produktach, do których wiem, że są jakieś nowości, mniejsze lub większe.
Natomiast raczej skupiam się na nowych, na tych, co do których nic nie wiedziałem wcześniej.
No i którzy rzeczywiście coś dla osób niewidomych robią, pomijałem już tam jakieś firmy instalujące, linie prowadzące i tego typu rzeczy, dałem sobie spokój, a skupiłem się właśnie na takich typowo rozwiązaniach, które no może kiedyś my sobie kupimy, a może nie, a może pojawią się na dofinansowanie, a może nie, a może zainstalujemy sobie na telefonie i tak dalej.
No więc zaczynamy od polskich akcentów na Side City, bo takowe są, typowi podejrzani usual suspects jak zwykle tam są, czyli Altix, Harpo, ale też jest nowa firma, nie wiem czy słyszeliście o takiej, ja pierwsze w życiu słyszę, Miracle, Robert Biegański i Małgorzata Bauer, spółka jawna z Łodzi.
Byli kiedyś na Recha.
O widzisz, no to robią lupy i powiększalniki. To mi umknęli. No nie dziwię się w sumie, bo to…
Nazwisko gdzieś mi się objęło, pamiętam kiedyś na Recha, bo montowałem i… Tylko nie pamiętam, czy to była ta sama firma. Musiałbym zobaczyć.
Bardzo możliwe. To pozdrawiamy, może nas gdzieś słuchają, albo słucha nas ktoś, kto używa ich produktów, to dajcie znać.
No i zaczynamy od, bo tutaj alfabetycznie sobie wypisałem mniej więcej, od A, a na A jest firma Another Day, firma z Korei i tutaj nie jestem do końca pewien, jak oni, o co im do końca chodzi, bo oni stworzyli farbę, która pozwoli osobom niewidomym wyczuć kolory po zapachu.
Więc takie dziwne zjawisko, niby też nie tylko możemy interpretować obrazy, które są w ten sposób namalowane, ale też je tworzyć, używając odpowiednich zapachów.
Także to taki jest pomysł tutaj z Korei, ciekawe jakim się to sprawdzi. Następnie mamy firmę Bejit Limited z Turcji.
No na rynku tureckim jest to dostawca wielu produktów, takich jak właśnie linijki brajlowskie, screenreadery i tak dalej.
No i tutaj przywieźli coś, co się nazywa Brailleland.
I jest to, z tego co czytam, taki rodzaj powierzchni, na której można pisać brajlem, czy to jest jakaś tabliczka brajlowska.
podana jest tylko ilość znaków i ilość linii, więc przypuszczam, że są to jakieś urządzenia do zapisu brajla w formie trwałej takiej papierowej i też mają linijki takie geometryczne,
w sensie linijki brailowskie do chyba cyrkle też, czy kontomierze, takie narzędzia matematyczne, ale nie słyszałem o tej firmie wcześniej, więc informuję.
Canon Deutschland się wystawia i tu nie do końca wiadomo, co oni mają, bo nie były wymienione żadne produkty, natomiast były wymienione kategorie, w jakich ta firma się zarejestrowała, że produkty oferuje.
I jest ciekawie, bo wypisane są pomoce dla osób niewidomych, drukarki i maszyny brailowskie.
Także nie wiem, czyżby Canon wszedł na rynek drukarek brailowskich, a może już byli na tym rynku, a ja nic o tym nie wiedziałem, ale Canon jest.
Myślę, że za jakiś czas może się przekonamy, z czym firma Canon przybyła.
Następnie mamy startup z Belgii, MV.AI. Rzekomo MV jest aplikacją, która jest taką jakby sztuczną inteligencją, która wszystko nam załatwia.
Czyta, interpretuje obrazy, czyta dokumenty, opisuje sceny i właśnie o ten opis scen najbardziej nam chodzi, bo w tym opisie scen skupia się na emocjach,
które są przez te zdjęcia wyrażane.
No więc tutaj ten aspekt emocjonalny jest gdzieś dla firmy bardzo ważny
i ma być jakoś bardziej szczegółowo opisany.
Patrzyłem, aplikacja nie jest dostępna,
a w polskim App Store przynajmniej,
więc albo jest to na razie jakaś zamknięta beta,
albo do Polski ta aplikacja jeszcze nie dotarła.
Przenosimy się do Hiszpanii,
bo tam firma iSynth proponuje nam okulary,
które interpretują obraz w formie dźwięku 3D zrozumiałego dla osób niewidomych.
Nie wiem jak sobie to wyobrazić, czy to jest coś jak ta aplikacja The Voice, która jest dla mnie taką zagadką,
bo to jest aplikacja, która rzekomo dużo może i ona już od lat sobie jest i tak dalej.
Natomiast żeby zrozumieć to, co ta aplikacja chce pokazać, no to trzeba przejść chyba jakieś masywne szkolenie
i się nauczyć interpretowania tych odgłosów,
bo jest to dla mnie wybitna kakofonia.
Jak sobie radzi z tym Ace EyeSynth?
Szczerze mówiąc możemy się o tym przekonać
i jeżeli temat by bardzo was jakoś zainteresował,
no to mogę się postarać,
bo rzecz była już omawiana
w ramach kilku hiszpańskojęzycznych podcastów
dla niewidomych, do których mam dostęp,
no tylko musiałbym sobie tutaj jak zwykle
stranskrybować i przetłumaczyć.
Natomiast jeżeli jest zainteresowanie,
to mogę zrobić jakiś research i coś o iSynth na najbliższy raz albo za jakiś czas opowiedzieć.
Handy Acceler Braille, pisane B R apostrof E E E, Braille, francuska firma i ich narzędzie do nauki Brailla.
Narzędzie, które tego Brailla uczy nas przez zabawę i tam są różne minigry, jakieś quizy muzyczne,
wpisywanie słów za pomocą jakichś żetonów i my jesteśmy potem poprawiani.
Jakaś forma rywalizacji jest też tam wprowadzona, można za pomocą Braille grać w kilka osób na przykład
i w ten sposób uczyć się Braille’a, jakieś pojedynki, konkursy i tak dalej.
No więc tu jest takie urządzenie. Kino, no to już start-up znany z Zero.
Jeżeli słuchaliście naszej audycji o Zero Project Conference, no to tam jak najbardziej startup z Kenny, jeżeli dobrze pamiętam, zagościł i była to rękawiczka na rękę, która wibrowała nam różne komunikaty.
Do motywu wibrowania jeszcze wrócimy na samym końcu, ale za nim to firma Leeline z Łotwy, która zajmuje się tak normalnie systemami do zarządzania kolejkami.
I to są różne kolejki. Kolejki przepuszczania ciężarówek, jakieś tam kolejki na wydarzenia, jakieś wydawanie biletów do stania w kolejce i zarządzanie kolejkami różnego rodzaju.
A na Site City prawdopodobnie z tego co wyczytałem są z udźwiękowionymi maszynami typu kiosk, więc tu już zaczyna się powoli działalność w stronę Europejskiej Ustawy o Dostępności,
co bardzo cieszy, bo potrzebujemy jeszcze pionierów w dziedzinie właśnie dostępnych kiosków.
Light Vision, firma z Korei Południowej, z Seulu. I tu mamy aplikację Visionverse i rozwiązanie, które pomaga nam orientować się w transporcie miejskim.
Aplikacja, patrzyłem, nie jest dostępna właśnie jeszcze w App Store, ale według opisu producenta ma ona nam pomóc w zidentyfikowaniu
czyli numer i jaka linia, nawet jeżeli podjeżdża tych autobusów więcej, a w środku autobusu nawigacja do najbliższego kasownika czy też automatu na bilety.
No więc tutaj ciekawe, na ile to jest implementowane na całym świecie, na ile to działa od, że tak powiem, strzału wszędzie,
a na ile to trzeba interpretować i implementować pod kątem transportu miejskiego w konkretnym kraju.
Myślę, że o tym się jeszcze przekonamy.
Page Braille, pisane Paige Braille.
Brytyjski startup, zresztą zaangażowany w niego jest Sean Randall,
którego możecie kojarzyć chociażby z Mastodona czy Twittera.
Jest to jeden z chyba instruktorów nawet w Royal National College for the Blind w Hereford,
jeżeli dobrze kojarzę.
Herford albo Worcester która jest takich właśnie szkół dla niewidomych brytyjskich znanych tych koledży.
Autor aplikacji Skype Talking czy Jottera jakby ktoś kojarzył także.
A to on też. Rzeczywiście. Myślę że Skype Talking to był Hrvoje Kadyć.
Może pomyliłem aplikację SKV chyba się nazywało to jeszcze było chyba przed Skype Talking przepraszam.
Jotter to był on na pewno.
Tak tak tak. No więc człowiek który który już kilka fajnych rzeczy stworzył.
Czym jest Page Braille?
No Page Braille to jest bardzo wymyślne urządzenie,
bo urządzenie, które działa w ten sposób,
że w zwykłym maszynie Perkins
demontujemy ten spód, ten taki tekturowy spód,
który tam na pewno kojarzycie, że jest
i montujemy w nim właśnie Page Braille’a.
I w tym momencie to urządzenie
łączy się na Bluetooth z naszym smartfonem,
wykrywa naciśnięcia klawiszy na Perkinsie
i przekazuje je jako konkretne litery Braille’a
do aplikacji na smartfonie.
I mamy fantastyczną, dyskretną, cichą klawiaturę.
Tak, bardzo.
Są osoby widzące, które sobie przeprojektowują maszyny do pisania na klawiatury, na USB i na Bluetooth, więc w sumie czemu nie maszyny pegaskie.
Wiecie, ale to nawet, ja sobie wyobrażam coś takiego, mimo wszystko może w jakiejś szkole, żeby, okej, pisać notatki i masz notatki w brajlu, ale masz też w razie czego cyfrowe.
– Oprócz tego, tak, ale wiecie, to nawet przy okazji pisania jakichś egzaminów, że dobra, na przykład mamy jakąś tam, nie wiem, matematykę albo coś na kartce, sobie liczymy, ale przy okazji też jest to w postaci elektronicznej, żeby nauczyciel, który nie zna Braila, mógł sobie to podejrzeć.
To znaczy ja nie jestem do końca pewien, na ile to na 100% działa jako klawiatura zewnętrzna.
Domyślam się, że też, natomiast na pewno jest bardzo poruszany aspekt edukacyjny,
że jest tam dedykowana aplikacja i my piszemy coś na tej maszynie, na tym perkinsie klasycznym,
a wyświetla się to np. naszemu tam nauczycielowi na smartfonie.
No i tak to mniej więcej działa, więc to bardzo ciekawe urządzenie.
Seventh Sense, czyli kolejne podejście do okularów, które opiszą nam w jakiś sposób rzeczywistość, to jest startup estoński.
Ja już słyszałem o nim, ale nie mówiłem o nim w tym slop przeglądzie i zaraz wam powiem czemu.
Otóż odbyły się już testy tego startupu w Luksemburgu i udało mi się uzyskać kontakt z osobami, które testowały to urządzenie.
No po pierwsze jest to ponoć hełm, czyli kolejne urządzenie, które bardzo niepraktycznie wygląda.
A po drugie, jakiś bardzo negatywny feedback otrzymałem odnośnie tego, jak to urządzenie informuje nas o tym.
Już teraz nie pamiętam dokładnie o co tam chodziło, natomiast bardzo jakieś były niejasne te komunikaty
i ogólna użyteczność urządzenia w takiej formie, w jakiej ono jest teraz, była oceniana dość nisko,
więc nawet nie chciałem zawracać Wam tym głowy.
Tangible Surface Research. Amerykańska firma, która oferuje nam naklejki na różnorakie sprzęty.
Są pakiety dostępne na klejek na pralki, na kuchenki, na mikrofalówki.
No i ogólnie takie mieszane naklejki na co tam chcemy.
No więc takie znów dotykowe symbole do ponaklejania na różne sprzęty.
Unwired Things, firma z Danii, która ma nam do zap…
Ja bym się tu trochę wtrącił, bo właśnie jakiś czas temu u nas chcieliśmy nakleić coś na naszą suszarkę dotykową.
I słuchajcie, są w sklepach papierniczych takie dla dzieci chyba, to są jakieś kółeczka,
jakieś mniejsze, większe kropeczki, lidereczki, jakieś takie różne rzeczy, właśnie do naklejania, co prawda głównie na papier, ale niekoniecznie i można też tam poszukać i to jest tań jak, no bardzo tanie,
bo no to myślę dzieci, więc no to jest jakieś takie kawałki plastiku, pewnie produkowane masowo i z tego też można skorzystać.
My to mamy już od paru ładnych miesięcy zamontowane na tej suszarce i nam to się trzyma.
I to są właśnie jakieś kropeczki, jakieś kółeczka, pewnie są jakieś różne rzeczy i myślę, że można by z czegoś takiego też skorzystać.
A z ciekawości, jakie jest główne przeznaczenie tego typu elementów w takim zwykłym sklepie papierniczym?
No właśnie dla dzieci, żeby tam sobie coś naklejały, żeby coś, więc to jest tanie.
to nie pamiętam ile to kosztowało, ale niedużo, tak, no bo to jest produkt właśnie dla dzieci, więc tego dużo, no i no właśnie, taki może, nie wiem, apel, czy może, nie wiem, taka sugestia,
być może jest ktoś tutaj, kto prowadzi jakiś sklep dla niewidomych, to być może to jest dobry pomysł, żeby poszukać właśnie po różnych sklepach, znaczy takich standardowych produktach,
Bo być może okaże się, że naprawdę sporo jest takich produktów, które mogą być dla nas przydatne i niekoniecznie trzeba je wymyślać i produkować w jakichś szczątkowych ilościach i brać za to duże pieniądze.
Tylko nawet jeżeli byśmy sobie za to wzięli jakiś procent, to jest szansa, że jakoś by się to sprzedawało. Taka ciekawostka.
Wracając do listy, duńska firma Unwired Things, oni mają nam do zaproponowania, opisują to jako system IoT, czyli Internet of Things,
internet rzeczy, do sterowania urządzeniami w domu, niska cena, dostępny, udźwiękowiony, za pomocą jakiegoś uniwersalnego pilota,
tylko nie do końca rozumiem, tam niby jest wbudowana funkcja minutnika, zegara, alarmu,
dodatek głosowy, więc trochę nie rozumiem, czy to jest taki rodzaj mówiącego zegarka,
czy tam kryje się coś więcej. Trzeba by rzeczywiście dodatkowo jeszcze jakiejś informacji poszukać.
Natomiast jest też mówiący termometr, mówiąca waga kuchenna i kilka jeszcze takich mówiących drobnych elementów i ma to być rzekomo przystępne cenowo, także to jest kupon przetargowy firmy Unwired Things.
White Cane Ayo, lekka laska biała z Niemiec. Tyle się dowiedzieliśmy.
Która była na Lecha, zdaje się.
Nie Comte Derenda, żeby była jasność. Nie mówię o tej tytanowej, takiej wytrzymałej Comte Derenda.
Nie.
Tutaj jakaś White Cane, jakaś taka lekka.
Tak. Oni chyba byli na Lecha.
I oni… Skąd oni byli? Już nie pamiętam.
No tu jest napisane, że z Niemiec.
Taka nazwa mi się kojarzyła.
To była ta laska, która, ona się poniekąd sama składała,
to znaczy jak był duży nacisk na to, to tam wyskakiwał,
jak był jedna część z drugiej, to znaczy chodziło o to,
że nie walczymy z jakimiś przedmiotami typu samochód,
który najeżdża na laskę, tylko ta laska się zegnie,
a potem się znowu uprostuje.
O widzisz, no to fajnie.
Tylko 600 euro.
No tak, bywa i tak.
No i ostatni, chociaż nie do końca ostatni startup, tak po liście alfabetycznej,
X-Tactor IT i ich produkt X-Band.
Jest to produkt produkcji szwedzkiej i jest to wibrująca opaska na rękę,
która za pomocą wibracji informuje nas o aktualnej godzinie.
o powiadomieniach z telefonu oraz o wskazówkach nawigacyjnych z aplikacji Clue.
Clue to jest jedna z tych aplikacji do projektowania tras wewnątrz budynku,
gdzie kamerą rejestrujemy przebieg naszej trasy i później smartfon jest nam w stanie
tę trasę odtworzyć i nas pokierować.
Także tutaj się zdecydowano na taką współpracę.
No i trochę na sam koniec zostawiłem sobie WeWalka, ponieważ WeWalk wypuścił drugą wersję swojej laski, jest WeWalk 2 i już wam przeczytam za AppleVis, bo tutaj ktoś postarał się i stworzył post.
Zresztą WeWalk też był na RECHA, więc w audycji o RECHA będzie można sobie posłuchać wywiadu.
Tak, ale WeWalk zdaje się, że to dopiero parę dni temu, nie parę dni, tylko jakoś tydzień, dwa temu wypuścił w okolicach majówki jakoś był webinar i wypuścili tą nową wersję.
Zaadresowano dużo z tych skarg, które mieli użytkownicy wersji pierwszej i np. usprawniono ergonomikę i wagę urządzenia.
Urządzenie wygląda jak zwykła laska. Ciekawe o co im chodzi. Ja jestem zawsze zagubiony w takich opisach, bo z tego co pamiętam to była zwykła nakładka na ambutecha,
więc jakby sam Wiwok to jest tylko moduł przyczepiony na rączkę laski, no ale zmniejszyli wagę i o ile pierwsza generacja ważyła 252 gramy, no to już druga jedyne 190 gramów.
Po drugie, ulepszono głośnik i tutaj użyto głośników Harman Kardon i dzięki temu bardzo wyrównała się wyraźność tego dźwięku.
Istotnie ten głośnik w wersji pierwszej pozostawiał wiele do życzenia, to trzeba przyznać.
Tak, i oni chyba nawet mówili, że no to taki na w razie czego, w jakichś awaryjnych sytuacjach, ale zasadnicze słuchawki.
Właśnie nie do końca, bo to była podstawa obsługi tej laski wtedy. Jakby kontrolowanie wszystkiego, co się dzieje na tej lasce, jakby co się dzieje w aplikacji smartfonowej, odbywało się na panelu dotykowym i wyjście tego, co my robiliśmy, wychodziło przez ten głośnik, całe sterowanie po menu.
Albo słuchawki, bo tam był zdaje się albo jack, albo jakoś to można było ze słuchawkami połączyć i oni mówili, przynajmniej na recha, że jakby podstawa to słuchawki byle jakieś z przewoznictwem kostnym czy jakieś, żeby to nie zakłócało.
Natomiast ten głośnik, no to według tego co mówili na recha, no to taki miał być, no nie wiem, rozładowały się słuchawki, no to okej, w razie czego jakoś ten głośnik jakoś da radę, może.
Aha, no to tutaj już wprowadzony jest nowy głośnik i to nie bylejaki.
Usprawniono też motorek wibracyjny oraz port ładowania.
Port ładowania jest już USB-C, nie żadne micro-USB.
No a motor został usprawniony na bardziej intuicyjny,
więc pewnie jest też bardziej wyczuwalny i w jakimś bardziej logicznym miejscu zamontowany.
Panel dotykowy został zamieniony na przyciski naciskane, o to jest ciekawe i można teraz już chodzić w deszczu i normalnie używać.
Rzeczywiście problemem było to, że poprzednia edycja nie była wodoodporna, więc trzeba było naprawdę uważać na to urządzenie i w deszczu nie można było z nim chodzić.
No i był ten panel dotykowy, teraz zamieniono to na tradycyjne fizyczne przyciski i już jest to wodoodporne.
Zintegrowano też czata GPT, do czego dokładnie nie jest w tym krótkim podsumowaniu napisane, natomiast od października już będzie potrzebny specjalny abonament, żeby z tych funkcji AI korzystać.
No i cena LASKI, regularna cena taka tradycyjna 849 dolarów, 100 dolarów zniżki dla osób, które kupią teraz przez sprzedaży, czyli serię 749 dolarów.
No i jeżeli ktoś miał wersję pierwszą, to też można z jakąś zniżką to wymienić.
A, usprawniono też wykrywanie przeszkód, teraz ten wykrywacz przeszkód jest trochę bardziej wyczulony i odległość do przeszkody jest dużo lepiej zrozumiała dzięki dźwiękom, które przypominają czujnik parkowania w samochodzie.
Ciekawe na ile to się sprawdza w terenie, ale tak to wygląda jeżeli chodzi o eWalka 2.
Natomiast kończąc już temat Side City, to pojawiło się kilka monitorów w większej wersji,
na przykład Activator, o którym mówiliśmy rok temu Helptechu, czyli monitor brailowski
ze stacją z wbudowaną klawiaturą zarówno brailowską jak i kuwerty oraz stacją dockującą dla iPhone’a.
No teraz doczekał się wersji Pro, która prawdopodobnie różni się tylko tym, że jest większa, już nie ma 40 znaków, a zdaje się 80.
Swoją drogą, skoro już o tym mówimy, to też nie wiem, czy Asus swojego BeNote’a nie wypuścił, nie wiem czy oni są na Site City,
ale BeNote został wypuszczony w wersji 64 i 80 znakowej.
No i to chyba tyle, jak chodzi o Side City.
No więc trochę nowych rzeczy jest, parę ciekawych istotnie.
No i czekamy na wywiady, czekamy na dalsze informacje,
które może gdzieś tam w międzyczasie się ukażą.
Na tak zwanym holdzie czekał też dość długo Bartek,
ale się w końcu doczekał. Dobry wieczór Bartku.
No witajcie serdecznie w końcu na żywo, Myślałem, że po
zeszłym, tygodniowym chuchliku, bo też spróbowaliście
kilka razy wejść na antenę ale się nie udało Myślałem, że
tyfloprzeglądu nie będzie chociaż tyflohedy były, więc
zdążyliśmy się chociaż załapać na to co, było w tym
tyfloprzeglądzie ale wczoraj bynajmniej na stronę
zajrzały więc można było przesłuchać bo się tyfloprzegląd
jest 231 pojawił i tutaj i
pierwszy właśnie pierwsza pierwsze moje wrażenie
którym chce się podzielić oczywiście pozytywnym
wrażeniem to super, że w końcu mobile MPK pojawił się
na iOS bo już chociaż de facto do pobrałem go dopiero
wczoraj i tylko powiedzmy, że dwa razy go powiedzmy
przetestowałem to wstępnie mogę sobie wyrobić opinię
że na pewno jest lepszy niż Mówit, chociażby pod takim względem,
że od dzisiaj przez powiedzmy półtora miesiąca w Bydgoszczy
kilka linii autobusowych koło mnie zmieniło trasę ze względu
na remont ulicy i już w MPK Mobile ta zmiana się pojawiła.
A chociażby na przykładzie aplikacji Mówit też będzie jakoś
z miesiąc temu jedna właśnie z linii powróciła koło mnie,
a nadal w Mówit jest stara trasa pokazana, więc wydaje mi się,
że w tym przypadku, jeżeli chodzi o Mobile MPK, to rzeczywiście
on tutaj naprawdę bardzo duże plusy u mnie zaczyna łapać.
Tym bardziej, że chociażby w porównaniu z Time For Abbas,
jak sam Tomku to podkreśliłeś w audycji,
że jest więcej miast i możemy sobie przeglądać więcej
chociażby właśnie tras komunikacyjnych z innych miast,
tak jak ja to zacząłem robić.
I to, co Tomku podkreśliliście w zeszłym, w zeszłej audycji,
że też są rowery i powiem, że to też nawet śmiesznie wygląda,
bo u mnie też w Bydgoszczy jest rower aglomeracyjny i rzeczywiście to de facto może się przydać tylko osobom widzącym,
ale można bynajmniej sprawdzić ilość pozostałych rowerów na danej stacji, w danej lokalizacji i to akurat osobom widzącym na pewno się też przyda.
No zapewne tutaj iOS-owców tak zwanych, jeżeli chodzi o niewidomych, jest więcej chyba niż Android-owców,
Więc ta opcja nie będzie zbytnio przydatna, ale wydaje mi się, że jeżeli chodzi o linie autobusowe, tramwajowe, czy też metro, to jak najbardziej się sprawdzi bardziej od Mówita moim zdaniem.
Takie subiektywne zdanie mam w tej chwili.
To znaczy mówid jakby bazuje na trochę innej filozofii, bo mówid działa chyba w taki sposób, to jest taki podstawowy sposób działania.
Powiedz nam gdzie jedziesz, a my już zadbamy o resztę, a mobile MPK to jest raczej masz rozkład jazdy i rób co chcesz.
I jakby to jest taki starszy po niekon sposób, który raczej tutaj zrzuta na użytkownika, tutaj sprawdzenie sobie wszystkiego, natomiast mi się podoba akurat ten system, natomiast póki co wersja na iOS-a ma jeszcze kilka problemów, na przykład wersja na Androida nie ma tych wszystkich jak i strzałka, coś tutaj, jeden flik, jeden autobus, ewentualnie dwa,
bo na przykład jest tak, że mam na przykład jakiś przystanek, centrum, no i widzę 171 kierunek, 128 kierunek, tam 127 kierunek, coś tam jeszcze kierunek i teraz, nie, przepraszam, nie kierunek, tylko godzina.
że 127 kierunek, coś tam, to jest jedno i godzina, to jest drugie. 128 kierunek jakiś tam, to jest jedno i godzina drugiej.
Teraz, jeżeli stuknę w linię, to pokazują mi się wszystkie odjazdy danej linii z tego przystanku, więc mogę sobie jakby bardzo szybko sprawdzić, kiedy jest następny, w razie czego.
Bo na przykład w sumie to bym chętnie skoczył do sklepu, tylko pytanie, czy następny będzie za pół godziny czy za pięć minut.
Natomiast jeżeli kliknę w godzinę, to mogę sobie sprawdzić cały kurs tego autobusu, ewentualnie informacje, że to jest pojazd niskopodłogowy, że coś tam jeszcze, albo nie wiem, zjazd do sejezdni, jakieś takie informacje.
Także tutaj w iOS-ie tego jeszcze nie bardzo jest, poza tym jak sprawdzę cały kurs, to klikając w kolejne przystanki mam informacje o odjazdach z tych konkretnych przystanków.
Więc no o tyle to jest fajne, że rzeczywiście można sobie podróżować niejako wirtualnie po różnych przystankach, różnymi abusami i w ten sposób albo się bawić,
się albo po prostu sprawdzać komunikację miejską w danym
mieście także no to to to jest ciekawe to to jeżeli chodzi o
MPK Mobile to zauważyłem właśnie że jak patrzymy całą
trasę danej linii to też właśnie mamy.
Ile od przystanku do przystanku jedzie czyli jak mamy
przystanek A i przystanek B to jest podany czas między tymi
przystankami tak i idąc dalej przystanek B przystanek C i
mamy to samo. Też właśnie w MPK Mobile to bynajmniej zauważyłem.
To to może być właśnie ciekawe, bo to jest oczywiście czas
szacunkowy, prawda? Ale czy orientujecie się?
Czy jest możliwość chociażby śledzenia, jeżeli jeszcze czekamy na danym
przystanku, za ile nasz autobus przyjedzie?
To znaczy z tego co wiem samo nie powie.
Trzeba sprawdzać.
I teraz tak, no na Androidzie, bo głównie mimo wszystko na Androidzie korzystam z tej aplikacji.
No na Androidzie ten czas jest odświeżany.
Natomiast na iOSie nie wiem jak to wygląda.
Ale Tomku to trzeba wejść w linię tak, rozumiem, czy w dany przystanek?
Nie, w dany przystanek.
To znaczy ja wchodzę w rozkład według przystanku, znaczy rozkład z przystanku.
wchodzę w ten przystanek, bo on jest tam w tych najbliższych, dlatego, że też trzeba pamiętać o tym, że…
Tak, tak, tak, zawsze na górze chyba zauważyłem, że te najbliższe są.
To znaczy, to wygląda, to wygląda troszkę inaczej. Na górze są ostatnio użyte,
potem są najbliższe i potem wszystkie. A tak naprawdę jeszcze na samej górze
jest pole edycji, w którym można sobie wpisać nazwę jakiegoś przystanku,
na którym chce się, na którym chce się sprawdzić.
To bardzo duże prawdopodobieństwo u mnie jest to, że ja po raz pierwszy tą funkcję odpaliłem
i dlatego mi na samej górze, no oprócz oczywiście tego pola do wysłuchiwania,
pokazały najbliższe przystanki, jakie są w twojej okolicy.
Ja się tak jeszcze tylko wtrącę, że jutro w Tyflo Radiu po godzinie 19
będzie cała audycja poświęcona Mobile MPK na iOS-a.
Wojtek Dulski będzie prezentował te aplikacje, więc…
No i chyba będzie trzeba też wysłuchać.
Jakieś pytania się pojawią, konkretne, szczegółowe, to myślę, że warto będzie też…
To znaczy, trzeba wiedzieć, dobrze wiedzieć, że to jest dopiero pierwsza wersja, która się ukazała na iOS-a.
Pytanie, czy w testach beta uczestniczyły osoby niewidome. Możliwe, że nie.
Więc jeżeli nie, no to pytanie, czy do producenta spływa jakiś ten tak zwany feedback od osób niewidomych.
W ogóle z tego, co ja rozmawiałem z Wojtkiem kiedyś, bo on próbował się kontaktować jakoś w ogóle z twórcami Mobile MPK,
no to tamten kontakt jest dosyć utrudniony i też żadnej informacji nie było w ogóle wcześniejszej, że coś powstaje dla tego iOS-a,
że taka aplikacja ma się ukazać, więc nawet nie było specjalnie jak zareagować.
Co nasz Michalina myśli, że jest kontakt utrudniony, bynajmniej Wojtek coś mówił?
To znaczy tak, z tego co rozmawiałem z Wojtkiem, no że po prostu tam generalnie kontakt jest problematyczny, żeby pojawiały się jakieś czy odpowiedzi, czy jakiś w ogóle taki dialog.
Czy nawet jak mailowo byśmy się z nimi kontaktowali, to oni odpowiadają?
Wiesz co, to już nie wiem, to już myślę, że ten temat przerzućmy na jutro po prostu.
Ok. Dobrze. Dobrze. W porządku. Dobrze. No to teraz Tomku druga sprawa taka pytanie właściwie do ciebie bo w majówkę
zaprezentowałem sobie można powiedzieć podróż do stolicy. No to taki powiedzmy no spontaniczny w tej i z powrotem.
Chciałem też sprawdzić poniekąd właśnie komunikację w waszym mieście i dzięki opóźnionemu pociągowi z Bydgoszczy
miał okazję być w stolicy o godzinę dłużej, ale do czego uderzam?
Powiedz mi Tomku, jak w ogóle wygląda ta dostępność
dworca centralnego, bo jeżeli chodzi z takiej mojej perspektywy,
to jeżeli chodzi o samo wyjście z Peru, to ja miałem problem
bynajmniej z dojściem do schodów.
Bo schody ruchome dopiero zauważyłem, można powiedzieć,
słuchem je wyłapałem, bo jak szedłem wzdłuż linii naprowadzającej, wzdłuż peronu,
to nie znalazłem linii naprowadzającej, która by doprowadziła do schodów
zarówno zwykłych, jak i ruchomych.
Tak, to znaczy…
A czy są w ogóle jakieś opisy brajlowskie, jeżeli chodzi o jakąkolwiek
dostępność, bo też tego nie zauważyłem, nawet na poręczach, tak jak jest
z Bydgoszczy tutaj u mnie na dworcu, jeżeli chociaż wychodzi na peron.
To znaczy tak, bo w związku z tym, że
dworzec centralny ma te perony podziemne, więc jeżdża się na perony na dół.
I teraz większość schodów na peron z tych tzw.
galerii, bo na dworcu centralnym są galerie, to są schody ruchome i tam mam
wrażenie, znaczy w ogóle bardzo często jest jakoś tak, że na schodach ruchomych
prawie nigdzie nie ma opisów brajlowskich i te opisy są z reguły np. w Metrze jest tak samo i w kilku innych dworcach też widziałem, że jak były gdzieś napisy to na poręczach tych zwykłych, a nie na poręczach schodów ruchomych.
I z jednej strony no jakby rozumiem o co chodzi, no tam na schodach ruchomych to nie ma co się nawet dziwić, bo tak naprawdę to nie wiadomo gdzie by one miały się znajdować, bo te poręce chyba jeżdżą zazwyczaj, nie? Tak jest.
To znaczy no można na tej takiej metalowej czy szklanej, nie wiem, może podstawie, tylko z drugiej strony kto tam zagląda. Więc to jest takie…
No właśnie, nie ma takiej usystematyzowanej zasady, prawda,
gdzie te napisy powinny być pomieszczane.
I dlatego osoby niewidome są troszeczkę zdezorientowane pod tym względem.
To znaczy tak, na pewno na Tyflu Akademii,
kiedyś na Tyflowiki, jest duży opis Dworca Centralnego, tekstowy,
tyle że, no, Dworzec Centralny jest dość skomplikowany.
Ma masę wyjść, dlatego że on ma w sumie trzy poziomy.
Na najniższym poziomie są perony, na tym takim średnim poziomie minus jeden są właśnie galerie, do tego jest jeszcze wszystko połączone z przejściem podziemnym pod rondą 40-latka, dodatkowo peronem można przejść na dworzec Śródmieście, do takiego małego przejścia podziemnego, jest jeszcze drugie przejście podziemne też w okolicach tego ronda i jest jeszcze stacja WKD.
Natomiast na górze jest hala główna dworca centralnego, ona jest dość spora, no i tych galerii jest ileś, znaczy są w sumie cztery, pięć, północna, południowa, wschodnia, środkowa, zachodnia, one mają takie nazwy.
wejść na perony też jest sporo, bo na dwóch galeriach jest chyba po jednym plus w tej jednej galerii jeszcze są chyba dwa, dwa zejścia na perony.
Więc generalnie z peronów można wejść do trzech różnych galerii, w tym do jednej dwiema różnymi parami schodów, po jednej i po drugiej stronie, więc generalnie tych schodów na peronie jest dość dużo ruchomych.
No ja akurat miałem tego farta, że jechałem 3 maja, więc wszystkie galerie i złote tarasy i nie wiem jak ta druga galeria się nazywa, były zamknięte, więc powiem tobie szczerze, że udało mi się wyjść bodajże chyba na Alei Jerozolimskich i Jana Pawła II skrzypowanie.
Nie, nie, nie. Mi nie chodzi o galerie handlowe, tylko jest pięć korytarzy, które są nazywane galeriami.
Aha, w ten sposób, okej, przepraszam, bo galeria, no wiadomo, z czym się kojarzy, wiadomo.
To jest jeszcze co innego, to jest galeria handlowa, do której rzeczywiście też można dojść z dworca centralnego bezpośrednio.
Generalnie w ogóle z dworca centralnego, tak sobie teraz to, znaczy jakiś czas temu już to sobie uprzytomniłem,
że można na dobrą sprawę prawie dwa przystanki, autobusowe lub tramwajowe,
przejść pod ziemią.
Ale to wtedy będzie się wsłoł wzdłuż Alei Jerozolimskich?
Tak. I można zacząć sobie od peronu
kolei WKD, przejść na centralny,
przejść tam na peron i wyjść
dworcem Warszawa Śródmieście, który sprawia,
jakby początek peronu WKD
że jest no bliżej, powiedzmy, przystanku jeszcze tego jakby na zachód od
od Dworca Centralnego, czyli Plac Starekiewicza,
po czym
jest cały kompleks przystanków, nawet kilka kompleksów przystanków w pewnym
sensie, znaczy to jest jakby, no te wszystkie przystanki nazywają się
Dworzec Centralny, ale jest pętla, na którą wychodzi się z hali głównej.
jest przystanek tramwajowy, który w zależności od tego, w którą stronę pójdziemy od tramwaju,
przynajmniej właśnie na Alejach Jerozolimskich, to można wejść albo do jednego przejścia podziemnego,
albo do drugiego przejścia podziemnego.
No to tak naprawdę rzecz ujmując, żeby poznać ten dworzec centralny, to minimum tydzień trzeba w Warszawie zostać,
żeby w ogóle go poznać.
To znaczy inaczej.
Nawet dla takich zaawansowanych niewidomych.
To znaczy, myślę, że jakiś ogarnięty nauczyciel orientacji by to wytłumaczył, tak?
Jeszcze w zależności od tego, kto jak myśli, można powiedzieć.
To znaczy, no mi bardzo na przykład brakuje planów wszelkiego rodzaju.
Ale wiem, że dużo osób niewidomych planów nie lubi.
Więc no…
Te plany są takie dość słabo chyba zrozumiałe, bo ja w Bydgoszczy też nie potrafiłem zrozumieć.
A też mogę powiedzieć, że mam zastrzeżenia chociażby do
tych napisów na poręczach które informują o peronach
właśnie jak jechałem do Warszawy startowałem z peronu
drugiego a tym przejść tym przejściem którym dotarłem na
peron na poręczy nie było napisane, że prowadzi na peron
I.
Musiałem tutaj poprosić o pomoc przypadkowe osoby na
Na szczęście to wszyscy okazali się, wyrozumieli, jak również obsługa pociągu, ale to akurat idzie na plus.
Ale dobrze, to tak tylko oczywiście podpytałem, bo powiem Tobie szczerze, że na pewno powtórzę taki wypad jeszcze niejednokrotnie.
Pewien sentyment do stolicy.
Ale pozostajmy jeszcze w temacie kolei.
A propos jeszcze Koleo, możecie mnie tylko upewnić, czy nam jako korzystającym z czytników
VoiceOver i TalkBack, chociaż tutaj w moim przypadku chociażby to będzie VoiceOver,
można wybrać w Intercity miejsce bynajmniej z listy jakoś zrozumiałe,
bo jak ja to przeglądałem ostatnio właśnie jak do Warszawy jechałem,
to tak dziwnie te miejsca były jakby ponumerowane.
Szczerze mówiąc, moim zdaniem to jest zrobione akurat słabo. Ten wybór miejsca ze schematu jakiś taki dla mnie jest nieintuicyjny.
Może ktoś ma na to patent, ja jakoś powiem szczerze nie…
Nawet z tej formy tekstowej nie byłem w stanie pojąć.
I tylko jeżeli możecie mnie jeszcze upewnić, a propos Koleo, tam można w przód do 30 dni chyba tylko te rozkłady przeglądać.
Oj, wydaje mi się, że nawet jakoś dalej, ale…
Bo ja właśnie chciałem sprawdzić na 16 czerwca, a mogłem, dzisiaj mamy 15, prawda?
Tak, dzisiaj jest 15, to tylko do 14 mi pokazywał i dalej była granica.
Jak wybieramy dzień.
Mam takie wrażenie, że kiedyś udawało mi się to sprawdzić jakoś dalej, ale może coś w międzyczasie pozmieniali.
Dobrze, no to w porządku, to troszeczkę przejdę dalej, miejmy nadzieję, że krótko.
Okej, przejdę teraz może do bardziej technologicznych rzeczy związanych z aplikacjami.
Pierwsza informacja, niestety, wydaje mi się, że też na gorszy,
przynajmniej na tę chwilę, to jest aplikacja WP Pilot, która ostatnio dostała aktualizację
i niestety moim zdaniem, jeżeli chodzi o czytnik ekranu, to niestety na gorsze.
Bo jeżeli chodzi o listę programów, która czytelna jest, ale jest zbyt skomplikowana,
jeżeli chodzi o przemieszczanie się po niej.
bo jak wcześniej mieliśmy nazwę programu i zaraz czytaną nazwę aktualnego programu,
który leci na danej stacji, to teraz mamy wszystko w osobnych wierszach,
dodatkowo jeszcze są te sekwencje program, jakieś obrazki, nie obrazki
i o dziwo nawet nie ma tego górnego przycisku play, bynajmniej ja nie znalazłem
na głównej stronie i nie możemy zobaczyć danego rozkładu do końca dnia,
jakie programy będą emitowane w danej stacji.
Miejmy nadzieję, że to bynajmniej zostanie poprawione
przy najbliższej aktualizacji,
chociaż nie wiem, czy to osoby widzące też się z tym styknęły,
czy tylko u nas, że tak powiem, ten problem występuje.
Kolejną sprawą tutaj też zwracam się do was z pytaniem,
bo chodzi konkretnie mi o strony tyflopodcast.net.
Chciałbym sobie odtworzyć strumień ze strony,
czyli jak wchodzę w zakładkę tyfloradio i jest ten odnośnik
kliknij by włączyć tyfloradio.
Ja się zastanawiam dlaczego po wejściu w ten odnośnik
uruchamia mi się okno pobierania i do folderu z pobranymi pobierami
próbuję, bo dzisiaj nawet wyświetlił mi się błąd,
że pobiera mi plik
listen.pls.
Dlatego, że to jest playlista.
Dlatego, że to jest playlista, a ten odnośnik jest do wklejenia
do odtwarzacza zewnętrznego.
Jeżeli chcesz, Bartku, odsłuchać z poziomu przeglądarki,
to tam masz odtwarzacz, który możesz sobie kliknąć.
Tak, tak, tak, znalazłem ten odtwarzacz, to się zgadza.
To akurat ten problem nie dotyczył mnie, bo ja i tak sobie wcześniej zrobiłem
playlistę z adresu URL, który znajduje się poniżej.
Także to nie było żadnego problemu, ale podobny problem mam
chociażby właśnie ze subskrypcją podcastów z danej kategorii.
że jak klikam w odnośnik
subskrybuj podcasty z tej kategorii, to
też mi jakiś dziwny w ogóle plik bez rozszerzenia pobiera.
Pobiera Ci prawdopodobnie po prostu
kanał RSS, a zamiast
klikać w ten odnośnik, najlepiej sobie go skopiować i wkleić bezpośrednio do programu,
za pomocą którego chcesz subskrybować.
Ale jeżeli Michale pozwolisz, że dopytam tylko subskrypcja, chodzi o to, że wtedy wszystkie podcasty wyświetlili jakby na stronie?
Nie, z danej kategorii, no bo to są podcasty, to są podcasty, to są podcasty, to są odnośniki do kanałów RSS.
Więc musisz mieć narzędzie, którym to będziesz obsługiwał.
Jakiś program do odtwarzania podcastów albo po prostu czytnik RSS.
A co polecasz?
Pod Windowsa to obecnie to chyba z takich dostępnych dla nas notowisu RSS.
Albo na przykład w Firefoxie, czy te zakładki dynamiczne to jeszcze tam działają?
W ogóle?
Szczerze powiedziawszy nigdy z tego nie korzystałem, więc…
Szczerze mówiąc to nawet nie pamiętam.
No ale z zewnętrznych aplikacji, no to WISU RSS chociażby.
Albo sobie możesz do Thunderbirda dodać, jeżeli używasz.
Nie no, Thunderbirda to oczywiście, że używam, bo pocztę przecież mam także.
Tak, no ale Thunderbird obsługuje też kanały NSS.
A wtedy jak to w Thunderbirdzie zrobić?
Tam jest konfiguracja osobnego konta, jak dobrze pamiętam.
Pawle, może ty częściej używasz Thunderbirda, może ty bardziej pamiętasz.
Czyli trzeba wejść w narzędzia i zakładka konta i tam pewnie dodaj konto, tak?
Tak, jest przycisk w ogóle pod tabem dodaj konto i tam się wybiera
podmeniczne ma być konto pocztowe, czy to mają być RSS-y, czy konto czatu, komunikatora.
I otwiera się kreator.
Okej, a jeżeli byśmy skonfigurowali konto RSS, ale na tą chwilę takiego konta nie posiadamy,
to jak założyć wtedy?
Znaczy to nie jest, znaczy konto nie konto, no to jest jakby podpina się po prostu
konkretny kanał i on wtedy sobie tworzy swój własny folder.
Czyli wtedy jakbym to konfigurował to muszę wtedy wkleić ten odnośnik tak?
Tak. Dokładnie tak.
Okej. No to bynajmniej mam pewną alternatywę żeby to…
Poza tym Bartku pamiętaj, że Tyflopodcast pod Windowsem ma swoją własną aplikację.
No właśnie zawsze zabieram się do tego żeby to pobrać tylko przypomnijcie nazwę jak można poprosić.
Znajdziesz, znajdziesz informacje jak słuchać Tyflo Podcastu, tam będziesz miał oprócz informacji dotyczących właśnie kanał RSS, tam będzie link do aplikacji.
Okej i jeszcze jedna…
Ona jest do pobrania na GitHubie.
Okej, w porządku i jeszcze taka jedna informacja też może nie zła,
ale dość przykra, bynajmniej dla użytkowników, którzy korzystają z aplikacji Play24.
Nie wiem, czy wśród Was są takie osoby?
Dziwnie słyszę, więc chyba nie.
Więc tutaj informację też dla innych, chociaż może już to zauważyliście,
że kiedy wchodzimy w aplikację, prosi nas zazwyczaj opin,
który sobie ustaliliśmy do zalogowania się do aplikacji.
I dla, bynajmniej dla użytkowników iOS-a,
czyli tych, którzy korzystają z VoiceOver,
niestety nie jest widoczna klawiatura.
To znaczy, klawiatura jest widoczna, tyle że jest źle odczytywana,
Bo każdą cyfrę odczytuje nam jako tryb interakcji, to się tak jakoś nazywa.
I po prostu nie jesteśmy w stanie, że tak powiem, rozpoznać na której cyfrze aktualnie się znajdujemy.
Więc tutaj niestety możemy tylko i wyłącznie polegać na znajomości klawiatury T9 tak zwanej.
czyli po prostu klawiatury numerycznej.
No to nie wiem czy to zostanie no bardzo słabo tryb tryb obszaru
tryb obszaru interakcji tryb obszaru interakcji nawet jak zwykłym flikiem
się przemieszczamy.
Jedynie pozostaje właśnie przesuwanie się.
Bynajmniej polecam od dołu ekranu czyli jadąc od zera.
I wydaje mi się że to będzie najlepsza orientacja tutaj dla osób niewidomych
bynajmniej na tą chwilę.
Bo nie wiem co że tak powiem będzie w
najbliższej aktualizacji ale myślę.
Zastanawiam się w ogóle czy to zgłosić.
Chociaż patrząc na to jak
traktują nasze.
Zastanawiam się jaki był cel tego bo
ten interakcja bezpośrednio to jest
generalnie wykorzystywana w sytuacji
kiedy voiceover ma
nie interpretować gestów.
Tak na przykład aplikacji która
powiedzmy gramy muzykę, obszar, na którym możemy grać nutę, bo w grach to jest często wykorzystywane,
ale na takiej klawiaturze, czy tutaj jest założenie, że po prostu będziemy wpisywać bezpośrednio?
No właśnie, jak tapniemy w jakiś tam ten tryb obszaru interakcji, to nam tą cyfrę wpisze.
No i chyba to był zamysł tego, ale to tak…
No ale my do końca nie wiemy, jaką cyfrę wpisujemy, no bo przecież te cyfry mogą mieć różną wielkość, tak?
Ta ekrana, ta klawiatura może być na połowie ekranu, na trzech czwartych ekranu, no bez sensu.
Tak, jeszcze w różnych miejscach mogą być przyciski, nie wiem, OK czy kasuj, tak?
Znaczy się, kasuj, jeżeli chodzi o tą pozycję, to on zazwyczaj jest w prawym dolnym rogu ekranu.
Bartku, użyłeś dobrego słowa, zazwyczaj.
I też zazwyczaj po lewej stronie, bynajmniej w aplikacji Play24, pamiętam, był też przycisk
nie pamiętam hasła, który próbował nam wtedy to hasło zresetować.
No dobrze, ale wiecie, mamy jakiś tam powiedzmy, zakładam, limit prób na wprowadzenie tego hasła.
albo jeszcze jakieś dodatkowe zabezpieczenia, no nie, no to jest bardzo zła wiadomość.
Bo jak rozumiem te cyfry nie są w żaden sposób czytane, jak wejdziemy w ten tryb.
Nie, mówię tylko tryb obszaru interakcji, tryb obszaru interakcji, za każdym razem jak eksploracją przemieszczamy palcem po ekranie, nic więcej.
No i zgaduj zgadula, gdzie są, jakie cyfry.
W której ręce złota kula, tak, jak to się tutaj rymuje.
W porządku, myślę, czy coś jeszcze chciałem? Chyba nie, bo i tak już za dużo czasu wam antenowego zająłem, a północ niedługo.
Także ja was wtedy słucham dalej i dziękuję, że mogłem w końcu się też wypowiedzieć i miejmy nadzieję, że już żadna usterka nas nie dopadnie.
No tego byśmy sobie życzyli. Dzięki Bartku za telefon.
No do usłyszenia, trzymajcie się serdecznie.
Do usłyszenia, pozdrawiamy Cię, a tymczasem, skoro mamy tutaj jeszcze chwilkę, zanim przejdziemy do następnych tematów, to zobaczmy, co piszecie.
Matius, co do nagrywania w Zoom? Ja w Zoom H2N, aby mieć pewność, że nagrywam, robię tak, że wkładam słuchawki i mam monitor.
Jak nacisnę do nagrywania to klawisz, który otwiera menu, nie otwiera się, kiedy jest monitor i wcisnę ten klawisz, to wchodzi w menu i wtedy znika monitor, a kiedy jest nagrywanie to urządzenie nie wchodzi w menu.
Mati, witajcie. Czy znacie jakieś ciekawe dostępne aplikacje na iPhone’ie do poznawania ludzi w internecie?
Kiedyś robiliśmy nawet taki podcast.
Tak, no ja jak teraz tak myślę, to chyba najlepszy, co mi się jawi i nie jest to do końca niestety dostępne, to jest Interpals.
To jest taka typowa platforma do znajomości korespondencyjnych, gdzie po prostu się raczej pisze długie wiadomości, takie bardziej w formie listów, nawet niektórzy wymieniają rzeczywiście fizyczne listy pocztą.
Natomiast no ta aplikacja, ona to lepiej działa jako strona internetowa momentami niż jako aplikacja, no ale jest.
No Omegle się niestety zwinął, więc teraz ciężko.
No są aplikacje randkowe, różnie dostępne, no i są też grupy na Facebooku, prawdopodobnie różne jakieś do…
Dotyczące konkretnych zainteresowań.
Zainteresowań na przykład, nie?
Miejsc, o chociażby Discord jeszcze.
No jest Discord, jest dużo serwerów Discordowych.
Tak. Są nawet jakieś katalogi tych serwerów, więc możesz sobie tam poprzeglądać.
Disboard.org na przykład. Disboard.
I coś tam znaleźć dla siebie.
Na Clubhouse jeszcze są jakieś osoby, ktoś się tam kręci, czasem na jakichś Zello kanałach.
CB Radio Chat, jakkolwiek, ale się kręci.
Też o nim był podcast.
Więc zależy co lubisz, czy tekstowo, czy głosowo, czy jak tam.
Kolejna wiadomość to wiadomość od Mateusza, czy moglibyście podać dokładny model tego robota od Tefala i nasuwa mi się jedno pytanie dotyczące takich urządzeń, czy jesteśmy w stanie jakoś przetestować działanie aplikacji w sklepie, na przykład menu podstawowe przynajmniej. Tomku?
Widziałem, nie widziałem najczęściej niestety, więc jedyne co chyba nam pozostaje, no to taka praktyka, którą niektórzy kochają, niektórzy nienawidzą, no wziąć na 14 dni, znaczy wsiąć, kupić, no i w razie czego mieć ten 14-dniowy okres na zwrot.
I jeszcze trzy wiadomości z rzędu od Matiusa.
W dworcu centralnym jest prosto, schody z peronów są albo na końcach, albo na środku peronu.
Dworzec ma kształt prostokątu, galeria środkowa dzieli jakby ten prostokąt na pół.
Na perony można wejść tylko galerią środkową i galerią wschodnią i zachodnią.
I następna wiadomość, czy bilkom bilety działa? Czy nadal można tam kupować bilety?
Nie wiem. Czy ktoś z was korzysta z bilkom bilety?
Kiedyś korzystałem.
Ale bilkom bilety to nawet z mObywatelem jakoś przecież było połączone, więc chyba działa.
I jeszcze Matius, co do aplikacji Play, potwierdzam ten problem, o którym mówił Bartek.
Niestety ten problem istnieje dalej po wpisaniu PIN-u.
Wybierając konkretne panele też trzeba wybierać na czuja.
Poprawki dostępnościowe to tak swoją drogą jeszcze takie nawiązanie do tego, o czym mówiliśmy w zeszłym tygodniu.
Mianowicie, a propos Sonosa, że tam się źle z dostępnością dzieje, to się zaczyna działać chyba jednak lepiej.
Dziś czytałem informację, że wyszła jakaś aktualizacja, która poprawia dostępność, co prawda jest jeszcze trochę do zrobienia, ale jest lepiej.
No i docelowo jeszcze chyba do końca miesiąca ma to wszystko zostać poprawione.
I nawet już jest jeszcze jedna aktualizacja, którą testują beta testerzy i już jedna osoba na Macedonie napisała, że ma tą wersję beta na testflacie i tam jest jeszcze lepiej, więc faktycznie w ogóle było Q&A z deweloperami wczoraj na forum i tam m.in. też w odpowiedzi na post Jonathana Mosena i paru innych osób też jeszcze raz firma potwierdziła, że przepraszają, że tak się stało.
Na podciśnienie też wiemy, że aplikacje mają jakieś elementy w systemie Flutter, takim wieloplatformowym, ale same interfejsy są nadal natywne, więc na iOS jest to SwiftUI, na Androidzie jest to też interfejs natywny, więc za dostępność, jeśli zostanie to zrobione tak jak powinno być, to powinno być dobrze.
No i tutaj Marko Ceje taką wątpliwość rzucił. Jak bardzo trzeba było się postarać, żeby zepsuć tak mocno aplikację w natywnym SwiftUI. Przecież tam dostępność podstawowa robi się sama.
Jeżeli ktoś stosuje oczywiście natywne kontrolki, a nawet jak nie stosuje się do końca natywnych, no to co najwyżej jest, nie wiem, przycisk, ale bez etykietki.
a tam, zdaje się, jest tak potężny miszmasz, że godne podziwu jest to, jak bardzo firma się postarała.
Swoją drogą, dość zabawne jest to, że stwierdzili, że wypuszczenie tej nowej aplikacji wymagało odwagi.
Ciekawe.
W sumie tak, wziąwszy pod uwagę to, co się stało potem.
To znaczy tak, na pewno trzeba mieć dużą umiejętność przyjmowania krytyki na klatę, to tak.
To już firma Sonos przećwiczyła.
Tak, no dobrze, to przechodzimy do kolejnych nowości, bo troszkę ich jeszcze nam zostało, np. nowości dostępności w Apple, które się mają pojawić, bo tutaj Apple coś zdradził, zdaje się.
Tak, i to taka miła niespodzianka, dlatego że dla tych, którzy nie wiedzą,
jutro mamy światowy dzień świadomości o dostępności
i jak to bywa od ostatnich kilku lat, wiele tych dużych firm
różne rzeczy z tej okazji pisze, bardzo często pokazują nam nad czym pracują.
No i tak samo robi już od jakiegoś czasu firma Apple.
Myślałem, że to właśnie się stanie jutro, a tutaj miła niespodzianka, bo
ta wiadomość pojawiła się na kilka godzin przed naszą audycją, więc dzisiaj o tym sobie porozmawiamy, a nie w przyszłym tygodniu.
To od razu mogę powiedzieć, że nie będzie wszystko na pewno, no bo tutaj generalnie są wymyjane takie rzeczy, które, no trzeba sobie powiedzieć, robią dobre nagłówki, tak, na portalach technologicznych i tego typu rzeczach.
Ale pewnie tych nowości będzie znacznie więcej, kiedy te systemy zaczną się już pojawiać, no to pewnie będziemy wiedzieli już wszystko.
natomiast już na ten moment całkiem sporo się możemy dowiedzieć i taką
sztandarową nowością jest coś, co może nie będzie stricte przydatne dla osób
niewidomych, ale dla osób, które takich rzeczy potrzebują, to na pewno będzie
bardzo ważna funkcja, a mianowicie obsługa iPhone’ów i iPad’ów poprzez gesty oczyma.
Więc tak jak to działa na Vision Pro, gdzie większość tego interfejsu jest
jest właśnie zrobiona po prostu poprzez patrzenie się na konkretne przyciski,
a później np.
stuknięcie jednym palcem u drugi, żeby w coś kliknąć.
Podobna technologia zaczęła pojawiać się na iPhonach i iPadach, gdzie przednia
kamerka naszego urządzenia po prostu będzie w stanie śledzić ruch naszych oczu i w ten
sposób osoby, które takich funkcji potrzebują są w stanie poruszać się po całym
systemie, dodawać sobie różne skróty, nawigować po interfejsach i uaktywniać różne
przyciski. To jest taka sztandarowa nowość w tym roku.
Oczywiście to wszystko prywatne, kalibracja trwa kilka sekund i konfiguracja tego pierwsza
nie wymaga żadnego dodatkowego sprzętu, więc to myślę, że może być bardzo ważne,
no bo wcześniej nawet jak mieliśmy kontrolę przełącznikami to na pewno były takie
urządzenia, które pozwalały to śledzić na przykład, które można było podłączyć na
bluetooth czy na kabel. Na Windowsie taka obsługa w systemie też była, ale ona
wymagała też właśnie zewnętrznych akcesoriów, które nie zgłębiałem w rynku,
ale przypuszczam, że tanie nie były pewnie, więc jeśli to faktycznie działa tak dobrze
jak zapowiada firma, a na pewno trochę zainwestowali w dopracowanie tej
technologii przez Vision Pro, no to myślę, że tutaj będą osoby miały na co czekać.
Następnie dla osób, które mają problemy ze słuchem, ale myślę, że to może
czasami inne osoby też sobie będą włączać.
Mamy haptykę dla muzyki, czyli funkcja, która chyba gdzieś na telefonach Samsunga
jakiś czas, pamiętam, że było takie coś w ustawieniach dostępności, można było sobie
włączyć taką opcję, żeby wszelki dźwięk otwarzany na telefonie był też odgrywany
przez haptyka na tym urządzeniu, natomiast to nie było jakieś bardzo dokładne, no a tutaj firma Apple obiecuje coś bardziej dopracowanego, no właśnie funkcja, którą po włączeniu której nasz iPhone będzie używał swojego tego silnika do haptyki, aby odwzorować nam piosenkę, która akurat leci, to nie tylko długie wibracje, tylko jeszcze takie krótsze jakieś stuknięcia, więc tutaj pewnie też będzie jakaś tłuszczna inteligencja.
Czyli to co mamy przy dzwonkach.
Tak, tego to będzie w czasie rzeczywistym na każdej piosence.
No, ciekawe jak to będzie działało.
Może tutaj prace, które zostały dokonane przy logicu
np. będą wykorzystywane, żeby np. rozdzielić te ślady
i np. system wie faktycznie co jest perkusją, a co jest powiedzmy wokalem
i faktycznie jest w stanie do perkusji takie
prawdziwe, takie odpowiednie stłukanie wygenerować.
Ciekawe czy to się będzie dało włączyć dla dzwonków,
które sami wgramy. To mnie bardzo ciekawiło, bo ja się w ogóle zastanawiam, no bo
ja patrzyłem sobie co jakiś czas, zwłaszcza teraz moje dzieci mają trochę fazę na dzwonki
i na przykład w Samsungu S24 dzwonki są trzykanałowe, to są pliki
trójkanałowe, to nie są pliki stereo, tylko właśnie jest tam trzeci kanał dodany
I na trzecim kanale, słuchajcie, jest normalnie dźwiękiem podawana częstotliwość właśnie dla wibracji, pewnie dla haptyki i to po prostu słychać uuu, uuu, no tak jak ten telefon wibruje.
Więc jeżeli tam zostało to w ten sposób zrobione, to ja się wcale nie zdziwię, gdyby właśnie w iOS-ie było to troszkę podobnie zrobione,
bo teraz kwestia z tego, na ile ten silnik może na przykład wysokie częstotliwości ogarniać,
bo być może właśnie dałoby się zrobić coś takiego, no bo kwestie perkusji, basu, to da się zrobić,
no bo wiecie, z drugiej strony, jak mamy nawet te wszystkie różne mrugacze miksy dyskotekowe,
to one też nieraz są synchronizowane z utworami i to działa, więc to się nawet da zrobić podejrzewam,
Więc ja się wcale nie zdziwię, jak to będzie rzeczywiście trochę grana muzyka na tym haptycznym silniku, tylko w bardzo niskiej jakości, ale ja sobie wyobrażam, że coś takiego mogłoby być.
Tak i to na pewno jakoś będzie, przepuszczam, generowane, dlatego że to też nie jest coś co po prostu będzie działało na całym dźwięku na urządzeniu, to znaczy może, natomiast to działa w ten sposób, bo tak tu jest napisane, że na start to będzie dostępne w Apple Music, natomiast będzie też po prostu API, więc jeśli jakaś aplikacja będzie chciała się z tym integrować i wysyłać dźwięk do tej funkcji, no to developer będzie musiał odpowiednie API włączyć w swojej aplikacji i po prostu, kiedy to zrobić, to ta funkcja powinna działać.
Zobaczymy jak to będzie w praktyce, natomiast faktycznie zapowiada się ciekawie.
No to tak, mieliśmy ruch, mieliśmy słuch, no to teraz przyszedł czas na mowę, bo tutaj też się trochę zmieniło.
Po pierwsze, tutaj też funkcja pewnie po części dla osób, które mają problemy z używaniem ekranu dotygowego, ale nie tylko, bo myślę, że to się może przydać wszystkim.
Mamy taką funkcję, która nazywa się wokalne skróty i to pozwala nam
przepisać skróty, które możemy wywołać polecenie głosowe, tylko że to nie jest
polecenie głosowe, które wywołamy po uruchomieniu asystenta Siri, tylko
właśnie tak jak mamy to słowo klucz Siri, które nam może właśnie Siri na
naszym iPhone uaktywnić z dowolnego miejsca, to jeśli skonfigurujemy sobie
taki skrót, a proces konfiguracji wymaga tego, żebyśmy kilka razy frazę, którą
wpiszemy, wymówili, więc telefon uczy się tego, jak my to wypowiadamy,
no to możemy wtedy jednym poleceniem taki skrót wykonać.
Ja tutaj widzę dosyć duży potencjał do wielu rzeczy właśnie, żeby jednym słowem
sterować, nie wiem, otwarzaniem muzyki, ale na przykład sterować jakąś aplikacją,
może nawet do nawigacji, no bo przecież Voice Vista ma skróty do wszystkich swoich
funkcji, więc no tutaj pewnie będzie wiele kreatywnych zastosowań tego, nie wiem,
uruchamianie jakiegoś nagrywania jednym słowem.
Pytanie ile z tych funkcji będzie.
Zwłaszcza w połączeniu naszego z aplikacją skróty.
No tak, tak, oczywiście.
Do tej pory jak właśnie tworzyłem jakieś skróty, to zawsze miałem taki problem, że
ilość gestów, które można tam przeporządkować jest skończona.
To jakby nic nie powiedzieć, tam tych gestów jest naprawdę niewiele.
I trochę miałem takie wrażenie, że fajnie, ale bym chciał troszkę więcej.
No właśnie, bo mamy gesty na voiceoverze, mamy przycisk na tych nowych iPhone’ach, no i jeszcze będziemy mieli polecenia głosowe. Ja na to osobiście bardzo czekam, zobaczymy jak to będzie działało.
Zostając przy mowie, będzie nowa funkcja, którą będzie można sobie włączyć.
Słuchaj niewyraźnej mowy i to może się właśnie przydać osobom, które z tego czy z innego powodu mówią mniej wyraźnie, tutaj są podane różne choroby, np. osoby po udarze, które faktycznie mówią mniej wyraźnie.
tu zostały algorytmy odpowiednio wytrenowane, żeby takich osób
telefon czy maks słuchał lepiej, tylko będziemy musieli chyba sobie to…
Ciekawe jakie języki będą wspierane, jak tylko angielski, no to trzeba będzie trochę
pogimnastykować.
Tak.
Dobrze.
Mamy skróty.
Mamy funkcję dla osób, które mają chorobę akumulacyjną, zwłaszcza jeśli patrzą się na swoje urządzenia podczas jazdy samochodem, funkcja nazywa się Vehicle Motion Cues i to jest coś, co możemy włączyć i kiedy telefon wykrywa, że akurat samochód podskakuje, są jakieś wyboje, to wyświetla na ekranie jakoś odpowiednio kropki, jakieś rzeczy, które się na tym ekranie ruszają w taki sposób, żeby
ten dyskomfort w jakiś sposób zniwelować.
Do końca nie wiem, jak to ma działać, ale to ma właśnie pomóc osobom, które mają
problemy podczas czytania w wojecie, który szybko się porusza.
Więc myślę, że to jest coś, co się przyda.
To będzie można przełączyć sobie w centrum stylowania na przykład łatwo.
Następnie funkcja CarPlay dostaje kilka funkcji dostępności.
CarPlay to jest funkcja, która też jest związana z samochodami, bo kiedy podłączamy
iPhona do, w miarę nowego samochodu, w miarę nowego do takiego z ostatnich
kilku lat, to też można sobie radia kupić chyba, które to wspierają i po prostu
najczęściej używane elementy iPhona wyświetlają się na ekranie tego samochodu
i tam można np. sterować muzyką, to wtedy automatycznie też dźwięk
przenoszony, nawigacja, najbardziej popularne aplikacje, a teraz też są
plany nad CarPlayem nowej generacji, który będzie w stanie nawet zastąpić różne
wyświetlacze w samochodzie i np.
kontrolę nad wentylacją m.in., co wbrew pozorom może się np.
osobom niewidomym przydać, bo coraz więcej samochodów ma w ogóle nieudźwiękowane
ekrany dotykowe, więc jeśli jesteśmy pasażerem w takim samochodzie i chcielibyśmy
jakoś samemu sobie, nie wiem, temperaturę dostosować np.
z tyłu, no to jest w tym teraz większy problem.
Znaczy nawet głośność radia, bo ponoć to też nie jest zawsze takie oczywiste.
Więc ten interfejs, który właśnie na ekranach samochodów się będzie wyświetlał,
dostanie takie funkcje jak sterowanie głosem, więc będzie można w odpowiednie
przyciski klikać, filtry kolorów, rozpoznawanie dźwięków, więc tutaj też dla
osób, które nie słyszą, to jest funkcja, która powoduje, że nam iPhone wysyła
powiadomienia, kiedy, nie wiem, słyszy dzwonek, alarm jakiś, szczekanie psa.
można różne rzeczy skonfigurować, no a dla kierowców będzie w stanie wysłać
powiadomienie na ekranie samochodu, kiedy usłyszy np.
klakson albo syreny jakiegoś uprzywilejowanego pojazdu.
Powiększony tekst, też będzie można sobie tekst powiększyć, więc tutaj
ten interfejs CarPlay będzie miał takie funkcje jak znamy np.
z iPhone’ów.
Vision OS, czyli system operacyjny, który znajdziemy na
Headsecie rozszerzonej rzeczywistości Vision Pro też cały czas dostaje nowe funkcje, wiele rzeczy, które znamy z iOS-a, macOS-a, ale których na Vision Pro nie było.
Największym są tutaj napisy na żywo, Live Captions, które też są w stanie wyświetlać nam, używając rozpoznawania mowy, wyświetlają nam to, co jest mówione w aplikacjach,
ale nie tylko, bo też mogą słuchać mikrofonów i z tego co czytałem, to wygląda bardzo fenomenalnie na tym headsetcie,
dlatego że to jakoś się wyświetla, no przez to, że ten headset ma kilka mikrofonów i te kamery nam wyświetlają wszystko,
no to gdzieś te dymki z tym, jak ktoś mówi, wyświetlają się jakoś na tym, więc to wygląda bardzo futurystycznie.
No ale fajnie, że takie coś się pojawiło.
Będzie można to przenosić.
Będzie można zredukować animacje, inwersja kolorów inteligentna, zapobieganie miganiu.
Takich rzeczy też nie było na Vision Pro, a też już się pojawią.
I mamy jeszcze nie koniec aktualizacji, bo tutaj mamy taki na głowach właśnie jeszcze
kolejne aktualizacje i tutaj kilka rzeczy dla użytkowników voice overa.
Myślę, że na to wielu z Was czeka.
No czego możemy się spodziewać od Voice Overa?
No możemy się spodziewać nowych głosów.
Jakich? W jakich językach? No tyle wiemy na ten moment.
Przepuszczam, że tutaj może Apple dalej pracuje nad swoją sztuczną inteligencją
i może jakieś nowe głosy po prostu przy okazji pokażą.
Bardziej elastyczne pokrętło głosów.
Więc może tutaj tak, nie wiem czy to tylko na iOS czy na Macu może będzie jakoś to
rozdzielone, bo teraz na iOS mamy tylko pokrętło języków tak naprawdę.
Własna kontrola głośności, więc może będzie można ustawić na przykład konkretną głośność multimediów względem voice overa.
Myślę, że to jest coś, co by się mogło przydać, no bo tak na ten moment możemy voice overa ściszyć, ale później nie podgłośnić.
Czy może jakoś sterowanie głośności iPhone będzie bardziej udźwiękowane, tak jak to jest na Androidzie, nie wiem.
Tyle wiemy na ten moment i będzie jeszcze możliwość
dostosowania wszystkich skrótów klawiszowych na Macu w VoiceOverze i to się też może
podobać, bo no właśnie wbrew pozorom na Macu się tego nie dało zrobić.
Na iOSie od jakiegoś czasu mamy tą pełną, można sobie dostosować wszystkie skróty
i gesty i wszystkie skróty klawiszowe, natomiast na Macu oprócz tego, że mamy
ten w tej sekcji, teraz nie przypomnę sobie jak to zostało przetłumaczone, te
komandery, czyli szybka nawigacja i ten keyboard commander cały, czyli tam
możemy sobie do klawisza prawego option i różnych z nim kombinacji rzeczy przepisać.
To było tak naprawdę tyle, co my mogliśmy
dostosować, jeśli nam jakiś domyślny skrót voiceovera nie pasował.
No nie wiem, czytanie dla tej godziny, która jest domyślnie na skrócie
wo F8, wolelibyśmy żeby było F12 na przykład, tak jak na Windowsie.
No nie dało się tego zrobić. Jeśli był jakiś skrót, który był dla nas za trudny do nacisnięcia, a VoiceOver ma trochę takich skrótów, gdzie naciskamy CTRL, OPT, CMD, SHIFT i wszystkie klawisze, które się da generalnie,
no to teraz będziemy w stanie przynajmniej w jakiś sposób wiele z tych skrótów sobie pewnie uprościć, więc no to na pewno coś, co się przyda.
No i to na razie wszystko, co wiemy na temat VoiceOvera, natomiast pewnie będzie tego jeszcze więcej, tak jak wspominałem, no musimy poczekać na to, kiedy te systemy zaczną się pojawiać.
Ale to nie koniec nowości, bo dla tych, którzy korzystają z aplikacji Loopa, pojawi się w niej nowy tryb czytania oraz dla nowych iPhone’ów z przyciskiem czynności, przyciskiem Action, który zastąpił przełącznik wyciszania,
z jego poziomem będzie można od razu wejść do trybu wykrywania w loopie, czyli tego, który nam np. wykrywa drzwi, czyta inne rzeczy itd.
No właśnie, a propos nowości VoiceOvera, to w sumie też nie jest wszystko do końca, bo dla tych, którzy korzystają z Brailla,
pojawi się nowa opcja, która pozwoli w łatwy sposób włączyć i pozostać w wejściu ekrana Brailla,
No bo łatwo się faktycznie dało niechcące pokrętłem dwoma palcami wykonać jakiś gest, który system zainterpretuje jako potarcie i wyjdzie nam z tego wejścia Brailla, kiedy my tego nie chcemy.
No teraz będzie jakaś opcja, żeby sobie to w jakiś sposób zablokować.
Może będzie jakiś gest globalny, więc może będzie się w ogóle dało to z pokrętła wyrzucić i sobie jakimś gestem to wejście Brailla uaktywniać.
I dzięki temu będziemy mieli lepszą kontrolę nad kursorem i edycją tekstu, więc może jeszcze jakieś gesty nowe się pojawią.
Ponadto w wejściu ekranu Brailla będzie dostępny język japoński, wsparcie dla wielowierszowego Brailla na monitorze DotPad,
więc tutaj on wcześniej był wspierany do wyświetlania grafiki, ale teraz będzie też chyba w stanie interfejs wyświetlać na wielu wierszach,
więc myślę też ciekawa rzecz i będziemy w stanie wybrać różne tabele na wejście i wyjście.
Do tej pory to po prostu wybieramy jedną tabelę na cały system, wybieramy sobie jeden
język, a teraz będziemy w stanie np.
czytać brajla ośmiopunktowego, a pisać sześciopunktowym na monitorze.
Dla osób słabowidzących będzie funkcja, nie wiem jak to zostanie przetłumaczone, nazywa się
hovertyping, która podczas pisania będzie nam wyświetlała taki powiększony
widok tego tekstu, który wpisujemy, więc zawartość tego pola tekstowego
będzie się dynamicznie powiększała, nie powiększając całego ekranu i będzie
można dostosować czcionkę tego, więc nawet jeśli aplikacja nam wyświetla
coś w jakimś, jakąś niewyraźną czcionką, a stukniemy w jakieś pole
tekstowe, no to ten tekst po prostu będzie wyświetlany dla nas w bardziej
czytelny sposób, który możemy sami zdefiniować oraz kolory też możemy sobie wtedy tego tekstu wybrać.
Dla osób, które chcą skorzystać z tej funkcji Personal Voice, która pozwala nam skolonować nasz głos,
ta opcja teraz też będzie dostępna w języku chińskim, niestety cały czas polskiego nie ma oraz
Procedura nagrywania głosu też zostanie uproszczona, jeśli ktoś nie jest w stanie wypowiadać długich zdań, a te zdania, które musimy przeczytać podczas tej konfiguracji są faktycznie długie,
no to będzie można przejść proces uproszczony, gdzie będziemy pojedyncze słowa musieli czytać oraz tryb mowy na żywo, czyli to jest takie okienko, które możemy sobie wyświetlić
i dzięki temu okienku wpisywać różne rzeczy, które będą przez naszego iPhone’a czy Mac’a wypowiadane na głos czy naszym głosem lub jednym z głosów wbudowanych system.
Dostało otwarcie dla kategorii i teraz będzie mogło być uruchomione jednocześnie z funkcją napisów Live Captions.
Będzie też wirtualny gładzik, który będzie można sobie na ekranie włączyć.
sterowanie przełącznikami będzie w stanie, będziemy mogli wykorzystać aparaty w
iPhone lub iPadach, żeby zamienić nasze palce na przełączniki, czyli będziemy
mogli po prostu używać tej funkcji sterowaniem przełącznikami poprzez
stukanie palcem na biurku i to będzie interpretowane przez system jako
przełącznik, sterowanie głosowe będzie lepiej wspierało jakieś bardziej
skomplikowane słowa.
No i to wszystko co zapowiedziała firma Apple na ten moment.
Jak widać jest tego dużo.
Niektóre rzeczy wyglądają faktycznie ciekawie, ale tak jak wspominałem to są
takie rzeczy, które są najbardziej chwytowne w kwestii marketingowej, ale
pewnie tych nowości jak to zwykle bywa będzie znacznie więcej.
No tak na przykład w iOS 17 mieliśmy opcję do stosowania lepszego głosu, była ta funkcja wskaź i mów, która jakoś chyba ciepło się nie przyjęła, ale pojawiło się parę innych rzeczy, no a na Macu też działo się dosyć dużo, bo w ogóle VoiceOver na Macu przyspieszył, było trochę poprawek błędów, zmieniło się działanie szybkiej nawigacji, no ale mówię, to są rzeczy, które po prostu będziemy musieli znaleźć sami.
kiedy te systemy już zaczną się pojawiać w wersjach beta,
a to się stanie niebawem, bo już na początku czerwca.
Zaglądamy ponownie do Waszych wypowiedzi.
Mamy informację od Pawła.
Bilkom bilety nie działa.
Zarówno IC Mobile Navigator, jak i Bilkom bilety nie działają.
Ja korzystam z Koleo, według mnie najlepszej aplikacji
do kupowania biletów kolejowych różnych przewoźników.
No to myślę, że Pawle w tej kwestii nie jesteś odosobniony w opinii, natomiast mamy tu jeszcze jedną wiadomość głosową. Bartek do nas dzwonił, ale jeszcze chyba chce coś dodać.
Witam jeszcze raz. Jak zwykle o czymś zapomniałem.
Tym razem jeszcze będzie to pytanie dotyczące Excela.
Mianowicie zastanawia mnie jedna rzecz.
Przykładowo mam od komórki A2 do komórki A5 podane pewne wartości.
I powiedzmy, że w komórce B2 chcę wprowadzić formułę, aby zsumować te wartości z kolumny A.
Po wpisaniu prawidłowej formuły i wciśnięciu Enter wyświetla mi jakieś dziwne cyfry.
Zastanawiające jest to, że kiedy tę samą formułę wprowadzę przykładowo w komórce B1, to wynik jest wyświetlany poprawnie.
To na co ja bym stawiał to kwestia formatowania komórek.
może tutaj jest jakiś problem,
no bo zakładam, że formułę wpisujesz na zasadzie
równa się suma i w nawiasie tam zakres tych
komórek rozdzielony dwukropkiem.
No to jest jedyne, co im przychodzi do głowy,
dlaczego tak się dzieje. I pytanie,
czy nie próbujesz przypadkiem kopiować
tej formuły z jakiejś innej komórki?
Bo w przypadku kopiowania
to też się lubią adresy komórek zmieniać, jeżeli ich nie zablokujemy za pomocą znaku dolara.
I w takiej sytuacji on sobie sam próbuje przeliczać i być mądrzejszy odnośnie tego, co my właściwie chcemy policzyć.
Więc to takie moje przemyślenia na ten temat. Nie wiem, czy coś chcielibyście dodać?
No chyba nie.
To został nam jeszcze ostatni maraton jak zwykle newsowy i cóż…
Nie, bo ten NVIDIA, który mi przypadkowo wpadł do innej sekcji, to chyba też w tych nowości załapie. Myślę, że tu poradzimy z nim sobie.
Więc jest wersja pierwsza beta NVIDIA 2024.2, ledwo co się ukazała pierwsza wersja na ten rok, a już mamy następną.
I co tu jest nowego, już właśnie, o, zaglądam, otóż mamy nowe funkcje, konkretnie jest 8 pozycji na liście nowych funkcji, no i co my tu mamy?
Mamy nowe polecenia klawiszowe, które pozwalają nam na nawigację po nowych elementach w różnego rodzaju, na stronach internetowych, w dokumentach itd.
I na przykład w trybie przeglądania, w przeglądarkach, literka P pozwoli nam na przeskoczenie i shift P odpowiednio do poprzedniego, P do następnego, a kapitu w tekście.
To może być ciekawe, zwłaszcza jak jest jakiś artykuł, który nie ma nagłówków, ale ma powcinany tekst, no to można spokojnie sobie nawigować, co może trochę pomóc i przyspieszyć.
Mamy też nieprzypisane domyślnie skróty klawiszowe, które możemy samodzielnie przypisać,
żeby przemieszczać się do następnego i poprzedniego elementu następujących typów.
Figura, czyli takie podpisy obrazków bądź tabeli.
Akapit ułożony pionowo, czyli takie formatowanie.
Element menu
Przycisk przełączania
czyli wciśnięty, nie wciśnięty
Pasek postępu
i formuła matematyki
Aha, też tekst w tym samym stylu
czyli ta sama czcionka, krój, kolor, rozmiar itd.
i tekst innym stylem napisany
Więc trochę się nam ta nawigacja rozbudowała
No to fajnie, zwłaszcza, że to bierze pod uwagę takie przypadki, gdzie świat nie jest idealny i nie wszyscy autorzy stron internetowych czy dokumentów stosują tą semantykę HTML-owską, czyli jakieś nagłówki, punkty orientacyjne itd.
Mamy też opcję przeskoczenia do pierwszego i ostatniego elementu w danym ustawieniu tego pierścienia syntezatorów mowy Synth Ring
czyli to co robi się NVDA CTRL LEWO PRAWO
gdzie można szybko modyfikować prędkość, wysokość, głośność, głos, język itd.
No to tu możemy w tych konkretnych listach przeskakiwać do pierwszego i ostatniego elementu
Nie ma domyślnie przypisanych skrótów
No i można też zwiększać lub zmniejszać różne parametry o trochę większy krok niż normalnie o 1%.
W układzie klawiatury desktop jest to NVIDIA Control Page Up i Control Page Down,
a na laptopie NVIDIA Control Shift Page Up i Page Down.
Jest nieprzypisany domyślnie skrót do włączania lub wyłączania oznajmiania właśnie figur i podpisów,
to przy obrazkach lub tabelach
jeśli chodzi o Braille’a
no to dodano wsparcie dla monitorów braille’owskich Braille Edge S2 i S3
domyślam się, że tu chodzi o Braille Emotion również
i doszedł nowy tryb Braille’a, który nazywa się Wyświetlaj Mowę
i w tym trybie, no normalnie to Braille ma różne jakieś skróty
nie wiem, przycisk jest tam PC, znaczy BTN
Lista jest jakoś inaczej, a tabela coś tam, jakieś symbole.
No to tu mamy opcję taką, żeby Braille pokazywał dokładnie to, co mówi syntezator mowy.
No to może być przydatne dla osób głuchoniewidomych, które chciałyby gdzieś tam coś odnotować, jak dokładnie czyta syntezator mowy.
I NVIDIA Alt-T przełącza ten tryb.
No i dodano funkcję rozdzielania dźwięku, czyli SoundSplit, no to jest funkcja, która do tej pory była dostępna jako dodatek do NVIDIA, a tutaj już jest jako samodzielna funkcja, no i służy ona do tego, aby rozdzielić dźwięk po kanałach, czyli np. dźwięk NVIDIA jest w lewym kanale, a cała reszta w prawym, no to się ponoć pomaga, ja nigdy tego nie praktykowałem jeszcze, ale skupić bardziej na spotkaniach, jakichś audio, wideo, że mamy w jednym kanale rozmówców, a w drugim kanale narzędzia.
nasz screenreader, także tutaj taka jest sytuacja.
W polach edytowalnych tzw. content editable, czyli edycja tekstu
sformatowanego na stronach internetowych jest podawanie na główku w kolumn
i wierszy w tabelach. W ustawieniach formatowania dokumentu również
też opcje do wyłączenia, oznajmiania figur i podpisów.
W Windowsie 11 będą odczytywane alerty wpisywania głosowego łącznie z sugestiami.
Aha, takie jak kiedy kopiujemy numer telefonu.
No, różne sugestie dotyczące dźwięku.
No i NVIDIA będzie teraz też utrzymywać w gotowości urządzenie audio,
po prostu emitując jakiś tam niesłyszalny szum.
To co robił dodatek Bluetooth Audio Enhancement,
czy jako tam Audio Bluetooth,
taki był dodatek, który sprawiał,
żeby nam urządzenia się nie usypiały
i cały czas ta mowa płynęła nieprzerwanie,
bez żadnych postojów.
Wspierana jest też bezpieczna przeglądarka HP,
na laptopach HP.
Teraz zmiany.
Jeśli chodzi o sklep NVDA,
Minimalna i ostatnia testowana wersja
będą teraz pokazywane w polu edycyjnym ze szczegółami dotyczącymi dodatku
i opcja recenzji danego dodatku jest na wszystkich zakładkach, nie tylko na zakładce Odkrywaj
i zaktualizowano komponenty
no Libluis na przykład zaktualizowano
i tu mamy usprawnione
nową szczegółową tablicę brailowską dla języków białoruskiego i ukraińskiego z zaznaczeniem wielkich liter
oraz nowa hiszpańskojęzyczna tablica do czytania greki.
Więc to, co mówiłem kiedyś, że język hiszpański i grecki są fonetycznie bardzo bliski
i tu Maciek opowiadał różne historie z zamienianiem tych języków, jak można by napisać po hiszpańsku tekst greckim alfabetem itd.
no to tu mamy hiszpańską tablicę do czytania greckiego
i też dla języka LAO jest stopnia pierwszego
ESPEAK też został zaktualizowany
i język TIGRINIA został dodany
Pozmieniano też kilka gestów, kilka skrótów klawiszowecznych akordów
w notatnikach Braille Sense tutaj w NVDA
żeby uniknąć konfliktów z francuską tablicą brailowską
i też teraz wielokropki, które są stosowane do formatowania tekstu np. w spisach treści
już też nie będą odczytywane na niższych poziomach interpunkcji
i poprawki
poprawki w Windowsie 11
NVIDIA będzie już od razu czytał sugestie wpisywania na klawiaturach sprzętowych
I w wersji 24h2 można już używać interakcji myszą i ekranem dotykowym w panelu szybkich ustawień.
Aha, jeżeli w sklepie z dodatkami naciśniemy CTRL TAB no to Focus nam się przesunie do nowego okna i ono będzie miało właściwy tytuł.
No i jeżeli są jakieś problemy z plikami cache no to NVIDIA się nie zestartuje.
Poprawki dla przeglądarek na bazie Chromium przy użyciu, kiedy używamy UIA, czyli tego API nowego, które Microsoft stworzył do komunikacji Windowsa z różnymi technologiami asystującymi.
Naprawiono błędy sprawiające, że NVIDIA się zawieszał.
I Backspace działa już jak należy w polach logowania na stronie Gmail.
Backspace działa również dobrze w NUDI 6.1
Jeżeli mieliśmy włączone odtwarzanie dźwiękowo koordynatów myszki
no to już teraz nie będą one odgrywane kiedy aplikacja jest w trybie uśpienia
No, od teraz Adobe Reader nie powinien już ignorować
tekstów alternatywnych ustawionych na formułach
Naprawiono błąd, przez który nie były czytane opcje i z wstążki w menu aplikacji Geekbench.
Naprawiono rzadki błąd, który powodował, że problem z zapisaniem konfiguracji oznaczał również problemy z zapisywaniem profili.
Jeżeli wewnątrz pola edycji była lista w Firefoxie, to teraz Enter będzie prawidłowo otwierał tryb formularzy nawet na elementach tej listy.
Od teraz będzie prawidłowo odczytywany ustawiony stan kolumn nagłówków wiadomości w Thunderbirdzie i naprawiono przełącznik w wierszu poleceń Myślnik H, który pokazuje HELP, czyli pomoc.
No i to wszystko jeśli chodzi o tę wersję NVIDIA i zmian jest troszeczkę, no i myślę, że też jest troszeczkę nowości, więc z pewnością jest na co czekać.
Zaglądamy do waszych komentarzy i komentarze sprzeczne wzajemnie nam się tu pojawiają a propos aplikacji Bilkom, bo z kolei Łukasz napisał, że Bilkom bilety działa.
Ostatnio kupował Łukasz przez te aplikacje bilety no i się udało, więc to w ogóle ciekawostka, ale dzięki Łukaszu za te informacje i jeszcze mamy króciutką wiadomość od Bartka.
To pewnie a propos Excela.
Tutaj tylko Michale, chciałbym odpowiedzieć na Twoje pytanie.
Nie, nie kopiuję formuły z innej komórki.
Jeszcze tylko dodam, że jeżeli sumuję te wartości,
które przykładowo były od A2 do A5 w komórce A6,
to wynik również jest poprawnie wyświetlany.
No to bardzo dziwna sprawa i szczerze mówiąc na tę chwilę nie mam pomysłu co to może być.
Trzeba by było po prostu poćwiczyć ten temat na jakimś arkuszu z konkretnymi danymi
i może wtedy temat by się rozjaśnił, bo moim zdaniem to ta formuła powinna działać w dowolnej komórce,
nie tylko w komórkach wybranych, a jeżeli nie działa to prawdopodobnie tu mamy jakiś problem z formatowaniem.
No i został jeszcze ostatni no właśnie maraton newsów już częściowo zapowiedzianych, no drobne newsy.
Tutaj od Piotrka chyba głównie albo tylko nawet.
Tak, drobne newsy, dzisiaj trochę z technologii, trochę ze świata gier, zaczynając od znów tematów aplowskich,
a mianowicie pojawiły się nowe wersje systemów operacyjnych, zarówno iOS, to był iOS 17.5 oraz macOS, macOS 14.5.
Natomiast przez to, że to są małe aktualizacje, jakoś dużo tam się nie zmieniło.
Większość zmian, przynajmniej jeśli chodzi o iOS, dotyczy aplikacji News, aplikacji wiadomości, która przydałaby się w Polsce, ale niestety jej cały czas nie ma.
Tam teraz można rzeczy sobie zapisywać offline i czytać je później.
Jakieś gry nawet słowne się pojawiły, bo o tym jak New York Times kupił sobie grę
World, to wszyscy chcą też jakieś gry mieć.
Nawet LinkedIn ostatnio jakieś gry zaczął dodawać, ale to niestety w Polsce nie
działa. Co będzie działać i co pewnie za jakiś czas będzie bardzo przydatne, to
nowość, nad którą Apple pracowało z Googlem, co ciekawe, a mianowicie urządzenia
obu tych firm będą w stanie wzajemnie powiadamiać swoich użytkowników, gdyby
by zostały wykryte w ich okolicy przez dłuższy czas jakieś nieskonfigurowane urządzenia śledzące.
Czyli no tak jak od jakiegoś czasu urządzenia z Androidem były w stanie ostrzec kogoś,
że na przykład śledzi go jakiś AirTag, który może gdzieś został podejemnie podrzucony.
No to tak samo jeśli ktoś korzysta z iPhona, a jest śledzony przez urządzenie jakiejś innej firmy,
tutaj na przykład była Motorola podana, parę innych producentów.
te urządzenia, które generalnie będą działać z tym nowym standardem
odnajdywania urządzeń z Androidem, o którym parę audycji temu mówiłem,
no to iPhone też będą w stanie taki komunikat wysłać, powiedzieć nam, że
jakieś urządzenie podąża za nami i my z tego poziomu jesteśmy w stanie
wyświetlić więcej szczegółów, poprosić, żeby to urządzenie wydało
siebie jakieś dźwięki, żeby pomóc nam je zlokalizować.
Więc fajnie, że tutaj obie te firmy dogadały się w tej sprawie
i pewnie ta funkcja z czasem będzie coraz bardziej przydatna jak więcej takich
urządzeń będzie się na rynku pojawiać.
Jeśli chodzi o dostępność, no to tutaj też nie zmieniło się jakoś dużo.
Na iOS został poprawiony błąd z czytaniem szczegółowego ekranu ustawień dla głosów
Apple, głosów typu Alex na przykład, więc tutaj głosy typowo angielskie, tam słówak
prędkości taki nie było czytane prawidłowo, to już zostało naprawione.
Natomiast na Macu zmieniło się trochę więcej, po pierwsze mamy nowy błąd mianowicie jeśli mamy włączone to nowe pole wyboru, które powoduje, że szybka nawigacja zachowuje się tak, że kiedy Focus wląduje do pola tekstowego to ona się automatycznie wyłącza i kiedy z tego pola wyjdziemy to się wyłącza z powrotem, czyli taki automatyczny tryb formularza, coś w tym stylu.
to teraz zostało niedawno dodane, to niestety, i to też znów błąd z kategorii
nie wszyscy go mają, niektórzy go mają częściej, niektórzy mają go rzadziej.
VoiceOver po prostu nawet jeśli nie jesteśmy w jakimś polu tekstowym,
nam będzie czasami ten tryb szybkiej nawigacji po prostu wyłączał.
To znaczy te ściałki nam przestaną poruszać się po stronie,
tylko zaczną nam chodzić po znakach, czyli te skróty dostaje system.
Można to obchodzić poprzez wyłączanie i włączanie szybkiej nawigacji,
ale kiedy klikniemy w jakiś link, bo to się generalnie dzieje, kiedy zmieniamy strony albo klikając jakieś łącze, albo zmieniając karty otwarte, to wtedy ten błąd najczęściej się objawia.
No to się po prostu będzie pojawiało, ale tak jak wspominałem, nie u wszystkich.
Drugim obejściem jest oczywiście wyłączenie tego pola wyboru i wtedy, jeśli chcemy wpisywać do jakiegoś pola tekstowego, to po prostu ręcznie tą szybką nawigację wyłączamy,
no i wtedy ona nam po prostu zawsze będzie działała tak jak powinna, więc no tutaj
jeśli ten problem będziecie mieli po aktualizacji, a ogólnie aktualizacje
warto zainstalować, bo jest też kilka poprawek, o których za chwilę powiem,
no to właśnie albo sobie to wyłączyć, albo po prostu jakoś z tym sobie radzić.
Miejmy nadzieję, że Apple to poprawi, ale mamy poprawki, poprawki, które
myślę, że wiele osób ucieszą.
Po pierwsze, a propos Safari, już nawigacja w polach tekstowych, polach
edycji już działa prawidłowo, z tym też były problemy przez jakiś czas, nie zawsze
VoiceOver wszystko czyta tak jak powinien, to już na szczęście zostało naprawione.
VoiceOver też nie będzie nam zwalniał na dużych stronach internetowych,
z tym też były problemy, które nierawno się pojawiły, na szczęście też zostały
naprawione. Nie ma już też potrzeby wchodzenia w interakcję z polem
wyszukiwania, jeśli naciśniemy skrót WF, czyli to skrót znajdzie w voiceoverze, a mamy
włączoną szybką nawigację, czyli jeśli faktycznie mamy tą opcję włączoną, o której
wspominałem przed chwilą, no to ta szybka nawigacja nam się w tym miejscu automatycznie
nie wyłączała, no teraz już się wyłącza.
I naciskając skrót WHOME w aplikacji Słownik, teraz WPoZ nam prawidłowo
ląduje w pasku narzędzi.
To wcześniej też nie zawsze działało, ale to już zostało naprawione.
Poza tym, przynajmniej według portalu Apovice, innych zmian nie ma.
Tu zarówno na Macu, jak i też na innych systemach, bo też w międzyczasie został
zaktualizowany WatchOS i TVOS, ale tam po prostu były różne poprawki bezpieczeństwa
i jakieś mniejsze właśnie poprawki błędów.
Więc to są nowe wersje systemów Apple.
Teraz porozmawiamy chwilę o Androidzie i tutaj smutna informacja, natomiast
informacja, która gdzieś wpisuje się w to, o czym mówiliśmy niedawno, bo mówimy
ostatnio o Vocalizerze dużo, o tym, że dla użytkowników MVDA pojawił się
nowy sterownik do tego syntezatora oraz mówiliśmy o tym, że firma Code
Factory postanowiła zarzucić wsparcie dla
wokalizera na system Windows.
Zastanawialiśmy się wtedy co się stanie z wokalizerem dla Androida, bo on w sklepie
Play był, natomiast nie był aktualizowany od kilku lat i przez zmiany, które wprowadziła
firma Google nie dało się go w łatwy sposób zainstalować na nowszych urządzeniach, on się
po prostu nie wyświetlał. Trzeba było ręcznie sobie plika PK załadować i wtedy ten
syntezator się zainstalował.
No, teraz ogłoszenia oficjalnego nie ma, natomiast po prostu ze sklepu Play ten
vocalizer zniknął.
Jeśli sobie znajdziemy np.
przez Google link do tej aplikacji i w niego wejdziemy, to po prostu dostaniemy
komunikat, że strona została nieznaleziona, oficjalnej informacji nie ma.
Na stronie Code Factory podsekcja o vocalizerze dla systemu Android cały czas
jest, natomiast ona nie została zaktualizowana.
tam cały czas link download jest, no ale właśnie prowadzi nas do do linku, który nie działa.
No też na tej stronie mamy taki akapit Loren Ipsum, czyli ktoś sobie wkleił szablon i go nie zmodyfikował, więc widać jak tutaj niestety dbają o swoją stronę internetową.
Jeśli ktoś tego vocalizera ma, no to on na ten moment działa.
Nie jestem w stanie powiedzieć jak wygląda sytuacja, gdyby ktoś chciał sobie jakieś głosy dokupić.
Czy aplikacja wyświetla listę głosów, czy te głosy się pobiorą?
Przepuszczam, że tak, bo chyba te serwery jeszcze działają.
Natomiast pytanie, na jak długo?
Fajnie byłoby mieć jakieś oficjalne stanowisko od Code Factory,
natomiast na ten moment niestety tego stanowiska nie mamy.
No i to jest też, wydaje mi się, smutna informacja dla osób,
które szukają czegoś bardziej naturalnego na system Android,
no bo kiedyś do wyboru było dużo, bo była kapela, był vocalizer,
a teraz tak naprawdę została tylko acapella, ewentualnie synteza Google.
No i mamy i Spica i RH Voice’a, no ale nie każdy takie syntetyczne głosy lubi.
No na szczęście acapella jeszcze jest.
Może coś też z vocalizerem będziemy wiedzieć więcej, no.
Faktycznie taka dosyć niestety smutna informacja.
Więc może znów coś pozytywnego.
Mianowicie aplikację VMware.
Konkretnie jest to aplikacja VMware Fusion na Maca,
która nam, w ogóle VMware to firma, która zajmuje się uruchamianiem i tworzeniem wirtualnych maszyn,
czyli uruchomieniem kilku systemów operacyjnych jednocześnie na jednym komputerze.
No właśnie coś, co bardzo często np. właśnie użytkownicy komputerów Apple
robią, żeby uruchamiać Windowsa na swoich Macach i uruchamiać aplikacje z Windowsa.
Ale nie tylko, żeby nie było, bo na Windowsie też zastosowania dla wirtualnych maszyn też jak najbardziej się znajdą.
Firma, która została jakiś czas temu przejęta przez korporację Broadcom i tam po tym przejęciu zaczęły się różne rzeczy dziać.
Ludzie spodziewali się, że te narzędzia dla osób prywatnych, dla klientów indywidualnych po prostu znikną, bo Broadcom bardziej celuje w duże firmy i tam
zmiany w cennikach faktycznie to by sugerowały i tam ostro w abonamenty i tak dalej.
Natomiast niespodzianka, VMware postanowiło, że właśnie te aplikacje konsumenckie dla klientów indywidualnych będą po prostu darmowe.
I tutaj zarówno mówimy o aplikacji VMware Fusion, jak i pakietowi VMware Workstation.
I to jest fajna sprawa, dlatego że mieliśmy wcześniej darmowe wersje tych pakietów, tak zwane playery.
Był VMware Fusion Player darmowy i VMware Workstation Player na Windowsie, który pozwalał nam
jak utworzenie takiej prostej maszyny i jej uruchomienie, ale wiele zaawansowanych funkcji,
nie wiem, na przykład snapshoty, więc mogliśmy stan takiej maszyny zapisać w danym momencie
i go przywrócić, gdyby coś się stało, no wielo tych funkcji nie było.
No a teraz przez to, że mamy tę pełną wersję Workstation Pro dostępną za darmo, no to te funkcje
po prostu dostępne są, co za tym idzie też VMware Player na Windowsa już nie jest rozwijany.
Jeśli ktoś ma playera zainstalowanego to będzie musiał po prostu go odinstalować i sobie
zainstalować pełny pakiet Workstation.
W przypadku VMware Fusion wystarczy aplikację zaktualizować i wpisać nowy klucz, tam klucza
można sobie wygenerować.
Robimy to na stronie supportu Broadcom, znajdziecie linki do wszystkiego, gdzie trzeba
odpowiednie konto utworzyć i też z tamtej strony już pakiety instalacyjne sobie pobierzecie.
No fajna sprawa, zwłaszcza dla użytkowników Maców, chociaż w VMware Fusion nie ma tylu
funkcji co Parallels, co jest bardziej dostępne, co może być plusem dla wielu osób, no i jest
darmowy, co też jak najbardziej może być plusem dla wielu osób.
Dla takich dużych firm zmienił się też cennik, bo kiedyś to było było dostępne kilka
A teraz to wszystko zostało połączone w jedną subskrypcję, która kosztuje około 120 dolarów rocznie, więc tak to się zmieniło, ale dla większości osób faktycznie te aplikacje VMware są teraz po prostu darmowe.
No i na koniec kilka tematów związanych z grami.
Po pierwsze, Hearthstone, którym rusza nowa miniseria, czyli to jest taki zestaw kart, które możemy sobie kupić jednocześnie, nie bawimy się w otwieranie lasowych paczek i wiemy na 100% co dostajemy, konkretnie w tej serii będzie 38 nowych kart i ta miniseria nazywa się Wynalazki Doktora Hooka, więc tutaj cały czas mamy nawiązanie do tej dużej serii.
która pojawiła się wcześniej i mamy nowe słowo klucz, tak jak wcześniej mieliśmy słowo miniaturyzacja, karty, które nam mogły tworzyć takie swoje mini wersje, które lądowały do naszej talii i mogliśmy je wykorzystać.
No to teraz tutaj mamy gigantyzację i też karty, kiedy taką kartę zagramy, no to ona nam się skopiuje i jej kopia trafi do naszej ręki w takiej wersji powiększonej, która kosztuje 8 many i ma 8 punktów ataku i życia.
No i poza tym mamy też zmiany balansu, nie będę też czytał wszystkich,
natomiast mogę już powiedzieć, że mod Hearthstone Access został zaktualizowany,
więc można spokojnie grać i sobie tą miniserię wykupywać.
Natomiast jeśli chodzi o wsparcie ustawek w duetach,
no to ono cały czas jest dostępne w osobnej wersji,
tak jak wspominałem w poprzedniej audycji, link się nie zmienił.
Ta wersja testowa do duetów też została zaktualizowana,
żeby z tą najnowszą wersją działać.
Podobnie została zaktualizowana gra Forza Motorsport i tutaj tradycyjnie jak co miesiąc pojawiają się nowe wydarzenia i nowe samochody.
Tym razem mamy serię opartą o tak zwane Track Toys, czyli takie torowe zabawki.
Dokładnie nie wiem jak to przetłumaczyć, to są też takie samochody, które gdzieś są na pograniczu samochodów ulicznych,
to takie jazdy normalnie po ulicy, a racowych wyścigówek.
No i poza tym oczywiście mamy dużo poprawek, błędów, w tym z dostępnością tutaj kolejne rzeczy są lepiej czytane.
Bonusy kredytowe, kiedy konfigurujemy własny wyścig, bo niektóre ustawienia mają wpływ na to ile możemy kredytów za dany wyścig dostać.
Niektóre ekrany konfiguracji, tuningu samochodu, no tam parę takich poprawek, drobnych błędów jeśli chodzi o to co jest czytane zostało wprowadzone.
No i na koniec jeszcze został zaktualizowany
symulator pojazdów szynowych
Transport World Simulator, czyli TWS.
I tutaj nawet mieliśmy dwie aktualizacje.
Mniej więcej
mamy, będziemy szybciej informowani
o zbliżających się stacjach, tym razem
teraz od 3,5 km, a nie od
a nie 2,5.
Jeśli mamy brytyjski pociąg i wyjdziemy z okna
to już nie będziemy informowani o zielonych światłach, tylko będziemy dźwięki słyszeć.
Monitor statusu w Braille’u teraz będzie odświeżał się 10 razy na sekundę, a nie 80 tak jak wcześniej,
co znacznie poprawia wydajność gry, no właśnie tutaj mamy jeszcze poprawki wydajności.
I w poprzedniej wersji, która pojawiła się na początku maja, został dodany nowy komputer informacyjny,
którym możemy sobie chodzić lewym kwadratem i klawiszem apostrof po tym komputerze,
a prawym kwadratem przełączamy się między ekranami i tam możemy różne informacje o naszym podciągu w łatwy sposób sobie podglądać niektóre rzeczy z poziomu takiego menu zmieniać.
TubeStream też miał coś takiego, więc jeśli nie chcemy uczyć wszystkich skrótów na pamięć, no to też będziemy mogli wiele rzeczy sobie po prostu przełączyć z poziomu tego menu, które jest dostępne wszędzie.
No i to wszystko jeśli chodzi o drobne newsy z mojej strony.
Mamy kolejny komentarz, tym razem od Tyflopasjonaty.
Witajcie, czy da się wstawiać przypisy w pages na iPhone’ie, a jeżeli tak, to jak to ewentualnie robić?
Szybki rzut oka w Google informuje, że na pewno da się wstawiać przypisy na iPad’ie,
ale czy na iPhone’ie, to tutaj ciężko mi coś powiedzieć tak na szybko,
Chyba, że ktoś z was ma większe doświadczenie na iPhone’ie z Pejgisem, chyba nie?
Chyba nie.
To co, przechodzimy chyba do technikaliów.
Tutaj mamy kilka newsów, może Piotr sobie odpoczął.
To może, Michał, od Twojego newsa zaczniemy.
Nie chcesz podawać zdenerwowanych hasła.
Do Wi-Fi użyj kodu QR.
Tak jest, tak jest.
Można to zrobić.
przetestowałem sobie taką możliwość, na iOS-ie działa, a skoro na iOS-ie, to na Androidzie na pewno też Wam to zadziała.
Jest sobie taka stronka, której adres mogę teraz podać, bo jest akurat dość prosty, qifi.org, czyli wi-fi, ale zamiast w to jest q.
i wchodzimy sobie na tę stronę i podajemy tu zaledwie kilka informacji dotyczących naszej sieci.
Przede wszystkim SSID, czyli ten identyfikator naszej sieci bezprzewodowej.
Później metodę zabezpieczenia, czyli czy to jest WPA2, WPA-PSK, czy to jest WEB, czy sieć jest otwarta.
to sobie również musimy wybrać, no i jeszcze musimy podać klucz, jeżeli nasza sieć jest zabezpieczona takowym.
Tu zaznaczamy czy nasza sieć jest ukryta, czy też nie i generujemy sobie taki kod QR.
Następnie ten kod musimy wydrukować i po wydrukowaniu możemy po prostu gdzieś go sobie w domu,
nie wiem, przykleić, oprawić w ramkę dla naszych gości, albo umieścić po prostu w takim miejscu, żeby był łatwy do zeskanowania.
Na pewno, co mogę powiedzieć, to ten kod nie jest jakiś przesadnie wielkich rozmiarów.
Jak wydrukowałem sobie go na kartce, to ja miałem problem ze zeskanowaniem tego kodu.
No ale to też dlatego, że ta powierzchnia kartki była duża, a kod był dosyć niewielki.
Natomiast no w przypadku kiedy sobie wytniemy już ten kod i go gdzieś tam przykleimy no to wtedy sytuacja jest prosta na iOSie wystarczy, że uruchomimy czytnik kodów QR wtedy po prostu kiedy skierujemy obiektyw aparatu na ten kod zostaniemy zapytani czy chcemy przyłączyć się do tej sieci bezprzewodowej, która nam tu została podana.
No i w takim przypadku wybieramy, że chcemy i zostajemy do tej sieci przyłączeni.
Więc jeżeli na przykład macie jakieś skomplikowane hasło do sieci bezprzewodowej,
albo po prostu nie chcecie się dzielić tym hasłem ze znajomymi,
co oczywiście też nie oznacza, że to hasło nie będzie do odgadnięcia,
bo to też wiadomo, że na pewno w jakiś sposób będzie można się z nim zapoznać.
sprawdzałej, w sensie, jakie czytniki, no bo to chyba czytnik musi to też wspierać, kodów, aplikacja.
Na pewno na iOSie, na pewno na iOSie działa.
Ale na którym czytniku?
No na tym czytniku kodów QR w iOSie, w systemie.
Jak wchodzisz sobie w centrum sterowania, tam możesz sobie dodać czytnik kodów QR
i wybierasz sobie po prostu ten czytnik
No i najlepiej z niego korzystać. Tu też jest kilka informacji na temat tego, co działa na Androidzie, na tej stronie. Tam jest kilka aplikacji rekomendowanych do tego.
Natomiast, no, zazwyczaj tego typu problemy, jeżeli już będą, to będą za iOS-em, więc bardziej tam to sprawdzałem i sprawdziłem. Rzeczywiście zeskanował, zapytał, czy chce się przyłączyć do tej sieci.
No i to po prostu zadziałało, więc na przykład no z iOSem jest z kolei ten problem, bo na Androidach to działa, ale na iOSie z kolei nie działa ten mechanizm WPS,
który jest dostępny w routerach, aczkolwiek który też z bezpieczeństwem to tak za wiele wspólnego nie ma, tam jakieś luki były i lepiej sobie to wyłączyć,
ale wiem, że niektórzy np. wolą tak, zamiast podawać hasło do sieci bezprzewodowej,
to po prostu połączyć kogoś za pomocą WPS-a.
No więc jest alternatywa, jest to wszystko robione, przynajmniej tak twórcy tego narzędzia deklarują
w naszej przeglądarce, hasło nie opuszcza naszej przeglądarki, wszystko robione jest lokalnie.
No oczywiście wiadomo, no to po prostu trzeba twórcomu wierzyć na słowo.
Jeszcze raz przypomnę adres qifi.org.
To w takim razie może teraz sztuczna inteligencja.
Dawno nie było, bo teraz troszeczkę nadrobimy zaległości,
bo i czat GPT i jeszcze coś tam będzie związanego ze sztuczną inteligencją.
Może zacznijmy od OpenAI, bo pojawił się tam nowy model, ale o szczegółach więcej Piotrek.
Tak, pojawił się nowy model. Co ciekawe, OpenAI zrobiło swoją konferencję, konferencja króciutka, bo trwała niecałe 25 minut, dzień przed konferencją Google’a, Google I.O., o której też za chwilkę będziemy mówić.
No i co było tematem tej konferencji?
No właśnie była następna wersja modelu GPT.
Konkretnie to jest GPT, czy GPT-4O.
O w tym przypadku znaczy Omni, dlatego że, no zacznijmy od tego, że ten model
ogólnie jest lepszy, bardziej dokładny, lepiej działa z innymi
językami niż z angielskim, ale jest też szybszy.
dwukrotnie i o połowę tańsze, czy pięciokrotnie na przykład, a szebsze i o połowę tańsze w używaniu,
więc to już są zmiany na plus, natomiast on ma jeszcze jedną bardzo ważną funkcję,
no to to to O właśnie w tej nazwie, co znaczy, że model jest multimodalny.
Co to znaczy?
No generalnie do GPT wysyłamy tekst, ewentualnie dołączyliśmy jakieś zdjęcie,
no ale on nam wtedy odpowiadał tekstem.
GPT-4O jest w stanie rozumieć nie tylko sam tekst, możemy też do niego wysyłać nagranie dźwiękowe i nagranie dźwiękowe po prostu możemy coś mu powiedzieć i on nam jest w stanie odpowiedzieć też głosem, nawet dostosowując emocje do swojego głosu.
Z tym, że to jeszcze nie działa.
To jeszcze nie działa.
Na razie odpowiada tekstowo i rzeczywiście, jak sobie włączymy ten model O, to działa to szybciej.
Działa to szybciej, skoro już o tym rozmawiamy, zanim może pójdziemy do tego, co będzie w przyszłości, to faktycznie działa to szybciej.
Jeśli macie dodatek OpenAI do MVDA, no to on już ma wsparcie tego modelu, więc wystarczy ten dodatek zaktualizować i faktycznie te opisy przychodzą szybciej.
Też rozpoznawanie zdjęć działa dużo szybciej i Be My Eyes, jeśli korzystacie z tej aplikacji, Be My AI też już zostało przełączone na tryb, na używanie właśnie GPT 4.0.
Tu przyspieszenia nie zauważyłem akurat, nie zdecydowanie.
Mniej więcej chwalą się, że przełączyli się, więc przy okazji też informuję.
No właśnie, ale aplikacja ChatGPT właśnie będzie w stanie wykorzystywać te możliwości multimodalne,
że będziemy mogli sobie z tym asystentem rozmawiać, więc możemy na przykład poprosić,
to była demonstracja podczas konferencji, możecie sobie posłuchać, tutaj pracownik
firmy poprosił, żeby ten asystent mu pomógł z ćwiczeniami oddechowymi albo coś tam
się stresowało, no to zaczął mówić, żeby oddychał pomału, no to oczywiście człowiek
zaczął oddychać bardzo szybko, na co GPT odpowiedziało
no nie jesteś odkurzaczem, zwolnij.
Był w stanie usłyszeć po jego oddechu, że nie oddycha tak jak powinien, żeby to ćwiczenie wykonać prawidłowo.
To działa dużo szybciej.
Odpowiedzi są zwracane po dwóch, trzech, czterech sekundach nawet, więc to jest dosyć płynna rozmowa.
Porównywalne to jest z Siri czy z jakąś Aleksą czy tego typu rzeczami.
Natomiast oczywiście to też rozumie zdjęcia, no to już mówiliśmy, że on cały czas może rozpoznawać zdjęcia i to nawet bardziej szczegółowo.
Podobno lepiej sobie radzi z tekstem.
Ale po raz pierwszy, włącznie z tą mową i z tym wszystkim innym, jest w stanie reagować na wideo.
I tutaj już widzę duże pole na rewolucję dla nas, no bo tutaj znów mieliśmy podane kilka przykładów,
kiedy to na przykład GPT pomagał w odrabianiu pracy domowej.
Podczas tego jak tam uczeń sobie pisał na kartce i zadawał jakieś pytanie,
no to GPT obserwował to co się dzieje i był w stanie odpowiadać.
Była pokazana demonstracja, kiedy to były akurat dwa GPT, które rozmawiały ze sobą.
Jeden był niewidomy dosłownie, bo tylko mógł słyszeć i odpowiadać na głos,
a drugi był oczema dla tego pierwszego i właśnie miał cały czas włączoną kamerę.
I w momencie, kiedy ten GPT opisywał co się dzieje, bo akurat tam było pytanie, żeby opisać scenę,
scenę, on cały czas to obserwował, w kadrze tam coś się działo i pracownik OpenAI
przerwał mój, zapytał, a co się stało?
I wtedy ten model odpowiedział, że tam ktoś wszedł do kadru, zrobił królicze uszy,
uśmiechnął się do kamery i sobie poszedł, więc do tego stopnia ten model jest w stanie
interpretować to, co się dzieje na żywo.
Były też już pokazane demonstracje używając Be My Eyes, Be My Eyes konkretnie,
Tutaj było w Londynie podane już testy tego rozwiązania.
Czy król jest w pałacu, tak?
Tak, czy król jest w pałacu, co robią kaczki lub kiedy nadjeżdżała taksówka.
Tutaj się zapytał, no daj mi znać kiedy będzie jechała taksówka, bo chcę złapać taksi.
No i powiedział mu, no możesz zacząć machać.
No i jak już zaczął machać, to nawet mu powiedział, no gratuluję, dobrze ci idzie to wzywanie tego taksi.
Takie odpowiedzi to już osoby faktycznie denerwują, natomiast wiadomo można te prompty dostosować, nawet można tą głosu dostosować, tam był przykład czytania historii o robotach i tam chyba 3 albo 4 razy była prośba, żeby to było coraz bardziej dramatyczne i faktycznie ten głos stawał się coraz bardziej dramatyczny, później było takie bardziej robotyczne, nawet było śpiewanie, które nawet jakoś mu wychodziło, więc to będzie się dało dostosować.
Natomiast ja widzę duży w tym potencjał, jeśli to faktycznie działa tak dobrze.
Same opisy zdjęć przynajmniej jeśli chodzi o interfejsy komputerowe, bo jakoś
na razie to testowałem na zrzutach ekranu, bo po prostu to było w dodatku do MVDA,
więc tak było najłatwiej.
Mam wrażenie, że są bardziej szczegółowe, no ale jeśli chodzi o wideo, no to tutaj
widzę bardzo duży potencjał.
Jeśli faktycznie to trafi do na przykład aplikacji Be My Eyes, a ma trafić, tutaj
i jest powiedziane, że po prostu czekamy na to, aż się api do tego pojawią, bo to jest wszystko na razie…
Ciekaw jestem, ile to będzie kosztowało, bo pytanie na samym zakończeniu będzie tak, że okej, wideo, no ale masz na przykład, nie wiem, 10 minut dziennie czy coś.
Z drugiej strony ja myślę, że to będzie doskonały materiał do uczenia.
Dobry PR właśnie, nie?
Nie, nawet PR to PR, ale uczenie, niewidomi to te aplikacje nakarmią tak różnymi materiałami, że myślę, że akurat o to przynajmniej na razie możemy być spokojni, że…
To jakby chcieli dane, to jesteśmy ich w stanie zaspokoić w każdych ilościach.
Dokładnie, więc tu akurat myślę, że to…
Ale audiodeskrypcja do filmów?
No właśnie, już ludzie się zastanawiają, a dyskrypcja dla firmów, czytanie podświetlonej opcji w interfejsach na komputerach czy w grach,
jakieś właśnie niedostępne ekrany, tutaj mieliśmy przykład z tą taksówką, więc mój pierwszy pomysł był, czekam na konkretny autobus, na konkretną linię, więc no…
Pytanie, jak to będzie zmyślało, no bo wiecie, no wszystko fajnie, autobus, ale no to twój, tylko że nie.
Słuchajcie, w ogóle ważna rzecz, ten nowy model jest udostępniany też za darmo.
Tak, jest udostępniany za darmo w aplikacji ChatGPT, no bo on jest tańszy w uruchomieniu podobno, więc też się nie dziwię, że po prostu OpenAI przerzuciło wszystkich na ten model.
No to jest inne funkcje multimodalne, tak zwane.
Aha, coś jeszcze, co mi się bardzo podobało
dla takich zastosowań jak np.
Tyflo Podcast, czy w ogóle jakieś transkrypty, tylko wiadomo, to będzie
pewnie dużo droższe niż wykorzystywanie Whispera, ale przez to, że ten model jest
w stanie rozróżniać głosy i emocje i tak dalej, no to jest w stanie rozróżniać
mówców i tutaj był podany taki przykład, był załadowany jakaś przykładowa próbka
z jakiegoś korpusu otwartego danych.
I został ten model poproszony najpierw o streszczenie i w tym streszczeniu było powiedziane, że akurat w tej rozmowie rozmawia sobie Michał, Tomek, Paweł i Piotr, czyli rozmawiają o technologii powiedzmy, ale później był poproszony o zrobienie konkretnego transkryptu z podziałem namówców, nie było z tym większego problemu, więc pewnie to też jakoś będzie wykorzystywane do takich zadań pewnie też, więc zobaczymy.
Te API będą dostępne za najbliższe kilka tygodni, tak szacuje OpenAI, no tutaj wiadomo kwestie bezpieczeństwa, więc to jest wszystko włączane stopniowo.
Ponadto ChatGPT pojawi się też jako aplikacja na komputery, bo na razie jest dostępna, wiadomo, jako aplikacja mobilna i strona internetowa.
W aplikacjach też się za jakiś czas te funkcje wideo mają pojawić, na razie też ich jeszcze nie ma.
Natomiast jest już aplikacja komputerowa na Macie, na razie jest
dostępna tylko dla osób, które mają wykupiony abonament chat
GPT Plus i to nawet jeszcze nie dla wszystkich, natomiast to
stopniowo też będzie poszerzane.
Jest ona już w stanie robić zrzuty ekranu, więc możemy do tego
czata wysłać zawartość ekranu.
Za jakiś czas też będą włączone funkcje nagrywania wideo, więc
będzie mogła w czasie rzeczywistym cały czas mieć wgląd na to, co
się dzieje na ekranie, przynajmniej na czas rozmowy, natomiast to też jeszcze nie
zostało włączone. Z czasem ta aplikacja ma być dostępna też za darmo dla wszystkich,
więc nie tylko dla osób z abonamentem, ale na razie dla testów to tak zostało
uruchomione i aplikacja na Windowsa też się ma pojawić.
Nie mamy konkretnej daty, natomiast jest powiedziane, że do końca roku to się
powinno pojawić. Natomiast, no, ja myślę, że to może być kolejna rewolucja.
tak jak tutaj rozmawiamy o zastosowaniach tych nowych modeli.
Ja naprawdę jestem ciekawy właśnie jak to się sprawi w takich sytuacjach
audiodeskrypcyjnych i tak dalej.
Na pewno będziemy to testować i jeśli jakaś aplikacja już te funkcje dostanie,
no to pewnie do tematu wrócimy i będziemy z wami się dzielić informacjami jak to
się wszystko sprawdza w praktyce.
To jak jesteśmy przy sztucznej inteligencji, no to może taka konkurencja dla OpenAI,
Czyli, może mi znowu wyleciało z głowy, Cloud w każdym razie, czy Cloud w sumie to się nazywa, czyli też model sztucznej inteligencji, o którym mówi się, że jest co najmniej podobny do właśnie GPT.
Ten Claude ma kilka swoich modeli, tak jak GPT i jest tam model Sonnet, to jest ten średni, jest model Opus, to jest taki odpowiednik tego płatnego GPT-4, który jeszcze tam pewnie jest w tej płatnej wersji.
No i jest jeszcze taki mały model, ale on jest chyba niedostępny w tej jakby wersji czatu.
No tak czy inaczej, ten czat jest dostępny już w Europie.
Wcześniej on też był, tyle że nie był dostępny dla krajów Unii Europejskiej.
Teraz już jest. Ja tam się zarejestrowałem.
No i zarejestrowałem się kontem Google i myślałem, że to już wszystko, ale się okazuje, że nie.
Jeszcze trzeba podać numer telefonu. Trzeba ten numer telefonu zweryfikować. Nawet przychodzi SMS po polsku.
No i gdy się zweryfikowałem, wy-zweryfikujemy, no to już jest rzeczywiście dostępny ten panel tego czata.
No i co? Mamy pole edycji, w którym możemy coś wpisywać. Natomiast to jest takie pole, mam wrażenie, to nie jest takie do końca standardowe pole.
To znaczy ono jest odczytywane przez czytnik ekranu jako pole edycji, natomiast naciśnięcie Entera nie powoduje wyjścia z trybu przeglądania.
Trzeba wyjść z tego trybu, no, w NVIDIA Insert Spacia, zacząć pisać.
Natomiast co ciekawe, jeżeli wkleję tam jakiś tekst, to on się nie pojawia w tym polu, tylko jest osobny taki element na stronie,
wklejony dokument. Jeżeli ja ten dokument chcę usunąć, to obok tego dokumentu jest przycisk Usuń. Problem z tym polega na tym, że ja nie bardzo wiem gdzie, to znaczy np. czy mam pisać
Zrób coś z poniższym dokumentem, powyższym, tudzież, no nie wiem, jeżeli mam na przykład kilka dokumentów i mam porównać pierwszy do drugiego, to jak to opisać?
W sensie, na przykład, porównaj poniższy dokument, wklejam, do następującego dokumentu, tyk, albo no okej, bo tutaj akurat w tym przypadku oczywiście da się to zrobić,
porównaj dwa dokumenty wklejone, natomiast czasami zdarza się, że dobrze by było
jakoś tam te dwa dokumenty zrobić i być może dałoby się to też znowu w dwóch
wiadomościach zrobić, ale mi by się czasami też przydało, żeby można to było
zrobić mimo wszystko w jednej wiadomości, ale jest to jakoś tam dostępne
i w końcu jest w Europie, bo wcześniej trzeba było przez jakieś VPNy,
Jakieś tego typu rzeczy, to nie zawsze było dostępne.
No i wersja darmowa, jak tak kilka jakichś takich testów zrobiłem,
no to rzeczywiście jest niezła.
Czy jest lepsza od…
No wydaje mi się, że jest lepsza od tej wersji 3.5.
Przynajmniej w takim zwykłym napisaniu czegoś.
Czy jest lepsza od czwórki, nie wiem.
Na ile zmyśla, trudno powiedzieć.
Natomiast zrobiłem taki, jeden z moich ulubionych testów, nie wiem czy kojarzycie, no podejrzewam, że część tutaj z prowadzących kojarzy, pytanie kto ze słuchaczy kojarzy, takie opowiadanie Andrzeja Pilipika w moim bloku straszy.
I to jest, tam jest przedstawiony fikcyjny list mieszkańca jakiegoś bloku, który
zaobserwował u siebie następujące zjawiska.
Następna jest odpowiedź na ten list.
Montalka tam zaadresował, że niby to jakieś tam listerstwa, coś do wiadomości
prezydenta, no tam różne i tam wysnuwał jakieś teorie, że to obcy kosmici, coś tam
mi tam ileś tam na to zjawisk, tam opisuje tych zjawisk i napisałem zarówno Czatowi
GPT, tylko w wersji 3 i pół, jak i temu Claude’owi, żeby napisali odpowiedź na ten list, który
zawierano wyjaśnienie tych zjawisk.
Czat się tam troszkę, troszkę coś tam próbował wymyślać, ale dziwnie mu to wychodziło.
Potem jak mu próbowałem to zrobić, to stwierdził, że tu coś jest nie halo i to trzeba cenzurować, więc tam napisał ten swój taki komunikat, coś tam treść niedostępna, nie pamiętam dokładnie jak to brzmiało, w każdym razie było coś takiego.
Natomiast Claude na pewno ustosunkował jakby nieco bardziej te wszystkie rzeczy troszkę bardziej były takie racjonalne.
Oczywiście nie dotarł do wszystkiego, tam było kilka takich rzeczy, które mógł zrobić inaczej, trochę lepiej i jeszcze mu wkleiłem właśnie z rozmowy z Rechy jeden z tych wywiadów, które przeprowadziłem rok temu z jednym z wystawców, właśnie chyba z przedstawicielem WeWalka.
i to było przetranskrybowane Whisperem i kazałem mu to przetłumaczyć na polski.
Na początku robił kilka kwiatków typu
jesteśmy długimi użytkownikami Białych Lasek, czy coś tego typu,
ale było kilka takich rzeczy, które według mnie przetłumaczył tak zgrabniej niż
No i wiedząc, że to nie jest jeszcze ten model najwyższy, to nie jest ten Opus, tylko Sonnet, no ciekaw jestem, jakby przetłumaczył ten model największy, zwłaszcza, że też ludzie, którzy, znaczy inaczej, gdzieś tam widziałem na jakichś Hacker Newsach, że w jakichś zadaniach z logiki, zadaniach z programowania dotrą do tego modelu najwyższego.
trochę lepiej sobie radzi od tego GPT, a że ostatnio kilka gdzieś tam skryptów
poprosiłem, żeby Czatk mi stworzył, no to być może
trzeba się będzie przenieść na nagroda z takimi rzeczami.
Zwłaszcza, że np.
GPT teraz ma ten model GPT-4O już za darmo, no może, może to jest też
jakaś ciekawa rzecz i być może, być może się to sprawdzi.
Zobaczymy.
Także jeżeli ktoś tylko chciałby,
no to może sobie potestować.
Tylko trzeba podać numer telefonu
i trzeba oprócz tego się zarejestrować jakimś tam
mailem lub
kontem google’owym, no więc tam kilka
informacji musimy podać
w firmie Antropic,
ale no cóż,
no tak to bywa z rzeczami,
które są darmowe.
No cóż.
I co jeszcze zostało? W zasadzie chyba, jeśli dobrze patrzę, to dwa newsy.
Najpierw od Piotrka rusza konferencja Google I.O. 2024. No i co? Chyba znowu AI.
Tak, znowu AI. Pamiętam w zeszłym roku, jak omawialiśmy tę konferencję, to puściłem taki klip,
gdzie ktoś skompilował wszystkie momenty, kiedy prezes Google, pan Sundar Pichai, mówił na tej konferencji właśnie AI.
Tym razem, co ciekawe, nawiązał do tego na końcu swojego przemówienia i powiedział, że pewnie ktoś to policzy zaraz, ile razy to powiemy.
Ale no, słuchajcie, taka jest nasza misja. Chcemy wszędzie wcisnąć AI, gdzie się da i to jest konferencja, na której tradycyjnie były omawiane nowości w Androidzie, nowości w Chromie.
Nie, to wszystko zostało zepchnięte na późniejsze sesje, jak to ktoś podsumował,
po prostu nie było związane z AI, więc pewnie do tematu Androida może jeszcze
wrócimy, może pod kątem dostępności, bo będzie do tego sesja, ale jako osobny
temat, więc może w przyszłym tygodniu wrócimy.
Natomiast na samej prezentacji głównej
właśnie była mowa cały czas o AI konkretnie.
Mamy GPT, mamy CLODA, a Google ma model Gemini i Gemini też się aktualizuje.
Pojawił się w wersji 1.5 i to w dwóch wersjach, w wersji Flash i w wersji Pro.
Różnica między innymi jest taka, że no Flash ma za zadanie reagować szybciej,
chociaż nawet jest też w stanie przetwarzać cały czas duże ilości danych, do miliona tokenów,
No to już takie 16 tysięcy linii kodu, jak to było porównane, ale też
deweloperzy będą w stanie zarejestrować się na testy 2 milionów tokenów, więc
będzie w stanie jeszcze więcej informacji przetworzyć.
No i jak to Google powiedziało, wersja Pro jest fajna, kiedy nie liczy się aż tak
szybkość reakcji, a dokładność, a wersja Flash, kiedy no jak najszybciej chcemy
uzyskać odpowiedź.
I tutaj też ten model jest multimodalny, więc wiele z tych rzeczy, które
gdzieś wspominałem o OpenAI, jak ten model potrafi reagować, no też dotyczy
Gemini, natomiast Google tutaj takiego asystenta
rozbudowanego jeszcze nie planuje, to znaczy planuje i to nawet było
zademonstrowane jako projekt Astra tak zwany.
Natomiast to jest coś, co może się pojawić w przyszłym roku.
To jest coś, co
jeśli chodzi o Google jeszcze jest
jest dopracowane, też nawet w prezentacji było widać, że na przykład mimo to, że efekt był podobny, to widać było, że to działało zdecydowanie wolniej na przykład, więc faktycznie tutaj chyba Google zostało trochę zaskoczone.
Wracając do ogólnie sztucznej inteligencji, w całej prezentacji mieliśmy okazję zobaczyć jak właśnie ten model Gemini w różnych swoich wersjach i iteracjach,
no bo ten model Gemini może być dostosowany do konkretnych zadań,
będzie wykorzystywany w różnych miejscach.
I tak na przykład obiektyw Google, aplikacja Google Lens będzie w stanie za jakiś czas
nam odpowiedzieć na pytanie, które, na wyszukiwanie, które możemy zrobić
nagrywając wideo.
Więc możemy podczas nagrywania wideo zadać na przykład jakieś pytanie
i wtedy AI będzie nam odpowiednie rzeczy z internetu, odpowiednie wyniki wyświetlać.
Czy to będzie nam w stanie coś opisywać? Nie wiem.
Będzie tak samo w stanie odpowiadać na pytania związane z naszymi zdjęciami w aplikacji Google Photos.
I tak na przykład tutaj pan Pichai zrobił demonstrację wykorzystując bibliotekę swoich zdjęć
pytając o numer swojej
swojej tablicy rejestracyjnej samochodu,
co AI było w stanie wyświetlić,
przeczytało mu ten model,
wyświetliło mu też zdjęcia na ekranie,
więc był w stanie sobie zobaczyć.
No właśnie, ten główny model Gemini
jest po prostu lepszy,
jest, powinien być teraz lepiej w stanie
przetłumaczyć tekst,
Tak samo jak zresztą GPT-4, o tym nie wspominałem, ale też jeśli chodzi o tą wielomodalność, była demonstracja tłumaczenia, oczywiście GPT też jest w stanie takie rzeczy robić.
Gemini będzie też oczywiście wykorzystywany w pakiecie Google Workspace, czyli te różne aplikacje biurowe.
Będzie w stanie pozyskiwać dla nas różne informacje z naszych dokumentów, będzie mógł pisać wiadomości, które będą wykorzystywać informacje np. z dokumentów, na którym piszemy.
Kilku testerów już miało okazję to testować, ale to będzie teraz dostępne od przyszłego miesiąca dla wszystkich osób, które wykupiły sobie abonament Gemini, bo to jest dodatek, który musimy sobie jeszcze oprócz samego Google Workspace wykupić.
O projekcie ASTRA już mówiliśmy, pojawił się nowy model generujący wideo, też coś tam się pojawiło nowego do tworzenia muzyki, natomiast nie byłem w stanie wyczuć co tam właściwie pojawiło się nowego, tam też było wideo które to demonstrowało, to jest już na YouTubie testowane i też niektórymi producentami, więc zobaczymy czy to też będzie jakoś szerzej za jakiś czas dostępne.
Tak samo jak GPT ma swoje GPTs, czyli właśnie takie chat-boty, które możemy dostosować do własnych potrzeb.
GPTs swoją drogą też będą darmowe dla wszystkich. Wcześniej były funkcją płatną chata GPT+, a teraz każdy będzie mógł sobie z takiego GPTs-a skorzystać.
Ja się zastanawiam, co będzie w chacie GPT+, czego nie ma w zwykłym?
Na przykład będzie miał więcej pojemności, to znaczy może być taka sytuacja, że te darmowe serwery będą w pełni wykorzystane, a użytkownicy premium po prostu będą mieli tych serwerów więcej, na przykład.
No i pewnie jakiś wczesny dostęp do nowości, tak jak mówiliśmy tutaj o tej aplikacji na Maca, nie zdziwię się jeśli te funkcje wideo na przykład też na początku będą w plusie, no ale z czasem pewnie to też będzie trafiało do wersji darmowej.
Podobnie zresztą Google robi z Gemini z tego co widzę i tutaj będziemy jeszcze do tego nawiązywać kilka razy.
No właśnie, Gemini też będzie mógł mieć takie własne chat-boty, tutaj one się będą nazywały Gems, więc taka też urocza nazwa.
Nie wiem czy tutaj będzie możliwość udostępnienia, czy to będzie też taki sklep.
Natomiast będzie po prostu można sobie go w podobny sposób dostosować, załadować jakieś dokumenty, wydać mu jakieś instrukcje, żeby nas konkretnie odpowiadał, no i sobie takiego Gemsa stworzyć.
Zanim pojawi się ten projekt Astra, to już ulepszone rozpoznawanie mowy będzie dostępne w aplikacji Gemini.
Będzie taki tryb rozmowny udostępniony, nazywa się Gemini Live i on będzie w stanie reagować na nasz ton głosów, więc jeśli będziemy mówili jakoś szybko, wolno, to też nam Gemini będzie w podobny sposób w stanie odpowiedzieć.
Będziemy też w stanie przerwać mu po prostu, kiedy on nam będzie coś mówił, a chcemy zadać jakieś konkretne pytanie, to będziemy mogli w każdej chwili przerwać.
I będziemy mogli też poprosić, żeby na chwilę wykorzystywał aparat telefonu, tylko będziemy musieli o to po prostu poprosić i będzie też w stanie pobierać informacje z kalendarza, z aplikacji KIP, zadań, czyli notatki tutaj KIP, no i tutaj też właśnie funkcje multimodalne, więc będziemy mogli na przykład poprosić o to, żeby dodał informacje o nadchodzącym locie, bo kupiliśmy sobie na przykład bilety, mamy bilety na gmailu,
żeby nam to do kalendarza dodał.
Swoją drogą to chyba było już wcześniej w Gmailu jakoś możliwe,
że się wyświetlało, no ale to jest jako nowość podana.
Swoją drogą to jest właśnie też coś, co na początku będzie
dostępne tylko dla użytychowników Gemini Advanced,
czyli do abonamentów na lepszy dostęp do Gemini.
Jeśli chodzi jeszcze właśnie o nowości związane z Androidem,
tutaj przechodzimy pomału, funkcja podkreślenia żeby coś wyszukać, bo osoby widzące mogą po prostu narysować kółko nad rzeczą, która ich interesuje i w ten sposób uruchomić wyszukiwanie używając AI, to na wydarzeniu Samsunga było demonstrowane przy okazji telefonów serii Galaxy S24.
No teraz to będzie w stanie rozwiązywać problemy, zadania domowe czy inne problemy matematyczne.
Więc jeśli podkreślimy jakiś problem, no to Google nam zacznie wyświetlać podpowiedzi jak ten problem rozwiązać i dostaniemy od razu odpowiedzi, żeby uczniowie nie oszukiwali, natomiast powinno pomóc po prostu w nauce matematyki.
Wyszukiwanie Google też zmieni się nie do poznania, można powiedzieć, no bo będzie właśnie domyślnie wyświetlało się w takim widoku podglądu AI domyślnie, który będzie w stanie automatycznie nam różne rzeczy wyszukać, nawet kilka kroków na raz wykonać.
Tutaj to będzie działało podobnie jak na przykład perplexity.ai, jeśli ktoś
kojarzy, wiem, że w tym vlog-przeglądzie jakiś czas temu mówiliśmy o tym.
To nam może pozwolić, tutaj były też podane takie przykłady, powiedzmy jedziemy do
Londynu, do jakiegoś miasta, wiemy, że chcemy się spotkać z kimś, no i przydałoby
nam się znaleźć jakąś fajną restaurację.
No to to wyszukiwanie Google jest nam w stanie najpierw wyszukać loty, a potem
Od razu na tej samej stronie też wyszukać w jakiejś fajnej restauracji w ubliżu lotniska.
Powiedzieć nam, która ma najlepszą ocenę i to z tego jednego ekranu będziemy mogli takie informacje znaleźć.
Miejmy nadzieję, że to nie będzie halucynowało. Niby ma pobierać informacje z internetu.
No właśnie jakoś trochę temu nie wierzę, że nie będzie.
Na razie wszystko, co jest sztuczno inteligentne to jednak halucynuje ostro.
To znaczy ostro. Może nie to, że ostro.
Tak.
Ale jeżeli mamy tutaj prosić konkretne adresy, konkretne loty, ceny czy coś tego typu, to ja bym się jednak obawiał.
Tak, zwłaszcza, że…
Ewentualnie, ja zauważyłem, przynajmniej tak z moich testów wynika, że jeżeli chcę coś sprawdzić faktycznie, czy coś jest prawdziwe i czy coś jest prawdą,
to zawsze dodaję taką klauzulkę,
wyszukaj w internecie
i podaj konkretne jakby miejsce,
skąd to wziąłeś. I wtedy
przynajmniej czat GPT zdecydowanie mniej
halucynuje, bo już go parę razy
złapałem właśnie na tym, że oj, jak on ma
możliwość korzystania z tej swojej bazy, to po prostu
tak fantazjuje, a jak już mu każe coś znaleźć
konkretnego, no to wtedy jakoś się wstrzymuje i przestaje tak robić.
No i tutaj ciekawostka, Google też dodało inną nowość, mianowicie pojawi się przycisk
wyszukaj w internecie, który po prostu to zamyka, to AI.
Także Google odkryło szukanie w internecie tak przy okazji.
Wiecie co, ale to w ogóle się tego trzeba będzie tak swoją drogą to zupełnie nauczyć,
że my w ogóle możemy to robić i jak to robić, bo to wcale mam takie wrażenie,
że dla ludzi nie będzie oczywiste.
I to chyba taki jest plan.
Jak teraz wpisujemy po prostu jakieś konkretne hasło,
tam na przykład, nie wiem,
loty Londyn, tak?
To teraz lecę do Londynu,
planuję się tam wybrać w przyszłym miesiącu,
poszukaj mi taniego lotu, albo i tak dalej, i tak dalej.
Ale ile osób umie pisać szybko?
O, właśnie.
Z drugiej strony znam osoby mniej obeznane z komputerami, które tak rozmawiają z Googlem, więc…
Okej.
Ale słuchajcie, no jeszcze tryb głosowy i wziąwszy pod uwagę to, że teraz naprawdę coraz więcej jednak pracuje się na telefonach po prostu, no to też jest coś na rzeczy.
No być może te asystenty faktycznie, no może te asystenty, no bo ja naprawdę jakoś średnio widzę to w wyszukiwarce, gdzie po prostu trzeba podać maksymalnie uproszczony, żeby było szybciej, tak? No wpisuje się po prostu na szybkości. Nie wiem, jakoś, jakoś…
Wiele osób też tak uważa, natomiast Google to idzie i to bardzo agresywnie.
Na pocieszenie, czy nie pocieszenie, nie wiem, jeśli ktoś chciał to przetestować teraz, na razie
tego nie zrobimy, bo to będzie pomalutku startowało najpierw w Stanach i to będzie dla
wszystkich udostępnione w Stanach, a za jakieś parę miesięcy ta funkcja będzie rozszerzana na
cały świat, więc pewnie za jakiś czas nasze wyniki tutaj w Europie, w Polsce też się w ten
sposób zmienią.
Skoro rozmawiamy o tego typu rzeczach, no to Android oczywiście też będzie
dostawał kilka funkcji opartych o AI.
I tak na przykład, generalnie na Androidzie będziemy mieli uruchomione te
modele, niektóre lokalne i te chmurze.
Jest ten model Gemini Nano, który jest w stanie działać sobie na telefonach, na
szukam na tych nowych pixelach, ale nie tylko i on będzie do wielu rzeczy
wykorzystywany, np. do tego, o czym mówił jeden z naszych słuchaczy.
Przepraszam, teraz już nie pamiętam kto, ale dziękujemy.
To też właśnie było podkreślone jako
zastosowanie tej funkcji podczas właśnie konferencji Google IO.
Talkback będzie dawał nam bardziej szczegółowe opisy zdjęć i to tak z tego
co widziałem, te opisy są faktycznie takie dłuższe, takie 2-3 zdania to jeszcze nie są
takie opisy rozpisane na całą stronę powiedzmy.
Nie wiem czy to po prostu będzie się działo automatycznie tak jak na
iPhonie czy to będzie trzeba wywołać gestem tak jak to było do tej pory.
Nie wiem. Mówię będzie osobna sesja o nowościach dostępności w Androidzie więc
może na przyszły Tyflo przegląd będziemy mieli więcej informacji.
Natomiast to jest jedno zastosowanie.
Innym zastosowaniem będzie wykrywanie oszustw przez telefon bo ten
Gemini Nano też jest wielomultimodalny, więc podbieramy połączenie, niby dzwoni do
nas bank, rozmawiamy sobie, że nasze konto zostało zhakowane, pomożemy panu, pani
przelać pieniądze na inne konto, żeby je zabezpieczyć.
I tutaj wtedy wyświetla się alert na telefonie, telefon zaczyna wibrować.
Prawdopodobne oszustwo, banki z reguły o takie rzeczy nie proszą.
Gemini nam wyświetla ostrzeżenie.
A ten Nano ma być lokalny?
Tak, tak, tak. On ma działać po prostu na urządzeniu, tak.
Będzie też, będziemy mogli też wywołać Gemini z każdego miejsca na telefonie i on też
będzie w stanie widzieć to co robimy na nim i tutaj na przykład był otwarty duży
plik PDF z jakimiś zasadami do jakiegoś sportu i kiedy to Gemini zostało otwarte
w tym miejscu, no to on miał dostęp do całego pliku, przynajmniej jeśli ktoś ma
wykupioną Gemini Advance znowu, no i tutaj też od razu ta osoba mogła pytać o zawartość
całego tego pliku, bo Gemini po prostu o nim wiedział.
Podobnie działa na YouTubie i tutaj np.
czerpie informacje z napisów, z tekstu z napisów, który jest udostępniony, więc
możemy się o wideo pytać.
Chociaż co ciekawe tutaj, a propos halucynacji, Google zostało złapane na tym, że ich
model pozmyślał i to mocno, bo przykładem podanym
na pytanie Ovidea było zepsuta kamera analogowa, aparat.
No i było pytanie jak przesunąć
ten mechanizm, żeby to wszystko się obracało tak jak powinno.
Na co Gemini szczęśliwie odpowiedział,
to nawet było podkreślone jako dobra sugestia, żeby otworzyć drzwiczki i jakoś ręką
to wszystko przesunąć, natomiast to spowoduje tyle, że nam się po prostu film naświetli i po prostu stracimy wszystkie zdjęcia, więc no dosyć duża wpadka, więc jak widać nie zawsze to musi wychodzić na zdrowie, z drugiej strony pewnie się przyda.
Ale z drugiej strony to trochę świadczy o tym, że niekoniecznie to było ustawione.
No właśnie, nikt tego nie zauważył po prostu, no bo może ci co obrawiali to materiał po prostu no nie korzystają z tego typu sprzętu.
Z drugiej strony to też chodziło o osiągnięcie konkretnego efektu, nie było mowy o efektach ubocznych, pewnie jak tam się to przesunęło, no to już się odblokował ten mechanizm, a że przy okazji cała praca poszła w gwizdek, no to.
No tak, więc to jest Android, Gemini będzie wszędzie na Androidzie, oczywiście też będą do tego API, więc deweloperzy będą mogli z tego korzystać i Gemini Nano też lokalnie trafi do Chroma i co będzie w Chromie mógł dla nas robić, no będzie mógł np. nam pomagać pisać tekst np. na media społecznościowe, recenzje, no chociaż nie wiem czy chciałbym AI wykorzystywać do pisania recenzji,
no ale może żeby jakoś ładnie to ubrać w tekst.
Też dla deweloperów będzie w stanie pomagać nam w konsoli deweloperskiej
jeśli wykryje jakiś błąd i będziemy chcieli się od razu o ten błąd zapytać,
może jakieś potencjalne rozwiązania na ten błąd,
no to będziemy mieli dostęp do AI z poziomu tej konsoli.
No to się w sumie też może przydać, no jak widać
AI, tak jak wspominałem,
pojawia się wszędzie.
Tego pewnie będzie z czasem jeszcze więcej, no jak widać w każdej części
aplikacji Google to AI zaczyna się pojawiać, oczywiście w workspace, tak jak
wspominałem, czyli w Gmailu, w dokumentach, w dysku Google też będziemy zawsze
dostęp do AI mieli, będziemy mogli zadawać różne pytania.
Trwają też prace nad czymś co Google nazywa agentami, to się ma pojawić w przyszłym
roku, chociaż już też nawet dostałem informację, że wewnętrznie, wewnątrz
Google, takie rzeczy są już testowane, że AI po prostu będzie kolejnym członkiem
naszego zespołu i tak po prostu podczas spotkania na Google Meet
oczywiście też Gemini może nam podsumowania generować, więc jeśli poprosimy go, żeby
nam jakieś transkrypty stworzył, jest w stanie to zrobić.
Natomiast kiedy te funkcje agentów już zostaną zaimplementowane, no to po prostu
takie AI będzie mogło dołączyć do naszego spotkania.
będzie można wysyłać mu wzmianki w komentarzach i on po prostu będzie
jakby kolejnym członkiem drużyny, którego będziemy mogli się o różne rzeczy pytać.
No mniej więcej to jest w skrócie to, co było zaprezentowane na głównej
konferencji Google I.O.
Tak samo jak w przypadku konferencji AP-owskiej wiele też będzie
odbywało się różnych sesji developerskich, bo to jest głównie konferencja
dla developerów, więc pewnie do tematu jeszcze wrócimy, no bo nie było
opowiedziane oprócz samego AI, co jeszcze np. w Androidzie się pojawi.
Będzie sesja o dostępności na pewno, którą postaram się obserwować.
Jeśli tam się pojawi coś nowego, o czym jeszcze wcześniej nie wiedzieliśmy,
no to na pewno do tematu Google IOU będziemy wracać.
O, chyba już mnie słychać.
I chyba został jeszcze news jeden od Pawła.
Znowu Google, ale tym razem już nie sztuczna inteligencja, tylko metody
płatności, bo nowe tutaj w Googlu, nowe, choć dla nas niekoniecznie nowe, to znaczy dla nas Polaków, ale dobrze, że Blik, tak?
Tak, zgadza się i ja może tu za portalem Cashless przeczytam, co następuje.
Na platformie Google na razie można płacić Blikiem za jednorazowe zakupy.
Użytkownicy Blika mogą nim płacić w sklepie Google Play.
Na platformie tej można znaleźć m.in. aplikacje, gry, filmy czy książki w formie cyfrowej.
Rozwiązanie płatnicze póki co dotyczy zakupów jednorazowych i z jego pomocą nie można płacić za subskrypcję.
Jak przebiega cały proces?
Podczas zakupu w Google Play wystarczy wybrać plika jako metodę płatności.
W kolejnym pliku należy otworzyć apkę swojego banku i wygenerować w niej sześciocyfrowy kod.
Ten ostatni trzeba wprowadzić na platformie internetowego Giganta, po autoryzacji płatności zakupione produkty zostaną udostępnione klientowi.
No i tutaj jest jeszcze komentarz jakiś dodatkowy, więc jest kolejna metoda, jeżeli nie chcecie wprowadzać na stałe karty płatniczej, no to jest to coś, z czego możecie też skorzystać, bo jest też opcja opłacenia rachunkiem telefonicznym u wielu operatorów,
staje się jakiś PayPal, bony podarunkowe, no to jeszcze teraz doszedł blik, jeżeli taka forma Wam bardziej gdzieś tam z różnych przyczyn odpowiada, no to jak najbardziej można skorzystać.
I to wszystko co mamy w notatkach, ale czy pojawiło się coś jeszcze podczas gdy tutaj sobie rozmawialiśmy?
Króciutka informacja, tak a propos wielowieczowego monitora Monarch, o którym wspominaliśmy niedawno, mówił o nim Paulina, też pamiętam, że on się wiele razy pojawiał, też pamiętam, że omawiałem wywiad podczas podcastu Living Blindfully, no słuchajcie, urządzenie pojawiło się w przedsprzedaży, w jesienią mają pierwsze egzemplarze ruszać, natomiast raczej go będzie nam trudno kupić, dlatego że takie jedno urządzenie,
no fakt, że naprawdę imponująco wyglądające kosztuje niecałe osiemnaście tysięcy dolarów, sieremnaście tysięcy osiemset, czyli na polskie około siedemdziesiąt tysięcy złotych,
więc ewidentnie celuje pod rynek edukacyjny i pod dofinansowania amerykańskie. Zresztą na razie jedynym sposobem na składanie zamówień jest skorzystanie z tak zwanego programu Federal Quota.
Ja trochę starałem się poszukać generalnie z tego co widzę to jest dofinansowanie na sprzęt dla osób niepełnosprawnych, które albo właśnie kończą jeszcze szkołę albo studia. Także tak wygląda sytuacja.
No to jeszcze teraz kilka urządzeń. Ja będę miał pewien samplek, no bo przekroczyliśmy 4 godziny, no to samplek się należy jak najbardziej. Pytanie tutaj, czy można prosić o rolę współprowadzącego?
A to już, już, już, już, już, proszę bardzo. Już się włącza.
Tak, dziękuję.
O, już chyba jest myślany.
Ruszyło.
Audycja 200, audacity, kolumna audacity.
Nowa szybka notatka.
Rusza dźwięk.
Uczestnicy mogą teraz…
Jak wam się dźwięczek…
Sterowanie audos, audycja 200, sterował.
Bardzo ciekawy, aczkolwiek nawet mam problem z identyfikacją języka.
Język czeski.
Tak przypuszczałem, ale w pewnym momencie to zaczął mi brzmieć jak jakiś norweski albo szwedzki.
Ja myślałem, że to jest na pewno coś słowiańskiego, ale nie wiedziałem i co.
Jak rozumiem zorientowaliście się po Ahoj.
No w sumie tak.
Tak, to jest notatnik brajlowski, ale głosowy. Bez brajlowskiego wyjścia, tylko z brajlowskim wejściem.
odpowiednik naszego kajetka, czeski, z końca lat 90-tych,
nazywał się gin, pisane gin, jak ten alkohol.
No i tutaj może nie popełnię grzechu, jak wywołam do tablicy,
bo nasz słuchacz Roberto posiadał takowy nawet,
jeszcze, o ile pamiętam, posiada, ale nie wiem, czy działa.
I jest to notatnik dość ciężki, z wklęsłymi przyciskami.
Ja nie wiem dlaczego, mam odnosze wrażenie, że czeska czy też czechosłowacka jeszcze nawet myśl technologiczna bardzo lubiła taki design bardzo wklęsłych, dużych, kwadratowych klawiszy,
bo widziałem to też na niektórych telefonach z tamtego czasu.
No i taką syntezą właśnie się witał i pozwalał na zapisywanie notatek w pliku TXT.
Oczywiście łączność po kablu szeregowym i też była opcja wymiany za pomocą kart pamięci danych.
Tam jakiś był prosty menadżer kontaktów, który służył chyba tylko do zapisu kontaktów.
On nie pozwalał na żadne wybieranie numerów, ani nic takiego. To nie Aria.
No i zdaje się, z tego co słyszę, bo samplek zaczerpnięty jest i tu podziękowania,
również dla naszych słuchaczy, z podcastu Teczko Plus, czeskiego związku niewidomych.
I ponoć jeszcze znajdzie się parę osób w Czechach, które z tego notatnika korzystają,
bo on po prostu jest stabilny, nie ma już na niego aktualizacji oprogramowania,
więc o ile jeszcze komuś działa bateria, no to jak najbardziej, jak się sprawdzało przez lata,
to i teraz się sprawdza.
Początkiem lat dwutysięcznych zaczął go wypierać Pac-Mate,
natomiast no właśnie, im głębiej w las, tym bardziej zaawansowany.
To się nie dziwię, że nie wyparł.
No.
Co jak co, ale Pac-Mate, no to niestety nie było udane rozwiązanie,
jeżeli chodzi o trwałość danych.
W Polsce wyparł
Braillite i to akurat szkoda.
Ja się cieszę, że jeszcze przez swoje studia
działałem na Braillite,
bo ile ja bym notatek stracił,
jakbym przeszedł na Pac-Mate, a to
podejrzewam, że mogłoby być różnie.
Prawda, potem Pac-Mate omni jakoś tam to rozganiał,
ale no to już za późno.
Too little, too late.
No dobrze, no to tyle z mojej strony
i takie wspomnienki na dziś.
No dobrze, to w takim razie chyba kończymy na dzisiaj, w czwartek, no i zapraszamy, miejmy nadzieję, za tydzień na kolejny Tyfro Przegląd.
Dzisiaj jeszcze tylko przypomnę, że w studiu Paweł Masarczyk, Piotrek Machacz, Michał Dziwisz, ja czyli Tomek Bilecki.
Dobrej nocy.
I dobrej nocy.