TyfloPrzegląd Odcinek nr 233 (wersja tekstowa)
Pobierz napisy w formacie SRT
Pobierz napisy w formacie VTT
Fundacja Instytut Rozwoju Regionalnego prezentuje
Tyflo Podcast
I cóż my tu mamy w kalendarzu?
Środę mamy, 22 dzień maja 2024 roku,
a oznacza to, właściwie to konkretnie, że środa.
To, że po prostu rozpoczynamy kolejne wydanie Tyflo Przeglądu.
Tym razem opatrzone numerem dwieście trzydzieści…
Ile? Dwieście trzydzieści…
233 już.
Tak, 233 już, aż się tak zastanowiłem,
ale to poprzednia audycja była taka, w której było dużo dwójek,
a tym razem mamy tylko jedną dwójkę, za to dwie trójki.
No i dziś nas trzech jest w Tyflo Przeglądzie.
Mówiący te słowa Michał Dziwisz i Paweł Masarczyk oraz Piotr Machacz.
Witajcie.
Jest nas trzech, ale mamy dla Was stojowo przygotowane,
jeżeli chodzi o różnego rodzaju technologiczne ciekawostki.
No a jakie konkretnie, co to będą za informacje,
posłuchajcie ich w telegraficznym skrócie.
W tym tygodniu w Tyflo Przeglądzie.
Syntezator Vocalizer powrócił do sklepu Play,
ale nadal bez aktualizacji.
Więcej o nowościach z Side City.
Viewscan. Podaruj drugie życie swojemu staremu skanerowi.
Nowości dostępnościowe od Google.
Be My Eyes na Windowsa wydany.
Zoom opublikował dostępne opisy wyglądu rejestratorów Essential.
Eleven Labs wypuściła aplikację do czytania dokumentów.
Do Polski trafi w lipcu.
Nowe wersje TW Blue i Mona for Mastodon.
Dwa przydatne skróty klawiszowe w Microsoft Teams.
Najnowszy model GPT zaczyna pojawiać się w narzędziach zewnętrznych.
Wielka Brytania ma pierwszą niewidomą ambasadorkę.
Winamp zaprasza zewnętrznych programistów do wspólnego rozwoju tego odtwarzacza.
Nowości od Microsoftu.
Pierwsze laptopy z procesorami ARM i więcej sztucznej inteligencji.
Wszystko to, a pewnie jeszcze więcej już za chwilę.
Zaczynamy!
Tyfl Przegląd jest audycją na żywo,
dlatego zapraszamy Państwa do kontaktu z nami na różne sposoby.
Można zadzwonić pod numer 663-883-600,
powtarzam 663-883-600,
lub wysłać pod ten numer wiadomość głosową na WhatsAppie.
Można również napisać do nas wiadomość tekstową,
używając formularza na stronie kontakt.tyflpodcast.net
lub aplikacji na system Windows od Dawida Piepera.
Czekamy również na kontakt pod transmisjami na Facebooku oraz YouTube,
więc staramy się także zaglądać na nasz tyfl podcastowy serwer Discorda.
Zachęcamy więc Państwa do dzielenia się z nami newsami, pytaniami czy komentarzami.
Tak jest, zachęcamy bardzo Was do kontaktu z nami.
Skoro jest taka możliwość, skoro jest taka opcja,
to fajnie, żebyście z niej korzystali, żebyście do nas nagrywali wiadomości
albo po prostu do nas dzwonili.
I a propos tego dzwonienia, to jeszcze telefonu nie mamy,
ale mamy za to wiadomości na WhatsAppie.
Już nawet od naszego słuchacza, który się podpisuje jako eksterminator,
dostałem takie pytanie, czy może nagrać wiadomość do tyfloprzeglądu wcześniej.
Tak, słuchajcie, WhatsApp ma właśnie taką fajną możliwość,
że jeżeli nagrywacie jakąś wiadomość i zaznaczycie, że jest to do tyfloprzeglądu,
no to ja mam możliwość po prostu zaznaczenia sobie jej,
zagwiazdkowania, jakoś zahaczenia i odtworzenia później.
Więc jeżeli macie ochotę się z nami podzielić jakąś informacją,
a niekoniecznie macie na przykład czas, żeby to zrobić w trakcie tej naszej audycji na żywo,
to absolutnie nic nie stoi na przeszkodzie, żeby nagrać nam wiadomość na WhatsAppie
i później ta wiadomość zostanie odtworzona.
Więc proszę bardzo, posłuchajmy teraz, co ma do powiedzenia nasz słuchacz.
Dzień dobry, witam wszystkich słuchaczy z tej strony eksterminator.
Mam cztery sprawy, jedna dotycząca pikselów, a trzy dotyczące sensatorów mowy.
Zaczniemy od sensatorów mowy.
Po pierwsze, mi się już dawno tak wydawało, że z tym wokalizerem jest coś nie tak
i wkrótce usunę go ze sklepu Play przez to, że nie działało mi.
W sensie, ten wokalizer mam już zakupiony dawno,
ale zainstalowałem go niedawno sobie na mojej Motorola G71
i zainstalowałem, pobrałem sobie moje kupione głosy.
Jakie było moje zdziwienie?
Wyłączam telefon, następnego dnia go włączam
i nic nie działa, w ogóle zero.
Jakby talkback, wszystkie gesty są, bo słychać dźwięki systemowe talkbacka,
ale nie ma mowy, tak?
No, musiała mi osoba widząca, oczywiście ja klikałem w ekran
i osoba mi mówiła, co jest na ekranie.
Musiałem sobie dojść do ustawień zamianów ekstronomowe
i preferowany typ sobie ten, preferowany sensator mowy sobie zmienić.
Druga czyta jest taka.
Jakie z tymi jakościami mowy głosów Google?
Ponieważ nie mam tych nowych głosów Google, w sensie
podczas, kiedy wchodzę obce z syntezy mowy Google
i chcę zainstalować dane głosowe, to na kontrolce
odtwórz próbkę głosu, to odtwarza mi się ten głos
próbki wyższej jakości, jakby niby te nowe.
Gdy przełączam, po prostu mam stare, więc nie wiem, co to jest.
Prędkość mowy nie mam zbyt dużą, więc jak to było w przeglądzie,
to zależy też od prędkości mowy.
Nie wiem, robiłem wszystko, nawet przeinstalowałem,
wszystko przeinstalowałem, po prostu nie mam pomysłu,
co tu zrobić z tym, jak to działa.
A trzecia sprawa do tej mowy to jest taka.
Przepraszam za trochę swobodnienie, bo się denerwuję.
Nie wiem, czy to plotka, czy to jakiś, ktoś po prostu coś powiedział.
Podobno miały wejść w Windows 11 nowe głosy do Sapi 5 i do narratora.
Chyba to jest ażurę, czy nie wiem, jak to się nazywa.
Jak Wy myślicie, czy to jest plotka, czy to tak ma być?
Coś takiego? No, fajnie by było, gdyby jednak wyszły
jakoś nowe głosy polskie.
A sprawa dotycząca pikseli to…
Wszyscy się teraz, androidowcy się cieszą, że to nowe piksele.
Szczerze powiedziawszy, ja też interesuję się tym pikselem 8a.
Nie wiem, czy sobie go nie sprawię.
Bolewam nad tym, że nie ma zegarków Pixel Watch dostępnych w Polsce,
bo jak wiemy z androidowych zegarków, które można mieć TokBeka w nich,
to jest tylko chyba Samsung Watch i ten Pixel Watch.
Więc to jest trochę szkopuł w tym.
Pozdrawiam i dziękuję.
My również pozdrawiamy i dziękujemy za kontakt.
Czy coś tu dodalibyście do tych rzeczy, o których wspomniał nasz słuchacz?
Ja się spróbuję odnieść do przynajmniej tematów związanych z syntezą.
Z tego co pamiętam, jeśli chodzi o syntezę Google,
tutaj jest trochę słuchaczy, którzy korzystają z TokBeka,
ale poprawcie mnie jeśli się mylę, ale z tego co kojarzę,
to z TokBekiem te głosy Google nigdy nie przełączają się na tę wersję neuronową.
To chyba tylko z Joshua działało i to działa w zewnętrznych aplikacjach,
natomiast TokBek ma gdzieś… pewnie jest jakaś funkcja do tego w API,
która wymusza, żeby zawsze ten syntezator Google korzystał z głosów z tej niższej jakości.
Tutaj pewnie to zostało zrobione dlatego, że one pewnie trochę mniej procesora zużywają,
może też są bardziej responsywne.
Natomiast nie da się z tego co wiem w TokBeku tego przełączyć.
Jeśli korzystasz z Joshua lub zaczniesz sobie jakieś książki czytać
czy tego typu rzeczy w innych aplikacjach, to teoretycznie tam te głosy powinny zadziałać,
natomiast nie mam osobiście na ten moment urządzenia z Androidem,
więc nie sprawdzałem tego u siebie.
Jeśli chodzi o Vocalizer, to tam pewnie są kwestie systemu DRM,
czyli zabezpieczenia, które wymagają połączenia z internetem
i jeśli urządzenie jakiś czas nie było włączone,
a po jakiś czas nie miało kontaktu z internetem,
to słyszałem o takich sytuacjach, że ludzie faktycznie tę mowę tracili.
To jest problem i na pewno nie powinno się w ten sposób aplikacji projektować.
Jeśli dochodzi do takiej sytuacji, to owszem powinien wyskoczyć jakiś błąd,
nie wiem, coś w tym stylu,
ale powinno się dać użytkownikom kilka minut,
żeby albo odzyskać to połączenie,
albo jakoś przywrócić syntezę do jakiegoś innego głosu,
tak żeby osoba niewidoma mogła z tego telefonu korzystać.
Natomiast Code Factory tego, jak widać, niestety nie zrobiło.
Natomiast jeżeli chodzi o te głosy, o których wspominał nasz słuchacz co do Windowsa,
no to jakieś głosy się pojawiały, co prawda nie polskie,
ale jakieś te głosy neuronowe, zdaje się, że w narratorze
dodano już jakiś czas temu, więc może będzie to szło dalej
i w końcu się doczekamy.
Wszak już te głosy Azure są dostępne gdzieś tam w niektórych usługach,
czy nawet w Windowsie, w Edge’u, jak dobrze pamiętam,
jest ta funkcja odczytywania i tam te głosy również są osiągalne.
Więc kto wie, kto wie, może ich się też doczekamy również w narratorze.
Ja na mechanizm SAPI to bym nie liczył,
ale jako te głosy Windows, głosy mobilne Windows,
które obsługuje NVIDIA, no to czemu nie?
To podejrzewam, że w ten sposób będzie to działało,
jeżeli już to dostaniemy, czyli tak jak obecnie Paulina czy Adam w NVIDIA
są w stanie do nas mówić.
Ale jeżeli chodzi o vocalizera, to tu ty jeszcze Piotrze
masz kilka słów do dodania, prawda?
A propos tego syntezatora.
Tak, bo w zeszłym tygodniu wspominałem o tym,
że ten vocalizer już ze sklepu Play zniknął,
bo na to zwróciło uwagę sporo użytkowników na forum Audio Games Net m.in.
No i faktycznie ten link po prostu przestał działać,
natomiast kilka dni później ten vocalizer do sklepu Play powrócił.
Ten link znów działa, można go pewnie też wyszukać teoretycznie,
mówię tutaj teoretycznie, no bo owszem, te głosy powróciły do sklepu Play,
natomiast cały czas nie mamy aktualizacji.
Najnowsza aktualizacja była w 2021 roku,
a co za tym idzie, na wielu nowszych urządzeniach
po prostu ten syntezator nie będzie się w sklepie Play wyświetlał,
dlatego że sklep Play domyślnie teraz pokazuje nam aplikacje,
które zostały skompliowane celując w wersji Androida
chyba o dwie albo trzy starsze od tego, jaki mamy na naszym telefonie.
No i przez to, że ten vocalizer nie był dawno aktualizowany,
no to on celuje w jakiegoś starszego Androida
i przez to w sklepie Play go po prostu nie będzie wyświetlał.
Jeśli sobie załadujemy plik APK ręcznie,
a są strony, które pozwalają nam ze sklepu Play aplikacje sobie ściągać w ten sposób,
no to nawet na najnowszym Androidzie, z tego co wiem,
jesteśmy w stanie te głosy zainstalować
i wtedy sobie możemy jakiś głos albo kupić,
albo pobrać głos, który zakupiliśmy wcześniej.
Przepuszczam, że w bibliotece zainstalowanych aplikacji,
jeśli kiedyś korzystaliśmy z tego syntezatora,
ale później zmieniliśmy telefon lub go oinstalowaliśmy,
no to chyba też będziemy w stanie go pobrać.
Natomiast jeśli macie nowy telefon
i chcielibyście teraz sobie tego vocalizera ściągnąć,
no to będzie trzeba to zrobić ręcznie.
Inna sprawa, cały czas do końca nie wiemy,
co się z tym syntezatorem dzieje,
no bo zniknął, powrócił, ale cały czas nie jest zaktualizowany.
Pytanie na jak długo będzie działało.
Na ten moment wszystkie serwery cały czas działają,
więc możemy sobie te głosy kupować, pobierać
i one będą nam działać,
przynajmniej dopóki mamy w miarę stabilne połączenie z internetem,
bo ta aplikacja co kilka dni sprawdza stan aktywacji.
Pytanie co będzie dalej z tym syntezatorem,
ale dla tych, którzy chcą z niego korzystać,
na szczęście jeszcze ta opcja pozostaje dostępna.
Wspomniałem, że nasze linie są dla Was otwarte,
więc możecie do nas dzwonić i z tej okazji już korzystacie.
Konkretnie skorzystał Patryk, który jest po drugiej stronie.
Witaj.
Witam bardzo serdecznie.
Z czym do nas dzwonisz?
Dzwonię do Was pierwsze z informacją o Voicing Leaderze,
a w zasadzie o tym, że firma Uplouse,
czy jak tam oni się nazywają,
wcale o nas nie zapominają,
o czym ostatnio informują nas w swoich changelogach co do aktualizacji,
ponieważ co rusz napotykam się na jakieś listy zmian a propos voice-overa.
Added support for voice-over key commands,
ostatnio było w dzisiejszej aktualizacji,
było, że tam restored previous voice-over navigation,
także firma u nas nie zapomina.
Za to jakiś problem się pojawił z VoiceDreamem,
tak przynajmniej widziałem we wpisach Davida Goldfielda,
że jest problem z ładowaniem książek z OneDrive’a.
Zgłosił to ostatnio, to taka propozycja błędów.
Ja nie wiem, bo ja z OneDrive’a akurat ładowałem i mi działało.
A no widzisz.
Ja właśnie też z OneDrive’a nie korzystam,
natomiast tak sygnalizuję,
jeżeli Wy używacie OneDrive’a,
to dajcie znać, czy też macie ten błąd.
Może po prostu o HP się coś zmieniło w Microsoft’cie.
Druga informacja co do aplikacji.
Śpieszę donieść, że najnowsza aktualizacja TuneIn Radio
poprawia logowanie się za pomocą Facebooka.
No to super.
Także po ostatnim komunikacie, po zaktualizowaniu,
włączyłem aplikację TuneIn Radio i już działała po prostu sobie,
więc nie musiałem tutaj nic robić.
Be My Eyes.
Właśnie tu się chciałem w ogóle podzielić z Wami informacjami,
że ja po Waszej audycji będę oglądał…
Oj, przepraszam.
Już, już, już.
Że właśnie ja po Waszej audycji będę oglądać pana Rossa Minora,
który to na Twitchu zrobił bardzo ciekawy stream,
ponieważ grał w Spider-Man 2.
Właśnie używając Be My Eyes
i pewnie używając jego sztucznej inteligencji
zapewne do tego, żeby mu mówić co w tej grze się dzieje itd.
Także z ciekawości sobie obejrzę, ponieważ bardzo mnie to interesuje.
A co do tego, żeby sztuczna inteligencja pomagała w grach,
no to nie tylko Be My Eyes może w tym pomóc,
ale podobno Co-Pilot.
Z takich wieści związanych z grami okazuje się,
że Co-Pilot może pomóc graczom grać w Minecrafta.
No to też ciekawe.
A wiadomo, Minecraft, przynajmniej Bedrock Edition należy do Microsoftu,
jak cały Mojang zresztą, który został przejęty.
Więc no zobaczymy, gdzie ta sztuczna inteligencja nas zaprowadzi.
Może faktycznie gry będą dzięki niej dostępne.
Ja tam w Minecrafta bym chętnie sobie pograł, szczerze mówiąc,
bo są niewidomi, którzy grają.
Ja się muszę też tego podjąć i spróbować.
Swoją drogą, jak jest z dostępnością Minecrafta w tym momencie?
Tam się w ogóle da coś robić?
Tak natywnie, czy właśnie tylko przez mody?
Przez mody.
Chociaż sam Minecraft ma jakiś TTS
i ma jakieś tam odczytywanie podstawowe bloków,
na których stoimy, ale chyba tylko tyle.
Czyta nam interfejs, ale do wszystkiego innego potrzebujemy mody,
które nam pozwalają nawet rozglądać się po tym świecie.
I to rozglądanie działa, co ciekawe, w tych modach i to bardzo dobrze.
Możemy naprawdę szczegółowo się dowiedzieć, co jest nad nami, pod nami.
Czyli jak coś budujemy, to możemy sobie naprawdę tą kamerą obejrzeć,
jak to nasze, to co zbudowaliśmy wygląda, czy mamy dach, czy dachu nie mamy.
Także jak ktoś ma wyobraźnię przestrzenną, no ja nie mam, ale może…
No właśnie miałem powiedzieć, mimo wszystko tutaj trzeba bardzo dużo wyobraźni,
bo to jest wszystko podawane mową i to tak jeden klocek po jednym klocku naraz.
Więc tam nie mamy jakiegoś skanera, czy czegoś, który pozwalałby nam się
jakoś bardziej dokładnie rozglądać.
Ale ma być.
Z tego, co wiem od autora, to właśnie to robi ten sam człowiek,
co mody do Stardew Valley robi i on podobno pracuje nad czymś takim.
Także ciekawe jak to…
No życzymy mu jak najlepiej.
I czekamy.
I czekamy.
No to teraz jeszcze przy grach sobie zostaniemy i chciałem tylko powiedzieć,
że jest mi bardzo wstyd za twórców takich jak Iron Galaxy, którzy się zajmują
portowaniem gier na PC w porównaniu chociażby z takim Spidermanem 2,
bo ogrywam nieoficjalny port na PC, o którym nie powinienem mówić,
bo jest nielegalny, bo tak naprawdę przez to, że te dane zostały wykradzione
od firmy Insomniac, no to powstał ten nieoficjalny port,
który hakerzy zrobili.
Słuchajcie, ja przy mojej czterogigowej karcie graficznej przy rozdzielczości
tam 2000 coś tam, czyli tej 4K, jestem w stanie, no tam przy wyłączonych
tak zwanych głupotach, jak ja to nazywam, związanych z grafiką,
jestem w stanie osiągnąć 60 klatek na sekundę przy tym porcie
bez żadnego zacinania, bez żadnych spadków wydajności,
bo się pytałem osoby widzącej.
Mało tego, nie grzeje się karta graficzna, Spiderman 2 sobie obsługuje wulkan
czyli ten taki sterownik od NVIDIA, a takie Iron Galaxy, które sobie
sportowały The Last of Us Part I, taka gra sobie nadal ma problemy
z optymalizacją, nadal budowanie shaderów trwa przynajmniej u mnie 40 minut
i nadal, to znaczy działa mi to dobrze, natomiast nadal są osoby,
które mając lepsze karty graficzne niż ja mam, narzekają na jakieś tam
problemy z widocznością, więc hakerzy, jacyś tam są o wiele, są w stanie
o wiele lepszy port gry zrobić niż firmy, które się tym zajmują zawodowo.
Ale Patryku, no to zawsze w ten sposób wyglądało i to jest właśnie ta
taka zabawa cała i myślę, że ta satysfakcja właśnie u tego typu osób
właśnie u takich ludzi, którzy zajmują się hackingiem, jak sama nazwa wskazuje
to jest hakowanie, czyli po prostu przekraczanie jakby różnych możliwości.
Kiedyś tworzyło się jakąś, nie wiem, super fajną grafikę mając komputer
ośmiobitowy i za pomocą sprite’ów robiąc takie rzeczy, o których sami
inżynierowie, na przykład z Commodore’a, no nie przypuszczali, że da się zrobić,
no a w dzisiejszych czasach, jak widać, wyzwaniem jest optymalizacja,
żeby jakaś gra działała płynnie na jakiejś określonej konfiguracji sprzętowej.
Znak czasów.
Oczywiście nie muszę dodawać, że u mnie Forza Motorsport, do której zresztą
zaraz przejdę, bo też muszę powiedzieć coś w jej sprawie, u mnie Forza Motorsport
w 4K, nawet z włączonym DLS-em nie potrafi przytrzymać płynnych 60 klatek,
więc no, a dodatkowo najnowszy update popsuł troszeczkę pewne rzeczy,
właśnie już o nich powiem, nie działa dźwięk przy hamowaniu.
Tak, to jest prawda, ja o tym nie wiedziałem, jak podawałem, że ta aktualizacja
się pojawiła, no bo po prostu nie miałem czasu.
Wczoraj się o tym dowiedziałem i okazuje się, że ludzie to zgłaszali,
to nawet w międzyczasie też kolejna aktualizacja się pojawiła, która też
naszego błędu nie poprawiła, więc no niestety faktycznie to jest dosyć
poważny problem, miejmy nadzieję, że zostanie naprawiony.
Developerzy o tym wiedzą, jest wątek na forum, który ma kilkanaście postów.
Wiem, że Brandon Cole też tam…
Na jakim forum? Na LoL Gamesach? Nie ma tego.
Nie, nie, nie, na forum w Forze.
A swoją drogą taka ciekawostka, po pierwsze dobrze, że ci się to nie stało,
kiedy nagrywałeś podcast.
No tak, wtedy by nie było podcastu.
Tak, natomiast okazało się, że wiem już skąd brały się moje problemy,
że nie umiem skręcać, ponieważ przez ten błąd włączyłem w sobie asysty
od hamowania, wszystkie inne asysty od skręcania mam na częściowo chyba asysta
i dałem grze, żeby sama hamowała. Jak to zrobiłem, to nagle się okazało,
że ja umiem skręcać, więc moje problemy wynikały nie z tego, że źle skręcałem,
za mocno albo za słabo, tylko że źle hamowałem.
Może w złym momencie. Może.
Albo za bardzo, albo za mocno.
Ale się już teraz udaje.
Tak, się udaje, natomiast u mnie jest niestety taki problem,
że za każdym razem jak uruchamiam grę zbudowanie shaderów
i tym jak logo się załaduje, no trzeba sobie poczekać, aż to się załaduje
i to się dzieje po ostatnim update, także nie mam pojęcia co zepsuli.
Wiesz co, też mają chyba problemy z serwerami, bo ja też ostatnio oprócz tego,
że ten dźwięk się zepsuł, to musiałem grę uruchamiać chyba z pięć razy
i po prostu ciągle dostawałem błąd, brak łączenia z internetem.
Myślałem, że to jest też kwestia sprzętowa, ale zapytałem się kabina,
który ma sprzęt taki naprawdę, który spełnia wszystkie wymagania
na poziomie wysokim jak nie ultra i on mi mówi, że ja też mam te problemy,
więc coś mają z serwerami po prostu.
Ok, a jeszcze a propos Be My Eyes, chciałem się zapytać,
ponieważ miałem problem ze znalezieniem tego w sklepie Microsoft,
to się pisze Be My Eyes czy Be My Eye w końcu?
Be My Eyes, tak jak ta aplikacja, którą mamy na telefonie.
Czyli Be jak My?
No głównie chodzi o to, że nie AI jak sztuczna inteligencja,
tylko Eyes jak oko.
No właśnie, bo rozwajniony błąd wprowadził na Twitterze właśnie,
bo tam napisał Be My Eye i po prostu tak.
A propos Twittera, ja jestem chyba użytkownikiem,
który kurczowo się trzyma Twittera i jakoś do mastodona się przekonać nie może.
Gdyby się ktoś pytał, czy Spring for Twitter jest rozwijany,
tak jest rozwijany, nie dość, że wychodzą bety na TestFlight,
to dzisiaj wyszła oficjalna wersja w App Store, nowa.
Także Spring for Twitter jest wspierany i podejrzewam, że on korzysta z płatnego API,
no bo jak miałby inaczej działać, nie?
To też prawda, no ale ciekawe, że im się to opłaca.
Działa, ja bardzo sobie w ogóle uważam, bardzo sobie chwalę tego Springa,
zresztą Mona chyba działa tak samo, nie?
Mona chyba działa też tak jak Spring, nie?
Bo to jest ten sam autor.
Tak, to są bliźniacze aplikacje, tam wiele kodu jest,
przynajmniej jeśli chodzi o ten cały interfejs i wygląd,
no to są identyczne, zresztą Spring był pierwszy, więc tak.
Także Twitter, z Twittera wszystkie rzeczy działają,
można Twitty lajkować za pomocą Springa, można retweetować Twitty,
można sobie wchodzić nawet, wszystkie informacje związane z tym Twitterem.
Jedyne czego mi się nie udało włączyć to są powiadomienia,
podobno Spring je wspiera, ale jakoś ja nigdzie nie znalazłem możliwości
ich włączenia, żeby powiadamiało o tym, czy ktoś Twitta polubił i tak dalej.
Aczkolwiek wiesz co Patryku, ja ci przerwę na moment,
bo teraz sobie przypomnę, że zaktualizowałem Springa ostatnio
i już po jakimś tam dłuższym czasie nie logowania się na Xa,
postanowiłem właśnie sprawdzić, czy to działa i się zalogowałem,
bo mnie w ogóle automatycznie wylogowało, tam pojawiła się jakaś informacja,
nawet nie tyle wylogowało, co pojawiła się informacja, że po prostu
poświadczenia logowania wygasły, więc musiałem usunąć konto,
dodać je jeszcze raz i tu taka ciekawostka, że dostałem informację,
że zalogowałem się na Xa z poziomu przeglądarki Safari, co ciekawe.
Więc to chyba nie jest takie oficjalne API, które oni wykorzystują,
tylko prawdopodobnie odkryli jakąś lukę, przez którą można wejść
i której jeszcze sztab Ilona nie załatał.
I może ze względu na to, że to tylko oni, albo prawie tylko oni,
no to po prostu to jeszcze działa i nikomu w tym momencie nie zależy na tym,
żeby ich gdzieś tam ubijać.
Ja w ogóle się cieszę z tego, że oficjalna aplikacja wbrew temu,
co było mówione, wcale nie popsuła swojej dostępności.
Jest nawet lepiej, bo gdzieś tam miałem wrażenie, że jakieś kilka wersji temu
ten Focus uciekał, a po ostatnich update’ach Focus VoiceOver nie skacze,
działa stabilniej, także chyba tam ktoś nad tą dostępnością jednak coś robi w Xie.
To prawda, chociaż wyskakują mi jakieś głupie powiadomienia z tego Xa,
pewnie można to zmienić, ale ja tak rzadko z niego obecnie korzystam.
Powiadomienia o brzydkich tweetach z przekleństwami.
A na przykład, na przykład, tak, na przykład, różne, różne takie.
I to co ciekawe właśnie, one mają najwięcej, mam wrażenie, takiej atencji
przez użytkowników, że one są jakoś wypychane, no bo z jakiegoś powodu
te rzeczy mi się pokazują jako powiadomienia.
Twitter się zrobił wylęgarnią dla nastolatków czymś w rodzaju TikToka.
To znaczy, wiesz co, kiedyś też był. Ja pamiętam początki Twittera w 2008,
w 2009 roku, kiedy z niego intensywnie korzystałem i z niego z Polski
to korzystała przede wszystkim młodzież.
Aha.
No, tam było, siemka wróciłem, wróciłam ze szkoły, ale nody.
No, tego typu treści się pojawiały na samym początku na Twitterze.
No to teraz jest podobnie.
No, więc jakby historia zatoczyła koło.
Natomiast no ja śledzę ze względu na te wszystkie portale, dobre programy,
instalki i tak dalej, antyweb.
Jakoś nie potrafię się do tego Mastodona przekonać właśnie ze względu na to,
że głównie on mi służy do tych wszystkich portali technologicznych.
Jasne. No okej Patryku, to czy coś jeszcze, czy to tyle?
To tyle.
Dobra, to dziękujemy ci bardzo za telefon i do usłyszenia.
Do usłyszenia.
Teraz przechodzimy do kolejnych informacji.
Mianowicie wracamy jeszcze na moment do tematu Side City,
bo tu Pawle masz dla nas dodatkowe informacje.
Tak jest, informacje spływają cały czas.
Dziś podziękujemy za to dwóm źródłom.
Po pierwsze źródło, którego się spodziewałem od początku, że będzie,
czyli Sideviews, podcast bawarskiego Związku Niewidomych,
gdzie prowadzący Christian Stahlberg już od wielu lat prowadzi wywiady
z wystawcami na targach Side City.
A drugim źródłem, którego spodziewałem się troszkę mniej,
aczkolwiek nie jestem zdziwiony, jest Side & Sound Technology Podcast,
czyli podcast firmy Side & Sound, jak nazwa wskazuje,
jednego z dystrybutorów przeróżnych sprzętów oraz oprogramowania
dla osób z dysfunkcją wzroku na rynek brytyjski i irlandzki.
Podcast pod przewodnictwem Stuart Lawlera, niegdyś z Irlandzkiego Związku Niewidomych.
No i czego się dowiadujemy?
Przede wszystkim bardzo ciekawy był wywiad właśnie pana Christiana
z przedstawicielem takiego sklepu z pomocami dla niewidomych w Hanowerze.
Bo się okazało, że na rynku pojawiła się mówiąca frytkownica.
Oczywiście ona tam mówi w języku niemieckim.
I o tej frytkownicy niewiele wiem.
Wiem, że coś tam czyta, te różne ustawienia temperatur i tak dalej.
Kosztować ma 189 czy jest tam 179 euro.
Już tam u dystrybutora ona jest do jakichś tam wstępnych testów oddana.
Także jest to na pewno fajne.
Natomiast coś, w co się dużo bardziej zagłębiłem,
to jest mówiące, nowe mówiące radio na rynku.
I to radio nie byle jakiej firmy, bo firmy Albrecht.
Firma Albrecht to taka trochę zdaje się konsumencka dywizja, oddział.
Firmy Alan Electronics.
No a Alana to troszkę starsi nawet ode mnie słuchacze
będą pewnie kojarzyć z radyjek typu CB.
Czy też sprzętu takiego krótkofalarskiego.
Może mniej taki profesjonalny sprzęt krótkofalarski.
Ale CB radia Alana na pewno znane były, są i szanowane również są.
No więc Alan Electronics ma też taką bardziej konsumencką markę Albrecht.
Albrecht czy też Albrecht.
No i w ramach tejże wychodzą różne takie radia dla słuchaczy.
Czyli radia z FM-em, radia z DAB-em i różnymi innymi funkcjami.
No i w ramach tej firmy, tego oddziału Alana ukazał się model Albrecht DR-866.
No i jest to radio stacjonarne w drewnianej obudowie.
Z głośnikami po bokach, stereofonicznymi zdaje się 40 watów, które to radio mówi.
I to nie mówi w jednym języku, nie mówi w dwóch, a mówi w dziewięciu językach.
No niestety tutaj smutna wiadomość dla nas.
Na liście tych języków nie ma języka polskiego.
Są języki angielski, niemiecki, francuski, włoski, turecki, norweski, duński, holenderski i czeski.
Więc nasi południowi sąsiedzi mogą się cieszyć tym radiem w swoim ojczystym języku.
Nasi zachodni sąsiedzi oczywiście mogą się też cieszyć tym radiem w swoim ojczystym języku.
My? No nie bardzo. I nawet w tej sprawie dzwoniłem już do producenta i pytałem,
czy coś będzie w tej sprawie zrobione.
No okazuje się, że sprawa jest dość skomplikowana, bo prawdopodobnie jest kwestia tutaj czipów
i ograniczenia tego, ile pamięci takie czipy mają.
Więc dziewięć języków to już dość dużo przestrzeni na nagrania, bo nie łódźmy się,
tu nie ma żadnej syntezy mowy wbudowanej, to są po prostu nagrania porobione tych komunikatów
i one są po prostu odtwarzane.
I dostałem taką informację od producenta, że to radio na ten moment nie jest przewidywane
w polskiej wersji językowej, no bo właśnie ograniczenia czipu,
te dziewięć języków się już tam ledwo mieści, więc trzeba spróbować najpierw,
jak to radio się przyjmie na rynkach tych, na które ono zostało przeznaczone.
No i jeżeli się okaże, że na którymś z tych rynków nie sprzedaje się tak,
jak producent wstępnie przewidywał, to istnieje szansa, że ten rynek odpadnie,
a za to może wejść na przykład polski. No więc bardzo mgliste są to przewidywania
i takie raczej smutne, że gdybyśmy nawet dostali to radio, to kosztem jakiegoś innego kraju.
Natomiast tak to wygląda. Co do samego radia, no to ono posiada DAB,
posiada UKF, czyli taki klasyczny FM. Posiada też bluetooth, więc można łączyć
z nim smartfony i różne inne urządzenia i odtwarzać z nich dźwięk.
No i wejście AUX line in, czyli można podpinać również kablem do tego radia
i źródła dźwięku. Mamy pilota do obsługi z bardzo wyczuwalnymi przyciskami.
Mamy 4-calowy, czyli dość duży wyświetlacz, na którym osoby słabowidzące
też bez problemu powinny dojrzeć informacje. Producent dostarcza też dotykowe naklejki,
więc można sobie poklejać te przyciski na samej bazie, na samym obudowie urządzenia,
żeby potem odróżniać, który przycisk do czego służy.
Mamy budzik, który oczywiście jest udźwiękowiony. Mamy jakieś tam ustawienia equalizera.
Mamy 6 przycisków na predefiniowane stacje i tu można mieszać DAB z UKF-em
oraz 60 miejsc w pamięci, żeby można było wybierać z listy.
Mamy gałkę do regulacji głośności oraz do przełączania urządzenia w tryb standby
i w tryb odtwarzania. Mamy suwaki do włączania i wyłączania.
Jest przełączanie oczywiście trybów.
Ciekawe urządzenie. Kosztować ono ma i już kosztuje,
chociaż jeszcze nie da się go kupić na stronie producenta,
ale pod koniec czerwca ma się to dać już robić.
189 euro, no więc jakieś koło 800 zł.
Także zobaczymy, czy urządzenie w takiej formie, w jakiej teraz jest,
zawita w ogóle na polski rynek, czy też nie.
Chociaż nie mówię o po angielsku, to Technisata Radio to, które mówiło,
zawitało, jakoś tam dostępne było. Zobaczymy, co z tym radiem Albrechta.
Może jeżeli w Polsce się to przyjmie, to jakimś cudem albo ten model,
albo przyszłe modele, na przykład w nasz język ojczysty zostaną wyposażone.
Jeszcze gdyby jakiś katalog radia internetowego, bo konsumencko
bardzo często teraz odbiorniki, które się pojawiają,
różnego rodzaju nawet i te takie z budżetowych,
to oprócz radia FM, DAB+, mają też po prostu jakiś czip
do odtwarzania strumieni sieciowych, więc szkoda, że tutaj tego nie dodać.
Ja się boję, że tu znowu by weszła kwestia, bo to już tutaj producent
mnie zapewniał, że oni by chcieli, żeby wszystko było udźwiękowione
łącznie z nazwami nadawców, no ale jak nie ma syntezy, to ciężko.
Jak nie ma syntezy, to na samplach to dosyć ciężko by to było zrobić.
Mogłoby literować, ale ile można. No a synteza łączy się już
z konkretnymi kosztami. No, wiadomo, kwestie licencyjne i kwestie
też wbudowania takiego sprzętu, który to udźwignie.
Coś otwartego dałoby się pewnie zrobić, tylko kwestia elektroniki,
która to przyjmuje.
Szkoda kwestia licencji, bo zarówno RH Voice, jak i eSpeak,
tam trzeba naprawdę dobrze patrzeć, na jakiej licencji jest to udostępniane,
czy to w produktach komercyjnych można stosować.
No, to też prawda.
No, ale jakieś nowe coś się pojawia, jakieś przełomy się dzieją,
to już nie tylko jakiś tam jeden technisat, jest kolejna firma,
która dołącza i o tym myśli.
No, a to jest ważne, bo gdzieś tam kropla drąży skałę, ja w to wierzę.
Natomiast, jeśli chodzi o dalsze reportaże z Side City.
No, wiemy też już więcej o tym, co kombinuje firma Unwired Things z Danii.
Mówiłem wam tydzień temu, że to jakiś taki jakby pilot do sterowania
urządzeniami, ale tak nie byłem w stanie wam więcej powiedzieć.
No, wygląda na to, że już teraz trochę więcej wiemy.
I jest to tak, że rzeczywiście firma stworzyła zestaw urządzeń,
które z założenia powinny być w stanie używać zarówno osoby widzące,
jak i niewidome.
Chodzi o to, że urządzenia same w sobie nie mówią,
więc może z nich korzystać osoba widząca bez problemu.
Mają wyświetlacze, ekrany, no i można z nich korzystać.
Ale gdy potrzebuje z nich skorzystać osoba niewidoma,
to podpina się do nich właśnie takim bezprzewodowym pilotem.
Wymieniane są technologie zarówno Bluetooth, jak i Wi-Fi,
więc nie bardzo wiem, z czego konkretnie korzysta taki pilot.
Sam pilot w sobie ma wbudowane pewne funkcje,
na przykład zegarek i dyktafon.
No, ale przede wszystkim służy on do sterowania urządzeniami.
No i na ten moment takimi urządzeniami, którymi można sterować
za pomocą tego pilota jest waga kuchenna, waga do ciała,
termometr kuchenny, termometr do ciała oraz taśma miernicza.
Są planowane kolejne urządzenia, na przykład rozpoznawacz kolorów,
czy też czytnik kolorów oraz aparat do mierzenia ciśnienia.
No i oczywiście platformę można rozbudowywać w nieskończoność,
tak nas zapewnia producent.
Również w nieskończoność można ją rozwijać pod kątem tym,
jak ona technicznie ma działać, czyli dziś może to pilot,
jutro może jakaś aplikacja mobilna.
Może bez problemu można dobudowywać kolejne języki.
Można pod nią tworzyć jakieś tam konkretne inne urządzenia,
które będą wspierane.
Także dokąd to wszystko dojdzie, no to producent pewnie gdzieś tam ustali.
No i producent jest zainteresowany tym, żeby to gdzieś po świecie dystrybuować,
bo jak twierdzą, im więcej krajów będzie to sprzedawać,
im większej liczbie egzemplarzy będzie się to sprzedawać,
tym bardziej spadną koszty takich produktów.
No a niższych kosztów tego typu technologii zawsze byśmy sobie życzyli.
No więc taki jest plan firmy Unwired Things.
Czy to dobry pomysł, czy inaczej?
Czas pokaże.
Ja szczerze mówiąc jakoś do końca przekonany nie jestem,
bo mówiące wagi i aparaty do mierzenia ciśnienia już w Lidlach widzieliśmy za grosze tak naprawdę.
Czy potrzebujemy do tego jeszcze specjalnego pilota?
Nie wiem, nie wiem.
Gdyby ten pilot był jeszcze na tyle uniwersalny, że można byłoby sobie tam podpinać produkty różnych firm,
to wtedy może miałoby to sens, ale zakładam, że tu musimy ograniczać się tylko do tego,
co ze stajni producenta tego konkretnego rozwiązania wychodzi.
Przynajmniej na ten moment tak to wygląda, także no zobaczymy.
W zeszłym tygodniu wspominałeś, że to będzie coś związane ze smart home’em,
to też moje pierwsze skojarzenie było może jakieś, nie wiem, termometry takie rzeczy.
Miałbyś sobie takiego pilota przy łóżku na przykład i chcesz sobie podkręcić ogrzewanie na przykład w nocy
i to się jakoś łączy z termostatem po Wi-Fi, to też byłoby ciekawe.
No nie wiem czy producent zamierza takie rzeczy robić, no sami się reklamują jako sprzęt IoT.
No także zobaczymy jak daleko to IoT sięgnie i jakie będą dalsze plany producenta.
No i ostatni z wywiadów pana Krystiana Stalberga to firma Light Vision z Korei i ich aplikacja Visionverse
do, jeżeli pamiętacie, sprawdzania numeru nadjeżdżających autobusu oraz do orientacji w samym autobusie.
I istotnie, aplikacja ma to robić, na ten moment nie jest jeszcze opublikowana, jest testowana.
Ma ukazać się na razie w grudniu i to tylko w Korei Południowej, tam gdzie skąd pochodzi producent
i będzie testowana na narodzimym rynku.
Jeżeli okaże się, że jest aplikacją tam użyteczną, to planowane jest rozszerzenie tego na cały świat.
Aplikacja używa OCR-u na urządzeniu, więc nie wiem czy tu, no niby jakieś modele były do tego wytrenowane,
ale używana jest OCR na urządzeniu, więc nie wiem czy same modele będą na urządzeniu,
czy jest to też po prostu OCR wbudowany w iPhony, czy tam od Google dostarczony na urządzeniach Android.
No i jak na to, że aplikacja jest na urządzeniu, to troszkę zmartwił mnie fakt, że firma planuje wprowadzić aplikację
w formie abonamentu miesięcznego, którego cena na ten moment nie jest jeszcze znana.
Tutaj autor też się zarzeka, że mają być planowane jakieś funkcje GPS, jakieś sprawdzanie kursu tego autobusu,
że dzięki GPS-owi i OCR-owi możemy sprawdzać jak ten autobus jedzie i gdzie my aktualnie się zbliżamy,
do jakiego przystanku i tak dalej. No pożyjemy, zobaczymy.
My pewne rzeczy oczywiście nie rozpoznawanie autobusów, ale pewne rzeczy tu już mamy,
dzięki Time for Bus, inne rzeczy można pewnie sprawdzić też jakimiś OCR-ami.
Czy to, czy propozycja Koreańczyków się przyjmie? Zobaczymy, natomiast tak to na ten moment wygląda.
No i jeszcze z Tiny Science and Sound Technology Podcast były wywiady z Orbit Research.
Tam urządzenie Orbit Slate było pokazywane, czyli wieloliniowy monitor brajlowski,
albo pięć linii po 20 znaków, albo trzy linie po 40 znaków oraz Orbit Q,
czyli urządzenie z monitorem brajlowskim na bazie tych punktów Orbita, ale z klawiaturą QWERTY.
No więc takie coś jest na rynku. Był też wywiad z przedstawicielami firmy PageBrail,
czyli to urządzenie, które wkładamy zamiennie za spód Perkinsa i możemy za pomocą Perkinsa pisać brajlem.
No i wiemy już troszkę więcej, bo okazuje się, że urządzenie chyba istotnie jest głównie do takich celów ćwiczebnych,
żeby było ciekawiej, te aplikacje ćwiczebne, które chce dostarczyć producent do nauki brajla
i cały jakby kurs brajla, przynajmniej angielskiego, gdzie na razie są demonstrowane od takich podstawowych liter po aż skróty i kontrakcje,
jest w formie aplikacji webowej, więc po prostu odpalamy przeglądarkę i klawiaturę podłączamy jak zwykłą klawiaturę,
znaczy Perkinsa podłączamy jak zwykłą klawiaturę Bluetooth, no i podążając za instrukcjami z tych aplikacji po prostu wykonujemy zadania.
Dowiedzieliśmy się też troszkę jak to technicznie wygląda, no i okazuje się, że to urządzenie symuluje naciśnięcia tych naszych klawiszy z Perkinsa
jako litery FDSJKL, co ma niby ułatwić na przykład współpracę z programami do edycji brajla w ten sposób, czyli na przykład Duxbury.
Ale ja już tu widzę dwa kolejne zastosowania, no przecież FDSJKL to też sposób wprowadzenia brajla przez wtyczkę emulującą klawiaturę brajlowską w NVDA.
Jest taki dodatek do NVDA, który pozwala nam na właśnie emulowanie klawiatury brajlowskiej za pomocą właśnie klawiszy FDSJKL,
czyli pierwszy, drugi, trzeci, czwarty, piąty, szósty, no więc wygląda na to, że dzięki temu dodatkowi można by również na Perkinsie pisać na komputerze.
No a z kolei na Androidzie tego typu wprowadzanie proponuje nam również klawiatura Advanced Braille Keyboard,
no więc tutaj również moglibyśmy sobie sparować Perkinsa ze smartfonem, jak to brzmi w ogóle, no i trzaskać na tym Perkinsie i pisać po prostu.
Także jest to zwariowane, jest to ciekawe, natomiast życzymy producentom tutaj dużo szczęścia.
No i ostatnia firma, która się w wywiadach objawiła, była to firma NextVPU, oni jakoś tak, że Visual Processing Unit, tak się nazywali, firma z Chin,
która ma nam do zaprezentowania skaner, urządzenie lektorskie tak zwane AngelEye, chyba desktop, i jest to urządzenie, które właśnie skanuje książki,
robi OCR, czyta je oczywiście na głos, mową syntetyczną, ale też na przykład tłumaczy je na inne języki, no więc tutaj taka funkcja,
której chyba do tej pory urządzenia lektorskie nie miały, no a też producenci się zasadzają na to, żeby na pewnym etapie zintegrować jakieś GPT,
żeby móc jakieś tam dodatkowe polecenia i pytania a propos tego tekstu zadawać.
No i to wszystko na ten moment co wiemy o Site City, ale do tematu przypuszczam, że będę jeszcze wracał w miarę jak będą pokazywać się z tych targów nowe materiały.
Pewnie, że tak, podejrzewam, że jeszcze to i owo będzie, o tym i owym będzie do opowiedzenia, a ciekawe o czym opowie nam Sylwester,
który się do nas dodzwonił i się naczekał, naczekał, ale już odbieramy Sylwestrze od Ciebie telefon i słuchamy.
Witam bardzo, ja mam taką informację niedobrą, smutną już, niestety, mam odmowę, nie dostałem dofinansowania na linijkę,
napisano nawet do 2029, za pięć lat tak mi napisano, a słuchy mi dochodzą, że się pogarsza, w tym roku,
obróciło się chyba to w ogóle dofinansowanie, że dużo odmów jest.
Wiesz co, bo to jak rozumiem w aktywnym samorządzie, tak?
Tak.
Z takich moich obserwacji i tego czego ja na przykład doświadczam i jak porównuję swoje doświadczenia z doświadczeniami innych,
to mam takie odczucia, że generalnie w aktywnym samorządzie to dobrze jest mieszkać w niewielkim mieście.
Dlatego, że w niewielkich miastach jest mniej chętnych na ten sprzęt, a jeżeli ktoś jest właśnie z takiego mniejszego miasta,
który oczywiście bierze udział w aktywnym samorządzie, no to jest większa szansa na to, że się te środki dostaną.
A właściwie nie.
A widzisz, no to widzisz, czyli zupełnie inaczej.
Ja mam dużo gorsze, bo ja mam z takiej wioski, jestem niestety nie z miasta.
Aha.
I niestety gorszą.
Ale być może twoja wioska podlega pod PCPR, który znajduje się w jakimś większym mieście.
To może też od tego zależeć.
No ale w każdym razie, no to przykro nam Sylwet.
Przykro, przykro nam.
Rozumiem.
Luboczyna podobno bardzo słaby wynik w tym roku ma.
Rozumiem.
No przykro nam Sylwestrze.
Miejmy nadzieję, że kiedyś za jakiś czas uda Ci się pozyskać…
Nie wiem, to jest bez sensu.
Pięć lat to już jest bez sensu normalnie.
Taką decyzję wypisano, żeby nie napisano, że za pięć lat.
No to jest trudno, ale taką decyzję napisałeś, to już ja nie wiem.
To znaczy, no ale wiesz, dziwi mnie to, że za pięć lat.
A kiedy ostatnio wnioskowałeś o sprzęt?
Znaczy, na podstawowy sprzęt komputerowy w zeszłym roku, ale nie specjalistyczny.
To nie jest związane z liczbą wniosków.
A nie specjalistyczny, a na specjalistyczny, nie wiem, bo tam w zeszłym roku za małą kwotę dostałem chyba.
To znaczy tak, ale to się liczy z tego, co ja przynajmniej wiem.
Ktoś może mnie tu poprawić, bo ja nie jestem aż tak biegły w tych wszystkich przepisach
i nie mam tego pod ręką, żeby to teraz sprawdzić.
Ale mam takie wrażenie, że to jednak jest tak, że jeżeli wnioskowałeś i dostałeś pieniądze
z aktywnego samorządu jako z takiego, no to jednak ta karencja Ci obowiązuje.
To nie jest tak, że…
Ja miałem możliwość do 204 tysięcy, a ja miałem przyznaną kwotę tylko 10, niecałe.
Ale się na nią zdecydowałeś, tak?
Tak.
No więc właśnie.
A reszta mi przepadła.
No, ale to widzisz, gdybyś po prostu się na tę kwotę nie zdecydował,
a na przykład w tym roku dostałbyś więcej pieniędzy, no to podejrzewam,
że byłaby szansa na to, żebyś całość otrzymał.
No, ale zdecydowałeś się w zeszłym roku na tę kwotę, którą Ci dali,
no i niestety teraz trzeba czekać.
Mimy tak.
No, to wiesz, jeżeli ktoś z naszych słuchaczy ma tu w tej kwestii jakieś konkretniejsze informacje,
to może mnie poprawić, ale ja przypuszczam, że to właśnie o to tutaj chodzi.
I stąd wynika problem, że po prostu nie dostałeś pieniędzy, bo wnioskowałeś wcześniej.
Tylko tak było, że coś było niedopisane w tym dokumencie, bo mi siostra wypełniała ten dokument
i coś tam tak jakby czegoś zabrakło w tym dokumencie.
A ja nie mogłem tego sprawdzić nawet.
Rozumiem, natomiast to w takich sytuacjach
chyba jednak lepiej, jeżeli nie masz takiej osoby
albo sam nie jesteś w stanie dobrze tego dokumentu wypełnić, a z racji…
Nie, bo mi siostra wypełniała, nie wiem, bo to takie ciężkie te dokumenty.
A z racji tego, że nie jesteś w stanie tego dokumentu właśnie sam wypełnić,
bo nie masz na przykład na tyle wiedzy, żeby to zrobić,
to może lepiej skorzystać z oferty kogoś,
czy nawet jakiejś firmy tyfloinformatycznej, która po prostu odpowiednio Ci doradzi i wybierze ten sprzęt.
Ja osobiście…
Nie ma firmy. Tutaj nie ma, na terenie powiatu nie ma firmy tyfloinformatycznej.
Ja osobiście wolę sobie…
Bo ja, wie Pan, w 2013 roku, kiedyś jeszcze pierwszy raz, jak dostawałem,
to mi Związek Niewidomych wypełniał i poszło dobrze.
A czy na przykład, na Lubelszczyźnie, taka instytucja, która mi się kojarzy
i która, podejrzewam, że zawsze chętnie zajmie się wypełnianiem wniosków,
no to chociażby Szansa, tak? Fundacja Szansa.
Czy Altiks.
Właśnie próbowała tam Pani Justyna Kowalczyk, ale coś też nie poszło.
No to nie wiem, Sylwester, ciężko mi tu doradzić coś konkretnego,
jakąś konkretną myśl, natomiast fakt jest taki, że jeżeli dostałeś pieniądze
w zeszłym roku, no to niestety trzeba będzie po prostu poczekać.
Czy dzwonisz do nas jeszcze w jakiejś sprawie?
W sprawie tego telefonu, który wysłany jest do Lumenu.
Moja siostrzenica dziś mi dzwoniła, że został wysłany telefon do producenta,
bo niemożliwość otworzenia Androida jest. Stwierdzono to.
W ogóle mówisz o Blind Shellu, tak?
Tak, o Blind Shellu.
W ogóle co ciekawe, ja gdzieś tam ostatnio na grupach facebookowych też widziałem,
że ludzie mieli jakieś problemy z Blind Shellami. Nie wiem, czy to jakaś taka seria.
Z tą jedynką. I oni, tak jak mi dzwoniła, że to pierwszy przypadek i reklamacji.
Nie wiem, bo ona ma na maila dostać chyba.
Okej. No w każdym razie, Sylwester, my tu wiele więcej nie jesteśmy też w stanie pomóc.
Ja już więcej nie rozwijam.
No bo i my nie pomożemy.
Ja chyba będę odchodził, bo ja mam inną audycję zaraz.
Może się z wami na dobranoc pożegnać.
Dobrze. To dzięki, że zadzwoniłeś do usłyszenia. Pozdrawiamy cię serdecznie.
Widzę, że tu do nas dzwonicie intensywnie, ale zanim oddamy wam jeszcze głos,
to zajrzyjmy na Whatsappa, bo mamy wiadomości na Whatsappie.
Do nas się też tutaj odzywacie.
No i na przykład Marcin nam nagrał wiadomość. Posłuchajmy.
Witajcie. Po tej stronie Marcin. Jak zwykle temat będzie dotyczył sztucznej inteligencji.
Jak zwykle ja, sztuczna inteligencja, czemu się nie powiedzieć.
Nie dzwonię dzisiaj, ponieważ myślę, że tutaj rozmowa by się potoczyła krótko raz, dwa.
A wiadomo o co chodzi. Czat GPT. Czat GPT, dziękuję.
I nie mam zbytnio wiele do powiedzenia przy rozmowie na Facetime’ie.
Także się wypowiem na wiadomości głosowej.
Mam wrażenie, że jestem jednym z użytkowników czata GPT, którzy czekają z niecierpliwością
na ten nowy tryb głosowy, który ma się pojawić w najbliższych tygodniach.
W dniach to za dobrze by było.
Pewnie sobie deweloperzy muszą dać czas na to, żeby się to dopracowało w tej kwestii itd.
Brzmi bardzo obiecująco. Brzmi bardzo obiecująco.
W każdym razie przesłuchałem od początku do końca, właściwie prawie że na YouTubie oraz na stronie OpenAI’a
filmów demonstracyjnych, na których jest zaprezentowany ten tryb głosowy.
Brzmi bardzo obiecująco.
Czy to się okaże taką bardzo wielką flagową pokaźną wersją czata GPT-4 po czwórce litera O?
To wyjdzie w pragnę, jeżeli chodzi o wersję publiczną.
Na razie czekamy na wersję testową, alfa dokładnie.
Zobaczymy jak to będzie wyglądało w przyszłości.
Słyszałem oczywiście nawet jak czat GPT potrafi śpiewać, potrafi mówić, śmiać się, okazywać emocje.
Czy te emocje będą okazywane w stu procentach jak u ludzi, to będę starał się testując czata GPT.
Będę się starał wymagać od niego zdecydowanie dużo, żeby sprawdzić możliwości jego emocjonalności itd.
I śpiewania wszystkiego po kolei będę wymagał, jeżeli chodzi o jego możliwości, czy to się sprawdzi, czy nie.
Podobno będzie nas słuchiwał, będzie naszymi oczami, wiadomo, nie zastąpi białej laski ani psa przewodnika.
Tak myślę przynajmniej, że tu będzie potrzebna laska, bo bez lagi ani rusz, no tutaj w tym przypadku,
laga będzie nam jak najbardziej potrzebna, żeby się trzymać pewien zasad, żeby te przeszkody jednak sobie wyznaczać.
A te przeszkody będą na pewno przez czata GPT, przynajmniej tak myślę, wykrywane z troszkę dalszej odległości.
No a laska jak najbardziej tutaj będzie potrzebna.
Rozmowa na śmiejąco się, na śpiewająco, na kaszląco, krząkająco, no nie wiem czy to będzie rzeczywiście tak jak to myślę,
ale i jeszcze inne rzeczy, o innych rzeczach to myślę, no będę, że tak mówię, wymagał od czata GPT dużo.
Także oczekuję na ten tryb głosowy, który ma się pojawić w przyszłości.
Jak najbardziej będę tutaj z niego korzystał póki co, jak się uda, nawet często.
No, czekamy póki co.
Póki co mam nadzieję, że też są tutaj użytkownicy, którzy czekają na ten tryb głosowy,
jak i jeszcze inne rzeczy, które czat GPT ma zamiar wypuścić.
Także do usłyszenia i dobranoc.
Do usłyszenia Marcinie, my też czekamy oczywiście na to co nam zaoferuje czat GPT.
Rzeczywiście fajnie będzie z nim porozmawiać na rozmowie wideo.
A tymczasem odbieramy kolejny telefon, kogo witamy po drugiej stronie?
A dobry wieczór, pozdrawiam Andrzej z tej strony z Mazur.
Dobry wieczór Andrzeju.
Okolice Sztytna.
Ja chciałbym tak postarać się z więźle nawiązać do wypowiedzi pana Sylwestra odnośnie aktywnego samorządu.
Ponieważ mam przyjemność, no i czasami też nie przyjemność,
styczności z wypełnianiem wniosków dotyczących aktywnego samorządu,
ponieważ pracuje w organizacji pozarządowej, więc postaramy się pomagać wielu osobom niewidomym.
No i tutaj PFRON od już dłuższego czasu na swojej stronie reklamuje się i zachęca do tego, żeby korzystać z opcji
wypełniania wniosków przez system obsługi wsparcia, czyli ten soft.pfron.org.pl.
Za to są punkty dodatkowe.
Tak, i co ciekawe, to oni tam deklarują, że to głównym zadaniem tego elektronicznego systemu ma być
przyspieszenie w ogóle całej procedury przyznawania dofinansowań.
Wiadomo, nie musimy wychodzić z domu, no to jest oczywiście bardzo duży plus.
Natomiast my spotkaliśmy się tutaj w naszej pracy z wieloma paradoksami,
takimi totalnie kuriozalnymi, które w ogóle przeczą tym zapewnieniom,
bo jak się okazuje, że mając sygnały tu od wielu osób niewidomych z całej Polski,
zdarzały się takie sytuacje, że osoby, które po prostu w wersji papierowej chodziły do PECPR-u,
składały wnioski, otrzymywały szybciej dofinansowanie i szybciej były te wnioski rozpacowane niż w wersji elektronicznej.
Co jest dodatkowym jeszcze też minusem, to to, że PECPR-on powiatom udzielił pewną swobodę co do dokumentów,
które należy dołączać jako załączniki do tych elektronicznych wniosków,
czyli jakiegoś różnego rodzaju oświadczenia, jakieś tam informacje o klauzuli przetwarzania danych osobowych itd.
I wychodzą z tego niezłe cyrki, mówiąc kolokwialnie.
Co najlepsze, ja nawet na swoim przykładzie mogę powiedzieć, że w tym roku złożyłem wniosek pierwotnie 22 kwietnia.
8 maja otrzymałem informację zwrotną z PECPR-u, że muszę dołączyć jakieś dziwne oświadczenie,
potwierdzające to, że nie zalegam jakimiś tam płatnościami wobec PECPR-u czy tam PEFRON-u,
że nie brałem dofinansowania z np. NFZ-u.
To jest przecież zatwierdzane w tym wniosku elektronicznym.
No właśnie, ja pamiętam, że jak dwa lata temu wypełniałem ten wniosek, to tam było takie pole do zaznaczenia,
czy jakiś przycisk, który to potwierdza.
No właśnie.
Jeszcze śmiadko mi się chce z tego, że to oświadczenie trzeba tam wydrukować,
i wymagany jest od osoby niewidomej czytelny podpis, to trzeba później zeskanować, dołączyć.
No ja 8 maja w momencie kiedy otrzymałem tą informację, że to oświadczenie jest wymagane,
to wydrukowałem, podpisałem, zeskanowałem, dołączyłem do tego systemu SOW.
No i mamy dzisiaj 22 maja i na razie wniosek cały czas ma status złożony zarówno jakby po mojej stronie,
jak i też po stronie JST, czyli jednostki samorządu terytorialnego,
co strasznie się to wlecze.
Co nie zmienia faktu, że i tak moim zdaniem to ten system dla nas, jako dla osób niewidomych,
no to jest zdecydowanie dużym ułatwieniem.
Ja pamiętam ze swojej historii, bo akurat wniosek o sprzęt składałem 2 lata temu,
no to w mojej sytuacji to byłem w stanie samodzielnie wypełnić cały ten wniosek,
wszystkie dokumenty podpisać, też faktem, że tam miałem kilka takich dokumentów,
które były jakby osobnymi plikami, no bo akurat tutaj tak to wyszło,
że też powiat swoje zażyczył sobie, natomiast ja wyszedłem z tego w ten sposób,
że każdy z takich dokumentów po prostu podpisałem profilem zaufanym
i dołączyłem jako załącznik do tego wniosku.
Jednak jednej rzeczy się nie udało w ten sposób zrobić,
nie byłem w stanie tego przejść całkowicie elektronicznie,
mianowicie wnioskowałem o sprzęt brailowski i tu słynne zaświadczenie od okulisty,
pytanie czy ono dalej jest wymagane od osób całkowicie niewidomych w tym roku?
Jest, mogę powiedzieć, bo ja się składam.
No właśnie, całkowicie niewidoma osoba wnioskuje o sprzęt brailowski,
musi udać się do okulisty, żeby wystawił odpowiedni kwitek,
że rzeczywiście jest osobą niewidomą, no to jest paradoks po prostu.
I to rzeczywiście musiałem zeskanować, dołączyć i no i poszło.
Niezaprzeczalnie złożenie wniosku przez SOF jest naprawdę bardzo dużym ułatwieniem.
To jest naprawdę, to trzeba przyznać, że nie trzeba się tam gdzieś tam
ganiać po tych PCPR-ach, dojeżdżać, zwłaszcza jak ktoś mieszka w jakiejś tam
małej miejscowości, ma problemy komunikacyjne, musi dojechać do miasta
i jeszcze gdzieś tam na peryferia tego miasta dotrzeć, żeby do PCPR-u
tam się dogibać, mówiąc kolokwialnie, i jeszcze czekać w kolejce i tak dalej.
I to jest naprawdę super ułatwieniem. Tylko jeszcze tutaj powiem państwu
o jednym mankamencie, na który trafiłem i to była zagwozdka taka,
szczerze mówiąc, o której nikt nie mógł rozwiązać i tak nawet zostałem w drodze
takiej dedukcji informatycznej czysto. Doszliśmy tutaj w fundacji u nas
i udało nam się ten problem rozwiązać, a mianowicie chodzi o to,
że jak już podpisujemy ostatecznie wniosek Profilem Zaufanym
i wysyłamy go do instytucji, to korzystając z przeglądarki Firefox
pojawił się pewien problem, bo jak już nas przerzucało do tego
Profilu Zaufanego, pojawił się komunikat, że sesja wygasła
i coś tam, coś tam. I tak na dobrą sprawę już nie można było z tym
nic zrobić, ani tego podpisać, ani jakoś tam pójść dalej.
I tu się uruchomiła lawina interwencji wszędzie gdzie można było.
Zadzwoniliśmy na infolinię dedykowaną PFRON-u dotyczącą systemu
obsługi wsparcia. Tam przywitała nas dosyć taka opryskliwa pani,
która chyba tam za karę siedzi, nie za bardzo chciała nam udzielić informacji.
Później zadzwoniliśmy na infolinię obsługi Profilu Zaufanego.
Tam ludzie się dwoili i troili i próbowali dojść, co może być nie tak.
A powód był bardzo prozaiczny i prosty. Okazało się, że jak zmieniliśmy
przeglądarkę na Google Chrome to wszystko poszło prosto i gładko
i bez problemu.
I akurat pamiętam, że dwa lata temu kiedy podpisywałem wniosek Profilem Zaufanym
to też miałem jakiś problem, bo tam jeden z przycisków po prostu
nie był dostępny tak bezpośrednio z klawiatury.
Trzeba było sobie radzić z nawigacją obiektową w NVDA.
Ale udało mi się to kliknąć i udało mi się ten wniosek, pamiętam, wypełnić.
Andrzeju, to jeszcze od razu dopytam, czy w przypadku, bo skoro jesteś na bieżąco,
czy ja tu dobrze przypuszczałem dlaczego naszemu słuchaczowi odmówiono tego.
Jak rozumiem, jeżeli w zeszłym roku wnioskował nawet od sprzęt podstawowy,
no to w tym momencie już przepadło. O ten brailowski sprzęt wnioskować nie może.
Tak sądzę. Nie jestem ekspertem co prawda w tej dziedzinie.
Natomiast pragnę zwrócić Państwa uwagę na jedną rzecz.
Bo na co sam, że tak mówiąc kolokwialnie, się naciąłem.
Ja składałem dofinansowanie, mamy teraz rok 2024.
Składałem w 2018 w maju.
I mamy ten pięcioletni okres karencji.
A de facto sześciorok.
Tak, de facto sześciorok. Właśnie, chodzi o to.
Bo ja w 2018 w maju składałem i złożyłem później ponownie w 2023 w maju.
A co się okazało, że musiałem czekać do 1 stycznia 2024,
czyli musiał upłynąć ten pełny rok kalendarzowy.
Tak jest. I na to też trzeba rzeczywiście zwracać uwagę.
No i dobra. I to będzie wszystko z mojej strony.
Ale jeszcze korzystałem z okazji.
Chciałbym państwa zapytać, ponieważ jesteście ekspertami od Tyflo Spraw.
Nadchodzi wersja 18 iOS-a.
I wiadomo, że podobno Apple podpisał umowę z OpenEye
na temat wdrożenia sztucznej inteligencji w tym nowym systemie.
I teraz, jak państwo myślicie, czy to coś zmieni w kwestii Siri?
Czy ta sztuczna inteligencja będzie faktycznie w stanie
sprawić w końcu, że Siri pojawi się w języku polskim?
No na razie OpenEye ani Apple to tego nie potwierdziło.
Ale moim zdaniem, jeżeli rzeczywiście tak by miało się stać, to tak.
Liczymy na to bardzo.
Czy tu koledzy też coś powiecie?
Ja nie jestem tutaj ekspertem od wdrożenia sfusów
i bardzo się z taką dość dużą rozwagą podchodzę do różnego rodzaju plotek,
bo Apple do tych modeli językowych podchodzi na wielu frontach,
bo z jednej strony wypuszcza jakieś swoje mikromodele,
z drugiej strony coś się próbowali z Google dogadywać.
Też jakaś taka plotka była.
Z OpenEye też właśnie to chciałem, bo wiecie, że oni generalnie
ze wszystkimi rozmawiają i takie przynajmniej były pogłoski.
I na pewno też nie mówi o tym, że Siri ma być bardziej inteligentny,
bo wszyscy tego chcą.
Czy będzie dostępny po polsku? Nie wiem.
Z jednej strony jest to prawdopodobne.
Z drugiej strony te modele pewnie mają tendencję do halucynowania
częściej w innych językach, chociaż nie wiem, czy to jest potwierdzone,
ale coś tak przypuszczam.
A Apple generalnie jest ostrożna, jeśli chodzi o takie sprawy,
więc jest też możliwe, że nie puszczą tego od razu na wszystkie języki.
Konferencja będzie za dwa tygodnie.
W poniedziałek, chyba 8 czerwca bodajże.
Także…
Dziesiątego.
Dziesiątego, przepraszam.
No to tutaj dziękuję za poprawkę.
No to wtedy będziemy już wiedzieć więcej na ten temat,
jak to wszystko będzie wyglądać.
Bo z tego co odnoszę wrażenie, to na froncie walki i tego wyścigu
rozwoju sztucznej inteligencji między powiedzmy Microsoftem,
Googlem, OpenAI, Apple pozostaje tak dosyć mocno w tyle.
Ja z tego co słyszałem, to oni tam pracują podobno właśnie
nad własnymi modelami językowymi, ale bardzo dużo jest spekulacji
na ten temat.
I takich jakiś tam pseudo doniesień medialnych nie wiadomo,
czy to są jakieś fake newsy, czy to są domysły tylko dziennikarzy.
Moim zdaniem to są domysły.
W tym momencie to tak naprawdę żadnego oficjalnego potwierdzenia
nie ma na ten temat.
Ja też właśnie o tych plotkach słyszałem, że to ma być jakieś
porozumienie z OpenAI.
Natomiast dopóki żadna konkretna informacja nie zostanie opublikowana
przez Apple albo przez OpenAI, no to my tak naprawdę nic nie wiemy.
Możemy jedynie, tak jak tu Paweł powiedział, wróżyć z fusów
i się zastanawiać, co by było gdyby.
Dobra, w porządku.
To w takim razie bardzo Państwu dziękuję za poświęcone czasy.
Życzę miłego wieczora, wszystkiego dobrego, do usłyszenia.
Dzięki również za telefon.
Pozdrawiamy serdecznie i do usłyszenia.
Dobrze, to aż by się chciało odpalić kolejną wiadomość od Was,
bo ich jest całkiem sporo dziś.
Ale zanim przejdziemy do następnej wiadomości,
to informacja ode mnie.
To znaczy, to będzie informacja, do której tak naprawdę odkrycia
zmotywował mnie kolega redakcyjny Michał Kasperczak.
Pozdrawiamy Cię Michale z tego miejsca serdecznie.
Bo Michał pozyskał ostatnio skaner.
Skaner formatu A3, skaner, który ma już lata świetności za sobą.
No i okazuje się, że po prostu ten skaner ma jedną zasadniczą wadę.
Nie działa pod Windowsem.
A przynajmniej pod Windowsem nowym.
Pod Maciem zresztą też nie.
Generalnie pod niczym nowym nie działa,
bo producent tego skanera już dawno o nim zapomniał
i sterowników nie aktualizuje.
No i co w takiej sytuacji?
Myślę, że sporo naszych słuchaczy może być w podobnym położeniu,
że kiedyś tam kupiliście sobie jakiś skaner
no i teraz ten skaner w momencie kiedy wymieniacie sprzęt,
wymieniacie komputery, aktualizujecie systemy operacyjne,
to w pewnym momencie mogło się okazać,
że on najzwyczajniej w świecie przestał Wam działać.
No i co robicie? Odkładacie go gdzieś na szafę,
kurzy się, a w sumie był dobry, działał.
No bo w skanerze to wiele popsuć się raczej nie może.
To chyba, że lampa albo ewentualnie ten wózek,
który przesuwa tę lampę.
No i cóż w takim przypadku zrobić?
Czy ten skaner po prostu już rzeczywiście przeznaczyć na elektrośmieci,
czy jednak można coś jeszcze z niego wykrzesać?
I słuchajcie, okazuje się, że można.
I to można za pomocą oprogramowania,
które nawet w jakimś tam stopniu jest dla nas dostępne.
To jest informacja pozytywna,
mniej pozytywna jest taka, że trzeba będzie za to oprogramowanie zapłacić.
Nie jest to jakaś bardzo wygórowana cena,
natomiast jest to oprogramowanie, które kosztuje.
Kosztuje od 400 złotych w edycji najdroższej,
natomiast ona tak naprawdę nie będzie nam potrzebna.
Przez 150 złotych w edycji takiej pośredniej,
no i 70 złotych w edycji najtańszej.
Moim zdaniem to oprogramowanie Viewscan,
które piszemy WSCAN przez V,
najlepiej sobie zakupić rzeczywiście w tej edycji pośredniej,
w tej edycji, która kosztuje 150 złotych.
Ja właśnie teraz mam nawet otwartą stronę
z porównaniem tego, co właściwie to oprogramowanie jest nam w stanie dać.
I tu mamy edycję profesjonalną,
to jest właśnie ta edycja najdroższa.
Tu z rzeczy do danych to mamy OCR
i mamy jeszcze możliwość zapisywania do formatu RAW,
tego formatu takiego surowego,
który jest rzeczywiście wykorzystywany w jakichś profesjonalnych narzędziach.
Natomiast nie wydaje mi się, żeby to było nam aż tak bardzo potrzebne.
Być może ten OCR byłby wart sprawdzenia.
Ja dlatego tak mówię bardzo spekulując trochę,
bo nie mam skanera, żeby to przetestować.
Może Michał nas słucha i da znać,
jak w ogóle ten program ViewScan mu się sprawdza,
bo wiem, że ma możliwość testowania tego zarówno na Windowsie, jak i na Macu.
I wiem, że jego skaner działa,
jak i pozostałe ponad 7000 modeli różnych innych skanerów.
Jeżeli jesteście ciekawi, to możecie sobie na przykład swoje skanery posprawdzać.
I właśnie ta edycja 150 złotych kosztująca,
czyli edycja standardowa, cóż ona ma takiego?
Tu widzimy właśnie w opisie, że to jest edycja idealna do skanowania projektów
lub długotrwałego użytkowania.
Skanery płaskie wspiera zapisywanie w formacie JPG, PDF i TIFF.
Mamy tu opcje standardowe, automatyczne przycinanie,
obsługę podajników dokumentów, jeżeli czegoś takiego nasz skaner używa.
No i też wspiera takie skanery, którymi można skanować filmy bądź też slajdy.
Ja przy jednym ze swoich skanerów, które miałem kiedyś,
to miałem taką przystawkę za pomocą której można było skanować właśnie klisze fotograficzne.
Nigdy, szczerze powiedziawszy, nie miałem okazji wykorzystać tego w praktyce,
no ale coś takiego miałem.
I ten właśnie program można sobie kupić,
można go pobrać też w wersji testowej,
na Windowsa, na Maca i na Linuxa, co ciekawe,
więc jeżeli na przykład korzystacie z Linuxa, to może też warto się tym narzędziem zainteresować.
I to oprogramowanie, jak gdzieś wyczytałem na blogu twórców,
to nawet potrafi w jakiś tam sposób działać jako ten moduł Twain,
który nam działa jako taki mostek pośredniczący
pomiędzy systemem, skanerem i oprogramowaniem odpowiednim,
więc z Fine Readera teoretycznie dałoby się go wywołać,
ale co w praktyce na pewno działa i co wiem od Michała,
to po prostu zapisywanie pojedynczych stron do konkretnych plików
w różnych formatach, czy to TIF, czy JPG właśnie.
I dzięki temu można później tak przeskanowane dokumenty
po prostu rozpoznać sobie Fine Readerem,
no bo przypuszczam, że z Fine Readera taką lub inną licencję to wielu z nas jeszcze ma.
Może nie najnowszą, ale zawsze jakąś i można właśnie takie obrazy poddać rozpoznawaniu.
Więc jeżeli jesteście zmartwieni, że wasz skaner nie jest już wspierany przez Windows,
przez producenta, no to można skorzystać z tego oprogramowania,
z oprogramowania Viewscan i przynajmniej spróbować.
Jest wersja demo, która jest do sprawdzenia, to spokojnie zdatna,
bo dzięki temu, że możecie ją sobie po prostu zainstalować i jej używać,
to możecie też przetestować możliwości, jakie to oprogramowanie daje.
Nie za bardzo będziecie w stanie z tego skorzystać tak w praktyce później,
bo to oprogramowanie dodaje znak wodny do skanów
i w takim przypadku, kiedy mamy ten znak wodny,
to Fine Reader nie bardzo sobie radzi z rozpoznawaniem tych obrazów.
Natomiast czy w ogóle wasz skaner, który macie, zadziała z tym oprogramowaniem?
No to jak najbardziej można przetestować,
a jeżeli będzie działać, to będzie można sobie kupić ten skaner.
No i właśnie widzę, że Michał wysłał nam tu wiadomość głosową,
więc mam nadzieję, że coś powie na ten temat.
Posłuchajmy w takim razie wiadomości od Michała.
Dobry wieczór, Michał Kasperczak.
Skoro zostałem wywołany, to tylko krótko powiem,
że na razie nie mam jeszcze wystarczającej wiedzy i jakiegoś poglądu,
jak aplikacja ViewScan się sprawdza.
Obiecuję, że zajmiemy się nią i zrobimy na pewno podcast jakiś na jej temat,
gdzie opiszę tak ogólnie interfejs, powiem co i jak.
Niestety w wersji trial nie mogłem sprawdzić za bardzo tego OCR.
On jakoś nie chciał mi specjalnie działać,
ale też powiem szczerze, nie do końca się przyłożyłem,
nie zależało mi na tym bardzo, może tam było coś niedostępnego,
więc nie chcę też nikogo do końca wprowadzać w błąd,
bo rzeczywiście cena tej wersji PRO 400 zł, gdyby był dobry OCR,
to byłoby spoko.
Ja nie doczytałem, niestety na jakimś inniku ten OCR jest oparty
i czy on w ogóle wspiera język polski i w jaki sposób.
Powiem też, że ja jestem trochę wybredny, jeżeli chodzi o OCRy.
Ja niczego lepszego od Fine Readera i to najnowszego nie znam.
Ja wierzę w Fine Readera i to w nowe Fine Readery generalnie.
Zdaję sobie sprawę z ich ceny i z tego, że tak naprawdę my,
osoby niewidome w jakiś sposób działamy w nim,
czyli w Fine Readerze na ustawieniach automatycznych
i nie cudujemy, nie zmieniamy tam jakichś parametrów,
nie takich, które byśmy mogli być może korygować pracując w wiązce,
pracując w edytorze OCR, średnio zresztą dostępnym,
ale Fine Reader, jeżeli zależy komuś na rozpoznawaniu niemalże idealnym,
to im nowszy Fine Reader, tym lepszy, dlatego ja tak bronię tej aplikacji.
Ale co do Viewscan, na pewno do tematu wrócimy za czas jakiś.
To tak tyle z mojej strony zakończenia tego, no być może zakończenia,
czy dokończenia tego tematu. O, tak.
Słucham oczywiście, słucham, nagrywam audycję i potem będę jej słuchał dalej.
Pozdrawiam.
A jeżeli macie ochotę zapoznać się z aplikacją we własnym zakresie,
nie czekając na nasz podcast, to od razu podam adres internetowy,
z którego możecie tę aplikację pobrać.
Trzeba tam podać swój adres poczty elektronicznej przy pobieraniu
i link zostanie wysłany na waszego maila hamrick.com,
hamrick.com, tam możecie pobrać Viewscana.
A jeżeli wam się spodoba, no to w takim przypadku będzie oczywiście możliwy jego zakup.
No dobrze, i tyle jeżeli chodzi o skaner.
Natomiast to nie tyle, jeżeli chodzi o nasze różne informacje,
które mamy dla was, bo mamy ich jeszcze całkiem sporo.
Na przykład mamy informację dotyczącą NVDA, który doczekał się ciekawego dodatku.
Dodatku, który pozwala nam robić z naszej klawiatury każdą klawiaturę.
No i o co chodzi, bo to tak kryptycznie brzmi jakoś zaewaluowanie.
A no po prostu dodatek, ten dodatek nazywa się Virtual Keyboard,
pozwala nam przełączać naszą klawiaturę komputera w różne tryby.
I może ona być oczywiście swoją podstawową klawiaturą,
ale może ona też być klawiaturą numeryczną,
a może też być klawiaturą multimedialną, co może być dość przydatne,
jeżeli chcielibyście sobie tam szybko poprzełączać utwory w dowolnym odtwarzaczu,
czy tam jakieś multimedia, zapauzować, wstrzymać i tak dalej.
Bo czasami mam wrażenie, że klawiatury właśnie takie multimedialne
nie są do końca doceniane, że ma się taką możliwość po prostu
z poziomu klawiatury gdzieś tam coś puścić, zapauzować i tak dalej.
Ja już przeczytam, o co chodzi w tym dodatku.
Simuluje różne klawiatury, w tym klawiatury multimedialne,
klawiatury o rozszerzonej funkcjonalności i klawiatury numeryczne.
Zhongshan Wu jest autorem tego, czyli brzmi to tak,
że dodatek pochodzi z chińskiej społeczności.
I co dodatek robi?
Wprowadza on wiele trybów klawiatur wirtualnych.
Rozszerzenie w klawiszy funkcyjnych, klawiatura numeryczna i klawiatura multimedialna.
No i kiedy włączony jest któryś z tych trybów,
to konkretne klawisze symulują inne, żeby tę funkcję można było zrealizować.
I jakie my tu mamy klawisze?
7, 8, 9, Y, U, I, O, P, H, J, K, L i M i przecinek i kropka.
I to są klawisze, które są tutaj w grze i w różnych trybach
te różne klawisze do różnych rzeczy służą.
No i tutaj jest polecenie, jaka rekomendacja ze strony autora,
żeby włączyć pomysł klawiatury i sobie sprawdzić, które klawiatury co gdzie robią.
No więc NVIDIA i Myślnik przełącza tryb wirtualnej klawiatury
i wtedy włącza nam się po prostu ten tryb.
I mamy możliwość przełączania do poprzedniego i następnego trybu
za pomocą klawiszy lewego i prawego nawiasu kwadratowego,
czyli tam na naszej polskiej klawiaturze to jest obok literki P.
Prawy kontrol pauzuje i wznawia tryb tej wirtualnej klawiatury.
No i teraz tak. Na klawiaturze numerycznej zmapowane jest to w sposób następujący.
7, 8, 9 to 7, 8, 9. Duże zaskoczenie.
U, I, O to 4, 5, 6. J, K, L to 1, 2, 3.
M i kropka to 0, no przecinek numeryczny i Enter.
Y to slash, a P to gwiazdka.
I H i dwukropek to plus i minus.
I slash wyłącza, włącza numlocka.
Tutaj są też polecane palce, którymi palcami nawet mielibyśmy korzystać,
no ale to nas średnio interesuje.
Mamy też tryb multimediów i tryb rozszerzonych funkcjonalności.
I tu jest napisane, żeby wspomóc się pomocą klawiatury,
żeby sobie dokładnie o tym przeczytać.
No więc, no nie wiem, zwłaszcza tutaj myślę o laptopach.
Dla laptopowiczów pewnie wtyczka przydatna.
Od czasu do czasu coś może się okazać przydatne.
Może ta nawigacja obiektowa będzie troszkę prostsza.
Z drugiej strony dużo laptopów nie ma prawego kontrola.
Jest tutaj pytanie, co zrobić.
No myślę, że po prostu włączać i wyłączać albo sobie przemapować ten skrót.
No tak.
No i chyba tyle.
Jeśli chodzi o ten dodatek, no może się komuś przydać,
bo tak jak mówiłem, właśnie na tych laptopach różnie bywa.
No dajcie znać, jeżeli oczywiście będziecie mieli jakieś z tym dodatkiem doświadczenia.
No i będziecie chcieli coś nam o tym ciekawego opowiedzieć.
Niektóre laptopy, też pamiętam, że potrafiły swego czasu
symulować klawiaturę numeryczną, chociażby z wciśniętym klawiszem FN.
No ale to nie była reguła.
To w zależności od modelu urządzenia.
Więc istotnie taki dodatek może czasem się przydać.
Odbieramy kolejny telefon. Kto jest z nami tym razem?
Dzień dobry, witajcie, a właściwie dobry wieczór.
Ja mam dwie sprawy, ale postaram się tak króciutko.
Pierwsza sprawa dotyczy TWS, czyli symulatora kolejowego.
Chciałem się przejechać tą trasą z Nowego Jorku do Waszyngtonu
i nie udało mi się za nic na świecie uruchomić tego domyślnego pojazdu, pociągu,
który tam jest przypisany, mimo że wszystko robiłem tak jak jest w biurze wymagane,
zgodnie z dokumentacją. No nie udało mi się po prostu w żaden sposób ruszyć.
Udało mi się ruszyć pojazdem zmodyfikowanym, takim towarowym, dużym składem
i to rzeczywiście działa, ale tym domyślim no niestety nie.
Piotrze, czy masz jakieś doświadczenia?
Próbuję przypomnieć sobie co to za trasa.
Czy to jest jakaś trasa, która chyba niedawno była dodana?
Czy ty mówisz o… nie mówisz o metrze, rozumiem.
Nie, nie, nie o metrze. To jest nowa dosyć trasa po tych modyfikacjach
niedawno wprowadzonych do symulatora i tam jest info…
znaczy jest trasa z Nowego Jorku do Waszyngtonu.
Trzeba wybrać sobie jako kraj USA i wtedy ta trasa się pokazuje.
Natomiast co możesz spróbować?
No musisz powłączać wszystkie światła, włączyć zasilanie, zwolnić amulce.
Może być taka potrzeba, żeby zwolnić amulet ręczny klawiszem Y.
Nie wiem czy ten pociąg ma amulet ręczny, ale to…
No to jeszcze spróbuj w niektórych pociągach i w tych amerykańskich
tam parę było podczas wersji beta, które na początku się nie pojawiły,
ale chyba teraz faktycznie zaczęły się pojawiać.
Trzeba było, podobnie jak w niektórych składach austriackich,
przytrzymać klawisz F i D jednocześnie przez jakieś kilka sekund,
żeby zwolnić wajchę tą główną.
Więc może jeszcze to spróbuj.
Rozumiem. Czy to jest jakoś sygnalizowane jakimś dźwiękiem, komunikatem?
No usłyszysz dźwięk, że ta wajcha jest pociągnięta
i po chwili po prostu ten pociąg zacznie ruszać, jeśli wszystko się udało.
Jeszcze w niektórych pociągach literkami J i K trzeba odpowiednie napięcie ustawić.
To po prostu ja zawsze ustawiam na najwyższe napięcie i po prostu działa,
więc jeszcze możesz to spróbować.
Rozumiem.
Druga sprawa dotyczy Hearthstone’a i tego trybu beta tych duetów w ustawce.
Nie do końca umie interpretować te pingi, które mi ludzie wysyłają.
Nie grałem nigdy po sieci z nikim, żeby się umówić i to poćwiczyć,
tylko na zasadzie kto mi się trafi, to się trafi.
Czasami mi ktoś podrzuci jakąś kartę, która mi jest potrzebna,
natomiast ja nie umie współpracować z graczami, żeby też coś im podrzucić,
bo czasami zostaje mi płata złota, jakby ktoś tam coś chciał, to mówim spokojnie,
ale nie rozumiem tych pingów właśnie.
No te pingi, no bo generalnie w duetach nie mamy takiego typowego czatu
i to jest tak specjalnie zrobione.
No trzeba trochę też mieć szczęście, żeby trafić na kogoś,
kto też faktycznie wie o co chodzi.
Natomiast jeśli chodzi o te pingi, nie mówię, że wszyscy tak to wykorzystują,
bo mamy kilka takich pingów.
Mamy X, to jest Shift i znak równa się, znak oznaczenia,
że to jest to, ja bym to interpretował jako tak, co chcemy.
Mamy przekreślenie Shift X i to znaczy, że jakby jako nie,
więc jakby ktoś nam coś pokazywał na kartę jakąś, to żeby raczej tej karty nie brać, nie kupować,
bo możemy wysyłać te pingi na dowolnej rzeczy, możemy na dowolnej karcie,
w naszej karczmie lub w karczmie naszego kolegi.
Osoby widzące też mogą te pingi wysyłać na przycisku ulepszenia, przycisku odświeżenia.
My na razie tego nie możemy robić, niestety w tej pierwszej wersji testowej to się ma pojawić.
Więc właśnie ten znak oznaczenia to jakby na tak.
Przekreślenie czerwone, czyli Shift X to jakby na nie.
Portal, no to wiadomo, jeśli ktoś nam wysyła pinga ze znakiem portalu,
to znaczy, że prosi nas, żebyśmy jemu coś wysłali albo vice versa,
może prosi nas, żebyśmy my tej osobie coś wysłali.
Możemy też wysłać pinga ze znakiem zapytania, więc po prostu chcemy się kogoś zapytać,
czy chcesz tą kartę, czy mam tą kartę kupić, to są kwestie komunikacyjne.
No to jest Shift znak zapytania.
No i też możemy sobie klawiuszem średnik przeczytać ostatni ping, który do nas przyszedł,
jakbyśmy czegoś nie rozsłyszeli lub Shift średnik przenieść kursor na kartę,
która taki ping otrzymała.
Dobrze. I ostatnia sprawa chyba najtrudniejsza.
Chodzi mi o przeglądarki na Androidzie i konkretnie to chciałbym sobie,
ponieważ używałem Chroma, mam w tym Chromie zaznaczone różne powiadomienia
z różnych witryn, że one mi tam przychodzą.
Chciałbym sobie zmienić przeglądarkę na przykład na Brave’a,
tylko żeby zaimportować jakby z Chroma te wszystkie powiadomienia,
ale przede wszystkim to chciałbym dodać tą wtyczkę, o której tutaj była kiedyś mowa,
tylko że na komputer ten koncept jakoś tam, żebym się nie musiał zgadzać.
Conceptomatic chyba tak to się nazywało.
Żebym się nie musiał na te wszystkie zgadzać, powiadomienia, zgody przetwarzania danych
i inne tam rzeczy.
Na Androidzie ja nie umiem znaleźć tego sklepu po prostu z wtyczkami.
Także po prostu nie ma tego wsparcia.
Nie, niestety nie.
Czyli na Brave’a mobilnego nie da się żadnych rozszerzeń instalować.
A na Chroma?
A na Chroma chyba tak.
No właśnie i nigdzie nie mogę znaleźć jakby tego sklepu,
no bo na komputerze to on jest, prawda?
A na Androidzie nie ma się tam dostać.
No ja bym tutaj spróbował po prostu przez Google wpisać nazwę tego rozszerzenia.
Tylko dopatrzę jak to się jeszcze raz pisze.
Concent-o-matic.
Dokładnie to się pisze przez myślnikami.
Concent-myślnik-o-myślnik-matic.
Możesz sobie tak nawet w Google wpisać.
Nawet tutaj mi się pierwszy wynik wyświetlił.
Nawet nie tyle strona oficjalna rozszerzenia co w sklepie rozszerzeń Chroma właśnie.
Więc może tak na drugą określoną da się to znaleźć.
Dobrze, to ja tylko chciałem się odnieść do wypowiedzi Sylwestra
i wniosku na aktywny samorząd.
Otóż z tego co mi wiadomo to zarówno firmy informatyczne,
Tyflon, no bo to tutaj Sylwester ma jakby błędne troszkę myślenie,
że firma musi być gdzieś koło niego i tak dalej.
No można zadzwonić choćby do Wojtka Maja,
czy do innych firm typu, które się zajmują sprzętem informatycznym
i pomagają wypełniać jak ktoś nie jest w stanie zrobić tego samodzielnie,
czy w formie elektronicznej, czy w jakikolwiek inny sposób.
No ale rzeczywiście źle jest ten program skonstruowany o tyle,
że przecież mogło to być tak zrobione,
że mamy na przykład sprawny sprzęt brajlowski, prawda?
Wystaraliśmy się na przykład o komputer, za trzy lata nam padnie sprzęt brajlowski,
nie jesteśmy w stanie tego przewidzieć, a tak to no jakby jesteśmy zablokowani.
No źle jest to moim zdaniem pomyślane.
Tak samo jak z tym okolistą jest to jedno wielkie nieporozumienie.
Były zresztą głosy użytkowników aktywnego samorządu,
którzy zgłaszali do PFRON-u tego typu skargi, uwagi.
No ale jak widać to chyba na razie jeszcze trochę musi wody w Wiśle upłynąć,
żeby to wszystko zaczęło jakoś działać.
No ja pamiętam, że ja całe szczęście tylko jedną kartkę musiałem
jakoś elektronicznie tam wrzucać do tego SOW-u,
całą resztę udało mi się zrobić z poziomu komputera i elektronicznie.
Natomiast no rzeczywiście ta jedna kartka była potrzebna,
bo bez tego nie mógłbym złożyć wniosku o sprzęt brajlowski.
No ja mam skan orzeczeń na przykład po prostu zeskanowany papier w formie zdjęcia.
Tak, ja też.
Tylko wiesz, to musisz za każdym razem do okulisty osobne to orzeczenie,
bo to nie jest orzeczenie o niepełnosprawności, to jest orzeczenie,
to jest konkretny druczek, który okulista musi wypisać,
że po prostu nie widzisz i że dalej nie widzisz.
Ale to jest tylko przy sprzęcie brajlowskim, czy przy podstawowym też?
Z tego co wiem to właśnie teraz już jest tylko przy sprzęcie brajlowskim,
chociaż przynajmniej dwa lata temu tak było.
I te informacje uzyskałem z mojego PCPR-u,
a gdzieś takie słuchy mnie dochodziły,
że w niektórych PCPR-ach na przykład w ogóle nie był wymagany ten druk.
No właśnie, szkoda, że tutaj jak gdyby nie ma tej jednolitości,
bo ktoś sobie w PCPR-ze na przykład na jakiejś małej wiosce uzna,
że nie będzie dawał telefonów, bo można wyjść od operatora.
Już słyszałem się o takich przypadkach.
No i nic jakby nie jesteśmy w stanie z tym zrobić.
No to prawda, to prawda, szkoda, że tu nie ma jakichś jednolitych warunków.
Chociaż ja mówię, no ja na swój PCPR akurat nie mogę narzekać,
ale tego wszyscy nie mogą powiedzieć,
bo też słyszałem o różnych przypadkach.
To ja dziękuję uprzejmie, że mogłem się wypowiedzieć,
miłego prowadzenia audycji i życzę, trzymajcie się.
Dzięki Pawle za telefon, do usłyszenia, pozdrawiamy cię serdecznie.
No dobrze, zajrzyjmy jeszcze do waszych wypowiedzi na Whatsappie,
bo dawno tam nas nie było,
a Mateusz nagrał nam tu wiadomość jeszcze,
telefon dzwoni, ale to telefon niech poczeka, posłuchajmy.
Posłuchajmy wiadomości od naszego słuchacza.
Witajcie, mam dwa pytanka dotyczące urządzeń Apple.
W ogóle z tej strony Mateusz.
Pierwsze pytanie, czy my możemy na system iOS
instalować jakieś zewnętrzne głosy do voiceovera,
nie licząc tych systemowych,
bo nie ukrywam, że mi oby było
jakiś fajny, nowy głos sobie zainstalować.
I drugie pytanko, czy znacie jakąś stronę
z poradnikami odnośnie pracy z logiciem
z perspektywy osoby niewidomej.
Był jeden blog, bodajże Logic Band,
ale dużo treści jest już tam ukrytych za paywallem,
a gdy napisałem do twórcy strony prywatnie,
jakie formy płatności preferuję,
no to oczywiście nie dostałem żadnej odpowiedzi
i można powiedzieć, że zostałem bez jakiejkolwiek wiedzy,
a nie ukrywam, że chciałbym co nieco
jeszcze się o logicu dowiedzieć.
Z góry dzięki i życzę miłej audycji.
Pozdrawionka.
Z tymi głosami, no to eSpeak tak naprawdę dla nas
jest jedynym takim zewnętrznym głosem,
bo RH Voice’a dalej nie mamy na iOS-a.
Niestety, no jest jeszcze Seraproc, ale…
No tak, ale to może odpuśćmy sobie ten temat.
Natomiast co do logika, coś ty Piotrze może
tu wiesz na ten temat?
No właśnie była ta strona, o której Mateusz wspomniał,
chyba parę tutoriali na swoim YouTubie wrzucił Andrzej Lewis,
tego to nie są, to są jakieś szczątkowe informacje.
Natomiast ja tutaj weszłem sobie na tę stronę logic.band
i na przykład na górze strony jest link na Paypala,
więc można by tu przepuścić, że taką metodę płatności preferuję.
Pytanie, czy wtedy dostęp dostajemy automatycznie,
jak to wygląda, bo tutaj po prostu tego nie wiem, więc…
A Paypal jest akurat bardzo przyjazny, jeżeli chodzi o obsługę.
Co prawda cały czas mają jakieś tam kłopoty
z tymi niektórymi formularzami płatności w aplikacji mobilnej.
Jak na przykład ja sobie wypłacam pieniądze na konto bankowe,
to się pojawiają jakieś dziwne opisy i teraz na przykład
dostaję informację, że wypłacam powiedzmy ninety złotych,
czy tam polisz złotych, no ale generalnie z aplikacją przynajmniej
na iOS-a większych problemów nie ma, ja z Paypala korzystam,
więc polecam, jeżeli ktoś zwłaszcza ma taką potrzebę,
żeby gdzieś tam za granicą dokonywać jakichś płatności,
a i w Polsce też ten Paypal czasem się przydaje.
Odbieramy konto… Aha?
Przepraszam, jeszcze tutaj sobie przeglądam dokładnie stronę
i widzę jeszcze jedną rzecz, która się też może przydać
i tu już pewnie będzie łatwiej.
Mianowicie też na głównej stronie jest link JoinTheBand,
który prowadzi nas do kanału na YouTube i tutaj też widzę,
że mamy jakieś materiały tylko dla członków,
natomiast YouTube już nam pozwala płacić w złotówkach,
jeśli mamy podpiętą kartę do konta Google,
jeśli nie mamy to chyba przy pierwszym razie
po prostu nas o to zapyta.
Natomiast to chyba też trzeba zrobić z przeglądarki,
a nie z aplikacji mobilnej, no bo wiadomo jak to jest
z iOS-em i płatnościami wewnątrz aplikacji,
natomiast to może być kolejna alternatywa
i tutaj faktycznie myślę, że do tych materiałów
bez problemu dostaniemy dostęp wtedy.
Odbieramy kolejny telefon. Wojtek tym razem jest z nami.
Witaj.
Tak, tyle telefonów. Jak wydobniacie do końca,
to ja udostępnię.
Zobaczymy.
Maksymalnie skoncentrowany i szybki,
żeby tego Wam nie utrudnić.
Sprawy drobne. Bilkom potwierdzam działa,
bo słyszałem w ubiegłym tygodniu,
że ktoś powiedział, że nie działa.
Jak najbardziej potwierdzam ten głos,
który powiedział, że działa.
To, co nie działa, to Bilkom HD,
ale ten Bilkom, który się komunikuje z obywatelem,
jak najbardziej działa.
Chodzi sam z niego, korzystałem w ubiegłym tygodniu
nawet kilka razy.
Także to.
Aktywny samorząd. Ja do tej pory żyłem
w błogiej nieświadomości, że to jest tak,
że jak kupisz sprzęt podstawowy,
to to jest osobny okres karencji
niż na sprzęt bajlowski, jakby sam kupić.
No ale z tego, co mówicie, wygląda na to,
że nie jest tak wcale.
No właśnie tego usiłuję się też tak dowiedzieć,
dlatego tak dopytuję, bo
fajnie byłoby mieć jakąś konkretną informację.
Jeżeli ktoś jest biegły w tych przepisach,
to fajnie, żeby dał nam tutaj znać
i jakoś wspólnie będziemy w stanie to rozgryźć.
Natomiast sądząc po tej informacji,
jakiej nam tu udzielił Sylwester,
że ten jego wniosek został odrzucony
i właśnie adnotacja była taka,
że trzeba czekać, no to po prostu trzeba.
No i tyle.
Dwa razy trzeba się na pewno zastanowić,
jak się składa ten wniosek.
Kiedyś to tak było,
że było osobno rozpatrywana ta karencja
na nowej loski sprzęt,
ale to jeszcze dawno temu,
nawet to nie był aktywny samorząd.
Pamiętam, że było to osobno rozpatrywane,
ale może teraz się coś zmieniło.
Nie mam pojęcia,
jeżeli ktoś rzeczywiście to wie,
to dobrze by było, żeby to powiedział,
bo to się, myślę, nam wszystkim przyda.
Tak że tylko można o to zaapelować.
Trzecia sprawa to jest
jeden z moich ulubionych programów,
czyli Mac Whisper.
On dostał trochę update’ów,
ale może będziecie mogli mi powiedzieć,
co to jest,
bo tam różne nowe modele tego Whispera
zaczęły się pojawiać
i m.in. pojawiło się coś takiego,
jak Whisper Kit.
Czy wy z czymś takim się spotkaliście?
Co to jest, Ulicha?
Po pierwsze dziękuję,
że mi o tym przypomniałeś,
bo chyba zapomniałem sobie
dodać gwiazdkę w przedniku RSS,
bo gdzieś mi ta informacja mignała
i chciałem o niej wspomnieć,
ale uciekła mi, więc dziękuję.
Czytałem, że Whisper Kit generalnie
to jest takie API
dla deweloperów aplikacji
na platformy Apple,
które pozwala na łatwą integrację
modeli Whispera,
które też mają wsparcie
dla tego procesora neuronowego,
czyli to po prostu powinno być
dzięki temu szybsze
i zużywać mniej baterii.
Pytanie, czy w tym też jest
jakieś większe modele,
czy tylko ten najmniejszy?
Jest large.
Wiem, ściągnąłem.
A to muszę się tym pobawić.
Trochę transkrypcji robiłem
po polsku
i nie zauważyłem,
żeby to było szybsze
w jakikolwiek sposób.
Co do baterii, nie wiem,
bo cały czas działam na prądzie,
więc nie powiem.
Ale teoretycznie to powinno być
bardziej energościem.
Aha, no to fajnie, fajnie.
Tam jeszcze są różne poprawki
i usprawnienia
i bardzo dobrze, niech będzie.
Tutaj ktoś też wspominał o tym,
że Apple jest taki zacefany
jakby w tej sztucznej inteligencji,
a ja ostatnio bardzo ciekawy też artykuł
na ten temat czytałem w Ekonomiście
i to ich taki edytorial właśnie,
gdzie twierdzą, że to jest wszystko
bańka taka spekulacyjna
się powoli robi
z tej sztucznej inteligencji,
że to na pewno pęknie
i że właśnie jedyny z tych dużych graczy,
który zachowuje się racjonalnie,
to Apple, który nie rzuca na to
setek, miliardów wręcz dolarów
i zachowuje jakąś zimną krew
i po prostu pewnie najmniej straci,
jak ta bańka w końcu pęknie.
Także tak ad vocem
do tego, co się tutaj pojawiło.
Znaczy wiesz, to jest w ogóle ciekawa rzecz
z tą sztuczną inteligencją,
bo tak naprawdę mamy dwie strony tego medalu.
Z jednej strony są firmy,
które na rozwój tego AI stawiają,
ale ja mam wrażenie,
że tych firm jest niewiele.
No bo kto?
OpenAI to oczywiście,
że oni, jest jeszcze Google,
jest jeszcze Antropic
ze swoim Cloudem,
a właściwie ta cała reszta
łącznie z Microsoftem
to są tak naprawdę
beneficjenci tego AI,
którzy po prostu są zależni
od tych wielkich,
największych, w tym momencie
no chyba najbardziej od
OpenAI, jeżeli OpenAI
wyciągnęłoby wtyczkę z gniazdka,
to no co, to chociażby
co-pilot Microsoftu,
no to zwija się natychmiastowo.
Tak, ale to ciekawe,
oni są też wzajemnie zależni od Ciebie,
no może oprócz Google,
bo Google powiedzmy ma swoje AI,
ma swoje centra dane,
OpenAI, zresztą Microsoft się
tym chwalił na konferencji Build,
która odbyła się wczoraj,
właściwie cały czas trwa nadal,
to chwalił się tym, że właśnie
OpenAI uruchamia wszystkie swoje modele
w centrach danych Azure,
więc no tutaj wzajemnie są
zależni od Ciebie w tym momencie.
No i tam jest ta struktura własnościowa,
fundacja,
ten non-profit
i for-profit, ten jakby podległy,
no to widzieliśmy co się działo
tam w listopadzie ubiegłego roku,
więc myślę, że akurat Microsoft to tam
o nic się nie musi obawiać,
a rzeczywiście no po prostu koszty wyszkolenia
tych dużych modeli językowych
są tak duże, że trochę trudno
mi sobie wyobrazić, że ktoś jeszcze
wejdzie tutaj na poważnie do gry,
no ale kto wie, być może
to jest tylko taka,
taki tylko przedsmak
tego co nas czeka
w ramach sztucznej inteligencji i może
opracowana zostanie jakaś lepsza metoda
niż te duże modele językowe,
bo ile można żreć tych danych z internetu.
Ja też ostatnio sobie uzmysłowiłem,
że my się tak cieszymy tym whisperem
i to słusznie, ale przecież
OpenAI tego nie wypuściło dla niewidomych
czy dla nas oczywiście,
tylko prawdopodobnie oni to na początku
wypuścili po to, żeby to zasysało
dane z filmów i żeby to
wpadało w ich ten duży model językowy.
I to było nawet potwierdzone
gdzieś w artykule jakimś tak.
A to nawet gdzieś ktoś na to
wpadł czy potwierdził.
No właśnie.
No skąd się wzięły te wszystkie napisy
stworzone przez społeczność Amara.org
i inne takie, które
się doczepiają
na przykład na końcu
różnych whisperowanych treści.
Tak, tak.
No już coraz rzadziej, ale jeszcze
w dalszym ciągu.
Więc tu rzeczywiście bardzo dużo
też jest tych nowości
w Mac Whisperze. Tam coś
w tym Whisper Kit jest coś
o tym, że może być
real time.
Mogą te napisy real time transcripts,
ale to chyba nie jest to,
na co ja bym czekał, czyli
możliwość po prostu wypuszczania
na przykład do pola edycji jakiegoś
czy w Wordzie wypuszczania
tego, co on będzie rozpoznawał, tylko to jest
chyba jakiś podgląd tych napisów.
Ale kto wie, może
akurat będzie to
możliwe już za jakiś
czas. Zobaczymy.
Inna taka sprawa, którą
chciałem poruszyć, bo to chyba też rzuciłem
czymś takim, że ten Audio Hijack też dostał
update. Tam coś w bloku
nagrywania z aplikacji się
to zmieniało, jak bardziej zaawansowane
są funkcje. Ale tutaj
taka rzecz,
która mnie bardzo interesuje
i
nie wiem, czy coś się tu zmieniło,
czy nie, ale może ty Piotrze będziesz wiedział,
no bo ostatnio
potrzebowałem zooma w trzech
instancjach na Macu.
No i wiem, że to się
robi tam open w terminalu
i się daje parametry tam minus n.
Jeszcze ktoś tam
podpowiadał, że minus a trzeba do tego
dodać. Ale co sobie widzę,
że oczywiście dwa zoomy mi się
otworzyły, nie ma sprawy.
No oczywiście ten drugi mi zaczął krzyczeć,
że nie może mnie zalogować, bo już jest
ktoś inny zalogowany na to konto.
To jest spoko. Wszystko
okej. Natomiast wpisuję to samo,
bo tam chciałem być w trzech instancjach na spotkaniu
jednym.
Tak mi to było potrzebne, bo
tam dwie instancje to tłumaczenie,
a jedna instancja to ja.
No i wpisuję to
spotkanie, a on
dalej ma wygaszony
przycisk tego dołączania
i nie wiem właściwie, co to było.
Czy oni się właśnie
przed takimi cwaniakami jak ja blokują,
żeby kupować więcej
tych licencji, czy o co tu
chodzi? Potem ćwiczyłem.
Jest oczywiście obejście na to.
Trzeba się po prostu wylogować ze wszystkich
możliwych instancji Zooma
i wtedy wchodzić jako
niezalogowany i dopiero na końcu
wejść tą ostatnią
jakby instancją,
którą chce się sterować,
wejść i tu
na białym koniu się zalogować
i przejąć bycie hostem
i wtedy w ten sposób.
No ale jest to dość takie, no, co tu dużo
gadać, upierdliwe po prostu to
procedura. Nie wiem, czy tam coś się
pozmieniało, czy nie. Może to
ten parametr A pomógł.
Nie wiem w ogóle, do czego on służy.
Gdzieś po prostu go znalazłem na YouTubie,
ale może komuś to się przyda.
A swoją drogą zauważyłem,
że kiedyś
bardzo fajna funkcja,
coś zaczyna z nią być
nie tak, a mianowicie, nie wiem, czy to na PC
jest, ale na Macu da się tak ustawić,
żeby ten Zoom nagrywał
jakby osobną ścieżkę
audio dla każdego z użytkowników.
Tak, działa.
Jest taka funkcja.
I to jest super funkcja, ale
ona jakoś dziwnie działa
właśnie, bo
ja kiedyś to pamiętam, że wszystko
się elegancko nagrywało,
a teraz…
Tak, chyba było tak, że miałem właśnie
na zajęciach gościa z Hiszpanii,
byłem ja
i była jeszcze studentka na Zoomie.
I ja byłem przekonany, że jak ja sobie
to włączę, te nagrywanie,
zawsze to włączę, te osobne ścieżki,
to on mi zgarnie ich wszystkich.
Ja jej w ogóle nie słuchałem,
bo tam kwestia techniczna,
iloma rękami można obracać,
że czwartą instancję musiałbym
włączyć, żeby jej słuchać. To już bez przesady.
No ale byłem przekonany,
że jak zapisze mi się,
to to nagranie jej też będę mieć.
Ale okazało się, że go
nie mam, więc nie wiem,
co to się stało,
czy to jest takie normalne
zachowanie, że on tych tłumaczeń
jakby nie włącza
w ten feed
tych wszystkich nagrań.
Być może tak jest właśnie.
Być może właśnie o to tutaj chodzi,
że tłumaczenie to jest jakieś coś osobne,
a może na przykład
gdybyś miał włączone,
chociaż ja to też testowałem
i z kolei nie chciało działać
nagrywanie w chmurze
takie wielościeszkowe, bo też to Zoom
teoretycznie potrafi. Gdzieś tam w tych
zaawansowanych ustawieniach
na stronie internetowej widziałem taką opcję,
zahaczyłem ją testowo,
ale jakoś nie chciało mi to działać,
ale być może właśnie to chmurowe
nagrywanie i te opcje,
które tam są dostępne,
coś by tu jeszcze pozwoliło zrobić.
A mnie właśnie działa
wielościeszkowe nagranie,
a to cię zaskoczy, bo świetnie to działa
i potem otwiera się player
i tam można sobie wybrać po prostu,
które ścieżki chcę słuchać,
czy oryginał, czy któryś z języków
i też można sobie
osobno ściągnąć kulturalnie
te pliki audio z poszczególnymi
ścieżkami tłumaczeniowymi.
A tak jak kiedyś działało mi to,
bo pamiętam, że nagrywały się
te tłumaczenia na desku lokalnym
przy nagrywaniu,
tak teraz to nie działa.
Ja właśnie z lokalnym nagrywaniem na Zoomie
to mam takie mieszane doświadczenia,
bo kiedyś pamiętam,
że kiedy Zoom już wprowadził
taką naprawdę fajną jakość
tego dźwięku,
to stwierdziłem, że okej,
nagram sobie coś, no tak to szybko
na Zoomie właśnie,
włączę sobie dźwięk oryginalny
i spróbuję po prostu nagrać,
chyba jakiś filmik chciałem nagrać
z demonstracji czegoś tam.
No to najprostsze rozwiązanie.
Tworzę swoje własne spotkanie,
nagrywam lokalnie,
z udostępnionym obrazem i działamy.
Jak potem sobie odsłuchałem
tego dźwięku, no to była tragedia.
Dźwięk oryginalny miałem włączony
na pewno, natomiast no ten dźwięk
się gotował, to bardzo źle to brzmiało.
Już w późniejszych edycjach
Zooma i wersjach to zostało to poprawione,
natomiast no kiedyś
tak nieciekawie
to działało.
A to ja zawsze nagrywałem lokalnie
i świetnie to zawsze działało.
Zresztą za tę metodę też Tobie dziękuję,
bo ona mi bardzo wiele
pomogła przy wielu różnych robotach.
Ja właśnie zawsze w chmurze,
dlatego, że dla mnie to jest backup.
Jak na przykład z internetem mi się coś
podzieje, to potem mam
fajną kopię zapasową
tego nagrania, żeby ewentualnie
potem w postprodukcji,
w ramach podcastu coś tam podmontować,
żeby to tak nie brzmiało,
że o tu się nagle coś urywa.
Albo na przykład jak jest jakiś
problem z łączem, czasem tak
bywa, że audycje, które się
ukazują później w podcastach to brzmią
troszeczkę lepiej, to dlatego, że
na przykład jak już wiem, że coś tu się wydarzyło
niedobrego w trakcie
tej audycji, no to mogę
sobie wziąć to nagranie z chmury i ono
zdecydowanie lepiej wtedy brzmi, wystarczy,
że je sobie odpowiednio obrobię.
No to będę korzystać,
może jeszcze w pracy nam tej chmury nie zabrali,
coś tam jest, jakiś
przestrzeń jest, chociaż OneDrive’a
już nam ograniczyli z 1TB
do 100GB, więc
ostatnio dostałem powiadomienie, że
zajmujesz 338%
przestrzeni, która jest
sobie przynależna. Co się nazywa
Wojtku, przodownictwo pracy?
No, bo ja bardzo dużo nagrywam
i…
No, bardzo dużo zużywam tej przestrzeni
no i nie wiem co z tym w ogóle zrobić,
chyba będę musiał kupić sobie jakiś dysk
po prostu i tam to wszystko…
Ale to już mniejsze o to.
To to jest to.
Zainspirowało mnie też
to, co dzisiaj słyszałem, do zapytania
się, czy wy wiecie
o tym, gdzie można kupić
mówiącą wagę, ale nie łazienkową,
tylko kuchenną, bo ja
niczego takiego nie znalazłem, a fajnie by było
mieć.
No to chyba jakieś Lidlowskie…
Były chyba też w Lidlu jakieś takie.
Tak mi się wydaje, że Lidl za jakiś czas je rzuca,
a jak nawet nie Lidl, to da się je
znaleźć na pewnie jakimś Allegro
w formie po prostu do odkupienia,
ale ty tylko kojarzysz opowieści.
No dobra,
no to może do Lidla się przejdę,
zobaczymy, co z tego wyjdzie.
Oczywiście jakieś specjalistyczne
sprzęty tego typu to też na pewno znajdziesz,
natomiast one będą miały
też specjalistyczną cenę.
Cenę, tak. No ja taką piękną
wagę łazienkową kupiłem w ubiegłym
roku za 69 złotych.
Mówi po angielsku, jest świetna.
Niestety oni na dłuższą metę tego nie
sprzedawali, to był jakiś tam jeden model,
który gdzieś z Niemiec wzięli czy skądś.
I się jeszcze pani dzwoniła do mnie
i się pytała, czy pan na pewno
chce, jak mówi po angielsku.
Jest rewelacyjna, o wiele lepsza niż
taka inna, którą kupiłem
i była tyflo i ciągle mówiła,
proszę się nie ruszać.
Kto wiedział, kto to
korzysta, to na pewno wie, o co mi chodzi.
Ja jakoś nie uważa, że się ciągle rusza.
Ale skoro jeszcze Pawle, ty jesteś
w przygłasie, to muszę powiedzieć, że bardzo
mnie zainteresowało, i to już ostatnia rzecz
obiecuję, ta firma Light Vision
i ta aplikacja
Vision Verse. I to
rzeczywiście chętnie bym to
przetestował, bo
problem nadjeżdżających autobusów my
próbowaliśmy podjąć
w tym projekcie zuzankowym.
I muszę powiedzieć, że to się
udało zrobić w tym
sensie, że to działało,
natomiast nie działało w stopniu
dla mnie na tyle satysfakcjonującym,
żebym uznał, że to jest warte
wypuszczenia,
bo można było
na pętli autobus
spokojnie rozpoznać. I to na pewno
miało sens. Nie rozpoznawało
numeru bocznego, tylko naprawdę tę tablicę
czy tam wyświetlacz elektroniczny.
Natomiast mnie
zależało na tym, żeby to się dało
rozpoznać wtedy, kiedy on nadjeżdża, a nie
wtedy, kiedy stoi.
No i na to rzeczywiście szukamy
tam dodatkowych inwestorów, bo
o ile aplikacja jest taka,
że się utrzymuje
i nie ma sprawy, no ale
potem trzeba zapłacić komuś, kto
będzie dalej rozwijał te
funkcjonalności, pomysłów mamy
no i teraz jesteśmy na
tym etapie. Ale sama funkcjonalność
jakby to działało.
Rzeczywiście on rozpoznawał tę tablicę,
bo mnie bardzo na tym zależy,
bo ja potrzebuję ten… Time for
Us jest świetny oczywiście, ale on działa
tylko w jakichś tam miastach.
Niestety ja bardzo często jeżdżę
do różnych krajów czy miejsc
i ja potrzebuję czegoś, co będzie uniwersalne
i mi podpowie,
jaki to jest ten numer.
Także może to…
To zobaczymy. Ja oczywiście jak będę
czegoś nowego się dowiadywał o tym projekcie,
to oczywiście przekażę, bo
no to ciężko, żeby
nie, ale miejmy nadzieję,
że coś usłyszymy jeszcze o nich.
Light vision to jest
jak światło
wzrok i vision verse to jest
jak wzrok
wiersz, tak?
Dokładnie.
Mogę ci sprawdzić
na liście wystawców
Sight City też dane kontaktowe,
bo pewnie coś wpisali,
więc
myślę, że się
gdzieś tam
rozwinę ten temat.
No jest duży potencjał,
także ja kibicuję.
Nieważne komu się to uda, ważne, żeby to było
dostępne i osiągalne i
takie, żeby
można było
jeśli kupować to w taki sposób,
żeby dużo ludzi było na to stać,
no bo to rzeczywiście jest potrzebne po prostu nam.
No tak, no więc
miejmy nadzieję, że oni to zrealizują.
Dobra.
To serdecznie wam dziękuję
i już nie zajmuję dalej
czasu antenowego. Dobranoc.
Dobranoc.
Dzięki za telefon, pozdrawiamy.
A teraz
przechodzimy do waszych komentarzy
w formie tekstowej,
bo tutaj też mamy
kilka wypowiedzi, które
myślę, że warto
również uwzględnić.
A wypowiedzi pochodzą od
Matiusa.
I tak.
Czy będzie podcast z gry Faktoria?
Nie wiem.
Na razie takich planów
nie słyszałem, więc
może będzie, ale to wszystko
zależy od chętnych autorów.
W jaki sposób nagrać iPhona?
Tak, aby słychać było voiceovera
i konkretną aplikację chcę,
aby ten dźwięk był czysty.
A udostępnianie ekranu po prostu?
Nagrywanie z
ekranu o ten sposób?
Tak chyba będzie najszybciej.
Powinno stać egzamin.
Następny
komentarz od Matiusa.
U mnie PCPR dwa lata temu
nie musiałem na sprzęt brailowski
iść do okulisty.
A widzisz, to tak jak mówię,
PCPR to obyczaj.
Co do płatności w YouTubie,
mobilnym to jestem wspierającym
kanału i na komputerze jest to
aktywne.
I tyle wypowiedzi
Matiusa. Więcej nie ma,
więc teraz możemy
przejść do kolejnych
informacji. Tym razem od Piotra
będzie o Google.
Będzie o Google. W zeszłym tygodniu
mówiliśmy o konferencji
Google I.O., która się
odbywała na tej konferencji. Było dużo AI.
Teraz coś tam AI też będzie,
ale nie tylko, także spokojnie.
No bo też następnego
dnia mieliśmy Dzień
Świadomości o Dostępności,
no i z tej okazji
wiele firm opublikowało
wiele informacji właśnie związanych
z tym tematem. Co ciekawe,
nie Microsoft w tym roku jakoś,
ale Google i Apple jak najbardziej.
Google to nawet
opublikowało dwa takie posty.
Jeden ogólny,
a drugi skupiający się na Chromebookach.
I jeszcze będzie trzecia informacja
właśnie z konferencji Google I.O.,
mianowicie o nowościach związanych
z dostępnością systemu Android.
Ale po kolei zacznijmy od
tego pierwszego postu
na blogu Google, w którym
było omówione osiem nowości
w, osiem aktualizacji
w dostępności różnych usługach
od tej firmy.
Zaczynając właśnie od
od dostępności
związanej z AI w Androidzie.
I tutaj Google pisze, że oprócz
tego, że TalkBack będzie w stanie lepiej
opisywać nam zdjęcia
dzięki modelowi Gemini, który będzie
na urządzeniu uruchamiany,
no to mamy kilka aktualizacji
do aplikacji Lookout,
która, to doczeka się
nowego trybu odnajdowania
obiektów na przykład.
I w tym trybie,
który już zaczyna się pojawiać
w wersji beta
będziemy mogli sobie wybrać jakąś
kategorię obiektów.
Są takie
rzeczy jak
jak krzesła
i stoły
czy łazienki.
I jak będziemy
obracać aparatem i zbliżać się do takich
obiektów, no to Lookout będzie nam
o takich rzeczach informował.
Tutaj doczytałem, że to są takie właśnie no rzeczy
jak jakieś wolne miejsca,
to są stoły,
różne przybory w łazience
i tak dalej. Będziemy mogli
sobie poprosić, żeby Lookout nam pomógł
takie rzeczy odnaleźć. No nie wiem, może
w hotelu, w jakimś miejscu nieznanym, takie coś
może nam się jak najbardziej przydać.
Poza tym
są cały czas zaktualizowane
tryby dopytywania się o zdjęcia,
bardziej szczegółowe opisy zdjęć,
które możemy
też w bezpośredniej aplikacji Lookout
robić zdjęcia, natomiast to całe
rzecz jest ograniczone do Anglosfery,
no bo te funkcje są dostępne
tylko w języku angielskim,
a funkcje dopytywania się
o zdjęcia są
jeszcze geograficznie ograniczone do Stanów Zjednoczonych,
Wielkiej Brytanii i Kanady niestety.
Oprócz tego
dla osób, które
mają problemy ruchowe
i jeszcze od razu
oraz problemy z mową,
pojawiła się nowa funkcja
Look to Speak, która pozwala
przez ruch oczyma
wybierać różne
zdania, różne frazy i
wypowiadać je na głos przez głośniki
urządzenia. Myślę, że tutaj
bardzo się to przydać
i
w najnowszej aktualizacji
został dodany tryb bez tekstu.
Dla osób, które z jakiegoś powodu
też nie mogą interpretować tekstu,
można skonfigurować różne emoji
i przypisać do nich różne frazy
i przynajmniej emocje pokazywać
w ten sposób, więc no fajnie, że tutaj
takie aktualizacje są
dodawane, tutaj jest napisane, że
te funkcje też zostały dodane
w rozmowie, przy wsparciu
odpowiednich społeczności.
Podobnie
pojawił się
kursor
na Androidzie,
które pozwalają nam właśnie
też przez ruchy oczyma,
ale też ruchy twarzą, różną
mimiką twarzy sterować kursorem na ekranie.
To było wcześniej dostępne
na komputerach, a teraz
pojawiło się też na Androidzie,
jest API dodatkowe, więc developerzy mogą
też to zintegrować ze swoimi aplikacjami,
ale też każdy może sobie to zainstalować jako
usługę dostępności, no więc
w weni dostępności możemy sobie
tą opcję
włączyć i wtedy będziemy mieli
do tego
użyć dostęp.
Następnie mamy
nowości w mapach i tutaj są rzeczy, które
jak najbardziej mogą nam się przydać.
Mianowicie
dla osób niewidomych właśnie,
osób niewidomych, nienowidzących,
szczegółowe instrukcje
głosowe dla nawigacji pieszej
zostały rozszerzone
po pierwsze
na iOS-a i na Androidzie, bo wcześniej to chyba
tylko na Androidzie było dostępne i jest
powiedziane, że to będzie od teraz dostępne
we wszystkich wspieranych językach.
Teraz ja
niestety nie mogłem tych opcji znaleźć,
przeszukałem wszystkie ustawienia dostępności,
a to szkoda,
bo generalnie o to tutaj chodzi,
że
to było coś, co chyba
4 lata temu było w ogóle ogłoszone,
gdzieś chyba tylko w Stanach i w Japonii chyba to było testowane,
że mapy Google będą nam
w stanie podawać takie bardziej szczegółowe
aplikacje, instrukcje podczas nawigacji
pieszej, takie jak my byśmy
znali z aplikacji
przystosowanych dla
osób niewidomych, natomiast niestety,
no mówię, ja tego nie znalazłem.
Druga rzecz to jest
czytanie, bo mamy w mapach
funkcję obiektywu, która
chyba wyświetla się obok pola wyszukiwania, natomiast
ja tego też nie mogę znaleźć na swoim telefonie
niestety i
to wyświetla mapę
jednocześnie z widokiem kamery
i osoby widzące mogą w ten sposób bardzo łatwo
odnaleźć sobie różne rzeczy, które
ich interesują, no i dla nas to też zostało
udostępnione w taki sposób, że kiedy my obracamy
ten telefonem wokół siebie, no to
po prostu nam, czy VoiceOver, czy TalkBack
czyta jakieś
punkty, które
mogą nas interesować, jakieś restauracje,
jakieś inne budynki, no po prostu
to nam ma być odczytywane, natomiast ja w ogóle
tego przycisku obiektywu nie
widzę, więc mam nadzieję, że za jakiś
czas, no pewnie to jest kwestia funkcji,
która jest stopniowo
dodawana do tej aplikacji dla wszystkich,
że to się pojawi u któregoś
z nas i będziemy w stanie Wam więcej powiedzieć,
bo jestem ciekawy jak to
nawigacja w mapach zwłaszcza
będzie się zachowywać w porównaniu
do aplikacji, do których
mamy dostęp.
Oprócz tego mamy
cały czas rozszerzone informacje o różnych
udogodnieniach w dostępie
do różnych miejsc,
no czyli takie informacje jak jeśli jakieś miejsce
ma wózki,
jest przyjazne wózkom inwalidzkim,
ma łazienki
dostosowane itd.
To było
wcześniej dostępne tylko w aplikacji
mobilnej, ale teraz też takie informacje będą
dla nas dostępne w
wersji webowej Map Google.
Będzie też można filtrować
recenzje, żeby
odnajdować informacje właśnie
związane z ułatwieniami
dostępu.
I dla osób, które mają problem między słuchem
będzie można łatwo
odnajdować miejsca, które mają wsparcie
dla
protokołu AuraCast.
To jest coś, co pozwala
dużym miejscom jakiejś teatry,
kina itd. wysyłać
bezpośrednio dźwięk do wspieranych
aparatów, więc myślę, że to jest coś, co
jak najbardziej się przyda.
Co mamy dalej?
Dla osób też niesłyszących
mamy uaktualnienia do funkcji
powiadomień o dźwiękach.
To jest coś, co jest też na iPhonie dostępne
no i na Androidzie też
to się pojawiło.
Mamy też poprawki w
rozmowaniu mowy dla osób,
które mają
problemy z mową. To jest coś, co
Apple też usprawnia w tym roku.
Dwa lata temu Google taki projekt uruchomiło
i cały czas ten projekt się rozwija.
Ekran wypowiadania różnych rzeczy,
bo tym też jest funkcja, która pozwala nam mówić
przez syntezę w telefonie
została usprawniona.
Jeśli chodzi o powiadomień dźwięków,
mamy teraz
kreator pierwszej konfiguracji
został poprawiony
i łatwiej można sobie
własne dźwięki do tego
dodawać.
No i oczywiście tutaj też na końcu mamy przypomnienie
o tym, że będzie jeszcze
pewnie więcej funkcji dodawane z czasem dzięki
funkcjom sztucznej inteligencji.
Także to był pierwszy post.
Następnie
nowości w Chrome OS. Tutaj akurat aż tyle
informacji nie ma, bo większość
po prostu
mówi o tym, co
już wcześniej było dostępne i tutaj też jest
opowiadane jak to kilka osób
z oddziału dostępności firmy Google
pojechało do Kenii, do jakiejś
szkoły dla osób niewidomych właśnie w
Kenii, gdzie parę, kilku
uczniów dostało nowe Chromebooki
i były prowadzone szkolenia z nauczycielami, żeby
pokazać jakie te urządzenia
oferują funkcje dostępności.
Ale poza tym też były aktualizacje
związane
z tymi
funkcjami, m.in.
jeśli mamy włączoną zarówno funkcję
loopy i czytamy
tekst syntezą funkcją zaznaczimów,
funkcja, która pozwala
komuś zaznaczyć jakieś akapity, żeby
zostały odczytane syntezą,
no to ta loopa będzie podążać za
syntezatorem, więc będzie nam automatycznie powiększany
tylko ten fragment tekstu, który
akurat jest
czytany przez
syntezator.
Można też
dostosować rozmiar
kursora myszki.
Teraz po prostu są jeszcze większe
rozmiary tego kursora dostępne.
Można też wyłączyć
miganie kursora, jeśli
nam to przeszkadza.
I tutaj mamy przypomnienie o tym,
że do dysku google webowego
zostały dodane skróty nowe
klawiszowe i nawigacja na listach
po pierwszych literach. O tym już wspominaliśmy
kilka tygodni.
No i też
na webowym dysku google
pojawił się
jeszcze
ulepszony
tryb ciemny.
Więc to jest Chrome OS, a na koniec
jeszcze mamy nowości
w Androidzie. Tutaj głównie
to, co
się zmieniło, to
nowości w
API dostępności. Chociaż
oprócz tego też, jeśli chodzi o same
nowości w dostępności,
to kilka rzeczy,
o kilku rzeczach już wspominałem, m.in.
zmiany
dotyczące
powiadomień
o dźwiękach. Jeśli
chodzi o obsługę aparatów słuchowych, to tak
samo jak iOS od jakiegoś czasu
ma wsparcie dla
aparatów słuchowych zoptymalizowanych pod
iOS, to Android też jakiś czas temu coś takiego
dostał. I teraz do centrum sterowania
możemy sobie dodać skrót, który pozwala nam
więcej rzeczy związanych z naszym
aparatem dostosować. Tam teraz będą
się wyświetlały jeszcze nowe informacje, jak
np. poziom baterii.
Więc to cały czas też jest
rozwijane.
Tryb transkrypcji,
który nam automatycznie wyświetla
napisy dowolnego dźwięku, który
albo słyszy nasz telefon mikrofonem lub
z dowolnych aplikacji. Też
tam wygląd się zmienił, można jego
rozmiar lepiej na ekranie dostosować.
A jeśli chodzi
o TalkBacka,
to tutaj wspominaliśmy, mamy
wsparcie dla
monitorów HID, na które
wiele osób czekało. Mamy rozpoznawanie
obrazów modelem
Gemini, więc te opisy powinny
być lepsze. Nowość, która nie była
wspomniana tutaj, jako nowość
dostępności, ale wydaje mi się coś, co
może się przydać na Android
19, to
coś, co można sobie dostosować
w ekranie ustawień i powiadomień.
Bo na
Androidzie aplikacje mogą grupować
swoje powiadomienia po tak zwanych
kanałach. I tak np.
aplikacja do, no nie wiem,
do Mastodona, np. do jakiejś innej sieci
społecznościowej, może mieć osobne kanały na
nowe powiadomienia, że ktoś
polubił nasz post, a inny kanał na
powiadomienia, że ktoś nas obserwuje
lub wysłał nam
prośbę do dodania do znajomych.
Bank może mieć osobny kanał
na to, jak np. mamy jakiś wpływ
na konto lub
nieudaną próbę logowania jakichś alerty bezpieczeństwa
itd. I takie kanały
mogą mieć osobne ustawienia dźwięków
oraz tego, czy w ogóle
jesteśmy o nich powiadomieni, czy te powiadomienia są
filtrowane. A w
Androidzie 15 oprócz zmiany dźwięków będzie
można też osobno zmienić
wibracje, więc będzie można sobie to, jak
nam telefon będzie wirował na różne typy
powiadomień ustawić i myślę, że to jest coś,
co
jak najbardziej
wielu osobom się
przyda.
Mamy też zmiany
w trybie wysokiego kontrastu, który
będzie teraz bardziej czytelny.
Ramki wokół tekstu i przycisków
rysował, więc po prostu ten
tryb wysokiego kontrastu powinien być
bardziej czytelny.
O zmianach w Google Lookout już
wspominałem.
Natomiast mamy też
zmiany
w API.
Po pierwsze,
jeśli mamy
w aplikacji zdefiniowane kontynery,
a TalkBack od jakiegoś czasu pozwala na
nawigację w kontynerach, to się
może przydać, bo często
możemy w jakimś kontynerze utknąć,
bo cały czas się nam coś przewija
i chcemy z niego wyjść. Mamy do tego
gesty, które można sobie przepisać lub
trybem nawigacji sobie przechodzić po
tych kontynerach. Od tego
momentu właśnie w najnowszym
Androidzie 15 będzie
można dać tym kontynerom
tytuły, więc kiedy TalkBack wejdzie do
takiej sekcji, nawet jeśli tam nie ma jakiegoś
nagłówka, to deweloper może
oznaczyć coś jako kontyner, np.
lista wiadomości. Tutaj wiemy,
że ta lista prawdopodobnie będzie się automatycznie
wtedy przewijać i
gdybyśmy chcieli przejść gdzieś indziej
bez eksploracji, to musimy użyć
nawigacji kontynerami.
Podobnie
dodano nowe API, które pozwala
deweloperom lepiej powiedzieć systemowi
ile elementów ma dana lista.
To się może przydać w sytuacji, kiedy
często na listach są dodawane inne
elementy, które nie są stricte elementami
klikalnymi, które możemy kliknąć,
tylko możemy mieć jakieś nagłówki, np.
które zielają różne sekcje na
liście ustawień, czy nawet
na liście wiadomości może być gdzieś
nagłówka, która nam mówi początek nieprzeczytanych
wiadomości, czy jakieś nagłówki dat,
które nie są stricte wiadomościami,
ale ci są na tej liście, ale
kiedy TalkBack nam podawał ile mamy tych elementów
na liście, albo podczas czytania,
albo podczas przewijania,
no to takie elementy były
brane pod uwagę, a teraz są API
odpowiednie, które pozwalają
deweloperom oznaczać takie elementy
jako deklaracyjne, których czytniki
ekranu, czy jakieś inne usługi, dostępności
po prostu nie
powinny
brać pod uwagę.
Poza tym mamy nowe API dla
systemu Compose, który
jest takim odpowiednikiem
SwiftUI na iOS to jest taki najnowszy system
do tworzenia interfejsów
graficznych na Androidzie, więc
generalnie to jest system, który
teraz Google rekomenduje. Tutaj
pojawiły się nowe API, które
łatwiej pozwalają deweloperom ustalić
w jakiej kolejności usługi,
dostępności mają poruszać się między
elementami, kiedy używamy gestów
przewijania, przesuwania w prawo, lewo,
co dzięki temu powinno być
łatwiejsze, tam można elementy teraz
dużo łatwiej grupować dzięki tym nowym
API. Poza tym
mamy informacje jak najlepiej
zoptymalizować aplikacje
do rozpoznawania
tymi nowymi modelami sztuczna inteligencji.
Wiadomo tutaj Google podkreśla, że najlepiej
takie rzeczy opisywać
samemu, natomiast jeśli mamy aplikację,
w której będzie pojawiała
się treść tworzona przez użytkowników,
gdzie nie możemy zawsze sami
dać tekstu alternatywnego,
to po prostu warto
oznakować takie miejsca, gdzie
będziemy mieli do czynienia z takimi
zdjęciami, no właśnie po prostu jako zdjęcia.
Typ kontrolki powinien być ustawiony
na zdjęcie i to wtedy spowoduje, że
TalkPak będzie wykorzystywał tą nową
sztuczną inteligencję, żeby
czytać nam takie szczegółowe opisy.
Jeśli tego nie zrobimy, no to po prostu to się
na ten moment nie stanie.
Oprócz tego była rozmowa
na temat
aplikacji, które mówią do nas coś
przez czytnik ekranu. Są też do tego takie
API, żeby podawać tekst
na czytniki ekranu i tutaj
Google mówi, że niestety to API
jest często źle wykorzystywane przez
deweloperów, przez co aplikacje albo
po prostu mówią za dużo i tutaj dostawali
informacje od użytkowników, że tak się czasami
działo, że były informacje powielane
niepotrzebnie, na przykład
nabudowała się jakaś nowa okno TalkPak,
mówił, że okno się zmieniło, ale jednocześnie
aplikacja nam też jeszcze coś powtarzała drugi raz.
Lub aplikacje były dostępne
tylko z TalkPakiem
w ten sposób, ale nie działały na przykład
z kontrolą przełączników czy rozpoznawaniem mowy.
I dlatego pojawiła się
nowa dokumentacja
właśnie jak najlepiej tak dostępność
tworzyć, gdzie to możliwe po prostu
wykorzystywać odpowiednie
API, żeby podawać na przykład kiedy
jakieś przyciski są zaznaczone lub niezaznaczone,
tytuły, okien, kiedy
ekran nam się zmienia, no takie podstawowe rzeczy.
Jeśli mamy jakieś
rzeczy w aplikacji, które powinny być
czytane automatycznie, żeby raczej je oznaczyć
jako Live Region,
czyli takie obszary tekstu,
które mają być przez czytniki ekranu przeczytane
automatycznie, jak widać one też
nie tylko na stronach internetowych
się pojawiają, więc
tutaj proszę, żeby zastanowić się trzy razy
zanim z tego API wykorzystają.
Skorzystamy. No i zastanawiałem się
czy co z tym API będzie,
jeśli będzie dalej nadużywane,
to czy nie zostanie po prostu
usunięte na rzecz
czegoś innego. No nie jestem
może tylko wynikiem Androida, tym bardziej nie jestem
deweloperem, więc nie wiem na ile to byłaby
zła wiadomość, no mamy
te Live Regiony.
Nie wiem czy tutaj nam to inne API
daje jakieś plusy, natomiast
miejmy nadzieję, że faktycznie deweloperzy zaczną
to wykorzystywać
w odpowiedni sposób.
No i na koniec dla deweloperów
narzędzia deweloperskie
w Android Studio na przykład będą
w stanie nam jeszcze lepiej wytykać
błędy w dostępności, zanim jeszcze
naszą aplikację skompilujemy właśnie
w tym systemie Compose, nie tylko kiedy
piszemy sobie interfejs, no to tam
zostały dodane nowe narzędzia, takie skanery
dostępności, które deweloperom będą
w stanie szybciej
ostrzec, że ich aplikacja
może mieć jakieś
błędy, przepraszam bardzo,
błędy w dostępności.
No i to wszystko jeśli chodzi o
to co ogłosiła firma Google.
To nie wszystko rzecz jasna jeżeli
chodzi o nasze informacje dla Was
i też nie wszystko jeżeli chodzi o
Wasze wypowiedzi.
Słuchacza mamy już poza anteną,
który czeka i za moment się doczeka.
Jednak zanim oddam mu głos
to jeszcze kilka głosów
od Was, od tych piszących.
Iwona napisała
do nas na Facebooku, czy tylko Fine Readera
można używać z tym programem
i co jeśli ktoś nie ma Fine Readera?
Jak się domyślam Iwono, to
pytasz o program ViewScan
i ten program
zapisuje pliki
obrazów, które są tymi skanami
do formatu graficznego.
Może też zapisywać
do PDFa, więc tak naprawdę
możesz używać dowolnego
programu OCR, nawet
jakiegoś darmowego, jeżeli
taki znajdziesz, nawet podejrzewam, że jakiegoś
online OCRa
mogłabyś użyć, żeby
rezultaty z tego
skanowania tym
programem wykorzystać
w praktyce, też ta wersja
najdroższa, kosztująca 400 zł
no tam jakiś silnik OCR
posiada, natomiast no tutaj
ani Michał tego nie przetestował
ja nie mam na czym, bo
nie mam skanera w ogóle, więc
ciężko tu mówić o jakiejś
rekomendacji z naszej
strony, żeby w ogóle tą wersją
najdroższą, no a 400 zł to już
jest jednak jakiś pieniądz, więc
ciężko mówić o
jakiejś naszej rekomendacji, żeby ją
kupić. Mamy jeszcze
jedną wypowiedź, tym razem na YouTubie
od użytkownika, który się podpisuje
jako BlindGamer40
Witam, chciałbym ostrzec was
przed aktualizacją BIOS
Lenovo, który może wywołać błąd
Security Boot, jeżeli
już zaktualizowaliście i błąd
się pojawia, to naciskamy
F2. Dziękujemy ci
bardzo za te informacje, za to
ostrzeżenie, a teraz odbieramy telefon
Witaj, dobry wieczór Bartku
No witajcie
serdecznie, tak szczerze powiedziawszy
myślałem, że nie będę musiał do was dzisiaj
dzwonić, ale
niestety to, co dzisiaj
zaobserwowałem, to poniekąd zmusiło
mnie do tego raz, żeby się z
wami podzielić, a dwa, żeby też
tutaj wywołać pewien apel
a mianowicie
w zeszłym tygodniu
podzieliłem się z wami informacjami
na temat aplikacji
Play24 i jej dostępności
a zasadniczo
dostępności w logowaniu
Mówiłem wtedy, że
klawiatura dla VoiceOver
nie jest widoczna
może powiedzieć
w normalnej postaci, czyli
VoiceOver nie czyta nam
poszczególnych cyfr, tylko
obszar trybu interakcji, obszar trybu
interakcji i
miałem bynajmniej jakąś
nadzieję, że przy najbliższej aktualizacji
ten błąd
zaniknie
Dzisiaj pojawiła się w App Store aktualizacja
aplikacji Play24
oczywiście ją zrobiłem i niestety
jakie było moje
negatywne zaskoczenie
kiedy to okno
logowania jeszcze bardziej się pogorszyło
Po pierwsze, że
ten obszar trybu interakcji
kiedy za każdym razem był czytany
na każdej cyfrze
nie zaniknął
To dwa, jeszcze nawet
klasycznym flikiem
lewo, prawo też nie można się przesuwać
po cyfrach i nawet bynajmniej na moim
iPhonie 13 standardowa
eksploracja również nie działa
Czyli tak po prostu nie da się w tym momencie
zalogować
Ale powiem wam taką ciekawostkę
bo tutaj moja mama jest osobą widzącą
jako, że na co dzień
korzystam z kurtyny, to kurtynę
zdezaktywowałem
i poprosiłem mamę, żeby
na mój
sposób próbowała
ten pin wpisać
i co się okazało
położyła palec na jednej cyfrze
i żeby ją wprowadzić
to musiała klepnąć w nią
jeszcze raz i prawdopodobnie w tym samym
miejscu, ale pojedynczo
nie dwukrotnie jak mamy to
robione standardowo
Bo właśnie taki cel ma ten
tryb bezpośredniej interakcji, co
powoduje, że ten obszar
na ekranie tak jakby jest dla
voiceovera
ignorowany, tak dosłownie można powiedzieć, że pierwsze
dotknięcie powoduje, że voiceover właśnie
tylko że wcześniej pił przy tym miejscu to nie miało
No bo
tak, no bo to jakiś
deweloper po prostu tą
klawiaturę tak oznaczył i cały czas
nie wiem jaki to miał cel
No tak naprawdę
jak dzwoniłem na infolinie playa
to powiedzieli, że oni nie mogą przyjąć
tego zgłoszenia, bo jakby to nie leży
w ich kwestii, jutro sam osobiście
wybieram się do salonu, bo
rzeczywiście dla użytkowników
użytkowników bynajmniej
iOSa jest to w tej chwili niedostępne
i stąd mój apel
póki trwa audycja
zarówno użytkownicy
iOSa jak i androida, ci którzy mają
aplikację play 24
bym prosił
o komentarze albo
wypowiedzi, czy u was w ogóle jest
możliwość zalogowania się do tej aplikacji
za pomocą jakiegokolwiek
czytnika ekranu
Ale to jest w ogóle absurdalne, że
oni nie mogą na infolinii przyjąć
takiego zgłoszenia, no a kto ma przyjąć
takie zgłoszenie?
No właśnie też nie jestem w stanie tego pojąć
że to nie jest ich wina niby
ale ja przepraszam panią bardzo, bo akurat
z panią rozmawiałem, no to przepraszam kto
odpowiada za tą aplikację tak naprawdę
No bardzo, bardzo
smutne te informacje są Bartku
więc w takim razie
ja w ogóle jeżeli
macie taki problem to też myślę
że i to zresztą
Bartku też podpowiem
tobie, że może warto
zacząć
informować o takich
problemach w mediach
społecznościowych oznaczając
jednocześnie profile
społecznościowe danych
firm, no w tym przypadku play
tak, że napisać jakiegoś
takiego posta informującego
o tym, że jest jakiś problem
oznaczyć właśnie konkretnie playa
Może nawet mógłbym wrzucić jakiś
post na tą ogólną grupę
naszą niewidomie i niedowidzący
ale pomyślałem, że
skoro dzisiaj jest audycja na żywo to
pomyślałem, że akurat dzisiaj do was
z tym uderzę. Oczywiście, że tak
i to jest dobry ruch, żeby gdzieś tam
zgromadzić też użytkowników
którzy również mogą mieć taki problem
natomiast
ja dlatego zachęcam, żeby też
gdzieś tam w społecznościówkach
oznaczać te
instytucje, które mają
których ten problem dotyczy
no bo to jest jakiś tam kolejny kanał
za pomocą którego można do nich
dotrzeć, jak zacznie się ich oznaczać
i zacznie się ich oznaczać w
postach takich krytycznych
to jest szansa, że ktoś tam się w końcu
ocknie i że halo
no trzeba by było coś zrobić albo
przynajmniej jakoś się do tego ustosunkować
a jak
i oczywiście
udostępniamy takie posty jako
publiczne, nie dla znajomych
nie dla jakiejś tam wąskiej
grupy, udostępniamy takie posty
publicznie i w takiej sytuacji
kiedy takich
postów będzie odpowiednia ilość
jak zaczniemy takie rzeczy
robić, no to jest szansa, że
będzie jakaś reakcja, bo w tym momencie jak
zadzwonimy na infolinię, jak mamy taką
informację zwrotną, że
to nie jest nasz problem
no to przepraszam bardzo, czyj to jest problem?
No właśnie i tutaj tylko Piotrze
taka drobna uwaga do tego, co
powiedziałeś, że temu ma właśnie służyć ten
tryb interakcji, tylko chociażby
jak właśnie przedostać się z jednej cyfry
do drugiej, kiedy nawet flik nie działa
sama eksploracja
również, że tak powiem jest wadliwa
no to tak naprawdę co my możemy zrobić?
No
może spróbować na pokrętle to wyłączyć
natomiast ja mam wrażenie, że to
może nie zmierać, bo po prostu to zostało
już
zaprogramowane
To jeżeli nie mamy domyślnie ustawionej
tej opcji na pokrętle to ona się wtedy
pojawi rozumiem tak? Jeżeli
taki tryb interakcji
wykryje w danej aplikacji
Tak powinno być, gdyby tam się
nie pojawiła to jeszcze możesz sprawdzić
w tym ekranie szybkich ustawień, to jest po czwórne
stuknięcie dwoma palcami
Okej
to wtedy coś powinno wyskoczyć?
No jednym z przełączników
tam będzie ten tryb interakcji
bezpośredni, natomiast no jeśli to jest
jeśli to jest po prostu widoczne
jako jeden duży element mówienia, nie gwarantuję, że
to coś da, przypuszczam, że to może
nic nie dać, więc no po prostu tak jak Michał mówi
To jest tak widoczne, że
to niektóre cyfry widzi
ale tam gdzie na przykład powinny
być 3, 6, 9
to na przykład trójkę zauważy
ale szóstki i dziewiątki już nie i mamy tylko
ten dźwięk, że jest puste pole
No nie, to
może spróbować to wyłączyć
rozjeździć się po ekranie jeszcze raz
eksploracją, natomiast no ewidentnie
tak jak Michał mówił, trzeba po prostu do nich
uderzyć
No to jest błąd w programowaniu
No w każdym razie
tutaj moja prośba
i apel tutaj do wszystkich słuchaczy
którzy aktualnie nas słuchają
jeżeli jeszcze w trakcie audycji
sprawdzicie u siebie, to
proszę chociaż dajcie znać, żeby
miał chociaż może jakąś
podstawkę na jutro jak będę jechał
do salonu
żeby powiedzmy
chociaż werbalnie najpierw to nagłośnić
bynajmniej w salonie sami się przekonają
że w naszym przypadku nie jest tak
łatwo bo przedstawię to samo co dzisiaj
z moją mamą robiłem. No nie chcecie martwić
Bartku natomiast ja mam
wrażenie, że salony mogą
mieć jeszcze mniejszą moc sprawczą
niż infolinia, oczywiście
nie zniechęcam do tego
żeby tam się udać
natomiast no tutaj po prostu
tu musi zadziałać i ta informacja musi dotrzeć
do kogoś, kto jest
bezpośrednio odpowiedzialny za tworzenie
tej aplikacji i za tego typu problemy
Okej, dobrze
no to tutaj bynajmniej wiemy na czym stoimy
i takie krótkie jeszcze pytanie
a propos Facebooka, konkretnie
aplikacji Facebook na iOS
taka
drobnostka może, ale
mimo tego może i zaskakująca
na przykład jeżeli
w plakietkach mamy, że
Facebook i dajmy na to, że
cztery nowe powiadomienia i kiedy
odpalamy aplikację
i wchodzimy w zakładkę
powiadomienia to na
tej zakładce nie ma oznaczonej liczby
powiadomień, ale rzeczywiście te powiadomienia
są jak w tą zakładkę wejdziemy. Spotkaliście się
z czymś takim ostatnio?
Ja nie pamiętam kiedy ostatnio odpalałem
aplikację Facebooka z
ekranu, bo ja ją mam
po prostu w app switcherze
nawet nie wiem na którym ekranie
ją mam, więc
ciężko mi tu się odnieść
do tego. Też
nic nie zaobserwowałem podejrzanego.
Bo dziwne, szczerze wam powiem
nawet mi nie wyświetliło waszej
audycji dzisiejszej w Facebooku
powiadomienia. Facebook jest akurat bardzo
wybiórczy względem tego co udostępnia
komu to jest niestety
odwieczny problem.
Okej, to tylko jeszcze może taka
drobna informacja tutaj
kiedy na was
oczekiwałem na linii to
słyszałem że chyba Iwona
napisała a propos
app’y Fine Reader’a jeżeli
chodzi o OCR to
taka bynajmniej moja opinia
bynajmniej jeżeli chodzi o korzystanie
z Fine Reader’a to polecam
ze względu też na to jak
zeskanujemy i rozpoznamy dany tekst
to również możemy go sobie
zapisać w innych
plikach tekstowych
chociażby DOX czy
TXT. Tak, no
Fine Reader ma dużo tych
opcji eksportu więc
No właśnie, bo tak szczerze powiedziawszy
nie znam innej aplikacji OCR
która by miała taką funkcję
nie wiem czy wy kojarzycie może
jakąś taką aplikację.
Dużo tych różnych aplikacji zapisuje
to chociażby w jakimś TXT’ku albo
czymś takim nawet chyba.
Pytanie wiecie
jaka aplikacja
daje tak naprawdę nam
sensowne rezultaty.
No jest ta aplikacja Octarin
nie wiem czy Dawid Pieper ją jeszcze rozwija
ale gdzieś była taka aplikacja
która też
pozwalała jak dobrze pamiętam
wczytywać pliki
z dysku i OCRować
natomiast
na ile i jakie ona by
miała rezultaty
kiedy byśmy na przykład chcieli skanować
rozpoznawać książkę
no to podejrzewam, że
jednak byłby to
gorszy wynik od tego co mamy
Okej dobrze
no to w tej chwili wydaje mi się, że
to będzie tyle, bo i tak jest długo
długo trwa ta audycja
i może przed północą
nie skończycie a wiadomo, że jutro
też jest dzień jak to się mówi
także dzięki serdeczne
a za tydzień postaram się wam chociażby
zreferować może już nie
telefonicznie albo
chociaż wiadomością głosową
co w sprawie tej aplikacji jutro
uda mi się osiągnąć
ale mimo tego jeszcze z góry też dziękuję
za te komentarze i uwagi
od wszystkich słuchaczy
Dzięki Bartku za telefon i powodzenia
również dziękuję, dzięki serdeczne
trzymajcie się, spokojnej nocy
do usłyszenia
Widzę, że kolejne
wiadomości przychodzą
do nas natomiast
teraz może
przejdźmy do
kolejnych tematów, które
tutaj do nas
przyszły z notatek
i które macie
teraz ty Pawle do Wielkiej Brytanii
się przenosimy
Zgadza się, bo tenże kraj
ma swoją pierwszą panią ambasador
która jest osobą niewidomą
i to jest ciekawa sprawa
wczoraj wysłyszałem o tym w wywiadzie
który z nią przeprowadził
Peter White
chyba się nazywa pan dziennikarz
prowadzący audycję InTouch
w Radiu BBC
i no
jest to osoba z dość ciekawą historią
bo to jest osoba, która już współpracowała
z Departamentem Spraw Zagranicznych
Wielkiej Brytanii
na różnego rodzaju misjach
była odpowiedzialna za jakieś tam kwestie
wsparcia Afganistanu, Ukrainy
gdzieś tam jakichś krajów afrykańskich
zdaje się, że
jakiegoś rodzaju dyplomatyczną misję
już pełniła w Bośni i Hercegowinie
więc to nie jest dla niej jakaś tam nowość
teraz to co się dzieje
a to co się dzieje to zostaje ona
ambasadorką Wielkiej Brytanii
w Słowenii
no i
przeprowadzono z nią wywiad, pytano ją właśnie
jak do tego gdzieś tam doszło
więc opowiadała swoją historię o tym, że
no jak zobaczyła po raz pierwszy
w telewizji gdzieś tam jakiś wywiad
z którymś z dyplomatów
brytyjskich i zapytała swojego ojca
co tacy ludzie robią, no to mniej więcej
taki dostała
wykład, że zrozumiała z tego, że no to jest dużo
podróżowania
i mówienia różnych rzeczy
i coś tam, więc tak nie do końca
zaposcenowała ją to na tyle, że chciała
to jakoś rozwinąć jako hobby, ale
nie do końca chyba też wiedziała z czym to się wiąże
no i gdzieś tam się zaczęła
rozwijać w tym kierunku
w kwestii studiów i tak dalej
no i mówi, że wbrew pozorom
te problemy, na które
ona napotykała przynajmniej
no to były
gdzieś nie w jakimś tam, nie wiem, powierzaniu
tajemnic państwowych, czy tam w jakimś
kodzie dyplomatycznym
coś tam, bo to tam jej ktoś zazwyczaj coś podpowie
pomoże, albo ma wyrozumiałość jak trzeba
nie wiem, uścisnąć rękę
jakiemuś ważnemu dyplomacie, albo przedstawicielowi
albo tam kogoś pozdrowić, albo tam
z kimś się przywitać, bo wypada
to gdzieś tam akurat w tym dostaje
na tyle pomocy, że sobie z tym radzi
natomiast właśnie
nawet tutaj w tych jakichś sferach takich
polityczno-dyplomatycznych
dużo jest takich podstawowych pytań typu
a to pani jest w stanie w ogóle pisać na komputerze
a to pani sobie poradzi w swoim własnym
mieszkaniu, jak panią wyślemy gdzieś tam
do innego kraju
a z tym sobie pani poradzi
a z tamtym sobie pani poradzi
no a pani psa przewodnika
mówi, że no
bywają w tych różnych nowych miejscach jakieś takie
rodzaje zdziwień, że osoba niewidoma
że oni nigdy takiego przypadku nie mieli
że oni nie wiedzą, czy wszystko jest dostosowane
no ale zasadniczo to się
jakoś później
dobrze kończy
no także myślę, że taka fajna historia
i życzymy powodzenia, miejmy nadzieję, że
pani swoje zadania dyplomatyczne
będzie w stanie spełniać
I oby więcej takich przykładów
w przyszłości można było przytaczać
Tymczasem ponownie Wojtka witamy na antenie
Dobry wieczór
A
chyba jednak
nie witamy, bo w międzyczasie chyba się
Wojtek rozłączył
Okej, no to w takim razie skoro
Wojtka nie mamy na linii
to posłuchajmy
wiadomości od Rafała
którą do nas już jakiś czas
temu wysłał
No to tak
Dobry wieczór
Rafał po drugiej stronie
To powiem tak
co odnoszę PCPR-u
znaczy tego aktywnego samorządu
i przepisów
to powiem tyle
że
bo chodzimy do kwestii
co tam pytał Sylwester
No tak
Przepisy przepisami
PCPR
PCPR-em
Dlaczego tak?
No bo tam na przykład jest
w przepisach
ogólnopolskich jest tam, że
na przykład
co pięć razy można się starać
i tak dalej
a ta pula pieniędzy
na przykład na ekspres barylowski
chodzi
chodzi
o specjalistyczny
na przykład czy
no zmienia się ta pula pieniędzy
tak?
że na przykład tam jest 24
i z tego tam jest na przykład
12 na barylowski
tak?
to się co jakiś czas tam
każdego roku się znaczy
i to jest
to jest jedna kwestia
no
a co do
zmienia a co do pięciu lat
i właśnie
czy na barylowski spręt
można się starać co rok
czy jak to jest
no
no to właśnie
tak powiedziałam zależnie od PCPR-u
bo jeden pozwoli
inny nie pozwoli
z tego co wiem jak dwa lata temu
się ten
starałem się o sprzęt
no to
i właśnie się pytałem ich co w sytuacji
kiedy się sprzęt
zepsuje w ciągu 25 lat
a myślę że tylko po dwóch latach
to powiedzieli mi
że ja mogę spokojnie się postarać
tylko że
w uzasadnieniu podpisać
dlaczego się staram
dziękuję za uwagę
do usłyszenia
ale nie wiem czy tak
inne PCPR-y
czy tak samo do tego
podchodzą
ja jestem z województwa dolnośląskiego
tutaj
no
się z PCPR-u
trenię góra
bo to będą ma znaczenie
ej
dzięki Rafale
no i ja bym raczej dodał
do tego co powiedziałeś tyle
że no to przepisy przepisami
to nie jest tak i wszystkie PCPR-y
muszą się trzymać
tych głównych wytycznych
poszczególne tego typu
instytucje mogą dodawać jakieś swoje
dokumenty natomiast te wszystkie ramy
czasowe i inne rzeczy tego typu
to ustala
PFRON jako instytucja finansująca
ten program
aktywny samorząd więc to nie jest tak
że jeden może sobie
opracować takie zasady
inny takie
muszą działać wszystkie
w ramach
narzuconych zasad przez PFRON
to też żebyśmy mieli tu
jakąś
jasność w tej sprawie
poza tym warto też pamiętać
o tym że
w momencie kiedy składamy taki wniosek
czy tam podczas
podpisywania umowy
to też jest informacja
że my nie zalegamy
z żadnymi pieniędzmi
na rzecz PFRON-u czy w określonym przedziale
czasowym nie
pobieraliśmy kwot
na dofinansowanie
bo i tutaj
za fałszywe
informacje
w tych kwestiach
odpowiadamy karnie
więc to też nie jest tak że możemy sobie
zadeklarować
że nie, nie braliśmy pieniędzy
w określonym czasie a tak naprawdę
braliśmy i może ktoś
tego nie zauważy jeżeli
ktoś by nawet tego nie zauważył
pieniądze byśmy dostali
ale w tym momencie
okazałoby się i później by to wyszło
no to my mamy problem
a nie instytucja
która nam te pieniądze dała
więc tutaj
ja jestem bardzo daleki od takich stwierdzeń
że przepisy przepisami a
życie życiem, nie, trzeba
się w obrębie tych przepisów poruszać
i trzeba no bardzo
zwracać uwagę na to co my
podpisujemy bo to wszystko co podpisujemy
nawet elektronicznie
i to myślę że warto sobie uzmysłowić
że to ma moc prawną
i to nas wiąże
więc trzeba czytać to co podpisujemy
i mieć świadomość tego co my podpisujemy
i na co się zgadzamy
bo później może być zdziwienie
ale ja nie wiedziałem, no nie no
nieznajomość prawa jak to się mówi
szkodzi i tu się w tych kwestiach
przed zawarciem
jakiejkolwiek umowy
no tak naprawdę trzeba zabezpieczyć
i ją po prostu chociaż przeczytać
ze zrozumieniem
i no
wiedzieć
do czego my tak naprawdę się zobowiązujemy
a jeżeli nam warunki nie odpowiadają
to po prostu takiej umowy
nie podpisywać
no i to tak tytułem
wyjaśnienia a teraz
przechodzimy do następnego
tematu Be My Eyes
pytanie do was, Pawle, Piotrze
czy wy już macie zainstalowane Be My Eyes
na Windowsie? Jeszcze nie ale się
naczytałem o tym już wiem czego brakuje
już wiem co nie do końca działa
już wiem co poniekąd też i działa
ja tak jak Paweł
a ja mam
no ale za chwileczkę sobie ściągnę w sumie
ja mam i ja mogę jakąś taką nawet krótką
demonstrację zrobić tej aplikacji
jest już na Windowsie
można sobie ją pobrać z Windows
Store
mamy możliwość korzystania z tej aplikacji
na Windowsie 10 i Windowsie
11, aplikacja jest bardzo
prosta
ma zaledwie kilka przycisków
żebyśmy mogli z niej skorzystać
to się oczywiście musimy do niej
zalogować i logujemy się
tak samo jak w przypadku Be My Eyes
na
pierwsza uwaga
niestety nie jest wspierane logowanie przez Apple
więc jeśli ktoś założył sobie konto właśnie w ten sposób
no to niestety musimy sobie nie wiem
drugie konto utworzyć albo po prostu poczekać
to prawda ja się logowałem przez Google
więc tu nie miałem problemu
chociaż w sumie nie wiem
nie pamiętam już tak naprawdę
bo w Be My Eyes
rejestrowałem się tak dawno że ja nie pamiętam
czy się nie logowałem przez Facebooka
przypadkiem
ale adres mailowy jest ten sam więc może dlatego
to najzwyczajniej w świecie
poszło
to że mamy Be My Eyes
na Windowsie to jest
bardzo fajna rzecz natomiast
mamy jak na razie przynajmniej
jak na razie te aplikacje
w wersji AI
nie mamy możliwości nawiązania
połączenia z
żywym wolontariuszem
nie mamy też tego katalogu usług
i pozostałych rzeczy które oferuje nam
wersja mobilna mamy tylko
sztuczną inteligencję
więc teraz sztuczna inteligencja
do nas przemówi
mam nadzieję zaraz
o mam już syntezę przekierowaną
na odpowiednią kartę
tak naprawdę
no pierwsza rzecz aplikacja
odzywa się do nas w języku angielskim
mamy w aplikacji dwie
zakładki aplikacja
Be My Eye
to jest pierwsza zakładka
w której tak naprawdę będziemy głównie operować
bo druga zakładka to
settings
i tu na chwilę obecną nie ma praktycznie nic
natomiast zakładka pierwsza
ma kilka przycisków
chociaż opisanych
dość dziwnie
no właśnie
informacja wewnętrznie sprzeczna
opisz ekran
niezdefiniowany skrót
ale skrót zdefiniowany
więc no i skrót
rzeczywiście działa
ta pierwsza opcja
to jeszcze od razu powiem
służy do opisywania naszego ekranu
jeżeli jesteśmy ciekawi co przedstawia ekran
naszego komputera no to możemy
sobie zrobić taki zrzut
i go opisać za pomocą
sztucznej inteligencji
tu mamy przycisk który posłuży
do zrobienia obrazu
kamerą naszego komputera
jeżeli mamy bo ja na przykład nie mam
bo korzystam z komputera stacjonarnego
więc tu w ogóle to by nie
zadziałało
jak dla mnie najbardziej użyteczna funkcja
opisz obraz który
wczytujesz po prostu z
eksplorera więc mogę sobie załadować
tu dowolny plik i za moment to
uczynię i opiszę go
za pomocą sztucznej inteligencji
to jest właśnie to
czego mi bardzo brakowało
na komputerze
bo no bardzo często
miałem taką potrzebę żeby coś tam sobie
rozpoznać sprawdzić co to jest właściwie
za grafika jakiś plik graficzny
czy aby na pewno to jest
to co ja chcę wysłać załączyć
do maila
no i tu rzeczywiście to się może
bardzo przydać
też bardzo fajna rzecz
i czasem to działa nawet
a czasem nie
już mówię dlaczego
to może nam się przydać do
w takich sytuacjach kiedy
mamy na przykład jakiś obrazek na stronie
internetowej i kiedy
chcielibyśmy go opisać za pomocą
tej sztucznej inteligencji
w takim przypadku sprowadzamy
nawigację
do kursora
w NVIDIA i próbujemy
użyć menu kontekstowego żeby pojawiła
nam się opcja kopiuj obrazek
i wtedy kiedy ten
obrazek zostanie skopiowany do schowka
to możemy użyć tego przycisku
ja testowałem
kilka razy mi się udało ale przy
niektórych obrazkach zwyczajnie nie mogłem
ich skopiować z jakiegoś powodu
mogłem za to informacje na ich temat
wyszukać w google czemu nie wiem
ale tak to po prostu działało
no i to jest
wszystko więc teraz
ja tu mam gdzieś jakiś obrazek
który sobie skopiuję
a właściwie jego ścieżkę skopiuję
za pomocą everythinga
i teraz otwieram sobie
to okienko
które mnie najbardziej interesuje
czyli opisz obrazek z eksploratora
Michale czy ty musisz to robić
z poziomu tej aplikacji BIMAS?
nie wiem ale słyszałem, że to są globalne
wiesz co ja
próbowałem i nie bardzo
mi to chciało działać, czekaj to sprawdzimy
przejdę sobie na przykład
tutaj i
a nie
zadziałało tym razem
wcześniej nie chciało mi działać, teraz działa
może być aplikacja na pasku?
może, może ale teraz rzeczywiście
zadziałało i widzisz
dobrze, że powiedziałeś bo
raz mi to nie zadziałało więc już bym
więcej tego nie sprawdzał
chociaż no to
też niedobrze
bo tu jest ctrl alt l
czyli konflikt z literką
l więc no
to tak niekoniecznie
fajnie, że to w ten sposób
jest rozwiązane
jestem ciekaw
i to będę musiał przetestować jak tam
l się zachowuje ale okej
na razie przetestujmy sztuczną inteligencję
opisującą obraz
o właśnie z jakiegoś powodu
chciałem wkleić
tę ścieżkę i teraz
ta ścieżka mi nie zadziałała
o tu mam na przykład
ten obrazek
chciałbym
wkleić tę ścieżkę, a dlaczego to
nie działa, a działało wcześniej
a spróbujmy po prostu zrobić opis
ekranu, spróbujmy zrobić
opis ekranu
żeby w ogóle cokolwiek nam
tu pokazało
i czekamy
co chwilę trwa
…
a właśnie
i tu dostałem informację odnośnie
tego co wyświetla się na ekranie
mojego komputera
strona internetowa to pewnie ta strona internetowa
z notatkami do naszej audycji
istotnie nie ma
tutaj jakiegoś
ostylowania no bo nam to nie jest
potrzebne więc rzeczywiście wyświetla się w takiej
bardzo surowej formie
w everything czyli wyszukiwarka
za pomocą której chciałem znaleźć
jakiś obrazek na dysku i go wkleić
ale z jakiegoś powodu tym razem
nie chciało to zadziałać w większości
przypadków działało i mogłem
skopiować i wkleić
ten po prostu
ścieżkę do tego obrazka
natomiast teraz
w takim razie
napisał mi to
be my eyes po angielsku
ja bym chciał żeby on napisał to po
polsku no bo w końcu
mogłem nie zrozumieć
tego co on tu do mnie mówi
więc poproszę go
napisz to po
po polsku
i zobaczymy czy się uda
wcześniej w większości przypadków
się udawało natomiast
nie zawsze
nie
nie
nie
nie
nie
nie
nie
nie
nie
nie
nie
nie
nie
nie
No i proszę i jest
i działa i mamy to
po prostu teraz
pod Windowsem mamy to dostępne
w systemie Windows
jeżeli tylko mamy
potrzebę skorzystania ze sztucznej
inteligencji no to jest to
dla nas osiągalne
również i z komputera
oczywiście wiadomo można było wcześniej jakieś obrazy
wrzucać do
Binga czy prosić o
interpretację ich czata
no ale to jednak nieco wydłużało ten cały
proces teraz mamy dedykowaną
do tego aplikację dzięki której
po prostu możemy wszystko robić
znacznie szybciej
ta aplikacja i ta jej wersja
kojarzy mi się z początkami
be my eye
na iOS kiedy też rzeczywiście
odpowiedzi generowane były w języku
angielskim nie w języku naszego systemu
więc podejrzewam że
z czasem będzie to
dostępne również i po
polsku bez takiego obchodzenia
tego bez proszenia
żeby wygenerował
odpowiedź w języku polskim
bo to się nie zawsze udaje wczoraj na przykład
kiedy raz go poprosiłem o to żeby
odezwał się do mnie po polsku to po polsku
mi napisał że tego nie może zrobić
taki paradoks
natomiast to teraz pytanie
do was o czym gdzieś tam wyczytaliście
z czym są problemy
no więc
przede wszystkim to sporo
osób ma pretensje że jednak nie ma tej funkcji
dzwonienia do wolontariuszy z komputera
że to mógłby być game changer
chociażby nie wiem
jakby to jeszcze połączyć z jakimś
udostępnianiem ekranu które by mogło wejść
no to mogłoby
naprawdę sporo namieszać
a tego nie ma
po drugie
jest jakiś problem z skopiowaniem wiadomości
aktualnie to jest pole listy a nie jakieś pole edycji
do odczytu czy coś
więc no nie można
tej wiadomości w jakiś prosty sposób bez
używania dodatków czy jakiegoś tam kopiowania
mowy czy czegoś innego skopiować
sobie tej odpowiedzi do schowka
no po trzecie miała być
funkcja jakaś opisywania zdjęć w portalach
społecznościowych jak to miało działać to nie wiem
czy to miało jakoś tam podglądać
sobie który mamy aktualnie element
no w fokusie
sfokusowany w przeglądarce czy jak
i aktualnie ten element
rozpoznawać ale no tego
nie ma coś było mówione
że miało w nim być więc
no tutaj dodatki są górą na ten moment
tak
i coś ciekawego co też można było
zauważyć i to u kilku osób
zresztą nawet w tym przypadku
ten prompt który jest wykorzystywany jest ciekawy
tam ewidentnie to EA jest proszone
o zwrócenie uwagę na jakieś
rzeczy które mogą być nietypowe
i tak na przykład wielu osobom
które robiły zdjęcia
eksploratora plików na przykład
gdzie jakieś daty się wyświetlało
mówiło że na przykład
to że wyświetlają się daty typu
13 maja 2024
może wskazywać na to
że zegara komputera jest źle ustawiona
i tam sugerowało żeby grzebać w ustawieniach
serwerów czasu i tak dalej
bo może być coś nie tak co może
powodować że strony się będą nie ładować
nadgorliwy zdecydowanie nadgorliwy
ja akurat takich rzeczy nie miałem
natomiast nie robiłem zdjęć
eksploratora
jako takiego i być może właśnie
dlatego tak się stało
no w każdym razie dobry jest to początek
fajnie że mamy taką podręczną
aplikację pozostaje mieć
po prostu nadzieję że będzie ona rozwijana
no i też że użytkownicy
Maca się doczekają takiej aplikacji
bo na razie
jak rozumiem na Macu nie ma
na razie nie ma
no może będzie ten oficjalny chart
GPT no jest V0 oczywiście
no ale tutaj musimy zapłacić za to więc
no więc tak
dokładnie dobrze zajrzyjmy do waszych
wiadomości bo wysyłacie
ich do nas dziś naprawdę sporo
Grzegorz nagrał wiadomość na
Whatsappie
Cześć wam
tutaj Grzegorz Turek
no to ja
byłem tym Wardenem
Darzeb Zaskiem ostatnio
co pisałem na kontach
24
ostatniej audycji
no bo tak
ten bohater mi się tak
doba w Hearstonie
ale dobra
no nieważne
jeśli chodzi o Play 24
to do Bartka
no na Androidzie to się loguje
za pomocą palca
bo sobie to włączyłem
za pomocą palca logowania
więc tam
pinu nie muszę wpisywać
jakbyś
miał taką możliwość to może
na IOSie, no szkoda że IOSa teraz nie mam
bym to
sprawdził
no to może
jakimś FICE ID albo
czymś takim może by się dało
no ale no faktycznie
tak nie powinno być
że apka
coś się psuje na jakimkolwiek systemie
więc no
trzeba to pozgłaszać bo to
no
apka jest
dobra ale no jak ona ma się tak
psuć na jakimkolwiek systemie
że na przykład będę telefon
zamieniał
na początku trzeba by tam
wpisać
choćby z SMSa
jakby się nie udało no to
to trochę nie fajnie by było
więc no to trzeba
no to zgłaszać
jak się da
No właśnie bo
co z tego, że jesteśmy w stanie
zalogować się już w późniejszym czasie
biometrią skoro
w tym pierwszym podejściu
no to niestety musimy się
najpierw odpowiednimi danymi
zalogować więc ten początek
jest dla nas problematyczny to
Grzegorzu też słusznie zauważyłeś
w twojej wiadomości
więc jest to istotnie problem
dobrze to posłuchajmy jeszcze
wiadomości od Wojtka, Wojtek dzwonił
ale zamiast telefonu chyba
postanowił nam się po prostu nagrać
Cześć
no przepraszam za ten głuchy telefon
tak to właśnie się dzieje jak się
dużo korzysta ze sprzętu
i niestety moje słuchawki
OpenMove mają taki
felem, że
jak się
z nich
korzysta to czasem
interpretują
trzy
wciśnięcia
jak cztery wciśnięcia
jakoś w ten sposób
czy jakoś tak dziwnie interpretują
w każdym razie wychodzi
kompletnie mi nigdy niepotrzebna funkcja
czyli oddzwoń
czy też zadzwoń jeszcze raz ponownie
na numer
no i to z tego właśnie wynika
także bardzo przepraszam
ale skoro
zostałem wywołany do głosu
to powiem tak
no kurcze
szkoda, że dopiero teraz się o tym dowiaduję
mieliśmy
świetny skaner
Optic Slim
bardzo dobry skaner, który działał
ale ponieważ tyle lat już
nie było do niego sterowników
to ja go po prostu wyrzuciłem
no a teraz okazuje się, że on mogłoby to działać
także wielka szkoda
ale dobrze, bo no z tymi skanerami
jest w ogóle bardzo duży problem
no bo rzeczywiście mamy
przecież te skanery, które gdzieś tam
lata temu działały i producenci
dawno o nich zapomnieli
a to szkoda wyrzucać, prawda?
bo to są wciąż dobre rzeczy
akurat ten Optic Slim miał to do siebie
że można było chodzić z nim
bez zasilacza
i po prostu skanować
no takich skanerów ja nie wiem
nie znała też
no chyba nie ma takiej potrzeby, bo są już te telefony
gdzie można sobie
zdjęcie zrobić
także wielka szkoda
ale no lepiej późno
niż wcale myślę, że zamysł jest dobry
jeszcze drugą rzeczą, na którą
chciałem zwrócić uwagę to
ciągle utrzymująca się
słaba dostępność aplikacji Santander’a
dzisiaj mi taki numer
zmalowała
że długo
ona coś ostatnio w ogóle zaczyna
przymulać jeszcze bardziej
ale zalogowałem się
autoryzowałem się biometrią
wszystko w porządku
natomiast po prostu
nic nie wyskakiwało
więc wiadomo lewo, prawo, lewo, prawo
zrobiłem
no i w pewnym momencie
klik
i wychodzi mi z aplikacji
zawiesiła się ta aplikacja
drugi raz to samo
znowu ta aplikacja
się wyłączyła
także no nie wiem
to już jest chyba półtora roku z tą aplikacją nową
i oni w dalszym ciągu
nie poprawiają
niestety wniosek z tego jest taki, że po prostu
chyba trzeba będzie w pewnym momencie
zabrać się z tej aplikacji
no i drugi bardzo smutny wniosek
to jest taki, że po prostu
no musimy mieć jednak
kilka kont bankowych
bo nigdy nie wiadomo kiedy to się
co dobre się skończy
no zobaczymy jak z tym
aktem o dostępności
i tymi nowymi dyrektywami
na ile to
przyniesie jakąś poprawę
ja się nie mogę doczekać
co oni zrobią z bankomatami
z terminalami
z różnymi takimi kwestiami
które w dalszym ciągu są niedostępne
albo są coraz mniej dostępne bo
coraz częściej widuję terminale dotykowe
no i co
i teraz to wszystko leci na śmietnik
i muszą dać jakąś alternatywę
która będzie dostępna
a bardzo dobrze, trzeba było o tym
myśleć zawczasu
pozdrawiam was serdecznie i już naprawdę
się żegnam, dobranoc
no tak, dostępność wdrażana
na końcu zawsze kosztuje
najdrożej, jeżeli pomyślimy
o niej na samym początku
no to możemy równolegle prowadzić ten proces
to oczywiście racja
Wojtku
przechodzimy do ostatniej
sekcji naszych
tyflo informacji, natomiast nie do
ostatniej informacji w ogóle
a informacji w tej sekcji będzie
sporo i będą one drobne
więc teraz Piotrze
głos dla ciebie
tak jest, tradycyjnie kilka drobnych newsów
na koniec zaczynamy od zooma
ale nie tego od konferencji
webowych a od rejestratorów
konkretnie tych udźwiękowionych
czyli znów tutaj będziemy mówić o
rejestratorach zoom essential
ostatnio wspominałem
o tym, że pojawiła się do nich
bardziej dostępna dokumentacja
były też aktualizacje oprogramowania
no a teraz ta
dokumentacja została
uzupełniona ponownie
o dostępne takie ściągawki
opisujące fizyczny wygląd
urządzeń, więc co jest na każdej
ściance, gdzie mamy przyciski
i nawet co te przyciski robią w poszczególnych
menu, mamy te
instrukcje do wszystkich
rejestratorów z udźwiękowieniem
czyli h1, h4 i h6
essential, są to pliki
w formacie word
pliki, które mają fajnie na główki listy
porobione, więc bardzo fajnie można
się w nich odnaleźć
pliki po angielsku akurat, ale myślę, że tutaj
nie powinno być problemu z przetłumaczeniem
tych plików, jeśli ktoś by potrzebował
przełożyć sobie je na
język polski, linki do wszystkich trzech
znajdziecie w komentarzu
zanim kiedy audycja ukaże się na żywo
jeśli chcecie dotrzeć do nich szybciej
to po prostu przez
stronę zooma
możecie je znaleźć
następnie
znów AI, będzie króciutko
mianowicie 11labs
11labs, który na pewno
wszyscy znacie, firma, która
głównie jest znana z robienia naprawdę
fenomenalnej syntezy mowy
opartej o sztuczną inteligencję
synteza, która może nie dla
wszystkich, ale myślę, że dla wielu osób
byłaby
fajna do czytania książek
ja bym chciał, żeby mi czasami taki
jeden z głosów 11labs jakąś
książkę przeczytał
i jak widać firma
podobnie myśli, bo wypuściła
aplikację typowo dla
użytkowników indywidualnych
nie dla developerów, która właśnie
służy do czytania książek
co ciekawe aplikacja jest
zupełnie darmowa
jest jeden minus na ten moment
ta aplikacja w tym momencie
jest dostępna tylko
w krajach anglojęzycznych
czyli jakieś Stany Zjednoczone, Kanada
Anglia
mogę powiedzieć, że ona jest dostępna
bo miałem okazję usłyszeć
jak ona wygląda
natomiast nawet jeśli byśmy sobie
skorzystali z VPNa
zmienili konto Apple ID
żeby sobie tą aplikację ściągnąć szybciej
można, nie mówię, natomiast
ona nie będzie nam czytała
nic w języku polskim
po prostu tam jest wykorzystywany jeden z tych modeli English
więc nawet jeśli załadujemy jakiś polski
tekst, próbowaliśmy tak zrobić nawet
to
po prostu nie zadziała, natomiast kiedy
aplikacja ukaże się u nas, no to myślę, że
jest na co czekać, bo możemy sobie ładować
zarówno pliki PDF
jak i EPUB
mam nawigację po rozdziałach
mamy kilkanaście głosów do wyboru
to są te głosy, które
możecie znać
po prostu ze strony Eleven Labs
mamy regulacje szybkości
no ona nie jest jakoś bardzo
szybka, bo maksymalnie możemy sobie ustawić
prędkość 75 razy
szybciej, znam osoby, które
pewnie są w stanie słuchać
szybciej, natomiast przez to, że to wszystko
odbywa się w chmurze, kiedy rozpoczynamy czytanie
no to też to trwa kilkanaście sekund
zanim nam aplikacja
zacznie czytać, no to pewnie
ta sztuczna inteligencja po prostu
nie byłaby w stanie na tyle szybko
buforować ten tekst, albo no były tutaj też
problemy z, nie wiem, z łączem internetowym
nie wiem ile tam jest tej książki
buforowane, natomiast jeśli nie przeszkadza
nam to, że
właśnie wysyłamy nasze dokumenty przez
internet i chcielibyśmy faktycznie
czytać sobie takimi bardzo naturalnie
brzmiącymi głosami
no to myślę, że jest na co czekać, kiedy
ta aplikacja się ukaże w lipcu, pytanie też na ile
zostanie całkowicie darmowa
tak jak teraz, bo na ten moment no nie ma
żadnego ograniczenia, po prostu logujemy się
kontem elevenlabs, no i to wszystko
możemy sobie ładować pliki i
i słuchać ile chcemy
następnie
mamy aktualizacje
aplikacji, które pozwalają nam
korzystać z Fairyverse’u
mianowicie zarówno
TW Blue i Mona for Mastodon się
zaktualizowały, no i Spring zresztą też jak
Patryk wspominał a propos aplikacji
od tego autora
natomiast zaczynamy od
TW Blue, które dawno jakoś
aktualizacji nie dostało, no ale
właśnie to się zmieniło
i
no tutaj mamy kilka zmian
i tak
na początek
mamy
wstępne wsparcie dla
instancji opartych o serwer GoToSocial
to jest taka alternatywa
do standardowego Mastodona
która dobrze działa
na takich słabszych komputerkach jak jakiś Raspberry Pi
jakby ktoś chciał sobie własny serwer
postawić na takim bardzo
energooszczędnym małym komputerku
no to jest dobre rozwiązanie
żeby sobie taki serwer
postawić, no i teraz TW Blue
pozwala nam się do takiego serwera zalogować
natomiast
na ten moment to wsparcie
nie obejmuje streamingowania
więc posty nam będą się po kilku minutach
pojawiać
odpowiadanie i wysyłanie
ankiet niespierane i wsparcie
dla Markdowna, ale to w przyszłości
może zostać dodane
przepraszam. Moduł tłumaczeń
też został przepisany od zera
wcześniej działał na podstawie tłumacza
Google, a teraz będzie
działał albo na podstawie
LibreTranslate, to jest też taki
darmowy, otwartościodłowy tłumacz
oparty o sztuczną inteligencję i tutaj
domyślnie będzie wykorzystywana
instancja uruchomiona przez
hiszpańską społeczność użytkowników MVDA
i to jest dostępne za darmo
więc TWB będzie domyślnie właśnie z tego
korzystał, ale też możemy
jeśli utworzymy sobie darmowy klucz API
korzystać z DPL
i to sobie w ustawieniach możemy skonfigurować
możemy sobie taki
klucz API wygenerować
na stronie DPL, za darmo możemy
przez to API tłumaczyć 500 tysięcy
znaków miesięcznie, więc myślę, że dla większości
to raczej w zupełności wystarczy
no a jak wiadomo DPL
daje naprawdę fajne
wyniki tego tłumaczenia, więc
jeśli dużo korzystacie właśnie
z tłumaczenia, tłumaczycie sobie posty z innych
języków, no to warto sobie to
skonfigurować, no a swoją
drugą też ma takie wsparcie, że
można sobie w ustawieniach klucz API
do DPL wpisać
jeśli TWB wykryje Windowsa
11 to teraz powinno automatycznie
przełączyć się na układ klawiatury
zoptymalizowany pod
Windowsa 11
poza tym
jeśli chodzi o Mastodona mamy
wsparcie na wyświetlanie osi czasu
społeczności, to znaczy
możemy sobie wyświetlić albo lokalną
albo globalną
oś czasu dla dowolnego serwera, więc
tak jak w Monie możemy sobie
dodać inne serwery, które
możemy obserwować sobie jako osobne
zakładki, no to teraz w TWBlue też możemy
sobie otworzyć bufor na przykład
no nie wiem, powiedzmy jesteśmy na instancji
Dragons Cave, ale chcielibyśmy sobie
poobserwować co ludzie piszą na
instancji TwizzCake’a czy jakichś polskich
instancjach, no czy
jakichś instancjach wokół
jakichś innych społeczności bez zakładania
tam konta, no to teraz w TWBlue
też możemy w
łatwy sposób to zrobić
no i też teraz na takie posty możemy odpowiadać
lajkować, zapisywać
sobie do zakładek i tak dalej
kiedy przeglądamy jakiś
post na ekranie wyświetlania
postu pojawi się
ten przycisk, który wyświetli
liczbę, ile razy
dany post został podbity i polubiony
jeśli nacisniemy na ten przycisk, no to wyświetli
nam się lista wszystkich użytkowników
którzy polubili i podbili
ten post, no i z tego miejsca możemy
wejść z tymi użytkownikami
w interakcję. Możemy też
poszczególne konwersacje
też z ekranu wyświetlenia postów
wyciszyć, jeśli jakąś konwersację
wyciszymy, no to ona po prostu nie będzie
nam generowała powiadomień
poprawiono
problem, że TWA
nie zawsze wyświetlało
okienko
dialogowe czynności na
użytkowniku
z bufora obserwowanych
lub obserwujących
no i to wszystko
jeśli chodzi o tą aktualizację, natomiast jak widać
to jest dosyć duża aktualizacja
zwłaszcza jeśli chodzi o
tłumaczenie
i o te
osi czasu innych instancji
a jeśli chodzi o mone, no to tutaj
pojawiła się wersja 6.3
i w tej wersji
zakładki
na czasie i społeczność zostały
połączone w jedną zakładkę, zakładkę eksploruj
i
w tej zakładce będziemy mogli
zobaczyć
posty i hashtagi
które są na topie w tym momencie
oraz sugestie osób, które
warto zaobserwować
jeśli nasz serwer to wspiera mnie, wszystkie serwery
mają to włączone, no i tak jak wcześniej mamy
dostęp do lokalnej
zdalnej i publicznej
osi czasu, zarówno naszego
serwera jak i innych serwerów, którzy
sobie dodaliśmy do aplikacji
została też dodana opcja
na ekranie
przeglądania profilu danego użytkownika
do wyciszenia całej instancji
danej osoby, jeśli chcemy jakąś
instancję całkowicie sobie wyciszyć
no to teraz możemy to w łatwy sposób
zrobić
możemy łatwo
usuwać, możemy usuwać osoby
z listy obserwujących
możemy też dodawać kilka osób jednocześnie
do list, więc jeśli tworzymy sobie listę
możemy teraz kilka osób naraz oznaczyć i sobie
ich dodawać, i tak samo możemy
przestać obserwować
kilka osób jednocześnie, też zaznaczając
kilka osób naraz i
naciskając odpowiedni przycisk
i na Macu znów
funkcje zastąpienia powinny działać prawidłowo
to są takie rzeczy jak takie inteligentne cudzysłowy
gdzie nam się lewe i prawe cudzysłowy
wyświetlają i tak dalej, to było
domyślnie wyłączone, ale teraz zostało
to włączone z powrotem, natomiast możemy
sobie w menu edycja zawsze to
tak jak w każdej innej aplikacji na Macu
po prostu przełączyć, jeśli nam to przeszkadza
kiedy ona jest uruchomiona
i wyświetlają nam się jakieś
powiadomienia, w których są błędy
no to jest teraz też w stanie
to naprawić i wyświetlić te
powiadomienia prawidłowo
ekran pisania postu powinien
lepiej z voice overem działać
i mamy poprawkę
błędu, że aplikacja czasami się
wysypywała, kiedy dodawaliśmy sobie
jakieś notatki do jakiegoś
użytkownika z ekranu udostępnienia
i
mamy też poprawkę
błędu, że aplikacja czasami
źle nam napisała jakieś
hasztagi, które sami dodaliśmy
kiedy używaliśmy
funkcji automatycznego tworzenia błędów
no i tutaj mamy jeszcze jakieś inne drobne
poprawki błędów
następnie
coś dla osób, które
muszą korzystać z aplikacji
Microsoft Teams, zwłaszcza tej nowej wersji
tutaj Brian Harger napisał
taki ciekawy post
w którym zwrócił uwagę na dwa nowe skróty
klawiszowe, które niedawno zostały
do tych Teamsów dodane i oczywiście
też przy okazji jak one się zachowują
z czytnikiem ekranu
JAWS
natomiast tak jak to
było od jakiegoś czasu
jeśli naciskamy enter na
jakiejś konwersacji, no to Focus
nam ląduje na polu edycji
do napisania wiadomości, co może
nam się przydać, ale czasami może
zwłaszcza jeśli mamy jakieś nieprzeczytane wiadomości
no to chcielibyśmy od razu
dostać się szybciej na listę wiadomości
no okazuje się, że można to
w bardzo łatwy sposób zrobić
zamiast naciskać enter
na tej konwersacji, naciskamy
spację i to spowoduje, że
Focus nam zostanie przeniesiony na listę
wiadomości i na dodatek jeszcze
powinien automatycznie zostać ustawiony
na pierwszej nieprzeczytanej
wiadomości w danej konwersacji
więc możemy zdecydować, jak wcześniej
enter nas przeniesie od razu na pole, żeby
napisać nową wiadomość, natomiast jeśli
bardziej nas interesuje przeczytanie wiadomości, które
już tam są, no to wystarczy
nacisnąć
spację
tak samo
na liście samych
drużyn Teamsów
też ten skrót powinien działać
i tutaj Ryan pisze, że
jeśli korzystamy z jego skryptów do Teamsów
no to czas będzie bardziej
zwięzły jeśli chodzi o komunikaty, bo jak zwykle bywa
Microsoft ma te komunikaty
dosyć długie często
i mamy skrót do takiej
pomocy
kontekstowej, która nam będzie podawała skróty
klawiszowe przydatne w danym miejscu w jakim
jesteśmy w Teamsach i możemy
do nich się dostać naciskając ctrl
kropka i tutaj
jeśli korzystamy z
skryptów
Ryana czy z innych czytników ekranu to po prostu
ta pomoc zostanie nam odczytana
wyświetli nam się jako okienko dialogowe
natomiast jeśli używamy oficjalnych skryptów
od
Vispero, które są domyślnie dostarczane z Jostem
to kiedy nacisniemy ten skrót to
Jost nam powie, żeby użyć skrótu
Jost i W, które podaje takie
bardziej ogólne informacje i tutaj Ryan mówi, że
w tej sytuacji możemy ten komunikat
zignorować, tymczasowo włączyć sobie
wirtualny kursor i wtedy też tą pomoc
możemy sobie przeczytać
i to są
właśnie te
dwa przydatne skróty
i na koniec jeszcze znów
GVT 4.0
ten nowy model, o którym wspominaliśmy
w zeszłym tygodniu, który jest
szybszy, tańszy, jest w stanie
lepiej opisywać nam zdjęcia
model, z którego zresztą też
chyba korzysta
aplikacja BeMyEye, to znaczy
zdania są podzielone, czy już korzysta czy nie
natomiast na pewno będzie za jakiś czas
natomiast oczywiście też mamy
wiele dodatków do czytników
ekranu, które z tych modeli korzysta
oczywiście Jost ma swój dodatek
ale też mamy dodatki do
NVDA, które mają
wsparcie do GVT 4.0
ostatnio wspominałem, że dodatek
OpenAI już to wsparcie dostał
to jest taki dodatek, który
daje nam dostęp do wszystkich funkcji, zarówno właśnie
rozpoznawanie zdjęć, jak i też rozmowę
bo możemy sobie z tym GVT z jego
poziomu rozmawiać, natomiast jeśli ktoś
chce po prostu sobie
opisywać zdjęcia i nic więcej, to jest
jeszcze jeden dodatek, który chyba powstał zresztą
wcześniej, mianowicie
AI Content Describer
który też zresztą działa z modelami lokalnymi
gdyby ktoś to wolał, natomiast on
również teraz został zaktualizowany
i w najnowszej wersji
też wspiera model
GVT 4.0, ta aktualizacja
jeszcze w sklepie z dodatkami się nie pojawiła
natomiast możemy sobie ją ręcznie
ściągnąć z GitHuba, podałem do niej
link, który znajdziecie w komentarzu
no i następnie możemy sobie wejść do ustawień
do sekcji modeli
tam musimy dla każdego modelu z osobna
nasz klucz API wpisać jeszcze raz
więc nawet mimo to, że już wpisaliśmy wcześniej
nasz klucz do GVT 4.0
no to musimy go dla 4.0
wpisać jeszcze raz i wtedy wybrać
ten model jako domyślny
no i wtedy to nam będzie działało
podobnie został
zaktualizowany
VOCR na Macu, czyli narzędzie
które też nam pozwala rozpoznawać teksty
i różne rzeczy wykonywać na Macu
ono niedawno
pojawiło się w wersji 2.0, która
doczekało się kilkunastu wersji beta, które
stopniowo te możliwości rozwijały
ono miało właśnie wsparcie dla GVT 4.0
i w najnowszej aktualizacji
doczekało się
wsparcie GVT 4.0 i w tym
przypadku nie musimy nic zrobić, po prostu
VOCR będzie teraz automatycznie wykorzystywał
4.0 zamiast zwykłej 4.0
co po prostu powinno przełożyć się na to, że
będzie działać szybciej
i będziemy mniej za te nasze
zapytania płacić
to ciekawe też, ta najnowsza wersja już oficjalnie
opuściła fazę beta
już jest po prostu wersja 2.0, a nie
beta, nie wiem, która to była, 18 albo
19, dlatego teraz mamy
pełną wersję VOCR 2.0
która oprócz tej funkcji też dostała
możliwość rozpoznawania tekstu
czy wykonywania właśnie
zapytań do GVT
z aparatu, skrótem
Command Control Shift C możemy poprosić, żeby
VOCR zrobił zdjęcie
z naszego domyślnego
aparatu na komputerze, więc możemy na przykład
w ten sposób sobie zobaczyć, czy jesteśmy
w kamerze widoczni, w kadrze
dobrze, zanim rozpoczniemy jakieś spotkanie
do tego typu
zastosowań, myślę, że ta funkcja
może jak najbardziej nam się
przydać. No i to wszystko, jeśli
chodzi o odrobne newsy.
Zaglądamy do waszych komentarzy, tu
Szarlotka chciałaby się dowiedzieć
czy aplikacja Be My Eyes
będzie też dostępna na
Maca. No tego to my nie wiemy
i już się nad tym
zastanawialiśmy, być może tak,
a być może po prostu sam czat
GPT wystarczy.
Ta aplikacja,
która no już
pewnie dla części użytkowników jest
dostępna, a dla wszystkich będzie dostępna
za czas jakiś.
To ciekawe, czy Be My Eyes
też się zdecyduje
na wdrożenie tej aplikacji.
Swoją drogą, no oni mają ułatwione zadanie,
bo przecież aplikacja jest na iOSa,
więc pewnie jakimś niewielkim
narzutem pracy dałoby się
przygotować aplikację
na Maca. Albo nawet
pewnie jakieś opcje wystarczyłoby
podczas
tworzenia tej aplikacji pozmieniać, żeby
ona była też po prostu możliwa
do instalacji z
Apple Store’a na Macu.
Natomiast no twórcy z jakiegoś powodu
tego nie zrobili.
Mati do nas pisze.
Witajcie. Pytanie
jako ciekawostka.
Kiedyś na Facebooku była opcja
znajomi w pobliżu. Czy ona nadal
jest i jak do niej dotrzeć
w aplikacji na
iPhone’ie? No z tego co wiem, to
już tej możliwości nie ma.
Dlatego, że
no kilku takich rzeczy nie ma
na Facebooku już, które
kiedyś były, a które
mogły w jakiś tam większy lub
mniejszy sposób naruszać prywatność.
Chociażby rozpoznawanie
naszych znajomych na zdjęciach.
Też tego już nie ma.
Nie ma
i też przypuszczam, że
właśnie dlatego nie ma również tej funkcji
nasi znajomi w pobliżu.
A ci znajomi to wcale nie byli
tacy w pobliżu, bo ja
pamiętam, że można sobie było
prześledzić listę naszych wszystkich
znajomych, którzy udostępniali swoją lokalizację.
Ja miałem po prostu
od sasa do lasa tę listę.
Oczywiście wiadomo, najbliżej to byli ci,
którzy mieszkają w tym samym mieście,
ale lokalizację
przybliżono ludzi ze Stanów Zjednoczonych,
których mam w znajomych też widziałem.
Więc
tak to wyglądało.
Mamy teraz jeszcze kilka
wiadomości zanim przejdziemy do
technikaliów.
To mamy jeszcze kilka wiadomości, na przykład mamy
wiadomość od Bartka, taką bardzo
króciutką, więc posłuchajmy.
Witajcie.
Z tej strony jeszcze raz Bartek.
Ja z krótką informacją.
Piotrze, tak jak mi zaleciłeś
wyłączyłem tryb interakcji
i niestety bez zmian.
No to szkoda, że tu się nic
nie udało z tym zrobić.
Jeszcze Rafał się wypowiedział
w jednej
swojej wiadomości
z jakiegoś powodu, tylko
niestety nie mogę tej wiadomości
odtworzyć, nie wiem dlaczego w sumie,
co tu się dzieje,
ale o, może teraz się uda,
proszę bardzo, posłuchajmy.
To jeszcze raz ja. No dobra.
Ja jeszcze tylko tyle dodam.
No dobrze, no musi, owszem się instytucja
trzymać przepisów, nie może
tak robić i tamtego.
Robić sobie
jak sobie żywno podoba.
Tylko
jak sami
zaobserwowaliście
po wcześniejszych
wypowiedziach, że
na przykład
jak chodzi o
np. doświadczenia
od kolisty, tak?
Że jest np. niewidomy,
tak?
To np.
tam, nie wiem, PCPR
X wymaga,
a PCPR np.
Y już
już niekoniecznie,
tak? Bo nawet po tych
już mówiąc, już nawet
na podstawie
tych wypowiedzi, które
od jednych chcieli, od
drugich nie chcieli i tak samo jest
jakby w innych kwestiach, że
gdzieś tam
są takie
dokumenty, tu takie, tu nie,
tu chcą, tu nie chcą i takie tam
różne pytania.
I o to mi chodzi,
że oni tak troszkę,
troszkę modyfikują.
Może to trochę się
źle wyraziłem.
Tak i tu Rafale pełna
zgoda, natomiast no właśnie
co do tego troszkę, to jest
kwestia właśnie tych dokumentów, natomiast
jako takich ogólnych zasad
aktywnego samorządu, no to sobie poszczególne
jednostki realizujące ten
program zmieniać nie mogą i to o to
mi też tutaj chodziło.
No dobrze, tyle
waszych wypowiedzi, jeżeli chodzi
o Whatsappa
i komentarze w wersji tekstowej,
to teraz przechodzimy do
technikaliów, tu mamy
dwie informacje, na dobry początek
wraca jak bumerang
stary dobry Winamp,
którego ja zresztą cały czas mam
na podorędziu i z niego korzystam,
ale Winamp chce cały czas odżyć,
jaką oni mają Pawle
tym razem koncepcję na siebie.
Pawle, czy
jesteś z nami?
Chyba nie mają koncepcji właśnie.
Chyba nie mają, chyba nie mają.
Chyba Paweł gdzieś tam zniknął.
W każdym razie, no właśnie, kwestia
jest z tego typu, ja też akurat o tym
czytałem, to mogę w sumie
powiedzieć, że Winamp
chce zaprosić do współpracy
zewnętrznych
programistów i
na skutek tego, dlatego,
że chcą
tę współpracę nawiązać,
chcą tworzyć swój kod.
Natomiast tam
były też takie pogłoski, że Winamp ma się stać
open source, czyli, że
tego Winampa będzie można
tak w zasadzie dowolnie
modyfikować i
będzie go rozwijała społeczność.
No to też z tego, co
czytałem, nie do końca będzie tak wyglądało.
Ten kod istotnie będzie
otwarty, będzie otwarty, no pytanie na
jakiej licencji, bo to też przynajmniej ja
do takich informacji nie dotarłem,
jak to konkretnie będzie
wyglądać, natomiast koniec
końców i tak ostateczne słowo
ma należeć do firmy,
która obecnie
trzyma pieczę
nad Winampem.
Co z tego będzie, sam jestem ciekaw
i czy w ogóle
i w jaki obecnie sposób
dla Winampa jest szansa
na tym rynku muzycznym, jeżeli
ktoś nie jest
użytkownikiem słuchającym
materiałów z plików audio,
a powiedzmy sobie szczerze, takich użytkowników
jest niewielu i
oni mają do swojej dyspozycji też inne
odtwarzacze, inne narzędzia,
takie jak chociażby Fubar,
jak VLC, no to
pytanie, czy dla Winampa
w dzisiejszych czasach jest jeszcze miejsce?
Oczywiście
jedna kwestia jest jeszcze taka
i to powiem jako ciekawostkę,
że po dziś dzień pewne komponenty
Winampa są
dosyć istotne, na przykład w branży
radiowej, dlatego, że
jako narzędzia DSP,
czyli te narzędzia procesorujące
sygnał, wykorzystywane są
wtyczki właśnie do Winampa,
które kiedyś
były obsługiwane tylko przez
to narzędzie, przez ten odtwarzacz,
natomiast
później, ze względu na
czy to prostotę, czy to
fakt, że tylko niektóre
wtyczki właśnie były tworzone
pod Winampa,
one zostały
gdzieś tam wdrożone do
oprogramowania takiego, czy
innego, jak chociażby Station Playlist,
czy Radiocaster,
Radioboss, które jest
używane przez
profesjonalne stacje radiowe,
na przykład nasza audycja w tym
momencie też jest procesowana
przez wtyczkę do
Winampa, ona jest
zapięta po prostu w oprogramowaniu
Radiocaster, którego używamy
nadając, więc my tak
naprawdę nie używając Winampa,
używamy jakichś elementów,
które do tej aplikacji kiedyś
były stworzone,
no bo taki właśnie stereotyp po dziś dzień,
kiedy chcemy go
pobrać, możemy pobrać aplikację
tak zwaną Standalone,
czyli aplikację, która będzie
taką
wolnostojącą
aplikacją, wolnostojącym programem,
w którym sobie będziemy mogli wszystko
skonfigurować, natomiast jeżeli mamy takie życzenie,
to możemy sobie pobrać po dziś dzień
rozwijaną wtyczkę Stereotool w wersji
DSP do Winampa
i możemy ją sobie w naszym Winampie
albo innym odtwarzaczu, albo
narzędziu, bo nie tylko musi być
to odtwarzacz, który wspiera wtyczki do
Winampa
użyć. Czy to, że
Winamp będzie chciał się jakoś tam
mocniej otworzyć na twórców
wpłynie jakoś na
rozwój tego typu komponentów,
być może nawet i w jakiś taki
profesjonalniejszy nieco sposób,
kto wie, to pokaże czas
i czy w ogóle ktokolwiek jeszcze
w dzisiejszych czasach tym Winampem
zainteresowany będzie.
A teraz ostatnia informacja
w dzisiejszym Tyflo przeglądzie
nowości od Microsoftu. Piotrze,
to co oni znowu wymyślili?
Tak, co wymyślili? Mieliśmy
dwie konferencje tak jakby,
bo w poniedziałek mieliśmy
wydarzenie Surface, które niestety
nie było transmitowane, tylko byli dziennikarze
zaproszeni, no ale na szczęście
pisali to, co mieli okazję zobaczyć,
no a we wtorek mieliśmy konferencję Microsoft Build,
która zresztą cały czas też trwa,
podobnie jak to było z konferencją Google.
Był taki główny
keynote, no a teraz
gdzieś pomniejsze sesje się
odbywają. No zacznijmy sobie może
od tego wydarzenia, które było
w poniedziałek,
czyli właśnie tego wydarzenia związanego z Surface,
bo tam wydaje mi się, były w sumie
chyba ciekawsze rzeczy ogłoszone,
no bo był ogłoszony
nowy sprzęt.
Jakiś czas temu,
to już będzie parę miesięcy chyba,
opowiadałem o tym, jak firma
Qualcomm, którą na pewno będą kojarzyć
osoby, które mają telefony,
zwłaszcza z Androidem, no bo oni produkują
procesory Snapdragon,
szykują nowy procesor
oparty o architekturę ARM
dla komputerów,
którego zadaniem ma być po prostu
dogonienie Apple’a i procesorów
w MacBookach. I te procesory
zaczęły się pojawiać, to są konkretnie
dwa procesory
Snapdragon X Plus i Snapdragon
Elite. Jeden chyba ma
rdzeni 10, drugi
12, może coś
na 100% nie
przypomnę sobie, no natomiast to są
dosyć mocne procesory,
które podobnie jak to
było w przypadku tego,
kiedy Apple przechodziło z architektury
Intel na właśnie ARM,
no to te procesory są w stanie
wyciągnąć dużo większą
wydajność, używając
mniej energii. Jak one wypadają
w porównaniu do MacBooków?
od MacBooka z procesorem
M3 są w wielu
testach szybsze. Jak bardzo to wszystko
wychodzi w praktyce, no to na to będziemy musieli
poczekać. Jaka ciekawostka, tutaj wiele
osób zauważyło, że po pierwsze do tych urządzeń
jest dostarczany dużo większy
zasilacz, a po drugie te wszystkie
komputery oparte o te procesory,
które się pojawiają na rynku, będą
też wyposażone w wentylatory,
kiedy MacBooki
Air przynajmniej, bo oczywiście te
MacBooki Pro z mocniejszymi
procesorami są
też wyposażone w chłodzenie, natomiast
MacBooki Air są chłodzone pasywnie, więc
są po prostu całkowicie ciche, no bo
wentylatorów nie mają.
Natomiast faktycznie te procesory
są w niektórych zadaniach nawet
o kilkanaście lub kilkadziesiąt procent
szybsze od MacBooków z procesorami
M3, przynajmniej tak to
wychodzi w testach, natomiast nie będziemy też musieli
czekać długo, żeby się
przekonać jak to jest w praktyce,
bo te sprzęty już zaczną pojawiać się
no w połowie czerwca
mniej więcej i wtedy na pewno wszystkie
portale zaczną pisać o nich recenzje,
już je zresztą można kupić
w przedsprzedaży.
To są
komputery zarówno od samego Microsoftu
oczywiście, no to jak mamy wydarzenie
Surface, no to mamy zarówno
urządzenie Surface Pro, czyli
to jest taki tablet z dołączoną
klawiaturą, którą możemy sobie podpiąć i zmienić
go w laptopa, jak i bardziej z tradycyjnego
Surface laptopa, dostępnego
zarówno w trzynasto i piętnastocalowej
konfiguracji. W porównaniu do
MacBooka, no to on ma
dwa porty USB C więcej,
ma też zwykły jeden port USB
A, czytnik kart pamięci,
oczywiście wejście słuchawkowe
oraz
ekran jest też ekranem dotykowym,
więc można też na nim różne gesty
wykonywać i
cenowo zaczyna się od
tysiąc dolarów, przepraszam, od
100 dolarów mniej niż MacBook i tam właśnie
cena początkowa jest od
999 dolarów.
Będziemy musieli zobaczyć jak te ceny będą się
kreować na rynku polskim,
natomiast też inne firmy
będą takie sprzęty wypuszczać i to
praktycznie wszystkie, właśnie oparte o
te nowe procesory, każda z nich gdzieś będzie
oczywiście dostosowywać je do
swoich designów, no i tak będziemy mieli
takie komputery od Della,
od Lenovo, od Asusa
oraz od HP,
chyba nikogo nie pominąłem, swoją
drogą HP też przy okazji
tego uprościło swoją linię komputerów,
tak mieliśmy jakieś komputery z serii
Envy, z serii Spector,
coś, Paviliony,
na pewno będziecie kojarzyć
te nazwy, a teraz będą tylko 3.
Omnibookie, czyli
takie komputery dla wszystkich,
Probookie, czyli takie komputery
z klasy biznesowej oraz
Elitebookie, to będą komputery
z najwyższej klasy,
one tam jeszcze są bardziej podzielone, tam
różne numery,
w modelach też decydują
w jakim przedziale mamy do czynienia, natomiast
już właśnie te nowe komputery
oparte o procesory, o jeszcze
Acer też będzie komputer oparty
o ten procesor ARM
na rynek wypuszczał.
Oprócz tego, że oczywiście te komputery
są oparte o ten procesor,
no to on też ma
w sobie oczywiście jednostkę odpowiedzialną
za sztuczną inteligencję.
Mają.
Ten procesor neuronowy jest
w stanie
wykonywać
prawie 50 trilionów operacji na sekundę.
To jest nawet więcej niż
chyba 30 z tego co pamiętam,
które znajdziemy w procesorze M4,
więc teoretycznie więcej.
W praktyce zobaczymy na co to
nam pozwoli
i jak to będzie wszystko wyglądało.
Natomiast te komputery
też są nazywane
jako Copilot Plus PC,
czyli tutaj informacja nam
sugeruje, że to jest
głównym naciskiem na tego komputera.
Oczywiście ta sztuczna inteligencja.
Przez to, że mamy ten dedykowany procesor,
niebawem w komputerach opartych
o procesory Intel, bo tutaj też takie
komputery cały czas oczywiście będą się pojawiać.
Też będziemy mieli komputery
z takimi koprocesorami do
sztucznej inteligencji.
Będą też pojawiać się funkcje.
Taką główną nowością będzie
funkcja, która nazywa się Recall.
I to jest funkcja, która
zaniepokoiła
wiele osób,
które chcą dbać o
swoją prywatność, bo co to ma
na zadanie zrobić?
To jest coś, co zawsze
obserwuje to, co robimy na
naszym komputerze i co kilka sekund robi sobie
jakieś zrzuty ekranu. Może też
wykorzystuje API dostępności, żeby
pozyskiwać tekst z ekranu.
Tego nie wiemy.
Natomiast w każdej chwili możemy sobie ten
Recall otworzyć i po prostu mamy
taką oś czasu, na której ładnie widać
co akurat robiliśmy
w komputerze. I możemy sobie automatycznie
przewinąć do tyłu
i na coś kliknąć, co spowoduje, że po prostu
nam komputer odpowiednie karty w przeglądarce
otworzy. Możemy też oczywiście
o różne rzeczy się pytać, więc możemy
w ten sposób zapytać się o jakieś zawartość
wiadomości, na które
odpowiadaliśmy.
Niebawem też ta funkcja
oczywiście ze wsparciem
od Copilota powinna być w stanie nam
też różne pliki zmieniać
i wysyłać wiadomości, e-mail
i tak dalej. Natomiast
to może być
gdzieś… To jest na razie
uruchomione w formie
testowej, jako preview.
Wiele osób zastanawia się, jak to będzie z prywatnością.
Microsoft wyjątkuje, że wszystko jest szyfrowane
i przetwarzane na urządzeniu,
dlatego to będzie dostępne tylko na tych właśnie najnowszych
komputerach, żeby to się dało
wszystko zrobić lokalnie. Natomiast to
mimo wszystko dużo
osób jest zaniepokojone.
W przeglądarce Edge to będzie
w stanie wyłączać się
tymczasowo na domena, które my wskażemy
oraz wtedy, kiedy otwieramy karty incognito.
Podobnie w przeglądarkach opartych o Chromium.
Ale jeśli ktoś korzysta
z Firefoxa, to się automatycznie
nie stanie. Nie widziałem
informacji, że będzie można
jakieś aplikacje wykluczać
sobie. No i jeśli
akurat to funkcja
zapisze nam jakieś dane typu
numery karty, numery kont, no to
one po prostu tam będą i nie da się
w żaden sposób ich usunąć.
Więc tutaj wiele osób zastanawia się
na ile to będzie dobrym
pomysłem generalnie. Zwłaszcza, że Microsoft
niedawno padło ofiarą kilku
wycieków danych. Więc
zobaczymy jak to się będzie wszystko
zmieniało. No to oczywiście to
może mieć
jakieś plusy.
Zobaczymy jak to też będzie dostępne dla nas.
Przy okazji też sam
Copilot będzie niebawem dostawał
funkcje oparte o model
GPT-4O, czyli nawiązujemy
do poprzedniej audycji, kiedy wspominaliśmy,
że ten model będzie w stanie
jednocześnie słuchać tego, co my do niego
mówimy, ale też widzieć co się dzieje.
Przetwarza zarówno obraz
i dźwięki tekst.
No i tutaj właśnie mieliśmy tą demonstrację,
o której wspominał Patryk.
No bo właśnie na przykład ten Copilot
Windowsie będzie nam mógł pomagać w grach.
I tutaj był właśnie taki przykład
Minecrafta, gdzie jakiś
pan zaczął sobie z tym
Copilotem rozmawiać, bo wiedział, że
jego syn gra w tego Minecrafta, on też by
chciał pograć, zobaczyć o co chodzi, ale
no totalnie nie wie, co
tutaj robi i chciałby stworzyć miecz.
No i ten Copilot mu zaczyna tłumaczyć, że
musi otworzyć inwentarz i wtedy, kiedy
on już to zrobił, no to był w stanie
zobaczyć, a już masz odpowiednie materiały,
żeby ten miecz skonstruować
i pomógł mu ten miecz zrobić.
Po czym był kolejny
klip, na którym sobie gdzieś ten pan chodził
i zaczęły go gonić jakieś
zombie i zapytał się tego Copilota, czy
one są groźne, czy nie, no i
na co Copilot dosyć
emocjonalnie zaczął krzyczeć, że to powinieneś
uciekać najszybciej od tych zombie.
Więc taki
towarzysz do grania,
ale oczywiście te funkcje też będą nam mogły
pomagać w wielu innych sytuacjach.
Na pewno w jakichś sytuacjach,
kiedy będziemy mieli do czynienia z aplikacjami
nierozrębnymi, jak najbardziej
widać zastosowanie do
tego
Copilota.
Oczywiście tutaj też jest wspominane
o tym, że aplikacje
na ARM, Windows na ARM
będzie w stanie uruchamiać aplikacje
skompilowane pod procesory Intel,
aplikacje i zresztą gry, no to
jeśli ktoś już korzysta z Maca
to wie o tym, że to nawet działa całkiem
w miarę sensownie, z wyjątkami na przykład
sterowniki, więc tutaj jakieś starsze skanery mogą
stwarzać problemy,
ale no większość aplikacji działa
i tutaj Microsoft obiecuje, że
ten emulator do uruchamiania aplikacji
x86 tak zwanych jeszcze
zostanie zaktualizowany, co powinno
jeszcze poprawić wydajność, no ale
drugą stroną jest to, że deweloperzy
będą swoje aplikacje przepisywać,
żeby działały
pod ARM, tak jak to
miało miejsce na macOSie
i tak na przykład już wiemy, że
Adobe nad tym pracuje, więc osoby,
które korzystają z Photoshopa
będą mogły cały czas
z niego korzystać, czy
Photoshopa, czy Premiere Pro, czyli
to jest edytor wideo
DJ Pro na przykład na Windowsa,
chociaż on jest dla nas niestety niedostępny,
no DaVinci Resolve, czyli kolejny
edytor wideo, więc tutaj takie
aplikacje, których wiele
profesjonalnych użytkowników używa już
są na ARM dostępne,
tak samo jak wszystkie przeglądarki też już mają
na zewnętrzne wersje, więc no pomału na Windowsie
też widzimy,
że aplikacje są
pod to
kompilowane.
Jeśli chodzi jeszcze o samego
Windowsa, no to
będziemy mieli oczywiście też Copilota,
jako część eksploratora plików, będziemy mogli go
prosić, żeby nam dokonywał jakiś
zmian w naszych plikach,
ale co ciekawe, jeśli chodzi o
samego eksploratora, no to
dla programistów też mamy
nowość, a mianowicie
eksplorator będzie w stanie
współpracować nam z
systemem Git.
Jeśli ktoś zna GitHuba,
no to właśnie
GitHub zaczęło się od tego, że to było właśnie
łatwe miejsce, gdzie deweloperzy
mogli takie tzw. repozytoria
wysyłać do sieci, żeby nad nimi
pracować. Takie repozytorium
pozwala nam np. cofać się w czasie, kiedy
dokonujemy jakichś zmian, wkładzieć
w głowę, ale to nie tylko, bo równie dobrze
możemy to wykorzystać do pracy nad jakimś
tekstem, np. piszemy jak dokonujemy
w tekście naszych zmian i
wysyłamy tzw. commit,
taką zmianę do serwera
Git, piszemy co w tej zmianie zrobiliśmy.
No i teraz
to było narzędzie, które działało stricte
na wierszu poleceń, a teraz
z poziomu eksploratora plików
będziemy mogli się
cofnąć w czasie, bo może
stwierdzimy, że ta najnowsza zmiana nam coś
popsuła, jednak chcielibyśmy cofnąć ten kod
czy nasz plik z jakiejś starszej
wersji, no to z poziomu eksploratora
będziemy teraz, jeśli ten plik
jest częścią jakiegoś repozytorium
na Git, będziemy mogli
to zrobić.
I jeszcze, jeśli chodzi
o samą
konferencję build, no to
tutaj podobnie jak
Google Gemini też mówiło,
że za jakiś czas
będziemy mogli do naszej organizacji
włączyć chatboty, które będą mogły być
częścią naszej drużyny, no to
Microsoft tutaj robi podobnie
z Copilotem.
Będzie dostępne
do tego studio dla firm, które
będą mogły sobie takiego
agenta tak zwanego stworzyć, który będzie
nam mógł pomagać
w
uzupełnianiu
jakichś danych, czy nawet
witania nowych pracowników i
wiele innych rzeczy.
Będzie wszystko dostępne w aplikacji właśnie Copilot
Studio, która
później w tym roku ma się pojawić
w wersji testowej.
Microsoft
też wypuścił kilka mniejszych modeli,
które chyba są darmowe z tego co rozumiem
i np. są dostępne na
Hugging Face, czy jako część pakietu Lama.
A to już się może nam
przydać, bo np. VOCR jest tanie z tego
korzystać. To są rzeczy, które będziemy mogli uruchomić
sobie na komputerze.
Mianowicie np. pojawił się nowy
model Phi 3
Vision i to jest model, który co ciekawe
no właśnie jego głównym
zadaniem jest rozpoznawanie obrazów.
Można wysyłać mu
zdjęcia i zadawać pytania dotyczące
tych zdjęć. Ciekawe jak on dobrze działa,
bo to może być całkiem sensowna alternatywa
no dla GPT
jakby ktoś chciał właśnie prywatnie sobie
na urządzeniu swoim
takie rzeczy dokonywać. Tutaj jest powiedziane,
że ten model jest na tyle mały,
że powinien bez problemu nawet zostać
uruchomiony na urządzeniach mobilnych.
Kolejna
nowość dotycząca Microsoft Edge
i tutaj w ogóle mi to ciekawa.
Potencjał na
przyszłość tego, bo
oto Microsoft Edge będzie w stanie
nam w czasie rzeczywistym
dubbingować filmy np. na YouTube
na start. Później to będzie też
dostępne na innych platformach.
Na początek to jest YouTube, LinkedIn,
Reuters i
Coursera, czyli tutaj jakieś
szkolenia online.
Na ten moment
to działa tylko w kilku językach,
tak jak może tłumaczyć z hiszpańskiego
na angielski lub
z angielskiego na
niemiecki, hindi,
włoski i co ciekawe
też rosyjski.
Więcej języków i więcej stron
ma być dodanych w przyszłości, ale ja też się
zastanawiam, zwłaszcza, że
gdzieś czytałem, że Azure też tutaj
Microsoft pracuje nad jakąś słuszną inteligencją
do audiodeskrypcji.
Czy za jakiś czas w Edge’u nie zobaczymy
właśnie funkcji, która nam w czasie rzeczywistym
będzie audiodeskrypcję do filmów dogrywać?
Bo
myślę, że to jest całkiem realne,
zwłaszcza biorąc pod uwagę, co pokazywało
OpenAI.
No tak, zwłaszcza jeżeli to zepną
z tym modelem, który będzie w stanie
obraz wideo rozpoznawać w czasie
rzeczywistym, to
może być ciekawie.
Zacznie się od tłumaczenia, to też zresztą
może nam się przydać, bo ile razy mieliśmy sytuację,
że w jakimś filmie były napisy, których nie możemy
przeczytać, no to kiedyś może
jeszcze jakaś audiodeskrypcja.
No mówię, wcale by mnie to
nie zdziwiło.
No i tutaj mamy
jeszcze właśnie te nowe komputery
oparte o procesor Snapdragon.
Nowe właśnie ARM.
Qualcomm zresztą też wypuścił swój taki
tak zwany Developer Kit, który
wygląda jak taki mały komputerek stacjonarny,
który też tam jest dostępny
chyba za około 900 dolarów
i ma 32 giga RAMu.
Taki komputer wielkości Maca Mini
jak tutaj dziennikarz portalu The Verge
napisał. Niestety
na razie nie można go oficjalnie kupić,
tam jest tylko jakiś formularz, na którym można zgłościć
zainteresowanie tym sprzętem.
O eksploratorze plików już
mówiłem i jeszcze tutaj coś dla
użytkowników aplikacji
Powertoys. To jest takie narzędzie, które nam dużo takich
pomniejszych funkcji dodaje do Windowsa
i między innymi
został dodany schowek oparty
o AI. Niestety tutaj
ten schowek musimy sobie skonfigurować ręcznie
to znaczy musimy sobie
wpisać klucz do
API OpenAI, czyli tak jak z dodatkami do
czynników ekranu czy to VOCRa.
Musimy sobie założyć konto,
załadować je kilkoma
dolarami kredytu i po prostu
sobie wygenerować i wpisać klucz API.
Natomiast kiedy to zrobimy
i skopujemy coś
do schowka, no to tym narzędziem
Powertoys po naciśnięciu
Windows Shift V możemy sobie
coś z tym schowkiem zrobić. Tutaj jest podany przykład
przekształcenia
kodu źródłowego z jednego języka
na inny język programowania
ale tam też jest pole do prądu
więc możemy też sobie po prostu do AI
poprosić żeby nam coś innego
z tym schowkiem zrobiło no i wtedy
automatycznie to o co poprosiliśmy
zostanie nam umieszczone
na schowku systemowym.
No i to była konferencja
Microsoft Build. Ona tam jeszcze
trwa, więc jest możliwe, że na przyszły
tydzień jeszcze jakieś informacje się pojawią.
Natomiast myślę, że
najciekawszą rzeczą
jak dla mnie są te nowe komputery
oparte o procesor ARM. Jeśli ktoś bardzo nie
lubi Maców, ale jednocześnie zazdrości
tego, że ich
kultura pracy jest naprawdę
nieporównywalna do tego
jak działają komputery oparte o
procesory Intel. Mówię to z doświadczenia
własnego. No to
fajnie, że może
tym razem pojawi się faktycznie sensowna
alternatywa tych osób, które właśnie
oparta o te procesory, które
faktycznie będą nam
dawały no duże lepsze
parametry, zwłaszcza jeśli chodzi na przykład o baterie,
bo te wszystkie nowe laptopy
o czym nie wspomniałem w sumie
będą miały ponad
od 17 do 20 godzin baterii na przykład
na przeglądanie internetu. To jest bardzo dużo.
Więc no zapowiadają
się bardzo ciekawe czasy, jeśli
chodzi o komputery
oparte o system Windows. Tak jak wcześniej
próby wypuszczenia
urządzeń opartych o Windowsa i
procesory ARM naprawdę się nie udawały,
bo po prostu te procesory były
za słabe.
No to wydaje mi się, że tym razem Microsoft
i Qualcomm mogą mieć faktycznie coś
naprawdę sensownego i możemy
być świadkami
jakiejś rewolucji. Inna kwestia, zobaczymy
jak to będzie z tym AI, jak to się przyjmie,
czy ta funkcja recall nie zostanie
zaraz usunięta, czy
faktycznie ludzie to polubią. No pożyjemy,
zobaczymy. Ja jestem natomiast ciekaw
jak w przypadku procesorów ARM
będzie z dostępnością.
Josa na ARM już jakiegoś
mamy. Pytanie jak on działa
i jak się sprawdza. A jak z
NVIDIA na ARM?
Wiesz co, z tego co ja widzę u siebie to jest
okej. Na początku nie działał
ten tryb podglądu
ekranu, ten wirtualny kursor
taki. Natomiast to już
zostało poprawione i generalnie
we wszystkim do czego ja go wykorzystuję,
czyli jakieś przeglądanie internetu,
bo to wszystko działa. Wiem, że w Office’ie
też działa, no i w aplikacjach zarówno
Intelowych, czy natywnych nie ma
problemu.
Pytanie jak będzie z tymi
natywnymi aplikacjami uruchamianymi
na ARM. Czy to
będzie jakoś tłumaczone
w locie, czy
będziemy ograniczeni tylko do tych
nowych rzeczy?
No nie, no bo zresztą
sam NVIDIA nie jest skompilowany
na ARM, to jest cały czas aplikacja pod
Intela i wszystkie sterowniki,
zatorów też zresztą. Natomiast
na Windowsie on
czyta wszystkie aplikacje, bo na przykład
sam Windows czy eksplorator plików
to jest wszystko kod natywny, ale też mamy dużo
aplikacji Intelowych i one też
są bez problemu czytane.
Jedynym problemem, który widzę
mogą być sterowniki, tutaj nie tylko jest
kwestia wirtualnej maszyny, zwłaszcza starsze
jakieś monitory planowskie mogą być problemem.
Bo
chyba jedyna firma, która wypuściła
sterowniki ARM to jest Vspero
i faktycznie po instalacji JOSA
ona automatycznie instaluje nowe sterowniki
do Focusa
i on wtedy działa. Pewnie też zadziałają
monitory oparte o HID,
wiadomo, bo one sterowników nie potrzebują.
Natomiast z innymi
może być faktycznie problem i to
może być istotna kwestia.
No tak i podejrzewam, że jednak te aplikacje,
które będą jakoś tam
tłumaczone z
tych poprzednich wersji
mogą działać ewentualnie nieco mniej
wydajnie niż to, co
będzie tworzone już natywnie na
architekturę ARM. No ale to jest coś
za coś. Ja osobiście
wolę, żeby działało to może trochę
mniej wydajnie, może trochę ewentualnie
konsumowało więcej baterii, ale
wolałbym mieć dostęp do jak
największej ilości różnych aplikacji,
także tych, które już
ileś tam lat mają, no bo
to tu jest generalnie problem
z tym, że
na Windowsa jest bardzo dużo różnych
aplikacji, no a one
jednak mają pewną historię
i są takie narzędzia,
których już na przykład od iluś lat
się nie tworzy, ale
cały czas chcemy z nich korzystać. Mam wrażenie, że
na Macu z tym problem był jednak
sporo, sporo mniejszy, a przecież
przez ostatnich naście lat, no to
Apple miało dwie przesiadki,
jeżeli chodzi o architekturę procesora.
I tam jakoś to poszło.
Tak, no deweloperzy są do tego przyzwyczajeni,
mieliśmy Rosetta, ale też Apple
było w stanie, no i zresztą
na Rosetta też tam, no
traciliśmy jakieś około 20% wydajności,
nie wiem jak wydajny jest ten emulator
Windowsowy, natomiast też Apple
było w stanie spowodować, że
większość deweloperów bardzo szybko swoje
aplikacje przeportowało, tak jak ja
na przykład, nie wiem,
ze swojej perspektywy
użytkownika, który korzysta z wielu wtyczek audio,
no to pamiętam, że jak
gdzieś dostawałem
swojego Maca na początku,
no to większość wtyczek jakoś działała właśnie pod
Rosettą, ale teraz, no, większość tych
najbardziej popularnych i nawet tych mniej popularnych
już zostało przeportowane.
Pytanie, jak to będzie z Windowsem, czy to się tak
samo szybko przyjmie?
To prawda, no ale najbliższy czas
pewnie nam na to
odpowie. Zanim będziemy
się z wami żegnać, to jeszcze
jedna informacja i to taka,
którą otrzymałem w trakcie
naszej dzisiejszej audycji
od naszego słuchacza Roberta. Pozdrawiamy
Cię Robercie serdecznie.
Robert
nawiązał do tego, o czym już kiedyś mówiliśmy,
mianowicie o tym, że
Amazon w Polsce ma
zamierdać pracę osobom niewidomym.
Zastanawialiśmy się, jak to
będzie wszystko wyglądało, gdzie
i jaka to będzie
praca, no i już coś więcej
wiadomo, Robert podesłał link
do artykułu
na portalu Spiders Web,
z którego
to artykułu można się
kilku rzeczy dowiedzieć.
I najważniejsza rzecz to jest taka,
że pięć osób, jak to napisano
z niepełnosprawnością wzroku,
już pracuje w Amazonie.
I teraz
pytanie, czy tam są na przykład
zatrudnione osoby całkowicie niewidome.
No tego nie wiemy.
Wiemy, że tutaj
jest ta oferta kierowana dla osób niewidomych
i niedowidzących. Gdyby ktoś był
ciekaw, w czym te
osoby się gdzieś tam
zawodowo realizują, no to też jest taka
informacja. Otóż
obecnie program Homer, czyli to jest ten
program pilotażowy, w ramach
którego zatrudniane są osoby z niepełnosprawnością
wzroku, zapewnia
osobom niewidomym i słabowidzącym
pracę w procesie
pakowania, przyjmowania towaru
oraz manualnego
sortowania paczek.
Tu jeszcze jest taka notacja, że sprawdzamy
także możliwości rozszerzenia
zatrudnienia uczestników programu
w innych centrach logistycznych.
Tak wypowiada się
pani Dominika Bong Majka,
senior operation
manager w Amazonie.
50 osób
docelowo ma
znaleźć pracę w
polskich centrach logistycznych w ramach
programu Homer, więc na razie 5 osób
na Dolnym Śląsku, w centrum
wrocławskim, no i zobaczymy
co przyniesie przyszłość,
gdzie kolejne osoby
niewidome znajdą swoje
miejsce pracy.
No i ciekawe, czy też
pójdą dalej ludzie z Amazonu
i będą chcieli
gdzieś też w innych
miejscach niewidomych,
bądź też słabowidzących obsadzać.
W każdym razie dobrze,
że coś się tutaj dzieje
i że rzeczywiście
jakieś możliwości zatrudnienia
się pojawiły.
I to jest ode mnie
informacja, jeszcze
mamy tutaj tak rzutem na taśmę
komentarz od
naszego słuchacza Łukasza
na Whatsappie.
Gorące
pozdrowienia z targów
przemysłu tworzyw sztucznych
Plastpol w Kielcach.
Te pozdrowienia już
przyszły jakiś czas temu, ja dopiero
teraz je zauważyłem, ale bardzo
za nie dziękujemy i Ciebie
również Łukaszu pozdrawiamy, liczymy na
relacje, co tam ciekawego znowu
udało Ci się obejrzeć, bo te
wiadomości i te Twoje
wypowiedzi to są
przyznam bardzo, bardzo ciekawe.
Więc ja czekam
na jakieś opowieści, jakie tam
nowe tworzywa sztuczne, a może jakieś
sprzęty udało Ci się obejrzeć.
Daj koniecznie znać, co tam w Kielcach
się ciekawego dzieje.
No i cóż, ode mnie to tyle,
więcej niczego już
nie widzę, jeszcze tak na koniec,
na szybko sobie przejrzę,
czy do nas o czymś piszecie,
ale nie, komentarzy
więcej nie ma, więc moje pytanie,
czy jeszcze Wy coś macie, nie wiem, czy Paweł
nam się pojawił na Łączu,
ale czy Ty Piotrze, do Ciebie może coś
dotarło? Ja się pojawiłem, tak.
A Ty się pojawiłeś, a jeszcze chciałbyś
dodać coś a propos tego Winampa?
Nie, bo tak naprawdę niewiele
wiadomo, oprócz tego, że coś jest
na rzeczy, i tak nie do końca
wiadomo na razie jeszcze, jak to będzie wyglądać.
Ja jeszcze tylko dodam, że można się
zapisać na taką listę
oczekujących, jeżeli jesteście
zainteresowani rozwijaniem
tego Winampa, pomaganiem
twórcom, no to można się zapisać.
Widziałem taki formularz, po prostu imię, nazwisko,
adres e-mail i czekajcie,
aż się do Was odezwą.
I co, jeszcze jakieś informacje?
Czy kończymy?
No to kończymy, i tak dziś
wczoraj zaczęliśmy,
dziś kończymy, bo to już czwartek,
pięć minut po północy,
zatem 233
wydanie Tyflo Przeglądu przechodzi
już do historii.
Paweł Masarczyk, Piotr Machacz i mówiący
te słowa Michał Dziwisz, dziękujemy za uwagę
i do usłyszenia.
Za tydzień, dobrej nocy.
Podcast dla niewidomych i słabowidzących.
Program współfinansowany
ze środków Państwowego Funduszu
Rehabilitacji Osób Niepełnosprawnych.