TyfloPrzegląd Odcinek nr 203 (wersja tekstowa)

Pobierz napisy w formacie SRT
Pobierz napisy w formacie VTT
FUNDACJA INSTYTUT ROZWOJU REGIONALNEGO PREZENTUJE
TYFLO PODCAST
Środa, czwarty dzień października w kalendarzu.
Godzina dwudziesta, no już prawie siedem na zegarze,
a zatem rozpoczynamy dwieście trzecie wydanie Tyflo Przeglądu.
Dziś w takim, no nieco uszczuplonym składzie,
ale składzie jak najbardziej gotowym,
żeby wam przekazać różne ciekawe informacje.
Paweł Masarczyk, Piotr Machacz i mówiący te słowa Michał Dziwisz.
Witamy was bardzo serdecznie i zapraszamy,
żebyście tu z nami posiedzieli.
Nie wiem, jak długo, informacji trochę jest,
a może jeszcze coś od siebie dorzucicie,
no to może to nam trochę czasu zająć.
Także zróbcie sobie jakieś kawki, herbatki, czego tam chcecie,
jakieś może kanapki nawet warto było sobie przygotować,
a teraz startujemy.
Na dobry początek kilka słów o tym,
o czym my właściwie dziś będziemy do was mówić.
W tym tygodniu w Tyflo Przeglądzie.
Gimbal, który zawsze uchwyci twoją twarz w kadrze.
TD Accessibility Adapter,
wtyczka pomagająca ustawiać preferencje dostępności w przeglądarce.
Chińskie, kieszonkowe konsole do emulatorów przemówią.
Warsztaty stworzenia dokumentów w Latechu od Fundacji Prowadnica.
BIMajaj dostępne dla wszystkich użytkowników iOS.
Proton Captcha, bezpieczne i dostępne zabezpieczenie antyspamowe.
Oficjalna aplikacja Reddita na iOS bardziej dostępna.
VoiceOver lepiej czyta powiadomienia w pierwszej becie iOS-a 17.1.
Custom Browse Mode, nowy dodatek do NVIDIA.
Mouse Wheel Scrolling, kolejny dodatek do NVIDIA,
tym razem symulujący przewijanie myszką.
Kolejny dodatek dla NVIDIA, tym razem tłumacz.
Niewidomi usłyszą zaćmienie słońca.
Elementary OS, dystrybucja Linuxa dla fanów prywatności bardziej dostępna.
Podoba ci się NVIDIA? A może masz uwagi? Wypełnij ankietę.
Data Navigator, narzędzie udostępniające wizualizację danych niewidomym.
Microsoft udostępnił dużą aktualizację Windowsa 11.
Nadchodzi automatyczne tłumaczenie podcastów w Spotify.
Raspberry Pi 5, ujawnione.
Oprócz widoku w HTML w Gmailu, Google zamknie jeszcze jedną swoją usługę.
Tym razem będą to podcasty.
Spotify ułatwi wspólne słuchanie muzyki dzięki nowej funkcji Jams.
Meta też ma swoje chatboty.
Chat GPT od teraz widzi, słyszy i mówi na głos.
Alexa będzie bardziej inteligentna.
Nowości od Google.
Czwarty odcinek EBU in Action właśnie się ukazał.
Wszystko to, a pewnie jeszcze więcej już za chwilę. Zaczynamy!
W Tyflo Przeglądzie jesteśmy zawsze otwarci na Państwa pytania, uwagi oraz newsy.
Zapraszamy na stronę kontakt.tyflopodcast.net, gdzie można uzyskać szczegóły na temat połączenia na Zoomie oraz napisać do nas wiadomość.
Można to zrobić także z poziomu transmisji na Facebooku, YouTubie oraz aplikacji na iPhona od Arkadiusza Świętnickiego i na Windowsa od Dawida Piapera.
Czuwamy także na tyflopodcastowym serwerze Discorda. Zapraszamy więc do kontaktu.
No, tyle tytułem wstępu, a teraz myślę, że już możemy rozpoczynać to nasze dzisiejsze spotkanie.
A startujemy tak trochę uzupełniając to, o czym mówiliśmy poprzednio.
Bo ja mówiłem o tym, że selfie stick to jest narzędzie, które może się przydać nie tylko modelom z Instagrama, ale też i niewidomym.
Zresztą tam nawet taka dosyć fajna dyskusja się wywiązała w komentarzach pod poprzednią audycją.
Była mowa m.in. o tym, że jako wyzwalacz możemy wykorzystać Apple Watcha, jeżeli go mamy.
Wyzwalacz do naszego aparatu, jeżeli np. nie mamy takiego selfie sticka z pilotem sterowania bezprzewodowego za pomocą Bluetootha.
Same te piloty też można sobie kupić, to o tym wspominał Michał.
Dziękujemy bardzo za te różne sugestie, informacje.
Zatem zajrzyjcie sobie do komentarzy pod poprzednimi tyfoprzeglądami.
Natomiast teraz kilka słów o urządzeniu, które jest takim rozszerzeniem selfie sticka.
I to jest rozszerzenie będące już nieco bardziej skierowane dla profesjonalistów.
Konkretnie dla tych, którzy zajmują się filmem.
Mianowicie kilka słów o pewnym gimbalu.
Piotrze, ty nam opowiesz na dobry początek.
Może powiedzmy, co to właściwie ten gimbal?
Gimbal, no właśnie, to z w ogóle czystym przypadkiem algorytm to dał fajnie na początek tej audycji.
To nie było nawet wrzucone do sekcji z poprzedniej audycji, ale w sumie to mogłoby być faktycznie.
Gimbal to jest pewnego rodzaju statyw, można tak to nazwać, na którym montujemy swój smartfon.
Którego głównym zadaniem jest ustabilizowanie tego telefonu.
Bo jednak kiedy niesiemy telefon, nakręcamy wideo, no to ten obraz często trzęsie się.
Telefony dzisiaj mają oprogramowanie, które ma temu zabezpieczyć.
Po prostu tak czy inaczej ręka nam drży.
To nieważne jak bardzo jesteśmy wyćwiczeni, a zwłaszcza, przynajmniej ja to widzę po sobie,
że mi na przykład ręka drży dość mocno jak coś trzymam.
Więc może to też kwestia braku jakiegoś takiego wyćwiczenia, pewnych chwytów.
Może osoba widząca, albo taka, która ten wzrok straciła, będzie miała z tym mniejsze problemy.
Ale każdy tak naprawdę będzie miał większy lub mniejszy problem z tym drżeniem ręki.
Zwłaszcza jak będziemy chcieli coś nacisnąć.
Czy to kliknąć na ekranie, wywołanie zrobienia zdjęcia, czy to po prostu kliknięcie spustu migawki.
No to zawsze nam ta ręka zadrży.
No dokładnie. I dla takich ludzi powstały takie urządzenia, które mają taki statyw, który jest ruchomy.
On ma swoje akcelerometry, silniczki, dzięki którym po pierwsze właśnie nam ten obraz ustabilizuje,
ale też przy okazji pozwalają nam takie urządzenia często jakoś sobie wtedy tym telefonem obracać.
Jakieś bardzo ciekawe w ten sposób ujęcia sobie robić.
No i właśnie takie urządzenie zaprezentował niedowidzący YouTuber.
Urządzenie nazywa się iSteady M6.
Jest od takiej ciekawą firmy o ciekawym nazwie Hohem.
No taka, to chyba jakaś chińska firma, chociaż nie jestem pewny.
Natomiast co to urządzenie nam daje?
No oprócz tego o czym właśnie wspomnieliśmy ma taki taki specjalną doczepioną kamerkę,
którą dostajemy w zestawie, to nie musimy tego dokupywać.
I ta kamerka po prostu może śledzić naszą twarz.
Dlaczego to się nam może przydać jako osoby osobą niewidomą?
No właśnie między innymi dzięki temu między innymi właśnie po to, żeby zawsze nas po prostu było gdzieś w kadrze widać.
To jest główny cel tego urządzenia.
Właśnie jak robimy jakieś ujęcia gdzieś na ulicy, na przykład gdzieś idziemy,
no bo dzisiaj telefony mają bardzo taki szeroki kąt widzenia.
Do tego celu to urządzenie zostało stworzone.
Ale moglibyśmy je spokojnie też wykorzystać podczas na przykład rozmów wideo,
bo czasami gimbale już miały takie funkcje,
natomiast one często bazowały na aplikacji dołączanej do tego gimbala.
Czyli jak gdybyśmy chcieli sobie nagrywać, nie wiem, na przykład wbudowanej aplikacji aparatu na iPhonie,
gdzie dostajemy więcej informacji o tym, czy nas widać, czy nie,
lub podczas jakiejś konferencji, czy to na Zoomie, czy na FaceTime, czy jakiejkolwiek innej aplikacji,
no to się nie dało tego zrobić.
Natomiast w tym urządzeniu to jest właśnie przeniesione do tej zewnętrznej kamerki,
która po prostu działa wszędzie.
Ponadto to jest o tyle fajnie zrobione dla nas,
że włączenie tej funkcji śledzenia naszej twarzy to wykonujemy poprzez fizyczny przełącznik,
który jest na urządzeniu.
Później jeszcze musimy przed kamerą wykonać jakiś gest.
Tutaj niestety ten YouTuber nie powiedział, jak to wygląda,
ale to też jest dostępne, da się to zrobić.
I od tego momentu ten gimbal po prostu będzie tak się obracać,
żeby nas było zawsze widać.
Niezależnie od tego, czy ten gimbal po prostu gdzieś stoi przed nami,
leży na stole na przykład, czy po prostu trzymamy go w ręku w odpowiedniej odległości,
żeby po prostu naszą twarz było widać.
Swoją drogą ciekawe, jak on się zachowa, jeżeli będzie faktycznie jakiś ruch uliczny
i na przykład gdyby przed tą kamerką chodziło kilka osób,
to czy będzie rzeczywiście ta kamerka na tyle sprytna, żeby śledzić nas,
czy on po prostu będzie śledził każdego, kto będzie człowiekiem?
Wiesz co, ja myślę, że jeśli to zostało stworzone dla vlogerów,
a tam jest pewnie jakieś oprogramowanie chociaż podstawowe do rozpoznawania twarzy,
to myślę, że to powinno być na tyle mądre, żeby zawsze śledziło nas.
No też bym sobie tego życzył.
Dokładnie.
No i jeszcze takie jedno ciekawe zastosowanie, o którym pomyślałem,
zwłaszcza w tych nowszych iPhone’ach,
chociaż najnowszy Android też już nad czymś takim pracuje,
wcale też takie coś nie musi nam się przydać tylko w aplikacjach na smartfonie.
No bo często możemy wykorzystać nasz smartfon jako kamerkę do komputera
i zresztą nawet na przykład Apple do tego takie specjalne statywy zaczęło produkować,
no ale równie dobrze moglibyśmy to postawić właśnie na tym gimbalu właśnie.
No i przez to, że on działa bez pomocy aplikacji,
no to równie dobrze możemy mieć po prostu telefon podłączony do komputera
no i wtedy uczestniczyć, udział w jakichś konferencjach,
używając po prostu naszego telefonu jako kameryki, żeby nas było dobrze widać.
No i co jeszcze możemy o tym urządzeniu powiedzieć?
No ma właśnie bardzo dużo przycisków, które wszystkie są takie odczuwalne,
mają skok, po włączeniu czy wyłączeniu tego urządzenia dostajemy sygnały dźwiękowe,
więc wiemy czy urządzenie działa czy nie.
Możemy je ładować przez USB-C, więc jeśli mamy nowsze telefony,
czy to iPhone’y 15 czy nowsze Androidy, no to możemy sobie tego gimbala z telefonu
ładować, gdyby była taka potrzeba, czy to chyba nawet na odwrót jest powiedziane.
Nie wiem ile to urządzenie działa na baterii,
nie działa na baterii, ale myślę, że kilka godzin na pewno spokojnie,
bez problemu powinno zadziałać.
I można je kupić w Polsce i tutaj niestety nie jest bardzo tanie,
bo kosztuje około 800 zł, 780 zł taką cenę znalazłem.
Nie wiem czy to jest dużo czy nie, jeśli chodzi o ceny gimbali,
przypuszczam, że to jest takie chyba jedno z lepszych urządzeń przez to,
że ma tą dołączoną kamerkę.
No najtańsze gimbale, jak tak przeglądałem Allegro, to około 400 zł kosztują,
więc tu mamy ponad dwa razy wiele.
No jest różnica, więc wydaje mi się, że to jest coś, czym zainteresują się osoby,
które naprawdę czegoś takiego potrzebują, może prowadzicie jakiś kanał na YouTubie,
albo chcecie prowadzić, albo właśnie bierzecie udział w wielu rozmowach wideo
i chcecie być na 1000% pewni, że was dobrze widać.
No jeśli jesteście taką osobą, no to wydaje mi się,
że jak najbardziej warto się tym urządzeniem zainteresować.
Ale to już naprawdę, słuchajcie, coraz więcej jest takich rzeczy,
które nam ułatwiają korzystanie także z tego elementu wideo.
Już coraz więcej, mam takie wrażenie, zauważyć można takich narzędzi i technologii,
które nam pomagają faktycznie jakoś być w stanie albo skorzystać z tego,
że ktoś nam zrobił jakieś zdjęcia i sobie je odczytać,
albo też samodzielnie czegoś użyć i jakieś tam powiedzmy zdjęcia
sobie czy to przetestować, czy na przykład w ogóle samodzielnie tworzyć
z większym lub mniejszym skutkiem.
Ja ostatnio na przykład czytałem, o Be My Eye, to też będziemy jeszcze o tym mówić,
ale czytałem taki opis, jak ktoś stworzył, zrobił zdjęcie nieba
i zadawał temu narzędziu bardzo dużo pytań na temat tego zdjęcia
i jednym z końcowych pytań było, czy to zdjęcie jest wyraźne
i czy to zdjęcie nadaje się na przykład do publikacji w mediach społecznościowych.
Taka weryfikacja przez sztuczną inteligencję, no wiadomo, nie zawsze możemy jej zaufać,
natomiast jeżeli nie mamy nikogo na podorędziu, żeby nam pomógł
w tych kwestiach, to może nawet i do tego typu zastosowań
taka sztuczna inteligencja połączona z różnymi fizycznymi zabawkami
takimi jak właśnie gimbale, selfie sticki i inne tego typu może być przydatna.
Wspominałem, że możecie do nas dzwonić i pisać, w ogóle się z nami kontaktować,
no to zapraszamy bardzo serdecznie. Z tej okazji skorzystał Patryk.
Witamy cię Patryku. Z czym do nas dzwonisz?
Witam bardzo serdecznie. Ja przychodzę, jak to ja, z większości z nowościami w grach,
a w zasadzie z nowościami w grze, ponieważ dzisiaj będziemy się ścigać,
a w zasadzie jeszcze się nie będziemy ścigać, ale będziemy się zbliżać do tego,
żebyśmy się ścigali, bo Forza Motorsport 1 już zawitała do recenzentów.
Od 24 godzin jest taka wersja recenzencka, a jutro ukaże się prawdopodobnie
albo nawet dzisiaj w nocy ukaże się wersja dla tych osób, które zrobiły pre-order.
I tutaj nie bardzo wiem, czy jest to pre-order wersji standard, którą ja zakupiłem, czy premium.
To jest pre-order wersji premium, ewentualnie, bo to można właśnie albo zakupić tą wersję premium,
która bodajże 400 złotych z Hakima 440 kosztowała, albo jeśli macie wykupiony
abonament Xbox Game Pass, to tam jest też taki osobny pakiet premium addons bundle,
chyba to się nazywa, i to kosztuje 180 złotych i to po prostu wtedy dostajemy
te wszystkie elementy premium, czyli to jest właśnie ten wczesny dostęp,
który stopniowo jest oblokowany w każdej strefie czasowej o północy,
więc kto wie, jeśli będziecie do nas dzwonić, to może i jak tylko
tych przegląd się skończy, to będziecie mogli sobie pograć.
Mniej więcej to jest ta wersja i właśnie ona się ukaże 5 dni szybciej,
a dla wszystkich to już się pokaże we wtorek, 10 października.
No to znaczy się tak, ja w ogóle, no to ja się w takim razie…
Jeśli jeszcze mogę dodać, bo to jest istotna kwestia, której w sumie teraz
sobie przypomniałem, ten pre-order, bo to też jakoś nie było wcześniej
doprecyzowane, będzie dostępny, ten wczesny dostęp dla osób,
które grają albo na komputerze, albo na konsoli, ale nie w chmurze.
Tak, to wiem, to akurat tak. Natomiast ja się zastanawiałem,
bo ja kupiłem Forzę dosłownie 3 dni temu i troszeczkę się podłożyłem,
no bo zakupiłem edycję standard, no bo taką możliwość dostałem.
I od wczoraj mogłem zacząć poniekąd ściągać tą wersję
i ona mi się jakby ściągnęła do pewnego momentu,
natomiast kiedy próbuję uruchomić tą grę, to pojawia się,
no przepraszamy, niepowodzenie, ta gra jeszcze nie jest dostępna.
Co w zasadzie dostanę, no bo jeżeli jest to pre-order,
jeżeli ja w pre-orderze mogłem już kupić edycję standard,
to co ja na tym jakby zyskam? No bo skoro nie zyskam wczesnego dostępu,
no to mogę częściowo już to pobrać, to co ja w takim razie dostanę?
Wiesz co, nie jestem pewny, no bo w wersji premium to już tam
dostaje się całkiem sporo, bo dostaje się trochę wirtualnej kasy na start,
którą w trybie jednoosobowym wykorzystujemy do kupowania nowych samochodów.
Tak, tak, tak.
Właśnie dostajemy też nowe samochody, dostajemy przepustkę do tak zwanego CarPassu,
który trzeba ogólnie wykupywać osobno i to też daje nowe auto co tydzień,
tam mamy 30 aut takich zaplanowanych.
Ale on chyba będzie dostępny później ten CarPass, nie od razu.
Od przyszłego tygodnia chyba to się zacznie, tam co tydzień będzie nowy samochód wypuszczany.
No on w tej wersji premium też jest dołączony.
No to właśnie to się dlatego zastanawiam, no bo mówię,
taki pre-order zrobiłem, edycji standard, no i teraz jest pytanie,
czy ja przez to, że zrobiłem sprzedaż, czy coś za to zyskam,
czy to po prostu, no bo to by było bez sensu, gdybym jakby nie zyskał nic,
to na jedno by wyszło, że bym kupił edycję standard,
a jak już to wszystko wyjdzie, więc właśnie myślałem, że…
Żeby sobie testyki w firmie podbić.
No pewnie tak.
Natomiast no ja chciałem tu już powiedzieć o, bo już jedną recenzję sobie posłuchałem,
więc już wiem dość dużo na ten temat, jak ta dostępność działa z konsoli Xbox.
Generalnie jest wszystko czytane z tego, co udało mi się zaobserwować.
Son jest taki, powiedzmy, samouczek dostępnościowy,
który nam pokazuje, co jaki dźwięk oznacza.
Mamy dźwięki od pierwsze, no to na pewno mamy dźwięk,
który nam pokazuje, kiedy zbliżamy się jakby do zakrętu
i kiedy w ten zakręt wchodzimy i kiedy z niego wychodzimy,
a też jest możliwość w ogóle łączenia panoramy.
I są dwa sposoby tej panoramy.
Pierwszy sposób to jest taki, jaki mieliśmy w Top Speedzie,
czyli na przykład jeżeli mamy skręcić w prawo,
to samochód się nam przechyla, dźwięk samochodu nam się przechyla w lewą stronę
i na odwrót, a też może mamy odwrotny tryb,
czyli jeżeli mamy skręt w prawo, to samochód się nam przekręci w prawą stronę.
To tak a propos właśnie zakrętów, musimy sobie to włączyć.
Jest audiodeskrypcja, która opisuje nam, co się dzieje powiedzmy w tych takich odstępkach.
To mamy audiodeskrypcję i ta audiodeskrypcja działa.
Jest domyślnie włączona, jeśli włączymy ułatwienia dostępu.
Nie mam pojęcia, jak wygląda z wersją na Windowsa to,
natomiast jeżeli mamy w konsoli włączoną na rację,
to raczej ta dostępność już powinna być włączona by default,
powinna do nas przemówić przy pierwszym ekranie konfiguracji.
W przypadku wersji na Windowsa nie wiem, jak to jest,
ale wiem, że drugi ekran, kiedy sobie przejdziemy do drugiej zakładki,
bo pierwsza zakładka jest tak, Diablo 4 Visuals
i tam mamy wszystkie ustawienia wizualne.
Druga zakładka to jest właśnie włączenie narracji.
Jak naciśniemy przycisk A na padzie, no to ta narracja powinna do nas przemówić.
Chociaż nie wiem, czy jeżeli focusa na to nie ustawimy, to to się już nie włączy.
Bardzo możliwe też jest jeszcze jedna rzecz.
Nie wiem, jak to wygląda w przypadku wersji na Steama,
ale w przypadku tej wersji w sklepie Microsofta w aplikacji Xbox na komputerze
jest analogiczny przełącznik do narracji.
Jest, ja sam testowałem Horizona, jak miałem Xbox Passa,
więc wiem, jak to działa i tam to jest zdecydowanie,
znaczy podejrzewam, że na pewno to jest jakoś rozwiązane.
No i generalnie powiem szczerze, że słyszałem,
jest trudne już na samym starcie, bo też mamy oczywiście dźwięki
od jakby limitu trasy, czyli jak w momencie, jak skręcamy,
słyszymy taki dźwięk, który się podwyższa z lewej bądź prawej strony,
bo jeżeli wjedziemy w ten dźwięk i nie wyrobimy się na zakręcie,
no to wypadniemy z trasy, bo generalnie to też jest kwestia tego,
że przy niektórych zakrętach musimy hamować,
co też mamy oznaczone trzecim rodzajem dźwięku,
czyli kiedy mamy zwolnić, żeby móc na tym zakręcie wyrobić.
No i zakręty są podawane stopniami, że na przykład mamy zakręt
trzy w prawo, ostry na przykład,
three right hairpin, bo ja to słyszałem z wersji angielskiej
i często też na przykład jest tak, że zakręty są łączone,
więc na przykład słyszymy one right, left hairpin,
na przykład three left hairpin na przykład
i wtedy wiemy, że mamy jeden zakręt, z którego musimy wejść
i on się łączy jakby w ten drugi.
Także to jest i no i co?
No i ciekawy smaczek, jak sobie wybieramy samochody,
to możemy się o tych samochodach dowiedzieć ciekawostek,
bo mamy opisy tych samochodów, mamy też ojcowie z dyskrypcji,
jaki to samochód, jak on wygląda, jaki on ma silnik.
A samochodów jest ponad 500.
Na podstawce, ale jak mówi, że tam jest jeszcze ten premium,
za który pewnie będę…
Także będzie więcej. Także będzie co robić.
Będę miał do czego dopłacać. To dzięki Piotrze, żeś mi to powiedział,
bo w takim razie będę musiał dopłacić tam stówkę,
czyli nie wiem ile to będzie kosztować, bo nie kupiłem tego premium,
no bo niestety nie było to deprecyzowane nawet na stronie Stima.
Przynajmniej ja nie znalazłem informacji, co to daje,
więc kupiłem edycję standard.
Ale myślę, że nie wiem, może na początek jest to ok.
Dla kogoś, kto się uczy.
Tak, no to jeśli ktoś bardzo chce…
Myślę, że sporo osób to kupi.
Biorąc pod uwagę, że to jest pierwsza dostępna gra wyścigowa dla niewidomych,
ja myślę, że jeszcze jedną rzecz warto tutaj wspomnieć a propos narracji,
bo też miałem o tym mówić później, bo jest już strona,
która opisuje wszystkie te funkcje dostępności, o których właśnie wspominaliśmy.
Tam można oczywiście głośności, nawet ton każdego z tych dźwięków dostosować,
żeby nam było go lepiej słychać.
Ale sama narracja też odpowiadająca pytanie, które nie wiem, czy ty zadawałeś,
czy ktoś z innych słuchaczy jakiś czas temu.
A propos języków.
Ta narracja będzie dostępna w siedmiu językach,
no i nasz kraj jest na tej liście,
także jeśli chcecie sobie pograć po polsku,
no to na pewno nam ten screen reader zadziała.
Nie wiem, jak będzie z audiodeskrypcją,
chociaż tam słyszałem, że był stosowany neuronowy syntetator Microsoftu,
więc teoretycznie nie widzę przeszkód, żeby audiodeskrypcja też nie działała.
Wystarczyłoby przetłumaczyć.
Tak.
Może, może przetłumaczyli.
Ja nie pamiętam, jak właśnie jest w Horizonie,
bo nie wiem, czy Forza miała kiedykolwiek dubbing polski,
bo tam jest, tam się dzieją jakieś generalnie aktorstwo,
tam jakieś jest w tych przerównikach filmowych,
natomiast mi niestety z Forzą Horizon 5,
dlatego tego nie sprawdziłem, ponieważ dostępność,
czyli narracja nie działała w polskim języku.
Więc niestety nie sprawdziłem, jak to tam.
Pogadam ze znajomym widzącym, który grał w Horizona,
może mi powie, czy jest właśnie polski dubbing,
to się tego dowiem.
Natomiast słuchajcie, no ja jestem osobą,
która po usłyszeniu recenzji, bo są dwie recenzje,
właśnie przed chwileczką ukazała się recenzja pana Brandon Cola
na jego kanale na YouTubie, który również pokazał tą dostępność,
ale Sightless Combat miał rano wystąpienie na Twitchu
i właśnie na YouTubie też jest Sightless Combat,
i jest kanał na YouTubie jego i tam możemy sobie też posłuchać,
jak to wygląda, polecam słuchawki założyć,
żeby wszystko było ładnie słychać.
No będzie co robić, także ja już do dziesiątego
się nie mogę doczekać i co?
I pewnie może jakiś Tyflo podcast.
Jestem za, jestem za Patryku i trzymam za słowo.
Myślę, że powstanie coś.
A uczyć się zrobić o tej grze będzie super
i potem jakiś multiplayer, bo rozgrywki multiplayer
jak najbardziej będą, ma być cross-platform,
więc będzie można grać sobie na przykład z Xboxem,
jak ktoś ma komputer.
Chciałem powiedzieć z PlayStationem, ale się zahamowałem,
bo raczej piekło by musiało zamarznąć.
PlayStation ma swoją serię Gran Turismo,
która też jest taki symulator typowy,
no niestety tam funkcji dostępnościowych na razie nie ma,
no inna sprawa, że Gran Turismo wyszło najnowsze jakiś rok albo dwa lata temu,
więc kto wie, co w następnej części będzie.
Nie wiem, czy jeszcze będziesz mówić o grach,
ale będę, będę.
W headach tego nie było, ale był taki plan.
Bo puzzle są.
Także gra puzzle’owa.
Nie wiem, czy masz ją jakby na liście,
na podstawie Sokoby.
Tutaj taki japoński puzzle jest dostępny,
a ja tego nie kupowałem, nie testowałem, ale jest.
Taka, nie wiem, czy masz ją tutaj.
Tak, bo to jest wszystko, no wszystko,
co się pojawiło w zestawieniu.
Tak, się pojawiło, to się też oczywiście pojawiło.
Może zacznijmy od tego, czym ten Sokoby jest,
chociaż, no właśnie, Michał, nie wiem, czy omówić to teraz,
czy później jak przejdziemy do tematu gier.
To znaczy ja myślę, że jak przejdziemy do tematu gier,
to wtedy już wszystko razem.
To Patryku, czy coś jeszcze?
Jeszcze chciałem powiedzieć o iOS-ie, o becie najnowszej.
I w zasadzie zahaczyć, o dobra,
to jest moment of the king mobilny.
No tak, tego nie było.
Niestety sobie nie pogracie, bo włącza się jakiś alert o tym,
żeby się nie uzależniać.
I generalnie wywala się to cały czas i nie można grać na razie.
Także to taka informacja.
Natomiast o becie chciałem powiedzieć iOS-a.
Jedna rzecz, która bardzo mi się podoba
i tu trzeba naprawdę otworzyć szampana,
bo powiem szczerze, że to była wkurzająca rzecz
jest iOS-a 6, a ja od wersji 6 to używam.
Czyli czytamy sobie coś, czytamy, przychodzi nam powiadomienie.
Przedtem było tak, że mowa się przerywała
i po prostu nasze czytanie szlag trafił,
zwłaszcza jeśli czytaliśmy na Facebooku coś.
Teraz od bety tej jest już w ten sposób zrobione,
że jak nam przyjdzie powiadomienie, on nie przerwie czytania,
ale przeczyta nam powiadomienie w momencie,
kiedy już skończymy czytać to, co mieliśmy czytać.
Nie wiem, skończy się nam dnika, wtedy on przeczyta powiadomienie.
Ja mam wrażenie, Patryku, że to już nawet w iOS-ie 17 zaczęło się tak dziać.
Nie zawsze, ale już coś tam zostało zrobione w tej kwestii,
bo przynajmniej u mnie tak się jakby na Facebooku
i w innych miejscach zdecydowanie rzadziej teraz przerywał mi voice’owo.
U mnie też nie, natomiast niestety to nie jest jeszcze idealna poprawka,
bo jest jeszcze jedno miejsce, gdzie to cały czas występuje
i to też w taki irytujący sposób,
a mianowicie kiedy mamy włączone czytaj wszystko,
więc czytamy sobie jakiś artykuł na przykład, tym Gaston Dvona.
Ja tego nie używam, więc nie wiem.
No, ale gdybyś używał, to generalnie wygląda tak,
że kiedyś w 16 to te powiadomienia po prostu się pojawiały
i on sobie po prostu czytał i nie przerywały czytania.
W 17 to jest tak jak wspominałeś,
że po prostu powiadomienie przerywało czytać wszystko
i musieliśmy sobie to wznowić.
A teraz to wygląda tak, że kiedy powiadomienie przychodzi,
no to on kończy czytać ten akapit, który miał przeczytać,
ale później jak próbuje przeczytać powiadomienie,
to nie czyta powiadomienia, ale też przeskakuje paragraf do przodu.
Więc tak jakby coś próbuje tam przeczytać,
ale nie może, ale też to czytanie się nie zatrzymuje,
więc no to jeszcze jest do poprawienia.
Natomiast inna sprawa, że to jest dopiero druga beta tego iOS-a,
więc jest jeszcze czas, żeby to zostało poprawione.
Oczywiście jeśli korzystacie z tej wersji,
no to takie rzeczy trzeba po prostu zgłaszać.
No i swoją drogą, a propos iOS-a, jeszcze wejdę Wam w słowo.
Ukazała się właśnie wersja iOS 17.0.3.
Między innymi tam ponoć zostało naprawione to,
że niektóre iPhony, zwłaszcza te piętnastki nowe,
to się ponoć dość mocno grzały, no a teraz mają się nie grzać.
Być może też innych to dotyczy,
chociaż ja akurat na swojej trzynastce tego nie zaobserwowałem.
Jeszcze chciałem powiedzieć o rzeczy,
która się niestety zepsuła względem bety pierwszej,
która w becie pierwszej już działa,
czyli to klikanie, tapanie dwa razy w ekran niestety znowu się popsuło.
Przynajmniej ja to odczuwam w Safari,
że dwuklik często nie jest załapywany jako dwuklik,
co już było naprawione wcześniej.
Ja tego nie miałem, to cały czas nie mam tego problemu.
Aha, a ja jeszcze mam problem z Braille’em.
Bardzo często jest u mnie tak, że często lubi nie załapać,
zwłaszcza problem z szóstym punktem,
że na przykład nie wiem, chcę wpisać rzecz z kropką,
a mi na przykład wpisuje P.
Często jak piszę szybko, to są zjadane litery
i często większe litery niby mają się wpisywać,
a się nie wpisują.
Ja tak mam Patryku, już od iOS’a 15,
na iPhone’ie 13 mini, na tym malutkim ekraniku,
zwłaszcza jak się szybko wpisuje czteropunktowe
lub więcej znaki typu T, N, właśnie P, R,
nie chcą wskakiwać.
I to mi się działo od zawsze.
Nie mam pojęcia, czy to jest kwestia tego,
że te punkty nie potrafią tak szybko reagować
na tak małym ekranie, czy co,
ale ja tak miałem od tamtego iPhone’a.
Ja mam SE3 i ten ekran nie jest może jakoś strasznie mały,
ale jest mały.
No, podobny będzie gdzieś tam.
Natomiast jeszcze jest problem z kalibracją.
Od jakiegoś czasu, że chcę zrobić kalibrację,
to mówi kareta.
I na przykład nie robi mi tej kalibracji
dopiero ze dziesiątym razem.
Także no niestety rozkalibrowuje się ten brail bardzo często.
Jak chcę go skalibrować, to właśnie skalibrować nie chcę.
Także no, jak widzicie, to są uroki bety.
Przyznam szczerze, że…
Z tym stukaniem dwukrotnym, to było jakieś obejście.
I to chyba Michał nawet też właśnie pisał
w komentarzach pod ostatnią audycją
i Jonathan Mosen też to potwierdza,
że trzeba w ustawieniach dostępności
zmodyfikować długość chyba reakcji na stukanie.
Muszę się tym pobawić.
Tak, jest takie ustawienie.
W którejś innej sekcji ustawień,
tam Baruchu czy coś w ustawieniach dostępności.
I tam jak się zmodyfikuje,
to trzeba się pobawić troszeczkę parametrami,
który nam akurat siądzie,
ale ponoć to jakoś naprawia.
Natomiast mam jeszcze ustawienia powiadomień,
bo tam jest generalnie coś takiego,
że w ustawieniach powiadomień,
kiedy ekran jest odblokowany,
można ustawić albo powiedz i przeczytaj liczbę.
U mnie jest zrobione w ten sposób,
że jest włączone powiedz,
a jest wyłączone czytanie liczby.
I generalnie nadal ta liczba jest czytana,
ale muszę wam powiedzieć,
że jest sytuacja, kiedy ta liczba nie jest czytana,
a jest czytane tylko godzina i powiadomienie od razu.
Jeżeli np. słuchamy sobie czegoś
albo oglądamy YouTube’a
i mamy odblokowany ekran,
wtedy on nam przeczyta godzina powiadomienia z aplikacji
takiej i takiej, nie przeczyta nam liczby,
chyba, że sami odblokujemy ten ekran,
to wtedy nam tą liczbę przeczyta,
natomiast normalnie nadal niestety czyta
jeden powiadomienie, dwa powiadomienia,
trzy powiadomienia i tak dalej.
Dobrze, to z mojej strony już tyle.
Dzięki Patryku w takim razie za to,
że do nas zadzwoniłeś,
podzieliłeś się tymi wszystkimi informacjami.
Dziękujemy cię, no i miłego grania wkrótce.
Tak, dzięki za telefon.
Mamy kolejnego słuchacza i za moment odbierzemy…
Ja mam audycję, akurat mówiłem.
Mam audycję, akurat mówiłem.
Dobrze Patryku, audycję to akurat my mamy.
Tak.
Ale fajnie, że się wczuwasz i angażujesz.
Wojtek jest z nami i zaraz pewnie się do nas odezwie.
Tak, już chyba jestem.
Jesteś, witaj.
Ja odnoszę takie wrażenie, mam nadzieję, że teraz mnie też
dobrze słychać o teraz, mam nadzieję, że jest okej.
To znaczy słuchacie na pewno inaczej, nie wiem z czego jesteś.
Jest taki pogłos, ale no.
Z innego mikrofonu po prostu, tutaj testuję taki inny jeszcze
mikrofon, on jest tu podpisany, już mogę wam nawet powiedzieć
jak on jest podpisany.
On jest podpisany jako Microphone Streaming RM.
Także to jest taki jakiś Olympus czy coś.
Szczerze, nie ujął mnie jakoś jakością.
Nie ujął się, tak?
Nie.
No tak, tak, tak, ale to jest pewien taki backup, który właśnie wymyślił.
Oj.
Ja bym nie polegał na nim jako na backupie, jeśli mam być szczerym,
bo właśnie przestałeś być, Wojtku, słyszalny.
No ale to może zaraz do nas przemówisz ponownie, a tymczasem ja
przeczytam, o, jesteś.
To moje, bo chciałem go wywalić, skoro nie jest tak dobrze słyszalny.
No teraz jest lepiej, zdecydowanie mniej pogłosu, wiesz?
Tak, ale dlaczego właśnie dzwonię?
Odnoszę też wrażenie, że jest grupa ludzi, którzy po prostu czekają
na to, że będziecie na żywo, bo mają ciągle jakieś problemy
i pytania i chyba do niej należę, tej elitarnej grupy.
Natomiast rzeczywiście teraz mam do was ogromną prośbę.
Może ktoś wie, może ktoś mi pomoże.
A mianowicie, jak wiecie, ja w pracy mam taki interfejs ten Behringer
UMC1820 i świetnie się z nim dogadujemy przez Maca i Hijacka
i super to było.
Słuchajcie, przychodzę cały przygotowany na zajęcia.
Chciałem mieć i transmisję, i na Zoomie, i jeszcze kamerę
i teraz opowiadaliście o tych stickach.
Kupiłem sobie takiego sticka i włączyłem center stage,
że jak ktoś będzie mówił, to będzie się na nim fokusował,
ten iPhone.
No w ogóle cuda wianki.
Podłączam USB, taki tam jest ze skrętki na USB przełączka,
podłączam to USB, nie widzi.
No i nie wiem, pół roku mi widział wszystko w porządku.
Nic nie zmieniałem w tym systemie, cholera.
Już nawet po aktualizacji do Sonomy byłem w tej sali
i wszystko działało.
Nie mam pojęcia, dlaczego to nie działa.
Może macie jakiś pomysł?
Piotr, może ty masz jakiś pomysł?
Ja bym zadał pierwsze pytanie od razu na samym początku.
Czy inny komputer go widzi?
Czy w ogóle to urządzenie?
Sprawdziliśmy.
Właśnie ten w sali widzi go, a mój widział cały czas
i w ogóle teraz go nie widzi.
W ogóle jakby go nie było już.
No to w tym momencie ja się poddaję.
Piotrze, może ty coś…
Pytasz się o interfejs, tak?
Tak, o interfejs audio.
Po prostu go w ogóle nie widzi.
W tych urządzeniach ani go nie widzi hijack.
Nic go nie widzi.
Ja tutaj się zastanawiam, czy coś się nie stało z tym hubem,
do którego go podłączasz.
Nie wiem, czy masz jakąś możliwość, żeby go bezpośrednio…
No nie, bo tam są porty USB-C.
No to jest jedyne właśnie, żeby wziąć inny hub.
Tak, tak.
Też o tym myślę.
Ma to swoje jakby minusy, ale hub w sensie takim, że działa,
że jak wróciłem do domu, podłączyłem słuchawki.
Teraz, nie, teraz akurat przez monitor,
ale wcześniej przez hub OK.
HDMI też działa na hubie.
Także…
Ale w domu ten interfejs też nie działa?
No interfejs nie działa właśnie na nim.
A słuchawki takie zwykłe na USB-O, takie jak teraz mam,
bez problemu działają na hubie.
No może interfejs bierze jakoś więcej mocy?
Może tam coś poszło?
Ale kurczę…
No jest to dziwne, bo ten interfejs ma akurat…
Ja mam taki sam interfejs tu obok siebie
i on ma dodatkowe zasilanie,
więc tej mocy raczej nie podejrzewam,
żebym brał wiele,
ale faktycznie, no to chyba trzeba by było sprawdzić.
To się wyświetla jak zwykłe urządzenie audio,
więc no ja tutaj nie wiem co…
Wątpię, żeby to było coś w kwestii oprogramowania,
szczerze mówiąc.
No to może w…
No można poprowadzić jakiś…
Nie, bo do tego interfejsu, Wojtku, popraw mnie,
jeżeli się mylę, ale chyba tam nawet sterowników
się nie instaluje na Maca, prawda?
Nie, nie, nie.
To podłączasz i działa.
Nie, nie, nie działało.
A wiecie, żeby nie działało od zawsze,
ale nie działa teraz.
Przez pół roku działało i miałem tyle nagrań,
już wszystko miałem tam opracowane po prostu.
Już miałem cały koncept i to mi zniszczyło.
Cały ten koncept, który sobie wymarzyłem na te zajęcia.
No.
Jest taka aplikacja w folderze narzędzi,
jak fajnie, że sobie naciśniesz Command Shift U.
To są informacje o systemie,
nie wiem jak to się po polsku, szczerze mówiąc, nazywa.
Co tam w angielsku?
No ja mam w angielsku.
Także urządzeń na Macu generalnie.
I tam są dwie tabelki.
Na jednej tabelce jest sekcja USB.
Ja jestem ciekawy, czy ten interfejs się chociaż tam wtedy wyświetla.
Aha, dobra.
Czy on w jakikolwiek sposób widzi, czy nie.
No, teraz oczywiście tego nie sprawdzę,
bo na szczęście nie ma mnie w pracy, ale…
Ale nie wiem, ja bym tutaj zwalał winę, nie wiem,
albo na kabel, albo na hub,
bo jakoś wątpię, żeby to była kwestia software’owa.
Tak, no w ogóle…
Absurd to jest.
Żeby nigdy nie działał, ale zawsze działał.
No teraz oczywiście widzę, że ma…
Wyświetla mi wszystkie podłączenia narzędzia do USB,
ale oczywiście wiadomo, że teraz mnie tam nie ma
i nie mogę tego zrobić.
Ale to dzięki, ja to załatwię,
a na razie będę się jakimiś backupami posługiwał.
I to jest jedna sprawa.
Druga sprawa, którą może bardziej informacyjnie,
właśnie mówiliście o tym ekranie braillowskim.
I to jest ciekawe właśnie,
bo ja bardzo długo to wejście ekranu brailla stosowałem.
I potem ono się mi zepsuło.
Ale tak tragicznie, tak…
No po prostu, że nie dało się z tego korzystać.
Na przykład naciskałem, nie wiem, 4, 6,
a wychodziło mi C.
I oczywiście ekran był w odpowiedniej orientacji.
Wszystko grało, nie?
I tu pozdrowienie jeśli słucha koleżanka Grażyna.
Wpadła na pomysł o co to mogło być
drogą dedukcji i eliminacji.
Jakie są różnice między mną, moją małżonką, a nią.
I stwierdziła, że to musi być włączony naraz zoom i voiceover.
Jeżeli macie takie problemy,
że wam ten braill w ogóle nie działa,
to wejście, wyłączcie zoom.
I to często pomaga.
Bardzo to dziwne.
Ale to jest jakiś bug.
Ja bardzo chętnie bym zgłosił w ogóle to im.
Nie znam się, tylko jak widziałem,
że jak jest wersja beta,
to są te aplikacje feedback.
Ale tak gdzie im to zgłosi, bardzo chętnie bym…
O, to tak zrobię.
To dzięki.
Plus jest infolinia, możesz też do Stanów zadzwonić,
pogadać sobie z panem, bądź pana.
No, thanks.
Są serwisy też VoIP chyba do dzwonienia
po jakichś fajnych stawkach,
ale wiem, że też jest taka możliwość.
Natomiast accessibilityatapple.com także.
Nie, nie, to ja jeszcze dzisiaj w takim razie
do nich napiszę takiego maila.
Kiedyś wiem, że te zoomowo, voiceoverowe historie
nie były proste.
Wiem, że te gesty się gryzły kiedyś.
Teraz to było bardziej dopracowane,
ale tak pamiętam jeszcze czasy szkolne,
kiedy był koleżance niedowidzącej
no i tam jakieś problemy były chyba.
Gesty przewijania.
Wiem, że nie chciały jakoś tam współpracować.
Chociaż może mi się to…
No teraz jest w każdym razie…
Idealnie teraz jest.
W momencie kiedy wyłączyłem tego.
Czasem się zdarza, że on w dalszym ciągu
robi jakieś numery,
ale generalnie jest naprawdę świetnie.
I to chyba już dzisiaj tyle
mojego troubleshootingu.
Także bardzo dziękuję.
Bardzo mi się podobał z tym system information.
No i tak.
No i cały oczywiście w stresie,
no bo tam czekają po prostu w tej Hiszpanii,
żeby oglądać i słyszeć to.
A mikrofon na maku jest świetny,
ale nie zbierze.
Jak ci ktoś siedzi po drugiej stronie stołu,
to on nie zbierze niestety.
To jest problem.
To może być problem, to prawda.
Ale tak myślę, że wezmę na przykład
tego takiego, co duży pogłos zgłaszaliście,
no to u mnie w domu.
Tam jest wszystko wygłuszone,
więc tak, żeby się naprzemiennie ustawiało,
jest taki parametr w hijacku,
żeby albo mój był,
albo ten taki, taki AB.
I jedziemy.
I to będzie jakiś tam substytut
dla tego profesjonalnego sprzętu.
A może to, może mu się odmieni,
może zadziała.
Kto to wie.
Skoro się na mnie obraził w tym tygodniu,
to może w przyszłym tygodniu mnie jakaś wybaczy.
Kto wie, to daj znać.
Jeżeli się uda.
Też możesz po prostu spróbować
jeśli tego jeszcze nie próbowałeś.
Oczywiście, że już próbowałem.
Można zapytać.
A czy jakbym włożył skrętkę
bez tego USB,
to rozumiem, że to nie da się,
że tak przez skrętkę nie wykryje
żadnej karty dźwiękowej,
bo tam coś jest w tej przepince na USB.
Nie, nie, tam skrętka jest tylko
podejrzewam nośnikiem danych,
a gdybyś włożył tę skrętkę,
to on by ją potraktował jako sieć,
a nie jako dźwięk.
No właśnie, że on potem musi mieć
coś tam, taką kostkę ma tam,
bo to ma pięciocentymetrowy kabelek
i USB, a jest taka kostka
i pewnie tam to się jakoś dokonuje.
Ta magia, żeby potem wychodziło mi
tych osiem ścieżek.
No dobra, to będę działać w takim razie.
Dzięki wam w takim razie
i życzę udanej, przyjemnej audycji.
Dzięki Wojtku.
Powodzenia.
To teraz zaglądam na nasze
źródła kontaktu, drogi kontaktu.
No i mamy dwa komentarze.
Pierwszy komentarz od Agi.
Witajcie.
Czy ty Piotrze, masz również ten problem
na Macu z Caps Lockiem, że gdy go włączysz
i naciśniesz klawisz Options,
by napisać literę z diakrytykiem,
to czy też pojawia Ci się
taki nachalny komunikat,
którego ciężko się pozbyć,
byś wyłączył Caps Lock?
Jeśli tak, to czy orientujesz się?
Może, czy istnieje jakieś jego obejście?
Jest to niezwykle irytujące
i chciałabym się tego błędu pozbyć.
A może to nie błąd,
tylko jakieś nowe ustawienie,
które gdzieś należy wyłączyć?
No poniekąd.
Powiedziałbym takie słynne
It’s a feature, not a bug, poniekąd.
Dlatego, że w Mago Asie 14
Apple dodało coś takiego,
że na granie pojawia się taki wizualny wskaźnik
dla osób widzących,
który im mówi, że mają włączony Caps Lock.
Bo tak jak osoby niewidome widzącym,
też się czasami zdarza,
że go nie chcą włączyć
i potem piszą gdzieś dużymi literami
i nie zauważą tego,
a to jest właśnie takie okno,
które gdzieś pojawia się na całym ekranie.
Jakoś tam zakrywa kursor poniekąd.
To jest duże, żeby tego nie przeoczyć.
No i tam jest też przycisk,
żeby to wyłączyć.
Problemem właściwie z tym są dwa.
Po pierwsze ten wskaźnik pojawia się
jak Caps Lock jest wyłączony.
A wejdziemy sobie do pola edycji,
to on nam wyskakuje.
A drugi problem jest taki,
że jak on wyskoczy,
no to po prostu zabiera nam fokus.
Dopóki nie puścimy Caps Locka,
no to ten kursor nam będzie utknie
w tym okienku dialogowym niestety.
Jak to obejść?
No niestety
za bardzo się nie da.
Można po prostu nawigować
Control Option zamiast Caps Lockiem.
No a jeśli chodzi o wpisywanie
i dana litera nam wpisze
duży odpowiednik danej litery.
No i na szczęście też z tego co widzę
w becie macOS-a 14.1
to chyba w końcu zostało poprawione,
bo na początku to cały czas występowało,
ale wczoraj wyszła beta 2
i w becie 2,
w krótkich testach,
które dziś przeprowadzałem
w kilku polach tekstowych
na szczęście chyba się z tym problemem już uporali.
Więc jak ta wersja się ukaże publicznie,
no to już ten problem
nie ma.
To teraz jeszcze jeden komentarz,
tym razem od Boczka.
Zauważyłem, że sporo dzisiaj o NVDA.
Jakiś czas temu pojawiła się
czwarta beta
w najnowszej wersji.
Co się zmieniło?
Naprawiono problem z uruchomieniem
instalatorów starszej wersji
po zainstalowaniu
dwa tysiące trzy
dwa tysiące dwadzieścia trzy
trzy beta 3.
Poprawiono problem
z ogłaszaniem formatowania
komórek w Excelu.
Naprawiono błędy
ze współpracą z Windowsem 8
i starszych.
Zaktualizowano tłumaczenia
za błędy w sformułowaniach.
Przepraszam, profesjonalista
w pisaniu czegoś takiego ze mnie
żaden.
A ważne, że przekazałeś
informacje.
Dziękujemy za nie.
No i cóż, to tyle na razie
waszych wypowiedzi.
Czekamy oczywiście na kolejne
Facebook, YouTube,
Zoom.
Polecają się i kontakt
kropka tyflopodcast.net
również się poleca
waszej uwadze.
A teraz kolejne
wieści, tym razem wieści
z PZN-u.
Pawle.
Tak, jak zwykle jest ich kilka.
Większość dotyczy kultury,
ale pierwsza wieść
będzie dotyczyła polityki.
No bo wybory coraz bliżej
i ja też w ostatnim
przeglądzie informowałem,
że w siedzibie Związku
w Warszawie
będzie możliwość
spotkania się z obecnym
pełnomocnikiem rządu do spraw
osób niepełnosprawnych
Pawełem Wdówikiem.
No i też takie spotkanie
się odbyło.
I warto o nim wspomnieć,
bo też
pan pełnomocnik, który
kandyduje teraz, jeżeli się nie mylę,
na posła
w Warszawie,
zapowiedział, co zadzieje się,
jeżeli
obecna opcja władzy
zwycięży wybory.
Co by chciał po prostu
w następnej kadencji
zdziałać.
No i tutaj
zapoznajmy się z tym,
co się wydarzyło.
Paweł Wdówik,
pełnomocnik rządu do spraw
osób niepełnosprawnych
i sekretarz stanu
w Ministerstwie Rodziny,
Pracy i Polityki Społecznej
odwiedził Polski Związek
Niewidomych.
Polityk podzielił się
swoimi refleksjami
nad aktualnie prowadzoną
polityką społeczną
wobec osób
z niepełnosprawnościami.
Odpowiadał też
na liczne pytania
uczestników spotkania.
Wizyta miała miejsce
2 października
w siedzibie PZN w Warszawie.
Paweł Wdówik przywitał
zebranych,
następnie podsumował to,
co udało się osiągnąć
w trakcie jego kadencji.
Pierwsza kwestia
to nowe świadczenie
wspierające dla osób
niepełnosprawnych.
Będzie ono przysługiwać
niezależnie od innych
form wsparcia.
Osoby, które mają
prawo do renty socjalnej
nadal będą mogły ją pobierać
oraz bez względu
na osiągany dochód.
Pierwszy etap tej zmiany
zostanie wprowadzony
od 1 stycznia 2024.
Będzie to świadczenie
dostępne dla osób
z niepełnosprawnościami
o najwyższym poziomie wsparcia
w wysokości 200%
renty socjalnej.
Kolejne etapy ustawy
zostaną wprowadzone
w następnych latach.
Drugie rozwiązanie,
które udało się wypracować
to ogólnopolska wypożyczalnia
sprzętu asystującego
prowadzona przez PFRON.
Sprzęt będzie wypożyczany
bezpłatnie.
Pobierana będzie
jedynie kaucja zwrotna
w wysokości 2% produktu.
Co pół roku będą pojawiać się
nowe urządzenia.
W następnym roku
na zakup sprzętu
zostanie przeznaczony
70 mln zł.
Paweł Wdówik mówił też o tym,
czym chce się zająć
podczas kolejnej kadencji.
Będzie to działanie
na rzecz wprowadzenia ustawy
o zapewnieniu usług asystenta.
Ustawa stworzy obowiązek
udzielania wsparcia
w postaci asystenta
dla osoby z niepełnosprawnością.
Osoby, usługi asystencji osobistej
prowadzą tylko te samorządy,
które zdecydują się
wziąć udział w programie PFRON-u.
Druga kwestia to
rozwijanie mieszkalnictwa wspomaganego.
Uczestnicy w trakcie spotkania
mówili również o tym,
jakim problemem jest
pułapka rentowa.
Osoba z niepełnosprawnością
obawia się podjąć pracę,
bo gdy osiągnie
określony próg dochodowy,
renta zostanie jej odebrana.
Sekretarz stanu zapowiedział,
że będzie prowadził działania,
aby rozwiązać ten problem.
Inny uczestnik wysunął postulat,
aby przyznawać 500 plus
dla osób z niepełnosprawnością
bez kryterium dochodowego.
Andrzej Brzeziński,
prezes zarządu głównego PZN
zadał pytanie.
Co minister zamierza zrobić
dla Polskiego Związku Niewidomych
oraz środowiska osób
z dysfunkcją narządu wzroku?
Paweł Wdówik odpowiedział.
Zamierzam działać na rzecz
zapewnienia odpowiedniej rehabilitacji
dla osób, które tracą wzrok.
Obecnie taka rehabilitacja
nie zawsze jest standardem.
Myślę o wprowadzeniu
Centrów Niezależnego Życia,
gdzie osoby, które tracą wzrok
otrzymywałyby wsparcie blisko domu,
np. orientację w przestrzennej
i inne usługi.
Drugim tematem,
którym chce się zająć pełnomocnik,
jest uporządkowanie spraw
związanych z psami przewodnikami,
standardy ich szkolenia
i przekazywania ich osobom niewidomym
oraz inne kwestie
powiązane z tym zagadnieniem.
Na pytanie,
czemu zdecydował się
kandydować w wyborach,
Paweł Wdówik odpowiedział.
Zdałem sobie sprawę,
ile już nauczyłem się w polityce
i chciałbym dalej wykorzystywać tę wiedzę,
wprowadzając nowe rozwiązania
na rzecz osób z niepełnosprawnościami.
Poza tym uważam,
że na stanowisku pełnomocnika
do spraw osób niepełnosprawnych
powinna być osoba niepełnosprawna,
bo chyba nikt, tak jak ona,
nie zrozumie tych kwestii.
Właśnie taka osoba
może reprezentować interesy tej grupy obywateli.
No i to w zasadzie tyle,
jeśli chodzi o dzisiejszą wstawkę polityczną
w audycji.
Natomiast wracając do rzeczy,
które też powstają i się dzieją,
to powstała edukacyjna,
adaptacyjna w Sosnowcu.
O Sosnowcu mało słyszymy,
a ja tam studiowałem,
więc miło słyszeć,
że dzieją się tam fajne rzeczy.
Więc dowiemy się,
że ścieżka adaptacyjna
dla osób niewidomych i słabowidzących
otwarto w budynku przystanku otwartej kultury
Kazimierz w Sosnowcu.
Osoby z dysfunkcjami narządu wzroku
mogą tu przećwiczyć różne sytuacje,
a osoby bez tych ograniczeń,
dzięki specjalnym goglom,
mogą przekonać się,
z czym zmagają się niewidomi
i słabowidzący na co dzień.
Przygotowana ścieżka i tor przeszkód
to projekt badawczy pracowników i studentów
Wydziału Architektury Politechniki Śląskiej.
Osoba wkraczająca na tę ścieżkę
spotka się z różnymi przeszkodami,
zarówno na poziomie nóg,
tak jak i rąk i głowy.
Utrudnienia znajdują się
na różnych wysokościach.
W ten sposób osoby niewidome i słabowidzące
mogą przećwiczyć różne sytuacje,
z którymi mogą się spotkać w codziennym życiu,
na ulicy czy w budynku.
Już teraz dyrekcja Szkoły Specjalnej nr 4
w Sosnowcu zaplanowała wizytę
swoich uczniów w tym miejscu.
Osoby z dobrym wzrokiem
mogą wypożyczyć specjalne gogle
imitujące różne problemy ze wzrokiem,
a następnie spróbować przejść tę ścieżkę.
To możliwość doświadczenia tego,
z czym spotykają się osoby niewidome
i słabowidzące na co dzień.
To też prawdziwa lekcja empatii.
Osoby zainteresowane odwiedzeniem tego miejsca
powinny kontaktować się
pod numerem telefonu
32 269 41 19.
Ścieżka adaptacyjna znajduje się
w budynku Przystanku Otwartej Kultury Kazimierz
przy ulicy Głównej 19 w Sosnowcu.
No, ciekawe.
Ciekawy jest to eksperyment.
Nie wiem szczerze mówiąc na ile
gogle i symulowanie tego typu sytuacji
rzeczywiście oddaje to,
jakie to jest doświadczenie dla osoby,
która zmaga się z tym na co dzień.
Natomiast no, zawsze jest to jakieś fajne rozwiązanie.
Zawsze jest to jakaś próba.
Ja będę za jakiś czas jeszcze mówił
o rozwiązaniu niepodobnym,
ale pokrewnym tematycznie z Irlandii.
To jest też bardzo ciekawa sprawa.
Więc fajnie, że takie ścieżki powstają
i że ludzie mogą się uczyć.
No to teraz przenosimy się
do starożytnego Egiptu i do Warszawy,
bo tam dostępna dla niewidomych
staje się i to za darmo
wystawa Dotyk Wiecznego Piękna
Starożytny Egipt.
I dowiemy się tam, że
Dotyk Wiecznego Piękna Starożytny Egipt
to wystawa przygotowana specjalnie z myślą
o osobach niewidomych i niedowidzących.
Przez dotyk i wyobraźnię można tu poznawać
trójwymiarowe obiekty, które są dowodem
na bogactwo ludzkiej ekspresji
i różnorodności kulturowej.
Wystawę przygotowała organizacja
Nowa Akropolis wraz z partnerami
Fundacją PZU i Uniwersytetem Warszawskim.
Składa się ona z 12 ekspozytorów,
na których umieszczone są płaskorzeźby
i rzeźby będące reprodukcjami.
Powstały one na podstawie
oryginalnych artyfaktów staroegipskich.
Reprodukcje wybrane zostały
na podstawie konsultacji ze specjalistami
i praktykami działań dedykowanych
dla osób z dysfunkcją wzroku.
Każdy ekspozytor zawiera na stałe
umocowaną reprodukcję, umocowanie tyflograficzne
oraz opis przy użyciu alfabetu Braila
i z użyciem wielkich liter.
Dodatkowo na ekspozytorze znajduje się
kod QR z tagiem NFC
z odnośnikiem do opisu uzupełniającego
o danym elemencie.
Na zwiedzających czeka też niespodzianka.
Skrzynia z karabeusza.
Odwiedź wystawę, aptowierz się,
co się w niej znajduje.
Wystawę o dotychwiecznego piękna
Starożytny Egipt.
Gdzie?
W Umal, Grujecka, 109, w Warszawie.
Kiedy?
Od 4 do 14 października
w godzinach dni poprzednie
od 12 do 20,
w sobotę od 10 do 14.
Wstęp wolny.
Co warto wiedzieć?
Codziennie w godzinach 18 do 20
i w sobotę od 10 do 14
na wystawie obecni będą wolontariusze,
którzy będą gotowi pomóc
w zwiedzaniu wystawy wszystkim osobom
z niepełnosprawnościami.
Więcej informacji o wydarzeniu
można znaleźć tutaj
i jest podany link,
wkleić będzie on oczywiście podany
w newsie, a news będzie podany
w komentarzu, także nie obawiajcie się,
dotrzecie do niego.
Koncert z okazji Dnia Białej Laski w Warszawie
również się odbędzie.
Czy on się odbywa co roku, czy jakoś częściej?
Nie wiem, bo może to kolejny
z serii, ale to dla tych,
którzy jeszcze nie wiedzą, będzie pewnie nowość.
Fundacja Praca dla Niewidomych zaprasza
osoby niewidome i słabo widzące na koncert
z okazji obchodów Międzynarodowego Dnia Białej Laski.
Wydarzenie odbędzie się
w czwartek 12 października
bieżącego roku w godzinach 16 do 19
w Bibliotece Narodowej
w Warszawie.
Udział w wydarzeniu jest bezpłatny.
W trakcie koncertu będzie można posłuchać
polskich przebojów z minionych lat.
Po występie uczestnicy zaproszeni są na poczęstunek
przygotowany przez Rolniczy Zakład Aktywności
Zawodowej w Stanisławowie.
Organizatorzy
zapraszają do udziału w spotkaniu
osoby z ważnym orzeczeniem o niepełnosprawności
wraz z opiekunami
zamieszkałe na terenie powiatów
Warszawskiego, Warszawskiego
Zachodniego, Wołomińskiego,
Otwockiego, Płockiego, Sierpeckiego
i Kozienickiego.
Wydarzenie jest darmowe.
Zgłoszenia można wysyłać na adres mailowy
w fpdn
maupafpdn.org.pl
lub pod
numerem telefonu
826
88 66
w godzinach dziesiąta do szesnastej.
Liczba miejsc ograniczona
decyduje kolejność zgłoszeń.
Miejsce spotkania Biblioteka Narodowa w Warszawie,
Aleja Niepodległości 213,
wejście od Pól Mokotowskich.
No i
ostatni news
PZN-owski na dziś to dla mieszkańców
Poznania kino
bez barier.
I to jest wydarzenie cykliczne, o którym ja na przykład
nie mam pojęcia, może wy w Poznaniu wiecie,
że to jest,
bo okazuje się, że
w kinie pałacowym
w
Centrum Kultury
Zamek w Poznaniu w każdy wtorek i czwartek
odbywają się pokazy bez barier.
We wtorki o godzinie jedenastej
można przybyć na seanse z audiodeskrypcją
i napisami w języku polskim,
a w czwartki o godzinie osiemnastej
obejrzeć filmy z audiodeskrypcją, napisami
w języku polskim i tłumaczeniem
w język migowy.
Filmy są transmitowane
w sali numer dwa kina pałacowego,
który znajduje się w Centrum Kultury Zamek
przy ulicy Świętego Marcina w Poznaniu.
Koszt biletów to pięć złotych.
Można kupić je
na stronie
www.kinopalacowe.pl
lub w kasie CK Zamek.
Aktualny epertuarz znajduje się
na stronie i tu jest link.
W październiku bieżącego roku będzie można
obejrzeć film Filip w reżyserii
Michała Kwiecińskiego, którego scenariusz
powstał na podstawie powieści
Leopolda Tyrmanda. Jak uważa reżyser,
twórca wielu produkcji o tematyce
wojennej, ten film opowiada
o człowieku, jednostce, a nie o sprawie.
Obraz został wyróżniony
Nagrodą Srebrne Lwy na 47.
Festiwalu Polskich Filmów Fabularnych.
Rezerwację biletów
przyjmuje kasa CK Zamek pod
numerem telefonu
48 61 64
65 260.
Kasa jest
czynna codziennie w godzinach od
10 do 21.
No i to wszystko na dziś, jeśli chodzi
o newsy Polskiego Związku Niewidomych.
Ale to zdecydowanie nie wszystko,
jeżeli chodzi o informacje
tyfloprzeglądowe. Teraz
coś ode mnie,
coś co dziś
znalazłem przeglądając internet,
ale co może przydać się raczej
użytkownikom słabowidzącym
i z innego
typu niepełnosprawnościami,
niekoniecznie osobom
całkowicie niewidomym. Mowa
tu o narzędziu, które
nazywa się TD
Accessibility Adapter. To jest
narzędzie, co ciekawe,
rozwijane przez instytucję
finansową. Jak dobrze
wyczytałem w sieci,
to jest instytucja kanadyjska.
Oni się nazywają TD Bank Group
i dość mocno
podkreślają, że dbają
o użytkowników
z niepełnosprawnościami,
zatrudniają różne
osoby, które są w stanie pomagać
osobom z różnego rodzaju
niepełnosprawnościami, także rozwiązywać
ich problemy.
Również na przykład
osoby głuche
mogą liczyć na
wsparcie ze strony pracowników
banku i też, jak rozumiem,
innych niepełnosprawności.
No i właśnie ta wtyczka,
o której mówię, jest,
właściwie była,
początkowo tworzona
z myślą o
pracownikach banku
z różnymi niepełnosprawnościami.
Zadaniem
tej wtyczki jest po prostu
ustawienie konkretnych preferencji
w naszej przeglądarce internetowej,
konkretnie bazującej na
Cromium, jeżeli
chodzi o dostępność.
No i cóż my tu mamy?
Mamy przede wszystkim
profile, które możemy
sobie zmieniać i w zależności od
tego, jakie mamy
potrzeby, to
odpowiednie
opcje są aktywowane.
Dotyczą
chociażby kontrastu, wyłączania
różnego rodzaju elementów
rozpraszalnych, które nas
mogą gdzieś tam rozpraszać, wyłączenia
animacji i tak dalej
Ta wtyczka
jak zapewniają twórcy,
to nie jest żadna nakładka na strony
internetowe, wykorzystuje
raczej natywne elementy,
które można w przeglądarce
pozmieniać, no i
jeżeli ktoś ma
ochotę sobie tę wtyczkę
wytestować, to jak najbardziej
zachęcam, będzie dostępna,
będzie dostępny
link do sklepu
Google Play,
a właściwie do sklepu
Chrome, dzięki któremu
będzie można sobie
z tego odnośnika zainstalować
w Chromie, ale i nie tylko
w Chromie, bo na przykład
w Brave czy w jakichś innych
przeglądarkach bazujących
na Chromium. Jeżeli
chodzi o dostępność dla osób niewidomych,
no to ja tu miałbym
trochę jednak zastrzeżeń,
bo mam wrażenie, że ta
wtyczka mogłaby
być zrobiona lepiej, jeżeli chodzi o
interfejs, ja na przykład
zmieniając pewne ustawienia tej wtyczki
kompletnie nie wiedziałem, co zmieniam,
czy wybieram jakiś
właściwy profil,
czy
robię to,
co powinienem, czy przestawiam
jakieś opcje, czy też nie
przestawiam opcji, no
to bardzo dziwnie się
to wszystko zachowywało,
natomiast
być może osoby
z różnymi niepełnosprawnościami,
niekoniecznie będące całkowicie
niewidome, a na przykład
chociażby osoby starsze,
bo też tam jest taki profil, właśnie
dla osób starszych, zyskają
więcej na tej
wtyczce, no której zadaniem
jest właśnie takie dość
szybkie dostosowanie
preferencji,
chociażby albo można
sobie powłączać
i pozmieniać te konkretne ustawienia,
a można też wybrać
zdefiniowany profil
i ten profil po prostu nam
pomoże w korzystaniu
z internetu, także
taka wtyczka, przypominam
TD Accessibility Adapter
do pobrania
z repozytorium
wtyczek dla Google Chroma,
ale tak jak mówię, nie tylko
dla Chroma, dla wszystkich przeglądarek
opartych na Chromium,
sprawdzone na Brave’ie,
zadziałało jedna tylko rzecz,
po zainstalowaniu tej wtyczki
należy ją sobie jeszcze
przypiąć do
paska rozszerzeń, żeby
mieć do niej po prostu
szybki dostęp,
później można tam sobie jeszcze
na przykład dodawać
listę wykluczonych stron, na których
ta wtyczka ma nie działać i tak dalej,
i tak dalej, zachęcam do testów,
jeżeli macie taką ochotę
i czujecie, że taka wtyczka
może być Wam do czegoś
przydatna. A teraz
temat, którym
zajął się już jakiś czas
temu Patryk,
dzwoniąc do nas, a teraz
będzie go kontynuował Piotr,
nowości w grach, co tam Piotrze
ciekawego? Całkiem sporo,
no wrzesień, bo
tutaj mówimy o tym, co się generalnie działo,
wrześniu był bardzo, takim miesiącem, w którym
bardzo dużo się działo, mówiliśmy trochę
o tym na bieżąco w Tyflop
przeglądach, na przykład był Mortal Kombat, oczywiście
też parę innych rzeczy
się pojawiło, ale i tak przez ostatnie
dwa tygodnie jeszcze dużo się zdążyło
pojawić więcej,
no i tutaj szykują
się kolejne duże nowości, tak jak mówiliśmy
o Forzie, ale właśnie
pojawiło się, jak co
miesiąc, zestawienie nowości na portalu
alio.games.net
i co tam znajdziemy ciekawego?
No oczywiście Mortal Kombat,
o którym już wspominaliśmy w poprzednich
Tyflop przeglądach, więc jeśli chcecie więcej
dowiecie się jak z dostępnością tej gry,
to możecie sobie tam zajrzeć, tylko
powiem, że jest bardzo fajnie, bardzo dobrze.
A następnie
mamy
grę Nine Tail Okitsune
Tale, to jest
gra też dla widzących
dostępna na wszystkich platformach
i to jest
RPG, to jest RPG
w którym gramy
gramy liskiem,
który musi uporać
się z jakimiś innymi rzeczami,
które dzieją się w jego
wiosce.
Ktoś lub coś wypuścił
jakieś złe duchy
i po prostu musimy je wszystkie pokonać
no i dowiedzieć się co się właściwie
stało. To gra jest osadzona
gdzieś w klimatach mitologii
japońskiej, no bo w Japonii faktycznie
w ich mitach te
dziewięcioogonowe lisy często
występują, my tutaj właśnie takim
takim liskiem właśnie gramy.
Gra ma taki
taki spokojny klimat,
tutaj autorzy piszą, że właśnie gra
jest dla tych, którzy wolą
bardziej skupiać się na fabule
niż rozgrywce, co nie znaczy, że tam nie ma takich
typowych elementów RPG, bo musimy
gdzieś chodzić, pokonywać przeciwników,
zdobywać nowe umiejętności
i kilka osób
z chińskiej bodajże społeczności
niewidomych graczy
stworzyło mod dostępnościowy do
tej gry, no bo co się okazało gra jest
stworzona w jakimś silniku, który
bazuje na technologiach webowych,
to jakoś nie było bardzo zabezpieczone, dzięki czemu
dużo rzeczy czytnik
ekranu już czytał, no a tam jeszcze
pododawali kilka dodatkowych dźwięków,
trochę ARRI, żeby rzeczy były czytane
automatycznie, no i dzięki temu mamy kolejną
grę, którą możemy sobie ściągnąć.
Jest dostępna wersja demo,
pełna wersja około
50 zł kosztuje na Steamie,
ale ten mod też
z wersją demo działa, więc jeśli
nie chcecie od razu tutaj pełnej wersji kupować, to nie
trzeba, możecie sobie sprawdzić jak
ta gra wygląda
zanim się
ewentualnie na nią
zdecydujecie.
Następnie mamy grę
Contact on All Sides
i to jest taka
typowa dwuwymiarowa strzelanka.
To jest taki typ gry, który
swojego czasu był bardzo popularny
u nas, było dużo takich gier.
Było Scrolling Battles,
był Ultra Power, to są takie gry,
w których chodzimy generalnie
lewo-prawo, to jest taki side-scroller
i możemy zdobywać różne bronie
i generalnie
walczymy z innymi graczami.
Pojawiła się kolejna taka gra,
co ciekawe, ta gra powstała
w języku Rust, a nie BGT
tak jak poprzednie, więc powinna działać
trochę lepiej.
Mamy nowy kod
źródłowy, bo tam też różne rzeczy działy się
jeśli chodzi o kod tych poprzednich gier,
ale dzięki temu też, że to jest inny
język, inne biblioteki
to powinno działać szybciej.
I tu za tym idzie, gra nie jest dostępna
wyłącznie na Windowsie,
bo jest też wersja na Linuxa
i autorzy też obiecują, że prędzej czy później powinno
też się coś dla
użytkowników Maców pojawić, więc
jeśli Was takie klimaty
interesują, no to warto się tą grą
zainteresować, ona jest dostępna
za darmo,
więc możecie sobie ją po prostu
ściągnąć. Na razie na Windowsie
lub Linuxie, no i zobaczymy
czy też za jakiś czas nie pokaże się
wersja na Maca.
Następnie coś
dla użytkowników
iPhone’ów, Pro Wrestling Manager
2024. No i jak
tutaj się można domyślić,
gra, w której wcielamy się w
menadżera własnej federacji
wrestlingowej, więc możemy
sobie taką organizację od podstaw
tworzyć, a potem po prostu
zatrudniamy
trenerów, zatrudniamy oczywiście
zapaśników, którzy
będą dla nas walczyć. Możemy im
różne historie
tworzyć, no bo wiadomo takie
zapasy
tak często, zwłaszcza w Stanach Zjednoczonych, no to
jest też połowa to są same walki,
a druga połowa to są gdzieś jakieś fabuły,
jakieś historie, które się
wydobywają między
osobami w danych
organizacjach, więc tutaj jeśli
interesują Was zapasy,
czy właśnie tego typu sporty,
no to możecie sobie
tą aplikację ściągnąć. Tam też
możemy sobie importować
zawartość stworzoną przez
użytkowników, dzięki czemu
mimo to, że no oficjalnie
autor nie ma praw do
licencji jakichś takich znanych organizacji,
no to fani tej gry
sobie takie organizacje
już potworzyli, więc jeśli chcielibyśmy zagrać
prawdziwymi zapaśnikami,
którzy naprawdę istnieją prawdziwą jakąś organizacją,
to da się to zrobić, możemy
sobie po prostu z internetu
takie rzeczy ściągnąć
i sobie pograć.
Autor tej gry wie o
VoiceOverze, dba o dostępność, aplikacja
jest w pełni dostępna,
no i raczej ta dostępność nie
powinna się popsuć w aktualizacjach, no bo
tutaj cały czas jest
po prostu
o to zadbane.
Następnie mamy
Advanced Wars Days of Ruin, to jest
gra, o której wspominałem
dwa tygodnie temu, to jest
wersja audio
gry stworzonej
na konsolę Nintendo,
takiej gry strategicznej, w której
dowodzimy żołnierzami,
którzy muszą walczyć ze sobą.
Od tego czasu, kiedy ja o tej grze
wspominałem, pojawiło się całkiem sporo
aktualizacji, bo na początku
tryb kampanii na przykład miał
tylko dwa rozdziały zrobione,
teraz już ma ich sześć, no i też
pojawiło się więcej map
w trybie rozgrywki otwartej, więc
jeśli Was takie
szukacie takiej gry,
albo może graliście kiedyś w tą
serię Advanced Wars na Gameboyach
czy na Nintendo DS,
no to możecie
teraz sobie zobaczyć, jak ta gra wyglądała
na własnej
skórze, tak? Możemy sobie ściągnąć wersję audio
i wszystkie mechaniki
z tej pełnej wersji,
powiedzmy to nazwijmy, na konsolę Nintendo
zostały gdzieś przeniesione do wersji audio,
więc myślę, że warto
się zainteresować, no taka kolejna gra
dla widzących, która stała się
poniekąd dla nas
dostępna.
Następnie mamy grę, o której
wspominał Patryk,
Scizzy Push, czyli
właśnie gra, klon
tak zwanego Sokobana.
Sokoban to jest bodajże
gra, która dziś wywodzi się z Japonii
i jej zadanie to właśnie takie
puzzle, w których
musimy naszą postacią w odpowiedni
sposób przesuwać
tam bodajże jest głaz
chyba, żeby wpadł do
dziury. No i oczywiście to jest odtrudnione
tyle, że gdzieś tam mamy jakieś przeszkody
na planszy, więc musimy odpowiednio
tym głazem manipulować, żeby
on w odpowiednie miejsce
trafił. Swojego czasu pamiętam była też
na Iphona dostępna
wersja tej gry, to się chyba Robo I
nazywało. No a teraz pojawiła się
wersja na komputery,
wersja na wszystkie platformy tak naprawdę,
bo jest i na Windowsie, i na Macu, i
na Linuxie. To nie jest gra
na niewidomek. Mamy tutaj też grafikę,
taką retro, nawet tutaj jest napisane
jednobitową, więc takie bardzo
pewnie rozpikselowane
obrazy. Natomiast
z najnowszej aktualizacji autor
dał pełne udźwiękowienie na
wszystkich systemach. To używa
głosów wbudowanych w
nasz komputer, a nie screenreadera, no bo
tylko na to pozwala silnik. Natomiast
ta dostępność pozwala nam
zrobić wszystko, no bo oczywiście
jesteśmy informowani o tym,
kiedy ruszamy naszą postacią,
ale też mamy skróty, które pozwalają
nam po prostu rozejrzeć się po planszy
bez wykonywania ruchów, więc jeśli
chcemy sobie rozplanować rozgrywkę,
zobaczyć gdzie jest głaz, gdzie
jesteśmy, gdzie jest cel,
do którego musimy dotrzeć, no to możemy
sobie to zrobić. Też
rozgrywka jest o tyle utrudniona, że
w późniejszych poziomach pojawiają się
inne przeszkody. Czasami mamy kilka
głazów, czasami mamy jakieś rzeki,
które nam mogą ten głaz porwać, jakiś
lód, więc rozgrywka z czasem
robi się coraz bardziej
skomplikowana. Gra ma ponad
70 poziomów, więc
jeśli interesują Was takie
właśnie gry logiczne,
takie puzzle, no to na pewno jest
co robić. Nie jest jakoś bardzo droga, bo
bodajże około 12 złotych kosztuje
na Steamie.
No i można w nią grać zarówno
z klawiatury, czy
spada, więc
warto się zainteresować.
Tutaj mamy przykład kolejnego dewelopera,
który dodał
funkcję
dostępności do
swojej gry.
Następnie mamy jedną z kilku gier
18+, jak tutaj
zaznaczyłem. Empire of Corruption.
To jest też kolejna
gra RPG, w której
możemy różne rzeczy podejmować.
Oczywiście
przechodzimy fabułę, musimy
pokonywać przeciwników,
mamy statystyki itd., natomiast
to jest taka gra
w takim
dosyć brutalnym świecie, gdzie
mamy elementy erotyczne, więc
gdzieś tam możemy pewnie
wchodzić w stosunki z postaciami,
że tak powiem, m.in.
Chociaż tutaj jest powiedziane,
ta osoba, która tę grę znalazła, że tutaj
jest większy nacisk na fabułę, a nie na
tę erotykę, natomiast te elementy
erotyczne gdzieś tam się pojawiają i gdzieś
się przeplatają. Nawet można
ponoć jednym sposobem, w jakim
możemy gdzieś przechodzić tę grę, zdobywać
pieniądze, możemy zostać prostytutką,
więc tak
to
wygląda, natomiast gra jest
darmowa i działa
w przeglądarce, więc można ją
grać na
każdym systemie,
jeśli kogoś coś takiego interesuje.
Następnie mamy
grę karcianą, gra nazywa się
Explosion.
Co musimy w tej grze zrobić?
Musimy dojść do 1000 punktów,
gramy taką normalną
talią kart, gdzie mamy
karty od 0 do 9, które nam dają
odpowiednią liczbę punktów.
Mamy plusa,
który pozwala nam podwoić punkty
i to gra
troszeczkę wygląda jak
na przykład
gra kościana Pig, jak ktoś
na przykład grał w Dice World, gdzie po prostu
dobieramy kolejne karty
i w pewnym momencie po prostu musimy
nasze punkty zabankować,
bo jeśli tego nie zrobimy,
to prędzej czy później możemy
dobrać bombę,
jest to tutaj nazwa Explosion, no i wtedy wszystkie
punkty, których jeszcze
nie wrzuciliśmy do
banku tracimy.
Co ciekawe, ta gra jest
dostępna tylko na Maca,
na Maca z procesorem Intel
lub M1 i działa
w terminalu i tutaj jest też powiedziane, autor sugeruje,
że jeśli będziemy grać w tę grę,
no to warto zaopatrzyć się w
terminalowy czytnik ekranu TDSR,
bo voiceover sobie z nim
średnio radzi.
Następnie mamy
następną grę
18+, Deadliest Project
i tutaj generalnie sytuacja wygląda
bardzo podobnie, chociaż tutaj chyba jest jeszcze
większy nacisk na
te elementy erotyczne,
ale tutaj też są jakieś
kwestia
kilku różnoległych światów,
to też są takie elementy trochę fantastyczne,
no i też tutaj możemy
walczyć, tworzyć ekwipunek,
pokonywać przeciwników, albo możemy gdzieś obrać
ścieżkę taką bardziej właśnie
erotyczną i w ten sposób rozwiązywać różne
jakieś konflikty, które
w tej grze się pojawiają.
No są
wszystkie nowości, ale to jeszcze nie koniec,
bo mamy aktualizacje tradycyjnie,
w mody się rozwijają,
Alter Aeon jak zwykle
dostał kilka aktualizacji,
mamy zmiany
w takim miejscu, które się nazywa
Angels Cry,
możemy ulepszać
stronników, których tworzymy
jako nekromanci,
ale też inne
zaklęcia i umiejętności zostały
poprawione, strony pomocy
niektóre zostały też przepisane
i ulepszone.
Podobnie
Classic Six Dragons, tutaj też mamy
jakieś nowe misje w
mieście Paleon,
oraz opcja
usunięcia misji z naszego
dziennika, które już nas nie interesują.
Wzięliśmy jakąś misję, stwierdziliśmy, że nie chcemy
jednak jej przechodzić,
zawala nam lista, to możemy ją sobie
teraz usunąć.
Następnie mamy
grę Warsim, kolejna gra, która często
się u nas pojawia, gra w której wcielamy się
w królestwa innego
i musimy
jakoś tym królestwem rządzić.
Pojawiła się dosyć duża
aktualizacja skupiająca się na
eksploracji, bo
eksploracje już wcześniej mieliśmy, jest kilka
lokacji w grze, do których mogliśmy
zawitać, tam było kilka
takich samych miejsc, które
zawsze były, to m.in.
różne były biblioteki, jakieś stare
inne miasta, w których
mogliśmy albo znaleźć nowych sojuszników, albo
jakieś nowe umiejętności,
no ale dużo rzeczy w grze jest
tworzone losowo
i ta aktualizacja
pozwala nam
eksplorować poza granice
znanego świata, jak to autor napisał,
tutaj będziemy napotykać losowo
generowane zdarzenia. Ile ich jest?
No, mogą być setki, bo
zdarzeń, które zostały zaimplementowane
jest ponad 100 i każdy z nich ma
po 5, po 6 wariacji, więc
no,
moglibyśmy sobie właściwie cały
czas eksplorować i pewnie za każdym razem
będziemy trafiać na jakieś
zupełnie nowe rzeczy, nowe
sytuacje.
Następnie Hearthstone, o Hearthstone
już w sumie mówiliśmy, w poprzednich tych
pojawiła się nowa paczka,
były zmiany
w ustawkach, w tradycyjnym Hearthstone
też są anomalie, oczywiście mod
Hearthstone Access cały czas jest aktualizowany.
Tutaj też o więcej szczegółów
odsyłam was do poprzedniego
Tyflo Przeglądu, bo wtedy mówiłem
o tym, co się zmieniło w Hearthstone
szerzej.
Następnie
Retu, gra od
pana Jeremiego Kaldapskiego,
Aprona, który jest dosyć znany.
Gra, w której zarządzamy
własną wyspą, cały czas się aktualizuje
od twojego wydania.
No i co w tych aktualizacjach?
Pojawiły się
nowe
dźwięki, możemy dostosować
poziom trudności komputera,
możemy
na wyspie zamontować
działka obronne, bo też możemy być
najeżdżani teraz, nowe
typy statków
i
bardziej dokładne opisy
budynków, które możemy postawić, no i
wiele poprawek błędów.
I pełna wersja gry Escape of Norwood
to jest coś, o czym też
jakiś czas temu mówiliśmy, jest taka
gra przygodowa
też z grafiką.
To było wcześniej dostępne jako wersja demo,
teraz już pojawiła się pełna
wersja, to jest zarówno na Windowsie
jak i na Macu, są też wersje mobilne, ale one
nie są dla nas dostępne, więc
tutaj taka uwaga.
No i też
w okazji
pojawiły się aktualizacje w tej grze,
które tą docenność poprawiają, ten
czynnik ekranu, który został
zaimplementowany powinien
po prostu działać
lepiej. Następnie
mamy Sanctuary in Time, kolejna gra
do niego to 18+, z jakiegoś
dużo takich gier
pojawiło się we wrześniu,
która też często się pojawia
w Twyflop przeglądach.
No i tutaj właśnie mamy aktualizację, która się
na tych elementach erotycznych poniekąd
skupia, bo mamy dużo
poprawek
w scenach seksu, które są
w tej grze, ale
też są zmiany
samej rozgrywce, balans gry został
poprawiony i mamy
poprawki dostępności, tutaj też ten czynnik
ekranu, który jest w tej grze został
poprawiony.
I na koniec
inne informacje o Forzie, już
dużo mówiliśmy, natomiast podczas
trwania audycji Brandon
Cole, który konsultował
dostępność tej gry, wrzucił
kilka samouczków
jak właśnie działają te
Blind Driving Assist, czyli te właśnie
te asysty dla niewidomych,
no bo tak jak Patryk mówił, to jest
bardzo trudne na początku, no bo
oczywiście tutaj mamy fizykę, te samochody
zachowują się dużo inaczej niż
na przykład w takiej grze jak
Top Speed, więc jak zaczynamy, to można bardzo łatwo
wypaść się z
trasy. Natomiast
właśnie w współpracy z firmą
Turn 10 Studios, która
Forzę stworzyła,
Brandon Cole właśnie wrzucił na YouTube
dwa samouczki dla osobnich widomek,
jak właśnie z tych funkcji asystujących
korzystać, ja też do
dodatek wrzucę te linki,
więc jak będziecie później zaglądać
do komentarzy, no to
będziecie mogli je znaleźć, kiedy ta gra
już się ukaże, będziecie chcieli
po prostu zobaczyć jak dokładnie się w nią
gra, no to już będziemy mieli
jakąś do tego
dokumentację poniekąd.
I na koniec
zaglądamy do
konkurencji,
bo do Sony,
bo mamy więcej informacji co do
dostępności w grze Marvel Spider-Man 2.
Ja też o tym jakiś czas temu
mówiłem, bo
pojawił się przeciek, w którym dowiedzieliśmy się,
że gra będzie miała czetnik ekranu
i audiodeskrypcję. Teraz już wiemy więcej,
bo już się pojawiło się oficjalne
post na
blogu PlayStation, no i
owszem, to będzie dostępne,
natomiast nie od razu,
bo gra ukaże się 20
października bodajże
i tam już będzie kilka funkcji
dostępności, natomiast właśnie te, które
najbardziej interesowały nas
jak właśnie screen reader,
czy audiodeskrypcję, zostaną
dodane w następnej aktualizacji,
która ukaże się
w grudniu. I też nie jestem
pewny, czy to wystarczy
dla osób zupełnie niewidomych,
żeby tę grę
grać, no bo owszem, no będziemy mieli audiodeskrypcję
dla
scenek i tutaj też będzie do tego
została zatrudniona firma Descriptive Video
Works, która zrobiła to też
dla Last of Us, czy Mortal Kombat’a,
natomiast
no scenki to niecała gra,
także oczywiście też gdzieś skaczemy po budynkach,
musimy gdzieś naszą siecią rzucać,
będzie tam, było w poprzedniej części
jakieś warcie nawigacyjne, ale ono
nie pomagało nam
wszędzie, to jest jedna rzecz, ale druga
też nigdzie na tej stronie nie widziałem
informacji o
żadnych dodatkowych dźwiękach, które mogłyby
nam być potrzebne.
Więc nie wiem, czy te funkcje nie są bardziej skierowane
dla osób widzących,
obym się mylił, bo chętnie bym też sobie w taką grę pograł,
natomiast na razie mam
wątpliwości co do tego, czy
osoby całkiem niewidome
będą w stanie
tego Spidermana sobie
samodzielnie poograć, no ale jak będzie
w praktyce, no będziemy musieli
zobaczyć pewnie dopiero w grudniu, kiedy
ta gra się ukaże
i już te wszystkie funkcje dostępności
łącznie z tym czytnikiem ekranu
będą w niej
dostępne. No i to wszystko
ze świata gier.
No to okej, przechodzimy
teraz dalej, przechodzimy do
kolejnych tematów.
Konkretnie, EBU in Action.
Czwarty odcinek.
Co tam ciekawego, Pablo?
Czwarty odcinek, trzy miesiące minęły, więc wypadałoby, żebyśmy
coś wypuścili, wreszcie, no i jest.
W zeszłym tygodniu się ukazał.
No i jak zwykle, nasze trzy standardowe
części, czyli co nowego w EBU, a w
EBU to się ostatnio dzieje, bo oni bardzo szaleją,
przecież są różne kampanie teraz tam,
bo i
karta niepełnosprawności,
aczkolwiek chyba jeszcze nie została
uwzględniona, bo to też
te różne części są nagrywane w różnym czasie,
ale właśnie też
różne kwestie
odnośnie brajla, odnośnie
różnych kampanii, które robią różne konsultacje
na poziomie
unijnym i nie tylko, także warto się
z tym zapoznać. Takim głównym
tematem, który sobie wybraliśmy na ten odcinek
jest kwestia mediów społecznościowych.
No i naszymi gośćmi byli
Natalia Suárez, która zajmuje się
komunikacją taką zewnętrzną w
Europejskim Forum Osób Niepełnosprawnych
i Wille Laminen,
czyli ekspert cyfryzacji w
Fińskim Związku Niewidomych tym razem.
No i oni nam opowiadają właśnie o tym,
jaką rolę odgrywają media
społecznościowe w lobbowaniu
na rzecz osób z niepełnosprawnościami,
jakie są szanse, jakie są zagrożenia,
jakie są wyzwania
i też jak
sobie radzić albo jakie powinny być podejmowane
działania na poziomie takim
organizacyjnym, jak chodzi
o mowę nienawiści, czyli
powszechnie zwany hejt
i różnego rodzaju mikroagresje,
których osoby z niepełnosprawnościami
doświadczają też w mediach
społecznościowych. No myślę,
że warto posłuchać, bo to są bardzo ciekawe
wypowiedzi. No i na koniec się
łączymy z Irlandią, bo tam
dowiemy się,
co tam słychać właśnie w Irlandii, jakie są działania
podejmowane
przez organizację NCBI,
z której materiałów też
czasem korzystam, dotyczące przeglądów.
No i na przykład
dowiemy się o tym,
że oczywiście aplikacja Soundscape,
która gdzieś tam została też
wydana, też tam gdzieś tam
święci triumfy, natomiast
nie jest ona dostępna
i co w Polsce, a to co jest
dość ciekawe,
w Polsce dostępne również nie będzie, ale może
kiedyś z tego jakoś tam na poziomie
organizacyjnym Polska skorzysta,
zależy jak się tutaj
organizacje nasze odniosą.
Jest coś, co się
nazywa Wayfinding Center
i to jest coś takiego, takie centrum, taki ośrodek,
który powstał w Dublinie,
który ma się zajmować kwestią
dostępności transportu. No i jak to ma działać?
No oczywiście różnego rodzaju konsultacje,
projekty odnośnie
dostępnego transportu,
jakieś szkolenia,
zwiększanie świadomości, ale to co jest tam najciekawsze,
to jest to, że oni
sobie założyli takie miejsce,
do którego można przyjść
i tam
są różne egzemplarze
środków transportu. Jest
autobus, jest tramwaj,
jest pociąg, jest samolot.
Po co oni coś takiego
robią? No z jednej strony
właśnie trochę tak jak ta ścieżka
w Sosnowcu, czyli z jednej strony
po to, żeby niewidomi mogli sobie na takich samolotach,
pociągach i tak dalej przećwiczyć
różne procedury,
no wsiadania, wysiadania, przechodzenia
gdzieś, jak przyjąć
asystę, jak z tej asysty korzystać,
jak być prowadzonym, jak jej
udzielać, jak ich udzielać instrukcji i tak dalej.
Z drugiej strony,
żeby osoby widzące, pracujące
w różnych przedsiębiorstwach transportowych,
mogły się tam uczyć,
jak obsługiwać niewidomego
pasażera. Na realnym
przykładzie takich prawdziwych pojazdów,
żeby można było sobie wejść do samolotu,
przećwiczyć ewakuacyjne wyjścia, no bo
nie są ewakuacje, ale
wyjścia ewakuacyjne,
jakieś procedury, właśnie gdzieś tam
podejścia do konkretnych drzwi,
jak zadbać o to, żeby ustąpione było
miejsce dla osoby z niepełnosprawnością,
jak właśnie nawiązywać kontakt
z kierowcą, gdzie tam nacisnąć, żeby
wyrazić chęć zatrzymania,
gdzie tam, jakie zapowiedzi. Każdy po prostu
scenariusz taki typowy, który może
się wydarzyć w transporcie, żeby
został przećwiczony. Ja myślę, że z tym podcastem
naprawdę warto się zapoznać,
bo jest poruszonych dużo bardzo
ciekawych tematów i jak zwykle
no, ciekawe rzeczy
są powiedziane. A następny odcinek
już za trzy miesiące.
No to czasu, a czasu,
żeby sobie posłuchać tego odcinka.
Bez wątpienia. Jest?
Tak. No i transkrypt też jest, gdyby ktoś
chciał czytać, a nie słuchać.
Tak jest. Albo sobie potłumaczyć.
Też można i zdecydowanie
prościej. Chociaż o
tłumaczeniu
mowy, no to jeszcze dziś
będzie w technikaliach. Ale nie
uprzedzajmy faktów, teraz przenieśmy
się do kolejnego tematu,
konkretnie tematu, który ma
nam do zaoferowania
Fundacja Prowadnica.
A Fundacja Prowadnica ma dla
nas warsztaty
stworzenia dokumentów w języku
latech. Jeżeli
ktoś zastanawia się, co to jest
latech, to jest taki
język, w którym
możemy opisywać
strukturę nawet
bardzo bardzo złożonych
i skomplikowanych dokumentów. Latech
to nie jest język, który
został przygotowany z myślą
o osobach niewidomych, ale
może być dla nich
bardzo dużym ułatwieniem.
Dlaczego? Dlatego, że
pliki w latechu to są zwykłe
tak naprawdę pliki tekstowe.
Takim prostym,
zdecydowanie
prostszym modelem
latecha to może być powiedzmy
Markdown, o którym już tu kiedyś mówiliśmy.
Ale Markdown, no pozwala nam
na tworzenie
takich bardzo prostych struktur,
jakieś nagłówki, tabele, listy.
A jeżeli chodzi
o latecha, no to możemy tu
tworzyć naprawdę bardzo skomplikowane
dokumenty, możemy
tworzyć nawet
publikacje naukowe,
możemy tworzyć książki.
Matematyka
i inne nauki
ścisłe również nie
powinny stanowić tu
dla nas żadnego problemu, jeżeli
chodzi o zapis, chociażby
na przykład różnego rodzaju równania,
które no w Wordzie
teoretycznie da się zapisać, jest ten cały
edytor równań, natomiast
jest z tym dużo problemów.
Zresztą
na stronie wydarzenia
także jest
taka informacja, z którą ja się
niestety muszę zgodzić, że
nawet i w przypadku
takich dość prostych dokumentów,
to nie widząc i posługując się
chociażby Wordem
i czytnikiem ekranu
możemy mieć w bardzo
wielu przypadkach mylne
wrażenie odnośnie sformatowania
tego naszego dokumentu, bo nam
się może wydawać, że zrobiliśmy coś
dobrze i mówię tu zwłaszcza o takiej
graficznej formie
rozmieszczenia
elementów w dokumencie,
chociażby jeżeli piszemy na przykład
jakieś pismo, jakiś list,
gdzie te zasady
są określone, że coś musi być po
lewej, coś musi być po prawej, coś na środku
i
teoretycznie wydaje nam się, że
to wszystko jest dobrze porozmieszczane,
praktyka niestety pokazuje
później co innego,
że ten tekst nam się gdzieś
rozjechał, że to formatowanie
jest nie takie, jakie powinno być
i tu z pomocą
może nam przyjść Latech, który
pozwala na tworzenie
zarówno takich prostych, jak i
naprawdę bardzo skomplikowanych dokumentów.
Oczywiście to jest cały język,
którego się trzeba nauczyć, ale
właśnie w tym ma nam pomóc
Fundacja Prowadnica,
konkretnie Dawid Pieper, który będzie
prowadził te zajęcia
z tworzenia dokumentów
w Latechu i będą
one się odbywały w dwóch
formułach, będzie
formuła stacjonarna
i będzie też formuła zdalna.
Jeżeli chodzi
o te stacjonarne
warsztaty, to
będą one się odbywały w Szkole
Podstawowej dla Niewidomych
w Laskach przy ulicy
Brzozowej 75
i to się będzie działo
24 października
bieżącego
roku godzina
10,
więc tak to jest.
To jeżeli ktoś
albo się w Laskach uczy, albo
ma blisko, to może się wybrać
właśnie tam i
wziąć udział stacjonarnie,
natomiast jeżeli komuś nie
po drodze, to
jest jeszcze druga opcja.
Mamy warsztaty
online i te
warsztaty będą się
odbywały 26
października, także
bieżącego roku, od godziny
12 do 14,
ale tu jest taki dopisek, lub
dłużej, w zależności od
potrzeb.
To będzie sesja
wykładowo-warsztatowa, otwarta
dla wszystkich
zapisanych. Link do
spotkania zostanie przesłany
wcześniej i
jeżeli chodzi o ilość miejsc,
no to teoretycznie będzie
otwarta dla wszystkich, natomiast będzie tutaj
pewien limit, konkretnie
100 osób będzie mogło wziąć udział w tym
spotkaniu
ze względu na ograniczoną
ilość miejsc,
no dlatego, że po prostu
podejrzewam, tak
sądzę, że to może być kwestia
licencji
na Zooma, bo przypuszczam,
nie ma tu wprawdzie informacji
za pomocą jakiego narzędzia
będzie odbywała się ta sesja,
natomiast tak mi wygląda na
Zooma, na licencję Zooma,
która w tej
płatnej wersji podstawowej,
ale jednak płatnej, ma limit
100 użytkowników.
Wymagany jest
mikrofon, wymagana jest też
kamera, przynajmniej taka jest tu
informacja, że
byłaby potrzebna
do brania udziału w tych
warsztatach. Co zrobić,
żeby na warsztaty się
zapisać? Wypełnić formularz
należy, który znajduje się
na stronie internetowej
Fundacji Prowadnica, link
znajdziecie w komentarzu
pod naszą audycją do
całego artykułu
opisującego warsztaty
i właśnie na stronie tego
artykułu znajduje się także formularz.
Jest on bardzo prosty,
wystarczy
wpisać swoje imię,
nazwisko, adres
poczty elektronicznej,
tu wybieramy sobie też
status, bo to jest
teoretycznie dla uczniów, nauczycieli
i dla innych
zainteresowanych,
więc tu sobie
po prostu wybieramy jaki mamy status,
czy jesteśmy uczniem, nauczycielem,
tyflopedagogiem
lub inną osobą kształcącą, osobę niewidomą
albo inna osoba
zainteresowana i tu sobie to wybieramy.
Następnie
czy preferujesz
uczestnictwo w sesji stacjonarnej
czy online, sobie
wybieramy sesja stacjonarna
lub sesja online.
No i jeszcze tutaj taka
informacja, skąd dowiedziałeś się
o wydarzeniu, należy
zaznaczyć odpowiednie
zgody związane z przetwarzaniem
danych osobowych i
kliknąć przycisk wyślij.
I to jest tyle, formularz jest bardzo
prosty, więc nikomu nie powinien
nastręczać jakichś
trudności. Ja powiem szczerze,
zapisałem się, z miłą chęcią
pouczę się trochę tego
latecha, nigdy jakoś nie
miałem na to czasu,
żeby się tym zająć, a jak
jest okazja, żeby się trochę
dowiedzieć i
nie odkrywać samodzielnie
wszystkiego, to z miłą chęcią skorzystam
i myślę, że naprawdę wiele
osób może
na tym zyskać, może skorzystać.
Tym bardziej też
w kontekście tego, o czym mówiliśmy,
jeżeli chodzi
o tyfloprzegląd
kilka tygodni temu,
że narzędzie Pandoc,
za pomocą którego można
konwertować pliki latecha
chociażby do PDF-a, także
wspiera rozwiązania
dostępnościowe w zakresie tych
PDF-ów, bo kiedyś, i to powiem
szczerze, też mnie tak zniechęcało trochę
do nauki latecha,
to nie było tak
fajnie zawsze.
Niestety, kiedyś, lata temu
PDF-y
wypluwane przez
narzędzia do
tworzenia dokumentów w formacie
latech, no, były
bardzo złe.
One nie były złe, one były bardzo złe.
Je się bardzo źle czytało. Niewidomy
mógł naprawdę fajnie poskładać
ten dokument, bo
to wszystko było w plikach tekstowych
i tu nie mieliśmy najmniejszego
problemu z tym, ale plik wynikowy czytało
się po prostu koszmarnie
i na szczęście
to już od pewnego czasu
zaczęło się poprawiać, więc
też i taki plik wynikowy, który
my przygotujemy,
stworzymy dla osób widzących przede wszystkim,
no to my też będziemy w stanie
bez większego problemu przeczytać.
Zatem, jeżeli
macie ochotę pouczyć się latecha, to
bardzo serdecznie Was na te warsztaty
zapraszamy, a teraz
przechodzimy do kolejnych
informacji,
tym razem informacji natury
drobnej. Drobne newsy od
Pawła i od Piotra.
No właśnie
i tutaj jak zwykle nazbierało się całkiem
sporo drobnych newsów, zaczynając
od Be My AI, czyli tematu,
który wraca jak bumerang.
Na początku była zamknięta beta,
potem była trochę ta beta
rozszerzana, natomiast
w międzyczasie
firma OpenAI szerzej udostępniła
te możliwości rozpoznawania zdjęć
przez czat GPT, o czym
będziemy szerzej mówić później,
natomiast efekt uboczny był tego, że
firma Be My Eyes mogła w końcu
rozszerzyć ten dostęp dla
właściwie wszystkich, a przynajmniej na razie dla
wszystkich użytkowników iPhone’ów.
Więc w zeszłym tygodniu już
rozpoczął się proces udostępniania
Be My AI
dla wszystkich użytkowników
aplikacji Be My Eyes na
iPhone’a. Nie trzeba już się zapisywać
na listę oczekujących, po prostu
możemy sobie aplikację ściągnąć,
no i zaglądamy sobie na
zakładkę Be My AI, która jest tej
aplikacji, no i prędzej czy później
po prostu zobaczymy
dostęp do tego asystenta, będzie dla nas
oblogowany i będziemy mogli
robić zdjęcia czy wysyłać je
z innych aplikacji.
Tutaj firma pisze, że
ten dostęp będzie stopniowo
rozszerzany dla wszystkich użytkowników przez
następne kilka tygodni,
więc jeśli jeszcze nie zapisaliście się,
albo może już zapisaliście się, ale
jakoś ostatnio nie patrzyliście, czy dostaliście
do tego dostęp, no to
warto to zrobić jeszcze raz, bo
może już to zostało dla was odblokowane.
A jeśli chodzi o
użytkowników Androida, no to tutaj
warto też sobie aplikację ściągnąć
i jeśli nie jesteście jeszcze na listie,
bo tam jeszcze trzeba się na listę
zapisać, no to warto to zrobić,
bo tutaj też
zaczynają się testy. Na razie to będzie
zamknięta beta, ale też będzie stopniowo
rozszerzana i w ciągu następnych
kilku miesięcy, tak samo jak
to jest teraz na iOS,
też użytkownicy Androida będą mieli
szerszy dostęp do
tego w tak zwanej otwartej
becie, tak jak jest to na iPhonie.
Dlaczego to jest otwarta beta? No dlatego, że
technologia cały czas się rozwija
i dynamicznie zmienia, o czym
mieliście prawo już się przekonać, bo
przez ostatnie kilka audycji
mówiliśmy, co się z tą technologią działo,
rzeczy były raz czytane, raz
nie, raz zblokowane,
raz nie, no i tutaj takie rzeczy
jeszcze mogą czasami się zdarzać, natomiast
przynajmniej jeśli
chodzi o rozpoznawanie twarzy i
osób, no to myślę, że sytuacja na
ten moment się ustabilizowała,
o tym też powiemy troszkę szerzej
później, co na ten temat miała
do powiedzenia firma OpenAI,
no ale do czego to możemy
wykorzystać? No do wielu rzeczy, do
rozpoznawania,
no tutaj mamy kilka
informacji,
sprawdzanie informacji na pakowanie z
jedzeniem, no z tym może być różnie z tekstem,
ale jakieś rozpoznawanie zdjęć,
rozpoznawanie przycisków
na
zmywarkach, pralkach i innych
urządzeniach, no generalnie
działa, natomiast musimy mieć na
uwadze, że czasami ten asystent
może się pomylić.
Organizowanie szafy z ubraniami,
czytanie instrukcji,
jak skonfigurować
nowy laptop czy smartfon,
czytanie komiksów czy magazynów,
szczerze mówiąc nie próbowałem na komiksach, a w sumie powinienem,
tak swoją drogą, może to był
sposób na czytanie magii, w dostępny
sposób, dobra, ale to już takie
dygresje.
Znalezienie czegoś, co
nam upadło na podłogę, szczerze mówiąc tego też
nie próbowałem, ale no w sumie
może by się dało, jeśli kamera
uchwyci.
Rozpoznawanie memów z Facebooka,
Instagrama czy Mastodona.
Zdjęcia
jakichś znanych
obrazów czy rzeźb, no
zastosowanie z wiary, też sami podsyłaliście
nam co robiliście z tym asystentem, no i
jeśli jeszcze go nie testowaliście,
a macie iPhona, no to ściągnijcie
sobie aplikację i możecie teraz
śmiało potestować, a jeśli macie Androida,
no to też i tak ściągnijcie
aplikację i zapiszcie się na listę, bo pewnie
niebawem to was to
też dotrze.
Następnie
ProtonCaptcha,
to jest rozwiązanie od,
no właśnie takie rozwiązanie Captcha,
domowe od firmy
Proton. Możecie Protona
kojarzyć z takiej usługi ProtonMail,
czyli to jest taka bardzo
skrzynka pocztowa, która
daje nacisk na naszą
prywatność, oni też stworzyli w międzyczasie
kilka innych rzeczy, VPNa też swojego
mają, no i
jakiś czas temu
użytkownicy, którzy chcieli
założyć tam konto, albo chyba nawet się zalogować
z tego co pamiętam,
zaczęli właśnie je napotykać na Captcha.
Przez długi czas to było to
rozwiązanie hCaptcha, które
nie zawsze chce działać dla nas,
rozwiązanie jak użytkownicy nie widzą i mają
je obchodzić, no to działa
różnie, no i tam musimy tej firmie podać
swój adres e-mail, więc
z prywatnością to ma niestety mało
wspólnego.
No i pewnie po części przez to, że
właśnie użytkownicy gdzieś do Protona pisali,
ja wiem, że trochę osób pisało do nich,
zaczęli szukać jakiegoś rozwiązania,
więc stworzyli
własną Captcha, dzięki której nasze dane
też nie są gdzieś wysyłane do Stanów Zjednoczonych,
jak to było w przypadku hCaptcha, zostają
w Europie, bo firma
jest ze Szwajcarii,
bo także.
No i ta Captcha jest też
bardziej efektywna,
bardziej bezpieczna
i bardziej dostępna.
Dla osób widzących to nawet nie są
takie typowe Captcha, gdzie przepisujemy
kody, czy identyfikujemy
jakieś rzeczy na obrazkach, tylko to są bardziej takie
gry, jakieś puzzle, układanie jakichś puzzle
i takie rzeczy, więc tutaj
dla nas to by się zapaliła teraz lampka oszczegawcza.
Na szczęście dla nas też
znaleziono rozwiązanie i to rozwiązanie
naprawdę fajne, bo
firma zastosowała
tak zwany system
Proof of Work, czyli kiedy
zaznaczymy pole, że nie jesteśmy robotem
i że
jesteśmy osobą niewidomą, nie możemy
rozwiązać tego
zadania wizualnego,
to do naszego komputera zostanie przekazane
kilka obliczeń, które
nasz komputer musi wykonać.
To nie potrwa długo, to nie jest tak, że
nasz komputer zamówi, to może potrwać
maksymalnie, nie wiem, sekundę, dwie, trzy
no i potem automatycznie
będziemy zweryfikowani.
I to jest, wszystko to dla nas będzie działało
bardzo podobnie jak na przykład
to rozwiązanie googlowskie.
A jak to zabezpiecza przed
spamem? No dlatego, że
my jako
korzystamy z jednego
urządzenia, to nam właśnie zajmie kilka sekund
i możemy korzystać z tego dalej.
Na taki spambot, który
chciałby takich zapytań wysłać
kilka, kilkaset
albo nawet kilka tysięcy na
sekundę, no to gdyby
przy każdym takim zapytaniu musiał
wykonywać jakieś skomplikowane
operacje matematyczne, a ten system
będzie się automatycznie dostosowywał i
wymagał ich więcej z czasem
kiedy serwery były jakoś
bardziej atakowane, no to
już takie fajne dla spamerów
nie jest, tak? No bo
cała operacja diametralnie nagle
zaczyna zwalniać. Więc w ten sposób
działa to rozwiązanie. Na razie
ono jest dostępne właśnie
w usługach tej firmy,
czyli właśnie Proton Mail, Proton
VPN,
ale planowo kiedyś też
to będzie udostępniane innym firmom, tam też
jest link do kontaktu, jakby
jakaś firma chciała się tym zainteresować.
Miejmy nadzieję, że to będzie gdzieś
szerzej udostępniane, no i żeby stało się
to rozwiązanie bardziej popularne, no bo
faktycznie w porównaniu do tego,
co nam oferuje Hackaptcha,
to wygląda zdecydowanie lepiej
i bardziej dostępnie.
Następnie,
a propos poprawek dostępności,
przechodzimy do Relita.
O Relicie też wiele wspominaliśmy.
Wiele
aplikacji zewnętrznych na Relita
zostało ubite.
Niestety, przez firmę
no i społeczność niewidomych zaczęła
zwracać uwagę, nie tylko niewidomych,
zresztą, że oficjalna aplikacja ma
spore problemy dostępnościowe
no i jakieś czas temu firma obiecywała,
że jakieś poprawki zaczną
się pojawiać, no i faktycznie
coś się zaczyna dziać
i jest jeszcze niestety dużo sekcji,
które nie są jeszcze fajnie
dostępne, powiedzmy
te główne zakładki, ta główna zakładka strony głównej
działa fajnie, z pozostałymi
jest gorzej, natomiast samo
czytanie wątków
i postów zostało zrobione
naprawdę bardzo fajnie,
bo mamy teraz,
każdy post to jest
jeden flik, no chyba, że trafimy na reklamę
albo jakieś rekomendowane społeczności,
które niestety tak jak na YouTubie czy na innych
tego typu portalach nam będą co jakiś czas
przerywać czytanie,
no ale tak, właśnie post to jest jedno fliknięcie,
a pozostałe przyciski
takie jak zagłosuj na tak, na nie,
przejść do autora postu,
otwórz więcej opcji, to są czynności.
Kiedy wejdziemy sobie do jakiegoś
postu, no to tutaj
znów każdy komentarz to jest
jeden element
i znów tutaj mamy,
to jest też czytane całkiem fajnie,
bardzo tak skrótowo
te komunikaty nie są jakieś przesadnie długie,
no i znów tutaj na czynnościach
mamy ponownie wszystkie
potrzebne czynności, zagłosuj na tak, na nie,
zobacz autora, odpowiedz i tak dalej
i tak dalej, natomiast tutaj
zostało zrobione coś jeszcze fajnego,
a mianowicie
mamy też osobne,
dyrygowane pokrętło do wątków,
no bo jak wiecie na Reddit’ie można
na posty odpowiadać i te komentarze będą się
zagnieżdżać, więc jeśli wejdziemy sobie, nie wiem,
pięć, sześć poziomów
w głąb jakiejś
konwersacji, no i potem stwierdzimy, że
chcielibyśmy ją przeskoczyć, przejść dalej,
no to było to
wcześniej ciężko zrobić, to nawet
Zotopia, znaczy Zotopia ma funkcję
zwiń komentarz na czynnościach
i możemy w ten sposób to zrobić,
natomiast tutaj to zostało zrobione
jeszcze lepiej,
bo pojawi się nam
dyrygowane pokrętło
wątki, więc sobie przesuwamy to
pokrętło na wątki, no i wtedy
możemy gestem góra-dół
sobie przechodzić właśnie po postach
tak zwanego pierwszego poziomu i sobie to
czytać, no fajnie, że
coś tutaj się zaczyna dziać, no jest
dużo zakładek, które musi
zostać poprawione,
jakiś niesmak pozostał po tym, co
Relic zrobił, no i
też problem jest na innych systemach,
bo aplikacja na Androidzie,
która wcześniej ponoć działała lepiej,
działa
teraz gorzej,
nie pamiętam teraz co się popsuło, ale coś tam się
popsuło i tam niestety ta dostępność zamiast
się poprawiać jeszcze się pogarsza, więc
z jednej strony jest fajnie,
z drugiej strony jeszcze jest
dużo, dużo niestety
do zrobienia jeśli chodzi o
dostępność na Relicie.
Co mamy dalej?
Mamy iOS-a 17.1, tutaj też
ponikonpatryk temat poruszył
i wspomniał o tym, że
czytanie powiadomień
zostało o ponikon poprawione, ja się z tym muszę zgodzić,
tak samo zresztą zauważył Jonathan Mosen,
to było w pierwszej betcie,
pojawiła się w międzyczasie
beta druga wczoraj
i tutaj została poprawiona jeszcze jedna rzecz,
mianowicie kiedy mamy włączone
czytanie albo liczby, albo
zawartości powiadomień na ekranie blokady,
to w wersji 17.0
iOS-a to
powodowało, że kiedy
dotykaliśmy ekran, żeby go obudzić
i mieliśmy na nim jakieś
powiadomienia, no to
VoiceOver nam nie czytał godziny, tego nam po prostu
mówił, nie wiem, 2-3 powiadomienia
i tak dalej, no i
nie słyszeliśmy tej godziny, co
mnie na przykład bardzo irytowało,
to zaczęło się to obejść poprzez wyłączenie
czytania powiadomień, albo ich liczby,
no ale wtedy nie słyszeliśmy
tej liczby, a wcześniej to
działo tak, że słyszeliśmy najpierw godzinę,
a potem liczbę powiadomień.
To w najnowszej betcie
zostało poprawione i teraz działa
bardzo fajnie, no bo
będziemy zawsze słyszeć najpierw godzinę,
no a potem zależnie od tego, co
mamy włączone, to będziemy różne rzeczy słyszeć.
Jeśli mamy włączoną liczbę, no to
VoiceOver nam przeczyta 2-3 powiadomienia
i tak dalej, a jeśli mamy jeszcze
włączone czytanie samych powiadomień,
to przez samo obudzenie ekranu
VoiceOver nam automatycznie przeczyta
najnowsze powiadomienie,
które się pojawiło. Nie będzie nam uczytał
wszystkich, więc spokojnie, jakbyśmy mieli ich 20,
no to nie usłyszymy 20,
natomiast to najnowsze usłyszymy automatycznie,
a później możemy sobie ręcznie już przeglądać
ekran blokady, jeśli byśmy
chcieli zobaczyć, co
jeszcze tam się
w powiadomieniach pojawiło.
Co jeszcze się w tej becie zmieniło?
Dzwonki wróciły, no bo w
pierwszej becie iOS-a 14.1
chwilowo ich nie było, to były chyba kwestie
tego, że to była jakaś inna gałąź rozwojowa,
natomiast nie dość, że dzwonki
wróciły, to
haptyka na ten nowy dźwięk powiadomień
domyślny, który zastąpił trójdźwięk, też się
zmieniła i jest teraz bardziej odczuwalna.
To jedna rzecz, a
druga rzecz jest taka, że nasze
własne dzwonki na szczęście
też powróciły i możemy znów je sobie
ustawić jako dźwięk do SMS-ów,
do poczty, do kalendarza, czy do innych
zdarzeń, no bo wcześniej było tak
w 17, że mogliśmy je sobie ustawić
jako dzwonek, no ale w innych
miejscach one po prostu były
niewidziane. To na szczęście okazało się, że był błąd,
który już został
poprawiony, więc no właśnie
kiedy iOS-a 17.1 się pojawi,
no to
to po prostu będzie działać.
Następnie
sporo informacji dla fanów
czy użytkowników NVDA,
bo pojawiło się całkiem sporo
nowych dodatków. Pierwszym
z nich jest Custom Browse Mode,
czyli dodatek,
który pozwala
nam ustawić sobie osobny profil
konfiguracyjny, który będzie włączał się
tylko wtedy, kiedy włącza nam się
tryb przeglądania, więc moglibyśmy
sobie na przykład ustawić
inne ustawienia szczegółowości
tylko dla trybu przeglądania. Nie wiem,
na przykład chcemy, żeby
nam NVDA generalnie czytał
współrzędne w tabelach,
no bo, nie wiem, korzystamy z Excela,
ale nie chcemy w internecie zawsze
słyszeć wiersz, jaren, kolumna, jaren i tak dalej.
Ja na przykład mam to wyłączone. No, dzięki temu
dodatkowi możemy sobie to właśnie tak skonfigurować,
że kiedy mamy
włączony tryb przeglądania, no to te
współrzędne nie są czytane,
bo ten profil nam się załaduje, a kiedy z niego
wyjdziemy, no to
ustawienie zostanie przywrócone.
Dodatek jest banalnie prosty,
no bo po jego instalacji zostanie
automatycznie utworzony profil
o nazwie Browse Mode, który
będzie automatycznie się uaktywniał,
no kiedy tryb przeglądania
jest włączony i po prostu sobie
ten profil aktywujemy, wykonujemy
zmiany, które chcemy
wprowadzić w trybie przeglądania, no i
to wszystko po prostu później one będą
stosowane.
Następnie
mamy dodatek Mousewheel
Scrolling. To jest
dodatek, który
pozwala nam
symulować przewijanie
rolką myszką, no bo
mogą być jakieś sytuacje, w których
mamy jakąś, nie wiem,
czytamy coś OCR-em na przykład i chcemy
ekran przewinąć na OCR, nam nie widzi paska
przewijania, lub
taki przykład, który tutaj autor tego dodatku
podaje, sytuacja, w której
mamy jakiś
niedostępny suwak, bo suwaki często
nie reagują
na klawiaturę,
niekoniecznie muszą
reagować na kliknięcia, ale mogą reagować
właściwie na przewijanie
rolką myszki. Więc możemy
sobie w takich sytuacjach ten dodatek
wykorzystać, a jak to robimy?
Najpierw przenosimy myszkę w odpowiednie miejsce,
czyli na przykład ten obszar tekstu, który chcemy
przewinąć lub
jakiś suwak
i naciskamy NVDA CTRL
SHIFT W, żeby wejść do
trybu przewijania, no i
w tym trybie mamy kilka skrótów,
strzałka w górę to jest przewiń do góry,
strzałka w dół to jest przewiń w dół,
strzałka w lewo to w lewo,
strzałka w prawo wiadomo w prawo,
PageUp i PageDown
przewija o stronę, bo niektóre myszki
mają dedykowany przycisk do tego,
Home stara się
przewinąć maksymalnie do góry
i
End stara się przewinąć
maksymalnie do dołu, no tutaj autor
mówi, że to się przydaje
np. w przypadku
suwaków, oba te dodatki
znajdziecie do nich linki na githubie,
ale one też są dostępne w
managerze dodatków, które niedawno do
NVDA doszedł, więc możecie też sobie wejść
do menu narzędzia i tam
znajdziecie zarówno Custom Browse Mode
i Mouse Wheel
Scrolling i
możecie sobie też stamtąd
te dodatki
ściągnąć.
Jeszcze nie skończyliśmy rozmawiać o NVDA,
bo mamy też jeszcze
nową stronę, która się pojawiła.
Strona, która nam ułatwia
pobieranie NVDA, no bo jak wiecie
z oficjalnej strony
da się ten program pobrać, natomiast nie
jest to szybki proces,
no bo kiedy klikniemy sobie włączę Download,
no to najpierw pojawi nam się
taka strona, na której
jesteśmy proszeni o dotacje do
projektu, co
ona jest taka dosyć skomplikowana, bo tam musimy
najpierw wybrać wartość, albo jeśli nie
chcemy takie dotacje akurat uiścić, bo nie wiem
już wcześniej to zrobiliśmy, albo
po prostu na razie nie chcemy, no to musimy
najpierw zaznaczyć przycisk Skip Donation
i dopiero potem możemy kliknąć
w przycisk Download i
no i wtedy to NVDA nam się
pobierze. No ale co jeśli chcemy to
zrobić szybko, może chcemy jakiś link
wysłać komuś, albo konfigurujemy nowy
komputer, instalujemy NVDA
po raz dwudziesty i no po prostu chcemy
to zrobić jak najszybciej, no nic
prostszego, możemy teraz sobie wejść
na stronę nvda.zip
Kiedy wejdziemy
na tą stronę, no to automatycznie rozpocznie
nam się pobieranie
najnowszej wersji. Ta wersja jest
zawsze pobierana
poprzez mechanizm aktualizacji
NVDA, więc ten link będzie zawsze
aktualny i będzie pobierał nam
najnowszą wersję.
Ale to nie koniec, bo jest jeszcze kilka innych
adresów, które możemy wykorzystać, bo możemy
też
wejść na nvda.zip
ukośnik beta, no co
pobierze nam najnowszą wersję beta.
nvda.zip
ukośnik alpha,
czyli alfa, no pobierze nam
najnowszą wersję
rozwojową, a gdybyśmy z jakiegoś
powodu korzystali z bardzo starego komputera,
może jakąś maszynę wirtualną konfigurujemy,
no to wchodząc na
nvda.zip
ukośnik XP, pobierzemy
ostatnią wersję, która właśnie
z Windowsem XP
jest kompatybilna.
Te wszystkie linki też znajdziecie
w komentarzach, no ale one też
są bardzo proste, więc myślę, że warto je
zapamiętać, albo przynajmniej ten
podstawowy właśnie nvda.zip.
W ten sposób możecie sobie
w bardzo łatwy sposób
nvidia pobrać.
Następnie
coś, co może przydać
się osobom
korzystającym z WordPressa,
bo WordPress ma taką
popularną wtyczkę Gravity Forms.
To jest wtyczka, która
pozwala na tworzenie formularzy,
które później nam osoby
odwiedzające naszą stronę mogą wypełnić.
Mogą być jakieś formularze kontaktowe,
może coś w stylu formularza zgłoszeń
takiego jak ten, który przed chwilą
słyszeliśmy odnośnie tego szkolenia.
Do takich rzeczy ta wtyczka jest stosowana.
Ona generalnie
tworzy dostępne formularze i da się z niej
korzystać, natomiast jest jedna
rzecz, która w niej,
jeśli tworzymy sobie taki formularz,
jest słabo dostępna, a mianowicie
jest to
przenoszenie kolejności pól.
Więc gdybyśmy, nie wiem,
zamyślili się przez przypadek w formularzu
najpierw mieli pole
nazwisko, a potem imię i chcielibyśmy
je zamienić, żeby najpierw było imię i nazwisko,
no to jedyny sposób na to
jest metodą przeciągnij
i upuść myszką, co
nie należy do najbardziej dostępnych
systemów. Ponoć da się
zrobić, natomiast nie jest to łatwe.
Dlatego
pani Taylor Arndt postanowiła
stworzyć wtyczkę do wtyczki,
która ten problem
poprawia. No właśnie
i taka wtyczka powstała.
Nazywa się
Gravity Forms Accessibility Enhancement.
No i jej głównym zadaniem
właśnie jest to, żeby
stworzyć alternatywną
metodę na
przedstawianie kolejności
wspólformularzy z poziomu
klawiatury. Wtyczka nie jest
darmowa.
Jeśli chcemy z niej korzystać, to
musimy ją sobie kupić. Możemy albo
zapłacić 19 dolarów i wtedy
dostajemy ją
na rok lub 100 dolarów
i wtedy dostajemy ją
dożywotnio. Więc
no trzeba tutaj
coś zapłacić, natomiast jeśli faktycznie
korzystamy z tego WordPressa i
tworzymy dużo takich formularzy, no to fajnie,
że coś takiego powstało,
co może nam
ułatwić pracę z tą
wtyczką. To wszystko ode mnie,
ale to jeszcze nie jest koniec
drobnych newsów, bo jeszcze kilka
Paweł przygotował. Tak, zgadza się.
Jeszcze może nawiążę do tego, o czym Piotrze mówiłeś,
czyli to nvda.zip. Fajna bardzo rzecz,
bo już kiedyś mi się
zdarzało udzielać wsparcia
komuś, kto naprawdę na cito
potrzebował nvda, bo się coś
posypało, trzeba było zreinstalować, tam jedyne
co działało to narrator, więc
przebijanie się przez jakieś większe strony jeszcze
z osobą, która w życiu z narratora nie korzystała.
Ja również z narratora nie korzystałem
za dużo, więc no ciężka
sprawa, trzeba poradzić co jak najszybciej.
No i przypomniało
mi się, że w sumie ten pomysł z nvda.zip,
który jest teraz nowy,
wcale nie jest taki nowy, bo przecież
tu chyba Patryk Dering, który
zarządza, o ile dobrze pamiętam,
stroną nvda.pl, polską stroną nvda,
stworzył
takie linki, właśnie chyba to było
exe.nvda.pl,
setup.nvda.pl,
coś tam jeszcze, install,
już nie pamiętam, któreś działały, któreś nie działały,
wiem, że było kilka
takich. Ale się przydawały.
Tak, ale właśnie to też powodowało
pobranie najnowszej wersji nvda,
od razu po wpisaniu tego adresu, więc teoretycznie
można w uruchom sobie wpisać taki
link, no i to już sobie
śmiga. Polecam
bardzo korzystać z takich, nie żebym
kołował w fundacji NV Access
pieniędzy, polecam wspierać takie
projekty, bo tylko
dzięki temu, że je wspieramy, to
mamy to za darmo tak naprawdę
i że jak chcemy
udowodnić, że zasługujemy na to,
żeby mieć fajne rzeczy w życiu i za darmo,
to warto je wspierać, bo to jest
też jasne, że
oni mają fundację, jasne, że tam mają jakieś
granty pewnie i inne sposoby finansowania,
no ale jak
chcemy, żeby cokolwiek istniało za darmo,
to warto się do tego dorzucić i to jest
myślę taka uwaga na temat różnych
projektów, takich społecznych, open source
i tak dalej.
Natomiast
no, jest
jeszcze parę dodatków do NVDA, które
powstały, no i na przykład jednym z nich jest
dodatek hiszpańskiej też społeczności, podobnie
jak custom
browse mode, ale jest to
translator offline. Co więcej,
translator offline bazujący na
już przetrenowanych modelach
językowych. Modele są
wzięte z projektu Hugging Face
Uniwersytetu w Helsinkach.
Można je sobie pościągać
dla każdego i pary języków
i strony, czyli tam polsko-angielski
to inny niż angielsko-polski.
No i można je sobie pościągać
i tłumaczyć
teksty zarówno ze schowka, jak i
tłumaczyć symultanicznie, czyli w czasie
rzeczywistym. No jedny problem jest
taki, że wtyczka jest po hiszpańsku,
znaczy jej interfejs jest po hiszpańsku, więc
pierwsza rzecz, jaką będziemy tą wtyczką tłumaczyć
to są ustawienia samej wtyczki.
Natomiast
jest on dość prosty. Ja sobie teraz tu wejdę
w opcję
NVIDIA, menu NVIDIA opcje.
No i jest translator
offline, czyli tłumacz offline.
I tu jest configuración de
traductor, czyli konfiguracja samego
tłumacza. Jest dużo skrótów
klawiszowych, warto się z nimi zapoznać. One są
nieprzypisane, więc warto je sobie przypisać
w ustawieniach NVIDIA do tych opcji, które
potrzebujemy, tam zamiana tych języków źródłowych
i docelowych, właśnie
ten tryb symultaniczny,
to tłumaczenie ze schowka,
różne rzeczy. Jest opcja też
tłumaczenia online i to wykorzystuję z tego, co
widziałem Google Translator, czyli podobnie jak ta wtyczka
translate ta
od Janika Placiarda,
francuska. Natomiast
fajna
jest właśnie ta opcja offline i
jest tutaj taka opcja jak historie,
Tomas, i to jest
menadżer języków, pakietów językowych,
tych właśnie modeli, które musimy pobrać,
bo każdy z nich jest tam po 100, po 200 mega.
I właśnie patrzę,
jest tu mnóstwo języków tak naprawdę i tylko zależy
od tego, jakie
pary językowe są przetrenowane
z tych, które nas interesują. Ja się
zajmę może polskim.
I dla polskiego mamy tak.
Oczywiście z drugą strony też to działa,
czyli z tego drugiego języka na polski,
również można. Natomiast ja patrzę,
bo z polskiego na inny, no to łatwiej
przesortować, co dla języka polskiego
w ogóle istnieje. Polski arabski,
polski niemiecki,
polski angielski,
polski esperanto,
polski hiszpański, polski
francuski, polski litewski,
polski norweski,
polski szwedzki,
polski ukraiński.
I to są pary, które dla polskiego
istnieją. No nie jest tego aż tak duże,
jak w Google Translatorze. Może jakichś waszych
ulubionych języków brakuje.
Nie mam pojęcia, czy ten projekt Uniwersytetu w Helsinkach
nadal trwa,
czy
został zakończony i czy nowe modele będą
dalej powstawały.
Ja też dość pobieżnie testowałem
te modele. No wydają się być w porządku.
Czy to jest jakość Deep L?
Nie wiem, szczerze mówiąc. Jeszcze nie
tłumaczyłem na przykład dłuższego tekstu jakiegoś
całego przeschowek, żeby
skopiować tekst i przeczytać.
Wiem, że z opcją czytaj wszystko nie bardzo
łatwo to działać.
Natomiast takie wstępne
testy, gdzie tłumaczyłem jakiś artykuł
z francuskiego, tak linijka po
linijce na zasadzie tego
symultanicznego tłumacza,
no to tutaj sprawiało się to całkiem
moim zdaniem okej. Ja tam
zrozumiałem, o co w artykule chodziło.
Natomiast
właśnie też warto potestować. I zawsze jest to
offline. Nie musicie mieć połączenia
z internetem. Nie musicie tych waszych danych
wyłać. Nie musicie się liczyć z tym,
że może kiedyś API zamkną.
No tylko macie pościągane modele i te
modele są już wasze.
No jeśli chodzi
jeszcze o dodatki NVDA, to myślę,
że warto wrócić do tematu
voicemetera.
Ja o voicemeterze mówiłem. Taki
mikser audio w formie
softu, który pozwala na podpinanie różnych
źródeł, miksowanie ich ze sobą,
kontrolowanie niezależnie i tak dalej.
No ja byłem w kontakcie z Onyxem, który
stworzy tą nakładkę dostępnościową
dla voicemetera,
dzięki której możemy w ogóle
przepisywać te urządzenia do konkretnych
slotów i tam się tym bawić.
Bardzo był otwarty na sugestie.
Ja już zdążył od czasu ostatniej mojej
wzmianki o tej nakładce wprowadzić
wsparcie dla suwaków, czyli możemy teraz
sobie dla każdego z tych źródeł naszych, czy mikrofon,
czy programy, które przekierowaliśmy
na voicemetera, no możemy
sobie sterować ich głośnością, różnymi
parametrami equalizera, jakimiś
litrami i tak dalej.
Poimplementował suwaki.
No ale jedną z moich takich sugestii
było to, żeby
zaimplementował też na jakimś etapie,
to nie musi być od razu,
interfejs niewidzialny. No i on podszedł do tego
tak, że stworzył dodatek
NVDA.
I oczywiście
ten dodatek nie wyklucza
samodzielnej tej aplikacji, możemy
używać i jednego i drugiego, natomiast
dodatek jest po to, żeby pewne aspekty
kontrolować globalnie i szybko, no bo
wiadomo, jak działamy z taką
aplikacją miksującą, no gdybyśmy
mieli fizyczny mikser i mieli na szybko
potrzebę jakieś zrobić przejście, nie wiem,
coś ciszy, coś podgłośnić, to mamy
fizyczne suwaki. No w takim programowym
takiej perfekcji
nie osiągniemy i takiej szybkości działania,
ale można się chociażby zbliżyć
i
stworzone zostały
różne skróty klawiszowe, które
aktywują różne tryby. No i ja spróbuję
teraz poczytać, co to zostało zaimplementowane.
Mamy tak.
NVDA
Alt S
włącza nam tryb tych
strips, czyli jakby tych pasków, takich
tych paneli, fizyczny,
wirtualny, fizyczny, czyli nasze fizyczne
wejścia, jakieś mikrofony,
wirtualny, czyli te różne
nasze aplikacje przekierowane, no bo
im wyższa wersja Voicemetera,
to więcej tych wejść wirtualnych też mamy
i wyjść.
NVDA Alt B to są basy.
Jeszcze się nie wdrożyłem w to, czym te basy są,
ale jak się dowiem, to na pewno powiem.
Wiem, że jakoś się tam kombinuje
te wejścia fizyczne i wirtualne.
I NVDA
Alt 1 do
8
przełącza między konkretnymi kontrolerami,
czyli jak włączyliśmy ten strip, no to tam
pierwszy, drugi, trzeci, czwarty. Nie bardzo
jeszcze wiem, jak się przełącza między wirtualnymi
a fizycznymi,
ale tak to jest tutaj zrobione.
No i kiedy już ustalimy sobie,
z którym suwakiem chcemy
pracować, czyli tam NVDA Alt S, NVDA
Alt 1 na przykład,
no to możemy sobie
włączyć konkretny suwak.
I tak, NVDA Alt G to jest
wzmocnienie, czyli gain.
NVDA Alt C to jest
up, czyli kompresor.
NVDA Alt T to jest gate, bramka.
NVDA Alt D to jest
denoiser, czyli redukcja szumu.
NVDA Alt A
to jest
audibility, czyli po prostu głośność.
Taka, no na ile nas słychać.
Z tego, co pamiętam, to tam właśnie
jakaś też taka kwestia chyba
obcięcia dołu czy góry.
I też możemy
konkretnymi
suwakami.
NVDA Shift w górę
przesuwa
o
jeden krok, suwak.
NVDA Shift w dół
o jeden krok.
NVDA
Alt w górę, Shift Alt
w górę
o 0,1
kroku, jedną dziesiątą.
No i NVDA Alt Shift
down analogicznie.
NVDA Shift
Control w górę
o trzy kroki i w dół analogicznie.
I jeszcze
parametry kanałów. Można ustawiać
konkretnych właśnie tam tych wejść, wyjść.
NVDA Shift O
włącza lub wyłącza tryb mono.
NVDA Shift S
wyłącza solo, czyli że tylko ten
kanał wybrany będzie słyszalny.
NVDA Shift M mute, czyli wyciszenie
konkretnego kanału.
NVDA Shift C to jest
tryb MC. Tu jeszcze nie wiem do końca
co to jest.
I NVDA Shift K to jest
karaoke.
No i tutaj można też
przypisywać te
basy. To są B1, A1
te różne kombinacje.
NVDA Shift
1
do
chyba do 8.
No i można też sprawdzić
NVDA Shift Q, aktualnie
wybrany kontroler i NVDA Shift A
jakiej wersji
używamy. Czy tej klasycznej,
czy banana, czy
potato.
I tutaj też jest
instrukcja konfiguracji
jak
umieścić plik NVDA
VoiceMeeter JSON w tym samym
folderze, gdzie mamy też konfigurację samego
VoiceMeetera. No i tam
można zmieniać skróty klawiszowe.
Szkoda, że nie w dialogu bezpośrednio NVDA.
Może to jakieś wymaganie tej biblioteki
VoiceMeeterowej, ale wątpię.
Więc myślę, że jest też
przykładowy konfig, jak powinien wyglądać
podany w readme tego projektu.
Więc spokojnie można tutaj
operować.
Wiemy też, dzięki
Jonathanowi Mausenowi i odcinkowi
250 Living Blind Fully Podcast
jak wyglądają pierwsze
wrażenia iPhone z iPhona 15 Pro.
Jonathan sobie takiego zakupił.
Jakżeby inaczej.
No i teraz czego się dowiedzieliśmy.
Sam iPhone podobny jest
gabarytowo z wyglądu
do 14
Pro, ale
wydaje się być rzeczywiście lżejszy w ręce,
jak się go trzyma.
Jest przycisk akcji, jest USB-C.
Co prawda to USB-C
w tych modelach
nie pro ma być jakoś tam wolniejsze,
ale w USB-C
już w tym modelu Pro
są te najszybsze prędkości, jakie
standard oferuje. No i Jonathan
a jakże się pobawił i
wszystkich zmylił, bo zaczął podcast
mówiąc, że nagrywa go z iPhona 15 Pro.
Brzmiał tak samo jak
brzmi zazwyczaj, kiedy mówi ze studia.
Okazało się, że podłączył sobie cały
interfejs audio z mikrofonami do tego
iPhona. Działa, owszem,
a jakże.
Podłączał też same mikrofony.
Podłączał również
linijkę brailowską
Mantisa, która działa przez ten
protokół plug and play.
Zadziałało bez problemu. Ponoć
Focus 40 nie działa
i te inne monitory, które wymagają
własnościowych sterowników nie działają.
Nie ma się czemu dziwić. Wszak Apple
wspierał jedynie do tej pory Bluetooth
i żadnych sterowników dodatkowych
obsługiwać nie musiał.
Są też podejrzenia,
że być może działałyby niektóre aparaty
słuchowe, dyski, pendrive,
wiadomo. Możliwości są
teraz praktycznie nieograniczone, jeżeli
tylko mamy jakieś akcesorium po USB-C.
Nawet Ethernet działa, ktoś testował.
Tak, dokładnie, Ethernet. Można podłączyć
sobie iPhona na kablu do internetu,
jakby ktoś bardzo chciał. Czemu nie?
Mikrofony tego iPhona
brzmią całkiem
fajnie.
Nawet
któraś tam konfiguracja brzmiała
dość studyjnie, któryś tam z tych
chyba kardioidalnych, czy innych
tam takich.
Bardzo fajnie sobie zadziałał.
No i
przycisk akcji, to na co wszyscy
czekali, czyli
jest przycisk, jest w tym miejscu, gdzie był suwak.
Nawet go tak fajnie można wyczuć
podobnie do tego suwaka na dotyk.
No i w ustawieniach można,
jest opcja tam action button,
no i można ustawić, co on ma
robić. Może wyciszać,
może przełączać tryby focusa,
skupienia, nie przeszkadzać lub tam inne,
jeżeli mamy jakieś zdefiniowane.
Możemy wybrać, który ma włączać lub wyłączać.
No i możemy
przypisywać też, tam jest latarka,
jakieś jeszcze nagrywanie, parę jeszcze opcji
i skróty.
No więc tak jak się spodziewaliśmy,
można wybrać tylko jedną akcję
na przytrzymanie przycisku. Już
widać, że są aplikacje powstają, które dają
nam skróty
z menu do wyboru chyba
tych dwóch akcji, więc no
i też Apple pytał użytkowników,
jak tam pierwsze wrażenia po przycisku,
no i wiele osób by sobie życzyło, żeby
więcej było tych wariacji naciśnieć,
żeby tych skrótów i tych akcji można było
przypisać troszeczkę więcej niż tylko jedną.
Jeżeli wybierzemy
sobie, no
czy to wyciszanie, czy to
wyciszanie, może by jeszcze działało,
czy tam tryb skupienia,
no to nie dowiemy się
po wciśnięciu przycisku, VoiceOver nie da nam
powiadomienia, czy tak naprawdę
to ustawienie się zmieniło. No to jest troszkę
szkoda, może będzie to naprawione w późniejszych
wersjach,
no ale tak poza tym to działa.
Jest jakaś delikatna taka haptyka, kiedy
tego przycisku używamy,
no i to
chyba w sumie tyle, co można na ten moment
powiedzieć.
Więc
jest iPhone 15 Pro. Czy warto
go kupować ze względu na ten przycisk? Fajna
opcja, ale ja nie sądzę.
Myślę, że z czasem dostaną to też modele
podstawowe.
Mam taką nadzieję przynajmniej.
No i fajnie, że Jonathanowi
to działa i że ogólnie jest to
gdzieś tam fajny, fajny telefon.
No i ostatnia wieść
z drobnych newsów, bo
polepsza się dostępność skarletów, takie
interfejsy, no takie
trochę bardziej muzyczne niż podcastowe, ale
podcasterzy i niektórzy prezenterzy radiowej
też tego lubią sobie użyć.
Firma Focusrite. No i było
już obiecane, że coś się z tym będzie działo,
że coś tam będzie dostępne.
Natomiast na razie
na ten moment wiemy już więcej.
Otóż wyszła
nowa wersja Focus Control,
narzędzia, które
pomaga w sterowaniu tymi
interfejsami, no i wersja 2
Focus Control 2, która wspiera nową
czwartą generację już tych skarletów.
Na razie jest i czwartej generacji,
są tylko dwa modele, bo 2
i 2 i 4 i 4,
czyli na dwa gniazda
i cztery gniazda
już może być obsługiwana.
Oczywiście wszystko dzieje się cyfrowo, czyli to, co
przestawiamy
w oprogramowaniu
też będzie przestawione na sprzęcie.
No i ma być wprowadzone też to, że jeżeli
coś zmienimy na sprzęcie, to
też zostanie to odnotowane jakimś tam
powiadomieniem w oprogramowaniu, że nam czytnik
przeczyta, co się właśnie stało.
Pewne poprawki,
regulowanie różnych parametrów,
przypisywanie,
wejść, wyjść i tak dalej.
Zostało
wprowadzone też w Focus Control 1,
czyli oprogramowaniu do sterowania
trzecią generacją skarletów.
Natomiast tutaj już
no niestety nie wszystko
będzie w stanie być zrobione z uwagi na to,
jak ten program jest skonstruowany i tak dalej.
Jest wiele obszarów jeszcze
póki co, które wymagają
jakiegoś domyślania się, jakiejś takiej
międzywstępnej, bardziej zaawansowanej.
Jakieś edytowanie kanałów miksu i tam parę
jeszcze innych opcji.
Natomiast będzie
o tym stworzony też artykuł w sekcji
wsparcia Focusrite’ów
i będzie można o tym
wszystkim przeczytać. No więc super, że
coś się dzieje, żeby to było bardziej
dostępne. No i to wszystko ode mnie,
jeśli chodzi o drobne newsy.
No trzeba przyznać, że Focusrite
idzie za ciosem. Wocaster
na pierwszy plan, a teraz
dostały urządzenia, zyskują dostępność
i oby tak dalej. Tego byśmy
sobie wszyscy zajmujący się
dźwiękiem życzyli.
A tymczasem mamy komentarze.
Dwa komentarze
od Pawła.
Czy znacie jakąś wtyczkę
do NVDA, żeby korzystał
z nawigacji, że
gdy korzystam
z nawigacji obiektowej,
na przykład wtyczki
obej odpad, to osoba widząca,
która jest ze mną, połączona
TeamViewerem, wie, w którym miejscu
na ekranie się znajduje. Testuję
program do systemów Lotto
i wtyczka, która by pokazywała, co
mi pokazuje myszka NVDA,
pomogłaby programiście
poprawić dostępność programu.
Szczerze mówiąc
nie, natomiast
ja się zastanawiam, czy
włączenie tych opcji w samych
ustawieniach NVDA nie pomoże.
Tak, i tutaj chyba,
czy wiem, że kiedyś to było w tej wtyczce
Focus Highlight.
I mamy tu opcję, włącz podświetlenie
i mamy, podświetlaj
fokus systemowy, podświetl obiekt
nawigatora.
I to jest chyba to, co trzeba włączyć
i wtedy
będzie programista,
z którym współpracujesz, widział
w jakiś sposób zaznaczone to,
gdzie się aktualnie znajdujesz nawigacją
obiektową.
Więc sprawdź Pawle,
może to właśnie będzie to, czego
szukasz. Ustawienia NVDA,
widoczność to tak jeszcze, bo tak skrótowo polecieliśmy,
ale tak tam.
I jeszcze jeden
komentarz od Pawła,
czy moglibyście polecić dostępne programy
do odtwarzania stacji radiowych
na PC i Androida?
Kiedyś korzystałem z RadioShure,
ale dużo linków jest tam
nieaktualnych. RadioShure
można przestawić na bazę
z
radio browzera, czyli z tej otwartej
sieci, z otwartego
projektu zbierania stacji radiowych.
Chyba, żeby to
działało, trzeba wejść na stronę
radiosure.fre.fr
i tam
jest wszystko po angielsku, co prawda, ale opisane.
Jest kilka metod, my o tym w tytułowym przeglądzie
którymś też mówiliśmy.
I tam można albo sobie ręcznie
ściągać z FTP-a najnowsze
skompilowane pliki ze stacjami,
RST chyba mają rozszerzenie te pliki
i je sobie podmieniać w RadioShure,
najnowszą bazę, albo
jest też skrypt BAT, on jest trochę
bardziej skomplikowany w sensie takim, że trzeba wejść
na GitHuba, kliknąć tam w jakieś
row, żeby on wyświetlił nam
treść tego skryptu,
przekopiować go do pliku, zapisać jako BAT,
umieścić w folderze.
Nie, że to jest nie do zrobienia, ale
jak ktoś się takimi rzeczami na co dzień nie bawi,
to nie jest to takie oczywiste,
ale można zasadniczo zamienić
tę bazę nieaktualną z RadioShure’a
na Radiobrowser.
Natomiast
jeśli chodzi o Androida,
no to robiliśmy niedawno audycję
o dostępnych na…
Głównie o iPhonie mówiliśmy, ale o
Androidzie też wspomnieliśmy, bo niektóre z tych
aplikacji, które wspominaliśmy
były też na Androidzie
dostępne, czyli na przykład
Radiodroid,
to jest właśnie oficjalna aplikacja od
autora Radiobrowsera, tego katalogu.
VRadio,
jeżeli nie masz problemu z tym, żeby wpisywać
swoje własne streamy i importować playlisty
własne.
Receiver, którego trzeba kupić, ale też jest
dostępny.
Nawet
Podcast Addict ma
katalog chyba z tune-in’a stacji radiowych,
więc można
w Podcast Addict’cie też słuchać sobie
niektórych stacji.
Radio, ten
online radio box też chyba jest
dostępny i na Androidzie
on też jest.
No, trochę tych aplikacji
radyjkowych jest.
Swoją drogą, a propos
Radiobrowsera, to
ostatnimi czasy ukazała się nowa
wersja Fubara na iOS.
No i wszystko
byłoby super. Otóż to.
Otóż to.
Trzeba to w końcu zgłosić, bo ja mam
wrażenie, że być może autor nawet nie jest
świadomy tego,
że ten problem jest
już od pewnego czasu
z tą opcją
stacji radiowych.
Bo w Fubarze już jakiś czas temu była
taka oddzielna sekcja do
stacji radiowych. Wcześniej można było
dodawać sobie streamy, no i
teraz jest katalog
Radiobrowsera, w którym można
sobie szukać. I wszystko super,
tylko niestety problem jest
taki, że kiedy
wejdziemy, wyszukamy
stację i włączymy
jej odtwarzanie, to
tak naprawdę, żeby
włączyć następną, żeby poszukać
jakiejś innej, to musimy zamknąć Fubara.
I odpalić go jeszcze raz.
Po prostu tracimy
fokus. Wtedy, kiedy
odtwarza Fubar jakąś
stację internetową,
to jedyne, co voiceover widzi,
to jest pasek statusu.
Rozpoznawanie ekranu
powoduje, że on widzi tam troszkę więcej,
ale to jest niewiele więcej i
z tego ekranu się po prostu nie da wyjść.
Niestety. Tak, też mam ten problem,
pewnie wszyscy go mają.
No się ciekawe, czy na Androidzie, swoją drogą,
ta opcja się pojawiła w Fubarze. To jeszcze
swoją drogą, ta opcja też
zawita niedługo do
desktopa na Fubarze, bo to jest też
już dostępne w wersji
beta, zarówno na Windowsie i na Macu.
Niestety. A to jest super.
Przepraszam, że przerwałem, ale jako, że
nie mieliśmy, no bo to jest
na okrętkę, ale nie mieliśmy fajnego
odtwarzacza radia długi, długi czas,
bo tam tap-in radio stał się,
tap-in radio i tak dalej.
No to Fubar, który
na okrętkę, ale też potrafi nagrywać
streamy,
no to jest fajna rzecz.
Proszę, przepraszam.
Jasne, tylko może dokończę. Nie wiem, jak to wygląda
na Windowsie, ale przypuszczam, że podobnie, bo
ta wersja na Maca generalnie robi się coraz ciekawsze.
Tam nawet ostatnio doszło
wsparcie w cyrczach, natomiast niestety nie ma
jeszcze żadnej możliwości ustawienia skrótów
klawiszowych, a ta funkcja macowa nie wszędzie
dochodzi, więc np. nie da się głośności ustawić,
dlatego jeszcze o tym, szczerze nie mówiłem, bo
tam jeszcze trzeba dopracować.
Natomiast jeśli chodzi o radio,
no to w tej
wersji beta na Maca i na Windowsie też
zresztą pewnie w menu widok
do tego wchodzimy, to się wtedy oświetla
otwarte, osobne okno i
tam możemy sobie albo
wyświetlić wszystkie dostępne stacje, tutaj też jest katalog
właśnie radio browzera,
albo możemy szukać, jeśli szukamy, no to mamy
dwa, dwie listy rozwijane,
w jednej wybieramy właśnie czy chcemy po kraju,
czy tam po gatunku itd. szukać,
w drugim wybieramy
interesujący kraj slajsz gatunek,
no i też mamy pole wyszukiwania i
możemy z tego miejsca sobie jakąś stację
odtworzyć lub
dodać
do playlisty.
Swoją drogą mogliby zrobić tak, żeby
po różnych kryteriach dało się tworzyć
playlisty własne ze stacji,
albo żeby wszystkie nam wywaliły jako zakładkę,
albo po jakimś słowie kluczowym,
albo po kraju.
Bo tam, nie próbowałem,
ale pewnie jakby się tam dało zaznaczyć wszystko
na tej liście,
bo on to wszystko pododał.
Można było odtwarzać losowe stacje,
ja bym się tak pobawił, bo jak istniał
wybieracz z shoutcasta, bo shoutcasta dało się kiedyś
zmusić do wygenerowania dziesięciu losowych
stacji z katalogu,
to tam się odkrywało różną muzyczkę ciekawą.
Oj, odkrywało.
Także niedługo będzie radio.
Tak.
I miejmy nadzieję, że będzie fajnie dostępne.
Tego byśmy sobie
życzyli.
Teraz kolejne, kolejne,
kolejne tematy.
Tym razem ode mnie.
O niewidomych, którzy usłyszą
zaćmienie słońca. No bo
ciężko powiedzieć, że zobaczą,
ale za pomocą odpowiedniego
urządzenia, które
to jest
rozwijane wspólnie przez
naukowców z
Uniwersytetu San Antonio
w Teksasie i
uczelni Harvarda,
pracują nad takim specjalnym
urządzeniem i ono
chyba nawet jest już gotowe, tym bardziej,
że wiele czasu nie mają.
Jest ono już montowane
i będzie dostarczone
amerykańskim niewidomym.
I jak ono działa?
No urządzenie jest,
jak przeczytałem
opis, to wydaje mi się, że jest to
stosunkowo prosty detektor światła.
Ale może czegoś nie doceniam,
bo dźwięk tego
urządzenia po prostu ma sygnalizować
stopień zaćmienia.
Im jaśniejsze światło,
tym wyższy dźwięk, więc na
początku będziemy mieli
dźwięk, jak tu
opisano, fletu. Później on
przejdzie w dźwięk
klarnetu, a
kiedy będzie totalne zaćmienie,
to będzie ten dźwięk
w formie niskiego
stukotu emitowany.
No i urządzenie
to przyda się w San Antonio
szczególnie, dlatego,
że tu właśnie
w najbliższym czasie
będą aż dwa zaćmienia słońca.
Niedługo
już pierwsze zaćmienie
się pojawi, bo ono
będzie miało miejsce 14 października.
Na kolejne trzeba
będzie trochę poczekać, bo
aż do 8 kwietnia,
no ale też nie jakoś
specjalnie długo, to sami przyznacie.
Więc
uczelnie chcą też
niewidomych zachęcić do tego, żeby
brali udział w
właśnie tym wydarzeniu.
Początkowo
były takie reakcje, a po co mi to?
W sumie i tak tego nie zobaczę,
to nie jest dla mnie. Natomiast
jak wyczytałem właśnie w artykule
opisującym to urządzenie,
kiedy niewidomi mieli okazję
je przetestować, to wydało im się to
bardziej interesujące.
No cóż, może i rzeczywiście
kiedy mamy okazję
tak śledzić te dźwięki w czasie
rzeczywistym i
oczywiście taki detektor światła, no to
to żadna nowość
dla nas, natomiast kiedy mamy możliwość
śledzenia, jak
to, jak tego słońca
w czasie dnia jest coraz mniej,
coraz mniej, no to może być to
faktycznie
dosyć ciekawym przeżyciem.
Tak sądzę. To znaczy, a nie ma
tam coś, jakiejś współpracy z ACB?
Bo ja pamiętam,
że jak ostatni raz, i to też było chyba Texas,
było zaćmienie
słońca i to takie chyba globalne
na zasadzie, że cały świat mógł obserwować,
to ACB
w szkole w ogóle
jakiejś, na terenie jakiejś szkoły dla niewidomych
tam w Stanowej czy w Teksasie
dla niewidomych, założyli streama
i streamowali na jednym ze swoich
kanałów właśnie z audiodeskrypcją
zaćmienie słońca. O tym żadnej
informacji nie ma, ale być może
kiedy będzie bliżej,
no to
to coś się tu jeszcze wydarzy.
No tak, bardzo możliwe.
Jeszcze mamy kilka dni do tego,
więc może, może
będzie informacji więcej na ten temat.
No i z takim urządzeniem, jakby ktoś
wystawił do internetu
oprócz tej audiodeskrypcji to jeszcze właśnie
tę dźwiękową reprezentację
tego jak to wszystko
brzmi, kiedy mamy to
zaćmienie, no to
to kto wie, to może faktycznie
byłoby interesujące.
No w każdym razie tak to wygląda,
a teraz przechodzimy
do systemu
Elementary OS
w wersji 7.1
i tu ja też będę miał kilka słów
do dodania, ale to za chwilę Piotrze
najpierw opowiedz o tym co nowego.
Zacznijmy od tego co to w ogóle jest.
To jest dystrybucja Linuxa,
dystrybucja Linuxa, która
jest generalnie stworzona
poniekąd dla fanów
prywatności, bo to jest taka dystrybucja,
która bardzo stara się
zabezpieczyć nasze dane, więc
ma swój własny
sklep z aplikacjami, nazwijmy to sklep,
to jest takie repozytorium. Wszystkie
te pakiety, aplikacje są
opakowane w takim systemie kontynerów,
więc one mają dostęp tylko
do rzeczy, do których my im damy.
Trochę tak jak to jest na iOS, czy macOS,
jeśli aplikacja chce mieć dostęp
do jakiegoś folderu, do naszych pobranych plików,
do lokalizacji, będziemy
po prostu pytani o system.
No i to jest też tak ładnie opakowane,
ma taki fajny interfejs,
ma DOG jak macOS
na przykład. No i
w wersji 7.1, która
właśnie się ukazała,
twórcy tego systemu
położyli nacisk na
dostępność. Od czego
to się zaczyna? No, myślę, że
od instalacji byłoby dobrze zacząć, no bo
musimy jakoś ten system sobie
zainstalować albo skonfigurować,
jeśli kupimy komputer, który ma
już elementary OS na
pokładzie, bo ponoć takie komputery
są. No i tutaj
coś, co zostało gdzieś
skopiowane z macOS, ale to jest myślę
na plus, to
to, że po
starcie tego instalatora
będziemy
dostawali od razu komunikat,
jak włączyć czytnik ekranu. To jest
prawdopodobnie po prostu skrót
Windows, czy właściwie
Super Alt S, jak to jest
mówione w świecie Linuxa,
no i wtedy nam się orka
powinna włączyć i…
Zgadza się Piotrze, potwierdzam,
ten skrót to jest Windows Alt
S, bo ja sobie
potwierdziłem, bo też widziałem wczoraj te informacje,
że zainstaluję sobie tego elementary
OS-a na wirtualnej
maszynie. To bardzo
chętnie posłucham, jak tam dalej było z dostępnością,
co tam się… No właśnie…
Okej.
To powiedz na razie o tych pozytywach,
które oni tu obiecują.
Okej, no to mamy instalację,
instalację sobie
bez problemu możemy przejść.
Tutaj przy okazji tego instalatora
już możemy parę rzeczy skonfigurować,
które też możemy zmienić w ustawieniach
wyświetlania.
Pojawiły się nowe
filtry kolorów, no i tutaj to są rzeczy,
które mogą się
przydać właśnie dla osób, które
mają jakieś problemy z wzrokiem,
z konkretnymi kolorami.
Trochę tak jak w nowych
grach na przykład, tam też bardzo często jakieś filtry
kolorów się pojawiają na
poziomie systemu.
I tutaj mamy
protanopie,
deuteranopie
i
tritanopie. Przepraszam,
jeśli coś tutaj pokręciłem. No i
jeszcze są nowe
motywy wysokokontrastowe,
więc tutaj osoby słabowidzące też powinny być,
a powinny znaleźć
coś, co będzie im
bardziej odpowiadać.
Co jeszcze się
pozmieniało?
Mamy
też tutaj ustawienia barwy kolorów,
co też ostatnio takie
mądre. Wskaźniki
na polach wyboru powinny być bardziej widoczne.
Są poprawki
w nawigacji z klawiatury i tutaj
na przykład jest podane znów
coś, co bardzo, co kojarzę
z maga. Oprócz tego, że
mamy oczywiście alt-tab i możemy
sobie przechodzić po otwartych aplikacjach,
to możemy naciskać alt
i akcent, żeby
przeskakiwać po otwartych oknach
w danej aplikacji.
No, czyli bardzo podobnie jak to wygląda na maku,
bo na maku się to robi podobnie
z klawiszem command.
Mamy więcej skrótów klawiszowych, które możemy
sobie dostosować,
m.in. z lokalizacji myszki,
możemy sobie lub
skróty do powiększania skonfigurować,
ustawień skrótów klawiszowych.
I
na koniec jeszcze taka
informacja, jeśli chodzi o ekran logowania.
Nie lubił
zapisywać naszych ustawień.
Mogliśmy sobie właśnie jakiś wysoki kontrast, coś
pokonfigurować, no ale na ekranie logowania, gdzie
często musimy wpisać swoje hasło,
albo wyprać użytkownika,
to z tym było
gorzej. No i
w tej najnowszej wersji to już powinno działać lepiej
i nasze ustawienia powinny być automatycznie
kopiowane do ekranu
logowania. No i też na ekranie logowania
powinniśmy już mieć
możliwość włączenia
właśnie tego czytnika ekranu, bo ten skrót też tam
powinien być dostępny, no ale ogólnie powinien być
dostępny wszędzie. Natomiast
nie zawsze chciał działać i
jeszcze ten
screen reader powinien korzystać
z ustawień, które
no sami
skonfigurowaliśmy.
Też aplikacja
Feedback
powinna być łatwiej
dostępna, czyli właśnie aplikacja,
której możemy zgłaszać jakieś ewentualnie błędy.
No i to są
też mniejsze różne aktualizacje
w poszczególnych aplikacjach, już mniej związane
z dostępnością, ale to myślę, że
jeśli chcecie poczytać więcej, co tam się
dokładnie jeszcze pozmieniało,
na przykład w menadżerze plików, czy właśnie w innych
aplikacjach, w budowanych system,
no to możecie sobie zajrzeć do
posta na blogu ElementaryOS,
który znajdziecie w
komentarzach. A jak to jest w praktyce w takim razie?
W praktyce to mi się ten system udało
zainstalować, ale z uruchomieniem
go to już mam
problem, nawet z przejściem
do takiej wstępnej konfiguracji.
Problem być może
wynika z tego, że ja
korzystam z maszyny wirtualnej,
z Vimware’a konkretnie.
Wygląda to tak,
że zainstalowałem
w ogóle, no muszę powiedzieć,
że jeżeli chodzi o Linuxa
i o korzystanie
z niego, to się jednak trochę ta
filozofia różni od tego, co
znamy z Windowsa, bo chociażby
pierwsza rzecz, wybór języka.
Chcemy wybrać język,
no i teoretycznie
chodzimy sobie strzałką,
naciskamy Enter,
żeby ten język wybrać,
no nie dzieje się absolutnie nic.
Naciskam Tab,
przechodzi mi
fokus do następnego języka.
Co tu zrobić?
Wydaje się, że Control Tab, jak się wciśnie,
to zadziała
i wtedy przechodzimy
do przycisku, który możemy
aktywować i możemy
jakoś tam te instalacje
przeprowadzić,
natomiast później
już niestety
nie jest tak kolorowo, mianowicie
po restartcie
co prawda uruchamia się czytnik ekranu.
Czy on się automatycznie uruchomił, czy
możemy włączyć skrótem? Nawet szczerze
powiedziawszy to już nie pamiętam. Ten komunikat
na pewno był mówiący o tym,
co tam trzeba wcisnąć
i to się zgadza, natomiast
po zainstalowaniu
tego systemu
no już niestety
orka po prostu
nie czytała mi praktycznie nic.
O CR widziałem, że
jest jeszcze jakaś tam
prośba o wybór języka, że coś tam
się dodatkowo
pojawia, natomiast
no niestety
to było tyle, nie
pojawiały się już dodatkowo
żadne
możliwości, żeby to
skonfigurować, więc
na tym poległem, ale będę z tym jeszcze
walczył, być może coś tam
powinienem jeszcze pozmieniać, może to jest
problem z moimi
jakimiś ustawieniami maszyny wirtualnej.
Jeszcze trochę nad tym pogrzebię, bo
przynajmniej tak z opisu
ten system wydaje się być ciekawym
rozwiązaniem,
no, a jak
będzie w praktyce, to się wszystko
okaże i czy rzeczywiście
jest wart tego, żeby
wypróbować. Co muszę
powiedzieć, to zaskoczyło mnie dość
pozytywnie to, że przynajmniej
na tym etapie instalacji, to naprawdę
działało to w miarę
responsywnie, to nie było tak, że tam się coś
przycinało, że coś
stawało się niedostępne, więc
może jak tak będzie dalej
i jak tak będzie to działało,
to coś z tego będzie.
Nie miałem dziś czasu się tym zająć,
ale popróbuję jeszcze powalczyć,
tym bardziej, że mam kilka pomysłów.
No, a jeżeli się nie uda, to
trudno.
Widocznie po prostu jeszcze
muszą nad tym troszeczkę bardziej
popracować.
Przechodzimy do
kolejnego tematu,
tym razem ode mnie,
ale to jest bardzo krótki temat.
Słuchajcie, ponownie
twórcy NVDA proszą
użytkowników o wyrażenie
swojego zdania, jeżeli chodzi
o ten czytnik ekranu
i proszą o wypełnienie
bardzo króciutkiej
ankiety.
Link oczywiście dostaniecie
w komentarzu,
więc na pewno
nie będziecie mieli żadnego
problemu, żeby do niego dotrzeć.
Zresztą NVDA, a właściwie
NV Access, no dość intensywnie
namawia wszystkich, żeby wypełniali
tę ankietę. Jeżeli wam się spieszy,
to na przykład możecie na Facebooka
NV Access zajrzeć albo
jakieś inne media społecznościowe
typu chociażby Mastodon i tam
na pewno znajdziecie ten link do
ankiety. Ankieta jest bardzo prosta.
Po pierwsze,
tu mamy pytanie,
jak
bardzo prawdopodobne
jest w skali od 1 do 10,
że komuś
znajomemu polecimy NVDA?
I to jest pytanie numer 1.
Pytanie numer 2
i to jest pytanie otwarte.
Tu trzeba wpisać
odpowiedź.
Jakie są główne powody
tej naszej oceny?
Dlaczego tak, a nie inaczej?
Co powoduje, że
no daliśmy taką, a nie
inną ocenę? Tu można o wadach
wpisać, o zaletach, no wszystko można
wpisać. Jedna taka
ciekawa rzecz i to jest jakiś
problem z formularzem,
z formularzami
Google,
że to pole
do wprowadzania odpowiedzi, przynajmniej
u mnie jest niedostępne, ale ja to już widziałem
w kilku przypadkach, że
jakiś problem ostatnio z dostępnością
formularzy Google nastąpił,
a może to wina
NVDA. Pole
przy C wyświetla się jako
niedostępne, ale jak
naciśniemy Enter i wpiszemy
tekst, to spokojnie
wszystko się zapisze
i wszystko będzie
przesłane. No i jeszcze jedno,
trzecie pytanie, czy
używamy NVDA głównie
do testowania dostępności?
Tu prosta rzecz, wybieramy
albo tak, albo nie.
No i następnie wysyłamy
formularz. Także
jeżeli macie ochotę podzielić się z NV Access
swoimi wrażeniami
skorzystania z NVDA, no to
zapraszamy, polecamy.
Może faktycznie warto, ja to
zrobiłem,
więc wy też zróbcie,
jeżeli macie taką
ochotę.
A teraz coś dla tych, którzy
nie widzą, a mimo tego
chcieliby sobie
powizualizować różne dane.
Jest narzędzie do tego.
Tak, właściwie to jest
może nawet narzędzie do autorów
takich wizualizacji,
którzy chcieliby je nam udostępnić,
więc może być coś, co
możemy komuś wysłać.
Narzędzie nazywa się
Data Navigator
i to jest narzędzie webowe,
które nam pozwala udostępnić
no właśnie jakieś informacje, które są wizualnie
gdzieś pokazywane, jakieś diagramy,
jakieś wykresy,
które po prostu są
zazwyczaj osadzone jako zwykłe
zdjęcia i tak tutaj cały czas to wygląda,
ale my gdzieś możemy też do tego zdjęcia
sobie podpiąć właśnie
w reprezentacji tych danych
w takim bardziej dostępnym sposobie.
Jak to narzędzie działa?
No działa
w taki sposób, że ma
własne skróty klawiszowe,
ale właściwie nie tylko, które pozwalają
nam
po tych informacjach sobie
chodzić. To generalnie jest
wykorzystywane zazwyczaj jako
drzewo, więc tutaj można by wykorzystywać
to zarówno właśnie takich prostszych jakichś
wykresów, jak i do czegoś
bardziej zaawansowanego.
I co ciekawe, to ma
działać wszędzie. Co mam na myśli?
Bo możemy wykorzystywać
to z klawiatury. Mamy skróty klawiszowe,
które pozwalają nam po tych
danych chodzić. Mamy
gesty na ekranie dotykowym.
Tutaj musimy je wykonywać
poprzez przytrzymanie najpierw na
tej grafice, no bo niestety
czytniki ekranu na strunach internetowych
mobilne nie mają
jeszcze możliwości,
nie ma do tego bezpośredniego, tak jak to mamy
w natywnych aplikacjach niestety. Może kiedyś się to
zmieni, ale na razie można to
tak obejść. Ale też
nawet można z tego
korzystać poprzez polecenia głosowe
i to wtedy wykorzystuje
system rozpoznawania mowy,
który jest zbudowany w przeglądarki.
Możemy wpisywać polecenia,
wyszła polecenia i możemy
nawet sterować tym gestami
z kamerki.
I pojawił się jakiś problem
i teraz pytanie,
czy to u mnie,
czy to wszędzie?
Nie, to chyba nie u Ciebie,
to u Piotra coś.
Piotr nam zniknął, niestety.
To może ja się
wetnę w tym czasie z moim newsem,
który mam z technikaliów.
I będę się powoli, jeżeli oczywiście Piotr
wrócić, będę się
gdzieś pewnie żegnał powoli,
bo obowiązki też jakoś
wzywają, a to mój jedyny news w technikaliach.
Natomiast mam dla Was coś
fajnego.
Znaczy mi się to spodobało bardzo.
To jest fakt, że Unia Europejska
pracuje nad cyfrowym portfelem.
I portfel ten
już ma nawet swoją
wyobraźcie sobie nazwę.
Jak takie
rozwiązanie może się nazywać?
Jakie przechodzą to jakieś Europej,
Europapej,
coś tam z euro w nazwie.
No i poniekąd jest to prawda,
ale tylko poniekąd, bo z wielu, wielu
nazw wybrano rozwiązanie,
znaczy wybrano nazwę
Wiro, pisane
wero przez w.
We, we od my
po angielsku i row,
no bo euro, euro, wero, euro.
Dziwną mam relację z tą nazwą,
bo mi się kojarzy z angielskim słowem
weirdo, czyli dziwoląg.
Natomiast
myślę, że cel jest szczytny,
bo nareszcie coś się dzieje w kierunku tego,
żebyśmy mogli, zwłaszcza jeżeli macie
jakieś międzynarodowe kontakty,
znajomych w różnych krajach, no nie wiem,
kupujecie w sklepach zagranicznych,
uzyskać coś na kształt europejskiego blika.
Ja przeczytam
może cały artykuł z cashlessa.
I tutaj informacja jest taka.
Europejska inicjatywa płatnicza
EPI, mówiliśmy o niej a propos
różnych systemów właśnie blikopodobnych
dostępnych w Europie, kiedyś
robiłem o tym takiego obszerniejszego
newsa w cyfloprzeklądzie, jednym z pierwszych
chyba w tym roku.
A więc ta inicjatywa deklaruje,
że jej nowy cyfrowy portfel trafi na rynek
w pierwszej połowie przyszłego roku.
EPI, czyli Europejska
Inicjatywa Płatnicza ogłosiła
nazwę handlową, pod jaką oferować będzie
swoje usługi.
Z 238
różnych nazw
wybrano markę Wiro.
Spośród innych brandów
funkcjonujących na rynku usług płatniczych ma się
wyróżniać prostotą oraz
brakiem angielskiego słowa pay,
które często określa rozwiązania płatnicze
oferowane przez instytucje finansowe.
Zdaniem
Martiny Weimer,
dyrektorki generalnej
EPI, marka łączy w sobie
różne elementy, w tym przede wszystkim
słowo we, czyli z angielskiego
my, co ma podkreślać zbiorowy,
europejski charakter inicjatywy
oraz wymowę zbliżoną do
euro, czyli
europejskiej waluty.
Wreszcie
wero jest bliskie
wero przez V,
co w języku łacińskim
oznacza prawdziwy, mówi szefowa
EPI. Sam skrót ma nadal
funkcjonować jako nazwa instytucji,
czyli EPI.
W komunikacie prasowym, towarzyszącym
ogłoszeniu wyboru nazwy wero dla usługi
EPI, podano, że
będzie ona dostępna za pośrednictwem aplikacji
banków członkowskich oraz
jako oddzielna aplikacja mobilna
na urządzenia z systemem Android
oraz iOS. Debiut
planowany jest na pierwszą połowę przyszłego
roku. W pierwszej kolejności usługa
ma wystartować w Belgii, Francji
i Niemczech, a następnie
Holandii. W kolejnych latach
jej zasięg ma być rozszerzany.
I tu się zastanawiam, czy to nie
jest trochę tak, że tu będzie wymagane
euro jako waluta. Jestem bardzo tego ciekaw,
czy to będzie też wspierać inne waluty,
które obowiązują w krajach
unijnych, czy tam powiedzmy
europejskiego obszaru gospodarczego.
Czas pokaże.
Wero ma być cyfrowym portfelem,
dla którego źródłem pieniądza ma być
rachunek osobisty użytkownika.
Umożliwiać będzie zlecanie
kontraktów natychmiastowych,
transakcje P2P, czyli pomiędzy
użytkownikami, płatności w sklepach
stacjonarnych oraz internetowych,
zarządzanie programami lojalnościowymi
i tak dalej. EPI liczy,
że Wero w krótkim czasie stanie się
preferowanym w Europie
portfelem cyfrowym.
No i to wszystko, czego się na razie dowiadujemy.
Fajnie by było,
bo wiele krajów na przykład w ogóle nie ma
jeszcze blika,
takiego blikopodobnego systemu.
Niektóre kraje mają coś,
ale w swojej apce, a nie w apce banku.
Niektóre kraje mają
to przypięte do banku, ale tylko swojego
na przykład. Wiem, że w Belgii jest
ten system BanContact, no i on działa.
Jeżeli macie konto w belgijskim albo w holenderskim
banku i potem
trzeba implementować 50 różnych rzeczy
w bramkach płatniczych
i się męczyć, a tak byłoby jedno
i wszystkie banki, które
przystąpią mogłyby w ramach tego
działać.
No to chyba z mojej strony tyle.
Widzę, że Piotr wraca.
Tak i mam nadzieję,
że mnie słychać i słychać.
No to przekazuję mikrofon.
Ja na dziś się będę już z wami żegnał,
ale do usłyszenia pewnie za tydzień,
w następnym odcinku.
Będą fajne rzeczy, myślę.
Zwłaszcza, że będę brał udział w pewnym ciekawym wydarzeniu,
więc pewnie wam o nim opowiem.
Zostawię was trochę z nutką niepewności,
a tymczasem przychodzę na nasłuch.
No i do usłyszenia.
No to Piotrze, czy coś jeszcze
a propos tego narzędzia do wizualizacji danych?
Jakbyś jeszcze mógł mi powiedzieć, gdzie urwało.
Wiesz co?
Bo się rozgadałem.
Wspominałeś na pewno o tym, że można
to kontrolować nie tylko za pomocą
skrótów czy ekranu dotykowego,
jeszcze głosem i coś jeszcze?
I z kamerki.
Też można gestami połączyć z kamerką.
Mówiłem, że to testowałem, bo jest
na stronie taka przykładowa wizualizacja,
która pokazuje trofea zdobyta
przez kilka znanych klubów
piłkarskich, angielskich.
I co ciekawe, to mi lepiej działało
na Maku, bo faktycznie
mogłem sobie chodzić po tym z ciałkami
i wchodzić do poszczególnych
sekcji, to jest najpierw mamy
przeczytane osi X i Y,
a potem mamy poszczególne drużyny,
ile ogólnie zdobyła
taka drużyna trofeów
i kiedy wejdziemy sobie do jakiejś drużyny,
to mamy to wtedy rozbite na
poszczególne
jakieś wydarzenia, premier league i tam
jakieś mistrzostwa chyba
świata, coś tam jeszcze. Więc to jest
zrobione w formie takiego drzewka, natomiast
co ciekawe, na Windowsie
to mi działa gorzej i to mnie zaskoczyło,
bo zazwyczaj jest na odwrót z takimi bardziej
skomplikowanymi web aplikacjami,
bo MVDA mi
nie czyta nic,
kiedy chodzę z ciałkami, mówi tylko figura
jako grafika i wtedy nawigacją obiektową
mogę do tego wejść i przeczytać
to dokładnie co tam ma być powiedziane,
natomiast zastanawiam się gdzie
czy jak to było stosowane.
Kod jest na GitHubie, więc w sumie myślę,
że warto będzie to zgłosić,
żeby to działało lepiej
dla wszystkich systemach.
No i to
właściwie wszystko. Mam nadzieję, że
więcej osób będzie z takiego typu
rozwiązań korzystać, albo właśnie jakieś
wykresy czy tego typu dane
jakoś pokazywać nam w bardziej
dostępny sposób, czy tym narzędziem, czy
w jakiś inny sposób.
Zanim przejdziemy do kolejnych tematów
odbierzmy telefon od
naszego słuchacza, od
Bartosza.
Zobaczymy z czym
tym razem Bartosz do nas dzwoni.
Jeżeli chodzi o wasze
wypowiedzi tekstowe, no to
na razie nic
nie ma. Jeszcze się upewnię i
sprawdzę, ale nie.
Na razie tu jest cisza, więc
no cóż, zobaczymy
z czym do nas
Bartosz dzwoni.
Ale na razie
nie podłączył sobie
dźwięku jeszcze,
więc chyba
musimy przejść do
kolejnego tematu.
A Bartosz, no miejmy nadzieję,
że za moment się do nas odezwie.
Przechodzimy do
technikaliów. Już Paweł gdzieś tu nam
zapoczątkował ten techniczny wątek,
a ty Piotrze
masz informacje na temat dużej
aktualizacji od Microsoftu
dotyczącej Windowsa 11.
Co tam w niej? Dokładnie.
Co tam się pozmieniało? Co ciekawe w ogóle to nie jest
tak jak wszyscy się spodziewali, bo cały czas
Windows 11 jest teoretycznie na wersji
22H2, czyli
druga połowa
2022 roku.
No i wszyscy spodziewali się, że ta duża
paczka nowości będzie
wersją 23H2
właściwy, bo już mamy przesień, a nie.
Numer wersji się nie zmienił, ale to jest
taki, jak oni to chyba nazwali, po prostu
feature pack, więc no właśnie
taka paczka funkcji.
A co to są za funkcje?
No to są rzeczy, o których poniekąd mówiliśmy,
bo one były wcześniej testowane
w tym programie insajderskim.
Oczywiście sztandarową nowością jest
AI. Mamy co-pilota
w Windowsie, czyli
to jest no właśnie
chatbot oparty na czacie GPT
na Bingu.
Słychać mnie?
Tak, jak najbardziej.
Okej, dobra, bo już myślałem, że coś
mi znowu wyskoczyło. Dobra.
No właśnie, mamy co-pilota,
którego możemy sobie z każdego miejsca skrótem
w Windowsie wywołać, zadawać mu
różne pytania.
Nie tylko takie
ogólne, ale też nawiązując
do tego, co akurat robimy. Tutaj
jest podany taki przykład, że możemy
przeszukiwać pliki, zapytać go
jak daną rzecz wykonać w
jakiejś aplikacji, na przykład zduplikować slide
w powerpointie. Są rzeczy, które
jeszcze nie działają tak fajnie, jak
mają w przyszłości, na przykład
kiedy zapytamy go,
żeby nam jakąś aplikację otworzył.
Nie wiem, czemu nie byłoby szybciej tego zrobić z menu
start, ale można to też zrobić stąd.
No to najpierw jesteśmy, no mówi,
okej, to ja ci teraz tą aplikację otworzę.
Zaraz zostaniesz przeniesiony do tej aplikacji,
czy chcesz kontynuować. No,
chyba nie o to chodzi, ale no
mamy tego chatbota.
Myślę, że on za jakiś czas pewnie też będzie
fajnie zobaczyć, co widzi na ekranie,
a to już może nam otworzyć ciekawe możliwości.
Może będziemy mogli wtedy go pytać o
jakieś zdjęcia, które widzimy,
albo może o jakieś niedostępne aplikacje.
Może kiedyś będzie mógł klikać
w coś. No to ciekawe, jak to się będzie
rozwijało.
Mamy też
AI w Paint,
które na przykład pozwala nam
izolować twarze z
tła, no tak jak na przykład na iPhone’ie. Jakiś czas
mogliśmy to robić. No tutaj
są takie narzędzia też do tworzenia obrazów
przez sztuczną inteligencję.
W Paint’cie się pojawią.
Tak samo w aplikacji ClipChamp,
to jest edytor filmów.
Mamy też aplikację
SteepingTool do
robienia zrzutów ekranu.
I tutaj też jest AI,
ale to jest, myślę, coś,
co może bardziej nam
się przydać, bo
jest ta aplikacja w stanie trochę tak, jak to
mogliśmy zrobić od jakiegoś czasu na
iPhone’ie czy Mac’u, wydobywać tekst
ze zdjęć, więc możemy sobie właśnie
zrobić zrzut ekranu na przykład i
zaznaczać i kopiować tekst, klikać
włącza. Nie wiem, jak to jest dostępne,
natomiast taka funkcja się
pojawiła. Kolejna rzecz, która może nam się
przydać,
to to narzędzie też doczekało się
funkcji nagrywania
ekranu. To wcześniej
było dostępne w tym pasku
dla graczy i tym się dało nagrywać
wszystkie aplikacje, natomiast teraz to jest
w tym narzędziu i też
ma to możliwość
nagrywania zarówno dźwięku
w całym systemie, jak i naszego
mikrofonu, więc to może być narzędzie,
które może nam się przydać,
jeśli chcemy komuś coś
pokazać, wrzucić jakiś film na
YouTube’a, zademonstrować jakąś aplikację
albo zgłosić jakiś błąd dostępności.
Tak mamy, jest coś nie tak w jakiejś aplikacji,
kontaktujemy się ze wsparciem
technicznym, no to możemy od razu
włączyć filmik, pokazać, że
coś na przykład nie jest czytane w taki sposób,
jak byśmy
się tego spodziewali.
Aplikacja zdjęcia też doczekała
się funkcji sztuczno-inteligentnych,
bo pozwala nam na przykład
przeszukiwać zdjęcia po słowa
kluczowe, które mogą też
mówić o przedmiotach, które w danych
zdjęciach się znalazły, więc jeśli, nie wiem,
chcemy znaleźć wszystkie zdjęcia z naszym
pupilem domowym, z naszym
pieskiem, kotem, z jakiegoś konkretnego
miejsca, gdzie jakieś zdjęcie zostało
zrobione, no to możemy to
zrobić.
To działa po obiektach,
po lokalizacjach i po datach
i też aplikacja zdjęcia,
co ciekawe, będzie teraz też mogła się
zsynchronizować
z iCloud, więc jeśli mamy
dodane konto iCloud
do systemu, mamy aplikację iCloud
wciągniętą, no to w aplikacji zdjęcia też
będziemy widzieć wszystkie zdjęcia, które
mamy w tej chmurze i też będziemy
je sobie w ten sposób przeszukiwać i
coś z nimi
zrobić. Pojawiła
się aplikacja Windows Backup,
która będzie automatycznie
kopiować niektóre foldery, takie jak dokumenty,
pulpit, właśnie zdjęcia,
pobrane rzeczy
do chmury OneDrive,
a także aplikacje, które mamy zainstalowane
i ich dane, przynajmniej jeśli chodzi
o aplikacje ze sklepów Microsoft
i to jest też,
ta aplikacja też będzie dostępna
na Windowsie 10, więc jeśli
chcemy sobie zrobić kopię zapasową na
starszym komputerze, bo kupujemy nowy
z Windowsem 11, no to będziemy mogli to
zrobić, a żeby później
taką kopię przywrócić, no to działa bardzo
podobnie jak na iPhone’ie czy
na Androidzie. Jesteśmy o to pytani
podczas kreatora pierwszej konfiguracji, tam
gdzie ustawiamy język, logujemy się do konta
Microsoft, co teraz jest
wymagane generalnie, no chyba, że to obejdziemy
na różne sposoby, no i
wtedy też będziemy pytani, czy chcemy
zrobić takiej kopii zapasowej, no i tam
niektóre rzeczy, niestety na razie
nieliczne, no i właśnie te aplikacje
tylko ze sklepu będą
nam przywrócone.
Są poprawki w dostępności,
no właśnie to po pierwszej konfiguracji
to narzędzie Voice Access, czyli to jest
sterowanie przez rozpoznawanie mowy,
niestety jeszcze nie po polsku, jest dostępne
na tym kreatorze.
Mamy też
nowe głosy narodowe
w narratorze,
niestety jeszcze nie po polsku,
aczkolwiek myślę, że prędzej czy później to się
stanie, no bo
wcześniej mieliśmy tylko głosy po angielsku,
właściwie to były angielskie i stany dzielniczone,
teraz mamy też głosy
z akcentem brytyjskim i indyjskim,
ale nie tylko, bo mamy też
hiszpańskie, francuskie, niemieckie,
chińskie, japońskie
i koreańskie,
oprócz tych nowych angielskich głosów
w narratorze, i to są takie, no właśnie
przyjemne
nowe głosy
neuronowe.
Mamy
nowe funkcje w zabezpieczeniach,
mamy na poziomie systemu
wsparcie dla Passkeys,
czyli tego nowego sposobu
logowania się na różne strony, który też
już jest dostępny na
iPhonie, na Androidzie, na Macu,
teraz też na Windowsie, więc
możemy sobie takie dane logowania
z różnych stron zapisać na naszym urządzeniu
i później przy logowaniu tego jesteśmy
pytani o weryfikację,
albo poprzez
odcisk palca, albo poprzez twarz,
jeśli nasz komputer ma
kamerkę, która wspiera Windows Hello,
tak zwany system,
lub po prostu wpisanie kodu PIN, no i
w ten sposób jesteśmy logowani,
nasz komputer nas
autoryzuje. I też używając
właśnie tych kamerek, jeśli mamy taki
komputer, no też komputer będzie
w stanie wykryć, czy jesteśmy przy nim,
akurat, czy patrzymy się na niego, jeśli nie,
no to automatycznie przyciemni ekran,
zablokuje go po jakimś czasie
i w ten sposób będzie
zużywał mniej energii, no i dzięki
temu też nasze dane gdzieś
też nie uciekną
i nie będą
dostępne dla osób, które
nie powinny do nich
dostęp mieć. Też mamy tutaj
zmiany dla firm, ale to chyba
możemy pominąć.
Coś, co nie jest tutaj wspomniane, ale myślę,
że warto o tym wspomnieć, bo też to
było testowane i to z tego, co wiem, jest
dostępne. Eksplorator Windows
może w końcu otwierać różne
archiwa, nie tylko pliki zip,
później też jeszcze były pliki ISO,
obrazy płyt dodane, no ale teraz
możemy też otwierać wszystkie inne archiwa,
7zip,
rar, tar.gz
i właściwie wszystkie inne popularne
typy plików skompresowanych.
Teraz możemy sobie w Eksploratorze otwierać,
a za jakiś czas też ponoć mają
pojawić się funkcje kompresji
też w tych formatach, więc no zobaczymy.
Natomiast jeśli macie
komputer z Windowsem 11, to jest
darmowa aktualizacja, możecie sobie
po prostu wejść do uaktualnień
i ją sobie ściągnąć.
Jeszcze a propos aktualizacji i tej
darmowości, to Microsoft
z tego, co czytałem ostatnio,
to już ostatecznie planuje
wyłączyć możliwość aktualizowania
z tych poprzednich systemów do
Windowsa
11
i do Windowsa 10,
z siódemki i z ósemki, bo
ponoć to do teraz działało
na podstawie klucza
produktu z poprzednich
systemów, ale Microsoft postanowił
jednak to w końcu
zablokować i teraz będzie można się tylko
z dziesiątki do jedenastki
zaktualizować.
Tymczasem mamy słuchacza na łączach,
jest z nami Bartek.
Dobry wieczór. Bartku,
z czym do nas dzwonisz?
No dobry wieczór. Na początek
może powiem, że dzisiaj chyba pobiłem
swój rekord oczekiwania, bo chyba
ponad godzinę żeście mnie trzymali, ale
rozumiem ważne tematy, to nie warto
tutaj przerywać, prawda?
Jeżeli chodzi o telefony
czy wypowiedzi słuchaczy,
z czym do was dzwonię?
Na początek chciałbym może
takiego słowa użyję się pochwalić,
że w zeszłym tygodniu miałem okazję być
na wycieczce,
może to też będzie nieodpowiednie
słowo, zaraz spróbuję może
dobrać inaczej.
Konkretnie to była wycieczka
do Muzeum
Pamięci w Szczutowie,
nie wiem czy kojarzycie.
Tam kiedyś był
obóz koncentracyjny podczas II
Wojny Światowej,
a konkretnie ta wycieczka
dotyczyła
dostępności
dla osób niepełnosprawnych
i tutaj mówimy nie tylko o niewidomych,
ale również osób głuchych czy poruszających
się na wózku.
Jeżeli chodzi o naszą grupę,
to tak jak
zaobserwowałem, to ona była
najmniejsza, bo raptem
były dwie osoby niewidome
i to z Polski, bo wycieczka była łączona,
były osoby z Polski i z Niemiec.
Cała
konferencja już tego słowa
była oczywiście tłumaczona
w czasie rzeczywistym przez tłumaczy,
zarówno na język niemiecki, jak i na polski,
ale tutaj
z własnego doświadczenia
mogę niestety przyznać,
że to muzeum dla osoby niewidomej
jest całkowicie niedostępne.
Nawet nie mówimy tutaj o barierach
architektonicznych, ale przede wszystkim
o wystawie
i ekspozycji,
jaka, że tak powiem
jest możliwa do zwiedzenia
dla
przeciętnego Kowalskiego.
Prosty przykład, jeżeli
mamy ekspozycję umieszczoną
za szybą
i to jest w formie,
no na pewno
to jest możliwe
do dotknięcia, gdyby to było,
nie było zasłonięte,
ale tylko tak naprawdę osoba
widząca może zrozumieć, co tak naprawdę
znajduje się za
gablotą.
Nawet nie było opisów brailowskich
i tutaj właśnie wspólnie
próbowaliśmy
z drugą osobą niewidomą
znaleźć jakieś takie
rozwiązanie, które można by było wdrożyć.
Zobaczymy tak naprawdę
jakie będą tego rezultaty,
bo z tego co słyszałem
w grudniu też szykuje się wycieczka
do Niemiec, gdzie też będziemy
taką
można powiedzieć operację
przeprowadzać, czyli też będziemy
oprowadzani
po ichniejszym
muzeum i
sprawdzania jakie bariery
można by było tam przełamać,
jeżeli chodzi o bariery dla osób niepełnosprawnych.
No to Bartku a propos takich miejsc
to ja powiem, że byłem
też jakiś czas temu,
to był
sierpień zdaje się, tak w sierpniu,
w sierpniu, byłem w muzeum
w Auschwitz i
muszę powiedzieć, że mam podobne odczucia.
Mam takie
wrażenie, że
niestety, ale tego typu
miejsca ze względu
na
też charakter,
na charakter eksponatów,
na to, że to wszystko jest jednak
dość delikatne,
są to efekty jakiejś
wykopalisk i tak dalej,
no będzie bardzo
trudne, żeby stało się dla nas
dostępne. Co ciekawe,
co ciekawe, jeszcze od razu
powiem, na przykład
plan tyflograficzny
obozu jest
stworzony, można sobie go obejrzeć.
W ogóle tam przed samym wejściem
no to
widać, że
tam ostatnio coś zostało bardzo, bardzo,
bardzo zmodernizowane, jest tak
bardzo nowocześnie,
ale to oczywiście to miejsce przed
wejściem, kiedy tam się wchodzi,
bo sam
teren obozu, czy Auschwitz,
czy Birkenau, no to
wiadomo, że tam nic modernizowane
nie jest, to wszystko jest utrzymywane w takim stanie,
w jakim było, natomiast
no z takich właśnie rzeczy,
które są dla nas dostępne,
no to możesz sobie zobaczyć plan
no i po prostu no
przejść się. To tak naprawdę to
chociaż tyle, że był ten plan
tyflograficzny, bo tutaj
w Stutthofie tak naprawdę i nawet
nie było. Ja powiem szczerze
bardziej, ja to nawet traktuję jako
taką makietę
niż plan, bo tego jest
tam tak dużo, tak dużo
tych różnych budynków,
baraków, że oczywiście na podstawie tego
planu to raczej nie udałoby się
dotrzeć do konkretnego miejsca,
natomiast
no można sobie przynajmniej to tak
wiesz, oglądając ten plan
to wyobrazić
jak tego jest dużo.
Moim zdaniem właśnie tutaj mogłaby
zadziałać nasza wyobraźnia
jak nas oprowadzała
tutaj pani przewodnik
po tym muzeum, ale
doszliśmy do wniosku
razem z koleżanką
niewidomą, że
chociażby można by było na przykład
jeżeli
były na przykład pasiaki, tak,
czyli stroje tych więźniów,
to można by było zrobić takie
mikromakiety,
żeby chociaż można by było
sobie dotknąć i wtedy już
samemu w głowie zwizualizować
jak to tak naprawdę wyglądało, bo tak naprawdę
co nam po samym obrazie, że to
jest pasiak. No my
no pasy, ale jak to tak może
wyglądać, no
jaki to ma kształt,
to nic nie było opisane,
albo chociażby już
zaproponowaliśmy
kody QR,
które można by było zeskanować
i wtedy
taka osoba mogłaby
wtedy sobie przeczytać już za pomocą telefonu
chociażby. Tak, bo tych tablic
to przynajmniej no tak
z perspektywy Auschwitz,
podejrzewam, że w Stutowie jest podobnie,
tych tablic jest naprawdę dużo,
tych różnych opisów jest dużo.
Tak, tam większość to były
opisy.
Zgadza się
i no niestety tutaj
było to wszystko po naszemu mówiąc
w czarnodruku.
I wiadomo, że
to by za dużo miejsca zajęło,
ale chociażby właśnie… Nie, nie, nie, ale kod QR, kod QR.
Kod QR to by
oczywiście by wystarczył, a
nawiązując do reszty ekspozycji
też wpadliśmy na pomysł, że
mogłyby być takie audiogajdy,
które
mogłyby
w czasie rzeczywistym
informować,
właśnie informować
w formie audio, co
znajduje się za tymi gablotami, chociażby
w ten sposób nam to jakoś
zwizualizować, żeby uruchomić naszą
wyobraźnię, ale wydaje mi się, że jeżeli
jak już podałem przykład
chociażby tych pasiaków, to chociażby
takie właśnie mikromakiety
stworzyć. Wydaje mi się, że to właśnie
to byłby dobry pomysł.
Też mi się wydaje, że
to, że to nie jest głupia idea.
No, muzea
tak naprawdę, no część muzeów
oczywiście otwiera się
i stara się być dostępnymi,
natomiast, no wiadomo,
bardzo różnie to bywa. Też
bardzo, bardzo mam wrażenie, zależy
na kogo trafimy, jak bardzo
przeszkolona jest obsługa.
No tutaj
odniosłem takie wrażenie, że chyba jakby
po raz pierwszy mieli
do czynienia z osobami niepełnosprawnymi.
Takie troszeczkę
odniosłem wrażenie, no
że
ta tłumaczka,
ta przewodniczka,
przepraszam, no tłumaczyła dość
zrozumiale, ale jeżeli
chodzi o prowadzenie, no to
trzeba było pytać
osoby w miarę sprawne.
Więc
wydaje mi się, że tutaj też takie przeszkolenie
by się przydało tym pracownikom.
Takie subiektywne
wrażenie można by było odnieść.
Oczywiście tylko to jest
moja opinia, nie wiem jak tutaj
inni by się do tego odnieśli,
którzy ewentualnie tam byli.
Ale no mówię,
jeszcze zobaczymy, co przyniesie
wizyta, bo nie wiadomo, czy ja
pojadę, czy pojadą wybrane osoby,
bo tak słyszałem właśnie, że w grudniu
mamy, czy chyba właśnie
do Auschwitz, czy
jeszcze
w jakieś miejsce pojechać
i zrobić coś podobnego, jak tutaj
w Szczutowie zrobiliśmy.
Bo to to, można powiedzieć, że to jest
tak zwany program pilotażowy, tak i dopiero
wtedy będą wyciągać wnioski, analizować
i szukać
tych udogodnień dla osób niepełnosprawnych.
No i dlatego zobaczymy,
co tutaj czas pokaże, jeżeli chodzi
o tą kwestię, co chciałem się wypowiedzieć.
Druga sprawa, no to
temat praktycznie
powracający,
jak poniedziałek co tydzień,
tak już przyrównam,
czyli iOS.
Nie wiem, czy Michale pamiętasz,
Piotrze, zapewne ty też pamiętasz.
Cały czas mam problem
z tymi gestami podczas ładowania
w iPhonie.
Te gesty w
voiceoverze, no raz się wykonują,
raz się nie wykonują,
ale zauważyłem po aktualizacji
do siedemnastki, że u mnie pojawił się
jeszcze jeden problem i to też
związane z voiceoverem moim zdaniem,
że mam problemy z usuwaniem połączeń
w aplikacji telefon.
Bo jak
wybiorę z czynności
opcję usuń i
chcę ją zatwierdzić,
to zamiast mi ją usunąć,
on wykonuje mi to połączenie.
No czyli to też ewidentnie
jakiś problem z dotykiem. Ty Bartku
wspominałeś o tym w poprzedniej audycji.
Tak, tak, no właśnie mówię, że
i też tutaj
zastanawiam się z tym, żeby jednak
rzeczywiście oddać go na tą gwarancję.
No chyba po prostu nie ma sensu
już dłużej z tym walczyć,
bo…
Niczego tutaj kombinować.
Gwarancja jest, tak.
Tylko pojawia się jedna
przeszkoda niestety.
Brak zapasowego sprzętu.
No…
Ale mówiłeś, że miałbyś
jakiś tam zapasowy.
Znaczy się, wstępnie
jest ustalony, że będzie to
stary SE,
no ale tutaj niestety będę zmuszony
postawić
Apple ID
zupełnie czyste,
bo nie będę w stanie tego
przywrócić z backupa.
No ale miejmy nadzieję,
że ta naprawa długo nie potrwa,
chociaż
de facto będzie można zachować same kontakty,
bo jak oczywiście ustawi się
w iCloudzie, to bynajmniej to się uratuje.
Dokładnie.
No niestety, to jest
sprawa problematyczna.
Aczkolwiek, no
pozostaje mieć nadzieję, że rzeczywiście
naprawią w miarę szybko.
A jeżeli mogę tak podpytać, to wiecie kiedy
może się pojawi już stabilna wersja 17.1?
Bo tak mówiliście, że te
poprzednie błędy zostały naprawione
w betcie, to…
Wiesz co, zazwyczaj to takie
wersje bette to są
nie wiem, zazwyczaj 4-5 bet
wychodzi, a z tego co widzę, no to
mamy tutaj cykl cotygodniowy, bo
No tak, bo w zeszłym tygodniu było 0.2,
dzisiaj była 0.3.
Ale to wersje takie, wiesz,
pod wersję… Wersja 0.3
to swoją drogą, bo tam, tak, bo tam była kwestia,
że ten iPhone 15 się przegrzewał,
tam jakieś błędy były.
No a jeśli chodzi o beta 17.1,
nie wiem, tak szczerze na koniec października,
początek listopada.
Fajnie, że wróci
i ta kwestia dzwonków
własnych, że będzie można
je z powrotem tworzyć, bo tutaj
słyszałem wielu, że
narzekało na brak tej opcji.
Tak, i dosyć ciekawe też nie tylko wśród niewidomych
się okazało, ja zawsze myślałem, że jakoś
ostatnio dużo osób ma te telefony wyciszone,
no ale jednak, no właśnie po tej aktualizacji
się zaczęły ujawniać
osoby, które też
właśnie z tego korzystały, więc…
Okej, i jeszcze
jedna kwestia
a propos 15
października, wiadomo jaki to
będzie dzień? Niedziela chyba.
Nie, nie, nie, nie mówię
o tygodniu, Piotrze. Okej.
Chodzi tutaj
o datę. No będą wybory, wiadomo.
No właśnie, i tutaj chciałbym
się zapytać was, bo ja bynajmniej
nie słyszałem, chociaż tych reklam o
głosowaniu było
sporo, powiedzmy wprost,
ale czy
słyszeliście, czy może będą jakieś
nakładki, żeby osoba niewidoma
mogła samodzielnie zagłosować?
No zwykle te nakładki
są, natomiast żadnej
informacji wprost ja
nie słyszałem.
Bo ja tak naprawdę, no,
chciałbym sam zagłosować i teraz
jak zareagować? Zapytam
się oczywiście o te nakładki, czy są,
no, sami
powiedzieliście, teoretycznie powinny być.
Ewentualnie
zawsze,
chociaż teraz to już chyba jest za
późno na to. Tak, można
było zgłosić, że będzie się głosowało
przez pełnomocnika. Albo
korespondencyjnie. Tak,
ten dzień chyba
minął we wtorek bodajże,
albo w poniedziałek, jak dobrze pamiętam, bo też
chyba nawet w telewizji o tym mówili.
I warto tak w ogóle,
słuchajcie, sprawdzić swoje dane
w centralnym rejestrze,
czy krajowym rejestrze,
teraz nie pamiętam jak on się dokładnie nazywa,
ale rejestrze wyborców w każdym razie.
Słuchajcie, bo
jest to o tyle istotne,
że
trzeba zweryfikować, czy
w danym miejscu, w którym
obecnie jesteście,
macie prawo głosu.
Bo jeżeli na przykład się
przeprowadzacie, jeżeli
zmieniacie swoje
miejsce zamieszkania, albo
podobno też
z powodów jakichś różnych błędów
systemowych,
czasem się okazywało, że prawo głosu
mamy zupełnie w innym miejscu.
Więc warto
swoje dane tam sprawdzić.
Logujemy się przez
profil zaufany i jeżeli
coś jest nie tak, to te dane
chyba jeszcze
można poprawić.
Wydaje mi się, że to
chyba można poprawiać do
ćwiczy wyborczy oczywiście.
No właśnie, nie byłbym
tego taki pewien, więc warto to
sprawdzić wcześniej.
Dobrze, że akurat mnie to nie dotyczy, tak powiem
subiektywnie. Wiesz co?
Ja bym na twoim miejscu
mimo wszystko sprawdził.
A czy w
M-Obywatelu jest taka możliwość?
Nie, to się trzeba zalogować przez profil zaufany.
To
Michale, jeżeli mogę cię tak na szybko
poprosić, dasz mi wskazówki,
jak się zalogować wtedy chociażby
przez PC?
To znaczy wpisz sobie w Google
centralny rejestr wyborców,
sprawdź dane
i będzie
i coś ci wyskoczy na pewno.
Okej. I jeszcze taki jeden
temat mi się pojawił. Ja de facto
słyszałem o tym temat
dwa albo trzy tygodnie temu.
Może nie będę
mówił w jakim serwisie
informacyjnym, że
podobno od przyszłego roku
mają zniknąć całkowicie
papierowe paragony. Nie wiem, czy też
słyszeliście może coś
w tym temacie?
Słyszałem o jakiejś aplikacji,
która… No tak, tak.
Właśnie do tego uderzam
Michale i teraz właśnie się zastanawiam,
jak to będzie przystosowane do osób niewidomych
i na jakiej zasadzie w ogóle to będzie funkcjonować.
Nie testowałem jeszcze.
Nie testowałem, ale chyba ta aplikacja już się pojawiła.
Chyba już jest nawet jakaś aplikacja
i gdzieś widziałem
takie informacje, że na razie to
z jej dostępnością nie najlepiej.
Jest kiepsko. Tak, tak.
Ale… Szczerze wątpię, żeby
zniknęły całkowicie
papierowe paragony. Też mi się tak wydaje. To raczej będzie
coś na zasadzie uzupełnienia, ale
żeby one miały
faktycznie zniknąć, to…
to chyba jeszcze nie ten moment.
Ale to na oba systemy
jest ta aplikacja, czy na razie tylko na…
Raczej tak.
Dokładnie. A pamiętasz
może nazwę?
Nie. Nie powiem
Ci, bo naprawdę
gdzieś mi ten temat przemknął,
ale po prostu
jakby nie zainteresowałem się nim
totalnie na razie.
Okej, tak tutaj tylko na marginesie, bo może właśnie
mieliście jakieś informacje w tym temacie,
więc tak tylko uderzyłem
do tej sprawy. W porządku.
Widać, że moje czekanie się
opłaciło, a także wracam dalej do
słuchania. Pewnie jeszcze sporo
tematów przed Wami. Dzięki serdeczne tutaj, że
mogłem się podzielić.
Tylko jeszcze
Piotrze, a propos tych
powiadomień,
w iOS-ie oczywiście
to nie da się tego tak przywrócić
jak było przed
aktualizacją do siedemnastki, żeby nam
czytało godziny i powiadomienia?
Nie, jeśli chcesz zawsze słyszeć godzinę, to musisz
narazie sobie to wszystko powyłączać.
Aha, czyli tam jak wejdę w
dostępność VoiceOver
szczegółowość i tam jest powiadomienia,
tak? I tam… Tak, i tam jest powiadomienia na ekranie
blokady i tam musisz po prostu
zaznaczyć opcję nic nie rób i tam
wstróknij to dwa razy, żeby to było zaznaczone,
bo tam czasami kilka razy trzeba w to wstróknąć,
żeby się pozaznaczało to
odpowiednio. U mnie to
w ogóle coś ostatnio z tym gestem
potwierdzania też się dzieje nie tak, bo…
No to akurat jest
bardziej szerszy
problem, bo też więcej osób to zgłasza.
No mniej więcej jak tam będziesz w tych ustawieniach,
no to upewnij się, że VoiceOver mówi,
że to jest faktycznie jest zaznaczone i
wtedy to powinno. A orientujesz
się może jak już pojawi się
ta oficjalna
wersja 17.1, czy
trzeba będzie też to samemu
ustawić, żeby wrócić do wersji
pierwotnej? Tak, no to wtedy
musisz sobie z powrotem wejść do ustawień i przestawić,
czy chcesz mieć czytaną
liczbę, czy traść powiadomień, no to tak.
A pamiętasz Piotrze, bo ja de facto tak się w to
nie zagłębiałem, bo dopiero teraz jak
siedemnastka weszło to, że tak powiem zwróciłem na to
uwagę, że są czytane
tylko, że jest czytana
tylko liczba powiadomień, bo wiadomo, że
jeszcze w ostatniej wersji
16.6.1, jak dobrze
pamiętam, to była godzina
i powiadomień. A to
jak wejdzie już ta
16.1, to którą
opcję trzeba wybrać?
Ale co chcesz mieć czytane, czy
traść powiadomień, czy tylko liczbę?
Tylko chcę mieć liczbę i godzinę.
No to tylko to zaznacza, że tam
masz, tam chyba cztery
przełączniki, wyświetlaj w brajlu,
mów liczbę, mów treści i nic
nie, no to po prostu zaznaczasz tylko mów liczbę.
I to w
tej pierwszej części,
bo tam widziałem, że są dwa jakby
klawiski.
To są powiadomienia na ekranie
blokady, tak.
Bartku, natomiast w międzyczasie
znalazłem, wpisz sobie
w Google, sprawdź swoje dane w
centralnym rejestrze
wyborców. To jest na,
pojawi ci się artykuł na stronie
gov.pl
i tam będziesz miał link
do zalogowania się
profilem zaufanym do ePUAPu
i tam już myślę, że sobie
poradzisz ze sprawdzeniem
tych informacji.
Okej, będę próbował. Dzięki serdeczne
za wypowiedź. Przy okazji będziesz
w stanie sprawdzić sobie też dane z innych
rejestrów, bo to jest taki generalnie
Czyli pewnie KRD, tak, Krajowy Rejestr Długów.
Wiesz, nie, no Krajowy Rejestr
Długów to akurat nie, natomiast
tam jest kilka jeszcze
jakichś innych rzeczy, jakiś rejestr
chyba PESEL, na przykład
paszport, jeżeli
kiedyś występowałeś
z wnioskiem o paszport, kilka, kilka
różnych rejestrów tam jest i
można sobie to posprawdzać,
poprzeglądać jakie informacje są
na nasz temat w
tych rządowych bazach.
Jeszcze raz możesz tylko, Michale, powtórzyć co w Google
wpisałeś? Sprawdź swoje dane
w centralnym rejestrze wyborców.
Okej, dzięki
serdeczne. Dzięki również,
dobrej nocy. Pozdrawiam Was
serdecznie, do usłyszenia. Pozdrawiamy
Cię również, trzymaj się,
a tymczasem przechodzimy
do kolejnych tematów.
Microsoft i aktualizacja
Windowsa to za nami,
a przed nami
następne wieści
dotyczące
podcastów i Spotify.
Jeszcze o Spotify to dziś będzie,
ale na razie
kilka słów, to jest informacja,
którą przygotował Tomek, no Tomka
niestety nie ma dziś z nami,
zachorował, życzymy
zdrowia oczywiście, natomiast
jeżeli chodzi o
to co Spotify
nam szykuje, no bo Spotify
chce być takim jednym, by
zawładnąć podcastingiem,
nie tylko
streamingiem muzyki i
we współpracy z
Open AI
przygotowuje
narzędzie
za pomocą, którego
będzie można
słuchać podcastów
w różnych językach. Dajmy na to
mamy podcast angielski, to będzie
można sobie słuchać tego
podcastu w
kilku innych językach.
Na razie na dobry początek
w języku francuskim, hiszpańskim
i niemieckim.
W ten sposób to będzie
zrobione, czyli
mamy angielski podcast
i tłumaczenie
będzie zrealizowane
nie dość, że
na te inne języki, o których
wspomniałem, to również
z wykorzystaniem głosu,
który to
będzie głosem
podobnym
do głosu
prowadzących dany podcast.
Tu będzie wykorzystane
między innymi whisper
do
rozpoznania tej mowy
i później do przetłumaczenia
tej zawartości tekstowej. Następnie
będzie ta
zawartość tekstowa wysyntezowana
tym głosem
stworzonym na bazie
głosu oryginalnego
twórcy bądź też twórców.
Swoją drogą ciekawe, czy jeżeli
będzie sytuacja taka, że
podcaście będzie ileś osób, to
będzie wykorzystanych ileś głosów,
czy na przykład jeden głos,
ten pierwszy, będzie
czytał całą
treść
danego podcastu.
W ogóle ciekawe, jak to się będzie radziło w sytuacji,
kiedy kilka osób naraz mówi.
No, to prawda. Podejrzewam, wiesz,
jeżeli będzie to whisper i to taki
goły whisper. Jeśli to rozdzielą
jakoś, przecież…
No, to może być nawet nie najgorzej,
tylko sam whisper
sobie z tym nie poradzi, to na pewno.
Nawet na modelu Larch,
no bo tu nie ma możliwości
przynajmniej na razie wykrywania
konkretnych mówców.
Są oczywiście jakieś
modyfikacje whispera, które
to potrafią, lepiej
lub gorzej, natomiast sam whisper
nie bardzo na razie
to umie.
Pierwsze podcasty,
które będą
w ten sposób
przekonwertowane,
to
podcasty Daxa Sheparda,
Moniki Padman,
Leksa Fridmana
i Bila
Simonsa.
Więc, no, twórcy,
których szczerze powiedziawszy
ja jakoś nie bardzo kojarzę,
ale to może dlatego, że nie słucham
podcastów
takich zagranicznych aż
za specjalnie, no ale być może na świecie
są to znane postaci,
więc być może
fajnie będzie przekonwertować
te podcasty, przetłumaczyć
je na inne języki.
To oczywiście początek,
bo Spotify chce
zdecydowanie poszerzyć
pulę języków
i dostępnych materiałów w ten sposób,
żeby docelowo,
niezależnie od tego,
w jakim języku się porozumiewamy,
to żeby był dostępny
dla nas cały, cały
katalog podcastów z całego
świata. No, będzie
fajnie, to na pewno,
tylko pozostaje czekać,
aż to rzeczywiście wszystko się
wyklaruje. No i co, Piotr,
za jakiś czas to i Tyflopodcast
może się okazać, że zostanie
przetłumaczony na angielski
i na jeszcze wiele innych
języków i my będziemy tak fajnie
mówić z akcentem i w ogóle.
Co? Czemu nie?
Czemu nie? Może też to zagralisz
na inne podcasty, które
słuchamy, tak?
Taki na przykład Jonathan Mosen
z jego podcastem
chociażby.
Może być rzeczywiście interesująco
i tu trzymamy kciuki za Spotify.
Niech działają
i myślę, że to
będzie z korzyścią dla wszystkich.
Kolejny temat
to jest komputerek
Raspberry Pi, który to
ma zyskać nowe możliwości
i nową wersję przede wszystkim.
Edycję piątą.
Dokładnie. To jest malutkie
urządzenie wielkości karty kredytowej.
To jest właściwie taka płytka. Płytka,
o której w sumie poniekąd
niedawno Tomek mówił, bo właśnie
tego urządzenia wykorzystam, żeby
sobie zainstalować Home Assistanta, bo
to jest generalnie malutki
komputer, na którym możemy
wolny system, no generalnie to jest Linux
zainstalować na nim.
No i on ma różne wejścia, które pozwalają
nam go podłączyć do internetu, do innych
urządzeń, do czujników.
Więc on ma
szerokie zastosowania od
podstawki pod telewizor, po
urządzenie do sterowania robotami,
po ludzie,
routery nim tworzą,
konsolę do gier przenośnej,
nie tylko.
I
jeszcze
nawet, nie wiem, serwery
z plików, no różne rzeczy można
z tym robić. No i właśnie pojawiła się piąta
generacja Raspberry Pi,
która to
wprowadza kilka istotnych
nowości.
Po pierwsze
procesor.
Procesor jest nowy,
to jest
nadal procesor firmy
Broadcom.
To jest oczywiście 64-bitowy
procesor ARM,
Cortex-A76,
2,4 GHz
czteroradzeniowy,
który w porównaniu do
Raspberry Pi 4
jest prawie
dwa albo trzy razy szybszy, więc to
dosyć znaczące przyspieszenie.
I z tego co dziś czytałem, recenzję
sporo osób gdzieś ma do komputerki,
to się sprawdza w praktyce.
W realnych zastosowaniach faktycznie to urządzenie
jest
szybsze. Mamy też
nowy chip
graficzny o taktowaniu 800 MHz.
On też ma
jakiś sprzętowy dekoder,
któregoś z tych popularnych kodeków
video, który dziś w streamingu jest teraz popularny.
Już nie pamiętam teraz który, czy to jest AV1
czy któryś z innych kodeków.
Natomiast to urządzenie spokojnie
potrafi wyświetlić
obraz 4K na dwóch monitorach
na wejściach HDMI, więc no
to jest potężny
chip. To jest też pierwszy
układ Raspberry Pi,
pierwsza płytka, która
wykorzystuje
chipy wyprodukowane przez
samą Raspberry Pi Foundation.
Tutaj
tak zwany mostek południowy
autorski, który
łączy procesor z pozostałymi komponentami
komputerka, czyli
zegarem czasu rzeczywistego,
USB,
złączem Ethernet,
więc z tymi najbardziej
używanymi
podzespołami przez
procesor. No właśnie tutaj też się pojawił
zegar czasu rzeczywistego, natomiast musimy
sami sobie
dodać do niego
baterie.
Jest oczywiście Bluetooth 5.0,
wejście
na kamerę,
tak jak wcześniej
i mamy też
na płytce wsparcie PCI Express,
czyli możemy do niego podłączać
karty, karty graficzne, karty sieciowe,
dyski SSD M.2,
takie bardzo szybkie, natomiast musimy sami
sobie takie wejście dostarczyć.
Na płytce mamy
na to po prostu
odpowiednio, ta płytka jest przygotowana, ale musimy
sami sobie odpowiednio przejściówkę do tego zakupić
i
zainstalować na
tej płytce. Co jeszcze
znajdziemy na tym komputerku?
Mamy, jakie wejścia? Mamy wejście
HDMI i oczywiście
dwa porty USB 3.0
i tutaj też pierwszy raz
każdy z tych portów ma osobny kontroler,
więc mają pełną przepustowość.
Dwa porty USB 2.0,
gigabitowy Ethernet,
wejście na kartę microSD
i tutaj to
microSD też jest jakiś, wspiera
nowy standard
bodajże UHS, który
jest dużo szybszy, więc można
sobie taką bardzo szybką kartę na
ten system dokupić.
Zasilanie przez USB-C
5V
no właśnie
5V, 5A, taki jest
zasilacz dostarczany przez
producenta. Tutaj zwłaszcza to
5V jest, ponownie taki niestandardowy,
więc jeśli planujemy sobie kupić jakiś
niestandardowy zasilacz, znaczy
nie taki, który jest dostarczany przez
firmę, no to warto
zobaczyć, czy on takie
napięcie prądu wspiera, bo jeśli nie,
to komputerek się uruchomi,
ale będzie działał w trybie
zredukowanego zużycia energii i wtedy
musimy decydować, czy więcej prądu
chcemy na portach USB
na przykład, czy
ma więcej prądu iść do procesora.
No więc warto tutaj się upewnić,
że mamy odpowiedni
zasilacz. Ceny, no tutaj
troszeczkę poszły do góry,
natomiast nie jakoś bardzo dużo, bo
około 5$, wersja z
4GB RAMu
kosztuje
55$, a wersja z
8…
Oj przepraszam, to były ceny
z czwórki. Tak, 4GB RAMu
kosztuje 60$,
czyli
około 265 zł,
a wersja z 8GB RAMu
80$,
około
350 zł.
Od października
one już się pojawiły przed sprzedaży, z tego co
wiem, to więcej
nakładu ma być właśnie dla użytkowników indywidualnych,
z czym były wcześniej problemy
z czwórką, one były trudno dostępne,
natomiast tutaj też wiem, że…
Nie wiem jak to wygląda w polskich sklepach, jeszcze nie sprawdzałem,
wiem, że za granicą to na oficjalnej stronie
już gdzieś te kolejki
się zaczęły przeciągać do przyszłego roku, więc
no już gdzieś te
zapasy zostają
wykupowane. To jest też pierwszy
modern Raspberry Pi, który
na płytce nie ma wejścia słuchawkowego,
więc jeśli chcemy też z niego korzystać
jako takiego typowego komputera, nie wiem, podłączyć
klawiaturę sobie do niego na przykład,
no to musimy się zaopatrzyć
albo w monitor HDMI,
który ma głośniki,
lub jakąś
kartę dźwiękową na USB,
no bo niestety już tego wejścia nie mamy,
natomiast jeśli tego nie potrzebujemy, no to
spokojnie.
Tutaj też jest zalecane
ochłodzenie, na płytce jest też
dedykowane wejście, żeby sobie wentylator
podłączyć i zresztą oficjalny
zestaw, który możemy sobie
od Raspberry Pi Foundation, czyli
komputerek, zasilacz, karta i
obudowa, też właśnie w zestawie
jest wentylator, który możemy
sobie zainstalować, no i dzięki temu
też ten komputer po prostu będzie działał
szybciej, no bo procesor
nie będzie musiał zwalniać, żeby
się ochłodzić.
No rzeczywiście,
interesująca wiadomość dla tych
wszystkich, którzy chcą mieć
malutki jakiś serwer,
na przykład w domu, do pewnych zastosowań,
no to jak znalazł.
Ciekawe, czy te ceny,
które Piotrze podałeś, to będą w Polsce
rzeczywiście tak wyglądały,
czy będzie drożej, a jeżeli
tak to i tak. O ile tak.
Tego się niestety
można obawiać. Kolejne
wieści, wieści z
imperium Googla,
to nie są pozytywne wieści.
Słuchajcie, ostatnio
zauważyłem, że po tych modyfikacjach
kanału RSS w
Tyflopodcastie, jedynym
narzędziem, jedyną usługą,
która ma z tym jakiś problem
i po prostu
nie zawsze chce aktualizować
podcasty, to są podcasty
od Googla. Aplikacja, którą
ja zawsze chwaliłem,
teraz no niestety z jakichś
niewyjaśnionych przyczyn
stanęła dęba
i podcasty
nie chcą się odświeżać.
A przynajmniej
nie zawsze, bo to czasem wystarczy
odsubskrybować, zasubskrybować,
potem nagle się pojawiają te audycje, potem znowu
się zatrzymują. Dziwne rzeczy się dzieją z
tymi podcastami, ale
mam takie wrażenie, że chyba
wiem czemu
i to jest też informacja, którą
znalazł Tomek.
Otóż w przyszłym roku nie tylko
podstawowy widok HTML
w Gmailu Google wyłączy,
ale Google wyłączy też
aplikacje, podcasty Google.
Przeniesione podcasty Google
mają zostać do YouTube Music.
No, czy to dobrze, czy to źle?
Może i dobrze,
tylko ja mam wrażenie, że na razie
to YouTube nie jest na to
gotowy, nie jest gotowy na podcasty.
Bo jeżeli chcemy
stworzyć na razie
podcasty,
czyli przenieść do zakładki podcasty
nasze audycje,
to możemy to zrobić
tylko w ten sposób, że
wrzucamy
jakąś konkretną playlistę,
tam w YouTube Studio możemy sobie
wybrać, że chcemy tę playlistę
umieścić jako podcasty.
Natomiast
import
za pomocą kanału RSS
to Google sobie dopiero
planuje na przyszłość.
I o ile, okej,
Tyflopodcast jest na YouTubie,
mamy już prawie pół tysiąca subskrybentów,
tam chyba jeszcze trzech brakuje,
więc jakby ktoś chciał
się dorzucić, to dajcie suba.
Natomiast
no,
nie wszyscy na tym YouTubie są
i nie wszyscy w ten sposób chcą być,
bo to wymaga jednak dodatkowych
pewnych zabiegów, trzeba przekonwertować
na plik audio, na plik wideo,
dodać jakąś tam nawet i statyczną okładkę,
no ale to nie jest
taki typowy podcast.
Podcast to jest kanał RSS plus
MP3.
I większość nawet
takich serwisów,
które
chcą te podcasty zagarniać dla siebie
tak trochę, jak Spotify chociażby,
to to rozumie,
bo pozwala dodać kanał RSS
i nie ma z tym problemu.
W zasadzie, mam wrażenie, nie jest na to gotowe,
więc chyba właśnie dlatego
jeszcze nie ubija tak do końca
tej aplikacji Google Podcasty,
natomiast no, nie przyzwyczajajcie
się do niej za bardzo, bo w przyszłym
2024 roku
ta aplikacja po prostu
zniknie.
A skoro
jesteśmy przy
aplikacjach do słuchania
muzyki, do słuchania różnych rzeczy,
to przejdźmy do Spotifya.
To dla tych, co chcą słuchać razem
ma być coś nowego, prawda?
Dokładnie, bo
no właśnie są takie sytuacje, kiedy
nie wiem, robimy sobie imprezę, może
jedziemy wspólnie samochodem, no i chcielibyśmy
sobie wspólnie posłuchać muzyki.
Każdy chciałby dorzucić coś do
kolejki. No i
niektóre dziś usługi to oferowały,
na Apple Music oferowało coś takiego
poprzez SharePlay, no ale
nie każdy ma Apple Music, może nie każdy nawet ma
iPhona. Fajniej byłoby zrobić to w taki
sposób, żeby każdy niezależnie
od tego jakiego systemu korzysta,
mógł sobie do
takiego, do czegoś takiego dołączyć.
No i właśnie dla tych osób
firma Spotify właśnie wprowadziła funkcję
Jams. Możemy sobie
taki jam
utworzyć,
natomiast utworzyć taki jam
mogą tylko
osoby z kontem premium,
ale dołączyć mogą wszyscy, także spokojnie
to nie jest tak, że wszyscy musimy
dołączyć, albo przynajmniej jedno
jedno z nas.
Jak to się robi? Po prostu zaczynamy
od wybrania playlisty
lub jednego utworu.
I
to się pojawi
to się pojawi w menu, w którym wybieramy
urządzenia, którym
wybieramy na jakim urządzeniu ma się piosenka
odtwarzać. Tam możemy
wybrać
właśnie głośnik, na przykład jakiś
lepszy, czy to bluetooth,
czy na przykład w samochodzie, czy
wi-fi, no albo
jak mamy telefon potłuczony do lepszego głośnika
i tam też znajdziemy przycisk, żeby
utworzyć taki jam. No i wtedy
dostajemy link,
dostajemy kod QR, ale też
osoby, które są na tej samej sieci wi-fi
co my, lub też to działa
przez bluetooth. Po utworzeniu
aplikacji dostaną komunikat, że akurat
w jakim miejscu odbywa się
taki jam i czy
chcielibyśmy
do niego
dołączyć.
No właśnie też możemy, albo przez link,
albo przez kod QR, albo
przez bluetooth. No i co
wtedy możemy zrobić?
Każdy może dodawać piosenki.
Widzimy kto co dodał,
więc możemy coś
zrobić. No i właściciel
tego jamu może
piosenki zamieniać,
usuwać, wyrzucić
jakąś osobę z tego jamu, jeśli
ktoś nam jednak
przeszkadza. Ale też będziemy
widzieć sugestie, co warto
byłoby do playlisty dodać.
I te sugestie będą personalizowane na
podstawie tego, czego wszystkie
osoby, które w tym uczestniczą, akurat
słuchają.
No i to jest już
dostępne globalnie, więc
to gdzieś jest stopniowo wypuszczane,
więc może już tą opcję zobaczycie.
Jak nie, no to obserwujcie właśnie
to menu włączenia.
Niestety nie widzę tutaj informacji.
Wszędzie
widzę tutaj w tym oficjalnym
ogłoszeniu, że stukamy w ekran,
więc nie jestem pewny, czy
to jest dostępne
w aplikacji na komputerze.
A szkoda, no bo na przykład, nie wiem, jak gdzieś siedzimy
wspólnie na Team Talku,
no to fajnie byłoby coś
takiego sobie utworzyć. Natomiast
na razie to jest
dostępne tylko
w aplikacji mobilnej. Jeszcze spróbuję to
zweryfikować.
Ciekawe swoją drogą, jak to będzie w przypadku
sprzętu,
który się integruje ze
Spotify’em. Czy będzie
można taki jam na przykład wysłać
na jakiegoś Sonosa albo na
coś innego?
Tak, bo to jest w tym samym menu z tego, co
rozumiem.
To tyle dobrego, bo
naprawdę wtedy fajna
sprawa faktycznie. Jakiego sprzętu
jakiegoś lepszego, który mamy na imprezie
na przykład. Tak, no właśnie o to
właśnie o to w tym
chodzi. Ale chyba tak, z tego co widzę, to jest
na razie dostępne tylko
na smartfonach, no ale miejmy nadzieję, że też kiedyś
na komputerze to też się pojawi.
No to pozostaje cierpliwie
czekać. A tymczasem mamy
komentarz od Michała.
Zdaję sobie sprawę, że poruszam temat
budzący niszowe zainteresowanie,
bo niewidzący kierowcom
przynajmniej jeszcze nieobecnie,
ale skoro
w tyflo przeglądzie mówi się
o zwiedzaniu muzeów, to równie
dobrze powiem, gdzie ja byłem.
Odwiedziłem
targi karawaningowe
w Nadarzynie. Pojazdy
stoją w halach, są pootwierane
i dostępne dla oglądania
dotykiem. Nie jest możliwe
zwiedzić wszystko, głównie dlatego,
że jest tego za dużo.
Mogłem sobie pozwolić na jakieś
dwie godziny. Odwiedziłem kilka
droższych kamperów
i przyczep z natywną
zabudową i przeszedłem
do tego, co najwięcej mnie
ciekawiło, czyli porównania
powyższego do zabudów
robionych prywatnie lub w warsztatach
na bazie blaszanych
busów dostawczych.
Właściciele tych ostatnich
często mają
podróżnicze kanały na YouTubie
i profile na innych społecznościówkach,
więc doszedł
aspekt spotkania
z twórcami internetowymi.
W szkole podstawowej, o czym
wiedzą ci, którzy ze mną
uczęszczali, bardzo
lubiłem zajęcia na stolarni,
a po lekcjach korzystałem
z dodatkowych godzin takich zajęć.
Później życie pochłonęła
informatyka, ale z majsterkowaniem
zawsze jestem za
pan brat. Zatem
poszedłem ciekaw, jak wyglądają
takie kamperowe zabudowy,
zarówno fabrycznie natywne,
jak i robione po zakupie
samochodu. Dla wielu
zwiedzających był to pewnie czas
rozważań, który dom na kółkach
kupić lub zbierania
inspiracji, jak
go zbudować samemu.
Osobiście poszedłem tam głównie po to,
aby dotknąć to, czego
nie mogę zobaczyć na filmach,
zdjęciach czy w ulicznym ruchu.
Zaspokoiłem ciekawość,
podobało się, sobota udana,
więc mogę polecić.
Niepełnosprawny
z przewodnikiem wchodzi za darmo
i jest to spora
oszczędność, uwzględniając
ceny biletów. W tym roku
jeszcze wystawa kamperów ma być
w Poznaniu, a na Darzyn
pewnie znów za rok.
PS, a może czasem
jakiś kierowca się znajdzie
i będzie można
spędzić kilka
chwil w domu
z zaparkowanym po środku
niczego. Od czegoś trzeba zacząć.
Zacząłem od targów.
Super Michale, dzięki
za ten wpis, bardzo ciekawy.
Zresztą w ogóle
jak widać, nasi
słuchacze mają
dosyć interesujące
pasje i nietuzinkowe
zainteresowania. Łukasz
przecież dzwonił
jakiś czas temu i dzielił się swoimi
wrażeniami dotyczącymi
targów
związanych
z jakąś taką, no
już z przemysłem jakimś.
To była jakaś metalurgia
i tego typu rzeczy.
Raz, nie pamiętam dokładnie co
to było, ale no to już były
raczej takie dość
konkretne kwestie.
Tu
Michał napisał o karawaningu,
o kamperach.
Może wy też się chcecie
podzielić jakimiś swoimi
wrażeniami z jakichś targów.
Może na coś ciekawego uczęszczacie.
Coś interesującego
mieliście okazję
obejrzeć. Jeżeli tak, to dajcie znać
i myślę, że będzie to
fajna wartość
dodana dla wszystkich.
Przechodzimy do
kolejnego tematu. Kolejny
temat Piotra i zdradzę wam, że
Piotr już do samego końca naszego
dzisiejszego spotkania będzie opowiadał.
Tym razem kącik
informacji dotyczących
sztucznej inteligencji.
Tak jest, no bo wszystkie właściwie
duże kooperacje, bo wszystkie są, no prawie wszystkie
Apple chyba nie ma, ale generalnie te wszystkie duże
firmy są reprezentowane dzisiaj.
Apple ponoć wydaje codziennie
jakieś miliony na sztuczną inteligencję.
Tylko oni na razie w laboratoriach
ją rozwijają.
Tak, więc pewnie za jakiś czas też
połączą tutaj do tego kącika.
Natomiast zaczynamy od Mety,
bo Meta też ostatnio miała
takie swoje wydarzenie, na którym
różne rzeczy pokazywały. Nowe
okulusy, też nowe
okulary, które głównie pozwalają nam
gdzieś streamować na Instagramie. Fajnie byłoby,
gdyby jakieś API do tego były, no to
może byłoby fajne narzędzie do nawigacji,
ale no niestety chyba takich nie ma.
Natomiast też
oczywiście Meta
ma ten swój też
model językowy, nazywa się Lama,
który gdzieś wyciekł
chcący, niechcący. Natomiast
dzięki temu bardzo dużo projektów wokół niego
powstało. No ale oczywiście sama Meta też
nie śpi i też go dalej trenuje.
No i stworzyli
też swojego takiego
właśnie chatbota, czyli coś a la chat
GPT czy Google Bot,
który będzie dostępny we wszystkich
aplikacjach tej firmy. No tutaj głównie chodzi
o Instagrama,
o Whatsappa i
o Facebook Messengera. No tak, to są takie
aplikacje, w których faktycznie mamy
funkcję chatu. No i co ciekawe,
no poza tym, że mamy takiego
ogólnego chatbota,
to też
Meta zaczęła wprowadzać tak zwane
osobowości. I to są
albo osobowości gdzieś kreowane na podstawie
prawdziwych celebrytów,
albo też pod konkretne
zadania jakieś. I tak na przykład
mamy chatbota,
który
na przykład pozwoli nam
gdzieś zaplanować podróże sobie.
Więc jakoś one mają właśnie jakoś
inny sposób komunikowania się z nami,
jakieś inne słownictwo. Mają też takie
animowane awatary, dzięki czemu tak wyglądają
bardziej
żywie. No ale też właśnie dzięki temu
możemy powiedzmy
porozmawiać albo z naszym idolem,
wirtualnie przynajmniej, no lub
z takim botem, który
jest jakoś bardziej
przystosowany
do tego,
co akurat chcemy zrobić. Może
szukamy jakiegoś przepisu albo właśnie chcemy
sobie podróż zaplanować.
Oprócz tego też są jakieś boty do
tworzenia zdjęć
na podstawie promptów, tworzenia
naklejek, co też ponoć różnie wychodzi.
No a to są takie bardziej
wizualne sprawy. No mniej więcej tutaj
Meta też dołącza do tego grona
firm, które
swoich
asystentów ma.
Następnie chat GPT.
Chat GPT, wracając
do tego, o czym mówiliśmy gdzieś na
początku audycji, kiedy to
Be My AI pokazał się publicznie,
to jest poniekąd
spowodowane tym, że
OpenAI jest bardziej gotowe
pokazanie właśnie możliwości
pracy na
zdjęciach przez ich
modele bardziej
publicznie. Dzięki między
innymi nam, bardzo tutaj nam w tym
się dziękują, bo właśnie tutaj osoby
niewidome były jednymi z pierwszych osób,
które gruntownie przetestowały
model GPT-4V.
Tak dokładnie się nazywa. To jest właśnie ten aspekt odpowiedzialny
za powiedzmy wzrok
tego chata GPT.
No i dzięki temu już są na tyle
wiedzą, jakie mogą mieć
zastosowania. Tutaj właśnie m.in. chodzi o
opisywanie jakichś
informacji na temat osób widocznych na zdjęciach.
M.in.
No i
co zostało zrobione?
ChatGPT dostał 3
nowe funkcje. Po pierwsze,
może teraz odpowiadać na pytania
dotyczące zdjęć.
Na razie to jest w ogóle wszystko dostępne w
tej wersji plus, za którą musimy
zapłacić subskrypcję i to też jakoś
jest stopniowo
wprowadzane w ciągu następnych kilku tygodni,
więc może jeśli nawet macie to wykupione,
a nie widzicie opcji, żeby dodać
zdjęcia, no to to się z czasem pojawi.
No i tutaj
tak samo jak w Bingu czy w Bardzie możemy zdjęcie
załadować, no a potem
możemy zadawać
odnośnie tego zdjęcia jakieś
pytania. Osoby widzące też mogą
podkreślać
zdjęcia, więc
możemy np. zrobić taki
podany przykład równania
jakiegoś zadania
no i możemy
albo jakieś zdjęcie, gdzie widzimy kilka osób
moglibyśmy
narysować, podkreślić
daną osobę, która nas interesuje
i np. dopytać o jakieś bardziej konkretne szczegóły
odnośnie danego
elementu na zdjęciu, no ale też bez tego możemy
z tej funkcji
korzystać i to jest dostępne zarówno
w aplikacji
jak i na
komputerze
w przeglądarce. Kolejne dwie funkcje
na razie są tylko dostępne
na smartfonie, ale pewnie za jakiś
czas te rzeczy się pojawią szerzej,
a mianowicie
możemy po prostu sobie z tym czatem
dosłownie porozmawiać, możemy do niego
coś powiedzieć, a on
się po prostu do nas odezwie.
No tutaj bez większego zaskoczenia do
rozpoznawania mowy jest stosowany whisper,
zresztą tam wcześniej już był przycisk dyktowania,
ale teraz to wygląda bardziej jak taka rozmowa,
no bo
OpenAI stworzyło
własny model do syntezy
mowy, który podobnie jak
Eleven Labs jest w stanie po kilku
sekundach wygenerować
właśnie wierną
wersję ludzkiego głosu.
No właśnie Spotify m.in. z tego korzysta,
ale tutaj piszą, że no przez to, że to
jest tak potężna moc,
no to zwykli śmiertelnicy na razie
nie są na nią gotowi
i ona jest tylko właśnie używana
w takich na początku wąskich
zastosowaniach. Tutaj jest podkreślane,
że te głosy, bo
dostajemy takich cztery,
albo pięć głosów do wyboru, które możemy sobie w aplikacji
wybrać, jedne bardziej
formalizowane gdzieś pod jakieś takie
instrukcje, inne pod czytanie opowiadań,
bo tutaj też ten model trochę tak jak Eleven Labs
gdzieś stara się tą intonację
odpowiednio dostosowywać
do tego co jest czytane, no możemy sobie wybrać
cztery głos nam odpowiada najbardziej.
No tutaj jest podkreślane właśnie,
że te głosy zostały
stworzone w współpracy z profesjonalnymi
aktorami czy aktorkami,
bo tam też są głosy kobiece,
którzy wyrazili zgodę na
na to.
Nie wiem, czy to będzie dostępne po polsku,
tutaj też nigdzie nie jest powiedziane,
no Whisper jest dostępny po polsku, więc jestem
bardzo ciekawy, kiedy ta funkcja gdzieś się
pojawi. Co się stanie,
jak zapytamy go o coś po polsku, no na pewno
nam odpowie, ale czy ten
głos też mówi po polsku?
Nie, jestem w stanie odpowiedzieć,
no i też nie wiem, czy kiedyś
też OpenAI
wprowadzi jakąś konkurencję
do Eleven Labsa, czy
jakieś takie właśnie API do
syntezy mowy przez ich modele
w przyszłości
się nie pojawi.
Będziemy musieli zobaczyć.
Następnie
mamy Amazona
i asystentkę Amazona, postaram się
tutaj jej imienia
nie wymawiać, żeby tutaj komuś nie
narobić bałaganu, bo oni też mieli swoją
konferencję i tutaj znów
mieliśmy zaprezentowane nowe sprzęty,
między innymi nowe okulary
Echo, które też
pozwalają nam porozmawiać z tym asystentem,
ale też działają jako takie
słuchawki
uszne, trochę
tak jak Bose Frames kiedyś,
wyglądają całkiem fajnie i brzmią nieźle.
Więc to w sumie może być też fajne rozwiązanie
dla kogoś, kto właśnie szuka
takich okularów z funkcją
słuchawek bluetooth.
No i jeszcze przy okazji
z tym asystentem, ale co
właśnie się w nim
zmieni? No też pojawi się
tak jakby druga
bardziej inteligentna wersja.
Ta wersja
też będzie używać
jakiegoś modelu
językowego, tutaj nie jest powiedziane jakiego,
Amazon ponoć też pracuje nad czymś
własnym też od X czasu, coś tam
trenuje po cichu, przygotowuje
się do tego.
No i on będzie nam w stanie bardziej
skomplikowane
pytania odpowiadać.
Oczywiście będziemy mogli z nim porozmawiać,
ale też będziemy mogli, nie wiem, na przykład
powiedzieć, jest mi zimno
i on będzie w stanie zrozumieć, że
musi podkręcić temperaturę.
Albo, nie wiem,
popowiedzieć, że jest
11 listopada i chcielibyśmy,
mamy inteligentne światło, powiemy mu,
żeby nam się
zaświeciło w kolorach flagi polskiej
i on będzie wiedział, żeby to światło ustawić na kolor
biało-czerwony, będzie jest w stanie
gdzieś to ustalić. No i też oczywiście
może odpowiadać na
jakieś bardziej skomplikowane pytania. Będziemy mogli
z nim jakoś rozmawiać.
Dzięki też
są uaktualnienia do modelu
głosów stosowanych przez
tego asystenta, dzięki czemu ten głos
też nie będzie taki
syntetyczny, tylko też będzie jego
intonację się dostosowywać do tego, co jest
mówione. Więc jeśli
przekazuje nam jakieś dobre wiadomości, to będzie taki
bardziej szczęśliwy. Gdyby coś się popsuło,
to będzie nas przepraszać.
No i tak to
ma wyglądać.
Natomiast ten nowy
asystent raczej
na początku w Stanach
Zjednoczonych będzie dostępny za darmo
jako beta. Będziemy mogli się zapisać
i go testować.
Natomiast kiedy już będzie finalnie
gotowy, no to
będzie dostępny
w formie subskrypcji.
Nie jest powiedziane, ile to będzie
kosztowało, natomiast
właśnie przez to, że takie modele jednak więcej
zasobów używają, no to będziemy
po prostu musieli
za niego zapłacić. Jest powiedziane,
że podstawowe funkcje Aleksy
no chyba raczej tu się nic nie włączy
zawsze będą dostępne za darmo i to, co mamy
zostanie. Natomiast gdzieś
niektóre funkcje, które
były wcześniej dostępne za darmo gdzieś są teraz
chowane pod subskrypcją.
Na przykład taka funkcja, która pozwalała
naszemu głośnikowi Echo
nasłuchiwanie, czy na przykład
gdzieś nie zbiła się szyba, albo nie włączył się
alarm pożarowy i wysyłanie nam
powiadomienia telefon to kiedyś było darmowe,
a teraz to jest częścią jakiejś
subskrypcji, która też nam daje
dostęp do na przykład tam zdalny
kamer, które Amazon też produkuje.
Więc no miejmy nadzieję, że też jakieś inne
podstawowe funkcje tak też
nie skończą, a no może
tam nowa wersja
asystenta od Amazona faktycznie okaże
się fajniejsza.
No i to wszystko na razie
jeśli chodzi o
o sztuczną internet, chociaż nie w sumie,
bo zaraz do tematu wrócimy.
Zgadza się,
bo przechodzimy
do ostatniego tematu, który
mamy, mianowicie
Google. Google ma nowości,
a jakie?
No właśnie, miało być wszystkie firmy, jednak
chyba będą wszystkie firmy, no bo
Google dzisiaj miało swoją taką
minikonferencję, na której
to zostały zaprezentowane
głównie nowe sprzęty, nowe
piksele. Pixel 8
i Pixel 8 Pro
generalnie
troszeczkę
się design tych telefonów zmienił, one miały
bardziej takie zakrzywione ekrany, jak to
większość Androidów teraz,
ale teraz przeszli takie bardziej
kanciaste rogi.
Ekrany
też mają takie
dosyć fajne,
ten Pixel 8 ma ekran 6,2 cala,
Pixel 8 Pro to jest 6,7,
to są bardzo jasne.
Mamy nowy, autorski
czip zabezpieczający M.2,
nie mylić z procesorami Apple’a,
który między innymi
pozwala tutaj, ja nie wiem czy to
wcześniej nie było dostępne na Pixelach, szczerze mówiąc nie wiem,
mamy tutaj
rozpoznawanie twarzy, więc to jest
coś jak Face ID, które jest na tyle
bezpieczne, że możemy je na przykład
wykorzystywać do autoryzowania
przelewów czy innych płatności
w różnych aplikacjach.
No i też oczywiście dzięki temu
tam też jest nowy
czip
Tensor i to jest taki
autorski procesor googlowski,
też oczywiście na podstawie układów ARM,
który jest szybszy,
ma też oczywiście jednostki odpowiedzialne
stricte za sztuczną inteligencję,
jakieś
przetwarzanie obrazu, więc te aparaty
działają lepiej zarówno w
aktualizacji, kiedy jest dużo oczy,
mało światła
i coś, co
mam nadzieję, że Google dotrzyma słowa,
bo to jest coś, czym użytkownicy
iPhone’ów się cieszyli i tutaj nawet Google
wypadał źle na tle konkurencji z Androidem,
no bo Pixele wcześniej dostawały
dwa, góra trzy lata
aktualizacji, no tak średnio trzy, kiedy
na przykład Samsung obiecywał cztery,
no to teraz Google powiedziało, że
Pixel 8 i nowsze Pixele
będą dostawać siedem lat aktualizacji.
No byłoby fajnie,
jednak
wiadomo, że jeśli chodzi o
aktualizację Androida na telefonach
z Androidem, no z tym było różnie
i nawet właśnie ostatnio
te autorskie telefony Google’a,
które miały być niby
pod tym kątem lepsze, nie zawsze tak
do końca było, no tutaj są
obiecywane
zmiany.
Jest też nowy zegarek Pixel
Watch 2 na systemie
iOS, tutaj też jest trochę szybszy
procesor, lepsze
bardziej dokładne czujniki, a jeszcze
na Pixelu 8 Pro
na aparecie został
dodany czujnik temperatury, co ciekawe.
No i będziemy mogli sobie tak
zmierzyć temperaturę, na przykład swoją,
chociaż tutaj też Google jeszcze gdzieś
czeka na
odpowiednie zgody organów, tutaj
na razie to gdzieś chyba w Stanach, ale w Europie
pewnie też się będą
o takie zgody starać, natomiast
to musimy mieć
telefon dosyć blisko od tego, więc
tutaj już ludzie piszą, żeby nie
próbować tym sobie mierzyć temperatury, nie wiem,
w piekarniku na przykład, bo
można albo sobie coś zrobić, albo
telefon uszkodzić.
No ale to też trwa około
4-5 sekund, więc też ten
proces mierzenia temperatury
trochę trwa.
Są też nowe słuchawki,
Pixel Buds,
tutaj generalnie jest aktualizacja nowych kolorów,
ale też
dla wszystkich
generacji słuchawek, bo są właśnie
Pixel Buds Pro
chyba 1 i 2, jest
aktualizacja oprogramowania się pojawiła
i ona przynosi kilka ciekawych
nowości, niektóre
znamy już na przykład z AirPodsów, bo mamy
na przykład wykrywanie rozmowy,
tak jak to w nowych AirPodsach, więc jeśli
zaczniemy coś mówić, to słuchawki to
wykryją, wyłączą redukcję szumu,
zatrzymają nam na chwilę
multimedia i możemy tak porozmawiać,
lepsza jakość dźwięku podczas rozmów,
wsparcie dla kodeka Super White
Band, który ma
dwukrotnie większą przepustowość, nie wiem, czy to jest
porównywane z tym, co
mamy na AirPodsach, czy to jest coś innego,
czy autorskiego od Google’a, ale dające
podobny efekt.
No i też w wspieranych grach
jest tryb niskich opóźnienia
w tych słuchawkach, który zmniejsza te opóźnienia
o połowę, więc jestem też bardzo
ciekawy, jak to brzmi,
jak byłoby, gdyby to się dało jakoś ręcznie włączyć,
natomiast tutaj pisze, że to się będzie włączało
automatycznie,
kiedy jakąś grę otwieramy,
więc tak to wygląda.
No i na koniec znów
nawiązujemy do AI,
no bo rozmawialiśmy o tym,
jak nie wiadomo, co się dzieje z asystentem, Google
tam były zwolnienia, jakiś
rozwój na jakiś czas się zatrzymał,
po czym nagle zaczęliśmy
dostawać nowe głośniki,
na przykład od JBLa, które znów tego
asystenta wspierają, no okazuje się,
że nadchodzi nowy
asystent Google, oparty
od co innego,
jak nie obarta oczywiście, no to też
o tym się mówiło, no i faktycznie
tak będzie, no ten asystent będzie
już teraz zajmował
trochę mniej miejsca, bo wcześniej się otwierał
taka całe okno,
które zajmowało nam gdzieś cały ekran,
gdzieś był przeźroczysty, gdzieś było w tle
widać to, co robimy, ale
teraz to będzie takie malutkie,
odbywające okno generalnie. Dlaczego?
No będziemy oczywiście mogli z nim rozmawiać,
zadawać mu wszelakie pytania,
będziemy mogli wypytywać o
naszą pocztę, o
Gmaila, o pliki na dysku
Google, tak jak to mówiłem nierawno,
jak to będzie w zwłokę bardziej, tutaj
też to będzie możliwe,
ale też będziemy mogli pytać
o to,
co się akurat dzieje na ekranie. I ja już
tutaj widzę zastosowania dla nas,
no bo, no tutaj jest podany taki
przykład, że zrobiliśmy zdjęcie naszego
pieska i
kierujemy do okienko asystenta
na to i mówimy mu, żeby wymyślił
nam jakiś fajny podpis, żeby na media
społecznościowe to wrzucić,
no ale równie dobrze możemy
po prostu otwierając na pełnym ekranie jakieś zdjęcie
na Facebooku, które nie ma opisu,
po prostu zapytać tego asystenta,
co jest na tym zdjęciu, tak? No i
ja już tutaj widzę dużo zastosowań właśnie,
znowu jakieś nierozstępne wykresy,
jakieś nierozstępne aplikacje,
chcielibyśmy jakiś tekst przeczytać, no inna
sprawa, że Bart zdradzi sobie z tym trochę gorzej
niż chat GPT z
doświadczenia. Nie zmienia to
faktu, że
ta możliwość tego,
że ten asystent reaguje na to, co
akurat robimy na telefonie, co
jest na ekranie,
no to ma ogromny potencjał i jestem
bardzo ciekawy, jak ta funkcja
będzie działała w praktyce. Ponadto
to nie będzie tylko dostępne
na Androidzie, bo ten nowy asystent też
ma trafić na
iOS-a, no i pewnie też na Chromebooki.
No wiadomo, na iOS-ie to pewnie
otwierania go z dowolnego miejsca w systemie nie będzie,
no bo to iOS na
Androidzie pewnie miał większe możliwości.
No natomiast nawet użytkownicy
iPhona też będą mogli się tym
poprawić, jeśli
Siri w najbliższym czasie się nie poprawi,
chcielibyśmy coś troszeczkę mądrzejszego,
no to to może być kolejne
rozwiązanie. Skąd inąd
wiem, że niektórzy właśnie wykorzystywali
tak asystenta Google jako taką
namiastkę Siri, więc może…
Więc będzie może działał jeszcze lepiej.
To też w najbliższych kilku miesiącach powinno
się szerzej
gdzieś być udostępniane.
No i cóż, i wygląda
na to, że to jest
wszystko, jeżeli chodzi o
dzisiejsze tematy
w 223
wydaniu Tyflo Przeglądu.
Nie, w 203 wydaniu Tyflo
Przeglądu. Jeszcze trochę.
W 2023 to
jeszcze trochę trzeba będzie na to
poczekać, ale mam nadzieję, że
będziecie czekać razem z nami,
a tymczasem
spoglądam na zegarek i mamy nowy dzień.
Zaczęliśmy w środę,
kończymy w czwartek.
Jak ktoś kupił Fordze, to możecie sprawdzać, chyba się odblokowało.
O właśnie, no to może ktoś właśnie
słuchając… Jak chcecie noc
sobie tak spędzić, to…
Może ktoś słuchając tych naszych
ostatnich słów w dzisiejszym
Tyflo Przeglądzie już właśnie sprawdza.
Kto wie.
W każdym razie, zaczęliśmy
w trzech, kończymy we dwóch.
No, ale miejmy nadzieję,
że za tydzień powitamy Was
w większym składzie.
Paweł Masarczyk, Piotr Machacz,
no i ja, Michał Dziwisz. Dziękuję za uwagę.
Do usłyszenia. Kolejny Tyflo Przegląd.
Za tydzień. Dobrej nocy.
Program współfinansowany ze środków
Państwowego Funduszu Rehabilitacji
Osób Niepełnosprawnych.

Wszystkie nagrania publikowane w serwisie www.tyflopodcast.net są dostępne na licencji CreativeCommons - Uznanie autorstwa 3.0 Polska.
Oznacza to, iż nagrania te można publikować bądź rozpowszechniać w całości lub we fragmentach na dowolnym nośniku oraz tworzyć na jego podstawie utwory Zależne, pod jedynym warunkiem podania autora oraz wyraźnego oznaczenia sposobu i zakresu modyfikacji.
Przekaż nam swoje 1,5% podatku 1,5 procent Logo FIRR Logo PFRON Logo Tyfloswiat.pl

Czym jest Tyflopodcast?

Tyflopodcast to zbiór instrukcji oraz poradników dla niewidomych lub słabowidzących użytkowników komputerów o zróżnicowanej wiedzy technicznej.

Prezentowane na tej stronie pomoce dźwiękowe wyjaśniają zarówno podstawowe problemy, jak metody ułatwienia sobie pracy poprzez korzystanie z dobrodziejstw nowoczesnych technologii. Oprócz tego, Tyflopodcast prezentuje nowinki ze świata tyfloinformatyki w formie dźwiękowych prezentacji nowoczesnych urządzeń i programów. Wiele z nich dopiero znajduje sobie miejsce na polskim rynku.

Zapraszamy do słuchania przygotowywanych przez nas audycji i życzymy dobrego odbioru!

Tematyka

Pozycjonowanie i optymalizacja stron internetowych