TyfloPrzegląd Odcinek nr 207 (wersja tekstowa)

Pobierz napisy w formacie SRT
Pobierz napisy w formacie VTT
FUNDACJA INSTYTUT ROZWOJU REGIONALNEGO PREZENTUJE
TYFLO PODCAST
Czwartek, drugi dzień listopada 2023 roku, tak jest, czwartek, a nie środa.
No bo wczoraj to raczej wszyscy korzystali z tego, że jest wolny dzień.
A my też zresztą, my też korzystaliśmy z tego, że jest wolny dzień i Tyflo Przeglądu, no siłą rzeczy nie było.
Ale tym razem już jest, jest Tyflo Przegląd, witamy was bardzo serdecznie w 207 odcinku Tyflo Przeglądu.
Witają was dziś Michał Dziwisz, mówiący te słowa, a oprócz mnie Paulina Gajoch, Paweł Masarczyk i Piotr Machalsz.
I cóż, nie przedłużając, myślę, że czas powiedzieć kilka słów o tym, co dziś w audycji, a potem przejść do rzeczy.
W tym tygodniu w Tyflo Przeglądzie.
Aktualizacja oprogramowania Blind Shell Classic.
Nowości w grach.
Co nowego w wytycznych WCAG 2.2.
Nowa wersja syntezatora Piper.
NavSounds, kolejny dodatek do NVDA.
Nadchodzą nowości w Nvision.
Nadchodzą duże zmiany w dostępności Linuxa.
Sytuacja osób niewidomych w Izraelu i Palestynie.
Aktualizacja produktów Dolphin.
I kolejna aktualizacja, tym razem Twiscake.
Nowe, strasznie szybkie procesory i nowe maki.
YouTube walczy z blokowaniem reklam, jednocześnie podnosząc cenę pakietu premium.
Najbardziej lukratywne zapytania do Google.
Dwie interesujące modyfikacje, przyspieszające działanie Whispera.
Facebook i Instagram w Europie będą bez reklam, ale trzeba będzie za to zapłacić.
Qualcomm zapowiada nowe procesory dla smartfonów i komputerów.
Audio Hijack doczekał się funkcji robienia transkrypcji pod maską Whisper.
Wszystko to, a pewnie jeszcze więcej już za chwilę.
Zaczynamy!
A skoro jesteśmy na żywo i skoro nas na żywo słuchacie,
to przypominam, że możecie również wy, jeżeli tylko macie taką ochotę,
wziąć w tej naszej audycji udział.
Możecie do nas zadzwonić.
663-883-600
663-883-600
Tu możecie zadzwonić, ale możecie też nagrać nam głosówkę na Whatsappie.
Możecie też na tym Whatsappie do nas zadzwonić.
Generalnie telefon, Facetime i Whatsapp to są drogi takiego kontaktu interaktywnego.
A Whatsapp też z racji umożliwienia tego,
że można tam nagrać wiadomości głosowe z racji tej funkcji,
to pozwala nam po prostu odtwarzać wasze głosowe wiadomości,
z czego bardzo chętnie zresztą też korzystamy.
Jest oczywiście Facebook, jest też YouTube.
Te dwa środki kontaktu to jeżeli chodzi o formę tekstową.
No i możecie też korzystać z naszego panelu kontakt.tyflopodcast.net
Jest też Tyflocentrum, jest też aplikacja na Windowsa,
więc zapraszamy bardzo serdecznie do tego, żebyście na wszelkie możliwe sposoby się z nami kontaktowali,
żebyście po prostu interaktywnie uczestniczyli w audycji,
w Tyflo Przeglądzie numer 207.
Przechodzimy zatem już powolutku do informacji,
które dziś udało się współprowadzącym tę audycję zgromadzić w naszych notatkach.
Zaczynamy od Pawła, który nam opowie o tym, co nowego w Blind Shellu.
Tak, i tutaj też dzięki za czujność słuchaczom,
bo na przykład Dawid pisał do mnie o tej aktualizacji,
aczkolwiek tutaj akurat tym razem, ja miałem tę informację troszkę wcześniej,
miałem informację już dzień wcześniej, bo amerykański oddział Blind Shell USA
dał nam o tym znać, no i wyszła wczoraj aktualizacja Blind Shella
i co tam nowego mamy w tejże, zaplanowane, a raczej już wydane.
Po pierwsze, w przeglądarce internetowej doszła możliwość zapisywania
stron internetowych jako ulubionych aplikacji,
czyli tam jest takie menu, z tego co pamiętam, chyba z strzałką w górę,
czy którymś klawiszem funkcyjnym dało się wywołać jakimiś ulubionymi aplikacjami,
no to teraz tam można dodać stronę internetową.
Czyżby pierwszy krok w stronę wsparcia aplikacji webowych?
Ja przewidzywałem taki przebieg wydarzeń podczas naszej audycji z Darkiem,
kiedy rozmawialiśmy o zmianach w Blind Shellu.
Przewidziałem też Spotify, więc chyba mam dość dobre rockowanie
jak chodzi o następne funkcje. To co, Mastodon?
Może jakiś Time for Buzz by się pojawił? Fajnie by było.
Ale wracając do tego co tyrtu i teraz.
Jest możliwość w ustawieniach klawiatury ustawienia własnych emot, ikon.
Także pojawiła się rozszerzona baza emot, ikonek, więc pewnie chodzi o emoji
i domyślam się, że pewnie można sobie pod ileś tam naciśnić konkretnego klawisza
lub pod jakąś tam listę wywoływaną, nie wiem, czy gwiazdką, czy krzyżykiem,
czy czymś przypisać sobie emoji, do których chcemy mieć dostęp.
Po trzecie, nowe powiadomienia o stanie naładowania baterii.
Dostępne będą one w ustawieniach dźwięku i są tam powiadomienia o tym,
że bateria została w pełni naładowana i że się rozładowuje.
Nie wiem, czy można ustawić własne dźwięki na te zdarzenia,
ale na pewno można włączać i wyłączać to, że w ogóle takie powiadomienia
się będą pojawiały.
Także asystent głosowy, czyli domyślam się, że asystent Google,
który jest tam używany, może teraz nam podać godzinę, stan baterii telefonu
i siłę sygnału. No to fajnie, że tak rozbudowali.
Dodano także opcje przekierowywania rozmów oraz dostępu do innych
zaawansowanych opcji, czyli to są pewnie te opcje karty SIM,
jakieś wybierania ustalone, nie wiem, czy połączenia oczekujące też.
No takie różne ustawienia połączeń, które wymagają zmian po stronie
naszego operatora.
Jeżeli mieliście problem z używaniem przycisków 3, 6 i 9 w poprzedniej wersji
oprogramowania, to teraz zostało to naprawione.
No i to w sumie tyle, jeśli chodzi o Blind Shella, więc dajcie znać,
jak tam wam się go używa, no i mam nadzieję, że ta aktualizacja
jest z korzyścią dla was. Też słyszałem, że kilka aplikacji dostało aktualizację,
już wyżej wspomniana przeglądarka, także menadżer plików,
no tutaj nie wiemy, co się zmieniło, no i Whatsapp pewnie został
zaktualizowany po prostu do najnowszej wersji.
Jeżeli chodzi o telefony, to długo nie trzeba było czekać na pierwsze połączenie.
Ktoś po drugiej stronie z nami jest, a kogo witamy?
Słychać mnie w ogóle?
Słychać.
Cześć, Witek z tej strony.
Cześć Witku.
Pisałem ostatnio odnośnie nagrywania z radia.
To dokładnie był artykuł o nagrywaniu fubarem, ale właśnie przy pomocy tego wgetta.
To było połączone. Jakoś tak, że tym fubarem można było sterować wgettem,
bo tam autor pisał, że to jest jakoś konsolowe narzędzie i że to jest
bardzo skomplikowane, a jak to się tam w fubarze zrobi, to tam będzie ładnie
przycisk do nagrywania. Tylko, że strasznie dużo manewrów w tym było.
No i artykuł był napisany jakiś rok temu, może więcej nawet,
tak, że te wszystkie komponenty tam się mogły zdezaktualizować.
Wiesz co, jeżeli chodzi o wgetta, to nie sądzę, żeby te polecenia
się zdezaktualizowały. Ten program jest z nami od wielu, wielu lat,
więc tu nie podejrzewam prędzej fubara. Prędzej fubara bym podejrzał,
że jakieś zmiany mogły nastąpić.
Tam chyba się jeszcze jakąś wtyczkę robiło do tego fubara, tak,
i instalowało, no ale…
To brzmi jak jeden z artykułów, który mógłby napisać użytkownik Stefan na Eltenie.
Czy to jest przypadkiem źródło, bo zdaje się, że…
To był chyba Gracjan.
A Gracjan, okej. No w każdym razie na Eltenie gdzieś.
Wiem, że jest kilka takich osób, które lubią różne fajne rzeczy fubarem robić.
No, trzeba by zartknąć do tego artykułu.
Mogę nawet zaraz zajrzeć, zobaczyć, co tam jest wszystko wymagane.
Pytanie, czy ten nowy fubar 2.0 wspiera te komponenty,
bo tam wiem, że to wymagało jakiegoś przeportowania.
Tylko, że Michał coś ostatnio mówił, że wrzuci jakiś plik, tak?
Wiesz co, tak, rzeczywiście miałem wrzucić ten plik.
Tego jeszcze nie zrobiłem, byłem trochę na wyjeździe,
ale nadrobię, nadrobię i rzeczywiście wrzucę w komentarz
po prostu pod poprzednią audycją, myślę, że tak będzie najłatwiej.
Ten plik, którego ja używam do właśnie w Getta.
Ja zapisuję w Gettem sobie różne streamy.
Między innymi właśnie chociażby nasze tyfloprzeglądy
i na audycję Tyfloradia.
I ten w Gette jest jakiś plik EXE, taki portable?
Czy to się wgrywa?
Wiesz co, to jest narzędzie.
Ono generalnie wywodzi się z systemów Linux
i tam przede wszystkim jest, natomiast są wersje w Getta dla Windowsa.
Są wersje w Getta dla Windowsa, ja używam działa.
To będę się musiał pobawić, bo mam na Chrome OS-ie
zainstalowane to środowisko do Linuxa, tam podobno też właśnie
LibreOffice można instalować na tym Chrome OS-ie,
ale nie wiem, jak to działa z tym ich ChromeVoxem.
Jeszcze, ale może w Gette właśnie też w tym by zadziałało.
Tylko to trzeba wtedy dla Linuxa, tak?
Jakiegoś specjalnego pliku instalować?
Wiesz co, raczej za pomocą menadżera pakietów po prostu,
który masz w danej dystrybucji, instalujesz sobie tego typu rzeczy.
Tylko, że tam nie ma jakiejś specjalnej dystrybucji,
tylko pojawia się takie okienko do wpisania komendy czy czegoś.
I tam jak czytałem, to trzeba było właśnie wpisać taką komendę instalacyjną,
żeby on skądś to pobrał, to to się chce zainstalować.
A o jakim systemie mówisz? O Chrome OS-ie, tak?
O Chrome OS-ie, że tam jest takie coś właśnie,
żeby uruchamiać aplikacje z Linuxa, czy instalować.
Powiem szczerze, ja Chrome OS-a nigdy nie miałem zainstalowanego,
więc tu się nie wypowiem na ten temat.
Wiem, że to jest generalnie dostępne.
Ja tego osobiście nie testowałem, ale wiem, że są ludzie,
którzy z tego korzystali i na aplikacji terminalowej
to ja się jak najbardziej uruchomię.
Tam można ChromeVoxem sobie, ma jakieś wsparcie tego terminala,
ale jak ktoś nie chce, nie lubi, no to też wiem,
że inne czytniki ekranu TDSR czy ten Fenrir też się dało jakoś postawić.
Inne czytniki, nie orka?
Jeszcze coś innego?
Tak, no jeszcze orka do graficznych aplikacji też jak najbardziej.
I tam też jest dźwięk z tego co wiem, więc graficzne aplikacje
można też uruchamiać i wtedy orka tam faktycznie też jest.
No to ja mam to dosyć krótko i też nie mam czasu za bardzo eksperymentować,
no ale potem tam włączę.
I właśnie zastanawiałem się też, czy ten ChromeVox,
kto tam jest, by nie chciał czytać, tak, LibreOffice,
czy to już inne środowisko i tam też inny czytnik specjalnie dlatego.
Nie, no tam to będzie działać orka, bo ten Linux na ChromeOSie,
bo sam ChromeOS to jest też Linux, ale te aplikacje do Linuxa,
które sobie instalujesz, one działają jak, coś jak wirtualne maszyny,
bo to jest, wiadomo, system ma być bardzo bezpieczny,
więc te aplikacje, każde aplikacje linuxowe działają w takim swoim środowisku,
tylko mają jakiś ograniczony dostęp tylko do naszych plików,
konkretnie tych, które my im tam otworzymy.
No i tak to jest zrobione.
Czy jak Michał wyśle ten plik, to wystarczy włączyć tylko ten plik,
czy jeszcze trzeba pobrać tego w getta skądś, tak?
Nie, no oczywiście, musisz pobrać w getta i musisz ten plik
przystosować do swoich potrzeb.
Ja od razu mówię, że plik, który ja mam, on jest,
w zasadzie interesuje cię, tak naprawdę ostatnia w nim linijka
i tam dotyczy to wszystko tego, jak należy konstruować
te polecenia w getta, bo ja jeszcze chciałem zrobić coś takiego,
żeby pliki, które nagrywam, miały konkretną nazwę
i tam na samym początku jest trochę różnych poleceń,
dzięki którym tę nazwę wydobywam.
To właśnie akurat na Windowsie robi się dość karkołomnie,
z tego co czytałem, to pod Linuxem robi się to zdecydowanie,
zdecydowanie prościej, a na Windowsie ja akurat chciałem,
żeby zawsze jak rozpocznę nagrywanie danego streamu,
którego też tam adres trzeba będzie sobie oczywiście w tym pliku zmienić,
to żeby tworzył mi się plik o nazwie szpieg i dokładna data,
czyli tam rok, miesiąc, dzień bodajże, godzina, minuta, sekunda,
kropka mp3 na przykład.
I to jest plik txt, tylko że z jeszcze jakimś innym rozszerzeniem?
To znaczy ja to mam akurat jako plik bat, po prostu, plik bat.
Ale żeby to się włączyło w notatniku, to muszą zmienić rozszerzenie.
Albo otworzyć jako wszystkie pliki, wszystkie pliki i wtedy pojawi się,
pokaże się ten plik.
Także ja za chwileczkę to wkleję do komentarza i myślę,
że spokojnie będziesz mógł się zorientować, co tam jest do czego
i sobie po prostu przystosować ten skrypt do własnych potrzeb.
Czyli tak najogólniej to muszę tam tylko ten stream podmienić, tak?
I jak już to włączę, to będzie mi się nagrywał ten stream tylko z tymi nazwami?
Tak, dokładnie. Dokładnie tak. Ewentualnie jeszcze tutaj jest kwestia taka,
że jeżeli będziesz nagrywał stream do pliku, bo ja mam to przystosowane
z myślą o pliku w formacie mp3.
Jeżeli na przykład będziesz nagrywał stream o rozszerzeniu aac,
no to trzeba by było tam zmienić też końcówkę na aac.
Rozszerzenie tego pliku.
On się nie domyśli, tak?
Nie, nie. On ten plik nagra, tylko później jak będziesz chciał go odtworzyć,
to może być problem, jeżeli będziesz miał niewłaściwe rozszerzenie,
bo zostanie użyty niewłaściwy kodek po prostu.
I ogólnie aac był lepszy, tak? W tym samym bitrate?
Wiesz co, to jest kwestia dyskusyjna. Generalnie co do zasady tak,
natomiast te każde formaty mają swoje różne tam charakterystyki
dotyczące tego, jak one brzmią. Generalnie co do zasady tak,
aac przy niższych bitrate sprawdza się lepiej niż mp3 z tymi niskimi bitrate’ami.
Niższych to tak do 128?
No tak powiedzmy tak, do 128.
A jeszcze mam takie pytanie, tak z ciekawości.
Jak wy robicie Fejsteina? Jest iPhone pod mikserem, czy jakoś inaczej?
Tak, dokładnie tak. Jest iPhone pod mikserem.
Używam takiego urządzenia, które się nazywa BlueDriver.
Kiedyś robiliśmy z Patrykiem Faliszewskim o nim audycję nawet
i po prostu w ten sposób to jest rozwiązane.
Jakby Whatsapp, odbieram połączenia z Whatsappa i z Fejsteina i z telefonu przez iPhona,
natomiast wiadomości głosowe, które do nas tu wysyłacie na Whatsappie
odtwarzam przez przeglądarkę internetową.
A ten Whatsapp na Windowsa jednak nie chodzi?
Wiesz co działa, natomiast z jakiegoś powodu te aplikacje, zwłaszcza UWP
mają dziwne problemy z tym, żeby je przekierować na konkretną kartę.
Firefox działa tu najlepiej. Ja sobie po prostu Firefoxa przekierowałem na odpowiednią kartę dźwiękową.
Bo na przykład Whatsappa czasem nie widać w mikserze Windowsa.
Aha, a Zuma zupełnie wyrzuciliście?
Nie, Zoom jest do naszej wewnętrznej komunikacji.
Bo ja tam na początku próbowałem i coś tam było.
Właściwie tak samo było, że tam prowadzący wkrótce cię wpuści, czy coś podobnego.
Poinformowaliśmy ich, że dołączyłeś, czy czekasz, coś w tym stylu. Tak normalnie było.
Tak, bo generalnie my z Zuma jesteśmy cały czas połączeni na Zoomie, natomiast jak widzisz
lepiej to i sprawniej wszystko działa, jeżeli do nas po prostu dzwonicie z użyciem innych źródeł.
No tak, ale też jest ta opcja wpuszczenia, nie tak, że w ogóle nie.
Wiesz co, generalnie raczej będziemy starać się naszych słuchaczy tutaj przekonywać,
żeby jednak dzwonili do nas za pomocą telefonu, czy Whatsappa.
Mamy z tym też mniej problemów później, żeby to wszystko zgrać.
No tak, to jest dobry plan, ale dzwoniłem teraz przez Whatsappa, bo jakoś tak najszybciej mi się to kliknęło.
Ale później w ogóle przez FaceTime’a bym do was dzwonił, zapiszę sobie w kontaktach.
No pewnie.
Dobrze, to dziękuję i do usłyszenia.
Dzięki Witoldzie, pozdrawiamy cię serdecznie.
Trzymaj się i oczywiście czekamy na kolejne wasze telefony.
Jeżeli tylko macie ochotę do nas zadzwonić, no to śmiało 663-883-600.
To jest nasz telefon, z którego możecie skorzystać.
Jest oczywiście Facebook i YouTube i kontakt.tyflopodcast.net.
Przechodzimy do kolejnego tematu.
Piotrze, co tam w grach, w co sobie można pograć?
Bardzo dużo. No kończy się miesiąc, więc tradycyjnie najwyższa pora na kolejne zostawienie.
Jak zwykle też staraliśmy się was na bieżąco informować, więc jeśli chodzi o jakieś nowe gry, które wychodziły,
no to o większości już was informowaliśmy.
Oczywiście szandorowo tutaj trzeba wam powiedzieć znów o Forzie, która jest bardzo popularna.
Nawet już powstał pierwszy turniej dla niewidomych osób, które grają w Fordze.
Też zresztą w tym zestawieniu jest do niego link.
Natomiast niestety on odbywa się w takiej dla nas niefortunnej godzinie,
bo ten pierwszy wyścig ma się odbyć o pierwszej w nocy naszego czasu,
więc bardziej tutaj pod Amerykę to jest zrobione.
Ale to nie jest jedyna nowa gra, która się pojawiła w październiku,
bo np. pojawiła się też taka gra Slay the Princess, czyli dosłownie pokonaj księżniczkę.
No i tutaj oficjalny opis zaczyna się bardzo ciekawie.
Na ścieżce w lesie, no jest ścieżka w lesie, na końcu tej ścieżki jest chatka,
a w piwnicy tej chatce siedzi księżniczka.
Jesteś tu, przyszłeś tutaj, żeby ją pokonać.
Jeśli tego nie zrobisz, będzie koniec świata.
Zrobi wszystko w swojej mocy, żeby cię powstrzymać.
Spróbuje cię oczarować, będzie cię próbować oszukiwać, obiecuje ci świat.
A jeśli na to jej pozwolisz, to cię zabije.
To jest taki opis, to jest kolejna gra z takiego cyklu tzw. visual novel,
czyli takich właśnie wizualnych opowiadań,
w których większość czasu spędzamy na czytaniu fabuły,
czy chociaż w tym przypadku właściwie słuchamy jej, bo mamy tutaj też,
postacie mają głosy.
No i w niektórych momentach po prostu musimy odpowiednie decyzje podejmować.
No i to jest właśnie tego typu gra dostępna na Steamie, na wszystkie
popularne platformy komputerowe, czyli czy to jest Windows, Mac czy Linux,
to możecie sobie tę grę ściągnąć i pograć.
Co mamy dalej? Następną grę mamy na urządzenia mobilne.
Gra nazywa się Idle Icta i to jest tzw. gra inkrementalna.
Takie gry są o tyle fajne, że to są gry, w których wykonujemy jakieś zadania,
ale potem możemy te gry po prostu zamknąć, a w międzyczasie rozgrywka
toczy się dalej, my po prostu musimy co jakiś czas do nich zajrzeć
i po prostu podjąć następne jakieś decyzje.
W tej grze po prostu musimy przetrwać.
Gramy postacią, która musi zdobywać ekwipunek, zdobywać materiały
do tworzenia lepszych broni, ale nawet po prostu żeby upolować sobie
jakieś jedzenie, znaleźć wodę do picia itd.
No i w większości gra odbywa się na takim zasadzie, że mówimy naszej postaci
co ma zrobić, czym ma się zająć, co ma znaleźć itd.
No i każdy z tych zadań po prostu trwa trochę czasu, niektóre rzeczy
możemy przeskoczyć poprzez obejrzenie reklamy, ale generalnie chodzi o to,
że to jest taka gra, do której możemy po prostu sobie raz na godzinę
na kilka minut zajrzeć, podjąć następne kroki, a potem spokojnie
zająć się czymś innym, czy to pracą, czy nauką, czy właśnie czymś innym.
No a później ewentualnie gra nam wyśle powiadomienie, kiedy nasza postać
skończy wykonywać dane zadanie i po prostu możemy znów tę grę otworzyć
i zdecydować co zrobić dalej.
Gra jest darmowa, chociaż tutaj jak mówiłem, są reklamy, które to można
płatnością sobie wyłączyć, jeśli ich nie chcemy.
Jest zarówno na iPhone’ie i na Androidzie, z tym, że w najnowszej
oficjalnie dostępnej wersji w App Store’ze są jakieś błędy dostępności,
natomiast jest też dostępna wersja beta, otwarta na TestFlight’cie i zresztą
znajdziecie w wątku podlinkowanym na forum Audiogames link do TestFlight’a.
Beta na Androida też jest, natomiast autor posta, który informuje o tej grze
nie miał do niego linku, ale wiem, że taka beta dla użytkowników Androida
też jest. Autor wie o osobach niewidomych, które w tą grę grają, więc
jeśli będą jakieś błędy, no właśnie w tej wersji stabilnej jakieś błędy
dostępności były, no to one będą stopniowo poprawiane, a w tej wersji beta
jest naprawdę bardzo fajnie grywalna.
Następnie mamy grę przeglądarkową Dungeon Crawler On Demand, więc no jak
tutaj można się domyślić z nazwy, to jest gra, w której po prostu
przechodzimy lochy. Tutaj się to wszystko odbywa bardzo łatwo, bo tak
naprawdę generalnie naciskamy tam 1-2 przyciski, żeby właśnie
eksplorować ten loch, przechodzi z pokoju do pokoju. Jeśli znajdziemy
jakiegoś przeciwnika, którego musimy pokonać, to znowu sobie naciskamy
jeden przycisk i po prostu widzimy jak ta walka się toczyła. Możemy też
zwierać ekwipunek i zmieniać, natomiast no sama rozgrywka jest bardzo
prosta, więc to jest taka gra, która nam może kilka minut, kilkanaście
zająć, ale no właśnie nie jest jakoś bardzo skomplikowana, więc no właśnie
może być taka gra dla tych, którzy właśnie szukają jakichś klimatów RPG,
ale też coś bardzo prostego. O New Eden mówił Paweł w zeszłym tygodniu,
no to jest gra w klimacie takim jak taka gra na Windowsa Castaways, tylko
tutaj to jest gra na iPhona, która jest na razie w wczesnej fazie beta,
natomiast autor cały czas czeka na sugestie, więc jeśli Was takie klimaty
interesują, gdzie musimy zajmować się taką wioską i ją rozwijać, no to
warto się tą grą zainteresować, zwłaszcza że tutaj też jest gra tworzona
przez osobę niewidomą, no więc tutaj powinno być wszystko fajnie dostępne
no i aby ta gra się dalej rozwijała. Teraz przechodzimy do aktualizacji
i tego aktualizacji w tym miesiącu było całkiem sporo, zaczynając od
takich klimatów Halloweenowych trochę, bo gra They All Come From The Moon
to jest taka gra rytmiczna, w której musimy po prostu do muzyki, do rytmu
wykonywać polecenia, które dostajemy od gry, żeby pokonać zombie z tego co
pamiętam bodajże, no to stała taką właśnie Halloweenową aktualizację,
która to poprawiła grafikę w grze, dodała wsparcie dla większej ilości
joysticków, na przykład z PS4 czy Xboxa, no i też poprawiła trochę dźwięk.
Później Mortal Kombat i tutaj jest dosyć duża aktualizacja, taka pierwsza
duża aktualizacja tej gry zresztą, bo jak pamiętacie, kiedy ta gra się
pojawiła, wspominałem, że dostępność tej grze jest naprawdę fajnie
zrobiona, natomiast było kilka miejsc, w których ten czytnik ekranu, który
został dodany do tej gry, po prostu nie czytał. Były obiecane poprawki,
no i tutaj mogę powiedzieć na szczęście, że poprawki i to dosyć
znaczące zaczęły się pojawiać właśnie w tej aktualizacji, no bo o to
możemy teraz wejść sobie do sklepu i różne rzeczy kupować, możemy
przeglądać naszą kartę profilową, tam zobaczymy jakie misje możemy
wykonać, jak nam idzie poszczególnymi postaciami, wszelkie statystyki
przeglądać, możemy wejść do galerii i na przykład sobie przeglądać,
usłyszeć muzykę z gry, zobaczyć jakie rzeczy podlogowywaliśmy.
Kiedy przejdziemy jakąś walkę, no to już gra nam powie, co zdobyliśmy,
kiedy zdobywamy kolejne poziomy doświadczenia, też będziemy o tym już
informowani. No i tryb inwazji, tam mieliśmy dźwięki nawigacyjne, ale też
właśnie praktycznie nic nie było czytane, natomiast to już zostało
poprawione i tutaj znów możemy, bo to jest taki tryb właśnie RPG, gdzie
poza tym, że po prostu gramy normalnie w Mortala, musimy walki różne
pokonywać, no to też mamy ekwipunek, którym musimy zarządzać.
To też już jest na szczęście czytane, właśnie gra nam powie, co jest
na danym polu, na którym stoimy. Wszystkie manie zarządzania
ekwipunkiem są czytane. Jest jeszcze jedno miejsce, gdzie na razie
tego dźwiękowania nie ma, właśnie w trybie inwazji, to są wszelkie
sklepy i miejsca, gdzie możemy nasz ekwipunek ulepszać. Natomiast jeśli
tyle rzeczy już zostało poprawione, to przepuszczam, że w następnej
aktualizacji te dwie ostatnie rzeczy też zostaną poprawione, a na razie
po prostu w tych miejscach, jeśli chcemy z nich korzystać, no to musimy
posilić je OCR-em, a wszystko inne można bez problemu przejść sobie
po prostu słuchając tego, co nam ten czytnik ekranu mówi.
Następnie gra Sanctuary in Time, która też często się u nas pojawia.
W wersji 0.4.1 duża zmiana, która się pojawiła, to ubrania, które
wcześniej pełniły taką funkcję po prostu kosmetyczną, wizualną.
Po prostu widzieliśmy, jak różne postacie są ubrane, a teraz te różne
części garderoby mają różny wpływ na rozgrywkę. Poza tym kilka
dodatkowych zdarzeń popożnych zostało dodane, no i są poprawki
błędów jak zwykle. Następna gra RPG Obheaval, duża aktualizacja 0.0.0.10.
Ma całkiem nowe demo, demo, które ma więcej treści, więc jeśli
zastanawiacie się, czy ta gra jest dla was, no to można sobie to demo
ściągnąć, no i teraz już właśnie zobaczymy więcej tego świata, no ale
też dla tych, którzy zakupili pełną wersję, znajdziemy więcej rzeczy w tej grze.
No i dla wszystkich też pojawił się nowy samochód, który teraz jest też
interaktywny, no i pojawiła się później jeszcze jedna aktualizacja, która
tam jakieś poprawki błędów prowadziła. Następnie mamy grę Wormos.
To jest gra przeglądarkowa i co ciekawe, to jest taka audioedycja węża,
więc jeśli ktoś pamięta grę węża z telefonów Nokia na przykład, czy taka
była kiedyś gra audio, czy Resnake, no to to jest kolejna taka gra, jeszcze
bardziej powiedzmy oddająca właśnie jak to wygląda, jak ten wężyk nam
zaczyna rosnąć i coraz trudniej nam się nim poruszać. No i to jest stworzone
przez takiego człowieka, Shiftpactic, który tworzy gry przeglądarkowe,
które całe dźwięki w jego grach jest tworzone kompletnie z web audio i
syntezą, więc tam nie ma żadnych sampli, tylko wszystko jest w czasie
rzeczywistym tworzone i te gry mają bardzo specyficzny klimat dźwiękowy.
No i ta gra po kilku latach została zaktualizowana, bo trafiła oprócz
Yichuan na Steama, więc jeśli chcemy sobie tą grę strzegnąć przez Steama,
zapisać do naszej biblioteki, a gra jest darmowa, więc to nie musimy nic
stracić, no to możemy teraz to zrobić. Ale przy okazji też kilka zostało
prowadzonych zmian. Balance gry został poprawiony, więc powinno być nam
łatwiej zacząć. Jeśli gramy na padzie, no to teraz ten pad będzie nam
wibrował. No i wszystko zostało poaktualizowane w biblioteki, więc też
dźwięki grafika powinny po prostu działać lepiej. No i kolejna gra,
Geekpactik EXO. To jest taka gra, w której jesteśmy w takim skafandrze,
który też może się zamieniać w taki pojazd, samochód i eksplorujemy planetę.
Musimy różne minerały zbierać. To też gra, która powstała kilka lat temu,
ale niedawno została zaktualizowana, bo też trafiła na Steama i tutaj też
właśnie po prostu silnik został poprawiony. Elektron, no bo to jest gra
webowa, więc tutaj działa to na elektronie. Jeśli ściągniemy ją sobie
na komputery, więc po prostu tutaj zostało wszystko poaktualizowane.
A propos rzeczy, które trafiły na Steama, no to gry z serii Hellhunter właśnie
też się pojawiły na Steamie. Najpierw pierwsza część, ale też później
druga, więc tutaj to są gry takie firmy Audio Game Store, które jeśli zakupimy
w ich sklepie, to tam system aktywacji był taki słaby, bo tak naprawdę
dostawaliśmy tylko jeden klucz, który działał nam na jednym komputerze.
Jeśli kupimy sobie grę na Steamie, a ona jest zarówno na Windowsie i na Macu,
no to po prostu już dożywotnio mamy je zapisane do naszej biblioteki na Steamie,
więc wystarczy po prostu je sobie ściągnąć, no i nie musimy nic później
aktywować. No a przy okazji, że to jest Steam, no to też są osiągnięcia.
Przy okazji do tej aktualizacji, przynajmniej w drugiej części Hellhuntera,
no to tych osiągnięć jest ponad 100, więc jest co robić.
A propos, żeby było co robić, no to gra Warsim też została zaktualizowana.
W poprzedniej dużej aktualizacji, o której wspominałem, tam został dodany
tryb eksploracji, w którym mogliśmy wyjść poza granice naszego królestwa,
bo do tego przypomnę, w tej grze po prostu gramy właśnie jako króla państwa,
które po prostu musimy zarządzać i rozrastać, no ale możemy wyjść poza
tego granica i tam napotykaliśmy różne rzeczy, które były generowane losowo.
Tych rzeczy zostało dodane jeszcze więcej, ale nawet wewnątrz naszego
królestwa też kilka nowych wydarzeń zostało dodane. Możemy jeszcze więcej
złota gromadzić w naszym skarbcu, wtedy tam musimy dosłownie góry złota
tworzyć, które potem możemy z powrotem jakoś stapieć, żeby zamienić je w złoto,
więc tutaj kolejna gra, w której jest teraz więcej rzeczy, którymi możemy się
zająć. Następnie Escape from Norwood i tutaj też są poprawki błędów.
No i skrót do włączenia czytnika ekranu został zmieniony, wcześniej to było
po prostu F12, ale że ten skrót też służy do robienia zrzutów ekranu w Steamie
i tam był konflikt, no to został zmieniony i teraz jeśli sobie tę grę ściągniemy
i chcemy sobie czytnik ekranu włączyć, no to musimy nacisnąć Ctrl F12, więc
jeśli ktoś chce sobie tę grę przetestować, no to tym skrótem teraz się to robi.
Następnie gra Redwood od April, czyli gra, w której zarządzamy wyspą.
Tutaj jest wersja 2.0, w której dodano poziomy trudności i generalnie interfejs
gry został trochę przeprojektowany, żeby wszystkie menu były bardziej
przejrzyste, łatwiejsze w obsłudze.
Następnie Advanced Wars Days of Ruin, tutaj było dużo aktualizacji w ciągu
października, to jest taka gra, w której generalnie gramy różnymi jednostkami,
gramy generalnie z żołnierzami, musimy go doprowadzić w taki sposób, żeby
pokonać naszego przeciwnika, no i w tym celu właśnie pojawiło się dużo
aktualizacji, które poprawiają sztuczną inteligencję w grze, więc ci
przeciwnicy powinni być bardziej inteligentni, no i też są inne poprawki
błędów, gra powinna też po prostu działać szybciej i lepiej.
Następnie Hearthstone, który przygotowuje się do następnego dużego
rozszerzenia, które ukaże się 14 listopada, już można jest sobie, jak to
wygląda zawsze w Hearthstone, to rozszerzenie w przedsprzedaży wykupić.
Starcie na bezludziu, no i tutaj będzie kolejne ponad 130 kart, 2 nowe słowa
kluczy na niektórych kartach się pojawią, szybki strzał, czyli karty, które będą
miały jakiś dodatkowy efekt, jeśli zagramy nimi, jak tylko trafią do naszej
ręki na początku tury oraz wykop, no bo gra jest zasadzona akurat o rozszerzenie
w takiej kopalni, no i tam po prostu szukamy skarbów, no i właśnie niektóre
karty będą nam pozwalały wykopywać różne skarby, za każdym razem jak
użyjemy takiej karty, no to te skarby, które będziemy dostawać będą się
stawać coraz lepsze. To będzie 13 lipca, ale już gra została zaktualizowana.
Listopada, listopada Piotrze.
A co powiedziałeś?
Lipca.
Ups.
Listopada.
Jedno i drugie na lista, czy nawet…
Ale na to pierwsze to trzeba by było poczekać. Za długo.
No pewnie lipcu też coś się ukaże, ale to pewnie coś innego, tak.
Właśnie, 14 listopada, ale już sobie można to kupić, ale też w międzyczasie
już pojawiła się aktualizacja, która przygotowuje grę do tego rozszerzenia.
Przy okazji są też mniejsze zmiany w stronnikach, zarówno w tym trybie
standardowym, jak i w ustawkach. No i zmienił się samouczek, co przysporzyło
problemów twórcom moda Hearthstone Access, bo musieli go przystosować.
To kilka dni zajęło, co w sumie nie jest jakoś bardzo długo, zwłaszcza dla
tych ludzi. Sama aktualizacja, która przystosowała tego moda do tej
najnowszej wersji pojawiła się tradycyjnie następnego dnia, bo nawet kilka
godzin po wydaniu tej wersji. No natomiast bez tego samouczka to zajęło kilka
dni dłużej, ale już można sobie ściągnąć, więc nawet jeśli nie graliście nigdy
w Hearthstone’a, a gorąco polecam, zwłaszcza jeżeli człowiek gra jest po
polsku i ma bardzo fajny dubbing, no to możecie sobie od samouczka zacząć.
I teraz zresztą jest to jeszcze łatwiej zrobić, bo ten mod doczekał się strony
internetowej, możecie wejść sobie po prostu na hearthstoneaccess.com i stamtąd
ściągnąć tego moda, przeczytać dokumentację, no i uzyskać wszelkie inne
informacje co nowego w aktualizacjach, więc tam wszystko na tej stronie znajdziecie.
Następnie Wave of the Undead, więc następna gra, takie klimaty
halloweenowe, tutaj kolejna gra, w której walczymy przeciwko zombie.
Tutaj w tej aktualizacji, która się pojawiła zostały dodane nowe dźwięki i
więcej grafiki. I na koniec mod Classic Six Dragons prowadził wsparcie dla
grania rasami potwornymi, więc tutaj jakieś właśnie bardziej, mniej
humanoidalne postacie, na przykład nawet można grać dużym, latającym okiem.
Znów takie klimaty trochę horrorowe, halloweenowe, no to ponać można, więc
jeśli ktoś chciałby sobie zagrać w moda i takie bardziej ciekawe, może jakieś
klimaty, no to może warto się zainteresować, założyć konto na tym modzie i potestować.
No to wszystko w świecie gier, no ale jak widać faktycznie całkiem sporo się
działo w tym miesiącu.
To się zgadza, mamy troszeczkę komentarzy, ja jeszcze dodam, że a propos
Hearthstone Access i nowości w ogóle, jeżeli chodzi o dostępność tej gry,
to w przyszłym tygodniu, zdaje się, że we wtorek z Patrykiem Chojnackim
sobie na ten temat porozmawiamy, także jeżeli ktoś nie grał w Hearthstone’a
jeszcze, a będzie chciał sobie to odświeżyć, albo po prostu w ogóle
zapoznać się z tym tematem, no to myślę, że będzie okazja, żeby to
w najbliższym czasie zrobić. A tymczasem mamy wiadomość głosową od Rafała,
a zatem posłuchajmy.
Nagrywanie bez przytrzymywania, wyślij przycisk.
Dobry wieczór, tu po drugiej stronie Rafał.
Mam dwie kwestie. Jedna kwestia chodzi o Arda, problem się nie rozwiązał,
nic nie pomaga, no, tak molenduję, a co drugiej sprawy, powiedzcie mi,
co mam zrobić, żeby komputer się hibernował po wyznaczonym jakimś tam czasie,
no, bo nie mogę znaleźć w ogóle usłupienia. Owszem, można ustawić, żeby się
usłupiał po jakimś czasie, a hibernację nie. No, dodam, że mam Windows 11.
No, komputer dal, nie wiem, dlaczego tej opcji nie ma i tak dalej.
Może macie wy jakieś pomysły. To tyle, do usłyszenia.
Wyślij przycisk.
Dzięki Rafale za tę wiadomość. Jak dobrze pamiętam, to hibernacja
domyślnie tak generalnie nie jest włączona i trzeba ją sobie po prostu włączyć,
żeby ta hibernacja nam działała. Jak to dokładnie zrobić i gdzie konkretnie,
to szczerze mówiąc nie pamiętam, ale może ktoś z was pamięta.
Mi się kojarzy, że jak się wejdzie w, no, tam, gdzie się ustawia
skutek zamknięcia pokrywy i przycisku zasilania, naciśnięcia,
to tam jest taki przycisk zasilania. Ustaw, co ma być pod LDF4.
W sensie nie wiem, jak dokładnie ten przycisk się nazywa, ale kojarzy mi się,
że on tam właśnie jest. Tylko, że to, co tam, no, są tam jakieś kontrolki,
które są takie półdostępne i trzeba je jakoś, jakoś tak obiektówką z tego,
co pamiętam, jak kiedyś, kiedyś to jeszcze ustawiałam.
Natomiast taka najszybsza metoda, jeżeli chcesz na szybko coś,
w sensie komputer, zahibernować, a na ogół tego nie potrzebujesz,
no to możesz w Windows R wpisać shutdown, czyli schód down, spacja slash H.
Okej, no to warto rzeczywiście o tym wiedzieć, ale czy to zawsze nam zadziała,
Pauli? No, bo wydaje mi się, że coś jeszcze z tą hibernacją trzeba było zrobić,
żeby ona w ogóle nam się pojawiła i żeby ona była dostępna.
Znaczy, no to właśnie tam w tym menu zasilania.
Czyli ten przełącznik nam zawsze zadziała?
Ale przełącznik działa zawsze, nawet jeżeli nie ma tej hibernacji.
Okej, no to rzeczywiście to warto wiedzieć, a swoją drogą, słuchajcie,
to ja, jak tak rozmawiamy sobie o opcjach zasilania, to ja powiem o jeszcze
jednej rzeczy, którą warto sobie zmienić, jeżeli korzystacie zwłaszcza
z komputerów przenośnych i no te komputery działają wam w jakiś sposób
dość powoli. Jest taka opcja w edycji zaawansowanych ustawień planu zasilania,
jak minimalna i maksymalna moc procesora. Ja radziłbym ustawić sobie
tę minimalną moc procesora także na 100, bo tam jest, maksymalna no to jest zawsze
na stówkę, natomiast minimalna jest bardzo często na zaledwie kilka procent.
Więc i oczywiście najlepiej sobie to ustawić na zasadzie takiej, że kiedy
komputer jest podłączony do zasilania, tak, to żeby jedno i drugie było na 100.
Kiedy nie jest podłączony, no to może niekoniecznie warto ruszać, jeżeli wam
zależy na jakiejś tam, powiedzmy, dłuższej pracy na baterii, natomiast
warto sobie to ustawić. Ja kiedyś zawsze to zmieniałem, potem o tym
kompletnie zapomniałem, a ostatnich kilka dni akurat miałem okazję pracować
na laptopie, no i cóż, znowu sobie przypomniałem, że ta opcja naprawdę
sporo zmienia i sporo rzeczywiście daje. Nie wiem, czy to tylko na mnie widomym,
czy tak w ogóle wszystkim i czy osoby widzące aż tak bardzo odczuwają
te różnice. Mam wrażenie, że my jeszcze bardziej przez to, że no jednak
na przykład synteza, która się generuje, to też każde najdrobniejsze opóźnienie
w niej, no powoduje jednak u nas jakiś tam dyskomfort.
To nie wszystko, bo mamy jeszcze komentarzy kilka i mamy tu na przykład
taki komentarz od użytkownika, który się podpisuje Android dla niewidomych
i to jest ciekawy komentarz. Witam, mam pytanie, jakie byście polecali
iPhony do kupienia. Mam na oku dwa modele, mianowicie SE 2020 i SE 2022.
Ja bym zawsze polecał najnowszy. Najnowszy, na jaki możesz sobie pozwolić.
To prawda, zwłaszcza, że z tego co ja pamiętam, to model 2020, no sporo osób
narzekało tam na baterię jednak, że ta bateria sobie po dłuższym czasie
używania, to znaczy już jak ten telefon był troszeczkę wyeksploatowany,
przy czym troszeczkę, jakieś pół roku, to już ta bateria dawała znaki,
że jest jakoś tam wyeksploatowana. Ponoć model 22 nie ma aż takich
z tym problemów. Wiadomo, że ta bateria nigdy nie będzie porównywalna
i pojemnościowo i też jakościowo prawdopodobnie z modelami tam Max Pro
i tak dalej, natomiast już nie ma takiej sytuacji, że po roku telefon woła
o mało co wymianę i już tak powiem gwarancję.
Że bateria do serwisu.
Tak, tak, tak. To rzeczywiście sporą ilością znajomych o tym rozmawialiśmy,
że jest coś na rzecz z tą baterią w tym konkretnym modelu 2020.
No to jeszcze komentarz od użytkowniczki Justa Animuje na YouTubie.
Ja nagrywałam streamy za pomocą StreamYard, ale nie wiem czy gadacze
dają radę. Szczerze powiedziawszy ja StreamYard też nie używałem,
więc ciężko mi powiedzieć, natomiast ja przypominam, że jest jeszcze
TuneIn. TuneIn co prawda w wersji płatnej, w którym można sobie programować
i tam nagrywać wiele, przepraszam, tapin, tapin, tapin radio.
I można sobie programować wiele różnych streamów w tym samym czasie.
On może nam nagrywać, więc jeżeli ktoś woli sobie tak wyklikać, że tak powiem,
to co chce nagrywać, to może w ten sposób. To się też całkiem fajnie sprawdza.
Dobrze, przechodzimy do kolejnych tematów.
Kolejne tematy, czas żebyśmy omówili, a konkretnie tym razem Pawle.
Twój temat o wytycznych WCAG, które się doczekały kolejnej edycji,
konkretnie w wersji 2.2. No i jak to zwykle w tych wytycznych troszeczkę się zmienia.
Tak, zmian jest kilka. Dokładnie weszło 9 nowych wytycznych,
9 nowych kryteriów sukcesu tak zwanych, wedle których oceniana jest właśnie
dostępność, czy to stron, czy też aplikacji mobilnych.
Dla nas, jako dla osób niewidomych, tak bezpośrednio nie weszło nic nowego.
Natomiast weszło parę rzeczy, które pośrednio mogą nam też pomóc
wpłynąć na to, jak my z tego internetu będziemy korzystać.
A pomijając już to, to w ogóle takie przeanalizowanie sobie tego typu kryteriów.
To jest świetne studium tego, jak zmieniają się trendy w budowaniu stron internetowych,
jakie nowe technologie wchodzą, jakie nowe zjawiska się pojawiają,
jaka moda teraz panuje w ogóle w designie i tak dalej.
I jakie z tego też często wynikają problemy. No właśnie nie tylko dla nas,
bo się okazuje, że sporo innych osób z innymi niepełnosprawnościami,
albo po prostu, które używają tego internetu w jakiś troszkę inny sposób,
nie odnajduje się w tym, jak te strony są skonstruowane.
W związku z czym te wytyczne starają się temu zaradzić.
Taką pierwszą zmianą, o której dużo było dyskusji w kręgach właśnie ekspertów
dostępności, to było usunięcie kryterium 4.1.1, czyli walidacja kodu.
Było takie wymaganie już od wersji zdaje się 2.0. Pytanie, czy nie wcześniej,
ale 2.0 to jest rok 2008 w ogóle, więc możliwe, że to gdzieś tam wtedy.
Żeby tworząc strony, żeby brać pod uwagę to, aby ten kod HTML zwłaszcza był czysty,
to znaczy, żeby tagi były podomykane, żeby nie używać jakichś tam
identyfikatorów, które są niejednoznaczne, żeby nie wiem,
kilka elementów nie miało tego samego.
Które się dublują.
Tak, które się dublują i potem są z tym problemy.
Jakieś tam błędy w kodzie, takie gdzieś uczniowskie,
typu tu gdzieś tam się jakiś cudzysłów nie dopisał,
tu jakieś podkreślenia się nie dopisało.
Okazuje się, że argument jest taki, że teraz przeglądarki potrafią
w jakiś sposób kompensować.
Czemu to było takie ważne?
Oczywiście, bo tagi wtedy nie działały.
Nie domknęliśmy jakiegoś tam elementu, na przykład a,
to link się nie renderował jako link.
Gdzieś tam na główkę nie domknęliśmy tego h1 czy któregoś,
czegoś tam nie uzupełniliśmy.
Co do znaku, to się nie renderowało jako nagłówek.
Teraz przeglądarki nowoczesne już mają pewne zaawansowane możliwości
kompensowania, domyślania się tak naprawdę,
że jak tu gdzieś tak otwarłem, to gdzieś tam go chciałem pewnie zamknąć.
Jak zrobiłem nową linię czy coś.
Co nie w każdym tagu jest oczywiste, ale dla wielu da się to zrobić.
I gdzieś tam to domyślanie się jest na tyle już dobre w tych przeglądarkach,
że można temu zaufać.
Dalej są osoby, które twierdzą, że dobrą praktyką jest jednak,
żeby ten nasz kod był czysty przede wszystkim.
Jest on wtedy przejrzysty dla osób, które chcą sobie go przejrzeć.
Dla innych osób, z którymi współpracujemy.
Nasze intencje co do tego, co my w tych elementach planowaliśmy,
w tym drzewie jest jasne.
No i nie ma co tutaj się lenić, tylko jak się już pisze ten kod,
to piszmy go porządnie i piszmy go czysto.
Są dyskusje, są argumenty, ale nie jest to nic takiego,
co by nam jako użytkownikom funkcjonalnie coś odbierało.
Pozbyto się tego kryterium.
Oczywiście WCAG 2.1 jest tym obowiązującym w prawodawstwach.
Na pewno w europejskim.
To co w Polsce się dzieje, czy w ogóle w Unii,
jeśli chodzi o dostosowywanie stron,
to opiera się o 2.1, natomiast jest już takie zalecenie,
że nawet jeśli 2.1 wymaga, no to z tytułu tego, że 2.2,
który jest nowszy, już nie wymaga, to zaliczać po prostu z automatu
to kryterium jako spełnione,
bo i tak już się na to nie będzie zwracało uwagi.
Więc to wypadło. A teraz co? Doszło.
Doszło wymaganie 2.4.11
i na poziomie AA, czyli tym takim pośrednim,
bo A to jest taki absolutnie musi być spełnione,
a A to jest taki dobrze by było, przy czym, to jest ta norma,
przy czym w prawodawstwie europejskim na pewno,
a w amerykańskim chyba też AA to jest to wymagane.
Czyli na samym A nie pojedziemy, musi być to podwójne A.
Potrójne A to już jest takie dla uczniów z gwiazdką,
dla bardzo ambitnych, jak ktoś chce się bardzo wykazać,
to można to podwójne A spełnić, ale podwójne A to jest to,
co się celuje w większości z tego, co słyszę, prawodawstw,
które gdzieś tam zakładają te wytyczne dostępności.
No to tutaj mamy dla osób słabowidzących bardzo ważne wymaganie
focus not obscured, czyli po prostu jeżeli,
i to jest właśnie, to też wynika tutaj z tego,
jak teraz się zmienił internet od czasu, jak weszło 2.1,
czyli doszły nam różne banery, pop-upy, które mają w strukturze strony,
czy to CSS-em umocnione, czy gdzieś tam w tym,
jak są w kodzie HTML-owym po prostu ułożone swoje stałe miejsce
i one zawsze w tym samym miejscu wyskoczą, na przykład banery Okukiz.
I zdarzało się tak, że po prostu sposób zaprogramowania
tego stałego miejsca sprawiał, że ten baner po prostu
zakrył sobie wizualny focus, czyli jeżeli osoba słabowidząca
nawiguje, ma to wizualne takie obramowanie, które ułatwia
zorientowanie się na czym ja w tym momencie jestem na tej stronie,
na którym linku, na którym przycisku i tak dalej,
no to taki baner potrafił sobie zignorować ten focus,
to trzeba respektować gdzieś ten focus,
nadpisywał go sobie i pojawiał się w takim miejscu,
że focus był częściowo, bądź całkowicie przykryty.
No i ta wytyczna stanowi, że jeżeli element interfejsu użytkownika,
komponent interfejsu użytkownika otrzymuje focus klawiatury,
komponent nie jest całkowicie zakryty z uwagi na zawartość
tworzoną przez autora, no czyli no właśnie, że można było
gdzieś tam coś wtrynić, coś wrazić gdzieś po środku i ten focus,
czyli to jak my się klawiaturą poruszamy, to obramowanie było zakrywane.
No i tutaj mamy tu wytłumaczone, że są takie obszary,
które właśnie zawsze na tym samym miejscu muszą się pojawić,
no i chodzi o to, żeby nie zakrywały one tego,
co normalnie na tej stronie się pojawia.
Mamy też wymaganie 2412 i to jest rozszerzenie tego samego,
tylko do poziomu AAA, jest to rozszerzenie i tutaj już nie ma,
że częściowo może być zakryty, czy on częściowo nie powinien być zakryty,
tutaj w ogóle nie powinien być zakryty.
No więc taka jest różnica w tym wymaganiu potrójnego A.
Potem mamy 2.4.13 i tu mamy znowu dla potrójne A,
czyli dla ambitnych, że tak powiem, wygląd focusa.
Jeżeli wskaźnik focusa klawiatury jest widoczny,
to obszar tego focusa musi spełniać wszystkie poniższe wymagania.
Musi być tak samo duże, tu jest podane konkretne wymaganie w pikselach
w stosunku do otaczającego komponentu i w stanie sfokusowania
i braku fokusu musi być spełnione wymaganie kontrastu 3 do 1,
czyli te wymagania kolorystyczne.
Focus musi po prostu się wyróżniać kolorystycznie na tle tego,
jak coś nie jest sfokusowane,
czyli żeby focus klawiatury był dużo bardziej widoczny.
Są do tego też wyjątki, czyli na przykład jeżeli agent, user agent,
czyli nasza przeglądarka, nasz system operacyjny,
definiują same z siebie focusa i autor strony tak zaprogramował stronę,
że sam nie ma nic do gadania, no to jasna sprawa,
nie może tego dostosować, no i jeżeli autor nie modyfikował ani tła,
ani focusa, także tutaj mamy takie wymaganie.
Potem mamy 2, 5, 7.
Gesty przeciągania, ruchy przeciągania.
To jest na poziomie AA, więc w prawodawstwach w większości
musi być spełnione.
Chodzi o to i tutaj jest ukłon w stronę użytkowników
o ograniczonej mobilności.
Jeżeli jakaś operacja na stronie wymaga przeciągania myszą,
jakiegokolwiek elementu, czyli różne mechanizmy przeciągnij i upuść
i tak dalej, to powinien być zaoferowany również mechanizm
pozwalający na to, żeby to samo wykonać bez przeciągania,
czyli na przykład kliknij, aby zaznaczyć początek,
kliknij, aby zaznaczyć koniec ruchu i bez ciągnięcia myszą
czy tam palcem po ekranie można ten element upuścić.
Więc takie wymaganie zostało też postawione.
Następnie 2, 5, 8.
Target size minimum i to jest również na 2A.
Tak, rozmiar elementu klikalnego musi wynosić
minimalnie 24 na 24 piksele, chyba że.
I tutaj jest cała lista wyjątków.
W dużym skrócie chodzi o to, żeby elementy, w które mamy stukać
czy klikać myszą, czy stukać palcem na ekranie dotykowym
mają odpowiednią wielkość i ten obszar jest ostatecznie duży,
tak by osoby, które gdzieś na przykład nie potrafią palcami
trafić w jakiś bardzo, bardzo mały punkt na ekranie
albo po prostu trzęsą im się ręce, inna niepełnosprawność sprawia,
że nie są w stanie tego zrobić, miały możliwość w taki element stuknąć
i go aktywować.
Następnie mamy wymaganie, kryterium sukcesu 3, 2, 6.
Consistent help i tu jest już pojedyncze A,
czyli absolutnie musi to zostać spełnione.
Chodzi o to, że jeżeli oferujemy jakiś mechanizm pomocy na naszej stronie,
czy jest to pomoc w postaci kontaktu z żywym człowiekiem,
czy jest to chatbot, czy jest to jeszcze inna forma,
czy dane kontaktu z człowiekiem, czy mechanizm kontaktu z człowiekiem,
czy opcja samopomocy, czy w pełni zautomatyzowany mechanizm kontaktowy,
tego typu pomoc na każdej podstronie naszego serwisu
musi być oferowana w dokładnie tym samym miejscu.
Tu chodzi o to, aby w tej strukturze strony, jeżeli mamy, nie wiem,
pomoc w menu, w jakimś menu nawigacyjnym,
to by ono na każdej podstronie zawsze było tam
i też się tak samo nazywało, a nie jakoś tam inaczej.
No to chodzi o to też pod kątem czytników ekranu,
ale też pod kątem osób, które przez różnego rodzaju niepełnosprawności
kognitywne, poznawcze, żeby nie czuły się zagubione,
że tu jest ta pomoc gdzie indziej, tam gdzie indziej,
tu nazywa się inaczej, tam inaczej.
No więc myślę, że nam to też pomoże.
Potem 3.3.7 redundant entry, czyli zbyteczne wprowadzanie danych,
zbyteczne wejście danych.
Chodzi o to, że jeżeli wypełniamy jakiś formularz
i z jakichś przyczyn jesteśmy proszeni o podanie dwa razy,
no mniej więcej identycznych danych, to żeby była opcja,
o ile nie jest to wymagane do, na przykład, weryfikacji tych danych,
do potwierdzenia typu hasło i powtórz hasło,
to żeby była opcja przekopiowania danych z tego pierwszego wprowadzenia.
Tutaj takim typowym przykładem użycia są adresy dostawy
i adres rozliczenia faktury.
Zdarza się tak, że coś zamawiamy i wpisujemy adres dostawy,
no a za chwilę mamy płatność i w tej płatności mamy znowu
podaj adres do rozliczenia.
No to tutaj jest wymaganie i ono jest na poziomie podstawowym,
czyli musi to zostać spełnione, żeby był mechanizm
pozwalający nam te dane skopiować.
Taki bardziej nam znany, czy nawet nie bardziej,
ale podobnie nam znany mechanizm, który jest już,
to tu jak ktoś współpracował z nami tutaj, z Tyflopodcastem,
to pewnie kojarzy te formularze danych osobowych.
Mamy adres zamieszkania i adres korespondencji.
No i tu w formularzu, który Michał nam zawsze wysyła,
google’owskim, jest opcja adres tożsamy z adresem zameldowania.
Więc możemy sobie to wybrać, już nie musimy tego drugi raz przepisywać.
Więc tutaj będzie to teraz wymaganiem dostępności.
Ja myślę, że słusznie, bo komu by się chciało dwa razy
te same dane przepisywać, tak ułatwia to dane.
Dla osób właśnie również tutaj z niepełnosprawnościami poznawczymi
tak naprawdę ratuje to sytuację, bo bardzo łatwo jest w takiej sytuacji
się sfrustrować tym, że już przecież te dane podawałem.
Ja myślę, że to wszystkim tak naprawdę ułatwia.
Bo też, nie wiem, literówkę można zrobić zawsze, cokolwiek.
A też się można po prostu zgubić i ktoś może pomyśleć, że zaraz,
ale ja to już wcześniej wpisywałem, to co, to się nie wpisało?
O co tu chodzi?
Dokładnie.
Mamy też kryterium sukcesu 3.3.8.
Accessible Authentication Minimum.
I to jest na podwójne A.
O co tu chodzi?
Chodzi o to, i to jest układ w stronę osób właśnie z niepełnosprawnościami
również tu poznawczymi, osobami, którym trudność sprawiają
wszelkiego rodzaju operacje, czy matematyczne,
czy wymagające jakiegoś poznawania i tak dalej.
Przy logowaniu się, przy jakiejkolwiek autentykacji, potwierdzeniu tożsamości
nie powinny być używane mechanizmy, które wymagają od nas skorzystania
z funkcji poznawczych.
Jeżeli takie funkcje są użyte, to musi zostać spełniona
jeden z czterech warunków.
Ma być podany mechanizm alternatywny, który nie polega na tej funkcji poznawczej.
Jest podany mechanizm, który pomaga nam w wykonaniu tej czynności.
Jest rozpoznawanie obiektów, czyli że mamy wybrać sobie z listy obiektów,
to znamy te numery. Wybierz jedną, który obrazek nie jest światłami
na przejeściach dla pieszych.
Lub mechanizm taki ma się powoływać na nasze własne treści,
które wcześniej wrzuciliśmy.
I o co tu chodzi?
Chodzi o to, że np. osoba, która ma dyskalkulię,
nie wykona działania matematycznego, a bardzo popularną alternatywą
dla kapcz obrazkowych są bardzo często kapcze typu
wykonać działanie matematyczne.
Tak samo problematyczne może być jakieś układanie puzli.
I co się okazuje, tak samo problematyczne może być przepisywanie kodów,
które gdzieś zostaną nam wysłane sms-em.
I o co tutaj chodzi?
Chodzi o to, i to są bardzo proste rzeczy,
chodzi o to, żeby rezygnować z np. mechanizmów
uwierzytelniania dwuskładnikowego.
Chodzi o to, żeby po prostu nie unieruchamiać np. menedżerów haseł.
Żeby nie unieruchamiać opcji kopiuj w klej.
Żeby możliwość zawsze była skopiowania, tak jak na iPhonach mamy opcję
skopiuj z wiadomości, żeby kopiować ten kod, żeby tego mechanizmu
nie blokować.
Na Androidach też.
Ja mam iPhona, tylko mówię o iPhonach.
Żeby był jakiś mechanizm wspomagający np. autentykację odciskiem palca
lub twarzą lub jakieś klucze sprzętowe.
To wszystko są akceptowalne mechanizmy, które spełniają to kryterium.
To też nie oznacza, że w ogóle tego typu mechanizmów nie ma być gdziekolwiek.
Ich nie ma być na ekranach logowania, czyli jeżeli logujemy się na konto,
to tam ma tego typu rzeczy nie być.
Wszędzie indziej może sobie to być.
No i osobiste treści, czyli ma się to powoływać np. na jakieś zdjęcia
czy jakieś dane, które my podawaliśmy w ramach tego serwisu.
Więc po prostu mi się przypomina i nie wiem, czy tutaj to będzie spełnione.
Na Facebooku było kiedyś przy odzyskiwaniu hasła
rozpoznań znajomych po zdjęciach.
No także być może cały czas mówimy o osobach z niepełnosprawnościami poznawczymi,
nie o osobach niewidomych.
To pamiętajmy o tym.
Na przynajmniej na tym poziomie to kryterium sukcesu
nie odwołuje się póki co do użytkowników czytników ekranu.
Póki co mówię, bo istnieje też kryterium 3.9,
które jest rozbudowane, enhanced i jest na 3A niestety.
Ono już eliminuje rozpoznawanie obiektów.
Czyli już tutaj nie możemy się bawić w rozpoznawanie samochodów,
przejść na pieszych itd.
Tutaj ma być już albo mechanizm wspierający, albo alternatywa.
Czyli to jest to, co nam by się najbardziej podobało.
Niestety jest na takim poziomie, którego teoretycznie prawnie
nikt nie musi spełnić.
Szkoda, ale prawdopodobnie byłby taki bunt wszczęty,
żeby nie przeszły takie wytyczne.
Tak to wygląda.
I to wszystko, jeśli chodzi o te nowe wytyczne.
Kilka takich ułatwiaczy, które doganiają współczesne dzieła technologiczne
się pojawiło.
Cały czas w planach, wielkich planach i nie wiadomo, kiedy zostanie ukończone
i jaki będzie ostateczny kształt tych wytycznych jest WCAG 3.0.
Nawet to się jakoś nazywa tam silver arrow,
czy jakoś tam srebrna strzała, jakoś tak.
Zobaczymy, co to ze sobą wniesie.
Natomiast na ten moment mamy 2.2.
Zobaczymy, jak szybko prawodawstwa różnych państw to zaadoptują.
Zważywszy na to, że nawet z 2.1 sobie nie potrafimy poradzić,
to zobaczymy, czy to cokolwiek da i kiedy, że tak powiem,
się doczekamy tego 2.2.
Natomiast takie są zmiany, które weszły w tych wytycznych.
Myślę, że warto się w takich rzeczach orientować,
bo w końcu jest to z pożytkiem dla nas i nie tylko dla nas,
żeby te wytyczne były respektowane.
A propos zabezpieczeń kapcza.
Czy wy mieliście tę przyjemność?
Ja raczej zakwalifikowałbym ją raczej do wątpliwych.
Korzystać z najnowszego rozwiązania od H-kapczy.
Którego?
Mówię o wersji tekstowej, o rozwiązywaniu kapczy poprzez wersję tekstową.
Czy łazienka to ssak i inne takie?
Tak, tak, tak.
No nie wiem, w sumie dla mnie to śmieszne było.
Znajomego zapytał, czy wieloryb siedzi w toalecie.
I się zastanawiałam, o co tam mówi.
Ja się na przykład, ja na przykład dostałem pytanie,
czy wielbłąd jest metalem.
Natomiast dla tych wszystkich, którzy nie wiedzą,
to jest mechanizm, o który możemy poprosić,
jeżeli na przykład nie chcemy bawić się w to dostępnościowe ciasteczko.
Nie zawsze zresztą też to dostępnościowe ciasteczko.
Tak, bo to musi niestety autostrony włączyć.
A niestety z tego, co zauważyłem, większość tego nie robi.
Discord na przykład to włączył.
Discord to włączył, Bitworld chyba też.
Ale słuchajcie, ja…
Ale poza tym to nie widziałam tego nigdzie.
Natomiast dla mnie jest to rozwiązanie, którego dostępność…
Okej, ja wiem, że tam ktoś chciał dobrze,
ale ja powiem szczerze, ja się czułem zagubiony rozwiązując te kapcze.
I już wam mówię, dlaczego.
Bo tam była prośba o podanie odpowiedzi tak lub nie.
No właśnie była prośba o odpowiedź tak lub nie na przykład.
Albo tak lub je.
I teraz ja na przykład nie wiedziałem, co ja mam wpisać.
Czy ja mam wpisać nie?
Czy ja mam wpisać nie, tak jak on mnie prosi?
Czy ja mam wpisać je?
Ja się męczyłem chyba z tym jakieś pięć minut.
Co oni to zrobili, tak żeby boty zmielić?
No właśnie, wiesz co, właśnie…
Problem jest w tym, że ja nie wiem do końca, jakiej on odpowiedzi oczekiwał.
Czy ja mam wpisać właśnie tak, jak on prosił?
Ja, no, słyszę, że mam wpisać tak lub tak.
Okej, no to dobrze, to tak wpisuję.
A on mnie pyta znowu, czy, nie wiem, na przykład kwiat jest krową.
I znowu prosi mnie, odpowiedź tam chyba było tym razem ak lub nie.
No i teraz w końcu mi się udało zalogować na tego Discorda,
ale zeszło mi na tym jakieś dobre pięć minut,
bo po prostu ja nie wiedziałem, jakiej odpowiedzi ta kapcza oczekuje.
Bo mogło być tak, że ja mam wpisać dokładnie, powiedzmy, tak lub je,
na przykład, w zależności od tego, co jest tu prawdą, a co fałszem.
Albo rzeczywiście mogło być w drugą stronę, że bot wpisze je,
bo taką ma prośbę, a użytkownik myślący wpisze nie.
No ale, no, to nie było oczywiste.
To nie było oczywiste.
Nie, no to ja w sumie, najbardziej, w ogóle moją najulubieńszą kapczą
z tych, które trzeba rozwiązywać, bo Google’a nie liczę,
ale z tych, które trzeba rozwiązywać, najfajniejszą jest Microsoftowa kapcza.
Gdzie mamy, na przykład, tam, nie wiem, powiedz, na którym dźwięku
słychać bębny, albo tłum, albo coś tam?
Tak, tak. Też na stronie jest Sony, też było takie coś.
Bardzo mi się podobała kapcza, nie wiem, czy to do dziś jest,
którą miał Orange swojego czasu, nie wiem, czy ktoś z Was kiedyś się logował.
Gdzie robimy dokładnie to samo, co osoby widzące,
bo po prostu wybieramy obrazek niepasujący do reszty,
natomiast te obrazki mamy podawane takim ciepłym głosem lektorskim.
Ojej.
Bardzo fajnie, tam faktycznie mamy przyciski opisane jako obrazek pierwszy,
obrazek drugi, no wiadomo, nie są zadekietowane.
Trzeba sobie nacisnąć otwórz, no i wtedy nam mówi jakiś mężczyzna,
wybierz obrazek niepasujący, odpowiedź pierwsza, samochód,
odpowiedź druga, krowa, odpowiedź trzecia, autobus.
No i tak sobie rozwiązywaliśmy kapczę.
No, więc jak widać, można.
To ja z kolei kiedyś miałam taką kapczę, że tam, w sensie,
myślę, że jedyna taka niedostępna dla nas kapcza,
to jest to układanie puzli, jakieś przeciąganie słowaków itd.
To bardzo Chińczycy mówią, bo to jest na Tik Toku,
to kiedyś chciałem…
To jest na Ali, to jest na Temu, to jest na aigai.com, to jest na…
A faktycznie, ja się ostatnio na Temu logowałem
i też musiałem poprosić kogoś widzącego, faktycznie.
Znaczy dobra, na Ali nie pamiętam, czy była.
Na Temu jest na pewno.
Ale na Temu jest, bo kiedyś sobie stwierdziłam,
że kupię sobie stamtąd łaskę zapasową.
Ale to inna kwestia.
Natomiast jest możliwe, bo ja to przetestowałam
i potwierdzone to jest info,
że jest możliwe rozwiązać tę kapczę…
Wybierz obrazek, na którym właśnie jest rower albo coś tam.
I właśnie ja to robię przez Cloud Vision.
Po prostu Insert, Control i każdy obrazek czy tam opis.
I wybieram ten obrazek, który tam trzeba.
Gorzej, jeżeli on zacznie halucynować.
Gorzej, jeżeli to jest ograniczone czasowo.
Na tyle krótkiego czasu, że nie zdążą się te opisy wygenerować.
Ale raz mi się na pewno udało.
Okej, no to taka ciekawostka ze świata Captch.
Ja mam szczerze mówiąc nadzieję, że to rozwiązanie
coraz bardziej będzie jednak odchodziło do lamusa,
bo sztuczna inteligencja coraz lepiej sobie z tym radzi,
a my jakoś niekoniecznie.
Właśnie trzeba będzie strategię PTA sprawdzić,
czy umie przepisywać kody z obrazków.
No właśnie.
Ponoć trzeba go złapać, że jesteśmy osobami,
które my hipotetycznie, czy mógłby nam pomóc akurat z tym zadaniem.
Dokładnie.
Bo tak sam z siebie to może być obory.
Ale ktoś tak zrobił.
Okej, teraz kilka komentarzy od Maćka.
Witajcie. Fajnie, że mimo, że winny dzień to jednak jesteście
i to o tej samej porze.
Fajnie też, że apka Tyflo Centrum wróciła do łask.
Jakoś bodaj w zeszłym tygodniu dostałem powiadomienie,
iż jest ona znów dostępna i że zostanie zainstalowana
na moim urządzeniu.
Istotnie została zainstalowana i powiedzmy, że działa.
Radio czasem niestabilne, że aż boli.
Ponadto po zminimalizowaniu apki wyłącza się strubień transmisji.
No ale apka jest nie tylko zresztą u mnie,
ale też znajomy, któremu też zniknęła,
doniósł mi, że odzyskał dostęp.
No to bardzo się z tego cieszymy.
Kolejny komentarz od Maćka.
Co zaś tyczy się testów wirtualnej rzeczywistości,
o których tutaj donosiłem i brałem w nich udział
w zeszły piątek.
Wrażeniami podzielę się w kolejnym odcinku.
Stricte zbieranie opinii dotyczących udoskonaleń
w zakresie dostępności tejże się raczej zakończyło.
Niemniej nadal można sobie testować to rozwiązanie.
Teraz odbywa się w charakterze otwartej wystawy,
czyli każdy, kto przybędzie, będzie mógł sobie to przetestować.
Wystawa mieści się w Małopolskim Ośrodku Sztuki w Krakowie
przy ulicy Rajskiej 12 i generalnie można wchodzić
od wtorku do soboty od godziny 11 do bodaj 19.
Obsługa wystawy jest odpowiednio przeszkolona
w zakresie audiodeskrypcji oraz asystowaniu
podczas nawigowania w tej wirtualnej rzeczywistości.
Jeśli by ktoś natomiast chciał przejść te gry
z audiodeskrypcją w wykonaniu Reginy Minarskiej,
będzie takowa możliwość 16 listopada od 11 do 13.30.
W czasie testów wchodziło się za darmo,
natomiast teraz bilet wstępu na wystawę kosztuje 5 zł,
jeśli chodzi o osoby niewidome, natomiast asysta wchodzi za darmo.
Niestety taka asysta nie jest przez ośrodek zapewniana
i trzeba sobie kogoś zorganizować we własnym zakresie,
ale myślę, że raczej warto.
Przypominam, przystanek teatr Bagatela.
Serdecznie pozdrawiam.
I kolejna wiadomość od Maćka.
Błąd dostępności w macOS straszliwy.
Mianowicie w pierwszej wersji developerskiej 14.2
nie jest odznajmiana przez voiceovera treść pól edycyjnych,
gdy nawigujemy po znakach, wyrazach czy też wierszach.
Zaobserwowałem w aplikacji testedit, pages,
a także podczas nadawania lub zmieniania nas w plikom czy folderom.
Skończyło się wymazaniem Maca
i odtworzeniem wszystkiego z kopii Time Machine.
Uff, jak to dobrze jest robić kopie zapasowe.
Dane i ustawienia ocalone.
I tu Piotrze, słyszę, że chcesz coś dodać?
Tak, bo to samo zauważył Arek Świętniński
jeszcze w przypadku pierwszej bety, z tego co pamiętam
i spanikowanie napisał o tym na Macedonii.
Ja tego nie miałem, więc zaczęliśmy szukać powodu.
Okazało się, że jeśli ktoś się testuje,
można to obejść bez reinstalowania systemu.
Problem występuje tylko wtedy, kiedy mamy echo klawiatury ustawione na nic.
Więc jeśli mamy echo na znaki lub słowa,
no to wtedy voiceover nam będzie wszystko czytał.
No to jest błąd i to jest na pewno poważny błąd,
bo dużo osób sobie to po prostu wyłącza.
No ale to właśnie tak się objawia na szczęście.
Można to właśnie w ten sposób obejść.
I Piotrze, skoro jesteś przy głosie,
to tu jeszcze pytanie od Maćka do Ciebie właśnie w szczególności.
Czy wiesz coś może o kolejnym błędzie dostępności macOS,
który objawia się tym, że gdy Mac jest wymazany,
nie można w ogóle w narzędziu odzyskiwania uzyskać dostępu do Wi-Fi.
W menu w ogóle brak możliwości połączenia się z Wi-Fi,
natomiast menu dodatkowe skrót WOM plus M
niestety w ogóle nie działa.
Finał zakup przejściówki Thunderbolt 4 na Ethernet
i połączenie przewodowe.
I w ten sposób można w ogóle zrobić cokolwiek,
aby MacBook nie skończył niczym cegła.
No to czy coś wiesz Piotrze?
Słyszałem o tym, natomiast nie miałem jeszcze okazji,
nie miałem potrzeby tak tego resetować.
System, jeśli mamy jakąś partycję aktywną,
to on jakoś dane sieci Wi-Fi zapisuje.
Mój znajomy jakoś jakiś czas temu to instalował,
teraz nie pamiętam jak on sobie z tym poradził,
czy też po prostu podłączył Maca do Ethernetu,
czy jakoś inaczej.
No natomiast to jest coś o czym słyszałem.
Mam nadzieję, że to też zostanie poprawione,
jeśli nadal niestety nie zostało to.
Okej, mamy tu jeszcze komentarze,
jeżeli chodzi o tekstowe komentarze na YouTubie od Jarosława.
Jarosław napisał tak, spróbuj wpisać powercfg,
czyli powercfg, to a propos hibernacji, jak się domyślam.
I później spacja hibernate spacja on w wierszu poleceń.
No rzeczywiście, to może zadziałać.
Powercfg spacja hibernate spacja on.
Potem restart kompa, tu jeszcze Jarosław dopisał,
tak to prawda po włączeniu hibernacji trzeba komputer zrestartować.
Android dla niewidomych z kolei nas pyta,
mam pytanie jakie wy macie iPhone’y Pawle, Michale i Piotrze,
jak się wam z nich korzysta, czy mieliście problemy z konfiguracją
i kiedy je dostaliście.
No ja mam trzynastkę, ja mam trzynastkę od zeszłego roku, działa wszystko dobrze,
nie miałem najmniejszych problemów z konfiguracją.
Ja mam trzynaście mini od dwóch lat.
Ja mam trzynaście pro od już półtora roku.
Dlaczego akurat trzynaście pro?
No właśnie głównie między innymi przez baterie i przez to,
że był trochę większy ekran i też jestem bardzo zadowolony.
Trzynaście mini, problemów z konfiguracją zasadniczo nie było.
FaceTime może tam poprosiłem osobę widzącą o pomoc,
bo nie byłem troszeczkę zaznajomiony z tym procesem.
Czy na coś narzekam?
No bateria rzeczywiście, ona jest w porządku i długo działa jak nie ruszamy tego telefonu.
Jak jest ekran zablokowany, on sobie po prostu leży.
Możemy nawet na nim czegoś słuchać, możemy po prostu,
żeby odbierał sobie powiadomienia, go zostawić.
Najważniejsze, żebyśmy mało używali odblokowanego ekranu,
wtedy on sobie potrzyma, a potrzyma.
Co jeszcze tam?
Aha, nie wiem czy to jest kwestia małego ekranu,
ale miewam problemy z Braille’em.
Bardzo często nie chcą mi się wbijać cztero, pięciopunktowe litery,
jakieś T, Y i tak dalej.
Po prostu stukam i nie dzieje się nic, więc nie wiem,
czy on jakoś wolno reaguje, czy te punkty dotyku są tak jakoś zagęszczone,
że to nie chce działać.
Za każdym razem, no i oczywiście przez to, że ekran jest mały,
do czego się już odzwyczaiłem i chyba interfejsy aplikacji
też już do końca tego nie ogarniają,
no to zdarza mi się, że na WhatsAppie chcę kliknąć w wiadomość głosową,
a w przycisk i stuknąć dwa razy z przytrzymaniem,
a przez to, że coś delikatnie palcem przesunąłem gdzie indziej,
to mi się stuknęła wiadomość głosowa, ale nagrana przez kogoś
i mi się zaznacza i otwiera się menu z reakcjami.
I tak się często dzieje, że chcę w jakąś konkretną kontrolkę trafić,
ale przez to, że ona jest gdzieś tam malutka na dole,
to się klika coś innego w trybie właśnie jak palcem wskazuje
konkretne elementy na ekranie.
Także takie są moje jakieś, powiedzmy, problemy z iPhone’em 13 mini.
Ale mimo to lubię ten telefon, używam i chyba bym go polecił mimo wszystko.
I jeszcze Jarosław na YouTubie napisał w tym samym temacie,
że SE 2022 jest spoko.
No więc tak do kompletu jeszcze opinia naszego słuchacza.
Teraz przechodzimy do kolejnego tematu, mianowicie NVDA.
Swoją drogą ostatnio wyszła nowa wersja NVDA,
ale też wychodzą nowe dodatki dla tego czytnika ekranu.
Nowe dodatki, też są nowe dodatki aktualizowane,
no bo właściwie zaczniemy od aktualizacji.
Mianowicie syntezator Piper, o którym jakiś czas temu wspominaliśmy.
To jest syntezator neuronowy, otwartoźródłowy.
Pojawiła się jego nowa wersja, która trochę rzeczy usprawnia.
No po pierwsze też sam silnik tego syntezatora został przepisany
tak, żeby działał szybciej.
On też jest uruchomiony w osobnym procesie,
więc gdzieś to generowanie mowy powinno zajmować mniej czasu.
Faktycznie jest bardziej responsywny, natomiast no wiadomo,
to jest synteza neuronowa, więc ona trochę czasu mimo wszystko będzie zajmowała,
zwłaszcza jak będziemy czytać jakieś dłuższe zdania.
Natomiast powiem szczerze, że już da się z tego korzystać.
Jeśli komuś bardzo zaleczy na tym, żeby to był jakiś bardziej naturalny głos,
natomiast to jest bardzo, mimo wszystko dalej trochę czasu zajmuje,
żeby ten syntezator zareagował, mimo to, że faktycznie poprawa jest.
Ale to jest nie jedyna nowość w tej wersji,
bo też sposób w jaki pobieramy głos został poprawiony, zmieniony właściwie,
bo teraz dodatek ma zintegrowany menadżer pobierania głosów,
który wygląda bardzo podobnie w sumie do sklepu z dodatkami MVDA,
bo znajdziemy go w menu, z Piper Voice Manager
i tam mamy dwie zakładki, zainstalowane głosy i zakładkę Download,
gdzie możemy sobie głosy pobierać.
Tam mamy jedną listę, na której wybieramy język,
a później mamy listę z głosami, możemy sobie odsłuchiwać próbek
i głosy pobierać.
Wiem, że jakiś czas temu pytaliście się, czy są jeszcze jakieś polskie głosy,
oprócz tego jednego, który był wcześniej takiego bardzo bełkoczącego.
Tak, dwa nowe głosy się pojawiły, one są trochę lepsze,
natomiast jeszcze to jakaś bardzo rewelacja nie jest,
ponieważ może być to związane z tym, jak ten model językowy został stworzony,
to jak Tomek jakiś czas temu wspominał.
Natomiast myślę, że mogę szybko pokazać najnowszy,
taki moim zdaniem najlepszy głos polski, który teraz jest tam dostępny,
to jest głos Gosia i on tutaj czytając przykładowy artykuł brzmi tak.
Apple przedstawia nowego MacBooka Pro z czypami z rodziny M3,
które sprawiają, że najlepszy na świecie laptop Pro stał się jeszcze lepszym
Apple.pl Mozilla Firefox.
A nawet powiedział Firefox, no proszę.
Z czypem M3 Pro i M3 Max dostępne są w pięknym nowym kolorze gwiezdnej czerni.
Firma Apple ogłosiła dziś premierę nowych modeli MacBooka Pro
z zupełnie nową rodziną czypów M3 obejmującą czyp M3, M3 Pro i M3 Max.
Czypy M3 korzystające z architektury GPU nowej generacji oraz szybszego CPU
zapewniają MacBookowi Pro jeszcze większą wydajność i niezwykłe nowe możliwości.
Nowy 14-calowy MacBook Pro z czypem M3 nie tylko świetnie…
No, słychać, że to jest lepsze, natomiast jeszcze jakieś problemy z wymową
są. To jest głos bodajże w jakości milium średniej.
Mogę pokazać, że to jest nawet takie w miarę responsywne.
No ale widać, jak są jakieś dłuższe zdania, które idą do tej strony,
no to wtedy działa trochę wolniej.
Jest też kilka nowych parametrów, które możemy ustawić,
które nam pozwalają te głosy też lepiej przyspieszać, bo…
Mamy osobną prędkość,
która można całkiem sporo podkręcić.
Tutaj właśnie mamy ten Raid Boost, podkręcenie prędkości, bo…
Mamy osobny parametr, który się nazywa Length Scale,
który… Chodzi o to, że głosy neuronowe, kiedy zaczniemy je przyspieszać,
one zaczynają zachowywać się tak jak człowiek.
Jeśli próbujemy mówić, czytać coś szybciej, no to zaczynamy trochę
zaplenieć, gubić słowa, no i głosy neuronowe też tak robią.
Więc mamy tutaj dwa osobne parametry.
Jeden takiej prędkości, który po prostu jakoś programowo to podkręca,
no a drugi to jest właśnie ten Length Scale,
no to decyduje, jaką prędkością mówi syntezator.
Co ciekawe, to działa odwrotnie, jak się można spodziewać,
bo wyższe wartości powodują, że to zwalnia.
Powodują, że to zwalnia.
A wchodząc tu…
Widzicie, ja tutaj to zmniejszyłem do dziesięciu i już słychać,
że ten głos zaczął gubić się tym, co czyta.
Więc to jest nowy Piper. Oprócz tego polskiego głosu są też
głosy angielskie, całkiem przyjemne.
Poza tymi oficjalnie dostępnymi w społeczności,
zaczęła się bawić w klonowanie głosów i tak na przykład
powstał klon głosu Alex, znanego z iPhone’ów i Mac’ów.
Powstał też klon starego syntezatora Keynote,
który na starych notatnikach między innymi był dostępny,
więc ludzie się też tym bawią i nowe głosy do tego syntezatora
cały czas powstają. Więc to możecie sobie ściągnąć, potestować.
Może wam się spodoba. Jak nie do polskiego, to może do jakiegoś innego języku,
bo tam faktycznie trochę wspieranych języków jest.
A z ciekawości, jak wiernie mówią te syntezatory,
które zostały sklonowane?
Czyli całkiem wiernie.
Aha?
Całkiem wiernie. Nie mam ich zainstalowanych, żeby pokazać,
natomiast słyszałem próbki i brzmią całkiem fajnie.
Okej.
Wiadomo, głosy neuronowe tam trochę dłużej nie są tak
responsywne jak oryginały, no ale całkiem nieźle sobie radzą.
No a teraz drugi dodatek.
Dodatek dla tych, którzy lubią słyszeć dźwięki oprócz mowy.
Dodatek nazywa się NavSounds czy Navigational Sounds.
Znajdziecie do niego link w komentarzu, ale jest też on dostępny
w sklepie z dodatkami.
Jeśli macie nowsze wersje MVDA 2023.2 lub nowsze,
więc można też go sobie po prostu stamtąd ściągnąć.
No i to jest dodatek, który, jak jego nazwa może sugerować,
pozwala nam otwarzać dźwięki.
Na co konkretnie?
Na dwie rzeczy.
Po pierwsze, były kiedyś takie dodatki np. Unspoken,
były jakieś AudioThemes bodajże, kilka tych dodatków było,
które otwarzały nam dźwięki na typy kontrolek zamiast wypowiadania ich.
Więc zamiast przycisku odsłyszeliśmy dźwięki jakiegoś przycisku.
Zamiast pole edycji słyszeliśmy dźwięk klawiatury.
No tam różne schematy dźwiękowe były.
No i w tym dodatku właśnie mamy dźwięki zarówno na typy kontrolek,
jak i stan niektórych z nich.
Więc np. jeśli mamy zaznaczone lub niezaznaczone pole wyboru,
no to będziemy słyszeli różne dźwięki na to,
czy to pole jest zaznaczone czy nie.
No i oczywiście też są właśnie dźwięki na typy najbardziej popularnych,
najczęściej występujących kontrolek.
Jeśli mamy to włączone to oczywiście NVDA nam nie musi czytać tego typu,
więc w ten sposób można pracować szybciej.
Ten dodatek nie ma wsparcia dźwięku 3D.
Niektóre z tych dodatków to jeszcze nam dodawały taki dźwięk binauralny,
że słyszeliśmy gdzie na ekranie dany element jest.
Tutaj tego nie ma, po prostu wszystko słyszymy na środku w mono,
więc wygląda to w ten sposób.
Natomiast można sobie to łatwo przełączać.
MVDA Alt N.
Możemy otworzyć takie szybkie okno ustawień,
tam tymczasowo te dźwięki wyciszyć,
jeśli na chwilę właśnie chcemy je wyciszyć.
Możemy też tworzyć własne schematy dźwiękowe,
więc tam w zestawie jest taki domyślny schemat,
też jest jakiś schemat dźwięków voiceovera,
więc jeśli ktoś by chciał sobie przekształcić swój komputer z Windowsem
na takiego maga powiedzmy,
może jeszcze sobie tego Alexa Swipera ściągnąć,
no to można sobie tak to zasymulować.
No i to jest jedno.
A druga rzecz…
Ciekawość.
No?
Przepraszam, że cię to pytam.
Spoko.
Czy jest możliwość uprowadzania i powierania schematów
stworzonych przez rysowników, czy nie?
Z tego co wiem, nie.
Natomiast może jakbyś wysłała jakiś schemat do autora,
to może by go włączył do dodatku, nie wiem.
Można tak spróbować w sumie.
Okej.
Ale właśnie oprócz typów kontrolek,
można też sobie włączyć dźwięki na pisanie na klawiaturze,
więc tutaj tak jak dodatek typing settings,
o którym jakiś czas temu wspominaliśmy,
natomiast tutaj to działa trochę gorzej o tyle,
że dźwięki na pisanie po prostu są zawsze otwarzane losowo,
gdzie w dodatku typing settings mogliśmy sobie
konkretne dźwięki ustawić na na przykład na spację,
na enter, na litery,
więc to nam może pomogło czasami złapać jakąś literówkę,
jakbyśmy niechcący nacisnęli spację za dużo razy.
No i też nie mamy w tym dodatku,
jak to było w dodatku typing settings,
ustawień, żeby te dźwięki,
żeby też echo klawiatury włączało się tylko w polu edycji dźwięki.
Można ustawić tak, że one tylko będą w polach edycji działać,
natomiast nie ma ten dodatek kontroli nad echem klawiatury.
Gdyby miał, to można byłoby w sumie ten drugi dodatek typing settings
z nim zastąpić.
Natomiast jeśli komuś to nie przeszkadza, nie potrzebujecie tej funkcji,
a chcielibyście dźwięki na właśnie różne typy kontrolek,
które działają z najnowszym MVDA,
no to myślę, że warto się tym dodatkiem zainteresować.
No ja już sobie z mojego komputera pracowego, służbowego,
zrobiłem Androida, bo tam ustawiłem schemat dźwięków Talkback i z Pica.
I naprawdę można się czasem zastanowić, czego ja w zasadzie używam.
Natomiast czy też macie ten problem z tym dodatkiem,
że przy nawigowaniu po stronach, jak się strzałką najedzie na jakąś kontrolkę
typu na główek albo nawigację tą taką w trybie przeglądania,
to on tych dźwięków nie wydaje.
On nie wydaje np. jak się tabulatorem nawiguje po linkach, po przyciskach,
ale nie jak w trybie przeglądania strzałkami i literami.
No właśnie, to jest też słuszna w sumie uwaga,
bo z tego co ja testowałem, to ten dodatek właśnie nie działa na tą nawigację obiektową.
Tylko wtedy, kiedy przemieszczamy focusem.
No i to w sumie to jest coś kolejnego, która mogłaby być zrobiona lepiej.
Te inne dodatki chyba też tak działały, no nie?
Ciekawe swoją drogą, czy macie włączone to przeglądanie z użyciem kursora.
Tam to jest chyba w przeglądarkach się to włącza, albo F7, albo F8.
F7.
Aha.
Ale to chyba NVIDIA by wtedy przechwytywał te skróty,
więc nie wiem, czy to by coś zmieniło tutaj.
Ja się tak po prostu zastanawiam, czy w ogóle cokolwiek to zmieni.
Ale też jest jedna rzecz, która niestety jest słaba,
ale w sensie fajnie, że ten dodatek ma takie wyciszenie tych dźwięków,
bo to się przydaje wtedy, kiedy na przykład ktoś jest u nas na remote’cie
i tych dźwięków nie ma, a nie ma informacji o opisie kontrolek.
Bo właśnie ja przez to zrezygnowałam trochę z tego udźwiękowania sobie NVIDIA,
bo właśnie przyszedł ktoś do mnie na remote’a i totalnie nie wiedział,
czy to jest przycisk, czy pole wyboru, czy przycisk opcji.
Ale tutaj skoro to jest, no to jakoś tam ten problem jest rozwiązany.
A tymczasem mamy kolejny telefon.
Jest z nami Maciek. Witaj.
Cześć wszystkim. Mam nadzieję, że mnie słychać.
Dzisiaj w troszeczkę gorszej jakości, bo AirPodsy.
Natomiast tak, jednak mam możliwości i warunki ku temu,
żeby się podzielić tymi doświadczeniami z testowania tej całej wirtualnej rzeczywistości.
Ale jeszcze zanim to w sumie zapytam cię Piotrek,
ty jeśli chodzi o twojego iPhona 13 Pro, to ile ci ta bateria w sumie teraz trzyma?
A w ogóle ile ci trzymała? O może tak, wcześniej powiedzmy,
jak ta bateria była mniej wyeksploatowana, nie?
Wiesz co, ja ostatnio się potrzymałem jakiś czas temu,
no to miała ona chyba 91% żywotności, więc całkiem nieźle.
No i też ogólnie muszę powiedzieć, że ona naprawdę trzyma mi całkiem nieźle.
Ja go dosyć intensywnie wykorzystuję w swojej pracy.
I teraz tak, jeśli ja, kiedy ja z niego korzystałem gdzieś sporadycznie w pracy,
no to jak go zawsze ściągałem z ładowarki, wracałem do domu, tam jeszcze w domu coś porobiłem,
no to zazwyczaj miałem jeszcze 30-40% baterii.
Jeśli teraz w pracy zacząłem puszczać na nim muzykę ze Spotify’a na głośnik Brutów
i to już kilka godzin tej muzyki leci, no to jak wracam, no to ona ma, nie wiem, procent 20%.
Faktycznie zaczynam dostawać te oszczerzenia, że jest poziom baterii niski.
W porównaniu, właśnie wcześniej miałem iPhona SE 2020,
no to tam już tak wesoło nie było.
To wyglądało tak, że po sześciogodzinnej zmianie, jak wychodziłem z pracy,
to tam już miałem 30% baterii.
Więc ta różnica jest znacząca.
No właśnie, bo ja mam w ogóle wrażenie, że kiedyś to mi powiedzmy tak,
rzeczywiście tak od tych 100% powiedzmy do tych, no powiedzmy 20-10%,
no tak te jeszcze bezpieczne granice powiedzmy.
To tak z 11-12 godzin chyba, przy takim właśnie bardziej intensywnym użytkowaniu,
no teraz chyba tak powiedzmy 9-8% i się właśnie zastanawiam,
co jest tego przyczyną, oczywiście poza, wiadomo, z użyciem baterii,
bo ja tutaj też w Pechowej, że tak powiem, troszeczkę okolicy mieszkam,
jeśli o to chodzi, no zasięg, zasięg, zasięg.
Właśnie miałem pojęcie, że to jest duży, to jest duży część czynników.
Więc niestety, więc niestety u mnie to gdzieś tam wygląda tak,
że ta różnica między, no nie wiem, SE220, a tym iPhone’em 13 Pro,
niestety jeśli chodzi właśnie o związek z tym czynnikiem braku zasięgu
albo bardzo znikomego tego zasięgu, to chociaż czasami jednak SK5G
się zdarzy na AR-u.
No w każdym bądź razie, no to jest, ja wiem różnicę jakichś dwóch godzin może,
dwóch i pół niestety, więc ja gdzieś tam spodziewałem więcej,
a tu jednak ten zasięg no niestety robi swoje, więc to też na to,
odnosząc się do tutaj wypowiedzi współsłuchaczy też gdzieś tam
i tych powiedzmy sugestii, no to to też i waszych, no to to też gdzieś tam
trzeba by na to brać poprawkę, no nie, że taki, na takiej baterii
jednak ten zasięg będzie miał, będzie miał też wpływ na to zużycie.
No a co do tej wirtualnej rzeczywistości, no to cóż, no uprzedzano nas,
że tak powiem nie myślano jeszcze o tej dostępności nad tutaj przystosowaniem,
gdzieś tam dodatkowych bodźców wprowadzeń i tak dalej, więc to bez nawigacji,
zresztą ja się tego spodziewałem i rzeczywiście tak było,
ale już pomijając to, że to Oculus to ciężkie jak cholera.
No w każdym bądź razie, w każdym bądź razie, no bez rzeczywiście
takiej audiodeskrypcji takiego wprowadzenia i bez potem nawigacji,
zwłaszcza w jednej z tych powiedzmy gier, powiedzmy gier,
gdzie chodziliśmy sobie po powiedzmy no sali kinowej, to znaczy to było
cały kompleks kina warszawskiego, Luna i tam właśnie generalnie mroczności,
klimaty takie troszeczkę, najśmieszniejsze jest to, że w pewnym momencie
jak się schodziło ze schodów, bo tak naprawdę zaczynało się to wszystko
na piętrze, jakby na drugim poziomie tego kina, schodziło się do sali kinowej
i tam widzące osoby nie widziały żadnych ludzi, oczywiście no w 3D były różne
przedmioty, to krzesła, to coś tam, to te rzędy, sala i tak dalej, różne tam rzeczy,
natomiast żadnych ludzi nie było, a słychać autentycznie było rozmowy,
słychać było kaszel, słychać było jakieś tam właśnie tego typu dźwięki,
jak to w kinie, jak to w tłumie i widzący mieli wrażenie, że tam jest w ogóle pustka,
że tam w tej sali nic nie ma i że chwilami jest naprawdę ciemno,
a muzyka dodawała jeszcze swojego uroku i mroku, natomiast ja byłem w ogóle
totalnie zaskoczony, bo ja tam jakby miałem po prostu ludzi dookoła,
być może duchy, być może, w każdym razie bez nawigowania bym sobie nie poradził.
Generalnie polegało to na tym, że w dwóch rękach trzymało się joysticki,
przy czym w prawej ręce joystick służył do poruszania się do przodu bądź do tyłu,
w jednej właśnie w tej grze lunatyk, natomiast drugi w lewej do skręcania,
w prawo bądź lewo, no ale to samo mogliśmy osiągnąć,
czy to się obracając całym ciałem, czy to głową, czy to właśnie w ten sposób
i te ruchy to były takie bardzo, albo czasami za bardzo precyzyjne,
że jak się lekko obróciłeś, to się za bardzo obróciłeś tą postacią,
albo właśnie obróciłeś się bardziej, a nie obróciłeś się prawie w ogóle,
więc to było dziwne doświadczenie w sumie, zwłaszcza, że takiego odwzorowania
stricte przestrzennego, gdzieś tam dookólnego, to nie było, to nie było.
Z ciekawości Maćku, bo powiedziałeś, że można się było obracać i nie trzeba
było używać joysticka, a na przykład jak chciałeś pójść do przodu,
czy w tył, to też można było sobie po prostu, nie wiem, jakimś gestem
się przemieścić, czy już wtedy ten joystick był jednak potrzebny?
Właśnie to stricte tym joystickiem, stricte tym joystickiem, tak,
przy czym właśnie się go naciskało najpierw tak z góry i potem albo w przód,
albo w tył, no i co? I generalnie te dźwięki kroków były jakkolwiek słyszane,
chociaż były trochę za cicho, a najbardziej były słyszane jak wychodziłeś,
bądź schodziłeś ze schodów, ale na przykład jak przyfanzoliłeś głową w ścianę,
to już o tym nie wiedziałeś, że tak tam ani nie było nic słychać,
ani nie było żadnego choćby cienia akustycznego, bo to nie było żadną
binauralką nagrywane ani niczym, tylko po prostu jakoś te, mówię,
przestrzenności to w tym było zero, znaczy nie, inaczej, było niby,
że po lewej, że po prawej, że coś tam z tyłu, tylko że tak naprawdę
to też nie było adekwatne do kierunku nie jazdy, tylko chodzenia,
tak, jazdy, no w sumie fajnie, i tak naprawdę te dźwięki nie do końca
nam pomagały, bo właśnie, niby tłumy, czyli okej, no jestem się w stanie
domyśleć, że to, że to powiedzmy jest większa przestrzeń, sala kinowa
i tak dalej, gdzie być może, albo nawet wejście do tej sali,
gdzie czekają ludzie, no ale tak naprawdę tyle, więc niby też był jakiś
taki dźwięk wskazujący na, nie wiem, powiedzmy piszczenie, jakby jakieś
kasy, powiedzmy coś, kasy biletowej, czegoś, jakby okienko, powiedzmy
w jakimś sklepie, czegoś takiego, natomiast widzący też tego nie widzieli,
więc dużo tam takich właśnie zmyłek było dziwnych, no i żadnych innych
bodźców tak naprawdę pozawzrokowych, no to akurat w tej pierwszej grze
nie było, w tym pierwszym rozwiązaniu właśnie w Lunatyku, no i cóż,
tam dużo takich właśnie uwag odnośnie tego, jakby to można było
udoskonalić, no też było, że żeby mimo wszystko tam, gdzie się da
cienie akustyczne, coś tam, gdzieś jakieś inne zmysły też w to zaangażować,
żeby zwirtualizować i tak dalej, więc zobaczymy, co z tego powstanie dalej,
bo skoro zapisywali, skoro ankiety od nas zbierali, może coś z tego będzie,
nie wiem, natomiast ta druga gra, natomiast no, bo to oczywiście
swój potencjał ma, w różnych, czy symulatorach dla nas stricte,
czy do, a choćby nawet, nie wiem, jakiegoś, jakiejś wirtualnej nauki,
powiedzmy orientacji przestrzennej, czy tam powiedzmy gdzieś tam,
no więc to gdzieś tam swoje zastosowanie fajne by miało, natomiast ta
druga gra była taka mniej skomplikowana, to znaczy tam nas za bardzo
nawigować nie do końca trzeba było, bo zajmowaliśmy się w lesie nocą,
no i chodzi o to, żeby tam, żeby tam, żeby tam, żeby tam też można było
właśnie bardziej sterować jakby dłońmi, tu już akurat wchodziły w grę
dłonie tak stricte, bo tutaj nie, nie ruszaliśmy się tak naprawdę
joystickiem jako tako, nie używaliśmy go do nawigacji, tylko właśnie
całymi dłońmi, w których były joysticki, można było właśnie,
jak się je wyciągnęło w odpowiednim, w odpowiednim kierunku,
zgodnie z audiodeskrypcją, no bo jeśli chodzi o dźwięki, no to okej,
no oddawały w miarę ten klimat, taki rzeczywiście jest noc,
że jakieś tam żyjątka sobie żyją i coś tam, ale no i muzyka gdzieś tam też,
ale no właśnie, gdyby nie audiodeskrypcja, to też z tym mogło być różnie,
chociaż pewne dźwięki naprowadzające były wydaje mi się, no to można było
sobie właśnie, widzący to też widzieli, bo my no to, no to średnio,
na szczęście było to opisywane, że tam też te nasze dłonie widać
w postaci jakichś tam niebieskich linii, czegoś tam, no i też w pewnym momencie
jak, jak, jak jeżeli my odpowiednio wyciągnęli właśnie dłonie w lewą,
w dół, prawą, powiedzmy w górę, to jak tam była trawa chyba, czy coś,
to, to, to wtedy tam się coś właśnie rozświetlało jakimś niebieskim światłem,
jakieś świetliki wylatywały, czy coś takiego, no i takie wibracje właśnie
tych joysticków były, nie, natomiast, no i też się można było rozglądać,
ten dźwięk powiedzmy też był, tam była sobie taka fruwająca kobieta,
która tam, nie wiem, no zachęcała nas do różnych rzeczy, znaczy na szczęście
wprost niemoralnych i tak dalej, ale, ale no tak właśnie, żeby tam ją objąć
i tak dalej, no generalnie, prawda, ona tak sobie tak latała niczym taki duszek,
no a ty rzeczywiście mogłeś wyciągać ręce właśnie w górę i ją tam obłapić,
coś tego, oczywiście wirtualnie, no i wtedy tam ona się cieszyła i tak dalej,
więc, więc coś tam można z tego było, że tak powiem wyczarować,
no temu jeszcze do dostępności jako takie daleko, ale fajnie, że coś się dzieje,
no jeżeli by można było jak, jak, jak, jakkolwiek zapachy wirtualizować też czy coś,
no to, to by było w ogóle świetnie, no, więc, no takie są te moje…
Ale tak na chwilę obecną z ciekawości…
Sam byś tego nie przeszedł na pewno, ani jednej, ani drugiej.
Wiesz co, tak, ale czy ty na przykład w tej wirtualnej rzeczywistości
jakoś tak się faktycznie poczułeś na zasadzie takiego zanurzenia się w tej grze,
czy to jednak dla nas jeszcze nie jest ten moment?
Bo tak wnioskuję z opisu, ale to wnioskuję z tego, co mówisz Maćku,
że no na razie to są jakieś takie zaledwie próby, które można by było tak naprawdę zrobić,
no sporo, sporo lepiej, chociażby zadbając o ten dźwięk binauralny.
Tu mam wrażenie, że jest sporo…
Na razie to są, na razie to są Michał przymiarki, wiesz, to jest generalnie kwestia,
kwestia tego, że okej, wizualnie to naprawdę super wygląda, po prostu podobnie, nie,
więc jakby pozostaje mi wierzyć na słowo, natomiast tutaj, no tak się troszeczkę czułem,
jakbym, no nie wiem co, albo oglądał jakiś niezbyt udany film zrealizowany,
jeśli chodzi o scenę dźwiękową, w którym tam, no mogę, ja też decydować,
tak taki troszkę interaktywny, ale jednak troszeczkę taki film,
który nie jest do końca, no tak mówię, zrealizowany dźwiękowo, no coś takiego,
no nie, bo w filmie jakby nie patrzysz, no też tego zapachu nie poczujesz,
nie dotkniesz sobie różnych rzeczy itd. wirtualnie, więc no coś takiego,
ja bym gdzieś tam do tego przyrównał w sumie.
Wyglądało, tak jak mówię, można sobie tam pójść jak ktoś w Krakowie lub okolicach,
nie wiem, na ile zachęciłem, na ile zniechęciłem, ale choćby tak po to,
żeby się na własnej skórze też przekonać, jak to jest, ile te okulusy też ważą,
jak, no niestety to też miało swoje bolączki, dlatego że sprzęt, komputer,
na którym to było wszystko uruchomione, jak byłem tam pierwszy raz testować,
bo dzisiaj sobie też tam poszedłem za opłatą, bo wtedy mi nie starczyło czasu
na chodzenie sobie z okulusami, znaczy na chodzenie sobie w tym lunatyku.
No a dzisiaj tam sobie byłem, jeszcze bardziej sobie pochodziłem i jak to,
żeśmy testowali stricte i zbierali te opinie, to nie przywieszało się to aż tak dramatycznie.
Raz czy dwa mi się to zawiesiło, ale dzisiaj to już po prostu wszyscy mieli dość,
bo to się dość mocno ciała, ale spokojnie, z tego wszystkiego wczoraj
nie rozpatrzy zawnioskowali o wymianę komputera, więc jutro ma być inny komputer,
już znacznie mocniejsza maszyna, podobno, więc no to mam nadzieję,
że to były takie problemy techniczne przejściowe, że to się jednak będzie dało
się tym jakoś tam pobawić.
Cóż, oby tak rzeczywiście było, no i żeby rzeczywiście ta wirtualna rzeczywistość
dla nas była coraz bardziej dostępna, niekoniecznie w formie takich eksperymentów,
ale rzeczywiście w formie takich pełnoprawnych produkcji.
No to pewnie pieśń przyszłości, bo na razie to i dla widzących,
to już rzeczywiście podejrzewam, że żeby wyposażyć się w taki sprzęt,
to trzeba jednak być miłośnikiem takich technologii.
To nie jest coś, co sobie każdy kupuje, nawet jeszcze w dzisiejszych czasach.
Miłośnikiem, no i wiadomo, też troszeczkę gdzieś tam mimo wszystko
zasobniejszy portfel i tak dalej.
No, ja nie ukrywam, że jak, no czekam na ten 2024 rok,
no chociaż bliżej pewnie 2025, bo do Ameryki nikt mi nie każe lecieć,
ale no jakby powiedzmy w Europie też Apple Vision Pro się pojawiły,
gdzieś w jakichś Apple Store’ach powiedzmy gdzieś coś,
żeby trochę się tak, prawda, założyć, przetestować,
sprawdzić w ogóle jak to się będzie miało.
No tak, tym bardziej, że to będzie dostępne dla nas, tak od początku.
Dokładnie, więc no ja nie ukrywam, że po tym doświadczeniu,
no takim powiedzmy średnim, ale warto było i tak pójść,
no z tym większym ciekawością czekam na te,
i niecierpliwością też na te rozwiązania o tamtym planie.
Jasne.
Dobra, to ja Wam dziękuję, fajnie się mogłem podzielić,
jeszcze potem albo się nagram, albo się dzwonię,
jak już będą bardziej technikalia chyba, bo tam jeszcze będzie,
ale teraz, żeby nie zaburzać porządku, to na słuchu pozostaje.
Dobrze Maćku, dziękujemy Ci bardzo za telefon i do usłyszenia.
Aha, wiesz co, czekaj, jeszcze odnośnie Google Meet’a,
ja na szybko jeszcze odnośnie Google Meet’a, bo jest generalnie kwestia taka,
znaczy inaczej, no wiadomo, jak jest Mac, no to niestety,
znaczy inaczej, na Safari działa i wszystko fajnie czytane przez VoiceOvera,
w ogóle pięknie dostępnościowo, jeśli o to chodzi, zrobione,
natomiast jak ktoś chce udostępniać dźwięk,
bo niby można prezentację, znaczy ekran udostępniać,
tylko już niestety do tego trzeba Google Chrome’a używać
i właśnie tam wybrać opcję udostępni kartę Google Chrome
i dopiero można właśnie dźwięk udostępniać, to jest jedno,
a dwa to jest sytuacja taka, że dzisiaj sobie testowałem to,
bo tam będę brać udział w jednym projekcie,
który polega na nauczaniu osób przyjemnych z Ukrainy języka polskiego,
no i oni tam będą wykorzystywać tego Meet’a, wesoło,
no i sytuacja była taka, że ani ja na początku nie byłem słyszany
przez rozmówcę łączącego się po drugiej stronie,
oczywiście na szczęście to wszystko było testowo, więc chociaż tyle,
a potem co się okazało, rozmówca też, znaczy ja jego potem nie słyszałem,
jak się przełączyłem, jak byłem na Chrome’ie,
a jak Safari to tak i tak naprawdę nie wiem, co pomogło do końca,
natomiast no tak, to jest Google, to jest Microsoft,
nie wiadomo co, znaczy Google Meet, ale ogólnie Google i Microsoft
cechują się tym, że nie do końca wiadomo, co pomaga skutecznie,
ale coś na pewno, że podczas spotkania, tam jest taki przycisk
więcej opcji, tam są ustawienia i jak się zmieni na chwilę mikrofon,
stricte w tym spotkaniu, nie w systemie, nie gdzieś tam w przeglądawce,
ale właśnie w tym spotkaniu i głośniki, potem się wróci na to samo ustawienie,
które się miało, jak się ma oczywiście więcej mikrofonów,
czy tam powiedzmy możliwość przełączenia się z głośników na słuchawki
i potem jeszcze ja tam dałem przetestuj głośniki.
No i cóż, jak gruchnął dzwonek w Google Meet’cie, zamknąłem te ustawienia,
no co się okazało, dźwięk wrócił, ja już byłem normalnie słyszalny,
ten rozmówca potem też, więc nie wiadomo, co zadziałało, coś zadziałało,
dlatego jeśli by ktoś miał problemy, a dodam jeszcze, że w zeszły bodaj piątek
łączyłem się nie dość, że z Safari, nie dość, że z Maca,
to właśnie na Google Meet’cie, na innym też wykładzie w związku właśnie
z takim przekoleniowym, związanym z tymże projektem, wszystko było pięknie,
ja byłem słyszalny i tak dalej, dzisiaj nie, mordowaliśmy się z tym 20 minut
albo więcej, natomiast zadziałało właśnie to wejście w więcej opcji ustawienia
no i tam się zabawa tym dźwiękiem, zmienianie urządzeń i test głośnika,
coś z tego nam zadziałało na pewno, więc gdyby ktoś miał problemy
z Google Meet’em, no to raczej się nie zrażać, nie wpadać w panikę,
że ups, to już nie działa taka plica, tylko właśnie sobie tam próbować
w tych ustawieniach dźwięku, no na pewno nam to pomogło z rozmówcą,
no a tak poza tym, to mało to skrótów ma, całkiem to w miarę przyjazne,
kiedyś ja pamiętam, że na Safari ja miałem problem, że skróty na Macu
i Safari i tak dalej, niekoniecznie chciały działać, teraz to działa,
Command, D, Command, E to mikrofon i kamera i tak dalej,
i tam Command, Control i różne skróty działają, żeby nie było
w Windowsie Alt, Control, no można, da się, tylko jeśli występują
takie problemy z dźwiękiem, no to warto sobie właśnie.
Swoją drogą to taki jednak trochę złośliwy chichot losu,
że narzędzia przeglądarkowe, które teoretycznie powinny być
proste i najprostsze, bo przeglądarkę mamy praktycznie w każdym urządzeniu,
to jak przychodzi do czegoś nieco bardziej zaawansowanego,
to no mają jednak kłopoty, tak jak chociażby opisujesz to z dźwiękiem.
Tak, bo nieraz, i to właśnie najczęściej dotyczyło dźwięku,
jak próbowałem nieraz ludzi wpuścić na linka do połączenia
po FaceTime’ie i też z przeglądarki, no to też tam się różne cuda niebiańskie
wyprawiały, no bo właśnie się rozchodziło o dźwięk,
że tutaj strona witryna nie ma przyznanego uprawnienia do tego,
do mikrofonu, tutaj coś i potem ty się…
Poza tym jeszcze, Maćku, tu jest problem taki, że różne przeglądarki
różnie mają zaimplementowane te mechanizmy audio
i to się czasem potrafi zmieniać z wersji na wersję.
I wtedy jest na przykład informacja, że no tam powiedzmy w Chrome’ie w wersji
takiej i takiej to rzeczywiście może być problem,
ale jak sobie zaktualizujesz do najnowszej wersji,
to już problemu nie będzie.
No, tylko że czasem z jakiegoś powodu ten Chrome się na przykład
nie chciał aktualizować.
A, cuda wianki.
Ja powiem szczerze, ja naprawdę nie mam zaufania do narzędzi,
które się komunikują tak audio przez przeglądarkę,
bo zwłaszcza jeżeli chodzi o wysyłkę dźwięku,
bo o odbiór to już jestem raczej spokojny,
bo to generalnie działa, odtwarzanie działa zazwyczaj lepiej niż wysyłanie,
ale właśnie ja też kilkukrotnie łącząc się za pomocą jakichś różnych narzędzi,
różnych aplikacji, nie powiem, że zawsze, bo oczywiście, że nie,
ale miałem też problemy z otwarciem urządzenia audio,
a to tu gdzieś jakieś uprawnienie jeszcze dodatkowe,
te okienka z prośbą o uprawnienia też nie zawsze się chciały pojawiać tak,
żeby dało się w nie łatwo kliknąć.
No, nie było to czasem takie jasne.
No właśnie, ja się dzisiaj właśnie w Chromie, bo w Safari to już jestem oblatany,
wiem co gdzie i sobie szybko te uprawnienia przyznam w razie czego.
No właśnie, to ja się dzisiaj tego doszukałem chyba z półtorej minuty
to tak na spokojnie, dopóki nie wpadłem na to, że tam jest ta wyszukiwarka
i to mnie wybawiło, bo od razu sobie wyschnąłem i te uprawnienia do mikrofonu
przyznałem, tam odświeżania, restarty, nie wiadomo co tam jeszcze,
tej przeglądarki, natomiast zadziałało i choćby nawet z tego względu
ja bardzo ubolewam nad tym, że apka na iPhona, Google Meeta jest,
na Androida jest, na platformy mobilne, na Windowsa właśnie nie wiem,
ale chyba coś jest, ale pewien nie jestem, a na Maca nie ma, bo po co.
I nawet jak się wejdzie w App Stora z poziomu Maca, no to niestety M1
to to nie wspiera i szkoda wielka, bo człowiek by spał spokojnie,
a spał może spokojnie to nie, ale przeprowadzał zajęcia spokojnie
i tak dalej, więc to takie troszeczkę jest.
No ale cóż, Zoom, szkoda gadać, maksymalnie 40 minut, wersja bezpłatna
i to nawet jak są dwie osoby, więc no szkoda, że to tak się potoczyło
i trzeba się tak ratować.
No ale tak naprawdę no niestety z naszej perspektywy ja powiem szczerze
z tych takich oczywiście ogólnodostępnych i znanych rozwiązań
to ja na chwilę obecną nic lepszego od Zuma nie jestem w stanie wskazać.
No właśnie, dlatego ja nie mogę przeżałować, że oni tak się uparli
na dodatkowy zarobek, bo kurczę to naprawdę jest fajnie dostępne
i bezproblemowo by sobie można było na tym realizować te projekty,
wszystkie szkolenia.
To prawda, to prawda.
Wiesz, to jest trochę tak jak z Dropboxem, tak, to jest firma,
która zajmowała się jednym, a jednak Google czy Microsoft no to mają też
wiele innych źródeł dochodów, więc no te narzędzia mogą jakoś tam
zostać proste, no a tutaj no pewnie inwestorzy się odezwali,
że no chcieliby coś więcej, no i niestety mamy co mamy.
Pewnie tak, no a te plany za Zuma płatnego to też cenie kosztują mało
i to też jest, no ale cóż.
No ale faktycznie jakością dźwięku no to nie, nie ma nic lepszego.
No, no właśnie.
Przynajmniej z tych ogólno takich znanych narzędzi, bo oczywiście wiadomo,
że mówiąc o jakichś takich rozwiązaniach typowo studyjnych
to by się tam coś jeszcze znalazło.
A ja się cieszę, słuchajcie, że Google Chrome na Macu dostał tę możliwość
pęku kluczy, to znaczy wgląd w hasła w pęku kluczy, no bo co no.
Konto zabezpieczy, oczywiście hasło było, hasła nie pamiętam,
hasło bym musiał do Safari, no a tak wypróbuj inny sposób,
klucz dostępu, prawda, paski i tam się tylko zapytał,
czy ma mieć wgląd w pęk kluczy, eleganckie mnie zalogowało w Chromie,
więc no naprawdę fajnie to działa, no i dzięki temu się mogłem
na tym koncie Googla w ogóle bezproblemowo w 3 sekundy zalogować,
więc to też taki, no fajnie, że to jest.
Mała rzecz, a cieszy.
Tak, mała rzecz, a cieszy i też fajne jest to, że ten,
podczas udostępniania, no właśnie, to gdzieś tam jest coś,
o czym mówiliście w tej audycji o niedostępności stron internetowych
i jak sobie z tym radzić, Michale z Pawłem i właśnie,
aż mi się przypomniało, bo kwestia była tego, że nawigując sobie
z szybką nawigacją w prawo, ja nie miałem ani możliwości
znalezienia opcji udostępniania, tak jakby, w sensie,
żeby tam udostępnić też dźwięk, żeby tam wybrać sobie kartę Chroma,
jaką chcę udostępnić i tak dalej, a pod tabem wszystko
elegancko się znalazło, tylko potem o ironiu nie było przycisku
udostępnić, tylko było anuluj, no jak sobie tu poradzić,
no klepnąć w Return, w Enter, no i zadziałało, nie,
to taka troszkę niedostępność, ale faktycznie ten tab zadziałał
i można też to było zrobić.
No.
Grunt to mieć pomysły w takich sytuacjach.
Dobrze, Maćku.
Mieć pomysły, tak.
Dzięki serdeczne za telefon, pozdrawiamy Cię w takim razie
i jak coś, to nagrywaj się lub dzwoń jeszcze.
Jasne, dobra, cześć Wam na nasłuchu.
Trzymaj się, pozdrawiamy, a tymczasem zajrzyjmy na WhatsAppa,
bo tu mamy wiadomości, tu mamy dwie wiadomości od Rafała.
No to w takim razie posłuchajmy, co Rafał ma nam jeszcze do powiedzenia.
Nagrywanie bez przytrzymywania, wyślij, przecisk.
Słuchaj, to tak, powiedzcie mi taką, jak tą, bo ja tą funkcję ogólnie
hibernację mam włączoną.
I jak dam ALDAF 4 i jest tam hibernacja, no i owszem,
i wtedy jak dam hibernację, no to wtedy się zhibernuje.
Tylko mi chodzi, żeby w jakimś czasie nie ma tej funkcji,
żeby tam po 15 minutach, po 20 minutach i tak dalej.
Bo wyjdą z ARES-u chyba to, co podaliście, to rozumiem,
no to się zhibernuje w tym momencie, a to mi chodzi po jakimś czasie.
Wyślij, wyślij, przecisk.
No, to tyle.
Dobra, wszystko fajnie, mogę w tę wierszą polecieć, wpisać tą komendę,
ale chodzi też mi o to, oprócz włączenia hibernacji,
żeby ona się automatycznie sama się włączała po jakimś tam czasie.
Okej, mi się wydaje, że to może być gdzieś w zaawansowanych ustawieniach
planu zasilania.
Ja bym szczerze mówiąc szukał tam, bo być może ta opcja tam,
gdzie się znajduje, trzeba to po prostu przeedytować i już.
Dobrze, to w takim razie teraz przechodzimy do kolejnych tematów.
Przechodzimy do EnVision.
Paweł, co nowego u was?
Przepraszam się, bo byłem na ich webinarium, tak jak wam obiecałem,
no i parę rzeczy się okazało.
No po pierwsze ten tryb eksploracji, który wszedł.
Ja tutaj tydzień temu tak jojczałem, trochę narzekałem,
że no po co takie coś, jak Seeing AI to już dawno ma,
i jeszcze jest wzbogacony o LiDAR.
No więc EnVision ogłasza, że w trybie eksploracji również jest przewidziany LiDAR.
Póki co go nie ma, ale będzie on wprowadzony.
Również w aplikacji wejdzie nam możliwość opisywania scen,
no w okularach też, z czatem GPT,
czyli te opisy będą dużo bogatsze w szczegóły,
ale też będziemy mogli zadawać o te sceny pytania.
Sceny, czyli rozpoznane zdjęcia albo przez udostępni EnVision,
albo po prostu zdjęcia wykonane aparatem w trybie rozpoznawania scen.
Znowuż tryb dokumentów, doczekał się trybu offline,
i ja pytałem nawet, czy ten jest ten sam mechanizm,
który służy do rozpoznawania krótkich tekstów,
bo my wiemy jak on działa, przekonaliśmy się jakiś czas temu,
kiedy nam go EnVision wprowadził jako jedyny funkcjonujący,
że on najlepszy nie jest.
On czyta dużo, on czyta byle co, trochę jakieś tam cyfry,
litery oderwane od siebie, jakieś tam różne rzeczy,
więc nie można na nim polegać.
Ten onlinowy był lepszy, przy czym, co ciekawe,
ostatnio trochę osób mi zgłasza, że to na jakichś chyba nowszych iPhone’ach,
nie wiem od czego to zależy, u mnie na 13 mini, ja tego nie widzę,
że jakiś taki jakby ulepszony, ale chyba dalej offline’owy mechanizm
się u nich odpala i trochę lepiej czyta.
A jak to rozpoznać, że się włączył?
Co jakiś czas, podobnie jak w starych dobrych czasach,
odgrywana jest ta melodyjka, taka charakterystyczna dla EnVision,
kiedy coś jest rozpoznawane.
Nie wiem, czy wy też to macie?
Ja nie mam czegoś takiego, żeby mi ta melodyjka wróciła
i jakoś tam lepiej rozpoznawało, no ale może ktoś to ma.
Zapewniono mnie, że przy rozpoznawaniu dokumentów,
co prawda mechanizm będzie ten sam,
ale sposób przetwarzania obrazu będzie troszeczkę inny
i dzięki temu będzie zoptymalizowany pod kątem dokładności,
a nie prędkości, tak jak jest to w przypadku rozpoznawania krótkich tekstów.
Zobaczymy, jaki tego będzie efekt.
Na ten moment pozostaję sceptyczny.
No i na sam koniec okulary EnVision.
My je demonstrowaliśmy nawet dwukrotnie.
One miały już od dość dawna funkcję poleceń głosowych,
czyli te różne moduły, aplikacje, tryby rozpoznawania
można było aktywować głosem.
Problem polegał na tym, że było to możliwe tylko w języku angielskim,
a teraz mają wejść polecenia w wielu językach.
Pytałem, czy polski będzie.
Mówią, że tak, jest to język, który istnieje w oprogramowaniu EnVision Glasses
i jak najbardziej te komendy będą też po polsku.
Szczerze mówiąc, jako że to urządzenie nie jest oficjalnie dystrybuowane w Polsce
i ja nie wiem, czy tam ktokolwiek dba o jakość tego tłumaczenia,
a EnVision jest jedną z tych aplikacji, które były tłumaczone,
umówmy się, komputerowo.
To się troszkę boję o jakość tych poleceń głosowych,
ale będzie jak najbardziej możliwość wykonywania ich po polsku.
Pożyjemy, zobaczymy, jak tam to wszystko się rozwinie
i jakich to jeszcze funkcji nabierze.
Natomiast na ten moment nareszcie coś się zaczęło dziać w aplikacji.
Fajnie, że te opisy scen, fajnie, że można odpytywać.
Ciekawe, czy do dokumentów też dodadzą do aplikacji,
czy na przykład pozostawią sobie w okularach tylko i wyłącznie.
Ale to jest tyle, jeśli chodzi o EnVision.
Jeśli jeszcze chodzi o to, ja tutaj widzę jedno bardzo fajne zastosowanie
do pytania w czacie JPT,
a mianowicie ta aplikacja w przeciwieństwie do Be My Eyes,
czy do Seeing AI nawet, jest dostępna na Macach.
Więc ja już tutaj widzę potencjał w tym, że będę mógł sobie po prostu
zrobić zrzut ekranu, nawet napisać jakiś skrypt do tego,
który zrobi mi ten zrzut, otworzy okno do dostępniania.
Ja będę mógł sobie z poziomu komputera jakieś właśnie zrzuty ekranu,
czy po prostu jakieś inne zdjęcia właśnie z sieci społecznościowej,
bo tam jest nawet łatwiej zrobić zrzut ekranu na przykład z jakiegoś Facebooka,
wysłać go do właśnie czata JPT w ten czy inny sposób
i po prostu go rozpoznać, jeszcze dopytać o coś.
A to prawda, to rzeczywiście może być fajną opcją.
No tak, to może być ciekawe.
No dobrze, zaglądamy na naszą tablicę komentarzy, że tak powiem.
Tu Piotr prosi mnie, żebym sprawdził maila tyflopodcastowego,
bo wysłał linki do reportaży z udziałem i o niewidomych.
Piotrze, nic nie dostałem, wyślij może na michal.dziwiszmałpafirr.org.pl
Tu jeszcze napisał Piotr tak.
Pawle, pojedyncze stuknięcie czterema palcami w dolną część ekranu
przenosi kursor na ostatnią rzecz na ekranie.
Jeśli na Whatsappie masz ukrytą klawiaturę, to przeniesie na przycisk nagrywania.
Tak, ja tak robię, tylko że potem, nie wiem, coś palcem delikatnie ruszę.
To nawet nie jest kwestia tego, że jakoś mocno, tylko coś będę chciał stuknąć,
ale zamiast tego dotknę na przykład, bo tak on to odczyta.
I już jestem na innym elemencie i już się robi co innego.
Ten motyw już przerabiałem, ale dzięki za poradę.
To jest bardzo fajny gest, ja go stosuję namiętnie.
No i słuchajcie, mamy kolejne pytanie, tym razem od Mateusza.
Witajcie, czy według Was posiadanie iPada przez osobę niewidomą ma sens,
jeżeli posiada się iPhona z dużą pamięcią?
To zależy, myślę, że to pytanie już było mielone na wiele sposobów
i to nie jest zarzut w stosunku do Ciebie, Mateuszu.
Bardziej chodzi o to, że na to pytanie próbuję już sobie niewidomie odpowiedzieć od lat.
Ja dla siebie nie widzę, natomiast to zależy z czym pracujesz
i ile na to potrzebujesz miejsca, tak mi się wydaje.
Nie wiem, czy się Piotrze zgodzisz, ale na przykład rzeczy typu,
na przykład jakieś budowanie takich większych skrótów,
gdzie tych czynności nie jest 5, tylko na przykład 105,
na takim iPadzie byłoby dużo łatwiejsze.
Budowanie skrótów, na iPadzie możemy mieć dwie aplikacje na raz otwarte
i jakoś dane między innymi przerzucić, to jest dostępne.
Są aplikacje, których nie ma na iPhonie, na przykład Logic,
aczkolwiek przynajmniej od jednej osoby słyszałem informację,
że ten Logic o dziwo właśnie nie jest jakoś bardzo fajnie dostępny.
Czy to prawda, czy to jest po prostu kwestia tego,
że to nie jest jakoś bardzo przystosowane pod dotyk?
Natomiast jedno zastosowanie, które co jakiś czas słyszę,
to są osoby, które nie chcą z jakiegoś powodu Maca,
bo po prostu nie lubią, lepiej im się pracuje na Windowsie,
ale są jakieś aplikacje takie ze środowiska Apple’owego,
które im się podobają, takie bardziej komputerowe,
z których chcieliby korzystać, to na przykład Ulysses do pisania,
to taki częsty, czy właśnie do blogowania dużych osób,
które właśnie dużo tekstów pisze, wiem, że tak pracuje.
No to lubią sobie kupić iPada plus jakąś klawiaturę Bluetooth
no i traktować go trochę takiego mini-laptopa poniekąd.
Ale jeśli nie planujesz tak pracować, to nie wiem osobiście.
No ja powiem szczerze, kiedyś, dawno, dawno temu miałem iPada,
ale jakoś nie przypadł mi do gustu,
więc też jestem jakoś sceptyczny, jeżeli o to chodzi,
ale oczywiście wiadomo, najlepiej sprawdzić samemu,
może komuś się spodoba po prostu taki sposób pracy
i może jakoś sobie to wykorzysta,
może jacyś użytkownicy iPada zadowoleni do nas napiszą albo zadzwonią,
a teraz odbieramy kolejny telefon, tak a propos.
Kto jest z nami po drugiej stronie?
Witajcie, Bartek po tej stronie się kłania.
Cześć Bartku, ty może używasz iPada?
Nie, nie, nie, ja tylko iPhona, jeżeli mówimy o stanie Apple’a,
więc ani iPoda, ani iPada.
Znaczy się, tutaj moja koleżanka używała iPada i się zastanawiała,
dlaczego z włożoną kartą SIM nie może wykonywać połączeń telefonicznych,
ale wydaje mi się, że jakiś czas temu żeście udzielili odpowiedzi na to pytanie,
bo chyba te iPady to się dzielą na dwie kategorie, jak wspominaliście, że…
To znaczy karta SIM generalnie w ogóle jest tylko do internetu.
Do internetu do tego stopnia, że nawet niektóre tablety z Androidem to nawet mogą
chociaż SMS-y wysyłać z karty SIM, a nawet tego iPad nie potrafi,
co czasami może przytworzyć problemy na przykład z załadowaniem,
bo czasami trzeba powtarzać się poślad stronami internetowymi,
bo tutaj nawet SMS-a nie odbierzemy.
Okej, ale czy taki iPod, tylko tak na marginesie zapytam,
posiada opcję chociażby Facetime’a?
Tak, oczywiście można dzwonić przez Facetime’a, jest iMessage,
nawet jeśli mamy iPhone’a, to tak samo jak na Macu,
iPad połączy się z naszym iPhone’em, więc jeśli mam iPhone’a w pobliżu,
no to można spokojnie z iPada nawet zadzwonić.
On wtedy, tak jak to wygląda na Macu, wykonuje połączenie z naszym iPhone’em.
Więc to musi być czasami sieć Wi-Fi, ten telefon musi być gdzieś w pobliżu.
Wtedy to trzeba Bluetooth użyć, tak, jak dobrze kojarzę,
żeby on się połączył z iPhone’em.
To się samo tam po cichu integruje, to są takie właśnie usługi Apple’owskie,
one po prostu działają w tle.
Włączamy je sobie na telefonie i na iPadzie i tyle.
To możliwe, że to będzie działać na podobnej zasadzie jak mi zadziałało we wtorek,
bo dzwonię do Was z informacją, w końcu odebrałem swojego iPhone’a 13s,
którym tak notorycznie do Was dzwonię.
Mogę Wam tylko powiedzieć, że nic zaskakującego tutaj nie zdziałali na gwarancji,
bo go po prostu wyczyścili.
Twierdzą, że z tymi gestami jest wszystko w porządku.
Ja wczoraj zauważyłem, że jednak nie jest, bo przynajmniej pod ładowaniem
znowu miałem problem z potarciem czy odświeżeniem ekranu.
Ale zobaczymy jeszcze, czy to może być kwestia samego kabla.
Będę, że tak powiem, testował na kilku kablach tego iPhone’a i wtedy zobaczę.
Ale właśnie dzwonię do Was z tą informacją, o którą się też pytałem zresztą tydzień temu.
Czy w iOS-ie 17.1 został naprawiony ten problem z zamykającą klawiaturą
podczas przenoszenia danych z iPhone’a na iPhone’a?
Powiedzmy, że zaryzykowałem i wybrałem tę opcję.
No niestety ta opcja nie została według mnie przywrócona,
bo musiałem wyłączyć voiceover i mniej więcej w części górnej ekranu
tapnąć jednym palcem i dopiero wtedy ta klawiatura nam się wyświetliła.
Ale to też trzeba mieć farta, żeby po prostu w to miejsce utrafić.
Ja myślę, Bartku, że warto to w ogóle do Apple’a zgłosić,
bo być może oni nawet nie są do końca świadomi, że tam coś jest nie tak,
bo może niewiele osób albo zgłasza ten błąd,
albo po prostu niewiele osób się na niego jeszcze natknęło.
Bardzo możliwe, że w ogóle jeszcze się nikt nie natknął,
bo 17 wydaje mi się, że też sporo dla mnie zaskakujących aktualizacji,
chociażby jeżeli chodzi o samego voiceovera.
Nie wiem, czy to było wcześniej, ale ja to zauważyłem de facto,
jak na nowo musiałem pobrać głosy, te, które nam oferuje Apple.
I zauważyłem taką dość zaskakującą i dla mnie może dość ciekawą rzecz,
że można teraz też zmieniać wysokość danego głosu.
Nie wiem, czy zauważyliście już to?
Wiesz co?
Ja szczerze mówiąc nie zwróciłem na to uwagi aż tak.
A ja wam powiem, bo de facto nie można tej opcji sobie ustawić na same pokrętło,
bo jeszcze nie testowałem, czy to można na przykład zmienić,
zakładając hipotetycznie, że mamy ustawioną ZOS-ie.
A chcemy zmienić głos na przykład na Krzysztofie,
to wydaje mi się, że tego nie zrobimy, kiedy właśnie ten głos nie jest aktywny.
A mianowicie to jak ustawimy się fokusem na danym głosie,
który mamy ustawiony i przesuniemy palcem w górę,
tam jest chyba coś takiego jak więcej opcji.
W to trzeba wejść i tam są dwa przyciski.
Jest przycisk zmniejszenia i przycisk zwiększenia.
I wtedy te wartości można tak porównać do zmiany,
jak kiedyś się zmieniało w Audacity wysokość ścieżki.
Czyli na przykład jak domyślnie bynajmniej zauważyłem,
że ta wysokość jest ustawiona na 100,
a próbowałem się, bo troszeczkę się tym bawiłem, przyznam dzisiaj,
i jak na przykład ustawiłem sobie na 50,
to brzmiało tak, jak w telewizji zmieniają głos, prawda?
Aż w drugą stronę to tak jakby smerfy śpiewały.
No to rzeczywiście fajnie, że dodana została kolejna rzecz,
jeżeli chodzi o edycję głosu.
No tylko, że szkoda, że bynajmniej w tej chwili jeszcze właśnie
nie zostało to dodane jako opcja na pokrętle.
Bo przed chwilą jeszcze sprawdzałem opcję,
które można dodać na pokrętło i tego nie zauważyłem.
No bo to są te indywidualne parametry głosu,
to właśnie to w Sieremiasce zostało dodane.
Nie wiem, czy Apple ma jak to dodać.
To są raczej takie ustawienia chyba,
które się generalnie gdzieś zmienia.
I też podejrzewam właśnie, że nie zmienia się tego co chwilę.
Tak naprawdę.
No pewnie tak jest tego zamysłu na przykład.
Zgadza się, ja chcę jednorazować zazwyczaj.
No dobrze Wartek, czy z czymś jeszcze do nas dzwonisz?
Bo nie ukrywam, mamy tu jeszcze trochę tematów.
No wiesz, słyszałem Hedy.
Także powiem tak, jeżeli chodzi o tego mojego iPhone’a,
to dane udało się przenieść.
Ale rzeczywiście, jeżeli chodzi o tą klawiaturę,
to może rzeczywiście spróbuję jeszcze uderzyć.
Bardziej może na infolinii, żeby zgłosić to.
Wiesz co, ja bym chyba to zgłaszał bezpośrednio nawet do Apple’a.
Po prostu zgłaszając błąd.
Albo na support, albo na accessibility maupa apple.com.
Gdzieś po prostu tam.
Okej, zobaczymy jak to się potoczy,
bo jeżeli okaże się, że rzeczywiście to jest wina kabla,
to będę musiał przejechać się do serwisu i po prostu kabel wymienić.
To może przy okazji tam to zgłoszę.
Można i w ten sposób, aczkolwiek ja raczej myślę,
że lepszą opcją byłoby zgłoszenie tego po prostu bezpośrednio do Apple.
Bo pamiętaj, że tu masz tylko serwis.
To nie jest Apple.
To jest jakaś firma, która jest powiedzmy partnerem Apple.
I czy oni to gdzieś tam przekażą dalej, to jest raczej wątpliwe.
No dobrze. Miejmy nadzieję, że też ktoś inny tutaj uderzy w tej sprawie.
Ja też postaram się coś zrobić, ale nic nie obiecuję.
To w takim razie będzie na razie tyle.
Jakby coś będę pisał albo po prostu nagrywał wiadomości głosowe.
Dzięki Bartku. Pozdrawiamy.
Do usłyszenia. Trzymaj się.
Zaglądam do waszych komentarzy.
Tu mamy od Jarosława potwierdzenie tego, o czym mówiłem.
Gdy już hibernacja jest włączona, można ustawić w zaawansowanych opcjach
planu zasilania, którego się używa, hibernację po określonym czasie bez czynności.
Tak, to dzięki Jarosławie za potwierdzenie tego.
Tak mi się właśnie to kojarzyło, że to należy tam zmienić.
Dobrze, to zanim przejdziemy do kolejnego tematu,
to odsłuchajmy jeszcze jedną wiadomość na Whatsappie.
Tym razem od Agi.
Witam was bardzo serdecznie. Z tej strony Aga.
Ja chciałam się odnieść do tego poprzedniego Tyflo Przeglądu,
gdzie była mowa o moim kanale, który założyłam nie tak dawno,
a mowa tutaj o kanale Dostępny Domek.
Jeśli chodzi o udostępnianie filmów, jakie się pojawią na tym kanale,
na stronie Tyflo Podcastu, to jak najbardziej na to wyrażam zgodę,
bo też uważam, żeby to jak najwięcej ludzi mogło obejrzeć,
dotrzeć do tego bez problemu.
Tak że jak najbardziej udostępnianie, tutaj jak najbardziej wskazanie,
tutaj tak jak najbardziej.
No i też zachęcam właśnie ludzi, żeby nagrywali te filmy,
żeby się dzielili urządzeniami, jakie mają, posiadają.
A wiem, że jest wielu ludzi, którzy mają naprawdę fajne urządzenia,
które są bardzo dostępne, a wielu ludzi też się o to pyta,
dlatego postanowiłam założyć taki kanał dodatkowo,
żeby tam po prostu była podejmowana konkretnie ta dziedzina, ta tematyka.
No i będzie mi też również bardzo miło, jeżeli te filmy będą się pojawiały
jak najwięcej, w największej ilości miejscach jak najbardziej.
Tak że tutaj jak najbardziej.
Pozdrawiam bardzo serdecznie.
My Ciebie też Ago pozdrawiamy i do usłyszenia.
Dzięki za tę wiadomość.
A teraz przechodzimy do kolejnego tematu.
Tym razem dostępność Linuxa.
Było o dostępności Windowsa, o Macach było, o Linuxie dziś jeszcze nie było,
a teraz będzie.
Piotrze, co się zmienia?
Co się zmienia?
Pojawił się na blogu GNOME Accessibility Post,
jeszcze tutaj wytłumaczę GNOME Foundation,
to jest fundacja, która jest odpowiedzialna za bardzo wiele części Linuxa,
tego którego widzimy.
Właściwie większość z tych aplikacji graficznych, które widzimy,
ten cały interfejs GNOME, który nam daje Pulpit,
wszystkie jakieś najbardziej popularne aplikacje wbudowane do manager plików,
jakieś edytory tekstu.
Oni wiele tych aplikacji dostarczają dla wszystkich najbardziej popularnych
dystrybucji np. do Ubuntu, czy do Fedora i do wielu innych dystrybucji.
No i oni właśnie też są odpowiedzialni za jakieś też wewnętrzne API
do wpisania tych aplikacji, w tym za dostępność.
No i oto okazuje się, że do GNOME Foundation dołączył Matt Campbell,
człowiek, którego już możecie kojarzyć m.in. z wielu rzeczy,
no bo od czytnika ekranu na Windowsie System Access,
zresztą właśnie też jakiś czas pracował w Microsoftzie,
z narzędzia RIM, czy też właśnie innych narzędzi od NUMA Solutions,
co tam jeszcze, Access Kit, czyli biblioteka, która pozwala
udostępnić interfejsy czytnikom ekranu wieloplatformowo właśnie na Windowsie,
na Macu i na Linuxie.
No więc on też zaczynał swoją historię komputerową zresztą właśnie od Linuxa.
Jeśli gdzieś cofniecie się do początków main menu,
do ich audycji na ACV Radio, to on tam nawet, pamiętam, wrzucał samouczki
właśnie jak pracować z Linuxem, to jeszcze był wtedy Stick the Linux,
terminalowy, nazwiersza poleca incentator sprzętowy, no i tak kiedyś się z Linuxa korzystało.
No i dołączył właśnie do GNOME, żeby poprawić dostępność na Linuxie,
która jest, ale jednak gdzieś ma swoje problemy i jak tutaj zauważa Matt,
zresztą nie tylko Linux, bo głównym powodem, dla którego dostępność czasami zawodzi,
jest to jak wewnętrznie ta dostępność jest zrealizowana.
Ja to spróbuję w miarę prosto wytłumaczyć.
Chodzi o to, że wszystkie właściwe API dostępności, zarówno na Windowsie,
na Linuxie i na Macu też działają w ten sposób, że kiedy na szczytnik ekranu
chce dowiedzieć się coś do danej aplikacji, no to wysyła zapytanie do systemu
i też system wtedy wysyła zapytanie do danej aplikacji i ona mu odpowiada.
Co jest, gdzie jest Focus, no i aplikacja nam wtedy odpowiada.
Focus jest na tym przycisku w tym oknie.
To czasami może działać wolno.
Jeśli aplikacja jest zajęta, nie wiem, trwa kopiowanie plików,
na szczytnik ekranu pyta się ile minęło procent, w jakim stanie jest ten pasek postępu.
Jeśli aplikacja jest zrobiona dobrze, odpowie szybko.
Równie dobrze może być zrobiona źle i po prostu powiedzieć,
jestem zajęta, nie mam czasu ci odpowiedzieć.
Co się dzieje wtedy? No wtedy na szczytnik ekranu zazwyczaj zaczyna milczeć,
bo czeka na odpowiedź tej aplikacji, więc jeśli coś się w jakiejś aplikacji zawiesi,
no to po prostu możemy czasami stracić mowę.
Mac tutaj szuka rozwiązania tego problemu i inspirację znalazł
w tym jak to dostępność jest zrobiona w przeglądarkach internetowych,
bo tutaj jeszcze jest taka kwestia, że czytniki ekranu, żeby troszeczkę sobie
sprawę przyspieszyć, przynajmniej na Windowsie, bo tylko na Windowsie
dało się takie rzeczy zrobić, wgryzały się do tych aplikacji,
wszczekiwały swój własny kod źródłowy, dlatego czasami antywirusy też
nie robiły się z czytnikami ekranu, żeby gdzieś te zapytania były troszkę szybsze.
Nie wszędzie się da to zrobić w współczesnych aplikacjach Linuxowych,
gdzie to często działa właśnie w różnych piaskownicach, jest tym też gorzej,
więc tutaj dlatego też szukano rozwiązania.
Rozwiązanie znaleziono w przeglądarkach internetowych,
no bo może pamiętacie, rozmawialiśmy jak to Firefox na przykład nierawno
przechodził takie zmiany, bo powstawała taka inicjatywa Cache the World,
to się nazywało, Chrome już tak działał wcześniej.
Te aplikacje działają tak, że przez to, że strony działają we własnych procesach,
ale czytnik ekranu komunikuje się z głównym procesem przeglądarki,
no to żeby gdzieś tą komunikację przyspieszyć i jednocześnie zrobić to tak,
żeby te strony były bezpieczne, żeby aplikacje nie miały do nich
jakiegoś nieuprawnionego dostępu, to te przeglądarki zapisują sobie
w stan dostępności tych aplikacji w pamięci, robią sobie takie drzewo,
więc nawet jeśli jakaś strona robi coś i przeglądarka jest zajęta,
to tą dostępność, informację o dostępności ma w pamięci,
ewentualnie coś aktualizuje, jakieś poszczególne miejsce się zmieni,
co zajmuje dużo mniej czasu, więc czytnik ekranu zawsze może się
dopytać gdzieś o dowolną część tej strony, no i w miarę szybko
o niej informację otrzymać.
No i to jest właśnie główne założenie tej nowej inicjatywy,
jak przepisać dostępność na Linuxie, no bo ona generalnie będzie działała
tak jak wcześniej, o tyle, że to jest jakieś drzewko, w którym będziemy
poszczególne jakieś elementy widzieć, więc powiedzmy mamy główny pulpit,
w tym pulpicie mamy okna, w tym oknie powiedzmy może być jakiś pasek
narzędzi, a na tym płasku narzędzi mogą być przyciski, to się nie zmienia,
zmienia się to właśnie jak ta dostępność będzie wygląda,
zamiast tego, że czytnik ekranu będzie musiał się pytać o wszystko
i za każdym razem, no to aplikacja po starcie będzie wysyłała
informację o tym, o stanie wszystkich kontrolek na ekranie, a potem
ewentualnie będzie tylko wysyłać informację o tym, jakby jakiś
element się zmienił.
No efekt to ma taki, że właśnie nawet gdyby aplikacja zaczęła działać
wolniej, bo jest zajęta czymś innym, albo coś się zawiesiło, no to czytnik
ekranu, tak jak osoba widząca, będzie mimo wszystko mógł zobaczyć
to, co było wcześniej widoczne na ekranie, no i niektóre operacje,
nie wiem, szukanie kontrolki w konkretnym typie, albo wyszukiwanie
jakiegoś tekstu, na przykład w dokumencie jakimś tekstowym, czy po prostu
nawet na ekranie, powinny być cały czas bardzo szybkie, no bo po prostu
nie będą musiały aż tak dopytywać się konkretnych aplikacji.
Są niektóre aplikacje, w których to będzie wymagało więcej pracy,
tu jest podany przykład edytorów tekstowych, no ale tutaj mam nadzieję,
że kiedy to gdzieś zostanie bardziej dopracowane, oczywiście też
producenci takich aplikacji mogą brać udział w tych rozmowach, to wszystko
będzie fajnie zaimplementowane, tak żeby to jakoś miało taką może
wirtualną reprezentację tych dokumentów, żeby to działało fajnie.
To ma jeszcze jeden duży plus, no przez to, że takie drzewo
dostępności jest zawsze dostępne i to całe, to informacje o nim
można też zapisywać i wysyłać w inne miejsca. No i tutaj takim przykładem
jest to, co proponuje Mat, żeby do metadanych zrzutów ekranu właśnie
zapisywać stan takiego całego drzewa dostępności. Po co? No po to, żebyśmy
mogli po zrobieniu zrzutu ekranu, albo ktoś nam zrobi zrzut ekranu,
tak jak było to rozszerzenie kontekst do przeglądarek, że mogliśmy sobie
zobaczyć kopię jakiejś strony, no tutaj na zrzucie ekranu, na szczytnik ekranu
mógłby zobaczyć kopię danego interfejsu, więc fajnie byłoby tak wejść sobie
na stronę, widzimy jakąś aplikację, która nas interesuje, jest zrzut ekranu,
otwieramy sobie ten zrzut ekranu i widzimy, czy autor tutaj zadał
dostępność, czy są zadekwiatowane przyciski, czy nie. No, pomysł jest fajny,
zwłaszcza jakby się udało to gdzieś włączyć do metadanych EXIF,
bodajże to się nazywa właśnie, które są gdzieś w plikach obrazu stosowane,
jeszcze tak, żeby namówić innych producentów systemów operacyjnych,
żeby coś takiego zrobili, no bo tutaj potencjał jest duży, oprócz zrzutów
ekranu, to tak samo podczas udostępniania ekranu, tam było można,
udało się tak zrobić, tak jak są protokoły, tak jak VNC na Linuxie,
czy RDP na Windowsie, gdyby się tam po prostu udało wysyłać informacje
o stanie interfejsu, tak żebyśmy mogli używając naszego czytnika ekranu,
z naszymi ustawieniami, nawet jeśli druga osoba nie ma włączonego
czytnika ekranu, po prostu z takim zdalnym pulpitem pracować,
tak jak byłby to pulpit lokalny i to szybko, jeszcze używając skrótów,
które my sobie sami spersonalizowaliśmy, no myślę, że to byłoby naprawdę
bardzo fajnie. No to są na razie początki prac, właściwie tutaj jeszcze
są umawiane plany na specyfikację, jak ten kod zmodernizować i pozmieniać.
Jeśli faktycznie to zostanie zrobione, no to bardzo możliwe, że Linux,
jak zresztą napisał Matt, mógłby tutaj naprawdę przeskoczyć to,
co oferują nam inne systemy, jeśli chodzi o prędkość działania,
jeśli jakby się jeszcze udało zrobić te inne pomysły z tymi zrzutami ekranu,
z uzasadnianiem ekranu, tak żeby to się spopularyzowało,
no to byłoby naprawdę super. Warto, myślę, temat obserwować i śledzić,
bo jeśli tutaj zacznie się coś zmieniać, a umówmy się, moim zdaniem,
to jest odpowiedni człowiek na odpowiednim miejscu, to jest osoba
z bardzo dużym doświadczeniem w dostępności zarówno od zewnątrz,
jak i od środka, no to wydaje mi się, że jak najbardziej jest na co czekać.
Pytanie tylko, ile osób tak naprawdę będzie zaangażowanych w rozwój tego,
czy to będzie sam Matt, czy trochę więcej jednak ludzi,
bo tak mi się wydaje, że to nie jest praca na jednego człowieka,
raczej na jakiś zespół.
Dziś tutaj przeglądam dokumenty, które zostały do tego dołączone,
widzę, że jakieś spotkania były organizowane, więc wydaje mi się,
że to jest bardziej przedsięwzięcie, takie bardziej na całą organizację,
a przynajmniej na jej część, która jest odpowiedzialna za dostępność.
No i oby tak rzeczywiście było, trzymamy za to kciuki.
Rafał do nas nagrał kolejną wiadomość, czyli historii hibernacja pewnie ciąg dalszy.
Patrzyłem właśnie tam, obcy zasilania, plan zasilania zaawansowany
i właśnie tam tego nie ma.
Tylko jest odnośnie usypiania, ale odnośnie hibernacji to już tam nie ma.
Dlatego właśnie się pytam, czy macie jakiś pomysł, żeby wyłączyć tą hibernację czasowo,
bo właśnie tam tych zaawansowanych nie ma.
A to ciekawa historia.
Ja jeszcze spróbuję może coś tu przejrzeć i może coś uda się Rafale podpowiedzieć
i rozwiązać jakoś twój problem.
Problem w tym, że też ja tu mam pod ręką Windowsa 10, nie jedenastkę,
więc to też trochę inaczej wygląda, no ale może się uda, zobaczymy.
A jeżeli wy również macie jakieś tutaj sugestie, propozycje, to dawajcie znać.
A tymczasem przechodzimy do kolejnych tematów,
bo tematów jeszcze w naszej dzisiejszej audycji troszeczkę jest.
Jeszcze do technikaliów nie doszliśmy, cały czas jesteśmy w tyflo aktualnościach
i teraz, no cóż, garść nowości ze świata.
Zaczynamy od takich mało przyjemnych tematów, Pawle.
Tak, zgadza się, no bo kolejna audycja i znowu trzeba o wojnie mówić.
Już chwilowo nie mówiliśmy dość długo o Ukrainie.
Oczywiście dalej się tam dzieje wiele rzeczy i to nie za bardzo dobrych.
Historie różne osób z dysfunkcją wzroku albo osób, które ten wzrok tracą w wyniku działań,
napływają w mediach.
Natomiast dzieje się tego tyle, że nie sposób po prostu mówić o każdym jednym przypadku.
Oczywiście myśli są dalej z wszystkimi osobami z dysfunkcją wzroku i nie tylko właśnie tam w Ukrainie.
Natomiast kolejny konflikt się odpalił, stary, nowy konflikt, czyli Izrael-Palestyna.
No i tam również oczywiście są osoby z dysfunkcją wzroku.
I dotarł do dwóch takich kobiet, reporter BBC.
W ogóle polecam Wam podcast BBC InTouch.
To jest podcast, który ukazuje się w każdy wtorkowy wieczór.
On jest jakby zapisem audycji, która też jest transmitowana na BBC, zdaje się cztery.
I tam jest to audycja poświęcona właśnie osobom z dysfunkcją wzroku.
I to w różnych aspektach.
Może być jakieś ujęcie takie typowo brytyjskie, o czym za chwileczkę też prawdopodobnie wspomnę.
Po drugie, no takie jakieś kwestie międzynarodowe, również czasem jakieś technologiczne,
jak coś rzeczywiście wybitnego się stanie.
No o Fordcy Motorsport było na przykład.
No a dwa tygodnie temu został wyemitowany odcinek właśnie na temat Izraela i Palestyny.
No i był jakby, rozpoczął się on od nawiązania, bo to nie jest pierwsze spotkanie,
przynajmniej z jedną z bohaterek właśnie tegoż podcastu.
Bo już w 2014 prowadzący audycję dotarł do tych pań i pytał właśnie,
jak to wygląda po obydwu stronach konfliktu.
No teraz z pani po stronie, jedna z pań mieszka na północ od Tel Awiwu.
To z tą panią się kontaktu nie udało nawiązać, ale wszystko u niej w porządku.
Natomiast druga z osób, z którą dwukrotnie się udało kontakt nawiązać,
no mieszka w strefie gazy, w mieście Gaza.
I tam prósił je przeżyć.
No i w dużym skrócie, jak to wygląda dla osoby niewidomych.
Ja myślę, żeby w ogóle nakreślić technicznie, jak to wszystko wygląda,
to trzeba zacząć od tego, że w Izraelu, kiedy na Izrael lecą jakieś
palestyńskie rakiety, bomby, to puszczane są oczywiście syreny alarmowe,
komunikaty są transmitowane w radiu, komunikaty są transmitowane w telewizji.
I teraz tak, oczywiście kiedy dzieje się to w radiu, no to wiadomo,
jakie regiony danego miasta są zagrożone. W telewizji wyświetla się to
jako taki pasek informacyjny na ekranie, więc nie sposób tego odczytać.
No a syreny, jakie są w mieście, no to po prostu je słychać.
Wszyscy obywatele, którzy otrzymują taki komunikat o nadchodzącym jakimś ataku,
mają 90 sekund dokładnie, żeby skryć się do najbliższego schronu.
I teraz, jako że ten konflikt już się dość długo ciągnie,
to wymogi architektoniczne budowania nowych budynków w Izraelu,
mieszkalnych zwłaszcza, ale takich publicznych również, zakładają,
że każdy dom, każdy blok mieszkalny ma przynajmniej jeden publiczny schron
dla wszystkich, a najlepiej jakby mieszkania też miały swoje schrony.
I to są takie wnęki, takie nisze poboczne, takie jakby półpiętra,
w których są wszystkie najpotrzebniejsze rzeczy.
To schodzi gdzieś tam pod ziemię, są odpowiednio wytyczne,
jak powinien wyglądać, jakich wymiarów powinien być taki schron
i co powinno w nim być. Jakiś chyba agregator prądu tam jest,
tego typu różne rzeczy. No i teraz jakby jasna sprawa,
jeżeli taka osoba niewidoma jest w domu, no to wie, gdzie się schować.
No jeżeli to jest jakiś budynek, który ma tylko jeden powiedzmy schron
na cały blok, no to trzeba się pospieszyć, żeby tam zdążyć.
Bardzo wiele osób polega gdzieś tam na pomocy osób postronnych.
Pani, z którą przeprowadzona była ta rozmowa, świeża pani
po stronie izraelskiej stwierdziła, że no na przykład ona nie wychodzi
w ogóle z domu. I to rzeczywiście, to potwierdzają też te osoby,
ta dziewczyna ze strefy gazy i ta pani, z którą wywiad był ostatnio
przeprowadzany 8 czy ileś, 9 lat temu, że no osoby niewidome
raczej starają się z domu nie wychodzić, jeśli już to wznawiają
ze sobie miejsce. Na przykład pani teraz, która opowiadała,
no przykładowo ma psa przewodnika i ma też psa, którego po prostu
ma jako zwierzę takie domowe, no i musi te psy wyprowadzić na spacer.
Natomiast już jej się zdarzyło, że została zaskoczona alarmem
przeciw właśnie lotniczym, będąc na zewnątrz.
I na szczęście się zdarzyło tak, że gdzieś w okolicy ją znalazł chłopiec,
który kiedyś już jej pomagał i ją w ogóle kojarzył z autobusu.
I wziął ją do swojego budynku razem z tymi pieskami i pozwolił jej
przeczekać ten alarm w swoim schronie.
Więc ludzie sobie w ten sposób pomagają.
Oczywiście wszelkie aktywności dla osób niewidomych zostały
gdzieś tam anulowane. Były różne jakieś kluby pływacki,
jakiś tandemowy, wszystko zostało anulowane. Na przykład basen,
na który Związek Niewidomych zabierał swoich klientów, swoich członków,
nie miał schronu przeciw właśnie bombowego, więc niestety trzeba było
całe zajęcia odwołać. Tandemy zamieniły się w spacery,
więc rzeczywiście chociaż tyle dobrego, że przychodzą wolontariusze
i tych ludzi zabierają na spacer, żeby po prostu się z nimi przejść.
I to jest naprawdę super.
No to tak, jeśli chodzi o tę stronę izraelską, natomiast dużo,
dużo gorzej wygląda to w strefie Gazy, tam gdzie to już jest Palestyna,
tam na przykład nie ma systemów ostrzegawczych o atakach,
więc ataku trzeba się po prostu spodziewać. Ta dziewczyna, która się tam wypowiadała,
ona mówi, że ona już potrafi po tylu latach odróżniać odgłosy,
które bomby są lotnicze, które bomby są morskie.
Nie wychodzi praktycznie z domu, bo nie ma dokąd i zasadniczo się bardzo
tego boi. Zakupy załatwiają jej znajomi, sąsiedzi.
Teoretycznie robią to też organizacje osób z niepełnosprawnościami,
ale czasem ciężko jest się do nich dodzwonić, bo sieci komórkowe po prostu nie działają.
Kwestia jest też problemu z dostępem do wody, bo w Palestynie,
nie wiem czy w Izraelu również, woda taka kranowa nie jest zdatna do picia,
więc oni muszą się doposażyć w tak zwaną słodką wodę.
Woda, która jest wodą pitną.
I taką wodę też dostarczają, jak się uda. Z tymi dostawami też różnie bywa.
Problem jest też taki, że to jak jest skonstruowany w ogóle system
dostarczenia wody takiej do mycia się, to działa mniej więcej tak,
że nie wiem czy z kanalizacji, czy drogą jakichś takich dostaw osobowych
napełniany jest olbrzymi zbiornik dla całego na przykład bloku mieszkalnego,
gdzieś tam na dole centralnie i pewną konstrukcją taką elektryczną
z tego zbiornika centralnego do swoich zbiorników prywatnych wodę
pobierają konkretne domostwa. Problem zaczyna się wtedy,
kiedy na przykład sieć elektryczna padnie, no to w tym momencie już,
żeby w ogóle pociągnąć wodę z centralnego zbiornika,
trzeba sobie zorganizować generator prądu.
Także jest to sytuacja bardzo mało ciekawa i na pewno wiele jeszcze
takich różnych osobliwości się dzieje w związku z tą wojną,
więc no jasne, każdy jest poszkodowany i tu też nie chodzi o to,
żeby to jakoś porcjonować i wydzielać, że ktoś gorzej, ktoś lepiej,
ale przykład osób niewidomych pokazuje jakich niecypowych rozwiązań
trzeba się imać i tak naprawdę z jakich powodów i jakie trudności
napotykają po prostu takie konkretne grupy osób, o których w tradycyjnych mediach
po prostu się nie słyszy. Także warto czasem sięgnąć i po takie historie
i jakakolwiek idealistycznie, utopijnie to brzmi, mieć nadzieję,
że to się kiedyś zakończy, no albo chociażby uspokoi na tyle,
że można będzie wrócić do względnej, względnej normalności.
To jest jedna rzecz, którą mam z newsów ze świata.
Mówiłem już też o InTouchu i a propos InToucha najnowszego.
My już kiedyś wspominaliśmy, że Wielka Brytania miała taki fantastyczny pomysł,
że jako, że już coraz więcej osób sobie kupuje bilety przez internet,
za pomocą tych kiosków samoobsługowych, przez aplikację mobilną,
no to w sumie zwłaszcza na tych mniejszych stacjach fajnie by było się pozbyć
biletowych, że w sumie to już nie są potrzebne osoby, które tam będą siedzieć
i te bilety sprzedawać. No i oczywiście wiele osób zaprotestowało,
w tym też osoby niewidome, bo nie każdy, zwłaszcza osoby gdzieś tam starsze
wśród osób niewidomych, posługuje się sprawnie technologiami
i może sobie taki bilet zorganizować swoją drogą. Ja dzisiaj miałem,
to też opowiadałem tu poza anteną, przygodę, bo kupowałem sobie
internetowo jak najbardziej bilet z Wiednia do siebie, do Polski
i z uwagi prawdopodobnie na to, jak te systemy są lub nie są połączone,
bilet mi sprzedano przez aplikację austriackich kolei jak najbardziej,
natomiast biletu tego ja nie mogłem uzyskać w formie kodu QR,
w formie cyfrowej i zostałem poproszony o to, aby ten bilet sobie wydrukować.
Jak wydrukować? Został mi wygenerowany kod, kod jak najbardziej otrzymałem
na maila, sms-em oraz w aplikacji, ale z tym kodem muszę podejść
na jakikolwiek dworzec w Austrii i wydrukować sobie bilet samodzielnie
albo prosząc o to w kasie, albo przy użyciu jednego z automatów do biletów.
Automaty do biletów oczywiście są maszynami wyposażonymi w ekrany dotykowe
i co ciekawe, jest na to stworzony pewien pomysł dla osób z dysfunkcją wzroku.
Pomysł polega na tym, że na takim automacie w brajlu napisane jest po pierwsze
numer infolinii, po drugie numer automatu. Dzwonimy na infolinię,
musimy się na niej doczekać, aż ktoś tam odbierze, podajemy numer automatu,
podajemy ten wygenerowany nam kod biletu i pracownica bądź pracownik
kolei austriackich tam na infolinii jest nam w stanie, ten automat,
jest w stanie tym automatem sterować nam zdalnie i ten bilet wydrukować.
Dlaczego my nie możemy takim automatem sterować zdalnie? Nie wiem.
To, że to jest infolinia ogólna, to też nie pomaga, bo czekamy razem
z innymi osobami załatwiającymi różne sprawy na swoją kolej,
a poczekać to sobie można jak to na takich typowych infoliniach
wiele, wiele minut, stojąc oczywiście pod tym automatem na bilety.
Więc jest to dość frustrujące doświadczenie. Na szczęście trafiłem
na bardzo sympatycznego przechodnia, który pomógł mi ten bilet wydrukować
i tak rozwiązaliśmy na dzisiaj ten problem. Natomiast domyślam się,
że jeżeli zniknęłyby tutaj takie kasy biletowe czy okienka obsługi,
no to już naprawdę byłoby strasznie. W Anglii też tak pomyśleli
i rzeczywiście protest był przewielki i odwołano tą decyzję.
I w tym momencie już te biura po prostu pozostaną.
Więc opłaca się protestować, opłaca się gdzieś tam swój głos
sprawić, by był on usłyszany. Fajnie, że organizacje osób
z dysfunkcją wzroku w taki sposób też tam funkcjonują i mają taki pogłos,
że są na tyle zorganizowane i mają na tyle dużą siłę przebicia
i potrafią się zorganizować, że taką decyzję są w stanie odwrócić.
Tak że warto się uczyć na takim przykładzie i wyciągać lekcje,
które nam również mogą posłużyć. Teraz przejdźmy może do biuletynu
Europejskiej Unii Niewidomych, który się dziś ukazał, świeżynka.
Jeszcze pachnie świeżo wydrukowanym papierem cyfrowym.
I tu dwa artykuły mnie zainteresowały. Po pierwsze Wilno, stolica Litwy.
Z okazji Dnia Białej Laski wypuścili w języku angielskim spot reklamowy
na profilu GoWilnius, czyli jakby profil zajmujący się turystyką
i promujący turystykę w Wilnie, gdzie mieszkańcy Wilna niewidomi
opowiadają o swoim mieście. Bardzo jest to skupione na tym,
że jest to miasto dźwięków, że oprócz tego, że możemy to miasto
postrzegać wzrokiem, to też wiele można postrzegać słuchem,
że odgłosy dzwonów w katedrze, odgłosy tam przejeżdżających samochodów
i tak dalej. Też kilka osób podkreśliło, że to bardzo bezpieczne miasto,
że kiedyś wracali gdzieś tam bardzo późno z klubu piechotą
i bardzo bezpiecznie się tam czuli, nic się im nie dzieje.
Wilno jest bezpieczne, warto odwiedzać. Ale co nas najbardziej interesuje,
to fakt, iż powstała trasa zwiedzania z szczegółowym przewodnikiem audio,
także z jakąś opcją też, zdaje się, dość szczegółowej nawigacji,
nie wiem, czy to jest w ramach jakiejś aplikacji mobilnej czy strony,
która pozwala nam zwiedzać północ miasta, chyba też Starówkę.
Więc gdybyście chcieli zwiedzać Wilno, to warto się tym zainteresować,
bo jest trasa zwiedzania przygotowana dla osób z dysfunkcją wzroku.
Ostatnia wiadomość też z tego biuletynu.
Coś dla osób, które jeżdżą na tandemach.
Jeżeli robicie to wyczynowo i chcielibyście się sportowo wykazać,
to jak pewnie wiecie, w przyszłym roku gospodarzem olimpiady jest Francja, jest Paryż.
To tam będą odbywały się zawody, zarówno olimpijskie, jak i paraolimpijskie.
No a też wymyślono taką inicjatywę, która miałaby zwiększyć świadomość
na temat osób z dysfunkcją wzroku, w ramach tego, że właśnie Paryż
gospodarzy tak ważnym wydarzeniem i zorganizowany zostanie,
otwarty dla wszystkich chętnych z Europy, rajd tandemowy z Lyonu do Paryża.
Będzie on trwał 3 dni, od 24 do 27 sierpnia
i będzie on okraszony różnymi wydarzeniami, właśnie zwiększającymi świadomość.
Będą różnego rodzaju spotkania, wystąpienia, koncerty.
Nie wiem, czy chyba na trasie tego rajdu.
Także można się zgłosić na przyszły rok i taką trasą z Lyonu do Paryża
sobie w ramach takiej inicjatywy przejechać.
No i to wszystko, jeśli chodzi o wieści ze świata na ten tydzień.
Ale nie wszystko, jeżeli chodzi o Twoje informacje, Pawle,
bo trochę jeszcze tu poopowiadasz i to w kwestiach tyflo.
Zanim jednak to uczynisz, to kilka wiadomości głosowych od Maćka.
Cześć Wam ponownie, Maciek się kłania nisko.
W ogóle, kurczę, co Wy mówicie, że wow, że jak się do iPada włoży kartę SIM
tudzież w tym momencie, zdaje się, zainstaluje SIM-kę,
to że nie można wysłać SMS-ów.
To jest dla mnie bardzo ciekawe.
Jeśli tak jest rzeczywiście, to jest trochę paranoja ze strony Apple’a,
no bo przecież Apple Watch, który wspiera SIM,
czyli przypomnijmy, nie wymagana jest obecność iPhona w jego pobliżu,
bo możemy sobie wytruptać na miasto bez tegoż iPhona
i normalnie jeśli iPhone jest włączony, możemy normalnie SMS-y wysyłać
i odbierać, wykonywać połączenia i je przyjmować,
więc to jest dla mnie tym bardziej dziwne,
że taki iPad nie może być takim niezależnym urządzeniem,
no ale okej, być może tak jest w sumie, ciekawa sprawa.
Ja powiem tak, do tej pory myślałem, że iPad nie dla mnie generalnie,
że to jest jednak za duże, dopóki nie zobaczyłem mini,
ale mini też nie kupię, dlaczego?
No dlatego, że jest droższy od tej podstawowej wersji z kolei,
tutaj typowe cebulactwo mi się włącza, mówiąc kolokwialnie,
prawda i no nie, to jest jednak droższe, zwłaszcza, że mam tego Maca,
który jest fajny, malutki, cieniutki, superudki, więc no też nie bardzo,
natomiast gdybym miał rzeczywiście taką potrzebę korzystania z iPada,
to na pewno byłby właśnie to iPad mini,
dlatego że no rzeczywiście jest taki fajny, malutki, na biurku się fajnie zmieści,
obok tego komputera gdzieś tam i telefonu, nawet dla takiego minimalisty,
który nie lubi mieć zbyt wielu urządzeń, no rzeczywiście taki iPad mini
by ewentualnie mógł jakieś tam swoje zadania spełniać,
a od choćby nawet właśnie tego, żeby sobie tak jak ja to mam w swoim zwyczaju,
nagrywanie wiadomości tutaj do Was, wziąć sobie iPada w jedną rękę,
chodzić sobie po całym pokoju nagrywać na tym WhatsAppie, prawda,
i nie drenowałbym w ten sposób baterii iPhona, a przypomnijmy,
że WhatsApp za niedługo na iPada również jako aplikacja się pojawi,
więc no tym bardziej by to miało swoje zastosowanie, no gdyby nie ta jego cena,
bo to jednak sobie kosztuje sporo drożej niż podstawowy większy iPad niestety,
no i co, zwłaszcza z eSIMem, zwłaszcza z celularem, z łącznością komórkową,
więc w sumie ten mini jest całkiem okej.
Jeszcze w kolejnej wiadomości nagram pewne sprostowanie odnośnie łączności,
ale to, tak jak mówię, w kolejnej będzie.
Tak, odnośnie łączności Maca, iPada itd., jeśli chodzi o usługi telekomunikacyjne,
mówiąc w skrócie, właśnie chciałem troszkę sprostować,
bo mówię na podstawie jakby doświadczeń użytkownika macOS tak naprawdę,
ale przypuszczam, że i na iPadzie to wygląda dokładnie tak samo,
mianowicie, że jeżeli wykonujemy połączenie FaceTime,
tudzież wysyłamy bądź odbieramy iMessage, no i właśnie,
odbieramy również połączenia FaceTime’a,
to niepotrzebny jest tak naprawdę ten iPhone w pobliżu,
to jeżeli wysyłamy SMS-y bądź odbieramy, wykonujemy slash,
odbieramy połączenia telefoniczne, stricte telefoniczne, nie FaceTime,
no to wtedy oczywiście iPhone jest w pobliżu wymagany itd.,
bo bez niego nic nie zrobimy, natomiast jeśli chodzi o FaceTime,
o iMessage, to tak naprawdę wystarczy nam ta sama sieć WiFi,
jeżeli rzeczywiście taki iPad nie ma tego połączenia,
znaczy z łącznością komórkową, no to rzeczywiście trzeba,
natomiast ja śmiem przypuszczać, że rzeczywiście na iPadzie wygląda
dokładnie tak samo, mało tego, telefon ładuje się w pokoju,
ja sobie siedzę gdzieś tam daleko na ogródku, a mam to WiFi,
to rzeczywiście wszystko dochodzi, więc tak jak mówię,
no tutaj tego połączenia stricte z iPhone’em mieć nie musimy,
byleby być zalogowanym tym samym kontem Apple ID na obu urządzeniach,
tu czytaj iPhone i iPad, Mac czy jeszcze inne tam urządzenia,
no i być połączeniem z tą samą siecią WiFi, FaceTime i iMessage
w jedną i drugą stronę ta komunikacja jest możliwa.
To tyle.
No i to tyle.
A właśnie, jeszcze jedna rzecz odnośnie klawiatur zewnętrznych
podpinanych czy to do iPhone’ów, czy to do iPadów, to też gdzieś tam
na to trzeba uważać, no bo fajnie, możemy sobie taką klawiaturkę podpiąć,
ale niekoniecznie każda aplikacja, każdy pole tekstowe, edycyjne
służące do wprowadzania danych, no chcę z tym polem współpracować,
niestety była sobie sytuacja na grupie dostępnej Apple,
jedna z użytkowniczek skarżyła się, że właśnie tam z którąś z aplikacji
bankowych, już teraz nie pomnę, Millenium chyba, nie, Millenium chyba,
nie mogła tam wprowadzać kłód przelewu, coś tam, tytuł chyba,
jakieś tam miała z tą aplikacją dziwne nieprzyjemności,
natomiast jak jej podpowiedziano, żeby sobie to wpisała kolokwialnie
mówiąc z palca, czyli z klawiatury ekranowej iPhona, no to wtedy jej
magicznie zadziałało i faktycznie problemem niestety okazała się być
klawiatura zewnętrzna, także na to też gdzieś tam trzeba uważać,
to też dla tych wszystkich, którzy gdzieś tam nie lubią Maca,
mają iPada, ja sobie pomyślam, dobra, klawiaturka zewnętrzna
załatwi mi sprawę, no to niestety gdzieś tam trzeba też na to mieć
wzgląd, na to jakoś tam być tego świadomym, że może coś nieprzyjemnego
w zakresie dostępności wystąpić.
I to tyle już rzeczywiście, jeżeli chodzi o wiadomości od Maćka.
W międzyczasie ja trochę pogrzebałem w sieci i jeżeli chodzi o te
przekierowywanie SMS-ów, wysyłanie SMS-ów z iPada, no to ponoć można
jakoś właśnie takie ustawić przekierowanie gdzieś tam z naszego
iPhona, żeby te SMS-y na iPada leciały, natomiast no to będzie
z naszego iPhona, to nie będzie z tej konkretnej karty SIM,
nie będą wysyłane te SMS-y, a że nie mam iPada, no to nie jestem
w stanie tego w żaden sposób w praktyce zweryfikować i wszędzie, gdzie
by nie wpisać, nie zapytać, czy można wysyłać SMS-y tak prosto
z iPada, no to niestety odpowiedź pada, że nie, a szkoda.
Ja tylko jeszcze szybko, jedną rzecz, taka próba jeszcze właśnie
z iPada i właśnie niedrenowania baterii iPhona, bo my mamy właśnie
z jakiegoś iPada rodzinnego, powiedzmy, z kartą SIM, więc tutaj
te doświadczenia z SMS-ami to było wszystko praktyczne, natomiast
jedna rzecz, a propos drenowania baterii, jedna rzecz, która może
przemówić do zakupu iPada, to jest bateria. Jeśli komuś się podoba
bateria właśnie w iPhonie Pro, czy nawet Pro Max, który w ogóle ma
jeszcze większą materię, no to iPad przy sporadycznym używaniu
spokojnie nawet może kilka dni bez ładowania wytrzymać, a jeśli go
intensywnie używamy, no to myślę, że spokojnie te 20 godzin
możemy pociągnąć.
No to rzeczywiście to akurat słuszna, Piotrze, uwaga, dzięki za nią,
a teraz nowości, nowości między innymi, ale i nie tylko w produktach
Delfina, Pawle.
Tak, tak, to prawda.
Gdzieś ci mikrofon chyba troszkę uciekł.
Tak?
O, już, już wrócił.
To dobrze wiedzieć. Tak, Delfina, czyli Guide Connect i super nowa,
no to jeżeli chodzi o Guide Connecta, na razie nie jest dostępna jeszcze
w Polsce ta aktualizacja 1.26 wersja, ale ma być i co tam dodano nowego?
Dodano wyszukiwarkę ustawień, czyli można w menu ustawień przeszukiwać
po prostu ustawienia.
Tak, no i nie trzeba chodzić wtedy po menu, wystarczy otworzyć ustawienia
i tam jest od razu na początku pole wyszukiwania.
No i opcja podglądu wydruku w erytorze dokumentów.
Są też poprawki w zakresie e-maili, powiadomień, mowy, podcastów,
wprowadzania głosowego i obsługi stron internetowych.
Jest oczywiście cała lista poprawek.
Jeżeli ktoś używa Guide Connecta, to może się z tym zapoznać.
Natomiast super nowa również w wersji 22.04 otrzymała trochę poprawek
i tutaj poprawki dotyczą kompatybilności z najnowszymi wersjami
Microsoft 365 i Mozilla Firefoxa, wsparcie dla kamery Stellar PK8
w tych trybach powiększania i wyświetlania dokumentów,
w czytniku dokumentów usprawnienia w dopinaniu stron na końcu dokumentów
i nowy ekran powitalny, który zawiera wszystkie najważniejsze skróty
zarówno w układzie desktopowym, jak i laptopowym.
Wstępne wsparcie dla czcionek webowych Web Fonts w Office 365
no i dalej również inne poprawki i usprawnienia.
No a już tak poza Dolfinowo, no to mamy też po dość długim czasie
nową wersję Twiscaka 0.17.0 i tu mamy dużo zmian, bo mamy na przykład
skakanie po skonfigurowanej ilości elementów,
Control Windows Page Up Page Down w interfejsie niewidzialnym,
a Control Page Up i Down w interfejsie widzialnym.
Oczywiście w ustawieniach można wybrać ile to ma być elementów.
Jest też opcja eksportu dowolnej zakładki, dowolnego bufora do pliku txt.
Poprawiono ładowanie innych kanałów RSS, jeżeli jeden nie potrafi się załadować.
Można odczytywać wiadomości z kanałów RSS, jeżeli nie ma opisu w nich,
można wybrać dla deskrypcji. Dodawanie i usuwanie kanałów RSS nie powinno
już zawieszać programu. W buforach domen dodano sortowanie tożsamości.
Tak, w Mastodonie, jeżeli publikujemy post, to ustawienie prywatności
Private zmieniono na Followers Only, tak żeby to było zgodne z terminologią
Mastodona. Poprawiono podglądanie podbitych postów na Mastodonie.
Można podczas załączania jakichkolwiek plików, czy zdjęć, czy plików audio
dodać opis alternatywny. Przepisano od nowa odtwarzanie audio na Mastodonie.
Tak, odtwarzane są różne zewnętrzne typy, także odtwarzane są filmiki z Mastodona,
no więc tutaj to powinno lepiej działać. Jest opcja w dołączeniu audio,
żeby nagrać bezpośrednio w Twiscaku jakieś audio, które chcemy wrzucić
na Mastodona i jest opcja też dodana w konfiguracji, żeby nagrywał w stereo,
podobnie jak tu ma Telegram. W buforze wzmianek poprawiono podglądanie
podsumowania danego posta. Spróbowano naprawić ulubione i zakładki.
Rzeczywiście mi się dublowały posty na przykład w tych buforach,
może teraz już tego nie będzie. Można podglądać i głosować w ankietach
i naprawiono błąd prawdopodobnie, gdzie w wiadomościach, jeżeli wiadomości
prywatne wysyłaliśmy, to konwersacja cała potrafiła zniknąć i po jakimś czasie
dopiero wrócić. I w podglądzie posta trochę kosmetycznych zmian,
w tym jak pokazywane są media i adresy do multimediów hostowanych
na Mastodonie są teraz częścią opcji otwórz URL. I podczas streamingu
naprawiono, odczytywano automatycznie buforów w Mastodonie.
Telegram. Długo trwający błąd został naprawiony, że niektóre linki
nie chciały się otwierać w Telegramie, bo była mowa, że potrzebna jest
nowa aplikacja, żeby otworzyć linki typu TTPS, czyli to H1 gdzieś uciekało.
Naprawiono dołączanie do kanałów z linku zaproszeniowego w Telegramie.
I to wszystko, jeśli chodzi o Twiscajka i też wszystko, jeśli chodzi o moje
nowości w programach na ten tydzień.
Ale to nie wszystko, jeżeli chodzi o nasz Tyflo Przegląd, bo mamy
Tyflo Aktualności za sobą, a mamy jeszcze Technikalia.
A w Technikaliach trochę różnych tematów jest. Na dobry początek, Piotrze.
Jesteśmy po konferencji.
Przepraszam, Michał, czy ty czytałeś moją wiadomość?
Nie, nie zauważyłem, ale w takim razie domyślam się, że chciałabyś teraz
opowiedzieć o swoim.
Tak, ja też właśnie chciałem po prostu zaproponować, że chciałbym
koleżankom dać głos najpierw.
Przed Pawłem ją wysłałam i tak się zdziwiłam, czemu nie, ale dobra.
To Paulino w takim razie, ty masz tu kilka drobnych różnych informacji,
no to słuchamy.
Zgadza się. Zacznęmy od listy 20 najbardziej lukratywnych zapytań do Google,
czyli takich, które Google’owi przynosiły najwięcej pieniędzy od użytkowników.
I te zapytania są zgromadzone w tygodniu z 21 września 2018 roku,
więc już trochę stare, ale jest to jedyna taka nasza opcja, bo tam w ramach
jakiegoś procesu Google został uznawany, nie czytałam o backgroundzie tego,
natomiast na samą tą listę się natknęłam.
Jest to taka nasza właśnie jedna z, chyba niewielu jak nie jedyna możliwość
dowiedzenia się, co Google’owi przynosi najwięcej pieniędzy z nas.
No i co tu jest? Pierwsze, co wtedy przynosiło najwięcej pieniędzy, to iPhone 8.
Dlaczego? Dlatego, że akurat on wychodził, no i każdy jakiś tam redystrybutor, reseller,
nie wiem, dystrybutor akcesoriów, sam Apple, chciał być jako pierwszy w wynikach,
no i w reklamy sporo inwestował. Później iPhone 8 Plus, później Auto Insurance,
czyli ubezpieczenie samochodu. I to jest też taka bardzo schematyczna część,
już widzimy teraz, że najczęściej to są rzeczy, które są potrzebne prawie że każdemu,
a szuka się najlepszej opcji. I wtedy właśnie reklamodawcy na takie zapytania
bardziej czuwają. Później Car Insurance, czyli prawie że to samo.
Cheap Flights, czyli tanie samoloty. Później Car Insurance Quotes, czyli jakby
oferty ubezpieczenia samochodu. Direct TV, nie wiem w sumie, czy to jest jakaś
konkretna telewizja. Tak, to jest taka zdaje się amerykańska telewizja.
Ok. Kolejna rzecz to Online Colleges, czyli jakieś uczelnie online,
czy koleże po prostu online. AT&T, też nie wiem co to.
Amerykański operator telekomunikacyjny, tak?
Tak, dostawca internetu i telefonów.
Później mamy Hulu, to jest jakaś streamingowa platforma.
Następnie po prostu iPhone, później Uber, później Spectrum, nie wiem co to może być.
Kolejny dostawca.
Comcast.
Kolejny dostawca.
Tak. Później Xfinity.
To jest chyba Comcasta jakaś usługa, jeśli dobrze pamiętam.
Później Insurance Quotes, czyli znowu to ubezpieczenie się pojawia,
ale już nie kart, tylko zwykłe.
Free Credit Reports, czyli pewnie coś jak nasz raport Big.
Cheap Car Insurance, no to znowu to nieubezpieczenie samochodu.
AARP, nie wiem co to może być.
No później to już, no LifeLog jest ostatni.
No i cóż, taka lista na pewno pomoże jakimś analitykom danych,
którzy będą designować swoje reklamy po to, żeby gdzieś tam wbijać się w te najbardziej…
Ona jest bardzo amerykańsko-centryczna.
Ale też pewnie, no nie wiem czy to było dla wszystkich regionów, czy dla samej Ameryki.
No cóż, chyba się nie dowiemy.
Natomiast kolejna rzecz to jest dosłownie, w sensie nie wiem kiedy ten drugi wyszedł,
ale Distal Whisper i Insanely Fast Whisper.
To są dwie modyfikacje modeli Whispera, które mają podobno sprawić,
że będzie ten Whisper działał szybciej.
Distal Whisper ma premierę dzisiaj i obiecuje, że będzie 6 razy szybszy niż zwykły Whisper,
45% mniejszy i…
I jeszcze tu widzę, że jest ten margines błędu.
Tak, że 1% słów.
No ciekawe, czy dla polskiego też. Coś czuję, że to się angielskiego tyczy.
Właśnie będzie to trzeba sprawdzić. Tomek mówił, że będzie to sprawdzał,
ale ja też miałam sprawdzać, no ale nie ukrywam, dzień zadłużny to jest też jednak dzień,
który się spędza z rodziną, więc gdzieś tam Distal Whisper przeszedł na dalszy plan.
A czy to działa na CPU, GPU, czy na jednym i drugim?
Znaczy to jest tylko model, a to w jaki, w ramach czego go użyjemy to już jest inna rzecz,
bo na przykład ja sobie planuję ten model wrzucić do aplikacji Whisper CPP,
którą Dawid skompilował.
A, rozumiem, w ten sposób to jest.
Wrzucić sobie go na CPU, ale podejrzewam, że można byłoby go też gdzieś tam na GPU wrzucić
w ramach jakiejś innej apki.
A to też sobie potestuję.
Tak bardzo nie znam na Whisperach, ale w sensie, no bo nie znam się,
bo nie potrzebuję jej jakoś niesamowicie, ale po prostu podrzucam,
bo wiem, że są fani i że w niektórych apkach chce się to podmieniać.
Nie wiem jak jest z basem, nie wiem jak jest z tym audio hijackiem,
pewnie z audio hijackiem jest jeszcze mniej konfigurowalnie niż z bazem,
ale no po prostu sygnalizuję.
Natomiast ten Insanely Fast Whisper mówi, że będzie w stanie w 10 minut,
jeszcze sprawdzę, że w mniej niż 10 minut będzie w stanie przetworzyć 5 godzin audio,
tylko że no co, no to jest przecież zależnie od tego jak nasze zasoby są dostępne
i jak to wszystko robimy.
I na jakim modelu oczywiście też.
Na jakim modelu.
No i cóż, obydwa te modele mają swoje collaby też na GitHubach podane,
więc można się bawić na collabach, tylko że wtedy porównanie nie będzie takie mega trafne,
dlatego że za każdym razem jak otwieramy nową sesję collaba,
to wylosują nam się nowe jakieś urządzenia i nie zawsze te urządzenia są ze sobą zbieżne parametrami.
No ale jeżeli ktoś na przykład potrzebuje jakąś jedną konkretną rzecz,
szybko przewhisperować, no to te collaby są, można sprawdzić,
które po prostu działa sprawniej, szybciej i na przykład stabilniej i tak dalej.
No po prostu sygnalizuje, że jest nowa zabawka whisperowodobna.
Kolejna rzecz to jest konferencja Positive Technologies 2023,
która będzie w Poznaniu 24 listopada.
I w ogóle ciekawostka taka nasza z niewidomym akcentem,
bo na niej gościem specjalnym będzie Michał Zegon.
Natomiast, no czyli taki niewidomy programista z Krakowa, jeżeli ktoś nie zna.
Natomiast ma ona dwie części.
Pierwsza część jest online, druga jest offline i tą część offline trzeba zapłacić ponad trzy stówy,
ale ja mówię właśnie tylko o tej online, bo według mnie wydaje ona się dość obiecująca.
Jest siedem równoległych ścieżek tematycznych.
W sumie nie wiem, czy czytać ich opisy, bo sobie tutaj wynotowałam je,
ale generalnie z nazwy tych to jest ai.data, czyli sztuczna inteligencja i dane.
Architecture by GLS, czyli architektura rozwiązań biblioteki i wzorce projektowe.
Analytics slash big data, czyli analiza i… no big data, tego się nie tłumaczy na polski.
DevOps.
Security, czyli bezpieczeństwo.
Agile, czyli podejście zwinne do zarządzania projektami.
I Scrum, czyli podejście Scrum do zarządzania projektami.
Cóż, no i na tej stronie, którą tam wrzuciłam w komentarzu w linku,
jest możliwość przejrzenia sobie programów tych po szczególnych ścieżek.
Możemy sobie po prostu bez zobowiązań wejść najpierw na coś z jednej, potem na coś z kolejnej.
Nie wiem, jak będzie z nagrywaniem tego, dlatego też będę się musiała dowiedzieć,
jak po prostu wyjdzie w pełni.
Natomiast sygnalizuję, bo widziałam tam parę ciekawych projekcji,
które sama też będę bardzo chciała się wybrać.
Oczywiście wirtualnie, bo no jednak ta część offline nie jest dla mnie aż na tyle wartościowa,
żeby te ponad 300 zł wydawać.
Kolejna rzecz to jest…
A to od razu zapytam, a gdzie będzie Michał?
Na tej online’owej będzie można posłać jakiejś jego prelekcji?
Właśnie będzie offline, jako gość specjalny.
Ale jakby to też zależy trochę od tego, bo oni mówią, że to jest online,
ale jest też możliwe, że to jest hybryda i właśnie Michał chciałby się dowiedzieć tego,
żeby to sprecyzować.
No i podejrzewam, że jeżeli to będzie jakoś…
W sensie, jeżeli to nie będzie zwykły stream, a będzie się można wypowiedzieć,
no to on też gdzieś tam będzie się wokół tego kręcił w tym dniu,
więc będzie można go może i złapać też na tych online’ach.
Kolejna rzecz to jest wirtualne muzeum internetu.
Projekt się nazywa Internet Artifacts i to jest taka strona,
na której mamy właśnie takie trochę muzeum internetu.
Na przykład tam jest pierwszy mail ze spamem,
pierwsze użycie emoticon,
no i takie bardzo historyczne anegdotki na temat tego,
kiedy coś powstało w internecie i z jakim tłem historycznym.
Fajna taka stronka, żeby sobie uświadomić, jak to było
i od kiedy już to mamy w naszej rzeczywistości nieodłączne od tego, co się dzieje.
Na co dzień.
Kolejna rzecz to jest Audio Writer i to jest usługa do…
Oni mówią, że zapisywanie myśli, ale to nie jest myśl, tylko strumień świadomości.
Ja to tak doprecyzowałam.
Generalnie chodzi o to, że mówimy sobie coś, bo mamy jakiś pomysł
i mówimy do tego Audio Writera, a on w zależności od tego,
jaki wybierzemy ton wypowiedzi, który ma być,
to on będzie to przepisywał na taki ton, jaki określiliśmy.
Mówią, że wspierają tam ponad 15 języków, ale nie doczytałam się do samej listy języków,
a też nie mam zbytnio jak tego przetestować, bo to jest chyba tylko dla Maca.
W każdym razie po prostu działa to tak, że mamy Whispera,
który przewhisperowywuje to, co mówimy.
Później jest OpenAI z czatem GPT, który ma to wszystko pozmieniać
wedle naszych kryteriów tego tonu i typu tekstu.
To, co jest ciekawe, to jest to, że musimy swój klucz API mieć,
a sama usługa też kosztuje 15 dolarów na miesiąc, więc…
Tanio nie jest.
Jakbyśmy mieli sam klucz kupować tylko pod Audio Writera,
no to by nas troszkę słonowo wyszło, jeśli chodzi o cenę.
I ostatni, mój news.
To jest rzecz na temat Qualcomm Snapdragona 8 generacji 3.
To jest procesor mobilny, który ma zadebiutować m.in. w najnowszym Samsungu Galaxy.
I on w sumie przynosi dla nas z najważniejszych rzeczy dwie.
Znaczy, no nie wiem, czy z najważniejszych, ale ja tak myślę, że najbardziej przełomowe.
Bo z jednej strony mamy Snapdragon Sound, czyli coś, co ma wywrócić do góry nogami
przesyłanie audio bezprzewodowe, bo to jest coś dużo lepszego niż Bluetooth.
Dlatego, że będzie wykorzystywał zarówno Bluetooth, jak i Wi-Fi
do tego, żeby obniżyć drastycznie opóźnienie.
Tam jest 48 milisekund, czy coś pokręciłam.
Ale nie wiem, bo tutaj wrzuciłam dużo linków i nie mam jak szybko tego sprawdzić.
Natomiast jest to gdzieś tam na pewno w tych informacjach.
Po drugie ma wykluczyć taką dużą stratność tego dźwięku, bo dane będą przechodziły po Wi-Fi,
więc po prostu będzie to dużo ładniej brzmiało.
A trzecia rzecz to jest taka, że nie będziemy tracili tak szybko zasięgu
i będziemy mogli sobie przechodzić z pokoju do pokoju na słuchawkach
i mieć cały czas audio niezależnie od tego, czy znajdziemy się tutaj, czy zaraz za ścianą,
gdzie już zacznie nam przerwać, jak to bywa w tradycyjnym Bluetoothie.
No czekam, chociaż podejrzewam, że dla mnie personalnie to Erasmus Dragon Sound
się otworzy bardzo, ale to bardzo późno, dlatego, że ja sobie umiłowałam słuchawki
zawieszane na uszach, a słuchawek zawieszanych na uszach nawet z Bluetoothem jakimś lepszym,
z aptXem, zbytnio nie ma, a co dopiero z tym Snapdragonem.
Szczególnie, że wtedy trzeba byłoby jeszcze się wyposażyć w odpowiednio obsługujący to telefon.
Chociaż to, co jest obiecujące, to jeszcze to, że bateria ma dłużej wytrzymywać.
No i jeżeli wtedy wszystkie te obietnice zostałyby spełnione, to mogłabym się przerzucać na ten interfejs,
bo na ten moment dla mnie tak personalnie, ja oczywiście nie zniechęcam do Bluetootha,
ale dla mnie co kabel to kabel, no bo jednak jak cały dzień gdzieś tam jadę i mam studia,
a potem wracam do domu i w sumie albo trzeba nawigację, albo jakiś rozkład jazdy,
albo nawet po prostu YouTuba, żeby się nie nudzić w autobusie.
I te słuchawki miałyby mi paść, albo miałyby mi, nie wiem, opóźniać cały czas na przykład echo pisania,
czy echo, w sensie czy komunikaty, które dostaję z komputera, no to przecież przez cały dzień by się człowiek zamęczył.
No, a to brzmi jednak obiecująco, no ale zobaczymy jak to będzie w praktyce,
bo w sumie też wcześniej wspominaliśmy o tym, że Qualcomm coś chce z tym zrobić,
ale teraz już mamy trochę bardziej konkretów, więcej konkretów.
Natomiast druga rzecz, którą przyniesie ta generacja trzecia, to jest naszplikowanie trochę zasobami,
które będą potrzebne do odpalania szeroko pojętej i sztucznej inteligencji,
jakieś lokalne modele byśmy mogli na telefonach odpalać, czy też jeżeli byśmy pracowali na czymś związanym ze sztuczną inteligencją,
to ma to przebiegać szybciej.
No, oni głównie mówią o jakimś tam usuwaniu teł ze zdjęć, jakiejś edycji zdjęć i tak dalej,
no głównie zdjęcia, jakieś filmy, ale podejrzewam, że te zasoby będą mogły być zagospodarowane
na jakieś inne procesy, no ale to będziemy się sukcesywnie przekonywać.
Okej, i jak rozumiem, Paulino, to wszystko od Ciebie.
Tak, to ode mnie wszystko i już się będę żegnać z Państwem, także do zobaczenia i do usłyszenia.
Do usłyszenia.
Trzymaj się.
Do usłyszenia.
Coś mnie zmęczył ten dzień i po prostu już odlatuję.
Okej, to miłego lotu w takim razie i miękkiego lądowania.
Natomiast teraz przechodzimy do tematu, który ma Piotr, a Piotr ma temat związany z Apple’em,
związany z tym, co gigant Scupertino pokazał ostatnimi czasy.
Będzie szybko i będzie drogo.
Tak, no właśnie konferencja, której nagłówkiem właśnie było Scary Fast, czyli no właśnie strasznie szybko.
Wydawało się, że było strasznie szybko w sumie, bo to z tego co czytałem była najkrótsza konferencja w historii firmy.
Nie słuchałem tej konferencji, bo to też odbywało się niestety o ósmej czasu wschodniej strefy czasowej,
więc to było u nas bodajże druga w nocy, więc jestem zagorzałym fanem Apple’a,
ale nie aż tak, żeby zrywać noc, żeby to oglądać.
Po prostu sobie później to czytałem, co zostało zaprezentowane, a co zostało zaprezentowane,
Tutaj było skupione to wszystko wyłącznie na Macach i akurat na nowej linii procesorów,
którą Apple wypuściła.
Oczywiście to jest kontynuacja ich procesorów w serii Apple Silicon,
z tym, że tym razem od razu zostały wypuszczone wszystkie trzy wersje tego procesora.
Wersja M3, M3 Pro i M3 Max.
Jak można się spodziewać, no to są po prostu coraz szybsze, coraz bardziej wypłaszczone wersje tego układu.
Zaczynając od…
Też oczywiście pojawił się nowy sprzęt, ale o tym powiem na końcu,
bo jeśli chodzi o zmiany w tym sprzęcie, to akurat one nie były aż tak duże generalnie.
Zaczynając od procesora M3, no to jego układ rdzeni się jakoś nie zmienił.
To jest ośmiordzeniowy procesor, mamy cztery rdzenie wydajne i cztery rdzenie energooszczędne,
ale oczywiście te rdzenie przyspieszyły.
W ogóle te wszystkie układy są stworzone w nowej 3-nanometrowej technologii tworzenia.
Tam mają nie pamiętam już ile miliardów tranzystorów, no więcej niż poprzednie modele,
dzięki czemu też się mniej grzeją, są bardziej energooszczędne, bardziej wydajne.
No co tutaj można powiedzieć?
Ten procesor M3, ogólnie rdzenie wydajnościowe są o 30% szybsze niż M1,
a rdzenie energooszczędne szybsze o 50%.
W porównaniu do M2, no to tam ta różnica będzie mniejsza, to jest jakieś około 20%,
więc tutaj widać, że rok w rok te procesory generalnie przyspieszają,
stają się coraz bardziej energooszczędne.
Zresztą też nowy MacBook Pro, który ma ten procesor M3,
no to nam może nawet zaoferować ponad 20 godzin działania na baterii,
więc to są już naprawdę imponujące osiągi.
Procesor, karta graficzna GPU w tym procesorze M3 jest na tej samej bazie
stworzony co GPU w procesorze A17 Pro,
czyli ten, który jest właśnie w iPhone 15 Pro.
Jak wtedy wspominaliśmy, no to jest duży schok wydajnościowy,
pojawiły się w nim technologie takie jak Ray Tracing,
czyli symulowanie tego jak światło się odbija od różnych powierzchni,
to jest ostatnio taki trend w kartach graficznych,
to jest coś, czego gracze coraz bardziej oczekują.
Jest też dynamiczne cache’owanie pamięci,
jakoś system może umiejętnie lepiej zarządzać tą pamięcią,
także kilka aplikacji, kilka zadań może karta graficzna jednocześnie wykonywać,
ta pamięć jest jakoś lepiej zarządzana.
Mamy też sprzętowe decodowanie kodeku AV1,
więc to jest znowu jakieś serwisy streamingowe, które z tego kodeku korzystają,
to się może nam przydać, dzięki temu trzy po prostu będzie
mniej energii gdzieś tam zużywać.
Ta karta graficzna jest o 65% szybsza niż M1,
więc tutaj też w porównaniu do M2 też będzie jakiś skok 23-30%.
Co tutaj jeszcze mogę powiedzieć?
No właśnie tutaj są takie po prostu zmiany wydajnościowe.
Jeśli chodzi o M3 Pro, tutaj mamy taką ciekawą sytuację,
bo zmienił się troszeczkę układ dostępnych rdzeni w porównaniu do procesora M2,
bo tutaj też mamy, to jest jednostka, która ma 12 rdzeni,
ale tak, w M2 Pro było to 8 rdzeni wydajnościowych
i 4 rdzenie energooszczędne, no i tak mieliśmy te 12 rdzeni rozłożone.
W przypadku M3 Pro układ jest po 6,
6 energooszczędnych i 6 wydajnościowych rdzeni.
Jaki to będzie miało wpływ na wydajność?
No oczywiście te wszystkie rdzenie pewnie będą bardziej wydajne,
tak samo jak to zresztą było w przypadku zwykłego M3.
Czy to będzie miało jakiś negatywny wpływ na niektóre zastosowania tego komputera?
Trudno mi powiedzieć, że też nie ma wyników tych procesorów,
ludzie dopiero te Maki gdzieś dostają do testów,
one już są dostępne w sprzedaży, więc pewnie za jakiś czas to się okaże.
Może być tak, że w niektórych przypadkach M2 będzie szybszy,
ale generalnie one, te procesory raczej przyspieszają tutaj właśnie te rdzenie wydajnościowe,
pewnie tak jak w przypadku zwykłego M3 też są o 50% szybsze w porównaniu do M1 czy M2 Pro,
więc może w ten sposób po prostu ta różnica zostanie nadrobiona.
Mamy też więcej pamięci RAM w zestawie.
To jest taka ciekawa rzecz, nigdy nie spotkałem się z komputerem z taką konfiguracją,
bo procesor M3 Pro możemy minimalnie teraz dostać w konfiguracji z 18 GB RAM, a nie 16.
I maksymalnie też jest to podobnie, zamiast 32, tak jak to było kiedyś,
to maksymalnie możemy w przypadku M3 Pro dostać 36 GB pamięci RAMu.
Co ciekawe, tutaj przepustowość transferu w tej pamięci też się minimalnie zmniejszyła,
bo w M2 Pro to było 200 GB na sekundę, tutaj jest 150,
ale tutaj doszedł ten caching, o którym mówiłem wcześniej,
więc może tutaj też Apple stwierdziło, że to nie jest problem,
można w ten sposób, możemy to nadrobić.
Te rdzeni są właśnie szybsze, więc myślę, że to wyjdzie.
Natomiast M3 Max już tutaj takiej sytuacji nie ma,
więc może po prostu chcą namówić ludzi, żeby jednak te Maxy kupowali, nie wiem.
Bo tutaj mamy po prostu ogólnie więcej rdzeni.
M2 Max miał 12 rdzeni wydajnościowych i 4 energooszczędne,
więc to było 16 rdzeniowy procesor.
A nie, przepraszam bardzo, tutaj jest tak,
tutaj mamy właśnie 12 rdzeni wydajnościowych i 4 energooszczędne,
a w M2 Max było 4 rdzenie wydajnościowe mniej,
więc tutaj mamy 4 rdzenie dodatkowe.
Tutaj też mamy zwiększoną pamięć, mamy minimalnie 36 GB pamięci RAM-u,
a nie 32, a maksymalnie 128, a nie 96.
Więc jak ktoś potrzebuje więcej RAM-u, to generalnie tutaj jest tego RAM-u więcej.
I tutaj z tego co wiem, prędkość przepustowość tego RAM-u
jest taka sama jak w M2 Max, więc tutaj nie ma problemu.
I tutaj już mieliśmy wyniki tego procesora.
I tutaj trzeba przyznać, że ten procesor jest naprawdę imponujący,
bo oto ten procesor M3 Max dostał praktycznie takie same wyniki tam
o kilka punktów procentowych, tam kilka punktów,
bo Benchmark, Geekbench, tam nie wiem,
o 10 czy tam 20 punktów mniej dostał niż procesor M2 Ultra.
A procesor Ultra to są tak jakby dwa układy M2 Max połączone ze sobą,
więc ten procesor naprawdę w porównaniu do poprzedniego roku
znacznie przyspieszył.
Wiadomo, pewnie za jakiś czas pokaże się procesor M3 Ultra,
który będzie jeszcze lepszy, to pewnie będą znów dwa M3 Maxy połączone w jeden,
ale to pokazuje, przynajmniej jeśli chodzi o ten procesor Max,
no tutaj faktycznie ten skok wydajnościowy jest widoczny
i jest on naprawdę duży.
Więc to są te nowe procesory.
No a do czego te procesory zostały włożone?
No do MacBooków generalnie.
Są MacBooki Pro.
MacBooki Pro z procesorami M3 Pro i M3 Max wyglądają generalnie tak samo
jak te z procesorami M2 Pro i Max.
Tutaj nic się zewnętrznie nie zmieniło.
Mamy taki sam ekran, takie same głośniki,
które są naprawdę bardzo dobre, taki sam mikrofon.
Natomiast zmieniło się dosyć znacznie sytuacja,
jeśli chodzi o powiedzmy tego podstawowego MacBooka Pro,
który to był 13-calowy MacBook Pro,
który miał ekran stworzony w starszej technologii.
No to MacBooki miały właśnie procesor M1 i M2
i one jeszcze miały bardzo stary, no starszy układ klawiatury,
który jeszcze miał touchbara.
Teraz ten model został tak jakby usunięty
i pojawił się MacBook Pro z procesorem M3,
taki najbardziej podstawowy,
ale on już ma cali 14 a nie 13,
więc tutaj mamy taki sam ekran jak w tych lepszych modelach.
On ma mniejsze ramki.
On generalnie wielkościowo jest bardzo podobny,
ale po prostu ten ekran może zajmować więcej miejsca,
więc wyświetla więcej rzeczy.
Nie ma touchbara, więc jak ktoś chciał właśnie MacBooka Pro
takiego bardziej podstawowego bez touchbara,
no to już można.
Też ma lepsze głośniki w porównaniu do tego starszego MacBooka Pro
z procesorem M1 i M2.
No natomiast ma też dużo lepszy wyświetlacz,
natomiast co za tym idzie niestety też cena poszła do góry.
I teraz nie pamiętam w Polsce,
ona chyba zaczyna się od 8800 złotych chyba.
Jeszcze szybko zobaczę, żeby tutaj nie skłamać.
Może ktoś tutaj szybciej tę informację znajdzie.
Tak, dokładnie 8900 złotych.
Więc tutaj ta cena troszkę poszła do góry,
natomiast jeszcze jest cały czas oczywiście dostępny MacBook Air,
który na razie procesora M3 nie dostał,
ale pewnie za jakiś czas przepuszczam, że dostanie.
Został jeszcze otwierzony iMac,
czyli to jest taki komputer stacjonarny z wbudowanym ekranem.
Jakiś czas temu Apple wypuściło 24-calowego iMaca z procesorem M1
i on właśnie po prostu został otwierzony z procesorem M3.
A poza tym nic się w tym iMacu nie zmieniło.
Ekran, inne komponenty są takie jak były.
Więc taka była konferencja.
Szybka, faktycznie strasznie szybka.
Mamy faktycznie szybsze procesory.
I szybciej gotówka z portfeli nam będzie wyciekać.
Tymczasem Maciek do nas jeszcze nagrał wiadomości.
Posłuchajmy, co ma do powiedzenia.
Ja jeszcze szybciutko na minutkę.
Nawet może mniej odnośnie iPadów.
Dobrze, że to Michale wyjaśniłeś odnośnie SMS-ów.
Trzeba to będzie jakoś przełknąć, przyjąć.
I SMS-y owszem.
iPhone w pobliżu.
Natomiast tak jak mówiłem iMessages nie.
Tylko ta sieć Wi-Fi, to samo konto Apple ID i powinno wszystko śmigać.
Na to, żeby było takie rozróżnienie, rozgraniczenie.
Zwłaszcza, że to wszystko w jednej aplikacji wiadomości się odbywa.
Więc iiMessages i SMS-y.
SMS-y iPhone w pobliżu, jeżeli w ogóle.
A chyba zdaje się, że tak.
Chyba zdaje się, że moja mama tak w ten sposób też wysyła.
Natomiast iMessages w tej samej sieci Wi-Fi.
A tutaj się nie wypowiem.
Przy połączeniu komórkowym też.
Jeśli chodzi stricte o dostęp do internetu.
Natomiast to, co jeszcze mnie w iPadzie tak trochę razi,
mając doświadczenia z iPhone’em,
to kurczę, brak tych wibracji.
Brak w ogóle jakiejkolwiek haptyki.
Nie nawigujemy sobie z VoiceOver’em.
Na iPhone jesteśmy przyzwyczajeni do tych doznań haptycznych.
Natomiast na iPadzie nie.
No i właśnie, bo jak ja sobie tak tego iPada mini testowałem wreszcie
właśnie w sklepie iMat w Krakowie,
a bardzo też polecam, bo obsługa bardzo sympatyczna,
to zwłaszcza te nowe iPady mini Air,
ich nie wiem czy podstawowe też już,
które nie mają tego przycisku Home,
no trzeba się posiłkować tymi gestami, nie?
Gestami znanymi też już z iPhone’ów,
z FaceID, prawda?
Przeciągnięci od krawędzi dolnej do górnej,
no w tym wypadku poziomej dolnej do środka ekranu,
jeśli chodzi o iPada.
Natomiast no właśnie, dźwięki są jakieś takie cichsze,
a nie ma tych doznań haptycznych, nie?
Więc nie do końca też wiem,
czy ten gest się udał czy nie.
To tak sobie jak sobie testowałem.
No jeszcze tak, no ale jednak jak jest trochę głośniej,
no to już jest większy problem.
Na iPonie nawet jak jestem sobie w jakimś większym tłumie,
powiedzmy, nie?
No to ta haptyka jednak dużo daje,
a w iPadzie tego niestety nie mamy.
Tak samo te powiadomienia, dźwięki powiadomień,
przychodzące powiadomienia, jak sobie wyciszymy,
to nie dostajemy totalnie nic,
no poza gdzieś tam komunikatem voiceover ewentualnie.
Natomiast no nie ma, nie ma, nie ma, nie ma,
nie ma wibracji na iPadzie, nie?
A z kolei jak dźwięki mamy włączone
i tych powiadomień mamy non-stop dużo,
a czegoś sobie słuchamy, coś sobie oglądamy,
no to złagodzenie dźwięku się włącza
i zero przyjemności z oglądania z kolei,
więc no to takie…
Troszkę ten iPad jest moim zdaniem problematyczny mimo wszystko.
Chociaż ta bateria rzeczywiście może,
myślałem, przemawiać na duży plus.
Jeśli chodzi o tą Apple’ową konferencję,
tak generalnie od pierwszej w nocy strasznie szybko,
jak wspomniałeś Piotrze,
no od pierwszej rzeczywiście tam, no pierwszej jeden chyba,
w każdym razie do pierwszej trzydzieści pięć, siedem,
coś takiego, no króciutko, szybciutko,
w miarę konkretniutko powiedzmy.
Ja oglądałem z przerwami,
akurat wcześniej tam sobie coś oglądałem,
jakieś tam rzeczy na VOD,
no i potem jak tam zaczęli się rozwodzić nad
tymi szczegółami technicznymi
z punktu widzenia inżynierii powiedzmy,
no to stwierdziłem, że strasznie przynudzają
i wróciłem sobie do oglądania tego,
co wcześniej z powodu konferencji przerwałem,
potem wróciłem tylko na chwilę i rzeczywiście był koniec,
więc tak, konferencja bardzo krótko.
No jeszcze może jakby to była dziewiętnasta naszego czasu polskiego,
to może rzeczywiście nawet to przynudzanie inżynieryjne
trochę się przyczyniło do, nie wiem,
jakiegokolwiek treningu angielskiego,
a tak no to wiecie, pierwsza w nocy jednak,
to zdecydowanie nie taka godzina na bełkot techniczny.
No myślałem, że będzie dłużej,
a to tak właśnie, strasznie szybko i tak.
Dzięki Maćku za te wiadomości,
a teraz kolejne wieści.
Wieści o dwóch firmach, które chcą od nas
pieniądze, bo zarówno Google,
czy teraz Alphabet, oni się nazywają, jak i Meta.
No to oni, zarówno jedni, jak i drudzy,
jedni to będą chcieli więcej, a inni będą chcieli w ogóle.
Tak, ale coraz jest taki sam, żeby reklam się pozbyć.
Dokładnie.
No bo też zacznijmy od tego, że no właśnie YouTube
ostatnio zaczął coraz bardziej agresywnie walczyć
z adblockami, jeśli korzystacie z YouTube,
a może spotkaliście się z tym zwłaszcza na komputerze,
że ludzie zaczęli różne komunikaty dostawać,
generalnie są blokady.
Na początku to są ostrzeżenia,
tam po kilku ostrzeżeniach po prostu możliwość oglądania filmów
jest nam blokowana.
Natomiast rozszerzenia blokujące reklamy,
zwłaszcza tutaj taka chyba najlepsza,
to jest uBlock Origin na Firefoxie,
zwłaszcza radzi sobie z tym najlepiej,
ale generalnie wszyscy producenci rozszerzeń
starają się nadrapiać.
Z tego co czytałem, to się zmienia tam codziennie,
są jakieś nowe skrypty wprowadzane
i muszą być szybko aktualizacje wypuszczane,
żeby z tym nadążyć.
Taką mamy sytuację kotka i myszki.
Wszystko to, żeby zachęcić ludzi,
żeby wykupić sobie abonament YouTube Premium,
który no właśnie usuwa nam reklamy,
od razu zresztą stajemy w pakiecie YouTube Music.
Niestety nie da się zakupić samego YouTube’a bez tego,
a szkoda.
Był w niektórych krajach test takiego planu,
natomiast zrezygnowano z nich kilka tygodni temu do Polski,
to niestety nigdy nie trafiło.
Daje nam to też np. otwarzenie w tle,
na urządzeniach mobilnych,
więc poniekąd jeśli ktoś słucha dużo YouTube’a,
to jest warto tego.
Ja np. to sobie wykupiłem jeszcze zanim to się zaczęło,
głównie przez aplikację na iOS.
Natomiast w tym samym czasie YouTube zrobiło coś,
co na pewno nie zachęca do zakupienia tego abonamentu,
bo zaczęło podnosić ceny
i w przeciwieństwie np. do Disneya,
który to ogłosił z miesięcznym wyprzedzeniem,
jeszcze tam wyrzucał banery typu
ostatnia szansa, jeszcze możesz kupić sobie w starej cenie.
No tutaj po prostu od pierwszego listopada ceny zostały zmienione,
więc jeśli ktoś teraz się zarejestruje,
to zapłaci nowe ceny,
a pozostali użytkownicy zapłacą je od stycznia przyszłego roku.
Więc jeśli już macie ten pakiet wykupiony,
no to jeszcze jakiś czas będziecie z niego mogli w starej cenie korzystać.
Jakie to są zmiany?
Najbardziej to czują osoby, które mają wykupiony pakiet rodzinny,
który nam daje dostęp na kilku kontach,
bo to wcześniej było 36 zł,
teraz to jest 47,
to są tam 46,99, po prostu zaokrągliwa,
no czyli tutaj mamy 11 zł różnicy.
Pakiety indywidualne, no to różnica jest trochę mniejsza,
tam jakaś różnica jest, no bo to jest 26 zł,
a kiedyś było 24,
a pakiet studencki to jest teraz 15 zł,
a kiedyś było 13.
No więc jeśli korzystacie z Adblocka i macie z tym problemy,
albo zastanawialiście się nad wykupieniem YouTube Premium,
no to teraz po prostu tak wyglądają nowe ceny.
W międzyczasie Meta, czyli właśnie firma,
która założyła takie bardzo popularne serwisy jak Facebook i Instagram,
bo na razie o tych tutaj serwisach mowa,
też wprowadziła płatny pakiet, żeby usunąć reklamy,
tylko w Unii Europejskiej, żeby dostosować się do przepisów.
Nadal możemy korzystać z tych serwisów za darmo
i cały czas gdzieś mamy preferencje dotyczące reklam,
możemy zdecydować, czy firma ma naśledzić, czy nie, w jakim stopniu,
no pewnie nawet jak wszystko powyłączamy, to tam mimo wszystko jakieś dane u nas zbierają.
Więc jeśli naprawdę chcemy pozbyć się wszystkich reklam,
no to od listopada…
Czyli tak średnio co czwartego, co piątego postu na fejsie.
No właśnie, czyli to od listopada możemy wykupić sobie abonament,
żeby reklam się pozbyć.
I co on kosztuje w przeglądarce?
To jest koszt około 10 euro, czyli jakieś 45 zł.
A jeśli zrobimy to z poziomu aplikacji mobilnej,
niezależnie, czy to jest Android czy iOS,
no to już zapłacimy euro 13,
no bo wiadomo, tutaj zarówno Apple i Google naliczają sobie prowizję,
a meta ją po prostu przełożyła na nas,
więc chyba lepiej, jeśli ktoś chce sobie to wykupić,
to po prostu wykupić sobie to w przeglądarce ze strony,
no a później to w aplikacji też zacznie działać.
To będzie działało zarówno na naszym głównym koncie
i na innych kontach, które mamy połączone.
Natomiast od lutego za takie dodatkowe konta będzie trzeba dopłacać.
Dokładnie nie wiem, o co chodzi.
To chyba nie chodzi o zarządzanie stron, czy właśnie o stronę chodzi?
Szczerze mówiąc, nie wiem, ale to nie wydaje mi się.
No nie, nic nie wiem, o jakie powiązane konta tu chodzi.
Chociaż teraz jako strona to też masz swoją jakby oś
i możesz tam oglądać różne rzeczy, więc może,
ale to czy naprawdę ktoś przegląda Facebooka jako strona?
Dziwne by to było.
Nie wiem, może tu chodzi o coś innego.
Mniej więcej jeśli o takie konta chodzi, no to od marca 2024 roku
za takie dodatkowe konta będziemy musieli dopłacać od 6 do 8 euro,
czyli różnica tam około 27 do 36 zł.
Mniej więcej tutaj nam taką możliwość zaoferowała firma Meta.
Ja powiem szczerze, z YouTube’a to ciężko by mi już było zrezygnować z premium.
Mi też.
Na Facebooka nawet nie będę się kusił, żeby to przetestować,
bo się też tego obawiam.
Chociaż akurat powiem szczerze, te reklamy Facebookowe mnie,
one aż tak bardzo nie irytują.
Natomiast to, co było na YouTube’ie i jak to wyglądało,
to po prostu, no tego bez adblocka,
a na iOS’ie no to z aplikacji to ciężko było te reklamy blokować,
no to po prostu to się nie dało.
Nie dało się YouTube’a oglądać, zwłaszcza jeżeli ktoś ma taki tryb,
że włącza sobie gdzieś tam filmy na YouTube’ie do snu.
Jakieś coś tam sobie odpalamy i żeby nam się po prostu usypiało.
Te reklamy były tak głośne i tak często się pojawiały,
było to tak irytujące, że naprawdę no tego,
z tego się już po prostu korzystać nie dało.
No dokładnie, strzeliłeś dokładnie w moje zastosowanie
i faktycznie te reklamy zawsze były o parę decybeli głośne.
Głośniejsze jeszcze to było na głośniku zewnętrznym,
więc no tam często była głośna muzyka, jakieś efekty dźwiękowe,
co fajnie wybudzało tak.
No nie, także tu, ale dajcie znać, czy na przykład chcecie
sobie przetestować fejsa bez reklam, bo to ciekawe.
Może ktoś się skusi.
Dobrze, to w takim razie teraz kolejna informacja.
Informacja o czymś, co pozwoli nam wyjrzeć przez czyjeś okno.
Tak to Pawle wpisałeś.
Tak, Windows Swap, czyli strona internetowa
windows-swap.com, na którą wchodzimy.
Ja teraz sobie na nią wejdę i tu zdaje się,
jeżeli dobrze rozumiem jak to działa,
ludzie wystawiają swoje takie livestreamy,
coś jak to z Locusonus, które kiedyś podawałem.
Tylko Locusonus się bardziej skupia,
oczywiście znajdzie się tam parę osób,
które tam prywatnie od siebie z ogródka puszczają streama,
ale tam bardziej jakby jest akcent położony na miejsca publiczne,
jakieś parki, przyrody i rezerwaty przyrody i tak dalej.
No a tu autentycznie jest slogan Windows Swap,
watch windows around the world.
No dobrze, no to mamy tu przycisk.
Open a new window somewhere in the world.
Otwórz nowe okno gdzieś na świecie.
No to gdzieś, to gdzieś.
Strona nie jest wybitnie dostępna.
To znaczy da się z niej korzystać,
ale no ani nagłówków żadnych, ani nic.
Jakieś elementy klikalne odpalają w ogóle odtwarzanie.
I teraz ja nacisnę.
O i słyszę jakieś powiew,
znaczy jakieś tło słyszę.
Ciężko mi je określić.
Chyba jest, no nic się tam nie dzieje gdziekolwiek jestem.
Dostałem też informację, że za 5 dolarów miesięcznie
o zaczęła skrzypieć jakaś podłoga.
Dostanę dostęp do całego konta,
gdzie są jakieś playlisty,
gdzie można sobie po prostu przeglądać listę w ogóle tych okien.
O, tu jakiś samochód przejeżdża.
I w ogóle przeglądać całą listę tych wszystkich,
a nie tylko otwierać sobie jakieś losowe.
No ale w wersji darmowej, losowej możemy jak najbardziej otwierać.
I gdzie ja teraz jestem?
Altenburg, Germany.
Czyli w Niemczech jesteśmy.
No i jesteśmy sobie w Niemczech
i tu jakieś odgłosy się dzieją.
Pewnie oczywiście to bardzo zależy od tego,
kto jakim sprzętem streamuje,
bo to też pewnie wygląda różnie.
To prawda.
Natomiast zastanawiam się,
próbuję dokopać się do informacji,
gdzie to jest hostowane.
Czy to jest jakiś YouTube, czy to jest jakieś Vimeo?
Z czego jest brany ten stream w ogóle?
No załadujmy sobie jeszcze jedno.
Nie, bo ten dźwięk jest raczej dobry,
takie fajne stereo.
O.
A.
Jest rzeczywiście pokazane
Leo Snowyear’s Window
i to jest jakaś ramka,
która jest osadzona.
Aha, ja to otwarłem teraz.
O, Chelyabinsk, Rosja akurat.
No, okej.
No i w ten sposób pokazana jest tu też data i godzina.
No więc można, że tak powiem,
odpalać sobie te okienka
i sobie po prostu podsłuchiwać,
co tam u ludzi słychać,
którzy coś tam chcą nam pokazać.
No więc jak lubicie sobie włączać takie ambienty,
jak lubicie sobie wyobrazić,
że gdzieś się przemieszczacie,
że podróżujecie, no to polecam,
bo to jest kolejna strona,
z której można oprócz Locusound
i Radio Apori sobie skorzystać.
A wszystko to na przykład można
nie tylko nagrać,
bo mamy nową funkcję w Audio Hijacku.
Tak, mamy nową funkcję.
Funkcja, która, no właśnie to jest,
jak widać, narzędzie,
które pozwala na nagrywanie dźwięku nie tylko.
Jak ktoś jest zainteresowany dowiedzieć się jeszcze więcej,
to odsyłam do podcastu,
który nagrałem o tej aplikacji.
No i właśnie dodano kolejną rzecz,
którą można tym hijackiem zrobić.
No to jest aplikacja, która faktycznie
gdzieś może nam zebrać dźwięk
w systemie macOS
z dowolnego miejsca, z mikrofonu,
z jakiejś aplikacji, no i coś z tym dźwiękiem zrobić.
Nagrać, wysłać na jakiś inny serwis,
po prostu utworzyć nam na słuchawkach
z różnymi efektami, może podgłośnić, ciszczyć.
No, a teraz też potrafi nam
w czasie rzeczywistym
zrobić transkrypcję.
Używając narzędzia Whisper,
które, jak wiecie, jest już naprawdę,
no to jest bardzo fajne narzędzie,
bardzo sprawdzone. Zresztą, no,
te flowpodcasty też są transkrybowane
Whisperem, no więc możemy sobie
na naszym Macu, bez wysyłania
tego na jakiś inny serwis,
w czasie rzeczywistym sobie jakiś taki
transkrypt stworzyć,
no albo właśnie czegoś, co my
nagrywamy, może przeprowadzamy z jakąś osobą
wywiad, albo może
włączyliśmy sobie jakiś film na YouTubie,
czy jakiś, który musielibyśmy przetłumaczyć,
czy jakąś inną rzecz.
No i z prostszego możemy sobie
taki klocek, właśnie transcribe
w najnowszej wersji hijacka
dodać do naszej sesji,
no i on nam po prostu tą
transkrypcję stworzy.
Oczywiście możemy sobie kilka rzeczy
skonfigurować,
możemy zdecydować, jakim modelem
ma być to tłumaczone, w aplikacji
jest oczywiście taki mniejszy model
wbudowany, natomiast w ustawieniach
tego klocka można pobrać sobie model
duży, który ma 3 giga,
więc przypuszczam, że to jest ten model large,
więc tutaj z polskim powinien sobie
bez większych problemów poradzić, wiadomo,
on nam będzie trochę pamięci
zużywał podczas pracy. Tutaj producent
też zaleca, żeby raczej
z tego modelu korzystać na
procesorach Apple Silicon, więc jak ktoś ma starszego
Maca z Intelem, no to
lepiej to po prostu zrobić
no właśnie na jakimś procesorze M1,
M2, czy nawet właśnie M3.
Możemy też sobie
zdecydować, gdzie ten klik
ma być zapisany i nawet
zdecydować, jakim formacie ma być
ten transkrypt. Oczywiście można
czas dać. No i
co ciekawe, też możemy podać nazwę
osoby, która mówi,
bo co ciekawe, ten klotek jest na tyle
mądry, że jeśli podłączymy do niego kilka
źródeł, np. jednym źródłem będzie
nasz mikrofon, a
drugim źródłem będzie jakaś aplikacja
VoIP, bo powiedzmy przeprowadzamy wywiad
z jakąś osobą i chcemy go sobie
ztranskrypować. Jeśli ponazywamy te
klocki, no to nam aplikacja fajnie
podzieli ten transkrypt na
mówców i to będzie bardzo fajnie wszystko
widoczne, no i to wszystko
po prostu będzie się działo
automatycznie.
Producent mówi, że ta
funkcja to jest na razie
wersja beta. Są jeszcze rzeczy, które
chcą zautomatyzować. Tam
nie widziałem np. opcji, żeby konkretnie ustalić
język. No Whisper potrafi ten język
wykrywać i nie ma
co większego problemu generalnie,
ale jakby ktoś chciał właśnie jakiś język
konkretnie wymusić, bo jest jakaś sytuacja,
że coś nie działa tak jak powinno, no to
fajnie byłoby
jakby to się dało ustalić.
No natomiast poza tym
działa całkiem fajnie. No dobrze, że
tutaj jest ten większy model dostępny,
no bo zwłaszcza dla innych
języków niż angielski, no fajnie
jakieś inne modele mieć.
Chwilę tu miałem okazję przetestować
przed audycją, no i po prostu
generalnie to po prostu działa.
Nic zaraźnie co ująć.
To w takim razie zanim przejdziemy do
ostatniej wiadomości z
naszego dzisiejszego spisu
tematów, posłuchajmy jeszcze jednej
wypowiedzi Maćka.
Odnośnie tej całej subskrypcji
w mecie,
czyli Facebook i Instagram, to
wydaje mi się, że właśnie
okej, no pozbywamy się reklam,
natomiast
tak czy inaczej
chyba w świetle
tych przepisów unijnych
reklamy spersonalizowane chyba tak
czy inaczej nie będą mogły być do nas kierowane.
To się w międzyczasie gdzieś tam aktualizowało,
już nie pamiętam gdzie ja to czytałem, czy na MacGrumors,
czy na iCulture. W każdym
bądź razie, że ponoć tak
czy inaczej, znaczy reklamy mogą być,
owszem, ale że tak czy inaczej one
nie mogą być spersonalizowane w tym darmowym planie.
I co jeszcze
warto dodać? Podobno
użytkownicy niepełnoletni, no
nie będą
w ogóle mieli reklam.
Będą mieli nadal
konto darmowe, nie będą obarczeni
jakąkolwiek subskrypcją,
natomiast oni
nie będą w ogóle
mieli żadnych
ponoć jakichkolwiek
reklam od tego tam
6 listopada,
któregoś tam listopada. No w każdym bądź razie
no chyba teraz
jest większa, że tak powiem
motywacja, żeby jednak się
rejestrować jako niepełnoletni, prawda?
Niepełnoletni i naciągać
rodziców na
tak zwaną subskrypcję, jeżeli
chcemy się tych reklam jakkolwiek
pozbyć, bo tu przynajmniej będzie korzyść, że tak
ty Michał, wspomniałeś, średnio co piątego
postu, tak że posta i tak nie będzie.
Ja gdzieś czytałem właśnie, że
użytkownicy niepełnoletni nie będą
mogli z tej funkcji skorzystać, a
nie, ja
tego tak nie zrozumiałem, że
po prostu nie będą
dostawali reklam.
Pewnie jakieś treści sponsorowane pewnie będą.
Ja to właśnie odebrałem tak, że
oni będą jeszcze w gorszej sytuacji,
bo nie będą mogli w ogóle sobie tego
wykupić w żaden sposób.
Może nie zobaczą
wszystkich reklam, ale coś na pewno zobaczą.
Ciekawe, bo jeżeli
to będzie tak jak ty Maćku mówisz, to ja już
widzę za chwilę
lifehacka, chcesz mieć Facebooka
bez reklam, załóż sobie nowe konto
i zarejestruj się jako tam
nastolatek.
Przez najbliższych
parę lat nie będziesz miał.
To jest mało praktyczne chyba, bo
trzeba by zmieniać te konta co kilka lat,
przekopywać znajomych.
To chyba nie jest takie rozwiązanie,
na które wiele osób by się zgodziło.
Ale Facebook zaczął ludziom
dawać prezenty na 18, a nie reklamę
dostajesz w prezencie.
To już znaczy, że zaczyna się dorosłość.
Tak jest i że trzeba płacić
albo po prostu swoim
kontem, albo
swoją kartą.
To już zależy, kto czy by chce płacić.
Jak to mówią, nie ma darmowych
obiadów.
I teraz właśnie
przechodzimy do tematu
ostatniego, tematu
też związanego z finansami,
konkretnie z danymi rachunków
bankowych. To jest ta
cała usługa tak zwanego open bankingu,
że jeden bank
może się do drugiego połączyć
w interfejsie tego banku.
Możemy wyświetlać sobie
dane z innego konta. Na podobnej
zasadzie działa portfel
Apple na razie na wyspach.
Tak, na razie na wyspach.
Brytyjskich jak najbardziej.
Bo tam Apple początkiem roku
wykupiło pewną firmę finansową
i na podstawie właśnie umów
z tą firmą rozpoczęła się
współpraca z kilkoma bankami.
Na pewno jest Barclays, na pewno jest
Starlink, który też się okazuje, że jest taki
bank w Wielkiej Brytanii. To nie tylko
internet od Elona.
I Monzo to taki fintech,
który trochę przed rewolutem wszedł na
rynek. I jeszcze
któryś tam bank.
I się okazuje, że Apple wprowadził taką
możliwość, że właśnie można do portfela
Apple podłączyć sobie nasze konto bankowe.
Co to oznacza w praktyce? Ano to,
że możemy sobie w każdej
chwili przez portfel Apple podejrzeć
stan naszego konta
oraz historię transakcji nawet tych,
których nie dokonywaliśmy Apple Pay.
No Apple
zapewnia, że przez ich serwery
nic nie idzie. Żadne nasze dane to się
wszystko odbywa na zasadzie transparentnej
bezpośrednio od
banku, w którym jesteśmy do
aplikacji portfel.
Czy zastosowania
jakieś to będzie miało oprócz tego,
że już w znajomym
interfejsie portfela będziemy mogli
to podglądać?
No nie wiem. Może
ktoś nie lubi instalować aplikacji bankowych.
A może
takie pierwsze zastosowanie, jakie mi
do głowy przychodzi to zegarek, że będziemy
mieć na zegarku jakby podgląd ile mamy
w tym momencie na koncie.
Może jakiś widget z tego się będzie dało zrobić.
Nie wiem. Ale też
podgląd
transakcji jakie się działy właśnie
na zegarku.
Może też na Macu.
Na pewno też na Macu.
Także no to mi
przychodzi do głowy. Więc taka ciekawostka na koniec
w ogóle Apple powoli zaczyna do
Apple nieśmiało wchodzić z tap to pay, czyli
zrobieniem sobie terminala
softposa z Iphona.
Już gdzieś w Holandii
siłą jakiegoś fintechu
to odpalił przy współpracy z
wordlinem. I także w Ukrainie
ponoć już jako terminal
Apple ma zacząć działać.
Więc no może i za jakiś czas
w Polsce wtedy byłby dostępny
softpos.
I to by było rzeczywiście coś.
A kiedy to będzie? No to
też w ogóle o Apple mówi się, że tam
buduje na potęgę serwery i że
w iOS 18 ma
być wprowadzone,
mają być wprowadzone jakieś
rozwiązania oparte o
sztuczną inteligencję. Dość mocno
bazujące na
telefonach i na urządzeniach
użytkownika. Bo oni
chcą pójść tą drogą, że
nie wszystko będzie wysyłane do chmury.
Pewne rzeczy będą lokalnie
rozwiązywane. No zobaczymy
jak to będzie i zobaczymy co z tego
będzie dostępne w Polsce.
Bo już gdzieś widziałem takie komentarze
o tej mitycznej
Siri, która w końcu mogłaby się
pojawić po polsku. No zobaczymy
czy prędzej Apple
zmieni nazwę swojego asystenta, czy prędzej
dostaniemy go po polsku. Słuchajcie,
króciutka wiadomość od Bartka jeszcze nam się
tu pojawiła. Cześć, tu jeszcze
raz Bartek. Orientujecie się może
czy w YouTubie można odtworzyć wideo
podczas zablokowanego
ekranu? Przyznam się,
że przeszukałem całe
ustawienia i nie znalazłem takiej opcji.
Ale może gdzieś to jest ukryte.
Jeśli
masz premium to tak.
Jak zapłacisz to
tak, możesz. Jak zapłacisz
to po prostu tak jest. To chyba się
da wyłączyć, ale z tego co pamiętam to się po prostu
automatycznie domyślnie włącza.
Dokładnie, więc
tak to wygląda. Musisz sobie
po prostu wykupić płatnego YouTube’a
no i wtedy będziesz
sobie mógł na zablokowanym ekranie
odtwarzać i naprawdę
no to jest coś co
powtórzę ciężko
by mi było już z tego zrezygnować
po jakimś czasie.
A tak w ogóle to taka ciekawostka
a propos YouTube’a
ja wiem, że
niewielu użytkowników to będzie dotyczyło,
ale jak macie konto G Suite
to nie możecie wykupić YouTube’a
w funkcji, w tej opcji rodzinnej.
O.
Tylko na Gmail’a
można sobie wykupić YouTube’a
działającego w ten sposób. A jak
mamy G Suite’a to
no to niestety, ale trzeba się
można tylko dla siebie
wykupić. W G Suite’cie były kiedyś też
problemy z asystentem Google, że to trzeba było
jakoś sobą aktywować coś
tam, więc to ludzie z głośnikami
mieli potem problemy.
No to jest ciężki gorzek do zgryzienia.
No to prawda, to prawda
czasem jakieś takie ograniczenia są, a podejrzewam,
że będzie ich więcej
i coraz więcej w związku z tym, że
no Google chyba bardzo,
ale to bardzo chce, żeby ludzie przestali
korzystać z tego G Suite’a w wersji
Legacy, a jeszcze to
cały czas jest i jest to
bezpłatne, jeżeli
ktoś nie wykorzystuje tego
komercyjnie, a po prostu chce mieć
podpiętą skrzynkę pod własną
domenę.
I takim to akcentem kończymy
207.
wydanie Tyflo Przeglądu.
Jeszcze widzę na Facebooku, to już jakiś czas temu
Dawid tam napisał, że
jego telefon, jego Blind Shell
po aktualizacji ma się dobrze,
jest zadowolony, no to
się cieszymy, pozdrawiamy cię
Dawidzie, pozdrawiamy tych wszystkich, którzy
z nami tu do piątku
wytrzymali, bo już
mamy cztery… Piątek, piąteczek, piątunio.
Mamy cztery minuty po… TGIF.
Mamy cztery minuty
po północy i kończymy
nasze dzisiejsze spotkanie z wami.
Za tydzień słyszymy się już standardowo
w środę. A czy można jeszcze chwilę, coś tam?
Ja też coś będę miał. A, okej, okej.
Bo cztery godziny minęły.
Dobra, dobra. I jeżeli cztery
godziny minęły, to ja poproszę może
o udostępnianie ekranu. Już możesz, proszę.
Już mogę? Tak. To
fajnie, to ja się tylko
przygotuję. To ja może w międzyczasie powiem
co chciałem powiedzieć, bo mam dwa bardzo szybkie
drobne newsy. Po pierwsze
pojawiła się dzisiaj informacja na
Mastodonie, że za parę tygodni pojawią
się syntezatory Cellproc na
iOS-a, więc jeśli ktoś na przykład
lubi głos polski… Pole. Pole, tak, to…
So hard.
Nie wiem, no ale
zresztą one też mają inne języki, więc
jeśli ktoś będzie chciał coś innego sobie
potestować, no to będzie taka
możliwość. A druga szybka informacja
do Whatsappa
na Windowsie, właśnie tej aplikacji
UWP. Będziemy mogli teraz
zalogować już tym nowym systemem
przez wpisanie kodu zamiast
skanowania kodu QR, no więc myślę,
że to wiele osób ucieszy. Jeszcze
czekamy na wersję na Maca, no ale
przynajmniej to już jest właśnie na tej
wersji webowej. No i teraz
też zostało to dodane do aplikacji
na Windows. Potwierdzam, ostatnio
tak się właśnie logowałem. Oj,
super. No ja mi też taki artykuł mignął gdzieś
na jednej z grupek.
To ja dwa szybkie, krótkie newsy. Freedom Scientific,
a raczej Vispero, założyło kanał
popowy do JOS-a, gdzie
będą wrzucane wszystkie nowości a propos
JOS-a.
I jeżeli pamiętacie, że kiedyś
w Austrii powstały takie buty
dla niewidomych do nawigacji,
takie przyczepiane do naszych butów, takie
InnoMake to się nazywało.
InnoMake Shoes czy InnoShoes.
Bardzo to było medialne. Było to na wielu
wystawach, w tym chyba też na Recha for the Blind.
No, to firma upadła.
To tak tylko
przekazuję. To tylko buty
zostały, bo już ta
sztuczna inteligencja
gdzieś tam działająca to podejrzewam,
że niedługo podziała.
No, chyba nie. No i
dźwięczek na koniec. Dźwięczek jak dźwięczek,
ale to takie z serii
kto pamięta, albo
kto ogarnia.
Rozpocznij to udostępnianie dźwięku z komputera
alert. Udostępnij dźwięk swojego
komputera okno. Zatrzymaj udostępnianie
przycisk.
Embrolla?
Tak, zgadza się.
Jakby ktoś chciał sobie zrobić
taki retro experience. Nie wiem, to tak jak
Michał, ale co będzie gorsze, to czy pola
cerebrogowa? Wiesz co?
Nie wiem, naprawdę.
To bardzo
trudne pytanie mi zadajesz, jeszcze
zważywszy na porę.
Czy to jest Milena Linuksowa, czy to jest inny głos?
Nie.
Nie, nie, nie.
Embrolla to była, zdaje się,
to był chyba w ogóle efekt
podłożenia
głosu. To była pierwsza synteza wykonana
przez Dominikę Oliwier.
Aaa.
Nie poznałem. Czyli Agatę.
Nie, Agata.
To jest głos Agaty
Dominika Oliwier.
Z fansoftowej,
czy też niuansowej.
Dlaczego w ogóle ta embrolla się tutaj pojawiła?
No bo
jest jeszcze jedna nowa wtyczka do NVDA
dostępna w sklepie
NVDA.
E-Speak z embrolla.
I tak jak e-speak
domyślnie w wersji NASA P5 tą
embrollę wspiera?
Tak.
NVDA-owski, no nie.
Więc pewien Brazylijczyk
stworzył wtyczkę,
bo ponoć w Brazylii dość dużą popularnością
cieszą się głosy embrolla, bo one były
używane w screenreaderach
brazylijskich i w programach typu
DOSVOX.
Ty Piotrze chyba bardziej kojarzysz, nie?
Tak, to jest takie…
Klango jakby?
No to jest takie środowisko, które
właśnie zaczynało swój żywot
w czasach DOS-a, to też w ogóle ciekawa historia jak to
powstało, ale mniej więcej to jest takie właśnie środowisko,
które miało swój klient
e-mail, swoją przeglądarkę,
jakieś różne gry, coś do
IRC-a, manager blików.
To się dało na pendrive skopiować
na przykład i mieć cały komputer
właściwie wszędzie. Znam
osobę z Brazylii, która w tym programie
90% swojego życia spędzała w latach
dwutysięcznych, więc no faktycznie. I on miał
też swój jakiś średnik ekranu
też prosty.
To jakby kogoś ciekawiło na przykład jak brzmi
taki brazylijski syntezator
z DOSVOX-a.
Może spróbuj na B.
Ale to przypadkiem
właśnie na portugal?
Nie portugalska, to była
portugalia europejska.
Tak, i to były głosy, które
domyślnie przyszły z tym pluginem, no też
Tu mamy hiszpańskie głosy.
Widać, że było to robione w czasach, kiedy mikrofony
no nie były.
Tak, to prawda. O tu mam jeszcze meksykański, hiszpański.
O i wenezuelski hiszpański.
I to w zasadzie tyle.
Ja jestem ciekaw,
czy pod tym mi się uda uruchomić głos.
Nie wiem, czy pamiętacie głos z wirtualnej Polski.
Spik.
Spik, przez i. Spik.
Spik, dokładnie.
Który działał z komunikatorem WP-Kontakt,
później rzeczywiście Spik. On też działał z wtyczką
Gadacz w PowerGG, jeżeli ktoś
używał. To jest też
Embrola, bo grzebałem w bebechach tego.
Natomiast nie udało mi się tego uruchomić,
bo to jeszcze chyba się opiera o jakiś tam
customowy serwer, więc nie mam
pojęcia, czy mi się to uda, ale
spróbuję. Jeżeli by się miało udać,
to Wam na następny raz
puszczę, jak to brzmiało kiedyś z WP,
ale nie, zobaczymy.
No, a Dosvox’a to pamiętajcie,
bo na następnym pubquizie na pewno się pojawi
pytanie o brazylijskie środowisko
dostępu komputera dla niewidomych w latach
2000.
A tymczasem jeszcze dwie wiadomości od Maćka.
Okej.
Tak, ta audycja się
never ending program.
Dobrze, zobaczmy, co
Maciek do nas jeszcze
ciekawego nagrał.
No cóż, jeśli macie
YouTube, a chcecie sobie skorzystać
chociaż w tej wersji darmowej,
chociaż z tego, że słuchacie
sobie tam czegoś, oglądacie,
a chcecie wyjść sobie
z tej aplikacji YouTube i coś tam robić,
no to picture in picture
obraz w obrazie dostępny jest,
to znaczy nie bezpośrednio u nas,
cały czas to w USA
się niby testuje, niby to jest,
no więc jeżeli się człowiek przełączy na Amerykę
za pośrednictwem
VPN-a, no to normalnie będzie sobie
można było
no właśnie korzystać z tej funkcji
picture in picture. Ja to testowałem,
rzeczywiście działa. U nas w Polsce nie,
w Europie nigdzie nie, w Ameryce
tak.
A kanały to się również pojawiły na Messengerze
tak swoją drogą, no jedna
firma, jedna stajnia meta,
Whatsapp, Messenger,
no więc i są i kanały.
Ciekaw jestem, czy ktoś z was
jakkolwiek z tym bawił i czy to jest
tak samo dostępne jak pisanie
obecnej wiadomości, czy raczej
no właśnie, jak komunikacja
stricte na Messengerze, czy jednak z kanałami
jest troszkę lepiej.
Mnie jakoś fakt obecny,
jak działa Messenger, to nie zachęca
do eksplorowania.
Ja tam patrzyłem trochę do tego interfejsu,
ale jakoś nie umiałem
tam się odnaleźć, w sensie ani
znaleźć sobie jakiegoś kanału, ani
stworzyć. Jakiś taki
dziwny ten interfejs, nie wiem.
Może za mało czasu poświęciłem.
Może, a może z czasem po prostu będzie lepiej
i tym życzeniem
żegnamy się z wami
już tak naprawdę
w dzisiejszym
207 Tyflo Przeglądzie.
Paweł Masarczyk,
Piotr Machacz, Paulina Gajoch
i mówiący te słowa
Michał Dziwisz. Dziękujemy
i do usłyszenia za niecały
tydzień. Słuchajcie, w środę się usłyszymy.
Do usłyszenia.
Trzymajcie się. Pa!

Wszystkie nagrania publikowane w serwisie www.tyflopodcast.net są dostępne na licencji CreativeCommons - Uznanie autorstwa 3.0 Polska.
Oznacza to, iż nagrania te można publikować bądź rozpowszechniać w całości lub we fragmentach na dowolnym nośniku oraz tworzyć na jego podstawie utwory Zależne, pod jedynym warunkiem podania autora oraz wyraźnego oznaczenia sposobu i zakresu modyfikacji.
Przekaż nam swoje 1,5% podatku 1,5 procent Logo FIRR Logo PFRON Logo Tyfloswiat.pl

Czym jest Tyflopodcast?

Tyflopodcast to zbiór instrukcji oraz poradników dla niewidomych lub słabowidzących użytkowników komputerów o zróżnicowanej wiedzy technicznej.

Prezentowane na tej stronie pomoce dźwiękowe wyjaśniają zarówno podstawowe problemy, jak metody ułatwienia sobie pracy poprzez korzystanie z dobrodziejstw nowoczesnych technologii. Oprócz tego, Tyflopodcast prezentuje nowinki ze świata tyfloinformatyki w formie dźwiękowych prezentacji nowoczesnych urządzeń i programów. Wiele z nich dopiero znajduje sobie miejsce na polskim rynku.

Zapraszamy do słuchania przygotowywanych przez nas audycji i życzymy dobrego odbioru!

Tematyka

Pozycjonowanie i optymalizacja stron internetowych