TyfloPrzegląd Odcinek nr 213 (wersja tekstowa)
Pobierz napisy w formacie VTT
Zapoznaj się z tekstową wersją odcinka
Fundacja Instytut Rozwoju Regionalnego prezentuje
Tyflo Podcast
13 grudnia, godzina 20 chyba 11, jak dobrze tutaj mi padaje czas
i Tyflo Przegląd.
Tyflo Przegląd dzisiaj prowadzimy w cztery osoby.
Jest Piotrek Machacz, jest Paweł Masarczyk, Michał Dziwisz i ja, czyli Tomek Bilecki.
No i oczywiście zaczynamy od tego, co dzisiaj przygotowaliśmy w Tyflo Przeglądzie i o tym jak zwykle Michał.
Ruszyła dziesiąta ankieta użytkowników czytników ekranu organizowana przez WebAIM.
Powstał mod dostępnościowy do gry Plants vs. Zombies.
Febbleverse, nowa gra o hodowaniu stworków.
Ripple’s Aliens, nowa gra inspirowana filmem obcy.
Nowa beta Crazy Party.
Duża aktualizacja Forza Motorsport.
Sklep w Hearthstone Access już działa.
Fundacja Strefa Innowacji przeprowadziła swoje badanie dotyczące stron i aplikacji mobilnych. Znamy wyniki.
Halos. Nowe dotykowe naklejki na sprzęt AGD.
Doświadczenia z Voizvista.
Okulary Celest dostaną asystenta opartego o GPT.
Wszystkie przystanki autobusowe w Vancouverze dostały napisy w brajlu.
ReHotkey, narzędzie poprawiające dostępność kilku popularnych wtyczek audio.
Nowości w TalkBacku.
Frec od 14 grudnia w Europie.
Poprawki dostępności w LiveATC.
Pozycjonowanie twarzy w kamerze dostępne jako dodatek dla NVDA.
ChatGPT napisał skrypt ułatwiający przeglądanie dużych archiwów WhatsApp.
Poppeeper, bardzo prosty, ale dostępny klient poczty elektronicznej.
Nowa wersja beki, z ważną poprawką.
Google nie chce pozostać w tyle za OpenAI i wydaje nowy, lepszy model sztucznej inteligencji.
Wszystko to, a pewnie jeszcze więcej, już za chwilę. Zaczynamy!
Zaczynamy i przypominam, jesteśmy na żywo, więc możecie się z nami kontaktować,
A tych sposobów kontaktu jest kilka, m.in. możecie do nas dzwonić albo nagrywać się na Whatsappie, do czego zachęcamy bardzo serdecznie.
663-883-600, 663-883-600, to jest nasz numer telefonu, już od teraz do waszej dyspozycji.
Jesteśmy też na YouTubie, na Facebooku, tam możecie pisać komentarze, z poziomu naszych aplikacji na Windowsa i iOSa pisać możecie również.
i oczywiście nasz panel kontaktowy kontakt.
tyflopodcast.net także jest do waszej dyspozycji.
A teraz już przechodzimy do newsów i zaczynamy od małej serii chyba dwóch.
Jak dobrze tutaj patrzę w notatki.
Wieści ze świata od Pawła.
Już urosło do czterech, ale to dlatego, że ja w ostatniej chwili jeszcze wrzuciłem
rzeczy, ale to nic.
Po pierwsze tu jest inicjatywa, do której możecie się włączyć.
czyli ankieta Europejskiej Unii Niewidomych i ich grupy roboczej zajmującej się brajlem.
A propos monitorów brajlowskich, czy jej używacie, jak ich używacie, z czym ich używacie, w jakim celu.
Taka ankieta składająca się z, o ile tu dobrze patrzę, 27 pytań, to jest normalnie formularz Google.
On jest dostępny w języku angielskim, też są wersje w języku niemieckim, francuskim i zdaje
się czeskim. Ja udostępniłem tą angielską, bo pewnie taka będzie największą ilość osób
interesować, skoro polskiego nie ma.
No i tutaj chyba celem tej ankiety jest to, żeby jakoś ocenić sytuację jak w Europie, ale
nie tylko, ale na całym świecie.
Używane są monitory brailowskie i czy coś by nie wypadało z tym fantem zrobić, że tak mało.
Jeżeli tak wyjdzie. Pewnie wyjdzie, tak się obawiam.
No i co my tu mamy? Możemy przejrzeć szybko te pytania.
Z jakiego pochodzisz kraju? Czy używasz monitora brajlowskiego?
Jeśli nie, to dlaczego?
Których monitorów brajlowskich używasz?
Można wpisać modele i też gdzie ich używamy, czy w pracy, czy w szkole, czy
prywatnie i tak dalej.
Ile komórek brajlowskich posiada monitor brajlowski lub notatnik, który posiadasz?
Jeżeli używasz kilku, to ten największy oczywiście się liczy.
Jak używasz monitora Brailowskiego, czyli czy na komputerze, czy na smartfonie, czy na
tablecie, czy jeszcze jakoś, czy jako urządzenie samodzielne i do czego używasz
monitora? No i tutaj mamy różne opcje, tam czytanie książek, gazet, sterowanie
komputerem i tak dalej.
Czy używasz monitora Brailowskiego podczas prezentowania czegoś, publiczności,
jakieś przedstawienia prezentacji.
Kiedy zacząłeś, zacząłeś używać monitora?
Jakie otrzymałeś szkolenie w tym zakresie?
Jak często używasz?
Których funkcji, które funkcje monitora brajlowskiego są dla ciebie najważniejsze?
Jakie
rodzaje brajla,
jakie wzorce brajlowskie preferujesz na monitorze?
Tu mamy do wyboru komputerowy Braille 8-punktowy, 6-punktowy i to samo do pisania, bo to czytania i do pisania i nie używam monitora Braillowskiego, żeby na nim pisać.
Które funkcje w połączeniu z czytnikiem ekranu, twoim zdaniem, powinny się na monitorach braille’owskich poprawić?
Jakie funkcje chcesz, aby były poprawione w połączeniu z iPhone’em, z voice-overem?
Bo to przedtem było pytanie o czytniki komputerowe.
poprawę jakich funkcji chcesz w połączeniu z Androidem i to samo w urządzeniach samodzielnych, jakich poprawek sobie życzysz, czy coś jeszcze, o czymś jeszcze chcesz nam powiedzieć.
No i to jest cała taka ankieta, czyli tak 18 pytań, nie 27.
Trochę jest do pisania.
Można się teraz wspomóc czatem GPT, tłumaczami, wszystkim dostępnym, jeżeli
chcecie takie odpowiedzi udzielić, a myślę, że warto, bo powstanie z tego
prawdopodobnie albo jakaś publikacja, albo jakaś odezwa, albo jakieś dalsze
działania, kampanie itd., więc warto się zawsze w takim czymś wypowiedzieć.
Teraz Szwajcaria. Przenosimy się do Szwajcarii i no w Szwajcarii pojawiły się przeróżne ciekawe udogodnienia,
bo po pierwsze weszła taka, nie wiem czy to kwestia jakiejś ustawy, uchwały, jakiegoś innego środka prawnego,
że dofinansowania, czyli to co tam się dzieje w ramach ubezpieczenia osób z niepełnosprawnością,
Domyślam się, że to jest takie ubezpieczenie, które też zapewnia właśnie komputery, tablety, smartfony itd.
Mają one też obejmować dofinansowanie sprzętów dostępnych AGD przy przeprowadzce.
No i tu były podane konkretne warunki, czyli przede wszystkim musimy udowodnić,
że próbowaliśmy sprzęty, które w nowym mieszkaniu odziedziczyliśmy po właścicielu
czy też zostały nam wynajęte przez właściciela, że próbowaliśmy samodzielnie je
dostosować do naszych potrzeb i się to nie udało, że będą to sprzęty, których
będziemy często używać i tam jeszcze jakieś inne wymogi są.
Natomiast takie sprzęty właśnie AGD, jeżeli będzie taka konieczność, że się
wprowadzamy do nowego mieszkania i tamte sprzęty, które dostaliśmy nie są dostępne,
no to pokryte zostaną koszty wymiany takich sprzętów.
Fajnie, że jakiś krok został poczyniony.
Jest to super, bo problem istnieje i jak najbardziej ja niedługo będę gdzieś tam stał przed jakimś wynajmem mieszkania i szczerze mówiąc trochę drżę o to, co zostanę na miejscu.
Czy to będą, czy z pralką sobie poradzę, czy z jakimś tam mikrofalówką sobie poradzę, czy z czym innym sobie poradzę i tak dalej.
także zmywarka, no także fajnie by było, ale niekoniecznie musi tak być, także no pożyjemy, zobaczymy.
Natomiast gdybym był w Szwajcarii, to wiem, że martwić bym się nie musiał, bo mogę mieć dofinansowaną wymianę tego typu różnych różnych urządzeń.
No i też wiadomość, która jest na pewno uciechą dla członków Związku Niewidomych w Szwajcarii.
Można ubiegać się o bony na 12 w ciągu roku, czyli no tak wypada średnio 1 na miesiąc.
Dostawę zakupów z jednej z sieci tamtejszych supermarketów, czyli Coop, o minimalnej wartości 99 franków szwajcarskich za darmo, czyli za dostawę nie płacimy nic.
No bardzo fajne wieści.
ze Szwajcarii, a teraz przenosimy się do Francji. Tam też dwie ciekawostki.
Po pierwsze ruszyło tak zwane Fab Lab, czyli laboratorium takie, w którym,
warsztat, w którym można tworzyć rzeczy właśnie z druku 3D, z różnych sklejek,
z jakichś tam przez obróbkę i ścinkę płyty winylowej, no różne takie rzeczy,
gdzie można konstruować też jakieś sprzęty i tak dalej dostosowane do potrzeb osób z
niepełnosprawnością wzroku i to w jednym z francuskich miast sobie funkcjonuje.
Trzeba tam wpłacić opłatę członkowską.
Pierwsza wizyta jest za darmo, natomiast potem już w ramach opłaty członkowskiej można
korzystać, ale tam w zależności od tego jak mocno zużywamy im tam materiały, no to
będziemy ponosili takie koszty.
Są tam też wolontariusze, którzy pomagają w obsłudze tych sprzętów i w tym wszystkim.
Także no nic tylko przychodzić i korzystać.
Oczywiście jak się jest we Francji wiadomo.
Można na stronie Tacti Labu, bo tak nazywa się to laboratorium, zapoznać się z tym jakie tam w ogóle
materiały są dostępne, jakie powstały projekty, na jakich zasadach można przystąpić i tak dalej.
Bardzo ciekawa przestrzeń.
No fajnie gdyby coś takiego też w Polsce kiedyś powstało.
No i na koniec, Francuzi również radzą sobie jakoś z kartami płatniczymi, a konkretnie z terminalami płatniczymi dotykowymi,
no bo się okazuje, że jedna z firm, Idemia, stworzyła tam karty na odcisk linii papilarnych,
znaczy na odstrzytnikie linii papilarnych na odcisk palca.
Także zamiast podawać PIN, no dajemy odcisk palca i wkładziemy nasz palec i to już jest ta autoryzacja,
która też działa przy tych wyższych kwotach niż te przy płatnościach
zbliżeniowych. Także to jest pomysł na ten moment.
Może powstaną też inne.
Jeden z francuski na terminale z dotykowymi pinpadami.
No i to wszystko w tym tygodniu jeśli chodzi o wieści ze świata ale Piotrze
ty też byś chciał się dołożyć do swoich.
Dokładnie tutaj informacja która miała być w drobnych newsach ale że Paweł
też przygotował trochę informacji ze świata to wydaje mi się że to tutaj
pasuje lepiej, mianowicie informacja z Kanady, więc teraz przenosimy się do Ameryki Północnej,
gdzie w dystrykcie Metro Vancouver firma TransLink, która zarządza komunikacją
autobusową w tym dystrykcie, ogłosiła, że zakończyli instalowanie tablic brajlowskich
na wszystkich 8000 ponad przystanków, które są w tym regionie.
No to jest prawie trzy tysiące kilometrów kwadratowych.
ja sobie sprawdziłem w międzyczasie jak to jest duży obszar, no dosyć spory, to trwało dwa lata, no ale udało się to wszystko zakończyć.
No i dzięki temu, jeśli będziecie w tym miejscu, no to na każdym przystanku właśnie w tym obszarze Wankuwera znajdziecie informacje zarówno w brajlu tym najnowszym UEB, Unified English Braille,
czyli to jest taki najbardziej międzynarodowy brail, nie jest tutaj
powiedziane czy to jest brail skrótowy czy nie.
Mniej więcej będą informacje w brailu oraz w półku Czarnodrugu i znajdziemy
na nich informacje o numerze przystanku, o tym jakie autobusy na ten
przystanek dojeżdżają oraz informacje z numerem telefonu do informacji
właśnie więc jeśli chcielibyśmy się coś dopytać nie mamy akurat smartfona
albo coś tam nie działa, no to będziemy też wiedzieć, gdzie zadzwonić i dodatkowo też zostały w tych miejscach, gdzie firma Translink była właścicielem obszaru, na którym jest ten przystanek,
zostały zainstalowane ścieżki prowadzące, więc będziemy mogli łatwo sobie znaleźć ten przystanek, no i później, kiedy autobus podjedzie, do niego w łatwy sposób sobie podejść.
A tymczasem mamy pierwszy dziś telefon. Kto jest z nami? Kogo witamy po drugiej stronie? Witaj Sylwester.
Słuchamy.
Ja mam ten właśnie, tydzień temu dzwoniłem w sprawie tego telefonu, w sprawie tej linijki.
I mój brat jeden i drugi sprawdził ten telefon. Niestety system jest uszkodzony.
i prawdopodobnie albo do wyrzucenia, bo jeden nosił do serwisu takiego najbliższego. Powiedzieli, że paręset złotych trzeba będzie na te oprogramowanie, to ja pewnie wyrzucę ten telefon.
Ja bym mimo wszystko jednak spróbował się na Twoim miejscu jeszcze skontaktować z Lumenem, bo to oni sprzedają Blind Shella i być może, być może tutaj jeszcze uzyskałbyś jakąś dodatkową diagnozę, może okazałoby się, że coś da się zrobić taniej, no bo tak naprawdę taki serwis telefonów, który się zajmuje wszystkimi modelami.
Nie, telefonami, głównie telefonami.
No tak, tak, tak, ale to oni się zajmują takimi telefonami z rynku masowego, więc to są wszelkiego rodzaju smartfony, a ten blindshell to jest dla nich, no powiem szczerze, jakieś wyzwanie, bo oni takich urządzeń nie dostają na co dzień, więc być może tu jest też po prostu kwestia taka, że oni za w ogóle podjęcie się tego tematu zażyczą sobie większej kwoty,
Bo dla nich to jest coś, z czym będą musieli się jakoś tam dodatkowo zmierzyć,
a być może na przykład właśnie polski dystrybutor już ma tę ścieżkę przetartą
i będzie w stanie Ci jakoś pomóc.
To taka moja sugestia po prostu, żeby jednak jeszcze tę metodę wypróbować.
Tak jest.
No, bo linijki to ja nie wiem, gdzie to szukać po prostu.
No takiej taniej linijki, takiej taniej linijki to niestety…
czuł te kropki wszystkie, bo ja czasem zapisuję różne rzeczy.
Jasne, no takiej taniej linijki za 4000 zł to obawiam się, że niestety nie znajdziesz, przynajmniej nowej oczywiście.
Ewentualnie, co mógłbym podpowiedzieć, to może rozglądanie się na jakichś grupach facebookowych albo w innych miejscach tego typu,
Może ktoś będzie chciał sprzedać linijkę za jakieś niewielkie pieniądze.
No to jest jeszcze jakaś metoda.
Tak, tak. Ja złożyłem na wszystko dofinansowanie i niestety mi tylko przyznano 90 tysięcy.
Rozumiem. Na wszystko. Na sprzęt brajlowski.
Tak, ogólnie jeszcze ja złożyłem.
Jasne. No cóż, no niestety wiele więcej tu nie będziemy w stanie pomóc.
A jeszcze taką ciekawostkę, bo taka audycja słyszę, że o świecie i o Europie, czyli nie dałoby się podzielić informacji o Europie osobno, o Azji, Ameryce osobno.
Jest takich mnóstwo ciekawych rzeczy.
Znaczy my nie zawsze mamy aż tak szeroką paletę i to jest to, że na przykład dzisiaj…
Właśnie co mogłoby podzielić, co z Europy, co z Ameryki Ogólnej i co z Azji na przykład.
Tak, tylko nie zawsze mamy tego tyle, wiesz? To jest to, że na przykład dzisiaj…
Tak, ale można by było podzielić.
Mówisz o tym, że jeżeli mamy, to żeby to podzielić, znaczy żeby nie skakać po całym świecie,
tylko próbować te informacje regionami po prostu, o ile takiego mamy.
Na przykład Europa, Ameryka i Azja, ewentualnie jak jest coś.
Coś takiego można zrobić.
No w sumie jak jest tam Afryka, to Afryki to jest najmniej.
O ile oczywiście będą.
No właśnie, dokładnie.
Żeby to się nie mieszało z jedno z drugim.
Mhm. Ok.
To bardzo ciekawie wygląda.
No staramy się znaleźć takie jak w świętach.
No to tyle na razie.
Okej, to dzięki Sylwestrze w takim razie za telefon.
Pozdrawiamy cię bardzo serdecznie i do usłyszenia.
Dzięki, że do nas zadzwoniłeś.
Natomiast to nie jest wszystko, bo mamy jeszcze wypowiedź
od naszego kolejnego słuchacza.
Tym razem to jest wypowiedź na Whatsappie.
A nagrał się do nas w jakiejś sprawie Mateusz.
w jakiej? Posłuchajmy.
Witajcie. Mam pytanko
odnośnie
keyboardów.
Mianowicie używam
teraz keyboardu
Rolanda. Zdarza mi się
czasami grać z użyciem
podkładów, które
mam nagrane na
pendrive’ie. Tylko no właśnie
problem jest w tym, że ja
nie jestem w stanie sobie przeczytać
Jaki podkład mam obecnie zaznaczony na ekranie?
Czy istnieje coś takiego jak dostępny keyboard dla niewidomych, którym moglibyśmy sterować, nie wiem, czy używając iPhone’a, iPad’a czy Mac’a?
Z góry dzięki za odpowiedź i pozdrawiam.
Podejrzewam, że pytanie pewnie do mnie, ale może ktoś jeszcze coś zna, to znaczy tak, ja niestety nie znam nic takiego konkretnego, jeżeli chodzi o kibordy, dlatego że w zasadzie nikt się nie zajmuje dostępnością, to znaczy inaczej, podobno Yamaha zrobiła jakąś taką podstawową dostępność w takim modelu Genos, tylko że Genos, tudzież dżenos, nie wiem, no Genos na pewno się pisze, tak?
jest flagowym keyboardem Yamahy, w związku z powyższym jest drogi, niesamowicie drogi, teraz wyszła dwójka Genosa, kosztuje chyba 22 tys. zł, coś koło tego, w związku z czym pieniądze są to naprawdę duże.
Żaden keyboard Rolanda, o ile mi wiadomo, w ogóle Roland się wycofuje z keyboardów, natomiast nawet jak je miał, to zdaje się, że nawet połowy tej sumy to nie kosztowały i o ile mi wiadomo, takiego czegoś nikt nie ma.
W związku z powyższym pozostaje albo spróbować zaprząc do tego jakiś program typu BIM, Sync.ai na przykład, albo innej, nie wiem, Envision, i najlepiej, tak mi się przynajmniej wydaje, skorzystać z jakiegoś statywu, nie wiem gdzie taki statyw kupić, ale pewnie gdzieś można.
Możliwe, że w sklepach typu akcesoria fotowideo, statyw taki na iPhone’a.
Pytanie, czy nawet jakiś zwykły selfie stick by nie wystarczył, taki o jakim mówiłem, bo on też jest w formie takiego statywu na takim trójnogu, gdzie ten telefon sobie montujemy, tylko no tu jest kwestia po prostu jego jakiejś takiej stabilności.
bo sporo tych selfie sticków to się trzyma w ręce, tak jakby one są zaprojektowane do takiego chyba użycia, o ile mi wiadomo, ale może i nie.
W każdym razie, jeżeli są takie, które można postawić gdzieś sobie tam na stole, to pewnie by ogarnęły tego.
Tak, to właśnie, właśnie ten mój to jest po prostu taki, który możesz sobie złapać oczywiście w rękę, jak złożysz ten trójnóg, to jest po prostu taki pałąk, który możesz sobie trzymać.
Natomiast możesz jakby części tego pałąka sobie rozłożyć i ma takie nóżki.
Nie sprawia to wrażenie najstabilniejszej rzeczy na świecie.
I dość łatwo to gdzieś tam potrącić, ale jakoś tam stoi na tym biurku.
Ja bym poszukał właśnie albo czegoś takiego ewentualnie w tych sklepach akcesoriów fotowych,
bo tam są najróżniejsze statywy.
Kiedyś widziałem statyw do aparatu, to był też rok 2003 czy 2004, więc to było, o Jezu, jak to dawno, i to był statyw, który pozwalał na przymocowanie aparatu do gałęzi, więc on miał takie trzy nóżki z wieloma przegubami, które można było wyciąć niemalże pod dowolnym kątem i je niemalże związać na supeł.
No i właśnie chodziło o to, żeby je przymocować do trzech różnych punktów w absolutnie dziwnych miejscach czasami.
Natomiast możliwe, że są takie rzeczy, które na przykład można by przymocować do statywu tego kiborda.
Widzę tu taki problem, że często te wyświetlacze kibordów pokazują kilka linii.
Więc one na przykład wyświetlą Ci 5 podkładów albo więcej, w tym ten który chcesz to będzie miał jakiś tam inny kolor powiedzmy.
Więc tutaj chyba trzeba będzie coś metodą prób i błędów i ustawić tak jeszcze ten iPhone, żeby rzeczywiście pokazywał raczej wyświetlacz i niezbyt wiele poza tym.
Natomiast nie znam żadnego keyboarda, który byłby właśnie w taki sposób obsługiwany.
Jedyne co mi teraz przychodzi do głowy to połączenie tego z jakimś, no na pewno na komputery PC są takie rozwiązania, czyli no pliki MIDI i po prostu, a nie bo to chodzi o granie z czymś takim, no to byłby chyba pro.
A nie, jak to są podkłady, to są w sensie pliki midi, więc no co najwyżej jakiś, jakiś odtwarzacz, no ale to by trzeba całego laptopa zabierać, to też nie każdemu się, nie każdy może coś takiego zrobić, no ale to nawet w stylu Winamp by pewnie wystarczył.
Dokładnie, i wtedy np. jeżeli rzeczywiście, no bo ja też tak się domyślam, że to nie chodzi tak do końca o samo odpalenie tego podkładu, no bo gdyby o to chodziło, to by nie było tu problemu, natomiast też chodzi o granie, to trzeba by sobie podejrzewam wtedy jakoś to tak zsynchronizować, że np. pewne partie są odgrywane rzeczywiście z tego midi z Winamp, a tam powiedzmy jakąś linię melodyczną się dogrywa z ławy.
Znaczy akurat z tym to nie ma problemu, bo to zazwyczaj to może tak działać, no tylko rzeczywiście to by trzeba jakoś to spiąć, no i ten komputer trzeba by zabrać i podejrzewam, tu nagle się nam robi trochę więcej sprzętu do zabrania.
Natomiast nie kojarzę żadnego keyboarda, który byłby jakoś fajnie dostępny i w którym można by to było wszystko fajnie sobie przeczytać.
Także no tylko takie pośrednie tutaj widzę sposoby na osiągnięcie czegoś takiego.
Ale może o czymś nie wiem.
Może ktoś z naszych słuchaczy coś podpowie, może ktoś z praktyki zna jakieś rozwiązania, zapraszamy.
Bardzo możliwe, bo ja akurat w takich keyboardach domowych w aranżerach, no to mam mimo wszystko dość słabe rozeznanie, bo ja raczej korzystam z syntazatorów, zwłaszcza takich programowych niż sprzętowych, a tym bardziej takich właśnie aranżerów,
bo mam zupełnie inną specyfikę pracy ze stworzeniem muzyki, więc jest realna szansa, że mogę o czymś nie wiedzieć w tym temacie.
Co? Chyba został jeszcze jeden ze świata o Taktilabie.
Chyba, to już Paweł mówił o tym, ale to coś przeoczyłem.
To w takim razie Piotrek następny news tutaj ma wpisany, który dotyczy nowych wersji systemów Apple, które są dostępne już publicznie.
Dokładnie, są to wersje .2, bo to jest iOS 17.2, macOS 14.2, watchOS 10.2, nie pamiętam teraz na czym jest tvOS, ale tam też jest nowa wersja mniej więcej.
O co, o co w tych wersjach chodzi, no poniekąd czasami wspomnialiśmy o tym, co się działo w tych wersjach beta, bo działo się dużo dobrego generalnie, no na przykład możliwość zmiany dźwięku na iPhone’ie, ale to nie jedyna nowość, myślę, że sobie po prostu pójdziemy, no może nie chronologicznie, ale po prostu zaczniemy od iOS-a, bo akurat tak to zostało, tak to mam wklejone, no i jeśli chodzi o to, co się zmieniło, no pojawiła się funkcja, która już była zapowiadana w czerwcu na konferencji WWDC, kiedy iOS się rewizowała,
się ukazywał, niestety ona została przekładana, a mianowicie jest to aplikacja Dziennik, czyli to jest narzędzie, które pozwala nam prowadzić taki dziennik. Zarówno w wersji tekstowej możemy sobie do niego wpisać, jak i możemy też nagrywać, więc jeśli ktoś chce sobie taki dziennik audio otworzyć, no to też można. System nam będzie…
I ta jakość chyba nawet nie jest najgorsza, z tego co patrzyłem.
Tak, bo to jest…
Nie wiem co tam dokładnie siedzi, bo nie próbowałem tego w ogóle sprawdzać w jakikolwiek sposób, ale…
Powinieneś czytać tyktafon zwykły, nagrywa, więc tam jakieś lekkie przetwarzanie jest, ale…
384 czy coś, ale nie słucha się tego źle.
Mniej więcej też system nam może zaproponować codziennie, żeby taki wpis zrobić, też jeśli korzystamy z usług Apple,
takich jak Apple Music, czy jeśli mamy muzyka na telefonie lub mamy Apple Watcha i zrobiliśmy np. sobie jakiś trening,
no to system nam może zaproponować albo zrobiliśmy jakieś zdjęcia,
o, byłeś na wakacjach, może wyrzuć jakiś, sobie dodaj jakiś wpis,
albo co myślisz o tej piosence, jeśli słuchamy jakiejś piosenki wiele razy, wesołej albo smutnej.
Albo w ogóle jakiś temat jest nam w stanie zaproponować tego naszego wpisu,
powiedzmy, co myślisz o tym, czy jakieś takie dziwne, dziwne te tematy były, które proponował
jakiś podziel się myślami, coś, niektóre to są takie już w ogóle, a to może na początek tylko,
bo jeszcze nie wie o co nam chodzi w życiu i być może tak proponuje, bo coś.
Tak, no pewnie im więcej będziemy tego korzystać, tym więcej będzie o nas wiedzieć.
No mniej więcej aplikacja jest na razie tylko na iPhone’ie, więc na iPad’ie ani na Mac’u
na razie jej nie ma, może kiedyś się pojawi, no ale mniej więcej można teraz
sobie ją przetestować i jej używać.
No właśnie tutaj mamy wymienione co to aplikacja robi, ja to już opisaliśmy.
Dla tych, którzy mają iPhone’a 15 Pro z tym nowym przyciskiem akcji, pojawiła się
nowa funkcja, którą możemy sobie do tego przycisku przepisać, mianowicie możemy
sobie szybko włączyć tłumacza, więc jeśli jesteśmy na wakacjach w innym kraju i
często korzystamy z tej funkcji, no to możemy sobie na czas wakacji na przykład
to zmienić i przypisać sobie ten przycisk, no i wtedy będziemy mieli
bardzo łatwy dostęp do
do tej aplikacji.
Kolejna nowość dla iPhone’a 15 Pro i Pro Max
nagrywanie filmów przestrzennych, czyli to jest to, co będzie właściwie przydatne dla
nas później, jeśli kiedyś kupimy sobie ten nowy headset Vision Pro,
bo takie filmy możemy sobie na iPhone nagrywać w 360 stopni, ale z otwarzaniem już jest troszeczkę trudniej.
Musimy je sobie właśnie na tym Vision Pro czy tam w symulatorze otwarzać.
Też są jakieś konwertery, więc można sobie na przykład jak ktoś ma jakiegoś MetaQuesta czy jakiś inny headset,
to w wirtualnej rzeczywistości ponoć można to jakoś skonwertować czy mniej więcej.
W końcu to też było obiecywane, no i została funkcja dodana.
Możemy sobie takie filmy nagrywać.
Niestety nie znalazłem nigdzie informacji, czy to nagrywa jakoś lepszy dźwięk, tutaj rozmawialiśmy, czy może jakiś ambisonik, czyli taki też dźwięk przestrzenny będzie dodany.
Niestety chyba na razie nic takiego nie ma, bo przynajmniej nikt o tym nie napisał, a szkoda.
W wiadomościach mamy łatwy przycisk, żeby przeskoczyć do pierwszej nieprzeczytanej wiadomości.
w konwersacji, jeśli dawno nie zaglądaliśmy do jakiejś konwersacji.
Też są zmiany związane z naklejkami, z emoji i weryfikacja kontaktów.
Jeśli jesteśmy w jakiejś sytuacji, gdzie
nasza cyfrowa tożsamość może być zagrożona, to tak jak w takich aplikacjach
Signal na przykład możemy jakoś zweryfikować, czy ktoś na przykład nie
potrzeba się w osobę, z którą rozmawiamy.
Po prostu te wiadomości teraz będą bezpieczniejsze.
W aplikacji pogoda będziemy teraz mieli bardziej szczegółowe informacje o opadach,
zarówno deszczu i śniegu w ciągu najbliższych dni, więc jak będziemy
sobie to przeglądać, możemy bardziej szczegółowo te opady prześledzić.
Są nowe widgety, które pozwalają nam sobie zobaczyć np.
opady w ciągu najbliższych godzin, prognozy na cały dzień, informacje o
wschodzie i zachodzie słońca
i informacje takie jak jakość powietrza,
odczuwalna temperatura czy prędkość
wiatru.
Też lepiej będą fazy
księżyca wyświetlane jeśli ktoś
sobie chce na takie rzeczy popatrzeć
to są jakieś nowe animacje
do tego.
No i mamy też mniejsze zmiany.
CD pozwoli nam teraz
odczytywać i zapisywać niektóre
informacje związane z naszym
zdrowiem.
Przez AirDrop i przez zbliżanie telefonów możemy teraz udostępniać na przykład bilety, a to się może nam przydać, jeśli kupimy sobie jakiś bilet na przykład do kina albo właśnie do pociągu, do samolotu, chcemy go szybko wysłać innej osobie, może komuś kupiliśmy bilet i chcemy tej osobie to wysłać może mniej technicznej, no to możemy teraz bardzo w łatwy sposób to zrobić.
Dla użytkowników Apple Music jest teraz lista ulubionych piosenek, bo możemy sobie tak jak na przykład na Spotify oznaczyć piosenki jako ulubione i teraz będą trafiać do osobnej listy.
Miały też być spółdzielone playlisty, ale to zostało opóźnione i ta funkcja się pojawi w przyszłym roku, tak przy okazji Apple Music.
Możemy sobie ustawić w danym trybie skupienia, możemy sobie to do każdego osobno ustawić.
żeby nasza historia słuchania nie była zapisywana w Apple Music, więc jeśli mamy jakiś tryb pracy, słuchamy dużo takiej muzyki jakiejś relaksacyjnej, może jakiegoś lo-fi, a nie chcemy, żeby to miało wpływ na to, co nam Apple Music będzie rekomendować, no to możemy sobie ustawić, że jeśli mamy włączony ten tryb pracy, no to wtedy po prostu ta historia nie będzie na ten czas zapisywana i możemy sobie wtedy taką muzykę typowo do pracy puszczać i się o to nie martwić.
Nowy widżet cyfrowy zegara, auto uzupełnianie w plikach pdf, to też było zapowiadane dopiero teraz się funkcja pojawiła, to jest też na Macu i to jest fajne, bo z tego co mówiła firma, to nawet w takich niedostępnych plikach pdf, gdzie po prostu nawet zrobiliśmy zdjęcie papierowego formularza, system powinien być w stanie wykryć pola, takie jak imię, nazwisko, jakieś inne pola, no i pozwolić nam je w łatwy sposób uzupełnić wykorzystując dane z naszego komputera.
No to jest na pewno coś, co wydaje mi się
będzie warto przetestować, bo to nam może się przydać
zwłaszcza właśnie w przypadku jakichś formularzy
PDF, które są słabiej dostępne.
Bo jeśli w takich przypadkach by to działało, no to może być bardzo fajna funkcja dla nas.
Nowe układy klawiatury dla
języka SAMI.
Informacje o wrażliwej zawartości
na naklejkach w wiadomościach.
Wsparcie dla ładowarek Qi 2 dla każdego iPhone’a to jest fajne, bo jeśli mamy takie ładowarki, one wcześniej były ograniczane, iPhone nie mógł się ładować z nich tak szybko jak konkurencja z Androidem, ale że ostatnio Apple zaczął się bardziej dogadywać, też zaczął współpracować nad nowymi standardami, gdzieś ten MagSafe, który na początku był tylko na iPhone’ach, też będzie w nowych ładowarkach, to jest chyba standard Qi 3, no to już też takie magnesy będą wykorzystywane
też przez innych producentów, no a przy okazji też te starsze standardy teraz
na iPhone’ach będą lepiej wspierane, no i dzięki temu nasz telefon i to jest od
iPhone’a 12-13, czyli te pierwsze iPhone’y, które już miały takie wsparcie, one po
prostu będą się ładować szybciej.
No i właśnie tutaj mamy poprawę do ładowania bezprzewodowego, w niektórych
samochodach to nie działało.
I tutaj jeszcze były informacje dotyczące voiceover’a, bo też tutaj parę rzeczy
zostało poprawione, o, Apple poprawiło problem, że mowa nam czasami uciekała, kiedy rozłączyliśmy połączenie, był problem, kiedy
mieliśmy ustawione 12 godzinne forma czasu, to bardziej gdzieś w Ameryce jest stosowane i wtedy VoiceOver nam źle
czasami to oczytywał, to już też zostało poprawione.
Przycisk sortowania playlist w Apple Music był źle zatykietowany i to też zostało poprawione.
I na zakładce przeglądania w aplikacji pliki każda lokalizacja była czytana jakby była
przełącznikiem, to teraz też zostało poprawione, te przełączniki są tylko wtedy
kiedy naciśniemy przycisk edytuj.
No i tutaj AppleWiz pisze, że oni o nowych błędach nie wiedzą, więc teoretycznie nic nie zostało zepsute, ja też o niczym nie wiem, więc myślę, że można spokojnie sobie instalować, no i jeszcze raz przypomnę, też można sobie te dźwięki dostosować.
To jest iOS, a jeszcze macOS też kilka fajnych rzeczy się zmieniło.
Dużo rzeczy przeszło z iPhone’a, tak na przykład właśnie to wsparcie PDF-ów, czy te nowe funkcje w aplikacji wiadomości.
Ale dwie rzeczy, które są ważne dla nas, to znaczy dla użytkowników VoiceOvera.
Po pierwsze, Apple w końcu uporało się z zawieszającym się Safari.
Safari wcześniej bardzo często, ale nie u wszystkich, lubiło po prostu się zawieszać i VoiceOver tylko mówił.
Safari nie odpowiada i nie mogliśmy nic zrobić.
Dużo osób to zgłaszało, to był taki dosyć szeroko komentowany problem.
Na szczęście właśnie w tej aktualizacji Apple się z nim w 90% uporało.
Czasami jeszcze takie sytuacje gdzieś się mogą sporadycznie zdarzyć,
ale nawet takie bardzo ciężałe strony jak na przykład Facebook
czy jakieś strony, które mają dużo reklam, dużo jakichś skryptów, które gdzieś tam działają,
no już nie powinny nam tej przeglądarki zapieszać.
No i faktycznie u mnie to zdecydowanie działa dużo lepiej też u osób, z którymi rozmawiałem, też widząc znaczącą poprawę, więc
no myślę nawet dla tego powodu warto sobie to zainstalować.
I druga nowość dotyczy szybkiej nawigacji, czyli tego skrótu wokół, bo w Mac OS 14 to zostało podzielone.
Mamy jeden skrót na nawigację strzałkami, strzałki lewo, prawo, a ten skrót wokół pozwala nam nawigację po literach,
czyli H na przykład skacze nam po nagłówkach i tak dalej.
Te dwa skróty były wcześniej połączone.
W Sonomie to zostało rozłączone i te litery mogliśmy włączyć sobie wszędzie.
No ale co za tym i nie straciliśmy jedną istotną funkcję.
No bo kiedy Focus wylądował w jakimś polu edycji,
no to musieliśmy ręcznie sobie ten skrót wyłączyć.
W przeciwnym wypadku po prostu nie mogliśmy pisać,
bo VoiceOver nam te skróty cały czas przetwarzał.
To zostało poprawione w ten sposób,
że kiedy wejdziemy sobie do ustawień VoiceOver’a, właśnie tę sekcję
tych skrótów szybkiej nawigacji, tam pojawiło się nowe pole wyboru, które właśnie pozwala nam
wpisywać do pól tekstowych, jeśli nawigacja literami, pojedynczymi klawiszami jest włączona.
To pole chyba jest domyślnie wyłączone, ale myślę, że tutaj mogę spokojnie zasugerować
wszystkim, żebyście sobie to pole włączyli, bo no to wydaje mi się w ten sposób działa
zdecydowanie lepiej, także no dla tego powodu też myślę warto sobie tego macOS-a po prostu zaktualizować, bo faktycznie dużo dobrego zostało z tej aktualizacji zrobione.
Przechodzimy do następnego newsa, a następnym newsem jest news od Michała, dziesiąta ankieta od webame-użytkowników,
w czytniku ekranu. Temat podejrzewam, że części już osób znany, ale w razie czego
Michale przypomnij o co chodzi, bo myślę, że sprawa jest dość mimo wszystko istotna.
Oczywiście, że jest istotna. WebAIM, czyli Web Accessibility Initiative, tworzy już
po raz kolejny taką ankietę, w której chce poznać po prostu zwyczaje użytkowników
czytników ekranu.
Chce się dowiedzieć z czego korzystają, z jakich technologii, jakie wykorzystują, czy na przykład wykorzystują je zarówno do pracy, jak i do użytku domowego, czy używają monitorów brajlowskich, no i też jakie to są konkretnie technologie i gdzie one są wykorzystywane.
Ta ankieta jest dostępna w języku angielskim, co ważne to tu mamy takie pole wyboru, kiedy zaczynamy wypełniać tę ankietę, że musimy potwierdzić, że mamy ukończone osiemnaście lat albo jakiś inny wiek, który w naszym kraju oznacza pełnoletniość.
Więc no to jest ankieta, którą przynajmniej oficjalnie mogą wypełniać tylko osoby pełnoletnie.
No i zaznaczamy sobie to pole wyboru, przechodzimy dalej, mamy przycisk begin the survey i tu sobie…
A! I jeszcze musimy zaznaczyć, że jesteśmy użytkownikiem czytnika ekranu i chcemy wziąć udział w ankiecie.
Tak, to jest też myślę, że dosyć istotne.
Tu są takie dwa pola wyboru na początku tej ankiety.
No i jak sobie włączymy te dwa pola, przejdziemy sobie dalej,
to tu już mamy te wszystkie pola i te pytania dotyczące naszego użytkowania czytników ekranu.
No i tu sobie wybieramy na dobry początek jaki jest nasz region,
na jakim kontynencie żyjemy,
jesteśmy pytani o wiek,
no, czyli takie dane demograficzne.
Tu na przykład jesteśmy w kolejnym pytaniu
proszeni o wskazanie, czy używamy czytnika ekranu
ze względu na naszą niepełnosprawność.
To jest dlatego, podejrzewam, to pytanie się tu pojawia,
bo samo WebAIM zaprasza do wypełnienia tej ankiety
nawet i użytkowników, którzy używają czytników ekranu jako narzędzi testujących.
Następnie tu jesteśmy poproszeni o wskazanie naszej niepełnosprawności.
Co my tu mamy jeszcze? Jakie są następne pytania?
No na przykład mamy pytanie o nasz czytnik ekranu podstawowy na komputerze lub laptopie.
Pytani jesteśmy także jakiego systemu operacyjnego używamy.
Następnie pytani jesteśmy chociażby o naszą przeglądarkę, jakiej najczęściej używamy.
Kolejne pytanie to, dlaczego my używamy tego naszego podstawowego czytnika ekranu, czy ze względu na możliwości, czy ze względu na cenę, czy jeszcze jakieś tam inne są powody podane.
Następnie, to jest pytanie wielokrotnego wyboru, bo przecież nie musimy używać tylko jednego czytnika ekranu, możemy wskazać kilka, więc tu jesteśmy proszeni o wskazanie generalnie tych naszych czytników ekranu,
jakie znamy, z jakich korzystamy.
Potem jesteśmy pytani o ocenę
naszej, naszego zadowolenia z korzystania
z podstawowego czytnika ekranu,
jakiego używamy.
Kolejne pytanie dotyczy tego,
czy używamy różnych czytników ekranu
w pracy i szkole i w domu.
Kolejne pytanie dotyczy tego, jak używamy tego czytnika ekranu.
O, tu jest na przykład pytanie o monitor brajlowski, czy w ogóle korzystamy z brajla.
Też i tu jest ważna rzecz, proszę, nie jesteśmy także o udzielenie odpowiedzi na pytanie,
czy korzystamy z mobilnego czytnika ekranu.
Czy to jest tylko czytnik ekranu taki desktopowy, czy też jednak z mobilnego czytnika ekranu również korzystamy.
No i co my tu mamy dalej?
O, to jest pytanie, czy darmowe czytniki ekranu, takie jak NVIDIA czy VoiceOver, to są dobre alternatywy dla czytników ekranu płatnych.
No, ciekawe co mają powiedzieć użytkownicy iOS-a.
albo Mac OS, a przynajmniej na razie.
Właśnie, tutaj kolejne pytanie dotyczy tego, gdzie używamy tego czytnika ekranu najczęściej,
czy komputer, czy urządzenie mobilne, czy porówno, później z jakiego urządzenia mobilnego korzystamy,
a właściwie tu chodzi o system operacyjny, o platformę, czy to jest Android, czy to jest iOS,
Czy tam jeszcze coś chyba innego jest wymienione?
O, wskazanie naszej ulubionej przeglądarki mobilnej.
Kolejne pytanie dotyczy różnych czytników ekranu,
jakie znamy, jakich używamy.
Więc to tak samo jak w przypadku urządzeń desktopowych.
Jesteśmy poproszeni o wskazanie wielu programów,
jeżeli oczywiście z nich korzystamy.
No i co my tu mamy dalej? O, to jest też myślę, że dosyć interesujące pytanie, bo jesteśmy proszeni o wskazanie tego, z jakich urządzeń, z jakich urządzeń takie przeprowadzamy nasze różnego rodzaju codzienne działania typu jakieś działania związane z bankowością albo na przykład z zakupami.
Czyli czy to są urządzenia mobilne, czy to jest komputer, co mamy dalej, o tu dotyczy tego kolejne pytanie, jak naszym zdaniem się zmienia dostępność na stronach internetowych.
Czy ona się pogarsza, czy ona jest coraz lepsza?
Kolejne pytania są związane na przykład z tym, jakie elementy są dla nas najbardziej problematyczne.
i tam na przykład mamy do wyboru albo brak tekstów alternatywnych, albo jakieś formularze, które są złe,
kontrolki, które nie są podpisane i jesteśmy proszeni o wskazanie trzech, jak dobrze pamiętam, takich typów.
Więc tych pytań, jak sami widzicie, jest trochę i ich jeszcze tam później jest kilka.
Jeżeli macie ochotę, to ja bardzo zachęcam do wypełnienia tej ankiety,
Dlatego też, że dosyć często potem w różnego rodzaju, no jakiś czy np. w wnioskach projektowych, to tak z własnego podwórka mogę powiedzieć, czy gdzieś w różnych publikacjach naukowych.
Jeżeli publikujemy tego typu informacje, no to fajnie jest się na coś powołać i jeżeli chcemy coś uzasadnić, to fajnie mieć jakieś konkretne dane, jakieś badania, które ktoś przeprowadził i możemy to zacytować.
To jest no dosyć ważne w niektórych sytuacjach i dobrze byłoby, żeby te informacje były wiarygodne, bo na przykład tym ankietom WebAim z lat poprzednich spotkałem się z takimi zarzutami, że strasznie były one takie amerykańsko-centryczne.
No ale kwestia bariery językowej to na pewno rzecz jedna, rzecz druga, że niewidomych w Stanach Zjednoczonych ze względu na wielkość tego kraju jest po prostu dużo i tam te technologie się rozwijają i potem były na przykład takie pretensje, że czemu Android jest tak nisko, a przecież Androida ludzie też używają.
No ale no jak większość niewidomych w Stanach na przykład korzysta z iPhone’a, korzysta z iOS’a, no to potem okazuje się, że jest mała reprezentacja użytkowników Android’a.
Na przykład w takich Indiach to podejrzewam, czy w Polsce zresztą, żeby daleko nie szukać, to te wyniki mogłyby okazać się inne.
Więc zachęcam bardzo serdecznie do tego, aby tę ankietę wypełnić, żeby udostępnić ją swoim znajomym, którzy korzystają również z czytników ekranu, bo myślę, że to naprawdę jest warta sprawa.
Zwłaszcza, że ta ankieta jest rozumkowo prosta, nawet jeśli nie znamy angielskiego, tam akurat nie ma pytań otwartych, więc nawet można sobie to tłumaczyć, spokojnie przejść.
Tam na końcu jest tylko, czy mamy jakieś uwagi, a poza tym to są wszystkie listy, pola wyborów, więc…
Tak, ona jest naprawdę fajnie zrobiona, ona jest prosta, więc ja bardzo zachęcam, no i cóż, i oby reprezentacyjne w miarę wyniki także i dla nas z tej ankiety wyszły.
Zdaje się, że ona do końca stycznia jest ważna, teraz nawet już nie pamiętam dokładnej daty zamknięcia tej ankiety, natomiast myślę, że nie ma co zwlekać, warto ją tak czy inaczej wypełnić.
A tymczasem odbieramy telefon, odbieramy telefon od Maćka, witaj.
Cześć wszystkim, słychać mnie w miarę?
Słychać, no, słychać, że z Irpotsów.
No, słychać, tak, to tak właśnie, akurat dzisiaj tak.
Natomiast ja się chciałem poodnosić, jeśli chodzi o te bety,
znaczy wróć, o publiczną wersję, o publicznej wersji systemów Apple.
No i pierwsza rzecz taka, jeśli chodzi o to nieszczęsne odczytywanie godzin,
to to też dotyczyło 24 godzinnego, a żeby nie było, też jak na pasku statusu
mieliśmy odblokowany ekran, to było 20.17, 21.25, prawda?
I to ciekawe było, że po uruchomieniu telefonu nie, natomiast po pierwszym
przejściu na ekran główny po odblokowaniu też jeszcze nie, potem po zablokowaniu
telefonu odblokowaniu ten błąd już się nam pojawiał więc to też było takie
dosyć ciekawe.
No tak jak mówię w obu tych strefach że tak powiem.
Natomiast. Natomiast dobrze poprawione.
Co jeszcze.
Odnośnie iOS a.
Taka mała rzecz a cieszy generalnie mała nie mała.
Ten przycisk no bo co odtwarzamy sobie muzykę prawda.
No to z ekranu blokady zawsze możemy sobie dodać daną piosenkę do ulubionych, jak nam się bardzo spodoba, mamy stację sobie utworzoną i chcemy to szybko zrobić, no to wcześniej ten trzeci przycisk nie miał etykietki, teraz etykietkę ma, mało tego stan nie był jego ogłaszany, czy dodaną piosenkę do ulubionych czy nie, no też jest, też ten przełączyk jest jakby czytany, stan zaznaczenia przycisku, jeśli jest zaznaczone, to mamy dodaną do ulubionych, co jeszcze?
Na Apple Watchu, no to chyba też zdaje się, że było mówione,
znaczy nie dzisiaj, ale w zeszłym tygodniu,
ale też skoro podsumowujemy, to ja też gdzieś tam,
że gest przełączania tarczy zegarka, no wreszcie to jest.
Na Watchu wchodzimy sobie z poziomu zegarka w ustawienia,
w zegar i tam przesuń, nie,
znaczy VoiceOver nam ląduje na nagłówku
I pierwszy przełącznik, który będzie się odnosił do tego gestu dwukrotnego machnięcia w prawo lub w lewo dwoma palcami, żeby przełączyć tarczę, więc wróciło to.
Tylko to trzeba sobie włączyć, bo to też nie jest włączone.
Co do MACOS-a i tego pozwalania na pisanie w polach edycyjnych,
gdzie, kiedy mamy włączoną tą szybką nawigację jednym klawiszem tym wokół.
No fajne to niby jest, ale po pewnym czasie takiego naprawdę intensywnego
przeglądania z frontem, to zaczęło troszeczkę już irytować,
wyłączyłem sobie, a właśnie, że sobie to wyłączyłem,
Dlatego, że to jest jeszcze obarczone takim błędem,
że jeżeli nie stoimy na linku, na nagłówku,
na czymkolwiek, jakimkolwiek atrybucie powiedzmy strony,
nie wiem, jakimś punkcie orientacyjnym, czym tam jeszcze,
to mimo, że to nie jest pole do wprowadzania jakichkolwiek danych,
litery są przechwytywane, traktowane jako litery po prostu,
a nie jako skróty nawigacyjne.
Więc żeby, powiedzmy, no nie wiem, dojść sobie do jakiegoś linku w szybki sposób i potem idziemy sobie w prawo, gdzie mamy normalny, zwykły tekst na stronie, a chcemy znowu przeskoczyć do danego linku, to musimy szukać specjalnie kolejnego linku gdzieś tam, żeby te skróty na nowo zaczęły działać do szybkiej nawigacji, więc przyznam szczerze, że jeszcze to nie jest to, czego bym oczekiwał.
Ja powiem Maćku, że i w przypadku NVIDIA ja sobie to wyłączam. Ja jednak wolę ten tryb zmieniać sobie samodzielnie.
Kiedy potrzebuję, to żeby mi się to włączało, kiedy nie, to żeby mi się to wyłączało, ten tryb przeglądania w NVIDIA.
Są oczywiście użytkownicy, którzy lubią to zachowanie.
Mnie by się to właśnie bardzo sprawdzało.
Mnie by się to bardzo sprawdzało.
Właśnie ja na to bardzo czekałem bo bo zwłaszcza że ten wokół.
Przepraszam.
Ja tylko chciałem.
Że to nie działa w trybie hybrydowym tak jak NBA że np.
jeśli strona wyśle nam focus na jakieś pole to to by się wtedy tylko wyłączało
a jeśli my sobie nawigujemy sami to to się nie włącza.
No otóż to właśnie działa.
No no właśnie dlatego to tylko w momencie kiedy trafi
na jakieś linki i tak dalej, więc moim zdaniem to jest błąd albo niedopatrzenie na zwyczajne po prostu póki co.
Zrobili kawał dobrej roboty, jeszcze troszkę brakuje, ale ja szczerze mówiąc tak, na to czekałem.
Póki co sobie to wolę przełączać ręcznie też, ale umówmy się, no wokół to nie jest najszczęśliwszy jakiś tam skrót.
Czy używamy Control Option, czy używamy Caps Lock IQ, co?
No do ergonomii, nie wiem, ja się tego nie umiem przyzwyczaić, przypisałem sobie jakiś option Z chyba, czy coś tam, żeby mi było wygodniej, no ale jeśli będzie możliwość, żeby to zostało dopracowane i opcja, ja tu będę oczywiście co wydanie bety śledzić, bo mamy betę 14.3 pierwszą deweloperską, no i tam to nie zostało jeszcze poprawione, więc na razie póki co ja to wyłączyłem.
Co jeszcze? Aha, dziennik. Dostępna apka, nie powiem, bardzo okej.
Jedyne, gdzie to mi zwróciło uwagę, bo ja tak nie przywykłem do prowadzenia pamiętników i tak dalej, do pisania dzienników,
więc tej apki też w stadium beta w sumie nie testowałem.
Natomiast jeden z członków właśnie grupy dostępnej apu, pozdrawiam Adriana,
Pisał, pisał, pisał do mnie prywatnie właśnie, że są takie i takie błędy.
No dwa na razie wychwycił, jeden z nich to jak się harmonogram ustawia,
w które dni ma nam przypominać dziennik o pisaniu,
no to tam po aktywowaniu danego dnia bądź jego odznaczeniu,
no to nam ten VoiceOver nie czyta tak z automatu,
że stanu tego zaznaczenia danego dnia, czy on jest wybrany, czy nie.
Dopiero tam się trzeba przefliknąć kursorem w prawo, w lewo i dopiero mamy tą informację.
Drobny błąd dostępnościowy, ale jest.
No a drugie, tam coś z multimediami było, już nie pamiętam, że jak się chyba plik wstawiło,
jakieś gdzieś coś, nagranie czy coś takiego, to, że tam też nie anonsowało,
nie anonsuje tego odpowiednio.
No ale cała reszta jest chyba okej.
Chociaż brakuje mi jeszcze czegoś takiego, żeby, no bo też ta aplikacja dziennika
może nam zbierać informacje z naszej lokalizacji,
gdzie byliśmy w ostatnich miejscach, żeby też o tym napisać
na podstawie mapy i tak dalej.
No i co mi z tego, że voice over mi tam czytam?
Jak on to czyta? Migawka mapy chyba, czy coś takiego, nic więcej.
Jak w sumie fajnie by było, jakby on od razu przeczytał mniej więcej, gdzie to było,
jakie miejsce, jaki obiekt i tak dalej. No na razie też tego nie ma.
Tak samo ze zdjęciami to raczej nie mogę tego wymagać siłą rzeczy,
ale chociażby też przeczytał jakąś datę tego zdjęcia,
kiedy ono zostało zrobione, to już by to coś więcej dało.
Tego też póki co jeszcze nie ma.
No tak i odnośnie chyba BED to by było tyle tych 17-2 itd.
Natomiast 17-3 był interesujący błąd,
taki zabawny dosyć w aplikacji Pogoda,
że kiedy były opady deszczu, to on sobie wesoło czytał możliwość gradu, wynosi tyle i tyle.
Ale żeby było śmieszniej, tylko dla polskiego tłumaczenia,
bo sprawdzałem po niemiecku, sprawdzałem na angielskiej pogodzie,
nie, tam było chance of rain, coś tam, że…
Więc był, tam był deszcz, zdecydowanie był deszcz.
U nas był grad, no i w 17.2 nadal jest grad,
a w 17.3 już jest możliwość deszczu, wynosi tyle i tyle.
No więc jakby to poprawili, ale tak żeśmy się tam jeszcze poza anteną gdzieś tam, żeśmy się śmiali, że no tak, w sumie to jak 17.3 zostanie wydana, to pewnie będzie jakiś luty, marzec, to się nawet ludzie nie zorientują, czy to deszcz, czy to grad, bo i tak jeszcze będzie zimno, więc no dobra, na to se mógłbym pozwolić, ale to na szczęście zostało poprawione.
Dodano w 17.3 dodano tryb, jak to się nazywało, ochrona urządzenia przed kradzieżą czy jakoś tak.
Właśnie jak się instaluje betę to pierwsze co jesteśmy proszeni o przetestowanie tego trybu.
A chodzi ni mniej, ni więcej o to, że zdecydowanie mniej operacji
teraz będziemy potwierdzać kodem iPhone’a, kodem dostępu do urządzenia,
a właśnie Face ID lub Touch ID.
Ponoć z Touch ID też ma to działać, bo były spekulacje,
że Touch ID jako mniej bezpieczna metoda biometrii,
uwyżytelniania, że to może nie działać.
Natomiast Stash ID Płonąć to działa też i były przypuszczenia, że z punktem uwagi,
jeżeli my jako użytkownicy VoiceOvera mamy wyłączony ten punkt uwagi,
to że to się może nie działać, bo nie patrzymy bezpośrednio na ekran i tak dalej.
Działa, na szczęście działa i co, dzięki temu możemy sobie albo inaczej,
do wyłączania Fine My usługi tej znajdź, no znajdź po prostu.
Nie musimy już, znaczy chyba hasło, no tak, hasło do Apple ID i tak musimy wprowadzić,
ale chyba dopiero po uwierzytelnieniu Face ID, czy odwrotnie.
Jeszcze musieliśmy podać, zdaje się, kod iPhona, a teraz już kodu iPhona nie musimy,
tylko właśnie uwierzytelniamy się biometrycznie.
Tak samo jeśli wypełniamy w safari, w polach formularzy te dane do płatności.
Jeżeli mamy kartę zachowaną w pęku kluczy, to również nam dochodzi uwierzytelnianie w ten sposób twarzą.
Tak samo jeśli chcemy wymazać iPhona albo go przywrócić z trybu utraconego, wyłączyć tryb utracony.
nawet jeśli go zgubiliśmy wcześniej, a go odzyskaliśmy zdalnie czy w inny sposób żeśmy go przełączyli w tryb utracony,
no to teraz też zamiast kodu blokady czy kodu, tam się chyba w ogóle ustawiało z tego co pamiętam,
osobny kod, to teraz też będzie do tego służyło wyłącznie Face ID, jak i przy zmianie hasła do Apple ID,
i tam dodawanie numerów telefonów zaufanych, czy urządzeń i różnych tego typu rzeczy.
Nawet chyba logowanie, zdaje się, na nowe urządzenie też będzie można potwierdzić,
zdaje się, z Face ID, z tego, co gdzieś tam czytałem, ale tego też pewien nie jestem.
Niektóre z tych opcji, takie jak zmiana kodu iPhona też,
chyba zastosowania Touch ID, ale pewien nie jestem, to też do tego wchodzą.
Natomiast niektóre z tych opcji, bo nie wszystkie, ale niektóre z nich właśnie takie jak
czy wyłączanie usługi znajdź, czy wyłączanie trybu utraconego,
czy zmiany haseł do app ID,
czy metod uwierzytelniania numerów telefonu itd.
wymagają godzinnego opóźnienia.
Jeżeli nie jesteśmy w znanym miejscu,
że app uwierzy, że to jest nasze miejsce typu dom czy praca,
po lokalizacji oczywiście,
to będziemy musieli odczekać godzinę.
To się odbywa na tej zasadzie, że raz się uwierzytelniamy twarzą,
no ale iPhone twierdzi, że nie jesteśmy w znanym miejscu.
Przykro mi bardzo, trzeba odczekać godzinę, żeby to tak zwane opóźnienie właśnie jest wtedy.
I trzeba włączyć sobie, rozpocznij odliczanie, bo możemy tego nie robić.
Dać anuluj, żeby tego nie robić, tych zmian nie wprowadzać, a możemy właśnie
dać rozpocznij odliczanie i ta godzina nam się odlicza.
i wówczas drugi raz się uwierzytelniamy twarzą tudzież odciskiem palucha
i wtedy jesteśmy w stanie taką operację przeprowadzić.
No bo to właśnie, jak sama nazwa wskazuje, ochrona przed kradzieżą,
a w ostatnim czasie dochodziło do różnych, ujmijmy to dyplomatycznie,
wycieków kodu naszego urządzenia w różny sposób, najczęściej na wideo,
Prawda, więc tutaj inna to AFL zaradziło.
I co? A, na MacOSie głupi błąd mam.
Głupi błąd się pojawił.
To jest taki, naprawdę,
chciałem sobie dzisiaj wydrukować plik
i ponoć w 14.2 to działa.
W 14.3 coś mi nie chce działać,
mianowicie drukowanie pliku dokumentu w formacie RTF mi nie chce działać.
autentycznie, inne dokumenty działają, TXT działają,
PDF-y działają, do CX działają, Pages działają.
A na RTF-a się obraził?
A na RTF-a się obraził, zgadza się,
no odpala się, i to zarówno odpalałem,
w tym, w Textedicie, i odpalałem w Pagesie,
no bo myślę, może tam coś.
Nie, na RTF-a się definitywnie obraził,
Nawet jak z findera z pozycji listy plików w cmd-p, też się obraził.
Centrum drukowania działa w tle, wszystko super.
Natomiast wyskakuje, że informacja, że być może na drukarce pojawia się jakiś błąd,
sprawdź to i coś tam i nie chce drukować.
Jak ten sam dokument wyeksportowałem do pdf-a z pagesa,
no to już elegancko, dobrze mówię, do pdf-a z pagesa, tak,
to to normalnie wydrukował, więc coś tu jest na rzeczy,
w błąd zgłosiłem i no i zobaczymy czy i kiedy go naprawią i teraz zastanawiam się
czy powiedzieć teraz o jednej aplikacji w sumie czy nie to o tym jeszcze powiem
teraz a jakby będzie przejdziecie do technikaliów to jeszcze może z trzema
szybkimi newsami tym razem naprawdę szybko mi zadzwonię natomiast w piątek
teraz na aplikacji pojawił się pojawił się tak mówiąc w uproszczeniu kolejny ad
Kolejny cookie blocker, tak naprawdę powiedzmy, że też tam aplikacja pozwala tam blokować wszelkiego rodzaju, jeśli chodzi o te koparki kryptowalut, żeby nam tam nic tam nas nie lękało i tak dalej.
WIPR się to nazywa, i jest dedykowany stricte jabłuszkom,
no bo jest to na iPhona i na Maca osobna aplikacja.
Wadą jest niestety to, że to nie jest jedna uniwersalna aplikacja,
to znaczy taka za jedną płatnością przechodząca,
tylko żeby sobie, a właśnie, aplikacja płatna to po drugie.
999 niby nie majątek, ale fajnie by było, jeśli by się to dało raz kupić do konta Apple ID, żeby można było to sobie instalować i na Macu i na iPhone i tam gdzie się nam się podoba i gdzie to jest możliwe, a niestety tak nie jest.
deweloper też o tym nawet wprost napisał w najczęściej zadawanych pytaniach, że na razie póki Apple go nie zadowoli w jakichś tam kwestiach, nie znam się na tym,
to on tego nie zamierza wprowadzić. Koniec. I jeżeli chcesz korzystać na Macu i na iPhonie, to se kup dwie wersje.
No i tyle i wydaje w sumie łącznie 20 złotych, a nawet równe 20, bo tu 99, tu 999,
znaczy 19 proszę, no to się akurat robi ta suma.
No generalnie appka jest moim zadarem dostępna.
Co by nie mówić, że to dostępna, na AppleBee się wpisali, że dostępna,
rzeczywiście jest dostępna.
Jedyną barierą oczywiście może być język angielski, zwłaszcza przy konfiguracji.
Jeżeli ktoś z tym językiem dobrze nie włada, ani w jakimś tam podstawowym
w tym zakresie, no to nie wiem, czy sobie poradzisz, nie?
Bo tam trzeba jednak wejść w ustawienia, tam trzeba tam pozezwalać.
Po pierwsze, połączać rozszerzenia, po drugie, wyłączyć blokady,
wróć, włączyć właśnie blokady zawartości.
No więc takie gdzieś tam lekkie utrudnienie może być, ale appka,
na Maca w sumie ja ją polecam, bo jak
generalnie fajnie i reklamy z YouTuba wycina, nie ma tego, nie ma,
ale nawet jeśli nie mamy premium, to tych reklam na YouTubie nie ma.
W innych serwisach, z tego co się orientuję, też nie ma.
Listy tych
blokowanych treści są aktualizowane dwa razy w tygodniu, z tego co tam czytałem.
No i co? Rzeczywiście na stronę się ładują elegancko, szybciutko, tak samo nie.
Co najważniejsze, nie obciążają komputera.
Nie obciążają.
Mam wrażenie, że nawet ta bateria troszeczkę
minimalnie przyoszczędziła, więc w sumie jest okej.
Jeśli chodzi o Maca jest okej, jeśli chodzi o iPhona jest mniej okej.
I nie wiem czy bym polecał, dlatego że
autor zastrzega, że działa tylko tam gdzie
aplikacje, gdzie jest Safari po prostu.
Nawet jak są inne aplikacje, ale
przenoszą do Safari, to tam będzie działało, ale już na silniku Safari na
wewnętrznych przeglądarkach i tak dalej, to nie, czyli o Facebooku możemy zapomnieć i irytujące cookie dalej będą, reklamy nadal będą.
No właśnie, więc tutaj nam to niewiele pomoże.
Na YouTubie reklamy na iPhone’ie dalej będą, ale to czego nie będzie, powiedzmy jak mamy darmowe WP piloty, jakieś Polsat Works Go, coś tam.
O, i Maćka nam niestety rozłączyło, swoją drogą ktoś się bardzo intensywnie do nas próbował dodzwonić, więc za chwileczkę być może też i ten kolejny telefon odbierzemy, natomiast teraz to co, to może przejdźmy dalej teraz.
Tak, przejdźmy dalej, tylko coś tu nie widzę, ale już mam. Następnie mamy od Piotrka nowości w grach.
Tak jest, w zeszłym tygodniu zakończyłem, też było nowości w grach, że to nie jest koniec miesiąca, może jeszcze się wydarzy.
No słuchajcie, było mało powiedziane w tym tygodniu, tyle się nazbierało, że spokojnie mogłem całą sekcję z tego zrobić.
No i dzieje się dużo fajnych rzeczy, więc zacznijmy od tego co się pojawiło.
Bo oto pojawił się kolejny mod do takiej normalnej gry dla widzących i do kolejnej gry kultowej.
bo tym razem pojawił się mod do gry Plants vs Zombies, czyli no właśnie roślinki kontra zombie.
To jest taka gra, w której musimy obronić swój ogród przed natarciem zombie.
Jak to robimy? No musimy sadzić, no najpierw musimy zebrać energię słoneczną,
a kiedy to zrobimy, musimy po prostu posadzić odpowiednie roślinki.
Każda roślinka ma jakąś swoją funkcję, umiejętność.
Jedne po prostu służą jako takie ściany, przez które te zombie po prostu muszą się przegryźć, a to im zajmuje trochę czasu.
A inne te zombie zaczynają w różny sposób atakować, strzelając na przykład groszkiem, czy jakimiś innymi nasionami.
Inne gdzieś oblepiające te zombie, że przez co one będą zwalniać.
Możemy jakieś miny zasadzać, więc tych roślin i zresztą też typów zombie, z którymi będziemy musieli walczyć jest dużo.
No i to jest właśnie taka gra, która już całkiem jest popularna, z czego wytworzyła się cała franczyza.
Ten mod jest do pierwszej części tej gry i został stworzony przez Australijczyka widzącego, który stwierdził, że dałoby się tą grę udostępnić.
Zrobił to poprzez czytanie w ogóle pamięci tej gry, jakoś to dosyć skomplikowanie pewnie tworzenie tego modu wyglądało.
Natomiast on już działa bardzo fajnie, w pierwszych wersjach nie działał na wszystkich komputerach, tam były problemy z różnymi rozdzielczościami, tam menu nie chciało się uaktywniać, ale to już wszystko zostało naprawione i w najnowszej wersji większość gry jest udostępniona.
Jest tam jeszcze kilka minigier, no bo w tej grze też są jakieś minigry później, które jeszcze nie są dostępne, no ale autor na początku skupiał się na tym, żeby po prostu ten mod działał na wszystkich komputerach, co po kilku dniach wydaje się, że już się mu udało, ten mod już generalnie działa nam fajnie ze wszystkimi komputerami, działa zarówno z klawiaturą, jak i padem, więc możemy sobie albo tak, albo tak grać, mówi do nas przez albo czytnik ekranu najbardziej popularny, albo przez sapi,
bo to jest dostępne tylko na wersję Windowsową gry.
Możemy sobie tego moda ściągnąć za darmo z GitHuba,
a grę możemy zakupić np. ze Steama,
gdzie w tym momencie kosztuje niedużo, bo 17 zł.
Tam będzie link do forum na audiogames.net do wątku.
Tam znajdziecie zarówno link do moda, link do gry na Steamie,
więc możecie sobie stamtąd ją ściągnąć.
No i wydaje mi się, że to zwarta polecenia.
Następnie mamy grę Fableverse, więc kolejna gra tak zwana inkrementalna, czyli to są właśnie takie gry, których musimy coś sobie poustawiać, a potem po prostu czekamy aż gra nam sama przejdzie gdzieś dalej.
I tutaj koncept jest dosyć ciekawy, bo musimy w tej grze hodować różne stworki.
To trochę tak jak w Pokemonach, bo na początku musimy wybrać naszego tak zwanego startera, czyli tego pierwszego stworka, który będzie nam do końca już później towarzyszył.
Każdy z nich ma jakieś unikalne umiejętności i to ciekawe też autor tej gry opatrzył je bardzo fajnymi opisami alternatywnymi, więc wiemy jak te różne stworki wyglądają.
to pierwsze startery, które mamy, to na przykład pamiętam, jest taki
Jaren, to jest po prostu jakiś taki żywy kamień
na szczycie, którego coś wyrasta.
Drugi to jest taki ognisty lisek, to nawiązanie do przeglądarki.
No mniej więcej możemy sobie jeden z tych stworków wybrać, a później
pierwszym naszym zadaniem jest to, żeby wysłać go
do kopalni, gdzie musi wydobywać różne minerały,
które potem my możemy sprzedać, żeby rozwijać nasz
w naszą pracę, dzięki czemu potem możemy sobie albo tego naszego stworka ulepszać, ale też po prostu
tworzyć nowe poprzez między innymi właśnie hodowanie, więc możemy jakieś krzyżówki tworzyć,
zapłatnieć jednego stworka z drugim, no i w ten sposób te stworki później też mogą nam więcej
zasobów wydobywać, dzięki czemu zarabiamy więcej pieniędzy, dzięki czemu możemy nasz przemysł
jeszcze bardziej rozwijać i tak dalej i tak dalej.
Ta gra też nie jest jakoś bardzo droga, jest też dostępna wersja demo, to jest gra, która działa w przeglądarce, to jest chyba jakaś aplikacja elektronowa, ale nie jest grą typowo przeglądarkową, to musimy ją sobie ze Steama ściągnąć i tutaj znów będzie link do forum Audio Games, tam możecie sobie więcej przeczytać i sobie tą grę albo w wersji pełnej, albo w wersji demo ściągnąć.
Następnie coś dla fanów horrorów oraz strzelanek, bo mamy grę Ripley’s Aliens, czyli grę, która bardzo nawiązuje do serii filmów obcych, nawet tutaj z nazwy, tutaj nawiązanie do głównej bohaterki tych filmów, a przynajmniej jednego z nich.
No właśnie, to jest gra, w której jesteśmy wysłani na statek kosmiczny, który został zaatakowany przez obce istoty i mamy kilku członków załogi, których musimy uratować, ale to nie będzie łatwe, no bo statek się zaczyna rozpadać, drzwi nie działają, niektóre drzwi są pozamykane, musimy znaleźć odpowiednie karty, klucze, żeby przedostać się do wszystkich członków załogi, których musimy uratować, no i oczywiście są sami obcy,
Których jest kilka typów i one będą stopniowo coraz trudniejsi.
No i musimy albo po cichu ich omijać, albo po prostu ich pokonać.
Mamy do dyspozycji kilka różnych broni, zacząjąc od noża po pistolety, jakieś większe karabiny, które są bardziej efektywne, ale powodują więcej hałasu, a to z kolei powoduje, że więcej obcych do naszego położenia będzie ściągać.
więc no to jest taka gra raczej, w której lepiej poruszać się po cichu
no i właśnie tą naszą misję wykonać.
To jest taka bardzo specyficzny klimat, takie dźwięki trochę retro.
To mi się trochę przypominają początki lat dwutysięcznych, końcówka lat dziewięćdziesiątych.
Takie, no to nie jest chiptune, ale to też nie są takie bardzo współczesne dźwięki.
Bardzo fajny klimat.
Gra jest darmowa, dostępna na system Windows.
Myślę, że warto ją sobie ściągnąć.
też oczywiście będzie link do forum na audio gamesie tradycyjnie i tam też znajdziecie wszystkie linki i informacje jak to jak to ściągnąć.
Następnie pomówimy o aktualizacjach i nie tylko.
Po pierwsze gra As Dusk Falls to jest taka gra która pokazała się jakiś czas temu chyba już nie wiem czy rok temu czy trochę mniej.
Mniej więcej to jest gra, która była dotychczas dostępna na komputery i na konsolę Xbox i ona to jest generalnie taka prosta gra, trochę taki bardziej nawet interaktywny film, bo generalnie w tej grze musimy różne decyzje podejmować, a też w niektórych momentach odpowiednie przyciski nacisnąć odpowiednio gałkami na naszym padzie ruszać, żeby postacie w danym momencie nie zginęły.
Ta gra jest też o tyle ciekawa, że tam te wybory, które musimy często podejmować są dość trudne i możemy ją grać na kilka osób, zarówno właśnie grając na padzie, albo też łącząc się z grą, albo przez aplikację mobilną, każdy może sobie ściągnąć ją na telefon i po prostu patrzymy się na jeden ekran, albo jeśli nadajemy gdzieś na YouTubie czy Twitchu, to możemy poprosić nasz czat o pomoc, no i wtedy głosujemy nad tym, jaką decyzję chcemy podjąć.
no i dany wybór, który ma najwięcej głosów, będzie tym wyborem, który ostatecznie zostanie podjęty.
Gra już była wcześniej fajnie dostępna, o tyle, że miała czytnik ekranu, który czytał nam wszystko,
więc wszystkie wybory, które musieliśmy podjąć, wszystkie przyciski, które w danym momencie musieliśmy nacisnąć,
to było czytane, natomiast same te scenki, a no o tym, na tym głównie się ta gra polega, nie miały żadnej audiodeskrypcji.
Jeśli były jakieś napisy np. o tym, kiedy lokalizacja się zmienia, czy czas, bo też ta gra odbywa się na przestrzeni 20 lat bodajże,
no to te napisy były czytane, no ale właśnie jakiejś takiej typowej audio deskrypcji dotychczas nie było, no to się zmieni.
Bo gra w marcu ukaże się na następnej platformie, konkretnie to będą konsole PlayStation 4 i 5.
Tutaj też już mieliśmy informację, że ta wersja będzie zoptymalizowana pod tę konsolę m.in. wykorzystując te funkcje pada na PS5, takie bardziej zaawansowane, ale też przy okazji twórcy postanowili dodać kilka funkcji dostępnościowych i tutaj znów wkłania się na Brandon Cole, który ostatnio bardzo dużo się udziela w dostępności różnych gier, no i w tym przypadku właśnie pomógł w konsultacjach nad tą grą, bo została do niej dodana
audiodeskrypcja, która właśnie ukaże się w marcu, będzie dostępna na wszystkich
platformach, więc nie tylko na tej wersji na PlayStation, więc jeśli nie macie tej
konsoli, a chcielibyście w tą grę pograć, ona jest dostępna zarówno tak po prostu w
sklepie Microsoft i na Steamie, ale też jest częścią abonamentu Game Pass, więc może
jeśli macie ten abonament, na przykład dla Forzy, no to możecie sobie przy okazji
tą grę, as Dusk Falls też ściągnąć i przetestować, albo poczekać do marca kiedy ukaże się właśnie ta wersja z audiodeskrypcją i wtedy sobie w nią zagrać.
No już wtedy będziemy na 100% wiedzieć wszystko co się dzieje, jak są postacie ubrane, jak dokładnie te lokacje wyglądają.
No myślę, że warto, warto poczekać.
Następnie klasyk został zaktualizowany, mianowicie gra Crazy Party.
Jeśli ktoś nie słyszał, to jest naprawdę fantastyczna, darmowa gra, która ma dwa tak naprawdę tryby.
Jeden tryb to są tak zwane minigry, w których robimy wszystko od mycia okien, zbierania grzybów, przepływania morza przepełnionego rekinami, uciekanie z jakichś fabryk, tam tych gier jest kilkaset i są naprawdę różne lokacje, jeszcze jakieś równania matematyczne, no jest tam co robić w tym crazy party.
Gra została zaktualizowana po dosyć długim czasie. Kilka miesięcy nie było żadnych aktualizacji, ale to się właśnie zmieniło.
Mamy betę 81, więc w międzyczasie kilka bet przeskoczyliśmy.
I co taka najważniejsza nowość jest taka, że gra jest teraz oparta na nowym silniku.
Wcześniej to był silnik BGT, teraz jest to ten sam silnik, na którym działa gra Survive the Wild sama Tupiego.
więc tutaj też, no, Sound2Peep pomagał w Crazy Party ostatnio,
więc tutaj po prostu autorzy postanowili przepisać tą grę na ten nowy silnik,
dzięki czemu może antywirusy też nie będą mnie i tak atakować,
dzięki też temu powinna działać bardziej stabilniej,
no i może w przyszłości będziemy mieli jeszcze lepszy dźwięk,
może jakiś dźwięk binauralny, bo w Survival of the Wild to jest w Crazy Party,
na razie nie, no ale kto wie, co pokaże przyszłość.
Natomiast to może powodować problemy ze stabilnością,
tutaj autor oświadcza, że czasami mogą być rzeczy, które mogą nie działać tak jak powinny.
No na przykład wiem, że w niektórych grach nie wszystkie dźwięki są otwarzane,
więc trwają też prace, żeby to wszystko było dopracowane.
Natomiast to już działa dosyć fajnie i co zostało dodane?
Zostało dodane pięć nowych tzw. mikrogier.
Jest lepsze wsparcie dla systemu UTF-8, więc jeśli ktoś tutaj pisze np.
cyrylicom czy po chińsku czy po japońsku, no to teraz ten czat powinien działać lepiej.
BGT go nie wspiera, to też chyba kolejny powód, dla którego no ten silnik został zmieniony.
Mamy ponad 30 nowych kart do trybu bitwy, jest też nowy tryb takiej wieży bitwy,
więc jeśli przeszliśmy wszystko co już w grze było, no to możemy sobie w takiej
nieskończonej wieży walczyć przeciwko komputerowi, który będzie stopniowo
starał się, który stopniowo będzie coraz trudniejszy.
Nasze, nasi przeciwnicy będą mieli więcej życia, my będziemy mieli mniej.
Potem będzie ich więcej, będziemy grać na przykład dwa przeciwko jednemu, no ale
też po każdej bitwie możemy sobie wybrać różne nagrody, które pomogą nam w tej
grze na przykład zdobyć więcej życia, dotrzeć partnera komputerowego, który
będzie z nami tę bitwę przechodził.
No i w ten sposób możemy sobie próbować jak daleko uda nam się na tej wieży dojść.
Mamy też…
Mamy też kilka nowych minigier w świecie Playroomu.
Też możemy sobie je odbogować.
No i to jest generalnie wszystko jeśli chodzi o to Crazy Party, ale tutaj też właśnie mamy
zapowiedź, że za jakiś czas może się pojawią kolejne aktualizacje, a jeśli ktoś właśnie dawno w tą grę nie grał, no to może być dobry moment, żeby sobie ją odświeżyć, zobaczyć, co się pozmieniało, bo myślę, że… bo warto.
I kolejna duża aktualizacja, tym razem gry Forza Motorsport.
Mamy aktualizację trzecią, update 3.0 jak tutaj napisali twórcy gry, no i tutaj największą nowością jest to, że została dodana nowa trasa, tym razem jest to niemiecki Hockenheim Ring.
Też oczywiście są nowe samochody, nowe turnieje w trybie jednoosobowym, więc też mamy więcej wyścigów, które możemy sobie przejść, ale też mamy nowości w dostępności, które myślę wiele osób ucieszą.
została dodana nowa opcja w ustawieniach dostępności i właściwie dwie nawet, dotyczące narratora, który może nas teraz automatycznie informować, kiedy nasza pozycja się zmieni.
To jest bardzo fajne, wiele osób o to prosiło. Gra nam teraz po prostu powie, jeśli kogoś wyprzedzimy, że jesteśmy trzeci, drudzy itd.
więc będziemy po prostu wiedzieć, które miejsce zajmujemy w tym wyścigu, a nie tak jak wcześniej musieliśmy to, pauzować grę i sobie to w ten sposób sprawdzać.
Teraz nam to gra będzie mówić, możemy sobie ustawić kiedy to ma być robione, czy tylko po zakończeniu okrążenia, czy w momencie kiedy to się zmieni, czy w trybie jednoosobowym, czy wieloosobowym, czy w obu tych trybach, więc tych ustawień jest całkiem sporo i możemy też być informowani jeśli akurat gonimy jakiś samochód i chcemy go wyprzedzić, albo ktoś nas goni, no to gra może nas teraz o tym poinformować i dodatkowo przeczytać nazwę użytkownika tej osoby.
Więc po prostu wiemy też z kim walczymy i po prostu wiemy też, że zbliżamy się do kogoś, że może zaraz uda nam się jakąś osobę wyprzedzić.
Mamy też poprawki, poprawki na przykład w czytaniu ekranu konfiguracji standardowego wyścigu, bo tam wcześniej nie zawsze był fokus prawidłowo czytany.
Poprawiono błąd, że gra się jakoś czasami wysypiwała, kiedy zmienialiśmy filtry kolorów, czasami audiodeskrypcja nie była czytana, to też zostało poprawione.
I kiedy jakiś wyścig zaczynał się nie od… Niektóre wyścigi zaczynały się tak, że samochody wszystkie już jechały i podjeżdżały pod odpowiednie miejsca i wtedy wyścig się zaczynał, a nie że stali od samochodów stojących się wyścig zaczynał.
W takich sytuacjach komunikaty o zbliżających się zakrętach nie działały, co się dało łatwo obejść, ale to był błąd, który też na szczęście został poprawiony, więc one po prostu już zawsze będą nam działać.
No i też została dodana audiodeskrypcja do sekwencji na podium na wszystkich trasach, więc kiedy skończymy jakiś wyścig to będziemy też mieli dodatkową audiodeskrypcję jak ta ceremonia wręczania pucharów wygląda.
I to jest wszystko, znaczy oczywiście poprawek też jest więcej jeśli chodzi o same samochody, o fizykę w grze, no ale takie najbardziej istotne zmiany dla nas to są właśnie te.
I na koniec, a propos zmian istotnych dla nas, Hearthstone, konkretnie mod Hearthstone Access, tak jak mówiłem w zeszłym tygodniu, pojawiła się duża aktualizacja gry, która przebudowała od zera sklep i tryb nowicjuszy.
tutaj autorzy moduł Hearthstone Access ostrzegali, że to nie będzie na początku dostępne.
To się pomału zaczyna zmieniać, bo pojawiła się właśnie aktualizacja, która sklep udostępnia,
więc jeśli ktoś chciał sobie coś kupić z tego sklepu w grze, no to już na szczęście można sobie do niego wejść i to zrobić.
Ten sklep teraz też zawiera zarówno przedmioty do takiej tradycyjnej gry, jak i do trybu ustawek.
Wcześniej to były dwa osobne sklepy i ten sklep z ustawkami był niedostępny,
no to przy okazji też udało nam się uzyskać do tego dostęp.
No i jeszcze został tryb nowicjuszy, nowy, który jeszcze nie jest dostępny,
ale autorzy moda mówili, że może w przyszłym tygodniu to się uda zrobić,
więc myślę, że kiedy do Was wrócimy w przyszłym TVP, to już też powinno działać.
No i to wszystko ode mnie, jeśli chodzi o grę.
To teraz przechodzimy do tego, co mają do powiedzenia nasi słuchacze.
Na dobry początek odbieramy telefon od Pawła, który się naczekał, naczekał,
Ale się doczekał. Dobry wieczór, Pawle.
Dobry wieczór, witajcie.
Ja bym chciał się po pierwsze zapytać o jakieś dostępne gry na takie właśnie zimowe wieczory.
Dawniej to ja bardzo lubiłem sobie grać w Seasonsa na iOS-ie.
Niestety gra przestała istnieć.
A te gry, o których tutaj wspominacie bardzo często w audycji,
No niestety moja znajomość angielskiego nie pozwala na to, żeby właśnie skorzystać, stąd właśnie pytanie moje, jak sobie nawet poradzić, jeżeli się języka nie zna, czy da to rady jakoś obejść,
bądź ewentualnie właśnie podobne gry, jakieś proste, typu Sixcells, żeby po prostu nie trzeba było się nie wiadomo ile uczyć.
Jeżeli to jest komputer, to wtyczka NVIDIA Translate, która tłumaczy wszystko co NVIDIA mówi w czasie rzeczywistym.
Oczywiście warunek jest taki, że gra musi gadać przez NVIDIA, a nie przez SABI.
No i drugi warunek jest taki, że taki absolutny czas rzeczywisty nie jest wymagany.
Jeżeli będzie półsekundowe opóźnienie, to nie będzie to stanowiło problemu.
Ja mam tą wtyczkę Instant Translate. Czy to o to chodzi?
Nie, bo Instant Translate to jest wtyczka, która skrótem pozwala przetłumaczyć ostatnio wypowiedzianą rzecz NVIDII.
Czyli najpierw NVDA mówi, a potem ty naciskasz skrót i to jest tłumaczone.
Natomiast ta wtyczka Translate to ten… Jezu, jak on się nazywał?
Janik Prusia.
Tak.
To ona działa w ten sposób, że naciskasz skrót, domyślnie CTRL-SHIFT-NVDA-T
I ten skrót powoduje, że każda wiadomość, która zostanie wypowiedziana przez NVDA zostanie przetłumaczona na język polski.
I w tym momencie już nic nie trzeba dodatkowego naciskać, po prostu wszystko co mówi NVDA zostaje z automatu tłumaczone na polski, czy tam na jaki język sobie ustawisz.
Z tych języków, które oczywiście są wspierane przez tłumacza chyba Google, opóźnienie jest dość niewielkie.
Poza tym, jeżeli to będzie wiadomość, która już raz została przetłumaczona, to już nie będzie powtórnie tłumaczył, tylko on sobie weźmie z pamięci to przetłumaczone coś, w związku z czym będzie to wypowiedziane natychmiast.
I z czasem w przypadku gier to rzeczywiście może przyspieszać.
Tak, no i u mnie się to rzeczywiście sprawdza i myślę, że w przypadku gier może być to naprawdę niezła pomoc.
Może być pewien problem z tym, jeżeli gra wysyła bardzo dużo komunikatów. Bardzo dużo to znaczy kilka na sekundę, że NVIDIA nie wyrabia się z wypowiadaniem tego wszystkiego.
Wtedy, zanim jedno będzie przetłumaczone, już dostaje NVIDIA drugą rzecz i to po jakimś czasie potrafi troszeczkę tutaj wysypać program.
Natomiast jak to działa? W sumie mogę do Reapera wejść, bo akurat mam otwartego Reapera, troszkę tylko go zwalnię.
I w tym momencie, teraz już powinno być ripera słychać i tu jak słychać, ma fajny preview i mam nadzieję, że słychać moją klawiaturę, słychać, dobrze.
Teraz włączam tłumaczenie i teraz, o akurat teraz dość szybko, znaczy dość wolno.
rozwija. Plik rozwijany. Nowy projekt CTRL N1. Nowa zakładka. Otwórz projekt. CTRL O3 29.
To z reguły jest nawet troszkę szybciej niż teraz. Zapisz projekt. Zapisz projekt jak. Zapisz nową wersję
projektu CTRL ALPS HIFTES 6 z 29. A teraz Tomku jak przejdziesz w górę. Zapisz projekt jako.
Tak to już jest szybciutko dlatego, że on skorzystał z tego cache’u.
Zapisz projekt. Otwórz projekt. Nowa zakładka. Nowy projekt. Wyjdź z CTRL O3 29.
No właśnie, dzisiaj to jakoś działa tak troszkę obornie. Z reguły jest to troszkę szybciej. Niemniej, no rzeczywiście to styczka, która może troszkę pomóc w grach właśnie, bo to tłumacz na bieżąco, więc tutaj tylko raz wciskamy skrót i wszystko co Nvidia mówi jest tłumaczone.
To właśnie wszystko. Czyli jeżeli wyjdę na pulpit i mam na przykład
kosz 4 z 11.
I włączę to tłumaczenie.
Tłumaczenie włączone.
No to przyciskam strzałkę w górę.
Kosz 4 z 11.
Czekaj.
Teraz już.
Teresa 5 z 11.
Uruchom mózg z 6 z 11.
No właśnie, więc to wszystko jest tłumaczone.
Nieważne gdzie jestem. Jak jestem na pulpicie, no to to też jest.
Na przykład kiedyś miałem coś takiego, akurat to działało właśnie troszkę lepiej i byłem na pulpicie i patrzę, że on czyta jakieś dziwne rzeczy, których w ogóle nie mam i właśnie okazało się, że mam włączonego tłumacza.
Tylko, że akurat wtedy to działo tak, że działo to naprawdę niemalże tak, jakbym to miał w czasie rzeczywistym. Tak, w czasie rzeczywistym. Także, no, różnie to było.
Jedna fajna rzecz, którą ten dodatek ma, to on też robi sobie cash tych tłumaczeń dla każdej aplikacji osobno, więc jeśli faktycznie wykorzystujemy go do jakiejś gry, no to na przykład jeśli ciągle przechodzimy przez jedno menu, które się nie zmienia, no to on sobie to menu po czasie zapamięta i w takich przypadkach, no to wtedy to nawet nie będzie wysyłane do serwera, to menu będzie działało szybciej po jakimś czasie, no więc to też fajny dodatek generalnie.
Tak, ja też.
A Crazy Party, czy ona by działała z tym tłumaczem?
Crazy Party jest chyba spolszczone.
Przynajmniej w jakiejś części.
W jakimś stopniu Crazy Party jest po polsku.
Pytanie, wiecie, pytanie, jak to spolszczenie ma się do tego nowego silnika?
Czy lokalizacje będą działały?
Raczej tak. Tam nie było napisane, że to się…
Zresztą tam odeszła nowa lokalizacja katalońska, więc myślę, że to powinno działać.
Natomiast gdyby nawet były jakieś problemy, to Crazy Party myślę, że to może być dobrym przykładem na działanie tego dodatku, jeżeli byłby plan.
My też graliśmy ze znajomymi w quiz party, nawet w playroomie, w sensie w tą taką grę playroomową, gdzie się odpowiada na pytania i no dawaliśmy radę, w sensie no ci, którzy nie rozumieli angielskiego właśnie tym dodatkiem się wspomagali i to się dało robić.
Także jak najbardziej się da, a jeżeli szukasz jakichś gier typowo po polsku, to może Hearthstone, bo on jest fajny, bo on jest za darmo, przynajmniej tam wiele rzeczy da się zrobić za darmo, nie trzeba się wkupować.
Jest po polsku i to nawet nie tylko tekstowo, ale też dubbingowo tam masz normalnie całą obsadę aktorską i to są znani polscy aktorzy dubbingowi do różnych postaci.
Więc może taki Hearthstone ci spasuje.
Dla widzących, która po prostu została zmodyfikowana, żeby działać pod tym.
Ale mod Hearthstone Access też został spolszczony, więc nawet te instrukcje pod nas, a ma swoje instrukcje, ten mod, też są spolszczone, więc bardzo fajnie działa.
No to trochę już mam do wypróbowania, a na telefony coś, ewentualnie coś się dzieje na tym rynku.
że ja mam wrażenie, że jak się właśnie skończyło iOS tam 10 tysięcy, to to wszystko właśnie umarło.
Coś się dzieje, natomiast czy coś się dzieje po polsku, to nie wiem.
No i tutaj niestety nie mamy tłumacza, którym moglibyśmy się wspomóc.
O ile nie wiadomo, z polskim jest gorzej i z takim tłumaczeniem jest gorzej na żywo.
To znaczy, po pierwsze, rzadko kiedy gry komunikują się voiceoverem albo stockbackiem.
W przypadku VoiceOvera jest w ogóle problem, w przypadku TalkBacka w sumie też, no komentary umie tłumaczyć na żywo i to rzeczywiście działa, można rzeczywiście też włączyć takie tłumaczenie w czasie rzeczywistym, to samo co jest w NVIDIA, tyle że komentary ma to wbudowane, natomiast tak jak mówię, nie znam gry, która z tym by działała, więc w sumie ta opcja to raczej do programów niż do gier.
Ja sobie pogrywam czasem w dwie gry, jedna to wisielec, który był prezentowany rok temu w okolicach świąt na blogu Piotra Witka, a druga to jest pięć sekund, tylko do pięciu sekund potrzebujesz najlepiej towarzystwa gdzieś tam osobiście u siebie, to jest fajna gra, żeby ze znajomymi pograć jak do ciebie przyjdą, no przez internet też można, gra w której aplikacja losuje jakąś kategorię, tam wymień trzy rzeczy, które nie wiem, można wziąć ze sobą na wakacje i leci sobie
sobie czas przez pięć sekund i przez te pięć sekund
dana osoba, która aktualnie ma swoją rundę
musi te trzy rzeczy wymienić w ciągu tych pięciu sekund
i ten czas jest odliczany przez aplikację.
A jakby można prosić właśnie o linka do tych
pięciu sekund? Ona jest w App Store, na Android?
Jest w App Store. Ja mam wersję App Store’ową
taką, którą mi ktoś polecił i ona działa.
Ja ją już kiedyś podklejałem, mogę ją podkleić znów w komentarzu.
To ja jeszcze tego chciałem zachęcić wszystkich, ponieważ ukazała się niedawno
SYNC-A na Androida.
Osoby, które nie miały styczności, bo to tylko dla iOS-a było przez długie lata.
Program mnie bardzo pozytywnie zaskoczył.
Już wiele testowałem tych OCR-ów różnych, a dzisiaj wziąłem po prostu fakturę zwykłą tam z Allegro i zeskanowałem tym Seeing Eye i przeczytał mi wszystko bardzo dokładnie, całą tabelkę z zawartością, z cenami, wszystkie kolumny, także naprawdę warto sobie zainstalować.
Ale jak rozumiem, w trybie dokumentów, nie w trybie szyfrowego.
Tak, w trybie dokumentów, bo w trybie tym, gdzie on czyta to, co widzi pod kamerą,
no to on po prostu przeczyta kawałek i przestaje czytać.
Więc najlepiej to w trybie dokumentów.
Ale on to bardzo ładnie robi, bo on sobie sam patrzy, czy widzi całą kartkę
i mówi, żeby nie ruszać telefonem, wykonuje sobie zdjęcie i czyta to dokładnie.
A tak ciekawe silnika auto jak rozumiem też patrzyłeś.
Tak, oczywiście też patrzyłem.
Też jest to bardzo fajny program, no ale SYNC, IMA, no nie było dotychczas.
Okej, a to dobrze, Filić.
Także to tyle na dzisiaj ode mnie.
Do następnych audycji.
Dzięki Pawle za telefon, do usłyszenia, pozdrawiamy Cię serdecznie, ale to oczywiście nie jest koniec wypowiedzi od Was.
Mamy wypowiedzi, mamy też słuchacza, który gdzieś tu już czeka, żeby się z nami połączyć, ale zanim połączymy się z Patrykiem,
to może posłuchajmy, co do powiedzenia ma nasz słuchacz, który nagrał się na Whatsappie. Roberto.
Cześć wam, tu Roberto Lombino z Pragi, akurat teraz z Czech i najpierw ciekawostkę powiem szybciutko dla tych wszystkich, którzy kiedyś mieli w Skype’ie Tyflo Podcast, może to mówiłem na antenie, ale jeśli nie, no to jeszcze raz, albo to teraz powiem, że mi się jakby zapisał ten numer jeszcze z dawnych czasów, kiedy to miałem Skype’a
bardziej aktywnego i właśnie miałem, miałem kontakt Tyflopodcastu,
więc teraz na Whatsappie i w ogóle w telefonie się u mnie nazywacie
Pierwszy Polski Podcast dla Niewidomych.
No.
I żeby nie przeszkadzać wszystkim słuchaczom wiernym,
którzy się dobijają do Was dzwoniąc, to tylko powiem w wiadomości głosowej,
że przekażę ankietę o czytnikach ekranu swojemu koledze, który widzi i który mnie pytał jakiś czas temu o screenreadera,
bo zwyczajnie bolą go oczy jak pracuję przy komputerze i poleciłem mu tam na czy on próbował coś z narratorem już.
Ja mu potem poleciłem NVDA.
No i on mnie teraz zapytał,
co ciekawe jeszcze o taką rzecz.
Może będziecie wiedzieć,
ale
pierwszy raz słyszę takie pytanie.
Może i ktoś z niewidomych by
takie coś,
albo takiego czegoś używał.
Czy da się ustawić w NVDA
echo znaków, ale tylko interpunkcyjnych?
Czyli liter
i odstępów nie mówi,
albo mówi tylko całe słowa
plus interpunkcja znaki przystankowe, bo mój kolega mówi, że pisze za szybko jak na to, że nawet ESPIK chyba nie daje rady z tego co wiem.
No a dwukropek to jest shift plus średnik na przykład, więc nie zawsze wie albo nie zawsze jest pewien czy mu się nacisnęło,
a nie patrzy właśnie na ekran, tak, żeby była jasność i nie zawsze jest pewien czy mu się nacisnęło to co trzeba,
właśnie czy napisał dwukropek, czy ukośnik, czy znak zapytania też pod shiftem, tak.
No także, czy w NVDA jest taka możliwość, albo przejdź w JAWSie,
to już tak w ramach ciekawostki, no bo on raczej nie będzie sobie kupować.
Ale czy wiecie o jakiejś takiej opcji, żeby ustawić tylko echo znaków przystankowych,
ewentualnie plus całe słowa, ale nie zwykłych znaków?
Miłego wieczoru, miłej reszty audycji, pozdrawiam.
A to jest ciekawe pytanie, swoją drogą. Ja nic o tym nie wiem, żeby taka możliwość była, ale może to jakąś wtyczką dałoby się załatwić, gdyby ktoś był zainteresowany, to zawsze może ktoś napisze, bo rzeczywiście fajna rzecz.
Ja patrzyłem w ten NVIDIA Global Extension Plugin, ten francuski taki, który dodaje mnóstwo różnych opcji, ale on z tego co widzę ma tylko klawisze różnych poleceń i klawisze naciskane.
W sensie, keyboard keys renaming, można zmienić nazwę klawiszy i no właśnie, i to jest tyle.
I tu patrzę, że to są tylko przyciski takie funkcyjne, to nie są bynajmniej takie klawisze tradycyjne do pisania liter,
więc coś w tę stronę, ale na razie…
I może jest to jakaś baza i może tu gdyby autorom zgłosić jakąś taką sugestię,
to może, może coś na tej podstawie dałoby się dobudować do tej wtyczki.
Tak, tak, tak.
A tymczasem odbieramy kolejny telefon.
Tym razem jest z nami Patryk.
Witamy Cię.
O, ale mamy na razie jeszcze tu jakiś problem.
No to tak, to chciałem troszeczkę tutaj uzupełnić wypowiedź Piotra o temat gier, żeby jeszcze pojawiła się jedna rzecz, o której Piotr nie powiedziałeś, ale to mogło cię ominąć, bo to dzisiaj.
Pamiętacie, była taka mowa na temat moda do Final Fantasy VII i dzisiaj publicznie został udostępniony silnik,
czyli to co obecnie jest zrobione na Githubie, jest link do Githuba i już mogę więcej powiedzieć czym tak naprawdę jest ten mod do Final Fantasy VII,
Bo to nie jest tak do końca mod. To jest tak naprawdę silnik. On Brave chyba się nazywa, i to jest silnik, który w zasadzie tam ktoś przepisał większość kodu gry, tak żeby to jakoś tam hulało, żeby to wszystko działało.
i tak naprawdę dostępność jest robiona w samym średniku i już można sobie z GitHuba pobrać, jest kod źródłowy, jest wszystko i po odpowiednim spatchowaniu tam do różnych rzeczy typu do save’ów,
do miejsca, gdzie mamy grę, do skopiowania, do odpowiedniego włączenia pluginów, tych wszystkich TTS.
Ja jeszcze tego nie robiłem, bo nie posiadam jeszcze Final Fantasy VII, więc nie wiem dokładnie, jak to się robi.
Natomiast można to zrobić, w tym momencie Final Fantasy VII powinien do nas mówić.
Natomiast nie wiem, jaki jest status na chwilę obecną.
Właśnie dlatego o tym nie mówiłem, bo tak naprawdę to zostało chyba udostępnione dlatego, że no akurat autor tego projektu gdzieś nie miał czasu, żeby jakoś nad nim pracować od ostatniego czasu, a jak wiemy niestety wielu osobom na forum mają mało cierpliwości, po prostu zalewałeś Tomka o prośbę dajcie linka, dajcie linka, to chyba się po prostu wkurzyli, po prostu linka dali, ale to nie jest jeszcze ukończone, a tego też o tym nie chciałem mówić, bo na przykład
Zresztą powiedziane na stronie, nie mamy na przykład mowy podczas bitw, podczas pojedynków, a to jest duża część tej gry, bez odpowiednich komunikatów będzie nam ciężko daleko przejść, więc to jeszcze musi być rozwinięte.
Może będzie tak, że faktycznie społeczność się włączy i prace przyspieszą, ale na razie na to się nie zanosi.
Myślę, że ci, co bardzo tak prosili, pewnie będą rozczarowani. Tomek mówił, że to jeszcze było za wcześnie tak naprawdę.
Ja się raczej z tym bym musiał zgodzić, także jeśli to zostanie dodane i faktycznie będzie dało się gdzieś dalej przejść,
to na pewno o tym wtedy powiem więcej. Na razie to jest bardzo surowe stadium.
Mówię o tym jako o ciekawostce, bo może jest ktoś, kto nas słucha, kto może zna kogoś i ktoś jest na programowaniu i chciałby jakoś wspomnieć.
Jeśli ktoś programuje w C-Sharp, chciałby pomóc, oczywiście jest kod, więc może faktycznie wtedy będziemy szybciej.
Mam kilka osób, które mogłyby w tym pomóc, na przykład człowiek, który robi mod do Stadiu Wally, który jest moderem, myślę, że jakby mu to wysłać, no to myślę, że mógłby na to spojrzeć.
Także, ja będę na pewno to robić, ja to wyśle tym osobom i zobaczymy, no ja bardzo bym tego chciał, natomiast jeszcze powiem a propos z Vs Zombies, tego moda, że ja jestem z tych osób, które miały problemy, że nie dało się klikać w tę opcję i powiem szczerze, że może się zdarzyć, że jeszcze takie coś nastąpi, to należy wyłączyć akcelerację 3D.
Jeżeli np. ja mam taki problem, że jeżeli u mnie jest akceleracja 3D włączona,
np. nie jestem w stanie kliknąć w takie sytuacje, że coś się nazywa help,
to znaczy jestem w stanie z OCR-em, nie jestem w stanie kliknąć Enter-em,
to jest małoważna opcja, bo tam tylko pokazuje jedno zdanie w zasadzie,
że mamy czekać, aż zombie przyjdą i nic nie robić,
ale mówię jako przykład, że może się tak zdarzyć,
że nie będzie się dało w coś kliknąć,
Enterem, albo na padzie.
Mamy pliki REC, które zarówno wyłączą akcelerację 3D,
jak i wyłączą tryb pełnoekranowy, jeśli też będą problemy z tym.
I też można w ustawieniach bawić się skalą wyświetlania,
jeżeli problem będzie, bo to jest stara gra.
Ja napisałem o niej na Altenie i chyba tam się pomyliłem,
bo ja napisałem, że to jest gra z 2001 roku, a jednak ona jest z 2009,
ale wymagania, niestety, tej gry są takie, jakby faktycznie była z 2000 któregoś roku.
Więc ja nie wiem, czy to nie jest tak, że w 2009 roku, czy tam 2010, ta gra nie pojawiła się na Steamie,
a wcześniejsze wersje nie były wcześniej.
No w każdym razie jest to stara gra, więc na nowszych komputerach cóż, mogą być problemy.
I nie ma już ich, natomiast jeśli ktoś by je miał, to można spróbować.
Można grać ze spolszczeniem, jest tutaj dla osób, które nie znają angielskiego,
można zainstalować spolszczenie do tej gry, bo gra nie jest po polsku,
mimo że Electronic Arts to zrobiło, ale nigdy nie przetłumaczyli tego.
Natomiast rzeczy związane z modem, czyli tutorial, wszelakie tutoriale nie są tłumaczone, już mówię dlaczego, dlatego że tutorial jest zupełnie inny i nie pokrywa się z tym, co jest rzeczywiście widoczne na ekranie.
Bo na przykład na ekranie będzie napisało kliknij w roślinę, żeby ją wybrać, a mod inaczej będzie mówił to.
I jeszcze jest problem taki, że jak już będziemy w fabule,
no to niestety nie będziemy wiedzieli te artykuł sici, onzi, żed i tak dalej.
Nie wiem, czego to jest problem.
Autor powiedział, że jak upora się z różnymi funkcjami do moda,
no to postara się zrobić tak, żeby wsparcie dla nieoficjalnych plików językowych było jak najbardziej dostępne.
także autor o tym wie, że tam są problemy.
Natomiast powiem jeszcze z czym problemy są na chwilę obecne,
jak w to gramy.
Problem polega na tym, że w tej grze biegają zombie.
No i my musimy tymi roślinami generalnie wiedzieć, jak te rośliny ustawiać.
Zasada jest taka, że po lewej stronie jest nasz dom, ogród,
A po prawej stronie, no właśnie, chyba można to nazwać miejscówką zombich, skąd oni wychodzą.
Bo oni wychodzą z prawej strony i idą po ukosie i idą w stronę lewą.
No i te rośliny musimy tak sadzić, żeby tam na lewą stronę te zombiaki nie przeszły.
Problem jest taki, że one biegają. My słyszymy, że te zombiaki biegają.
Gra nas zanim poinformuje, za chwilę się zacznie fala zombich.
ale problem jest taki, że dźwięki tych zombie są w mono,
więc my po dźwięku nie jesteśmy w stanie usłyszeć, w którą stronę one biegają
i musimy to sprawdzać odpowiednim klawiszem, który nas informuje,
na jakim kwadracie jest zombie, ale zdaje się, że to chyba też,
ja nie wiem Piotrze, czy poprawnie, jeśli się mylę, że to jest co do rangi,
że np. jeżeli nie będziemy na kwadracie, w pobliżu, gdzie mogą być zombie,
to też nie usłyszymy no zombies i nie usłyszymy, gdzie one są.
Więc musimy tę grę na razie jakby zamrażać klawiszem TAB,
czyli po prostu my sobie wtedy możemy na spokojnie sprawdzić,
gdzie te zombie chodzą, gdzie są i wtedy możemy sadzić rośliny,
bo na razie jest to w mono i też dlatego niektóre minigry
mogą nie być dostępne, z tego powodu, że właśnie dźwięk biegania zombie jest w mono.
Oczywiście mod ma swoje dźwięki, które ostrzegają, gdzie co jest i one są w stereo.
Natomiast same dźwięki tych zombiaków, jak one biegną, są w mono.
Niestety nie wiem, czy da się z tym coś zrobić, ale na razie tak jest.
Jest taka sytuacja, że musimy to sprawdzać klawiszem, jak te zombie chodzą, a to jest
No jasne. No dobrze Patryku, to czy dla nas masz jeszcze jakieś informacje?
Ja jeszcze chciałem powiedzieć tutaj a propos iOS-a i tych, tego anty, tak przed kradzieżą.
Naszła mnie pewna refleksja słuchajcie, no bo tam było spowiedziane no, że to tam już nie będziemy musieli kodu używać, żeby
Do pewnych rzeczy mieć dostęp, tylko tam uwierzytelnianie Face ID i Touch ID.
Ja mam pewne obawy i mogę powiedzieć jakie może być niebezpieczeństwo.
Tu nie chodzi akurat o kradzież, ale np. w sytuacji, oby się nikomu to nie stało,
ale może się stać, jesteśmy gdzieś na jakiejś imprezie i w pewnym momencie,
że ktoś nas upija, specjalnie tracimy przytomność jako osoby niewidome.
Co się w tym momencie zaczyna dziać?
Ktoś sobie bierze telefon i jeżeli mamy np. to Touch ID,
bierze sobie np. naszą rękę,
bo np. ktoś podpatrzył, że odblokowujemy telefon palcem wskazującym.
W tym momencie przykłada telefon w taki sposób,
żeby ten czytnik ekranu dotknął tego palca i w tym momencie ta osoba już odblokowała sobie telefon.
A jeszcze jeżeli ktoś ma ustawione, że ma ekran blokady wyłączony, żeby się ekran nie blokował,
no to w tym momencie jesteśmy załatwieni, bo ta osoba, która w tym momencie chce nas okraść,
ma dostęp do wszystkich danych.
Bez ID może być podobnie, bo jeżeli my nie patrzymy na ten telefon, jeżeli jesteśmy nieprzytomni,
Mamy oczy zamknięte. W tym momencie ktoś może sobie wziąć telefon jak leżymy i przyłożyć po prostu do naszej twarzy i w tym momencie ten telefon odblokować.
Także ja nie wiem czy to jest dobry sposób ta telemedia.
Wiesz co, tu była kiedyś dyskusja, pod którymś, czy to z tyfloprzeglądów, czy a propos iPada, pod tym podcastem, że w przypadku FaceID to wcale nie zawsze to tak działa, że on w każdej sytuacji chce nas przepuścić i mam wrażenie, że w przypadku tej naszej nieprzytomności,
to nawet jak mamy wyłączony ten punkt uwagi, to też mógłby to być problem.
To oczywiście trzeba by było przetestować, jak to się w praktyce zachowuje, ale był taki komentarz…
No nie, ja spałem, ale ja na przykład spałem i kiedyś właśnie byłem na jakimś wyjazdzie tutaj właśnie
i z kimś testowałem i pomimo tego, że spałem na plecach, to po prostu ten telefon się odblokował.
Okej, czyli to po prostu różnie działa, no bo w tej dyskusji mieliśmy właśnie taki komentarz od słuchaczki,
która nawet w sytuacji, kiedy była, co prawda to nie było w trakcie snu, tylko bardziej na przykład była zdenerwowana
i miała inny wyraz twarzy niż w momencie, kiedy skanowała ten FaceID.
W tych nowszych iPhone’ach na to w przypadku Touch ID, ja już słyszałem o przypadkach, że chłopak uśpił dziewczynę i odblokował jej telefon właśnie w taki sposób.
Ja nawet nie chcę tutaj mówić, ale po prostu słyszałem o przypadkach, że ktoś iPhone’a SE nie odblokował palcem, tylko odblokował inną częścią ciała.
więc że ten czytnik linii papieralnych też to w przypadku tych iPhone’a SE nie do końca na palec działał.
No to wiesz, to już po prostu może, no ja słyszałem, że ktoś, że gdzieś tam na początku, kiedy ten Touch ID został wprowadzony, to jakoś za pomocą parówki go się udało nawet odblokować.
Także, ale właśnie mówię o takich sytuacjach właśnie, że nawet wśród osób widzących to ten Touch ID moim zdaniem nie jest bezpieczny i tu powinni jakoś to zrobić. Nie wiem, nie wiem jak.
Z drugiej strony, Patryku, też warto mieć na uwadze to, że ten Touch ID czy Face ID nie pozwoli nam podejmować tych prób w nieskończoność.
On tam za którymś razem, bodaj za trzecim lub za czwartym, no po prostu już się zawiesi na amen i jeżeli to nam nie pójdzie, no tylko wiesz,
Inaczej mam wrażenie, że skanuje się z pozycji drugiej osoby, czyjąś twarz, czy rękę, a inaczej skanuje się…
Naprawdę takie przypadki już były z tym palcem.
To znaczy, wiesz, ostatnio były też przypadki, że producent pociągów wprowadził jakieś blokady do pociągów
i nie chciało to w ogóle ruszać, a z laboratorium wyciekło ileś danych medycznych, oczywiście.
Oczywiście, to są przypadki i jest to problem, natomiast pytanie, dlaczego zostało to wprowadzone tak, a nie inaczej, tego typu zabezpieczenia, albo takie zmiany, ja podejrzewam, że tu mamy do czynienia z jakąś kwestią skali, no tak naprawdę wszystko okaże się w najbliższym czasie,
No i jeżeli będzie więcej jakichś takich przypadków, to cóż to podejrzewam, że to się tak czy inaczej zmieni.
My tego tu nie rozstrzygniemy, co najwyżej możemy się kontaktować z Aplem i gdzieś tam nasze wątpliwości wygłaszać.
Tak, to ja już także nie chcę po prostu tutaj przedłużać, natomiast ja chciałem powiedzieć jeszcze o WoW-ie, bo wiem, że jest podcast o World of Warcraft.
Ostatnio zrobiło się zamieszanie, bo tak naprawdę mamy ostatnio dwa rodzaje WoW-a klasyka, tak naprawdę.
World of Warcraft Classic i Wrath of the Lich King.
I ktoś mnie kiedyś, parę osób mnie zapytało, no dobra, ale którą, z której ja mam pobrać w ogóle?
Którego WoWa ja mam ściągnąć, żeby w ogóle grać?
Jaka to jest różnica?
Tak naprawdę Wrath of the Lich King to tak naprawdę też jest World of Warcraft Classic,
tyle że z dodatkiem, po prostu z rozszerzeniem.
Natomiast sam World of Warcraft Classic to jest tak naprawdę World of Warcraft Classic, zwykły classic,
który ostatnio przeżywa odrodzenie, bo pojawiła się tam takie coś, co się nazywa Season of Discovery,
gdzie są zupełnie inne jakieś aktywności, gdzie jest 25. poziom, ale nie ma tam żadnych dodatków,
po prostu jest to suchy classic, więc kto co woli, kto co chce.
Więc tak naprawdę to i to jest klasykiem. Tylko, że po prostu w tej pierwszej jakby nie ma napisane, że to jest klasyk, tylko Rat of the Lich King i po prostu to może wprowadzić zamieszanie, także mówię, że jedno i drugie jest klasykiem.
Tyle, że to jedno z dodatkiem, a to drugie bez.
Jasne. To dzięki również i za te informacje.
To do usłyszenia w takim razie.
Do usłyszenia, pozdrawiamy.
Do usłyszenia, trzymaj się.
Przechodzimy do konkretnego newsa i tutaj chyba najlepiej będzie jak go po prostu przeczytam, to co tutaj Michał napisał w notatkach, to znaczy strefa innowacji przeprowadziła swoje badanie dotyczące stron i aplikacji mobilnych. Oto wyniki.
Tak jest. Oto wyniki, bo Fundacja Strefa Innowacji, z której prezeską zresztą jakiś czas temu miałem przyjemność rozmawiać na antenie Tyflo Radia, właśnie tego typu badanie przeprowadziła.
Nie tylko Webejm zajmuje się analizą tego, jak niewidomi korzystają z różnych technologii asystujących, także i mamy polskie badania tego typu.
Na stronie Fundacji Strefa Innowacji ukazał się artykuł opisujący te badania,
więc ja teraz pozwolę sobie przeczytać kilka słów na temat tego, jak to wszystko wyglądało.
Już sobie to otwieram i już czytam.
Na przełomie września i października przeprowadzaliśmy ankietę dotyczącą
dostępności cyfrowej stron internetowych i aplikacji mobilnych wśród osób z niepełnosprawnością wzroku.
Ankiety udostępniliśmy również na grupach facebookowych.
Celem naszego badania było pozyskanie informacji dotyczących sposobu korzystania oraz problemów dostępności,
na które osoby z dysfunkcją wzroku natrafiają podczas korzystania z różnych stron internetowych i aplikacji mobilnych,
zwłaszcza tych reprezentujących firmy i instytucje.
I na dobry początek mamy tutaj krótką charakterystykę
respondentów tej ankiety.
I cóż tu mamy?
Około 65% to były kobiety,
70% stanowią mieszkańcy miast,
osoby w przedziale wiekowym 31-50 lat.
Osoby niedowidzące stanowiły niewiele ponad 50% wszystkich odpowiadających.
Kolejna grupa to ociemniali 25% oraz niewidomi 20%.
Z perspektywy korzystania z komputera lub laptopa 60% to użytkownicy korzystający z czytnika ekranu.
30% korzysta z narzędzi powiększających i mówiących, 70% spośród osób używających czytnika ekranu korzysta z systemu operacyjnego Windows, z czytnika NVDA i teraz, to jest dla mnie, słuchajcie, zaskoczenie, 1% to użytkownicy narratora i Jossa.
To jest naprawdę bardzo, bardzo mało, zastanawiam się jakie ma to przełożenie na takie rzeczywiste używanie JOS-a i na to czy na przykład po prostu ta grupa była odpowiednio reprezentatywna, bo mam wrażenie, że ten 1% to jest bardzo malutko, ale przejdźmy dalej.
30% używa VoiceOvera, czyli urządzeń od Apple, natomiast biorąc pod uwagę korzystanie z urządzeń mobilnych, 70% ankietowanych do ich obsługi używa czytnika ekranu, z czego około 80% używa systemu iOS i czytnika VoiceOver, 20% to użytkownicy Androida i czytnika TalkBack.
A gdzie jest Joshua?
No i teraz tak. Korzystanie i ocena dostępności stron internetowych. W odpowiedzi na pytanie dotyczące najczęściej odwiedzanych stron ankietowani wymieniali głównie firmy z branży handlowej, sklepy internetowe, platformy Allegro czy Empik.
Często wymieniane były też strony Administracji Państwowej, Platforma.gov.pl czy strona systemu SOW.
W kontekście dostępności i poruszania się po stronach bardzo często zgłaszane były problemy ze stronami firm usługowo-handlowych i sklepów online.
Najczęściej wymieniane to nieopisane przyciski i pola formularzy, wyskakujące reklamy, tzw. pop-upy, które trudno zamknąć.
szczególnie przy użyciu czytnika ekranu, słaby kontrast kolorów.
Osoby ankietowane często zwracały również uwagę na problem z małą czcionką
oraz nieczytelną strukturą stron, która negatywnie wpływa na poruszanie się po stronie.
Korzystanie i dostępność aplikacji mobilnych to jest kolejny element tej ankiety.
W odniesieniu do aplikacji mobilnych ankietowani wymieniali aplikacje bankowe, transportowe,
najczęściej Koleo, nawigacje, aplikacje pocztowe, tu Gmail, społecznościowe, często wymieniane Facebook oraz komunikatory takie jak Facebook, takie jak, przepraszam, Whatsapp czy Messenger.
Nie dziwi szeroki zakres rodzajów aplikacji, ponieważ smartfon stanowi podstawowe narzędzie wspierające osoby z niepełnosprawnościami wzroku.
aczkolwiek nie jest to tylko cecha tej grupy, lecz całego społeczeństwa.
W odniesieniu do wymienionych najczęstszych problemów związanych z brakiem dostępności
były wymieniane wyskakujące okienka, które trudno zamknąć z perspektywy użytkowników czytników ekranu,
nieopisane przyciski, pola formularzy, opcje pola wyboru i menu.
a zatem głównie problemy związane z etykietowaniem elementów w kodzie aplikacji,
co powoduje, że czytnik ekranu nie odczytuje użytkownikowi, czego dotyczy dany element
i utrudnia lub uniemożliwia korzystanie z aplikacji.
Logowanie, świadome potwierdzanie lub zaznaczanie danych opcji.
W odpowiedzi na pytanie o to, czy są jakieś konkretne usługi lub treści online,
do których chciałbyś mieć dostęp, ale napotykasz na trudności związane z dostępnością,
wymieniane były aplikacje usług telekomunikacyjnych i opcja zakupu biletu z możliwością wyboru miejsca.
W ankiecie pytaliśmy również o sugestie i pomysły na poprawę dostępności.
W tym miejscu ankietowani wskazywali przede wszystkim na testowanie aplikacji i konsultacje
ze środowiskiem osób z dysfunkcją wzroku i praktykami w zakresie dostępności cyfrowej.
Często sugestie odnosiły się po prostu do stosowania standardów WCAG na etapie tworzenia,
wdrażania projektów oraz przy aktualizacji istniejących aplikacji.
Inne sugestie to przekazywanie informacji i uwag do administratorów i twórców aplikacji
i stron internetowych, żeby mieli informacje o tym, gdzie i co jest niedostępne.
Wymaga to aktywności środowiska, ale wydaje się, że jest najbardziej efektywne,
ponieważ bezpośredni kontakt z twórcą lub administratorem często jest najlepszym
sposobem na rzeczywistą poprawę dostępności.
Podsumowując, najczęściej wymieniane utrudnienia w dostępności zarówno
stron internetowych jak i aplikacji mobilnych należy wymienić kontrast, etykiety, przycisków i pól formularzy, strukturę nagłówków, wspomniane elementy.
Opisaliśmy w naszym ebooku 5 kroków do dostępności cyfrowej stron internetowych.
Osoby zainteresowane tym tematem zapraszamy do zapisów i pobrania bezpłatnego ebooka.
Zatem jak wejdziecie sobie na stronę Fundacji Strefa Innowacji, to będziecie mogli się zapisać, pobrać tego ebooka i sobie poczytać na ten temat.
Zresztą ten artykuł, który cytowałem będzie również w linkach pod najnowszym Tyflo przeglądem.
To teraz zanim przejdziemy sobie do kolejnych tematów, to jeszcze zobaczmy o czym tu do nas nagrywacie się na Whatsappie.
Na dobry początek dwie wiadomości od Maćka.
Coś mnie bezwstydnie wywaliło, słuchajcie, ja gadałem, chyba już mnie antena miała dość, przeciążyłem, ale do rzeczy, dokończę, pozwólcie, jeszcze myśl odnośnie tego, tego, tego, tego blokera, czyli reasumując, na iPhona średnio, bo z tego co, tak jak mówiłem, tam gdzie mnie urwało
Z innych aplikacji, z tego co wiem, to jeśli chodzi o streamingi i reklamy, to to wycina, z YouTube’a niestety nie.
No i tak jak mówiłem, z tymi plikami cookie i tak dalej, reklamami w innych aplikacjach niż Safari, no to też jest problem.
No i pamiętajmy też, że jeśli się instalują rozszerzenia, to wyłącznie do Safari z Chrome’em
nam to raczej nie zadziała.
Co jeszcze?
A, no właśnie, żeby sobie te reklamy powycinać, bo tak naprawdę tam trzeba sobie w ustawieniach
trzy rozszerzenia włączyć.
tam Vipr Part 1, Part 2, chyba nie wiem czy nie jest Part 3 jeszcze, no i jeszcze jest Vipr Extra
i właśnie Vipr Extra odpowiada za drastyczne wycinanie reklam, tak już naprawdę inwazyjnie
i między innymi właśnie te z YouTube’a, bo te pozostałe rozszerzenia to niestety tego nie robią.
I co? I właśnie, tak jak mówię, namaka bym polecał na iPhona, nie wiem, to już musicie sami rozważyć, czy Wam się chce w to bawić, zwłaszcza, że sobie trzeba zapłacić namaka, na pewno będziecie bardziej zadowoleni.
A jeszcze taki szybki trik na koniec Wam zapodam odnośnie przycisku odśwież na pasku narzędzi,
jakkolwiek by to nie zabrzmiało, w każdym bądź razie w artykułach wsparcia Apple czy gdzieś właśnie
w, choćby nawet w tym, w tej sekcji najczęściej zadawanych pytań w tym programie odnośnie tego
tego programu. Spotykamy się z tym. No, żeby tymczasowo, jak coś nie działa,
zablokować, znaczy tymczasowo wyłączyć dla danej strony blokadę zawartości,
tudzież jeśli o przekazywanie prywatne iCloud, tymczasowo wyłączyć,
żeby adres IP dla danej strony nie był ukrywany, to na pasku w ogóle nawet chyba jest
napisane w artykule wsparcia Apple, że w menu widok, znajdź przycisk odśwież stronę,
czy jakoś tak i przytrzymaj z klawiszem chyba oprzyn czy jakoś tak i wybierz konkretną opcję.
A to właśnie tak działa, a to odkryłem dzisiaj chyba, tak przypadkiem sobie myślę,
a może zadziała. Na pasku narzędzi mianowicie, na pasku narzędzi po interakcji mamy też
właśnie przycisk odśwież chyba, czy załaduj stronę ponownie, nie pamiętam,
W każdym bądź razie przycisk jest i tutaj sobie żadnym optionem nie przetrzymujemy i nie wybieramy niczego,
no bo jeśli option i enter, no to nam robi pobieranie pliku.
To co robimy, to w OSHIFT-M, jako menu skrótów, menu kontekstowe i tam mamy wszystkie dostępne opcje wówczas,
czyli właśnie odśwież, załaduj nową stronę i nie ukrywaj adresu IP, albo jeśli mamy oczywiście przekazywanie prywatne włączone,
albo właśnie wyłącz tymczasowy blokadę zawartości dla tej strony, jakoś tak to się nazywa.
Wospacja bądź Enter i nam się strona przeładowuje z nowymi ustawieniami tymczasowymi,
więc to jest tak to rozwiązane.
No i jeszcze odnośnie aplikacji tej Vipr, czego nie powiedziałem, że właśnie dostępna jest w App Storach,
czyli właśnie, no, w App Store’ze dla iPhone’a slash iPad’a
i w App Store’ze też nie z żadnej strony, nie znikąd,
tylko właśnie z App Store’a po prostu.
Po wpisaniu w wyniki wyszukiwania hasło Vipr
nam powinniśmy po prostu, no, otrzymać ten wynik.
To tak, jakby ktoś był zainteresowany.
9.99 po angielsku.
No i tyle.
Aha, i chyba wymaga iOS-a 17.2 nawet, więc wcześniejszych z tego, co się orientuję, nawet nie, tylko 17.2.
Co ciekawe, macOS-a chyba 10.13, a nie, znaczy tak, ale jakieś problemy są też w macOS Bixer z tym blokowaniem, coś tam, więc lepiej tak czy inaczej.
Jeśli ktoś może zaktualizować sobie przynajmniej do tego Montereya, a jeśli ktoś ma starszego Maca, będzie działać lepiej na pewno.
Jeszcze tak woli precyzyjności do wyczerpania tematu, powiedziałem o tym jak to zrobić
na Macu, jeśli chodzi o wyłączanie tymczasowych blokad zawartości na stronach, tudzież
tymczasowego wyłączania przekazywania prywatnego, natomiast nie powiedziałem jak się to robi
na iPhone’ie bądź iPad’ie. Tutaj sprawa jest o tyle prostsza, że odnajdujemy sobie przycisk
ustawienia strony, ikonka AA, prawda, a u nas VoiceOver czyta ustawienia strony przycisk.
Tam odnajdujemy opcję wyłącz blokadę zawartości albo pokaż adres IP, no i właśnie ten pokaż adres IP
tymczasowo nam wyłącza ukrywanie adresu IP za serwerami Apple i gdzieś tam pokazuje ten prawdziwy.
Wówczas nam się strona odświeża, no i mamy albo właśnie wyłączone blokadę zawartości,
albo prawdziwy adres IP, z którym jesteśmy, z sieci, z którą jesteśmy połączeni,
naszego dostawcy i tak dalej, to jest tymczasowe, tak jak mówiłem.
Jeśli zamkniemy daną stronę i ją odpalimy ponownie,
no to standardowo już będziemy mieli blokady zawartości włączone,
przekazywanie prywatne dla tej strony również, więc każda
razowo trzeba sobie to robić, chyba że można sobie w ustawieniach
jeszcze normalnie w safari powyłączać, co znaczy przekazywania prywatnego chyba nie,
blokad zawartości prawie na pewno można sobie w ten sposób wyłączyć, no, więc jakby tak to działa.
I to były wszystkie wiadomości od Maćka, my tu mamy jeszcze kilka różnych wypowiedzi,
ale może odtworzymy je za moment i odczytamy je za moment, teraz co tam mamy Tomku następnego?
To mamy nowe dotykowe naklejki na sprzęt AGD tutaj, Piotrek znalazł.
Tak jest, projekt nazywa się Halos i w komentarzu znajdziecie link do filmu na kanale YouTube The Blind Life, gdzie to jest opisywane.
Też w opisie filmu jest link do strony producenta, czy właściwie osoby, która to produkuje, bo to jest coś, co zostało stworzone wcześniej na jakimś crowdfundingu i jest robione ręcznie przez osoby niewidome i nienowidzące, przynajmniej tak jest to powiedziane w filmie.
A o co chodzi? No to są, tak jak to powiedziałem wcześniej, czy jak to było w nagłówku, dotykowe naklejki na sprzęt AGD.
O co chodzi? No tak jak jeśli mamy jakieś sprzęty, które mają jakieś dodatkowe przyciski i chcemy sobie je jakoś zatykietować,
najczęściej to robimy jakimiś kropkami, no sposobów jest wiele, najczęściej są właśnie jakieś gumowe kropki, można sobie takie rzeczy kupić.
No i z tego założenia wyszedł producent tych naklejek Halo, że można byłoby to zrobić lepiej.
Można by zrobić, jak oni to nazywali dosłownie, dodatkowe ikony, tactile icons, czyli to są naklejki, które
które reprezentują poszczególne konkretne przyciski, używając jakichś standardowych ikon, które nawet widzą wszędzie osoby widzące.
I tak na przykład, bo możemy sobie kupić kilka takich zestawów, każdy zestaw zawiera 18 naklejek, 9 z każdej ikonki, jest też zestaw Home, który zawiera wszystkie te zestawy.
No i tak na przykład to zestaw mikrofalówki, no to ma przycisk start stop, który ma taki przycisk start, który wygląda jak taki trójkąt skierowany w górę.
To jest taki uniwersalny symbol właśnie start czy tam play, pauza.
Mamy przycisk plus dodawanie czasu, no to jest faktycznie po prostu plus.
No i mamy też różne tryby, na przykład tryb pizza, no to jest taki trójkątny kawałek odkrojonej pizzy.
Przecisk do popcornu to ma kształt takiego jednego ziarenka popcornu.
Przecisk na ustawienie czasu no to jest symbol Clepsydry i te wszystkie ikonki to są właśnie bardzo wypukłe.
Możemy je wyczuć, możemy je oczywiście sobie przykleić.
Nie dotarłem do informacji z czego one są zrobione niestety, ale to pewnie jest jakiś materiał.
To chciałem zapytać, bo ja z tymi gumowymi kropkami, z tymi tak zwanymi odbojnikami, to mam niekoniecznie jakieś bardzo pozytywne doświadczenia np. do oznaczania płyty indukcyjnej, bo to generalnie jest okej, ale zwłaszcza jak sobie np. gdzieś tam naklejamy to, żeby sobie oznaczyć jakoś bardziej widocznie pola grzewcze, no to po jakimś czasie to nam się wszystko zaczyna topić,
Więc zastanawiam się, czy na przykład dałoby się tego typu ikonki też i w taki sposób wykorzystać, czy one też będą miały tę przypadłość.
Możliwe. Właśnie tutaj próbuję znaleźć informacje, bo już strona, przed audycją jak się przygotowywałem, to strona oficjalna padła, po prostu sypała błędami i na szczęście strona Zmartwychwstała.
I ale tutaj nie widzę nigdzie informacji z jakiego tworzywa to jest zrobione, ale przepuszczam, że to chyba to może z jakichś plastik czy coś.
Pytanie jak to jest przyklejane.
Mniej więcej, mniej więcej mamy właśnie tych kilka zestawów, te przyciski, te naklejki wykonywały się w ten sposób.
Tu mamy zestaw mikrofalówki, piekarnika, pralki, czegoś do prania czy mycia, czy zmywarki.
No i ten pakiet Home, który zabiera te wszystkie zestawy.
Mamy też układ klawiatury i tutaj po prostu są takie kółka z niektórymi naklejkami,
które są bardziej wypukłe na przykład, które moglibyśmy sobie na piątkę na przykład
nakleić i też przyjmują niestandardowe zamówienie, więc jeśli mamy jakieś urządzenie,
które chcielibyśmy sobie uzetiketować.
Tutaj ktoś na przykład w komentarzu na YouTubie tak sobie oznakował bieżnię.
Podobno i tam to się bardzo dobrze sprawdziło, ten projekt już jakiś czas ponoć działa
i nawet od kilku lat nawet te naklejki na tej bieżni się trzymają.
Więc no może to jest faktycznie coś wytrzymałego.
Jeszcze w tym zestawie, kiedy mamy te naklejki, one do nas przychodzą,
no to ta kartka, na której to wszystko jest, ma kod QR, który możemy sobie
smartfonem zeskanować i na tym kodzie dostaniemy tekstowe opisy, jak te
wszystkie naklejki wyglądają. Więc jeśli nie pamiętamy, co jakaś naklejka
oznacza, chcielibyśmy sobie tekstowy opis przypomnieć, może po prostu jak
naklejamy te naklejki, po prostu chcielibyśmy sobie to zweryfikować,
możemy sobie to sprawdzić. Są też dostępne w kilku kolorach, w tym kolorze
przezroczystym, więc jeśli jesteśmy w domu z osobą widzącą i chcemy to nakleić tak,
żeby też ta osoba po prostu mogła mimo wszystko widzieć, co jest pod tą naklejką,
to taki wariant też jest dostępny.
No i teraz możemy przejść do tego, jak to można sobie zamówić, bo jak najbardziej
można to zrobić. Firma jest w Stanach Zjednoczonych i w Stanach to można sobie
zamówić między innymi od firmy Independent Living Aid, co jest taki, no
jeden z amerykańskich dystrybutorów różnych tyflorzeczy,
ale też prowadzą swój sklep na platformie Etsy.
To jest taka platforma, której właśnie osoby mogą różne rzeczy wystawiać, które ręcznie
tworzą i tutaj już można sobie to międzynarodowo zamówić, natomiast
oczywiście tutaj troszeczkę kosztostawy może przewyższać cenę samego
produktu, bo
sobie tutaj weszłem.
Baguette Home, który zabiera te wszystkie
zestawy, kosztuje
134 zł,
a
poszczególne takie zestawy, tam na przykład diale do mikrofalówki,
czy do pralki, czy do
piekarnika, no to takie zestawy kosztują 30 zł.
Więc jakość bardzo drogo nie jest.
Natomiast sam koszt dostawy,
który już nam tutaj firma Etsy automatycznie nalicza i wyświetla, to jest koszt 70 złotych.
Ilu? Siedemdziesięciu?
Siedemdziesięciu, tak.
Czyli w zasadzie połowa tego zestawu.
Tak, połowa tego zestawu, więc jeśli ktoś tym jest zainteresowany, to niestety troszeczkę ten koszt dostawy jest taki jaki jest,
natomiast można to sobie zamówić, nie wiem ile by taka przesyłka szła do Polski, nie umiem powiedzieć jak to jest wysyłane,
Natomiast jeśli ktoś chce sobie taki zestaw zamówić i przetestować u siebie,
no to jak najbardziej można to też w Polsce zrobić
i zobaczyć jak to wszystko w praktyce wygląda.
Z drugiej strony być może, nie wiem, ale być może słucha nas ktoś,
kto prowadzi sklep ze sprzętem dla niewidomych. Może to jest pomysł?
Warto może by nawiązać kontakt, bo w Stanach już taka jedna firma nawiązała, więc…
Kto wie, kto wie.
Tak, oby coś rzeczywiście z tego wyszło i nie trzeba było aż tak bardzo się wykosztować na skądinąd przydatne naklejki.
Mamy kolejną wypowiedź i kilka komentarzy, to najpierw może posłuchajmy wypowiedzi głosowej od Szarlotki.
Witajcie, z tej strony Aga. Ja mam takie pytanie tutaj do Piotra odnośnie tej audycji jeszcze odnośnie hijacka,
ponieważ jak tam wklejałeś jakieś właśnie rzeczy, te klocki itd., to voice over wydawał
taki fajny dźwięk, taki jak się wklejał, to było takie pyknięcie. Ja się chciałam zapytać,
czy to jest jakaś wtyczka, czy może twojej roboty wtyczka, czy ta wtyczka,
o której było tutaj mowa, że jak się pisze, wprowadza znaki, to wydaje dźwięki,
czy to jest to samo, czy to jest coś innego, bo przyznam, że strasznie mi się ten dźwięk
spodobał. Podoba mi się ten dźwięk, jak się wkleja i jest takie pyknięcie.
No i się chciałam właśnie zapytać, co to jest i ewentualnie,
czy można to jakoś skądś pozyskać.
I jeszcze mam jedno takie pytanie odnośnie hammerspuna. Co się stanie,
jeżeli np. dwa skróty klawiszowe do dwóch różnych wtyczek się nakładają na siebie,
Czyli np. jeżeli, powiedzmy, używam Ctrl-Shift i literki D w jednej wtyczce
i Ctrl-Shift literka D w drugiej wtyczce, to co wtedy z tym fantem można zrobić?
Czy jakoś można zmienić te skróty klawiszowe dla wtyczek?
Czy co wtedy można zrobić?
Z góry dziękuję za odpowiedzi. Pozdrawiam serdecznie.
No to dwa pytania poniekąd łączą się ze sobą,
bo te dźwięki pochodzą właśnie z wtyczki do Hammersmulna.
To była akurat, to była praca grupowa, tutaj kod akurat napisał, napisała inna osoba, no między innymi Mikołaj Hołosz nad tym pracował, ale dźwięki to też była praca wspólna.
To jest konkretnie moduł Triggered, znaczy pisze T-R-I-G-G-R-E-D bodajże.
Jest link do tego też w tym artykule, gdzie opisuję te wszystkie moduły do Hammer Spool na Mac, Accessibility Hub, ja też w komentarzu po tą audycją link do tego wrzucę.
To jest jeden z modułów, który jest dostępny.
On pozwala właśnie na odgrywanie różnych dźwięków na różne wydarzenia w systemie.
To trochę tak jak na Windowsie, kiedy podłączamy jakieś urządzenie do czy lub odłączamy do komputera,
bo macOS standardowo tego nie robi.
No ale też mamy dźwięki między innymi na właśnie wklikanie polecenia w menu,
co też się dzieje na przykład, kiedy naciśniemy jakiś skrót klawiszowy właśnie,
między innymi kopiuj i wklej, to te dźwięki też wtedy są odtwarzane.
No i to sobie właśnie do Hammer Spoona instalujesz tak jak inne moduły
i tam jest też folder z przykładowymi dźwiękami.
Właśnie ja z tego folderu właśnie korzystałem.
Jego po prostu trzeba w odpowiednie miejsce to zbadać, że w folderu moje dokumenty się
po prostu wkleja i te dźwięki po prostu będą automatycznie nam na te różne akcje
odtwarzane. Jeśli chodzi o skróty, to wydaje mi się, że któraś wtyczka po prostu
weźmie górę i tylko jeden z tych dwóch skrótów będzie działał.
czy da się je jakoś zmienić, no można po prostu kod źródłowy tej wtyczki wyedytować.
Nie wiem teraz, czy o jaką, no po prostu trzeba byłoby otworzyć plik kodu źródłowego,
to jest ten plik init.lua w danej wtyczce i gdzieś na którejś linijce kodu będzie no właśnie ta linijka,
która ustawia ten skrót, on jest też, tam generalnie on będzie napisany słownie
I można sobie po prostu wtedy tą literkę z tego ctrl-shift-d zmienić na coś innego, nie umiem powiedzieć w którym miejscu to będzie, no bo to już zależy w dużej mierze od programisty, czy na to gdzieś na początek czy na koniec tego pliku, no tak byłoby najlepiej, żeby był łatwy do znalezienia, natomiast po prostu w tym przypadku po prostu trzeba by ten kod wyedytować jakoś.
A tymczasem zaglądam do waszych komentarzy, tu mamy konkretnie trzy komentarze, więc teraz pozwolę je sobie odczytać.
Pierwszy komentarz jest od Witolda.
Cześć, chciałbym poruszyć kilka tematów.
Co do linijki Brailowskiej to sprawdziłbym polskiej produkcji Brail Pena 14 lub 12.
Czternastka kosztuje 7 tysięcy, Focus prawdopodobnie jest droższy.
No i cóż, Witoldzie, tu zdaje się nasz słuchacz prosił o polecenie urządzenia do 4 tysięcy,
no więc właśnie też myślałem o BraillePenie, ale niestety no to przekracza i to zdecydowanie przekracza ten budżet, o którym była mowa.
I kolejne wypowiedzi od Witolda w tym samym komentarzu.
Bawiłem się ostatnio chwilkę wykrywaniem w loopie na iPhonie 15 Pro, niezłe to jest, myślę że na przystanku mogłoby być pomocne do wykrycia jakiejś osoby, mogliby dodać kategorię pojazdy, nie wiem tylko do ilu dokładnie metrów to ściąga.
Bawiłem się też Motorollą G72 i całkiem to używalne, jedna funkcja bardziej mi się podoba niż w iPhonie.
Przy wejściu w pole edycyjne, klawiatura brailowska sama się włącza, nie trzeba z pokrętła czy innego wybieracza wchodzić.
Zawsze było tak, że żeby ta klawiatura Talkbacka się załączała to trzeba to było zrobić z paska dolnego, tam gdzie jest na przykład ekran główny.
Poprawianie tekstu w dokumentach Google jest nieźle używalne, na iPhone’ie jak dla mnie ciężko.
Wiecie czemu jak się w nich pracuje? Nie ma na pokrętle błędnych wyrazów. W Wordzie chyba też tak jest.
Witoldzie, w ogóle ja jeżeli chodzi o dokumenty Google to ostatnio się bawiłem aplikacją mobilną na iPhone’ie
i powiem szczerze mnie samego zaskoczyło to jak tam się edytuje tekst.
A jak ktoś jest przyzwyczajony do pracy z voice-overem, to ten tekst się edytuje kompletnie nieintuicyjnie.
Mianowicie się edytuje za pomocą eksploracji. Kładzie się palec na tym polu, gdzie jest tekst i się po prostu tym palcem przesuwa.
I w ten sposób chodzimy sobie po tekście. Ja wiem, że to nie jest odpowiedź na twoje pytanie, natomiast tak przy okazji to zaznaczam,
gdyby ktoś miał też problem i chciał w ogóle używać jakkolwiek aplikacji dokumentu od Google na iOS i zastanawiał się czemu mu punkt wstawiania nie chce przechodzić w jakieś miejsce, jakiego on by sobie życzył.
Kolejne pytanie od Henia.
Jaki mikrofon z wbudowanym interfejsem audio na USB byście polecili? Tak do rozmów przez Zooma lub do kręcenia podcastów?
Tomku, ty coś byś polecił, bo ja to w zasadzie mam jedynie dwa typy, zresztą Henio nie podał jakiegoś pułapu cenowego.
No właśnie, a to jest problem.
A to jest problem, tak.
Tak, tu się naprawdę da znaleźć od 50 zł w zasadzie w dowolnej kwocie, natomiast podejrzewam, że tu chodzi o tak zwane rozsądne coś.
No to albo, tak mi się wydaje, Jezu jak to się nazywa, ja wchodziłem z tego w wakacje, to właśnie było z USB, to się nazywało, właśnie, dziura w głowie, ojej, ojej, teraz nie pamiętam, ale mikrofon za 200zł, ze statywem w komplecie, właśnie z wbudowaną kartą dźwiękową.
No i to było takie, no w miarę okej, tak mi się przynajmniej wydaje za te 200 zł, aczkolwiek teraz jest sporo tych mikrofonów, a ja testowałem naprawdę kilka i nie ma takiego czego, że to jest wow, to jest naprawdę super, a inne się nie liczą, tak to nie ma, przynajmniej ja nie kojarzę w tej chwili nic takiego.
Ja z jakiegoś takiego doświadczenia też nie powiem, żebym jakoś bardzo rekomendował te dwa typy i one są znacznie droższe od tego, o którym ty wspominałeś, no to Blue Yeti ewentualnie, a te 20-20 Audio Techniki na USB, bo też jest ta wersja na USB, to po prostu wiem, że to się gdzieś tam ludziom sprawdza, aczkolwiek z Blue Yeti, no to wiem też, że to się lubi po jakimś czasie psuć.
To jest nawet całkiem fajny mikrofon, bo on ma te przełączalne charakterystyki, jeżeli komuś byłoby to potrzebne do szczęścia, ale to po jakimś czasie to się lubi psuć.
Ja też słyszałem, że odkąd zostało przejęte przez Logitecha, to też jakość się pogorszyła.
Więc to z tym też ostrożnie.
Kiedyś był taki standard u youtuberów, że youtuberzy sobie Blue Yeti kupowali.
Teraz to nawet nie wiem co.
Chociaż podejrzewam, że teraz to tacy youtuberzy…
Teraz to każda firma gamingowa ma swój mikrofon, który oczywiście też musi świecić.
Ale wiecie, to teraz to myślę, że już youtuberzy, szczególnie ci więksi,
I to tak naprawdę to bardzo często celują w sprzęt studyjny i mają trochę różnych tych mikrofonów i różnych innych zabawek w zależności od tego gdzie nagrywają, no bo ten YouTube też się już sprofesjonalizował przez te ileś lat.
I jeszcze mamy wypowiedź od Maćka i jeszcze co do gier, w Sudoku można sobie pyknąć, którą też swego czasu prezentował Piotr. O właśnie, też jest Sudoku.
Jezu Doku tak teraz mi się przypomniało, przy okazji jeszcze gra, o której spolszenie przecież pisałem, a zapomniałem na iOS-a, dostępna 2048 Oriola Gomeza.
Accessible 2068 w App Store, ona chyba 4, 9 zł kosztuje, nie jest jakieś bardzo drogie, a też taka fajna gra właśnie logiczna.
No i to tyle przynajmniej na razie z waszych wypowiedzi, więc możemy przejść dalej.
Ale to zdecydowanie jeszcze nie tyle, jeżeli chodzi o…
To nasze wypowiedzi.
Tak. Jeszcze troszkę tego nam zostało.
Voicvista. Voicvista to jest program nawigacyjny, który oparty jest na dźwięku takim 3D, więc wymagane są słuchawki, a przynajmniej dobrze by było mieć słuchawki i iPhone’a, bo póki co to tylko na iPhone’a to działa.
To spokło się tego, zresztą o tym już mówiliśmy, że Microsoft i PanScape przestały być wspierane, ale został wypuszczony na wolnej licencji, w związku z powyższym można na nim opierać jakieś swoje rozwiązania.
No i jednym z nich jest Wojtwista, o którym jakoś dużo się ostatnio mówi. Ty Pawle napisałeś, że doświadczenia z Wojtwista twoje?
Tak, moje. Przeszedłem się ostatnio w weekend, takie dwie trasy zrobiłem, trzy nawet, z VoiceFistą specjalnie, żeby zobaczyć właśnie, czy ta aplikacja odpowiada temu, jak ja sobie wyobrażam, że ta aplikacja działa, no i czy to spełnia po prostu moje oczekiwania, bo ja jestem jakby bardzo przekonany do mojego pasa FeelSpace NaviBelt,
No ale to wiadomo, że ja akurat mam szczęście, że mi się udało ten produkt wziąć w posiadanie, natomiast jeżeli ktoś takiej sytuacji nie ma, no to trzeba w jakiś sposób, trzeba, fajnie by było i miło by było znaleźć jakieś zastępcze rozwiązanie.
No i ja bardzo liczyłem na to, że VoiceVista posiada funkcję, z której ta aplikacja słynie, czyli latarnia, która dźwiękiem nas prowadzi przestrzennie do celu,
że to w jakiś sposób będzie też działało do trasy zakręt po zakręcie, no bo tak się ostatnio chwalą, że robią takie trasy.
A owszem, no niestety takiej funkcji jak ja myślę to nie ma, ale może jeszcze zrobią, a nawet jak jeszcze jej nie ma i długo nie będzie, to i tak jest całkiem fajnie, bo aplikacja nas poprowadzi, podając nam ogólny kierunek do punktów właśnie w formie takiego przestrzennego dźwięku.
Natomiast już instrukcje takie, gdzie, w którą ulicę skręcić, za ile, możemy już spokojnie sobie odsłuchiwać z poziomu tego, co nam oferują wskazówki nawigacyjne, takie normalnie czytane syntezą.
No i co ta aplikacja jeszcze potrafi zasadniczo?
Ono się cały czas rozwija, ono się robi coraz bardziej rozbudowane i mamy na przykład dostęp do punktów POI z trzech źródeł, bo mamy mapy Apple, mamy mapy te nowe takie, które Amazon tworzy chyba z Facebookiem i Applem, czyli Overture oraz mamy punkty z OpenStreetMap, także jest tego dużo.
Mi mimo tego się udało czegoś nie znaleźć. Po prostu wpisałem miejsce, które ewidentnie jest na różnych mapach i nie znalazł mi go.
Więc może jakaś kwestia konfiguracji lub jeszcze czegoś innego.
Teraz doszło jakieś sprawdzanie miejsc online.
Jest obsługa pilotem od słuchawek, jeżeli takie mamy.
Jest oczywiście obsługa Airpodsów, jeśli mamy, żeby obracać głowę i sam obrót głowy wystarczy, żeby ten dźwięk nam upozycjonować.
No właśnie, a propos tego dźwięku i tej latarni.
No warto podczas nawigacji z aplikacją, i to już widzę, trzymać telefon w ręku, a nie w kieszeni.
Bo kiedy będziemy go mieli w kieszeni, to fakt, że się obracamy w ogóle nie zostanie wychwycony.
Także tutaj warto podczas nawigacji ten telefon w ręce jednak nieść.
Bardzo fajnie, bo podczas nawigacji on nam też oznajmia miejsca, które mijamy, jakieś tam właśnie takie użyteczności i one też są ogłaszane z różnych kierunków, więc my możemy na przykład jechać autobusem i on nam zacznie te miejsca oznajmiać gdzieś po lewej, gdzieś po prawej, w jakimś jeszcze innym miejscu.
No i bardzo jest to fajna, myślę, że bardzo użyteczna funkcja.
Co tam jeszcze?
Jest importowanie jakichś punktów z BlindSquare’a.
Da się jakoś w ogóle po linku zdefiniować, żeby on otwierał nam z linków różne punkty
i pozwalał nam albo do nich nawigować, albo je zapisywać jako te znaczniki, markery.
No ale jest to jakiś własny protokół Voice Vista, więc nie można sobie przekonwertować miejsca z map Google i otworzyć w tejże aplikacji.
No, aplikacja się prężnie rozwija i ma niestety tłumaczenie na język polski,
jakie ma, czyli automatyczne.
Natomiast, z tego co wiem, coś będzie temat ruszany, tylko pewnie kwestia czasu.
Natomiast aplikacja ma grupę na Whatsappie, można się przyłączyć.
Jest to grupa międzynarodowa i jest tam bardzo ciekawie, jest dużo pytań, są to wiadomości tylko tekstowe, bo takie są reguły na grupie i nie dzieje się tam jakoś bardzo dużo, więc warto się do grupki przyłączyć i popierać trochę udziału w tych dyskusjach albo po prostu poczytać o co ludzie pytają, o czym mówią.
Także ja polecam VoiceVistę i ciekaw jestem jakie będą jeszcze nowe funkcje wychodzić, bo jakieś wychodzą praktycznie co tydzień.
A my tymczasem odbieramy kolejny telefon, kogo witamy po drugiej stronie?
Witaj, słuchamy.
Ja mówię, chciałem o tym pen, polski jakiś tam pen Braille, czy coś takie.
Braille pen.
Braille pen. I to chyba 7 tysięcy kosztuje, tak?
Tak, czy tam sześć z kawałkiem, no to zdecydowanie ponad ten budżet, o którym rozmawialiśmy tydzień temu, bo to cztery tysiące miałyby być.
A jeszcze inna sprawa, ja dostałem taki LSP5 rejestrator, bardzo dobry jest, można wykorzystać jako głośnik, znaczy nie głośnik tylko mikrofon i on ma kartę też taką dźwiękową, można podłączyć do USB do komputera i można go wykorzystać jako mikrofon.
A to też jest słuszna uwaga.
Można na youtuberze podobno tego używają, a jest bardzo fajny, on taki mały, ma budowaną ładowarkę, tam dwa paluszki AA, a trzy potrójne, tak zwane małe paluszki, jest bardzo wygodny.
Coś takie ma… Tylko, że on jest drogi, ale ja dostałem taki grubo.
Jasne, jasne.
Taki restaurator.
No, ale to też jest jakaś opcja.
Ja miałem, żebym wiedział numer telefonu do audycji,
bo ja dopiero chyba po połowie tego roku, a mogłem już w tamtym roku zadzwonić,
tylko że nie widziałem, jaki jest numer.
Bo my dopiero niedawno uruchomiliśmy ten numer telefonu.
No właśnie. I chciałem o tym jeszcze powiedzieć, że to jest bardzo pozytywny i przez aplikację TV Remote na dotyku telefonu, na jego obsługi.
No dobrze, to dziękujemy Ci bardzo za te sugestie.
Tak, tak. Tomek chyba będzie wiedział o co chodzi, pan Tomek.
Znaczy tak, ja nie jestem Tomkiem, ale to jest Olympusowy rejestrator Olympus LSP.
Ale Tomka już nie ma, tak?
Nie, Tomek jest gdzieś tutaj.
Jestem, jestem, jestem.
Jeśli chodzi o tą serię LSP, to z tego co ja wiem, to Olympus LSP 4 to był ostatni…
Pięć.
No to…
Moment, piątkę.
Tak, tak, tak. Tylko moment, moment, moment, moment. Rzeczywiście Olimpus, ostatni Olimpus to był LSP4. Natomiast z…
Ja mam z On Digital Solutions mam.
Już mówię, już mówię o co chodzi, przynajmniej z tego co wiem. Olimpus jako taki nie produkuje już instruktorów.
Natomiast z nich się wydzieliła firma rzeczywiście
OMSolutions, że się jakoś tak nazywa, i oni zrobili rzeczywiście
LSP-5, rejestrator, czyli taki następca.
Natomiast takie prawidłowe czołgi są dzienkowane,
podejrzewam, znaczy nie jest, nie jest, ale można aplikacją
TV Renault tym obsłużyć przez telefon, obojętnie.
Tak, przez Bluetooth, przez Androida albo iPona, jak ktoś ma.
Natomiast ten rejestrator jest już od, nie pamiętam, nawet mówiliśmy o tym w tym filmie.
Od zeszłego roku.
Od zeszłego roku, natomiast on jeden jest na razie, żadnych nowych nie ma.
Nie ma.
Ale chciałem powiedzieć.
Tak?
Chciałem powiedzieć, że jest bardzo pozytywnie.
On ma wiele funkcji.
Można z poziomu telefonu i tak
ustawiać.
A ja z poziomu telefonu dużo ustawiam.
Natomiast to zobaczymy, co się będzie
działo w przyszłym roku na
targach muzycznych.
Czy coś nowego wyjdzie.
Jestem ciekawy, czy wrócę
jednak do
udźwiękowania swoich dyktafonów.
Wiem, że dużo niewidomych się kontaktowało
w sprawie tej RSP5
i wsparcie generalnie wtedy
proponowało, jak ktoś by taki chciał
to tam jeszcze jakiś stary Olympus chyba
DM720 gdzieś, żeby ludzie
sobie kupowali, ale no te sprzęty
nie są porównywalne tak, bo ja
akurat mam RSP4, czyli tą ostatnią
udźwiękowioną, ale faktycznie
ma kilka
ciekawych funkcji, na przykład
i to chyba w 5 też jest nagrywanie bezpośrednio do plików
flag, co jest bardzo fajne.
Tak, a ja mam starsze, mam takie starsze LSP, nie wiem jak to, LSP, znaczy takie starsze, ale na baterie takie duże, te dwa Pauluszki, podwójne AA, LSP, nie, LS14 i LS12.
Takie mam duże.
A to starsze troszkę.
Natomiast tak, LS-14, LS-12 są tak większe rzeczywiście.
One są chyba też na zwykłe paluszki i potem rzeczywiście troszkę to znaczy
wcześniej też były miniaturowe wersje na przykład LS-3.
No ok, ok.
No Olympus swego czasu robił tego troszkę.
Ono dobrze mi się sprawowało, tylko dwie razy mi spadły, jeden i drugi troszeczkę się uszkodziły, ale ja mam gdzieś w archiwum.
Ale ta LSP-5, jak rozumiem, sprawdza się dobrze, mimo tego, że nie jest udźwiękowiona, aplikacja jest dostępna.
Ale szkoda, że nie. Jak będzie jakieś oprogramowanie, to może. Zobaczę.
Ok, no dobrze Sylwestrze, to bardzo ci dziękujemy serdecznie za te informacje, bo myślę, że to też może być przydatne dla naszych słuchaczy.
Tak, jak ktoś potrzebuje.
Ja mam jeszcze jedno urządzenie, mixer XMX 302, to Kamil Kaczyński kiedyś audycję puszczał, też bardzo dobrze mi się spodobał.
Super, no to rzeczywiście to są też takie niewielkie myśli.
Żeby nie wasza ulicy, to ja bym wielu rzeczy nie kupił.
Cieszymy się, że mogliśmy okazać się pomocni.
Że być może się jeszcze okażemy pomocni gdzieś tam w przyszłości.
Tak, bo ja używam czytnika NVDA.
Pokojnie.
Mam Jonesa 16, ale już chyba tego Jonesa już nie używam.
Bo mam głos Iwona, coś takiego.
I głos Jan mam zarejestrowany. Bardzo dobrze mi się słucha przy tym.
Mam i was, ten RFA Voice, ale czasami tego, czasami tego.
Jasne. Okej Sylwestrze, bo musimy powolutku przechodzić jednak do kolejnych tematów.
Ja już znikam.
Dzięki za telefon i dobrej nocy.
Dobranoc.
Do usłyszenia.
No i na koniec już no nie tyflo przeglądu tylko tyflowieści został nam oczywiście maraton drobnych newsów.
Tak jest i jak zwykle będzie wszystkiego po trochę zaczynając od AI no bo oczywiście kiedyś się musi AI w tyflo przeglądzie pojawić.
Konkretnie tym razem będziemy mówić o okularach Celest, o których jakiś czas temu Paweł mówił.
One cały czas się rozwijają i właśnie nierawno dostały funkcję, oczywiście oparte o GPT.
Mianowicie mają teraz swojego asystenta, z którym możemy rozmawiać na głos.
Z tego co słyszałem, nie wiemy o tej funkcji bardzo dużo, tak naprawdę mamy króciutki film demonstracyjny.
Natomiast no po prostu możemy mu zadać jakieś pytanie, na przykład możemy zapytać czy koszulka, na którą się patrzymy, ma taki kolor czy taki wzór, jaki my się spodziewamy.
Tutaj taki był pierwszy przykład podany, no i ten asystent sobie wtedy zrobi zdjęcie tymi okularami, pomyśli trochę i da nam odpowiedź.
to oczywiście troszkę trwa, no bo to, no jednak, no APGPT nie działa natychmiastowo.
Samo przetwarzanie mowy to jest w miarę szybkie, no ale później już musimy, no, jakieś 10 sekund na tą odpowiedź poczekać,
no ale później jak najbardziej już taką odpowiedź na nasze pytanie dostaniemy.
Tutaj właśnie było pokazane na tej koszulce, potem było pokazane na dekoracjach świątecznych,
no a potem, żeby pokazać, że to jest ogólnie tylko asystent, no to jeszcze, jeszcze tutaj autor tej demonstracji poprosił o wierszyk świąteczny,
No i ten czat mu taki wierszyk przeczytał jeszcze, więc można w ten sposób też.
O przystankach odbywcowych w Wankowerze już było, więc następnie mamy coś, co się
przyda wszystkim, którzy pracują w jakiś sposób z dźwiękiem, z muzyką, bo pojawiło
się narzędzie ReHotKey, właściwie narzędzie już było dostępne wcześniej, ale
pojawiła się dosyć duża nowa aktualizacja.
Projekt rozpoczął Matej Igolian z Czech, ale też do niego dołączył się Tony Barth z Niemiec, no i wspólnymi siłami dodali więcej do niego funkcji.
A o co w tym narzędziu chodzi? No to jest narzędzie napisane na system Windows w języku AutoHotKey, które daje nam dostęp do mało przyjaznych dla czytników ekranu wtyczek.
To są takie rzeczy jak np. w otwieranie menu, np. w tyczce kontakt to jest taki bardzo popularny wykorzystyw sampler czy nawet do konkretnych suwaków np. do wyłączenia, włączenia poszczególnych grup mikrofonów w niektórych najbardziej popularnych bibliotekach na tego kontakta, czy też dostęp do narzędzia Doubler, o którym jakiś czas temu mówiłem, właśnie Tony Barth wtedy mówił, że nad czymś pracuje, no to właśnie było to.
To jest takie narzędzie, które pozwala nam sterować wszelkimi wirtualnymi instrumentami, syntezatorami, maszynami do perkusji i tak dalej, poprzez po prostu śpiewanie albo beatboxowanie do mikrofonu, po prostu ten system wtedy rozumie co my robimy i albo wysyła odpowiednie nuty, albo konkretne właśnie sygnały, żeby odpowiednie dźwięki wysłać.
No te aplikacje domyślnie były niedostępne, no ale dzięki temu narzędziu po prostu możemy sobie je ściągnąć, zainstalować, no i wtedy mamy odpowiednie skróty klawiszowe, które nam dają dostęp do większości, no bo nie wszystkich niestety, też nie wszystko da się w ten sposób udostępnić, no ale do takich najbardziej potrzebnych, najtrudniej gdzieś dostępnych dla nas funkcji możemy przez to narzędzie uzyskać dostęp.
Ono jest przystosowane głównie do pracy wewnątrz programu REAPER, stąd nazwali hotkey, ale w niektórych przypadkach, np. właśnie w przypadku doublera, narzędzia w takich wersjach tzw. standalone są obsługiwane, a akurat właśnie jeśli chodzi o doublera, no to on działa tylko z tą wersją standalone, ale jeśli chodzi o właśnie np. o kontakta, no to to już działa po prostu wewnątrz tej wtyczki, którą ładujemy do REAPERa.
Będzie oczywiście link do tego, możecie sobie poczytać dokładnie
jakie instrumenty to narzędzie wspiera
i jakie funkcje w danym instrumencie są
dla nas w ten sposób dostępne.
Następnie coś dla fanów Androida
pojawił się nowy TalkBack
w wersji 14.1
która to
przynosi nam takie dwie fajne dla nas funkcje.
Po pierwsze, tak samo jak to jakiś czas mieliśmy na iPhonie, możemy sobie na urządzeniu rozpoznawać zdjęcia.
To, z tego co wiem, nie dzieje się automatycznie tak jak to jest na iOSie, a musimy sobie to wywołać ręcznie.
Możemy to zrobić z lokalnego menu kontekstowego, to jest pojedyncze stuknięcie trzema palcami, przynajmniej tak jest to napisane w tym artykule.
Jest bardzo prawdopodobne, że to na razie działa tylko po angielsku, więc przepuszczam, jeśli mamy system w języku polskim, to nie wiem, czy ta opcja się w ogóle pojawi, a jeśli pojawi, to w jakim języku taki opis dostaniemy, natomiast jeśli znacie angielski i chcecie sobie to przetestować, no to to powinno być dostępne, ale też dostępna jest rzecz, która powinna działać we wszystkich językach, a mianowicie to jest automatyczne przewijanie monitorów brailowskich.
No to jest taka funkcja, która jest generalnie dostępna w różnych
szczytnikach ekranu, VoiceOver na iPhonie też jakiś czas temu pamiętam to
dostał. No to jest funkcja, która po prostu pozwala nam włączyć sobie
automatyczne przewijanie zawartości monitora, więc jeśli sobie
czytamy jakąś dłuższą książkę, nie chcemy za każdym razem naciskać
przycisku, żeby przesuwać go do przodu, no to możemy sobie ustawić,
żeby on nam co kilka sekund automatycznie się przewijał tak, żebyśmy
my nad tym czytaniem po prostu nadążali.
i możemy sobie to skonfigurować.
Ponadto jest dodane dużo nowych języków tablic braille’owskich.
Teraz tych języków wspieranych jest ponad 40.
Mamy też wsparcie dla ekranowej klawiatury braille’a
dla łatwego poprawiania błędów w pisowni i literówek.
Są nowe gesty do tego dodane, żeby nawigować
po dostępnych sugestiach poprawy pisowni.
I mamy nowe skróty klawiszowe, które użytkownicy mogą sobie
przepisać do klawiatur bluetooth.
Są to rzeczy takie jak kopiuj ostatnie wypowiedziane słowo do
schowka, czy wyłączenie, włączenie funkcji kurtyny.
I po aktualizacji tego pakietu Android Accessibility Suite, w którego w skład
wchodzi TalkBack dostaniemy informację, która nas po prostu poinformuje, że są
dostępne nowe funkcje i będziemy mogli sobie po prostu je z tego miejsca od razu
automatycznie przejrzeć.
Następnie coś, co się może przydać programistom albo tym, albo jeśli chcemy
napisać do jakiegoś programistę, tutaj dziękuję Adrianowi Wyce za podesłanie
tego linku wcześniej, powstaje bardzo fajny projekt na GitHubie, jest to też
aplikacja, którą możemy sobie poprać i potestować na żywo, która pokazuje jak
pisać dostępne aplikacje na iPhona w systemie SwiftUI do otworzenia
interfejsów. To jest o tyle fajnie zrobione, że są pokazane różne najczęstsze scenariusze, jak
różne aspekty tej dostępności zaimplementować.
To są rzeczy takie jak wszystkie typy kontrolek, czyli przyciski, suwaki, przełączniki, jakieś
niestandardowe typy kontrolek, jak nie robić ich dostępnym, a jak się to powinno robić tak, żeby
to było fajnie wszystko czytane, jak implementować czynności i właśnie ukrywać przyciski,
których nie chcemy, przez które nie chcemy się przedzierać za każdym razem gestami.
Jak zaimplementować? Magic Tap, czyli to podwójne stuknięcie dwoma palcami i takie
różne właśnie fajne rzeczy, które deweloperzy mogą zaimplementować, żeby ich
aplikacje z tym voice overem działały naprawdę fajnie.
Tam nie wszystko jeszcze jest w tym projekcie dodane, natomiast tam jest w dokumentacji
lista i jakie funkcje jeszcze będą dodawane i to może być bardzo fajny zasób, który
możemy wysłać komuś, kto pisze aplikacje właśnie w SwiftUI, a dużo nowych aplikacji na iPhone’a właśnie takie spisane,
no to może to okazać się bardzo przydatne, jak właśnie takie dostępne aplikacje się w SwiftUI pisze.
I na koniec, no to może nie jest stricte informacja Tyfflo, ale no taka krótka, że stwierdziłem, że tutaj ją wrzucę.
Mianowicja Portal Threads od Mety, czyli metowa alternatywa do Twittera, czy właściwie X-a, była już jakiś czas dostępna w Stanach, gdzieś tam pobiła rekordy pobierania, okazało się, że w ogóle to jest chyba druga albo trzecia co do liczby pobrań aplikacji a roku w App Store, więc to naprawdę imponująca liczba.
No nie wiem ile osób nadal z tego korzysta, natomiast ona nie była wcześniej dostępna w Europie, no bo musiała być dostosowana do naszych wymogów ochrony danych osobowych.
To się pomału staje i jutro, 14 grudnia, portal Threads oficjalnie w Europie ruszy.
Więc jeśli słuchacie tego dzisiaj, no to jutro już będziecie mogli sobie tam założyć konto, jeśli chcecie potestować.
A jeśli słuchacie nas z archiwów, no to prawdopodobnie to już działa.
Można będzie testować pewnie w przyszłym tygodniu coś więcej,
no właśnie w przyszłej audycji po prostu powiemy coś więcej, jak
dostępność do tego wygląda, czy coś tam się zmieniło, bo wcześniej były
problemy. Też przy okazji to aplikacje,
informacje z dzisiaj, też Meta zaczyna w końcu zrobić coś, co było obiecywane,
mianowicie integrować te fredsy z Activity Pub.
O co chodzi?
No to mniej więcej chodzi o to, że nawet jeśli sama platforma nie będzie dostępna,
a faktycznie zyska na popularności i jakieś znane osoby w Polsce będą np.
z niej korzystać, no to będziemy mogli sobie ich zaobserwować z jakiegoś miejsca dla
nas bardziej dostępnego, np.
Macedona, ale nie tylko, bo wiele portali na tym systemie Activity Pub stoi, więc nawet
Jeśli właśnie sama platforma okaże się klapą dostępnościową, ale stanie się popularna no to jest bardzo duże prawdopodobieństwo, że my będziemy mogli sobie takie osoby, które z tego korzystają, obserwować w bardzo dla nas fajny, dostępny sposób, więc no też warto po prostu śledzić co się dzieje.
Jeśli będziemy wiedzieć więcej jak to się wszystko integruje, czy te testy już są gdzieś bardziej szeroko robione, no to damy wam znać.
To wszystko ode mnie, ale to jeszcze nie jest koniec drobnych newsów, bo Paweł też kilka rzeczy przygotował.
Zgadza się. I pierwsza rzecz jest bardzo króciutka.
Dotyczy aplikacji, która niedawno gościła również u Piotra Witka na blogu Moja Szuflada, czyli LiveATC.
Aplikacja do odsłuchu wierzch lotniczych, transmisji radiowych z wierzch lotniczych różnych lotnisk, także w Polsce.
Bo tam pojawiła się nowa wersja, w ogóle po jakimś dość długim czasie, tak mi się wydaje.
No i w tej wersji oczywiście podpisane jako feature niestety, czyli jako nowa funkcja.
Ja błędy dostępności klasyfikuję zazwyczaj jako błędy, nie jako nowa funkcja, ale okej.
Poprawki dostępności. Tu m.in. przycisk ulubionych, dodawania konkretnego lotniska do ulubionych
oznajmianym teraz swój status, czy stacja jest dodana do ulubionych, czy też nie.
Poza tym mamy
podpisany suwak balansu, bo tam możemy sobie np.
włączyć także zmiksowane feedy z kilku różnych, bo tam to nie jest tak, że jest jedna
wieża i koniec, tylko po prostu na różnych etapach startu, lądowania
taki pilot musi się rozmówić z różnymi częstotliwościami, to może z Eurofly’a kojarzycie ten motyw, może będziecie kojarzyć w nowej wersji jak ona już wyjdzie.
No i tak rzeczywiście jest też w rzeczywistości i była taka możliwość, żeby puścić taki zmiksowany feed, gdzie te wieże różne są równolegle puszczane z danego lotniska.
Była to niezła dość kakofonia, teraz jest podpisany suwak, który pozwala nam przesuwać troszkę balansu jakby między tą lewą a prawą stroną.
No i też przy fitach stereofonicznych, gdzie te różne rodzaje wierzch i komunikacji są puszczane w różnych kanałach stereofonicznych,
było gdzieś tam nadmiarowo napisane, że L, R, że kanał lewy, kanał prawy, już teraz tego nie ma.
Kolejna rzecz, to jest rzecz, którą ja bym mógł Wam pokazać, więc Michale, jeżeli mógłbym poprosić o prawo do tutaj puszczania, udostępniania ekranu.
A to już momencik.
Jest to dodatek stworzony znowu przez dewelopera z Kijowa, z Ukrainy,
który podpisuje się jako O Sadowy na GitHubie.
Dodatek, który pozwala nam na to, żeby zidentyfikować,
czy dobrze jesteśmy ustawieni względem naszej kamerki w laptopie
lub innej zewnętrznej kamerki, no i czy naszą twarz dobrze widać.
Czyli tu mamy tą funkcję, którą oferowała już od dawna ta aplikacja Can You See Me niezależna.
No a prawdopodobnie inspiracją do tego, żeby powstał dodatek do NVDA jest wprowadzenie podobnej funkcji w JOS-ie, w czytniku ekranu JOS.
Także no zobaczmy jak się umiewa odpowiednik dla NVDA.
To jest na razie dodatek, którego nie ma w sklepie, on jest na GitHub-ie i ja go tu za chwileczkę aktywuję.
tylko udostępnię Wam dźwięk i już się słyszymy.
Tak jest.
No więc ja naciskam skrót tego dodatku, NVDA Shift W.
Tak, no face detected. Na razie powiedziało mi, że rozpoczęto analizę.
Naciśnij Escape, aby wyjść z tego trybu. No i na razie twarzy nie ma, więc się zbliżam.
Tak, usłyszałem dużo informacji naraz, czyli move up, move back, czyli żebym przesunął twarz delikatnie w górę i żebym się też odchylił od kamery, bo jestem za blisko.
No i też informacje, zresztą słusznie, że bardzo mam ciemno w tym pokoju, gdzie tu jestem, więc może byłoby dobrze zapalić światło.
Move left, move up, possible sloping on the left. Move left, move up.
Move left, move up, czyli przesuń się w lewo i w górę.
Być może jest twarz obcięta z lewej. No więc zobaczmy, przesunę się.
Move up. W górę. Move left, move up. W lewo, w górę. Move up. W górę. Move left, move up.
Move up. Face well positioned. Move left. Face well positioned.
Face well positioned. No i to by nam wystarczyło,
To oznacza, że twarz jest ustawiona dobrze i wszystko jest w porządku.
Tak jak mówiłem, wtyczka na razie dostępna jedynie na githubie.
Możecie ją przeformatować przez link z komentarza na github.com na githls.com
i w ten sposób ją pobrać, a raczej jej najnowszą wersję.
Polecam, można się ją bawić.
I to jest w sumie wszystko, co przygotowałem w notatkach,
ale jeszcze się podzielę dwiema rzeczami, które znalazłem tak powiedzmy w ostatniej chwili.
Z jednej strony aplikacja AirScan.
To jest ta aplikacja na Androida autorstwa Rastislava Kisza,
która pozwala na takie dość szybkie skanowanie kodów kreskowych i ich wyszukiwanie.
My ją, Ty Tomku pokazywałeś, jak ona wyszła.
Ona była wtedy dostępna tylko jako plika PK,
ale całkiem fajnie sobie radziła, z tego co pamiętam, z dezodorantami, z jakimś masłem itd.
No to nareszcie aplikacja ukazała się oficjalnie już w sklepie Play i można ją tam wyszukać i sobie pobrać.
No i autor prosi o raporty, czy w różnych krajach dobrze działa.
My już pokazywaliśmy, że w Polsce działa całkiem sprawnie.
No i na koniec też informacja, już była mowa o TalkBacku 14.1, tymczasem użytkownicy Samsunga, tu już Roberto też zresztą nam o tym mówił, doświadczyli aktualizacji do Androida 14 i tam pojawił się też TalkBack w wersji znowu 15 ponoć, ten Samsungowy.
No i te rzeczy, które już wcześniej były w TalkBacku, czyli więcej języków w klawiaturze braillowskiej, nowe gesty, przemieszczanie się po kontenerach, przemieszczanie się po akcjach dostępnościowych, po czynnościach palcem w górę-dół, jakieś tam różne polecenia dla monitorów braillowskich, to wszystko to już znaliśmy.
No ale się okazało, że jest też parę rzeczy typowo samsungowych, np. głosy straciły bas, jeżeli używamy talkbacka, ponoć głosy już nie mają tyle basu ile miały wcześniej i to, co ciekawe, dzieje się głównie na modelach ze średniej półki, czyli A52, A52S itd.
Na S20 na przykład tam trójkach, dwójkach i tak dalej tego problemu nie ma i nie ma też co na to poradzić, można używać innych czytników ekranu.
To wszystkie głosy?
Tak, wszystkie głosy. Najgorzej brzmi Samsung TTS, jest płaski, brzmi jak z tanich słuchawek, ale ogólnie wszystkie głosy są tym dotknięte.
Samsungi generalnie chyba nie mają szczęścia do kwestii dźwiękowych, niby potencjał w tych telefonach jest, a kiedyś i z Zoomem przecież były problemy, że tam oryginalny dźwięk nie chciał działać, jakieś takie to.
To tak, często w Samsungach są takie dziwne te problemy, one nie są takie oczywiste, bo w większości Androidów można się spodziewać jakie tam mogą być ewentualnie problemy, to znaczy większość Androidów ma jakieś takie problemy w jakimś sensie wspólne, to jest albo to, albo to, albo to, albo coś tu nie działa, albo coś tu nie działa, a Samsung to ma swoje własne problemy i one są w ogóle często inne od pozostałych.
No i przestało działać rozłączanie dwukrotnym stuknięciem dwoma palcami albo też przyciskiem wyłącznika powera na Whatsappie, co ciekawe.
Nie wiadomo czy inne komunikatory też, ale na Whatsappie na pewno przestało działać.
No i też dynamiczne treści się szybciej odświeżają, to jest akurat in plus, że jakieś suwaki są częściej oznajmiane, jakieś zmiany w oknie, jak się coś nowego załaduje i tak dalej. To na pewno super. No i to tyle jeśli chodzi o drobne newsy.
I to tyle jeżeli chodzi o tyflowieści, a teraz przed nami technikalia i tutaj troszeczkę zaburzę, pozwolicie porządek w notatkach, dlatego że tutaj będzie bardziej porządek tematyczny zachowany i proponuję w związku z tym zacząć od newsa Michała na temat beki, bo jest podobno ważna poprawka w tym beki.
Z mojej perspektywy jest ważna poprawka, być może też i z waszej perspektywy.
Ja jakiś czas temu wspominałem o tym, że Becky to się bardzo dziwnie potrafi zachowywać na kontach Microsoftowych.
To znaczy z tą autoryzacją, że co kilka miesięcy ona potrafi jej wygasnąć,
no a potem trzeba ją znowu wywołać tę autoryzację, czasem to nie chce działać z różnych powodów.
No i tak było do pewnego momentu. Potem to już zaczęły dziać się cuda i przez jakiś ostatni miesiąc, to dosłownie codziennie albo maksymalnie co 2-3 dni wygasała mi ta autoryzacja.
Becky chciała się łączyć do serwera, otwierała przeglądarkę, żeby znowu jej dostępu udzielić i czasem to się udawało, czasem nie.
Natomiast na całe szczęście jest nowa wersja Becki, jak dobrze pamiętam datowana na 30 listopada i jedną z poprawek, jeżeli chodzi o działanie tego programu, jest właśnie mechanizm OAuth na kontach Office’a 365.
więc jeżeli korzystacie, a ja na przykład korzystam z jednego konta właśnie od tego dostawcy, czyli od Microsoftu,
to aktualizujcie, instalujcie i cieszcie się tym, że w końcu będzie Wam to działało tak jak trzeba, bo ja się cieszę.
Co prawda jakiś w ogóle miałem dziwny problem, żeby te autoryzacje w tym nowym mechanizmie wywołać,
bo teraz z kolei właśnie tu był jakiś taki kłopot, z jakiegoś powodu chciał mnie logować na moje prywatne konto,
nie chciał mnie zalogować na konto służbowe, natomiast za drugim razem mi się udało tam zalogować,
za pierwszym razem jakiś, za długo chyba to robiłem, bo wygasł czas oczekiwania na te autoryzacje,
natomiast no już za drugim razem jak wiedziałem co muszę zrobić to szybko się przez to przeklikałem,
zalogowałem się i konto po prostu mi działa, wczytują się maile, nie ma żadnego otwierania przeglądarki
i proszenia o dostęp po enty raz w ciągu jednego dnia, więc wejdźcie sobie, jeżeli korzystacie z beki
kont Microsoftu na remarts.co.jp, tam beki pobierzcie sobie, no generalnie jeżeli korzystacie z beki to warto pobrać w ogóle ten program w nowej wersji.
To jest niestety taki problem z tą aplikacją, że o nowych wersjach to się dowiadujemy w momencie kiedy ktoś na anglojęzycznej liście mailingowej napisze o tym,
że się ta nowa wersja pojawiła, bo ta strona to pamięta złote lata dziewięćdziesiąte.
Żadnych mechanizmów RSS, żadnych tego typu, to czysty HTML, bardzo prosta strona.
No, tak widocznie sobie autor po prostu wymyślił i w ten sposób to jest.
Zdaje się, że gdzieś jeszcze na Twitterze, czyli obecnym iksie Tomohiro Norimatsu
publikuje informacje dotyczące Becki, natomiast ja w tym momencie z X jakoś zdecydowanie mniej korzystam,
czasem tylko zajrzę tam z aplikacji mobilnej, więc też mi ta informacja jakoś umknęła.
Ale Becki jest, można pobierać i aktualizować.
No i zostaniemy jeszcze chwilkę w tematach poczty i mail,
bo pojawił się jakiś bardzo prosty, ale dostępny klient poczty.
Właśnie, tak tutaj od Pawła Niusa.
Owszem, klient się nazywa nawet i nazywa się POPPIPER, taka nazwa łatwo wpada w ucho, ale też kojarzy się, że to POP, to POP3, to pewnie ta mapa nie obsłuży, a jakże, obsłuży i to jeszcze z OAuthem,
Więc do Gmaila spokojnie się zalogujemy, bez problemu.
Program chyba już też swoje lata liczy, bo on jeszcze tam, znaczy on w założeniu miał być
powiadamiaczem o poczcie, czyli jego zadanie miało być siedzenie w treju, wysyłanie różnego
typu, i to już jest bardzo konfigurowalne, powiadomień o tym, że coś nam przyszło i
wywołanie naszego domyślnego klienta pocztowego.
No ale z czasem program ewoluował, rozwijał się, różne przyjmował postaci.
No i aktualnie prostym, bo prostym, ale klientem poczty jest.
Co lepsze, zbudowany jest na natywnych kontrolkach, więc tam mamy, no nie dość, że wszystko jest dostępne,
czyli strzałkami mogę chodzić po wiadomościach, słyszę wszystkie kolumny, mogę te kolumny też przestawiać gdzieś tam w menu widoku.
To jeszcze w samym interfejsie to nie dzieje się wiele, tam pod tabem mamy zakładki, w ogóle skrzynka odbiorcza, zakładka, wysłane, zakładka, tab, lista wiadomości, tab, pole kombi, wszystkie konta albo konkretne jedno konto.
I to jest wszystko w oknie głównym.
Oczywiście są menu, oczywiście wiadomości można otwierać, można na nie odpowiadać, przekazywać dalej.
Wszystkie takie typowe skróty Control R, Control chyba F do przekierowania, Control N nowa wiadomość, to wszystko jest.
Natomiast no właśnie, to jest bardzo prosty program, czyli w wersji darmowej, bo taka darmowa wersja jest,
nie mamy na przykład dostępu do innych folderów niż skrzynka odbiorcza,
więc jeżeli na przykład sortujecie sobie maile z list dyskusyjnych wedle folderów,
jakimiś regułkami na Gmailu, no to z tego nie skorzystacie,
chyba że wykupicie wersję PRO. Wersja PRO posiada też wiele wtyczek,
w tym wtyczki do przypominania co jakiś czas o tym, że nie odczytaliśmy sobie jakiegoś maila,
do powiadamiania syntezą przez SAPI, o tym, że mail przyszedł,
do RSS-ów nawet, chociaż tego jeszcze nie testowałem,
no i właśnie też jakieś opcje o się przeglądania innych folderów IMAP-owych itd.
No i co ciekawe, tutaj mamy głównie wiadomości w formie tekstowej,
czyli otwierają się one nam w polu edycji do odczytu,
które to pole edycji możemy albo wzbogacić sobie o kilka interaktywnych elementów typu linki,
albo możemy otworzyć sobie rzeczywiście widok HTML,
przy czym ja na ten moment muszę to robić przez menu Widok i wybierać tam ten tryb HTML ręcznie.
Domyślam się, że to by też działało, gdybym ja pewien krok inaczej troszkę przeprowadził we wstępnej konfiguracji,
A mianowicie aplikacja na pewnym etapie pyta, jaki poziom zabezpieczeń chcemy zastosować i gdybym tutaj dał na zero, to prawdopodobnie miałbym domyślnie pełny HTML.
Czy ja to mogę zmienić w ustawieniach? Pewnie gdzieś tak, tylko nie znalazłem jeszcze gdzie, bo program mam dopiero od tygodnia i też nie każdego dnia mam czas, żeby się nim bawić.
mam też 30 dni na przetestowanie wersji 30 czy 21, żeby przetestować wersję testową.
No i muszę jeszcze się dokopać, gdzie ta opcja jest.
Natomiast program jest jak najbardziej w języku polskim.
Program pozwala na to, żeby dla każdego konta przypisać inny dźwięk, jak zostanie
pobrana poczta, więc bardzo mocno idzie w to powiadamianie.
No ale prostym klientem również jest.
jest takim słodkim, prostym programikiem do używania tak naprawdę i myślę, że to jest naprawdę ciekawa alternatywa, gdyby ktoś szukał.
No nie zastąpi nam to pełnej poczty, nie mamy chociażby wątków. Też już widzę, że program na przykład nam nie czyta, że dana wiadomość nie została odczytana lub została odczytana.
Ale Becki też nie czyta, ale za to ma wątki, jakby ktoś potrzebował.
No właśnie. Może ktoś do tego jeszcze poppipera stworzy dodatek.
Nie zrobiliśmy też jeszcze testu Michała Dziwisza, czyli potężna skrzynka pocztowa.
Tak jest. To jeszcze przed nami i to już możemy zdradzić.
Myślę, że w przyszłym tygodniu będziemy się przyglądać tej aplikacji w pełni.
Będzie bohaterem naszej audycji.
Ja się jeszcze z niej troszeczkę obkuje i zobaczymy co ona jeszcze tak naprawdę
ale potrafi, bo już widziałem, że tam do niektórych rzeczy trzeba też dokupić osobny pakiet plus, licencja ta pro kosztuje 35 euro pakiet plus jeszcze dodatkowe chyba 15 czy 16, więc wychodzi nam 50 euro, czy jest warto? Przekonamy się w przyszłym tygodniu.
A teraz przechodzimy do takiej już kolejnej grupy newsów, chyba ostatniej, chyba że komuś coś tam jeszcze wyskoczyło lub wyskoczy po drodze jakieś dodatkowe newsy, to znaczy sztuczna inteligencja, no bo jak żeby bez tego był tyfloprzegląd.
No i zacznę od swojego newsa, który dość długo zastanawiałem się w ogóle jak nazwać. Nazwałem go na razie ChatGPT, napisał skrypt ułatwiający przeglądanie dużych archiwów whatsappowych, ale chodzi o to, że zaczęło się od tego, że będąc na iluś grupach whatsappowych, nie bardzo mam czas na ich przeglądanie.
Zwłaszcza takich grup, a ich jest kilka, na których jest np. 50 albo 70 wiadomości dziennie, tak się zdarza czasami i trochę nie bardzo wiedziałem co z tym zrobić.
Jak miałem androida to czasami robiłem tak, że np. brałem sobie wiadomości do smart audiobook playera, w zasadzie pol folder z wiadomościami i słuchałem.
Rozwiązanie dalekie od idealnego, bo miałem wymieszane wiadomości ze wszystkich grup i omijałem wiadomości tekstowe.
Jakkolwiek to nie jest najbardziej popularna forma komunikowania się na grupach whatsappowych, no to parę osób z takich wiadomości korzystało, więc biorąc to wszystko razem, no to trzeba się było nieźle skupić, żeby w ogóle wiedzieć o czym mowa, bo miałem kilka wątków z kilku grup jednocześnie, więc nie było to fajne.
Potem przyszedł iOS jako ten telefon najpierw na testy, potem w sumie trochę ze mną został, jako przynajmniej jeden z dwóch, no i tu zrobił się nowy problem, no bo no fajnie, że można odtworzyć sobie wiadomości ciągle, no problem polega na tym, że jeżeli coś się zatrzyma, odtwarzanie, to czasem zdarza się tak, z jakichś powodów, że kursor gdzieś ucieknie.
Jeżeli to jest powiedzmy nie wiem 10 wiadomości do słuchania to raczej nie ma z tym problemu, gorzej gdy tych wiadomości jest 700, bo ten kursor ucieka w sumie nie do końca wiadomo gdzie i zanim się odnajdę w tym wszystkim no to naprawdę sporo czasu minie, no poza tym miło by było jak już zacznę słuchać tych wiadomości to skończyć to odsłuchiwanie, no bo potem znowu nie wrócę do tego,
A w momencie, gdy ma się rodzinę, to czasami trzeba to przerwać i potem, no właśnie, gdzie się skończyło, gdzie trzeba zacząć. To jest w ogóle problem, przynajmniej u mnie.
Druga taka rzecz, to powiedzmy taka, mamy sobie jakiś czas właśnie WhatsAppowy i czasami chciałoby się z różnych powodów wrócić do jakiejś wiadomości i znowu, jak to zrobić, żeby znaleźć konkretną,
albo wyszukać sobie jakiś konkretny tekst.
No i tu troszkę jest problem.
No i zastanowiłem się właśnie jak to rozwiązać.
Mówię ok, wyeksportuję sobie wiadomości, znaczy czat whatsappowy
i będę słuchał tych wiadomości, przynajmniej będę miał
te wiadomości pogrupowane z konkretnej grupy.
No i zobaczyłem sobie co w ogóle jest eksportowane.
No i po pierwsze, na Androidzie eksportowanie czatów na Whatsappie jest popsute i to już od lat, dlatego że w momencie, gdy zaznaczymy tam są takie dwie opcje, że no multimedia z większą rozmiar grupy, czy na pewno chcesz je dodać, no tak.
No i na androidzie to jest wysyłane w formie po prostu iluś plików, tylko że jeżeli wysyłam zawartość grupy, która ma nie wiem, 2000 wiadomości, to wysyłanych jest nie wiem, jakieś 40 losowych plików dźwiękowych i tyle.
Podkreślenie jest chyba chat.txt, w którym są wiadomości tekstowe i jakieś informacje na temat wiadomości audio.
Ten plik podkreślony chat.txt jest również w tej wersji, która eksportuje się na iOS, natomiast tam są również oczywiście te wszystkie wiadomości audio, które zostały wysłane.
No i właśnie, no i co w tym, co w tym, wiadomo, co w tym pliku chat jest, bo to się okazuje, jest dość fajna rzecz, na której można sobie bazować, ja sobie bazowałem właśnie tworząc, czy w zasadzie prosząc chata GPT, aby stworzył, stworzył skrypt, o którym mowa,
bo to jest w takim pliku podkreślone chat.txt
najpierw jest jakiś znak, który nazywa się z NVDA i go czyta jako znak lewa do prawej
potem jest w nawiązkach kwadratowych data
następnie jest link
i potem jest albo treść wiadomości
albo na przykład takie coś jak audio pominięte
czyli informacja jakby, że tu był plik audio, ale już go nie ma, został usunięty,
no nie ma tego pliku audio,
albo treść wiadomości tekstowej.
Czyli, jeżeli ja bym chciał teraz przeczytać wiadomości tekstowe,
tak po prostu z Whatsappa,
no mógłbym teoretycznie wywalić wszystkie linki,
które zawierają audio pominięte
i załączono plik jakiś tam.
No to by się pewnie dało zrobić jakimś prostym skryptem,
ale ja stwierdziłem, że ja tak nie chcę, no bo wtedy mam wiadomości tekstowe i wiadomości audio, no tylko, że wiadomości audio, jeżeli chodzi o nazwę plików, no to znowu, mam plik, który nazywa się 0000003-audio- i tu znowu jest data i godzina i jakiś numer porządkowy,
No więc, żeby wiedzieć na przykład, że ktoś odpowiedział wiadomością tekstową na wiadomość audio,
no to musiałbym w tym pliku chat.txt wyszukać sobie odpowiedniej daty i sprawdzić, czy to mały przypadkiem nie miał wiadomości tekstowej.
Więc w sumie wychodzi na to, że takie przeglądanie tego archiwum czata whatsappowego jest chyba jeszcze dłuższe,
niż jakbym to przeglądał z interfejsu takiego, takiego właśnie, no, oryginalnego Whatsapp’a.
A z czasem napisałem taki program, który zrobił mi plik HTML, który wygląda mniej więcej tak, zobaczcie sobie.
Na główek poziom dwa Paweł trzydzieści jeden zero osiem dwa tysiące dwadzieścia jeden.
Przepraszam, coś mi się tutaj psuje jak zwykle.
Nagłówek poziom 2 Paweł 3108-2021-08-3608.
To jest nagłówek, więc go w razie czego możesz zapominać.
Ja również niestety dziś nie dam rady. Mam nadzieję, że dacie radę w okrojonym składzie.
Nagłówek poziom 2 Midzi 2092000. Może ktoś ma ochotę?
I co ze wiadomości tekstowej. Jeżeli jest tu wiadomość audio,
teraz tu sobie przewinę do jakiejś wiadomości audio.
O, mam tu na przykład wiadomość od Piotrka ostatnio, tylko kawałek odtworzę, żeby tu nie było, że coś…
Piotr Machacz, 6.12.2023.
Dobrze, i tu mam treść.
Jasne, pewnie, ja akurat nie mam jakoś, nie miałem…
A i teraz tak, bardzo ważna rzecz i o tym nie powiedziałem, postanowiłem, żeby to wszystko szybciej sobie jeszcze zrobić, to przerzucę te wszystkie wiadomości głosowe przez Whispera i Whisper mi zrobi ich transkrypty tekstowe.
W ogóle zaczęło się właśnie od tego, że chciałem sobie te wiadomości audio po prostu przerzucić przez Whisper’a, żeby on zrobił wiadomości tekstowe, to też był jeden z takich pomysłów na usprawnienie tego wszystkiego.
I rzeczywiście on to zrobił, tyle że jeżeli były nagrywane, a nieraz są nagrywane na grupach wiadomości, nie wiem, po trzy sekundy typu, tak potwierdzam, koniec wiadomości, no to tak, biorę plik tekstowy, otwieram go, czytam.
Tak potwierdzam, zamykam plik tekstowy, otwieram następny, ja też zamykam, otwieram następny.
W gruncie rzeczy do tego typu plików i do tego typu wiadomości to też nie bardzo się sprawdza.
No więc w sumie wymyśliłem, że chat gpt napisze mi program, który te wszystkie wiadomości mi robi w formie jednej dużej strony htmlowej,
na której mam te wszystkie wiadomości, audio i wiadomości tekstowe powkładane jedna za drugą, tak jak one powinny być, w odpowiednich datach i tak dalej, i tak dalej.
I teraz oczywiście mam.
Jasne, pewnie, ja akurat nie mam jakość, nie miałem tego dużo w tym.
Okej. I teraz pod, bo to jest ta wiadomość Piotrka.
Korzystam aktualnie, przycisk odtwórz.
I potem mam przycisk odtwórz, który mnie po prostu odtwarza.
Wstrzymaj.
Jasne, pewnie, ja akurat nie mam jakoś…
nie miałem tego dużo w tym miesiącu, no…
Odtwórz.
I tak dalej.
I znowu, jeżeli chce następną wiadomość, na główek…
Piotr Machacz.
Cześć wszystkim, z tej strony Piotr.
Dzisiaj nie na żywo, no poniekąd, a z nagrania,
bo tylko na to pozwala mi w tym tygodniu łącze, ale to…
Czyli to jest ta wiadomość, którą Piotrek wysłał tydzień temu z…
No w ogóle załącznik cały.
Tak, tak, to był załącznik.
On to też rozpoznał, więc ja go znowu mogę
przejść do najwyższego przycisku, żeby to…
Odtwórz.
odtworzyć.
Cześć wszystkim, z tej strony Piotr.
Dzisiaj nie na żywo, no poniekąd,
a z nagrania, bo po prostu
odtwórz. Następne wiadomości, nagłówek.
Piotr Machacz, jak wiadomo, IMS-Sage jest usługą
upleowską, dostępną, brak następnego. Następny, albo
no już nie ma. Piotr, Piotr Machacz, cześć
wszystkim, z tej strony Piotr, Piotr Machacz, jasne,
pewnie, Piotr, midzi, cześć, swoją drogą, Piotr, jak chcesz
i jak be. I tak dalej, i tak dalej. I mogę
po prostu po nagłówkach
midzić, Piotr Mach, midzić, Tomasz Bile, Paweł,
między kolejnymi wiadomościami na Whatsappie i zawartość tych wiadomości mam po prostu pod nagłówkiem, więc jeżeli na przykład nie chcę czytać daty, to po prostu czytam tylko nick,
tą nazwę, która tam jest w Whatsappie podana, albo ją sobie zapisałem w kontaktach i od razu przechodzę strzałką w dół na treść wiadomości.
Oczywiście im większe jest archiwum whatsappowe, to ten plik htmlowy jest większy.
W przypadku mojego tyflo przeglądu, ten plik, ojej, ale mnie dziwnie słychać, albo nie, może normalnie.
My cię słyszymy normalnie.
W każdym razie ten plik ma 200 kilobajtów, no więc to taki jeszcze ujdzie.
Natomiast jeden z czatów, który był rzeczywiście dość duży, to ma prawie półtora mega, więc to chwilkę się tam wczytuje do przeglądarki, zanim się to zrobi.
To jest jakby rzecz pierwsza, no i rzecz druga Whisper.
Żeby to jakoś chodziło sensownie, to trzeba mieć albo kartę graficzną, albo Maca, żeby to się dość szybko zrobiło.
No i na przykład ja dzisiaj robiąc mój tyfloprzegląd, który, jak się okazuje, sobie sprawdziłem w fubarze, że długość wszystkich plików dźwiękowych, jakie tam mam, to jest 2 godziny 40 minut,
to od momentu, kiedy wszedłem do czata, żeby go wyeksportować, do momentu, kiedy otrzymałem już ostatecznie stronę htmlową, to minęło może pół godziny.
Przy czym Whisper to był może 20 parę minut, a reszta to było eksportowanie czata, kopiowanie go z Google’a, uruchamianie Whispera, kopiowanie tych…
Bo tam ten skrypt, który Chat napisał, zresztą zgodnie z moimi założeniami, zakłada, że audio i tekst są w tym samym folderze co skrypt, potem jest właśnie generowany z tego plik HTML, więc jakby to nie jest tak, że skrypt to robi whisperem, tylko ja to muszę zrobić wcześniej whisperem, jakby skrypt zakłada, że to już jest zrobione.
Mówię to głównie z dwóch powodów. Po pierwsze, może się komuś coś takiego przyda. Po drugie, chciałbym troszkę pokazać, nawet przeczytać, jeżeli oczywiście uważacie, że to ma jakiś sens, co ja napisałem chatowi, żeby to zrobił.
bo no może być tak, że wiele osób ma takie właśnie, takie rzeczy, które w sumie fajnie by było zrobić, ale nie do końca wiadomo jak to zrobić.
Ja myślę Tomku, że tak w ogóle to fajnie by było, jakbyś gdzieś ten skrypt też wrzucił, bo komuś może się on tak po prostu przydać, a to swoją drogą.
Bo ja sam jestem ciekaw, jak ty na przykład z czatem GPT rozmawiałeś.
Ważna rzecz, bo próbowałem najpierw z tym darmowym kontem, nie udało się, to znaczy teoretycznie się udawało, ale tam za każdym razem występował błąd, ja mu przepisywałem ten błąd i mówiłem, o przepraszam, moja wina, przepraszam za zamieszanie, już poprawiam, tu trzeba zrobić coś, ale to za każdym razem nie wychodziło, coś tam było nie tak, albo teoretycznie robił, ale nie zrobił, ileś tam tych wiadomości napisaliśmy, w końcu się zniechęciłem.
To samo napisałem chatowi gpt4, za pierwszym razem był błąd, ale to chyba jak się potem okazał, był mój problem, bo tam ten znaczek, strzałka lewa do prawej, to czasem jest, czasem go nie ma, ja mu pisałem, że on zawsze jest, więc no, no kazałem, to tak zrobił, więc podejrzewam, że gdybym porządnie się przyjrzał temu plikowi, no to byłoby dobrze.
Ale napisałem mu potem błąd, jaki wyskoczył, on powiedział, a to znaczy, że tam właśnie był problem z tym i on tam musiał parsować, czyli jakby oszczytywać te linijki kolejne tego programu i on jakby sam zobaczył, gdzie jest błąd i sam sobie go poprawił.
To już się zaczęło działać, tam jeszcze był taki problem, że nie odtwarzały się pliki audio.
Napisałem mu, że w Chromie to jakoś nie działa, a na stronach działa, więc o co chodzi?
Przy czym może być kilka, najpierw spróbujmy to, a jak to nie zadziała, to trzeba będzie czytać konsolę developerską.
Na szczęście zadziałało to, co mi tam napisał, w związku z czym nie trzeba było tej konsoli developerskiej odpalać.
Zaraz mogę sobie wejść do czata i przeczytać, co tam najpierw napisałem, na szczęście w ogóle da się z tego, co pamiętam, da się dawać linki do tych konwersacji, więc z tych linków będzie można to zrobić.
Oczywiście to jest skrypt w Pythonie, więc trzeba mieć zainstalowanego w systemie Pythona, w sumie nie wiem w jakiej wersji, u mnie działa.
Więc mi się to kojarzy z takimi, wiecie, jak to elektronicy robią, układy elektroniczne, wystają kable, wystają płytki drukowane, ale jak się tego nie rusza, to działa.
To są tego typu programy, takie wiecie, skrypty, rzeczami jakiegoś Pythona zainstalowanego, coś tam jeszcze, te skrypty można modyfikować notatnikiem, jak się coś tam zepsuje, to one przestaną działać albo zaczną działać dziwnie.
i to jest coś tego rodzaju. No i oczywiście trzeba pamiętać, że ja nie jestem programistą, więc jeżeli on tam coś, znaczy na chłopski rozum wydaje mi się, że nic tam nie ma złego w tych skryptach, ale czasami chłopski rozum to trochę mało.
No i on też zawsze zarzeka się, że no to warto w ogóle sprawdzić i ostrożnie, zwłaszcza jeżeli na przykład na danych zbiorach wykonuje się jakieś operacje, no takie typu zmiany danych plików albo usunięcia tych plików.
Ja na przykład potrzebowałem jakiś czas temu takiego skryptu, to on mnie ostrzegał za każdym razem, tylko pamiętaj, ostrożnie, bo to może tam różne rzeczy zrobić.
Tak, a że ja nie jestem programistą, no to muszę wierzyć, że nie zrobi, ale robiłem na kopii zapasowej, także no, u mnie komputer nie wybuchł, więc jest szansa, że u innych też tak się nie stanie.
To co ja napisałem to coś mocno podejrzewam nadmiarowe, myślę, że to można by dużo krócej napisać.
Natomiast napisałem mu mniej więcej tak.
W folderze znajdują się pliki tekstowe oraz dźwiękowe.
Każdy plik dźwiękowy ma swój odpowiednik tekstowy.
Plik ma najpierw swój numer porządkowy, następnie po znaku minus napis audio,
i po kolejnym znaku minus datę i godzinę z rozszerzeniem kropka opus.
w przypadku dźwięku i tekst, w sensie T-E-X-T w przypadku tekstu.
I rzeczywiście to tak jest, dlatego że ten WhisperFaster, bo ja tego używam, czyli ten program, o którym też tu mówiliśmy w tyflu przeglądzie,
on właśnie zapisuje pliki tekstowe, jeżeli mają być bez znaczników, czas jako pliki kropka tekst, nie T-X-T.
Przykładowa nazwa wygląda tak, no i tu wpisałem po prostu pliku jakiegoś tam pierwszego z brzegu lub no i znowu nazwę podobnego pliku .txt.
Oprócz tego znajduje się plik podkreślony czas.txt, w którym zawarte są pewne potrzebne informacje.
Każda linia zaczyna się znakiem
i wkleję ten znak, znak lewa do prawej.
Następnie datą i godzinę w nawiasach kwadratowych,
dalej nick, czasem poprzedzonym znakiem tylda.
Po nicku znak dwukropek,
a wreszcie pozostała część tekstu,
którą nazwiemy wiadomością.
Przykładowa linia w pliku wygląda tak.
I tutaj wkleję sobie jakąś tam
wiadomość z tego czat.txt, inna linia może wyglądać tak, i tu właśnie wrzuciłem u linijkę audio pominięte, bo wtedy jeszcze nie widziałem, że są te pliki z załącznikami,
Ten prąd był odrobinkę zmieniony, ale z takiego początkowego, w którym potem jeszcze nie wiedziałem, że są różne inne rzeczy.
Potem ten prąd troszeczkę tam zmieniłem, ale bez usuwania poprzedniego, więc tam jest troszeczkę… on by pewnie mógł być lepszy.
Stwórz skrypt, który stworzy plik HTML o dowolnym tytule. Plik powinien zawierać nagłówki, w których na początku będzie nick, następnie data.
Poza nagłówkiem powinna znaleźć się wiadomość, chyba że jej treścią będzie audio pominięte.
W takim przypadku pomiń całą tę linię, to znaczy nie twórz również dla niej nagłówka.
Mogą się również zdarzyć linie następujące, a właśnie tu potem dodałem, że znowu znak lewa do prawej, tam data.
Załączono tam nazwa pliku .opus, tam też jakby wkleiłem po prostu tę linię z plikiem.
W takim przypadku zamiast wiadomości wstaw treść odpowiadającego mu pliku tekst.
Załóż, że wszystkie pliki znajdują się w folderze, w którym jest skrypt.
I teraz, chat.gpt.
Rozumiem, że potrzebuję skryptu w Pythonie, który przetworzy zawartość pliku chat.txt oraz powiązane pliki tekstowe i dźwiękowe,
a następnie wygeneruje z nich HTML skrypt.
A, HTML.
Skrypt będzie musiał 1.
1. Przeczytać plik podkreślony .txt i przetworzyć każdą linię.
2. Pominąć linię z treścią audio pominięte.
3. W przypadku linii z załączonym plikiem dźwiękowym odnaleźć wymagającym plik tekstowy i użyć jego zawartości.
4. Utworzyć plik HTML z nagłówkami zawierającymi nick i datę,
a pod nagłówkami umieścić wiadomości lub treści z plików tekstowych.
Poniżej znajduje się przykładowy skrypt, który to jakby wykonuje.
I tu jest cały skrypt napisany.
I teraz napisałem, bo skrypt wypluł błąd.
Co oznacza ten błąd?
I tutaj wkleję mu cały ten błąd, który dostałem.
Myślę, że nie ma potrzeby go czytać, to jest milion linijek, cyferek i innych takich rzeczy.
Błąd, attribute error i tam coś jeszcze.
Wskazuje, że wywołanie metody group1 na wyniku funkcji research nie powiodło się, ponieważ research zwróciło no.
Oznacza to, że wyrażenie regularne nie znalazło dopasowania w tekście, którego szukałeś.
W tym przypadku problem dotyczy linii, tu jest napisane, aby rozwiązać, jakby on przekleił te linie, aby rozwiązać ten problem możesz dodać warunek sprawdzający, czy research zwróciło wynik przed próbą wywołania metody.
Oto zmodyfikowany fragment kodu i tu by po prostu trzeba było odnaleźć ten fragment w kodzie i po prostu przekleić to co było w oryginale na to co tam znalazł.
Ja byłem też trochę zmęczony, chciałem iść jak najszybciej spać.
Potem jeszcze napisałem, że ta zmiana sprawi, że skrypt najpierw sprawdzi, czy istnieje dopasowanie zanim spróbuje użyć wyniku, co zapobiegnie wystąpieniu tego typu błędom.
Teraz ja napisałem mu, po której linii chcę wkleić ten fragment.
Zmodyfikowany fragment, który zapobiega atrybiutu error, powinien zastąpić oryginalny fragment kodu funkcji process.chat, który obsługuje linię z załączonymi plikami dźwiękowymi.
Zastąpić tym kodem fragment, który obecnie próbuje wyodrębnić nazwę pliku audio i czyta odpowiadający mu plik tekstowy o to, jak powinna wyglądać ta część funkcji.
I tu rzeczywiście napisał mi coś, co znalazłem w pliku tekstowym, DevProcessChat, bo to było rzeczywiście coś takiego tam w tej linii, i tam wkleiłem tam to coś, tam troszkę tych linii jak było, i jeszcze wytłumaczył, co ta zmiana spowoduje.
I teraz tak, napisałem mu zmodyfikuj skrypt tak aby wyświetlał oryginalny plik audio pod tekstem w domyślem odtwarzaczu html5.
Aby zintegrować, to już czas pisze, funkcję odtwarzania audio w html5 z swoim skryptem musimy dodać elementy audio do wygenerowanego pliku.
I oto zmodyfikowany skrypt, który teraz będzie to uwzględniał.
I to już napisał mi cały skrypt, który tak robi.
I teraz mu napisałem tak, bo on rzeczywiście działał z plikami opus, ale mp3 i inne takie zastawiał.
Więc co zmienić, to już ja napisałem w skrypcie, aby wstawiał treść odpowiednich plików nie tylko z rozszerzeniem opus, ale wszelkich innych.
Jednakże, jeżeli takiego zawinnika nie znajdzie skryptu, powinien wysiedlić oryginalną nazwę pliku.
Czyli chodziło mi o to, że jeżeli będzie plik taki, który jest plikiem MP3, czy takim, który jest w stanie Whisper przetworzyć, to niech go spróbuje dodać.
Jeżeli nie, no bo to jest na przykład zdjęcie albo jakiś inny plik PDF, to niech wstawi po prostu jego nazwę, no to sobie go potem znajdę i jakoś osobno tam, jak będę chciał, to coś tam z nim zrobię.
Aby dostosować, musimy wprowadzić kilka zmian, tutaj mówi jakie to są zmiany, zmodyfikuj wyrażenie regularne, aby coś tam,
potem dodaj logikę do sprawdzania istnienia pliku tekstowego dla każdego typu, jeśli odpowiednik nie zostanie znaleziony wyświetl itd.
i tak dalej. Oto zmodyfikowany skrypt, który no to wszystko robi.
Na co ja?
W Chrome odtwarzasz audio, wydaje się niedostępny,
to znaczy przycisk do odtwarzania ze wstrzymywania są niedostępne,
słówak długości pokazuje wszędzie długość 0 sekund.
Chrome w internecie umie odtwarzać pliki opus, być może trzeba
dodać jakiś atrybut albo coś.
Autentycznie tak napisałem.
Po prostu chciałem napisać jak najszybciej, bo się spieszyłem.
Problem, który opisujesz może być spowodowany kilkoma czynnikami, ale najpierw warto upewnić się, że ścieżka do plików audio w elemencie audio jest poprawna i że plik jest dostępny dla przeglądarki.
Oto kilka rzeczy, które warto sprawdzić i potencjalnie poprawić w skrypcie.
Ścieżka do pliku audio. Upewnij się, że ścieżka do pliku audio w elemencie audio jest poprawna i że plik audio znajduje się w tym samym katalogu co wygenerowany plik HTML lub w lokalizacji do której przeglądarka ma dostęp w atrybucie elementu audio.
Można dodać atrybut reload do elementu audio, aby zasugerować przeglądarce, że powinna wczytać plik audio przed odtworzeniem.
Możesz użyć reload coś tam. To sugeruje przeglądarce wczytanie całego pliku, a metadata tylko metadanych.
jak długość pliku 3
typ MIME dla plików OPUS
upewnij się, że
typ MIME dla plików OPUS jest poprawnie zdefiniowany
typ
typ MIME to audio OGG
oto zmodyfikowany fragment funkcji tworzący
element audio uwzględniający te poprawki
to zrobiłem, to co mi tam wkleił
Jeśli nadal występują problemy, upewnij się, że pliki audio są poprawnie przesłane na serwer, nie ma problemów z bezpieczeństwem, że nie trzeba są uprawnienia, to już tak mniej więcej plik nie jest uszkodzony.
Jeśli wszystkie te kwestie są w początku, a problem nadal występuje, może być koniecznie dodatkowe zdiagnozowanie problemów, na przykład poprzez sprawdzenie konsoli deweloperskiej w Chrome, w poszukiwaniu błędów lub ostrzeżeń.
No i to ostatecznie zadziałało, skrypt jest już działający i robiący to, co trzeba i jak widać napisałem, to przecież starałem się to pisać takim zwykłym w miarę językiem, nie rozpisywałem tego programu, w takim sensie mam wrażenie programistycznym, nie pisałem o jakichś pętlach, instrukcjach warunkowych,
w tych jakichś takich rzeczach, pisałem po prostu takim, no, pisałem, co konkretnie ten program ma robić z plikiem i jak widać, to zadziałało i GPT-4, bo 3,5 nie umiał, ale GPT-4 sobie z tym poradził.
I no właśnie, to taka moja zachęta dla ludzi, żeby, no rzeczywiście, jeżeli macie, drodzy słuchacze, właśnie jakieś problemy u siebie, które, z komputerem, które w sumie nie wiadomo jak ugryźć i to są właśnie jakieś, nie wiem, masowa zmiana, bo to czasem się tak dzieje, tak?
Chcemy dodać, albo usunąć, znak minus ze wszystkich plików mp3, bo denerwuje nas, że nasza got nvidia to czyta, albo nie wiem, są czasami jakieś pliki mp3, które mają jakąś doklejkę, albo no nie wiem, cokolwiek.
No właśnie jakieś pliki tekstowe, w których czasami się coś jednego znajduje i chciałbym to usunąć, albo no nie wiem, ileś takich czasami jest różnych rzeczy, z którymi czasami robi się coś na zasadzie, a zrobię to ręcznie, minie trzy dni zanim to zrobię, ale w sumie czemu nie.
Być może można takie rzeczy przyspieszyć. Wystarczy czatowi, no trochę tak łopatologicznie, ale takim w miarę zwykłym językiem powiedzieć, o co w zasadzie nam chodzi, tylko tak powiedzieć dokładnie.
A nawet jeżeli nie będziecie mieć pomysłu jak to dokładnie mu opisać, bo ty tu Tomku dość często właśnie byłeś dosyć precyzyjny jeżeli chodzi o opisywanie tej linijki,
ale zrobiłeś też jedną fajną rzecz i pytanie z czego on się więcej domyślał i myślę, że to jest też dobry sposób na tego czata GPT, żeby na przykład pokazywać mu właśnie,
że okej, opisujemy z jednej strony własnymi słowami, ale też i przy okazji mu pokazujemy, mam to, chcę to, na przykład.
Tak, takie przykłady, szablony, to w ogóle masa osób, które zajmują się tym prompt engineeringiem, mówią, żeby pisać przykłady albo szablony,
co ja konkretnie chcę, albo na przykład co mu podaję, tak na zasadzie, jak to wygląda i przykład, to może wyglądać tak, a oczekuję tego.
I wtedy chat GPT może się domyśleć albo z tego, co on tam napisał z takiej reguły, albo po prostu z przykładów, albo trochę z jednego, trochę z drugiego.
I nawet jeżeli właśnie skrypt wygeneruje błąd, bo to nieraz tak jest, że po uruchomieniu skryptu tego Pythonowego może być błąd po prostu.
Python zamiast uruchomić skrypt i się zamknąć, napisze jakieś dziwne rzeczy na ekranie i te dziwne rzeczy można wkleić i zapytać czasa po ludzku, co to znaczy, co z tym zrobić.
I czas może napisać, to jest okej, tym się nie ma co przejmować, albo napisze, to nie jest okej, to oznacza na przykład coś tam.
I naprawdę można z nim zacząć dyskutować, albo pytać, w zasadzie wytłumacz prostym językiem, co to w zasadzie oznacza, czym to wszystko jest.
Można napisać chatowi, ja już teraz tak pisałem, co prawda głównie do 3,5, ale w 4 to będzie myślę, że tylko lepiej, żeby na przykład pisząc ten skrypt, wyjaśniał, co on w zasadzie konkretnie po kolei robi.
Bo nawet pisząc taki kod, można troszkę się nauczyć, a troszkę prześledzić jego, no nie chcę powiedzieć tok rozumowania, bo to trochę za duże słowo, ale no właśnie taki, co on w zasadzie robi po kolei z tym wszystkim i trochę jakby zbliżyć się do takiego sposobu myślenia czasem programistów,
Jak w ogóle działają programy, co one w zasadzie robią, jak to wszystko funkcjonuje, bo z tego też się nieraz można różnych ciekawych rzeczy po prostu dowiedzieć, więc czata można pytać, czat będzie odpowiadał, jak się nie zrozumie, to można go jeszcze raz pytać, on znowu odpowie i będzie się wszelkimi siłami starał, żeby rzeczywiście nam odpowiedzieliśmy na pytania w sposób
zadowalający. I on będzie bardzo cierpliwy, on się na nas nie zirytuje, możemy go po prostu pytać ile tylko chcemy.
Jest jedno graniczenie, w tym GPT-4 można 40 zapytań na 3 godziny wysłać, także można powiedzieć jego cierpliwość też ma jakieś granice,
natomiast 40 zapytań na 3 godziny to powiedzmy jakiś znośny limit. Pewnie to się będzie zwiększać.
To się pewnie będzie zwiększać, mam nadzieję, przynajmniej także i tak jak już kiedyś mówiłem, czat mi pomaga właśnie w różnych takich rzeczach, piszę jakieś takie prościutkie skrypciki, teraz się zbieram do trochę większego projektu, zobaczymy czy mi wyjdzie z prostego edytorka audio i zobaczymy czy mi się to uda zrobić.
No jeżeli tak, no to może już będzie się można czymś pochwalić bardziej na zewnątrz, że to nie będzie już taki skrypt, który tu zainstaluj Pythona, tu Whispera, tu coś, tu coś tam w eksportu, tu coś zrób,
tylko to będzie wyglądało jak normalny program, który po prostu się uruchamia i on ma jakieś okno i tak dalej, że zobaczymy.
Natomiast naprawdę zachęcam ludzi do spróbowania z tym czasem GPT, aczkolwiek rzeczywiście są takie rzeczy, które ta wersja darmowa mi nie zrobiła, natomiast ta wersja GPT-4, czyli ta płatna, już robi lepiej.
Przynajmniej to mi zrobiło lepiej, to konkretne działanie okazało się dla GPT-4 w zasadzie żadnym problemem, dla GPT-3.5 to za chwilę się tam potyką o własne szturówki i jakoś to nie wychodziło.
Prawdopodobnie będą takie rzeczy, z którymi GOPT-4 sobie nie da rady. Zdziwimy się, gdyby tak nie było. Ale jest szansa, że w jakichś tam problemach ludziom może pomóc.
Tylko trzeba się tak trochę… Ja mam czasem takie wrażenie, że tak naprawdę najważniejsze jest w ogóle odpowiedzialność na pytanie, czego ja w zasadzie chcę, to znaczy, co by mi tak naprawdę pomogło.
Ja wiem, to trochę brzmi jak jakiś kurcze, jakiś coaching, albo nie wiem co, jakaś terapia, natomiast…
Znaczy ja wiem Tomku o co ci chodzi, bo to jest trochę tak jakby rozumiesz jak program działa, jakby rozumiesz jak jest skonstruowany silnik samochodu, jakby co on powinien robić, ale nie umiałbyś go sam odtworzyć.
I nawet może nie umiałbyś sam, nawet instrukcji obsługi, byś nie zrozumiał tych wszystkich terminów,
ale mniej więcej wiesz, o co tam chodzi i jak to ma działać.
Na zasadzie, ty jesteś tym Stephen Jobsem słynnym, który zaprogramować nic nie umiał,
ale miał od tego ludzi i miał wizję.
I ja trochę też tak mam, że wiem, że za pomocą jakiegoś tam API,
mogę uzyskać coś tam, coś tam, coś tam, coś tam.
Ale nie umiem napisać takiego kodu, który efektywnie by to, w ogóle nie umiem napisać kodu,
a już zapomnijmy o tym, że który by efektywnie i prawidłowo to wszystko wykonał.
Miałem kiedyś takie zadanie do wykonania w jednym z miejsc pracy, w którym byłem.
To nie było zadanie, które mi wyznaczono, tylko zadanie, które uważam, żeby przyspieszyło naszą pracę o wiele w tamtym okresie.
a mianowicie przekonwertować grupę, cały folder plików na format jakiś o określonych parametrach
i to jeszcze tak, żeby wszystkie te pliki wynikowe były ponazywane w jeden konkretny sposób
według szablonu i poukładały się same w folderach i żeby były gotowe tam do wrzucenia na pendrivy.
Bardzo chałupnicza robota, którą zespół wykonywał i to było rozpisane w ogóle gdzieś tam,
że nam to zajmie tyle a tyle czasu i to było wkalkulowane w koszta i ja to
próbowałem uprościć i przyspieszyć skryptem.
Jedne do czego doszedłem sam, to żeby te nazwy szybciej pozmieniać, bo nie
udało mi się dotrzeć do tego jak to zrobić FFmpegiem, żeby przekonwertować to na ten
format i żeby jeszcze wintegrować gdzieś tam te zmiany nazw.
Gdybym pewnie miał wtedy czata GPT to dałoby się to osiągnąć z FFmpegiem, bo on by mógł
i podpowiedzieć składnie, bo ja dokładnie wiedziałem, czy go chce, ale nie umiałem zastosować tego w ffmpegu plus w tych plikach wsadowych, żeby on te polecenia ładnie mi z wiersza poleceń wykonał. Chyba o to chodzi.
To znaczy, z jednej strony, od razu mam wrażenie, że nie do końca, ja mam wrażenie czasem takie, niedawno gdzieś tam w jakimś podcasie natrafiłem na jakiś wywiad, jakąś rozmowę z człowiekiem, który robi jakieś ni to drony, ni to samoloty, takie jednoosobowe, które mogą, no to jest elektryczne jak dron.
On może tak jak helikopter startować, wylądować w miejsce, on tam naprawdę potrzebuje prawie że nic tego miejsca, on leci może nie jakoś bardzo szybko, ale jest taki elektryczny, jest bardzo zwrotny, malutki, on tam właśnie potrzebuje dużo mniej miejsca, jest w ogóle leciutki i tak dalej, i tak, no fajnie, ale do czego by to się w zasadzie mogło przydać?
A z drugiej strony, no właśnie tak analizuję mój sposób myślenia na temat tego Whatsappa.
Wpisałem się z kilku grup Whatsappowych. Czemu? Bo miałem za dużo wiadomości.
No ale co to znaczy, że miałem za dużo wiadomości? To znaczy, że za dużo czasu spędzałem na ich przeglądaniu.
Więc może zamiast się wypisywać, znaczy okej, no to już było dawno zanim wszedł ten czat GPT, ale też niedawno właśnie czyściłem jakieś wiadomości z grup, bo mówię, no nie przeczytam tego, nie ma szans tego z ponad 2000, nie ma opcji.
A wystarczyło tak naprawdę przeanalizować. Mój problem polega na tym, że przeglądamy się to niekomfortowo i wolno. To może dałoby się to przeglądać bardziej komfortowo.
No i to jest takie zdefiniowanie w gruncie rzeczy źródła problemu, który miałem. Ja nie twierdzę, że to jest rozwiązane idealnie, ja nie twierdzę, że teraz w ogóle by było cudownie jakby wszyscy tego używali, pewnie nie, każdy ma jakby inne potrzeby.
I chodzi jakby o to, że czasami można sobie problem rozwiązać, w gruncie rzeczy zastanawiając się o co tak naprawdę chodzi.
Jeżeli wiemy jaki ten problem dokładnie jest.
Tak i oczywiście jeżeli to jest problem taki właśnie informatyczno-techniczny w jakimś sensie, to właśnie jest szansa, że damy radę.
Być może jest jakaś strona, która jest średnio dostępna, być może coś, na przykład chat GPT, mógłby przeanalizować tę stronę i powiedzieć nam, co zrobić, bo są te wszystkie wtyczki, które coś manipulują tym kodem, pamiętacie jak było to do czytania napisów?
Strzyknąć jakiś Javascript po prostu.
Strzyknąć Javascript. Być może chat GPT mógłby poprawić w ten sposób dostępność pewnych stron, które dla nas dostępne nie są.
W jakiś sposób trudno powiedzieć jakich, bo pewnie nie na wszystkich to działa, ale być może załączając na przykład jeszcze jakiś obrazek tej strony, być może chat mógłby coś poradzić.
Być może nie, ale może to jest jakiś pomysł, jakiś sposób na coś i znowu, nie wiem na co, no może każdy musi się zastanowić, może są strony, które są po prostu trudne, jest na przykład za dużo nagłówków i trzeba je zmniejszyć, ich ilość, w zależności od tam czegoś,
Bo na przykład zawsze jak pod nagłówką jest, nie wiem, cena z VAT, to ten nagłówek trzeba zostawić, a resztę trzeba wywalić.
I być może da się to zrobić takim wstrzygnięciem jakiegoś javascriptu lokalnie i być może dałoby się to zrobić,
tylko trzeba rzeczywiście właśnie się zastanowić, czego my w zasadzie chcemy i być może właśnie takie strony może byłyby prostsze dla nas do przeglądania.
Ja tego jeszcze nie próbowałem, ale to teraz mi tak przyszło do głowy dopiero, więc no, no, no nie wiem, ale może, może to, to jest jakaś, jakaś, jakaś ciekawa rzecz.
No i drugi news na temat sztucznej inteligencji, konkurencja dla czata GPT od Google’a, które jakoś tak, mam wrażenie, że przez bardzo wiele osób do tej pory nie bardzo było traktowane jak konkurencja.
bo chyba wszyscy, których znam przynajmniej mówili, że BART jest po prostu gorszy i to ma się zmienić.
Podobno się zmienia. Piotrze.
Tak jest. Google też jest z tego bardzo świadome, że ich model.
Wcześniej BART był oparty na takim modelu, on się nazywał Palm.
On nie był tak dobry jak GPT i wypadał bardzo źle w różnych testach,
No ale Google to firma, która ma zasoby, no i tutaj wszyscy stawiają na AI, no to Google oczywiście też.
No i niedawno ujawnili następny swój duży model i to nawet nie jest model językowy w sumie, no chyba, no można w sumie go tak nazwać.
To jest taki model właściwy multimodalny można powiedzieć, nazywa się Gemini.
I ten Gemini został od początku trenowany w taki sposób, żeby radzić sobie z wieloma metodami na wejściu.
Równie dobrze, przynajmniej tak mówi firma, radzi sobie z tekstem, z dźwiękiem, zarówno mową i jakimś innym dźwiękiem, jak i obrazami do tego stopnia, że nawet, przynajmniej według Google’a, będzie w stanie w jakiś sposób przetwarzać wideo.
On w testach wypada bardzo porównywalnie, oczywiście to są testy, które firma Google gdzieś podała,
wypada bardzo porównywalnie do JadaJPT 3, z czwórką troszeczkę gdzieś tam odstaje,
przynajmniej takie tutaj zostały podane benchmarki i on jest dostępny,
właściwie będzie dostępny w trzech wersjach.
Będzie wersja Nano, która będzie taka bardzo malutka wersja,
która dziś będzie działała na urządzeniu, takich zadań właśnie na urządzeniu, to już jest testowane na pikselach, na pikselach to jest wykorzystywane do podsumowywania stron internetowych na przykład.
Czyli jak rozumiem, ma to działać lokalnie.
Lokalnie, tak jest, na urządzeniu lokalnie.
Czyli w ogóle nic nie wysyłamy do internetu, pobieramy sobie coś na telefon i wtedy nie wysyłamy teoretycznie nic do Google’a, możemy to sobie robić rzeczywiście u siebie.
Tak, on ma bardzo, wiadomo, okrojone możliwości, on chyba tylko na razie przynajmniej będzie pracował chyba z tekstem,
chociaż nie wiem, może też będzie wykorzystywany do rozpoznawania mowy.
Mniej więcej na start, to będzie wykorzystywany do podsumowania stron internetowych oraz do proponowania automatycznych odpowiedzi.
Na razie to też nie we wszystkich aplikacjach, tam chyba jest na początek Whatsapp i koreański Kakaotalk podany na pierwszy ogień w klawiaturze google’owskiej,
ale to będzie pewnie z czasem rozszerzane.
To jest ten model nano, no ale będą też dwa modele, które będą działać na serwerach oczywiście, model standard i model ultra, tutaj możemy porównywać nie wiem, GPT 3.5 i 4 można powiedzieć.
Ten model standard już poniekąd zaczął działać, na razie działa tylko po angielsku i tylko z tekstem, ale możemy go przynajmniej według firmy Google wykorzystywać w ponad 160 krajach, więc pewnie w Polsce też.
Jeśli zaczniemy rozmawiać z Bardem, tak jak robiliśmy wcześniej po angielsku, no to teoretycznie już będziemy rozmawiać właśnie z tym modelem Gemini w wersji standardowej.
No i tutaj już różne firmy zaczęły testy różne na nim wykonywać, zarówno generowanie kodu źródłowego odpowiada im na różne pytania.
W niektórych rzeczach faktycznie radził sobie dużo lepiej porównywanie z chatem GPT.
Natomiast mimo wszystko jeszcze było parę sytuacji, teraz nie pamiętam dokładnie w których, ale no mimo wszystko jeszcze ChurchGBT radzi sobie w niektórych rzeczach trochę lepiej, natomiast faktycznie znacząca poprawa jest, jest jeszcze dużo do poprawienia, natomiast no to też nie jest najlepsza ta wersja tego modelu, bo ten model Ultra jeszcze będzie gdzieś dostępny później i to już będzie ten model, który będzie nam pozwalał na pracę z obrazami, więc tutaj może już opisy jakichś obrazów, które będziemy z tego
do Gemini Ultra uzyskiwać będą bardziej dokładniejsze.
Może faktycznie jakaś praca na wideo, to już może być ciekawe.
Jestem ciekawy, czy może jakieś zastosowania
audio-deskrypcyjne, może tutaj będą próbowane, zobaczymy.
Natomiast firma zrobiła demo tej multimodalności, tak zwanej tego
tego modelu, czyli właśnie pracą z kilkoma
rzeczami jednocześnie.
To było tak pokazane na filmie, że sobie po prostu pracownik firmy rozmawia z tym modelem i on natychmiast, to dosłownie natychmiast odpowiada.
Natomiast jak czytamy się w opis tego filmu to okazuje się, że te pytania były podawane w tle tekstem, oczywiście pauzy były wycięte,
mowa była generowana później, no ale to jakoś musi ładnie na filmie wyglądać, więc tak to zostało zrobione.
Natomiast film pokazuje jak ten pracownik rysuje sobie coś na kartce, rysował sobie kaczkę, zapytał co on tam widzi, potem zaczęli rozmawiać o kolorach tych kaczek, potem zapytał czy ta kaczka by mogła się unosić na wodzie, bo tam był ocean narysowany i on powiedział, że nie wie z jakiego materiału ta kaczka jest zrobiona, więc nie umie odpowiedzieć.
A co jeśli powiem Ci i puszczę Ci tutaj, że ta kaczka piszczy?
A no to chyba zabawka, to raczej zabawka się będzie unosić.
No i tutaj takie rozumowanie.
Potem go zapytał jak powiedzieć kaczka w kilku językach.
Ten model zaproponował mu kilka propozycji.
On wybrał sobie jedną w języku mandaryńskim i język chiński.
i próbował to wymówić, ale powiedział, że nie jest pewny, pomóż mi jak się to czyta i on wtedy zaczął tłumaczyć, jak w tym języku chińskim właśnie różne tony działają i właśnie tłumaczył, tam był pierwszy ton akurat wysoki i mówił, że na to trzeba bardzo zwrócić uwagę, bo to jest kluczowa kwestia w tym języku, więc tutaj było pokazywane te przejścia właśnie na różne zadania z jednego, tutaj nawiązywał do poprzednich części tej rozmowy.
Zobaczymy jak to będzie wszystko działało w praktyce, zwłaszcza kiedy ta wersja Ultra się pojawi, natomiast jak widać OpenAI swoje, Microsoft z nimi się dogadał, ale konkurencja nie śpi i zobaczymy jak to będzie za parę miesięcy, czy faktycznie jak ten Gemini jeszcze się bardziej rozwinie, czy nie będzie jakoś dorównywał i oczywiście na co pozwolą nam te funkcje, które będą działały po prostu na urządzeniach.
To się zgadza.
No i to wszystko, co mamy w notatkach, ale to nie znaczy, że to wszystko, co mamy jeszcze, co mamy jeszcze.
W ogóle zacznę od tego, co też gdzieś tam miałem z tyłu głowy, żeby dodać w notatkach, ale znowu mi uciekło.
To znaczy pojawiła się kolejna sztuczna inteligencja do tworzenia muzyki i podobno też efektów dźwiękowych.
zaraz to sprawdzę jak tworzy efekty dźwiękowe, muzykę tworzy taką, nazwałbym ją trochę tak, jest jakiś taki, taki odcień Deliry, jest taki producer wtyczek VST chyba, output, co jest output, chyba nawet tylko tyle, output.com w każdym razie z moją stronę i właśnie stworzyli taką stronę,
na której można generować dźwięki i muzykę.
Podejrzewam, że to nie jest do końca generowane tak, jak to robi Sunoo.
Czyli tak od początku do końca sztuczna inteligencja tworzy wszystko.
Podejrzewam, że część z tego może być tworzone, część z tego może być oparta na jakichś samplach istniejących i tworzeniu jakichś nutek.
Mam takie wrażenie, bo tam cały ten proces jest podzielony na kilka etapów.
Najpierw jest analiza tego promptu, potem jest jakby, powiedzmy, składanie muzyki, a nie to jakoś nazywa,
potem renderowanie muzyki, potem jeszcze finalizacja tego wszystkiego, więc jakby, no to ma jakieś takie określone etapy.
No i strona, coproducer.output.com.pack-generator i wygląda to w ten sposób, że tworzymy sobie konto na złożyskownika hasło, znaczy e-mail w zasadzie i hasło, tam chyba nie ma możliwości logowania naszą kontem Google.
Za darmo można sobie tworzyć takie preview, takie demo i potem można jakoś to kupować, nie pamiętam teraz za jakie pieniądze, i używać, zdaje się, tego komercyjnie, tak mi się wydaje.
I można tam też wpisywać, jakie ma być tempo, jakie ma być instrumenty do tego użyte, jaki ma być styl muzyki itd., itd.
Ale ja chyba w ogóle wpisałem jakiś Underwater Piano czy coś w końcu, bo ja tam się troszkę bawiłem i to wszystko było takie trochę dziwne,
ale do takich właśnie lekko eterycznych klimatów to to się nieźle nadaje, bo zobaczcie.
Tylko szkoda, że to gra w jednym kanale.
Tylko dlaczego to tak gra?
Co tu się…
Jest chyba okej, tylko że…
Na główek poziom 200, na główek poziom 200, skierujemy demo.
O, jest.
I to taki właśnie, takich ambientów to co jest nawet niezłe,
ale jak mu kazałem roga stworzyć, to to też takie troszeczkę było.
I tu wszystkie będą takie, takie dziwne.
Jeszcze się nawet nie patrzyłem.
Takie, mają takie dziwne, to nie jest złe.
To, to ma, to, to ma coś w sobie.
W sensie to nie jest jakieś super atonalne, to ma jakiś taki aspekt taki, no, to jest akurat na pentatonice, no prawie.
Soundtrack do jakiegoś dokumentu.
Coś, masz rację jakby, potem nie jest, i on zawsze generuje cztery, tego trzeciego to w ogóle nie słyszałem.
Aż sam jestem ciekaw co stworzy.
Próbował on tworzyć jakieś Radio Jingle albo Broadcast.
To też takie trochę ambientowe rzeczy tworzył.
On ma jakieś ciągoty ambientowe.
Nawet w roku dawał właśnie ambient.
Więc no możliwe, że oni robią głównie takie rzeczy
i być może dlatego im taki model wyszedł.
Nie wiem.
Podobno da się robić też dźwięki, nie tylko muzykę, więc co proponujemy wpisać, może jakiś standard, albo właśnie nie, standard, nie wiem, co wpisujemy.
Dobra, dog parking.
No właśnie, miałem to samo zaprezentować.
Ja też, ja nie wiem jak to jest.
Po co jest jakiś standard?
Tak jest, dobra i teraz Analyzing Prompt, o właśnie, tak jakby składanie ścieżek to chwilkę mu zajmie, ale też nie za dużo, o właśnie, Rendering Audio i jeszcze został nam czwarty etap tego całego szaleństwa, o właśnie, normalnie Mixi Mastering, tak ja troszkę to zwolnię,
O właśnie.
No dobra.
No to uwaga, sprawdźmy.
Yyy…
To jest muzyka.
To nie miało być muzyka.
Być może…
To może jest…
Być może…
Dźwięki się generują gdzie indziej, nie wiem.
A to wszystko jest jakieś takie
alternatywne.
Tak czy inaczej.
Podobne, w ogóle dość często mi się zdarzało, że te wszystkie rzeczy są w podobnej jakby tonacji, więc ja mam wrażenie, że tam jest jakby sporo jakichś takich rzeczy, nie wiem, typu sztuczna inteligencja, która ma dostęp do jakichś VST-ków, a to już było.
Nie, nie, nie, nie, nie, nie, nie, nie, nie, nie, nie, nie, nie, nie, nie, nie, nie, nie, nie, nie, nie, nie, nie, nie, nie, nie, nie, nie, nie, nie, nie, nie, nie, nie, nie, nie, nie, nie, nie, nie, nie, nie, nie, nie, nie, nie, nie, nie, nie, nie, nie, nie, nie, nie, nie, nie, nie, nie, nie, nie, nie, nie, nie, nie, nie, nie, nie, nie, nie, nie, nie, nie, nie, nie, nie, nie, nie, nie, nie, nie, nie, nie, nie, nie, nie, nie, nie, nie, nie, nie, nie, nie, nie, nie, nie, nie, nie, nie, nie, nie, nie, nie, nie, nie, nie, nie, nie, nie, nie, nie, nie, nie
Trochę z jakimś takim elementem dziwnym, te wszystkie rzeczy, tylko właśnie albo to jest taki dziwny rok, albo dziwny pop, albo dziwne coś jeszcze, właśnie ambient to jakoś najlepiej wychodzi, bo on generalnie, tam się zdarzają różne dziwne rzeczy.
No i ja się nie zdziwi, jak to się będzie podobać, bo to się może niektórym ludziom podobać.
Mam wrażenie, Tomku, że to właśnie taka muzyka ilustracyjna, tego typu rzeczy, to się bardzo dużo tworzy właśnie,
Jak sobie czasem przeglądam różne biblioteki z taką muzyką, takie współczesne biblioteki, to mam wrażenie, że sporo tam tego typu treści jest i tu chyba właśnie to narzędzie może się przydać tym, którzy nie chcą płacić za tego typu rzeczy, tylko coś wpisać i wygenerować.
Wspomniałeś, że to też jest płatne, ale może taniej.
No najprawdopodobniej jest to tańsze, bo to z reguły na takich serwisach to kosztuje powiedzmy kilka dolarów za kawałek, za utwór.
No i to tak, to ma być taka muzyka raczej, to nie ma być piosenka, tylko ma być rzeczywiście jakaś ilustracyjna muzyka.
Tworzymy jakiś film, jakiś serial, jakiś dokument, cokolwiek.
Tak czy inaczej to jest takie dziwne, bo mimo wszystko, no wiecie, jest podcast, typu Tyflo Podcast, no to ja nie wiem, czy bym tam wstawił jakiś ambient, tak czy inaczej.
Ale wiesz, no może do podcastu takiego naszego to niekoniecznie, ale jestem sobie w stanie wyobrazić, że w sporej ilości różnych podcastów,
Chociażby dość często ostatnio hulającego tu i tam tematu true crime, to spokojnie, to spokojnie to by można było.
A nie, no to zapewne.
Materiały też.
To, to pewnie tak.
Natomiast, no właśnie, jeżeli ktoś by chciał takie, takie klimaty, no to, to jak najbardziej strona się poleca.
I podejrzewam, że różnego rodzaju takich sztucznych inteligencji do tworzenia takich mniej lub bardziej gotowych podkładów pewnie będzie coraz więcej.
Nawet śmiem obstawiać, że to będzie raczej coś graniczącego z pewnością.
Także tu też warto gdzieś tam próbować przynajmniej trzymać rękę na pulsie.
Także, no taka właśnie ciekawostka ode mnie. Być może komuś się coś takiego spodoba.
O, tu też jakiś smooth jazz spróbowałem stworzyć, wyszło tak.
No i żeby się zaczął po czymś gadać, no to można, to by się nadało.
Nie wiem, czy to do podcasta akurat, ale na pewno są podcasty, do których właśnie coś takiego
to spokojnie by się sprawdziło.
To jak najbardziej.
Mało tego, naprawdę wyobrażam, że ktoś mógł sobie coś takiego na noc puszczać po prostu,
nie wiem, żeby zasnąć, czy coś.
Oczywiście.
No, jakiś kolejny, jakby druga.
No to już jest jakieś dziwne.
Tak, to jest jakby takie zwolnione sztucznie,
jakby się tam w styczniu coś tu zastosowało trochę.
No nie zawsze to wszystko fajnie wychodzi.
No ale…
O, ale co?
No to znowu takie trochę…
Chociaż to pierwsze było chyba lepsze.
Lepsze, mhm.
No ale są cztery takie.
W ogóle można zrobić…
Generate…
Wygeneruj cztery nowe.
No to to już chyba obok jazzu nawet nie stało.
No właśnie, ja nie wiem, co to jest, że to jakoś ciągnie od tego ambientu po prostu, no ale ciągnie, także no okej, także no tak to wygląda, teraz pytanie, czy wam coś się udało jeszcze gdzieś tam.
Pewnie teraz słychać?
Tak, dość cicho, ale jest.
To jest dość cicho, no bo ja bym miał
o, już lepiej, dźwięczek, ja bym jeszcze dźwięczek
A to proszę bardzo, cały czas masz możliwość udostępniania
ale ja nie będę chciał właśnie tym razem przez
ekran, więc tutaj sobie jakby już radzimy inaczej
natomiast
ja wam coś puszczę
ja się z czymś połączę
i zobaczymy czy to usłyszycie
Dzień dobry.
Witam.
Tu Telefotel.
Awaków i Dzięgielatów
Sabor-Sat-Mar-Bereg
Telefonową linię informacji.
Zapraszamy was,
że od teraz
w hypermarketach
pod 7 kluczem
możecie słuchać
aktywności prywatnych
związków.
Z pomocą
Tu są właśnie różne rzeczy, na przykład.
Program radia i telewizji.
Dwa.
Gazetki z telewizji.
Trójka.
Niedźwiedzi węgierskiego związku.
Cztery.
I tak dalej.
Różne jakieś informacje.
No więc ja wejdę sobie w gazetki.
To już chyba łatwiej zrozumieć.
To już jest w termarkacie.
PENI MARKET
6 GOMB
OSZAN
7 GOMB
PRYWAT
PRYWAT
PRZYWAT
PRZYWAT
PRZYWAT
PRZYWAT
PRZYWAT
PRZYWAT
PRZYWAT
PRZYWAT
349 forint, Osang Kedwentz Tejföl
20% z żirtartalą 850 gram
899 forint, Jameson
Yir Whiskey 1 liter 8899 forint.
I tak dalej, i tak dalej.
Jak widać Węgrzy, podobnie jak Szwajcarzy,
pomyśleli i zrobili sobie infolinię, gdzie między innymi
wolontariusze nagrywają gazetki z hipermarketów.
No szkoda, że w Polsce takich rzeczy nie ma,
A tak możemy sobie tylko posłuchać o tym, że Kapołosta, to rzeczywiście jest Kapołosta, jest na promocji w Lidlu albo tam w jakimś innym szparze.
No i to jest zasadniczo tyle, co się dowiemy.
Ja teraz, będąc tu, gdzie jestem, mam do Budapesztu, szczerze mówiąc, nie jakoś specjalnie daleko, więc mógłbym się po jakieś tam promocje wybrać.
Natomiast no szkoda, szkoda, że w Polsce coś takiego się nie rozkręciło.
Jak widać, gdzieś jest to zauważane, że te gazetki hipermarketowe jakoś powinny być dostępne i jakoś trzeba się z tym tematem uporać.
No wiem, że Lidl ma gazetki w appce i to można sobie jakoś tam spokojnie czytać, z tego co kojarzę.
że tam coś Biedronka ma jakieś te szejkery i tak dalej, też można to przeczytać, ale to nie jest cała gazetka, a tak to słabo i no szkoda, że u nas nic w tym temacie jakoś nie rusza, bo ceny produktów gdzieś tam rosną i chcielibyśmy też pewnie wiedzieć, co możemy sobie w tym tygodniu kupić jakoś tam taniej.
To się zgadza.
To jeszcze nie jest, słuchajcie, wszystko, ale myślę, że my spokojnie możemy już powolutku sobie stąd iść,
dlatego, że jeszcze Maciek nagrał nam wiadomości, to nie jedną, więc za moment będzie maraton Maćka,
ale to już myślę, że bez jakiejś naszej interwencji, po prostu posłuchajmy, co Maciek ma nam do powiedzenia tych wiadomości,
tak jak wspomniałem, troszkę jest.
Tak, to w takim razie my się, my się pożegnamy, tylko przypomnę, że dzisiaj w audycji brali udział Piotrek Machacz, Paweł Mosarczyk, Michał Dziwisz i ja, czyli Tomek Bilecki.
Dobrej nocy.
No i dobrej nocy, do usłyszenia za tydzień, a teraz już zostawiamy Was Państwa z Maćkiem.
Słuchajcie, jeszcze mam dla Was cztery newsy z dziedziny technikaliów.
W sumie trzy krótkie, jeden troszkę będzie dłuższy, więc być może będzie w kolejnej wiadomości.
Niedługi bardzo, ale taki.
W każdym razie pierwsza rzecz to dla posiadaczy AirPodsów Pro drugiej generacji.
najnowszych Pro od Apple, pamiętam, że mamy dwie wersje, dwie generacje, jeden, jedynki i dwójki Pro.
No i te dwójki Pro jakiś czas temu również zaczęły być sprzedawane w wersji etui z USB-C, jeśli chodzi o ładowanie,
natomiast nie było możliwy zakup samodzielnie etui, tylko trzeba było się pokusić o zakup całego zestawu,
czyli słuchawek i etui.
Na szczęście to się od dzisiaj zmieniło,
gdyż jest dostępne w Apple Store
takowe etui do samodzielnego zakupu,
jakby tylko takie etui,
kosztujące 499 zł, prawda, 500 zł,
w Ameryce, w Stanach
199, nie, 99 dolarów chyba, a tu widzicie 499.
Także to jest jeden z tychże newsów.
Odnośnie Bippera. Bipper był, Bipper się zmył, czyli imitacja iMessage’a na Androida.
Można by było stwierdzić, że już tego rozwiązania nie ma,
gdyż Apple w piątek zamknęło możliwość, zablokowało, jednak twórcy znaleźli sposób.
Trzeba by częściowo przywrócić tego beepera do łask.
Mianowicie teraz, żeby móc z użytkownikami Androida, przepraszam iPhone’a wpisać będąc z Androida,
Trzeba się zalogować swoim Apple ID i tak można to póki co zrobić.
Ciekawe kiedy się to zmieni i czy na dobre zamkną, czy numer telefonu jednak wróci.
I to też polega na tym, że użytkownik iPhona będzie dostawał wiadomości po prostu z maila użytkownika Androida.
Normalne, skoro się loguje mailem.
i konwersacja iMessage będzie mogła być prowadzona wyłącznie jeśli użytkownik iPhona będzie temu posiadaczowi Androida pisał, odpowiadał na maila, prawda, tak samo, a nie na numer telefonu.
Trzecia rzecz jest to taka, że Apple zamierza już tak naprawdę, to znaczy Apple zamierza
I Apple wysunęło swoją ofertę, jeśli chodzi o otwarcie modułu NFC w iPhonach,
ażeby inne systemy płatności również mogły być zintegrowane i dodane do iPhona,
żeby po prostu mogły być wspierane.
Apple ma swoje warunki, no oczywiście chodzi tutaj o Unię Europejską, prawda,
że Apple chce być jednak pierwsza, zanim ta Unia takim dokumentkiem przymusi itd.
No to Apple swoje warunki przedstawiło.
Ponoć w przyszłym miesiącu mają, czyli już w nowym roku tak naprawdę mają się odbyć rozmowy
z partnerami potencjalnymi europejskimi.
No i zobaczymy generalnie, czy cokolwiek, jakkolwiek się ruszy, czy ci potencjalni partnerzy to zaakceptują,
czy Unia w ogóle zaakceptuje, czy jednak nie i Apple będzie musiało albo szukać innego sposobu,
albo no będą się z Unią jakoś tam bić, zwłaszcza na nałożone grzywny, prawda, bo to tam 10% chyba od przychodu,
czy jakoś tak, to jest ta kara grzywny, kara finansowa.
I ostatnia rzecz, Apple Repair Service ruszył w Polsce, czyli program do samoobsługowej
naprawy urządzeń Apple. Poszerzono listę krajów właśnie o nowe 24, w tym właśnie Polskę.
Ja to w zasadzie nie mówię dlatego, żebyśmy tutaj na własną rękę naprawiali swoje urządzenia, a teraz są to już zarówno, znaczy właśnie jest możliwość naprawy iPhone’ów 15 i 15 Pro, 14 i 13 oczywiście też, 12, natomiast też doszły urządzenia z M2, wszystkie MacBook’i z M2, Air, Pro i stacjonarki,
Maki Mini i Maki Studio.
Generalnie, tak jak mówię, mówię o tym dlatego,
że jakby ktoś miał wśród
widzących, czy to członków rodziny, czy znajomych, kogoś,
kto siedzi w elektronice, kto się na tym zna, kto by chciał
na własną rękę naprawiać, to można już to robić właśnie w Polsce.
Trzeba wejść na stronę
selfservicerepair.eu
i tam się od razu otworzy strona po polsku,
gdzie można będzie się zapoznać ze wszelkimi
tutorialami, podręcznikami,
zarówno w formie takich podręczników
stricte tekstowych, jak i filmików instruktażowych,
jak to wszystko ogarniać,
dokumentacje techniczne i inne tam
niezbędne rzeczy,
jak również będzie można
wypożyczać sprzęty,
to znaczy narzędzia naprawcze, zakupować części do tegoż, a w USA ponadto doszła możliwość korzystania normalnie przez zwykłego konsumenta,
znającego się na leczy z narzędzi diagnostycznych, przeprowadzania różnorakich testów, bo to dotychczas nie było możliwe,
Natomiast teraz już normalnie, legalnie można sobie to robić.
W Europie będzie to ponoć w przyszłym roku.
Będzie to rozszerzane systematycznie.
Cóż, taka konkluzja. Myślę, że to nie zostanie.
Serwisy autoryzowane będą się jednak miały dobrze,
no bo jeśli użytkownik nie jest doświadczony, nie siedzi w elektronice,
no łatwo jest coś się, powiedzmy, popsuć, jednak zniszczyć,
doprowadzić do jakiegoś wybuchu, pożaru czy czegoś drobnego, może bo drobnego, ale jednak i uszkodzić czy sie czy sprzęt.
Więc ja myślę, że autoryzowane serwisy będą jeszcze się miały dobrze trzymały mocno.
Aczkolwiek teraz takich ala autoryzowanych serwisów w sumie może wyrastać jak grzybków po deszczu.
Takie mam odczucia.
A, jeszcze odnośnie freców. No, poczekamy sobie jednak, bo z tego co widzę to…
No właśnie, miały wystartować jutro, a w zasadzie to już chyba dziś, w sensie 14 grudnia,
tylko że jest 11 godzin tak naprawdę, czyli ja podejrzewam,
albo o 11 w nocy to to wystartuje,
jeszcze dzisiaj, albo w ogóle jutro, albo po północy,
więc de facto 15, ale nie ma się czego spodziewać wcześniej,
Dlatego, że w ogóle dzięki Piotrek za stronkę ostatnio podałeś frec.net
i właśnie tamto odliczanie wskazuje, że to po prostu będzie bliżej północy niż bliżej południa,
więc ja bym się bardziej rzeczywiście nastawiał na stricte testowanie po prostu piętnastego.
No i tyle.
Także pozdrawiam was bardzo serdecznie, to ode mnie newsów tyle.
Jeszcze tylko dopowiem co do tego selfservice.eu, że po wpisaniu właśnie tegoż adresu, bo tam tych krajów rzeczywiście jest sporo, ale właśnie tutaj wiem, że mamy współsłuchaczy z Czech, że Chorwacja też, więc jakby to też jest możliwe i tam, więc jak sobie wpiszecie właśnie selfservice.eu, od razu przekieruje na strony chorwackie, strony czeskie,
bułgarskie, włoskie, inne tam, gdzie jest ostatecznie, nie wiem w sumie, czy Słowenii nawet,
gdzieś tam nie ma, więc w sumie, no, do wyboru, do koloru można korzystać.
Jak się tylko ma znajomości, tudzież w rodzinie kogoś, kto siedzi w tej elektronice,
można korzystać. Ciekawe, na ile to w sumie jakoś bardziej opłacalne jest,
bo pamiętajmy, możemy albo kupić sobie te narzędzia na własność stricte,
No a jeżeli to jest jakaś taka jednorazowa albo wykopalokrotna akcja, że komuś coś tam wymieniamy, to możemy wypożyczyć ten sprzęt i te narzędzia, no zwrócić i wtedy, co tak naprawdę.
Więc w sumie ciekawe, na ile to się przyjmie, na ile z tego ludzie będą po prostu korzystać.
Był to Tyflo Podcast. Pierwszy polski podcast dla niewidomych i słabowidzących.
Program współfinansowany ze środków Państwowego Funduszu Rehabilitacji Osób Niepełnosprawnych.