TyfloPrzegląd Odcinek nr 269 (wersja tekstowa)
Pobierz napisy w formacie SRT
Pobierz napisy w formacie VTT
Fundacja Instytut Rozwoju Regionalnego prezentuje Tyflo Podcast.
Dzień dobry, albo dobry wieczór.
Dwudziesta dziesięć na naszych zegarkach,
jedenast, jeśli dobrze pamiętam, tak jest,
jedenasty lutego dwa tysiące dwudziestego piątego roku,
no i oczywiście jeszcze numer audycji dwieście sześćdziesiąt dziewięć
Tyflo Przegląd, numer nosi obecnie audycja, natomiast o czym dzisiaj będziemy o tym za chwilę, powiemy, ale jeszcze zanim co, to jeszcze przypomnę, znaczy powiem w zasadzie, że Piotrek Machacz, Paweł Masarczyk.
Witajcie, dobry wieczór, witaj.
Przy mikrofonach dzisiaj, no i już Michale, o czym dzisiaj będziemy mówić?
W tym tygodniu w Tyflo Przeglądzie.
Powrót do tematu słuchania radia na i-urządzeniach.
Zimowa aktualizacja Be My Eyes.
Tapestry otrzymuje obiecane poprawki dostępnościowe.
Eleven Lapse Reader z poprawkami dostępności.
Poprawki dostępnościowe także w najnowszej wersji LibreOffice.
Czy będzie powrót Braillite’a?
Blazey Technologies zapowiada BT Braille.
Bezwzrokowe tworzenie grafiki.
Czy jesteśmy skazani w tej materii tylko na sztuczną inteligencję?
Nowości w grach.
Bezpieczny dostęp do domowego komputera na wyjeździe.
Jak do tego się przygotować?
Jakich nowości możemy spodziewać się w NVDA?
SSG. Minimalistyczny generator statycznych stron internetowych.
Czat GPT przyjmuje zdjęcia i wiadomości głosowe na Whatsappie.
Wszystko to, a pewnie jeszcze więcej już za chwilę.
Zaczynamy!
Tyflo Przegląd jest audycją prowadzoną na żywo,
więc serdecznie zachęcamy Państwa do współtworzenia go razem z nami.
Oczekujemy na wiadomości głosowe na Whatsappie
oraz połączenia telefoniczne pod numerem 663-883-600.
Powtarzam, 663-883-600.
Oraz zapraszamy Państwa do wyrażania komentarzy w formie tekstowej
Nie wiem, czy dobrze myślę, że słuchanie radia na tych wszystkich AI urządzeniach, iPhone’ie, iPad’zie może być trochę problematyczne ze względu na to, że trochę
Nie wiem, czy dobrze mi się wydaje, że nie ma takiej jednej fajnej aplikacji,
którą wszyscy by polecali, wszyscy by wiedzieli, że tak, to jest dobre do radia.
No i to Paweł przygotował właśnie takie zestawienie aplikacji, tak,
jeśli dobrze myślę, albo poznał jakieś nowe aplikacje, nie wiem jeszcze, no właśnie.
Co to jest?
Ja bym nie powiedział, że jest tak. My zrobiliśmy z Michałem Kasperczakiem
…całą audycję na temat tego, czym na urządzeniach radia słuchać.
I myślę, że te aplikacje, którymi się wtedy podzieliliśmy,
spokojnie są jeszcze jak najbardziej do użytku.
Broadcast to był do tej pory mój faworyt i myślę, że nadal zostanie.
Ale mimo to pojawiło się, pojawiło się, one już dawno były,
ale ja odkryłem niedawno kilka nowych propozycji.
Tutaj to jest w ogóle taka fajna przestrzeń, jeżeli chodzi o aplikacje,
bo mam wrażenie, że aplikacji do słuchania radia mamy aż tyle,
że trochę aż za dużo i nie wiadomo, z czego wybierać,
a z drugiej strony to jest dobrze, bo jeżeli któraś z nich
nagle by gdzieś tam przestała być rozwijana,
katalog by zaczął upadać albo coś jeszcze by się tam stało,
to mamy kilka następnych do wyboru i to jest chyba dobrze mieć
taki nadmiar w czymkolwiek, zwłaszcza jeśli chodzi
Także dokładam Wam jeszcze kilka.
To za sprawą najnowszego odcinka czeskiego podcastu
właśnie osób niewidomych, czyli Teczko Plus,
gdzie jeden ze słuchaczy, Antonin,
który z tego, co wiem, językiem polskim włada,
więc możliwe, że nawet nas kiedyś tam słuchał albo słucha,
podzielił się kilkoma swoimi propozycjami
i te propozycje uznałem za dość ciekawe
i zaraz Wam powiem czemu.
Pierwszą z tych propozycji jest Phonostar.
Piszemy Pxonostar razem, jest to zarówno platforma internetowa, czyli po prostu możemy
te stacje wyszukiwać przez stronę internetową, jak i aplikacja mobilna czy na iPhone’a,
czy też na Androida zapewne, aczkolwiek o dostępności tej na Androida, no nie mogę
na ten moment nic powiedzieć. Na iPhone’a dostępna ona jest prawie, to znaczy są
takie ekrany, w które można się zaplątać, z których nie ma powrotu specjalnie,
Na przykład jak wejdziemy w dodawanie stacji do ulubionych albo w nagrywanie,
o którym za chwilę powiem, bo jest ono z dość ciekawym takim twistem.
Więc tam po prostu możemy się zaplotać i się okaże, że po prostu nie wyjdziemy,
jeżeli nie zubijemy, za przeproszeniem, aplikacji z ekranu ostatnio używanych
czy z ekranu przełączania raczej, no i nie uruchomimy jej ponownie.
Natomiast czemu tej aplikacji używać warto?
Aplikacja ma dużo stacji, ja już patrzyłem i np. Radio DHT zostało już tam dodane,
także ci mniejsi nadawcy również tam są.
Natomiast jedna rzecz, którą ta aplikacja robi, czego do tej pory chyba nie robiło nic,
zdaje się, że był plan na taką funkcję w Luomo Toolbox i ciekawe, czy to się pojawi jeszcze.
A mianowicie nagrywanie audycji w chmurze.
No i wygląda to tak, że zakładamy sobie konto i konto w wersji darmowej
pozwala nam na nagrywanie do dwóch godzin. Działa to tak, że po prostu
nagrywamy sobie, zlecamy serwisowi nagrania, jakiejś audycji.
Ta audycja się nagrywa, ale jeżeli przekroczymy te dwie godziny,
no to dalej nagrywać nie możemy, dopóki nie usuniemy nagrania.
Czyli to nie są dwie godziny na miesiąc albo tam dwie godziny w ogóle
Tylko są to dwie godziny naraz, więc możemy po takim dłuższym nagraniu
ściągnąć sobie ten plik, usunąć go stamtąd i znowu mamy dwie godziny
do wykorzystania. Są też warianty płatne. Jest na przykład wariant
50 godzin nagrywania. Kosztuje on miesięcznie 5 euro. 8 euro kosztuje
No i tu w obydwu tych wariantach płatnych możemy też zlecić nagrywanie większej ilości audycji naraz.
Więc możemy sobie w ogóle oprogramować kilka różnych audycji, kiedy mają być nagrywane itd., itd.
Także tą darmową wersją Tyfto-przeglądu w większości pewnie nie nagracie, ale jakieś krótsze audycje jak najbardziej.
Natomiast jak wygląda to z perspektywy iPhona?
Otwieramy aplikację, znajdujemy jakąś konkretną stację.
Możliwości jest kilka, możemy albo wyszukać, wpisując nazwę,
albo poszukać stacji w pobliżu, albo po gatunkach czy krajach.
Gdy znajdziemy taką stację, obok każdej stacji znaleziony jest
przycisk menu kontekstowego, nie jest to czynnością na pokrętle.
Jest to przycisk, ale to nie przeszkadza w niczym.
I tam jest opcja Record.
I naciskamy to, wybieramy to i się pokazuje taki planer.
I w planerze mamy nazwę audycji, czyli wpisujemy jak ta audycja się nazywa.
No docelowo pewnie jak ma się nagranie nazywać.
Wpisujemy też, jeżeli chcemy, jakiś tam jej gatunek, pewnie do jakichś tagów.
I następnie mamy pola na datę i godzinę.
Czyli data, kiedy audycja się odbędzie, od, do.
I zarówno dla daty, jak i dla godziny,
mamy dostępne takie standardowe suwaki,
tak zwane wybieracze, do przesuwania palcem w górę, w dół,
żeby sobie tą datę i godzinę wybrać.
A gdy już wszystko zdefiniujemy, naciskamy zapisz,
czy też save i serwisowi zostaje zlecone nagranie.
Myślę, że ciekawa funkcja, zwłaszcza, że dość sensownie
można ją przetestować albo nawet jej używać w wersji darmowej.
To ja, Pawle, zapytam o taką jedną rzecz od razu.
Jak to się ma, jeżeli chodzi o strefy czasowe?
Czy on zapisuje te godziny zgodnie z naszą strefą,
czy musimy pamiętać o tym, żeby na przykład do jakiejś
konkretnej strefy w tym planowaniu się dostosować?
To jest dobre pytanie, bo pewnie byś chciał jakieś amerykańskie audycje
na przykład nagrywać.
Nie, nawet wiesz co, nawet chodzi mi po prostu o to, nawet załóżmy, że polskie,
No wiesz, ktoś, kto będzie programował z naszej polskiej perspektywy,
to będzie miał inne godziny. Ktoś, kto będzie programował z perspektywy
amerykańskiej albo brytyjskiej, też będzie miał inną perspektywę.
I to jest właśnie pytanie, które mnie zastanawia. Jak to jest rozwiązane?
Czy po prostu on sobie czytuje ten czas zgodnie z naszą strefą czasową
i nie musimy się o nic martwić? Czy musimy sobie coś tam jeszcze
Ja wątpię, że on bierze strefę czasową stacji, z której nagrywamy.
Czy to jest strefa czasowa naszego urządzenia, czy serwera serwisu, usługi,
czyli pewnie nasza środkowa europejska, bo serwis jest niemiecki?
Tego nie wiem, szczerze mówiąc.
Jeżeli serwis jest u naszych zachodnich sąsiadów, no to wtedy nie ma problemu.
Ja się, wiesz, bardziej obawiałem, że to jest gdzieś na przykład dalej
i będziemy mieć rozjazd. No to wtedy…
Nie, nie, to tutaj nie. Tutaj jest jakby strefa nasza.
No to dla nas nie ma problemu.
Tak. Może gdzieś po założeniu konta da się to ustawić, jaka ta strefa miałaby być,
gdyby ktoś z was był w innej i też chciał skorzystać.
Natomiast myślę, że dla nas problemu większego być nie powinno.
Ale dobrze, że zwróciłeś na to uwagę.
Tak samo nie sprawdzałem jeszcze, w jakiej jakości te streamy są nagrywane.
Bo już mnie ktoś zapytał, czy to jest nagrywane w jakości streamu,
czy to jest nagrywane w jakiejś jakości narzuconej przez usługę.
No tego też nie wiem, więc trzeba by po prostu się przekonać.
Przypuszczam, że to będzie jakoś normalizowane, no bo wątpię,
że komercyjna usługa, za którą się płaci domyślnie,
bo to jest pewnie usługa konsumencka, a nie dla audiofilów
albo dla też radiomaniaków zaciętych, pewnie wypuści to w jakimś skompresowanym.
Albo mp3 pójdzie, mp3 przypuszczam, albo nie wiem, wav może w jakichś porywach.
No wątpię, że OGG mi na przykład zwróci, tak domyślnie, tak?
A w sumie fajnie by było, żeby zapisywał w formacie źródłowym bez jakiejkolwiek rekompresji.
I to nawet dla tego serwera byłoby łatwiej, moim zdaniem, jeżeli chodzi o zasoby.
No bo jednak to reenkodowanie to zawsze trochę procesora potrzebuje, żeby przerzucać z formatu na format.
No nic, trzeba będzie sprawdzić. Trzeba będzie się o tym jeszcze przekonać.
Natomiast są też inne aplikacje, które właśnie czy Antonin wymienił,
czy jeszcze za chwilkę wspomnę o jednej, którą już znacie,
ale tam się pewne rzeczy wydarzyły.
Kolejna z aplikacji to AudioStreamPlayer.
Aplikacja, która z interfejsu jakoś szczególna nie jest,
jak mam być szczery. Dużo jakichś niezetikietowanych przycisków,
no da się tam wszystko zrobić, ale jakoś tak nie jest.
Są przyjemniejsze aplikacje. Więc dlaczego o niej wspominam?
Bo aplikacja AudioStreamPlayer pozwala na jedną rzecz,
która jest dość ciężko osiągalna, a mianowicie pozwala nam
na odtworzenie dowolnego URL z jakimś audio na końcu,
czyli jakieś radio, które wprowadzimy, czy nawet nasz własny serwer
jakoś w domu, który coś streamuje, na Apple Watchu.
I to na tych Apple Watchach starszych niekoniecznie musi być,
to ta dziesiątka, gdzie Broadcast na przykład już,
Na Apple Watchu 10 pozwala na odtwarzanie stacji,
a więc jeżeli sobie na broadcastie dodaliśmy jakiś własny strumień
i zegarek sobie zsynchronizował tę naszą kolekcję, no to możemy.
Ale to, z tego co rozumiem, działa tylko na Watchach serii 10,
tam gdzie wprowadzono już oficjalnie multimedia.
A jeżeli macie starszego Watcha, no to trzeba się posiłkować
aplikacjami typu Streamlets czy innymi, no właśnie takimi jak AudioStreamPlayer.
I AudioStreamPlayer rzeczywiście działa tak, że my na iPhone’ie
Dodajemy sobie różne streamy.
Dodajemy je do jakichś playlist.
Więc możemy mieć takie playlisty z większą ilością.
Tam jest też katalog stacji chyba…
albo radio browser, albo coś podobnego,
bo też już tam byłem w stanie znaleźć.
Zawsze moim testem, czy to jest radio browser,
z reguły jest to, że wpisuje Cyfloradio i Radio DHT.
Jeżeli są podobnie wpisane jak tam,
to raczej jest to radio browser, więc chyba tak.
Natomiast kiedy dodamy sobie te stacje do różnych playlist w wersji
iPhone’owej, no to się nam to dosynchronizuje do Watcha i na Watchu można wtedy tych
stacji słuchać. Nawet chyba producenci samej tej aplikacji oferują na Maca
jakiś tam serwer audio do wypuszczenia dźwięku.
Na Windowsie można na przykład zastosować aplikację Stream Audio Here.
Ty, Michale, jeszcze o niej dzisiaj wspomnisz.
Zgadza się.
Tak, także jest opcja, żeby sobie jakieś dowolne audio puścić na zegarku,
co może się czasami okazać bardzo przydatne.
Trzecią z aplikacji jest Audials Play. To jest aplikacja, która dla mnie osobiście nowa nie jest.
Ja wiem, że ona już istniała i nią pamiętam, że się interesowaliśmy w ramach społeczności Andek
no dawno temu, kiedy ja zaczynałem Androida tak naprawdę używać, czyli jakieś 10 lat temu.
No i ta aplikacja nie była w pełni dostępna,
ale dało się jej jakoś używać, wiele osób ją wtedy polecało.
No i ja sobie ją jakoś też odpuściłem na tą dekadę
i teraz pozwoliłem jej wrócić na mój telefon.
Okazuje się, że nie jest najgorsza w obsłudze.
Tam parę rzeczy znowu jest,
jakichś takich można by było lepiej elementy ze sobą połączyć,
żeby nie było ich tyle na ekranie,
można byłoby coś lepiej podpisać i tak dalej.
Ale zasadniczo działa to całkiem fajnie.
Możemy sobie spersonalizować ekran główny,
możemy sobie tam pododawać jakieś własne właśnie
foldery czy playlisty, kolekcje tych stacji.
Możemy je nagrywać też, chyba lokalnie z tego co rozumiem.
Jest jakiś budzik, jakiś usypiacz, sleep timer, airplay.
Tych stacji jest naprawdę dużo.
Wszystkie najważniejsze tam też są.
Także jest to kolejna znowu dość napakowana funkcjami aplikacja,
którą można się pobawić.
Natomiast czwarta aplikacja, o której chcę wspomnieć,
to jest znany nam już polski ether Krystiana Kozarowskiego,
który to doczekał się niedawno aktualizacji,
która wprowadza dwie rzeczy.
Po pierwsze wprowadza poprawki w zakresie VoiceOvera.
Chodzi o to, że po prostu doszło troszkę czynności
w różnych miejscach, na przykład w historii odegranych utworów,
bo tak, aplikacja od jakiegoś czasu też, podobnie jak chyba zresztą
aplikacja Icon Factory do słuchania radia.
Cały czas zapominam jej nazwę, ale też o niej mówiliśmy w audycji.
Triode chyba.
Słucham?
Triode chyba to się tak nazywało.
Tak, dokładnie. Podobnie jak aplikacja Triode
zapisuje, jakież to utwory było nam dane usłyszeć,
w konkretnych audycjach.
Natomiast, więc tutaj na tych utworach usłyszeliśmy
doszły czynności.
Natomiast tym, co jeszcze mnie najbardziej urzekło,
jest nowa funkcja, która pojawiła się na razie w stacjach ulubionych
i jest tam domyślnie włączona.
Tylko żeby dodawać ulubione, trzeba wykupić sobie wersję premium,
która też chyba, zdaje się, podrożała. Kiedyś ten Ether był ponoć tańszy,
teraz kosztuje 50 złotych, natomiast ta aplikacja pozwala nam teraz na nieustanne
skanowanie radia Shazamem, czyli włączamy sobie jakiś strumień, jakieś radio
i to radio nie podaje utworów w swoich metadanych. Możemy zrobić tak,
…żeby aplikacja Ether cały czas miała włączonego Shazama
i rozpoznawała nam jeden utwór za drugim.
To jest dość ciekawe, bo do tej pory Broadcast
oferował nam integrację z Shazamem, ale ona była ręczna.
Trzeba było sobie ręcznie, świadomie to odpalić
i wybrać tam, że my chcemy teraz
tę piosenkę konkretną w Shazamie sprawdzić.
No a Ether wprowadza to właśnie w trybie ciągłym.
Może być to ciekawe w przypadku wielu różnych stacji,
Zwłaszcza, że wielu nadawców publicznych nie podaje tych metadanych i jednak te piosenki,
te tytuły tego, co aktualnie grają, no gdzieś tam pozostają w dużej mierze tajemnicą.
No tak, że jeżeli jesteście miłośnikami muzyki nieznanej i lubicie ją odkrywać
i lubicie odkrywać ją przez radio, to myślę, że tutaj Ether Wam bardzo się przyda.
Natomiast ja już tu patrzę, wersja 2.3.
Mamy tutaj integrację Shazama.
No i patrzę jeszcze, czy mamy jeszcze…
Można wybrać, czy ulubione stacje będą u góry, czy na dole, na liście ulubionych.
Naprawiono problem, że dodane do ulubionych stacji nie pojawiały się zawsze na pierwszym miejscu.
No tak, no i tak jak już wspomniałem, też są usprawnienia VoiceOver’a,
także myślę, że tą aplikacją Ether na nowo możecie się cieszyć.
To nie tylko ja zwróciłem na to uwagę, bo prezentacja aplikacji Ether również w języku angielskim
ukazała się dziś na łamach podcastu AppleVis, czyli Międzynarodowa Społeczność Niewidomych,
Również doceniła pracę naszego rodaka, a z tego myślę, że wszyscy możemy się cieszyć.
To się zgadza.
Mamy telefon, więc proponuję, żebyśmy telefon odebrali, bo się słuchacz naczekał.
Kogo witamy po drugiej stronie?
Dobry wieczór, po długiej przerwie, witam po raz kolejny na TV Podcastu, Marcin z tej strony.
Cześć Marcinie, witamy i słuchamy.
Po długiej przerwie, no trochę mnie nie było, pozwoliłem sobie trochę na testy, testy, testy i jeszcze raz testy.
W związku z AI jak zwykle, ponieważ tutaj dzieje się w tym roku, dzieje się od listopada 2024 roku, tak jak wspominałem, zacznę, no ogólnie z dwoma nowościami tutaj dzwonię.
Zacznę może od jednej nowości, która pojawiła się w listopadzie jako wersja beta, o której wspominałem, uprzedzałem, że się pojawi.
Chodzi o Suno w wersji V4. Nie wiem czy ktokolwiek testował tą wersję od panów z Cambridge’a, właścicieli z Cambridge’a Suno V4.
No i chciałem przede wszystkim zwrócić uwagę na jedną rzecz, która moim zdaniem jest wersja beta.
I ona się jakby pojawiła tutaj, no trzeba zwrócić uwagę na jedną rzecz,
a mianowicie poprawę brzmienia wokali.
Wokale stają się bardziej naturalne, stają się bardziej naturalne.
Można powiedzieć, że utwory, utwory generowane przez ja i również
jak i wgrywane nasze jakby sample audio i utwory z nich uzyskiwane
Są coraz lepsze jakości, zależy też jak sobie nagramy ten odwór, jak sobie pościelimy, tak się wyśpimy, nie?
Muszę powiedzieć, że są poprawki. Doszły pewne nowości, które jak mówiłem, że V4 się pojawi na łamach Snow AI.
Doszła tzw. opcja remasteringu danego utworu.
Również ja eksperymentuję tutaj z wieloma rodzajami muzyki, jak i dźwięku przy remasterze,
bo również bawię się tutaj dźwiękami audio, efektami dźwiękowymi, mową.
Z czym tu przy remasteringu sobie, przy efektach dźwiękowych sobie bardzo dobrze radzi.
Można powiedzieć, że on sobie robi taką muzykę z tych efektów,
Ale stara się zrobić taką namiastkę nagrania audio
w czasie kiedy, chociaż do dwóch minut tutaj subskrybenci Premier
mają szansę wrzucać nagrania audio.
Niestety w przypadku wielu głosów nagrywanych na rejestratorze dźwięku
czy jakimiś aplikacjami nagrywania dźwięku i po remasterze,
z tym sobie radzi gorzej niestety.
To muszę uprzedzić, ale jak by tu powiedzieć, żeby się tutaj nie zająknąć.
Z efektami dźwiękowymi, odzwierciedleniem tych efektów,
które sobie nagraliśmy, dajmy na to eksperymentuję sobie,
przynagrywając sobie, na przykład kawę robię,
włączam czajnik, włączam młynek do kawy i tak dalej.
Nagrywam pralkę, nagrywam samochody, nagrywam to, tamto.
Można powiedzieć, że robi taką kopię tego, co nagramy na aplikacji rejestrującej dźwięk,
ale troszkę sobie zmienia, żeby nie było tak, że…
Nie wiem, czy to kwestia jakiejś prawa polskiej, czy żeby się nie dotrzepili, czegokolwiek.
No, w covery, ja już V3.5 jako wersja beta testowałem, oczywiście pojawiły się, z tym sobie radzi różnie, jak można powiedzieć, ale z reguły, zależy od tego, jaki prompt temu podamy, no V4 jest to wersja, jakby opcja beta coverowania nagrań, zrobionych przez siebie, zrobionych czy przy pomocy generatora automatycznego, czy za pomocą plików audio,
No.
Różnie sobie radzi ale generalnie nie mam co tutaj.
Narzekać na tą kwestię chociaż to sobie radzi różnie ale no
mogę powiedzieć, że w skali od 1 do 10 oceniam to na 8, 8, 8 z
takim małym małym małym plusikiem albo nawet minusem.
To ja Marcinie jeszcze może dopytam o te kwestie
Wspomniałeś, że one się trochę zmieniają w porównaniu do tych plików źródłowych.
Moje pytanie jest takie, w jakim zakresie one się zmieniają?
Czy tam na przykład jest tak, że jak jedzie samochód, masz efekt jadącego samochodu,
to tu zmienia się jego otoczenie, czy zmienia się dźwięk silnika?
W jakim zakresie to się zmienia?
Ten parametr jakby tego dźwięku, niby z tego robi muzykę tak naprawdę,
zależy czy wcale też muzyka leci, bo słowa EI są pomyślane
stricte do tworzenia muzyki, a nie do generowania mowy i efektów.
Ale na opartego, jeżeli chcemy zrobić takie coś, jeżeli chcemy się pobawić,
no to dla rządzego nie ma nic trudnego, że tak powiem.
Zmienia po prostu sobie tak jakby…
Przykładowo mielę sobie kawę w łynku i nakłada się na ten dźwięk w łynku czajnik elektryczny.
No to muszę powiedzieć, że jest taki trochę mieszanin, bo robi sobie z tego dźwięk jakby jakiegoś instrumentu, bo słyszę też jakie metaliczne to jest.
Tak brzmi tak metalicznie.
Okej, czyli on po prostu te efekty zamienia w instrument, tak jak powiedziałeś.
Tak jakby, ale jednocześnie stara się zachować swoje walory jak na nagrany efekt dźwiękowy, żeby to było, jak zrobię extent, rozszerzenie tego, to już nie zrobi rozszerzenia tego efektu w formie nagrania dźwiękowego, tylko w formie muzyki.
Bo to jest taka moja pomyślana muzyce, a jak ktoś się lubi bawić takimi rzeczami, żeby sobie zająć przysłodzowy tyłek, żeby zabić czas, no to jak najbardziej jest to, że tak powiem, do wykonania.
Druga rzecz, pojawił się, nie wiem czy w ogóle państwo, w ogóle którzy tutaj uczestniczą w tym odprzeglądzie współprowadzą i prowadzą ten odprzegląd.
Słyszenia taki generatorze muzyki jak Refusion.
Cisza, więc chyba, więc chyba nie, ja trochę słyszałem.
Nie wiem czy to nie testowałem, ale już nie pamiętam.
No pojawiło się to sporo, sporo po dwóch latach, po trzech
latach stagnacji aplikacji, że tak powiem,
pojawiają się nowe wersje i tak dalej. Była aplikacja sobie na
kiedyś, kiedyś, nawet do niedawna, z jeją z App Store’u,
dlatego, że jest teraz w ramach beta testu, testowanie
rozszerzonego modelu i tak dalej, rozszerzonych możliwości
aplikacji. No praktycznie robi to samo co Suno.
Jej dostępnością nie jest tak super, uprzedzam, jak można
Byłoby tutaj się dopytywać o tą dostępność.
Ci, którzy wykorzystali z tej aplikacji, niech uważają trochę na dostępność.
Chociaż z tych najważniejszych funkcji, jak włączanie instrumentalu,
jak ustawienie opcji zaawansowanych, czego tu nie ma Sunoo AI.
Tu zarzucam, tu właśnie w filmie Sunoo, że nie ma opcji zaawansowanych,
żeby nie można było spersonalizować poziomu procentowego prawdopodobieństwa,
jaki będzie nasz utwór wyglądał, jak będzie nagrzanie wyglądało i tak dalej.
Teorię Fiożyn ma.
Jest darmowy. Nie wiem, czy na razie, czy w ogóle na stałe.
Jest darmowy.
Fiożyn wspomniał, że był za darmo.
Już pojawiły się ogólnie
Ogólnie opiera się on na modelach o nazwie Fused,
bo właśnie nie zależy na tym, skąd to pochodzi, na jakim systemie on tu jest robiony.
Jak się na programistyce dokładnie nie znam.
Ja używam każdej usługi z perspektywy użytkownika.
Nie programisty, nie programuję, nie piszę programów,
także nie pytajcie mnie o te systemy programistyczne.
No, tutaj Refusion AI dostał bardzo dużo poprawek.
Teraz bazuje na najnowszym modelu, wyszedł w jego najnowszym modelu C0.8.
Ogólnie tak, Refusion służy do generowania muzyki.
Jak najbardziej też można się pobawić tutaj w remasterowanie i coverowanie nagrań
I efekty dźwiękowe, jeżeli ktoś sobie lubi efekty dźwiękowe sobie ponagrywać, to oczywiście to jest taka namiastka, bo to mówię, do muzyki.
Do muzyki, jeszcze raz. Nie stricte do podcastów, do słuchowisk i tak dalej, tylko to jest takie, można powiedzieć, coś, co może pomóc w tworzeniu efektów dźwiękowych i muzyki.
Ale co dostał Refusion? Czego nie ma w sumo? Wróćmy do tematu.
Po pierwsze, dostał opcję zaawansowany i to można sobie włączyć w takie opcje zaawansowane, przechodząc z trybu prostego na tryb użytkownika i można sobie takie w prostym trybu zaawansowanym włączyć.
Tam mamy takie słuchaczki, jak siła prądu, właśnie nie wiem, nie znam się na tym, nie orientuję się na to, o co chodzi.
Prąd, streng, lyrics, text, test, streng i tak dalej.
Możemy sobie ustawić jakiś jeszcze inny słuchacz, nie wiem do czego służy.
Wiem, że jak wrzucimy klik audio, jakikolwiek,
Możemy sobie ustalić, w ilu procentach ma być podobny do tego,
który wróciliśmy i możemy sobie też ten rozszerzyć,
możemy tam sobie właśnie zrobić cover.
Poniżej 50% bardzo podobieństwa tych wariacji, jak to się mówi,
bo to się ustawia w tym rysie, że ustalają się wariacje
tego pliku audio, na którym ma być oparty później cover
I możemy sobie ustalić, każdy procent robi jakąś różnicę.
Na przykład próbowałem sobie nagrać, zarejestrować dżingle reklamowe z TVP1.
Za dziewięćdziesiątych, na przykład.
Ale, już jakby tutaj w głębszą edycję,
Tego, jak podobne będzie nasze nagranie, wynikamy w życiu.
Chociaż to jest darmowe i na razie nie podlega żadnej subskrypcji.
No oby, chociaż nie zdziwiłbym się, gdyby te subskrypcji później podlegał,
bo to brzmi bardzo naturalnie tutaj. Myślę, że developers będą
wszelkie starania robili, żeby dopracowali tą usługę.
Możemy sobie ustawić, jak podobne to nagranie będzie.
W jednym procentzie, w dwóch procentach, do stu procent.
Powyżej 50% po prostu zmienia nam cały dźwięk, zmienia nam całą melodię, zmienia nam wszystko.
Wyłożę takiego założenia, że jak ja wrzucam pliki autograma na keyboardzie,
wgrywam jakąś melodię, czy śpiewam, rapuję, czy cokolwiek na DAW-ie,
oto chciałbym, żeby ten jednak utwór był podobny,
lub taki sam, lub podobny do tego, który zrobiłem.
Na Logiku, czy tam na iBluetonie, czy jakimś innym dawie, kto, kto, kto woli.
No i to już wtedy, wtedy już sprawa załatwiona.
Zauważmy, że jest to dostępnościowe na Teorii Fusion, bo tak super dostępne nie jest.
Mamy kilka przycisków ważnych, które nie są dostępne.
Przejście na bibliotekę, którą tam mamy zapisaną.
Przejście na stronę główną, na personalizację, ustawienia i tak dalej.
Chociaż ponad połowę opcji da się okiełzać jakoś tam.
Na początku musiałem się troszeczkę nagłowić, ale później
jednak stwierdziłem, że wcale tak źle nie jest.
Używam zarówno Suno, jak i Refusion.
Czasem używam Udio, ale niestety Udio to ma zbyt małą bazę
wytrenowanych utworów w bazie,
przy czym nie rozpoznałem niektórych gatunków muzyki,
chociażby tych mało znanych w Polsce czy jakimś tam innym kraju Europy.
No i co mogę powiedzieć?
Refusion.ai jakby jest, stara się prześcignąć
lub być alternatywą dla tej aplikacji.
Aha, jeszcze jedna rzecz.
Sonok pozwala na wrzucanie klików audio.
I odnoszę wrażenie, że muszę tu zacząć ten temat.
Przyjemny, nieprzyjemny.
Można wrzucać jakby utwory czy fragmenty utworów,
które zrobili artyści na przykład.
Trzeba zaznaczyć, że mamy jakieś prawa do tych utworów i że nie udostępniamy ich.
Tu nie zostaniemy zablokowani, tylko musimy takie oświadczenie zaznaczyć, że nigdzie nie udostępnimy tych utworów.
I możemy robić remitwy tych utworów. Takie live edity można powiedzieć.
Nie jak się odniosą do tego w ogóle prawdy itd.
Ale mam nadzieję, że to będzie miało jakieś zabezpieczenia wbudowane,
żeby ludzie nie mieli konsekwencji prawnych związanych z tym.
Sami się czasem tak pobawić.
On nie zerżnie tego, że tak powiem, z jeden do jednego.
Nie zrobi tak do końca, bo możemy sobie ustawić to podobieństwo tego utworu.
Nie możemy zrobić tego reliks. Nie wiem, czy on wygeneruje tu inne wokale,
czy nie będzie żydał głosów artystów, czy tutaj…
Też nie testowałem to na wszystkich utworach. Ja i niedawno testuję Refugee,
no niedawna. Jest taki generator muzyki jak Mureka, ale to jest
To jest diabelnie niedostępne.
Mniej więcej, że to…
To jeszcze jak wrzucamy jakiś plik audio,
możemy sobie tam wrzucić nawet plik z YouTube’a na Murekę.
I…
No to jest diabelnie niedostępne.
Dlatego, że jest problem z odtwarzaniem muzyki,
problem w ogóle z wieloma opcjami.
Mało tego, jest na jakby…
Ona jest jakby w Unii Europejskiej, jest w Polsce,
ale nie ma możliwości płacenia
za subskrypcję w Mureka i polską walutą, co świadczy, że nie obsługuje języka polskiego.
No ale Sumer i Fiuszy, jak najbardziej udział tutaj, te trzy generatory audio, tutaj jakby tutaj już…
Już można powiedzieć, że mamy jakąś furtkę, no byle by się tu nie działo jakichś konsekwencji prawnych
W związku z tym, żeby jednak spory, wszelkiego rodzaju spory, związane tutaj z prawami autorskimi…
Krótko mówiąc Marcinie, jest rozwój jak rozumiem, tych generatorów, tych narzędzi do tworzenia muzyki.
I w tym momencie, to jeszcze tak zapytam, bo wiesz, mamy jeszcze trochę tematów, którymi byśmy się chcieli zająć.
Tak, tak.
Ale tak z Twojej perspektywy, co w tym momencie działa najlepiej, z Twojej obserwacji?
Myślę, że każda z tych usług, jeżeli chodzi o Sumo i Refusion,
nie mogę wyrazić swojej opinii na ten temat,
bo jedna jest dobra w czymś, a druga jest dobra w czymś.
Tylko, że Sumo radzi sobie w jednym dobrze,
a Refusion radzi sobie w jednym dobrze.
Jeżeli mamy np. jakąś prostą melodię,
którą zrobiliśmy sobie na kibordzie i chcemy, żeby się na przykład trzymał kupy lub był kreatywny generator,
to tutaj wygrywa Refusion, bo można sobie w zasadzie ustawić poziom wariacji itd.
i tego pico audio, jak ma być podobny utwór, jak ma być w ogóle skonstruowany.
Suno bardziej stara się być taki kreatywny, trochę się popisuje w tych produkcjach
Brakuje mu takiej personalizacji przy wnikaniu w to kontrolowanie, jak ma brzmieć nasz utwór.
W jednym jest dobry, w drugim jest jeden generator, w drugim jest dobry drugi generator.
No audio też testowałem nieraz, nie dwa i muszę powiedzieć, że z wersji na wersję jest brzmieniowo lepiej.
Dużo rzeczy tutaj ma do zaoferowania. Dużo suwaków, dużo pokręteł do ustawiania, przestawiania, remiksowanie, coverowanie, też redukcję stylu ma.
Tak, słuchaj, Refusion nie ma.
O tym jeszcze nie powiedziałem w przypadku Refusion.
W przypadku generowania tekstów, piosenek i muzyki za pomocą opisów
i tekstów piosenek bez audio, jakby bez wrzucania filku audio.
Można jeszcze wiele rzeczy robić, co innych, czego przy promptach
i piosenkach opartych o nasze sample, jakby własne, nie można.
Bo tam są wystarzone te pozycje, które można sobie ustawić lub pisać.
Ale to nie jest to inna przykładzie, żeby inne rzeczy powstawiać.
Póki co czekam na generator muzyki od ile wylapsa,
bo cztery utwory demonstracyjne, które wrócił na YouTubie…
na YouTuba, same za siebie jakby tutaj mówią.
Może to być wielki, wielki krok do przodu
Wielka groza dla, no nie wiem, dla muzyki.
To znaczy, są agencje…
Tak, są. I na tym się skupili.
Myślę, że oni się na wielu rzeczach skupiają, pracują wcześniej.
I przelewają tą pracę, żeby wykonać drugą, a później jakby tutaj oni…
Myślę, że pójdą tutaj w tym kierunku, bo oni tego tak nie zostają.
Myślę, że oni tego tak nie zostają po prostu.
Jasne. A czas pokaże, w którą stronę to wszystko pójdzie.
Dobrze Marcini, dziękujemy ci bardzo za telefon.
Ja kończę póki co konwersację, bo to przedługa bardzo była ta nasza rozmowa.
Tyle miałem do przekazania. Długa przerwa była.
Słyszałem o tych instrumentach, które miały być dostępne tutaj dla osób
Podejrzewam, że to jest strona ripperaccessheble.fr? Ona się nazywa?
Ale która strona?
Ta strona internetowa, o której mówiłeś, o tej francuskiej społeczności, która miała być udostępniona właśnie…
To znaczy, ona jest, ja mówiłem o innej stronie,
stronie prowadzonej przez Tony’ego Bartha, który włączył trochę tych zasobów,
które były w tej francuskiej społeczności w takim bardziej dostępnym sposobie.
I link do tej strony znajdziesz już w komentarzu pod poprzednim audycją.
Ta audycja już się ukazała na stronie, także to jest na GitHub’ie.
Będę chciał zobaczyć. Będę chciał zobaczyć, gdyby zapomniałem na śmierć zobaczyć.
Oczywiście sprawdzę sobie jak najbardziej.
Póki co, żegnam Cię.
Dziękuję za rozmowę.
Dzięki Marcinie.
Do usłyszenia. Pozdrawiamy Cię serdecznie.
Mam już wiadomości.
Są dwie wiadomości tekstowe od Borysa.
Jak dla mnie to aplikacja Ether Radio,
bo jest na zegarku.
No okej.
I druga wiadomość.
To prawda, ja tylko wtrącę, bo ostatnio miałem doświadczenia.
To prawda, aczkolwiek
O ile wszystko zrobiłem dobrze, oczywiście,
nawet na Series 10 nie da się grać na zegarku stacji.
Można nią tylko sterować.
Sterować tą telefoniczną aplikacją czy smartfonową za pomocą zegarka.
I druga wiadomość również do Borysa.
To już też chyba jakiś czas temu,
więc nie wiem, do czego to się dokładnie odnosi.
A czy ta integracja Shazam jest funkcją premium?
Czy rozpoznane utwory pojawiają się w programie Shazam
I czy funkcja działa na zegarku?
To chodzi o Ethera dalej.
Z tego, co wyczytałem,
a Shazam ciągły jest automatycznie włączony dla stacji ulubionych.
Stacje ulubione można dodawać tylko w wersji premium.
Więc premium.
Rozumiem, że premium.
Czy na zegarku to działa?
To znaczy, no, aha, czy można czytać utwory na zegarku?
Tego nie wiem. Sprawdzać, historię.
Tego niestety nie wiem. Natomiast jeśli chodzi o to, czy to się zapisuje w Shazamie,
może tak. Logiczne by było, żeby tak, ale trzeba by było to sprawdzić.
Tymczasem w takim razie odbierzmy może telefon, bo Patryk jest z nami tym razem.
Dobry wieczór Patryku.
Dobry wieczór.
Słuchamy.
To ja chciałem podzielić się z wami pierwszymi moimi wrażeniami,
Bo ostatnio testowałem w Gemini.
To taką konwersację live się na to mówi.
Która jest w języku polskim.
No i muszę powiedzieć, że naprawdę działa to wyśmienicie.
Jest całkiem sporo głosów do wybrania z tego Gemini.
Naprawdę te głosy są bardzo ładne.
Czyli to się poprawiło, bo tu kiedyś był jakiś problem generalnie z tym, jeżeli chodzi o Jeminaja, o nasze polskie głosy.
To mówiło źle, to teraz mówi lepiej.
Pięknie, Jezus, to jest po prostu pięknie. Jak te głosy mówią, jak te głosy intonują.
I jak ten Jeminaj potrafi podtrzymywać rozmowę. Jak on potrafi szybko odpowiadać.
Testowałem na darmowej wersji.
I powiem szczerze, że nawet byłem zaskoczony,
bo w pewnym momencie powiedziałem coś kontrowersyjnego.
Coś, co bardzo by o mnie źle świadczyło.
Rozmawiałem o książce Harry Potter i powiedziałem,
że mi się tam podoba jakaś scena z Severusem Snape’em,
która raczej musiałaby być totalnym tempakiem,
żeby mi się ta scena podobała, bo chciałem zobaczyć,
w jaki sposób Jeminaj zareaguje.
I Jeminaj mnie zlinczował, sprostował.
No człowieku, jak może ci się takie coś podobać?
Przecież to jest okropne.
Weź się zastanów, co mówisz.
Ej, naprawdę ja się czuję teraz normalnie z ludzkim człowiekiem.
Jedyne, z czym mnie testowałem, to dwie rzeczy muszę się sprawić.
Po pierwsze, wykupiłem sobie na miesiąc, na próbę,
Ten Gemini Google Plus chyba jest w ramach tego i tam są te takie dodatkowe modele tego Gemini,
które tam podobno coś szybciej odpowiadają. Muszę zobaczyć, czy to jest coś dane i chcę sprawdzić,
czy Gemini będzie w stanie zmieniać w locie język. Jeżeli na przykład mówię po polsku
i zacznę mówić po angielsku, czy on w tym momencie zacznie mi po angielsku odpowiadać
Czy Jeremy Nye byłby w stanie mnie na przykład nauczyć jakiegoś języka?
Przynajmniej w takim trybie podstawowym.
No ale tutaj jest ten live.
Na przykład ja bym powiedział, ja chcę się nauczyć języka francuskiego.
Czy mógłbyś mnie na przykład nauczyć od podstaw?
I ciekawe, czy on byłby w stanie to zrobić.
Także ja jestem naprawdę mega zadowolony z tej usługi, no bo chat GPT chyba nie ma takiego live’a, nie?
Jak to nie? No ma przecież, możesz z nim normalnie głosowo rozmawiać, jest też ta opcja wideo, więc tak, nie bardziej.
Języki w locie zmienia, bo akurat to sprawdzałem.
A to muszę potestować jeszcze JPT, który będzie lepszy.
No to potestuj, potestuj.
Jeszcze chciałem apropo AI się zapytać, bo używam namiętnie Eleven Labs Lidera do czytania książek.
Obecnie to jest Voice Dream Leader poszedł w odstawkę i obecnie używam tego.
Ale chciałem się zapytać na przykład, bo chciałbym sobie dodać,
Żeby na przykład książki mi czytał mój ulubiony Piotr Fronczewski.
No i chciałbym bardzo zrobić, żeby to Piotr Fronczewski mi czytał te książki.
I chodzi mi po prostu o coś takiego, bo na pewno będę musiał sobie wykupić
liczbę znaków na Eleven Labs. Będę musiał jakoś pewnie…
Znaczy ja sam test Piotra Fronczewskiego mam, ale na pewno będę musiał je sobie pociąć.
I teraz jest pytanie, w jaki sposób wytrenować sztuczną inteligencję,
Na pewno nie będziesz mógł zrobić tego głosu takiego idealnie naśladującego Piotra Fronczewskiego, bo tam na samym końcu tworzenia takiego głosu jest konieczność odczytania jakiejś pewnej frazy czy jakiegoś kodu z obrazka nawet tak naprawdę tym głosem.
Ale czy to jest…
Czy to jest teraz wymagane nawet przy tym klonowaniu podstawowym?
No przy rozszerzonym tak, ale przy rozszerzonym to tak.
Do tego by się nie dało zrobić, no możesz ten podstawowy głos sobie stworzyć.
Kilka minut opa, nawet tylko do dwóch, trzech rekomenduję, bo jak mówiłem, jak jest więcej to opamięć.
Ale jak to będzie brzmiało?
Chodzi po prostu o to, czy ten rozszerzony, gdybym na tym rozszerzonym Porączewskiego zrobił, to brzmiałby lepiej?
No ale tego już, tak jak Michał powiedział, nie jest w stanie zrobić, bo to jest weryfikowane.
Ale weryfikowane, że osoba niewidoma tego nie jest w stanie zrobić.
To też jest problem, bo to zdaje się, że Grzegorz Turek ostatnio próbował klonować swój głos i miał jakieś tam problemy z tym,
Tak, i tam chyba nawet na stronie zresztą pisze, jeśli jesteś osobą niewidomą, wpisz cokolwiek w tym polu i skontaktuj się z nami.
Ale na czym ta weryfikacja polega? Że co, że to Froszewski musiał przeczytać?
No ale oczywiście Piotra Froszewskiego też nie wezmę, żeby to przeczytał.
No bo to chodzi o to, żeby nie każdy mógł sobie klonować dowolny głos.
To jest takie zabezpieczenie.
No wycinasz sobie kilka minut jakiegoś fragmentu.
Możesz sobie wykupić nawet tam chyba…
co pierwszy miesiąc to chyba dolar kosztuje, więc nie jakąś dużą,
więc możesz już to po prostu przetestować.
Tyle dodajesz tą próbkę, głos się tworzy, no i możesz testować w aplikacji.
No to na pewno nie będzie brzmiało tak dobrze jak głos rozszerzony.
Nie słucham na telefonie książek, to myślę, że chyba powinno być ok.
No tak, na pewno też aplikacja będzie brzmiała trochę gorzej jak strona,
bo tam mamy też kilka modeli.
Mamy ten model Pro, który mamy na stronie,
ale mamy też ten model, który się chyba nazywa Turbo.
No i aplikacja korzysta z tego modelu Turbo i on faktycznie brzmi trochę gorzej od tego modelu Pro.
Ale możesz po prostu sobie to przetestować w ten sposób.
Okej. I co jeszcze, chyba Piotrek Witek też coś teraz mi przypomniał, chyba wrzucił do szuflady na ten temat.
Tak, też jest informacja u Piotra, jak tworzyć te głosy.
I teraz kolejne pytanie do użytkowników aplikacji Revolut.
Ponieważ od niedawna korzystam sobie z Revoluta.
Mam sobie podpiętą kartę i w ogóle zadowolony jestem.
Ale chciałbym się dowiedzieć, jak i gdzie w aplikacji mobilnej
są ustawienia dotyczące tego Revoluta.
Bo o co mi chodzi? Chodzi po prostu mi o to,
że chciałbym, żeby aplikacja mi wysyłała powiadomienie,
Jeżeli na przykład ktoś na moje konto ze złotówkami mi na przykład prześle pieniądze,
no to ja nie dostaję powiadomień tłuszcz na ten temat.
Mój ojciec mi przysłał pieniądze i mi powiedział,
ej, przesłałem ci pieniądze. Dopiero jak wszedłem w Revoluta,
wszedłem w tam powiadomienia, czy jak ktoś się tam nazywa,
to dopiero wtedy mi się pokazało, że faktycznie te pieniądze mam,
bo Revolut on wysyła powiadomienia.
Na przykład dzisiaj jak sobie podpiłem moją kartę Revoluta pod Paypal,
no to dostałem powiadomienie od Revoluta,
ej, ej, ej, tu podpinasz kartę, weź potwierdź tą operację.
Czy tam nawet jak do Apple robiłem płatność, żeby sobie skonfigurowałem,
żeby płacić za aplikację Zapstora przez Apple Pay,
no to też w Revolucie mi się pojawiło normalnie powiadomienie,
ale ja chcę powiadomienie, że na przykład ktoś mi wysłał pieniądze.
Ja nie dostaję powiadomień PUSH i nigdzie nie znalazłem żadnych ustawień w tym rewolucie.
W ogóle nie wiem, gdzie są jakiekolwiek ustawienia w tej aplikacji.
Czy ktoś nas wie?
Tak, to znaczy ustawienia generalnie są w momencie, kiedy klikniesz sobie na swoje imię na górze.
Natomiast czy tam można sobie włączyć powiadomienia na przechodzące przelewy?
To jest dobre pytanie, bo ja takich powiadomień też nie dostaję.
Zdaję powiadomienia na inne rzeczy, tak jak ty wspomniałeś.
Ale czy to sobie można włączyć?
Nie wiem, ale będę musiał też sobie sprawdzić, bo to by się przydało.
Aha, okej, okej.
A powiedz mi, Piotrze, jeszcze taką jedną rzecz.
Na przykład, przypuśćmy, bo tam mam kilka takich rzeczy…
Chcę na przykład wiedzieć tylko złotówki.
Ile mam za złotówek, bo na przykład euro nie mam.
I tam na pokręt, tam mam też takiego ukryj konto dla euro.
że mogę sobie dla każdej waluty euro, koronę czeską i mogę sobie to ukryć.
Pytanie, czy jak ja to ukryję, jeżeli będzie mi to kiedyś faktycznie potrzebne,
czy będę z powrotem w łatwy sposób to odkryć, te pozostałe waluty.
Tak, to chyba… ja nie wiem, jak to dokładnie działa. Na pewno to można sobie przez np. pole wyszukiwania
później znaleźć, jak byś potrzebował to przewalutować.
Ale to chyba też działa tak, przynajmniej ja miałem tak z tymi innymi walutami,
A, no bo ja muszę się troszeczkę namachać, jak chcę sobie zobaczyć ile mam wejść i mam w ogóle stan konta.
I wolałbym sobie tu poukrywać jednak. Ale w ogóle Revolut to jest świetna apka, znaczy w ogóle świetna rzecz.
Bardzo mi się w ogóle podoba też to, że można sobie karty jeździć.
Na przykład strzelić to to się też może przydać na
przykład taka jednorazowa karta i uważam, że rewolucję też
można było kiedyś nie wiem jest jakaś audycja podkazowa
rewolucji, że dawno dawno temu coś robiliśmy to ja robiłem
z Roberto Lombino ale to było dawno temu i ta aplikacja
pewnie zdążyła się w międzyczasie też zmienić
troszeczkę.
Także ja miałem problem, jeżeli chodzi o Revoluta, ze zrobieniem sobie zdjęcia dokumentu.
W sensie umiałem ustawić telefon na ten dokument, ale VoiceOver w ogóle nie widział przycisku tego od migawki.
On czasem się pojawiał, czasem nie. Nie wiem od czego to zależy.
On chyba próbuje sam nakierować. Jak ja próbowałem ostatni raz swoje dokumenty zaautoryzować, to on nawet mnie jakoś kierował.
Tak, ale po tym jak go skierujesz, to musisz kliknąć w przycisk, który teraz jest, teraz go nie ma.
Właśnie nie.
Dobrze, to byłoby tyle jeżeli chodzi o pytania, natomiast Piotrze, o gry muszę zapytać, bo takie dwie rzeczy są.
Po pierwsze, czy będziesz mówić o Spider-Manie na PeCeta, bo ja jestem obeznany w tym temacie, więc…
Nie, no bo akurat jak już jesteś, to ja na konsoli będę grał.
Także jeśli chcesz jakieś informacje przekazać, to antena jest twoja.
Tak, a jeszcze drugie pytanie, czy masz update dotyczący Shadow of the Coliseum sprzed dwóch tygodni?
Nie.
To dobrze. To ja mam.
To zacznę może po kolei od najnowszej informacji.
Ga gra uphill woe, czyli te takie tekstowe RPG.
Jest taka malutka zmiana, która wyszła dosłownie 15 minut temu.
Wersja demo gry na Steam’a ma osobną stronę na Steam’ie.
Czyli po prostu jeżeli będziemy chcieli poprawiać demo,
wpisujemy Archival, po prostu demo w Google i będzie to strona osobna z demem,
gdzie będzie można osobno jakby pisać opinie, ponieważ z Archival jest tak,
że pełna wersja jest z jakiegoś powodu tylko na Itchu.
Na Steamie jest tylko demo.
Nie wiem czemu tak autor zrobił, tak jest.
Więc tutaj ta strona ma osobne demo.
Teraz, jak wiecie, Malware’s Spider-Man 2 pojawił się w zeszłym tygodniu albo dwa tygodnie temu.
Kurczę, teraz nie pamiętam dokładnie.
W każdym razie jakoś niedawno pojawił się na komputery osobiste, chyba dwa tygodnie temu.
No i co mogę powiedzieć? Mogę ucieszyć te osoby, które lamentowały takie gierze,
Bo ułatwieniem dostępu są modely w języku angielskim.
Czyli jeżeli chcemy grać z ułatwieniem dostępu,
screener jak najwyżej jest po angielsku.
Natomiast ucieszę wszystkich tych użytkowników,
którzy chcą polski dubbing.
Polski dubbing działa, ale żeby działał polski dubbing,
no to tutaj musimy się posłużyć OCR-em.
I w momencie, kiedy gra nam uruchomi się po polsku,
Oczywiście nam zadziała, bo niestety z optymalizacją tej gry są problemy,
co do niektórych im gra ma dość wysokie wymagania.
U mnie działa bez najmniejszych problemów.
Ale to co musimy zrobić? Musimy wejść w opcje.
I generalnie w opcjach gdzieś tam, przez czas nie pamiętam dokładnie gdzie,
musimy ustawić język napisów na angielski.
I w tym momencie, jeżeli ustawimy język napisów na angielski,
Restartujemy grę, gra nam się zrestartuje i znowu przy pomocy ocenera musimy sobie włączyć dostępność, włączyć Skrinder.
Jeżeli to zrobimy i Skrinder nam będzie mówić po angielsku, tworzymy sobie nowy slot i w nowym slocie musimy zadbać o to,
sprawdzić czy polski dubbing, czy angielski dubbing jest wyłączony.
Jeśli mamy wyłączony angielski dubbing, a polski dubbing jest zgodny z tym, co mamy na Steamie ustawione, czyli jeżeli w Steamie mamy język polski, to polski dubbing nam automatycznie będzie ustawiony na polski, ale sprawdzamy, czy angielski dubbing jest wyłączony, jeśli jest wyłączony, no to w tym momencie audiodeskrypcja i screen reader będą po angielsku.
Natomiast dubbing będzie jak najbardziej w języku polskim.
Konto Sony, które było tyle mówione, że jest wymagane, nie jest.
To znaczy można się do niego zalogować.
Natomiast rzecz patologiczna, jak dla mnie w tej grze jest taka,
że niestety nie jesteśmy w stanie ani usunąć…
To chyba jest wina tego, że się zalogowałem do konta Sony, pewnie.
Ale ja nie jestem w stanie w żaden sposób usunąć zapisu gry, ani stworzyć nowego.
Nie potrafię zrozumieć tego. Sprawdzałem z SAI, z osobą widzącą,
nigdzie nie ma możliwości usunięcia zapisu, ani stworzenia nowego.
Więc muszę po prostu grać na tym zapisie, który mam.
I no niestety jest problem.
I kolejny problem, jaki jest ze Spider-manem 2 na chwilę obecną,
to jest problem z promptem.
Z promptami, które się wyświetlają,
żeby naciskać jakieś przyciski na konsolerze.
Niestety, Screen Reader podaje mylne informacje,
czyli na przykład jeżeli mamy kontrolę od Xboxa,
możemy usłyszeć, żeby na przykład zamiast nacisnąć A,
to żeby nacisnąć krzyżyk i tak dalej.
Czyli mamy przyciski, z określenia nas przycisków z PlayStation 5, a nie z Xboxa.
I niestety są prompty, które w ogóle nam nie mówią, jakie przyciski mamy naciskać.
Ja na szczęście znałem tę grę, bo grałem w nieoficjalny port kiedyś na PeCeta,
więc wiedziałem, którym przyciskiem co się robi.
Ale dla nowych użytkowników nie jest to problematyczne.
No i gra cierpi na poważne problemy z optymalizacją, potrafi się wyłączać.
Na szczęście to nie występuje, tak jak wspomniałem.
Natomiast na razie wstrzymajcie się z tym.
Twórcy wiedzą o tych problemach, obiecali poprawki dostępnościowe.
Także tak wygląda na ten moment Spider-Man 2 na komputery.
1942, Shadows over Silesia, to jest gra, która doczekała się patrza też dwa tygodnie temu.
Której to dodaje polskie tłumaczenie stworzone przez społeczność.
Nie ma polskiego dubbingu, ale jest polskie tłumaczenie.
Testowałem, ogrywam teraz rozszerzenie do tej gry.
Warto zwrócić tutaj uwagę, że to jest chyba jedyna gra, no może bro chyba jeszcze,
Której możemy sobie poprosić, żeby screen reader nam te napisy czytał?
Tak, czasami to jest problematyczne, bo co mnie osobiście denerwuje w tej grze
i tego się niestety chyba nie da wyłączyć, że na przykład czytam sobie jakiś dialog,
ktoś coś do mnie mówi i nagle po prostu gra sobie lutnik na lutni.
Na lutni. I jest napis, wkrada się napis na ekranie, lutnik muzyka.
I w tym momencie się przerywa ten dialog, który tam…
Nie wiem po co mi to się pojawia w napisach, że gra muzyka, skoro ja to słyszę.
Bo to jest dla osób głuchych.
No ale tego właśnie nie mogę nigdzie wyłączyć.
Jak mam włączone napisy, to to się pojawia w napisach.
Jakbym złączył napisy, to nie będę mieć napisów z dialogów i nie będę mieć w ogóle też tego.
Tak, ale właśnie wiecie o co chodzi, że po prostu udało się wyłączyć jakby to takie…
Tak, tylko żeby to się kolejkowało, co ewidentnie się po prostu nie dzieje i to jest też problem.
No, natomiast język polski jest całkiem ładny. Są tam niektóre zdania kali pić, kali jeść.
Ale jest ich na szczęście na tyle mało, że jest to wszystko zrozumiałe, jest bardzo dobrze, bardzo pięknie.
Także, jak dla kogoś była problemem bariera językowa, to chociaż może się cieszyć tłumaczeniem zrobionym przez społeczność.
O, także ode mnie to na razie byłoby tyle.
Jeszcze bym poprosił o nazwę tej aplikacji, gdzie można nagrywać stacje na serwer.
Okej.
Dziękuję bardzo.
Od Ciebie, Michale, a propos grafik, tworzenia bezzrokowego grafik,
no bo do tej pory wydawało się, że jedynym sposobem na…
nie wiem, czy to można nazwać stworzeniem grafiki,
ale na ogarnięciu sobie czegoś…
Wygenerowanie.
Wygenerowaniem grafiki, no to jest sztuczna inteligencja.
Ale okazuje się, że nie?
Tak, okazuje się, że rzeczywiście jest jeszcze jedna alternatywa,
Ta alternatywa, mam takie wrażenie, że jest dedykowana jednak osobom, które kiedyś jednak widziały i co nieco o tej grafice wiedzą.
Bo ja, szczerze powiedziawszy, nie podjąłbym się wygenerowania tą metodą grafiki.
Człowiek, który za tym stoi, a nazywa się Marco Salsicjan, mam nadzieję, że dobrze wymawiam jego imię i nazwisko, to jest ktoś, kto kiedyś grafiką zajmował się zawodowo i on kilka lat temu stracił wzrok.
No i z racji tego, że tą grafiką się zajmował przez lata, to chciał się zajmować nią nadal.
Może trochę na innym polu, może nieco bardziej w kwestii tych grafik wypukłych,
ale jednak jeżeli on się zajmował tego typu zagadnieniami przez ileś lat,
to zapewne o grafice niejedno wie.
No i wpadł na taki pomysł, że w sumie to jest taki jeden sposób na to, żeby niewidomy mógł tworzyć samodzielnie grafikę.
A ten sposób to po prostu grafiki w formacie SVG.
Bo grafiki w formacie SVG to jest nic innego jak tekstowe pliki w konkretnie postaci znaczników XML.
No, czyli to jest coś, co da się odczytać, natomiast no odczytywanie tego może nie jest najwygodniejsze, najłatwiejsze i najbardziej dla nas przyjazne.
Natomiast da się to wszystko czytać. W ten sposób są przygotowywane chociażby różnego rodzaju pliki konfiguracyjne do różnych aplikacji właśnie w formie XML-i.
Czasem jakieś inne rzeczy też w ten sposób właśnie się wykorzystuje,
chociażby kanały RSS. To są pliki w formacie XML.
No i właśnie pliki SVG, czyli pliki z grafiką, to właśnie też są XML-e,
które można sobie po prostu tworzyć, na przykład w dowolnym edytorze tekstowym,
chociażby w zwykłym notatniku.
I Marko zgromadził różnego rodzaju informacje dotyczące tego, jak takie pliki można tworzyć.
Oczywiście przy założeniu, że mamy jakąś wyobraźnię odnośnie tego, co my właściwie tam chcemy stworzyć.
Bo grafika wektorowa, teraz będę starał się wytłumaczyć coś, o czym sam nie mam zbyt wielkiego pojęcia,
Tak naprawdę mamy dwa typy grafiki, jeżeli chodzi o komputery.
Mamy grafikę wektorową i mamy grafikę rastrową.
W przypadku grafiki rastrowej, całość polega na tym, że dany rysunek,
dana grafika, dany obrazek zbudowany jest z punktów.
I w tych plikach, które mają cyfrowo… które zawierają grafikę,
grafikę cyfrową, no po prostu jest zapisane to, w jakiej współrzędnej
…i jest dany punkt i na podstawie tego, jak sobie komputer to zaczytuje, to generuje na ekranie obraz.
Natomiast, to te tak zwane mapy bitowe.
Natomiast w przypadku grafiki wektorowej, a właśnie SVG to jest przykład grafiki wektorowej,
to całość tworzenia tych obrazków polega na tym, że mamy do czynienia z konkretnymi kształtami
i ta grafika jest budowana z kształtów.
Mamy jakieś linie, mamy okręgi, koła, kwadraty, elipsy
i właśnie z tych figur i odpowiedniego ich połączenia
czy układania w jakieś tam warstwy, budujemy grafikę.
I to już jesteśmy w stanie w jakiś tam sposób kontrolować,
Zapisując odpowiednie informacje dotyczące tych grafik po prostu w pliku.
W pliku tekstowym, w pliku XML, z rozszerzeniem SVG, a potem wczytujemy to sobie w przeglądarce
no i możemy podziwiać, albo kto inny może podziwiać tak zbudowaną przez nas grafikę.
Gdyby ktoś chciał się zagłębić w ten temat, to jest strona, której adres to
to jest to blindsvg.com
blindsvg.com
i tam można poczytać sobie
na temat tego jak te pliki svg są tworzone
z jakich kształtów możemy korzystać
jak te kształty wyglądają
jak budujemy taką grafikę svg
jak te znaczniki układać
no i też jakieś tam
Zapewne przykładowe grafiki SVG także są dostępne,
dzięki czemu można popróbować, można poćwiczyć.
Tak jak mówię, dla mnie osobiście jest to totalną abstrakcją
i ja nie podjąłbym się tworzenia takiej grafiki, podejrzewam.
Już prędzej zleciłbym coś właśnie czatowi GPT albo innemu narzędziu
w nadziei, że wygeneruję coś, co jest realistyczne.
Natomiast podejrzewam, że osoby ociemniałe,
…które kiedyś np. zajmowały się tworzeniem grafiki, to mogą w tym całkiem dobrze się odnaleźć.
Jeżeli rzeczywiście kogoś to interesuje, no to czemu nie spróbować?
A ja jestem ciekaw, czy można sobie w takim zrozumieniu tego, co byśmy chcieli w ten sposób osiągnąć,
pomóc takimi narzędziami, jakie stosowało się w nauce matematyki, czyli np. różnego rodzaju klisze
i rysowanie cyrklem, powiedzmy w takim quasi braillu
kształtów geometrycznych, albo nawet patrząc przyszłościowo,
monitory braillowskie, które będą w stanie wypluwać nam grafikę 2D, nie 3D, przepraszam.
I czy tutaj nie będzie jakiegoś potencjału
na to, żeby przynajmniej rozumieć, co by się miało osiągnąć,
bo przypuszczam, że to są kwestie takiej matematyki,
którą niektórzy niewidomi w głowie sobie ogarniają jakoś.
Na pewno, na pewno tak. Przy czym warto też pamiętać o tym, że te grafiki wektorowe to też są takie dosyć specyficzne i to nie jest tak, że grafikę wektorową stosuje się zawsze wszędzie, bo ona ponoć wygląda dość specyficznie.
Jej wielką zaletą jest to, że na przykład fajnie się taką grafikę powiększa, to znaczy jeżeli na przykład tworzymy coś, co ma być wielkie, ma być jakimś plakatem, jakąś dużą taką naprawdę grafiką, która ma być potem wyskalowana do jakichś większych rysunków,
To ponoć tu grafika wektorowa sprawdza się idealnie, natomiast no tej kreatywności takiej zdecydowanie mniej w niej widać.
Ja przynajmniej tak to zrozumiałem, jak kiedyś czytałem o grafice wektorowej, a grafice rastrowej.
Więc tu wiadomo, że to, że to będzie po prostu no, skoro mamy dedykowane jakieś figury, no to ileż tych kombinacji z tych figur można poukładać?
pewnie jakąś tam skończoną ilość.
W taki, a nie inny sposób.
A punkty to jednak można sobie
budować dowolnie i dowolnie je układać.
A tych punktów to są przecież miliony.
Bo w ten sposób właśnie tworzy się tę
rastrową grafikę.
Natomiast jest to na pewno coś ciekawego.
Ja właśnie kojarzę wektorową grafikę
bardziej też do tworzenia stron internetowych,
że różnego rodzaju ikonki
są robione właśnie wektorowo.
No tak, SVG. To znaczy wiesz,
W ogóle pliki svg jako takie wykorzystywane są w internecie jako właśnie różnego rodzaju ikony czy obrazki i nawet svg to można sobie osadzać w kodzie html z tego co czytałem, że po prostu nie jako zewnętrzny plik tylko można sobie zagnieździć w kodzie html taką graficzkę svg. Także można i tak nawet.
Jest to ciekawy temat. Kolejne bardzo niesztampowe podejście.
Nawet gdzieś tam ten człowiek planuje organizować jakieś warsztaty stworzenia tych grafik.
Dziś na reddicie widziałem na airblind, że ogłaszał, że coś takiego będzie.
Swoją drogą, ten pan jest też testerem niewidomym, zdaje się, Waymo,
czyli tych samojezdnych taksówek, które w niektórych Stanach się przemieszczają.
To ja, Sylwester.
Ja mam takie spostrzeżenie, bo Marcin, tam Patryk, też tam o tej sztucznej inteligencji, tak?
O tym słyną, czy ten Marcin mówił, czy on robił jakieś
testy, czy on jakieś ma nagrania, bo chciał to
posłuchać właśnie, a Patryk do tych książek chyba coś
chciał, to też nie to on będzie musiał zrobić te, bo
on tak mówił, że zrobi.
No cóż to już pytanie do naszych słuchaczy może się
jakoś odniosą może do nas napiszą albo w jakiś inny
sposób, żeby, chodzi o to słyną muzyczne te, żeby
I jakby, nawet, pusił wiadomość, czy on posiada jakieś nagranie, to by, spotkanie jakieś wypuściłby.
No jeżeli Marcin coś tam podeśle, to z miłą chęcią zaprezentujemy.
No właśnie, a słyszeliście, spotkanie było w tym, w Paryżu, z Macronem, w sprawie tej sztucznej inteligencji, też słyszałem, że z całego świata się zjeżdżali,
Ja słyszałem dziś jakąś taką informację odnośnie tego, że także w Europie, że Europa ma budować jakieś swoje narzędzia.
No to miejmy nadzieję, że i też się Polacy będą mieli okazję do tego przyczynić.
Mamy mądrych ludzi, przecież jeden z założycieli OpenAI jest Polak, także…
Tak, ale czy w Anglicy jeszcze to nie włączą?
No to tego nie wiemy Sylwestrze.
To jest też Europa także.
No właśnie, a Anglicy co poza Unią?
No to cóż, zobaczymy.
Dobrze Sylwestrze, czy jeszcze jakieś pytania masz do nas?
Nie, nie pytałem, tylko taką ciekawostkę mam.
Mam taki ładowareczkę Grenzella, fajna jest.
Na pojedyncze paluszki kupiłem.
Dobrze działa.
A pamiętasz model tej ładowarki?
Jak to ten środkowy wyraz? Bo Green Cell, coś tam i Charger.
Vital, tak? Vital.
Tak.
To w Polsce jakiś dystrybutor jest.
Można wejść na stronę, tam i swoje powerbanki, i takie zasilacze, i takie różne rzeczy, ładowarki.
No to myślę, że jeżeli ktoś szuka ładowarki, to może właśnie będzie chciał skorzystać.
I ona, i tak komulatorki tak się nie grzeją.
A jaka cena?
Około 37 mil bez akumulatorków, z akumulatorkami 62.
Bo to małe dwa paluszki i duże dwa paluszki w zestawie.
Jasne. No dobrze, to dzięki w takim razie.
Rozłączę, bo już, doczekałem się. No dokładnie. Trzymaj się, do usłyszenia.
No i mamy wiadomości również,
tekstowe i głosowe.
Tutaj najpierw wiadomość, ojej,
Ale do nas dzwonią od Kuby.
Mam pytanie, czy jest szansa na to, że Asmarq Quest zostanie przetłumaczony na język polski?
Myślę, że to pytanie najlepiej kierować do twórcy tej gry.
Nie wiem, czy jesteśmy w stanie na to odpowiedzieć.
Gra na pewno nie była w języku angielskim oryginalnie.
Ona chyba jest w Węgier, więc jakieś tłumaczenia już powstały,
więc myślę, że po prostu warto by się do niego zwrócić.
Natomiast to pewnie też jest taka kwestia, że ktoś by musiał pewnie
przy tym tłumaczeniu pomóc. No ale jeśli jesteś zainteresowany,
to można napisać.
Tak. Był telefon, ale chyba się nie udało odebrać.
Tak mi się wydaje. W związku z czym mamy jeszcze wiadomości głosowe, również na Whatsappie, od Madeusza.
Witajcie. Mam pytanie odnośnie aplikacji VOCR na Maca i czatu GPT.
Jeśli mam konto w OpenAI za darmo, to mogę wygenerować sobie klucz API,
…żeby go wykorzystać w aplikacji, czy muszę mieć płatną subskrypcję?
Z góry dzięki za odpowiedź i miłej audycji. Pozdrawiam.
Jak masz konto założone, to klucz jak najbardziej sobie możesz wygenerować.
Natomiast nie musisz mieć subskrypcji chata GPT, czyli ten tak zwany chat GPT+.
Natomiast musisz sobie doładować konto, tak zwaną platformę deweloperską.
To też można zrobić na stronie OpenAI, ja tylko szybko zobaczę, jaki to był adres.
Możesz się zalogować tymi samymi danymi, co do chata GPD, także tutaj osobnego konta nie trzeba mieć.
Wydaje mi się, że to jest adres po prostu, tak, platform.openai.com.
Na tej stronie musisz się zalogować i tam przechodzisz sobie do
…do ustawień i tam sobie to konto możesz doładować.
Jak to konto sobie doładujesz, to nie musi być jakaś duża kwota.
Minimalnie chyba…
Chyba 5 dolarów.
5 dolarów, tak, tam z VAT-em, czyli to będzie jakieś 6-7 dolarów.
Ale to pewnie na…
No ja kilka miesięcy spokojnie na tych 5 dolarach przejechałem,
także to…
Przy czym warto pamiętać, że te pieniądze, którymi doładujemy to nasze konto,
one nie mają ważności bezterminowej.
Zdaje się, że one na rok są ważne.
I wtedy taki jeden opis to jest z reguły kilka centów, dwa, półtora, dwa, trzy.
Zależy od tego jak długi ten opis jest i ile pytań zadajemy.
Mamy teraz jeszcze rzutem na taśmę obwiadomość od Iwo, wiadomość tekstową.
Czy te aplikacje do tworzenia muzyki można pobrać na iOS?
Nie wiem czy wszystkie, ale można generalnie.
Suno zdaje się, że ma aplikację.
Suno jest. Nie wiem, czy te inne rzeczy.
Bo Udy nie wiem, czy ma w ogóle aplikację.
i Leakfusion też nie wiem.
To nie koniec wiadomości.
Mamy jeszcze wiadomości od Mileny.
Witajcie, z tej strony Milena.
Ja tutaj odnosię właśnie aplikację Ether na iPhone’ie.
I chciałam powiedzieć, że od…
chyba od dzisiaj, bo nie wiem teraz dokładnie od kiedy,
A to jest bardzo ciekawe, co tam u was z tym internetem się dzieje.
Słyszałem już od kogoś raport z Broadcaster, że nie działa. Także nie wiem.
Bo ja testowałem i działa Ether, w Etherze Tyflo Radio.
Ja teraz szybko Nowak’u odpaliłem w Etherze i działa.
Także to jest bardzo ciekawe, w czym tam jest problem.
Iwo jeszcze pyta, czy jest możliwość tłumaczenia wiadomości na Whatsappie,
na przykład z niemieckiego na polski.
Nie wiem, na jakim systemie podejrzewam, że iOS.
Właśnie, tekstowych czy głosowych w ogóle, bo to jest dobre pytanie.
No nie, WhatsApp chyba natywnie czegoś takiego nie oferuje.
Tekstowe można pewnie przetłumaczyć, nie wiem, na przykład tym skrótem,
który kiedyś Piotr Witek zaproponował do tłumaczenia.
A głosowe, to nie wiem, przy założeniu, że zrobimy transkrypcję
i ta transkrypcja wyjdzie dobrze, to możemy ją też tym skrótem przetłumaczyć.
No tylko Whatsapp niestety nie obsługuje np. języka polskiego, ale jakieś inne głosowe, to tak, to można by w ten sposób.
Natomiast na Androidzie w komentary, w płatnej chyba wersji, jest możliwość w ogóle jakby tłumaczenia każdego komunikatu,
który każdej wypowiedzi komentarego i rzeczywiście wtedy można to zrobić, podejrzewam.
Po prostu wtedy czytamy sobie takie wiadomości, no i tak, więc to by się pewnie dało zrobić,
no ale właśnie na Androidzie, na darmowej wersji komentarego.
Iwa też pyta, jaki to był skrót.
Ten do tłumaczenia?
Chyba tak.
Tak.
Mamy telefon, więc jeszcze może odbierzmy.
Kogo witamy tym razem po drugiej stronie?
Dzień dobry, Lurek z tej strony. Czy mnie słychać?
Słychać.
Więc informacji mam kilka. Zacznę tylko od tego, że tutaj się dzwoni,
jak czekać przychodni. Od godziny próbuję i w końcu się udało,
także witam. Dobra, pierwsza informacja jest taka, że mieliśmy niedawno
aktualizację Prudence Screen Readera na Androida.
Teraz to, co się zmieniło. Po pierwsze, responsywność.
Ten screen reader był zawsze responsywny, natomiast naprawdę muszę przyznać,
że to, słuchajcie, podskoczyło. Ja jestem naprawdę w szoku.
Nie używam tego na co dzień, bynajmniej nie na głównym urządzeniu,
bo jednak brakuje mi gestów krawędziowych, ale muszę przyznać,
że jeżeli ktoś szukałby naprawdę responsywnego czytnika,
to on naprawdę przyspieszył.
Druga rzecz, która tam trochę się poprawiła,
to jest generalnie prędkość, z jaką ta synteza do nas mówi,
ponieważ Prudence ma swoją syntezę.
To jest co prawda ESPIC, jakiś taki, nie wiem, przerobiony pewnie
Natomiast on mówi jeszcze szybciej niż ten tam.
Jak podkręciłem go do maksymalnej prędkości,
to tam już nawet mu się zdarzało po prostu coś takiego,
że on nie był w stanie się jakby wypowiedzieć,
bo po prostu te wypowiedzi były za szybkie.
No to był po prostu jeden ciągły szum.
Więc to trzeba sobie przetestować.
Natomiast ja mam pytanie do użytkowników iOS-a.
Czy to tylko ja mam taki błąd?
Czy w iOS-ie 18 tak się dzieje każdemu?
Bo na facetime’ie czasami przy udostępnianiu ekranu,
przy puszczaniu sobie komuś muzyczki,
facetime’owi zdarza się albo tą drugą osobę
po prostu bezczelnie wyciszyć,
i to jeszcze wyciszyć w taki sposób,
że czasami nawet odciszenie nie pomaga
i trzeba się po prostu rozłączyć,
albo zdarza mu się ten przycisk
od udostępniania ekranu po prostu wygasić.
Wtedy nieważne, co byśmy robili,
ten przycisk jest wygaszony.
Czy ktoś ma taki problem?
I cisza, więc… albo nie.
Ja dawno nie usłyszałem ekranu FaceTime, także…
No właśnie pytam, bo ja sobie czasami tego używam i niestety, ale jest z tym problem.
A na koniec malutki news ode mnie. Zaktualizowałem sobie do 18.31.
I mam wrażenie, proszę państwa, że się Zosia w wersji rozszerzonej gotuje i to strasznie,
Bo ona już wcześniej bulgotała, a teraz bulgot jest taki, że jej nie idzie zrozumieć.
To tak na koniec ode mnie.
O, no to nieciekawa informacja.
No, także super. Apple bardzo o nas dba.
Dobra, to tyle ode mnie. Nie będę tam. Miłego prowadzenia audycji wam życzę.
Bo już pewnie linia gorąca znowu.
Na razie się uspokoiło, przynajmniej chwilowo. Dzięki za telefon.
Mamy jeszcze jedną wiadomość i myślę, że to jest dobry moment, żeby ją wyemitować.
To jest wiadomość, którą tym razem ja dostałem od Arka Świętnickiego.
Ma dla nas kilka wieści.
Cześć! Przed mikrofonem Arkadiusz Świętnicki i chciałbym kilka rzeczy wam opowiedzieć.
Po pierwsze, bawiłem się silnikiem do tworzenia gier Godot.
Jest to mainstreamowy silnik, który służy do tworzenia gier wideo,
ale niedawno pojawiła się eksperymentalna obsługa dostępności,
Dzięki za oglądanie i do zobaczenia w kolejnym odcinku!
Zapraszać na nie ludzi i mieć informacje odnośnie tego, kto zaproszenie przyjął, kto jakie zdjęcia dodał do udostępnionego albumu, kto co dodał do playlisty, na Apple Music i tak dalej i tak dalej.
Moje pierwsze wrażenia? Aplikacja jest typowo Apple’owa. Jest bardzo prosta, przejrzysta i wszystko można w niej zrobić w dostępny i prosty sposób.
Jedyne co mi brakuje, to jakichś bardziej rozbudowanych integracji, na przykład z Google Forms czy innymi usługami.
Ale poza tym jest to bardzo fajna, prosta aplikacja, która może wam pozwolić w łatwy sposób śledzić wydarzenia, których jesteście np. organizatorami czy współorganizatorami.
Jest to taki mój testowy sposób komunikowania się z wami, więc wybaczcie jeżeli np. coś było nie tak. Dziękuję.
My również dziękujemy.
Ja mam takie pytanie od razu do Arka, w takim razie może odpiszesz albo się dograsz.
Tworzenie gier. Super. A co z wyjściem? Czy rzeczy tworzone w Godotie są dla nas
dostępne albo czy mogą być dostępne? Mogą być zaprojektowane w sposób taki,
który współdziała z czytnikiem ekranu? Przede wszystkim jeśli chodzi o aplikacje
czy też gry mobilne. Bo zdarzyło mi się już, że byłem w kontakcie z twórcą aplikacji,
który chciał zrobić coś fajnego dla niewidomych.
No i sobie to zrobił.
Nie skonsultował tego wcześniej z nami.
No i ja zapytałem, w jakim środowisku to zostało stworzone.
No godot.
No i się okazało, po przetestowaniu tego w praktyce,
że czytnik ekranu absolutnie niczego w tej aplikacji nie czyta
i aplikacja nie jest na ten moment, czy nie była wtedy
specjalnie przez nas używalna,
mimo że teoretycznie miała nam pomóc.
Więc tu pytanie, czy już się to poprawiło, czy nadal jesteśmy skazani na czekanie na godotę?
To ja jestem tutaj myślę w stanie też coś odpowiedzieć, bo śledzę temat, zresztą Arke zaprosiłem do testów tego,
dlatego że to wszystko generalnie odbywa się znów dzięki projektowi Accesskey, czyli narzędziu, które stworzył Matt Campbell,
które pozwala deweloperom napisać dostępność raz, żeby ona działała na wszystkich platformach.
No i tutaj właśnie, na ten moment, przez wszystkie platformy
mówimy tutaj o desktopie, bo Access Kit wspiera Windowsa,
wspiera Maca i wspiera Linuxa i na tych platformach na ten moment
ten gotot jest dostępny, chociaż to też tak naprawdę nie jest
jeszcze dostępne oficjalnie, bo to jest w tym momencie
tak zwany pull request na GitHubie, który jeszcze nie został
włączony w główny kod, więc jak ktoś chce sobie to podestawać,
no to musi sobie z tego pull requesta albo to sam skompilować,
Tak zwane testowe artefakty pobrać i w ten sposób ewentualnie sobie to uruchomić.
Natomiast jeśli chodzi o dostępność mobilną, no to dopóki AccessKit tego nie zintegruje,
no to tej dostępności mieć nie będziemy.
Wiem na pewno, że już prace nad Androidem się rozpoczęły w AccessKit, więc jak to się pojawi,
no to pewnie Godot na Androidzie też stanie się dostępny.
Wiem, że iOS też jest planowany.
Natomiast pewnie jeszcze trochę czasu minie,
zanim zarówno Access Kit, jak i Godot zostaną nam udostępnione.
Na ten moment wiem, że tam też jest jakieś API do syntezy mowy,
więc jakby jakiś zawodnoper chciał zrobić dostępną grę mobilną z Godotem,
no to tutaj pewnie trzeba byłoby się bawić w coś w stylu
tego screen readera w Unity.
Także sami robimy sobie czytnik ekranu, który jakoś reaguje nam na gesty
I coś do nas mówi, ale taka natywna dostępność na urządzeniach mobilnych
po prostu na ten moment jeszcze nie jest możliwa, no bo narzędzia tego nie wspierają.
I ostatnia wiadomość, myślę, którą byśmy teraz odtworzyli,
którą bym odtworzył, od Mileny, która jest niejako rozszerzeniem
tej wiadomości poprzedniej.
Do tego etera dodam jeszcze tylko, że komunikat jest błąd skimu.
Po drugie, zaobserwowaliśmy tutaj z chłopakiem, że na przykład jak jest podawany na Whatsappie,
na tym kanale podcastowym informacja na temat Tyflo podcastów na dany tydzień,
to na przykład jak słuchać Tyflorado, to jest tylko radio.tyflopodcast.net.
Bo wydaje mi się, że to jest po prostu zbyt krótki, że tak powiem, link do tego odnośnika,
A to to już w ogóle bardzo ciekawe, bo ten adres, który podaje Radio Tyflo Podcast Net, no to powinien być obsługiwany przez większość przeglądarek.
A zdaje się, że radio Tyflo Podcast z tym portem 8000 jest tam dodana generalnie do aplikacji Ether czy w ogóle do radio browzera.
Ja mam wrażenie, że to jest jakaś bardzo nietypowa konfiguracja u Was w sieci, no bo nikt inny nie sygnalizował takich problemów i ja też nie jestem w stanie ich zreplikować, więc to bardzo, bardzo dziwna sprawa.
To przejdźmy w takim razie do kolejnego tematu.
Kto pamiętał Brajleita?
Ja. Używałem nawet.
Właśnie, bo ty, Michale, używałeś Brajleita.
Brajleit miał taki z przodu panel, nie? Przesuwany taki…
Tak, taką…
Wiesz, w polskiej…
Na polski to było tłumaczone jako pałka, po prostu.
Tak, tak to tłumaczyli. Jako pałka.
Bo to rzeczywiście był taki cienki, długi przycisk, który można było nacisnąć albo z lewej, albo z prawej strony.
I w zależności od tego, w którą stronę, który jego koniec się naciskało, to po prostu w tę stronę przesuwał się monitor brajlowski.
Coś takiego mają też monitory Pappenmayera. Tylko że to się przesuwa w cztery strony w ogóle w Pappenmayerze. Może w górę, w dół, w lewo i w prawo.
Zdaje się, że ten Brightlight w wersji czterdziestoznakowej to miało w ogóle dwie takie pałki.
Ale ja miałem akurat osiemnastoznakową, więc…
No w każdym razie deweloper czy firma produkująca Brightlighta ma coś nowego, czy ma mieć coś nowego.
Tak, i pałek nie będzie. Tak powiedzieli.
A co ma być nowego? Ma być BT Braille.
BT Speak, to my już o tym mówiliśmy,
czyli taki notatnik z braillowską klawiaturą,
ale z wyjściem tylko audio,
taki trochę jakby czy eBay, czy Kayetek,
który ma na swoim pokładzie Linuxa.
No i ten BT Speak się cały czas rozwija,
tam dochodzą nowe rzeczy w oprogramowaniu,
oni bardzo inwestują też w tego Linuxa Desktop,
żeby tam ta orka wszystko obsługiwała.
No ale stwierdzili, że fajnie byłoby też wrócić z jakimś urządzeniem braillowskim.
I takie urządzenie już powstaje.
Ma nazywać się BT Braille.
Ma być na początku w wersji 20-znakowej, ale wersja 40-znakowa niedługo potem ma się też…
ma też ujrzeć światło dzienne.
No i co my tam będziemy mieli?
Komórki braillowskie piezoelektryczne z firmy KGS.
Czyli no… to są takie tradycyjne, jak się robi, monitory braillowskie.
No, czyli cena też będzie odpowiednia.
Kursor routingi, czyli po prostu klawisze
do przywoływania kursora do konkretnej komórki.
Mają być też jakieś klawisze…
Tego, to warto wspomnieć, że to jest taka innowacja
w stosunku do tego, co było w Braillie,
bo w Braillie właśnie kursor routingów nie było.
Ta pałka to był jedyny klawisz, za pomocą którego
można było przesuwać monitor braillowski.
No, faktem jest też, że 20 lat od tamtych czasów
już minęło chyba, a może nawet więcej.
Więcej.
Więcej.
Dwadzieścia…
No ja to miałem w dwutysięcznym
albo w dwutysię… albo w dwa tysiące
pierwszym roku.
Więc to, to, to jeszcze…
Pierwszy Braille to chyba był rok
dziewięćdziesiąty…
Boże, piąty albo szósty, więc będzie
trzydzieści lat zaraz.
Okej.
Joss też swoją drogą w tym roku
trzydziestolecie chyba świętuje.
Tylko nie wiem, czy pierwszej wersji
w ogóle, czy pierwszej wersji na
Windowsa.
Na Windowsa.
Chyba na Windowsa.
W każdym razie, no to, to, to
Tutaj BT Braille będzie to miał.
Będzie też miał przyciski pod kciuki, które mają jakieś też funkcje wykonywać, tak zwane thumb keys.
I ma to mieć coś, czego nie ma również BT Speak, czyli jack słuchawkowy.
Samym rdzeniem tego urządzenia ma być ociutkę, o generację nowszy Raspberry Pi, bo piątka, a nie czwórka.
Więc ma być dwa razy szybszy procesor i w ogóle lepsza wydajność.
No i dalej Linux, czyli będziemy mieli urządzenie braillowskie z samodzielnym Linuxem.
Mieliśmy już Windowsa, mieliśmy już Androida, no to pora na Linuxa. Terminal linuxowy w braillu.
No nie terminal, bo tam jest też desktop, ale no pewnie terminala też można odpalić.
Ceny w wersji przedsprzedażowej, czyli taka cena początkowa tej wersji 20-znakowej
No więc jesteśmy znowu w tym progu cenowym, raczej wyższym niż.
No tutaj było pytanie, czy producenci będą rozważali jakieś bardziej ekonomiczne rozwiązania,
jak chodzi o komórki brydowskie. Mówią, że obserwują rynek, patrząc co się tam dzieje i co się rozwija.
Są zainteresowani różnymi rzeczami, natomiast dopóki to nie będzie na tyle stabilne,
żeby mogli z pełną odpowiedzialnością wprowadzić to w swoim rozwiązaniu.
No to tego nie wprowadzą. Także poczekamy jak się rynek rozwinie.
Też były pytania, czy nie chcieliby na tych swoich urządzeniach Windowsa rozważyć.
W ogóle skąd te pytania, bo też nie wspomniałem o źródle.
Jonathan Mosen przeprowadził wywiad z Brianem Blaseym i Davidem Goldfieldem
właśnie z Lazy Technologies, bo to właśnie ta firma przecież produkuje
te wszystkie urządzenia w ramach podcastu National Federation of the Blind
No tak, że tam można tego wywiadu w pełni wysłuchać.
Natomiast odpowiedź Briana była taka, że Linux przewyższa Windowsa pod każdym względem
i nie ma żadnego takiego obszaru, w którym Linux nie oferowałby tego, co oferuje Windows.
Ja jechałem akurat wtedy pociągiem. Cieszę się, że się nie roześmiałem w głos,
bo pasażerowie mogliby troszkę podejrzliwie na mnie patrzeć.
Ale gdzie Linux? W każdym względzie lepszy niż Windows.
To już Jonathan zwrócił uwagę, że…
A czytnik ekranu?
No i David Goldfield odpowiedział, że…
No orka.
No jest. Ja używam Windowsa tyle lat, już 30 lat.
No w orce wszystko jest.
Okej, no może orka teraz się jakoś też rozwija.
Wiem, że tam doszły jakieś nowe tryby nawigacji.
Jest coś ala nawigacja obiektowa ostatnio jakoś.
No, ale chyba jeszcze jednak to nie jest ten sam poziom.
Zresztą pierwsze, co mi przychodzi do głowy – obróbka dźwięku.
No, z tego co wiem, Reaper na Linuxie dostępny nie jest.
No właśnie, można go uruchomić, ale niestety dostępny nie będzie.
No na przykład.
Pytanie, co do tego oni ten sprzęt przyznażają.
Okej, no ale mówią, że pod każdym względem.
OCR? Mamy coś oprócz Tesseracta sensownego do OCR-u na Linuxie?
No nie wiem.
Wiele jest pewnie jeszcze takich rzeczy.
Natomiast tak się tutaj decyduje na to firma, bo system otwarty,
bo można w nim dużo samym modyfikować, no i tego mu odjąć nie można.
No i zobaczymy, kiedy ma być się coś pojawić. Na tegorocznym CSUNie,
czyli pewnie jakoś teraz, początkiem, może w środku marca, mają już mieć coś
do pokazania, jakiś prototyp. A pierwsza wysyłka zamówionych jednostek,
Jak to miałoby się zbiec z letnimi konwencjami, czy NFB, czy ACB, czy innych organizacji.
Także lipiec, początek lipca gdzieś tam pewnie miałoby to już ruszyć do sprzedaży ogólnej.
No i jakoś też chyba jeszcze w tym roku miałby być ten model 40-znakowy wypuszczony.
No także zobaczymy, czy to w ogóle dotrze na polski rynek.
Ale jak lubiliście Braillite’a i jesteście ciekawi, czy to kiedyś wróci, no to jakaś próba jest.
Ja powiem szczerze, naprawdę ja w tamtych czasach doceniałem stabilność Braillite’a
i to, jak to urządzenie fantastycznie po prostu było gotowe do pracy w sekundę.
I jak naprawdę to praktycznie niemożliwe było, żeby stracić dane.
Ja pamiętam, że otrzymałem od jednego ze znajomych Brian Spica, który nie był używany, wyobraźcie sobie, kilkanaście lat.
I po uruchomieniu ten notatnik otworzył się po prostu w ostatniej notatce, która była tam tworzona.
Więc, no, jest to niesamowite,
jak wtedy projektowano tego typu sprzęty,
a potem przyszedł Pac-Mate i…
No tak, Pocket PC 2003
i dla widzących użytkowników stabilnością
nie grzeszył, tam istotnie rozładowanie się
baterii oznaczało utratę danych, a w przypadku…
Zawieszenie się oznaczało utratę danych tych pierwszych Pac-Mate.
Dokładnie, tam wystarczyło, że się zawiesił sprzęt, tak, doświadczyłem tego.
Użytkowników polskich, takie usunięcie danych oznaczało też
wyczyszczenie nieoficjalnej lokalizacji polskiej.
Tak, i trzeba było na nowo to wszystko instalować.
No… były to…
Ja to zrobiłem raz po tym, i mi się nie chciało.
Tak, więc nie, no…
Ja powiem tak, w tym momencie
jakoś nie wiem, czy urządzenie oparte o Raspberry Pi
jakoś bardzo mnie przekonuje do tego,
że to będzie fajny notatnik,
ale też nie miałem tego w rękach, nie miałem okazji tego przetestować.
A powiem szczerze, z samego sentymentu do produktów Blaze Engineering,
to bardzo chętnie bym to zrobił.
Jak będzie kiedyś możliwość, naprawdę z miłą chęcią sprawdzę, jak to działa.
Bo kiedyś działało super.
A ja z kolei mam Raspberry, co prawda czwórkę,
ale mam Raspberry, więc powiedzmy na tym nieco co prawda oryginalnym systemie
Zdecydowanie nie startuje w sekundę, ale no nie wiem, no być może to kwestia np.
jakiejś optymalizacji.
Być może, no nie wiem, też na tym się tak…
Znaczy wiem, że na pewno ten system, jak wyłączamy tego, bo BT Speak’a nie jest
wyłączany, wyłączany. On po prostu przechodzi w jakiś tryb uśpienia, tylko to
też, bądź to trochę baterię żera, z tego co słyszałem, więc on to bardziej taki
tryb uśpienia. Pytanie, jak szybko z tego wstaje.
No z tego może dość szybko wstawać, natomiast…
Ale to już raczej nie będzie to, co było kiedyś, co było w przypadku
Braillite’a czy Brian Speake’a. Naprawdę, to po prostu, no to było niesamowite.
Ja tego akurat używałem, Braillite’a używałem w szkole i no to było super
pod tym względem, że można było sobie naprawdę bardzo szybko coś zanotować,
potem wyłączyć, nie martwić się o nic, zabrać to urządzenie, przenieść w innej klasie.
Właśnie te notatniki z tamtych czasów chyba się cechowały taką stabilnością.
O, przepraszam.
Bo dzisiaj, dzisiaj, dzisiaj w ramach portalu Living Braille,
w ramach właśnie tych obchodów dwusetnej rocznicy urodzin Ludwika Braila,
który świętuje tam Europejska Unia Niewidomych,
ktoś zamieścił swoje wspomnienia z Braille Wave’em Handy Tech’u,
czy Help Tech’u dzisiaj.
I też były to bardzo takie peany na cześć tego notatnika,
że on właśnie i stabilny był, i przenośny był,
i się dało zadanie domowe odrobić w pociągu, w tramwaju, w drodze do szkoły,
i się dało jakąś książkę poczytać,
i się dało jakieś tam jeszcze inne notatki porobić, także…
To znaczy to, że tam ponarzekaliśmy sobie nawet na tego PackMate’a,
bo ja akurat w szkole z PackMate’a korzystałem,
to na tamte czasy, to był…
kiedy ja go dostałem, rok 2007, chyba 2008,
no to w czasach, kiedy mój komputer z Windowsem
Uruchamiał się 3 minuty, no to mimo wszystko ten Pac-Mate startował, powiedzmy te 2 sekundy i później kolejna sekunda.
Nie no, Pac-Mate też startował szybko. To tego nie można mu odmówić.
Jeśli pamiętałem o tym, żeby w razie czego nacisnąć Ctrl-S, żeby mi się ten plik na karcie zapisał
i nie próbowałem w międzyczasie robić innych rzeczy, no to do notatek to naprawdę był dobry sprzęt.
Tylko wiesz, Pac-Mate to się potrafił zawiesić od samego włączenia.
Ja autentycznie kiedyś przydarzyła mi się taka sytuacja,
bo dostałem ten sprzęt, zresztą dlatego nagrałem jeden z pierwszych Tyflopodcastów,
który jest jeszcze w naszych archiwach o Pac-Majcie, bo miałem po prostu potrzebę, żeby trochę go poznać.
To stwierdziłem, że trochę poopowiadam o tym ludziom.
I tam właśnie, jak w pewnym momencie go włączyłem, zapętlił się jakiś niewielki fragment dźwięku
i tyle. I trzeba go było resetować i przywracać.
Coś z tego zostało, nawet w tych notatnikach w współczesnych dnikach, na przykład ten notatnik w Focusie, to też sam Focus się uruchamia w sekundę, tam jest jakiś mikrokontroler, to nie jest pełny system chyba, no i to też akurat się uruchamia szybko.
Mamy kilka wiadomości, mamy wiadomości na YouTubie, to od Eweliny na dobry początek.
Cześć, proszę o poradę w sprawie Warshowl. Mam problem ze zdobywaniem materiałów.
Pozdrawiam. Pisałam w sprawie sklepu do twórcy, natomiast nic nie wyszło.
Mam na myśli wyszukiwanie przedmiotów, a nie zakup losowy.
Jest to pewna niedogodność. Czy tu Piotrze odniesiesz się jakoś?
Zdobywanie materiałów, no jest na to kilka sposobów. Po pierwsze, no, nasza postać może sobie te materiały tworzyć.
Musisz sobie po prostu wybrać materiał, który Cię interesuje i on się tworzy.
On faktycznie się tworzy wolno.
To jest taka gra, w której trzeba jednak czekać.
No tam w opisie mówi się ciągle o takich elementach tak zwanych gier,
idle gier, inkrementalnych, które po prostu możemy zostawić i to tam coś się nam robi.
Natomiast ostatnie aktualizacje przyniosły nam kilka udogodnień.
Nasz towarzysz, którego możemy sobie utworzyć, też może dla nas przedmioty tworzyć.
I to sobie możesz skonfigurować na zakładce jego.
I co jeszcze możemy zrobić? Możesz sobie na zakładce świata wejść do…
Każda lokacja, którą możesz eksplorować, będzie Ci dawała inne materiały.
Jak pochodzisz sobie do jakiejś lokacji,
tam każda lokacja jest podzielona na pięć sekcji, dystryktów właściwie.
W każdym dystrykcie są inne materiały,
które Twoja postać będzie mogła zbierać.
po prostu sobie możesz przejrzeć te wszystkie dystrykty, wszystkie lokacje i jak w
którymś dystrykcie jest jakiś materiał, który Cię interesuje, to po prostu możesz
kazać Twojej postaci to eksplorować równolegle, sobie jeszcze tworzyć
ten materiał i w ten sposób go zbierać trochę szybciej.
A jeśli chodzi o sklep, no tutaj trzeba też rozróżnić to, że mamy sklep i mamy
rynek. Jeśli chodzi o sklep, no to tam faktycznie są przedmioty generowane losowo.
Bo to się co 8 godzin botaje, że chyba zmienia po co 10, już teraz nie pamiętam.
A inną sprawą jest zakładka w rynku, który otwiera się chyba w poziomie 20 albo 30.
I tam mamy przedmioty, które wystawiają inni gracze.
I tam już wyszukiwać sobie i filtrować można.
I można tam fajne okazje trafić, zwłaszcza na ekwipunek.
Ja generalnie ekwipunek właśnie kupuję stamtąd.
Natomiast jeśli chodzi o materiały, to tam jak ostatnio patrzyłem się na, na to jakie ceny sobie życzą inni gracze za materiały, to koszty są astronomiczne, więc po prostu lepiej sobie to ręcznie pozbierać.
Kolejna wiadomość jest od Łukasza.
Czy zauważyliście problem w Nowym Makoesie, gdy próbuje się chodzić nagłówkami, na przykład w safari, to mówi mi, że nie znaleziono nagłówka.
Nie wiem, czy spotkaliście się, to pewnie Piotr, do Ciebie pytanie.
Nie. Korzystam z… jeszcze nie mam 15.3.1, bo on wyszedł wczoraj, to jeszcze nie zdążyłem zaktualizować, natomiast korzystam z 15.3.1 na co dzień i jeśli wejdę w interakcję z stroną, no to nie, te skróty mi działają.
I kolejne pytanie, tym razem od Piotra.
Witajcie. Czy moglibyście wytłumaczyć mi w paru słowach, o co chodzi w aplikacji GitHub?
Jakiś krótki przykład, co można dzięki niej osiągnąć? Dzięki za odpowiedź. Pozdrawiam.
Piotrze, aplikacja to nawet nie jest aplikacja. GitHub to jest takie miejsce w internecie,
gdzie z jednej strony programiści publikują swoją twórczość,
A z drugiej strony, my jako użytkownicy, możemy z tego miejsca pobierać.
To tak bardzo krótko mówiąc, nie wdając się już w jakieś takie zawiłości, o co chodzi
i jakie korzyści daje to, co znajduje się tam pod maską, czyli ten tak zwany git
dla programistów, bo myślę, że to akurat nie jest coś, co ciebie interesuje.
Natomiast z perspektywy użytkownika, to jest po prostu takie wielkie repozytorium,
Są wielkie, duże miejsce z różnego rodzaju oprogramowaniem.
I to tak naprawdę jest dla nas przede wszystkim działanie tego GitHuba.
I jeszcze tu mamy od Eweliny.
W jaki sposób skonfigurować do tworzenia broni?
To chyba znowu Warszawel.
No to zależy od tego, jaką broń chcesz tworzyć.
No bo każda broń będzie wymagała innego typu materiałów.
I to generalnie wygląda tak, że na zakładce, gdzie tworzysz sobie te bronie,
generalnie w każdej podsekcji, czy to tworzenie z drewna, czy to kowal itd.
Ja akurat mam grę ustawioną na język angielski, więc tutaj nie mogę podać konkretnych nazw tych zakładek.
Mamy różne materiały i na Zakładce Przedmioty mamy wszystkie dostępne bronie,
jakie Twoja postać może tworzyć.
I koło każdej broni mamy podane, wymagane materiały, żeby jedną sztukę takiej broni stworzyć.
I po prostu na tej podstawie musisz sobie rozplanować, jakich materiałów będziesz potrzebować i je pozbierać.
I jak będziesz tych przedmiotów tworzyć coraz więcej, co na przykład będą Ci w tym misje różne pomagać,
…bo generalnie na każdej gałęzi tworzenia jest ścieżka misji, no to twoja postać będzie zdobywała kolejne poziomy w tworzeniu danego typu przedmiotów i to będzie odpakowało kolejne typy broni, typy materiałów, które będziesz mogła sobie tworzyć.
I jeszcze dwie wiadomości od Arka.
Hej, trochę jeszcze o Godocie.
Po pierwsze, potrzebujemy czegoś, co nazywa się
Export Template.
Jeżeli chcemy, żeby nasze aplikacje w Godocie
były dostępne.
Alternatywnie istnieje biblioteka
Godot TTS, która gada
przez SAPI.
Po drugie, jest też możliwość
generowania dostępnych powiadomień
UIA.
Tak, powiadomień UIA.
I jeszcze jedna wiadomość od Arka.
Pani Milena, niech sprawdzi datę w systemie. Może to przez to jest.
Tak, to przede wszystkim przez to może być ten komunikat o jakichś tam hakerach,
którzy się próbują włamać, bo tutaj może być problem, że po prostu strona,
że kwestie daty się nie zgadzają i z jakiegoś powodu właśnie certyfikat
generuje takie problemy.
Certyfikat SSL, tak jak mówię,
ja sprawdzałem, wszystko działa,
jest okej, jak powinno być.
I zresztą po statystykach widzę, że słuchacie,
więc też jest okej.
Co do wiadomości, mamy jeszcze kilka wiadomości głosowych
od na przykład Wojtka.
Cześć wszystkim. Chciałem wam zadać
Może z Waszym pośrednictwem słuchaczom, bo nie wiem, czy Wy korzystacie akurat z Apple Watcha.
No może poza Pawłem teraz, w tej chwili. Ale moje pytania dotyczą dwóch aspektów tegoż Apple Watcha.
Nie mogę zrealizować tych dwóch rzeczy, a bardzo bym się one przydały.
Pierwsze to jest to, o czym wspominał Paweł, czyli aplikacja Broadcasts.
Oczywiście da się słuchać przez głośniczek te streamy, to jest fajne,
ale ja nie zmusiłem tej aplikacji, żeby ona puściła Tyflo Radio.
Wpisuję adres radio.tyflopodcast.net i to nie działa.
Być może, że coś źle wpisuję. Przepraszam, że to jest 100 tysięcy razy ten sam temat,
ale jeśli mógłbym Was prosić o pomoc, to byłbym bardzo wdzięczny.
bo to jest superwygodne i fajne, że można sobie słuchać na zegarku różnych rzeczy.
No, też podcastów często słucham na zegarku, akurat przez natywną aplikację Apple’a.
I to jest rzecz numer jeden.
Natomiast rzecz numer dwa, nie mniej irytująca, nawet bardziej irytująca,
to jest kwestia zmiany głosów w Apple Watchu.
To po prostu przestało działać i widziałem na Apple Vista i Post już kilka miesięcy temu,
chyba przy upgrajdzie do tego iOS-a 18, WatchOS-a 11, no że to nie działa.
Niektórym to podobno działa. Ja nie potrafię zmusić do tego, żeby na pokrętle był głos.
Nie wiem, co to się dzieje i czy ma może ktoś z Was pomysł, jak tę opcję głosy przywrócić.
przywrócić na pokrętle, mam zainstalowane te głosy i nawet na zegarku,
wchodząc w ustawienia voice-overa, mogę zmusić Krzysztofa do tego,
bo akurat mam na angielskim, ten głos główny mam angielski i chciałbym
przystawić sobie na Krzysztofa. No, tak po prostu mi akurat pasuje,
żeby mieć polski głos, ale angielski system.
I nie jestem w stanie tego zrobić, ponieważ no nie ma tej opcji na pokrętle,
Nawet jak wejdę do ustawień, to tego Krzysztofa słyszę i nawet w tej wersji rozszerzonej.
Wszystko jest pięknie, tylko nie da się na niego przestawić. Jak wchodziłem w tę opcję,
gdy się zacząłem tym interesować, to w ogóle te stare głosy, które tam kilka miesięcy temu
czy nawet lat temu zainstalowałem, były oznaczone jakby na szaro, wyszarzone,
Więc można było je tylko usunąć, także będę Wam wdzięczny za pomoc i poradę w tych sprawach,
bo w ogóle jako takie narzędzie Apple Watch bardzo fajne, tylko są pewne mankamenty.
No i jeszcze też absurdalne jest to, że mam taką tarczę z wieloma różnymi tymi komplikacjami,
to się chyba tak nazywa, i on zamiast po prostu mówić godzinę przy włączeniu tarczy,
to nawet może uda mi się pokazać.
O, i zamiast mówić tylko te 21., to jeszcze mówi transport publiczny.
I też jak zmieniłem język, to to się na chwilkę chyba wyłączyło,
albo po jakiejś aktualizacji. I teraz znowu to się włączyło.
Też nie mam pojęcia, czy coś da się z tym zrobić.
W ogóle jeszcze do niedawna to on mi jeszcze mówił trzecią tę komplikację,
Także już absolutny absurd. Po co to wszystko?
Wystarczyłaby tylko godzina przy włączaniu.
Także dzięki wielkie za wszelkie uwagi i pomoc.
To ja w kwestii pierwszej.
Być może nie wystarczy wpisanie samo radio.tyflopodcast.net.
Może trzeba jeszcze wpisać na samym początku https://
I jeszcze tak dla pewności to ukośnik na samym końcu.
O ile tutaj, no, ta aplikacja Broadcast obsługuje HTTPS?
No, w dzisiejszych czasach wszystko raczej powinno obsługiwać,
ale gdyby nie, to zawsze alternatywą jest wpisanie HTTP
i tu ważne, bez S, tylko HTTP samo,
dwukropek, dwa ukośniki, radio.tyflopodcast.net,
dwukropek, osiem tysięcy, czyli ten nasz stary, stary adres,
który też cały czas działa.
Ja bym poszukał w katalogu Broadcast Studio Radio, przecież jest.
Można sprawdzić, czy wersja stamtąd zadziała, bo tam już jest jakiś adres wprowadzony,
no i o ile się nie ma właśnie jakichś nietypowych problemów z internetem,
to powinno to zagrać.
Kwestia głosów. Też mam ten problem, czy raczej miałem,
bo zresztą kwestia Watcha zostanie wyjaśniona, mam nadzieję, w najbliższym czasie,
w podcaście specjalnym.
Natomiast też nie udało mi się tych głosów zmienić i tu z Piotrem się konsultowaliśmy.
Teoretycznie, gdyby było więcej głosów dodanych do pokrętła w ustawieniach voiceover zegarka,
powinien się ten element głosy automatycznie pojawić, no bo z zegarek nie ma personalizacji pokrętła.
U mnie się to nie pojawia. Może rzeczywiście jest jakiś błąd, jeżeli zwłaszcza czytałeś o czymś takim na Apple Viz,
no to istnieje duże prawdopodobieństwo, że coś zepsuli.
I tego nie ma.
Co do tego, że ci samoczyta rzeczy,
to spróbuj na komplikacji, którą ci czyta,
czyli na przykład ten transport publiczny,
przejechać palcem w górę
i tam powinna być taka czynność,
jak automatyczna mowa.
Pewnie masz to włączone
i jak to wyłączysz,
to on ci przestanie to czytać.
To jest opcja fajna,
bo można sobie różne komplikacje podpiąć,
które podają nam jakieś wartościowe dane,
…żeby oprócz godziny czytał nam, nie wiem, temperaturę, jakiś tam kalendarz, coś tam, datę.
Ja bym sobie życzył nawet, żeby więcej aplikacji pokazywały jakieś ciekawe dane za pomocą komplikacji.
No to się niestety jakoś nie dzieje.
No ale taką właśnie informację możemy sobie przez tą automatyczną mowę dopiąć lub odpiąć
do tego, co jest nam czytane, gdy tarcza zegarka się pokaże.
Ja w międzyczasie próbowałem też sobie to uruchomić i dowiedziałem się jednej rzeczy,
Myślę, że chyba broadcast ewidentnie nie aktualizuje mi zawartości ulubionych,
bo inne stacji mi się na watchu otwierały,
tyfloradio nie, przeskakiwało mi na muzykę, to ciekawe, to też było ciekawe.
Natomiast na iPhonie, jak to sobie otwarzyłem, to nagle zacząłem otrzymywać
komunikat, że wybrany adres nie został znaleziony na serwerze,
więc prawdopodobnie ja bym też tutaj spróbował
znaleźć to tyfloradio jeszcze z katalogu, chyba można szukać na watchu,
Jeśli nie, to się wszystko zsynchronizuje przez iCloud.
Możesz sobie na iPhone’ie po prostu spróbować to znaleźć
i dodać np. do swojej kolekcji, do ulubionych.
I wtedy to na Watchu też powinno się wyświetlić.
Jeśli wtedy czytasz najnowszy adres, no to powinno to zacząć działać.
I mamy jeszcze drugą wiadomość od Wojtka.
To ja, zainspirowany tymi wiadomościami od słuchaczy,
Jeszcze tutaj poeksperymentowałem i też potwierdzam,
że gdy wpisywałem radio.tyflopodcast.net,
miałem ten sam komunikat w Safari, ostrzeżenie.
Tam trzeba było wejść w zaawansowane i no, stwierdzić,
że się wie, co robi i wtedy szło. Natomiast tego komunikatu
nie mam, jeśli wpiszę radio.tyflopodcast.net 2,8 tysięcy,
Wtedy bez problemu się odtwarza w Safari, zaktualizowałem,
właściwie skopiowałem między urządzeniami na iPhona ten link,
wrzuciłem go do aplikacji Broadcasts i jest, działa i na zegarku,
i na telefonie, więc super. Także wszystko powinno działać,
jak się zrobi w ten sposób. To dzięki wielkie. I w ogóle chciałem
Chciałem Wam powiedzieć, jeszcze korzystając z okazji, bo tak słuchałem tych wiadomości od Arka i nie tylko,
że w ogóle powinniśmy być dumni, że mamy tyle mądrych, inteligentnych ludzi w naszej społeczności,
którzy potrafią w wielu dziedzinach bardzo wiele rzeczy zrobić i to jest jedno,
ale też są chętni do tego, żeby tym się dzielić z innymi. Także ja jakąś taką poczułem
Mam dumę, że coś takiego jest, że to współtworzymy i że ludzie z różnych środowisk, z różnym doświadczeniem, z różnych stron po prostu dają to, co uważają, że jest najlepsze społeczności.
I to jest bardzo ważne, myślę, bo mało jest w tych Waszych audycjach
jakichś takich komentarzy zjadliwych,
jakiegoś takiego niedobrego vibe’u. Raczej tutaj rozwiązujemy jakieś problemy,
dzielimy się rozwiązaniami i to jest, myślę, fantastyczne, że możemy taką przestrzeń
mieć. Mnie to bardzo cieszy, także dziękuję Wam za organizowanie tej przestrzeni
I wszystkim też tym, którzy się dołączają do tego, żeby ta przestrzeń wyglądała tak, jak wygląda.
Dziękuję za to, że to robicie. Pozdrawiam.
No to rzeczywiście, no jakby bardzo miło, że to jest tak odbierane.
No i dziękujemy za…
Nas też to cieszy.
Tak jest.
Michale, jak wyjeżdża się z domu, czasami chciałoby się mieć dostęp do swojego domowego komputera mimo wszystko, z różnych przyczyn. No i ty wiesz jak to zrobić, żeby to było całkiem przyjemne?
Przyjemne i bezpieczne, bo myślę, że sytuacja, kiedy potrzebujemy dostępu do tego naszego domowego komputera, nie jest niczym nowym.
I nie jest niczym nowym to, że ludzie sobie takie dostępy realizują. Natomiast minęło parę lat od czasu, kiedy pojawił się dodatek NVDA Remote.
No, myślę, że można tu sobie parę rzeczy usprawnić, ulepszyć, żeby jednak ten dostęp do naszego komputera był nieco bardziej bezpieczny.
Ja ostatnio sobie trochę nad tym myślałem, chociażby właśnie dlatego, że czeka mnie wyjazd i zastanawiałem się, jak mogę zrobić tak, żeby ten mój komputer był dostępny wtedy, kiedy rzeczywiście ja go potrzebuję
I jak zrobić tak, żeby zminimalizować ryzyko, że korzystając z jakiegoś publicznie dostępnego serwera NVIDIA Remote, ktoś mi jednak tam gdzieś na ten komputer wejdzie, albo będzie coś próbował, i tak dalej, i tak dalej.
No i wymyśliłem, słuchajcie, rozwiązanie, które myślę, że może być całkiem interesujące.
Składające się z kilku elementów, o których teraz opowiem.
I tu zaznaczam, nie będę na pewno opowiadał w szczegółach, jak to zrobić,
bo to jest temat na, myślę, że całą jakąś audycję.
A kto będzie chciał, to sobie to zrobi,
chociażby trochę pytając o pewne rzeczy albo czata GPT,
albo szukając konkretnych rozwiązań, konkretnych przepisów.
w sieci. Natomiast ja powiem
z jakich składników korzystam i jak to wszystko sobie
zrobiłem. Żeby było fajnie,
żeby działało. W praktyce będzie okazja,
żeby to w najbliższym czasie przetestować, to znaczy no już to
testowałem, ale tak powiedzmy bardziej na sucho, a
jak to będzie wszystko działało
na odległość, no to niedługo zobaczymy.
Więc przechodząc już teraz do samego opisu
Na samej górze tego rozwiązania jest narzędzie, o którym już tu mówiliśmy kiedyś,
o którym ja ostatnimi czasy też zdaje się wspominałem,
a które mam wrażenie, że jest jeszcze mało znane, mało popularne,
a moim zdaniem to jest naprawdę dobrodziejstwo w dzisiejszych czasach,
że coś takiego mamy i coś takiego do użytku prywatnego
I nawet jakiegoś niewielkiego komercyjnego można to mieć zupełnie za darmo.
A mówię tu o narzędziu Tailscale. Tailscale się to pisze.
A jest to oprogramowanie za pomocą którego tworzymy tak zwaną wirtualną sieć prywatną, czyli VPN.
I co my możemy zrobić i po co nam to właściwie jest?
Otóż VPN zazwyczaj kojarzy się z tym, że trzeba się nakonfigurować.
Trzeba postawić jakiś serwer, trzeba to wszystko połączyć, a potem i tak są problemy, i tak to nie chce działać, albo działa raz dobrze, a innym razem źle.
Natomiast w przypadku Talescale’a jest to naprawdę banalnie proste. Po prostu zakładamy w tym serwisie konto, instalujemy na różnych komputerach czy innych urządzeniach
oprogramowanie klienckie, to jest dostępne na
wszystkie popularne platformy, jest na Windowsa,
na Maca, na Linuxa, różnego rodzaju
dystrybucje, na iOSa, na Androida,
na Apple TV nawet jest, słuchajcie.
Więc tam, jak ktoś chce i ma potrzebę, to sobie
po prostu może to na wszystkim zainstalować, a jak nawet na
czymś się nie da, to też są sposoby, żeby
takie urządzenie mieć dostępne w swojej sieci.
I teraz tak, instalujemy sobie to oprogramowanie,
podłączamy wszystkie urządzenia,
wszystkie komputery, które chcemy mieć w tej sieci
i już tu mamy rozwiązanie bardzo bezpieczne.
Dlatego, że możemy tak naprawdę robić wszystko
z tymi naszymi komputerami w obrębie Talescale’a,
a poza tą naszą siecią nikt nie ma do tego dostępu.
Tu nie przekierowujemy żadnych portów, nie robimy niczego takiego, żeby te usługi, które tam sobie uruchamiamy, były dostępne z zewnątrz.
Tylko te komputery, które mają się widzieć, się widzą. I to jest podstawa.
No i teraz. Kolejny element tej układanki to jest, jak to właściwie zrobić, żeby ten komputer stacjonarny, który chcemy uruchamiać
i do którego chcemy mieć dostęp, to był włączony tak naprawdę tylko wtedy kiedy rzeczywiście jest nam to potrzebne.
No bo przecież prąd nie jest najtańszy, jest coraz droższy, więc po co ta stacjonarka ma być cały czas aktywna?
Nie musi być.
Ale tu jedno zastrzeżenie.
Jakieś urządzenie aktywne być musi,
które będzie wewnątrz naszej fizycznej sieci lokalnej aktywne.
Ja akurat takie urządzenie mam.
To jest niewielki komputer, który realizuje u mnie różne usługi.
Na przykład u Was to może być Raspberry Pi,
tak jak chociażby był Tomka.
Ja mam akurat komputerek z Windowsem,
który działa 24 godziny na dobę,
7 dni w tygodniu i on sobie tam po prostu jest.
I teraz, co…
w jaki sposób ja
ten komputer wykorzystam do wybudzenia tego mojego
stacjonarnego komputera?
Ano, bardzo prosty. Jest rozwiązanie
stare jak świat, a jemu na imię
Wake on LAN. To jest
rozwiązanie, które obsługiwane jest przez
Więc większość kart sieciowych na pewno działa w przypadku, kiedy mamy wszystko połączone za pomocą kabelków.
Jeżeli mamy sieci bezprzewodowe, ponoć jest z tym różnie.
Ja mam akurat te komputery połączone fizycznie, przewodowo.
Wszystko jest połączone za pomocą kabli.
Więc żaden problem, żeby to wywołać.
Jak to działa?
Otóż na tym komputerze, który włączony jest cały czas,
pobrałem sobie niewielki programik, który…
do którego napisałem sobie mały skrypt,
który wystarczy, że po prostu aktywuję.
I ten skrypt wysyła tak zwany magic packet.
On wysyła do tego komputera.
Ja musiałem sprawdzić, jaki ten mój stacjonarny komputer ma adres sieciowy,
ten tak zwany adres MAC, no i kiedy już to poznałem, to po prostu wpisałem sobie te odpowiednie dane w skrypcie.
Teraz wystarczy, że wywołam ten skrypt.
A w jaki sposób?
A! I tu przechodzimy do kolejnej, ciekawej historii.
Otóż, jeżeli komuś nawet, kto jest zaznajomiony z komputerami, powiem takie trzyliterowe słowo SSH,
No to pomyśl sobie, ha! Linux, no ewentualnie Mac OS.
Natomiast nie wiem, czy wiecie, że komputer z Windowsem również może
mieć uruchomiony serwer SSH.
Na pewno od Windowsa 10 w górę.
Ten komponent w systemie nie jest zainstalowany.
Trzeba go sobie zainstalować samemu, ale w tym momencie, kiedy
Kiedy zainstalujemy sobie ten komponent, to możemy na przykład za pomocą, i to w zależności od tego jak mamy to wszystko skonfigurowane, jeżeli na przykład mamy hasło w naszym komputerze, to możemy się logować za pomocą tego użytkownika i hasła, ale możemy też logować się za pomocą kluczy, jest to zdecydowanie wygodniejsze, na komputerze, który zabiorę ze sobą, wygenerowałem sobie parę kluczy publiczny i prywatny,
Wrzuciłem klucz publiczny na komputer zarówno ten niewielki, który jest łączony cały czas, jak i na komputer stacjonarny.
Skonfigurowałem serwer SSH na obu maszynach po to, żeby uruchamiał się jako usługa razem ze startem systemu.
A po co na obu? Już mówię.
Mianowicie za pomocą tego małego komputera łącząc się po SSH jestem w stanie za pomocą jednej komendy
Wybudzić ten duży komputer.
Po prostu wpisuję tam, akurat
wpisałem sobie, stworzyłem sobie taki
skrypt, który nazwałem budzik.bat
Łączę się
więc po prostu
po SSH za pomocą terminala
z małym komputerem
wpisuję budzik.bat
i w tym momencie wysyłany jest magiczny pakiet
do dużego komputera
do komputera stacjonarnego
on wstaje i ja mogę już się
połączyć przez NVIDIA Remote
który jest tylko w mojej sieci lokalnej, który działa z użyciem TailScale’a
i który absolutnie nie jest wystawiony na świat zewnętrzny, nie korzysta z żadnego serwera
bo korzysta tylko z serwera lokalnego, wbudowanego w siebie
i w tym momencie mogę sobie po prostu z tego serwera korzystać
I z tej wtyczki, z wtyczki NVIDIA Remote.
Natomiast sytuacja jest jeszcze taka, że taki komputer, kiedy będę go używał,
no to może się zawiesić.
No ma prawo, tak?
Wszystko się może zdarzyć i może komputer ulec jakiejś tam awarii.
No i co w takim przypadku?
Mógłbym oczywiście kombinować z połączeniem go na przykład z jakąś
listwą, którą będę sterował zdalnie i za pomocą której wyłączę, odetnę mu na chwilę zasilanie, potem go włączę z powrotem.
Ale przed momentem mówiłem też o tym, że skonfigurowałem sobie serwer SSH też i na tym komputerze stacjonarnym.
I w tym momencie wystarczy tylko, że połączę się za pomocą SSH
Po, po prostu z tym moim komputerem stacjonarnym z użyciem wszystko oczywiście VPN-a, z użyciem TailScale
i wydam odpowiednie polecenie, na przykład w PowerShellu, albo jakiekolwiek inne, które wymusi restart komputera.
Oczywiście wiadomo, jeżeli tam doszłoby do jakiejś naprawdę poważniejszej awarii, jeżeli coś przestałoby działać,
no to w takiej sytuacji to wiadomo, że to nie rozwiąże problemu.
No i tu już konieczna by była jakaś fizyczna interwencja.
No tylko w dzisiejszych czasach, no takie awarie zdarzają się niezwykle rzadko i jeżeli komputer jest dobrze działający,
no to małe prawdopodobieństwo jest coś, że się, że się coś takiego wydarzy.
Jeżeli będę miał taką potrzebę na przykład, żeby zapewnić jeszcze większą bezawaryjność tego rozwiązania,
no to zawsze mogę pokusić się o jakieś inne dodatkowe środki.
No i to jest rzecz kolejna, ale jeszcze w tej całej układance mamy dźwięk.
Bo na przykład chciałbym czasem sobie czegoś posłuchać z tego mojego komputera,
żeby nie przerzucać na przykład plików audio na komputer, na którym będę sobie pracował zdalnie.
No to tu można akurat wykorzystać dużo różnych narzędzi.
Ja zdecydowałem się przynajmniej na razie na Stream What You Hear,
który zresztą swego czasu pokazywałem w Tyflo podcaście.
Natomiast zdecydowałem się na niego przede wszystkim dlatego, że jest prosty
i że mogę szybko wybrać dowolne urządzenie, z którego chcę pobierać ten dźwięk,
jeżeli na przykład mam wiele kart dźwiękowych, ale na pewno nie zdecydowałem się
na to oprogramowanie ze względu na
małe opóźnienia. A one są duże, to trzeba sobie powiedzieć,
to jest kilkanaście sekund,
on tam sobie lubi zbuforować. Także to nie jest na pewno coś,
co zalecałbym tym, którym zależy na pracy
z dźwiękiem i którzy będą potrzebowali tego,
tej konfiguracji, żeby
na przykład na żywo edytować jakieś tam pliki audio.
Nie, nie, to zdecydowanie tu trzeba
się po prostu posiłkować jakimś innym rozwiązaniem, ale jest
sporo różnych narzędzi, sporo różnych technik, więc na pewno każdy
znajdzie coś dla siebie. Natomiast na pewno ważne jest to, żeby
w dzisiejszych czasach, kiedy wszystko tak naprawdę nam skanuje te sieci,
kiedy jesteśmy gdzieś tam co chwilę czesani przez różne skrypty,
Przez różne narzędzia, żeby nie otwierać jednak tych furtek do naszego domu, do naszej sieci bez potrzeby.
Oczywiście wiadomo, że czasem to nie ma innej opcji. Jeżeli chcemy, żeby na przykład ktoś miał dostęp do jakiejś konkretnej usługi u nas,
bo jeszcze coś u siebie na przykład hostujemy, no to oczywiście wiadomo, trzeba. Natomiast jeżeli nie trzeba,
A jeżeli nie trzeba się jakoś tam bardzo otwierać na ten świat,
to lepiej tego po prostu nie robić, spiąć sobie wszystko VPN-em.
Wtedy nawet, i to warto o tym też pamiętać,
TailScale ma coś takiego jak te tak zwane exit nody,
więc dajmy na to, będąc w innym czy to mieście,
czy to nawet kraju, mogę się połączyć,
jeżeli skonfiguruję ten mój komputer,
albo ten stacjonarny, albo ten malutki,
który działa sobie 24 godziny na dobę.
Jeżeli skonfiguruję go jako tak zwany exit node,
to w tym przypadku za pomocą jednego kliknięcia
mogę zmienić swój adres IP na ten mój adres domowy.
A to się czasem przydaje, żebym po prostu był widoczny
jako ktoś, kto pracuje cały czas z jednej lokalizacji, żeby na przykład Google nie zaczęło kazać mi się ponownie uwiarygadniać, że ja to ja i jakieś inne narzędzia, więc to też może czasem być przydatne.
Jeszcze jedno, co do tego, bo wspomniałem też o tym, że Tailscale ma możliwość, aby nasze urządzenia sieciowe, które nie są widoczne w sieci, które nie mają możliwości instalacji bezpośredniej tego klienta Tailscala, żeby były również widoczne w tej naszej wirtualnej sieci.
Jest to możliwe? Robi się to za pomocą tak zwanych subnet routerów.
Ja sobie coś takiego skonfigurowałem, tylko trzeba pamiętać wtedy o jednym,
że ten subnet router, który sobie skonfigurujemy w naszej sieci domowej,
jeżeli nasza sieć domowa ma jakąś popularną adresację,
to może prowadzić do tego, że niestety, ale w takiej sytuacji
pojawią się konflikty z naszą siecią.
…tą, do której się łączymy. Może tak być, oczywiście nie musi, tu sobie już każdy musi te problemy rozwiązywać we własnym zakresie.
Natomiast na całe szczęście też jest tak, że jeżeli widzimy, że coś dzieje się nie tak i mamy potrzebę skorzystania tylko na chwilę z tego urządzenia,
które nie ma tailscala zainstalowanego, a jest ono w naszej sieci, to możemy sobie to na przykład tylko włączyć na chwilę, skorzystać, wyłączyć.
To oprogramowanie jest naprawdę pod tym względem bardzo elastyczne, więc ja serdecznie polecam.
Kto jeszcze się nie bawił, kto jeszcze nie miał okazji, no to myślę, że warto, żeby spróbował.
No, brzmi to ciekawie, choć podejrzewam, że dla niektórych może to być jednak dość skomplikowane.
Kilka wiadomości w międzyczasie dostaliśmy. Na przykład wiadomość od Piotra.
Mam trochę śmieszne pytanie, trochę wzrok, ale jeszcze nie korzystam z voiceovera.
Coraz częściej mam problem na iPhone’ie, aby odebrać przychodzące połączenie
telefoniczne. Jakie macie sposoby?
Czy da się odebrać połączenie przyciskiem, bocznym przyciskiem na telefonie?
No nie da się, o ile mi wiadomo.
VoiceOver ma swoje gesty.
Dwukrotne stuknięcie dwoma palcami, to jest odebrane połączenie,
jeżeli takowe przychodzi. I tak samo, tym samym gestem, dwoma palcami,
dwukrotnym stuknięciem można rozmowę rozłączyć.
Jeżeli mimo to jeszcze nie chcesz korzystać z VoiceOvera, jakimś rozwiązaniem mogą być
Słuchawki bluetoothowe, które często też mają swoją możliwość odebrania rozmowy,
tylko tyle, że wtedy trzeba mieć te słuchawki gdzieś tam przy sobie.
Nie wiem, czy jest jakaś inna możliwość.
Niby jest automatyczne odbieranie połączeń, ale to nie jest rozwiązaniem w wielu sytuacjach.
No dokładnie.
Tak, bo odrzucić połączenie można przyciskiem zasilania,
Także to mamy rozwiązane. Niestety z odbieraniem jest większy problem faktycznie.
Coś się chyba dało przez Siri skonfigurować. Tylko pytanie, czy to działa jak nie mamy słuchawek.
Nie wiem, nie bawiłem się w to.
Też nie jestem pewny.
I mamy jeszcze wiadomości głosowe od Kuby.
Teraz się nagram, bo tak pisałem do twórcy Azmara
Jakiś pół roku temu, może, na pewno parę miesięcy temu psem,
żadnej odpowiedzi nie uzyskałem.
Jeszcze mam drugi problem, mam jeszcze problem dotyczący aplikacji Gemini
na Androidzie, Android 13, wersja Gemini najnowsza, ponieważ, nie wiem,
mój Gemini się chyba na mnie obraził, ponieważ nie chce mi w ogóle odpowiadać,
zarówno w trybie live, jak i tym normalnym.
Przez mikrofon nie chcę mi odpowiadać.
Jak klikam mikrofon, to też nie.
Jak klikam Open Gemini Live, też nic.
A na iPhone wszystko pięknie gra, więc nie wiem,
czym to jest spowodowane. Więc może ktoś będzie wiedział.
Jeśli chodzi o tę aplikację, co Martin chyba mówił,
że Rifujin został wycofany z App Store, ale skąd to można pobrać, jeśli chodzi o betawodankę, bo nie wiem, czy dobrze zrozumiem, że aplikacja jest testowana w beta i skąd można ją pobrać, bo ja jestem zainteresowany, więc to chyba na tle ode mnie.
No właśnie.
I nie wiem, czy Ryfiożyn w ogóle ma swoją aplikację, ale mamy jeszcze wiadomość drugą od Marty.
Dobry wieczór, tu Marta. Któryś z słuchaczy pytał się, a może bardziej powinnam powiedzieć,
Informował o sytuacji na makasie, na safari, że voiceover czasami nie widzi nagłówka i faktycznie mi się tak robi.
Nagłówków i różnych elementów na stronie, na przykład na stronie zakup.eshow.pl i wtedy po prostu ja albo robię tak, że wyłączam szybką nawigację i znowu ją włączam i to pomaga albo po prostu jeszcze raz uruchamiam voiceovera.
A w ogóle polecam zakupy na Esho. Dwa razy już robiłam, właśnie na macOS-ie, ale też na iOS-ie też działa to kupowanie.
Kolega też niewidomy kupował i robił te zakupy poprzez system Windows. Nie wiem na jakiej przeglądarce, ale też mu się to udało zrobić i to był chyba czytnik NVDA.
Tyle jeżeli chodzi o wiadomości.
To w takim razie przejdźmy do następnego…
do następnego oczywiście newsa.
Ale może komputerowego właśnie?
W sumie tak, bo
rzecz dotyczy NVDA właśnie, bo
NV Access opublikował roadmaps, czyli no taką
przewidywaną listę zmian, czy w zasadzie listę tego, co chcieliby osiągnąć w NVIDIA.
No i Piotrze, co to by było takiego?
No właśnie, to, co jest.
Możecie to, ten roadmap znaleźć na blogu NVIDIA,
czas oczywiście będzie to podlinkowane.
Oczywiście też nie mamy podanych konkretnych ram czasowych,
kiedy to wszystko ma mieć miejsce,
natomiast mamy to podzielone na plany takie krótkoterminowe,
średnioterminowe, tak to nazwijmy, i długoterminowe,
więc możemy mniej więcej sobie wyobrazić, w jakiej kolejności
te rzeczy mają być wprowadzane.
Zastanawiamy się za jakiś czas, co się z tym NVDA będzie działo.
Może zauważyliście, że ostatnio NVDAccess zaczęło opublikować
więcej ankiet. Mamy te ankiety satysfakcyjne.
Mieliśmy ankietę dla użytkowników monitorów brailowskich,
Więc monitorują sytuację, na pewno też biorą pod uwagę to,
jakie wiadomości przychodzą do nich na listy dyskusyjne i w wielu innych miejscach,
no i pewnie też na tej podstawie to wszystko jest planowane.
Jeśli chodzi o plany krótkoterminowe, no to tutaj mamy sześć pozycji.
Pierwszą z nich są poprawki dotyczące Braila.
I tutaj mamy ogólnie powiedziane, że będą naprawione wszelkie błędy
Zgłaszane przez społeczność związane z wydajnością i stabilnością brajla w NVIDIA.
Czyli po prostu jakieś błędy, które w tym brajlu się pojawiają.
Następny element, to jest coś o czym rozmawialiśmy na pewno poza audycją.
Paweł mówił, że to już pomału zaczyna się rodzić.
Mianowicie integracja NVIDIA Remote do samego NVIDIA, do rodzenia NVIDIA.
Migracja funkcjonalności NVDA Remote do rdzenia NVDA, aby usprawnić jego funkcjonalność i bezpieczeństwo.
I wiem, że już jakieś pull requesty w tej sprawie zaczęły się pojawiać, więc to już pomału ma miejsce.
NVDA Remote jest dużym i skomplikowanym dodatkiem, który faktycznie jednak wymaga tego, żeby to było zrobione dobrze, żeby to było bezpieczne.
Więc no to pewnie jakiś czas zajmie.
Natomiast fajna sprawa, no to jest na pewno jeden z pierwszych dodatków, który
instaluje po instalacji MVDA.
Więc no to na pewno ułatwi sprawę, zwłaszcza jak ktoś na przykład dopiero zaczyna swoją
przygodę, może nie wie jak te dodatki instalować, abyśmy chcieli takiej osobie
pomóc. No to myślę, że jak najbardziej to jest zmiana na plus.
Następny punkt jest też z tym powiązany, bo będzie własny serwer MVA Remote od NV Access.
Uruchomienie oficjalnego serwera do MVA Remote przez NV Access.
Nie mamy powiedziane, gdzie ten serwer będzie, to też w sumie jest ciekawe, no bo NV Access jest z Australii i tam
Przepuszczam, że na pewno jakbyśmy my się łączyli z Europy, to moglibyśmy mieć opóźnienia.
Ale fajnie, że też taki oficjalny serwer będzie, bo oficjalny serwer mvda.remote.com to jest w Stanach.
Tutaj prawdopodobnie ten serwer byłby w Australii.
Myślę, że na pewno też cały czas możliwość postawienia własnego serwera nie zostanie usunięta.
No to jest jednak aplikacja otwartość źródłowo, tutaj kwestie prywatności i tak dalej, to raczej to też nie zostanie usunięte.
Anonimowe identyfikatory zaimplementowanie systemu dla generowania unikalnych, zmieniających się anonimowych identyfikatorów
dla instalacji MVGA, co ma pozwolić na lepsze zbieranie danych i analizę tych danych
…bez naruszania prywatności użytkownika.
Czyli tutaj kilka takich też podpunktów związanych ze zbieraniem danych mamy w tym roadmapie.
Poprawienie pracy dla tłumaczy, aby ułatwić wykorzystanie platformy Crowdon przez tłumaczy MVDA.
Czyli tutaj MVDA będzie się na ten Crowdon przerzucił, przerzucać nawet.
Generalnie w tym momencie to chyba wygląda tak, że te tłumaczenia są wykonywane przez repozytorium SVN chyba, czyli to jest jeszcze coś, co było przed Gitem.
Rozmawialiśmy o tym, co jest GitHub, co było wcześniej, wcześniej był SVN.
A teraz te tłumaczenia zostaną przeniesione na taką bardziej współczesną platformę, która też ułatwi sprawę zarówno tłumaczom, jak i samemu NVX-owi prawdopodobnie.
oraz Windowsa Server 2012 i to pozwoli NV Access na rozwój MVA dla bardziej współczesnych systemów i ich najnowszych funkcji związanych z dostępnością.
Windows 8.1, jego wsparcie zakończyło się już kilka lat temu, z tego co pamiętam,
Także no tutaj myślę, że większość użytkowników Windowsa 8.1
prawdopodobnie przerzuciła się przynajmniej na Windowsa 10,
także jeśli to pomoże w tym, żeby NVDA wspierał lepiej dostępność
na Windowsie, wykorzystywał jakieś nowe możliwości, które
w międzyczasie zostały udostępnione, to myślę, że to będzie jak
najbardziej dobry krok.
No i teraz przechodzimy do planów, które trochę bardziej
…i w odległym czasie, takim środkowo-terminowym, mają być realizowane i tutaj tych zmian mamy więcej.
Bezpieczne dodatki. Stworzenie bardziej bezpiecznego środowiska dla dodatków, aby zabezpieczać użytkowników od złośliwych dodatków.
Czyli po prostu prawdopodobnie tutaj będzie chodziło o to, żeby dodatki miały dostęp do wszystkich funkcji NVDA prawdopodobnie.
Pytanie, ile dodatków przez to zostanie ubitych, można tak to nazwać.
Pewnie też dlatego NVIDIA Remote będzie włączany do rdzenia NVIDIA.
Natomiast na pewno to będą zmiany, które będą wykonywane z pomocą deweloperów.
Na pewno takie funkcje, które są potrzebne, nie wiem, do tworzenia dodatków,
które mają coś tłumaczyć, wykonywać jakiegoś OCR-a, tego typu rzeczy.
One pewnie nadal będą dostępne.
Przepraszam, że tutaj będzie na pewno dwustronny dialog,
Tak, żeby te dodatki faktycznie cały czas były w stanie pozwolić nam na tyle, ile do tej pory.
Migracjaż do 64 bitów.
Aktualizowanie niskopoziomowego kodu NVDA w taki sposób, aby działał natywnie w środowisku 64-bitowym.
No, trochę kodu NVDA, bo sam NVDA jest pisany w Pythonie, ale niektóre części, na przykład część
odpowiedzialna za komunikację z przeglądarkami internetowymi,
żeby tryb przeglądania działał, no to one są pisane w C++,
takie bardziej niskopoziomowe języki programowania.
No i to generalnie powinno pozwolić na to, że ten kod będzie działał szybciej.
No i tutaj też chodzi o to, żeby to wszystko było bardziej zmodernizowane.
Pytanie, co wtedy będzie z syntezatorami, które nie wspierają tych 64 bitów.
Myślę tutaj na przykład o Eloquent’cie.
Jestem bardzo ciekawy, jak się to rozwiąże, bo jeśli samo MVDA będzie uruchamiana jako
64-bitowa aplikacja, no to może być z tym problem.
No to ciekawe, jak to wszystko będzie wyglądało, ale będziemy musieli poczekać.
Następna rzecz to jest lupa.
Stworzenie funkcji powiększającej ekran, aby lepiej wspierać naszych
użytkowników słabowidzących.
Następnie integracja MatCata do rdzenia MVGA.
MatCat, czy MavCat właściwie, to biblioteka odpowiedzialna za
przedstawianie wyrażeń matematycznych zarówno mową, jak i braille’em.
To jest taka najbardziej współczesna biblioteka, która na przykład wyparła
MavPlayera, który już nie jest rozwijany, no w tym momencie sam MavCat jest
jest dostępny jako dodatek i on faktycznie pozwala nam wtedy te wyrażenia czytać,
nawigować po nich. Jost też ostatnio eksperymentuje z dodaniem MavCata,
więc to też myślę, że to jest coś, co jak najbardziej może być potrzebne,
zwłaszcza, że MBA domyślnie nie jest w stanie tych żadnych wyrażeń matematycznych
np. w przeglądarkach czytać. Trzeba sobie jeden z tych dodatków zainstalować,
No a tak po prostu to powinno od początku tak naprawdę działać.
Poprawę wsparcia dla wielowierszowego brajla.
Poprawienia UX, czyli doświadczenia użytkowników podczas korzystania z wielowierszowych monitorów brajlowskich z MVDA.
No to jest na pewno coś, co warto będzie zrobić, bo tego jest coraz więcej.
Niedawno mieliśmy w Teflopodcastie audycję o Orbit Slate’cie, bodajże tak się to urządzenie nazywało.
Ale oczywiście tego też jest więcej, no bo mamy Monarka od APH i od Humanware
i pewnie tego typu sprzętów będzie pojawiało się więcej.
A czytniki ekranu dopiero swoją przygodę z tego typu urządzeniami zaczynają.
Chyba tak naprawdę voiceover na iPhonie tylko jako jedyny deklaruje, że jakoś to wspiera,
A inne czynniki ekranu to ewentualnie to po prostu traktuję jako taką jedną dużą minijkę brailowską.
A tak będziemy w stanie pewnie więcej informacji od razu zobaczyć w bardziej przestrzenny sposób.
I w tym samym sedniu następny punkt to jest wypukła grafika.
Fundamenty do wypukłej grafiki, wykonanie pracy, która pozwoli na włączenie, wyświetlanie
Wypukłej grafiki w NVDA, czyli tutaj jakieś dane graficzne po prostu będziemy mogli wyświetlać na takich graficznych monitorach brainowskich.
Tu jest znów Monarch, na przykład.
Tryb korporacyjny.
Kompatybilność i ustawienia związane z bezpieczeństwem, które pomogą w instalacji i zarządzaniu NVDA w środowiskach korporacyjnych.
No to jest też coś, co myślę, że jak najbardziej może być przydatne,
zwłaszcza w większych firmach.
Nie zawsze działy IT chcą taki otwarto-źródłowy program zainstalować,
a gdyby NVX zaoferowała taką wersję bardziej korporacyjną,
to może być większa szansa, że jeśli ktoś bardzo woli korzystać z MVDA,
a nie np. z JOS-a i nie potrzebuje jakichś skryptów specjalnych,
No to tutaj to dzięki temu będzie ułatwione jak najbardziej myślę, że to może być przydatne.
No na przykład też jeśli NVidia Remote będzie wcielony, to żeby były opcje, żeby to wyłączyć na przykład, no tutaj w różne kwestie związane z bezpieczeństwem.
Albo żeby dało się wymusić konkretny serwer, na który się może łączyć, czyli na przykład tylko właśnie wewnętrzny serwer firmowy.
Dokładnie. Następna funkcja też wydaje mi się całkiem może być przydatna i wpisująca się w aktualne trendy, zintegrowane opisy obrazków używając AI.
Darmowe, bezpieczne, wydajne, prywatne i skupione na osobach niewidomych, nienawidzących.
Na urządzeniu opisy zdjęć dostępne od razu po instalacji MVDA, czyli tutaj chodzi o to, żeby jakiś lokalny model był dla nas dostępny, który będzie działał nam na urządzeniu, który będzie w stanie nam jakieś proste opisy zdjęć używając sztucznej inteligencji wygenerować.
Tutaj jest powiedziane, że to mają być modele lokalne, a nie np. jakieś GPT,
no co faktycznie będzie dla nas bardziej prywatne i tego typu modele pomału zaczynają się pojawiać,
więc myślę, że będzie ciekawie, co ostatecznie zostanie zintegrowane.
I następny temat też powiązany z AI.
Prototyp pomocnego chatbota.
Sprawdzenie możliwości utworzenia chatbota opartego o sztuczną inteligencję,
który będzie w stanie podawać wsparcie techniczne i odpowiadać na często
zadawane pytania dotyczące NVDA. Czyli to jest to, co na przykład
Na pewno mamy tego Fs Companiona, no i NVXs też coś takiego rozważa.
Wsparcie dla naturalnych głosów Microsoft.
No i tutaj nic więcej nie trzeba dodać.
Tutaj chodzi o te głosy, które w Windows 11 się pojawiły.
One zresztą już są dostępne nieoficjalnie jako dodatek, ale tutaj mówimy o tym,
żeby to po prostu było do NVDA zintegrowane.
Webowy interfejs dla add-on-stora, czyli dla w cudzysłowie sklepu z dodatkami.
Webowy interfejs dla MVDA add-on-store, który pozwoli na łatwiejsze przeglądanie i przeszukiwanie dodatków.
Tutaj mamy automatyczne lintowanie kodu C++ i markdown.
To są takie funkcje, kwestie stricte programistyczne związane z kodem źródłowym.
To są narzędzia, które automatycznie upewniają się,
że na przykład wszystkie wcięcia są umieszczone tak, jak powinno być.
Wszystkie nawiasy i klamry są tam, gdzie powinny być tego typu sprawy.
To jest przydatne dla tych, którzy ten kod źródłowy czytają
i chcą z nim pracować.
Użytkownicy akurat tego nie widzą,
ale to jest coś, co jak najbardziej jest fajne
Dla tych, którzy z tym kodem pracują, to zapewniła, że po prostu ta jakość kodu
i to, jak on jest formatowany, jest spójna wszędzie. No bo nie zapominajmy,
że MVDA jest projektem otwartość głowem i tutaj mamy bardzo często wiele osób,
które nad nim pracuje.
Ujednolicenie licencji GPL, tutaj też chodzi o to, żeby wszystkie komponenty miały tą
Samą licencję tutaj, żeby wszystkie kwestie licencyjne były dopięte zarówno przy
samym MVGA, jak i wszelkim pomocnym, pobocznym bibliotekom, które są wykorzystywane,
czyli, nie wiem, jakiś e-speak, liblu i to są też biblioteki, które generalnie z GPL-a
korzystają, chodzi o to, żeby te licencje wszystkie się zgadzały.
Oficjalne materiały treningowe dotyczące MVGA dla testerów dostępności, czyli
I no tutaj tak mamy teraz dostępne w sklepie MVA Access materiały dla użytkowników,
no to podobne materiały zostaną wypuszczone dla osób, które pracują jako testerzy dostępności,
jak korzystać z MVDA pod tym kątem.
Tutaj pewnie to będzie zwłaszcza przydatne na przykład dla osób,
które na co dzień nie pracują z przednikami ekranu, osoby widzące na przykład,
które muszą za jakiś czas z MVDA korzystać.
I zastąpienie Py2exe, czyli tutaj znów kwestia programistyczna, to jest
biblioteka, czy właściwie narzędzie, które kompiluje MVDA z kodu źródłowego w
Pythonie do pliku .exe, który możemy sobie zainstalować, no i ta biblioteka po
prostu, jej wsparcie zostało, albo zostanie niebawem zakończone, więc po
prostu NV Access przemieści się, zmieni tą bibliotekę na coś, co cały czas jest
Ale my tutaj też znów jako użytkownicy pewnie różnicy nie zauważymy.
I długoterminowe plany, tutaj też mamy kilkanaście nawet pozycji.
Między innymi wyświetlanie atrybutów czcionek na wielowierszczowych monitorach brajlowskich.
Dynamiczne przełączenie tablic brajlowskich, czyli takie wykrywanie języków rozumiem.
No to też jak najbardziej może być przydatne w brajlu.
Synkronizacja ustawień na wielu urządzeniach,
pozwolenie użytkownikom na posiadanie przenośnych profili konfiguracyjnych
umieszczanych w chmurze, które są udostępnione na wielu urządzeniach.
Gdyby to na przykład działało tak jak…
To by było super.
Jak Joplin na przykład, jak to teraz mówimy, gdzie możemy sobie, nie wiem,
podpiąć po prostu jakiegoś Dropboxa albo wpisać dane do jakiegoś serwera.
No to byłoby super, no i też tutaj ewentualnie można by zaoferować użytkownikom opcję,
nie wiem, Envy Access Cloud, jakby ktoś nie chciał i to pewnie też byłby jakiś sposób
na zarobienie kilka dolarów, które by potem mogło projekt wesprzeć.
No jak najbardziej jestem za to, jak najbardziej by się przydało.
Jako osoba, która utrzymuje zarówno Envy na jednym komputerze, jak i na wirtualnej maszynie,
To by się czasami przydało, a często ludzie mają jeszcze tych komputerów więcej.
Także to jak najbardziej jestem za.
Poprawki w OCR-rze.
Dodanie alternatywnych silników OCR, m.in. tutaj po prostu, żeby ten OCR był bardziej dokładny.
Narzędzia asestorujące przed rozmowami wideo.
I tutaj chodzi o komunikaty głosowe i dźwiękowe,
…które pomogą nam dowiedzieć się o tym, czy np. widać nas w kadrze prawidłowo, czy nasza twarz jest widoczna na środku, czy jest wszystko prawidłowo oświetlone.
Coś, co Joss np. niedawno otrzymał, tutaj też mvaccess, coś takiego do mvga dodać.
Rozpoznawanie elementów interfejsu używając, tutaj znów sztucznej inteligencji.
Wykorzystanie uczenia maszynowego, aby zidentyfikować i interpretować nierozstępne elementy interfejsów, czyli po prostu rozpoznawanie ekranu, tak jak mamy na iPhone’ie, tylko że na Windowsie przez MVDA.
Jak najbardziej jestem za, bo to by się zdecydowanie przydało, bo chyba jedyny czytnik ekranu, który coś takiego ma, to oprócz VoiceOver’a, to jest ten chiński czytnik drugi,
O po ZSR-ze, o którym Arek opowiadał, więc fajnie byłoby, gdyby coś przetłumaczonego na inne języki miało taką funkcję.
Zakończenie wsparcia dla Windowsa 10.
Tutaj mamy informację, że oficjalnie wsparcie Windowsa 10 zakończy się w październiku 2025.
Przypominam, że będzie można sobie to wsparcie na rok przedłużyć.
W tym momencie NVIDIA Access pisze, że nie mają konkretnej daty, kiedy NVIDIA przestanie działać na Windowsie 10.
Podejmiemy tę decyzję w momencie kiedy będzie to dla nas ewidentne, że będzie to w najlepszym interesie naszych urzędkowników, żeby MVGA zakończył wsparcie na Windowsie 10 i to będzie miało miejsce w fazach, czyli spokojnie, to nie jest tak, że za ten rok Windows 10 nagle przestanie być wspierany, no przypominam tutaj Windows 8.1 jest wspierany do dziś, więc tutaj pewnie jeszcze kilka lat minie.
Zanim to wsparcie zostanie zazrzucone. Na przykład Windows XP przecież był wspierany do roku 2017, a wsparcie 2014 chyba zostało zakończone, także spokojnie, to tutaj jest napisane, nie stanie się od razu.
Telemetria związana z dodatkami, czyli MV Access będzie zbierało anonimowe dane o tym, jakie dodatki są instalowane na komputerach użytkowników.
…żeby zrozumieć, jakie dodatki są używane, w jakich miejscach i to pomoże w priorytaryzowaniu, jakie…
I to ma pomóc w rozwijaniu ekosystemu dodatków, ale pewnie też samego MVDA, na przykład jeśli MVX zobaczy, że dużo ludzi korzysta z jakiegoś dodatku,
no to może będą zastanawiać się, czy nie włączyć go do rdzenia MVDA.
I podobnie telemetria związana z wykorzystaniem różnych funkcji MVDA…
No i tutaj jakie sfery MVA wymagają poprawy na przykład i tutaj też telemetria nad
używaniem procesorów ARM, czyli tutaj z jakich komputerów wyrzutkownicy korzystają, jakie mają
procesory. I po tym wszystkim, jestem zaskoczony, że to jest dopiero tutaj, poprawa wsparcia
Poprawa UEA w Office’ie, czyli poprawa z tym, jak MVDA wykorzystuje biblioteki dostępności Microsoft’u do interakcji z aplikacjami Microsoft Office.
Wydawało mi się, że na tyle dużo osób z tego korzysta, a cały czas wiem, że są sfery, w których JAWS mimo wszystko radzi sobie w Office’ie lepiej niż MVDA,
że to byłoby wyżej, nie mniej jednak to mamy tą zmianę dopiero w tym miejscu.
No ale tutaj też, jeśli MVA ma, zwłaszcza w takich środowiskach korporacyjnych,
lepiej konkurować z JOS-em, no to myślę, że jak najbardziej to jest coś,
co powinno być zrobione. I tutaj konkretnie mamy napisane, że to…
Głównie chodzi o poprawę działania NVIDIA w Excelu.
I aktualizacja Pythona do wersji 3.13.
To też ułatwi życie programistom
i pozwoli na wykorzystanie wszystkich nowych funkcji,
które do tego języka zostały oddane.
Na pewno to spowoduje, że znów będzie trzeba dodatki aktualizować,
ale do tego myślę, że już przywykliśmy.
Tak że całkiem szczegółowo jest to rozpisane.
Możecie też sobie to sprawdzić.
Nie wiem, czy wy macie jakieś opinie na temat tego?
Wydaje mi się, że planów jest naprawdę całkiem sporo i jestem bardzo ciekaw, jak wyjdzie to z NVIDIA Remote, jeżeli uda się to zintegrować.
Bo to jest taka rzecz, która naprawdę myślę, że mogłaby wielu osobom pomóc, szczególnie tym, które zaczynają jakąś swoją przygodę.
To można by to było jeszcze jakoś bardziej zautomatyzować, żeby po prostu pomagać.
Mnie zastanawia jedna rzecz. Niedawno gdzieś tam ktoś mi pokazał taki build NVDA,
stworzony, zdaje się, przez kogoś z chińskiej społeczności, który był oparty na jakiejś
w miarę nowej alfie NVIDIA i tam była zaimplementowana funkcja
szybszej, lepszej
responsywności syntezatorów mowy. Działo to się w taki dość sprytny sposób
polegający na tym, podobno, że
jakby zanim wypowiedź będzie przekazana do
systemu, NVDA, no utnie ciszę, która po prostu w tej wypowiedzi jest jakby w pliku, który przygotowuje sobie syntezatormowy, no i na tej podstawie ma być jakby przyspieszone te wypowiedzi.
Czyli po prostu wytnie te mikropauzy między poszczególnymi wyrazami.
Nawet nie między, tylko na samym początku wypowiedzi.
To co w środku, to to jest nieluszane.
Natomiast rzeczywiście są syntezatory, które takie różne mikropauzy na samym początku mają.
I teraz podobno zostało to zaproponowane NV Access i ciekaw jestem…
Jest już przyjęte.
Czemu tego nie ma w road mapie?
Nie, bo to wyszło w ogóle zupełnie spontanicznie na zasadzie…
bo to co jest w road mapie to są oficjalne plany NV Access.
Nawet jeżeli zrealizuje to ktoś inny, to NV Access jakby ma w planach, żeby to się stało.
A to, co w międzyczasie ludzie zrobią, w sensie jak ty na przykład napiszesz pull request,
że chcesz, żeby NVDA miał taką funkcję, że przy włączeniu sprawdza konflikty,
czy tam, nie wiem, dodatki nie powodują konfliktów skrótów klawiszowych,
no to nikt ci nie zabroni. I o ile jest to jakoś tam zgodne z polityką NV Access,
tam w jakiś sposób, nie wiem, nie narusza czegoś innego, co oni postanowili,
Jeśli kod jest według ich jakichś tam wytycznych, no to spokojnie, to Ci to przyjmą.
Oczywiście po jakichś tam testach i iteracjach.
Natomiast to, co oni by chcieli, takie wielkosiężne plany mieć,
typu właśnie tu zintegrujemy matematykę, tu zintegrujemy remote’a, tu zintegrujemy AI,
no to jest bardziej element na roadmap. Chociaż rozumiem tutaj Twój argument,
bo to jest bardzo ważna zmiana, aczkolwiek ona tak już by the way
jest obciążona już jakimiś błędami, bo ludzie już to test,
Odkąd wyszła oficjalnie już alfa złączoną tą zmianą,
to już ludzie wykryli, że te bipy, które są przez NVIDIA
i czasem wydawane te piknięcia, też są już ucinane jako ta cisza,
że niektóre syntezatory po jakiejś nieaktywności
coś tam najpierw mają ucięte.
Tak że tu jeszcze będzie trzeba coś dostroić.
Okej.
Nie po prostu zastanawiałem się, być może…
Nie wiedziałem, czy to zostało przyjęte, czy nie zostało.
Ale okej, no to taka też…
Dziś zostało przyjęte.
Tak samo doszło ten rate boosting, czyli to jakby przyspieszenie,
podkręcanie szybkości we wszystkich głosach SAPI-5,
nawet tych, które natywnie tego jakby nie wspierają.
Jest ten Sonic, Leap Sonic, tak zaimplementowany,
że każdy głos można jeszcze dodatkowo ekstra przyspieszyć.
Bardziej niż on to sam obsługuje.
Mamy wiadomości na Whatsappie.
Mamy telefon też, zresztą.
To może najpierw telefon.
Okej, to odbieramy telefon. Ktoś z nami po drugiej stronie?
Dobry wieczór.
Dobry wieczór.
Milena z tej strony.
Witamy i słuchamy.
Ja mam pytanie jeszcze odnośnie iPhona, ale już innego typu.
No bo mam tego aplikację GarageBand.
I na przykład jak chce się tam zaimportować dzwonek,
No to wiadomo, najpierw trzeba nagrać ścieżkę.
Jak ja tą ścieżkę nagrywam, no to zanim się ta ścieżka nagrywa,
jest taki specyficzny dźwięk. I ten dźwięk się odtwarza nie na głośniku,
jakby tak jak normalnie się coś odsłuchuje, tylko na głośniku
takim telefonicznym. I mam takie pytanie, czy może wiecie,
czy są jakieś w tej aplikacji ustawienia, które by powodowały
Ten dźwięk otwarzał się normalnie na głośniku.
Tak się w ogóle stało od iOS-a właśnie 18, bodajże 2.1 chyba, czy tam 3.
W tym nowym iOS-ie tak się stało.
Ty nagrywasz ścieżkę, w sensie, że wkładasz nową ścieżkę do projektu,
czy na tej ścieżce jeszcze nagrywasz coś, na przykład mikrofonem czy czymś?
Nie, nie, nie. Nagrywam osobną jakby ścieżkę, bo żeby dodać po prostu jakiś tam klik…
Dzwonek, tak.
No, to muszę nagrać jakąś tam ścieżkę.
To nie wiem, szczerze mówiąc, może być, że to jest jakiś błąd.
Zawsze jakimś obejściem jest…
Znaczy się, nie wiem, bo mój chłopak na przykład też ma wersję iOS-a
najnowszą, teraz tam jest 18.3 bodajże, tak?
Ja też mam i u niego wszystko normalnie działa.
Właściwie tak mi się wydaje, tylko nie bardzo, kurczę, wiemy
jakie ustawienia mogłoby sobie odpowiadać, bo na przykład
Tak naprawdę miałam też taką sytuację, że jak normalnie wrzucałam ścieżkę, to nie było na przykład czasu. Jaki czas jest? Tylko były jakieś pętle, coś tam.
I ja tylko zapytam, jak rozumiem restart iPhone’a nie pomógł w rozwiązaniu problemu, bo może coś tam gdzieś się przestawiło?
Restartu nie robiłam iPhone’a, ale aplikację usuwałam i nie pomógł.
Aha, no to nie, no to raczej… Chociaż ja bym, wiesz, tak profilaktycznie zrobił.
No mogę spróbować, aczkolwiek no…
Też niespecjalnie, niespecjalnie wierzę, że to jakoś bardzo pomoże, ale no żeby wykluczyć, to ja bym spróbował.
No mogę spróbować, no tylko właśnie myślałam, że może, może wiecie właśnie jakie ustawienia mógłbym za to odpowiadać, bo są, jak tam się wejdzie w tą aplikację, są jakieś tam ustawienia, ale kurczę, jak takie przyglądałam, to szczerze mówiąc żadne mi z tych ustawień nie pasuje,
Żeby to wydana opcja, jakbyś ją włączyła, to żeby to zmieniła.
Dobra, spróbuję ten restart i zobaczymy, co z tego wyjdzie.
Może to coś pomoże.
No to tyle. Tam jeszcze zresztą moja wiadomość jest odnośnie tego Ekera,
ale to już nie będę się powtarzała.
No to dzięki za telefon. Pozdrawiamy.
Dzięki, miłego wieczoru.
Wzajemnie, pa.
Właśnie miałem odtworzyć też wiadomość głosową od Mileny właśnie, więc odtworzę przy okazji.
Witajcie z tej strony jeszcze raz Milena. Ja tutaj kwestii aplikacji Ether na iPhone’ie i TychloRadia.
Sprawa u mnie i u chłopaka się rozwiązała, jak chodzi o TychloRadio, grałem w wszystko na Etherze.
A co trzeba było zrobić? No, trzeba było po prostu zmodyfikować ten adres URL,
czyli, bo w aplikacji Ether, jak wyszukiwałam, ja i chłopak wyszukiwaliśmy,
no to był podany adres https://radio.teklopodcast.net.ukosnik i ten adres owszem
działał, ale tylko na sieci komórkowej na Wi-Fi nie. Natomiast tak zmodyfikowaliśmy adres,
Tak jak właśnie podawał Wojtek, czyli bodajże Wojtek.
http://radio.tyflopodcast.net 2.8000
No to teraz ten adres, ten stream działa i na sieci komórkowej i na wi-fi.
To tyle, pozdrawiamy, miłego wieczoru.
Bardzo ciekawe jest to, co u was jest takiego w sieci,
Nie pozwala temu radiu się odtwarzać w ten bezpieczny sposób, który właśnie zazwyczaj większość współczesnych urządzeń lubi.
No ale to naprawdę zagadka.
I wiadomość jeszcze mamy od Roberta.
Dobry wieczór, Roberto Lombino z tej strony.
Chciałbym tylko trochę ostrzec tych z Was, którzy może już eksperymentowali i instalowali aplikację BliQ przez Q na końcu.
Tę o której mówiliście chyba w zeszłym tygodniu albo dwa tygodnie temu, czyli ten agregator przejazdów do porównywania cen na przykład Uber, Bolcier, FreeNow itd.
Bo przedwczoraj dostałem od Ubera wiadomość, że proszą mnie o zmianę hasła,
że zauważyli nieautoryzowany dostęp do konta i tak generalnie to,
że współdzielenie konta z kimś to jest łamanie ich regulaminu.
Powiem Wam, że troszkę o tyle się chwilowo rozczarowałem,
że myślałem, że skoro Bliku jest w sklepach z aplikacjami,
to że oni już z Uberem i tymi wszystkimi innymi platformami się dogadali.
Jak o to chodzi.
Trochę mi się to kojarzy z sytuacją Mirandy i Facebooka parę lat temu,
Gdzie jak się wchodziło z klienta Miranda,
czyli logowało się na Facebooka, żeby móc pisać z kontaktami znajomymi,
to Facebook potrafił blokować konta.
Ja w tym przypadku teraz na Uberze musiałem normalnie zmienić hasło.
Musiałem, po prostu inaczej się nie dało, inaczej mnie nie logowało.
Mówią, że mam nieprawidłowe hasło już potem.
Klucze paski, które sobie utworzyłem na smartfonach obu, no to też mi nie rozpoznawało.
Mówiło mi, że są nieważne.
I w tym momencie napisałem do wsparcia właśnie Bliku, co oni o tym sądzą, jak mogą mi doradzić,
czy rozwiązywali ten problem. No i zobaczymy.
W każdym razie myślałem, że będzie dobrze. Nie wiem, czy Uber nie chce konkurencji,
Czy tego po prostu nikt nie przewidział?
Ale jest na razie taka sytuacja.
A ja na ten moment nie jestem zalogowany
w pliku na Uberze, bo
nie chcę ryzykować, że mi Uber zablokuje konto
za łamanie regulaminu.
To tak. Miłego prowadzenia audycji.
Jeszcze życzę. Na razie się trzymajcie. Cześć.
Dobrze, że faktycznie o tym mówisz.
No bo rzeczywiście warto o tym wiedzieć, w razie czego,
żeby ktoś nie dostał problemu.
W międzyczasie przyszła jeszcze wiadomość od Maćka.
Cześć Wam. Ja dziś postaram się w miarę krótko,
zwłaszcza z racji ostatniego mojego występu tam u Was,
W każdym razie, odnośnie do aplikacji radiowych i radiobrowsera,
jezu, tego, broadcasta, przepraszam, to kwestia jest taka, że ja też miałem problem
z Tyfloradiem, a i owszem, tylko że dodane go do ulubionych, bo po tym,
jak się ten adres zmienił i tak dalej, to słuchajcie, ja to usunąłem z ulubionych
sobie ten stream. I jeszcze raz w tej wyszukiwarce stacji, jeszcze raz sobie to pobrałem,
znaczy wyszukałem, no i dodałem jeszcze raz do ulubionych i wszystko generalnie działa,
więc wszyscy ci, którzy macie ten problem, zwłaszcza w broadcastie, ale w Etherze,
w innych aplikacjach, no tak jak usunąć dotychczasowy stream z ulubionych i generalnie
dodać sobie jeszcze raz, nawet nie to, że z linku,
gdzieś tam z URL-a, tylko po prostu wyszukując,
przeszukując katalog stacji, to też powinno zadziałać
i wtedy będzie. To jest rzecz jedna.
Druga rzecz odnośnie tego radio.tiflopodcast.net
bez 2.8 tysięcy. Dobrze mówię? 8 tysięcy.
To faktycznie tam coś z SSL-ami się pochrzaniło,
bo faktycznie tam jest, że witryny na próbę udawać,
witryny radio Tiflopodcast.net i tak dalej,
No tutaj się właśnie coś tam z tymi certyfikatami pomieszało,
więc wartałoby tam coś pomyśleć o jakiejś tam aktualizacji,
żeby użytkownika to gdzieś tam nie wprowadzało w konsternację,
zwłaszcza te komunikaty Safari, to są wiecie, takie o Jezu,
że może wykraść dane finansowe, a coś tam, a kogo jak kogo,
ale was w sumie o to nie podejrzewam.
Droga jak i po Tyflopodcastu, więc właśnie wypadało to zrobić.
Co do porównania Jeminaja i GPT i Co-Pilota od Microsoftu,
to jak sobie to testowałem, słuchajcie, pod kątem różnym,
to to, co tak naprawdę jest, wyróżnia tego Jeminaja według mnie,
to są te głosy, jakość tych głosów generalnie, to, że one są naprawdę fajne,
takie, ja wiem, czy krystaliczne, ale naprawdę fajne.
No i tutaj to bym rzeczywiście, pod tym kątem, to bym normalnie się pokroił za Geminaja.
Oj, owszem. Natomiast jeśli chodzi o jego ogarnięcie, to powiem szczerze,
taka lotność umysłu sztucznego, bo sztucznego, ale umysłu, to niestety nie jest to.
To naprawdę robiło mi różne rzeczy. Dodam tylko, że to była darmowa wersja Google Gemini,
Ale co-pilot od Microsoftu już sobie radził lepiej.
On za to ma najbrzydszy głos i nie da się w ogóle go zmienić.
I generalnie mega dziwny ten głos jest, jak dla mnie.
No i za to sobie lepiej radzi, jeśli chodzi o taką mloptość,
o ogarnianie różnych rzeczy.
Najgorzej na przykład sobie za to radził z tłumaczeniem
z danego języka na drugi, jeśli chodzi o bycie takim,
no, pstrykty asystentem, wiecie, takim pośrednikiem komunikacyjnym,
takim tłumaczem ustnym po prostu, to sobie radził nijak.
Na drugim miejscu był Jeminaj, przy czym radził sobie bardzo słabo.
Mało tego, nawet jak mu kazałem coś mówić,
żeby do mnie mówił po niemiecku, na przykład nie coś tam, że…
Na przykład, no dobra, chętnie ci pomogę, coś tego typu.
No to GPT od razu mówił coś w stylu
z akcentem normalnie niemieckim, a ten to w ogóle, a natürlich tego,
a ten, a ten naturlich, coś tam, ich helfe dirgerne,
coś wiecie, w ogóle z polskim akcentem bez niczego,
taki, no ten Gemini, jeśli chodzi o taką…
Zresztą co-pilot sobie akurat z tłumaczeniem nie poradził w ogóle
i z przełączeniem się na obcy język, na inny język w locie.
Jeminaj radził sobie jak taki średnio rozgarnięty dzieciak i to jeszcze taki, który się nie wyspał i naprawdę miał problemy gdzieś tam z myśleniem.
Najlepiej sobie z tych wszystkich modeli trzech wymienionych radził GPT.
Z czego, no, też muszę przyznać, że akurat w płatnej wersji mam GPT+.
Pozostałe modele testowałem w tych darmowych wersjach.
Tak, jest co prawda możliwość wykupienia tego modelu od Google
na miesiąc też próbny, jakby za darmo przetestowania.
Ja się tego nie zrobiłem, dlatego tym bardziej będę Patrykowi i tobie, Patryku, wdzięczny, jak go przetestujesz.
No i jak, że tak powiem, się tym też podzielisz, jak ten Gemini po prostu ci się sprawdza.
Bo jeśli chodzi o GPT+, to on mi się tutaj rzeczywiście sprawdza najlepiej z tych wszystkich modeli.
Ten tryb zaawansowany wideo, znaczy tryb głosowy zaawansowany jest świetny.
Video w sumie też, ale jak zostało już też wspomniane, ja trochę o nim dużo mówiłem.
Zresztą mam prezentację taką 18-minutową, więc nie wiem w sumie, co z nią zrobić.
czy na kolejny Tyflop przegląd ją wam przesłać w sumie,
czy w ogóle w formie takiego podcastu, żebyście ją opublikowali,
bo i tak to w sumie już zmontowałem, powiedzmy,
i ten tylko tam wstępnie początek by dograć.
No, w każdym razie mam.
I w sumie fajnie by było sobie coś kogo wyemitować, nie?
To tak a propos też, co mówił Wojtek,
że się ludzie dzielą tym najlepszym, co mają.
No, ja tak sobie zrobiłem.
To w sumie zaczęło się od kilku znajomych,
generalnie, żeby im przesłać, z myślą oczywiście o typloprzeglądzie też,
ale jeszcze tego nie opublikowałem. Teraz zastanawiam się w sumie,
czy tak na typloprzegląd, na kolejny, bo teraz już i tak jest…
dosyć się robi, godzinka taka, czy po prostu w formie podcastu
kolejnego gdzieś tam, jako odcinka osobnego. No, to ode mnie tyle,
miało być krótko, a wyszło jak zwykle.
Ale jeszcze wiadomość jest od Maćka.
Jedna…
Ja natomiast dodam, że zajrzałem do tych certyfikatów i podejrzewam, że problemem może być to, że właśnie dziś, w okolicach godziny 16, te certyfikaty zostały odświeżone.
Prawdopodobnie po prostu jeszcze u co niektórych te certyfikaty się zwyczajnie nie zaktualizowały.
Może tu coś być na rzeczy, bo innego wyjaśnienia nie mam.
Ja w tym momencie właśnie sobie sprawdziłem. Wszystko działa tak jak trzeba.
Pokazuje mi przeglądarka, że certyfikat jest prawidłowy.
Ale dlaczego iPhone sobie na przykład nie radzi z takim bieżącym odświeżaniem tych certyfikatów?
To jest zagadka.
No to może dajcie znać albo w komentarzach, albo podczas przyszłej audycji.
To się przez ten tydzień zaktualizowało i mamy jeszcze właśnie drugą wiadomość od Maćka.
Cieszę też dostępność Ethera, że się tam poprawiło to i owo i że wow, nie bali się wspomnieć, wzmiankować o tym w swoim część logu w App Store.
No w każdym razie to ja długi czas temu, nie wiem, z półtora roku czy dwa lata temu, no jakoś tak pisałem do autora generalnie,
Aplikacja bądź co bądź dostępna była w sumie, ale swoje tam gdzieś tam zza uszami miała.
No długo, w sumie odpowiedzi do tej pory nie dostałem.
Natomiast, no nie wiem, czy to to, czy nie to, czy jeszcze inni pisali, czy jeszcze w międzyczasie się doedukował o tej dostępności.
Ale, jak to mówią, kropla dąży skałę, więc fajnie jest rzeczywiście do twórców pisać o zapełnieniu tam dostępności,
o poprawki dotyczące tej dostępności, nie?
W sumie, nie wiem, na ile się, że tak powiem, mój głos do tego przyczynił,
ale fajnie jest wiedzieć, że tam te poprawki są wdrażane.
Ja, szczerze mówiąc, zniechęcałem troszkę tą stagnacją poniekąd,
że tam się z tym voice overem mało co działo.
W sumie pytanie, jak wersja Apple Watchowa, czy tam już ona działa trochę lepiej,
jeśli chodzi o dostępność, bo tam się różne rulniczne,
wręcz wypowiedzi voice overa wkradały.
No, ale do to ja generalnie z broadcasta w tym momencie korzystam, jeśli korzystam.
Natomiast Etera jakoś porzuciłem na jego rzecz, troszkę zniechęcony.
Ale w sumie może przetestuję, bo ja nawet nie testowałem tego po wprowadzeniu tych poprawek.
Także tak to.
I tyle jeżeli chodzi o wiadomości od słuchaczy, od Was.
Jeszcze sprawdzę, czy w międzyczasie coś się nie pojawiło, ale się nie pojawiło.
Zatem przed nami dwa nasze stałe punkty programu.
Zacznijmy może sobie od drobnych newsów.
Tak, i tutaj widzę, ogólnie mamy takie cztery nowości, po dwie ode mnie i od Pawła.
I same dobre tym razem, także myślę, że z tego możemy się jak najbardziej cieszyć.
To będą głównie aktualizacje aplikacji mobilnych, ale nie tylko.
No i pierwszą taką aplikacją, która się zaktualizowała jest Be My Eyes,
która doczekała się dużej, zimowej aktualizacji, jak to napisali na swoim blogu.
Swoją drogą, Be My Eyes, tak a propos rocznic różnych, no to Be My Eyes w tym roku
będzie obchodzić swój pierwszy jubileusz w dziesięciolecie.
Nie wiedziałem, że Be My Eyes już tyle z nami jest, no ale jednak faktycznie w 2015 usługa została uruchomiona i z jakiegoś powodu mi tutaj strona nie chciała przez chwilę czytać, ale co tutaj się nam pojawiło.
Jeśli chodzi o nowości w tej aktualizacji, no to po pierwsze podczas rozmów wideo, kiedy rozmawiamy z wolontariuszami lub z pracownikami firm, które biorą udział w partnerskim programie,
Będziemy teraz mieli dostęp po prostu do wyższej rozdzielczości podczas tych rozmów.
Będzie to teraz full HD, co po prostu znaczy tyle, że ten wolontariusz będzie po prostu widział
bardziej wyraźny obraz. Ta rozdzielczość będzie większa i dzięki temu ten obraz nie będzie taki rozmazany.
Więc jeśli chcemy poprosić o pomoc w czymś gdzie na przykład jest jakiś mniejszy tekst,
To są jakieś mniejsze detale, no to one po prostu teraz powinny być bardziej widoczne dla tej osoby.
Dla osób, które nie są użytkownikami voiceover’a czy talkback’a, czyli tutaj chodzi głównie o osoby z połowu widzące,
ale lubią czasami sobie z BeMyAI skorzystać, żeby np. jakieś zdjęcie sobie opisać,
no to osoby prosiły o to, żeby aplikacja mimo wszystko była w stanie nam te odpowiedzi BeMyAI czytać.
No i to zostało wprowadzone. Jeśli czytnik ekranu jest wyłączony, a udostępnimy jakieś zdjęcie do BeMy.ai i ten asystent nam wygeneruje opis, no to po prostu aplikacja ten opis nam odczyta na głos.
I następna nowość, która może się przydać, mianowicie jest to zapisywanie i udostępnianie zdjęć.
Zdjęcia zrobione w aplikacji, jak i opisy wygenerowane przez AI mogą teraz być zapisane na stałe do rolki aparatu lub udostępnione ze znajomymi lub rodziną poprzez link.
I to działa tak, że jeśli klikniemy sobie opcję zapisz, to na iOSie jest w czynnościach na tym zdjęciu.
Kiedy mamy opis od AI, mamy to zdjęcie, po prostu schodzimy sobie czynnościami i tam oprócz z kopii opis teraz mamy opcję zapisz i opcję udostępnić.
Jeśli klikniemy zapisz, no to to zdjęcie po prostu nam się zapisze w rolce aparatu i to jest o tyle fajne, że ono nam się właśnie też zapisze z tym opisem.
To jest pewnie wpisany, nie wiem, w to pola podpis, czy tam też ten format EXIF-owe metadany też wspierają opisy.
I rezultat tego jest taki, że po prostu, kiedy my sobie później w aplikacji zdjęcia przeglądamy naszą galerię,
to VoiceOver nam automatycznie ten opis też odczyta.
Także przypuszczam, że to spowoduje, że dla wielu osób domyślną aplikacją do robienia zdjęć może stać się BYAI.
No chociaż nie dostajemy informacji o tym, czy mamy odpowiednio wszystko skadrowane.
Ale pewnie dużo osób będzie sobie w tej aplikacji teraz zdjęcia robić po części,
dlatego że te opisy są generowane automatycznie i możemy je sobie od razu zapisać.
Natomiast jeśli użyjemy opcji udostępnić, no to wtedy nasze zdjęcie jest wysyłane
do Humora, znaczy Humora już jest, ale jest do niego tworzony link.
My ten link sobie możemy później jakieś już sobie wysłać, no i ta osoba będzie mogła
zarówno popraść to zdjęcie, jak i
zobaczyć wygenerowany opis.
Natomiast warto wtedy wziąć pod uwagę
to, że takie zdjęcia
są przechowywane
na serwerach przez
przez czas, tak naprawdę
nie określamy tak domyślnie,
one są przechowywane przez 30 dni
tam w celach diagnostycznych i
jeśli zgodziliśmy się na to, to
chyba poprawię jakości tych
opisów.
Dlatego warto też to wziąć pod uwagę, że wtedy te zdjęcia po prostu będą na serwerach BMI.ai przechowywane dłużej.
Możemy to cofnąć poprzez usunięcie tego linku, natomiast jak piszę w samej aplikacji, gdybyśmy chcieli później taki link cofnąć,
no to musimy skontaktować się ze wsparciem technicznym, wysłać im maila.
Także ja bym raczej proponował, jak już coś, to po prostu zapisywać sobie te zdjęcia do rolki aparatu,
a później je wysyłać do znajomych przez inne komunikatory.
Nie wiem, czy wszystkie te opisy zachowają.
Na pewno wiadomości aplowskie powinny.
Na przykład też wiem, że Mona, jeśli wysyłamy takie zdjęcie na Mastodona,
to automatycznie jest w stanie ten opis czytać
i wkleić w odpowiednie miejsce do pola na tekst alternatywny.
Więc no, miejmy nadzieję, że więcej aplikacji będzie w stanie takie rzeczy robić.
Ale samo to właśnie, że możemy sobie w łatwy sposób
Zdjęcia zapisać z tymi opisami w roce aparatu to jest, myślę, bardzo fajna nowość.
Mamy zarządzanie danymi użytkownika.
Właśnie, opisy będą zapisywane przez 30 dni i później zostaną usuwane.
Tutaj to jest związane z regulacjami prywatnościowymi na całym świecie.
I w ustawieniach mamy też możliwość wypisania się z programu treningowego do AI.
O właśnie, czyli tutaj już nie musimy kontaktować się ze wsparciem, bo kiedyś to było tak, że wszyscy dostali link.
Jakby komuś ten link się zgubił, no to trzeba było do wsparcia pisać.
A teraz z poziomu ustawień możemy wypisać się z tego programu treningowego,
który po pierwsze może czasami wysyłać jakieś wyrywki naszych rozmów z wolontariuszami
w celu szkolenia AI, no i może też dane treningowe będą wykorzystywane podczas
robienia zdjęć. No tutaj mamy informację, że jakiekolwiek dane identyfikujące
powinny być z tych zdjęć usuwane, no ale jak ktoś chce być pewny, że nic takiego
nie trafi, no to do ich sieci, do tych danych treningowych,
no to można się wypisać. Ale mimo wszystko też warto zwrócić uwagę, warto raczej
takich bardzo wrażliwych danych w ten sposób, nie wiem, jakichś kart, dowodów
Nie opisywać raczej, myślę.
I to jest wszystko.
Wcześniej tutaj widziałem informację, że jakieś nowe skróty się na iOS-ie pojawiły,
że można szybciej sobie wywołać połączenia albo skorzystać z nim,
ale teraz ta informacja mi uciekła.
Tak, o tym czytałem i tak to zrozumiałem.
Nie wiem, czy dobrze, że można tak jakby robić skróty,
w których są już zaszyte, predefiniowane pytania do AI-a.
Dobrze to zrozumiałem?
Właśnie ja mam taki problem, że teraz nie widzę w ogóle tej informacji.
W każdym razie w jakiś sposób mam wrażenie, że to znana złą chyba.
Bardzo skrótowo jest to opisane, natomiast warto sobie po prostu to w skrótach przejrzeć.
Czy faktycznie tam można własny prompt od razu sobie wpisać,
no bo jeśli tak, to byłoby fajne.
Ale głowy nie da mi tutaj to bardzo szczegółowo opisane.
Niestety nie jest.
No i teraz następna aplikacja,
aplikacja, o której mówiliśmy w zeszłym tygodniu,
o której mówił Paweł,
czyli aplikacja Tapestry od The Icon Factory.
Aplikacja, która pozwala nam
w jednym miejscu czytać informacje
z wielu źródeł, czyli kanały RSS,
podcasty, Mastodon, Bluesky
i wiele, wiele innych
deweloperzy mogą też tą aplikację
rozszerzać. Jej pierwsza
wersja wystartowała
z kilkoma dosyć irytującymi błędami dostępnościowymi.
Było tam trochę niezaetykietowanych przycisków, no i każdy post, każdy element
może bardziej na tej osi czasu, był rozbity na kilka elementów.
I to było coś irytujące, zwłaszcza jeśli post na przykład miał dużo zdjęć, no to
tam trzeba było 8-9 razy nawet machać, żeby przejść do następnego elementu.
Ale już na początku było obiecane, że ten błąd zostanie naprawiony, tylko po prostu ta aktualizacja…
No, nie zdążyli z tą aktualizacją do daty, którą sobie wyznaczyli na start tej aplikacji.
Na szczęście kilka dni później ta nowa wersja, która ten błąd naprawia, już została udostępniona w App Store.
I od tego momentu jedno przesunięcie palcem to jest jeden element na tej osi czasu.
A wszystko to, co wcześniej było dostępne jako to jakieś niezadecydowane przyciski,
czyli jakieś właśnie łącza zdjęcia, które są dołączone do danego postu,
mamy dostępne pod czynnościami. Jest to czytane w takiej kolejności w tym momencie,
że najpierw słyszymy, z jakiego źródła dana informacja przychodzi, kiedy ona została
opublikowana np. 5 godzin temu, później słyszymy jej tytuł i po chwili,
Jeśli korzystamy z tego widoku rozwiniętego,
no to też usłyszymy jego zawartość.
Jeśli tak jest długi, to może to też chwilę zająć,
zanim syntezator zacznie go czytać, ale to faktycznie działa.
Tak że fajnie, że ten problem został naprawiony.
Ludzie tutaj sugerują, że można dodać jakieś opcje,
żeby zmienić kolejność tych informacji.
Kto wie, czy to się nie pojawi.
Ale myślę, że to był taki najważniejszy problem
Jeśli chodzi o dostępny cel aplikacji, no i on, na szczęście, już został naprawiony.
No i to wszystko ode mnie, ale to jeszcze nie koniec drobnych newsów.
Zgadza się, bo również aktualizacja przyszła aplikacji Eleven Labs Reader.
I tam też są wymienione jakieś poprawki voice-overa w liście zmian,
ale jako, że aplikacji nie używam, to niestety nie wiem, gdzie konkretnie,
ale ważne wiedzieć, że coś się poprawia.
No i LibreOffice, czyli dawniej OpenOffice lub też kontynuacja bardziej rozwojowa OpenOffice’a,
czyli otwarty pakiet biurowy. Taka darmowa, otwarto-źródłowa alternatywa dla Microsoft Office’a.
Tam też przyszły poprawki, m.in. elementy, różne kontrolki. Mają teraz identyfikatory,
które można przesyłać czytnikom ekranu, aby czytały nazwy tych kontrolek.
Tu już po prostu jakiś etykiet nie było albo stanów kontrolek pokazywanych.
Teraz to jest już. NVIDIA powinien tamte pewne przyciski i różne rzeczy lepiej czytać.
Też NVIDIA od teraz jest w stanie odbierać informacje o układzie dokumentu w Writerze,
czyli w odpowiedniku Worda i czytać go po prostu od góry do dołu poprawnie,
czyli pewnie jak się puści Czytaj Wszystko, to tam się nic nie łamie itd.
No i też dodano wsparcie różnych tak ogólnych narzędzi dostępnościowych.
Także już teraz nie jest to ograniczone do jakichś konkretnych czytników,
tylko każde narzędzie, które się melduje jako narzędzie dostępności
powinno jakieś odpowiedzi od tego LibreOffice’a otrzymywać,
więc jako przykład podane było na przykład, że jest wsparcie podstawowe narratora.
No i poprawiono też błąd, kiedy aplikacja potrafiła się wysypać,
kiedy weszliśmy z włączoną technologią wspomagającą w jedno z bocznych menu.
No więc fajnie widzieć jakiekolwiek zmiany, no i zobaczymy jak to się dalej rozwinie.
I drugi oczywiście pakiet newsów, czyli nowości z gier.
Tym razem zdaje się tylko od Piotrka.
Tak, minął tydzień, ale mimo to nazbierało się tyle wiadomości,
że możemy spokojnie taki pakiet sobie przedstawić.
przedstawić i nawet jak słyszeliście, to nie było wszystko, bo jeszcze nam Patryk
kilka ciekawych informacji wcześniej jeszcze dorzucił.
Natomiast co ja znalazłem? Znalazłem coś między innymi dla fanów komiksów.
Dzięki Masudonowi, bo z tego co rozumiem, to nie są nowe do końca gry,
natomiast fakt, że one stały się dostępne, to jest nowość.
Są to gry na iPhona od firmy
Zarfholm Software Consulting, mam nadzieję, że dobrze czytam.
Są to po prostu interaktywne komiksy, w których możemy generalnie podejmować różne decyzje
i na podstawie tego, jak my te decyzje podejmiemy, historia będzie otoczyć się w innych kierunkach.
Tutaj mamy na przykład jakieś przygody związane z piratami, jakiś komiks,
w którym walczymy z lewiatanem jakimś.
Między innymi tych komiksów jest kilka, są chyba trzy.
Każdy kosztuje 19 zł.
No i mamy informację, że każdy panel, który zobaczymy, został opisany dla voice-overa,
więc jesteśmy w stanie zobaczyć, co w danym miejscu, na danej stronie się dzieje.
No i na tej podstawie możemy podejmować kolejne decyzje,
Które zmienią tok fabuły, tok historii.
Także jeśli lubicie komiksy, myślę, że warto się jak najbardziej zainteresować.
Natomiast jeśli lubicie gry, RPG, gry inkrementalne, np. jak Wam się spodobał
Warshop na przykład, chociaż tutaj mamy do czynienia z grą troszkę prostszą, no to
Mamy kolejną grę na iOS-a od człowieka, który już kilka takich gier dostępnych i takich ciekawych stworzył.
Na przykład taką grę jak Nano Empire, jak Eveline’s Farm.
To też była taka ciekawa gra, w której przyjmujemy ogłoszenie, które znaleźliśmy w internecie.
Przychodzimy na farmę takiej starszej pani, właśnie Eveline, żeby pomagać jej w różnych
Można się zapisać na testy w Test Flight lub sobie grę w przedsprzedaży zarezerwować.
To znaczy sama gra będzie darmowa, przynajmniej jej pierwsza część, a żeby później
odblokować drugą połowę, jeśli nam się gra spodoba, to będzie to kosztowało 3 dolary,
czyli nie jakoś dużo, pewnie koło, nie wiem, 15 złotych u nas, więc nie powinno być
generalnie drogo, kiedy gra się pojawi, ale jeśli ktoś nie boi się testować, to
można do Test Flighta się zapisać.
Będzie do tego wszystkiego linki w komentarzu.
Generalnie wątek jest na forum Audio Games,
no ale forum dzisiaj znów złapało zadyszkę,
więc też po prostu do notatek wkleiłem wszystkie linki,
zarówno do App Store, gdzie można sobie tą przedsprzedaż zarezerwować,
jak i do Test Flighta.
I możecie po prostu tam to zrobić.
Co w tej grze robimy?
Wcielamy się w złotą rączkę, która musi pomagać po prostu blokatorom bloku.
I ci blokatorzy mają też właśnie różne sytuacje, od na przykład jednym z pierwszych mieszkań, do którego wchodzimy,
akurat właściciela nie ma, ale mamy zestawioną notatkę, że jego toaleta wydaje z siebie jakieś dziwne dźwięki.
No i też biorąc pod uwagę nazwę Majrzyku Maintenance Mystery
możemy przypuszczać, że pewnie w tej toalecie coś jest, nie tylko awaria.
No, a generalnie też po prostu możemy gadać z naszej postaci,
naprawiać te rzeczy, wtedy musimy odczekać, żeby ta naprawa się zakończyła.
I tutaj mamy takie elementy inkrementalne.
Natomiast jednocześnie też mamy fabułę, którą przechodzimy
i nasza postać zdobywa doświadczenie.
Kolejne poziomy doświadczenia.
Każdy poziom daje nam punkty, które możemy rodostrybuować do różnych umiejętności,
czy to właśnie naprawiania do naszej empatii, która przydaje się podczas rozmowy z postaciami,
czy do umiejętności walki, więc będziemy tutaj też z różnymi potworami pewnie walczyć.
Ja dopiero zacząłem grać w tę grę.
Natomiast też po prostu możemy naszą postać na różne sposoby rozwijać.
Jeśli lubicie takie proste gry tekstowe, no to myślę, że jak najbardziej warto się zainteresować, zwłaszcza, że ten deweloper od początku dbał o dostępność swoich gier, no i nie inaczej jest w tym przypadku.
Już na start mamy informację, że wszystko powinno być z voice-overem dostępne.
I na koniec coś dla tych, którzy lubią gry wyścigowe, gry takie zręcznościowe.
Mamy nową grę audio dostępną na prawie wszystkie platformy w sumie.
Bo i Windowsa, i Maca, i Linuxa, i Androida, no bo tutaj mamy grę napisaną w silniku NVGT.
Gra nazywa się Wheels of Trio.
Jest dostępna na portalu Itch, na te wszystkie wcześniej wspomniane platformy.
Natomiast na Macu trzeba w terminalu wpisać dwa polecenia, żeby gra się uruchomiła,
bo ten system na początku nam do niej dostęp zablokuje.
Ale kiedy to zrobimy, no to już powinno wszystko działać.
No i co my w tej grze robimy?
Ścigamy się na locowo wygenerowanych torach.
Możemy sobie w wystawieniach zdecydować,
ilu będziemy mieli przeciwników i ile chcemy zrobić okrążeń.
I co na tych torach znajdziemy?
No, będziemy musieli pokonywać zakręty w lewo lub w prawo.
Musimy uważać, żeby nie zderzyć się z naszymi przeciwnikami.
Będziemy napotykać zarówno
pagórki i zjazdy w dół, które też będą miały wpływ
na prędkość naszego samochodu
i będziemy musieli zarządzać
naszą energią. Mamy
zarówno tutaj zdrowie
czy tam poziom zniszczeń samochodu jak i
poziom energii, który stopniowo nam się
napełnia i
możemy tą energię wykorzystać na kilka
sposobów. Możemy nasz samochód
przyspieszyć, możemy stworzyć wokół
niego barierę ochronną, która
zabezpieczy nas od uderzenia na przykład
w różne przeszkody
lub gdybyśmy się
zderzyli z innym samochodem, co by spowodowało, że nasze auto się po prostu zatrzyma.
No to używając tej energii musimy je najpierw naprawić, żebyśmy mogli jechać dalej.
A gdyby ta energia nam się skończyła, no to wtedy po prostu mamy koniec gry, wyścigu.
Nie dokończamy. No i tyle po naszej rozgrywce.
Gra jest generalnie bardzo prościutka i ma też bardzo specyficzny klimat.
No tutaj dźwiękowo ta gra mnie bardzo przypomina takie pierwsze wyścigówki na, nie wiem, na pierwszego PlayStation.
Nie wiem, czy ktoś na przykład grał w taką grę jak Ridge Racer, no akurat tutaj nie mamy takiej muzyki techno jak w Ridge Racerze.
Natomiast faktycznie te dźwięki dają tej grze taki klimat retro, ale spójny i to się też chwali, ale też jest takie poczucie prędkości.
No bo mimo to, że ten dźwięk samochodu słychać jest taki bardzo syntetyczny,
no to też słychać tam jakiś pogłos wiatru, jeśli jedziemy szybciej, jakieś różne świsty,
jak mijamy różne przeszkody, więc no ktoś tutaj za tą oprawę dźwiękową zadbał
i ona została zrobiona jak najbardziej w umyślny sposób.
Także jeśli lubicie takie właśnie proser zręcznościowe gry retro,
lubicie samochody, lubicie wyścigi i chcielibyście coś no znacznie prostszego
A zatem przechodzimy już do technikaliów i pierwsza rzecz, którą mamy, to jest od Michała informacja o tym, jak sobie zorganizować taki prosty generator.
Tak, takich generatorów jest naprawdę dużo.
Mówiliśmy już o nich kilkukrotnie.
Ja dziś natrafiłem na informację o naprawdę prostym narzędziu
i dlatego o nim tu wspominam.
Jest to narzędzie, które się nazywa SSG.
Static Side Generator.
Takie jest rozwinięcie tego skrótu.
I ten generator jest, co ciekawe, napisany za pomocą skryptów shellowych.
Czyli jeżeli korzystacie z jakiegoś serwera linuxowego, jeżeli macie dostęp do takiego konta, jeżeli zarządzacie, to będzie możliwość uruchomienia tego bez większego problemu.
Właśnie autor tu deklaruje, że przede wszystkim z myślą o tym stworzył to narzędzie,
Pozostałe te generatory, czy większość tego typu generatorów, no jest niby prosta.
Służy do budowania prostych stron internetowych, HTML-owych, bo tu nie mamy niczego w zasadzie więcej.
Natomiast, aby te generatory dało się uruchomić, to bardzo często trzeba instalować mnóstwo zależności.
A to narzędzie, po pobraniu z GitHuba, to w zasadzie powinno ruszyć na dowolnym serwerze, bo wykorzystuje po prostu różnego rodzaju polecenia systemowe i kilka najpopularniejszych zawartych w systemie bibliotek i narzędzi.
I co to narzędzie nam pozwala?
Przede wszystkim pozwala nam na tworzenie postów i stron i podstron.
Wszystko wpisujemy w formacie markdown, więc bardzo prostym formacie znaczników,
co do którego nie powinniście mieć najmniejszego kłopotu z formatowaniem dokumentów właśnie w ten sposób.
Oprócz tego możemy budować strukturę naszej strony w oparciu o foldery i pliki.
Czyli po prostu tworzymy sobie jakiś folder. W tym folderze tworzymy podfoldery.
W tych folderach umieszczamy pliki i właśnie w ten sposób będzie wyglądało menu naszej strony.
Z ciekawych rzeczy to jasny tryb ciemny jest wbudowany w to narzędzie.
Będzie można sobie przełączać te tryby wyświetlania naszej strony.
Możemy też, jeżeli np. ta nasza strona będzie się miała aktualizować dość regularnie,
wygenerować sobie automatycznie do niej kanał RSS.
I tak naprawdę to wszystko.
Koniec końców i tak ten generator wypluje nam zwykłe pliki HTML.
Trochę tam jeszcze jest Javascriptu, który no na przykład odpowiada właśnie za chociażby odpowiednie sposoby wyświetlania, ten tryb ciemny na przykład, jeżeli chcielibyśmy sobie włączyć to z tego co pamiętam jest właśnie realizowane za pomocą Javascriptu.
Jeszcze kilka dodatkowych narzędzi. Wszystko jak z tego korzystać, jak stworzyć taki swój szkielet i potem wypełniać go treścią opisane jest w pliku readme zawartym na githubie tego projektu i oczywiście wszystko dostaniecie w linku w komentarzu.
Będzie można sobie pokorzystać, no ja nawet nie wiem, czy nie użyję tego narzędzia do jakiejś swojej prostej strony, no bo jeżeli na przykład chciałbym po prostu zamieszczać tylko takie statyczne informacje, to akurat do tego w żadnym wypadku nie jest potrzebny WordPress, a wystarczyłby taki zwykły generator statycznych stron internetowych, a ten wydaje się naprawdę interesujący, przede wszystkim właśnie ze względu na to, że nie ciągnie za sobą
Mnóstwa różnych zależności, które na przykład mogłyby się okazać zupełnie niepotrzebne do żadnych innych projektów, tylko do tego.
I mamy wiadomość głosową od Maćka.
Tak swoją drogą, odnośnie jeszcze do Ubera, kwestii wprowadzania różnych dostępnościowych rzeczy.
To smutne jest to w sumie, że u nas w Polsce nie wprowadza się za bardzo tych rzeczy, o których jest mowa.
że niejako zostają wprowadzone na rynek amerykański.
Mowa tu na przykład swego czasu jeszcze Mikołaj dawno, dawno temu, nie wiem,
półtora roku, dwa lata temu, nie wiem, w każdym razie mówił o wprowadzeniu czegoś takiego,
że zwalnia się pasażera niepełnosprawnego z kosztów odnośnie do czasu oczekiwania kierowcy
na tegoż pasażera i na polskiej pomocy Ubera nigdzie w ustawieniach konta i tak dalej tego nie było.
W amerykańskim artykule był odnośnik gdzieś do tego, że można sobie o coś tego zawnioskować.
Jednakże jak ja to zrobiłem, to po paru dniach się support pytał, ale w ogóle o co mi chodzi,
w ogóle co to ma być i w ogóle to oni nie wiedzą i żebym jakoś to uzasadnił i jakoś tam…
W sumie poddałem się, bo nie będę się kopał z koniem, skoro nie wiedzą tu, nie?
Natomiast to, co było mówione też w zeszłym tygodniu odnośnie tego ustawienia
preferencji, jeśli o psa przewodnika chodzi, też tego nigdzie nie ma.
Przegrałem i ustawienia zarówno w aplikacji mobilnej, jak i w serwisie webowym Ubera
No i też tego nie ma, więc no to szkoda, że to tak jest tak naprawdę, że u nas te różne rozwiązania się, no niestety od nich tego typu ułatwiające życie, no nie pojawiają, nie?
No to wielka szkoda, że taka globalna korporacja nie wprowadza tego wszędzie równolegle, bo no można by się było tego spodziewać. Dokładnie.
Może to kwestia znowu uprawodawstwa i dostosowań po prostu.
No tak, a gdzie nie trzeba, to tam…
To się tego po prostu nie robi.
To się tego nie będzie robiło. No i tu znowu wracamy do tej kwestii dostępności,
że tylko ten niestety ją robi w większości przypadków, jak czuje nad sobą jakiś bat.
A jak tego bata nie ma, to mamy co mamy.
Tak. I ostatnia wiadomość dotyczy Whatsappa i czata GPT, który może w Whatsappie przyjmować wiadomości z Whatsappa.
To już był już gdzieś krótko po okresie świątecznym. Jakoś po naszym ostatnim tyfloprzeglądzie przed świętami ruszyła zarówno ta amerykańska infolinia, na której można sobie z czatem GPT porozmawiać, jak i numer na Whatsappie.
No i niektórzy z Was też tego numeru na Whatsappie zdaje się korzystali, testowali, tam jakieś limity też były.
No ale zdaje się, że to mogły być tylko wiadomości tekstowe.
A teraz, przynajmniej jak głoszą różne doniesienia medialne, ten numer na czata GPT na Whatsappie przyjmuje już też i wiadomości głosowe,
więc można z czatem GPT rozmawiać i się na głosówki wymieniać, oraz zdjęcia, więc można mu posłać jakieś zdjęcie i poprosić go o opis.
No i tu plany, czy tam po prostu o coś zapytać. No ale tu plany się jeszcze troszkę zbudowują, bo OpenAI planuje wprowadzić coś, czego jeszcze nie ma, ale ma nie małym być, czyli możliwość łączenia naszego WhatsAppa z naszym kontem GPT, nieważne czy ono jest darmowe, czy mamy wykupiony któryś z planów premium, żeby mieć ten pełen dostęp do funkcjonalności, które nasz plan oferuje właśnie przez WhatsAppa.
A to mi się akurat bardzo podoba, ze względu chociażby na to, że Whatsapp ma
naprawdę fajny, przyjazny interfejs. I jeżeli ja miałbym sobie wybrać, czy mogę
sterować Whatsappem przez… czatem GPT, przez Whatsappa, czy przez jego natywną
aplikację albo stronę internetową, no to ja niejednokrotnie bym się zdecydował
jednak na ten czat na Whatsappie.
Właśnie. Tylko ciekaw jestem, czy i jak tam ocawie będzie można się odnosić do historii wypowiedzi. Ale to zobaczymy. Być może, miejmy nadzieję, że przyszłość to jakoś pokaże.
Całkiem możliwe, że na przykład okaże się, że będzie można… że na przykład nie da się korzystać z wszystkich tych funkcji, które oni tam wprowadzają.
Na przykład mi się bardzo podobają, to nie wiem, czy wy korzystacie, jeżeli korzystacie z czata GPT, czy używacie tych tak zwanych projektów.
To jest naprawdę super sprawa, bo pozwala z jednej strony trzymać porządek w naszych czatach, bo projekty to są takie jakby foldery,
w których możemy sobie gromadzić różne czaty na dane tematy,
Ale oprócz tego możemy jeszcze dodatkowo opisać i zapromptować tego czata, jak on ma się w tym projekcie z nami komunikować.
Co my chcemy, czego my potrzebujemy, czy mają być to jakieś proste informacje, krótkie odpowiedzi, czy ma opisywać coś bardzo szczegółowo itd., itd.
Zdaje się, że tylko ten model 4O1 jest obsługiwany w tych projektach, no ale to i tak jest bardzo fajną sprawą.
I to wszystko, co dla Was przygotowaliśmy, chyba, że komuś coś jeszcze w trakcie audycji gdzieś tam się pojawiło z jakichś ciekawych informacji.
Ale chyba nie. W związku z powyższym, no, czas skończyć audycję.
Dziękujemy za Wasz żywy udział w audycji.
Naprawdę, no, dużo było i telefonów, i wiadomości.
Bardzo nam to się podoba, taka sytuacja.
No i cóż, do usłyszenia, miejmy nadzieję, za tydzień.
Ja to przypomnę tylko jeszcze, że w dzisiejszej audycji
…braliśmy udział z naszej strony prowadzących.
Paweł Masarczyk, Piotrek Machacz i ja, czyli Tomek Bilecki.
Dobrej nocy.
No i dobrej nocy, jak się rzekło, do usłyszenia.
Był to Tyflo Podcast.
Pierwszy polski podcast dla niewidomych i słabowidzących.
Program współfinansowany ze środków Państwowego Funduszu Rehabilitacji Osób Niepełnosprawnych.