TyfloPrzegląd Odcinek nr 219 (wersja tekstowa)

Pobierz napisy w formacie SRT
Pobierz napisy w formacie VTT
Fundacja Instytut Rozwoju Regionalnego prezentuje Tyflo Podcast.
Dzień dobry, dzień dobry. Audycja 219 Tyflo Przeglądu.
Dzisiaj w składzie takim skromnym dość, bo Michał Dziwisz, Piotrek Machacz i ja.
Witajcie, dobry wieczór.
Trzy osoby w skład, ale tak czy inaczej troszkę tych newsów przygotowaliśmy dla was, dla państwa.
No i o tym co dzisiaj przygotowaliśmy opowie jak zwykle Michał.
Dzyka udźwiękawiająca program ADI i ERC.
Grammarly staje się dostępne.
Wiemy jak będzie działać voiceover na Vision Pro.
Aktywny samorząd, w tym roku bez większych zmian.
Nowości w grach.
AIC, singapurskie cyber oko.
Na uniwersytecie w Cambridge nauczyli robota czytać brajlem.
Tylko po co?
Z jakich technologii asystujących korzystano w Rosji w 2023 roku?
Yandex opublikował wyniki badania.
Google pozbywa się kolejnej ze swoich usług.
Tym razem to wyświetlanie zarchiwizowanych stron w wyszukiwarce.
WhatsApp pracuje nad integracją z innymi komunikatorami.
Nowa sztuczna inteligencja od Apple przerobi zdjęcie według Twoich rozkazów.
Wszystko to, a pewnie jeszcze więcej już za chwilę. Zaczynamy!
I oczywiście skoro jesteśmy na żywo, to nasze drogi kontaktów pozostają do Waszej dyspozycji.
663-883-600 to jest nasz numer telefonu i Whatsapp, więc jeżeli macie ochotę wysłać nam głosówkę, to się nie krępujcie.
Będziemy je odtwarzać w trakcie naszego dzisiejszego spotkania.
Jest też YouTube, jest też Facebook, tu konkretnie komentarze w formie tekstowej.
No i jest kontakt.tyflopodcast.net. Bardzo serdecznie zapraszamy do tego, żebyście tego narzędzia też korzystali.
Co prawda chyba jeszcze nawet nie włączyłem tego ostatniego, ale za chwileczkę będę to naprawiał
i za chwileczkę również i ten panel kontaktowy będzie do Waszej dyspozycji.
I zaczynamy newsy, zaczynamy newsy od jeszcze poprzednich informacji z poprzedniej audycji i zaczynamy dość nietypowo, bo zaczynamy od newsa, który przygotował, no, jeden z redaktorów, powiedzmy, Tyflo Podcastu, choć raczej nie uczestniczący w Tyflo przeglądzie, bo Edwin Tarka, aktualizacja flagboxa.
Zgadza się, bo jakiś czas temu prezentowaliśmy w Tyflopodcastie te aplikacje,
natomiast ostatnim jej czasem pojawiła się jej dosyć istotna aktualizacja
i teraz kilka słów o tym właśnie Edwin opowie.
Dobry wieczór, Edwin Senektarka z tej strony, zapraszam na krótkie uaktualnienie o flagboksie,
czyli o odtwarzaczu plików multimedialnych, zarówno tych lokalnych, jak i chmurowych,
o których ostatnio z Michałem w ramach Tyflopodcastu i Tyfloradia rozmawialiśmy.
kilka słów uzupełnienia, dlatego, że okazuje się, że jedna z funkcji na którą tak narzekałem i o której tak marudziłem, że jej nie ma,
okazuje się, że jest. Pojawiła się w ostatnich dniach, czyli import i eksport playlist do programu Flagbox, a także EverMusic,
jeżeli ktoś z tego drugiego narzędzia od EverUps nawet korzysta.
Chodzi o to, że w ramach biblioteki muzycznej możemy sobie zaimportować nasze ulubione utwory.
Czy to w formie pliku CSV, czy M3U, M3U8.
Działa to, tylko żeby zobaczyć jak działa i jaką to ma konstrukcję,
musiałem zrobić jedną playlistę testową w ramach flagboxa,
żeby mi wypluł, wyeksportowaną jak ona wygląda.
I teraz tak, slashe’e zamiast backslashów, to jest pierwsza sprawa.
Druga, on startuje tworząc swoje playlisty w folderze pierwszego utworu.
Czyli powiedzmy, jeżeli mamy strukturę muzyka, w środku mamy pod folder rock,
a później w środku mamy plik linkinpark.numpmp3 no to on startuje z tego miejsca.
Czyli pierwszym elementem na playliście
tekstowo jest po prostu linkinpark-numpmp3.
Natomiast jeżeli chcemy się cofnąć o oczko wstecz albo w dół robimy kropka kropka slash.
Natomiast wchodząc do folderów robimy folder slash.
Najpierw wydaje się to skomplikowane.
Dla kogoś kto nie edytuje często playlist na komputerze, ale jak sobie zrobicie testową playlistę bo macie jakąś muzykę na chmurze to w mig to pojmiecie, ja rozkminiłem w parę minut żeby to rzeczywiście działało.
Czyli na przykład wrzucamy sobie w główny folder, żeby najprościej było, w główny folder naszej chmury playlistę już zrobioną i na przykład wcześniej stworzoną playlistę w komputerze troszeczkę zmieniamy.
Czyli najpierw sprawdzamy ścieżki do folderów.
Jeżeli mamy muzykę na dysku E, no to raczej E2.backslash muzyka.
Tego się pozbywamy na koszt słowa muzyka.
Natomiast wszystko co już jest w muzyce jest okej,
tylko że każdy backslash w notatniku, oczywiście komendą CTRL H,
czyli znajdź i zastąp, zastępujemy slashem.
Żeby było na przykład muzyka.slashrock.slashwhiskeyinthedjar.mp3
muzyka.mp3.mp3.mp3.mp3.mp3.mp3.mp3.mp3.mp3.mp3.mp3.mp3.mp3.mp3.mp3.mp3.mp3.mp3.mp3.mp3.mp3.mp3.mp3.mp3.mp3.mp3.mp3.mp3.mp3.mp3.mp3.mp3.mp3.mp3.mp3.mp3.mp3.mp3.mp3.mp3.mp3.mp3.mp3.mp3.mp3.mp3.mp3.mp3.mp3.mp3.mp3.mp3.mp3.mp3.mp3.mp3.mp3.mp3.mp3.mp3.mp3.mp3.mp3.mp3.mp3.mp3.mp3.mp3.mp3.mp3.mp3.mp3.mp
W kwestii samej stabilności też podobno ma być lepiej dlatego, że ostatnio zostało zmienione API, albo zostały wymienione API do usług chmurowych, więc zostało to wszystko zaktualizowane.
Ja posłuchałem przez ostatnie dni trochę i okazuje się, że jest lepiej.
Pełnej stabilności bym się nie spodziewał.
Oczywiście jak długo nie słuchałem to on się lubi wysypać, ale tam jest taka opcja, która się nazywa Continue Playback.
i możemy spróbować jej użyć na górze granego przez nas folderu, albo playlisty na przykład.
Tak więc może nie do końca bym na tym słuchał ważnych audiobooków, ale przyjemnej muzyki jak najbardziej tak.
I jeszcze jedno słowo uzupełnienia, gdyby komuś się jednak nie chciało bawić z chmurą,
ale miał tam na przykład zapisaną muzykę i miał tam zapisane playlisty,
każdą playlistę, którą ściągniemy, zsynchronizujemy i która działa, możemy zapisać do trybu offline.
I to nie jest opcja, o której mówiliśmy zagraj później, bo zagraj później to jest tak naprawdę wrzuć na koniec kolejki, tylko wchodzimy w daną playlistę i tam także na górze klikamy tryb offline.
Jeżeli on ma zaznaczony tryb offline, to znaczy, że będzie to wszystko ściągał do offline’u i będziemy mogli słuchać w naszym odtwarzaczu.
Wiem, że tak jest, bo podejrzałem transfery, które się pojawiają w zakładce pliki lokalne i tam jest pierwsza taka opcja transfery plików.
i tam z kolei jest aktualny postęp tego, co nam się na iPhona ściąga.
Więc tyle mojego uzupełnienia, miało być krócej, ale trzeba było wszystko dokładnie wyjaśnić,
więc temat Flakboksa na razie uważam za zamknięty i zakończony,
no chyba, że jakieś rewolucyjne zmiany się uczynią, no to będziemy także postępować.
Pozdrawiam, Tyflo Przeglądowiczów, trzymajcie się, cześć, cześć.
A teraz już przechodzimy do newsów na ten tydzień.
I zaczynamy od tego, jak przewijać długie materiały na iPhone’ie, długie materiały audio, no tak szybko i fajnie i skutecznie.
Zgadza się. Ja odkryłem to jakiś czas temu, tak zupełnie metodą prób i błędów, być może jest to znany trik.
Z tego co dostałem informację, to działa nie tylko na YouTube’a, a akurat do YouTube’a było mi to potrzebne, no bo wiecie, jak czasem człowiek wrzuci sobie do poduchy
Jakieś materiały z YouTube’a, one są długie, to się przyśnie, a potem by chciało się jednak tego posłuchać raz jeszcze albo przynajmniej wrócić do tego momentu, który się mniej więcej pamięta i kontynuować,
no to te przewijanie takie standardowe na YouTube’ie, na zablokowanym ekranie, no to ono działa dosyć wolno, no i ja się zastanawiałem jak sobie to przyspieszyć.
Otóż można użyć tego suwaczka, który tam jest na ekranie blokady, tylko trzeba stuknąć w niego dwa razy z przytrzymaniem i teraz przesuwając palcem w górę i w dół przesuwamy się o jakąś taką, no powiedziałbym dość pokaźną jednostkę czasu, ale niezbyt dużą, to się raczej w minutach przesuwa.
A jeżeli chcemy przesuwać się o naprawdę dużą jednostkę czasu, że po prostu z jednej godziny w drugą, to my przeskoczymy bardzo, ale to bardzo szybko,
to nie przesuwamy palca w górę albo w dół, tylko w lewo lub w prawo. I wtedy to działa bardzo, bardzo szybko.
Materiał, który ma tam powiedzmy 4 godziny, to jesteśmy dosłownie w stanie przebinać kilka ruchów palcem, albo nawet jednym takim nieco bardziej zamaszystym gestem.
Więc z tym trzeba też uważać i sobie trzeba to wyczuć, natomiast jeżeli ktoś ma właśnie, jest w takiej sytuacji, że te materiały audio, które ma są w formie jednego pliku, one są długie.
czasem po prostu odtwarzamy coś,
potem chcemy do tego wrócić,
no to rzeczywiście warto wypróbować ten gest
w swoim odtwarzaczu plików audio,
z którego korzystacie, bo być może również
i będzie on Wam przydatny.
Czyli jeszcze raz na tym suwaczku
stuknięcie dwukrotne z przytrzymaniem
w górę i w dół o dość znaczną jednostkę czasu
w lewo, w prawo, to naprawdę idzie bardzo, bardzo szybko
po tej osi audio. Także takie moje odkrycie.
Człowiek tego iPhona używa tyle lat, a jeszcze zawsze coś się gdzieś tam znajdzie.
Chyba, że na przykład Piotrze, ty kojarzyłeś ten gest, bo może ja tu odkrywam jakąś Amerykę.
To, ja też tego czasami używam, to się też przydaje w aplikacjach, gdzie czasami ten słówek jest niedostępny.
Na przykład, to też się może przydać, jeśli mamy YouTuba Premium, bo kiedyś było tak fajnie,
że YouTube’a dało się przewijać podobnie,
słuchało się i trzymało w ten odtworzyć wideo i po prostu wtedy
palcem można było przesuwać lewo w prawo.
No właśnie ja o tym mówię, że ja tego na YouTube’ie używam.
No właśnie, bo kiedyś to się tak dało zrobić, no a tak,
a teraz, potem to się na YouTube’ie zepsuło, no i właśnie
w takich sytuacjach to, to się przydaje, bo to działa
no praktycznie z każdą aplikacją, tak, no która
gdzieś tam się na ekranie blokady wyświetla.
Więc rzeczywiście fajnie o tym wiedzieć i
No cóż, miłego korzystania.
No dzięki, też mi się przydał, bo też miałem ten problem.
Także ja o tym nie wiedziałem na przykład.
Teraz mam taki trochę dylemat.
Może gdzieś tam mi pomożecie.
Bo zastanawiam się co robić.
Dlatego, że mamy w sumie taką sytuację,
że pojedyncze newsy wszystkie są od Michała,
natomiast te zestawy newsów wszystkie są od Piotra.
Więc może spróbujmy przejść przez te właśnie newsy dłuższe od Michała od Ciebie, a potem w takim razie Piotrek będzie miał swoje raczej nie pięć minut, pewnie pół godziny.
Tylko trochę więcej. To dobrze, nie ma najmniejszego problemu. Natomiast zanim to uczynimy i zanim przejdziemy przez te informacje, które mam ja, to może posłuchajmy wiadomości, którą już zdążył nam na WhatsAppie wysłać Sylwester.
Słuchajcie no, jest taka sprawa. Ja dzwoniłem do Altyksu i będę prawdopodobnie miał dofinansowanie, jeszcze nie wiem, ale od 1 marca na linijkę.
Druga sprawa, jeszcze nad tymi rejestratorami Zoom, tam trzeba dokupić moduł Bluetooth i to mnie już nie zaciekawiło.
Proszę o odpowiedź Tomasza Bileckiego na ten temat.
I ukazało się kilka audycji niedawno i dzisiaj jakaś jest od Kamila Kaczyńskiego.
To jest ciekawe. To tyle na razie.
No audycji od Kamila to ukazało się kilka, a jeszcze ich trochę będzie.
Tak, natomiast nie bardzo wiem, co jest pytaniem, szczerze mówiąc, no bo trzeba kupić moduł bluetooth.
Jeżeli chcemy sterować zoomem, czy rejestratorem z poziomu telefonu, to rzeczywiście taki adapter kupić trzeba.
Ja tym nie jestem za bardzo zainteresowany, prawdę mówiąc.
Po pierwsze, nie wiem czy działa to w przypadku Zuma H1.
Możliwe, że tylko w tych droższych.
Jak bym usłyszał o czwórce i szóstce?
No właśnie jak chyba też. Także tak.
Natomiast druga sprawa, nie wiem jak to wygląda w przypadku Zuma.
Wiem jak to wygląda w przypadku Rolanda.
To znaczy mam na myśli czas działania na baterii, który Roland R-07 ma wbudowanego bluetootha, tam nic nie trzeba dokupować, natomiast po włączeniu tego, no to na baterii ten czas skraca się dość znacznie.
Więc nie wiem jak ta sytuacja wygląda w przypadku Zooma i tego bluetootha podłączonego do urządzenia.
Natomiast no właśnie w Rolandzie dość, no ma to dość duże znaczenie jeżeli chodzi o czas działania na baterii.
Także no też na to warto gdzieś tam uważać.
Tak wygląda jeżeli chodzi o o Zuma i ten adapter bluetooth.
Natomiast tak jak mówię nie wiem nie wiem czy to będzie takie bardzo potrzebne ze względu na to że jednak jest udźwiękowiony więc czy ma być udźwiękowiony.
Przynajmniej ludzie inwidomi to kupowali właśnie przez to że to pozwalało sobie tam wszystko poustawiać.
Tak, a jeśli to nam będzie gadać, no to nie wiem, że to będzie miało aż taki sens.
No chyba, że ktoś rzeczywiście chce sterować zdalnie, rzeczywiście zdalnie.
Rejestrator jest gdzieś parę metrów dalej, a ja sobie steruję nagrywaniem z poziomu smartfona.
Możliwe, że to jest jakieś rozwiązanie, aczkolwiek wydaje mi się, że też ze względu na to ile w tym momencie jest,
jakiej wielkości są pojemności, jakie są karty pamięci, to też nie wiem, czy będzie to takie miało oznaczenie.
Niemniej, gdyby ktoś chciał, to rzeczywiście w H6 i prawdopodobnie w H4 ten adapter będzie mógł być zamontowany.
Wydaje mi się, że w H1 takiej możliwości nie ma.
To co, przechodzimy do kolejnego newsa, bo wiemy już więcej na temat aktywnego samorządu w tym roku, informacji jest troszeczkę i tu no właśnie Michał.
Zgadza się, ja wynotowałem sobie z informacji, którą na swojej stronie opublikował Państwowy Fundusz Rehabilitacji Osób Niepełnosprawnych,
tylko te najważniejsze, które dla nas w jakimś stopniu mogą być istotne, bo oczywiście Aktywny Samorząd to jest program skierowany nie tylko do osób niewidomych, tam są różne te moduły, różne kierunki działania,
więc skupmy się na tych takich najbardziej ogólnych i jak to w ogóle wszystko będzie wyglądało w tym roku.
Generalnie wiele się nie zmieni, bo zasady pozostają raczej podobne.
Tu mamy taką zmianę drobną, że fundusz ponownie zagwarantował wyższy budżet na realizację programu
i wynosi on 256,5 miliona złotych. Jest to o 15 milionów więcej niż w poprzednim 2023 roku.
Wniosek o dofinansowanie w systemie obsługi wsparcia można złożyć już od 1 marca,
więc już całkiem niedługo możecie już się zastanawiać, jeżeli oczywiście kwalifikujecie się do tegorocznego aktywnego samorządu,
co byście chcieli sobie w ramach tego programu kupić.
Mamy tu jeszcze taką informację, że nie zostaniemy pozostawieni sami sobie ze składaniem tego wniosku,
No bo dla niektórych może być to problem i tu PFRON oferuje pomoc w ramach systemu obsługi wniosków, czyli systemu SOW.
Można skorzystać z kreatora ułatwiającego wnioskowanie o środki, z infolinii można skorzystać, z mobilnego asystenta też można skorzystać
i można także poprosić o pomoc pracownika PFRON-u w punkcie informacyjnym SOW.
Takie punkty są zlokalizowane w oddziałach PFRON-u, więc jeżeli ktoś woli kontakt z żywym człowiekiem bezpośrednio twarzą w twarz, a niekoniecznie przez infolinię czy przez wiadomości w systemie SOF, no to też jest taka możliwość.
I tu myślę, że dosyć fajna informacja. Jestem bardzo ciekaw jak to będzie działało w praktyce. Za parę lat będę miał okazję sprawdzić, to może jeszcze lepiej będzie to działało, bo PFRON na swojej stronie pisze tak.
Tak, dołożyliśmy starań, by zmniejszyć ilość danych, które są potrzebne do zarejestrowania wniosków.
Informacje, które podasz teraz, będzie można wykorzystać w przyszłości, bez wpisywania ich po raz drugi w trakcie wnioskowania o kolejne wsparcie ze środków PFRON-u.
No i teraz następna ważna informacja, jak wygląda to okienko czasowe, jeżeli chodzi o składanie wniosków.
Wnioski są przyjmowane do 31 sierpnia 2024 roku, czyli od początku marca do końca sierpnia.
W tym czasie trzeba się wyrobić.
No i oczywiście jak zawsze wnioski, które składacie podlegane są ocenie i czytamy co do tej oceny następujące informacje.
Wnioski oceniamy merytorycznie w systemie punktowym, maksymalna liczba punktów to 100, w bieżącym roku preferujemy wnioski dotyczące osób niepełnosprawnych,
które uzyskały do wniosku pozytywną opinię eksperta w zakresie dopasowania wnioskowanej pomocy do aktualnych potrzeb wynikających z ich aktywności.
I tu jeżeli chodzi o pomoc np. w naszym kierunku działań, to prawdopodobnie będzie chodziło o eksperta w ramach programu pod nazwą
Centra Informacyjno-Doradcze dla osób z niepełnosprawnością lub eksperta zaangażowanego przez realizatora.
I tu można dostać 10 punktów maksymalnie.
Kolejna grupa osób, które mogą liczyć na dodatkowe punkty to takie osoby, które posiadają
znaczny stopień niepełnosprawności, a w przypadku osób do 16 roku życia w orzeczeniu o niepełnosprawności
posiadają więcej niż jedną przyczynę wydania orzeczenia o niepełnosprawności
lub orzeczenie to jest wydane z powodu całościowych zaburzeń rozwojowych.
I tu możemy dostać znowu 10 punktów.
Kolejna kwestia punktacji to zatrudnienie.
Jeżeli osoby są zatrudnione w rozumieniu programu,
czyli tam trzeba było doczytać jakie to rodzaje zatrudnienia,
no umowa o pracę to na pewno, ale kwestia jakichś innych jeszcze dodatkowo umów
i rodzajów umów, tu możemy dostać 10 punktów, jeżeli ktoś posiada podpis elektroniczny bądź też profil zaufany na platformie ePUAP
i złoży wniosek o dofinansowanie w formie elektronicznej w systemie SOF to także dostajemy 10 punktów i tu jeszcze taka adnotacja
preferencja dotyczy tylko tych wnioskodawców, którzy z niej skorzystają po raz pierwszy,
preferencja jest jednorazowa, więc pytanie, czy to dotyczy jednego roku?
No raczej nie, czyli jeżeli już ktoś kiedyś złożył wniosek w ten sposób, to już pewnie nie dostanie,
ale z drugiej strony to chyba jeszcze systemu SOF nie było, jeżeli na przykład ktoś w tym roku może składać,
składał wcześniej, to jeszcze wtedy nie było systemu SOFI, jak dobrze pamiętam, bo to sześć lat w sumie, więc to już kawałek czasu.
I kolejna grupa osób, które złożyły wniosek w pierwszym półroczu 2024 roku.
Tutaj możemy dostać pięć, nie dziesięć, tylko pięć punktów za przyspieszenie tego składania wniosku.
Jeżeli ktoś w 2023 lub w 2024 roku został poszkodowany w wyniku działania żywiołu lub innych zdarzeń losowych,
no to również tu dostajemy 5 punktów.
Pozostałe kryteria oceny merytorycznej wniosków w odniesieniu do pozostałych 50 punktów oceny merytorycznej
określa realizator programu, czyli ta instytucja, do której składamy wniosek, no bo tutaj mamy jakby PFRONT daje pieniądze,
PFRONT to finansuje, a w odpowiednich miejscach lokalnie my składamy wnioski, to znaczy wypłacane są te środki nam, jakby bezpośrednio,
albo dofinansowywany jest sprzęt.
I tak to wygląda, więc jak widać wiele się nie zmieniło.
Te warunki są bardzo podobne, jeżeli chodzi o edycję poprzednią.
Natomiast myślę, że skorzystać rzeczywiście warto.
I warto pamiętać o tych datach, czyli że od początku marca do końca sierpnia tego roku składamy wnioski.
Natomiast warto się pospieszyć, bo ktoś sobie może pomyśleć, 5 punktów to tam w sumie jest niewiele, ale jeżeli jest duże miasto i tych wniosków będzie dużo, to te 5 punktów może niekiedy zaważyć o tym, czy dostaniemy pieniądze na zakup sprzętu, czy dostaniemy wszystkie pieniądze, o które wnioskowaliśmy, czy też nie.
Więc tego nie radziłbym tak do końca lekceważyć.
I następny news dotyczy z kolei już typowo technologii, bo w Singapurze stworzono coś, co nazywa się AIC chyba, to się tak pewnie oznacza, tak?
AIC.
AIC, Singapurskie Cyberoko.
Tak, singapurskie cyberoko, bo teraz wszyscy chcą być AI, wszyscy chcą być smart i sztuczna inteligencja wychodzi nam z lodówek.
No i w Singapurze na Uniwersytecie Narodowym w Singapurze stworzono, jak na razie to jest taki projekt badawczy bardziej i zobaczymy jak się on rozwinie.
Urządzenie składa się z trzech komponentów.
To jest kamera, to jest słuchawka z przewodnictwem kostnym no i jakieś urządzenie, w którym to wszystko się dzieje i w którym to wszystko jest przetwarzane.
No i cóż, jako taki modelowy przykład tego zastosowania AIC została podana sytuacja, w której robimy zakupy i to urządzenie ma nam rzekomo pomagać,
jeżeli chodzi o rozpoznawanie różnego rodzaju produktów i tego, co jest przed nami.
Jakaś niewielka kamerka, którą również nosimy na sobie, wykonuje zdjęcie,
następnie to zdjęcie jest przetwarzane i tu właśnie jest to ciekawa rzecz,
czy lokalnie, czy gdzieś tam zdalnie.
Ja wyczytałem, że jest to przetwarzane zdalnie,
Więc prawdopodobnie potrzebne będzie też jakieś połączenie internetowe, połączenie przez sieć komórkową.
Prawdopodobnie w tej jednostce centralnej będzie gdzieś tam zaszyty moduł z kartą SIM bądź też eSIM i będzie to zdjęcie wysyłane w świat.
I my od razu, kiedy dostaniemy informację zwrotną na temat tego, co tam się dzieje na tym zdjęciu, co jest na tym zdjęciu,
będziemy mogli dodatkowo zadać pytanie jak to, no jakieś dodatkowe np. jeżeli chcielibyśmy uzyskać jeszcze jakichś konkretnych więcej informacji na temat tego co kamera zobaczyła.
No jest tak, oczywiście twórcy jak zawsze w takich przypadkach podchodzą bardzo entuzjastycznie do swojego projektu, twierdzą, że to będzie rewolucja, że na razie to dla niewidomych tego typu urządzeń nie ma,
że tu mamy cały czas wszystko w oparciu o smartfony,
a to ma być jako takie dodatkowe, niezależne urządzenie.
Ja tak sobie myślę, że w sumie okej, no to fajnie, że coś takiego powstaje,
ale chyba bardziej przydatne byłoby, gdyby ktoś w końcu stworzył
jakieś urządzenie będące rzeczywiście taką kamerą,
którą możemy nosić na sobie, ale która by łączyła się z naszym telefonem
i pozwalała na to, żeby ten obraz wysłać faktycznie do telefonu i przez silniki i przez narzędzia, które mamy w naszym telefonie to zdjęcie przeprocesować,
bo wtedy mogłoby to działać i rzeczywiście jako taki aparat, który na sobie nosimy, więc robienie zdjęć byłoby wygodne i byłoby, no myślę, że całkiem fajne.
natomiast z drugiej strony też mogłoby to nam służyć jako kamerę.
A tego typu urządzenia, jeżeli już łączą się gdzieś z naszym telefonem,
no to zazwyczaj jest sytuacja taka, że działają tylko z jakąś dedykowaną aplikacją na przykład,
a nie działają tak globalnie.
Fajnie by było, żeby to jednak poszło w tę stronę.
Urządzenie otrzymało jakieś dofinansowanie, więc będzie rozwijane.
No i pytanie, czy poza Singapur wyjdzie, no Singapur to jest akurat, z tego co kojarzę, dość miejsce, dość technologicznie rozwinięte,
więc może i jakaś tam szansa na coś ciekawego jest, natomiast no, zanim to urządzenie, o ile w ogóle ujrzymy gdzieś jako produkt gotowy do kupienia,
to podejrzewam, że jeszcze dużo wody w Wiśle upłynie.
Ja się w ogóle zastanawiam, dlaczego w ogóle robić takie urządzenia z zewnętrzną kamerą, bo za tę kamerę trzeba będzie zapłacić, ktoś ją będzie musiał zrobić, ktoś zaprojektować, ktoś części wszystkie zrobić, obudowę i tak dalej, i tak dalej, no to wszystko kosztuje, a wiemy, że takie urządzenia oparte na jakichś takich, tego typu rozwiązaniach są dość drogie, także…
To jest prawda, aczkolwiek wiesz, jeżeli byłaby to taka globalna kamera, która działałaby z wszystkim w naszym telefonie,
ale tak jak mówię, gdyby to była tylko kamera, no to nie byłoby to złe.
Coś takiego jak na przykład, nie wiem, GoPro, tylko że no, po prostu widoczne w systemie jako, jako kamera, tak, do wszystkiego.
Nie wiem, czy to się tak da zrobić, bo, przynajmniej w iPhone’ie, bo podejrzewam, że gdyby można było tak zrobić,
no to by coś takiego raczej powstawało, bo jednak robienie zdjęć, filmów, no to jest coś, co bardzo wiele osób chciałoby, znaczy chciałoby, robi.
I mimo tego, że powstają przecież chociażby mikrofony bezśrodowe dedykowane do smartfonów, to z tego co wiem, nie ma chyba kamer.
Bo na iOSie to wsparcie na kamery USB to doszło niedawno i to tylko na iPadach chyba, no bo czasami ludzie sobie te iPady bardziej zamieniają w takie laptopy tak, no i wtedy z jakiejś kamery 4K gdzieś podłączają, bo te nowe iPady to faktycznie mają procesory mocne, więc chcieli sobie jakieś profesjonalne kamery podłączać.
Czy to kiedyś też trafi do iPhone’ów? No nie jest to wykluczone i może gdyby takie sprzęty się pojawiały, może jakby ktoś się do Apple’a zwrócił, no to może by dało się coś zrobić.
Ale wiecie co, ja nie mam żadnej takiej kamery zewnętrznej niestety, ale zastanawiam się, czy w ogóle w jakikolwiek sposób na przykład iPhone rozpoznawałby to urządzenie, gdyby podłączyć przewodowo, już nie mówię bezprzewodowo, bo to nie bardzo jest czym, nie bardzo jest jak, ale iPhone, do iPhone’a można podłączyć różnego rodzaju urządzenia, niestety nigdzie tak naprawdę nie ma żadnej listy kompatybilnego sprzętu z tym.
Z tego co wiem kamerki nie działają, bo też tego nie sprawdzałem.
Na iPodach działają, na iPonach nie.
To jest właśnie ciekawe. Tak samo jest na przykład z różnymi interfejsami audio do iPona zewnętrznymi.
Ja testowałem kiedyś kilka urządzeń i no cóż, nie każde zadziała.
I to też nie mamy żadnej informacji, że to działa, że to nie działa.
Na przykład karta taka bardzo prosta za 3 zł do kupienia na Allegro jakiś w ogóle totalny no-name działa.
Natomiast karta, która ma już kilka lat, AudioTrack Maja, po prostu nie zadziałała.
Więc tak zwyczajnie tam był jakiś komunikat, że po prostu to urządzenie jest nieobsługiwane i tyle.
Natomiast mnie zastanawia fakt, że podejrzewam, że nawet gdyby ktoś chciał oddzielić to urządzenie od smartfona,
No bo to jest jego smartfon, nie wiadomo, czy kogoś nie zabierze i tak dalej.
To mi się wydaje, że najczęściej tańszym rozwiązaniem byłoby kupić osobny smartfon.
Nawet, jak będzie jakiś iPhone, tylko może niekoniecznie ten najbardziej wypasiony,
tylko jakiś tam, nie wiem, SE, czy który tam.
I myślę, że takie urządzenie i tak ma kamerę dobrej jakości.
Zgadza się.
Jest urządzeniem raczej niedużym, tak generalnie.
i są te wszystkie szelki na smartfony, jakiegoś tego typu rzeczy.
Odsyłamy do twojego podcastu.
Też i z tego co wiem, też takie szelki są nadal w sprzedaży,
chociaż nie czy tej samej firmy koniecznie, ale są takie rzeczy.
Więc zastanawiam się po prostu, czy naprawdę tworzenie
takich osobnych sprzętów nie jest troszeczkę mimo wszystko
wyważaniem otwartych drzwi.
Być może.
To znaczy, wiesz, projektów badawczych to tak naprawdę jest wiele i wiele różnych rzeczy powstaje na uczelniach, a potem naprawdę niewiele gdzieś przechodzi do mainstreamu, niewiele zyskuje jakiś taki sukces komercyjny albo w ogóle, żeby przeszło do jakiejś masowej produkcji.
i od pomysłu do wdrożenia takiego biznesowego to jest daleka droga.
Zobaczymy, jak też będzie z tym, chociaż wiele bym nie stawiał na to, tak szczerze mówiąc.
Nie wiadomo, że to wszystko jest rzeczywistością projektową, ale być może słuchał nas ktoś,
kto rozważałby na przykład tworzenie czegoś takiego, no bo czemu nie?
No to właśnie być może, być może warto mimo wszystko zająć się kwestią taką programową, no smartfony mają te kamery, mają te kamery dość dobre i może spróbować stworzyć jakiś soft, który by właśnie bardzo jakoś szybko rozpoznawał, nie wiem, różnego rodzaju obiekty.
OCR-ów też jest dość dużo, ja bym chciał rzeczywiście coś takiego co oferuje Google Lookout, tylko że na iPhone’a, dlatego że Google Lookout to jest niby zwykły OCR, tyle że on działa w ruchu, bo Sync.ai, Envision, to wszystko działa, gdy stanę, skieruję kamerę telefonu w jakąś stronę i rzeczywiście czyta.
Natomiast Google Lookout ma dużo większą rozpoznawalność w momencie, gdy idę i na przykład kieruję kamerę telefonu w stronę budynków, wzdłuż których idę i rzeczywiście nieraz mogę się dowiedzieć o tym, jakie tam są usługi, jakie sklepy, godziny otwarcia, coś.
Oczywiście to są czasami trochę losowe informacje, ale one są. Natomiast bardzo często w przypadku Think AI i Envision, idei jest cisza, bo te programy po prostu źle rozpoznają tekst w ruchu i być może, no teraz jest duża taka, duży ból na sztuczną inteligencję, na jakieś tworzenie modeli, być może udałoby się stworzyć taki model, który by właśnie rozpoznawał w miarę dobrze.
że to nie musi być jakaś superdokładność, ale właśnie teksty w ruchu, takich zdjęć nie do końca ostrych i tutaj nie chodziłoby o jakąś superprecyzję,
tylko chodziłoby o to, żeby mniej więcej się dowiedzieć z dłuższego idei, jakby w czasie rzeczywistym, być może jakiś model językowy,
który znowu nie będzie jakiś super dokładny, ale który po prostu powie w dwóch słowach, że tu jest, nie wiem, sklep, drzwi, coś tam, nie wiem, człowiek i powiedzmy, no nie wiem, żeby można się było zapytać o, nie wiem, nawet jakieś wybrane rzeczy, tak, nie wiem, płeć, wzrost, coś, przynajmniej tak mniej więcej, oczywiście, przynajmniej może nie wzrost,
No nie wiem na przykład, czy to jest dziecko, osoba dorosła, bo chcąc, załóżmy, dowiedzieć się tak o drogę,
no lepiej zapytać teoretycznie kogoś dorosłego niż dziecko, bo niekoniecznie musimy usłyszeć, kto tam stoi.
Więc być może, być może, no też warto by może jakoś w tę stronę coś spróbować.
Albo na przykład, no nie wiem, czy ten ktoś ma jakiś bagaż, no bo też, jeżeli jest człowiek z plecaką i walizką, z plecakiem i walizką, i drugi stoi bez tego, no to zazwyczaj lepiej pewnie by spytać tego kogoś bez bagażu, tak, więc…
Bo to pewnie to są…
Tutejszy.
Tak, a poza tym raczej będzie miał mimo wszystko trochę więcej w razie czego wolnego, że tak powiem, bo raczej walizka i plecak nie sprzyja jakiemuś, tu jest coś, ja pana zaprowadzę, no niekoniecznie, jak ktoś ma takie rzeczy.
Więc ja bym trochę chciał, żeby właśnie powstały jakieś takie rozwiązania albo na przykład to, co kiedyś próbowano zrobić i to chyba nie bardzo wyszło do
zczytywania numera autobusu, jaki przyjeżdża. No jest time for bus, no tylko time for bus nie działa wszędzie.
No nie wiem, może dałoby się stworzyć jakieś rozwiązanie tego typu, które by rzeczywiście działało.
A tymczasem mamy telefon, więc proponuję, żebyśmy odebrali, kto jest z nami po drugiej stronie?
A dobry wieczór, kłania się Paweł Podolski z tej strony.
Dobry wieczór, Paweł.
Ja mam kilka takich króciutkich, mam nadzieję, pytań.
Pierwszą rzecz to chciałem się zapytać, czy są jakieś rozwiązania, które by mi umożliwiły
po dyktowanie tekstu do komputera.
Na zasadzie, że piszę sobie tekst w Wordzie albo w LibreOffice,
albo w Thunderbirdzie, albo w czymkolwiek tam innym.
I zamiast pisać, to dyktuję tak jak dyktuję na przykład do Binga w przeglądarce
albo do YouTube’a, żeby mi coś wyszukał.
W Windows 11 napiskasz Ctrl-H, to działa w większości pól edycyjnych.
A nie Windows H?
Windows H, Windows H i to teoretycznie powinno działać, tylko oczywiście to nie jest Whisper, więc trzeba mówić trochę na zasadzie cześć, przecinek i tak dalej.
Word też ma wbudowane dyktowanie, gdzieś to się włączało.
Control, akcent, przecież nie pamiętam, co jest akcentem chyba.
Tylko to musi być dość nowy Word, a chyba najlepiej to ten w Office’ie 365.
A jak to jest teraz z tym ofizem 365? On jest tylko przecież chyba dostępny jako strefa internetowa.
Nie, nie, nie. Tu chodzi zupełnie o co innego. Te rzeczy z tego pakietu, one są po prostu, one są normalnie dostępne do pobrania.
to się wszystko pobiera, tyle że płaci się chyba za aktualizację, bo z tego co wiem, to nawet jeżeli przestaniesz płacić, one…
To jest generalnie subskrypcja.
Tak, to jest model subskrypcyjny, płaci się za rok albo za miesiąc, no i w razie gdy przestanie się płacić, to te produkty chyba nawet nadal są na dysku, tylko tyle, że nieaktualizowane.
One chyba przychodzą wtedy w tryb tylko do czytu, z tego co pamiętam.
A może.
Tak, bo ta QWERT na przykład działa na iPhonie, jak dobrze pamiętam, że…
Na Windowsie chyba nie jest tylko do skrzytu, bo jakiś czas musiałem zaniechać płatności i u mnie QWERT normalnie jest w stanie edytować dokumenty, tylko tam się chyba nie aktualizuje, właśnie czegoś tam nie ma.
Ja miałem inną sytuację, ja komuś pomagałem, właśnie ta osoba miała jakiś okres próbny, on się skończył i faktycznie to się zablokowało wtedy całkiem, no ale może to inaczej wygląda jak jest anulowana subskrypcja, tego też nie jestem na stopę.
Być może, nie wiem.
Natomiast jeszcze Pawle jedna rzecz, której można spróbować to są dokumenty Google’a.
Właśnie, to miałem też powiedzieć, bo one też mają funkcję dyktowania, to jest gdzieś w menu, jest też do tego skrót, ale to też można przez menu znaleźć i tam jest napisane jaki to jest skrót.
Był kiedyś też dodatek do NBA do dyktowania, który też chyba z jakiegoś apigu korzystam, ale on chyba już długo nie jest aktualizowany niestety.
Natomiast to co, jeżeli masz Windowsa 11, to w większości pól edycji, nie wiem czy w Thunderbirdzie to działa, zaraz będę mógł to nawet sprawdzić, w każdym razie w większości pól edycji powinno…
No tak, a w dziesiątce to można po prostu w tych aplikacjach konkretnych, jak akurat chcesz do Worda dyktować, czy właśnie do dokumentów Google, to można.
I to Windows rozpoznaje polski język, nie ma problemu.
Tak, chyba on nie zna polskiego języku, tak.
Dyktowanie w języku polskim w Windowsie jak najbardziej jest.
Właśnie to sprawdzam w Thunderbirdzie i to działa.
A jeżeli chodzi o wersję beta Windowsa, to czy warto przystąpić do tego programu niejawnego testów w Microsoftzie?
Czy w ogóle jesteśmy w stanie samodzielnie w tym momencie zainstalować Windowsa na komputerze?
Czy on się normalnie aktualizuje jako aktualizację i jak to wygląda, ten program testów Windowsa?
Jak to wygląda?
Samo przystąpienie jest banalnie proste,
bo po prostu to się robi w sekcji aktualizacji.
Nie pamiętam, czy trzeba też na stronie się zarejestrować.
Chyba nie. Po prostu w sekcji aktualizacji tam jest osobna część,
gdzie można się do tego programu niejawnych testów zapisać.
Tam też jest kilka kanałów dostępnych.
Ten taki najczęściej aktualizowany to jest kanał Canary.
I tam na przykład te nowości, o których ja ostatnio mówiłem się pojawiły.
Kiedy jesteśmy u tego kanału zapisani, i to się wtedy w Windowsie właśnie w ustawieniach aktualizacji wybiera z jakiego kanału chcemy do aktualizacji dostawać.
No to tak, komputer nam będzie się sam automatycznie aktualizował, nawet ze stabilnej wersji możemy sobie tak to zaktualizować.
Też Microsoft co jakiś czas, to chyba co kilka miesięcy udostępnia obrazy ISO w tych wersji testowych, jeśli ktoś by chciał sobie od zera taką wersję testową postawić.
No i to się generalnie będzie aktualizowało częściej, no wiadomo, musimy się wtedy liczyć z tym, że no przez to, że to są wersje testowe, niektóre funkcje mogą się pojawić, gdzieś tam zniknąć, może być mniej stabilne, no i oczywiście Microsoft będzie zbierał wtedy z naszego komputera więcej danych i tego się wtedy nie da wyłączyć, to jest tam zresztą powiedziane, tak normalnie możemy przełączyć na ten tryb minimalny, no to jeśli w tym programie jesteśmy, to tam trochę więcej danych jest zbieranych, to jest jedna rzecz, a druga rzecz jest taka,
że jeśli się na to zdecydujemy, to po pierwszej takiej instalacji mamy tam kilka dni
zanim Windows nam nie usunie archiwów starych aktualizacji, kiedy możemy się z tego programu wycofać.
Jeśli tego nie zrobimy i będziemy sobie to aktualizować, będziemy powiedzmy w połowie,
teraz mieliśmy tą aktualizację kwartał 4 2023 roku, a teraz już się szykuje pierwsza aktualizacja roku 2024
czwartego i pojawi się jakaś aktualizacja, która nam coś popsuje.
Możemy z tego co pamiętam cofnąć się do poprzedniej wersji testowej, natomiast nie
możemy przez jakiś czas wrócić do wersji stabilnej Windowsa i musimy go po prostu
zainstalować od zera.
Będą czasami takie momenty, kiedy do tego programu niejawnego będzie aktualizacja i
to Microsoft wtedy powie, że ta wersja jest identyczna z wersją, która właśnie ukazała
stabilnie dla wszystkich, więc jeśli ktoś chce z tego programu teraz wyjść, opuścić, zresztą podobnie jest z betami Apple w sumie,
no to wtedy możemy się wypisać, a w innych sytuacjach no to po prostu zostajemy w tym programie testowym, jeśli chcemy z niego się wycofać,
no to po prostu musimy Windowsa od nowa zainstalować. Co możemy zrobić sami, to też twoje kolejne pytanie.
No te nowsze Windowsy mają narratora w instalatorze, mają sterowniki dla większości takich najbardziej popularnych zintegrowanych kart dźwiękowych.
Nawet gdyby twoja karta nie zadziałała, no to można sobie podłączyć jakieś słuchawki na USB czy jakiś dyktafon, właśnie jakieś Olympusy czy Zoomy jak masz to też to działa.
Podłączamy sobie takie słuchawki albo po prostu do komputera podłączamy jakieś głośniki.
i naciskamy Ctrl-Windows-Enter po włożeniu tej płyty czy po odpaleniu instalatora z zysku USB.
Z tym możemy potrzebować pomocy, no bo to w BIOSie będzie trzeba przestawić.
No i naciskamy Ctrl-Windows-Enter i narrator powinien nam się odezwać.
Natomiast odpowiadając na to pytanie, czy warto?
Jeżeli, Pawle, ten komputer, na którym chcesz zainstalować sobie ten system,
to jest urządzenie, z którego korzystasz tak na co dzień i jest to jedyne twoje urządzenie,
to moim zdaniem nie warto, bo w tym momencie po prostu jest większe ryzyko,
a jeżeli jeszcze wykorzystujesz go do pracy na przykład, to tym bardziej nie warto,
bo to zwiększa się niestety ryzyko tego, że coś może pójść nie tak i te wersje beta
to rzeczywiście są przeznaczone dla tych, którzy wiedzą co robią i wiedzą na co się narażają
W tym momencie i w takiej sytuacji jeżeli np. mamy jakiś drugi komputer, chcemy sobie to potestować, chcemy zobaczyć co tam na nowego Daywindows, to jest okej, natomiast jeżeli to na naszym urządzeniu podstawowym, to ja na urządzeniu podstawowym nie instalowałbym wersji testowych.
Jasne, dziękuję bardzo, a jeszcze miałem krótkie pytanie odnośnie właśnie Hearthstone’a.
Bo tam niektóre karty mają możliwość właśnie wykłucia i do tego jest osobny skrót klawiszowy i zastanawiam się, czy są jeszcze inne słowa kluczowe, które dają niektórym kartom właśnie inne właściwości czy właśnie inne skróty.
Bo widziałem, że jest coś takiego jak anomalii, ale nigdy się nie umiałem doszukać, kiedy one występują.
No i chciałem się też zapytać, ile trwa taki sezon jednej rozgrywki w HearthStone?
Kiedy się te pakiety bazowe zmieniają?
No to od początku, jeśli chodzi o wykłucie, no generalnie do tych wszystkich słów kluczy, które mają osobny skrót, to jest po prostu literka T, która zresztą wzięła się od innego słowa klucz, które pojawiło się wcześniej, a mianowicie to jest chyba po polsku przetłumaczone jako wymiana, bo niektóre karty możemy sobie z naszej ręki wymienić, też właśnie naciskając T, no jak trade, bo to jest z angielskiego skrót.
Czy jakieś inne karty mają swój jakiś skrót?
Chyba nie, bo one generalnie robią coś, kiedy je zagramy.
Zawsze możesz nacisnąć I na każdej karcie i wtedy wszystkie słowa klucz są zawsze ci wytłumaczone,
więc to też warto o tym skrócie I pamiętać, to jest taka pomoc.
No tych słów klucz jest dużo.
Anomalie kiedyś były bardziej widoczne, bo anomalie pojawiały się same z siebie.
No sama nazwa było takich sezon, w których po prostu anomalie były jego częścią,
a teraz one się pojawiają tylko wtedy, kiedy dodasz sobie do talii jednego konkretnego stronnika.
Teraz nie pamiętam, który to był stronnik, to był jeden z takich nowych stronników,
który niedawno wszedł, w jego opisie tam pisze, że jeśli ta karta jest po prostu w twojej talii,
to tam jest chyba 25% szansy, że jakaś anomalia się pojawi.
I one gdzieś na stronie Bizarta są rozpisane, bo ich tam było kilkanaście.
No to były różne efekty, które mogły nam w jakiś sposób minimalnie tą rozgrywkę zmienić.
A jeśli chodzi o sezony, no to taki cały sezon generalnie trwa, no sezon, rangi resetują się zawsze co miesiąc,
a jeśli chodzi o nowe paczki, no to one wychodzą co kilka miesięcy, a niedługo, to będzie pewnie na wiosnę, marzec, kwiecień,
no to rozpocznie się cały nowy rok, no to tutaj się wystąpi rotacja kart i to w ogóle będzie taki ciekawy rok o tyle, że to będzie dziesiąta rocznica istnienia Hearthstone’a na rynku,
więc bardzo możliwe, że jakieś ciekawe rzeczy firma ma na tą rocznicę zaplanowane.
Będziemy na pewno informować, czy coś się zmieni.
A czy ten skrót właśnie i on działa w trybie jakby oglądania też kart?
Tak, on powinien działać wszędzie, działa podczas rozgrywki, jeśli coś zapomnimy, chcemy sobie sprawdzić, działa właśnie podczas przeglądania, podczas tworzenia talii, on generalnie powinien działać wszędzie.
Jasne, dobrze, to ja bardzo dziękuję za wyjaśnienia, miłej audycji życzę, dziękuję uprzejmie.
Również dziękujemy.
Dzięki Pawle za telefon, do usłyszenia.
I przechodzimy do newsa następnego, w ogóle dość ciekawego, bo na uniwersytecie w Cambridge nauczyli robota czytać Braille’em. To po co?
To najpierw, może zanim przejdę do tego po co, to powiem jak w ogóle wyszło to uczenie czytania Braille’em, bo okazało się, że faktycznie udało się, udało się nauczyć tego robota, żeby czytał dwa razy szybciej niż człowiek przeciętnie czyta Braille’em, czyli to jest 315 słów na minutę.
ten robot jest w stanie odczytać tak naprawdę, no to jest taki specjalny sensor,
który porusza się nad tekstem zapisanym Braille’em
i w jakiś tam odpowiedni sposób go odczytuje, przetwarza,
no i to przetwarzanie to jest z 90% dokładnością w takim tempie.
I teraz ktoś by sobie mógł zadać pytanie, ale po co to w sumie?
Taka trochę sztukarz dla sztuki. Przecież brail nie jest jakoś bardzo powszechny, dużo tekstów w tym nie ma, więc co taki robot właściwie mógłby robić?
No i nie, jeżeli ktoś na przykład liczył, że będzie to jakaś pomoc szkolna, na przykład pomagająca nauczycielom odczytywać klasówki uczniów niewidomych,
to nie, to absolutnie tak nie będzie, to w ogóle nie zostanie wdrożone nigdzie, nie ma nawet takich planów, tu chodzi o coś zupełnie innego.
Roboty mają problem z delikatnością i właśnie dzięki temu, że nauczono tego robota czytać Braila,
to udało się to również dzięki temu, że w te sensory, które odczytują ten tekst udało się zaprogramować odpowiednio delikatne traktowanie tego tekstu.
Bo to jest tekst, no braillowskie punkty wiadomo, że dość łatwo jest gdzieś tam jak się odpowiednio dużą siłę przyłoży, to możemy je po prostu wprasować do środka, do tej kartki.
Natomiast to wcale nie chodzi o brajla, tylko o różnego rodzaju inne rzeczy związane z przemysłem.
Jeżeli na przykład dany robot, dane urządzenie pracuje z jakimiś bardzo delikatnymi tworzywami,
które po prostu używając zbyt dużej siły może zniszczyć, no to trzeba to zaprogramować tak,
żeby tej siły przykładał odpowiednio mniej, a jednocześnie no to musi być to ramie robota, czy jakieś inne manipulatory muszą być skonstruowane z takich materiałów,
które po prostu nie ulegną tak łatwemu zniszczeniu, więc one muszą być dość solidne, dość mocne, bo tego typu konstrukcje projektuje się na lata.
I właśnie to, jak nauczono tego robota na Uniwersytecie w Cambridge czytać Braille, ma posłużyć do prowadzenia dalszych badań i po prostu te roboty kolejne, które będą rozwijane, które będą produkowane, czy wnioski, które udało się wyciągnąć właśnie z tych testów, mają pomóc przy projektowaniu różnych przyszłościowych, przemysłowych rozwiązań.
a te uczenie czytania Braille’em to miał być po prostu taki test dla delikatności tego urządzenia i tego jak będzie się obchodziło z tekstem.
Aczkolwiek to możliwe, że dzięki temu, że to jest jednak zrobione na jakiejś uczelni, no to zapewne jest jakaś praca albo kilka wykonana,
jakaś wypuszczona gdzieś do tych wszystkich zbiorów dużych i być może ktoś z tego skorzysta i rzeczywiście stworzy produkt, którego zadaniem będzie rzeczywiście czytanie Braille’em i być może, nie wiem, skaner braillowski, a nie wiem.
A przypadkiem już takich rozwiązań kiedyś nie było? Mam wrażenie, że kiedyś już…
Była jakaś aplikacja, nie? OBR chyba to się nazywało.
Może, ale w każdym razie możliwe, że byłoby to jakoś ciekawe.
Inną ciekawostką może być to, z jakich technologii asesujących korzystano w Rosji w 2023 roku.
Tak jest, bo zwykle kiedy słyszymy o badaniu użytkowników, czytników ekranu,
czyli o tej ankiecie, kiedy słyszymy ankiecie użytkowników czytników ekranu,
która jakiś czas temu znowu została uruchomiona, no to kojarzy nam się Webejm.
Ale jest jeszcze na wschód od nas firma Yandex, taki rosyjski dostawca różnych usług internetowych,
który również ma jakiś zespół zajmujący się dostępnością, a oprócz tego już któryś raz z kolei przeprowadza
takie badania na użytkownikach i pyta z czego korzystają, jak korzystają, no i opublikowali jakiś czas temu wyniki takiej ankiety.
No to teraz przyjrzyjmy się jak to w ogóle wygląda. Na dobry początek demografia. Skąd w ogóle pochodzą użytkownicy, którzy brali udział w tym badaniu?
No nie będzie żadną ciekawostką ani nowiną, że najwięcej z Rosji, bo 89,2% i to jest 438 osób, jeżeli chodzi o Białoruś to 5,5%, Kazachstan 3,7%, inny kraj 1,6%.
Ja tam w notatkach też wyczytałem, że to jest, podejrzewam, taki efekt tej rosyjskiej agresji na Ukrainę,
że z Ukrainy to tam tylko jedna osoba wypełniła tę ankietę.
Około pół tysiąca respondentów wzięło udział w badaniu, więc taka próbka, ktoś powie duża, inny powie niewielka.
Ale jak na niewidomych, to myślę, że nie jest wcale taka mała.
No i cóż mamy dalej? Jakie my tu mamy kolejne rzeczy związane z użytkowaniem przez niewidomych, przede wszystkim w Rosji, technologii?
Pierwsze pytanie dotyczyło urządzenia, z jakiego korzystają. No i tak, mamy następujące wyniki.
Ze smartfona i z tableta z ekranem dotykowym 98,8% korzysta, więc naprawdę bardzo dużo.
Tu oczywiście wiadomo, że w niektórych pytaniach będzie więcej niż 100%, bo niektóre były wielokrotnego wyboru,
więc to też proszę mieć na uwadze.
Komputer stacjonarny bądź laptop to 91,4%. Urządzenie lub aplikacja z asystentem głosowym 66,6%.
Telefony komórkowe z przyciskami. Gdyby ktoś się zastanawiał jak popularne są to rozwiązania.
10% na wschód od nas. I jeszcze była opcja inny, no i tu mamy 0,6%.
A ciekawe swoją drogą, co to by było innego.
Jaki system operacyjny jest zainstalowany na twoim komputerze, laptopie?
I mamy tak, już sobie tu zerkam, Windows 98,7%.
Jeżeli chodzi o Maca, to 9,4%.
Jedna z dystrybucji Linuxa, 7,3. I teraz, aż spojrzę sobie w liczby tych…
Ale wiesz, jedna rzecz mnie ciekawi.
No?
Bo zobacz, że korzystanie z komputerów PC, laptopów, to było 91%, ale Windows 98%.
Tak, no, na tych komputerach prawdopodobnie.
Z tych 91 chyba.
Tak, tak.
Aha, dobra.
No, bo to w ten sposób, bo to wiesz, nie wszystkie pytania ze sobą jakby można zderzyć, bo te wyniki będą wychodziły inne.
I tak, i mamy system operacyjny Macno to 9,4 i teraz ten Linux, 33 osoby na całe badanie korzystają z Linuxa, bo to akurat mnie zaciekawiło, jak to wygląda w liczbach bezwzględnych.
I Android też na komputerze, czyli pewnie jakiś Chromebook albo może wirtualna maszyna 0,2 i to jedna osoba się przyznała, że korzysta w ten sposób z urządzenia takiego, no nie mobilnego, tylko po prostu z komputera.
Której przeglądarki używasz jako głównej i czy najczęściej korzystasz z niej na komputerze, laptopie?
I co my tu mamy?
Google Chrome, słuchajcie, 47,9%, potem mamy Firefoxa i to jest naprawdę przepaść, 18,9%.
To jest bardzo duża różnica. W liczbach to wygląda, że 193 osoby Chroma, a 76 Firefoxa używa.
Potem mamy…
Chyba i tak więcej jak w świecie osób widzących mimo wszystko.
No tak.
To jest jeszcze gorzej wyglądać.
Potem mamy przeglądarkę Yandex, czyli typową dla Rosji, dla użytkowników Yandexa.
Microsoft Edge, słuchajcie, 7,4, 30 osób korzysta z Edge’a na całe badanie.
Safari, 4,2, natomiast Opera też się zakwalifikowała, to mamy 1,7.
I jest jeszcze taka przeglądarka Atom, to też chyba jakaś taka tamtejsza przeglądarka.
1,2. Pięć osób z Atoma korzysta i słuchajcie, jest jeszcze Internet Explorer. Też pięć osób z Internet Explorera korzysta. Inna przeglądarka, 1% respondentów.
Z jakiej przeglądarki korzystać jako dodatkowej? No bo wiadomo, wcale nie trzeba korzystać z jednej. I co my tu mamy?
Yandex jako dodatkową przeglądarkę wykorzystuje 30,3%, Google Chrome 28,6%, Mozilla Firefox 28,1%, 19,1% ma Microsoft Edge’a, używa jako dodatkowej przeglądarki.
Nie korzystam z dodatkowej przeglądarki, na to się decyduje 17,2.
Tu jest jeszcze Opera 7,7.
O słuchajcie, Internet Explorer.
Okazuje się, że 6,7% respondentów, czyli 27 osób, jeszcze Internet Explorera używa.
Jak coś nie działa, to korzysta z Explorera.
Ale to też muszą mieć starsze systemy, bo na pewno od dziesiątki, bo w ósemce chyba jeszcze jest.
Explorer.
Chyba tak.
Samka już też aktualizacji nie dostaje.
No właśnie, no właśnie.
I jako dodatkowej też ludzie używają
Safari 6,2.
I 1,7
z Atoma korzysta.
No i inny 1,2.
Następne mamy pytanie.
Jaki system operacyjny
jest zainstalowany
na twoim smartfonie
lub tablecie?
No i tu będzie ciekawie, Android 79,7, iOS albo iPadOS 38,6, to teraz może w liczbach, bo to też będzie ciekawe.
Androida 388 respondentów używa,
188 natomiast iOS-a.
Symbian 6,2, 30 osób jeszcze z Symbiana korzysta.
Inny to 5%, nie, przepraszam, 1%, 5 osób.
I tyle, przechodzimy dalej.
Jak często wchodzisz w interakcje ze stronami internetowymi,
za pomocą przeglądarki na smartfonie lub tablecie?
Takie pytanie zostało zadane.
No to co my tu mamy?
Wchodzę w interakcje,
ale preferuję aplikacje mobilne o podobnej funkcjonalności.
Takiej odpowiedzi udzieliło 55,5% respondentów.
Następna odpowiedź,
i to może tak w liczbach jeszcze, 266.
Regularnie wchodzę w interakcje i uważam to za wygodne, 26,5, czyli 127 osób tak zadecydowało, uważam, że surfowanie na urządzeniu mobilnym jest niewygodne i unikam go.
To z kolei odpowiedź, którą wybrało 18%, 86 osób.
Takie są odpowiedzi.
Której przeglądarki używasz jako głównej na swoim smartfonie lub tablecie?
I co my tu mamy?
Google Chrome, 41%, 161 osób.
Safari, 26,5, to 104 osoby.
Przeglądarka Yandex, przeglądarka Yandex wyżej jest.
20,4% to 80 osób, przeglądarka internetowa Samsunga to jest odpowiedź, której udzieliło 4,8%,
Firefox niziutko 2,8%, 11 osób tylko.
Zastanawiam się, Yandex może być tak wysoko, bo jeśli dobrze pamiętam, może się mylę jak ktoś mnie najwyżej poprawi,
że Rosja wprowadziła jakiś przepis, że na pewno tak jest na Androidzie, nie wiem jak jest z iPhone’ami,
że ten Yandex musi być zainstalowany na wszystkich nowych telefonach.
To całkiem, wiesz, to całkiem jest możliwe.
Ludzie to po prostu mają gdzieś zainstalowane, to też może…
Jest jeszcze Opera, jest jeszcze Opera na przykład.
1,8, 7 osób.
Microsoft Edge to jest przeglądarka, na którą decyduje się 1% respondentów, 4 osoby.
i inny 1,8 tak to jest.
Następne pytanie, pytanie ósme z jakiej przeglądarki dodatkowej korzystasz na smartfonie i tablecie
oprócz tej którą już wskazałeś i mamy wyniki takie
przeglądarka Yandex najwyżej jest jako ta dodatkowa 35,1%
Google Chrome 29,8%, nie korzystam z dodatkowej przeglądarki, to 26,2%, Safari 9,9%, Mozilla Firefox, Firefoxem wspomaga się 7,1%.
I tyle samo jako dodatkową wybiera przeglądarkę internetową z Samsunga.
Microsoft Edge to z kolei opcja, na którą się decyduje 1,8%, a 1,5% z Opery korzysta z innej 1,8%.
Technologie wspomagające. Teraz przechodzimy do drugiego zestawu pytań.
Z jakich technologii wspomagających korzystasz w swojej pracy?
Takie pytanie padło. I co my tu mamy?
Czytnik ekranu 95,7%, 470 respondentów.
Program do powiększania ekranu 11,6, 57 osób konkretnie.
monitor brajlowski, 10,2, 50 osób tylko korzysta z monitora brajlowskiego.
Przetłumaczyło mi to tak fajnie, samowyrażające się środowisko pracy,
czyli prawdopodobnie coś, co nam mówi, takie jakieś zintegrowane oprogramowanie,
coś jak Dolphin Guide albo eMaxpeak, 2%, 10 osób z tego korzysta.
I inna technologia to jest 0,8%.
Dalej.
Jakiego czytnika ekranu używasz jako głównego?
NVIDIA najwyżej 66,3.
289 osób tak wybrało.
JAWS w tym w ramach Fusion 27,5%.
a 120 osób, voice over dla systemu macOS 4,4%, 19 osób, narrator 1,4, 6 osób, orka 0,5%, dwie osoby i tyle.
Jakich innych programów czytników ekranu używasz jako dodatkowych?
No to co my tu mamy, narrator no to najwięcej 30,3, 132 osoby, Joss w tym ramach Fusion 29,4%, 128 osób, nie używam dodatkowych czytników ekranu, to jest też dość wysoko punktowana odpowiedź bo 29% respondentów tak wybrało,
bo 126 osób korzysta tylko z jednego czytnika ekranu.
NVIDIA 25,3%, 110 osób z tego korzysta.
Orka 5,7, 25 osób, co ciekawe, używa.
Czyli tak by wyglądało, że z Linuxa, jeżeli ktoś korzysta trochę bardziej jako słabowidzący,
mam takie wrażenie.
Albo jako drugi system.
Tak, bo dokładnie, dokładnie.
Więc to tak w ten sposób wygląda, a to jest ciekawe, bo akurat na Tiflokompie, czyli na tym rosyjskim takim serwisie dotyczącym technologii dla niewidomych, dość często pojawiają się informacje dotyczące nowości w Linuxie udźwiękowionym.
Ale te statystyki chyba też wyglądają trochę inaczej niż na arenie międzynarodowej, bo z tego co pamiętam z tych ankiet webej, no zresztą też niedługo będziemy mieli wyniki tegorocznej, to tam chyba więcej ludzi korzysta z dwóch albo trzech nawet czytników ekranu.
No właśnie, to też jest ciekawe. VoiceOver dla macOS 4.4 to 19 osób wybrało tę odpowiedź.
Z jakich czytników ekranu korzystasz na swoim smartfonie bądź tablecie?
No i słuchajcie.
Talkback, dystrybuowany za pośrednictwem Google Play, 54,6%, 256 osób.
Czytnik ekranu Joshua, 39,9, 187 osób korzysta z komentarzy.
Dość wysoko.
Tak, dość wysoko.
No to jest rzeczywiście, to takie wyniki mam wrażenie, że zwłaszcza w tym sektorze mobilnym
one się mogą bardzo różnić od tego, co pokaże Webein, bo Webein jednak celuje w
No w Stanach Zjednoczonych przede wszystkim.
Ale zobaczymy. VoiceOver na iOS, iPadOS.
38,8,
182 osoby.
TalkBack, asystent głosowy preinstalowany na urządzeniach Samsung.
33,5%.
157 osób
ma Samsungi.
Ho, ho, ho, ale słuchajcie.
Mobile Speak dla Symbiana. 5,8.
27 osób jeszcze z Mobile Speak’a korzysta.
No tak, no bo jeżeli jest
jest Symbian tam, no to z czegoś na tym Symbianie trzeba korzystać.
Oczywiście, że tak, ale wiesz, nie ma tej,
nie ma tu chyba nigdzie Nokii Screen Reader’a na przykład.
Yyy…
A, o właśnie.
Przynajmniej nie widzę na razie, może zaraz do tego dojdziemy, zobaczymy.
Yyy… Screen Reader preinstalowane na urządzeniach Huawei
3,4 to 16 osób wybiera taką odpowiedź, tu przetłumaczyło mi to jako rozmowy i myślę, że nasi niektórzy słuchacze już wiedzą co to są rozmowy.
Toks, kolejny Symbianowy zabytek, 1,7%, 8 osób z Toksa korzysta.
To mamy te trzydzieści parę osób, które Symbiana korzystały.
Dokładnie, dokładnie, czytnik ekranu BlackBerry jest taka opcja, 0,2 to jedna osoba, jedna osoba używa BlackBerry i to wszystko, więc nie ma Nokii Screen Reader’a, ciekawe, jak długiej, jak długiej linijki używasz, jeżeli chodzi o monitor brajlowski, no i mamy takie opcje 24, 32, 40 znaków,
To jest pierwsza opcja jakby do wyboru.
80% respondentów korzysta z takiej linijki.
Z tego typu długości.
No to tak słabo, to ja bym to chyba jakoś inaczej podzielił.
Tam powiedzmy do 20% może i tam powiedzmy 30%-40%.
Wiesz co, ale właśnie będzie w ten sposób to podzielili,
bo to jest 24, 32, 40, to jest 80%
i to jest 40 osób, bo pamiętajmy, że tam w sumie
Wiele osób z tych linijek nie korzystało. 12, 14, 18, 20 znaków to 28%, to 14 osób i 64 albo 80 znakowej linijki brailowskiej używa 10% respondentów, 5 osób w ten sposób pracuje.
Z jakich programów do powiększania ekranu i korekcji obrazu korzystacie?
No to co my tu mamy?
Funkcja powiększania ekranu wbudowana w system operacyjny.
Z tego korzysta najwięcej, 93% respondentów, 53 osoby tak w ogóle,
bo pamiętajcie, że to, no właśnie, niewielu tu jest w ogóle słabowidzących.
Tu dużo niewidomych zabrało głos w tej ankiecie.
I dobrze, bo zwykle jak się mówi o niewidomych, to często to potem się okazuje, że jednak sporo osób jakoś tam tym wzrokiem się posługuje,
a tu widać, że to bardzo niewidomi się wypowiedzieli bardzo intensywnie.
53 osoby natomiast korzystają z rozwiązań systemowych, ZoomText w tym jako część Fusion 7%, 4 osoby, Magic 3,5%, a 2 osoby.
Zwykłe szkło powiększające, też takie rozwiązanie. To jedna osoba w ten sposób działa.
Tu jest bardzo dziwne tłumaczenie, z jakich przestrzeni roboczych do samodzielnego wyrażania głosu korzystasz.
Ja to rozumiem tak, że chodzi tu o jakieś takie systemy, które są samoodźwiękowione.
Przynajmniej wnioskuję tak po tych opcjach i trochę szkoda, że nie został tu uwzględniony Elten, bo nie został, a ciekawe jakby było, bo najwięcej ma Lizzie, czyli te dodatkowe skrypty dla Joe’sa, które Brian Hudgen rozwija, 60% korzysta, 6 osób tylko.
GuideConnect 30% 3 osoby i MaxPeak 30% 3 osoby i tyle słuchajcie tak wyglądają te wyniki tak się ta ankieta przedstawia dla mnie no właśnie największym takim chyba zaskoczeniem jednak są te kwestie związane z mobilnością z urządzeniami mobilnymi
bo wydawałoby się, że jednak ten iOS to jest taki system bardzo, bardzo popularny.
Ja podejrzewam i wcale bym się nie zdziwił, że gdyby zrobić podobne badania w Polsce,
to też by mogło wyjść, może nie tak aż bardzo, ale też bym się nie zdziwił, jakby Android miał dużo jednak.
Ale czy byłaby taka przewaga 80-20, to nie wiem, chyba byłaby mniejsza.
Chyba byłaby mniejsza, rzeczywiście, ale no w każdym razie widać jak to na wschodzie wygląda.
Pamiętam jak była audycja z Janem Szusterem na temat Totupointa, czyli stwórcą tego systemu
i on zdaje się, mówił nawet właśnie w trakcie audycji, że on chyba widział, że więcej wywołań tych Totupointów
było właśnie z Androida u nas niż z iOS-a, to oczywiście nie jest jakimś wyznacznikiem, ale coś tam daje do myślenia.
Tak, bo wiecie, jeżeli o Androida chodzi, no to ten system się też coraz bardziej przecież rozwija i przede wszystkim nie jesteśmy uzależnieni
aż tak bardzo dofinansowań, jeżeli chcemy sobie kupić jakiegoś średniaka z Androidem,
a nie jesteśmy jakoś bardzo zasobni w gotówkę,
no to od operatora możemy sobie wziąć taki telefon i spłacać, oczywiście iPhona też,
natomiast no ten Android będzie tańszy.
To się zgadza, zwłaszcza, że jednak iPhone przecież to jest jakby,
znaczy jakby to jest telefonem premium ze wszystkimi tego konsekwencjami,
na przykład drugimi akcesoriami domyślnymi,
Których oczywiście jest troszkę, one są dobrej jakości, ale są zwyczajnie drogie i jakby ten telefon jest trochę skierowany do osób, które mogą sobie pozwolić na wydanie jakiejś tam ilości pieniędzy właśnie na akcesoria premium, do smartfona premium.
Co by nie mówić.
To się wszystko zgadza.
Coś jeszcze chcecie dodać do tego, bo mam tu jeszcze komentarze, które się pojawiły w międzyczasie.
Ok, dobrze, to już patrzę na to, co do nas ludzie piszą, a konkretnie Boczek.
Wczoraj pojawiła się siódma beta NVIDIA 2024.1.
To, co mogę powiedzieć a propos zmian, to w Wordzie w trybie przeglądania
zaznaczoną część tekstu będzie można skopiować razem z formatowaniem.
Reszta to poprawki związane z tłumaczeniami, dokumentacją.
Pozdrowienia dla Was i słuchaczy.
Dziękujemy bardzo, pozdrawiamy ciebie również Boczku, no i teraz tutaj raczej jest rozwinięty, w końcu Creatives stamtąd pochodzi, a no to o Singapurze, tu prawdopodobnie Boczku mówisz, no.
Też kiedyś patrzyłem na statystyki szybkości Łączy na całym świecie i gdzieś ten Singapur chyba był na pierwszym miejscu nawet, więc to by się też gdzieś zgadzało, że to mają najlepsze światłowódne.
A propos szybkości łącz, to ponoć już Orange testuje 10Gbps światłowody dla użytkowników domowych i dziś gdzieś widziałem u kogoś wyniki speed testa.
Tylko jestem ciekaw, no bo 10 gigabitów to brzmi fajnie oczywiście, no ja mam gigabit i rzadko mi się zdarza, żeby cokolwiek mi ten gigabit wykorzystało.
Ja zdaję sobie sprawę, że no to jest mimo wszystko dedykowane też do kilkuosobowych takich gospodarstw, no ale nawet mimo wszystko wtedy przy nawet pięciu osobach, no to niech by każdy, to każdy niech by nawet pobierał po gigabicie, to by dopiero połowa łącza była zajęta.
Wiesz Tomku, ja myślę, że też operatorzy jednak trochę przycinają na tych sesjach, bo też chodzi o to, żeby, a właściwie nie chodzi o to, żebyś ty jako jeden wysycił to całe łącze i zawsze gdzieś tam zostawiają jakiś zapas.
No można się z tym kłócić i nie zgadzać, ale to jest taka polityka, bo to wiadomo, że jak jest operator zwłaszcza duży, to robi tak, żeby w sumie mieć najmniej problemów.
a wiadomo, że jak jest to internet do domu i teraz tu nagle komuś się zacznie jakaś gra na konsoli aktualizować,
tu sobie ktoś odpali Netflixa, tu sobie ktoś odpali coś jeszcze, to jakby każde te, ta usługa zaczęła brać tyle, ile fabryka dała,
to zaczęłyby się problemy, więc ja podejrzewam, że tutaj trochę też tak jest.
No nie, ale nawet załóżmy, że wiesz, jesteś sam powiedzmy w domu, tak?
Ale ja się spotkałem już z tym, wiesz, że nawet jak jesteś sam, jak korzystasz jako jeden, to nie jesteś w stanie u niektórych operatorów po prostu tego łącza wysycić.
Jak odpalisz sobie ileś sesji i będziesz coś na przykład pobierał, to wtedy proszę cię bardzo.
Natomiast na pojedynczej sesji niestety nie jest to możliwe i ja się kiedyś pamiętam, że bardzo mocno kłóciłem z operatorem moim poprzednim.
Natomiast, no niewiele byłem w stanie, jeżeli o to chodzi, uzyskać.
Bo po prostu taka polityka i już. I nic pan nie zrobisz.
No trudno.
No to chyba przechodzimy do newsów Mikołaja… Piotra, przepraszam.
To może zanim przejdziemy do newsów, to jeszcze odbierzmy telefon, bo mamy akurat.
jest z nami, jak dobrze usłyszałem, Bartek.
Tak, zgadza się, witajcie wszyscy bardzo serdecznie
już w 219. cyfrze o przeglądzie, jeżeli dobrze pamiętam.
Zgadza się, czas leci.
No zgadza się, nieubłagalni jakby to powiedzieli.
Dzwonię do was, powiem tak, z dwoma pytaniami
i z taką jedną ciekawostką, może zacznę od pytań.
Pierwsze pytanie może nawiążę tylko do tematu mojego iPhone’a,
bo muszę Wam się może pochwalić, że w końcu znalazłem kogoś,
kto mi pomoże się dostać do autoryzowanego serwisu Apple’a
u mnie tutaj w mieście i w końcu udało mi się iPhone’a zdać na gwarancję.
Już dostałem wiadomości, że będzie tam, że tak powiem, analizowany
i korzystałem przez parę dni z Blind Shell’a,
bo to był powiedzmy mój zastępczy telefon bo później udało mi się zastępczego
iPhone’a zdobyć ale chciałbym uderzyć tylko króciutko do tego
Blind Shell’a bo ja do niego zamontowałem kartę SD i chciałem sobie z niego
ustawić jakiś dzwonek MP3 który miałem na karcie i szczerze
powiedziawszy mnie tej opcji nie udało się w ogóle nigdzie znaleźć czy wiecie
może czy to jest w ogóle możliwe czy to to jest gdzieś tak ukryte że nawet ja
tak i powiedzmy rezolutny do tego nie doszedłem No Android
jako system to jak najbardziej wspiera pytanie czy to
zostało gdzieś uzupełnione przez tą nakładkę
Blanchela No właśnie to no może to być wiecie, że to
była jedynka tak to nie była dwójka tylko jedynka.
Ja się wcale Bartku nie zdziwię jak tam po prostu nie
zostało to uwzględnione bo no ten system to już jednak
No tak to akurat parę dobrych, a nie wiem czy paręnaście może być, bo ja pierwszy raz chyba w 2020 się z nim styknąłem tak, że to było moje dość krótkie doświadczenie z Blanchettem i powiem, że to było dość uciążliwe, bo nawet powiem wam, że dyktowanie też nie działało bynajmniej dobrze.
Nie wiem, czy to właśnie kwestia czasu zrobiła swoje i ten model już, że tak powiem, swoje wcześniej przeszedł
i dlatego niektóre klawisze mogły nie łapać.
Czy właśnie z tym dyktowaniem, że po zakończeniu dyktowania usłyszałem komunikat o braku sieci,
gdzie na tak zwanym pasku statusu było wyświetlone, że jest sieć dostępna.
Nie wiem, już wnikać tu nie będę, dlatego tak do was tutaj uderzyłem, przynajmniej w tej kwestii.
No ale tutaj to, jak sami powiedzieliście, nie ma czemu się dziwić.
A druga taka dziwna rzecz, która mnie się dzisiaj przytrafiła,
to najmniej dotycząca przeglądarek internetowych.
Bo na Firefoxie chciałem tutaj pomóc w udostępnieniu posta na blogu
znajomemu jednemu i okazało się, że po wprowadzeniu wszystkich danych,
czyli tytułu oraz treści danego posta i po następnym jego opublikowaniu
okazało się, że on wcale nie był opublikowany, a jak już to był pusty.
I wiecie dlaczego to tak mogło się stać? Bo jak zrobiłem na Kromie tą samą operację,
okazało się, że wszystko było w porządku.
A to ciekawa sprawa. Nie przechodzi mi szczerze mówiąc nic do głowy,
ale jeszcze zapytam. Sprawdzałeś, czy kiedy publikowałeś tego posta,
to czy, rzeczywiście we właściwych polach ta treść była?
Tak, jak tutaj przyznam się wkleiłem tą treść posta z innego miejsca,
dwa razy się upewniłem czy ona jest, po wyjściu z pola edycyjnego
jeszcze poruszałem się strzałkami po tym już wypełnionym polu tekst
tam był, no to od razu szukam w nawigacji przycisku opublikuj.
A jaki to system blogowy WordPress?
Tego to wam nie powiem, bo to jest jakby tam się loguje kontem Google’a, więc…
No, ale wiesz, jeżeli tam jest tytuł i treść posta, to raczej, no to raczej nie było czego powiedzmy popsuć, tak?
Jedyne co mi do głowy przychodzi to, że na przykład no nie mógłby być tam jakiś sposób formatowania ustawiony na zwykły tekst
i on może oczekiwał jakichś znaczników, albo na kod HTML-i oczekiwał znaczników,
ale to tak bardzo zgaduje i raczej jeżeli to był WordPress, to on nawet jak mu się
ustawi tryb formatowania w ten sposób, że ma gdzieś tam powiedzmy być ten edytor tekstowy,
no to raczej on po prostu przyjmuje tekst i jeżeli nie ma tam żadnych znaczników formatujących,
no to po prostu wrzuca tak jak dostał. I tyle.
jedyne, jedyne różnice, między, Firefoxem a kromem jaka była
podczas, publikowania tego posta to była taka kiedy,
najechałem, nawigacją, obiektową na pole edycji
gdzie, trzeba wpisać, treść posta to, w, Firefoxie pojawił
się tylko taki jakby to pole było, zaetykietowany bo tam
było coś, oddziel, pole, etykiety między przecinkami
i coś takiego, a w Kromie już tego komunikatu nie było na tym samym polu.
Bartku, bo ty chyba nie w to pole wkleiłeś ten tekst.
Bo jeżeli to było etykiety między przecinkami, to prawdopodobnie to było pole,
w które wpisuje się tagi.
Tylko niemal tak naprawdę pola nie było w wielowierszowaniu.
No to jest bardzo ciekawe, bo to by mi tak wyglądało, bo w blogach,
w systemach blogowych, to są takie, te tak zwane tagi, czyli po prostu jakby takie hasła pod którym publikuje się ten post.
To się w wyszukiwarkach potem przydaje i innych miejscach, sobie na przykład Google też, to zdaje się, lepiej troszkę indeksuje,
jak się tam otaguje to odpowiednio. Natomiast być może wiesz, może być tak, że Chrome i Firefox po prostu inaczej interpretują treść tej strony.
Też może tak być, bo Firefox jeszcze pod polem edycyjnym wykrył dla mnie jakąś dziwną rzecz, gdzie był adres URL i też właśnie nie wiem czemu miałoby to służyć.
Jak się wcisnęł Enter to niby coś tam można było wpisywać, ale dokładnie nie wiem co.
To był adres posta, czyli mogłeś jakby tę końcówkę tego adresu zmienić, gdybyś chciał.
To są tak zwane, to jest też kwestia związana z pozycjonowaniem, tak zwane przyjazne linki, w ten sposób się tworzy.
Aha, okej. No i może tak na zakończenie mogę tutaj ogłosić coś dobrego, bo wiem, że niewidomi słuchają.
Mogę tak się, no ja nie, bynajmniej może nie osobiście, ale pochwalić, że w mojej okolicy, mojego miejsca zamieszkania
pojawiła się makieta dla niewidomych właśnie, która przedstawia obraz najbliższej okolicy.
I w najbliższych dniach mam, że tak powiem, chęć się wybrać i sam przetestować, jak to rzeczywiście wygląda.
I sam się przyznam tutaj na antenie, że jestem rad, że takie coś w ogóle zostało, że tak powiem, dostrzeżone z zewnątrz.
Że jednak są osoby niewidome, które chciałyby chociażby zapoznać się ze swoją najbliższą okolicą, a nie mają takiej możliwości.
to stworzono taką właśnie makietę.
Wiesz, pytanie na ile ta makieta będzie użyteczna,
jestem bardzo ciekaw Twojej opinii, kiedy ją zobaczysz.
Na szczęście ja Wam mogę dać znać za tydzień,
tylko powiem Wam wprost, nie zdziwię się
po tym, co usłyszałem właśnie w autoryzowanym serwisie Apple,
jak oddawałem iPhona na gwarancję,
bo zapytałem się tak z ciekawości,
czy w ogóle ci, co tam pracują, mieli kiedykolwiek styczność z voice-overem.
To usłyszałem tutaj od faceta, że on kiedyś próbował się tym bawić, ale nie miał do tego cierpliwości,
a im się nie opłaca tego uczyć, bo raptem 6-5 osób na rok przychodzi z takim problemem.
Ale to jest, wiesz co, to i tak jest sporo, powiedziałbym.
No ale koleś nie miał ewidentnie żadnej wiedzy w tym temacie.
No cóż, to już jego wybór.
No jego wybór, ale załóżmy, że przyjdzie kompletnie osoba zielona i chciałaby jakieś informacje.
Czy wiesz Bartku, tak z drugiej strony to wydaje mi się, że taka osoba, która zajmuje się serwisem,
to ona przede wszystkim powinna wiedzieć jak tego voiceovera wyłączyć i włączyć.
Ja nie oczekuję od pracownika punktu serwisowego, żeby on był ekspertem od technologii dostępności.
No to fajnie, ale takie, wiesz, taką wiedzę to mają raczej ludzie, którzy pracują w tych tak zwanych genius barach w Apple.
A to jest coś zdecydowanie więcej niż te nasze nawet autoryzowane jakieś punkty serwisowe.
Więc to, no, to ja bym cudów nie oczekiwał.
No może, może i nie, ale jednak wydaje mi się, że jakąś podstawową wiedzę mieć powinni.
No tak właśnie jak mówię.
To jest tylko oczywiście moje indywidualne opinie.
Tak właśnie jak mówię, jeżeli przychodzi osoba niewidoma i powiedzmy pracownik wyłącza sobie tego voice-overa,
no to fajnie by było, żeby ten niewidomy jak odbiera telefon z tego serwisu,
to żeby już go dostał włączonego tam ewentualnie jakoś ustawionego bardzo, bardzo prosto
albo już gotowego, żeby mógł go sobie używać, żeby nie było sytuacji takiej, że pracownik na przykład przejdzie przez jakiś tam wstępny ekran konfiguracji i wtedy już niewidomy będzie miał problem z włączeniem voice-overa, to ja bym tylko tego oczekiwał tak naprawdę.
To już jest, to też tak jak wspomniałem, moim zdaniem kwestia indywidualna, bo tak naprawdę nigdy nie wiemy na kogo tracimy.
Dokładnie.
No ale bądźmy ciche i nadzieję, że jednak ta wiedza będzie się poszerzać.
No oby, oby.
Bo przyznacie, wydaje mi się, że jednak jest to potrzebne.
Bo to, co usłyszałem, wydaje mi się, że jakbyśmy byli troszeczkę jednak margineli…
na marginesie może tak, o przepraszam, nie mogę wymówić dokładnie tego słowa.
No bo niewidomych jako takich jest w sumie niewielu.
i to, bo…
No, ale jednak żyjemy w tym społeczeństwie, więc powinniśmy być traktowani na równo, prawda?
Z drugiej strony, też trzeba im przyznać, że chociaż przynajmniej wiedzieli w ogóle co to jest.
Tak.
No właśnie.
Wiele osób by nie wiedziało, to już jest jakiś postęp.
Mały, ale mały, ale jednak.
No tak, jak się zapyta pospolitego Kowalskiego co to jest voiceover na iPhone’ie, no to co zrobi takie duże oczy pewnie jeszcze?
No właśnie.
Wiesz, wziąwszy pod uwagę, że nie każdy w ogóle zna obsługę iPhona, no bo po prostu nie miał do czynienia z tym telefonem, tak, no jednak u nas bardziej popularny jest Android.
No tak, z tego co słyszałem o statystykach nawet u was, to najbardziej pospolity Apple jest za wodą głęboką w Stanach.
No na to wygląda, na to wygląda.
Dobrze, no to na tą chwilę z mojej strony tyle. Zobaczę, czy w ciągu tych siedmiu dni uda mi się rzeczywiście tą makietę przetestować i sam, jeżeli pozwolicie, spróbuję się podzielić swoimi wrażeniami z tego wynalazku.
Jasne.
Bo mówili, że ma być więcej w Bydgoszczy, tutaj w moim mieście, takich rzeczy, więc najpierw zacznę tu od swojej okolicy, którą no ja bynajmniej poniekąd znam.
No którą znasz. Jestem właśnie bardzo ciekaw, jak twoim zdaniem zostało to przełożone na ten tyfloplan.
No w porządku. No to na tą chwilę to ode mnie będzie. Tyle miejmy nadzieję. A w razie co będę się głosówkami odzywał.
Ok. Dzięki za telefon. Do usłyszenia.
Dzięki serdecznie. Trzymajcie się. Do usłyszenia.
No dobrze, to chyba w takim razie przechodzimy do newsów od Piotra i tu zaczynamy od drobnych newsów, których kilka dzisiaj jest.
Tak, jak zwykle będziemy mówić o wszystkim, zaczynając od, à propos rzeczy, które się będą działy z zawodą, no to niebawem, bodajże 11 lutego będzie odbywał się kolejny Super Bowl,
czyli generalnie to jest po prostu wielki finał amerykańskiej ligi futbolu amerykańskiego,
który w tamtych częściach świata jest tak samo popularny jak u nas.
Nawet bym nie tyle to porównywał do mundialu czy do Euro,
chociaż jeśli chodzi o medialne zasięgi to ma podobne znaczenie,
natomiast Super Bowl to jest po prostu ten jeden finał,
więc to może bardziej popularne do Eurowizji,
że to naprawdę cała Europa ogląda, tutaj cała prawie Ameryka tego Super Bola ogląda.
więc przerwy reklamowe, zwłaszcza między pierwszą a drugą połową tego meczu to są bardzo drogie dla tych, którzy tam chcą się reklamować
i są wykorzystywane, żeby trafić do jak najszerszego grona.
I często dziś tematy dostępnościowe, bo to często duże korporacje się wtedy reklamują,
Tematy dostępnościowe się pojawiały, bo jakiś czas temu, pamiętam,
firma Microsoft się reklamowała swoim kontrolerem do Xboxa,
który jest przystosowany dla osób z niepewnosprawdziwościami
ruchowymi różnymi, tam można różne akcesoria, jakieś przełączniki,
na które aktywujemy językiem, mruganiem oczyma i innymi rzeczami podłączać.
No z tym razem postanowiła się zareklamować Google
i postanowili, co ciekawe, zareklamować funkcję, o której jakiś czas temu mówiliśmy,
która jest dostępna na nowych pikselach, a mianowicie jest to funkcja, która pomaga osobom całkowicie niewidomym zrobić zdjęcia.
Ta funkcja Guided Frame, no mówię, parę tylu przeglądów temu opisywaliśmy jak to działa,
no telefon nas naprowadza, żeby jak ustawić ten telefon, żeby zrobić to odpowiednie zdjęcie.
Jeśli ustawimy się, to nam powie ile widzi głów i czy one są wyśrodkowane, to mogą być zarówno osoby, jak i zwierzęta.
Daje nam samowyzwalacz, mamy kilka sekund, żeby naszą rękę ustabilizować, no i wtedy nam się zdjęcie robi.
No i postanowili się tak zareklamować, jak to osoby niewidome, czy właściwie bardziej słabo widzące można akurat w tej reklamie,
bo w ogóle to jest ciekawe, będzie link do filmu, który nie tylko nam tą reklamę
pokaże, to pokaże jak ta reklama została stworzona.
Film będzie miał audiodeskrypcję i tam jest pokazane, że tą reklamę wyreżyserowała
osoba bardzo głęboko słabo widząca z tego co zrozumiałem, która gdzieś widzi tylko
jakieś cienie i kontury.
No i pokazuje jak taka jedna konkretna osoba nierowidząca gdzieś widzi świat, są jakieś
specjalne, jakoś specjalnie ten obraz jest niekształcony, no ale też pokazuje jak
dzięki temu pikselowi może te swoje przeżycia udokumentować, jakieś podróże
swoje. No i to jest generalnie cała reklama, że no dlaczego warto sobie taki, takiego
piksela kupić, że tutaj firma Google naprawdę dba o osoby z różnymi
niepełnosprawnościami. Tutaj konkretnie właśnie była mowa o osobach z dysfunkcją
wzroku tym razem.
Ciekawe rzeczy się dzieją w tych reklamach, super, bo ciekawe co będzie w przyszłym roku, może kiedyś Apple jeszcze się zaprezentuje, czy jeśli już się nie prezentowali, nie pamiętam szczerze mówiąc, bo Microsoft już tak, jak wspominałem, ciekawe kto jeszcze takie wątki wykorzysta do takiego marketingu, jak to korporacje pomagają osobnie pełnosprawno.
No inna sprawa, że ta funkcja jest całkiem fajnie zrobiona z tego, co dziś
oglądaliśmy w tych materiałach, które pokazywały jak to, jak to działa.
No i to jest taka ciekawostka ze świata, a teraz coś, co się, co możemy sami sobie
przetestować.
Kolejne narzędzie od pana Chi Kima, którego możecie znać np.
od VOCR, czyli fantastycznego narzędzia do rozpoznawania tekst
na Macu, które niedawno zostało różne funkcje związane ze sztuczną inteligencją,
zarówno chatem GPT, tym zdalnym, jak i lokalnymi głównie bazującymi na modelach Lama.
To są takie modele, które gdzieś tworzyła firma Meta, czyli ci od Facebooka,
które zostały udostępnione na otwartych źródłach, dzięki czemu możemy je sobie
instalować na naszym komputerze. Oczywiście to musi być komputer dosyć mocny,
albo jakiś Mac, albo jakiś komputer z mocną kartą graficzną, która najlepiej, żeby miała dużo RAM-u.
No i z takimi modelami możemy sobie porozmawiać.
Aplikacji do tego powstało dużo, wiele działa na interfejsach webowych, które nie zawsze są fajnie dostępne.
Z tego założenia właśnie wyszedł Cheekim.
Stwierdził, że te narzędzia, które są, nie są zbyt fajnie dla nas dostępne
i stworzył kolejne nazywające się VOL Lama.
VOL Lama wpisane przez dwa L.
Będzie oczywiście link w komentarzu,
które pozwoli nam z taką Lamą sobie porozmawiać.
Ona oczywiście musi być zainstalowana.
To jest przystosowane do takiego pakietu O Lama.
W dokumentacji jest napisane jak się to instaluje.
Na Macu i na Linuxie to się robi łatwo.
Na Windowsie sugeruje instalację przez tak zwanego dockera.
To są takie coś pokroju wirtualnych maszyn, ale nie do końca takie środowisko do uruchamiania aplikacji, które generalnie na Linuxie działają, ale można też to na Windowsie uruchomić.
No tylko wiadomo trzeba mieć dosyć mocny sprzęt.
Natomiast ta aplikacja do rozmawiania z tą LAMą jest dostępna zarówno na Macu i na Windowsie i też zresztą możemy wskazać sobie zdalny adres, więc jeśli powiedzmy mamy jakiegoś słabszego laptopa,
ale mamy gdzieś w domu też mocny komputer stacjonarny, bo wynajęliśmy sobie jakiś serwer,
na którym tą LAMę sobie postawiliśmy i chcemy sobie tak z nią prywatnie porozmawiać
na mocniejszym komputerze.
Tutaj można też zdalny adres wskazać.
No i zarówno na Windowsie, na Macu po prostu sobie możemy z tą LAMą rozmawiać.
Mamy kilka skrótów klawiszowych, które nam pozwalają szybko przejść na historię tej
rozmowy, skopiować całą rozmowę do schowka, przejść na listę wyboru modeli, bo tych
modeli, zawsze jest kilka dostępnych, wiadomości będą czytane automatycznie.
Mamy też dźwięki, kiedy ten model skończy do nas pisać, no bo to też…
No właśnie, a ciekawe czy jest jakiś polski model, taki, który jest uważany za, no jest
taki, jak na Lamy oczywiście, w miarę okej.
No bo Lama tam jakoś po polsku coś potrafi, no nie, ale został przetworzony.
Lama to chyba jest silnik i tam po prostu ludzie tworzą chyba modele.
A to jest chyba nazwa modeli chyba też, tak? Jakoś tak to rozumiem, czy nie do końca?
Wydaje mi się, choć nie jestem pewien, tu mi się przydał ktoś bardziej ogarnięty ode mnie,
wstęp do wprowadzenia w Zarysie, przeczytałem kokładkę.
W każdym razie wydaje mi się, że właśnie Lama to jest chyba coś do czego można pisać,
jeżeli się modele, ale chyba sama Lama to chyba nie jest, nie, nie wiem czy ma jakieś, znaczy być może, nie wiem.
Mi się wydawało, że to jakieś…
Jakieś modele przez twórców, jak dobrze kojarzę, one zostały opracowane.
No właśnie, bo tam było jakieś Lama 13 bilionów.
Ale to jest, wiecie, to jest tak samo jak z Whisperem, tak, już teraz, tak?
No tak.
Można mu model w zasadzie podać, jakikolwiek, coś zostało na start.
Powiedzmy, Whisper rzeczywiście ma tych języków sporo, a wydaje mi się, że, nie wiem, czy Lama ma coś, no właśnie wydawało mi się, że Lama to jakoś…
Ja testowałem kiedyś jakimś webowym interfejsem, gdzieś była ta usługa, to bardzo biednie to po polsku potrafiło się komunikować.
No inna sprawa, że też co chwilę słyszę, jak jakieś nowe te Lamy wychodzą, więc pewnie mają więcej, błygają więcej materiałów.
A to już tak, a to już dawno było, to już dawno, więc może kiedyś warto będzie wrócić.
Tak, warto sobie przetestować, jeśli chcecie, no można też tak jak chata GPT pytać, no wyniki mogą być różne wiadomo, może halucynować, no ale jeśli nie chcemy gdzieś naszych pomysłów wysyłać właśnie gdzieś do czata GPT, a chcemy sobie jakoś prywatnie z czymś takim porozmawiać, mamy na tyle mocny sprzęt, no to warto myślę się tym zainteresować.
Aplikacja jest darmowa, na Macu na razie nie jest podpisana, więc musimy ją uruchamiać z menu kontekstowego za pierwszym razem.
Jak ktoś sobie na przykład Whiskeyka odpalał, to wie o co chodzi tam za pierwszym razem.
Wyskoczy błąd, który tam trzeba właśnie z menu kontekstowego obejść, kliknąć sobie otwórz i już później wtedy to się powinno otwierać.
No a na Windowsie, no na Windowsie znów z tą Lame trzeba inaczej instalować, no bo jest na razie tego pakietu o Lama, do którego to narzędzie jest przystosowane, po prostu na Windowsie oficjalnie jeszcze nie ma, ma być, no ale na razie da się to dockerem obejść.
Więc to jest wolna Lama, a co mamy dalej? Kolejne narzędzie, które nam coś udostępnia, tym razem jest to klient do Irca.
Jak ktoś słuchał nas wczoraj w audycji o komunikatorach, to wspominaliśmy o Irdzu protokół, który istnieje od wielu lat,
głównie przystosowany do komunikacji w takich chatroomach, czyli na kilka osób.
Co ciekawe Irdz ma się jakoś dobrze i wyszła nierówno trzecia wersja tego protokołu, która dodaje gdzieś takie współczesne funkcje,
jak wsparcie dla powiadomień, push, historii wiadomości, więc nawet jak nas nie ma to gdzieś te wiadomości dostaniemy,
jakieś reakcje, jakieś naklejki, więc takie bardzo spółczesne funkcje.
No i są aplikacje, które te funkcje wspierają.
Jednym z nich jest program AdiIrds, to jest domowy klient właśnie do Irdza na
system Windows, który można bardzo fajnie sobie oskryptować, z czego skorzystała
jedna niewidoma osoba, która szukała właśnie dostępnej aplikacji do tego.
No i powstało rozszerzenie AdiSpeak, które po prostu nam dodaje czytanie
przez czytniki ekranu automatycznie nowych wiadomości i innych zdarzeń.
Ponadto możemy sobie to wszystko ściągnąć skonfigurowane od razu,
bo w linku znajdziecie zarówno repozytorium na GitHubie,
gdzie możemy ściągnąć samą wtyczkę,
ale też tam jest link do, tak podobnie to kiedyś było z Mirandą,
do takiego adi-irca skonfigurowanego,
który już ma tą wteczkę adispig skopiowaną w odpowiednim miejscu
i po prostu wystarczy nam sobie to ściągnąć,
dodać serwer, do którego chcemy się połączyć,
No i po prostu sobie na tym IRC-u rozmawiać.
Dalej przejdziemy do czegoś, co może się przydać głównie osobom, które
korzystają, czasami komunikują się w języku angielskim albo chcą się
komunikować więcej, ale potrzebują pomocy np.
gramatycznej, no bo chciałyby lepiej pisać, bo jest sobie takie narzędzie.
To jest cały właściwie zestaw narzędzi, bo jest zarówno rozszerzenie do
przeglądarek, to jest taki edytor webowy, to są aplikacje na komputery.
Narzędzie nazywa się Grammarly.
Jeśli oglądacie dużo gdzieś filmów na YouTubie po angielsku, to ja pamiętam, że
swojego czasu co chwilę widziałem reklamy Grammarly na YouTubie.
No i to jest narzędzie, które generalnie to jest takie bardzo wypasione
narzędzie, które nam sprawdza pisownię, ale nie tylko pod kątem literówek i błędów
interpunkcyjnych, chociaż oczywiście to też potrafi, ale nam też sprawdza styl.
Jeśli mamy właśnie jakieś błędy też
gramatyczne, to on poinformuje nas o nich.
Może nam różne stylistyczne rzeczy sugerować, więc jeśli piszemy jakiś
powiedzmy formalny list do jakiejś firmy, no i aplikacja zobaczy, że użyliśmy
jakiegoś słowa, które jest raczej stosowane w slangu, to może nam
zaproponować, żeby jakoś bardziej formalnie to napisać.
W najnowszych wersjach oczywiście też jest jakieś AI, więc jeśli nie wiemy co
chcemy napisać, znaczy wiemy co chcemy napisać, ale nie wiemy jak to można po
prostu jednym zdaniem coś zapadać i on nam coś też zaproponuje.
Z tym narzędziem był dla nas jeden podstawowy problem, dosyć istotny, bo ono było po
prostu niedostępne.
Co gorsza, wiele osób się kontaktowało z tą firmą, bo to było i jest nawet chyba
bardzo cały czas narzędzie popularne, jak to będzie z dostępnością, na co firma
odpisywała wprost, że po prostu dostępności nie planują i raczej jej nie będzie.
A to nie spodzianka, bo
niedawno na Macedonie gdzieś przetoczyła się informacja, że firma Grammarly szuka
właśnie ludzi, którzy mają pracować nad dostępnością.
Jakichś menadżerów szukają, to głównie w Stanach i w Kanadzie, więc jeśli ktoś nas
szuka, słucha, przepraszam stamtąd i ma odpowiednie kwalifikacje, no to gdzieś można próbować.
Ale dla tych, którzy nie słuchają, no sprawdziłem sobie na tej stronie i co się okazuje, teraz mają sekcję dedykowaną dostępności.
I możemy się z nimi dowiedzieć, że generalnie to narzędzie powinno w jakiś sposób dostępne być.
I to zarówno rozszerzenia, tutaj był testowany Chrome i Firefox MVDA na Windowsie, Safari i VoiceOver na Macu.
aplikacja desktopowa, tutaj też na obu systemach jakoś tam dostępna ma być, jest napisane, że jakieś osoby niewidome teraz to testują, jest aria oczywiście stosowana, wszystko fajnie, byłem ciekawy jak to jest w praktyce, wiecie co, ściągnąłem sobie, no właściwie spróbowałem ten edytor na szybko, żeby jakoś to przetestować i no faktycznie trzeba podać im, że to dostępne jest, jest dużo skrótów klawiszowych, ten edytor ma jakieś funkcje formatowania, zresztą tam też można pliki ładować,
z Worda i z innych źródeł, chociaż rozszerzenie do Worda też jest.
No tutaj nie wypowiem się z dostępnością, bo nie miałem dużo czasu, żeby to sprawdzić.
Natomiast MVDA mnie informował, czy voiceover o nagłówkach, o włączach, które były w tym
pliku, no a kiedy przeszłem sobie do tego panelu z sugestiami, to było naprawdę
bardzo sensownie zrobione, bo po prostu nie tyle, że jeśli jakiś był błąd w
pisowni, no to słownie było gdzieś napisane, przeliterowane to słowo, było słownie
przeliterowana sugestia, bo tam można jednym kliknięciem zaakceptować gdzieś pierwszą
sugestię, którą mamy, było zdanie podane w kontekście, to było wszystko na tej
jednej stronie podane tak, że tak powiem na tacy, nie musieliśmy gdzieś wracać tego
dokumentu strzałkami i przeglądać tego, tylko to nam narzędzie bardzo ewidentnie
podsyntezę podawało do informacji, więc ktoś tam faktycznie o tą dostępność
ostatnio zaczął dbać i to całkiem sensownie zostało zrobione, więc jeśli
ktoś dużo pracuje z językiem angielskim i chciałby swoją pisownię poprawić, no to
myślę, że warto się tym zainteresować.
Trzeba pamiętać, że gdzieś te dane wtedy do jakiegoś serwera w Stanach będą
wysyłane, więc jeśli tego nie chcecie, no to trzeba o tym pamiętać.
Natomiast jeśli chcecie coś, co by podobnie działało w języku polskim, to ja tutaj też mogę polecić podobnie działającą stronę Language Tool,
która normalnie, teraz nie pamiętam jaki ma limit znaków, można sobie na stronie wersje premium wykupić, ona też jakoś dostępna jest, chyba nie tak fajnie jak Grammarly, ale też się da z tego panelu sugestii korzystać.
Zwłaszcza na stronie internetowej, bo tam są też chyba jakieś wtyczki i jakieś inne jeszcze narzędzia, ale to pamiętam, że to działało gorzej.
Chyba LibreOffice też jakoś to wspiera.
A to nie widziałem, ja to na pewno testowałem przez stronę, natomiast oprócz LibreOffice i to już jest w pakiecie, za to nie musimy płacić.
wspiera to też Ulysses.
Musimy sobie wejść do tej zakładki
Review i tam możemy sobie to do Language Tool’a wysłać i to działa bardzo fajnie.
I ja akurat z tego, z Ulysses’a bardzo dużo korzystam gdzieś jak piszę jakieś
artykuły np. o typach świata, teraz też sobie przez Language Tool’a
je najpierw przepuszczam, więc jeśli macie zwłaszcza Maca i korzystacie z tej
aplikacji albo może chcecie ją przetestować, no to warto się tą sekcją
zainteresować, bo to nam na pewno wychwyci dużo więcej błędów niż takie po prostu zwykłe sprawdzanie pisowni.
No mówię z angielskim, no to też warto się jednak Grammarly zainteresować, bo okazuje się, że firma ostatnio swoje stanowisko zmieniła i to dość znacząco i to na plus.
No i na koniec powiedzmy, że kolejna ciekawostka, bo to jest coś, co pewnie jeszcze przez jakiś czas się nie spopularyzuje,
Natomiast to jest coś, co co jakiś czas się u nas pojawia, a mianowicie to jest
Apple Vision Pro, czyli ten headset do takiej wirtualnej, rozszerzonej właściwie
rzeczywistości, o którym co jakiś czas mówimy.
On już oficjalnie chyba w zeszłym tygodniu się pojawił w Stanach Zjednoczonych.
Ludzie to zaczęli kupować.
Widać, że to jest na razie produkt beta, poniekąd są rzeczy, które jeszcze z jednej
strony to jest rewolucja oczywiście, no bo możemy sobie dosłownie w realnym
świecie, otwierać okna na przykład sobie nie wiem w kuchni otworzyć jakiś przepis
wyjść z tej kuchni, wrócić do pokoju, gdzie sobie leci jakiś film, tam różne rzeczy
dosłownie w naszym świecie prawdziwym otwierać.
Urządzenie jest naszplikowane różnymi czujnikami, które mogą kiedyś nam pomóc
nie wiem w nawigacji, natomiast na razie jeszcze deweloperzy do tego dostępu nie
mają, ale od początku firma Apple już o dostępności myśli i my już o tym mówiliśmy
wiele razy, czy tam będzie jakiś voice over, też powiększenia i inne funkcje
dostępności. Wiedzieliśmy o nich dotychczas niewiele, poza tym, że to będzie
działało jakoś na zasadzie gestów, które będziemy palcami wykonywać, ewentualnie
można sobie też klawiaturę lub linijkę brailowską podłączyć do tego, ale już wiemy
więcej. To z dwóch źródeł.
Po pierwsze, pojawiła się po prostu na stronie Apple instrukcja, jak się z tego
wykorzysta i jak się dokonfiguruje.
Generalnie samego VoiceOvera włączam
podobnie jak na watchu np.
koronką, bo ten headset ma taką
koronkę, którą możemy obracać i
wciskać, żeby wrócić do ekranu
początkowego.
Można sobie takie potrójne kliknięcie
ustawić, żeby nam
VoiceOvera
włączało.
Co ciekawe, na Vision Pro
VoiceOver dostał też samouczek.
Oprócz tego takiej sekcji ćwiczenia
gestów, o gestach za chwilę powiem
trochę więcej.
Ale też mamy samouczek, więc możemy sobie, jakoś nam pokaże jak się z tego korzysta, podobnie jak na Macu na przykład, bo iPhone nigdy takiego samouczka oficjalnie przynajmniej nie dostał, nieoficjalnie jakieś aplikacje powstały.
No tutaj nowa kategoria sprzętu, więc pewnie dlatego Apple na coś takiego się zdecydowało.
Jeśli chodzi o same gesty, no to generalnie one działają na odpowiednim ściskaniu palców.
Na przykład ściskamy kciuka i palec wskazujący, palec środkowy i te odpowiednie
ściskania pozwalają nam przechodzić do następnego, do poprzedniego elementu.
Mamy nawet modyfikatory, więc powiedzmy w lewej ręce ściskamy dwa palce tam
kciuki powiedzmy wskazujące, a prawą ręką nadciskamy, no może nawet też kciuki
wskazujące i to jest jakieś inne polecenie.
Więc to trochę działa tak jak trzymanie, nie wiem, shifta czy klawisza command
i daje nam dostęp do innych funkcji.
Są gesty, które pozwalają nam na przewijanie, że
wciskamy znów jakieś konkretne palce
raz czy dwa razy, a potem ręką ruszamy
w górę lub w dół i np. tak się ekran przewija.
Jest dużo konceptów, które znamy
np. z iOS-a, bo mamy pokrętło.
Generalnie tutaj aplikacje z iOS-a uruchamiamy, więc tutaj
funkcje są podobne. Jest pokrętło, pewnie jakieś czynności
też by się znalazły. Mówiłem już, że jest obsługa
Braila, więc pewnie wszystkie głosy za USA też dostępne są.
Jest eksploracja, co ciekawe, która polega na tym, że znów ściskamy odpowiednio
palce, trzymamy je, a potem patrzymy się i teraz nie dotarłem do tego, czy to będzie
dało się skonfigurować tak, że będzie wystarczyło obrócić głową w odpowiedniej
miejsce, czy faktycznie będzie trzeba jeszcze oczema jakoś, bo osoby widzące
Generalnie z tego nawigują tak, że patrzą się na jakiś przycisk i też ściskają palec i to działa trochę jak kliknięcie myszką.
Także nasze palce to jest przycisk myszy, a nasze oczy to jest myszka.
Tak to w największym uproszczeniu tak generalnie ten interfejs działa.
No z VoiceOver’em te gesty się oczywiście zmieniają, dlatego można go też szybko wyłączyć, jeśli ktoś by tego potrzebował.
Też aplikacje mogą wejść w tryb interakcji po prostu średni, jakby chciały jakieś swoje gesty zaimplementować.
No jak to będzie działało w praktyce? Zobaczymy jak to będzie zachowywało się w przypadku osób, które nie mają kontroli nad swoimi oczyma.
No też nie wiemy. Da się ponoć to jakoś w wystawieniach voice-overa wyłączyć.
No właśnie, bo ktoś już to przetestował.
Bo można się umówić w sklepach Apple, Apple Store właśnie, na takie indywidualne prezentacje tego headsetu.
to w ogóle też jest cała taka ciekawa sytuacja, bo to pracownik
nam przynosi na takiej drewnianej tacce, to ponoć bardzo ładnie wygląda.
No wiadomo, prezentacja musi być no fajnie zrobiona.
Osoby widzące, no to są, mają tam różne konkretne jakieś zastosowania
przygotowane dla tej osoby, która poszła sobie do sklepu Apple.
Ona generalnie mogła sobie po prostu po tym pochodzić, z tego co wiem, tam akurat
pracowników firmy, poza tym, że pomógł tego voice-overa włączyć, skonfigurować, później już nie
jakoś nie kierował tej prezentacji, jeśli ta osoba tego nie chciała.
I co zauważyła?
No te gesty wydawały się w miarę intuicyjne.
Tutaj ta osoba nawet powiedziała, że gdyby, nie wiem, jakiś przyszły watch pozwalał na tak
precyzyjne sterowanie tego przez odpowiednie pstrykanie palcami, no to to było bardzo
wygodne i on by tak nawet chciał iPhone’em sterować.
No, czyli jest to sensowne.
Trzeba się tego nauczyć, on mówił, że często mylił kierunki, np. skakał do poprzedniego elementu, a nie do następnego, to można się nauczyć, też można sobie te gesty definiować, tak jak na iOS-ie mamy całą sekcję personalizacji tych gestów, więc jeśli coś nam z tego, czy z innego powodu nie pasuje, no to możemy sobie to zmienić.
Co ciekawe, też mamy dźwięk przestrzenny i to w sumie też nam może pomóc uczyć się w przestrzeni tych interfejsów i właśnie nawet może aktywować przyciski przez odpowiednie odwracanie głową, bo kiedy
chodzimy po tych różnych przyciskach, a trzeba też przypomnieć sobie, że ten Vision Pro ma rozbudowany system głośników, tam chyba jest sześć głośników budowanych, które dają dźwięk taki atmos, że totalnie 3D słychać jak coś jest przed nami, za nami, powyżej, poniżej.
też działa to z AirPodsami, bo tak wbudowane głośniki są ponoć takie głośne, że inne osoby też mogą coś usłyszeć.
No na tym headsetzie, jeśli chodzimy po interfejsie, no to zarówno dźwięki i mowa voiceovera, ja to przynajmniej tak zrozumiałem, będą wydobywać się z tego miejsca fizycznie, gdzie dany przycisk jest.
I przypuszczam, gdybyśmy głos odwrócili, to chyba wtedy ten głos by też się z nami obrócił.
Więc kto wie, czy tak wysiadać jakiegoś interfejsu nie dało po jakimś czasie nauczyć.
Natomiast kiedy my z tym zaczynamy, no to ponoć tutaj ta osoba miała problemy, że system różne jej gesty próbował interpretować.
I to ona sobie gdzieś tam próbowała, powiedzmy, zmienić język otwarzacza, ale gdzieś niechcący popatrzyła i wyskoczyło jakieś okno inne.
Coś się zamknęło, coś się otworzyło.
Mimo to, że tam w ustawieniu voice overa da się to śledzenie oczu wyłączyć, ale to ponoć nie miało efektu.
Nie wiem, czy przez to, że po prostu no tutaj ta osoba nie była z tym, nie miała doświadczenia.
No wiadomo, to jest pierwszy produkt, jak tutaj inne osoby później gdzieś w komentarzach mówiły.
No to może być kwestia, której się nauczymy.
Może to był jakiś błąd, no nie dowiemy się.
Natomiast na pewno, czy to ma sens dla osób niewidomych teraz?
raczej nie, no zwłaszcza, że to kosztuje prawie 4 tysiące dolarów i no nie wiem, czy ktoś by chciał sobie tak po prostu
przerośniętego iPada, że tak powiem, kupić na razie, bo to tak wygląda.
Mamy głównie aplikacje z iPada na tym.
Może za jakiś czas to będzie miało sens.
Ja, tak jak już parę razy mówiłem, widzę w tym potencjał i fajnie, że Apple już o tym myśli.
to może być kwestia tego, że to będzie znów coś, czego będziemy po prostu mogli się nauczyć.
No i jeśli gdzieś więcej osób będzie z tego korzystać, jeśli faktycznie jakieś sensowne aplikacje wykorzystujące ten sprzęt się zaczną pojawiać,
no to jeśli faktycznie to, jak to zostało zrobione, ma jakieś błędy, jakieś rzeczy, które można by zrobić lepiej, dopracować,
no to pewnie firma Apple wtedy zacznie na to zwracać uwagę.
Jak to będzie więcej użytkowników, no to jest, mówię, nowa kategoria sprzętu.
Fajnie, że od początku i tutaj już jakiś czytnik ekranu jest, bo w innych tego
typu headsetach, nie wiem, w jakiś MetaQuestach, HTT coś miało, w Steam chyba też coś miał.
No w żadnym z tych innych sprzętów czytnika ekranu nie ma, a tutaj mimo to, że tak
naprawdę to jest produkt bardzo niszowy, no to już takie rzeczy się zaczęły pojawiać.
Tymczasem mamy kilka różnych wiadomości na Whatsappie, więc zobaczmy kto do nas i z czym się odzywa.
Mamy na dobry początek kilka wiadomości, które do nas wysłał chwilę temu Sylwester.
Ja mam do was taką prośbę, żebyście mi wytłumaczyli z tym rejestratorem Zoom, bo tam jest taki moduł bluetooth, którego trzeba dokupić.
Mnie to nie zaciekawiło. Druga sprawa. Tomasz Bielecki, żeby to umówił. Druga sprawa.
Kamil Kaczyński wczoraj, przedwczoraj, a dzisiaj jakieś jeszcze audycje puścił.
To jest bardzo ciekawe.
Najprawdopodobniej od marca aktywnego samorządu spróbuje o tą linijkę.
Tyle mam do powiedzenia do Was.
Mam jeszcze jedno pytanie do Was.
Kiedy będzie jakaś audycja od Roberta Łabęckiego, bo mi się bardzo podoba Kamila Kaczyńskiego.
No i tyle. A z tym monitorkiem brailowskim to jeszcze nie wydałam, bo tam od 1 marca będę mógł to zrobić.
Tak mi powiedziała ta w Altiksie.
Jeszcze jedna sprawa, chciałem poruszyć.
To mi tam koleżanka prosi, żeby Milena Wiśniewska na temat szkół tam czy coś tam,
na małych dzieci tam
żeby audycje jakieś tam czasami pojawiały
to tyle od was chcę
Ja mam taką opinię taką
na temat rejestratorów
że ja mam rejestrator LSP5
on ma bluetootha budowanego
a z tego co słyszałem
Zoom H1 nie ma możliwości podłączenia modułu bluetooth
I już mi to nie ciekawi. Ja preparuję rejestratory na małego Jacka, żeby podłączyć mikrofon.
Pierwsza sprawa. Polecam wam Uptone.pl.
Uptone.pl tam chłopaki, instrumenty muzyczne, programy muzyczne.
Tam jest głośniki, nagłośnienia, mikropony, rejestratory, można i na Facebooku, ale na YouTubie to raczej jest Uptone.pl, ale chyba i na Facebooku.
Jak chcecie to zobaczyć, to możecie to oglądać.
No i to tyle, jeżeli chodzi o wiadomości.
No co do audycji, to cóż, tak na chwilę obecną, to na przykład jeżeli chodzi o Roberta, to nie mamy w kolejce żadnych od niego materiałów, ale może się coś pojawi, kto wie, kto wie, to wszystko zobaczymy, co nam czas przyniesie.
Też na chwilę obecną nie mam informacji od Mileny, żeby chciała przygotować jakieś materiały związane z edukacją, ale to na razie, a w przyszłości też może być różnie.
To są wiadomości od Sylwestra, ale to nie są wszystkie wiadomości jakie do nas wysłaliście, bo tych jest troszkę. Tu na przykład mamy jeszcze wiadomość od Rafała.
Dobry wieczór. Po drugiej stronie rafu.
Jest taka sprawa.
Nie wiem, czy pamiętacie.
Jak nie pamiętacie, to przypomnę.
Mówiłem jakiś czas temu o przycisku ART.
Że mam problem takiego typu, że wcisnę i…
No i wciśnięte się.
I się nie chce odcisnąć, tylko cały czas ten ART jest wciśnięty.
To ja bym trzymał.
No. I co się okazało, że problem jest tego typu,
że ten ad jest blokowany przez Dżoz.
Przez Dżoz. A skąd wiem, że to przez Dżoz?
Bo jak uruchomi eVDA…
Jak uruchomi eVDA, to…
tego problemu nie ma w tym eVDA.
Więc stąd wiem, że to robi Joss, a Joss, posiadam wersję Jossa 2023, najnowszą wersję, najnowszą wersję Jossa 2023.
No i oczywiście to jest system 64 bit i Joss tak samo.
I to jest tyle jeżeli chodzi o to co nam wysłał Rafał, ale to nie są jeszcze wszystkie wiadomości, bo mamy jeszcze wiadomość o Rafałach.
Wiadomość. I co my tu mamy? Mamy wiadomość, którą do nas Milena nagrała. Już tej wiadomości teraz szukam i posłuchajmy.
Witajcie z tej strony Milena. Ja mam pytanie do osób, które używają YouTuba na iOS. Czy wy macie coś takiego, bo ja mam, to jest system iOS 17.3.
Czy macie coś takiego, jak odtwarzacie jakiś film i on się skończy, to mam coś takiego,
takie coś jak anuluj auto-odtwarzanie, a w ustawieniach mam coś takiego,
że wyłączone, żeby ten następny film, jakby kolejny film się sam nie odtwarzał.
No więc nie wiem tak naprawdę z czego ta kwestia wynika to,
To, że ten przycisk anuli, a to odtwarzanie się pojawia.
I tam też jest takie coś jak otwórz następny, otwórz następny film, czy tam film otworzy się za tam ileś sekund, już teraz nie pamiętam, jakoś tak.
No, ale nie wiem właśnie z czego się to, czego jest to przyczyna, czy macie pomysł, co może to być i jak tego zaradzić.
Pozdrawiam, hej hej.
Ja mam wrażenie, że to jest po prostu błąd od kilku wersji YouTube’a.
Ja się zastanawiam, czy to jest błąd, czy to jest umyślne, że mimo to, że mamy to wyłączone,
owszem, nam się film nie włączy, ale jednak…
Ale jakaś propozycja jest podsunięta.
Jakaś propozycja jest, którą najpierw trzeba zamknąć, że dopiero potem można coś…
Też mnie to irytuje, no ale nie znalazłem na to sposobu niestety.
W każdym razie Mileno, no nie jesteś sama z tym problemem, bo rzeczywiście tu jakieś kłopoty są.
Tu Marek nam podesłał, ale to jest artykuł, w który należałoby się jakoś intensywniej wczytać.
Ja go dodam do naszych notatek.
Jeżeli chodzi o modele polskie właśnie wykorzystujące Lame.
Tu całkiem jakiś przegląd jest niezły tego.
Marku, dziękujemy ci bardzo za ten link,
bo myślę, że może być naprawdę lektura interesująca, a i wykorzystanie tego w praktyce też może być ciekawe.
I jeszcze mamy jedną wiadomość na Whatsappie, już patrzę, któż do nas to wysłał, to Piotr do nas wysłał tę wiadomość.
VLC Media Player, u mnie na laptopie on nie odtwarza żadnych plików, mimo, że odinstalowałem ten program i zainstalowałem na nowo.
Może być to związane z niedoskonałą aktualizacją Microsoft, ponieważ Windows 10, w której wersji, ze stycznia tego roku nie chce mi się zainstalować.
Czasem system ponawia próbę, ale mu to nie wychodzi.
Czy macie jakąś podpowiedź, żeby problem odtwarzania plików przez ten program rozwiązać?
Piotrze, jeżeli masz rzeczywiście podejrzenia, że problem może wynikać z niewłaściwie zainstalowanej aktualizacji Windowsa,
to ja bym spróbował generalnie wyczyścić pamięć podręczną Windows Update’a.
To możesz zrobić poprzez oczyszczanie dysku, jak dobrze pamiętam, to jest uwzględnione w oczyszczaniu dysku.
Więc spróbuj dokonać właśnie tego oczyszczania,
zainstalować aktualizacje,
jakby poprosić o pobranie ponowne tych aktualizacji,
no i wtedy prawdopodobnie, jeżeli to jest przyczyną, to problem zniknie.
Natomiast co do samego VLC,
dlaczego on może nie odtwarzać plików,
to innego pomysłu na chwilę obecną nie mam, chyba, że wy coś podpowiecie.
No, VLC ma swoje generalnie kodeki, więc po reinstalacji teoretycznie powinno wszystko działać, nie wiem, bo ja na Windowsie generalnie, no w ogóle tak, ja na Macu to faktycznie z VLC korzystam, tam ta aplikacja jest trochę bardziej dostępna, a na Windowsie to znów po prostu korzystam z podplayera, który jakoś mi bardziej pasuje, więc nie wiem co tutaj może być.
Tak, ale ja bym też, jeżeli chodzi o to VLC, to spróbował odinstalować, to jest raz, ale i wyczyścić te foldery po VLC, które tam ewentualnie gdzieś mogą zostać, bo może jakieś ustawienia gdzieś się zapisują, które po prostu albo są uszkodzone, albo jakieś takie namieszane i dlatego może to VLC nie działa, bo może gdzieś w ustawieniach coś sobie Piotrze wyciszyłeś,
więc VLC łącznie z jakimiś ustawieniami w profilu użytkownika ja bym spróbował po prostu wyciąć i wtedy może coś.
Widzę, że jest katalog w AppData.
No.
W okienku uruchamiania wpisujemy procent AppData, procent.
Procent, tak.
I tam VLC jest, można ten.
Można przejrzeć, co tam można zrobić, przejrzeć menu odtwarzanie, chyba tam się zmieniało urządzenie audio, czy tam było menu audio chyba osobno.
Menu audio, tak.
Audio, okej, no to tam można sprawdzić, czy tam się karta dźwiękowa nie przestawiła.
Kontrolształka w górę, przepraszam, parę razy, żeby podgłośnić,
może po prostu się coś wyciszyło, no i tutaj skasować ewentualnie ten katalog.
Tak, a z tą aktualizacją Windowsa, to tak jak mówię, oczyszczanie dysku,
przy okazji trochę miejsca się zwolni, to myślę, że może pomóc.
Od Mateusza mamy pytanie.
Witajcie, czy wypożyczaliście kiedyś sprzęt w tej nowej wypożyczalni?
Chciałem dowiedzieć się, czy rzeczywiście nie można używać sprzętu, jeżeli zostanie mi doręczony przez kuriera, bo w umowie jest zapis, że mogę używać sprzętu dopiero po udzieleniu mi instruktażu i teoretycznie zamontowaniu.
No, ja nie korzystałem, nie wiem czy wy?
Nie.
Tomek chyba też nie, więc…
Nie, nie, nie korzystałem.
To w takim razie, no niestety tutaj nie pomożemy.
Ciekawe swoją drogą, czy w tej wypożyczalni ten asortyment dla niewidomych będzie się jakoś zwiększał.
Tak, bo to byłaby w sumie też niegłupia rzecz.
I mamy jeszcze komentarz od Bartka.
Witam. Już mówiłem, że jeszcze będę się z wami kontaktował. Chciałem wypróbować te opcje dyktowania w Windows 11.
Wcisnąłem skrót Windows H i usłyszałem dźwięk, po którym zacząłem dyktować tekst.
Potem powtórzyłem ten skrót, ale nie wstawił mi tekstu, który dyktowałem.
A to ciekawe. Tomku, ty korzystasz z tego, to może…
Tak, i ja zatrzymuję to kontrolem, tylko że to wygląda przynajmniej u mnie tak, że jak mi powtórzy Sklindr to, co tam powiedziałem,
znaczy to biorę, jak powtórzy ten skrót, to wciskam kontrol, powiedzmy i kontrolę to jakoś tam, znaczy kontrol to jakoś utyka i wtedy to jest zapisywane.
On musi jakby, on musi dać się wypowiedzieć, że tak powiem, podejrzewam, że tam chwilkę trwa to rozpoznawanie
i jak to się za szybko jakby zamknie, to wtedy jakoś to nie wchodzi.
I tutaj też mamy jeszcze sugestię podobną zresztą od Marka do tego, co mówiliśmy.
Jeśli tutaj kolega ma problem z VLC, to może ma wyciszony dźwięk w VLC,
a materiał się odtwarza. No właśnie, może tak właśnie jest.
To też jakaś taka nasza sugestia była, ale dzięki Marku za tę wiadomość.
Cóż, jeszcze Andrzej nas prosił, żebyśmy numer telefonu powtórzyli.
663-883-600, 663-883-600.
To jest kontakt do nas, zresztą na YouTubie, bo ten komentarz tam właśnie się pojawił.
Andrzeju również ten numer telefonu podrzuciłem.
Czy coś jeszcze, czy coś jeszcze zaglądam?
O, Marek, ale inny Marek do nas napisał, tym razem na Facebooku.
Witam, jestem ciekaw ile osób niewidomych w Rosji korzysta z technologii ułatwiającej osobom z dysfunkcją wzroku korzystanie z komputera.
No, Marku, mówiliśmy o tym, ile tak dokładnie, to by trzeba było pewnie w jakiejś statystyki głębsze zajrzeć,
no bo tu okazało się, że pół tysiąca mniej więcej wypełniło tę ankietę, niecałe pół tysiąca,
natomiast no na pewno ta liczba jest większa, większa na całą Rosję i ewentualnie jeszcze tam okoliczne państwa.
Tyle waszych wypowiedzi, przynajmniej na teraz.
To w takim razie przechodzimy do kolejnych newsów, zestawu newsów w zasadzie, czyli nowości w grach.
Tak jest, teraz będzie trochę tematów rozrywkowych, no bo jak zwykle kończy się miesiąc, a co za tym idzie mamy kolejne zestawienie nowości na portalu adiogames.net no i trochę też rzeczy poza nim.
No wiele rzeczy już było omawiane, ale nie wszystko, bo jeśli chodzi o jakieś nowe gry, o których jeszcze nie mówiliśmy, no to tutaj taka kilka w sumie rzeczy mi się rzuca w oczy.
Po pierwsze gra na iPhone, która pozwoli nam sobie grać w Warzawy.
Aplikacja nazywa się Hexboard i nie dość, że możemy sobie po prostu grać przeciwko komputerowi, nawet kilku komputerom naraz, czy też przeciwko znajomym, też mamy jakieś samouczki, więc możemy jakoś się nauczyć grania w te warstwy.
No i tutaj autor, deweloper obiecuje, żeby gra, że gra będzie dla nas dostępna z voice overem, więc hex boart przez x pisane jakby ktoś chciał sobie to odnaleźć.
Teraz znów coś dla użytkowników Androida i to chyba nawet gra, która gdzieś pochodzi z Rosji w sumie, więc gdzieś ten temat ciągniemy.
Gra wygląda ciekawie.
Tutaj też autorzy obiecują, że gra była testowana przez osoby niewidome, więc z TokPakiem i Jeshuą powinna być dostępna.
Gra przygotowa, w której walczymy o przetrwanie w jakimś dziwnym środowisku, gdzie się jakieś różne anomalie odbywają.
Będziemy po prostu przechodzili kilometr po kilometrze i za każdym razem, kiedy zrobimy krok naprzód, to będziemy napotykali różne zderzenia.
Musimy dbać o to, żeby mieć odpowiednie jedzenie, podejmować odpowiednie decyzje.
Będziemy mogli jakoś nawiązywać różne znajomości, inne jakieś postacie w tej grze będą nam pomagać.
Mamy tutaj elementy postapokaliptyczne.
To jest generalnie gra taka RPG, trochę z elementami roguelike, wiem, że jakieś dźwięki, jakaś muzyka jest, cały czas gra się rozwija, jest dostępna zupełnie za darmo ze sklepu Play, ale też można sobie plik APK ściągnąć, więc jeśli macie Androida, no to myślę, że warto się zainteresować.
Mamy też krzyżówkę, znów tutaj iPhone’y i Mac’i.
Aplikacja nazywa się Black Ink Crosswords, która była już jakiś czas
dostępna na Macu, natomiast niedawno też pojawiła się wersja na iPhone’a.
Obie są dostępne z VoiceOver’em, tutaj generalnie są wspierane krzyżówki,
które pojawiają się w różnych amerykańskich i brytyjskich gazetach.
Natomiast tu jest wykorzystywany jakiś otwarty format na te krzyżówki i zastanawiam się, czy gdzieś nie znalazłoby się takich w tym formacie krzyżówek w języku polskim. Szczerze mówiąc będę musiał temat zgłębić, bo jestem ciekawy.
Pod Windowsem też są jakieś takie aplikacje, gdzieś coś widziałem, to chyba nawet na Audio Games w liście tych różnych aplikacji, różnych gier jest jakieś takie narzędzie i tych formatów krzyżówek to jest ileś, więc pytanie, ja kiedyś szukałem nawet czegoś polskiego w tych formatach, niestety nie, ale może ty będziesz miał Piotrze więcej szczęścia, bo jakoś bardzo długo też nie szukałem.
To jest inna rzecz.
No kto wie.
Szczerze mówiąc może jakieś bym krzyżówki próbował
rozwiązać po polsku też, więc może
spróbuję tam odgłębić.
Jeśli coś znajdę to na pewno na przyszły tyflop
przeglądam, dałbym znać. Może tak.
No a jeśli chcecie po angielsku sobie różne
krzyżówki porozwiązywać, no to
też można.
I zanim przejdziemy do aktualizacji, bo to jeśli chodzi
o nowości, no jak nowości w tym miesiącu
było, w styczniu właściwie, było dużo nowych.
Było Eurofly, było
Last of Us i był Doncaster i tam dużo innych rzeczy, ale no informowaliśmy was o nich na bieżąco, no i mieliśmy audycję o grach, więc to już sobie zostawimy.
Natomiast jeszcze po tym zostawieniu kilka nowych gier się pojawiło i co tu się, co się tutaj pojawiło.
Kolejna gra, która na razie jest tylko na Androidzie, kolejne, kolejne RPG z systemem turowym.
Chociaż tutaj autor obiecuje, że na iPhone’a się też to ma za jakiś czas pojawić.
Nawet już w opisie voiceover jest wspomniany, więc warto czekać.
Jeśli na iPhone’a się to pojawi, to też wam dam znać.
Ciekawa fabuła, dużo misji mamy w tej grze i co ciekawe, to jest gra, w którą możemy
grać też ze znajomymi.
Możemy sobie tą fabułę przechodzić razem, jakieś specjalne lochy, które są właśnie
stworzone dla kilku osób przechodzić razem, albo możemy grać przeciwko sobie w walkach PvP, czyli
w gracz kontra gracz, więc jeśli chcemy też grać no właśnie przeciwko sobie mamy cztery różne klasy,
więc tutaj możemy grać zarówno takimi postaciami, które używają mieczy, jak i takimi, które używają
różnych zaklęć, no gra też wygląda bardzo ciekawie, natomiast no niestety więcej nie mogę powiedzieć,
no bo jest dostępna tylko na Androida.
Następnie mamy kolejną grę z Chin, która jest dostępna tylko na Windowsa
i tutaj od razu mówię, będzie nam potrzebny zarówno tzw.
program Local Emulator, żeby ta gra odpowiednio nam się na niechińskim
Windowsie uruchomiła i będziemy tłumacza jakiegoś potrzebowali.
No to tutaj czytniki ekranu takie dodatki mają.
A jeśli sobie to wszystko zapewnimy, no to znajdziemy grę bardzo, też grę chyba darmową z tego co czytałem, bardzo rozbudowaną na podstawie książki właśnie, która się nazywa Immortality World, nie wiem czy to chyba nie wspomniałem jeszcze ze stu, no gra to jak książka właśnie się nazywa Immortality World, ona chyba, ta książka chyba jest też właśnie na podstawie jakiejś właśnie gry, to chyba ten gatunek LIT RPG, czyli książki, które dziś dzieją się
w różnych wirtualnych światach i no i tutaj mamy grę, która powstała na bazie takiej książki i no i to jest takie bardzo rozbudowane RPG, w którym generalnie to jest gra jednoosobowa, ale możemy sobie też chatować z innymi osobami przez internet, które w tym samym czasie grają co my, no i mamy znów tutaj system turowy walki, ale mamy też otwarty taki dosyć świat, wiele misji, wiele też danych połowocznych, więc jeśli chcemy sobie polować na zwierzynę, łowić ryby,
jakieś przedmioty tworzyć, też mamy kilka klas postaci do wyboru, no to wiele w tej grze możemy sobie zrobić,
no tylko wiadomo tutaj musimy się tłumacza wyposażyć, no dużo ostatnio też tych chińskich gier RPG się pojawia,
więc jeśli jesteście fanem tego gatunku, nie przeszkadza wam tutaj bariera językowa, którą no da się obejść,
No to trzeba przyznać, że ostatnio jest to robić, ale nie tylko chińskie gry RPG się pojawiają, bo mamy jeszcze jedną grę, tym razem już po angielsku, przeglądarkową, Proof of Combat i tutaj mamy też takie klasyczne znów RPG, taki poniekąd system turowy, gra już jakiś czas była dostępna, ale niedawno dostała poprawki związane z dostępnością dla nas.
No i tutaj znów mamy 4 klasy do wyboru, możemy sobie po mapie po takim dużym, otwartym świecie chodzić, no i jak to napisał autor tej gry w opisie, ta gra jest dla tych, którzy po prostu lubią walczyć i patrzeć jak cyferki podchodzą, idą do góry, no faktycznie tutaj za jakiś barwnych opisów tekstowych z tego co widziałem nie ma, faktycznie po prostu gdzieś napotykamy jakiegoś potwora, który jest też nieopisany jakoś szczegółowo, duży krab po prostu na przykład, no i bijemy się z tym.
No i jeśli go pokonamy, to zdobywamy doświadczenie, jakieś złoto, które później możemy w sklepie wykorzystać, no i wbijamy sobie poziomy wyżej i w ten sposób naszą postać sobie rozbudowujemy.
I to są nowe gry, natomiast oczywiście mieliśmy też dużo aktualizacji, coś o niektórych mówiliśmy, ale nie o wszystkich, ale no właśnie, co się zmieniło w aktualizacjach?
gra Wave of the Undead, czyli gra, w której walczymy przeciwko zombie, ale też nie tylko, bo tam ostatnio
nowe jakieś fabuły się pojawiły. No właśnie pojawił się nowy typ zombie, czyli zombie assassini czy zabójcy
i właśnie cała nowa paczka misji, która właśnie te nowe zombie wykorzystuje. Mamy też nową broń, którą możemy
sobie odblokować kolejna gra, taka strategiczna Advanced Wars, która bardzo
fajnie symuluje pole bitwy. To jest gra też na podstawie takiej gry dla
widzących od Nintendo. Dostała dużą aktualizację, w której mamy oficerów
dowodzących, którzy mogą nasze inne jednostki jakoś ulepszać, dawać im jakieś
pasywne umiejętności, mamy znów poprawki do sztucznej inteligencji w tej grze, która ciągle się rozwija.
Mamy poprawki błędów dla tych, którzy chcą sobie mapy do tej gry tworzyć.
Edytor map został rozbudowany, który teraz też dostał więcej funkcji.
Następnie mamy Hearthstone’a i tutaj też mówiliśmy o tym, co się generalnie w Hearthstone’ie
bo mamy nową miniserię, o której już wspominaliśmy, o tym, że niestety tryb start w kwietniu się skończy,
ale też sam Hearthstone Access został zaktualizowany niedawno i ta aktualizacja jest o tyle istotna,
ja tylko sobie szybko te zmiany otworzę, że poprawiła to, jak ten mod odbiera polecenia z klawiatury.
Ale nie tylko, bo np. w sklepie przedmioty, które możemy kupić zarówno przez złoto, które zdobywamy w grze, jak i przez kamienie runiczne, które musimy kupić za prawdziwe pieniądze, są takie przedmioty, które możemy kupić i tak i tak.
Tego mod nie wyświetlał prawidłowo, bo tam chyba tylko widzieliśmy tą opcję zakupu za kamienie, za prawdziwe pieniądze, no teraz już to powinno działać lepiej.
No i właśnie mamy poprawki w tym jak klawiatura się będzie zachowywała, to się o tyle przydaje w przypadku skrótów klawiszowych, do których właśnie jest klawisz SHIFT czy CTRL wykorzystywany, no tak na przykład naciskając SHIFT R żeby ustawić się na przeciwnika naszego lub żeby wysłać wszystkich naszych stronników na przeciwnika, do tego też się SHIFT wykorzystuje.
To nie zawsze chciało działać za pierwszym razem, gra po prostu jakoś ten nasz klawisz shift ignorowała, trzeba było go na jakiś noć kilka razy ten skrót, a teraz to powinno zawsze działać za pierwszym razem, generalnie ten mod działa bardziej responsywnie, więc tutaj dosyć duże poprawki zostały poprawione, też mamy takie mniejsze poprawki błędów, no i w wystawkach
Jeśli jakieś zaklęcie zostało zamrożone, np. zamroziliśmy karczmę, to teraz mod nas będzie o tym informował wcześniej i po prostu to było tylko na stronnikach czytane, więc fajnie, że mod cały czas się rozwija i możemy sobie w tego Hearthstone’a grać cały czas.
O Forzie już mówiliśmy, oczywiście tutaj Forza też cały czas nowe trasy dostaje.
Kolejna gra webowa dostała aktualizację, taka RPG, Elves of Allal Hill, mam nadzieję, że dobrze przeczytałem.
No tutaj było dużo aktualizacji w styczniu.
Teraz nasz profil publiczny naszej postaci będzie wyświetlał domyślnie to, jaki mamy ekwipunek na przykład, więc możemy znajomym pokazywać, co akurat nosimy, ale możemy też go sobie zmienić.
Jakieś nowe rasy, którymi możemy grać doszły, nowe umiejętności, no i generalnie jakaś nowa zawartość do tej gry doszła.
Mody dostępności też cały czas inne się rozwijają, nie tylko Hearthstone Access, bo mod do gry CrossCode cały czas się rozwija.
I co my tutaj mamy? Nowe dźwięki, menu, które nam pozwoli te wszystkie dźwięki, które pomagają nam grać tą grę, usłyszeć, żebyśmy wiedzieli co jest do czego.
Funkcja skanera ścian, więc możemy się po prostu tak jak gdzieś w innych grach mamy taki radar, który nam powie gdzie są jakieś ściany, gdzie są jakieś platformy, na które możemy skoczyć.
Będziemy informowani o tym, jak nasza broń gdzieś będzie, bo w tej grze akurat strzelamy taką bronią, która gdzieś strzela takimi piłkami, które się odbijają od różnych rzeczy.
Teraz tam mod nas będzie informował, o czego gdzieś ta piłka może się odbić.
No i jakieś jeszcze inne poprawki, ten mod też cały czas się rozwija.
I mamy wersję demo dostępną, którą musiał autor moda osobno dla nas stworzyć, bo oficjalne demo korzysta ze starszej wersji silnika, która z modem nie działała.
No i autor tutaj dla tych, którzy nie chcą tej gry kupować od razu.
Chcą po prostu sobie zobaczyć jak to działa.
Udostępnił takie demo dla nas, możemy sobie ściągnąć i ono już ma tego moda
zainstalowanego, więc wystarczy je rozpakować i sobie możemy grać.
Mod do gry Plants vs Zombies też cały czas się aktualizuje i tutaj mamy
lokalizacje na hiszpański i chiński.
Wiem, że lokalizacja polska też ma za jakiś czas się pojawić.
Teraz ten mod też nie będzie nam automatycznie aktualizował, nowa informacja
kiedy któraś z naszych roślin, którą gdzieś możemy posadzić już jest do tego
gotowa, bo tam też mamy tam typy roślin, możemy tam co kilka sekund sadzić, nie
możemy no jakoś dużo naraz sadzić.
Będziemy teraz informowani o tym, kiedy możemy to zrobić ponownie, no i jak to
często bywa w takich aktualizacjach też jak zwykle jest dużo poprawek błędów.
Następnie klasyk się zaktualizował, bo gra Sound RTS, jak widać cały czas żyje i ma się dobrze.
Mamy kolejną aktualizację, nie jakąś dużą, ale mamy poprawki błędów m.in.
z polami, na których jest woda, z jednostkami, które gdzieś uciekają.
Czasami nie uciekały tak jak powinny i z odtwarzaniem zapisów gier, bo możemy sobie takie zapisy zapisywać właśnie i później odtwarzać przebieg jakiejś gry.
Ten Sound RTS to w zasadzie ma chyba tyle samo lat co i Tyflo Podcast.
Tak, bo to jest po 2007-2008 roku.
Tak, bo to jedna z pierwszych audycji jak pamiętam.
Jedna z pierwszych takich w ogóle też tworzonych kilka osób, które stworzyliśmy w Tyflopodcastie.
Nie wiem, że to nie był pierwszy podcast, który ja usłyszałem w ogóle od Tyflopodcastu.
A widzisz.
No, na pewno jeden z pierwszych, więc…
Stare czasy.
Stare czasy, ale gra, jak widać, ma się dobrze i cały czas sprawia frajdę, trzeba przyznać,
bo jakoś niedawno grałem nawet.
Nawet gdzieś te mody są do niej teraz.
No właśnie dobrze społeczność cały czas gdzieś wokół tej gry jest, może nie tak
dużo jak kiedyś, ale jest.
Tak samo jak koło moda Alter Eon, który jest jeszcze starszy, bo on już będzie teraz
obchodził chyba, ojejku, dwudziestą, chyba dwudziestą dziewiątą rocznicę, bo to jest
chyba dziewięćdziesiąty piąty rok, więc też już trochę, trochę ten mod jest na
rynku, no i cały czas się rozwija, bo mamy nową klasę mrocznego, właściwie zimnego
rycerza, frost knights, więc jakieś pewnie władanie lodem i śniegiem i tego typu
rzeczy będziemy mogli robić.
Będziemy mogli tworzyć ekwipunek wykorzystując różne kwasy, inne żrzące
substancje.
No i tutaj mamy taką informację, żeby raczej nie mówić złych rzeczy w obecności mobów, czyli takich, no, jakiejś postaci sterowane komputerowo, bo teraz one mogą nam zareagować, jeśli na przykład kogoś kopniemy, wykorzystamy tak zwane sociale, więc nie wiem, palca komuś pokażemy, no to ponoć te moby mogą teraz na to jakoś zareagować i na przykład nas zaatakować, więc to lepiej tego nie robić w publicznych miejscach, tak jak w realu.
O Mortalu też już mówiliśmy. Mortal Kombat się cały czas niestety na komputerze polskiego głosu nie ma, ale może za jakiś czas się pojawi.
Natomiast cały czas tam Mortal Kombat też się aktualizuje, staje się coraz bardziej dostępny.
Jeśli chcecie wiedzieć więcej no to odsyłam do audycji o grach, bo tam mówiliśmy o tej grze dużo, dużo więcej.
i też o tych aktualizacjach, które nierawno się pojawiały i na koniec kolejna gra, która pojawia się u nas dość często, mianowicie Sanctuary in Time.
Kolejna poniekąd gra, taka trochę RPG, dostała system pogody, więc tutaj może się pogoda zmienia się i to będzie miało wpływ na grę.
I mamy nowe wydarzenia, które się pojawią w tej grze, które tym razem pozwolą nam dowiedzieć się więcej o naszej rodzinie,
która okazuje się może być dziś niewolnikami w jakimś obozie czy w jakimś miejscu tego typu.
Będziemy mogli ją z tego miejsca uwolnić i tam później różne rzeczy będą z tym związane.
No i jak zwykle mamy różne takie rzeczy, to są kosmetyczne jakieś nowe style włosów dla postaci
i jakieś nowe chyba tatuaże, no i jak zwykle więcej poprawek, błędów.
No i to na razie jeśli chodzi o gry, przynajmniej w tym tygodniu to wszystko.
No to teraz zaglądamy ponownie do waszych wypowiedzi.
Na Whatsappie jest wiadomość od Grzegorza.
No cześć wam, z tej strony Grzegorz.
No tym razem będzie krótko, bo to jest taka krótka rzecz.
Chodzi o aplikację ChatGPT na Androida.
Nie wiem jak jest na iOS, bo już niestety nie mam iOS, bo to był porzeczony z Ovidu, więc niestety musiałem oddać, więc jestem tylko na Androidzie.
Ale chodzi o aplikację ChatGPT i boczne menu, tam gdzie są listy konwersacji, ustawienia, no i tak dalej.
Po jakiejś aktualizacji ostatniej to menu nie jest czytane żadnym czytnikiem ani talkbackiem, ani komentary, więc no w ogóle to nie jest dostępne.
Sam czat, cały interfejs czatu jest normalnie czytany, nawet dodali opcję kopiowania do schowka kodu, czego nie było wcześniej,
Ale z tym bocznym menu, co się wysuwa tak z boku,
no to jest nieczytane niestety.
Zgłosiłem to do OpenAI.
Nawet napisałem to na liście Androida.
No nie wiem, zobaczymy.
Ale to jest taki błąd, przez który nie da się używać aplikacji, bo do listy choćby konwersacji się dostać nie da.
Nie wiem jak jest na iOS, ale niestety na Androidzie tak jest. Pozdrawiam.
Pozdrawiamy Cię Grzegorzu i dzięki za te informacje.
Cóż, na iOS-ie jest trochę lepiej, ale od kilku wersji ten czat GPT mam wrażenie, że jego dostępność się pogorszyła.
Kiedyś było to zdecydowanie lepiej działające, teraz to menu, o którym wspomniałeś, faktycznie jest ciężej dostępne.
Tam się trzeba bawić bardziej eksploracją, niestety.
I przechodzimy chyba do technikaliów. No i w technikaliach w sumie to mamy chyba same newsy od Piotrka. Jak tutaj tak sobie przeglądam. I tych newsów mamy trzy. Pierwszy dotyczy Google’a, który pozbywa się kolejnej swojej funkcji. To jest chyba jakaś tradycja Google’owa.
Tak, w ogóle to, co Google zapowiedziało, że ten rok to jest generalnie rok cięcia kosztów na wszystkie możliwe sposoby odzwalniania ludzi po właśnie usuwanie funkcji, które są nieużywane.
Tego mi czasami, będę szczerze mówiąc, brakować, chociaż to dziś było bardziej ukryte.
Ja pamiętam dziś moje początki korzystania z komputera i z Window Ice’a na przykład wtedy, jak ja wtedy gdzieś przechodziłem, pamiętam po wynikach Google.
Nie wiem czy wtedy były nagłówki, czy ja po prostu nie wiedziałem jak z niej korzystać, wiedziałem jak skakać po linkach.
Były nagłówki, na pewno. Nagłówki są dawnie dawne.
No to ja sobie jakoś obrałem trudniejszą drogę i skakałem po linkach, natomiast to co zawsze to pamiętam do dziś, że…
Kopia strony, tak?
Tak, trzy linki były zawsze. Kopia, podobne strony i był następny link, więc trzy razy się naciskało.
No i tutaj właśnie mowa będzie o tym linku kopia, no bo właśnie jak ktoś nie wiedział, kiedy sobie czegoś wyszukiwaliśmy w Google,
no to był właśnie dostęp do tego linku kopia i to się przydawało, bo to generalnie pozwalało nam podejrzeć
jak wyszukiwarka, jak boty, które gdzieś przeszukują internet dla Google widziały daną stronę i to miało kilka sytuacji, gdzie to się mogło przydawać.
Po pierwsze i to się zdarzało dość często, no nie wiem czy dosyć, ale zdarzało się czasami, że jakaś strona po prostu w międzyczasie zdążyła zniknąć
albo po prostu padła na jakiś czas, no a ta kopia sobie była i mogliśmy zawartość artykułu podejrzeć.
To czasami też pomijało nam jakieś paywalle, więc jak jakiś artykuł był generalnie niedostępny za opłatą
albo był zablokowany w naszym kraju, znów ta kopia nam mogła pomóc.
To też było przydatne dla nas w kwestiach dostępności, bo to też działało np. z plikami PDF pamiętam
i to całkiem fajnie się w ten sposób te pliki PDF w tej kopii czytało.
Też czasami jak jakieś strony były niedostępne, to te wersje kopiowane często były prostsze.
Tu też nawet autorzy artykułu opowiadali jak można było zobaczyć jak ten bot Google to widział,
bo najpierw to widział głównie tekst, później widział więcej jakichś multimediów i tak dalej.
Często te kopie były bardziej dostępne.
Natomiast od kilku lat gdzieś ta funkcja już była taka, nie dbano o nią, ona sobie tam gdzieś była,
Trzeba było jakieś menu rozwinąć, żeby się do tego dostać, tak. Ona była teraz już bardziej ukryta.
Tak, ale tutaj firma właśnie tłumaczy się tym, że generalnie to było stworzone dla sytuacji, kiedy strony czasami nie działały tak stabilnie jak działają dzisiaj. Dzisiaj ponoć z tym jest lepiej.
Tutaj pominięty został fakt, że to się też wydawało w sytuacji, kiedy jakiś artykuł został zedytowany z tego czy z innego powodu.
to też często dziennikarze bardzo chętnie korzystali z tej funkcji.
Natomiast no właśnie firma postanowiła się z tego wycofać ten link i pomału będzie u wszystkich znikał.
Był też operator, można było sobie cachę wpisać tam przed adresem i tak bezpośrednio do tej kopii wejść.
To też za jakiś czas zniknie, to będzie się działo stopniowo.
Tutaj też ta osoba, która się wypowiadała, ma nadzieję, że może kiedyś jakieś linki do WebArchive się pojawią.
no to tak trochę szkoda, bo no tutaj Google znów będzie ten Internet Archive,
a tutaj przypominajmy, to jest po prostu jeden non-profit, który jest diametralnie
mniejszy od Google’a, no będzie jeszcze bardziej gdzieś obciążony archiwizowaniem
internetu. Szkoda, że tego już nie będzie, bo no okej, to nie jest coś, z czego
korzystałem codziennie, natomiast mówię, zdarzały się sytuacje, kiedy to się
przydawało, czy z kwestii, że coś faktycznie zniknęło, czy z kwestii
czysto dostępnościowych, czasami gdzieś te kopie mogły czasami być przydatne.
Google też ostatnio wyciął, czy ma zamiar wyciąć, ale jakoś to się chyba już stało,
na grupach Google ruch z Usenetu, z grup dyskusyjnych, jeżeli ktoś jeszcze w ogóle z tego korzysta.
W Polsce to mam wrażenie, że już nie.
Gdzieś tam może na świecie jeszcze są te grupy dyskusyjne popularne, ale w każdym razie
Zarówno przestaną być one archiwizowane na bieżąco przez serwery Google’a jak i nie da się już na nie pisać, więc też to zostało wycięte.
A tymczasem mamy telefon, więc może odbierzmy, a jest z nami Maciek, witaj.
Cześć wszystkim, dobry wieczór, a dla odsyłkujących później dzień dobry również.
Dzisiaj tradycyjnie z telefonu, bo właśnie to jest jedna z kolejnych spraw, z którą dzwonię.
Bo właśnie chciałem sobie do Was zadzwonić i jakie było moje zaskoczenie, gdy Facetime wypluł błędem,
że Facetime teraz nie może skorzystać z tej wizytówki czy jakichś tak kontaktów.
No nie mogę. Tak samo, bo wiesz, jak jest apka telefonu i możesz wykonywać połączenia,
no tam też się od czasu do czasu pojawia Whatsapp, nie? To też można.
I jakby tego też nie było, więc w sumie nie wiem.
Natomiast do FaceTime’a na pewno co teraz coś się nie da,
już tam nie ma właśnie tych przycisków FaceTime, audio, wideo i tego typu,
więc coś tu się pochrzaniło.
Muszę zobaczyć, bo wiesz, ja ostatnimi czasy też byłem za granicą
i wyłączałem sobie te linie.
Być może tam się coś po prostu zdezaktywowało.
Z tego powodu będę musiał to po prostu przejrzeć, ale sprawdzę.
Może później coś się zmiesiło i teraz się próbuje mielić i tak dalej.
No, no to tak jakby to daje cynk, a co ja jeszcze chciałem?
Może, a właśnie, jeśli chodzi o, bo nie wiem czy już też była odpowiedź,
znaczy czy, czy było coś, bo mi leży generalnie od ostatniego odcinka na
sercu pytanie Marty i odnośnie tego jej zwracania się do niej przez Apple Watcha,
nie? Gdzie, gdzie, gdzie do niej się zwraca
w prawdziwy sposób ten Łocz i powiem tak, bo nie wiem czy już w sumie gdzieś tam w tym odcinku odpowiedź padła,
czy coś się gdzieś tam zaktualizowało pod tym kątem, bo ja tylko z wami jestem od dziesiątej z racji różnych obowiązków,
natomiast kwestia może być ewentualnie dodania sobie w wizytówce w kontaktach po prostu pseudonimu
i wtedy on się rzeczywiście będzie zwracał do danej osoby, nie?
A wiesz co, to jest dobra sugestia, ja jakoś na to nie wpadłem, po prostu założyłem, że on po prostu bierze to z naszego Apple ID, ale może masz rację, to bierze z kontaktu.
Ale może faktycznie bierze to z kontaktu, ja miałem akurat swoje imię tam wpisane.
Z kontaktu, znaczy no, ta wizytówka chyba też się jakoś z automatu utworzyła chyba, nie?
Wydaje mi się, że ona się jakoś tam tworzy, jak se to wpisujesz wszystko, w sumie nie wiem, bo to mi się jakoś automatycznie nagało.
Coś tam się samo wypełnia, masz rację, nie pamiętam czy się imię samo wypełniło, numer telefonu tak, ale no właśnie.
Na pewno adresy się nie wypełniają, jak coś trzeba sobie to jeszcze dodawać z osobna w swojej wizycie.
W tym adresy zamieszkania typu dom, praca i tak dalej.
I wtedy to jest też fajne, bo w mapach się to też pokazuje jako ulubione i na tej podstawie też działają te różne usługi,
które w oparciu o przychodzenie do domu i tak dalej, więc w sumie warto sobie tam pogrzebać.
No między innymi właśnie ten przełodonim nieszczęsny, bo u mnie, ja wiecie, nie lubię oficjalnie, prawda, ja tam zawsze.
I ten Łocz zawsze do mnie, Maciej to, tamto, tamto, siamto i Maciej to, tamto, no Boże święty, może coś się da zrobić.
No i ja powiedziałem Siri, słuchaj zwracaj się do mnie teraz Maciek, bo ja tak sobie życzę.
No i ona zrobiła, że niemiecka w sumie, no to fonetyka powiedzmy troszeczkę bardziej zbliżona niż angielska, więc gdzieś tam mi to zrobiła.
I potem, no mówisz pytnamy, no dobra, psał do niej, psał do niej, no wchodzę w kontakty i rzeczywiście tam było, się uzupełniło, więc jest.
Więc warto jak coś to sobie radzę jeszcze, bo teraz rzeczywiście Watch do mnie już zwraca jak ja sobie życzę, a nie w jakiś tam domyślny.
Druga rzecz to Eurofly i sprawa, która mi spokoju nie daje mówiąc szczerze, jeżeli już gdzieś tam zahaczamy o wątek gier.
I to w sumie do ciebie Piotrek pytanie, bo ty jak korzystasz to też na wirtualnej maszynie czy z Euroflya grasz sobie czy w ogóle na oponowym kompie?
Akurat bardziej na stacjonarce, ale wiem, że na wirtualnej też się to da odpalić.
Bo wiesz co, czyli na Macu, okej. I na Paralelsie, wiesz co, jest kwestia tego, nie wiem co się stało.
Hmm, bardzo kluczowy skrót mi nie działa, jak myślisz który?
kontrolę kontrolę nie działa.
Gdzieś w telewizorach przypadkiem coś nic zupełnie nic.
Mało tego jak ja daję Alfa no jak ja daję Alfa i tam jest jeszcze ten taki potrawy jak
jak tabujesz i się tabujesz to tam masz taki też obszar do testowania skrótów nie no i
wiesz jak ja daję ten kontrolę.
kontrolenter, zupełna cisza. W wszelkich tych, w tym drzewku, jak masz plane, znaczy się samolot teraz, no tak, społecznie jest, to tam jest kontrolenter. A jak spróbuję testować wszystkie inne skróty, to…
Oj, jakiś mamy problem z telefonem tym razem, tak.
Aha, no właśnie, bo to…
Maćku, zasięg Ci się na moment zgubił, wiesz?
Oj, ale tam jestem teraz?
Jesteś, jesteś.
Aha, dobra, więc nie wiem właśnie czy to kwestia aktualizacji macOS-a i że tam coś z Paralelsem weszło w jakieś komplikacje.
Czy z kolei coś się w grze podziało, bo u innych z tego co wiem to ten CTRL ENTER działa.
Wiesz co, muszę to jeszcze na Macu odpalać, akurat ostatnio grałem na stacjonarce swojej, ale co można sprawdzić? Rozumiem, że sobie w Paralelsie ten profil kawiatury ustawiłeś na chyba standardowy to się nazywa?
A ja tam różnie robiłem, bo próbowałem tak, tak, tak, jeszcze resetować, jeszcze coś. Chyba tego czego nie zrobiłem to nie było reinstallki Paralelsa i wywalenia wirtualki, nie?
Czy ten skrót też Ci widzi? Jestem ciekawy NVIDIA na przykład w trybie pomocy czy tam inny screenreader, bo to też by warto myślę sprawdzić czy to się gdzieś gubi zanim trafi do gry czy to jest problem coś z grą.
No muszę sobie to na Macu już zainstalować zobaczyć jak to, jak mi to pójdzie czy coś bym miał ten problem.
Zresztą mogę szybko zobaczyć czy chociaż ten skrót mi zadziała, ale to ja nie wiem czy jeszcze masz jakieś pytanie coś chcesz powiedzieć to ja w tym czasie sobie to spróbuję ogarnąć.
Będę wdzięczył generalnie za odpowiedź.
Ja się generalnie cieszę, że to spolszczenie wyszło.
Te komunikaty różne, typu podaj częstotliwość, wysokość, to jeszcze chyba wesoło po słowacku tam zdaje się są.
Nie wiem właśnie czy przez launcher, czy to mi się aktualizuje ta gra w końcu, czy nie.
Być może chyba raz się tam pobrała jakaś wersja.
Tyle, że tego spolszczenia to jeszcze nie było w dostępnych językach do zainstalowania.
A potem dopiero jak ja wywaliłem tę grę żeby zobaczyć czy to mi pomoże rozwiąże problem nagle się Polski pojawił więc ja w sumie nie wiem czy to to się będzie aktualizowało tak naprawdę gdzieś tam dynamicznie w tle czy coś czy czy czy czy to trzeba kurde grę odinstalować co chwila i instalować żeby dostępne tłumaczenia aktualizować nie wiem.
Teoretycznie ten launcher powinien to aktualizować, ja już w międzyczasie sobie tego Windowsa odpaliłem
i przynajmniej w pomocy MVDA i CTRL ENTER mi jak najbardziej widzi i to działa.
Nie sprawdzałem tego jeszcze w grze, to będę musiał zrobić później,
natomiast na pewno da się to jakoś zrobić. Teraz pytanie, gdzie się ten skrót gubi?
Ja bym zobaczył w pomocy MVDA, jeśli to działa, no to albo coś jest nie tak w wystawieniu Parallelsa,
albo jakaś aplikacja w systemie, która nie wiem w tym momencie gdzieś ten skrót
przechwyciła.
Kurczę, bo ja bo wiesz co, bo to mi na początku działało w tym rzecz wiesz, ten
skrót mi na początku działał i ja naprawdę zupełnie nie wiem co się tu podziało, czy
po aktualizacji jakkolwiek do którejś tam gdzieś tam z bet, czy po aktualizacji
bety Mac OS-a, bo aktualizacji para OS-a w sumie to nie było od tamtego czasu,
więc autentycznie nie wiem o co chodzi.
Ale problem w każdym razie ja mam i poniekąd jest on uciążliwy, bo nie sprawdzisz sobie właściwości podstawowych to pomodzenia przestarczy.
Tak, no to jest dosyć ważne.
Zwłaszcza przy nowych samolotach, wiadomo.
Wczesne mamy te, powiedzmy, te 110, ten drugi, ten…
ten, ten…
to mamy te 119.
No dobra, jeszcze…
Na trzecim jakoś tam wykminiłem,
tam chyba te, nie wiem, ustawiłem niby
150 i niby się udało mi wznieść, ale
czy dobrze, to też nie wiem.
W każdym bądź razie, no problem to
zdecydowanie jest, więc jak ci się to
uda też sprawić, najwyżej to będę wdzięczny.
Tak.
Generalnie gra mi się w sumie jakoś, zainspirowany też tym blogiem żywka, bo też nie do końca wiedziałem, gdzie ja dokładnie robię ten błąd, że mi się 5 razy udaje startować, 3 razy nie, no teraz już wiem.
W każdym razie też dzięki za wskazanie tego bloga, no bo jednak co po polsku, to po polsku w sumie.
No i co, i Eurofly mam odhaczony, to jest.
No i jeszcze w sumie pytanie mam o tego, o czata GPT w sumie.
Czy i ten spersonalizowany czat w wersji plus, czy generalnie wiecie, czy jakkolwiek,
no bo jakieś tam powiedzmy serwisy bazujące na GPT w sumie gdzieś tam stoją, nie?
To są różne jakieś te, ale czy da się, i właśnie wiecie może jak ten, jak można sobie,
No bo takiego czata stricte z OpenAI, w sensie jakby tak bezpośrednio ze strony, to się go nie da udostępnić nigdzie, no nie, bo on tylko obejmuje użytkowników premium, nie?
Premium, tak, tak.
No właśnie. I teraz pytanie, czy w sumie jest jakiś sposób, żeby sobie to, czy przez API jakieś powiedzmy, nie wiem, jakby strona była, czy macie może jakiś pomysł jakby co by zrobić w sumie, żeby taki czas jakby bardziej upublicznić?
Wiesz co, obawiam się, że tak prosto to się tego nie da zrobić. Być może są jakieś boty, które pośredniczą w tym, ale to po prostu trzeba by było sobie napisać bota, który działałby właśnie w ten sposób, że odpytywałby tego czata GPT przez API.
Tylko, no to raczej nie jest tak, to nie jest takie trywialne zadanie, bo problem będzie w tym, jak ktoś będzie tego nadużywał, to wiesz, to nie może być taka jakaś bardzo prosta aplikacja, w której po prostu podasz klucz i już.
I to będzie tylko w ten sposób działało, no bo to jest proszenie się wtedy o kłopoty i ktoś bardzo szybko mógł by ci to wyczyścić.
Więc tu trzeba by było po prostu poszukać jakiegoś, być może takiego gotowego bota,
który, w którym możesz mu wpisać klucz swój, klucz API,
jakoś go tam wstępnie skonfigurować.
No, to Jakub Mrugalski, czyli ten człowiek od Niebezpiecznika, czy od różnych innych projektów,
on tworzy takie szkolenia z wykorzystaniem AI, to się aidevs.pl bodajże, adres tej strony jest, te szkolenia nie są jakieś super tanie,
ale tam właśnie można się nauczyć programować i wykorzystywać sztuczną inteligencję, więc może to coś by było takiego,
Chociaż, no tu w tym przypadku to już jednak jakieś podstawy programowania z tego co kojarzę to trzeba znać.
No i pewnie już mi tego GPT nie zrobi, no bo stwierdzę, że nie będzie okradał firmy, nie?
To znaczy, nie no, wiesz, GPT tak czy inaczej by na tym zarobił, bo przecież podajesz tam klucz, tak?
I tak czy inaczej musisz za to płacić.
No, no tak.
Eee, no dobra.
Dzięki. To gdzieś tam może będę
w sumie zgłębiał temat, bo, no fajnie by było.
Gdyby, a choćby nawet, żeby
w sumie też nawet zrobić jakiegoś takiego czata.
No niektóry, no bo wiadomo, ten
domyślny gdzieś tam czasem lubi se, czasem,
często, zwłaszcza na nasz temat trochę
pościemniać. No i co, no
fajnie by było zrobić takiego, takiego czata,
który by, który by rzeczywiście, no taki w sposób
kompleksowy i rzetelny,
profesjonalny odpowiadał
zgodnie z prawdą na różne nasuwające się pytania,
a choćby nawet osobom, które gdzieś tam chciałyby poznać
nas bardziej, prawda, jako społeczność niewidomych,
a tego, no i co, taki czat to im różnych rzeczy też na wymyśla, nie?
Oczywiście, że tak.
Ale choćby nawet taka też nasza pomoc, nie, żeby
nam powiedzmy, żeby w kompleksach, żeby, nie wiem, jakąś tą tyflowiki,
teraz to już w tyflu akademii jest, nie, w każdym bądź razie,
żeby, powiedzmy, jakoś tym nakarmić.
Ale nakarmić, wiesz, nawet transkryptami z tyfloprzeglądu.
Ja próbowałem karmić tego bota właśnie takiego,
który jest dostępny na OpenAI w tym planie premium.
Natomiast nie miałem za bardzo czasu
i raczej w najbliższym czasie nie będę miał go
jakoś specjalnie więcej, żeby się tym pobawić,
ale taki miałem pomysł na stworzenie takiego bota,
które nakarmić by go właśnie tekstami z Tyflo Przeglądu i zobaczyć co się stanie, co on będzie w stanie gdzieś tam dodatkowo.
Pytanie czy on wiesz, bo skoro tamta sesja w sumie jest zerowana z jednej strony, a z drugiej no gdzieś tam te dane potem i tak są przetwarzane.
W sumie ciekawe w jak długim czasie on by się tak rzeczywiście tego nauczył, żeby się nauczył, że tam powiedzmy jeszcze ktoś by uznał,
że no warto ewentualnie go na tym potrenować, nie?
Dokładnie, dokładnie.
Ja powiem też, powiem też szczerze Maćku,
że nie mam takiej do końca pewności
w jakim czasie on te pliki,
które mu się tam wczyta, przetwarza,
bo tam nie ma żadnej informacji,
tam możesz to wrzucić, ale w sumie
nie wiesz, co się z tym dzieje,
czy to się załadowało,
czy on już coś z tym zrobił,
czy on sobie to wrzucił do jakiejś kolejki,
to jest takie nie bardzo.
Wiesz co?
To ja eksperymentowałem troszkę z tym, też tak przyznam się troszeczkę dla potrzeby powiedzmy troszeczkę ułatwienia sobie życia na uczelni, poniekąd.
No i jak ja to wrzuciłem jakoś do CX czy inny tam powiedzmy tekstowy, który on, no Pages jest formatem egzotycznym, więc go próbował rozpakowywać i różne rzeczy z tym robić, tak dla ciekawostki.
PowerPointów to on nie umie, więc jakby ktoś spróbował to też nie.
W każdym bądź razie ten, docxpdf co na to na pewno umie i txtkiter,
to on po wrzuceniu tego pliku, on tam mi zaczynał generować odpowiedzi
i znaczy stop generating było i potem normalnie mi skupany całą wiesz,
podsumował plik, przeanalizował.
Nie, nie, nie, ale chodzi mi o stworzenie takiego bota,
bo jak chodzi mi o stworzenie bota, którego nakarmisz wiedzą
i tam możesz mu podać, wiesz, jako te bazę wiedzy, z której on będzie czerpał.
A wiesz co, to ja mu wrzuciłem transkrypty z Euroflya z tutoriali.
No.
I, bo na początku jeszcze przed wrzuceniem, nie, no to mówię, żeby tam odpalić silnik,
no to przeważnie w takich symulatorach lotu to jest kontrol E, czy tam E, czy jeszcze inne coś,
a wiadomo, że to guzik, prawda?
Aha.
No i, no i, ale wrzuciłem mu pliki i potem go kulturalnie grzecznie za, no nie wiem, minutkę może zapytałem jakoś tam.
No słuchaj, to jaki jest ten skrót do tego odpalenia silnika? Grzecznie mi podał, że PageUp i super i już nie musiałem się kopać.
Wiesz co, to ja miałem trochę więcej z tym problemów, bo na przykład prosiłem go o to, żeby podał mi, no u nas ostatnimi czasy jest sporo różnych na przykład informacji dotyczących gier,
to prosiłem go i wrzuciłem ileś tam tyflo przeglądów
i poprosiłem go, żeby podał mi jakieś propozycje gier, które ukazały się
na przykład, no jakoś tam niedawno, tak, powiedzmy w grudniu.
To nie był mi w stanie tego podać.
Nie wiem dlaczego. Będę z tym jeszcze walczył, bo wydaje mi się, że
może ja tu coś, jakiś błąd popełniłem.
Aczkolwiek, no mówię, nie miałem aż tak wiele czasu, żeby się z tym bawić.
A to też bywa różnie, bo rzeczywiście niektóre rzeczy mam podane dosłownie na tacy, a i tak sobie ściemnia, a i tak stwierdzi, odsyłam cię tutaj do tych tutoriali, że ja nie jestem w stanie, bo on twierdzi, że nie jest w stanie przytaczać coś tam z treści dokumentu, coś jakieś tam.
Podejrzewam, że to może być też troszeczkę spowodowane, nie wiem czym, jakimiś intencjami trochę antyplagiatowymi, czy czym?
bo ja wiem, że, ale, ale no w każdym razie nie chcę i on to wprost mówi,
a ja mówię, no przecież to masz, podałem ci, mówię, to ten plik, który ci wziąłem,
aha, no tak, ale nie jestem w stanie cytować treści dokumentów, coś tam, bla, bla, bla,
no, a niby, niby wie, że jest page up do włączania silnika, ale już jak go pytam
coś o jakiegoś takiego bardziej skomplikowanego, to ups, no nie może mi tego powiedzieć
i zachęcamy do tego, do tutoriali, więc no taki to z niego czat
Generalnie. I co, tyle chciałem?
No chyba tyle chciałem, nie pamiętam więcej.
No, także.
A, mam.
A propos jeszcze czata i generowania obrazów,
ten plus, który też to robi,
bo tam korzysta sobie z tego,
nie pamiętam teraz nazwy tej dali,
czy czegoś tam,
to powiedzmy generuje te obrazy
właśnie
w 60, powiedzmy 70% skutecznością
względem tego, co ja chcę.
Mało tego, Be My Eyes, bo no to też się wiadomość opiera o OpenAI,
opisuje mi to tak, jak opisuje mi to GPT,
przy czym osoba widząca jednak mi stwierdza,
że tam drobne przekłamania są,
ale ten w sumie fajnie nawet sobie z tym radzi.
Z wygenerowaniem mężczyzny o ciemnej karnacji,
średniego wzrostu i nieco przy kości tam powiedzmy, bo tam z tego, żeby, który tam stoi na czerwonym świetle
i ma, bo tam mama coś wyczytała o tej opasce niewidomego, nie? Ta żółta opaska, coś tam z tymi kropkami, kreskami, Bóg wie co jeszcze.
I to pamiętajcie, że to są absolutnie jakieś bzdury i nie ma to żadnej mocy swych prawnej.
Ale to wiesz, to od razu o tym mówię, bo ostatnio rzeczywiście dość szeroko ten artykuł lata po sieci.
I to absolutnie się tym nie sugerujcie.
Niewidomy to biała laska przede wszystkim, żadne inne tam symbole, to sobie ktoś, mam wrażenie, wymyślił.
Być może gdzieś jest to stosowane, ale na pewno nie u nas.
Też nie na szeroką skalę i nie można oczekiwać, wymagać, że każdy wejdzie i to będzie.
Jak niewidomy, to po prostu biała laska i już.
To jest biała laska. Do tego stopnia, a propos,
że jak ja go zapytałem, Dżipiki, na początku
o opaskę właśnie osoby niewidomej, to mi podał białą laskę,
więc w ogóle, no, ale jak mu powiedziałem,
nie, słuchaj, nie chodzi mi o białą laskę, tylko o opaskę.
I wtedy wydedukował, że to jest to.
No i kazałem mu wygenerować takiego gościa właśnie na tym.
I po to, jak to potem pokazałem osobie widzącej,
to potem mama, no dobra, mówi,
ty, ale ładny facet, coś tam, nie?
No ale już takie bardziej złożone zdjęcia typu
szczęśliwy pies na jasnej na leśnej polanie z grzybami w
tle i tam tam tymi drzewami i tam marchewką w pysku jeszcze
z królikiem nie z uchem królika na na czubku głowy i z
królikiem siedzącym na na grzbiecie No to już sobie nie
poradził tam królika zrobił na głowie i czym jeszcze
małego księżniczka.
ma problem GPT i ja, powiem szczerze, nad tym trochę ubolewam,
to on nie potrafi edytować zdjęć.
Czyli jeżeli na przykład wyślę mu zdjęcie
i chcę, żeby on coś z tym zdjęciem zrobił.
Na przykład zrobił taka głupia rzecz, znak wodny na zdjęciu.
Jeżeli na przykład potrzebowałbym, żeby był tam jakiś taki stempelek,
żeby to zdjęcie było wiadomo do czego, do jakiej strony przynależy.
On tego nie zrobi. On mi wygeneruje obrazek, który będzie jakoś tam podobny do tego zdjęcia
i nawet z tym tekstem, który, o który go poproszę, natomiast to będzie zupełnie coś innego.
I jak mu zwrócę na to uwagę, to on dopiero wtedy się przyzna, że przepraszam, ale ja nie umiem edytować zdjęć.
I to też warto, żebyście mieli tego świadomość.
No tak, myślałem, że się nie skapniesz, więc on sprzeda ci niby tanią tą ściemę, że no okej, to proszę cię bardzo szefie i ten…
Gotowe, tak, a tu się okazuje, że jednak nie, nie, nie, nie, GPT nie potrafi.
A to ty dopiero krętasz i cwaniasz się z niego, no ładnie. Okej.
No dobra, no to tą myślę historią i podsumowaniem czata skończę i na nasłuchu będę dalej.
Ok. Dzięki Maćku za telefon. Dobrej nocy.
Cześć. Dzięki.
Tak. Jeszcze chyba nam dwie rzeczy zostały.
Dwie. Tak.
No to zaczynamy od, znaczy zaczynamy od razu Whatsapp,
który pracuje nad integracją z innymi komunikatorami.
Tak. Na szczęście jakoś ostatnio zauważyłem,
że jak mieliśmy technikania, to kończyliśmy w jakichś właśnie smutnych wieściach,
że coś zostało usunięte, a będziemy kończyć dzisiaj
na rzeczach, które się pojawią.
Zaczynając od właśnie WhatsAppa, no bo poniekąd cały czas wałkujemy temat
tych dyrektyw unijnych, tego aktu o rynkach cyfrowych, o gatekeeperach, no w zeszłym
tygodniu mówiliśmy o tym co musi zrobić Apple z App Storem i jak oni sobie z tym
radzą, natomiast inne firmy też mają jakieś swoje rzeczy, które muszą zrobić i tak
Unia Europejska stwierdziła, że Whatsapp jest na tyle dużym komunikatorem, że jest trochę za duży i powinien pozwolić na łatwiejszą komunikację z jakimiś mniejszymi konkurentami.
Okazuje się, że WhatsApp się do tego przygotowywał i to już dosyć długo, bo dwóch lat, natomiast przygotowują się, żeby zdążyć do marca z funkcją, która pozwoli nam na komunikowanie się z osobami z innych komunikatorów z poziomu WhatsAppa i w drugą stronę również.
To będzie jakoś osobno w sekcji właśnie na jakiejś skrzynki odbiorczej, na inne komunikatory w aplikacji, chociaż domyślam się, że jakieś powiadomienia push jak najbardziej też będą.
I to będzie wspierało zarówno wiadomości tekstowe, jak i głosowe, więc pewnie też jakieś załączniki też. Nie wiem czy to będzie z rozmowami…
Nie, czaty grupowe i rozmowy mają być później, na początku mają być właśnie wiadomości tekstowe, wysyłanie zdjęć, wiadomości głosowych, wiadomości wideo i też innych plików, więc to takie podstawowe funkcje komunikacyjne będą.
To będzie wyglądało tak, że inne komunikatory będą musiały się na to zgodzić.
Tam będzie jakiś system komunikacji z Whatsappem, że te komunikatory będą po prostu Whatsappowi informacje o tych wiadomościach wysyłać.
To ma być jakoś mimo wszystko szyfrowane.
Tutaj firma prosiła, żeby najlepiej byłoby jakby gdzieś te inne usługi korzystały z protokołu szyfrowania stworzonego przez Signal’a,
który co ciekawe jest bardzo szeroko stosowany, no bo właśnie korzysta z niego sam WhatsApp, ale też na przykład Messenger,
ale też na przykład Skype i pewnie jakieś inne komunikatory.
Oczywiście sam Signal też z niego korzysta, ale też jest powiedziane, że inne komunikatory też będą gdzieś mi nawidziane,
no ale chcieliby, żeby jakieś tam standardy do szyfrowania spełniały.
No to się zastanawiam, jak to będzie z tym szyfrowaniem, jak to gdzieś mimo wszystko trafia na serwery Whatsappa,
więc nie wiem, czy tutaj jakieś firmy, które gdzieś mają się skupiać na prywatności, czy będą do tego skłonne.
Dziennikarze z magazynu Wired, którzy o tym nas poinformowali,
kontaktowali się z różnymi dostawcami i tak np. dowiedzieliśmy się, że
szwajcarski komunikator Frima na pewno tego nie będzie miał, bo oni stwierdzili, że
Whatsapp ich znów tutaj nie spełnia ich wymagań dotyczących prywatności.
No tutaj to jest komunikator, który no właśnie stawia na prywatność na
pierwszym miejscu, więc jakoś zaskoczony nie jestem.
Wiele komunikatorów nie odpowiedziało, np. wiem, że Discord nie odpowiedział i tam
chyba ktoś jeszcze Telegram bodajże, ale są też tacy, którzy odpowiedzieli i
planują się z tym integrować.
Tutaj trochę się zaskoczyłem, szczerze mówiąc, bo
na przykład
było powiedziane, że
firma Element
zkomunikowała z Metą, żeby
zintegrować Whatsappa, aczkolwiek nie
mogę powiedzieć więcej przez jakieś klauzule
połówności. To jest o tyle ciekawe, że Element
generalnie bazuje na protokole
Matrix, który też gdzieś głównym założeniem jest prywatność, natomiast firma Element to jest taki odłam, głównym klientem do Matrixa jest właśnie Element, ale to są dwie osobne kwestie, Matrix to jest otwarto źródłowy projekt, protokół, fundacja, która jakoś się odłączyła od tego, a Element to jest też firma taka normalna for profit, która też gdzieś sprzedaje ten komunikator dla firm czy też rządów, np. rząd niemiecki czy francuski z Matrixa korzystają, więc oni tutaj też na tym starają się
jakoś zarabiać, więc no pewnie gdzieś te odłamy użytkowników Matrixa, które będą chciały stawiać na prywatność, no to pewnie nie będą chciały się z tym Whatsappem integrować, nie wiem jak to wtedy wyglądało, czy to jakieś pojedyncze serwery by się z tym łączyły, czy nie, tutaj może być chyba podobnie jak to Fred chce się z Macedonem integrować, też chyba nie wszyscy będą tego chcieli.
Ciekawe co z naszym gadugadu rodzinnym.
No właśnie, no właśnie, zobaczymy jak to będzie z innymi komunikatorami, bo tam gdzieś to bardzo gdzieś stawiające na prywatność to tutaj zostawiam, bo to tam może być różnie i też się ludziom nie dziwię, ale właśnie takie gadu-gadu, taki Discord, taki Telegram.
Ja właśnie, no kurczę, ja bym się bardzo ucieszył, gdyby Telegram się z Whatsappem zintegrował, skoro już bardzo nie chcą tej dostępności wdrażać, mają w nosie petycje,
to niech by chociaż dali ludziom te wiadomości wysyłać i gdzieś tam w przyszłości może te grupy, bo to by naprawdę rozwiązało wiele spraw.
Jak czasem ktoś do mnie pisze na Telegramie, a potem z tego trzeba odpisywać, no to naprawdę nie jest wygodne, zdecydowanie wygodniej byłoby na Whatsappie.
I może tak mam gdzieś tam po cichu, po cichu, po wielkiemu cichu nadzieję, że skoro oni się tak będą integrować, to może komuś przyjdzie do głowy, żeby tam przestawić trochę te wajchę z jakością dźwięku i trochę to podnieść. No wypadałoby.
Byłoby fajnie, gdybyś się zaczął integrować z telegramem, który ma tą jakość lepszą, to byłoby fajnie.
Może jakiś Viber, on ostatnio nie jest jakoś fajnie dostępny.
Dokładnie.
Może jakiś Skype, bo w sumie Whatsapp jest chyba trochę lżejszy od Skype’a ostatnio, więc nie obraziłbym się.
Zobaczymy jak to będzie. Mają czas do marca, zobaczymy co w marcu zostanie ogłoszone, czy już jakieś firmy się na to zgodzą.
W wersjach beta już jakiś kod do tego się zaczął pojawiać, tutaj już ludzie gdzieś to wychwycili, że coś takiego się szykuje, więc chyba nie będziemy musieli jakoś bardzo długo czekać, żeby zobaczyć jakie tego będą efekty.
Znacznie wcześniej niż w marcu, bo już teraz posłuchamy sobie kolejnej wiadomości z Whatsappa właśnie. Wojtek nam nagrał głosówkę, zobaczmy, posłuchajmy co ma do powiedzenia.
Cześć, ja dzisiaj też skorzystam z tej możliwości nagrania wiadomości głosowej.
A propos tych dwóch rzeczy, o których wspominałem, czy rozmawialiśmy tydzień temu.
Pierwsza kwestia to jest kwestia tego brumienia i wysyłania sygnału do słuchawek bluetooth.
No i tutaj chciałem podziękować, bo rozwiązanie leżało niemalże w feedzie podcastowym,
ponieważ ukazała się zaraz potem audycja o Mozos B2 i to chyba jest coś,
co bez udziału komputera może spokojnie mi transmitować taki sygnał właśnie z pulpitu
na słuchawki Bluetooth i chyba na też jeszcze jakieś inne urządzenie.
Być może jeszcze orientowałem się, bo ja już od dawna szukałem takiego transmittera, który będzie nadajnikiem, a nie będzie tylko odbiornikiem, który można tam włożyć do stałego sprzętu i wysyłać ze smartfona, tylko właśnie na odwrót, wysyłać do jakiegoś urządzenia w technologii bezprzewodowej.
Myślę, że to może być rozwiązanie. Nie wiem, czy akurat ten konkretnie model,
jeżeli znacie jakieś inne, które mogłyby być ciekawsze dla mnie,
które mogłyby wysłać po prostu i na te słuchawki Bluetooth moje,
i do komputera, czy też na inne słuchawki już takie po kablu.
To wydaje się to móc zrobić, ale chyba jest to dość duże
z tego, co było opisane w podcaście.
Może będę szukał jakichś innych, nie wiem, jak macie jakiś pomysł, to chętnie przyjmę.
Natomiast co do Netflixa i audiodeskrypcji,
to ja zrobiłem taki eksperyment.
Swoją drogą, wszystkim polecam serial,
niedawno oglądaliśmy, Światło, którego nie widać.
Bardzo dobry serial,
fajnie zrobiony i świetnie się to ogląda.
Zbingewaliśmy to właściwie w jeden wieczór, te cztery odcinki.
I na siłę rzeczy, ponieważ tematyka jest taka tyflo w dużej mierze,
no to jest sporo niedeskrypcji w różnych językach.
No i muszę powiedzieć, że z tych języków, które jakoś tam albo dobrze,
bardzo dobrze rozumiem, albo rozumiem jakoś tam,
no to ta polska niestety wypada najgorzej.
No i absolutnie nie jest to tłumaczenie…
No, tam są na pewno takie błędy, na przykład, że bohaterka wychodzi i idzie o lasce, zamiast z białą laską.
No, ja upewniwałem akurat głównie czołówkę.
No i to jest pojażdżające po prostu, jak dramatyczna jest ta polska audiodeskrypcja tej pani.
Czy to audiodeskrypcja angielska, lepsza, bardzo dobra hiszpańskiej, europejskiej.
Hiszpański, Ameryka Łacińska też niezły, chociaż nie tak dobry jak hiszpański i europejski.
To jest ciekawe też, że tu są dwa skrypty pisane na pewno.
Jeszcze próbowałem, chociaż nie znam, ale trochę siłą rzeczy przez podobieństwo rozumiem,
czy czeski, czy ukraiński, no to po prostu o wiele lepiej.
To wypada na tle tej, nawet z moją, właściwie żadną znajomością tych dwóch języków,
to i tak wypada to o wiele, wiele lepiej niż te audiodeskrypcje polskie.
Tak że jest coś na rzeczy…
No, bardzo to jest przykre, ale myślę, że w pewnym momencie
dobrze by było to z kimś po prostu poruszyć.
Może na jakiejś konferencji.
Ja pamiętam, na takiej konferencji byłem w Barcelonie.
To było wiele lat temu jeszcze audiodeskrypcji.
Takie konferencje są co dwa lata temu, ja tam przez wiele lat jeździłem.
I właśnie był facet z Netflixa, to był 2015, może 2017 rok.
No i on był bardzo zainteresowany. Były konferencje tylko i wyłącznie audiodeskrypcji.
I on był bardzo tym zainteresowany, jak to się robi, jak to wdrożyć.
Tam właśnie z nami rozmawiał, miał chyba jakieś wystąpienie, albo nawet nie miał.
No i no bandy zastanawiają się, jak to zrobić, żeby to po prostu do nich dotarło,
że bez takiego zapewniania jakości tych procedur Q&A, w które są zaangażowane osoby niewidome,
no to słabo, bo oni też na to wydają pieniądze i po prostu szkoda.
To jest przykre, że coś takiego się dzieje, podczas gdy w innych wersjach językowych
po prostu ewidentnie te skrypty są o wiele, wiele lepsze.
I jeszcze raz polecam to światło, którego nie widać. Myślę, że bardzo dobry film, chociaż spotkałem się z recenzją, że nie jest taki dobry, ale nam się bardzo podobał.
No to trzymajcie się, dobranoc.
Dzięki Wojtku za wiadomość. Ja akurat też oglądałem ten serial i też przychylam się do tej opinii, że całkiem przyjemny, naprawdę fajnie się go oglądało.
No oczywiście, jeżeli mówić o przyjemności, tak, no bo historia jest tam raczej dramatyczna, ale dobrze się go oglądało, może w ten sposób.
No i ostatni news, który nam został, dotyczy Apple’a i jego sztucznej inteligencji i zdjęć, które ma przerabiać.
Tak, no bo mówi się, że Apple to sztuczną inteligencję, to jest taki słaby, no jak ktoś korzystał z Siri to wie o co chodzi.
No tutaj są obiecywane jakieś rewolucje, teraz w ogóle Tim Cook ostatnio inwestorom mówił, że iOS 18 będzie w tej kwestii przełomem.
Zobaczymy, natomiast na razie pojawiło się coś jeszcze, bo Apple też pracuje nad swoimi różnymi modelami, no mamy syntezę i tak dalej.
Ale tutaj mamy model, który nierawno się pokazał, dostępny na otwartych źródłach, więc można sobie go skompilować.
Jest też demo online, to wszystko znajdziecie w artykule, który jest podlinkowany.
Model się nazywa MGE i to jest skrót od Multimodel Large Language Model, czyli to jest to M, Guided Image Editing,
czyli skierowane edytowanie zdjęć, bo co ten model nam może zrobić?
Możemy do niego załadować zdjęcie, a potem możemy poprosić, żeby coś z tym zdjęciem zrobił.
I to jest bardzo inteligentne.
Tutaj firma mówi o rewolucji, że czegoś takiego wcześniej nie było.
Szczerze nie wypowiem się, bardzo możliwe, to chyba pierwszy raz o czymś takim słyszę, ale możliwe, że już wcześniej ktoś coś takiego próbował.
Natomiast to może być coś, co się nam przyda, dlatego że jest w stanie rozpoznawać różne detale, obiekty na tym zdjęciu i możemy wydawać mu takie proste polecenia, żeby coś było wycięte, żeby np. tło wyciął, możemy prosić, żeby jakieś kolory były bardziej lub mniej wyrażone, żeby niebo było bardziej czerwone, tutaj był taki przykład podany, żeby wyostrzyć jakieś twarze widoczne albo jakieś obiekty konkretnie.
Można tutaj nawet prosić, żeby styl jakoś zmienił tego zdjęcia.
Chcemy, żeby coś wyglądało to jakby było malowane ręcznie albo wyglądało tak czarno-białe, tak staro z jakiegoś powodu.
Może sobie jakąś prezentację przygotowujemy i chcemy coś takiego zrobić, czy właśnie jakieś tło wyciąć ze zdjęcia.
Zastosowań dla nas czegoś takiego może być dużo, więc to zapowiada się ciekawie.
Natomiast to jest też dziś pierwsza wersja i to ma kilka ograniczeń.
Dla nas, wiadomo, nie wiemy jak będzie wyglądał końcowy wynik, więc jeśli chcemy tym bawić i później coś z tymi zdjęciami robić,
no to z tym ostrożnie, zwłaszcza, że tutaj autor tego artykułu to przetestował.
i napisał, że kiedy poprosi, żeby mu tam na zdjęciu dał taki bardziej czerwony odcień na niebie tego zdjęcia,
no to ponoć wyszło zbyt czerwono, tak do końca nie rozumiem, coś tam było z tymi kolorami i tak z jednej strony.
Z drugiej strony pochwalił, że jednocześnie ten model wykrył gdzieś obiekty, które dawały jakieś cienie
i kolory tych cieni też się zmieniły odpowiednio, więc to jest, no może coś źle to polecenie zrozumiał,
natomiast spróbował coś tutaj zrobić i na wiele rzeczy zwracał uwagę, no natomiast to wiadomo,
to jest słuszna inteligencja, błędy mogą się zdarzać.
A drugi problem jest taki, że wyniki tego na razie wychodzą w bardzo niskiej rozdzielczości,
dużo niższej niż oryginały, więc jeśli załadujemy mu takie ładne zdjęcie, powiedzmy zrobione
współczesnym smartfonem, no to nam wyjdzie coś, co będzie dużo, dużo bardziej
dziś rozmyte i w gorszej jakości.
Natomiast to pokazuje, że tego typu narzędzi może w przyszłości być więcej.
Może coś w iOS 18 się pojawi, co będzie nam dawało lepsze rezultaty, a no to jest jak
najbardziej coś, co nam może się przydać, no bo wiadomo z takich klasycznych
aplikacji do obróbki zdjęć, no z przyczyn oczywistych, no raczej korzystać
nie możemy.
I to już wszystko co
przynajmniej mamy
w newsach. I na koniec jeszcze taka
pozytywna wiadomość od Piotra, któremu udało
się rozwiązać problem z VLC.
Istotnie dźwięk był wyciszony.
No proszę.
No i właśnie pytanie, czy ktoś
coś jeszcze znalazł w trakcie audycji?
Ale chyba nie.
Jeżeli nie, no to w takim razie
Kończymy dzisiejszy Tyflo Przegląd.
Trzyosobowy.
Michał Dziwisz, Piotrek Machaczyja, czyli Tomek Bilecki.
Braliśmy udział dzisiaj w Tyflo Przeglądzie.
No i nie pozostało mi nic innego jak również powiedzieć dobrej nocy.
No i do usłyszenia, miejmy nadzieję, za tydzień.
Był to Tyflo Podcast.
Pierwszy polski podcast dla niewidomych i słabowidzących.
Program współfinansowany ze środków Państwowego Funduszu Rehabilitacji Osób Niepełnosprawnych.

Wszystkie nagrania publikowane w serwisie www.tyflopodcast.net są dostępne na licencji CreativeCommons - Uznanie autorstwa 3.0 Polska.
Oznacza to, iż nagrania te można publikować bądź rozpowszechniać w całości lub we fragmentach na dowolnym nośniku oraz tworzyć na jego podstawie utwory Zależne, pod jedynym warunkiem podania autora oraz wyraźnego oznaczenia sposobu i zakresu modyfikacji.
Przekaż nam swoje 1,5% podatku 1,5 procent Logo FIRR Logo PFRON Logo Tyfloswiat.pl

Czym jest Tyflopodcast?

Tyflopodcast to zbiór instrukcji oraz poradników dla niewidomych lub słabowidzących użytkowników komputerów o zróżnicowanej wiedzy technicznej.

Prezentowane na tej stronie pomoce dźwiękowe wyjaśniają zarówno podstawowe problemy, jak metody ułatwienia sobie pracy poprzez korzystanie z dobrodziejstw nowoczesnych technologii. Oprócz tego, Tyflopodcast prezentuje nowinki ze świata tyfloinformatyki w formie dźwiękowych prezentacji nowoczesnych urządzeń i programów. Wiele z nich dopiero znajduje sobie miejsce na polskim rynku.

Zapraszamy do słuchania przygotowywanych przez nas audycji i życzymy dobrego odbioru!

Tematyka

Pozycjonowanie i optymalizacja stron internetowych