TyfloPrzegląd Odcinek nr 185 (wersja tekstowa)

Pobierz napisy w formacie SRT
Pobierz napisy w formacie VTT
FUNDACJA INSTYTUT ROZWOJU REGIONALNEGO PREZENTUJE
TYFLO PODCAST
Dzień dobry, dzień dobry. 185. audycja Tyflo Przeglądu.
Paweł Masarczyk, Piotrek Machacz, Michał Dziwisz i ja, czyli Tomek Bilecki.
Dzisiaj się nawet nie pomyliłem.
No i to, jak zwykle, oczywiście zaczynamy od tego, co się będzie działo,
natomiast jak to już u nas nieraz bywa, eksperymentujemy
i o tym, kto czy co się zajmie tym, co się będzie u nas działo,
o tym może po tym, jak to poleci.
To proszę.
W tym tygodniu w Tyflo Przeglądzie
WizLens, rozpoznaj przyciski na urządzeniu z ekranem dotykowym.
Twórcy aplikacji Wii Transfer na iOS obiecują dostępność i czekają na sugestie.
Short Circuit, dostępny klient w chat GPT na iOS.
Race Control, nowa aplikacja na iOS dla fanów Formuły 1.
Aktualizacja gry Change Reaction na Maca już dostępna.
Nowa wersja Wona for Mastodon.
Miejsca w necie, w których można opisać zdjęcie lub film przy użyciu sztucznej inteligencji.
Adobe wprowadza sztuczną inteligencję do poprawy dostępności plików PDF.
Apple Tap to Pay, najbardziej dostępny terminal płatniczy na rynku.
Discovery i HBO w Stanach łączą się w jeden serwis. Jak z jego dostępnością?
Drobne usprawnienia i nowy błąd w systemach Apple.
Relacja z konferencji Resha for the Blind.
Zuzanka dostępna na Androida.
Przednik pieniędzy od studentów Politechniki Gdańskiej.
Landrop, kolejne rozwiązanie do przesyłania plików między komputerem, a smartfonem.
Irlandia próbuje przywrócić soundscape.
Postrzeżenie dla użytkowników Gold Wave.
Nowości Polskiego Związku Miewidomych.
Dzień otwarty w centrum dla niewidomych i słabowidzących na temieckiej.
Nowości dostępnościowej od Google.
Netflix kończy z współdzieleniem kont.
Recenzja Zoma M2.
Kraków i łask dostępne w Time for Bass.
40 GB dźwięków do pobrania za darmo.
WhatsApp pozwolę na edycję wiadomości.
Sztuczna inteligencja zawita do Windowsa 11, oraz inne nowości z konferencji Microsoft Build.
Wszystko to, a pewnie jeszcze więcej, już za chwilę. Zapraszamy.
To byłem ja, teoretycznie.
Gdyby ktoś to poznał, można się pomylić.
Mówiliśmy o tym, że a cappella pozwala na klonowanie głosu.
No to według nich to jest głos Piotrka sklonowany po polsku.
Żeby nie było czytałem polskie zdania.
Tak, na pewno byś powiedział Google.
No pewno.
Inteligencja?
Tak, on w ogóle z tą literą ito ma jakieś takie pozwody.
Ja nie wiem, czy ja to jakoś dziwnie mówię zawsze. Jakoś nie zauważyłem tego u siebie.
Nie, bez przesady.
Aczkolwiek, gdyby ktoś za cappelli tego słuchał, na pewno, to możliwe, bo pewnie słyszeliście takie piski czasem.
W RK Wojsa też to się działo.
Przestało się to dziać, kiedy się nagrania po zmianie częstotliwości próbkowania do odpowiedniej.
W przypadku RK Wojsa 24 kHz poddawało się procesowi deteringu.
Tutaj było 22 tysiące.
Tak, więc być może też trzeba zastosować detering i wtedy być może będzie lepiej.
Jakby ktoś za cappellina słuchał.
Z ciekawości, jakie są te ich słowniki, bo one są z jednej strony dość dobre do angielskich rzeczy.
Nie wiem czy chyba, że pisaliście fonetycznie.
To znaczy, niektóre to on sam załapał, a to Google to było ich, to zostawiłem.
Ale Short Circuit?
Nie, to ja Short znalazł, ale tam troszeczkę minimalnie poprawiałem.
Ale na przykład takie dziwne rzeczy robił na przykład Windowsa 11.
Z drugiej strony w pierwotnej wersji była recenzja Zoma metry kwadratowe.
I musiałem tam po prostu zainterweniować.
Czyli ze słownikami jadą.
Słowniki niby jakieś są, ale nie jakieś kompletne i to co poprawiają to są takie dziwne.
Karabin bojowy sekunda się teraz przypomina z Windowsa.
A no właśnie 40 GB to też było przed poprawką.
Jesteśmy oczywiście do Państwa dyspozycji.
Można nas posłuchać na Zoomie, na YouTube, na Facebooku.
W Tyflo Radzie jesteśmy, w aplikacji Tyflo Centrum.
Tak to się nazywa na iOS?
Tak, Tyflo Centrum.
I oczywiście można nas pisać też w aplikacji Tyflo Podcast napisanej przez Dawida Piepera
na stronie kontakt.tyflopodcast.net.
Można też dowiedzieć się jaki do nas jest numer telefonu,
bo to sprawa odrobinę bardziej skomplikowana.
Niemniej da się to zrobić.
No to chyba przechodzimy do newsów i zaczynamy.
Oj, coś mi uciekło, ale już mam.
Może zaczynamy ode mnie.
Tak.
Bo ja mam WisLens, aplikację, która też się jakoś ukazała niedawno.
Jest to efekt pewnych działań i badań naukowych Uniwersytetu w Michigan,
chyba stanowego.
No i któreś tam z laboratoriów postanowiło zająć się problemem,
który mamy wszyscy my niewidomi, czyli jak tu obsłużyć jakieś sprzęty,
głównie tutaj AGD z ekranem dotykowym.
Pralki, kuchenki, piekarniki, ekspresy do kawy itd.
Przy użyciu, znaczy ogólnie oni wymyślili, że przy użyciu smartfona.
I tutaj uśmiech się na twarzy pojawia, bo przecież Apple dokładnie tą funkcjonalność
zapowiedział tydzień temu w ramach pakietu nowości,
które zostały ujawnione podczas Dnia Świadomości o Dostępności.
Więc niedługo iPhony, no niestety te z lidarem raczej.
Czyli Pro.
Dokładnie. Będą miały to wbudowane. Jak to będzie działać zobaczymy.
Natomiast pewną próbkę tego, jakby to działać mogło,
ale też nie do końca, mamy w formie aplikacji, którą pobrać może każdy.
Aplikacja nazywa się Viz Lens, V-I-Z-L-E-N-S.
I można ją pobrać za darmo z App Store’a.
I działa ona w taki sposób, że w pierwszym kroku robimy zdjęcie
ekranu naszego urządzenia.
No i po wykonaniu tego zdjęcia, algorytm, który gdzieś tam w chmurze
w Michigan sobie jest, przymapowuje nam to, co na zdjęciu widać,
do konkretnych przycisków.
Czyli my widzimy kontrolki przycisków, tak jak w tradycyjnej aplikacji.
Z podpisami, z tym, że one są przyciskami.
Oczywiście one są wirtualne i jak my sobie na nie klikniemy,
to nie dzieje się nic.
Natomiast, przynajmniej na razie, może będą jakieś dalsze plany twórców
w związku z tym.
Dzięki temu możemy się z tymi przyciskami zapoznać,
możemy sobie ten ekran dotykowy z takiego ekspresu czy pralki
odwzorować na ekranie naszego smartfona.
I to jest jedna rzecz, którą możemy robić.
To jest tak zwany tryb wirtualny.
A tryb interaktywny polega na tym, że pokazujemy znów ekran tego urządzenia
smartfonowi przez aparat i następnie próbujemy palcem namierzyć
te przyciski, które chcemy.
I aplikacja w czasie rzeczywistym odczytuje nam te przyciski,
nad którymi aktualnie wisi nasz palec.
No i my możemy wtedy, przynajmniej w teorii, palcem uderzyć w powierzchnię ekranu
i naciskamy przycisk i wykonuje się tam jakieś działanie.
No i myślę, że tutaj zakończę część taką teoretyczną i wprowadzenie.
A na 11 minut, prawie, może zabiorę was w taką podróż.
Ale to jest tylko na iPhona.
Niestety, na razie tak.
OK.
Zabiorę was w podróż po tym, jak taka aplikacja działa w praktyce,
bo stworzyłem ku temu pewne nagranie.
Już transmituję do was dźwięk.
I to jest dźwięk, który stworzyłem, więc na 11 minut oddaję głos sobie z przeszłości.
No cześć.
Ja będę teraz prezentował aplikację VisLens na przykładzie naszego ekspresu Saeko
i zeskanuję jego ekran dotykowy, w którym jest taki rząd przycisków
z różnymi opcjami przyrządzenia kawy.
No i zobaczymy, jak mi to pójdzie.
Już mogę podpowiedzieć, że nie próbowałem jeszcze zrobić w ten sposób kawy,
ale potencjał jest.
Nie jest aż tak źle.
Wchodzimy do aplikacji VisLens.
I mamy główne okno, tu mamy przycisk ustawień.
I tu mamy przycisk Add, czyli dodawanie nowego urządzenia.
No więc ja teraz sobie wejdę w ten przycisk.
Tak, tu nas program instruuje, żeby skierować aparat na urządzenie i wykonać zdjęcie.
Ja się do tego przygotuję, chociaż jeszcze nie.
No, tu mamy Continue, czyli przejdźmy do instrukcji.
Tak, i tu jest przycisk Take Picture, czyli no wiadomo, zrób zdjęcie.
Ja zniżę troszkę telefon w stronę tego ekranu, ustawię go powiedzmy na środku
i zacznę go podnosić do góry na wysokość taką, że się wyprostuje.
Ja mam około 1,80 m wzrostu, więc nie wiem w centymetrach, ile to by było.
Natomiast teraz jestem wyprostowany, trochę byłem przedtem zgięty,
więc teraz mogę robić zdjęcie, chyba.
Próbujemy w każdym razie.
Trwa przetwarzanie, ta muzyczka na mnie oznajmia.
I pojawiły nam się prawdopodobne przyciski, które tu mogą wystąpić w tym urządzeniu.
No i mamy przyciski takie jak razy 2, X2, gorąca woda, kawa, cappuccino espresso,
my latte, to jest tutaj taka opcja, żeby zrobić sobie latte i tam jest jakaś opcja
konfiguracji proporcji mleka do kawy, czegoś tam jeszcze, wody.
I tu jeszcze jakiś przycisk, który nie został do końca rozpoznany.
Add degrees, może jakieś zwiększanie ilości kawy czy czegoś.
I to jest wszystko co rozpoznał.
To już jest moje doświadczenie z tą aplikacją, że on rozpoznaje to co jest na dole ekranu,
niekoniecznie to co jest u góry, czyli power i tam parę innych rzeczy.
No ale przyjmijmy to jako dobrą kartę.
My potrzebujemy zrobić sobie kawę.
Konkretnie cappuccino chciałbym.
Spróbujmy czy się uda.
Confirm, zatwierdzamy.
Nazwiemy to Express po prostu i zapiszemy.
I teraz co mamy w głównym interfejsie?
Dalej możemy dodać.
Dokładnie, mamy tu Express, możemy też na czynnościach wyrzucić do kosza, czyli usunąć.
No albo aktywować.
I teraz gdy aktywujemy tak po prostu, o.
Ja robiłem to zdjęcie trzymając telefon poziomo, bo ekran jest zorientowany na ekspresie poziomo.
Więc te przyciski są zorientowane tak jak na ekspresie.
Więc ja wiedząc, że te przyciski są u dołu ekranu na ekspresie, dotknę prawej strony ekranu iPhona.
Czyli gdybym trzymał telefon poziomo i trzymam go tak teraz, udając, że to Express, no to tu na dole przy klawiszu wyłącznika.
Od strony ładowarki.
Troszeczkę w stronę środka.
Widać te przyciski, one są ułożone jeden obok drugiego tak poziomo.
Tu jest kapuczina.
Tu jest mylate.
O, tu jest kawa.
Dalej w prawo, w stronę bardziej głośnika od rozmów.
I hot water, czyli woda.
Czyli one są ułożone od lewej do prawej.
No tutaj na moim zdjęciu one są na środku ekranu.
Ja bym sobie wyobrażał bliżej tej prawej krawędzi, czyli u dołu.
Ale może tak skadrowałem zdjęcie.
Cóż poradzić.
Aplikacja też sama z siebie troszkę te zdjęcia kadruje.
Ponoć coś pomniejsza, coś przycina.
Próbuje wyciągnąć z tego jak najwięcej.
Czy my mamy na to jakiś wpływ jako osoby niewidome?
Chyba nie bardzo jako widzący.
Nie wiem, chyba też nie.
Ale mamy dwa tryby.
To jest tryb, w którym jesteśmy,
czyli taka prezentacja tych przycisków, żeby się ich nauczyć.
To jest tryb virtual.
A mamy też tryb interaction.
To jest właśnie cała zabawa.
Ja spróbuję teraz w ten tryb wejść,
żeby najpierw nakierować aparat na znowu ten interfejs.
Taka melodyjka nas poinformuje o tym,
że my dobrze celujemy.
I to będzie takie łapanie połączenia,
bo ta melodyjka może się nam urywać, wracać, urywać.
I kiedy gra, my możemy palcem wodzić
nad tą powierzchnią dotykową urządzenia
i on będzie nam, przynajmniej w teorii,
mówił nad jakimi przyciskami palec się aktualnie znajduje.
Więc moim zadaniem będzie znaleźć przycisk cappuccino
i go nadusić.
No to zobaczmy, czy to zadanie mi się uda.
Tak, oczywiście słyszę, żebym skierował na urządzenie.
Aparat. Dobrze.
Spróbujemy.
Nie jest to łatwe.
Przesuwam jak mogę.
O! Ten dźwięczek oznaczał, że już prawie było dobrze.
Chcemy go więcej.
Spróbujemy jeszcze raz od zera.
Przyłożę go na środku blisko ekranu
i będę się prostował.
No i?
Przesunę do siebie.
Od siebie.
Prawo.
O!
O!
Mamy.
Teraz,
oby nie przeszkadzało,
muszę skierować palec
na panel
i próbować tam znaleźć przyciski.
Oj.
Hot water.
O!
Hot water.
W lewo.
Cofe.
W lewo.
Sześć.
Cofe.
Sześć.
W lewo.
Espresso.
Espresso.
Espresso.
Cofe.
Espresso.
Cappuccino.
Espresso.
Espresso.
Cappuccino.
Coś próbowałem nacisnąć, bo wydawało mi się, że mam.
No i?
No.
Trudno jest utrzymać połączenie z tym.
No.
Gdzieś tu u dołu to jest, po lewej, ten przycisk.
Tylko…
Właśnie trudno jest utrzymać…
Trudno mi utrzymać ten.
Ojej.
Mamy go.
No.
O.
Teraz go by nie zgasło.
Espresso.
No nacisnąłem.
Ale nie zrobiło się nic.
Trzy.
Cappuccino.
A tu? Cappuccino?
Cappuccino?
Użytkownik Orkow został.
Orkow.
Aha.
Ten przycisk był delikatnie wyżej.
Ja nie wiem, czy to jest już teraz wynik tego, że ten program…
Ja zrobiłem może trochę zdjęcie.
Źle skadrowałem.
Albo program nie jest mi w stanie powiedzieć, jak długie są te przyciski.
Jak długie są te pola.
Jak długie są te pola.
Nacisku.
I dotyku.
Tutaj otrzymałem lekką pomoc osoby widzącej.
No ale jak widzicie…
aplikacja jakiś potencjał ma.
Możecie się nią pobawić, możecie nią eksperymentować.
O.
Ja też myślę, że…
może być to słabe w przypadku na pewno wielopoziomowych menu.
Jeżeli przycisk nie wywołuje od razu działania, no jest słabo.
Bo wiadomo, takie urządzenia miewają swoje czasy interakcji
i jeżeli przez, nie wiem, 10 sekund nie podejmiemy działania,
no to to menu, które się nam wyświetliło, ono znowu wróci do stanu wyjściowego,
wyjdzie nam z niego, wejdzie nam na jakiś ekran standby urządzenia.
Ciekawa zabawka.
Nawet coś można by z tym podziałać i popróbować.
No a czy wam się przyda w waszych osobistych jakichś doświadczeniach
i sytuacjach i przypadkach użycia?
To już ocenicie sami.
Tak, tutaj…
tutaj, że tak powiem, już była to cała prezentacja, jak słyszeliście.
Jest koncepcyjnie ciekawie.
Na pewno nie jest to aplikacja bezużyteczna,
taka, że nic nie da się z nią podziałać.
Natomiast znowu jest ten sam odwieczny problem,
czyli gdyby nie ten aparat.
I rzeczywiście osoba widząca zwróciła mi uwagę po pierwsze,
że ja jako osoba niewidoma zbyt gwałtownie przemieszczam aparat,
chcąc zmienić jego położenie, nad tym panelem.
Że ja mam taką tendencję szarpać tym telefonem.
Zamiast delikatnie nim przesuwać.
I może przez to też to połączenie jest mi z tym interfejsem trudniej złapać.
To wykrywanie, żeby aparat widział to, co na ekranie się dzieje.
Natomiast też prawda jest taka,
że jak osoba widząca zrobiła to zdjęcie samodzielnie,
to wyszło dużo gorzej niż jak ja robiłem sam, próbując.
A też nie da się wykadrować tego zdjęcia.
Więc tutaj potwierdzam to, co mówiłem.
Osoba widząca również nie ma wpływu na to,
jak to zdjęcie jest wykadrowane.
Przynajmniej z tych testów, które robiliśmy.
A aplikacja zawsze, nawet jak idealnie jest zrobione zdjęcie,
zawsze któryś róg tego zdjęcia z jakichś przyczyn przytnie.
Przez co np. nie wszystkie przyciski z tego panelu udało się rozpoznać.
No i już osoba widząca po zrobionym przez siebie samodzielnie zdjęciu
nie była w stanie dojść do tego połączenia.
Znaczy do połączenia jak najbardziej z ekspresem.
Ale już wskazywanie palcem nie chciało działać.
Po prostu aplikacja nic nie zgłaszała.
No i to, co mówiłem.
Mój przykład prawie zadziałał.
Problem polegał na tym, że aplikacja rozpoznała napisy,
opisy tych przycisków, a same pola dotknięcia,
gdzie ten przycisk by reagował,
znajdowały się delikatnie powyżej tego pola z napisami.
W związku z czym na tym polegał mój błąd i moja niewiedza.
Ale pomijając te czynniki,
można uznać mój eksperyment za udany.
No nie wiem jak wy widzicie to rozwiązanie.
Ale ja myślę, że warto.
Zwłaszcza, że jest to za darmo i nic nas to nie kosztuje.
Chociażby się pobawić i dać temu szansę.
Też mi się zdarzyło tak,
że aplikacja się raz chyba wysypała.
Przestała tam.
Nie mogłem wejść w ten tryb wirtualny.
Ja to wyciąłem z nagrania, bo nie zdarza się to często.
Mi się to zdarzyło raz przy jednym jakimś złym zeskanowaniu.
Natomiast zdarzyło się tak.
Klikam w tryb Interaction
i aplikacja wychodzi na ekran główny.
Tam gdzie jest lista interfejsów.
Gdzie jest ten mój ekspres.
Więc też wam się to może zdarzyć.
No ale poza tym rozwiązanie myślę jest ciekawe.
Tak się zastanawiam,
czy nie fajnym pomysłem
byłoby zastosowanie,
tylko kurcze teraz mi właśnie uciekła nazwa.
To takie urządzenie.
No nic, nie znajdę teraz tego.
To urządzenie do stabilizacji obrazów w smartfonach.
Gimbal.
A chodzi o gimbala.
Być może to za jakiś czas będzie
jedno z takich urządzeń,
które należałoby mieć będąc osobą niewidomą.
Ewentualnie kombinować z szelkami.
Tak.
Ale nie wiem.
Albo z jednym i drugim.
No ja w tym wszystkim też jestem oczywiście bardzo ciekawy,
jak w tej sytuacji sprawdzi się rozwiązanie aplowskie,
które teoretycznie tego procesu trenowania
nie będzie wymagało.
Więc to będzie ciekawe.
Na pewno.
No zobaczymy,
ale jakkolwiek jest to proces strasznie uciążliwy,
no to nie widzę czasami innej alternatywy.
Tak szczerze mówiąc.
No właśnie.
Bo to nawet wiecie, ten tryb taki standardowy,
ja sobie to wyobrażam,
że mam klasyczne przyciski
i chciałbym po prostu wiedzieć,
do czego te przyciski służą.
Mam na przykład domofon,
na którym jest pięć przycisków
od góry do dołu
i chcę wiedzieć,
do czego przycisk prowadzi.
Być może dałoby się do czegoś takiego
te aplikacje wykorzystać.
Nie wiem, ale tak się zastanawiam.
Jest to pewnie opcja.
A tymczasem mamy słuchacza.
Tak.
Tym razem chciałam zgłosić błąd
co do Tyflo Radia.
Ramówki dokładnie.
Przed Tyflo przeglądem,
jak chce się sprawdzić,
nie ma jej w aplikacji Tyflo podcastu.
A to ciekawa sprawa,
bo była aktualizowana ramówka
w poniedziałek.
Jest na stronie.
Właśnie sobie sprawdziłam.
To tak nie było w Tyflo podcastzie
w poniedziałek.
W któryś tam poniedziałek.
Ale to w któryś poniedziałek?
Bo to kilka poniedziałków z rzędu było.
A jak jest teraz?
Teraz?
Już patrzę.
Na pewno pod Tyflo przeglądem.
Teraz już jest.
No właśnie.
To być może u ciebie wystąpił jakiś problem
z połączeniem z serwerem
albo cokolwiek tego typu,
bo ja pamiętam, że ramówkę aktualizowałem
w poniedziałek.
Okej.
Czy coś jeszcze?
To być może…
Nie.
Głównie ten błąd.
Okej.
No to dzięki w takim razie za zgłoszenie.
Aczkolwiek błąd okazał się nie być błędem.
Pozdrawiamy.
Do usłyszenia.
I teraz taki zestaw
można powiedzieć newsów,
czyli nowości w aplikacjach,
które przygotował Piotrek.
Tak, coś na kształt drobnych newsów,
no bo mieliśmy w zeszłym tygodniu
Globalny Dzień Świadomości o Dostępności
i kilku twórców wykorzystało ten okres,
żeby swoje programy wypromować
lub zaktualizować
nawet niekoniecznie z dostępnością,
ale tutaj kilka takich pierwszych przykładów
właśnie o dostępności mówiły.
Pierwszy taki przykład
to jest aplikacja do strony WeTransfer.
To jest taka strona,
która pozwala nam na wysyłanie plików.
Coś jak kiedyś było RapidShare,
to jest mega,
mega, który cały czas straszną istnieje.
To jest podobnego typu usługa.
Ja ją bardziej kojarzyłem ze stroną internetową,
ale okazuje się,
jak większość takich dużych stron
też ma swoją aplikację
i jeden z twórców jej napisał na AppleWiz,
że zadbali o to,
żeby ta aplikacja była dostępna
i proszą o sugestie,
jakby ktoś ją chciał ściągnąć
i przetestować.
Ja to przetestowałem
i pierwsze, co mi się rzuciło w oczy
to byli proszeni o zalogowanie się.
Na stronie chyba nie trzeba się zalogować.
W aplikacji konto musimy mieć założone
i zaraz obok,
pod spodem tego formularza
do zalogowania się lub zarejestrowania
mamy od razu propozycję
wykupienia subskrypcji Pro,
która zaczyna się od 70 zł miesięcznie
i kończy na 600 rocznie.
Pewnie na stronie może być taniej,
bo tutaj są płatności wewnątrz aplikacji,
ale na szczęście to można pominąć.
No i faktycznie aplikacja
jest całkiem fajnie dostępna,
tutaj został zastosowany
ten tryb pokrętła
więcej treści,
tak jak w zdjęciach na przykład,
więc jeśli załadujemy jakiś plik
albo wybieramy plik do załadowania
no to VoiceOver nam czyta tylko nazwę,
a my na tym pokrętle
więcej zawartości możemy sobie przeczytać
jakieś informacje dodatkowe,
czyli na przykład ile osób
pobrało ten plik,
kiedy ten link wygaśnie.
Generalnie przyciski są zakietowane,
wszystko jest w porządku.
Jest to taki nieduży 30MB plik,
bodajże, który się załadował
bez problemu,
natomiast aplikacja mi wyświetliła
komunikat, że niby przekroczyłem
darmowy limit,
mimo to, że przycisk dalej był
dostępny i zadziałał.
No to tak swoją drogą,
ale jeśli ktoś by potrzebował
wysłać plik linkiem publicznym,
a nie ma jakiegoś Dropboxa
czy innej strony,
albo szuka po prostu czegoś innego,
no to można sobie za darmo
ten transfer z App Store’a
ściągnąć.
Kolejna aplikacja, która dostała
aktualizację dostępności to
ShortCircuit, czyli kolejny
klient do czata GPT.
No tutaj też jest fajnie
wszystko dostępne.
Aplikacja generalnie po prostu
pozwala nam na rozmowę z
czatem GPT-3,5 i 4.
Możemy sobie oczywiście nasze
odpowiedzi tego chatbota
czytać.
Są możliwości eksportowania
naszej rozmowy, więc możemy
sobie do html, do markdowna,
do kilku innych formatów
wyeksportować.
No i jak to często bywa w
przypadku takich aplikacji,
ona nie jest darmowa.
Poniekąd na początku jest,
bo dostajemy 10 zapytań za
darmo, ale potem musimy albo
sobie wykupić subskrypcję,
albo wykupić dostęp do
aplikacji.
Wpisać własny klucz API
lub subskrybować i wtedy
korzystamy z klucza, który
zaoferował nam developer.
Kolejna aplikacja.
Tutaj znalazłem informację na
portalu 9to5Mac.
Aplikacja RaceControl,
czyli to aplikacja, która
może się spodobać fanom
Formuły 1.
Nie wiem, czy są jacyś tutaj,
którzy nas słuchają, ale może.
A może dzięki tej aplikacji,
ktoś się zainteresuje tym sportem.
No bo ta aplikacja,
tak jak można się spodziewać,
pozwala nam podglądać sobie
różne informacje na temat
wyścigów, które aktualnie się
odbywają lub się zakończyły.
Możemy oczywiście ustawić sobie
powiadomienia, przeglądać tabele
wyników, właściwie tutaj czasów
okrążeń. Nawet możemy
wsłuchiwać się w radia kierowców,
bo każdy kierowca ma swoje radio,
w którym komunikuje się z załogą
w pit stopie.
No i gdzieś tam na dole
opisu tej aplikacji była
wspomniana informacja, że
jest dostępna z voice-overem.
No i mogę to potwierdzić.
Ona się tak też specyficznie otwiera,
bo otwiera się na widoku mapy.
Jest taki przycisk, jak w
aplikacjach aplowskich,
który pozwala nam taką
nakładkę dać na większy ekran.
I tam możemy sobie konkretne
wyścigi, konkretnych kierowców
podglądać. To jest też wszystko
bardzo fajnie dostępne, więc
jeśli ktoś się tym interesuje,
to polecam. A tak przy okazji,
jeśli ktoś może interesuje
się np. piłką nożną, to myślę,
że może być więcej takich osób.
No to bardzo fajnie dostępna
też jest aplikacja Forza Football.
To jest też darmowa aplikacja
i ona nam też pozwala właśnie,
podobnie jak tutaj z tą
Formułą 1, to tutaj też możemy
tabele, statystyki podglądać,
włączyć sobie powiadomienia.
Nasi twórcy dbają o tą
dostępność i tę aplikację już
kilka lat z niej korzystam i cały
czas jest wszystko bardzo fajnie
dostępne i wspiera wszystkie
rozgrywki łącznie z naszymi
lokalnymi po te międzynarodowe.
No niestety Blind Footballu nie ma,
ale to nie wiem, czy jakaś
aplikacja to wspiera.
A na szkodę, swoją drogą.
A teraz przenosimy się na Maca,
więc cały czas gdzieś w świecie
Apple, bo ostatnio jak
wspominałem o powrocie
no to mówiłem, że jedna z
ich dwóch gier już dostała
aktualizację, to była gra
Silver Dollar, a druga, która
już też była wcześniej
zmodernizowana, czyli Change
Reaction, właśnie też tą
aktualizację modernizującą
dostała, więc gra teraz ma
wersję natywną na Apple
Silicon, czyli te procesory ARM,
wspiera joysticki, jest
wibracja na tych joystickach,
jeśli nam te monety wybuchają,
no bo w tej grze chodzi o to,
żeby te monety w taki sposób,
żeby były trzy w rzędzie,
albo w poziomie, albo w pionie
i to powoduje, że te monety
wybuchają, no i w ten sposób
zarabiamy, po prostu dobijamy
sobie wynik.
Mamy na to kilka minut, no i
po prostu chodzi o to, żeby
wyczyścić całą planszę, albo
przynajmniej dojść jak najbliżej
do końca tej planszy.
I na koniec pojawiła się
aktualizacja Mony, czyli
bardzo fajnego klienta do
Mastodona i kilka takich
bardzo fajnych rzeczy doszło w
wersji 5.2, bo no po pierwsze
są emotki jakoś bardziej
poprawnie wyświetlane na profilach,
to może nas aż tak nie
interesować, no chyba, że
ktoś słabo widzący nas słucha
i faktycznie zauważył ten
problem, ale na przykład
przycisk wyboru języka
teraz automatycznie będzie
się nam ustawiał, proponował nam
to już może się nam
przydać.
Nowa opcja w ustawieniu
wyświetlania zawsze rozwijaj
długie posty.
Wojtowa chyba zawsze czytał
długie posty, z tego co
pamiętam.
Możemy, jeśli odpowiadamy
na jakiś post, ustawić aplikację
tak, żeby domyślnie nam
ustawiała prywatność na
tryb, nie pamiętam,
czy tłumaczony na polski, ale
ten mniej publiczny taki, że
na tych publicznych osiach czasu
te odpowiedzi nie będą
widoczne, ale jeśli ktoś
wejdzie sobie w wątek, no
to te odpowiedzi
zobaczy.
To jest takie coś, co
generalnie jest sugerowane
na Macedonie, więc
fajnie, że tutaj ta aplikacja
może nam w tym pomóc, bo
zawsze to musiałem
przystawiać ręcznie, jeśli
do kogoś odpowiadałem.
Są nowe ikonki,
były poprawki z
powiadomieniami, tam coś
filtrowanie nie zawsze
działało.
Były błędy, jeśli
cytowaliśmy post
z innego konta, bo w
aplikacji możemy mieć kilka
kont, no i jakieś
mniejsze poprawki błędów.
Myślę, że fajna
aktualizacja, zwłaszcza
tutaj te ustawienia
prywatności odpowiedzi
są bardzo,
wydaje mi się, przydatne.
No i to wszystko z mojej
strony, jeśli chodzi o
aplikację.
A może ja jeszcze się
dopnę, bo też mam kilka
takich nowości, które
się gdzieś tu u mnie
pojawiły.
Pierwsza i taka z
ostatniej chwili
zasadniczo, bo
dziś zaledwie.
Zuzanka ukazała się
na Androida.
Tutaj właśnie Wojtek
Figiel dziś przekazał
mi informację.
Istotnie jest już w
sklepie Play
aplikacja do
sprawdzenia dat
ważności, którą już
przedstawialiśmy jakiś
czas temu i w ramach
audycji i w ramach
Tyflo Przeglądu.
No więc możecie
pobierać i testować,
bo powinna być już
dostępna dla waszych
androidowych urządzeń.
Druga rzecz pochodzi
z mojej szuflady, z
blogu Piotra Witka
i dotyczy
czytnika polskich
banknotów, czyli
aplikacji, którą
stworzyła grupa
studentów z
Uniwersytetu Gdańskiego
w ramach pracy
zaliczeniowej i zamiast
robić kolejną wersję
gry, jakiejś
Tetris 3D czy innej,
stwierdzili, że
zrobią sobie coś,
co, znaczy nawet
nie sobie, tylko nam,
coś, co się może
rzeczywiście przydać
i w ten sposób
opisują swoją
aplikację.
Aplikacja Czytnik
Polskich Banknotów
na Androida to
projekt skierowany
przede wszystkim do
osób niewidomych i
niedowidzących, codziennie
stających przed problemem
rozpoznania nominałów
banknotów, którymi
się posługują.
Aplikacja w założeniu
miała być darmowa,
bezpłętnie rozpoznająca
oraz użyteczna.
Powstała jako
projekt stworzony przez
studentów Politechniki
Gdańskiej.
Jej podstawą jest
sztuczna inteligencja,
która po dziesiątkach
godzin pracy naszego
zespołu ma zapewnić
zawsze dobrą odpowiedź.
Została ona dostosowana
do współpracy z
systemowym, tu chodzi
pewnie o aplikację,
czytnikiem TalkBack
na platformie Android.
Liczne opcje
personalizacji mają
na celu ułatwić
korzystanie z aplikacji
każdemu użytkownikowi.
Jednak, aby taki
projekt się udał,
potrzebujemy opinii
użytkowników, testerów,
którzy poświęcą
choćby dziesięć minut
na przetestowanie aplikacji
i wskażą nam miejsca,
które możemy poprawić.
Każda osoba, która
wesprze to przedsięwzięcie
będzie ujęta w dokumentacji
projektu, chyba, że
nie będzie sobie tego
życzyła.
Wsłuchamy się w każdy
głos.
Wszelkie opinie
prosimy kierować na
adres j.kornacki
małpao2.pl
No i można ją pobrać.
Ja jej osobiście
nie testowałem, ale jeżeli
ktoś z Was testował, to
możecie podzielić się
wrażeniami.
Po trzecie, dzisiaj
na GitHub’ie, mam wrażenie,
że już rozwijane to było
dłużej, ale dopiero dziś
ukazało się na GitHub’ie
i w języku angielskim
ze stajni
Pierre-Louis Renault
chyba się nazywa tak,
ten deweloper, czyli
RP Tools.
To ta sama osoba, która
rozwija
dodatek do Thunderbird’a,
Thunderbird Plus.
Powstał dodatek
Landrop Plus i jest to
dodatek do aplikacji
Landrop.
Landrop, czyli program
zarówno na komputer, jak
i nasze smartfony, czy
z iOS’em, czy z Android’em
do przesyłania plików
pomiędzy urządzeniami.
Ja jeszcze też nie
testowałem, ale zamierzam.
Program ponoć działa w
dość prosty sposób, czyli
na jednej sieci LAN,
na jednym Wi-Fi
odpalamy zarówno aplikację
komputerową, jak i
mobilną.
I w aplikacji, jeżeli
chcemy wysłać coś z
komputera na telefon, to
przede wszystkim w ustawieniach
wybieramy, jak ma się
nazywać nasz komputer
oraz w jakim
folderze domyślnie ma
startować wysyłanie
plików, czyli jak będziemy
chcieli dodać pliki, to od
jakiego folderu chcemy
zacząć.
I w zasobniku
systemowym
wybieramy opcję
transferu.
Pokazuje nam się lista plików.
Wybieramy przez przycisk
dodaj
pliki, które chcemy.
No tam się otworzy
tradycyjne okienko
przesyłania, otwierania
plików.
Wybieramy te pliki, które
chcemy dodać do wysyłki.
Przechodzimy dalej.
No i tu dodatek nam
usprawnia dostępność, bo
z tym był problem.
Dostępna staje się lista
urządzeń docelowych.
Tam wybieramy nasz telefon.
Również przechodzimy dalej.
No i musimy potwierdzić, że
na obydwu urządzeniach
widać ten sam kod.
Na naszej aplikacji
iOS-owej
czy Android-owej
pojawi się
nasz komputer
z przypisanym do niego
kodem i będą przyciski
do akceptacji
bądź odrzucenia
transferu.
No i możemy
tego dokonać i potem
pliki lądują
w folderze
na naszym urządzeniu
przypisanym właśnie
do aplikacji
Leandrob, więc
będzie można
później te pliki
po prostu
przeciągnąć
do dowolnej
aplikacji.
No i z drugą strony to samo.
Też możemy udostępnić
przez aplikację Leandrob
pliki do naszego
komputera i też
można tego dokonać.
Ja osobiście uważam, że
dużo szybsza jest opcja
z jakąś aplikacją, która
pozwala nam otworzyć
serwer FTP na przykład
na iOS-ie, ale może
ta aplikacja ma jakieś
szybsze transfery niż
te, które
do tej pory widziałem
na różnego rodzaju
aplikacjach FTP-owych.
No, można
przetestować i się
przekonać.
Też myślę, że na Androidzie
to nie jest aż tak
atrakcyjne, odkąd jest
Nearby Share
udostępnianie w pobliżu.
No, ale kto wie.
Może z jakichś jeszcze
przyczyn komuś się to
przyda.
No i ostatnia wiadomość
z tych nowości aplikacyjnych.
Irlandzki Związek
Niewidomych, czyli NCBI
planuje wskrzesić
Soundscape’a
Microsoftowego, bo jak
wiemy Microsoft
Soundscape został
porzucony, wypadł
z App Store’a, ale
został zachowany jego
kod źródłowy, którym
Microsoft się podzielił.
No a odkąd
aplikacja pojawiła się
w irlandzkim App Store’e
to NCBI bardzo
ją promowało, nagrodzili
ją tam jakąś
swoją nagrodą.
Bardzo dużo o niej gdzieś
mówili w różnych
irlandzkich portalach z
wiadomościami o tej
aplikacji było też pisane.
No i jako, że
Microsoft już aplikacji
rozwijać nie będzie,
to na potrzebę wznowienia
pracy nad aplikacją
powstało konsorcjum
składające się z kilku
organizacji oraz osób
prywatnych na czele
właśnie z NCBI
i planują oni
w ramach czegoś,
takiej inicjatywy, która
nazywa się Possibility Lab,
czyli Laboratorium
Możliwości, to taka
inicjatywa technologiczna
właśnie NCBI, w ramach
której rozwijają się nowe
technologie, są testowane
i tak dalej, będzie
dalej prowadzony
rozwój Soundscape’a.
Na ten moment poszukiwani
są z tego co widziałem
testerzy właśnie z
Irlandii.
Ja zwróciłem się do
Possibility Lab z zapytaniem,
czy osoby z innych krajów
są mile widziane, ale nie
otrzymałem na ten moment
odpowiedzi, więc zakładam
niestety, że nie, ale miejmy
nadzieję, że jako, że już
zajmuje się tym inna
organizacja, no to jest
większa nadzieja na to, że
to się pojawi kiedyś
poza krajami anglojęzycznymi
i tam którymiś jeszcze
wybranymi, które były, tam
Francja, Niemcy chyba, czy
jakieś jeszcze parę i że
może w Polsce też z tej
aplikacji będziemy mogli
skorzystać.
I kolejny news.
Tym razem ode mnie.
Mamy strony, które
korzystają, podobno przynajmniej
z czata GPT, do obrazu
zdjęć i co ciekawsze
do opisu filmów.
Ja sobie spróbowałem,
bardziej tego opisu filmów
wydawało mi się to jakieś
bardziej ciekawe, poza tym
nie mam takich zdjęć, o których
wiem, co na nich jest.
Natomiast filmy, może nie to, że
wiem tak do końca, co na nich
jest, natomiast ktoś mi
mówił, co na nich jest.
No i wybrałem taki film,
w którym, w którym
nasz pies sobie hasał
po trawie.
Było to, no z tego co wiem,
dość dobrze zrobione przez
osobę widzącą.
No i rzeczywiście
powiedział, że to jest pies,
który chodzi sobie po trawie.
On tam chyba bardziej biegał,
niż chodził.
No i było napisane, że to jest
duży pies, że on jest przyjazny,
prawdopodobnie dobrze wychowany,
bo tam się cieszy, patrzy się
na człowieka, który tam za nim
chodzi i tak dalej.
Więc, no tak coś dobrze
mimo wszystko to rozpoznał.
Oczywiście, no niezbyt dobrze.
Co ciekawe,
co ciekawe,
miał problem chyba,
chociaż nie jestem pewien tak do końca,
mogę spróbować jeszcze raz tego użyć,
z napisami generowanymi po polsku.
Znaczy, gdybym generował coś po polsku,
z adresy, to są dwie różne strony
do zdjęć, to jest
https://llava.hliu.cc
Tyle.
Natomiast strona do filmów,
to jest
www.ival-mbzuai.com
www.ival-mbzuai.com
www.ival-mbzuai.com
www.ival-mbzuai.com
w sensie czas gpt, chat gpt.
w sensie czas gpt, chat gpt.
No i wejdę sobie na tę stronę
do filmów,
bo ze zdjęciami mam mały problem.
No i wejdę sobie na tę stronę do filmów,
bo ze zdjęciami mam mały problem.
No i wejdę sobie na tę stronę do filmów,
bo ze zdjęciami mam mały problem.
No i wejdę sobie na tę stronę do filmów,
bo ze zdjęciami mam mały problem.
No i wejdę sobie na tę stronę do filmów,
bo ze zdjęciami mam mały problem.
No i wejdę sobie na tę stronę do filmów,
bo ze zdjęciami mam mały problem.
No i wejdę sobie na tę stronę do filmów,
bo ze zdjęciami mam mały problem.
No i wejdę sobie na tę stronę do filmów,
bo ze zdjęciami mam mały problem.
No i wejdę sobie na tę stronę do filmów,
bo ze zdjęciami mam mały problem.
No i wejdę sobie na tę stronę do filmów,
bo ze zdjęciami mam mały problem.
No i wejdę sobie na tę stronę do filmów,
bo ze zdjęciami mam mały problem.
No i wejdę sobie na tę stronę do filmów,
bo ze zdjęciami mam mały problem.
No i wejdę sobie na tę stronę do filmów,
bo ze zdjęciami mam mały problem.
No i wejdę sobie na tę stronę do filmów,
bo ze zdjęciami mam mały problem.
No i wejdę sobie na tę stronę do filmów,
bo ze zdjęciami mam mały problem.
No i wejdę sobie na tę stronę do filmów,
bo ze zdjęciami mam mały problem.
No i wejdę sobie na tę stronę do filmów,
bo ze zdjęciami mam mały problem.
No i wejdę sobie na tę stronę do filmów,
bo ze zdjęciami mam mały problem.
No i wejdę sobie na tę stronę do filmów,
bo ze zdjęciami mam mały problem.
No i wejdę sobie na tę stronę do filmów,
bo ze zdjęciami mam mały problem.
No i wejdę sobie na tę stronę do filmów,
bo ze zdjęciami mam mały problem.
No i wejdę sobie na tę stronę do filmów,
bo ze zdjęciami mam mały problem.
No i wejdę sobie na tę stronę do filmów,
bo ze zdjęciami mam mały problem.
No i wejdę sobie na tę stronę do filmów,
bo ze zdjęciami mam mały problem.
No i wejdę sobie na tę stronę do filmów,
bo ze zdjęciami mam mały problem.
No i wejdę sobie na tę stronę do filmów,
bo ze zdjęciami mam mały problem.
No i wejdę sobie na tę stronę do filmów,
bo ze zdjęciami mam mały problem.
No i wejdę sobie na tę stronę do filmów,
bo ze zdjęciami mam mały problem.
No i wejdę sobie na tę stronę do filmów,
bo ze zdjęciami mam mały problem.
No i wejdę sobie na tę stronę do filmów,
bo ze zdjęciami mam mały problem.
Bardzo pilnować, żeby opierał się tylko na tym,
Bardzo pilnować, żeby opierał się tylko na tym,
Bardzo pilnować, żeby opierał się tylko na tym,
Bardzo pilnować, żeby opierał się tylko na tym,
co jest napisane na zdjęciu.
Dlatego, że on zaczął tutaj rzeźbić.
Dlatego, że on zaczął tutaj rzeźbić.
Właśnie, że pies wygląda na dobrze wychowanego.
Właśnie, że pies wygląda na dobrze wychowanego.
Wygląda na zadowolonego.
Wygląda na zadowolonego.
Odznacza to, że prawdopodobnie właściciel o niego dba.
Odznacza to, że prawdopodobnie właściciel o niego dba.
Jakieś takie rzeczy,
które nie są potrzebne nam,
jeżeli chodzi o opis filmu.
I one jakby nie wynikają bezpośrednio z filmu.
I one jakby nie wynikają bezpośrednio z filmu.
Tylko on tu sobie coś tworzy.
Wiecie, niektórzy ludzie tak mają.
Tak, że coś wam opisują.
To, że próbują jakieś wnioski wyciągać swoje.
No to czad GP to to bardzo lubi.
No to czad GP to to bardzo lubi.
Więc trzeba go bardzo tutaj pilnować i upominać.
Nie bez powodu przyrównują.
Żeby nie wyciągał wniosków.
Żeby nie wyciągał wniosków.
I to, co tu się dzieje na zdjęciach,
to nie jest takie łatwe.
Bo co to znaczy nie wyciągać wniosków?
Czasami poniekąd trzeba wyciągać jakiś wniosek,
żeby w ogóle wiedzieć, co tu się dzieje
jakby na tym zdjęciu.
Więc to jest w ogóle taki proces
dość niezbyt łatwy.
dość niezbyt łatwy.
Wiesz Tomek, nie bez powodu przyrównują czata GPT
do ucznia lub studenta,
który stawił się na jakiś egzamin,
który stawił się na jakiś egzamin,
nie bardzo wie, co mówić,
ale mówi.
No to coś w tym jest.
Zresztą w ogóle…
Studenta, który ma opisać zdjęcie na maturze
czy ucznia, bo
to wtedy też tam ileś słów trzeba zawrzeć
w opisie, tak?
Albo podać jakieś tam szczegóły,
że na pierwszym planie widzę to,
w tle widzę to i jakaś podstawowa interpretacja
tego, co widzimy,
też tam jest, zdaje się,
uwzględniona, więc no…
Mi się to bardziej kojarzy z maturą właśnie.
To jest to,
albo właśnie tacy…
Czasami są ludzie, którzy tak trochę nie bardzo ogarnięci są,
ale próbują pomóc
za wszelką cenę i tak próbują myśleć
za drugiego człowieka.
No to mi się też z czymś takim
kojarzy, także no…
Jeszcze tak się włączę, dzień dobry przy okazji,
bo tutaj wpadłam na jednego newsa,
ale troszkę przed rozpoczęciem jego.
Jeszcze tak włączę, że w sumie nie bez powodu
mam cały notatnik, cały plik tekstowy
zapełniony różnymi
zestawami poleceń, jakby
zestawami instrukcji do czata GPT.
Tak żeby sobie zdefiniować raz,
posiedzieć nad tym, napisać je
i później jak tego czegoś
konkretnego potrzebuję, to po prostu
sięgam do tego
notatnika
i sobie wykopiowuję to polecenie.
Żebym już nie musiała
nakierowywać tego czata na to, co ja chcę.
No i to w ogóle
przecież no, że
ten prompt inżyniery, no to
już się mówi o tym, że to jest
zawód normalny i że za to się płaci
po prostu ludziom, żeby wpisali
takie polecenia czatowi
GPT, żeby on zrozumiał
o co się go pyta i robił
to co trzeba. Jest to troszeczkę jak
programowanie, tylko tyle, że takie bardziej w pewnym
sensie intuicyjne, o tyle, że
no nie trzeba się uczyć języka programowania,
tylko trzeba się uczyć konkretnego sposobu myślenia.
To jest coś na pograniczu
programowania i
psychologii społecznej, jakiejś
kurcze, socjotechniki.
Także podejrzewam,
że jeżeli będzie
Be My Eyes właśnie z tą opcją,
o ile będzie,
bo tu są różne też teorie
spiskowe na ten temat,
także zobaczymy. W każdym razie
tutaj też możliwe, że
będzie sobie się nauczyć
tak pytać tego
Be My Eyesa,
żeby dostać de facto to,
czego się od niego rzeczywiście oczekujesz.
To nie będzie po prostu tak, że zapytamy się
co to jest,
bo coś zacznie mówić
o czymś, co
mu się wydaje, ale w sumie to nie wiadomo.
W sumie to
coś se znajdzie w internecie podobnego
i to tam w jakiejś swojej bazie porówna
i że to chyba może to to,
bo w sumie to jak kiedyś widziałem coś podobnego
to chyba to.
Więc trzeba będzie go dość
ostro pilnować i
tego będzie uczyć i to wcale nie musi być takie
takie super łatwe, proste
i przyjemne i w zależności od tego
jak się zada pytanie, to można
dostać zupełnie inną
odpowiedź. I co, dlaczego jest przyjemne?
Bo dla mnie to jest w sumie przygoda.
Wiesz, no dla jednych to jest przyjemność,
dla drugich no po prostu chcą się dowiedzieć
czegoś, a nie tam zastanawiać się
jak zapytać, żeby w ogóle
dostać coś sensownego.
Ja też akurat to lubię,
ale są ludzie, którzy
no po prostu chcą się dowiedzieć, tak, już.
A że
no myślę, że zwłaszcza
dla starszych osób, no to może
być jakiś problem, bo
chociaż z drugiej strony, no to właśnie
jest coś takiego, że
ja się wcale nie dziwię jak starsze osoby nie będą
miały z tym problemu, bo oni
no bo do czata GPT się mówi
trochę jak do człowieka, tak, więc
jak oni tych ludzi już bardzo dużo spotkali
po drodze i oni już wiedzą jak z różnymi
ludźmi postępować, żeby
żeby zrobili to co
o co ich się prosi, no to możliwe, że
ich właśnie można by było
szybciej wdrożyć do takiej rozmowy
z czatem GPT. Ja się wcale nie dziwię jak
to właśnie starsi
ludzie, przecież niektórzy
będą mieli w tym całkiem niezłe wyniki, ale zobaczymy,
bo to też ja jak zwykle tu sobie
coś wymyślę o przyszłości, zobaczymy co
co będzie, no w każdym razie
nadal
nadal mi się to nie zrobiło,
no coś tu się zacięło najwyraźniej, także
no coś tu, coś tu jest
nie, nie bardzo.
To co, jeżeli jest Paulina,
no to co Paulino masz dla nas?
Znaczy ja myślałam, żeby, bo
to już mnie Paweł właśnie zadawał,
żebyśmy opowiedzieli o tym FigJamie i o tych
naszych problemach i błędach.
Tak, to jest właśnie
ten news FigJam,
czyli ozwiązanie firmy Figma,
która rok temu
wstępnie jakoś udostępniła swoje
systemy prototypowania, czyli jeżeli ktoś
tworzy prototypy w Figma,
to my możemy
z nich korzystać, możemy je sobie przejrzeć, możemy się
z nimi zapoznać w sposób dostępny,
co się przydaje, bo takim wstępnym
procesem tworzenia
jakichś aplikacji czy strony jest, zanim jeszcze
powstanie funkcjonalny taki prototyp,
gdzie rzeczywiście już jest wszystko
podpięte do kodu i my możemy, nie wiem, klikać
i wywoływać błędy albo
przeprowadzać jakieś operacje,
to jest taki niby taki na sucho
prototyp graficzny, gdzie są
w zasadzie tylko jakieś tam przyciski, graficzki,
coś tam i wciskanie
tego zasadniczo nic nie robi, bo nie ma
tam żadnego kodu, który by jeszcze tym operował.
W związku
z czym
takie prototypy się przydają.
Mi się już kiedyś zdarzyło, że się zapisałem na testy
płatne zresztą
jakiegoś tam rozwiązania,
gdzie szukano po prostu testerów, osób, które
chcą, przy czym przyszedłem
no i się okazało, że to są tylko właśnie takie prototypy
ala ta Figma
i że nie jestem w stanie, ale
dość o samej Figmie, Figma ma też różne inne narzędzia
w tym FigJam, i FigJam jest to narzędzie
do
no właśnie Paulino, do projektowania
takiej tablicy myśli,
do zbierania pomysłów, tak jak Freeform aplowski.
Zbieranie pomysłów, zbieranie
jakichś
notatek ważnych dla
tego, ważnych z perspektywy
tego, co obecnie robimy, co jest
obecnie naszym projektem.
No i
takich narzędzi jest dość dużo, bo jest
takie popularniejsze, to co bardziej
Paulino, Notions, tak?
Jest Notions, są te
Whiteboardy i Microsoftowskie
i Zoomowe i
jakieś różne inne, jest na przykład
Miro, jest
no jest tego.
Jest Freeform aplowski, o którym był chyba też podcast,
jeżeli dobrze pamiętam,
albo przynajmniej…
Tak, tak, tak.
No ale Freeform, no to jak ktoś jest w ekosystemie
Apple, a jak nie jesteśmy w ekosystemie
Apple, no to co? No i tutaj
wjeżdża na białym koniu FigJam.
Tylko czy na pewno?
Testowaliśmy, tak?
I ostatnio chyba z okazji
Dnia Świadomości i Dostępności
dali znać, że opracowali
dostępną wersję FigJama i my to
przetestowaliśmy.
No i jak jest? Jak to, Paulino, oceniasz? Bo ty chyba jeszcze
trochę potem zostałaś, ja się wymeldowałem z tego
testu.
Jeszcze coś potem robiłaś przy tym chyba.
Chociaż też niezbyt dużo, no.
Generalnie
nie jest to zbytnio intuicyjne.
Da się zrobić większość rzeczy.
To co
nam się nie udało finalnie zrobić,
to nie udało nam się
zrobić tabeli. Znaczy mi się
raz udało, ale nie wiem jakim cudem.
Tak.
Ale nawet tej zrobionej tabeli
nie byłam w stanie
nie byłam w stanie nią zarządzać na tyle
fajnie, żeby to się opłacało jakkolwiek, bo
bo tam jest na przykład tak,
że można sobie dobudować wiersz
do tabeli, dobudować kolumnę, ale nie można
sobie tego tak ustawić,
żeby, nie wiem, dobudować sobie
sto wiersz naroz, no, jeżeli
mamy coś dużego na myśli
na to jest problem.
No w każdym razie, to jest sobie taka duża tablica
na której możemy
sobie umieszczać kształty,
tabele,
notatki, teksty,
listy, elementów,
jakieś
głosowania, ankiety
i takie tam.
Co prawda, ankiety są płatne, ale
ale można.
No i też jest edukacyjna licencja,
po którą nie sięgałam, bo
chciałam to po prostu potestować tak dla
HECE.
Znaczy nawet nie dla HECE,
nie powiem dlaczego, ale to później.
No i
tam jest tak, że
jest kilka skrótów
klawiszowych, które pozwalają
nam na łatwiejszą interakcję
z tym całym kombajnem
i jest na przykład
skrót Ctrl F6
i Ctrl Shift F6 i to są skróty
do
przelatywania sobie między
regionami. Tam jest
no ta tablica
wstawianie na
jakby wstawienie tych obiektów
różnych i chyba jakiś
taki główny panel, w sensie jakiś
main menu i tak dalej. Już nie pamiętam jakie tam są te
obszary, no ale da się pomiędzy nimi wygodnie
skakać.
Jest z
punktu
naszego widzenia chyba najważniejszy skrót
Ctrl
Slash, który pozwala
nam wpisywać rzeczy i
no jakby
dzięki temu, że wpiszemy je i
damy Enter na jakieś sugestie, to ona się
stworzy, na przykład nie wiem,
create new, tam tekst na przykład
zrobi nam tekst i tak dalej
i z tego
Ctrl Slasha też jak wpiszemy
accessibility settings albo właśnie
jakiś początek typu access
to nam wejdzie właśnie
pokaże się nam sugestia
pokaże się nam sugestia
na sekcji ustawień
właśnie o tej nazwie i tam sobie
możemy zaadaptować
dokument na potrzeby
screenreaderów. Co prawda
nie wiem w zasadzie jaki jest z tego
bonus, ale niechaj będzie.
Co ważne, w tym przypadku
tego Ctrl
Slasha nie możemy zrobić bez
zalogowania się.
To jest też ciekawe.
Tak, ale to samo, sam FigJam
bez zalogowania się jak się okazuje
nie ma większego sensu.
Bo cała biurokracja,
którą odkryliśmy w związku z FigJamem
żeby w FigJamie
cokolwiek edytować, wprowadzać
jakieś zmiany w danej tablicy
trzeba założyć
projekt i do tego projektu
przypisać tą tablicę. Żeby stworzyć
projekt trzeba stworzyć zespół
i do tego zespołu
pozapraszać ludzi. Czyli musimy
zrobić zespół w ramach zespołu projekt
w ramach projektu tablicę.
No i się okazuje, że w wersji
darmowej, do której my mieliśmy dostęp są ograniczenia.
Jeden projekt na zespół,
trzy tablice na projekt.
Trzy tablice na projekt, tak.
Więc to jest też
ścisie poograniczone.
Samo to, że właśnie
też był troszkę problem
w tym, żeby przenieść
tablice
ze szkiców do projektu.
Jakby też
domyślnie ten
projekt się zapycha jakimiś plikami.
Więc to też jest
troszkę męczące.
Są szablony w tym
FigJamie, które pozwalają nam
zrobić sobie na przykład
jakąś burzę mózgów, czy jakiś
jakiś program
wydarzenia, czy jakiś
checkpoint
w danym projekcie.
Są różne takie szablony.
Tylko, że one są
strasznie, strasznie
takie na
jak to powiedzieć po polsku?
No, ładnie.
Nawalone jest w nich
od groma elementów i bardzo
trudno się po tym poruszyć ze screenreaderem
tak efektywnie, wydajnie.
No ale cóż, no możemy sobie robić właśnie
tak jak powiedziałam, od zera rzeczy.
No i cóż.
Jest pewnego rodzaju
trzeba się przyzwyczaić do
ich sposobu
edycji. Bo na przykład w tabeli
nie możemy sobie wejść tam
w jakąś komórkę, dać sobie tryb
formularza
i tam sobie pisać coś. Tylko musimy
dać tryb formularza
na to Enter
i później pisać. I na przykład jeżeli byśmy chcieli
właśnie dobudować komórkę,
czy kolumnę, czy wiersz do tabeli
to właśnie musimy w tym
trybie wpisywania być. Tam jest
dużo takiej kombinacji,
biurokracji.
Dużo jest tego,
że trzeba
nad tym siąść i posprawdzać
wszystko, czy aby na pewno,
itd. Dlatego
na ten moment
ludziom, którzy nie mają
obeznania z takimi narzędziami, nie
polecam. Fajnie, że
to się jakoś tam rozwija. Chociaż na przykład
nie wszystkie te polecenia
z Control Slash’a wywołamy.
Jest też skrót, o którym
zapomniałam powiedzieć. Control Backslash,
żeby ukryć sobie cały interfejs i mieć podgląd
tylko tego, co jest zrobione.
Tego, co jest na tablicy.
Ale no tak jak
mówię. Jest tutaj
jeszcze dużo niedoskonałości.
Dużo problemów.
Zamierzam do nich napisać też,
żeby potestować to bardziej
i mieć stały kontakt
z zespołem.
Aczkolwiek mój czas
na tyle mnie ogranicza, że
mi to nie pozwala nawet spokojnie
sobie siąść i zrobić tylko przegląd.
Bo jest naprawdę dużo niosów, które
którymi się nikt
nie zaopiekował.
Ale
ale cóż.
Jeżeli jeszcze chodzi
trochę słówko o idei, dlaczego mi się to
tak chce testować. Bo
ja widzę po sobie, jak
jestem na studiach, jak jestem na
hakatonach, jak jestem w jakichś
projektach, bo po prostu
ludzie się zebrali i chcą coś zrobić.
Jak jestem w jakichś płatnych,
bezpłatnych, czy jakichkolwiek testach.
To co
pada najczęściej? Dobra!
Zróbmy sobie jakiś notion,
jakieś miro, jakąś figmę,
coś sobie zróbmy i tam sobie
spisujmy rzeczy.
A ja mówię ludzie, nie róbcie mi tego.
Jestem niewidoma. Google Docs,
coś. No Jezu, serio?
Ale to przecież się będzie niewygodnie nam pisało.
No ale mi wtedy, ja w ogóle nie będę
mogła tego czytać. No ludzie, zlitujcie się.
No i jakby
specjalnie dlatego,
że ja jestem w zespole,
ludzie muszą używać rzeczy, która
jest niewygodna dla nich.
Bo ta
wygodna, żadna z tych wygodnych
nie ma zrobionej dostępności. I ja
dlatego tak to chcę
badać, bo
chciałabym w momencie, kiedy to już
będzie jakkolwiek bardziej
interesujące, jakkolwiek bardziej
atrakcyjne i dostępne
szerzyć tą
ludzie, szerzyć tą wiedzę
ludziom, którzy wychodzą z
murów szkolnych
i stają na mniej lub bardziej otwartym rynku
i są zieloni
zieleni? zieloni.
Bo nikt raczej tego
w szkole uczyć ich nie będzie.
No bo znamy realia, tak?
No i
cóż, człowiek z entuzjazmem
podchodzi, ale nie zawsze
się to udaje.
Jeżeli
faktycznie coś się będzie rozwijało, to będę dawać
znać, no bo postaram się jednak
żeby
te uwagi, które myśmy
wyciągnęli wczoraj
i wnioski
nie
marnowały się w przestrzeni, tylko żeby coś
z nich było.
No i tymczasem
chyba przyjdzie mi się pożegnać, bo
a propos
studiów, no to trzeba je zrobić.
Dzięki Paulino, też dzięki
za inicjatywę, żeby to rozwiązanie
przetestować. Ja
też jestem jedną z tych osób zielonych,
które w życiu takiego narzędzia
nie testowały. No i dla
mnie, jako sposób, w jaki to
przedstawiła Figma, nie różni
się wiele od zwykłej prezentacji w PowerPoint’cie,
bo w PowerPoint’cie też wstawiamy kolejne
slajdy. Tam to się
nawet nazywa jakieś itemy, czy
items, elementy i nie wiem, czy
można dodać więcej niż jeden.
Czy jedynym sposobem podziału
treści na jakieś segmenty są
te sekcje, które są dla nas przedstawiane
jako nagłówki i pod
tymi nagłówkami upychamy te nasze jakieś
zdjęcia, teksty, pomysły, kształty
i tak dalej.
Natomiast, tabele.
Natomiast
no właśnie dla mnie to się
niczym nie różniło od prezentacji
multimedialnej.
I jestem bardzo ciekaw, czy dla osób
widzących to jest jakiś lepszy, duży układ
niż odpowiednio sformatowany
PowerPoint. Natomiast
istotnie
dodawać się da.
Pracować z tym jakoś się da.
Nie wszystko, bo jeszcze nie odkryliśmy chyba jak czat działa
do końca. Tam da się też jakiś czat prowadzić
i to czat, który dotyczy konkretnej
jakiejś tam linijki tekstu, czy jakiegoś konkretnego
miejsca, w którym się teraz znajdujemy, komórki,
tabeli i tak dalej. Tak, no i też nie testowaliśmy
w sumie komentarzy. Tak,
to prawda. Komentarze i głosowania
oczywiście. No głosowania też.
Próbowaliśmy. Chociaż w sumie
jak wezmę tą edukacyjną licencję, to
to może.
Jakbyś jeszcze miał ochotę się z tym
mocować, to…
To zależy, czy mogę dołączyć do teamu, nie mając
licencji. Nie wiem, jak to tam działa, ale…
No nie wiem. No to będę się dowiadywać.
Tak. Ale no dobrze,
że ktoś nad tym pracuje, że jakaś
inicjatywa ruszyła, no to
może to są jakieś tam problemy
wyłączki wieku dziecięcego.
Możliwe, że to się jeszcze
wyrówna. Więc dzięki raz jeszcze i
no do usłyszenia.
Też dzięki za
współtestowanie i do usłyszenia.
Tymczasem mamy komentarze
na YouTubie.
Napisał do nas Eksterminator
dwie wiadomości. Za kilka miesięcy
ma wyjść Mortal Kombat
12. Ciekawe, czy
będzie chociaż trochę
dostępne. I
jeszcze jedna wypowiedź od tego samego
użytkownika. Czy ktoś wie,
czy będzie więcej głosów
do Piper TTS
dla NVIDIA mówiących
po polsku? Albo czy ten poprzedni
poprawią?
No może
jeśli chodzi o Mortala, to w ogóle
co ciekawe, to nawet nie jest tyle Mortal Kombat
12, tylko oni zrobili taki
reboot serii. Ta gra się dosłownie nazywa
Mortal Kombat 1. Nie pomylić z pierwszym
Mortal Kombatem z roku 92
bodajże.
Czy będzie dostępne?
Ja podchodzę do tego
z optymizmem, dlatego że
Mortal 11,
tego przypomnę może to poprzednia gra,
jakiś
nazwijmy to screenreader, to właściwie
bardziej narracja menu miało, ale to było
tak zrobione, że to czytał
ten główny komentator
w tej grze. I to tylko
pierwszy poziom menu głównego
bodajże było czytane, więc to było takie bardzo
minimalne i tak właściwie, co praktycznie się nam
niestety nie przydawało. No i nie dało się tego
łatwo po niewidomemu
włączyć zresztą. Znaczy jak
ktoś zapamiętał gdzie wejść, to się dało,
ale tak, żeby tak jak dużo
współczesnych gier nam to jakoś ułatwiało,
no to nie. Natomiast
pozostałe gry,
które wychodziły z tego studia
Warner Brothers, czyli ci sami,
którzy są odpowiedzialni
też za filmy i tak dalej, to jest wszystko
jedna spółka.
No np. Hogwarts Legacy czy inne gry,
one nie były dostępne dla
niewidomych, ale miały jedną rzecz.
Miały screenreadery
i te screenreadery w przeciwieństwie
do tego co było w tym poprzednim ortalu, to już
był normalny TTS naszego
systemu. Można było sobie
ustawić prędkość i to
i one tam czytały faktycznie wszystko,
praktycznie. Wszystkie menu i tak dalej.
Więc śmiem przepuszczać, a nie będziemy
się jej czekać długo, bo gra wyjdzie
we wrześniu,
a będzie beta w sierpniu. Dla tych, którzy
kupią ją w przedsprzedaży, no to już będziemy
coś więcej wiedzieć. Ale ja, jakbym
miał strzelać, to myślę, że
będzie dostępna.
Ja się
pobawiłem jeszcze chwilkę tą stroną
do filmów i okazuje się, że
ten czas, który tu jest pokazany,
to jest czas filmu.
Więc on go przesłał
bardzo szybko, ta
strona.
I teraz jakoś mi lepiej poszło w ogóle
generalnie z tym wszystkim,
bo
po wysłaniu filmu
od razu miałem, w zasadzie prawie od razu miałem
znaczy
inaczej, ta tabelka była od razu,
bo
na
niżej jest coś takiego.
I tu mam tabelkę.
Napisz krótki wiersz
inspirowany tym filmem.
No, jakie
ludzie mają zadanie w Łodzi, no to
są jakieś losowe pytania, one się
nie odnoszą do tego mojego konkretnego filmu,
tylko one są jakby
na dzień dobry wygenerowane, jakby zanim
w ogóle wysiadam cokolwiek.
Dlaczego ten film jest dziwny?
Pusta, pusta.
To moje pytanie najbardziej przepasowało
i no kliknęłem
sobie w nie i on je wtedy
napisał w polu tekstowym, który jest poniżej.
Ja już to zrobiłem.
I on już to sobie tutaj napisał.
Napisz szczegółowy opis w języku polskim
tego filmu.
I teraz tak, no napisał właśnie, że
to jest na stacji kolejowej i to się zgadza,
że obok jest budynek
i to chyba też się zgadza, ale to jest nie chod,
tylko budynek po prostu stacyjny.
No i zacząłem mu potem
zadawać pytania w języku polskim.
Napisz szczegółowy opis w języku polskim tego filmu.
W filmie możemy zobaczyć, jak pociąg zatrzymuje się na stacji
kolejowej. Stacja kolejowa jest położona
w pobliżu dużej budynku, który prawdopodobnie jest hotelem.
W filmie możemy również zobaczyć, jak ludzie
wchodzą i wychodzą z pociągu oraz jak ktoś wchodzi do hali
peronowej.
No i mam takie wrażenie, że czad GPT
jakoś tak ładnie pisze oryginalnie po polsku,
więc nie wiem, dlaczego tutaj pisze,
co tu było napisane.
W filmie możemy zobaczyć, jak pociąg zatrzymuje się na stacji kolejowej.
Stacja kolejowa jest położona w pobliżu dużej
budynku, który… Dużej budynku.
To nie pamiętam, żeby
czad GPT robił tego typu błędy.
Więc
no nie wiem, co tu się dzieje.
No i pociąg na pewno nie zatrzymuje się.
Znaczy nie ma tego elementu,
nie ma tego wjazdu pociągu na tym filmie.
Jakby nie słychać, że pociąg
wjeżdża, raczej by było
słychać, bo to jest mała stacja raczej.
Zobacz, wypisz napis. W filmie wypisz napisy,
które widać na pociągu lub na stacji. Zaznacz, gdzie co jest
widoczne. No, tak napisałem
to na szybko, więc średnio to jest
dramatyczne, ale… W filmie możemy zobaczyć
napisy na pociągu, które informują o miejscu. Doktór
skierowany. Napisy są umieszczone na ścianie pociągu.
I tyle. Ale już
wypisać to mi ich nie wypisał.
Przytocz te napisy. Napisy na pociągu informują,
że pociąg jest skierowany do miasta Warszaw.
To jest możliwe, ale nie wiem.
Nie sprawdzałem, nie weryfikowałem tego
w żaden sposób. No i bawiłem się jeszcze…
Opisz ludzi wysiadających z pociągu. Ich wygląd
przypuszczalny wiek, co mają przy sobie itp.
W filmie możemy zobaczyć kilku ludzi, którzy wychodzą
z pociągu. Wszyscy mają na sobie ubrania,
które sugerują, że są gotowi do codziennego życia.
Jednym z mężczyzn jest starszy człowiek, który
ma na sobie koszulę i krawat. Wszyscy wyglądają normalnie
i mają na sobie proste, codzienne ubrania,
co wskazuje, że są gotowi do codziennego życia po wyprawie pociągiem.
I teraz…
No właśnie. I to są jakieś takie jego
sugestie, prawda,
które no… No nie wiem, tak do końca
pewnie… Wyglądają normalnie.
Wyglądają normalnie i są gotowi do codziennego
życia. No okej.
No z jednej strony super. Natomiast
zobaczcie, co jest dalej.
To się troszeczkę będzie gryzło
z tym. W jakiej porze roku może być zrobiony
film? Film został zrobiony w nocy.
Co jest widoczne na zdjęciu, gdzie pociąg jest widoczny
na tle nocnego? Nieba.
No dobra. No
powiedzmy, że może to być jakaś
wczesna, ranna godzina pewnie.
No dobrze.
Choć z reguły, no nie wiem,
ktoś wysiada w koszuli
w nocy. No chyba, że byłoby
nie wiem, środek lata i jakieś 18,
19 stopni. Okej. Natomiast…
Czy ludzie mają na sobie kurtki, czy raczej
ubrani są na lato? Ludzie mają na sobie kurtki,
co wskazuje, że jest to film zimowy, a nie zima.
No i to nagranie jest
z tego, co wiem, przynajmniej data
na Whatsappie jest z listopada.
Więc
ja nie wiem, gdzie on zobaczył
krawat i koszulę. Być może
ktoś wychodził rzeczywiście w koszuli
mając jakąś kurtkę i ją błyskawicznie
sobie zaraz nałożył. To jest możliwe.
Tego nie sprawdzałem. Ale trochę
dziwnie. Potem
kazałem mu czy są jakieś…
patrzeć, czy są jakieś numery.
To
z oporem maniaka…
Czy widać numery wagonu, pociągu lub inne napisy, prócz informującego
o kierunku jazdy? W filmie możemy zobaczyć
napisy na ścianie pociągu, które informują o kierunku jazdy.
Widać również, że pociąg jest skierowany
do miasta Warszaw.
Więc…
No…
Tak jakby nie do końca mnie zrozumiał,
ale chciał odpowiedzieć.
Więc…
Potem mu kazałem napisy, jakby
wypisywać oryginalne napisy.
Więc on mi napisał…
Napisy w filmie to jeden
i…
Jeden. Warszaw. Informacja o kierunku jazdy pociągu.
Dwa. Warszaw. Informacja o kierunku jazdy pociągu.
Trzy. Warszaw. Informacja o kierunku jazdy pociągu.
Czyli albo w trzech miejscach jest to możliwe,
że na trzech wagonach, ale i tak
dokleił swoją interpretację.
Natomiast…
Czy napisy znajdują się tylko na pociągu?
Cześć. Napisy są również widoczne na stacji kolejowej,
co wskazuje, że film ukazuje obiekt, na którym
pociąg się zatrzymuje.
Ale już tych napisów…
Nie przytoczą.
Wypisz je w oryginalnej treści. Napisy na filmie to…
Jeden. Warszaw. Informacja o kierunku jazdy pociągu.
Dwa. Warszaw. Informacja o kierunku jazdy pociągu.
Trzy. Warszaw. Informacja o kierunku jazdy pociągu.
No, możliwe, że to byłaby
tablica jakaś stacyjna, ale jakoś
tak mi to podejrzanie mi o wszystko przypomina
to, co było wcześniej.
Także…
No, nie wiem.
Kazałem mu też…
Ile osób wysiada z pociągu? Ile znajduje się na stacji?
W filmie możemy zobaczyć kilku ludzi, którzy
wychodzą z pociągu oraz kilku innych, którzy są na
stacji kolejowej.
Ale już ich liczby nie napisał.
Także…
No…
To tak mniej więcej wygląda, więc…
No…
Na pewno częściowo jest to zrobione dobrze,
bo rzeczywiście tam był pociąg, tam była jakaś
stacja kolejowa. Podejrzewam,
że na filmie widać więcej niż te kilka
jakichś szczegółów, które on przetoczył.
I teraz nie wiadomo, czy to jest
taka implementacja tego czata GBT,
czy rzeczywiście ten czat GBT
przynajmniej póki co
tak z filmami to sobie radzi różnie,
a przynajmniej z tym filmem poradził
sobie tam jakoś.
I to nie jest
tak, że…
Wystarczy go jakoś tam
zapytać i on
powie jakoś strasznie dużo o tym filmie.
On jakby kilka sobie informacji zapisał
i w zależności od tego, o co się go zapyta,
on to albo te, albo te informacje nam
przetoczy.
Przynajmniej tak to wygląda, bo…
No…
Dwóch tych filmów, które tam wysłałem.
Niemniej, no to jest na pewno
więcej niż nic.
Więc jeżeli mam jakiś film, na których
kompletnie nie wiemy, co się dzieje,
no to przynajmniej jest szansa, że
przynajmniej będziemy wiedzieli do jakiej grupy
filmów to
w ogóle zapisać.
Być może też
być tak, że tu
np. rzeczywiście niewiele widać tego, nie wiem.
Będę się musiał kogoś zapytać,
co tu rzeczywiście widać.
Zapytam i może w przyszłym tefloprzeglądzie
spróbuję o tym powiedzieć.
Zaraz napiszę to sobie w jakichś nadatkach.
W każdym razie…
No tyle.
Nie wiem, czy coś byście jeszcze chcieli…
Może ktoś jeszcze coś testował na temat tej strony?
Albo, nie wiem, jakieś podobne
rzeczy.
Ale chyba nie. W takim razie
przechodzimy do kolejnego newsa.
Znowu sztuczna inteligencja,
ale tym razem Adobe, które wprowadza
sztuczną inteligencję do poprawy
dostępności plików PDF.
No właśnie. I artykuł od
Adobe, to jest właściwie taka notka prasowa
może bardziej, rozpoczyna się od tego, że
nie wiem, jak oni sobie to wyliczyli,
aczkolwiek z doświadczenia chyba mają rację.
Napisali, że ponad dziewięćdziesiąt
procent plików PDF
udostępnianych w sieci ma jakieś problemy
z dostępnością. Pewnie tak.
No i mówią właśnie, że
jest nieczytelne, są przez
szczytniki ekranu czasami jakieś kolory, no różne
tam rzeczy są.
No i mówią, że udostępnianie
plików PDF
w odpowiedni sposób, tak żeby były dostępne
jest ważne, no bo tutaj
za dwa lata wchodzi
Europejski Akt Dostępności
i w Stanach już też są
odpowiednie jakieś przepisy, które powodują
często, że firmy są pozywane,
no bo tutaj generalnie to jest skierowane
właśnie do firm, a nie do użytkowników.
Natomiast dla nas to będzie
miało znaczenie, no bo właśnie
stworzyli
sztuczną inteligencję, to się nazywa
bodajże Adobe Sensei,
której zadaniem będzie
dodanie tagów dostępności
do plików PDF.
Więc to jest jakieś API,
które deweloperzy
stron aplikacji mogą wykorzystać do
remediacji już istniejących plików PDF,
więc może jakieś rzeczy, które wcześniej były
skanowane, czy po prostu
jakoś zapisane, ale bez informacji o
dostępności. No i co ta
sztuczna inteligencja zrobi?
Przeskanuje te pliki PDF
i doda do nich odpowiednie
informacje, które pomogą
czynnikom ekranu lepiej
je interpretować, bo tutaj
będzie w stanie to między innymi dodawać
informacje o tabelach, o nagłówkach,
o akapitach,
o listach i jeszcze o
ilustracjach, więc myślę, że takie dosyć
ważne rzeczy, no często pliki PDF faktycznie
czasem mają na główki
jakieś tabele fajnie
tagowane, często też nie mają,
co często potem robi problemy
np. przy czytaniu jakichś instrukcji obsługi
lub jakichś
dłuższych regulaminów, więc jak
najbardziej coś takiego
nie jest potrzebne. Tutaj firma mówi, że
to nie jest w stanie złapać wszystkie
błędy, więc i tak dobrze byłoby
gdyby jeszcze jakiś człowiek
sobie w programie Adobe Acrobat,
czyli tej aplikacji
do tworzenia plików PDF, jeszcze je sobie
otworzył i przejrzał
niemniej jednak
dla jakichś firm, które właśnie
dużo tych plików tworzą i
potrzebują pomocy, żeby one były
bardziej dostępne, no to
takie narzędzie powstało
i zainteresowani programiści mogą tam
zainteresować się, to jest
obsługa Adobe Document Cloud,
tam też jeszcze jakieś będą wtyczki
do Microsoft 365,
tutaj jakieś takie
typowo korporacyjne platformy
też, ale ta technologia
będzie gdzieś szerzej
dostępna w takich miejscach, no i miejmy nadzieję,
że to spowoduje, że
te pliki PDF, z którymi
często mamy do czynienia, faktycznie
staną się bardziej
dla nas czytelne.
A teraz o terminalu płatniczym
od Apple’a, który jak
twierdzi
źródło, jest
najbardziej dostępnym
terminalem płatniczym.
I chyba rzeczywiście tak jest, chodzi o usługę
Apple Tap to Pay,
która została zapowiedziana
na WWDC chyba rok temu,
a do tej pory
weszła w Stanach i jak się
okazuje też w paru innych krajach, w tym w Australii
i dzięki
temu miał okazję przetestować ją tamtejszy
ekspert od dostępności
David Woodbridge
i przedstawił on w ramach
swojego podcastu I See Using
Various Technologies, jak
to po prostu działa. No i
jest to bardzo ciekawa sprawa, bo
jak wiecie, terminale dotykowe, już pewnie
sami tego doświadczacie,
to jest zmora i nie wymyślono jeszcze
na ten moment jakiegoś
sposobu na to, jak osoby niewidome mogą
na przykład wpić tam PIN.
Ale się okazuje, że Apple się wyrwał przed szereg
i pomyślał.
Jest na to system. System wygląda
tak, że w momencie, w którym
przykładamy naszą kartę, smartfona
do modułu NFC
w iPhonie sprzedawcy,
to wchodzi
ekran z kodem PIN, jeżeli jest on
wymagany. I teraz u sprzedawcy
pod tą klawiaturą do PINu
pojawia się duży przycisk
z napisem Accessibility, czyli pewnie
to będzie jako dostępność gdzieś tam tłumaczone
i po naciśnięciu
tego przycisku aktywuje się
tryb dostępności. Działa to tak, że
głos ten taki systemowy
odczyta nam instrukcję.
I w instrukcji
usłyszymy, że aby
wprowadzać cyfry kodu PIN
należy stukać w ekran tyle razy
jaką cyfrę chcemy wpisać, czyli dla jedynki
stukamy raz, dla dwójki dwa
itd. aż do dziewiątki, a dziesięć
stuknięć to zero.
Po wstukaniu
każdej z cyfr usłyszymy
dźwięk, który potwierdza, że cyfra
została poprawnie wpisana.
Gest przesunięcia dwoma palcami w prawo to
Enter, czyli zatwierdzanie PINu.
Gest przesunięcia dwoma palcami w lewo to
usunięcie ostatnio wpisanej cyfry.
I rzeczywiście to działa.
Przynajmniej z tej demonstracji, którą David
robił wygląda na to, że rzeczywiście
to działa. Włącznie z tym, że
jest dość duży
margines tolerancji
na to jak szybko i jak wolno
wpisujemy te cyfry,
dokonujemy tych stuknięć, bo on to
robił i tak na zasadzie
i też tak wolniej.
I to wszystko wchodziło, więc nawet
osoby o ograniczonej mobilności powinny
mieć tu szansę.
Natomiast
przy usuwaniu tych cyfr
ten komunikat jest podawany w taki
sposób, on jest logiczny, ale mi się wydaje
on troszeczkę mylny pod kątem
tego jak wyłapujemy informacje, bo słyszymy
na przykład mamy trzy cyfry wpisane
i chcemy tą trzecią, ostatnią usunąć.
Usuwamy ją i słyszymy jedna cyfra
usunięta, dwie cyfry
wpisane.
Więc
jest ten komunikat taki trochę długi
i może nas trochę zagubić.
Zwłaszcza jak chcemy szybko jakąś informację
taką uzyskać
o tym
co usunęliśmy.
To wiadomo, że się nie dowiemy, ale
co jest w tym momencie, ile jest wpisane.
I myślę, że to
spokojnie mógłby być ten system
z kodów PIN w
iPhonie, że podanych wartości
tam nie wiem ileś.
Podanych wartości dwa, podanych wartości
jedna albo coś.
Natomiast tak jest
jak jest.
Oczywiście po zatwierdzeniu słyszymy, że
PIN został wysłany.
No i czekamy na
kończącą się transakcję.
No i co?
Tak to wygląda i działa. Ponownie perspektywa
sprzedawcy niewidomego również jest OK.
Terminal jako terminal jest
jak najbardziej dostępny do obsługi.
Natomiast tak.
Nie wiem co o tym systemie sądzić.
Jest chyba najlepszym co do tej pory mamy.
Ale z drugiej strony
ma też swoje wady. Po pierwsze
nie zazdroszczę osobom, które mają PIN
złożony z tych cyfr bliżej końca
spektrum, czyli
9708
powiedzmy.
Stukania jest troszeczkę, więc trochę czasu to zajmuje.
To po pierwsze.
A po drugie to jest system,
który bardzo łatwo jest
złamać. Jeżeli są osoby, które
nie do końca mają wobec nas
dobre zamiary i bardzo by
chciały ten nasz PIN poznać i go sobie podejrzeć
to to zrobią.
Bo na pewno w internecie
będzie się dało niedługo wyczytać w jakichś tam
miejscach, że nie wiem
widzisz osobę niewidomą, która
stuka po telefonie to jest wpisywanie
kodu PIN.
Oczywiście w odpowiednich do tego
przeznaczonych gdzieś tam pewnie miejscach.
Więc to się rozniesie jak to działa.
Więc będzie bardzo łatwo podejrzeć i będzie to
dosyć przewidywalne.
Jaki
tam jest ten rytm i jakie są tam
te, jaki wzorzec.
Nie jest to na pewno dużo bardziej
bezpieczne niż to co teraz
czym te dotykowe terminale
wygrywają, czyli zamienianie cyfry
układem, kolejnością, gdzie u osób
będących właśnie w tym celu
cyfry są zamieniane, czyli w miejscu
czwórki jest piątka, a w miejscu
siódemki jest zero.
Za każdym razem jest to losowo inaczej robione.
W sumie można by było
dosyć prosto coś takiego
wprowadzić.
Dostajesz telefon do ręki,
dostajesz iPhoda do ręki
i on zaczyna wibrować i na przykład
najpierw wibruje powiedzmy
dwa razy.
Nie, haptyka.
Ale haptyką.
Też można by było.
Wystukuje tak, że wprowadź teraz
powiedzmy drugą cyfrę, pierwszą
cyfrę, trzecią i czwartą.
I to dałoby się zrobić.
No tak, a rzeczywiście.
Na zasadzie
on mi stuknie, ja mu też
stuknę i tak sobie będziemy
stukać. Takie maskowane hasło, takie coś.
Tak, tak, tak.
No,
skramblowane nawet bardziej chyba,
że są pozamieniane
miejscami.
No i to jest pomysł.
Kiedy wejdzie Tap2Pay do Polski?
Czy w ogóle w jakiejś najbliższej
przyszłości? Ciężko powiedzieć,
bo akurat te płatnicze rzeczy od Apple,
oprócz Apple Pay, no raczej
u nas nie są obecne ani przesyłanie
pieniędzy między kontaktami,
ani karta Apple Cash,
no ani właśnie ta funkcja, więc
no nie wiadomo, czy
my się tym będziemy mogli gdzieś tam
cieszyć w najbliższym czasie.
Natomiast
jeżeli to wejdzie do Polski, to na pewno
się o tym od nas dowiecie i na pewno będzie to
wielka radość. Chociaż też
pytanie, ile tak naprawdę
realnie w Polsce
biznesów może zainwestować
w iPhona, jako terminal płatniczy
stricte, tylko i wyłącznie.
No oczywiście, że to byłoby
jakoś tam połączone. Pewnie byłby to jakiś iPad,
na którym byłyby też jakieś, nie wiem,
katalogi, cokolwiek. Byłoby to jeszcze
wykorzystywane do czegoś,
ale no jakoś nie widzę, żeby w Polsce
iPhone, ale mogłabym się mylić,
zdominował, czy urządzenie Apple’owe
zdominowało rynek terminali
na taką skalę, żeby to uczyniło
bardzo dużą różnicę.
Więc, ale
warto podglądać dobre praktyki i niech
przemysł się uczy, bo jak widać
ktoś coś, przynajmniej w tej kwestii
zrobił. Oczywiście w komentarzu
pod audycją będzie podlinkowana ta prezentacja,
więc będziecie mogli sobie jej
w języku angielskim wysłuchać
i się samodzielnie przekonać,
jak to tak naprawdę w praktyce działa.
To teraz news.
Nie wiem, czy u nas
to na razie będzie
miało jakieś znaczenie, ale być może
w jakiejś tam przyszłości tak, no bo
Discovery i HBO w Stanach
Zjednoczonych łączą się w jeden serwis.
No i co z dostępnością
tego serwisu jednego?
Tak, ja myślę, że to u nas będzie miało
znaczenie i dlatego już o tym wspominam teraz,
bo już to jest
zresztą potwierdzone, że w przyszłym roku w Polsce
czeka nas dokładnie to samo i też ten
serwis zostaniemy, więc wydaje mi się,
że to było…
Dlatego warto o tym wspomnieć,
przynajmniej krótko. No właśnie, co się stało
jakiś czas temu?
Discovery Networks, czy Warner Brothers
Discovery właściwie
wykupiło HBO.
No i stopniowo właśnie te dwa
serwisy zaczęły się łączyć, tam różne
rzeczy się działy, no i
no właśnie między innymi
ta walka HBO, tak niedawno
w Europie właśnie wystartowała ta aplikacja HBO Max,
więc do tego ona jeszcze u nas jakiś czas
będzie, no ale gdzieś tam w Stanach
to już było trochę dłużej,
ale postanowili
te dwie aplikacje,
bo też powstała aplikacja Discovery Plus
dwa lata temu, no i te dwie aplikacje
zostały połączone. Nowa aplikacja
nazywa się po prostu
HBO Max, ale to też tutaj
znów kolejna taka
notka prasowa, ale tutaj jest bardzo
ciekawe to, na co
firma zwróciła uwagę, bo jest takich 10 punktów
i ja nie będę czytał wszystkich, bo generalnie tutaj
mamy dwa razy więcej
treści, bo tutaj faktycznie te różne
jakieś naukowe programy z Discovery,
czy TLC się tam pojawiły.
Jakieś też starsze
seriale, tam na przykład Przyjaciele są,
jeśli ktoś lubi.
No aplikacja ma być bardziej stabilniejsza,
łatwiejsza
w nawigacji. Tutaj jest
powiedziane, że aplikacja HBO to miała
podjąć ponad 40 sekcji, tutaj są tylko
cztery karty,
co jest jakoś uproszczone.
Więcej personalizacji,
więc tutaj aplikacja nam będzie coś więcej
sugerować.
Tutaj są plany 4K, no oczywiście aplikacja
podrożała, niestety,
to tak swoją drogą.
Jest lepszy widok dla dzieci.
Ale co
takie dla nas wydaje mi się najbardziej
istotne
kwestie, tutaj funkcje dostępności. Po pierwsze
Max wystartuje z ponad
sześcioma tysiącami godzin
treści z audiodeskrypcjami, to są w większości
materiały HBO.
Można mieć nadzieję, że tego będzie
więcej w Polsce, jeśli to, jak
te serwisy się połączą, bo z HBO
wcześniej było z tym różnie. Niektóre
seriale HBO u nas
mają audiodeskrypcje,
a niektóre, niestety,
nie, mimo to, że w Stanach Zjednoczonych jak najbardziej
tę deskrypcję mają.
I to jest duża bolączka
tego serwisu, a szkoda. Miejmy nadzieję,
że jak te serwisy u nas w Europie
się połączą, to też więcej
audiodeskrypcji zostanie. Tutaj też właśnie dużo
tych starszych seriali ponoć tą audiodeskrypcję
ma, więc to jest też takie
fajne. I tutaj też
trochę treści z
TLC, czy z Discovery, też
tę audiodeskrypcję ma. To jest
jedna kwestia, a druga kwestia jest taka,
że jest potwierdzone,
że aplikacja
będzie dostępna
z czytnikami ekranu.
I to właściwie na wszystkich platformach, bo tu jest wymieniona
strona internetowa
w roku.
To są akurat telewizory, które są tylko w Stanach,
ale np. LG, Samsung,
Xbox, PlayStation 5,
iPhone, iPad, Apple TV
i Android.
Zarówno w wersji telewizyjnej
i mobilnej już w Polsce
jak najbardziej są, więc tutaj
raczej możemy być spokojni o to,
że ta aplikacja na wszystkich telewizorach,
czy urządzeniach mobilnych, czy
w komputerze, w przeglądarce
będzie dla nas dostępna,
więc będziemy mogli się zalogować
i tą audiodeskrypcję włączyć.
No właśnie, z tym logowaniem to były problemy.
W pierwszej wersji tego artykułu
zacząłem właśnie,
że to tak miało być teoria. W praktyce były
problemy, bo tam na iOS
jakaś kapcza się pojawiła,
która miała wersję audio, co ciekawe,
ale to okienko u tej kapczy
jakoś było nieczytelne dla voice-overa.
Tam można było coś z rozpoznawaniem
ekranu próbować, ale
to też po czasie
znikało z niewiadomych przyczyn.
Natomiast ten problem już został rozwiązany
i z tego co słyszę,
słyszałem już tutaj raporty właśnie z iOS,
ale też z Xboxa, np. z różnych tych platform,
że faktycznie ta
aplikacja jest dostępna, co cieszy,
bo jak ta usługa Discovery Plus
wystartowała, to pamiętam,
że tam były z nią problemy,
a ta aplikacja Max
właśnie w większości bazuje na
tym, co w Discovery Plus było,
a nie w HBO Maxie.
No więc możemy czekać.
Na razie HBO Max na szczęście też
jeśli chodzi o samą aplikację, to raczej
dostępne jest, no i kiedy ta
usługa wystartuje w Polsce w przyszłym
roku i wtedy
wszyscy abonenci HBO będą musieli się
też na nią przesiąść, bo
w Stanach tak jest, no to
możemy być raczej spokojni, bo
raczej myślę, że to będzie ta sama baza kodowa,
no bo HBO Max już tak
było w tym przypadku,
no to możemy być spokojni o to,
że wszystko powinno
być dostępne, tylko miejmy nadzieję, że
to również będzie dotyczyło
audiodeskrypcji.
No, a teraz
podejrzewam, że taki troszeczkę dłuższy
news. Recha
for the blind in Poland. Jeszcze trwa,
ale ja już byłem. To może ja jeszcze
szybko, bo chyba przedtem był mój
news o Apple, o
poprawkach w Apple.
To jeżeli tak, to chyba
jest. Tak, ja tak widzę.
Na końcu, bo…
Nie, no mogło się coś nie odświeżyć.
Tak, już coś mi się nie odświeżyło,
bo rzeczywiście teraz widzę, ale to dopiero teraz widzę.
Jasne. Nie, spokojnie, bo tu
nie jest długo. Chodzi o to, że
wszystkie systemy, to wszyscy wiecie, iOS 16.5.
Ja tylko chciałem
dać znać, że w iOS-ie ponoć doszła
i w iPadOS-ie ta funkcja,
która już w 16.4 się pojawiła,
czyli informowanie o formatowaniu, o pewnych
rodzajach formatowania na monitorze brailowskim.
To było dostępne w
iBooks, a teraz ponoć ma być to dostępne
w większej ilości aplikacji, aczkolwiek w notatkach
to na przykład jeszcze nie działa.
Liczono na to,
że będzie poprawiony ten błąd
voice-overa, gdzie mowa przestaje nagle
działać z niewiadomego powodu.
Niestety
tutaj tego nie zauważono, żeby poprawiono.
Ja jeszcze nie mam 16.5,
więc też sam nie wiem.
Jeśli chodzi o Maca, to poprawiono
nawigowanie
z voice-overem do punktów orientacyjnych
w treściach internetowych.
No i pojawił się nowy błąd
po wejściu ustawienia
w preferencje systemowe, tam wersja
oprogramowania, aktualizacje.
Jest przycisk dowiedz się więcej
i ponoć tam nie da się w niego kliknąć
z voice-overem i to jest tyle.
No tak, no to jakaś tam doszła sekcja sportowa
w wiadomościach
w Apple News, ale to
nas raczej też nie dotyczy.
No i tam jakieś drobne poprawki,
spotlight się zawieszał, już się ponoć nie zawiesza
i tak dalej. No to tyle.
To można kontynuować.
No to recha.
Recha for the blind się jeszcze odbywa.
Ja tam byłem.
Na przykład, żeby zrobić
wywiady dla
TV Podcastu, także
miejmy nadzieję, że uda mi się z tym w miarę szybko
wyrobić i pokazać je
w którejś z audycji.
No i
kilka takich moich wrażeń
na szybko.
Zanim będzie duży
wywiad, znaczy duży wywiad, no ile
wywiadów.
Ludzi chyba, znaczy ludzi, wystawców
chyba coraz mniej na recha.
Wielu, znaczy
iluś film, które kojarzę wcześniej,
jakiś American Printing
House,
jakiś
kilka innych, które wcześniej jakoś tak się
widywało, to tam nie
widziałem. W zasadzie
z tych, z Tyflo,
z Klepów, no to był tylko
Aldi X, więc
no trochę szkoda, że mimo wszystko ta
fundacja jakoś, znaczy nie wiem, czy to jest fundacja,
czy to jest kwestia, nie wiem,
jakiejś współpracy, czy czegoś, ale
te firmy, które współpracują z
Aldi X-em, nie wiem, Whispero
chociażby, to zdaje się teraz producent
DOS-a, no to, to tam oczywiście były.
Tam ktoś tam przyjechał, natomiast
Medisona nie było, Lumenu
nie było, no ECE
to już tam od chyba iluś lat nie ma,
kilku tam jeszcze innych takich
rzeczy nie ma, nie było,
więc no
szkoda, że to tak jakoś
strasznie
tak idzie w jedną
stronę, że się tak wyrażę.
Całość odbywała się jak zwykle
w Centrum Nauki Kopernik, znaczy wystawa
się odbywała w Centrum Nauki Kopernik,
tam jest jeszcze ileś innych
wydarzeń, część się
również odbywa w Centrum Nauki Kopernik,
część nie.
No i co tam
jakąś taką moją szczególną uwagę
zwróciło, no to na pewno fundacja
prowadnica i fakt, że
udało im się przywieźć na
stoisko drukarkę 3D
i rzeczywiście
można było zobaczyć tę drukarkę,
mało tego, zobaczyć w akcji,
bo oni tam mieli rzeczywiście drukarkę,
ta drukarka działała, drukowała sobie
tabliczkę, na której
było napisane Fundacja Prowadnica,
czyli tabliczkę taką
prajdowską, to co oni jakby oferują,
no i te ich
stoliki były no zawalone wręcz
różnego rodzaju tymi rzeczami, które tam
można na stronie fundacji
kupić, czyli
no kółko i krzyżyk,
rewersji, twórki, jakieś
ileś tabliczek,
ileś jakichś materiałów z różnego
rodzaju materiałów,
powiększona moneta dwuzłotowa,
powiększona moneta
z jakiegoś tam czasu chyba
chrobrego, żeby sobie zobaczyć
jak ona wyglądała, no i tak
dalej, i tak dalej, dużo tam tego było,
naprawdę dużo,
ekubarytmy drukowane, to wszystko
oczywiście na drukarce 3D,
znaczy to były wydruki
właśnie z drukarki, to z
różnych materiałów, jakiegoś guma,
było na przykład kilka
pokrowców do telefonów,
głównie do iPhona, też właśnie z takich materiałów
typu guma,
taki twardy plastik i taki
średni plastik, znaczy
taka plastikoguma, i ta guma
to było coś takiego,
znaczy tak w dotyku,
taki standardowy pokrowiec, który można by kupić
z sklepy, no dokładnie to tak wyglądało,
jakby
no jakby
to taki zwykły
po prostu pokrowiec kupiony gdzieś tam,
może nie jakiś super drogi, ale taki no,
no taki pokrowiec plecki, taki na
na iphona,
więc tam tego było, naprawdę tego sporo,
no właśnie kilka różnych gier, w tym
szachy, zdaje, tak
szachy, szachy były,
zdaje się,
akurat gdy
ja tam przyszedłem, to skończył się
wydruk,
skończył się wydruk tabliczki,
więc nie obserwowałem te ostatnie,
ostatnie
warstwy, znaczy
nie widziałem tych warstw, bo to jest jednak dość gorące,
ale widziałem ten ekstruder,
czyli tę głowicę, nie wiem czy tak można
nazwać, głowicę, która to wszystko drukuje,
no to było to takie
gorącowe, ale no ja wiem, no nie,
nie bardziej ciepłe niż kaloryfer,
w jakieś takie zimowe, zimowe dni,
więc można to było dochnąć,
ten,
ten
filament, szpule z filamentem,
która tam się powolutku gdzieś tam
rozkręcała, to wszystko jest na zewnątrz,
właśnie po paru minutach
rozmowy to wszystko wyjechało,
ten stół z tą tabliczką przyklejono
do niego, ta tabliczka
no też była taka ciepła, ale no też
bez przesady, to naprawdę wszystko można było
ręką sobie zobaczyć, to nie było tak,
że to jakoś parowało i
nie wiem, jakiś piec hutniczy, absolutnie,
także no
bardzo, bardzo to było ciekawe,
no i szacun za to,
że udało się przywieźć drukarkę 3D
na wystawę,
no to
wiem, że
tam na Eltenie to fundacja zapowiadała,
że to przywiozą, tak mówię,
no zobaczymy, zobaczymy, pewnie nie przywiozą,
bo oni tak mówili, że to może przywiozą,
może nie, no to tak
obstawiam, że raczej nie przywiozą, a jednak,
jednak przywieźli, także
różne rzeczy można, można,
można zrobić,
natomiast oprócz tego,
no widać,
że niektóre firmy tak próbują
się odnaleźć w nowej rzeczywistości,
w której na przykład Dolphin
pokazywał,
jak to się, Dolphin Guide, ten program?
Nie pamiętam.
Guide Connect chyba, no bo to się teraz nazywa.
Tak, bo Dolphin Guide był kiedyś,
może, już nie pamiętam,
bo
gdzieś tych rozmów przeprowadziłem
i to tak człowiek zapomina.
To jest taki w ogóle dosyć ciekawy soft,
chociaż ciekawy raczej dla ludzi, którzy z komputerem
to tak nie bardzo są
za pan brat,
bo to jest, nie wiem, czy pamiętacie, kiedyś
było coś takiego jak Webby, czyli klient poczty,
klient podcastów, coś tam jeszcze,
no to tu coś ma być
chyba podobnego.
Cały czas jest, o, bo mikrofon
sobie nie włączyłem, to nawet cały czas jest
jeszcze rozwijane, jeżeli chodzi o Webby,
te aplikacje.
No to tu ma być też jakaś taka
aplikacja, która obsługuje te nowe
chyba protokoły, tak przecież zrozumiałem,
że tam można mieć gmaila
i coś i to będzie z tym wszystkim działało.
Natomiast,
co ciekawe, oni
z tym, i nie wiem, czy to jest razem z tym,
czy to trzeba oddzielnie kupić, jeszcze nie wiem,
dodają pilota.
Pilota, który się łączy
po donglu
na USB,
to jest wkład,
i ten pilot ma tam kilkanaście
przycisków i mikrofon.
I on korzysta z Windowsowego
dyktowania,
tego wbudowanego w Windows,
więc można na przykład tym pilotem
naciskać przycisk
utwórz maila, on cię pyta
do kogo, i dyktujesz.
Treść, dyktujesz, tam jeszcze
temat, dyktujesz, tam wyślij
i on to powinien teoretycznie
wysłać, no o ile się nie pomyli przy dyktowaniu
chociażby
adresa ta maila, bo podejrzewam, że z tym
to może być bardzo różnie.
W każdym razie,
nie wiem, czy tam jest jakaś książka
adresowa, no jakby było, to
ciekawe, bo ten pilot ma na przykład
strzałki takiej na środku OK.
Można odtwarzać jakieś pliki
muzyczne, podcasty, chyba można się
logować do tych bibliotek,
które są zgodne z tym Dolfinowym
protokołem, czyli do DZD, zdaje się też.
I czytać książki, zdaje się,
to wszystko można obsługiwać z tego pilota,
który jest dostarczany,
czyli jakby zakładamy, że
na przykład mamy
kogoś znajomego, kto
nie ogarnia komputerów, nie zna się,
nie zna klawiatury
i nauczyć się mu tego raczej
trudno, no i można komuś
takiemu dać takiego pilota, no więc
tu mamy
dużo mniej tych przycisków do nauczenia,
a nie powiedzieć, tym się sługa książek,
tym się, nie wiem,
sprawdza pocztę, tym się
coś tam jeszcze robi, tu
masz strzałki, góra, dół, lewo,
prawo, żeby chodzić po tym wszystkim, no i jakby
no jakby, no ma to
działać, nie sprawdzałem jeszcze jak to działa,
nie wiem czy to jest w języku polskim jeszcze
nawet, szczerze mówiąc.
I tak mi te wywiady 5 godzin
zajęły, autentycznie,
byłem tam 12.40,
17.40,
17.40 skończyłem
wywiady, także
gdybym miał jeszcze każdy z tych produktów
testować, to ze 2 dni
tam bym musiał być, a nie bardzo akurat
bym mogłem tak zrobić.
WeWalk,
o WeWalku tutaj zdaje się było,
czyli
aplikacja zintegrowana
no
z laską powiedzmy, ale to bardziej jest
uchwyt do laski, to znaczy można
ten uchwyt sobie zintegrować z laską,
oni mówią, że zalecają Ambu TH,
najlepiej, no ale
praktycznie tam się nadają wszystkie laski, które posiadają
ten taki sznurek, który
łączy elementy w środku, które są zrobione
w taki sposób, że jest sznurek, który
łączy właśnie każdy z elementów,
natomiast oni polecają Ambu TH, no bo
mają to przetestowane.
Znowu tego, nie testowałem
tak za bardzo,
wiem, że to jest uchwyt,
który ma, no
czujnik ultradźwiękowy, to jakby nic nowego,
głośnik, w sumie nic nowego
i taki panel
dotykowy, którym,
na którym się wykonuje gesty,
to jest połączone z aplikacją
WeWalk, no i
teoretycznie można jakby z poziomu laski sobie
scenerować, teraz idę tu, chcę
dojść tam, coś tam
jeszcze, nie wiem co się dzieje w trakcie trasy
na WeWalku, no raz,
że nie dało się tego zrobić w budynku za bardzo,
natomiast…
W trakcie trasy on mówi po prostu, podaje co jakiś
czas te
instrukcje, tam ile trzeba jeszcze
metrów czy coś, aczkolwiek to też różnie działa,
to powiem z doświadczenia, bo ja WeWalkiem
chwileczkę przeszedłem
i o tym też mówiłem chyba w tego przeglądzie,
którymś rok temu,
on wibruje co jakiś czas,
że wykrywa przeszkody i mam wrażenie, że to jest bardzo,
bardzo czułe i
wibrował mi nawet wtedy, kiedy na 100%
nic niebezpiecznego przede mną nie było.
No,
tam nareszcie, no to było
wiadomo, wszystko dookoła, więc
zdziwiłbym się, gdyby on nie wibrował,
choć znalazłem takie miejsce, gdzie on nie
wibrował, ale możliwe, że
on jest tuż przy czymś, to on nie wibruje,
w sensie, że jak jest pół centymetra przez czymś,
to on chyba jakby nie wibruje, nie wiem, jak to działa,
w każdym razie
jakoś tak jest.
No to ciekawe,
ciekawe, co mówisz.
Co jeszcze było z takich
rzeczy, o których warto wspomnieć?
To bardziej
tylko ciekawostka, wątpię, że ktoś
to kupi, ale widziałem laskę, taką
zwykłą laskę, bez żadnych, nie wiem,
smart, też za
600 euro.
To jest ten
whitecane, coś tam, kropka com.
Tak, to na site city też to było.
I to w ogóle,
to w ogóle ciekawe było,
bo tam odchodzę do tego człowieka,
który to prezentuje,
mówię, że jestem tam
z portalu, tyfropodkaz,
i tak, oczywiście.
Pierwsze do mnie pytanie, jak się czujesz?
Po drugie, czy chcesz coś słodkiego?
I tam miał gość na stoisku jakiejś cukierki, który
mi częstował. To my też mieliśmy
przy Fillspace’ie rok temu, żelki Haribo.
To był mój pomysł, żeby nie było, to był
mój pomysł, bo
i to jest w ogóle fajna praktyka,
jak się jeździ na konferencje
międzynarodowe, to też gdzieś wysłyszałem
w którymś webinarium, że warto,
żeby zainteresować i przyciągnąć ludzi
do twojego stoiska, zwłaszcza jak jesteś z zagranicy,
przywieźć jakiś lokalny słodycz,
żeby ludzie mogli coś sobie wziąć
i żeby mogli
zapamiętać tą firmę lepiej,
że coś od ciebie dostali takiego,
co łatwo zapamiętać, tak, że tutaj
rozdawali, nie wiem, firma była z Niemiec,
przynieśli niemieckie Haribo.
I autentycznie spotkałem się
z takimi komentarzami, że kurczę,
wy jesteście jednym stoiskiem, które coś daje.
Ale to, taka ciekawostka,
to mi się też
przypomniało, to już sprzed wielu, wielu
lat, jak miałem okazję raz być
na Cebicie, to też
właśnie polska firma
miała,
już teraz nie pamiętam jaka to była firma, ale
tam niewiele było tych firm, które się z Polski
wystawiały, a oni akurat mieli też
właśnie na swoim stoisku krówki.
I
to były akurat te krówki ciągutki.
Przyszedł
jakiś pan, zdaje się
z azjatyckiej
części świata,
bardzo się zdziwił,
kiedy
spróbował sobie tych krówek,
że nie może szczęko
tworzyć.
Pozytywne
podejście do klienta.
Nie może złego powiedzieć.
Jeżeli chcesz rozkleić,
kup naszą nowoczesną, innowacyjną
technologię. Tak, rozklejarkę
do krówek.
Także to była
jedyna firma, o której wiem, że rzeczywiście
mieli coś takiego i coś
rozdawali o innego oprócz ulotek.
No i oczywiście człowiek
w ogóle zanim powiedział o swojej lasce, to zaczął
mówić o historii w ogóle białych lasek.
Skąd to się wzięło?
Kto tam pierwszy? Coś tam jeszcze?
To tam chwilkę potrwało, zanim on
się z tym tematem uwinął.
No i potem zaczął rzeczywiście opowiadać o tej lasce
swojej, że jest innowacyjna, super
i tak dalej. No fajne to jest.
No ale 2600
zł to
nie.
To jest
rzeczywiście bardzo ergonomiczna
jest ta rączka, ten uchwyt.
Bo rzeczywiście
to jest coś takiego…
Ktoś tam musiał się nieźle
przyłożyć chyba do badań, bo to jest
ten przekrój,
on jest taki
bardzo niesymetryczny. To rzeczywiście
chyba jest coś związanego z tym układem
palców, który tam jest.
Sam kształt rączki
to też nie jest prosta rączka,
tylko ona jakoś tak się też wygina.
Najpierw kształt ten dłoni,
potem jakoś tak się wygina, żeby ten
nadgarstek tam o to nie zahaczał.
To jest wszystko powyginane
na ileś sposobów i to rzeczywiście
jest takie… no fajne.
Sama laska składa się,
zdaje się, z trzech elementów
i ten ostatni
element, on się
on bardzo łatwo wychodzi z tego
poprzedniego i się jakby składa.
Chodzi o to,
oni sobie myśleli tak, że jak ktoś
wejdzie na tę laskę, czy tam stanie,
nie wiem, samochód przejdzie, cokolwiek,
żeby nie trzeba było
tego kija robić
super mocnego, żeby on to wytrzymał,
tylko niech on
się, no w
cudzysłowie oczywiście, złamie na chwilę
albo zegnie, wygnie
na chwilę i potem
znowu wróci. I ten element
się rzeczywiście wyjmuje z tego
poprzedniego,
po czym
jak się zmniejszy
nacisk na to, to rzeczywiście
wraca. I to jest takie bardzo
elastyczne, ale w jednym konkretnym miejscu.
Znaczy bardzo, no jest elastyczne,
no to nie jest tak, że to się jakoś wyjmuje,
nie wiem, co chwila, to
trzeba do tego jakąś tam
siłę przyłożyć.
Jak się na tym oparły, no to tak musiałem się konkretnie
oprzeć, żeby
to wypadło, więc
raczej nie ma takiej możliwości,
żeby to się zgięło
od tego, że nie wiem,
że ktoś idzie
jakoś w miarę szybko. To
rzeczywiście musi gdzieś tam
ktoś na to wejść, albo nie wiem,
na przykład stoję,
opieram się o laskę, ktoś mnie
potrąci, czy coś się dzieje, ja się opieram
całym albo prawym,
albo nie wiem, schodzę ze schodów,
coś się tam dzieje, jestem też dość ciężki,
ja się opieram siłą
jakoś tak przyzwyczajenia czasami na tej lasce,
no i ta laska wtedy rzeczywiście
może się zgiąć.
Przy czym
zawsze jest, to nie jest tak,
że ona się zegnie i nagle lecę,
nie ma oporu, nie, tam jest zawsze jakiś
opór, nawet dość konkretny
i ta laska, mam wrażenie,
ma w środku jakiś taki element,
bardzo taki giętki, ale
jednak on w dość dużym oporze,
to nie jest coś takiego, co
to nie jest tak, że tam się wyjmie
i już to się na jakimś
sznunku trzyma, ta
wewnętrzna guma, to to pewnie
nie jest jakaś guma, tylko właśnie jakiś taki
jakieś coś mimo wszystko dość
dość takie
sztywne, chociaż giętkie,
nie wiem, czy rozumiecie o co chodzi.
Jakie coś w rodzaju jakiegoś elastycznego
grubego drutu na przykład.
No coś takiego, ale to jest właśnie
tak jak są te, o
to mi się kojarzy
z tymi szyjkami do popfiltrów.
Coś takiego?
Nie, bo szyjki, to jak wygniesz, to one
zostaną, a to
wraca, jak antena w radiu
na przykład.
W tych krótkofalówkach, okej.
Tylko, że to można wygiąć o 180
stopni, bo ta laska
oczywiście się składa.
Ta laska się składa
na trzy i jak ta laska się
złoży, to znowu
bajer, malutki,
ale działa.
Tam są gdzieś magnesy w środku
wbudowane, więc jak się te elementy przesunie
do siebie, to na prostu przytykają
do siebie i już. Nie trzeba
pętelek robić,
czegoś z gumki, z nie wiadomo
czego. Po prostu składasz
i to jest złożone.
Potem to lekko tam pociągasz
i to się rozkłada.
To jest super.
Kolejna taka
rzecz, która jest zupełnie inna niż w normalnych
laskach, to jest
ta gumka,
bo ona tam jest mimo wszystko.
Może być, bo to się da w ogóle zdjąć.
I znowu, to nie jest na samej górze
tej laski, tylko to jest na rączce,
ale niżej. To się
zaczepia
tam jakoś, tam jest
taki pierścień, do którego
się ta gumę
zaczepia, żeby
ona sobie nie
zwisała. Tylko to jest taki po prostu pierścień
z tym silikonem
i to się nie majta.
Nie zwisa sobie.
To jest taki pasek
silikonowy. Jak ten pasek się rozwinie,
on jest taki
w większej części rozcięty,
ale nie od końca i nie do końca.
Po prostu jakby środek ma rozcięty, jak nie wiem, czy kiedyś
robiliście faworki. Natomiast takie
rozcięcie się robi w środku tego paska
świasta, żeby włożyć ten
przewles, tę końcówkę. To jest
coś podobnego.
Po pierwsze,
można tę złożoną
laskę za to coś powiesić,
a po drugie, on pokazywał,
że można sobie włożyć na przykład mały palec
w to rozcięcie,
laskę sobie tak dać od zewnętrznej
strony złoni i mamy w zasadzie dwie ręce
wolne, laska sobie
jest na tym,
trochę wisi, trochę tak
ten pasek
rzeczywiście
trzyma i ona sobie jest na tym
małym palcu i
tam gość mówi, że to można zapłacić.
Zapłacić to powiedzmy może jak
jest niezbyt daleko terminal,
ale rzeczywiście coś z telefonem można
zrobić, coś można, nie wiem, poprawić
bez tego, że tam laskę
podpachę albo gdzieś
przytrzymać brodą, nie wiadomo czym,
tylko rzeczywiście to się trzyma
gdzieś tam małym palcem i to
sobie jest, więc jest kilka takich
fajnych elementów, które
powiem, że ta laska jest taka
fajna, to tylko 600 euro.
Cena też fajna.
Podobno jest
super wytrzymała i zniszczyć
to jest duża sztuka, nie wiem,
nie próbowałem.
Wiesz co,
ja nigdy temu nie wierzę, w sensie
to by musiały
ktoś mi powiedzieć, czarno nad białym wytrzymuje,
taki ciężar przyłożony tu i tu i proszę
bardzo, wtedy okej, dobra.
No to jest mocne.
Ewentualnie co by mogło przekonać do zakupu
takiego sprzętu,
to jakaś taka wieczysta
gwarancja producenta,
że na przykład okej, płacę
raz 600 euro, ale
zniszczy mi się ta laska
z jakiegokolwiek powodu, nie wiem,
pies ją pogryzie,
coś na nią najedzie,
coś gdzieś tam powiedzmy
w jakikolwiek inny sposób
ona ulegnie zniszczeniu, ja ją
za darmo dostaję
albo nową, albo po prostu jest ona
naprawiana. I wtedy,
w takiej sytuacji, przy założeniu, że się
za dwa lata powiedzmy firma
z rynku nie zwinie, to to by miało
sens. Tak, to rzeczywiście
tak.
Także no, zobaczymy
co będzie dalej.
Było kilka takich rzeczy,
które moim zdaniem są przerostem formy
nad treścią.
Na przykład było coś takiego,
takie urządzenie
do nauki brajla.
To znaczy, nie wiem, może ja się nie znam,
być może to będzie dobre, nie wiem, w ośrodkach
jakichś takich szkolno-wychowawczych.
Nie wiem,
choć mam wrażenie, że znają
ileś różnych metod nauczenia brajla,
ale nie wiem, no
może. Wygląda to
tak, jest sobie coś w rodzaju
monitora brajlowskiego,
bardzo znakowego, tylko że ten brajl
to jest, nawet mówili,
dziesięć razy większy od zwykłego brajla,
więc to ma tak mniej więcej
trzy centymetry szerokości, ze cztery długości
każda komórka, więc to ma
w sumie szerokości ze trzydzieści parę centymetrów.
Całe urządzenie
to nawet ze czterdzieści.
I
trochę nad,
znaczy jakby
z tyłu za tym rzędem
i trochę u góry jest drugi rząd
takich, powiedzmy, że komórek brajlowskich,
ale nie interaktywnych,
tylko takich, z które
użytkownik może sobie wyjąć,
one są przyczepione magnetycznie
i może sobie wciskać
każdy z tych punktów do środka, albo
je stamtąd wyjąć,
jak są wciśnięte.
I chodzi o to, żeby ułożyć to samo
na górze, co jest napisane na dole.
Tam są wyrazy, nawet w języku polskim,
typu, nie wiem,
beczka i potem, nie wiem,
trzy, czterdzieście punkty,
czy dwa,
trzy szeście punkty.
Więc układamy na górze też beczka
z tych liter, które tam są i mówi, że
dobrze, albo, że niedobrze.
No i już.
Tam jest pięć poziomów trudności, coś tam jeszcze.
Fajnie.
Osiem tysięcy.
Czyli to na dole
się zmienia jakoś, tak?
Tak, to na dole to jest jakby monitor brajlowski,
który wyświetla te…
Tak. I na górze są równie
powiększone takie komórki, z których
ktoś musi ułożyć
to, co było na dole.
No dobra, nie wymaga to nauczyciela,
żeby tym się posłużyć.
Więc może to,
nie wiem, w jakichś ośrodkach,
może w czymś takim,
może ma sens, ale ja się wcale nie zdziwię,
jak oni tam mają stare, wypróbowane metody.
No nie wiem.
Nie wiem, czy to tam
zna egzamin, ale
ja nie jestem ani nauczycielem,
ani jakimkolwiek, ani praktykiem,
ani teoretykiem nauczenia, więc
nie wiem, może coś w tym jest.
To nie wiem.
Trochę podobny
stosunek mam do innego
urządzenia.
To jest w ogóle polska firma,
która zrobiła takie,
to jest rodzaj interaktywnych obrazów.
Mamy obraz,
taki
wydrukowany
taką wypukłą grafiką,
to niektórzy na to mówią
2D+,
i to jest położone
też na takim urządzeniu, które jest jakby,
no to musi mieć,
to musi być wszystko jakby
skalibrowane
ze sobą, znaczy to nie może być
dowolny obraz, no musi być jakby wszystko
zaprogramowane w tym urządzeniu.
Składzie się taki obraz
na tym urządzeniu
i się go ogląda.
Normalnie palcami.
Jeżeli się jakiś palec położy przez tam
jakieś pół sekundy, może troszeczkę dłużej
na jakimś tam elemencie, to on powie
przez głośniczek,
co to jest za element. To są sample.
W języku angielskim są dość fajnie
zrobione. Póki co w języku polskim to jest chyba
synteza google’owa
taka dość cicho zrobiona, więc
to jest troszeczkę
gorsze.
No i tam można chyba dowolną rozdzielczość
uzyskiwać.
Już nie pamiętam jaki tam miałem obraz.
Chyba dama
z łasiczką i coś tam jeszcze.
No i tam rzeczywiście
były te różne elementy,
na które można było naciskać, on mówił co to jest.
To też i tam ileś tysięcy kosztowało
chyba.
No i znowu, no fajnie, że
jest coś takiego.
Możliwe, że
to jakieś właśnie instytucji, czegoś
no może,
ale
tak się właśnie zastanawiam.
Zastanawiam się troszkę.
To jest takie coś, co w sumie
nie wydaje mi się to szczególnie
innowacyjne, o tyle, że
technika, podejrzewam, do czegoś takiego
to była już wcześniej. No dobra,
czasami pomysł polega na tym, że ktoś to musi
wymyślić.
Ale tak mimo wszystko, wydaje mi się to
takie, no
dobra, było. Może ktoś to
kupi, może to jest
w miarę okej.
No nie wiem,
jakoś nie trafiło to do mnie za bardzo, ale
to nie znaczy, że to musi być jakieś, nie wiem,
złe.
Coś, co nawet
częściowo do mnie trafiło,
choć
cena też jest niezła,
to jest drukarka
drukująca tuszem,
znaczy taką jakby farbą puchnącą
na arkuszach, specjalnego
papieru, który do tego jest potrzebny.
Sama drukarka kosztuje
dość sporo, no ale powiedzmy, okej,
6 tysięcy złotych
chyba, no to
można pewnie w aktywnym samorządzie
jakoś tam pewnie na to przeznaczyć.
Ale
200 arkuszy za
1700 złotych,
to robi wrażenie.
To są arkusze
A4, na tych arkuszach
można drukować,
znaczy, nie wiem,
no oni piszą, że to normalnie z komputera
się drukujące, się podłącza do komputera,
nie wiem, czy to jest widoczne jako normalna drukarka,
czy nie.
To jest wielkości zwykłe,
może troszeczkę większa od drukarki atramentowej,
ale to nie jest jakieś specjalne duże urządzenie.
No i tutaj
pokazywali, że można
jakieś tam wykresy drukować,
jakieś mapy można drukować,
super, bardzo fajnie,
no bo powiedzmy nawet,
przepraszam, 1400,
znaczy, arkusze kosztują albo 1400 złotych,
albo 1900,
jeżeli chce się na nich drukować
jeszcze tak w żadnym druku,
albo kolorowo, już nie pamiętam.
Jest różnica w każdym razie, kilkuset złotych
za 200 arkuszy.
I oni też pokazywali
takie coś, no możliwe, że to się
komuś przyda, chociaż, no to też
ktoś musiałby nie mieć nikogo widzącego
do pomocy,
że można sobie wydrukować na tym,
załóżmy, piszemy sobie jakiś dokument,
no i
czasami trudno
tak naprawdę stwierdzić, czy on jest
poprawnie wydrukowany, w takim sensie,
czy tam nie ma jakichś
pustych przestrzeni za dużo,
czy formatowanie jest
po prostu zachowane, więc można sobie wydrukować
taki dokument i po prostu
sprawdzić, no bo linię tekstu
nie odczytamy, co jest w tych linijkach,
ale sprawdzimy, czy te linijki są poprawnie
jakby stworzone,
czy widać wszystko tam,
gdzie trzeba,
czy to
widać po prostu, że jest jedna linijka pod
drugą, że gdzieś tam
nie ma jakiejś
wybitnie dużej przestrzeni, że tu nagle jest
8 linijek pustych, a nie
powinno być,
a w każdym razie nie w tej linijce, bo tam
każdą linijkę widać tak mniej więcej,
tu jest pierwsza, tu jest druga, tu jest trzecia, tu jest
czwarta, tu jest piąta króciutka, ok,
tak miało być,
no tylko no właśnie cena tych arkuszy,
zwłaszcza, no to jest dość duży jakiś problem
podejrzany dla ludzi
i gdyby się
dało w jakiś sposób to
to zamieliśmy, bo to są
często jakieś takie rzeczy jednorazowe i to
byle jak, ale
żeby to się jakoś wydrukowało, no to
nawet czasami
chciałoby się, żeby ten papier był jakiś inny,
on jest taki bardzo,
oni tam piszą, że on musi mieć jakieś kapsułki
czegoś, musi mieć jakoś
dużo,
może ten papier ma jakieś puchnące
elementy na sobie, nie wiem, on jest bardzo taki
miękki w ogóle w dotyku,
dużo bardziej miękki niż zwykły papier,
więc
no nie wiem, no tak się nad tym
zastanawiam, natomiast
myślę, że czasem chciałbym na pewno
nawet zrzut ekranu zrobić
w formie czegoś takiego,
nawet nie to, żeby
nie wiem, zczytać to co jest
napisane, ale żeby przejść na przykład, nie wiem,
widzieć czy ten mój ekran wygląda
tak czy inaczej, albo mam jakiś program,
w którym
powinno być coś,
na przykład mam napisane, że
u góry znajduje się sekcja miksera,
są cztery pokrętła, na dole jest sekcja czegoś
i dobra, teoretycznie mógłbym
sobie sprawdzić, czy tam są cztery cosie,
co można by
zinterpretować jako pokrętła, być może tak, być może
nie, nie wiem, ale
sobie wyobrażam, że czasami można by coś takiego
użyć właśnie do
różnych rzeczy, albo nie wiem, robimy
zrzut ekranu jakiegoś programu i sprawdzamy, czy
tam jest jakby jedno okienko,
które jest jakąś jedną całością, czy gdzieś nie ma
czegoś, czegoś
i można sprawdzić, w prawym
dolnym roku jest jakiś
oddzielny kawałek czegoś, można spróbować
jakoś
zacelerować tam prawy
róg dolny, pewnie zdjęcia
jakoś, nie wiem jak, być może
się da w jakichś programach do edycji
grafiki jakoś zaznaczyć
po niewidomemu, nie wiem, ale tak się zastanawiam,
może by się to udało.
W każdym razie to są takie rzeczy, które
mnie zainteresowały.
Jest jeszcze rysownica, tam była taka
za też jakiś ciężki pieniądze, chyba
dwa tysiące.
Wyglądało to
tak, że była
ramka, którą
się przykrywało folię
na rysownicy, ta ramka
miała podziałkę
co pół centymetra i takie
z boku otwory,
w które się wkładało szablony.
Różne szablony.
Albo taki prostokąt
z
naciągniętymi gumkami, które można
było zdejmować, chociaż nie odkryłem jeszcze jak.
I tam
to coś ala układ współurzędnych,
ale można to było gumki
zakładać na jakieś tam inne sposoby, coś tam
z tym robić.
Można było założyć
takie coś w formie koła
i tam co kilka stopni, nie wiem, co pięć,
dziesięć były, też była taka
podziałka, więc noż można
było zrobić, nie wiem, narysować kąt
pięćdziesiąt pięć stopni,
no to można sobie policzyć, tu jest pięćdziesiąt,
tu jest pięć, dobra, rysujemy.
Więc no to z jakichś takich
rysunków już częściowo technicznych,
no być może by się coś udało.
Były w tym wszystkim
jakieś cyrkiel z taką podstawą
magnetyczną, którą się przyczepia jakby do
rysownicy
i to też jest fajne, bo
pamiętam, my w szkole używaliśmy
w laskach takich cyrkli, który
wbijało się taką nóżkę, rzeczywiście
w folię, więc
był taki punkt na środku zaznaczony
i było takie kółko, takie radełko,
którym się jeździło naokoło, tutaj jest
szpikule, z którym się jeździ i podstawa
magnetyczna, którą się kładzie
i ona, no właśnie ten magnez
przyczepiona do
do rysownicy,
więc tu nic jakby
nie ma
nie ma
problemu z tym, że jest jakiś punkt
na środku i ten
cyrkiel też ma jakieś tam
oznaczenia też co pół centymetra, więc
jeżeli ktoś by chciał narysować
koło o promieniu 4 centymetrów,
proszę uprzejmie, da się, można.
Jakieś tam
kilka jeszcze innych rzeczy, do rysowania jakichś
wykresów, czegoś, jakieś
kątomierze, ekierki
i to wszystko można było sobie właśnie poprzyczepiać
albo w tym kole, albo
były też takie
linie, które można było przyczepić, żeby
jakieś linie równoległe
czy prostopadły rysować,
jakieś tam odpowiednie
kąty, no to wszystko się dało zrobić,
no znowu
cena, 2 tysiące złotych,
niecałe, za
rysownicę, oczywiście techniczną,
fajną, no ale
jednak rysownica, no ale
to się zastanawiam, czy na przykład
na poziomie jakiejś późnej
podstawówki, może jakiegoś liceum,
no być może
komuś się coś takiego przyda, żeby
rysować coś w konkretnej
nie wiem, skali, bo
ktoś niewidomy akurat się tym interesuje,
no może coś w tym
jest, no tak się zastanawiam,
no być może tak,
no szkoda, że to tyle kosztuje, ale no powiedzmy,
no jest to przyczyn, który kupuje
no podejrzanie wiele osób, być może
jakieś ośrodki, no ale no to też
taka precyzja
z dokładnością jakąś tam,
to mało komu niewidomemu
jest potrzebna w rysowaniu, ale no znowu
otwiera się tu jakiś,
nie wiem jaki,
znaczy nie wiem, czy taka precyzja jest
wystarczająca, ale no tak
się zastanawiam, czy
nie ma jakiś tam nie o wszystko
dziedzin nauki,
które dzięki temu
może nie to, że się przed nami otwierają, ale
może są choć trochę łatwiejsze
dla kogoś,
bo coś musi rysować,
albo chciałby, na przykład,
nawet dla samego siebie, ale
z odpowiednimi właśnie odległościami,
czymś tam, bo nie wiem, bo coś tam
musi sobie obliczyć, albo pokazać komuś
widzącemu, powiedzmy,
tak, no i jakby to może być,
nie wiem, no tak się właśnie
zastanawiam,
no i
no skoro,
skoro tu było tylko
kilka firm, no to
się zastanawiam, ile rzeczy
no ominęło
tutaj ludzi, którzy
są na recha, ja sobie tak
w ogóle pomyślałem, że recha, rechą,
ale w takim razie można by
przeprowadzić wywiady z tymi firmami,
które na recha nie było
i chyba tak zrobię po prostu, że
spróbuję się przejechać do siedzib
kilku firm
Tyflo i gdzieś tam
jeszcze z kimś porozmawiać, bo myślę, że
no w związku z tym, że
Tyflo Podcast, no to, to jest
Tyflo Podcast i fajnie by było, żeby ludzie
mieli też
no styczność z jak największą ilością
różnego rodzaju produktów, które mogliby
sobie ewentualnie rozważyć
gdzieś tam w głowie,
no także, no
co do rechy, no to mam taki spory
nawet niedosyt,
no oczywiście jak zwykle,
jeżeli ktoś przyjeżdża na rechę
sam, no to
to był trochę
problem, to znaczy tam, gdzie były firmy
w tej sali
to się nie było najgorzej, dlatego, że tam to
wyglądało tak, że wzdłuż ścian były te
stanowiska, jedno po drugim, można sobie
było obejść tę całą salę
dookoła, się nawet udało
było na przykład jeszcze stanowisko Gerdy,
gdzie prezentowali zamki cyfrowe
z aplikacją
tam pan Jan Gawlik
pewnie też znany
przez niejednego
słuchacza, jakoś tam
próbuje robić
no coś tam, żeby
ta aplikacja była bardziej dostępna
podobno na iPhone’a
lepiej niż na Androida, no ale tak czy inaczej
Gerda coś tam robi w kontekście
dostępności swoich cyfrowych zamków
No i ta słuchawka Akstela, skoro już
o Janie Gawliku mowa, to
to też to urządzenie
Tak, to też tam było
więc no to były takie dwie firmy
rzeczywiście takie zewnętrzne, przy czym
no ta Gerda, no to jest coś, co rzeczywiście
no, kto nie słyszał o Gerdzie, tak?
Więc fajnie, że tego
typu firma, no pojawiła się na
na Recha, no Akstela oczywiście
też, choć Akstela to są te rozwiązania
bardziej profesjonalne
Zresztą chyba był podcast, tak zdaje się
o tym urządzeniu. Zgadza się
No, także jeżeli ktoś by
chciał to, o tym się więcej dowiedzieć
to też zapraszamy na podcast
oczywiście, no
nie wiedziałem, znaczy nie pamiętałem
w ogóle, że jest ten podcast
więc tam
po prostu zrobiłem taki standardowy wywiad
się dowiedziałem trochę o tym urządzeniu
natomiast
no fajnie, że te firmy
tam zawitały na
na Recha
natomiast no, taki trochę
niedosyt, chciałoby się więcej
tych firm, no i na pierwszym piętrze
były właśnie różnego rodzaju fundacje
uniwersytety
tu taka wielka szkoda, bo
też nagrywałem wywiad
i to był jedyny wywiad
z którymi nie wyszedł, znaczy coś się tam
nie nagrało, ze szkołą
masażu w Krakowie
no i to nie wyszło, i tam mieli coś takiego
że można tam było
też
sobie jakiś masaż w ogóle zamówić
tam chyba było jakieś łóżko, coś tam
tam masowali też jakby
że tam ponoć sporo kolejka
w ogóle do tego była
no a tam właśnie na pierwszym piętrze była fundacja
Prowadnica, był Uniwersytet Warszawski
który też, co ciekawe
oni też na drukarkach
mieli modele, jakiś tam model
czego oni mieli model?
jakiegoś malutkiego czegoś
komara
i to w takiej ogromnej skali, ten komar to miał
ze 40 centymetrów może w sumie
więc to dość ciekawie wyglądało
i kilka jeszcze
jakichś tam modeli mieli
ale Fundacja Prowadnica tych modeli
miała dużo, dużo więcej
no niemniej to były takie dwie
instytucje, które rzeczywiście poszły
w ten druk 3D
bardzo
też w audycji
jak będę mówił
jak będę prezentował
te wywiady, to się pytałem
właśnie różnych firm
tych, które się zajmują
takimi tabliczkami
do szczeczności publicznej
czemu oni nie korzystają z druku 3D
Fundacja Prowadnica, dlaczego oni korzystają z tego druku 3D
więc będzie taki
taka, no takie kilka
wypowiedzi na ten temat
z różnych aspektów, no bo
inne firmy nie korzystają
z tego druku 3D i mówią
dlaczego nie korzystają
Fundacja Prowadnica mówi dlaczego korzysta z tego druku 3D
także
no to jest
wszystko dosyć
dosyć ciekawe
także
no
myślę, że
coś tam z tych wywiadów będzie się
można mam nadzieję przynajmniej dowiedzieć
no i
chyba
no tyle mam
na dzisiaj do opowiedzenia na temat
na temat Rechy
a teraz
ostrzeżenie od Piotrka
które są też
obserwowane troszeczkę ten temat
ostrzeżenie dla użytkowników
Gold Wave’a, bo jest mały problem
ciekawe czy on zostanie
mam nadzieję, że nie, ale póki co jest problem mały
jest mały problem, ale na szczęście
da się go rozwiązać, więc tutaj też
ostrzeżenie zarazem porada
Gold Wave taki bardzo
lubiany, niedrogi, prosty
jednościeżkowy edytor audio, który
już od ponad dwudziestu paru lat
jest na rynku, no i jest bardzo lubiany
przez osoby niewidome, bo ma dużo skrótów
klawiszowych, jest fajnie dostępny
no właśnie
z tą dostępnością był
problem, bo pojawiła się
wersja 6.76
i dla niektórych
osób, nie dla wszystkich co ciekawe
po instalacji tej wersji
aplikacja przestawała mówić, pasek menu
był kompletnie nieczytany
zarówno NVDA jak i narrator
pewnie Jost też po prostu mówił
element menu, to coś tam się
popsuło dosyć poważnie
tutaj była koncernacja
co się okazuje
problem można obejść
musimy po instalacji
tej najnowszej wersji wejść do
menu start, do sekcji
Gold Wave’a i tam znajdziemy opcję
Gold Wave Setup, to nam po prostu otworzy
okno ustawień tej aplikacji
i tam musimy znaleźć pole wyboru
Force Screen Reader Mode
czyli w Forze Screen Reader
model pewnie jakoś tak to się będzie
nazywało, czyli wymuś
tryb dla czytników ekranu
co ten tryb robi?
między innymi
powoduje to, że elementy
paska menu
które w najnowszej wersji
Gold Wave’a

reprezentowane przez
ikonki, już nie ma na nich tekstu
tylko są ikonki, to nie jest
dostępne dla czytników ekranu
więc jeśli aplikacja
taki czytnik wykrywa, to
przełącza to menu w taki
tryb, gdzie te elementy są po prostu
czystym tekstem. No i aplikacja
powinna sama ten czytnik ekranu
wykryć, no ale coś w tej najnowszej
wersji właśnie z tym wykrywaniem się popsuło
nie wiem dokładnie co
no bo faktycznie u niektórych osób
ten problem się pojawił
a u niektórych nie. Na szczęście jeśli my
to sobie zaznaczymy, no to ten problem
w przyszłości powinien się już nie
pojawić. Wiem, że też
użytkownicy
tej aplikacji skontaktowali się
z wsparciem technicznym, więc
można też mieć nadzieję, że jeśli
ktoś tą wersję pominął, no to
przyszłe wersje już takiego
psikusa nam nie powinny zrobić. No a gdyby
zrobiły w przyszłości, no to można sobie
w ten sposób z tym poradzić, no i wtedy
już po prostu zawsze ta aplikacja będzie
w tym trybie się uruchamiać.
I teraz
news, Pawła.
W zasadzie znowu komplet newsów, taki
zestaw newsów nowości od Polskiego Związku
Niewinomych. Tak, zgadza się.
Jest tego
sporo zawsze co tydzień.
Natomiast ja dzisiaj
znowu, tak jak zwykle, z trzema.
No i pierwszy,
dopiero co skończyliśmy
międzynarodowy konkurs ILSC.
A tu się szykuje
kolejny jakoś tam międzynarodowo wspierany
chyba, jeżeli dobrze czytam.
Na pewno zaczyna się to od ogólnopolskiego
konkursu.
Trzeciego już
w Opolu.
Ogólnopolski konkurs piosenki osób niewidomych.
I
mamy informację,
taką informację.
Okręg Opolski
PZN zaprasza utalentowane osoby
z dysfunkcją narządu wzroku do udziału
w trzecim
ogólnopolskim przeglądzie piosenki osób
niewidomych po Opole 2023.
Zainteresowani mogą
przesyłać swoje
zgłoszenia do
21 maja
bieżącego roku. W przeglądzie mogą
wziąć udział wokaliści oraz wokalistki
osoby niewidome i słabo widzące
z całej Polski.
Z przesłanek zgłoszeń zostanie wyłonionych
15 wykonawców.
Wystąpią oni
w konkursie finałowym w Filharmonii Opolskiej
w dniu 20 września bieżącego
roku. W czasie koncertu
profesjonalne jury wyłoni
troje wykonawców, którzy
otrzymają nagrody pieniężne.
Pierwsze, drugie i trzecie miejsce.
Przewidziano także
trzy równorzędne wyróżnienia jury,
także nagrody pieniężne.
Dla reatów trzech pierwszych
miejsc zaplanowano specjalną niespodziankę
w uzgodnieniu z organizatorem
festiwalu Lions World Festival
for the Blind.
I stąd mi się tutaj urodził gdzieś ten
wątek międzynarodowy, więc
chyba wydarzenie jest po prostu polskie, ale jest
wspierane przez Lions.
Chociaż wiem, że
były kiedyś takie koncerty, chyba nawet w Krakowie
właśnie przy wsparciu Lionsów, które
były gdzieś tam bardziej międzynarodowe.
Pamiętam, że coś takiego miało miejsce
parę lat temu.
Utwory w formacie MP3 można zgłaszać
do 31 maja
2023 roku drogą
mailową
na adres
oppon.opole
małpa.gmail.com
lub na adres pocztowy
Okręg Opolski PZN
ulica Kościuszki 25
przez 1
45 063
Opole.
Wykonawca może przysłać tylko jeden utwór.
Czas trwania piosenki nie może być dłuższy
niż 5 minut.
Do nagrania należy dołączyć kserokopię,
orzeczenia o niepełnosprawności z tytułu
wzroku oraz podpisany
formularz zgłoszeniowy, który
znajduje się na stronie
jest tu podany
link. To jest
pierwsza wiadomość.
A teraz z całej Polski
przeniesionej na Opolę
przenosimy się do
Wielkopolski, bo tutaj
projekt widzimy dotykiem
i zapachem, projekt ekologiczny.
Jeżeli jesteście
miłośniczkami bądź miłośnikami
roślin, to tutaj
jest to coś dla Was, ponieważ
Okręg Wielkopolski
PZN realizuje projekt edukacji
ekologicznej widzimy dotykiem
i zapachem. Osoby lubiące
kwiaty i przyrodę mogą się
zgłaszać do udziału w tym przedsięwzięciu.
Inicjatorzy projektu zamierzają
zaangażować użytkownicy,
mi się już
wzięli za dużo chyba,
uczestników oczywiście,
w działania proekologiczne,
w tym prace związane z upiększeniem
ogrodu, który znajduje się przy siedzibie
stowarzyszenia. Wspólnie
ze specjalistami osoby z dysfunkcji
narządu wzroku wybiorą rośliny, które
pachną, mają ciekawą fakturę liści,
intensywne barwy, a może nawet
wydają dźwięki. Wspólnie
także zagospodarują przestrzeń
w ogrodzie i zaadoptują miejsce tak,
aby służyło wypoczynkowi i nauce.
Dzięki grantowi teren
okręgu w samym sercu Poznania
zupełnie się zmieni. Wśród zieleni
łatwiej będzie odpocząć po zajęciach
rehabilitacyjnych, spotkać się
i porozmawiać. Organizatorzy
zaplanowali również warsztaty, które będą
prowadzone przez ogrodników
i innych specjalistów przyrody.
Okręg zaprasza do udziału w projekcie.
Kontakt i szczegóły
w biurze.
Telefon 618
847 46
16. Powtarzam
jeszcze raz.
618
847 46
16.
Lub 17, bo
są dwa numery wewnętrzne.
No i trzeci
projekt tutaj,
który zauważyłem,
to dostrzegamy,
badamy w interesie kobiet
i tutaj
informacja jest
następująca. Już po raz piąty
Gedeon Richter organizuje
kampanię społeczną w kobiecym interesie.
W tym roku odbywa się ona pod
hasłem dostrzegamy, badamy.
Polski Związek Niewidomych po raz kolejny
objął patronatem tę inicjatywę.
Według danych Głównego Urzędu Statystycznego
w Polsce jest około 5,5
miliona kobiet w wieku senioralnym,
a z uwagi na
żyjące się społeczeństwo
do 2050
roku będą one stanowiły
22,2%
ogólnej ludności kraju.
Niezależnie od wieku.
Z tego powodu
Gedeon Richter
w tym roku
szczególną uwagą obdarza
kobiety po 59 roku
życia, w tym te z niepełnosprawnościami.
Stają się one niewidzialne
na wielu płaszczyznach i sukcesywnie wycofują
się z istotnych obszarów swojego
życia, m.in. znikając z gabinetów
ginekologicznych.
Organizatorom zależy na pokazaniu, że
potrzeba dbania o zdrowie nie powinna znikać
wraz z wiekiem. Co więcej,
zalecenia Polskiego Towarzystwa Ginekologów
i Położników wskazują
m.in. na zasadność wykonania
wymazu cytologicznego
minimum co 3 lata, a testu
na HPV
raz na 5 lat.
Mobilny
gabinet już jest stosowany do potrzeb
każdej kobiety. Mobilny gabinet
ginekologiczny jest dostosowany do potrzeb
osób z niepełnosprawnościami.
Będzie można w nim bezpłatnie wykonać
badanie ginekologiczne.
Usługa dotyczy
m.in. badania
fizykalnego, cytologicznego
USG, a także
wykonania testu na obecność wirusa
HPV.
W tym roku pojazd odwiedzi
8 miast w 3 województwach
łódzkim, lubuskim i
zachodniopomorskim, poniżej
harmonogram trasy
gabinetu.
Łódź 27 maja,
Zduńska Wola 28 maja,
Zielona Góra 2 czerwca,
Międzyrzecz
3 czerwca,
Strzelce Krajeńskie 4 czerwca,
Szczecin 9 czerwca,
Świnoujście 10 czerwca,
Międzyzdroje
11 czerwca.
O jakość i komfort każdego badania
będzie dbał nie tylko lekarz specjalista,
lecz także przeszkolony personel medyczny.
Dodatkowo wyposażenie
medyczne gabinetu
będzie oferowało,
poza odpowiednią przestrzenią
manewrową, następujące udogodnienia.
Podnośnik i wózek
rehabilitacyjny, tłumacz
online polski
język migowy, dostęp do
aplikacji transkrypcja na żywo,
dostęp do aplikacji przekształcającej
tekst na mowę, materiały kampanijne
oraz dokumenty
zaadaptowane do potrzeb osób słabo
widzących.
Na badania mogą zapisać się
wszystkie kobiety ze szczególnym uwzględnieniem
kobiet powyżej
29 roku życia,
bez względu na miejsce zamieszkania,
narodowość czy stopień niepełnosprawności.
Wymogiem jest posiadanie ze sobą dowodu
osobistego lub paszportu.
Zapisy będą odbywały się dwutorowo.
Pacjentki bez
orzeczenia o niepełnosprawności mogą zapisać się
na wizytę osobiście
w dniu badania na miejscu.
Pacjentki z niepełnosprawnościami oraz
w wieku 59+, mogą
umawiać się na badania
pod numerem telefonu
45
285
2886
Raz jeszcze numer
45
285
2886
lub adresem mailowym
zapisy
małpawkobiecyminteresie.pl
Konieczne podanie
numeru legitymacji osoby
niepełnosprawnej. No i to
wszystko jeśli chodzi o newsy
Polskiego Związku Niewidomych na
ten tydzień. A tymczasem
mamy słuchacza na
łączach. Wojtek jest z nami.
Witamy.
Słuchajcie, nie wiem czy już słychać.
Słychać.
Włączę oryginalny
dźwięk, bo skoro tak
ewangelizuje wszystkich, to może sam go
włączę.
I od razu lepiej.
Słuchajcie, ja
nie wiem czy właściwie
a propos rechy dzwonię, czy też
tej konferencji
ICM
jeśli
ja nie wiem jak to jest, czy te
linki na zoomie do tej konferencji, one
są jakoś publicznie dostępne,
ale będę
tłumaczył tam jutro
ustnie, więc jeżeli
ktoś ma dostęp do tych linków,
a nie wiem, nie mam takiej informacji
od organizatorów, czy to można udostępniać,
to sesja druga.
Będę tłumaczył z koleżanką,
naszą studentką,
wybitną osobą też
z naszego środowiska,
świetną tłumaczką, także polecam.
Sesja druga będą
to
wykłady dotyczące orientacji przestrzennej.
Także myślę,
że coś ciekawego dla nas
wszystkich i pożytecznego.
To jest sprawa
pierwsza.
Ja też przysłuchuję się temu raczej zdalnie,
bo za dużo mam pracy niestety,
żeby tam chodzić,
ale jest to ciekawe
doświadczenie i mam też
takie wrażenie, że nie wiem jak
Wy to postrzegacie, ale
od strony właśnie
tłumaczy, to wydaje mi się,
że to się trochę profesjonalizuje
organizacyjnie.
Idzie ku lepszemu, także to jest bardzo dobra
wiadomość. Pan, z którym mamy
kontakt, jest po prostu
świetnym specjalistą
i mogę tylko dobre rzeczy
powiedzieć na jego temat, także
oby tak dalej.
Cieszę się, że to tak będzie.
Nawet usiłuję go zarazić
właśnie ideologią Original Sound.
Zobaczymy, czy jutro się
to uda, więc to też kolejny powód,
żeby odwiedzić, jeśli ktoś może,
naszą sesję.
No my akurat w Tyfloradiu
transmitowaliśmy piątą
sesję, ale całkiem możliwe, że się
na drugą przerzucimy
jutro.
I to też muszę przyznać, że jak
tak podsłuchiwałem to, co tam się działo,
żeby mniej więcej monitorować, kiedy
tam są jakie przerwy, kiedy
coś się dzieje,
no to rzeczywiście te tłumaczenia
były naprawdę całkiem zwarte, całkiem
płynnie to wszystko szło.
Znaczy ja tutaj nie oceniam koleżanek
i kolegów, którzy to
robią, bo… Ale i pod względem jakości
dźwięku też, no Original Sound nie było,
ale nie było jakichś, czy
przesterów, czy innych rzeczy
tego typu.
No u nas na pewno będzie, także
wydaje mi się, że też jest to dobrze, tak dość
organizacyjnie zrobione, tam wszystko jest
powpinane jak trzeba, no tylko trzeba
jeszcze ten jeden przycisk kliknąć
i myślę, że będzie jeszcze lepiej.
Zobaczymy, czy to się uda.
Miejmy nadzieję,
że tak. To jest
sprawa dotycząca
rechy, ale jestem strasznie dumny,
zadowolony, że będę mógł pracować
właśnie z młodszą koleżanką, też
osobą z naszego środowiska,
która jest naprawdę
świetną, obiecującą tłumaczką,
także fajnie. Myślę, że to
jest dobra też okazja i
no jestem absolutnie przekonany, że
sobie świetnie dziewczyna poradzi.
Także bardzo fajne,
bardzo fajne ten… Natomiast z taką
prośbą może o poradę dzwonię do
Was, a mianowicie
czy macie jakiś
model karty dźwiękowej,
ale może nie takiego szerokiego,
dużego interfejsu audio,
gdzieś do szafy rakowej, tylko właśnie czegoś takiego
bardziej przenośnego,
co można by było sobie wpiąć
w USB, najlepiej C, ale jeśli
nie, to A i
nagrywać po line-inie,
najlepiej ze dwa kanały nawet
po line-inie. Do czego mi
to jest potrzebne? Otóż
w pracy tłumacza chciałbym
mieć taką możliwość, żeby nagrywać
to, co tłumaczę
na komputer, oczywiście ze zgodą
tych tam osób, które tłumaczę,
albo wręcz nawet,
jeśli nie nagrywać, tylko
puszczać to na rozpoznawanie mowy.
Bo to jest teraz taki nowoczesny
trend, że tekst, który
tłumaczymy, też się daje
na rozpoznawanie mowy
i wtedy jakby tłumacz ma do dyspozycji
nie tylko wersję tę ustną,
lecz także tę wersję
pisaną i dlatego poszukuję takiego
rozwiązania. Czy macie coś
może do polecenia?
To kart z wejścia liniowym
jest bardzo dużo
i to w naprawdę tanich
kosztach, zwłaszcza, że chcesz
tego używać głównie do
do jakichś właśnie rzeczy
w rodzaju rozpoznawania mowy.
Jak rozumiem, tu potrzebne by były
tak naprawdę dwie karty, bo tu
chcesz dwa sygnały pobierać, tak?
Niezależnie od siebie.
Jeszcze tego nie wiem.
Jeszcze tego nie wiem, jaka będzie potrzeba.
Myślę, że nawet jeden mi starczy na ten czas,
bo widzę, że są jakieś dla graczy.
To tanie karty dźwiękowe.
Tania karta dźwiękowa to może być nawet i za 3 zł.
Tak naprawdę.
Dokładnie.
Wewniąż tego mikrofon jakikolwiek
i to rozpoznawanie mowy ci tam zadziała
z reguły.
Natomiast, jeżeli chcesz mieć coś
wygodne, to są mikrofony za, nie wiem,
200-300 zł, bezśrodowe, malutkie,
bezśrodowe, wpinasz sobie
mikrofon, wpinasz sobie w USB-C
taki, powiedzmy, dongielek
i tym…
i to po prostu
nagrywa. Więc
możesz po prostu…
Tylko jedna rzecz, czy to ma być
mikrofon, czy to mają być…
czy ty tę kartę chcesz jakby dopiąć do jakiegoś
innego, większego systemu.
Ja chcę do pulpitu tłumacza dopiąć.
Dlatego mówię, że to musi być…
No to jak tak, to cokolwiek.
Cokolwiek.
Cokolwiek, co ma wejście liniowe
w każdym sklepie, nie wiem, muzycznym, bo tam…
albo muzy…
bo te karty za 3 zł, nie wiem, czy będą miały
wejście liniowe. Tam nieraz jest
opisane jako wejście mikrofonowe, to trzeba ściszać.
Tak, to tam czasami się pojawiają
problemy z przesterem.
Taka karta, chyba najtańsza
w sklepie muzycznym, to jest tam 150 pewnie
złotych, czy coś koło tego, tak myślę.
Jakiś Behringer.
I to na pewno starczy, bo wejść, bo
rejestrowanie sygnału stereofonicznego
liniowego, który nie musi być
w jakiejś super jakości,
to jest w tym momencie zadanie
śmiesznie proste.
Kart za 5 zł tego typu
nie ma tylko dlatego, że
prawie nikt tego nie chce.
To jest jedyny powód, dla którego tego nie ma.
No tak.
No dobra, czyli szukać
po prostu kart z wejściem liniowym,
właściwie byle jaką znajdę, to…
Tak, to powinno się
udać. No myślę, że tak.
Super, to bardzo Wam dziękuję.
To chyba ode mnie wszystko.
Tak myślę sobie,
czy coś jeszcze mam na dzisiaj?
Ech, panie, panie.
Także dziękuję Wam bardzo
i wiemy, że nas słuchają
studenci, wiem, że się zbliża
sesja, także…
Jest na przykład taka karta
Medi…
Nie Mediatek.
O Jezu, jak to się nazywa?
Ta firma.
Unitek. Jest Y248.
To jest karta na USB-C.
Ma wejść się
no niby mikrofonowo, ale tam jest sygnał
dość słaby, więc to myślę, że
liniowy sygnał, tam bywsze, tam jest
mały jack stereo.
Więc…
I to kosztuje chyba z 50 zł, czy jakoś tak.
I to jest po prostu karta, która ma
to jest w wielkości takiego
no dużego pendrive’a metalowego.
Od niego odchodzi ze 20 cm kabla
coś grubego.
Jest na końcu USB-C.
No i tyle.
No i to chyba starczy.
W przyszłym tygodniu coś będę tłumaczył, to
już pewnie nie zdążę tego zamówić,
ale to jest
bardzo ciekawe są w ogóle te możliwości
takiego nowoczesnego
tłumaczenia, no i zobaczymy,
jak to wyjdzie.
I na koniec jeszcze chciałem Wam powiedzieć jedną rzecz,
a mianowicie to, że kiedyś
obiecałem, czy też powiedziałem, że
zobaczycie, że kiedyś będą pisali
o Tyflo podcaście
w czasopismach czy publikacjach
naukowych. Otóż chcę powiedzieć, że właśnie
skończyłem pisać taki artykuł. Będzie taka
publikacja naukowa jeszcze prawdopodobnie
w tym roku wydana,
gdzie opisuję moje doświadczenia właśnie
z nauczaniem tłumaczenia w czasie pandemii
i bardzo często się powołuję na
współpracę z Wami
przy…
no przy tym wszystkim, co się wydarzyło.
No to fantastycznie.
Co ciekawe, właśnie ja sobie bardzo
miło wspominam współpracę z
Platformą Big Blue Button
i ona się dalej rozwija
i jest dalej taka dostępnościowo
w awangardzie
i ma też jakiś moduł do tłumaczeń ustnych.
To nie testowałem
tego, ale wiem, że coś takiego jest.
Natomiast ja wtedy
w dwudziestym roku to sporo
tam robiłem i takich konferencji właśnie
z gośćmi z zagranicy, no bo
jak był lockdown, no to w sumie czy dwie
zagranice, czy dwa tysiące
kilometrów dalej, to nie miało żadnego
znaczenia. Zachowałem
sobie te nagrania, ale niestety ich nie ściągnąłem
i okazało się, że Uniwersytet skasował
tę platformę z nagraniami
z powodu RODO.
Także niestety mi się nagrania nie wyrzucą,
ale
czego się nauczyliśmy przez ten czas
to nasze, myślę.
Także tym
optymistycznym akcentem się
żegnam z Wami i życzę miłego
radzenia audycji.
Dzięki, do usłyszenia, pozdrawiamy.
To w takim razie
wracamy do newsów
i
coś mi tu uciekło, ale już
chyba jestem.
Dzień otwarty
w Centrum dla Niewidomych
i Słowodzących nad Nieskiej,
czyli Kraków.
Tak jest, to ja akurat mam
te informacje, która
do mnie, że tak powiem, prosto
ze źródła doszła
i to ogłoszenie
jest następującej treści.
Dyrekcja i grono pedagogiczne
zespołu szkół i placówek
pod nazwą Centrum
dla Niewidomych i Słowodzących
w Krakowie serdecznie zaprasza
dzieci i młodzież
z niepełnosprawnością narządu wzroku
wraz z rodzicami na dzień
otwarty. To będzie
miało miejsce to wydarzenie
3 czerwca
w godzinach od 9 do
13. W tym dniu
zaprezentujemy Państwu nasze szkoły
i zawody, w których kształcimy
różne rodzaje zajęć
rewalidacyjnych, internat
oraz ofertę szkoły muzycznej.
Będzie możliwość skorzystania z konsultacji
ze specjalistami oraz
rozmów w sprawie rekrutacji.
I tu obowiązują
zapisy, a zapisy
można realizować pod numerem telefonu
12
267
44 20
powtórzę jeszcze raz
12 267
44
20
i tu jeszcze jest opis
instytucji.
Jesteśmy największą placówką w województwie
małopolskim kształcącą
osoby niewidome i słabowidzące.
Mieścimy się blisko centrum miasta
przy ulicy Tynieckiej 6
w Krakowie. Obejmujemy edukacją
i rewalidacją dzieci oraz
młodzież od urodzenia
do 24 roku życia.
Jeśli znają Państwo osoby,
które mogą być zainteresowane
edukacją w naszym centrum
prosimy o przekazanie im
tej informacji. Więcej
o naszej działalności znajdziecie Państwo
na profilu facebookowym
ten profil
nazywa się Tyniecka
nasze sprawy.
I na sam koniec
do zobaczenia, a zatem do zobaczenia
jeżeli ktoś z Małopolski albo
okolic jest zainteresowany
właśnie tym, co dzieje się w ośrodku
na Tynieckiej, no to myślę, że
warto skorzystać.
A teraz
nowości
od, nie wiem, pewnie RIN
to się chyba tak czyta, o tym chyba nawet mówiliśmy
już kilkukrotnie, czyli ta
Multiplatform
Właśnie, czyli ten wieloplatformowy
dostęp zdalny
dla niewidomych
i tak dalej, to ma nowe abonamenty
Tak, ma nową opcję
abonamentową, bo jak wiemy tych abonamentów
tam jest trochę, one do tanich nie należą
bynajmniej
ale
opcje były tam różne
włącznie z tym, że jakieś na godziny
wykupowanie tego na 24 godziny
coś tam
no ale teraz jest nowa, nowy
pakiet, pakiet, który się nazywa
Personal Community Support, czyli do użytku
ewidentnie osobistego, do pomagania
osobom
w naszej jakby bezpośredniej społeczności, czyli
gdzieś rodzina, znajomi, sąsiedzi
i tak dalej
i właśnie takim osobom jest to
dedykowane. Pakiet zawiera
oprócz tego pół godziny, które każdy ma
do użytku darmowego dziennie
3 godziny dziennie
czyli w sumie mamy 3,5 godziny
dziennie dostępu
nie mamy w tym pakiecie
dostępu do
nienadzorowanego
do maszyn
czyli nie możemy tego używać do gdzieś tam
logowania się nagle do komputera, którego
używamy w domu do czegoś tam
z poziomu komputera drugiego
gdzieś w trasie, czy gdzie indziej
to zawsze musi być zainicjowane przez człowieka
z jednej i z drugiej strony
i też te godziny nie przechodzą
na następny dzień, czyli jeżeli tych 3 godzin
dziennie nie wykorzystamy, no to po prostu nam
zapadają i
tego typu pakiet kosztuje 150 dolarów
była promocja w dniu
właśnie świadomości o dostępności, czyli
w zeszły czwartek, że można było
kupić ten pakiet za 100 dolarów
i jeżeli nie anulowaliśmy subskrypcji
no to już te 100 dolarów nam
zostawało potem z roku na rok
no ale
tutaj
mamy właśnie 150 dolarów
ostatecznie
no czy to jest cena
warta
tego produktu
zważywszy na to, że
Windows nie będzie
nam wyrzucał żadnych dziwnych
komunikatów, tylko program się po prostu
otworzy, na przykład
co nie jest bez znaczenia, jeżeli osobie
mało technicznej udzielamy wsparcia
albo że po prostu się uruchomi NVDA na komputerze
osoby widzące
i będziemy mieli od razu dostęp
no nie wiem, myślę, że
warto to
po prostu sobie samemu
rozważyć
aktualnie po przeliczniku
dzisiejszym 150 dolarów to
no blisko 630 zł
nie wiem, czy to się nie opłaca
bardziej sobie na przykład, nie wiem, bo tam też można
godzinę doładować sobie, nie wiem,
godzina kosztowała 25 dolarów
jakoś tak sobie doładować sobie, to leży
na koncie, jeśli faktycznie tak sporadycznie
pomagamy, to nie wiem, czy to się nie
opłaca bardziej. Prawdopodobnie, tak
zależy od
ostatliwości używania,
bo po tej cenie byśmy
pewnie
kupili 6 godzin
no to mamy 6
to jest za cenę 6 godzin
to mamy 3 godziny
bez limitu, to wszystko zależy od
tego, znaczy codziennie,
zależy od tego prawdopodobnie jak często
komuś tam pomagamy
no ale taki pakiet jest
powstał, więc
jeżeli ktoś ma ochotę, to można z tego
skorzystać.
I
kolejny news
nowości
dostępnościowe od Google tym razem
Tak, no bo
Apple swoje nowości ogłosiło
2 dni przed Dniem
Oświadomości o Dostępności
Google miało Google I.O., które było
dzień przed i tak się
trochę odwołam do tego, co chyba ty Pawle
powiedziałeś, że tak zastanawialiśmy się
bo ta konferencja była tyle o
AI, a np. nic nie było wspomniane
kompletnie o np. aplikacji
Lookout, która mogłaby dostać funkcje
podobne do Be My Eyes, no zgadnijcie
co Google ogłosiło
właśnie w ten dzień dostępności
no właśnie coś takiego, m.in.
właśnie
No? Coś?
No nie, dokładnie, potwierdziłem tylko
tryb Q&A chyba nazywa się
Tak, dokładnie, to jest właśnie tryb Q&A
mamy nawet taki bardzo
szczegółowo opisany
zrzut ekranu jak to ma wyglądać
bo mamy przedstawione zdjęcie
pieska, który
sobie gdzieś biegnie po plaży
z jakąś piłeczką
w pysku, no i
jakaś osoba jest
po prostu opisana
na zdjęciu widzę pieska, który
biegnie po piasku
w tle widzę, że trzyma
w pysku piłkę
w tle widać wodę
i jakieś góry
i niebo
no i jest pod spodem interfejz
gdzie można
zadawać pytania zarówno poprzez
pisanie jak i dyktowanie
tutaj osoba zapytała się czy
ten pies wygląda tak jakby się bawił dobrze
no i zrzuszająca inteligencja
odpowiada, że tak jak najbardziej
tak wygląda
tutaj to jest oparte na jakimś
właśnie systemie, który został stworzony
przez ten zespół
Google DeepMind
no i bardzo podobnie jak w Vimai
pewnie będzie można więcej pytań zadawać
będzie można oczywiście
robić zdjęcie telefonem
lub udostępniać z innych aplikacji
więc tutaj podobnie jak w Vimai
będziemy mogli sobie te zdjęcia też
z innych miejsc importować
fajnie, że takie rzeczy
powstają, no to właśnie
zastanawialiśmy się czemu Google
czegoś takiego nie dostał, no okazuje się
że dostanie
na razie to jest testowane
na małej grupie osób, konkretnie
ta grupa została gdzieś
zkompletowana przez
brytyjski RNIB
możemy mieć nadzieję, że za jakiś czas to się
gdzieś w innych miejscach
zacznie pojawiać, no ciekawe jak z Polską
bo tutaj z tymi różnymi
planami Google
i AI no to jakoś
jest różnie, no ale
na pewno jeśli to się pokaże to
myślę, że ta funkcja będzie całkiem
przydatna, zobaczymy
jak to sobie będzie dobrze radzić w porównaniu
z Be My Eyes’em, który oczywiście
jak już wspominaliśmy też podobną
funkcję tylko tutaj opartą o modele
OpenAI, czata GPT
dostanie tutaj jest ten model
googlowski, ale to
nie wszystko co zostało ogłoszone
z okazji Dnia
Dostępności, między innymi
na mapach Google
od 2020 roku
już można było zaznaczać na tych mapach
miejsca, które są
dostępne, tutaj głównie chodzi o to czy są
przyjazne wózkom inwalidzkim
ale żeby zobaczyć
takie miejsca
na mapach trzeba było sobie włączyć
odpowiednie ustawienie, od teraz to będzie
tak wyglądało, że wszyscy będą te
oznaczenia widzieć, więc będzie można łatwiej
sobie w mapach Google, zarówno
w aplikacji jak i na stronie
znaleźć miejsca przyjazne
wózkom inwalidzkim, więc jeśli nie wiem, jedziemy na wakacje
szukamy sobie jakiegoś fajnego
hotelu, jakiejś fajnej restauracji
może tak
zastanawiamy się gdzie pójść, no to
myślę, że to się nam może bardzo przydać
i też można zgłaszać takie miejsca
więc jeśli gdzieś jesteśmy
no i zauważyliśmy, że
jakieś miejsce jest albo nie jest
przyjazne, to można to
zgłosić taką sugestię
w aplikacji map, no i później to
gdzieś będzie dodawane
do tych
danych
tutaj też pojawiły się
w tej funkcji live caption, która
rozpoznaje tekst
z otoczenia naszego mowę i wyświetla
w tekście, no tutaj niestety
cały czas języka polskiego nie ma, tutaj
pojawiły się nowe języki, tutaj głównie
chodzi o niemiecki na
nowych urządzeniach, ale
na przykład
coś, co nam się mogą przydać
będzie
w Wear OS 4
nie wiem co to dokładnie oznacza, ale
Google napisało, że w Wear OS 4
który niebawem ma się ukazać
pojawi się nowe doświadczenie
text to speech, które ma być
szybsze i
bardziej stabilne, nie wiem jak to
z tymi zegarkami Wear OS było
czy tam faktycznie ta mowa była jakaś
powolna, czy jakieś były
dość mało responsywny był ten talkback
na tych Wear OSach
no to tutaj jest powiedziane, że w Wear OS 4
to ma przyspieszyć, no to fajnie
miejmy nadzieję, że faktycznie tak będzie
bo jednak no użytkownicy telefonów
z Androidami
jeśli chcą kupić jakiś inteligentny
zegarek, no to tak naprawdę to oprócz
właśnie zegarków z Wear OS nie mają
innych opcji
a jeszcze
doszło kilka nowości do przeglądarki
Chrome, po pierwsze
to już jest dostępne w wersji komputerowej
ale jeszcze nie
w wersji mobilnej, ale to się pojawi
przeglądarka
będzie w stanie poprawiać nam
błędy w wpisowanym adresie
więc tutaj pewnie też jakieś
nie wiem, sugestie, sztuczna inteligencja
będzie wystosowana
więc gdybyśmy chcieli wejść nie wiem
w teflopodcast.net ale wpiszemy
niechcący NER czy jakąś literę
obok, może jakąś inną
no to przeglądarka Chrome powinna być
w stanie nam to
automatycznie poprawić
tutaj też jest
no tutaj jest powiedziane, że to
pomaga osobom, które mogą mieć dyslekcję
uczą się nowych języków
no ale po prostu też tym
którzy czasami robią jakieś literówki
w adresach, no to myślę, że każdemu z nas
chociaż raz coś takiego
się
zdarzyło
a też co ciekawe jest tutaj informacja, że
w
Chromie na Androidzie
użytkownicy Dogwaga dostali
nowy interfejs z zarządzaniami
zakładkami, który to jest
siatka i tutaj możemy też sobie grupować
te zakładki, tak jak w iOSie też Safari
ma takie funkcje, można je jakoś
grupować
a ponoć
wcześniej to było tak, że mimo to, że
osoby widzące miały
ten interfejs taki bardziej zaawansowany
no to jeśli używaliśmy
Chroma z włączonym Dogpackiem, no to
ta lista kart była
upraszczona, po prostu to była taka zwykła
lista i nie miała tych wszystkich funkcji
no a teraz już
te dwa interfejsy się
połączyły, po prostu mamy dostęp do tego
co
pozostali. No i fajnie, że tutaj
Google też ogłosiło kilka
nowości z dostępności
z dostępnością, zwłaszcza
tutaj jestem bardzo najbardziej
chyba ciekawy tego, co
jak się będzie ta aplikacja
Lookout spisywała z tymi nowymi
funkcjami, no zobaczymy
jak, jeśli będziemy już więcej też o tym
wiedzieć, może w jakichś podcastach się to pojawi, a może
ktoś z nas będzie miał
okazję przetestować, to na pewno
damy Wam znać.
Ja też dodam jeszcze, że
podobno wyszła aktualizacja
tej aplikacji, o której my tu jakiś czas
temu mówiliśmy, Paulina ją prezentowała,
czyli tryb
czytania. To jest
ta aplikacja, która bierze sobie zawartość
strony, na przykład ten artykuł jakiś
to co normalnie pokazuje się
chyba właśnie w
trybie readera
na Safari byśmy powiedzieli, albo
uproszczony
widok strony itd. I pozwala
z jednej strony na jakąś manipulację
tym w kwestii czcionki, koloru
znaczy rozmiaru i tam kontrastu
itd. Z drugiej strony
pozwala na czytanie tego tymi głosami
googlowskimi.
No i demonstrując tą opcję
wtedy ubolewaliśmy nad tym,
że to byłoby w sumie fajne,
gdyby można było albo
zablokować ekran, albo wrzucić to
gdzieś w tło i niech to sobie czyta, bo wtedy
takiej funkcji nie było. No i cóż się dzieje?
Aktualizacja wprowadza dokładnie to,
czyli odtwarzanie przy zablokowanym
ekranie i w tle. No więc teraz
ten tryb czytania chyba staje się
dużo, dużo bardziej użyteczny.
Tak mi się wydaje.
Zapewne.
To
zostajemy przy Androidzie
i komentary.
Komentary, no
dyktowanie w tym komentarium ma kilka
problemów. No i okazuje się,
że przynajmniej część z nich można
rozwiązać. Tak, bo
o tym nam mówił też nasz słuchacz Roberto.
Pojawił się błąd,
że przy aktywnym
Gboardzie nie da się
podyktować tekstu, kiedy jest
włączone GISH-ło.
No i okazuje się, że tutaj
to właśnie czeska społeczność użytkowników
ruszyła do rozwiązywania problemu.
Oczywiście z jednej strony autora
powiadomiono o tym problemie i wyszła
już wersja poprawkowa, która
próbuje ten problem zaadresować,
natomiast u części to działa,
u części to nadal nie działa.
No i czeska społeczność
podaje następujące
rozwiązanie, że aby
sprawić, żeby to działało,
należy
wejść do ustawień
GISH-ło, ustawienia mowy,
dalej podstawowe
ustawienia mowy i tam jest
opcja wyciszania chyba
dźwięku, kiedy
mówi synteza, jeżeli dobrze rozumiem
i należy tą opcję
wyłączyć, sprawdzić czy działa,
a jeżeli nie działa,
to jeszcze wyłączyć używanie głośności
dostępności i próbować tymi dwiema opcjami
żonglować, jedną wyłączyć, drugą
włączyć, jedną włączyć, drugą wyłączyć,
obie wyłączyć i zobaczyć, czy
któraś kombinacja właśnie spowoduje
to, że to dyktowanie znowu
zacznie działać, póki nie pojawi
się jakaś permanentna
poprawka, no bo wiadomo
najlepsze jest rozwiązanie problemu, a nie jego
obchodzenie, no ale póki co
jak się nie ma co się lubi, to się lubi
co się ma.
I na tym kończymy
rubrykę tech… nie,
tywlo wieści, przechodzimy
na technikaliów, no i pierwsza wiadomość,
no niezbyt wesoła, choć można się było tego
spodziewać, Netflix kończy
ze współdzieleniem kont.
Tak, już się czarne chmury
nad tym zbierały
od x czasu tak naprawdę,
bo w wielu krajach tak naprawdę
wszędzie praktycznie taki proceder
się odbywał, że po prostu znajomi sobie udostępniali
hasła, bo do tego czasu Netflix
generalnie
pozwalał na takie rzeczy, mogliśmy sobie
bodajże pięć profili możemy mieć na
koncie, no a z jakich urządzeń
logujemy się na te profile, no to już
Netflix jakoś nie interesowało,
więc można było spokojnie komuś dać hasło
i ta osoba mogła sobie
niezależnie gdzie jest oglądać
filmy i tak można było sobie taniej
gdzieś na serwisach aucyjnych np.
takie konta kupić m.in.
No, ale od jakiegoś czasu Netflix
testował różne sposoby
na to, jakiś czas temu
np. zaczęło się od tego, że dodali
funkcję łatwego przenoszenia profilów,
więc jeśli, no tutaj był taki
przykład podany, że załóżmy,
że mieszkamy z rodzicami, mamy
konto na Netflixie wspólne,
no ale my się wyprowadzamy z domu,
może zakładamy rodzinę,
druga osoba ma osobne konto
i chcemy nasz profil z naszymi rekomendacjami
przenieść sobie, no to mogliśmy to zrobić,
no ale oczywiście drugie dno
było takie właśnie, że
w przyszłości jak ktoś tak sobie
korzysta z konta innej
osoby, no ale ten dostęp
z jakiegoś powodu straci, no właśnie
po to, żeby sama ta osoba powinna
sobie opłacić ten abonament, no to i tak
może swój profil po prostu
przenieść sobie. No i w różnych
krajach były już testy
prowadzone blokowania takiego
wykorzystywania, nawet w Polsce już
osoby zaczęły dostawać oszczerzenia.
Były testy gdzieś w Hiszpanii
bodajże i chyba
w Stanach Zjednoczonych wcześniej robione,
ale dzisiaj, wczoraj był
dzisiaj już taki szerszy test,
właściwie wdrożenie
tego się zaczęło już w ponad
stu krajach, a o co chodzi?
No Netflix już zaczął
blokować dostęp do osób,
które nie mieszkają w
naszym, właśnie w naszym domu.
Jak oni to śledzą? No tutaj jest podane kilka
rzeczy, to są jakieś identyfikatory
urządzeń, adresy, IP,
jakieś algorytmy,
które mają po prostu wykryć, że ktoś
korzysta z naszego konta
bez, spoza naszego
gospodarstwa domowego.
Gdyby taka osoba
właśnie logowała się
na to konto i zostanie zablokowana,
no to mamy dwie opcje.
Pierwsza, no to już o niej wspominałem,
taka osoba może po prostu
sobie ten profil przenieść,
wykupić własny abonament, no i dalej
z usługi korzystać. Druga
opcja, to jest
uiszczenie dodatkowej opłaty
za takie dodatkowe
osoby na naszym koncie.
Ile to wynosi? W Polsce to jest
około 10 zł, to jest 9,99.
Co ciekawe, w Stanach to jest
trochę drożej, bo w Stanach
ludzie płacą około 8 dolarów,
więc tutaj wychodzi, wywchodzi troszkę
taniej, no ale czy to się będzie
ludziom opłacało?
Właśnie takim, którzy właśnie, nie wiem,
kontami handlują, no to nie wiem.
Chodzi o to, żeby to
w jakiś sposób powstrzymać.
Co ciekawe,
Netflix mówi, że pewnie na krótką
metę to spowoduje, że
faktycznie spadnie im
liczba abonentów,
ale ostatecznie mają nadzieję,
że to im pomoże jeszcze lepiej
inwestować w różne treści, że więcej osób
ostatecznie zasubskrybuje
się do tej strony.
Więc jeśli
korzystacie z takiego konta, bo znacie
kogoś, kto tak robi, no to
musicie się przygotować, że
taka blokada
może Was czekać.
Teraz dwie takie małe nowości ode mnie.
No
w zasadzie trudno powiedzieć, czy one są tyflą,
czy one nie są tyflą.
No bo tak, aplikacja
Time For Bus jest aplikacją
niededykowaną dla nas.
Oczywiście strybem dostępności,
w której producent myśli
o dostępności.
No w każdym razie Kraków
i Łask w Time For Bus
już są, z tym, że
w Krakowie warto tutaj
zaznaczyć, że w związku
z tym, że miasto Kraków
udostępnia
lokalizację pojazdów nie co 5
sekund, jak to robi na przykład
Warszawa, tylko co minutę,
no to te informacje
na temat tego, czy tam
autobus, czy tramwaj był na przystanku,
czy nie, no to powiedzmy
są takie mniej więcej aktualne.
Znaczy to jest takie
tylko no tak orientacyjnie,
że on jest mniej więcej
gdzieś między tym, a tym przystankiem,
no bo jeżeli to jest minutowe
te interwały, no to jest dość dużo.
Jak w Warszawie jest 5 sekund,
no to jest w zasadzie, no niemalże
natychmiastowa informacja.
Więc tu jest
taki problem. Kolejne miasta gdzieś tam
w drodze, także
gdzieś tam ponoć Wrocław się szykuje,
także no zobaczymy.
A druga nowość ode mnie
to jest recenzja
Zooma M2
u
Jonathana Mosena na
podcaście. Bardzo sobie
chętnie tej recenzji posłuchałem, bo to jest
bardzo ciekawe urządzenie. Znaczy w ogóle
Zoom, ta firma rejestratorów
od jakiegoś czasu bawi się,
znaczy bawi się, no robi
takie urządzenia, które nagrywają
w tak zwanym 32-bitowym
formacie. O co
chodzi w 32-bitowym formacie?
To jest format
cyfrowy, który
praktycznie rzecz biorąc nie pozwala
przesterować sygnału.
Znaczy tutaj, znaczy w tych takich klasycznych
formatach typu wave, znaczy PCM
16, 24 bity
to było tak,
że no
jakby
dźwięk
był właśnie próbkowany
z jakąś tam częstotliwością, czyli
zapisywany na poziom, zapisywany
taki chwilowy poziom głośności.
No i tam
był jakiś pewien maksymalny poziom
głośności, którego
nie dało się przekroczyć, po prostu
były same jedynki, więcej się nie dało.
Bo to trochę by było jak
robić, nie wiem, mamy
sobie jakieś urządzenie,
które ma 8 cyfr i
piszemy tam same dziewiątki, no to już większej
cyfry to urządzenie nie pokaże. No nie ma
siły na to. Więc tu jest
coś podobnego, że mamy
same jedynki, natomiast format 32-bitowy,
znaczy inaczej, formaty
typu flows, czyli formaty zmienno-przecinkowe
to jest taka
dość zawiła
to jest zawiła
pisownia pewnych liczb,
która mniej więcej mówi tyle, że ta liczba
ma ileś cyfr
i pierwsze ileś
z tych cyfr to są następujące, a potem
jest jeszcze ileś tam innych cyfr.
Więc ona jest w pewnym sensie
mniej dokładna, jeżeli mamy na przykład
8 kwadrylionów
to mało kogo interesuje, że to jest
8 kwadrylionów 4
czy tylko 8 kwadrylionów.
To jest i tak potwornie wielka liczba i w sumie to
w większości wystarczy.
Więc w Dzięku jest podobnie,
że można sobie zapisać
właśnie coś
tego rodzaju.
No i tak
do brzegu i z polskiego na nasze.
Czy to jest fajne? Tak, to jest
fajne, dlatego, że to pozwala
na zapisanie
dużo większej wartości
niż to tak zwane cyfrowe zero.
O ile większej
czytam w specyfikacji
o 1500
prawie decybeli.
Próbując
sobie tę wartość przenieść
na jakieś napięcia, na jakieś dźwięki
to po pierwsze takich dźwięków nie da się w ogóle
wygenerować. Najgłośniejszy
dźwięk jaki da się wygenerować w ziemskiej
atmosferze to 194 decybele.
Więcej się nie da fizycznie.
Co nie znaczy, że nie da się
uzyskać większych wartości energii dźwięku.
Ten słynny wybuch krakata
o którym mówią, że to ma ponad 300 decybeli
to jest energia fali uderzeniowej.
Ale jakby głośność dźwięku i tak
musiał wynosić 194 decybele
maksimum. Czy tam 196
już nie pamiętam.
Większe
natężenie dźwięku
da się generować w wodzie.
Tam chyba 273 decybele
czy coś koło tego to jest maksimum.
Niemniej
do tych wartości, które są
możliwe w tych
rejestratorach to jeszcze daleko.
Ale mówię dobrze.
To jest
taki dźwięk,
który jest słyszalny z taką
głośnością. Natomiast to wszystko zgenerowane
przecież na prąd w tych rejestratorach.
Więc próbowałem sobie obliczyć jakie to
by było napięcie.
Jak zacząłem to obliczyć
w jakimś kalkulatorze
i zacząłem wchodzić w jakieś
dziesiątki tysięcy woltów, a jeszcze
daleko przede mną było, bo ten kalkulator
się potem wysypywał.
To stwierdziłem, że dużo szybciej
ten rejestrator się spali
niż się wyczerpie w ogóle
możliwość zapisu dźwięku
w tego typu formacie.
Więc to są
absolutnie kosmiczne wartości,
które on mógłby teoretycznie
zapisać ten format.
I ciężko mi sobie wyobrazić sytuację,
w których w ogóle ten format
będzie jakkolwiek, nawet w większości
wykorzystany.
Ile to zajmuje miejsca
tak na karcie jakiejś pamięci?
Dwa razy tyle,
jak ile płyta CD.
Jeżeli godzina zapisu 16-bitowego
pliku, czyli jako CD
4416 bitów
to mniej więcej
600 mega,
to 4432 bit float
to będzie 1,2 giga.
Niby dużo.
Godzina 1 giga,
ale z drugiej strony,
po pierwsze, w tym momencie,
aż sprawdziłem niedawno,
w jakimś popularnym sklepie internetowym
ze sprzętem
komputerowym, smartfony itd.
Karta pamięci
takiej szanującej się firmy
256 giga
w tej chwili jest 100 zł.
Nie jest to może najszybsza karta,
ale z drugiej strony
256 giga to jest ponad
200 godzin nagrań.
200 godzin to jest ponad
tydzień nagrań z rzędu.
Więc nawet jeżeli to sobie
potem przerzuciłem na komputer,
to znormalizujemy sobie to w jakimś programie
jakimś DAW,
bo 32-bitowe formaty są
odtwarzane
bez żadnego problemu przez
programy typu REAPER, podejrzewam, że
Godwave zresztą też i można
właśnie na nich już
na przykład ściszyć taki plik,
nałożyć jakiś ewentualnie kompresor,
limiter, czy co tam komuś się
będzie chciało zrobić, to tak, żeby
w takim normalnym, w cudzysłowie
formacie jak MP3, FLAC
czy coś takiego, co nie obsługuje tego
flouta, żeby to się odtwarzało poprawnie,
no to potem można to
zapisać właśnie do jakiegoś FLACa, czy do czego
tam kto chce, jeżeli
ten gigabyte
na godzinę to jest za dużo.
No i w ten sposób można sobie
robić
nagrania, które są
naprawdę, no nie trzeba się martwić
o przesterowanie. No i teraz
Zoom. Wracając
już do Meritum.
Zoom ostatnio robi takie
rejestratory, które właśnie nagrywają w tym formacie.
Często są takie rejestratory
z takiej linii
takich profesjonalnych urządzeń, z serii
F. F1,
F2, F3, F4,
F6, F8 i chyba
F10. To ma
odpowiednio właśnie 1, 2, 3
kanały to nie, F3 to chyba też ma 2 kanały.
Ale są 4 kanały,
F6, F8 i największe urządzenie
ma 10 kanałów, czyli 10
jakby, no
10 mikrofonów można do niego podłączyć
albo 5, jakiś tam źródeł
dźwięku stereofonicznego.
I
M seria to są
z kolei, można powiedzieć
mikrofonów z doczepionym
rejestratorem. To znaczy to są
takie urządzenia, które mają ze 20
centymetrów długości. Ponoć wyglądają trochę jak
mikrofony, ale na tych
mikrofonach można nagrywać, do tych mikrofonów
można podłączyć słuchawki.
I to jakby jest mikrofon,
który nagrywa
właśnie w tym formacie float.
I w związku z tym, że
ten format nie ma czegoś takiego
jak przesterowanie,
to tam nie ma, w ogóle
nie ma regulacji poziomu
nagrywania. Dlatego,
że firma twierdzi,
pewnie słusznie, że
nie trzeba. Po prostu ten
mikrofon ma jakiś poziom szumów własnych, który
się ustawia tak, żeby on był
nad poziomem
szumów wynikających
z
formatu.
Natomiast w górę,
to póki się nie spali urządzenie, albo póki
mikrofon się nie zniszczy fizycznie,
to nagrywa wszystko.
Także
nie ma tam czegoś takiego jak
regulacja poziomu nagrywania, bo wszystko,
co potem trzeba będzie zrobić,
jakieś regulacje głośności, to można
zrobić na komputerze, znormalizować
ten plik.
Bardzo ciekawe dla nas,
bo tutaj też
o tym właśnie Jonathan
Mosen wspomina,
że częstym
problemem, jeżeli chodzi o nagrywanie, jest to,
że nie ma za bardzo jak
sprawdzić tego, czy nam się
odpowiednio głośno, czy tam cicho nagrywa,
jak jesteśmy na jakimś wydarzeniu
typu koncert. Jesteśmy na koncercie i w sumie
nie możemy sprawdzić,
czy nam się coś nie przesterowuje.
To tu nie ma takiej opcji.
Jeżeli mikrofon
jest w stanie
zarejestrować
takie dźwięki, jak fizycznie,
to format
to przyjmie.
I już.
Czy ma to wady to urządzenie?
Nie ma urządzenia bez wad.
Jest to duże.
To ma ze 20 cm. Po drugie, wczesne wersje
tego urządzenia, ja to też widziałem
na YouTubie, miały problem
z rejestrowaniem
różnych
dźwięków generowanych
elektronicznie, na falach
radiowych, powiedzmy.
Tego, co generuje
kuchenka mikrofalowa, routery,
jakieś komputery.
Smartfony podejrzewam,
że też.
Tam był jakiś błąd
konstrukcyjny, który powodował, że te dźwięki
wchodziły do
nagrania. Tam pewnie to jakoś
magnetycznie, czy tam jakoś nie było odizolowane.
No i Zoom twierdzi,
że nowe sztuki
zostały po pierwsze tego pozbawione,
po drugie, tym
dotychczasowym klientom została zaoferowana
możliwość wymiany tych urządzeń.
Jednak do tej pory nie ukazał
się jakiś film na
YouTube, w którym
by autor stwierdzał
dobrze, poprawiło się, jest lepiej.
Więc Jonathan z taką trochę duszą
na ramieniu kupił to urządzenie
i mówi, testujemy.
Przetestował, no i u niego
nic takiego się nie wydarzyło.
Czyli chyba rzeczywiście to poprawili.
Więc
urządzenie stwierdził, że jest
rzeczywiście fajne.
Zrobił w podcaście
całą obsługę, to znaczy
rozkład menu
tego urządzenia, tam ponagrywał
trochę różnych próbek
i tak dalej, i tak dalej.
To jest taki 50-minutowy podcast,
który sobie zresztą z ciekawości
przerzuciłem przez whispera,
spolszczyłem, bo ja się tam
nie będę ukrywał, mój angielski to jest
jakiś, choć nawet coś tam zrozumiałem
z tego podcasta. Chyba dlatego, że był
na temat, który mnie interesuje
i siłą rzeczy gdzieś tam znam
te określenia. No w każdym razie
myślę, że może być to
dosyć ciekawa propozycja.
Z drugiej strony jest to urządzenie
takie, no
mówię, że to
jest trochę jak zabawka, w sensie
wygląda, waży
jak zabawka. To jest
20×7
chyba na 8 centymetrów i to
wszystko waży 200 gram.
Więc to jest bardzo leciutkie
jak na tego typu rozmiary, więc to jest
taka zabawka rzeczywiście.
Kosztuje to
u nas około
tysiąca złotych. Jest jeszcze wersja M3
nie pamiętam czym się różni
i M4, która jest wyposażona
w przezwmacniacze tej klasy F
czyli tych już profesjonalnych urządzeń
wejścia XLR.
No i właśnie Zoom coraz więcej robi
takich urządzeń, które
korzystają z tego
formatu 32-bitowego float.
Pojawiło się
kilka tych urządzeń. Ja naprawdę
czekam z utęsknieniem
na powrót serii H, czyli tych
małych rejestratorów, które
miałyby albo mikrofon jakiś, albo najlepiej
w ogóle, ale właśnie wejście
mikrofonowe typu mały jack,
stereo i żeby nagrywały stereo
bo był taki
rejestrator, on się nazywał
H3
już nie pamiętam, nie, a może
może F, nie pamiętam.
W każdym razie było coś takiego
co kosztowało chyba 600 złotych.
Miało to 5×4 centymetry
nagrywało już w tym formacie float, miało
rejsie stereofoniczne
nawet mówiliśmy o tym w Tyflo Przeglądzie, ale
nagrywało do plików monofonicznych.
Czyli nawet jeżeli się podłączyło mikrofon
stereofoniczny, to on to
sumował i nagrywał
w mono z jakiegoś powodu.
Szkoda.
A czy w tym podcaście Tomku
Jonathan coś mówił a propos, no podejrzewam,
że mówił, ale jakbyś to mógł
tak streścić jak
z trudnością obsługi
takiego rejestratora, bo okej
on omówił tam wszystko, menu
i tak dalej, ale będąc w
sytuacji takiej, że jesteś gdzieś
chcesz wyjąć ten mikrofon
i nagrać.
I nagrać, po prostu. I mieć
pewność, że się nagrywa. Mówi, że jest
nieźle, bo tak
przyciski są dość duże
jest głoś… znaczy to urządzenie ma
głośnik i w momencie, gdy zaczniemy
nagrywanie to urządzenie może nam
zapiszczeć. I zdaje się
jeżeli dobrze zrozumiałem
ale to warto
gdzieś tam to zweryfikować, że ponowne
wciśnięcie nagrywania wstawia marker.
To znaczy nie ma takiej opcji, że wcisnę
nagrywanie po raz drugi i nagle się zrobi
stop. To jest w ogóle bolączka
wielu rejestratorów. Więc wychodzi
na… znaczy on mówi, że to jakby jest okej.
Ten rejestrator.
A no to super, bo to…
Gdyby nie to, że to jest takie rzeczywiście zrobione jak zabawka
i nie wiadomo czemu to się nie rozwali za chwilę.
No właśnie, no bo tu mogą być obawy.
Mi się Zoom Higher’em przypomina.
Świetny rejestrator, ale wygląd…
No to tu jest podobno jeszcze ciekawiej.
No Made in China total.
No i natomiast właśnie pod względem
takiej użyteczności mówi, że fajne.
I że chyba
mam takie wrażenie, że
nie żałuję tego, że zakupił.
News kolejny od Piotrka
dotyczący edycji wiadomości
na Whatsappie, bo to się
udaje. Znaczy to się chyba zaczyna
udawać. To się zaczyna udawać. Nie wiem, czy
ktoś z was już to dostał, bo ja jeszcze
u siebie nie widziałem.
Ja też nie. Ja nie mam, a patrzyłem dzisiaj.
Nie mam. No mniej więcej
właśnie pozostałe komunikatory,
jakieś iMessage ostatnio z takich
nowych dostał niedawno
taką możliwość edycji wiadomości.
No też wcześniej oczywiście Telegram, Signal
na Discordzie oczywiście.
Ale to, jak to zostało zrobione
na Whatsappie bardzo przypomina to
jak to wygląda w iMessage,
bo oczywiście
robimy to z menu kontekstowego.
Przytrzymujemy palec na wiadomości w
aplikacjach desktopowych to przepuszczam będzie
w menu kontekstowym. Mam nadzieję,
że też będzie się dało po prostu szałkę w górę
nacisnąć, bo tak też często
komunikatory na to
pozwalają. Mniej więcej
no właśnie tam znajdziemy opcję
edytuj wiadomość. Ja jeszcze tej opcji nie znalazłem.
No i jeśli nią
wyciśniemy no to możemy po prostu
sobie wiadomość tam zmienić
i wysłać jeszcze raz.
Mamy na to 15 minut,
więc tutaj tak jak w iMessage to jest na to
limit kiedy
możemy te wiadomości edytować.
I taką zedytowaną wiadomość oczywiście
ona jest odpowiednio oznaczona
z informacją kiedy ta edycja
została dokonana.
No i tutaj jest taka różnica
pomiędzy tym jak to wygląda tutaj
na Whatsappie a jak jest w iMessage, bo
w iMessage możemy sobie
otworzyć historię edycji, czy na przykład
w Mastodonie też tak jest i możemy zobaczyć
jak ta wiadomość wyglądała
wcześniej. No a na Whatsappie
jest tak, że tej historii nie ma,
tylko widzimy, że wiadomość była edytowana
i kiedy, no ale po prostu
treść to jest taka jaka
była w najnowszej
wersji tej wiadomości. No
mniej więcej Whatsapp jest
fajnie dostępny, bardzo popularny, więc
fajnie, że
taka opcja się pojawiła, no to jest powiedziane,
że ona stopniowo będzie się pokazywała
u wszystkich, no a Whatsapp
faktycznie czasami nowe
funkcje troszeczkę dłużej wypuszcza, więc to
obserwujcie swoje telefony,
czy komputery, czy tablety prędzej,
czy później tą opcję
u siebie powinniście
zobaczyć.
W ogóle mam
wrażenie, że Whatsapp coraz jakoś,
znaczy chyba się zorientowali, że te inne
komunikatory
no to mają tych funkcji coraz więcej
no i rzeczywiście sporo
tego teraz się pojawia, mam takie wrażenie,
ale zobaczymy.
Sztuczna inteligencja.
Ten temat był,
jest i będzie w Cyfroprzeglącie.
To jest ostatni
w audycji i znowu od Piotrka.
Sztuczna inteligencja
zawita do Windowsa 11.
I nie tylko, bo
tutaj mamy sezon konferencji
w dużych firm, no bo
Google właśnie
teraz był, Microsoft wczoraj,
a w przysz… nie, za dwa tygodnie
będzie Apple, więc no
te konferencje się odbywają. Tutaj
to jest konferencja Microsoft
Build, która jest generalnie kierowana
do developerów, tak jak Google
I.O. zresztą, no ale generalnie tam przy okazji
też ogłaszają dużo rzeczy,
które będą przydatne
dla wszystkich. No i tutaj też
było AI, AI, AI. Nie wiem, czy
też to słowo tyle razy padło,
bo akurat tej konferencji nie słychałem,
no ale te tematy sztucznej inteligencji
się pojawiały wiele razy.
Jest taki duży post
na blogu Windowsa,
bodajże Microsoftu, gdzie jest opisane
wszystko, co tam zostało ogłoszone. Tam
parę linków w komentarzach znajdziecie, ze
źródłami, no ale
co w tym znajdziemy? No
Microsoft nazywa te wszystkie swoje funkcje
AI Copilot, czyli taki
taki właśnie drugi
pilot, druga osoba, która nam wszędzie gdzieś
pomaga i ten Copilot się
pojawia, no najpierw się pojawił
w GitHubie, potem
się zaczął pojawiać w Edge’u,
w Office’ie, no w Edge’u właśnie też, ale to
za chwilę, ale
pojawi się również
w Windowsie 11.
To będzie coś, co będzie się nam wyswietlało
dziś z boku ekranu, na pasku zadań
no i będziemy mogli
z nim sobie rozmawiać
i w czym on nam będzie mógł pomóc?
No oczywiście będzie
mógł odpowiadać na nasze pytania,
też związane z tym, w jakiej
aplikacji akurat pracujemy, tutaj jest podany
na przykład przykład,
że chcemy skontaktować się z
jakimś znajomym, współpracownikiem,
który jest w innej strefie czasowej
i po prostu się tutaj pytamy tego Copilota,
która jest
u niego godzina, ale też będzie nam
pomógł na przykład zmieniać ustawienia
w Windowsie, czy może pewnie
przeszukiwać pliki może,
no to tak nie było powiedziane, ale no właśnie
zmiany ustawień, może otwieranie
jakichś aplikacji, innych rzeczy.
Co ciekawe, tego Copilota
będzie można rozszerzać
i to jest zrobione
w całkiem fajny sposób, bo
to będzie korzystało z tych samych wtyczek, co
Bing i sam czat GPT.
Więc tutaj można mieć nadzieję, że
jednak chyba trochę
firmie zainteresowanych na
rozszerzanie tego czata GPT
wtyczkami, no to
dzięki temu też te funkcje w Windowsie
też będą mogły gdzieś
pozyskiwać informacje z internetu,
z różnych źródeł, no i też coś
z nimi
jeszcze robić. Testy tego
się mają rozpocząć w czerwcu, pewnie w tym
programie Insiderów
w tych niejawnych testach.
Czy na całym świecie? Nie wiem. Bardzo
możliwe, że to się najpierw gdzieś zacznie od Stanów,
no ale akurat myślę, że tutaj
to ma… Kto wie, czy to
nie trafi do Europy szybciej niż
Google Warty, tak swoją drogą.
Ale to nie jedyne miejsce,
gdzie ten GoPilot się pojawi,
jak wspominałem, bo
pojawi się również w Edge’u
i tu jest to skierowane pod
Microsoft 365,
czyli dawniej Microsoft Office.
No i tutaj
zamiar jest taki, to też będzie się
pojawiało z boku okna
w Edge’u. Będziemy mogli go
wywołać na każdej stronie
no i poprosić na przykład, żeby nam
naszą jakąś
rejestrację uzupełnił, na przykład gdzieś, nie wiem, szykujemy
się na jakieś spotkanie
z klientem. Jesteśmy
na ich stronie, szykujemy sobie
jakieś notatki, możemy go poprosić,
żeby nam po prostu streścił tą stronę,
co ta firma dokładnie robi, jakieś najważniejsze
informacje zapisał do notatek
naszych gdzieś
w Worldzie.
Kolejne miejsce, gdzie się pojawi GoPilot
to jest aplikacja Windows Terminal,
czyli wiersz polecej. No i tutaj też
myślę całkiem fajna sprawa,
będziemy mogli go zapytać
na przykład, co oznacza
jakiś błąd, który nam się wyświetlił, albo
chcemy jakąś
skomplikowaną aplikację odpalić,
nie pamiętamy składni, więc możemy poprosić,
żeby za nas nam
tą składnię przygotował, albo napisał
jakiś skrypt. Myślę, że akurat w Terminalu
takie coś całkiem się
może przydać.
Tutaj też taka informacja,
to było bardziej pod
deweloperów, ale myślę, że to może mieć dla nas
znaczenie, bo Microsoft zaczęło otworzyć
takie API, platformę,
która będzie pozwalała
deweloperom pisać modele ML.
No, czyli tutaj może być wszystko, jakieś
otrzymanie dźwięku, jakaś synteza mowy,
właśnie jakieś
przetwarzanie tekstu,
różne rzeczy.
I to API jest bardzo elastyczne,
bo pozwala programistom
zdecydować, czy
taki model ma się uruchomić
na procesorze, na karcie
publicznej, czy w chmurze.
To się może wszystko odbywać automatycznie, więc
aplikacja może wykryć, czy nasz
komputer jest na tyle mocny, że
może też odpalić lokalnie, jeśli nie, to gdzieś przekaże
to do chmury.
Co ciekawe, też te
modele mogą być łatwo kompilowane
na wiele platform,
bo to nie jest tylko Windows 11, ale na przykład
też iOS i Android, więc
tutaj znacznie
może ułatwić pracę programistom,
więc tego o tym wspomniałem.
A propos programistów,
pojawi się
aplikacja DevHome
i to jest, można powiedzieć, takie
centrum dowodzenia dla programistów,
bo będziemy mogli
z jej poziomu łatwo sobie zainstalować nasze
środowisko, tam zapisać, z jakich narzędzi
korzystamy, w jakich językach piszemy i to nam
po prostu wszystko odpowiednio ściągnie i skonfiguruje.
Możemy
sobie tworzyć jakieś specjalne
woluminy
z systemem plików takim,
który jest bardziej zoptymalizowany pod kod źródłowy.
Możemy mieć szybki
dostęp do naszych projektów, w których bierzemy
udział w GitHubie, więc taka aplikacja, która
właśnie będzie stanowiła takie
centrum dowodzenia. Co ciekawe,
ta aplikacja jest otwarto źródłowa,
ona już jest do podania
w sklepie dla
użytkowników Windowsa 11,
ale jej kod jest też na GitHubie, więc
tutaj sami programiści będą mieli
wkład
w jej rozwój.
Teraz kilka takich
informacji o samym Windowsie 11,
co nam się nowego może pojawić.
Będziemy mogli
ubijać aplikację z paska
zadań z menu kontekstowego,
więc jeśli coś nam się zawiesi,
zamiast wchodzić do menadżera
zadań, będziemy też mogli sobie po prostu
przejść na pasek zadań, otworzyć
menu na danej aplikacji, tam
będzie opcja zakończ zadanie
i w ten sposób to zrobić.
Przepuszczam, że to będzie trzeba gdzieś włączyć
w jakichś opcjach programistów,
ale to się może przydać.
Co jeszcze się może
przydać? Wsparcie dla różnych
typów plików skompresowanych,
no bo Windows tak naprawdę
to od lat, kiedy
te foldery skompresowane doszły, to tylko
wspierał pliki zip.
Teraz dzięki
bibliotece otwarto-źródłowej
będzie też mógł
otwierać inne pliki, takie jak
7zip, rary,
rgz, no takie wszystkie
najbardziej popularne archiwa,
więc jeśli ktoś nie planuje
takich rzeczy kompresować,
no to nie będzie musiał
sobie jakiejś aplikacji ściągać, ale
przepuszczam, że warto
jeszcze mimo wszystko na przykład takiego
7zipa jednak sobie ściągnąć.
Ale jak chcemy komuś pomóc, kto
generalnie nie pracuje z takimi plikami,
to będziemy mogli to
zrobić na
samym Windowsie.
Sam eksplorator w ogóle będzie
bardziej przebudowany. To główne
okienko w widoku folderów będzie
przeprojektowane w najnowszym WinUI.
Teraz nie pamiętam, czy to jest WinUI
2 czy 3.
Generalnie to ma być bardziej współczesne.
Z jednej strony
eksplorator ostatnio zwolnił,
więc jest to taka trochę toporna aplikacja.
Z drugiej strony zastanawiam się, czy to
będzie tak samo dostępne jak
eksplorator w tym momencie, bo
z obsługą współczesnych aplikacji
to ostatnio było różnie.
To się da zrobić, ale czasami to
wymaga więcej
naciskania taba i
takich operacji, więc mam nadzieję, że to
ostatecznie jednak spowoduje, że ta
aplikacja po prostu przyspieszy.
Myślę, że tego się
możemy trzymać.
Microsoft też tutaj
potwierdził, że zależy im
na procesorach ARM.
To jest przyszłość.
Komputery Apple już przeszły na
tę platformę i tutaj były bardzo fajne
tego efekty. Oczywiście smartfony
to już od długiego czasu
z tych procesorów korzystają.
No i
tutaj zwracają uwagę, że dla
programistów jest coraz więcej
bibliotek dostępnych, w których często się pisze
takie aplikacje.
Na przykład język programowania Python,
MVDA na przykład w Pythonie
powstaje. Qt to jest
taki system do tworzenia
interfejsów. Tutaj dużo aplikacji
w Qt powstaje. TeamTalk na przykład.
Unity. No to
w Unity znów dużo gier powstaje.
Na przykład Hearthstone. Więc
to są takie bardzo popularne biblioteki.
To może spowodować, że więcej aplikacji
będzie powstawało natywnie na
Windowsie pod
procesory ARM.
Zwracają też uwagę na to, że
wychodzi coraz
więcej aplikacji od partnerów, które już są
skomplikowane pod ARM. I tutaj taka ciekawostka.
Zostałem, bo się
wyskoczyłem. Bo oprócz
aplikacji takich jak
Brave, czyli ta przeglądarka internetowa,
Zoom, na którym rozmawiamy akurat,
LibreOffice, był wymieniony
JAWS. Więc tutaj chyba Microsoft
próbuje pokazać, że
komputery z procesorami
ARM z Windowsem
jak najbardziej nadają się do
pracy. Miejmy nadzieję, że
wyjdą następne komputery
wyposażone w takie
procesory, które będą bardziej zbliżone do
wydajności
procesorów M1 czy M2, bo tam
mimo wszystko na razie
cały czas jest dosyć duża przepaść.
No mniej jednak
właśnie nawet w takich zastosowaniach
wirtualizacyjnych, jak ktoś z tego
Windowsa korzysta na Macu, a od
jakiegoś czasu trzeba też powiedzieć, że
Microsoft uznaje wirtualizację
przynajmniej przez Parallels
jako takie
coś, co jest dozwolone.
Więc no to się raczej
nie będzie miała prawa
już zepsuć, bo wcześniej to mogło
w każdej chwili coś pójść nie tak, bo
aplikacja instalowała wersje
insiderskie. Teraz to już
są stabilne wersje Windowsa.
No to fajnie, że coraz więcej aplikacji
natywnych na ARM
powstaje.
I na koniec coś, co
też już od jakiegoś
czasu jest na Macach i na iPhonach
może bardziej właśnie na urządzeniach mobilnych,
to
odwracanie kopii zapasowych
z chmury. W Windowsie 11
też coś takiego się pojawi,
natomiast na razie
niestety to tylko będzie
dotyczyło aplikacji
ze sklepu Microsoft, więc jeśli
sobie postawimy
komputer od nowa, zalogujemy się na nasze
konta, no to poza tym, że
po prostu Windows nam ściągnie
te wszystkie aplikacje, które mieliśmy
wcześniej zainstalowane,
to będzie też
zainstalowanie ich ustawienia
i jakieś dane też nam zaimportować.
Czy to kiedyś przyjdzie do innych
aplikacji spoza sklepu?
Nie wiem, no na pewno to byłoby trudniejsze,
więc na razie zaczęli
od tego.
I to już też insiderzy
mogą testować.
No i to są takie, wydaje mi się,
najważniejsze informacje, o których
dowiedzieliśmy się
z konferencji Microsoft Build.
No dobra,
już chyba mnie słychać.
Słychać.
No i to chyba
wszystko, jeżeli chodzi o
nasze notatki przynajmniej.
Czy coś się urodziło w trakcie
audycji? Bo u mnie na przykład nic.
I u was chyba też nic.
W związku z powyższym,
no nie pozostaje
chyba nic innego, jak się pożegnać
i przypomnieć, że
w dzisiejszej audycji brali udział
Paweł Masarczyk, Piotrek Machacz,
Michał Dziwisz i ja, czyli Tomek Bilecki.
No i do usłyszenia.
Miejmy nadzieję za tydzień.
Dobrej nocy.

Wszystkie nagrania publikowane w serwisie www.tyflopodcast.net są dostępne na licencji CreativeCommons - Uznanie autorstwa 3.0 Polska.
Oznacza to, iż nagrania te można publikować bądź rozpowszechniać w całości lub we fragmentach na dowolnym nośniku oraz tworzyć na jego podstawie utwory Zależne, pod jedynym warunkiem podania autora oraz wyraźnego oznaczenia sposobu i zakresu modyfikacji.
Przekaż nam swoje 1,5% podatku 1,5 procent Logo FIRR Logo PFRON Logo Tyfloswiat.pl

Czym jest Tyflopodcast?

Tyflopodcast to zbiór instrukcji oraz poradników dla niewidomych lub słabowidzących użytkowników komputerów o zróżnicowanej wiedzy technicznej.

Prezentowane na tej stronie pomoce dźwiękowe wyjaśniają zarówno podstawowe problemy, jak metody ułatwienia sobie pracy poprzez korzystanie z dobrodziejstw nowoczesnych technologii. Oprócz tego, Tyflopodcast prezentuje nowinki ze świata tyfloinformatyki w formie dźwiękowych prezentacji nowoczesnych urządzeń i programów. Wiele z nich dopiero znajduje sobie miejsce na polskim rynku.

Zapraszamy do słuchania przygotowywanych przez nas audycji i życzymy dobrego odbioru!

Tematyka

Pozycjonowanie i optymalizacja stron internetowych