TyfloPrzegląd Odcinek nr 180 (wersja tekstowa)

Pobierz napisy w formacie SRT
Pobierz napisy w formacie VTT
FUNDACJA INSTYTUT ROZWOJU REGIONALNEGO PREZENTUJE
TYFLO PODCAST
Piątek, 21 dzień kwietnia 2023 roku w kalendarzu.
Minęła godzina 20, już chwilkę temu, tak jak wspominałem,
kwadrans mamy po 20, no już 16 minut prawie,
a my rozpoczynamy 160, nie, 180 już wydanie Tyflo Przeglądu.
Coraz bliżej dwusetne wydanie tej audycji.
Witamy Was bardzo serdecznie w składzie takim, powiedziałbym,
osobowo średnio licznym, ale za to bogatym w newsy.
Paweł Masarczyk, Piotr Machacz, witam Was serdecznie.
Witajcie, dobry wieczór.
A i Michał Dziwisz przy mikrofonie również.
Ja, co prawda, dziś informacji to nawet ze specjalnie nie mam,
ale za to postaram się poprowadzić tę naszą dzisiejszą audycję,
odbierać od Was telefony, czytać Wasze wypowiedzi,
ale zanim opowiem o tym wszystkim, jak możecie z nami w interakcję wchodzić,
no to posłuchajcie, o czym m.in. będziemy dziś opowiadać.
W tym tygodniu w Tyflo Przeglądzie.
Wiemy więcej o jakości rozmów telefonicznych rejestrowanych na SensePlayerze.
50% zniżki na grę Hades tylko w ten weekend.
Quinter jednym z ostatnich klientów Twittera, które jeszcze działają.
Native Instruments Machine dostaje udźwiękowienie.
Ruszają zapisy na kolejną edycję obozu ICC.
Ukazała się publiczna beta Remote Incident Manager na Maca.
Powstają pierwsze serwisy do opisywania obrazów na bazie modeli językowych.
Nowości w grach.
Reddit idzie w ślady Twittera i żąda opłaty za dostęp do API.
Co z zewnętrznymi aplikacjami?
Baza z Radio Browser w RadioShure. Jak tego dokonać?
Nowa wersja Farrago na Maca.
Nadchodzi nowa generacja kodów kreskowych.
Discord wprowadza wiadomości głosowe.
Buzz – graficzny interfejs do obsługi Whispera.
Wszystko to, a pewnie jeszcze więcej już za chwilę. Zaczynamy!
Z pewnością będzie więcej, bo już w notatkach widzę,
że informacji przygotowaliście troszeczkę więcej niż to,
co wymieniłem w tym naszym telegraficznym skrócie na początku Tyflo przeglądu.
I oczywiście również nasi słuchacze i słuchaczki mogą swoje trzy grosze dorzucić,
bo my nie mamy monopolu na wiedzę.
Zawsze to powtarzam.
Jeżeli o czymś ciekawym wiecie, coś was zainteresowało,
o czymś chcecie z nami porozmawiać,
albo po prostu odnieść się do tego, o czym my tu rozmawiamy,
to zapraszamy serdecznie.
Ta audycja jest dla was i my tu dla was jesteśmy.
tyflopodcast.net ukośnik zoom
to jest nasza strona internetowa,
gdzie się możecie dzwonić za pomocą zooma.
Możecie także również się podłączyć tekstowo.
Kontakt tyflopodcast.net i Facebook oraz YouTube.
Ja już widzę, że jeden z naszych słuchaczy,
konkretnie Dariusz, próbuje się tu do nas podłączyć.
Co prawda wcześniej miał jakieś techniczne problemy z tym,
żeby się podłączyć i teraz chyba nie jest lepiej,
no ale zobaczymy.
Zdaje się, że Dariusz chciałby się podzielić wrażeniami
związanymi z zoomem na Blind Shellu,
jeżeli dobrze rozumiem tę sytuację,
bo też od naszego słuchacza Dawida dostałem informację,
że się na Blind Shellu ten zoom pojawił,
no ale jakiś jest, zdaje się, problem z tym zoomem.
Przynajmniej Darek taki problem ma.
Zobaczymy, jak to będzie dalej,
jak będzie to wszystko działało.
Może w końcu naszemu słuchaczowi uda się połączyć z nami.
Czekamy na to, czekamy również na pozostałe osoby,
które miałyby ochotę do nas zadzwonić
albo napisać i wejść z nami w jakąś interakcję.
A my już teraz przechodzimy do tematów.
Na dobry początek takie odniesienie do tego,
o czym mówiliśmy w poprzednim 179. tyfloprzeglądzie.
SensePlayer, jedną z nowości tego narzędzia,
jeżeli chodzi o aktualizację oprogramowania,
miała być rejestracja rozmów telefonicznych.
Po prostu ten SensePlayer miał się zachowywać
jak taki recorder, do którego podłączamy nasz telefon
i możemy rozmawiać z kimś i to wszystko zostanie nagrane.
Zastanawialiśmy się, jaka będzie jakość tego SensePlayera,
tego nagrania w wykonaniu SensePlayera.
No i ty, Piotrze, wiesz już coś na ten temat.
Tak jest i każdy z was, który chciałby usłyszeć na własne uszy,
jak to wygląda, będzie próbka.
Ale w dużym skrócie, jakość tego dźwięku przesyłanego przez Bluetooth
normalnie jest taka normalna, w porządku.
Stereo jest wszystko, więc jeśli poruszamy się po naszym urządzeniu,
słuchamy sobie muzyki czy jakichś innych materiałów, to jest wszystko fajnie.
No ale tutaj, kiedy ten Bluetooth przechodzi w tryb telefonu,
w tryb rozmowy, to zastanawialiśmy się, czy jest HD Voice, czy jest 16 kHz.
No, otóż niestety nie.
Jeśli jakaś aplikacja tutaj, ta osoba, która zrobiła to nagranie,
rozmawiała przez FaceTime, a przecież FaceTime ma całkiem fajną jakość.
No ale niestety SensePlayer przeszedł na ten najniższy tryb Bluetooth,
więc tutaj była taka jakość bardzo stara, telefoniczna 8 kHz.
Na dodatek głos rozmówcy, tego, który rozmawiał przez SensePlayera,
był taki dużo cichszy. Jego głos był dużo cichszy od tej osoby,
z którą rozmawiał, co może stworzyć problem później w obróbce tego nagrania.
Na dodatek zwrócili uwagę na jeszcze jedną kwestię.
Jeśli chcemy rozmawiać z kimś przez telefon na SensePlayerze,
to lepiej mieć podłączone do niego słuchawki,
bo jeśli tego nie zrobimy i rozmawiamy sobie na głośniku,
no to ta druga osoba będzie słyszała zwrotkę.
Czyli mikrofon po prostu zbiera to, co słyszy z głośników,
tam nie ma żadnej redukcji echa, co jest troszeczkę zaskakujące.
No ale jeśli podłączymy słuchawki, to wszystko powinno być OK.
No to trochę szkoda, powiem szczerze.
Ja naprawdę liczyłem na to, że będziemy mieli taki sensowny nagrywacz
w jakości HD Voice. Zastanawia mnie, co w ogóle spodwodowało to,
że tak to bardzo nie poszło.
Przecież technologicznie są rozwiązania i narzędzia,
za pomocą których możliwe jest nagrywanie
i łączenie się po Bluetoothie w jakości HD Voice.
Wystarczy odpowiedni moduł Bluetooth.
Tak, no i osoby, które odpowiedziały na to nagranie,
zresztą też bardzo to skrytykowały generalnie,
bo to nie jest tani sprzęt, tak jak zresztą ostatnio też rozmawialiśmy.
No i spodziewali się tutaj lepszej jakości.
Ponoć też nie najlepszą jakość ma algorytm przyspieszania materiałów.
Słyszałem od kilku osób, że przyspieszone książki
nas nie przyjmą bardzo dobrze w porównaniu do Voice Dream’a na iPhone’ie,
ale też np. do Victorów przynajmniej drugiej generacji,
więc przypuszczam, że w trzeciej chyba nie będzie gorzej.
Bo ja w tej sprawie rozmawiałem właśnie z Michałem Kasperczakiem,
który nagrał demonstrację sensplayera
i on takich jakichś nieczystości nie zauważył.
Każdy ma pewnie inne zdanie.
Ja też się osobiście niestety nie wypowiem,
bo nie słyszałem tego.
Ja też tego nie testowałem.
Więc trudno mi powiedzieć.
Tutaj m.in. się Brian Hudgen wypowiadał,
więc to osoba, która trochę w dźwięku siedzi.
Tak, też widziałem tego posta.
No właśnie.
Jest to ciekawe.
Do jakiejś prostej rozmowy jest okej,
ale mogłoby być dużo lepiej.
Ja naprawdę żałuję, że to wyszło jak wyszło w tym przypadku,
bo taka funkcja nagrywania tych rozmów w sensownej jakości,
bo mikrofony sensplayera nie są naprawdę złe,
to mogłaby być dla mnie osobiście motywacja,
żeby nawet to kupić gdzieś tam za parę lat w dofinansowaniu,
bo już teraz się nie da,
bo już jestem po aktualnej transzy w zeszłym roku,
ale za parę lat to można by było coś takiego rozważać
i może za te parę lat do czegoś dojdziemy sensownego.
No miło by było.
Miałem właśnie powiedzieć też druga kwestia,
no to jest przecież wszystko na oprogramowaniu
i tutaj ludzie też wyrażają takie nadzieje
i piszą do producentów zresztą z sugestiami,
więc można mieć nadzieję, że w przyszłej aktualizacji
ta jakość zostanie poprawiona,
bo nie tylko zwykłym telefonem człowiek żyje,
przecież no właśnie jest Facetime, jest Hada Voice,
są Discordy, inne rzeczy.
Zgadza się, tylko wiesz, mówisz, że wszystko jest oparte o oprogramowanie.
Ja się trochę boję tego, że tam o oprogramowanie nie wszystko jest oparte.
Zastanawiam się jaki tam jest bluetooth, jaki tam jest czip bluetooth,
czy on pozwala w ogóle na to, żeby ten Hada Voice nagrywać.
Czy to tylko niedbałość programistów,
czy jest znacznie większy problem,
bo doszło do takiego zaniedbania konstrukcyjnego?
Tam jest bluetooth 4 chyba przynajmniej,
więc w miarę nowy, nawet nie wiem jak nie jest 5.
Ktoś mówił, że ten Hada Voice poszedł w bluetooth 3,
ja się nie wypowiem bardziej szczegółowo na ten temat,
ale takie posty czytałem.
No cóż, no więc zobaczymy co nam czas przyniesie,
jak to będzie wszystko wyglądało.
Czas pokaże, miejmy nadzieję,
że jednak doczekamy się jakiegoś sensownego nagrywania
i że to jest tylko rzeczywiście kwestia odpowiednich poprawek
związanych z oprogramowaniem.
Widzę, że tu mamy kogoś,
kto chciałby z nami porozmawiać.
Widzę, że korzystacie aktywnie z Zooma,
natomiast może teraz się uda.
Ktoś o dość dziwnym niku,
kukombtd, bardzo oryginalny.
Qualcomm?
Tak, no właśnie, Qualcomm.
Ja bym wygooglował w Google model,
bo to może być jakieś urządzenie bardzo ciekawe.
Dokładnie, bo czasem Zoom tak potrafi.
Czasem tak Zoom potrafi się przedstawiać
jako jakieś konkretne urządzenie.
Pytanie, czy jeżeli to jest np. Blind Shell,
czy ta osoba może przyjąć prośbę o nagrywanie?
Czy ta aplikacja Blind Shellowa Zooma ma to skryptowane?
Miejmy nadzieję.
Ale wiesz co, w takiej sytuacji
to objawiałoby się tym,
że mikrofon jest wyłączony po prostu.
A, a tu nie ma audio jeszcze.
No tu nie ma audio jeszcze na razie.
To byśmy mieli w studium przypadku.
Poczekamy, zobaczymy,
kto do nas się usiłuje dodzwonić.
Tak przy piąteczku.
A teraz przechodzimy do kolejnych tematów.
Tu…
A właśnie.
Tak, drobne newsy.
Tak, drobne newsy, Pawle.
Twoje na dobry początek.
Dobry przerywnik w czasie,
gdy się ktoś spróbuje z nami połączyć.
Bo to nie jest długie i są tylko dwa.
Po pierwsze to, o czym mówiłeś, Michale,
w nagłówkach, czyli Grahades,
która była tu już gdzieś przedstawiana
chyba nawet też na łamach Tyfro Podcastu
w osobnej audycji, ale dobrze pamiętam.
Też Tomek Tworek chyba nagrywał,
dobrze pamiętam, podcast.
A jak nie, to pomyliłem z czymś innym.
Tych gier było dość dużo.
Ale Grahades, która na pewno
dostępną grą jest i na Steamie jest,
dostępna jest tylko w ten weekend,
więc jeżeli będziecie słuchać podcastu
już pewnie z nagrania, to ta promocja
nie będzie obowiązywać, ale jak jesteście na żywo,
to wiedzcie, że dostępna będzie
za połowę ceny na Steamie.
Można sobie kupić tę grę.
No i jeśli jeszcze nie graliście,
to będziecie mogli zagrać.
To jedno.
A druga rzecz dla osób, które naprawdę
są zdeterminowane, żeby jeszcze
mimo wszystko z Twittera jakoś tam korzystać,
no to się okazuje, że
Quinter, klient
Twittera, o który my już dawno zapomnieliśmy,
bo on krótko miał
swój moment chwały, po czym nadszedł
z podobnej stajni, z tej samej zresztą
stajni, Twiscake,
on jeszcze działa i tam
klucz API jeszcze działa.
Więc jeżeli byście chcieli
jakoś się trzymać jeszcze
tego Twittera z całych sił,
no to Quinterem by jeszcze
można coś tam było podziałać.
Natomiast są też sugestie,
że może The Cube by jeszcze działał,
bo może jeszcze ten klucz tam nie wygasł,
no ale tam
z kolei wiadomo…
Ja chyba widziałem od autora, że wygasł.
Tak, bo
dzisiaj jeszcze pisał, że…
bo to Andrę Polikanin
pisał, że
The Cube powinien jeszcze działać,
chyba, że masz jakieś nowsze wieści, może sprawdziłeś.
Wiesz co, ja widziałem,
widziałem właśnie, że tam nawet
jakieś logi wklejał,
ale to kilka dni temu.
O, to ciekawe, bo dzisiaj widziałem Twittera,
że The Cube powinien jeszcze działać,
zaoferowałem autorom
Twiscake’a, ale na razie cisza.
Aha, tam to nie wiem.
Może są jakieś dwa różne klucze.
Może, ale
Twitter, jeżeli coś, to powinien jeszcze działać.
Warto też przetestować, bo może już
to padło, wiadomo.
Wszystko się może zdarzyć.
No i to chyba wszystko, jeśli chodzi o
drobne newsy na dzień dzisiejszy.
Ale to z pewnością nie wszystko, jeżeli chodzi
o telefony.
Tym razem właśnie mamy telefon.
Taki analogowy,
oldschoolowy telefon
w jakości 8 kHz,
bo Zoom niestety akurat
więcej nie potrafi przenieść.
No witajcie.
Dzwoni Dariusz.
Trochę mi dzisiaj gardło boli,
od razu powiem. Próbowałem się dozwonić
na Zoomie właśnie. Dobrze powiedziałeś
tamte, nie tutaj.
Bo faktycznie Blancher od wczoraj
po polsku, w wersji polskiej, bo wiem,
że to jest w Amerykanie już wcześniej dostali,
ale od wczoraj możemy się cieszyć
tym, że Zoom jest.
Coś mi się, nie wiem dlaczego, wszystko
podoznaczało to tak,
tak jakby mnie wyrzucał z tego spotkania po dwóch
rzutach. Ja w ogóle nic
nie słyszę, to znaczy jak się łączy to w ogóle nie słyszę
nic i nie wiem.
Nie chcę próbować, nie chcę wam jakby tego
zatykać, tego spotkania, bo to nie o to chodzi.
Więc dzisiaj sobie już to
jakby podaruję
sobie to i spróbuję to przetestować w jakimś innym
linku i dopiero wtedy
bez tego klupi błędów.
Ja mam pewne podejrzenie,
ja mam pewne podejrzenie, dlaczego tak
może być i już
mówię, co
mi przychodzi do głowy. Pamiętajcie
o tym, że Zoom ostatnio
wprowadził
coś takiego jak
New Meeting Room Experience,
czyli taki nowy
New Waiting Room
Experience, czyli taki
nowy ten pokój, to miejsce,
tę poczekalnię tak zwaną
i ta poczekalnia,
która została chyba właśnie
kilka dni temu
wymuszona u wszystkich użytkowników
Zooma, którzy
ją stosują, a my ją
stosujemy, wymaga
aktualnego klienta.
Pytanie, czy Blind Shell
ma tego klienta rzeczywiście aktualnego,
jeżeli chodzi o
Zooma, o to
całe wnętrze.
Tu być może jest
problem.
Być może tak.
Ja w tej sprawie
myślę, że napiszę szybko do producenta
niedługo.
Spróbuję na jakimś innym linku, żeby
wam już nie zapychać tego
po prostu, tego przeglądu, bo to
nie ma sensu. Ewentualnie
spróbuję się połączyć w przyszłym tygodniu
raz i zobaczymy, co dalej
i wtedy będę…
Dokładnie, bo tak teraz mi to po prostu przyszło
do głowy, że tu może być problem,
bo parę razy dostawałem informację
z Zooma, że uwaga, uwaga,
już niedługo będziemy to przełączać,
na razie możecie sobie to potestować,
gdyby coś tam było nie tak,
to możecie sobie wrócić do tego,
ale generalnie za jakiś czas
zostanie ta zmiana wymuszona.
Zoom, no niestety, ma
coś takiego od czasu do czasu,
że pewne rzeczy
wymusza i o ile nie ma
problemu z tym,
jeżeli ktoś korzysta z oryginalnego takiego
klienta Zooma, standardowego,
to właśnie z takimi
rozwiązaniami zewnętrznymi
obawiam się, że czasem
może być problem, natomiast być może
dosłownie na dniach pojawi się
jakaś aktualizacja, jeżeli to jest to w ogóle,
bo ja w tym momencie absolutnie zgaduję
i strzelam,
że to może być ten kłopot.
Ale powiem tak,
zazwyczaj tutaj, jeżeli chodzi o na przykład
Facebooka, Messengera, no to
producenci dość szybko działają,
nigdy mi się na przykład nie wygrzaczył
Bezentr, zawsze to działało,
abstrahując od tego, czy się komuś podoba
aplikacja, czy nie. Wiem, że na przykład
Michał Kasperczak trochę nerzekał kiedyś,
mnie przekonuje, ale wiem, że
nie każdego musi, ale nigdy nie miałem
problemu na przykład właśnie
z Messengerem, więc to poczekam,
zobaczymy tydzień, dwa,
jak coś się zmieni, to dam znać,
albo telefonicznie, albo właśnie przez Zooma,
już poprzez BlindShella.
Może się uda w końcu.
No oby, byłoby fajnie, myślę,
że tak, że to, ja napiszę
o tym myślę w poniedziałek,
dzisiaj to już może nie,
ale napiszę o tym w poniedziałek
do producenta telefonu.
Nie wiem, co to może być.
Może to faktycznie o czym
wspominasz, może to jest
faktycznie jakaś
zerkowska. No,
już myślałem, że się dzisiaj połączę tak
z telefonu po raz pierwszy,
ale przyjdzie na to czas jeszcze.
Przyjdzie na to czas, czekamy
na to i zobaczymy, jak ten mikrofon
Zooma będzie się sprawdzał,
jeżeli chodzi o właśnie
ten mikrofon BlindShella, jak się będzie
sprawdzał w Zoomie. Zobaczymy.
Darku, to w takim razie dzięki za telefon i zdrowia.
Dziękuję bardzo.
Trzymaj się. No, dziękuję,
przyda się zdrowie, bo na koncert muszę iść niedługo.
Ale dzięki i do usłyszenia.
Do usłyszenia, pozdrawiamy.
Tymczasem, cześć.
Tymczasem mamy tu wypowiedzi
od naszych słuchaczy.
Mat do nas m.in. napisał.
Witam, ostatnio była audycja
o szansie.
Korzystając z okazji, informuję, że
w numerze 88
HELPA ukazał się
artykuł o iOS 16,
w którym m.in. omawiam,
jak zrobić skrót, żeby za pomocą
dwukrotniego stuknięcia w tył
iPhona przełączać rozmowę
na głośnik. Dzięki temu mamy
nad głośnikiem pełną kontrolę.
Pozdrawiam, Mat.
Ja nawet nie wiedziałem, że takie rzeczy
da się skrótami robić. A widzisz, no to
warto zajrzeć do HELPA.
W takim razie, warto zajrzeć do HELPA.
Mamy jeszcze pytanie
od Kuby. Cześć wam, czy znacie
jakieś asystenty głosowe
na Androida po polsku?
Bo z asystentem Google nie da się normalnie
pogadać, a to już nawet nie o to chodzi,
bo chodzi też o inne rzeczy.
Po prostu interesuje się technologią
i sztuczną inteligencją, no i
czemu się właśnie zapytać,
czy znacie
jakieś asystenty głosowe na Androida
po polsku, bardziej takie do pogadania
i tak dalej. Kubo,
ja powiem, że ja na przykład
wczoraj, co prawda
na iOS-a, ale dostałem
aktualizację asystenta Google, więc może
warto sprawdzić, bo może też coś na
Androida dostaniesz.
Nie wiem, czy coś chcecie
podpowiedzieć tu naszemu słuchaczowi?
Coś kojarzycie, jakieś asystenty?
Chyba na ten moment o niczym nowym
nie wiadomo. Kiedyś były różne eksperymenty,
jakieś Polasisy, jakieś różne inne
próby,
ale chyba na ten moment
nic nowego nie znajdziemy. Może coś na bazie
GPT kiedyś powstanie, ale to może
kiedyś, no i pewnie będzie trzeba wykupić dostęp
do API. Dokładnie, no bo
niestety to wszystko kosztuje,
chociaż pojawiają się
jakieś takie różne modele, modeliki
mające
naśladować GPT
albo zachowywać się podobnie jak GPT.
Nawet dziś coś widziałem
takiego, co można
było uruchomić w przeglądarce,
to tam jakieś chyba 900
megabajtów model
pobierał
i co prawda, jak zapytałem
go o coś po polsku, to pisał
absolutnie bzdury, ale już po angielsku
to coś tam nawet
potrafił odpisać, także
no to już do tego powoli
dochodzi, więc to tak
puszczam oko
w stronę tych wszystkich, co to by chcieli zakazać
przez pół roku,
prac nad sztuczną inteligencją
i wstrzymać to w ogóle
na razie, bo nie jesteśmy
gotowi, aha, to już
za późno na to, to teraz to
każdy rozwija we własnym
zakresie i teraz po prostu
trzeba obserwować
owoce tego wszystkiego
i tych wszystkich testów,
prób rozmaitych, bo
może być tylko
ciekawiej.
A teraz kolejna
informacja, a tym razem Piotr ma
coś dla muzyków.
Tak jest, ostatnio jakoś
fajnie było dużo informacji
takich o interfejsach, o różnych
muzycznych kwestiach, no i tym razem znów
mamy taką, myślę, dosyć dużą, ciekawą
informację, no bo
może kojarzycie już
firmę Native Instruments, która
która skradła serca osobom niewidomym,
kiedy wprowadziła
dostępność do swoich keyboardów,
tak zwana seria Complete Control,
o nich już były podcasty, które
Tomek Gacki robił.
No, a teraz
dostępna stała się druga, taka
duża kategoria urządzeń od Native,
a konkretnie są to
urządzenia serii Maschine.
Tak ładnie zastanawiałem się,
jak to urządzenie nazwać, oni to po prostu
nazywają systemem produkcyjnym.
No i to jest takie urządzenie,
które jest bardziej przystosowane
do tworzenia takiej
muzyki opartej na samplach,
taki hip-hop, rap,
takie rzeczy, bo zamiast takiego typowego keyboardu
mamy 16 takich
dużych padów, które możemy sobie dotykać.
One też są czułe na to, jak
mocno naciskamy te pady.
No i możemy do nich ładować
sample. Tak samo jak
z Complete Control to urządzenie
wspiera ten
standard NKS, więc możemy ładować
różne syntezatory, inne
wtyczki od niekoniecznie nawet
natiwa i
możemy ustawiać
ich parametry. Z tym, że
Complete Control bardziej współpracuje
z naszą
aplikacją do nagrywania,
a Maschine też może to robić,
ale to jest też takie samo w sobie środowisko,
w którym możemy
tworzyć jakieś utwory,
jakoś je układać,
różne pętle właśnie
ładować, sample dzielić je
na różne sposoby, dodawać efekty, zmieniać
efekty w czasie nagrywania.
Nawet właśnie
nagrywać, bo lepsze
urządzenia z tej serii mają nawet
butowane wejścia. Możemy sobie jakieś
mikrofony, inne rzeczy podłączać i po prostu nagrywać
do tego urządzenia.
One muszą być podłączone do komputera,
ale na samym
urządzeniu możemy zrobić wszystko łącznie
z zapisaniem końcowego
projektu, patrząc się tylko
na samo urządzenie. No i właśnie,
ono ma nawet w najnowszej wersji
dwa wyświetlacze, więc wcześniej
osoby niewidome miały,
no w sumie nie miały jak z nich
korzystać, ale to się właśnie zmieniło.
Dzięki aplikacji
Native Accessibility Helper,
którą znajdziecie w
Native Access, można ją sobie po prostu ściągnąć.
No tak jak na klawiaturach
Complete Control na keyboardach,
dostępność włączała się skrótem.
Tutaj się po prostu instaluje
i otwiera tą aplikację.
Kiedy aplikacja jest otwarta,
możemy też ściałkami poruszać się
po różnych częściach
tego interfejsu i czytać sobie,
co poszczególne przyciski robią, no bo
one zmieniają swoją funkcję, zależnie
od tego, co akurat
robimy. Wszystko jest
udźwiękowane, właśnie
wszystkie przyciski, które naciskamy, jeśli
urządzenie coś robi, poruszamy się
po naszej kompozycji,
czy zmieniamy jakieś parametry. Wszystko jest czytane
naszym domyślnym
głosem w systemie.
Sama firma
stworzyła takie
długie, ponadgodzinne
wideo demonstracyjne, w którym
to jest też zarazem demonstracja jak i
samouczak, bo pokazuje
jak jeden z pracowników firmy
od zera właśnie tworzy taką
piosenkę. Wybiera
sobie najpierw różne
perkusje, później dodaje jakieś wokale,
później ładuje sobie sample,
które siatkuje na
mniejsze części
i miksuje, później dodaje efekty
no i na koniec zapisuje
to sobie do pliku
WAV na dysku. Wszystko z tego urządzenia
no i przez cały
czas tego procesu
synteza mu mówi, co
się dzieje. Ta aplikacja
już powinna się w Native Access
pojawić i na pewno działa
z najnowszą
generacją tego urządzenia, czyli to jest
Machine Mark 3.
Czytałem też, że
ze starszymi wersjami też powinno działać.
Są osoby, które to testowały
no i podobno
to działa. No i
Native Instruments obiecuje, że ta aplikacja
pojawi się
niedługo też na innych
eksperymentach. No tutaj ludzie ostrzą sobie zęby
na przykład na traktory.
Czyli to są
wcale nie związane z ciągnikami,
tylko to są kontrolery
do DJ-owania.
Więc to jest też takie urządzenie
flagowe, którego wielu DJ
korzysta, więc tutaj ludzie zaczynają
mieć nadzieję, że niedługo
te urządzenia staną się dostępne, bo
z tego co wiem na razie
aplikacja Traktor i te wszystkie kontrolery,
które z nim współpracują, są
kompletnie nierozstępne.
Tak naprawdę to jedyne, co można próbować
robić, to jak nam ktoś
ustawi tego Traktora,
wszystko pokonfiguruje,
no to coś tam jesteśmy
w stanie z tego kontrolera ewentualnie
zrobić, ale no to jest taka
zabawa
powiedzmy sobie nie do końca
produktywna, a
myślę, że można by było sobie życzyć coś
takiego, co jest przez ten
dodatek w Virtual
DJ-u chociażby, bo tam to jest rozwiązane
całkiem nieźle.
No patrząc na to, co oni z tym maszynem zrobili,
a tam naprawdę jest chyba z 30 czy 40
jakichś różnych trebów, którym to urządzenie
może być i to naprawdę
to pewnie czego trzeba się
nauczyć, ale
z tego, co słyszałem
to ta dostępność jest naprawdę dobrze
zrobiona i przemyślana.
Tam zresztą były niewidome osoby, które to testowały,
dawały sugestie, no i widać,
że ktoś to bardzo
dobrze przemyślał.
Więc oby szli
za ciosem, tego myślę, że można sobie
życzyć.
Tymczasem kolejna informacja
to Pawle
od ciebie, też
w międzyczasie Dawid Pieper do nas napisał
z właśnie taką krótką
informacją, że chciał kogoś
ścignąć z Tyflo
Przeglądowiczów
na Eltenie, ale nie zdążył, bo jest
w trasie, no ale jak się okazuje
udało nam się i tak
te informacje zdobyć
i teraz ty przekażesz. A propos
kolejnego obozu ICC.
Zgadza się. Dawno
żeśmy nie słyszeli o obozach ICC.
Nieco to takie wspomnienia, że ktoś tam, kto
na ICC był, czy tam ktoś, kto w ICC
się angażował, coś tam innego
robił i to są też cenne informacje, ale to
trochę tak jakby te obozy to były
dawno, dawno temu.
A okazuje się, znaczy to jakby
wielka radość po chyba dwóch latach
czy trzech
edycjach takich pandemicznych, gdzie to się
wszystko działo online albo w ogóle.
Może w ogóle warto przypomnieć co to jest.
I dobra uwaga Michał,
ale słuszna. ICC,
czyli no letnie obozy
dla młodzieży z dysfunkcją wzroku.
Wiek aktualny to
16 do 21 lat.
Niektóre to odbywają się co roku w innym kraju.
Zjeżdża się tam wiele grup z różnych
krajów, głównie europejskich,
aczkolwiek z takich
rodzynków pozaeuropejskich jest
Japonia.
No i odbywają się tam warsztaty,
gdzie właśnie młodzież, gdzie
uczestnicy mogą zapoznać się
zarówno ze rozwiązaniami technologicznymi,
jak i takimi społecznymi, życiowymi.
Tak można powiedzieć, życia codziennego.
Jak tu przetrwać na studiach
i na rynku pracy.
To są obozy, którymi kiedyś opiekowałem się
ja przez
6 lat. I było
no jak poszukacie w
Tyflopodcaście w archiwach to znajdziecie
audycję z takim podsumowaniem
przynajmniej kilku z tych edycji,
na których byłem ja oraz inne
osoby również znane z Tyflopodcastu.
No a teraz
pod swoje skrzydła przejmuje
ICC, Polską Grupę Koordynację Polskiej Grupy
Fundacja właśnie
Prowadznica. I tutaj e-mail od
Julity Bartosiak wpadł mi do
mojej skrzynki
w ogóle odbiorczej. Dziwnie się coś zadziałało, bo to był chyba
mail na Tyflosa?
A on wylądował w mojej odbiorczej?
Nie wiem. Ja mam wrażenie, że to był
mail wysłany do iluś osób, między innymi
na Tyflosa. OK. OK.
Mogło tak być. Nie, bo była stopka Tyflosowa,
więc się zastanawiałem
co się stało.
Ale OK.
Ja go przeczytam. Ja go zacytuję teraz w całości,
żeby zwłaszcza młodsi słuchacze
właśnie w tej grupie wiekowej 16-21
nadstawili uszu
no i zdecydowali, czy chcieliby
pojechać na taki obóz w tym roku.
Obóz będzie się odbywał w Telczy,
w Czechach, co, żeby było
zabawnie, no jest
po dziesięciu
latach powrotem w miejsce,
gdzie obóz się odbył za czasów, kiedy jeszcze
ja go prowadziłem. I to dla mnie był
obóz o dość symbolicznym
znaczeniu, bo to była nasza największa grupa
kiedykolwiek. Polska. Było dziewięć
osób, troje opiekunów
i byliśmy drugą po Wielkiej Brytanii
największą grupą. Więc naprawdę
bardzo, bardzo miło wspominam ten obóz
i Telcz jest też
piękną miejscowością
i sam budynek
Uniwersytetu Masaryka
w Brnie, który
no właśnie tam w Telczy, ale w Uniwersytet
jest z Brna, jest tam też
bardzo dobrze wyposażony, jakieś mapy
tyflograficzne, różne rzeczy. Czesi
wiedzą co robią, więc miejsce super.
Natomiast
już czytam, na jakich zasadach
odbywa się rekrutacja
grupy polskiej w tym roku.
W imieniu Fundacji Prowadnica,
www.prowadnica.org, tutaj jest adres,
mam ogromną przyjemność
poinformować, że wzięła ona pod swoje
skrzydła polską grupę
uczestników International Camp on
Communication and Computers.
Tym samym jeszcze chętniej rekrutujemy
niewidomą młodzież od 16 do 21
roku życia. W tym roku
spotkamy się w Czechach, w Telcz, na Masaryk
University
Center Telcz.
Więcej informacji można znaleźć tu
i jest link
ICC 2023.
Ja tylko przypomnę, że strona obozu to
www, i to www naprawdę trzeba wpisać,
bo inaczej to nie zadziała.
www.icc
czyli I-C-C
3 litery, myślnik,
camp.info.
I tam na pewno też znajdziecie
wszystkie informacje odnośnie tegorocznego obozu,
no z perspektywy organizatorów
austriackich, czyli
Uniwersytet Johannesa Kepplera
w Linz.
Przy współpracy też
z Niemcami, chyba dalej
jest ta współpraca z Karlsruhe,
z Politechniką Karlsruhe, chociaż już
ktoś inny się zajmuje niemiecką rekrutacją,
ale to już nie wdrażam
do tego, ale też
organizatorów z Czech, właśnie z Brna.
Czytam dalej, maila.
Wyjazd trwa od
17 do 26 sierpnia
i jest doskonałym sposobem na poznanie
nowoczesnych technologii i rozwiązań
dla niewidomych, spędzenia wolnego czasu
w kreatywny sposób, a przede wszystkim
zawarcia nowych, cennych
kontaktów międzynarodowych.
Wstępny koszt uczestnictwa
szacowany jest na 700 zł, przy czym
kwota może nieznacznie zmienić się
w zależności od sytuacji rynkowej.
Reszta środków zostanie zebrana
metodą crowdfundingową, więc tu już
z góry życzę powodzenia i oczywiście
gdy tylko ruszy kampania, to damy
tutaj również znać, bo może ci, którzy
już nie mogą pojechać, albo nie byliby
zainteresowani, mogą
chociażby wesprzeć to, żeby
nasi młodsi koledzy
mogli pojechać.
Zgłoszenia wraz z informacją o poziomie
znajomości języka angielskiego przyjmujemy
na adres polskaicc
razem
małpagmail.com
do dnia 14 maja
do godziny 20.00
Lista miejsc jest w tym roku
liczba, przepraszam, miejsc
jest w tym roku znacznie ograniczona przez
organizatora. W razie jakichkolwiek
pytań prosimy pisać na wyżej
wymieniony adres. No i to
jest cały e-mail od Julity
z Fundacji Prowadnica i
ja
mogę tylko polecić, bo wydarzenie jest jedne
w swoim rodzaju. Gdyby nie ICC
nie przeżyłbym wielu z tych
rzeczy, o których czasem tu opowiadam.
Erasmusa bym nie przeżył.
Stażu w parlamencie pewnie też
i wolontariatu w radiu
i wielu, wielu
innych rzeczy, więc
naprawdę to jest takie wydarzenie, które
bardzo poszerza perspektywy, bardzo
nas otwiera na
to, że niewidomi są nie tylko w Polsce,
ale też w innych krajach i mają
bardzo często podobne problemy do nas,
chociaż te kraje się oczywiście różnią.
W pewnych krajach jest wyższy poziom
opieki społecznej, życia,
różnych oferowanych usług, w niektórych niższy,
ale w gruncie rzeczy te problemy
dyskryminacji
i nie wiem, na przykład hulajnogi są takim
przykładem międzynarodowym.
Mamy takie same
i możemy wokół tego się spotkać,
podyskutować, popracować
nad rozwiązaniami i czegoś się nauczyć
i powybierać
sobie jakieś takie rozwiązania,
które no może będziemy chcieli przeszczepić
do nas albo do swojego prywatnego życia
no i oczywiście poznać ludzi, bo te
kontakty i te znajomości to jest coś
niesamowitego i też
bardzo, bardzo, bardzo zmienia życie,
jeśli tego tylko chcemy.
Więc ja zachęcam raz jeszcze
Fundacji Prowadnica w Nowej
Roli Koordynatorów jako
starszy już doświadczony kolega.
Życzę powodzenia
no i przede wszystkim miłych
wrażeń z samego doświadczenia
bycia częścią ICC.
Przechodzimy teraz do kolejnego
tematu, tematu, który już
kilkukrotnie zajawialiśmy
w Tyflo o przeglądach. Nawet
Remote Incident Manager
doczekał się audycji
odrębnej w Tyflo Podcastie. Wtedy
to tak no trochę
skrytykowaliśmy to rozwiązanie,
bo i na tamten czas
niespecjalnie było czym tu się
ekscytować, bo wiele więcej niż
standardowe
NVDA Remote to nie potrafiło,
ale teraz okazuje się, że
Nima Solutions
pokazuje kolejne,
kolejną edycję
tego narzędzia, która
no może być
pewnego rodzaju rewolucją,
a przynajmniej
tak wygląda
z opisu, bo nie tylko
mamy tego Remote Incident
Managera na Windowsa, ale też
na Maca. No właśnie, to jest
pierwsze, to znaczy no rozwiązań,
które pozwalają nam połączyć
się na Maca zdalnie z Windowsa,
czy wicewersja jest dużo, ale takie, które
pozwalają nam to zrobić
jako osoby niewidome z czytnikiem
ekranu, to chyba nie było. To jest pierwsze.
No i to jest właśnie
taki główny punkt, dlaczego warto się
tym rozwiązaniem interesować. Tutaj producent też
się bardzo chwali właśnie, że to jest takie
pierwsze rozwiązanie w swoim
rodzaju, które potrafi połączyć się z
tym Maciem i
ja sobie to miałem okazję
przetestować, no i teraz podzielę się
z Wami wrażeniami.
Jeśli ktoś by chciał sobie to przetestować, oczywiście
będzie
link w komentarzu.
Zacznijmy od tego, że
instalacja, przez to, że to jest
narzędzie, które jednak wymaga
od nas sporo
uprawnień, oczywiście takie, których
można by się spodziewać tutaj, udostępnianie ekranu,
dostęp do funkcji
dostępności, do klawiatury, ale
nawet włączenie
instalacji
rozszerzeń jądra. To jest coś,
no to są takie zarobniki, które
działają bardzo nisko w systemie,
no i na tych nowszych Macach z procesorami
M1 i nowszymi,
no to musimy nawet sobie
w tym trybie
odzyskiwania
zezwolić na te rozszerzenia. Musimy
wyłączyć komputer, wejść w ten tryb,
zezwolić na takie rozszerzenia,
no bo
aplikacja instaluje sobie
sterownik od karabinera, więc
takiego niskiego
poziomu dostępu
do klawiatury potrzebuje, no ale dzięki temu
wszystkie klawisze nam działają, w tym
Caps Lock, na przykład, z którym często
w aplikacjach do wirtualizacji były
problemy, tutaj klawiatura po prostu zachowuje
się tak, jak powinna i
wszystkie dosłownie klawisze są
przechwytywane
łącznie z, na przykład, Command Tabem
też, więc no musimy
po instalacji zezwalać na to wszystko.
Jak już to zrobimy,
no to interfejs aplikacji
na obu platformach jest banalnie
prosty, połączenie
się polega
po prostu na wpisaniu
kodu, właściwie słowa, które
my ustalimy z drugą osobą, czyli no tutaj
tak samo jak na NVDA Remote,
tylko że tutaj mamy jeden serwer,
jeden serwer, który
te komputery ze sobą się łączą,
aplikacja stara się połączyć je
w jak najlepszy sposób
łącznie z połączeniami P2P,
jeśli jest w stanie, więc
u mnie to się łączyło po
lokalnej sieci i dzięki temu to działało
bardzo szybko, no ale nawet
jedyny serwer w Europie
to jest w Warszawie, co się okazuje, tak?
Czytałem sobie dokumentację, więc w Polsce to powinno
działać bardzo szybko generalnie,
no bo centralny serwer
na Europę jest
u nas.
Po połączeniu domyślnie
dźwięk naszego czytnika ekranu,
dźwięk całego systemu zresztą
będzie no wysyłany jako
dźwięk przez aplikację, no i
na Windowsie
10 przynajmniej ten dźwięk był taki
dziwny, tam brakowało
mu sporo basu.
Słuchałem podcastów,
to jeszcze był Mozart Latch, no to
Mike Alvo mówił, że
na Windowsie 11 ponoć jest lepiej, ja nie wiem, czy to
prawda, miałem możliwość tylko
na Windowsie 10 przetestować, no i
ten dźwięk faktycznie z jakichś
przyczyn taki, no trochę mu
brakowało basu, natomiast
jeśli łączymy się w drugą
stronę, łączymy się z Maciem, no to
tego problemu nie ma.
Ten bitrate nie jest jakiś bardzo wysoki, ale
dźwięk jest fajny, czysty, jest cały
bas, jest wszystko w stereo,
no ale opóźnienie wiadomo
troszkę jest jakiś, nie wiem,
no u mnie to było 100 milisekund, ale
to było po lokalnej
sieci. Natomiast
możemy zrobić coś takiego,
że
nawet jeśli na komputerze, z którym się łączymy
nie ma czytniku ekranu,
możemy go sobie
z menu aplikacji zdalnie włączyć.
Na Windowsie to instaluje się taka
ich wersja NVEG, która
już jest skonfigurowana, żeby ta mowa
była, a na Macu
co to mnie zaskoczyło, to też działa
i to działa w taki sposób, że aplikacja
instaluje swój własny
syntezator mowy. Jeśli
włączymy tą opcję, a voiceover jest
wyłączony, no to ona po cichu
zmienia ustawienia voiceovera tak, żeby
był wybrany właśnie ten ich syntezator.
Voiceover się włącza, no i
wtedy na Windowsie przez MVDA
mamy całą mowę z voiceovera
podawaną, to wtedy opóźnienie jest
praktycznie zerowe, jest wiadomo
dużo bardziej
responsywne,
a osoba na Macu
nic nie słyszy totalnie,
ani dźwięków voiceovera, ani jego mowy, więc
możemy sobie po cichu
pracować, no i to działa w drugą
stronę. Niestety
nie da się ustawić
tego w taki sposób, że po łączeniu automatycznie
aplikacja przełącza się
w ten tryb, no a na Windowsie nie możemy
na przykład załadować sobie tego trybu
do naszej wersji MVDA,
bo musimy, jeśli mamy już
MVDA uruchomione, no to
wtedy jest wysyłany
dźwięk, możemy sobie włączyć tą
ich wersję, no ale wtedy nie mamy
dodatków, które sobie
może zainstalowaliśmy, a szkoda,
no to jest taka pierwsza rzecz,
którą bym zmienił,
zwłaszcza, że jeśli wiem, że
łączę się z osobami niewidomymi, no to chciałbym mieć
taką możliwość.
Ale generalnie
jest całkiem fajnie,
no i druga kwestia jest taka, że aplikacja
nie jest tania, no bo ceny
zaczynają się od 9 dolarów miesięcznie,
ale to jest taki plan personal,
w którym musimy sobie
wcześniej zdefiniować komputery,
z którymi chcemy się połączyć. Tam teraz
pojawiły się też opcje, żeby sobie wykupywać
godziny
i po prostu sobie doładywać to konto,
ale mimo wszystko nie jest
tanio. Natomiast
jeśli ktoś by chciał sobie to przetestować, albo
naprawdę nagle
chciał komuś pomóc,
to wystarczy sobie aplikację
ściągnąć, założyć konto
i każdego dnia, troszeczkę
tak jak to jest w przypadku
usługi Aira, dostajemy
30 minut połączenia,
więc możemy się z dowolnym komputerem
na 30 minut połączyć, no i
następnego dnia te 30 minut
nam się resetuje i
możemy to zrobić ponownie.
Aha, no i jest jeszcze
kilka rzeczy, które na razie
na Macu nie działają,
które działają na Windowsie. Po pierwsze, aplikacja
przez to, że właśnie używa tego
własnego
sterownika i własnego sensatora mowy
wymaga macOS Aventury,
więc najnowszej wersji, więc tutaj
starsze Maci 2017
i starsze nie są obsługiwane.
Jedyny
sposób na otworzenie menu sesji
to jest naciśnięcie option shift backspace.
Na Windowsie jest jeszcze parę
skrótów, które pozwalają
nam konkretne funkcje uaktywnić.
Tego na Macu na razie nie ma.
Nie jest jeszcze też
obsługiwane
przesyłanie schowka ani tekstu,
ani plików, a tutaj szkoda,
ale myślę, że to będzie
dodane.
Nie można też używać
Maca jako
do połączeń, w których
nie zostawiamy aplikację otwartą, po prostu
się z nią łączymy. Na Windowsie aplikacja
się minimalizuje do zasobnika
i możemy sobie dodać komputer
do takiej listy i zawsze się z nim połączyć
a na Macu
tej opcji na razie
nie ma.
No i nie ma
opcji
zrestartuj i połącz się ponownie,
więc jeśli mamy jakąś taką sytuację,
że musimy zrestartować komputer,
na Windowsie możemy to zrobić
i ten komputer automatycznie nam się
połączy, a na Macu
zrestartować to jeszcze możemy,
ale połączenie będziemy musieli
sobie później ponownie
ręcznie nawiązać.
No, ale jak na pierwszą wersję,
no to trzeba przyznać,
że działa to fajnie,
instalacja jest trochę skomplikowana, zwłaszcza
jeśli chodzi o te rozszerzenia,
ale jeśli ktoś takiego
rozwiązania potrzebuje, które
przesyła i mowę, i dźwięk, i obraz,
bo obraz też jest obsługiwany,
no to myślę, że
warto się
zainteresować.
Bo Piotrze, jak rozumiem, bez
tych rozszerzeń, bez instalacji
rozszerzeń, to w ogóle nie
będzie to nam działało. Nie, że pewne
funkcje będą niedostępne, tylko
po prostu to wcale nie zadziała.
Tak, aplikacja po prostu będzie prosiła
o
zainstalowanie tego.
Rozumiem. No to rzeczywiście dla kogoś,
kto ma
problemy z obsługą komputera,
to tego
typu
rzeczy mogą być skomplikowane.
To może być utrudnienie, mogliby
pomyśleć faktycznie nadajem takiego
trybu ograniczonego, w którym
jeśli ta osoba raczej nie będzie
potrzebowała takiego całego dostępu do
klawiatury, to aplikacja może w jakimś
bardziej ograniczonym trybie by
i tak działała. A jeszcze
zwłaszcza, że w Polsce to
w tym trybie to nie mamy
polskiej syntezy. Polski język jest, ale
musimy słuchać angielskiej
samanty, a to też nie jest takie łatwe.
No zdecydowanie, więc
parę tu problemów jest, no ale
w ogóle fajnie, że jest coś.
Że jest coś, co zaczyna
być takim narzędziem
wieloplatformowym i
co być może
w przyszłości nabierze
jakichś takich pełnych kształtów
i będzie fajne.
Będzie rzeczywiście
służyło niewidomym
do rozwiązywania problemów,
ale też i do pomagania sobie nawzajem,
bo to faktycznie
może być rzeczą przydatną.
Już
tak myślałem, żeby przejść
do następnego tematu, ale
w międzyczasie widzę, że z nami się
Roberto chce połączyć.
Jest w poczekalni, więc
już przyjmujemy
Roberta do naszego spotkania.
No to teraz jeszcze tylko, Roberto, czekamy,
aż sobie mikrofon włączysz
i możemy rozmawiać.
Dobry wieczór. Witaj.
O, no to się cieszę, że się udało
znowu bez komplikacji.
Przychodzę
do Was
z takim pomysłem.
Moment.
Aha, tu jeszcze SMS.
Przy okazji, nie wiem, co to jest.
W każdym razie
chodzi mi o
możliwość spacerowania
sobie z nawigacją,
chodzenia na spacery z nawigacją,
bo
ostatnio troszkę się tym bawię
i generalnie myślę, że w każdym
mieście, albo na wielu
miejscach, można znaleźć
taką trasę, gdzie
jeśli sobie ustawimy
odpowiednio punkty,
to znaczy najpierw zaprogramujemy, że
chcemy dojść tam, potem, że chcemy dojść
tam, a potem tam,
to parę, znaczy
ładne parę kilometrów możemy
dojść. Ja tutaj na przykład koło siebie mam
park, gdzie
z jednej strony jest koło mnie, a z drugiej
strony się wychodzi praktycznie w centrum Poznania.
To jest Cytadela.
I chciałbym
podsunąć po prostu tutaj słuchaczom
i Wam pomysł. Ty, Paweł,
z tego, co pamiętam, chodziłeś w
Innsbruck w Austrii na spacery,
ale to było bez nawigacji, bo
tam mogłeś sobie pozwolić na to.
Zobaczyłem ją załączoną
jako referencyjne narzędzie,
bo ja chciałem zawsze wiedzieć, na jakiej ulicy się znajduję
i co mnie otacza, i też co mijam,
żeby też, oprócz tego, że
sobie pójdę gdzieś i się zgubię, a potem
jakoś wrócę, bo ja nie
znałem tych tras, żeby po prostu wiedzieć,
poznać okolice i dowiedzieć się,
kto tam jest, że przynajmniej ja mam jakąś piekarnię,
albo mijam jakiś plac zabaw,
albo mijam jakieś boisko.
Ja tych rzeczy nie widzę, więc
fajnie, że to jest zamapowane, żeby
mi GPS o tym powiedział. Też miałem
taką anegdotę, skoro już o to pytasz.
To się nią podzielę.
To już ją pewnie znasz.
Ci, którzy ze mną prywatnie rozmawiali,
już ją znali. Przykro mi,
że muszę tutaj technologię
wprowadzać jako taki środek
konieczności, bo to jest tak, jak mówić ludziom,
którzy boją się być na napadniętym,
że trudno nauczyć się samoobrony albo noś paralizator.
To nie jest rozwiązanie
problemu.
Natomiast
po prostu
to, co mi się przydarzyło,
to były czasy, że jakieś
obowiązywały zasady
antypandemiczne.
W Austrii
nosiło się maski
na zewnątrz, przykładowo.
I ja szedłem
sobie na spacer
i tu szedłem sobie, szedłem jak zwykle,
czyli włączony GPS. Miałem założone
też chyba moje
szoksy, aftershoksy, moje słuchawki
z przewodzeniem kostnym.
No i sobie szedłem. I zaczepiła mnie jakaś
starsza pani, jak to starsze osoby
w Austrii, nie inaczej jak w Polsce,
bardzo chciała pomóc i bardzo się
wdała ze mną w jakąś dyskusję. Zaczęła mi
opowiadać całą historię osiedla.
Jak to ona tu wszystkich zna
i gdziekolwiek byś się nie obrócił, to ona wie, co tam
jest. No to dobrze. Myślę,
że godne pochwały są takie
zdolności orientacyjne
i taka pamięć do
swojego otoczenia geograficznego.
Ja tej pomocy,
ja tej pani wysłuchałem oczywiście.
Odmówiłem tej pomocy.
Ona po jakimś czasie rzeczywiście
mnie pozostawiła. Ja poszedłem
sobie gdzieś dalej, skręciłem,
po czym zaczepiła
mnie dwóch policjantów.
I oczywiście przedstawili się jako
policja
i zapytali mnie, czy wszystko
w porządku. Mówię, tak jak najbardziej, dziękuję
za troskę. Oni zapytali,
czy wiem, gdzie jestem. Ja mówię, tak, tak,
wszystko w porządku, dziękuję.
Gdzie pan jest?
I ja w tym momencie
zacząłem się zastanawiać, czy
ktoś dał
tym panom znać, że jakobym ja się wyrwał
z jakiejś instytucji, z której wyrwać
się nie powinienem?
Czy na czym
polega problem?
Powiedziałem oczywiście tym panom, przez to,
że miałem włączony GPS i chwileczkę
wcześniej mi się dodłoker odezwał z nazwą
ulicy, to byłem w stanie tym panom
policjantom powiedzieć, gdzie jestem.
I oni tacy bardzo
zdziwili się. Rzeczywiście?
Zgadza się.
I odeszli sobie. I ja sobie
potem zachodziłem w głowę, czy problem polegał
na tym właśnie, że ta pani dała
im znać, że osoba niewidoma chodzi.
Bo ona też rzeczywiście pytała, dokąd ja chcę iść
i to jest moment, w którym
nie każdy rozumie
odpowiedź, nie idę donikąd,
idę sobie po prostu pospacerować.
Bo dla ludzi, którzy nas widzą
i ta chęć pomocy
jest przemożna, my musimy
mieć zawsze jakiś cel, taki ściśle określony.
Ale zauważ, że nawigacja też
jakby właśnie w ten
sposób działa, zakręt po zakręcie.
Nawigacja, tak, ale ja włączyłem po prostu
eksplorację. Ja wiem, Paweł,
ale chodzi mi o to, że za chwilę dojdę do tego,
że jakby mój
generalnie pomysł się bierze z bardzo
podobnego tematu.
Że my, jeśli gdzieś idziemy
z nawigacją, jeśli nawigacja nas gdzieś
prowadzi, no to musimy mieć cel.
A żeby sobie pochodzić, no to trudno,
żeby mieć taki cel, tak?
Dokładnie. Dlatego ja wtedy bardziej eksploruję otoczenie
i ja to robię też
w terenach, gdzie Innsbruck
było tyle miastem bezpiecznym, że moje osiedle
było takim typowym osiedlem
chodnik, ulica, chodnik. I można było się gubić
ile się chciało w tej sieci chodników.
Oczywiście były przejścia dla pieszych.
Były jakieś fragmenty, gdzie ten chodnik
był jakiś nieregularny i tak dalej.
Natomiast tam można
było w dużej mierze liczyć na to,
że te przejścia dla pieszych były udźwiękowione,
odpalane pilotem
i one zawsze działały. Więc ja sobie nawet
przeszedłem na tą drugą stronę.
Po prostu na zasadzie zobaczę, co się stanie,
co się stanie, jak pójdę tu.
Albo zobaczę, co się stanie, jak pójdę tam.
I dzięki
temu ja naprawdę byłem w stanie
dojść do sąsiedniej dzielnicy, gdzieś tam
odkryć tu jakaś pizzeria, a tu jakiś salon
fryzjerski, a tutaj jakiś pub
jest, a tutaj jest dużo
domków jednorodzinnych i chyba sobie
grilla robi, bo takie fajne zapachy się
rozchodzą, a tutaj jakiś plac zabaw,
to się przejdę poprzez ten plac zabaw, albo poprzez ten park
na wzdłuż, po prostu zobaczę,
jak tam, czy znajdę może jakąś
ławeczkę, może znajdę jakąś uśtawkę,
cokolwiek. Więc ja w ten
sposób chodziłem i tam naprawdę czułem się bezpiecznie.
Zresztą byłeś u mnie, to taka trochę prywata.
Tak, tak. Wiesz, jak tam
było. Potwierdzam, byłem zachwycony.
Byłem zachwycony, jaki Innsbruck jest
dla niewidomych. Tak?
Tak. Pociągnięta linia prowadząca,
dość długa, wzdłuż głównego
rynku takiego miejskiego,
pod Słupem Świętej Anny,
czy tam Anny, nie wiem, chyba.
I my tam przeszliśmy
i naprawdę założony
GPS, jakieś słuchawki
nieprzeszkadzające, albo przewodzenie kostne, albo jakieś
okulary typu
Bose, Frames.
I słyszysz autentycznie
nazwy sklepów, koło których przechodzisz.
I wiesz, że tutaj można kupić dobre
mydło, tutaj jest jakaś tam galeria
Kaufhaus Tyrol, tu jest
Mediamarkt, tu jest jakaś inna restauracja
z czymś, knajpka, tu jest coś jeszcze innego.
I tak naprawdę
czujesz się, wiadomo, że to nie jest w stu procentach
to samo, ale trochę jakbyś zwiedzał miasto.
Tak.
No, ale wracając do Polski
i do Poznania,
albo do mnie do Pragi, no to tam tak
bezpiecznie nie jest.
I ja
jakby
chciałbym po prostu zachęcić ludzi, jeśli
chcecie sobie pospacerować
to
zorientujcie się
na jakiej
zasadzie, jakby właśnie, jak możecie
sobie w nawigacji ustawić jako cel
na przykład jakiś park, albo
jakieś takie miejsce.
Albo jeśli chcecie przejść przez ten
park, bo to też jest właśnie
tutaj ważne.
Ja mogę podać przykład
tego parku, który jest koło mnie, czyli
Cytadeli. Najpierw muszę
do ciebie dojść na odpowiedni przystanek
autobusowy i tutaj mamy przejścia
podziemne. I to nie jest daleko ode mnie.
To jest paręset metrów.
Może dwieście, trzysta.
I w tym momencie ustawiam
sobie, bo wiem, że na środku tego
parku jest pizzeria
o określonej
nazwie. Ja sobie ustawiam
tą pizzerię Umberto,
ona się nazywa, a potem sobie
ustawiam Lidla, który jest
sześćset metrów dalej.
I wiem, że nawigacja
mnie będzie prowadzić już tylko tymi
takimi uliczkami koło parku.
Potem przez sam park
do tej pizzerii
i potem też przez sam park
w drugą stronę
i potem zejdę schodami w dół
i będę tam przy
stacji benzynowej właśnie przy
tym Lidlu i tak dalej.
I wydaje mi się,
że takie trasy, jeszcze
jedną taką tutaj mam, ale to na razie tylko jest
park, że dojdę najpierw do
parku, a potem z powrotem. To jest inny park.
Że fajnie by było
jakoś
właśnie poznajdować sobie
takie trasy w swojej okolicy,
bo spacerować
zawsze mi się wydaje,
zwłaszcza jak jest ładna pogoda,
no to spacery są przyjemne.
Przy okazji mamy trochę ruchu.
A wydaje
mi się, że jeśli niewidomy jest
w mniej znanym miejscu, na przykład jeśli się
przeprowadzimy gdzieś, albo ja teraz mieszkam w akademiku,
no to troszkę mi zajmuje.
Mieszkam tu od ponad roku, ale
też nie zawsze jest czas, żeby odkrywać
samemu okolice.
No to takie punkty
orientacyjne mogą posłużyć.
Tak? I
generalnie
powiem więcej, może by
warto zrobić jakąś bazę
takich tras do spacerowania
na przynajmniej polską skalę, że jak
ktoś sobie jedzie do innego miasta
niewidomy, no to
by nie musiał być jakiś szczegółowy opis.
Wystarczyłoby naprawdę
napisać, gdzie dokładnie
jest start,
początek i koniec, i
które punkty po drodze sobie
ustawiamy w nawigacji, żeby nas to prowadziło
odpowiednio, tak? No bo to też właśnie chodzi o to,
żebyśmy cały czas mieli
bezpieczną
okolicę, żeby było jak najmniej
przejść dla pieszych, takich ruchliwych i tak dalej.
Nie wiem,
czy przez tyflowiki by można było coś zrobić.
Najpierw oczywiście trzeba by było zobaczyć,
czy
znaleźliby się
zainteresowani,
ale rzucam tutaj
pomysł i mówię o tym też
słuchaczom, tak? Że
myślę, że warto jakby w ten
sposób się troszkę pobawić,
bo dla mnie
właśnie ten
jakby to był dla mnie
problem, żeby
wychodzić samodzielnie na spacer, no bo
w nawigacji to sobie możemy
ustawić cel,
ale ja na przykład jako niewidomy
nie wiem, jak znajdę przejście
przez ulicę, że
bardzo blisko jest też przejście podziemne
i że ja mogę
przejść jakby też przez przejście podziemne
i będę po tej samej stronie.
Ja tego nie wiem. Dlatego na przykład
ten początek, to dojście na
przystanek, no to ja wiem
od swojej instruktorki
tutaj orientacji przestrzennej, jak tam dojść.
Przy okazji oczywiście
się dowiedziałem, a potem no
spróbowałem i się okazało, że naprawdę
się da i no wczoraj dobre
trzy kilometry
zrobiłem, także
jakby ktoś
chciał sobie poznajdować takie
trasy, to słowo klucz to są
punkty orientacyjne, czyli ustawiamy
w nawigacji trasę najpierw
tam, potem tam i potem
tam, tylko no trzeba wiedzieć,
że to jest tak, że on nas
na pewno poprowadzi
przez
te okolice, gdzie po prostu
nic nie jeździ jakoś bardzo, albo gdzie nie ma
takich uchliwych ulic. Jakby się
komuś chciało?
Ja myślę, że dobrym miejscem właśnie
tak jak powiedziałeś, no teraz
tyflowiki już jako takiej nie ma,
ale jest
Centrum Informacji dla Niewidomych
Tyfloakademii.
I tam myślę, że spokojnie można by było
tego typu informacje
umieszczać, zrobić osobną kategorię
nawet i
byłoby to, no myślę
z korzyścią dla wszystkich.
Też tak myślę.
No, także tyle
chciałem wam po prostu tylko powiedzieć o takim
pomyśle swoim.
Myślę, że to się może przydać,
jakby ktoś miał
jakieś jeszcze pomysły, no to
ja mam, znaczy nazywam się
Roberto Lombino,
możecie śmiało się kontaktować
ze mną na Facebooku, albo tam jakoś
jeszcze gdzie indziej.
No to jest fajny pomysł. Myślę,
ja też tak jak mówię, ja zawsze polecam
takie osiedla mieszkalne,
gdzie rzeczywiście ten ruch jest dość ograniczony
i rzeczywiście ten
układ taki chodnik-ulica-chodnik, ja tak
mówię, on mi się podoba,
bo on jest może dość nudny, ale jest przewidywalny
też i można, wiesz jak to się dość długo
rozciąga, to można sobie
poćwiczyć bardzo fajnie z nawigacją
różne zdarzenia typu zakręcanie
w różne ulice, jak to wygląda kiedy jedna
ulica skręca w drugą, a jak
chcemy przejść dalej wzdłuż jednej
i tej samej ulicy.
To jest też taki fajny plac zabaw do testowania
właśnie tego typu mechanizmów.
Prawda.
Ale też rzeczywiście jakieś parki,
albo popytać po prostu instruktorów,
z którymi macie orientację.
To znaczy, tak,
tylko właśnie tutaj jest
bardzo ważne,
żeby instruktor
jakoś znalazł te punkty,
albo żeby wymyślił tę trasę tak,
żeby
nawigacja nas wprowadziła na pewno
w tę stronę, co trzeba,
przez ten park,
a nie na przykład jakoś
teoretycznie krócej,
ale wzdłuż ruchliwej
ulicy.
Ja nawet myślę, że jak z instruktorem,
to już można się nauczyć konkretnej jakiejś trasy,
jak ktoś lubi.
W Innsbrucku jest,
ja tego się nie nauczyłem, bo potem przyszła zima,
było bardzo zimno, więc moja motywacja
do tego typu długich tras
również spadała do zera.
Natomiast tam jest
na przykład park
taki, który ma nawet jakąś tam
oznaczaną tą trasę, że tam gdzieś jest
jakaś, jaka makieta,
są pokazane różne tam rodzaje roślinności,
które rosną, jakieś tam zwierząt i tak dalej.
I można się taką
dość długą, długą trasą,
ona jest tam jakoś dostosowana i się nazywa
nawet jakąś tam trasą, ścieżką edukacyjną
dla niewidomych czy coś,
przejść przez ładny kawałek miasta.
Ale
no to już niestety tego zadania
nie wykonałem.
Mimo to, że ścieżka była edukacyjna, to przejście
po niej nie było wcale takie proste.
Wiele było momentów, gdzie trzeba było iść
na własne wyczucie i godziny zegarowe,
więc
no ja troszeczkę,
zwłaszcza, że tak jak mówię, nastąpiła potem zima
i ja zwątpiłem trochę w tę
trasę, ale może takich
tras jest więcej gdzieś u was w miastach też.
Warto się rozejrzeć. W Krakowie bardzo
popularne są wały wyślane za oś
środkiem przy ulicy Tynieckiej.
Tam naprawdę chodzi się na spacer.
Ponoć nie jest to jakaś długa trasa,
coś tam, ale tam
można pochillować jakby.
O, no proszę.
To fajnie. Dobrze.
To tyle chyba
z mojej strony. Dzięki
za przestrzeń i
życzę miłej reszty audycji.
Dzięki Roberto. Pozdrawiamy i do usłyszenia.
Do usłyszenia. Czekamy oczywiście
na kolejne wasze telefony,
także na wasze wpisy,
bo oczywiście komentarze pod
transmisją na Facebooku
i na YouTubie również są wasze.
Tu między innymi
Kuba do nas napisał
ostatnia aktualizacja asystenta Google
u mnie była 15 września
2022
roku
no i tu jest
informacja, że to najnowsza
aktualizacja. No cóż, więc być może
te poprawki
asystenta Google doczekał się
asystent Google doczekał się tylko
na iOS. Może
Google jakoś tu jeszcze
coś tam tworzy. No
oby tak było. Oby
jednak ten asystent Google jakoś
cały czas się rozwijał. Chociaż
jak rozmawialiśmy jakiś czas
temu, no pracownicy
odpowiedzialni za tę
gałąź działalności Google
zostali oddelegowani do
Barta. Tak i od tego czasu
jeszcze niestety wszystkie
wyświetlacze trzecich film,
które miało tego asystenta, np. dla Nowo
taki ekran zrobiło
też straciły do niego dostęp.
To znaczy chyba dostęp jeszcze mają, ale nie
będą aktualizacji otrzymywać.
No cóż, no to może
w końcu ten asystent zostanie
przekształcony w taki interfejs
do tego Barta. Ja
podejrzewam, że to tak się może skończyć.
Ale jak będzie wyglądał ten okres
przejściowy, no to też sporo
pytań, a odpowiedzi ze strony
giganta z Mountain View jak na
razie zero.
To teraz kolejny, właśnie
tak sztuczna inteligencja
nam tu się
gdzieś pojawiła w rozmowach
i właśnie teraz będzie o tej sztucznej
inteligencji, o narzędziach, które
potrafią za pomocą
dużych modeli językowych opisywać
różne rzeczy, m.in.
właśnie obrazki. Pawle,
powstają takowe.
Tak, dla osób niecierpliwych,
które się już nie mogą doczekać Be My Eyes
i wirtualnego wolontariusza.
No, mamy
narzędzia takie
open source, gdzieś tam rozwijane przez osoby
prywatne, które,
a nawet przez uczelnie,
bo jedno z nich jest tam przez któryś z
uniwersytetów krajów arabskich.
No i mamy
tutaj już
opcję załadowania
obrazka i zadawania pytań
o tenże obrazek.
Pierwszym takim
serwisem jest miniGPT4.
Adres to
miniGPT4.github.io
No i to jest właśnie
interfejs pisany przez,
czy powiedzmy, modele są gdzieś tam też
trenowane, interfejs
stworzony na jednym z takich
arabskich uniwersytetów
i jest to serwis, gdzie możemy
załadować obrazek i odpytywać
model językowy
o różne rzeczy z tym obrazkiem związane.
Pawle, od razu zapytam,
czy ty się tym bawiłeś?
Tak, ja się tym bawiłem.
Powiedz mi, jak udało ci się
sprawić, żeby to zaczęło działać, bo ja
też próbowałem się tym bawić,
wrzuciłem obrazek,
wskazało mi czekać chyba
pół godziny, bo
tam kolejka jest dość
znaczna i to się
trzeba naczekać,
a potem, kiedy już byłem
jakby zerowy w tej
kolejce, to się okazało, że
tak naprawdę i tak nic
nie mogę zrobić,
a jak kliknąłem, bo pomyślałem sobie,
że może ten obrazek w międzyczasie
zaginął w akcji
i jak zrobiłem, żeby
wysłał jeszcze raz,
no to znowu przeniosło mnie tam
na jakieś trzysetne miejsce
na koniec kolejki, więc stwierdziłem, że
moja cierpliwość jest
dość duża, ale chyba nie aż taka.
Nie, to ja miałem trochę więcej szczęścia,
ja już nie pamiętam, który byłem w kolejce, bo też
nie umiem do końca czytać chyba
tych wskazań. A to nie, to tam akurat
było dość prosto, bo… Nie, bo tam ten czas się
przedłużał u mnie. Najpierw pokazywało mi, że
ileś sekund tam z 60,
potem nagle z 60 zrobiło się tych sekund
50. A to nie,
bo tam… Ja tych sekund
to nawet nie zwracałem
na nie uwagi, ale tam było, że który
jesteś w kolejce
i tam to spadało.
Tam też jakieś sekundy oczywiście
były, ale ja nawet na to nie zwracałem
specjalnie uwagi. Te początki,
te pierwsze informacje,
chyba, że tam się coś zmieniło w międzyczasie,
jakoś to przebudowali,
ale u mnie to wyglądało tak, że było, że
jesteś tam któryś w kolejce i to
spadało sobie w dół.
No nie, to u mnie coś się niestety tam…
Te liczniki podskakiwały,
jakby ta liczba całkowita
gdzieś tam się zwiększała, tak jakby
mimo to, że jestem któryś
w kolejce, to tam jeszcze więcej osób się
dokoptowało i ja
tam gdzieś spadałem w wynikach.
Natomiast okej.
No i nawet nie trwało, może z dwie minuty
obrazek się załadował
i tam rzeczywiście potem pojawił się napis processing
i przetwarzało
ten obrazek
i kiedy on już był przetworzony, to ja
mogłem zacząć zadawać pytania
i oczywiście na każde pytanie,
to się robi w polu edycji tam user,
dziwnie się trochę nazywa to pole,
ale to jest pole do
wyzadawania pytań, do prowadzenia konwersacji
z modelem o tym obrazku, który
wrzuciliśmy. No i
my to pytanie
zadajemy, naciskamy Enter
i znowu oczywiście na każdym pytaniu
musimy czekać w kolejnej kolejce,
która sobie trwa, a trwa,
a nawet jak już ta kolejka przeminie,
to zanim ta
odpowiedź nasza zostanie wygenerowana,
a ten mechanizm potrafi generować
długie i szczegółowe odpowiedzi,
to musimy znowu trochę poczekać,
więc z początku może być takie uczucie zagubienia,
że no w sumie to nie wiadomo,
co to robi, bo istotnie nie wiadomo,
co to robi,
nie wiadomo na co czekamy i czy w ogóle się opłaca
czekać, ale w końcu
się coś pojawi.
Ja wrzuciłem obrazek,
jedno ze zdjęć
z mojego urlopu
w Słowenii kilka lat temu
i
zadałem pytanie
najpierw po polsku,
z ciekawości czy coś wyjdzie, opisz obrazek,
opisz to zdjęcie.
Polecenie zostało jak najbardziej
zrozumiane, natomiast zwrotna
informacja przyszła po angielsku, więc on jakby
możemy mu zadawać polecenia w jakim
chcemy języku, on to jakoś tam zrozumie.
Czy dobrze, to jest pewnie
inna kwestia, bo też pewnie te polecenia są
tłumaczone maszynowo przez ten model
na angielski,
ale odpowiedź zawsze wróci po angielsku.
Opisy?
No, myślę, że
nauczyciele nasi angielskiego
na maturze byliby zadowoleni,
gdyby dostawali od nas takie opisy obrazków.
Natomiast, no jest tam
dużo szczegółów, na przykład na moim obrazku
było
powiedziane o nim, że jest
obrazek grupy ludzi stojących
przed
chyba budynkiem
czy z budynkiem w tle
i
że są to
te osoby ubrane
gdzieś tam w różne ubrania
typu kurtki, coś tam, coś tam.
No i rzeczywiście tam
kilka jeszcze zdań takich bardzo
są rozbudowane, to nie jest tak jak do tej pory
gdzie mieliśmy wypluwane gdzieś tam
opisy typu
ludzie na
ziemi przed tam, nie wiem,
jakimś tam budynkiem.
Tylko tu już jest na przykład, że zdjęcie
przedstawia, taki bardzo szkolny
podręcznikowy opis, zdjęcie
przedstawia grupę ludzi zgromadzoną
przed tam coś budynkiem,
który wygląda jak zamek.
W tle jest dużo różnych drzew
i czegoś tam.
Atmosfera przypomina,
jest atmosferą
spokoju i czegoś tam
oczekiwania.
Osoby są ubrane w
grube zimowe kurtki, płaszcze
i coś tam, coś tam.
I potem ja zadaję pytanie, co możesz mi powiedzieć
o zamku, który jest na zdjęciu.
Aha, jeszcze napisałem potem, bo nie wiedziałem
czy to moje pytanie
przeszło czy nie, więc
na pewności, bo myślałem, że problem leży w języku,
napisałem po angielsku, opisz zdjęcie
tak jakbyś opisywał je osobie niewidomej.
I opis oczywiście wrócił
i był dużo, dużo dłuższy
i bardziej się skupiał na tym, co jest w tle.
I to tło było osobno opisane
na tych ludziach. I to włącznie
z tym, i tu już naprawdę mam wrażenie, że
halucynacja poleciała, bo
okazało się, że jesteśmy różnych kolorów
skóry na tym zdjęciu. No nie sądzę,
żebyśmy byli aż tak różną
kulturowo grupą.
To już tylko ja, jeden Polak i sami Słoweńcy.
Ale było
rzeczywiście tam dużo takich
opisów. Ciekaw jestem, czy wszystkie szczegóły
z tego opisu są prawdziwe.
Natomiast, no
gdyby rzeczywiście to wszystko
można było temu uwierzyć,
no to dowiedziałem się, że
zamek jest dużym, masywnym budynkiem
z drewnianymi
drzwiami
i
zakończonym szpiczastym dachem.
Coś takiego.
I tam dalej gdzieś tam
wygląda na starą budowlę.
Prawdopodobnie jest atrakcją
turystyczną, bo widać też
stanowiska z suwenirami
i jakiś tam
znak i znaki wskazujące na niego
coś tam wskazujące
kierunek do budynku.
Duża ilość ludzi przed tym zamkiem
wskazuje na to, że może być to bardzo popularna
atrakcja turystyczna o ogromnym
znaczeniu historycznym i kulturowym.
Więc tu już naprawdę
on płynie w takie opisy
takie naprawdę podręcznikowe jak do matury
włącznie z tym, że zasymulował
pięknie efekt ucznia,
który już czasami nie wie co wyciągnąć
z tego obrazka, z tego opisu
i już sobie domyśla pewne rzeczy
i snuje teorie, żeby tylko
wyrobić limit słów w tym opisie.
Swoją drogą, Paweł, ja się zacząłem
właśnie bawić tym mini-GPT
i przed
momentem właśnie udało mi się wysłać zdjęcie
i w końcu mi to zadziałało.
Nawet w ogóle dość szybko to zadziałało
bo
byłem drugi w kolejce
to już jest
fajnie, nie byłem trzysetny
tylko drugi, więc nie musiałem
czekać wiele, natomiast
co ciekawe, wysłałem swoje zdjęcie
gdzieś tam miałem na dysku
i opisał mi je
i zapytałem
że tam, bo tam było
napisane oczywiście po angielsku, prosiłem
go po polsku, a po angielsku
dostawałem odpowiedzi. Tak, dokładnie.
Natomiast to zadziałało
za pierwszym podejściem
kazałem mu opisać to zdjęcie
a następnie chciałem się dowiedzieć ile ten
mężczyzna
na zdjęciu, który był
może mieć lat.
Otrzymałem odpowiedź po polsku
mówiącą, że nie jest w stanie
określić ile mężczyzna może mieć
lat, ale generalnie średnio
żyje siedemdziesiąt
a następnie
poprosiłem o
to, żeby
napisał mi
ile ten mężczyzna
ze zdjęcia, no bo rozumiem
bo jak się domyśliłem kontekstem jest
zdjęcie i myślałem, że on
dalej będzie się tego trzymał.
Natomiast
właśnie tutaj już patrzę
co on mi odpisał
zapytałem
ile ten mężczyzna na zdjęciu może
mieć lat. Nie mogę określić
wieku mężczyzny na zdjęciu
ponieważ nie jestem w stanie zobaczyć
zdjęcia. W każdym razie wiek człowieka
zależy od wielu czynników
takich jak genetyka
styl życia
i wiele innych.
Dzięki
modelu językowy, nie wiedzieliśmy tego
a zawsze warto
posiąść nową wiedzę, każdego dnia
uczcie się, rozwijajcie się
natomiast, nie to u mnie
znowu ewidentnie było widać
że on sobie jak już nie wie co mówić
wykopiowuje całe
elementy opisu z poprzedniego
promptu, czyli
z poprzedniego zapytania
wykopiowuje tam znowu o tych drzewach zaczyna
w jednym
odpowiedzi na jednego prompta
opisał mi drzewa, że tam w tle
widać drzewa i coś tam, coś tam.
Też taka fraza, że
prawdopodobnie zamek umieszczony
jest na odludnym miejscu
bo nie widać żadnych budynków w okolicy
czy tam w odległym miejscu
i
on to gdzieś właśnie te frazesy potem, te frazy
potem powielał, że właśnie znowu o tych drzewach
znowu o tym odległym miejscu
więc widać, że ten zakres jakby
tych szczegółów, które był w stanie z tego zdjęcia
wyciągnąć był dość mocno ograniczony
ale dopiero po zapytaniu o zamek
zaczął mi tam sugerować coś o tych suwenirach
i tak dalej. Ja musiałbym to zdjęcie obejrzeć
z kimś widzącym i sobie przypomnieć
bo ja nie wiem czy nawet
to był zamek czy muzeum jakieś wojenne
bo to musiałbym pod nią sobie przypomnieć gdzie my wtedy byliśmy
i bardzo możliwe, że to było jakieś muzeum
wojenne
gdzieś tam, ale naprawdę nie jestem w tym momencie
pewien. Wiem, że to
aha, ja wiem gdzie to chyba było
to był rzeczywiście zamek
i to był taki zamek dość znany, bo tam były kręcone
jakieś filmy też z Jackiem Chanem
jedna z takich atrakcji słowiańskich
dość taki znany, my tam przeszliśmy się
więc bardzo możliwe, że to był ten zamek
natomiast
musiałbym porównać się rzeczywiście z kimś
widzącym czy tam widać te wszystkie rzeczy
o których on pisze, czyli i drzewa
i jakieś tam znaki
i jakieś tam suweniry
wręcz i tam inne rzeczy
natomiast
te opisy wyglądały na dość, dość dokładne
i to jest jeden model, to jest mini GPT-4
a drugim modelem jest lava
która bazuje
na tych modelach językowych
sama to się nazywa i to już jest chyba dzieło
firmy Meta
czyli te facebookowe, to nie ma chyba
wiele wspólnego z opisywaniem zdjęć
przez Facebooka, to nie jest ten sam mechanizm
to już są jakieś te, właśnie też modele
językowe
i tutaj na przykład już
tłumaczenie, jak zadamy pytanie
po polsku
albo wręcz
zmusimy go do tłumaczenia na polski
opisów
to one przyjdą
do takiej maszynowej jakości, gdzie
połowa słów jest po angielsku
część jest po polsku, ale w złym kontekście użyta
i lepiej tego nie używać
ale okej
wrzuciłem tam też obrazek, tam już jakiś tam
przestojów specjalnie nie ma
nawet można
przy wrzucaniu zdjęcia
w przeciwieństwie do mini GPT-4
określić jakiś wstępny prompt, co my chcemy
o tym zdjęciu się dowiedzieć
natomiast
tu już tych szczegółów było troszkę chyba mniej
chociaż wrzuciłem też troszkę bardziej
takie nudniejsze zdjęcie, bo
tam było tylko po prostu niebo
jakieś zdjęcie
nieba o zachodzie, znaczy no już
było ciemno zdaje się, było widać
gwiazdy, nie było chmur, ale były gwiazdy
i tu rzeczywiście nie było
wiele do opisywania, on już potem wymyślał, że
to jest atmosfera spokoju i czegoś
tam
czegoś tam jeszcze
natomiast
ja
zapytałem, jak myślisz, gdzie było to zdjęcie zrobione
i na pewno było zrobione
gdzieś w naturze, bo widać niebo
a na tym niebie to widać gwiazdy
i coś tam, więc wracał cały czas do tych samych
motywów
no tak, ale
już z ciekawości dopytałem go
czy umie zidentyfikować gwiazdy
i coś tam mi powiedział, że tam gwiazdę
północną widzi, że jakiś gwiazdozbiór
południowy
no i tego znów już nie potwierdzę, bo
nie znam się na astrologii
i na gwiazdach
i naprawdę, nawet gdyby mi ktoś
widzący spojrzał, musiałbym znaleźć też osobę,
która na tym się wyznaje
i jest w stanie określić, czy jest w ogóle prawdopodobne,
że tego typu
konkretnie gwiazdy mogły się na tym niebie pojawić
a może nawet widać ze zdjęcia, że to są te
konkretne, ale no jakiś
takiej odpowiedzi mi udzielił
Ja się tą
mini GPT się nie bawiłem, ale lawą
już tak i
wrzuciłem kilka rzeczy
Pierwsze zdjęcie, które wrzuciłem
akurat widziałem post na Macedonii, który
mówił, że akurat dzisiaj padła rocznica
tego, że w kosmos
zostały wystrzelone prochy
Gina Roddenberry’ego, czyli człowieka, który
wymyślił starczek i tam było do tego
postu dołączone
nieopisane zdjęcia. Mówię, dobra, spróbuję
szukałem, chciałem jakieś wykresy, coś znaleźć
jakoś niestety nic nie znalazłem, ale
mówię, zobaczę, co mi tutaj
pokaże. No i jako mój pierwszy prompt
napisałem, tak jak zresztą
opisz to zdjęcie tak, jakbyś opisywał
osobie innymi. No i wszystkie prompty były
po angielsku, akurat tutaj nie pomyślałem, żeby
spróbować coś po
polsku. No i on mi opisał, że
zdjęcie przedstawia
jakiegoś celebryta, dosłownie użył słowa
celebrytę, który jest
który trzyma jakiś mikrofon w
kształcie gwiazdy i on jest
na pierwszym planie tego zdjęcia, ale wokół niego stoją
trzy albo cztery osoby
w tle jeszcze widać jakieś samochody
ale widać, że
ten celebryta jest
punktem uwagi tego zdjęcia. No to zapytałem
się, dobra, no to
kim jest ten celebryta? No i mi faktycznie powiedział,
że celebrytą jest
pan Gene Roddenberry, więc
tutaj zastanawiałem się, czy to zdjęcie
jego przedstawia, czy tą
kapsułę, w której te plochy
były wystrzelone, co tam było pokazane. No i
chyba musiało być jakieś
zdjęcie archiwalne.
A potem postanowiłem zrobić
coś innego i
otworzyłem sobie
grę i wysłałem mu
kilka zrzutów ekranu. Byłem ciekawy, czy
uda mu się coś jeszcze
z nich wyświetlić. No i
ekran tytułowy mi bardzo fajnie pokazał,
bo opisał mi,
że tam na nim widać
trzynaście osób, jakoś tak ubranych
właśnie takim stylu, jakby to była gra wideo,
którzy widać przygotowują się
do walki, żeby walczyć z kimś.
W tle widać była jakiegoś potwora.
Co ciekawe, powiedział, że tych osób
jest trzynaście i to by się zgadzało,
bo akurat to była gra
Thirteen Sentinels i tam faktycznie jest
trzynaście głównych postaci w tej grze.
No i potem go zacząłem konkretniej
dopytywać właśnie o domenie
głównego. Zapytałem, czy tam w ogóle coś się widzi.
No i znów mi tutaj opisał, że widzi jakiś
przycisk do osiągnięć, jakiś
timer, jakiś czas się wyświetla. Zapytałem,
czy widzisz jakieś konkretne opcje.
No i tutaj mi powiedział,
że on
jest modelem wizualnym,
więc nie wiem, co
tam się dzieje, ale jeśli powiesz mi,
jaka to jest gra albo jaki tam tekst
widać, to może będę w stanie powiedzieć ci coś
więcej. Nie wiem, czy
o to dokładnie chodzi. Ja jestem
ciekawy, czy ten model
w czacie
GPT będzie miał podobne
problemy, czy jak to będzie wyglądało.
Niestety nie miałem okazji tego przetestować
na
jakichś właśnie wykresach, schematach,
co jeszcze będę musiał zrobić. Jeszcze
zrobiłem test na
memie, który
też był
na podstawie zrzutu ekranu
z filmu. Akurat ten mem miał
tekst alternatywny, więc widziałem
z czym pracuję, ale tutaj
też niestety mi za dużo nie powiedział.
Powiedział, że widać kilka
postaci, koło każdej jakieś
dymki z tekstem.
Niektóre są takie bardziej
większe, podkreślone, żeby pokazać, że
to są jakoś zabawne, ciekawe.
Ale no jak dopytywałem
jakiejś szczegóły, jaki to jest może film,
albo jaki tam w ogóle tekst widać,
kto to jest, no to już niestety
nie był mi w stanie
nic powiedzieć.
No cóż.
Coś się zaczyna dziać.
Różnie to działa, ale testować warto.
Warto i czasami
można się ciekawych rzeczy dowiedzieć
mimo wszystko. To kolejne
narzędzie, które myślę
warto mieć gdzieś
przy sobie.
Zgadza się. Widzę,
że mamy kolejnego słuchacza
na linii. Tym razem jest
to Łukasz. Co prawda tu
na razie jeszcze
nie ma podłączonego
dźwięku, nie ma
podłączonego mikrofonu, nie ma podłączonego
audio.
Może za chwilę się to
zmieni. Czas pokaże.
No cóż. Tymczasem
czekając na to,
aż Łukasz się z nami połączy,
to może przejdźmy
do kolejnego tematu.
Zobaczymy, może
Łukaszowi w międzyczasie uda się
wszystko skonfigurować,
bo tym razem, Piotrze,
twoja działka, gry i nowości.
No właśnie, a propos gier, bo trochę było
o grach, zaczęliśmy o temat, ale
jeszcze kilka informacji mam.
Może zacznijmy od tego, co się
pojawiło, bo pojawiły się takie
nowe gry, dwie.
Pierwszą z nich jest
Project Dark. To jest
kolejna gra
audio
w stylu takim, w którym
dokonujemy wyborów.
Gra jest dostępna
na komputery i na platformy
mobilne, tu jest zarówno iOS i Android,
aczkolwiek na razie wersja komputerowa
nie jest dostępna,
bo ten
czytnik ekranu, który jest w tej grze,
nie jest w żaden sposób, niestety,
przystosowany na
komputery, bo
ten czytnik ekranu w ogóle jest w taki dosyć dziwny
sposób zrobiony, bo to jest chyba Unity,
ale to jest zrobione
samplami, to działa na takiej zasadzie,
że
w grze mamy różne historie, które
możemy przejść, no i one
generalnie polegają w większości na tym, że
po prostu podejmujemy decyzje, tam przesuwamy palcem
w prawo, aby wybrać jedną
odpowiedź w lewo,
aby wybrać drugą, czasami tam
mamy zadania, w których musimy
przesuwać się góra, dół, lewo,
prawo, żeby chodzić po mapie i
do czegoś dojść.
W grze jest dźwięk
binauralny, więc jest muzyka,
więc są takie, całkiem fajne
te historie są zrobione,
ale generalnie rozgrywka nie jest jakaś bardzo
skomplikowana. Gra
jest podzielona na
sześć różnych odcinków,
każdy jest inny, bo tutaj mamy
odcinek, w którym
jesteśmy rycerzem w takim
świecie fantasy
i próbujemy
przejść jakieś zadania,
mamy inny odcinek,
w którym jesteśmy
atakowani przez
złodzieja w domu i musimy uciec,
więc są różne fabuły,
tam jest sześć odcinków, każdy z nich
kosztuje około 15 zł,
przynajmniej na iOS,
nie wiem ile na Androidzie, ani na
Steamie, ani na komputerze.
No a to menu
jest zrobione w taki sposób, że
przesuwamy
palcem w lewo, w prawo, w górę
i w dół, aby wybrać poszczególne opcje,
a przynajmniej w menu głównym,
bo w menu, gdzie kupujemy te odcinki
to już jest tak zrobione, że
trochę niektóre osoby
są na to zdenerwowane,
bo to działa w ten sposób, że
narrator nam mówi, aby
wybrać pierwszy odcinek, naciśnij
lewy górny róg, drugi odcinek
no to góra na środku,
trzeci odcinek prawy,
czwarty to jest na środku po lewej
stronie i tak dalej.
Po wybraniu odcinka słyszymy
opis, no i musimy dotknąć lewy dolny
róg, żeby
dany odcinek kupić. Mi to zadziałało
chyba za piątym albo szóstym razem, nie wiem,
czy po prostu to mi się ładowało i
gra mi o tym nie powiedziała, czy po prostu
nie trafiłem w ten przycisk, no ale to jest tak…
No da się to
przejść, ale dziwnie jest
ten ekran zrobiony,
zwłaszcza, że no przecież na Unity jest
ta wtyczka, która działa
bardziej jak taki typowy screen
reader, no i zresztą pewnie wtedy by to na
komputerze też działało.
Ale jeśli ktoś szuka kolejnej gry
takiej prostej, no i przy okazji
z jakąś
fajną oprawą dźwiękową
i muzyczną, no to
warto się zainteresować.
A jeśli
szukamy czegoś troszeczkę
bardziej skomplikowanego na komputery,
to można się zainteresować
nową, darmową grą
Wave of the Undead,
w której musimy
stawić czoło zombie.
Stawiamy im czoło w
grze takiej
turowej, w której
przed rozpoczęciem poziomu
mamy
ograniczoną
ilość pieniędzy,
no i musimy
tymi pieniędzmi wzmocnić
naszą bazę,
postawić jakieś bronie, które będą
nas bronić. One mają
różne siły,
działają w troszeczkę różne sposób.
Mamy mniejsze działka, jakieś
większe katapulty. Możemy też
chodzić z naszą postacią i po prostu
uderzać w te
zombie z pięści, kiedy do nich podejdziemy.
No i po tym jak kupimy
już wszystko albo naprawimy
grę, która została uszkodzona, rozpoczynamy poziom.
Wtedy na planszy pojawiają się
te zombie. Możemy się rozglądać
i poruszać naszą postacią
i je zabijać.
Za każdego zombie,
którego albo my, albo nasza
broń zabije, dostajemy pieniądze, które
potem możemy wykorzystać,
aby jeszcze
bardziej wzmocnić
naszą broń. No i jeśli nasza postać
zginie, podejdziemy za blisko do
jakiegoś zombie, no to jest
koniec rozgrywki. Taka
ciekawa gra darmowa,
dostępna tylko na
Windowsie, ale jeśli
kogoś taka gra interesuje,
to myślę, że
warto sprawdzić. A
jeszcze kilka
aktualizacji się pojawiło, m.in.
taka gra System Fault,
która już wiele razy się pojawiała
gdzieś w, jeśli chodzi o aktualizację,
gra, która rozpoczęła
swój żywot
Game Jam, jednego z
Game Jamów, ale autor cały czas
ją rozwija. Właśnie wyszła taka
dosyć duża aktualizacja, która
wymieniła
całkiem silnik audio w grze,
który teraz powinien dawać jeszcze
lepsze wrażenia.
Powinien być szybszy, ten dźwięk
będzie bardziej realistyczny, ten dźwięk będzie się
lepiej odbijał od
ścian m.in., więc powinniśmy,
jest nam łatwiej poruszać się
po mapach.
Równie sztuczna
inteligencja naszych
przeciwników jest
lepsza.
No i
roboty, które w tej grze zabijamy
będą teraz
zostawiać takie dekoracyjne
płonące wraki, które będziemy
słyszeć, no bo w tej grze generalnie jesteśmy w labiryncie,
w którym też chodzą
roboty, no i musimy
albo te roboty wszystkie
zniszczyć, albo po prostu przed
uciec i wydostać się
z poziomu.
Więc to jest też taka fajna gra, którą można grać na
wszystkich platformach, na Windowsie, na
Macu, na Linuxie, no
nie ma wersji mobilnych, ale można
w nią grać zarówno na
klawiaturze, jak i
na padzie. Jeśli ktoś ma kontroler
dowolny, to można też sobie w tą grę
na nim
zagrać.
Będzie jeszcze następna,
jeszcze jedna publiczna beta
Diablo 4, no o Diablo już
mówiliśmy wcześniej, mówiłem, że
ten czytnik ekranu, który
w tej grze się pojawił, miał błędy.
Co ciekawe, jakiś tydzień, albo
dwa temu firma Blizzard
napisała taki post, w którym
wyciągali wnioski
z tych pierwszych dwóch
fastbeta, które były, no i
już jakieś zmiany wprowadziły.
Między innymi właśnie były poprawki w tym czytniku ekranu,
który teraz powinien czytać
wszystko, wcześniej nie czytał
stanów przycisków
i wielu innych rzeczy.
W tej najnowszej
becie to już powinno działać,
a konkretnie ta beta
będzie dostępna od 12
do 14 maja, więc
jeśli ktoś z was jeszcze nie pograł, a
jest zaciekawiony tym, czy
może jeszcze jakieś inne nowości w
dostępności się pojawiły,
no to możecie sobie
od 12 do
14 maja zarówno na
komputerze, jak i na wszystkich
nowych konsolach
przetestować. No i
jeszcze informacja, która wpadła dosłownie dzisiaj,
mod Stardew Access
to gry Stardew Valley,
który był,
który czyni ją
dostępną, który był wcześniej
dostępny na Windowsie, na
Linuxie, doczekał się też
wsparcia dla syntezy na Macu,
no bo gra na Macu też
jest dostępna. Ta wersja jeszcze
oficjalnie się nie ukazała, ale kod
źródłowy z tym wsparciem już się
pojawił, więc jeśli ktoś
chce sobie to skompilować i uruchomić
w ten sposób, to może,
ale niebawem za kilka dni
ta wersja
na Maca się pojawi. Ten mod zresztą cały czas
się prężnie rozwija,
m.in. gra,
minigra łowienia ryb, która wcześniej
nie była dostępna, musieliśmy sobie
to zautomatyzować, teraz też się stała
dostępna, więc
mamy jeszcze więcej rzeczy, które
w tej grze możemy zrobić,
no i teraz jeśli macie Maca,
to też możecie sobie
właśnie na nim
w tą grę pograć.
I to wszystko.
Wszystko, ale i tak sporo informacji na
temat gier, więc dla tych wszystkich, którzy
lubią tę formę rozrywki,
mam nadzieję, że informacji
nie zabrakło, a tymczasem
Łukaszowi chyba udało się
opanować kwestię
mikrofonu i jest z nami.
Witaj Łukaszu.
Tak, witam serdecznie,
słychać mnie? Słychać cię.
Tak, jestem Łukasz
i właśnie
testuję Zooma na Blind Shellu,
jak to wszystko działa, no i właśnie
widzę, że się udało.
No, udało się. Ciekawe,
jaki problem miał Darek swoją drogą
z podłączeniem się do
nas, bo on jakby
nie mógł przejść nawet tego etapu,
który był na początku,
czyli ta, kiedy
ja Dareka próbowałem
przenieść z poczekalni
do naszego spotkania,
no to tu już się pojawiał
jakiś problem. Ty na początku jeszcze miałeś jakiś
kłopot, zdaje się, z podłączeniem
mikrofonu, ale potem
to już zaczęło to działać.
Znaczy, no u mnie było też
podobnie, że jak
się choćby podłączyłem do
spotkania, to
przez chwilę się choćby nic nie działo,
niech to nazwę, a potem
się pootwierały
wszystkie te zakładki, typu tam
połącz z siecią wi-fi
i z siecią komórkową
i potem się dopiero
otwarło to spotkanie, zgoda na
nagrywanie i tak dalej.
OK.
No ale w każdym razie, słychać
ten mikrofon, no, w Blind Shellu
jest jaki jest, ale
nie jest ten dźwięk najgorszy.
Zresztą,
mało dołu, mało dołu, moim zdaniem.
Jak na taki nawet smartfonowy
mikrofon, ale nie jest to złe,
oczywiście.
No i jak już tak jesteśmy
w temacie, to powiem o tym
Spotify’u
na właśnie
Blind Shellu.
No powiem, że to działa,
tylko na początku
otwieramy aplikację
i przechodzimy
do zakładki zauwką.
I wtedy nam się
otwiera
przeglądarka.
Musimy wpisać datę
urodzenia, tam
imię, nazwisko, maila
i
potem, no,
troszkę potrzebujemy
pomocy osoby
widzącej, bo
no już nam przeglądarka
wyświetla, że
zalogowany
jako Łukasz
Wesołowski,
no ale ta nazwa
użytkownika, którą
potem trzeba wpisać w tej aplikacji,
ma 28
znaków.
I to jest taki zlepek cyfr
i liter,
więc tu lepiej poprosić
osobę widzącą,
żeby to nam spisała
na kartę, żeby to potem
wpisać do tej
aplikacji.
A nie da się tego zaznaczyć, skopiować
i wkleić?
No niestety nam
na Blain Shellu
się tego właśnie nie da.
Rozumiem.
Tu chcę to podkreślić,
że tu właśnie potrzebujemy
i jeszcze droga pomocy
osoby widzącej
przy założeniu
tej wersji premium,
trzeba podać
numer karty płatniczej
i potem ten
kod
CVV, czy jak to się nazywa?
CVV, tak.
Tak, ten przycyfrowy.
To trzeba wszystko wklepać, przycisk
otwierać i potem
wychodzimy, no i
jeszcze zapomniałem, przy
zakładaniu
konta, to musimy sobie
stworzyć własne.
Łukaszu, ale to jak
rozumiem, to jest tak, że
z darmowej wersji Spotify’a
nie pokorzystamy sobie na Blain Shellu,
tak? Nie, nie.
Musi być ta wersja
premium, to kosztuje
19 złotych miesięcznie.
Jasne. No i to
jest niby pobierane
automatycznie z naszego
konta, bo tam
przechodzi mail taki
informacyjny, gdzie to wszystko jest
właśnie napisane.
No i jak już
sobie założymy to konto,
to wychodzimy z przeglądarki,
otwieramy jeszcze raz to
aplikację, no i
pierwsza pozycja to jest nazwa
użytkownika, no i wklepujemy
ten zlepek
28 znaków.
W następnej pozycji
jest hasło, no i potem
jest zalogi.
Jakie możliwości daje nam to
Spotify po zalogowaniu?
No tak najprościej
mówiąc mamy
zakładkę
szukaj, zakładkę
albumy
wykonawcy
ulubione
i jeśli się nie mylę
chyba jeszcze playlisty.
No i co sobie wpiszemy?
Na przykład
nazwę jakiegoś tam
piosenkarza
i klikamy w to
i wtedy mamy
otwierają się
dwie opcje, jest
albo lista
albumów, albo popularnych
piosenek i potem jest też
dodaj do
ulubionych
albo dodaj do playlisty.
No powiem szczerze, działa
to wszystko fajnie, tylko co
ciekawe
nie potrafi wysłuchać
tej
książki pana Marka
Kalbarczyka
ich trzecie.
Bo to zdaje się jest jako podcast.
To jest jako podcast,
a pytanie
czy
te katalogi są
łączne czy rozłączne?
Mi się wydaje, że jednak
katalog muzyczny
Spotify
i katalog podcastów
Spotify to są dwie
odrębne rzeczy,
bo to pytanie na przykład, czy
Tyflopodcast byłbyś w stanie wyszukać, bo my też
jesteśmy w Spotify.
A no to
powiem, jak że tak powiem
rozłączę Zooma to spróbuję
i najpierw zadzwonię
za tydzień.
Bo też mi się tak zdaje,
że to jest właśnie
rozłączne.
Tak podejrzewam.
No ale
ogólnie to powiem, że to
działa. Tylko tak
mi się zdaje, że jak tak
jesteśmy w domu, to chyba
lepiej połączyć ten
telefon z sieci
Wi-Fi, bo chyba troszkę
tego internetu nam
zużywa.
I tu nasunęło mi się pytanie,
jeśli się orientujesz, czy
masz możliwość pobierania piosenek
na telefon z tej aplikacji?
No właśnie niestety nie.
Czyli nie ma możliwości słuchania tego
offline, bo klient Spotify
no ma taką możliwość.
Jeżeli na przykład wybieramy się gdzieś,
gdzie wiemy, że będzie ten zasięg
internetu albo słaby,
albo po prostu ograniczony, no to możemy
sobie pobrać jakąś naszą na przykład
ulubioną playlistę
i oczywiście nie wyciągniemy
tego poza aplikację, bo to
jest wszystko wewnątrz aplikacji
Spotify, to jest wszystko zaszyfrowane,
niedostępne, ale
możliwe do odtworzenia w tej
apce.
No i ze strony Blind Shella jeszcze
taki fajny, wielkanocny prezencik.
Przed samymi świętami
została zaktualizowana
przeglądarka
internetowa
i teraz, co ciekawe, już możemy
pobierać pliki muzyczne
i pliki wideo.
No z takich darmowych stron na przykład
tu podam przykład
teledyski.info i muszę powiedzieć,
że działa to
naprawdę fajnie, szybko.
Więc piosenki, czy
właśnie filmy już na własność
sobie możemy pobierać.
No to też dobrze, że
można już te multimedia zapisywać w pamięci
telefonu, to jest
fajna rzecz i myślę, że może być
przydatna. I jeszcze został
zaktualizowany program
do odtwarzania
podcastów.
No takim
największym
tu polepszeniem jest, że
idzie sobie zwiększyć prędkość
odtwarzania.
A, to też
super. I to się stało
w sumie niedawno, dwa dni temu
chyba, albo poniedziałek,
albo
poniedziałek.
No to fajnie. To dzięki
Łukaszu za te informacje. Fajnie, że
udało się przetestować Zooma.
Jak widać, działa to, nie musisz
już do nas dzwonić przez telefon.
Możesz łączyć
się
bezpośrednio
z Blindshella.
Tak.
To na dzisiaj dziękuję bardzo,
a za tydzień to jeszcze
przedzwonię i trochę
opowiadamy o tych targach, też
obrotki metali, co były no już niecały
miesiąc temu, ale też
ciekawe interesy. No a na dzisiaj
dziękuję bardzo i, że tak
powiem, pozdrawiam wszystkich i
życzę mi
miłej audycji.
Dzięki Łukaszu. Pozdrawiamy cię raz jeszcze.
Do usłyszenia. No i
miłego wieczoru życzymy. Teraz
przechodzimy do kolejnego
tematu. Tym razem coś dla tych, którzy
lubią odwiedzać różne muzea,
bo na przykład,
jeżeli mielibyście ochotę odwiedzić Muzeum
Poczty Polskiej, no to zdaje
się, że jest ono muzeum
dostępnym. Tak.
To jest jedno muzeum. Jeszcze potem
przekażę wam informację o Teatrze im.
Juliusza Słowackiego w Krakowie,
ale na ten moment Muzeum
Poczty Polskiej we Wrocławiu
zaprasza. Z jednej
strony dlatego, że samo muzeum
jest muzeum dostępnym i tam są zarówno
możliwość jest dotknięcia
różnych obiektów, a nie jest to
jedynie muzeum poczty, a też muzeum telekomunikacji,
więc dla mnie
myślę, że byłaby to gratka,
więc jeżeli będę we Wrocławiu, to pewnie wpadnę.
Trochę mniej zadowolony jestem
z tego, że przekapiłem tu jedno ze spotkań,
bo były
i nadal są organizowane
spotkania tematyczne,
właśnie takie ukierunkowane
na osoby z dysfunkcją wzroku
i pierwszym z tych spotkań jest
historia komunikacji.
Myślę, że tam byłoby bardzo fajne
oprowadzenie po eksponatach, a ponoć muzeum
ma w swojej kolekcji
telefony zabytkowe,
radia, radiotelefony,
przeróżne
jakieś tam urządzenia
i no ja bym sobie takie rzeczy chętnie obejrzał,
a jeszcze z jakimś fachowym komentarzem
to i nawet lepiej.
No ale przeczytajmy za stroną
PZN-u Polskiego Związku Niewidomych,
jakież to
atrakcje czekają jeszcze, bo
spotkania już dwa minęły, ale dwa jeszcze zostały.
No to dajmy znać
co tam we Wrocławiu.
Muzeum Poczty
i Telekomunikacji
we Wrocławiu zaprasza osoby niewidome i słabowidzące
na spotkania tematyczne,
które odbędą się w marcu, kwietniu i maju
oraz do zwiedzania ekspozycji
indywidualnie.
Przygotowano audiodeskrypcje,
eksponaty rytmowe oraz inne udogodnienia.
Muzeum we Wrocławiu
jest jedynym w Polsce gromadzącym zabytki
związane z historią Poczty Polskiej,
telekomunikacji i filatelistyką.
Na wystawach prezentowane są
obiekty takie jak zabytkowe,
skrzynki pocztowe, mundury,
przybory piśmiennicze,
pojazdy konne,
a także przedmioty
przedstawiające rozwój telekomunikacji,
telegrafy, telefony,
radioodbiorniki.
W ramach projektu Kultura bez Barier w Przestrzeni
muzeum zainstalowane zostały
oznaczenia pionowe i poziome,
a wybrane muzealia
udostępnione są do poznawania
za pomocą dotyku.
Nagrania treści wystaw w formie audiodeskrypcji
i montaż specjalnych oznakowań
umożliwiają
swobodne zwiedzanie oferty
i samodzielne poruszanie się
osobom niewidomym i słabo widzącym.
Oferta jest przygotowana zarówno
dla osób indywidualnych, jak i grup.
Muzeum zaprasza na cztery wydarzenia.
Przy każdym oprowadzaniu,
oprócz opowieści narracyjnej
na dany temat, przygotowano
zabytki przystosowane do oglądania
przy pomocy dotyku.
Udostępniona jest także audiodeskrypcja
poszczególnych eksponatów.
Terminy spotkań.
29 marca,
to już właśnie niestety minęło,
o 13.00 tajemnice komunikacji.
14 kwietnia,
to już też minęło,
o 12.00.
Historia podróżowania.
9 maja
2003 r.
o godzinie
11.00.
Historia poczty i skrzynki
pocztowej.
I 30 maja
o 12.00.
Dzieje wagi pocztowej.
No i udział w wydarzeniach można zarezerwować,
dzwoniąc pod numer telefonu
71
346
95
82
raz jeszcze, 71 kierunkowy
346
95
82. Wstęp wolny,
maksymalna ilość na spotkaniu
20 osób,
w tym osoby asystujące.
Przedsięwzięcie Zwiększenie Dostępności
Muzeum Poczty i Telekomunikacji
we Wrocławiu dla osób ze szczególnymi
potrzebami w obszarze widzenia
realizowany jest w ramach programu
Kultura Bez Barier.
No i to wszystko, jeśli chodzi o Muzeum
Poczty Polskiej
i Telekomunikacji. Prawdopodobnie
jest to na mojej mapie, jak tylko
wpadnę do Wrocławia.
To się zainteresuje
i pewnie pójdę tam
eksponaty obejrzeć.
Natomiast
Kraków ma również dla nas
coś, bo Teatr
Słowackiego zaprasza na warsztaty
teatralne i tu ogłoszenie.
Teatr
Słowackiego w Krakowie zaprasza osoby
niewidome i słabo widzące na warsztaty
teatralne. Uczestnicy będą
mogli poznać tajemnice teatru,
rozwinąć twórcze myślenie, a nawet
odkryć artystę w sobie. Każde
ze spotkań będzie miało inny temat przewodni.
Obowiązują zapisy, bilet
w cenie 5 zł. I mamy program
wydarzeń. I tu znowu jedno spotkanie
nam uciekło. To jest 3
kwietnia
w Domu Rzemią
Teatralnych od 17 do
19.30. Temat
kostium Druga Skóra Aktora.
Uczestnicy wezmą udział
w twórczych działaniach, dzięki których poznają
moc kostiumów teatralnych.
Będą mogli je przymierzać, badać
ich fakturę oraz zastanawiać się jaką
historię mogą opowiedzieć.
Z zebranymi spotka się kostiumograf,
który oprowadzi ich po magicznym świecie
kostiumów.
No i teraz przed nami co? Przed nami
8 maja, a wtedy
w Teatrze im. Juliusza Słowackiego
o godzinie 17 do 19.30.
Mamy temat
Przestrzenie teatru.
Warsztaty rozpoczną się od zwiedzania głównego
gmachu teatru im. Juliusza
Słowackiego z audiodeskrypcją.
W sensie oprowadzanie z audiodeskrypcją.
Później zebrani
porozmawiają o przestrzeniach teatru.
Jak powstaje scenografia?
Czy teatr zawsze potrzebuje sceny?
A może wystarczy kawałek ulicy i dwoje ludzi,
którzy chcą ze sobą porozmawiać?
Jaki byłby teatr na Wawelu?
Inspiracją będzie dla uczestników
studium
o hamlecie
Stanisława Wyspiańskiego.
Gościem spotkania będzie
scenograf, który opowie o swoim zawodzie
i pracy z przestrzenią.
No i
spotkanie 5 czerwca
w Domie
Rzemiosł Teatralnych,
też 17 do 19.30.
Ciało w teatrze, ruch i choreografia.
Podczas warsztatów
uczestnicy będą się ruszać, tańczyć
oraz tworzyć choreografię na wybrany temat.
Gościem spotkania będzie choreograf,
który opowie o znaczeniu ruchu scenicznego.
Organizatorzy
nie wymagają od uczestników
wcześniejszego doświadczenia tanecznego.
Proszą o zabranie wygodnego stroju
oraz butów sportowych.
Zapisy na wydarzenia,
zainteresowani wzięciem udziału w warsztatach
powinni skontaktować się z koordynatorką
katarzyną peplińską-pietrzak.
E-mail jest tu podany
peplińska-myślnik-pietrzak
małpas-lowacki
.krakow.pl
Jest też numer telefonu
696
572
383. Raz jeszcze.
696
572
383. Bilet w cenie 5 zł.
Jeśli ktoś potrzebuje asysty i wsparcia
w dotarciu z przystanku do teatru
może poinformować o tym
koordynatorkę. Warsztaty realizowane
są w ramach przedsięwzięcia grantowego
dostępny teatr imienia
Juliusza Słowackiego, poprawa dostępności
oferty kulturalnej teatru
finansowanego z Państwowego
Funduszu Rehabilitacji Osób Niepełnosprawnych
z programu Kultura BS Barier.
No i to
są propozycje na ten moment.
Pewnie jest ich więcej, gdyby tak patrzeć
na stronie na pewno Polskiego Związku
Niewidomych, więc warto
się tam zajrzeć i zobaczyć, bo może
w Waszym mieście też dzieje się coś ciekawego.
A tymczasem
wypowiedź na Facebooku
naszego słuchacza Wojciecha to tak a propos
spacerowania
i Wojciech napisał do nas tak
kurcze trochę nie rozumiem skąd ten
strach przed spacerowaniem
skąd taka narracja, że
Innsbruck to taki bezpieczny
a większość miast w Polsce to
hardcore dla niewidomych. Ja osobiście
spaceruję po śląskich rejonach
i nie czuję zagrożenia. A swego
czasu do tego typu historii
bardzo przydawała mi się aplikacja
Gether, której już
niestety nie ma w Google Play.
Obecnie korzystam z Mówa.
Tak napisał
do nas Wojciech, nie wiem Pawle coś…
To może ja tylko sprostuję. Nie, mi nie chodziło
o to, że Innsbruck jest bezpieczniejszy
od innych miast, to przepraszam jeżeli tak wybrzmiało.
Ostatnio szedłem
sobie po Gliwicach, nie sam co prawda,
z kimś i mam takie poczucie, że Gliwice
też by były całkiem fajne na przykład.
Chociaż w Gliwicach
trzeba przyznać jest problem z udźwiękowieniem przejść
dla pieszych. W wielu
miejscach niestety tych udźwiękowień nie ma.
A ja na przykład właśnie do tego bym
dodał, że to wszystko bardzo zależy
od tego gdzie jesteśmy, bo
ja absolutnie na przykład w moim
mieście, czyli w Iławie
no idąc gdzieś tam
sam absolutnie nie czułbym się komfortowo
na zasadzie spaceru.
Oczywiście dotrzeć gdzieś
dałoby się, natomiast to nie jest
tak, że można
sobie gdzieś tak po prostu
komfortowo bardzo
lajtowo przejść z miejsca do
miejsca, chociażby właśnie ze względu na problem
ze światłami, bo
udźwiękowionych świateł to nie ma
w ogóle, a
światła w zasadzie
jako takie to są
chyba tylko dwa.
Piotrze coś chyba
słyszać twojego województwa?
To jest taki zamiar?
O!
Piotr nam wyszedł.
Więc na przykład
tu są zaledwie dwa
dwie sygnalizacje
świetlne na całe miasto, także
to bardzo zależy od tego
gdzie jesteśmy i
w jakim miejscu
się znajdujemy.
Żeby mówić o takim naprawdę
komfortowym po prostu
spacerowaniu, takim
rekreacyjnym, bo oczywiście wiadomo,
że to jest zupełnie inna sytuacja,
kiedy mamy dojść w jakieś
konkretne miejsce i w jakimś celu,
ale tu nie o to chodzi.
Tak, ale też
mówię o Innsbrucku ja, bo z Innsbruckiem
mam najwięcej doświadczeń, bo tam mieszkałem samodzielnie,
a jak mieszkałem samodzielnie, to
miałem też przestrzeń i czas, żeby eksplorować
to miasto i po prostu
gdzieś się przejść
i miałem tam przykłady.
Akurat trafiłem na takie osiedle, że mieszkałem na osiedlu,
gdzie było bezpiecznie.
Rynek jest fajny i to rzeczywiście
rozwiązanie z linią dość długą prowadzącą przez
rynek, no dla mnie było gdzieś unikalne.
Nie spotkałem się, żeby aż tak
duża przestrzeń była pokryta linią
prowadzącą.
Natomiast też jak rozmawiałem
z mieszkańcami Innsbrucka,
to
oni też mówili, że nawet na skalę
austriacką Innsbruck
jest bardzo bezpiecznym miastem.
Nawet jak moja instruktorka orientacji na przykład
stwierdziła, że tam nie ma takich
dzielnic, które są uznane za niebezpieczne,
że lepiej tam się nie przechadzać,
albo lepiej tam po konkretnej godzinie
się nie kręcić
i że na przykład
dużo bezpieczniejszy jest Innsbruck od Linz.
Też mi ktoś powiedział,
że nie ma jakichś problemów
z jakąś taką miejską przestępczością,
ale to nie, nie, nie. Mi bynajmniej nie
chodziło teraz o to, żeby polskie miasta w jakiś sposób
demonizować. Podałem po prostu przykład
czegoś, gdzie
ja sam doświadczyłem i mogłem
się przejść. Roberto mógłby bardziej powiedzieć
o Poznaniu, bo on mówi, że tam w Poznaniu
nie jest tak coś
bezpiecznie. No to może Roberto ma jakieś szczegóły.
Tak, więc
jeżeli chcecie jeszcze coś do tego
dodać, to oczywiście zapraszamy
do dyskusji. Jeżeli macie
tutaj jakieś zdanie odrębne od naszego,
to jak najbardziej. Czekamy,
czekamy.
Zarówno telefonicznie,
zoomowo, jak i po prostu w komentarzach
pod transmisją, które jak widzicie
zresztą przeglądamy.
To ja myślę, Pawle, z racji tego, że
ty masz w naszych
Tyflu Aktualnościach jeszcze więcej informacji
niż Piotr, to jeszcze
może opowiedz nam o tej plaży hiszpańskiej,
jak to z jej dostępnością wygląda.
Tak, jest sobie takie
miasto.
Ono się nazywa
Fengirola.
Pewnie się to jakoś tak
czy albo Fenhirola, pewnie się to tak
po hiszpańsku czyta.
Jest to miasto nad Costa del Sol
na przedmieściach Malagii, czyli Andaluzia,
bardzo interesujący
turystyczny rejon.
I tam
rozbudowano plażę
o technologię,
która pomaga osobom
z dysfunkcją wzroku nie tylko na tej
plaży się poruszać, ale też
bezpiecznie pływać.
Jak to jest zrobione?
Jedną częścią tego systemu
jest osławiony już pilot
do uruchamiania świateł
na przejściach dla pieszych, o którym
nasz słuchacz Wojtek,
który do nas czasem dzwoni, coś opowiada
też o Hiszpanii,
mówił, że bardzo ciężko ten pilot
uzyskać, nie będąc
obywatelem
Hiszpanii, to zwłaszcza
gdzieś w Barcelonie, jakiś pusty problem.
Ale
mając tego
pilota, możemy
też aktywować, no, na plaży
nie ma przejścia dla pieszych,
ale są boje. I za pomocą
tego pilota można wykryć
sobie boje, czyli gdzie można wejść do tej wody
bezpiecznie, a mając na ręku
opaskę, i tu artykuł
wspomina, że swoją
opaskę, kto ma,
nie wiem, czy chodzi o jakąś dedykowaną
opaskę, bo to też artykuł
tłumaczony maszynowo, czy to chodzi
o jakiegoś Apple Watcha
na swój sposób, ciężko mi powiedzieć.
Ma możliwość,
no, wykrycia tych
boi, jednej i drugiej,
ma możliwość też sprawdzenia
odległości do tej boi,
i ma możliwość też wezwania pomocy
ratownika, gdyby coś się działo.
Oczywiście, kiedy my wykryjemy też tym
pilotem te boje,
to ratownicy
przy brzeżni
plażowi już też wiedzą,
że osoba niewidoma na tej plaży się porusza,
że trzeba by szczególną zwracać uwagę
w tym momencie na wodę,
bo tam może być osoba,
która prawdopodobnie sobie poradzi,
ale w razie czego może być
też tak, że
ta osoba będzie tej pomocy potrzebować.
Ciekawe oczywiście,
jak w praktyce,
natomiast pierwszy raz słyszę o takim rozwiązaniu,
uważam, że jest ono ciekawe.
Poza tym, co to za opaska i gdzie ją można dostać
i czy turyści też mieliby do niej
jakiś dostęp.
Szak Kostadel Sol jest jak najbardziej rejonem turystycznym,
nie tylko dla turystów hiszpańskich.
Ciekawe.
Może kiedyś ktoś się
wybierze i zda
jakąś relację.
To by była ciekawa
informacja.
A teraz przechodzimy do kolejnego
tematu, tym razem Piotrze,
ty masz dla nas informacje na temat
nowych dodatków dla NVDA.
Tak jest,
konkretnie to są dwa notatki
od Davida, CM.
Pierwszy z nich
to jest Wake Speaker
i to jest dodatek, który
pełni funkcję, którą
poniekąd już kilka dodatków,
które to robią, powstało,
ale ma kilka takich
unikatowych funkcji, a konkretnie
powoduje, że
nie usypiają nam urządzenia Bluetooth
czy karty dźwiękowe.
On ten dodatek napisał dlatego, że
kupił sobie słuchawki, które
mają jakiś tryb,
który pozwala na bardzo
niskie opóźnienia,
ale niestety
te słuchawki
bardzo szybko zamykały kanał audio,
więc mowa NVDA czasami
lubiła uciekać, więc
zrobił dodatek, który
generuje w tle szum
i możemy sobie dostosować głośność tego szumu,
więc jeśli mamy jakąś kartę dźwiękową,
w której ta
głośność jest za niska,
bo niektóre karty tam
słuchają tego sygnału faktycznie,
więc tutaj możemy sobie to dostosować,
ale też przez to, że jego słuchawki
miały taki problem,
że po czasie to opóźnienie się zwiększało.
Jeśli ten bufor był ciągle
otwarty, no to dodał taką funkcję,
że jeśli NVDA nic nie mówi
przez kilka sekund, no to
ten dodatek może
tą ciszę, ten
szum na chwilę wyłączyć
na kilka milisekund
i włączyć z powrotem, więc ten bufor przez to
się resetuje, ten czas
tej pauzy też można
sobie w ustawieniach
dodatku ustawić, więc
jeśli ktoś ma taką kartę,
która ma taki problem i te ustawienia,
które nam oferuje NVDA
sam w sobie, czy te inne dodatki
nie wystarczały,
a nie chcieliście sobie puszczać
sami jakiegoś właśnie pliku z szumem,
no to myślę, że
warto się tym zainteresować.
A drugi dodatek,
który już kiedyś poniekąd była
mowa jakiś czas temu, to jest
dodatek Enhanced Stones,
który nierawno doczekał się
aktualizacji. A co ten dodatek
dokładnie robi? No, pozwala nam troszeczkę
dostosować sobie
te dźwięki,
które NVDA wydaje
z siebie. Konkretnie tutaj chodzi
o wszelkie piski,
na przykład kiedy poruszamy myszką,
kiedy zmieniają się paski postępu,
no NVDA czasami w niektórych
sytuacjach do nas piszczy,
ma taki specyficzny
dźwięk, który nie wszystkim pasuje,
no i właśnie w tym dodatku
możemy go sobie zmienić, możemy użyć
tego domyślnego
generatora pisków, który jest
zbudowany w NVDA, ale też mamy do wyboru
trzy fale, możemy
mieć te piski
sinusoidalne, ten dźwięk jest
taki cichszy. Pierwsze,
pierwsze wersje NVDA i tam prewizje
300, 400, jeśli ktoś jeszcze pamięta
właśnie takie fale sinusoidalne
stosowały,
które potem zostały zmienione, bo na przykład
w niektórych głośnikach na laptopach było je
słabo słuchać, ale one są takie, mają łagodniejsze
dźwięki. Mi osobiście
one się bardziej podobają,
ale też mamy
głośniejsze
dźwięki do wyboru, bo możemy też
mieć fale
zębate lub prostokątne, które są jeszcze
głośniejsze od
tych domyślnych w NVDA, to są takie typowo
8-bitowe
dźwięki, które nam mogą troszeczkę stare
gry wideo przypomnieć, więc
może komuś
takie głośniejsze tony
jest lepiej słyszeć,
no to tutaj też myślę
warto się tym dodatkiem
zainteresować. Linki do obu
będą w komentarzu i
oba jak najbardziej działają
z najnowszą wersją NVDA.
No więc faktycznie,
jeżeli kogoś
interesuje rozwijanie
swojej instalacji NVDA,
szczególnie, że z tymi dźwiękami
i z bluetoothem to ostatnio właśnie widziałem,
że ktoś się skarżył, że chyba ten
poprzedni dodatek, który
pozwalał na
odtwarzanie
jakichś dźwięków w tle,
dzięki któremu nasze urządzenia
bezprzewodowe się nie usypiały, chyba nie został
jeszcze zaktualizowany do nowej wersji.
Więc może warto dać szansę
czemuś nowemu,
tak? A też jeszcze jest ten,
nowa wersja Tesseract OCR, jak już mówimy
o aktualizacjach i tam też jakieś poprawione
błędy, oczywiście tak, z dociąganiem języków,
coś tam, ale na przykład
też, z tego co zrozumiałem,
wynik rozpoznania
danego dokumentu, czy też
screenshota, może być wyświetlany
w formie takiej stronki HTML,
więc ja się domyślam, że jakieś formatowanie może tam
zostanie, to byłoby też
ciekawe. Tak, w ogóle ten nowy Tesseract
to też jest w jakiś sposób
oparty na sztucznej inteligencji,
to nie jest to, co było kiedyś, generalnie
z tego co wiem, to działa
do tego stopnia tak dobrze, że
na przykład jakiś czas temu
Internet Archive, które długo używało
finelidera do OCR-owania
wszystkich materiałów na tej stronie,
właśnie też przesiadło się
na tego nowego Tesseracta.
No i rośnie nam fajna konkurencja
do takich domowych zastosowań dla
finelidera, który, przypominamy, jest teraz
tylko w modelu subskrypcyjnym, więc
troszkę słabo.
A w międzyczasie
widzę, że w poczekalni
naszego spotkania
na Zoomie pojawiła się
Paulina, więc
może ma dla nas też
jakieś informacje.
Czekamy, aż Paulina się tu podłączy.
O, już prawie, już prawie.
Witaj.
Cześć.
Co prawda miałam
tu nie być, ale sobie wspomniałam
o paru rzeczach, o których miałam mówić
i które też miałam puścić.
To jeszcze może włącz sobie dźwięk oryginalny,
jakbyś dała. O, faktycznie.
Momencik.
Przepraszam, dzisiaj jestem
trochę nie w formie.
Matko,
gdzieś coś robiło. O, tu jest.
Dobra.
Jest już OK? Jest.
Super. No to tak.
Pierwsze
takie dwa drobne newsy, a później będzie
prezentacja, tylko przydałoby
mi się właśnie możliwość
udostępnienia.
To od razu proszę na wstępie.
Pierwszy news
jest taki, że QuizWani
jest dostępniejsze niż
było kiedyś.
Niedawno to zauważyłam,
bo niedawno dostałam informację o tym,
ale nie wiem od kiedy to jest,
przynajmniej na Androidzie,
że jak
kiedyś po prostu jedyne, co się
dało zrobić, to
grać i
jakby
nawet zawsze wyskakiwały jakieś
reklamy i trzeba było wirtualnym
ekranem to przeklikiwać i strasznie
z tym dużo było zabawy. No to teraz
tych reklam nie widziałam, w sensie
ani reklam, ani żadnych pop-upów, które wywalały
dostępność.
Są dostępne wiadomości
systemowe, które kiedyś nie były
odczytywane przez ten screenreader mały.
Jest
jak się odpowie źle na pytanie, to jest
określona odpowiedź.
I mam wrażenie, że jest
troszkę dostępniejszy czat,
ale nie pamiętam, o co tam chodziło
wcześniej, że był problem.
I to
jest jedna rzecz. Druga rzecz,
też dostałam
od słuchacza informację,
że
na YouTubie, na iPhonie,
na najnowszym iOSie jest taki bug
od niedawna, że
jak się dyktuje
i szuka, to przycisk
szukaj nie jest dostępny, aż do momentu, kiedy
się punkt wstawiania nie
przenieśnie na początek tekstu.
Więc to jest
też taka informacja,
natomiast teraz
bym chciała zaproponować
Boże,
prezentację Wopita po polsku,
którą mi podesłał
Kuba Błaźniak, też jeden z naszych
słuchaczy.
Tylko nie wiem,
czy tu jest opcja
w Zoomie, żeby puścić
plik audio, czy muszę…
No, pliku audio
jako takiego nie, więc
musisz to z odtwarzacza jakiegoś
uruchomić.
Okej, to muszę
jeszcze… Momencik, bo
tak spontanicznie tutaj przyszłam, że nawet
się nie przygotowałam.
To ja w międzyczasie, wiesz co, jak będziesz
przygotowywać, to ja przeczytam
komentarz
Roberta, a propos
spacerowania,
bo napisał do nas
Cześć! Kontynuując temat spacerów,
mam na myśli możliwość
wyjścia na spacer z pewnością,
że poradzimy sobie bez pomocy
innych ludzi z samą nawigacją.
Na nieznanych większych skrzyżowaniach
często trzeba pytać.
Ja nie mam z tym problemu, ale zawsze
ktoś musi się pojawić. Poza tym wiele
przejść nie ma udźwiękowienia,
albo można przejść w ileś stron.
Ludzie też często pytają, gdzie chcę
iść, a na spacerze nie zawsze
mogę na to pytanie odpowiedzieć.
Dlatego myślę, że warto mieć na uwadze
trasy bez skrzyżowań albo momentów,
kiedy sama nawigacja nie
podpowie nam jednoznacznie.
Nie tylko to mam na myśli, mówiąc
w tym kontekście o bezpieczeństwie.
No i tak napisał do
nas Roberto. To tyle,
jeżeli chodzi o jego komentarz.
No i jak tam, Paulino?
Otworzyłam właśnie folder
z moimi wiadomościami głosowymi
na telegramie i wszystko mi się
zawiesiło.
O!
Przepraszam, jak mogę
jeszcze momencik, bo mi się wszystko…
To dobrze, to może przejdźmy
na razie jeszcze do tego następnego
tematu, który mamy w notatkach, bo jeszcze
mamy tu
trochę treści.
Ten temat, który masz następny, on wpadł
przez przypadek do tyflowieści. Ja będę mówił
oczywiście o Apple Payu w PKP,
ale to dalej
będziemy wycieczkę do Hiszpanii
uskutecznić.
Tefi nas czeka, czyli pies,
przewodnik, robot.
Oczywiście o tym, że taki
robot gdzieś tam powstaje, to
my już wiemy od dawna,
bo to różni się, za to zabierali
i takim trochę świętym gralem dla nas
jest też robot-przewodnik. Chcielibyśmy,
żeby powstał. Mamy dużo oczekiwania,
że nas poprowadzi. No, dosłownie
już teraz za rączkę, tam gdzie my chcemy
dotrzeć, to jeszcze tak w temacie
spacerów. Natomiast

teraz już konkretne przykłady
tego, że ktoś to robi, łącznie
z prezentacją, jak to działa,
robioną tą prezentacją przez osobę
niewidomą.
Tu Paulino będzie słychać.
To jest tylko udostępnienie,
ale to spokojnie, mów dalej.
Muszę słychać też twoją syntezę.
Dobra, to sobie wyciszę syntezę też.
Przepraszam.
Nic się nie stało, ja mogę kontynuować bez problemu.
I
mówimy teraz o robocie TEFI.
Tworzy go na odpowiedniku
hiszpańska
Akademia Nauki, inaczej się nazywa
oczywiście ten instytut, ale taki instytut
naukowy hiszpański, odpowiednik naszej
Polskiej Akademii Nauk, tam na Wydziale
Elektroniki i Fizyki, to też poniekąd
stąd bierze się nazwa TEFI
od skrótu tego instytutu.
Tworzy go dr
Gerardo Portia
i
jest to rzeczywiście robot,
który wygląda jak pies.
Ma domontowaną taką chyba rączkę.
Coś jak rączka walizki, jak rozumiem.
Dobrze.
Założenie jest takie, że ten robot
będzie nas prowadził zarówno po
pomieszczeniach wewnątrz budynku,
na bazie jakiejś wgranej wcześniej,
jak się domyślam, mapy,
jak i do określonego celu
na bazie
nawigacji jakichś zakręt po zakręcie.
Teraz nie wiem, czy to ma być Google Map, czy
OpenStreetMap.
Oprócz tego ten robot będzie potrafił
też skanować kody na wilans,
więc powinien nam być w stanie
powiedzieć tam, gdzie to oczywiście jest wspierane,
a w Hiszpanii trochę miast to ma.
Jak im na przykład autobus podjechał, czy to jest
autobus i czy trzeba nas tam wprowadzić.
Pozwala on także
na wykonywanie podstawowych
jakichś takich czynności telefonicznych,
wysyłanie jakichś prostych smsów i chyba przyjmowanie
rozmów. Można mu wsadzić kartę SIM.
I będzie też zintegrowany właśnie z GPT,
żeby odpowiadać na różne pytania
takie o życie
i świat.
No i na ten moment
działa on w warunkach laboratoryjnych.
Testowała go Maria
z podcastu
Accessibilidad Universal
i ja słuchałem tej prezentacji,
zresztą będę za chwilkę mówił o interfejsie
BAS do Whispera.
Gdyby nie BAS, to bym nie zrozumiał tak naprawdę
o co w tym wszystkim chodzi,
bo udało mi się podcast
najpierw ztranskrybować, potem przetłumaczyć sobie
DeepL na polski
i już spokojnie mogłem sobie
poczytać, o co tam chodziło.
Wielu rzeczy się domyślałem, ale
zawsze warto mieć pewność,
jak się coś opracowuje.
No i
na razie to są warunki laboratoryjne,
czyli wystają kable,
jest to prototyp, który nie ma jeszcze obudowy do końca.
Jest do tego jakiś pilot,
który sobie
jest, on działa, ale to jest
jeszcze ma być jakoś tam rozbudowywane, zdaje się.
Można przez słuchawki
doczepione, zdaje się na Bluetooth, albo przez
wbudowany głośnik tego robota
słuchać od niego komunikatów.
Jest tam jakaś dziwna,
taka bardzo robotyczna synteza mowy hiszpańska,
nie mam pojęcia, co to jest.
Były jakieś problemy ze zrozumieniem
poleceń, które Maria wydawała robotowi
i albo
kwestia leżała tam w tym, że
ona miała najpierw źle te słuchawki ubrane,
a potem nie wiem, czy też problemem
nie było to, że
tworzący tego robota,
pan doktor jest peruwiańczykiem,
Maria jest hiszpanką i jakieś tam
różnice w dialekcie
wystąpić mogą i te polecenia
nie zawsze są zrozumiałe.
Też te polecenia są dość sztywne.
Tam nie jest stosowane chyba niestety
przetwarzanie języka naturalnego,
tylko trzeba się nauczyć, na jakie
komendy ten robot będzie reagował.
Z tym peruwiańskim,
z peruwiańską wymową jestem w stanie
trochę uwierzyć, bo nawet mam wrażenie,
że w czasie tłumaczenia wywiadu
z doktorem Portillo
wysypał się na chwilę whisper i niektóre fragmenty
zostały po hiszpańsku, po prostu.
Natomiast
na razie robot jeszcze nie potrafi
omijać dziur,
nie potrafi
poradzić sobie z co wyższymi schodami,
ale rzeczywiście
jak chodzi bardzo głośno, to chodzi
takie klapa, klapa, klapa, klapa, klapa, klapa,
bardzo słychać te jego łapy jak chodzą.
Na razie prowadzi oczywiście tylko
z pokoju do pokoju, więc tam Maria
testowała łazienka, łazienka,
biuro, biuro, biuro,
tam salon, salon, salon i on w końcu
nagle zaczął iść
i my mogliśmy, on tam nas jeszcze jakoś ciągnął,
można było za nim iść, za nim podążać
i rzeczywiście nas do tego pokoju gdzieś tam
zaprowadził. Zdaje się, że raz sobie
gdzieś tam odbił w ogóle
albo w inną stronę, albo za szybko poszedł
i tą właścicielkę tam gdzieś zostawił
i sobie pobiegł gdzieś tam daleko,
nie wiem co go zmyliło już teraz, nie pamiętam
jaki tam był czynnik,
ale
no,
koncepcyjnie to działa, do
komercyjnego produktu jeszcze daleka droga,
tą drogę dr Portilla szacuje
na około 5-6 lat
i ponoć
jest to bardzo prawdopodobny szacunek,
jak nie 10 lat, bo już też konsultowałem
z inną osobą. No i na ten
moment projekt zbiera na
Kickstarterze na to, żeby móc się dalej
rozwinąć, żeby jakąś tam dalszą fazę
badań i dokładania
nowych funkcji można było osiągnąć,
więc w komentarzu będzie podany link
do Kickstartera, będzie można
Tefiego wesprzeć,
kwota
to 70 tysięcy euro,
a do końca zbiórki
zostały 43 dni,
więc no, czasu
niewiele, z tego co wiem
pieniędzy zebranych na ten moment również niewiele,
ale miejmy nadzieję,
że projekt się powiedzie, no i gdyby
coś było więcej wiadomo o tym robocie,
to
oczywiście będę gdzieś tam dalej dawał
znać, fajnie, że już
takiego robota nie tylko można o nim poczytać,
ale można też posłuchać go w akcji,
to jest tak naprawdę jedyny
powód, dla którego no
zdecydowałem się o tym opowiedzieć tutaj.
Ale jak rozumiem Pawle na tym
Kickstarterze, bo czasem to przecież tak
jest, że jak wpłacisz jakąś tam
określoną kwotę, to możesz otrzymać
taki sprzęt, tu
jak rozumiem tak to nie działa, nawet jakby
trzeba było te 5 lat poczekać,
to nie ma opcji, żeby się tam
zabukować. Na razie
nie jest to zapowiedziane, możliwe, że jest
jeszcze za wcześnie, żeby takie obietnice składać,
bo no też ciężko,
wiele rzeczy się może w ciągu 5 lat wydarzyć,
jak to jest jeszcze projekt badawczy,
to instytut może uciąć jakieś granty,
to może zmienić
się w ogóle pole zainteresowań,
mogą się ekonomicznie podziać jakieś rzeczy,
no ostatnie lata pokazują, że
no kto by przewidział pandemię i wojnę
w ciągu 3 lat.
A jednak.
Więc myślę, że
dość roztropnym jest to, że
na ten moment się niczego nie obiecuje, zwłaszcza
jak nie wiadomo, czy ta technologia też tak
wystartuje w ciągu
tych najbliższych kilku lat i czy
ten cel zostanie osiągnięty, czy w ogóle ten
pies powstanie, czy jakieś inne przeszkody
nie powstaną, więc
ja bym się spodziewał, że może
twórcy będą mieli
na względzie tych, którzy
te pieniądze już wpłacili
i po prostu post factum
zaproponują jakiś taki układ.
Ja bym tak pewnie zrobił,
chociaż nie siedzę przy kasie i nie mam
tych wyliczeń tak naprawdę,
ile by to mnie kosztowało
jako twórcę takiego rozwiązania, który jeszcze próbuje
z tego uczynić produkt komercyjny,
natomiast wydawałoby mi się fair zrobić
coś takiego. Na pewno jeżeli nie zostanie
osiągnięta ta kwota, no to te pieniądze wrócą
do osób, które je wpłaciły, to jest jakby jasna
sprawa, bo tak po prostu działa Kickstarter.
Natomiast
nie ma na razie żadnych
obietnic tego, że dostaniemy produkt.
Ale
ja liczę na to, że on się rozwinie i wtedy
będzie można mówić bardziej o
konkretach.
No to pozostaje czekać.
A tymczasem, Paulino, to
ty się naczekałaś, to teraz antena twoja.
Czy teraz
mnie słychać, bo ja nie chcę…
Słychać cię.
A dobra.
Mogę syntezy używać chyba.
Okej.
To spróbuję to puścić.
Witam Państwa…
Witam Państwa…
…podcastu.
Dzisiaj pokażę grę o nazwie
Bobbit.
To jest taka gra,
gdzie
są nam
wydawane różne polecenia.
Na przykład w tej grze
to jest przekręć, ciągnij
i uderz w tym trybie.
W dźwiękach tak samo, tylko że dźwięki
polegają na czym innym.
Na czym innym.
Tryb akcja
to jest
że ma się tam przekręć,
uderz, ciągnij, młotek,
piłuj i coś tam
jeszcze.
Nie pamiętam dokładnie.
No to pokażę grę.
Takie zastrzeżenie gra.
Takie zastrzeżenie niestety.
Gra nie jest dostępna w języku polskim już,
bo kiedyś była.
Teraz ona jest dostępna tylko w hiszpańskim
i w włoskim.
Może gdzieś jeszcze się
komuś po szczęście uda się znaleźć.
W nimi w wersji angielskiej.
To pokazuje grę.
Zacznę od trybu klasycznego.
Pociągamy przycisk.
Uderz przycisk, żeby zacząć.
I dochodzimy do trybu klasycznego.
I też w tę grę mogą grać parę osób,
bo jest podejdale.
Czyli podajemy grę komuś innemu
i tak dalej to gra.
I tak dalej.
Tryb klasyczny.
Najwyższy wynik.
100 punktów.
Przekręć.
Uderz.
Przekręć.
Uderz.
Ciągnij.
Przekręć.
Uderz.
Ciągnij.
Ciągnij.
Ciągnij.
Przekręć.
Uderz.
Przekręć.
Uderz.
Przekręć.
Uderz.
Ciągnij.
Ciągnij.
Przekręć.
Uderz.
Przekręć.
Ciągnij.
Uderz.
Ciągnij.
Ciągnij.
Uderz.
Przekręć.
Uderz.
Przekręć.
Uderz.
Ciągnij.
Przekręć.
Przekręć.
Ciągnij.
Uderz.
Przekręć.
Ciągnij.
Ciągnij.
Uderz.
Ciągnij.
Uderz.
Przekręć.
Przekręć.
O! Przekręć to coś, co wygląda jak pokrętło.
Wynik 56 punktów.
Mamy na czas i się przyspiesza.
Teraz pokażę tryb dźwięki.
Tryb klasyczny dźwięki.
Najwyższy wynik 100 punktów.
Tryb klasyczny dźwięk.
Tryb klasyczny dźwięk.
Tryb klasyczny dźwięk.
Uderz.
Przekręć.
Ciągnij.
Przekręć.
Ciągnij.
Uderz.
Przekręć.
Ciągnij.
Przekręć.
Uderz.
Przekręć.
Ciągnij.
Uderz.
Ciągnij.
Młotek.
Uderz.
Młotek.
Przekręć.
Wypij.
Ciągnij.
Młotek.
Selfie.
Wyciągnij rękę przed siebie i strzel sobie fotkę.
Wynik 10 punktów.
Także taka to gierka
fajna myślę.
Po polsku niestety już jej nie ma.
Tak samo jak z taką inną grą.
Mam nadzieję, że się podobało.
I to chyba będzie koniec.
Dziękuję za uwagę.
Ja natomiast
zastanawiam się, bo przecież
już swego czasu
w 2018 roku to
Kasia Ślipek pokazywała
w Tyflopodcastie grę Bopit
i wydaje mi się, że to chyba nawet była właśnie
ta gra albo bardzo podobna
do niej, bo tych wariacji
w tych gier jest całkiem
sporo, więc to mogło być
też inne urządzenie.
W ramach ciekawostki
mogę powiedzieć, że najnowsza
wariacja, która wyszła chyba
parę miesięcy temu to Bopit Button
czyli to jest dosłownie jeden przycisk
no i tutaj pytanie
jak to zrobili ciekawie?
Zrobili to w ten sposób, że
naciskamy ten przycisk,
ale w pewnym momencie gra, tutaj też
liczy się, ale w pewnym momencie gra
zaczyna kłaść kłody, bo on powie
nam skup się, pomyśl
stopni, znaczy tam uderz
albo powie
teraz nie uderz
no i można bardzo łatwo w ten sposób
wpaść, no ale
niestety też z tego co widzę
nie da się tej
gry w Polsce kupić, przynajmniej
szukałem na
na Amazonie
na przykład i nie
znalazłem. A swoją drogą czy są
jakieś gry tego
typu na urządzenia
ale z ekranami dotykowymi?
Były kiedyś,
było nawet sporo, była oficjalna
aplikacja Bopit,
było Smack Me,
było Zenit Touch, było
kiedyś dużo, czy któryś z tych aplikacji
do dziś działają chyba
chyba niestety nie, przynajmniej
nic mi nie przychodzi
do głowy niestety. To prawda,
aczkolwiek
całe jakby gatunek
gier rytmicznych na tym chyba wyrósł
na tym koncepcie Bopit, tak?
Chociażby Rhythm Heaven
nie wiem, bo nie grałem, ale Beatstar.
Beatstar, no właśnie. Tak, tak, tak, tak.
To jest domyślny pakiet
z grą chyba Oriola w ogóle.
Ten stary klasyczny jest właśnie
ze Smack Me. No to była jedna
z gier, która namówiła mnie do
zakupienia iPada Touch, więc
to jest…
Z Twoją drogą, już tak zupełnie
odbijając to
ostatnio znowu miałam fazę
nabyć stara i
zrobiłam pak
z pozyskanych,
zarówno zgrywając z YouTube’a, jak i
no, innymi metodami
dźwięków
z polskich telegier
interaktywnych tam
sprzed 10 lat, czy mniej więcej.
No i
zarówno tych Polsatowskich, jak i tych TVN-owskich,
więc jeżeli ktoś
też jest taki dziwny jak ja, to
zapraszam. Ażkolwiek
wracając do głównego wątku,
to w zasadzie
nie wiedziałam, że już w Tyflo Przeglądzie
ten temat był.
Nie, w Tyflo Przeglądzie nie było.
Była osobna audycja
dedykowana Bopitowi, ale tak jak
mówię, to było, no,
pięć lat temu, jak
dobrze kojarzę, to Kasia Ślipek robiła
materiał na temat
tej albo bardzo podobnej
gry. No, tu ciężko powiedzieć, czy to jest dokładnie
to samo urządzenie, natomiast
no, rzeczywiście, jeżeli ktoś
ma ochotę na taką nieco bardziej rozbudowaną
prezentację, to też sobie warto
gdzieś tam wpisać w naszą
wyszukiwarkę, no i pewnie znajdzie.
No dobrze, Paulino, to czy tu jeszcze
dla nas masz jakieś informacje?
Znaczy,
chciałabym jeszcze przejrzeć
swoje notatki, bo wiem, że miałam
przyjść i coś, coś powinnam
gdzieś mieć, tylko, że po prostu
no, zdjęło mnie i dlatego
do czegoś się
finalnie nie przeglądam, ale jeszcze przez chwilę zostanę
i sprawdzę, czy coś mam.
To my będziemy kontynuować, a Ty
gdzieś tu odzywaj się a propos tego,
co jeszcze chciałabyś
dodać, a my przechodzimy do kolejnych
informacji i to już będą informacje
z gatunku
technikalia, bo
tyflo aktualności
wszystkie już wyczerpaliśmy.
To Pawle, to
może od razu a propos tego,
co gdzieś tu Ci się wrzuciło
omyłkowo do naszych
poprzedniej, do poprzedniej naszej
sekcji notatek, czyli
Apple Pay i
Intercity. To się w końcu ze
sobą lubi. To się w końcu ze
sobą lubi i jest już
dostępne w aplikacji, co więcej
doszła opcja metastacji,
co mniej więcej oznacza, że
jeżeli wyszukujemy np. połączenia
do Wrocławia albo z Wrocławia,
to nie tylko, że możemy wybrać sobie
konkretny dworzec we Wrocławiu, ale też
wszystkie dworce Wrocławia
i wtedy pokażą nam się wszystkie pociągi
przyjeżdżające na wszystkie dworce
i możemy
dokonać wyboru
na podstawie
tego, czyli jakby będą pokazywane nam wszystkie
połączenia, nieważne jaki
dworzec. No i to jest
przydatne, jeżeli nie mamy jakiegoś
konkretnego celu
w danym mieście
albo chcemy znaleźć
jak najbardziej optymalne połączenie, nie kombinując
z dziesięcioma wariantami.
No Apple Pay doszedł, to dobrze,
bo będzie to
przyspieszało bardzo
zakup biletu, natomiast
dalej obawiam się, że jest ten problem, który był,
czyli że Focus lubi sobie
skakać, gdzieś tam znikać
i ta aplikacja, chociaż dostępną,
no nie można powiedzieć, że jest
w pełni dostępna, bo to jest błąd
dostępnościowy ewidentny, natomiast
widać, że jakaś tam praca poczyniona była,
ale nie dokończona,
ewentualnie nie skonsultowana,
no ale dobrze, jak ktoś
używa PKP Intercity, to ma
tam teraz też możliwość zapłacić
Apple Pay.
Swoją drogą, ostatnio do Coleo,
a propos aplikacji różnych,
ja tego jeszcze nie testowałem,
bo to wczoraj
doszło, dla
Intercity doszła
taka funkcja o bardzo ciekawej
nazwie Bambetle Plus.
Co?
No.
Albo ktoś się lubi nabijać z naszych rządzących,
albo po prostu
tak nazwali, bo teraz wszystko jest plus. Plus, tak.
Bambetle Plus,
no z opisu, który
znalazłem w aplikacji,
można wywnioskować, że to ma
działać tak, że ktoś
odbierze bagaż,
który my chcemy nadać
pod naszych drzwi,
my sobie
możemy spokojnie dotrzeć do pociągu
i kiedy
dotrzemy na miejsce,
no to ten bagaż będzie tam na nas czekał.
Kto to realizuje?
Właśnie chciałbym wiedzieć,
bo jest informacja,
jest na temat
Intercity,
że ta usługa jest
dostępna w pociągach Intercity.
Więc też chciałbym wiedzieć,
kto to realizuje i jak to w ogóle ma działać.
No i obsługuje to
niby koleo, ale
bardzo mało na ten temat wiem,
no bo wczoraj pojawiła się ta
informacja dotycząca
tej konkretnej usługi, no zresztą w ogóle
nazwa jest bardzo ciekawa.
Osobliwa, to prawda.
Ale już gdzieś coś z tymi Bambetlami oni mieli.
W którejś
chyba innej
opcji, albo to
był jakiś test, który widział
po prostu voiceover, bo ja pamiętam,
że jeszcze kilka wersji
wcześniej, kiedy zacząłem jakoś
intensywniej testować koleo,
to mi się pokazywał
tam niejednokrotnie jakiś
taki komunikat, że nie dodano
żadnych Bambetli do twojego
połączenia.
Czy coś.
Widać, że ktoś już tam
się tym intensywnie bawił.
A wiesz może ile kosztuje to?
Nie wiem, właśnie też bym chciał
coś więcej się dowiedzieć
na ten temat, bo usługa przynajmniej tak
z opisu brzmi dosyć ciekawie.
Zwłaszcza w naszym przypadku
może być fajna, bo to
gdzieś tam idziemy, a tu jeszcze laskę
trzymać
i w ogóle to naprawdę
fajnie by było mieć coś takiego, że
mamy się dostać gdzieś
i ktoś tam od drzwi
do drzwi ten bagaż
dostarczy. A da się potem po drugiej
stronie też, że po wyjściu z pociągu
dostarczą? No właśnie nie wiem.
Wydaje mi się, że to powinno
tak działać i miło by było.
Ale czy to istotnie tak?
I czy ten bagaż gdzieś tam
nam nie odjedzie?
No właśnie.
Czy my go możemy śledzić?
To jest mnóstwo pytań, zero odpowiedzi.
Znaczy wydaje mi się, że
idealnie by było jakby ten bagaż jechał
z nami, tym pociągiem.
Tak, ale na trasie
z pociągu do miejsca
docelowego. No właśnie.
Warto się wertaga jakiegoś zaopatrzyć.
Co to w ogóle
by się miało dziać?
Ale jest to opcja dosyć ciekawa.
Może ktoś z was
już testował Bambetle Plus?
Tak.
To jeżeli tak, to
dajcie znać, a jak nie
to może kiedyś będzie można
coś tu sprawdzić.
Jeśli mogę.
Bo znalazłam tutaj swoje
szkice, ale to
w zasadzie dużo tego nie miałam, więc
może zcalę to w jeden taki
pakiet z drobnymi newsami.
Mianowicie,
jeśli chodzi
o to, co jest testerskiego
w Windowsach, ja raczej
no zgodnie z
relacją o tym mówię, więc dzisiaj też
o tym powiem, chyba że to jest
dziś w ozontatkach, to nie będę się
konfliktować.
Nie? Chyba nie ma.
Okej, no więc tak.
Pierwsza rzecz jest taka, że print screen
przynajmniej u mnie już
na tej wersji
dev działa jak
narzędzie wycinanie i to jest
bardzo wkurzające, bo
jak chcę zrobić screena,
to muszę dawać alt print screen,
czyli screenować
tylko okno, żeby nie
bawić się w używanie narzędzia,
które jest niedostępne.
Przy czym wiem, że niektóre
aplikacje czy też
usługi online’owe
nie lubią tego, jak się
daje właśnie alt print screen i wtedy
na przykład przeskakuje
mi fokus na jakąś
inną część tego
ekranu, przez co nie
mogę screenować dokładnie tego, o co mi
chodzi, bo tak jest na przykład w MATLAB’ie,
że
print screen działa dobrze, a
alt print screen działa właśnie w taki sposób,
że mi przeskakuje gdzieś kursor i
jakby robię zrzut
ekranu, nie tego, co potrzebuję.
Więc to jest
jedna rzecz. Druga rzecz jest taka, że
co prawda
ja tego jeszcze nie mam,
ale w
wersjach kamery Windowsa,
bo ja właśnie kamery nie mam, bo
muszę zareinstalować system,
jest w stosowniku kilka
nowych rzeczy.
Jak się da
kontekstowy na aplikacji, to tam jest
zakończ zadanie i
to ma przypominać działaniem
to, jakbyśmy ubijali proces
albo przez tasker, albo przez menedżer zadanie.
A jak się da
kontekstowy na
ikonce sieci, to
można próbować się diagnozować
systemem problemy sieciowe.
I wiem, że o czymś jeszcze miałam
wspomnieć, ale…
Ale teraz nie wiem.
No nic, przepraszam, jestem dzisiaj
bardzo nie w formie, więc już się
pożegnam z Wami.
Jeszcze tylko Ci podpowiem, jeśli
chodzi o te zrzuty ekranu, zobacz
sobie taki dodatek do MVDA,
screenshots wizard, który
pozwala właśnie
robić zrzut wybranego obszaru.
To może być okno, to może być cały
ekran, to może być tylko kontrolka pod focusem.
Warto się
zainteresować. Będzie o nim szczerze
niedługo w artykule,
który niebawem się na łamach tych Floszwiata pokaże
o zrzutach ekranu.
Ale to warto się zainteresować.
On jeszcze, co ciekawe,
jak robimy ten zrzut, od razu nam robi
OCR, można sobie od razu sprawdzić, co
tam właściwie widać.
To dzięki za informację, to mi się przyda.
No to pozdrawiam
zarówno słuchaczy, jak i
was prowadzących
i się żegnam
do przyszłego tygodnia, mam nadzieję.
Także do usłyszenia.
Dzięki, Paulino.
Tymczasem ja
przeglądam cały czas
serwis Coleo
a propos tych bambetli,
bo to rzeczywiście jest
dosyć interesująca rzecz
i znalazłem taką sekcję
najczęściej zadawanych pytań,
no może kilka słów
na ten temat, bo
to myślę, że może być
rzeczywiście interesujące, chociaż cenowo
no to już nie wygląda
aż tak bardzo różowo, chociaż no to
jak zawsze to zależy.
Natomiast kilka słów
z tej sekcji najczęściej zadawanych pytań.
Czy bagaż
należy jakoś specjalnie spakować
na przykład w karton lub
okleić? No i tu
odpowiedź jest taka. Przyjedziemy
Twoje bambetle spakowane w zwykłą walizkę,
plecak lub torbę podróżną.
Nie musisz robić nic więcej.
Odbierzemy Twoje bambetle takie,
jakie są, bez żadnej folii, bez żadnego
kartonu. Nie musisz też
drukować żadnych kwitów czy
listów przewozowych. Wszystko
zrobimy za Ciebie.
Ile sztuk bagażu można wysłać
dzięki usłudze
Bambetle Plus? W ramach usługi
Bambetle Plus można nadać
łącznie maksymalnie 6 sztuk
bagażu w różnych rozmiarach.
Jakie są dostępne
kategorie cenowe?
Bambetle podzieliliśmy
na 3 kategorie cenowe
w zależności od ich masy
do 5, 15
i 30 kg.
Ceny zaczynają się
już od 29
zł za
sztukę bagażu. Więc wygląda
na to, że to, no, te
5 kg to za te 29 zł.
No to
bardzo zależy, gdzie byśmy tam
powiedzmy chcieli jechać,
bo to jest prawie 30 zł.
To tak patrząc na przykład po naszych
zniżkach, no to już jest
jeden bilet, albo nawet czasami dwa.
Więc nie jest
aż tak, nie jest to aż
takie tanie. W zależności od
potrzeb można jednocześnie
nadać bagaże z różnych kategorii
wagowych. Każdy z Bambetli
powinien mieć maksymalnie
200 cm długości,
a jego
obwód
długość plus dwa razy
szerokość plus dwa razy wysokość
nie może być większy
niż 450 cm,
ale spokojnie, w tych wymaganiach
zmieści się nawet największa walizka.
I tu jeszcze
jedna ciekawa rzecz. Kiedy można skorzystać
z usługi Bambetle Plus?
Z usługi Bambetle Plus możecie
skorzystać planując dowolną
podróż na terenie kraju
niezależnie od trasy
przejazdu i liczby
zaplanowanych przesiadek.
Czyli co? Czyli nie tylko
Intercity jednak? Warunki
są proste. Przynajmniej 100 km drogi
musi być wykonane
PKP Intercity.
Aha. A podróż
zaplanowana z minimum
czterdziestu
ośmiogodzinnym czasem
wyprzedzenia. Czyli jak asysta.
Tak, jak asysta.
Byśmy zdążyli odebrać bagaże
jeszcze przed wyjazdem.
Pozostałą część
podróży możecie wykonać
pociągami dowolnych przewoźników.
Niezależnie od tego,
czy to, a i tu jest już
taka oferta reklamowa, to sobie
już to sami myślę, że przeczytacie.
Natomiast jest to
coś, co może być dla niektórych atrakcyjne.
Pytanie też, jak często jeździmy
z takim bagażem, że go musimy mieć
przetransportowany. Ja to bardziej widzę przy takich
wyjazdach wakacyjnych. Tak, tak, tak.
Kupujemy na tydzień, albo jakaś przeprowadzka,
albo coś tego typu.
No to spokojnie myślę,
że to można będzie. Na przykład jak mamy
wśród naszych słuchaczy muzyków,
którzy wożą jakieś instrumenty większe.
O, zgadza się. Nie wiem, czy jakiś
akordeon, czy coś tego typu.
Pytanie jak na przykład kwestia ubezpieczenia w ogóle tego bagażu.
No właśnie. Dlatego też pytanie,
kto to realizuje, tak? Skąd,
jaka jest pula tych, nie wiem, czy kierowców?
No w tym momencie ten bagaż jest
w takim razie przewożony tym pociągiem z nami?
Czy on jedzie
poza? Bo jeżeli są obsługiwane
przesiadki, to chyba nie jest to zbyt praktyczne.
Takie przerzucenie tego bagażu
w te i we w te. Nie wiem.
No to prawda. Jest sporo pytań
i myślę, że to
trzeba by było gdzieś tam
jakoś przetestować, żeby uzyskać na to
odpowiedzi.
Jeżeli
chcecie to jakoś testować, to
dajcie znać.
No i chętnie takie
relacje i wrażenia
opublikujemy.
A teraz przechodzimy
do kolejnych
tematów. Piotrze,
Reddit się upodabnia ponoć do Twittera
pod pewnymi względami, prawda?
Tak. I to
czy dobrymi dla nas?
Nie wiem. Niekoniecznie, aczkolwiek
będziemy musieli zobaczyć, jak to się wszystko skończy.
Generalnie
chodzi o to, że
Reddit już istnieje kilkanaście lat
i przez te kilkanaście lat miał
bardzo otwarte API,
które pozwalało praktycznie
na wszystko. W tym momencie
firma szykuje się z wejściem
na giełdę, szuka jakichś sposobów,
żeby się
UE jeszcze bardziej uatrakcyjnić dla inwestorów,
ale też pojawiła się taka kwestia,
że ostatnio ich serwery
były pod dość dużym
wiążeniem przez to, że
z Reddita bardzo chętnie
korzystały
firmy zainteresowane
trenowaniem tych wszystkich modeli
sztucznej inteligencji językowych,
od GPT, po
Barta Guglowskiego i te wszystkie inne modele.
Na Redditie jest dużo
takich żywek dyskusji,
na niej ciągle pojawiają się
nowe materiały. Przez to, że to API było
takie fajne, to bardzo łatwo
tym firmom było połknąć duże
ilości danych.
To było głównym celem tego, co
Reddit zrobił, a mianowicie
po prostu zrobił to, że
od
czerwca, od
późnego czerwca
zmiany wejdą w życie API,
stanie się płatne.
Największy
nacisk jest położony na
zbieranie danych do
celi komercyjnych,
trenowanie sztucznej
inteligencji, natomiast
w celach akademickich
dostęp do danych ma być
cały czas darmowy.
Tak samo dostęp
ma być darmowy dla osób
piszących boty i narzędzia
do moderowania
społeczności. No ale co
z aplikacjami zewnętrznymi, bo
przez to, że to API było tak otwarte
i pozwalało na dużo, no to
powstało dużo aplikacji
zewnętrznych, zarówno dla
normalnych, ale nie tylko, bo na przykład
taka aplikacja Apollo,
chyba najbardziej popularna na iOS, która
między innymi też nie wyświetla
reklam, których też na stronie
Reddita, to jak nawet widzę, że ostatnio
zaczęło pojawiać się coraz więcej
sponsorowanych treści,
algorytmów i tak dalej.
No i twórca
Apollo
skontaktował się z ludźmi od Reddita,
bo to jego ogłoszenie oficjalne
nie zawierało
szczegółów. No i
po rozmowie dał post,
który możecie znaleźć w komentarzu,
w którym fajnie sobie
zrobił taką listę
najważniejszych informacji, czego
jeszcze nie wiemy i jak to może
wpłynąć na Apollo, ale nie tylko,
bo też na wszystkie
inne aplikacje. No dlaczego tak
się dzieje? No to już mówiłem,
oferowanie takiego API
jest drogie, po prostu chcą jakoś
zaoszczędzić,
zarobić też na tym.
Reddit docenia zewnętrzne aplikacje
i nie chce się ich pozbyć.
No i dlatego
właśnie chce zrobić tak, żeby
to API było płatne, nie żeby
jakoś zarobić,
tylko żeby po prostu
to API się utrzymało,
żeby koszty tego API utrzymały
serwery, które są do tego
potrzebne, ale też między innymi
właśnie, żeby
firma
odzyskała koszty, które traci
przez to, że ludzie nie używają aplikacji
oficjalnych, a co za tym idzie, nie
widzą reklam, więc tutaj
dlatego na taki
krok się zdecydowali.
Te koszty będą zmienne
na podstawie tego, ile
jak mocno to API
jest wykorzystywane.
Jakie to będą koszty, dokładnie nie wiadomo,
Reddit sam też nie powiedział, to nie ma być
bardzo drogie,
czyli to chyba nie będzie 40 tysięcy dolarów,
jak to Twitter zrobił,
ale jakieś kosztorysy mają być
dostępne za 2 do 4 tygodni
i wtedy będziemy
coś więcej wiedzieć, jak to będzie
wyglądało. Darmowego API
do takich aplikacji typu Apollo, czyli pełno
prawnych klientów nie będzie, to już
jest oficjalnie powiedziane,
ale przez to, że
takie API będzie
płatne, no to może
powstaną API do funkcji, których
wcześniej nie było, tutaj m.in.
to są ankiety, których faktycznie nie dało
się obsłużyć z aplikacji zewnętrznych,
trzeba było to zrobić ze strony
i czatu. No czat poniekąd
dało się obsłużyć, ale mogliśmy
sobie przez to zbanować konto, bo
aplikacje po prostu wchodziły na tę stronę
i tam różnymi szczuszkami
to robiły tutaj, może będzie
coś oficjalnego do tego czatu.
Jeszcze jest kwestia treści
NSFW, czyli nieodpowiednich
fraz czy jakiejś treści
seksualne
poniekąd, które
z tego API
mają nie być dostępne
i tutaj realizmu już nie chodzi
o jakieś materiały, które mają ten tag
NSFW, czyli takie typowo
treści seksualne, tutaj pewnie chodzi
też o
to, że oni wchodzą
na giełdę. No i tutaj
deweloper Apollo się zapytał, no ok,
jeśli te aplikacje nieoficjalne
i oficjalne mają być
z sobą równe, czyli to też by dotyczyło
aplikacji
tych, czy tylko zbierania danych. No i tutaj
realist się nad tym zastanawia,
to jest jeszcze troszeczkę niejasne i tutaj
deweloper Apollo
ma nadzieję, że to jeszcze będzie
w jakiś sposób
doprecyzowane, no tutaj firma obiecuje,
że będzie
rozmawiać z
deweloperami.
No i tutaj deweloper Apollo
mówi, że jeśli te
zmiany zostaną przeprowadzone dobrze,
to nie powinno być problemu,
aczkolwiek w przypadku Apollo,
który był dostępny w wersji darmowej,
który miał jakieś podstawowe funkcje
no i były dwa chyba pakiety
subskrypcji, no to ta wersja darmowa
zniknie. To to znaczy
dla innych aplikacji, takich których
my używamy, tu na przykład
Dystopia, która od ostatnich
czterech czy pięciu lat,
których jest na rynku, jest w ciągłym
stanie bety.
Bety, która chyba za pięć dni wygaśnie,
więc jestem ciekawy, czy pojawi się kolejna beta.
Co z nią
zrobi deweloper?
Co zrobi Nathan Smith
ze swoją aplikacją na Windowsie?
No wszystkiego
chyba dowiemy się dopiero za te dwa
do czterech tygodni, kiedy już jakieś
cenniki pierwsze się pojawią. Do czerwca
te aplikacje będą działać,
a co będzie później, no to
będziemy musieli zobaczyć, czy to będzie
aż tak
dramatyczna zmiana, jak
w przypadku Twittera, czy po prostu
my jako użytkownicy będziemy
musieli zapłacić więcej, ale dzięki temu
zyskamy jakieś nowe funkcje, czy
po prostu też programiści od
Reddita zaczną odchodzić.
No, pożyjemy, zobaczymy.
Swoją drogą, tu warto wspomnieć też
o tym apelu Jonathana Mosena,
a
odnośnie różnych organizacji
działających na rzecz osób
niewidomych, aby zaczęły pojawiać
się też na
Mastodonie, to tak przy okazji,
bo nawet jeżeli mamy
jakiś serwis, jakąś
usługę, która
daje nam fajne, otwarte
API, to niestety
przypadek Twittera
pokazuje,
no i Reddita zresztą też,
że to, co zostaje
dane na początku,
to wcale niekoniecznie oznacza,
że musi być dane na zawsze.
I zawsze taki duży gracz
może nam kiedyś po prostu
wyciągnąć wtyczkę,
co bardzo
brutalnie zrobił Twitter,
co jakoś tak
zdecydowanie łagodniej próbuje
zrobić Reddit, no a
tego typu narzędzia,
jak chociażby właśnie Mastodon,
czy ta cała
idea Fediversum,
no to
coś takiego
w ogóle nie ma racji
bytu, tak? Mamy otwarte protokoły,
otwarty sposób komunikacji,
wymiany różnych informacji
i tak naprawdę, no to może się zdarzyć, że
jeden serwer padnie, okej, ale
jeden serwer padnie, przeniesiemy
się na inny i dalej to
wszystko będzie funkcjonowało,
dalej to wszystko będzie działało.
No,
to trochę daje do myślenia
w takim kontekście. Dlatego
wspierajcie swoje instancje,
z tego z czego korzystacie na Fediversum,
bo jakby problem nie zniknie tylko
dlatego, że to jest zdecentralizowane.
Problem tego, że, no,
przypuśćmy nawet, że będzie rewolucja
taka, że gro internautów,
ci wszyscy, którzy obsiadują teraz
Twittery, Reddity i inne zcentralizowane media,
przesiądą się na te zdecentralizowane,
no to te serwery
z gumy nie są i gdzieś tą wytrzymałość
będą musiały osiągnąć,
też prawdopodobnie zwiększając koszty
eksploatacji, koszty
wynajmu i tam subskrypcji
tych usług. Natomiast,
żeby
ktoś komercyjny się tym nie zainteresował
i nie zaczął oferować tego
na początku za darmo, po atrakcyjnych
warunkach, a potem właśnie takie,
no to już warto zawczasu pamiętać, że
nic za darmo nie jest i nasze instancje
tego z czego korzystamy,
czy to jest Mastodon, czy jakieś inne
Fediversowe Medium,
warto wspierać, a jak
od Fediversów mowa, no to istnieje też
odpowiednik Reddita w Fediversu,
taki agregator linków, nazywa się
Lemi i
tam można też
różne społeczności zakładać
i w ramach tych społeczności dzielić
się jakimiś postami, linkami
i tak dalej. No to rzeczywiście,
warto o tym pamiętać, warto mieć to
na uwadze.
Teraz, Pawle, troszeczkę gdzieś
mikrofon ci się odsunął, tak w ogóle.
O, dziękuję.
Ale spokojnie, na szczęście
nasz sprzęt, mam nadzieję, wszystko
ładnie podbił, a teraz
skoro mikrofon odnalazłeś,
to możesz nam opowiedzieć, jak to
z tym Radioszurem jest, bo
aplikacja już
od jakiegoś czasu się nie rozwija,
natomiast
okazuje się, że jeżeli
ktoś ją lubi, to może sobie
zainportować nowiutką, świeżutką,
aktualizowaną na bieżąco bazę
do zera. Zgadza się.
Tak jak wspomniałeś, aplikacja nie rozwija
się już od wielu, wielu lat.
To, co się jeszcze rozwijało, to
była baza stacji.
Natomiast i to padło
gdzieś z rok temu.
Kontaktu z autorem
nie ma i w sumie
nie wiadomo, co się stało i nie wiadomo, gdzie to wszystko
dalej zmierza. Baza Radioszure
nie jest już rozwijana też od tamtego
czasu, ani przez społeczność, ani nigdzie indziej.
Były jakieś próby robienia tego nieoficjalnie,
tak oddolnie, społecznościowo,
bo baza to jest tak naprawdę
plik chyba XML, który można po prostu
czytać notatnikiem zwykłym,
więc tam były próby, żeby
ją dalej rozszerzać.
No, ale chyba
niewiele z tego wyszło. Natomiast
tu we Francji się
odezwał duch w narodzie
i ludzie, a konkretnie
jedna osoba stwierdziła, że
w sumie można by napisać konwerter,
który przerabia
aktualną bazę z Radio Browsera,
która oczywiście jest do pobrania
jako różne formaty danych,
włącznie z JSON-em i tak dalej i plikami
M3u, na
format zrozumiały przez ten
XML Radioszura.
No i został taki konwerter napisany
i aktualnie
jest serwer, na którym możemy
pobierać sobie takie właśnie świeże
bazy Radio Browsera w formacie
szurowym.
Wszystkie informacje o tym, jak
to zrobić, skąd i tak dalej
znajdują się pod adresem
radioszur, czyli radiosure,
jedno słowo, r-a-d-i-o-s-u-r-e
kropka f-r.
I tam po angielsku
oczywiście wszystko jest rozpisane.
Możemy takie bazy oczywiście ściągać
z serwera osoby, która
to całe rozwiązanie stworzyła ręcznie.
Natomiast
można też
pobrać sobie skrypty
i to jest już skrypt na GitHubie,
więc trzeba tam wejść,
trzeba otworzyć ten
plik, to jest skrypt VBS, czyli
Visual Basic Script
i tam najlepiej
po wejściu w tabeli
plików, czyli na GitHubie po wejściu w repozytorium
kliknąć sobie w tabeli
na nazwę tego pliku, czyli tam
rb
coś tam db
kropka vbs i po
załadowaniu strony klikamy na link raw
i tam
stworzy się nam po prostu widok
tego skryptu, taki jak
z kodem źródłowym, jak on jest napisany
i ctrl s my go zapisujemy
w folderze radioshura, możemy sobie też
stworzyć skrót na pulpit
i za każdym
razem, gdy chcemy zaktualizować taką
przede wszystkim za pierwszym razem, jak chcemy tą bazę
dotychczasową zamienić na browserową
naciskamy na tym skrypcie
enter i skrypt
robi robotę
i podmienia nam te bazy.
No i raz na 12 godzin
zdaje się możemy ponawiać
taką operację, możemy też ten skrypt
wrzucić do zaplanowanych zadań, żeby się to
robiło samo
i sobie tą bazę najnowszą
świeżą dociągać.
Są inne metody też,
nawet jest opcja podmiany
w plikach windows hosts
hosta radioshura, tego starego
na ten nowy, żeby
tym wbudowanym mechanizmem
aktualizacji, który jest dostępny w radioshuru
te bazy były pobierane.
No i co?
Działać? Działa. Rzeczywiście na dzień
dzisiejszy mamy 36
553, chyba tam 3, czy ileś
stacji. Jest ten bałagan,
którego możemy się spodziewać, czyli
radia, które mają więcej
niż jeden stream, niestety są dodawane jako
osobne stacje, bo radio
browser nie wspiera wielu streamów
pod jednym wpisem.
Nie da się edytować stacji, więc jeżeli coś
padnie, to ktoś musi dodać to na nowo.
Ale tam akurat o tyle
jest dobrze, że to się
samo weryfikuje.
To znaczy, jeżeli po jakimś czasie,
na przykład tam po kilku dniach
chyba nie działania
danego serwera, co zresztą kiedyś
odczuliśmy boleśnie.
Jeżeli to nie działa, to się
te wpisy same usuwają i wtedy trzeba to
dodać. Na szczęście ten proces
dodawania jest dość prosty.
No więc w ten sposób
to działa.
No i mamy
bardzo dostępny skądinąd
i wyposażony
w różne funkcje
z nagrywaniem włącznie
klient do radio browzera.
Bo mieliśmy wcześniej Twiskajka, tam jakieś
inne programy też się czasem
objawiły, ale RadioShure to jest taki
interfejs, który my już znamy. On już
w podcaście też został
zaprezentowany na łamach Tyflo Podcastu.
No a teraz mamy dostęp do
cały czas aktualizowanej bazy i to takiej
bazy, do której teraz już każdy może
tak naprawdę dołożyć. W RadioShure to
było bardziej tam obwarowane jakąś moderacją
i tak dalej. A tu moment, w którym
my załadujemy tą stację
to jest moment, w którym
ta stacja się pojawia w katalogu.
To nie znaczy, że to jest moment, w którym się pojawi nowy plik,
bo te pliki ze stacjami są też
aktualizowane raz na jakieś tam, nie wiem,
24 chyba godziny na serwerze
twórcy tego rozwiązania.
No więc będziemy musieli swoje odczekać, zanim ta nasza
stacja się pojawi w tych plikach.
No ale
jest to dość dobre rozwiązanie i rzeczywiście
takich sprawdzałem już i kilka
nowych stacji, które nie miało prawa
być w RadioShure, na pewno jest
teraz w tej podmienionej bazie,
więc no RadioShure, jak widać
wiecznie żywe.
I oby żył nam długo, długo
i szczęśliwie.
Piotrze, a teraz Twój temat.
Faragon, aplikacja,
która to
doczekała się nowej wersji.
Tak, może zacznijmy od tego, co to w ogóle
jest, bo może nie każdy wie.
To jest aplikacja od filmu
Rogue Amoeba, która
tworzy naprawdę fantastyczne
aplikacje związane z dźwiękiem na Maca.
Na pewno znacie Audio Hijacka,
nawet jeśli Maca nie macie, to pewnie słyszeliście
o niej. No i
Faragon to jest jedna z ich aplikacji.
W dużym skrócie to jest
duża dżinglownica,
więc możemy sobie dodawać
różne dźwięki, które możemy później
uruchamiać skrótami klawiszowymi, ale nie tylko,
bo możemy też je uruchamiać
różnymi kontrolerami MIDI
i nawet innymi
urządzeniami, więc
tam są dosyć duże
opcje konfiguracyjne.
Te dźwięki, każdy
z tych dżingli może nawet mieć
ustawioną swoją kartę osobną,
dźwiękową.
Możemy jakoś tworzyć na listy,
możemy ustawić, żeby one się nam zapętlały,
otwarzały po kolei,
usłyszały, więc tam naprawdę bardzo
dużo opcji jest, a w wersji
2.0, która właśnie się pojawiła,
tych opcji jest jeszcze
więcej, no i mamy tutaj
m.in.
możliwość np. podglądu
tych dżingli. Możemy sobie ustawić drugą
kartę dźwiękową i jeśli
nacisniemy shift
do klawiszy, które naciskamy lub
jak klikamy na te dżingle, no to otworzą
nam się na tej drugiej karcie, na której możemy
sobie je
podsłuchać.
Możemy też
włączając jakiś dżingiel przytrzymać
ctrl i wtedy wszystkie inne dźwięki, które
akurat są otwarzane, zostaną szybko zatrzymane,
więc jeśli niechcący zrobiliśmy sobie
bałagan albo po prostu chcemy wszystkie inne
dżingle wyciszyć,
to możemy to
zrobić. Klawisz
escape, który
zatrzymywał wszystkie dźwięki,
teraz musimy 300 milis jaką
przytrzymać, więc to nie jest jakiś długi czas,
ale na tyle długi, że
nie zrobimy tego niechcący,
więc myślę, że to jest fajna zmiana.
Aplikacja ma
teraz limiter,
więc dźwięk nie powinien nam
się przesterowywać.
Mamy
nowe, wbudowane, przykładowe
sety sampli.
Tutaj mamy na przykład
jakiś set z
muzyką i
nowy zestaw
efektów dźwiękowych i to faktycznie
trochę tego jest.
Ja sobie tą aplikację ściągnąłem, przetestowałem chwilę
i faktycznie tam
kilka takich całkiem fajnych
dźwięków i
takich krótkich
dżingli muzycznych się pojawiło.
Aplikacja
doczekała się prostego edytora audio,
który nam pozwala
ściszyć, wyciszyć
te dźwięki,
a także je przeciąć. Więc jeśli
załadujemy sobie jakiś plik, który
chcemy sobie po prostu szybko skrócić,
to możemy to zrobić wewnątrz aplikacji,
nie musimy otwierać go
w innej aplikacji.
Wyszukiwarka doczekała się
nowych funkcji. Możemy wyszukiwać
teraz, oprócz
sampli, które sami dodaliśmy, możemy też
wyszukiwać w
zestawie Apple Loops, więc jeśli mamy
zainstalowany logic albo
GarageBand, Apple też ma takie
swoje
zestawy muzyczne, no to one teraz też się będą
wyświetlały.
Oraz aplikacja jest też w stanie
wyszukiwać katalog
Freesound, w którym też
znajdziemy darmowe dźwięki,
darmową muzykę i to wszystko
działa w aplikacji, co jest bardzo fajnie dostępne.
No to jest taki fajny
sposób na korzystanie
z
Freesoundu. I wtedy od razu
można to sobie zaimportować z tego Freesoundu?
Dokładnie. O, no to super.
Taki w sumie Backpack Studios tego trochę taki.
Dlatego tutaj nie masz
mikrofonów, tak? To jest tylko do puszczania
dżingli, ale tak, dokładnie to jest
sens tego właśnie. Ale z drugiej strony można to sobie
połączyć z Audio Hijackiem.
No i na pewno oni by tak chcieli, no właśnie.
O to pewnie tu chodzi.
Ale właśnie tutaj do radia czy
do przedstawień teatralnego
mi też podają taki przykład zastosowania tej aplikacji.
Ale dobra, to nie wszystko
w tej nowej wersji.
Bo możemy też sobie tworzyć inteligentne
zestawy, które nam się będą
dynamicznie zmieniać. Na przykład
możemy sobie wyświetlić
dżingle, które
bo każdy
taki element na liście może
mieć swój kolor i tutaj możemy
na tej zasadzie te inteligentne zestawy tworzyć.
Możemy sobie je oznaczać jako
ulubione albo też
dodawać do takiego zestawu
na podstawie ilości
odtworzeń lub
czasu trwania.
Takie zestawy możemy też zablokować, żeby
nie chcąc sobie czegoś nie zmienić, nie
usunąć. No właśnie tutaj
ulubione, o których
mówiłem. Zestawy można otwierać
w osobnych oknach. To chyba bardziej
przydatne dla osób
widzących.
Wsparcie dla skrótów, więc
możemy sobie do każdego dżingla
przypisać skrót, który zostanie
automatycznie uruchomiony, kiedy
dżingiel się rozpocznie
odtwarzanie lub zakończy.
Ale także
z poziomu skrótów możemy sterować
aplikację, więc ze skrótu
otwarzać jakieś
dżingle.
Wsparcie dla streamdecka
to jest takie urządzenie od
Elgato, tutaj też a propos
sposobów, na które możemy te
dżingle odtwarzać.

poprawki wsparciu dla
kontrolerów MIDI.
Możemy do tych
elementów, tych dżingli
dodawać sobie emoji, żeby je łatwiej
zidentyfikować.
Mamy mierniki
na ekranie, które
pokazują nam jak głośny jest
nasz dźwięk.
Skrót
otwierający
główne okno aplikacji,
jeśli aplikacja jest minimalizowana, teraz ją
wyciągnie na pierwszy plan,
to się nam akurat może
przydać. Zmiany
tutaj wizualne, no ale
tutaj też mamy informacje, pełne
wsparcie dla voiceovera, więc tutaj
jak ze wszystkimi innymi aplikacjami
Rogue Amoeba
tutaj też firma zadbała o to,
żeby aplikacja działała fajnie z voiceoverem.
Ja to mogę potwierdzić,
wszystko jest fajnie czytane, słowaki,
te dżingle na liście, słyszymy nazwy
plików, a po chwili też jakie
skróty klawiszowe
one uaktywniają.
I to jest bardzo fajnie zrobione,
bo to działa
w takiej zasadzie, że po prostu dodajemy sobie
te dźwięki do jakiegoś zestawu.
Po prostu możemy je importować z takiego
standardowego okienka do otwierania plików.
I one się na tej liście zaczynają
pojawiać i zależnie od
pozycji na liście dostają
skróty klawiszowe, więc pierwszy dźwięk to jest
jedynka, drugi to jest dwójka
i tak dalej do bodajże litery
P. Następne elementy dostają
klawisz option, czyli option jedynka,
option dwójka i tak dalej. Możemy je też
przesuwać po tej liście, więc te skróty możemy
poniekąd zmieniać.
Nie da się chyba globalnie
tego ustawić, no chyba, że coś
przeoczyłem, bo wcale by mnie to nie zdziwiło.
No ale
jeśli ktoś z takiej aplikacji
zaawansowanej do otwarzania
dżingli szuka,
amaomaka, no to myślę, że
warto się jak najbardziej zainteresować.
Pewnie, że tak.
Aplikacja jest oczywiście jak
inne rockabimby
płatna.
Tak.
Szczerze nie pamiętam ile kosztuje. Mogę
szybko sprawdzić.
I…
No chyba nie tak
łatwo. O jest, dobra.
Ile
ta aplikacja kosztuje?
No 60 dolarów, więc no nie mało,
ale jeśli ktoś z takiej naprawdę zaawansowanej
aplikacji potrzebuje, no to…
To może być to coś
do niego, tak. Szkoda trochę, że
oprócz tych dżingli nie ma
takiej jakby typowej playlisty,
na której można by było sobie poukładać
jakoś te dźwięki, chociaż…
To znaczy tam są funkcje, playlisty,
tam zestaw może być listą w jakiś
sposób. Ja też nie zgłębiałem
jakoś bardzo się w tej aplikacji,
ale jeden z zestawów, który tam był
zaimportowany, to był właśnie taki przykład playlisty,
że tam były dodane dźwięk rocków w otwieralnych drzwi,
tam ktoś krzyczał niespodzianka, więc
chyba da się coś takiego zrobić.
Aha, no to rzeczywiście może
być to ciekawy
program dla tych wszystkich, którzy
chcą tworzyć nawet jakieś audycje
radiowe, nie tylko
właśnie wypuszczać jakieś takie krótkie
dźwięki, ale też na przykład coś więcej
zagrać. No, rzeczywiście może
być to coś, czym
warto by się było
zainteresować.
Tymczasem kolejny temat,
Pawle, twój tym razem. Nowe
kody kreskowe
nadchodzą i czym one się
będą różnić od tych, co już znamy?
Nie wiem, czy widzieliście, ale kod kreskowy
ma 50 lat w tym roku,
bo w 73
roku ustanowiono go jako standard.
Zajęła się tym organizacja
GS1.
Jest to taka światowa organizacja
standaryzacji właśnie kodów kreskowych
i
no, mija 50 lat i są
takie przemyślenia, że warto by było już
trochę pójść z postępem czasu. Kod
kreskowy był kodem jednowymiarowym,
a teraz pora przejść na kody dwuwymiarowe
i będą to kody, które
będą w stanie przechować
więcej informacji o produkcie, bo
no, co wiemy już z drugiego odcinka
EPU in Action, kto słuchał,
w
kodach
kreskowych zachowana
jest jedynie nazwa produktu
i zdaje się cena, czyli
takie bardzo podstawowe informacje, które pomagają
w obsłudze CAS
zidentyfikować,
gdzie, no, co to za
produkt, jak go nabić i tak dalej.
Natomiast
tutaj
jest już plan, żeby tych informacji było więcej,
na przykład seria produktu, data ważności
i też takie informacje
komercyjne dla klientów, czyli
na przykład my możemy taki kod też zeskanować,
tylko nam nie pokaże się
zestaw tych informacji,
które pokażą się tam
kasjerce czy kasjerowi, ale
nam pokaże się na przykład
link do jakiejś strony na temat tego
produktu, gdzie znajdziemy o nim więcej informacji
albo jakiś inny materiał reklamowy,
więc tu już myśli
się o tym, żeby producentom dać możliwość
wrzucić trochę więcej informacji,
żeby to nie było tylko i wyłącznie
kod jakby QR,
tylko
żeby to było zintegrowane jedno z drugim.
No ja tutaj widzę,
do 2027
ma to już wejście po prostu we wszystkich
sklepach i na razie jest to gdzieś
testowane, już było parę, w paru krajach
były jakieś pilotaże,
natomiast
no
patrząc na to, że ten kod ma być potencjalnie
skanowany też jakimś smartfonem,
to ja bym tu widział dość duże zastosowanie
właśnie dla nas, że
można by umieszczać takie informacje,
jak są właśnie czy w NaviLens,
czy jak teraz próbuję odczytać właśnie
czy Zuzanka, czy
te różne apki do
skanowania kodów kreskowych, że to będzie wszystko
podane przez producenta i my
będziemy mogli po prostu to zeskanować.
Wątpię, że to tak od razu wejdzie, bo pewnie
większość producentów będzie chciała to wykorzystać
do jakichś tam promocyjnych
rzeczy i innych
materiałów, ale kto wie, może
pośród tego wszystkiego
by też się znaleźli tacy
producenci, którzy by dawali takie
informacje, typu instrukcje użycia,
typu rzeczywiście
jaki konkretnie jest to produkt i tam jakieś
składniki, coś tam.
Więc no, wygląda
na to, jeżeli to zostanie dobrze poprowadzone,
że to może być
dla nas niemała rewolucja
i będziemy mogli niedługo rzeczywiście
wyczytywać pewne rzeczy
z kodów. No ciekawe,
jak się na to zapatrują włodarze NaviLens,
czy takie kody
są w jakiś sposób…
W tej branży się nie mówi o zagrożeniach, tylko o rozwiązaniu
problemu, tak? I wiele osób gdzieś
tworzących takie rozwiązania dla
nas ma takie założenie, że rozwiązuje
pewien problem, więc jak problem się
rozwiąże, no to super, to nasze rozwiązanie
w tym pomogło i już nie jest potrzebne.
Trzeba się zająć czymś nowym.
Natomiast no, ciekawe, czy to jest
rzeczywiście jakaś
coś, co może zastąpić tego
typu rozwiązania jak NaviLens, czy
jednak trochę
może tutaj przeceniam
ten kod, nowoczesny kod kreskowy.
Wiesz, ja tak sobie
myślę, że to jest wszystko też kwestia
kiedy to w ogóle zostanie wdrożone.
Bo na razie, jak rozumiem, to jest pewna
opozycja, tak? No to już jest
przetestowane, jakieś pilotaże były i to ma
ponoć we wchodzić powoli, jakby zostało ustalone
przez to GS1,
że to już ma w ciągu kilku najbliższych lat
wejść. To znaczy, no tak, to wejdzie
na zasadzie jako jakiś taki oficjalny
standard,
tylko teraz pytanie, kiedy
sami sprzedawcy,
czy producenci
różnych towarów będą się
tego trzymać. No jeżeli tak…
Mowa jest o wymianie kas fiskalnych, o wymianie
sprzętu i tak dalej. Właśnie, bo taki sprzęt
chyba jest stosunkowo rzadko wymieniany,
nie? No chyba tak. Chyba, że to
jakoś da się jakimś firmwarem
zaktualizować po prostu.
Ale to też pytanie, czy na przykład
taki skaner
tych kodów
sprzed 50 lat
będzie w stanie… Chyba aż tak starych to się nie używa.
No tak, to znaczy, nie no,
nie aż takich starych, ale tych kodów
sprzed 50 lat, wiesz, w sensie
tej technologii, tak?
Nie mówię, że sprzęt ma być
aż tak stary, ale czy
taki skaner będzie sobie w stanie
poradzić z nowym
takim kodem?
No może być różnie, więc
prawdopodobnie jakaś wymiana będzie konieczna
niestety, no.
Zobaczymy, ale to jakieś modernizacje cały czas są,
teraz powiem tak, nowe terminale płatnicze,
tak, też tam co jakiś czas się to wymienia,
bo dochodzą jakieś nowe metody płatności,
coś tam
i tak dalej, więc no możliwe, że
tutaj to nastąpi, zwłaszcza jak to będzie narzucone
przez gdzieś tam standard
i przestanie to się
pojawiać na produktach, no ale
potencjał jest, no,
tylko żeby to wszystko mądrze przebiegło.
Tak jest. Teraz
kolejna informacja.
Mamy je
na Whatsappie, Messengerze,
Telegramie i w końcu się na
Discordzie pojawią, wygląda na to
Piotrze, prawda? Wiadomości głosowe.
Dokładnie.
Discord generalnie ma
praktycznie wszystkie funkcje,
inne aplikacje, które wymieniłeś,
ma też takie swoje unikatowe, no bo na przykład
serwery mogą być na kanały podzielone,
ale jeśli mieliśmy dużo osób,
które korzystało z
urządzeń, które lubiły takie wiadomości,
to może to był powód, dla którego nie chcieli
się przesiąść na Discorda.
Teraz już taka
możliwość się pojawiła.
Jak to działa? Działa to identycznie jak
z tymi innymi platformami, to jest
nagrywanie takich wiadomości jest
dostępne tylko na
aplikacji mobilnej, na iOSie
i na Androidzie. No i tak jak mówię,
działa to tak, jakby się
tego można spodziewać. Obok
pola edycji do wpisywania wiadomości
w prawym dolnym rogu jest przycisk
nagrań wiadomość. Możemy go po prostu
trzymać, możemy go też przesunąć
do góry, żeby zablokować nagrywanie i wtedy
spokojnie możemy sobie mówić
ile chcemy, do 20 minut
konkretnie.
Takie nagrywanie później możemy
wysłać lub usunąć.
Nie ma na razie opcji pauzy, jeśli tak
nagrywanie sobie
zablokujemy. Możemy
też palec przesunąć w lewo, tak jak na WhatsAppie
podczas nagrywania, żeby
to nagrywanie
anulować. No i jak już taką
wiadomość nagramy, ona się nam wyświetla.
Po prostu stukamy dwukrotnie i ona
wtedy się otwarza. Możemy też
stuknąć jeszcze raz, żeby
ją zatrzymać. Nie ma
opcji, żeby ją przewijać.
Nie ma też opcji zmiany prędkości
tego. Przynajmniej
na telefonie
nie znalazłem sposobu, żeby
tę wiadomość przewijać. Na komputerze się to
da zrobić, bo po prostu
widzimy normalnie przyciski otwarzania
no i suwak pozycji. Więc na
komputerze, czy to jest Windows, czy Mac,
można spokojnie sobie
te wiadomości przewijać.
Jakość jest całkiem
przyzwoita. Wydaje mi się, że
najlepsza jak na Whatsappie. To nie jest
niestety Telegram albo Signal, więc to nie
jest taki czysty, bardzo wysoki jakość
i dźwięk, ale to jest
jakość, co jest chyba podobna jak
jakość kanałów
głosowych na Discordzie. Więc naprawdę jest całkiem
przyzwoicie. W Signalu
to tak a propos, to ta jakość mam wrażenie
ostatnimi czasy się popsuła. Oni
coś tak kombinowali z tym dźwiękiem. Tak, tak.
Dawno nie używałem,
więc… Właśnie ja też
tak trochę zaprzestałem w związku z tym,
że ta jakość popsuł i ona się
zrobiła taka bardziej Whatsappowa.
A, to może za dużo
miejsca im to zajmowało. W Signalu? Oj, to szkoda.
Ja też jakiś czas temu nie wysyłałem
wiadomości, ale na Discordzie
rzeczywiście ta jakość jest
taka otrzumiona bardzo.
Właśnie miałem to powiedzieć, tak. Ta jakość jest
fajna, ale tam faktycznie działa jakaś
otrzumiarka. Ja tego testowałem
w warunkach pokojowych, to dokładnie
w tym pokoju, w którym teraz do was mówię.
Nie próbowałem tego
na przykład gdzieś na ulicy
czy w jakimś hałasie.
Zastanawiam się, do głosu to jak
najbardziej działa i to działa
całkiem fajnie, nawet wydaje mi się lepiej jak
Whatsapp. Oprócz tego, że nie możemy sobie
przyspieszyć tych wiadomości.
Ale nie wiem, czy dałoby się
w ten sposób na przykład
pokazać jakieś dźwięki. Coś się dzieje
w naszym otoczeniu, co chcielibyśmy
znajomym pokazać.
Czy ta otrzumiarka by
się tego nie pozbyła.
No ale taka opcja jest.
Administratorzy serwerów mogą te
wiadomości włączać, wyłączać dla
poszczególnych ról czy kanałów.
Więc jeśli kogoś to bardzo denerwuje
może to wyłączyć, albo
zrobić osobny kanał
do wiadomości głosowych.
No ale przy okazji
doszła jeszcze jedna zmiana,
która była podana w tym samym
powiadomieniu o nowościach,
która też jest całkiem fajna.
Pliki na Discordzie,
na Discordzie można też ładować
różne pliki. Kiedyś limit
był bardzo mały, bo to były
4 megabajty, 8 jak ktoś
wykupił sobie plan Nitro.
A teraz to jest 25
megabajtów, więc no to i tak
nie jest jakoś bardzo dużo, no ale…
W porównaniu do Telegrama.
Tak, no ale
trochę więcej jest, już można
jakieś troszeczkę większe pliki
wysłać. Więc może nawet jeśli właśnie
taka wiadomość głosowa by nie wystarczyła,
bo coś byłoby
otrzymione, no to już takie jakieś
lepsze, dłuższe nagranie
no myślę, że by się dało spokojnie wysłać.
Piotrze, a czy te wiadomości to sobie
też można wysyłać prywatnie?
To znaczy, bo
mówisz o serwerach, że to można
na kanałach w poszczególnych
serwerach, ale też na Discordzie jest
z tego co pamiętam, taka po prostu
metoda na komunikowanie
się prywatnym z użytkownikami, których tam
mamy w kontaktach.
Jak najbardziej tam też można
te wiadomości wysyłać. Dobrze, że zwróciłeś na to
uwagę zresztą, bo tak a propos
serwerów, to na razie te wiadomości
są dostępne
w mniejszych serwerach. Mniejsze to znaczy
takie, które mają
200 użytkowników lub mniej.
Okej.
Czyli rzeczywiście to
warto mieć to na uwadze.
Czy Piotrze, próbowałeś odbierać
taką wiadomość głosową z Androida?
Mam wrażenie, że tam to jeszcze gorzej brzmi niż iOS.
Nie, nie zwykałem się jeszcze.
Odszumiony, ale jeszcze w miarę
ta góra jest utrzymana.
Android brzmi jak WhatsApp.
I jeszcze tam u znajomego,
z którym testowaliśmy, to się jakoś urywało
na początku, tam pierwsze sekundy
on coś mówił, nie było go słychać,
potem tak wcinało, więc
no nie wiem szczerze mówiąc.
No i tutaj też pytanie,
czy to jest na wszystkich telefonach
z Androidem, czy tylko na tym konkretnym,
który on miał? Nie wiem.
Nie pamiętam teraz, co on używa.
No i też oczywiście jak zaczynamy nagrywać, to nam się przełącza
na słuchawkę dorosłą.
I możemy zablokować,
ja już próbowałem, udało mi się nawet, nie,
zablokować? Chyba nie, ale można anulować
przesuwając w lewo, ale jak się stuknie dwa razy
bez przytrzymania,
to się blokuje i on wtedy nagrywa cały czas,
dopóki nie zrobimy stop i wtedy jest na słuchawce
i to trzeba naprawdę uważać, bo to
można tam gdzieś sobie łatwo wykrzaczyć.
Jak nie trafimy w ten przycisk
stop i tak dalej, natomiast
taki to ma interfejs.
I też w kursor mi jakoś skacze,
że jak idę do przodu,
w sensie flikami w prawo,
to widzę te wiadomości,
ale jak zaczynam przesuwać w lewo, to one mi gdzieś znikają.
Coś tam jest
nie do końca. Z przebijaniem w Discordzie mobilnym
to zawsze były problemy,
niestety, to swoją drogą.
No tak.
Czas teraz na ostatni temat, przynajmniej
ostatni temat w naszych notatkach.
To twój temat,
Paweł Pawle, z kolei.
A propos Whispera, jeżeli ktoś by
potrzebował czegoś graficznego.
Tak, nareszcie
nie musimy się męczyć z wierszem poleceń
i z jakimiś zależnościami do
instalacji i komendami,
i czy to taki parametr, czy inny, czy coś tam.
Bo jest
w miarę oczywiście dostępne,
bo są pewne ograniczenia, ale to
da się obejść nawigacją obiektową.
GUI,
czyli Interfejs Graficzny do Whispera
o nazwie Buzz
do pobrania z
GitHuba projektu, do którego oczywiście będzie
link w komentarzu.
No i co my tam możemy? Ściągamy taki program,
on tam ma chyba ze sto
kilkadziesiąt megabajtów i tam już ponoć
są wgrane modele
te tiny, small i medium.
Natomiast model large
możemy go oczywiście
wybrać, on się dociągnie nam, ten taki
dwa czy trzy gigabajty ważący.
On nam się dociągnie przy pierwszej próbie
jego użycia.
No i co my możemy zrobić?
Możemy załadować tam plik.
Mamy listę, taką tabelę
z plikami, które chcemy
przetranskrypować. Otwieramy
plik, po prostu Ctrl-O i możemy wskazać
dowolny plik audio bądź wideo.
Potem pokazuje nam się okienko właśnie
konfiguracji tego całego
transkryptu, czyli
jakim chcemy użyć
typu Whispera.
I możemy użyć tu Whispera wbudowanego.
To chyba jest Whisper CPP, ale nie jestem
pewien. Tak, to jest Whisper CPP.
To jest, okej.
Jest też ten serwis taki
chmurowy huggingface.co
to jest też jakiś taki
Whisper w chmurze.
No i jest
Whisper Open AI API, czyli
jak mamy dostęp do API Whispera
no to możemy tam
podać ten klucz i
oczywiście za odpowiednią opłatą
transkrybować teksty.
Możemy wybrać sobie model,
możemy wybrać sobie język,
możemy wybrać sobie czy chcemy tylko transkrypcji
czy też tłumaczenia na angielski.
I możemy
wybrać sobie również
to czy
ostatnio, w którejś z ostatnich wersji
doszła taka opcja jak word level timing,
czyli jeżeli tworzymy napisy, na przykład SRT
to możemy mieć tak, żeby
dla jednego słowa był jeden napis,
czyli po prostu słowa są rozcinane po napisach
czy napisy po słowach
i mamy dokładne znaczniki czasu
dla każdego słowa. Ponoć to jest fajne jak
w jakichś mediach społecznościowych
pokazujemy to na filmiku
jakieś takie transkrypty. Nie wiem czy TikTok
bardzo lubi takie rzeczy, czy jakieś inne
medium.
Możemy też posłużyć się opcją initial
prompt, czyli możemy podać modelowi
jakiś
wstępny kontekst tego nagrania, żeby
bardziej go wyczulić na jakąś konkretną terminologię.
No i potem
zaczyna się konwersja
i to
może trwać długo, zwłaszcza na
jakichś takich komputerach osobistych.
U mnie na moim HP ProBooku
z i5 procesorem
plik godzinny
transkrybuje się w zależności
od tego jakiego typu jest to
nagranie,
około 4 godzin.
No więc jest to dużo.
No jest to dużo, ja to testowałem
dziś nawet sobie, bo już myślę, że
możemy powiedzieć, że w przyszłym tygodniu
pokażemy wam te aplikacje
tak w praktyce
na antenie Tyflo Radia
w odrębnej audycji, bo skoro jest
o McWhisperze audycja,
to teraz myślę, że warto, żeby
pokazać też coś dla użytkowników Windowsa,
bo wiemy, że takie zapotrzebowanie
jest, że chcecie
czegoś, co pozwoli wam
na w miarę nieskomplikowane
użycie Whispera,
to zademonstrujemy.
Ja to sprawdzałem na swoim procesorze,
na też i5, natomiast
ta i5 jest nowa,
ona jest z zeszłego roku,
no to tak godzina
nagrania, to jest
mniej więcej godzina pracy.
To już tak, to jest lepiej.
Natomiast
ja tu mam jedno
ale i szkoda, że
tego się nie da w żaden sposób
zrobić, szkoda, że
nie można się przełączyć na GPU.
To znaczy, że to działa tylko
na procesorze i z baza
nie da się niestety
przełączyć na pracę na karcie graficznej,
a myślę, że
czasem naprawdę fajnie by było mieć
takie narzędzie też i typowo
graficzne, w którym wrzucamy
sobie jakieś tam
pliczki i
nasza karta graficzna nad tym pracuje,
jeżeli mamy możliwość
działania na
tych większych modelach.
Możesz to zawsze zgłosić
jako issue, jako zgłoszenie na repozytorium
GitHuba projektu,
bo autor coś tam
cały czas nad tym pracuje
i na przykład
wiem już, że w kolejce
już jest zrobione, ale nie wyszła jeszcze od tamtego
czasu nowa wersja, jest
wsparcie dla Faster Whisper.
Bardzo fajnie, to
mnie cieszy i jeszcze jedna rzecz
jest, która działa.
Ja co prawda tego
akurat dziś nie testowałem,
natomiast widziałem przycisk i to też
warto o tym pamiętać, że
ten baz oprócz tego,
że pobiera
informacje z pliku audio, to też
może pobierać dźwięk z naszego mikrofonu.
Tak, ale to chyba jest
tak, że my najpierw nagramy, a potem on dopiero
będzie transkrybował, to chyba nie jest w czasie rzeczywistym.
Wiesz co, jak ja się
tym bawiłem, to on chyba
nawet coś próbował w rzeczywistym.
Tylko to
z użyciem jakichś niewielkich modeli.
Ja już teraz nie pamiętam, bo ja kiedyś o
tym programiku już nawet wspominałem
w którymś styflu
przeglądów, jak tak robiłem sobie przegląd
tego, co w ogóle Whispera wykorzystuje.
Wydaje mi się, że to nawet potrafiło
w pseudo
czasie rzeczywistym oczywiście,
bo to
gdzieś tam on sobie bierze jakiś bufor
i z tego bufora
zczytuje dźwięk.
Nie jestem tego na 100% pewien,
ale wydaje mi się, że on nawet
coś takiego próbował.
Widzisz, to ja będę musiał też się tym
pobawić.
Aplikacja ma też swoje problemy i to trzeba
przyznać. Nie do wszystkiego
da się dotrzeć z klawiatury. Ja już to też zgłosiłem
na GitHubie.
Jedna osoba nawet mnie poparła w tym moim
postulacie, że powinno być przede wszystkim
dostęp z klawiatury do każdego elementu,
czyli też do paska narzędziowego. To właśnie
na tym pasku jest opcja na przykład
otwórz nagranie,
czy rozpocznij nagrywanie,
albo otwórz transkrypt,
która będzie nam potrzebna, kiedy już transkrypcja
dobiegnie do końca.
I tam jest też jedna taka wada, że nie da się
wyeksportować za jednym zamachem wszystkich
formatów.
Tak, to prawda. Trzeba sobie wybrać.
Jasne, dotychczas przeglądu
to jest trochę uciążliwe.
Ja zazwyczaj biorę ten tryb taki czysty, tekstowy,
bo ja używam tego głównie
właśnie do tłumaczenia
na polski podcastów
w obcych językach.
I tutaj rzeczywiście opcja TXT
mi w zupełności wystarcza, ale można
też eksportować do
formatów napisów.
No też czyszczenie historii jest na tym pasku
narzędziowym, który niestety nie
działa
bez nawigacji obiektowej.
No i też coś, co
nie działa na ten moment, to jest
pole edycji z wynikiem
transkryptu, bo my go oczywiście przed eksportem
możemy też przejrzeć, co tam w ogóle wyszło.
I możemy na przykład
go też wyedytować
i tam jakiś poprawek dokonać i dopiero po
pokonaniu poprawek my możemy
wyeksportować te pliki.
No tylko, że my tego niestety
nie zrobimy, bo to jest aplikacja
napisana w Qt
i ma typowe problemy Qt, czyli
takie domyślnie zaimplementowane pole
edycji bez jakichś tam doróbek
dostępnościowych, trochę tak jak dawniej w Zoomie było.
Nie pozwala na to, żeby
po takim polu edycji nawigować i tam coś
strzałkami po znakach, po słowach
i tak dalej, czy nawet góra-dół
po wierszach. Po wierszach
to mi się chyba jakoś nawet dziś udało, ale
nie próbowałem tego edytować.
Nie, mi się udało zrobić czytaj wszystko i wtedy leciał
z czytaj wszystko. A to nie, to
dziś na pewno po wierszach udało mi się jakoś chodzić.
To ciekawe, może muszę
zrealizować. Może, a może
wiesz, bo ja to tak bardzo
szybko, żeby tylko dostać się do tego
guzika eksportu,
więc tam nie sprawdzałem, czy te wiersze
są aby na pewno takie, jak
powinny być, czy na przykład on mi nie próbował
czytać właśnie wszystkiego, ale
strzałkami byłem w stanie
tam się pojawić. Znaczy on coś powie,
ale powtórzy to samo
CSH podświetlone. Aha, no to
muszę to jeszcze bardziej jakoś
sprawdzić i sobie powymieniamy
mamy doświadczenia w audycji.
No i typowe, co
też ktoś zgłosił, że, ale to jest
raczej kwestia whispera, a nie samego
GUI, że on
nawet nie tyle, że nie potrafi nazwać
rozmówców w nagraniu, gdzie jest kilka
osób, ale że nie potrafi
inteligentnie jakoś wykryć, że pojawił się
nowy głos, więc można by tą frazę
już przerzucić do nowej linii.
No nie, to jest typowe,
to jest whisper.
I nie da się tego jakoś obejść, niestety.
No, niestety.
No,
ograniczenia to swoje ma,
może z czasem będzie to jeszcze ulepszone,
natomiast jest to fajne,
rzeczywiście dla osób, które
nie chcą się bawić
właśnie w wiersz poleceń, w jakieś komendy,
w jakieś tam dociąganie zależności,
a chcecie mieć fajny program,
który powoli, bo powoli, ale
robi całkiem
dokładną transkrypcję audio,
no to BASS myślę będzie
dobrym tutaj rozwiązaniem.
Zgadza się. I to ostatni
temat w dzisiejszym
Tyflo Przeglądzie nr 180, przynajmniej
w notatkach. Tradycyjne pytanie,
czy ktoś z was jeszcze coś
miałby do dodania?
Ja tak opowiem na szybką informację,
a propos asystenta Google, tak rozmawialiśmy,
że nie jest zaktualizowany, a tutaj mi
na was to do nie wpadła.
Krótka informacja, to Aleksa już
jakiś czas temu dostała, przepraszam z góry,
jeśli komuś właśnie włączyłem
służnik.
Mianowicie, jeśli
używamy go do sterowania
smart home’em jakimkolwiek,
no to on bardzo się rozgadywał zawsze.
Poprosiliśmy, włącz światło, on mówił ok, włączam
światło i to ludzi zdenerwowało.
Właśnie w Aleksie się to
dało wyłączyć. Teraz
w asystencie też już
takich komunikatów nie będzie, tylko będą
zastąpione
krótkim sygnałem dźwiękowym.
Taka mała aktualizacja, ale
zresztą cieszy ludzi.
Mała rzecz, a cieszy. Na koniec
180 Tyflo przeglądu.
Kolejny za tydzień i to już
w środę, więc niedługo
będziecie musieli czekać
na świeżą
dostawę technologicznych
wieści. Na dziś
dziękujemy wam bardzo za uwagę.
Piotr Machacz, Paweł Masarczyk
i mówiący te słowa
Michał Dziewisz. Do usłyszenia.
Podczas dla niewidomych i słabowidzących.
Program współfinansowany
ze środków Państwowego Funduszu
Rehabilitacji Osób Niepełnosprawnych.

Wszystkie nagrania publikowane w serwisie www.tyflopodcast.net są dostępne na licencji CreativeCommons - Uznanie autorstwa 3.0 Polska.
Oznacza to, iż nagrania te można publikować bądź rozpowszechniać w całości lub we fragmentach na dowolnym nośniku oraz tworzyć na jego podstawie utwory Zależne, pod jedynym warunkiem podania autora oraz wyraźnego oznaczenia sposobu i zakresu modyfikacji.
Przekaż nam swoje 1,5% podatku 1,5 procent Logo FIRR Logo PFRON Logo Tyfloswiat.pl

Czym jest Tyflopodcast?

Tyflopodcast to zbiór instrukcji oraz poradników dla niewidomych lub słabowidzących użytkowników komputerów o zróżnicowanej wiedzy technicznej.

Prezentowane na tej stronie pomoce dźwiękowe wyjaśniają zarówno podstawowe problemy, jak metody ułatwienia sobie pracy poprzez korzystanie z dobrodziejstw nowoczesnych technologii. Oprócz tego, Tyflopodcast prezentuje nowinki ze świata tyfloinformatyki w formie dźwiękowych prezentacji nowoczesnych urządzeń i programów. Wiele z nich dopiero znajduje sobie miejsce na polskim rynku.

Zapraszamy do słuchania przygotowywanych przez nas audycji i życzymy dobrego odbioru!

Tematyka

Pozycjonowanie i optymalizacja stron internetowych