TyfloPrzegląd Odcinek nr 228 (wersja tekstowa)

Pobierz napisy w formacie SRT
Pobierz napisy w formacie VTT
Fundacja Instytut Rozwoju Regionalnego prezentuje
Tyflo Podcast.
Dzień dobry, dzień dobry.
Mamy dzisiaj 10 kwietnia 2024 roku.
228 Tyflo, audycja Tyflo Przegląd.
Przed mikrofonami dzisiaj Paweł Masarczyk,
Piotrek Machacz, Michał Dziwisz,
Dzień dobry.
I zacznę od tego, co dzisiaj będzie się w Tyflo Przeglądzie działo.
To przedstawię jak zwykle Michał.
W tym tygodniu w Tyflo Przeglądzie.
Koniec sagi z Voice Dream Readerem w tle.
Wygrali użytkownicy.
Doświadczenia z Microsoft Adaptive Kit.
Okulary Ray-Ban Meta mogą być przydatne niewidomym.
BraillePen24, odświeżony monitor braillowski
w zestawie z iPhonem.
Obserwacje po krótkim pobycie w Szwajcarii.
Niewidomy sprzedawca doradza w austriackim Mediamarkcie.
Hiszpański sposób na łatwiejsze podłączanie wtyczki do gniazdka.
We Francji można zgłaszać popełnienie przestępstwa na odległość.
Czy brak dostępności może skończyć się aresztem?
W Irlandii tak.
Warszawski ZTM chce wymienić linie prowadzące na kilku stacjach metra.
LuckyMajor, czy sprawdzisz się jako burmistrz?
Pontes 15 Puzzle, prosta łamigłówka w przeglądarce lub na smartfonie.
Nowa aktualizacja Forza Motorsport.
Talkback 14.2 wydany.
Sync.ai z trybem wyszukiwania przedmiotów i opisem scen po polsku.
SharpWin, serwer mowy i MaxPeak na Windowsie.
Nowego Audio Hijacka zainstalujesz znacznie łatwiej.
TimTalk 5.16 wydany.
Anytime Podcast, otwarto źródłowy odtwarzacz podcastów na iOSa i Androida.
Generatory stron statycznych, a czytniki ekranu. To możliwe.
Pojawił się polski duży model językowy Bielik.
Google ulepsza odnajdowanie urządzeń z Androidem.
Dwa ciekawe narzędzia do usuwania tła z nagrań głosu.
Wiemy jak działa klawisz Copilot na nowych komputerach z Windows.
Wszystko to, a pewnie jeszcze więcej już za chwilę. Zaczynamy!
www.tiflopodcast.net
No i zaczynamy od informacji z poprzedniej audycji.
Informacja była w sumie na jedna, ale jeszcze jest jedna informacja,
bo jeden z newsów, które tydzień temu przedstawiliśmy,
okazało się być primaprylisowym żartem.
Ciekawe, czy państwo się domyślą, która z tych informacji,
ale już odpowiadamy na to pytanie.
Informacja dotycząca produktów z Native Instruments.
Tak, to wyglądało na tyle wiarygodnie, na tyle ekscytująco,
że po prostu udaliśmy się złapać dwa dni po czasie.
Tak jest.
W związku z czym, to w takim razie zaczynamy od drugiej takiej informacji,
która ma źródło w poprzedniej audycji, chyba nie tylko nawet w poprzedniej.
W poprzednich audycjach nawet.
A to już nie będą informacje primaprylisowe.
Tak, to już zdecydowanie nie i to w sumie możliwiejsza dobra wiadomość.
Choć zobaczymy, co przyszłość pokaże, no w każdym razie
Voice Dream Leader. Użytkownicy wygrali.
Tak, użytkownicy wygrali. Ja się bardzo zastanawiam, jak to tam
wyglądało zakulisowo w firmie Applause Group.
Jakie oni burze mózgów musieli przechodzić i jak do tego wszystkiego dochodzili.
Do czego udało im się dojść. No na pewno nie z własnej woli.
I teraz też jestem ciekaw, czy odezwał się ktoś z Apple i po prostu
pogroził im palcem i powiedział, że drodzy państwo, ale tak to wy nie
możecie postępować. Mamy dużo zgłoszeń, które informują, że chcecie
zrobić coś, co nasze wytyczne kategorycznie odrzucają i czego nie
rekomendujemy, więc my po prostu będziemy musieli z aplikacją waszą
postąpić tak, że albo nie umieścimy żadnych nowych jej wersji, albo
usuniemy ją z App Store’a. Tak mogło być. Oczywiście żadnych dowodów
na to nie mamy, natomiast cała rzecz rozbiła się o to, że Applause Group
właśnie tą chęcią wymuszenia subskrypcji na użytkownikach, którzy
już wcześniej zakupili program Voice Dream Reader, łamał jedną z wytycznych,
które Apple wystosowało wobec twórców aplikacji w sklepie App Store,
chcących je umieszczać. No i teraz tak, wszystko eskalowało gdzieś tam,
bo tych różnych protestów było coraz więcej. Tak jak wspominaliśmy
w poprzednim tygodniu, także i Jonathan Mosen na swojej stronie
internetowej zamieścił taki artykuł, że on życzy Voice Dreamowi
świetlanej przyszłości, ale to, że oni nie postępują zgodnie z wytycznymi
Apple, tego nie można tolerować i że zachęca wszystkich użytkowników,
którzy czują się pokrzywdzeni, żeby najzwyczajniej w świecie zgłaszali
ten temat do Apple. W Polsce też trochę to ruszyliśmy, na przykład na grupie
dostępne Apple. Z tego co wiem, to kilka, jak nie kilkanaście, jak nie
kilkadziesiąt nawet zgłoszeń poszło. No i efekt tego jest taki, że 6 marca,
6 kwietnia, przepraszam bardzo, pojawił się taki komunikat na stronie
Voice Dream Readera, ja go sobie tu przetłumaczyłem, pozwolę go sobie
teraz przeczytać. Po naszym niedawnym ogłoszeniu dotyczącym przejścia
z Voice Dreamem na subskrypcję otrzymaliśmy przytłaczającą odpowiedź
od tysięcy członków naszej społeczności. Wasze opinie wraz ze
złymi historiami o tym, że Voice Dream jest kluczową częścią Waszego
codziennego życia skłoniły nas do zmiany tej decyzji. Będziemy nadal
zapewniać dostęp do istniejących funkcji aplikacji bez dodatkowych kosztów.
W miarę dalszego rozwoju Voice Dreama niektóre nowe funkcje mogą być
oferowane w ramach subskrypcji, ale obecne możliwości pozostaną
bezpłatne dla osób, które już zakupiły Voice Dreama. Dla tych, którzy
już przeszli na subskrypcję, dalsze korzystanie z tej subskrypcji nie jest
już konieczne. Subskrypcję można anulować, ale zachęcamy do utrzymania
jej aktywności w celu wspierania ciągłego rozwoju aplikacji.
Tych, którzy chcą wesprzeć Voice Dreama prosimy o rozważenie subskrypcji
albo jednorazowej darowizny za pośrednictwem naszej strony internetowej
lub po prostu pozostawienia pozytywnej recenzji w App Store.
Właśnie, a propos tych recenzji pozytywnych bądź też mniej pozytywnych
też warto o tym wspomnieć. Na portalu AppleVis z kolei taka akcja została
podjęta i przynajmniej niektórzy użytkownicy deklarowali, że coś takiego
właśnie mają zamiar zrobić, czyli po prostu dać aplikacji jedną gwiazdkę,
jakąś tam negatywną recenzję jej opublikować w App Store.
No wiadomo, jeżeli aplikacja ma niskie oceny to też nie wpływa to na nią
jakoś bardzo pozytywnie i użytkownicy wcale niekoniecznie są zachęceni
do tego, żeby taką aplikację instalować.
Serdecznie dziękujemy za pełne pasji, lojalne wsparcie Voice Dream.
Wasze głosy mają znaczenie. No cóż, lepiej późno niż wcale.
Natomiast ja tak sobie myślę też zresztą różne głosy na temat tego
zachowania. Applause Group się pojawiło.
Oczywiście większość użytkowników jest zadowolona z tego obrotu rzeczy,
z tego obrotu spraw, natomiast nie wszyscy są tak bardzo pozytywnie
do tego nastawieni i ja się wcale też nie dziwię z drugiej strony,
bo są też głosy racjonalne, które mówią o tym, że to wcale może
nie wyjście nam wszystkim na dobre. Między innymi Brian Hartgen opublikował
na Mastodonie taki wpis, no Brian widać, że bardzo z perspektywy
przedsiębiorcy do tego tematu podszedł, ale okej i takie głosy też są
gdzieś tam w naszej społeczności warte przynajmniej rozważenia,
bo wiadomo, że one będą w mniejszości, natomiast myślę, że warto też
o tym wspomnieć. O co Brianowi tam chodziło? Przede wszystkim o to,
że Voice Dream generuje pewne koszty, koszty zarówno utrzymania samej
aplikacji, jak i rozwoju. Ja też tak sobie myślę, że teraz kiedy już sam
Winston nie zajmuje się tą aplikacją, a zajmuje się nią cała firma,
która jak mnie mam zatrudnia więcej niż jedną osobę, która zajmuje się
tym projektem, no to też jakoś tam musi to wszystko na siebie zarabiać.
I teraz okej, my na chwilę obecną dostaliśmy to, o co gdzieś tam
walczyliśmy. Aplikacja jest dla nas, dla tych wszystkich, którzy już ją
kupili, darmowa. Natomiast jaka czeka ją przyszłość? Oczywiście,
i ja wcale się nie zdziwię, jeżeli rzeczywiście Voice Dream będzie
rozwijany, jeżeli nowe funkcje zostaną dodane i za jakiś czas
prawdopodobnie przynajmniej część osób skusi się na tę subskrypcję.
Być może nawet już w tym momencie, co niektórzy, którzy mogą sobie
na to pozwolić, to Applause Group pokażą taki gest dobrej woli,
no i najzwyczajniej w świecie te subskrypcje wykupią.
To jest zupełnie inna sytuacja, kiedy robimy coś, do czego nie jesteśmy
zmuszani, o co co najwyżej jesteśmy grzecznie poproszeni, natomiast
pytanie podstawowe, czy te subskrypcje i pieniądze od tych użytkowników,
którzy się na to zdecydują, wystarczą na utrzymanie takiej aplikacji,
na opłacenie wszystkich pensji, tym bardziej, że my tak naprawdę
to nie do końca wiemy, jakie były kalkulacje nowych właścicieli
Voice Dreama przed zakupem. Być może wydali na te aplikacje całkiem
niemałe pieniądze, licząc na to, że to się szybko zwróci.
A tymczasem, no okazuje się, że się tak wcale szybko nie zwróci,
bo nie wszyscy użytkownicy zapłacą. I teraz może być tak, że nic się
dla nas tu nie zmieni, aplikacja będzie nadal rozwijana, może stać się tak,
że po prostu aplikacja będzie tylko utrzymywana i tam nic wielkiego
się z nią dziać nie będzie, bo te subskrypcje, no to nie będą
aż tak wielkie pieniądze, dzięki którym będzie można sobie pozwolić
na dopisywanie jakichś dodatkowych funkcji, a może być tak, że najzwyczajniej
w świecie uznają, że oni po prostu przestrzelili i na tej aplikacji
absolutnie wcale nie zarabiają, więc decyzja biznesowa może być taka,
że nie ma sensu w ogóle tego Voice Dreama utrzymywać.
Alternatyw i opcji jest wiele, a tak naprawdę wszystko pokaże przyszłość.
Jak na razie jedno jest pewne, to na co liczą i czego oczekują
użytkownicy, zwłaszcza użytkownicy aplikacji, za które płacą,
no to jest po prostu to, żeby jednak jakoś sensownie i z chociaż
konkretną informacją co się dzieje do nich podchodzić, bo tak naprawdę
informacja o tym, że Voice Dream będzie chciał pieniędzy absolutnie
od wszystkich, to była pierwsza taka oficjalna informacja od nowych
właścicieli na stronie internetowej. Przez ileś miesięcy, kiedy tworzyli
nowe wersje Voice Dreama, to absolutnie niczego więcej nie komunikowali
i o niczym więcej nie mówili, tylko o tym, że no to teraz zrobiliśmy
jakieś poprawki błędów w nowej wersji naszej aplikacji.
Żadnej informacji i niczego konkretnego.
Co jest w ogóle o tyle przekle, że jeśli ktoś nie czyścił biblioteki
w Voice Dreamie jakiś czas, no to jeszcze za czasów Winstona,
no to za każdym razem jak pojawiała się nowa aktualizacja,
to automatycznie do biblioteki dostawaliśmy dokumenty.
Tak, co nowego, później nawet jakieś newslettery się tam zaczęły pojawiać,
a to nagle oczywiście przestało się dziać, no i właśnie było tak jak mówisz.
W tym samym aktywizmie, zwłaszcza ze strony Briana Hartgena,
najbardziej mnie chyba boli to, jakby rozumiem też jego perspektywę
i może tak się stać, jak on pisze, natomiast najbardziej boli mnie to,
że przyłączył się on troszkę do takiego chóru głosów,
mniej lub bardziej gdzieś tam w społeczności amerykańsko
czy anglojęzycznej poważanych, że to co zrobili użytkownicy,
czyli te właśnie skargi do Apple’a, to jest prześladowanie firmy online.
Moim zdaniem to jest troszkę za mocne uderzenie użytkowników,
którzy poczuli się naprawdę w jakiś sposób oszukani
i w jakiś sposób niedoinformowani i potraktowani jako tania maszynka
do robienia pieniędzy.
Do robienia pieniędzy, oczywiście. I to w ogóle, dlatego ja nawet
tego argumentu Briana tu specjalnie nie przytaczałem,
wiem, ale chciałem o tym powiedzieć, bo to są głosy,
to jest głos, w którym społeczność się liczy, to jest ekspert,
to jest specjalista, to jest jakby głos społeczności
i on w tym momencie rusza, on akurat tego nie powiedział,
ale podpiął się pod ten dyskurs, że znowu wygrała roszczeniowość niewidomych.
No, ale w tym przypadku akurat, bo te objawy tej i przejawy
tej roszczeniowości, jak to Brian określił, to można było
rzeczywiście w pewnych miejscach widzieć, bo jakieś wystawianie
takich naprawdę płaczliwych, negatywnych komentarzy
gdzieś tam w recenzjach w App Store, no to nie było, umówmy się,
coś, co było najlepszą opcją.
I tutaj moderacja Apple Visa na szczęście też zareagowała,
bo przynajmniej jeden wątek, który widziałem, zdążyłem go przeczytać,
z dziesięć filmów, zniknął.
No właśnie, ja też widziałem na Apple Visa te opinie,
którą użytkownik wystawił i namawiał do tego, żeby coś
w podobnym tonie publikować.
Absolutnie to było niesmaczne, nie, to było niesmaczne
i coś takiego absolutnie nie jest rzeczą fajną.
Natomiast absolutnie ja się nie zgadzam z tym, że powoływanie się
na konkretną wytyczną, którą mieliśmy, konkretny punkt,
konkretne miejsce w zasadach Apple dotyczących tego,
czego aplikacja robić nie może, no to absolutnie nie jest jakieś
nękanie twórców, bo najzwyczajniej w świecie to nie użytkownicy,
a to twórcy nie odrobili pracy domowej i to twórcy nie przewidzieli tego,
że takich rzeczy zrobić nie mogą.
Prawdopodobnie było tak, że ktoś, kto zarządzał Applause Group
albo nie przeczytał tych wytycznych dostatecznie wnikliwie,
albo najzwyczajniej w świecie w ogóle tego nie, nawet w ogóle
się z tym nie zapoznał albo pomyślał, że w sumie
i nie docenił może użytkowników, pomyślał sobie, a niewidomi,
a to jakoś tam oni przecież, a jaką oni mają alternatywę?
Jesteśmy my i w sumie, no jakiś tam speech central,
ale Voice Dream ma swoją markę.
To jest drugi wątek, który chciałbym poruszyć,
bardzo mi się nie podoba, znaczy nie wiem jak do tego podchodzili autorzy,
bo oni mówią do nas korpotokiem i mówią tak, żeby gładko wyszło,
ale opinie takie jak właśnie, no Brian jeszcze to potraktował
w miarę łagodnie, tam inne osoby się podpięły i zrobiły niezły najazd
na osoby, które naprawdę konstruktywnie do krytyki podeszły,
że my się będziemy podkładać wszystkim widzącym,
którzy coś dobrego dla nas zrobili, że teraz w tym momencie
ci ludzie są skazitelnie czyści, krystaliczni i bezkrytyczni,
nie podlegający żadnej krytyce, a my możemy jedynie się pokornie
dostosować i jak oni podejmą jakąś naprawdę od czapy decyzję,
to my możemy jeszcze im dziękować, że nie zrobili gorzej.
Strasznie nie lubię takiego podejścia.
Ja też nie, ja też nie, bo człowiek widzący to też człowiek,
przedsiębiorca, developer aplikacji, której używa ileś osób,
zwłaszcza jeżeli jest to aplikacja nagrodzona przez Apple,
czyli wykonali jakąś wzorową robotę, znaczy zrobił to Winston oczywiście,
nie pomylmy tego, natomiast niegdyś aplikacja nagrodzona przez Apple
jako tam wzorowy design, wzorowa użyteczność,
która po pierwszych stronach App Store’a pozwoliła sobie na to,
żeby ludzi, dzięki którym uzyskała ten tytuł, oczywiście tak,
zmienili się właściciele, zmieniły się czasy,
jest teraz inna sytuacja ekonomiczna, ja to rozumiem,
doprowadzić do sytuacji, w której ludzie, którzy zostali nagrodzeni
przez Apple’a, znaczy nie, aplikacja, która została nagrodzona przez Apple’a,
zmieniają się właściciele, narusza regulamin Apple’a.
I to jest błąd, który może popełnić każdy, to jest decyzja,
którą może podjąć każdy, czy osoba widząca, czy niewidoma
i każdy moim zdaniem równo podlega krytyce wobec takich działań,
więc jeżeli chcą takie rzeczy robić, to zapraszamy do Unii,
tu są alternatywne App Store’y, tam może nie ma takich ograniczeń.
No właśnie, może właśnie będzie to jakiś tam sposób,
ale ewidentnie widać, że twórcy po prostu spuścili stonu,
uruchomili też listę dyskusyjną, tak jak wspominaliśmy o tym,
ja się nie zapisałem na tę listę, szczerze powiedziawszy,
szkoda, że jej archiwum nie jest widoczne bez konieczności zapisywania się na nią,
nie wiem, ktoś z was może tam wszedł, sprawdził, co tam pisali?
Nie, ale widziałem feedback użytkowników Mastodona,
rzekomo dużo, ja chcę, ja chcę, ja chcę, czyli pewnie ludzie zaczęli sobie,
albo tam chodziło o tą sytuację z licencją, albo ludzie zaczęli sobie robić
listy do Świętego Mikołaja, co by w tej App’ce jeszcze chcieli mieć.
Wiem, że ktoś narzekał na to, że proszono o wsparcie dla Audibla,
dla książek, że skoro wy chcecie Audibla słuchać, to po co nie,
czemu nie użyjecie App’ki Audibla?
No ale rachu ciachu i mamy wsparcie plików AU, to są chyba pliki Audibla, prawda?
Akurat nie, ale też mamy pliki M4B i to są pliki Audibla,
to znaczy to są pliki, które musimy sobie sami wyciągnąć,
są tego narzędzia, jak ktoś potrzebuje to znajdzie
i takie pliki możemy już bez konwersji faktycznie teraz do Voice Dream’a
załadować czy do BookPlayera, zresztą o którym mówiłem,
BookPlayer już od jakiegoś czasu te pliki wspiera.
No więc tak to wygląda słuchajcie, jeżeli kupiliście Voice Dream’a
już kiedyś, to absolutnie nie musicie niczego zmieniać,
jeżeli uważacie, że to co robią jego twórcy jest warte tego,
żeby subskrybować, albo jeżeli chcecie im jakąś jednorazową kwotę
przelać, tam domyślnie to jest chyba 50 dolarów, jak widziałem,
ale to można sobie zmienić, no to jak najbardziej jest to możliwe,
są na to odpowiednie metody, odpowiednie środki,
ale nie jesteście w żaden sposób do tego zmuszani,
możecie z Voice Dream’a korzystać jak do tej pory
i zobaczymy tak naprawdę co nam przyniesie przyszłość,
jakie ruchy po stronie nowych właścicieli tej aplikacji będą podejmowane,
no może się doczekamy jednak tego Voice Dream’a na Windows,
a to wtedy to powiem szczerze, nawet bym się chyba był zmotywowany
do tej subskrypcji, ale w innym przypadku, no chyba nie.
No dobrze, to chyba przechodzimy do następnego tak mi się wydaje tematu,
czyli już, no jeszcze nie do tematów, że tak powiem bieżących,
bo jeszcze mamy komentarz Grzegorza.
Tak, tutaj Grzegorz pyta, napisał nam coś takiego.
Cześć, po kilkunastu latach przerwy od Windowsa muszę częściowo do niego wrócić
i ma takie pytanie, czy da się w NVDA ustawić czegółowość mowy tak,
żeby wszystkie informacje typu początek listy, nagłówek, link
były czytane na końcu?
No niestety nie, natomiast jeśli takie pytanie się pojawiło,
to stwierdziłem, że można omówić temat jak to jest ze szczegółowością
na Windowsie, bo każdy czytnik ekranu gdzieś potrafi więcej lub mniej.
No jeśli chodzi o NVDA, to chyba jest jedna z rzeczy,
które gdzieś są na górze listy, co ja bym chciał, żeby się w NVDA
dało zmienić, bo taki był manager schematów, tak jak na przykład
mamy w Rzosie, o tym za chwilę powiem więcej.
No to bym się bardzo ucieszył, no bo faktycznie NVDA tego mówi
dosyć dużo. Jeśli chodzi komunikaty początek, koniec listy,
no to po prostu je ewentualnie można wyłączyć, no ale wtedy o listach
informowani nie będziemy. Natomiast jeśli chodzi o inne czytniki
ekranu, w narratorze jest do tego opcja i to sobie tam można ustawić,
czy takie informacje w ogóle mają być czytane czy nie oraz czy mają być
czytane przed czy po typie kontrolki. No a w Rzosie i w Supernovie
z resztą też, tak a propos Supernowych, no to mamy bardzo rozbudowane
menadżery do szczegółowości i tam dla każdej kontrolki tak naprawdę
z osobna można ustawić, czy takie informacje mają być czytane na początku
czy na końcu, czy mają być po prostu na przykład zamiast komunikatów mowa
odtwarzane dźwięki, czy ma być głos zmieniany, więc inne czytniki
ekranu pozwalają nam tutaj na większą ingerencję i jeśli to jest coś,
na czym ci bardzo zależy, no to po prostu może być dobry pomysł, żeby
zainteresować się jakimś Rzosem na przykład albo nawet narratorem do takiej
sytuacji, gdzie byś bardzo czegoś takiego potrzebował, a może ktoś nas
słucha, kto szuka pomysłów na złożenie nowego dodatku do MVDA, no to myślę,
że to byłoby coś, co…
Właśnie a propos dodatków, to ja widzę, że w sklepie jest coś, co się
nazywa Say Control Type Before the Label i to jest dodatek, który pozwala
takie rzeczy personalizować, ale nie dla list, dla pól wyboru, dla opcji menu
i dla przycisków opcji.
Ale czy to nam pozwala, żeby na przykład zawsze mówił po, czy przecież no,
bo jak tutaj nazwa mówi, że przed.
Ja teraz przeczytam opis tego dodatku, bo nie mam go zainstalowanego,
więc też nie powiem teraz, jak to wygląda, natomiast właśnie miałem
przed chwilą przed oczyma opis i wygląda to tak.
A flexible add-on that allows MVDA to announce the type and state of the GUI
controls, czyli pewnie chodzi o kontrolki, ale w programach na Windowsie,
chociaż nie wiem, może też na stronach.
Before the label, the names of types and states can also be customized.
The add-on supports checkboxes, radio buttons and checkable menu items.
Także jakieś opcje personalizacji tu są.
Być może to jest odpowiedni adres, czyli adres repositorium na GitHubie,
żeby autorowi tego dodatku zgłosić taką sugestię, bo on chyba jest tutaj
bliżej zrobienia tego, o co Grzegorzu prosisz.
No w sumie tak, więc to może być dobre.
Można też zamienić na dźwięki, bo są dodatki do zrobienia z tego dźwięków,
ale to chyba też nie o to chodzi.
Tak, dokładnie.
I w sumie skoro czytamy komentarze, no tutaj też wyniosły się też inne dyskusje
między innymi o tym, czy są głosy acapella na iPhona.
No i tutaj Robert Hedzyk nam odpowiedział, że w Voicedreamie teraz
wszystkie głosy acapelli można sobie ściągnąć za darmo.
Oprócz Piotra chyba, który chyba tylko na Androidzie jest dostępny,
też w prywatnym ktoś nierawno pytał, czy do MVDA ten głos Piotr się pojawił.
Niestety jeszcze nie.
No jeśli ktoś chce, bo tutaj była rozmowa, czy jest jakaś współczesna wersja
tej acapelli na iPhona i na Maca, tak na cały system.
Nie ma, ale no może jeśli firma dostanie na tyle dużo zainteresowania,
to może coś takiego stworzą, no bo ich aplikacja do tworzenia własnych głosów,
acapella Mov, taką funkcję dostała.
Niestety jej nie zdążyłem przetestować, bo ona wyszła dopiero potem,
jak mi się okres próbny skończył, kiedy testowaliśmy to tutaj w tyfloprzeglądzie.
Natomiast myślę, że warto też do acapelli pisać.
I mamy tutaj w sumie jeszcze jeden komentarz w Exterminatora,
który zadał nam trzy pytania.
Czy ktoś prowadzi jakieś statystyki na temat audycji tyflopodcastu?
Która najdłuższa, a która najkrótsza?
No któryś tyfloprzegląd był najdłuższy chyba, nie?
I wiesz co? Jeszcze była wycieczka do RPA, audycja z Michałem Brajerem.
No i też podsumowanie, zeszłego roku w tyfloinformatyce było długie,
więc tam parę audycji to już było z sześciogodzinnych.
A co było najkrótsze, to nie wiem.
A najkrótsze, to też nie wiem, ale nie wiem czy ta np. audycja niedawna
Basi Walczak o głośniku JBL, ona była bardzo króciutka.
No i tutaj mamy jeszcze dwa pytania.
Exterminator oczywiście pyta, gdzie można w weganny sposób
kupić książki w formacie PDF, żeby dało się je na linijce Brailliant otworzyć.
Szczerze mówiąc nie wiem, bo ja bardziej po angielsku czytam i to audiobooki jak już coś.
Nie wiem czy ktoś z Was…
Ja mam wrażenie, że ogólnie teraz księgarnie albo strony autorów,
gdzie można kupić książki oferują różne formaty.
Za PDF-y nie chcę ręczyć, czy one są na pewno wszędzie dostępne.
Bardziej IPAP.
IPAP-y na pewno.
Zawsze można skonwertować w razie potrzeby, bo narzędzia do tego też gdzieś istnieją.
I jeszcze pyta się o eSpeak’a, no bo wspominaliśmy chyba, że w najnowszej wersji MVDA się eSpeak zaktualizował.
Exterminator pyta się, czy są nowe warianty.
Nie, to są pewnie jakieś poprawki języków, no pewnie jakieś poprawki błędów.
To nie było wyszczególnione, natomiast tam chyba nowych wariantów nie było,
tylko gdzieś ogólnie ten syntezator został w jakiś sposób poprawiony.
To ja jeszcze tak kilka słów a propos tego, o czym rozmawialiśmy w poprzedniej audycji,
jeżeli chodzi o strumień Tyfloradia.
Patryk pytał, co się właściwie dzieje, że kiedy odtwarza ten strumień z przeglądarki Safari
w tym dedykowanym playerze, to on po prostu nie działa.
Patryku, ja sprawdziłem na Safari, na iOS-ie i u mnie działa,
a nie zmieniałem żadnych domyślnych ustawień.
I też Rafał zgłaszał taki problem, że kiedy przełączamy się z automatu na audycję na żywo,
to zdarza się tak, że jest ta transmisja przerywana, że trzeba wciskać jeszcze raz play.
No i wydaje mi się, że już teraz powinno być wszystko w porządku.
Pogrzebałem trochę w konfiguracji naszego serwera, pozmieniałem ustawienia
i już teraz ten problem nie powinien występować.
No to teraz już faktycznie przechodzimy do nowych rzeczy i zaczynamy od…
Ojej, gdzieś mi tu się wszystko pogubiło.
Microsoft Adaptive Kit Tomku, to mój news.
Tak, rzeczywiście. No to jakie masz te doświadczenia?
Nie wiem, Ty albo ktoś?
Tak, ja.
Więc Microsoft Adaptive Kit to jest taki zestaw nalepek, naklejek, wybrzuszeń,
oznaczeń dotykowych, guzików, pingli, jak to chcę nazywać,
do różnych komponentów komputera, domyślnie Surface,
ale nikt nam nie zabroni tego użyć do czegokolwiek innego.
I to już wyszło jakiś czas temu, ja też nie wiedziałem jaka jest tego dostępność.
Po pierwsze okazuje się, że to się da kupić w Polsce za 57 zł.
Na przykład firma Polosoft to sprzedaje, link będzie podany w komentarzu pod audycją.
No i czemu mnie temat zainteresował?
A no bo moja koleżanka z pracy była ostatnio na pewnej konferencji,
gdzie pojawił się przedstawiciel Microsoftu i takie zestawy rozdawał.
No więc ona pomyślawszy o mnie, wzięła dwa takie zestawy ze sobą
i jeden mi sprezentowała, w związku z czym mogę go aktualnie
przed sobą otworzyć, jest to takie kwadratowe pudełeczko
z odchylaną pokrywką, podzielone na, znaczy ono nie jest podzielone,
ale ma jakby różne piętra i na tych piętrach są różne,
teraz tu odchylam taką wewnętrzną klapkę i są tutaj różne rzeczy.
I wyciągam pierwszy kartonik z góry i na pierwszym kartoniku z góry
mamy taki gumowy element wyglądający troszkę jak te nowoczesne otwieracze do piwa,
czyli takie dość duże uszko, w które można włożyć spokojnie dwa palce
i taki półokrągły gumowy element poniżej.
Do czego to może służyć, jak myślicie?
No nie do otwierania piwa, to na pewno.
Widzę, że las rąk, no to okej.
On służy do tego, żeby osoby, które mają problemy z motoryką,
mogły ten element zahaczyć sobie przy otwarciu laptopa przy ekranie,
przymocować go, a następnie pociągając, wkładając palce w tę dziurkę powiedzmy,
w ten otwór w tym gumowym przedmiocie, łatwiej pociągnąć sobie ten ekran do góry
i kontrolować jego odchylenie.
Czyli poniekąd to jest otwierasz, tylko nie do piwa.
Dokładnie. Tutaj też widzę, że jest jakiś rodzaj klucza,
klucz też do podważania jakichś elementów.
To jest pierwszy kartonik.
Drugi kartonik to, to się chyba nazywa kick-up bumps, albo ogólnie bumps
i to jest kartonik, na którym ponaklejane są takie malutkie,
chyba też gumowe albo gumowo-plastikowe elemenciki
i po stronie lewej, z góry na dół mam rządek
takich kuleczek, jakby ktoś kulkę z plasteliny ulepił,
takie kulkowate, gumowate coś.
Potem następnie mam rząd kółeczek, czyli też takie pierścionki,
potem kreseczek i na koniec gwiazdeczek.
Mogę sobie jak rozumiem te kształciki poodrywać od tego kartonika
i poprzyklejać na przykład na klawisze.
Po co miałbym to robić?
Powodów może być kilka.
Przykładowo mamy jakiegoś laptopa, dopiero jest to laptop nowy
albo laptop, którego rzadko używamy, na przykład tylko do pracy
albo tylko do pracy czasem.
Ja mam taką sytuację teraz, że dla jednego z naszych klientów
ma takie wymaganie, że musimy korzystać z ich laptopów
i to jest laptop, z którego będę korzystał tylko do wykonywania zadań
dla tego konkretnego klienta, więc nie jest to cały czas.
Więc też nie mam takiej wprawy w używaniu, w rozmieszczeniu klawiszy,
w tym co, gdzie jest i tak dalej, więc mogę sobie chcieć ponaklejać
takie oznaczenia na przeróżne przyciski, które są dla mnie kluczowe,
czyli na przykład insert, czyli na przykład Home, End, Page Up, Page Down
i tak dalej.
Mogę na przykład, jeżeli miałbym taki dziwny układ,
tak jak teraz mam w tym laptopie, z którego mówię,
że najbardziej jakby przycisk z samej lewej na dole,
po lewej stronie spacji to jest Fn, a dopiero potem drugi to jest Control,
to jest coś, do czego się nie mogę nadal przyzwyczaić,
mimo że tego laptopa już używam pół roku.
No a mogę na przykład chcieć, nawet w komputerze,
którego używam regularnie, pooznaczać sobie klawisze F,
bo na przykład mają nieregularne odstępy, są ze sobą zlepione
i ciężko na przykład, nie zawsze da się tak po cztery,
że F4, F8, F12, no tylko to jest wszystko zlepione jedno z drugim,
co nie ma na szybko znaleźć w takim gąszczu Alt F4 albo tam Insert F8,
no to jest nierada wyzwanie, no ale też możemy chcieć oznaczyć sobie
te przyciski, żeby się w głowie sobie umówić na jakieś oznaczenie,
który F robi co i na przykład mogę zrobić sobie minusik i gwiazdeczkę
jako minus i plus do głośności, więc zastosowań jest dużo,
zresztą na stronie Microsoftu jest troszeczkę takich przykładów tego,
do czego można by użyć tego Surface Adaptive Kit,
więc zachęcam do zapoznania się z tym, wyciągam ten kartonik
i dalej mam kolejny kartonik, to są już walkikapy, to jest,
nie, źle, źle, źle, źle, to jest oznaczenie do portów
i tutaj mam znowu takie rządki kształtów podzielone na dwa elementy,
element krótszy i element dłuższy, na przykład mam taki perforowany pasek,
jeżeli pamiętacie, nie wiem, czy to tylko uczniowie Tynieckiej,
ale mapę, starą mapę Polski i jak było zaznaczone Morze Bałtyckie,
taką dużą perforacją kropek, taki las kropek, że morze, że niby woda, fale,
to coś takiego i jest długa linia, idzie sobie od lewa do prawa
i nagle się urywa i jest z tego samego materiału taki prostokącik,
poniżej są takie jakby elipsy i to jest też elipsy, elipsy, elipsy, elipsy,
długi taki ich rządek, przerwa i krótki rządeczek.
Kółka, kółka, kółka, kółka i kółeczko jedno chyba na koniec.
Takie dwie podłużne kreski, takie wielkie jajo, przerwa i malutkie jajeczko
i na dole jeszcze taki ciężki do opisania pofalowany kształt,
jakby dwa złączone trójkąty, coś takiego.
No i taka sama seria tychże, tylko w wersji skróconej.
Do czego to jest? Do opisywania portów i kabli.
To działa tak, że przykładowo istnieją porty,
które są do siebie na dotyk bardzo podobne.
Ja mam duży problem z odróżnieniem w moim prywatnym laptopie,
jak sobie nie przypomnę co gdzie jest, USB od HDMI.
Pewnie można je jakoś na szerokość ocenić,
mi się wydają one bardzo podobne do siebie,
USB-A i HDMI, bo USB-C wiadomo jest dużo, dużo mniejsze.
Albo USB i FireWire, no różne bywają sytuacje.
Jeszcze bardziej drastyczny przykład w wielu komputerach
i ja już tutaj widzę zastosowanie.
Jest tak, że jeśli mamy nawet kilka portów USB-A koło siebie,
to na przykład dwa porty to są USB-3, a jeden to jest USB-2.
Na przykład wolniejszy.
I to są kolorowo, tylko odróżniają się od siebie.
No więc można wtedy takie naklejki, one są troszkę duże,
ale te krótkie może by się nadały.
Nie wiem jak wygląda Surface, szczerze mówiąc.
Znaczy widziałem kiedyś w sklepie, ale już teraz sobie nie przypomnę,
czy to długościowo by się zgadzało.
Trochę jak MacBook chyba, wiesz, taki podobny kształt.
Ale chyba zamysł jest taki, przynajmniej tak mi to koleżanka tłumaczyła,
że na tym skrawku obudowy, na samym brzeszku obudowy,
wyższe przed klawiaturą, od tej strony gdzie występuje dany port,
naklejamy tą krótszą część, a dłuższą możemy sobie nakleić na kabel.
I w tym momencie, jeżeli mamy jakąś bardzo skomplikowaną,
nie wiem, mamy różne kable, których nie odróżniamy,
bo mają jakieś inne, bardzo podobne do siebie końcówki,
albo są wszystkie USB-C, albo coś tam jeszcze,
to możemy sobie pooznaczać kabel i odpowiadający jemu oznaczenie
przykleić przy danym porcie i wtedy mamy pooznaczone,
który kabel należy do którego portu włożyć.
No więc takie mamy jeszcze coś.
No i na samym dnie mam keycapy.
I keycapy to już są takie trochę większe oznaczenia,
to jest taka blaszka, oj, nie chcę tego odkleić, nie będę tego ruszał.
Wielkości klawiszy, to już są rzeczywiście wielkości klawiszy oznaczenia
i tu są różne już kształciki, jakieś półksiężyce, ukośne kreski,
pionowe kreski, poziome kreski, pionowa kreska, ale mniejsza,
z lewej, z prawej, pozioma mniejsza.
No i chyba tyle, dobrze naliczyłem.
A i kółeczko też jest, kółeczko jest jak najbardziej.
No i tutaj również możemy sobie to ponaklejać na różne klawisze
i coś w ten sposób sobie pooznaczać.
Z tego co koleżanka mówiła, ten pracownik Microsoftu mówił,
że to można nawet niekoniecznie na laptopa używać.
I tutaj u mnie taki teraz przykład, bo przeprowadziłem się
i mam w nowym mieszkaniu też pralkę.
I pralka nie jest szczytem dostępności, bo posiada do kilku funkcji,
które na szczęście nie muszę za często jakoś zmieniać
w jakiś potężny sposób.
Ekran dotykowy.
Zasadniczo wystarczy mi, że w odpowiednim miejscu na ekranie
tam dotknę pola, uaktywni się opcja i to w sumie mnie już powinno
zadowalać, bo to jest pralka ususzarka, tam chodzi o suszenie.
I wystarczy mi to oznaczyć jakimiś znacznikami.
Właśnie mam ponaklejane takie wybrzuszone kuleczki
i wiem, że w lewo od tej kuleczki jak od razu dotknę,
to aktywuje tą opcję.
Przy zakłożeniu, że włączyłem pralkę od nowości, czytam ją,
wzbudziłem po długim czasie nieaktywności, po tym jak się sama
wyłączyła po skończonym praniu, to zasadniczo nie muszę nic klikać,
bo mi się raczej ustawienia zapamiętają.
Jeżeli wyłączyłem ją ręcznie i włączyłem, to mi się zresetowało
suszenie, więc jak dotknę pola po lewej stronie wybrzuszenia,
to włączy mi się suszenie i mogę sobie spokojnie startować pranie
z suszeniem. No ale można w ten sposób tak naprawdę wszystko
oznaczać, co tylko nam się podoba, czy to będzie pralka,
czy to będzie jakaś mikrofalówka, żeby sobie pooznaczać po prostu
krok na przykład tego pokrętła, że na godzinie trzeciej wybrzuszenie
oznacza tam ileś minut albo ileś stopni.
Przeróżne rzeczy można z tym zrobić, po prostu jest to taki zestaw
przylepnych, różnych kształcików, które pomagają nam
odróżnić jedną podobnie wyglądającą rzecz od drugiej.
No i właśnie dobra wiadomość jest taka, jak mówiłem na początku,
że w Polsce ten zestaw jest jak najbardziej też do nabycia
i to właśnie za nawet nie jakieś tragiczne pieniądze.
Także jak szukacie prezentu dla kogoś niewidomego,
albo sami chcecie sobie coś sprawić na prezent,
albo szukacie czegoś praktycznego, no to jak najbardziej
Microsoft Adaptive Kit się poleca.
Tym bardziej, że nie jest to jakieś specjalnie drogie,
więc naprawdę no fajnie, że Microsoft o czymś takim pomyślał,
a zastosowań tego może być naprawdę całkiem sporo.
W międzyczasie Tomek na moment odszedł od naszego sprzętu nadawczego,
ale akurat tak się składa, że teraz jest mój temat,
mianowicie dostępność Webexa.
Webex to jest taki program do telekonferencji,
który jest produkowany przez Cisco.
Firma Cisco, znany amerykański producent sprzętu sieciowego.
Oni mają także swoje inne odnogi, też gdzieś tam w telekomunikacji działają,
bo przecież chociażby telefony Cisco, VoIP-owe zwłaszcza,
w różnych instytucjach, no i właśnie oprogramowanie Webex,
oprogramowanie do telekonferencji.
Miałem okazję się trochę nim bawić i myślę, że warto kilka słów
na jego temat powiedzieć.
Nie sądzę, żebyście mieli jakąś wybitną potrzebę korzystania z Webexa,
ale czasem zdarza się tak, że w waszej pracy może być sytuacja taka,
że z tego Webexa po prostu się korzysta, albo jest taki zamiar
i możeście się zastanawiali, czy ten Webex jest dostępny,
czy da się go obsłużyć.
Powiem tak, ale i tu z pewnymi zastrzeżeniami.
Ja bawiłem się aplikacją na Windowsa i iOSa,
też akurat z Piotrem Witkiem to testowaliśmy,
więc on się trochę pobawił na Macu tym Webexem.
No i co do zasady, jeżeli chodzi o podstawowe możliwości tego programu,
to są dostępne.
Jesteśmy w stanie wejść do pokoju, jesteśmy w stanie z tego pokoju korzystać.
Ja powiem tak, obecny CEO Zooma kiedyś pracował w Cisco przy rozwijaniu Webexa
i moim zdaniem to widać, bo te aplikacje są dość podobne do siebie.
Tam konwencje są dość podobne, więc jeżeli korzystacie z Zooma,
to jak odpalicie sobie Webexa, to takie będziecie mieli wrażenie,
że to taki trochę gorszy Zoom.
Bo rzeczywiście, być może to dlatego, że akurat od Zooma zacząłem swoją jakąś tam przygodę
z tym oprogramowaniem do telekonferencji.
To jakoś tego Zooma polubiłem i z nim jest mi po drodze.
Webex ma swoje problemy.
Podstawowym problemem na przykład na Windowsie, przynajmniej w chwili,
kiedy ja to testowałem i w chwili, kiedy mówię do was te słowa,
jest to, że z jakiegoś powodu wywraca się totalnie, kiedy chcemy skonfigurować jego ustawienia.
Konkretnie, jeżeli chcemy w drzewku opcji przejść do jakiejś innej gałęzi,
czyli na przykład chcemy rozwinąć ustawienia audio
i tam jest wyraźny komunikat, naciśnij spację lub Enter, żeby zaznaczyć.
Naciskam spację, program się po prostu zamyka.
Naciskam Enter, dzieje się to samo.
Tu mówię o tej wersji dla Windowsa.
Czy da się coś z tym zrobić?
Da się, natomiast trzeba użyć nawigacji obiektowej i klikać myszką w NVDA.
Wtedy jest to do zrobienia.
W ogóle, jeżeli chodzi o dostępność Webexa, to oni na stronie internetowej,
przy okazji dostępności dla niewidomych, napisali, że Webex jest kompatybilny z JAWS-em.
I tyle.
I w zasadzie na tym się informacja skończyła.
Tam jest jeszcze ten voluntary accessibility template,
ten dokument opisujący konkretnie, co tam jest możliwe do zrobienia w kliencie Webexa.
Zalecają korzystanie właśnie przede wszystkim z tego oprogramowania klienckiego,
nie ze strony internetowej, bo Webex podobnie jak Zoom ma zresztą swoją webową aplikację
również, ale tam ponoć ta dostępność została zaimplementowana gorzej
i są z nią większe problemy, więc zdecydowanie lepiej jest używać aplikacji.
No i tak, na Windowsie z klawiatury jesteśmy w stanie poruszać się po elementach tego programu.
Odczytuje nam wszelkiego rodzaju informacje.
Czasem gdzieś tam się potrafi zawiesić w trakcie odczytywania tych informacji
z czytaniem czata na przykład na Macu jest gorzej.
Na Windowsie, kiedy jesteśmy w okienku Webexa, okienku spotkania Webexa,
to czat jest odczytywany na Macu, problem jest z tym.
Oczywiście, i to zresztą też twórcy o tym uczciwie informują,
udostępniana treść jakakolwiek nie jest dostępna.
Nie działa nawet udostępnianie plików, więc jeżeli udostępnimy prezentację,
to można po prostu wczytać jakiś plik prezentacji multimedialnej
i udostępnić go w ten sposób, no to również to nie jest dostępne dla nas.
Nie jesteśmy w stanie zapoznać się z taką treścią.
No takie rzeczy to tylko w Teamsie Zoom zresztą też tego nie potrafi.
Webex ma oczywiście swoje ustawienia dźwięku.
Dla tych, którzy chcieliby właśnie skorzystać z tego tak zwanego dźwięku oryginalnego,
tam jest to chyba opisane jako dźwięk dla muzyków.
No i czy transmisja muzyki jakoś podobnie to jest opisane.
Natomiast też ma jakiś taki tryb, który ponoć jest napędzany przez sztuczną inteligencję
i dzięki temu trybowi nasz głos jest odtrzymany tak specyficznie dla naszych warunków mowy.
Jakoś tam rzeczywiście minimalnie się to różni, różnią się te tryby.
Jeżeli już faktycznie musimy z tego korzystać, no to okej, można sobie to włączyć.
Zresztą w Zoomie, to taka ciekawostka, od pewnego czasu też jest taka opcja,
możemy sobie włączyć taki nasz sprofilowany, wygenerowany przez sztuczną inteligencję
model odszumiający nasz głos.
Jest to do zrobienia, jeżeli ktoś chce, to może sobie to włączyć i popróbować.
To już od kilku wersji jest dostępne.
Więc podstawowe rzeczy w Webexie da się robić, da się z tej aplikacji korzystać.
Natomiast co do jakichś takich bardziej zaawansowanych możliwości,
to przyznam szczerze, nie testowałem.
Aplikacja przynajmniej na iOS-a też wydaje się całkiem dostępna.
Jesteśmy w stanie bez problemu za pomocą voice-overa nawigować po elementach tej aplikacji.
Jesteśmy w stanie wejść sobie na spotkanie, skorzystać z tego.
Więc tutaj też, jeżeli będziecie mieli potrzebę skorzystania właśnie z Webexa
w aplikacji mobilnej, nie powinno być problemów.
Ale to zawsze warto wiedzieć, że kolejna aplikacja z tych takich konferencyjnych,
dużych rozwiązań, które gdzieś tam w korporacjach różnego rodzaju możemy spotkać,
jest dla nas dostępna. Może nie jakoś bardzo super przyjaźnie,
ale da się większość rzeczy bez problemu zrobić.
To teraz kolejny news od Pawła tym razem, bo okulary, które mogą się przydać niewidomym.
Cóż to takiego?
Tak, no Ray-Ban Meta, czyli okulary, które jak sama nazwa wskazuje,
powstały przy współpracy firmy Ray-Ban, to od tych stylowych okularów i Meta,
czyli tych od Facebooka.
Ja szczerze mówiąc nie zwracałem na ten produkt uwagi, choćby dlatego,
że mi się w ogóle jakoś wydawało, że to są okulary do rozszerzonej rzeczywistości.
Pomyliłem to z Oculusem, może one też jakieś takie funkcje mają, ale chyba nie.
A przynajmniej nie jest to chyba najważniejsze w tych okularach,
bo one zasadniczo służą do nagrywania filmów i robienia zdjęć,
które możemy potem publikować, czy to na Facebooku, czy na Instagramie.
Nawet możemy chyba jakieś transmisje na żywo z nich prowadzić.
No i myślałem, że to jest taki właśnie gadżet, że to jak ktoś widzi,
to bardzo przydatne może i dużo, dużo w social mediach działa.
Natomiast ostatnio, ku mojemu zdziwieniu, ukazała się prezentacja tych okularów
na łamach podcastu AppleVis.
I też było kilka wątków o tych okularach,
była recenzja akcesorium w odpowiednim dziale też na tym portalu.
No i postanowiłem posłuchać, czemu te okulary wzbudziły takie zainteresowanie
wśród użytkowników właśnie AppleVis.
No i okazuje się, że okulary są sterowane za pomocą aplikacji,
która jak najbardziej jest dostępna i można w niej wywoływać
różne funkcje tych okularów.
Okulary jak okulary, zakładamy sobie je na czoło
i mają one oczywiście jakąś tam kamerkę, mają dźwięk dookoła uszny,
czyli jak rozumiem, to jest ta nowa metoda, z której korzystają
te nowsze Aftershoksy, na przykład Open Run, jeżeli dobrze pamiętam,
czyli taka następstwo tego dźwięku przewodzenia kostnego.
No i tam jest panel do gestów, przy czym gesty nie są jakieś
bardzo skomplikowane, bo tam jest tylko stuknięcie, podwójne stuknięcie
i przytrzymanie, więc taki dość ograniczony wybór tych gestów.
No i jest przycisk i w aplikacji można spersonalizować,
co ten przycisk i te gesty robią.
No i co te okulary mogą robić?
No oczywiście mogą kręcić filmy, robić zdjęcia,
robić transmisję na żywo.
Chyba w ogóle to wszystko wymaga spięcia z telefonem,
że internet jest czerpany z telefonu, jeżeli dobrze zrozumiałem prezentację.
Ma to swojego asystenta głosowego, który działa w języku angielskim,
ponoć w francuskim i hiszpańskim, nie, francuskim i włoskim,
ale ja widzę teraz, że te okulary na przykład są oficjalnie dostępne
w sprzedaży na stronie niemieckiego Raybana, więc być może niemiecki też jest.
To by była jakaś dla mnie znowu, byłby dla mnie jakiś argument,
żeby może nad tymi okularami się jakoś tam pochylić w sposób szczególny.
No i tego asystenta możemy prosić o różne rzeczy, możemy pytać o pogodę,
możemy uruchamiać muzykę za pomocą Spotify, możemy wykonywać
i to jest właśnie funkcja, która mnie jakoś bardzo tutaj zaciekawiła.
Aha, no możemy też podcasty wywoływać, nie wiem, czy radio też jest,
czy jakiś tuning, czy coś tam zostało zintegrowane.
Możemy dzwonić, no i to, i pisać smsy nawet.
I to możemy dzwonić za pomocą naszego tradycyjnego telefonu,
możemy poprosić okulary, by nawiązały kontakt, no połączenie z wybranym kontaktem.
Możemy nawet bezpośrednio z okularów dzwonić na Messengera i Whatsappa.
No i to jest właśnie ta funkcja, która wzbudziła moje zainteresowanie,
no bo gdyby to rzeczywiście tak działało i to chyba tak działa,
no bo w końcu meta to meta, że my możemy z tych okularów
transmitować obraz w czasie rozmów wideo na Messengerze lub Whatsappie,
no to z tego już prosta droga do pokazywania obrazu z perspektywy okularów naszym znajomym.
No i to byłoby już, no nie lada gratka, bo my taką funkcję mieliśmy
na okularach Envision Glasses i też ją demonstrowałem.
Natomiast tam wymagana była specjalna aplikacja,
którą nasi znajomi czy rodzina musieli sobie zainstalować.
I jakby nie mam, te okulary są jednak tańsze od Envision Glasses.
Definitywnie, jak najbardziej.
Tutaj w Austrii kosztują one jakieś 320 euro.
Ja teraz nie wiem, czy są różne modele i teraz wyszedł jakiś nowy, a były jakieś starsze.
Może tak było, ale tu gdzieś te ceny się wahają między 320 a 400 euro.
No to może też nie najtańsze, bo tam pewnie z 1600-1800 zł.
1300 widziałem na Allegro jakieś używane.
Ale to już można generalnie…
Tak.
To już jest w zasięgu jakby, no pozbierasz i kupisz za tam jakiś czas.
Dokładnie. Pytanie, czy chcesz wydać tyle pieniędzy za to, co ten sprzęt potrafi,
bo to jest zawsze rzecz do rozważenia.
Natomiast jest to na pewno bardziej ekonomicznie odpowiednie rozwiązanie
niż Envision Glasses.
Zwłaszcza, że Meta eksperymentuje aktualnie z jakimś AI, Meta AI.
Czyli kolejnym jakimś modelem językowym i w demonstracji na Apple Viz,
która oczywiście będzie podlinkowana w komentarzu.
Tam się już pojawiły jakieś opisywanie scen i rzeczywiście autor podcastu zadał jakieś pytanie.
Scena została jakoś tam opisana.
Można było skupić się na tekście.
Tekst został przeczytany i jeszcze przetłumaczony z hiszpańskiego chyba,
czy na angielski, czy w drugą stronę.
I takie typowe rzeczy, które teraz robią te LLM-y, opisujące obraz, tam jak najbardziej były.
Kto wie, może to by była jakaś przyszłość.
Zwłaszcza, że Envision idzie chyba w taką też stronę, żeby tą ich platformę,
te ich rozwiązania można było instalować na urządzeniach zewnętrznych
i Ray-Ban, Meta były jak najbardziej wymienione.
Chociaż ja nie wiem, nie wynika to nijak z demonstracji,
czy tam można aktualnie jakieś aplikacje zewnętrzne,
czy też usługi zewnętrznych dostawców instalować.
Więc nie wiem, jakie nadzieje tutaj wobec tego produktu mają twórcy Envision.
No ale myślę, że jest to produkt, na który warto zwrócić uwagę w tym roku
i jego rozwojowi się przyglądać.
To teraz przechodzimy do linijek brailowskich,
bo pojawił się BrailleBan24 odświeżony.
I to w zestawie.
Tak, dokładnie.
Jak widać temat nowych monitorów brailowskich też ostatnio gorący,
bo mówiliśmy o tym, co przygotowały firmy zagraniczne,
bo zaczęło się od Orbita, potem poszliśmy do Korei,
bo tam jest firma HIMS, która też zaprezentowała nowy monitor.
No a teraz okazuje się, że nasi rodzimi producenci też coś dla nas przygotowali,
a mianowicie właśnie nową wersję monitora BraillePen,
który wcześniej był dostępny w wersji 12 chyba,
albo 14 znakowej, albo 12, zawsze z tego co pamiętam to tak było.
No a teraz okazuje się, że pojawiła się jego nowa 24 znakowa wersja,
która kosztuje około 13 tysięcy złotych,
natomiast tak jak to było w chatach napisane,
to nie jest do końca cena samego urządzenia.
Natomiast myślę, że po prostu przeczytamy sobie opis producenta.
Tutaj mamy opisane o co tutaj chodzi.
BraillePen24 to kieszonkowa wersja najnowszego modelu notatnika braillowskiego firmy Harpo.
To wyjątkowo płaski i lekki notatnik w odpornej aluminiowej obudowie.
Urządzenie zawiera 24 znakowy wyświetlacz braillowski
umieszczony pod ośmiopunktową klawiaturą braillowską.
BraillePen24 został wyposażony w podwójną wspację z dodatkowymi funkcjami
i całość konstrukcji jest oparta o bezprzewodową łączność bluetooth,
co pozwala na połączenie z pięcioma urządzeniami.
Urządzenie posiada również port USB-C, który umożliwia dołączenie kolejnego urządzenia.
Cena BraillePen24 obejmuje również smartfon iPhone 15.
To jest, myślę, ciekawy zabieg, który pozwoli nam gdzieś od razu sobie kupić nowy telefon.
iPhone 15 chyba koło 4 tysięcy kosztuje, z tego co pamiętam.
Co jest o tyle ciekawe, że wydaje mi się, jeśli staramy się na przykład w aktywnym samorządzie,
to ten cały zestaw liczy się jako sprzęt braillowski.
Więc to by nam pozwoliło bardziej efektywnie nawet to dofinansowanie wykorzystać,
więc to może być na pewno coś, co przemawia nad tym urządzeniem.
BraillePeny też mają takie ciekawe rozwiązania, jeśli chodzi o ich działanie.
Na przykład jak działa ten Cursor Routing, który na innych urządzeniach jest rozwiązany
poprzez dodanie przycisków nad komórkami, a w tym starszym nowym BraillePenie, że tak powiem,
to zostało zamienione na takie komórki dotykowe.
I tutaj zresztą jest podobnie, bo ja teraz odczytałem opis,
ale jeszcze tutaj mamy sekcje z zaletami i specyfikacje,
jeśli chodzi o to, co tutaj firma Harpo wymienia jako zalety.
Nawigacja klawiszami kciukowymi oraz joystickiem, czyli to są takie duże klawisze,
które są z przodu urządzenia, jeśli ktoś też widział monitory Humanware,
to oni też akurat takie duże klawisze, które nam łatwo pozwalają przewijać lub ją stosować.
Wygodna pewna klawiatura.
Wbudowana inteligencja pozwala na pracę w każdym miejscu.
Nie wiem dokładnie o co chodzi, przepuszczam, że tutaj jakieś budowane aplikacje pewnie są,
zresztą też urządzenie ma wejście na kartę microSD, pewnie zaraz do tego przejdziemy w specyfikacji.
Natomiast pewnie tutaj też jakiś notatnik jest i bardzo możliwe, że da się też te dane
między pamięcią tego BraillePena a iPhone’em przesyłać,
no bo wiem, że do tego w tej poprzedniej wersji też była aplikacja dedykowana,
więc możemy sobie gdzieś te notatki kopiować na przykład na telefon
i później coś z nimi zrobić, wysłać je komuś i tak dalej.
Połączenie z iOS, Android, Mac i Windows.
I funkcja budzenia iOS, czyli mamy telefon uśpiony,
ale połączony z tym BraillePenem możemy coś na tym BraillePenie nacisnąć
i nam się iPhone obudzi.
To się nam też może przydać, no wiadomo, jak mamy gdzieś telefon schowany,
nie mamy do niego dostępu, no to możemy sobie go w ten sposób obudzić.
No i teraz specyfikacja ergonomiczna, klawiatura,
podwójna spacja z dodatkowymi funkcjami,
czyli tutaj pewnie te dwie spacje można osobno wykorzystać do różnych akordów.
No właśnie, zestaw czujników do przebijania i odświeżania wyświetlacza,
czyli tutaj możemy sobie przywoływać kursor poprzez odpowiednie przedstawanie palcem
po tych komórkach.
Może nawet też urządzenie nam automatycznie tą linijkę jest w stanie przewinąć,
co w sumie byłoby całkiem fajnym rozwiązaniem,
które np. znamy z monitorów film HelpTech niemieckiej,
które są dużo droższe od BraillePenów.
Połączenie przez Bluetooth Classic oraz Bluetooth Low Energy,
czyli to jest taki nowszy standard Bluetooth, który mniej energii zużywa.
Połączenie i ładowanie poprzez USB-C.
Gniezdo karty microSD pozwala użyć dowolnie dużo pamięci.
Myślę, że na tatki to na pewno dużo notatek na jakiejkolwiek karcie microSD zmieścimy.
No właśnie, 24 wysokiej jakości komórki braille’owskie
z unikalnymi czujnikami kursora dotykowego,
czyli to jest to, co mówiłem wcześniej,
że możemy sobie poprzez dotyk, poprzez przesunięcie palcem po tych komórkach
przywołać kursor zamiast po prostu przycisków, które są nad komórkami.
No właśnie, pozwala podłączyć do pięciu urządzeń jednocześnie na Bluetooth
no i plus jeszcze jedno na USB.
Czas pracy od 15 do 20 godzin, więc całkiem przyzwoicie.
I wymiary 154x97x14 mm,
czyli takie bardzo faktycznie zgrabne i cienkie urządzenie.
I waga ultralegki, jak tutaj producent napisał, 230 gramów.
No tak, że kolejna dziś propozycja, jeśli ktoś szuka sobie linijki,
a może przy okazji chce sobie telefon wymienić na nowszy,
no to myślę, że to jest dziś kolejna propozycja, którą na pewno warto rozważyć.
I ostatni news przed naszymi już cotygodniowymi pakietami,
większymi newsów, dotyczy generatorów stron statycznych,
no i czytników ekranu, bo okazuje się, że da się.
Tylko może jeszcze wytłumacz, bo nie wszyscy mogą wiedzieć,
czym są generatory stron statycznych.
No więc, jak chcemy sobie stworzyć stronę internetową,
no to mamy do wyboru różne opcje.
Możemy sobie oczywiście starą, dobrym sposobem pisać w HTML-u ręcznie,
w notatniku nawet stronę, czego już nikt de facto nie robi,
chyba że dla jakichś testów konkretnego kodu,
bo tam ani stylów nie można określić specjalnie,
znaczy coś tym CSS-em by można, ale wiadomo,
są o wiele lepsze i bardziej efektywne dla tego narzędzia.
Są silniki CMS, które pozwalają nam to wszystko wyklikać sobie
praktycznie z jakiegoś kreatora.
Są jakieś narzędzia bardziej graficzne, takie już designerskie,
no przeróżne rzeczy, no i też strony się dzielą na różne,
dynamiczne, takie z którymi się spotykamy najczęściej,
czyli są tam elementy interaktywne, jakieś formularze,
możemy donieścić komentarz, możemy za coś zapłacić,
możemy, no nie wiem, coś dodać, jakąś swoją treść,
księga gości, cokolwiek.
Czyli tak de facto ta strona internetowa budowana jest w czasie
rzeczywistym, z pewnych elementów, no tu zazwyczaj,
bo oczywiście nie jedynym językiem to jest PHP,
który jest odpowiedzialny za większość tych stron dynamicznych.
Tak, i ta strona jest ładowana z bazy, czyli jest obowiązkowa
obecność jakiejś bazy danych, jakiegoś MySQLa, MongoDB,
MariaDB, no czegokolwiek, z czego ta strona będzie ładowana,
czy tam konkretne jej elementy będą wczytywane.
No też można, teoretycznie bazą może być plik tekstowy,
ale jakaś ta struktura danych, no musi być obecna.
Tak, a są też strony statyczne, czyli takie, które oprócz
samych siebie to nie wymagają nic, czyli może być sobie po prostu
baza w jakimś tam HTML-u, jakoś to CSS-em jest posypane,
żeby to jakoś wyglądało, no i zasadniczo tyle.
Tekst, linki, jakieś tam zdjęcia, obrazki, jakieś style,
ale żadnych elementów interaktywnych, nic do tej strony,
czytelnik nie może dodać, ani z niej wyjąć specjalnie,
no może jakiś plik pobrać.
I takie, do czego takie statyczne strony mogą być użyteczne?
Do jakichś prostych blogów, jeżeli od bloga nie wymagamy cudów,
typu żebym miał jakieś komentarze, ankiety, jakieś tam opcje dyskusji,
rozbudowane fora, coś tam, to wystarczy nam spokojnie taka statyczna strona
do naszych takich zapisków, do prowadzenia takiej prostej strony,
gdzie coś tam napiszemy o sobie, o swoich jakichś przeżyciach,
zainteresowaniach, o jakimś projekcie i tak dalej.
No i Robert Kindżet, jeden z niewidomych użytkowników właśnie tego typu narzędzi,
który dość dużo bloguje, pisze jakichś swoich też takich literatury, jest pisarzem,
postanowił zrobić taki mini instruktaż, oczywiście w języku angielskim,
jak osoba niewidoma do takich generatorów stron statycznych,
czyli do takich systemów, które no zasadniczo wiele za nas zrobią,
żeby te strony wyglądały i po prostu były stronami opublikowanymi gdzieś w internecie,
może się zabrać.
Bazuje to na dwóch generatorach, Hugo i Zola,
no i postępując według tego poradnika, możemy sobie na przykładowo na GitHubie,
bo GitHub oprócz tego, że pozwala nam na wrzucanie tam kodukt źródłowego
jakiegoś naszego programu, czy czegoś nad czym pracujemy,
pozwala nam też na tworzenie takich prostych właśnie stron internetowych statycznych
w domenie github.io.
No i dzięki temu poradnikowi przekonamy się jak za pomocą wiersza poleceń,
Markdowna, Czokleti, Wingetta, zainstalowania odpowiednich pakietów,
możemy sobie na naszym komputerze redagować tego typu strony,
wpływać na ich motywy, jakie pliki tam wyedytować i tak dalej
i jak następnie taką stronę napisaną na naszym komputerze opublikować w internecie.
Na GitHubie lub innym właśnie systemie wersjonowania,
systemie repozytoriów typu git.
Polecam przeczytać, to wymaga troszkę wiedzy technicznej i czasu i cierpliwości,
ale wydaje mi się, że jeżeli ktoś chociaż troszeczkę się gdzieś tam bawi
jakimiś takimi zagadnieniami, że coś tam robił wierszem poleceń,
że coś tam w Markdownie sobie dziubał, a my o tym robimy dość regularnie podcasty,
no to kto wie, może to będzie dla was jakiś sposób,
żeby zacząć prowadzić swojego bloga, jakiś mini pamiętnik,
jakąś inną prostą stronę internetową, no a z tego to już może jeszcze jeden krok
i będą powstawały też jej strony dynamiczne, chociaż proces się trochę różni.
Więc ja polecam się z tym tutkiem zapoznać, no a nóż właśnie dzięki temu
powstanie wasz jakiś nowy projekt.
Zresztą taka ciekawostka, przynajmniej z tego naszego kręgu znanego,
to chociażby dwie strony wykorzystują też generatory statyczne,
na przykład Informaton Jacka Zadrożnego jest na Jekyllu,
i to też jest taki generator statyczny, ale też NVIDIA Remote,
strona tego projektu jest z kolei oparta o Nikolę, to jeszcze taki inny generator.
Tego jest naprawdę dużo i tak naprawdę większość z tych generatorów działa
na podobnej zasadzie, po prostu wykonujemy kilka konkretnych poleceń
w danym skrypcie, wierszu poleceń, tworzy nam się odpowiednia struktura,
którą później musimy umieścić na serwerze, no i to jest w zasadzie tyle,
generują nam się konkretne pliki HTML, pliki CSS, które odpowiadają
za wygląd tej naszej strony, a my po prostu piszemy sobie,
no właśnie tak jak Pawle powiedziałaś, zazwyczaj w Markdownie,
z jednej strony jest to proste, pozwala na utrzymywanie tej naszej strony
w dosyć fajny sposób, natomiast no wiadomo, oczywiście pozbawiamy się,
albo też znacznie utrudniamy sobie jakieś takie naprawdę
bardziej dynamiczne elementy, bo te niektóre generatory statyczne
z tego co wiem pozwalają nawet na jakieś, na chociażby wyszukiwarkę,
gdzieś coś widziałem nawet, że jakieś sekcje komentarzy,
ale no to już są takie nieco bardziej zaawansowane rzeczy,
natomiast jeżeli ktoś po prostu potrzebuje prostej strony internetowej,
która będzie działała lekko, to takie generatory statyczne
mogą być naprawdę fajne. Jeżeli ktoś by się zastanawiał,
dlaczego nie WordPress na przykład, to ja mogę powiedzieć tyle,
że nawet i prosty skrypt taki WordPressa, obudowany kilkoma wtyczkami,
to potrafi generować naprawdę całkiem sporo zasobów,
a w momencie kiedy jakaś wtyczka się zaktualizuje,
albo jakaś się nie zaktualizuje, albo zaktualizujemy WordPressa,
no to mogą się zacząć pojawiać takie problemy, rozwiązanie których
może być dosyć skomplikowane dla osoby, która dopiero swoje pierwsze kroki
stawia w tworzeniu stron internetowych, a poza tym, no tak naprawdę
to zdecydowanie większych zasobów od naszego serwera będzie wymagała
taka strona na WordPressie, bo to PHP musi się gdzieś wykonać,
bo to jest de facto program, musi odpytać bazę danych,
my oczywiście potem też musimy dbać o kopię tych różnych naszych plików,
zarówno tego WordPressa, jak i wtyczek, jak i bazy danych,
a tu mamy naprawdę prostą strukturę pliki HTML, które możemy sobie
gdziekolwiek zachować i one będą też możliwe dość łatwo do przywrócenia,
gdyby coś się stało.
Jest też trochę takich hostingów tego typu blogów i przykładowo jest
micro.blog, micro.blog i to jest taka platforma blogowa oparta o Fediversum,
więc tak naprawdę taką stronę przez nas stworzoną choćby w Markdownie
na komputerze, można sobie z dowolnego konta, czy Mastodona,
czy innej instancji Fediversum zaśledzić, no i reagować, wchodzić w interakcje
z postami tam zamieszczonymi, ze stronami tam zamieszczonymi,
czyli odpowiadać na nie, czy piszemy jakiś komentarz, podbijać,
lubić i polecać dalej i wchodzić w takie już bardzo zaawansowane interakcje.
Jest jeszcze coś, co się nazywa Eleventy, chyba 11ty,
czy Y, czy Eleventy nawet chyba pisane przez V,
i to jest też tego typu generator, który operuje swój własny hosting,
tylko w tego typu hostingach też zdaje się, że trzeba wrzucać
wszystkie zmiany, jakich dokonujemy w formie plików zip,
więc trzeba też się przygotować na to, że no ta synchronizacja
po prostu tak tam wygląda.
No i zostały nam jak zwykle trzy pakiety tenewsowe,
no i może zaczniemy sobie od wieści z, zazwyczaj ze świata,
ale tu trochę z Polski i ze świata, i może, żeby tak zacząć
od bardziej tych naszych lokalnych, czyli z polskich to może ja zacznę,
bo metro, znaczy warszawski ZTM chce wymienić guzki, linie prowadzące
w metrze, tylko, że nie w całym metrze, tylko na kilku stacjach,
dokładnie na stacji, mamy tak, na stacji Pole Mogotowskie
tylko w tej tak zwanej głowicy południowej, ponieważ stacje,
no to jest tak śmiesznie nazwane, że one mają głowicę,
czyli można wyjść z peronu z jednej albo z drugiej strony
do takiego systemu, systemu korytarzy, hali, wyjść,
i taki jeden system to jest głowica właśnie, może być głowica
północno-południowa na pierwszej linii metra, więc na, w głowicy
południowej stacji Pole Mogotowskie, bo na północnej głowicy
to już zostało wymienione z tego co wiem, potem jeszcze na stacji
Politechnika i na Ratu, i na Ratusz Arsenał, przy czym pracę mają
objąć wyłącznie antresolę i halę odpraw, bez peronów, no i pola uwagi
przy schodach, i teraz dlaczego w ogóle to jest wymienione?
Dlatego, że te linie prowadzące, które są obecnie na pierwszej linii,
na drugiej jest inaczej, ale na pierwszej linii one są z metalu
i to powoduje problemy, po pierwsze to jest ślisknie, zwłaszcza w deszczu
i jak pisze portal transportpubliczny.pl w tamtym roku
zostało zgłoszonych około 50 skarg z tym związanych,
że ktoś się poślizgnął, przewrócił, 25 z nich też tam dotyczyło tego,
że jest uszkodzenie mienia lub ciała, więc tam ktoś coś tam musiał zrobić
w związku z tym niefajnego, no i trzeba by to kiedyś wymienić,
no i to tak powolutku, powolutku jest wymieniane, te linie prowadzące
były założone w ogóle po tym, jak jeden z niewidomych użytkowników,
że tak powiem, metra wpadł pod metro, no to wtedy się rzeczywiście
jakoś tam zebrano i to zrobiono, natomiast problem polega na tym,
że to wszystko jest metalowe, no i jest to problematyczne dość mocno,
no i w końcu zaczynają to powoli, powoli wymieniać.
Problem polega na tym, że budżet zakładany to jest chyba 600 tysięcy złotych.
Już raz próbowano zrobić przetarg, znaczy zrobiono przetarg,
tylko że jedyną ofertą, no jedyna oferta wpłynęła od przedsiębiorstwa,
przedsiębiorstwa, które nazywa się Warszawskie Przedsiębiorstwo Mostowe,
Mosty Budownictwo i oni sobie zaproponowali, że mogą to zrobić
za trochę ponad milion dwieście, no więc jeżeli to jest ponad dwukrotnie
więcej niż zakładany budżet, no to nie podziękowano,
no i to była jedyna oferta, więc no zobaczymy co będzie teraz,
do 26 chyba kwietnia jest ten przetarg, więc zobaczymy,
czy tam ktokolwiek w ogóle wystartuje, jeżeli tak to zobaczymy,
czy znowu nie będzie jakiejś większej oferty niż te założenia,
które sobie tam wymyślili, nie wiem jak to teraz wygląda.
No w każdym razie jest jakaś szansa, że coś zmienia,
aczkolwiek tylko na trzech stacjach i tylko na antresolach
i tylko w tych tak zwanych głowicach nie będzie zmian na peronie,
więc w sumie trochę szkoda, więc to strasznie powoli idzie.
Jeżeli będą wymienione, jeżeli będą oczywiście na te kamienne takie,
jak są z tego co rozumiem przynajmniej, no to na takie jakie są na przykład
na drugim, znaczy mówią, że takie jak są na północnej głowicy
stacji Pole Mokotowskie, szczerze mówiąc tam jeszcze nie było,
więc nie wiem jak to wygląda, ale ma być to kamienne,
więc śliskie już to być nie powinno i miejmy nadzieję, że nie będzie,
także zobaczymy co z tymi liniami prowadzącymi w metrze,
no bo to rzeczywiście może być dla niektórych użytkowników problem.
No a teraz chyba oddam głos Pawłowi, bo Paweł ma kilka newsów ze świata.
Zgadza się i zacznę już od tego co wydarzyło się dwa tygodnie temu niemalże,
ponieważ miałem przyjemność być przez kilka dni w okolicach Szwajcarii.
W samej Szwajcarii oczywiście też, to była troszkę taka złożona sytuacja,
bo nocowałem we Francji, a w ciągu dnia gdzieś tam kręciłem się po Bazylei,
oczywiście znaczy tym razem nie sam, a że tak powiem w asyście rodziny,
no i kilka obserwacji, które mi się gdzieś tak rzuciło,
więc po pierwsze jak sobie zorganizować internet, no bo Szwajcaria nie jest w Unii
i Szwajcarii nie obowiązują też nasze europejskie różne układy roamingowe,
więc no gdzieś te opłaty sobie mogą poszybować w dość duże kwoty,
o czym się niestety boleśnie jakieś dwa lata temu przekonałem.
Godzinka surfowania po, znaczy samego tego, że telefon się zalogował w sieci szwajcarskiej,
ja nic tam nie robiłem, natrzaskała mi około 250 złotych rachunku,
więc nie polecam takiego eksperymentu powtarzać z internetem.
Połączenia też do najtańszych nie należą, no a że mi głównie na internecie
gdzieś tam zależało, no to się zacząłem rozglądać za ofertami.
Michał wspominał już o, przy okazji swojego pobytu w Turcji i też krótko przed,
o usłudze Eralo i ona rzeczywiście mogłaby się sprawdzić,
natomiast no ona po tych cenach, po jakich to oferuje,
oferuje jedynie ograniczone pakiety, tam maksymalnie chyba jest 10 gigabajtów,
jeżeli dobrze pamiętam.
To zależy od kraju, wiesz, ale zazwyczaj i przeważnie tak.
No w Szwajcarii też tak chyba było.
No więc zacząłem googlować za jakimiś alternatywami i się okazało,
że sami Szwajcarzy wymyślili sobie usługę, która działa na całym świecie,
a nazywa się Yesim, Y-E-S-I-M, yesim.app to adres.
No i teraz usługa ta pozwala nam na wgranie sobie wirtualnej karty Yesim
bez numeru telefonu, gdzie mamy podpięty internet bez limitu.
Ile kosztuje taka przyjemność?
No tydzień korzystania z czegoś takiego w Szwajcarii kosztował mnie 24 euro.
Więc no zależy jak przeliczyć.
W polskich pieniądzach nie wygląda to jakoś bardzo tanio,
aczkolwiek wydaje mi się, że i tak taniej niż konkurencyjne usługi tego typu,
jak za to co oferują, bo ostatnio na przykład Revolut wprowadził jakieś pakiety
danych na zagranicę, na różne rejony świata, chyba też Western Union,
jakąś taką usługą się zainteresowało, więc no nie bardzo.
Czyli z tej karty Yesim, żebyśmy tu mieli jasność,
z tej karty Yesim możesz korzystać tak naprawdę wszędzie.
W jakim kraju byś nie był?
Tak, aczkolwiek nie konsultowałem jeszcze jakoś wątpliwie cenników,
czy one się różnią tam między Szwajcarią, a powiedzmy właśnie Turcją.
Bo dla różnych krajów musisz jakby wykupić inne karty, tak?
Inny pakiet.
Czy to jest jednak globalna karta?
Nie, inny pakiet. Karta jest ta sama, jakby SIM,
ale pakiety trzeba sobie wybrać w aplikacji.
Okej, bo Airalo na przykład to pozwala na wykupienie sobie takiej globalnej też karty,
która, za pomocą której masz dostęp absolutnie wszędzie,
no ale to kosztuje zdecydowanie więcej.
Nie pamiętam już teraz ile, ale cena była taka dość mocna.
Jeżeli na przykład miałbyś potrzebę podróżowania po świecie, tak?
No tak, tak, tak, tak.
Ja nie wiem jak to jest w eSIMie.
Może tam też są takie globalniejsze pakiety,
ale niestety nie znalazłem, czy ja się dokopałem na razie do podziałki na kraje.
Sama aplikacja też jest, ona jest dostępna.
W niej się da zrobić wszystko co chcemy,
natomiast na przykład przewijanie listy krajów,
no to już jest robota ręcznie trzyma palcami góra-dół.
To się samo nie przewinie.
No i tam pewno jakiś takich nie ma zakładek, tylko są jakieś obrazki,
ale wszystko jest na szczęście na tyle zaetikietowane,
że spokojnie można sobie poradzić.
Tam też można wykupować numery wirtualne,
takie na które można chyba tylko SMSy przyjmować w appce,
ale z tego co patrzyłem, o ile oczywiście lista mi się jakaś nie schowała,
te numery są dostępne jedynie dla Stanów, Kanady, Holandii, Izraela
i jakiegoś jeszcze jednego kraju, już teraz nie pamiętam.
Także no nie jest to jakaś szeroka lista.
Natomiast można sobie coś takiego wykupić,
można zapłacić Apple Payem, RL też można Apple Payem?
To znaczy tam się, już teraz nie pamiętam,
ale zdaje się, że to się płaciło Apple Payem albo wewnątrz aplikacji.
Znaczy no wewnątrz aplikacji, ale Apple Payem?
Czy to był zakup wewnątrz aplikacji, czy był to Apple Pay?
Wiesz co, nie pamiętam już teraz jak to tam wyglądało.
Ale chyba Apple Pay.
No to tutaj też można, no bo to oczywiście wiadomo,
mamy całą gonitwę, jeżeli ktoś jeszcze tak jak ja,
używa sobie na co dzień karty eSIM z zamienianiem tych kart,
no bo jak ja mieszkam i śpię we Francji, a jeżdżę po Szwajcarii,
no to muszę co chwilę tymi kartami pstryk, pstryk, pstryk, pstryk,
przełączać sobie, jedną dezaktywować, drugą aktywować
i no to kompletnie rozwala ustawienia wszystkich domyślnych kart,
albo nagle się okazuje, że lądujemy z połączeniami domyślnie
na karcie, której nie chcieliśmy, albo z danymi na karcie,
na której nie chcieliśmy, no przeróżne się dzieją rzeczy,
więc warto sobie zawsze po takim przełączeniu karty,
jakby uaktywnieniu konkretnej karty eSIM,
sprawdzić jak te nasze ustawienia wyglądają.
No i możemy spokojnie surfować, potwierdzam,
internet działa, był stabilny, nawet 5G podłapało,
także no nie mogę narzekać.
To to jeśli chodzi o internet.
No i przyjeżdżamy do takiej Szwajcarii, no i co się dzieje?
W ogóle śmieszna sprawa, bo zarezerwowałem sobie bilet
aplikacją austriackich kolei z Austrii, z Wiednia do Bazylei
przez Curych z przesiadką.
No i tak akurat połączenie wypadło, że odcinek Curych-Bazylea,
tak gdzie się przesiadałem, był realizowany TGV,
więc de facto jechałem pociągiem, który kończył gdzieś tam w Lyonie,
ale jechałem tylko po odcinku szwajcarskim,
czyli trochę tak, jakbym jechał z Warszawy do Katowic
pociągiem, który jedzie dalej do Pragi, Berlina czy Wiednia.
No samo TGV, no jakichś większych wrażeń nie zrobiło,
mam zarejestrowany na nagraniu cały przejazd,
nie uważam, żeby jechało jakoś dużo szybciej,
ale jechało po szwajcarskich torach, więc możliwe,
że nie miało szansy się tam rozpędzić.
Fajnie takie wyściełane siedzenia, komunikaty oczywiście w kilku językach,
tam francuski, niemiecki, angielski, natomiast nie wiem czemu,
na postoju pociąg sobie normalnie stał i nagle puścił z siebie
taki syntezatorkowy, o mało co eurodansowy dżingiel,
tak jak trr, trr, trr i nie mam pojęcia, co to było,
szczerze mówiąc, co to miało sygnalizować.
Może jakieś logo tego TGV po prostu, takie dźwiękowe.
Możliwe, zwłaszcza, że potem już te dźwięki towarzyszące komunikatom
były zupełnie inne, więc bardzo możliwe, że to było jakieś logo,
które się w jakichś określonych sytuacjach uruchamiano,
ale patrzcie, polskie pendolino Chopin, francuskie TGV, eurodansik,
to pokazuje coś, myślę, gdzie się stawia na jaką muzykę,
bardziej, oczywiście taki żart.
Natomiast gdzieś tam przejazd się odbył fajnie,
jedyny problem, jaki był, to taki, że rezerwacja miejsc siedzących
się nie odbyła, bo Austria nie mogła rezerwować na odcinku szwajcarskim
miejsc siedzących, ale okej.
Teraz okazuje się, że szwajcarska kolej ma dedykowaną aplikację
dla osób z niepełnosprawnością, nazywa się to SBB,
bo SBB to jest szwajcarsze Bundesband, czyli szwajcarska kolej państwowa,
SBB Inclusive i to jest aplikacja, która otwieramy ją,
wykrywa automatycznie, na jakim jesteśmy dworcu
i pokazuje nam od razu odjazdy, komunikaty, czy odjazdy,
informacje dla danego peronu, czyli możemy sobie wybrać peron
i na tym peronie obserwować, jaki pociąg tam wjechał, odjechał itd.
oraz komunikaty, czyli tu jest połączenie z tą elektroniczną
taką tablicą informacyjną i to samo, co się na tej tablicy wyświetla,
będzie pokazywane nam i czytane przez screen reader w apce.
Potem i domyślam się, że to działa na pociągach SBB,
tych lokalnych szwajcarskich, bo na terze W tego nie wykrył,
ale mogłem sobie ten pociąg wybrać, jest zakładka, tak jak jest zakładka
stacja, to jest też zakładka pociąg i on wykrywa sobie pociąg
i przekazuje komunikaty, które też się gdzieś tam w pociągu wyświetlają,
również za pomocą apki. Co więcej, możemy sobie wybrać opcję
znajdź drzwi i kierując gdzieś tam aparatem dookoła,
możemy sobie wynaleźć, gdzie są drzwi.
On wyda jakąś wibrację z siebie i powie nam, że drzwi wykryto
no i wtedy możemy podejść. Prawdopodobnie to ja to testowałem
w tym terzewie i to gdzieś tam mi te drzwi wykryło,
ale czy te drzwi rzeczywiście tam były, tego nie jestem w stanie potwierdzić.
Domyślam się, że ta funkcja by działała w każdym pociągu po prostu
jakimkolwiek na świecie. Czy wiarygodnie? Nie wiem.
Ciężko powiedzieć. Obawiam się, że mogą być problemy.
No więc bardzo łatwo i bardzo szybko dało się podpatrzeć
o której, gdzie, jaki pociąg odjeżdża.
To było akurat bardzo fajnie zrobione, bardzo miło.
I ta aplikacja jest też dostępna w międzynarodowym App Store,
więc nawet mając polskie konto, polskie Apple ID,
można sobie to spokojnie zmienić, znaczy pobrać.
Podobnie też, i tego już niestety nie byłem w stanie przetestować,
no bo aplikacja nie była dostępna w polskim App Store,
jest aplikacja Intros, czyli aplikacja do ogarniania komunikacji miejskiej.
I tam też możemy sobie podglądać rozkłady jazdy,
podglądać, który tramwaj akurat wjeżdża na peron,
bo tramwaje i chyba autobusy też są wyposażone w nadajniki Bluetooth.
I można też, niby, znaczy no niczym czeskim pilotem,
odpalić informację głosową, żeby tramwaj nam się odezwał,
gdzie on jest, dany tramwaj. To jest bardzo przydatne,
jak na przykład jest podwójny przystanek i gdzieś tam wjeżdżają tramwaje
albo nie do końca jeszcze ten przystanek znaleźliśmy.
I poinformować kierowcę, że jest osoba niewidoma i chce wsiąść.
No więc to jest aplikacja, którą przy współpracy z pewną niemiecką firmą
stworzył Szwajcarski Związek Niewidomych.
No i już staje się ona produktem eksportowym,
bo została ona ostatnio zaimplementowana,
czy ma zostać zaimplementowana w dwóch niemieckich miastach,
w Zarbrykan i w Kiloni, także takie nadmorskie miasto.
Także, no tutaj nie mylić z Kolonią.
Także, no takie rzeczy Szwajcarzy wymyślają,
oni w ogóle dużo wymyślają, bo też stworzyli aplikację MyWay Pro
i tu co ciekawe, próbowałem na kilka dni przed wyjazdem
skontaktować się ze Szwajcarskim Związkiem Niewidomych,
no i dopytać, jakie w Bazylei mógłbym odwiedzić dostępne
dla niewidomych atrakcji. Trochę ciężko było taką informację uzyskać,
ale jedną informację, którą uzyskałem, to to,
że istnieje nawigacja MyWay Pro, no to nie jest jakaś nowa nawigacja
ani nawigacja, która jakoś bardziej oblatanym osobom
w aplikacjach nawigacyjnych znana nie jest,
bo jest to aplikacja, która już istnieje od chyba 10 lat,
ale istniała jako MyWay Classic, teraz jest MyWay Pro,
jest na nią abonament, który kosztuje 5 złotych,
zdaje się miesięcznie, albo chyba 120 złotych na wieczność,
tak powiem wieczystej licencji, no i oczywiście mamy tam
pokazywanie punktów w pobliżu, nawigację zakręt po zakręcie,
różne opcje, ale mamy też trasy z internetu
i wśród trasy z internetu mamy dostępne trasy wędrowne w Szwajcarii
i tam mamy listę około 80 przetestowanych przez jedną z firm
zajmujących się sportem i aktywnością sportową osób z niepełnosprawnością,
80 tras w całej Szwajcarii, możemy je sobie ściągnąć do MyWay Pro
i po takich trasach teoretycznie samodzielnie chodzić,
próbowałem tej opcji, no niestety przy próbie pobrania trasy
u mnie aplikacja MyWay Pro się wykrzacza, więc tutaj niestety się nie udało.
Co jeszcze mogę powiedzieć, w samej Bazylei na pewno na starówce
nie ma takich ściśle określonych przejść dla pieszych,
więc bardzo jestem ciekaw jak tam osoby niewidome w ogóle
przechodzą przez ulicę, pewnie jakoś na dziko,
jest to trochę niebezpieczne, bo tam w każdej chwili może pojechać tramwaj,
a przy nielicznych przejściach dla pieszych, które są,
no są jakieś tam przejścia dźwiękowe, niestety no nie udało mi się nagrać.
Czy coś jeszcze mogę a propos osób niewidomych i Szwajcarii powiedzieć,
czy jakichś takich technologicznych ciekawostek, chyba nie bardzo.
Na cienkciarzu udała mi się wymiana pieniędzy ze złotówek na franki szwajcarskie.
Udało mi się nawet trochę parę tych franków wydać
i te transakcje kartą jak najbardziej działały,
także mogę polecić pewnie jak ktoś używa Revoluta,
to Revolut również jak najbardziej dałby radę.
No to tyle jeśli chodzi o Szwajcarię,
ale jeżeli macie jeszcze jakieś ciekawe pytania,
no to możecie śmiało zadawać.
Ja tu jeszcze patrzę, co tu mamy.
Aha, no jako, że się teraz przeprowadzam, no to różne rzeczy mnie interesują,
też interesował mnie zakup pralki.
No i się okazało, o czym dowiedziałem się w ogóle od moich widzących znajomych z pracy,
że w jednym z austriackich, z wiedeńskich tutaj mediamarktów
doradcą klienta i sprzedawcą jest niewidomy pan
i on właśnie doradza na dziale pralek.
No i rzeczywiście byłem w kontakcie z tą osobą,
dostałem do niej maila, bo tu się okazało, że to Związek Niewidomych
gdzieś tam pośredniczył w znalezieniu temu panu tej pracy.
No i rzeczywiście ten pan jest i doradza.
Ja niestety nie mogłem go spotkać, bo gdzieś tam był chory,
ale napisałem do niego maila i rzeczywiście przysłał mi listę pralek
i pralkosuszarek, konkretne modele, które mają jak najwięcej
do tych fizycznych takich pokręteł i przycisków,
więc bardzo się cieszę, że widać tutaj osoby niewidome w takiej pracy,
no użytku codziennego, że naprawdę każdy człowiek potrzebuje
czasem jakiejś porady jak chodzi o sprzęt, o to jaki sprzęt sobie dobrać,
no a my się jakby nie było na tym znamy, potrafimy się obuczyć
tam specyfikacji technicznych, czasem nawet nas takie rzeczy interesują.
Mamy przecież mnóstwo podcastów o golarkach ostatnio,
no o pralkach, suszarkach też się jakieś pojawiły.
Niedługo czeka nas, co to, klimatyzacja?
Klimatyzacja, tak jest, jutro.
Dokładnie, no więc czemu by nie wykorzystać tych umiejętności zawodowo.
Bardzo tutaj fajny, pozytywny przykład mediamarkt austriacki pokazał,
że nie jest to problemem, no i przykład moich widzących znajomych,
którzy mi o tym powiedzieli, pokazuje, że też nie ma takich oporów,
żeby do osoby niewidomej podejść i poradzić się jej w kwestii sprzętu
i uznać tę poradę za wartościową.
Także myślę, że jest to naprawdę super praktyka.
Teraz się przenosimy do Hiszpanii, bo tam powstał taki startup jak iplug.
Są to nakładki na gniazdka elektryczne.
No i można by pomyśleć, a po co, przecież jakoś sobie radzimy,
ale jak wy tak naprawdę wpinacie wtyczki do gniazdek?
W sensie, jak orientujecie się, gdzie są otwory do umieszczenia bolców?
Bo ja albo kręcę wtyczką w gniazdku, póki nie trafię,
ale to wszystko zależy od kształtu wtyczki i kształtu gniazdka,
no albo, i tu się muszę przyznać bez bicia, zdarza mi się czasem,
no delikatnie, bo delikatnie, ale włożyć jednak palce,
no bo ja nie wiem, nie jestem w stanie czasem samym ruchem wtyczki
trafić na otwory.
Ja generalnie robię bardzo podobnie, to jest jeszcze fajniejsze,
jak mamy do czynienia, a mi się to zdarza, na przykład z listwą,
do której już jest wiele rzeczy podłączonych.
I nam się kable plączą wszędzie.
No to jutlak próbuje rozwiązać ten problem i oni stworzyli taką
silikonową nakładkę, którą my wkładamy do gniazdka,
ona się tam fajnie wpasowuje i w miejscu otworów ma ona rowki
i jak my wtyczką gdzieś tam kręcimy i grzebiemy w tym gniazdku,
to te rowki nam bardzo fajnie naprowadzają, z tego co słyszałem
z opisu osoby widzącej ze zdjęć, naprowadzają nam nasze bolce
z wtyczki rzeczywiście na otwory i da się je bez problemu wsadzić
i potem też wyciągnąć.
Także taki pomysł mają Hiszpanie, jedna taka nakładka kosztuje 10 euro.
Czy jest wysyłka na cały świat?
Nie wiem, strona jest tylko i wyłącznie po hiszpańsku,
no ale było to konsultowane z ONCE i przedstawione w ich podcaście
ostatnim, więc no raczej jakieś konsultacje społeczne tego się odbyły
no i nawet jeden z znajomych Hiszpanów, których śledzę na Mastodonie,
który zazwyczaj jest dość krytyczny względem różnych wynalazków
dla niewidomych, no to tu stwierdził, że rzeczywiście to jest pierwszy
wynalazek, który może mu się autentycznie przydać, kupił i już nigdy więcej
nie popieści go prąd, więc myślę, że jest to dość duża pochwała.
Ja mam akurat taki patent na wkładanie wtyczek do wszelkiego rodzaju gniazdek,
że ustawiam sobie jakby tę wtyczkę do gniazdka tak niejako w powietrzu,
to znaczy sprawdzam sobie, gdzie są otwory w tym gniazdku i w ten sposób
nakierowuję jeszcze w powietrzu, nie wkładając tych bolców do środka
no i z jakiejś takiej niewielkiej odległości, wtedy jest naprawdę małe
prawdopodobieństwo, że nam się ta wtyczka w jakikolwiek sposób obróci,
to akurat ja to robię w ten sposób.
Okej, no a wy macie jakieś sposoby na wtyczki? Dajcie znać.
Co my tu jeszcze mamy w wieściach ze świata?
No we Francji, w jednym z regionów możliwe jest zgłaszanie przestępstw
na policji przez wideorozmowę. Są to konkretne przestępstwa,
różne określone, na przykład przemoc i groźby, na przykład cyberprzemoc,
na przykład naruszenie lub uszkodzenie mienia, naruszenie zaufania lub oszustwo,
jest kilka takich określonych sposobów, czy przypadków, w których można
i rzeczywiście jest to jakiś pilotaż, można wykorzystać smartfona
bądź laptopa z kamerką i zamiast iść na żandarmerię czy też na komisariat policji,
no to po prostu przez wideo w zaciszu swojego domu, nie musząc się martwić,
czy trafię, czy nie trafię, zgłosić popełnienie przestępstwa względem nas.
No więc to też taki ciekawy przykład tego, do czego prowadzi cyfryzacja
No i na sam koniec, chociaż jeszcze nie, jeszcze jeden bonusik będzie,
Irlandia, Irlandia wprowadza prawo o dostępności, czyli europejską ustawę
o dostępności, tą, którą my też niedawno wprowadziliśmy i tutaj taki ciekawy twist,
no bo się okazuje, że jedną z przewidzianych kar za, oczywiście już w toku
postępowania sądowego, kiedy jakiekolwiek polubowne próby wynegocjowania
tych adaptacji, no spełzną na niczym, jest kara dla przedsiębiorcy,
który się do takich nie dostosuje, więzienia i to przy pierwszym,
jakiejś pierwszej instancji to jest 6 miesięcy, a przy jakimś tam powtórnym
skazaniu, czy gdzieś tam przy sądzie innej instancji jest to nawet 18 miesięcy,
no więc spora kara więzienia, jak na to, że się nie zastosowano
do prawa o dostępności, ja gdzieś tu w kręgu znajomych próbowałem
ten przypadek omówić i zastanawialiśmy się, w jakim przypadku musiałoby dojść
do tego, że nie wystarczy kara finansowa, jakaś dość wysoka,
a będzie trzeba po prostu komuś wolność ograniczyć, no i taki przykład się
pojawił, że no przykładowo mamy bank centralny w Irlandii, czyli taki
poniekąd, no może nie monopolista, ale no poważna baza użytkowników,
być może z jakichś przyczyn ktoś, dla kogoś to jest jedna opcja,
no i ten bank twierdzi, że wszystko jest dostępne, ale jednakowoż
użytkownicy się skarżą, niezależny audyt wykazał inaczej, no i gdzieś tam
się do tego banku zwraca z prośbą o odpowiednie korekty, o to, żeby
poprawili tą swoją stronę, czy aplikacje, czy dokumenty, oni tego nie robią,
no i w takiej właśnie sytuacji, czyli poważna instytucja, kary finansowe
raczej tutaj wiele nie dadzą, bo taki bank to sobie może pozwolić,
oni na śniadanie zjedzą taką karę, jaka jest przewidziana w tej ustawie,
no więc w jaki sposób jeszcze można tą dostępność wyegzekwować,
więc w dyskusjach naszych się pojawiały raczej takie przykłady,
więc to wątpię, że jakiś tam przeciętny irlandzki przedsiębiorca,
nawet większy, który sobie tam jakieś tworzy swoje produkty,
może z tytułu braku dostępności pójść do więzienia, no aczkolwiek,
kto wie, jak się potoczą różne sprawy, no jak widać Irlandia bardzo
rygorystycznie podchodzi do tego prawa. No i na sam koniec polecajka,
gdybyście chcieli pouczyć się języków, poćwiczyć swoje umiejętności
językowe, albo pouczyć kogoś swojego języka, albo języka obcego,
który znacie bardzo dobrze, to jest na Facebooku nowa grupa
Language Exchange for Blind and Low Vision. Jak sobie wyszukacie taką grupę,
ja nawet wpisałem Language Exchange Blind i znalazło mi pierwszą grupę z góry.
Na razie jest 60 członków, możecie się dopisać, no i pogadać z kimś
w jakimś języku, albo już poznacie jakąś ciekawą osobę,
albo podszkolicie język, albo kogoś z języka, więc zachęcam do uczestnictwa.
No i to wszystko, jeśli chodzi o drobne wieści ze świata na ten tydzień.
To zanim przejdziemy do kolejnych informacji, to teraz zajrzyjmy
do waszych wypowiedzi, bo się pojawiają i na przykład mamy takie pytanie
od Grzegorza. Witam, mam pytanie o aplikację na Androida, która nie ma
problemów z odczytywaniem artykułów wyświetlanych w przeglądarce
na Androidzie. Wiem, jest Voice Alert Reader, on działa, ale nie wszędzie.
Za żadne skarby nie mogę nim odczytywać artykułów z ekiosku
pod adresem ekiosk.defacto.org.pl. Za każdym razem po wysłaniu artykułu
poprzez udostępnianie mam komunikat. Ekiosk, strona główna, szanowni
czytelnicy, witamy w ekiosku Mazowieckiego Stowarzyszenia Pracy
dla Niewidomych de facto, czyli czyta stronę główną, mimo że na stronie
jest wyświetlony artykuł. Dzieje się tak w każdej przeglądarce.
Na aplikacji Speech Central to samo. Znacie jakąś aplikację, która sobie
z tym poradzi i będzie to robiła w sposób prosty poprzez udostępnianie?
Oczywiście powinna mieć możliwość również czytania w tle jak Voice Alert
Reader czy Speech Central. W iOS nie ma żadnego problemu,
Voice Dream Reader sobie radzi bez żadnego problemu, Speech Central również.
Możecie coś podpowiedzieć? Pozdrawiam.
Google kiedyś stworzył taką aplikację, jak to się nazywało? Tryb czytania?
Reading Mode chyba po angielsku?
Chyba tak. Chyba tak to się nazywało.
I to była właśnie taka aplikacja, która pozwalała na czytanie artykułów.
Czy to będzie lepszy mechanizm ekstrakcji niż to, co masz do tej pory dostępne?
To nie wiem, bo to brzmi jakby tam było niekompatybilne to w ogóle z tym
trybem czytnika, który jest tym trybem czytania artykułów, które mają
przeglądarki. Natomiast kto wie, może akurat ta aplikacja ci pomoże.
Pytanie, czy to jest aplikacja, czy nawet nie jest po prostu jako usługa
dostępności, którą się teraz włącza jako część tego…
To jest usługa, ale trzeba to instalować chyba ręcznie jeszcze.
Możliwe.
Chyba tak.
To tymczasem zajrzyjmy jeszcze do jednej wiadomości głosowej.
Rafał do nas coś nagrał.
Dobry wieczór.
Rafał po drugiej stronie.
Chciałbym powiedzieć tylko tyle.
Trochę z zaskoczoną informacją to, co Paweł powiedział.
Bo mówisz, że okulary się zakłada na czole.
A z tego, co mi wiadomo,
z tego, co mi wiadomo, to się okulary zakłada się na nosie.
No bo wiadomo.
Możesz powiedzieć, tak?
No, czyli no.
Żeby, wiadomo, okulary dopasować do…
No wiadomo, tak się okulary zresztą nosi.
Ja je zawsze nosiłem na nosie, a nie na czole.
Tak w proponu.
To jest jakaś sprawa do Michała, no Pawła,
a sprawa druga do Michała odnośnie do Floradia,
to jest coś, co…
Bo nie słyszałem od początku,
to w przyszłym tygodniu to sprawdzę i potwierdzę,
czy faktycznie to działa, czy nie.
Słyszę Was dalej.
Bardzo możliwe.
No teraz, żeby troszeczkę tak luźniej podejść do różnych tematów,
to może nowości w grach, jakie mamy na ten tydzień.
No proszę bardzo.
No dzisiaj może nie będzie dużo,
ale kilka takich ciekawych, wydaje mi się, informacji.
Zaczniemy sobie od nowej gry,
która poniekąd jest dosyć…
Dosyć dramatyczna, bo teraz mieliśmy lokalne wybory
i wybieraliśmy nowych prezydentów i mistrzów miast.
I pojawiła się gra, która pozwoli poniekąd nam się
w jakiś sposób w tej roli sprawdzić.
Natomiast to na pewno nie ma może dużo związku z rzeczywistością,
natomiast gra jest ciekawa.
Dostępność do tej gry dostaliśmy dzięki osobie,
która przynajmniej co drugi miesiąc
ostatnio w częściach związanych z rozrywką w Tyflo przeglądach się pojawia,
bo tutaj znów musimy podziękować Matiusowi i Reni,
czyli osobie, która się podpisuje jako DRG na forum Audio Games,
który chyba wziął sobie za misję życiową szukanie wszystkich gier
z tak zwanymi elementami roguelike
i pisania do ich autorów, czy mogliby zdrowić dostępność.
No i trzeba mu przyznać, że idzie mu to całkiem nieźle.
Już tutaj parę osób na forum proponowało,
że powinien jakiś medal za to dostać.
No bo dzięki niemu mamy dostępne takie gry jak Dawncaster na przykład,
czy AX Roguelike, o którym mówiłem ostatnio.
No i teraz mamy grę, która też ma gdzieś takie elementy właśnie losowe.
Natomiast to jest właśnie gra, w której nie bijemy się z nikim ani niczym,
więc jeśli ktoś szuka czegoś takiego bardziej właśnie z lżejszą tematyką,
no to mamy grę Lucky Mayor,
czyli właśnie gra, w której zostajemy burmistrzem małego miasteczka,
w którym po prostu musimy odpowiednio nim zarządzać
poprzez zapraszanie różnych osób do tego miasta.
No osób i nie tylko poniekąd.
I jak to często bywa w grach takiego typu,
jakie osoby dostajemy to jest losowo.
Za każdym razem, kiedy rozpoczynamy turę,
mamy trzy osoby do wyboru, które nam gra losowo wybiera z pól i ponad 100.
Mamy też odpowiednie żytony, którymi możemy poprosić,
żeby gra nam wygenerowała jakieś trzy inne osoby,
które możemy zdobywać poprzez rozgrywkę.
No i na początku każdej takiej misji
dostajemy jakąś kwotę, którą musimy przekroczyć,
żeby przejść do następnego poziomu.
Tam jest napisane, że chyba mamy jakieś remonty,
coś musimy zrobić, no i musimy generalnie za to zapłacić,
żeby wygenerować w naszym mieście jakieś przechody.
I jak to robimy?
No osoby, które w naszym mieście mieszkają,
zajmują się różnymi rzeczami,
które poniekąd nam będą pieniądze generować w jakiś sposób.
I tak na przykład możemy mieć sytuację, że przy starcie,
bo też dostajemy takie trzy czy cztery karty,
chyba cztery karty na start,
no możemy mieć do czynienia, że mamy jakiegoś rybaka,
który łowi ryby i mamy na przykład
jakiegoś krasnoluda lub osobę,
która pracuje w kopalni,
no i one nam po prostu jakąś rudę generują.
No i co my z tym możemy robić?
No samą rudę też nam generuje jakieś przechody,
to koło każdej karty pisze na przykład,
że ta osoba po każdej turze
nam będzie generowała jedną monetę powiedzmy.
No ale jeśli mamy jakieś surowce,
no to możemy spotkać osoby,
które coś z tymi surowcami zrobią.
I tak na przykład możemy sobie znaleźć kucharza,
który odkupi sobie takie ryby i nie tylko,
bo może też odkupić na przykład jakieś pomidory,
bo też mamy osoby, które różne owoce i warzywa nam uprawiają,
czy cukiernika, który odkupi na przykład mleko od krów,
no bo tam nie mamy tylko osoby,
ale też zwierzęta możemy spotkać,
więc odkupi mleko, odkupi jakieś jaja,
czy jajka przepraszam nawet bardziej,
i zrobi z nich ciasto.
I to też nam generuje przechody,
ale możemy też spotkać jakieś księżniczki
czy inne osoby, które po prostu lubią słodkości
i te ciasta też mogą kupić.
I na tym właśnie polega rozgrywka,
żeby odpowiednio te karty dobierać,
żeby jak najwięcej pieniędzy sobie tworzyć.
No i tu są różne na to sposoby.
Nawet tutaj wspominałem o tematach związanych z jedzeniem,
ale to nie jedyne tematy,
bo taką rudę też możemy wykorzystać na przykład
do produkcji robotów,
a te roboty nam mogą jakieś baterie produkować.
I tutaj też znajdziemy na przykład programistów,
którzy nam mogą taką produkcję podwoić.
Możemy sobie znaleźć barmanów,
którzy nam będą produkować drinki.
A co możemy z drinkami zrobić?
Zaczną do nas przychodzić różne zespoły.
I te zespoły też mają różnych muzyków,
basistów, gitarzystów,
którzy będą te drinki kupować,
no i dzięki temu będą powodować,
że do naszego miasta będą fani przychodzić na koncerty.
I pomysłów na to jest dużo.
Tak jak mówiłem,
typów osób, które gdzieś do tego miasta
może przyjść jest ponad 100.
Jest też dużo innych losowych
zdarzeń, które w czasie rozgrywki
mogą nam się pojawić.
Sama gra też ma bardzo przyjemną oprawę dźwiękową.
Taka delikatna muzyczka nam przegrywa,
którą sobie zresztą możemy zgłośnić
lub przyciszyć, jeśli nam przeszkadza.
Mamy też takie bardzo wdzięczne efekty dźwiękowe,
że pieniądze się nabijają
na końcu każdej tury.
No więc też mamy taką bardzo przyjemną
oprawę dźwiękową.
Jeśli chodzi o samą grę,
no to ona powstała,
jak wiele innych gier tego typu,
to zresztą w silniku Unity.
Więc tutaj znów mamy do czynienia
z tym specyficznym czytnikiem ekranu.
Gra jest zarówno na iPhonie,
na Androidzie i na komputerze.
No i tutaj wiadomo,
na iPhonie musimy sobie dotyk bezpośredni
włączyć czy interakcję bezpośrednią.
Na Androidzie musimy sobie tymczasowo
na szczytnik ekranu uśpić
albo wyłączyć podczas rozgrywki.
A na Steamie
dostępność, z tego co wiem,
po prostu włącza się automatycznie.
Mi się tej dostępności
na komputerze nie udało uruchomić,
przynajmniej w przypadku wersji demo.
Bo na Steamie wersja demo jest.
Na Androidzie chyba też,
bo aplikacja jest do pobrania za darmo.
Natomiast na iPhonie
musimy sobie ją od razu wykupić
i tam kosztuje 20 zł.
Na Androidzie zresztą podobnie,
tylko tam te 20 zł jest dostępne
jako zakup wewnątrz aplikacji.
Natomiast wersja komputerowa
kosztuje już złoty,
czyli 20 zł.
I na pewno w pełnej wersji
ta dostępność na komputerach działa,
bo parę osób na forum Audio Games
zgłaszało, że ta dostępność
po prostu im na komputerach działa.
Natomiast chyba wersja demo
tej aktualizacji widocznie
z dostępnością nie dostała.
Natomiast gra jest bardzo wdzięczna,
jednocześnie bardzo prosta w obsłudze,
ale też skomplikowana,
bo musimy odpowiednio uczyć
tych interakcji wszystkich
z różnymi kartami,
bo ostatnio mieliśmy dużo gier,
w których po prostu walczymy,
zabijamy,
a tutaj jeśli ktoś szuka czegoś
takiego bardziej spokojnego,
może podobało wam się
Stardew Valley, czy właśnie szukacie
takiej gry z takim bardziej
aspektem gdzieś ekonomicznym,
no to myślę, że gra Lucky Mayor
jest jak najbardziej warta polecenia.
No i też fajnie, że jest dostępna
na praktycznie każdą platformę,
zarówno komputerową,
jak i mobilną.
Podobnie zresztą jak
druga nowa gra,
która się pojawiła.
Sama gra jest generalnie
prosta i cały koncept
nie jest jakiś nowy,
bo to jest taka typowa
przesuwana układanka.
Ja szczerze mówiąc jestem
tak jak w Sudoku i właśnie
kupiłem główki tego typu
kompletnie, gdzieś to nie jest
moja bajka, jakoś zawsze miałem
z tego typu grami problem.
Natomiast chodzi o to, że mamy
do 15 czy od 9 właściwie,
możemy sobie kilka rozmiarów
pól wybrać, no i musimy,
mamy jedno miejsce puste i musimy
odpowiednio zamienić te pola
miejscami, tak żeby te
cyfry uporządkować
rosnąco, czyli właśnie taka
zagadka w Fifteen Puzzle,
było kilka wersji audio tego
i najnowsza taka wersja
pojawiła się od pana
Emanuela Boboiu, którego możecie
kojarzyć z gier i aplikacji
z serii Pontess, na przykład
czy kilku gier audio,
które się pojawiły na Windowsa
i Androida, no parę gier tego
typu stworzył, jest znany
między innymi z kilku
naprawdę świetnie zrobionych
wersji Bagamona, zarówno
najpierw taką grę, to już
była gra płatna, zrobił właśnie
na Windowsa, a potem jeszcze
zrobił wersję na Androida,
która nie dość, że też jest
bardzo fajnie dostępna z
czytnikami ekranu, to jeszcze
jest wyposażona w grafikę.
No i postanowił, że
fajnie byłoby zrobić taką
grę na inne systemy
i postanowił zrobić to w
przeglądarce i ta gra,
którą właśnie wypuścił, czyli
Pontess 15 Puzzle, to jest taki
pierwszy eksperyment jak tego
typu rzeczy zrobić w taki sposób,
żeby one na wszystkich
platformach były dostępne.
I znajdziecie pod komentarzem
link do wątku na forum
Audio Games, gdzie znów
znajdziemy link do gry, który
nas w odpowiednie miejsce.
Jeśli klikniemy sobie w niego
na komputerze i to zarówno
może być Windows czy Mac, no to
po prostu otworzy nam się gra
w przeglądarce, natomiast jeśli
zrobimy to na smartfonie, czy
zarówno czy to jest iOS, czy
Android, no to otworzy nam się
strona w App Store, czy sklepie
Play, z której możemy sobie
tą grę ściągnąć. Ona też się
po prostu wtedy otworzy nam
jako strona internetowa.
No i to działa całkiem fajnie.
Mamy dźwięki. W ustawieniach
możemy włączyć opcję, żeby
na każdym przycisku, który
symbolizuje dane pole
wyświetlały się współrzędne,
dzięki czemu po prostu nam
czytnik ekranu będzie to czytał.
Natomiast jeśli chodzi o
komputery, no to na razie to
jest tak zrobione, że
niestety nie możemy sobie po
tej planszy chodzić ciałkami
z jakiegoś powodu.
Na smartfonie to jest w miarę
logicznie zrobione, bo po
prostu możemy sobie palcem po
ekranie chodzić lub po prostu
gestami po tej planszy
chodzić.
No a na komputerze, no ja
na początku gdzieś też
mając na uwadze to jak na
przykład Playroom działa, po
prostu próbowałem sobie po
tej planszy chodzić ciałkami.
Nie, to nie działa.
Na razie musimy sobie wejść
do trybu przeoglądania
w naszym czytniku ekranu
czy skrótami
voice overa na Macu.
W ten sposób sobie po tej
planszy chodzić i te przyciski
ją aktywniać.
Tutaj parę osób też zwróciło
na to uwagę,
że jeśli jakieś aktualizacje
do tej gry się pojawią,
żeby jednak jakaś
obsługa z klawiatury tego
była,
no zobaczymy czy ta gra się
zaktualizuje.
No i miejmy nadzieję, że
faktycznie eksperyment się na
tyle uda i zresztą
sam tak powiedział Emmanuel
w tym wątku, że
no to są gdzieś jakieś
podchody do tego, żeby w
podobny sposób zrobić
wersję Pokemona na wszystkie
platformy i to jeszcze z
grafiką.
Nie pogniewałbym się, bardzo
chętnie bym sobie w taką
grę pograł, czy to
ze znajomymi po sieci, czy
nawet lokalnie z osobami
widzącymi
no bo
gra jest
bardzo fajna i
gdzieś biorąc pod uwagę
jaką jakość miały
wersje na Windowsa, czy
na Androida
od Emmanuela, które
powstały wcześniej, no to
bardzo chętnie bym
zobaczył jak
taka wersja, która
też działała na
iPhone’ach i na komputerach
wszystkich, nie tylko
na Windowsie
była dostępna.
Czemu nie?
Życzę
powodzenia, a na
na ten moment możecie
sobie tą wersję
Fifteen Puzzle
za darmo
przetestować.
I
jeszcze
na koniec
aktualizacja.
Aktualizację
tym razem mamy
jedną, a mianowicie
zaktualizowała
się nam
Forza Motorsport.
No tak raz
miesiącu pojawiają się
duże aktualizacje
i tak
stało się
niej tym razem.
Mamy aktualizację
7.0
w której to głównie
pojawiły się
nowe treści,
ale nie tylko, bo
co ciekawe
gra nam się skurczyła.
Po prostu zajmie nam
miejsce,
mniej miejsca na komputerze
o około 15-20%.
Czyli kilkanaście
gigabajtów
zaoszczędzimy,
natomiast to nie znaczy, że
coś z gry zostało usunięte,
tylko po prostu
nowe algorytmy
kompresji zostały
zastosowane.
Gra po prostu bardziej
została zaktualizowana
na wykorzystanie
miejsca na dysku.
Ponadto
mamy nową
trasę.
Trasa nazywa się
Brands Hatch.
To jest jakiś tak
tor, który
znajduje się
w Anglii.
No i jak zwykle
mamy nowe samochody
i nową serię
wyścigów.
Tym razem to jest
seria
Retro Racers,
więc tutaj będziemy
ścigać się samochodami
wyścigowymi
z lat 60-tych
i 70-tych,
z tego co tam patrzyłem.
No więc możemy
zobaczyć jak to się
kiedyś jeździło
takimi właśnie
z pierwszymi,
starszymi
wyścigówkami.
Ponadto mamy
też poprawki,
łącznie z
poprawkami
dostępności,
na przykład
kiedy będziemy
sobie dostosowywać
typ opon
i ile chcemy
zataknować paliwa
przed wyścigiem.
No co może być
o tyle istotne,
że wiadomo
jeśli mamy więcej paliwa
to samochód jest cięższy,
a przez to będzie jechał nam
wolniej.
No to gra nam teraz
będzie czytała
średnio ile
okrążeń
będziemy w stanie pokonać
zanim te opony
nam się zetrą
lub skończy nam się
paliwo.
To wcześniej nie działało,
ale już to zostało
poprawione.
Będą też czytane
statystyki na ekranie
galerii, gdzie możemy
sobie przeglądać
poprzednie wyścigi
zarówno nasze,
czy naszych znajomych.
Patrzę, czy jeszcze
tutaj są jakieś poprawki
związane
z narracją.
Tak, pliki
zapisów wyścigów
też są prawidłowo
czytane na liście.
Możemy sobie, jeśli
jakiś wyścig nam dobrze
wyszedł, możemy sobie
tzw. replay zapisać
i później możemy
sobie go
odtwarzać.
I przycisk do
powiększania
ekranu w edycji
na ekranie malowania
samochodu też powinien
być prawidłowo czytany.
Także to jest myślę
fajna poprawka.
Ponadto też mamy
nowe opcje
ustawień dźwięku,
które możemy sobie
pozmieniać.
To możemy sobie m.in.
zmienić częstotliwość
próbkowania całej gry
oraz
wielkość wufora,
czyli możemy sobie
ustawić, żeby gra
nam miała
mniejsze płycienie
dźwięku, co
zwiększa nam zużycie
procesora, ale też
możemy sobie to
zużycie zwiększyć,
jeśli np. by nam
ten dźwięk się
zacinał.
I możemy sobie też
zdecydować, ile dźwięków
jednocześnie może być
odtwarzane.
Myślę, że dla nas
warto sobie tam do tych
ustawień wejść i np.
wszystkie jakieś
ustawienia graficzne
zmniejszyć, a właśnie
te wszystkie ustawienia
związane z dźwiękiem
ustawiać na
maksymalnych opcjach.
Może oprócz
tego wufora,
ten wufor
warto sobie ustawić na
wartość najmniejszą,
żeby ten dźwięk był
zarówno
responsywny, no i
najwyższej jakości,
jak to jest
możliwe.
Dzięki temu, jak rozumiem,
możemy mieć po prostu
szybszy czas
reakcji.
Dokładnie.
Dokładnie tak.
To jest nawet w samplach,
jakby domyślnie to jest,
najniżej to może być
512 sampli, ale jakby
komuś to i tak
przerywało, no to sobie
to można też
zwiększyć.
Także tak te opcje
wyglądają.
No i to na razie wszystko
w tym tygodniu, jeśli
chodzi o grę.
To ja teraz mam
informację od naszego
słuchacza Dawida,
który mi tu podesłał
link do swojego
wpisu na
Facebooku,
na grupie
Niewidomi i Niedowidzący
Bądźmy Razem.
Polsat,
Box i
dekodery
tejże usługi
mają nową
funkcję od wczoraj,
mianowicie jest to
wyszukiwanie głosowe.
Działa to tak, że
przytrzymujemy guzik
z mikrofonu
na pilocie
i mówimy na przykład
TVP Polonia
i jak rozumiem wtedy
ta TVP Polonia
się nam po prostu
odtwarza.
No to myślę, że
to może być
przydatne
czasami.
Zresztą
fakt faktem też
czytałem gdzieś o
tych nowych
funkcjach
wyszukiwania głosowego
w Polsat Box.
My je mamy w notatkach
nawet, ja miałem o tym
wspomnieć,
bo Dawid pisał również
do mnie, Dawidzie spokojnie
mamy na radarze.
Nie zauważyłem akurat
tego w notatkach, ale to
dobrze, że jest,
informacja poszła.
Aczkolwiek fajnie, gdyby
Polsat się wziął, bo też
ustawa będzie europejska
tego od niego wymagać
i udźwiękowił te
dekodery w końcu.
No właśnie.
No właśnie.
To się zgadza.
No i zostały nam w
Tyflowieściach jeszcze
tylko drobne
newsy i tu chyba
będzie głównie od
Pawła, tak mi się
wydaje?
Nie, nie tylko.
Ale chyba ktoś jeszcze
jest.
A Paweł, Piotrek jeszcze.
Tak, tak.
Okej.
No więc tak, zacznijmy od
tego, że jest nowy TokPek.
On się powoli
tak ukazuje
różnym osobom,
14.2.
No i co takiego
ciekawego w tym TokPeku
znajdziemy, bo już
ekipa Accessible
Android portalu
potestowała sobie
tą funkcję.
No więc po pierwsze
dochodzi nowa
opcja, jeśli
chodzi o
opisywanie
sztuczną inteligencją
obrazków.
Wcześniej było to
opisywanie możliwe
do włączenia lub
wyłączenia.
Jeżeli było włączone,
to opisywało jedynie
niezaitekietowane
obrazki.
Natomiast aktualnie
mamy trzy opcje.
Jest opcja wyłączone,
tylko niezaitekietowane
i włączone.
Czyli przy włączonym opisywaniu
jest wszystko nieważne,
czy są to przyciski,
czy tam obrazki,
grafiki zaetekietowane,
czy też nie.
Mamy teraz te trzy opcje.
Ponadzież, jeżeli chodzi
o jakość
tych opisów,
to nic się nie poprawiło,
więc jeżeli nam się nie
podobała wcześniej,
to nie spodoba nam się
teraz bardziej.
Funkcja literowania,
spelling
została zmieniona na
korektę tekstu,
czyli proof reading.
Nie wiem, jak to będzie
w polskim tłumaczeniu,
no bo teraz już
Android nie tylko potrafi
nam poprawiać błędy
w pisowni,
ale też błędy
na przykład gramatyczne.
Aczkolwiek ponoć też są
w tej opcji problemy,
no bo na przykład,
jeżeli nie wstawimy spacji
po kropce,
tylko od razu zaczniemy
nowe zdanie,
to nadal nie jest to
wychwytywane jako błąd.
Opcja zmiany
głośności i prędkości
syntezy
została przeniesiona.
Są one teraz
w panelu
dźwięków i wibracji,
więc
można w oknie
talkbacka
jak najbardziej je
też regulować,
więc,
bo przedtem było tak,
że można było
tylko indywidualnie
dla syntezy
albo za pomocą gestów
w talkbacku.
No teraz mamy już do tego
dedykowane opcje,
także też
super.
Wpisano do listy zmian
też odbieranie
połączeń
przez stuknięcie dwukrotne
dwoma palcami,
co jest dziwne,
bo ta opcja już jest
od Androida.
Zdaje się 12
albo nawet 11
dla pikseli.
Coś doszło w brajlu.
Doszły nowe komendy.
Lista zmian
wspomina o komendach
do nawigacji
między nagłówkami,
kontrolkami
i linkami,
łączami.
Przy czym te komendy
już ponoć były wcześniej,
więc nie wiadomo,
co jest w nich nowego.
No i ponoć doszła
komenda też do
pauzowania
i wznawiania mediów,
ale tego ekipa
Accessible Android
nigdzie nie mogła znaleźć,
więc jakiś
far start
w tym wydaniu talkbacka.
Ponadto
ponoć dodano
nowe języki,
ale ekipa również
nie mogła ich znaleźć,
więc coś
z tą aktualizacją
jest nie tak.
No i to w sumie tyle,
jeśli chodzi o talkbacka.
Trochę więcej
to chyba
Piotr będzie mógł
powiedzieć o naszej
następnej nowości,
czyli nowa wersja
Seeing AI,
w której
doszedł nowy tryb,
tryb szukania przedmiotów.
Tutaj Microsoft
postawił na
trochę inne podejście
niż np.
Envision,
czy SuperSense,
gdzie aplikacja
już jest
wstępnie
przetrenowana
i potrafi
takie popularne obiekty,
jak np. klucze,
jakieś tam
szklanki,
ławki
rozpoznawać.
Tutaj to my
uczymy
przez kanał
uczenia przedmiotów
najpierw
rozpoznawania konkretnego
przedmiotu,
a potem aplikacja
będzie na podstawie
tego, czego my
nauczyliśmy ją
tych przedmiotów
szukać.
Więc tutaj
jest takie podejście.
No i
opis
scen.
Ten taki
rozbudowany,
wspomagany już
dużym
modelem językowym,
prawdopodobnie
Copilotem,
czy jakimś tam
Microsoftowskim
Bingiem,
AI-em,
już też działa
w języku polskim.
Także
no ta opcja dotarła.
Zadawanie pytań
nadal tylko po angielsku,
jak rozumiem.
Aczkolwiek
ja próbowałem kiedyś
zadawać pytania po polsku
do tekstu
w Seeing AI
i
bez problemu
po polsku
odpowiedź uzyskałem.
Także
jak widać
da się to
jakoś obejść,
aczkolwiek nie jest to pewnie
oficjalnie wspierane.
No ale to ty Piotrze
możesz tu więcej
coś powiedzieć.
Ja tylko jeszcze wtrącę.
Ostatni krótki news,
że
Wikipedia
na iOS-a,
aplikacja w ostatniej wersji
poprawiła wsparcie
trybu
różnic
z voice-overem,
czyli
jak chcemy sobie podejrzeć
różnice między różnymi
zedytowanymi wersjami
artykułu,
tą jakby historię edycji,
no to możemy sobie
teraz
jakoś lepiej to
z voice-overem
przyswoić.
No a ja już przekazuję
głos Piotrowi.
Jak to jest w tym
Seeing AI?
Jak to jest?
No myślę, że
zaczniemy od
tego opisywania zdjęć,
bo tutaj jest mniej
do powiedzenia
i no to po prostu
jeśli mamy telefon
ustawiony na język polski,
no to po prostu działa.
Jeśli sobie takie
zdjęcie rozpoznamy,
no to od razu
dostaniemy taki
dosyć szczegółowy
opis języka polskiego,
który też możemy
sobie
udostępnić.
Tak jak
jakiś czas temu
rozmawialiśmy tutaj,
chyba poza audycją,
ten pierwszych
wersjach tego
opisywania
AI,
to te modele
bardzo skupiały się
na
na tylnych
częściach osób
i zwierząt,
które były
opisywane.
Chyba teraz jest lepiej,
takie mam wrażenie,
przynajmniej na tych
zdjęciach, które ja
opisywałem, tam akurat nie
było, może ludzi
były, psy.
Nie było z tym
większych problemów
i te opisy faktycznie
były takie,
no generalnie
dosyć szczegółowe,
natomiast co ciekawe,
bo opisywałem to samo
zdjęcie po angielsku,
żeby sprawdzić to
zadawanie pytań
po polsku,
no to w wersji
angielskiej
na zdjęciu
był przedstawiony pies,
który sobie spał
na łóżku
z drewnianą
ramą,
co było prawdziwe,
a w wersji polskiej
to łóżko zamieniło się
na składaną kanapę,
co trochę z
rzeczywistością się
minęło, także
jak widać
AI
jak najbardziej
cały czas gdzieś tam
może różne rzeczy
wymyślać,
czy gdzieś tam
halucynować,
natomiast
jeśli chodzi
o pytanie,
no to po prostu
w wersji polskiej
tego przycisku
nie zobaczymy,
jeśli mamy język aplikacji
ustawiony na polski,
jeśli mamy
język ustawiony
po angielsku,
no to będzie
przycisk
Ask Seeing AI,
możemy sobie na niego
nacisnąć,
wyświetli nam się wtedy
po prostu
pole edycji,
w którym to
zadajemy nasze
pytanie,
wystarczy wtedy
nacisnąć Enter,
leci nam taka
charakterystyczna muzyczka
Seeing AI,
no i po kilkunastu
sekundach
dostajemy odpowiedź
tutaj, jak najbardziej
nie ma problemu,
żeby
ten model nam też
to zdjęcie wtedy
po polsku opisywał,
więc no jeśli ktoś
chce z tego korzystać,
możemy sobie język
aplikacji zmienić
na angielski,
no wiadomo wtedy też
opisy będziemy na początku
dostawać po angielsku,
natomiast jeśli
wtedy zadamy jakieś
pytanie,
poprosimy żeby
nam podał
polski opis,
no to z tym
większego problemu
nie ma,
no to generalnie działa
bardzo podobnie
jak w innych
aplikacjach.
Natomiast jeśli
chodzi o
znajdowanie przedmiotów,
ja to testowałem
krótko na jednym
przedmiocie,
natomiast sam proces
kalibracji tego jest
całkiem ciekawy,
no poza tym,
że mamy
ciekawie zrobione
tłumaczenie,
ale zaczniemy
od początku,
jak sobie
skanujemy
dany przedmiot,
no wchodzimy sobie
do ekranu,
to jest w kanale
świat,
tam sobie wchodzimy
do menu akcji
i tam znajdziemy
odnajdywanie przedmiotów,
gdzie znajdziemy
po prostu listę
wszystkich przedmiotów,
które dodaliśmy
z przyciskiem
dodaj.
Kiedy sobie w niego
wstupniemy,
no to aplikacja najpierw
poprosi nas o to,
żebyśmy
dany przedmiot
postawili
na pustej
tabeli,
żeby nie było
widać innych
przedmiotów.
No tutaj widać,
było tłumaczenie
AI,
natomiast tak się śmiałem
tutaj przed audycją,
no może AI jest
seeing,
ale z tłumaczeniem
to idzie jakoś
gorzej.
Oczywiście,
no tabeli pustej
nie miałem,
natomiast jakieś puste
biurko się znalazło
i tam sobie
ten przedmiot
postawiłem.
Ja to akurat
dostałem w takim
małym spinnerze,
no nie wiem do czego
to można było
wykorzystać na przykład
jakieś może portfeli,
toreb.
Tutaj też firma zwraca
uwagę, że co sobie
nie radzi z rzeczami,
które mogą być podobne
do siebie, ale różnić się
kolorami, na przykład
długopisy małe.
Więc tutaj też taka
uwaga.
Natomiast co ciekawe,
z tym małym spinerem
nie było problemu.
To wygląda w ten sposób,
że
aplikacja prosi nas o to,
żebyśmy położyli
telefon na tym
przedmiocie,
odsunęli go
minimalnie o 5 cm,
nad przedmiot,
kliknęli przycisk
dalej, a potem
oddalamy się
od tego przedmiotu,
podnosimy telefon do góry.
Jak my to robimy?
No to będziemy słyszeli
zarówno sygnały dźwiękowe,
jak i komunikaty,
które będą nas
informowały o postępie.
Gdybyśmy
gdzieś przesunęli
rękę tak,
że ten przedmiot
by nam zniknął
z obiektywu,
no to będziemy dostawać
wibracje i będziemy wiedzieć
o tym, że musimy
rękę z powrotem
przesunąć.
Robimy tak
scan jednej
i drugiej strony
przedmiotu.
Po prostu musimy go wtedy
sobie obrócić,
a potem musimy
zrobić jeszcze
jeden scan,
jak ten przedmiot wygląda
na ziemi,
czyli tutaj na dywanie,
na podłodze,
na jakimś krześle.
Tak nas aplikacja instruuje.
No i tutaj wygląda to
podobnie.
Kładziemy ten przedmiot
na podłodze,
przykładamy do niego
telefon, później pomalutku
odjeżdżamy kamerą,
żeby aplikacja mogła
sobie go zeskanować.
Obracamy go
drugi raz.
Później
jesteśmy proszeni
o to, żeby
zrobić to ponownie
na innym tle,
na przykład
na łóżku,
na poduszce.
Takie mam sugestie,
więc to zrobiłem.
I kiedy już
to wszystko zrobimy,
no to możemy
przystąpić do
skanu obiektu.
No wiadomo,
z tym może być
różnie, na przykład
jeśli dany obiekt
byłby zasłonięty
na przykład ścianą,
wiadomo to będzie
działało
najlepiej tak,
żeby to gdzieś było
po prostu widoczne
w kadrze aparatu.
Natomiast
samo odnajdywanie działa
bardzo fajnie,
kiedy już
obiekt zostanie
wychwycony.
Dopóki on nie jest,
no to będziemy po prostu
słyszeć cykanie,
będzie komunikat,
że aplikacja
obiektu szuka.
Natomiast kiedy tylko znajdzie,
to sam proces
nawigacji do tego obiektu
wygląda bardzo
podobnie do
na przykład
tego jak
znajdujemy
AirTagi
czy
nowsze AirPodsy,
które mają ten
chip W1
z tą
radiolokalizacją.
Będziemy dostawać
dźwięki i wibracje,
które stopniowo
będą nam się robić
coraz szybsze
i coraz wyższe,
kiedy obiekt
zbliża nam się
i też na ekranie widzimy
w stopach
jak daleko od danego
obiektu jesteśmy,
czy on jest po lewej,
po prawej stronie.
Więc w ten sposób też
aplikacja nas nawiguje
i kiedy zbliżymy się
do niego
maksymalnie,
poniekąd,
że już aplikacja
stwierdzi, że ten obiekt
jest przed nami,
no to dostaniemy
inny sygnał dźwiękowy
i będziemy
mieli wyświetlony
alert, na którym
możemy zdecydować,
aplikacja ma
szukać dalej,
czy już mamy
zakończyć to
wyszukiwanie automatycznie.
No także sam proces
skanowania
zrobiony jest
całkiem fajnie,
też odnajdywanie
samo też.
Nie wiem jakby
to się sprawdziło
w praktyce,
natomiast w takich warunkach
szybkim,
szybkiego testu
przed audycją,
no to samo wykonanie
wydaje się
całkiem sensowne,
także
myślę, że warto
gdzieś sobie to
ewentualnie potestować
może na jakimś
torbach,
może na jakimś
portfelu,
rzeczy, które
macie może tendencje
do zgubienia,
warto sobie to
w jakiś
sposób
skonfigurować.
Też taka
informacja, że
ta funkcja wymaga
przynajmniej
iOS 14 lub
nowszego, także
wszystkie
nowe w miarę
telefony, nawet
iPhone 8
dostał iOS 16,
więc teoretycznie
nawet na starszych
telefonach też to
powinno
zadziałać.
Natomiast jeśli
chodzi o drobne
newsy ode mnie,
bo też tutaj parę
rzeczy przygotowałem,
no to zaczniemy
sobie od czegoś,
co może przydać
tym, którzy lubią
konsolę,
bo jest
sobie taki
program, edytor
tekstu właściwie,
teoretycznie,
edytor tekstu
GNU
IMAX,
którego jeśli ktoś
korzysta z Linuxa
na pewno kojarzy,
to znaczy
teoretycznie to jest tylko
edytor tekstu,
tak naprawdę to można
nazwać spokojnie
sposobem na życie.
Całe środowisko tak naprawdę.
Tak, dokładnie,
bo tam możemy
robić wszystko, nawet
ktoś niedawno,
klient Adama
Sodona w
IMAXie stworzył,
ale to można też
przeglądać internet,
słuchać radia,
wiele innych rzeczy
i powstało
do niego narzędzie,
które to wszystko
udźwiękawia, narzędzie
nazywa się IMAXpeak
i to jest co ciekawe
też projekt, który
chyba już będzie miał
trzydzieści lat, bo chyba
w dziewięćdziesiątym,
czwartym albo piątym roku
powstała jego pierwsza
wersja, to zrobił
taki pan
TV Raman, którego
możecie kojarzyć,
bo o niemu
zawdzięczamy, no
na przykład coś takiego
jak dostępność na
Androidzie, bo on od
wielu lat pracuje
dla Googla
i on gdzieś
rozpoczął
projekty, które
no ostatecznie dały
nam Talkbacka
i nie tylko,
też jak ktoś pamięta
te pierwsze takie,
pierwszy ekran
początkowy Ice Free Shell
na pierwszych
Androidach, czy
Chrome Voxa, on chyba
też ten projekt
rozpoczął, więc no
wiele rzeczy zrobił
IMAXpeak, co ciekawe
cały czas się rozwija,
to jest, no
czytnik ekranu
tego środowiska, który
ma też kilka
ciekawych funkcji,
no między innymi
integruje się z
wieloma tymi
dodatkowymi narzędziami,
ale też ma funkcje,
które pozwalają nam
na przykład
czytanie o
wcięć, czy
podświetlonych
sekcji tekstu, no bo
wiadomo tutaj często
pracujemy z kodem
źródłowym, innymi
głosami, żeby nam
było łatwiej je
odróżnić, może
nas informować o
jakiś błędach na bieżąco,
trochę tak jak
Visual Studio Code
teraz, chociaż
IMAXpeak zrobił to
pierwszy, no to jest
takie narzędzie,
którego jeśli ktoś
się nauczy, bo to jest
bardzo specyficzne
narzędzie, no to
takie osoby bardzo
sobie to cenią,
natomiast to też
było coś, co
zdecydowanie łatwiej
było sobie skonfigurować
na Linuxie, wiadomo,
ewentualnie na Macu.
No i teraz
okazuje się, że
powstał jeszcze
teraz serwer
syntezy mowy
na Windowsa, bo
na tej zasadzie
działa IMAXpeak,
samo środowisko
wymaga też serwerów
mowy, no i
każdy system
operacyjny, czy nawet
każdy syntezator ma
taki dedykowany
serwer, więc na
przykład mamy właśnie
serwer do EasePeak,
serwer do Eloquence,
żeby właśnie te
wszystkie dodatkowe
funkcje działały.
No i teraz ktoś zrobił
taki serwer dla
głosów na
system Windows.
Serwer nazywa się
SharpWin.
Znajdziecie link
do GitHuba.
No i w
dokumentacji mamy
informację, jak sobie
tego IMAXpeaka
ściągnąć, jak sobie
ściągnąć ten serwer
odpowiednio i to
wszystko skonfigurować
tak, żeby ten
IMAXpeak nawet na
Windowsie, bez potrzeby
instalacji jakichś
wirtualnych Linuxów,
czy tego typu rzeczy
do nas przemówił.
Także jeśli
ktoś szuka
takiego
bardzo dostępnego
edytora do
kodu i nie tylko,
no zdecydowanie
nie tylko,
chciał się
tym pobawić, ale
nie chciał
instalować
gdzieś Linuxa,
no to mamy
taki w miarę
ciekawy, łatwy
sposób, żeby to
zrobić.
No, serwer jest
dosyć nowy, bo
pojawił się kilka
dni temu, natomiast
są informacje,
że prawdopodobnie
będzie cały czas
aktualizowany.
Ma procedura
instalacji być jeszcze
bardziej
uproszczona.
A czym ten
IMAXpeak wtedy
jest w stanie do
nas mówić?
Syntezą jaką mamy
w Windowsie, czy
jak to jest?
To jest dobre
pytanie.
W dokumentacji
jest napisane,
że to jest
skonfigurowane
akurat z głosem
zira
Microsoftu, więc
nie wiem, czy to
mówi SAPI,
czy to mówi
tą platformą
OneCore, czyli
tymi głosami
stricte
Microsoftowymi i
tego nie jestem pewny,
więc może ktoś
to przetestuje, to
możecie dać nam
znać jak to
wygląda.
A IMAXpeak nie
gadał sam z siebie
z SAPI?
Bo ja kiedyś
też się o tym
bawiłem na Windowsie
i tam bez problemu
się SAPI
odezwało, bo jest
IMAXpeak na Windowsie
jako egzek,
pinarka.
A to może teraz
jakiś nowy
serwer
teraz właśnie
powstał, który
gdzieś więcej
opcji
oferuje.
Nie jestem pewny,
przyznaję się, że
IMAXpeakiem próbowałem
się bawić parę lat
temu na Macu i
jak sama mowa
udało się
skonfigurować, no
nauka tego środowiska,
no to wymaga
trochę cierpliwości
i czasu
zdecydowanie,
więc
mniej więcej
mamy
nowe
narzędzie
do tego.
A propos
uproszczenia
instalacji,
no to mamy
nową wersję
Audio Hijacka,
która właśnie
upraszcza
proces instalacji
tej aplikacji,
co myślę, że
wiele osób
ucieszy.
No bo jeśli czytaliście
artykuł, czy słuchaliście
podcastu,
który przygotowałem
o hijacku,
no to
zdecydowanie
najtrudniejszą
częścią
instalacji
tej aplikacji
jest właśnie cały
proces, który musimy
przejść, no bo
aplikacja, żeby
była w stanie
nam nagrywać dźwięk
całego systemu,
no musiała
się dosyć
głęboko
wgryźć w system
tak zwanym
rozszerzeniem jądra.
W nowych
Macach, w nowych
wersjach macOSa
Apple takie
rzeczy domyślnie
wyłącza.
I żeby je wyłączyć,
no to musieliśmy
uruchomić system
z
takiego narzędzia
odzyskiwania
w trybie recovery
tak zwanym,
w którym to
nie mamy polskiej syntezy,
ale polski język jest,
więc to w ogóle
po polsku się bardzo
ciekawie robi.
Tam trzeba
kilka razy
włączyć
komputer
odpowiednią kombinacją
przycisku.
Później wejść w
odpowiednie narzędzie,
wpisać nasze hasło
kilka razy, zaznaczyć
odpowiednie pole i
dopiero po
instalacji hijacka
tam też musimy przez
kilka ekranów się
przeklikać, żeby to
rozszerzenie nam się
załadowało.
Natomiast
firma tutaj się z
Applem dogadała,
bo w
nowych wersjach
macOSa, konkretnie
tutaj od wersji
14.4
pojawiły się nowe
API, które
w zewnętrznym
aplikacjom znacznie
ułatwiają nagrywanie
dźwięku innych
aplikacji, no i hijack
właśnie z tych
nowych API też
korzysta.
I co za tym idzie,
jeśli mamy właśnie
najnowszą wersję
macOSa i
ściągniemy sobie
aktualizację hijacka
albo po prostu
ściągniemy ją ze
strony producenta,
no to instalacja jest
na tyle prosta,
że
nawet nie musimy
wpisywać
hasła do
komputera.
Po prostu to się
nam samo skonfiguruje.
System nas zapyta,
czy ta aplikacja
będzie ma
dostać uprawienie
do nagrywania
dźwięku z
aplikacji i tylko to
musimy zezwolić, ale
kiedy już to
zrobimy, no to
wszystkie funkcje
hijacka będą nam
działać już bez
potrzeby restartu
systemu, przeklikiwania
się przez kilka
okienek ostrzeżeń,
więc myślę, że to
wiele osób
ucieszy.
Zresztą podobnie
jest z innymi
aplikacjami tej
firmy, bo na przykład
też taka prosta
aplikacja do
nagrywania piezo
też już taką
aktualizację dostała,
ona zresztą była
pierwsza.
Podobną aplikację
dostał AirFoil
i ostatni został
jeszcze wirtualny
kabel od
Rogue Amoeba
Loopback, który
na razie jeszcze
takiej aktualizacji
nie dostał, natomiast
tutaj Rogue Amoeba
obiecuje, że to się
też niebawem stanie i
tutaj też nie będziemy
już tego
rozszerzenia
potrzebować.
Natomiast jeśli ktoś
z tego czy innego
powodu korzysta
ze starszej wersji
systemu,
no to
teraz w przypadku
audio hijacka
on będzie dostępny
w dwóch gałęziach.
Dla osób, które
właśnie mają
najnowszego macOSa
będzie dostępny
audio hijack 4.4
i aplikacja nam
automatycznie wykryje,
wewnątrz aplikacji
sprawdzimy, czy są
dostępne aktualizacje,
jeśli mamy na tyle
nowy system, no to
nam automatycznie
zaoferuje pobranie
tej najnowszej wersji.
A gdybyśmy mieli
starszą wersję
macOSa
do tam nawet
chyba w macOSa 11,
więc no tutaj
kilka lat
wstecz cały czas
jest system
wspierany.
No to będą
następne aktualizacje
audio hijacka
4.3,
które cały czas będą
jakieś nowe funkcje,
które do aplikacji
się pojawią.
No będą wprowadzać
bez tej nowości,
natomiast to po prostu
będzie jako
osobna gałąź
i też jeśli będziemy
aplikacje ze strony
producenta pobierać,
no to też musimy
zwrócić uwagę na to,
którą wersję
pobieramy,
żeby,
jeśli mamy najnowszą
wersję systemu,
no to ostrzegłmy sobie
po prostu tą wersję
najnowszą, a jeśli nie,
no to tą wersję
z gałęzi
4.3.
A propos
aktualizacji
i a propos dźwięku,
no to pojawiła się
również aktualizacja
TeamTalka,
którego myślę, że
nie trzeba
przedstawiać.
To jest bardzo popularna
wśród osób niewidomych
aplikacja do komunikacji
głównie głosowej,
natomiast też możemy
oczywiście w
TeamTalku czatować,
wysyłać pliki,
no ale ona generalnie
jest znana z tego,
że oferuje nam
bardzo dobrą jakość
dźwięku
w miarę
prosty sposób.
No i jak widać
TeamTalk cały czas
ma się dobrze
i się cały czas rozwija.
I
pojawiła się
jego kolejna wersja,
która
przynosi
całkiem sporo
aktualizacji,
zwłaszcza jeśli chodzi o
wersję komputerową
jak i
na Androidzie.
Jeśli chodzi o
aplikację
komputerową
na podstawie
tego systemu
Qt, czyli
Windows, Mac, Linux,
no to
na
ekranie,
na zakładce pliki
oraz na liście
konto użytkownika
informacje o datach
i godzinach będą
wyświetlane w formacie
naszego systemu.
Wiadomość serwera
będzie, może nam
się wyświetlać
na ekranie powitanym,
kiedy połączymy się
z serwerem.
Aplikacja może nam
podawać nazwę serwera
podczas niektórych
zdarzeń TTS, no bo
w TeamTalka możemy
sobie otworzyć
kilka razy, mieć kilka
profili skonfigurowanych,
więc jeśli mamy,
jesteśmy połączeni
z kilkoma serwerami,
to możemy teraz
aplikację tak skonfigurować,
żeby nam synteza
mówiła na jakim
serwerze coś się stało.
Może nam się na liście
kanałów wyświetlać
temat kanałów.
Na Linuxie
aplikacja automatycznie
będzie nam prosić
o dostępność
w systemie.
Informacje o naszej
płci będzie zapisywana
w plikach .tt,
jeśli taki plik
sobie eksportujemy
i ustawiliśmy
konkretną płeć.
Sortowanie według
rozmiaru na liście plików
powinno działać.
Mamy aktualizację
kodeka Opus
do wersji 1.5.1,
więc to jest chyba
ta najnowsza wersja,
która ma te nowe
funkcje oparte
o sztuczną inteligencję,
które…
Tak, ale chyba nie
w TeamTalku.
Tak? Tam jeszcze
to nie zostało włączone?
Nie,
znaczy z tego co wiem,
to nie, to zdaje się
Patryk chyba testował
i podobno to nie
jest tak prosto
to włączyć, ponieważ
podobno tutaj
jest absolutnie
niesprawdzona informacja,
deweloper nie
zaimplementował tego
w taki sposób jakby
chciał to robić
Opus,
znaczy twórca Opusa
i Opus w związku z tym
jakby nie bardzo ma
dostęp do tego,
co już wcześniej
wygenerował i nie może
sobie w związku z tym
podobno…
no bo
ta…
ojej, coś nie mogę
się wysłowić,
ale podobno to
ta poprawa
może nie to, że jakości,
ale…
Wydajności.
Do wydajności powiedzmy.
Bazuje na jakichś
tych poprzednich informacjach,
które już były.
Podobno Opus
w TeamTalku nie bardzo
ma do tego dostęp
w związku z czym
nie bardzo ma
co z tym
i nie bardzo ma z czego
robić cokolwiek.
No nie może się odwołać
do tego po prostu.
Tak, nie może się odwołać,
natomiast no to jest
tak jak mówię,
informacja absolutnie
nie sprawdzona,
więc no
nie wiem,
być może sprawdzi Wam,
być może nie.
Myślę, że też warto
może na repozytorium
TeamTalka
temat poruszyć,
bo myślę, że to było
powiedzieć warto
zaimplementowania,
natomiast no jeśli
faktycznie tak jest,
no to akurat z tego
nie skorzystamy,
ale no Opus jakoś
mimo wszystko
został
zaktualizowany.
Tak samo jak wersja
biblioteki Qt
do wersji 6.70,
która na Windowsie
i Macu,
która nam generalnie
po prostu powinna
poprawić stabilność
i dostępność
tej aplikacji.
Na Androidzie
też mamy kilka
aktualizacji.
Administratorzy
mogą wysyłać,
ładować pliki
nawet do kanałów,
w których akurat
nie są.
Możemy przenosić
użytkowników
do głównego kanału
na serwerze.
Jeśli naciśniemy
przycisk wstecz,
no to zanim
TeamTalk nam się
rozłączy z serwera,
to zostaniemy najpierw
przeniesieni na
zakładkę kanały.
Tak samo
naciśnięcie przycisku
wstecz
wyświetli nam
główny kanał.
Będziemy mogli
wypromować kogoś
jako operator kanału
z menu kontekstowego
na użytkownikach.
Subskrypcje
na przechwycenie
dźwięku
dla innych
użytkowników,
dla administratorów.
I tutaj też mamy
aktualizację kodeka
Opus
i
mamy kilka poprawek
błędów.
Aplikacja się wysypywała
kiedy wchodziliśmy
do ustawień syntezmowych,
to już jest
naprawione
oraz kiedy
aktualizujemy
wiadomości tekstowe.
iOS
na iOS
tak naprawdę
jedyną aktualizacją
jest uaktualnienie
kodeka Opus
do najnowszej wersji,
natomiast
no tak jak
rozmawialiśmy
nie wiadomo ile
to nam
tak naprawdę
przyniesie,
natomiast to jest
jedyna zmiana
w przykładku
TeamTalka
na iOS.
I na koniec
aplikacja
mobilna.
Aplikacja
darmowa,
nawet otwarto-źródłowa
na zarówno
iOSa i Androida,
której autor zwrócił się
do
akurat społeczności
na AppleVisie
o sprawdzenie
jej dostępności,
bo ostatnio
nad nią pracował.
Aplikacja do
podcastów.
Anytime Podcast
jest
zastępna zarówno
na App Store,
jak i
przypuszczam w sklepie Play.
No i tutaj autor
obiecuje, że
powinna być
dostępna.
Aplikacja ma
wszystkie funkcje,
które powinien mieć
taki klient
do podcastów.
Możemy sobie
regulować prędkość,
możemy pobierać
odcinki,
oczywiście możemy
subskrybować podcasty.
No i mamy też
kilka funkcji
związanych stricte
tak zwanym
systemem
Podcasting 2.0.
Są takie rozszerzenia,
które mogą
administratorzy
zaimplementować,
między innymi
rozdziały i transkrypty.
Natomiast
te rozdziały
są zaimplementowane
w inny sposób
niż to,
jak na przykład
robimy to
my, czy inne podcasty.
To nie jest jakoś
na aplikacjach MP3,
tylko to jest jakoś
na kanale RSS
zrobione.
Przez co
niestety
z teflopodcastem
tutaj
nawigacja po rozdziałach
nie działa.
Jeśli chodzi
o
dostępność
tej aplikacji,
no to
ona dostępna
jest,
natomiast czy to jest
wygodna dostępność
to tu bym się
zastanawiał,
bo
no nie mamy
czynności.
To po pierwsze,
więc na liście
koło każdego
odcinka będziemy
widzieli
no oprócz samego,
samej nazwy
i czasu trwania,
no to przycisk
pobierz,
przycisk otwórz,
przycisk więcej opcji
i chyba coś jeszcze,
teraz nie przypomniałem
sobie, natomiast
no trzeba się trochę
pomachać
gestami, żeby
po tych odcinkach
przejść.
Po drugie,
no te etykiety
na niektórych
przyciskach są
dosyć długie,
no wracając tutaj
do tematu
listy odcinków,
no to na przykład
dany odcinek
może być
czytany
w sposób taki
element listy
odcinków,
obrazek,
okładka,
tyfo, przegląd,
odcinek 227,
więc no za każdym
razem będziemy słyszeć
element na liście
odcinków.
No wygodne to
nie jest,
no dostępne
tak jak najbardziej
jest,
natomiast
gest dwukrotnego
stuknięcia dwoma
palcami
jak najbardziej działa
na ekranie odtwarzania.
Możemy sobie
suwakiem
regulować,
przeskakiwać
po podcaście
prędkość.
Też
możemy sobie
uregulować,
natomiast na przykład
gest potarcia,
żeby wyjść z danego
ekranu działa
różnie,
no bo kiedy sobie
zmaksymalizujemy
ekran
odtwarzania,
no to ten gest
nam nie zadziała,
żeby z niego wyjść,
natomiast jeśli na przykład
otworzymy sobie menu
zmiany prędkości
odtwarzania,
no to ten gest tam
działa,
no natomiast
fajnie, że
kolejny
autor postanowił
zadbać o dostępność,
natomiast faktycznie
to jest aplikacja,
w której
myślę, że kilka
zmian
by się przydało,
nie wiem tutaj
jakie środowisko
zostało wykorzystane,
żeby tą aplikację
stworzyć,
no bo jest dostępna
zarówno na iPhone
i Androidzie,
więc nie wiem,
czy tutaj by się dało
czynności zrobić,
jeśli tak,
no to myślę,
że one by się przydały,
ale nawet jeśli nie,
no to chociaż gdzieś
skrócenie trochę
tych etykiet,
zwłaszcza na listach
odcinków,
no to jak najbardziej
by się przydało,
natomiast jeśli
szukacie
jakiejś
darmowej aplikacji,
jakiejś
alternatywy może
dla oficjalnej aplikacji
podcastów
Apple,
no to mamy
kolejną alternatywę,
znajdziecie link
do wątku
na AppleWizji,
tam już będzie link
do App Store’a,
a też możecie sobie
po prostu, czy właśnie
na App Store’ze,
czy w sklepie Play
Anetime
Podcasts
możecie sobie
wpisać
i tą
aplikację
wyszukać.
No i to wszystko ode mnie.
I to wszystko,
jeżeli chodzi o
Tyflowieści,
ale to nie wszystko,
jeżeli chodzi o dzisiejszy
cyfrowy przegląd.
Tak naprawdę to jeszcze
nie koniec.
I tutaj pierwszy
podcast.
Tomku, Tomku,
czy mnie słychać?
Słychać wiem,
bo jeszcze…
Teraz już tak.
Okej, no to super,
bo to nie wszystko,
jeżeli chodzi o Tyflowieści
jeszcze tak naprawdę,
a to dzięki
naszym
słuchaczom,
tym razem
Fundacja
Misja i Rozwój,
czyli Fundacja Mir
się do nas odezwała,
przedstawiciel
tej fundacji
i pisze do nas tak.
Dobry wieczór,
warto zachęcić
słuchaczy
do zagłosowania
na dwa projekty
w finałowym głosowaniu
w konkursie
Solve for Tomorrow,
które są
dedykowane osobom
z
niepełnosprawnościami.
I tu jest link
do artykułu
na stronie
Fundacji Mir.
Ja sobie pozwolę
ten tekst
przeczytać,
żebyście wiedzieli
o co tu
właściwie chodzi,
do czego nas
zachęcają.
Dobiega końca
trzecia edycja
programu
Solve for Tomorrow.
Laureaci
zostaną wyłonieni
podczas finałowych
prezentacji
projektów
na Demo Day.
O miejsce
na podium
lub wyróżnienie
zawalczy
12 finałowych
drużyn.
Jednak już teraz
można oddawać głosy
na nasze ulubione
zespoły
na stronie programu.
Drużyna
z największą
liczbą głosów
otrzyma
nagrodę publiczności.
Solve for Tomorrow
to jedyny
w swoim rodzaju program,
w ramach którego
młodzi ludzie
mierzą się
z aktualnymi
wyzwaniami
naszego
obecnego
XXI wieku.
Zespoły
młodzieży
składające się
z uczniów
ze szkół
ponadpodstawowych
przez kilka miesięcy
pracowały nad
nieszablonowymi
rozwiązaniami
i aplikacjami
z obszarów
zdrowia,
bezpieczeństwa,
klimatu
i integracji.
Do etapu
finałowego
dostało się
12 zespołów
z całej Polski.
To właśnie oni
czekają teraz
na głosy kolegów
i koleżanek
ze szkoły,
nauczycieli
i nauczycielek,
znajomych,
sąsiadów
oraz lokalnych
społeczności.
Zespół z
największą
liczbą głosów
już 16 kwietnia
podczas gali
finałowej
otrzyma
nagrodę
publiczności.
My ze zrozumiałych
względów
rekomendujemy
Państwu dwa
projekty
dedykowane
osobom z
niepełnosprawnościami
i zarazem
zachęcamy
do głosowania
na nie.
I tu mamy opis
tych projektów.
Safe
bus stop
bezpieczne
oczekiwanie
na autobus.
To jest pierwszy
ten projekt
i to jest projekt
uczniów liceum
ogólnokształcącego
konkretnie
trzeciego
w Piotrkowie
Trybunalskim.
W skład
zespołu
pod opieką
Dariusza
Baliszewskiego
weszli
Antoni Karbowiak,
Kamil
Patury,
Jan Wira
i Bartosz
Balcerzyk.
Celem zespołu
jest zwiększenie
użyteczności
i poprawa
bezpieczeństwa
komunikacji
publicznej.
Projekt zakłada
dostosowanie
przystanków
dla osób
z ograniczoną
mobilnością
tak by stały
się komfortowym
miejscem
oczekiwania
na środek
transportu
z uwzględnieniem
lepszego oświetlenia
czy czytelnych
informacji
o rozkładach
jazdy,
a także
minimalnym
wpływem
na środowisko
dzięki zastosowaniu
innowacji
ekologicznych.
No i mamy
drugi projekt.
Tym razem
jest to projekt
inkluzji
odkryj miasto
bez barier.
Władysław
Buriaczok,
Hubert
Bielecki,
Gabriel
Bajsarowicz,
Szymon
Biały
to z kolei
team z zespołu
szkół technicznych
i ogólnokształcących
imienia
Stefana
Banacha
w Jarosławiu,
który pod kierownictwem
Piotra Medera
pracował nad
projektem
inkluzji.
Projekt zakłada
eliminację
przeszkód
w miejskich
przestrzeniach
dla osób
z niepełnosprawnościami
ruchowymi.
W tym celu
powstanie aplikacja
nawigacyjna,
która będzie
tworzyć
spersonalizowane
trasy
oraz informować
o dostępności
miejsc publicznych.
Dodatkowo umożliwi
zgłaszanie
na potkanych
przeszkód
i dzielenie się
doświadczeniami
z podróży.
Projekt będzie
inspiracją
dla długoterminowych
zmian w
infrastrukturze
miejskiej.
Głosowanie na
finalistów
trwa.
Na zespoły
można głosować
na stronie
www.solvefortomorow.pl
No i tu jest jeszcze
link
ukośnik
głosowanie
3
do 14 kwietnia.
To ja proponuję
sobie po prostu
wejść.
Albo jest
ta
informacja
cała, którą
czytałem na stronie
mir.org.pl
albo po prostu
wejść sobie od razu na
stronę
www.solvefortomorow.pl
www.solvefortomorow.pl
www.solvefortomorow.pl
www.solvefortomorow.pl
www.solvefortomorow.pl
i tam znajdziecie
pewnie link
do głosowania.
I głosować
można do 14 kwietnia
do godziny
23.59.
Program
Solve for Tomorrow
został objęty
patronatem
przez
ministra edukacji
i nauki
ministra cyfryzacji
naukową
i akademicką
sieć komputerową
Narodowy Fundusz
Ochrony Środowiska
i Gospodarki
Wodnej
Centrum Nauki
Kopernik oraz
UNEP
Grid Warszawa.
Partnerem
programu jest
stowarzyszenie
Cyfrowy
Dialog.
Źródło
tej informacji
to jest
biuro prasowe
Samsunga.
Czy przypadkiem
w tym projekcie
ale
w edycji
drugiej
nie brał
udziału
podcast
Jabłonkowy Podcasty
z Lasek?
To chyba
jakaś bardzo podobna
inicjatywa
jeżeli właśnie nie ta.
Nie wiem czy pamiętacie.
Nie pamiętam
szczerze mówiąc.
W każdym razie
no to jest taka informacja
rzeczywiście myślę, że
oddać głos
warto, bo to zawsze
jakieś projekty
które
przynajmniej
jeżeli nawet nie zostaną
jakoś
wdrożone
na pełną skalę
to przynajmniej
młodych
ludzi
zachęcą do tego
no żeby pomyśleć
o
chociażby właśnie
jakichś osobach
ze szczególnymi
potrzebami
z różnego rodzaju
niepełnosprawnościami.
Zawsze to
od najmłodszych lat
jednak zwiększa
wrażliwość
na
tego typu
problemy
i myślę, że to jest
największa
wartość
dodana takich działań.
To się zgadza.
No to co
przechodzimy w takim razie
do technikaliów.
Mamy kilka
wniosków
w tym
w tym wnioskowa
który już poniekąd
został tutaj
też przez
słuchacza.
Przez słuchacza
tutaj
jakoś tam
nadmienione
że tak powiem
ale zaczynamy
od wniosa chyba mojego
czyli na temat
modelu językowego
polskiego
który się pojawił
jakoś bardzo niedawno
dosłownie chyba
na dniach
nazywa się
Bielik
i zdaje się, że to jest
w ogóle taki model językowy
który można pobrać
na swój komputer
i użyć u siebie.
To jest model
typu
zdaje się 7B
czyli wydaje mi się
choć nie jestem pewien
że na takich kartach
graficznych
które ma 8 giga
tej pamięci graficznej
można go uruchomić.
Ja go uruchomiłem
na razie
w
tej przestrzeni
Hugging Face’owej
czyli tam
w tym takim miejscu
gdzie można
testować
różnego rodzaju modele.
Jest ich przestrzeni
bardzo dużo
różnych
no i jest
między innymi
ten Bielik
i tam mu wpisałem kilka rzeczy
kazałem mu przetłumaczyć
coś z angielskiego
na polski
jak było napisane
tam
jak twórcy pisali
no
model
był trenowany
podobno na półtora
terabajta
różnych materiałów
pewnie tekstowych
ale to strasznie dużo
w każdym razie
podobno udało się
pozyskać tyle materiału
była tam
podobno jakaś
też weryfikacja
tego tekstu
natomiast
ten model
jest dość mały
więc nie jest
możliwy do uruchomienia
lokalnie
no i tak
z tego co
udało mi się
gdzieś tam przetestować
no to
jeżeli chodzi o
jakość pisania
to naprawdę
nie jest najgorzej
on ładnie pisze
w miarę
natomiast
jeżeli chodzi o
samą wiedzę
którą posiada
no to
bardzo słabo
ja oczywiście
się zapytałem
ja się go zapytałem
czy wiesz czym jest
complete control
no i teraz
i teraz
jak mu napisał
czy wiesz czym jest
complete control
no to on napisał, że tak
complete control
to termin używany
w marketingu
jest to strategia
reklamowa
polegająca na wykorzystaniu
wszystkich możliwych
kanałów komunikacji
z potencjalnymi
klientami
obejmuje ona
tradycyjne media
prasę, radio, telewizję
oraz nowoczesne platformy
strony internetowe
social media
emailing
itd.
Celem
complete control
jest dotarcie
do jak największej
liczby osób
z przekazem marketingowym
i zbudowalnej
silnej marky
przez Y
na końcu
poprzez spójny przekaz
we wszystkich
kanałach
także
język jak widać
jest całkiem
ok
nie ma
takich większych
lapsusów
oprócz tego Y
na końcu
w marki
natomiast
no
gorzej trochę
z treścią
tego przekazu
natomiast
próbowałem też
mu przetłumaczyć
kilka rzeczy
z angielskiego na polski
ponieważ
jest napisane, że
ten model
umie język
angielski i polski
no i
tłumaczenie
różnie to bywa
to znaczy
czasami jest
nieźle
czasami
on sobie
dopowiada w ogóle
coś, czego nie było
w oryginalnym tekście
na przykład
próbowałem
przetłumaczyć
kawałek
książki
Agatę Christie
no to
rzeczywiście
w ogóle
zmyślał tam sobie
coś
to miało jakiś
sens
ale rzeczywiście
zmyślał
dużo rzeczy
no i
próbowałem
potem jeszcze
przetłumaczyć
jakiś
chyba ten
fragment
mówiony
co
Narecha
tam
Wewalk
chyba
no to też tak
powiedzmy
to tak w miarę
przetłumaczył
ale trochę streścił
laskę nazwał
długopisem
sześciobocznym
zresztą
nie wiem czemu
gdy była mowa
że
jest
o laskach
składanych
które mają w środku
sznurek
no to
on
przetłumaczył, że
to ma w środku
nitkę
więc to są takie
różne rzeczy
no właśnie
czasami też
zmieniał
niestety trochę
znaczenie
typu, że
jest tam
na samym
początku
ten
przedstawiciel
mówił, że
jesteśmy
firmą
złożoną
z osób niewidomych
i robimy
coś dla naszej
społeczności
no to
on chyba
przetłumaczył, że
jesteśmy
firmą
która robi
coś dla ludzi
niewidomych
którzy
którzy
coś robią
dla swojej
społeczności
jakoś tak
w każdym razie
no zmienił
znaczenie w ogóle
tego
tego co
mówi
więc jakby
no
pisze ładnie, ale
nie zawsze
wiadomo
znaczy nie zawsze
nie zawsze
trzyma się
tematu tego
o czym ma tak
naprawdę
pisać
czyli na razie ten
bielik dość nisko
lata
tak
choć
rzeczywiście
to znaczy
lata
dość nisko
choć z drugiej strony
rzeczywiście
to już nie jest
to już nie jest coś co
mówi jakieś dziwne rzeczy
w sensie
to przynajmniej
ładnie układa
zdania
bo z tego
co tak patrzyłem
jakieś kilka modeli
właśnie takich
takich
lamowych
jakichś
7b
to po polsku
to rzeczywiście
brzmiało jak
tłumaczenie
maszynowe
to już
przynajmniej nie
brzmi jak
tłumaczenie
maszynowe
no i
jakoś tam
stara się
wykonywać
wydaje mi się
że rozumie o co
chodzi w poleceniach
znaczy no
rzeczywiście jak
mówi się mu
tłumacz no to
tłumaczy
jak mówi mu się
napisz o czymś
no to pisze o czymś
tylko, że czasami
lubi sobie polecieć
gdzieś tam
gdzieś tam
gdzieś tam
i wtedy
i wtedy się
zaczyna problem
natomiast to
widać, że to
zmiesza w jakąś
jakąś tam
stronę taką
no czegoś
co ma jakiś
sens
natomiast
no
nadal trudno to
uważać za
coś takie
że
no
czy tu jest jakiś
efekt wow
no to
to nie wiem
ale
ale jakoś to działa
także tyle
jeżeli chodzi o
ja mam w ogóle
tutaj
zoom mi tutaj
komunikaty jakieś
daje, że połączenie
internetowe jest
niestabilne
słyszać się dobrze
ale jeżeli słychać
dobrze no to
no to dobrze
jest okej
ja tu mam jeden
komentarz
a właściwie jedno pytanie
od naszego
słuchacza
Matiusa
czy pojawiła się
gra
Corruption of
Champions
i to
wersja
druga
Piotrze
coś wiesz
na ten temat
nie
niestety
to przechodzimy
do newsa
zresztą newsa Piotrka
bo
Google ulepsza
odnajdowanie
urządzeń z
Androidem
dokładnie
no bo
bardzo podobnie
jak to
mamy do czynienia
na
iPhone
jesteśmy w stanie
gdyby
była taka sytuacja
że nasz telefon
z Androidem zgubimy
go
sobie
zdokalizować
na mapie
zablokować
żeby osoba
która gdzieś tam
telefon
może
podniosła
żeby widziała
że telefon jest
w trybie zagubionym
żeby nie miała
dostępu do naszych
danych
natomiast żeby mogła
w sytuacji
po prostu
np.
do nas zadzwonić
możemy jakąś informację
wyświetlić
natomiast
Apple
w swojej
wersji tej
usługi
poszło o krok
dalej dlatego że
na iPhone
iPhone’a możemy
zlokalizować
nie tylko wtedy
kiedy on
ma połączenie
z siecią
ale od
kilku lat
nawet w sytuacji
kiedy tego
połączenia
nie ma
bo
iPhone’y
nawet jeśli
właśnie nie mają
dostępu do sieci
nawet kiedy są
wyłączone
to mimo wszystko
co jakiś czas
wysyłają sygnał
poprzez właśnie
bluetooth low energy
czyli właśnie
bluetooth
niskiego użycia
energii
i jeśli jakieś
inne urządzenie
jakiś inny iPhone
czy Mac jest w okolicy
to po prostu ten sygnał
odbiera i w ten sposób
takie anonimowe dane
są wysyłane
na serwery Apple
no i
dzięki temu
Apple jest w stanie
naszego iPhone’a
zlokalizować
nawet jeśli jest
wyłączone
zresztą nie tylko
iPhone’a bo podobnie
działają też
nowe Mac’i
czy oczywiście
lokalizatory AirTag
które
w ten sposób
możemy lokalizować
no właściwie
no wszędzie
gdzie ktoś
ma
iPhone’a
i Google
szykuje się
do tego żeby
wprowadzić
coś podobnego
na początek
będzie to coś
co jest dostępne
tylko w Stanach
i w Kanadzie
natomiast
finalnie ma to
być dostępne
na całym
świecie
no i
idealna działania
będzie
bardzo podobna
no bo nawet jeśli
nasz telefon z Android’em
nie ma połączenia
z internetem
no to używając
modułu Bluetooth
będzie też właśnie
podobnie sygnał
co jakiś czas
wysyłać
no i jeśli będzie
w pobliżu jakiś
zaktualizowany
telefon z Android’em
a funkcja ma być
dostępna nawet
od Android’a 9
więc tutaj jest powiedziane
że to może być nawet
miliard urządzeń
na pewno myślę że
kilkadziesiąt jak nie
kilkaset milionów
urządzeń
będzie w stanie
w tym uczestniczyć
no to znów
tutaj też
jakiś inny telefon
może taki sygnał
odebrać
przesłać odpowiednią
informację na serwery
Google
no i dzięki temu
nasze urządzenie
będzie w stanie
być w ten sposób
lokalizowane
nowsze
telefony z Android’em
które pewnie
dopiero dziś będą
powstawać
to się zacznie
od Pixela 8
i 8 Pro
podobnie jak
iPhone’y
będą też w stanie
takie sygnały
wysyłać
nawet jeśli ten
telefon został
wyłączony
lub się rozładował
co jakiś czas
więc na razie
to jest niestety
tylko w Pixela’a
które no u nas
nie są bardzo
popularne
bo nawet nie są
sprzedawane
natomiast jeśli
taka funkcja się
w Pixela’ach
pojawiła wcale nie zdziwię się
jeśli niedługo
też inne telefony
z Android’em
czy Samsung’i
czy telefony
innych firm
też za jakiś czas
będą być w stanie
zlokalizowane
nawet jeśli zostały
np. przez złodzieja
wyłączone
także myślę, że to
się na pewno przyda
no i oprócz
smartfonów
będziemy też w stanie
inne przedmioty
lokalizować
bo
Google planuje
też to
rozszerzyć
na lokalizatory
bluetooth
czyli podobne urządzenia
jak
AirTag’i
na początek
to będą urządzenia
marek
Chipolo
oraz
Pebble’ki
szczerze mówiąc
nie słyszałem
ani o jednym
ani o drugim
natomiast to
będzie też
rozszerzane
na lokalizatory
innych firm
tutaj np. jest Motorola
wspomniana
ale też wiele
innych
firm
Yufee
Jio
Motorola
i wiele innych
czyli tutaj pewnie też
z czasem takich urządzeń
które będą kompatybilne
z tą siecią
Google
to nazywa
po prostu jako sieć
Find my device
czyli po polsku
po prostu
znajdź moje urządzenie
no pewnie takich urządzeń
będzie stopniowo
pojawiać się więcej
no i tutaj znów
no przez to że
jednak trochę
urządzeń z Androidem
na świecie
czy zwłaszcza w Polsce jest
no to dzięki temu
no będziemy w stanie
nasze klucze
czy walizki
portfela
zlokalizować
nawet jeśli
akurat nie korzystamy z
Iphone’a
ale zdecydujemy się na właśnie urządzenie
kompatybilne
z tą siecią
no to będziemy w stanie
je zlokalizować
no i na koniec Google
I w Polsce może to działać
nawet lepiej
lepiej
niż to co oferuje Apple
ze względu na
większe nasycenie
zagęszczenie
tak
zagęszczenie
rynku
właśnie telefonów
z Androidem
no i to pewnie
też podobnie
będzie to w wielu
innych krajach
natomiast Google
jeszcze planuje dodać
jedną funkcję
a mianowicie
tutaj kolejna rzecz
która właśnie na
AirTagach jest
to lokalizowanie
urządzeń
które po prostu
są w pobliżu
czyli tutaj
to co właśnie opisywałem
przed chwilą w przypadku
aplikacji
Seeing AI
i nawiązałem do tego
jak to działa
w przypadku AirTagów
no takie urządzenia
mogą mieć
dedykowane
czipy
które pozwolą nam
co do metra
nawet
dany przedmiot
zlokalizować
i telefon po prostu
nas będzie
sygnałami zarówno
graficznymi, dźwiękowymi
no i pewnie dla
czecniku ekranu
to będą jakieś
komunikaty mową
po prostu będzie w stanie
powiedzieć że na przykład
przedmiot jest
parę metrów
po prawej stronie
po lewej
i tak dalej
i tak po prostu
nas precyzyjnie
naprowadzić
do danego urządzenia
no także myślę
że jeśli korzystacie
z telefonu
z Androidem
to jest na co czekać
no na razie niestety
te rozszerzone funkcje
są dostępne
tylko w Ameryce Północnej
natomiast pewnie w najbliższych
miesiącach
to będzie stopniowo
rozszerzone
zresztą Google
samo napisało
że to finalnie ma być
dostępne na całym świecie
a jak już wspominaliśmy
no trochę
urządzeń z Androidem
w rynku
czy na świecie
nawet jest
więc myślę że to
będzie na pewno
przytętne
No i okazuje się
że z moją pamięcią
wcale nie jest jeszcze
aż tak najgorzej
bo Fundacja Mir
potwierdza
tak Jabłonkowy Podcast
brał udział
w Solve for Tomorrow
i chyba stanęli
na podium
to jest konkurs
który zyskuje
coraz większy
prestiż
I bardzo dobrze
mieć rzeczywiście
kogoś
kto na takim podium
staje
od nas
No to tak a propos
być może tworzenia
podcastów
jeżeli ktoś by chciał
tworzyć podcasty
no to przydałoby się
zapewne
jakieś
narzędzie
które by
pozwoliło
w jakiś sposób
na
no to żeby
troszeczkę poprawić
dźwięk z naszego
mikrofonu
no bo ok niektórzy
mają ten mikrofon
dobry ale inni
nie bardzo
No i oczywiście
takie narzędzia są
czasami za darmo
czasami nie
i dzisiaj właśnie
chciałbym też
powiedzieć o kilku
darmowych narzędziach
w zasadzie dwóch
które się
nie wiem czy teraz
pojawiły ale to chyba
są dosyć świeże
kwestie
pierwsze
nazywa się
Deep Filter
Net
i jest dużo
prostsze do
zainstalowania i
użycia
drugie jest
znacznie bardziej
skomplikowane
mi się na przykład
nie udało
tego zainstalować
choć potem jak
przeszukywałem internet
gdzieś tam
pojawiła się
informacja że
jest problem
z zainstalowaniem
zależności na
Windows
i trzeba
jakiejś
nowszej wersji
natomiast no
jeszcze nie
próbowałem
jakoś się
z tym tematem
zmierzyć
to drugie narzędzie
też dość
mocno
bazuje na jakiejś
karcie graficznej
więc tam pewnie
sztucznej inteligencji
jest bardzo dużo
zresztą po wynikach
to słychać
dlatego że jest
strona na której
można sobie to narzędzie
przetestować na plikach
do
do
na plikach
długości
do minuty
włącznie
plus można
tam sobie wykupić
jakąś subskrypcję
nawet nie patrzyłem
jak to wygląda
i to narzędzie
drugie nazywa się
Resemble
Resemble
ojej
Resemble
Enhance
AI
chyba jakoś tak
w każdym razie
w każdym razie
mam tutaj
przygotowane
próbki
tych dwóch
narzędzi
niestety troszeczkę
na innym materiale
ponieważ
zacznę może
najpierw od tego
narzędzia
od tego
Deep Filters
i to jest
można
ten Deep Filters
można pobrać
jako plik exe
jako aplikację
natomiast jest to
aplikacja
konsolowa
czyli trzeba wpisać
wyższe polecenie
nazwę tej aplikacji
odstęp
nazwa pliku
Enter
i w tym momencie
czytam ścieżkę
do pliku
i w tym momencie
program zaczyna
zaczyna
przetwarzać nam
ten plik
jest również
Deep Filters
Net
dostępny jako wtyczka
ale niestety
nie VST
tylko
wtyczka
Latspa
więc
zdaje się, że
Audacity
obsługuje ten standard
wtyczek
natomiast Reaper
o ile wiem
ich nie obsługuje
gdzieś tam
wyczytałem w internecie
że są jakieś
adaptery
jakieś takie
które
pozwalają
wtyczki
Latspa
załadować do
programów, które
tego nie umieją
a umieją VST
natomiast
ja się tym na razie
w ogóle nie bawiłem
testuję to chyba
od wczoraj
to już
przedwczoraj
już nie pamiętam
w każdym razie
no
nawet to działa
i tutaj
testowałem to na
audycji
Alivitek
kulinarnej
i
rzeczywiście
no
wtyczka
może zrobić
wrażenie
bo ona polega
mniej więcej na tym
że
to już
jest znane
z discordów
czyli
oddziela
wokal
czyli w zasadzie głos
od
wszelkich odgłosów
tła
oprócz tego
ten głos
jest często
jeżeli jest jakiś
pogłos w nagraniu
to on jest może
nie całkowicie
ale przynajmniej częściowo
jest usuwany
czyli
jeżeli
tutaj mogę sobie
na chwilkę
puścić
no to z cyfro podcast
więc mam nadzieję
że nie będzie żadnych
problemów
tak wygląda
oryginał
jakiś kawałeczek
właśnie kulinarnego
podcastu
torebkę
którą
przynoszę
jako nową
ze sklepu
wkładam do tabliczki
ok
i teraz
to samo
puszczę przez
ten
deepfilters.net
torebkę
którą
przynoszę jako
nową
ze sklepu
wkładam do tabliczki
więc
słychać że
rzeczywiście
ten szelest
torebki
został wycięty
no i
troszeczkę
pogłos
jest mniejszy
i
rzeczywiście
tutaj
bardzo
ten
program
dobrze
mam wrażenie
odseparowuje
to co jest
głosem
od tego co
głosem nie jest
natomiast
oczywiście
nie odbywa się to
bez artefaktów
zresztą
nawet
płatne rozwiązania
tego typu
te artefakty
również
mają
dość
duże
znaczy dość dużo
tych artefaktów
jest
spróbuję jeszcze
pokazać
inny fragment
w którym jest
no ten głos
bardzo zagłuszany
przez
chyba ręka
ten do pieczenia
czy coś
już nie pamiętam
w tej chwili
tutaj stosuje
zasady
bardzo ograniczonego
zaufania
mimo że
mam rękaw
akurat ten
ze wstążką
no właśnie
rękaw
i teraz
Deep Filters
Net
zrobił
w ten sposób
tutaj stosuje
zasady
bardzo ograniczonego
zaufania
mimo że
mam rękaw
akurat ten
ze wstążką
no i
oczywiście
został
wokal
sam
ale no już
tych artefaktów
jest naprawdę dużo
i jakoś się
znacznie pogorszyła
niemniej
rzeczywiście
no
zostawił
rzeczywiście
dość sporo
tego
tego wokalu
a folii
w zasadzie
nie słychać
w ogóle
i nie bulgocze
ten dźwięk
on co prawda
jest obcięty
dość mocno
jeżeli chodzi
o górę
ale nie ma
tego takiego
bulgotu
który kiedyś
przy tych różnych
narzędziach był
obecny
dość często
i tutaj też jest
zrobiłem to w taki sposób
że jest
całkowicie
wycięty ten
te pozostałe
dźwięki
podejrzewam też
że gdyby się je
na przykład troszeczkę
ściszyło
bo tam jest kilka parametrów
dostępnych
tym Deep Filters
to też
mógłby być
znacznie lepszy
rezultat
ja też tutaj
załadowałem do Reapera
dźwięk ten
oryginalny
i dźwięk
przetworzony
zresztą
tu się okazuje
że Deep Filter
ma
mały problem
ponieważ
on
ten dźwięk
opóźniał
kilkadziesiąt
milisekund
więc żeby zrobić
taką pełną
synchronizację
to trzeba się troszeczkę
pobawić
natomiast
no jest szansa
że
nie wiem
mam nadzieję
że to zostanie
poprawione
poza tym właśnie
w samym Deep Filter
jest taki
parametr
który określa
czy ma być
ten szum
usunięty w całości
czy
na przykład
ma być
troszeczkę
zostawionego
tego szumu
i wtedy podejrzewam
że też
rezultat może być
lepszy
taki dla
dla ucha
mogę jeszcze
pokazać
taki mały
fragmencik
gdzie
nie jest
tutaj
za dużo
tych odgłosów
tła
czyli na przykład
jak
tutaj mam
taki moment
taki fragment
więc już
podsumowanie
jest podsumowanie
tego podcastu
gdzie chodzi sobie
chyba piekarnik
czy coś
i tutaj
przepraszam
i tutaj
Alicja
mówi
no o tym
podsumuje
podsumowuje
jeszcze raz
składniki
wymienia to
mniej więcej
więc możemy sobie
chwilkę tutaj
posłuchać
przypomnę wszystkie
składniki
jakich potrzebujemy
więc jest to
filet z piersi
z kurczaka
gdzieś mniej więcej
piętnaście
do dwudziestu
deko
ok
i teraz
wersja
z
Deep Filters
przypomnę wszystkie
składniki
jakich potrzebujemy
więc jest to
filet z piersi
z kurczaka
gdzieś
mniej więcej
piętnaście
do dwudziestu
deko
potrzebujemy
czterech
daktyli
także
myślę, że
nie jest tak
tak gorzej
i naprawdę
ten rezultat
jest nadal
ale mi się
podoba, że
myślę, że
można tego
użyć nieraz
i nie dwa
w jakimś
podcastingu
w jakichś
zastosowaniach
już takich
no bardziej
takich
poważnych
powiedziałbym
i
to jest
ten
Deep Filters
czyli to jest
to
co jest w formie
albo aplikacji
konsolowej
albo wtyczki
Latspa
czyli
w Audacity
można tego
użyć i
naprawdę
zupełnie
za darmo
mieć
naprawdę
rezultat, który
może zrobić wrażenie
nawet na Linuxie
to chyba
z tego co
czytałem
dokumentacji
to można w czasie
rzeczywistym
to sobie wykorzystać
jako redukcję
szumu do
mikrofonu
no to
to by było
rzeczywiście
już
chyba do tego
są te wtyczki
Latspa
chyba właśnie
to takie
typowo
linuksowe
rozwiązanie
tak
to wiem, że to jest
do Linuxa
natomiast nie wiedziałem, że to
w czasie rzeczywistym
też może działać
ale dobrze
mówisz
no być może
są też na Windowsie
jakieś tego typu
rozwiązania
nie wiem
czy na przykład
Equalizer Apo działa
z Latspa
nie wiem
bo wtedy też by można
tego użyć
zapewne
ale nie wiem
natomiast
druga wtyczka jest
no
wygląda
teoretycznie
znacznie bardziej
ciekawie
ponieważ jest to
nie tylko
odszumiacz
ale również
jest to takie
narzędzie
trochę jak Adobe
Podcast
czyli ma
przygłośnić
i ma
ten dźwięk
poprawić
no w takim
sensie, że
na przykład
jeżeli
nie ma
tutaj za dużo
góry
to tę górę
dostanie
jeżeli jest
pogłos
to ten
pogłos
zostanie
usunięty
tam jest w ogóle
kilka parametrów
którymi
można też
to wszystko
troszeczkę
teoretycznie
poprawiać
chociaż
te wszystkie parametry
według mnie
też
inaczej
nie
po pierwsze
nie bawiłem się tym
tak dużo
po drugie
no to też
tutaj jest jakieś demo
które działa
na plikach
właśnie
do długości
minuty
więc też
możliwe, że nie wszystko
odkryłem
ale na razie
no to też jest tak, że
pewnych
błędów
które to ma
nie udało mi się
naprawić
i tutaj z kolei
zrobiłem
bo chciałem
tutaj
też
zrobić
test
na
jakimś
pliku
który
w którym trzeba było
dodać właśnie
wysokich
częstotliwości
więc z poprzedniego
tyflo przeglądu
tutaj wyciąłem
kilka fragmentów
w taki sposób
żeby całość
potrwała te
czterdzieści kilka
sekund
brzmi to mniej więcej
tak
nie wiem czy to nie będzie za cicho
Witajcie Bartek z tej strony
przypomnijcie mi bo akurat miałem telefon
a was słuchałem na facebooku
jest dobrze czy przygłośnić?
jest okej
troszkę jest cicho
ja mam wrażenie, że jest tak
dobrze
bo to potem będzie właśnie
przygłośnione przez ten program
Witajcie Bartek z tej strony
przypomnijcie mi bo akurat miałem telefon
a was słuchałem na facebooku
z Iphona
coś z Whatsappem się dzieje
bo tutaj właśnie
Borys chyba dzwoni
tylko nie usłyszałem konkretnie
o co chodzi
mamy w międzyczasie
tutaj też przeglądałem
media społecznościowe
mamy globalną awarię
usług meta
nie tylko Whatsappa
ale i facebook, instagram
Messengerze mają po prostu
wszystkie ich usługi
problemy
iOS 17
przynajmniej u mnie
przeglądarka Safari
z jakiegoś powodu ma problemy
z odtwarzaniem pewnych
strumień
między innymi
nie można słuchać
przynajmniej ja nie mogę
słuchać
z przeglądarki Safari
z tego takiego
i tu mam na myśli
że problemy są z tymi
playerami
i jak było słychać
na samym końcu
pojawił się jeszcze
dźwięk z Twiscajka
specjalnie go nie
wycinałem
żeby zobaczyć
czy ten
Resemble AI
poradzi sobie
z tym
i teraz ten
Resemble
on działa
na dwuetapowo
pierwszy etap
czy w zasadzie
pierwsza taka wersja
którą on
wyrzuca
to jest tylko
odszumiacz
i zmiana głośności
przy okazji też
monofonizacja sygnału
to znaczy
Deepfilters.net
działa również
z plikami
stereofonicznymi
i to co jest
stereo
no to tam jest
rzeczywiście też stereo
natomiast
ten drugi
program
czy
jak go nazwać
w każdym razie
ten drugi system
wszystko monofonizuje
być może
tam jest jakiś przyłącznik
żeby
zostawił stereo
nie wiem
no w każdym razie
na stronie
w tym demie
które jest
udostępnione
to wszystko
monofonizowane
i teraz głośność
została
znacznie zwiększona
no witajcie
Bartek z tej strony
przypomnijcie mi
bo akurat
miałem telefon
u mnie się nie
przesterowuje
a u was?
też nie
okej
to odtwarzam dalej
słuchałem na Facebooku
z iPhona
coś z Whatsappem
się dzieje
bo tutaj właśnie
Borys chyba dzwoni
tylko nie usłyszałem
konkretnie o co chodzi
mamy
w międzyczasie tutaj też
przeglądałem media
społecznościowe
mamy globalną awarię
usług meta
nie tylko Whatsappa
ale i Facebook
Instagram Messenger
mają po prostu
wszystkie ich usługi
problemy
iOS 17 przynajmniej
u mnie
przeglądarka Safari
z jakiegoś powodu
ma problemy
z odtwarzaniem
pewnych strumień
między innymi
nie można
słuchać
przynajmniej ja nie mogę
złaźć do radia
z przeglądarki Safari
z tego takiego
i tu mam na myśli
że problemy są z tymi playerami
i tutaj część dźwięków
rzeczywiście zniknęła
natomiast
no nie wszystkie
na przykład ten dźwięk
z Twiscake’a
jak najbardziej go
nie słychać
natomiast no
kilka takich szelestów
które się gdzieś tam pojawiały
to one zostały
czyli na tym etapie
otrzumienia
przygłośnienia
no to jakby tam
ten otrzumiesz troszeczkę
pewnie jakoś inaczej działa
no i ten ostatni etap
który ma
już
rzeczywiście
poprawić jakość
samego dźwięku
ma
między innymi też
można powiedzieć
stworzyć coś czego
nie było
czyli dodać wysokich tonów
usunąć pogłosy
usunąć wszelkie inne
dźwięki
i brzmi to
tak
no witajcie
Bartek z tej strony
przypomnijcie mi bo akurat
miałem telefon
a was słuchałem na Facebooku
z iPhona
coś z Whatsappem
co się dzieje
bo tutaj właśnie
Borys chyba dzwoni
tylko nie usłyszałem
konkretnie o co chodzi
Mamy w międzyczasie tutaj też
przeglądałem media społecznościowe
mamy globalną awarię
usług meta
nie tylko Whatsappa
ale i Facebook
Instagram Messenger
że mają po prostu
wszystkie ich usługi
i problemy
iOS na 17
przynajmniej u mnie
przyglądarka Safari
z jakiegoś powodu
ma problemy
z odtwarzaniem pewnych
strumień
między innymi
nie można słuchać
przynajmniej ja nie mogę
słuchać tych z radia
z przeglądarki Safari
z tego takiego
i tu mam na myśli
że problemy są z tymi
playerami
No jak słychać
on teoretycznie dodał
tych wysokich tonów
ale no
też często
zmienia barwę
więc no na to trzeba uważać
rzeczywiście trochę barwę zmienia
ale lepiej
to mam wrażenie
że przynajmniej
w pewnych aspektach
działa od tego
co oferuje Adobe
bo jak
przetworzysz dźwięk
przez ten
filtr Adobe’ego
to trochę takich
to air zwłaszcza
czasem będzie słyszalne
takie jakby
nagle
Polak stał się Amerykaninem
który
tutaj czasami też
ma to miejsce
natomiast mam wrażenie
że tu jest
ale by nie
tu na przykład na tej próbce
to w ogóle tego nie było
działy się przy
tym fragmencie
zwłaszcza u Patryka
jakieś dziwne rzeczy
redukcja szumu była taka
bardzo aktywna
mam wrażenie
że to się działo
przede wszystkim
dlatego że Patryka
było słychać jakoś nierówno
że on od tego mikrofonu
był raz bliżej
raz dalej
w przypadku Bartka
tego nie było
tak
to się zgadza
ale wiecie
oczywiście tu jest
ileś problemów
ja nie wiem na przykład
czy bym tego
kiedykolwiek użył
tego poprawiacza dźwięku
bo to
ten efekt
wow to niby jest
ale w gruncie rzeczy
ja nie wiem czy bym chciał
żeby coś takiego się pojawiało
co zmienia głos komuś
wiesz co
do rozmów telefonicznych
na przykład
jak mamy jakąś taką
jak mamy osobę
którą słychać
no z takiej typowej jakości
telefonicznej
to wydaje mi się
że naprawdę
ma to w niektórych przypadkach sens
oczywiście też zależy
tylko wtedy są
jeszcze większe zniekształcenia
no właśnie zależy
jak on sobie by z tym poradził
testowałem na Recha
i rzeczywiście
jak próbowałem Rechę zrobić
no to tam już oczywiście
zmieniał barwę co chwila
niby nie robił Amerykanina
chociaż czasem robił
bo już naprawdę
miał bardzo dużo problemy
z wychwyceniem
jaki to jest
ten tak zwany fonem
czy jaka głoska
jest tam czasami wypowiedziana
więc
no tu są rzeczywiście problemy
ale to jest kwestia
bardziej jakiegoś
na przykład hałasu
a mi chodzi o sytuację
kiedy mamy kogoś
w jakości takiej
typowo telefonicznej
kilku kiloherców
tak naprawdę
i
gdzie tu rzeczywiście
można by trochę
tej góry dodać
ja powiem
tak nawet już są
takie aplikacje
to twórca Stereotoola
tego narzędzia
którego my zresztą też
używamy do procesowania
naszego strumienia
i tych audycji na żywo
których potem
słuchacie jako podcastów
to też ma w swojej ofercie
coś takiego
ja tego co prawda
nie testowałem
natomiast ma takie narzędzie
właśnie które
w stacjach radiowych
możesz sobie podpiąć
i on będzie
i ono będzie dodawało
tej góry
ciekawe jak ono się sprawdza
jeżeli chodzi o
takie różne
właśnie
sytuacje z tymi
z tą zmianą barwy
natomiast tak czy inaczej
to jest
za darmo
to znaczy za darmo
jeżeli komuś się to udało
oczywiście uruchomić
nie jest to łatwe
bo to się instaluje
przez ten tak zwany PIP
to wymaga
jakiejś tam zależności
tam też na stronie
jest napisane
że to wymaga
zainstalowanego tego
tak zwanego torczać
i to jest to środowisko
wykorzystywane
bardzo często
w sztucznej inteligencji
też na tym nie są do końca
w każdym razie
jest to wymagane
bardzo często
natomiast na stronie
jest to nie napisane
natomiast podczas instalacji
po prostu trzeba
przeczytać komunikat
że tego nie ma
i trzeba to zainstalować
i wiedzieć jak to zainstalować
znowu jakby
taką samą metodą
no ale jakby trzeba wiedzieć
że coś takiego jest
i mam wrażenie
że ten
ta instalacja
tam jest jakby zrobiona
raczej dla informatyków
dla programistów
a nie dla
takich zwykłych ludzi
natomiast
być może
ktoś
na przykład stworzy
jakąś aplikację
która
która jest oparta
na tym
algorytmie
tak jak na przykład
te algorytmy
do
oddzielania
w piosenkach
wokalu
basu
bębnów
no to jest
ileś różnych aplikacji
ileś stron internetowych
które właśnie
na tym
bazują
albo Whisper
też jest przecież
ileś, ileś
implementacji tego Whispera
więc być może
takie
takie narzędzienie
które jednak
może się przydać też
często
w troszkę podobnych
scenariuszach
jak właśnie Whisper
czyli dla jakichś twórców
youtuberów
podcasterów
no to być może
być może
powstaną jakieś
na tym aplikacje
być może
też powstaną
jakieś kolejne aplikacje
które
z czegoś takiego
korzystają
no tego oczywiście
nie wiemy
natomiast
no skoro jest coś takiego
za darmo
no być może
za jakiś czas
będą kolejne
tego typu
darmowe aplikacje
także no jak
będziemy oczywiście
o czymś wiedzieć
no to się
to się podzielimy
natomiast
no to
robi trochę wrażenie
że już tego typu
algorytmy
są zupełnie
darmowe
otwarto źródłowe
no to
to jest coś
w tym
także
i
ostatni
news
na dzisiaj
dotyczy
klawisza
A
ok
klawisza
Copilot
w systemie
Windows
który
no teraz już
w zaleceniach
Microsoftu
ma się
pojawić w nowych
laptopach
czy komputerach
i ma uruchamiać
asystenta
tego nowego
czyli Copilot
właśnie
no i
Piotrze
wiesz jak to wszystko działa?
Dokładnie
ten klawisz ma się
pojawiać na
wszystkich komputerach
które mają dostać
tak zwaną
certyfikację
AIPC
bo to Microsoft
takie coś
właśnie uruchomił
więc no jeśli
mamy takie różne
naklejki
na komputerze
które też
gdzieś możemy
sobie
jeśli przeglądamy
różne komputery
no to właśnie
będziemy też
mieli
komputery
przystosowane właśnie
do tej przyszłości
AI
i wymogi
generalnie są
takie podstawowe
dwa
po pierwsze
taki komputer
musi mieć
koprocesor
do sztucznej
inteligencji
i do nowe
procesory
Intel
na przykład
już takie coś mają
no i drugi
to właśnie jest
ten klawisz
o którym
wspominaliśmy
klawisz
który
zaniepokoił
wiele osób
niewidomych
kiedy się
o nim dowiedzieliśmy
bo on w wielu przypadkach
ma zająć miejsce
klawisza menu kontekstowego
na przykład
no w przypadku
komputerów
w serii
Dell XPS
które
między innymi
właśnie taką
certyfikację
dostaną
i to jest właśnie
komputer
na którym
dziennikarze
serwisu
TOMS Hardware
właśnie to wszystko
testują
ten klawisz
znajduje się
na prawo
od prawego
klawisza
czyli generalnie
właśnie w tym miejscu
mówiło się
że może
będzie się dało
uzyskać
menu kontekstowe
naciskając FN
i ten klawisz
czy tak jest
nie wiem
natomiast wiemy jak
ten klawisz
działa
i tutaj
nawiążę do
jeszcze jednego
klawisza
który na niektórych
komputerach
się pojawiał
klawisza
który
nie wiem czy
wam się zdarzyło
mi się kilka razy zdarzyło
nacisnąć przez
przypadek
a mianowicie to jest
klawisz
Office
klawisz który
na niektórych
komputerach
pozwala uruchomić
właśnie różne aplikacje
Office
no na przykład
samo nacisnięcie
otwiera po prostu
taki ekran główny
ale też można na przykład
Office i W
nacisnąć żeby
otworzyć Worda
i tak dalej
natomiast wewnętrznie
ten klawisz
nie ma tak zwanego
dedykowanego
scan kodu
swojego
czyli no
każdy klawisz
na komputerze
ma unikalny
kod
który po prostu
system później wykrywa
no i wie jaki klawisz
nacisnęliśmy
natomiast
Microsoft postanowił
żeby nie dodawać
nowego kodu
wpadnie na pomysł
że
jeśli
jakaś firma
chce sobie
na klawiaturze
taki klawisz
Office
zaimplementować
no to wystarczy
żeby ta klawiatura
po nacisnięciu tego
klawisza wysłała
do systemu
informacje
czy ktoś
nacisnął
klawisze
nacisnięte
razem
Control
Windows
Alt
i Shift
więc jeśli korzystamy
z jakichś
interfejsów niewidzialnych
no to bardzo łatwo
jest nam
ten klawisz
sobie uaktywizować
możecie sobie w domu
przetestować
bo to nawet
jak nie mamy
Office
zainstalowanego
zadziała
otworzy nam
webowego
i
zastanawialiśmy się
jak ten klawisz
Copilot
będzie działał
czy on będzie miał
swój kod
czy nie
ja też
przepuszczałem
że
właśnie
może być sytuacja
podobna
że po prostu
to będzie kombinacja
skrótów
klawiszowych
które
gdzieś do systemu
będą wysłane
no i faktycznie
tak się okazało
na szczęście
to już nie jest
skrót
który
naciśniemy
łatwo
bo nacisnięcie
tego klawisza
Copilot
powoduje
że system
dostaje informacje
że ktoś
nacisnął
Windows
Shift
F23
tak
F23
jak ktoś nie wiedział
raczej kojarzymy
że no
klawiszy funkcyjnych
jest 12
od 1
do F12
okazuje się
że
w latach 80
kiedy powstawały
pierwsze
komputery tak zwane
serii IBM PC
no bo IBM
ten cały standard
wymyślił
na którym
nawet dzisiejsze
komputery
z Windowsem
bazują
no to pierwsze
klawiatury
miały klawisze
122
no i
między innymi
właśnie to było
24 klawisze
funkcyjne
w latach 90
no połowa
z tych klawiszy
zaczęła
znikać
natomiast
kody do tych klawiszy
zostały i one
do dziś są
w niektórych sytuacjach
wykorzystywane
na przykład
jeśli mamy tak zwane
klawiatury makro
które pozwalają
jakieś dodatkowe
przyciski
przepisać
do różnych kombinacji
i one często
właśnie do systemu
zgłaszają się
jako te klawisze
właśnie dodatkowe
od F13
więc tutaj firma Microsoft
stwierdziła że
no trudno byłoby
przez przypadek nacisnąć
akurat tą kombinację
skrótów
i dlatego
ten klawisz
Copilot
w ten sposób
został
zaimplementowany
no to też ma
poniekąd
swoje wady
no bo
na przykład
nie jesteśmy w stanie
bo możemy sobie
ten klawisz jakoś
zremapować
tak w ten sposób
tutaj dziennikarze
Thomas Hardware
proponują zrobić
to aplikacjom
Auto Hotkey
czyli to jest
coś podobnego
do Auto
i to taka aplikacja
która nam pozwala
tego Windowsa
oskryptować i właśnie
między innymi
reagować na różne
nacisnięte
klawisze
natomiast no przez to
że ten klawisz
nie ma swojego
kodu
no to nie możemy sobie
na przykład w aplikacji
Sharp Keys
którą mogą kojarzyć
osoby które na przykład
właśnie sobie klawisz
manicode XTW
tworzą czy na przykład
na Virtual Machine
na Macu
jakieś klawisze
zamieniają
no to możecie kojarzyć
z tą aplikacją
no tutaj tego klawisza
Copilot nie zdefiniujemy
no bo po prostu
on dajmy nie istnieje
to jest nacisnięcie
tych trzech skrótów
razem
możemy sobie w
Auto Hotkey
ten skrót
przeprogramować
i na szczęście
na ten moment
przynajmniej
jeśli
Auto Hotkey
sobie ten skrót
zarezerwuje
no to system
tego Copilot
tego paska
Copilot nie otworzy
więc możemy sobie
to zrobić
miejmy nadzieję
że Microsoft
w przyszłej aktualizacji
tego nie zmieni
wszystko jest możliwe
natomiast
no przez to
jak ten skrót działa
nie możemy sobie
użyć go
jako modyfikatora
a szkoda
bo myślę że
wiele osób chciałoby
sobie no może
wykorzystać ten skrót
jako właśnie
modyfikator
dla przednika ekranu
może dla jakiejś akcji
w Reaperze
czy jakimś
edytorze audio
no przez to że
to jest kilka
klawiszy naciśniętych
razem
no to nie możemy
sobie zrobić
skrótów
które wykorzystują
klawisz Copilot
plus
coś innego
natomiast na ten moment
jest sposób
żeby to
sobie w ten sposób
zremapować
i jeśli dostaniecie
komputer z
takim klawiszem
no to
na ten moment
faktycznie istnieje
deska ratunku
poniekąd
jeśli akurat
chcemy ten skrót
wykorzystać do czegoś
innego
może sobie właśnie
przepisać do czegoś
w naszym przedniku ekranu
czy w jakiejś aplikacji
no to już wiecie
czego szukać
ewentualnie
jakich narzędzi
użyć gdyby
dana aplikacja
tego klawisza
nie widziała
ale czy na pewno
nie da się z tego
zrobić
klawisza
modyfikatora
czy to nie będzie wtedy
po prostu tak
że będzie to
symulowało
naciśnięcie
jakiejś tam
większej grupy
tych klawiszy
plus coś
tutaj oni napisali
że to nie działa
bo
jeśli nacisniemy
te klawisze
razem
to po prostu
tak jakby system
odrzuca ten dodatkowy
klawisz
a to szkoda
właśnie to czytałem
jeszcze raz artykuł
no i po prostu
tak to jest
zapakowane
na poziomie
oprogramowania
klawiatury
poniekąd
być może
dałoby się
jakoś wymusić
żeby niektóre
aplikacje
jakoś
akceptowały
takie kombinacje
ale pewnie
tak globalnie
może ewentualnie
jako warstwę
naciskamy ten klawisz
i wtedy coś
no tak
może w ten sposób
no zobaczymy
no
z jednej strony
jest przynajmniej
o tyle szansa
że jakaś część
tych nowych komputerów
będzie rzeczywiście
wyposażona
w ten klawisz
Copilot
więc no
być może
powstaną jakieś programy
nawet dedykowane
właśnie dla niewidomych
jakiejś
przesiutkiej aplikacji
którego
właśnie
na takiej zasadzie
jak mówisz
zamienią w menu kontekstowe
więc no
jest jakaś
pewnie szansa
no zobaczymy
no na razie
musimy
radzić sobie
z tym co mamy
no i
to już jest wszystko
co dzisiaj
mam
w notatkach
przynajmniej tak mi się
wydaje
i czy coś się pojawi
jeszcze w trakcie audycji
u kogoś
komentarz się pojawił
aczkolwiek
szczerze mówiąc
nie wiem
do czego
tu Łukasz
nawiązuje
ale poleca nam
jakiś płatny
chyba program
Accentize
DX
Revive
no
fajnie Łukaszu
tylko szkoda
że nie napisałeś
do czego
go poleca
ja mam wrażenie
że to jest jakaś
chyba nazwę firmy
kojarzę to chyba
jakaś wtyczka
czyli coś czuję
że coś związane
to może
odszumianie
tak właśnie
może odszumianie
być może
ja tego nie kojarzę
chyba
ale no
będzie można
sobie
przetestować
i zobaczymy
jak to zadziała
no tak czy inaczej
tak
AI Speech Restoration
audio plugin
sobie właśnie
szybko
wygooglowałem
to jest
temp
no właśnie
tutaj mamy
czytam sobie funkcję
noise removal
reverb
czyli właśnie
usuwanie pogłosu
odzyskiwanie
z utraconych
częstotliwości
usuwanie
artefaktów
kodeków
na przykład
Skype’a
Zooma
odzyskiwanie
przesterowanego
dźwięku
na papierze
brzmi ładnie
tak
patrzcie
czy tu jest jakaś
wtyczka
no jest
mniej więcej
link żeby to
zadano
przetestować
pewnie będziemy się
bawić
tak
VST3
AU
i AI
więc
można sobie
to po prostu
w reaperze
przetestować
no to
pewnie będę miał
co robić
także
dziękuję
Łukaszu
no i
to już
chyba w takim razie
rzeczywiście
wszystko
co
my przygotowaliśmy
wszystko co
wy tutaj też
nam
powiedzieliście
to to są też
ciekawe rzeczy
także no
do usłyszenia
miejmy nadzieję
za tydzień
a ja tylko
przypomnę, że
przy mikrofonach
dzisiaj
Piotrek Machacz
Michał Dziwisz
Paweł Masarczyk
i ja czyli Tomek Bilecki
no i jak się
rzekło
do usłyszenia
dobrej nocy
do usłyszenia

Wszystkie nagrania publikowane w serwisie www.tyflopodcast.net są dostępne na licencji CreativeCommons - Uznanie autorstwa 3.0 Polska.
Oznacza to, iż nagrania te można publikować bądź rozpowszechniać w całości lub we fragmentach na dowolnym nośniku oraz tworzyć na jego podstawie utwory Zależne, pod jedynym warunkiem podania autora oraz wyraźnego oznaczenia sposobu i zakresu modyfikacji.
Przekaż nam swoje 1,5% podatku 1,5 procent Logo FIRR Logo PFRON Logo Tyfloswiat.pl

Czym jest Tyflopodcast?

Tyflopodcast to zbiór instrukcji oraz poradników dla niewidomych lub słabowidzących użytkowników komputerów o zróżnicowanej wiedzy technicznej.

Prezentowane na tej stronie pomoce dźwiękowe wyjaśniają zarówno podstawowe problemy, jak metody ułatwienia sobie pracy poprzez korzystanie z dobrodziejstw nowoczesnych technologii. Oprócz tego, Tyflopodcast prezentuje nowinki ze świata tyfloinformatyki w formie dźwiękowych prezentacji nowoczesnych urządzeń i programów. Wiele z nich dopiero znajduje sobie miejsce na polskim rynku.

Zapraszamy do słuchania przygotowywanych przez nas audycji i życzymy dobrego odbioru!

Tematyka

Pozycjonowanie i optymalizacja stron internetowych