TyfloPrzegląd Odcinek nr 197 (wersja tekstowa)

Pobierz napisy w formacie SRT
Pobierz napisy w formacie VTT
Fundacja Instytut Rozwoju Regionalnego prezentuje Tyflo Podcast.
Witajcie, witajcie. Dzisiaj kalendarzowo co prawda środa jak zwykle, 16 sierpnia, ale jakoś tak nas na żywo nie ma.
No i jest ku temu powód, bo nasz prowadzący i techniczny Michał Dziwisz na urlopie, zasłużonym zresztą, bo dosyć się już w ostatnim czasie przy tych podcastach napracował,
ale my mimo to nie zwalniamy tempa, bo gdybyśmy mieli to oj, znowu byśmy Was zalali, a zalali informacjami z całych dwóch tygodni,
no więc żeby troszkę to rozporcjonować, to jesteśmy tu dla Was, aczkolwiek dziś w nagraniu, bez Was, bez transmisji na żywo, bez obaw.
To oczywiście wróci za tydzień, może też wtedy będzie już troszeczkę chłodniej, to może będzie też więcej energii, żeby do nas dzwonić i pisać.
No a póki co, tematów dużo przed nami, a tematy przedstawi nam, no mimo swojej nieobecności, Michał, choć czy to na pewno Michał?
Zmarł Marek Jakubowski, tyflopedagog z ośrodka w Owińskach, krzewiciel wiedzy na temat orientacji w przestrzeni, map i tyflografik oraz kilkukrotny gość anteny tyflopodcastu.
Plotki na temat poprawy dostępności Native Instruments Contact, jednak najnowsza wersja tę dostępność psuje.
Marvel’s Spider-Man 2 dostanie audiodeskrypcję i czytnik ekranu.
Niewidomi pracowali nad nowym Mortal Kombatem.
Pocket Bravery, nowa dostępna bijatyka już wkrótce.
Pierwsze wrażenia z Stray Gods.
Aktualizacja Microsoft Flight Simulator poprawia czytnik ekranu.
Red Toe, gra w której zarządzasz swoją własną wyspą.
Stories of Blossom już dostępne.
Pierwsze wrażenia po testach Prudence Screen Reader.
Wiemy więcej o Optimie i Orbit’s Peak.
Mamy nowe informacje odnośnie okularów Celeste.
ColorStar Pro, nowe wcielenie znanego urządzenia do rozpoznawania kolorów.
Interfejsy audio firmy Audient zyskują funkcję dostępności.
VO Starter, aplikacja do nauki korzystania z voiceover na iPhone.
Blind Shell dostaje Lazarillo.
Enhanced Tools, dodatek dla NVIDIA dodający brakujące funkcje Windows.
Poprawia się dostępność Steama na Windows.
NS MIDI Player, odtwarzacz plików MIDI na Mac i iOS poprawia dostępność.
Paperback, przechowalnia artykułów dla iOS.
Vibrating Clock, wibrujący czas na androidowym smartfonie.
Szósta beta iOS 17 udostępniona. Co nowego?
Doradcy pomogą w doborze sprzętu z wypożyczalni.
Szkolenia językowe, informatyczne i rozwojowe dla osób z dysfunkcją wzroku.
Google wprowadza cyfrowe podpisywanie dokumentów.
Model multilingual VAU-2 już dostępny w Eleven Labs.
Właśnie z niego korzystamy.
Firefox dla androida będzie obsługiwał rozszerzenia z komputera.
Konkurencja dla VivTool od Microsoftu.
Eleven Labs pozwala na udostępnianie profesjonalnie klonowanych głosów.
Appka, która przypisuje emoji tekstowi lub wpisanemu nastrojowi.
Boty bazujące na różnych algorytmach AI, specjalizujące się w różnych usługach.
Lucia, GPT dostępne na Telegramie i WhatsApp.
Wielka lista newsletterów o sztucznej inteligencji.
Nadchodzi przerzucanie rozmów pomiędzy smartfonem z Androidem, a innymi urządzeniami.
Uplit, graficzny interfejs do homebrew na Maca.
Tak, no i takie tematy dzisiaj będą.
Jak słychać, jest ich dużo.
Mimo tego, że odcinek taki w sumie nagrywany, taki troszkę awaryjny.
No niestety w tym tygodniu Be My Eyes jeszcze, czy Be My AI raczej jeszcze Wam nie opiszemy,
bo nikt z nas go nie dostał.
Mimo tego, że od poniedziałku miałyby się teoretycznie te sloty odblokowywać.
No ale nic straconego.
Możliwe, że za tydzień, może za dwa, może w jakiejś najbliższej przyszłości.
To jest odcinek tytułu przeglądu numer 197.
200 zbliża się wielkimi krokami, ale zanim jeszcze ta magiczna, okrągła liczba,
no to zajmijmy się tym, co dziś i co teraz.
No i niestety, no zaczynamy od dość smutnej informacji.
Smutnej, która się już w środowisku odbiła echem, ponieważ w niedzielę
ubiegłą, czyli 13 sierpnia zmarł pan Marek Jakubowski.
Na pewno jest to osoba znana najlepiej w środowisku osób z dysfunkcją wzroku w Poznaniu,
absolwentom ośrodka w Owińskach, ale nie tylko, bo no Marka znali
ci, którzy jakkolwiek w środowisku się obracali, ponieważ on dość dużo podróżował,
opowiadał przy różnych okazjach o głównie tyflografikach, mapach,
dostosowaniach takich architektonicznych, ale nie tylko.
Wielką miał w sobie ten człowiek pasję. Ja miałem co prawda okazję poznać go
przy okazji tego, że miałem okazję poznać go przy okazji tego,
miałem co prawda okazję poznać go przy okazji innego wydarzenia,
ale no kilkakrotnie w życiu mieliśmy się okazję spotkać, więc nie mogę powiedzieć,
że znaliśmy się dobrze, ale no zawsze było słychać tą energię w głosie
i zawsze było widać w nim to zacięcie do tematyki spraw naszych
i to w bardzo szerokim ujęciu, bo w ujęciu także historycznym,
w ujęciu międzynarodowym, bo właśnie Marek bardzo lubił czerpać
gdzieś ze wschodu, bardzo był też aktywny w kwestii pomocy osób
z dysfunkcją wzroku w Ukrainie i w Ukrainie i tu w Polsce,
kiedy już do nas przyjechali nasi przyjaciele.
No i też lubił czerpać ze źródeł, czy jeszcze kiedyś rosyjskich,
czy właśnie ukraińskich i opowiadać o tym, jakimi technikami uczono osoby
z dysfunkcją wzroku tam, z tego go chyba najbardziej zapamiętałem.
No i też był on naszym gościem w kilku audycjach, co prawda nie prowadzonych
przeze mnie, więc ja na antenie nie miałem okazji się tutaj zetrzeć,
ale audycja o historii pisma Breila, audycja o osobach niewidomych
w czasie drugiej wojny światowej, audycja o tyflomuzeach, właśnie,
skoro o tyflomuzeach mowa, to przecież tyflomuzeum w Owińskach
i także muzeum aromatów, ogród aromatyczny.
No, można by wymieniać wiele różnych zasług, ale dziś możemy tylko
i wyłącznie pożegnać. Kurczę, jak tak pomyślę, to nawet rozważałem
jeszcze jedną minimalnie audycję na temat właśnie sytuacji osób
z dysfunkcją wzroku w obliczu tego, co teraz dzieje się w Ukrainie
i bardzo mocno rozważałem, no na 100% rozważałem właśnie Marka
jako naszego gościa i jak widać, planów nie warto odkładać,
więc jeżeli macie jakiś pomysł na coś, co obejmuje też innych ludzi,
to nie wahajcie się i go realizujcie. No nawet jeżeli on dotyczy was samych,
bo brzmi to może troszkę mrocznie, ale nigdy nie wiadomo.
Śmierć tutaj Marka, z tego co wiem, była dość nagła, nikt się nie spodziewał,
przynajmniej nic nie było wiadomo. Ja jeszcze mówię, parę miesięcy temu
widzieliśmy się na wydarzeniu w Gliwicach i no, kto by pomyślał.
No a teraz już go z nami nie ma. Dzięki za wszystko.
Dzięki za i materiały tu w Tyflopodcaście i za wszystko, co było zrobione
gdzieś w otwartej przestrzeni na wydarzeniach.
Spoczywaj w pokoju i raz jeszcze dzięki.
To z tych smutnych wieści. No i ciężko teraz przejść do jakichś tematów
weselszych, ale chyba trzeba będzie. Innej drogi nie ma,
bo teraz nadchodzi temat Piotra i temat jest o grach komputerowych,
no więc temat zgoła zupełnie przeciwny w nastroju do tego,
o czym przed chwileczką mówiliśmy. No ale cóż, zmierzmy się z nim.
Nowości w grach. Piotrze, co tam w ciągu ostatniego tygodnia się wydarzyło?
Znów całkiem sporo, tak jak w zeszłym tygodniu mieliśmy dużo nowości,
to w tym tygodniu też dużo takich zapowiedzi i myślę, że tutaj możemy
nawiązać do tego kwestii, jak tutaj różne gałęzie dostępności
się rozwijały. No to tutaj możemy nawiązać do tego, że w grach coraz
częściej zaczyna pojawiać się audiodeskrypcja, bo oto pierwszy temat,
o którym chciałbym powiedzieć wam, to informacje, które właśnie do nas
dotarły dzięki temu, że informacja wyciekła ze strony Sony, a mianowicie
chodzi tutaj o grę Marvel’s Spider-Man 2, która wyjdzie w październiku
na konsolę PS5. Na chwilę pojawiła się strona z najczęściej
zadawanymi pytaniami, którą ktoś na jakimś forum, takim forum
normalnie dla widzących zauważył, zrobił screeny, no i informacja poszła
w świat. O tej informacji dowiedział się portal Can I Play That,
czyli strona zajmująca się właśnie dostępnością gier. W wielu gałęzi
tej dostępności, nie tylko dla osób niewidomych, ale tam właśnie
w tych częstych pytaniach pojawiło się pytanie o dostępność.
I co tam w odpowiedzi napisało Sony? No napisali, że po pierwsze gra
będzie miała te wszystkie funkcje, które znaliśmy z poprzedniej części
i tutaj informacyjnie w poprzednich dwóch częściach gry serii
Spider-Man na PlayStation już trochę dostępności było.
Co nas mogło interesować to to, że gra już miała wsparcie nawigacyjne,
które pozwalało nam pokierować Spider-Manem do następnego celu.
Natomiast to niestety nie powodowało, że gra była dostępna, bo po pierwsze
to nie działało wszędzie, a po drugie gra też nie miała ani czytnika ekranu,
ani dodatkowych sygnałów dźwiękowych. Nie mieliśmy żadnego sposobu,
żeby rozszerzać się, czy są jakieś przedmioty, które moglibyśmy podnieść
lub przeciwnicy, których musimy pokonać. Więc czekaliśmy co pojawi się
w następnych częściach. No i tutaj dowiedzieliśmy się, że gra właśnie
po pierwsze będzie miała czytnik ekranu i tutaj jest powiedziane,
że ten czytnik ekranu będzie czytał wszystkie menu i tekst w grze
i właśnie będzie miała audiodeskrypcję podczas scenek. Tak samo jak to mieliśmy
w The Last of Us, kiedy mieliśmy takie właśnie sceny, gdzie nie mieliśmy kontroli
nad podstacią, jakieś ważne dla fabuły wydarzenia się odbywały, no to mieliśmy
profesjonalną audiodeskrypcję i tutaj będzie podobnie. Pytanie, czy to spowoduje,
że gra będzie dostępna? Myślę, że jest dosyć duże prawdopodobieństwo.
Jeśli oprócz tego zostaną dodane jakieś dodatkowe jeszcze dźwięki,
które by nam właśnie pomogły odpowiednio celować na przykład
z przeciwników albo odpowiednio przeskakiwać z budynku na budynek,
no bo oczywiście jesteśmy Spidermanem, więc możemy sobie wypuszczać
pajęczą sieć i sobie po tej sieci przeskakiwać, no właśnie między innymi
między budynkami. Więc mam nadzieję, że to faktycznie tak będzie,
że ta gra stanie się dla nas dostępna. Oprócz tego będzie też możliwość
sobie rozgrywkę zwolnić, więc jeśli jest jakaś walka, którą mamy problem
z przejściem, no bo wszystko odbywa się za szybko, możemy sobie ją zwolnić,
więc to też nam może się przydać. Są też poprawki w napisach,
które mają być jeszcze bardziej czytelne i właśnie też podczas tych scenek
oprócz audiodeskrypcji też będą napisy dla osób niesłyszących.
No i wszystkie funkcje dostępności z poprzednich części,
tam oczywiście też zmiany przycisków i takie już myślę dzisiaj standardowe rzeczy,
zwłaszcza w takich dużych grach. Gra ukaże się 20 października.
Myślę, że do tego czasu trochę szybciej będziemy już mieli
bardziej konkretne informacje. Pewnie kilka tygodni przed wydaniem tej gry
albo kilka dni przynajmniej już, jeśli jakieś osoby niewidome na tą grą
pracowały pod klauzulami poufności, no to one już wygasną
i będą mogły wtedy podzielić się z nami więcej informacjami,
czy faktycznie ta gra jest dla nas dostępna.
I tym sposobem przechodzimy do następnego tematu.
A propos klauzul poufności osób niewidomych, na Mastodonie
Brandon Cole, czyli człowiek, który dosyć często pojawia się
w TV przeglądach, jeśli chodzi o tematy gier, bo bardzo aktywnie pracuje
z wszelkimi firmami, które chciałyby wdrożyć dostępność dla osób
niewidomych w swoich grach, no bo tutaj było właśnie The Last of Us,
jest, właściwie będzie Forza, która też ukaże się w październiku.
A napisał, że pracował nad kolejną grą, a mianowicie nad nadchodzącym
Mortal Kombatem, Mortal Kombat 1 właściwie.
Który ukaże się we wrześniu, tak mówiliśmy w zeszłym tygodniu,
że pojawił się klip, w którym słychać przynajmniej jedną funkcję
dostępności, która w tej grze się pojawić.
Brandon mówi, że będzie tego więcej, ale jeszcze niestety nie może
nam powiedzieć nic więcej, ale tak jak wspominałem w zeszłym tygodniu,
w piątek rusza taka krótka beta dla ludzi, którzy kupią tą grę
w przedsprzedaży, więc myślę, że wtedy już na pewno będziemy
wiedzieć więcej i już chyba wtedy sam Brandon będzie mógł nam powiedzieć
więcej. Ponadto nie pracował nad tą grą sam i właściwie tutaj
podkreślał, że tak naprawdę większość pracy w konsultacjach nad tym
nowym Mortalem zrobiła inna osoba, a mianowicie pan Carlos Vazquez,
którego możecie znać pod pseudonimiem DeathRattlehead.
To jest też niewidomy człowiek, który co ciekawe jest profesjonalnym
graczem serii Mortal Kombat. To jest człowiek, który jeździł na różne
turnieje i rywalizował z osobami widzącymi w poprzednich częściach
Mortal Kombata, więc fajnie, że firma to zauważyła i poprosiła do współpracy
osobę, która naprawdę wie, co robi gra, dużo w te gry, właśnie
konkretnie w tą serię, no i jest w stanie im powiedzieć, co mogliby
zrobić, żeby gra była jeszcze bardziej dostępna. Sam Mortal Kombat
sam w sobie już był wcześniej bardzo dostępny, no ale właśnie jakieś
dodatkowe funkcje typu właśnie dodatkowe dźwięki, czyli oczywiście
narracja w całym interfejsie, której nie było w poprzednich częściach.
Może właśnie też jakaś audiodeskrypcja dla trybu fabularnego, no bo
akurat Mortal Kombat słynie z takiej bardzo rozwiniętej fabuły.
Zobaczymy, na pewno będziemy wam mówić więcej jak gra będzie się
zbliżała do finalnej wersji, no i myślę, że jak ta beta się już pojawi
w weekend, no to na pewno na przyszły Tyflo przegląd przypuszczam, że
będziemy mieli oficjalną listę, jakie gra będzie oferowała funkcje
dostępności, no i już jakieś wrażenia użytkowników. Następnie
trzymamy się tematu gier bijatyk, ale przenosimy się teraz do
Portugalii, bo 31 sierpnia pojawi się nowa bijatyka na wszystkie
platformy, czyli to są komputery z systemem Windows, Playstation,
Xbox i Nintendo Switch. Gra nazywa się Pocket Bravery, będzie
dostępna na komputery na Steamie, no i oczywiście na pozostałych
platformach, i co ciekawe tutaj portugalska społeczność niewidomych
graczy skontaktowała się z deweloperami, no bo same w sobie bijatyki
często są dla nas bardzo dostępne, jeśli są fajnie zrobione, jeśli
postacie mają dużo dźwięków, jeśli gra jest w stereo, no to możemy
spokojnie sobie w takie gry grać, jeśli nauczymy się ich mniej na pamięć.
No a tutaj po prostu, czy dałoby się zrobić coś więcej i producent
tutaj zrobił więcej i dodał między innymi narrację. Narrację
zrobioną głosem ludzkim i pojawiła się wersja demo na Steamie,
możecie ją sobie ściągnąć i na konsolach też, aczkolwiek przynajmniej
na PlayStation tej narracji w menu niestety nie ma. Na komputerze jest,
ale też nie wszędzie i tak na przykład przy starcie gry jesteśmy
pytani, jeśli nie mamy podłączonego pada, o ustawienie swoich przycisków
na poszczególne ataki i tam niestety screenreadera żadnego nie ma,
musimy się ewentualnie OCR-em posilić, żeby przejść przez te pierwsze
ekrany, ale jak już będziemy do menu głównego, no to większość interfejsu,
przynajmniej właśnie to menu główne oraz menu opcji, to podstawowe jest
czytane, ale są jeszcze rzeczy niestety, w których na razie żadnej mowy nie ma.
Da się pewnie tego nauczyć na pamięć i sama gra też jest bardzo fajnie
dostępna, bo mamy dużo dźwięków, wszystko jest właśnie w stereo,
taką bardzo fajną rockową muzykę. Mamy też komunikaty dźwiękowe, kiedy
my albo nasz przeciwnik ma mało życia, albo naładowaliśmy nasze takie
specjalne umiejętności, no ale tutaj developer też obiecuje, że może
jeszcze jakieś poprawki będą, więc może te pozostałe ekrany, pozostałe menu
też zostaną udźwiękowione, no a nawet jeśli nie, jeśli ktoś takie gry
lubi, to myślę, że spokojnie można się grą Pocket Bravery zainteresować
na wszystkich platformach, bo tutaj też było obiecane, że ta dostępność
będzie wszędzie, mimo to, że w tej wersji beta na razie jest tylko na
komputerze, ale finalnie to już będzie na wszystkich platformach.
Następnie przechodzimy do gry Stray Gods, to właściwie musicalu, który już
się pojawił w zeszłym tygodniu, jak prowadziliśmy ten flop przegląd na
żywo, to właśnie w czasie jego trwania gra się pokazała i tutaj się
zastanawialiśmy jak z jej dostępnością, no i już kilka osób sobie tę grę
kupiło, m.in. właśnie Brandon Cole, który napisał taką bardzo szczegółową
recenzję i jak ją można w skrócie podsumować, mogłoby być lepiej, da się
w to grać używając OCR-a i to ten OCR myślę jest tak raczej sugerowany,
natomiast mimo to, że ten OCR mamy, no to jest kilka problemów, m.in.
menu opcji jest takie ciężkie do obsłużenia, bo tam są opcje rozrzucone na
kilka kolumn, no i tutaj Brandon mówił, że potrzebował pomocy osoby widzącej,
żeby sobie np. tą audiodeskrypcję, która była zapowiadana, włączyć.
Pewnie da się jakoś tego nauczyć, ale mogło to być lepiej zrobione.
Też podczas podejmowania wyborów one są też tak rozłożone w takim kółku i
czasami OCR nie podaje nam tych opcji w takiej kolejności, w jakiej one
występują, przynajmniej jeśli chodzi o dialogi. Na szczęście podczas
podejmowania wyborów przy piosenkach, a głównie o to w tej grze chodzi,
że właśnie śpiewamy jakąś piosenkę i właśnie wtedy podejmujemy różne
decyzje, żeby posuwać fabułę do przodu, no to tam już ta pozycja jest
bardziej stała i tak jak OCR nam czyta w kolejności, to zazwyczaj jest
najpierw opcja, która jest po lewej, później opcja po prawej, a na końcu
opcja na górze i tutaj możemy sobie tak spokojnie wiedzieć w co klikamy.
Niestety błędów jest jeszcze więcej. Czasami w grze mamy takie sytuacje,
kiedy musimy wybrać lokację z mapy. To się zdarza bardzo rzadko i to się
da jakoś tym OCR-em obsłużyć. Większość gry na szczęście nie polaga na
wybieraniu lokacji z mapy, tylko na podejmowaniu wyborów, ale no właśnie
przy tych mapach trzeba troszeczkę po prostu poeksperymentować.
Tutaj Brandon pisze, że wsparcie dla padów tutaj jakoś jest niedopracowane.
Czasami ten pad się zawieszał, trzeba było np. włączyć pauzę i wyjść z niej.
No i musieliśmy gałką przeczytać, jak nam ten OCR mniej więcej pokazuje,
gdzie są poszczególne lokacje i później jakoś poruszać gałką kursor,
aż znajdziemy miejsce, do którego możemy się przenieść.
Da się to zrobić, ale mogło to być zrobione lepiej. Tak samo zresztą jak
audiodeskrypcja, która jest fajna, ale w niektórych miejscach Brandon pisze,
że mogła być bardziej szczegółowa, zwłaszcza tutaj jest podana sytuacja
opisów lokacji. Czasami te lokacje nie są opisywane. Tutaj był podany przykład,
że deskrypcja nam powiedziała, że postacie weszły do jakiejś bardzo ciekawej
lokacji, w której zostało się coś istotnego, natomiast my nie dostaliśmy
właściwie żadnej informacji, jak to miejsce wyglądało, więc tutaj
sugeruję, że ten skrypt tej audiodeskrypcji mógł być zrobiony lepiej,
ale mimo wszystko grę poleca, zwłaszcza jeśli lubimy musicale,
lubimy piosenki, lubimy mitologię grecką, no to warto się grą Stray God
zainteresować. Jeśli nie teraz, to może w przyszłości, jeśli pojawią się jakieś
aktualizacje, może właśnie ze screenreaderem, no bo deweloperzy tego
nie wykluczają. A propos screenreaderów, to następnie mamy grę
Microsoft Flight Simulator, czyli symulator lotów, który jest całkiem
dostępny, zwłaszcza na komputerze, możemy sobie jeszcze kilka dodatkowych
dodatków wściągnąć. To jest taka bardzo realistyczna symulacja, tak jak
gry Eurofly możemy nauczyć się stosunkowo bardzo szybko i spokojnie
sobie w nią grać, no to Microsoft Flight Simulator to jest gra, której
nauczenie się zajmie nam bardzo dużo czasu i pewnie pochłonie też niestety
trochę pieniędzy, no bo żeby w nią grać efektownie, to trzeba sobie
dokupić samoloty jako płatne dodatki i tam jeszcze często inne
materiały są przydatne. Natomiast sama gra też ma właśnie funkcję
narracji, funkcję czytnika ekranu, która jest nam potrzebna do tego, żeby
na przykład lot sobie wystartować albo grę dostosować sobie różne ustawienia
i ona stopniowo jest poprawiona. Na początku była zrobiona bardzo
słabo, ale z czasem Microsoft tutaj dużo poprawiał, no i pojawiła się
nowa wersja, właściwie pojawi się we wrześniu, ale już jest dostępna
jako publiczna beta, którą każdy może sobie ściągnąć, tylko trzeba się na tą
wersję beta przełączyć. I co tutaj się zmieniło?
Po pierwsze kursor nam już nie będzie uciekał. Wcześniej na przykład jeśli
weszliśmy w panel społeczności, gdzie mogliśmy na przykład zobaczyć listę
znajomych między innymi, no to ten kursor nam uciekał. Teraz już nie powinien.
Rynek jest dostępny, czyli miejsce, w którym możemy sobie właśnie kupować
lub instalować zarmowe dodatki do tej gry. No i interfejs zmiany przycisków.
Mamy kontrolek albo na klawiaturze, albo na padzie też już jest dostępne,
więc jeśli chcemy sobie jakieś klawisze dostosować, albo jeśli kupiliśmy sobie
taki specjalny wolant i inne takie kontrolery typowo do symulatorów lotu
i chcielibyśmy sobie go skonfigurować, no to teraz ten ekran stał się dostępny.
Tutaj osoba, która tą informację podała pisze, że to jeszcze mogłoby działać
lepiej, ale już jest bardzo duża poprawa. No i właśnie aktualizacje można sobie
ściągnąć albo ze sklepu Microsoft lub ze Steam’a, zależnie od tego, gdzie
grę kupiliśmy. A 21 września ta aktualizacja pojawi się już jako
wersja stabilna.
Następnie mamy nową grę, nową grę audio od Jeremiego Kaldowskiego,
którego możecie znać z gier takich jak Swamp, to chyba jego najbardziej
słynna gra multiplayerowa, w której chodzimy sobie po mapie, właściwie
kilku połączonych ze sobą mapach i wspólnie walczymy z zombie.
A tutaj pojawiła się taka dużo bardziej spokojna gra. Gra nazywa się
Retu, a przynajmniej tak mi to czyta angielski syntezator, więc tej wymowy
się będziemy trzymać. Gra, w której zostajemy właścicielem malutkiego
archipelagum o malutkiej wyspy. No i musimy tą wyspę sobie rozwijać.
Musimy kłaść na niej różne budynki, które nam będą różne surowce
produkować, ale też jednocześnie musimy wybudować domy dla mieszkańców
tej wyspy i zapewnić im też rozrywkę, więc postawić jakieś restauracje,
biblioteki, kupić do nich odpowiednie zasoby, czyli wino, piwo, miód,
jedzenie i tak dalej. No i dzięki temu będą się do nas ludzie wprowadzać.
Co za tym idzie będą nam płacić podatki, a my później te pieniądze możemy
wykorzystać, żeby rozwijać naszą wyspę, żeby ostatecznie nawet produkować
towar, który możemy później eksportować na inne wyspy. Możemy później też
w ogóle w grze zajmować się kilkoma wyspami jednocześnie, więc właśnie
na tym polega gra, jak bardzo możemy nasz biznes rozwinąć.
A jeśli ktoś chciałby coś jeszcze prostszego, spokojniejszego, no to
pojawiła się gra Stories of Blossom, gra, która już kilka razy chyba była
wspominana, bo to jest taka gra, która wcześniej miała dostępną wersję demo.
To jest gra przygotowa stylu point and click, których też ostatnio jakoś
całkiem sporo się pojawiło i to kolejny przykład gry, w której mamy
audiodeskrypcję, mamy właśnie screen reader, mamy pełne udziękowanie.
Gra przygodowa, w której wcielamy się w małą dziewczynkę, której dziadek
opowiada różne historie, które my odgrywamy. I pamiętam, że w tej wersji
demo właśnie pierwsza historia, z którą mamy do czynienia jest w takim świecie
zamieszkiwanym przez zwierzęta, z tego co pamiętam. Miały się odbywać jakiś
festiwal, na który my chcemy się dostać, ale ten festiwal ma się jednak nie odbyć,
bo tam wszyscy są z jakiegoś powodu bardzo smutni, no i musimy właśnie
rozwiązać zagadkę, co się stało, no i oczywiście pomóc mieszkańcom tego
miasteczka. Tam wiem, że w zwiastunie gry też pojawiły się inne wątki,
między innymi wątek piratów, więc też mamy jakąś misję, na której jakieś
opowiadanie, w którym jesteśmy na statku pirackim i tam też musimy coś
rozwiązać. To jest taka gra skierowana do dzieci, ale też dostępna dla
każdego i taki fajny przykład właśnie gry, która ma zrobioną
dostępność dla wielu typów niepełnosprawności, nie tylko właśnie
wzrokowej, bo mamy tutaj audiodeskrypcję i właśnie jej screen reader,
ale też słuchowej, bo mamy napisy, możemy sobie poziomy głośności
możemy sobie te zagadki jakoś jeszcze uprościć, więc to jest taka też
fajna gra, która może pokazać nam jak fajnie zrobić dostępność,
no a przy okazji jest dostępna dla graczy właściwie w każdym przedziale
wiekowym, od dzieci do dorosłych.
No i to by było na tyle, jeśli chodzi o gry, ale oczywiście jeszcze
mnóstwo, mnóstwo newsów przed nami. No i kiedy tak tradycyjnie myślimy
sobie o Androidzie i jego czytnikach ekranu, no to pierwszy do głowy
przychodzi nam oczywiście Talkback, no bo jest po prostu wbudowany,
a drugi to prawdopodobnie Jashuo, czyli dawniej commentary screen reader,
czyli chińska odpowiedź na Talkbacka, screen reader kompletnie przebudowany
od zera, który z Talkbackiem nic wspólnego prawdopodobnie nie ma,
no i oferuje dużo różnych funkcji, a przede wszystkim jest dużo szybszy.
Problem z Jashuo dla wielu osób jest taki, że nie ma go w sklepie Play,
no a jak czegoś nie ma w sklepie Play, zwłaszcza jeśli chodzi o tak
potrzebną nam, ale też mającą tak szeroki dostęp do naszych danych aplikacji
jak czytnik, no to wiele osób nie ufa i nie chce sobie tego instalować.
No ale okazuje się, że wychodzi jakiś środek w tym wszystkim,
bo pojawiło się kolejne rozwiązanie, zdaje się tak, również z Chin,
czyli Prudence screen reader i to już jest czytnik bazujący na Talkbacku,
no ale tutaj chyba więcej nam opowie Paulina, bo ty Paulino używałaś
tego czytnika, prawda? Znaczy używałam, to jest za duże słowo,
testowałam na pewno, dowiedziałam się o tym w ogóle dlatego, że
jeden z entuzjastów tego czytnika ekranowego zebrał grupę tłumaczy,
pisząc do obecnych i byłych tłumaczy komentary, więc stąd się dowiedziałam
o tym czytniku. Jest w sklepie Play, będzie link w komentarzu,
czytnik pochodzi z Chin również, jest to aplikacja darmowa,
z tego co pytałam dostałam odpowiedź, że nie planują wdrażać żadnych
funkcji premium, chcą aby wszystko co oferują pod kątem tego czytnika
było dla wszystkich za darmo itd. Cóż, cóż tu można rzec?
Zmodowany Talkback, kompatybilność w zasadzie praktycznie na poziomie
Yeshuo, także tutaj duży, duży punkt, duży plus i też jest rozwiązane
kilka problemów, np. ja zawsze na Talkbacku się klinowałam w pasku
nawigacji, bo ja często lubię na przykład ustawić się na przycisku wróć
albo na przycisku przegląd i jednym flikiem w prawo wejść na pierwszą
albo ostatnią ikonkę aktualnie poświetlanego ekranu, bo to się bardzo
wiele programów, bardzo w wielu programach się to przydaje,
a w Talkbacku nie mogłam, bo się klinowałam w tym pasku nawigacji
i nie mogłam w ogóle, a tutaj mogę, nawet w moim launcherze systemu
on działa trochę lepiej niż komentary, no ale na razie tłumaczenia na polski
nie ma, ja w zasadzie się podjęłam, ale chyba wybrali Arka Świętnickiego,
bo on dostał dostęp do grupy tłumaczeniowej. Cóż tam jeszcze?
Jest angielski, trochę z błędami, trochę jeszcze z jakimiś chinese literami
pochowanymi gdzieś tam w zakamarkach. To co mi się bardzo podoba,
jeśli chodzi o prezent z Kylindery, to jedno jest to, że w sklepie Play jest,
ale drugie jest to, że ta grupa telegramowa, bo tam jest jeszcze kilka innych
źródeł kontaktu, jest ich oficjalna strona, jest Twitter, jakiś Whatsapp,
jakiś coś, ale telegram właśnie wybrałam jako źródło wiedzy o tym z Kylindera
i tam jest naprawdę kobieta, która siedzi i odpisuje na te wiadomości,
jest kontakt po angielsku bez żadnego problemu, nie widać, żeby ta osoba
używała tłumacza, ona raczej rozumie to, co się do niej pisze.
No, społeczność tego czytnika bardzo szybko rośnie, nawet wydali dla ludzi
32-bitową wersję dla telefonów, które nie wspierają, bo w Google Playu
nie mogli wydać 32-bitowej wersji, także to mi się podoba, to otwartość,
to jest na pewno to, co mnie zaimponowało.
To, co jest sporym problemem, to to, że nie ma wsparcia dla tej klawiatury
białoruskiej Talkback, bo mam trochę nadziei, że przez to, że to jest bazowane
na Talkbacku, no to te części Talkback, które zostały będą w stanie
zasymulować go na tyle, żeby klawiatura przepuściła, ale nie przepuszcza,
więc trzeba na ABK pisać, ale chyba czytnik się zawiesza bez problemu.
Tak, czytnik się chyba bez problemu zawiesza, no ale co tak z funkcji?
Jest remapowanie gestów, jest jakieś takie menu z najpotrzebniejszymi funkcjami,
jest zarządzanie schowkiem, kopiowanie, dołączanie do schowka, bardzo znana,
bardzo według mnie kojarzona z Chinami, ale jednak bardzo potrzebna
i użyteczna funkcja. Jest niby jakaś budowana synteza, ale szczerze mówiąc
ja patrzyłam na listę i nic takiego nie znalazłam, znalazłam tam tylko te
syntezy, które ja mam na telefonie, nie wiem, może to dlatego, że jeżeli ktoś ma
wspierany system przez tę syntezę, to ona się jakoś doinstalowuje,
nie wiem szczerze. Paweł mi pytał o monitory węglarskie, ale nie wiem,
bo ja też w ogóle nie znam się na podpisaniu monitorów do telefonu,
nie wiem, czy to trzeba jakiś osobny sterownik, czy to trzeba jakoś…
To się chyba w menu TalkBacka wyświetla po prostu.
Nie, no to tam ustawień nie było żadnych, tam tych ustawień jest naprawdę maciucie,
bo ten screener jest naprawdę nowiutki, oni mówią, że będą dodawali jakieś funkcje,
ale zapytałam się ich o roadmap, w sumie powiedzieli mi, że dostałam odpowiedzi,
ale wzmianki nie dostałam, żadnej na Telegram, a wiadomości tam idą w setki,
więc nie znalazłam tego roadmapu, więc myślę, że trochę tak…
No, jakby na ten moment ten screener funkcjami nie przytłacza
i żadnej aktualizacji od momentu, kiedy ją mam, nie dostał.
Co, no temat dźwiękowy jest taki jak w TalkBacku, ale nie, w sumie jedną rzecz
muszę tutaj sprostować, bo są fajne dźwięki na suwaki.
I od razu po dźwięku jestem się w stanie zorientować, czy ten suwak jest w okolicy
niższych wartości czy wyższych, bardzo fajnie to jest rozwiązane.
No i cóż…
Mówiłaś o tym już?
Tak, tak, to mówiłam na początku, że responsywność jest naprawdę zbliżona.
Mogę ewentualnie pokazać?
No możesz, pewnie.
Tylko muszę go szybko wyłączyć.
Też nie wiem, co wspominałaś, że można do gestów przepisywać działania w aplikacjach.
To jest funkcja, na którą ja osobiście czekałem przez cały czas, jak miałem Androida.
W sensie, że te działania TalkBack?
Ja zrozumiałem, że chodzi o działania z aplikacji, czyli jak aplikacja ma jakieś swoje
działanie, typu tam, nie wiem, HiQ MP3 Recorder uruchamia nagrywanie
i ma działanie, które jakby eksportuje na zewnątrz, że się robi skróty w launcherze.
Nie wiem, czy to prawda, czy ja to źle zrozumiałem.
Ale jeszcze zobaczę.
Dobrze.
Myślę, że to jest w ogóle super, że oni robią bar mode z takiej play,
no bo na pewno ułatwia.
No to tak.
No więc nie wiem, nie wiem, czy to nie będzie za głośno,
ale jakby chcę pokazać różnicę od przyłożenia palca do ekranu do dźwięku,
więc muszę przyłożyć telefon do mikrofony.
Jeżeli będzie p, p, p, p, p, p, to mi powiedzcie.
Nie, na razie jest okej, próbuj.
Tylko nie uderzaj.
Oczywiście jest szybko.
Brzmi to całkiem obiecująco.
Jeszcze sprawdzę przy okazji to mapowanie.
Bardzo mi krawędzi brakuje.
Oj, no tak.
Okej, accessibility settings, voluntary settings.
Custom gesture, trochę z błędem, ale dobra.
No to dobra, pierwszy jakiś losowy.
Tutaj są funkcje.
No i tutaj nie widzę nic.
No i tutaj nie widzę nic.
No to źle usłyszałem w takim razie.
Ewentualnie jest to gdzieś indziej,
ale to już nie dowiemy się tego pewnie w czasie audycji.
Znaczy no okej, ja też przyznaję się,
że tak trochę pobieżnie przeglądałam ten screenreader,
ale tam tych ustawień jest kilka na krzyż.
Kurtyny w ogóle tutaj nawet nie ma,
bo to widzę też, że jest światło.
Jasne.
No ale ma potencjał.
Ale to jest chyba czytnik taki,
który sporo osób czekało na niego,
czyli jakby talkback, nie zmieniajmy bazy kodowej talkbacka,
bo tam już są wszystkie te rozwiązania google’owskie
odnośnie dostępności, zarówno aplikacji, jak i stron,
które są kompatybilne z ich dokumentacją oficjalną
i tym jak się uczy tworzenia dostępności,
ale jednocześnie jest to na bazie kodu pewnie źródłowego,
który jest publicznie dostępny,
chociaż nie zawsze jest on aktualny.
No i ten rozwój po prostu toczy się dalej swoim torem.
To jest fajna sprawa.
Szkoda, że nie jest to open source,
w sensie, że ten kod źródłowy nie jest publicznie dostępny,
to już w ogóle byłaby wisienka na torcie,
ale no może i bez tego czytnik zdobędzie sobie
wielkie i szerokie grono zwolenników.
W ogóle zapytałam jeszcze na telegramie,
czy to, że czytnik jest bazowany na talkbacku
przyniesie jakieś ograniczenia w trakcie jego rozwoju.
Powiedzieli mi, że nie i że wszystkie funkcje,
które planują jakby nie widzą problemu we wdrożeniu ich,
tylko trzeba na to poświęcić czas,
więc miejmy nadzieję, że tak będzie,
bo niektóre silniki czasami ciągną się za programistami
w bardzo nieprzyjemny sposób,
ale może akurat tutaj się uda uniknąć tego.
No ciekawe na ile ekipa od właśnie Prudence
będzie dalej parła w rozszerzenie swoich usług
na rynek międzynarodowy,
bo to nie jest chyba jedyny ich produkt.
Jak patrzyłem na ich stronę,
oni też jakieś społeczność planują.
Tak, sporo gier, sporo jakichś społecznościowych rzeczy.
Tak, jakiś taki jakby forum, coś takiego.
No więc może z czasem się przekonamy co i jak.
Natomiast tymczasem przejdźmy może do kilku nowości,
które udało mi się wygrzebać odnośnie
technologii wspomagających w sensie pomocy dla osób niewidomych.
Różnych urządzeń, które w najbliższym czasie
albo mają wyjść, albo już wyszły.
No i zaczynamy od tego, co nowego dowiedzieliśmy się
dzięki podcastowi Living Blindfully Jonathana Mosena
na temat laptopów brailowskich Optima
oraz urządzenia Orbit Speak,
czyli tego zastępcy Brail&Speak’a,
tego następcy Brail&Speak’a,
czyli taki głosowy notatnik z wejściem,
z wprowadzaniem brailowskim.
No i okazuje się, że Optima,
o tym już wiedzieliśmy,
że ma mieć w sobie interfejs
oprócz oczywiście dostępu do tradycyjnego Windowsa,
czym twórcy rozwiązania się szczycą,
ma również oferować zestaw
swoich własnych aplikacji, takich uproszczonych.
No cel jest tu taki,
żeby osoby, które będą się przesiadały na Optima
z konkurencyjnych notatników brailowskich
na sam początek miały dostęp do takiego interfejsu,
który jest zbliżony do tego, co mogliby znać
z takiego na przykład BrailSense’a,
czy Brail Notatcha.
No i znajdziemy tam na przykład
edytor brailowski, prosty edytor dokumentów,
który potrafi w jakimś podstawowym zakresie je formatować
oraz wspiera te różne formaty,
takie jak Word, nie wiem, czy też Open Office,
czy jakieś PDF-y,
ale na pewno te najpopularniejsze formaty,
ale nie jest to zamiennik Worda.
Jakieś kwestie, pewnie jakiś tam
czytnik podcastów, który tam bezczasem wszedł,
jakiś kalkulator, dostęp do bibliotek.
Te standardowe rzeczy, które teraz już
w notatnikach brailowskich, a czasem i nawet w monitorach
znajdziemy.
No a potem jest opcja wyjścia do Windowsa.
Widzieliśmy, że taki jest plan.
Że ta część interfejsu będzie nazywać się BraillyY,
ale nie zmienia to wiele,
bo są to po prostu uproszczone aplikacje,
zwykłe aplikacje Windowsowe,
napisane pod właśnie Optime.
Do ich obsługi będziemy używać
tradycyjnych screenreaderów,
takich, jakie sobie wybierzemy,
czy to NVIDIA, czy JAWS,
no może jakiś narrator też się uda.
Będzie to poniekąd osobny interfejs,
taki uproszczony menu start.
Kiedy wejdziemy w tryb BraillyY,
nie będzie dostępny ani pulpit,
będziemy po tym menu strzałkami góra-dół
przemieszczać, otwierać takie proste menu,
gdzieś tam Enterem
i będzie to po prostu działać.
Będą przyciski pod kciukami,
które prosił Jonathan Mosen
i nie tylko.
Są już prowadzone zaawansowane właśnie testy
różnych komponentów,
jak tam zgrać Brailla,
jak tam spowodować, żeby ten Braill działał.
O tym też już wiedzieliśmy
natomiast różne rzeczy mają tam być możliwe
głównie przez Windowsa
i tego się trzymają
i podkreślają za każdym razem,
że ma to być urządzenie,
które rozbije rynek tym,
że za dużo niższą cenę
będzie oferować parametry,
które są na bieżąco z tym,
co aktualnie dzieje się w technologii,
aby obsługiwać te wszystkie rzeczy,
które zazwyczaj chcieliby się
w tym urządzeniu obsługiwać.
No bo tradycyjnie notatniki braillowskie
miały albo jakiś przestarzały Android,
albo jakiś dużo starszy chipset.
No i nie było to.
To, co tygryski lubią najbardziej.
Czyli to, co zapewniałoby nam
aktualny dostęp do różnych
najnowszych osiągnięć, techniki
i programów, z których zazwyczaj korzystamy.
No bo była zawsze szansa,
że albo coś będzie wychodzić wolno,
albo wcale, albo po dość krótkim czasie
nie będzie oferowane wsparcie techniczne.
No więc tutaj mamy Orbita
i na niego również czekamy.
Gdzieś w przyszłym roku powinien się już pojawić.
Mamy także Orbit Speak’a,
który jest takim urządzeniem,
no właśnie jak Kayetek kiedyś,
czy eBay, czyli po prostu mamy
klawiaturę braillowską, ale brak
monitora braillowskiego.
Za to jest wyjście na syntezę mowy.
Mówiliśmy o tym, że tam się odzywa
jakiś vocalizer.
Wiemy już też teraz,
że pod maską tego urządzenia
tak naprawdę jest Android.
Czy ten Android będzie otwarty?
To o tym producenci jeszcze zadecydują.
Nie są na tą możliwość zamknięci.
Nie przewidują tego w najbliższym czasie.
Bardziej jest to takie podejście w stylu
no pożyjemy, zobaczymy jak rynek zareaguje
i czy ludzie rzeczywiście będą tego chcieli,
będą tego potrzebowali.
Natomiast na pewno taka sytuacja
umożliwia im adaptację
przy różnych aplikacji.
Trochę jak w Blind Shellu.
Do Blind Shella jeszcze dzisiaj wrócimy.
Które byłyby tam akurat potrzebne.
No i też te podzespoły,
które w Orbit Speak są oferowane.
Nie zdradzono jakie to podzespoły,
ale mają być dużo nowsze niż to,
co zazwyczaj znajduje się
w notatnikach braillowskich.
Urządzenie będzie w dwóch wersjach
i to co ciekawe wersja podstawowa
i wersja Elite
mają się różnić tylko i wyłącznie oprogramowaniem.
I my możemy na przykład kupić
wersję podstawową na początek.
Tam będą dostępne takie typowo
notatnikowo-terminarzowe opcje,
czyli prosty edytor tekstu,
który wspiera formaty TXT i BRF.
Ma być dostępny jakiś kalendarz,
terminarz, kalkulator.
A jeżeli będziemy chcieli skorzystać
na przykład z odtwarzacza muzyki,
bibliotek z książkami,
czytnika dokumentów,
który wspiera na przykład Worda,
PDFy i tak dalej,
no to już będzie wymagało
upgrade’u oprogramowania za opłatą
do tej wersji Elite.
No prawdopodobnie to odblokuje nam
dostęp do tych różnych
zewnętrznych aplikacji,
chociaż nie zostało to wprost powiedziane,
ale tak się domyślam.
No i zobaczymy,
czy to urządzenie zawojuje rynek.
No takie maleństwo.
Ponoć wygląda to bardzo poręcznie
i bardzo jak to Jonathan powiedział
i też nie jest to pewnie jakiś,
tak powiem kolokwialnie, kloc.
Tylko jest to urządzenie,
które gdzieś tam w ręku
czy na szyi będziemy mogli nosić
czy w kieszeni trzymać.
Wyciągamy szybko, coś sobie notujemy,
coś tam sprawdzamy, chowamy z powrotem.
No czemu nie?
Może jeszcze w dzisiejszych czasach
mimo dominacji gdzieś tam smartfonów na rynku
jest na to miejsce.
No i graffiti, które jest monitorem brailowskim
do wyświetlania grafik.
Również było pokazywane
że to jest polum na 40 wierszy,
czyli 2400 gdzieś tam chyba pinów.
Tyle tam jest.
Pokazuje to grafikę.
Ponoć są to dość twarde piny,
bo też było pytanie,
a czym to się różni od takiego Monarka na przykład,
o którym się ostatnio dużo mówi,
od APH i całego konsorcjum.
A no ponoć graffiti ma dość silne te piny,
więc one pozwalają nam na to,
żebyśmy mogli trzymając rękę na monitorze
obserwować jak ta grafika się gdzieś tam zmienia.
Jeżeli byśmy coś przełączali,
ładowali następną jakąś tam wersję,
no to możemy dość dynamicznie obserwować
co się z tą grafiką dzieje.
Również jest wersja graffiti plus,
która dodaje nam rządek punktów brailowskich,
no bo jak wytłumaczył Wenka też z firmy Orbit Research,
żaden monitor brailowski,
który jest nastawiony na grafikę
nie jest w stanie tą samą matrycą pinów
wyświetlać braila.
Więc tutaj naprawdę będziemy musieli
doczepić sobie osobną część,
która wyświetli nam tego braila na komputerze.
Znaczy nie na komputerze, tylko na samym urządzeniu,
ale w tego braila literackiego
czy jakikolwiek tam,
jakąkolwiek treść powiedzmy tekstowo
wymagającą wyświetlenia znaków.
No mowa jest o tym,
że będziemy mogli kupić go za dość niską cenę.
Zobaczymy czym ta cena na koniec będzie.
Czy będzie na to stać użytkowników prywatnych
czy nie.
Natomiast znając historię
i podejście firmy Orbit Research
prawdopodobnie tak będą celować.
Zobaczymy jak to się przełoży potem
na warunki oczywiście polskie,
realia dystrybucji takich urządzeń itd.
Natomiast przynajmniej coś się dzieje.
Aha, jeszcze wracając do Orbit Speak
to tam oczywiście wymiana danych
z komputerem będzie możliwa.
Jakichś plików, które sobie zapisaliśmy
za pomocą przechodu USB.
Po prostu urządzenie wyświetli nam się
przez urządzenie pamięci masowej
albo przez kartę SD,
którą będziemy mogli przekładać
między urządzeniem a komputerem
lub przez Bluetooth.
Do którego to Bluetootha
oczywiście będzie można podłączyć
czy klawiaturę zewnętrzną,
jeżeli będziemy chcieli troszeczkę więcej miejsca
do zapisania naszych myśli
czy głośnik Bluetooth lub też słuchawki.
No a nawet monitor brajlowski.
Więc będzie można połączyć
te zalety wyjścia głosowego
informacji zwrotnej w formie syntezy mowy
i te możliwości również będzie oferował
Orbit Speak.
Również dzięki podcastowi DoubleTap
wiemy już więcej o okularach Celeste.
Ja o nich mówiłem gdzieś bliżej końca
zeszłego roku, początku tego roku,
bo przy okazji zdaje się
SciTech Global,
czyli konferencji organizowanej
przez portal Mashable,
a konferencji poświęconej
zastosowaniom sztucznej inteligencji
w służbie osobom z dysfunkcją wzroku
reklamował się taki startup właśnie jak Celeste.
Oni są z Kanady.
Oni chyba gdzieś z Indii pochodzą
i oni chcą stworzyć właśnie również okulary
inteligentne dla osób z dysfunkcją wzroku.
Natomiast oni nie próbują iść na siłę
w ładowanie w te okulary
możliwie jak najwięcej technologii
i oprogramowania, tak jak na przykład
zrobiło to Envision z Envision Glasses.
Oni bardziej idą w takie zastosowanie,
które nam podniesiono i zasugerowano
również podczas naszej audycji
o Envision Glasses,
czyli po prostu zrobić kamerę
podpinaną do smartfona.
No i to właśnie oni chcą zrobić.
Będzie urządzenie, które będzie miało
w sobie dokładnie to, czyli kamerę,
dość eleganckie oprawki.
Opisując urządzenie twórca
wyraził się o nim tak,
że jest to urządzenie,
które najlepiej opisywać je
gdzieś porównując je z Bose Frames,
czyli z tymi okularami ze słuchawkami Bluetooth.
I będzie tam właśnie
jakaś forma głośnika,
czy też może mikrofonu, kamerka,
która będzie dość mocno ukryta
i jakiś prosty panel sterowania.
Na ten moment jedno stuknięcie
przesuwa nas o kolejny element w menu,
a podwójne stuknięcie wybiera nam
konkretną opcję.
Natomiast jakby całym sercem
i mózgiem operacji
ma być nasz smartfon,
na którym będzie odpalona
towarzysząca rozwiązaniu aplikacja.
Wykrywanie tekstu,
wykrywanie obiektów i opisywanie scen.
Co ciekawe autorzy rozwiązania
przetrenowali je pod kątem
rozpoznawania i opisywania
modeli i marek samochodów.
I tutaj tłumaczyli czemu tak.
A no jeżeli zamawiamy sobie Ubera
lub jakąkolwiek inną aplikację
przejazdową, jakąkolwiek inną
aplikacją przejazdową przejazd,
no to najczęściej otrzymujemy
informacje o tym,
jakiej marki, jaki model samochodu
do nas podjedzie.
No i już takim urządzeniem
w ten sposób przetrenowanym
będziemy mogli sobie naszego kierowcę namierzyć.
Więc tutaj bardzo praktycznie
panowie podeszli. Pytanie oczywiście
jak to działa w praktyce,
bo tutaj o szczegóły zazwyczaj
się takie kwestie rozbijają.
Natomiast jak widać troszeczkę
od tej swojej obietnicy
o niebrataniu się ze sztuczną
inteligencją trochę panowie odeszli,
bo już wprowadzono opcję
podsumowywania tekstu,
za pomocą właśnie GPT.
Więc to co Envision posiada
w formie Ask Envision,
czy też SuperSense nad tym pracuje,
no to tutaj też ta opcja
podsumowywania dokumentów
wygląda na to, że się pojawi.
Urządzenie również idzie
gdzieś w stronę wideo na żywo
i to o czym właśnie tutaj
była dyskusja w czasie naszej
demonstracji Envision Glasses,
czyli czy będzie można z takiego
urządzenia połączyć się,
czy będzie można połączyć się
z osobami samych, żeby po prostu
mając takie okulary na sobie
pokazywać z perspektywy naszej głowy
obraz takiemu naszemu asystentowi
wideo. Taki jest cel.
Na ten moment osiągnięto
rozdzielczość 720p.
To jest w ogóle fajne, że w DoubleTap
jeden z przynajmniej sprowadzących,
czyli Sean Priest bardzo dba o to,
żeby zadawać takie bardzo
szczegółowe, techniczne pytania.
No i okazuje się, że na ten moment
720p to jest rozdzielczość,
która nam się dotyczy.
Też dbają twórcy o to,
żeby ten obraz się dostosowywał
do naszego aktualnego łącza,
czyli jeżeli gdzieś tam nam
spadnie zasięg, no to ten obraz
proporcjonalnie też się dostosuje,
żeby było cokolwiek, może troszkę
gorzej, ale jednak widać.
Padło również pytanie,
czy takie okulary można po prostu
wykorzystać jako kamerę
do dowolnej aplikacji na smartfonie
i pamiętam, że to też była kwestia,
która była podniesiona przy naszej
dyskusji, więc no okazało się,
że dobrze przypuszczałem wtedy
odpowiadając na to pytanie,
bo Apple przynajmniej, a na razie
chyba głównie testy są prowadzone
na iPhonie, nie pozwala na to,
żeby jakakolwiek zewnętrzne,
jakiekolwiek zewnętrzne urządzenie
działało jako kamerka.
To się dopiero w iOS-ie 17
zaczęło zmieniać, przynajmniej na
iPadach zostało właśnie dodane
wsparcie kamerek na USB.
Nie wiem, czy na iPhonach to też działa,
no ale właśnie tak, dopiero teraz
nie wiem.
Tak, ale warto wspomnieć, że tu
urządzenie, bo tu mówisz USB,
jest bezprzewodowe, no więc gdzieś
tutaj nadal nie byłoby to możliwe.
Ono się łączy przez zdaje się
Wi-Fi z telefonem, no i w związku
z tym też było pytanie, ile bateria
będzie trzymała, no wygląda na to,
że 6 godzin, więc no to powinno
wystarczyć na taki dość aktywny
dzień, a raczej takich okularów
nie będziemy używać cały czas,
tylko do konkretnych określonych
problemów, zresztą każdy z nas
ma inny styl życia, więc różnie
to być może.
Pytanie było oczywiście o cenę,
no i tutaj panowie poszli w ciekawy
model, no ciekawy, no znamienny
w dzisiejszych czasach, ale jak na
urządzenia w tej kategorii, no
pytanie, czy to nie jest lepszym
rozwiązaniem, może jest to jakaś
alternatywa do tego, że takie
urządzenie miałoby kosztować tysiące.
Otóż kupując takie urządzenie,
a możemy zrobić to już teraz,
przy czym chyba w Europie jednak
nie ma koszty przesyłki tego z
Kanady, no to osoba takie coś
kupująca płaci 100 dolarów za
samo urządzenie, a następnie po 50
dolarów miesięcznie subskrypcji.
W tych 100 dolarach, które my
płacimy już jest jeden miesiąc
zawarty, a w ramach tej subskrypcji
oprócz oczywiście stałego dostępu
do oprogramowania i do usług,
jakie oferują twórcy rozwiązania,
no będziemy mieli dostęp do
najnowszych wersji urządzenia,
czyli jeżeli producent wypuści
nowszy model na rynek, to my za
darmo, bez dodatkowych jakichś tu
opłat, takie urządzenie otrzymamy.
No, jest to ciekawe, ciekawe,
czy jakaś dystrybucja w Europie
się ku temu rozkręci.
Natomiast, gdybyście byli
zainteresowani, chcieli trochę
więcej poczytać, to urządzenie
znajduje się, a raczej jego strona
pod adresem celeste.co.
No i ostatnia wiadomość w tym
tygodniu, jeśli chodzi właśnie o
tą paczkę wiadomości o różnego
rodzaju sprzętach i urządzeniach.
ColorStar, czyli urządzenie do
rozpoznawania kolorów firmy
Kertek z Austrii.
No, jest to bardziej rozbudowana
wersja Colorino.
Doczekała się swojej rozbudowanej
wersji, czyli ColorStar Pro.
I ColorStar Pro jest tym samym,
czym jest ColorStar, czyli
rozpoznawanie około tysiąca
kolorów, także ich kontrastów,
ich dźwięk, podawanie
intensywności światła.
No to tutaj dochodzą jeszcze dwie
dodatkowe analizy kolorów.
Jest to analiza LCH, czyli
Lightness Chroma Hue.
No, czyli jasność.
Jasność danej barwy wyrażona w
procentach od 0, kompletnie czarny,
do 100, kompletnie biały.
Chroma, czyli intensywność.
Tutaj od 0 do, no teoretycznie
nieograniczonych różnych wartości.
Czyli tak jakby nasycenie,
zdaje się.
I Hue, to już jest konkretny
odcień farby w stopniach,
od 0 do 360 stopni.
Są może osoby, które lubią
tego typu dokładne pomiary.
Też jest analiza RGB, czyli
reprezentacja koloru przez udział
w nim czerwieni, zieleni i niebieskiego.
Także tutaj tak to mamy
zareprezentowane.
Jest też opcja analizy takiej
ilościowej pod tym względem,
że takiej dynamicznej, że
przytrzymujemy przycisk rozpoznawania,
nawigujemy sobie tym urządzeniem
nad daną powierzchnią i po
pierwszych, po puszczeniu tego
przycisku zostanie nam odczytanych
pierwszych dziesięć rozpoznanych barw.
No więc tutaj dla takich
wielokolorowych powierzchni jest to
fantastyczne rozwiązanie.
Urządzenie, ja widziałem, że było
w ofercie kiedyś Alt X’u,
chyba nadal jest, 3095 zł kosztuje
lub kosztowało. Również Harpo
widziałem, że to sprzedawało,
albo przynajmniej jeszcze sprzedaje.
No i pytanie, czy na polski rynek
też to wejdzie. Na ten moment w
niemieckim sklepie z pomocami
Marlant kosztuje ono 750 euro,
no czyli wychodziłoby na to, że
przy obecnych kursach troszkę ponad
3000 zł, ale może być, że w wyniku
inflacji te ceny zostaną przeliczone.
Ponoć jest to 120 euro więcej niż
model bez pro, więc no troszkę
droższe to jednak będzie.
Zobaczymy, czy polski rynek
zainteresuje się importowaniem tego
urządzenia, a ja już przekazuję głos
Tomkowi, bo Tomek do nas dołączył.
Tomku, słyszymy się?
Tak, słyszymy się.
A, witaj, witaj. Więc ty jesteś już
tu z nami, no i do ciebie powinien
należeć w sumie pierwszy news,
ale no teraz ty go nam opowiesz
po tym czasie, kiedy teraz
przyszedłeś, czyli coś
niedobrego dzieje się z Komplitem,
prawda?
To znaczy nie tyle z Komplitem,
ile z Kontaktem.
Kontakt to jest sampler od
Native Instruments.
Oczywiście jest w tych
pakietach Komplit,
wersja tego Kontakta Full
jest od Komplit Standard,
natomiast w wersji Start
oraz Select to jest Kontakt,
no demo.
I tu się dzieje i dobrego i
nie, to znaczy niedobrego to się
poniekąd, no to już jest w pewnym
sensie stało, natomiast dobrego
możliwe, że się dzieje, to znaczy
zmienia się interfejs Kontakta
tego instrumentu i to jest
nie do końca dobra wiadomość,
dlatego że póki co dostępność
tego samplera polega na tym, że
te skrypty w zasadzie, które
udostępniają ten sampler, to
one po prostu klikają w
odpowiednie miejsce ekranu, tam
są przeliczane współrzędne według
jakiegoś tam systemu, dlatego
trzeba mieć ustawioną, czy warto
żeby była ustawiona odpowiednia
rozdzielczość ekranu, no i jeżeli
się zmienił interfejs, zmieniły
się te współrzędne, no to to
przestaje działać.
Natomiast też są tutaj różne
spekulacje na liście, znaczy
spekulacje, trochę plocki, trochę
podejrzewam, że jakieś informacje,
które ktoś ma od kogoś gdzieś,
że Native Instruments po pierwsze
coś robi z klawiaturą, ja wiem,
że to brzmi dziwnie, ale no
chodzi o to, że no
implementuje tam usługę
klawiatury, co sugerowałby,
czy mogłoby sugerować to, że
Native Instruments chciałby,
żeby kontakt był dostępny bez
skryptów zewnętrznych, no i to
jest informacja dobra, o ile
oczywiście jest prawdziwa, no bo
no jakkolwiek zmniejszą to osoby,
które raczej nie rzucają plotkami,
znaczy wiecie, to są, to są takie
osoby, które jakkolwiek, no nie
wszystko wiedzą, aczkolwiek te
informacje, które mają, no to nie
są rzeczywiste, tylko z sufitu,
znaczy wzięte z sufitu, tylko no
jakoś tam prawdopodobnie ktoś z
kimś rozmawiał, więc to jest jakoś
prawdopodobne, niemniej no na pewno
nie jest tak, że to na pewno tak
będzie, ale jest na to szansa.
I to zawsze chętnie, chętnie
słyszymy, no dobrze, no to w takim
razie przejdźmy do drobnych newsów, ja
tu ich kilka dzisiaj mam, mam nadzieję,
że się szybko z tym uwiniemy, bo
rzeczywiście chyba nie ma, no wiele
jakoś do gadania, no i zaczynamy od
VO Starter, czyli aplikacja, która
powstała, no dosłownie kilka dni temu,
aplikacja, która służy do nauki
voiceovera, no bo jak dobrze wiemy
voiceover w przeciwieństwie do
Talkbacka i tu jedno trzeba Androidowi
przyznać, że Google zrobiło to
świetnie, nie posiada samouczka, mamy
oczywiście możliwość zapoznania się
z gestami, mamy możliwość sprawdzenia,
co konkretny gest robi w trybie
pomocy, natomiast nie ma takiego
typowego samouczka, który by zupełnie
nową osobę jakoś przeprowadził, jak ma
tak tego voiceovera efektywnie
używać, no i były już różne
aplikacje, była aplikacja, zdaje się
firmy, firmy Luktel, Luktel jakiś tam
tutorial czy coś, też widziałem
aplikację tutaj ze stajni
appt.org, czyli tej chyba
holenderskiej inicjatywy, która też
stworzyła ten, takie te repozytorium
dobrych praktyk w zakresie
dostępności aplikacji mobilnych, no a
teraz mamy VO Starter i dobrze, że
takich aplikacji powstaje coraz
więcej, no bo przydają się te różne
inicjatywy, gdzie osoby niewidome
mogą się uczyć, jak z takiego
smartfona korzystać, no jest tylko
jeden problem, aplikacja jest w języku
angielskim, więc przydałoby się, żeby
ktoś ją kiedyś na język polski
przetłumaczył, no bo cóż nam po
takim samouczku, jak to nie w naszym
prawda języku. Druga informacja i tu
podziękowania dla słuchacza Dawida,
chociaż też już widziałem to od innych
naszych słuchaczy, którzy używają
aplikacji Lazario na Blind Shella i
z tego, co pisze Dawid, można
zalogować się na wiele sposobów, no
o tym wiedzieliśmy, bo Lazario
wymaga założenia konta i no
doprowadzi nas tam, gdzie chcemy, bo
istotnie jest opcja sprawdzania
miejsc w pobliżu, jest nawet
nawigacja zakręt po zakręcie, ja nie
jestem jej jakoś szczególnym fanem,
jakoś mi się ona nie sprawdziła,
nie potrafiliśmy się z Lazario
dogadać na jakieś wspólnie
jakiś kierunek, bo tam raz były
godziny, raz kierunki takie
kardynalne świata, jakoś nie
potrafiliśmy się dogadać, no ale jest,
jest to myślę nie najgorszy wybór,
no i z tego, co Dawid mówi, można
ustawić, aby aplikacja używała
eSpeak’a, co pokazuje tylko, że w
Blind Shellu ten eSpeak jest i on w
niektórych okolicznościach może
zostać użyty, ale nie da się go
użyć w screen readerze tym
Blind Shellowym. Trochę szkoda, bo
może wtedy ten telefon by troszkę
do eSpeak’a są przyzwyczajone,
miałyby swój ulubiony głos na
telefonie, także no tutaj gratulacje
dla użytkowników Blind Shella,
macie nową fajną aplikację. Teraz
Enhanced Tools, to jest dodatek dla
NVIDIA od Hectora Benteza, on
tworzył już wiele dodatków, jest to
użytkownik z hiszpańskiej
społeczności niewidomych, no tym razem
stwierdził, że weźmie się za coś, za co
nie bierze się Windows App Essentials
Josefa Lee i doda parę takich
usprawniaczy, które nam pomagają
troszkę w tej nawigacji po
Windowsie i na ten moment mamy
skrót klawiszowy, który pozwala nam
na odczytanie, na którym z
wirtualnych pulpitów aktualnie się
znajdujemy, no jeżeli korzystamy z
wirtualnych pulpitów. Mamy też
skróty klawiszowe do przełączania się
na konkretny pulpit, czyli jak tam mamy
pierwszych 10, to od 1 do 0 możemy się
przełączać, chyba NVIDIA Control
1 do 0, jeżeli dobrze pamiętam, a
także mamy informacje, jeżeli
wejdziemy do pustego folderu, że
folder jest pusty, no bo domyślnie
czyta nam widok folder lista i w sumie
tyle, więc tu będzie informacja, że
folder jest pusty. Pewnie dojdzie
do tych opcji jeszcze więcej, no
ale na ten moment takie mamy
usprawniacze w tym dodatku. Też
poszedł raport od jednego z
użytkowników, że poprawia się
dostępność Stima na Windowsa, ponoć
już w menu kontekstowym w ikonce,
w trayu je są odczytywane opcje,
które teraz są. Mogę potwierdzić.
Tak, to zawsze miło słyszeć,
oby tak dalej, brawo Valve.
Poprawki dostępności również w
aplikacji NS MIDI Player, bardzo
prosty, darmowy, no z pewnymi
opcjami do wykupienia, ale
odtwarzać plików MIDI na iOS-a i
Mac-a, można odtwarzać MIDI,
można odtwarzać te jakieś tam
GMX-y, te takie rozszerzone MIDI,
to chyba są te moduły z gier,
jeżeli dobrze kojarzę. I można
użyć też własnych brzmień,
więc to taki prosty, i oczywiście
otwierać przez udostępnianie z
innych aplikacji, z aplikacji pliki,
gdzieś tam z Safari, można
odtwarzać te MIDI też przez
Airplay-a, gdyby ktoś bardzo chciał.
Wiem, że są osoby niewidome,
które mają bardzo duże kolekcje
różnych MIDI, no więc można sobie
po prostu takie pliki gdzieś tam
odtwarzać.
Aplikacja Paperback,
jest to aplikacja również
dostępna z voice-overem, która
pozwala nam po prostu na
przechowywanie w niej artykułów do
odczytu późniejszego offline.
Nie wiem, na ile jest to przydatne,
bo mamy listę czytelnia w Safari,
mamy te różne usługi typu Pocket,
Read It Later, mamy nasze czytniki
RSS, które również potrafią nam
parsować, ale gdybyśmy po prostu
chcieli mieć takie jeszcze jedną
aplikację, w której chowamy nasze
artykuły, no to można tam to
zrobić. Aplikacja jakoś te artykuły
wstępnie przetwarza do stopnia,
że możemy gdzieś tam je
sobie
czytać, po prostu one są już
pokazane w formie takiego litego
tekstu,
po którym możemy nawigować.
No i możemy też je teoretycznie
uporządkowywać w różne tagi,
natomiast mi to jakoś nie działa
niestety, jak próbuję dodawać tagi,
to pole edycji, w którym mógłbym
te tagi wpisywać mi się nie otwiera.
No, ale aplikacja jest, ja myślę,
że może będę jej używał jako takiej
przechowalni różnych rzeczy,
o których chciałbym opowiedzieć w
tylko przeglądzie, bo taka osobna
aplikacja tylko do tego celu, no to
może być całkiem fajna. I aplikacja
jest również darmowa.
I ostatnia rzecz z drobnych
newsów. Na Androidzie w sklepie
Play ukazała się nowa aplikacja
niewidomego dewelopera z RPA,
czyli Vibrating Clock, aplikacja,
która ma nas informować o
aktualnym czasie, aktualnej
godzinie za pomocą wibracji,
trochę tak jak to ma miejsce na
Apple Watchach. Na ten moment z
telefonem należy kołysać jakoś
tak lewo, prawo, żeby to
wibrowanie wywołać. Nie jest to
na ten moment chyba jakoś zbyt
poręczne, nie dzieje się na przykład
automatycznie, kiedy próbujemy
odblokować ekran. Też nie wiem,
czy jest jakieś działanie, które
by to wywoływało w tle.
Natomiast aplikacja istnieje, na
pewno rozwijać się będzie, więc
autorowi różne rzeczy sugerować
można. No i to wszystko na ten
moment, co myślę można by
powiedzieć z drobnych newsów.
Myślę, że możemy przejść do
Piotra i tutaj jego raportów z
najnowszych już szóstych bet
systemów Apple. Piotrze,
zmieniło się ponoć niewiele,
czy tak? Tak, no generalnie
teraz te bety wychodzą już co
tydzień, a nie tak jak wcześniej,
co dwa tygodnie, więc tych zmian
jest po prostu mniej. Szósta beta
nawet bym powiedział niestety
więcej popsuła niż wprowadziła.
No ale to jest,
to są wersje beta, tak
często przypominamy wam, jak
widać sytuacja może się
dynamicznie zmieniać na plus
lub na minus. Co ciekawe, nie
pokazała się tym razem wersja
beta macOS-a, tylko mamy właśnie
te systemy pochodne od iOS-a,
czyli iOS, iPad, OS i watchOS,
a pewnie Mac będzie w
przyszłym tygodniu. Mniej więcej
co się zmieniło? Pierwszą rzecz,
którą zauważyli użytkownicy to
to, że nie mamy już
niestety wibracji, kiedy
przestawiamy wyciszenie, ten
przełącznik wyciszenia. Zamiast
niej mamy komunikat, mamy
komunikat w tryb wyciszony i
tryb normalny, który
niestety nie zawsze działa,
nie zawsze chce działać, kiedy
telefon jest zablokowany. Ja na
przykład na swoim telefonie tego
komunikatu nie mam, jeśli mam
telefon zablokowany, po prostu
nic nie słyszę. Natomiast niektóre
osoby na Mastodonie, z którymi
rozmawiałem wtedy, ten komunikat
mimo wszystko mają. Osoby
widzące też już tej wibracji
nie mają. Testowałem to przy
wyłączonym voiceoverze, ale też
na Redditzie ludzie zgłaszali, że
ta wibracja im znikła. Wiem, że
to zostało zgłoszone, chociaż
fakt, że voiceover zaczął nas o
tym informować, mógłby sugerować,
że to było zrobione umyślnie,
ale tutaj sporo osób traktuje to
jako błąd. Ja myślę, że też.
Mi akurat tej wibracji też
brakuje i byłoby przykro, gdyby
ona zniknęła, zwłaszcza kiedy
mówicie teraz właśnie o tym, że
w nowych iPhone’ach to ma być
zastąpione przyciskiem, tak? No
bo wtedy w ogóle nie wiemy, w
jakim on może być stanie.
Tak. Przede wszystkim to było
chyba sprzętowe. To jakoś działało
na poziomie niższym systemu, więc
nawet gdyby nasz iOS się jakoś
bardzo, bardzo mocno zawiesił, no
to zdaje się, że wtedy taka
wibracja byłaby w stanie nadal się
jakoś odezwać. Różnie było.
Bywały takie sytuacje, gdzie to się
też zawieszało i ta wibracja nie
dawała znaku życia, ale chyba ta
wibracja padała zazwyczaj jakoś
później albo dużo ciężej było ją
zdjąć niż to, żeby nam voiceover
coś powiedział. No właśnie, więc
mam nadzieję, że kiedy iOS 17
już finalnie się ukaże, to ta
wibracja będzie, no i komunikaty
mogą zostać. Czemu nie? Myślę, że
dodatkowe potwierdzenie to nie jest
zły pomysł, natomiast no ta
wibracja też myślę, by się
przydała. Co jeszcze się
zmieniło? Tutaj na
AppleVisie na przykład ludzie
piszą, że problem z
klawiaturą w aplikacji telefon został
poprawiony. Ja akurat
nie zauważyłem problemu,
ale problem
inny zauważyłem niestety, mianowicie
zaczęły psuć się niektóre etykiety
kontrolek w
centrum sterowania i to nie jest
tylko kwestia, nie wiem, polskiej wersji
systemu czy jakiegoś innego języka, bo
no ja akurat mam telefon w języku
angielskim i tak na przykład
przycisk do rozpoczynania
nagrywania ekranu, który no
wcześniej po prostu się tak nazywał,
nagraj ekran, dostał
teraz nic nam nie mówiącą etykietę
BaseState, która
nie wiem co, dlaczego tak się
stało. Tam jeszcze kilka, chyba
jakiś jeszcze jeden przycisk też po prostu taką
etykietę dostał, więc tu tam coś
coś się niestety
rozjechało, ale no myślę, że
do finalnej wersji
to zostanie
poprawione. Tutaj też ktoś zgłasza problem, który
w poprzedniej wersji
się pojawił właściwie, ale
niestety w tej najnowszej nadal
występuje, mianowicie
kiedy przeglądamy sobie godzinny
raport w aplikacji pogoda, to
focus nam czasami ucieka
i nie możemy
dobrze sobie tej pogody
przejrzeć.
Ale w aplikacji dom kontrola
temperatury, jeśli mamy jakieś
jakieś termostaty
dodane, no to one już
są dostępne, możemy sobie spokojnie temperaturę
w naszym domu
regulować. Też są poprawy
nieodpowiedniego języku
czytania widgetów. Tutaj akurat
ta osoba, która to zgłasza
mówi, że korzystała z telefonu w języku
hiszpańskim, ale te wbudowane
widgety w system były czytane angielskim
głosem, nie wiadomo z jakich przyczyn.
To też już
zostało poprawione
w
tym trybie, w standby,
w tym trybie takim wygaszacza ekranu, to nazwijmy
kiedy telefon jest podłączony do ładowarki.
Tutaj też ktoś zgłasza, że voiceover
już zegara nie czyta, a wcześniej
czytał, więc no miejmy nadzieję,
to jest akurat nowa funkcja, że to będzie
poprawione. I kolejna
rzecz, która też niestety nadal
występuje i to jest chyba najbardziej
poważny błąd, błąd, który
jest dosyć
nagłaśniany przez Jonatana
Mosela na przykład. Mianowicie
wiele monitorów brailowskich
po czasie traci połączenie.
To głównie zgłaszali
użytkownicy monitorów HIT, czyli
no głównie to są te nowe monitory
Humanware, czyli
bralianty, mantisy te nowe,
no ale też
użytkownicy innych monitorów, na przykład
Cubaila od firmy
HIMS też ten problem zgłaszają
i już tutaj też dostałem potwierdzenie,
że w najnowszej
becie też niestety ten błąd występuje,
więc po kilku minutach połączenia z
monitorem po prostu ten brail nam
nagle znika i nie wraca
i wtedy musimy urządzenie
parować ponownie, żeby to
wszystko wróciło, więc no mam nadzieję,
że kiedy iOS 17 się pokaże już
oficjalnie, to tego błędu
nie będzie. A jeśli wy zastanawiacie się
nad zainstalowaniem tej wersji beta
i korzystacie z braila intensywnie,
no to myślę, że warto
tutaj się zastanowić, czy warto
po prostu tą wersję instalować,
jeśli zwłaszcza chcecie to zrobić
na waszym głównym urządzeniu.
To jest wersja beta
no i jak tutaj widać są
często fajne zmiany, ale też
nawet właśnie w późniejszym etapie
rozwoju czasami też mogą
się niestety jakieś rzeczy popsuć,
ale też równie dobrze za
tydzień lub dwa one
już mogą zostać naprawione, więc no
właśnie to jest wersja beta i trzeba być gotowym na takie
dynamiczne zmiany sytuacji.
No to dobrze, miejmy nadzieję, że te
poprawki zostaną wprowadzone w miarę
szybko. Poprawki również
w kwestiach dotyczących osób
parających się szeroko pojętym
dźwiękiem, no bo o
interfejsach firmy Audient
my już kiedyś mówiliśmy, ale teraz już
chyba oficjalnie, tak? Są one
dla nas dostępne, prawda Tomku?
Prawda. Audient
na swojej stronie internetowej
no ma
artykuł na ten temat, ja go
spróbuję przeczytać, artykuł jest
w oryginale angielski, ja go
przetłumaczyłem Googlem,
możliwe, że powinienem przetłumaczyć go
DeepRym, ale przetłumaczyłem go Googlem,
więc tak go przeczytam też.
Audient ma przyjemność ogłosić,
że zarówno aplikacje
miksera ID
jak i Evo to są dwie linie,
znaczy dwie serie kart dźwiękowych
od Evo, właśnie ID i Evo.
Oferują teraz
nowe ułatwienia dostępu dla użytkowników
niewidzących. Użytkownicy mogą poruszać
się po całej aplikacji miksera
za pomocą klawiatury i czytnika ekranu,
pobierając najnowsze sterowniki,
które teraz obejmują ułatwienia dostępu
dla każdego odpowiedniego produktu.
Porusza się
po całej aplikacji miksera
ożuwając tylko klawiatury i czytnika
ekranu, dzięki Frankowi
i teraz, nie wiem, Chavezowi
przez ch to nie Chavesowi,
Chavezowi, nie wiem, z Audient,
to jest pewnie jakieś hiszpańskie takie.
Możliwe. Który nadzorował
projekt, użytkownicy mogą łatwo
przełączać się między elementami interfejsu
użytkownika. Słychać
informację zwrotną o stanie
wybranego elementu, na przykład
Mic 1, Fader 2.
Możliwa jest również interakcja z tym
samym elementem w zależności od
jego rodzaju, na przykład za pomocą
klawisza Enter przełącza się
przemocznik zasilania fantomowego
lub strzelek góra-dół, aby dostosować
poziom suwaka.
Tu jest podpis obrazka,
więc muszę go przewinąć.
Dzięki czytnikowi ekranu możesz
teraz zapisywać i przywoływać
ustawienia wstępne, zmieniać
źródło loopback,
instalować aktualizację
oprogramowania układowego, a nawet
monitorować status Smart Gain
w Evo. Smart Gain to jest
rzeczywiście jakaś funkcja, która pozwala
na jakby automatyczną,
zdaje się, automatyczne chyba dostosowanie
wejścia, poziomu wejścia
mikrofonowego. To pewnie można sobie
sprawdzać, jaką sobie to tam zmieni.
Tak mi się wydaje. Mówi Frank.
Znaczy nie to, co ja,
tylko to, co przeczytałem, wiadomo.
Aplikacja miksera powiadamia również
użytkownika o zmianach
zachodzących w rzeczywistym urządzeniu
audio. To jest dziwnie przetłumaczone,
ale zaraz będzie przykład.
Usłyszysz talkback on
po naciśnięciu przycisku talkback
na interfejsie
i ID 44.
Rzeczywiście ten interfejs ma
coś takiego, więc fajnie
to też jest, że rzeczywiście
naciska coś na interfejsie
i udźwiękowo nie mówi,
że coś wcisnąłem i że ten talkback
jest on-off. To jest akurat dość
ważne. Talkback to nie jest oczywiście
czytnik ekranu na Androida, który tam
mógłby być, tylko talkback to
jest funkcja, która
powoduje, że mikrofon
taki z reżyserki jest słyszalny
w studiu i to jest dość jednak
ważne, bo
no bardzo dobrze
jest wiedzieć,
że to, co mówię,
słyszy lub nie słyszy
no zespół tudzież, lektor
tudzież, no ten ktoś, kto jest
za tą przysłowiową szybą
w studiu. Bo może się
okazać, że
to
będzie to dość ważne, powiedzmy tak.
Ten projekt nie byłby możliwy
bez cennego wkładu
Scotta S. Warda,
Nicka i teraz co, Dziannaka?
Nie wiem. I Tony
Barth. I teraz tu jest napisane
adwokatów i członków społeczności
osób z niepełnosprawnościami
wzroku. Działali
jako punkty kontaktowe między
audientem a ponad 30-osobową
grupą beta-testerów, oferując sugestie
ulepszeń i
krytykę. No dobra, po drodze.
Tu jest
znowu podpis, taki
dość fajny.
No i
tu są potem już
wypowiedzi, że
tam ktoś zadzwonił
i myślał, że go tam
zostanie
po prostu potraktowany jak każdy
inny. Rozważyliśmy problem i oczekuj na
kontakt, ale na szczęście tak się nie stało.
No i generalnie rzecz biorąc, no
jak to się mówi, mamy to.
Bardzo dobrze, bo to są interfejsy
no raczej cenione
i raczej
no może to nie jest szczyt
nie wiem, profesjonalnej
półki, że tak powiem,
ale jest to na tyle dobry, że spokojnie
można z tego korzystać
w różnych sytuacjach
dość profesjonalnych
i dobrze, że takie urządzenia
są dostępne dla
nas również, bo to rzeczywiście
no sprawia, że
coraz więcej takich dróg
w tych
wszystkich zawodach związanych
z realizacją dzięku jest dla nas
mniej lub bardziej otwartych, a przynajmniej
no więcej
możliwości się otwiera i
są jakieś większe szanse na
różne rzeczy, zwłaszcza
w jakichś miejscach, gdzie już są jakieś interfejsy
jakieś miksery, jakieś
inne tego urządzenia, no to
jeżeli gdzieś jest audient,
no ten audient będzie dostępny,
także naprawdę fajnie.
Zdaje się też, że
Jonathan Mosen jakieś
dwa miesiące temu zrobił
podcast w ramach
podcastu The Blind Podmaker, czyli
nie Living Blindfully, a ten drugi podcast, gdzie
no pojawiają się różne materiały dotyczące
właśnie tworzenia podcastów, czyli
no szeroko pojętego dźwięku,
recenzje rejestratorów, właśnie
mikserów, interfejsów,
no i tam można się z
tym, co audient oferuje zapoznać,
jak to działa w praktyce, oczywiście w języku
angielskim.
Polecam, bo jest to dość
takie obszerne i
no można tam się wszystkiego
dowiedzieć. Dzisiejszy
tyfloprzegląd, jego dział
raczej
tyflowieści,
zamykamy
wieściami z Polskiego
Związku Niewidomych i dzisiaj dość
skromnie, bo znaczy oczywiście
informacja na temat śmierci
Marka Jakubowskiego również pochodzi z PZN,
więc link, gdzie będziecie mogli się
zapoznać jakby z całym ogłoszeniem
na ten temat,
będzie podany w komentarzu, natomiast
oprócz tej informacji
też są inne.
No i tu informacja o temacie,
który jakoś tam gdzieś pod radarem przemknął,
a jest dość ważny i jest dość
częstym tematem teraz dyskusji, czyli
wypożyczalnie sprzętu, które zostały
powołane z inicjatywy
właśnie,
zdaje się, pana wiceministra
Pawła Wdówika,
rzecznika osób
niepełnosprawnych,
czyli takie miejsca, gdzie osoba niewidoma może
pójść i sobie taki sprzęt, który normalnie
bym chciała kupić z dofinansowania
albo
wątpię raczej, że z własnych środków, ale
z dofinansowania
może sobie taki sprzęt wypożyczyć,
czyli np. monitory brailowskie,
chyba zdaje się, że smartfony też są,
iPhone’y i różne inne
urządzenia, które mogą się okazać przydatne.
No i każde
miasto,
nie wiem czy każda gmina to może, że aż nie,
ale w miastach tych większych na pewno
są takie wypożyczalnie, są powoli
powoływane. No i
teraz powołana też została instytucja
doradcy, czyli tego miejsca,
gdzie można się zwrócić, żeby
otrzymać poradę, co z takiej
wypożyczalni w naszej konkretnej
sytuacji indywidualnej warto
sobie pożyczyć. No i
artykuł cytuję.
PFRON podpisał
umowy z 17 podmiotami,
które mają doradzać osobom z niepełnosprawnościami
w wyborze sprzętu
z centralnych wypożyczalni.
To będzie nowy program realizowany przez
PFRON. Centralna wypożyczalnia
sprzętu rehabilitacyjnego, wyrobów medycznych
i technologii asystujących
dla osób z niepełnosprawnościami ma
działać w ramach nowego programu PFRON.
Tak podaje portal Prawo.pl
Nad powstaniem systemu
nadzór ma Ministerstwo Rodziny i Polityki Społecznej.
Koordynatorem jest
Rządowa Agencja Rezerw Strategicznych
RARS.
Usługi doradztwa i instruktażów
w zakresie wypożyczanego sprzętu asystującego
będą pełnić Centra
Informacyjno-Doradcze
CIDON,
funkcjonujące przy wojewódzkich
oddziałach PFRON oraz ośrodki wsparcia
i testów OIT.
Arkadiusz Grądkowski,
Prezes Ogólnopolskiej Izby Gospodarczej Wyrobów Medycznych
POLMET, zwraca uwagę,
że podstawowe znaczenie dla
sprawnego funkcjonowania systemu będzie miało
profesjonalne doradztwo w zakresie
doboru wyrobów medycznych.
Jeśli lekarz wypisze
zlecenie na gorset i zostanie on źle dobrany,
może on bardziej zaszkodzić pacjentowi
niż mu pomóc.
Wyroby medyczne muszą być dopasowane
przez profesjonalistów, którzy mają
doświadczenie i zweryfikowane kompetencje,
powiedział Arkadiusz Grądkowski.
Jak dowiedzieli się
dziennikarze Prawo.pl, dokładny
termin
możliwości rozpoczęcia składania
wniosków o wypożyczenie sprzętu
zostanie ustalony przed
końcem bieżącego kwartału.
Pełny tekst artykułu na stronie
no i tu jest
link do artykułu.
No i to tyle, więc
jeżeli macie jakieś doświadczenia z wypożyczalniami,
to dajcie znać, co tam wypożyczaliście,
jak tam wasze doświadczenia.
No i
to chyba też niedługo ruszy,
więc jak już będziecie mieli, to dajcie znać
po prostu. No a też
dla osób, które chciałyby troszeczkę
rozwinąć różne umiejętności, poszerzyć
swoją wiedzę, zwłaszcza
w zakresie języków obcych, ale nie tylko,
no to są oferowane
znowu szkolenia. Po raz zostaje się
czwarty.
Fundacja Strefa Innowacji zaprasza
do czwartej edycji projektu
Młodzi Sprawnie Językowo.
Uczestnicy mogą wziąć udział w kursach języka
angielskiego, niemieckiego i hiszpańskiego,
warsztatach rozwojowych oraz
szkoleniu informatycznym.
Projekt jest skierowany do osób niewidomych
i słabowidzących.
Trwa rekrutacja do czwartej edycji
projektu szkoleniowego online
Młodzi Sprawnie Językowo.
Do udziału w tej inicjatywie mogą przystąpić
osoby w wieku od 14 do 45 lat,
zamieszkałe w miejscowościach
do 30 tysięcy mieszkańców.
Tak.
Uczestnicy wezmą udział w kursach języka
angielskiego, niemieckiego lub hiszpańskiego.
Zajęcia będą odbywały się dwa razy w tygodniu
po 90 minut.
Celem kursu jest podniesienie kompetencji językowych
w klasyfikacji A1-C2.
Podczas zajęć wykorzystywane będą
materiały dostosowane do
potrzeb osób z funkcją narządu wzroku.
Integralną częścią
projektu będą warsztaty rozwojowe
prowadzone przez kołcza.
Podczas ich trwania podejmowane będą
zagadnienia takie jak
samoświadomość, poczucie własnej wartości
i umiejętność pracy w zespole.
Uczestnicy poznają też
sposoby radzenia sobie ze stresem.
Zajęcia będą odbywać się w małych grupach
na platformie Zoom.
Organizatorzy zapewniają wstępne szkolenie
informatyczne oraz wsparcie techniczne.
Zapisy do projektu
i inne informacje dostępne są na stronie
na stronie
www.sprawniejęzykowo.strefa.org.pl
Projekt Młodzi Sprawnie Językowo
finansowany jest ze środków fundacji PZU.
No i to wszystko w tym tygodniu
jeśli chodzi o tyflowieści,
ale to nie wszystko jeśli chodzi o wiadomości ogólnie,
bo jest z nami jeszcze dość bogaty dział
technikaliów.
No i tu widzę, że zarówno Tomek
jak i Paulina wy macie
tutaj newsy
i dotyczą one oba
Eleven Labs. To jakoś może
przedstawicie o co chodzi?
Myślę, że tak, że można by to sprzęcić.
Tak, bo w poprzedniej audycji
już wspomnieliśmy trochę o tym,
że ten V2 wyszedł.
Okej, ja się zasugerowałam tym, że nie ma tego
w notatkach.
No tak.
Tak, tak, bo to było
bo ten model V2
to chyba w ogóle się pojawił w trakcie trwania audycji.
Ale można by
pogadać trochę o wrażeniach w zasadzie,
chociaż nie muszę.
Jakby nie powiem chyba nic
odkrywczego.
Aczkolwiek ja już zrobiłem
jakieś testy i mam
nadzieję, że będę mógł je pokazać, bo
nie wiem czy Paweł się obrazisz.
Mam nadzieję, że mimo wszystko jakoś mnie oszczędzisz.
No to leży jak wyszło.
Bo postanowiłem Twój głos właśnie
z audycji, którejś
sklonować, to znaczy wrzuciłem tam kawałek
Twojego
czytania czegoś
jako kawałeczek
i postanowiłem sobie nawet przed chwilą
nawet
właśnie przed chwilką
wrzucić ten kawałek mojego tekstu,
tego o audiencie.
I no powiem
tak, no może
sami Państwo
ocencie jak to wyszło.
Dzięki Frankowi Kawezowi z Audient,
który nadzorował projekt, użytkownicy
mogą łatwo przełączać się między
elementami interfejsu użytkownika.
Słychać informację zwrotną o stanie
aktualnie wybranego elementu,
na przykład mic 1, fader
2.
Tyle wrzuciłem.
No, jest dobrze.
To tak zupełnie dla H3,
daj mi ten tekst i ja go
pokażę, wiesz, którym
modelem, w sensie, wiesz,
którą próbką, chyba
najbardziej śmieszną, którą
na ten moment…
Tylko, tak, pytanie, czy możemy?
No, śpiewającą mnie?
A, dobra, dobra, o co chodzi?
Okej, tylko ci to wrzuciłeś na Telegram?
No, tak,
raczej tak. Ja myślę, że ten głos
się całkiem fajnie udał, bo
mój oczywiście,
mój, no twój zaraz ocenimy, oczywiście, tu nie ma tak,
ale
te różne
mechanizmy klonowania głosu, z Microsoftem
na czele,
jakoś tak sczytują te właściwości mojego
głosu. Ja wiem, że on jest
jakoś jednym z tych wyższych, no, może
nie całkiem, ale jak na męski głos jest dość wysoki
i
on bardzo idzie
w takie kobiece gdzieś tony,
także tu jestem pozytywnie zaskoczony,
bo dość wiernie, dość wiernie go oddał.
Tak, mój głos też dobrze
oddaje, V1 w ogóle sobie
z moim głosem nie radził.
Michał Atoś dobrze głos też oddaje,
także ten V2,
po pierwsze, umie te głosy
rzeczywiście
dobrze naśladować,
po drugie, on już coraz
mniej czyta
wszystko, jakby czytał to
jakiś lektor audiobookowy, to znaczy
on ma większą tolerancję, jeżeli chodzi o
intonację tej osoby czytającej.
Umie troszeczkę, zaczyna umieć
krzyczeć, zaczyna umieć czytać
jakimś takim głosem bardzo spokojnym,
jeżeli się da, na przykład
jak kiedyś dałem kogoś, kto czyta
wiersz, to rzeczywiście wszystko zaczął
czytać takim tonem,
jakby czytał wiersz.
Takim bardzo rzeczywiście spokojnym
i bardzo takim adekwatnym
do właśnie wiersza, natomiast
nadal, nadal
no, ten syntetator
nie rozumie i podejrzewam, że nie
będzie rozumiał tego, co czyta.
To znaczy tak, jeżeli chodzi o cały
tekst, jeżeli dam mu kawałek książki,
to nie wie często,
gdzie dać jaką
intonację,
no bo jeżeli
jest jakieś zdanie, w którym ma zaakcentować
konkretne słowo, bo to
wynika z kontekstu danego zdania,
typu, że na przykład coś jest
duże, a to jest małe,
to będzie wiedział, że duże i małe to są rzeczy
ważne, jakby w tym zdaniu
to będzie wiedział, że to trzeba zaakcentować.
Natomiast jak dałem mu jakiś
kawałek książki, gdzie był
dialog, trochę narracji, to on jakby
nie wiedział do końca, co jest
dialogiem, co jest narracją,
te minusy
tam, podejrzewam, że to trochę wynikało
z tego, że te minusy są tam
powstawiane, ale przy narracji niekoniecznie.
On musiał się domyślać, domyślał się źle.
Więc do książek
to tak ostrożnie
powiedziałbym, natomiast
natomiast rzeczywiście
te głosy naprawdę zaczynają się
udawać
całkiem nieźle, przy czym
na przykład, gdy
ja wrzuciłem swój jakiś kawałek
podcastu i ustawiłem,
bo tam teraz są trzy słowaki,
a nie dwa, jeszcze pole wyboru.
Jeszcze pole wyboru. Tak.
Ale jeszcze co do tego rozumienia, to jest w sumie tak
jak ci tam mówiłam, jakby
to rozumienie, w sensie to, co
się udaje
wynika trochę z tego, że
siadło, a trochę z tego, że ten model
był trenowany na transkrypcjach
i na tekstach, więc
jeżeli on widzi, że za każdym
razem wtedy, kiedy jest, nie wiem,
zaśpiewał albo krzyknął, to
wtedy jest jakaś inna intonacja, to on
próbuje ją zreprodukować, ale to w ogóle
nie ma nic wspólnego
z rozumieniem, więc ja się wcale
nie dziwię, że
gdzieś tam te intonacje
w ogóle nie wchodzą tutaj
w grę. Myśmy w ogóle nawet zrobili eksperyment
już tak poza
typem przyglądowo,
żeby dać czatowi GPT
do wskazania
nastroje
danej
jakiegoś tam, danego fragmentu tekstu
i sam czat GPT też
pomimo, że jest modelem językowym,
to nie wiem, jeżeli byśmy
powiedzieli, że
poziom
absurdu dzisiejszego świata
jest podobny do poziomu absurdu
moich myśli, a potem bym
powiedziała, że, no to bym mi powiedział, że
jestem ironiczna, ale jakbym
potem powiedziała, no to w sumie spoko, bo jestem
podobna do innych, to bym
mi powiedział, że to jest entuzjastyczne, bo
no w sumie skoro powiedziałam, że spoko,
no to znaczy, że się cieszę.
Jakby to jest rozumienie typowo
na poziomie zdania.
Chociaż może akurat wtedy mi
siadło, ale jakby no
to nie jest takie proste.
Jeszcze jedno, bo
ja ten tekst generowałem chyba
trzykrotnie, bo tam był jakiś
cudzysłowy, jakiś znak plusa,
który on jakoś dziwnie zinterpretował, natomiast
ten hawes, na którym ja się
tutaj zatrzymałem, on
też za każdym razem
czytał inaczej. Raz czytał
hawesowi, potem
czytał szawesowi, aż w końcu
w tej trzecie prócy czytał kawesowi,
więc gdyby ktoś na przykład
miał jakąś książkę, w której
mogłoby być tego typu
nazwisko, to proszę się
nie zdziwić, że jedno i to samo
nazwisko jest czytane za każdym
razem inaczej.
Także
jeżeli tylko można,
to to lepiej takie rzeczy
dawać mu
już w taki sposób pisany,
mimo wszystko tak jak się czyta.
Liczby teoretycznie też
powinien troszkę lepiej
interpretować, aczkolwiek też
lepiej zwłaszcza
z większymi liczbami uważać i lepiej
pisać to wszystko słownie, bo
różnie to z tym bywa.
Ale na pewno jest duża,
duża, duża poprawa.
Kilka głosów,
znaczy dość dużo głosów
próbowałem ustworzyć
i rzeczywiście
tak jak V1, to tylko niektóre
głosy wychodziły
dobrze, tak tutaj
niektóre głosy wychodziły
źle, to znaczy są takie głosy, które
wychodzą źle, ale jest ich
dużo mniej niż więcej. Natomiast
w tym starym modelu to było
dużo mniej głosów wychodziło
w taki sposób, jak
powinny wyjść. Naprawdę
dużo głosów jest bardzo wiernie
oddanych, włącznie z tym, że jeżeli ktoś
mówi z jakimś
pogłosem, z jakimś
no właśnie ma jakiś
pogłos w pokoju, ten pogłos też
zostanie
zreprodukowany,
że tak powiem.
No i to co trzeba dodać to to, że
długo się bardzo generują sample
i cena ma być podniesiona w momencie kiedy
to wyjdzie z wersji testerskich
i że
aktualnie można wpisać
tylko do tysiąca znaków w
pole edycji.
Tak i jeszcze pokażę
może coś, o ile
mi się to uda. Ja bym pokazywała
to co ja miałam pokazać, gdybym
możliwość dosypnienia ekranu w sumie.
Dobra.
To muszę wam dać.
To w takim razie mi się wygeneruje
próbka
tego samego zgenerowana
moim głosem. Ja sobie wziąłem też
swój jakiś kawałek podcastu,
w którym
niedużo wycinałem, to znaczy jest kilka
moich jakichś zająknięć, zastanowień
jakichś takich rzeczy. Te słowaki
też ustawiłem w taki sposób
i
w momencie gdy ustawiłem te słowaki
w taki sposób, żeby algorytm
ewentualnie
no
tam jest
jak się ten słowak nazywa?
Similarity chyba, tak?
Slash stability.
W każdym razie, na ile ta intonacja
ma być podobna do tego, co ja tutaj
robię, no to rzeczywiście
to
rzeczywiście
to rzeczywiście to się
udaje.
No skoro ty, Paulino, masz to może
rzeczywiście pokaż, co ci wyszło.
Z czego to w ogóle jest i o co chodzi?
W sensie celowo nie mam, bo chcę
pokazać jak długo to się generuje
i mam
tak, 229
znaków na 1000.
Te 229 znaków się generuje
od tej chwili.
Zaraz zobaczycie do jakiej chwili.
To przepraszam, co to za głos, bo to jest ciekawe.
No głos, tak jak już
zapowiedziałam, to jestem śpiewająca
ja, bo
chciałam po prostu sprawdzić, tak no
stwierdziłam, dobra, no w sumie poprzedni wyszedł
trochę zamulony, ten pewnie też tak wyjdzie.
A tu się zdziwiłam ostro.
W sumie
jeszcze nie próbowałam z żadnym jakimś
śmiechem, płaczem i innymi takimi, ale
pewnie też by przeszło.
Też krzyk jest dużo
bardziej, dużo fajniej reprezentowany.
No i co?
I czekamy.
Tak, ja w ogóle wczoraj chyba miałem taki…
Dzięki Frankowi Chavezowi
za odjęt, który nadzorował
projekt. Użytkownicy
mogą łatwo przełączać
się między elementami
interfejsu
użytkownika. Słychać
informację zwrotną
o stanie aktualnie wybranego
elementu, na przykład
micjen, fader 2.
To tak bardziej
dla śmiechu w pewnym sensie, ale to
widać, że to już nie jest tylko
czytanie jakby to czytał
jakiś lektor audiobookowy,
tylko rzeczywiście to jest
coś takiego, co trochę
reaguje na te zmiany. Jeszcze może
pokażę swój głos właśnie z podcastu, gdzie
ja się zastanawiam i te suwaki
mam ustawione w taki sposób, żeby on
mocniej reprezentował
moją intonację teoretycznie
i wtedy ten tekst
brzmi tak.
Albo nie brzmi tak,
bo nie wiem, dlaczego się nie chcę odtworzyć,
ale
już powinno być za chwilkę.
Interfejsu użytkownika
słychać informację
zwrotną o stanie aktualnie wybranego
elementu, na przykład mic
1, fader
2. Otokrat
nie było za dużo tych moich potknięć.
Na początku było
jedno, tylko go nie było słychać.
Dzięki Frankowi Chavezowi
z Audient, który nadzorował
projekt, użytkownicy mogą
no właśnie. Także
tego jest tu troszkę. Ten mój
głos to taki bardziej zmęczony jest, mam
wrażenie, niż
w tej chwili.
No nie wiem, może jakoś tak
mu się ten głos wyda, ale to słychać jakby, że
to jestem ja, tak czy inaczej.
W związku z tym no
to jest naprawdę bardzo duża zmiana,
bo ten model V1 to
jak swój głos klonowałem, to
ten głos w ogóle nie przypominał mojego głosu.
Co najwyżej wysokością,
ale po barwie to nikt nie poznał,
że to jestem ja, natomiast tutaj
to już wygląda zupełnie, ale to zupełnie inaczej.
Także no
to już naprawdę jest bardzo
ciekawa rzecz, no i też warto przypomnieć,
że teraz tych języków jest dużo.
Osiem jest w tej chwili języków.
Ale to też niesie za sobą jeden
spory problem, ponieważ
jako, że jest wykrywanie
języków, a nie wymuszanie, to
w losowym momencie
tekstu w sumie
algorytm może nam stwierdzić, że nagle
chcemy mówić po włosku i zmienić nam
język na chwilę.
Tak i mi się…
Tak, i mi się to już zdarzało.
Rzeczywiście było jakieś chyba słowo
konkretne, muszę sprawdzić jakie.
To pewnie nie tylko to,
które przełączało rzeczywiście cały język
na jakiś pewnie
włoski czy jakiś taki, który
dość podobnie brzmi.
No na razie to jest w wersji alfa,
więc no to tam też
pewnie różne błędy mogą się zdarzyć.
Mam nadzieję, że przynajmniej
część z tych błędów zostanie usunięta,
bo rzeczywiście ten model
w tej drugiej
wersji jest no
wyraźnie, ale to wyraźnie lepszy
od tego modelu
V1.
Dokładnie, został jeszcze ten news o
tych głosach
premium. Ja sobie głos premium
zrobiłam, zresztą w sumie mogłabym go
też pokazać.
Ano, to w sumie ja powiem
jak go już tutaj dałem,
bo te głosy premium…
W sensie myślisz, że pokazujesz czy nie raczej?
Pokaż, pokaż, pewnie.
Głosy premium
teraz można udostępniać.
To znaczy, jeżeli ktoś
zrobił swój głos premium,
może udostępnić
go innym. Jest
w Eleven Loves
taki link jak voice library,
czyli biblioteka głosów
i do tej pory w tej bibliotece były tylko głosy
te wygenerowane,
z tych
losowo wygenerowane.
Natomiast teraz doszła możliwość
udostępnienia tych głosów.
Możliwość udostępnienia głosów
zrobionych również przez siebie
tym profesjonalnym klonowaniem.
Teraz można powiedzieć,
co ja z tego będę miał?
Będę miał,
o ile mam
płatną subskrypcję,
dodatkowe znaki.
To znaczy za użycie
pięciu znaków
przez innego użytkownika
dostanę jeden znak
gratis, że tak powiem.
W związku z tym,
że wiadomo, karta wypowiedź to jest dużo więcej
niż pięć znaków, to pewnie tych znaków
będzie się użytkownikom
troszkę gromadziło.
Oczywiście w zależności od tego, ile tych głosów
zostanie udostępnionych.
Dwie czy trzy godziny temu
głos był udostępniony
jeden i to tak i sobie,
bo w tym
filtrowaniu
w Voice Library można wybrać,
czy chce się
mieć głosy,
widzieć głosy
losowe, czy głosy oparte
na klonowaniu
tym profesjonalnym.
Gdy zaznaczyłem sobie tylko klonowanie
profesjonalne, to właśnie widziałem tylko
jeden głos.
W związku z tym,
jeżeli ktoś ma głos swój,
no to można powiedzieć ma duże szanse,
dlatego że konkurencji
prawie że nie ma.
Ten głos jest też taki
nie najlepszy,
bym powiedział.
W sumie mógłbym go jeszcze pokazać,
jeżeli jest jeszcze
chwilka na to.
I ten głos
brzmi
tak.
Także
myślę, że ten człowiek
nagrywa się nie na najlepszym mikrofonie
i to jest jedyny głos,
który póki co jest udostępniany
właśnie z tego klonowania profesjonalnego.
Tam też jest zawsze próbka,
którą można odsłuchać,
tak że tak to wygląda.
No, w takim razie pokaż, Paulino, swój głos
profesjonalnie sklonowany
przez Eleven Labs.
I skoro już
pokazuję to,
przy okazji, ile się generuje na jedynce,
a ile na dwójce i jak brzmi na jedynce,
a jak na dwójce. To jest jedynka.
Teraz
poszło generowanie.
Aha.
We are sorry, the system is busy.
Try again.
Tak.
Sprawdziłam.
Ten komunikat,
że serwer jest zajęty,
to się od bardzo niedawna pojawia.
Mam wrażenie, że bardzo dużo osób
się zainteresowało tym.
Two.
Tu nawet.
Na przykład tu.
Troszkę tak.
Słychać, ale bardzo
słychać, że to jest twój głos, tylko taki
rzeczywiście dość oficjalny
i troszkę już taki pocięty,
co ma swoje zastosowanie na pewno,
bo jeżeli chcesz przekazać jakąś
szybką informację typu właśnie,
chcesz coś, żeby się pojawiło w audycji
powiedziane twoim głosem
i takie już zmontowane,
to…
W sumie taki był
wyjściowy plik, bo ja tam wrzuciłam
swojego RH Voice’a, który był pomontowany
bardzo agresywnie
i no też
taki został zrobiony model.
I teraz V2.
To jest tablicy 0.2,
ale to podbijemy sobie na 0.5.
Ale intonację
sobie podbijmy na 0.3.
0.3.
Speaker Boost w sumie nie wiem, czy
zaznaczasz, czy nie?
Nie wiem, chyba nie. Speaker Boost
mam wrażenie trochę odszumiacz od nich.
Okej, no to siup.
Ale ten głos
jest i tak odszumiany już
na etapie tworzenia
próbek do RH Voice’a, bo w RH Voice’ie nie ma
aż tak dużego znaczenia,
to znaczy lepiej mieć odszumiany głos niż
mieć słyszalny szum,
bo RH Voice trochę ten szum
wyciąga.
Także no
tak to,
takie to jest,
a teraz czekamy na głos i tu pewnie
będzie dużo dłużej się to działo.
Dzięki Frankowi Szawezowi z Odient,
który nadzorował projekt,
użytkownicy mogą łatwo przełączać się
między elementami interfejsu
użytkownika. Słychać informację
zwrotną o stanie aktualnie
wybranego elementu,
na przykład MITS1,
MITS2.
No trochę tak z dzióbkiem
zrobił.
Pytanie, czy to nie jest kwestia
zmiany tych suwaków, które
były ustawione troszkę inaczej.
Możliwe, no w sumie to nadomyślny.
Domyślny,
albo z tym pierwszym suwakiem
na 02, tak jak było to
w tamtym pierwszym półce.
Może też ten drugi trochę zmieślam, chyba było na 0.75,
może coś tutaj na 0.5, 0.4.
Znaczy nie wiem,
w sumie to rozpuszczam na domyślnych,
ale to też nie będę tak długo…
Ale tak czy inaczej, te głosy klonowane…
Audient, który nadzorował projekt,
użytkownicy mogą łatwo przełączać się
między elementami interfejsu
użytkownika. Słychać informację
zwrotną o stanie aktualnie
wybranego elementu, na przykład
MIG1, FADER2.
No tak trochę
z dzióbkiem robi.
Akurat tutaj V1 jakby był
troszkę lepszy.
No tak czy inaczej, te głosy
sklonowane profesjonalnie
są ewidentnie
lepsze.
Jest
ewidentnie lepszy.
Więc no, miejmy nadzieję, że
będzie lepiej.
No to są ciekawe zawsze opowieści.
Obserwować, jak ta synteza mowy ewoluuje
i jakie nam daje możliwości.
Rzeczywiście brzmi to bardzo realistycznie.
Ja jestem przerażony.
Mój głos został naprawdę wiernie oddany,
ale nasze eksperymenty, no też niczego,
niczego sobie.
No ale przejdźmy dalej do
czegoś, o czym wiele
osób niewidomych marzy od już
dawna, czyli podpisy elektroniczne
pod dokumentami. No i wygląda
na to, że Google taką opcję
chce wprowadzić. Na ten moment jest to otwarta,
co prawda, ale beta i tylko
dla małych firm i indywidualnych
przedsiębiorców. Jest to w ramach
programu Google Workspace Individual.
No i plan jest taki,
żeby osoba, która
ma jakieś dokumenty i
chce, aby inne osoby je podpisały,
wysyła takie żądanie,
wstawia takie pole na podpis i za pomocą
menu wysyła takie żądanie do
osób, od których tych
podpisów chce wymagać.
Te osoby to cyfrowo podpisują przez
Google i u osoby, która podpisu żądała
ląduje to w dysku Google jako podpisane
PDF-y.
No, brzmi to ciekawie.
Ma być
wprowadzone jeszcze w najbliższych miesiącach
żądanie podpisów od większej ilości osób.
Ciekaw jestem,
na ile to będzie prawnie gdzieś umocowane,
że można się powołać na dokument
podpisany przez Google,
znaczy za pomocą Google, bo podpisany
on będzie przez nas, miejmy nadzieję.
I na ile to będzie
gdzieś i czy to ma szansę się jakoś
przebić na takim samym poziomie gdzieś jak te podpisy
elektroniczne,
mianowane,
jak właśnie
dowód osobisty obywatel itd.
Jest to ciekawa sprawa,
natomiast na razie się wiele więcej nie dowiemy.
Wiele rzeczy już korporacyjnych
się gdzieś na strukturach państwowych przebiło,
jakieś Google Pay,
Apple Pay i inne systemy,
więc ciekawe czy też
te korporacje sięgną po nasz
podpis. Praktyczne
byłoby to na pewno.
No i teraz
wygląda na to,
że rośnie nam konkurencja
do czegoś co ty Paulino już omawiałaś, czyli
Vive Tool. Opowiesz nam więcej.
To chyba było jakieś przedstawianie ukrytych
ustawień Windowsa, prawda? Tak.
Dla przypomnienia Vive Tool to jest narzędzie,
które jest interfejsem command line’owym
do przedstawiania flag w Windowsie,
czyli ukrytych eksperymentalnych funkcji.
Jest też Vive Tool
GUI, który jest trochę niedostępny,
ale jeżeli ktoś
nie chce bawić się w command line’a, to jest.
Jest strona
.org slash flags, gdzie są
wypisane flagi, ale w sumie
nic nam to zbytnio nie daje,
bo większość tych flag nie ma opisu.
No i co?
No i niedawno
w zasadzie ta konkurencja
to była tak trochę z ironią, bo
niedawno wyciekło
z Microsoftu
poprzez bardzo śmieszny błąd, bo jeden użytkownik
w centrum opinii miał
po prostu opcję, żeby sobie to pobrać,
więc sobie pobrał.
I wyciekło w ten sposób narzędzie
Staging Tool od Microsoftu,
które właśnie
na to samo pozwala, z tym, że
chyba jedyną różnicą,
którą ja zauważyłam,
jest…
Nie no, w sumie są dwie różnice.
Pierwsza różnica jest taka, że
są opisy tych funkcji,
które są na stronie, do której
trzeba się zalogować
kontem Microsoft i mojego
konta Microsofta mnie wpuściło.
Ciekaw, czy dostanę bana.
A druga różnica
z tych, które
gdzieś tym zauważyłam, jest taka, że
to narzędzie wspiera
warianty funkcji.
Czyli jakby
różne tryby.
Nie, że włączona i wyłączona,
tylko są jakieś tryby przy niektórych funkcjach.
Ale jakby też
trochę dziwnie się to przełącza
i…
Jakby jakoś tak
topornie się to obsługuje.
Wolę jednak tego Vive Toola w sumie.
No to z czasem pewnie się przekonamy,
czy to narzędzie tak
tylko wyciekło przez pomyłkę,
czy było to jakoś kontrolowane.
Może Microsoft się zdecyduje to oficjalnie
udostępnić. Różne przypadki
już historia technologii zna.
Natomiast pozostając jeszcze
w klimatach desktopowych, ale nie do końca,
desktopowe dodatki
dla Firefoxa, no mają
przyjść na Androida. Poniekąd,
bo będą one oczywiście wymagały
pewnych dostosowań ze strony ich
twórców. Natomiast
tak jak do tej pory
Androidowy Firefox był, co prawda miał
jakieś dodatki, ale no jedynie
jakąś ich małą ograniczoną ilość.
Tak teraz na Androida
otwiera się ten globalny sklep
z dodatkami. Sklep jak sklep.
Repozytorium, strona addons.mozilla.org
No i w teorii oznacza to,
że więcej tych dodatków takich, które my znamy
z komputera, ma się stać
dostępnych dla użytkowników Firefoxa
na Androidzie. No byłoby to super,
ponieważ niektóre z tych dodatków,
jak dobrze wiemy, ułatwiają
nam pewne sprawy i polepszają
nam dostępność. Mamy dodatki do
rozwiązywania różnych. Captch kiedyś był
w Visum, ale to już historia. Ale teraz
na przykład Access Hammer,
różne dodatki ułatwiające nam pracę
na konkretnych stronach
i tak dalej.
No i byłoby super, gdyby te dodatki
pojawiły się na platformach
mobilnych. No ciekawe na ile to jest realne, żeby
na przykład przeportować taki Grease Monkey
i potem importować do niego
różne skrypty. No nie wiem.
Natomiast, no kto wie, może
się to z czasem też tam
pojawi.
Trzymajmy kciuki, a tymczasem
kącik newsów sztuczno
inteligentnych znowuż od
Pauliny.
Tak, wróciłam do swojej ulubionej
nazwy pomyślonej kiedyś tam.
W każdym razie,
jest sobie appka, której nie testowałam,
bo jest na iOS-a, która przypisuje
emoji
do aktualnie wpisanego tekstu.
Podejrzewam, że bazowana na GPT.
Zresztą ten sam eksperyment możecie sobie
z GPT zrobić.
Zresztą V2
możecie się pobawić
z GPT w kalambury
bazowane na emoji.
Próbowałam, w sumie całkiem spoko
się grało.
Całkiem fajnie nawet umiała
rozwiązywać te moje zagadki, pomimo, że były
rozbudowane
momentami.
No, ale jakby dygresja od dygresji
od dygresji.
Chodzi o to, że wpisujemy jakiś tekst,
czy nastrój i ta appka nam
dopasowuje najlepszą emojikę.
W sumie to jest fajne dla niewidomych, którzy nie do końca
się orientują w sumie co które znaczy.
No nie wiem,
ja na przykład do dzisiaj nie wiem czym się różni
neutralna twarz od twarzy bez wyrazu.
I czym jest
twarz otoczona linią przerywaną.
I czemu
zazwyczaj przy materiałach
dotyczących filmów i książek jest emojika,
która nazywa się Clubs w NVDA
i parę takich innych,
więc w sumie
całkiem przydatna rzecz myślę.
Kolejna rzecz
jest sobie strona
erichat.com
i to jest
coś takiego, że
zrobili kilka botów,
które łączą
różne usługi i
jakby mają różne
osobowości,
dzięki czemu specjalizują
się w różnych sprawach i nie musimy
sięgać po różne narzędzia,
żeby różne tam cele nasze zrealizować,
tylko wystarczy, że sobie przełączymy
po prostu rozmowę na jakiegoś innego bota
i będziemy mogli zadawać takie pytania, jakie byśmy
chcieli dostać odpowiedzi.
Jest też
opisywanie obrazków
i testowałam to w sumie
na dwóch rzeczach.
Pierwsze to testowałam to na
jakimś screenshotcie i
raz mi powiedziało, że to są muzycy,
którzy grają na instrumentach,
a drugi raz, że to

ucieszeni piłkarze
z meczu, ale później
testowałam to na sobie.
Jakby miałam takie
zdjęcie galowe,
gdzie byłam tam w jakiejś takiej ramce
zdjęciowej i byłam
ubrana w galowy strój
i mi powiedziało, że jestem
młodym mężczyzną, który
wygląda bardzo profesjonalnie
i cechuje się
determinacją, w sensie ten bot ogólnie był
taki artystyczny, więc on mi opisywał
tak bardziej, bardziej
interpretując niż opisując
no i właśnie mi skomplementował, że
ojejku, że tak profesjonalnie
biznesowo wyglądam i w ogóle,
no ale trochę, że jestem facetem to
niezbyt miła informacja.
Ale to
w sumie mogę poczytać, jakie te
boty tutaj są.
Co do
jakby
płatności,
to jest
15% darmowych
na dzień.
A dlaczego
nie mogę? O, już mogę.
No to tak,
tutaj są takie boty.
Bob, to jest domyślne,
w sumie najpewniej to jest
sam GPT,
taki opis to jest zapytaj o wszystko
w każdej
chwili w dowolnej dziedzinie.
Kolejny to jest Linus
i tutaj
jest opis
poprawienie czystości kodu,
naprawienie błędów,
dostarczanie więcej w krótszym
czasie.
I tutaj jest lista
rozwijana z językami, muszę to sobie,
muszę się tym pobawić.
Czy to lepiej działa niż
zwykły czas GPT?
Kolejna rzecz,
znaczy kolejny bot to jest
Jazz.
Uzyskiwanie pomocy dotyczącej
tworzenia treści,
strategii, burzy
mózgów, researchu i nie tylko.
Znaczy, Renewality to jest po angielsku,
ale tak próbuję dowolnie to tłumaczyć.
Kolejny to jest Bert.
Wizualizacja złożonych
procesów dla lepszego rozumienia
za pomocą schematów
blokowych.
Jakichś tam wykresów.
Kolejny,
uzyskiwanie pomocy
dotyczącej projektowania
dla sieci
i urządzeń mobilnych.
Generowanie
schematów
kolorów
i jakichś wytycznych.
Kolejny to jest Bernard.
Bernard to jest kucharz.
Generowanie przepisów, planowanie
diety i
wskazówki dotyczące gotowania.
Kolejny to jest właśnie ten Pablo,
o którym mówiłam, czyli opisywanie obrazków
artysta.
Pablo, twój artystyczny
może stworzyć dla Ciebie
coś wyjątkowego i zaoferować
unikajową analizę
dzieła sztuki.
No i w sumie tyle.
To co mnie
interesuje w sumie faktycznie
to jest ten
to jest ten
linus do kodowania, bo może on być
faktycznie lepszy odrobinę niż
niż czyste GPT.
I w sumie ostatni
news i trochę takie moje
usprawiedliwienie, że dzisiaj moich newsów jest
mało jak na mnie.
Mianowicie
lista 300 newsletterów
dotyczących AI,
nauki o danych,
takiego
analizowania tego, co przynosi nam
przyszłość i sztuczna inteligencja,
uczenie maszynowe,
prawo w sztucznej inteligencji,
etyka. No tego jest
po prostu
niesamowitej ilości. Ja się już
posubskrybowałam do
iluś tych newsletterów,
dwudziestu chyba nawet kilku.
Także
no ten kącik to pewnie już
nie będzie kącik, a kąt
albo i pół pomieszczenia jak się naczytam
tych newsletterów.
Tutaj jeszcze Paweł miał, ale to
w sumie też mogę powiedzieć o
Luzi,
czyli o bocie na Telegrama
i Whatsappa, który obsługuje chat GPT.
To jest bot,
który może
słuchać
w ramach wiadomości głosowych
i muzyki, przynajmniej na
Telegramie. W sensie jakby
chodzi mi o to, że zarówno jak się wyśle plik,
jak się nagra wiadomość głosowa, to on będzie tego słuchał.
Do dwóch minut
podobno.
Z tym, że jednemu
użytkownikowi się podobno udało do siedmiu,
ale to jakby nie jest
potwierdzona informacja. Mi się nie udało.
Tak, Lucia.
Hiszpańskiej produkcji Bot.
Bot, który
jest dostępny na Telegramie i na Whatsappie.
Więc tutaj dlatego zwróciłem na niego uwagę,
bo zazwyczaj w tym kąciku takim
sztuczno inteligentnym się nie udzielam.
Natomiast, no, co ten bot
oferuje? No,
typowe rzeczy, które oferuje nam GPT,
czyli odpowiada na różne pytania,
rozmawia z nami.
Tłumaczenie w około
150 językach.
Transkrypcję audio. I tu ciekawość,
bo pytałem ją,
Lucję, jak długie może być
pytania, które ona nam przetranskrybuje.
Twierdziła, że dwie minuty, ale już słyszałem, że się udało
komuś siedem. Pytanie, czy to jest zrobione
whisperem. Nie mam pojęcia, więc możliwe, że
wiadomości głosowe można tym
transkrybować. Ale mi się nie udało więcej,
niż dwie. W sensie wrzuciłam
trzyminutową rzecz i nie poszło.
Aha.
No, możliwe, że kwestia jakiegoś bitrate’u
i plików, nie wiem.
Może.
No i ponoć jest też opisywanie obrazków,
którego jeszcze nie testowałem, ale ponoć jest ono
możliwe. No ja próbowałam, ale
na żadne zdjęcie mi nie odpisała w ogóle.
Aha.
Przynajmniej na telegramie może,
na Whatsappie jest jakoś inaczej.
Ja wysyłałem z promptem razem, tak?
Tak, tak, razem z promptem.
Raz też zrobiłam tak, że najpierw wysłałam obrazek,
potem prompt.
Rozumiem. No to w takim razie wygląda
na to, że tam coś nie do końca jeszcze działa.
No natomiast bot jest
produkcji, to jest prawda hiszpańskiej, ale strona
jest po angielsku, a jak ją
ładnie poprosimy, to i po polsku do nas
przemówi, więc gdybyście chcieli mieć takie
GPT na swoim Whatsappie,
no to nic trudnego, wystarczy tylko
podłączyć się do odpowiedniego
numeru, wszystko jest na stronie, która
będzie podana w komentarzu pod audycją
wyjaśnione.
No to teraz przekazuję
głos Piotrowi, bo Piotr też w
technikaliach ma dla nas wiadomość.
Jest to
aplit, czyli interfejs do
Homebrew na Maca.
Właściwie to chyba się wymawia
app lite, no i to jest właśnie interfejs
do Homebrew. Może zacznijmy od tego, czym
to Homebrew jest. To jest
ładne nazwa,
manager pakietów na system Mac OS,
czyli właściwie
na Linuxa też, ale my tutaj się na Macu
skupimy, czyli to po prostu
jest takie repository room, w którym
możemy znaleźć różne
narzędzia programistyczne, ale nie tylko,
bo i aplikacje.
Tak jak na Windowsie mamy
i Winget,
do których też powstał interfejs
graficzny,
Winget UI,
no to ja w ogóle swojego czasu napisałem
artykuł
na ramach cyfroświata, możecie go znaleźć,
jak z tego Homebrew korzystać z terminala,
bo to jest narzędzie, którego właśnie obsługujemy
z wiersza poleceń,
ale dla osób, które właśnie chcą je wykorzystywać
głównie do instalowania
takich po prostu
zwykłych aplikacji
i wykorzystać to narzędzie jako taki
rozszerzony App Store, można powiedzieć,
w którym znajdziemy też aplikacje, które
właśnie w App Store nie są, a jest ich
naprawdę dużo, bo to może być na przykład
Zoom, to może być na przykład
wszystkie aplikacje Microsoft,
inne przeglądarki niż
Safari, bo one w App Store
też nie są.
Co nam też Homebrew samą sobie oferuje?
Możliwość aktualizowania aplikacji,
no bo niektóre aplikacje na Macu
same się aktualizują, ale nie wszystkie,
na przykład Reaper, taki przykład aplikacji, która
owszem, powie nam, że jest nowa wersja,
ale jeśli chcemy ją sobie ściągnąć, no to
musimy po prostu ręcznie ten klik
sobie za każdym razem jak nowa wersja wychodzi
rozpakować, przenieść do katalogu,
a jeśli
ściągniemy sobie Reapera przez
Homebrew, no to
wtedy nam
Homebrew będzie zarządzało.
Ale wracajmy do aplikacji
AppLite. Aplikacja została
stworzona w taki sposób, żeby
było bardzo, bardzo
łatwo w obsłudze dla kogoś, kto nawet
nigdy nie widział na oczy
terminala i nawet właściwie nie musimy
mieć zainstalowanego Homebrew.
Możemy oczywiście, aplikacja jest
w pełni darmowa, możemy ją sobie
ściągnąć ze strony, którą
znajdziecie w komentarzu
i przy pierwszym uruchomieniu
zostaniemy zapytani właśnie, co
program ma zrobić. Może zainstalować
własną wersję Homebrew i to jest
taka mała wersja, która jest dołączona
do aplikacji, ale też
jeśli mamy już instalację Homebrew zainstalowaną
może właśnie czytaliście mój artykuł
albo sami sobie kiedyś Homebrew
zainstalowaliście, to może też z tej
instalacji aplikacja korzystać
i wtedy ściągnie sobie listę
aplikacji, które w ten sposób zainstalowaliście
i możemy ją w ten
sposób obsługiwać. Kiedy
już podejmiemy decyzję, no to
otwiera nam się taki bardzo prościutki
interfejs, który
przypomina
Mac App Store’a na przykład, czyli właśnie takich
sklepów z aplikacjami. Mamy właściwie
na nim tabelkę i obok tej tabelki mamy
obszar, w którym będą nam się
różne informacje zmieniały.
Na górze tej tabelki mamy pole wyszukiwania,
w którym możemy wpisać
sobie aplikację,
a pod spodem mamy kilka kategorii.
Aplikacja
jest w języku angielskim, ale
jest naprawdę bardzo prosta. Tutaj na górze mamy
sekcję Download,
w której znajdziemy aplikacje,
które
rekomenduje deweloper. To jest właściwie
sekcja Discover, tam jest taki nagłówek
obok, ale pod spodem mamy
Updates i tutaj będziemy
widzieć wszystkie aplikacje, które
mają nowe wersje i tutaj obok tego
będzie się też wyświetlała cywerka,
która nam powie ile aktualizacji mamy.
Jeśli opuścimy tą
tabelkę na przykład na tych aktualizacjach,
no to w tej
sekcji zobaczymy, jakie mamy dostępne aktualizacje
i mi się tutaj na przykład wyświetlają
wyświetla aktualizacja
w tym momencie do narzędzi deweloperskich, do
Androida. I
na tym ekranie po prostu mamy
informacje z dostępnymi aplikacjami
i po obok każdej mamy
przycisk, który pozwala nam tą
aktualizację
wykonać, ale też mamy przycisk, jeśli
mamy więcej niż jedną, żeby zaktualizować
wszystkie naraz. A pod
spodem mamy sekcję Installed,
w której mamy
wszystkie aplikacje, które właśnie przez
Guru
zainstalowaliśmy. I tutaj na przykład
wyświetla mi się na górze
informacja
właśnie o tej samej aplikacji Uplight.
A pod spodem mam wszystkie aplikacje,
które zainstalowałem.
Obok każdej, tak jak w App Store,
wyświetla się przycisk Otwórz.
Mogę też sobie na każdej
z nich nacisnąć Wospacja
i zresztą właśnie w ten sposób
możemy aplikacje
sobie instalować. Jeśli właśnie
szukamy, to po prostu naciskamy na dowolnym
elemencie Wospacja i tam wtedy się nam
wyświetli takie okienko z dwoma opcjami. Zazwyczaj
to będzie opcja Powierz i opcja
Więcej Informacji, która wyświetli nam
opis danej aplikacji. No i
w ten sposób możemy bardzo łatwo sobie
instalować
wszystko. Oprócz tych sekcji
mamy na główę kategorie. No tutaj mamy
różne kategorie
najbardziej popularnych aplikacji. I tutaj mamy na przykład
Przeglądarki,
Komunikacja, czyli to jakieś komunikatory,
Produktywność,
więc jakieś kalendarze, narzędzia
do przypomnień, Office Tools,
narzędzia biurowe,
pasek menu, czyli są jakieś
dodatki, które będą nam siedzieć
na pasku menu na górze,
narzędzia,
multimedia,
narzędzia deweloperskie i tutaj mamy w ogóle
podział na IDE,
czyli to są takie zintegrowane środowiska
typu VS Code na przykład,
wirtualizacja
gry,
menadżer haseł, to są
po prostu przykładowe kategorie, które tam są,
ale też możemy właśnie przez pole wyszukiwania
sobie
katalog homebrew przeszukiwać.
No myślę, że aplikacja jest
warta polecenia, zwłaszcza, że
maksymalnie upraszcza
zarządzanie tym, instalowanie
właściwie aplikacji przez homebrew i właściwie
sprowadza to do takiego
interfejsu, który naprawdę
przypomina App Store
do tego stopnia, że z tego co widzę, to
to narzędzie domyślnie właśnie
wyświetla nam tylko aplikacje,
tak zwane kaski, jak to się mówi
w homebrew, czyli to są właśnie wszelkie
programy, a wszystkie
narzędzia programistyczne, czyli takie rzeczy,
które uruchamiamy stricte z
wieczna poleceń, bo od tego
właściwie się zaczęło w homebrew i
bardzo dużo takich narzędzi w homebrew jest,
są po prostu
poukrywane i z tego co widzę,
nie da się
nimi zarządzać z poziomu tej
aplikacji, co ma swoje plusy i minusy.
Na plus to właśnie jeśli
nie potrzebujemy takich narzędzi,
to one nam nie przeszkadzają, ale jeśli
ktoś czasami z takich narzędzi korzysta,
tak jak ja na przykład, ale chciałby mieć
taki łatwy, graficzny
dostęp, żeby nawet chociaż sobie
szybko jakoś zaktualizować,
no to na razie niestety się
tym nie da zarządzać,
ale też z drugiej strony przez to nie martwimy się,
że możemy przez przypadek, nie wiem,
zainstalować nie to, co
chcieliśmy. Także
jeszcze raz tutaj aplikacja
Uplight, jak najbardziej polecam,
jeśli chcielibyście sobie ułatwić
instalowanie aplikacji
na Maca czy ich aktualizację
z poza oficjalnego
sklepu App Store.
No i ostatni news na dziś,
znów wracamy do Androida,
bo tam, no przynajmniej
na razie w przeciekach, wygląda
na to, że szykuje się
transfer połączenia w przyszłości
może też innych
danych albo zadań raczej
między różnymi urządzeniami.
No Mischal Rachman, jeden z takich
bardziej znanych leakerów, którzy
wygrzebują różne rzeczy z kodu źródłowego Androida,
wykazał,
że gdzieś w kodzie
chyba usług Google Play
i to będzie w formie właśnie aktualizacji
usług, chociaż nie wiadomo na ten moment,
czy rzeczywiście usług,
czy cały system tam będzie wymagany,
no gdzieś czają się takie wzmianki
o tym, że będzie możliwe przerzucanie
połączeń między kilkoma urządzeniami z Androidem,
różnymi smartfonami albo smartfonami tabletem,
podpiętymi do
tego samego konta Google.
No i byłaby to już funkcja, którą znamy z Apple’a,
Android rzeczywiście gdzieś
w tej kwestii jest z tyłu,
więc taka funkcja na razie
ma się pojawić tam.
Czy ta funkcja przejdzie też na komputery?
Nie wiadomo.
Czy to będzie dotyczyło też innych zadań,
że będzie taki jakby hand-off?
Prawdopodobnie w tą stronę będzie to
zmierzało, aczkolwiek na razie
te przecieki nie wskazują.
No więc tu pytanie,
co będzie się rzeczywiście
działo? Brzmi to obiecująco,
jeżeli macie więcej niż jedno urządzenie
z Androidem, to na pewno jest to
wieść dla Was.
No i to wszystko, jeśli chodzi o to,
co mamy w notatkach. Pytanie jak zwykle,
czy coś jeszcze ktoś w międzyczasie
odkopał?
Może taka ciekawostka,
przynajmniej w czasie nagrywania,
czyli to jest właśnie 16 sierpnia,
30 lat oficjalnie skończył Debian,
czyli taka chyba jedna z najbardziej
popularnych dystrybucji Linuxa.
No ja też niedługo kończę 30 lat,
więc tutaj od Debiana mamy
niedużą jakąś różnicę,
zaledwie miesiąca.
No dobrze, w takim razie
żegnamy się w składzie poszerzonym do tego,
co było na początku. Ja nie przedstawiłem
bardzo nieuprzejmie moich współprowadzących
dzisiaj, gdzież moje maniery,
no gorąco jest.
Prosimy o wybaczenie.
Paulina Gajoch, Piotr Machacz,
Tomasz Spilecki.
I mówiące te słowa wyjątkowo dziś
nie Michał Dziwisz, a Paweł Masarczyk.
Do usłyszenia
prawdopodobnie za tydzień
na antenie Tyflo Radia.
Był to Tyflo Podcast.
Pierwszy polski podcast
dla niewidomych i słabowidzących.
Program współfinansowany
ze środków Państwowego Funduszu
Rehabilitacji Osób Niepełnosprawnych.

Wszystkie nagrania publikowane w serwisie www.tyflopodcast.net są dostępne na licencji CreativeCommons - Uznanie autorstwa 3.0 Polska.
Oznacza to, iż nagrania te można publikować bądź rozpowszechniać w całości lub we fragmentach na dowolnym nośniku oraz tworzyć na jego podstawie utwory Zależne, pod jedynym warunkiem podania autora oraz wyraźnego oznaczenia sposobu i zakresu modyfikacji.
Przekaż nam swoje 1,5% podatku 1,5 procent Logo FIRR Logo PFRON Logo Tyfloswiat.pl

Czym jest Tyflopodcast?

Tyflopodcast to zbiór instrukcji oraz poradników dla niewidomych lub słabowidzących użytkowników komputerów o zróżnicowanej wiedzy technicznej.

Prezentowane na tej stronie pomoce dźwiękowe wyjaśniają zarówno podstawowe problemy, jak metody ułatwienia sobie pracy poprzez korzystanie z dobrodziejstw nowoczesnych technologii. Oprócz tego, Tyflopodcast prezentuje nowinki ze świata tyfloinformatyki w formie dźwiękowych prezentacji nowoczesnych urządzeń i programów. Wiele z nich dopiero znajduje sobie miejsce na polskim rynku.

Zapraszamy do słuchania przygotowywanych przez nas audycji i życzymy dobrego odbioru!

Tematyka

Pozycjonowanie i optymalizacja stron internetowych