TyfloPrzegląd Odcinek nr 209 (wersja tekstowa)
Pobierz napisy w formacie SRT
Pobierz napisy w formacie VTT
Fundacja Instytut Rozwoju Regionalnego prezentuje Tyflo Podcast.
Dzień dobry, dzień dobry. Mamy 15 listopada, pora przeziębień.
U mnie też to akurat słychać. Tym bardziej było słychać.
U mnie było słychać parę tygodni temu, także…
Obyś Tomku był ostatni na naszej liście.
No może Magia Radia zadziała, jak w tamtym tygodniu był progres chrypowy,
Czy to może będzie regres? Nie wiem. Zobaczymy.
W każdym razie w 209. audycji Tyflo Przeglądu jest nas czterech.
Piotrek Machacz, Paweł Mostaczyk, Michał Dziwisz i Witajcie.
Żeby nie przedłużać, no to zaczynamy od tego, co się dzisiaj będzie działo
i jak zwykle przedstawi Michał Dziwisz.
W tym tygodniu w Tyflo Przeglądzie.
Nowości dostępnościowe z Audio Developer Conference 2023.
Otwartoźródłowa komórka brailowska wygrywa tegoroczną nagrodę Hackaday.
Głosy SeraProc na iOS były, ale się zmyły.
Światowa organizacja zdrowia uruchomiła aplikację do badania wzroku.
Walizki przewodniki zamiast psów. Czy to się sprawdzi?
Trwają prace nad alternatywnym czytnikiem ekranu na Maca.
Describe Image – opisanie chatem GPT każdego zdjęcia z dowolnego miejsca na Macu.
Duże aktualizacje Forzy, Hearthstone i Mortal Kombata.
Konsolowy czytnik ekranu TDSR z lepszą obsługą mowy.
Dzwonisz do Microsoftu przez Be My Eyes?
Ot, teraz porozmawiasz z chatbotem.
Jak przywrócić stary notatnik w Windowsie 11?
To koniec Microsoft To Do.
W przyszłym roku zastąpi ją nowa webowa aplikacja.
Poprawia się dostępność Messengera na iOS i Windowsa.
Trzy nowe gry na Playroomie.
EasyCast z poprawioną dostępnością.
To koniec Viya Optanaf i Omegle.
Czym są mechanizmy API, czyli instrukcja tworzenia trochę bardziej rozbudowanego skrótu Apple.
Nowa wersja modelu Larch do Whispera.
Czad GPT, którego możesz nosić na sobie.
Numer PESEL zastrzeżemy od 17 listopada, w praktyce nieco później.
Konsolowy program do transkrypcji tekstu Whisperem.
Wszystko to, a pewnie jeszcze więcej już za chwilę.
Zaczynamy!
I tradycyjnie, zanim Tomku przekażę ci głos, to dodam, że skoro jesteśmy na żywo, to czekamy również oczywiście na kontakt od was.
Możecie do nas dzwonić, 663-883-600, 663-883-600.
Tu telefon zwykły, taki tradycyjny, albo komórkowy może być w użyciu, możecie też do nas zadzwonić facetimem i Whatsappem.
Na Whatsappie też tam możecie głosówkę nagrać, bardzo zachęcamy do tego sposobu wypowiedzi.
Możecie też oczywiście do nas pisać, tu standardowo kontakt.tyflopodcast.net, Facebook oraz YouTube polecają się waszej uwadze.
Pamiętajcie także o naszych aplikacjach na Windowsa i iOSa.
No to w takim razie zaczynamy od nowości dostępnościowych z Audio Developer Conference 2023, bo no działo się tam troszkę.
Trochę się działo, może zacznijmy od tego co to w ogóle jest, no jak może wskazywać nazwa, to jest konferencja coroczna, która zrzesza producentów wszelkiego rodzaju oprogramowania, ale też sprzętu związanego z dźwiękiem.
I w tym roku po raz pierwszy na tej konferencji pojawił się panel dotyczący dostępności,
bo jednym ze sponsorów tym roku był RNIB brytyjski, było stowarzyszenie
Sight and Sound Technology, które parę miesięcy temu miało taką swoją
mniejszą konferencję.
No i co za tym idzie, dzięki temu, że był ten panel dostępności, no to
kilku dużych graczy, jestem zwyklanym, na tym panelu było.
Ja tutaj też dziękuję organizatorom za danie mi przepustki na to wydarzenie.
Weszła wiadomość na liście od Reapera, że kilka takich darmowych miejsc dla zainteresowanych niewidomych na ten, właśnie zainteresowanych osób niewidomych na ten panel
może się, można dostać pisząc o nich, ja do nich napisałem i było im bardzo miło właśnie mi taką przepustkę dać, więc konferencja odbywała się zarówno w Londynie fizycznie jak i na Zoomie,
pewnie za jakiś czas, za kilka miesięcy pojawi się gdzieś na YouTubie.
No ale w międzyczasie miałem okazję wziąć w niej udział i powiem wam teraz co tam się działo.
Bo działo się dużo. Było na niej kilka naprawdę dużych firm.
I to wszystko zaczęło się od tego, że właśnie każda z nich, każda miała swojego przedstawiciela albo kilku nawet.
No i po prostu się przedstawiali, opowiadali też o tym co robią w kwestiach dostępności w swoich produktach.
Później była taka krótka demonstracja jak tworzyć dostępne wtyczki w systemie
JUICE, który jest bardzo popularny, zresztą tam ludzie z JUICE’a też byli o tym za
chwilę. No i na końcu można było zadawać pytania.
Zarówno tutaj były pytania od społeczności, między innymi od osób niewidomych, ale
też od innych osób, które gdzieś były na tej konferencji, które są zainteresowane
zrobienie tej dostępności i tam też później były dodatkowe jakieś jeszcze
panele już takie bardziej programistyczne.
Wiem, że o Juice’ie tam też jeszcze był ten temat rozwinięty.
Kto tam się pojawił? Myślę, że możemy po prostu sobie pójść chronologicznie,
bo akurat tak mam tutaj zapisane.
Znaczy najpierw przedstawił się człowiek z Focusrite’a, czyli firmy, która tworzy
głównie sprzęt, ale też oprogramowanie do tego sprzętu,
które, tak jak wspominaliśmy, staje się coraz bardziej dostępne.
Na pierwszy ogień poszedł Vocaster, później pojawiło się bardziej dostępne oprogramowanie Focusrite Control do interfejsów Scarlett,
ale też ono tam było generalnie bardziej dostępne, ale było tam kilka rzeczy, których po prostu nie dało się zrobić,
tam już technologie były trochę za stare.
Natomiast na najnowszej generacji tych interfejsów Scarlett powstało nowe, zupełnie nowe oprogramowanie Focusrite Control 2 i tamta dostępność jest zrobiona jeszcze lepiej, do tego stopnia, że te interfejsy, podobnie jak konkurencyjne produkty od Audienta, będą do nas mówić jak my będziemy coś na tym interfejsie samym robić, to znaczy jeśli zmienimy jakiś słówak, nacisniemy jakiś przycisk, żeby jakiś kanał wyciszyć, czy zmienić jakieś inne ustawienie, no to aplikacja po prostu
przez mowę nam nas poinformuje, co dokładnie zrobiliśmy, więc to fajnie, że coraz więcej
firm o tym myśli.
Nie tylko oni zresztą, bo więcej o tego typu rzeczach powiemy za sekundkę.
I jeszcze dodatkowo do wszystkich produktów, a przynajmniej do tych interfejsów, są też
dołączane wtyczki software’owe, tam jakieś podstawowe efekty są i one niedawno zostały
przepisane. Wcześniej były wpisane w innym systemie, no a teraz zostały przepisane
właśnie w tym frameworku tak zwanym JUICE, a co za tym idzie mogły zostać udostępnione, no i udostępnione zostały, więc te wtyczki, jeśli kupicie taki interfejs, sobie zainstalujecie te wtyczki na swoim komputerze, no to one tak samo jak samo oprogramowanie zarówno na Windowsie i na Macu powinny teraz być fajnie dostępne, wszystko będzie czytane przez VoiceOvera czy inny czytnik ekranu.
Też ich aplikacje na iOS-a są dostępne, bo pod parasolem Focusrite’a jest też np.
firma Innovation, która ma kilka aplikacji na iPhone’a, też do sterowania interfejsami,
ale też aplikacja Launchpad, to jest chyba jakiś sampler.
One też powinny teraz być w pełni dostępne z voice-overem, więc no tutaj firma
faktycznie idzie w tą dostępność, mają testerów niewidomych, no i widać efekty
tego, więc można się tylko cieszyć.
Następnie przedstawił się pracownik firmy Juice, a właściwie projektu Juice, nie pamiętam teraz, to jest właścicielem Juice’a.
Mniej więcej to jest ten system, w którym wielu twórców pisze swoje wtyczki i on cały czas się rozwija, dostępność została dodana niedawno, ale cały czas jest ulepszana i w najnowszej wersji Juice’a, w wersji 8, która pojawi się niebawem,
deweloperzy dostaną w ręce nowe narzędzie, które pozwoli im pisać interfejsy aplikacji, bo one wcześniej były pisane po prostu w języku C++, tak jak same wtyczki, jest to taki bardzo niskopoziomowy język.
Ale jeśli ktoś by chciał coś więcej z tymi interfejsami zrobić, może jakieś lepsze efekty graficzne łatwiej, czy z jakiegoś innego powodu, będzie teraz też można pisać te interfejsy po prostu używając HTML-a przez web.
Bo Juice będzie teraz też wspierał widoki przeglądarkowe natywne na każdym systemie, no i co za tym idzie jak tutaj podkreślił właśnie pracownik firmy, no że to jest zwykły HTML, no to jeśli cała ARIA, więc jeśli ktoś tak pisze aplikacje, no to, czy wtyczki, no to one będą mogły być dostępne tak samo, nawet jak nie lepiej niż te, które są pisane natywnie w tym ich systemie.
Później przedstawił się pracownik Native Instruments i nie tylko zresztą, bo tutaj też pod Native Instruments nierawno dołączyła firma Izotope, no i tutaj mówił, że wtyczki Izotope w tym momencie są bardziej dostępne od tych o Native Instruments, no i pracują nad tym, żeby ogólnie było wszędzie lepiej, natomiast właśnie w najnowszych wersjach, na przykład Izotope Ozone czy Nektar, ta dostępność powinna być
jeszcze lepsza, to są takie wtyczki do
do masteringu, głównie dźwięku.
No i one są bardzo fajnie dostępne, to będzie jeszcze ulepszane.
Natomiast też prace trwają nad dostępnością pozostałych wtyczek Nativa.
No i tutaj się pan tłumaczył, że przez to jak to te wtyczki powstawały,
no bo wcześniej było ciężko je udostępnić.
A teraz to jest tak wszystko zrobione, że
ta dostępność musi być gdzieś dodawana później i jest potrzebne do tego
specjalista. Te ich systemy, w jakich oni te interfejsy piszą, nie są niestety tak
zrobione, żeby każdy designer, może nawet z małą wiedzą o dostępności,
mógłby po prostu, nie wiem, dodać jakiś przycisk i automatycznie jakoś dać mu
fajną etykietę dla czytników ekranu i to wszystko.
Chociaż pracują nad tym, żeby to znacznie uprościć, natomiast wiedzą, że ta
dostępność byłoby fajnie, jakby była coraz lepsza.
No i nad tym, żeby produkty, które są wypuszczane, były dostępne od początku.
Patrz, nowa wersja trzecia kontrolerów Complete Control serii S, o której mówił Tomek ostatnio, które są dużo lepsze, ale no niestety na starcie dostępne nie są.
No i do tej kwestii też się pan odniósł, powiedział, że ta dostępność jak najbardziej będzie, ona pojawi się w pierwszym kwartale 2024 roku.
Jeśli ktoś chce sobie taki kontroler kupić, no to może, no wiadomo, niestety on na początku nie będzie dostępny, ale kiedy ta dostępność przyjdzie, to ma być najbardziej dostępny kontroler w historii tej firmy.
No bo przez to, że to jest nowa wersja oprogramowania Complete Control, nowa wersja sprzętu, która ma lepszy procesor, większy wyświetlacz, co też może się przyczytać osobom słabowidzącym, no to po prostu będzie działała lepiej.
Ona będzie działała poprzez tą aplikację Accessibility Helper, która trafiła już wcześniej do, która wcześniej już działała jako dostępność do maszyn, ale jest to osobna aplikacja, którą instalujemy.
Nie jest tak jak wcześniej, że włączamy tą dostępność naciskając przycisk na urządzeniu.
No i ten nowy Complete Control też będzie z tej aplikacji korzystał, więc będziemy mieli jakieś dodatkowe skróty klawiszowe,
którymi będziemy mogli jakieś informacje na kiedy chcemy przeczytać w przyszłości też i tutaj zarówno do Complete Control i do Maschine będzie możliwość konfiguracji tego np. jeśli ktoś chce żeby to urządzenie mówiło więcej jakieś dodatkowe komunikaty o pomocy jakieś przyciski w danym momencie możemy użyć a jakie nie albo mniej bo już znamy ten sprzęt no to będziemy mogli w ten sposób sobie to skonfigurować no i dzięki temu że to jest osobna aplikacja
to ta dostępność będzie mogła być aktualizowana osobno w dowolnym momencie
i nie będzie trzeba czekać na aktualizację samego pakietu Complete Control
czy maszyna zresztą, więc dlatego to tak zostało oddzielone
no i w tą stronę to wszystko będzie szło.
Też przy okazji powstała nowa wersja standardu NKS tak zwanego,
czyli to jest system w jakim inne wtyczki integrują się z Complete Control
i m.in. wyświetlają dostępne jakieś dźwięki, dostępne parametry.
No i właśnie z tymi parametrami czasami były problemy,
no bo niewidomie chcieli, żeby ich było dostępne i jak najwięcej,
bo często takie wtyczki są bardziej tradycyjnymi sposobami niedostępne,
no i właśnie przez Control uzyskiwaliśmy od nich dostęp.
Ale nie każdy deweloper chciał wiele takich parametrów udostępnić,
bo po pierwsze tam były jakieś ograniczenia,
a po drugie to po prostu niektóre strony na Native Instruments gdzieś w pomocy mówiły, że też nie powinno się ich dodawać za dużo.
Ja to może też trochę wytłumaczę, w sensie dlatego, że całe to sterowanie by complete controlem, tymi parametrami, polega mniej więcej na tym, że mamy 8 pokręteł i mamy takie suwaki,
przyciski do zmiany stron i na przykład na pierwszej stronie są parametry takie, na drugiej stronie są parametry takie, na trzeciej są takie, na czwartej takie i tak dalej i tak dalej.
I teraz można teoretycznie dodawać na przykład tych stron 50, a nie wiem czy 50, najwięcej widziałem chyba 30 stron, jaki jakiś tam instrument miał.
I teraz kwestia jest tego typu, że jeżeli chcemy się dostać do jakiegoś konkretnego parametru, no to im więcej stron mamy tych parametrów,
tym trudniej się w tym wszystkim znaleźć, dlatego że nie ma tutaj takiej możliwości,
teraz chcę, nie wiem, filtry, a teraz chcę, nie wiem, mikser, a teraz jakieś oscylatory, a teraz pogłos,
bo nie wiadomo co jest na której stronie i oczywiście dla nas to jakby jest sprawa trochę drugorzędna, ważne żeby było cokolwiek, byle dostępne,
natomiast dla osób widzących to mógł być duży problem, że tych parametrów było tak dużo tam i tych stron było tak dużo,
że zanim się doklikali do tego co chcieli znaleźć, no to zajmowało dość dużo czasu i być może też dlatego niestety nie było tych parametrów tak dużo.
Z drugiej strony to, że są te strony, to aż się prosi, żeby to pogrupować.
Znaczy, bo one mogą mieć swoją nazwę, tylko że wiesz, i to bardzo często w ogóle tak wyglądało, że nie było dokładnie ośmiu parametrów,
tylko np. było to tak, że masz np. jakieś dwa efekty, które mają swoje, nie wiem, dwa parametry plus głośność, albo on-off,
więc było pierwsze pokrętło, efekt pierwszy on-off, drugie pokrętło, parametr numer jeden, trzecie pokrętło, parametr numer dwa,
czwarte pokrętło puste, piąte pokrętło, efekt numer dwa, parametr jeden, znaczy włącznik, potem jeden, dwa parametry,
Ostatnie ósme, następna strona, efekt 3-4 na przykład i to samo, w związku z powyższym to tak było jakby robione, te strony mogą mieć swoją jakąś logikę, no tylko że wiesz, jeżeli chcesz się teraz przenieść na mikser, to teraz pytanie, czy to jest później, czy wcześniej?
Jeżeli strona jest 30, no to troszkę się naklikasz zanim do tego przejdziesz.
A to prawda.
No właśnie, tutaj mieliśmy taką sytuację z tego co wiem, że na stronach gdzie była opisywana dostępność, no to pisali, no dawajcie ile stron wlezie, a na takich ogólnych stronach to mówili, dajcie jedną górę, dwie, trzy strony, bo reszta, no każdy sobie w interfejsie ustawi, no i tutaj mieliśmy takie przeciąganie indyjne.
W tym nowym complicie, z tego co wiem, to wygląda w ogóle tak, że na początku mamy taki podstawowy widok, gdzie mamy jakieś makra, czyli takie naprawdę najczęstsze parametry, ale będzie można przejść do widoków bardziej szczegółowych, więc też to będzie lepiej pogrupowane i miejmy nadzieję, że producenci będą z tego korzystać, a jak nie producenci, no to może firmy trzecie.
Przy czym ciekaw jestem, czy i jak to będzie rozwiązane w starszych kontrolerach, bo z tego co wiem, to wygląda to w ten sposób, że na tych najnowszych klawiaturach z serii Complic, czyli Complic Kontrol 3,
tam ma być specjalny przycisk Edit i tym przyciskiem Edit będziemy sobie wchodzić w tę sekcję edycji tych wszystkich parametrów.
To jest taka szczegółowa edycja różnych parametrów i nie wiem jak to będzie wyglądać. W każdym razie, w tych starszych kontrolach tego nie ma.
Ciekaw jestem, czy w tych starszych nie będzie w ogóle do tego dostępu, czy rozwiążą to inaczej.
Bardzo jestem ciekaw, bo może się okazać, że trzeba będzie mieć dostęp do większej ilości parametrów niż jakieś absolutne podstawy.
nagle wymienić klawiaturę na nowszą i tego się trochę boję.
No też mam nadzieję, że wtedy nie będzie trzeba kupować tej klawiatury serii S na przykład,
bo ona jest dosyć droga, tak jak wcześniej mieliśmy też tą serię A czy serię M,
które na razie nie dostały żadnych aktualizacji, więc no zobaczymy,
też niestety nie mam informacji o tym, więc no pożyjemy, zobaczymy w przyszłym roku,
jak już te aktualizacje się zaczną ukazywać.
Zostajemy przy tematach sprzętowo-programowych, bo następnie przedstawił się pan z firmy Softube.
Softube, czyli firma, która głównie tworzy efekty, najczęściej to są emulacje prawdziwego sprzętu, tak zwanych Channel Strips,
czyli takie, nie wiem czy jest jakaś ładna polska nazwa na to.
No to są takie miksery generalnie, które często są wykorzystywane w studiach,
No i tutaj właśnie oni pracują z producentami różnych tych konsol starych i nowych,
żeby symulować ich dźwięk, ale do tego mają też sprzęt, tak zwany, no właśnie taki
taki pulpit sterowania.
On się nazywa Konsole One, już powstały dwie jego wersje.
Trzecia ukaże się za najbliższe kilka tygodni, czy na początku przyszłego roku.
No i to jest właśnie też taki mikser, który właśnie przypomina taki stary fizyczny
natomiast pozwala nam na sterowanie po prostu naszym oprogramowaniem działającym na komputerze.
Czyli to taki właśnie tam też można ustawiać poziomy, włączać, wyłączać różne efekty, przemieszczać się po ścieżkach, zmieniać ustawienia.
Też mają osobny kontroler, który ma tylko 10 ruchomych suwaków i oba te urządzenia okazuje się też mają dostępność.
No i tyle właściwie było powiedziane na samej konferencji, że one mają tą dostępność, na razie to działa lepiej na Macu, ale na Windowsie tam też trwają prace, tam też ten pan szukał ludzi, którzy orientują się coś w dostępności na Windowsie, bo bądź tam niektóre rzeczy są trudne do ogarnięcia, ale też było powiedziane, że w najnowszych wersjach tego oprogramowania zostały dodane funkcje szczegółowości,
będziemy mogli zdecydować np. kiedy przemieszczamy się po ścieżkach, co ma ten program nam wtedy powiedzieć, czy ma czytać nazwę, numer ścieżki, czy są na nim jakieś efekty załadowane i jeśli tak, no to w jakiej kolejności.
Więc tutaj też to było na podstawie tego, co sugerowali testerzy, bo tutaj też były poproszone niewidome osoby do testowania tego sprzętu.
jego najnowsza wersja, ta która niedługo wyjdzie, tak samo jak te
kontrolery complete, te keyboardy, ma dotykowe pokrętła.
Chodzi o to, że możemy tymi pokrętłami kręcić, żeby jakieś ustawienie zmienić,
ale też możemy po prostu je dotknąć i wtedy oprogramowanie nam powie jaką wartość ma
dane pokrętło.
Ja jak sobie doczytywałem o tym softtubie,
to co ciekawe, właśnie wygooglowałem ten console one, żeby sprawdzić co to jest.
no i na stronie takiej ogólnej przedstawiającej produkt, na samej górze pierwszy
nagłówek właśnie informuje o nas, że jest nowość, teraz nasz sprzęt jest dostępny,
na razie tam właśnie jest MAC podkreślony i mamy link, żeby uzyskać więcej informacji.
I ja tą stronę właśnie z informacjami podlinkowałem, będzie do niej dostęp w
komentarzu i muszę powiedzieć, że to jest chyba najlepiej zrobiona strona o
dostępności sprzętu dla niewidomych, właśnie firmy takiej, która generalnie
tyflosprzętem się nie zajmuje, bo na początku mamy ładnie opisany fizyczny
wygląd obu tych wersji tego kontrolera podzielony na ładnie nanogłówki i listy,
więc można się potem fajnie poruszać, no a pod spodem mamy wytłumaczone właśnie
jak działa to oprogramowanie i ono też naprawdę ma mnóstwo funkcji, właśnie
czyta nam całe menu urządzenia, bo tam też można jakieś ustawienia ustawić.
Mamy nawet przyciski, które nam będą podawały poziomy dźwięku, więc możemy
sobie w bardzo łatwy sposób sprawdzić, czy coś nie jest za głośne.
I to wszystko z poziomu tych urządzeń.
Tutaj fajnie kolejna firma, która dba o dostępność nie tylko sprzętu,
ale i oprogramowania.
Co mamy następne?
Następnie przedstawił się pan z Media Association, czyli non-profitu
Stowarzyszenia Fundacji MIDI, która zrzesza wszystkich producentów i właśnie
pracuje nad standardem MIDI.
Co to jest MIDI?
MIDI to jest po prostu język, w którym rozmawiają wszystkie urządzenia, które
jakiekolwiek służą do tworzenia czy grania muzyki czy innego dźwięku, czyli
jakieś keyboardy, jakieś inne właśnie kontrolery.
To wszystko komunikuje się z komputerem czy z innymi syntezatorami, urządzeniami
przez Mili, no i tam powstała grupa zajmująca się dostępnością, bo powstaje
standard Mili 2.0 i jedną z możliwości, na które Mili 2.0 pozwala, to tworzenie
tak zwanych profili. Profile konfigurują urządzenia w odpowiedni sposób,
podając informacje, jak to urządzenie ma się zachowywać.
I tutaj pomysł jest taki, żeby stworzyć taki nowy standard, profil właśnie
związane z dostępnością.
Na co to bym mogło pozwolić?
No nie wiem, taki przykład, który mi przychodzi pierwszy do głowy.
Podłączamy do komputera jakiś bardzo
zaawansowany syntezator, który powiedzmy ma jakieś ekrany dotykowe, jakiś menu.
No ale na komputerze mamy otwarty program do obróbki dźwięku, do tworzenia muzyki.
Mamy włączone czytniki ekranu.
Ten program jest tak skonfigurowany, że przy
podłączeniu jakiegoś nowego urządzenia wysyła do niego informację.
Tu jest osoba niewidoma, no i wtedy to
urządzenie może automatycznie się jakoś dla nas bardziej udostępnić.
Może wtedy włączyło jakiś czytnik ekranu, a może właśnie po mili
wysyłało do naszego komputera informacje, żeby coś powiedział.
Nie wiem, to jest po prostu na razie powstała grupa.
Są plany, żeby taki standard stworzyć.
Tutaj właśnie prosił, żeby zainteresowane firmy się do niego zgłosiły, jeśli ktoś ma
jakieś pomysły, czy też właśnie inne osoby zainteresowane.
już wiele firm w tym jest, no i właśnie szukają więcej chętnych, żeby taki sprzęt był jeszcze
bardziej dostępny, no i w taki ustandaryzowany sposób.
Co tutaj jeszcze?
Ableton, no to jest ciekawa kwestia, tutaj się zatrzymamy na dłużej, bo to właśnie była
pani zajmująca się dostępnością w Abletonie i zaczęła najpierw mówić o aplikacji
Note na iPhone. To jest taka prosta aplikacja, która nam pozwoli jakiś szybki
sketch utworu stworzyć. Zacznijmy jak utworzymy tą aplikację, ona nam już coś
proponuje, przykładowe dźwięki wybiera i potem możemy ewentualnie sobie tam coś
dograć, pozmieniać, no ale już nadaje jakiś początek, tam próbuje nas
zainspirować. O tej aplikacji mówiliśmy kilka razy, bo ona stała się dostępna.
No i tutaj właśnie pani powiedziała, że to co, ta dostępność już generalnie jest w 100% zrobiona i wszystko działa naprawdę fajnie, natomiast teraz skupią się na tym, żeby jakieś jeszcze rzeczy, które mogłyby dziś działać bardziej wydajnie, lepiej dziś być czytane, żeby z tą aplikacją pracowało się jeszcze milej, no teraz tym się będą zajmować i to była jedna rzecz.
No ale też ta aplikacja służy do tego, żeby taki projekt, który powiedzmy stworzymy sobie gdzieś w pociągu, wracając do domu albo jadąc do studia, do pracy,
później wyeksportować i załadować do pełnoprawnej aplikacji Ableton Live, bo no właśnie to jest program do tworzenia muzyki, no i nad nim dalej pracować.
Problem w tym, że no mimo to, że ta aplikacja jest bardzo popularna, no to była dla nas całkowicie nierozstępna i mam tutaj dla was świetne wiadomości.
i to się pomału zacznie zmieniać.
No też już o tym wspominaliśmy wcześniej, że już trwały prace nad tym.
Okazuje się, że te prace trwały od ponad roku
i wersja Ableton Live 12, która ukaże się w przyszłym roku,
będzie dla nas w pełni dostępna zarówno na Windowsie jak i Macu.
Ja sobie teraz otworzyłem stronę z nowościami w tej wersji.
Znajdziecie też do niej link w komentarzu, więc będziecie mogli sobie ją
później przejrzeć. No i tak krótko jeszcze mówiąc o tym co się tam też zmieniło mamy mamy też poprawienia, lepsze filtry w przeglądarce, nowy syntezator został do nich dodany, bo to oczywiście jak ta aplikacja ma wiele wbudowanych dźwięków swoich w przeciwieństwie na przykład do Reapera, mamy ulepszone wsparcie właśnie MIDI, między innymi różne skale są bardziej obsługiwane, lepiej obsługiwane, no bo w różnych częściach świata
jednak muzyka brzmi troszeczkę inaczej, różne kraje gdzieś pracowały na różnych skalach.
No i co jest dla nas najważniejsze właśnie to są poprawki dostępności.
One skupiają się na tak naprawdę trzech kwestiach.
Po pierwsze jest ciemny motyw, można sobie ściągi lepiej zastosować.
Po drugie jest znacznie poprawiona obsługa nawigowania po interfejsie
się z klawiatury i to jest naprawdę zrobione bardzo dobrze, tam na tej
stronie znajdziecie wszystkie dostępne skróty, które w tej wersji zostały
dodane, no i tam zaczęło się od takich prostych rzeczy jak na Windowsie
klawisz Alt teraz przenosi focus na pasek menu, no byłoby dobrze, żeby tak było,
bo wcześniej to działało inaczej, a kończy się na tym, że każda sekcja
aplikacji ma dedykowany skrót klawiszowy i możemy oczywiście też wszędzie
poruszać się tabem i strzałkami, ale nie tylko, bo mamy też skróty,
które np. pozwalają nam poruszać się po kontrolkach w tej samej grupie, czy
przejść na tą samą kontrolkę np.
na innej ścieżce.
O co chodzi?
No załóżmy, że sobie dostosowujemy poziomy różnych ścieżek.
Mamy ustawioną, ustawiamy się na słowaku głośności dla ścieżki pierwszej.
No i teraz gdybyśmy zaczęli chodzić sobie tabem, to nie wiem, załóżmy trafimy wtedy
na jakieś pole do wyciszenia, jakieś inne słowaki, które nas nie interesują.
a my chcielibyśmy ustawić głośność słowaka drugiego, no to wtedy naciskamy
tam chyba to jest skrót Control i Tab i wtedy przenosi nas Focus na kolejny
słowak głośności dla ścieżki drugiej.
No to jest inny sposób pracy na pewno niż na przykład Reaper, bo w Reaperze to do
wszystkiego mamy skróty klawiszowe, tutaj po prostu mamy tak w miarę logiczny
sposób zrobioną nawigację, ale wydaje mi się bardzo intuicyjny i zresztą te zresztą
osoby, które to już testowały, no bo to już ponad roku trwają testy, też mówią, że to
naprawdę zostało zrobione naprawdę przyzwoicie.
No ale co z tego, że to byłoby wszystko dostępne z klawiatury, jakby czytniki ekranu z tą
aplikacją nie współpracowały?
No spokojnie, to też właśnie zostało dodane i w tej pierwszej wersji wsparcie czytników
ekranu obejmuje większość aplikacji.
I mamy tutaj wymienione rzeczy takie jak sterowanie, odtwarzanie,
wyszukiwarka w przeglądarce dźwięków, widok,
arrangement view, session view, to są widoki sesji,
tutaj też nie widziałem tej aplikacji, więc nie wiem jak ona wygląda,
bo tam się tworzy poszczególne fragmenty i później się w odpowiedni sposób układa,
żeby stworzyć piosenkę, to jest właśnie ten widok, właśnie widok
układanie tych piosen, tych, tych części.
No i ten widok jest dostępny.
Widok sesji, właściwości klipu i poszczególnej sceny, czyli tutaj też
właśnie jakieś pojedynczy, właśnie pojedynczą część danego utworu.
Tutaj można wszystko ustawić.
Edycja klipu midi, czyli no właśnie edytor midi jest dostępny.
Wbudowane efekty i instrumenty wszystkie.
Ustawienie skrótów na midi i skrótów klawiszowych.
Praca z Working with Groove, są jakieś wbudowane dźwięki, różne skale właśnie są dostępne, jest napisane, że wtyczki film czecich są, niektóre są dostępne z czytnikami ekranu, ale do pewnego stopnia, no to wiadomo, nie wszystkie wtyczki są dostępne, właśnie te nowsze pisane w Juice’ie, np. Search, Pianotech czy Nexus,
no to one będą nam fajnie działać, no a jakieś starsze, albo wpisane w innych, albo bardziej
niestandardowych systemach, no to ich interfejsy nie będą dostępne.
Natomiast przepuszczam, że jakiś podstawowy widok, który będzie nam wyświetlał wszystkie
parametry danej wtyczki, tak jak to jest np.
w Reaperze też raczej gdzieś tam będzie.
Ale jest jeszcze kilka rzeczy, które na start nie będą dostępne.
Filtrowanie i tagowanie w przeglądarce, audio warping, ja sobie wyszukałem o co tutaj chodzi, to jest odpowiednik tzw. stretch markerów w Reaperze, jeśli ktoś korzysta, jeśli nie to chodzi o zmienianie tempa poszczególnych części danego utworu, tak żeby on nam np. trzymał się tempa, które ustaliliśmy.
Dodawanie automatyzacji, modulacji i edycja MPE, no to jest też MPE, to jest też kwestia związana z MIDI.
No automatyzacja i modulacja może nam się przydać, żebyśmy, żeby nasze utwory były jakieś bardziej ciekawsze,
bo pozwala nam zmieniać parametry, jakieś dowolne, jakieś wtyczki podczas trwania utworu, natomiast to pewnie będzie później dodane.
Max dla urządzeń live, szczerze nie wiem o co tutaj chodzi i mierniki dźwięku, więc nie mamy jak na razie przeczytać sobie poziomów.
No da się bez tego pracować, te rzeczy na pewno będą w przyszłości dodane, natomiast nawet bez nich na pewno będziemy w stanie sobie jakiś projekt utworzyć, wybrać sobie dźwięki, nawet załadować wtyczki, jakiś film w chatach i coś nagrać.
No i na pewno też w przyszłości te rzeczy będą dodane, bo to są też dosyć istotne kwestie i jeśli już tyle pracy zostało włożone, no to na pewno myślę, że ta dostępność będzie jeszcze bardziej opracowywana.
Co na koniec powiedziała pani? Powiedziała, że mimo to, że ta wersja pojawi się ogólnie dla wszystkich w przyszłym roku, na początku przyszłego roku, no to za kilka tygodni ma się rozpocząć publiczna beta.
I teraz jeśli chodzi o tą publiczną beta, to następnego dnia zarówno na kilku listach dyskusyjnych, jak i w mediach społecznościowych zobaczyłem informację, że okazuje się, że ta beta powinna już być dostępna.
Żeby się do nich zgłosić, należy napisać na adres accessibilitymaupaableton.com
accessibilitymaupaableton.com
i tam musimy napisać po prostu, że jesteśmy tym zainteresowani.
Natomiast ja i wiem, że Tomek też tutaj pisał.
Jeszcze opowiedzi nie dostaliśmy.
Napisaliśmy do nich wczoraj.
Może dlatego, że ta konferencja trwa
i po prostu jeszcze w tym się akurat zajmują, bo oni byli też jednym ze sponsorów tej konferencji, trudno mi tutaj powiedzieć.
Może dlatego, że tyle osób do nich pisało?
Może.
Bo wiem o co najmniej innej osobie jeszcze z Polski, która do nich pisała i podejrzewam, że ze zagranicy to tam pewnie ileś pisało.
Dużo, bo ta wiadomość to eksplodowała na przykład na liście Rippera, więc tam jest zainteresowanie.
Bo wiecie, a Ableton, bo tak, Reaper to jest taki trochę program, może nie to, że niszowy, ale to nie jest ten z takich najbardziej popularnej, nie wiem, trójki.
To jest taki na granicy najpopularniejszej dziesiątki. On się czasem łapie w tej dziesiątce, czasem nie łapie. Więc to jest taki trochę, no nie to, że peryferia, bo to większość osób o tym wie, że jest ten Reaper, ale to nie jest tak, że tylko każdy używa.
R.I.P.E.R. jest popularny wśród nas.
Tak, natomiast Ableton to jest absolutna czołówka światowa, jeżeli chodzi o popularne programy do tworzenia muzyki.
Jeżeli ktoś na przykład testuje, czy tam nie wiem, robi coś i patrzy jak działa, czy tam jak się robi coś w jakichś programach,
To jak nie testuje Abletona, to tak jakby, nie wiem, nie testował Windowsa, czy może nie Windowsa, ale no w każdym razie to jest naprawdę absolutna czołówka, jeżeli chodzi o takie znane, popularne programy do tworzenia muzyki.
Podejrzewam, że popularniejsze jest nasz OTFL Studio, ale to Abletona jest milion milionów poradników wszelakich, oczywiście dla widzących, w każdym razie tego jest bardzo dużo.
Też oprócz tworzenia muzyki, to z tego co ja gdzieś tam widziałem, to jest na przykład dość dużo poradników dotyczących tego jak się sety różnego rodzaju DJ-skie tworzy, jeżeli ktoś na przykład nie chce miksować na żywo, a chce sobie coś takiego stworzyć, to dość często jest to spotykane narzędzie, też i w tym świecie.
Tak, to jest ścisła czołówka, no i z tego co wiem, bo znam też kilka osób, które brały udział w tych zamkniętych testach, one też nie mogą dużo powiedzieć, natomiast to co powiedziały, jak ta wiadomość właśnie stała się bardziej publiczną i to są naprawdę osoby, które umówmy się, już wiedzą jak się takie rzeczy robi i już trochę w tym siedzą, na przykład Scott Chesworth, który pracował nad dostępnością Osary, po takim względem komunikacji zarówno z autorami Lipera, jak i samej Osary i też uczył ludziom,
ludzi jak z tego korzystać, on ma naprawdę wysokie standardy, brał udział w tych testach
i mówił, że tak jak na początku podchodził do tego sceptycznie, bo najpierw
zaczął rozrzucać pieniędzmi i sponsorować różne wydarzenia związane z
zastępnością, no to powiedział, że naprawdę są ludzie, którzy wiedzą co robią,
słuchają sugestii i to jest naprawdę zrobione dobrze.
Więc myślę, że jest na co czekać.
Jeśli będziemy wiedzieć więcej, na pewno damy wam znać,
jak tutaj ja czy Tomek dostaniemy tą aplikację, to pewnie jakieś wrażenia
Abletona w Tyflo Przeglądzie się pojawią, a pewnie później, no pewnie coś więcej, jakieś podcasty na pewno.
Więc to jest Ableton, ale to jest jeszcze nie koniec.
Jeszcze było kilka rzeczy, a właściwie tu jest na pewno jeszcze jedna rzecz.
Firma Arturia to jest kolejny producent zarówno sprzętu i oprogramowania, chociaż tutaj było
bardziej o oprogramowaniu, bo oni też zajmują się głównie wtyczkami, które emulują w różny
sprzęt. Głównie są różne właśnie syntezatory kultowe, ale też efekty.
No i z dostępnością ich wtyczek było też różnie.
No i też pracują nad tym, żeby żeby to było poprawione.
W najnowszych wersjach np.
takiego sztandarowego produktu to jest V Collection.
To jest właśnie kolekcja wszystkich ich wtyczek.
Zostało poprawione przeglądanie dostępnych presetów w tych wtyczkach,
czyli dostępnych dźwięków, tak samo w FX Collection, czyli to jest znów zestaw różnych emulacji efektów różnych.
Tutaj też jest dostępność poprawiona.
No i powiedzieli, że pracują nad dostępnością oprogramowania, którym te wszystkie wtyczki instalujemy, czyli Arturia Software Center.
No i to się przyda, bo z tym jest bardzo źle.
Ponoć tej dostępności na razie jeszcze nie ma.
a ja jeszcze nie bawiłem się wtyczkami Arturi, głównie przez właśnie to oprogramowanie, bo
no, z nim są duże problemy. Z tego co wiem, to na Macu
OCR’em da się to jakoś obsłużyć, na Windowsie to trzeba się posilać osobami widzącymi najczęściej.
Więc no, byłoby dobrze, żeby to faktycznie stało się dostępne, co jest bodajże pisane w żusie, więc no, myślę, że spokojnie to się
da zrobić, no i może za jakiś czas faktycznie będziemy mogli
sami sobie te wtyczki kupić
i faktycznie bez pomocy osób widzących zainstalować, no a później już cieszyć się z dostępnych w nich dźwiękach czy opcjach.
Tak, a tych wtyczek tam jest naprawdę, oni mają sporo.
Głównie to są emulacje starych syntezatorów z lat 70., 80., trochę 60., także takie rzeczy.
No i to wszystko, co było w tej konferencji. Jeszcze na koniec, a propos tej prezentacji, jak tworzyć aplikację dostępną w Juice’ie, to prowadził pan właśnie z Focusrite’a.
Przy okazji tej prezentacji, która, miejmy nadzieję, też się pokaże na YouTubie, jest publiczne reprezentatorium na GitHub’ie firmy Focusrite, które pokazuje, jak dostępność się wciela w takie aplikacje.
I to jest fajnie pokazane, bo to się zaczęło od takiej aplikacji, która była zupełnie niedostępna, tam tabem nie dało się dojść nigdzie, były suwaki, które były niezatykietowane, nie reagowały na klawiaturę i tam krok po kroku właśnie najpierw poprawione zostały etykiety, później właśnie nawigacja tabem, później grupy dodane, to się nam może o tyle przydać, że jeśli będziemy się kontaktować z jakąś firmą, żeby poprosić o dostępność w jakiejś wtyczce, którą wiemy, że powstała w JUICE, a może nie wiemy, po prostu możemy zaryzykować, zapytać się.
No to możemy im od razu podesłać nie dość, że linki do dokumentacji, to właśnie taki przykładowy projekt, bo to często w takich sytuacjach może pomóc, że to będzie kolejny zasób, którym w razie czego będziemy mogli się posilić.
No i to już teraz naprawdę wszystko dzieje się, dzieje się dużo i fajnie, że dzieje się raczej na plus.
A tymczasem mamy pierwsze, chyba że jeszcze coś do tego Tomku, bo mamy wiadomość.
Takie moje troszeczkę trzy grosze, taki komentarz odrobinę, ale postaram się w miarę streścić, bo pamiętajcie, że tworzenie muzyki to jest coś, na czym można rzeczywiście zarobić pieniądze realne.
Bo wiecie, gry, no fajnie, rozrywka, można się pobawić, można się trochę zintegrować, to są jakieś takie rzeczy, które trudno zmierzyć, jakby ich taką pożyteczność.
Natomiast tworzenie muzyki to jest coś, co może nam naprawdę przynieść jakąś niezależność, taką prawdziwą niezależność, bo jest jednak trochę osób, które chciałoby to robić.
Do tej pory był trochę taki problem, że mało osób się w to bawiło, bo mało co było dostępne, trzeba było naprawdę sporo się wysilać, a mało co było dostępne, bo mało osób się to niewidomych bawiło.
I trochę mam nadzieję, cichą, że w związku z tym, że robi się dużo, no jednak znacznie, to dużo większy jest tutaj postęp teraz w ostatnich latach, jeżeli chodzi o te oprogramowanie muzyczne,
no to mam nadzieję, że rzeczywiście więcej osób za to się niewidomych zacznie brać i one zaczną tworzyć coraz większy procent po prostu tych ludzi, którzy tworzą generalnie muzykę.
i zaczniemy tutaj jakoś, jakkolwiek istnieć w tym wszystkim i może nie jakoś bardzo, ale jednak troszeczkę się liczyć dla tych wszystkich deweloperów i naprawdę to jest bardzo takie podnoszące na duchu to, co tutaj opowiadasz o tej konferencji, bo te firmy, które mówisz, to są naprawdę znane, bardzo znane firmy w takim świadku muzycznym, świadku muzyki elektronicznej.
Tak, i one to naprawdę, z tego co widać, chcą to zrobić.
Ta pani, która zajmuje się dostępnością w Abletonie, no to ona zrobiła doktorat
związany właśnie z Human Interface Guidelines, czyli właśnie tworzenie
interfejsów komputerowych.
Właśnie jej praca coś miała związek z dostępnością, mówiła, więc no
faktycznie zatrudniają tutaj ekspertów, no ludzi, którzy faktycznie wiedzą co
robią. I też taka ciekawostka, kiedyś Native Instruments mówiło właśnie
Dlaczego warto korzystać z standardu NKS i dodawać dużo parametrów, bo dawali statystyki, że około 20% ludzi, którzy korzystają z ich kontrolerów, ma włączoną dostępność, więc całkiem sporo.
To dużo. Właśnie też o tym słyszałem, że to było właśnie 20%. Z jednej strony ciężko w to uwierzyć, no bo 20% to jest naprawdę… No, jeżeli by oni stracili 20% klientów, to jest dużo.
Ale wiecie, może to chodzi po prostu o to, że wcale ta dostępność nie przydaje się tylko niewidomym.
Teoretycznie tak, natomiast w żadnym tutorialu, który słyszałem, nie było mówione,
ej słuchajcie, włączcie dostępność, bo wtedy coś tam się będzie robił.
W ogóle słowa nie było na temat dostępności w tych kontrolerach.
A kilka tych tutoriali sobie przesłuchałem na jakimś YouTubie, czy na czymś,
Ponatykałem się, to były tutoriale anglojęzyczne z reguły oczywiście, bo polskiego to prawie w ogóle nie ma, ale w polskim też nikt nie wspominał o tej dostępności, także śmiem uwierzyć, że to rzeczywiście mogą być osoby niewidome, bo wiecie, bo osób widzących, które używają różnego rodzaju tego typu systemów,
Inaczej, dla osób widzących, takich systemów, może nie do końca tak zintegrowanych jak Native Instruments, jest kilka.
Novation coś robi, Arturia coś robi, ktoś tam jeszcze, niektórzy w ogóle żadnych takich systemów, znaczy większość chyba żadnych takich systemów nie używają,
bo to trochę jest, to jest trochę na zasadzie, no fajnie, że jest, ale to pewnie trochę upraszcza, ale bez przesady w drugą stronę, i tak się część robi na monitorze,
myszce, więc w sumie jak tam troszkę zrobię więcej na klawiaturze, to to w sumie nie przyniesie jakiegoś wielkiego znaczenia.
I okazuje się, że jeżeli jeden konkretny produkt został, no została tam dostępność zrobiona, no to ileś osób niewidomych,
które robią muzykę, na ten jeden konkretny produkt się rzuciło, bo nam to po prostu jest potrzebne.
Bez tego w wielu instrumentach nie zrobimy nic lub prawie nic i dla nas to jest w ogóle dużo, dużo większa pomoc niż dla takiego przeciętnego widzącego.
A że do tej pory był tylko jeden taki produkt, no to wszyscy po prostu wybrali to, dokładnie to.
No okej, to w takim razie teraz…
To odbierzmy telefon, bo się słuchacz troszkę naczekał.
Akurat to nie będzie telefon, to będzie wiadomość i to w dodatku wiadomość nagrana syntezą, którą podesłała nam Aga.
Ktoś widzę, że do nas dzwoni, więc za chwileczkę odbierzemy ten telefon, ale na razie posłuchajmy tej wiadomości.
Witajcie, z tej strony Aga. Dzisiaj nagrywam się w formie syntezy, gdyż nie mam za bardzo warunków do nagrywania.
Po pierwsze chciałem bardzo podziękować Piotrowi za audycję o audioch i Jacku.
Świetnie wszystko wytłumaczone. Poprosiłem o tą aplikację pod choinkę, w końcu święta już niebawem.
Z aplikacji jestem naprawdę zadowolona i ciągle jej się uczę.
A w związku z tym chciałem się również z wami podzielić wynikami transkrypcji, ponieważ kilka dni temu pojawiła się aktualizacja nowej funkcji,
jaka doszła niedawno i o której była mowa w ostatnim tyflo przeglądzie.
Między innymi doszła funkcja wyboru języka na jaki chcemy transkrybować tekst.
Mamy do wyboru około 90 języków, w tym m.in. język polski. Do testów użyłem dwóch źródeł.
Jedno to Safari, puściłem ostatni Tyflop przegląd, a drugie to VoiceOver.
No i cóż wyniki mnie dość zaskoczyły. Okazuje się bowiem, że lepiej dać
język automatycznie rozpoznawany do transkrypcji, niż język polski.
Pierwsze źródło nazwałem sobie Tyflop Podcast, Safari, a drugie Gadaczka VoiceOver.
No to cóż w takim razie zapraszam do wysłuchania krótkiego nagrania jak to
wszystko wypadło i jak to zostało rozpoznane przez program. Pierwsze nagrania
i transkrypcję tekstu ustawiłem na język polski na sztywno, a drugie to już
język automatyczny.
Session started.
Safari działa w tle.
Finder, biurko, folderek, folder.
Folderek.
Duk, audio hijack, otwarty, 32-36.
Safari, otwarty, 3-36.
Safari, strona początkowa, okno, pasek narzędzi.
Otwórz adres.
Tytlo podcast, A, B, O, D, C, A, S, T, H, T, T, P, S, dwu kropek, zlesk.
Tytlo podcast, idź do menu.
Ankieta. Poziom Tyflo Przegląd odcinek nr 208. Odwiedź do 6 komentarzy. Autor aplikacji i do pliki do pobrania. Poziom na górę. Obierz plik z audycją. Tyflo Przegląd odcinek nr 208. Odwiedzone. Obierz plik z audycją. Witryna nie jest bezpieczna.
Fundacja Instytut Rozwoju Regionalnego prezentuje Tyflo Podcast.
Dzień dobry, dzień dobry, pewnie dawno państwo mnie nie słyszeliście, jestem Tomek Bilecki, a dzisiaj Tyflo Przegląd, Tyflo Przegląd i na skład dość duże mam wrażenie, jakoś ostatnio jest Paweł Masarczyk, jest Piotrek Machacz, Michał Dziwicza, czyli właśnie Tomek Bilecki.
No i co, zaczynamy oczywiście od skrótu tego, co się dzisiaj będzie działo, który przedstawi jak zwykle Michał.
Wytwórnia PEL brak dźwięku, odgłosy, adresu.
Tyflopodcast Safari Przeglądarka Fundacja Instytut Rozwoju Regionalnego prezentuje Tyflopodcast.
Dzień dobry.
Dzień dobry.
Pewnie dawno Państwo mnie nie słyszeliście.
Jestem Tomek Bilecki, a dzisiaj Tyfloprzegląd.
Tyfloprzegląd i no z podstości mam wrażenie jakoś ostatnia jest.
Paweł Masarczyk jest, Piotrek Machacz, Michał Dziwna.
Dobry wieczór, Pielecki.
No i co zaczynamy oczywiście od skrótu tego co się dzisiaj będzie działo, który przedstawię jak zwykle.
Michała Muzyka dziękuję za oglądanie.
W tym tygodniu w Tyflo przeglądzie interesującej aplikacje.
Gadaczka VoiceOver i tak się nerw. Dziurko.
Tyflo podczas Safari przeglądarka pojść i skacz.
Gadaczka VoiceOver dzięki za oglądanie.
Tyflo podczas Safari przeglądarka kiepał dwie c.
Ciężko ciepie. Spróbuję dać niezrozumiały koniec.
Session started.
Film po Safari działa w tle.
Do Tyflo dook.
Audio hijack. Otwarty.
32 z 36.
Safari. Otwarty.
Safari.
Strona początkowa. Okno.
Pasek narzędzi.
Pełne. Pasek narzędzi.
Otwórz adres.
Dzień dobry, dzień dobry, pewnie dawno państwo mnie nie słyszeliście, jestem Tomek Bilecki,
A dzisiaj Tyflo Przegląd, Tyflo Przegląd i dość duże mam wrażenie jakoś ostatnio jest Paweł Masarczyk, jest Piotrek Machacz, Michał Dziwicza.
Dzień dobry.
No i co, zaczynamy oczywiście od skrótu tego, co się dzisiaj będzie działo, który przedstawi jak zwykle Michał.
W tym tygodniu w Tyflo Przeglądzie.
Interesujące aplikacje twórcy Voice Vista.
Nowa wersja…
Tyflok odjść do menu, ankieta, napisy i audiodeskrypcja powtarzone przez społeczność Amara.org
Tyflopodcast, Safari, Przeglądarka, Fundacja, Instytut Rozwoju Regionalnego, prezentuje Tyflopodcast
Dzień dobry, dzień dobry, pewnie dawno Państwo mnie nie słyszeliście, jestem Tomek Bilecki, a dzisiaj Tyfloprzegląd
Tyfloprzegląd yyy, dość dużo mam wrażenie jakoś ostatnio jest Paweł Masarczyk, jest Piotrek Machacz, Michał Dzibija, Daje, dobry wieczór
No i co, zaczynamy oczywiście od skrótu tego, co się dzisiaj będzie działo, który przedstawię jak zwykle Michała Autrowu w tym tygodniu w Tefloprzeglądzie
W tym tygodniu w tefloprzeglądzie. W tym tygodniu w tefloprzeglądzie.
Nowa wersja Lodia brak dźwięku.
Gadaczka VoiceOver Finder, Finder, Biorko, Safari, Storago, Tyflopo,
Audio Hijack, transkrypcja, tekst, przeglądarki.
I tak to wyglądało. W międzyczasie, w międzyczasie pojawił nam się
również telefon, więc teraz ten telefon odbieramy.
Kogo witamy po drugiej stronie?
Halo, halo, teraz mnie słychać?
Tak, słychać, kto jest z nami.
Witam, tu Marta Woźniak.
Jakieś tu się dziwne chocki klocki działo,
bo transmisja na YouTubie nam do początku wracała.
A to ciekawe, to ciekawe.
W międzyczasie też zresztą pojawił mi się taki problem,
że w trakcie odbierania połączenia
nie chciał dźwięk przejść na nasz mikser,
ale teraz już wszystko działa, jesteś słyszalna.
Nasi współprowadzący też Cię słyszą, Marto, więc słuchamy.
Okej, to ja z takim zagadnieniem.
Od jakiegoś czasu pojawił mi się problem.
Nie jestem w stanie tego jakoś połączyć, bo może to się pojawiło,
kiedy aktualizowałam system iOS do siedemnastki,
ale nie jestem w stanie tego tak precyzyjnie skojarzyć.
No ale od jakiegoś czasu.
Chodzi o program Voice Dream Reader.
Używam go przede wszystkim dlatego, bo zdarzają się sytuacje,
kiedy potrzebuję książki wsłuchać offline.
Czasami jak jedziemy, jadę pociągiem i nie ma zasięgu,
no i potrzebuję czasami offline.
No i pobieram książki z biblioteki, tak?
W oddziału wypożyczeń online.
I co się dzieje?
Już na którejś książce, chyba trzeciej z rzędu,
po prostu książka przeskakuje.
np. o godzinę, o pół godziny, czasami o kilka minut, najczęściej do przodu.
I to zaczęło mnie denerwować.
I czy ktoś miał też taki problem?
Jak nie, no to ewentualnie, czy byście
mogli polecić jakąś aplikację jeszcze, która by mogła otworzyć książki offline?
Bo EasyReader zdaje się, że nie ma takiej opcji.
Kiedyś jak próbowałam, no to tam jest opcja, pobierz niby książkę, ale ja miałam wrażenie, że takimi paczkami pobiera, że otwarza, otwarza, a potem znowu zasysa nową paczkę, jak to jest.
Masz na myśli Marto, jak rozumiem, książki audio.
Tak.
No to do tego typu rzeczy można na przykład jeszcze bookplayera wykorzystać, ale on jakby, no trzeba mu jakoś te pliki dostarczyć.
A to akurat jest tak jak w Voice Dream, tam można spokojnie pliki zip załadować.
Eee?
Bo jak ty teraz ładujesz książki do Voice Dreama?
Przez iCloud pobieram jako plik.
A no to spokojnie można tak samo zrobić z BookPlayerem.
To jest darmowa aplikacja stworzona specjalnie właśnie pod typowo słuchanie audiobooków
i tam można identycznie właśnie plik zip po prostu do niej załadować i to jest aplikacja darmowa i tam raczej takiej rzeczy nie powinno być.
Ja właśnie z tej aplikacji korzystam do słuchania audiobooków.
No niestety odkąd VoiceDream został przejęty to źle się z nim dzieje, pojawiają się jakieś…
Są częste aktualizacje tego VoiceDreama natomiast jakoś chyba niewiele o nich nosi.
Najnowsza aktualizacja u niektórych osób ponoć nawet zaczęła prosić o dostęp do powiadomień.
Nikt nie wie dlaczego.
No aktualizacja wojstrima nic mi nie dała.
Ja też tak pomyślałam, że może to być związane z jakimś, no bo
to przecież są kodowane teraz znakiem wodnym.
Raczej nie.
I że to może jak, może oni coś tam w bibliotece jakiś problem mają, bo to na
nowych książkach, bo ja najczęściej znowu do danych pobieram.
Jeszcze mam takie pytanie, bo jeżeli odtwarzamy coś na iPhonie, to w zegarku odpala się jego odpowiednik aplikacji, ale ja tego szczerze mówiąc nie umiem korzystać. Czy to jest przydatne w ogóle, ta aplikacja na zegarku?
Aplikacja na zegarku, nie wiem czy w ogóle ktoś o nią dba.
Generalnie ona jest tak zrobiona, że też można do niej ładować kliki tekstowe
i na zegarku tylko musimy mieć podłączone słuchawki bluetooth.
Możemy wtedy je czytać tylko głosami wbudowanymi w zegarek.
Natomiast ona w żaden sposób nie integruje się
z tą aplikacją na iPhonie z tego co pamiętam.
To jest kolejny plus dla Bookreadera zresztą, bo on też ma wersję na zegarek,
która, z tego co pamiętam, raczej działa fajnie.
Natomiast w razie kiedyś jakiejkolwiek takiej jeszcze sytuacji,
co się czasami może zdarzyć, też na przykład pamiętam
amerykański Audible, też miał aplikację na zegarek, która tak nie
chciała mi się integrować, można sobie na zegarku znaleźć aplikację
teraz odtwarzane, zresztą też w ustawieniach, teraz nie pamiętam,
w której sekcji ustawień zegarka, można poprosić go, żeby nie
otwierał danej aplikacji, jeśli otwarzamy coś w niej i wtedy się będzie otwierać ta
aplikacja systemowa teraz odtwarzane i ona nam zawsze na taką podstawową kontrolę
pozwoli. Ona nam pozwoli po prostu zatrzymać, przewinąć do tyłu, do przodu i zmienić
głośność. Ona nie będzie wyświetlała nam rzeczy, tam będzie wyświetlało się co jest
odtwarzane, no ale nie będziemy mieli jakiejś opcji do konkretnej aplikacji, ale
ona po prostu zadziała nam wszędzie, gdzie gdzie cokolwiek po prostu leci w jakiejś
aplikacji na Iphone’ie.
Aha, no bo fajnie by było na przykład
sobie sterować, nie wiem
tam rozdział przepinąć, czy
o minutę. No tak, no
niestety to… W tej
aplikacji na zegarek można,
a ty mówisz, że to tylko do plików
tekstowych. Do czytania plików tekstowych, tak.
Tam po prostu to, kiedyś zostało
ta aplikacja, nie wiem, rozpoczęty na
rozwój, no ale niestety
to chyba po prostu zostało porzucone
przez dawnego autora,
A co zrobi nowy właściciel, to trudno mi powiedzieć, chociaż jakoś wątpię, żeby coś z tym niestety zrobili.
Dobrze, to bardzo dziękuję za odpowiedź i słucham dalej. Pozdrawiamy słuchaczy.
Dzięki Marto za telefon, pozdrawiamy serdecznie. Do usłyszenia.
No to w takim razie przechodzimy chyba do następnego newsa od Pawła o komórkach brajlowskich.
podejrzewam, że chodzi o komórki w monitorach brajlowskich, które wygrywają nagrody.
Tak, komórki, czyli jakby pojedyncze takie znaczki, które wyświetlają się na monitorze brajlowskim.
Monitor brajlowski składa się, to co mówimy, jeżeli linijka jest 40-znakowa, tam 20-znakowa,
ilość znakowa, to jeden taki znak, to jest właśnie jedna komórka brajla, czyli ta przestrzeń,
która wypluwa nam jakąś tam kombinację tych sześciu punktów.
No i dużo by można tu się rozwijać na temat tego, jak technicznie to działa,
że są silniczki, które wypychają igiełki i tak dalej.
I tak konwencjonalnie koszt wyprodukowania jednej takiej komórki to jest gdzieś…
No po 700 złotych podchodzi, bo to jest około 150 dolarów i tak dalej.
Dlatego te monitory są właśnie takie drogie, bo tyle kosztuje jedna taka komórka.
a potem kwestie wyobraźcie sobie wymienić jedną taką komórkę i to na jakiejś gwarancji naprawiać,
to znowu jest taki koszt.
No i różnie już przez lata próbowali jakoś ten problem obejść, no Orbit Reader to słyszeliśmy,
takie sypiące się igiełki, tani monitor Braille’owski, ale słychać jak się wysypują te igiełki,
tak powoli się odświeża ten monitor, stosunkowo.
No i różne są pomysły na to, jakieś projekty i tak dalej.
Natomiast jest sobie gościu z Indii, który już kilka lat temu próbował i nawet coś tam
opublikował, ale przez to, że naruszył jakiś patent, to było mu dane to opublikować jedynie dla
celów edukacyjnych, czyli nie mógł z tym nic komercyjnie zrobić.
A teraz w ramach takiego serwisu Hakaday, czyli taki portal właśnie o takim samodzielnym
o tym konstruowaniu różnych sprzętów, rzeczy, budowaniu jakichś takich urządzeń.
Opublikował to swoje dzieło, a jest nim patent na komórkę brailowską, której koszt
wyniesie dolara.
No i ponoć da się tą komórkę samodzielnie wydrukować w 3D.
No co więcej, opublikował całą specyfikację techniczną, opublikował te słynne pliki CAD,
te modele takie, z których można drukować.
Ponoć dalej złożenie tego wymaga dość dużej dozy determinacji i samozaparcia.
Natomiast dostał za to właśnie nagrodę tegoż serwisu i jest teraz promowany absolutnie wszędzie.
Nakręcił filmik, gdzie opowiada troszeczkę o tym jak to wygląda.
To jest na tyle skomplikowana gdzieś technicznie sprawa, że ja nie rozumiem o czym on mówi.
Natomiast rozpisują się o tym wszelakie portale na całym świecie technologicznej,
to takie ogólne, nie tylko tam dla niewidomych.
No jak to zazwyczaj bywa, pytanie czy to jest dużo hałasu o nic, czy też rzeczywiście coś ciekawego z tym można zrobić.
Bo czy będzie rewolucja jakaś typu, że nagle monitory nam potanieją z dnia na dzień?
Wątpię, bo to jest też kwestia, wiele już było takich projektów.
Pytanie, jaki jest haczyk, na ile stabilne jest to urządzenie złożone z takich komórek albo kwestia tego, jak wolno działa lub szybko, jak głośno itd.
Więc tutaj pytanie, jak to będzie wyglądało.
No pliki jakieś są, więc to już nie jest tylko i wyłącznie, że ktoś coś wynalazł i jest artykuł i w sumie to przez lata nic nie usłyszymy,
tylko mamy już konkretny w ręku jakiś materiał, z którym można coś tam pracować.
Wiem, że osoby z prowadnicy nas słuchają, a wy tam drukareczki 3D to macie, a jakże.
Więc można się chociażby przyjrzeć tematowi, może czy to już jest coś, czym można się jakoś zainteresować,
czy na razie jest to w kwestii jakiejś takiej ciekawostki typowo naukowej.
Ale Paweł, ja zapytam od razu, czy my mówimy o komórce Brailowskiej,
którą możemy zastąpić komórkę działającą w obecnie używanym monitorze,
czy raczej mówimy o tym, że jeszcze musimy sobie tu dobudować jakąś elektronikę
i po prostu stworzyć nowe urządzenie?
Obawiam się, że to drugie, przy czym nie wiem, bo to jest dość abstrakcyjnie na ten moment opisane.
Więc pytanie brzmi, jak to jest przewidziane przez autora, no wątpię, chociażby z takiej przyczyny, że no ja to bym się nie ośmielił wymieniać sobie samowolnie komórek w moim monitorze, naruszając tym samym gwarancję, jakieś prawdopodobnie plomby producenckie i tak dalej.
Jedna rzecz, że ta gwarancja to też specjalnie długo, no nie trwa, nie wiem ile, dwa lata, a potem to już i tak trzeba będzie dopłacić za naprawę serwisową, tak czy inaczej,
ale rzeczywiście to jest akurat prawda, że z rozbieraniem i jakimiś takimi samodzielnymi działaniami związanymi z monitorami brailowskimi to trzeba bardzo mocno uważać,
bo te komórki, one są bardzo wrażliwe na jakieś nieumiejętne tego rozbieranie, dotykanie w środku i potem nagle się może okazać, że złożymy taki monitor, ale przestanie nam się część pinów wysuwać.
Na przykład. Wiem, że to był problem z orbitami i to tak fabrycznie i to trzeba było dość często je odświeżać, ale my możemy coś autentycznie tak naruszyć, że po prostu nie będzie wychodził już ten pin.
Inna kwestia jest tego typu, Michale, że prawdopodobnie to nie jest tylko kwestia wymiany pinów, tylko też całego motorka i pytanie na ile te zwoje, które to wszystko łączą, na ile to się da ukompatybilnić z tym, co pan VJ sobie wynalazł.
No właśnie dlatego tak się zastanawiam, ale…
Obawiam się, że tutaj będzie kwestia raczej, bo to każdy też producent ma swój pewnie patent na te zwoje, więc myślę, że to niestety będzie kwestia urządzenia, no ale kto wie, czy to już nie jest na etapie jakiegoś, wiesz, Arduino, które wypycha sobie piny.
No właśnie.
No to już niech mądrzejsi od nas się wypowiedzą. Jeżeli macie taką wiedzę i macie, no dostęp do plików jest, w komentarzu będzie podany link, więc możecie coś tam powiedzieć, jak to widzicie.
I kolejny news, tylko że mi gdzieś się zgubiły nasze notatki, ale już je mam od Piotrka. Głosy, które były i już ich nie ma.
Może wrócą, myślę, że wrócą, zobaczymy. Niedawno, w zeszłym tygodniu, tak mi się wydaje, jak nie to dwa tygodnie temu, wspominałem, że niebawem mają pojawić się głosy od firmy Seraproc na iPhone’y.
no m.in. to jest polski głos Fola, ale nie tylko, oni też mają głosy w wielu
językach, głównie angielski, ale nie tylko.
No i w poniedziałek takie ta aplikacja się nagle pojawiła.
Została wrzucona do portalu Apple, więc aplikacja nazywała, czy nazywa się
Sireplay, Cereplay.
Mówię nazywała się, bo na razie z App Store’a zniknęła.
Dlaczego? No może, może będzie jasne jak zacznę opowiadać o niej więcej.
Aplikacja pozwala nam na testowanie wszystkich głosów producenta, no i ich zakup, żeby korzystać z nich w dowolnej aplikacji na urządzeniu.
Ekran testowania, no to wiadomo mamy, tak jak to często jest na stronach internetowych producentów głosów, mamy pola edycji, który możemy chyba tam tylko do 100 znaków wpisać.
No i możemy sobie dowolny głos wybrać i po prostu go usłyszeć.
Sama aplikacja wygląda bardzo jak aplikacja androidowa, tam nie mamy nigdzie zakładek, tylko mamy takie wysuwane menu w lewym górnym rogu, na którym mamy właśnie ekran demo, ekran dostępnych głosów, no i sekcję ustawień i pomocy.
Wchodzę sobie na ekran dostępnych głosów, tam mamy przyciski do poszczególnych języków, które nam je rozwijają.
Rozwinąłem sobie język polski, znalazłem głos Paula, no i na ekranie informacji z głosów zaczyna pojawiać się pierwszy duży problem.
Jest sporo niezaetykietowanych przycisków.
Nie są nawet tyle przyciski, co elementy, które nam nikt nie mówi, na jednym voiceover mi opisuje, że jest jakieś zdjęcie kobiety,
więc na pewno jest jakiś po prostu, nie wiem, awatar tego głosu, jakiś coś w tym stylu.
No i mamy przycisk, żeby ten głos kupić i tutaj, no, jeśli szukacie jakichś miłych niespodzianek,
to te głosy nie są jakieś bardzo drogie, bo kosztują 4,99.
No i mamy przycisk, żeby wrócić do tego ekranu demo.
No dobra, to próbujemy ten głos kupić.
Naciskam na ten przycisk, on zmyja etykietę, nie można kupić,
potem otwiera mi się ekran zakupu, potwierdzam zakup.
No i zaczynają się schody.
Bo na AppleTV się pisało, że po wciśnięciu na ten przycisk, no to aplikacja powinna nas poprosić o zalogowanie się do konta Serafprog.
U mnie to się nie stało. Ten przycisk po prostu zmienił etykietę na właśnie Can’t Purchase, nie można dokonać zakupu, mimo to, że zakup jak najbardziej został dokonany, dostałem potwierdzenie.
No to mówię, okej, no jeśli trzeba się zalogować, to może spróbuję zalogować się ręcznie.
Przechodzę do sekcji ustawień. W ustawieniach jeszcze więcej niezatykietowanych przycisków i tu już takie faktycznie przyciski.
Włącznie z przyciskiem, szukam gdzieś właśnie przycisku, żeby się zalogować. Przycisku zaloguj się nie ma, natomiast jest przycisk usuń swoje dane z aplikacji, dane konta.
Dobra, no spróbuję nacisnąć, tak nie jestem zalogowany, głos kupiłem, w razie czego mogę poprosić o zwrot.
Naciskam na ten przycisk, no i faktycznie otwiera się ekran logowania.
Możemy zalogować się albo adresem e-mail i hasłem, co ponoć też nie działa, nie próbowałem,
ale ktoś na Apowizie próbował, tam przychodzi kod, ma przyjść kod do potwierdzenia rejestracji,
który nie przychodzi ponoć, ale też można zalogować się kontem Google lub Facebookiem.
Nie ma logowania przez Apple, co z tego co wiem powinno być wymagane, no ale dobra, loguje się przez Google.
Tam tylko prosi o adres e-mail i właściwie o nic więcej, więc no to daje mu odpowiednie pozwolenie.
Wtedy otwiera mi się taka strona właśnie producenta, gdzie były informacje o produktach na koncie, na którym nic nie było.
Tą stronę zamknąłem, zamknąłem aplikację, wracam do listy głosów, no i tym razem po naciśnięciu ponownie przycisku kup,
Na szczęście tutaj Apple nas chroni, więc nie jest tak, że kupujemy coś dwa razy, tylko po prostu wtedy App Store wykrywa, że już dany przedmiot kupiliśmy i wysyła do aplikacji odpowiedni komunikat.
Głos się, powiedzmy, kupił drugi raz według aplikacji, no i tym razem faktycznie poprosił mnie o zalogowanie, właściwie wyskoczył komunikat, że aplikacja chce ułożyć danych z tej witryny, czy chce mu na to pozwolić.
No i kontynuuj, okej.
VoiceOver powiedział, że strona Cię wczytała, ale nic się nie wyświetliło, natomiast pojawił się przycisk
Instaluj, no i mówię super, pora sobie ten głos zainstalować.
No i klikam Instaluj.
Znów jestem proszony o zalogowanie się, klikam Kontynuuj.
Nic się nie dzieje, jest tylko komunikat, głos jest niezainstalowany.
No i po wielu restartach wszystkiego telefonu, aplikacji, nie udało mi się tego głosu zainstalować.
Nie udało się to też innym osobom na AppleVisie, co ciekawe, jedna z osób, które do firmy napisała z tą informacją dostała odpowiedź, że oni o tym wiedzą, no i to będzie poprawione.
To ciekawe, taka aplikacja, która nam powinna służyć do zakupienia, zainstalowania i ściągnięcia głosów, nie potrafi instalować i ściągać głosów.
No nie wiem, jak dla mnie to jest coś, co powinno działać, zanim aplikacja zostanie wypuszczona do App Store’a, gdzie będzie dla producenta zarabiać, no ale nie wiem.
Coś bardzo poszło nie tak w trakcie testów.
Coś bardzo poszło nie tak w trakcie testów.
No i ostatecznie, właśnie tak jak wspominałem wcześniej, kilka godzin później ludzie zaczęli zgłaszać, że aplikacja zniknęła.
No i faktycznie miałem potwierdzenie od kilku osób, że tej aplikacji nie widzą.
Natomiast na koniec mam dla was demonstrację, bo z aplikacją przychodzi jeden głos za darmo.
Jest głos szkocki pani Heather, chociaż co ciekawe w systemie identyfikuje się jako głos brytyjski, a nie szkocki, więc ja przez jakiś czas nie mogłem go w ogóle znaleźć, no ale w końcu się gdzieś idzie pani Heather znalazła.
I producent co ciekawe oferuje dwa warianty głosów, które na Windowsie i na Androidzie podczas instalacji z tego co wiem można wybrać.
jest wersja, powiedzmy, neuronowa Sear Wave i wersja standardowa, która gdzieś działa
na starszej technologii, na samplach jakiś, która jest właśnie bardziej
zoptymalizowana pod czytniki ekranu.
Natomiast ten głos header,
przynajmniej w tej wersji, która przychodzi z aplikacją, jest dostępny
tylko w tej wersji neuronowej.
Jak jest to responsywne?
A jeszcze może dodam, że jak najbardziej iPhone, głosy neuronowe działające w czasie
prawie rzeczywistym, może spokojnie obsłużyć patch
wbudowane głosy nowe Siri, które doszły w iOS-ie
sierenasie, to są głosy właśnie neuronowe, te amerykańskie
i one z voice overem działają, no bardzo fajnie responsywnie.
Ja akurat teraz mam ustawionego Eloquence’a, który jest
fajnie responsywny, a teraz
jeszcze tutaj drogą informacji
to jest iPhone 13 Pro, przełączamy się na
Sera Proka
English, UK i responsywność jest taka.
Foto
Wallet
Note
Kamera
Kiedy te głosy zostaną zaktualizowane, no to będziemy mieli opcję, żeby wybrać te głosy nie neuronowe, bo może to jakoś będzie działało lepiej.
Natomiast w tym stanie, no to nie wyszło.
Ja jestem za tym, żeby było jednak więcej takich syntezatorów zewnętrznych.
Fajnie, że jest więcej opcji, że jakieś firmy próbują z tego systemu korzystać.
Czasem lepiej, czasem gorzej.
No patrz ISPi, który wyszedł całkiem fajnie.
No a tutaj jest jeszcze dużo rzeczy do pracowania.
Miejmy nadzieję, że jakaś aktualizacja się pojawi, bo na razie faktycznie, no to wyszło bardzo słabo, krótko mówiąc.
Ja też pamiętam, że w samej Poli, czyli polskim głosu Serebroka, przynajmniej kiedyś, to też było sporo do dopracowania, jeżeli chodzi o różne rzeczy,
więc, no, ta synteza tak czy inaczej może, okej, za 5 złotych, żeby sobie kupić, to jeszcze, to jeszcze dobrze,
ale ona na Windowsa, to jak dobrze pamiętam, to kosztowała około stówy, jak nie więcej.
Więc, no, to już może niekoniecznie była taka cena, za jaką warto było.
O, ja już chyba jestem, mam jakieś ostatnio.
Ale już mam następnego newsa od ciebie, zresztą Michale, bo WHO uruchomiło aplikację do badań wzroku.
Tak, oczywiście oni się tam zastrzegają, że to jest aplikacja, której należy używać w połączeniu z badaniami u profesjonalistów,
czyli nie, że teraz będzie nas telefon diagnozował, a my już rezygnujemy z wizyt u okulisty.
Oczywiście jest to aplikacja, która przyda się osobom słabowidzącym, można sobie tam badać kondycję naszego wzroku, no i tyle tak naprawdę wiem na jej temat.
Ja ją sobie zainstalowałem, oczywiście wiadomo, że nie byłbym w stanie tak czy inaczej sobie tego wzroku zbadać, ponieważ u mnie on kompletnie nie działa,
Ale byłem ciekaw, czy w ogóle będę w stanie jakkolwiek jej użyć, no i słuchajcie, nie.
Światowa Organizacja Zdrowia nie przyłożyła się do tej aplikacji, jeżeli chodzi o jej dostępność,
bo o ile ja rozumiem, że tutaj do niewidomy sobie tego wzroku nie ma co, żeby badał,
ale przez interfejs to fajnie by było, żeby się przeklikał.
A tu już zaczynają się schody, aplikacja dostępna jest w kilku językach,
W tym w angielskim, po polsku nie ma, to już od razu mówię.
Dostępna jest na iOS-a i na Android-a.
No i cóż, mi udało się przejść przez kilka ekranów.
Poległem na pierwszym jakimś takim zadaniu testowym, które ta aplikacja mi miała wyświetlić.
Wcześniej był jakiś jeszcze proces kalibracji, który też udało mi się z trudem pominąć.
No, więc tak to się przedstawia. Być może osobom słabowidzącym, którym na przykład ten wzrok się pogarsza, to ta aplikacja się w jakiś sposób przyda, żeby sobie na bieżąco kontrolować stan waszego wzroku.
Natomiast, no tu jest takie zastrzeżenie, że rzeczywiście trzeba w miarę dobrze posługiwać się jednak naszymi oczami, żeby być w stanie z niej skorzystać,
bo technologia asystująca, przynajmniej w przypadku voice-overa i przynajmniej w przypadku iOS-a, bo być może na przykład na Androidzie jest lepiej,
no to tutaj zawodzi i nie jesteśmy w stanie za bardzo z tego narzędzia skorzystać.
Natomiast link dostaniecie w komentarzu.
Być może dla kogoś ta aplikacja będzie przydatna.
Ona została wydana z okazji Światowego Dnia Wzroku.
Światowa Organizacja Zdrowia coś takiego sprezentowała.
Walizki przewodniki.
O tym jeszcze nie było chyba, tak mi się wydaje.
W cyfroprzeglądzie, no to czas najwyższy.
Wiem jak to brzmi.
Wiem, jak to brzmi, ale słuchajcie, to taki jest pomysł, pomysł japońskich naukowców, projekt, który jest rozwijany, okazuje się, od 2017 roku, no i właśnie został zaprezentowany następny krok w tej podróży, którą pokona ta walizka.
jest pokazane w artykulach, które jest podlinkowane, jak prowadzi Panią Chieko Asakaue
do swojej pracy.
Tutaj podchodzi sobie do budki, żeby kupić bilet na dworcu kolejowym.
To jest projekt właśnie, który jest rozwijany od 2017 roku przez kilka dużych firm,
między innymi IBM na przykład, to są naprawdę duże korporacje.
No i wkroczył w moment, w którym starają się
przystosować to urządzenie do pracy zarówno w środku i na zewnątrz.
Bo powstały to jakby dwie wersje tego urządzenia, które używają dwóch różnych
systemów nawigacji, no właśnie żeby pomóc osobom niewidomym dotrzeć do miejsca, do
którego chcą dojść. W środku, wewnątrz używa kamer i systemu LiDAR, czyli coś co
znamy np. z iPhone’ów, a na zewnątrz używa nawigacji satelitarnej,
nawigacji kinematycznej, to się nazywa RTK.
Nie wiem czy ktoś z was słyszał o tym systemie?
Bo ja szczerze mówiąc pierwszy raz się spotkałem z tym.
Nie.
Ja też pierwszy raz.
No to nie powiem wam niestety dokładnie jak to działa, no to jest coś na podstawie
satelity, ale to nie jest GPS, no mniej więcej jest podobno.
Jest trudno badaczom zrobić tak, żeby to urządzenie na ten moment było w stanie wykorzystywać te dwa systemy jednocześnie, żeby na przykład poprowadzić nas przez trasę, która gdzieś nas wjedzie, przez miejsca, które są zarówno właśnie na zewnątrz, jak i w środku.
Więc tutaj jest pierwszy minus tego rozwiązania, drugi jest taki, że przez to, że w miejscach, gdzie wchodzimy do środka jakiegoś miejsca, to są potrzebne bardzo duże koła i bardzo mocny silnik, żeby pomóc nam pokonać te rzeczy, takie jak schody na przykład.
No i ta wersja, prototyp, który działa na zewnątrz, ma, żeby wam dać wyobrażenie, 100 centymetrów wzrostu łącznie z rączką i 50 centymetrów szerokości.
Mamy na górze kamerę, a w środku to jest powiedziane komputer osobisty i karta graficzna, więc jestem ciekawy, jaki to duży musi mieć sila.
czy to jest jakiś laptop, czy bardziej jakiś mocniejszy komputer z jakąś kartą graficzną
NVIDIA na przykład, powiem, że oni takie takie sprzęty tworzą.
Całość waży tylko takie leciutkie 30 kilogramów, więc spokojnie będzie można
sobie to samemu gdzieś wnieść na schody, raczej nie powinno być problemu.
I rozwija maksymalną prędkość 3,6 kilometrów na godzinę.
Eksperyment, który został właśnie wykonany, pokazuje, że jeszcze są wezwania, które trzeba pokonać, bo pani, ta walizka tej pani utknęła na progu, który znajduje się przed automatycznymi drzwiami, więc te szyny, na których te drzwi się przesuwają, tutaj kółka tej walizki utknęły.
Zespół, który nad tym pracuje chce, żeby ta walizka zaczęła być wykorzystywana w jakichś miejscach, w środku jakichś lotniskach na przykład w 2027 roku.
No tutaj ta osoba, która napisała ten artykuł postawiła bardzo śmiałą tezę, że takiego typu sprzęty pomału kroczą w stronę zastąpienia psów przewodników i białych lacek.
Ja szczerze mówiąc bardzo w to wątpię, nie wiem czy to będzie miało jakiś sukces.
Może bardziej praktyczne być to zastosowanie, jak oni tutaj mówią o lotniskach, no to ja tutaj widzę
zastosowanie typu musimy dotrzeć na swój lot i może zamiast tego, że prowadzi nas jakiś
personel to po prostu nas taka walizka wtedy prowadziła, no ale to też tak, nie wiem, trochę
mam wrażenie, że to jest rozwiązanie szukające problemu, tak?
To mało praktyczne, bo to jest duże, jak widać ma jeszcze sporo problemów, ciężkie, nie porusza się jakoś szybko, więc no czy tego typu sprzęt ma sens, szczerze mówiąc nie wiem, natomiast właśnie też inne osoby, które komentowały ten artykuł, które wysłały go też w media społecznościowe, też raczej podchodzą do niego sceptycznie, natomiast gdybyście kiedyś usłyszeli o właśnie walizkach, przewodnikach, no to już wiecie o co chodzi.
To znaczy te walizki to mam wrażenie, że to już nie jest jakiś nowy koncept, bo o tym to kilkukrotnie już się mówiło, że właśnie mechaniczny pies przewodnik to ma być wyglądem przypominający taką walizkę na kółkach.
Natomiast rzeczywiście to wszystko, to co na razie mamy to jest cały czas gdzieś w fazach różnych testów, eksperymentów.
No być może jest to jakaś przyszłość, natomiast no to musiałoby być zdecydowanie bardziej dopracowane, żeby można było tej technologii zaufać.
Na razie to skoro wykłada się na takiej prostej rzeczy jak jakaś tam powiedzmy szyna w drzwiach czy próg, no to chyba jednak jeszcze wymaga to sporego dopracowania, żeby można to było wdrożyć.
Nawet w jakiejś zamkniętej przestrzeni takiej jak lotniska.
No to w takim razie przechodzimy, zdaje się, do następnego newsa. I tu w ogóle taki maraton od Piotrka tu się zaczął właśnie, bo to w zasadzie do końca tyflowieści tylko newsy od Piotrka.
Jeszcze będą drobne newsy też tam, bo tam są rzeczy Pawła.
Tak, a faktycznie, rzeczywiście. Ale póki co, co? Alternatywny czytnik na Maca ekranu.
Dokładnie, bo na AppleVisie i też na Redditzie, ale głównie właśnie na portalu
AppleVis pojawił się post demonstrujący projekt, na którym pracuje pan
Jaho Santos.
Jaho Santos, szczerze nie wiem jak to się czyta, mniej więcej pracuje nad
właśnie alternatywnym czynnikiem ekranu na Maca, który nazwał taką bardzo
wycięższą nazwą VOSH, łączącą słowa Vision i Macintosh.
Dlaczego to zrobił?
Wszyscy wiemy, że VoiceOver ma jakieś błędy mniejsze, większe.
Wiadomo, nie wszystko da się naprawić, bo są rzeczy, które są powodowane po
prostu tym, jak działa infrastruktura dostępności na Macu, więc tam niektóre
problemy z wydajnością mogą być bardziej spowodowane tym, natomiast są rzeczy,
które mogą być w ten sposób poprawione.
Responsywność takiej aplikacji, jakieś inne funkcje, tutaj rozmawialiśmy też
przed audycją, np.
problemy z czytaniem interpunkcji, możliwość dodawania jej standardowych
zestawów, są błędy takie drobne, których Apple od lat jakoś nie
poprawiło, no a taki zewnętrzny program mógłby rozwiązać.
No i też pozwoliłoby to społeczności na np. pisanie skryptów czy dodatków, tak jak mamy do NVDA, to może w przyszłości będziemy instalować sobie dodatki do VOS-a, może do jakiegoś tłumaczenia, do ACR-a, do innych rzeczy.
No ale o co chodzi? No na razie projekt jest… To było właściwie koncept, koncept, który został zaremonstrowany na YouTubie i nawet w tej bardzo takiej pierwszej wersji no to spokojnie tutaj autor tej aplikacji był w stanie
przejść sobie do Safari, wejść sobie na Reddita i nawigować po postach i nawet tam jakiś post przeczytać.
No i mówił mu o wszystkich kontrolkach, tak jak w VoiceOverze, chodzimy po elementach i możemy wchodzić, wychodzić z nimi w interakcję.
Natomiast no przez to, że to jest takie bardzo wczesna wersja, to tutaj wiele elementów jest jeszcze bardziej zagnieżdżone.
Na przykład tutaj na przykładzie Reddita, każdy akapit był zagnieżdżony w nieopisanym grupie, która miała właściwie tylko ten akapit.
co VoiceOver po prostu automatycznie usuwa.
Jak widzi, że jest jakaś grupa, która ma tylko jeden element,
no to nam po prostu tej grupy nie przedstawia i możemy sobie spokojnie czytać.
Natomiast właśnie to było zademonstrowane, żeby sprawdzić,
czy w ogóle społeczność byłaby czymś takim zainteresowana.
Bo jeśli tak, no to autor jest chętny tego troszeczkę wyczyścić,
bo tam wiele niestety API tych dostępności jest bardzo słabo udokumentowane.
On tutaj pisał, że pracował nad tym programem przez czytanie kodu źródłowego o tak zwanych hederów, nagłówków przez którymi programiści z różnymi komplementami mogą się komunikować,
więc napisał, że ten kod trochę wyczyści i wrzuci na GitHuba, bo chce żeby to był projekt otwarto-źródłowy.
Jaki jest odzew? Bardzo pozytywny, generalnie ludzie są zainteresowani.
Dużo osób odchodzi sceptycznie właśnie przez to, że wiele rzeczy może być
ograniczone przez samego Maca, przez samego Apple’a, bo na razie pozwala nam jednak
na dostęp do tej dostępności, ale może coś nie na wszystko.
To jest pytanie, czy nie będzie rzeczy, których po prostu ta aplikacja nie będzie
mogła zrobić. Pewnie nie będzie, ale znajdą się jakieś rzeczy, w których taki
i właśnie alternatywny czytnik ekranu może dać nam wiele rzeczy na plus.
No właśnie między innymi przez to, że jeśli zostaną odkryte jakieś błędy,
które nie są związane z samym API dostępności, no to będzie dużo łatwiej je
właśnie w takim otwartym projekcie zastąpić, naprawić po prostu.
Więc raczej…
Ja się tak zastanawiam, czy na przykład nie byłby to dobry moment, chociaż z drugiej
Jeżeli celujemy już bardziej w zaawansowanych użytkowników Maca, którzy poszukują jakiejś alternatywy, to może niekoniecznie, ale tak sobie pomyślałem, że na przykład może byłby to dobry moment w przypadku takiego washa, alternatywnego czytnika ekranu, żeby ten sposób pracy z Maciem uczynić taki bardziej przypominający to, co mamy na Windowsach, na przykład te nieszczęsne interakcje, gdyby nie trzeba było z nich korzystać,
Chyba, że na to samo API dostępnościowe Apple’a nie pozwala, albo wszyscy już są tak przyzwyczajeni, że nie mają z tym kłopotów.
Wiesz co, może to byłby jakiś pomysł, zresztą też w niektórych miejscach autor mówił, że chciałby, żeby to działało bardziej jak MVDA,
nawet tutaj ktoś się zasugerował, może po prostu, żeby dodatki wszystkie działały, no tak na pewno się nie będzie dało zrobić.
Natomiast jeden problem jaki ja z tym widzę i dlaczego Mach tak od początku działa,
Bo generalnie jako sam system operacyjny, macOS nigdy nie był tak fajnie przystosowany do pracy z klawiaturą jak Windows i tak na przykład w wielu aplikacjach budowanych, nie wiem, poczty na przykład, czy finderze, są rzeczy, do których tabem samym i strzałkami nie dojdziemy.
Dlatego VoiceOver ma właśnie taki system pracy, a nie inny, gdzie wchodzimy właśnie, możemy skakać po listach, po paskach narzędzi.
No bo po prostu ten system nigdy nie miał tak dobrze zrobionych skrótów typu tab.
One w niektórych miejscach działają, ale nie wszędzie.
Więc przypuszczam, że w ten czy inny sposób jakiś system interakcji musi raczej być.
No ewentualnie można to częściowo wyłączyć, jak w VoiceOverze też się da to zrobić.
ale jakiś kursor nawigacyjny w takim czytniku ekranu raczej będzie potrzebny.
Nie no jasne, to i pod Windowsem mamy przecież myszkę, czy nawigację obiektową w NVIDIA.
Natomiast tak sobie pomyślałem, że może dałoby się to jakoś uprościć, żeby ten próg wejścia był łatwiejszy.
Chociaż tak z drugiej strony i tak nie sądzę, żeby grupą docelową tego alternatywnego czytnika ekranu
byli użytkownicy, którzy dopiero swoją przygodę z Apple’em zaczynają.
No tak, myślę, że tutaj bardziej, zwłaszcza, że była mowa właśnie o dodatkach, o pracy na kodzie źródłowym, także tutaj jakiś właśnie wkład innych osób byłby bardzo nienawidziany, myślę, że właśnie bardziej tutaj o to chodzi, a takich osób też jest coraz więcej, więc myślę, że na pewno jakąś grupę docelową na pewno to narzędzie znajdzie, będziemy mu kibicować, jeśli ten kod gdzieś się pokaże, czy już jakieś wersje testowe, no to na pewno damy wam znać.
No to w takim razie przechodzimy do znowu newsa od Piotrka i znowu goda temat MAK-a.
Opisywanie zdjęć z każdego miejsca na MAK-u przez GPT-4, czyli w sumie to samo co VMAI AI.
Dokładnie, tak jak w zeszłym tygodniu wspominałem, była konferencja OpenAI i API właśnie do GPT-4
z możliwością rozpoznawania zdjęć czy pracy na zdjęciach zostało dodane i ja wtedy powiedziałem, że pewnie prędzej czy później pojawią się narzędzia, które nam na komputerach, czy to na Windowsie, czy to na Macu nam pozwolą po prostu z dowolnego miejsca sobie w ten sposób zdjęcia rozpoznawać.
No i nie rozczarowałem się, bo kilka dni później tak już się stało.
Zresztą dzięki, dzięki osobie, którą na pewno znacie, bo narzędzie
powstało, zostało stworzone przez Mikołaja Hołysza, który właśnie na GitHubie
zamieścił pierwszą wczesną wersję narzędzia Describe Image, które jak wiele
takich małych skryptów na Macu działa w środowisku Hammerspoon.
O Hammerspoonie już często mówiliśmy, to jest takie środowisko, do którego można
pisać różne programy, które w jakiś sposób działają z tym Maciem, jak
instalować tak moduły do Hammer Spoona, jak już przedtem opisywałem na
nałamach Tyfflo Świata, więc odsyłam was do tego artykułu, żebyście
zobaczyli jak takie rzeczy się instaluje.
W tym przypadku jest jeszcze jedna rzecz potrzebna, więc no instalacja
tego wymaga troszeczkę więcej wiedzy, bo oprócz zainstalowania
samego narzędzia i wpisania odpowiedniej odpowiednich linijek do
pliku konfiguracyjnego Hammer Spoona, musimy też wpisać własny klucz OpenAI.
Możemy sobie taki klucz wygenerować, kiedy założymy konto, natomiast
oczywiście to API też jest płatne.
Na start dostajemy 5 dolarów przez 3 miesiące jako okres próbny, no a po tym
czasie musimy sobie po prostu to konto doładować, podpinamy kartę i możemy
sobie daną kwotą doładować.
Natomiast dla takiego użytku prywatnego to pewnie nam starczy na dość długi czas, bo rozpoznanie jednego zdjęcia tak średnio nam będzie zabierało od jednego do trzech centów, więc na takich 5$ to całkiem daleko zajedziemy.
Jak to narzędzie działa?
W tej wersji pierwszej bardzo prosto, bo tak naprawdę mamy tylko jeden skrót.
Ustawiamy kursor voiceover na obrazku, który chcemy mieć opisany i naciskamy
CTRL-SHIFT-D. Wtedy narzędzie wyśle to zdjęcie do GPT podając mu polecenie, żeby to
zdjęcie zostało opisane. To może potrwać kilkanaście do nawet kilkudziestu sekund,
więc po prostu musimy się uzbroić w cierpliwość, no i kiedy ten opis wróci,
no to on po prostu nam zostanie automatycznie przeczytany.
Jest planowane dużo zmian, zresztą
rozmawiałem z Mikołajem o tym narzędziu, co tam będzie dodawane, też parę sugestii mu
podałem, no i tutaj będzie to
rozwijane, no bo to jak widać to jest bardzo podstawowe.
Co by się przydało?
Na pewno będzie dany dźwięk, który nas będzie informował
o tym, że jest cały czas to zdjęcie przetwarzane.
Będzie też podawany ten opis w języku systemu naszego, więc jeśli mamy system
po polsku, to ten GPT automatycznie będzie dostawał prośbę, żeby ten opis też był
po polsku, bo na razie zawsze to będzie po angielsku.
No i też będziemy mogli zadawać własne pytania.
Będzie historia, prawdopodobnie to będzie działało też na skrótach globalnych, tak
jak Voter na przykład, że po wykonaniu zdjęcia będzie jakiś skrót, który nam wyświetli pole edycji, w którym będziemy mogli
zadawać jakieś dodatkowe pytania, no i w ten sposób dowiadywać się więcej, więcej o tym zdjęciu.
Będziemy mogli też dodawać więcej zdjęć, jeśli to będzie potrzebne.
Czasami nas GPT może poprosić, że coś jest niewyraźne, no to możemy wtedy mu wysłać jakieś dodatkowe zdjęcia.
No i też będzie dana możliwość rozpoznania całego okna lub ekranu,
no bo na razie tylko możemy rozpoznać to, co jest pod kursorem,
a czasami możemy samym kursorem nie dotrzeć tam, gdzie dana zawartość jest,
jak jest np. jakaś nierozstępna aplikacja, no to wtedy lepiej byłoby rozpoznać okno.
No i będzie możliwość po prostu ustawienia własnego tzw. promptu,
więc jeśli będziemy chcieli jakiś bardziej albo mniej dokładny opis,
czy właśnie poprosić o coś konkretnego za każdym razem, no to będziemy mogli sobie to po prostu ustawić.
Więc warto projekt obserwować, bo zmiany są planowane i przypuszczam, że one będą
dokonane, bo nawet już w tej wersji wiecie jak generalnie dobrze działa ten GPT,
chociaż wiadomo, może czasami też zrobić błędy, o czym Mikołaj też zresztą
informuje w dokumentacji tego projektu.
Ale on będzie na pewno rozwijany i miejmy nadzieję też, że podobne narzędzia zaczną pojawiać się też na inne systemy.
I kolejny news, oczywiście od Piotrka. W zasadzie ileś? Nie, jeszcze nie.
Najpierw, w sumie też kilka newsów dotyczących gier, bo są aktualizacje gier, tych dużych Hearthstone, Forza i tak dalej.
Tak, jakoś tak się złożyło, że jeśli chodzi o gry, to takie duże gry dla widzących jakoś takie, przynajmniej które są dostępne dla nas, wszystkie miały, no mniej więcej w jednym czasie, tam w odstępie kilku dni, duże aktualizacje.
Zaczynamy od Hearthstone’a, o którym niedawno też było dosyć sporo, no mówiliśmy, że szykuje się nowe rozszerzenie, finałowe starcie na bezludziu, no i to rozszerzenie już się pojawiło, wcześniej można było sobie kupić paczki kart w przedsprzedaży, te paczki już, no ta przedsprzedaż niestety już się skończyła, teraz po prostu w sklepie możemy sobie pojedyncze paczki dokupywać, no natomiast już te wszystkie karty, a te karty z ponad 100 już są dla nas dostępne.
Oczywiście są nowi stronnicy, też w tym rozszerzeniu zostały dodane nowe dwa słowa kluczowe, które niektóre karty będą miały.
Pierwsze to jest wykop, no bo cała akcja rozszerzenia odgrywa się w kopalni i szukamy skarbów, no i niektóre karty nam będą pomagały.
Właśnie też z tym słowem wykop, jak znany portal, takie skarby losowe odnajdywać.
odnajdywać. Każdym razem jak zagramy kartę z takim słowem, to ten skarb będziemy dostawać coraz lepszy.
Są cztery poziomy tych skarbów. Kiedy zagramy jakąś piątą kartę, to wrócimy do pierwszego poziomu.
Mamy też nowe drugie słowo, szybki strzał. Karty, które mają to słowo, będą miały dodatkowy efekt,
jeśli zagramy je od razu w momencie, kiedy dobierzemy je do ręki, do naszej talii.
no i wtedy mają jakiś dodatkowy efekt, będą działały po prostu jeszcze lepiej.
Są też nowe, nowe stronnicy.
Jeśli gracie w Hearthstone, a mówię kart jest ponad 100, no to
warto sobie po prostu przejrzeć tą bibliotekę kart, zobaczyć co tam się zmieniło.
No i zobaczycie co tam, jakie tam nowe karty doszły.
Osobno też cały czas jest aktualizowany oczywiście mod Hearthstone Access, który
nam tą grę udostępnia.
W najnowszej wersji, oprócz tego, że jest kompatybilny z najnowszym Hearthstone’em, zostało dodane wsparcie dla masowego otwierania paczek i to jest fajne, bo kiedy kupimy sobie np. 10 paczek, no to wcześniej musieliśmy za każdym razem przeklikać się przez każdą paczkę osobną, czytać jakie karty dostaliśmy, a teraz możemy jeszcze na takim właśnie elemencie, gdzie widzimy, że jest 10 paczek z danego rozszerzenia np.
przykład w naszej bibliotece, które musimy otworzyć, naciskamy
spację no i wtedy gra nam otworzy wszystkie 10 jednocześnie i po
prostu nam poda podsumowanie jakie karty udało nam się uzyskać.
Jeśli są jakieś duplikaty no to one będą połączone, więc zamiast
przekliniwanie się przez każdą paczkę osobno po 5 kart no to po
prostu będziemy mogli sobie to zrobić dużo szybciej.
Też są poprawki błędów, no i właściwie to jest taka najważniejsza nowość, no i oczywiście wszystko kombatybilne z najnowszą wersją.
Następnie Forza. Forza też dostała dużą aktualizację. Główną nowością jest to, że została dodana nowa trasa, trasa Yas Marina.
No to jest trasa, która jest osadzona nad oceanem, więc w czasie jazdy będziemy słyszeć morze, będziemy słyszeć mewy.
Tam jest dużo takich tuneli przez które przejeżdżamy, więc nawet dźwiękowo jest tak bardzo ta trasa dosyć ciekawa, bo jest dużo właśnie pogłosów.
No dosyć trudna, ale też całkiem przyjemna. Mi się osobiście podoba.
Poza tym zostały dodane nowe misje w trybie kariery.
wcześniej mieliśmy nacisk, tam były wyścigi, które pokazują nam różnych
niemieckich producentów samochodów, a teraz jest nacisk na Włochy, więc
będziemy mogli przekonać się jak się prowadzą samochody np.
od Ferrari czy Lamborghini.
No i też są poprawki błędów, w tym w dostępności, w sytuacji, w których
narracja nam nie mówiła albo mówiła za dużo, np.
był taki błąd też, że czasami, kiedy gra zapisywała stan gry, no to ten
komunikat się zapętlał i w czasie kiedy my sobie ścigaliśmy się na przykład no to gra nam co dwie sekundy mówiła
zapisywanie zawartości proszę nie wyłączać komputera no i to było dosyć irytujące na szczęście zostało to poprawione
no i na koniec taka informacja jeszcze że jeśli gracie na niskim trybie detali co można sobie ustawić w ustawieniach
grafiki no to tej aktualizacji to też zmniejsza jakość dźwięku ja w pierwszej chwili nie wiedziałem co się dzieje bo o tym
nigdzie nie było napisane, a gra nagle zaczęła brzmieć jakby jakaś stara gra na
na przykład pierwszym PlayStation, ten dźwięk był taki zniekształcony.
Natomiast na szczęście da się to naprawić bez kupowania nowego sprzętu.
Wystarczy ten tryb detali ustawić na średni, a następnie tam pod spodem jest opcja,
gdzie możemy i tak dostosować ustawienia grafiki i tam ręcznie wszystkie słowaki
zmieniać z powrotem na najniższe ustawienia, jeśli tego potrzebujemy.
ma jakość dźwięku, na szczęście wtedy zostanie na tym, nazwijmy to, na tym poziomie, który był wcześniej.
Więc jeśli zaktualizujecie grę i nagle Wam zacznie coś dziwnie brzmieć, no to w ten sposób można się z tym problemem uporać.
I na koniec Mortal Kombat nowy, który niedawno dostał jedną dużą aktualizację i zaraz potem dostał kolejną,
która tym razem skupia się głównie na zawartości, bo rozpoczął się drugi sezon trebu inwazji,
który, przypominam, w poprzedniej aktualizacji stał się dużo bardziej dostępny,
więc jeśli czekaliście, aż to będzie bardziej grywalne, to już można spokojnie sobie w niego wchodzić.
Tam po prostu cała nowa fabuła się pojawiła, no a poza tym dla osób, które wykupiły sobie pierwszy Combat Pack,
czyli taką przepustkę, która nam będzie dawała nowe postacie.
Pojawiła się pierwsza nowa postać, która była zapowiedziana, czyli to jest Omni-Man.
On na razie jest dostępny we wczesnym dostępie dla ludzi,
którzy wykupili grę w przedsprzedaży wcześniej w wersji premium,
a w przyszłym tygodniu będzie już dostępny dla wszystkich.
No i to wszystko, co się działo akurat w świecie gier.
No i w końcu przechodzimy do tego wielkiego maratonu, czyli drobne newsy są od Piotrka, są od Pawła. To może zacznijmy od Pawła, żeby Piotrek troszeczkę sobie odpoczął, a potem w technikariach troszeczkę też pozamieniamy.
Nie ma problemu, więc ja patrzę, co tutaj ode mnie jest dzisiaj, no i wygląda na to, że tak, po pierwsze Facebook nas zaszczycił tu kilkoma nowościami, bo naprawili to, co zepsuli, czyli w iOSie już teraz, przynajmniej u mnie tak jest i też kilka osób to potwierdza, jeśli wyślemy wiadomość w czacie, to nie jest tam czytany cały czat w jakiejś losowej kolejności, tylko jest już cisza, jest już spokój, można spokojnie prowadzić konwersacje.
Co więcej, i to zgłosił nam Roberto, za co bardzo dziękujemy,
na Windowsie wersja komputerowa przekształciła wiadomości w przyciski,
dzięki czemu możemy rozwijać i zwijać takie pod menu spację na wiadomościach,
gdzie znajdują się opcje takie jak odpowiedź, zareaguj i tak dalej.
Więc tutaj w dobrą stronę też to zmierza.
No i jeszcze kwestia czatów grupowych, gdzie nadal nie wiemy, kto wysłał wiadomość. Mam nadzieję, że to zostanie naprawione.
A tymczasem Playroom ma trzy nowe gry i jedną z nich znacie. Zasady, bo jest to znany wszystkim.
Tysiąc, to znaczy wszystkim oprócz mnie, mi jakoś nie było dane grać nigdy w tysiąca i musiałem doczytywać reguły z Wikipedii.
Trochę wstyd, bo gra ponoć jest znana w Polsce, ale też w Rosji, w Ukrainie, w Serbii, więc taka bardzo słowiańska, środkowo względnie wschodnioeuropejska.
No i jest też golf, to również gra karciana i gra trójki i piątki, też chyba karciana.
Natomiast autor już napisał, że szykuje się do kolejnej wielkiej bety i nie będzie ona związana z nowymi grami, więc bardzo jestem ciekaw co to będzie.
Czyżby wreszcie mobilny playroom miał powstać? No nie chcę za bardzo tutaj oddechów wstrzymywać, ale zobaczymy.
No i EasyCast, czyli aplikacja, która jest taką aplikacją płatną, ale jednorazowo do nadawania z iPhone’a na serwerach Shoutcast, Icecast, a ostatnio też na RTMP i można nadawać wideo na żywo z iPhone’a.
Ma trochę przeorganizowany ekran ustawień, nareszcie, bo przedtem było tak, że wszystkie, powiedzmy, nie wiem, mamy bitrate, tak, mamy wszystkie opcje tego bitrate’u, każdą jedną, jako osobny element na tym samym ekranie, gdzie są te ustawienia, to nie było nijak ponagłówkowane, nijak pogrupowane, po prostu taki jeden z wielkich miszmasz różnych elementów, czyli opcja, obok tej opcji etykieta, obok różne opcje, które można wybrać w ramach tej opcji i tak dalej.
No teraz już same opcje do wyboru są przyciskami, które wyświetlają menu takie pop-upowe, no więc to jest super.
Teraz tylko jeszcze pogrupować na przykład kontrolki, które mają jakieś wartości ustawień z tymi właśnie wartościami,
bo na ten moment czytane jest na przykład, nie wiem, przycisk bitrate, ale jak się przejdzie w prawo to tam 44100 kHz na przykład,
Więc takie rzeczy można by pogrupować, można by o nich pomyśleć.
No i na koniec wiadomości, no nie za fajne, bo dwie rzeczy, które znamy, używaliśmy, testowaliśmy, były w Tyflopodcastie nieraz omawiane, znikają, czyli
Via Opta Nav, który do końca listopada jeszcze będzie do pobrania w sklepach z aplikacjami, ale od grudnia ponoć już komunikat wyskakuje powoli, że to już tak nie będzie.
projekt się zwija. Natomiast druga rzecz to jest Omegle, czyli czat z osobą przypadkowo nam dobraną, o której nie wiemy nic.
Były omawiane portale tego typu do poznawania osób w internecie. Ja jedną z takich audycji poprowadziłem.
Właśnie tam też Omegle w formie wtyczki do Mirandy oraz normalnie tradycyjnie przeglądarki był demonstrowany.
W sumie to trochę się smutno robi, bo kurczę, to było… wiele ciekawych znajomości nawiązałem w ten sposób i w ogóle tyle ile ja spędziłem czasu, ile ciekawych rozmów też przeprowadziłem dzięki Omeglowi, no to moje.
No ale niestety też już było widać pod koniec, ja chyba dwa lata temu próbowałem ostatni raz coś na Omeglu podziałać, z kimś ciekawym popisać.
że to już teraz tam typowo się zaroiło od różnych spambotów i jakichś dziwnych ludzi, no w związku z czym chyba, chyba już administracja sobie nie do końca radziła i nie do końca miała pomysł na ten portal, więc został on zamknięty.
To znaczy tam w ogóle, jeżeli chodzi o Megla, to były jakieś też kwestie prawne.
Oni dostali dość duży pozew na dość dużą kwotę i podejrzewam, że to też było związane z tym, że się ten serwis zwinął.
Tak, bardzo możliwe. Dzięki, Michale, że podałeś kontekst. To mnie jakoś umknęło.
Ja myślę, że zanim przejdziemy do kolejnych wniosów od Piotra, tym razem takich drobnych, to zrobimy sobie w tym przerwę, bo mamy telefon. Jest z nami Wojtek. Witaj.
Pytanie.
Czołem panowie jest nadzieję, że tylko panowie jesteście
że pani nie nie pominąłem.
Pytanie właśnie do Piotra moje jest skierowane Otóż
wyobraź sobie, że zaktualizowałem sobie dzisiaj
swojego maka do najnowszego mako esa tam bodajże 14 1 1.
I stała się rzecz taka dziwna mam widgety na biurku tam
pogoda, bateria i znajdź i niestety w żaden sposób nie jestem w stanie.
Ja nie widzę jakby one są tam na tym ekranie, ale VoiceOver w ogóle ich nie
widzi.
Czy oni coś w tym względzie zmienili?
Ja akurat widgetów akurat miałem sobie postawić jakoś nigdy nie postawiałem,
natomiast tego co pamiętam jest kilka sposobów w jakich możemy się między
nie poruszać.
Powinna być opcja widżety na
pokrętle, więc może sprawdzić tam.
To jest w o komand
strzałki lewo prawo tak się ustawia
pokrętło, a potem strzałki
góra dół poruszają nas po
elementach. Oczywiście też można z
gładzika.
Więc zobacz czy na
pokrętle się te widżety pojawiają.
Nie wiem czy tam wcześniej nie było.
Ale powinny być.
No.
One, one, one tam się same pojawiają
tak? Nie, nie trzeba ich w żaden
sposób dodawać do tego pokrętła.
Nie, nie, one powinny po prostu jak
jesteś na biurku tak.
Wosi da żeby przejść na biurko i tam to powinno być, pamiętam że to Alek tak pokazywał, one też no po prostu powinny być pod kursorem, jak ja ostatnio z nich korzystałem to one były, no właśnie, no ja tutaj akurat ja mam beta 14.2 tą opcję widżety na pokrętle widzę mimo to, że nie mam widżetów do danych, więc może to ci zadziała, też chyba był skrót jakiś klawiszowy,
żeby, które można sobie gdzieś dodać
do otworzenia jakiejś listy
widgetów, tylko się upewnię czy dobrze pamiętam.
Tak teraz, teraz nawet za.
Dobra, ale teraz mi coś pomocą, który nie chce działać.
Dobra, mniej więcej coś może ewentualnie tak
zobaczyć.
No ale spróbuj na pokrętla, może, może to zadziała.
A jeśli nie to może to będzie jakiś błąd.
Faktycznie są widżety.
Ale.
Ale nie działają.
No właśnie bo jakby ustawiłem się okrętem nawet nie wiem czy słyszysz na
widżety.
Ani.
Biurko pusty.
A te widżety jakby są tam widać widać się po prostu nie.
A ty je na ekranie widzisz, no
Nie wiem, czy może ktoś z uchaczy też korzysta z widgetów
Ja teraz próbuję, próbowałem coś sobie dodać
Ale też nie, teraz nie mogę znaleźć opcji jak się te widżety dodawało
Dodawało się je z tego, no wiesz
Już ci mówię jak to się robi
W centrum powiarz bromień
I tam masz widżety
Tam sobie wchodzisz i jest opcja dodawania widżetów.
A to wtedy nie dodają się tylko do ekranu centrum powiadomień na pół…
A na pulpicie się tego nie dodawało jakoś inaczej, tak?
Nie, można je sobie dodać normalnie do tego.
One mi się normalnie na biurko wstawiły.
A to może, bo ja pamiętam, że to się jakoś na pulpic z innego miejsca dodawało.
No dobra, może tutaj po prostu się źle kojarzę.
A mniej więcej coś może być nie tak, ja jeszcze to spróbuję potestować na najnowszej wersji, zobaczymy czy to jest błąd, który został rozwiązany, jak nie no to po prostu będzie trzeba go do Apple’a zgłosić.
Może ktoś jeszcze ze słuchaczy też korzysta z widgetów, to się może ktoś wypowie.
Spoko, okej, no to ode mnie takie krótkie pytanko, dzięki.
Dzięki Wojtku za telefon, pozdrawiamy cię również, do usłyszenia.
To może skoro rozmawialiśmy o rzeczach, których niestety nie będzie, to może weźmy te dołujące tematy na początek, żeby skończyć na czymś weselszym, bo niestety to nie jedyna rzecz, która zniknie, bo aplikacja Microsoft To Do niestety też się będzie zwijać, a to jest bardzo fajna aplikacja, nie wiem czy o niej był Tyflo Podcast, chyba był, coś kojarzę.
Był, był.
Był. No to jest bardzo fajna aplikacja do, no właśnie, wystawiania przypomnień, które też można je udostępniać innym osobom, gdzieś spółdzielić.
Ona na wszystkich platformach, i to dosłownie było wszędzie, na iPhone’ie, na Androidzie, na Mac’u, na Windowsie, w przeglądarce, to były interfejsy natywne, bardzo fajnie dostępne, dużo skrótów klawiszowych.
No, tego niestety nie będzie, bo okazuje się, że Microsoft miał kilka takich narzędzi, no a dzisiaj mamy taką konferencję dla, głównie dla, dla firm.
Oczywiście duży nacisk na AI, m.in. też się zmienia nazwa tych wszystkich usług
AI Microsoftu, tak jak wcześniej mieliśmy Bing, Chat i to wszystko inne.
No teraz wszędzie to po prostu będzie Copilot.
Będzie Copilot Microsoftu, tak przy okazji będzie od nowa strona na to
po prostu copilot.microsoft.com.
No no właśnie wszędzie, czy to w Bingu, czy to w Windowsie 11, czy to gdzieś indziej,
to wszędzie po prostu, czy w Office’ie to będzie się wszystko nazywało Copilot.
No, ale też w okazji firma ogłosiła, że łączy ze sobą wszystkie narzędzia do
tworzenia takich list rzeczy do zrobienia przypomnień i tak dalej.
To się stanie wiosną przyszłego roku.
Właśnie był Microsoft To Do, był Microsoft Planner i było coś jeszcze.
No i to wszystko teraz zostanie włączone w jedną aplikację Microsoft Planner.
Niestety to się nie zapowiada tak fajnie jak wcześniej.
No wiadomo, tam będzie też AI, to się będzie jakoś też zintegrowało z innymi usługami, więc to będzie nam różne rzeczy proponować.
Natomiast ta aplikacja będzie na początku dostępna tylko jako moduł w Teamsach na początek, więc jeśli ktoś z Teamsów nie korzystał albo nie chce, no to niestety to będzie jedyne miejsce, gdzie to jakkolwiek będzie dostępne.
No ale później też będzie dostępne, ale tutaj jest mowa tylko o aplikacji webowej.
Czy jakieś aplikacje mobilne kiedyś na to się pojawią, czy nie?
Czy to po prostu będzie coś, no co tutaj nacisk jest tylko na
zastosowania biznesowe, firmowe?
Czy to faktycznie będzie to bardziej nacisk na, no właśnie na teamsy?
Nie wiem, natomiast niestety, jeśli chodzi o tą fajną aplikację Toodoo,
no to ona niestety zniknie w przyszłym roku.
Dobra, no ale teraz coś weselszego.
czytnik ekranu TDSR, czyli to jest czytnik głównie używany na Macu do czytania konsoli
Terminala, no bo VoiceOver z Terminalem to radzi sobie niestety średnio, są momenty,
kiedy po prostu z nimi działa źle, no i dlatego powstał alternatywny czytnik
ekranu, który niedawno został zaktualizowany dzięki znowu Mikołajowi
Hołyszowi, bo na Macu są dwa systemy przez które aplikacje mogą korzystać z
syntezatorów mowy.
Jest taki starszy system, który był od początku i nowszy, który kilka lat temu
został przeportowany z iPhona.
To jest identyczne API, więc programiści mają w tej zadanie ułatwione.
No i ten starszy system, z którego między innymi właśnie TRS-R wykorzystuje, jest
pomalutku wyłączany na Macu.
On teraz jak użyje się jakiejś aplikacji w macOS-ie 14, która z tego systemu korzysta, to system wysyła ostrzeżenia, że ten system za jakiś czas może zostać usunięty.
No i też ma błędy, na przykład ustawienie prędkości w TDSRze nie chciało działać.
No i dlatego m.in. Mikołaj postanowił po prostu to zmienić, przepisał ten komponent odpowiedzialny za generowanie mowy, żeby korzystał z tego nowego API.
No i co za tym idzie, działa teraz lepiej, bardziej responsywnie.
Ustawienie prędkości się troszeczkę zmieniło, bo teraz to jest skala od zera do stu,
a wcześniej to były tam inne liczby, to chyba się w słowach na minutę podawało.
Teraz po prostu mamy od zera do stu procent.
No i dodatkowo też możemy sobie z menu ustawień, naciskając V, wybrać głos.
Domyślnie to będzie głos systemowy, ale możemy sobie też zmienić na inny w
na razie poprzez wpisywanie liczby głosów, więc to takie bardzo mało intuicyjne,
natomiast autor TDSera, Tyler Spivey, obiecuje, że w przyszłych wersjach będzie po prostu menu
i będziemy mogli sobie ściałkami naszą listę głosów przeglądać.
A TDSera używać warto, no bo jeżeli, o ile voiceover w graficznym interfejsie
to naprawdę na Macu sobie radzi całkiem fajnie, o tyle w terminalu no to…
Źle, źle i po prostu jeżeli potrzebujecie, jeżeli korzystacie na co dzień z Terminala, no to TDSR to jest coś co trzeba sobie zainstalować, żeby mieć komfort korzystania z tego narzędzia.
Tak, jest otwarty kod na GitHubie, zresztą tam się go ściąga, no to jest takie narzędzie dosyć zaawansowane, ale jak ktoś z Terminala korzysta, no to myślę, że nie powinien mieć problemu z jego instalacją i konfiguracją.
Na koniec kilka informacji związanych jeszcze z Microsoftem, więc właśnie
wracamy gdzieś do klimatów około Microsoftowych.
Najpierw Be My Eyes, bo Be My Eyes od jakiegoś czasu, akurat nie w Polsce, ale dało
się też tego korzystać pewnie przez jakieś VPN, oferuje taką usługę, że firmy
mogą się rejestrować jako partnerzy, no bo nie zapominajmy o tym, że Be My Eyes
Zaczął od takiej aplikacji, w której możemy połączyć się z osobami widzącymi, jeśli potrzebujemy pomocy w jakiejś kwestii.
No i też różne firmy mogły też dodać się do takiej osobnej książki adresowej, jeśli mamy problem z konkretnym produktem jakiejś konkretnej firmy,
to możemy pośrednio do właśnie pracownika takiej firmy się połączyć.
I tam między innymi był Microsoft i można było się połączyć z tak zwanym Disability Answer Desk.
I to była bardzo fajna, bardzo fajna sprawa, bo tam pracują ludzie, którzy są właśnie wyszkoleni pod kątem dostępności wszystkich programów Microsoftu, więc mogą nam pomóc zarówno w takich kwestiach jak no jak coś zrobić na Windowsie, w Outlooku, w Teamsach, w jakiejś aplikacji z danym czytnikiem ekranu, bo oni też mają dostęp do na przykład listy skrótów klawiszowych we wszystkich programach, no a też mogą i wiem, że ludzie też prosili ich o pomoc w takich rzeczach, mogą nam na przykład pomóc w sytuacji, kiedy nie wiem,
komputer nam się nie włącza, albo musimy coś w biosie przestawić, bo
chcemy coś zainstalować, albo nam dźwięk przestał działać.
Wiem, że ludzie dzwonili w takich sprawach do Microsoftu
i przez to, że tam ludzie znają się trochę na komputerach, no to bez większych
problemów mogli nam w tym pomóc. Niestety to się troszkę zmienia,
bo jeśli teraz z poziomu aplikacji Be My Eyes wybierzemy, że chcemy zadzwonić do
tego Disability Answer Desk Microsoftu, no to po prostu zostaniemy połączeni z BeMyAI w wersji Microsoftu po prostu, więc no będziemy rozmawiać z chatbotem, z chatem GPT, który tam został trochę potrenowany na właśnie różnych pewnie skrótach w aplikacjach Microsoftowych, no natomiast no już nie rozmawiamy, z tego co wiem, z żywym człowiekiem, tam już nie ma opcji, żeby tak do kogoś z Microsoftu się połączyć, no i po prostu możemy mu zadawać jakieś pytania, natomiast
Chodź tylko po angielsku.
Wiesz co, nie wiem, no jak to jest chat GPT to teoretycznie może dałoby się po polsku zapytać.
Natomiast czy to nam wtedy jest w stanie pomóc w tych wszystkich sprawach, w których mógłby nam pomóc właśnie człowiek,
no nie wiem, żeby coś z ekranu komputera przeczytać, bo nie wiem czy tam można zdjęcia wrzucać.
No to niestety wątpię.
I na koniec informacja dla osób, które korzystają z Windowsa 11, w którym to zmieniło się wiele budowanych aplikacji, między innymi notatnik, no bo ostatnio o dziwo właśnie notatnik WordPad jest usuwany, no to notatnik jest aktualizowany dosyć dużo, ta aplikacja została od zera przepisana, no i nie wszystkim ten nowy notatnik się podoba, on faktycznie w niektórych kwestiach może działać trochę gorzej,
gorzej szczytnikami ekranu, więc są osoby, które chciałyby wrócić do tego starego,
który okazuje się jeszcze w systemie jest zagnieżdżony i można do niego wrócić
poprzez właśnie usunięcie po prostu tego nowego nocetnika.
Natomiast nie jest to zrobić tak łatwo.
Nie możemy po prostu sobie znaleźć go w menu start czy w programach i funkcjach,
czy jak to się po prostu wystawia w aplikacji i usunąć.
Musimy posilić się wierszem poleceń, posilić się PowerShellem,
do którego możemy wejść w menu start, no i wystarczy wpisać do niego dwa polecenia.
Znajdziecie link do tych poleceń w komentarzu, są takie dosyć długie polecenia,
no ale właśnie znajdziecie do nich link w komentarzu.
Jeśli chcecie wrócić do starego notatnika, no to wystarczy te dwa polecenia wkleić do PowerShell’a,
zatwierdzić wntarem, no i wtedy ten nowy notatnik powinien zostać usunięty i wrócimy do notatnika starego.
Na jaki czas? Trudno mi powiedzieć, nie wiem czy jakaś aktualizacja tego automatycznie nie przywróci,
czy Microsoft za jakiś czas po prostu tej możliwości nie usunie, trudno mi powiedzieć,
natomiast pewnie na jakiś czas ten trick powinien po prostu zadziałać.
Na Whatsappie napisał Wojtek, że rozwiązaniem jego problemu z widgetami był po prostu stary dobry restart komputera,
więc fajnie, że udało ci się problem rozwiązać, a tymczasem odbieramy kolejny telefon. Kto jest z nami? Halo?
Dobry wieczór, z tej strony Milena.
Dobry wieczór, słuchamy.
Ja chciałam zapytać, bo z tego linku, co był w którymś tam tefloprzeglądzie, jak chodzi o ten kanał teflopodcastu,
No to tam zaakceptowałam, czy jak tam zwał, ale jest taka kwestia, że
no nie ma jako taką, w sensie jak przychodzi, jak jest nowy post
na temat danych podcastów w danym tygodniu, no to nie pojawia się tak w WhatsAppie,
jak na przykład są, no jak na przykład ma się czat i przychodzi powiadomienie, że wiadomość przyszła.
Bo musisz włączyć sobie powiadomienie. Tak, w kanałach to jest tak, że te powiadomienia, domyślnie one są wyłączone i żeby to zadziałało, to trzeba wejść w ten konkretny kanał i te powiadomienia włączyć. Ja też rzeczywiście o tym zapomniałem.
Znaczy tam jest takie coś, wycisz, tam jest takie coś, wycisz, przełącznik wygaszony, włączone to było i ja to wyłączyłam tam wcześniej, ale po jakimś czasie jakby to się z powrotem włączyło.
A no to być może Whatsapp coś tu, coś tu kombinuje z jakiejś wersji na wersję. Nie wiem, ja na przykład jeden kanał sobie zasubskrybowałem i u mnie on cały czas wysyła te powiadomienia, więc u mnie się to nie zmieniło.
Ale fakt faktem, rzeczywiście w kanałach domyślnie powiadomienia są wyciszone.
No to zobaczymy jak będzie w przyszłym tygodniu, jak będzie informacja o tych dwóch podcastach, czy faktycznie te powiadomienia przyjdzie.
Bo póki co, jak zerkam sobie do tego kanału, no to faktycznie te powiadomienia, znaczy te wyciszenie jest jakby wyłączone.
Więc powiadomienia powinno, że tak powiem, się pojawić. Mam nadzieję przynajmniej.
No to ciekawe, jak to będzie wyglądało, zresztą tu muszę powiedzieć, że interfejs Whatsappa do wysyłania tych powiadomień, na przykład ze strony internetowej, z web whatsapp.com jest jakiś w ogóle dziwny, nie wiem czy on tam tak na dobrą sprawę nawet jest, bo jakoś go nie mogę odnaleźć, więc na razie wysyłam te powiadomienia po prostu z aplikacji, z aplikacji WA Biznes,
Bo z takiej właśnie korzystam do podpięcia tego naszego tyflopodcastowego numeru telefonu i tego kanału.
Natomiast, no, fajnie byłoby gdyby to jednak jakoś troszeczkę lepiej tutaj to wszystko działało.
No ale może z czasem tego się doczekamy.
Mnie w ogóle zdziwiło, że właśnie jakby ten przełącznik, tak jakby był wygaszony.
No bo to mówisz, że jest wygaszone, ale…
No to jest może po prostu kwestia…
Tak, to jest może kwestia oznaczenia odpowiedniego
i tutaj…
Ja nie pamiętam, jak to wyglądało u mnie,
ale to kilka wersji Whatsappa temu
bawiłem się tymi
powiadomieniami i powiem szczerze,
nie zaglądałem tam w ogóle
od tego czasu.
Rozumiem. No dobrze,
to będę sprawdzać w takim razie, czy
w przyszłym tygodniu te powiadomienia…
Bo tak się dzieje, ja mówię, nie ma żadnych powiadomień
odnośnie podcastów, ja wchodzę w ten właśnie ten dany kanał a tu jest, że jest nowa wiadomość, no i mówię, o kurde, to ciekawe.
No dobrze, to ja tylko właśnie tyle, bo właśnie tak zastanawiałam się czemu tak się to dzieje, a to faktycznie wącza się gdzieś tam samemu i powinno działać.
No zobaczymy, będę jak coś informować, będę obserwować właśnie jak to wygląda w przyszłym tygodniu, czy faktycznie to powiadomienie się pojawi czy nie.
OK, to dzięki w takim razie za informację i przy okazji tu rozjaśniłaś też kwestie dla naszych pozostałych słuchaczy, którzy być może mieli ten sam problem.
No być może.
Tak jest. Dzięki, do usłyszenia.
Do usłyszenia.
I mamy jeszcze jedną wiadomość, tym razem wiadomość głosową na Whatsappie, tu Rafał wysłał nam głosówkę, posłuchajmy co ma do powiedzenia nasz słuchacz.
Nagrywanie bez przytrzymywania, wyślij przycisk.
Po drugie to nie Rafał. Rozmawiałam z wami o klawiaturze jednorycznej tydzień temu, tak, o tydzień temu i chciałbym powiedzieć, może macie rację o naszej, że właśnie nie działa ta klawiatura jednoryczna,
Znaczy nie tam wejścia braila, tylko w klawiaturze standardowej, ale powiem Wam, że no szkoda, to jest jedna sprawa, a tak w ogóle u mnie tak się zachowuje, że po prostu te litery są weszle, przecież są mniejsze, że po prostu można przygnąć je jednym palcem,
Szczególnie tak u mnie się zachowuje.
Co do Braila, jak by mógł działać?
I czemu szkoda, że tak nie działa?
Jak to wyrażamy, jak to by działało?
Po prostu by jedna kolumna, na przykład już ma lewa ręka,
jeden oczy, odpowiadałaby na dwie ręce.
W ten sposób, że pierwsze nadciśnięcie wciskałoby punkty 1, 2, 3, a ponowne nadciśnięcie tych punktów odpowiadało 4, 5, 6.
Czyli na przykład literka C naciskamy wykonnie C, a na przykład literka D naciskamy pierwszy punkt, ponownie pierwszy, drugi.
Więc no, mnie nie na przykład by to przyspieszyło, pogodne by było pisanie i tak dalej.
Dlatego uważam, że to szkoda.
Tak na tatnikach maryluckich mam rozwojowane tą pracę jednoletnią.
Dlatego myślałem, że w Brajlu tutaj też tak będzie.
Fakt, że fokus linijka brajlowska inaczej tu ma rozwiązane, ale też ma rozwiązane.
To co, nie?
Spodobał mi się Brajlus.
jest z nami Bartek, witamy Cię.
No witajcie drodzy prowadzący.
Ja krótko do Was, bo przed chwilą mówiliście o notatniku
w Windowsie 11 i właśnie przypomniała mi się jedna
dość dla mnie w ogóle dziwna rzecz, bo w niedzielę chciałem skorzystać
z notatnika i utworzyć sobie nową czystą wiadomość
i no wiadomo, wykonałem standardową procedurę,
Wszedłem w menu startu, wyszukałem notatnik, włączyłem i dziwna sprawa, otworzyła mi się ostatnio otwierana wiadomość i sprawdziłem przed chwilą, czy to był tylko jednorazowy problem, ale się okazało, że jest niestety cały czas tak, jak było właśnie w niedzielę i wiecie z czym to może być w ogóle związane?
To znaczy, ale, bo ja tak trochę nie zrozumiałem problemu. Otworzyłeś notatnik i…
I zamiast czystego dokumentu wyświetlił mi ostatnio otwierany plik z notatnika. Może to jakaś nowość.
Czyli on się zachowuje tak, a to ja tego też doświadczyłem, on się zachowuje w ten sposób jak notepad plus plus trochę.
to teraz wystarczy tylko wcisnąć Ctrl-N.
No właśnie jak nacisnąłem Ctrl-N, to ta wiadomość de facto utworzyła się na nowo,
tylko że jak się wciśnie Alt-F4, to on wtedy całkowicie już tak notatnik chyba zamyka, tak?
To znaczy ta wiadomość, ona się nie powinna utworzyć na nowo, powinieneś wtedy właśnie dostać pusty dokument.
Tak, pusty dokument się pojawił, tylko że po wciśnięciu Alt-F4,
jeżeli w tym nowym dokumencie żadnych
modyfikacji nie wprowadzimy i naciśniemy Alt F4
to nam całkowicie zamknie się notatnik.
Bo czy przypadkiem teraz w tym nowym notatniku
nie jest tak, że Control Tabem się przełączasz pomiędzy plikami?
Wiecie,
bo jeżeli chodzi o notatnik to tylko tak na szybko sobie,
że tak powiem, żeby coś nanotować to korzystam.
Jak dobrze pamiętam, ja na Windowsie 11
Oczywiście bardzo okazjonalnie działam, ale wydaje mi się, że właśnie to zachowanie to jest efektem tych nowych różnych usprawnień w tym edytorze i w tym momencie w notatniku można otworzyć kilka dokumentów tekstowych w zakładkach i właśnie on też sobie zapamiętuje to, co my tam otwieramy i co my tam tworzymy.
Czyli to jest takie zachowanie zbliżone do tego, co nam właśnie Notepad Plus Plus oferuje.
Czyli można powiedzieć, że to przemieszczanie się między notatkami, to tak jak przemieszczanie się między otwartymi kartami i przeglądami.
Tak, tak, tak.
Okej, czyli rzeczywiście jeszcze wtedy muszę to sprawdzić, o czym Michale mówiłeś, czy jak rzeczywiście otworzymy ten notatnik z poziomu, tak jak standardowo to się otwiera, czyli przez menu Start.
i później zrobimy Ctrl N, czyli nowa wiadomość i coś napiszemy i chociaż spróbuję nacisnąć Alt F4 i wtedy zobaczyć czy on rzeczywiście się mnie zapyta, czy chce jakieś zmiany wprowadzić.
No to wtedy powinien ewentualnie zapytać, natomiast pod Ctrl Tabem powinieneś mieć te pozostałe pliki, które by tam się utworzyły czy były otwarte.
Ok, to będzie wtedy na tyle, bo właśnie ta ciekawostka mnie tutaj zastanawiała, a skoro o tym mówiliście, to postanowiłem, że tak powiem poradzi się z tym.
Tak, Microsoft zmienia w tym notatniku rzeczywiście ostatnimi czasy troszkę. Ja, mając ostatnią okazję kilka tygodni temu pracy na Windowsie 11 aktualnym,
Muszę powiedzieć, że nawet całkiem na plus w tym notepadzie się dzieje.
Tak.
Bo na przykład to, co mi się bardzo podoba w notatniku, to chociażby to,
że zapamiętuje ostatnio otwarte pliki i nie trzeba, no w zasadzie nie trzeba
się martwić o to, że nie trzeba zapisać plik.
No to jest właśnie to, co Bartek mówił.
A ciekawe, jak by się zachował notatnik, oczywiście zakładając, że to jest
czysto hipotetyczna, że otwieramy plik w notatniku, zamykamy notatnik i za chwilę ten plik usuwamy i po chwili otwieramy notatnik ponownie.
Pewnie wtedy po prostu otworzyłby puste dokumenty, no bo on pewnie nie…
No to jedyna możliwość tak jakby zostaje.
Tak, no on pewnie nie robi jakiegoś, jakiejś kopii tego dokumentu przepuszczam, chyba że jest jakiś plik niezapisany bez tu…
Gdzieś go wczytuje z dysku i tyle, on tam nie robi jakichś cudów.
Natomiast ja tak przy okazji to chcę też przestrzec przed tym, żeby w ten sposób traktować sobie
czy notatnik, czy notpada plus plus jako takie narzędzie, które aaa, zawsze tam nam zapisze te pliki
i to nie trzeba zapisywać i można tam mieć otwartych, nie wiem, bez tytułu 1, bez tytułu 99.
Słuchajcie, ja tak kiedyś przez dłuższy czas robiłem, do momentu aż z jakiegoś powodu system mi nie padł w taki dziwny sposób, on oczywiście potem się podniósł, natomiast po restarcie, takim dość nagłym, natomiast no już niestety te wszystkie moje notatki z Notpada Plus Plus akurat to były wtedy, które miałem pootwierane, na całe szczęście nie były to jakieś bardzo istotne rzeczy, ale tam kilka takich w miarę ważnych, fajnych rzeczy sobie ponotowałem
i też ich nie zapisywałem i, bo przyzwyczajony do tego, że one zawsze są ze mną po otwarciu Notepada Plus Plus,
no to po prostu niestety, ale okazało się, że one zniknęły, te wszystkie pliki.
Także z tym naprawdę trzeba bardzo ostrożnie, bo się można zdziwić.
Okej, to jeszcze dopytam tylko na sam koniec a propos tych przemieszczania się między otwartymi notatkami.
No to skoro następna jakby otwarta notatka to jest CTRL TAB to poprzednio by był wtedy CTRL SHIFT TAB.
Zgadza się.
No to mówię, to można porównać do przemieszczania się między otwartymi kartami w przeglądarkach.
Okej, dobra. Dzięki serdeczne za tą informację.
Wiecie, ja zaraz to przetestuję o czym tutaj mówiliśmy i wam już napiszę we wiadomości.
Super, dzięki Bartku za telefon. Dobrej nocy.
Dzięki serdeczne, trzymajcie się, pozdrawiam.
również. Pozdrawiamy, pa.
Ja jeszcze może szybko wskoczę z jednym sprostowaniem, które w międzyczasie mi
wpadło odnośnie tego Microsoftu w Be My Eyes.
Okazuje się na szczęście, że ten chatbot został dodany dodatkowo.
Tam teraz są dwa przyciski i tak cały czas jeszcze możemy zadzwonić do człowieka,
ale może jak po prostu chcemy zadać jakieś jedno proste pytanie, a może właśnie
spróbować zadać pytanie w innym języku, to jeszcze mamy po prostu dodatkowo
takiego chatbota wytrenowanego na Microsoftie.
No co, przechodzimy w takim razie do technikaliów zdaje się.
I tu mamy pierwszy news od Pawła na temat API.
No bo w sumie API to jest coś takiego, co jak większość usłyszy API,
to o Jezu, to jest dla programistów, na pewno nie dla mnie,
to się tego nie tykam.
Okazuje się, że nie zawsze. Tylko czy Paweł jest? Chyba Pawła?
Chyba Pawła nie ma w tym momencie, to w takim razie skoro… O, Pawle, jesteś?
Nie, to chyba ja.
No to mamy jakiś zdaje się techniczny, mały problem.
Ja jestem. Już coś chyba się przycięło, ale już chyba jestem.
A jesteś, jesteś, super.
Chyba że nie możemy działać w sprawie, tak? API, jak rozumiem, jest teraz naszym tematem, czyż nie?
To ja poproszę może prawo do dzielenia ekranu i w międzyczasie jak tu Michale będziesz mi go udzielał, to ja troszkę opowiem w czym rzecz, bo chciałem się wam pochwalić, zrobiłem sobie w moim pierwszym życiu skrót Apple i to nie byle jakiś skrót, tylko skrót, który wykorzystuje API zewnętrznego serwisu i czyta sobie dane w JSON-ie i to proszę państwa działa.
Ja programistą żadnym nie jestem. Pierwszy raz w życiu takie dane na screen reader słyszałem i naprawdę jest to, okazuje się, proste.
Teraz tak powiedziałem, bardzo upraszczając temat, bo proste to jest samo założenie tej struktury JSON.
Natomiast w praktyce takie rozbudowane już dane to mogą być pozagnieżdżane.
te słowniki tak zwane, czyli te listy, na których klucze są dopasowane do wartości,
a czym są klucze, a czym wartości, to pewnie się już domyślacie,
a jeśli nie, to za chwilę wyjaśnię.
Już, Paweł, możesz udostępniać, jeżeli chcesz.
O, dziękuję. No to tutaj są tworzone przeróżne słowniki,
no i te słowniki mogą być zagnieżdżone wewnątrz innych słowników,
więc żeby się nie zniechęcić, to warto zacząć w ogóle,
żeby zapoznać się z tym, jak się z takimi danymi pracuje
i jak można to fajnie sobie wykorzystać do czegoś takiego codziennego,
zacząć od czegoś prostszego i takim czymś prostszym właśnie jest API radio
browzera. Ja już o tym API radio browzera to mówię od tygodni wielu, z różnych
powodów. No ale właśnie, bo mówimy o tym API, że to ma API, tam to ma app Twitter,
przestał mieć API, Reddit miał ograniczone to API, radio browser oferuje API,
więc może powstać dużo aplikacji.
Czym to API jest?
Myślę, że na przykładzie takiego radio browzera my sobie możemy to fajnie
No, zrobić, bo ja pokażę wam w ogóle, co teraz potrafi mój iPhone pod tym, jak mu zrobiłem skrót.
O, tutaj jakieś…
Tutaj jakieś historie się podziały.
Mój iPhone potrafi aktualnie robić różne tam, prawda, jakieś API rzeczy przez wejście do browsera za pomocą skrótu Siri.
Ja do Siri piszę, więc do mojej Siri napiszę.
Surprise me FM. To jest nazwa mojego skrótu.
I teraz ja go wywołam i zobaczmy co się stanie.
To się po angielsku stanie, więc posłuchajmy.
No to słyszeliśmy, czyli
Tym razem wylosowałeś
stację w języku portugalskim
o nazwie
Zresztą zaraz możemy sobie ten tekst posłuchać
normalnie i z plikiem, bo oprócz tego, że Siri tu wszystko ładnie przeczytała, to się nam wyświetliło okienko.
No, Radiola z Brazylii, słowem tego Radiola to też uśmiecham się tutaj do koleżanek i kolegów z Tynieckiej, nasz
radiowęzeł szkolny tak się nazywał, ale to nie to radio.
Nie, nie, nie. Myślę, że radio węzeł z Krakowa nie poleciał nagle do Brazylii.
A w tagach mamy pop i rock. I mamy dwa przyciski.
Cancel i OK.
Gdybym zrobił cancel, no to nie mam tematu, anuluję.
I nie ma jakby się czym przejmować, nic się nie stało.
Naciskam OK.
I…
Otwiera mi się, zdaje się.
Tak, bardzo ładnie pani Kate Bush tutaj się odzywa.
Natomiast otwiera się Safari z linkiem do streamu i zaczyna mi grać to radio, które się
wylosowało. No i już pewnie zauważyliście, że zrobiłem sobie skrót, który zresztą będzie w
komentarzu podany, link do niego, do gotowego skrótu i jest to skrót, który losuje nam
stacje z radio browsera, czyli dokładnie ten trik, o którym Wam mówiłem tydzień
temu a propos wybieraka shoutcastowego i jak sobie odtworzyć coś takiego w radio
browserze. No i jest to bardzo proste, bo ja tutaj uaktywnie sobie udostępnianie.
Rozpoczęto udostępnianie dźwięku i już chyba mnie słychać jak chodzi o dźwięk.
No więc działa to w sposób bardzo prosty, bo no czego my potrzebujemy tak to
zasadniczo. Chcemy osiągnąć co? Chcemy osiągnąć to, żeby nasz skrót na
iPhonie losował nam stację z całego katalogu radio browzera i wyświetlał,
wyświetlił nam okienku z informacjami o niej, takimi podstawowymi, typu jak ta
stacja się nazywa, z jakiego jest kraju, no ja sobie wybrałem, możemy sobie wybrać
inne, w innej kolejności i tak dalej i żeby zaoferowano dwa przyciski, cancel,
czyli anuluj na wypadek, gdyby nam się stacja nie spodobała i chcielibyśmy wybrać kolejną i stacja i przycisk OK,
który nam streama tej stacji otworzy w Safari i pozwoli go odtworzyć.
No więc, po pierwsze, czego potrzebujemy? Trochę jak w gotowaniu, jakieś składniki.
Naszym pierwszym składnikiem będzie, skąd my weźmiemy w ogóle te dane, których będziemy potrzebować o tych stacjach?
jak spowodować to losowanie i skąd wziąć te konkretne dane.
No i tutaj właśnie wchodzi do akcji API,
czyli metoda nasza komunikacji z radio browzerem,
przez którą my powiemy radio browzerowi daj mi dane.
I te dane w konkretnych ilościach i w konkretnej kolejności
i w konkretnym formacie my wywołamy sobie,
bo tak naprawdę takie wysyłanie zapytań do API,
takie żądania API czy wywołania API,
to może z klientów Twittera pamiętacie,
że tam można było ograniczoną ilość wywołania API na godzinę
i tak dalej, takie jedno wywołanie API
to jest trochę tak, jakby ktoś otworł w przeglądarce
adres strony internetowej, tylko na przykład
w takich już zaawansowanych, rozbudowanych programach
no to się tych stronek otwiera kilka w ciągu jednego procesu
albo ileś tam na minutę, albo ileś ten,
My chcemy wykonać jedno proste wywołanie, czyli otworzymy sobie jedną stronę po HTTP.
I my rzeczywiście ją sobie teraz otworzymy.
Udostępniasz dźwięk.
Audycja 209. Nawigacja, pasek narzędzi. Lista rozwijana, zwinięta.
I otworzymy sobie właśnie takie wywołanie API sobie zrobimy w naszym Firefoxie.
Jak to się robi?
No wpiszę sobie z ręki adres dostępowy do API, tam gdzie to API stoi, czyli DE1N.
rozwinięty na uniwersytet, zaznaczenie usunięte.
de1.api.radiomyślnikbrowser.info
ukośnik
No i tu możemy wybierać sobie różne formaty danych.
Radiobrowser obsługuje M3u i PLS jako playlisty.
No to, to co podawałem tydzień temu
można wykorzystać w jakimś fubarze.
że ponoć w Winampie to nie działa najlepiej, ale w jakimś innym odtwarzaczu na telefonie też to działa.
Ale jest też XML i jest też JSON, czyli takie typowe składnie danych zwracanych przez różne API,
które są, jak to się mówi, czytalne przez maszyny.
Może jak się za chwilkę okaże, to przez ludzi również są zrozumiałe.
I one są ustandaryzowane tak, że większość, bardzo łatwo jest oprogramować sobie to tak, żeby komputer zrozumiał co z tymi danymi dalej można zrobić.
Więc my teraz wpiszemy sobie format, no nie m3u, nie pls, tylko json, bo wam pokażę jak taki json typowy wygląda.
i teraz musimy określać mu jakieś parametry, bo jakbym to teraz tak puścił, to on by mi wyświetlił 40 tysięcy stacji, wszystko co jest w katalogu, nawet 80 tysięcy z wszystkimi uszkodzonymi, które tam się ostały, ale my tego nie chcemy.
My chcemy sobie wylosować
i to też jakoś niedużo tych stacji,
tylko jedna nam wystarczy,
więc parametry robimy dopisując
pytajnik.
No i teraz się zacznie.
Limit
równa się 1.
Bo chcemy ograniczyć,
żeby tylko jedna stacja nam się pokazała.
Bo do wylosowania takiego, żeby
posłuchać na iPhonie, to wystarczy nam
tak naprawdę jedna.
No ale my jeszcze chcemy,
żeby nam w kolejności losowej, żeby on nie wyświetlił nam stacji najpopularniejszej, najnowszej, pierwszej w ogóle z listy stacji w kolejności alfabetycznej.
My chcemy stację wylosowaną, czyli dopisujemy jeszcze drugi parametr, jeszcze drugi, czyli end, znaczek end i order, czyli kolejność, równa się random, czyli losowo.
No to przejrzyjmy, czy na pewno dobrze wpisałem tutaj ten adresik.
de1.api.la.dio-blowser.info
No, adres się zgadza. de1.api.radio-browser.info
slash o slash json
Po slashu daje się format. Znaczy tak ma to ustalone Radio Browser.
jak wygląda to w innej usłudze, gdzie sami chcielibyście skorzystać,
no to już sobie zobaczcie sami w dokumentacji.
Tak, bo każde API przynajmniej powinno mieć dokumentację.
Powinno mieć i warto się z nią zapoznać.
A tutaj mamy format JSON.
Slash S-T-A-T-I-O-N-S
I stations jest ładnie.
Pytajnik L-I-M-I-T równe jeden.
I parametry są zadane, limit to jedna stacja.
I order random, czyli powinno nam wylosować losową stację z całego katalogu.
Czy tak się stanie? Zobaczmy. Enter.
Zawadowała nam się strona takiego podglądu tego JSON-a.
My sobie po nim może przejdźmy.
Mamy też nieprzetworzone dane, bo JSON to już są przetworzone, takie uporządkowane, ładnie,
że my za chwileczkę zrozumiemy z nich wszystko.
Zakładka na główki.
Są też na główki.
Przycisk zapisz.
Możemy zapisać ten plik JSON,
gdybyśmy go chcieli na komputerze jakoś sobie przestudiować.
Przycisk kopiuj.
Oczywiście możemy wykopiować te dane również.
Przycisk zwiń wszystkie.
Przycisk rozwiń wszystkie.
Możemy zwijać lub rozwijać gałęzie,
dlatego jest to drzewo,
że w ramach jednej wartości można osadzić tych wartości więcej.
Przykładowo byłoby co tam…
To jest to zagnieżdżanie słowników, o którym mówiłem.
Myśmy, że naszymi danymi, które nam w JSON-ie zwróci API są nasze dane osobowe.
No to byłoby imię, Paweł, nazwisko, masarczyk, adres.
I w ramach adresu ulica taka, kod pocztowy taki, miasto takie, ale to już jest na poziomie niższym,
gdzieś tam rozwinięte w ramach tego zagnieżdżenia. No takie drzewko danych.
Możemy też filtrować te dane i mamy drzewo, więc ja już się przełączam do trybu formularzy NVIDIA i zobaczmy jakie tu piękne dane wyczytaliśmy sobie, jakie nam dane zwróciło API.
To, co jest po lewej, czyli to, co jest do dwukropka, to jest klucz.
Czyli na przykład w tym moim przykładzie z danymi osobowymi kluczem byłoby to imię,
a Paweł byłoby wartością dla klucza imię.
No więc przejrzyjmy sobie, jakie to klucze i wartości nam wylosowało.
Poziom 1-0. Rozwinięte 1 z 1.
Zero. Zawsze w informatyce wyliczanie różnych elementów zaczyna się od zera, nie od jedynki.
No więc nasz pierwszy element i ostatni wygląda tak.
Tak. Poziom 2 Handel. 0E149FF-E190-11E9-A8A-502543B04C81-1 z 36.
Pierwszy z 36 elementów to jest Change UID, czyli identyfikator unikalny chyba zmiany,
czyli przy założeniu, że w tej stacji coś się zmieniło, ktoś coś modyfikował albo ją dodał,
to zostało wygenerowanie ID unikatowe dla tej zmiany konkretnej.
I to jest pewnie do jakiegoś wersjonowania i podawania historii zmian.
To nie jest nam do niczego potrzebne.
Station WID 0E149D6-S190-11E9-A8A-502543B04C801236 poziom 2.
Mamy też Station UID, czyli unikatowe ID stacji.
To się może kiedyś do czegoś przydać,
ale dziś do naszego przykładu w ogóle nam się to nie przyda.
Tu mamy też IT serwera, również się nam nie przyda, ale teraz.
A no właśnie, już mamy tutaj nazwę stacji.
Big FM, old school hip hop i tak dalej. Name, klucz. Big FM, old school hip hop, wartość.
No, więc mamy już nazwę tej stacji i wiemy, że klucz, który zawiera nazwę stacji, nazywa się name.
Piszemy name z małej litery i to nam się przyda. Warto to zapamiętać, bo będziemy za chwileczkę tego używać w naszym skrócie.
url.http://strelams-olpshall-128-ac5-36-poziom2
url.url.pl
To jest klucz, który zawiera jako wartość link do streama.
Bardzo nam się to przyda. Będziemy chcieli otworzyć ten stream w Safari, ostatecznie.
url.resolved.http://audiotainment-sustrelam-olpshall-hiphop-128-21007-ac6505095230232qqnss0800
URL resolved to jest adres rozwinięty, czyli przypuśćmy, że ten adres podstawowy jest jakąś skróconą formą, albo jakąś uproszczoną, albo tam jest playlista, która zawiera stream.
To jest też chyba nawet po prostu adres tak zwany DNS, czyli przekształcony z tych cyferek na literki, bo zdaje się ten wyżej, to jest adres IP, prawda?
Nie.
Nie?
O, faktycznie.
Faktycznie.
No tak.
A to ciekawe.
Tak.
Ale faktycznie on jest jakoś tak rozwinięty, ten poniżej.
Tak.
Który weźmiemy, to zasadniczo nie ma chyba znaczenia większego, bo i tak nam się Safari
z obydwoma linkami raczej połączy.
Więc możemy wziąć URL albo URL podkreślnik Resolvet.
Co mamy dalej?
Mamy też homepage, czyli stronę internetową.
No ja tego w moim skrócie nie użyłem, no ale teoretycznie mógłbym.
Pewnie mógłbym się pobawić, nawet że jakiś przycisk by się dodał do otwarcia tej strony,
albo tam jeszcze jakiś.
No ale na razie mi się nie chce aż tak bawić.
Co mamy dalej?
Tu mamy link do ikonki stacji.
No to mi osobiście nie było do niczego potrzebne.
Tags, czyli tagi. Tu akurat ta stacja żadnych tagów nie ma, ale w tagach są często bardzo ciekawe informacje typu jaki rodzaj treści tam będzie, jaki język, chociaż na język jest osobne pole, jaki rodzaj muzyki są grane, no wszystko co nam przychodzi do głowy, różne słowa, klucze związane z tymi stacjami.
Ja sobie to dodałem do mojego skrótu, bo no chciałem mieć jakby dostęp do tego typu rzeczy i chciałem mieć informacje o tym, no czego się po takim radiu, które mi wylosowało, spodziewać.
Mamy też country, czyli kraj, który tu również nie został wypełniony.
Z tego poszła ta informacja, że moja stacja, którą wylosowałem jest z Brazylii, bo w polu country ktoś tu wpisał Brazyl, a tutaj akurat jest pusto i nie ma nic.
Country Code, gdybym chciał znaleźć pełnej nazwy kraju, skrót, nie Poland, tylko PL przykładowo. No też można.
ISO 3166.0.12.30
Tak, tu jest kod krajów ISO, według standardów ISO.
To mi nie było potrzebne.
State, czyli no w Stanach byłby to stan.
No nie wiem, u nas można by wpisać województwo, jeżeli to jest rozgłośnia regionalna, lokalna.
Language, czyli język, też który nikt nie wypełnił, jest pusty, tak?
Więc tutaj mamy do języka.
Language codes, no to są kody języka, gdyby ktoś chciał też znowu PL, a nie Polish.
Votes, ile osób dało łapkę w górę na stronie radio browzera.
Last change time, czyli kiedy ostatnio w tej stacji coś zmieniano.
Tu według ISO, kodek to jest AAC, takie informacje też możemy wyciągnąć.
Bitrate, HLS, czy jest to stream właśnie taki typu HLS czy nie.
Czy ostatnie last check równa się 1, last check OK równa się 1,
czyli czy ostatnie sprawdzenie z poprawności strumienia zakończyło się powodzeniem, czy stream upadł w międzyczasie.
Last Hetscopime 2023-11-15-18-09-49
No o 18.09 sprawdzono ostatni raz czy stream działa.
Last Hetscopime ISO 8006
Tu znowu ten czas w ISO.
Last Hetscopime 2002
Ostatni raz kiedy sprawdzono i było okej, no to jeżeli stream był uszkodzony to byśmy przynajmniej wiedzieli kiedy mniej więcej on upadł.
Last local check time, czyli tu jest czas lokalny według naszej strefy czasowej, a nie według strefy czasowej serwera.
Last local check time.
I znowu WISO.
2023-11-15.
Click time stamp, czyli kiedy chyba my kliknęliśmy w tą stację.
Click count, ile razy stację wybierano zdaje się, ile razy ją kliknięto. Nie wiem w jakim to przydziale.
SSL error, 033, click trend, minus je, click trend, SSL error, 033, SSL error, czy jakiś błąd, SSL wystąpił,
geolat, 034 z 30, geolong, 035 z 36, geographical latitude and longitude, to są akordy, no współrzędne geograficzne,
jeżeli chcielibyśmy nanieść stację na mapę, no to też są mniej więcej współrzędne, nie wiem, miasta albo miejsca,
z którego stacja pochodzi, gdyby ktoś chciał, tutaj nie ma.
I has extended info, czyli posiada jakieś informacje dodatkowe.
Tutaj stacja nie posiada.
No więc mamy komplet danych.
Naprawdę dużo danych za darmo nam radio browser daje,
dlatego tak fajnie się pracuje z tymi danymi
i dlatego tyle różnych aplikacji powstaje,
które na tym radio browserze sobie pracują,
bo można w ten sposób całą bazę danych parsować.
Można te dane sobie stąd wyłuskiwać i one są.
No i tak przykładowo wygląda takie API.
Takie API Twittera jest oczywiście dużo bardziej skomplikowane,
bo tam już idą całe jakieś zapytania, tych danych jest zlecanych dużo,
one są jakoś tam, już jako całe takie obiekty,
gdzieś tam pogrupowane, poklasowane i tak dalej.
Ale takie proste API jest fajne, żeby sobie popracować.
To więc ja teraz pokażę, jak jest skonstruowany mój skrót w takim razie.
Skoro już taką teorię mamy za sobą i wiemy,
że tak łatwo się z tymi danymi pracuje,
one są dla nas zrozumiałe i wiemy, co każda dana nam robi,
To jak to teraz zastosować w praktyce?
Ja może pokażę polską wersję tego skrótu, czyli skrót wybierak,
bo Surprise Me FM to jest wersja angielska.
Mamy wybierak, skrót, który ma 14 czynności.
Ja wejdę w edycję skrótu.
Czy zwolnić syntezę, czy ona jest dostatecznie wolna, żeby będzie zrozumiała?
Wiesz co, możesz ewentualnie troszeczkę zwolnić.
Dobrze, to zobaczmy.
I zaczynają się czynności. Jakież to czynności mamy w tym skrócie?
URL. Popatrz w menu opcji. Średzisk. Średzisk. HTTPS. D1.API.RADIOBROWSER.INFOSOM.STATIONS.LIMIT1.OPEN.RANDOM.
Dostępne czynności. Usługi czynności ze skrótu. Średzisk.
Pierwszą moją czynnością jest URL, czyli wstawiłem, że w tej akcji, znaczy w tym moim skrócie,
na początku pojawi się adres i z tego adresu skorzystaj.
I adres zadeklarowałem. To jest adres, który już znamy, adres do tego API.
Dokładnie taki sam, czyli d1.api.radio.browser.info.json.stations.
Pytajnik limit równa się 1, end order równa się random.
I co on dalej ma z tym adresem zrobić?
Pobierz zawartość level, popraszonego opcji, pobierz zawartość level, dostępna czynność.
Tak, użyłem czynności pobierz zawartość, ojej.
Bo chciałbym, żeby z tego adresu, który zadeklarowałem,
został pobrany wynik, bo do czego służy opcja pobierz zawartość?
Gdyby tam był jakiś plik na końcu tego urla, jakaś mp3, jpeg, to by pobrało mi plik
i pewnie musiałbym ustalić co dalej miałoby się z tym plikiem stać.
A ja chcę żebym pobrał dane i Apple skróty, no to oczywiście to jest wszystko
mega uproszczone, mega inteligentne, mega takie domyślne i domyślające się.
On się domyśli, że jak po drugiej stronie zobaczy składnię JSON,
no to to są dane JSON i trzeba będzie je gdzieś tam dalej przetworzyć.
Więc ja taką zawartość w tym chcę.
Nie musiałem nic specjalnie w tym celu ustawiać.
Po prostu on sobie sam rozpozna, że to jest JSON,
po tym jak sobie zanalizuje to, co mu wyjdzie z tego URL-a, co mu zwróci API.
I tu zaczynamy serię takich czynności, jedną po drugiej.
Słownik to jest całe to, co właśnie przejrzeliśmy, ta cała struktura tego naszego JSON-a.
Więc tutaj musiałem użyć opcji pobierz wartość ze słownika,
bo chcę pobrać konkretną wartość.
Tą wartością pierwszą jest…
Dokładnie, bo dla klucza name…
Tak, przeanalizujmy sobie.
Czy ja chcę pobrać wartość?
Opowiadałem Wam, że klucze i wartości to są te dane po lewej i po prawej.
Klucz po lewej, czyli kluczem będzie właśnie name,
a wartością to, co to name przedstawia, czyli jakaś nazwa stacji.
Czyli ja chcę pobrać wartość dla klucza name ze słownika zawartość URL,
czyli to, co zwrócił URL będzie naszym słownikiem.
Z tego słownika znajdź klucz name o nazwie name
i wyciągnij mi jego wartość.
No i co dalej masz z tą wartością zrobić?
…
Dokładnie, czyli dodaj mi tą wartość ze słownika,
czyli to, co wyjąłeś z tego name do zmiennej o nazwie nazwa.
To się nam przyda za chwileczkę.
Ja za chwileczkę to wszystko wyjaśnię.
Po co nam te zmienne?
Zmienne są po to, żeby potem można było się na te dane
w późniejszym kroku powołać,
że w momencie, kiedy będę chciał w tym okienku,
który będziemy chcieli wyświetlić,
pokazać tę nazwę stacji,
no to wstawię w odpowiednim momencie w tekście tego okienka
tą zmienną nazwę.
Na razie wyciągnęliśmy wartość name,
wartość klucza name
i zapisaliśmy ją w zmiennej o nazwie nazwa.
Co zrobimy dalej?
Tak, pobieramy wartość znowu ze słownika, z klucza URL Resolved i dalej ze słownika zawartość URL.
Czyli się powołujemy tutaj na znowu ten pobrany JSON i szukamy teraz klucza URL Resolved
I on ma mi z tego klucza wyciągnąć wartość tego klucza.
I co ma mi z tym zrobić?
Posłuchajcie, do wartości zmiennej pokażemy opcję,
która wartość zesłownika to strumień.
Do zmiennej o nazwie strumień.
To znowu kolejna zmienna, którą sobie stworzyłem.
Tam ma być zapisany strumień do tej stacji.
Posłuchajcie, pobierz wartość zesłownika.
I znowu, pobierz wartość zesłownika.
Jakąż to wartość?
Pobierz wartość dla kandry, zawartość level.
Znowu z zawartości url znajdź klucz country i pobierz mi z niego wartość.
No i pewnie się już domyślacie co będzie dalej.
Dokładnie, czyli cokolwiek tam znajdziesz w tym country zapisz mi w zmiennej kraj.
I chyba ostatni już, nie jeszcze dwa.
już nutne się z tym robię, ale kolejne wartości chcę pobierać
i znowu z zawartości url z tego jsona wynajdź mi klucz language i pobierz mi zawartość tego klucza, żeby no wiadomo już co
do zmiennej o nazwie język
i ostatnia rzecz tego typu
pobierz wartość dla tags, wybierz zawartość levelu.
Pobieramy zawartość z tego słownika, z tego JSON-a,
wartość dla klucza tags
i dodajemy ją do zmiennej tagi.
No to mamy już komplet danych.
Wszystko co mi jest potrzebne, czyli nazwa, kraj, język, tagi
i adres do streama.
No i co my teraz z tym dalej wszystkim zrobimy?
Dane mamy po ściągane i pozapisywane w zmiennych.
Mamy opcję pokaż alert.
Jakżeż ten alert, alert to jest okienko, które oferuje nam tytuł, treść.
Przycisk anuluj, przycisk OK.
No i teraz jak ten nasz alert tu wygląda?
Oczywiście.
Przeanalizujmy sobie to krok po kroku.
Wylosowałeś stację, on tego tutaj nie czyta, ale tu jest wstawiona zmienna nazwa.
Z.
Tu jest wstawiony kraj.
W.
W języku.
Tu jest wstawiona zmienna język.
Tagi tej stacji to cisza i tu jest wstawiona zmienna tagi.
Po to były mi te zmienne i to wyciąganie danych, żeby móc w tym okienku dialogowym
powołać się przez te zmienne na te dane, żeby wstawić je w odpowiednim momencie,
żeby ładnie w tym tekście się one wkomponowały.
Zmienna to jest taka wartość, która potrafi przyjmować różne wartości i dlatego się je ustala.
żeby potem móc w różnych danych te zmienne wypełniać i w tych zmiennych jakieś
modyfikować rzeczy, żeby, nie wiem, dzisiaj to była stacja z Portugalii,
jutro to była stacja z Hiszpanii, a pojutrze z Polski i żeby to zawsze w tym tekście się
pojawiało właściwy kraj, no to musi to być pobrane ze zmiennej, a zmienna powołuje
się zawsze na te dane, które wybraliśmy, no bo tak, zadecydowaliśmy we wcześniejszym
Czy to wszystko?
No nie, została nam jeszcze ostatnia rzecz,
bo jeżeli zdecydujemy się takiej stacji posłuchać i klikniemy OK,
no to będziemy chcieli posłuchać sobie takiej stacji.
No i po kliknięciu OK, czyli po kontynuowaniu działania skrótu
przez wybranie OK w tym naszym dialogu, wywołamy akcję
Otwórz URL, co otwiera URL w Safari.
No i tu możemy ustalić, jaki ten URL ma być.
Otwórz strumień, czyli otwórz ten adres, który jest zawarty w zmiennej strumień.
No i po to nam były też te zmienne i wyciąganie tych danych.
I to już jest koniec. To są wszystkie czynności, które się znajdują.
No więc teraz jeszcze na zakończenie odpalę ten skrót.
Mamy skrót wybierak, ja go naciskam.
Gratulacje to jest tam, gdybym rozwinął tą czynność z okienkiem alertu, to mógłbym też dopisać tytuł, ale jako, że były opcje zwinięte, to nie pokazało.
O! Proszę, jakaś chrześcijańska stacja, otagowana niby jako Stany, ale w języku portugalskim.
No i? Anuluj. I OK. No i naciskam OK.
I Safari.
No i otwarło nam się Safari i radio zaczęło grać.
No więc tak w dużym skrócie wygląda konstruowanie skrótów i pracowanie z API.
Mam nadzieję, że było to dla was zrozumiałe i mam nadzieję, że zainspirowałem was do tego, żeby jakimś, może tym API, ja też wam tłumaczyłem w zeszłym tygodniu, że z tym API można dużo więcej zrobić, można całe wyszukiwania stacji robić.
Jeszcze nie jestem na tym etapie, ale tam jakieś opcje, listy są w skrótach Apple, można by zrobić, żeby wygenerował listę np. stacji według jakichś tam parametrów, albo żeby przeszukiwać radio browsera za pomocą skrótu, żeby nam wygenerował listę stacji.
No albo coś jeszcze innego można by zrobić, więc kreatywność należy do Was.
Prawdopodobnie są też inne serwisy, które oferują jakieś API, więc możecie się też rozejrzeć,
czy w jakiś sposób nie uda Wam się w ten sposób pracować z czymś, co dla Was jest ważne,
z jakimś Waszym serwisem. Kto wie, może będzie to możliwe, no i będziecie mogli sobie wtedy
wyciągać w jakiś sposób ciekawe dane, wrzucać je jakoś do skrótów,
jakoś w kreatywny sposób je w tych skrótach osadzać
i robić jakieś fajne rzeczy.
A gdybym ja coś odkrył i czegoś nowego się nauczył
w kwestii jakichś takich prostych zagadnień
zahaczających jakokolwiek oprogramowanie,
chociaż programistą nie jestem i linijki kodu bym nie napisał,
gdyby nie to, że Apple skróty są bloczkowe
i wyklikuje się opcje po opcji po prostu z bloczków,
no to chętnie się z wami tym podzielę
i postaram się też w takich prostych słowach to wyjaśnić.
A tymczasem zanim przejdziemy do kolejnych tematów to zajrzyjmy do wypowiedzi naszych słuchaczy i teraz dosłownie wypowiedź od Grzegorza.
Cześć wam. Wydaje mi się, że BeMyEye wkrótce będzie dostępna na Androida.
Testy tej funkcji dokonali już ludzie z podcastu Blight Android Users.
Ogólnie jest dobrze, choć póki co jeszcze brakuje funkcji udostępniania zdjęć z innych aplikacji do BeMyEye.
Pozdrawiam.
Pozdrawiamy Cię Grzegorzu, a tymczasem jeszcze dwie wypowiedzi od naszych słuchaczy.
Na dobry początek Maciek.
Witam wszystkich. Czy mógłbym prosić jeszcze raz o podanie nazwy tego modułu do opisywania obrazów przez GPT na macOS?
Byłbym wdzięczny. Pozdrawiam.
To się po prostu nazywa image description, ja jeszcze sobie muszę notatki otworzyć.
I to na pewno znajdziesz na githubie Mikołaja Hołysza pewnie.
Tak, tak i właśnie chcę nawet chociaż jakiś link podać, bo wiem, że tutaj go oczywiście podałem.
Describe image nawet.
Tak. Describe image, czyli wchodzisz sobie na github.com, ukośnik mikołysz przez z pisane, ukośnik destribe image.spawn. To jest adres do repozytorium, on oczywiście też będzie w komentarzu.
I jeszcze jedna wypowiedź, tym razem od Krzysztofa, a propos nowego notatnika Windows to można w ustawieniach tegoż ustawić jak się ma zachowywać notatnik po uruchomieniu nowego dokumentu i po otwarciu pliku, w tym celu w otwartym notatniku wchodzimy w edycję, a potem czcionki i otwiera nam się karta z ustawieniami notatnika. Pozdrawiam, w życiu bym tam tego nie zrobił.
Genialna nazwa pozycji.
Zgadza się, tak.
W Microsoftie nie idź tą drogą.
Bo naprawdę będziemy potrzebowali
do tego typu rzeczy
po prostu sztucznej inteligencji,
bo człowiek tego nie spowiada.
Jest kompajnet w Windowsie po prostu.
Tak.
W takim razie chyba przechodzimy
do mojego chyba newsa,
jak mi się wydaje.
Tak.
Nowa wersja modelu Large
do Whispera. Whisper, czyli system rozpoznawania umowy, który zresztą tutaj w tytulu podcastu jest używany nagminnie, można powiedzieć, do rozpoznawania chyba wszystkich audycji, jakie się tutaj rozpoznają.
Zgadza się.
No i do tej pory używany był model LARP V2, to znaczy…
I nadal jest.
No, nadal jest. No i tak, Whisper generalnie, jak większość sztucznych inteligencji,
to jest jakby osobno tak zwany silnik i osobno model, czyli taki rzeczywiście,
jak to ma konkretnie działać, może, nie wiem, jak to inaczej nazwać.
W każdym razie, jakby sam zestaw danych do tego wszystkiego.
No i tych modeli Whisper ma kilka, od takich najmniejszych, najsłabszych, najsłabiej rozpoznających, ale za to najszybciej rozpoznających, jeżeli chodzi o czas, to właśnie takich dużych modeli, które mają po kilka giga, Larch i ten Larch był najpierw w wersji pierwszej, to szybko pojawiła się wersja druga.
No i teraz po roku mniej więcej pojawiła się wersja trzecia tego modelu Larch.
Można powiedzieć trwają testy, właśnie testuje ten model.
Nie wiem jeszcze czy jest lepszy, czy jest gorszy, bo to naprawdę czasem trudno powiedzieć.
Wydaje mi się, że mniej halucynuje, czyli mniej na przykład ma sławetnego napisy wygenerowane przez społeczność Amara.org.
Bo to się często tam zdarzało w tej wersji V2, przynajmniej bywało, że się zdarzało i trzeba było stosować różne zabiegi, żeby jak najbardziej to ograniczyć.
Tutaj specjalnie puszczałem bez żadnych tych takich zabezpieczeń i w zasadzie tego nie było.
Też nie ma tego, tego czegoś, co powodowało czasem, że on się zapętlał na jakimś słowie i je powtarzał kilkaset razy.
Co zwłaszcza ma miejsce w przypadku chociażby naszych podcastów, kiedy odzywa się synteza mowy.
Tam jest taki przełącznik condition on previous text i można go wyłączyć, ustawić na false i wtedy to no się powtarza zdecydowanie mniej.
Natomiast tak, to Whisper ma z tym dość duży problem, jak się czasem na coś uprze to nie ma zmiłuj.
No to V3 na pewno ma mniejszy problem, testowałem na razie larcza na takich dość trudnych dla niego rzeczach,
Czyli na przykład na jakichś rozmowach, na jakimś TimToku, czy mam kilka jakichś starych nagranych i mam wrażenie, że trochę mniej rozpoznaję rzeczy w tle, czy jest dokładniejszy, czy nie, w sumie trudno powiedzieć.
Ja mam wrażenie, że jest mniej dokładniejszy, bo ja to też testowałem i dlatego na razie używam dwójki do rozpoznawania tyflopodcastów.
Na pewno z czym ma problem i co rzeczywiście jest ewidentnym u niego kłopotem, przynajmniej w takiej domyślej konfiguracji,
bo być może też tu jakiś przełącznik pomoże, albo zastosowanie innego narzędzia do whispera, o czym zresztą też Tomku będziesz mówił później.
No to ma problem przede wszystkim z zaczynaniem rozpoznawania.
na przykład w Tyflo Przeglądach, nie zaczyna rozpoznawać od początku,
bo jak jest ten dżingiel, to on go rozpozna, potem mamy podkład przez chwilę
i już dla niego to jest jakiś problem i on na przykład kilku pierwszych słów,
czy kilkunastu pierwszych słów z audycji wtedy nie rozpoznaje,
dopiero zaczyna się aktywować tam po jakiejś dłuższej chwili.
A tak, to też zauważyłem coś takiego. Także coś tu jest, coś tu jest na rzeczy.
To znaczy w ogóle ja trochę czytałem o tym jak ten whisper został przygotowany, jak ten model został przygotowany.
I trochę mnie zaniepokoiło to, że materiał do trenowania whispera został przygotowany z użyciem whispera.
Okej.
A przynajmniej część tego materiału.
Tam chwali się OpenAI, że zostało tam przygotowanych ileś milionów godzin.
Natomiast nie mam porównania, szczerze mówiąc, jak bardzo zostało to wszystko przygotowane w poprzednich modelach.
Mam wrażenie, że mniej, tam zdecydowanie mniej było używania Whispera do trenowania tego modelu i to tak trochę budzi pewne wątpliwości
i no też jednocześnie pytania, co będzie dalej, jeżeli będziemy sztuczną inteligencję używać do trenowania jej samej,
kolejnych iteracji tej sztucznej inteligencji, czy aby nie
wejdziemy tu w jakąś ślepą uliczkę,
bo będziemy mieć coraz więcej rzeczywiście danych,
bo będziemy w stanie je dość szybko wygenerować,
natomiast, no, one będą coraz bardziej
zaciemniały te modele,
będą je coraz bardziej psuły.
Takie są trochę moje
wrażenia po testach Whispera,
ale oczywiście
Właściwie to się wszystko może z czasem zmieniać, bo to może oni też postanowili to w jakiś sposób przetestować.
Możliwe to jest. Poza tym wiem, że już inne firmy zaczynają tworzyć własne modele do Whispera.
Jest ten cały Distil Whisper, to jest od chyba Hanging Face’a i zdaje się, że on nie ma jakiś swój model.
Na razie tylko dla angielskiego, dla wielejęzycznego ma być wkrótce i on podobno ma być dużo mniej podatny, ma błędy, no zobaczymy, ale no, wychodzi na to, że możliwe, że za jakiś czas to będzie trochę tak, że Whisper będzie tym silnikiem, a modele będą tworzyć ludzie.
Widziałem taki model stworzony przez kogoś z Polski, stworzony w zasadzie, poprawiony w pewnym sensie, który jest na bazie tego modelu Medium, ale on jest stworzony do m.in. trenowania jakichś syntezatorów mowy.
być na przykład cyfry zmienia, liczby zmienia na ich słowne odpowiedniki, stara się nie rozwijać wszelkich skrótów, po prostu jak to jest napisane, tak to jest przeczytane.
Oczywiście w związku z tym, że to jest na modelu Medium, to jest trochę mniej dokładne niż Large, ale podejrzewam, że takich akcji może być więcej.
No i tak jak różnych implementacji samego Whispera, no to do tej pory mieliśmy już sporo i tworzą się nadal, no to teraz chyba zaczynało się też stworzyć modele takie różne od ludzi, od pewnie firm i możliwe, że tego będzie coraz więcej.
Także zobaczymy, być może w jakiejś przyszłości OpenAI, ten ich oryginalny silnik i oryginalny model będzie przez kogoś wykorzystywany, a być może część ludzi będzie korzystało z zupełnie innych implementacji Whispera, z zupełnie innych modeli i zobaczymy jak to będzie wyglądało. Ale jest taka szansa.
A tymczasem mamy kolejną wiadomość, głosową, tym razem jest to wiadomość od Bartka.
To Bartek. Przed chwilą sprawdziłem kwestie notatnika. Powiem wam, że stała się rzecz dziwna. Po utworzeniu czystego dokumentu i wpisaniu jakiegokolwiek tekstu, a następnie wciśnięciu kombinacji Alt F4, notatnik mi się zamknął. Nawet nie zapytał, czy chcę zapisać zmiany. Pozdrawiam.
No a ciekawe, czy jeżeli otworzysz ten notatnik, to ten dokument się pojawi? Stawiam, że tak.
Dobrze, to przechodzimy w takim razie do następnego chyba newsa, którego tytuł jest dość interesujący, czyli czat GPT, którego możesz nosić na sobie.
Tak, czyli Humane AI Pin, urządzenie, o którym rozpistuje się cały świat technologiczny w ostatnim tygodniu,
bo jest to firma, która już od miesięcy zapowiadała, że coś zrobi, jakieś urządzenie wspomagane czatem GPT,
jakiś taki hardware’owy czat GPT, czat GPT w formie urządzenia, coś, coś ma powstać, no i powstało.
I jest to taki element, który przypinamy jakby do ubrania.
On tam ma jakiś mikroprocesor i tak dalej, jakiś Snapdragon, nie wiadomo jaki do końca.
I to urządzenie ma w sobie czata GPT.
I to na ten moment ciężko powiedzieć do czego to może być przydatne, bo w tym momencie urządzenie można kupić
sprzed sprzedaży i ma to sens chyba tylko w Stanach, bo to kosztuje 700 dolarów i wliczony jest tam jakiś chyba kontrakt z T-Mobile’em.
Można sterować nim za pomocą głosu, za pomocą, tam jest napisane też, że kamer i jakiś tam sensorów, więc chyba też jakieś ruchy, gesty, nie wiem czy spoglądanie, też jakieś ruszanie oczyma itd.
W jakiś sposób tam jest też wspomagane i można wykonywać połączenia i wysyłać wiadomości głosowe.
Można poprosić o podsumowanie zawartości naszej skrzynki pocztowej, mailowej.
Można np. zbliżyć do kamery, do aparatu jakiś produkt żywnościowy i on zostanie nam opisany co do
składników odżywczych.
No i zasadniczo używać czata GPT, czyli takie rozbudowane, rozbudowana wyszukiwarka po prostu i chatbot.
I to jest na ten moment tyle, natomiast oni chcą jeszcze wprowadzić jakieś tam opcje przydatne przy zakupach, jakąś nawigację GPS, jakieś tam inne rzeczy.
Więc teoretycznie brzmi to jak coś, co nam bardzo, bardzo mogłoby się przydać, no bo sterowanie głosowe, ewentualnie jakieś tam gesty, opcje nawigacyjne,
opcje w ogóle takie, nosimy to urządzenie i możemy mieć dostęp do wszystkiego, co oferuje chat GPT,
pewnie jakieś opisywanie obrazów czasem też. No i wszystko fajnie, tylko niestety nie wygląda na to,
że na tym etapie w tym urządzeniu jest implementowana jakaś dostępność.
I tutaj się już Mike, nie Matt Campbell, tylko ten drugi człowiek z…
Mike Halvo, wystosował list otwarty do firmy Humane, żeby rozważyli, że skoro to urządzenie
jest na etapie jeszcze produkcji i jakiegoś, znaczy nie produkcji, co ja mówię, no jakiegoś takiego
wstępnego, pierwszego rozwoju, że to są pierwsze wersje, jakaś przedsprzedaż jest, ma to być na
początku przyszłego roku gdzieś tam rozsyłane pierwsze sztuki do ludzi,
to urządzenie ma potencjał, żeby zrewolucjonizować życie dla osób z niepełnosprawnościami,
to żeby oni wzięli tę dostępność pod uwagę, bo jednak to jest jedno z tych urządzeń,
które osobom ogólnie bez jakichś niepełnosprawności może życie ułatwić,
a nam może wiele rzeczy umożliwić. I to byłaby bardzo zmarnowana szansa,
gdyby takiego urządzenia nie zaprojektowano gdzieś tam z tą dostępnością.
Zwłaszcza, że to się opiera o tak naprawdę w dużej mierze czata GPT, który jest interfejsem typowo tekstowym,
więc tam naprawdę może kwestia jakiegoś rozpoznawania gestów byłaby kłopotliwa, ale tak poza tym,
no to raczej, chyba że nie rozumiem czegoś w konstrukcji tego urządzenia, wszystko opierałoby się o po prostu konwersację z tym czatem.
Więc mam nadzieję, że zostanie to wzięte pod uwagę, żeby było chociaż o czym rozmawiać i będzie o co testować.
No ale tak wygląda na ten moment przyszłość technologii, no i o tym się rozpisują portale technologiczne.
No to następny news na temat numeru PESEL, który będzie można zastrzec w aplikacjach Obywatel.
Odlistujesz od nich za chwilę już w zasadzie?
Tak, tak, za dwa dni, bo od 17 listopada będzie to możliwe.
Co to będzie oznaczało w praktyce?
Tak jak czytamy na portalu Benchmark, benchmark.pl to jest usługa dzięki której nikt nie weźmie na ciebie kredytu, nie kupi sprzętów na raty, nie sprzeda nieruchomości bez wiedzy i zgody właściciela, czy nie wyrobi duplikatu karty SIM, w skrócie nikt nie wykorzysta twojego numeru PESEL bez twojej wiedzy.
No właśnie, bo zastrzeżenie numeru PESEL, tak, zastrzeżenie numeru to wydaje się, że to jest jakieś jego ukrycie.
Tak jak, no, znamy te pojęcie zastrzegania numeru telefonu, że on nie jest widoczny gdzieś tam, powiedzmy, nie był widoczny w jakichś spisach.
Tu mamy do czynienia raczej z blokadą, z taką blokadą, którą możemy założyć, a następnie w razie potrzeby możemy ją zdjąć.
i będziemy mogli zrobić to za pomocą aplikacji mObywatel oraz serwisu obywatel.gov.pl
i to będziemy mogli sobie przetestować już od 17 listopada.
No właśnie, dlaczego mówię przetestować i dlaczego rzeczywiście już warto to zrobić,
natomiast no niestety nie będzie to miało mocy prawnej tak do końca jeszcze.
A przynajmniej nie będzie to miało mocy prawnej do przyszłego roku, do połowy przyszłego roku, bo dopiero od czerwca mają wejść przepisy, które będą nakazywały różnym instytucjom sprawdzanie tego, czy ten PESEL jest zablokowany, czy też nie.
I jeżeli ktoś, no, do tego czasu zrobi to, to będzie po prostu jego dobra wola, natomiast już od czerwca będzie zmuszony, żeby to sprawdzać.
I ja, jak rozumiem, to będzie działało na tej zasadzie, że, powiedzmy, ten PESEL mamy domyślnie zablokowany, ten nasz identyfikator we Mobywatelu.
I teraz, dajmy na to, chcemy, no właśnie, na przykład ten duplikat karty SIM sobie wyrobić, albo jakiś tam kredyt wziąć, albo cokolwiek innego.
No i teraz wchodzimy sobie na mObywatela, klikamy odblokuj, ten PESEL, i w tym momencie ktoś z tej instytucji może jakąś tam procedurę przeprowadzić,
np. brania tego kredytu, my to wszystko oczywiście potwierdzamy, akceptujemy, a następnie znowu sobie blokujemy ten PESEL, dzięki czemu po prostu nikt bez naszej wiedzy albo np. poprzez jakieś wyłudzenia,
Bo też niestety są tego typu kwestie, że dzwonią różni ludzie i podają się np. za pracowników banku i po prostu wyłudzają różnego rodzaju pieniądze chociażby, albo np. biorą na nas kredyty.
jak się ktoś da w coś takiego wmanewrować, a niestety no są osoby, które dają, na które taka socjotechnika działa po prostu,
no to będzie kolejny taki dodatkowy krok, który trzeba będzie zrobić, żeby świadomie ten kredyt, czy duplikat karty SIM, czy jeszcze co innego sobie wyrobić.
Natomiast oczywiście domyślnie to te wszystkie numery PESEL będą odblokowane.
My musimy intencjonalnie wejść na mobywatela albo właśnie na obywatel.gov.pl
czy jeszcze tam to będzie można w kilku innych miejscach wykonać,
wykonać takie zastrzeżenie tego naszego PESELa, numeru PESEL.
No ale my to będziemy musieli chcieć zrobić, to z automatu się nie zadzieje.
Tak czy inaczej, usługa dostępna będzie od 17 listopada, więc warto będzie ją sobie po prostu przetestować, sprawdzić jak ona jest dostępna, jak tam w M-Obywatelu ta blokada będzie działała i czy wszystko z nią w porządku.
Tymczasem widzę, że tu mamy jakieś kolejne wiadomości, więc zobaczmy. Bartek nam tu jeszcze nagrał jakąś wiadomość na Whatsappie.
Witam jeszcze raz. Notatnika ciąg dalszy. Po ponownym otwarciu notatnika wyświetlił mi ostatnią wiadomość. Nie tą, którą próbowałem zmodyfikować.
No i teraz pytanie, czy Control Tab to rozwiąże ten problem, bo podejrzewam, że tak. Po prostu teraz ten notatnik ma wiele kart.
Dobrze, tu jeszcze widzę, że mamy…
Tak, a propos kart, to też warto sprawdzać, ile tych plików jest otwartych, bo te pliki warto zamykać sobie, te karty warto sobie zamykać.
F4, Control W, bo jak tego nie zrobimy, to tych plików naprawdę może się nam zrobić bardzo dużo.
Tak, tak, to jest akurat prawda.
No, ja akurat, dla mnie nie było to jakimś wielkim zaskoczeniem,
bo na co dzień korzystam z notepada, plus plus też,
ale rzeczywiście, jeżeli ktoś był przyzwyczajony do tego,
że te wszystkie pliki tekstowe mu się otwierają w osobnych oknach,
no to może być to, może być to takim zaskoczeniem
i nietypowym zachowaniem notatnika.
Tymczasem jeszcze jedna wiadomość od Maćka.
Cześć Wam, zwracam się z problemem z działaniem tegoż dodatku do opisywania obrazów na macOS.
No, udało się go zainstalować, chociaż się troszeczkę tam napociłem, bo nie można było sobie tak po prostu pobrać zipa,
znaczy można było, ale finalnie nie było tego skryptu instalacyjnego, no i tam się obawiłem trochę i sklonowałem to repozytorium,
w ogóle tą aplikacją właśnie GitHub’a na Maca, no i się w końcu udało.
Wygenerowałem sobie normalnie klucz API do OpenAI,
tylko że, kurczę, to, nie wiem, nie działa mi.
Tam wpisałem, skopiowałem to ze strony,
to co tam Mikołaj podawał, tę komendę instalacyjną, tak samo.
No i cóż, ten klucz swój tam wkleiłem i to mi, kurczę, działać nie chce.
tam po wciśnięciu Ctrl-Shift-D
dostaję komunikat, że zrzut ekranu zachowany, czy coś w ten deseń.
No i czekałem ja sobie paręnaście, parędziesić sekund, gdzieś tam, parędziesiąt i nic.
I teraz pytanie, co ja gdzieś źle mogłem zrobić.
Generalnie założyłem, że w tej drugiej linijce kodu,
gdzie jest po podkreślnikach to put your API key here,
to, żeby to usunąć, tylko żeby cudzysłowy zostawić i żeby tam właśnie ten klucz wkleić, nie?
Ja tak zrobiłem, przeładowałem config i kurczę, nie działa, nie wiem właśnie o co chodzi, co z tym jest.
Wszedłem ja sobie na stronę OpenAI jeszcze, żeby sprawdzić, czy ten klucz w ogóle jakkolwiek był używany,
no niestety nie, no i teraz pytanie co, gdzie ja tam, gdzie ja tam jaki błąd popełniłem.
No moduł się załadował, generalnie to kwestia, z którą trzeba by się zwrócić do Mikołaja, co możesz zrobić, co pewnie też nie mu się przyda, żeby problem jakoś bardziej diagnozować, no to otworzyć sobie Manihammer Spoon i tam jednym z poleceń jest polecenie Show Console, to nam po prostu otworzy taką konsolę, gdzie wszelkie jakieś komunikaty, też błędy, nawet te, które skrypt jakoś nie, sam jakoś nie poradził sobie z nim, tam się wszystkie informacje będą wyświeciły,
więc jeśli coś faktycznie tam się wysypało, czy jakiś błąd się pojawił, czy właśnie do API coś zwróciło nie tak jak trzeba, no to to się wyświetli tam, więc ewentualnie po prostu ten cały log albo ci naprowadzi na to, co jest problemem, albo ewentualnie jeśli nie, no to możesz go do Mikołaja wysłać i po prostu powiedzieć, że coś tutaj nie działało, no i może tak w ten sposób znajdziemy, znalazłeś jakiś po prostu problem, który musi zostać rozwiązany.
To może być jeszcze jedna rzecz, to ja się z tym spotkałem w momencie kiedy
chciałem wcześniej przetestować tą syntezę mowy, bo tego też się nie
spodziewałem. Kiedyś jakiś czas temu nawet założyliśmy sobie konto OpenAI,
nawet nie po to, żeby z Apple skorzystać, żeby nawet mieć dostęp do chata
GBT na iPhonie, bo ja tak zrobiłem, założyłem sobie konto przez Apple kiedyś,
no bo chciałem chata na iPhonie, tą aplikację oficjalną przetestować, no a później
nie chciałem sobie to właśnie przetestować to API, przeczytałem, że tam jest okres
próbny. Fajnie, no to zaloguję się kontem Apple, no bo już mam konto OpenAI.
No owszem, mam konto OpenAI, co się okazało, że właśnie samo zalogowanie się do
czata GPT automatycznie nam rozpoczyna ten okres próbny tego API, więc tam mamy
chyba miesiąc albo trzy miesiące na wygrywanie tych pięciu dolarów, które
dostajemy w gratisie, ale one nam po prostu po tym czasie wygasną, więc ja
Ja wtedy jak tą aplikację sobie ściągnąłem, nie wiedząc o tym, założyłem konto, no i mi wtedy też się rozpoczął ten okres próbny na API, który po prostu, też ja o tym nie wiedziałem, wygasł mi.
Więc no jak już chciałem coś bawić się z tym więcej, no to musiałem sobie to konto normalnie doładować, tam też gdzieś w ustawieniach na stronie OpenAI, tam w jedną z sekcji jest informacja o tym, jakie mamy saldo, czy te kredyty, które tam mamy, nam przypadkiem nie wygasły, więc może to też być problemem.
No i to co, przechodzimy chyba do newsa. Newsa w zasadzie przedostatniego. Teoretycznie, choć na pewno będzie co na mnie jeden. Amazon rezygnuje z Androida na swoich urządzeniach.
Zgadza się i przechodzi na swój własny system bazujący na Linuxie, tak wstępnie projekt się nazywa Vega, ponoć pracują już nad nim od wielu, wielu lat, co najmniej od chyba czterech i teraz już, no tak wskazują na to różne jakieś posty na Linkedinie i w mediach społecznościowych,
jakichś rodzajów ofert pracy, których Amazon aktualnie szuka, że będzie potrzebny ktoś kto się zna na Linuxie.
Oni chcą zaoferować programistom swoje własne, niezależne od Android dla SDK, bo też tam narzekali na to, że to już Android 14,
a tam na tych urządzeniach jest Android 9. Jakieś tam z Googlem były też umówione kwestie co do sklepów, dostępności sklepów.
No przecież Amazon ma swój sklep Amazon, mimo że to jest Android, no i będą się wycofywać z tego.
Będzie jakiś nowy system na bazie Linuxa, tak jak już wspomniałem, no i ponoć już w przyszłym roku mają się zacząć pojawiać nowe urządzenia z tym systemem.
Oczywiście przekonamy się, czas pokaże, czy dostępność na tym też będzie.
gdzie już też ktoś się zwrócił do Amazona, społeczności amerykańskiej z pytaniem, czy te różne Fire Tablety, te Fire TV, przystawki i tak dalej, zamierzają tam mieć jakąś dostępność, czy też nie.
Miejmy nadzieję, że tak, bo zwłaszcza gdzieś tam w Stanach, w Niemczech trochę osób te sprzęty z Fire OS-em pokupowało.
Oni też w ten swój screen reader VoiceView trochę zainwestowali, jakieś tam swoje własne rozwiązania poimplementowali, no więc szkoda jakby to wszystko teraz przepadło.
Z drugiej strony ktoś przyłapał Amazona na tym, że gdzieś tam się im wkradła nakładka dostępnościowa AccessDB i że jest ona używana, więc że teraz dostępność strony Amazonu polega na nakładkach dostępnościowych.
Też ponoć aplikacja Aleksa się wysypała dostępnościowo w najnowszej wersji.
No właśnie więc pytanie co tam się w tym momencie z tą dostępnością u nich dzieje bo zazwyczaj oni byli z tym raczej stabilni.
Natomiast ja też się zastanawiam nad innymi rzeczami np.
co się stanie ze sklepem Amazonu który działa jako jedyny sklep oficjalnie w Windows Subsystem for Android.
Bo no tak poza tym to nie ma oficjalnie żadnego sklepu. Google no nie jest w tym momencie tam osiągalny, jakoś dostępny.
No można sobie jakoś tam zainstalować sposobami, ale chodzi o oficjalnie dostępne rzeczy. Można jakiegoś F-Droida zainstalować, można jakieś pewnie inne rzeczy też zainstalować, więc no zobaczymy, bo to wszystko może w różną stronę skręcić.
No w Polsce te amazonowe rzeczy nie są zbytnio używane, wiemy, że chyba Grzegorz nasz słuchacz ma Fire TV.
Natomiast no i mam nadzieję, że jakoś to wyprostują i wyjaśnią, co z tym dalej będzie, z tą dostępnością.
A tymczasem odbieramy telefon. Ponownie z nami jest Bartek. Witaj.
Witam serdecznie. Ja tym razem krótko. Udało się po części okien znać ten problem z notatnikiem.
I rzeczywiście, żeby zamykać poszczególne pliki, to trzeba użyć niestety skrótu CTRL-W.
Wtedy zamknie nam się aktualnie otwarty plik tekstowy i jeżeli rzeczywiście tych plików będzie więcej otwartych,
to za każdym razem trzeba będzie nacisnąć CTRL-W, aż nam się całkowicie program nie zamknie.
No i wtedy rzeczywiście po otwarciu notatnika chociażby z menu startowego, to wtedy nam uruchomi się pusty dokument.
Jednakże rzeczywiście, jeżeli wcześniej uruchomimy jakiś inny zapisany dokument, to niestety on go zapamięta.
Zdaje się, że w którymś z tych roprzyglądów była na to jakiś, bo to chyba gdzieś w opcjach dało się zmienić, żeby notatnik nie otwierał plików w kartach, tylko w oknach i wtedy zdaje się, że nie będzie czegoś takiego.
właśnie tą, to co tutaj chyba Krzysztof, tak?
Krzysztof, tak. Właśnie o tym chciałem wspomnieć.
Tak, ja właśnie tam zerknąłem w te opcje, czyli wchodzimy na listwę,
tam jest pozycja edytuj i rzeczywiście jest pozycja czcionka i można ustawić,
żeby otwierał w osobnych oknach. Ale i tak, tak jak powyżej wspomniałem,
mimo tego, że jeżeli wcześniej otworzymy sobie jakiś już gotowy plik,
a później otworzymy notatnik jakby z czystej pozycji, to i tak on otworzy nam ten wcześniej otwarty plik.
Więc no niestety, tutaj i tak będzie trzeba to zamykać.
Czy przypadkiem, Bartku, ja bym jeszcze na Twoim miejscu przejrzał ustawienia systemowe,
dlatego że tam gdzieś jest taka opcja, ja akurat sobie to zostawiłem włączone,
ale gdzieś w ustawieniach systemowych jest taka opcja dotycząca otwierania okien aplikacji po ponownym uruchomieniu komputera.
Czyli jeżeli na przykład, to dotyczy tylko niektórych okien oczywiście, to nie tak, że on otworzy wszystko,
ale właśnie tam między innymi notatnik, czy przeglądarka internetowa i jeszcze parę innych rzeczy.
Czy gdzieś to w ustawieniach systemowych, teraz nie pomnę gdzie, ale można sobie to włączyć, być może w jedenastce, bo ja cały czas moim systemem takim roboczym jest dziesiątka i cały czas jednak na tej dziesiątce pracuję, jedenastkę mam na laptopie, natomiast być może w jedenastce to jest jakoś rozszerzone, że coś tu można jeszcze podziałać, żeby jednak to zachowanie wymusić.
Jeszcze z tym przemieszczeniem się między otwartymi tymi plikami, to powiem tobie Michale tak, że powiem ci, że to tak średnio działało, bo wtedy jak otworzyłem notatnik z pozycji menu start, to widział tylko ten jeden plik i jak naciskałem control tab, to tylko między tymi plikami mi się, tym klikiem mi się przemieszczał.
Ale dziwne, bo jak czytał tam na przykład plik 5 z 18, czyli wyglądało jakby było wewnątrz otwartych 18 plików.
Tak jak bawiłem się tym notatnikiem w jedenastce, to dochodziłem do takiego wniosku, że jednak Notepad++ jakoś to lepiej miał rozwiązane. Tam czasem coś nie do końca działało tak, jakbym sobie tego życzył.
I rzeczywiście, jeżeli znajdzie jakiś plik niezmodyfikowany i niezapisany, to wtedy po naciśnięciu Ctrl-W się zapyta, czy chcesz zapisać zmiany w pliku takim a takim.
Jeszcze słuchajcie, a propos notatnika, właśnie wszedłem tu w opcję i widzę coś takiego.
Otwieranie plików. Lista rozwijana, zwinięte. Wybierz miejsce otwierania plików.
Dobrze, to jest właśnie to na nowej karcie, na nowym oknie, ale potem jest…
Po uruchomieniu notatnika, grupa zwinięte.
To się rozwija enterem.
Rozwinięte. Otwórz zawartość z poprzedniej sesji. Przycisk opcji oznaczone 1 z 2.
Podstawę mam.
Otwórz nowe okno. Przycisk opcji oznaczone 2 z 2.
Aha, no rzeczywiście, można to było rozwinąć, tylko że ja próbowałem, czyli rzeczywiście, czyli wystarczy ustawić tylko to i prawdopodobnie wróci do normalnego funkcjonowania.
Na to wygląda.
Tak, ja tego nie zastawiam, bo akurat mnie się te opcje bardzo podobają.
Tak, bo to jest fajne, to jest akurat fajna rzecz.
Ok, dobrze, no to ja rzeczywiście na razie, że tak powiem, to kwestia upodobania, ja sobie przywrócę do tej starej wersji, jak to można było powiedzieć, bo człowiek jednak się przyzwyczaił, że ten Alt F4 to jednak zawsze był szybszy, wynajmniej w moim przypadku.
Jasne, no to jest dobrze, że można to zmienić.
Tak jest, bo…
Tak, no korzyść chwili dobrze, że nam to oferują.
Bo mi akurat tego brakowało, tych właśnie tych opcji, ze względu na to, że ja nieraz właśnie robię jakieś notatki i w sumie chciałbym je mieć, ale niekoniecznie żebym miał miejsce na dysku i czasami się ten komputer gdzieś uruchomił, czasem coś i to mi ginęło, a teraz jest szansa, że to mi jednak nie zginie.
No to takie.
Okej, no to to by było wtedy u mnie, miejmy nadzieję, że już na dzisiaj na tyle. Dzięki serdeczne, trzymajcie się wtedy i słucham dalej.
Pozdrawiamy, cześć.
I został chyba ostatni news, tak mi się wydaje. Otóż, no właśnie, konsolowy program do transkrypcji tekstu Whisperem.
O Whisperze już dzisiaj mówiliśmy, więc nie będę powtarzał, co to jest.
Natomiast pojawiło się coś takiego już jakiś czas temu, co nazywa się Faster Whisper.
Faster Whisper, czyli taka szybsza implementacja tego Whispera i zróżniająca mniej pamięci.
Jedna z kilku był jeszcze Whisper CPU.
Natomiast Faster Whisper ma być szybszy i na procesorach, co jest dość ważne,
i na kartach graficznych, co też jest ważne.
Niektórzy mówią, że on jest trochę niedokładny, nie wiem, jeszcze nie porównywałem tak bezpośrednio, a w sumie można by kiedyś.
Tak czy inaczej, niedawno pojawiła się wersja tego Faster Whisper w formie programu, bo do tej pory to była biblioteka do Pythona, trzeba było ją instalować z konsoli, używając różnych innych bibliotek.
na dysku się instalowało parę giga danych różnych, biblioteki, inne biblioteki, różne inne rzeczy, natomiast tutaj zostało to spakowane w plik, który ma 70 mega, zdaje się, tyle, że trzeba do tego mieć to samo w zasadzie, co do tamtego Faster Whisperer’a,
W ogóle do różnych sieci neuronowych, czyli coś co nazywa się CUDA, piszone CUDA, NVIDIA CUDA, jeżeli używamy karty NVIDIA, czyli takiego środowiska do używania karty graficznej, do czegoś innego niż wyświetlanie grafiki, tak może to powiem.
Między innymi do obsługi sztucznej inteligencji i coś co nazywa się tublas. To też jest coś takiego, jakieś takie rozszerzenie, jakiś obliczeń. Ktoś mi to kiedyś próbował wytłumaczyć, chyba mu się udało, ale bardzo szybko to zapomniałem.
Tak czy inaczej trzeba mieć te rzeczy zainstalowane, ja je mam, no i jest link na GitHuba, on jest chyba w naszych notatkach, mam takie wrażenie, z którego można, znaczy, no tak, to jest link do GitHuba, tam sobie pobieramy ten, z releases jest, można sobie pobrać wersję, to się uaktualnia bardzo często,
bo w ciągu ostatnich kilku dni było kilka wersji, przy czym, co ciekawe,
poprzednie wersje były z września tego roku, co jest dość ciekawe też.
No i
w zasadzie
pobierają się na dwa pliki, whisper-faster.exe
i to ma 85 mega i licencja i to wszystko.
To jest program konsolowy, czyli taki, który albo odpalamy scmd i wpisujemy komendę,
natomiast ja sobie zrobiłem plik BAT, czyli taki plik, który można normalnie wpisać w notatniku,
który mi tutaj ułatwia transkrypcję.
Zaraz tutaj go pokażę, ja go też wkleiłem tutaj w notatki, więc on się pewnie pojawi w komentarzu.
Ja mniej więcej pokażę, co ten plik BAT robi i potem uruchomię sobie jeszcze tego Whisper’a, bo w sumie czemu nie.
Więc na początku tego pliku BAT, dzisiaj jakoś dużo z takiego grzebania w dziwnych rzeczach, Paweł grzeba w API, a teraz grzebie uruchamiając plik konsolowy, no w każdym razie.
Whisper minus faster kropka exe.
To jest początek tego pliku, to powinno się napisać teoretycznie start, ja tego nie piszę, działa.
Spacja, minus, minus, model, large, minus, V2.
Można też napisać V3 i wtedy będzie używa tego modelu V3, więc jeżeli ktoś chce przetestować to można to zrobić.
On sobie wtedy na początku ten model jak jest po raz pierwszy uruchamiany to sobie ten model akurat używany pobiera.
Co zajmuje? Dłużej lub krócej w zależności od łącza. Generalnie te modele large zajmują prawie 3 giga, więc u mnie to się akurat pobiera dość krótko, bo mam dobry internet, ale są ludzie, którym to się będzie bardzo długo pobierało, więc trzeba wiedzieć.
Następnie wiadomo spacja, minus, podkreślacz, dir, txt, akurat sobie wziąłem txt, czyli do jakiego folderu ma te transkrypcje robić.
Ja dałem, żeby robił na to osobny folder, bo robi tego dużo u mnie przynajmniej, zaraz pokażę o co chodzi.
Spacja, minus, minus, output, podkreślacz, format.
Właśnie, mam all napisane. Tych formatów tu jest naprawdę dużo. Więcej niż standardowy Whisper ma.
Można też każdy z tych formatów sobie wybrać. Spacja, language. Akurat mam wpisałem tutaj pl, no bo z reguły polski język rozpoznaje.
i tu już bez minusa, a potem oczywiście podstępie audio i mam tu napisane drugi raz audio, dlatego że wszystkie pliki do przetwarzania do Whisper’a mam w folderze audio, w tym folderze, w którym jest ten plik exe,
Ale tu można oczywiście wpisać nazwę pliku, ale ja tu wpisałem nazwę katalogu i on wtedy z tego katalogu będzie pobierał wszystkie obsługiwane przez niego pliki, ich jest dość dużo tych formatów.
Co ciekawe on na przykład jest w stanie obsługiwać listy M3U, czyli na przykład można sobie Winampem, czy czym tam, kto używa jakimś programem, wygenerować sobie listę, iluś plików w różnych folderach, zrobić z tego playlistę M3U
i po prostu dacie on do tego programu i on z tych sierzek, które są w tej liście te pliki…
A czy on może streamy w ten sposób też na żywo, w czasie rzeczywistym teraz skrypować?
Nic nie pisali o Realtime, także jest niestety szansa, że nie, ale być może się to pojawi, nie wiem, nie mam pojęcia.
W ogóle oryginalny Faster Whisper od paru miesięcy się nie rozwija, ktoś tam pisał, że
Developer się zatrudnił w Apple’u czy gdzieś i już w ogóle tego nie rozwija i teraz są różne inne tego implementacje. Znaczy nie Whisper tylko Faster Whisper.
I to jest to, o czym Michał mówił, czyli żeby w transkrypcji opierał się na tym, co rozpoznał w poprzednim tekście.
Znaczy w poprzednim powiedzmy zdaniu, to znaczy chodzi o to, żeby teoretycznie nie było tu jakichś większych rozbieżności, że raz to samo słowo rozpozna, napisze inaczej, inny raz inaczej, natomiast to właśnie może powodować i często powoduje różne problemy.
W przypadku rozmów, w przypadku rozmów takich standardowych, to nie ma problemu, to jest okej.
Natomiast jeżeli mamy właśnie jakąś syntezę, jakieś dźwięki różne, te pliki nie są mową, to to lepiej ustawić na false.
Tak, ja to ustawiłem wcześniej na true, dlatego że testowałem te algorytmy, ten V2, V3 i sprawdzałem właśnie jak to się zachowuje.
I potem jest taki, taki barometr, którego chyba nie ma w oryginalnym whisperze.
Minus VAD, spacja TLE.
VAD, czyli Voice Activation Detection.
To znaczy, że Faster Whisper, oryginalny zresztą też,
miał możliwość wykrywania sobie tego, co nie jest mową
i jakby omijanie tego, w ogóle nie, nie, no, whisper w ogóle nie rozpoznaje tego,
To, co według niego mową nie jest.
Tu można ustawiać jakieś sensitivity, czyli wrażliwość na tą mowę.
Czas, kiedy jakby taki minimalny czas, znaczy takie okienko, w którym on patrzy, co jest mową, co nie jest.
Czy ile jakby ma, ile ma trwać minimalnie ten, to coś bez mowy, żeby on to potraktował jako właśnie coś bez mowy, to można sobie tutaj ustawiać.
Jest przełącznik minus minus help i chyba minus H też, tak mi się wydaje, w którym on oczywiście pokaże wszystkie możliwości jakie ma, ich tam jest troszkę.
No i tak, ruchomie sobie ten Whisper, ma tutaj założony jeden plik, co trwa 3 minuty z groszami.
Dobra, jesteśmy teraz na stanowisku indeksa, firma pochodzi ze Szwecji.
To jest wywiad z Rechy, trudno trwa trzy minuty.
No i ładuje.
Windows system 32 cmd exe okno terminal 120 spacja pusta.
Standalone faster whisperer 160.6 run ninton cuda.
Badch procesing 1 file sync red story recursive isof audio.
Czyli on teraz ładuje model whispera do pamięci mojej karty graficznej.
Gdyby kogoś to interesowało, to jest RTX 3070.
Starting transcription on. Audio recording 20,230,523,131,857 flats.
Wystartował transkrypcję.
0002.140,004.680. Jesteśmy teraz na stanowisku indeksa.
0005.200,006.480. Firma pochodzi ze Szwecji.
0007.5…
No i teraz tutaj w konsoli nam pokazuje, co rozpoznał,
razem z czasem tego rozpoznawania,
więc ja mu to trochę uciszę.
I w tytule okna…
Z 122.200.027D
No, nie zdążyłem.
To znaczy,
ten pisk, który było słychać, oznacza,
że program skończył pracę. To jest fajne,
że on piszczy. Niezależnie od tego,
jakie mamy otwarte okno,
program sobie zapiszczy, da nam znać,
że skończył pracę. Oprócz tego w oknie,
to sobie pozwolę
skorzystać z wtyczki
Speech History.
WIDOK LD PRO OPERAT SUBTRANSCRIPT 100-200-200-200-200-27-00-00-7.25 AUDIO SUCCESS
Czyli pokazuje najpierw 100%, potem pokazuje ile sekund na ile już zrobił i chyba gdzieś na samym końcu pokazuje ile sekund robi na sekundę.
Czyli jak szybko pracuje. U mnie robi tam 7 sekund z kawałkiem na sekundę.
Ale co ciekawe, V3 robi 10 sekund na sekundę, on jest szybszy ten V3 niż V2.
To jest ciekawe.
I sprawdźmy jakie tu są formaty plików.
W ogóle wszystkim.
Recording 20 milionów, 230 tysięcy, 523, 131 tysięcy, 857 i są 1 z 7.
Najpierw mamy JSON i to jest w ogóle plik duży.
Zobaczcie.
Rozmiar pole edycji 126 kb.
126 kilo.
I to jest w ogóle, jak to się mówi, niezła jazda, bo w nim, oprócz samej transkrypcji, to to jest w ogóle najmniej.
Segments. Bo.
It. 1. Sec. 2. Start.
Sec. 2880.
Moment. Chyba długość. Start. 2.14.
End. 4.68.
Tekst. Jesteśmy teraz na stanowisku indeksa.
Tokens. 50414.
508.
8000. 10. 16. 23.
5. 3. 6. 13. 5. Temperaturę. 0.0.
A w blok prop. minus 0.
2. 3. 5. 9. 6. 3. 9. 8.
Średnie prawdopodobne. Znaczy. Sompresjon. Ratio.
1. 3. 7. 6. 6. Nos. Pech. Prop.
Start 2.9, start 2.14, end 2.94, czyli słowo jesteśmy trwa od start 2.14, end 2.94, word jesteśmy, probability 0.653978, prawdopodobieństwo tego wyrazu 0.65.
Tu są różne takie rzeczy, jeżeli ktoś by chciał jakoś przetestować tego Whispera, sprawdzić co, jak, rozpoznał i tak dalej, i tak dalej. Różne mądrości.
Recording 20 milionów, 230 tysięcy, 523, 131 tysięcy, 857 lrc, 2 z 7.
Lrc, to nie wiem czy to jest jakiś format napisów?
Słowa, teksty, to jest do karaoke różnych. To jest format tekstów piosenek.
Recording 20230523131857SRT3-7
SRT to znamy z Whispera, to jest format tekstów, który obsługuje np. podplayer.
Można np. taki plik z Whispera dodać sobie z tą samą nazwą do pliku mp3, odtworzyć to podplayerem i podplayer będzie czytał napisy generowane przez Whispera.
To może się przydać np. gdy sprawdzamy jak te napisy były zgodne z oryginałem, to się czasami przydaje.
Recording 20 milionów 230 tysięcy 523 131 tysięcy 857 tekst 4 z 7.
Kropka tekst i to jest nie TXT tylko TEXT i to jest czysty tekst, który zaraz otworzymy.
Recording 20 milionów 230 tysięcy 523 131 tysięcy 857 TSV 5 z 7.
TSV czyli chyba do YouTube’a?
Recording 20 milionów 230 tysięcy 523 131 tysięcy 857 TXT 6 z 7.
I mamy jeszcze TXT, o co chodzi?
No początku też się zastanawiamy, dlaczego jest TXT i dlaczego jest TXT.
Otóż TXT ma czasówkę, czyli start i koniec tego, co rozpoznał.
Że to się czasami też może przydać.
Recording 20 milionów 230 tysięcy pięćset dwadzieścia trzysto trzydzieści jeden tysięcy osiemset pięćdziesiąt siedem VTT siedem z siedem.
I VTT, czyli to co też ma zdaje się Whisper.
Czyli też napis VTT raczej do YouTube’a.
No właśnie, a ten poprzedni, TSV, to też jakiś chyba format napisów.
Też jakiś format napisów, tak.
Też chyba w jakichś filmach jest.
No dobrze, to sprawdźmy ten tekst.
Chyba to to.
No to sprawdźmy.
Jesteśmy teraz na stanowisku indeksa. Firma pochodzi ze Szwecji.
Są producentami drukarek. Jednych z najlepszych na świecie w Brailu.
Przed Panem mamy indeksa Everesta. Jest to, można powiedzieć,
żela pionowa drukarka, która drukuje w Brailu.
Żela pionowa?
Ok, so jesteśmy teraz na stanowisku indeksa, firma pochodzi ze Szwecji, są producentami drukarek, jednym z najlepszych na świecie w brajlu.
Przed Panem mamy indeksa Everesta, jest to można powiedzieć żela pionowa drukarka, która…
Ha, żela pionowa.
Można powiedzieć żela pionowa.
Żela pionowa, ok, co powiedzieć.
Żela pionowa, pamiętam trochę tak się zapamiętałam.
Koniec wiersz dedyk do szkół, która drukuje w koniec wiersza.
Jest to, można powiedzieć, żelapionowa drukarka.
J to, mo powiedzieć, żelap, drukarka żelapionowa.
E, l, a, p, i, o, n.
To jest jedno słowo, żelapionowa.
Wymyśl słowo nowe tak.
Okej, no czasami tak się zdarza.
Także, no, inna rzecz, że tu jest rzeczywiście sporo tła, więc…
Natomiast tak, no, sama transkrypcja nie zanimuje mu rzeczywiście dużo czasu.
Ja też mam tę kartę, no, niby dobrą,
ale to też jest laptopowa wersja, więc podejrzewam, że na przykład Michał,
który ma 3090, no to chodziłoby to znacznie szybciej.
Muszę to przetestować.
Przetestuj, bo jest to ciekawe, zwłaszcza, że ma ten Voice Activation Detection.
To też naprawdę jest sporo w stanie tutaj tych halucynacji, nawet tej V2 wyciąć.
Więc jest szansa, że ten program będzie miał w miarę dobrą tę V2 i bez, bez jej wad,
przedniej części jakiejś dużej tej, tych wad, tego V2.
Także, no, polecam, zwłaszcza, że to jest w zasadzie pobranie jednego zipa,
rozpakowanie i można korzystać, i można, i można korzystać.
On tutaj piszczą, on pokazuje w pasku tytułu właśnie procent jaki zrobił,
pokazuje transkrypcję. Ciekawe, czy można wyłączyć czasy, żeby nie pokazywał czasów w tym wierszu poleceń, jak on to robi.
Ciekaw jestem, natomiast fajnie właśnie, że to tak wygląda. Myślę, ten program podoba i oryginalny do tej pory.
Fast&Whisper rozpoznawałem różne rzeczy, ale wydaje mi się, że będę mógł go odinstalować i używać głównie tego, tego Fast&Whisper, a to może czasem będę używał do jakichś dziwnych rzeczy, jak ktoś będzie chciał jakiś, nie wiem, nietypowy format z plików.
Także wydaje mi się, że jeżeli ktoś ma zwłaszcza kartę graficzną i może sobie pozwolić na rozpoznawanie Whisperem, to myślę, że mogę program polecić.
No i już tyle jeżeli chodzi o nasze newsy, ale mamy jeszcze wiadomości od Maćka, no to posłuchajmy co Maciek ma nam do powiedzenia.
Jeśli chodzi o te limity w OpenAI, ja sobie wszedłem w usage, rzeczywiście tak jak mówiłeś i ja tam mam niby, że nawet nie 5 dolarów, nawet 18, nie wiem skąd mi się wzięło 18.
Nie doładowywałem tak naprawdę konta, a nic. Natomiast mam 18 i tamten usage, ten zużycie jest 0%, w sumie, że jakby jeszcze nie zużyłem tego, ale nawet nie piszę czy wygasło, czy nie, znaczy jest expired coś tam, że tego, ale dziwne to jest strasznie.
Rzeczywiście albo spróbuję to ładować najpierw, albo spróbować użyć tej apki do generowania syntezy i zobaczyć, czy z tym ten klucz mi zadziała tak naprawdę.
Bo ja rozumiem, że jednym kluczem się mogę do tych różnych rzeczy posługiwać, tak? Nie muszę tworzyć tysiąca, do tysiąca różnych rzeczy, tylko mogę jednym tym kluczem.
No faktycznie Piotrek, dzięki za cynk, za naprowadzenie z tym nieszczęsnym płatnym planem, rzeczywiście te środki mi jednak kurcze wygasły, teraz podczas generowania próby, w zasadzie generowania syntezy pojawił się błąd, że potrzebuję tu płatnego planu i tak dalej, więc to wychodzi na to, że tu jest problem, póki co dzięki raz jeszcze wielkie serdecznie.
Mi zostaje tylko uzupełnić, że jak temat sprawdzałem na forum, to wyczytałem, że faktycznie kiedyś to było 18 dolarów, ale po czasie stwierdzili, że ludziom właściwie wystarczy 5 do przetestowania, więc dla nowszych konto jest 5, więc to musiało faktycznie być konto utworzone jakiś czas temu, jak jeszcze było 18, no ale te kredyty po prostu wygasły.
No standardowe pytanie na koniec, na które akurat sam sobie odpowiem twierdząco, czy macie coś na koniec, bo ja akurat mam coś na koniec i to jest news z Eleven Labs, o którym u nas często,
to albowiem w Eleven Labs pojawiła się na razie w wersji alfa możliwość tak zwanej konwersji mowy na mowę.
Ja wiem, że to brzmi dziwnie, bo co tu konwertować? Otóż chodzi o konwertowanie głosu, tzn. zmianę głosu.
Czyli ja mogę powiedzieć coś, głosem nie swoim, np. Michała.
Jeżeli bym go sobie wgrał, a kiedyś go wgrałem, żeby zrobić newsy do Tyflu Przeglądu.
Testowałem, no, tylko że na razie to działa niekoniecznie dla wszystkich dobrze, że tak powiem, dlatego, że to działa na razie tylko na angielskim modelu.
W związku z powyższym, no, ma to dość mocno z angielszcza to wszystko, co się do niego powie.
Głosy są powiedzmy, że w miarę podobne, choć mam wrażenie, że nie tak bardzo jak w tych modelach V2, ale nie tak mało jak w V1.
Nie wiem co tam się dzieje, w każdym razie tam są jakieś zmiany, przy czym, no bo podejrzewam, że kilku czy kilkoro słuchaczy może tutaj znać na przykład takie oprogramowanie jak RVC,
czyli no coś podobnego, tylko że za darmo i każdy będzie mógł, tzn. każdy może tego używać.
I tak, tyle że są dwie różnice. W zasadzie, tzn. taka jedna różnica jest główna, o którą mi chodzi,
tzn. RVC głos ten źródłowy do docelowego tak kropka w kropkę próbuje zmienić, tzn. jeżeli ja coś zaśpiewam,
to ten głos docelowy również to zaśpiewa, dokładnie tym samym głosem, na tej samej wysokości, więc tutaj trzeba uważać na przykład, jak konwertuje się głos męski na żeński, odwrotnie, żeby sobie, jak to się mówi, przetransponować ten głos.
tam jest w programie, w tym RVC, coś takiego jak transpozycja, można sobie ustawić o ile putonów ma ta transpozycja się zrobić, w górę czy w dół, natomiast tutaj nic takiego nie ma i to ma, no, takie dwie, znaczy, przede wszystkim, no, nie trzeba o tym myśleć, to się po prostu samo dzieje, głos męski na żeński, żeński na męski jest zamieniany od tak.
Dawałem mu też takie mieszane próbki, w których mówił raz mężczyzna, raz mówiła kobieta i on sobie też z tym poradził.
Natomiast tego wszystkiego jest, natomiast jest jeden taki problem powiedzmy z tym wszystkim, że to coś nie umie w ogóle śpiewać.
Jeżeli da mu się coś śpiewanego, to on nie będzie tego śpiewał, on to będzie mówił w rytmie, troszeczkę wznosząc ten głos, tak jakby śpiewał, ale też nie do końca.
On tu mimo wszystko próbuje zrobić to troszeczkę tak, jakby ta osoba naśladowała mnie, jak ja to mówię.
to tak bym to nazwał. Czyli jeżeli mamy powiedzmy profesjonalnego lektora, który czyta książkę i mam sklonowany na przykład głos swój, ja bym na przykład czytał wszystko w taki sposób, to mimo tego, że lektor czyta tę książkę bardzo dynamicznie, to ten mój głos pewnie byłby znacznie mniej dynamiczny.
Oczywiście rytm by się zachował, tej mowy, w stu procentach, natomiast, no, oprócz tego, że barwa byłaby moja, to jeszcze byłaby moja, może nie to, że intonacja, ale taka, takie, takie ramy intonacji, w której to mówię, to znaczy, to mówię ja tylko, że kładąc akcenty dokładnie tam, gdzie kładzie akcenty ten oryginalny lektor,
podnosząc głos, obniżając, mniej więcej tak jak ten lektor podnosi i obniża głos, ale mimo wszystko trochę po mojemu.
Więc oni tu się skupiają tak właśnie na tym, żeby lektor mówił to, czy tam ten głos wygenerowany, mówił to tak, jakby mówił to właśnie on.
Natomiast w związku z tym, że są na przykład w Eleven Labs takie głosy, które mają ładną barwę i są takie dość fajne, tylko trudno im powiedzieć, jak konkretnie mają coś powiedzieć.
Jeżeli mam jakiś krótki tekst, typu na przykład chciałbym mieć intro do podcasta, które brzmi dokładnie na przykład tak, że na początku mówię coś wolno,
Czy na przykład chciałbym nagrać swoim głosem, że Fundacja Instytut Rozwoju Regionalnego prezentuje Tyflo Podcast.
To mógłbym dokładnie to zrobić, wybrać sobie jakiś miły głos, bo podczas generowania głosu to bywa, że te głosy wybierają się takie dość ładne.
ale w związku z powyższym, mógłbym wybrać głos i rzeczywiście zrobić sobie intro wypowiedziane własnym głosem, o ile oczywiście umiałbym to tak w miarę wypowiedzieć,
ale powoli wchodzimy rzeczywiście w taki czas, kiedy ja nie muszę mieć, nie wiem, cudownej barwy, mogę mieć swoją barwę, tylko muszę mieć jakby umiejętności aktorskie w zakresie takiego,
to muszę mieć dobrze opanowane, powiedzmy, operowanie tym głosem.
Tego zawsze jesteśmy w stanie się nauczyć, głosu sobie nie zmienimy.
Tak, tego teoretycznie można się nauczyć, w związku z powyższym.
No ciekawe co teraz będzie, bo też czytam sobie czata na Discordzie
i tam ktoś właśnie z Eleven Labs pisze, że przełożenie tego na model wielojęzyczny
To nie jest taka bardzo trudna sprawa, więc prawdopodobnie w jakiejś przyszłości, niezbyt dalekiej, jeżeli chodzi o wprowadzanie nowych funkcji, więc to raczej nie na dniach, tylko na tygodniach, ewentualnie miesiącach.
Ale może jeszcze w tym roku, być może na początku przyszło kontakt o Cediam, ale nie wiem, zobaczymy. Być może nie.
Być może uda się to wprowadzić do modelu takiego międzynarodowego i być może będziemy mogli np. wymienić sobie oprawę Tyffla Podcaster,
bo np. ten tekst o tym, że jesteśmy do Państwa dyspozycji coś tam, coś tam, coś tam, coś tam, powiedzieć głosem takim bardzo lektorskim.
Także myślę, że jest na to pewna szansa, no i tyle chyba ode mnie, bo ten news rzeczywiście pojawił w trakcie audycji, ja tutaj w trakcie audycji starałem się troszkę potestować ten model, także.
Ale spokojnie naszych głosów Eleven Labs w audycjach nie zastąpi.
Z reguły.
Tak, chyba.
W dłuższej przyszłości, z reguły.
Choć ja naprawdę nie byłem taki tego pewien, to znaczy inaczej.
Ja naprawdę się nie zdziwię, jak kiedyś właśnie
trzeba by było przeczytać jakieś newsy, jakieś heady, właśnie jakieś coś
i nie zdziwiłbym się, gdyby właśnie można było,
któryś z nas mógł te heady, czyli ten skrót newsów powiedzieć
i potem to przedstawiłby głos na przykład Midziego, bo tak.
I wcale bym się nie zdziwił, gdyby to nie brzmiało wcale źle,
bo jak testowałem to na syntezie mowy,
to niestety synteza potrafiła przekręcać różne słowa, zwłaszcza obco brzmiące.
I myślę, że szybciej by było, gdybym ja to nagrał swoim głosem,
przepuścił nawet przez ten głos właśnie twój
i po prostu umieścił to potem w audycji.
Na razie też jest taki problem, że maksymalna długość pliku, którą obsługuję, to jest 25 sekund, więc niezbyt dużo, ale to też miejmy nadzieję, że się zmieni.
A z ciekawości, jak to wtedy liczy znaki?
Chyba tysiąc znaków za minutę.
A, swoją drogą.
Nie najgorzej.
Ale wiesz Tomku, to jest jeszcze jedno zastosowanie, ale to już wybiegamy bardzo w przyszłość.
Jeżeli Eleven Labs kiedyś coś takiego zaoferuje w czasie rzeczywistym na przykład, no załóżmy, że jest taka sytuacja jak teraz, masz powiedzmy niedyspozycję głosową, zachowałeś sobie głos gdzieś tam na serwerach i mimo tego, że męczy Cię jakaś tam powiedzmy chrypka albo inne rzeczy tego typu, jak to jesienią, no to słyszymy Cię bez jakichś tam różnych dziwnych artefaktów.
Wiesz, ale ja zrobiłem jeszcze inną rzecz, bo ja zachowałem swój głos z taką dużą chrypą, to znaczy wiecie, pamiętacie jak ja na samym końcu miałem taki bardzo niski głos.
No tak, tak.
I ja nagrałem parę zdań takim właśnie niskim głosem, wróciłem do Eleven Labs, na razie na jakichś plikach, no bo nie chciałem tutaj się nagrywać gdzieś tam w trakcie audycji, więc postanowiłem przerzucić przez ten głos coś i to brzmiało fajnie.
Także czasami nawet chrypa się może przydać. Ja spróbuję może na jakąś przyszłą audycję coś przygotować z mojego głosu, tylko trzeba pamiętać o tym, że to będzie mocno zangielszczało.
Natomiast takie kreatywne wykorzystanie swojego głosu nawet w chorobie może mieć swoje ciekawe konsekwencje i wcale nie takie złe.
A to się akurat zgadza, natomiast w ogóle no możliwości jakie daje nam AI i jakie dawać będzie to rzeczywiście chociażby pozwoli na zachowanie naszego głosu, kiedy jest on w pełni sił, powiedzmy tak, z takich raczej powiedzmy poważniejszych rzeczy, dajmy na to no chociażby lektor, tak, o jakimś bardzo charakterystycznym głosie, wiadomo, że ten głos będzie się starzał, a nie każdy głos starzeje się ładnie.
Więc to też się zgadza, a ten sam lektor może spokojnie nadal czytać, powiedzmy, książki, czy tam robić swoją pracę, wykonywać, no bo wie, jak to zrobić, tylko po prostu, no, powoli przestaje go słuchać aparat mowy, także, no, ja bym na, to tak się zastanawiam, czy gdybym był na miejscu lektoru, a to, czy bym tak strasznie narzekał na tę sztuczną inteligencję,
bo ona się jeszcze może okazać, że poprawi, chociaż niekoniecznie, wiadomo, jak to jest.
Natomiast myślę, że takie rzeczy, no nam myślę, że to raczej się przyda niż zaszkodzi.
Zdecydowanie.
I tyle ode mnie. Pytanie, czy ktoś coś jeszcze znalazł.
Ale cisza. W związku z powyższym chyba kończymy to 209. wydanie Tyfro Przeglądu.
za tydzień, miejmy nadzieję, dwieście dziesiąte wydanie, no i wszystkim zdrowia życzę, bo ostatnio dużo różnych, różnych chorób, zwłaszcza właśnie gardła, no ta sztuczna inteligencja jak znalazł, jak znalazł, taka konwersja głosu.
A tymczasem spotykamy się, to taka refleksja. Oprócz ciebie, to z całą ekipą pozostałą, czyli z Piotrkiem i z Pawłem spotykamy się już dziś, bo to już po północy.
Rzeczywiście.
Sądzę niecałe dziewiętnaście godzin.
Tak, zgadza się.
Także do usłyszenia.
Tak, także no cóż.
Tomek Bilecki, ja jestem.
W zasadzie przed chwilą
Michał zapowiedział resztę.
Także no cóż.
Dobranoc Państwu chyba w takim razie.
Dobrej nocy.
Był to Tyflo Podcast.
Pierwszy polski podcast
dla niewidomych i słabowidzących.
Program współfinansowany ze środków Państwowego Funduszu Rehabilitacji Osób Niepełnosprawnych.