TyfloPrzegląd Odcinek nr 158 (wersja tekstowa)
Pobierz napisy w formacie SRT
Pobierz napisy w formacie VTT
Fundacja Instytut Rozwoju Regionalnego prezentuje Tyflo Podcast.
Dzień dobry, dzień dobry. 158. audycja Tyflo Przeglądu.
Dzisiaj w bardzo mocno określonym składzie, bo oprócz mnie jest Michał Dziwisz i Paweł Masarczyk.
Dobry wieczór.
A ja to Tomek Bilecki.
No i dzisiaj 158. jak się rzekło, audycja Tyflo Przeglądu.
No i żeby nie przedłużać, Michale, co to się dzisiaj będzie działo w tym Tyflo Przeglądzie?
W tym tygodniu w Tyflo Przeglądzie.
Pierwsza beta i speaka na iOS.
Analogowy budzik z wibracjami w ofercie Altixu.
Adapter Ankera pozwala na podłączenie MBO smart headset pod USB-C.
Reakcje na wiadomości z iOS powinny niedługo wyświetlać się na Androidzie.
Słuchawki z przewodnictwem kostnym od Xiaomi.
Wszystko to, a pewnie jeszcze więcej już za chwilę. Zaczynamy.
Ja od razu mogę powiedzieć, że znacznie więcej.
Znacznie więcej i to za sprawą Pawła, który po prostu w tempie błyskawicy, co prawda…
Nam nawrzucał.
Tak, nam nawrzucał, tak. Paweł nam nawrzucał.
Tak, tak, to prawda. Dzisiaj będzie mnie dużo w tej audycji.
No to co, warto powiedzieć na pewno, że można się z nami kontaktować na Facebooku.
Warto się z nami kontaktować na stronie kontakt.tyflopodkast.net.
Można dzwonić na Zoomie.
Tylko prosimy na mnie wrzucać.
Tak.
Chyba, że jakieś ciekawe newsy.
A to tak, to można.
No i można oczywiście też pisać czy kontaktować się w aplikacji Tyflo Podcastu napisanej przez Dawida Piepera.
Zanim zaczniemy informacje z newsów i rozszerzone, to jeszcze powiem coś takiego, co bardzo mnie cieszy.
To znaczy, w poprzedniej audycji mówiłem, że ta aplikacja VoiceMod, czyli ta aplikacja do zmiany głosu jest nie bardzo dostępna.
Otóż okazuje się, że jednak jest dostępna dla przedniej czytnika NVIDIA.
Tyle, że dobrze jest włączyć ten tryb, jak to się nazywa, uproszczonego przeglądania.
Znaczy wchodzimy sobie w kursor przeglądu i jest tam coś takiego jak tryb prostego przeglądania.
I to warto sobie zaznaczyć.
I wtedy, gdy sobie chodzimy po tym oknie VoiceMod, to w pewnym momencie zaczynają się takie coś jak Grafica Favorite.
On to będzie czytał, czyli jakieś tam dodanie do ulubionych.
I w tym momencie, jeżeli obiektówką, czyli insert 6 numeryczna przejdziemy sobie w prawo, usłyszymy nazwę tego głosu, który chcemy,
na którym jesteśmy w pewnym sensie i wtedy po naciśnięciu insert enter numeryczny, nie pamiętam jaki jest odpowiednik w klawaturzach laptopowych, można sobie ten preset włączyć.
Jeżeli to będzie głos nowy, czyli ten beta, czyli taki neuronowy, to jeszcze przed nazwą będzie napisane new, beta i dopiero nazwa tego głosu.
Najpierw będą ulubione, tam jest chyba 20 ulubionych domyślnie, potem będą głosy wszystkie, więc nowe i stare, ale już niekoniecznie ulubione.
Można też dodawać głosy, które są tworzone przez społeczność, one są na jakichś forach, na serwerach Discorda i przynajmniej jest forum, co się bardzo łatwo dodaje,
bo wystarczy, tam jest link spreparowany, po prostu enter naciskam na linku i wtedy ten głos się dodaje do Voice Moda i wtedy one zdaje się między ulubionymi a wszystkimi, tak mi się wydaje.
Też ulubione można sobie uruchamiać, ulubione z menu kontekstowego, gdy jest w panelu powiadomien Voice Mod, tam można wejść w menu kontekstowe i są głosy dodane do ulubionych.
Tam jest chyba zakładka ulubione i do każdego z tych głosów można sobie dodać skrót kawiszowy, to też jest nawet jakoś tam dostępne.
W związku z czym można sobie ten program jakoś tak jakoś obsłużyć, podejrzewam, że zrobimy o tym jeszcze osobną audycję na temat całego Voice Moda,
bo podejrzewam, że niejednej osobie może się ten program przydać, może nie w jakimś bardzo profesjonalnym użyciu,
ale myślę, że do jakiejś zabawy dźwiękiem, do jakichś kreatywnych, nie wiem, może słuchowisk, może czegoś.
No program może być jakoś tam przydatny, kosztuje na razie około 70 złotych w jakiejś promocji.
Nie wiadomo ile ta promocja potrwa, normalnie chyba kosztuje troszeczkę ponad 100 złotych, więc i tak nie jest źle.
Twórcy twierdzą, że co miesiąc coś tam do programu jest dodawane, więc zobaczymy jak to będzie wyglądało de facto.
Zobaczymy jak będzie z dostępnością tego programu, bo tam nic nie jest napisane na temat dostępności,
więc czy to jest taki stan chwilowy, że ten program jest dostępny? Oby nie.
Czy jednak ta dostępność się będzie zwiększała? Oby, tak, mam nadzieję.
Zobaczymy, w każdym razie, póki co program jest dostępny i można sobie ten program mieć.
No to teraz zaczynamy od newsów, które przygotowaliśmy, a zaczynamy od newsów Pawła, których będzie bardzo dużo,
ale zaczynamy od tekstowych wskazówek w mapach Google i takim alternatywnym przeglądaniu tych wskazówek.
Tak, bo są dwie metody jak do tych wskazówek dotrzeć. Po co coś takiego nam jest?
No na przykład po to, że jeżeli chcemy się gdzieś wybrać i jesteśmy na tyle samodzielni,
że same opisy, którą ulicę trzeba skręcić, jak trzeba przejść, co nas po drodze czeka, nam wystarczą
i nie chcemy koniecznie polegać albo nie możemy na GPSie, na nawigacji na żywo,
no to możemy takie wskazówki chcieć pozyskać. Podobnie gdybyśmy w prosty, szybki sposób chcieli sprawdzić,
jak z punktu A do B dojedziemy komunikacją miejską w dowolnym mieście, gdzie tylko Google to wspiera.
No i taką podstawową metodą jak to zrobić jest wpisanie w Google odpowiedniej frazy.
Możemy wpisać sobie z Jana Nowaka 5 do Adama Kowalskiego 7 i wtedy Google inteligentnie nam pokaże,
jak tą trasą przejść. Tam będzie przycisk rozwijany, każda z alternatywnych opcji trasy będzie miała swój przycisk rozwijany
pod oczywiście nagłówkiem, gdzie jest napisana trasa i wszystkie opcje ma w Google.
No i my rozwijamy ten przycisk i wtedy pokazują nam się w formie takiej listy elementów wskazówki,
ile minut będzie trwał konkretny krok, albo ile powinien trwać, no i co mamy zrobić,
żeby przejść na taką ulicę, żeby wyruszyć przede wszystkim na północ lub na południe,
przejechać linią taką to a taką, w kierunku takim a takim, no więc tego typu rzeczy możemy zrobić.
Te wskazówki są wtedy oczywiście w języku polskim, natomiast jest interfejs alternatywny, interfejs tekstowy
i to jest w ogóle ciekawe opowiedzieć o tym, skąd się w ogóle biorą takie pomysły na interfejsy tekstowe,
a no bo są takie osoby, które w dzisiejszych czasach no nie są zadowolone z tego, jak internet wygląda,
że strony internetowe są ciężkie, że mają mnóstwo reklam, jakiś algorytmów,
jakichś ukrytych mechanizmów, są skomplikowane jak chodzi o interfejs z jakimiś nowoczesnymi elementami,
które z tym, czym na początku był internet to niewiele wspólnego mają i czasami nawet bardziej przeszkadzają niż pomagają
i osoby takie, a są to bardzo często zwolennicy jakiejś technologii open source,
osoby, które tak naprawdę dalej są jakby w tym klimacie pierwszych komputerów, czyli takiego powiedzmy sprzętu,
który kiedyś był elitarny dla osób, które no chciały się bawić komputerami, zobaczyć co się komputerem da zrobić.
I to też w lipie wsi hakerzy, no bo słowo haker nam się dziś kojarzy z jakimś to łamie zabezpieczenia,
bardzo często w jakimś złym celu, żeby nie wiem włamać się do systemu, albo tam okraść bank, albo okraść nas z jakichś danych,
a tak naprawdę haker, tak na początku hakerzy to były osoby, które po prostu grzybały przy komputerach, kiedy te komputery były jeszcze takim
no elitarnym towarem, że wiele osób zastanawiało się, a po co to komu, jak nie pracuje na uczelni i nie chce robić jakichś skomplikowanych obliczeń,
a co to może być w sumie dobrego dla przeciętnego użytkownika.
No i takie osoby też pamiętają pierwszy internet, pierwsze strony internetowe, które były no tylko i wyłącznie linkami,
łączącymi jeden tekst z drugim tekstem, hyperlink, dlatego i czytam hypertext, tego HTML, hypertext markup language,
no czyli język składniowy, który nam pozwala na podlinkowywanie ze sobą tekstu.
No więc takie strony były bardzo proste, tam był w zasadzie tekst, linki, no pewnie jakieś nagłówki, listy i tak dalej, najbardziej podstawowe elementy HTML
i niewiele więcej. W zasadzie żadnych obrazków, a jeśli tak to w małych ilościach, bo przecież kiedyś bardzo się zwracała na to uwagę,
tak, łącza były wolniejsze, więc obrazki się też ładowały, więc zwracano uwagę na to, żeby tych obrazków nie ładować w dużych ilościach
i przez to te strony były dużo bardziej proste, no i w konsekwencji też dla nas bardziej przystępne gdzieś, ale przy okazji też bardziej przystępne dla urządzeń,
które nie wspierały jakichś bardzo skomplikowanych przeglądarek czy mechanizmów renderowania, jakieś powiedzmy pierwsze telefony z przeglądarkami,
tekstowe przeglądarki na przykład na systemy uniksowe, linuksowe w terminalu, jeżeli ktoś tak lubi.
No i są osoby, które w duchu takim rozwijają swoje strony i w ogóle troszkę czasu spędziłem w ten weekend przeglądając tego typu strony.
Jest bardzo fajna wyszukiwarka tego typu treści, która się nazywa WIBE, przez W, kropka, M, E, no i tam można wyszukiwać sobie
najróżniejsze właśnie strony w duchu takiego starego internetu, pierwszych stron internetowych.
Tak dla osób, które chciałyby się trochę zanurzyć w historii, natomiast nad tej fali wypłynęła właśnie taka strona, czy powstała strona
gdir.net, która jest takim tekstowym generatorem właśnie wskazówek nawigacyjnych z Google.
Strona jest bardzo prosta, mamy na niej dwa pola, miejsce początkowe i miejsce docelowe.
Możemy też wybrać sobie, w jakim trybie chcemy wyruszyć, czy to ma być nawigacja piesza, czy komunikacją miejską, czy samochodem.
Wybieramy sobie jakieś preferowane środki transportu, jeżeli to jest komunikacja miejska.
Komunikacja miejska jest w ogóle tam polecanym trybem, ponoć była najbardziej testowana i autor strony gwarantuje, że to na 100% zadziała jak powinno.
Ja testowałem na nawigacji pieszej i to działało całkiem fajnie, przynajmniej na tych trasach, które testowałem.
Tam jest też pole kombi z wyborem kraju i ja ten kraj wybierałem na początku, ale stwierdziłem, że to nie ma sensu.
Sprawdziłem, działa, można wyszukiwać i bez kraju.
Możliwe, że w jakimś konkretnym przypadku to nie zadziała, więc warto pamiętać, że to tam jest, ale nie ma potrzeby, żeby się tym za każdym razem kłopotać.
Można też wpisać w którymś z pulu adresowych nazwę miejsca, aczkolwiek potem jako wynik otrzymamy i tak adres,
więc musimy raczej znać adres tego miejsca, żeby mieć pewność, czy na pewno wyszukało się to miejsce, którego szukaliśmy i którego chcieliśmy.
Kiedy już sobie to wyszukamy, jest nam generowana stronka z różną ilością tras, w zależności od tego ile jest alternatyw i jest to pięknie zrobione,
bo dla każdej z tych alternatyw, dla trasy nr 1, dla trasy nr 2 i tak dalej jest osobny nagłówek
i pod tym nagłówkiem jest tylko lista iluś elementów i możemy przeglądać sobie tą trasę.
To jest niestety w języku angielskim już tylko i wyłącznie, natomiast są to na tyle krótkie i proste komunikaty,
że translator sobie z tym poradzi, a pewnie i większość z Was raczej w dużej części zrozumie, o co tam chodzi,
bo to są proste rzeczy typu turn left, turn right i tak dalej.
Autorzy strony piszą, że jedną z grup docelowych, którą mieli na myśli tworząc tę stronę są osoby niewidome, więc tym lepiej.
Ja też myślę, że to jest fajna alternatywa dla osób korzystających z na przykład Blindshella,
bo jest to prosta strona, która się nam dość szybko załaduje i zawiera tylko najpotrzebniejsze elementy.
No i mogę tylko też tak historycznie przypomnieć, że kiedyś Google miało taką dedykowaną stronę,
gdzie można było takie w interfejsie specjalnym wygenerować sobie wskazówki tekstowe do nawigacji,
natomiast po jakimś czasie to zamknęli, tego długo nie było, no a teraz jak widać wróciło i jest,
więc gdybyście chcieli w ten sposób sobie wytyczyć trasę, no to istnieją dwa sposoby
i który dla was bardziej przemawia, to wy możecie już sobie wybrać.
No to teraz chyba mój news, znaczy mój, myślę, że wszyscy tutaj, cała nasza trójka coś o tym wie, natomiast
oj tak, oj tak
ja to wpisałem, więc ja o tym powiem może, no bo nadchodzi ESPIC na iOSa i ESPIC to jest taki syntezator,
który część ludzi uwielbia, część nienawidzi, w sumie trudno znaleźć takiego człowieka,
dla którego byłby to taki syntezator neutralny, w każdym razie, no
Wiesz co, to cię zaskoczę, bo to chyba ja jestem właśnie takim człowiekiem, jak muszę to używam,
ale szczerze powiedziawszy nie rozumiem nad nim zachwytów, ale nie przeszkadza mi.
Znaczy to jest, wiesz, chyba jedyny syntezator, przynajmniej na Windowsa, do niedawna,
który był takim syntezatorem, który zajmował mało zasobów, który był taki dość szybki, no i taki
I wspierał tyle języków, to trzeba mu przyznać.
I wspierał tyle języków, oczywiście, to się zgadza i tyle w pewnym sensie głosów, no bo on miał tych wariantów bardzo dużo,
znaczy ma nadal, ma nawet coraz więcej, no i
no nadchodzi na iOSa, to znaczy, że jest na razie w wersji beta, czyli jest na TestFlight, nie wiem ile tam ma tych slotów,
ale nam się udało wszystkim chyba pozapisywać, jest możliwe, że tam jeszcze tego trochę zostało, chociaż nie wiem.
W każdym razie, no, chyba w ogóle pojawiło się to wszystko w niedzielę, więc to jest absolutna świeża sprawa.
Te bety wchodzą co kilka godzin, tak mi się wydaje, nieraz, więc w poniedziałek to było jeszcze tak, że to nie działało,
w poniedziałek w południe to działało, w poniedziałek chyba wieczorem została dodana jakaś możliwość wprowadzenia słowników,
zdaje się, użytkownika. Były jakieś problemy z jakimiś przerwami, one też tam są kolejno usuwane,
więc no, sprawa się posuwała do przodu bardzo szybko i w sumie trudno tutaj mówić o jakimś statusie tego,
jak to wygląda w tej chwili, bo to się zmienia właśnie bardzo szybko.
No i miejmy nadzieję, że to się niedługo pojawi w App Store, no i ci, którzy wyczekiwali na SPK, na przykład ja,
ja na przykład bardzo rozważam już, nie wiem czy przejść się na iOS, ale w każdym razie na razie mieć jako to drugi smartfon.
No to wtedy to by chyba piekło zamarzło.
Ale ja to już od dawna mówiłem, że jedną z takich kluczowych kwestii, dla których nie mam jeszcze, czy może dla których mam Androida,
jest obecność SPK RH Voice na tym systemie. Ja wiem, że to może głupie brzmi, jak człowiek nie przechodzi na inny smartfon
ze względu na brak konkretnego syntezatora, ale no, tak to wygląda, w związku z czym mam nadzieję, że to się zmieni,
no i zobaczymy, może będę hulał po świecie z iPhone’em.
To ja tu jeszcze do tegi twojej Tomku wypowiedzi dorzucę to, co do nas napisał Nuno. Ja wam nawrzucam zaraz, hehehe.
Powiem najpierw o eSpeak’u na iPhone’a, to by nie powaliło na kolana. Działa świetnie i jestem bardzo dumny z faktu,
że kilkanaście linijek mojego kodu wylądowało w programie. Na chwilę obecną wersja 1.0.6 występuje w tej wersji błąd,
który sprawia, że literowanie czyta nieprzetworzone tagi SSML, ale to się wyklepie, jak to mówi klasyk.
Inny bug polega na tym, że przynajmniej na wysokich prędkościach eSpeak urywa końcówki i przykleja je do początku kolejnego zdania.
Tak, to jest problem rzeczywiście. On występuje od prędkości 80, bo 75 to jest ostatnia prędkość, na której to nie występuje, ten błąd.
Przynajmniej jak ja to testowałem. Niestety nikt nie wie, o co w tym chodzi, ale ktoś coś nieco spróbuje z tym zrobić.
Następnie chciałem wam powiedzieć o aplikacji Unwrap na system iOS.
Apka służy do nauki programowania na platformie Apple, ale w porównaniu do rzeczy typu MIMO, SoloLearn i inne takie,
których nazw nie warto nawet wymieniać, kursy są faktycznie robione przez profesjonalistę i faktycznie możemy się czegoś nauczyć.
Do każdej lekcji tekstowej jest dokładnie ta sama lekcja w wersji wideo i to jest słowo w słowo to samo,
czyli co kto woli. Kursy oczywiście po angielsku. Bawiłem się jeszcze aplikacją Playgrounds od Apple i to też jest fajne,
ale Unwrap od pana Paula Hudson’a mi przynajmniej dużo bardziej odpowiada.
Szczerze poza Unwrapem polecam hackingwithswift.com, hackingwithswift.com.
Na Maca polecam jeszcze dwa programy, które eliminują konieczność używania dwóch aplikacji webowych, czyli dla mnie ideał.
Pierwsza aplikacja to program Yate będący klientem serwisu YouTube ze wsparciem dla rozdziałów, komentarzy, subskrypcji i tym podobne,
a drugi to aplikacja Swiftcord będącym w pełni natywnym klientem Discorda.
No to sporo tu nam Nuno polecił różnych ciekawych aplikacji, dziękujemy ci za te polecajki.
Jeszcze tak a propos eSpeak’a, to ja muszę dodać, że niestety z moich obserwacji po instalacji tego syntezatora,
mimo restartów, mimo robienia różnych rzeczy, ja mam wrażenie, że mi ta synteza zwolniła.
Nie wiem czy wy też odnieśliście takie wrażenie, to znaczy responsywność jakby spadła.
Tam jest jeden konkretny problem i ten problem, ciężko powiedzieć, prawdopodobnie leży po stronie Apple,
bo podobny problem miał Eloquence w betach iOSa 16, czyli że VoiceOver dzieląc sobie tekst,
który będzie podawany syntezie na konkretne takie łańcuchy, ciągi, na kawałki, podaje te kawałki tak,
że między tymi kawałkami jest odczuwalne opóźnienie i wydawałoby się, że parametr WordGap,
czyli przerwa między wyrazami, który jest w aplikacji tej, która się nam instaluje wraz z syntezą eSpeak,
by to zmieniał, ale nie, to nie ma żadnego wpływu, to jest coś, co idzie bezpośrednio z VoiceOvera
i zdaje się, że dodatkowo jest jeszcze problem z przeładowywaniem tych silników,
czyli nawet jeżeli my zmienimy silnik z eSpeak’a na któryś z tych wbudowanych głosów VoiceOver,
czyli de facto nawet zmienimy chyba bibliotekę, która jest używana do obsługi tych głosów przez VoiceOver,
tam musi być jakiś problem, albo z wyładowywaniem tej biblioteki, albo z jakąś inną procedurą,
bo on chyba dalej myśli, że my używamy czegoś z tej biblioteki AV, audio unit tej nowej właśnie do syntezatorów.
I to jest coś, co jest już zgłoszone jako błąd na GitHubie, pytanie czy osoba zajmująca się tym portem
eSpeak’a na iOS-a jest w stanie cokolwiek z tym zrobić, czy tutaj ruch należy do Apple.
To co, może dla porządku protokołu ja jeszcze przemonstruję krótko jak to mówi ten nasz eSpeak,
bo ludzie nie uwierzą jak to słyszą. To co teraz usłyszycie to nie jest żadna mistyfikacja,
to nie jest, że ja tutaj wgrałem inny screen reader na Android’a, wzmieniłem pakiet dźwiękowy,
tylko…
Tylko troszkę cicho jest.
Tak, tak, tak, jakbyś mógł to, Pawle, zrobić głośniej.
Trochę szybko pewnie też.
Oczywiście to jest przerwa mniej więcej, jak chodzi o to, i to niestety jest też w tekście widoczne,
jak tylko gdzieś się pojawi przecinek, średnik, jakikolwiek znak przestankowy, który daje znać screen readerowi,
że tutaj będzie następny kawałek tekstu, więc warto tą pauzę jakąś zrobić.
No ta pauza jest dłuższa niż być powinna.
Mimo to ja od właśnie poniedziałku, jak to już zaczęło działać, używam sobie tego jako,
że tak powiem, daily drivera, jako podstawowej syntezy i już obsługuję wszystkie moje aplikacje, które zazwyczaj obsługuję.
Da się do tego przyzwyczaić, powiem tak.
Zważywszy na to, że tu można trochę bardziej sobie pozwolić na rozkręcenie szybkości,
to jak najbardziej ja jestem w stanie czytać i to, co najlepsze, nawet teksty właśnie angielskie,
czy coś polską syntezą, chociaż w sumie bym nie musiał, to działają jak trzeba.
Ja może pokażę, jak to wygląda w ustawieniach tak jeszcze szybciutko.
Kiedy już zainstalujecie taką tą aplikację, przede wszystkim jak ją zainstalujecie z linku z platformy TestFlight,
z linku, który będzie podany w komentarzu pod audycją, to najpierw tą aplikację otwórzcie i przystąpcie do wszystkich tych procedur.
Się klika najpierw dalej, potem się klika rozpocznij test, rozpocznij testowanie i wtedy dopiero ten syntezator jest zarejestrowany w ustawieniach.
Może być tak, że trzeba będzie zrestartować aplikację, być może trzeba będzie zrestartować, no może i nawet telefon,
ale w końcu Wam to jakoś zadziała.
Jeszcze pytanie techniczne szybkie, czy mnie słychać?
Tak, tak, słychać, słychać.
Bo zoom pluje tutaj komunikatami, że połączenie nie jest stabilne, ale dobrze.
No więc jestem w ustawieniach, otwarliśmy aplikację, zamknęliśmy.
Sama aplikacja, ja jej nawet nie pokazuję, bo ona na ten moment służy tylko temu, żeby zademonstrować, że głosy mówią i czytają i wszystko z nimi jest okej.
Więc my w sumie nie będziemy w tej aplikacji specjalnie spędzać zbyt wiele czasu, przynajmniej na ten moment, póki nie wprowadzono w niej jeszcze żadnych funkcji.
Szukaj, masz sugerty w plukie, kropki w czatku, centrum z ekran, ekran pod dostępność, przycisk, ruch i motoryta, audio deskrypcja, zawartów ekran i wieczor, mojceowe, ulełki.
Tutaj warto zauważyć, że nie są nam narzucone słowniki Apple’a, więc jeżeli lubimy, jak nam synteza czyta tak jak się pisze,
bez żadnych praktycznie no wyjątków, oczywiście e-Speak ma swoje, wiadomo i wszyscy je znamy,
natomiast to co nam tu Apple dokłada, różne opcje, wymowy, najróżniejszych słów, tak jak to być niby powinno, to już tutaj nam to odpada.
Jest Wojce over, App Store i Facebook i wszystko, wszystko co tylko się z tym wiąże.
To jest mój wariant głosu, więc widzicie, że tutaj obok tych głosów naszych Krzysztof Ewa,
co prawda one nie są zgrupowane jako vocalizer, czy tam głosy domyślne,
one sobie tu są jako te osobne głosy, natomiast czwartym głosem, który się tam teraz pojawił
jest e-Speak NG, aktualnie ustawiony na wariant Robert i kiedy tu wejdziemy,
to mamy różne warianty i możemy je nawet pod pokrętłem przetestować.
Teraz tych w ogóle wariantów trochę doszło, ja sobie z tego nie zdawałem sprawy,
ale się okazuje na przykład, że taki jeden mi się, tak na przykład coś takiego jest teraz głosem e-Speaka.
No i tego typu głosów efekciarskich jest troszeczkę, w związku z czym myślę, że warto przetestować,
na pewno jest to ciekawe, ja też chciałbym zwrócić uwagę na to, że dla nas to jest powiedzmy jakiś gadżet,
coś takiego, co nam sprawia, że inaczej brzmi głos, może jesteśmy do niego bardziej przyzwyczajeni,
może mamy więcej tych śmiesznych wariantów, może można sobie na większą prędkość pozwolić,
jak ktoś jest przyzwyczajony itd., natomiast dla osób, zauważcie, że teraz jak wszedł e-Speak,
to weszło około 70 języków i dla wielu osób oczywiście wiadomo, im bardziej egzotyczny język,
tym bardziej ten e-Speak jest prawdopodobnie mniej dokładny i mniej reprezentatywny,
jak chodzi o wymowę tego języka, natomiast zawsze jest to coś, jest to myślę dla osób,
które w danym języku mówią jako języku ojczystym lepsze niż nic, no i w tym momencie naprawdę wiele,
wiele osób po raz pierwszy w życiu, po raz pierwszy w historii firmy Apple może skorzystać z ich produktów.
I ja myślę, że to też nie jest bez znaczenia.
To się zgadza.
Wiemy też, że RH Voice już jest opracowywany też chyba na iOSa, że to jest coś, co się dzieje.
Jakieś prace trwają, natomiast na razie jeszcze żadnej bety nie ma.
Ale miejmy nadzieję, że wkrótce coś zobaczymy i będziemy również mogli to przetestować.
Ja tak jak powiedziałam, nie mam iPhone’a, ale udało mi się małżątki przetestować
i zdaje się, że mamy słuchacza na antenie.
Mamy słuchacza, jest z nami Patryk.
Przynajmniej na to by to wskazywało, że jest, bo na razie…
Tak, chyba jest, co prawda słyszy…
Jesteś w porównaniu do nas wszystkich dość głośno.
Tak, a wy u mnie bardzo cicho.
To w ogóle ciekawa…
Z takim poziomem…
Ciekawa rzecz.
O, teraz się wyrównało.
Wiem. Wiem, bo sobie tu dostosowałem go delikatnie dobrze.
Powinno być…
iPhone, Espic, słowa kluczowe działają prawie jako dróg Pawłowa,
więc witam się z wami ponownie co któryś tydzień.
Słuchajcie, zacznę od łyżki dziekciu.
Ja bym tych języków, przynajmniej na razie, powiedzmy sobie otwarcie, to jest beta,
nie przeceniał, dlatego że w tym momencie, przynajmniej jak testowałem to jeszcze z jakiejś dwie godziny temu,
wszystkie języki, których dotychczas iOS nie miał,
to były puste, niezetekidowane wpisy sortowane przed całą listą,
bo siło rzeczy iOS nie zna o nich informacji, co to za język.
Więc nie przeceniałbym.
Może to będzie naprawione,
ale trudno, żeby na przykład, nie wiem,
iOS, według kodu chyba niestandardowego, w ogóle innego niż kod ISO,
obsługiwał jakiś tam język typu lingwa frankanowa.
Tak, więc przygaźmy światła.
Natomiast może coś się w tej kwestii zmieni i będzie dobrze.
Tak, to żeby też nie było.
Bo Bespeak, pamiętajmy, obsługuje kilka sztucznych języków,
na przykład Lojban, na przykład Esperanto,
które siłą rzeczy chyba w systemie, w ogóle nie ma języka systemu,
więc trudno, żeby on wiedział jaki to jest język.
Tak.
No to też prawda.
Widzę, wszedłem sobie w Afrikans.
Widzę, że jest głos Robert.
Dodaj nowy język.
Tak.
Albański.
Dobrze, czyli widocznie wyszło coś, co poprawia
albo co jeszcze się u mnie nie zaktualizowało na binarce,
bo mówię, sprawdzałem dosłownie parę dni temu.
Ale nie, nie dodało się do tego, nie dodało się do pokrętła.
W sensie wróciło mi do menu poprzedniego,
ale pokrętlałem tylko te języki, które miałem wcześniej.
Czyli widocznie…
No dobrze, czyli jest coś pomiędzy,
bo jeszcze niedawno było 50 pustych wpisów
i 30 parę obsługiwanych języków.
Tak.
No tak.
Dobrze, to dobry znak, trwają prace.
Dobrze wiedzieć.
Po prostu miałem na wersji chyba 1.0.3,
albo 4, albo 5.
Nie, to na przykład na iOSie 11
właśnie piątka, piątka, piątka
robiła w ogóle totalne cyrki
z tą listą języków.
Natomiast
przyznajmy jedną rzecz Apple’owi
i trzeba za to Apple bardzo pochwalić.
Mnie
ESPIC zirytował.
Zirytował na tyle, że po prostu mam
test flight, ale kliknąłem
dziś w desperacji odinstaluj,
żeby mi synteza odzyskała pierwotną prędkość.
Synteza normalna.
Zosia, Ewa, Krzysztof.
Prędkość czy responsywność?
Responsywność.
Ja po prostu stwierdziłem, że wrzucam
białym ręcznikiem o podłogę i odinstalowuję.
I dopiero wtedy synteza
zaczęła działać tak jak należy.
A czy przeruchomiałeś telefon?
Oczywiście.
I nawet z restartu
tego emergency.
Tego co zapisuje debug.
Oczywiście, że tak.
Po prostu niestety samo to,
że dodany na przykład jako polski polska
zapasowy na pokrętle jest ten
język, inicjuje nam cały
silnik ESPICA,
a co za tym idzie, ten silnik cały czas
czuwa, bo pamiętaj, że Ty możesz
zawsze w locie zmienić ustawienie, że on
jest nagle Twoim domyślnym, albo on jest nagle
ESPICiem dla języka Afrykans
i on nie może czekać, aż się załaduje,
bo strona w Afrykans
ma tekst w Afrykans i polskie słowo
ESPIC, on cały czas musi być na podrędziu.
I z tego wynikają
Twoje Michale chyba obserwacje,
że mimo tego, że to już jest Zosia,
Ewa, Krzysztof, to on cały czas
tam coś tam gdzieś tam z tą baterią,
z tym językiem, z tym
pauzami, tak, są to
bardzo słuszne obserwacje, bo ESPIC
cały czas musi być na podrędziu i ten sam
problem miał eloquent we wczesnych betach.
No tak i zresztą
w ogóle ja mam takie,
jeszcze jedną taką obserwację, dosyć
ciekawą, że jeżeli sobie
ustawimy dwa języki
na pokrętle i się będziemy
między nimi przełączać,
ESPIC i eloquence
właśnie, to
jeżeli tego
ESPICA ustawimy na prędkość większą niż
75, czyli
na przykład 80, czyli
tam, gdzie te końcówki zaczynają
mieć problemy
i przełączymy się,
będziemy się jakby przełączać między
jednym a drugim, to w przypadku
tej konfiguracji
ta końcówka gdzieś tam nam się nie
nie
powtórzy, to jest złe słowo,
bo ona się oczywiście nie powtórzy, bo
synteza się zmieni, ale czasem
jest też tak, że ona po jakimś
czasie jakby zostaje
dopowiedziana w tej samej sesji.
Tak. I
jeżeli mamy parę właśnie
ESPIC eloquence, to się
to nie dzieje.
Prawda. To jest ciekawe.
Co więcej, można tym sobie
usztknąć jedną czy dwie poprawne wypowiedzi
ESPICA na tam stówce.
Bez powtórzonej końcówki.
Tak. Tak, zgadza się.
A potem wraca
wszystko do normy i są nie dość, że
długie pauzy, to jeszcze są te
powtórzenia. To może Arek też
jako ktoś, kto tam troszeczkę
zna ten kod, to coś powie.
Będzie umiał coś więcej powiedzieć, natomiast tak
dokładnie tak jest. One
się lubią
w pewnym sensie, natomiast jeżeli zmieniamy
ESPIC Vocalizer,
bo mamy taką parę koło siebie,
to ta zmiana jest niemal momentalna.
Ewidentnie widać, że to są dwa ich równoległe
silniki
załadowane.
Jest bardzo szybka zmiana. No i ja myślę, że
warto też podkreślić to, że
nie ma się martwić o to, o co
wielu z nas się martwiło, czyli
co się stanie, kiedy taki
syntezator osoby trzeciej się wysypie.
Tak, właśnie, do tego zmierzałem tym,
że odinstalowałem dziś ESPICA.
Tak, tak, tak, to jest kolejna rzecz.
Odinstalowałem aplikację.
Nie używałem tego języka
wtedy, używałem domyślny,
bo system akurat
teraz mam po polsku,
więc język
systemu też był domyślny, czyli głos Zosia,
a polski Polska zaraz obok
niego na pokrętle był
ESPICiem.
Kiedy odinstalowałem ESPICA,
polski Polska po prostu
zostawał pominięty na pokrętle,
a w opcjach
miałem piękną informację
języki pokrętła, tam miałem
około 30 akurat dodanych w tym momencie
i jeden rodzynek nagłówek
nieskonfigurowanej języki, polski Polska
głos niewybrany.
Także
w przypadku
kontrolowanych działań typu
odinstalowanie syntezatora,
nie zostaniemy z ciszą. Nie wiem, co się stanie,
jeśli byśmy na przykład
nie wiem, nagle
jeżeli ona faktycznie uległaby jakiejś awarii
takiej sensownej syntezy.
Ja to testowałem na aktualizacji, po prostu na
włączonym ESPICu,
który mówił i był moim domyślnym głosem,
zrobiłem update w test flight.
Tak, ale aktualizacja to jest też wszystko kontrolowany
scenariusz, aplikacja jest prawdopodobnie
notyfikowana, że ups, mnie tu na chwilę
nie ma. Ja mówię bardziej o sytuacji,
gdy kontroler
SSMLowy, ten wysyłający do syntezy
myśli, że cały czas wysyła,
a synteza binarka nie odpowiada na przykład.
No dobrze.
Tu może być fajnie,
ale no właśnie mówimy o środowisku
iOS, macOS,
o środowisku, gdzie dość trudno o
takie coś,
choć niestety dodanie syntezatorów firm
trzecich proporcjonalnie te
powierzchnie ataku.
Zwłaszcza, że to jest beta nadal.
W beta może być wszystko.
Pomijajmy to, znaczy pomijajmy,
powtarzajmy to na każdym kroku
jak mantrę, to, że to działa
fajnie, ale to jest beta
i tu się może dziać wszystko.
Tak i jakby nie wolno
mieć pretensji o to, żeby na przykład
beta spowodowało, że nam coś
stanęło wybuchaniami.
I no…
w beta się używa na własne
ryzyko i to ryzyko jest realne,
więc jakby no uważać
z betami wszelkiego
autoramentu na urządzeniach
jakby głównych,
bo może się nagle okazać, że
telefon nam z jakiegoś
powodu zamilknie, bo
ESPiC może być uruchomiony, ale nam
nie wypowiadać czegoś, bo nie,
ale on będzie w pewnym sensie działał,
no więc może być różnie.
Dokładnie, więc o to mi
chodzi, czy wtedy te procedury bezpiecznego
przejścia do syntezy znanej
zadziałają?
Bo powiem szczerze,
żeby, trzeba to też oddać ESPiCowi,
beta 6 nie udało mi się
go wysypać.
Udało mi się go zawiesić,
tak, ale zawieszenie się
aplikacji spowoduje, że się trochę telefon
nagrzeje i za parę sekund bezpiecznie
nie wróci, tam z jednej wypowiedzi
nie usłyszę i on wraca, więc
wygląda na to,
że mechanizmy
działają. Pawła nie mamy
na linii.
No to pewnie zaraz się pojawi,
pewnie zaraz wróci.
Akurat następnym w razie czego news, aż sam
sobie poczytałem, więc w razie czego
mogę go przedstawić.
Tak, no na pewno szkoda, że Pawła
nie ma, bo wyszedł jeszcze iOS 16.2
beta 1
przy okazji, parę dni
temu, to nie wiem, czy mówiliście w tych
rozprzeglądzie. Nie.
No właśnie. Chyba. Teoretycznie
niczego nowego i niczego odkrywczego
nie ma. Nie zauważyłem
przynajmniej, żeby. Natomiast mam wrażenie,
że ten kursor i ta żywotność baterii
jest jeszcze troszeczkę lepsza niż
16.1.
Dostaliśmy aplikację
Freeform, o której się powiem, szczerze
nie wypowiem. To może Ty Michale, to jest
więcej. To jest taka… A nie, przepraszam.
To Arek mówił.
To Arek mówił i był bardzo
zadowolony i szuka
osób, które chciałyby z nim to
potestować.
O proszę bardzo, no właśnie.
Ja troszeczkę nie
znajdowałem zastosowania
w moim codziennym trybie pracy
z telefonem, ale może to będzie
ciekawy bodziec w sumie.
Wiesz co, wydaje mi się, że
tak naprawdę
możliwości do
zastosowania tego to jest naprawdę
dużo i ja
gdzieś tam pracując też dość
często z osobami widzącymi
w różnych sytuacjach,
to ja się z tego
bardzo cieszę, bo
zwłaszcza pracując
w zespole, co zresztą nam też potwierdziła
Paulina w poprzedniej
audycji, kiedy opowiadała
o swoim udziale
w Hackathonie, bardzo dużo
osób widzących pracuje
na tego typu narzędziach, tego typu
tablicach, na których
to gromadzi się różne myśli,
pomysły
no i ok, może to nie
jest dla nas
najbardziej efektywne narzędzie
do pracy. Gdybyśmy
mieli sobie sami
wybrać jakieś
narzędzie, na którym chcielibyśmy pracować
no to pewnie coś
lepszego by się znalazło, tylko
kwestia jest tej pracy grupowej
i tu wydaje mi się, że tu się naprawdę
spore możliwości otwierają. No i fajnie, że mamy to
od tak zwanego strzała, że to jest
aplikacja na pokładzie telefonu po prostu.
Dokładnie. Więc tym
kolejnym raz
apel zyskuje po prostu.
Tak, więc
to jest rzecz nieprzetestowana. Mamy
jakąś taką ogólną stabilność
dopóki nie ma BSPiKa
w tym VoiceOverze w końcu.
Dopiero w tym 16.2
ja już mówiłem o tym, że 16.0
się nie ma co bać, ale
w tym 16.2 on jakby zyskał na sprawności.
Niestety nadal jest ten problem, Michale
z Canal Plusem i tego typu aplikacjami,
że po prostu jeżeli coś koniecznie chce
pełny ekran, to on go tak zaangażuje, że
będzie pełny ekran i że po prostu wejść tam
w te niektóre miejsca to
będzie cud nad Wisłą. Nawet miło
nawigacji grupowej, która działa
w zewnętrznych appkach jak działa.
W AppLoskich działa bardzo dobrze, w zewnętrznych
nie każda aplikacja to implementuje
tak jak trzeba.
Czy coś tam jeszcze
tak, no błędy z
AirPodsami, ja mam akurat AirPodsy trójki, no to też
jeden raz zdarzyło
mi się coś, co w 16.0 i 16.1
było nagminne, czyli one się potrafiły
rozsynchronizować i stracić audio w ogóle na
bezpieczny czas do tam
15 sekund do time outu i zamiast się
odłączyć oczywiście wszystko wracało, sychronizowało się
tak jak trzeba, no ale
jednak, no po co to komu, tak?
Zostajemy gdzieś w środku komunikacji miejskiej
bez syntezy, no to teraz zdarzyło mi się to tylko
raz, więc chyba nie jest
najgorzej.
Czy coś jeszcze tak na szybko?
Chyba
na razie nie, jeżeli coś to albo
dzwoni się ponownie, albo
dam znać na kontakt
tylko podcast,
tak żeby zostało albo
czytane, albo żeby się odnieść do tego jeszcze
ewentualnie, także na razie jest
to chyba tyle.
Nie wiem, czy macie coś jeszcze
do dodania? Na chwilę obecną
chyba nie, Paweł
wrócił w międzyczasie.
Tak, ja tylko chciałem potem powiedzieć,
że z tym speakiem jest jeszcze taki problem
właśnie, może Patryk już to uzupełniał w międzyczasie,
że jeżeli go używamy
i restartujemy telefon,
to może być taka sytuacja, że on się nam
odezwie na ekranie
kodu, wpisywania kodu, po czym
po odblokowaniu ekranu wskoczy nam
znów Zosia
i trzeba będzie znowu
przerestartować, wyłączyć, wyłączyć
aplikację z paska, wejść do ustawień
voice over, żeby to się tam
ładnie przeładowało wszystko i
on znowu zacznie mówić, ale…
O to widzisz, Paweł, że to ja nie miałem takiego problemu, natomiast
beta 6 mówi w ogóle, też
warto dodać, notki testerskie
z beta 6 mówią, że już teoretycznie
nie jest potrzebne o uruchamianie tej aplikacji,
żeby on się zainicjował.
Będzie mieć takie problemy, że już teraz
coś tam powinno być naprawione,
że w ogóle nie.
Ja widziałem, że też na Maca jakieś pierwsze próby
działania zostały. Tak jak uniwersalna binarka,
nie mam jak tego przetestować, ale ponoć,
ponoć po prostu ta sama,
która jest iOS-owa, ten obiekt AU,
Audio Unit, powinien
teraz działać też na Macu.
Zainstalowany tak po prostu.
No tak.
No i też potwierdzam z
dwóch niezależnych źródeł,
zbliżonych głównie do
kraju aktualnie ułowianego z Wąsławą,
czyli do Rosji, no ale z drugiej strony
sama Olga jest z Rosji,
że, tak, Olga jest z Rosji, dobrze
pamiętam, że RH Voice
pełza.
Powoli, ale jednak.
Tak, to też słyszałem.
Kilku źródeł mamy potwierdzone, także
no i jest w takim razie
bardzo duża szansa.
Tak, wstępnie mówi się o test
flycie do końca roku albo i szybciej.
Becie
o jakiejś stabilce w ogóle
w przyszłym, nie wiadomo,
w przyszłych pierwszych miesiącach
2023. Znając parcie
niewidomych,
będzie szybciej.
Jeżeli tylko technikalia pozwolą.
No ja się wcale nie dziwię, powiem szczerze, bo to
no RH Voice to jest…
Wiesz co, ja się troszkę dziwię, ja się troszkę dziwię, bo
zauważyłem, że zmniejsza
mi to jednak produktywność ta
dobrze, no mówimy cały czas o becie i ja
cały czas to będę powtarzał, ale
obciążenie jakie
daje ten silnik Audio Unich
to jest spore.
I ono dodaje pracy takiej
nierówności, bo z jednej strony transponsywność
pomiędzy flikiem w prawo a flikiem w lewo
jest, no
zadziwiająca, żeby nie było, jest bardzo dobrze.
A z drugiej strony takie rzeczy, typu
pauzy, typu co któryś flik
to jest jednak chwila
takiej przerwy.
Miejmy nadzieję, że to są choroby wieku
dziecięcego. Zawór standardu
jak i syntezatorów.
To też prawda.
No to jest też pierwsza wersja iOSa,
która na to pozwala.
No nie no już trzecia, 16.2.
Tak, ale no jakby pierwsza taka główna,
to nie działa powiedzmy od
dwóch lat, tylko to działa od
miesiąca
w takiej wersji stabilnej. No i
pierwszy syntezator, są pierwsze beta
też syntezy, więc to jest wszystko to jest tak naprawdę
w pewnym sensie. No nie no z drugiej strony Eloquence
jako concept demo
było od początku.
Tak, ale to pewnie było
przy jakiejś dużej współpracy z Applem, tak?
To po prostu jest zewnętrzny deweloper.
No tak, i wszyscy musimy się tego nauczyć.
Więc, więc
no właśnie. No zobaczymy jak
to będzie dalej wyglądało.
Które z syntez już dostępnych
na komputerze zostanie
przeportowane na iOSa, które z
syntez, które są niedostępne
na komputerach zostaną
przeportowane na Apple, a bo przecież
filmy robiących syntezator jest sporo
i być może. Tak no to jest to
o czym mówiliśmy chyba dwa tyfle o
przeglądy też akurat wtedy
wdzwoniłem się pamiętam
z Pawłem żeśmy debatowali, że
Wintoker już coś tam
przebąkuje o wprowadzeniu swoich syntez
na platformę iOS, nie mamy
konkretów. Znaczy o iOSie
nie słyszałem aż tyle, na razie był
chyba fokus na Windows z tego co wiem
ale tam bardziej dyskusja była
w stronę, że
w przyszłości smartfony będą mieć te
czipy neuronowe, czyli
już niektóre mają, ale że będzie
ta sztuczna inteligencja na pokładzie jeszcze
lepsza na tyle żeby właśnie
syntezę neuronową można było przetwarzać.
Tak, bo oni się teraz bardzo tak poszli
w takie w ogóle nowe technologie
w Wintokerze. No ale
kojarzę, że w tym wystąpieniu z Clubhouse
było też właśnie
o iOSie i o smartfonie ogólnie
jako platformie, no bo na
Android Wintokery były.
Jakby jeszcze Wintoker był po polsku to by w ogóle było
wspaniale, ale no
tak, jest co jest.
Też prawda.
Jakieś pierwsze, słuchajcie właśnie, wiedziałem
że o czymś miałem mówić. Jakieś pierwsze
jaskółki tego o czym Ty Pawle
mówiłeś, kilka tyfla przeglądów wstecz
czyli poprawiania
słowników w różnych językach
obserwujemy.
A propos głosów Vocalizer jeszcze.
Powolutku coś tam się
czyści. Dostaję informację od kogoś
kto ma aktualnie system po angielsku
bo ja mam akurat po polsku
że music chociażby jest
naprawione na music przynajmniej
w Krzysztofie i Ewie
w ZOSi zostało tak jak
zostało.
Dobrze wiedzieć.
To są zawsze miłe zmiany. Ciekawe czy te kwestie
akcentowania i tak dalej zostały
też poprawiane? Bo tam był
jakiś problem chyba?
Akcentowania na ostatnią sylabę?
Przekonamy się myślę z czasem.
Tak jest.
No dobrze
Patryku, to
co?
Nasze
news? A, okej. Patryk
się pożegnał. No to w takim
razie przechodzimy do zegara
analogowego
który jest dostępny w ofercie Altixu
ale analogowy zegar z wibracjami
to jest coś ciekawego.
Tak i tutaj
podziękowania dla naszego
słuchacza Piotra
który
podsyła nam takie
najróżniejsze ciekawostki
i dzięki niemu mamy gdzieś kilka
naszych newsów.
No i jest też zegar. Zegar z Altixu
zegar w ofercie
firmy Altix, bo
wnoszę, że
jest w jakiś sposób wyprodukowany
przez firmy
albo przynajmniej na zlecenie
w cenie 180 złotych
i co my za te 180 złotych
mamy? Ja już tu
przeczytam opis ze strony.
Analogowy udźwiękowiony brajlowski zegar
biurkowy z kostką wibracyjną
umożliwiającą osobom
niedosłyszącym lub głuchym
wyczuwanie ustawionego alarmu
budzika.
Zegar posiada kwarcowy mechanizm,
dużą tarczę z dużymi dotykowymi
oznaczeniami,
tak,
plastikową
kopertę otwieraną na godzinie 12
i usytuowane na tylnej budowie
pokrętło do ustawiania wskazań godzin
i minut.
Godziny i minuty można także ustawiać
dotykowo otwierając kopertę
palcem ustawiając kropki godzinowe i minutowe
w właściwych pozycjach np.
dwie kropki na godzinie 12.
Koperta zabezpiecza tarczę
przed zabrudzeniem i uszkodzeniami
mechanicznymi.
By odczytać godzinę głosowo należy wcisnąć
duży płaski przycisk znajdujący się na obudowie
na godzinie 12.
Powtórne wciśnięcie tego
przycisku odczytuje bieżącą datę.
Jak już wspomniano czas
można sprawdzić także dotykiem po otwarciu
koperty. Zegar nie posiada typowych
wskazówek, zamiast nich są dwie duże
wypukłe kropki poruszające się
po dwóch okręgach o różnych
promieniach zgodnie z ruchem
wskazówek typowego zegarka wskazując
swoim położeniem godziny i minuty.
Kropka godzinowa
krąży po okręgu o większym promieniu,
kropka minutowa krąży
po okręgu o mniejszym
promieniu. Dotykając
palcem wypukłej kropki
godzinowej i wypukłej kropki
minutowej sprawdza się czas porównując
położenie kropek względem dotykowych oznaczeń
godzin. Godzina 12
prezentowana jest w postaci wypukłego
trójkąta wierzchołkiem skierowanego
w dół. Pozostałe godziny
prezentowane są w postaci długich
wypukłych kresek.
Zegar dostarczany jest z kostką wibracyjną,
którą podłącza się do niego poprzez gniazdo
mini-jack, czyli pół milimetra
znajdujące się z tyłu
obudowy. Alarm budzika
ustawiony na określoną godzinę
dzwoni, zaś kostką mocno
wibruje. Kostkę
wibracyjną można położyć pod poduszką,
by wyraźnie czuć wibracje.
Zegar posiada ząbkowane pokrętło
regulacji głośności znajdujące się na
obudowie na godzinie trzeciej.
Wyposażony jest ponadto w dużą
stabilną podstawkę.
Zegar zaśleja dwie baterie
typu AAA.
Brak w zestawie.
Średnica zegara wynosi
11 centymetrów, zaściego grubość to 6
centymetrów. No i to tyle co wiemy,
więc oferta jest ciekawa dla
osób, no nie do
słyszących, ale nie tylko.
Tu jest ta kostka wibracyjna, która
pozwala na wibrowanie
czasu.
No i jest to takie połączenie zegara,
jak słyszymy, takiego
klasycznego analogowego
z tym cyfrowym.
No więc, który mówi i
pozwala ustawiać budzik i tak dalej.
No więc ja
z tego co wiem
znam kilka osób, które
są amatorami tego typu technologii
i lubią zegary właśnie takie mechaniczne
jeszcze jak to pierwiej
było. No więc to jest to pewnie gradka
dla też takich osób.
A myślę, że jak już mówimy o firmie
Altix to warto też wspomnieć, bo
to już pewnie wiadomo, ale my o tym
w tym przeglądzie nie mówiliśmy jeszcze,
że jest też już nowy Orion,
który był prezentowany i
tutaj też troszkę nowych funkcji.
Zdaje się, że jakieś takie funkcje
terminażowo-kalendarzowe to jest też
troszkę większa jednostka niż
zwykle. No
może kiedyś dowiemy się jeszcze czegoś więcej,
może odezwie się jedno z ktoś, kto już tego
oriona miał okazję używać.
Bo
to jest ciekawe urządzenie.
No i
tak to chyba tyle w kwestii tego zegara.
No chyba, że Wy coś jeszcze chcecie
powiedzieć, coś Wam się nasuwa, jakieś przemyślenia?
No chyba nie.
I teraz będzie w ogóle
seria Twoich newsów.
Następny tutaj jest w notatkach
urządzenie,
które ma być pomocne w projektowaniu
interfersji przez osoby niewidome, interfersji
w stron, dodajmy na to, stron webowych.
Tak, no bo
my o tym też często mówimy, że
jako osoby niewidome my jesteśmy
w stanie zrobić wiele, jesteśmy też w stanie
zrobić strony internetowe.
Są szablony CMS, możemy
w nich w jakiś sposób
różne bloki, różne elementy
dodawać, w tych elementach coś
pisać, umieszać treści,
ale problem polega na tym, że
bardzo trudno byłoby nam
określić, jak to wszystko
wygląda, jak te elementy są
położone względem siebie, czy sprawia
to, że dla osoby widzącej,
która naszą stronę odwiedza, jest
to przyjemne doświadczenie, czy też nie.
Czy wygląda to jak,
nie wiem, strona pisana w HTML-u
na lekcji informatyki w podstawówce,
czy już jakoś bardziej profesjonalnie?
No zakładam, że z CMS-ów to
nawet z natury działania
samego systemu jest
trochę bardziej profesjonalne.
Natomiast
na Uniwersytecie w Maryland
postanowiono
coś z tym zrobić, żeby jednak ten
nasz dostęp do tego typu informacji
i struktur był troszeczkę większy
i byśmy mieli trochę większe
wyobrażenie o tym, jak
to ma działać.
I ja tu właśnie patrzę, żebym czegoś
nie przekręcił. Natomiast
to ma być
taka magnetyczna plansza,
czyli mi się tu przypomina
to, o czym mówiliście chyba
jakiś czas temu, czyli te
piłkarzyki, tak? Ta taka plansza
do, to boisko wirtualne w Australii,
które jest teraz testowane
do podziwiania meczy piłki nożnej.
Tak, tylko na tej planszy to miała być
bodaj sama
jakaś taka
magnetyczna, taki magnetyczny dysk,
który by się tam miał przesuwać.
Tam nawet nie miały być
jakieś
figurki tych zawodników,
tylko po prostu sama plansza
z tym dyskiem, żeby można było obserwować,
gdzie jest piłka. Tak, tak.
To tu mamy też planszę magnetyczną,
tylko mamy na niej najróżniejsze
jakby takie
powiedzmy zapięcia czy klamerki, takie
klamry, które reprezentują
różne elementy na naszej
stronie. I my możemy te klamry
przesuwać, możemy je
kurczyć, możemy je rozszerzać
i w momencie, gdy my to robimy,
no to system wykrywa, że my
dokonujemy jakieś zmiany tutaj w tym
w tym interfejsie graficznym,
opowie nam troszkę o niej, zrobi taką
audiodeskrypcję, co to za element, gdzie on
się aktualnie znajduje, jakiego jest rozmiaru
i tak dalej.
Po czym dokona tej zmiany,
którą my mechanicznie wywołaliśmy na planszy
no w naszym interfejsie
po stronie cyfrowo,
po stronie układu
graficznego strony.
Ponoć w testach tego urządzenia
bierze udział również osoba niewidoma, która
gdzieś tam na tym uniwersytecie albo studiuje,
albo jakoś jest z nim związana.
No i oczywiście
jak to zwykle w takich artykułach bywa, słyszymy,
że po raz pierwszy w życiu
mogła poczuć, jak to jest,
tak naprawdę widzieć ten interfejs.
No zobaczymy, ponoć
te strony, które tu są generowane są dość
proste,
ale też te informacje, które
odbieramy to jest więcej niż jesteśmy na ten
moment w stanie odczytać
czy przekonać się screenreaderem,
więc no ja jestem ciekaw
jak to się dalej rozwinie, jeśli się w ogóle
rozwinie, jeśli w ogóle to kiedykolwiek wyjdzie
do komercyjnego użytku.
Natomiast no sam pomysł jest ciekawy,
chętnie bym sobie kiedyś takie urządzenie
zobaczył i je też
przetestował.
Pozostając w tematach około
software’owych, znowu
Paweł, nowości w grach.
Tak, nowości w
grach, tych nowości jest troszeczkę.
Ja jak zwykle
polecam sobie wziąć
zasubskrybować newsletter
biuletyn Audio Games
Digest, który współtworzy między innymi
jeden z naszych słuchaczy i
redakcyjnych kolegów, Piotr Machacz,
bo dzięki temu co miesiąc
będziecie wiedzieć o tym, co dzieje się
takiego w grach audio.
A dzieje się trochę, bo
w samym październiku wyszło
kilka tytułów, które są warte
uwagi, no jak i
wyszło też parę aktualizacji
i
wydarzyło się też parę rzeczy
lub wydarzy jeszcze,
które w jakiś
sposób tam są istotne,
jeżeli byśmy chcieli
sobie coś fajnego pograć.
No i cóż to za nowe gry nam się
ukazały w ciągu tego miesiąca.
They’ll come from the moon.
Jest to gra, która wyszła stosunkowo
z tego, co widziałem niedawno.
Jest to gra,
która jest grą rytmiczną
typu call and response, czyli
ktoś do nas woła,
coś wykonuje,
jakieś zawołanie do nas
wykonuje, coś zaśpiewa,
jakąś sekwencję, my mamy na to
odpowiedzieć.
Gra wyszła na czas, bo
mimo, że jest grą rytmiczną,
to sama jakby akcja jest
dość taka hororystyczna,
trochę taka
przerażająca z elementami grozy.
No i wyrobili się chyba developerzy
na Halloween.
I
zaczynamy jako
narrator, który opowiada nam o chłopcu,
który słyszy
jakieś tam tajemnicze ostrzeżenia,
że ktoś przyjdzie z księżyca,
że coś
się dzieje.
I mamy dwoje bohaterów,
Zoe i Denisa,
których prowadzimy
przez inwazję zombie.
Właśnie za pomocą
naszych działań jakby rytmicznych
w tej grze.
O, chyba
tu muzyka nam poleciała.
Tak, więc
Ale już jest okej.
Tak, to się właśnie dzieje w grze
They’ll come from the moon.
I jest to gra, która jest
dostępna jak najbardziej dla osób niewidomych
i jest ona dostępna
na platformy Windows
oraz iOS, gdzie
wersja na
Windowsa jest
dostępna.
Będzie link oczywiście w komentarzu do całego
biuletynu, więc będzie można się zapoznać, ale
tu nie wynika, czy to jest na Steamie, czy to jest
tak, o, na stronie producenta, no, zobaczymy.
Następna
gra i gra,
która wyszła na razie
jako demo koncepcyjne na Windowsie,
na Steamie, natomiast
wiosną przyszłego roku ma się ukazać jej
pełna wersja. Gra
Stories of Blossom
i jest to gra, gdzie
Clara,
główna bohaterka, czyli mała dziewczynka
siedzi sobie ze swoim dziadkiem, który
opowiada jej różne historie z
książeczki. I my jako ta Clara
tę książeczkę przeglądamy
i odkrywamy najróżniejsze takie
drobne przygody,
poznajemy
różne stworzenia, różne zwierzęta,
którym, nie wiem, mamy pomóc,
one nam coś opowiedzą,
więc jest to gra
taka, w której będziemy
przeglądać
właśnie
taką książkę z opowiadaniami
i pomagać różnym
fikcyjnym stworzeniom z tej książki
rozwiązywać ich problemy.
Gra jest dostępna ze screen readerami,
zarówno
Synthesia SAPI jest wspierana,
jak i NVIDIA na tym etapie.
Są elementy audiodeskrypcji, więc
myślę, że jest na to
czekać.
Tu jest też zmianka o
1428,
Shadows over Silesia, ale my już o tej
grze dość mówiliśmy dużo,
że
myślę, że możemy ten element tu pominąć.
Następnie
gra na iOSa
w formie Idle
MMORPG, czyli
Craftbound, czyli gra znowu taka
tekstowa,
w której żyjemy w
fikcyjnym świecie
i wytwarzamy
różne przedmioty,
gramy sobie
z innymi graczami,
wymieniamy się różnymi przedmiotami,
rozwijamy jakieś nasze
umiejętności,
wprowadzimy w
interakcje z innymi graczami.
Gra ma jeszcze pewne niedoskonałości,
jak chodzi o dostępność.
Staje się, że pewne dekoracyjne
elementy dalej są widoczne, jakieś grafiki,
które nie są nam do niczego potrzebne.
Niektóre elementy gry są ciężkie do znalezienia,
natomiast
deweloperzy aktywnie pracują nad dostępnością, więc
można się spodziewać,
że w najbliższej przyszłości jakieś
poprawki się ukażą.
Accessible
Multi-World, czyli zbiór
gier słownych na Android,
gier słownych w języku,
jak się domyślam, jedynie angielskim na tym etapie.
No i mamy tam
wisielca, zbieranie słów z rozsypanki
literowej, jakaś nawet
taka gra detektywistyczna, gdzie
używając słów
i ich układania rozwiązujemy
zagadkę kryminalną.
No więc,
jeżeli lubicie takie gry, to coś takiego
ukazało się na
Androida.
Teraz
mówiliśmy w zeszłym miesiącu o grze
Port Monde, czyli francuskim
RPG-u, a
teraz kolejna gra Coraxa, czyli
twórcy Port Monde, czyli
The Tower of Oastres,
czyli gra w takiej formie,
jak kiedyś to była gra tekstowa
w tym formacie,
czy w tym standardzie
GLULX.
I jeżeli
mamy interpreter takich gier, możemy
sobie ją pobrać i w nią
grać. Jest też wersja przeglądarkowa,
która ładuje nam taki interpreter
w przeglądarce, więc nie musimy niczego
instalować, natomiast
ponoć ma
ta implementacja pewne oczywiste błędy,
więc lepsze nasze doświadczenie
będzie, jeżeli zagramy sobie na jakimś
sprawdzonym już interpreterze
tego typu gier.
A o co chodzi w samej grze?
Jest to pierwsza gra autora
właśnie Port Monde
i
gra jest też po francusku, więc
z jakiejś translatą
się nam przyda. Jest to
typowa gra RPG,
Dungeon Crawler, czyli
będziemy eksplorować różne
podziemia i obce światy.
Możemy tu być
postacią Kolosa
Norio, możemy być
człowiekiem, albo raczej postacią
humanoidalną
lub maskotką,
która wygląda
troszkę jak taka mała mysz,
która wcześniej była
niewolnikiem.
W ogóle taka jest historia
pochodzenia tej postaci.
Mamy oczywiście
cały świat,
mamy
ponoć bardzo rozbudowane opisy
otoczenia, w którym się
znajdujemy, ale też
celem naszym w tej grze
jest pokonanie strażnika lustra.
Mamy 40
ziaren piasków
klepsydrze i
każda akcja, jaką podejmujemy,
czyli wejście np.
do pokoju na którymś pięter wieży
używa nam
jedno ziarenko w klepsydrze
no i mamy tam różne
przygody, które na nas
czekają, albo jakaś walka, albo
jakaś przeszkoda,
albo jakieś inne jeszcze czekają
na nas atrakcje, więc jeżeli lubicie
tego typu gry, no to
zachęcamy do przetestowania.
O The Klaxo Radio Hour
już mówiliśmy, więc tu nie będę się
powtarzał, jeżeli oczywiście jeszcze nie
próbowaliście, to myślę, że warto.
Coin Collector, czyli
gra na Windowsa, która jest
endless runerem, gdzie
idziemy po prostu do przodu
i zbieramy monety, które
nam na tą planszę spadają
i musimy
zebrać minimalną ilość
na dany poziom monet, żeby przejść dalej
jeżeli się nam się nie uda,
to gra się kończy i
przegrywamy. Musimy uważać,
żeby nie wpaść na drzewa,
bo to będzie nas kosztowało
monety. To wszystko,
jeśli chodzi o nowe gry na ten miesiąc, aczkolwiek
za chwileczkę powiem jeszcze o jednej
grze, która ma
w planach wyjść, ale zanim wyjdzie,
to jest potrzebna nasza społeczność
graczy potencjalnych pomoc, ale to
już za chwileczkę.
Natomiast na razie, co się w
grach zmieniło, jakie tu wyszły aktualizacje?
Linux Game
Manager otrzymał
wsparcie dla
Freedoma 2
i gier
Tobimod Deluxe.
Stardew Access
miał aktualizację do wersji 1.3.
Widzimy tu wiele poprawek
i dodanych rzeczy
w kafelkach statycznych,
komendę, która przełącza nam
syntezę mowy,
naprawione
dymki mowy i wsparcie
dla nich, wsparcie własnych kafelek
i wiele innych usprawnień.
Zaktualizowano też
grę Bob-It Emulator
do wersji 3.1, co dodaje
nowe funkcje i wiele
nieudokumentowanych takich ukrytych
opcji, tzw. easter eggów,
które naśladują te
dostępne
w oryginalnym Bob-It, bo trzeba pamiętać, że
Bob-It jest zabawką
sprzętową, początkowo amerykańską,
czyli czymś, do czego
wkładamy baterię i tam gramy
właśnie w te odpowiadanie
w coraz to szybszym tempie
i w rytmie na te
zawołania naszego przewodnika.
No i te gry to
była już taka klasyka zabawek, więc tam się
wokół tego
roztoczył pewien popkulturowy
kult i
prawdopodobnie też jest wiele easter eggów,
tak, te gry to nie tylko
taka prosta rozgrywka, ale też
wiele różnych opcji, trybów
i tak dalej.
Jeśli jeszcze nie graliście, to jest to
gra na Windowsa, która
symuluje prawie wszystkie
wydane do tej pory modele zabawki
Bob-It.
I włącznie z
wersjami extreme
1998 i
PEN, no i pewne
dodatkowe opcje również są
tam dodane.
Dość duża aktualizacja
gry WarSim 0.8.5.3
rozbudowano
system poszukiwaczy przygód,
jeżeli dobrze rozumiem, Adventurer’s System.
Tutaj myślę, że
to są zmiany, no, o których
więcej mogą powiedzieć regularni
gracze w ten tytuł.
Tu też
aktualizacja Sound RTS Ancient
Moda, który
rozbudowuje troszeczkę
kwestię tutaj zbroi.
Można
na przykład zarówno w czołgach,
jak i w tych bizantyńskich
jednostkach sobie rekrutować
najemników.
Także,
kiedy rozbudowujemy
naszą bazę,
to liczba i
długość pracy, powiedzmy,
wytrwałości
tych najemników
też się rozciąga.
Kilka poprawek
crashy wysypów
w Crime Hunterze.
Altarion
ma poprawki
październikowe co do broni,
które się nie chciały ładować.
Kolejne
powiedzmy stawy, czy takie
zbiorniki wodne, które możemy
eksplorować, możliwość wytwarzania wstążek
i medalionów. No i do dziś
w sumie z dzisiaj włącznie,
jeżeli gracie, to może jeszcze zdążycie,
ale to pewnie już o tym wiecie,
jest specjalne wydarzenie
z okazji Halloween.
No i takich rzeczy technicznych
dotyczących
oprogramowania, które się ukazało.
Gra Manamon 2
była przedstawiona podczas
wydarzenia
RPG
Limit Break 2022,
czyli taki maraton
doroczny, który
skupia się na różnych RPG,
ale podczas niego jest też zbierana,
są też zbierane
pieniądze na cele
dobroczynne. No i można obejrzeć wideo,
gdzie o grze wspomniano.
Firma 2MB Games
ogłasza, że
wszystkie
gry,
tak jak Mineracer czy
Haunted House,
zostały udostępnione za darmo.
Można je sobie teraz pobrać z ich strony.
Na ten moment
jeszcze musimy przejść przez proces
jakby zakupu, natomiast nie zostanie
od nas pobrane
żadne
koszty, żadne pieniądze,
więc można spokojnie
przez tą transakcję przejść.
No i Liam Ervin
będzie 19 listopada
organizował swój
doroczny maraton, podczas którego
będzie grał w różne gry.
Będzie można też wygrać
nagrody, więc jeżeli
macie ochotę,
to jest to wydarzenie, w którym warto
wziąć udział. I to wszystko,
jeśli chodzi o takie typowo październikowe
nowości.
Natomiast druga
gra, o której właśnie wspomniałem wcześniej,
że się ma pojawić, została
zaanonsowana,
czyli The Brave
Brain i to jest kolejne
wydawnictwo
studia Kikiriki
Games z Czech, czyli
twórców gry To The Dragon’s Cave
i ma to być quiz.
A quizów, no jak
potwierdził przykład z naszych dyskusji
zeszło tygodniowych o dostępności
nigdy za wiele.
Gra, która będzie miała
najróżniejsze pytania z najróżniejszych
kategorii, też o temat najróżniejszych krajów,
bo nawet sami
twórcy chcieliby się przekonać
jak żyje się w innych krajach,
jaka to jest kultura, jakie wydarzenia
historyczne, jedzenie, wszystko, co
tylko można się dowiedzieć.
No i tutaj do gry wchodzimy my,
bo to my możemy
zasugerować nasze własne
pytania.
Mogą to być pytania z jakiejkolwiek
dziedziny, od fizyki
jądrowej, po informatykę,
po jakieś wydarzenia, kultury,
co tylko nam przyjdzie do głowy.
Jest formularz Google,
pytania oczywiście w języku angielskim
możemy tam wrzucać
i nie jest to po nic, bo oprócz tego,
że oczywiście stworzymy sami dla siebie
tą grę, która notabene ma
w planach wyjść jakoś w marcu przyszłego roku
czy jakoś tak w miesiącach wiosennych,
tak ciężko będzie o dobrą
grę quizową, jeżeli nie będzie w niej wielu pytań.
I żeby zachęcić nas
do składania tych pytań,
to producenci
przygotowali dla nas
nagrody. I chociaż
większość z tych nagród to tak naprawdę
nagrody w samej grzecz, jakieś tam
bonusy, które na nas czekają,
jakieś plakietki najbardziej
aktywnych użytkowników, podziękowania
w napisach końcowych
i tak dalej.
To czeka na nas też
kilka takich
nagród też rzeczowych,
jak na przykład koszulki z logo gry,
jak na przykład wydrukowana
w 3D ikonka
czy takie logo, figurka,
która symbolizuje
nam logo
tej gry. No więc
myślę, że warto,
zwłaszcza, że dla najbardziej
aktywnej osoby przygotowana jest koszulka
spersonalizowana, na której
wytłoczone będzie pytanie,
z którego jesteśmy najbardziej dumni.
No więc myślę, że
warto grać, myślę, że warto pomóc
w rozwoju tej gry. No i może to jest
też szansa, żeby jakoś też
rozdeklamować Polskę i opowiedzieć trochę
o naszym kraju,
o jakichś naszych, nie wiem, zwyczajach,
wydarzeniach, kulturze,
języku, jedzeniu. Co tylko
Wam przyjdzie do głowy, kreatywność
jest Wasza, więc
The Brain Brave czeka na Was.
I to tyle,
jeżeli chodzi o newsy
z gier, ale to nie tyle,
jeżeli chodzi o ciąg newsów
od Pawła, bo tam jeszcze jest kilka.
Zostajemy przy graniu, choć
graniu troszkę w innym sensie,
bo teraz będzie grania
na instrumentach, konkretnie
na gitarze, bo pojawiła się
aplikacja Let’s Play,
w zasadzie dostępny kurs
gry na gitarze z przykładowymi
utworami w Brailu.
Tak.
I jest to coś, do czego mamy
dostęp wszyscy, o ile
oczywiście znamy język angielski,
bo jest to inicjatywa
przygotowana przez jedno z konserwatoriów
muzycznych w
Austin, w Teksasie.
No i
co mamy w pakiecie? Mamy w pakiecie
kurs gry na gitarze
z lekcjami audio
przygotowanymi przez
dwóch nauczycieli właśnie z tego
konserwatorium.
Mamy
instrukcje właśnie takie wstępne,
jak z gitarą postępować, jak na niej grać.
Mamy
polecony na stronie dostępny
stroik do gitary,
aplikacja, która pozwoli nam dobrze zestroić
właśnie nasz instrument.
No i mamy bibliotekę przykładowych
utworów. Z tej biblioteki można
sobie cały zestaw tych utworów
zamówić jako
wersję fizyczną. Oczywiście
to jest forma, która byłaby trochę ciężka
do zrealizowania, zwłaszcza, że
tu do Polski musiałyby te
utwory przepłynąć z Teksasu.
Natomiast na szczęście można
również za darmo pobrać te utwory w formacie
BRF, więc możemy je sobie
na własną rękę gdzieś tam wydrukować
lub zgrać na jakiś notatnik
Brailowski czy też monitor.
No i myślę, że warto się zainteresować.
Są również te same utwory w formacie
PDF. Prawdopodobnie, aby
osoba widząca, która z nami pracuje, miała
też wgląd
w te utwory. Natomiast
jeżeli ktoś już od jakiegoś czasu nosił się
z zamiarem nauki
gry na gitarze,
no to myślę, że jest to
ciekawe miejsce, żeby
zacząć. Jest to strona internetowa,
wszystko na tej stronie znajdziemy.
Ja tak jeszcze zaglądam
do wypowiedzi
waszych, do tego, co
do nas piszecie.
No i tu na przykład jeszcze
Nuno napisał już jakiś czas temu
to a propos syntezy mowy,
że jeszcze mniejszy od
e-speaker, jeżeli chodzi
o głosy, to byłby w ogóle speak,
no bo
one my tu mają 122 kilobajty,
wyjątki 768
bajtów,
a cóż tu jeszcze?
Znaki ASCII
468
bajtów. To tak
jeszcze a propos tego,
co do wielkości syntez
i tego typu kwestii.
No to chyba zostały
moje drobne newsy
na sam koniec.
Przepraszam, coś mi się nie wcisnęło.
To nic, ja tutaj
myślę, że mogę opowiedzieć
o tym, co zostało, a zostały nam
dość
krótkie, takie rzeczywiście
drobne newsy.
Jeden z nich mogę wam nawet
zademonstrować.
Posiadam iPhone’a 13 Pro,
którego
teraz odblokuję.
Tak, to jest e-speaker.
Ja w tym momencie
spróbuję
wyłączyć iPhone’a.
Czy ktoś może mi przypomnieć, jak się wyłącza iPhone’a,
bo ja cały czas zapominam to menu
wyłącz jak się
uruchamia.
No nic.
Ja go wyłączę
sobie tak po prostu,
bo okazuje się,
że to, co
mają iPhone’y 14, czyli dźwięk
na uruchamianie i na
zamykanie systemu, czyli
włączanie, wyłączanie naszego iPhone’a,
no to w iPhone’ach starszych,
na przykład w 13, ale
ponoć też w niektórych SE
jest też
na iPhone’ie, na iOS-ie
16.1 dostępne.
Co prawda tu jest tylko dźwięk
zamykania.
Domyślam się, że
wynika to z faktu, iż
żeby dźwięk przy uruchamianiu
mógł się odezwać, to potrzebne są
zmiany sprzętowe w chipsecie,
a te może zapewnić tylko nowy chipset,
który jest w iPhone’ie 14.
Natomiast przy zamykaniu systemu, pewnie
ostatnią reakcją, zanim wszystko
zostanie wyładowane, jest puszczenie
nam dźwięku, więc zobaczmy.
Tu wyłączam zasilanie.
I niestety
się nie popisałem, bo miałem
włączone wyciszenie, a na wyciszeniu
teoretycznie powinna być wibracja,
ale to już jest właśnie kwestia tego chipsetu.
Natomiast
możecie mi uwierzyć, normalnie
jest dźwięk, są takie dwa tony ping-pong
i urządzenie
wyłącza się jak najbardziej
w sposób
udźwiękowiony. No więc
spróbujcie na swoich urządzeniach,
czy Wam to działa, a ja
przechodzę już dalej.
Discord w najnowszych wersjach
wprowadził funkcję odgrywania
dźwięku, wiadomości przychodzących
na czat, nawet
jeśli mamy okno Discorda otwarte.
Uprzednio taki dźwięk rozlegał się tylko
albo jeżeli mieliśmy
okno zminimalizowane, albo jeżeli
wiadomość była na innym
kanale niż my aktualnie mamy otwarty.
Głównie po to
zmyślam pewnie o osobach widzących, żeby
zwrócić ich uwagę, że
jakaś wiadomość tam na nich czeka,
ale wiele osób niewidomych prosiło
i uprosiło w końcu Discorda,
że z uwagi na to, że
my dzięki dźwiękom orientujemy się,
że coś się w ogóle wydarzyło, żeby
taki dźwięk również
dodać
dla kanału, który mamy aktualnie otwarty.
I pole wyboru, które to
ustawienie przełącza pojawiło się
w ustawieniach Discorda. Co więcej,
podobno dźwięk na wiadomość
z tego samego kanału, w którym jesteśmy
jest inny niż dźwięk z innego,
więc będziemy mogli te dwa zdarzenia
odróżnić. No i dla
osób lubiących takie różne smaczki,
może to już
zniknęło, ale jakiś czas przynajmniej był dostępny
specjalny dzwonek na
połączenie przychodzące
w takim klimacie
Halloween, więc
jeżeli jeszcze może się załapiecie,
no to sobie posłuchajcie, ustawcie,
bo jest to ciekawa kompozycja.
No i trzeci
i ostatni drobny news.
Tak, myślę, że już niektórzy wiedzą,
a ci, co nie wiedzą, to się dowiedzą.
Długo na to czekaliśmy, nareszcie
Koleo pozwala na
zakup biletów na pociągi
Intercity. I dzięki
temu mamy w tym momencie jedno rozwiązanie,
które jest dostępne.
Ma całkiem prosty
interfejs. Wszystko
w nim jest, co jest potrzebne, a nawet więcej.
Możemy na przykład płacić Apple Pay
przy pewnych uwarunkowaniach, bo przy
Apple Pay, z tego, co
słyszałem, bo sam jeszcze nie miałem potrzeby
testować, jest ponoć tak, że
jest minimalna kwota,
jaką w Koleo możemy zapłacić,
czyli chyba 20 złotych.
I jeżeli nasz bilet jest tańszy niż
20 złotych, to mimo wszystko
te 20 złotych zostanie nam pobrane
z naszego głównego źródła płatności,
z naszej karty,
a to, co nie pójdzie na bilet, zostanie
wyrzucone na poczet naszej
portmonetki w Koleo.
Jest to trochę denerwujące. Dobrze, że te
pieniądze zostają w jakiejś formie z nami.
Natomiast
mimo wszystko możliwość
taka działa
i można już
najróżniejsze bilety
na najróżniejsze pociągi w Koleo
kupować. I to jest
myślę, wiadomość dobra.
Swoją drogą czekamy dalej na
AP Cupkę i zobaczymy, jak ta będzie
też dostępna. To znaczy, ja to
testowałem, co prawda też nie kupowałem
biletu
tak do końca. Natomiast
tam jeszcze
są pewne problemy z integracją.
Na przykład
z tego, co wiem, jeszcze nie da się
wybierać miejsc w pociągach
Intercity. W tych,
gdzie te miejsca wybierać się da.
Mi na przykład pojawił
się komunikat, jak próbowałem sobie
zarezerwować bilet na
Pendolino, że
ten bilet nie jest jeszcze
obsługiwany przez nasz system.
Ale zresztą
samo Koleo
informuje o tym, że tam na razie
trwa dopinanie tych kwestii
związanych z integracją systemów,
że to jeszcze
wszystko się dzieje i
jeżeli będzie możliwość
już taka pełna,
jeżeli te systemy zostaną w pełni
zintegrowane, to pojawi się osobny komunikat.
Więc po prostu wystarczy,
podejrzewam, cierpliwie jeszcze trochę
poczekać.
No to przechodzimy w takim razie
do technikaliów.
I…
coś mi tutaj
wyszło, a jest. I pierwszym
newsem jest dość ciekawa
sprawa dla tych, którzy
chcieliby, a nie mogą użyć
Ambeo Smart Headset, czyli tych
słuchawek, czy
mikrofonów binauralnych od Sennheisera
zintegrowanych ze słuchawkami, które teraz
są w śmiesznie
niskiej cenie, na Amazonie 172
zł, więc to jest
absolutnie
ekstra tanio.
I okazuje się, że jest przejściówka
na USB-C, która te słuchawki
ma wspierać.
Tutaj Paweł taką informację
znalazł. Tak, i tu również podziękowania
dla słuchacza Piotra,
który nam takie ciekawe
rzeczy właśnie podsyłał.
Tak, jest taka przejściówka,
jak się okazuje, w ogóle to nie jest
nowy produkt, on już sobie istnieje od
roku 2019.
Jest to przejściówka firmy Anker
i
ona pozwala na podłączanie
tych właśnie
słuchawek i pewnie innych interfejsów audio
również na USB-C.
To oznacza, że będzie to
działać na iPadach
z USB-C,
na Macach, a także
na komputerach
z Windowsem 10.
No i
dzięki takiej przejściówce powinniśmy móc
ten zestaw uruchomić.
W dowolnym programie do nagrywania
to wiadomo.
No i ja tutaj myślę,
że to jest też potencjalnie
fajna rzecz, którą warto mieć
na wypadek, kiedy
już za jakiś czas wejdą
iPhony z USB-C
i
no właśnie.
Wtedy nie będziemy musieli się martwić
o to, czy
nasze Ambeo będą dalej działać,
tudzież inne gadżety
audio na Lightning.
Ja tu jeszcze
patrzę.
Tak. Anker USB-C
to Lightning Audio Adapter.
Ja właśnie próbuję sprawdzić jak tam
z ceną tego. Oczywiście cena będzie
prawdopodobnie 25 dolarów.
25?
Tak widziałem na amerykańskim Amazonie.
Nie
widziałem tego w Amazonie
polskim.
Ale to też się nazywało
coś typu Anker.
Lightning to USB-C Adapter
Audio only.
Więc możliwe, że to ma jakąś swoją nazwę,
jakiś swój model.
Ja jeszcze tego nie sprawdziłem. Nie udało mi się.
Ciekaw jestem, co
z Androidem.
Nie było o tym nic mowy na razie.
No bo tak to właśnie widziałem na tej stronie,
że nie ma o tym mowy. Natomiast ciekaw jestem,
czy ktoś się już pytał
i sprawdzał, że na przykład to rzeczywiście
nie działa na Androidzie.
Albo po prostu nikt nie wymyślił, że może.
No
nie wiem. Natomiast
z drugiej strony może to jest kwestia rzeczywiście
jakiegoś oprogramowania, które uczyniono
kompatybilnym pod Mac i
iPad. Znaczy na Mac i iPad to wiadomo,
ale Windowsy na przykład.
No a Androidy nie bardzo.
No ale jest to ciekawa
sprawa. Myślę, że chociażby dla samego
Windowsa warto
spróbować.
No to tak.
Taki adapter istnieje.
No to
w takim razie kolejny
news. A co
my tu mamy? Tu mamy
news od Michała.
Tym razem reakcje na wiadomości
z iOSa powinny niedługo
wyświetlać się na Androidzie.
Tak jest. Google
coś takiego obiecuje,
jeżeli chodzi o to,
co będzie się działo
w związku z aktualizacją aplikacji
wiadomości, bo
jak z pewnością
część z naszych słacze, a być może
i wszyscy wiedzą,
jeżeli na iMessage
zareagujemy w jakiś sposób,
tam jest ileś tych reakcji,
to jest bardzo typowa rzecz
dla innych komunikatorów.
No ale też
i
ostatnio właśnie dla iMessage
mamy te
różnego rodzaju reakcje,
śmiech, kciuk
w górę i tak dalej, i tak dalej.
No tylko problem był taki, że
tak naprawdę to na te wiadomości
można reagować
w zasadzie na wszystkie
wiadomości, a
jeżeli otrzymaliśmy taką wiadomość
z Androida, to ponoć działy się z tym
różne dziwne rzeczy, na przykład
no czasem po prostu ta wiadomość
została z taką reakcją przesyłana, ale
użytkownik na Androidzie dostawał
coś zupełnie innego, nie bardzo wiadomo było,
co to jest.
Google z Apple chciało się dogadać
na temat wspólnego protokołu
przesyłania
takich reakcji na wiadomości,
ale Apple powiedziało
nie.
No niestety.
I w związku z tym Google
postanowiło samodzielnie
coś z tym zrobić, no efekty
mamy ujrzeć za jakiś
czas, więc
myślę, że użytkownicy Androidów będą
szczęśliwi, jeżeli mają
znajomych z iOSem,
którzy lubią im
różne reakcje wysyłać,
a nie zdają sobie sprawy,
że niekoniecznie
do nich to dociera, albo nie dociera
w taki sposób, w jaki powinno.
Możliwe.
A teraz telefony komórkowe,
w zasadzie smartfony i coś
dla ludzi, którzy chcieliby mieć malutki
smartfon, no bo
Unihertz, firma, która
specjalizuje się od pewnego czasu w takich
małych smartfonach, wypuszcza
kolejną wersję swojego Jelly Bean’a.
Paweł tutaj.
Tak, Jelly 2e.
Unihertz Jelly 2e, czyli
kolejny z serii, jak już wspomniałeś
Tomku, smartfonów właśnie
o małych ekranach, czyli trzycalowy ekran
tutaj mamy do dyspozycji.
Na to wszystko Android 12
jako system bazowy,
4 giga RAMu, 64 giga
pamięci wbudowanej, oczywiście
czytnik KART i podwójny
SIM.
Mamy też
czterordzeniowy
procesor, każdy z rdzeni taktowany
2 giga Herce, jest to
jeden z Media Tech’ów
Helio, o ile tam pamiętam.
No i programowalny
przycisk push to talk, czyli
port pod czerwieni,
jack słuchawkowy, taki standardowy
zestaw właśnie każdego
Jelly Phone’a od Unihertz.
Coś, czego nie ma, a
szkoda, bo byłby to telefon
dla wielu osób wtedy myślę bardziej
atrakcyjny, jest to
NFC. Niestety ten model
NFC nie posiada.
Natomiast
kosztuje on
75 dolarów jeszcze
przez jakiś czas. Kilka dni
jest obniżka Halloween’owa, można
20 dolarów sobie z tego potrącić
i spuścić tą cenę do dolarów
150.
No, te telefony
z tego co wiem jakoś działają.
Są naprawdę malutkie
i nie wiem
czy te 3 cale to nie jest aż za mało,
bo tam chyba są już problemy
jakieś z pisaniem braille’em
na ekranie komfortowo
i różne inne
ciekawe rzeczy się tam dzieją. Natomiast
myślę, że jak ktoś
lubi, chciałby koniecznie mieć mały telefon
to można zaryzykować.
Wiem, że oni też mieli problemy z mikrofonami,
żeby one były w stereo, jeżeli dla kogoś
to ma jakieś znaczenie, to
to tam z tym problem był.
Jak jest w nowszych modelach, ciężko powiedzieć.
Może, zobaczymy.
Z Xiaomi
wchodzi w rynek
słuchawek z przewodnictwem
kostnym. Jak widać coraz więcej firm
się tym interesuje,
a Paweł się zainteresował na tyle, że znalazł
te informacje.
Tym zainteresował się nasz słuchacz Piotr, więc teraz jeszcze
dziękowania za tak dużą
liczbę wiadomości na ten tydzień.
Tak, mówiliśmy jakiś czas temu
o, to Mikołaj chyba mówił, o jakiejś
kolejnej firmie, która
robi słuchawki z przewodzeniem kostnym,
a tymczasem Xiaomi również
wypuszcza swoje.
Są to Xiaomi Bone
Conduction Earbuds
i na ten moment
są dostępne jedynie
w Chinach,
więc pewnie można je
dostać przez jakiś Aliexpress,
jakby ktoś się bardzo chciał postarać i bardzo
komuś zależało.
Kosztują w przeliczeniu z chińskich
yuanów około 460 zł,
więc myślę, że
jest to cena zbliżona do jakichś
aftershocksów.
Natomiast,
no, gdyby komuś zależało,
że to Xiaomi i chce się
przekonać, no to takie słuchawki są.
Sterowanie odbywa się poprzez
tradycyjne przyciski,
no i tak poza tym to
no, tak samo jak
aftershocksy, ładowanie przez USB-C,
nie ma tu ładowania przez etui
tego właśnie
indukcyjnego, no takie
po prostu słuchawki z przewodzeniem
kostym, tylko że od Xiaomi.
Ciekawe, czy też się dostaną na inne
rynki, czy pozostaną do końca na rynku,
tylko i wyłącznie chińskim,
no ale… Zobaczymy, bo rzeczywiście
Xiaomi potrafi zostawiać sprzęty tylko
na rynku chińskim,
zwłaszcza takie, które nie są flagowymi smartfonami.
No tak, to prawda.
Ale z drugiej strony, no mamy
jakiś czajnik bezprzerodowy nawet od Xiaomi,
więc zobaczymy, może…
Tak, może
coś będzie.
Teraz coś, co sobie wpisałem
bardzo niedawno
w nasze notatki,
bo pojawiło się
nic więcej szczegółów
odnośnie tych limitów prądowych, które mają
wejść od, w zasadzie od grudnia
tego roku do grudnia przyszłego
roku. Ja może
przypomnę, o co chodzi. Otóż
ceny prądu idą bardzo mocno
w górę, no i rząd
postanowił troszkę
ulżyć odbiorcom,
w szczególności gospodarstwom domowym,
małym i średnim firmom oraz
instytucjom
użyteczności publicznej, tam chyba też
nie wszystkim, w każdym razie, żeby ten prąd był
na
względnie sensownym
poziomie cenowym,
ale do pewnego momentu,
do przekroczenia
dwóch
megawattogodzin.
Ja się teraz nomyślam, że większość
osób nie bardzo wie, co to
jest, znaczy ile to de facto
prądu jest. W sumie tak
trudno powiedzieć, natomiast
warto sobie sprawdzić faktury
za energię elektryczną
i nie wiem, jak to wygląda
w przypadku innych dostawców. My mamy
od PGE i
tam na ostatni,
na fakturach z tego roku
i z zeszłego też,
nie pamiętam, jak było wcześniej,
jest
wyliczona między innymi
cena, znaczy ileś
ilość energii zużytnej
w roku ubiegłym,
więc jeżeli nie mamy jakiejś
rewolucji, można tak mniej więcej sobie
oszacować, czy zmieścimy się
w tych limitach w przyszłym
roku. Można też to sobie samemu
policzyć z
osczytu z licznika, ponieważ tam
jeżeli sobie przeczytamy te
faktury, no przynajmniej
w PGE, to są te jednostki
i z tego, co pamiętam, te jednostki przynajmniej
tutaj, to są
i teraz nie pamiętam,
czy kilowatogodziny,
chyba tak.
I można sobie to sprawdzać,
ile tego w danym miesiącu
wykorzystaliśmy, no i można sobie
po prostu pododawać z różnych
miesięcy, sprawdzić
jak to wyglądało. Oczywiście jeżeli mamy oszczyt
taki co miesiąc, co dwa, jeżeli
mamy oszczyt co pół roku, no można
tylko w takich półrocznych zestawieniach sobie to sprawdzać.
W każdym razie
bardzo polecam to zrobić, bo
dwa megawattogodziny,
dwie megawattogodziny to jest absolutnie
taki limit, w którym można się zmieścić,
a można się
nie zmieścić.
Jeżeli ktoś korzysta na przykład
ma cały czas włączony komputer stacjonarny,
to możliwe, że
no może być na granicy
na przykład tego limitu.
Nawet jeżeli nie zapala światła,
no może być z tym problem. A czasami
zdarza się, że osobie
jest niewidome bez poczucia światła,
no mogą na przykład
sobie nie zauważyć i to światło mieć
zapalone przez cały czas. Oczywiście różnie to bywa.
Są osoby, które
chodzą po domu i sprawdzają, czy to światło jest
zapalone czy nie.
Więc różnie to bywa.
Różne są na to pomysły. Czasem nie mamy
świadomości nawet, że ktoś nam to
światło zapali. Tak.
Ja pamiętam kiedyś miałem
taką sytuację, że
dostałem jakąś paczkę
od kuriera
i kurier sobie
zapalił to światło,
zapomniał go zgasić.
No ja
staram się pamiętać,
czy światło mam zapalone
czy zgaszone.
I jeżeli coś tam z tym światłem robiłem,
to kontrolowałem to.
Natomiast tu
nawet nie zwróciłem uwagi, że on sobie to światło
zapalił. I dopiero się przekonałem
o tym, że światło było zapalone
po kilku dniach, jak ktoś, kto
widzi, przyszedł do domu.
No właśnie, więc to czasami takie
niespodzianki mogą być, a zwłaszcza jeżeli
ma się jakiegoś starszego typu
żarówki, no to może być
niezła niespodzianka.
I teraz jak te limity wyglądają?
Dla takich standardowych
gospodarstw domowych to są
2 MWh.
Dla
gospodarstw domowych z osobą
niepełnosprawną, czyli dla nas
w większości to będzie
2,6 MWh.
Mniej 2600 kWh
rocznie.
I 3 MWh
dla rolników
i posiadaczy karty
dużej rodziny.
Czyli to są te rodziny, zdaje się z trójką dzieci, z tego co
pamiętam.
Coś Paweł chciałeś dodać?
Chyba nie.
Chyba nie.
Do tego obowiązują również ceny maksymalne
obowiązujące po przekroczeniu
rocznych limitów.
To 693 zł za
MWh dla
gospodarstw domowych, no i tam
780 zł za firm
i podmiotów urzutyczności publicznej, czyli dla
nas 690 zł za
MWh, czyli tam chyba wychodzi
69 groszy za kWh.
Z tego
co patrzyłem to jest mniej
więcej
50% więcej
trochę więcej
niż 50%
więcej
tego co płacę
w tej chwili, ja na przykład za
prąd. Bo ja jakoś
koło 40 groszy zdaje się.
Nie płacę za tę jedynostkę
prądową, więc
po przekroczeniu tego limitu będzie
drożej, bo to się chyba
ma utrzymać na poziomie tych 40,
nie pamiętam jakie tam jest dokładnie ten limit.
W każdym razie, no gdyby nie to
możliwe, że by było sporo
drożej, tam
ktoś pisał, że to może być
200% więcej
byśmy płacili za prąd. W związku
z powyższym byłyby te ceny
raczej duże,
które byśmy płacili, więc
warto sobie tutaj
przemyśleć ewentualne oszczędności.
Być może warto sobie
przemyśleć jakieś
smart gniazdka.
Ja w ogóle postaram się takie kupić,
bo tak czy inaczej mi jest to potrzebne, więc możliwe, że
będzie jakaś audyzja na ten temat
w Tyflop Podcaście.
My sobie też kupiliśmy
coś takiego,
co się
wkłada do tej
skrzynki z
bezpiecznikami. To już musi zrobić
osoba jakoś tam
wykwalifikowana, przynajmniej ktoś, kto się na tym zna,
bo to trzeba rozkręcić te skrzynkę,
założyć
to urządzenie
na te przewody takie, które dochodzą
do skrzynki.
To są takie gołe przewody, więc
no tu trzeba uważać
i trzeba to dobrze
zrobić. I to jest taki licznik,
który współpracuje z aplikacją Supla.
Ona przynajmniej na Androida
jest tak mniej więcej dostępna.
Tam jest jeden taki ruch,
który trzeba wykonać, ponieważ
ona domyślnie wygląda mniej więcej
tak. Ja to zaraz może pokażę,
bo być może
to się może komuś
przyda. Ona na razie mówi dość szybko, ale ja
będę powtarzał z
syntezatorem.
To jest licznik firmy Zamel.
Ja już nie pamiętam teraz jego nazwy,
natomiast ten Zamel ma dwa takie
liczniki. Jeden jest jednofazowy, drugi
jest trzyfazowy. Ja mam jeden trzyfazowy.
I
jeżeli jest taka
aplikacja, jeżeli się uruchomi ta aplikacja
i już tam powiedzmy sparuje z tym licznikiem,
ten licznik się łączy w ogóle z
wsi, więc można sobie sprawdzać również
spoza domu te wskazania.
Mamy
menu, baton, przycisk,
supla, grał
baton, przycisk, lokalizacja
H2.
Potem mamy wskazania
ile tych miliwatogodzin już
zużyliśmy.
I potem mamy licznik
energii elektrycznej, taki napis
i tyle. I teraz to zrobił,
żeby rozwinąć szczegóły, na przykład
to ile w tej chwili
zużywam energii, bo
to, te
ileś kiliwatogodzin, ile w sumie
zużyłem,
ile się w sumie zużyło
od momentu zainstalowania
tego licznika. Trzeba znaleźć
tę wartość.
U mnie akurat w tej chwili jest 300
ileś tam kiliwatogodzin.
Ja już ten licznik mam od
dłuższego czasu, więc tak to wskazuje.
I trzeba,
jak to znajdę, trzeba zrobić dwuklik
w przytrzymaniu i to przesunąć w lewo.
I
to nie zawsze się udaje, bo to trzeba w miarę
linię prostą zachować.
I jak przesunę sobie palcem w
lewo, to nagle
robi mi się tego dużo więcej.
Korz bieżącym miesiącu, jakiś
tam łączny korz i tak dalej,
i tak dalej. Tutaj też warto
sobie eksplorację
ekranu zrobić,
dlatego że
mamy w pewnym momencie taką tabelkę.
Mamy
faza 1, faza 2, faza 3
i potem 1 plus 2 plus 3
przycisk, czyli wszystkie te fazy
razem.
Ja to sobie włączam, żeby po prostu
sprawdzić całość zużycia.
No i mamy częstotliwość,
moc czynna, moc bierna,
moc pozorna,
energia czynna pobrana,
zwrócona i tak dalej. Jest cała tabelka,
tylko że najpierw są
czytane wszystkie
nagłówki, a tych nagłówek
jest bardzo, tych nagłówków jest bardzo duży.
Ja to może rzeczywiście jednak troszeczkę
zwolnię.
No, 60,
60% myślę, że
wystarczy. I to są w ogóle takie
takie rzeczy… I możesz jeszcze, Tomku, może nawet trochę bliżej
telefon. Tak, ja wiem, ja sobie…
Tu są naprawdę takie rzeczy, które
większość ludzi nawet nie będą wiedzieli, o co
chodzi, bo…
Energia bierna, zwrócona, 50, 0,
1 HZ. Energia bierna, bo
energia czynna, zwrócona. A, tu nawet jest w miarę, bo tu
jak są wszystkie fazy, no to to jest
w miarę dobrze, bo tu jest… On
obsługuje również te systemy fotowolnaiczne,
gdzie się energię pobiera
i zwraca. Energia, energia bierna,
50, 0, 1 HZ. To jest
częstotliwość
prądu w sieci. 180,
86, 1138.
To jest chyba… Minus
127, 20, 196,
19, 858.
Czyli watów, czyli w tym
momencie pobieram 189
watów mocy.
Znaczy, cały nasz dom
pobiera te
188 watów
w tej chwili. Wszystkie urządzenia, które mamy
podłączone do prądu.
Jeżeli… Potem
są jakieś kolejne liczby,
bo mamy… O!
Ponieważ…
Jak sobie tutaj włączę…
Tutaj mamy energię
pobraną. Czyli to, co
myślę, dla większości osób będzie najważniejsze.
To jest energia,
ta bierna znajduje się
i
energia, znaczy moc
czynna, przepraszam, moc bierna
i ta moc
pozorna.
W gospodarstwach
domowych liczy się, z tego co
pamiętam, tylko moc czynna. Moc biernej
się do rachunku
nie wlicza.
Natomiast to ma znaczenie, jeżeli byśmy
prowadzili jakąś filmę.
Bo w przypadku film, no chyba wygląda
inaczej tej instalacji, która poprowadzono
do film, bo zdaje się, że tam jest
moc
pozorna brana pod uwagę,
czyli to jest ta sumaryczna moc czynna i moc bierna.
To jest właśnie…
Tu jest…
I potem mamy różne takie już
bardzo specjalistyczne rzeczy.
No i jakieś takie rzeczy. Jak wejdę sobie
też w te fazy konkretne,
to też mogę sobie
sprawdzać te wszystkie wskazania
dla poszczególnych faz.
I często jest tak,
przynajmniej u nas w domu tak jest i podejrzewam, że to
może stanowić jakąś regułę,
że kuchnia i łazienka
jest na osobnych fazach. Czyli na przykład wszystkie
sprzęty kuchenne mogę sprawdzić, ile
tej energii pobrało,
tylko znowu mamy
całą tabelkę.
O, właśnie.
I dopiero jak to wszystko mamy,
to potem mamy dopiero wszystkie wartości,
więc albo to sobie zapamiętamy.
Tak, to jest tutaj
ten sam film, który
tutaj zainteresowałem,
czyli to jest taki film,
I to jest moc, którą pobieram z tej fazy pierwszej, bo w tej chwili rzeczywiście żadne urządzenie kuchenne mi nie chodzi, a lodówka jest podłączona do tej fazy pierwszej, więc wszystko się zgadza.
Także jest ZAML-01MFV, chyba tak to się nazywa to urządzenie. Myślę, że o tym też będzie warto zrobić jakąś audycję, teraz tak pokazałem to na szybko te aplikacje, natomiast Supla, przynajmniej na Androida jest jakość dostępna,
tylko trzeba pamiętać o tym ruchu takim, żeby wykonać to przesunięcie takie na tym wskazaniu kilowatogodzin. Natomiast na pewno jeszcze kupię jakieś gniazdko, znaczy prawdopodobnie to będzie listwa czterogniastkowa, taka smart, mam nadzieję, że ona będzie miała jakiś, z tego co czytałem, ma możliwość mierzenia mocy,
więc będę mógł sprawdzać konkretne urządzenia ile pobierają właśnie takiej mocy, no i miejmy nadzieję, że to będzie wszystko działało. No i cóż i chyba tyle, chyba o niczym nie zapomniałem, no a teraz przechodzimy do kolejnych newsów.
I teraz będzie coś takiego, co może być mniej fajne dla ludzi, bo Uber testuje reklamy i to w formie powiadomie push.
Tak, na razie jest to bardzo mała próba użytkowników, która dostaje takie reklamy. Wszystko zaczęło się od tego, że gdzieś miesiąc temu Uber zaczął rozwijać nowy dział reklamy i zapowiedział, że kompletnie zostanie przebudowane doświadczenie użytkownika w zakresie reklam w aplikacji.
A teraz interakcji z aplikacją, jakaś była mowa o bardziej spersonalizowanych tych reklamach, że one będą jakoś dopasowane na przykład do tego, gdzie jedziemy, do jakich miejsc się najczęściej udajemy, no więc tu już sami sobie możemy odpowiedzieć na ile nam takie algorytmy pasują.
Natomiast gdyby to jeszcze było zatrzymane w tych ramach, no to można by stwierdzić, że ok, wiele aplikacji tak robi, nie Uber pierwszy i niestety nie ostatni.
Miejmy nadzieję, że nie będzie ani pierwszy, ani ostatni i że to się nie rozwinie specjalnie daleko.
No bo tak, tydzień temu mówiliśmy oczywiście o Apple, które nam będzie wciskało reklamy na AppStore, a tutaj Uber sobie wymyślił, że będzie testował reklamy w formie powiadomień push.
Czyli my nic nie robimy, mamy sobie po prostu telefon i zainstalowaną apkę Ubera i zaczniemy dostawać powiadomienia z reklamą na przykład trybu jakiegoś fitnessowego czy pakietu fitnessowego subskrypcji w peletonie.
Oczywiście te reklamy będą gdzieś dostosowane do rynku i tak dalej, no ale nagle może się okazać, że aplikacja, której po prostu w tym momencie w ogóle nie używamy, leży sobie i czeka na właściwy moment, zacznie nam wysyłać nic z tego nicowego reklamy.
No bo czemu nie, bo przecież może.
No i Uber taki test na razie wykonuje, co z tego wyjdzie, no zobaczymy.
Miejmy nadzieję, że podobnie jak w przypadku YouTube’a to chyba zadziałało, że jak się odpowiednia ilość użytkowników zbuntuje, to albo to odwołają, albo jakoś w czasie przesuną.
Miejmy też nadzieję, że to nie stanie się trendem, że teraz aplikacje wszelakie zaczną nas spamować reklamami, no bo dojdziemy do etapu jaki mamy aktualnie z połączeniami telefonicznymi, SMS-ami, gdzie bardzo dużo tam dostajemy jakiegoś spamu i no nie jest to pożądany efekt.
No a tu widać tworzy nam się jakiś taki nowy marketing.
Natomiast taka jeszcze podpowiedź, chyba tego mi będzie brakowało na iOSie, jeżeli się na niego przeniosę, o ile to oczywiście nastąpi.
W każdym razie na Androidzie mamy te tak zwane kanały powiadomień czy grupy, nie pamiętam. W każdym razie każda aplikacja może sobie dodać chyba ile chce. Kategorie powiadomień.
I jeżeli Uber wprowadzi osobną kategorię, pewnie nie wprowadzi, ale może jednak wprowadzi na nie wiem reklamę albo powiadomienia inne niż na przykład albo zrobi chociażby osobną kategorię powiadomień na nie wiem te związane z przejazdem, to być może będzie można sobie wyłączyć powiadomienia inne niż te, które dotyczą rzeczywiście samych przejazdów.
Czy to tak będzie wyglądało? Nie wiem, ale warto sobie w ogóle zajrzeć do ustawienia powiadomień w Androidzie i dla różnych aplikacji sprawdzić, czy aby nie mamy kategorii różnych powiadomień, bo może się okazać, że tak jest.
Na przykład Google, w szczególności asystent, ma tych kategorii bardzo dużo. Jest chyba kilkadziesiąt w ogóle. Informacje pogodowe mają osobne, informacje jakieś sportowe osobne, wiadomości osobne, coś tam jeszcze osobne, powiadomienia takie na drodze osobne i tak dalej i tak dalej.
Jest bardzo dużo tych kategorii i oprócz tego, że każdą można włączyć i wyłączyć, to dla każdej jeszcze można przyporządkować na przykład osobny dźwięk.
Uber twierdzi, że to będzie się dało jakoś te ustawienia personalizować. Pytanie, czy rzeczywiście pozwoli na wyłączenie reklam, a jeśli tak, to jaki będzie haczyk?
Większość osób nie wie o tym, że to można wyłączyć jednak. Jeżeli mówię komuś o takiej funkcji w Androidzie, to znaczy się, że tak się da.
To prawda, ale jakby to było tak w oczywisty sposób pokazane w ustawieniach, to też byłoby chyba za prosto mimo wszystko, bo tam jednak ktoś może sobie pierwsza rzecz, jak coś go wkurza, zajrze do ustawień, zobaczy czy się tego nie da zmienić.
I pewnie jeżeli Uberowi będzie na tym zależeć, to ta opcja, nawet jak będzie po prostu z przyzwoitości tam dodana, to będzie jakoś tak zagrzebana, że trzeba będzie spędzić chwilkę w Google, żeby znaleźć odpowiedź na pytanie, jak te reklamy powyłączać w pushach.
No ale zobaczymy, nie tragizujmy, może to jest tylko jakiś śmieszny test, który okaże się fiaskiem i nie zostanie dalej rozwinięty.
Zobaczymy. A tymczasem teraz będzie o abonamentach, no bo jeżeli abonament jest wprowadzony przez Allegro, Amazon, jakiś sklep internetowy, to wszystko jest normalne.
Ale abonament wprowadziła Żabka. Na co? Na kawę i inne ciepłe napoje. I działa to mniej więcej tak, że płacimy sobie 50 złotych za miesiąc, przynajmniej na razie, i za te 50 złotych mamy możliwość dostania jednego dziennie napoju gorącego.
Tam jest tych napojów kilka, tam kawa czarna, latte z mlekiem, tam jakaś gorąca czekolada chyba nawet jest, no i w związku z powyższym, jeżeli ktoś ma na przykład blisko Żabka, podejrzewam, że większość osób ma, no to być może zamiast pić kawę w domu, może pić kawę w Żabce za 50 złotych miesięcznie.
Także ciekaw jestem, czy takich abonamentów nie będzie więcej. Oni to chyba kawonament nazwali, tak? Tak, kawonament, dokładnie. Więc zobaczymy, co się z tego urodzi. Natomiast możliwe, że jeżeli nasz odgłos idzie gdzieś tam codziennie gdzieś, no to może się sobie zatrzymać w Żabce na chwilkę, wypić kawę i jechać dalej.
Ciekaw jestem, ile tych abonamentów będziemy mieli za 10 lat i będziemy opłacać abonament za to, za to, za tamto i tak w sumie niewiele wychodzić poza abonamentu, no nie wiadomo, ale zobaczymy.
I ostatnim newsem, to jest nowy kodek dźwięku, bardzo chyba ciekawy kodek dźwięku, to się ma nazywać N-kodek kompresja audio 10 razy większa od MP3 bez straty jakości.
Tak, jest to kodek wymyślony przez Meta, czyli przez firmę, której należy między innymi właśnie Facebook, WhatsApp, Messenger, Instagram i Metaverse i co tam jeszcze?
I Demux, czyli ten program, który ma i robi to, rzeczywiście oddziela wokal od basu, od bębnów i robi to zadziwiająco dobrze.
No nie jest to może jakoś super studio, ale ja się wcale nie dziwię, jak nie ten podkład na YouTubie wyszedł właśnie z tego.
Bardzo możliwe, a tutaj wyjść mogą dźwięki i to dobrej jakości, tak jak wspomniałeś, przy naprawdę niskich bitrate’ach, mowa te dziesięciokrotna kompresja to była przy bitrate 64 kbps.
No i oczywiście kodek jest opisywany jako idealny do rozmów audio przy słabym połączeniu sieciowym, ale też do kompresji muzyki, ponoć też się świetnie nadaje.
Pod linkiem, który zamieszczony będzie w komentarzu, osoby bardziej technicznie zaznajomione mogą się zapoznać z całym opisem, trochę takim naukowym, akademickim, tego jak ten kodek od kuchni działa.
Mi jest teraz ciężko to wszystko przedstawić, natomiast odgrywa tam ważną rolę sztuczna inteligencja i to ona wspomaga cały proces kompresji tego dźwięku.
Więc no możliwe, że za jakiś czas, nie wiem, zostanie to wprowadzone w jakimś messengerze czy WhatsAppie.
Sam nie mam też pojęcia na ile ten kodek jest otwarty, a na ile jest własnościowy mety, ale akurat takie rzeczy te otwarte gdzieś tam mogą być, to nie byłoby dziwne.
Na pewno oni coś udostępnili, jakieś swoje artykuły na temat tego jak to zostało zrobione, bo ja też o tym kodeku czytałem i no przynajmniej część ma być otwarta,
bo oni chcą jakby dać to publicznie, udostępnić pewne rzeczy publicznie, bo ma to stymulować rozwój tego kodeka.
Więc jest szansa, że coś będzie otwarte, jeżeli nie wszystko, no to przynajmniej jakieś elementy, z których mądre głowy będą w stanie coś stworzyć.
No życzymy powodzenia i może za jakiś czas usłyszymy efekty jak coś takiego brzmi.
Ja tak próbuję znaleźć coś, natomiast jeszcze nic mi się nie udało.
Więc pytanie, czy ktoś coś jeszcze znalazł po drodze?
No ja może tylko szybko, że przejeżdżałem sobie jeszcze tak szybko przed audycją listy zmian ostatnie w Zoomie i coś, co jakoś pominęliśmy milczeniem,
to wrześniowa aktualizacja Zuma, która dodaje między innymi skróty klawiszowe.
Jeżeli korzystamy, to nie jest zbyt popularne, zwłaszcza w Polsce, ale Zuma da się również wykorzystywać jako takie teamsy, czyli mamy zespoły i w ramach tych zespołów mamy swój jakiś tam wewnętrzny czat,
ale jest taka funkcja w Zoomie, no i jeżeli tej funkcji używamy, to doszło troszkę skrótów klawiszowych, żeby szybciej się przemieszczać po tym interfejsie.
Można przeskoczyć szybko na listę czatów, można przeskoczyć szybko też na listę wiadomości, do nieprzeczytanych wiadomości itd.,
więc jeżeli z jakichś przyczyn musicie tego używać albo macie przyjemność używać, bo jak słychać jest to interfejs, który jest aktywnie usprawniany pod kątem dostępności,
no to teraz będzie to jeszcze gdzieś tam łatwiejsze.
Aczkolwiek jak kiedyś bawiłem się tymi wiadomościami głosowymi, bo tam w tych czatach zdaje się, że też to można wysyłać, to uuu…
Tak, to pamiętam, my się wspólnie bawiliśmy wtedy.
Tak, to nie było nic fajnego.
No to może jeszcze w takim razie jak już się żegnamy, to ja spróbuję pożegnać mój telefon, skoro go już uruchomiłem
i przekonamy się, czy rzeczywiście dźwięczy, jak się go wyłącza.
No.
Uwaga.
A jak najbardziej.
Dźwięczy, dźwięczy.
Jeszcze w międzyczasie widzę kilka wiadomości od Dawida.
Dawid napisał nam, że jest bardzo zadowolony z Windows 11.
Podziękował za swego czasu, ta podpowiedź, którą udzieliliśmy apropo wyłączenia PIN-u.
To zdaje się, ty Pawle znalazłeś, także tu podziękowania od Dawida.
Tak, Dawid też prywatnie do mnie pisał, cieszy się, że udało się pomóc.
I jeszcze, jeszcze zadał nam pytanie, na które my odpowiedzi nie znamy, a przynajmniej ja nie znam, może wy coś powiecie.
Dlaczego ten system, domyślam się, że Windows 11, tak często się aktualizuje?
No, Microsoft rozwija.
Ej, ja myślę, że po prostu dlatego, że Microsoft nad nim ciężko pracuje.
Tak, oby na lepsze.
Oby na lepsze, bo na razie jakoś chyba jeszcze nie czuję się zachęcony.
A ja słuchajcie, znalazłem jakąś stronę z samplami tego kodeka i w ogóle to jest na GitHubie,
więc możliwe, że to jest w ogóle do pobrania, tego nie wiem.
Mam jakieś kodeki, znaczy mam jakieś przykłady i mam jakąś taką krótką, takie krótkie też informacje,
że ten kodek jest w dwóch wersjach, mono i stereo.
W dodatku, tam są jakieś pre, no takie już wcześniej wytrenowane konkretne języki,
żeby dodatkowo jeszcze można było niektóre rzeczy brać z tych modeli.
To pewnie będzie takie już coś pomiędzy mową a syntezą mowy w takim razie.
Tak mi się coś wydaje.
I tu mamy, wydaje mi się, że jakiś oryginał.
I tyle, to podejrzewam, że u was leci mono, tak mi się wydaje.
Tak, tak, to jest mono.
Teraz mamy mp3 64 kb, według Facebooka brzmi to tak.
I opus 24 kb.
Opus to jest ten kodek, który jest wykorycywany w TeamToken,
chyba nawet w Zoomie, w wielu różnych teraz aplikacjach.
To jest opus 24 kb, jakaś Lyra V2.
To jest ten kodek Google’a.
To jest Google’a, 12 kb.
I co my tu jeszcze mamy?
N kodek, 3 kb na sekundę.
No, 3 kb robią wrażenie.
Co im trzeba przyznać, to góry sobie dodali.
To jest oczywiście sztuczne, ale 3 kb na sekundę, czyli niecałe 500 bajtów na sekundę.
Teraz ten kodek, 6 kb na sekundę.
O, to chyba było słychać, a nie, nie było słychać.
Było, było słychać syntezę.
I to już nie brzmi źle, nawet ta stereofonia jest zachowana,
choć oczywiście niekoniecznie to było słychać u was.
Ten kodek, 12 kb.
Chociaż nie, dobrze, tutaj akurat jest mono.
Music 2.
Co my tu mamy?
A, tu już jest bardzo szerokie stereo.
Tego nie słychać, ale jest to szerokie stereo.
Ok.
No dobrze, mp3’ki to pewnie znamy.
mp3, opus, lyra, v2, no mogę to stworzyć, żeby to nie było.
To jest ten google’owy.
Ok.
I en kodek, 3 kb.
Otóż, śmiesznie to słychać, ale no…
Śmiesznie, ale rzeczywiście jest w ogóle zachowana.
Trochę tak dziwnie latasz, no widzę, że to jest bardzo dużo tutaj
jakiejś takiej syntezy różnych rzeczy,
ale to można sobie posłuchać pewnie na stronie,
bo można wpisać en kodek, facebook research, github
i będzie strona na githubie,
tam jest specjalna strona do sampli, tam można sobie tego posłuchać.
Teraz 6 kb.
I znowu mamy też takie…
największe tu są stracje jeżeli chodzi o stereo.
I teraz en kodek, 12 kb.
No tak, że tak to mniej więcej wygląda.
Teraz jest 24 kHz monofonic.
A, tu mamy jakieś z common voice’a notabene.
Ok.
I teraz mamy opus…
Aha, opus, 6 kbitów.
I teraz mamy…
I teraz mamy opus… Aha, opus, 6 kbitów.
To jest opus, 6 kbitów.
EVS, 6 kbitów, to jest zdaje się ten kodek,
który jest wykorzystywany w telefonie komórkowej,
tych WLTE itd.
Dalej, tak mi się wydaje.
Tak to wygląda.
Sound stream, cokolwiek to jest.
Lajra V2, 3 kb.
Lajra V2, 6 kbitów, no nie wiem czy to odtwarzać,
bo to będzie myślę, że tylko troszkę lepiej.
I teraz, en kodek, 1,5 kb na sekundę.
No, 1,5 kb.
Tak.
Czyli, ile to będzie? Przez 8?
To będzie kilka…
Ojej, ojej, ojej, ojej, 1,5 kb, no to już będzie,
nie wiem, ze 100 bajtów prawie na sekundę,
to w zasadzie niewiele więcej niż by to było napisane w notatniku.
No to dobra, powiedzmy, że 3-4 razy więcej,
niż by to było napisane, więc nieźle.
En kodek, 3 kb na sekundę.
To ma takie coś dziwnego.
Tak, ale domowy?
Tak, domowy, w jakichś ekstremalnie niskich bitrate’ach.
Oczywiście.
3 kb na sekundę.
Jakieś tam przykład wykorzystywane jako fallback z wyższych jakości,
gdzieś tam powiedzmy do niższych, kiedy łącze nie pozwala.
No tak, jeżeli to jest jakieś łącze super niestabilne jakieś,
jeszcze jest 6 kb.
No ok, no i to już brzmi nieźle.
No 6 kb, naprawdę, no to robi wrażenie.
Także no, ciekawy ten kodek.
No i tak to wygląda.
No tu jest jeszcze kilka jakichś takich przykładów,
które można sobie odtworzyć i sobie zobaczyć.
No a tu jest jakieś coś z tłem jeszcze.
No różne są, różnie to wygląda.
Także no, dużo jest tego.
No i już chyba.
Także, no ciekawe, ciekawe, ja sobie to spróbuję zainstalować,
ale jest jakaś implementacja na Windowsa, nie wiem.
Ale zobaczymy, może się uda.
No dobrze.
To co, udało się jeszcze coś znaleźć?
Chyba nic.
Chyba nie, chyba nie.
W takim razie, no będziemy kończyć.
Ja tu jeszcze czytam ten kodek, on wymaga czegoś, co się nazywa PyTorch.
To jest taka biblioteka bardzo duża do Python,
która jest wykorzystywana na tych obliczeń neuronowych.
Więc to chyba nie będzie kodek, który jest mały,
który ma mały rozmiar, albo który jest jakoś dla procesora oszczędny.
Coś mi się wydaje, że procesor tu będzie miał co robić
podczas enkodowania do czegoś takiego.
Więc no być może, no nie wiem, czy coś może mieć jakieś zastosowanie szersze.
No być może, być może tak.
W każdym razie, no zobaczymy.
A tymczasem żegnamy się z państwem dzisiaj w trzy osoby.
Paweł Masarczyk, Michał Dziwisz i ja, czyli Tomek Bilecki.
Dobrej nocy.
Do usłyszenia.
Do usłyszenia.
Do usłyszenia za tydzień.
Był to Tyflo Podcast.
Pierwszy polski podcast dla niewidomych i słabowidzących.
Program współfinansowany ze środków Państwowego Funduszu Rehabilitacji Osób Niepełnosprawnych.